JP2018156668A - 学習が強化されたアトラスベース自動輪郭抽出方法及び装置 - Google Patents

学習が強化されたアトラスベース自動輪郭抽出方法及び装置 Download PDF

Info

Publication number
JP2018156668A
JP2018156668A JP2018087963A JP2018087963A JP2018156668A JP 2018156668 A JP2018156668 A JP 2018156668A JP 2018087963 A JP2018087963 A JP 2018087963A JP 2018087963 A JP2018087963 A JP 2018087963A JP 2018156668 A JP2018156668 A JP 2018156668A
Authority
JP
Japan
Prior art keywords
atlas
image
data
points
subject image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018087963A
Other languages
English (en)
Other versions
JP6672371B2 (ja
Inventor
シャオ ハン
Xiao Han
シャオ ハン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Elekta Inc
Original Assignee
Elekta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Elekta Inc filed Critical Elekta Inc
Publication of JP2018156668A publication Critical patent/JP2018156668A/ja
Application granted granted Critical
Publication of JP6672371B2 publication Critical patent/JP6672371B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/143Segmentation; Edge detection involving probabilistic approaches, e.g. Markov random field [MRF] modelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/809Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20128Atlas-based segmentation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Computing Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】画像のアトラスベース自動輪郭抽出の効率性と正確さを改良する。【解決手段】プロセッサー100は、処理論理回路104を実装するように構成されている。処理論理回路により、ひとつ又はそれ以上のアトラス画像106は機械学習アルゴリズムに適用され、自動化構造分類器を学習させる。ひとつ又はそれ以上のアトラス画像は、望ましくは、ひとつ又はそれ以上のアトラス画像において興味ある構造を分類する構造分類データを含む。処理論理回路は学習された構造分類器108を生成するように動作する。学習された構造分類器は、画像のデータポイントを処理して、それらポイントが興味ある構造に属するか否かを自動的に分類するように構成されている。更に、学習された構造分類器は、それを必要なケースではないが、多数のポイントの画像を処理するように構成されている。【選択図】図1

Description

本発明は学習が強化されたアトラスベース自動輪郭抽出方法及び装置に関する。
[0001]
画像のアトラスベース自動輪郭抽出(atlas-based auto-segmentation(ABAS))の効率性と正確さを改良することが当技術分野で必要とされている。例えば、医療画像について構造の輪郭抽出は放射線治療に対して極めて重要である。人間の専門家による人手による輪郭抽出は、依然として病院における高品質の輪郭抽出に対する共通基準であるけれど、人手による輪郭抽出は、退屈で時間がかかるものであり、評価者内及び評価者間の大きな変化に悩まされている。
[0002]
コンピューター断層撮影(computed tomography(CT))画像のような画像の自動輪郭抽出は、画像ノイズや他の人為的な結果、最軟部組織に対する限定的な画像コントラストによる非常に挑戦的な問題であると証明されている。最近では、アトラスベース自動輪郭抽出(ABAS)技術は、その解決策として期待されている。しかしながら、発明者は、現存するアトラスベース自動輪郭抽出(ABAS)技術の正確性は、依然として、ABASを実用上より有用となるように改良し、より広く受け入れられることができると信じている。
[0003]
アトラスベース自動輪郭抽出(ABAS)の基本原理は、単数又は多数の既に輪郭抽出された画像(例えば、前もって処理された患者からの画像)を用いて、被写体像の輪郭抽出を行うことである。これら既に輪郭抽出された画像にそれらの注記(例えば、構造ラベルマップや構造面)を一緒にしたものは、アトラスとして知られている。新たな被写体像を、(画像登録としても知られている)画像マッチングを経てアトラス画像に揃えた後、アトラスに定義された構造ラベルは、コンピューターによる画像変換を用いて患者画像にマッピングされる。そのとき患者画像に対する構造ラベルを生成する。多くの自動化された画像登録方法が存在しているので、全体のプロセスは全て自動的に行われ得る。この原理に基づいて、アトラスベース自動輪郭抽出(ABAS)の正確性は、採用される画像登録方法に強く依存する。しかしながら、どの画像登録アルゴリズムに用いたとしても、アトラスベース自動輪郭抽出(ABAS)の正確性は、選択されたアトラスが患者画像と比較してどの程度類似しているかに依存する。更に、アトラスベース自動輪郭抽出(ABAS)を実行するときに多数のアトラスを用いることはこの効果を軽減するのに役立つが、本願発明者は、アトラスベース自動輪郭抽出(ABAS)がここに述べるように更に改善され得ると信じている。
[0004]
例えば、多数アトラスのアトラスベース自動輪郭抽出(ABAS)でも、輪郭抽出の精度は依然として各アトラス画像と被写体像との間の画像登録に強く依存している。更に、
多数アトラスのアトラスベース自動輪郭抽出(ABAS)でも単数アトラスのアトラスベース自動輪郭抽出(ABAS)でも、アトラスベース自動輪郭抽出(ABAS)は、例えば、PCT特許出願公開公報のWO2011/110960に記載されたようなモデルベースの輪郭抽出とは根本的に相違していると理解すべきである。モデルベースの輪郭抽出では、アトラス画像のような練習用データがお互いに登録され、興味のある構造のモデルに発達する。構造の形状変化を特徴づけることを目的とするこのモデルは、アトラス画像が存在しない輪郭抽出プロセスのあいだ用いられる。したがって、モデルベースの輪郭抽出では、アトラス画像が被写体像に対して登録されない。その代わり、発達した形状のモデルのみが被写体像に対して登録される。これに対し、アトラスベース自動輪郭抽出(ABAS)では、各アトラス画像が被写体像に対して登録され、輪郭抽出プロセスが実行され、各アトラス画像対被写体像登録に基づいて、各アトラス画像から被写体像への構造ラベルの地図を作成する。
[0005]
画像登録と無関係に、輪郭抽出も分類問題として説明され得る。そこでの目標は、与えられた画像の各ポイントに正しいクラスタ(構造)ラベルを割り当て得る画像分類を構成することである。それ自体による画像ポイント分類は、特に、ひとりの分類する人がフル3D画像内の任意のボクセルの正しいラベルを決定することが望まれるとすれば、厳しい問題を抱えている。したがって、本願発明者は、アトラスベース自動輪郭抽出(ABAS)と画像分類の双方の強さをハイブリット手法により結合した様々な実施形態を開示する。
[0006]
このような目的で、本願発明者は、(1)被写体像の複数のポイントにアトラス画像を使用するアトラスベース自動輪郭抽出(ABAS)を実行し、前記被写体像の構造を代表する第1のデータを生成するステップと、(2)前記被写体像の複数のポイントを学習が強化された分類器に適用し、前記被写体像の前記構造を代表する第2のデータを生成するステップと、(3)前記第1のデータを前記第2のデータと組み合わせ、前記被写体像の前記構造を代表する第3のデータを生成するステップとを有し、前記複数のステップはプロセッサーにより実行される自動輪郭抽出方法を開示する。
[0007]
また、本願発明者は、(1)被写体像の複数のポイントにアトラス画像を使用するアトラスベース自動輪郭抽出(ABAS)を実行し、前記被写体像の構造を代表する第1のデータを生成するステップと、(2)前記被写体像の複数のポイントを学習が強化された分類器に適用し、前記被写体像の前記構造を代表する第2のデータを生成するステップと、(3)前記第1のデータを前記第2のデータと組み合わせ、前記被写体像の前記構造を代表する第3のデータを生成するステップと、を実行するように構成されたプロセッサーを有する自動輪郭抽出装置を開示する。
[0008]
更に、本願発明者は、(1)被写体像の複数のポイントにアトラス画像を使用するアトラスベース自動輪郭抽出(ABAS)を実行し、前記被写体像の構造を代表する第1のデータを生成するステップと、(2)前記被写体像の複数のポイントを学習が強化された分類器に適用し、前記被写体像の前記構造を代表する第2のデータを生成するステップと、(3)前記第1のデータを前記第2のデータと組み合わせ、前記被写体像の前記構造を代表する第3のデータを生成するステップとをプロセッサーに実行させる、非一時的なコンピューター可読媒体上にある複数の命令を有する、自動輪郭抽出のためのコンピュータープログラム製品を開示する。
[0009]
他の観点によれば、本願発明者は、複数のアトラスデータのセットのそれぞれに対して、前記アトラスデータから複数の学習サンプルを収集するステップであって、各アトラスデータセットは、(1)複数のデータポイントを有するアトラス画像と、(2)複数の前記アトラスデータポイントに対する複数の構造ラベルとを有するステップと、前記収集された学習サンプルを機械学習アルゴリズムに適用し、自動構造分類器を生成するステップであって、前記構造分類器は、被写体像の複数のポイントのそれぞれに構造ラベルを決定するように構成されているステップと、を有し、前記方法のステップはプロセッサーにより実行される学習方法を開示する。
[0010]
本願発明の上記及び他の特徴や利点は、後述する明細書及び図面を参照して当業者にとって明らかである。
図1は、機械学習アルゴリズムを用いて自動化構造分類器を学習させる本発明の典型的な実施形態を示す図である。 図2は、機械学習アルゴリズムを用いて自動化構造分類器を学習させるためのプロセッサーにより実行される典型的な処理フローを示す図である。 図3は、自動化構造分類器を学習するためのサンプルを収集するサンプル画像領域の実施例を示す図である。 図4は、アトラスベース自動輪郭抽出(ABAS)と学習された自動化構造分類器との組合せを用いて被写体像を自動輪郭抽出する本発明の典型的は実施形態を示す図である。 図5は、アトラスベース自動輪郭抽出(ABAS)と学習された自動化構造分類器との組合せを用いて被写体像を自動輪郭抽出する典型的は実施形態に従ってプロセッサーにより実行される典型的な処理フローを示す図である。 図6は、多数のアトラス画像を用いた場合の図5の実施形態に従ってプロセッサーにより実行される典型的な処理フローを示す図である。 図7(a)−(c)は、多数のアトラス画像のアトラスベース自動輪郭抽出(ABAS)を経て生成された画像の実施例を示す図である。 図8は、学習強化の有り無しの多数のアトラス画像のアトラスベース自動輪郭抽出(ABAS)を用いた胸郭の輪郭抽出のテーブルを示す図である。 図9は、アトラスベース自動輪郭抽出(ABAS)と学習された自動化構造分類器の組合せを用いて被写体像を自動輪郭抽出する他の典型的な実施形態に従ってプロセッサーにより実行される典型的な処理フローを示す図である。 図10は、アトラスベース自動輪郭抽出(ABAS)と学習された自動化構造分類器の組合せを用いて被写体像を自動輪郭抽出する更に他の典型的な実施形態に従ってプロセッサーにより実行される典型的な処理フローを示す図である。
[0021]
機械学習アルゴリズムを用いて自動化構造分類器を学習させ、かつ、ひとつのアトラス画像又は多数のアトラス画像と自動化構造分類器とを用いて学習により強化されたアトラスベース自動輪郭抽出(ABAS)を実行する様々な実施形態を説明する。
[0022]
ここで記載する技術を用いて処理された画像は多数のタイプのいずれかを取り得ることを理解するべきである。様々な典型的な実施形態において、画像はCT画像のような医学画像である。しかしながら、異なるタイプの画像に適用できることを理解するべきである。例えば、磁気共鳴(MR)画像や超音波画像のような画像が、ここで記載する技術を用いて処理することが可能である。
[0023]
I.機械学習を用いた自動構造分類器の学習
[0024]
図1に自動化構造分類器を学習させて画像内のひとつ又はそれ以上の興味のある構造を検出する典型的な実施形態を示す。図1に示すように、プロセッサー100は、処理論理回路104を実装するように構成されている。処理論理回路104により、ひとつ又はそれ以上のアトラス画像106は機械学習アルゴリズムに適用され、自動化構造分類器を学習させる。ひとつ又はそれ以上のアトラス画像106は、望ましくは、ひとつ又はそれ以上のアトラス画像106において興味ある構造を分類する構造分類データを含む。処理論理回路106は学習された構造分類器108を生成するように動作する。学習された構造分類器108は、画像のデータポイントを処理して、それらポイントが興味ある構造に属するか否かを自動的に分類するように構成されている。構造分類器108は、機械的に実行可能なひとつのルールセットのような多数のタイプのいずれかを取り得る。更に、実行する者が望むなら、学習された構造分類器108は、それを必要なケースではないが、多数のポイントの画像を処理するように構成されている。
[0025]
図1に示されたアトラス画像は2次元(2D)画像でも3次元(3D)画像でもよい。2次元画像(2D)では、画像データの各ポイントはピクセル(pixel)として参照される。3次元画像(3D)では、画像データの各ポイントはボクセル(voxel)として参照される。簡単にするために、ここでの実施例は、画像データの各ポイントがボクセル(voxel)で記述される3次元画像(3D)への適用例とする。しかしながら、ここで記述される技術は、2次元画像(2D)に対して分類を学習して画像を自動輪郭抽出することに同等に適用することができる。更に、簡単にするために、ここでの実施例は、ひとつの構造のみが画像内に分類される場合について記述される。しかしながら、ここで記述される分類を学習して画像を自動輪郭抽出する技術は、被写体像内の複数の構造を分類することにも適用することができる。
[0026]
プロセッサー100は、後述する機械学習機能を実行する十分な処理能力が有するいかなるプロセッサーでもよい。プロセッサー100はマルチプロセッサーでもよく、任意にネットワークを介して配信されるプロセッサーでもよい。処理論理回路104に実行させるプログラム命令は、プロセッサー100によりアクセスされ実行される非一時的なコンピューター読取可能な記憶媒体(例えば、メモリ102)に格納される。メモリ102は、マルチメモリ装置でもよく、任意にマルチの配信されるメモリ装置及び/又は異なるタイプのメモリ装置でもよい。
[0027]
図2に処理論理回路104における典型的な処理フローを示す。図2の実施例は、多数のアトラス画像106(とそれらに関連する分類データ)からのデータに機械学習アルゴリズムを適用し、被写体像を処理して興味ある構造に対して自動輪郭抽出を実行することができる学習された構造分類器を生成する。アトラス画像106に対する分類データから、興味ある構造が各アトラス画像106内に位置している場所を推測することができる。この分類データは、多数のフォームのいずれかをとることができる。例えば、分類データを各アトラス画像106にボクセルに関連したラベルとし、それによりそれらアトラス画像のボクセルが興味ある構造として分類されるか否かを確認することができる。
[0028]
分類学習のために選ばれたアトラス画像106は、それら対応する分類データの正確性について高信頼性を有するアトラス画像であることが望ましい。典型的には、手動で輪郭が描かれたアトラス画像106が選択され分類器を学習することが期待されている。
[0029]
ステップ200では、プロセッサーはアトラス画像106から複数のサンブルのボクセルを収集して分類器を学習させるのに用いる。処理フロー104は各アトラス画像106の全てのボクセルに対して作用するように構成されているが、本願発明者は、正確性を維持してより少ないアトラス画像のボクセルを用いることが計算効率を改善することだと信じている。
[0030]
これら学習するサンプルは、(各アトラス画像106に対する分類データによって定義される)興味ある構造の近接範囲内であるアトラス画像ボクセルの部分集合として選択される。
[0031]
図3に、学習サンプルがひとつの構造に対してどのようにして収集されるかの実施例を示す。図3の実施例は3次元(3D)アトラス画像の2次元(2D)スライス画像上の興味ある構造(耳下腺)を示すものである。輪郭304は構造の境界を示す(あらゆる内部ボクセル輪郭304は耳下腺上に属し、あらゆる外部ボクセルは「背景」に属する)。輪郭302、306は、輪郭304によって定義された構造の境界に対してある範囲内(例えばこの実施例では8mm)の領域の輪郭を描くものである。この距離は、利用者により設定される処理フロー104のパラメーターである。この距離が短いと構造境界に近いボクセルに焦点をあわせて学習することになる。そこはアトラスベース自動輪郭抽出(ABAS)の誤差が最も起きやすい領域である。しかし、その距離は、アトラスベース自動輪郭抽出(ABAS)の結果に起こりうる誤差範囲に適合するのに十分に大きいことが望ましい。距離のしきい値が設定されると、ステップ200を実行し、輪郭304と輪郭306間の一組のボクセル(すなわち、興味のある構造に属すると知られているボクセル)から構造分類器に対するポジティブ学習サンプルを収集する。輪郭304と輪郭306tの間のいかなるボクセルもネガティブ学習サンプル(すなわち、興味ある構造に属さないと知られているボクセル)として提供する。図3は2次元(2D)スライスを示すが、これら原理は3次元(3D)空間に同等に適用することができる。
[0032]
学習のためのサンプル収集を、輪郭302と輪郭306の間の構造の狭い隣接領域に限定したとしても、この隣接領域には、単一画像に対する数万のボクセルを容易に含ませることができる。画像空間に於いて互いに近接するボクセルは強く関連するので、輪郭302と輪郭306との間の全てのボクセルを学習に用いる必要はない。より少ないボクセルを用いることにより、処理フロー104の演算負荷を軽くすることができる。したがって、典型的な実施形態において、ステップ200を実行し、学習サンプルの候補セットにおける全てのポジティブなボクセルから所定量の無作為のサンプルと、学習サンプルの候補セットにおけるネガティブなボクセルから所定量の無作為のサンプルとを取り出すことにより学習サンプルを収集する。この無作為な抽出は一様である必要はない。例えば、構造境界(輪郭304)により近いとより多くのサンプルを取り出し、遠いとより少ないサンプルを取り出すことが望ましい。また、殆どの機械学習アルゴリズムは、ポジティブなサンプルとネガティブなサンプルとがバランスすることが好ましい。したがって、そのような機械学習アルゴリズムが用いられると、ステップ200は、各構造の各アトラスから、同量のポジティブ及びネガティブなサンプルを取り出すように構成されている。ステップ200が各アトラスからK個のポジティブなサンプルとK個のネガティブなサンプルを取り出したと仮定し、N個のアトラス画像が使われたと仮定すると、学習アルゴリズムに対する学習サンプルの全個数は2KN個となる。もし問題の分類器が多数の構造分類器であるならば、ステップ200は、各構造クラスに対してKN個のサンプルを収集し、その背景にざっとKN個のサンプルを収集するように構成される。
[0033]
ステップ202では、プロセッサーが収集された学習サンプルに対して複数の属性を計算する。これら属性は、その分類タスクの一部として機械学習アルゴリズムにより用いることができる。学習された分類器は、そのボクセル位置で収集された測定データに基づいて画像ボクセルの分類ラベルについて決定する。相違する構造はCT画像のような画像においてしばしば非常に類似する強度値を有するので、そのボクセルの画像強度値のみに基づくボクセル分類は過度の不正確さを招く。よりよいボクセル分類を構築するために、ステップ202では、そこでの画像の外観と関連する背景情報のより完全な特徴を得るために、複数の学習サンプルのそれぞれのボクセル位置での複数の測定値を計算する。これら測定は、ボクセルの属性又は特徴と呼ばれる各画像ボクセルに対するデータベクトルを形成する。
[0034]
様々な画像の特徴が各画像ボクセル位置で計算される。分類器の学習により多くの属性が用いられるほど、学習された分類器はよる正確になることが期待されているが、非常に多くの属性を使用することは、計算時間が増加する結果となることとトレードオフの関係にある。学習ボクセルのためにステップ202で計算される属性の具体例には次のようなものがある。
[0035]
画像強度値I−未加工の画像強度値、又は、ノイズ除去や強度正規化のようなある前処理後の強度値。
[0036]
画像位置−ボクセルの座標値(x,y,z)。座標値は、共通の参照座標系に対して正規化するのに有用である。これを実現するためには、線形画像登録を適用することにより、あらゆる画像を、アトラス画像又は新たな被写体像として、共通テンプレート(アトラスのいずれかがテンプレートとして選択される)に含まれるものとして登録し、線形マッピングが適用された後にボクセル座標値を記録する。
[0037]
画像勾配(Ix,Iy,Iz)=▽(Gσ*I)と勾配値|▽(Gσ*I)|。但し、Gσは、カーネルサイズσでのガウス平滑化フィルタを示す。典型的には、多重スケールでの画像勾配特徴を計算すること、すなわち、多重σ値が適用されることが有益である。
[0038]
画像ハッシュマトリックス H=▽▽(Gσ*I)。それは異なるスケールで再度計算される。
[0039]
画像テクスチャー測定基準。エネルギー、エントロピー、コントラスト、均質性や、論文「M. Tuceryan and A. K. Jain, "Texture Analysis", In The Handbook of Pattern Recognition and Computer Vision (2nd Edition), by C. H. Chen, L. F. Pau, P. S. P. Wang (eds.), pp. 207-248, World Scientific Publishing Co., (1998)」で定義されているローカル共発生マトリックス(local co-occurance matrix)の相関性である。
[0040]
様々なサイズのローカル画像パッチ。例えば、ボクセルの局所5×5×5付近の強度値又は正規化された強度値を取得し、125個の特徴値を得ることができる。
[0041]
Computer Visionの論文で提案された多くの特徴を使用することができる。
Haar features(論文「Viola and Jones, "Rapid object detection using a boosted cascade of simple features", Computer Vision and Pattern Recognition, (2001)」参照)、HOG(論文「Dalal, N., Triggs, B., Schmid, C.: Human detection using oriented histograms of flow and appearance. Computer Vision-ECCV, 428-441 (2006)」参照)、SIFT(論文「D. G.: Object recognition from local scale-invariant features. Proceedings of the International Conference on Computer Vision. 2. pp. 1150-1157 (1999)」参照)、Local Binary Pattern(論文「 Ojala, T., Pietikainen, M., Harwood, D.: A comparative study of texture measures with classification based on feature distributions. Pattern Recognit. 29(1), 51-59 (1996)」と「 Ojala, T., Pietikainen, M., Maenpaa, T.: Multiresolution gray-scale and rotation invariant texture classification with local binary patterns. IEEE Trans. Pattern Anal. Mach. Intell. 24(7), 971-987 (2002)」参照)、その他である。
これら特徴はほとんど2D画像に対して提案されている。よって、ステップ202が3D画像に適用されるならば、これら属性は、3D画像に拡張して適用されるか、又は、考慮されているボクセルを含む各2D画像スライスにおいて計算される。
[0042]
ステップ202では、これら属性の全てを計算する必要はなく、他の属性も用いてもよく、他の属性を代わりに用いてもよい。更に、アトラス画像データに、機械学習アルゴリズムにより用いられるアトラス画像ボクセルに対する属性が含まれているならば、ステップ201を処理フロー104から省略することができる。
[0043]
ステップ204では、収集された学習サンプルと計算された属性が機械学習アルゴリズムに適用され、学習された構造分類器108を生成する。学習された構造分類器は、下記に示すように、予測機能を発揮し、自動的に被写体像の所与の入力ボクセルを自動的に分類する。機械学習アルゴリズムは管理された学習アルゴリズムとなる。管理されたアルゴリズムは、学習データセットを与えられた予測モデルを割り出すことを求める機械学習の分岐である。学習データの各個別のサンプルは、(研鑽された属性と原ボクセルデータのような)データベクトルと所望の出力データとの対からなる。管理された学習アルゴリズムは学習データを分析し、予測機能を生成する。この予測機能は、出力が離散的である場合(例えば、ここで記述する典型的な実施形態のように構造ラベルのリストのように離散的である倍)には分類器と呼ばれる。予測機能は、いかなる有効な入力オブジェクトに対する正しい出力値を予測するように構成されていることが望ましい。それは管理されたアルゴリズムを必要とし、学習データから見えない状況に「合理的な方法」で導き出される。
[0044]
ステップ204で利用される望ましい機械学習アルゴリズムは、ランダムフォレスト(Random forest(RF))機械学習アルゴリズムである(論文「Breiman, Leo, "Random Forests", Machine Learning, 45 (1): 5-32, 2001」参照。この論文の全開示は本願明細書の記載に含まれる)。本願発明者は、ランダムフォレスト(Random forest(RF))機械学習アルゴリズムが医療画像に関する構造分類に対して非常に強力で正確であることを見出した。
[0045]
ランダムフォレスト(RF)アルゴリズムは動作し、決定ツリー(decision tree)の集合である学習された分類器108を生成する。各決定ツリーは、ツリー構造に組み立てられた一組の決定ルールである。決定ツリーの各ノードでは決定ルールが適用される。それはしばしばテストファンクション(test function)又はスプリットファンクション(split function)と呼ばれる。各テストファンクションは、入力に対する属性又は特徴を示し、二値出力(yes/no)を生成する。二値(yes/no)回答に基づいて、入力データは現在のノードの左側の子ノード(child-node)又は右側の子ノード(child-node)のいずれかに送られる。子ノード(child-node)では新たな特徴値に基づいて他のテストを行う。いわゆる「葉状ノード(leaf-node)」に達するまで、これが繰り返される。「葉状ノード(leaf-node)」は「子ノード(children node)」が無いツリーノード(tree node)である。各葉状ノード(leaf-node)はそれに関連するクラス/構造(class/structure)のラベルを有するが、ときには特定のクラス/構造に属する可能性を示す確率値である。ルールは二値出力を有するテストファンクションとして、例えば数1のように記述される。
Figure 2018156668
ここで、νは第i番目の特徴値であり、a、bはふたつのしきい値である。ランダムフォレスト(RF)アルゴリズムを用いて学習された学習分類器108について、分類器108は決定ツリーの集合体の形をとる。そこで、各決定ツリーは、ツリー(tree)又はフローチャートの構造に系統だてられた決定ルールのセットである。そこで、各内部(ノンリーフ(non-leaf))ノードは属性(すなわち、決定ルール)上でのテストを示し、各ブランチ(branch)はテストの出力を示し、各リーフ(leaf)(すなわち端子(terminal))はクラスレベルを保持する。
[0046]
ステップ204の間、各ツリーは他のツリーと独立に学習されるので、望むならばツリーは平行に構築される。学習サンプルは、ランダムフォレスト(RF)アルゴリズムによって用いられてツリーを「学習(learn)」する、すなわち、各内部ツリーノードで使用するための決定ルールを決定する。ランダムフォレスト(RF)アルゴリズムに対して、各ツリーは、異なるツリーが強く相関性がなくなるように学習データのランダムな部分集合を用いて構築される。いちど学習サンプルが収集されてそれらの属性がツリーに対して計算されると、一度にひとつのノードを加えることにより、ツリーが再帰的に構築される。各ノードで、ランダムフォレスト(RF)アルゴリズムは、現在のノードに到着する学習データを最も効率的に輪郭抽出する最良の決定ルールを見つけることを目的としている。ふたつに分類する場合には、「最良の分割(best splitting)」とは、各ノードの分岐が同じクラスからできるだけ多くのサンプルを含むことを意味する。したがって、ランダムフォレスト(RF)アルゴリズムの学習(training or learning)プロセスは、どの特徴を現在のノードで使用するべきか、どのようなしきい値が学習データの最善の分割に適用されるべきかを決定する。ランダムフォレスト(RF)アルゴリズムでは、全ての特徴の少なくランダムな部分集合のみが各ノードで考慮され、「最善の」特徴は、全ての特徴を使用する代わりに、このランダム部分集合から選択される。このランダム性は、できるだけ独立のツリーを作成することを目的としている。新たに加わったノードは、入力する(学習する)データをふたつのブランチ(ふたつの部分集合)に分割し、各部分集合は次に続く子ノードで再度テストされる。したがって、各非葉(non-leaf)ノードはふたつの子ノードを有する。各子ノードに到達する学習データが全て同じクラスに属するまでツリーは成長する。そのとき、子ノードはツリーの葉状ノードになり、子ノードに到着する学習データのクラスラベルはその葉状ノードのラベルとなる。
[0047]
公的に入手可能な多くのランダムフォレスト(RF)アルゴリズム実装がある。例えば、Weka機械学習ソフトウエアパッケージ(Weka (Waikato Environment for Knowledge Analysis) machine-learning software package)がオンラインで提供さており、それはランダムフォレスト(RF)アルゴリズムソフトウエアパッケージを含んでいる。これらソフトウエアパッケージは、学習サンプルが機械学習アルゴリズムに適用されるための既知のインターフェースも含んでいる。更に、そのようなソフトウエアパッケージにより生成される、学習された分類器108は、機械が実施可能なルールとして決定ツリーを表現したテキストファイルとして形をとる。
[0048]
ランダムフォレスト(RF)アルゴリズムは自然に複数の分類、すなわち、複数の構造(とバックグラウンド)を分類するためのひとつの分類器、を取り扱うことができる。ランダムフォレスト(RF)分類器の出力は、入力データが属している分類の確率推定である。それはまた、他の学習アルゴリズムが生成するような硬い決定(hard decision)よりは好ましい。更に、ランダムフォレスト(RF)アルゴリズムは、分類器学習と分類器適用の両面において高速であり、非常に大規模な入力データを取り扱うことができる。
[0049]
しかしながら、実施者が望むなら、他の機械学習アルゴリズムがステップ204で採用され得ることを理解すべきである。ステップ204で採用され得る機械学習アルゴリズムの具体例は、例えば、Support Vector Machine (SVM) or AdaBoost machine learning algorithmsのように、論文「Witten, I. H., Frank, E., Hall, M. A.: Data Mining: Practical machine learning tools and techniques. Third Edition, Morgan Kaufmann Publishers (2011)」に記載されたものを含む。この論文の記載全体はこの引用により本明細書に含まれる。
[0050]
図2の処理フローは、被写体像に対して実行する自動輪郭抽出動作について「オフライン」で実行されることを理解すべきである。すなわち、分類器学習は、所望のアトラス画像106が収集された後には、分類器学習が実行されるだけでよい。結果の学習分類器108は格納され、被写体像の自動輪郭抽出に関連した後の使用において適用される。
[0051]
II.学習が強化されたアトラスベース自動輪郭抽出(ABAS)
[0052]
図4は学習された分類器108を用いる、学習が強化されたアトラスベース自動輪郭抽出(ABAS)を実行する典型的は実施形態を示す図である。図4に示すように、プロセッサー400は処理論理回路404を実行するように構成され、それにより新たな被写体像408がひとつ又はそれ以上のアトラス画像406を用いて自動輪郭抽出され、被写体像408における興味あるひとつ又はそれ以上の構造を特定する。処理論理回路404は被写体像408に対する輪郭抽出結果410を生成するように動作する。この輪郭抽出結果は、被写体像408のどこにひとつ又はそれ以上の興味ある構造が位置しているかの予測に対応する。この分類データは多数のフォームのいずれかをとる。例えば、分類データは、被写体像のポイントに関連し、それにより被写体像のポイントが興味ある構造のとして分類されるか否かを特定する。図4に示された画像は、2次元(2D)画像又は3次元(3D)画像である。
[0053]
プロセッサー400は、本願明細書に記載する自動分類を実行するのに十分な計算能力を有するプロセッサーである。プロセッサー400は、ネットワークを介して任意に割り当てられる複数のプロセッサーを含む。処理論理回路403を動作させるプログラム命令は、プロセッサー400によりアクセスして実行される、非一過性のコンピューター読取可能な記録媒体(例えば、メモリ402)上に存在する。メモリ402は複数のメモリ素子でもよいし、任意に割り当てられた複数のメモリ素子、及び/又は、異なるタイプのメモリ素子でもよい。
[0054]
更に、アトラス406は分類器を学習するのに用いた同じアトラス106でもよいが、同じアトラス106である必要はない。更に、プロセッサー400とメモリ402は、分類器を学習するのに用いた同じプロセッサー100でもよいが、同じプロセッサー100である必要はない。
[0055]
図5は処理論理回路404に対する典型的な処理フローを示す。図5の実施例は、アトラスベース自動輪郭抽出(ABAS)と学習された分類器による自動輪郭抽出の双方の結果を組合せ、被写体像408に対する総括的な自動輪郭抽出結果を生成する。
[0056]
ステップ500では、プロセッサーは、被写体像408にひとつ又はそれ以上のアトラス画像406を用いるアトラスベース自動輪郭抽出(ABAS)を実行する。ステップ500では、アトラスベース自動輪郭抽出(ABAS)のいかなる既知の技術を採用することができる。例えば、次の論文「Han, X., Hoogeman, M. S., Levendag, P. C., Hibbard, L. S., Teguh, D. N., Voet, P., Cowen, A. C., Wolf, T. K.: Atlas-based auto-segmentation of head and neck CT images. In: Metaxas D. et al. (eds.) MICCAI 2008, LNCS 5242, 434-441 (2008)」に記述されたアトラスベース自動輪郭抽出(ABAS)技術である。この論文の記載全体はこの引用により本明細書に含まれる。ステップ500は、構造ラベル推定502を生成することとなる。これらラベル推定は、被写体像408のポイントに関連し、それら被写体像のポイントが興味ある構造に属するように分類されるかを特定するレベルである。
[0057]
ステップ504では、プロセッサーはアトラスベース自動輪郭抽出(ABAS)構造ラベル推定502を用い、被写体像408のどのポイントが学習された分類器108を用いて更に分析すべきかを特定する。計算効率を改善し、必要とされる学習された分類器108の複雑さを減らすために、被写体像408のボクセルの部分集合のみが学習された分類器108に適用されることが望ましい。多くの技術のいずれかが、被写体像のボクセルの部分集合を選択するのに用いられる。例えば、被写体像に対するアトラスベース自動輪郭抽出(ABAS)ラベルが曖昧であり、構造ら別が曖昧なボクセルは部分集合に含まれるかどうかを評価するための基準を定義することができる。
[0058]
そのような曖昧さ基準の実施例として、どのデータが構造ラベル推定502の正確性を示すかについて、この推定正確性データは、どの被写体像ボクセルがステップ502で選択されるべきかを判断するために用いることができる。例えば、アトラスベース自動輪郭抽出(ABAS)構造ラベルが、50%のようなX%以下の正確性を有するような被写体像ボクセルを選択することがある。そのようなボクセルは曖昧であると特徴づけられ、学習された分類器はこの曖昧さをある程度解消するのに役立つと信じられている。
[0059]
そのような曖昧さ基準の他の実施例として、多数のアトラスがアトラスベース自動輪郭抽出(ABAS)のために使用される場所では(各アトラスが被写体像408と共に登録されてラベルマップを生成し、これらラベルマップが融合して構造ラベル推定502を生成する場所では)、部分集合を選択することにより、構造ラベル推定502を生成するために使用された様々なラベルマップ間の分類について相違している被写体像ボクセルを特定することにより曖昧な被写体像ボクセルを選択するように構成することがある。
[0060]
そのような曖昧さ基準の更に他の実施例として、部分集合が、構造ラベル推定502から構造境界周囲の近傍を定義することにより選択され、その部分集合が、この近傍内にある被写体像ボクセルとして選択することがある。最大の曖昧さ(少なくとも最大の物質の曖昧さ)が構造境界の近くにあることが期待されるなら、そのような技術は、最も興味あるボクセルについての学習された分類器に的を絞るのに役立つ。
[0061]
これらやその他の技術は、被写体像のボクセルの部分集合を選択し、学習された分類器108に適用するのに用いられる。
[0062]
更に、もし必要なら、ステップ504で、プロセッサーは学習された分類器108によって使用されるべき属性を計算する。したがって、ステップ504は動作し、学習された技術に対してステップ202で形成された属性を計算する。したがって、ステップ504で認定されたポイントには、そのようなポイントに対して計算された属性を含む。
[0063]
ステップ506で、プロセッサーはステップ504で認定されたポイント(計算された属性を含む)を学習された構造分類器108に適用する。学習された分類器は、上述したように学習され、入力ボクセルに対する複数の属性に基いて所与の入力ボクセルに対する構造ラベルを決定する。したがって、ステップ506の動作は、被写体像のボクセルの選択された部分集合に対する分類データ508を生成することになる。ここで、この分類データは、選択された部分集合の被写体像の各ボクセルが興味ある構造に属するか否かを確認する。もう一度、分類データ508は、被写体像のボクセルの部分集合に対する構造ラベルマックの形をとる。
[0064]
学習された分類器108は完全ではないので、各ボクセルの構造分類に対する最終判断は、アトラスベース自動輪郭抽出(ABAS)と学習された分類器による分類508の両方に基づくべきである。したがって、ステップ510では、プロセッサーは、アトラスベース自動輪郭抽出(ABAS)と学習された分類器1−8とからの分類データ502と508とを組み合わせ、最終分類データ512を生成する(この分類データは最終輪郭抽出結果を示し、被写体像のボクセルに対する構造分類ラベルを特定する)。ステップ510での組み合わせを行うには多くの方法がある。例えば、分類データ520と508との多数決方式が採用される(もしひとつのアトラスのみがアトラスベース自動輪郭抽出(ABAS)構造ラベリングに用いられるならば、同点決戦投票方式が用いられる必要がある)。他の実施例として、もし学習された分類器108が硬い決定(hard decision)を生成するならば、その結果508を他のラベルマップとし、ラベルマップ502と508との間のラベル融合を実行する。例えば、もしアトラスベース自動輪郭抽出(ABAS)と学習された分類器108が(例えば、ランダムフォレスト(RF)分類器が用いられたときのような)その構造ラベリングに対する確率推定を提供するなら、ひとつの選択肢は、ふたつの確率推定、アトラスベース自動輪郭抽出(ABAS)のラベルデータ(P)からのものと、学習された分類器のラベルデータ(P)の重み付け平均として、次の(1)式のように、最終的な構造確率(P)を計算することである。
P=w+w 但し、w+w=1 (1)
ふたつの重み付け(wとw)は同じでよいし、手入力又は自動的に調整してもよい。最善の重み付けは、交差検定(cross-validation)のような学習手順に基づいて自動的に決定されることでもよい。いちど構造確率があらゆるボクセルに対して計算されると、分類データ512に対する最終的な構造ラベルは、P(構造確率)をしきい値0.5で峻別することにより見つけられる。更に他の実施例として、論文「Warfield, S. K., Zou, K. H., Wells, W. M.: Simultaneous truth and performance level estimation (STAPLE): An algorithm for the validation of image segmentation IEEE Transactions on Medical Imaging 23(7), 903-921 (2004)」に記載されたSTAPLE法がステップ510での組合せ動作を実行するために用いられる。この論文の記載全体はこの引用により本明細書に含まれる。
[0065]
ふたりの任意の患者の間には大きな解剖学的変化が存在するので、ひとつのアトラスに対するアトラスベース自動輪郭抽出(ABAS)を用いて満足する輪郭抽出結果を得ることは通常困難である。アトラスベース自動輪郭抽出(ABAS)の輪郭抽出の正確性を改善する共通のアプローチは、多数のアトラスを用いることである。次の論文又は書籍を参照されたい。
「Rohlfing, T., Brandt, R., Menzel, R., Maurer, C. R. Jr.: Evaluation of atlas selection strategies for atlas-based image segmentation with application to confocal microscopy images of bee brains. NeuroImage 21(4), 1428-1442 (2004)」
「Rohlfing T., Brandt, R., Menzel, R., Russakoff, D. B., Maurer, C. R. Jr.: Quo Vadis, Atlas-based segmentation? In: Suri, J., Wilson, D., Laxminarayan, S. (eds.)」
「The Handbook of Medical Image Analysis. Kluwer (2005); Heckemann, R. A., Hajnal, J. V., Aljabar, P., Rueckert, D., Hammers, A.: Automatic anatomical brain MRI segmentation combining label propagation and decision fusion. NeuroImage 33(1), 115-126 (2006)」
「Klein, S., van der Heide, U. A., Lips, I. M., van Vulpen, M., Staring, M., Pluim, J. P. W.: Automatic segmentation of the prostate in 3D MR images by atlas matching using localized mutual information. Med. Phys. 35(4), 1407-1417 (2008)」
「Han, X., Hoogeman, M. S., Levendag, P. C., Hibbard, L. S., Teguh, D. N., Voet, P., Cowen, A. C., Wolf, T. K.: Atlas-based auto-segmentation of head and neck CT images. In: Metaxas D. et al. (eds.) MICCAI 2008, LNCS 5242, 434-441 (2008)」
これら論文又は書籍の記載全体はこの引用により本明細書に含まれる。
[0066]
図6に、多数のアトラス406を用いてアトラスベース自動輪郭抽出(ABAS)を実行する典型的な実施形態を示す。そこでは、アトラスベース自動輪郭抽出(ABAS)の輪郭抽出結果が学習された分類器108からの輪郭抽出結果と結合され、最終の輪郭抽出結果510を生成する。この多数のアトラスを用いたアトラスベース自動輪郭抽出(ABAS)方法では、提供されるアトラス406のそれぞれが先ず適用され(すなわち、ステップ600での画像登録とステップ602での構造ラベルマッピングがなされ)、各アトラス406に対する画像の独立した分類データを別々に得る。異なるアトラスからのこれら多数の輪郭抽出結果(ラベルマップ)はステップ604で組み合され、興味ある構造に対する合意したアトラスベース自動輪郭抽出(ABAS)を得る。ステップ604は(ステップ510に類似したラベル融合として参照される。ステップ510のように、多くのラベル融合技術のいずれかが採用され、個々のアトラスレベルマップを結果としてアトラスベース自動輪郭抽出(ABAS)ラベルマップ502に組み合わせる。最も単純なラベル融合のアプローチは多数決によるものである。多数決ラベル融合テクニックでは、新たな画像の各ボクセルについて、各アトラスラベルマップが、ボクセルがどの構造又はどの非構造(背景)に属するかについて、原則として投票を行う。ボクセルの最終的なラベルは、最多投票されたひとつのラベルに決定される。ラベル値が(構造内にあるものに対する)1と(背景にあるものに対する)0のいずれかである二値の場合には、多数決投票は、各ボクセルの全てのラベルの平均をとり、その平均が0.5より大きいか小さいかに基づき、構造か背景かのいずれをボクセルに割り当てる。平均値は0と1の間であるので、構造ラベルの確率的推定と考えられる。多数決又は単純平均は、個々のアトラス輪郭抽出結果におけるランダムのエラーを減少させるのに有効である。上述したSTAPLE法のような、他のより複雑なラベル融合方法をステップ604で採用することができる。これらの方法は、各個別のアトラスの性能や正確性への賢明な推測に基づいて、異なるアトラスに最善、かつ、等しくない重み付けを割り当てることを目的としている。もう一度言うと、これらレベル融合のいずれかをステップ604で採用することができる。
[0067]
図7(a)−(c)は、多数のアトラスを用いたアトラスベース自動輪郭抽出(ABAS)の実施例を示す。図7(a)は、異なるアトラスラベルマップ(そこでの構造は右の耳下線)からの推定された構造境界を輪郭線700として示す。図7(b)は、これら相違するアトラスラベルマップが不一致である場所を領域702として示す。図7(c)は、どのようにして様々なアトラスラベルマップが組み合されてラベル融合技術を介して構造確率マップを示す。
[0068]
一度、多数のアトラスラベルマップが組み合され、アトラスベース自動輪郭抽出(ABAS)分類データ502を生成すると、図6の処理フローは、図5を用いて先に説明したように進行する。
[0069]
いくつかの実験が行われた。そこでは、ここで記載した学習ベースの強化が多数のアトラスのアトラスベース自動輪郭抽出(ABAS)の輪郭抽出の正確性を非常に向上させることを示している。ひとつの研究では、アトラスベース自動輪郭抽出(ABAS)と学習強化されたアトラスベース自動輪郭抽出(ABAS)が、肺がん患者の画像から葉、胸郭を自動輪郭抽出するのに適用された。
[0070]
この実験において、15人の異なる患者から15のCT画像が収集された。各画像の胸郭は、専門家により手作業で輪郭抽出された。一個抜き交差検証(leave-one-out cross-validation)が実行され、図6の実施形態のパフォーマンスをテストした。そこでは、各患者に対して、残りの14のデータセットがアトラスとして用いられ、多数のアトラスのアトラスベース自動輪郭抽出(ABAS)を実行し、胸郭に対するランダムフォレスト(RF)ボクセル分類器を学習した。各患者に対して、ふたつの自動輪郭結果が得られた。ひとつ目は、多数のアトラスのアトラスベース自動輪郭抽出(ABAS)自身をラベル融合方法として実行するものである。ふたつ目は、図6に関連して記載した、学習が強化されたラベル融合を用いたものである。学習が強化されたラベル融合において、最終構造確率は、ふたつの項の重み付けが同じである上述した式(1)を用いて計算される。各自動輪郭抽出の結果の正確性は、各患者に対する所与の手作業の輪郭抽出に対して評価され、ダイス重複係数(Dice overlapping coefficient)により測定された。ダイス重複係数とは、自動輪郭抽出の結果と手動輪郭抽出の結果の平均体積に対する、自動輪郭抽出の結果と手動輪郭抽出の結果との重複した領域の体積の比である。これら実験の結果は図8にまとめて記載されている。図8の表のデータからわかるように、学習が強化されたラベル融合は、多数のアトラスのアトラスベース自動輪郭抽出(ABAS)での胸郭の輪郭抽出の正確性を非常に改善している。
[0071]
図5と図6は、学習が強化されたアトラスベース自動輪郭抽出(ABAS)を実行する典型的な実施形態を示すが、他の実施形態が採用され得ることを理解すべきだ。例えば、上述したように、施術者は、図9に示すような、学習された分類器を使用して被写体像408の全てのボクセルを分類することを選択することができる。したがって、図9の実施形態において、ステップ504は省略され、ステップ900で学習された分類器108が被写体像408の全てのボクセルに対して実行する。そのような実施形態において、被写体像ボクセルの必要な属性は、分類器108により使用され計算されることを必要とする。ステップ510では、分類データ502と902は上述したように組み合され、最終輪郭抽出結果904を生成する。
[0072]
多数のアトラスを使用するアトラスベース自動輪郭抽出(ABAS)の実施形態における他の実施例として、図10に示すように、学習された分類器108を、ステップ602で生成された個々のアトラスラベルマップの部分集合に対して独立に作用させるものがある。図10において、ステップ1000は、ステップ602で生成された個々のアトラスラベルマップに対して作用する。したがって、もし部分集合を選択するための曖昧基準が用いられたならば、ステップ1000は、個々のアトラスラベルマップからの曖昧なボクセルが独立にステップ1002で分類器108に適用され、各アトラスに対して異なる学習された分類器ラベルマップ1004を生成する結果となる。ステップ1006で、プロセッサーは、ステップ602で生成された、アトラスベース自動輪郭抽出(ABAS)の異なるラベルマップを組み合わせ、最終の輪郭抽出結果1008を生成する。ステップ1006の組み合わせ動作として、ステップ510又はステップ604について上述した融合テクニックのいかなるものも使用することができる。
[0073]
本願発明は好ましい実施形態に関連して上述されたが、本願発明の範囲内でこれら実施形態に様々な改良を行ってもよい。本願発明へのそのよう改良は、ここに記載した技術を参照することにより認識されるであろう。したがって、本願発明の全範囲は、ここに記載するクレームとその法律的に等価な内容によってのみ画定される。
このような目的で、本願発明者は、複数のアトラスデータのセットのそれぞれに対して、前記アトラスデータから複数の学習サンプルを収集するステップであって、各アトラスデータセットは、(1)複数のデータポイントを有するアトラス画像と、(2)複数の前記アトラス画像のデータポイントに対する複数の構造ラベルとを有するステップと、前記収集された学習サンプルを機械学習アルゴリズムに適用し、自動化された構造分類器を生成するステップであって、前記構造分類器は、被写体像の複数のポイントのそれぞれに構造ラベルを決定するように構成されているステップと、を有し、前記複数のステップはプロセッサーにより実行される学習方法を開示する。

Claims (43)

  1. 被写体像の複数のポイントにアトラス画像を使用するアトラスベース自動輪郭抽出(ABAS)を実行し、前記被写体像の構造を代表する第1のデータを生成するステップと、
    前記被写体像の複数のポイントを学習が強化された分類器に適用し、前記被写体像の前記構造を代表する第2のデータを生成するステップと、
    前記第1のデータを前記第2のデータと組み合わせ、前記被写体像の前記構造を代表する第3のデータを生成するステップとを有し、
    前記複数のステップはプロセッサーにより実行される
    ことを特徴とする自動輪郭抽出方法。
  2. 請求項1記載の自動輪郭抽出方法において、
    前記プロセッサーは前記被写体像の前記複数のポイントの部分集合を選択し、
    前記適用するステップでは、前記選択された部分集合に前記学習が強化された分類器に適用される前記被写体像の前記複数のポイントに限定する
    ことを特徴とする自動輪郭抽出方法。
  3. 請求項2記載の自動輪郭抽出方法において、
    前記選択するステップでは、前記プロセッサーが、前記第1のデータに関する少なくともひとつの曖昧基準に基づいて前記部分集合を選択する
    ことを特徴とする自動輪郭抽出方法。
  4. 請求項3記載の自動輪郭抽出方法において、
    前記アトラス画像は複数のアトラス画像を有し、各アトラス画像は複数のポイントを有し、前記アトラス画像の各ポイントは前記アトラス画像のポイントが前記構造として分類されるか否かを示すラベルに結び付けられており、
    前記実行するステップでは、
    前記プロセッサーが、前記被写体像を複数の前記アトラス画像と共に登録し、前記被写体像の前記複数のポイントを前記アトラス画像の前記複数のポイントにマッピングし、それにより、前記登録された被写体像のポイントを、前記登録された被写体像のポイントにマッピングされた前記アトラスのポイントに結び付けられた前記ラベルと共に前記アトラス画像のポイントに結びつけ、
    前記プロセッサーが、前記被写体像のポイントに結び付けられた前記ラベルに基づき前記被写体像のポイントが前記構造に属するか否かについて前記被写体像の複数のポイントを分類し、
    前記選択するステップでは、前記プロセッサーが、しきい値以下の推定される構造分類精度に結び付けられた前記被写体像のポイントとして前記部分集合を選択する
    ことを特徴とする自動輪郭抽出方法。
  5. 請求項3記載の自動輪郭抽出方法において、
    前記選択するステップでは、
    前記プロセッサーが、前記第1のデータ内の前記構造の境界に対する前記被写体像の複数のポイントの近接度に基づいて前記部分集合を選択する
    ことを特徴とする自動輪郭抽出方法。
  6. 請求項1記載の自動輪郭抽出方法において、
    前記アトラス画像は複数のアトラス画像を有し、
    前記第1のデータは複数のセットの第1のデータを有し、前記第1のデータのセットは前記アトラス画像の異なるひとつに対応して前記被写体層の前記構造を代表し、
    前記適用するステップでは、前記プロセッサーが、前記第1のデータのセットのそれぞれに対し、前記被写体像の複数のポイントを学習強化された分類器に適用し、前記第2のデータを複数の第2のデータセットとして生成し、各第2のデータセットは前記被写体像の構造を代表し、
    前記組み合わせステップでは、前記プロセッサーが、前記第1のデータのセットと前記第2のデータのセットとを組み合わせ、前記第3のデータを生成する
    ことを特徴とする自動輪郭抽出方法。
  7. 請求項1記載の自動輪郭抽出方法において、
    前記学習強化された分離器は、アトラスデータに適用される管理された機械学習アルゴリズムを用いて学習された分類器であり、前記アトラスデータは、(1)複数のアトラス画像の複数のポイントを代表する属性データと、(2)前記アトラス画像のポイントに結び付けられた複数のラベルとを有し、前記各ラベルはそのラベルに結び付けられたアトラス画像ポイントが前記構造に属するか否かを示す
    ことを特徴とする自動輪郭抽出方法。
  8. 請求項7記載の自動輪郭抽出方法において、
    前記プロセッサーは、前記被写体像のポイントを前記分類器に適用するステップを実行する前に、前記アトラスデータを前記管理された機械学習アルゴリズムに適用することにより前記分類器を学習する
    ことを特徴とする自動輪郭抽出方法。
  9. 請求項8記載の自動輪郭抽出方法において、
    前記管理された機械学習アルゴリズムは、ランダムフォレスト(RF)機械学習アルゴリズムを有する
    ことを特徴とする自動輪郭抽出方法。
  10. 請求項8記載の自動輪郭抽出方法において、
    前記学習するステップは、
    前記プロセッサーが(1)前記アトラス画像の前記複数のポイントの部分集合を選択し、(2)前記アトラスデータを(i)前記アトラス画像の前記複数のポイントの前記部分集合を代表する属性データと(ii)前記アトラス画像の前記複数のポイントの前記選択された部分集合に結び付けられたラベルとに前記アトラスデータを制限することにより、前記アトラスデータを定義する
    ことを特徴とする自動輪郭抽出方法。
  11. 請求項10記載の自動輪郭抽出方法において、
    前記選択するステップは、
    前記プロセッサーが、前記部分集合が前記構造に対する境界の所定の近傍内の複数のアトラス画像のポイントを含むように、前記ラベルに基づいて前記部分集合を定義する
    ことを特徴とする自動輪郭抽出方法。
  12. 請求項1記載の自動輪郭抽出方法において、
    前記学習強化された分類器は、ランダムフォレスト(RF)機械学習アルゴリズムを用いて学習された分類器であり、
    前記学習強化された分類器は、前記適用された被写体像のポイントを処理するように構成された複数の決定ツリーを有し、各決定ツリーは、複数の決定ルールを実行するための複数のブランチと複数のノードを有し、前記ノードは、複数の内部ノードと複数の端部ノードとを有し、各内部ノードは、適用される被写体像のポイントの属性をテストするように構成され、各ブランチは前記テストの出力に対応し、各端部ノードは、適用される被写体像のポイントに結び付けられた構造ラベルを保持する
    ことを特徴とする自動輪郭抽出方法。
  13. 請求項1記載の自動輪郭抽出方法において、
    前記アトラス画像は複数のアトラス画像を有する
    ことを特徴とする自動輪郭抽出方法。
  14. 請求項1記載の自動輪郭抽出方法において、
    前記アトラス画像は複数のアトラス画像を有し、各アトラス画像は複数のポイントを有し、前記アトラス画像の各ポイントは前記アトラス画像のポイントが前記構造として分類されるか否かを示すラベルに結び付けられており、
    前記実行するステップでは、
    前記プロセッサーが、前記被写体像を複数の前記アトラス画像と共に登録し、前記被写体像の前記複数のポイントを前記アトラス画像の前記複数のポイントにマッピングし、それにより、前記登録された被写体像のポイントを、前記登録された被写体像のポイントにマッピングされた前記アトラスのポイントに結び付けられた前記ラベルと共に前記アトラス画像のポイントに結びつけ、
    前記プロセッサーが、ラベル融合技術により、前記登録された被写体像の複数のポイントに結び付けられた複数の前記ラベルを組みわせることにより前記第1のデータを生成する
    ことを特徴とする自動輪郭抽出方法。
  15. 請求項14記載の自動輪郭抽出方法において、
    前記生成された第1のデータは、複数の前記被写体像のポイントに結び付けられた複数の第1データラベルを有し、各第1データラベルは、その結び付けられた被写体像のポイントが前記構造に属するか否かを示し、
    前記生成された第2のデータは、複数の前記被写体像のポイントに結び付けられた複数の第2データラベルを有し、各第2データラベルは、その結び付けられた被写体像のポイントが前記構造に属するか否かを示し、
    前記組み合わせるステップは、
    前記プロセッサーが、少なくとも、前記被写体像のポイントに結び付けられた前記第1データラベルと前記第2データラベルが前記被写体像のポイントが構造に属するかについて一致していない前記被写体像のポイントに対して、結び付けられた前記第1データラベルと前記第2データラベルとをラベル融合技術により組み合わせる
    ことを特徴とする自動輪郭抽出方法。
  16. 請求項1記載の自動輪郭抽出方法において、
    前記プロセッサーが、前記学習強化された分類器に適用される前記被写体像における前記複数のポイントの複数の属性を計算し、
    前記適用するステップは、前記プロセッサーが、前記被写体像の複数のポイントと前記複数のポイントに対する前記計算された属性に前記学習強化された分類器を適用し、前記第2のデータを生成する
    ことを特徴とする自動輪郭抽出方法。
  17. 請求項16記載の自動輪郭抽出方法において、
    前記属性は、(1)画像の明度と、(2)画像の位置と、(3)画像勾配と勾配の大きさ、(4)前記被写体像に対するヘッセ行列の複数の固有値、(5)画像テクスチャー計測、(6)部分画像パッチ、(7)ハール特徴、(8)HOG、(9)SIFT、(10)部分二値パターン、からなる群の少なくともふたつの要素を有する
    ことを特徴とする自動輪郭抽出方法。
  18. 請求項1記載の自動輪郭抽出方法において、
    前記被写体像は、コンピューター断層撮影(CT)画像である
    ことを特徴とする自動輪郭抽出方法。
  19. (1)被写体像の複数のポイントにアトラス画像を使用するアトラスベース自動輪郭抽出(ABAS)を実行し、前記被写体像の構造を代表する第1のデータを生成するステップと、(2)前記被写体像の複数のポイントを学習が強化された分類器に適用し、前記被写体像の前記構造を代表する第2のデータを生成するステップと、(3)前記第1のデータを前記第2のデータと組み合わせ、前記被写体像の前記構造を代表する第3のデータを生成するステップと、を実行するように構成されたプロセッサーを有する
    ことを特徴とする自動輪郭抽出装置。
  20. 請求項19記載の自動輪郭抽出装置において、
    前記プロセッサーは、更に(1)前記プロセッサーは前記被写体像の前記複数のポイントの部分集合を選択し、(2)前記選択された部分集合に前記学習が強化された分類器が適用される前記被写体像の前記複数のポイントに限定する、ように構成されている
    ことを特徴とする自動輪郭抽出装置。
  21. 請求項20記載の自動輪郭抽出装置において、
    前記プロセッサーは、更に、前記第1のデータに関する少なくともひとつの曖昧基準に基づいて前記部分集合を選択する、ように構成されている
    ことを特徴とする自動輪郭抽出装置。
  22. 請求項21記載の自動輪郭抽出装置において、
    前記アトラス画像は複数のアトラス画像を有し、各アトラス画像は複数のポイントを有し、前記アトラス画像の各ポイントは前記アトラス画像のポイントが前記構造として分類されるか否かを示すラベルに結び付けられており、
    前記プロセッサーは、更に、(1)(i)前記被写体像を複数の前記アトラス画像と共に登録し、前記被写体像の前記複数のポイントを前記アトラス画像の前記複数のポイントにマッピングし、それにより、前記登録された被写体像のポイントを、前記登録された被写体像のポイントにマッピングされた前記アトラスのポイントに結び付けられた前記ラベルと共に前記アトラス画像のポイントに結びつけ、(ii)前記被写体像のポイントに結び付けられた前記ラベルに基づき前記被写体像のポイントが前記構造に属するか否かについて前記被写体像の複数のポイントを分類することにより、アトラスベース自動輪郭抽出を実行し、(2)しきい値以下の推定される構造分類精度に結び付けられた前記被写体像のポイントとして前記部分集合を選択する、ように構成されている
    ことを特徴とする自動輪郭抽出装置。
  23. 請求項21記載の自動輪郭抽出装置において、
    前記プロセッサーは、更に、前記第1のデータ内の前記構造の境界に対する前記被写体像の複数のポイントの近接度に基づいて前記部分集合を選択する、ように構成されている
    ことを特徴とする自動輪郭抽出装置。
  24. 請求項19記載の自動輪郭抽出装置において、
    前記アトラス画像は複数のアトラス画像を有し、
    前記第1のデータは複数のセットの第1のデータを有し、前記第1のデータのセットは前記アトラス画像の異なるひとつに対応して前記被写体層の前記構造を代表し、
    前記プロセッサーは、更に、前記第1のデータのセットのそれぞれに対し、前記被写体像の複数のポイントに学習強化された分類器を適用し、前記第2のデータを複数の第2のデータセットとして生成し、各第2のデータセットは前記被写体像の構造を代表する、ように構成され、
    前記プロセッサーは、更に、前記第1のデータのセットと前記第2のデータのセットとを組み合わせ、前記第3のデータを生成することにより、前記組み合わせ動作を実行し、前記第3のデータを生成する、ように構成されている
    ことを特徴とする自動輪郭抽出装置。
  25. 請求項19記載の自動輪郭抽出装置において、
    前記学習強化された分離器は、アトラスデータに適用される管理された機械学習アルゴリズムを用いて学習された分類器であり、前記アトラスデータは、(1)複数のアトラス画像の複数のポイントを代表する属性データと、(2)前記アトラス画像のポイントに結び付けられた複数のラベルとを有し、前記各ラベルはそのラベルに結び付けられたアトラス画像ポイントが前記構造に属するか否かを示す
    ことを特徴とする自動輪郭抽出装置。
  26. 請求項25記載の自動輪郭抽出装置において、
    前記プロセッサーは、更に、前記被写体像のポイントを前記分類器に適用するステップを実行する前に、前記アトラスデータを前記管理された機械学習アルゴリズムに適用することにより前記分類器を学習する、ように構成されている
    ことを特徴とする自動輪郭抽出装置。
  27. 請求項26記載の自動輪郭抽出装置において、
    前記管理された機械学習アルゴリズムは、ランダムフォレスト(RF)機械学習アルゴリズムを有する
    ことを特徴とする自動輪郭抽出装置。
  28. 請求項26記載の自動輪郭抽出装置において、
    前記プロセッサーは、更に、(1)前記アトラス画像の前記複数のポイントの部分集合を選択し、(2)前記アトラスデータを(i)前記アトラス画像の前記複数のポイントの前記部分集合を代表する属性データと(ii)前記アトラス画像の前記複数のポイントの前記選択された部分集合に結び付けられたラベルとに前記アトラスデータを制限することにより、前記アトラスデータを定義する、ように構成されている
    ことを特徴とする自動輪郭抽出装置。
  29. 請求項28記載の自動輪郭抽出装置において、
    前記プロセッサーは、更に、前記部分集合が前記構造に対する境界の所定の近傍内の複数のアトラス画像のポイントを含むように、前記ラベルに基づいて前記部分集合を定義する、ように構成されている
    ことを特徴とする自動輪郭抽出装置。
  30. 請求項19記載の自動輪郭抽出装置において、
    前記学習強化された分類器は、ランダムフォレスト(RF)機械学習アルゴリズムを用いて学習された分類器であり、
    前記学習強化された分類器は、前記適用された被写体像のポイントを処理するように構成された複数の決定ツリーを有し、各決定ツリーは、複数の決定ルールを実行するための複数のブランチと複数のノードを有し、前記ノードは、複数の内部ノードと複数の端部ノードとを有し、各内部ノードは、適用される被写体像のポイントの属性をテストするように構成され、各ブランチは前記テストの出力に対応し、各端部ノードは、適用される被写体像のポイントに結び付けられた構造ラベルを保持する
    ことを特徴とする自動輪郭抽出装置。
  31. 請求項19記載の自動輪郭抽出装置において、
    前記アトラス画像は複数のアトラス画像を有する
    ことを特徴とする自動輪郭抽出装置。
  32. 請求項19記載の自動輪郭抽出装置において、
    前記アトラス画像は複数のアトラス画像を有し、各アトラス画像は複数のポイントを有し、前記アトラス画像の各ポイントは前記アトラス画像のポイントが前記構造として分類されるか否かを示すラベルに結び付けられており、
    前記プロセッサーは、更に、(1)前記被写体像を複数の前記アトラス画像と共に登録し、前記被写体像の前記複数のポイントを前記アトラス画像の前記複数のポイントにマッピングし、それにより、前記登録された被写体像のポイントを、前記登録された被写体像のポイントにマッピングされた前記アトラスのポイントに結び付けられた前記ラベルと共に前記アトラス画像のポイントに結びつけ、(2)ラベル融合技術により、前記登録された被写体像の複数のポイントに結び付けられた複数の前記ラベルを組みわせることにより前記第1のデータを生成する、ように構成されている
    ことを特徴とする自動輪郭抽出装置。
  33. 請求項32記載の自動輪郭抽出装置において、
    前記生成された第1のデータは、複数の前記被写体像のポイントに結び付けられた複数の第1データラベルを有し、各第1データラベルは、その結び付けられた被写体像のポイントが前記構造に属するか否かを示し、
    前記生成された第2のデータは、複数の前記被写体像のポイントに結び付けられた複数の第2データラベルを有し、各第2データラベルは、その結び付けられた被写体像のポイントが前記構造に属するか否かを示し、
    前記プロセッサーは、更に、少なくとも、前記被写体像のポイントに結び付けられた前記第1データラベルと前記第2データラベルが前記被写体像のポイントが構造に属するかについて一致していない前記被写体像のポイントに対して、結び付けられた前記第1データラベルと前記第2データラベルとをラベル融合技術により組み合わせる、ように構成されている
    ことを特徴とする自動輪郭抽出装置。
  34. 請求項19記載の自動輪郭抽出装置において、
    前記プロセッサーは、更に、(1)前記学習強化された分類器に適用される前記被写体像における前記複数のポイントの複数の属性を計算し、(2)前記適用するステップは、前記プロセッサーが、前記被写体像の複数のポイントと前記複数のポイントに対する前記計算された属性に前記学習強化された分類器を適用し、前記第2のデータを生成する、ように構成されている
    ことを特徴とする自動輪郭抽出装置。
  35. 請求項34記載の自動輪郭抽出装置において、
    前記属性は、(1)画像の明度と、(2)画像の位置と、(3)画像勾配と勾配の大きさ、(4)前記被写体像に対するヘッセ行列の複数の固有値、(5)画像テクスチャー計測、(6)部分画像パッチ、(7)ハール特徴、(8)HOG、(9)SIFT、(10)部分二値パターン、からなる群の少なくともふたつの要素を有する
    ことを特徴とする自動輪郭抽出装置。
  36. 請求項19記載の自動輪郭抽出装置において、
    前記被写体像は、コンピューター断層撮影(CT)画像である
    ことを特徴とする自動輪郭抽出装置。
  37. 自動輪郭抽出のためのコンピュータープログラム製品であって、
    (1)被写体像の複数のポイントにアトラス画像を使用するアトラスベース自動輪郭抽出(ABAS)を実行し、前記被写体像の構造を代表する第1のデータを生成するステップと、(2)前記被写体像の複数のポイントを学習が強化された分類器に適用し、前記被写体像の前記構造を代表する第2のデータを生成するステップと、(3)前記第1のデータを前記第2のデータと組み合わせ、前記被写体像の前記構造を代表する第3のデータを生成するステップとをプロセッサーに実行させる、非一時的なコンピューター可読媒体上にある複数の命令を有する
    ことを特徴とするコンピュータープログラム製品。
  38. 複数のアトラスデータのセットのそれぞれに対して、前記アトラスデータから複数の学習サンプルを収集するステップであって、各アトラスデータセットは、(1)複数のデータポイントを有するアトラス画像と、(2)複数の前記アトラスデータポイントに対する複数の構造ラベルとを有するステップと、
    前記収集された学習サンプルを機械学習アルゴリズムに適用し、自動構造分類器を生成するステップであって、前記構造分類器は、被写体像の複数のポイントのそれぞれに構造ラベルを決定するように構成されているステップと、を有し、
    前記方法のステップはプロセッサーにより実行される
    ことを特徴とする学習方法。
  39. 請求項38記載の学習方法において、
    前記収集するステップでは、前記プロセッサーが、(1)前記構造ラベルに基づいて前記構造に対する境界の所定の近傍内の複数のアトラス画像のポイントを同一視し、(2)前記学習サンプルとして、少なくとも、前記同一視されたアトラス画像データポイントとその構造ラベルを選択する
    ことを特徴とする学習方法。
  40. 請求項38記載の学習方法において、
    前記プロセッサーが、前記収集された学習サンプルに対する複数の属性を計算するステップを更に有し、
    前記適用するステップは、前記収集された学習サンプルと前記計算された属性を前記機械学習アルゴリズムに適用し、前記自動された構造分類器を生成するステップを更に有する
    ことを特徴とする学習方法。
  41. 請求項40記載の学習方法において、
    前記属性は、(1)画像の明度と、(2)画像の位置と、(3)画像勾配と勾配の大きさ、(4)前記被写体像に対するヘッセ行列の複数の固有値、(5)画像テクスチャー計測、(6)部分画像パッチ、(7)ハール特徴、(8)HOG、(9)SIFT、(10)部分二値パターン、からなる群の少なくともふたつの要素を有する
    ことを特徴とする学習方法。
  42. 請求項38記載の学習方法において、
    前記機械学習アルゴリズムは、ランダムフォレスト(RF)機械学習アルゴリズムを有する
    ことを特徴とする学習方法。
  43. 請求項38記載の学習方法において、
    前記学習強化された分類器は、前記適用された被写体像のポイントを処理するように構成された複数の決定ツリーを有し、各決定ツリーは、複数の決定ルールを実行するための複数のブランチと複数のノードを有し、前記ノードは、複数の内部ノードと複数の端部ノードとを有し、各内部ノードは、適用される被写体像のポイントの属性をテストするように構成され、各ブランチは前記テストの出力に対応し、各端部ノードは、適用される被写体像のポイントに結び付けられた構造ラベルを保持する
    ことを特徴とする学習方法。
JP2018087963A 2013-03-01 2018-05-01 分類器を学習する方法及び装置 Active JP6672371B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/782,154 US9122950B2 (en) 2013-03-01 2013-03-01 Method and apparatus for learning-enhanced atlas-based auto-segmentation
US13/782,154 2013-03-01

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2015560195A Division JP6487341B2 (ja) 2013-03-01 2014-02-12 学習が強化されたアトラスベース自動輪郭抽出方法及び装置

Publications (2)

Publication Number Publication Date
JP2018156668A true JP2018156668A (ja) 2018-10-04
JP6672371B2 JP6672371B2 (ja) 2020-03-25

Family

ID=50239943

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2015560195A Active JP6487341B2 (ja) 2013-03-01 2014-02-12 学習が強化されたアトラスベース自動輪郭抽出方法及び装置
JP2018087963A Active JP6672371B2 (ja) 2013-03-01 2018-05-01 分類器を学習する方法及び装置

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2015560195A Active JP6487341B2 (ja) 2013-03-01 2014-02-12 学習が強化されたアトラスベース自動輪郭抽出方法及び装置

Country Status (9)

Country Link
US (2) US9122950B2 (ja)
EP (2) EP2962281B1 (ja)
JP (2) JP6487341B2 (ja)
CN (1) CN105009171B (ja)
AU (1) AU2014221357B2 (ja)
BR (1) BR112015020981A2 (ja)
CA (1) CA2903158C (ja)
RU (1) RU2015141710A (ja)
WO (1) WO2014133756A2 (ja)

Families Citing this family (54)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007536644A (ja) * 2004-05-06 2007-12-13 ザ・レジェンツ・オブ・ザ・ユニバーシティ・オブ・カリフォルニア 画像を整列させ分類するための方法およびシステム
JP2013022705A (ja) * 2011-07-25 2013-02-04 Sony Corp ロボット装置及びロボット装置の制御方法、コンピューター・プログラム、並びにロボット・システム
US20140341449A1 (en) * 2011-09-23 2014-11-20 Hamid Reza TIZHOOSH Computer system and method for atlas-based consensual and consistent contouring of medical images
EP2810250B1 (en) * 2012-02-01 2019-09-04 Koninklijke Philips N.V. Object image labeling apparatus, method and program
US9165360B1 (en) 2012-09-27 2015-10-20 Zepmed, Llc Methods, systems, and devices for automated analysis of medical scans
US9971959B2 (en) 2013-03-15 2018-05-15 Nvidia Corporation Performing object detection operations via a graphics processing unit
JP6063315B2 (ja) * 2013-03-26 2017-01-18 富士フイルム株式会社 真贋判定システム,特徴点登録装置およびその動作制御方法,ならびに照合判定装置およびその動作制御方法
US9836879B2 (en) * 2013-04-16 2017-12-05 Autodesk, Inc. Mesh skinning technique
US9122959B2 (en) * 2013-05-03 2015-09-01 Impac Medical Systems, Inc. Method and apparatus for automated delineation of structure shape for image guided treatment planning
US9483831B2 (en) 2014-02-28 2016-11-01 International Business Machines Corporation Segmentation using hybrid discriminative generative label fusion of multiple atlases
CN107004267B (zh) * 2014-12-15 2021-02-09 皇家飞利浦有限公司 图像配准质量控制
WO2016134125A1 (en) * 2015-02-18 2016-08-25 Vanderbilt University Image segmentation via multi-atlas fusion with context learning
US9767380B2 (en) * 2015-04-13 2017-09-19 Varian Medical Systems International Ag. Image comparison tool tolerant to deformable image matching
US9589211B2 (en) * 2015-05-08 2017-03-07 Siemens Healthcare Gmbh Learning-based aorta segmentation using an adaptive detach and merge algorithm
WO2016182551A1 (en) * 2015-05-11 2016-11-17 Siemens Healthcare Gmbh Method and system for landmark detection in medical images using deep neural networks
GB2539246B (en) * 2015-06-11 2019-08-21 Mirada Medical Ltd Method and apparatus for selecting a subset of atlases from a set of candidate atlases
CN108351986B (zh) * 2015-10-30 2022-03-29 株式会社摩如富 学习系统及装置和方法、训练数据生成装置及生成方法
CN105447876B (zh) * 2015-12-10 2017-02-15 北京中科紫鑫科技有限责任公司 一种dna测序的图像的磁珠提取方法及装置
US10107769B2 (en) 2016-01-11 2018-10-23 Carl Zeiss X-Ray Microscopy Inc. Multimodality mineralogy segmentation system and method
US10169871B2 (en) * 2016-01-21 2019-01-01 Elekta, Inc. Systems and methods for segmentation of intra-patient medical images
JP6510150B1 (ja) * 2016-05-04 2019-05-08 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 医療アトラス登録
DE102016209032B3 (de) * 2016-05-24 2017-09-14 Siemens Healthcare Gmbh Bildbegebendes Verfahren zum Durchführen einer medizinischen Untersuchung nebst zugehörigem Bildgebenden System und zugehörigem Computerprogrammprodukt
CN105957094B (zh) * 2016-06-15 2018-09-25 深圳维影医疗科技有限公司 一种基于轮廓检测的胸片肺野快速自动分割方法及其系统
WO2017219024A1 (en) * 2016-06-17 2017-12-21 Children's National Medical Center Medical anatomy quantification: computer-aided diagnosis tool
US10878336B2 (en) * 2016-06-24 2020-12-29 Intel Corporation Technologies for detection of minority events
US11350995B2 (en) 2016-10-05 2022-06-07 Nuvasive, Inc. Surgical navigation systems and methods
TWI608369B (zh) * 2016-11-23 2017-12-11 財團法人工業技術研究院 分類方法、分類模組及電腦程式產品
US10410348B2 (en) * 2016-12-21 2019-09-10 Elekta, Inc. Online learning enhanced atlas-based auto-segmentation
US11164308B2 (en) * 2017-02-27 2021-11-02 The Regents Of The University Of California System and method for improved medical images
US10862885B2 (en) * 2017-03-20 2020-12-08 Forescout Technologies, Inc. Device identification
US11625597B2 (en) 2017-11-15 2023-04-11 Canon Medical Systems Corporation Matching network for medical image analysis
GB2569541B (en) * 2017-12-19 2020-08-19 Mirada Medical Ltd Method and apparatus for medical imaging
GB2583555B (en) * 2017-12-19 2021-08-18 Mirada Medical Ltd Method and apparatus for medical imaging
EP3513730A1 (en) * 2018-01-18 2019-07-24 Koninklijke Philips N.V. System and method for image decomposition of a projection image
US10878576B2 (en) * 2018-02-14 2020-12-29 Elekta, Inc. Atlas-based segmentation using deep-learning
WO2019176806A1 (ja) * 2018-03-16 2019-09-19 富士フイルム株式会社 機械学習装置および方法
CN108564590A (zh) * 2018-04-20 2018-09-21 上海理工大学 一种基于心脏磁共振电影短轴图像的右心室多图谱分割方法
CN109242865B (zh) * 2018-09-26 2020-09-25 上海联影智能医疗科技有限公司 基于多图谱的医学图像自动分区系统、方法、装置及存储介质
US11227390B2 (en) 2018-09-26 2022-01-18 Shanghai United Imaging Intelligence Co., Ltd. Systems and methods for image processing
EP3644275A1 (en) * 2018-10-22 2020-04-29 Koninklijke Philips N.V. Predicting correctness of algorithmic segmentation
US10878173B2 (en) * 2018-11-29 2020-12-29 Adobe Inc. Object recognition and tagging based on fusion deep learning models
US10930386B2 (en) 2018-12-11 2021-02-23 International Business Machines Corporation Automated normality scoring of echocardiograms
JP6716765B1 (ja) * 2018-12-28 2020-07-01 キヤノン株式会社 画像処理装置、画像処理システム、画像処理方法、プログラム
US10956682B2 (en) 2019-02-05 2021-03-23 International Business Machines Corporation Image object disambiguation resolution using learner model based conversation templates
US10915795B2 (en) 2019-02-05 2021-02-09 International Business Machines Corporation Image object recognition through multimodal conversation templates
US10902295B2 (en) * 2019-02-08 2021-01-26 Sap Se Using transformations to verify computer vision quality
JP7231709B2 (ja) 2019-03-28 2023-03-01 オリンパス株式会社 情報処理システム、内視鏡システム、情報処理方法及び学習済みモデルの製造方法
CN110163285B (zh) * 2019-05-23 2021-03-02 阳光保险集团股份有限公司 票证识别训练样本合成方法和计算机存储介质
US11514297B2 (en) * 2019-05-29 2022-11-29 Anomalee Inc. Post-training detection and identification of human-imperceptible backdoor-poisoning attacks
US11475130B2 (en) * 2019-05-29 2022-10-18 Anomalee Inc. Detection of test-time evasion attacks
US11263497B2 (en) * 2019-06-21 2022-03-01 StraxCorp Pty. Ltd. Method and system for machine learning classification based on structure or material segmentation in an image
US11830192B2 (en) * 2019-07-31 2023-11-28 The Joan and Irwin Jacobs Technion-Cornell Institute System and method for region detection in tissue sections using image registration
JP7316611B2 (ja) * 2020-01-30 2023-07-28 富士通株式会社 推定処理プログラム、推定処理方法、及び情報処理装置
CN114638964A (zh) * 2022-03-07 2022-06-17 厦门大学 基于深度学习的跨域三维点云分割方法、存储介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008126078A (ja) * 2006-11-22 2008-06-05 General Electric Co <Ge> 血管内部のソフトプラークに対するリスク計測基準を作成するための方法及び装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1958156A2 (en) * 2005-12-01 2008-08-20 Koninklijke Philips Electronics N.V. A method a system and a computer program for segmenting a structure associated with a reference structure in an image
CN102165454B (zh) * 2008-09-29 2015-08-05 皇家飞利浦电子股份有限公司 用于提高计算机辅助诊断对图像处理不确定性的鲁棒性的方法
JP5931755B2 (ja) 2010-03-11 2016-06-08 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. モデルベースのセグメント化の確率向上

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008126078A (ja) * 2006-11-22 2008-06-05 General Electric Co <Ge> 血管内部のソフトプラークに対するリスク計測基準を作成するための方法及び装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
XIAO HAN ET AL.: "Atlas-Based Auto-segmentation of Head and Neck CT Images", [ONLINE], JPN7019001766, 2008, ISSN: 0004047024 *
北川輝彦 他: "ヘッセ行列を利用した線強調フィルタによる体幹部単純X線CT像からの肝臓内血管の自動抽出", 電子情報通信学会技術研究報告, JPN6019020395, 2007, JP, ISSN: 0004047025 *

Also Published As

Publication number Publication date
CA2903158A1 (en) 2014-09-04
CN105009171A (zh) 2015-10-28
AU2014221357B2 (en) 2019-04-04
JP6487341B2 (ja) 2019-03-20
US20140247977A1 (en) 2014-09-04
RU2015141710A (ru) 2017-05-10
US20150356367A1 (en) 2015-12-10
WO2014133756A3 (en) 2014-11-06
CA2903158C (en) 2020-05-12
EP2962281A2 (en) 2016-01-06
AU2014221357A1 (en) 2015-09-03
WO2014133756A2 (en) 2014-09-04
EP3832595A1 (en) 2021-06-09
JP2016513328A (ja) 2016-05-12
US9122950B2 (en) 2015-09-01
CN105009171B (zh) 2018-04-27
EP3832595B1 (en) 2022-07-13
US9460360B2 (en) 2016-10-04
BR112015020981A2 (pt) 2017-07-18
EP2962281B1 (en) 2021-07-14
JP6672371B2 (ja) 2020-03-25

Similar Documents

Publication Publication Date Title
JP6672371B2 (ja) 分類器を学習する方法及び装置
Mahapatra Analyzing training information from random forests for improved image segmentation
Xu et al. Texture-specific bag of visual words model and spatial cone matching-based method for the retrieval of focal liver lesions using multiphase contrast-enhanced CT images
CN108550156B (zh) 用于图像引导治疗计划的结构形状的自动描绘的方法和装置
Hofmanninger et al. Mapping visual features to semantic profiles for retrieval in medical imaging
Lei et al. Automatic recognition of fetal facial standard plane in ultrasound image via fisher vector
JP2017016593A (ja) 画像処理装置、画像処理方法、及びプログラム
Mahapatra Graph cut based automatic prostate segmentation using learned semantic information
Abed et al. A modern deep learning framework in robot vision for automated bean leaves diseases detection
Mahapatra et al. Visual saliency based active learning for prostate mri segmentation
Mahapatra et al. Visual saliency-based active learning for prostate magnetic resonance imaging segmentation
Perkonigg et al. Detecting bone lesions in multiple myeloma patients using transfer learning
Vijayadeep et al. A hybrid feature extraction based optimized random forest learning model for brain stroke prediction
Shanthi et al. Survey on Detection of Melanoma Skin Cancer Using Image Processing and Machine Learning
Jyoti et al. Optimized clustering method for CT brain image segmentation
CN108154107B (zh) 一种确定遥感图像归属的场景类别的方法
Lvliang et al. Efficient Clustering of Brain Tumor Segments using Level-set Hybrid Machine Learning Algorithms
Kanavati et al. Supervoxel classification forests for estimating pairwise image correspondences
Zambales et al. A model for classification of skin lesions using image processing techniques and neural network
Revathi et al. A brief survey on brain tumor identification models using deep neural networks
Kowal et al. Discovering important regions of cytological slides using classification tree
Hristova 3D Medical Image Segmentation with Vantage Point Forests and Binary Context Features
Shaker Fully Automated Magnetic Resonance Detection and Segmentation of Brain using Convolutional Neural Network
Malligeswari et al. Hybrid Deep Learning based Lung Disease Detection and Classification
Aliyar et al. Adaptive Multilevel Patch Based Lung Nodule Classification

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180501

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180501

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190523

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190611

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190830

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200304

R150 Certificate of patent or registration of utility model

Ref document number: 6672371

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250