JP6901587B2 - 関心オブジェクトの構成をモデル化するためのデバイス及び方法 - Google Patents

関心オブジェクトの構成をモデル化するためのデバイス及び方法 Download PDF

Info

Publication number
JP6901587B2
JP6901587B2 JP2019556630A JP2019556630A JP6901587B2 JP 6901587 B2 JP6901587 B2 JP 6901587B2 JP 2019556630 A JP2019556630 A JP 2019556630A JP 2019556630 A JP2019556630 A JP 2019556630A JP 6901587 B2 JP6901587 B2 JP 6901587B2
Authority
JP
Japan
Prior art keywords
interest
component
image data
determined
ratio
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019556630A
Other languages
English (en)
Other versions
JP2020517331A5 (ja
JP2020517331A (ja
Inventor
ラファエル ウィームカー
ラファエル ウィームカー
トビアス クリンダー
トビアス クリンダー
ヘイケ ルッペルトショフェン
ヘイケ ルッペルトショフェン
ニコル シャーデヴァルト
ニコル シャーデヴァルト
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV filed Critical Koninklijke Philips NV
Publication of JP2020517331A publication Critical patent/JP2020517331A/ja
Publication of JP2020517331A5 publication Critical patent/JP2020517331A5/ja
Application granted granted Critical
Publication of JP6901587B2 publication Critical patent/JP6901587B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • G06V10/763Non-hierarchical techniques, e.g. based on statistics of modelling distributions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Multimedia (AREA)
  • Probability & Statistics with Applications (AREA)
  • Data Mining & Analysis (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Pulmonology (AREA)
  • Biophysics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本発明は、関心オブジェクトの構成をモデル化するためのデバイス及びシステム、並びに、関心オブジェクトの構成をモデル化するための方法に関する。
肺がんは、高い死亡率を有する最も危険ながんタイプのうちの1つである。肺腫瘍はいくつかの方法によって検出される。これらの方法のうちの1つは、患者の肺のコンピュータ断層撮像である。
コンピュータ断層撮像による肺がんスクリーニングは、死亡率を低下させると認識されている。ほとんどの場合、大きな腫瘍は、コンピュータ断層撮影画像に明確に示されているのに対し、非常に小さい腫瘍、いわゆる小結節は、ごくわずかのピクセルに示される。
しかしながら、高リスク群においても、20個の肺小結節のうち1つのみががん性である。従って、小結節が悪性又は良性であるかどうかを評価しなければならない。小結節が悪性又は良性であるかどうかのリスクを評価するための重要な記述子は、小結節の組織タイプである。小結節組織タイプは、組織構成を表し、且つ石灰化、固体、混合、及びすりガラスの4つのクラスに類別されることが多い。後者の2つのタイプは、一部固体及び部分固体としても既知である。小結節タイプはまた、医療費の償還を選別するために必要とされる反応性気道機能不全症候群(RADS)報告スキームの記述子である。
4つの小結節タイプのそれぞれは、石灰化、固体、及び部分固体組織から成る多数の種々の組織構成を含むスーパークラスである。また、それぞれのタイプは、多くの種々のサイズ及び形状を有する。さらに、これらの組織タイプの典型的なハウンスフィールド密度は、小結節のヒストグラムにさえ存在しない。これは、高密度の小部分が希釈しやすい、すなわち、撮像点広がり関数の部分容積効果によるぼけが生じやすいからである。
小結節タイプの自動分類を行うことは既知である。所与の新しい小結節に対する小結節タイプのこれらの自動分類方法は、手動で分類される試料のデータベース上の分類子をトレーニングすることによって行われる。データベースは、広範囲の種々の構成、形状、及びサイズを包含するのに十分大きいものでなければならない。しかしながら、このような広範囲にわたる均衡のとれたデータベースは、確立するには費用及び時間が非常にかかり、トレーニングデータベース内のタイプの均衡によってはある特定の小結節タイプに偏っている場合がある。
磁気共鳴のために、組織構成を決定するための撮像シミュレーションが既知である。例えば、米国特許出願公開第2014/0180061(A1)号において、脳のミエリン組織のマップが生成される。ミエリン組織の構成は、少なくとも2つの成分を有すると想定される。次いで、これら成分の初期比を測定結果にフィットさせる。しかしながら、この方法は、妥当な時間で行われるには多くの計算能力を必要とする。
よって、腫瘍構成の低費用で高速の偏りのない自動分類を行う方法及びデバイスを提供することが必要とされている。
本発明の目的は、独立請求項の主題によって解決され、さらなる実施形態は従属請求項に組み込まれる。本発明の以下に説明される態様はまた、システム及び方法に適用されることは留意されるべきである。
一態様によると、関心オブジェクトの構成をモデル化するためのデバイスは、処理ユニットであって、画像データセグメンタ、抽出モジュール、定義モジュール、割り当てモジュール、及びコンパレータを備える、処理ユニットを備え、画像データセグメンタはコンピュータ断層撮影画像データによって提供される関心オブジェクト画像データを画像セグメントにセグメント化するように構成され、抽出モジュールは画像セグメントからハウンスフィールド密度値を抽出するように構成され、定義モジュールは、関心オブジェクトに対して、種々の成分のハウンスフィールド密度値を有する少なくとも2つの成分クラスの成分比を定義するように構成され、割り当てモジュールは、成分のハウンスフィールド密度値を含むシミュレート画像セグメントをもたらすように対応する決定済みハウンスフィールド密度値に基づいてそれぞれの画像セグメントに少なくとも1つの成分クラスを割り当てるように構成され、シミュレート画像セグメントは関心オブジェクトのシミュレート画像データを定義し、割り当てられる成分クラスの比率は成分比に相当し、コンパレータは、シミュレート画像データと関心オブジェクト画像データとの間の偏差を決定するように構成され、処理ユニットは、偏差が最終的な成分比をもたらす所定の最小偏差に相当するまで、定義モジュールによって定義される成分比を変動させるように構成される。
デバイスは、例えば、腫瘍である関心オブジェクトからの決定されるコンピュータ断層撮影画像データのシミュレーションを提供する。提供される画像データは最初に画像セグメントにセグメント化される。コンピュータ断層撮影によって決定されるハウンスフィールド密度値は、それらの画像セグメントから抽出される。デバイスによって提供されるシミュレーションは、成分のハウンスフィールド密度値を有する成分クラスの構成を想定することによって関心オブジェクトをシミュレートする。これらの成分のハウンスフィールド密度値は、想定される構成の成分クラスの想定される値である。成分のハウンスフィールド密度値及び想定される構成を使用することによって、デバイスは関心オブジェクトのシミュレート画像を決定する。
想定される構成は、それぞれが想定される異なるハウンスフィールド密度値を有する少なくとも2つの想定される異なる成分クラスを含む。この想定は、さらに、少なくとも2つの異なる成分クラスの間の成分比に言及する。
これは、シミュレートされる関心オブジェクトが、成分クラスにおいて類別され、且つ成分クラスの成分比にマッチするシミュレートされる関心オブジェクトにおける分布を有する成分から成ると想定されることを意味する。関心オブジェクトの成分比をシミュレートするために、成分のハウンスフィールド密度値は画像セグメントに割り当てられる。成分のハウンスフィールド密度値の割り当ては、それぞれの画像セグメントの決定済みハウンスフィールド密度値に基づいて行われる。例えば、高い決定済みハウンスフィールド密度値を有する画像セグメントは、高い成分のハウンスフィールド密度値が割り当てられるのに対し、低い決定済みハウンスフィールド密度値を有する画像セグメントは低い成分のハウンスフィールド密度値が割り当てられる。高い成分のハウンスフィールド密度値を有する画像セグメントと低い成分のハウンスフィールド密度値を有する画像セグメントとの間の比率は、成分比にマッチする、すなわち、シミュレート画像セグメントはシミュレートされる関心オブジェクトにおける成分クラスと同じ比率を有する。
すると、その割り当てからもたらされる、シミュレートされる関心オブジェクトは、種々の成分のハウンスフィールド密度値を有する画像セクションを含む。コンパレータは、シミュレートされる関心オブジェクト、すなわち、成分のハウンスフィールド密度値を含むシミュレート画像データと、決定される関心オブジェクト、すなわち、決定済みハウンスフィールド密度値を含む関心オブジェクト画像データとを比較する。その比較からもたらされる偏差は次いで、所定の最小偏差と比較される。
コンパレータから決定される偏差が所定の最小偏差より高い場合、関心オブジェクトの上述したシミュレーションは想定済み成分比を修正して繰り返される。
コンパレータから決定される偏差が所定の最小偏差と等しい又はこれより低い場合、実際の成分比は最終成分比であると定義される。
デバイスは、組織構成の低費用で高速の偏りのない自動分類である、関心オブジェクトの成分のシミュレーションを行う。デバイスは、トレーニングのための臨床試料を有する広範囲にわたるデータベースに頼らずに関心オブジェクトをシミュレートすることができる。
一例によると、処理ユニットは、画像セグメントのソートされたリストをもたらすように決定済みハウンスフィールド密度値に基づいて画像セグメントをソートするように構成されるソートモジュールをさらに備え、割り当てモジュールはソートされたリストを部分にセグメント化し、これら部分と部分との間の比率は成分比であり、成分クラスは成分比に従ってソートされたリストの部分に割り当てられる。
画像セグメントをソートされたリストにソートすることによって、決定済みハウンスフィールド密度値に基づいて画像セグメントへの成分のハウンスフィールド密度値の割り当てが簡略化される。画像セグメントのソートされたリストは、シミュレートされる関心オブジェクトにおける想定される非ゼロ部分を有する成分クラスの数に等しいいくつかのリストセグメントに分割される。
それによって、成分クラスの間の比率を使用して、リストセグメントの間の比率を決定する。成分クラスの間の比率を決定するために、成分クラスは成分のハウンスフィールド密度値に基づいてソートされる。これは、最も高いハウンスフィールド密度値を有する成分クラスが最も高い平均決定済みハウンスフィールド密度値を有するリストセグメントに対する比率を定義することを意味する。それに応じて、最も低い成分のハウンスフィールド密度値を有する成分クラスは、最も低い平均決定済みハウンスフィールド密度値を有するリストセグメントに対する比率を定義する。それぞれ、最も高い及び最も低い成分のハウンスフィールド密度値、及び平均決定済みハウンスフィールド密度値を有する、成分クラスとリストセグメントとの間の成分クラス及びリストセグメントにも同じことが当てはまる。
さらにまた次いで、対応するリストセグメントに対する比率を定義する成分クラスの成分のハウンスフィールド密度値が、そのリストセグメントのそれぞれの画像セグメントに割り当てられる。その結果、決定済みハウンスフィールド密度値の数より大幅に低いいくつかの種々の成分のハウンスフィールド密度値を有する画像セグメントのソートされたリストがもたらされる。その数は、成分クラスの数に相当する、又は成分クラスの数より低い。よって、画像セグメントのソートによって、画像セグメントの決定済みハウンスフィールド密度値がシミュレーションに考慮されるため、最小偏差を有する結果の認定が簡略化される。これは、想定される構成比の最も高い成分のハウンスフィールド密度値が最も高い決定済みハウンスフィールド密度値を有する画像セグメントに割り当てられることになることを意味する。さらに、想定される構成比の最も低い成分のハウンスフィールド密度値は、最も低い決定済みハウンスフィールド密度値を有する画像セグメントに割り当てられることになる。よって、関心オブジェクトのシミュレーションをさらに簡略化し、且つシミュレーション速度をさらに増大させるシミュレーションが合理的な境界条件の範囲内で行われる。
さらなる例では、処理ユニットは、ぼけ関数でシミュレート画像データを畳み込むように構成される畳み込みモジュールをさらに備え、処理ユニットは成分比を変動させる時にぼけ関数を変動させる。
ぼけ関数でシミュレート画像データを畳み込むことは、関心オブジェクトの、シミュレート画像データと決定される画像データとの間の偏差を小さくすることになる。畳み込むことによって、画像取得デバイスの効果、例えば、撮像点広がり関数の効果がシミュレートされる。その効果は例えば、画像取得デバイスの光学、又は画像取得デバイスの検出器の形態からもたらされる。画像取得デバイスのぼけ関数が既知である場合、そのぼけ関数は関心オブジェクト画像データのシミュレーションに使用される。
一例では、デバイスは、ディスプレイユニットをさらに備え、処理ユニットは、関心オブジェクトの決定されたオブジェクトタイプをもたらすように所定のオブジェクトタイプのリストと最終成分比を比較するようにさらに構成され、ディスプレイユニットは決定されたオブジェクトタイプをユーザに通信するように構成される。
別の例では、デバイスは、出力ユニットをさらに備え、関心オブジェクトは腫瘍であり、出力ユニットは決定されたオブジェクトタイプを腫瘍悪性評価スキームに送信するように構成される。
一例では、画像セグメントは、ボクセル、ピクセル、又は複数のピクセルである。
さらなる態様によると、関心オブジェクトの構成をモデル化するシステムは、コンピュータ断層撮像デバイスと、上記の説明に記載のデバイスとを備え、デバイスは、コンピュータ断層撮影画像データを受信するように構成される入力ユニットを備え、コンピュータ断層撮像デバイスはコンピュータ断層撮影画像データを取得し且つ送信するように構成される。
一態様によると、関心オブジェクトの構成をモデル化するための方法は、以下のステップ:a)複数の画像セグメントをもたらすようにコンピュータ断層撮影画像データによって提供される関心オブジェクト画像データをセグメント化するステップと、b)それぞれの画像セグメントごとに関心オブジェクト画像データから決定済みハウンスフィールド密度値を抽出するステップと、c)関心オブジェクトに対する少なくとも2つの成分クラスの成分比を定義するステップであって、少なくとも2つの成分クラスは異なる成分のハウンスフィールド密度値を有する、定義するステップと、d)成分のハウンスフィールド密度値を含むシミュレート画像セグメントをもたらすように対応する決定済みハウンスフィールド密度値に基づいてそれぞれの画像セグメントに少なくとも1つの成分クラスを割り当てるステップであって、シミュレート画像セグメントは関心オブジェクトのシミュレート画像データを定義し、割り当てられた成分クラスの比率は成分比に相当する、割り当てるステップと、e)シミュレート画像データと関心オブジェクト画像データとの間の偏差を決定するステップと、f)偏差が最終成分比をもたらす所定の最小偏差に相当するまで、成分比を変動させてステップc)〜e)を繰り返すステップと、を有する。
方法は、例えば腫瘍である関心オブジェクトからの決定されたコンピュータ断層撮影画像データのシミュレーションを提供する。提供される画像データは、最初、画像セグメントにセグメント化される。コンピュータ断層撮影によって決定されるハウンスフィールド密度値はそれらの画像セグメントから抽出される。方法によって提供されるシミュレーションは、成分クラスの構成が成分のハウンスフィールド密度値を有することを想定することによって、関心オブジェクトをシミュレートする。これらの成分のハウンスフィールド密度値は、想定される構成の成分クラスに対する想定される値である。成分のハウンスフィールド密度値及び想定される構成を使用することによって、方法は、関心オブジェクトのシミュレート画像を決定する。
想定される構成は、それぞれが想定される異なるハウンスフィールド密度値を有する少なくとも2つの想定される異なる成分クラスを含む。この想定はさらに、少なくとも2つの異なる成分クラスの間の成分比に言及する。
これは、シミュレートされる関心オブジェクトが、成分クラスにおいて類別され、且つ成分クラスの成分比にマッチするシミュレートされる関心オブジェクトにおける分布を有する成分から成ると想定されることを意味する。関心オブジェクトの成分比をシミュレートするために、成分のハウンスフィールド密度値は画像セグメントに割り当てられる。成分のハウンスフィールド密度値の割り当ては、それぞれの画像セグメントの決定済みハウンスフィールド密度値に基づいて行われる。例えば、高い決定済みハウンスフィールド密度値を有する画像セグメントは、高い成分のハウンスフィールド密度値が割り当てられるのに対し、低い決定済みハウンスフィールド密度値を有する画像セグメントは、低い成分のハウンスフィールド密度値が割り当てられる。高い成分のハウンスフィールド密度値を有する画像セグメントと、低い成分のハウンスフィールド密度値を有する画像セグメントとの間の比率は、成分比にマッチする、すなわち、シミュレート画像セグメントはシミュレートされる関心オブジェクトにおける成分クラスと同じ比率を有する。
すると、その割り当てからもたらされる、シミュレートされる関心オブジェクトは、種々の成分のハウンスフィールド密度値を有する画像セクションを含む。比較するステップはシミュレートされる関心オブジェクト、すなわち、成分のハウンスフィールド密度値を含むシミュレート画像データを、決定される関心オブジェクト、すなわち、決定済みハウンスフィールド密度値を含む関心オブジェクト画像データと比較する。その比較からもたらされる偏差は次いで、所定の最小偏差と比較される。
決定される偏差が所定の最小偏差より高い場合、上述した関心オブジェクトのシミュレーションは、想定済み成分比を修正して繰り返される。
決定される偏差が所定の最小偏差に等しい又はこれより低い場合、実際の成分比は最終成分比であると定義される。
方法は、組織構成の低費用で高速の偏りのない自動分類である、関心オブジェクトの成分のシミュレーションを提供する。方法は、トレーニングのための臨床試料を有する広範囲にわたるデータベースに頼らずに関心オブジェクトをシミュレートすることができる。
一例では、ステップc)の前に、方法は、画像セグメントのソートされたリストをもたらすように決定済みハウンスフィールド密度値に基づいて画像セグメントをソートするステップg)を有し、ステップd)において、ソートされたリストは部分にセグメント化され、部分と部分との間の比率は成分比に相当し、成分クラスは成分比に従ってソートされたリストの部分に割り当てられる。
ソートされたリストに画像セグメントをソートすることによって、決定済みハウンスフィールド密度値に基づいて画像セグメントに成分のハウンスフィールド密度値を割り当てることが簡略化される。画像セグメントのソートされたリストは、シミュレートされる関心オブジェクトにおける想定される非ゼロ部分を有する成分クラスの数に等しいいくつかのリストセグメントに分割される。
それによって、成分クラスの間の比率を使用して、リストセグメントの間の比率を決定する。成分クラスの間の比率を決定するために、成分クラスは成分のハウンスフィールド密度値に基づいてソートされる。これは、最も高いハウンスフィールド密度値を有する成分クラスが最も高い平均決定済みハウンスフィールド密度値を有するリストセグメントに対する比率を定義することを意味する。それに応じて、最も低い成分のハウンスフィールド密度値を有する成分クラスは、最も低い平均決定済みハウンスフィールド密度値を有するリストセグメントに対する比率を定義する。それぞれ、最も高い及び最も低い成分のハウンスフィールド密度値、及び平均決定済みハウンスフィールド密度値を有する、成分クラスとリストセグメントとの間の成分クラス及びリストセグメントにも同じことが当てはまる。
次いで、対応するリストセグメントに対する比率を定義する成分クラスの成分のハウンスフィールド密度値は、そのリストセグメントのそれぞれの画像セグメントに割り当てられる。その結果、決定済みハウンスフィールド密度値の数より大幅に低いいくつかの種々の成分のハウンスフィールド密度値を有する画像セグメントのソートされたリストがもたらされる。その数は、成分クラスの数に相当する、又は成分クラスの数より低い。よって、画像セグメントのソートによって、画像セグメントの決定済みハウンスフィールド密度値がシミュレーションに考慮されるため、最小偏差を有する結果の認定が簡略化される。これは、想定される構成比の最も高い成分のハウンスフィールド密度値が最も高い決定済みハウンスフィールド密度値を有する画像セグメントに割り当てられることになることを意味する。さらに、想定される構成比の最も低い成分のハウンスフィールド密度値は、最も低い決定済みハウンスフィールド密度値を有する画像セグメントに割り当てられることになる。よって、関心オブジェクトのシミュレーションをさらに簡略化し、且つシミュレーション速度をさらに増大させるシミュレーションが合理的な境界条件の範囲内で行われる。
さらなる例によると、ステップd)は、d1)ぼけ関数でシミュレート画像データを畳み込むサブステップを有し、ステップf)において、成分比を変動させる時にぼけ関数を変動させる。
ぼけ関数でシミュレート画像データを畳み込むことは、関心オブジェクトの、シミュレート画像データと決定される画像データとの間の偏差を小さくすることになる。畳み込むことによって、画像取得デバイスの効果、例えば、撮像点広がり関数の効果がシミュレートされる。その効果は例えば、画像取得デバイスの光学、又は画像取得デバイスの検出器の形態からもたらされる。画像取得デバイスのぼけ関数が既知である場合、そのぼけ関数は関心オブジェクト画像データのシミュレーションに使用される。
別の例では、方法は、h)関心オブジェクトの決定されたオブジェクトタイプをもたらすように所定のオブジェクトタイプのリストと最終成分比を比較するステップと、i)決定されたオブジェクトタイプをユーザに通信するステップとをさらに有する。
さらなる例では、関心オブジェクトは腫瘍であり、方法は、j)決定されたオブジェクトタイプを腫瘍悪性評価スキームに送り込むステップをさらに有する。
さらなる態様によると、処理ユニットによって実行されると上記の説明に記載の方法の方法のステップを実行するように適応された、上述した説明に記載の装置を制御するためのコンピュータプログラム要素が提供される。
さらなる態様では、コンピュータ可読媒体には、上述したプログラム要素が記憶されている。
本発明のこれらの及び他の態様は、以降に説明される実施形態から明白となり、該実施形態を参照して明らかとなるであろう。
本発明の例示の実施形態について、下記の描写図を参照して以下に説明する。
関心オブジェクトの構成をモデル化するためのシステムの概略図である。 関心オブジェクトの構成をモデル化するためのデバイスの概略図である。 関心オブジェクトの構成をモデル化するための方法の概略的なフローチャートである。 関心オブジェクトとしての小結節を含む概略的なコンピュータ断層撮影画像データを示す図である。 概略的なシミュレート画像データと概略的な決定済み関心オブジェクトデータとの比較を示す図である。 画像セグメントのソート、及び成分のハウンスフィールド密度値の割り当ての概略図である。 関心オブジェクトとしての小結節を含む、図4の例示のコンピュータ断層撮影画像データを示す図である。 シミュレート画像データと、図7の決定済み関心オブジェクトデータとの図5の比較を示す図である。
関心オブジェクトの構成をモデル化するための撮像システム及びデバイスをさらに説明する前に、関心オブジェクトの構成をモデル化するための方法の例について、図3を参照してさらに詳細に説明する。
図3は、方法100の一例を表すフローチャートを示す。
方法100は、関心オブジェクト画像データを含むコンピュータ断層撮影画像データを使用し、関心オブジェクト画像データは関心オブジェクト7を示す。関心オブジェクト7は、2次元又は3次元での関心オブジェクト画像データによって示される小結節である。
方法100は、関心オブジェクト画像データがコンピュータ断層撮影画像データにおいて認識されるオブジェクト認識ステップを有する。
関心オブジェクト画像データは複数の画像セグメント71〜80にセグメント化される(101)。画像セグメント71〜80は、関心オブジェクト7の部分を示すボクセル又はピクセルである。セグメンテーションはラベルボリューム又は表面メッシュによって表される。
次いで、それぞれの画像セグメント71〜80の決定済みハウンスフィールド密度値が抽出される(102)。決定済みハウンスフィールド密度は、コンピュータ断層撮影算出によって決定される関心オブジェクト7の吸収を表す。ハウンスフィールド密度値は、関心オブジェクト画像データのグレースケール値によって表される。
図6aは、画像セグメント71〜80の概略図を示し、ここで、正方形における水平線は決定済みハウンスフィールド密度値を表す。
次のステップでは、画像セグメント71〜80は、決定済みハウンスフィールド密度値に基づいてソートされる(103)。これは、画像セグメント71〜80を含むソートされたリスト81が生成され、それぞれの画像セグメント71〜80の決定済みハウンスフィールド密度値がソートされたリスト81において対応する画像セグメント71〜80のランクを決定することを意味する。
ソートされたリスト81の一例が図6bに示されている。ソートされたリスト81が例えば2つの端部を有する線形リストである場合、一方の端部は最も高い決定済みハウンスフィールド密度値を有する画像セグメント71〜80を含むのに対し、他方の端部は最も低い決定済みハウンスフィールド密度値を有する画像セグメント71〜80を含む。端部は、異なる平均決定済みハウンスフィールド密度値を有するリストセグメントを定義する。
画像セグメント71〜80をソートした(103)後、成分クラス91〜94の成分比が関心オブジェクト7に対して定義される。例えば、関心オブジェクト7が4つの成分クラス91〜94を含むことが想定される。関心オブジェクト7が小結節である場合、成分クラス91は成分のハウンスフィールド密度値として300の想定される石灰化ハウンスフィールド密度値を有する石灰化組織を表し、成分クラス92は成分のハウンスフィールド密度値として0の想定される固体ハウンスフィールド密度値を有する固体組織を表し、成分クラス93は成分のハウンスフィールド密度値として−500の想定されるすりガラスハウンスフィールド密度値を有するすりガラス組織を表し、成分クラス94は成分のハウンスフィールド密度値として−750〜−950の想定される実質組織ハウンスフィールド密度値を有する実質組織を表す。図6cは成分クラス91〜94の概略図を示し、ここで、正方形における点は決定済みハウンスフィールド密度値を象徴している。
成分クラス91〜94の成分比は、成分クラス91対成分クラス92対成分クラス93対成分クラス94の比率として、40%:20%:20%:20%であると想定される。成分クラス91〜94の部分は100%になる。
次のステップでは、少なくとも1つの成分クラス91〜94は、それぞれの画像セグメント71〜80に、その画像セグメント71〜80からの決定済みハウンスフィールド密度値に基づいて割り当てられる(105)。この例では、画像セグメント71〜80はソートされたリスト81においてソートされるため、ソートされたリスト81の画像セグメント71〜80の最初の40%は成分クラス91の成分のハウンスフィールド密度値、すなわち、300の成分のハウンスフィールド密度値が割り当てられる。図6dによると、ソートされたリスト81の画像セグメント71〜80の最初の40%は画像セグメント78、79、72、及び76であり、これらは成分クラス91に割り当てられる。画像セグメント71〜80の残りは、それに応じて割り当てられ、すなわち、画像セグメント74及び80である、ソートされたリスト81の続く20%が成分クラス92に割り当てられ、画像セグメント77及び73である、ソートされたリスト81の次の20%は成分クラス93に割り当てられ、画像セグメント71及び75である、ソートされたリスト81の最後の20%は成分クラス94に割り当てられる。それによって、シミュレート画像セグメントのリスト95がもたらされる。
シミュレート画像データは、関心オブジェクト画像データにおける画像セグメント71〜80と同じ、シミュレート画像データの位置にあるシミュレート画像セグメントを生成することによって作成される。シミュレート画像セグメントは、割り当てするステップ105による各自の対応する成分のハウンスフィールド密度値を含む。
次に、シミュレート画像データによるぼけ関数の数学的な畳み込み106によってぼけがシミュレートされる。ぼけ関数は幅Bを有するガウス関数である。ぼけ関数はコンピュータ断層撮影スキャナの点広がり関数をシミュレートする。
代替的な実施形態では、シミュレート画像データによる既知のデバイスのぼけ関数の数学的な畳み込み106によってぼけがシミュレートされる。既知のデバイスのぼけ関数は、コンピュータ断層撮影データを取得するために使用される具体的なデバイスのぼけを厳密にシミュレートする。
次いで、シミュレート画像データと関心オブジェクト画像データとの間の偏差が決定される(107)。距離尺度を使用して、シミュレート画像データと関心オブジェクト画像データとの間の偏差を決定する。距離尺度は例えば、平均差又は線形相関である。
ステップ104、105、106、及び107は、偏差が所定の最小偏差より高い場合に繰り返され(108)、この場合、ステップ104における成分比は修正される。従って、続く反復は、35%:25%:20%:20%の成分比によって行われる。
成分比を修正するだけで、既知のシミュレーション方法と比較して大量の計算時間が節約される。成分比の関数及びぼけ関数の最適化は、1試行当たり必要とされる計算コストが非常に小さい時、標準最適化アルゴリズムを使用して又は全数並列検索によって行われ得る。成分比の修正後、成分のハウンスフィールド密度値の割り当ては、短時間で行われる明確に定義された割り当てスキームに従う。上述される方法は、関心オブジェクトの最終構成比を見出そうとする時に画像セグメント71〜80の決定済みハウンスフィールド密度値が確実に考慮されるようにする。従って、ランダムに行われる試行錯誤アプローチは防止される。
ステップ108において、シミュレート画像データと関心オブジェクト画像データとの間の偏差が所定の最小偏差に相当する場合、すなわち、偏差が所定の最小偏差に等しい又は所定の最小偏差を下回る場合、最終反復の成分比は最終成分比であると定義される。
成分比を定義する(104)前に、関心オブジェクト7を取り囲む部位のハウンスフィールド密度値は、関心オブジェクト7の周りのある特定の近傍、例えば、40mmの半径の周りにおいて提供されるコンピュータ断層撮影画像データのハウンスフィールドヒストグラムのピークとして決定される。
さらに、最適化された比較条件を提供するために、コンピュータ断層撮影画像データ8における関心オブジェクト画像データ以外の全ての画像データ9は、実質組織ハウンスフィールド密度値に設定される。すると、関心オブジェクト画像データ以外の画像データ9は均一になる。
また、シミュレート画像データにおける関心オブジェクト7以外のシミュレートされる組織はまた、比較のみによって、シミュレート画像データと関心オブジェクト画像データとの間の偏差が見出されるように実質組織ハウンスフィールド密度値に設定される。
最終成分比は所定のオブジェクトタイプのリストと比較される(109)。所定のオブジェクトタイプのリストは関心オブジェクトのオブジェクトタイプを見出すための教科書的な規則である。オブジェクトタイプを決定するための規則は、例えば、最終成分比によって成分クラス91に対して50%を上回ると決定される場合石灰化であり、最終成分比によって成分クラス92に対して50%を上回ると決定される場合固体であり、最終成分比によって成分クラス93に対して50%を上回り、且つ成分クラス92に対して5%を上回ると決定される場合混合であり、その他の場合、すりガラスである。関心オブジェクトが小結節である場合、最終成分比は、どんな種類の小結節がシミュレートされているかを決定するものである。
決定されたオブジェクトタイプはユーザに通信される(110)。ユーザは次いで、さらにその結果をどのように使用するかを決定することができる。
また、決定されたオブジェクトタイプは腫瘍悪性評価スキームに送り込まれる(111)。その評価スキームによって、種々の腫瘍タイプに対する境界、及びそれらの悪性の可能性を提供する基準がもたらされる。腫瘍悪性評価スキームの結果はユーザに提供される。
図1は、関心オブジェクト7の構成をモデル化するためのシステム1を示す。システムはコンピュータ断層撮像デバイス2と、関心オブジェクト7の構成をモデル化するためのデバイス3と、腫瘍悪性評価スキームモジュール6とを備える。
コンピュータ断層撮像デバイス2は患者の肺のコンピュータ断層撮像データを提供し、この場合、患者の肺は関心オブジェクト7である小結節を含む。コンピュータ断層撮像デバイス2は、患者の肺のコンピュータ断層撮像データを発する。
デバイス3は、コンピュータ断層撮像データを受信する入力ユニット30を備える。例えば、入力ユニット30は、コンピュータ断層撮像デバイス2によって発せられる患者の肺のコンピュータ断層撮像データを受信する。
さらに、デバイス3は、コンピュータ断層撮影画像データにおける関心オブジェクト画像データを認識するように構成される(図示されない)オブジェクト認識モジュールを備える。
デバイス3は、関心オブジェクト7に対する最終構成比に基づいてオブジェクトタイプを決定するために上述される方法をさらに実行する。その最終構成比はデバイス3のディスプレイユニット40上に表示される。また、デバイス3は出力ユニット31を介して関心オブジェクト7のオブジェクトタイプを提供する。
腫瘍悪性評価スキームモジュール6は、オブジェクトタイプを受信し、且つ関心オブジェクトの悪性についての評価を行う。
デバイス3は、デバイス3が上述される方法を実行するようにデバイス3を制御するように適応されるコンピュータプログラム要素5を含むコンピュータ可読デバイス4にさらに接続される。
上述される方法を実行するために、デバイス3は図2に示される処理ユニット32を備える。
処理ユニット32は、画像データセグメンタ33、抽出モジュール34、ソートモジュール35、定義モジュール36、割り当てモジュール37、コンパレータ38、及び畳み込みモジュール39を備える。
画像データセグメンタ33は、関心オブジェクト画像データを複数の画像セグメント71〜80にセグメント化する。画像セグメント71〜80は関心オブジェクト7の部分を示すボクセル又はピクセルである。セグメンテーションは、ラベルボリューム又は表面メッシュによって表される。
抽出モジュール34はそれぞれの画像セグメント71〜80の決定済みハウンスフィールド密度値を抽出する。決定済みハウンスフィールド密度はコンピュータ断層撮影算出によって決定される関心オブジェクト7の吸収を表す。ハウンスフィールド密度値は、関心オブジェクト画像データのグレースケール値によって表される。
図6aは、画像セグメント71〜80の概略図を示し、ここで、正方形における水平線は決定済みハウンスフィールド密度値を表す。
ソートモジュール35は、決定済みハウンスフィールド密度値に基づいて画像セグメント71〜80をソートする。これは、ソートモジュール35が画像セグメント71〜80を含むソートされたリスト81を生成し、ここで、それぞれの画像セグメント71〜80の決定済みハウンスフィールド密度値がソートされたリスト81のランクを決定することを意味する。
ソートされたリスト81の一例が図6bに示されている。ソートされたリスト81が例えば2つの端部を有する線形リストである場合、一方の端部は最も高い決定済みハウンスフィールド密度値を有する画像セグメント71〜80を含むのに対し、他方の端部は最も低い決定済みハウンスフィールド密度値を有する画像セグメント71〜80を含む。
定義モジュール36は、関心オブジェクト7に対する成分クラス91〜94の成分比を定義する。例えば、関心オブジェクト7が4つの成分クラス91〜94を含むことが想定される。関心オブジェクト7が小結節である場合、成分クラス91は成分のハウンスフィールド密度値として300の想定される石灰化ハウンスフィールド密度値を有する石灰化組織を表し、成分クラス92は成分のハウンスフィールド密度値として0の想定される固体ハウンスフィールド密度値を有する固体組織を表し、成分クラス93は成分のハウンスフィールド密度値として−500の想定されるすりガラスハウンスフィールド密度値を有するすりガラス組織を表し、成分クラス94は成分のハウンスフィールド密度値として−750〜−950の想定される実質組織ハウンスフィールド密度値を有する実質組織を表す。図6cは成分クラス91〜94の概略図を示し、ここで、正方形における点は決定済みハウンスフィールド密度値を表している。
成分クラス91〜94の成分比は、成分クラス91対成分クラス92対成分クラス93対成分クラス94の比率として、40%:20%:20%:20%であると想定される。成分クラス91〜94の部分は100%になる。
割り当てモジュール37は、少なくとも1つの成分クラス91〜94をそれぞれのその画像セグメント71〜80に、その画像セグメント71〜80からの決定済みハウンスフィールド密度値に基づいて割り当てる。この例では、画像セグメント71〜80はソートされたリスト81においてソートされるため、ソートされたリスト81の画像セグメント71〜80の最初の40%は成分クラス91の成分のハウンスフィールド密度値、すなわち、300の成分のハウンスフィールド密度値が割り当てられる。図6dによると、ソートされたリスト81の最初の40%は画像セグメント78、79、72、及び76であり、これらは成分クラス91が割り当てられる。画像セグメント71〜80の残りは、それに応じて割り当てられ、すなわち、画像セグメント74及び80である、ソートされたリスト81の続く20%は成分クラス92が割り当てられ、画像セグメント77及び73である、ソートされたリスト81の次の20%は成分クラス93が割り当てられ、画像セグメント71及び75である、ソートされたリスト81の最後の20%は成分クラス94が割り当てられる。
処理ユニットは、関心オブジェクト画像データにおける画像セグメント71〜80と同じ、シミュレート画像データの位置にあるシミュレート画像セグメントを生成することによってシミュレート画像データを作成する。シミュレート画像セグメントは、割り当てモジュール37によって決定される各自の成分のハウンスフィールド密度値を含む。
畳み込みモジュール39は、シミュレート画像データによるぼけ関数の数学的な畳み込み106によってぼけをシミュレートする。ぼけ関数は幅Bを有するガウス関数である。さらに、ぼけ関数はコンピュータ断層撮影スキャナの点広がり関数をシミュレートする。
代替的な実施形態では、畳み込みモジュール39は、シミュレート画像データによる既知のデバイスのぼけ関数の数学的な畳み込みによってぼけをシミュレートする。既知のデバイスのぼけ関数は、コンピュータ断層撮影データを取得するために使用される具体的なデバイスのぼけを厳密にシミュレートする。
コンパレータ38は、シミュレート画像データと関心オブジェクト画像データとの間の偏差を決定する。さらに、コンパレータは、距離尺度を使用して、シミュレート画像データと関心オブジェクト画像データとの間の偏差を決定する。距離尺度は例えば、平均差又は線形相関である。
コンパレータは、偏差が所定の最小偏差を上回ると決定する場合、処理ユニット32は、定義モジュール36、割り当てモジュール37、コンパレータ38、及び畳み込みモジュール39を繰り返し実行し、この場合、定義モジュール36はそれぞれの反復における成分比を修正する。従って、35%:25%:20%:20%の成分比によるさらなる反復が行われる。
成分比を修正するだけで、既知のシミュレーション方法と比較して大量の計算時間が節約される。成分比の関数及びぼけ関数の最適化は、1回の試行当たりに必要とされる計算コストが非常に小さい時、標準最適化アルゴリズムを使用して又は全数並列検索によって行われ得る。成分比の修正後、成分のハウンスフィールド密度値の割り当ては、短時間で行われる明確に定義された割り当てスキームに従う。上述される方法は、関心オブジェクトの最終構成比を見出そうとする時に画像セグメント71〜80の決定済みハウンスフィールド密度値が確実に考慮されるようにする。従って、ランダムに行われる試行錯誤アプローチは防止される。
コンパレータ38が、シミュレート画像データと関心オブジェクト画像データとの間の偏差が所定の最小偏差に相当すると決定される場合、すなわち、偏差が所定の最小偏差に等しい又は所定の最小偏差を下回ると決定される場合、最終反復の成分比は最終成分比であると定義される。デバイス3は、所定の最小偏差についての情報を記憶するように構成される(図示されない)ストレージユニットをさらに備える。
定義モジュール36が成分比を定義する前に、関心オブジェクト7を取り囲む部位のハウンスフィールド密度値は、関心オブジェクト7の周りのある特定の近傍、例えば、40mmの半径の周りにおけるハウンスフィールドヒストグラムのピークとして決定される。
さらに、最適化された比較条件を提供するために、コンピュータ断層撮影画像データ8における関心オブジェクト画像データ以外の全ての画像データ9は、実質組織ハウンスフィールド密度値に設定される。すると、関心オブジェクト画像データ以外の画像データ9は均一になる。
また、シミュレート画像データにおける関心オブジェクト7以外のシミュレートされる組織はまた、比較のみによって、シミュレート画像データと関心オブジェクト画像データとの間の偏差が見出されるように実質組織ハウンスフィールド密度値に設定される。
図4において、関心オブジェクト7を示す関心オブジェクト画像データを含む概略的なコンピュータ断層撮影画像データ8が示されている。さらに、ズームによって、関心オブジェクト画像データ、及び関心オブジェクトデータを取り囲むある組織の画像データ9の拡大が示されている。ズームした画像において、組織画像データ9は均一のハウンスフィールド密度値に設定される。これによって、関心オブジェクト画像データに対する均一なコントラストがもたらされる。
関心オブジェクト画像データは、高い決定済みハウンスフィールド密度値を有する明るい領域60、及び低い決定済みハウンスフィールド密度値を有する暗い領域61を含む。明るい領域60は暗い領域61への連続遷移領域を有する。しかしながら、図4において、明るい領域60の境界線は、明るい領域60と暗い領域61との間を明確に区別するための明確な境界線として示されている。関心オブジェクト7を含む元のコンピュータ断層撮影画像データ8は図7に示されている。
図5は、3つの概略的なシミュレート画像データa)、b)、及びc)を示す。図5d)は、図4から抽出される関心オブジェクト画像データを示す。それによって、図5a)は0mmの幅Bを有するシミュレーションを示し、図5b)は0.5mmの幅Bを有するシミュレーションを示し、図5c)は0.7mmの幅Bを有するシミュレーションを示す。
図5a)及び図5c)は、図5d)における関心オブジェクト画像データの間の大幅な偏差を示す。図5a)において、明るい領域62は暗い領域63に対する鮮明な境界線を含むが、これは、0mmの幅Bを有するぼけ関数が明るい領域62及び暗い領域63の大幅なぼけ効果をもたらさないからである。図5c)は暗い領域67よりほんのわずかに明るい領域66を示す。明るい領域66と暗い領域67との間の遷移は円滑であるように見える。0.7mmの幅Bを有するぼけ関数によって、関心オブジェクト画像データを含む図5d)と比較するともたらされるぼけは大きすぎる。明るい領域64は、図5a)の明るい領域62よりもぼけているが、図5c)の明るい領域66よりはぼけていない。
図5b)は、図5d)における関心オブジェクト画像データと比較すると非常に小さい偏差を有するシミュレート画像データを示す。この例では、図5b)の構成比のみならずぼけ関数の幅は、最終構成比として選定される。
図8は、図5における概略図として示される元のシミュレート画像データを示す。
最終成分比は所定のオブジェクトタイプのリストと比較される。所定のオブジェクトタイプのリストは、関心オブジェクトのオブジェクトタイプを見出すための教科書的な規則である。オブジェクトタイプを決定するための規則は、例えば、最終成分比によって成分クラス91に対して50%を上回ると決定される場合石灰化であり、最終成分比によって成分クラス92に対して50%を上回ると決定される場合固体であり、最終成分比によって、成分クラス93に対して50%を上回り、且つ成分クラス92に対して5%を上回ると決定される場合、混合であり、その他の場合、すりガラスである。関心オブジェクトが小結節である場合、最終成分比は、どんな種類の小結節がシミュレートされているかを決定するものである。
決定されたオブジェクトタイプは、ディスプレイユニット40によってユーザに通信される。ユーザは次いで、さらにその結果をどのように使用するかを決定することができる。
また、腫瘍悪性評価スキーム6は決定されたオブジェクトタイプを受信する。その評価スキーム6によって、種々の腫瘍タイプに対する境界、及びそれらの悪性の可能性を提供する基準がもたらされる。腫瘍悪性評価スキーム6の結果はユーザに提供される。
本発明の別の例示の実施形態では、適切なシステム上で、前述の実施形態のうちの1つによる方法の方法のステップを実行するように適応されることを特徴とするコンピュータプログラム又はコンピュータプログラム要素が提供される。
コンピュータプログラム要素は従って、本発明の一実施形態の一部でもあるコンピュータユニット上に記憶される。このコンピューティングユニットは、上述される方法のステップを行うように適応される、又は行うように誘導する。さらに、該コンピューティングユニットは、上述される装置のコンポーネントを動作させるように適応される。コンピューティングユニットは、ユーザの指令を自動的に動作させる及び/又は実行するように適応可能である。コンピュータプログラムは、データプロセッサの作業メモリにロードされる。データプロセッサは、このように、本発明の方法を実行するために備え付けられる。
本発明のこの例示の実施形態は、本発明を最初から使用するコンピュータプログラム、及び、更新によって、既存のプログラムを本発明を使用するプログラムに変えるコンピュータプログラム両方を包含する。
さらに続けて、コンピュータプログラム要素は、上述されるような方法の例示の実施形態の手順を履行するために全ての必要なステップを提供することができる。
本発明のさらなる例示の実施形態によると、CD−ROMなどのコンピュータ可読媒体が提示され、ここで、コンピュータ可読媒体にはコンピュータプログラム要素が記憶され、このコンピュータプログラム要素は前述の節で説明されている。コンピュータプログラムは、他のハードウェアと共に又はこれの一部として供給される光記憶媒体又はソリッドステート媒体などの適した媒体上に記憶される及び/又は分散されるが、インターネット又は他の有線若しくは無線電気通信システムなどを介して他の形態で分散される場合もある。
しかしながら、コンピュータプログラムはまた、World Wide Webのようなネットワーク上で提示され、このようなネットワークからデータプロセッサの作業メモリにダウンロード可能である。本発明のさらなる例示の実施形態によると、コンピュータプログラム要素がダウンロードするのを利用可能にするための媒体が提供され、このコンピュータプログラム要素は、本発明の先述された実施形態のうちの1つによる方法を実行するように配置される。
本発明の実施形態が種々の主題に関して説明されていることは、留意されなければならない。とりわけ、いくつかの実施形態は、方法タイプの請求項に関して説明されるのに対し、他の実施形態はデバイスタイプの請求項に関して説明されている。しかしながら、当業者は、上記の及び以下の説明から、別段記されていない限り、1つのタイプの主題に属する特徴の任意の組み合わせに加えて、種々の主題に関する特徴間の任意の組み合わせも、この応用と共に開示されていると考えられることを推測するであろう。一方、特徴の簡易な要約を超える相乗効果を提供する全ての特徴を組み合わせることができる。
本発明は、図面及び先述の説明において詳細に例証され且つ説明されているが、このような例証及び説明は、例証又は例示とみなされるものとし、制限するものではない。本発明は開示された実施形態に限定されない。開示された実施形態に対する他の変形は、図面、開示内容、及び従属請求項を検討することによって、特許請求された発明を実践する際に当業者が理解し且つ成し遂げることができるものである。
特許請求の範囲において、単語「備える」は他の要素又はステップを除外するものではなく、単数形は複数を除外するものではない。単一のプロセッサ又は他のユニットは特許請求の範囲に列挙されるいくつかの項目の機能を果たす。単に、ある特定の尺度が相互に異なる従属請求項に列挙されるという事実は、これらの尺度の組み合わせを利益をもたらすように使用できないことを指示するものではない。特許請求の範囲におけるいずれの参照符号も、この範囲を限定すると解釈されるべきではない。

Claims (12)

  1. 関心オブジェクトの構成をモデル化するためのデバイスであって
    コンピュータ断層撮影画像データによって提供される関心オブジェクト画像データを画像セグメントにセグメント化し、
    前記画像セグメントからハウンスフィールド密度値を抽出し、
    前記関心オブジェクトに対して、種々の成分のハウンスフィールド密度値を有する少なくとも2つの成分クラスの成分比を定義し、
    成分のハウンスフィールド密度値を含むシミュレート画像セグメントをもたらすように対応する決定済みハウンスフィールド密度値に基づいて、それぞれの前記画像セグメントに少なくとも1つの成分クラスを割り当て、前記シミュレート画像セグメントは前記関心オブジェクトのシミュレート画像データを定義し、割り当てられる成分クラスの比率は成分比に相当し、
    前記シミュレート画像データと前記関心オブジェクト画像データとの間の偏差を決定し、
    偏差が最終的な成分比をもたらす所定の最小偏差に相当するまで、前記成分比を変動させる、
    少なくとも1つのプロセッサを備える、デバイス。
  2. 前記少なくとも1つのプロセッサは、
    前記画像セグメントのソートされたリストをもたらすように決定済みハウンスフィールド密度値に基づいて前記画像セグメントをソート
    前記ソートされたリストを部分にセグメント化し、これら部分と部分との間の比率は前記成分比であり、前記成分クラスは前記成分比に従って前記ソートされたリストの部分に割り当てられる、請求項1に記載のデバイス。
  3. 前記少なくとも1つのプロセッサは、
    ぼけ関数で前記シミュレート画像データを畳み込
    前記成分比を変動させる時に前記ぼけ関数を変動させる、請求項1に記載のデバイス。
  4. 前記デバイスは、ディスプレイをさらに備え、
    前記少なくとも1つのプロセッサは、前記関心オブジェクトの決定されたオブジェクトタイプをもたらすように所定のオブジェクトタイプのリストと最終成分比とを比較し、
    前記ディスプレイは前記決定されたオブジェクトタイプをユーザに通信する、請求項1に記載のデバイス。
  5. 前記デバイスは、出力をさらに備え、
    前記関心オブジェクトは腫瘍であり、
    前記出力は、前記決定されたオブジェクトタイプを腫瘍悪性評価スキームに送信する、請求項4に記載のデバイス。
  6. 関心オブジェクトの構成をモデル化するシステムであって、前記システムは、
    コンピュータ断層撮像デバイスと、
    コンピュータ断層撮影画像データによって提供される関心オブジェクト画像データを画像セグメントにセグメント化し、
    前記画像セグメントからハウンスフィールド密度値を抽出し、
    前記関心オブジェクトに対して、種々の成分のハウンスフィールド密度値を有する少なくとも2つの成分クラスの成分比を定義し、
    成分のハウンスフィールド密度値を含むシミュレート画像セグメントをもたらすように対応する決定済みハウンスフィールド密度値に基づいて、それぞれの前記画像セグメントに少なくとも1つの成分クラスを割り当て、前記シミュレート画像セグメントは前記関心オブジェクトのシミュレート画像データを定義し、割り当てられる成分クラスの比率は成分比に相当し、
    前記シミュレート画像データと前記関心オブジェクト画像データとの間の偏差を決定し、
    偏差が最終的な成分比をもたらす所定の最小偏差に相当するまで、前記成分比を変動させる、
    少なくとも1つのプロセッサを備える、デバイスと、
    を備える、システム。
  7. 関心オブジェクトの構成をモデル化するための方法であって、前記方法は、
    複数の画像セグメントをもたらすようにコンピュータ断層撮影画像データによって提供される関心オブジェクト画像データをセグメント化するステップと、
    それぞれの画像セグメントごとに前記関心オブジェクト画像データから決定済みハウンスフィールド密度値を抽出するステップと、
    前記関心オブジェクトに対する少なくとも2つの成分クラスの成分比を定義するステップであって、前記少なくとも2つの成分クラスは異なる成分のハウンスフィールド密度値を有する、定義するステップと、
    成分のハウンスフィールド密度値を含むシミュレート画像セグメントをもたらすように対応する決定済みハウンスフィールド密度値に基づいて前記それぞれの画像セグメントに少なくとも1つの成分クラスを割り当てるステップであって、前記シミュレート画像セグメントは前記関心オブジェクトのシミュレート画像データを定義し、割り当てられた成分クラスの比率は前記成分比に相当する、割り当てるステップと、
    前記シミュレート画像データと前記関心オブジェクト画像データとの間の偏差を決定するステップと、
    前記偏差が最終成分比をもたらす所定の最小偏差に相当するまで、前記成分比を変動させステップと、を有する、方法。
  8. 前記画像セグメントのソートされたリストをもたらすように前記決定済みハウンスフィールド密度値に基づいて前記画像セグメントをソートするステップ
    前記ソートされたリスト部分にセグメント化するステップであって、これら部分と部分との間の比率は前記成分比に相当し、前記成分クラスは前記成分比に従って前記ソートされたリストの部分に割り当てられる、セグメント化するステップと、を有する、請求項7に記載の方法。
  9. ぼけ関数で前記シミュレート画像データを畳み込むステップさらに有し、
    前記成分比を変動させる時に前記ぼけ関数を変動させる、請求項7に記載の方法。
  10. 前記関心オブジェクトの決定されたオブジェクトタイプをもたらすように所定のオブジェクトタイプのリストと最終成分比とを比較するステップと、
    前記決定されたオブジェクトタイプをユーザに通信するステップとをさらに有する、請求項7に記載の方法。
  11. 前記関心オブジェクトは腫瘍であり、前記方法は、
    前記決定されたオブジェクトタイプを腫瘍悪性評価スキームに送り込むステップをさらに有する、請求項10に記載の方法。
  12. 少なくとも1つのプロセッサによって実行されると、前記少なくとも1つのプロセッサに、関心オブジェクトの構成をモデル化するための方法であって、前記方法は、
    複数の画像セグメントをもたらすようにコンピュータ断層撮影画像データによって提供される関心オブジェクト画像データをセグメント化するステップと、
    それぞれの画像セグメントごとに前記関心オブジェクト画像データから決定済みハウンスフィールド密度値を抽出するステップと、
    前記関心オブジェクトに対する少なくとも2つの成分クラスの成分比を定義するステップであって、前記少なくとも2つの成分クラスは異なる成分のハウンスフィールド密度値を有する、定義するステップと、
    成分のハウンスフィールド密度値を含むシミュレート画像セグメントをもたらすように対応する決定済みハウンスフィールド密度値に基づいて前記それぞれの画像セグメントに少なくとも1つの成分クラスを割り当てるステップであって、前記シミュレート画像セグメントは前記関心オブジェクトのシミュレート画像データを定義し、割り当てられた成分クラスの比率は前記成分比に相当する、割り当てるステップと、
    前記シミュレート画像データと前記関心オブジェクト画像データとの間の偏差を決定するステップと、
    前記偏差が最終成分比をもたらす所定の最小偏差に相当するまで、前記成分比を変動させるステップと、
    を有する方法を実行させる、1以上の実行可能な命令が記憶された、非一時的コンピュータ可読媒体。
JP2019556630A 2017-04-18 2018-04-18 関心オブジェクトの構成をモデル化するためのデバイス及び方法 Active JP6901587B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP17166802.3A EP3392804A1 (en) 2017-04-18 2017-04-18 Device and method for modelling a composition of an object of interest
EP17166802.3 2017-04-18
PCT/EP2018/059904 WO2018192971A1 (en) 2017-04-18 2018-04-18 Device and method for modelling a composition of an object of interest

Publications (3)

Publication Number Publication Date
JP2020517331A JP2020517331A (ja) 2020-06-18
JP2020517331A5 JP2020517331A5 (ja) 2021-05-27
JP6901587B2 true JP6901587B2 (ja) 2021-07-14

Family

ID=58644826

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019556630A Active JP6901587B2 (ja) 2017-04-18 2018-04-18 関心オブジェクトの構成をモデル化するためのデバイス及び方法

Country Status (5)

Country Link
US (1) US11042987B2 (ja)
EP (2) EP3392804A1 (ja)
JP (1) JP6901587B2 (ja)
CN (1) CN110520866B (ja)
WO (1) WO2018192971A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3392804A1 (en) * 2017-04-18 2018-10-24 Koninklijke Philips N.V. Device and method for modelling a composition of an object of interest
US11507423B2 (en) * 2020-03-30 2022-11-22 Qualcomm Incorporated Processing data stream modification to reduce power effects during parallel processing

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5023895A (en) * 1989-03-02 1991-06-11 Innovative Imaging Systems, Inc. Three dimensional tomographic system
US6395255B1 (en) * 1998-06-15 2002-05-28 Thomas Jefferson University Radiolabeled vasoactive intestinal peptide analogs for imaging and therapy
KR100283106B1 (ko) * 1998-10-28 2001-03-02 정선종 전산화 단층촬영에서 가우시안 함수 근사에 의한 체지방 범위설정 방법
US20050207630A1 (en) * 2002-02-15 2005-09-22 The Regents Of The University Of Michigan Technology Management Office Lung nodule detection and classification
US7498018B2 (en) * 2003-10-03 2009-03-03 Bracco Diagnostics Inc. Contrast media for use in medical and diagnostic procedures and methods of using the same
DE10357206B4 (de) * 2003-12-08 2005-11-03 Siemens Ag Verfahren und Bildbearbeitungssystem zur Segmentierung von Schnittbilddaten
CN101292260B (zh) * 2005-10-21 2014-12-10 皇家飞利浦电子股份有限公司 绘制方法和设备
JP2008272014A (ja) * 2007-04-25 2008-11-13 Hitachi Medical Corp 定量測定装置、定量評価装置及び画像処理プログラム
WO2009101560A2 (en) * 2008-02-15 2009-08-20 Koninklijke Philips Electronics N.V. Apparatus for segmenting an object comprising sub-objects
EP2260466A4 (en) * 2008-03-03 2012-03-21 Agency Science Tech & Res METHOD AND SYSTEM FOR SEGMENTING CT SCAN DATA
DE102008057083A1 (de) * 2008-11-13 2010-05-27 Siemens Aktiengesellschaft Verfahren zum Erfassen und Anzeigen von medizinischen Bilddaten
AT509040B1 (de) * 2009-08-11 2012-09-15 Univ Wien Med Verfahren und vorrichtung zur verarbeitung von 3d-bilddaten eines schädels
US9119590B2 (en) * 2010-02-18 2015-09-01 Los Angeles Biomedical Research Institute At Harbor-Ucla Medical Center Method for thoracic vertebral bone density measurement by thoracic quantitative computed tomography
CN102918563A (zh) * 2010-06-02 2013-02-06 皇家飞利浦电子股份有限公司 血管内栓塞化成效的自动量化
CN102939616B (zh) * 2010-06-14 2015-11-25 皇家飞利浦电子股份有限公司 组织分类
EP2627246B1 (en) 2010-10-14 2020-03-04 Syntheticmr AB Methods and apparatuses for relating multiple magnetic resonance physical parameters to myelin content in the brain
US8467585B2 (en) * 2010-10-21 2013-06-18 Genenal Electric Company Methods and apparatus to analyze computed tomography scan data
CN102103757B (zh) * 2010-12-27 2012-09-19 中国科学院深圳先进技术研究院 锥束图像重建方法及装置
US9691168B2 (en) * 2011-03-18 2017-06-27 The Regents Of The University Of California Image reconstruction using gradient projection for medical imaging applications
US8705827B2 (en) * 2011-04-15 2014-04-22 Georgia Tech Research Corporation Scatter correction methods
CA2861420A1 (en) * 2012-01-17 2013-07-25 Sunnybrook Health Sciences Centre Method for three-dimensional localization of an object from a two-dimensional medical image
US9152761B2 (en) * 2014-01-10 2015-10-06 Heartflow, Inc. Systems and methods for identifying medical image acquisition parameters
KR20160140189A (ko) * 2015-05-29 2016-12-07 삼성전자주식회사 단층 촬영 장치 및 그에 따른 단층 촬영 방법
JP2017012382A (ja) * 2015-06-30 2017-01-19 キヤノンマーケティングジャパン株式会社 医用画像処理装置、医用画像処理装置に搭載可能なプログラム、及び医用画像処理方法
EP3392804A1 (en) * 2017-04-18 2018-10-24 Koninklijke Philips N.V. Device and method for modelling a composition of an object of interest

Also Published As

Publication number Publication date
CN110520866B (zh) 2023-12-26
US20200043173A1 (en) 2020-02-06
CN110520866A (zh) 2019-11-29
JP2020517331A (ja) 2020-06-18
EP3392804A1 (en) 2018-10-24
WO2018192971A1 (en) 2018-10-25
US11042987B2 (en) 2021-06-22
EP3612982A1 (en) 2020-02-26

Similar Documents

Publication Publication Date Title
CN110050281B (zh) 学习图像中的对象的注释
US10561466B2 (en) Automated planning systems for pedicle screw placement and related methods
US10453198B2 (en) Device and method for delineating a metal object for artifact reduction in tomography images
CN107567637B (zh) 脑组织分类
CN109191424B (zh) 一种乳腺肿块检测与分类系统、计算机可读存储介质
US9940545B2 (en) Method and apparatus for detecting anatomical elements
WO2022116914A1 (en) Method, device, and storage medium for pancreatic mass segmentation, diagnosis, and quantitative patient management
WO2016038604A1 (en) Interactive segmentation
US9317926B2 (en) Automatic spinal canal segmentation using cascaded random walks
Nguyen et al. A clustering-based system to automate transfer function design for medical image visualization
JP6901587B2 (ja) 関心オブジェクトの構成をモデル化するためのデバイス及び方法
CN107567638B (zh) 对解剖结构的基于模型的分割
von Landesberger et al. Comparative local quality assessment of 3D medical image segmentations with focus on statistical shape model-based algorithms
Pezeshk et al. Seamless insertion of pulmonary nodules in chest CT images
US9538920B2 (en) Standalone annotations of axial-view spine images
Banerjee et al. A semi-automated approach to improve the efficiency of medical imaging segmentation for haptic rendering
Pedersen et al. Shape index descriptors applied to texture-based galaxy analysis
Karimov et al. Guided volume editing based on histogram dissimilarity
Wu et al. Semiautomatic segmentation of glioma on mobile devices
JP2020517331A5 (ja)
Cheng et al. Automatic centerline detection of small three-dimensional vessel structures
CN114387380A (zh) 用于生成3d医学图像数据的基于计算机的可视化的方法
JP2015501968A (ja) 固有画像の生成を改良するための後処理
Cheng et al. Interactive exploration of microstructural features in gigapixel microscopy images
RU2713707C2 (ru) Классификация тканей головного мозга

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210415

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210415

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210415

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210521

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210617

R150 Certificate of patent or registration of utility model

Ref document number: 6901587

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150