JP2020116378A - 深層学習ベースの画像再構成のためのシステムおよび方法 - Google Patents

深層学習ベースの画像再構成のためのシステムおよび方法 Download PDF

Info

Publication number
JP2020116378A
JP2020116378A JP2019222767A JP2019222767A JP2020116378A JP 2020116378 A JP2020116378 A JP 2020116378A JP 2019222767 A JP2019222767 A JP 2019222767A JP 2019222767 A JP2019222767 A JP 2019222767A JP 2020116378 A JP2020116378 A JP 2020116378A
Authority
JP
Japan
Prior art keywords
image
ray
organ
volume
projection images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019222767A
Other languages
English (en)
Other versions
JP7237809B2 (ja
Inventor
シルヴァン・ベルナール
Sylvain Bernard
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
General Electric Co
Original Assignee
General Electric Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by General Electric Co filed Critical General Electric Co
Publication of JP2020116378A publication Critical patent/JP2020116378A/ja
Application granted granted Critical
Publication of JP7237809B2 publication Critical patent/JP7237809B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • G06T11/008Specific post-processing after tomographic reconstruction, e.g. voxelisation, metal artifact correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/10Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2211/00Image generation
    • G06T2211/40Computed tomography
    • G06T2211/408Dual energy
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2211/00Image generation
    • G06T2211/40Computed tomography
    • G06T2211/436Limited angle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2211/00Image generation
    • G06T2211/40Computed tomography
    • G06T2211/441AI-based methods, deep learning or artificial neural networks

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

【課題】深層学習ベースの画像再構成のための方法、装置、およびシステムが、本明細書に開示される。【解決手段】典型的な少なくとも1つのコンピュータ可読記憶媒体が、実行時に、少なくとも1つのプロセッサに、器官の複数の二次元(2D)トモシンセシス投影画像を、X線エミッタを前記器官に対する複数の向きへと回転させ、前記複数の2Dトモシンセシス投影画像の各々の投影画像について前記エミッタから第1のレベルのX線エネルギ投入を放射することによって取得するステップと、前記複数の2Dトモシンセシス投影画像から前記器官の三次元(3D)ボリュームを再構成するステップと、第2のレベルのX線エネルギ投入で前記器官のX線画像を取得するステップと、合成2D画像生成アルゴリズムを、前記再構成された3Dボリュームから、前記合成2D画像と前記X線画像との間の類似度指標に基づいて生成するステップと、前記合成2D画像生成アルゴリズムをインスタンス化するモデルを展開するステップとを少なくとも実行させる命令を含む。【選択図】図11

Description

本開示は、広くには、画像再構成に関し、より詳しくは、深層学習ベースの画像再構成のためのシステムおよび方法に関する。
放射線撮影が、対象のオブジェクトにおける異常を探すために、一般的に使用されている。放射線撮影画像は、例えば患者の器官などのオブジェクトの投影を表す。より具体的な例(ただし、これに限られるわけではない)において、器官は乳房であり、画像はマンモグラフィ画像である。マンモグラフィは、乳がんの検診および診断に数十年にわたって使用されてきた。放射線撮影画像は、一般に、X線がオブジェクトを横切って検出器に到達するように、X線を放射するソースとX線の検出器との間にオブジェクトを配置することによって取得される。このようにして、放射線撮影画像は、検出器によってもたらされるデータから構成され、X線の方向に検出器へと投影されたオブジェクトを表す。
マンモグラフィの場合、経験豊富な放射線科医は、例えば微小石灰化、腫瘤、または他の影などの潜在的な問題を示す放射線医学に係る徴候を区別することができる。しかしながら、二次元(2D)投影画像においては、組織の重なり合いによって病変が隠れてしまう可能性があり、いずれにせよ対象のオブジェクトにおける病変の実際の位置は不明であり、医師は投影方向における放射線医学に係る徴候の位置についていかなる情報も有さない。
トモシンセシスが、これらの問題に対処するために使用される。トモシンセシスにおいては、器官の三次元(3D)表現を、一連の連続したスライスとして得ることができる。スライスは、さまざまな角度での対象のオブジェクトの投影から再構成される。これを行うために、対象のオブジェクトは、通常は、X線を放射するソースとX線の検出器との間に配置される。ソースおよび/または検出器は、検出器へのオブジェクトの投影の方向を(例えば、30度の角度範囲にわたって)変えることができるように可動である。これにより、対象のオブジェクトのいくつかの投影が異なる角度のもとで取得され、そこから、オブジェクトの三次元表現を、例えば通常は再構成法によって再構成することができる。
各々の投影において、X線の放射線量は、当然ながら、標準的なマンモグラフィに使用される線量よりも少ない。例えば、標準的なマンモグラフィによる放射線量をDとし、トモシンセシスに使用される投影の数をNとすると、各々の投影に使用される放射線量は、通常はおおむねD/Nである。
現時点において、標準的なマンモグラフィおよびトモシンセシスの両方が放射線技師によって使用されているが、各々の技術が利点を有している。標準的なマンモグラフィは、微小石灰化の撮像においてトモシンセシスよりも優れている。これは、おそらくは、個々の標準的なマンモグラフィ画像がより多くのエネルギおよび線量を使用して取得されること、およびトモシンセシスにおける再構成プロセスがすでに小さい石灰化のエッジをぼかす傾向にあることに起因する。トモシンセシスは、トモシンセシスにおける再構成が、器官内の塊状物ならびに器官内の対象のオブジェクトからの重なり合いおよび逆投影エラーを適切に特定するため、有棘塊状物の撮像に優れている。
放射線科医は、各々の技術の利点を利用するために標準的なマンモグラフィ画像およびトモシンセシス画像の両方を取得することができるが、これらの撮像プロセスは、典型的には、放射線科医が撮像技術の間の切り換えを行うことによって順次に実行される。
近年において、デジタル乳房トモシンセシス(DBT)およびコントラスト強調デジタル乳房トモシンセシス(CE−DBT)が、効果的ながん検出技術であることが証明されている。DBTは、X線を使用して乳房の三次元(3D)画像を生成する。多くの角度から各々の乳房の複数のX線写真を撮影することによって、コンピュータが、異常の検出に使用される3D画像を生成することができる。DBT/CE−DBTプロセスの重要部分は画像再構成であり、なぜならば、放射線科医が診断を決定するためにレビューするデータの内容に直接影響するからである。画像を再構成するために、アルゴリズムが、ノイズおよびストリークラインを減らすようにトレーニングされ、使用される。アルゴリズムの複雑さにもかかわらず、DBTプロセスは、典型的には、完璧な画像再構成をもたらしていない。
米国特許出願公開第2019/102916号明細書
対象のオブジェクトの1つ以上の画像を取得するための典型的な撮像システムを示している。 器官に対するソース/エミッタの典型的な動きを示している。 典型的な画像処理システムを示している。 図3の典型的な画像処理システムのトレーナおよびモデラの典型的な実施態様を示している。 典型的な深層学習ニューラルネットワークを示している。 畳み込みニューラルネットワークとしての図5の典型的なニューラルネットワークの特定の実施態様を示している。 画像解析畳み込みニューラルネットワークの典型的な実施態様を示している。 画像を処理および/または他のやり方で評価するための深層学習ネットワークを適用するための典型的な構成を示している。 ボリューム画像データを提供するためのトモシンセシス取得を使用した図5の例のトレーニングネットワークの典型的なトレーニングを示している。 図5の例のトレーニングネットワークの典型的なテストを示している。 図1〜図10の典型的なシステムを実現するための典型的な機械可読命令を表すフローチャートを示している。 図1〜図10の典型的なシステムを実現するための典型的な機械可読命令を表すフローチャートを示している。 図1〜図10の典型的なシステムを実現するための典型的な機械可読命令を表すフローチャートを示している。 図1〜図10の典型的なシステムを実現するための典型的な機械可読命令を表すフローチャートを示している。 図1〜図10の典型的なシステムを実現するための典型的な機械可読命令を表すフローチャートを示している。 図1〜図10の典型的なシステムを実現するための典型的な機械可読命令を表すフローチャートを示している。 図1〜図10の典型的なシステムを実現するための典型的な機械可読命令を表すフローチャートを示している。 図11〜図15の方法を実施するために使用することができるプロセッサの図である。
図面は一定の縮尺ではない。むしろ、複数の層および領域を分かりやすくするために、層の厚さが図面において増やされている場合がある。可能な限り、同じ参照番号が、図面および付随の書面による説明の全体を通して、同一または同様の部分を指して用いられる。本特許において使用されるとき、何らかの部分(例えば、層、フィルム、領域、またはプレート)が何らかのやり方で別の部分の上に置かれている(例えば、・・・上に置かれ、・・・上に位置し、・・・上に配置され、あるいは・・・上に形成され、など)という表現は、該当の部分が別の部分に接触していること、または該当の部分が1つ以上の介在部分を間に位置させつつ別の部分の上方にあることを意味する。何らかの部分が別の部分に接触しているという表現は、2つの部分の間に介在部分が存在しないことを意味する。
特定の例は、深層学習ベースの画像再構成のための方法およびシステムを提供する。
特定の例は、命令を含んでいる少なくとも1つのコンピュータ可読記憶媒体を提供し、前記命令は、実行時に、少なくとも1つのプロセッサに、少なくとも、器官の複数の二次元(2D)トモシンセシス投影画像を、X線エミッタを前記器官に対する複数の向きへと回転させ、前記複数の2Dトモシンセシス投影画像の各々の投影画像について前記エミッタから第1のレベルのX線エネルギ投入を放射することによって取得するステップと、前記複数の2Dトモシンセシス投影画像から前記器官の三次元(3D)ボリュームを再構成するステップと、第2のレベルのX線エネルギ投入で前記器官のX線画像を取得するステップと、合成2D画像生成アルゴリズムを、前記再構成された3Dボリュームから、前記合成2D画像と前記X線画像との間の類似度指標に基づいて生成するステップと、前記合成2D画像生成アルゴリズムをインスタンス化するモデルを展開するステップとを実行させる。
特定の例は、命令を含んでいる少なくとも1つのコンピュータ可読記憶媒体を提供し、前記命令は、実行時に、少なくとも1つのプロセッサに、少なくとも、器官の複数の二次元(2D)トモシンセシス投影画像を、X線エミッタを前記器官に対する複数の向きへと回転させ、前記複数の2Dトモシンセシス投影画像の各々の投影画像について前記エミッタから第1のレベルのX線エネルギ投入を放射することによって取得するステップと、第2のレベルのX線エネルギ投入で前記器官のX線画像を取得するステップと、ボリューム再構成アルゴリズムを、前記複数の二次元(2D)トモシンセシス投影画像から、前記ボリューム再投影と前記X線画像との間の類似度指標に基づいて生成するステップと、前記ボリューム再構成アルゴリズムをインスタンス化するモデルを展開するステップとを実行させる。
特定の例は、命令を含んでいる少なくとも1つのコンピュータ可読記憶媒体を提供し、前記命令は、実行時に、少なくとも1つのプロセッサに、少なくとも、器官の複数の二次元(2D)トモシンセシス投影画像を、X線エミッタを前記器官に対する複数の向きへと回転させ、前記複数の投影画像の各々の投影画像について前記エミッタから第1のレベルのX線エネルギ投入を放射することによって取得するステップと、第2のレベルのX線エネルギ投入で前記器官のX線画像を取得するステップと、画像強化アルゴリズムを、前記複数の2Dトモシンセシス投影画像からの中央トモシンセシス投影から、前記画像強化アルゴリズムの出力と前記X線画像との間の類似度指標に基づいて生成するステップと、前記画像強化アルゴリズムをインスタンス化するモデルを展開するステップとを実行させる。
特定の例は、命令を含んでいる少なくとも1つのコンピュータ可読記憶媒体を提供し、前記命令は、実行時に、少なくとも1つのプロセッサに、少なくとも、器官の複数の二次元(2D)トモシンセシス投影画像を、X線エミッタを前記器官に対する複数の向きへと回転させ、前記複数の投影画像の各々の投影画像について前記エミッタから第1のレベルのX線エネルギ投入を放射することによって取得するステップと、前記複数の2D投影画像を劣化させ、前記第1のレベルのX線エネルギ投入よりも低いレベルのX線エネルギ投入で取得されたように見える一式の劣化させたトモシンセシス投影画像を形成するステップと、画像強化アルゴリズムを、前記画像強化アルゴリズムの出力と前記元の投影との間の類似度指標を最小化する傾向の前記一式の劣化させたトモシンセシス投影画像から生成するステップと、前記画像強化アルゴリズムをインスタンス化するモデルを展開するステップとを実行させる。
特定の例は、命令を含んでいる少なくとも1つのコンピュータ可読記憶媒体を提供し、前記命令は、実行時に、少なくとも1つのプロセッサに、少なくとも、器官の複数の二次元(2D)トモシンセシス投影画像を、X線エミッタを前記器官に対する複数の向きへと回転させ、前記複数の投影画像の各々の投影画像について前記エミッタから第1のレベルのX線エネルギ投入を放射することによって取得するステップと、前記複数の2Dトモシンセシス投影画像から前記器官の元の三次元(3D)ボリュームを再構成するステップと、前記複数の2D投影画像を劣化させ、前記第1のレベルのX線エネルギ投入よりも低いレベルのX線エネルギ投入で取得されたように見える一式の劣化させたトモシンセシス投影画像を形成するステップと、ボリューム再構成アルゴリズムを、前記ボリューム再構成アルゴリズムの出力と前記元の3Dボリュームとの間の類似度指標を最小化する傾向の前記一式の劣化させたトモシンセシス投影画像から生成するステップと、前記ボリューム再構成アルゴリズムをインスタンス化するモデルを展開するステップとを実行させる。
以下の詳細な説明において、本明細書の一部を形成する添付の図面を参照するが、図面には、実施され得る具体的な例が例示として示されている。これらの例は、本主題の実施を当業者にとって可能にするように充分に詳しく説明されており、他の例も利用可能であることを理解すべきである。したがって、以下の詳細な説明は、典型的な実施態様を説明するために提示されており、本開示に記載される主題の技術的範囲を限定するものと解釈されるべきではない。以下の説明の別々の態様からの特定の特徴を組み合わせて、以下で説明される主題のさらなる新たな態様を形成することができる。
本開示の種々の実施形態の要素を紹介する場合に、冠詞「1つの(a)」、「1つの(an)」、「前記(the)」、および「前記(said)」は、その要素が1つ以上存在することを意味するように意図される。「・・・を備える(comprising)」、「・・・を含む(including)」、および「・・・を有する(having)」という用語は、包括的であるように意図され、列挙された要素以外のさらなる要素が存在してもよいことを意味する。
本明細書において使用されるとき、「システム」、「ユニット」、「モジュール」、などという用語は、1つ以上の機能を実行するよう動作するハードウェアおよび/またはソフトウェアシステムを含むことができる。例えば、モジュール、ユニット、またはシステムは、コンピュータメモリなどの、有形の非一時的なコンピュータ可読記憶媒体に格納された命令に基づいて動作を実行するコンピュータプロセッサ、コントローラ、および/または他の論理ベースのデバイスを含むことができる。あるいは、モジュール、ユニット、またはシステムは、デバイスの有線のロジックに基づいて動作を実行する有線デバイスを含むことができる。添付の図面に示されるさまざまなモジュール、ユニット、エンジン、および/またはシステムは、ソフトウェアまたは有線の命令に基づいて動作するハードウェア、動作を実行するようにハードウェアを導くソフトウェア、あるいはそれらの組み合わせを表すことができる。
本明細書において使用されるとき、用語「マッピング」は、撮像されたオブジェクト内の場所の位置を、オブジェクトについて取得された1つ以上の画像内の対応する場所へと変換することを示す。これに代え、あるいはこれに加えて、マッピングは、第1の画像内の或る地点が、他の関連の画像内の同じ地点へと、それらの場所の座標が合成二次元画像、三次元ボリューム、などを形成するときに相関付けられるようにマッピングされるような複数の画像またはビュー内の共通の地点の間の相関関係を指すことができる。例えば、3Dオブジェクトの各々の要素(例えば、ピクセル、ボクセル、など)は、座標系における位置を有する。3Dオブジェクトの要素のマッピングは、3Dオブジェクトからのデータ点を、生成された2Dまたは3D画像の対応するデータ点へと変換することを意味する。
本明細書において使用されるとき、用語「投影」または「投影画像」は、特定の角度またはビューからのX線の放射から得られた画像を意味する。投影を、3Dオブジェクトについて一式の投影画像を異なる角度からキャプチャし、ボリュームを再構成し、さらには/あるいは合成2D画像を生成するようにマッピングし、あるいは組み合わせる/融合させるマッピングの特定の例と考えることができる。各々の投影画像は、中央投影(例えば、ベース投影、垂直投影、ゼロ角度投影、など)に対してキャプチャされる。投影から得られる画像は、元の3Dオブジェクトとほぼ同一の3D再構成画像、または各々の投影を統合して各々のビューの情報を活用する合成2D画像のいずれかである。
本明細書において使用されるとき、用語「取得ジオメトリ」は、一連の2D投影を取得するための3Dオブジェクト(例えば、検出器)に対するX線ソースの特定の経路または動きである。
特定の例が、医療現場またはヘルスケア現場の文脈において以下で説明されるが、他の例は、医療環境以外の環境で実施可能である。
多数のさまざまな応用において、深層学習技術が、マシンに生データを与え、データ分類に必要な表現を決定することを可能にする学習方法を利用している。深層学習は、深層学習マシンの内部パラメータ(例えば、ノードの重み)を変更するために使用される逆伝搬アルゴリズムを使用して、データセット内の構造を突き止める。深層学習マシンは、さまざまな多層アーキテクチャおよびアルゴリズムを利用することができる。例えば、機械学習は、ネットワークのトレーニングに使用されるべき特徴の識別を必要とするが、深層学習は、外部の識別を必要とすることなく、生データを処理して関心の特徴を識別する。
ニューラルネットワーク環境における深層学習は、ニューロンと呼ばれる多数の相互接続されたノードを含む。入力ニューロンが、外部のソースから活性化され、他のニューロンをマシンパラメータによって支配される他のニューロンへの接続に基づいて活性化させる。ニューラルネットワークは、自身のパラメータに基づく特定の様相で挙動する。学習によってマシンパラメータ、したがってネットワーク内のニューロン間の接続がリファインされ、ニューラルネットワークが所望の様相で挙動するようになる。
深層学習は、多くのデータセットが低レベルの特徴を含む高レベルの特徴を含むという理解に基づいて動作する。例えば、画像を調べる際に、オブジェクトを探すよりもむしろ、探しているオブジェクトを形成する部分を形成するモチーフを形成するエッジを探す方が効率的である。特徴のこれらの階層を、音声およびテキストなどの多数のさまざまなデータ形式において見ることができる。
医療分野における深層学習技術の典型的な使用は、マンモグラフィである。マンモグラフィは、乳がんおよび他の異常の検診に使用される。伝統的に、マンモグラムは、X線フィルム上に形成されている。しかしながら、最近では、マンモグラムをデジタル形式で取得することによって取得画像の分析および保管を容易にするフラットパネルデジタルイメージャが導入されている。さらに、乳房の三次元画像の取得が大いに注目され、技術開発が行われている。三次元(3D)マンモグラフィは、デジタル乳房トモシンセシス(DBT)とも呼ばれる。二次元(2D)マンモグラフィは、フルフィールドデジタルマンモグラフィであり、合成2Dマンモグラフィは、DBTボリュームの個々の拡張スライス(例えば、1mm、2mm、など)を組み合わせることにより、3Dデータから導出された2D写真を生成する。乳房トモシンセシスシステムは、各々がX線ソースの異なる角度変位において取得された一連の二次元(2D)投影画像から、3D画像ボリュームを再構成する。再構成された3D画像ボリュームは、典型的には、画像データの複数のスライスとして提示され、スライスは、イメージング検出器に平行な平面上で幾何学的に再構成される。
学習された観察可能な特徴には、教師あり学習においてマシンによって学習されたオブジェクトおよび定量化可能な規則が含まれる。充分に分類されたデータの大きなセットが提供されたマシンは、新たなデータの成功裏の分類に関する特徴の識別および抽出へと良好に準備されている。
深層学習マシンは、データの特徴を人間の専門家によって確認された特定の分類に適切に結び付けることができる。反対に、同じマシンは、人間の専門家による誤った分類が与えられた場合に、分類のためのパラメータを更新することができる。例えば、設定および/または他の構成情報を、設定および/または他の構成情報の学習された使用によって導くことができ、システムがより多く使用される(例えば、繰り返し使用され、さらには/あるいは複数のユーザによって使用される)場合、所与の状況において、設定および/または他の構成情報に関するいくつかの変動および/または他の可能性を減らすことができる。
典型的な深層学習ニューラルネットワークは、例えば、専門家によって分類されたデータセットについてトレーニング可能である。このデータセットは、ニューラルネットワークの第1のパラメータを構築し、これは教師あり学習の段階であると考えられる。教師あり学習の段階において、ニューラルネットワークを、所望の挙動が達成されたか否かについてテストすることができる。
ひとたび所望のニューラルネットワーク挙動が達成される(例えば、マシンが特定のしきい値に従って動作するようにトレーニングされる)と、マシンを使用(例えば、「本物の」データによってマシンをテストするなど)のために展開することができる。動作時に、ニューラルネットワークの分類を、ニューラルネットワークの挙動を改善し続けるために(例えば、専門家ユーザ、エキスパートシステム、参照データベース、などによって)確認または拒否することができる。したがって、ニューラルネットワークの挙動を決定する分類のパラメータを、進行中の相互作用に基づいて更新することができる。特定の例において、ニューラルネットワークは、別のプロセスに直接的なフィードバックを提供することができる。特定の例において、ニューラルネットワークは、別のプロセスへの提供前に(例えば、クラウドなどを介して)バッファおよび検証されるデータを出力する。
畳み込みニューラルネットワーク(CNN)を用いた深層学習マシンを、データ解析に用いることができる。CNN解析の段階を使用して、画像投影データ内のピクセルの高さ(i,j)、CADを使用した画像データ内の病変の存在、などを評価および/または他のやり方で推定することができる。
深層学習マシンは、画像解析を改善するためのコンピュータ支援の検出サポート、および患者のコンピュータ支援の診断を提供することができる。教師あり深層学習は、例えば、誤分類への感受性の軽減に役立つことができる。深層学習マシンは、教師ありトレーニングにおいて利用することができる小さなデータセットに対処するために、医師との対話時に転移学習を利用することができる。これらの深層学習マシンは、それらのコンピュータ支援診断を時間とともに改善することができる。
典型的なシステムおよび関連の方法
図1は、対象のオブジェクトの1つ以上の画像を取得するための典型的な撮像システム100を示している。典型的なシステム100は、検出器145に面するX線ビームソース140を含む。X線ビームソースまたはエミッタ140と、検出器145とは、アーム144によって接続されている。対象のオブジェクト132を、検出器145とソース140との間に配置することができる。図1の例において、X線ソース140は、単一の検出器145の上方を、円弧を描くように移動する。検出器145と、円弧(破線を参照)を辿るX線ソース140’および140’’の複数の位置とが、破線/実線にて、一部分の斜視図に示されている。図1の例に示される構成において、検出器145は図示の位置に固定され、X線ソース140のみが移動する。角度aは、ゼロ方向と他の方向(141および142など)とによって囲まれる投影角度である。この構成を使用して、乳房(例えば、対象のオブジェクト132)の組織の複数のビューを、少なくとも1つのX線ソース140によって取得することができる。aが最も小さい投影またはゼロ方向に最も近い投影は、近似により、中央投影またはゼロ投影と呼ばれる。
さらに図1を参照すると、左側に、検出器145とX線ソース140とを含む撮像システム100の一部分の斜視図が示されている。X線ソースの種々の位置140、140’、および140’’が、X線ソース140の移動を示すために大まかに描かれている。直線として示されているゼロ投影105を含む9つの異なる投影ビュー101、102、102、103、104、106、107、108、109が存在し、いずれも検出器145の中心を向いている。
患者(図示せず)は、マンモグラフィアームの前方に位置する。例えば、中外斜位方向(MLO)ビューを得るために、マンモグラフィ技術者181は、所望の投影のための角度(30度〜60度であり、45度が図1の斜視図に示される好ましいゼロ投影を表す)を設定する。通常の検診マンモグラフィにおいては、乳房組織のより多くの部分を画像化できるため、斜めのMLOビューが横方向の90度の投影よりも好ましい。
ディスプレイユニット170に示される対象のオブジェクト132は、最適な画質のために放射線曝露の最中の乳房の均一な圧迫および固定を保証する役に立つ圧迫パドル133によって圧迫された乳房である。乳房132は、例えば、検出器145の平面に垂直なゼロ方向143において位置特定された石灰化としての点状のオブジェクト131を含む。ユーザは、例えば、診断のために石灰化または他の臨床関連構造をレビューすることができる。ディスプレイ170は、主として乳房132の中央部分をレビューすることができる2Dマンモグラフィビューを示している。
検出器145およびX線ソース140は、データ取得ライン155を介して処理ユニット150に接続された取得ユニットを形成する。処理ユニット150は、例えば、アーカイブライン165を介して接続されてよいメモリユニット160を含む。
医療専門家などのユーザは、ユーザインターフェース180を介して制御信号を入力することができる。そのような信号は、信号ライン185を介してユーザインターフェース180から処理ユニット150へと伝えられる。典型的なシステム100を使用して、2Dマンモグラムであるように見える強化された2D投影画像を取得することができる。この高品質の画像に基づいて、放射線科医および/または他のユーザは、乳房の検診に関連する臨床徴候を特定することができる。さらに、トモシンセシスによって取得された新たな2D投影画像と比較するために、履歴の保存済みの2Dマンモグラムを表示することができる。トモシンセシス画像をレビューおよびアーカイブすることができ、CADシステム、ユーザ、などが、3Dマークをもたらすことができる。画像データから得られた点状のオブジェクトまたは他のオブジェクトの高さマップを、CADシステムによって3Dマークに基づいてもたらされ、3Dレビューを通じてユーザによって示されるなどの高さ情報と、組み合わせることができる。さらに、ユーザは、2Dフルボリューム画像をアーカイブするように決定でき、さらに/あるいは他の画像がアーカイブされる。これに代え、あるいはこれに加えて、画像の保存および保管を自動的に行うことができる。
特定の例において、メモリユニット160は、処理ユニット150に統合されてよく、さらには/あるいは処理ユニット150から分離されていてもよい。メモリユニット160は、2Dの強化された投影画像および/またはトモシンセシス3D画像などのデータの格納を可能にする。一般に、メモリユニット160は、例えばハードディスクまたはCD−ROM、ディスケット、ROM/RAMメモリ、DVD、ネットワークまたはインターネットなどのデジタルソース、などのコンピュータ可読媒体を含むことができる。処理ユニット150は、メモリユニット160に格納されたプログラム命令を実行するように構成され、これらのプログラム命令は、コンピュータに本明細書に開示および記載の方法を実行させ、さらには/あるいは本明細書に開示および記載のシステムを実現させる。本方法の実行および/または本システムの実現の1つの技術的効果は、通常は高品質の画像を得るために追加のX線曝露を使用して取得される既知の2Dマンモグラムを強化された2D投影画像で置き換えることができるため、X線ソースの使用を少なくできることである。
図2が、器官Oに対するソース/エミッタ140の典型的な動きを示している。エミッタ140が器官の周りを回転するとき、エミッタ140は、器官を通って検出器145へとX線を導くためのビーム成形(図示せず)をさらに含むことができる。図2の例に示されるように、オブジェクトOは、オブジェクトを圧迫するために下部支持体202と圧迫支持体204との間に配置され、検出器145は、下部支持体202に一体化されている。他の例においては、オブジェクト/器官を、支持体202および/または204を用いずに検出器145に対して配置することができる。エミッタ140は、例えば、器官Oの周りで、器官Oに対する複数の向きへと回転可能であってよい。一例においては、エミッタ140を、器官Oに対して全体として30度の円弧にて回転させることができ、あるいは器官Oに対して各方向(時計回りおよび反時計回り)に30度回転させることができる。これらの回転の円弧が、あくまでも例にすぎず、使用可能な角度の範囲を限定しようとするものではないことを、理解できるであろう。
エミッタ140を、器官Oおよび検出器145の一方または両方に直交する位置に位置させることができることを、理解できるであろう。この直交位置または中心位置において、とくには単一のエミッタ140および検出器145がFFDM画像およびデジタル乳房トモシンセシス(DBT)投影画像の両方を取得するために使用される典型的な構成において、フルフィールドデジタルマンモグラフィ(FFDM)を取得することができる。DBT投影画像は、器官Oの周りのエミッタ140のさまざまな角度で取得される。さまざまな撮像ワークフローを、典型的なシステム100を使用して実施することができる。一例においては、FFDM画像が、器官に直交する位置で取得され、DBT投影画像が、器官Oに直交するエミッタ140の位置で取得されるDBT投影画像を含めて、器官Oに対するさまざまな角度で取得される。再構成の際に、DBT投影画像およびFFDM画像が使用され、例えば器官の3Dボリュームが再構成される。
一例において、DBT投影画像は、器官に対するエミッタ140のさまざまな角度で取得される。しかしながら、DBT投影画像は、器官に直交するエミッタ140の位置では取得されない。代わりに、FFDM画像が取得される。器官の3Dボリュームは、DBT投影画像およびFFDM画像の両方を使用して再構成される。
別の例において、DBT投影画像は、器官に直交する位置を含む器官に対するエミッタ140のさまざまな角度で取得される。FFDM画像が、器官に直交して取得される。器官の3Dボリュームの再構成において、FFDM画像は、器官Oに直交するエミッタ140で取得されたDBT投影画像を置き換える。
別の例においては、DBT投影画像が、器官の周りで、器官に対するエミッタ140のさまざまな角度で取得される。すでに述べたように、各々の個別のDBT投影画像のエネルギ投入のレベルは、典型的には、FFDMが取得されるX線エネルギレベルよりも低い。この例では、器官に直交する位置に対する角度が最大であるDBT投影画像において、X線エネルギ投入が最低であり、その後の各々のDBT投影画像の取得に使用されるX線エネルギ投入が、器官に対するエミッタ140の角度が直交に近づくにつれて増加し、器官に直交して取得されるDBT投影画像が、FFDM画像の取得のX線エネルギに近づき、あるいはFFDM画像の取得のX線エネルギに等しくなるように、DBT投影画像の取得の全体にわたって動的なエネルギ投入が使用される。
デジタルマンモグラフィ画像とも呼ばれるFFDM画像は、オブジェクト内の小さな視野(FOV)ではなく、オブジェクト(例えば、乳房など)の全視野の撮像を可能にする。デジタル検出器145は、移動およびオブジェクト全体の一部分を表す複数の画像の組み合わせを必要とするのではなく、ターゲットオブジェクトOの全視野の撮像を可能にする。
特定の例においては、合成2D画像をトモシンセシス取得データから生成でき、得られる合成2D画像は、オブジェクトについて取得されたFFDM画像と診断品質において少なくとも同様に良好である。合成2D画像においてこの診断品質の分解能を達成するために、例えばトモシンセシスデータに機械学習を適用することができる。しかしながら、深層学習アルゴリズムは、ネットワークモデルの内部パラメータを最適化するために大量の真データを必要とし、キュレーションされた真データの収集は、痛みを伴い、費用がかかる。したがって、特定の例においては、DBTおよび2Dマンモグラフィ画像を含む組み合わせ事例を利用して、学習アルゴリズム(例えば、深層学習アルゴリズム、他の機械学習アルゴリズム、など)をトレーニングすることができる。したがって、例えば複数のサイトからのおそらくは何千もの事例の組み合わせ画像データを利用して、ネットワークモデルをトレーニングすることができる。FFDMの取得は、FFDM画像を忠実に反映し、さらには/あるいはFFDM画像にきわめて類似(例えば、特定のアーチファクト/ノイズ限界ならびに/あるいは他のエラー許容範囲の範囲内など)した合成2D画像を学習ネットワークが生成したことを確認するための「真画像」として役立つことができる。特定の例においては、ネットワークモデルによって出力された合成2D画像をボリューム情報(例えば、有棘塊状物など)で強化して、FFDM画像よりも優れた強化画像を生成することができる。
したがって、特定の例においては、器官の複数の2Dトモシンセシス投影画像を、X線エミッタ140を器官に対する複数の向きへと回転させ、複数の投影画像のうちの各々の投影画像についてエミッタ140から第1のレベルのX線エネルギ投入を放射することによって取得することで、対象の器官および/または他のオブジェクトを撮像することができる。次いで、器官の3Dボリュームが、複数のトモシンセシス投影画像から再構成される。器官のX線画像は、第2のレベルのX線エネルギ投入で取得される。学習ネットワークモデルが、例えば合成2D画像と得られたX線画像(例えば、FFDM画像および/または強化FFDM画像など)との間の類似度指標を減少させ、あるいは最小化する傾向の3Dボリュームおよび/または2D投影からの相関を作成することによって、ネットワークモデルにおいてインスタンス化される合成2D画像生成アルゴリズムを生み出すために使用される。
特定の例においては、3Dボリュームの各々の平面が2D X線画像の画像ジオメトリに一致させられる。深層学習および/または他の機械学習ネットワークによる学習は、円錐再構成を使用して3Dボリュームを再構成することによって促進される(例えば、平面内のオブジェクトは、あたかもソースが検出器の平面から無限の距離に位置しているかのように実際のサイズと比較して拡大される)。円錐再構成を使用し、選択プロセスが並列に生じ、幾何学的変換は必要でない。3Dボリュームは、例えば、コンボ−FFDM取得のソース位置(例えば、DBT中央投影とは違ってよい)に従って再構成される。
特定の例においては、3Dボリュームの領域を抽出することができ、3Dボリュームから抽出された領域で合成2D画像を強化して、抽出された領域の位置での3Dボリュームへの合成2D画像のマッピングを強化することができる。ネットワークによって提供される合成2D画像を、FFDMを凌ぐように、有棘塊状物などの3Dボリュームにおいてのみ見ることができる情報で強化することができる。
特定の例においては、器官の複数の2Dトモシンセシス投影画像を、X線エミッタ140を器官に対する複数の向きへと回転させ、複数の投影画像のうちの各々の投影画像についてエミッタ140から第1のレベルのX線エネルギ投入を放射することによって取得することで、患者の器官を撮像することができる。次いで、器官のX線画像を、第2のレベルのX線エネルギ投入で取得することができる。ボリューム再構成アルゴリズムは、ボリューム再投影とX線画像との間の類似度指標を最小化し、あるいは低減する傾向のトモシンセシス投影からのモデルによって学習させられる。
特定の例においては、器官の複数の2Dトモシンセシス投影画像を、X線エミッタ140を器官に対する複数の向きへと回転させ、複数の投影画像のうちの各々の投影画像についてエミッタ140から第1のレベルのX線エネルギ投入を放射することによって取得することで、器官および/または他のターゲットを撮像することができる。器官のX線画像は、第2のレベルのX線エネルギ投入で取得される。画像強化アルゴリズムが、学習ネットワークによって、例えばアルゴリズムの出力とX線画像との間の類似度指標を減少させ、あるいは最小化する傾向の中央トモシンセシス投影から学習させられる。テスト段階においては、トモシンセシス投影のみが取得される(コンボは取得されない)。画像強化アルゴリズムは、一式のトモシンセシス投影へと適用される。強化されたボリュームが、強化された投影から再構成される。合成2D画像が、例えば強化された投影/ボリュームから計算される。
特定の例においては、器官の複数の2Dトモシンセシス投影画像を、X線エミッタ140を器官に対する複数の向きへと回転させ、複数の投影画像のうちの各々の投影画像についてエミッタ140から第1のレベルのX線エネルギ投入を放射することによって取得することで、器官を撮像することができる。特定の例においては、投影画像を、あたかも画像がより低い線量で取得されたかのように劣化させることができる。画像強化アルゴリズムが、ネットワークによって、アルゴリズムの出力と元の投影との間の類似度指標を最小化し、あるいは減少させる傾向の劣化トモシンセシス投影から学習させられる。テスト段階において、低線量トモシンセシス取得が実行される。画像強化アルゴリズムは、一式のトモシンセシス投影へと適用される。改善されたボリュームが、強化された投影から再構成される。合成2D画像が、例えば強化された投影/ボリュームから計算される。
特定の例においては、器官の複数の2Dトモシンセシス投影画像を、X線エミッタ140を器官に対する複数の向きへと回転させ、複数の投影画像のうちの各々の投影画像についてエミッタ140から第1のレベルのX線エネルギ投入を放射することによって取得することで、器官が撮像される。器官の元の3Dボリュームが、複数のトモシンセシス投影画像から再構成される。投影画像を、あたかもより低い線量で取得されたかのように劣化させることができる。ボリューム再構成アルゴリズムが、例えば再構成の出力と元のボリュームとの間の類似度指標を最小化し、あるいは減少させる傾向の劣化した投影から、ニューラルネットワークによって学習させられる/ニューラルネットワークにインスタンス化される。
特定の例においては、より高線量の画像が、複数の画像取得を含む複数の取得のFFDM画像を利用することによって得られる。特定の例において、機械学習アルゴリズムは、合成2D画像の出力と組み合わせFFDM画像との間の類似度指標を最小化し、あるいは減少させるように、(例えば、ニューラルネットワークモデルなどの)内部パラメータを最適化し、さらには/あるいは改善する。
以前の合成2D画像は、FFDM画像よりも画質が低いと認識されていた。したがって、女性についてDBTおよびFFDMの両方の取得が行われ、患者への放射線量が2倍になっていた。FFDM画像と少なくとも同等に良好な画質の合成2D画像を生成することにより、特定の例は、合成2D画像生成に技術的改善をもたらし、患者の放射線への曝露を減らし、撮像および分析の時間を減らし、画像の取得、処理、およびレビューのための完全な3Dプロトコルの採用を促進する。
これまでの合成2D画像生成においては、中央投影が、他の投影からの情報を使用して強化されるベースラインと見なされる。しかしながら、この手法は、多くの欠点を有する。例えば、中心投影は低線量のDBT投影画像であるため、ベースラインにノイズが多くなる。ノイズは、最終的な合成2D画像における望ましくないノイズにつながる。さらに、開発中の新世代のDBTシステムにおいては、リップルアーチファクトを回避するために投影の数が増加しそうである。全体としての線量は変わらないままであるが、投影ごとの線量は増加すると考えられる。したがって、ベースラインとして中央投影に依存することは、困難になりそうである。
FFDMのような画像が、有用かつ信頼できるベースラインとして機能することができる。しかしながら、DBT取得からFFDM取得のように見える画像を生成するアルゴリズムを設計することは、困難な作業である。特定の例は、このような画像を生成するために機械学習を利用する。したがって、機械学習アルゴリズムは、1つ以上の投影画像を処理して、画像を合成FFDM画像としてレンダリングすることができる(例えば、投影画像のノイズ除去など)。
図3が、画像取得ユニット310と、データストア320と、モデルトレーナ330と、モデラ340と、出力プロセッサ350と、フィードバックユニット360とを含む典型的な画像処理システム300を示している。特定の例において、画像取得ユニット310は、撮像システム100を含み、さらには/あるいは撮像システム100と通信して、画像データ(例えば、FFDM画像、DBT画像データ、他の画像データ、など)を受け取り、かつ/または取得する。画像データは、データストア320(例えば、データベース、データ構造、ハードドライブ、ソリッドステートメモリ、フラッシュメモリ、他のコンピュータメモリ、など)に格納される。
トレーナ330およびモデラ340は、データストア320から画像および/または他のデータを受け取る。トレーナ330は、モデラ340にモデルとして展開される深層学習ネットワークおよび/または他の機械学習ネットワーク(例えば、畳み込みニューラルネットワーク、再帰ニューラルネットワーク、ランダムフォレスト、など)をトレーニングおよびテストする。トレーニングされたネットワークモデルは、データストア320からの画像データを処理し、オブジェクトについてそのオブジェクトの実際のキャプチャ画像(例えば、FFDM画像など)にきわめてよく似た合成画像を生成するために、モデラ340によって使用される。生成されたネットワークをトレーニングおよびテストするための画像入力は、トモシンセシス画像データ、再構成されたボリューム画像データ、2Dマンモグラムデータ、投影画像データ、FFDM画像データ、などを含む。
モデラ340は、展開された人工知能モデル(例えば、ニューラルネットワーク、ランダムフォレスト、など)を使用して、到来する画像データを処理し、実際に取得されたデジタル画像(例えば、FFDM画像など)に類似するように充分な診断品質の合成画像を形成する。モデラ340によって生成された合成画像は、表示、保存、(例えば、病変、腫瘍、などを検出するためのコンピュータ支援診断用の)別のシステムによる処理、別の装置(例えば、タブレットまたはスマートフォンなど)との通信、などのための画像出力を生成するために、出力プロセッサ350へともたらされる。
画像出力からのフィードバックを、フィードバックユニット360によってキャプチャし、トレーナ330に提供することができ、トレーナ330は、フィードバックを利用して、人工知能モデルを改善することができる。フィードバックを、モデルのトレーニングおよび/またはテストに使用することができ、モデラ340へと展開されるモデルのトレーナ330による再生成を定期的にトリガするために使用することができる。
図4が、トレーナ330およびモデラ340の典型的な実施態様を示している。図4の例に示されるように、トレーナ330は、入力プロセッサ410と、トレーニングネットワーク420と、出力検証器430と、フィードバックプロセッサ440とを含む。典型的なモデラ340は、プリプロセッサ450と、展開されたモデル460と、ポストプロセッサ470とを含む。図4の例において、FFDM画像、DBT画像データ、他の画像データ、などの入力が、入力プロセッサ410へともたらされ、入力プロセッサ410は、トレーニングネットワーク420に入力されるデータを準備する。例えば、データを、ネットワーク420に入力される画像データ(例えば、画像データピクセルおよび/またはボクセル値など)を準備するために、フィルタ処理し、補足し、さらには/あるいは他のやり方で変更することができる。
典型的なトレーニングネットワーク420は、入力プロセッサ410からの入力データを処理して、出力を生成し、出力は、出力検証器430によって検証される。したがって、トレーニングネットワーク420は、入力画像データを受け取り、FFDM画像などのフルデジタル画像の診断品質に匹敵し、あるいはそれを超える充分な診断品質を有する合成画像を生成する学習アルゴリズムを動的に形成するように、接続を発達させ、画像データを処理する。出力検証器430は、例えば、トレーニングネットワーク420から出力された合成画像データを、データストア320から提供される真のFFDM画像データと比較して、ネットワーク420の精度を検証することができる。ネットワーク420の出力が正確でない(例えば、充分な診断品質でない)場合、例えば、ネットワーク420を更新し、入力データを再び処理して、別の一式の出力合成画像データを評価のために生成するように、ネットワーク420を(例えば、ネットワークの重みを調整する、ノードの接続を変更する、などによって)修正することができる。ひとたびトレーニングネットワーク420の出力画像品質が出力検証器430によって検証されると、トレーニングネットワーク420を使用して、モデラ340用のネットワークモデル460を生成して展開することができる。
定期的に、フィードバックをフィードバックプロセッサ440へともたらすことができ、フィードバックプロセッサ440は、フィードバックを処理し、ネットワーク420の更新または再生成をトリガするかどうかを評価する。例えば、展開されたネットワークモデル460の合成画像出力が正確であり続ける場合、更新を行うべき理由はないかもしれない。しかしながら、例えば、ネットワークモデル460の合成画像出力が不正確になると、ネットワーク429の再生成または他の更新をトリガし、(例えば、追加のデータ、新たな制約、更新された構成、などに基づいて)更新されたネットワークモデル460を展開することができる。
展開されたネットワークモデル460は、入力画像データを処理し、画像データを合成画像(例えば、合成2D画像など)へと変換するために、モデラ340によって使用される。例えばデータストア320などからの入力データが、プリプロセッサ450によって準備され、ネットワークモデル460(例えば、深層学習ネットワークモデル、機械学習モデル、他のネットワークモデル、など)へと供給される。例えば、入力画像データを、画像データがネットワークモデル460へともたらされる前に、コントラスト、輝度、レベル、アーチファクト/ノイズなどを調整するために、プリプロセッサ450によって調整することができる。モデル460は、プリプロセッサ450からの画像データを処理し、合成画像データを構築する。モデル460から出力された合成画像データは、モデル460から出力されたデータをクリーンアップし、オーガナイズし、さらには/あるいは他のやり方で修正して合成2D画像を形成することができるポストプロセッサ470によって後処理される。特定の例において、ポストプロセッサ470は、合成画像の保存、表示、別のシステムへの伝達、などの前に、出力された画像データについて検証を行い、さらには/あるいは他のやり方で品質チェックを実行することができる。
図5が、典型的な深層学習ニューラルネットワーク500を示している。典型的なニューラルネットワーク500は、層520、540、560、および580を含む。層520および540は、ニューラル接続530で接続されている。層540および560は、ニューラル接続550で接続されている。層560および580は、ニューラル接続570で接続されている。データは、入力512、514、516を介して入力層520から出力層580および出力590へと順方向に流れる。
層520は、図5の例では、複数のノード522、524、526を含む入力層である。層540および560は、隠れ層であり、図5の例ではノード542、544、546、548、562、564、566、568を含む。ニューラルネットワーク500は、図示されているよりも多数または少数の隠れ層540および560を含んでもよい。層580は、出力層であり、図5の例では、出力590を有するノード582を含む。各々の入力512〜516は、入力層520のノード522〜526に対応し、入力層520の各々のノード522〜526は、隠れ層540の各々のノード542〜548への接続530を有する。隠れ層540の各々のノード542〜548は、隠れ層560の各々のノード562〜568への接続550を有する。隠れ層560の各々のノード562〜568は、出力層580への接続570を有する。出力層580は、典型的なニューラルネットワーク500からの出力をもたらす出力590を有する。
接続530、550、および570のうち、特定の典型的な接続532、552、572に追加の重みを与えることができる一方で、他の典型的な接続534、554、574には、ニューラルネットワーク500におけるより軽い重みを与えることができる。入力ノード522〜526が、例えば、入力512〜516を介して入力データを受信することによって活性化される。隠れ層540および560のノード542〜548および562〜568が、接続530および550をそれぞれ介するネットワーク500におけるデータの順方向の流れによって活性化される。出力層580のノード582は、隠れ層540および560において処理されたデータが接続570を介して送られた後に活性化される。出力層580の出力ノード582が活性化されると、ノード582は、ニューラルネットワーク500の隠れ層540および560で達成された処理に基づいて適切な値を出力する。
図6が、畳み込みニューラルネットワーク600としての典型的なニューラルネットワーク500の特定の実施態様を示している。図6の例に示されるように、入力510が、入力510を処理して第2の層540へと伝搬させる第1の層520へと提供される。入力510は、第2の層540でさらに処理され、第3の層560へと伝搬する。第3の層560は、出力層580へともたらされるデータを分類する。より具体的には、図6の例に示されるように、畳み込み604(例えば、5x5の畳み込みなど)が第1の層520において入力510(例えば、32x32のデータ入力など)の一部またはウィンドウ(「受容野」とも呼ばれる)602に適用され、特徴マップ606(例えば、(6x)28x28の特徴マップなど)がもたらされる。畳み込み604は、入力610からの要素を特徴マップ606にマッピングする。さらに、第1の層520は、縮小された特徴マップ610(例えば、(6x)14x14の特徴マップなど)を生成するためにサブサンプリング(例えば、2x2のサブサンプリングなど)をもたらす。特徴マップ610は、畳み込み612を経て、第1の層520から第2の層540へと伝搬し、そこで特徴マップ610は、拡張された特徴マップ614(例えば、(16x)10x10の特徴マップなど)となる。第2の層540におけるサブサンプリング616の後に、特徴マップ614は、縮小された特徴マップ618(例えば、(16x)5x5の特徴マップなど)となる。特徴マップ618は、畳み込み620を経て、第3の層560へと伝搬し、ここで特徴マップ618は、例えば畳み込みされた層622への接続626を有するN個の分類の出力層624を形成する分類層622となる。
図7が、画像解析畳み込みニューラルネットワーク700の典型的な実施態様を示している。畳み込みニューラルネットワーク700は、入力画像データ702を受け取り、畳み込み層704において画像データを抽象化して、学習された特徴710〜722を識別する。第2の畳み込み層730において、画像データは、複数の画像730〜738へと変換され、画像730〜738において、学習された特徴710〜722の各々は、それぞれのサブ画像730〜738において強調される。画像730〜738は、画像740〜748において関心の特徴710〜722に注目するようにさらに処理される。結果として得られる画像740〜748は、次に、画像740〜748のうちの関心の特徴710〜722を含む部分750〜754を分離するために画像740〜748のサイズを縮小するプーリング層を通って処理される。畳み込みニューラルネットワーク700の出力750〜754は、最後の非出力層から値を受け取り、最後の非出力層から受け取ったデータに基づいて画像を分類する。特定の例において、畳み込みニューラルネットワーク700は、畳み込み層、プーリング層、学習された特徴、および出力、などについて、多くの異なる変形を含むことができる。
図8が、画像を処理および/または他のやり方で評価するための深層学習ネットワークを適用するための典型的な構成800を示している。深層学習を、画像の取得、画像の再構成、画像の解析/診断、などのさまざまなプロセスに適用することができる。図8の典型的な構成800に示されるように、生データ810(例えば、X線スキャナ、コンピュータトモグラフィスキャナ、超音波スキャナ、磁気共鳴スキャナ、などの撮像スキャナから得られたソノグラム生データなどの生データ810)が、深層学習ネットワーク820へと供給される。深層学習ネットワーク820は、データ810を処理して、生画像データ810を結果画像830(例えば、「良質」画像および/または診断に充分な品質をもたらす他の画像など)へと相関付け、さらには/あるいは結合させる。深層学習ネットワーク820は、生データ810を最終的な画像830に関連付けるためのノードおよび接続(例えば、経路)を含む。深層学習ネットワーク820は、例えば、接続を学習し、フィードバックを処理して、接続を確立させ、パターンを識別するトレーニング深層学習ネットワーク(例えば、トレーニングネットワーク420)であってよい。深層学習ネットワーク820は、例えば、トレーニングネットワークから生成され、トレーニングネットワークに確立された接続およびパターンを利用して、入力生データ810を取り入れ、結果としての画像830を生成する展開された深層学習ネットワーク(例えば、展開されたネットワークモデル460)であってよい。
ひとたびDLN820がトレーニングされ、生画像データ810から良好な画像830を生成すると、ネットワーク820は、「自己学習」プロセスを継続し、動作するにつれてその性能を改良することができる。例えば、入力データ(生データ)810における「冗長性」およびネットワーク820における冗長性が存在し、冗長性を利用することができる。
DLN820内のノードに割り当てられた重みが検査される場合、重みがきわめて低い多数の接続およびノードが存在する可能性が高い。低い重みは、これらの接続およびノードがDLN820の全体性能にほとんど寄与しないことを示している。したがって、これらの接続およびノードは、冗長である。このような冗長性を評価して、入力(生データ)810の冗長性を低減することができる。入力810の冗長性の低減は、例えば、スキャナハードウェアの節約および構成要素への要求の低減をもたらすことができ、患者への曝露線量の低減ももたらすことができる。
展開において、構成800は、入力定義810と、トレーニングされたネットワーク820と、出力定義830とを含むパッケージ800を形成する。パッケージ800を、撮像システム、解析エンジン、などの別のシステムに対して展開およびインストールすることができる。
図9が、DBT取得910を使用してボリューム画像データ920を提供するトレーニングネットワーク420の典型的なトレーニング900を示している。ボリューム画像データ920は、出力950を生成するために、1つ以上の最大プーリング層930と1つ以上の完全に接続された層940とを含むトレーニングネットワーク420へと入力として提供される。出力950は、真のFFDMコンボ取得970から得られたFFDM画像960と比較される。ネットワークパラメータが、FFDM画像960とネットワーク420の出力950との間のエラーを低減または最小化するように学習される。例えば、出力画像950とFFDM真画像960との間のエラーを、
エラー=ΣTraining_SetΣx,y[Output(x,y)−FFDM(x,y)](式1)
などのエラー測定値または類似度指標として定量化することができる。
図10に示されるように、出力画像950が真のFFDM画像960と比較され、類似度指標がほぼゼロおよび/または特定のしきい値未満(例えば、0.5未満、0.05未満、1%未満、など)であると、ネットワーク420はトレーニング済みと見なされ、ネットワーク420をテストすることができる。エラーしきい値が満たされるまで、ネットワーク420のトレーニングを続け、ネットワークパラメータを修正して、ネットワーク420にインスタンス化される画像処理アルゴリズムを動的に形成することができる。トレーニングされたネットワークは、追加のDBT取得1010を使用してテストされ、追加のDBT取得1010は、画像の新たなボリューム1020を抽出し、トレーニングされたネットワーク420へと供給するために使用され、合成2D画像1030がネットワーク420の層(例えば、最大プーリング層930および完全に接続された層940などを含む)の出力1030として生成される。合成画像1030を評価して、トレーニングされたネットワーク420の精度の保証に役立てることができる。テスト画像評価がエラーしきい値/類似度指標(例えば、式1によって設定される図9と同じエラーしきい値/類似度指標、またはテスト用のより厳しいしきい値、など)を満たす場合、トレーニングされたネットワーク420を使用して、展開されたネットワークモデル460として展開されるモデルを生成することができる。
図3の典型的なシステム300の典型的な実施態様が図4〜図10に示されているが、図3〜図10に示されている要素、プロセス、および/または装置のうちの1つ以上を組み合わせ、分割し、配置変更し、省略し、削除し、さらには/あるいは任意の他のやり方で実現することが可能である。例えば、図3〜図10の要素は個別に示されているが、特定の例においては、図3〜図10を組み合わせて、2Dおよび/または3D画像生成のためのボクセル、ピクセル、などの複数のグラフィック要素を受け入れる単一のシステムとして実現させることができる。特定の例においては、典型的な画像取得ユニット310、データストア320、トレーナ330、モデラ340、出力プロセッサ350、フィードバックユニット360、および/またはより一般的には、図3〜図10の典型的なシステム300を、ハードウェア、ソフトウェア、ファームウェア、ならびに/あるいはハードウェア、ソフトウェア、および/またはファームウェアの任意の組み合わせによって実現することができる。したがって、例えば、典型的な画像取得ユニット310、データストア320、トレーナ330、モデラ340、出力プロセッサ350、フィードバックユニット360、および/またはより一般的には、図3〜図10の典型的なシステム300のいずれかを、1つ以上のアナログまたはデジタル回路、論理回路、プログラマブルプロセッサ、特定用途向け集積回路(ASIC)、プログラマブルロジックデバイス(PLD)、および/またはフィールドプログラマブルロジックデバイス(FPLD)によって実現することができる。純粋にソフトウェアおよび/またはファームウェアの実施態様を包含するように本特許の装置またはシステムの請求項のいずれかを理解するとき、典型的な画像取得ユニット310、データストア320、トレーナ330、モデラ340、出力プロセッサ350、フィードバックユニット360、および/またはより一般的には、図3〜図10の典型的なシステム300のうちの少なくとも1つは、ソフトウェアおよび/またはファームウェアを格納するメモリ、デジタル多用途ディスク(DVD)、コンパクトディスク(CD)、ブルーレイディスク、などの有形のコンピュータ可読記憶装置または記憶ディスクを含むように本明細書によって明確に定義される。またさらに、図3〜図10の典型的なシステム300は、図3〜図10に示されている要素、プロセス、および/または装置に加え、あるいは図3〜図10に示されている要素、プロセス、および/または装置に代えて、1つ以上の要素、プロセス、および/またはデバイスを含むことができ、さらには/あるいは図示されている要素、プロセス、および装置のいずれかまたはすべてを2つ以上含んでもよい。
図3〜図10の典型的なシステム300を実現するための典型的な機械可読命令を表すフローチャートが、図11〜図15に示される。これらの例において、機械可読命令は、図11〜図15に関連して以下で説明される典型的なプロセッサプラットフォーム1600に示されるプロセッサ1612などのプロセッサによる実行のためのプログラムを含む。このプログラムを、CD−ROM、フロッピーディスク、ハードドライブ、デジタル多用途ディスク(DVD)、ブルーレイディスク、またはプロセッサ1612に関連付けられたメモリなどの有形のコンピュータ可読記憶媒体上に記憶されたソフトウェアに具現化させることができるが、代案として、プログラム全体および/またはその一部が、プロセッサ1612以外の装置によって実行されてよく、さらには/あるいはファームウェアまたは専用ハードウェアに具現化されてもよい。さらに、典型的なプログラムは、図11〜図15に示されるフローチャートを参照して説明されるが、典型的なシステム300を実現する多数の他の方法を代わりに使用してもよい。例えば、ブロックの実行順序を変更してもよく、さらには/あるいは記載されたブロックのいくつかを変更したり、削除したり、組み合わせたりしてもよい。
上述したように、図11〜図15の典型的なプロセスは、ハードディスクドライブ、フラッシュメモリ、読み取り専用メモリ(ROM)、コンパクトディスク(CD)、デジタル多用途ディスク(DVD)、キャッシュ、ランダムアクセスメモリ(RAM)、および/または他の任意の記憶装置もしくは情報が任意の期間(例えば、長期間、恒久的、短時間、一時的にバッファリングする間、および/または情報をキャッシュする間)で記憶されているストレージディスクなどの有形のコンピュータ可読ストレージ媒体に記憶されるコード化された命令(例えば、コンピュータおよび/または機械可読命令)を使用して実施することができる。本明細書において使用されるとき、有形のコンピュータ可読記憶媒体という用語は、任意の種類のコンピュータ可読記憶装置および/または記憶ディスクを含み、伝搬する信号を除外し、伝送媒体を除外するように明示的に定義される。本明細書において使用されるとき、「有形のコンピュータ可読記憶媒体」および「有形の機械可読記憶媒体」は、互換的に使用される。これに加え、あるいはこれに代えて、図11〜図15の典型的なプロセスは、情報を任意の期間にわたって記憶する(例えば、長期間にわたって記憶し、恒久的に記憶し、短時間だけ記憶し、一時的にバッファし、さらには/あるいは情報をキャッシュする)ハードディスクドライブ、フラッシュメモリ、読み出し専用メモリ、コンパクトディスク、デジタル多用途ディスク、キャッシュ、ランダムアクセスメモリ、ならびに/あるいは任意の他の記憶装置または記憶ディスクなどの非一時的なコンピュータおよび/または機械可読媒体に記憶された符号化命令(例えば、コンピュータおよび/または機械可読命令)を使用して実現され得る。本明細書において使用されるとき、非一時的なコンピュータ可読媒体という用語は、任意の種類のコンピュータ可読記憶装置および/または記憶ディスクを含み、伝搬する信号を除外し、伝送媒体を除外するように明示的に定義される。本明細書において使用されるとき、「少なくとも」という表現は、請求項の前文における遷移の用語として使用される場合、「備える(comprising)」という用語がオープンエンドであるのと同様の様相でオープンエンドである。
図11は、患者の器官などのオブジェクトを撮像するための典型的な方法1100を表すフローチャートである。ブロック1110において、複数の投影画像が、第1のエネルギ投入レベルで器官および/または他のオブジェクトについて取得される。例えば、複数の2Dトモシンセシス投影画像が、X線エミッタ140を器官に対する複数の向きへと回転させ、複数の投影画像のうちの各々の投影画像についてエミッタ140から第1のレベルのX線エネルギ投入を放射することによって取得される。
ブロック1120において、オブジェクトのボリュームが投影画像から再構成される。例えば、器官の3Dボリュームを、複数の2Dトモシンセシス投影画像から再構成することができる。
ブロック1130において、オブジェクトのX線画像が、第2のレベルのX線エネルギ投入で取得される。例えば、器官のFFDM画像などのX線画像を、投影画像の取得に用いたレベルよりも高いレベルのX線エネルギ投入を使用して取得することができる。
特定の例において、X線画像は、トモシンセシス投影画像のジオメトリ(例えば、取得ジオメトリ)内にフィットするように位置合わせされる。特定の例において、X線画像および複数のトモシンセシス投影画像は、器官の同じ圧迫の最中に(例えば、患者の乳房の同じ圧迫の最中に)取得される。特定の例において、複数の2Dトモシンセシス投影画像およびX線画像は、投影画像および/またはX線画像に導入され得るノイズを調整し、さらには/あるいは他のやり方で補正するために、複数の2D投影画像および/またはX線画像にダイナミックレンジ補正係数を適用することにより、X線エミッタ140から放射されたX線を受け取る検出器145で取得される。特定の例において、再構成された3Dボリュームの各々の平面は、X線画像のジオメトリに一致する。
ブロック1140において、合成画像生成アルゴリズムが、ボリューム/投影画像とX線画像との間の類似度指標に基づいて、ボリュームおよび/または投影画像から生成される。例えば、合成2D画像生成アルゴリズムは、得られる合成2D画像とX線画像との間の類似度指標を最小化し、あるいは他のかたちで減少させる傾向のボリュームおよび/または投影から生成される。
例えば、3Dボリュームの各々の平面がX線画像のジオメトリと一致するように、ボリュームおよびX線画像を解析および比較することができる。特定の例において、ボリュームは、平面内のオブジェクトが実際のサイズと比較して拡大される円錐再構成を使用して再構成される。したがって、基礎となる選択プロセスは並列であり、幾何学的変換を必要としない。ボリュームを、例えば、(DBT中央投影とは違ってよい)コンボ−FFDM取得のソース位置に従って再構成することができる。
特定の例においては、合成2D画像の各ピクセルが、3Dボリューム内の少なくとも1つのボクセルへとマッピングされ、合成2D画像は、グラフィックディスプレイ上に提供されるグラフィカルユーザインターフェース(GUI)を介して表示される。X線画像内の対象のオブジェクトのユーザ選択を受信し、3Dボリュームを通る少なくとも1つの平面を識別するために使用することができる。1つ以上の識別された平面を、グラフィカルディスプレイ上に表示することができる。特定の例においては、3Dボリュームから抽出された領域で合成2D画像を強化することができる。例えば、合成2D画像の3Dボリュームへのマッピングを、抽出された領域の位置で強化することができる。
ブロック1150において、生成されたアルゴリズムは、合成画像生成のモデルに展開される。例えば、合成画像生成アルゴリズムは、合成画像を生成するためにモデル460に展開される。
特定の例において、生成アルゴリズムは、3Dボリュームの領域の抽出、3Dボリュームから抽出された領域による合成2D画像の強化、および抽出された領域の位置による3Dボリュームへの合成2D画像のマッピングの強化を含む。特定の例においては、ネットワーク460によってもたらされる合成2D画像を、FFDMを凌ぐように、有棘塊状物などのボリュームにおいて見ることができる情報で強化することができる。
図12は、患者の器官などのオブジェクトを撮像するための典型的な方法1200を表すフローチャートである。ブロック1210において、複数の投影画像が、第1のエネルギ投入レベルで器官および/または他のオブジェクトについて取得される。例えば、複数の2Dトモシンセシス投影画像が、X線エミッタ140を器官に対する複数の向きへと回転させ、複数の投影画像のうちの各々の投影画像についてエミッタ140から第1のレベルのX線エネルギ投入を放射することによって取得される。
ブロック1220において、オブジェクトのX線画像が、第2のレベルのX線エネルギ投入で取得される。例えば、器官のFFDM画像などのX線画像を、投影画像の取得に用いたレベルよりも高いレベルのX線エネルギ投入を使用して取得することができる。
ブロック1230において、ボリューム再構成アルゴリズムが、得られるボリューム再投影とX線画像との間の類似度指標に基づいて、投影画像から生成される。例えば、ボリューム再構成アルゴリズムは、得られるボリューム再投影とX線画像との間の類似度指標を最小化し、あるいは他のかたちで減少させる傾向の投影から生成される。
例えば、3Dボリュームの各々の平面がX線画像のジオメトリと一致するように、ボリュームおよびX線画像を解析および比較することができる。特定の例において、ボリュームは、平面内のオブジェクトが実際のサイズと比較して拡大される円錐再構成を使用して再構成される。したがって、基礎となる選択プロセスは並列であり、幾何学的変換を必要としない。ボリュームを、例えば、(DBT中央投影とは違ってよい)コンボ−FFDM取得のソース位置に従って再構成することができる。
ブロック1240において、生成されたアルゴリズムは、合成画像生成のためのモデルに展開される。例えば、ボリューム再構成アルゴリズムは、トモシンセシス投影画像からボリューム再投影を生成するためにモデル460に展開される。
図13Aおよび図13Bは、患者の器官などのオブジェクトを撮像するための典型的な方法1300、1350を表すフローチャートである。ブロック1310において、複数の投影画像が、第1のエネルギ投入レベルで器官および/または他のオブジェクトについて取得される。例えば、複数の2Dトモシンセシス投影画像が、X線エミッタ140を器官に対する複数の向きへと回転させ、複数の投影画像のうちの各々の投影画像についてエミッタ140から第1のレベルのX線エネルギ投入を放射することによって取得される。
ブロック1320において、オブジェクトのX線画像が、第2のレベルのX線エネルギ投入で取得される。例えば、器官のFFDM画像などのX線画像を、投影画像の取得に用いたレベルよりも高いレベルのX線エネルギ投入を使用して取得することができる。
ブロック1330において、画像強化アルゴリズムが、アルゴリズムの出力と中央投影との間の類似度指標に基づいて、中央トモシンセシス投影画像から生成される。例えば、画像強化アルゴリズムは、アルゴリズムの出力とX線画像との間の類似度指標を最小化し、あるいは他のかたちで減少させる傾向の一式の投影のうちの中央トモシンセシス投影から生成される。トレーニングモデル420が、アルゴリズムを形成する(例えば、トレーニングおよびテストする)ために使用される。
ブロック1340において、生成されたアルゴリズムは、合成画像生成のためのモデルに展開される。例えば、画像強化アルゴリズムは、合成画像を生成するためにモデル460に展開される。
ブロック1360において、画像強化アルゴリズムは、一式のトモシンセシス投影へと適用される。例えば、一式のトモシンセシス投影において得られたデータが、モデル460にインスタンス化された画像強化アルゴリズムに従って修正される。したがって、例えば、投影のピクセルおよび/または他の強度値を、画像強化アルゴリズムを反映するモデル460に通すことによって修正することができる。
ブロック1370において、強化された3Dボリュームが、強化された一式のトモシンセシス投影から再構成される。例えば、モデル460のアルゴリズムによって強化された一式の2D投影が、3Dボリュームを形成するために使用される。
ブロック1380において、合成2D画像が、強化された投影および/またはボリュームから形成される。例えば、強化されたトモシンセシス投影および/または再構成された3Dボリュームから2D画像を合成して、診断画像を形成することができる。
図14Aおよび図14Bは、患者の器官などのオブジェクトを撮像するための典型的な方法1400、1450を表すフローチャートである。ブロック1410において、複数の投影画像が、第1のエネルギ投入レベルで器官および/または他のオブジェクトについて取得される。例えば、複数の2Dトモシンセシス投影画像が、X線エミッタ140を器官に対する複数の向きへと回転させ、複数の投影画像のうちの各々の投影画像についてエミッタ140から第1のレベルのX線エネルギ投入を放射することによって取得される。
ブロック1420において、投影画像は、より低いエネルギ投入レベルで取得された投影画像に似るように劣化させられる。例えば、2Dトモシンセシス投影画像は、元の一式の投影の取得に使用された線量よりも低いX線の線量で取得された画像として見えるように(例えば、ノイズまたは他のフィルタなどの導入によって)劣化させられる。
ブロック1430において、画像強化アルゴリズムが、アルゴリズムの出力と元の一式の投影との間の類似度指標に基づいて、一式の劣化させた投影画像から生成される。例えば、画像強化アルゴリズムは、アルゴリズムの出力と元の一式のトモシンセシス投影との間の類似度指標を最小化し、あるいは他のかたちで減少させる傾向の一式の劣化させたトモシンセシス投影から生成される。トレーニングモデル420が、アルゴリズムを形成する(例えば、トレーニングおよびテストする)ために使用される。
ブロック1440において、生成されたアルゴリズムは、合成画像生成のためのモデルに展開される。例えば、画像強化アルゴリズムは、合成画像を生成するためにモデル460に展開される。
ブロック1460において、画像強化アルゴリズムは、低線量のトモシンセシス取得からの一式のトモシンセシス投影へと適用される。例えば、一式のトモシンセシス投影において得られたデータが、モデル460にインスタンス化された画像強化アルゴリズムに従って修正される。したがって、例えば、投影のピクセルおよび/または他の強度値を、画像強化アルゴリズムを反映するモデル460に通すことによって修正することができる。
ブロック1470において、改善された3Dボリュームが、強化された一式のトモシンセシス投影から再構成される。例えば、モデル460のアルゴリズムによって強化された一式の2D投影が、3Dボリュームを形成するために使用される。
ブロック1480において、合成2D画像が、強化された投影および/またはボリュームから形成される。例えば、強化されたトモシンセシス投影および/または再構成された3Dボリュームから2D画像を合成して、診断画像を形成することができる。
図15は、患者の器官などのオブジェクトを撮像するための典型的な方法1500を表すフローチャートである。ブロック1510において、複数の投影画像が、第1のエネルギ投入レベルで器官および/または他のオブジェクトについて取得される。例えば、複数の2Dトモシンセシス投影画像が、X線エミッタ140を器官に対する複数の向きへと回転させ、複数の投影画像のうちの各々の投影画像についてエミッタ140から第1のレベルのX線エネルギ投入を放射することによって取得される。
ブロック1520において、オブジェクトの第1のボリュームが投影画像から再構成される。例えば、器官の3Dボリュームを、複数の2Dトモシンセシス投影画像から再構成することができる。
ブロック1530において、投影画像は、より低いエネルギ投入レベルで取得された投影画像に似るように劣化させられる。例えば、2Dトモシンセシス投影画像は、元の一式の投影の取得に使用された線量よりも低いX線の線量で取得された画像として見えるように(例えば、ノイズまたは他のフィルタなどの導入によって)劣化させられる。
ブロック1540において、ボリューム再構成アルゴリズムが、アルゴリズムの再構成出力と第1のボリュームとの間の類似度指標に基づいて、劣化させられた投影画像から生成される。例えば、ボリューム再構成アルゴリズムは、再構成アルゴリズムから出力される第2のボリュームと第1のボリューム再構成との間の類似度指標を最小化し、あるいは他のかたちで減少させる傾向の劣化させられたトモシンセシス投影から生成される。トレーニングモデル420が、アルゴリズムを形成する(例えば、トレーニングおよびテストする)ために使用される。
ブロック1550において、生成されたアルゴリズムは、合成画像生成のためのモデルに展開される。例えば、ボリューム再構成アルゴリズムは、合成画像を生成するためにモデル460に展開される。
図16が、図1〜図10の典型的なシステム300を実現するために図11〜図15の命令を実行することができる典型的なプロセッサプラットフォーム1600のブロック図である。プロセッサプラットフォーム1600は、例えば、サーバ、パーソナルコンピュータ、モバイルデバイス(例えば、携帯電話機、スマートフォン、iPad(商標)などのタブレット)、携帯情報端末(PDA)、インターネット家電、DVDプレーヤ、CDプレーヤ、デジタルビデオレコーダ、ブルーレイプレーヤ、ゲームコンソール、パーソナルビデオレコーダ、セットトップボックス、または任意の他の種類のコンピューティングデバイスであってよい。
図示の例のプロセッサプラットフォーム1600は、プロセッサ1612を含む。図示の例のプロセッサ1612は、ハードウェアである。例えば、プロセッサ1612を、任意の所望のファミリまたは製造業者からの1つ以上の集積回路、論理回路、マイクロプロセッサ、またはコントローラによって実現することができる。
図示の例のプロセッサ1612は、ローカルメモリ1613(例えば、キャッシュ)を含む。図示の例のプロセッサ1612は、バス1618を介して揮発性メモリ1614および不揮発性メモリ1616を含む主メモリと通信する。揮発性メモリ1614を、シンクロナスダイナミックランダムアクセスメモリ(SDRAM)、ダイナミックランダムアクセスメモリ(DRAM)、RAMBUSダイナミックランダムアクセスメモリ(RDRAM)、および/または任意の他の種類のランダムアクセスメモリデバイスによって実現することができる。不揮発性メモリ1616を、フラッシュメモリおよび/または任意の他の所望の種類のメモリデバイスによって実現することができる。主メモリ1614、1616へのアクセスは、メモリコントローラによって制御される。
さらに、図示の例のプロセッサプラットフォーム1600は、インターフェース回路1620を含む。インターフェース回路1620を、イーサネットインターフェース、ユニバーサルシリアルバス(USB)、および/またはPCIエクスプレスインターフェースなどの任意の種類のインターフェース規格によって実現することができる。
図示の例においては、1つ以上の入力装置1622が、インターフェース回路1620に接続される。入力装置1622は、プロセッサ1612へのデータおよびコマンドの入力をユーザにとって可能にする。入力装置を、例えば、オーディオセンサ、マイクロホン、カメラ(静止画または動画)、キーボード、ボタン、マウス、タッチスクリーン、トラックパッド、トラックボール、アイソポイント、および/または音声認識システムによって実現することができる。
1つ以上の出力装置1624も、図示の例のインターフェース回路1620に接続される。出力装置1624を、例えば、ディスプレイ装置(例えば、発光ダイオード(LED)、有機発光ダイオード(OLED)、液晶ディスプレイ、陰極線管ディスプレイ(CRT)、タッチスクリーン、触覚出力装置、プリンタ、および/またはスピーカ)によって実現することができる。したがって、図示の例のインターフェース回路1620は、典型的には、グラフィックスドライバカード、グラフィックスドライバチップ、またはグラフィックスドライバプロセッサを含む。
さらに、図示の例のインターフェース回路1620は、ネットワーク1626(例えば、イーサネット接続、デジタル加入者回線(DSL)、電話回線、同軸ケーブル、携帯電話システム、など)を介した外部装置(例えば、任意の種類のコンピューティングデバイス)とのデータのやり取りを容易にするために、送信器、受信器、トランシーバ、モデム、および/またはネットワークインターフェースカードなどの通信装置を含む。
さらに、図示の例のプロセッサプラットフォーム1600は、ソフトウェアおよび/またはデータを記憶するための1つ以上の大容量記憶装置1628も含む。そのような大容量記憶装置1628の例として、フロッピーディスクドライブ、ハードドライブディスク、コンパクトディスクドライブ、ブルーレイディスクドライブ、RAIDシステム、およびデジタル多用途ディスク(DVD)ドライブが挙げられる。
図11〜図15の符号化された命令1632を、大容量記憶装置1628、揮発性メモリ1614、不揮発性メモリ1616、ならびに/あるいはCDまたはDVDなどの取り外し可能な有形のコンピュータ可読記憶媒体に記憶することができる。
以上から、上記開示の方法、装置、および製造品が、DBT投影データなどの投影データからの2Dおよび/または3D画像の改善された画像再構成および生成を促進することを、理解できるであろう。特定の例は、利用可能な投影情報からの合成2D画像生成を促進するために、画像情報の改善されたモデリングを促進する。特定の例は、特定の方程式への依存を軽減し、代わりにモデリングおよび学習を利用して、利用可能な画像投影情報から2Dおよび/または3D画像を生成する。特定の例は、人工知能技術の画像再構成への改善された応用を促進する。特定の例は、画像投影データ(例えば、DBTなど)から生成された2Dおよび/または3D画像などの画像データのモデリング、処理、および再構成用に構成されたプロセッサの技術的改善を提供する。
例えば、DBT/CE−DBTにおいて、再構成は、放射線科医がレビューするデータの内容に直接影響し、したがって結果としての診断に影響する。現在のアルゴリズムは、再構成されたスライスの品質を最適化する傾向(例えば、ノイズの低減、ストリーキングアーチファクトの軽減、など)を有するが、これらのアルゴリズムで導入される事前知識は、通常は、不完全な再構成データをもたらす欠陥に部分的に対処するにすぎない。さらに、これらの高度なアルゴリズムは、通常は、複雑であり、かなりの計算能力を必要とする。したがって、理想的な再構成の設計は、アルゴリズム設計者のノウハウによって制限される。しかしながら、所与のボクセルについて、再構成アルゴリズムを、単に再構成された階調レベルを投影から抽出された一式の入力階調レベルに関連付けるマッピング関数と理解することができる。
本明細書において、特定の典型的な方法、装置、および製品を開示したが、本特許の適用範囲は、これらに限定されない。むしろ反対に、本特許は、本特許の特許請求の範囲の技術的範囲に正当に含まれるすべての方法、装置、および製品を包含する。
[実施態様1]
命令を含んでいる少なくとも1つのコンピュータ可読記憶媒体であって、
前記命令は、実行時に、少なくとも1つのプロセッサに、少なくとも
器官の複数の二次元(2D)トモシンセシス投影画像を、X線エミッタを前記器官に対する複数の向きへと回転させ、前記複数の2Dトモシンセシス投影画像の各々の投影画像について前記エミッタから第1のレベルのX線エネルギ投入を放射することによって取得するステップ(1110)と、
前記複数の2Dトモシンセシス投影画像から前記器官の三次元(3D)ボリュームを再構成するステップ(1120)と、
第2のレベルのX線エネルギ投入で前記器官のX線画像を取得するステップ(1130)と、
合成2D画像生成アルゴリズムを、前記複数の二次元(2D)トモシンセシス投影画像または前記再構成された3Dボリュームの少なくとも一方から、前記合成2D画像と前記X線画像との間の類似度指標に基づいて生成するステップ(1140)と、
前記合成2D画像生成アルゴリズムをインスタンス化するモデルを展開するステップ(1150)と
を実行させる、少なくとも1つのコンピュータ可読記憶媒体。
[実施態様2]
前記X線画像は、前記複数の2Dトモシンセシス投影画像のジオメトリにフィットするように位置合わせされる、実施態様1に記載の少なくとも1つのコンピュータ可読記憶媒体。
[実施態様3]
前記器官の前記複数の2Dトモシンセシス投影画像および前記器官の前記X線画像は、前記器官の同じ圧迫の最中に取得される、実施態様1に記載の少なくとも1つのコンピュータ可読記憶媒体。
[実施態様4]
前記複数の2Dトモシンセシス投影画像および前記X線画像はさらに、前記X線エミッタから放射されたX線を受け取る検出器にて取得され、
前記命令は、実行時に、前記少なくとも1つのプロセッサに、
前記複数の2D投影画像または前記X線画像の少なくとも一方にダイナミックレンジ補正係数を適用するステップ
をさらに実行させる、実施態様1に記載の少なくとも1つのコンピュータ可読記憶媒体。
[実施態様5]
前記再構成された3Dボリュームの各々の平面は、前記X線画像のジオメトリに一致する、実施態様1に記載の少なくとも1つのコンピュータ可読記憶媒体。
[実施態様6]
前記命令は、実行時に、前記少なくとも1つのプロセッサに、
前記合成2D画像の各ピクセルを前記再構成された3Dボリューム内の少なくとも1つのボクセルにマッピングするステップと、
前記合成2D画像をグラフィカルディスプレイ上に生成されたグラフィカルユーザインターフェース(GUI)に表示するステップと、
前記X線画像内の対象のオブジェクトのユーザ選択を受け付けるステップと、
前記3Dボリュームを通る少なくとも1つの平面を識別するステップと、
前記少なくとも1つの識別された平面を前記グラフィカルディスプレイ上に表示するステップと
をさらに実行させる、実施態様1に記載の少なくとも1つのコンピュータ可読記憶媒体。
[実施態様7]
前記命令は、実行時に、前記少なくとも1つのプロセッサに、
前記再構成された3Dボリュームの領域を抽出するステップと、
前記再構成された3Dボリュームから抽出された前記領域で前記合成2D画像を強化するステップと、
前記抽出された領域の位置で前記再構成された3Dボリュームへの前記合成2D画像のマッピングを強化するステップと
をさらに実行させる、実施態様1に記載の少なくとも1つのコンピュータ可読記憶媒体。
[実施態様8]
前記命令は、実行時に、前記少なくとも1つのプロセッサに、
前記再構成された3Dボリュームの領域を抽出するステップと、
前記再構成された3Dボリュームから抽出された前記領域で前記X線画像を強化するステップと
をさらに実行させ、
前記合成2D画像生成アルゴリズムは、前記再構成された3Dボリュームから、前記合成2D画像と前記強化されたX線画像との間の類似度指標に基づいて生成される、実施態様1に記載の少なくとも1つのコンピュータ可読記憶媒体。
[実施態様9]
前記X線画像を取得するためのエネルギは、前記複数の二次元(2D)トモシンセシス投影画像を取得するためのエネルギよりも大きい、実施態様1に記載の少なくとも1つのコンピュータ可読記憶媒体。
[実施態様10]
前記合成2D画像生成アルゴリズムを生成するステップは、前記合成2D画像生成アルゴリズムが前記合成2D画像と前記X線画像との間の類似度指標を最小化する傾向であるように、トレーニングモデルを使用して前記合成2D画像生成アルゴリズムを決定するステップを含む、実施態様1に記載の少なくとも1つのコンピュータ可読記憶媒体。
[実施態様11]
前記モデルは、人工ニューラルネットワークモデルを含む、実施態様1に記載の少なくとも1つのコンピュータ可読記憶媒体。
[実施態様12]
命令を含んでいる少なくとも1つのコンピュータ可読記憶媒体であって、
前記命令は、実行時に、少なくとも1つのプロセッサに、少なくとも
器官の複数の二次元(2D)トモシンセシス投影画像を、X線エミッタを前記器官に対する複数の向きへと回転させ、前記複数の2Dトモシンセシス投影画像の各々の投影画像について前記エミッタから第1のレベルのX線エネルギ投入を放射することによって取得するステップ(1210)と、
第2のレベルのX線エネルギ投入で前記器官のX線画像を取得するステップ(1220)と、
ボリューム再構成アルゴリズムを、前記複数の二次元(2D)トモシンセシス投影画像から、少なくとも前記ボリューム再投影と前記X線画像との間の類似度指標に基づいて生成するステップ(1230)と、
前記ボリューム再構成アルゴリズムをインスタンス化するモデルを展開するステップ(1240)と
を実行させる、少なくとも1つのコンピュータ可読記憶媒体。
[実施態様13]
前記ボリューム再構成アルゴリズムを生成するステップは、前記ボリューム再構成アルゴリズムが前記ボリューム再構成アルゴリズムを使用して形成されるボリューム再投影と前記X線画像との間の前記類似度指標を最小化する傾向であるように、トレーニングモデルを使用して前記ボリューム再構成アルゴリズムを決定するステップを含む、実施態様12に記載の少なくとも1つのコンピュータ可読記憶媒体。
[実施態様14]
前記X線画像は、前記複数の2Dトモシンセシス投影画像のジオメトリにフィットするように位置合わせされる、実施態様12に記載の少なくとも1つのコンピュータ可読記憶媒体。
[実施態様15]
前記器官の前記複数の2Dトモシンセシス投影画像および前記器官の前記X線画像は、前記器官の同じ圧迫の最中に取得される、実施態様12に記載の少なくとも1つのコンピュータ可読記憶媒体。
[実施態様16]
前記複数の2Dトモシンセシス投影画像および前記X線画像はさらに、前記X線エミッタから放射されたX線を受け取る検出器にて取得され、
前記命令は、実行時に、前記少なくとも1つのプロセッサに、
前記複数の2D投影画像または前記X線画像の少なくとも一方にダイナミックレンジ補正係数を適用するステップ
をさらに実行させる、実施態様12に記載の少なくとも1つのコンピュータ可読記憶媒体。
[実施態様17]
前記ボリューム再投影の各々の平面は、前記X線画像のジオメトリに一致する、実施態様12に記載の少なくとも1つのコンピュータ可読記憶媒体。
[実施態様18]
前記モデルは、人工ニューラルネットワークモデルを含む、実施態様12に記載の少なくとも1つのコンピュータ可読記憶媒体。
[実施態様19]
命令を含んでいる少なくとも1つのコンピュータ可読記憶媒体であって、
前記命令は、実行時に、少なくとも1つのプロセッサに、少なくとも
器官の複数の二次元(2D)トモシンセシス投影画像を、X線エミッタを前記器官に対する複数の向きへと回転させ、前記複数の投影画像の各々の投影画像について前記エミッタから第1のレベルのX線エネルギ投入を放射することによって取得するステップ(1310)と、
第2のレベルのX線エネルギ投入で前記器官のX線画像を取得するステップ(1320)と、
画像強化アルゴリズムを、前記複数の2Dトモシンセシス投影画像からの中央トモシンセシス投影から、前記画像強化アルゴリズムの出力と前記X線画像との間の類似度指標に基づいて生成するステップ(1330)と、
前記画像強化アルゴリズムをインスタンス化するモデルを展開するステップ(1340)と
を実行させる、少なくとも1つのコンピュータ可読記憶媒体。
[実施態様20]
前記画像強化アルゴリズムを生成するステップは、前記画像強化アルゴリズムを前記画像強化アルゴリズムの前記出力と前記X線画像との間の前記類似度指標を最小化する傾向の前記中央トモシンセシス投影から生成するステップを含む、実施態様19に記載の少なくとも1つのコンピュータ可読記憶媒体。
[実施態様21]
命令を含んでいる少なくとも1つのコンピュータ可読記憶媒体であって、
前記命令は、実行時に、少なくとも1つのプロセッサに、少なくとも
器官の複数の二次元(2D)トモシンセシス投影画像を、X線エミッタを前記器官に対する複数の向きへと回転させ、前記複数の投影画像の各々の投影画像について前記エミッタから第1のレベルのX線エネルギ投入を放射することによって取得するステップ(1410)と、
前記複数の2D投影画像を劣化させ、前記第1のレベルのX線エネルギ投入よりも低いレベルのX線エネルギ投入で取得されたように見える一式の劣化させたトモシンセシス投影画像を形成するステップ(1420)と、
画像強化アルゴリズムを、前記画像強化アルゴリズムの出力と前記元の投影との間の類似度指標を最小化する傾向の前記一式の劣化させたトモシンセシス投影画像から生成するステップ(1430)と、
前記画像強化アルゴリズムをインスタンス化するモデルを展開するステップ(1440)と
を実行させる、少なくとも1つのコンピュータ可読記憶媒体。
[実施態様22]
命令を含んでいる少なくとも1つのコンピュータ可読記憶媒体であって、
前記命令は、実行時に、少なくとも1つのプロセッサに、少なくとも
器官の複数の二次元(2D)トモシンセシス投影画像を、X線エミッタを前記器官に対する複数の向きへと回転させ、前記複数の投影画像の各々の投影画像について前記エミッタから第1のレベルのX線エネルギ投入を放射することによって取得するステップ(1510)と、
前記複数の2Dトモシンセシス投影画像から前記器官の元の三次元(3D)ボリュームを再構成するステップ(1520)と、
前記複数の2D投影画像を劣化させ、前記第1のレベルのX線エネルギ投入よりも低いレベルのX線エネルギ投入で取得されたように見える一式の劣化させたトモシンセシス投影画像を形成するステップ(1530)と、
ボリューム再構成アルゴリズムを、前記ボリューム再構成アルゴリズムの出力と前記元の3Dボリュームとの間の類似度指標を最小化する傾向の前記一式の劣化させたトモシンセシス投影画像から生成するステップ(1540)と、
前記ボリューム再構成アルゴリズムをインスタンス化するモデルを展開するステップ(1550)と
を実行させる、少なくとも1つのコンピュータ可読記憶媒体。
[実施態様23]
前記再構成された3Dボリュームから抽出された前記領域は、オペレータまたはコンピュータ支援検出システムの少なくとも一方によってもたらされる、実施態様8に記載の少なくとも1つのコンピュータ可読記憶媒体。
100 撮像システム
101 投影ビュー
102 投影ビュー
103 投影ビュー
104 投影ビュー
105 ゼロ投影
106 投影ビュー
107 投影ビュー
108 投影ビュー
109 投影ビュー
131 点状のオブジェクト
132 対象のオブジェクト
133 圧迫パドル
140 X線ビームソース、X線エミッタ、X線ソース
140’ X線ソース
140’’ X線ソース
141 方向
142 方向
143 ゼロ方向
144 アーム
145 検出器
150 処理ユニット
155 データ取得ライン
160 メモリユニット
165 アーカイブライン
170 ディスプレイユニット、ディスプレイ
180 ユーザインターフェース
181 マンモグラフィ技術者
185 信号ライン
202 下部支持体
204 圧迫支持体
300 画像処理システム
310 画像取得ユニット
320 データストア
330 トレーナ
340 モデラ
350 出力プロセッサ
360 フィードバックユニット
410 入力プロセッサ
420 トレーニングネットワーク
429 ネットワーク
430 出力検証器
440 フィードバックプロセッサ
450 プリプロセッサ
460 展開されたモデル、ネットワークモデル
470 ポストプロセッサ
500 深層学習ニューラルネットワーク
510 入力
512 入力
514 入力
516 入力
520 入力層、第1の層
522 ノード
524 ノード
526 ノード
530 ニューラル接続
532 接続
534 接続
540 隠れ層、第2の層
542 ノード
544 ノード
546 ノード
548 ノード
550 ニューラル接続
552 接続
554 接続
560 隠れ層、第3の層
562 ノード
564 ノード
566 ノード
568 ノード
570 ニューラル接続
572 接続
574 接続
580 出力層
582 出力ノード
590 出力
600 畳み込みニューラルネットワーク、畳み込み
602 入力の一部またはウィンドウ
604 畳み込み
606 特徴マップ
610 特徴マップ、入力
612 畳み込み
614 特徴マップ
616 サブサンプリング
618 特徴マップ
620 畳み込み
622 分類層
624 出力層
626 接続
700 画像解析畳み込みニューラルネットワーク
702 入力画像データ
704 畳み込み層
710 特徴
712 特徴
714 特徴
716 特徴
718 特徴
720 特徴
722 特徴
730 画像、第2の畳み込み層
732 画像
734 画像
736 画像
738 画像
740 画像
742 画像
744 画像
746 画像
748 画像
750 部分
752 部分
754 部分
800 深層学習ネットワークの適用の構成、パッケージ
810 生データ、入力定義、入力、生画像データ
820 深層学習ネットワーク
830 画像、出力定義
900 トレーニング
910 DBT取得
920 ボリューム画像データ
930 最大プーリング層
940 完全接続層
950 出力
960 FFDM画像
970 真のFFDMコンボ取得
1010 追加のDBT取得
1020 新たなボリューム
1030 合成2D画像
1100 方法
1200 方法
1300 方法
1350 方法
1400 方法
1450 方法
1500 方法
1600 プロセッサプラットフォーム
1612 プロセッサ
1613 ローカルメモリ
1614 揮発性メモリ
1616 不揮発性メモリ
1618 バス
1620 インターフェース回路
1622 入力装置
1624 出力装置
1626 ネットワーク
1628 大容量記憶装置
1632 符号化された命令
O 器官、オブジェクト

Claims (15)

  1. 命令を含んでいる少なくとも1つのコンピュータ可読記憶媒体であって、
    前記命令は、実行時に、少なくとも1つのプロセッサに、少なくとも
    器官の複数の二次元(2D)トモシンセシス投影画像を、X線エミッタを前記器官に対する複数の向きへと回転させ、前記複数の2Dトモシンセシス投影画像の各々の投影画像について前記エミッタから第1のレベルのX線エネルギ投入を放射することによって取得するステップ(1110)と、
    前記複数の2Dトモシンセシス投影画像から前記器官の三次元(3D)ボリュームを再構成するステップ(1120)と、
    第2のレベルのX線エネルギ投入で前記器官のX線画像を取得するステップ(1130)と、
    合成2D画像生成アルゴリズムを、前記複数の二次元(2D)トモシンセシス投影画像または前記再構成された3Dボリュームの少なくとも一方から、前記合成2D画像と前記X線画像との間の類似度指標に基づいて生成するステップ(1140)と、
    前記合成2D画像生成アルゴリズムをインスタンス化するモデルを展開するステップ(1150)と
    を実行させる、少なくとも1つのコンピュータ可読記憶媒体。
  2. 前記X線画像は、前記複数の2Dトモシンセシス投影画像のジオメトリにフィットするように位置合わせされる、請求項1に記載の少なくとも1つのコンピュータ可読記憶媒体。
  3. 前記器官の前記複数の2Dトモシンセシス投影画像および前記器官の前記X線画像は、前記器官の同じ圧迫の最中に取得される、請求項1に記載の少なくとも1つのコンピュータ可読記憶媒体。
  4. 前記複数の2Dトモシンセシス投影画像および前記X線画像はさらに、前記X線エミッタから放射されたX線を受け取る検出器にて取得され、
    前記命令は、実行時に、前記少なくとも1つのプロセッサに、
    前記複数の2D投影画像または前記X線画像の少なくとも一方にダイナミックレンジ補正係数を適用するステップ
    をさらに実行させる、請求項1に記載の少なくとも1つのコンピュータ可読記憶媒体。
  5. 前記再構成された3Dボリュームの各々の平面は、前記X線画像のジオメトリに一致する、請求項1に記載の少なくとも1つのコンピュータ可読記憶媒体。
  6. 前記命令は、実行時に、前記少なくとも1つのプロセッサに、
    前記合成2D画像の各ピクセルを前記再構成された3Dボリューム内の少なくとも1つのボクセルにマッピングするステップと、
    前記合成2D画像をグラフィカルディスプレイ上に生成されたグラフィカルユーザインターフェース(GUI)に表示するステップと、
    前記X線画像内の対象のオブジェクトのユーザ選択を受け付けるステップと、
    前記3Dボリュームを通る少なくとも1つの平面を識別するステップと、
    前記少なくとも1つの識別された平面を前記グラフィカルディスプレイ上に表示するステップと
    をさらに実行させる、請求項1に記載の少なくとも1つのコンピュータ可読記憶媒体。
  7. 前記命令は、実行時に、前記少なくとも1つのプロセッサに、
    前記再構成された3Dボリュームの領域を抽出するステップと、
    前記再構成された3Dボリュームから抽出された前記領域で前記合成2D画像を強化するステップと、
    前記抽出された領域の位置で前記再構成された3Dボリュームへの前記合成2D画像のマッピングを強化するステップと
    をさらに実行させる、請求項1に記載の少なくとも1つのコンピュータ可読記憶媒体。
  8. 前記命令は、実行時に、前記少なくとも1つのプロセッサに、
    前記再構成された3Dボリュームの領域を抽出するステップと、
    前記再構成された3Dボリュームから抽出された前記領域で前記X線画像を強化するステップと
    をさらに実行させ、
    前記合成2D画像生成アルゴリズムは、前記再構成された3Dボリュームから、前記合成2D画像と前記強化されたX線画像との間の類似度指標に基づいて生成される、請求項1に記載の少なくとも1つのコンピュータ可読記憶媒体。
  9. 前記X線画像を取得するためのエネルギは、前記複数の二次元(2D)トモシンセシス投影画像を取得するためのエネルギよりも大きい、請求項1に記載の少なくとも1つのコンピュータ可読記憶媒体。
  10. 前記合成2D画像生成アルゴリズムを生成するステップは、前記合成2D画像生成アルゴリズムが前記合成2D画像と前記X線画像との間の類似度指標を最小化する傾向であるように、トレーニングモデルを使用して前記合成2D画像生成アルゴリズムを決定するステップを含む、請求項1に記載の少なくとも1つのコンピュータ可読記憶媒体。
  11. 前記モデルは、人工ニューラルネットワークモデルを含む、請求項1に記載の少なくとも1つのコンピュータ可読記憶媒体。
  12. 命令を含んでいる少なくとも1つのコンピュータ可読記憶媒体であって、
    前記命令は、実行時に、少なくとも1つのプロセッサに、少なくとも
    器官の複数の二次元(2D)トモシンセシス投影画像を、X線エミッタを前記器官に対する複数の向きへと回転させ、前記複数の2Dトモシンセシス投影画像の各々の投影画像について前記エミッタから第1のレベルのX線エネルギ投入を放射することによって取得するステップ(1210)と、
    第2のレベルのX線エネルギ投入で前記器官のX線画像を取得するステップ(1220)と、
    ボリューム再構成アルゴリズムを、前記複数の二次元(2D)トモシンセシス投影画像から、少なくとも前記ボリューム再投影と前記X線画像との間の類似度指標に基づいて生成するステップ(1230)と、
    前記ボリューム再構成アルゴリズムをインスタンス化するモデルを展開するステップ(1240)と
    を実行させる、少なくとも1つのコンピュータ可読記憶媒体。
  13. 前記ボリューム再構成アルゴリズムを生成するステップは、前記ボリューム再構成アルゴリズムが前記ボリューム再構成アルゴリズムを使用して形成されるボリューム再投影と前記X線画像との間の前記類似度指標を最小化する傾向であるように、トレーニングモデルを使用して前記ボリューム再構成アルゴリズムを決定するステップを含む、請求項12に記載の少なくとも1つのコンピュータ可読記憶媒体。
  14. 前記複数の2Dトモシンセシス投影画像および前記X線画像はさらに、前記X線エミッタから放射されたX線を受け取る検出器にて取得され、
    前記命令は、実行時に、前記少なくとも1つのプロセッサに、
    前記複数の2D投影画像または前記X線画像の少なくとも一方にダイナミックレンジ補正係数を適用するステップ
    をさらに実行させる、請求項12に記載の少なくとも1つのコンピュータ可読記憶媒体。
  15. 命令を含んでいる少なくとも1つのコンピュータ可読記憶媒体であって、
    前記命令は、実行時に、少なくとも1つのプロセッサに、少なくとも
    器官の複数の二次元(2D)トモシンセシス投影画像を、X線エミッタを前記器官に対する複数の向きへと回転させ、前記複数の投影画像の各々の投影画像について前記エミッタから第1のレベルのX線エネルギ投入を放射することによって取得するステップ(1310)と、
    第2のレベルのX線エネルギ投入で前記器官のX線画像を取得するステップ(1320)と、
    画像強化アルゴリズムを、前記複数の2Dトモシンセシス投影画像からの中央トモシンセシス投影から、前記画像強化アルゴリズムの出力と前記X線画像との間の類似度指標に基づいて生成するステップ(1330)と、
    前記画像強化アルゴリズムをインスタンス化するモデルを展開するステップ(1340)と
    を実行させる、少なくとも1つのコンピュータ可読記憶媒体。
JP2019222767A 2018-12-28 2019-12-10 深層学習ベースの画像再構成のためのシステムおよび方法 Active JP7237809B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/235,046 2018-12-28
US16/235,046 US11227418B2 (en) 2018-12-28 2018-12-28 Systems and methods for deep learning-based image reconstruction

Publications (2)

Publication Number Publication Date
JP2020116378A true JP2020116378A (ja) 2020-08-06
JP7237809B2 JP7237809B2 (ja) 2023-03-13

Family

ID=69055800

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019222767A Active JP7237809B2 (ja) 2018-12-28 2019-12-10 深層学習ベースの画像再構成のためのシステムおよび方法

Country Status (4)

Country Link
US (2) US11227418B2 (ja)
EP (1) EP3675043B1 (ja)
JP (1) JP7237809B2 (ja)
CN (1) CN111383338B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220075728A (ko) * 2020-11-30 2022-06-08 동의대학교 산학협력단 의료용 이미지의 3차원 메쉬 생성을 위한 장치 및 방법

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10679384B2 (en) 2017-09-29 2020-06-09 General Electric Company Systems and methods for deep learning-based image reconstruction
US11227418B2 (en) * 2018-12-28 2022-01-18 General Electric Company Systems and methods for deep learning-based image reconstruction
JP7387270B2 (ja) * 2019-03-06 2023-11-28 キヤノンメディカルシステムズ株式会社 医用画像処理装置、学習方法、x線診断装置、医用画像処理方法、およびプログラム
JP7313192B2 (ja) * 2019-05-27 2023-07-24 キヤノンメディカルシステムズ株式会社 診断支援装置、及び、x線ct装置
CN111956248A (zh) * 2020-09-03 2020-11-20 上海联影医疗科技股份有限公司 一种x射线成像方法、装置、设备及存储介质
CN111915511B (zh) * 2020-07-06 2024-08-02 中兴飞流信息科技有限公司 一种图像增强模型在线更新系统
CN112150600B (zh) * 2020-09-24 2023-03-17 上海联影医疗科技股份有限公司 一种容积重建图像生成方法、装置、系统及存储介质
US20220189011A1 (en) * 2020-12-16 2022-06-16 Nvidia Corporation End-to-end training for a three-dimensional tomography reconstruction pipeline
US20230248323A1 (en) * 2022-02-09 2023-08-10 GE Precision Healthcare LLC Fast and Low Memory Usage Convolutional Neural Network for Tomosynthesis Data Processing and Feature Detection

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014128576A (ja) * 2012-11-30 2014-07-10 Canon Inc 画像処理装置、画像処理方法、及びプログラム
JP2016533803A (ja) * 2013-10-24 2016-11-04 アンドリュー ピー. スミス, X線誘導胸部生検をナビゲートするためのシステムおよび方法
JP2016534802A (ja) * 2013-10-30 2016-11-10 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 医療画像を表示する方法及び装置
JP2017143943A (ja) * 2016-02-16 2017-08-24 富士フイルム株式会社 放射線画像処理装置、方法およびプログラム
US20180130201A1 (en) * 2016-11-10 2018-05-10 General Electric Company Combined medical imaging

Family Cites Families (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5413477A (en) 1992-10-16 1995-05-09 Gas Research Institute Staged air, low NOX burner with internal recuperative flue gas recirculation
US6990222B2 (en) 2001-11-21 2006-01-24 Arnold Ben A Calibration of tissue densities in computerized tomography
US8571289B2 (en) * 2002-11-27 2013-10-29 Hologic, Inc. System and method for generating a 2D image from a tomosynthesis data set
US7831296B2 (en) 2002-11-27 2010-11-09 Hologic, Inc. X-ray mammography with tomosynthesis
WO2005009206A2 (en) 2003-06-25 2005-02-03 Besson Guy M Dynamic multi-spectral imaging system
US7653229B2 (en) 2003-12-23 2010-01-26 General Electric Company Methods and apparatus for reconstruction of volume data from projection data
US7323688B2 (en) 2004-06-29 2008-01-29 Siemens Medical Solutions Usa, Inc. Nuclear imaging system using rotating scintillation bar detectors with slat collimation and method for imaging using the same
US8989349B2 (en) 2004-09-30 2015-03-24 Accuray, Inc. Dynamic tracking of moving targets
EP1882449A4 (en) * 2005-05-18 2010-05-05 Hitachi Medical Corp RADIOGRAPHY DEVICE AND IMAGE PROCESSING PROGRAM
JP4820666B2 (ja) * 2006-03-01 2011-11-24 株式会社東芝 X線撮像装置及びその方法
US7630533B2 (en) * 2007-09-20 2009-12-08 Hologic, Inc. Breast tomosynthesis with display of highlighted suspected calcifications
US8559671B2 (en) 2008-12-18 2013-10-15 The Regents Of The University Of California Training-free generic object detection in 2-D and 3-D using locally adaptive regression kernels
US20140072108A1 (en) 2010-07-16 2014-03-13 David P. Rohler Methods and apparatus for extended low contrast detectability for radiographic imaging systems
US20110142316A1 (en) 2009-10-29 2011-06-16 Ge Wang Tomography-Based and MRI-Based Imaging Systems
WO2011100511A2 (en) * 2010-02-11 2011-08-18 University Of Michigan Methods for microcalification detection of breast cancer on digital tomosynthesis mammograms
WO2011106433A1 (en) * 2010-02-24 2011-09-01 Accuray Incorporated Gantry image guided radiotherapy system and related treatment delivery methods
US20150213633A1 (en) 2011-04-06 2015-07-30 The Trustees Of Columbia University In The City Of New York System, method and computer-accessible medium for providing a panoramic cone beam computed tomography (cbct)
US20130051516A1 (en) * 2011-08-31 2013-02-28 Carestream Health, Inc. Noise suppression for low x-ray dose cone-beam image reconstruction
US10734116B2 (en) 2011-10-04 2020-08-04 Quantant Technology, Inc. Remote cloud based medical image sharing and rendering semi-automated or fully automated network and/or web-based, 3D and/or 4D imaging of anatomy for training, rehearsing and/or conducting medical procedures, using multiple standard X-ray and/or other imaging projections, without a need for special hardware and/or systems and/or pre-processing/analysis of a captured image data
US9449403B2 (en) 2011-10-19 2016-09-20 Siemens Aktiengesellschaft Out of plane artifact reduction in digital breast tomosynthesis and CT
JP2015520846A (ja) 2012-05-01 2015-07-23 アナロジック コーポレイション Ct密度画像とスパースマルチエネルギーデータを用いてボクセルセットのz−有効値を決定する方法およびシステム{determinationofz−effectivevalueforsetofvoxelsusingctdensityimageandsparsemulti−energydata}
US10433740B2 (en) 2012-09-12 2019-10-08 Heartflow, Inc. Systems and methods for estimating ischemia and blood flow characteristics from vessel geometry and physiology
US9117262B2 (en) * 2012-11-30 2015-08-25 Adobe Systems Incorporated Learned piece-wise patch regression for image enhancement
US9494534B2 (en) 2012-12-21 2016-11-15 Carestream Health, Inc. Material differentiation with phase contrast imaging
US8855395B2 (en) 2013-01-02 2014-10-07 Carestream Health, Inc. Conditional likelihood material decomposition and methods of using the same
US9129362B2 (en) * 2013-05-22 2015-09-08 Siemens Aktiengesellschaft Semantic navigation and lesion mapping from digital breast tomosynthesis
KR102264462B1 (ko) * 2013-10-09 2021-06-15 홀로직, 인크. 편평화된 유방의 두께 방향을 포함하는 공간 해상도를 향상시키는 x선 유방 영상합성
US10610182B2 (en) 2014-01-15 2020-04-07 Alara Systems, Inc Converting low-dose to higher dose 3D tomosynthesis images through machine-learning processes
US9730660B2 (en) 2014-01-15 2017-08-15 Alara Systems, Inc. Converting low-dose to higher dose mammographic images through machine-learning processes
DE102015204957A1 (de) * 2014-03-27 2015-10-01 Siemens Aktiengesellschaft Bildgebendes Tomosynthesesystem, insbesondere Mammographiesystem
WO2015195570A2 (en) 2014-06-16 2015-12-23 Loma Linda University Radiography and computed tomography with high-energy electron beams
FR3022792A1 (fr) 2014-06-25 2016-01-01 Commissariat Energie Atomique Procede de production d'un fantome physique radiometrique d'un organisme biologique et fantome physique produit par ce procede.
US10022098B2 (en) * 2014-07-09 2018-07-17 Siemens Aktiengesellschaft Method and device for generating a low-dose X-ray image preview, imaging system and computer program product
GB2533632B (en) 2014-12-24 2018-01-03 Gen Electric Method and system for obtaining low dose tomosynthesis and material decomposition images
GB2533801B (en) 2014-12-31 2018-09-12 Gen Electric Method and system for tomosynthesis projection images enhancement
US10674973B2 (en) 2015-04-24 2020-06-09 Rush University Medical Center Radiation therapy system and methods of use thereof
US9934566B2 (en) * 2015-07-14 2018-04-03 Siemens Healthcare Gmbh 3-D vessel tree surface reconstruction method
US10235606B2 (en) * 2015-07-22 2019-03-19 Siemens Healthcare Gmbh Method and system for convolutional neural network regression based 2D/3D image registration
US9984478B2 (en) * 2015-07-28 2018-05-29 PME IP Pty Ltd Apparatus and method for visualizing digital breast tomosynthesis and other volumetric images
US10368822B2 (en) * 2015-08-31 2019-08-06 General Electric Company Iterative X-ray imaging optimization method and system
US9998487B2 (en) * 2016-04-25 2018-06-12 General Electric Company Domain level threat detection for industrial asset control system
DE102016215109A1 (de) * 2016-08-12 2018-02-15 Siemens Healthcare Gmbh Verfahren und Datenverarbeitungseinheit zum Optimieren eines Bildrekonstruktionsalgorithmus
US10679384B2 (en) 2017-09-29 2020-06-09 General Electric Company Systems and methods for deep learning-based image reconstruction
US11227418B2 (en) * 2018-12-28 2022-01-18 General Electric Company Systems and methods for deep learning-based image reconstruction

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014128576A (ja) * 2012-11-30 2014-07-10 Canon Inc 画像処理装置、画像処理方法、及びプログラム
JP2016533803A (ja) * 2013-10-24 2016-11-04 アンドリュー ピー. スミス, X線誘導胸部生検をナビゲートするためのシステムおよび方法
JP2016534802A (ja) * 2013-10-30 2016-11-10 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 医療画像を表示する方法及び装置
JP2017143943A (ja) * 2016-02-16 2017-08-24 富士フイルム株式会社 放射線画像処理装置、方法およびプログラム
US20180130201A1 (en) * 2016-11-10 2018-05-10 General Electric Company Combined medical imaging

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220075728A (ko) * 2020-11-30 2022-06-08 동의대학교 산학협력단 의료용 이미지의 3차원 메쉬 생성을 위한 장치 및 방법
KR102615255B1 (ko) 2020-11-30 2023-12-19 동의대학교 산학협력단 의료용 이미지의 3차원 메쉬 생성을 위한 장치 및 방법

Also Published As

Publication number Publication date
US20200211240A1 (en) 2020-07-02
EP3675043B1 (en) 2024-01-24
JP7237809B2 (ja) 2023-03-13
EP3675043A1 (en) 2020-07-01
CN111383338B (zh) 2023-11-03
US20220051456A1 (en) 2022-02-17
CN111383338A (zh) 2020-07-07
US11227418B2 (en) 2022-01-18

Similar Documents

Publication Publication Date Title
JP7237809B2 (ja) 深層学習ベースの画像再構成のためのシステムおよび方法
KR102229853B1 (ko) 환자 특정적 딥러닝 이미지 잡음제거 방법들 및 시스템들
JP7169986B2 (ja) オブジェクトグリッド増強を用いて高次元画像データから低次元画像データを合成するためのシステムおよび方法
CN110121749B (zh) 用于图像采集的深度学习医疗系统和方法
CN110621231B (zh) 用于分层次多级特征图像合成和表示的系统以及方法
JP5138910B2 (ja) 投影画像を用いた3dcadのシステム及び方法
US11210779B2 (en) Detection and quantification for traumatic bleeding using dual energy computed tomography
US10448915B2 (en) System and method for characterizing anatomical features
US7978886B2 (en) System and method for anatomy based reconstruction
US20060210131A1 (en) Tomographic computer aided diagnosis (CAD) with multiple reconstructions
CN111563523A (zh) 利用机器训练的异常检测的copd分类
CN111540025A (zh) 预测用于图像处理的图像
KR20240013724A (ko) 다중 펄스 x-선 소스 이동 단층합성 영상화 시스템을 사용한 인공 지능 훈련
JP2022502177A (ja) 高密度要素抑制による合成乳房組織画像発生のためのシステムおよび方法
EP3928285A1 (en) Systems and methods for calcium-free computed tomography angiography
US20230394717A1 (en) System and Method for Improved Artefact Correction in Reconstructed 2D/3D Images
CN114730476A (zh) 有限角度重建的网络确定
Sumathi et al. Harnessing Deep Learning (DL) for Image Inpainting in Healthcare System-Methods and Challenges
US20240095907A1 (en) Deep learning based systems and methods for detecting breast diseases
US20240193763A1 (en) System and Method for Projection Enhancement for Synthetic 2D Image Generation
EP4350629A1 (en) Artifact-driven data synthesis in computed tomography
Sumathi et al. 10 Harnessing Deep
Prabhavalkar et al. Lung Nodule Detection and Classification: Methods and Challenges
Jabbar et al. Investigating Deep Learning Methods for Detecting Lung Adenocarcinoma on the TCIA Dataset
CN117078529A (zh) 消除次生伪影的处理计算机断层图像的方法及电子设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201222

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20210520

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20210524

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220310

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220314

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220713

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221005

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230301

R150 Certificate of patent or registration of utility model

Ref document number: 7237809

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150