JP2022140410A - ギャップフィラーサイノグラム情報を取得するための処理デバイス、コンピュータ断層撮影装置、方法、およびコンピュータプログラム - Google Patents
ギャップフィラーサイノグラム情報を取得するための処理デバイス、コンピュータ断層撮影装置、方法、およびコンピュータプログラム Download PDFInfo
- Publication number
- JP2022140410A JP2022140410A JP2022037986A JP2022037986A JP2022140410A JP 2022140410 A JP2022140410 A JP 2022140410A JP 2022037986 A JP2022037986 A JP 2022037986A JP 2022037986 A JP2022037986 A JP 2022037986A JP 2022140410 A JP2022140410 A JP 2022140410A
- Authority
- JP
- Japan
- Prior art keywords
- sinogram
- information
- sinogram information
- gap
- processing device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 111
- 238000012545 processing Methods 0.000 title claims abstract description 86
- 239000000945 filler Substances 0.000 title claims abstract description 58
- 238000004590 computer program Methods 0.000 title claims abstract description 23
- 238000002591 computed tomography Methods 0.000 claims abstract description 92
- 230000003595 spectral effect Effects 0.000 claims abstract description 39
- 238000013528 artificial neural network Methods 0.000 claims description 59
- 239000000463 material Substances 0.000 claims description 18
- 238000013527 convolutional neural network Methods 0.000 claims description 15
- 230000005540 biological transmission Effects 0.000 claims description 14
- 230000005855 radiation Effects 0.000 claims description 11
- 238000012549 training Methods 0.000 description 19
- 238000005259 measurement Methods 0.000 description 14
- 230000008901 benefit Effects 0.000 description 13
- 238000013135 deep learning Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 7
- 230000009977 dual effect Effects 0.000 description 6
- 238000003384 imaging method Methods 0.000 description 6
- 238000013507 mapping Methods 0.000 description 6
- 238000012067 mathematical method Methods 0.000 description 6
- 238000005070 sampling Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 238000009826 distribution Methods 0.000 description 5
- 230000009467 reduction Effects 0.000 description 5
- 238000013459 approach Methods 0.000 description 4
- 230000003190 augmentative effect Effects 0.000 description 4
- 208000009119 Giant Axonal Neuropathy Diseases 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 3
- 238000012937 correction Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 238000006073 displacement reaction Methods 0.000 description 3
- 239000003814 drug Substances 0.000 description 3
- 201000003382 giant axonal neuropathy 1 Diseases 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 230000015572 biosynthetic process Effects 0.000 description 2
- 230000002950 deficient Effects 0.000 description 2
- 238000002059 diagnostic imaging Methods 0.000 description 2
- 229940079593 drug Drugs 0.000 description 2
- 238000007689 inspection Methods 0.000 description 2
- 230000001788 irregular Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000013589 supplement Substances 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 238000003325 tomography Methods 0.000 description 2
- 238000013526 transfer learning Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 241000961787 Josa Species 0.000 description 1
- 206010028980 Neoplasm Diseases 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 201000011510 cancer Diseases 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000013170 computed tomography imaging Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 230000010339 dilation Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000013213 extrapolation Methods 0.000 description 1
- 238000002594 fluoroscopy Methods 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 238000009659 non-destructive testing Methods 0.000 description 1
- 238000009206 nuclear medicine Methods 0.000 description 1
- 238000011045 prefiltration Methods 0.000 description 1
- 230000000241 respiratory effect Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/003—Reconstruction from projections, e.g. tomography
- G06T11/008—Specific post-processing after tomographic reconstruction, e.g. voxelisation, metal artifact correction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/003—Reconstruction from projections, e.g. tomography
- G06T11/005—Specific pre-processing for tomographic reconstruction, e.g. calibration, source positioning, rebinning, scatter correction, retrospective gating
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
- A61B6/02—Devices for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
- A61B6/03—Computerised tomographs
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
- A61B6/48—Diagnostic techniques
- A61B6/482—Diagnostic techniques involving multiple energy imaging
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
- A61B6/52—Devices using data or image processing specially adapted for radiation diagnosis
- A61B6/5211—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
- A61B6/5217—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
- A61B6/54—Control of apparatus or devices for radiation diagnosis
- A61B6/542—Control of apparatus or devices for radiation diagnosis involving control of exposure
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2211/00—Image generation
- G06T2211/40—Computed tomography
- G06T2211/408—Dual energy
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2211/00—Image generation
- G06T2211/40—Computed tomography
- G06T2211/441—AI-based methods, deep learning or artificial neural networks
Abstract
Description
図1において、ギャップフィラーサイノグラム情報を取得するための本発明による処理デバイスを有するコンピュータ断層撮影装置の例示的な実施形態が概略的に示されている。図1によるコンピュータ断層撮影装置は、その全体が110によって示されている。図1による処理デバイスは、100によって示されている。
図2は、さらなるエミッタ216およびさらなる検出器214が示されている点において図1とは異なる。これは、二重エネルギーCTを本質的に並行して取り込むための典型的な実施形態である。対象102は、異なるスペクトルパラメータを有する放射線によって同時に照射される。したがって、第1のサイノグラム情報は、第1の検出器(ここでは検出器104)によって生成され、第2のサイノグラム情報は、第2の検出器(ここでは検出器214)によって生成され、第1のサイノグラム情報および第2のサイノグラム情報の生成されたサイノグラム情報は、各々、同じ透過角度に関連する。したがって、第1のスペクトルパラメータに関連する第1の投影および第2のスペクトルパラメータに関連する第2の投影は、実質的に同じ投影方向に対して取得され得る。図1に示されている実施形態において、これは、異なるスペクトルパラメータを有する2つのパスにおいて同じ検出器によって取得される。
図3は、例として、角度増分を示しながら例示的な様々な投影を用いてギャップフィラーサイノグラム情報を取得するための処理デバイス100と、第1のサイノグラム情報および第2のサイノグラム情報からギャップフィラーサイノグラム情報を取得するように適合されたニューラルネットワーク(NN)とを示す。ここで、第1のサイノグラム情報および第2のサイノグラム情報は、それぞれ、LEおよびHEによって示されている。たとえば、ギャップフィラーサイノグラム情報の生成は、HEを第1のサイノグラム情報として用い、LEを第2のサイノグラム情報として用いても実行され得る。実線において示されている矢印(310)は、第1のサイノグラム情報(上からNNによって示されているニューラルネットワークを指す矢印)および第2のサイノグラム情報(下から指す矢印)が、破線の矢印(320)として示されているギャップフィラーサイノグラム情報を取得するためのニューラルネットワーク(NN)によって処理されることを例示している。ギャップフィラーサイノグラム情報は、たとえば、上記の例ですでに示されているように、第1のサイノグラム情報(ここではLE)に対して角度増分-1、+1、および0のそれぞれのサイノグラム情報から生成された、ここでは角度増分0において示されている第2のサイノグラム情報の欠落情報であり得る。
図4は、例として、ブロック図においてギャップフィラーサイノグラム情報を取得する方法400を示している。ここで、402は、第1のサイノグラム情報を取得するステップであり、第1のサイノグラム情報は、第1のスペクトルパラメータに関連する情報を含む。404は、第2のサイノグラム情報を取得するステップに関し、第2のサイノグラム情報は、第2のスペクトルパラメータに関連する情報を含む。そして406は、第1のサイノグラム情報と第2のサイノグラム情報とに基づいて、第2のサイノグラム情報内のギャップを補填するギャップフィラーサイノグラム情報を取得または決定するステップに関する。
図5は、例として、第1のサイノグラム情報502と第2のサイノグラム情報503とに基づいて、ここでは例示的にピクセルを含む、ギャップ520を補填するためのギャップフィラーサイノグラム情報を取得する方法500を示す。ピクセルグループの拡張は、x方向およびy方向における空間軸に沿い得る。ピクセルグループの空間的拡張は、(たとえば、検出器またはセットアップに応じて)角度にも沿い得る。処理デバイス100は、第1のサイノグラム情報502と第2のサイノグラム情報503とを使用しながらギャップフィラーサイノグラム情報を取得し、取得されたギャップフィラーサイノグラム情報でギャップ520を補填するように適合される。言い換えれば、処理デバイスは、合成的に生成されたギャップフィラーサイノグラム情報でギャップを補填し得る。図5は、検査された対象の同じ空間ピクセルに関連する第1の取得されたサイノグラム情報502と第2のサイノグラム情報503とを示す。ここで、第2のサイノグラム情報503は、サイノグラム情報が取得されなかったギャップ520を有する。504は、例として、第1の取得されたサイノグラム情報(第1のサイノグラム情報502を含む)の周りに空間的に配置された第1のサイノグラム情報の第1の領域を示す。第1のサイノグラム領域から、第1のサイノグラム再構成領域514が、たとえば、第1の方向および(第1の方向とは異なる)第2の方向における所定の拡張によって、たとえば、第1のサイノグラム再構成領域の所定の指示によって、選択または事前に決定され得、第1の方向における拡張(たとえば、ピクセルワイズ)は、第2の方向における拡張よりも大きくても小さくてもよい。第1のサイノグラム再構成領域内に含まれるサイノグラム情報は、(第1の)サイノグラム情報近傍と呼ばれる場合もあり、第1のサイノグラム情報近傍は、ギャップのサイノグラム情報も含む。
図6において、第1のサイノグラム情報602と第2のサイノグラム情報603に基づいて、ここでは例示的にピクセルのラインを含むギャップ620を補填するための、ギャップフィラーサイノグラム情報を取得する例示的な方法600が示されている。ピクセルのラインに対応するギャップは、たとえば、第2のサイノグラム情報を取得することが第1のサイノグラム情報を取得することよりも低い角度分解能に基づくときに発生する。したがって、第2のサイノグラム情報は、ピクセルの行または列に対応する少なくとも1つまたは複数のギャップを有し得る。
図7において、ギャップフィラーサイノグラム情報を取得する例示的な方法700が示されている。ここではパッチに対応する第2のサイノグラム情報703内のギャップ720は、たとえば、この方法によって補填され得る。第1のサイノグラム情報が、702によって示されている。第1のサイノグラム情報を含むように空間的に配置された領域が、704によって示されている。第2のサイノグラム情報を含むように空間的に配置された領域が、705によって示されている。領域704および705の各々において、サイノグラム再構成領域714、715が、選択または事前に決定され得る。選択または事前に決定されたサイノグラム再構成領域714、715
以下において、さらなる実施形態および態様について説明される。さらなる実施形態および態様は、それ自体で使用され得るが、本明細書で開示される任意の他の実施形態と組み合わせても使用され得る。このセクションにおいて説明される実施形態は、任意選択で、本明細書で開示される任意の他の特徴、機能、および詳細により、個別におよび組み合わせて補足され得る。逆に、本明細書で開示される実施形態のいずれかは、任意選択で、このセクションで説明される特徴、機能、および詳細のいずれかにより、個別におよび組み合わせて補足され得る。
本発明の一態様によれば、標準的なCTに関する投影データが最初に取り込まれる(たとえば、第1のサイノグラム情報)。続いて(または時間的に並列にもしくは時間的にインターリーブされた方法でも)、適合されたスペクトルパラメータによる第2のCT投影データセット(たとえば、第2のサイノグラム情報)が、回転角に対して著しく減少したサンプリングを用いて(すなわち、たとえば、第1のサイノグラム情報と比較して低下した角度分解能を用いて)取り込まれる。したがって、たとえば、曝露時間および線量は、わずかにしか増加しない。追加のハードウェアは、(場合によっては)必要ない。
は、低エネルギー(LE)投影である(またはそれを含む)と想定されるものとし、第2のもの(または第2のデータセット、たとえば、第2のサイノグラム情報)は、高エネルギー(HE)投影である(またはそれを含む)と想定されるものとする。投影角度のサンプリングにおいて、第2のデータセット(HE)において、たとえば、第1の投影データセット(LE)の投影角度の1つおき(50%の数)のみが実行される(または、第2のデータセットにおいて、たとえば、サイノグラムラインが1つおきの投影角度についてのみ含まれる)、すなわち、50%減少すると想定されるものとする。すなわち、HEサイノグラムにおいて、1つおきのラインが欠落している。(しかしながら、これは、単なる例である。一般に、たとえば、n-1個おきの投影角度のみが取り込まれ、その場合、n-1個ごとのラインのみが対応するサイノグラム内、たとえば、第2のデータセット内または第2のサイノグラム情報内に存在することになる。)
HE画像内のそれぞれのピクセルまたはパッチの値であり、したがって、単一のピクセルの場合、ここでは[2000,1000,180]HEである。
簡単な概要を以下に与える。
以下において、例としてデータの取得について説明する。
以下において、例としてニューラルネットワークの(たとえば、ディープ畳み込みネットワークの、もしくは敵対的生成ネットワークの、またはU-Netアーキテクチャの)トレーニングについて説明する。これに関連して、ニューラルネットワークの機能についても論じる。
畳み込み層1(カーネルサイズ3×3、フィルタの数:20)
畳み込み層2(カーネルサイズ3×3、フィルタの数:30)
畳み込み層3(カーネルサイズ3×3、フィルタの数:5)
畳み込み層4(カーネルサイズ3×3、フィルタの数:4)
畳み込み層5(カーネルサイズ3×3、フィルタの数:3)
畳み込み層6(カーネルサイズ3×3、フィルタの数:1)
出力層(x dimまたはx次元:3、y dimまたはy次元:3、z dimまたはz次元:1)
ニューラルネットワークがトレーニングされた場合、最後に、欠落したHE投影が生成される可能性がある。たとえば、取得時に生成された必要な入力データ(LE投影およびHE投影)は、たとえば、(3px×3px)出力パッチがニューラルネットワークによって生成され得るように、5(15px×15px)パッチ(または領域)の対応するセットに分解される。最後に、投影を取得するために、これらは、(3px×3px)パッチで構成され得る。ネットワークのいくつかのアーキテクチャについて、ならびに/または入力および出力(第1および第2のサイノグラム情報およびギャップフィラーサイノグラム情報)のいくつかの選択について、たとえば、例において与えられているようなネットワークのアーキテクチャに起因して、たとえば、投影の端において位置する情報は、補間されない可能性があることに留意すべきである。この情報がCTの再構成に関連しない場合、たとえば、選択可能なグレー値を有するピクセルによって補填され得る。しかしながら、これらのピクセルも補間されるべきである場合、生成されたパッチ(たとえば、ギャップフィラーサイノグラム情報)によって再構成され得るHE投影が拡張されたサイズに対応するまで、入力投影(たとえば、第1のサイノグラム情報および第2のサイノグラム情報)は、たとえば、黒色ピクセルによって拡張され得る。
この手法において、上記で(たとえば、セクション8.2において)説明されたCNNを用いた手法におけるように、たとえば、5つの投影、すなわち、生成されるべきHE投影に隣接する(たとえば、第2のサイノグラム情報内のギャップに隣接する)HE投影およびLE投影(各々2つ、合わせて4つ)(たとえば、第1のサイノグラム情報および第2のサイノグラム情報のサイノグラム値またはサイノグラムライン)、ならびに生成されるべきHE投影に属するLE投影(たとえば、第1のサイノグラム情報のサイノグラム値またはサイノグラムライン)が入力データとして使用される。
以下は、本発明による実施形態によって達成され得る可能な利点のうちのいくつかのさらなる簡単な要約である。
以下において、本発明による実施形態の用途のいくつかの領域について説明する。
いくつかの態様についてデバイスの文脈内で説明されているとしても、デバイスのブロックまたは構造的構成要素が対応する方法ステップまたは方法ステップの特徴としても理解されるべきであるように、前記態様は、対応する方法の説明も表すことが理解される。これとの類推によって、方法ステップに関連して、または方法ステップとして説明されてきた態様は、対応するデバイスの対応するブロック、または詳細、または特徴の説明も表す。方法ステップのうちのいくつかまたはすべては、たとえば、マイクロプロセッサ、プログラム可能なコンピュータ、または電子回路などのハードウェアデバイスによって(またはハードウェアデバイスを使用しながら)実行され得る。いくつかの実施形態において、最も重要な方法ステップのうちの一部またはいくつかは、そのようなデバイスによって実行され得る。
102 検査対象
104 検出器
106 放射器(ソース)
110 コンピュータ断層撮影装置
214 検出器
216 エミッタ
500 方法
502 第1のサイノグラム情報
503 第2のサイノグラム情報
504 第1の領域
505 第2の領域
514 第1のサイノグラム再構成領域
515 サイノグラム再構成領域
520 ギャップ
543 出力サイノグラム情報
600 方法
602 第1のサイノグラム情報
603 第2のサイノグラム情報
604 空間的周囲
605 空間的周囲
614 領域
615 領域
620 ギャップ
700 方法
702 第1のサイノグラム情報
703 第2のサイノグラム情報
704 領域
705 領域
714 サイノグラム再構成領域
715 サイノグラム再構成領域
720 ギャップ
802 4×4ピクセル
804 8×8パッチ
Claims (20)
- ギャップフィラーサイノグラム情報を取得するための処理デバイス(100)であって、
第1のスペクトルパラメータに関連する第1のサイノグラム情報を取得し、
第2のスペクトルパラメータに関連する第2のサイノグラム情報を取得するように適合され、
前記第1のサイノグラム情報と前記第2のサイノグラム情報とに基づいて、前記第2のスペクトルパラメータに関連し、かつ前記第2のサイノグラム情報における1つのギャップ(520,620,720)を補填する、前記ギャップフィラーサイノグラム情報を取得するように適合されている、処理デバイス(100)。 - 前記ギャップ(520,620,720)が1つまたは複数のピクセルに対応する、請求項1に記載の処理デバイス(100)。
- 前記ギャップフィラーサイノグラム情報を取得して、前記第2のサイノグラム情報の分解能が向上したバージョンを取得するように適合されている、請求項1または2に記載の処理デバイス(100)。
- 前記第1のサイノグラム情報が、第1の角度分解能を示し、
前記第2のサイノグラム情報が、前記第1の角度分解能よりも低い第2の角度分解能を有し、
前記第2のサイノグラム情報の2つの角度値の間にある角度値について前記ギャップフィラーサイノグラム情報を取得するように適合されている、請求項1から3のいずれか一項に記載の処理デバイス(100)。 - 前記ギャップフィラーサイノグラム情報を取得するための前記第2のサイノグラム情報が、前記第2のサイノグラム情報の前記ギャップ(520,620,720)のサイノグラム情報近傍を含むサイノグラム情報である、請求項1から4のいずれか一項に記載の処理デバイス(100)。
- 前記ギャップに隣接する前記第2のサイノグラム情報の1つまたは複数のサイノグラム値と、加えて、前記ギャップに隣接する前記第1のサイノグラム情報の1つもしくは複数のサイノグラム値および/または前記ギャップに関連する前記第1のサイノグラム情報の1つもしくは複数のサイノグラム値とに基づいて、前記ギャップフィラーサイノグラム情報を取得するように適合されている、請求項1から5のいずれか一項に記載の処理デバイス(100)。
- 前記ギャップフィラーサイノグラム情報を取得するための前記第1のサイノグラム情報が、前記第1のサイノグラム情報の前記ギャップのサイノグラム情報近傍と、前記ギャップの第1のサイノグラム情報とを含むサイノグラム情報である、請求項1から6のいずれか一項に記載の処理デバイス(100)。
- 1回のスキャンで同時に、または2回のスキャンで順次に、前記第1のサイノグラム情報および前記第2のサイノグラム情報を取得するように適合されている、請求項1から7のいずれか一項に記載の処理デバイス(100)。
- 前記第1のサイノグラム情報が、異なる角度に関連付けられた複数の透過画像ラインまたは透過画像を含み、
前記第2のサイノグラム情報が、異なる角度に関連付けられた複数の透過画像ラインまたは透過画像を含み、
前記第1のサイノグラム情報および前記第2のサイノグラム情報が、マルチエネルギーコンピュータ断層撮影の異なる透視放射ビームエネルギーに関連付けられる、請求項1から8のいずれか一項に記載の処理デバイス(100)。 - ニューラルネットワークを使用しながら前記ギャップフィラーサイノグラム情報を取得するように適合されている、請求項1から9のいずれか一項に記載の処理デバイス(100)。
- 前記ニューラルネットワークが、畳み込みニューラルネットワーク、敵対的生成ネットワーク、およびU-Netのうちの少なくとも1つを含む、請求項10に記載の処理デバイス(100)。
- 請求項1から11のいずれか一項に記載の処理デバイス(100)である少なくとも1つの処理デバイス(100)を備える、コンピュータ断層撮影装置(110)。
- ギャップフィラーサイノグラム情報を取得する方法(400,500,600,700)であって、
第1のサイノグラム情報を取得するステップ(402)であって、前記第1のサイノグラム情報が第1のスペクトルパラメータに関連する情報を含む、ステップ(402)と、
第2のサイノグラム情報を取得するステップ(404)であって、前記第2のサイノグラム情報が第2のスペクトルパラメータに関連する情報を含む、ステップ(404)と、
前記第1のサイノグラム情報と前記第2のサイノグラム情報とに基づいて、前記第2のサイノグラム情報内のギャップ(520,620,720)を補填するギャップフィラーサイノグラム情報を決定するステップ(406)と
を含む方法(400,500,600,700)。 - 前記ギャップフィラーサイノグラム情報を決定するステップが、第1のサイノグラム情報と第2のサイノグラム情報とを含み、前記第1のサイノグラム情報および前記第2のサイノグラム情報が、各々、前記第2のサイノグラム情報の前記ギャップ(520,620,720)の空間的サイノグラム情報近傍を含み、前記第1のサイノグラム情報が、前記ギャップ(520,620,720)の第1のサイノグラム情報を含む、請求項13に記載の方法(400,500,600,700)。
- 前記第1のサイノグラム情報が、第1の角度分解能を示し、
前記第2のサイノグラム情報が、前記第1の角度分解能よりも小さい第2の角度分解能を示し、
前記ギャップフィラーサイノグラム情報を決定するステップが、
前記ギャップ(520,620,720)を前記ギャップフィラーサイノグラム情報で補填するステップ
を含む、請求項13または14に記載の方法(400,500,600,700)。 - 空間的サイノグラム情報近傍が、
(2p+1)×(2q+1) (i)
の近傍におけるサイノグラム情報を含み、
前記第1のサイノグラム情報のサイノグラム情報近傍が、座標を有するサイノグラム情報
([x+/-p,y+/-q,α]) (ii)
を含み、
前記第2のサイノグラム情報のサイノグラム情報近傍が、座標を有するサイノグラム情報
([x+/-p,y+/-q,α-r])および([x+/-p,y+/-q,α+r]) (iii)
を含み、
(i)、(ii)、および(iii)において、pが、投影角度αに対して垂直である第1の方向xにおけるピクセルワイズ偏差であり、qが、前記投影角度αの回転軸および前記第1の方向xに対して平行である第2の方向yにおけるピクセルワイズ偏差であり、rが角度偏差である、請求項13から15のいずれか一項に記載の方法(400,500,600,700)。 - 前記第1のサイノグラム情報と、前記第2のサイノグラム情報と、前記ギャップフィラーサイノグラム情報とに基づいて、ビーム硬化アーティファクトを除去するステップ、および/または
前記第1のサイノグラム情報と、前記第2のサイノグラム情報と、前記ギャップフィラーサイノグラム情報とに基づいて、調べられた対象の材質情報を決定するステップ
をさらに含む、請求項13から16のいずれか一項に記載の方法(400,500,600,700)。 - 前記ギャップフィラーサイノグラム情報を決定するステップの前に、
前記第2のサイノグラム情報に対する前記第1のサイノグラム情報の位置合わせを決定するステップと、
前記第2のサイノグラム情報に対する前記第1のサイノグラム情報の位置合わせを実行するステップと
を含む、請求項13から17のいずれか一項に記載の方法(400,500,600,700)。 - コンピュータによって実行されると、前記コンピュータに請求項13から18のいずれか一項に記載の方法(400,500,600,700)を実行させる命令を含む、コンピュータプログラム。
- コンピュータによって実行されると、前記コンピュータに請求項13から18のいずれか一項に記載の方法(400,500,600,700)を実行させる命令を記憶した、コンピュータ可読記憶媒体。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP21162349.1A EP4057229A1 (de) | 2021-03-12 | 2021-03-12 | Verarbeitungsvorrichtung zum erhalten einer lückenfüller-sinogramminformation, computertomograph, verfahren und computerprogramm |
EP21162349 | 2021-03-12 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022140410A true JP2022140410A (ja) | 2022-09-26 |
JP7318045B2 JP7318045B2 (ja) | 2023-07-31 |
Family
ID=74873612
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022037986A Active JP7318045B2 (ja) | 2021-03-12 | 2022-03-11 | ギャップフィラーサイノグラム情報を取得するための処理デバイス、コンピュータ断層撮影装置、方法、およびコンピュータプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20220292743A1 (ja) |
EP (1) | EP4057229A1 (ja) |
JP (1) | JP7318045B2 (ja) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009082250A (ja) * | 2007-09-28 | 2009-04-23 | Ge Medical Systems Global Technology Co Llc | X線ct装置 |
WO2014115625A1 (ja) * | 2013-01-28 | 2014-07-31 | 株式会社日立メディコ | X線ct装置及び画像再構成方法 |
WO2016017534A1 (ja) * | 2014-07-28 | 2016-02-04 | 株式会社日立メディコ | X線撮像装置および画像再構成方法 |
JP2020096693A (ja) * | 2018-12-17 | 2020-06-25 | キヤノンメディカルシステムズ株式会社 | X線ctシステム及び処理プログラム |
JP2020099662A (ja) * | 2018-12-20 | 2020-07-02 | キヤノンメディカルシステムズ株式会社 | X線ctシステム及び方法 |
JP2021010727A (ja) * | 2019-07-08 | 2021-02-04 | キヤノンメディカルシステムズ株式会社 | X線ctシステム及び医用処理装置 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106530366B (zh) | 2015-09-09 | 2019-04-16 | 清华大学 | 能谱ct图像重建方法及能谱ct成像系统 |
JP7362322B2 (ja) | 2019-07-08 | 2023-10-17 | キヤノンメディカルシステムズ株式会社 | X線ctシステム及び医用処理装置 |
-
2021
- 2021-03-12 EP EP21162349.1A patent/EP4057229A1/de active Pending
-
2022
- 2022-03-10 US US17/691,913 patent/US20220292743A1/en active Pending
- 2022-03-11 JP JP2022037986A patent/JP7318045B2/ja active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009082250A (ja) * | 2007-09-28 | 2009-04-23 | Ge Medical Systems Global Technology Co Llc | X線ct装置 |
WO2014115625A1 (ja) * | 2013-01-28 | 2014-07-31 | 株式会社日立メディコ | X線ct装置及び画像再構成方法 |
WO2016017534A1 (ja) * | 2014-07-28 | 2016-02-04 | 株式会社日立メディコ | X線撮像装置および画像再構成方法 |
JP2020096693A (ja) * | 2018-12-17 | 2020-06-25 | キヤノンメディカルシステムズ株式会社 | X線ctシステム及び処理プログラム |
JP2020099662A (ja) * | 2018-12-20 | 2020-07-02 | キヤノンメディカルシステムズ株式会社 | X線ctシステム及び方法 |
JP2021010727A (ja) * | 2019-07-08 | 2021-02-04 | キヤノンメディカルシステムズ株式会社 | X線ctシステム及び医用処理装置 |
Also Published As
Publication number | Publication date |
---|---|
EP4057229A1 (de) | 2022-09-14 |
JP7318045B2 (ja) | 2023-07-31 |
US20220292743A1 (en) | 2022-09-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11864939B2 (en) | Apparatus and method that uses deep learning to correct computed tomography (CT) with sinogram completion of projection data | |
JP7202302B2 (ja) | 断層撮影再構成に使用するためのデータのディープラーニングに基づく推定 | |
US11026642B2 (en) | Apparatuses and a method for artifact reduction in medical images using a neural network | |
US20200043204A1 (en) | Iterative image reconstruction framework | |
EP1522045B1 (en) | Motion artifact correction of tomographical images | |
JP5348855B2 (ja) | 対象の画像再構成方法およびその方法を実施するための装置 | |
JP5133690B2 (ja) | ボクセルに依存する補間を用いる画像再構成 | |
US8885903B2 (en) | Method and apparatus for statistical iterative reconstruction | |
US9824468B2 (en) | Dictionary learning based image reconstruction | |
US20200357148A1 (en) | A method of generating an enhanced tomographic image of an object | |
JP2004188163A (ja) | 断層撮影装置 | |
US7916828B1 (en) | Method for image construction | |
WO2020048865A1 (en) | A method of generating an enhanced tomographic image of an object | |
EP4071720A1 (en) | System and method for utilizing a deep learning network to correct for a bad pixel in a computed tomography detector | |
US20160300370A1 (en) | Tomography apparatus and method of reconstructing tomography image by using the tomography apparatus | |
Kim et al. | A streak artifact reduction algorithm in sparse‐view CT using a self‐supervised neural representation | |
US9965875B2 (en) | Virtual projection image method | |
KR101621815B1 (ko) | 컴퓨터 단층 촬영 영상 처리 장치 및 이를 이용한 3차원 복원 영상 생성 방법 | |
JP7318045B2 (ja) | ギャップフィラーサイノグラム情報を取得するための処理デバイス、コンピュータ断層撮影装置、方法、およびコンピュータプログラム | |
US9237873B2 (en) | Methods and systems for CT projection domain extrapolation | |
CN110073412B (zh) | 使用交替否定的图像噪声估计 | |
Dennerlein et al. | Geometric jitter compensation in cone-beam CT through registration of directly and indirectly filtered projections | |
US11921057B2 (en) | X-ray imaging device | |
KR102197635B1 (ko) | 의료영상 재구성에서 행렬의 변환을 통한 오류해결 및 계산속도 증진 시스템 및 방법 | |
WO2015173088A1 (en) | Computerized tomographic image exposure and reconstruction method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220511 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230222 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230227 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230526 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230619 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230719 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7318045 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |