JP2023546208A - ノイズ除去のためのニューラルネットワークモデルをトレーニング及びチューニングする方法並びにシステム - Google Patents
ノイズ除去のためのニューラルネットワークモデルをトレーニング及びチューニングする方法並びにシステム Download PDFInfo
- Publication number
- JP2023546208A JP2023546208A JP2023524131A JP2023524131A JP2023546208A JP 2023546208 A JP2023546208 A JP 2023546208A JP 2023524131 A JP2023524131 A JP 2023524131A JP 2023524131 A JP2023524131 A JP 2023524131A JP 2023546208 A JP2023546208 A JP 2023546208A
- Authority
- JP
- Japan
- Prior art keywords
- noise
- image
- neural network
- network model
- value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003062 neural network model Methods 0.000 title claims abstract description 82
- 238000000034 method Methods 0.000 title claims abstract description 61
- 230000006870 function Effects 0.000 claims description 25
- 230000005855 radiation Effects 0.000 claims description 19
- 238000003384 imaging method Methods 0.000 claims description 17
- 238000013528 artificial neural network Methods 0.000 claims description 7
- 238000002591 computed tomography Methods 0.000 description 18
- 238000004590 computer program Methods 0.000 description 7
- 238000013459 approach Methods 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000007689 inspection Methods 0.000 description 3
- 238000010276 construction Methods 0.000 description 2
- 238000002059 diagnostic imaging Methods 0.000 description 2
- 210000003484 anatomy Anatomy 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000013170 computed tomography imaging Methods 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000007670 refining Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000013179 statistical model Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/60—Image enhancement or restoration using machine learning, e.g. neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10081—Computed x-ray tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30168—Image quality inspection
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Quality & Reliability (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Image Processing (AREA)
- Magnetic Resonance Imaging Apparatus (AREA)
Abstract
本開示の一実施形態は、ニューラルネットワークモデルをトレーニング及びチューニングする方法を提供する。この方法は、ノイズの多い画像を生成するために、物体の初期画像にシミュレートされたノイズを追加するステップであって、シミュレートされたノイズは、初期画像内の自然ノイズと同じ形式をとる、追加するステップと、初期画像をグラウンドトゥルースとして使用して、ノイズの多い画像についてニューラルネットワークモデルをトレーニングするステップであって、ニューラルネットワークモデルにおいて、チューニング変数が抽出又は生成され、チューニング変数は、使用中に除去されるノイズ量を決定する、トレーニングするステップと、初期画像のトレーニングコスト関数を最小化するチューニング変数の第1の値を識別するステップと、チューニング変数に、第1の値とは異なる第2の値を割り当てるステップであって、ニューラルネットワークモデルは、第2の値を使用したときに、第1の値を使用したときよりも多くのノイズをノイズの多い画像内に識別する、割り当てるステップとを含む。
Description
[0001] 本開示は、概して、画像のノイズ除去のためのニューラルネットワークモデルをトレーニング及びチューニングするシステム及び方法、並びにトレーニングされたニューラルネットワークを使用して画像のノイズ除去するシステム及び方法に関する。
[0002] 従来、ほとんどのイメージングモダリティには、最終画像にノイズといった特定のアーチファクトをもたらす収集物理特性又は再構成の作用がある。ノイズ除去ニューラルネットワークモデルを教師ありでトレーニングするために、ノイズの多い画像サンプルとノイズのない画像サンプルとのペアをニューラルネットワークモデルに提示し、ネットワークは、ノイズの多い画像をノイズ除去して対応するノイズのないグラウンドトゥルース画像を復元することでコスト関数を最小化しようとする。これは、ノイズの多い画像から差し引かれたときに、ノイズのない画像を生成又は近似するノイズ画像を予測することによって行われる。
[0003] しかし、CTスキャンのコンテキストでは、グラウンドトゥルースとして使用されるサンプル「ノイズレス」画像は真にノイズレスではなく、臨床的に適用される放射線量が限られているため、すでに準最適である。これにより、トレーニングに使用できる「ノイズレス」画像のノイズのベースラインが作成される。更に、死体スキャンのように高線量放射線を適用できる場合でも、機械用のスキャナなどのイメージングツールの構造によってノイズが発生する可能性がある。
[0004] いくつかの既存のアプローチは、高品質の反復再構成でグラウンドトゥルースサンプルを再構成することである。しかし、これらのアプローチでは、シミュレートされたクリーンな画像を開発する際に、他の画像アーチファクトが発生する可能性があり、これは、このような画像をグラウンドトゥルースとして用いてトレーニングされたAIネットワークを使用してノイズ除去された画像にも発生する可能性がある。そのため、AIネットワークが、実際の原因となっている解剖学的構造を検出することを学習しない可能性がある。
[0005] ネットワークがノイズのない画像を依然として生成できるように、準最適のノイズの多いグラウンドトゥルース画像を用いてAIニューラルネットワークモデルをトレーニングする方法が必要である。更に、トレーニングに用いられたグラウンドトゥルース画像よりも画質を向上させることができる、画像をノイズ除去する方法が必要である。
[0006] 背景技術セクションに記載されている説明は、背景技術セクションで言及されている又は背景技術セクションに関連付けられているという理由だけで、先行技術であると見なされるべきではない。背景技術セクションには、主題の技術の1つ以上の態様を説明する情報が含まれる場合がある。
[0007] ニューラルネットワークモデルをトレーニングする方法が提供される。この方法では、自然ノイズを含む初期画像を使用してネットワークをトレーニングする。このような方法では、シミュレートされたノイズが初期画像に追加される。いくつかの実施形態では、追加されたシミュレートされたノイズは、対応する画像内の自然ノイズと同じ形式をとる。ニューラルネットワークモデルは、スケーリング係数を適用しながら、自然ノイズの形式をとるノイズを除去するようにトレーニングされる。
[0008] 次に、ネットワークモデルは、ニューラルネットワークモデルの出力と初期画像との差を最小化することによって、ネットワークのコスト関数を最小化するスケーリング係数の第1の値を識別することによって最適化される。最適化を行った後、グラウンドトゥルースを再構成するのに必要であるよりも多くのノイズが除去されるようにスケーリング係数が修正される。
[0009] 本開示の一実施形態は、ニューラルネットワークモデルをトレーニング及びチューニングする方法を提供する。この方法は、物体の初期画像を提供するステップを含み得る。初期画像には自然ノイズが含まれている。この方法は更に、ノイズの多い画像を生成するために、物体の初期画像にシミュレートされたノイズを追加するステップを含み得る。シミュレートされたノイズは、初期画像内の自然ノイズと同じ形式をとる。この方法は更に、初期画像をグラウンドトゥルースとして使用して、ノイズの多い画像についてニューラルネットワークモデルをトレーニングするステップを含み得る。ニューラルネットワークモデルにおいて、チューニング変数が抽出又は生成され、チューニング変数は、使用中に除去されるノイズ量を決定する。この方法は更に、初期画像のトレーニングコスト関数を最小化するチューニング変数の第1の値を識別するステップを含み得る。この方法は更に、チューニング変数に、第1の値とは異なる第2の値を割り当てるステップを含み得る。ニューラルネットワークモデルは、第2の値を使用したときに、第1の値を使用したときよりも多くのノイズをノイズの多い画像内に識別する。
[0010] 本開示の別の実施形態は、ニューラルネットワークのトレーニング及びチューニングシステムを提供する。このシステムは、複数の命令を保存するメモリと、メモリに結合するプロセッサ回路とを含み得る。プロセッサ回路は、命令を実行して、物体の初期画像を提供することであって、初期画像には自然ノイズが含まれている、提供することと、ノイズの多い画像を生成するために、物体の初期画像にシミュレートされたノイズを追加することであって、シミュレートされたノイズは、初期画像内の自然ノイズと同じ形式をとる、追加することと、初期画像をグラウンドトゥルースとして使用して、ノイズの多い画像についてニューラルネットワークモデルをトレーニングすることであって、ニューラルネットワークモデルにおいて、チューニング変数が抽出又は生成され、チューニング変数は、使用中に除去されるノイズ量を決定する、トレーニングすることと、初期画像のトレーニングコスト関数を最小化するチューニング変数の第1の値を識別することと、チューニング変数に、第1の値とは異なる第2の値を割り当てることであって、ニューラルネットワークモデルは、第2の値を使用したときに、第1の値を使用したときよりも多くのノイズをノイズの多い画像内に識別する、割り当てることと、を実行する。
[0017] 本開示の原理による例示的実施形態の説明は、添付図面に関連して読まれることが意図されている。添付図面は、本明細書全体の一部と見なされる。本明細書に開示される本開示の実施形態の説明において、方向や向きへの任意の参照は、単に説明の便宜を図るためのものであり、本開示の範囲を限定することを意図したものではない。「下部」、「上部」、「水平」、「垂直」、「上方」、「下方」、「上」、「下」、「頂部」、及び「底部」、並びにそれらの派生語(例えば、「水平方向」、「下方向」、「上方向」など)などの相対的な用語は、議論下の図面で後に説明される又は示される向きを指すと解釈する必要がある。これらの相対的な用語は、説明の便宜を図るためのものであり、特に明記されていない限り、装置を特定の向きで構成又は操作することを要求するものではない。「取り付けられている」、「固定されている」、「接続されている」、「結合されている」、「相互接続されている」などの用語は、特に明記されていない限り、構造が直接的又は介在する構造を通じて間接的のいずれかで相互に固定される又は取り付けられる関係、並びに可動又は剛体の取り付け又は関係の両方を指している。更に、本開示の特徴及び利益は、例示された実施形態を参照して示されている。したがって、本開示は、単独で又は他の特徴の組み合わせで存在し得る特徴のいくつかの可能な非限定的な組み合わせを示すそのような例示的な実施形態に明示的に限定されるべきではない。本開示の範囲は、添付の特許請求の範囲で定義される。
[0018] 本開示は、現在企図される本開示を実践する1つ以上の最良の態様を説明するものである。本説明は、限定的な意味で理解されることを意図しておらず、本開示の利点及び構成について当業者に伝えるために添付の図面を参照して、説明目的のためにのみ提示された本開示の例を提供するものである。図面の様々な図では、同様の参照文字は、同様又は類似の部品を指定する。
[0019] 開示されている実施形態は、本明細書における革新的な教示の多くの有利な使用例にすぎないことに留意することが重要である。一般に、本出願の明細書に記載された記述は、必ずしも様々な請求項に係る開示のいずれかを限定するものではない。更に、一部の記述は、一部の発明特徴には当てはまるが、他の特徴には当てはならない場合がある。一般に、特に明記されていない限り、単数形の要素は複数形であってもよく、また、一般性を失うことなく、その逆もまた同様である。
[0020] ノイズ除去ニューラルネットワークモデルを教師ありでトレーニングするために、ノイズの多い画像サンプルとノイズのない画像サンプルとのペアをネットワークモデルに提示し、コスト関数を用いて、トレーニング中のノイズの予測外れに対してペナルティを科す。ノイズの多い画像は、ノイズ生成ツールを使用してノイズをシミュレートすることによって、ノイズレス画像サンプルから生成される。一例では、コンピュータ断層撮影(CT)の場合、臨床的に評価されたノイズ生成ツールによって、システムが、生データセットを形成する既存の臨床グラウンドトゥルースノイズレス画像に対して非常にリアルなノイズを作成することが可能にされる。
[0021] しかし、臨床グラウンドトゥルース画像は真にノイズレスであるわけではない。したがって、臨床的に適用される放射線量は、放射線科医によって「as-low-as-reasonably-achievable(ALARA)」(合理的に達成可能な限り低く)の原則に従って制限されるため、これらの画像はすでに準最適である場合がある。これにより、グラウンドトゥルース画像内のノイズのベースラインが作成されてしまい、トレーニングに要求される真のノイズレス画像が達成できなくなる。
[0022] 本開示は、準最適なノイズの多いグラウンドトゥルース画像を用いてネットワークをトレーニングするが、ネットワーク予測を使用して画像を過剰補正することによって、ノイズのない又はほぼノイズのない画像が得られる方法について教示する。このようにして、本開示は、医用画像のノイズ除去の領域でノイズのないグラウンドトゥルース画像が得られないという問題を解決するのに役立つ。
[0023] 本開示は、残差学習アプローチを使用する。つまり、ノイズ除去ネットワークは、入力画像内のノイズを予測するようにトレーニングされ、その後、入力画像はノイズ除去された画像を生成するために差し引かれる。これは、入力からノイズ除去された画像を直接予測するようにネットワークがトレーニングされる直接ノイズ除去とは異なる。ただし、本明細書に説明するシステム及び方法は、どちらのコンテキストでも適用できる。
[0024] 図1に示すように、本開示の一実施形態によるシステムは、処理デバイス100と、イメージングデバイス200とを含む。
[0025] 処理デバイス100は、画像をノイズ除去するためにニューラルネットワークモデルをトレーニングする。処理デバイス100は、メモリ113と、プロセッサ回路111とを含む。メモリ113は複数の命令を保存できる。プロセッサ回路111は、メモリ113に結合し、命令を実行できる。処理デバイス100は更に、入力部115と、出力部117とを含む。入力部115は、イメージングデバイス200から初期画像311といった情報を受信する。出力部117は、ユーザに情報を出力する。出力部にはモニタやディスプレイが含まれていてもよい。
[0026] いくつかの実施形態では、処理デバイス100はイメージングデバイス200に関連付けられている。いくつかの実施形態では、イメージングデバイス200は、画像データ処理デバイスと、物体(患者など)をスキャンする際にCT投影データを生成するスペクトルCTスキャンユニットとを含む。例えば、図2は、本開示の実施形態による例示的なイメージングデバイス200を示す。CTイメージングデバイスが示され、以下の説明はCT画像のコンテキストで行われるが、同様の方法を、他のイメージングデバイスのコンテキストでも適用可能であり、これらの方法が適用される画像は様々なやり方で取得できる。
[0027] 本開示の実施形態によるイメージングデバイスでは、CTスキャンユニットは、CT投影データを生成するために、物体の複数の軸方向スキャン及び/又はヘリカルスキャンを実行するのに適している。本開示の実施形態によるイメージングデバイスでは、CTスキャンユニットは、エネルギー分解光子計数画像検出器を含む。CTスキャンユニットは、投影データを取得する際に物体を横断する放射線を放射する放射線源を含む。
[0028] 例えば、CTスキャンユニット(コンピュータ断層撮影(CT)スキャナなど)は、固定ガントリ202と回転ガントリ204とを含み、回転ガントリ204は、固定ガントリ202によって回転可能に支持されている。回転ガントリ204は、投影データを取得する際に、物体の検査領域206の周りを、長手方向軸の周りに回転する。CTスキャンユニットは、検査領域206内で患者を支えるカウチといった支持体を含む。
[0029] CTスキャンユニットは、X線管などの放射線源208を含む。このX線管は、回転ガントリ204によって支持され、回転ガントリ204とともに回転する。放射線源は、アノードとカソードとを含む。アノード及びカソードの両端に印加された源電圧は、カソードからアノードへの電子を加速する。電子の流れは、検査領域206を横断する放射線を生成するように、カソードからアノードへの電流の流れを提供する。
[0030] CTスキャンユニットは検出器210を含む。この検出器は、放射線源208に対して検査領域206の反対側の角度アークの範囲を定める。検出器は、直接変換検出器ピクセルなどのピクセルの1次元又は2次元アレイを含む。検出器は検査領域を横断する放射線を検出し、そのエネルギーを示す信号を生成するのに適している。
[0031] イメージングデバイス200は更に、生成器211及び213を含む。生成器211は、検出器210からの信号に基づいて断層撮影投影データ209を生成する。生成器213は断層撮影投影データ209を受信し、断層撮影投影データ209に基づいて物体の初期画像311を生成する。初期画像311は、処理デバイス100の入力部115に入力される。
[0032] 図3は、本開示の一実施形態によるプロセッサデバイス100の概略図である。図4A及び図4Bは、図3の処理デバイス100を使用してニューラルネットワークモデル510をトレーニングするために使用する画像311、331へのシミュレートされたノイズ317、337の追加を示している。
[0033] 図3に示すように、処理デバイス100は、複数の機能ブロック131、133、135、137、及び139を含む。
[0034] 図3を参照すると、物体の初期画像311は、例えば入力部115を介してブロック131に提供される。図4Aに示すように、初期画像311には自然ノイズ315が含まれている。図3及び図4Aを参照して、ブロック131は、シミュレートされたノイズ317を物体の初期画像311に追加して、ノイズの多い画像313を生成する。シミュレートされたノイズ317は、初期画像311内の自然ノイズ315と同じ形式であってよい。
[0035] いくつかの実施形態では、図3及び図4Bを参照して、物体の複数の追加の初期画像331がブロック131に提供される。追加の初期画像331の各々には、自然ノイズ335が含まれている。ブロック131は更に、シミュレートされたノイズ337を追加の初期画像331の各々に追加して、複数の追加のノイズの多い画像333を形成する。シミュレートされたノイズ337は、複数の追加の初期画像331の各々における自然ノイズ335と同じ形式であってよい。いくつかの実施形態では、追加の初期画像331のうちの少なくとも1つにおける自然ノイズ335の形式は、初期画像311における自然ノイズ315の形式と異なっていてもよい。
[0036] 自然ノイズと同じ形式をとるシミュレートされたノイズを参照する場合、その形式は、ノイズの統計的又は数学的モデルに関連している。そのため、シミュレートされたノイズは、対応する初期画像で発生する自然ノイズと数学的に区別がつかないように作成される。
[0037] いくつかの実施形態では、シミュレートされたノイズ317は、対応する初期画像311を実際に生成したプロセスとは異なるイメージングプロセスの結果をエミュレートしようとする。そのため、初期画像311が標準放射線量(即ち、100%線量)を使用して標準条件下で撮影された場合、シミュレートされたノイズ317は、例えば、標準放射線量の半分(即ち、50%線量)で撮影した同じ内容の画像をエミュレートするように追加される。したがって、ノイズシミュレーションツールは、ノイズを追加して、いくつかのそのような変数に沿って代替イメージングプロセスをシミュレートできる。
[0038] 図3に示すように、ブロック133は、初期画像311をグラウンドトゥルースとして使用してノイズの多い画像313についてニューラルネットワークモデル510をトレーニングする。いくつかの実施形態では、ブロック133は、追加のノイズの多い画像333の各々についてニューラルネットワークモデル510を、対応する追加の初期画像331をそれらのトレーニング反復のためのグラウンドトゥルースとして使用してトレーニングする。
[0039] ニューラルネットワークモデル510では、チューニング変数が抽出又は生成される。チューニング変数は、ニューラルネットワークモデル510によって識別されたノイズの除去量を決定するスケーリング係数である。ブロック135は、トレーニングされたニューラルネットワークモデル510を受信する。ブロック135は、初期画像311のトレーニングコスト関数を最小化するチューニング変数の第1の値513を識別又は受信する。
[0040] チューニング変数は、モデル内で暗黙的に与えられる。例えば、いくつかの実施形態では、ネットワークの最終層の最終値にいくつかの重みを掛けてから合計する。この場合、チューニング変数は、これらの重みの成分である。このようなチューニング変数の導出については、以下により詳細に説明する。いくつかの実施形態では、チューニング変数は、ネットワーク内の全ての重みに適用されるスカラー係数である。他の実施形態では、チューニング変数はそれ自体が係数のアレイである。これは、例えば、ニューラルネットワークモデル又は複数の結合ニューラルネットワークモデルが、相関のない複数の成分を予測する場合である。
[0041] 変数を分離することにより、ニューラルネットワークモデル510は、ノイズの多い画像313のどの要素がノイズ315、317であるかを別々に決定することができ、また、チューニング変数に適切な値を選択することによって、これらの要素の形式のノイズの除去量を決定する。しかしながら、初期画像311内のノイズ315は、ノイズの多い画像313内でシミュレートされたノイズ317と同じ形式をとるため、ニューラルネットワークモデル510はこれらの2つのタイプのノイズを区別できない。
[0042] したがって、シミュレートされたノイズ317は非常にリアルであるため、ネットワークモデル510は、このシミュレートされたノイズをグラウンドトゥルース画像311内のノイズ315と区別するメカニズムを学習できず、とても単純なやり方を使用して予測付きの見込みのある結果を出して、トレーニングコスト関数を満たすことしかできない。その結果、ネットワーク510はチューニング変数を使用してノイズ予測をスケーリングして、理想的な結果を達成する。
[0043] コスト関数によって決定されるチューニング変数の「正しい」予測は、最終的なノイズレベルを低下させるが、ノイズを除去しすぎると、グラウンドトゥルース画像311に属するノイズ315の一部も除去してしまうので、これはコスト関数によって阻止される。したがって、コスト関数を最小化することによって生成されるチューニング変数の第1の値513を適用することによって、十分なノイズ315、317が識別及び/又は除去され、したがって、シミュレートされたノイズの除去とグラウンドトゥルースノイズの除去との平衡が達成される。
[0044] したがって、チューニング変数に第1の値513を使用すると、ノイズの多い出力画像がもたらされる。ブロック137は、チューニング変数に第2の値515を割り当てる。第2の値515は第1の値513とは異なり、ニューラルネットワークモデル510は、第2の値515を使用した場合、第1の値513を使用した場合よりもノイズの多い画像313内により多くのノイズを識別する。そのため、ニューラルネットワークモデル510が、認識された形式をとる画像内のノイズ315、317を識別した後、第2の値515を使用すると、第1の値513を用いた場合よりも多くのノイズが除去され、これにより、結果として得られるノイズ除去された画像315は、初期画像311よりもクリーンになる。
[0045] 一実施形態では、出力部117はトレーニングされたニューラルネットワークモデル510をユーザに提供し、チューニング変数の潜在的な第2の値の範囲514をユーザに提供する。そのため、ユーザはチューニング変数に最適な第2の値515を選択できる。
[0046] 更に、上で述べたように、はっきりとしたグラウンドトゥルース画像311、331はノイズ315、335を有し、互いに異なる形式をとる。そのため、ノイズ317、337がシミュレートされ、画像に追加されると、シミュレートされたノイズによってとられる形式又はモードは、グラウンドトゥルース画像内のノイズ315、335と一致する。これにより、ニューラルネットワークモデルは、一度トレーニングされると、異なるノイズモードを検出できる。いくつかの実施形態では、異なるトレーニング画像311、331から抽出されるノイズの異なるモードに、異なるチューニング変数を適用できる。
[0047] ブロック139は、第2の値515を有するトレーニングされたニューラルネットワークモデル510を、ノイズ除去する画像391に適用する。ノイズ除去する画像391には、初期画像311、ノイズの多い画像313、及び初期画像311やノイズの多い画像313以外の二次画像が含まれる。例えば、ノイズ除去する画像391は、新しい臨床的に取得された、ノイズ除去する画像である。
[0048] ブロック139は、画像391をノイズ除去するようにニューラルネットワークモデル510を構成する。いくつかの実施形態では、ブロック139は、ノイズの多い画像313内のノイズを予測し、ノイズの多い画像313から予測されたノイズを除去してクリーンな又はノイズ除去された画像315を生成するようにニューラルネットワークモデル510を構成する。通常、ニューラルネットワークモデル510が有効である場合、ノイズの多い画像313に適用される第2の値515を使用すると、初期画像311よりもクリーンなノイズ除去された画像315がもたらされる。
[0049] 別の実施形態では、ニューラルネットワークモデル510に加えて、フィルタを使用して予測されたノイズを更に成形できる。これは、トレーニング中にシミュレートされたノイズのパワースペクトルがわずかに異なる場合に役立つ。これにより、ニューラルネットワークモデル510がシミュレートされたノイズに向かって予測を変更することを促進する。
[0050] 図5A~図5Cは、本開示の一実施形態によるノイズ除去の結果サンプルを示している。
[0051] 図5Aは、本明細書で説明するニューラルネットワークモデル510を実現するために、以下に説明する方法を適用できるノイズの多い画像391を示している。ノイズの多い画像391は、本明細書で説明する方法を使用してトレーニングされたノイズ除去畳み込みニューラルネットワーク(CNN)510を適用するシステムに入力される。このようなノイズの多い画像391が、前述したように、チューニング変数に第1の値513を使用してノイズ除去されると、出力は、ノイズのベースラインを含む、前述の初期画像311、331にあるノイズのレベルとよく似ている。図5Bの画像では、チューニング変数に第1の値513を使用して、入力から予測されたノイズが差し引かれ、CNNベースライン結果が得られる。
[0052] 図5Cは、チューニング変数に第2の値515を使用してノイズ除去された画像の例を示している。図5Cの画像では、剰余(residuum)がより多く差し引かれ、ノイズがほとんどない「過剰補正」画像がもたらされる。
[0053] チューニング変数の理想値は、特定の損失関数について数学的に予測できる。一例では、ニューラルネットワークモデル510のトレーニング中に、この方法は、所与のサンプルに対して次の値を最小化しようとする。このサンプルは画像の3Dパッチである:
(nij,sim-f(μj,real+nj,real+nij,sim))2
(nij,sim-f(μj,real+nj,real+nij,sim))2
[0054] このコンテキストでは、μj,realは、画像のj番目の実際のノイズのないパッチであり、nj,realは、j番目のパッチ上にある実際のノイズであり、したがって、これは、グラウンドトゥルースの一部であり、nij,simは、j番目のパッチ上でシミュレートされたi番目のノイズであり、これは、そのパッチの想定された真の「剰余」であり、ここで、f(.)と指定される関数は、本明細書で説明するニューラルネットワークである。
[0055] ネットワークが良い働きをすると仮定すると、ネットワーク、即ち、f(μj,real+nj,real+nij,sim)は、真の「剰余」を近似し、推定値
を生成する。しかし、シミュレートされたノイズがよくシミュレートされている場合、ニューラルネットワークモデル510は、実際のノイズとシミュレートされたノイズとを区別できず、したがって、
となる。
[0057] 上述したように、ニューラルネットワークモデル510は、学習可能係数βを用いて出力をスケーリングすることを学習できる。このスケーリング係数は、ネットワークの外側に移動できる。更に、実際のノイズとシミュレートされたノイズと推定値とは相関しておらず、平均が0であると仮定できる。
[0060] このモデルに基づいて、また、上述したように、ネットワークは、関数のコスト項を最小化する学習可能係数βに適切な値を学習する。したがって、モデルで使用する学習可能係数βの最良値は、後にノイズの完全除去にはつながらない。これは、トレーニングに使用されるシミュレートされたノイズのみに関連するコスト関数部分を最小化するβの値ではないからである。入力画像に基づいてネットワークによって予測されるノイズは、代わりに係数β<1.0でスケーリングされる。
[0061] これに基づいて、チューニング変数λの第1の値(この特定のコスト関数では1.0)が剰余を不完全に除去し、ノイズ除去の最終出力が、出力=入力-λ*剰余である場合、λ>=1.0であるようにチューニング変数λに第2の値を割り当てる。
[0063] これを線量率α、即ち、トレーニング中に使用されるCT画像でノイズが多くなるように、元の線量レベルよりも低い線量レベルをシミュレートするために使用される係数に合わせて調整できる。この場合、次のようになる:
[0065] このようにして、学習可能係数βは、1-αに対して最小化される。ここで、αはトレーニングに使用される線量係数である。予測されるノイズの減算を増加させるために使用される最適なチューニング変数λは、
によって計算され、これは、学習された係数βを乗法的に補償する。したがって、αが0.5の場合、チューニング変数
の最適値は2であり、αが0.25の場合、
の最適値は1.33である。
[0066] 図6は、本開示の一実施形態による方法のフローチャートである。
[0067] 一実施形態による例示的な方法では、図6の601では、物体の初期画像311が処理デバイス100に提供される。通常、初期画像の311には、少なくともある程度の自然ノイズ315がある。次に、図6の603では、シミュレートされたノイズ317が物体の初期画像311に追加されて、ノイズの多い画像313が生成される。シミュレートされたノイズ317は、通常、初期画像内にすでにある自然ノイズ315と同じ形式又は類似の形式をとる。
[0068] 次に、シミュレートされたノイズ317を追加した後、図6の605では、ニューラルネットワークモデル510は、初期画像311をグラウンドトゥルースとして使用して、ノイズの多い画像313についてトレーニングされる。ニューラルネットワークを使用して生成されるニューラルネットワークモデル510を最適化するために使用されるコスト関数は、通常、トレーニング中に関数値を最小化するために使用できるチューニング変数を含む。次に、図6の607では、ニューラルネットワークモデル510のチューニング変数の第1の値513が識別又は受信される。第1の値513はコスト関数を最小化する値であり、したがって、トレーニングプロセスによって自動的に生成される。
[0069] 典型的には、ニューラルネットワークモデル510をトレーニングする方法の第1の部分は何度も繰り返される。したがって、ステップ601~605は異なる初期画像で何度も繰り返される。時間の経過とともに、トレーニング方法がコスト関数を最小化しようとする最中に、第1の値513が607で識別される。なお、この方法は、追加のトレーニング画像が利用可能になるほどにステップ601~605を繰り返し続け、これにより、第1の値513に選択される値が改善して精緻化される。
[0070] チューニング変数の第1の値513を識別した後、モデルをチューニングし、ニューラルネットワークモデル510の出力を改善するために、第2の値515を求めることができる。いくつかの実施形態では、第2の値515はトレーニング中にニューラルネットワークモデル510によって識別される。図6に示すような他の実施形態では、609において、トレーニングされたニューラルネットワークモデル510は、ユーザ又はモデルを実装するシステムに提供される可能性のある第2の値の範囲を識別する。
[0071] 次に、図6の611では、チューニング変数の第2の値515が割り当てられる。これは、ネットワークモデル510自体によって選択された後、又はユーザによって選択された後に行われる。通常、第2の値515、又は第2の値が選ばれる範囲は、ニューラルネットワークモデル510が第2の値515を適用したときに、第1の値513を適用したときよりも多くのノイズを画像内に識別するように選択される。このようにして、画像から除去されるノイズを識別するために第2の値515を使用すると、第1の値513を使用する場合よりも多くのノイズが除去される。
[0072] 一実施形態では、図6の613では、トレーニングされたニューラルネットワークモデル510が、チューニングされたチューニング変数に第2の値515を使用して、物体のノイズの多い画像313に適用されて、評価されるノイズの多い画像313内のノイズを予測する。これにより、ニューラルネットワークモデル510の有効性を、最初に提供されていたグラウンドトゥルース画像311と比較して評価できる。別の実施形態において、図6の613では、最初に提供された画像におけるニューラルネットワークモデル510の有効性を評価するために、トレーニングされたニューラルネットワークモデル510が、チューニングされたチューニング変数の第2の値515を使用して、物体の初期画像311に適用されて、初期画像311内のノイズを予測する。
[0073] いくつかの実施形態では、第2の値515は、上述のように、定式的に、又は定式的に決定された範囲から選択される。このような選択のベースには、例えば、トレーニングデータに追加される追加のノイズをシミュレートするために使用される線量係数が含まれる。
[0074] 次に、図6の615では、結果として得られた画像、即ち、クリーンな又はノイズ除去された画像315に基づいて、トレーニングされたニューラルネットワークモデル510が評価される。一例では、画像315の生成は、例えば、初期画像311内のノイズの画像を生成し、ノイズの多い画像313から当該ノイズの画像を差し引くことによって行われる。
[0075] 図6の方法は、ステップ601~605のニューラルネットワークモデル510のトレーニングの1回の反復を示している。上述したように、これらの最初のいくつかのステップは何度も繰り返すことができ、その後に方法に示すチューニングプロセスが続けられる。そのため、そのような繰り返しが多く実行され、それぞれに、対のグラウンドトゥルース画像311、331と、シミュレートされたノイズが追加されている対応するノイズの多い画像313、333とが含まれていることが理解されるであろう。これらの画像のそれぞれにおいて、ノイズの多い画像でシミュレートされたノイズ317、337は、対応するグラウンドトゥルース画像内のノイズ315、335と同じ形式になるようにシミュレートされる。このようにして、ニューラルネットワークモデル510は、グラウンドトゥルース画像311、331内のノイズ315、335と、対応するノイズの多い画像313、333内の対応するシミュレートされたノイズ317、337とを区別できないようなやり方でトレーニングされる。
[0076] いくつかの実施形態では、グラウンドトゥルース画像311、331内のノイズ315、335の形式は、互いに区別するように意図的に選択される場合があり、これにより、ニューラルネットワークモデル510は、医用イメージングによく見られる様々な潜在的なノイズモードを識別するようにトレーニングされる。
[0077] 図7は、本開示の別の実施形態による画像をノイズ除去する方法のフローチャートである。
[0078] 一実施形態による例示的な方法では、図7の701では、放射線源208と、放射線源208によって放出された放射線を検出する放射線感受性検出器210とを使用して、物体の断層撮影投影データ209が受信される。703において、断層撮影投影データ209は、トレーニングされたニューラルネットワークを使用してノイズ除去される画像391を形成するために使用される。次に、705では、ノイズ除去される画像391が処理デバイス100に提供される。
[0079] 707では、前述のネットワークモデルといった、物体の画像内のノイズを予測するトレーニングされたニューラルネットワークモデル510が受信される。709では、ニューラルネットワークモデル510のチューニング変数の第1の値513が識別又は受信される。チューニング変数の第1の値513は、トレーニングコスト関数を最小化するために、ネットワークモデルのトレーニング中に使用されるチューニング変数の値である。第1の値513の識別は、ノイズ除去方法を実施しているシステムにそのような値を提供することによって行われる場合もあれば、第1の値513が存在し、当該第1の値513がトレーニング中に決定され、ニューラルネットワークモデル510の使用中に適用される第2の値515が前述したようなやり方で第1の値とは異なる、ネットワークモデルを単に提供することによって行われる場合もあることが理解されるであろう。
[0080] したがって、711では、第1の値513とは異なる第2の値515がチューニング変数に選択される。この第2の値515は、トレーニング中にニューラルネットワークモデル510のコスト関数を最小化した第1の値513とは異なり、第2の値515を使用すると、第1の値513を使用して予測されるよりも多くのノイズがノイズの多い画像内に識別又は予測されるように選択される。
[0081] 次に、図7の713では、トレーニングされたニューラルネットワークモデル510が、チューニングされたチューニングに第2の値515を使用して、物体の画像391に適用されて、画像391をノイズ除去する。次に、図7の715では、トレーニングされたニューラルネットワークモデル510は、ユーザに出力されるクリーンな又はノイズ除去された画像315を生成する。クリーンな画像の生成は、ノイズの多い画像391内の予測されるノイズのマップを生成し、次に、画像からノイズを差し引くか、又は画像から識別されたノイズを直接除去することによって行われる。
[0082] いくつかの実施形態では、チューニング変数の実際の第2の値515は、当該第2の値がモデルの理想的な値であるように、ニューラルネットワークモデル510とともにユーザに提供される。他の実施形態では、ユーザ又はモデルを実装しているシステムが解析されている特定の画像391又はシナリオに対して理想的な第2の値を選択できるように、潜在的な第2の値515の範囲が提供される。
[0083] 本明細書で説明する方法はCTスキャン画像のコンテキストで説明されているが、様々な医用イメージング技術を含む様々なイメージング技術が企図されており、様々なイメージング技術を使用して生成された画像は、本明細書で説明する方法を使用して効果的にノイズ除去できることが理解されるであろう。
[0084] 本開示による方法は、コンピュータ実施方法としてコンピュータで実施することも、専用ハードウェアで実施することも、その両方の組み合わせで実施することもできる。本開示による方法の実行可能コードは、コンピュータプログラム製品に保存されていてもよい。コンピュータプログラム製品の例としては、メモリデバイス、光ストレージデバイス、集積回路、サーバ、オンラインソフトウェアなどが挙げられる。好ましくは、このコンピュータプログラム製品は、当該プログラム製品がコンピュータ上で実行されたときに、本開示による方法を実行するために、コンピュータ可読媒体に保存された非一時的なプログラムコードを含む。実施形態では、コンピュータプログラムは、当該コンピュータプログラムがコンピュータ上で実行されるときに、本開示による方法の全てのステップを実行するように適応されたコンピュータプログラムコードを含む。コンピュータプログラムは、コンピュータ可読媒体に具現化されてもよい。
[0085] 本開示は、いくつかの実施形態に関してある程度詳細に且つある程度特殊性を持って説明されているが、任意のそのような特殊性、実施形態、又は任意の特定の実施形態に限定されるべきであることを意図されておらず、むしろ、先行技術を考慮して、添付の特許請求の範囲の可能な限り広い解釈を提供し、したがって、本開示の意図された範囲を効果的に包含するように、添付の特許請求の範囲を参照して解釈されるべきである。
[0086] 本明細書に記載されている全ての例及び条件付き言語は、本開示の原理と、発明者が技術を促進するために貢献した概念とを読者が理解するのを助ける教育的目的を意図しており、また、そのような具体的に記載された例及び条件に限定されないと解釈されるべきである。更に、本開示の原理、態様、及び実施形態だけでなく、それらの具体例を詳述する、本明細書における全ての記述は、その構造的及び機能的な均等物を包含することを意図している。また、そのような均等物には、現在知られている均等物だけでなく、将来開発される均等物、即ち、構造に関係なく、同じの機能を実行するように開発された要素の両方が含まれることを意図している。
Claims (15)
- ニューラルネットワークモデルをトレーニング及びチューニングする方法であって、前記方法は、
物体の初期画像を提供するステップであって、前記初期画像には自然ノイズが含まれている、提供するステップと、
ノイズの多い画像を生成するために、前記物体の前記初期画像にシミュレートされたノイズを追加するステップであって、前記シミュレートされたノイズは、前記初期画像内の前記自然ノイズと同じ形式をとる、追加するステップと、
前記初期画像をグラウンドトゥルースとして使用して、前記ノイズの多い画像についてニューラルネットワークモデルをトレーニングするステップであって、前記ニューラルネットワークモデルにおいて、チューニング変数が抽出又は生成され、前記チューニング変数は、使用中に除去されるノイズ量を決定する、トレーニングするステップと、
前記初期画像のトレーニングコスト関数を最小化する前記チューニング変数の第1の値を識別するステップと、
前記チューニング変数に、前記第1の値とは異なる第2の値を割り当てるステップであって、前記ニューラルネットワークモデルは、前記第2の値を使用したときに、前記第1の値を使用したときよりも多くのノイズを前記ノイズの多い画像内に識別する、割り当てるステップと、
を含む、方法。 - 物体の複数の追加の初期画像を提供するステップと、
複数の追加のノイズの多い画像を形成するために、前記初期画像の各々に前記シミュレートされたノイズを追加するステップであって、前記シミュレートされたノイズは、前記複数の追加の初期画像の各々における自然ノイズと同じ形式をとる、追加するステップと、
対応する初期画像をグラウンドトゥルースとして使用して、前記追加のノイズの多い画像の各々について前記ニューラルネットワークモデルをトレーニングするステップと、
を更に含む、請求項1に記載の方法。 - 前記追加の初期画像のうちの少なくとも1つにおける前記自然ノイズの形式は、前記初期画像における前記自然ノイズの形式とは異なる、請求項2に記載の方法。
- 前記チューニング変数に前記第2の値を用いて、トレーニングされた前記ニューラルネットワークモデルをノイズ除去される二次画像に適用するステップを更に含む、請求項1に記載の方法。
- トレーニングされた前記ニューラルネットワークモデルをユーザに提供するステップと、前記チューニング変数の潜在的な第2の値の範囲を提供するステップと、を更に含む、請求項1に記載の方法。
- 前記ニューラルネットワークモデルは、前記初期画像内のノイズの画像を生成し、前記ノイズの多い画像から、ノイズの前記画像を差し引いて、クリーンな画像を生成する、請求項1に記載の方法。
- 前記チューニング変数は、前記ニューラルネットワークモデルによって識別されるノイズの除去量を決定するスケーリング係数である、請求項1に記載の方法。
- 請求項1に記載の方法を実行するステップと、
前記チューニング変数に前記第2の値を使用して、前記物体のノイズの多い画像に、トレーニングされた前記ニューラルネットワークモデルを適用して、前記ノイズの多い画像内のノイズを予測するステップと、
前記ノイズの多い画像から、予測されたノイズを除去して、ノイズ除去された画像を生成するステップと、
を含む、ノイズ除去方法。 - ノイズ除去された前記画像をユーザに出力するステップを更に含む、請求項8に記載のノイズ除去方法。
- 放射線源と、前記放射線源によって放出された放射線を検出する放射線感受性検出器とを使用して、物体の断層撮影投影データを受信するステップと、
前記断層撮影投影データに基づいて、ノイズ除去する前記物体の画像を生成するステップと、
を更に含む、請求項8に記載のノイズ除去方法。 - ニューラルネットワークのトレーニング及びチューニングシステムであって、
複数の命令を保存するメモリと、
前記メモリに結合したプロセッサとを含み、前記プロセッサが、前記命令を実行して、
物体の初期画像を提供することであって、前記初期画像には自然ノイズが含まれている、提供することと、
ノイズの多い画像を生成するために、前記物体の前記初期画像にシミュレートされたノイズを追加することであって、前記シミュレートされたノイズは、前記初期画像内の前記自然ノイズと同じ形式をとる、追加することと、
前記初期画像をグラウンドトゥルースとして使用して、前記ノイズの多い画像についてニューラルネットワークモデルをトレーニングすることであって、前記ニューラルネットワークモデルにおいて、チューニング変数が抽出又は生成され、前記チューニング変数は、使用中に除去されるノイズ量を決定する、トレーニングすることと、
前記初期画像のトレーニングコスト関数を最小化する前記チューニング変数の第1の値を識別することと、
前記チューニング変数に、前記第1の値とは異なる第2の値を割り当てることであって、前記ニューラルネットワークモデルは、前記第2の値を使用したときに、前記第1の値を使用したときよりも多くのノイズを前記ノイズの多い画像内に識別する、割り当てることとを実行する、システム。 - 前記プロセッサ回路は、
物体の複数の追加の初期画像を提供することと、
複数の追加のノイズの多い画像を形成するために、前記初期画像の各々に前記シミュレートされたノイズを追加することであって、前記シミュレートされたノイズは、前記複数の追加の初期画像の各々における自然ノイズと同じ形式をとる、追加することと、
対応する初期画像をグラウンドトゥルースとして使用して、前記追加のノイズの多い画像の各々について前記ニューラルネットワークモデルをトレーニングすることと、
を更に実行する、請求項11に記載のシステム。 - 前記追加の初期画像のうちの少なくとも1つにおける前記自然ノイズの形式は、前記初期画像における前記自然ノイズの形式とは異なる、請求項12に記載のシステム。
- 請求項12に記載のニューラルネットワークのトレーニング及びチューニングシステムを含むノイズ除去システムであって、
前記プロセッサ回路は更に、前記命令を実行して、
前記チューニング変数に第2の値を使用して、前記物体のノイズの多い画像に、トレーニングされた前記ニューラルネットワークモデルを適用して、前記ノイズの多い画像内のノイズを予測し、
前記ノイズの多い画像から、予測されたノイズを除去して、ノイズ除去された画像を生成する、ノイズ除去システム。 - 放射線源と、前記放射線源によって放出された放射線を検出する放射線感受性検出器とを使用して、物体の断層撮影投影データを受信し、
前記断層撮影投影データに基づいて、前記物体の初期画像を生成するイメージングデバイスを更に含む、請求項14に記載のシステム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US202063104382P | 2020-10-22 | 2020-10-22 | |
US63/104,382 | 2020-10-22 | ||
PCT/EP2021/078507 WO2022084157A1 (en) | 2020-10-22 | 2021-10-14 | Method and system for training and tuning neural network models for denoising |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023546208A true JP2023546208A (ja) | 2023-11-01 |
Family
ID=78179441
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023524131A Pending JP2023546208A (ja) | 2020-10-22 | 2021-10-14 | ノイズ除去のためのニューラルネットワークモデルをトレーニング及びチューニングする方法並びにシステム |
Country Status (5)
Country | Link |
---|---|
US (1) | US20230394630A1 (ja) |
EP (1) | EP4232997A1 (ja) |
JP (1) | JP2023546208A (ja) |
CN (1) | CN116670707A (ja) |
WO (1) | WO2022084157A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115439451B (zh) * | 2022-09-09 | 2023-04-21 | 哈尔滨市科佳通用机电股份有限公司 | 一种铁路货车转向架弹簧托板的去噪检测方法 |
-
2021
- 2021-10-14 US US18/032,357 patent/US20230394630A1/en active Pending
- 2021-10-14 EP EP21791380.5A patent/EP4232997A1/en active Pending
- 2021-10-14 JP JP2023524131A patent/JP2023546208A/ja active Pending
- 2021-10-14 CN CN202180072203.XA patent/CN116670707A/zh active Pending
- 2021-10-14 WO PCT/EP2021/078507 patent/WO2022084157A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
WO2022084157A1 (en) | 2022-04-28 |
CN116670707A (zh) | 2023-08-29 |
EP4232997A1 (en) | 2023-08-30 |
US20230394630A1 (en) | 2023-12-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111492406B (zh) | 训练机器学习算法的方法、图像处理系统和图像重建方法 | |
RU2709437C1 (ru) | Способ обработки изображений, устройство обработки изображений и носитель данных | |
Zhang et al. | MetaInv-Net: Meta inversion network for sparse view CT image reconstruction | |
Van Gompel et al. | Iterative correction of beam hardening artifacts in CT | |
KR20190133728A (ko) | 딥러닝에 기초한 단층촬영 재구성 | |
JP2020099662A (ja) | X線ctシステム及び方法 | |
US9261467B2 (en) | System and method of iterative image reconstruction for computed tomography | |
JP2021521962A (ja) | ディープラーニング技法を用いたx線データの金属影響ボクセル表現の自動補正 | |
JP2021013736A (ja) | X線診断システム、画像処理装置及びプログラム | |
CN112348936B (zh) | 一种基于深度学习的低剂量锥束ct图像重建方法 | |
JP2016536032A (ja) | 電子密度画像の連結再構成 | |
Ding et al. | Image‐domain multimaterial decomposition for dual‐energy CT based on prior information of material images | |
CN108280859B (zh) | 一种采样角度受限下的ct稀疏投影图像重建方法及装置 | |
JP2023546208A (ja) | ノイズ除去のためのニューラルネットワークモデルをトレーニング及びチューニングする方法並びにシステム | |
WO2023279316A1 (zh) | 一种基于去噪打分匹配网络的pet重建方法 | |
CN115943420A (zh) | 图像处理装置、图像处理方法、训练装置、训练方法、以及程序 | |
CN113096210A (zh) | 图像重建方法、装置、电子设备和存储介质 | |
Elbakri et al. | Statistical x-ray-computed tomography image reconstruction with beam hardening correction | |
CN115797485A (zh) | 图像去伪影方法、系统、电子设备及存储介质 | |
CN113168721A (zh) | 用于重建对象的图像的系统 | |
Barkan et al. | A mathematical model for adaptive computed tomography sensing | |
Wang et al. | Hybrid-Domain Integrative Transformer Iterative Network for Spectral CT Imaging | |
US20230029188A1 (en) | Systems and methods to reduce unstructured and structured noise in image data | |
Kiss et al. | Reconstruction of pixel-based and geometric objects by discrete tomography. Simulation and physical experiments | |
CN114638907B (zh) | 基于深度学习的骨硬化伪影校正方法及装置 |