JP7189940B2 - 画像中のノイズの低減 - Google Patents
画像中のノイズの低減 Download PDFInfo
- Publication number
- JP7189940B2 JP7189940B2 JP2020514334A JP2020514334A JP7189940B2 JP 7189940 B2 JP7189940 B2 JP 7189940B2 JP 2020514334 A JP2020514334 A JP 2020514334A JP 2020514334 A JP2020514334 A JP 2020514334A JP 7189940 B2 JP7189940 B2 JP 7189940B2
- Authority
- JP
- Japan
- Prior art keywords
- images
- training
- input
- image
- input images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012549 training Methods 0.000 claims description 237
- 238000013528 artificial neural network Methods 0.000 claims description 103
- 238000000034 method Methods 0.000 claims description 103
- 238000003384 imaging method Methods 0.000 claims description 47
- 238000012014 optical coherence tomography Methods 0.000 claims description 40
- 230000009467 reduction Effects 0.000 claims description 15
- 238000012935 Averaging Methods 0.000 claims description 14
- 210000001525 retina Anatomy 0.000 claims description 13
- 238000012545 processing Methods 0.000 claims description 8
- 210000000056 organ Anatomy 0.000 claims description 4
- 230000002708 enhancing effect Effects 0.000 claims 1
- 230000008569 process Effects 0.000 description 19
- 239000000523 sample Substances 0.000 description 19
- 230000033001 locomotion Effects 0.000 description 16
- 238000013527 convolutional neural network Methods 0.000 description 13
- 238000004590 computer program Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 8
- 230000002207 retinal effect Effects 0.000 description 7
- 238000002591 computed tomography Methods 0.000 description 6
- 238000003860 storage Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 238000007906 compression Methods 0.000 description 5
- 230000006835 compression Effects 0.000 description 5
- 230000003190 augmentative effect Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000035699 permeability Effects 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 238000009499 grossing Methods 0.000 description 2
- 230000003902 lesion Effects 0.000 description 2
- 238000002595 magnetic resonance imaging Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000002604 ultrasonography Methods 0.000 description 2
- 206010061818 Disease progression Diseases 0.000 description 1
- 238000012952 Resampling Methods 0.000 description 1
- 239000000654 additive Substances 0.000 description 1
- 230000000996 additive effect Effects 0.000 description 1
- 230000002547 anomalous effect Effects 0.000 description 1
- 210000001367 artery Anatomy 0.000 description 1
- 239000012472 biological sample Substances 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 210000005013 brain tissue Anatomy 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 210000003161 choroid Anatomy 0.000 description 1
- 210000001072 colon Anatomy 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 210000004087 cornea Anatomy 0.000 description 1
- 238000013144 data compression Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000005750 disease progression Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000011503 in vivo imaging Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 239000003973 paint Substances 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 210000003491 skin Anatomy 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 210000000515 tooth Anatomy 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 210000004127 vitreous body Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/003—Reconstruction from projections, e.g. tomography
- G06T11/008—Specific post-processing after tomographic reconstruction, e.g. voxelisation, metal artifact correction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/60—Rotation of whole images or parts thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/60—Image enhancement or restoration using machine learning, e.g. neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10101—Optical tomography; Optical coherence tomography [OCT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20216—Image averaging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30041—Eye; Retina; Ophthalmic
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Image Processing (AREA)
- Eye Examination Apparatus (AREA)
- Image Analysis (AREA)
- Apparatus For Radiation Diagnosis (AREA)
Description
複数の入力画像を撮像装置から取得するステップと、
前記入力画像のサブセットを識別するステップと、を含み、入力画像のサブセットの各入力画像が、当該サブセットのその他の入力画像と同一の対象物を表す。前記方法は、さらに、
複数のターゲット画像を生成するステップを含み、1つのターゲット画像が、前記サブセットのうちの1つのサブセットの前記入力画像を、ノイズを低減するように組み合わせることにより生成される。前記方法は、さらに、
複数のトレーニングペアを生成するステップを含み、1つのトレーニングペアが、
前記ターゲット画像のうちの1つと、
トレーニング画像と、を含み、当該トレーニング画像は、前記ターゲット画像のうちの前記1つに対応する前記サブセットの前記入力画像の全てにではないが少なくとも1つに基づいている。前記方法は、さらに、
前記複数のトレーニングペアを用いてニューラルネットワークをトレーニングするステップを含む。
撮像装置から画像を受信するための入力ユニットと、
前記画像を、トレーニングされたニューラルネットワークに従って処理して出力画像を生成するための制御ユニットと、を備え、
前記ニューラルネットワークは、複数の入力画像を撮像装置から取得するステップと当該入力画像のサブセットを識別するステップとにより作成され、入力画像のサブセットの各入力画像が、当該サブセットのその他の入力画像と同一の対象物を表す。前記ニューラルネットワークは、さらに、複数のターゲット画像を生成するステップにより作成され、1つのターゲット画像が、前記サブセットのうちの1つのサブセットの前記入力画像を、ノイズを低減するように組み合わせることにより生成される。前記ニューラルネットワークは、さらに、複数のトレーニングペアを生成するステップにより作成され、1つのトレーニングペアが、前記ターゲット画像のうちの1つと、トレーニング画像と、を含み、当該トレーニング画像は、前記ターゲット画像のうちの前記1つに対応する前記サブセットの前記入力画像の全てにではないが少なくとも1つに基づいている。前記ニューラルネットワークは、さらに、前記複数のトレーニングペアを用いて前記ニューラルネットワークをトレーニングするステップにより作成される。
複数の入力画像を撮像装置から取得するための入力ユニットと、
制御ユニットと、を備え、当該制御ユニットは、以下のように構成されている。すなわち、
前記入力画像のサブセットを識別する。入力画像のサブセットの各入力画像は、当該サブセットのその他の入力画像と同一の対象物を表している。
複数のターゲット画像を生成する。1つのターゲット画像が、前記サブセットのうちの1つのサブセットの前記入力画像を、ノイズを低減するように組み合わせることにより生成される。
複数のトレーニングペアを生成する。1つのトレーニングペアが、
前記ターゲット画像のうちの1つと、
トレーニング画像と、を含む。当該トレーニング画像は、前記ターゲット画像のうちの前記1つに対応する前記サブセットの前記入力画像の全てにではないが少なくとも1つに基づいている。前記制御ユニットは、さらに、
前記複数のトレーニングペアを用いてニューラルネットワークをトレーニングするように構成されている。
[式1]
で表されることができ、FCNNはニューラルネットワークを示す。ニューラルネットワークFCNNは、畳み込みニューラルネットワーク、又は、別のタイプの教師付き学習ニューラルネットワークであり得る。
が、対応するターゲット画像Sdenoisedと比較される。誤差値は、例えば、二乗差の合計として決定され得る。例えば、画像の各ピクセル又はボクセル対して二乗差が決定され得る。これらの二乗差が加算され得る。このプロセスは、ランダムに選択されたn個の画像の全てに対して繰り返され得る。n個の画像に対して補正をするためには、全ての二乗差の合計を計算してnで割ればよい。これにより、以下の例示的な
[式2]
が得られ、式中、Eは、決定された誤差値である。
2.位置合わせ後、n画像のセットを平均化して、クリーンIサンプルを構成する。
a.有用な例として、10回のBスキャンが同一の場所を示すデータセットが利用可能な場合、n=10が適切である。
b.BスキャンがCスキャンから抽出される場合、有用な例として、n=5が、平均画質と動きぼやけとの妥協点として良好である(個々のBスキャンが、より大きいCスキャンの異なる部分を表すため)。幾つかのアプリケーションにおいて、Cスキャンのデータセットの密度が非常に高いため、y軸上でのn=5が0.0586μmに等しくなり、これにより、動きぼやけ及びアーチファクトがかなり排除される。
3.n平均化された各グラウンドトゥルースに対し、その完全な集合である、m=1…n平均化ノイジーINサンプルを生成する。例えば、n=3であるクリーンIサンプルのために、ノイジーINサンプルの完全な集合は以下を含む。すなわち、
a.m=1のサンプルが3個
b.m=2のサンプルが3個
c.m=3のサンプル(「グラウンドトゥルース」画像)が1個
d.{IN,I}ペアは合計で6個。
4.データセットを増強する。以下の増強機能の各々は例であり、全ての実施例に必要なものではないことに留意されたい。また、以下に列挙するものに加えて、その他の増強を使用してもよい。
a.ランダムな水平反転(トレーニング画像及びターゲット画像の両方に適用される)。
b.ランダムなガウスノイズ(トレーニング画像に適用され、ターゲット画像には適用されない)。
c.ランダムなレイリーノイズ(トレーニング画像に適用され、ターゲット画像には適用されない)。
d.x軸及びz軸におけるランダムなガウスぼかし(トレーニング画像に適用され、ターゲット画像には適用されない)。
e.ランダムなシフト及びせん断(トレーニング画像及びターゲット画像の両方に適用される)を、ロバスト性を向上させるために適用できる。
5.図5(b)に示されているように、画像を、任意選択的にタイルに分割し得る。x軸に沿ったタイリングにより、より良好なトレーニング結果が得られ、また、z軸に沿ったタイリングよりも、アーチファクトがより少なくなる(なぜなら、zタイルは、アーチファクトを生じさせる純粋なノイズを含む場合があるからである)。幾つかの実施形態において、タイリングは、画像が正方形であるように、すなわち、タイルの各方向のピクセルの数が等しいか又はほぼ同一であるように行われる。
1. 画像中のノイズを低減するためのニューラルネットワークをトレーニングする方法であって、
複数の入力画像を撮像装置から取得するステップ(101)と、
前記入力画像のサブセットを識別するステップ(101a)と、を含み、入力画像のサブセットの各入力画像が、当該サブセットのその他の入力画像と同一の対象物を表し、前記方法が、さらに、
複数のターゲット画像を生成するステップ(104)を含み、1つのターゲット画像が、前記サブセットのうちの1つのサブセットの前記入力画像を、ノイズを低減するように組み合わせることにより生成され、前記方法が、さらに、
複数のトレーニングペアを生成するステップ(105)を含み、1つのトレーニングペアが、
前記ターゲット画像のうちの1つと、
トレーニング画像と、を含み、当該トレーニング画像が、前記ターゲット画像のうちの前記1つに対応する前記サブセットの前記入力画像の全てにではないが少なくとも1つに基づいており、前記方法が、さらに、
前記複数のトレーニングペアを用いてニューラルネットワークをトレーニングするステップ(107)を含む、前記方法。
2.前記トレーニング画像が1つ以上の入力画像に基づくのであれば、入力画像の前記サブセットの前記入力画像の全てではないが前記1つ以上を組み合わせることにより前記トレーニング画像のノイズを低減するように前記トレーニング画像を生成するステップをさらに含む、条項1に記載の方法。
3. 前記複数のトレーニングペアが、入力画像の第1の番号K1に基づいた第1のトレーニング画像を含む第1のトレーニングペアと、入力画像の第2の番号K2に基づいた第2のトレーニング画像を含む第2のトレーニングペアとを含み、前記第1の番号K1が前記第2の番号K2とは異なる、条項2に記載の方法。
4. 前記複数のトレーニングペアが、異なるトレーニング画像は異なる番号の入力画像に基づいているがターゲット画像は同一であるトレーニングペアを含む、条項3に記載の方法。
5. N個の入力画像の各ターゲット画像、及び、当該ターゲット画像の対応するサブセットに対して、トレーニング画像が、N個の入力画像の前記サブセットの、Nよりも小さい全ての正の整数値であるKに基づいて生成される、条項1~4のいずれかに記載の方法。
6.任意の値Kに対して、N個の入力画像の前記サブセットからのK個の入力画像の1つ以上の可能な選択が存在するならば、トレーニング画像が、N個の入力画像の前記サブセットからの前記K個の入力画像の1つ以上の選択のために生成される、条項1~5のいずれかに記載の方法。
7.前記入力画像を組み合わせる前記ステップが、
組み合わせた前記入力画像の対応する値を平均化するステップを含み、或いは、
さらに、サブセットの前記入力画像を、前記ターゲット画像及びトレーニング画像を生成する前に空間的に位置合わせするステップ、或いは
さらに、前記ニューラルネットワークをトレーニングする前に、ノイズを追加するか、又は、前記トレーニング画像の向きを変更することにより前記トレーニング画像を増強するステップを含む、条項1~6のいずれかに記載の方法。
8.前記入力画像が、光コンピュータ断層撮影、OCTにより取得される、条項1~7のいずれかに記載の方法。
9.入力画像の特定のサブセットの前記入力画像が、単一のCスキャン画像から抽出された複数のBスキャン画像を含む、条項8に記載の方法。
10.前記入力画像が網膜の少なくとも一部を示す、条項1~9のいずれかに記載の方法。
11.異なるサブセットの前記入力画像が、異なる被検体における同一タイプの組織又は同一タイプの器官の画像を含み、或いは、異なるサブセットの前記入力画像が、同一タイプの異なる対象物の画像を含む、条項1~10のいずれかに記載の方法。
12.前記複数の入力画像を取得するステップが、複数の異なる撮像装置から入力画像を取得するステップを含む、条項1~11のいずれかに記載の方法。
13.さらに、トレーニング後に、撮像装置から、前記ニューラルネットワークへの入力画像としての新しい画像を受信して供給し(108)、前記ニューラルネットワークからの出力画像を得るステップを含む、条項1~12のいずれかに記載の方法。
14.撮像装置のノイズ低減装置であって、
撮像装置から画像を受信するための入力ユニット(411)と、
前記画像を、トレーニングされたニューラルネットワーク(401)に従って処理して出力画像を生成するための制御ユニット(410)と、を備え、
前記ニューラルネットワーク(401)が、複数の入力画像を撮像装置から取得するステップと当該入力画像のサブセットを識別するステップとにより作成され、入力画像のサブセットの各入力画像が、当該サブセットのその他の入力画像と同一の対象物を表し、前記ニューラルネットワーク(401)が、さらに、複数のターゲット画像を生成するステップにより作成され、1つのターゲット画像が、前記サブセットのうちの1つのサブセットの前記入力画像を、ノイズを低減するように組み合わせることにより生成され、前記ニューラルネットワーク(401)が、さらに、複数のトレーニングペアを生成するステップにより作成され、1つのトレーニングペアが、前記ターゲット画像のうちの1つと、トレーニング画像と、を含み、当該トレーニング画像が、前記ターゲット画像のうちの前記1つに対応する前記サブセットの前記入力画像の全てにではないが少なくとも1つに基づいており、前記ニューラルネットワーク(401)が、さらに、前記複数のトレーニングペアを用いて前記ニューラルネットワークをトレーニングするステップにより作成される、ノイズ低減装置。
15.画像中のノイズを低減するためのニューラルネットワークをトレーニングするシステムであって、
複数の入力画像を撮像装置から取得するための入力ユニット(411)と、
制御ユニット(410)と、を備え、当該制御ユニット(410)が、
前記入力画像のサブセットを識別する(101a)ように構成されており、入力画像のサブセットの各入力画像が、当該サブセットのその他の入力画像と同一の対象物を表しており、前記制御ユニット(410)が、さらに、
複数のターゲット画像を生成する(104)ように構成されており、1つのターゲット画像が、前記サブセットのうちの1つのサブセットの前記入力画像を、ノイズを低減するように組み合わせることにより生成され、前記制御ユニット(410)が、さらに、
複数のトレーニングペアを生成する(105)ように構成されており、1つのトレーニングペアが、
前記ターゲット画像のうちの1つと、
トレーニング画像と、を含み、当該トレーニング画像が、前記ターゲット画像の前記1つに対応する前記サブセットの前記入力画像の全てにではないが少なくとも1つに基づいており、前記制御ユニット(410)が、さらに、
前記複数のトレーニングペアを用いてニューラルネットワーク(401)をトレーニングする(107)ように構成されている、システム。
Claims (12)
- 画像中のノイズを低減するためのニューラルネットワークをトレーニングする方法であって、
複数の入力画像を撮像装置から取得するステップ(101)と、
前記入力画像のサブセットを識別するステップ(101a)と、を含み、入力画像のサブセットの各入力画像が、当該サブセットのその他の入力画像と同一の対象物を表し、前記方法が、さらに、
複数のターゲット画像を生成するステップ(104)を含み、1つのターゲット画像が、前記サブセットのうちの1つのサブセットの前記入力画像を、ノイズを低減するように組み合わせることにより生成され、前記方法が、さらに、
複数のトレーニングペアを生成するステップ(105)を含み、1つのトレーニングペアが、
前記ターゲット画像のうちの1つと、
トレーニング画像と、を含み、当該トレーニング画像が、前記ターゲット画像のうちの前記1つに対応する前記サブセットの前記入力画像の全てにではないが少なくとも1つに基づいており、前記トレーニング画像が1つ以上の入力画像に基づくとき、入力画像の前記サブセットの前記入力画像の全てではないが前記1つ以上を組み合わせることにより前記トレーニング画像のノイズを低減するように前記トレーニング画像を生成し、前記方法が、さらに、
前記複数のトレーニングペアを用いてニューラルネットワークをトレーニングするステップ(107)を含み、前記ニューラルネットワークへの入力が、前記複数のトレーニングペアのうちの幾つかのトレーニングペアの前記トレーニング画像を含み、且つ、前記ニューラルネットワークのターゲット出力が、前記幾つかのトレーニングペアの前記ターゲット画像を含み、
前記複数のトレーニングペアが、入力画像の、正の整数値である第1の番号K1に基づいた第1のトレーニング画像を含む第1のトレーニングペアと、入力画像の、正の整数値である第2の番号K2に基づいた第2のトレーニング画像を含む第2のトレーニングペアとを含み、正の整数値である前記第1の番号K1が正の整数値である前記第2の番号K2とは異なり、
前記複数のトレーニングペアが、異なる番号の入力画像に基づく異なるトレーニング画像ではなく、同一のターゲット画像を有するトレーニングペアを含む、方法。 - Nは正の整数値であって、N個の入力画像の各ターゲット画像、及び、当該ターゲット画像の対応するサブセットに対して、トレーニング画像が、N個の入力画像の前記サブセットの、Nよりも小さい全ての正の整数値であるK3に基づいて生成される、請求項1に記載の方法。
- Nは正の整数値であって、任意の値K4に対して、N個の入力画像の前記サブセットからのK4個の入力画像の1つ以上の可能な選択が存在するならば、トレーニング画像が、N個の入力画像の前記サブセットからの前記K4個の入力画像の1つ以上の選択のために生成される、請求項1または2に記載の方法。
- 前記入力画像を組み合わせる前記ステップが、
組み合わせた前記入力画像の対応する値を平均化するステップを含み、或いは、
さらに、サブセットの前記入力画像を、前記ターゲット画像及びトレーニング画像を生成する前に空間的に位置合わせするステップ、或いは
さらに、前記ニューラルネットワークをトレーニングする前に、ノイズを追加するか、又は、前記トレーニング画像の向きを変更することにより前記トレーニング画像を増強するステップを含む、請求項1~3のいずれかに記載の方法。 - 前記入力画像が、光干渉断層撮影、OCTにより取得される、請求項1~4のいずれかに記載の方法。
- 入力画像の特定のサブセットの前記入力画像が、単一のCスキャン画像から抽出された複数のBスキャン画像を含む、請求項5に記載の方法。
- 前記入力画像が網膜の少なくとも一部を示す、請求項1~6のいずれかに記載の方法。
- 異なるサブセットの前記入力画像が、異なる被検体における同一タイプの組織又は同一タイプの器官の画像を含み、或いは、異なるサブセットの前記入力画像が、同一タイプの異なる対象物の画像を含む、請求項1~7のいずれかに記載の方法。
- 前記複数の入力画像を取得するステップが、複数の異なる撮像装置から入力画像を取得するステップを含む、請求項1~8のいずれかに記載の方法。
- さらに、トレーニング後に、撮像装置から、前記ニューラルネットワークへの入力画像としての新しい画像を受信して供給し(108)、前記ニューラルネットワークからの出力画像を得るステップを含む、請求項1~9のいずれかに記載の方法。
- 撮像装置のノイズ低減装置であって、
撮像装置から画像を受信するための入力ユニット(411)と、
前記画像を、トレーニングされたニューラルネットワーク(401)に従って処理して出力画像を生成するための制御ユニット(410)と、を備え、
前記ニューラルネットワーク(401)が、複数の入力画像を撮像装置から取得するステップと当該入力画像のサブセットを識別するステップとにより作成され、入力画像のサブセットの各入力画像が、当該サブセットのその他の入力画像と同一の対象物を表し、前記ニューラルネットワーク(401)が、さらに、複数のターゲット画像を生成するステップにより作成され、1つのターゲット画像が、前記サブセットのうちの1つのサブセットの前記入力画像を、ノイズを低減するように組み合わせることにより生成され、前記ニューラルネットワーク(401)が、さらに、複数のトレーニングペアを生成するステップにより作成され、1つのトレーニングペアが、前記ターゲット画像のうちの1つと、トレーニング画像と、を含み、当該トレーニング画像が、前記ターゲット画像のうちの前記1つに対応する前記サブセットの前記入力画像の全てにではないが少なくとも1つに基づいており、前記トレーニング画像が1つ以上の入力画像に基づくとき、入力画像の前記サブセットの前記入力画像の全てではないが前記1つ以上を組み合わせることにより、前記トレーニング画像のノイズを低減するように前記トレーニング画像を生成し、前記ニューラルネットワーク(401)が、さらに、前記複数のトレーニングペアを用いて前記ニューラルネットワークをトレーニングするステップにより作成され、前記ニューラルネットワークへの入力が、前記複数のトレーニングペアのうちの幾つかのトレーニングペアの前記トレーニング画像を含み、且つ、前記ニューラルネットワークのターゲット出力が、前記幾つかのトレーニングペアの前記ターゲット画像を含み、
前記複数のトレーニングペアが、入力画像の、正の整数値である第1の番号K1に基づいた第1のトレーニング画像を含む第1のトレーニングペアと、入力画像の、正の整数値である第2の番号K2に基づいた第2のトレーニング画像を含む第2のトレーニングペアとを含み、正の整数値である前記第1の番号K1が正の整数値である前記第2の番号K2とは異なり、前記複数のトレーニングペアが、異なる番号の入力画像に基づく異なるトレーニング画像ではなく、同一のターゲット画像を有するトレーニングペアを含む、ノイズ低減装置。 - 画像中のノイズを低減するためのニューラルネットワークをトレーニングするシステムであって、
複数の入力画像を撮像装置から取得するための入力ユニット(411)と、
制御ユニット(410)と、を備え、当該制御ユニット(410)が、
前記入力画像のサブセットを識別する(101a)ように構成されており、入力画像のサブセットの各入力画像が、当該サブセットのその他の入力画像と同一の対象物を表しており、前記制御ユニット(410)が、さらに、
複数のターゲット画像を生成する(104)ように構成されており、1つのターゲット画像が、前記サブセットのうちの1つのサブセットの前記入力画像を、ノイズを低減するように組み合わせることにより生成され、前記制御ユニット(410)が、さらに、
複数のトレーニングペアを生成する(105)ように構成されており、1つのトレーニングペアが、
前記ターゲット画像のうちの1つと、
トレーニング画像と、を含み、当該トレーニング画像が、前記ターゲット画像のうちの前記1つに対応する前記サブセットの前記入力画像の全てにではないが少なくとも1つに基づいており、前記トレーニング画像が1つ以上の入力画像に基づくとき、入力画像の前記サブセットの前記入力画像の全てではないが前記1つ以上を組み合わせることにより前記トレーニング画像のノイズを低減するように前記トレーニング画像を生成し、前記制御ユニット(410)が、さらに、
前記複数のトレーニングペアを用いてニューラルネットワーク(401)をトレーニングする(107)ように構成され、前記ニューラルネットワークへの入力が、前記複数のトレーニングペアのうちの幾つかのトレーニングペアの前記トレーニング画像を含み、且つ、前記ニューラルネットワークのターゲット出力が、前記幾つかのトレーニングペアの前記ターゲット画像を含み、
前記複数のトレーニングペアが、入力画像の、正の整数値である第1の番号K1に基づいた第1のトレーニング画像を含む第1のトレーニングペアと、入力画像の、正の整数値である第2の番号K2に基づいた第2のトレーニング画像を含む第2のトレーニングペアとを含み、正の整数値である前記第1の番号K1が正の整数値である前記第2の番号K2とは異なり、前記複数のトレーニングペアが、異なる番号の入力画像に基づく異なるトレーニング画像ではなく、同一のターゲット画像を有するトレーニングペアを含む、システム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP17172039.4 | 2017-05-19 | ||
EP17172039.4A EP3404611A1 (en) | 2017-05-19 | 2017-05-19 | Reducing noise in an image |
PCT/EP2018/062824 WO2018210978A1 (en) | 2017-05-19 | 2018-05-16 | Reducing noise in an image |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020521262A JP2020521262A (ja) | 2020-07-16 |
JP7189940B2 true JP7189940B2 (ja) | 2022-12-14 |
Family
ID=58994831
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020514334A Active JP7189940B2 (ja) | 2017-05-19 | 2018-05-16 | 画像中のノイズの低減 |
Country Status (7)
Country | Link |
---|---|
US (1) | US11170258B2 (ja) |
EP (2) | EP3404611A1 (ja) |
JP (1) | JP7189940B2 (ja) |
CN (1) | CN111095349B (ja) |
ES (1) | ES2958934T3 (ja) |
PL (1) | PL3625759T3 (ja) |
WO (1) | WO2018210978A1 (ja) |
Families Citing this family (44)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU2017382218B2 (en) | 2016-12-21 | 2023-05-11 | Acucela Inc. | Miniaturized mobile, low cost optical coherence tomography system for home based ophthalmic applications |
WO2019246412A1 (en) | 2018-06-20 | 2019-12-26 | Acucela Inc. | Miniaturized mobile, low cost optical coherence tomography system for home based ophthalmic applications |
JP6703319B1 (ja) * | 2018-06-29 | 2020-06-03 | 株式会社ニデック | 眼科画像処理装置、およびoct装置 |
CN109685743B (zh) * | 2018-12-30 | 2023-01-17 | 陕西师范大学 | 基于噪声学习神经网络模型的图像混合噪声消除方法 |
WO2020165196A1 (en) * | 2019-02-14 | 2020-08-20 | Carl Zeiss Meditec Ag | System for oct image translation, ophthalmic image denoising, and neural network therefor |
JP7260884B2 (ja) | 2019-02-21 | 2023-04-19 | ケース ウエスタン リザーブ ユニバーシティ | 三次元(3d)超音波画像の処理 |
US11257190B2 (en) * | 2019-03-01 | 2022-02-22 | Topcon Corporation | Image quality improvement methods for optical coherence tomography |
JP7258604B2 (ja) * | 2019-03-05 | 2023-04-17 | キヤノン株式会社 | 画像処理方法、画像処理装置、プログラム、および学習済みモデルの製造方法 |
JP7406892B2 (ja) * | 2019-03-11 | 2023-12-28 | キヤノン株式会社 | 医用画像処理装置、医用画像処理方法及びプログラム |
WO2020183799A1 (ja) * | 2019-03-11 | 2020-09-17 | キヤノン株式会社 | 医用画像処理装置、医用画像処理方法及びプログラム |
US11315221B2 (en) * | 2019-04-01 | 2022-04-26 | Canon Medical Systems Corporation | Apparatus and method for image reconstruction using feature-aware deep learning |
WO2020219915A1 (en) * | 2019-04-24 | 2020-10-29 | University Of Virginia Patent Foundation | Denoising magnetic resonance images using unsupervised deep convolutional neural networks |
DE102019205962A1 (de) * | 2019-04-25 | 2020-10-29 | Robert Bosch Gmbh | Verfahren zur Generierung von digitalen Bildpaaren als Trainingsdaten für Neuronale Netze |
KR102366557B1 (ko) * | 2019-05-03 | 2022-02-23 | 한국광기술원 | 컨볼루션 네트워크를 이용한 광단층 이미지 스페클 제어 장치 및 그 방법 |
US11100612B2 (en) * | 2019-05-07 | 2021-08-24 | Fei Company | Acquisition strategy for neural network based image restoration |
CN112102423A (zh) * | 2019-06-17 | 2020-12-18 | 通用电气精准医疗有限责任公司 | 医学成像方法及系统 |
GB2585232B (en) * | 2019-07-04 | 2021-12-08 | Apical Ltd | Image data pre-processing for neural networks |
JP7469858B2 (ja) | 2019-08-06 | 2024-04-17 | キヤノンメディカルシステムズ株式会社 | 医用画像処理装置、医用画像処理方法、および画像処理装置 |
WO2021045019A1 (ja) * | 2019-09-04 | 2021-03-11 | 株式会社ニデック | 眼科画像処理プログラムおよび眼科画像処理装置 |
US11798159B2 (en) * | 2019-09-20 | 2023-10-24 | The Board Of Trustees Of The Leland Stanford Junior University | Systems and methods for radiology image classification from noisy images |
JP2021060847A (ja) * | 2019-10-08 | 2021-04-15 | 株式会社ザクティ | ノイズ除去システム |
KR20210073135A (ko) * | 2019-12-10 | 2021-06-18 | 삼성전자주식회사 | 눈 복원 기반의 눈 추적 방법 및 장치 |
US11790492B1 (en) * | 2019-12-18 | 2023-10-17 | Thales Sa | Method of and system for customized image denoising with model interpretations |
US11730363B2 (en) | 2019-12-26 | 2023-08-22 | Acucela Inc. | Optical coherence tomography patient alignment system for home based ophthalmic applications |
CN111105417B (zh) * | 2020-03-17 | 2023-07-07 | 珠海欧比特宇航科技股份有限公司 | 影像噪声定位方法及系统 |
US12064281B2 (en) * | 2020-03-18 | 2024-08-20 | The Regents Of The University Of California | Method and system for denoising CT images using a neural network |
US11222406B2 (en) * | 2020-06-05 | 2022-01-11 | Canon Medical Systems Corporation | Method and system for training a machine learning-based image denoising system |
US11468551B1 (en) * | 2020-07-24 | 2022-10-11 | Norfolk Southern Corporation | Machine-learning framework for detecting defects or conditions of railcar systems |
US10959613B1 (en) | 2020-08-04 | 2021-03-30 | Acucela Inc. | Scan pattern and signal processing for optical coherence tomography |
WO2022035809A1 (en) | 2020-08-14 | 2022-02-17 | Acucela Inc. | System and method for optical coherence tomography a-scan decurving |
US11393094B2 (en) * | 2020-09-11 | 2022-07-19 | Acucela Inc. | Artificial intelligence for evaluation of optical coherence tomography images |
CN116322471A (zh) | 2020-09-30 | 2023-06-23 | 奥克塞拉有限公司 | 近视预测、诊断、计划和监测设备 |
EP4226316A1 (en) * | 2020-10-07 | 2023-08-16 | Hyperfine Operations, Inc. | Deep learning methods for noise suppression in medical imaging |
US20220138911A1 (en) * | 2020-11-05 | 2022-05-05 | Massachusetts Institute Of Technology | Neural network systems and methods for removing noise from signals |
CN112487880B (zh) * | 2020-11-13 | 2021-09-24 | 河北省科学院应用数学研究所 | 基于最大误差准则的中值滤波器、设备和系统 |
US11461881B2 (en) * | 2020-11-25 | 2022-10-04 | United States Of America As Represented By The Secretary Of The Navy | Method for restoring images and video using self-supervised learning |
US11497396B2 (en) | 2021-03-24 | 2022-11-15 | Acucela Inc. | Axial length measurement monitor |
CN113239980B (zh) * | 2021-04-23 | 2022-07-05 | 华中科技大学 | 基于小样本机器学习与超参数优化的水下目标检测方法 |
WO2022265321A1 (en) * | 2021-06-15 | 2022-12-22 | Samsung Electronics Co., Ltd. | Methods and systems for low light media enhancement |
CN113361455B (zh) * | 2021-06-28 | 2022-09-02 | 北京百度网讯科技有限公司 | 人脸鉴伪模型的训练方法、相关装置及计算机程序产品 |
US12112472B2 (en) | 2021-10-13 | 2024-10-08 | Canon U.S.A., Inc. | Artifact removal from multimodality OCT images |
US20230153957A1 (en) * | 2021-11-15 | 2023-05-18 | Samsung Electronics Co., Ltd. | System and method for training of noise model using noisy signal pairs |
CN114596896A (zh) * | 2022-03-15 | 2022-06-07 | 雷麟半导体科技(苏州)有限公司 | 一种基于忆阻器的图像降噪实现方法 |
CN114529484B (zh) * | 2022-04-25 | 2022-07-12 | 征图新视(江苏)科技股份有限公司 | 针对成像中直流分量变化的深度学习样本增强方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002373339A (ja) | 2001-06-15 | 2002-12-26 | Sony Corp | 画像処理装置および方法、記録媒体、並びにプログラム |
US20130051516A1 (en) | 2011-08-31 | 2013-02-28 | Carestream Health, Inc. | Noise suppression for low x-ray dose cone-beam image reconstruction |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11196296A (ja) * | 1997-12-26 | 1999-07-21 | Canon Inc | 画像処理装置および方法、非線形フィルタ、記録媒体 |
US8971612B2 (en) * | 2011-12-15 | 2015-03-03 | Microsoft Corporation | Learning image processing tasks from scene reconstructions |
CN103971342B (zh) * | 2014-05-21 | 2017-11-03 | 厦门美图之家科技有限公司 | 一种基于卷积神经网络的图像噪点检测方法 |
US9922272B2 (en) * | 2014-09-25 | 2018-03-20 | Siemens Healthcare Gmbh | Deep similarity learning for multimodal medical images |
US20160321523A1 (en) * | 2015-04-30 | 2016-11-03 | The Regents Of The University Of California | Using machine learning to filter monte carlo noise from images |
US10169864B1 (en) * | 2015-08-27 | 2019-01-01 | Carl Zeiss Meditec, Inc. | Methods and systems to detect and classify retinal structures in interferometric imaging data |
-
2017
- 2017-05-19 EP EP17172039.4A patent/EP3404611A1/en not_active Withdrawn
-
2018
- 2018-05-16 PL PL18723041.2T patent/PL3625759T3/pl unknown
- 2018-05-16 WO PCT/EP2018/062824 patent/WO2018210978A1/en active Application Filing
- 2018-05-16 JP JP2020514334A patent/JP7189940B2/ja active Active
- 2018-05-16 ES ES18723041T patent/ES2958934T3/es active Active
- 2018-05-16 EP EP18723041.2A patent/EP3625759B1/en active Active
- 2018-05-16 US US16/614,391 patent/US11170258B2/en active Active
- 2018-05-16 CN CN201880045967.8A patent/CN111095349B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002373339A (ja) | 2001-06-15 | 2002-12-26 | Sony Corp | 画像処理装置および方法、記録媒体、並びにプログラム |
US20130051516A1 (en) | 2011-08-31 | 2013-02-28 | Carestream Health, Inc. | Noise suppression for low x-ray dose cone-beam image reconstruction |
Also Published As
Publication number | Publication date |
---|---|
EP3625759A1 (en) | 2020-03-25 |
ES2958934T3 (es) | 2024-02-16 |
CN111095349A (zh) | 2020-05-01 |
CN111095349B (zh) | 2023-05-12 |
EP3625759C0 (en) | 2023-07-05 |
US20200234080A1 (en) | 2020-07-23 |
WO2018210978A1 (en) | 2018-11-22 |
EP3625759B1 (en) | 2023-07-05 |
US11170258B2 (en) | 2021-11-09 |
EP3404611A1 (en) | 2018-11-21 |
JP2020521262A (ja) | 2020-07-16 |
PL3625759T3 (pl) | 2024-01-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7189940B2 (ja) | 画像中のノイズの低減 | |
JP7518086B2 (ja) | Oct画像変換、眼科画像のノイズ除去のためのシステム、およびそのためのニューラルネットワーク | |
US11935241B2 (en) | Image processing apparatus, image processing method and computer-readable medium for improving image quality | |
JP6731919B2 (ja) | 光コヒーレンス断層撮影像におけるスペックル低減 | |
JP7566864B2 (ja) | ぼけを除去するための局所的長さスケールを使用した信号処理装置および方法 | |
JP2013525035A (ja) | 光コヒーレンストモグラフィのための動き補正および画像改善の方法および装置 | |
CN112136182B (zh) | 基于Gabor光学相干层析术血流成像的系统和方法 | |
JP2020039851A (ja) | 画像処理装置、画像処理方法、及びプログラム | |
WO2020183791A1 (ja) | 画像処理装置および画像処理方法 | |
CN107862724B (zh) | 一种改进的微血管血流成像方法 | |
JP2020163100A (ja) | 画像処理装置および画像処理方法 | |
US11972544B2 (en) | Method and apparatus for optical coherence tomography angiography | |
WO2020075719A1 (ja) | 画像処理装置、画像処理方法及びプログラム | |
CN117391955A (zh) | 基于多帧光学相干层析图像的凸集投影超分辨率重建方法 | |
Nienhaus et al. | Live 4D-OCT denoising with self-supervised deep learning | |
WO2021100694A1 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
CN109389567A (zh) | 一种快速光学成像数据的稀疏滤波方法 | |
Lee et al. | Lateral image reconstruction of optical coherence tomography using one‐dimensional deep deconvolution network | |
Li et al. | Oct image blind despeckling based on gradient guided filter with speckle statistical prior | |
JP2021069667A (ja) | 画像処理装置、画像処理方法及びプログラム | |
CN113643396B (zh) | 扫频oct图像处理方法及装置 | |
CN111951315B (zh) | 皮肤光学相干层析图像配准的方法 | |
JP2013505779A (ja) | 運動情報を用いて医用画像の質を改善するコンピュータ可読媒体、システム、および方法 | |
Adiga | Retinal Image Quality Improvement via Learning | |
CN117315068A (zh) | 基于三维卷积神经网络的无散斑光学相干层析成像方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A529 | Written submission of copy of amendment under article 34 pct |
Free format text: JAPANESE INTERMEDIATE CODE: A529 Effective date: 20200110 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210512 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220624 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220705 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220930 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221108 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221202 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7189940 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |