JP7284688B2 - Image processing device, image processing method, image processing program and recording medium - Google Patents
Image processing device, image processing method, image processing program and recording medium Download PDFInfo
- Publication number
- JP7284688B2 JP7284688B2 JP2019198342A JP2019198342A JP7284688B2 JP 7284688 B2 JP7284688 B2 JP 7284688B2 JP 2019198342 A JP2019198342 A JP 2019198342A JP 2019198342 A JP2019198342 A JP 2019198342A JP 7284688 B2 JP7284688 B2 JP 7284688B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- output
- processing
- noise
- diagram showing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 110
- 238000003672 processing method Methods 0.000 title claims description 18
- 238000013527 convolutional neural network Methods 0.000 claims description 96
- 230000013016 learning Effects 0.000 claims description 53
- 238000000034 method Methods 0.000 claims description 30
- 230000006870 function Effects 0.000 claims description 17
- 238000012935 Averaging Methods 0.000 claims description 5
- 238000010586 diagram Methods 0.000 description 101
- 230000000052 comparative effect Effects 0.000 description 47
- 238000004088 simulation Methods 0.000 description 8
- 238000011156 evaluation Methods 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 6
- 239000004744 fabric Substances 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000002073 fluorescence micrograph Methods 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000003813 thin hair Effects 0.000 description 1
Images
Description
本発明は、画像処理装置、画像処理方法、画像処理プログラムおよび記録媒体に関するものである。 The present invention relates to an image processing device, an image processing method, an image processing program, and a recording medium.
多くの場合、撮像等により取得された画像にはノイズが重畳されている。例えば、蛍光顕微鏡等の光学装置により撮像して取得される画像は、露光時間が短いほど、多くのノイズが重畳されている。また、PET装置、X線CT装置およびMRI装置等において再構成処理により作成される断層画像にも、多くのノイズが重畳されている。対象画像に重畳されるノイズを低減する様々な技術が知られている。 In many cases, noise is superimposed on an image acquired by imaging or the like. For example, the shorter the exposure time, the more noise is superimposed on an image captured by an optical device such as a fluorescence microscope. A lot of noise is also superimposed on a tomographic image created by reconstruction processing in a PET device, an X-ray CT device, an MRI device, or the like. Various techniques are known for reducing noise superimposed on a target image.
メディアン方式によるノイズ低減技術は、対象画像の各画素について周辺画素の輝度の並び替えにより輝度が大きく異なるものがないようにする。しかし、このノイズ低減技術は、画像の解像度を低下させ、画像の変形を伴う等の問題点を有している。 The noise reduction technique based on the median method prevents pixels of a target image from having a large luminance difference by rearranging the luminance of surrounding pixels. However, this noise reduction technique has problems such as lowering the resolution of the image and deforming the image.
スムージング方式によるノイズ低減技術は、その原理上、画像の空間分解能を低下させるという問題点を有している。ただし、Non-Local Meansフィルタ等のエッジ保存タイプのノイズ低減技術が提案されたことにより、対象画像においてエッジを残しながら、エッジでない箇所を滑らかにすることが可能になった。 The noise reduction technique based on the smoothing method has a problem of lowering the spatial resolution of the image due to its principle. However, the proposal of edge-preserving noise reduction techniques such as the Non-Local Means filter has made it possible to smooth non-edge portions while leaving edges in the target image.
また、近年では、深層ニューラルネットワークの一種である畳み込みニューラルネットワーク(Convolutional Neural Network: CNN)を利用したDeep Image Prior技術が注目されている。このノイズ低減技術は、対象画像中の意味のある構造の方がランダムなノイズより早く学習される(すなわち、ランダムなノイズは学習されにくい)というCNNの性質を利用して、対象画像のノイズを低減する(非特許文献1~3)。
Also, in recent years, attention has been focused on Deep Image Prior technology using a convolutional neural network (CNN), which is a type of deep neural network. This noise reduction technique utilizes the property of CNN that meaningful structures in target images are learned faster than random noise (that is, random noise is difficult to learn), and reduces noise in target images. (Non-Patent
従来のノイズ低減技術は、ノイズを低減したい対象画像が一つしかない場合や、対象画像のSN比が低い場合(対象画像において信号成分に対してノイズが無視できない比率で重畳している場合)には、ノイズを効果的に低減することが困難である。 Conventional noise reduction technology is used when there is only one target image for which noise is to be reduced, or when the SN ratio of the target image is low (when noise is superimposed on the signal component in the target image at a ratio that cannot be ignored). However, it is difficult to reduce noise effectively.
本発明は、上記問題点を解消する為になされたものであり、対象画像が一つしかない場合や対象画像のSN比が低い場合であっても該対象画像のノイズを効果的に低減することができる画像処理装置および画像処理方法を提供することを目的とする。 The present invention has been made to solve the above problems, and effectively reduces noise in a target image even when there is only one target image or when the SN ratio of the target image is low. It is an object of the present invention to provide an image processing apparatus and an image processing method that can
本発明の画像処理装置は、(1) 複数のランダムノイズ画像それぞれについて、該ランダムノイズ画像を入力画像とし対象画像を教師画像として畳み込みニューラルネットワークを繰り返し学習させ、その繰り返し学習の後に畳み込みニューラルネットワークから出力される画像を中間画像として取得する第1処理部と、(2) 第1処理部により取得された複数の中間画像に基づいて、対象画像からノイズが低減された出力画像を作成する第2処理部と、を備える。 The image processing apparatus of the present invention includes: (1) For each of a plurality of random noise images, the convolutional neural network is repeatedly trained using the random noise image as an input image and the target image as a teacher image, and after the repeated learning, the convolutional neural network (2) a first processing unit that acquires an image to be output as an intermediate image; and a processing unit.
本発明の画像処理装置の一側面では、第1処理部は、繰り返し学習の過程で畳み込みニューラルネットワークから出力される画像と対象画像との間の差が目標範囲内になったときに繰り返し学習を終了し、その終了時に畳み込みニューラルネットワークから出力される画像を中間画像として取得するのが好適である。第1処理部は、畳み込みニューラルネットワークとして非エンコーダ・デコーダ形式のものを用いるのが好適である。第1処理部は、複数のランダムノイズ画像それぞれについて中間画像を取得する処理のうちの何れか2以上の処理を並列的に行うのが好適である。 In one aspect of the image processing apparatus of the present invention, the first processing unit performs iterative learning when the difference between the image output from the convolutional neural network and the target image falls within a target range in the process of iterative learning. It is preferable to obtain the image that is finished and output from the convolutional neural network at the time of its finish as the intermediate image. The first processing unit preferably uses a non-encoder/decoder type convolutional neural network. It is preferable that the first processing unit performs in parallel any two or more of the processes of obtaining intermediate images for each of the plurality of random noise images.
本発明の画像処理装置の他の一側面では、第2処理部は、複数の中間画像のうちの何れかを入力画像とし他の何れかを教師画像としてNoise2Noise方式により畳み込みニューラルネットワークを学習させることで出力画像を作成するのが好適である。第2処理部は、複数の中間画像の平均をとることで出力画像を作成するのが好適である。 In another aspect of the image processing apparatus of the present invention, the second processing unit uses one of the plurality of intermediate images as an input image and one of the others as a teacher image to make the convolutional neural network learn by the Noise2Noise method. is preferably used to create the output image. Preferably, the second processing unit creates an output image by averaging a plurality of intermediate images.
本発明の画像処理方法は、(1) 複数のランダムノイズ画像それぞれについて、該ランダムノイズ画像を入力画像とし対象画像を教師画像として畳み込みニューラルネットワークを繰り返し学習させ、その繰り返し学習の後に畳み込みニューラルネットワークから出力される画像を中間画像として取得する第1処理ステップと、(2) 第1処理ステップにおいて取得された複数の中間画像に基づいて、対象画像からノイズが低減された出力画像を作成する第2処理ステップと、を備える。 In the image processing method of the present invention, (1) for each of a plurality of random noise images, the convolutional neural network is repeatedly trained using the random noise image as an input image and the target image as a teacher image, and after the iterative learning, the convolutional neural network (2) a first processing step of obtaining an image to be output as an intermediate image; and a processing step.
本発明の画像処理方法の一側面では、第1処理ステップにおいて、繰り返し学習の過程で畳み込みニューラルネットワークから出力される画像と対象画像との間の差が目標範囲内になったときに繰り返し学習を終了し、その終了時に畳み込みニューラルネットワークから出力される画像を中間画像として取得するのが好適である。第1処理ステップにおいて、畳み込みニューラルネットワークとして非エンコーダ・デコーダ形式のものを用いるのが好適である。第1処理ステップにおいて、複数のランダムノイズ画像それぞれについて中間画像を取得する処理のうちの何れか2以上の処理を並列的に行うのが好適である。 In one aspect of the image processing method of the present invention, in the first processing step, iterative learning is performed when the difference between the image output from the convolutional neural network and the target image in the process of iterative learning falls within a target range. It is preferable to obtain the image that is finished and output from the convolutional neural network at the time of its finish as the intermediate image. Preferably, in the first processing step, the convolutional neural network is of the non-encoder-decoder type. In the first processing step, it is preferable to perform in parallel any two or more of the processes of acquiring intermediate images for each of the plurality of random noise images.
本発明の画像処理方法の他の一側面では、第2処理ステップにおいて、複数の中間画像のうちの何れかを入力画像とし他の何れかを教師画像としてNoise2Noise方式により畳み込みニューラルネットワークを学習させることで出力画像を作成するのが好適である。第2処理ステップにおいて、複数の中間画像の平均をとることで出力画像を作成するのが好適である。 In another aspect of the image processing method of the present invention, in the second processing step, one of the plurality of intermediate images is used as an input image and any other of the intermediate images is used as a teacher image to train a convolutional neural network by a Noise2Noise method. is preferably used to create the output image. Preferably, in the second processing step, an output image is created by averaging a plurality of intermediate images.
本発明の画像処理プログラムは、上記の本発明の画像処理方法の第1処理ステップおよび第2処理ステップをコンピュータに実行させるためのものである。本発明の記録媒体は、上記の本発明の画像処理プログラムを記録したコンピュータ読み取り可能なものである。 An image processing program of the present invention is for causing a computer to execute the first processing step and the second processing step of the image processing method of the present invention. A recording medium of the present invention is a computer-readable medium recording the image processing program of the present invention.
本発明によれば、対象画像が一つしかない場合や対象画像のSN比が低い場合であっても、該対象画像のノイズを効果的に低減することができる。 According to the present invention, even when there is only one target image or when the SN ratio of the target image is low, the noise of the target image can be effectively reduced.
以下、添付図面を参照して、本発明を実施するための形態を詳細に説明する。なお、図面の説明において同一の要素には同一の符号を付し、重複する説明を省略する。本発明は、これらの例示に限定されるものではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the accompanying drawings. In the description of the drawings, the same elements are denoted by the same reference numerals, and overlapping descriptions are omitted. The present invention is not limited to these exemplifications, but is indicated by the scope of the claims, and is intended to include all modifications within the meaning and scope of equivalents of the scope of the claims.
図1は、本実施形態の画像処理装置1の構成を示す図である。画像処理装置1は、対象画像Aに重畳されているノイズを低減して出力画像Dを作成する装置であって、第1処理部10および第2処理部20を備える。第1処理部10は、複数(N個)のランダムノイズ画像B1~BNそれぞれについて、該ランダムノイズ画像Bnを入力画像とし対象画像Aを教師画像として畳み込みニューラルネットワーク(CNN)を繰り返し学習させ、その繰り返し学習の後に該CNNから出力される画像を中間画像Cnとして取得する。第2処理部20は、第1処理部10により取得された複数(N個)の中間画像C1~CNに基づいて、対象画像Aからノイズが低減された出力画像Dを作成する。
FIG. 1 is a diagram showing the configuration of an
N個のランダムノイズ画像B1~BNおよびN個の中間画像C1~CNは、対象画像Aと同一サイズのものである。ランダムノイズ画像B1~BNは、何らかの意味のある構造を有する必要はなく、ノイズのみからなる画像であってよい。Nは、好適には16以上の整数であり、更に好適には50以上の整数である。nは1以上N以下の各整数である。Nの値が大きいほど、ノイズ低減効果が大きくなることが期待されるが、一方で、処理時間が長くなり、ノイズ低減効果が飽和してくるので、Nの上限値は例えば200程度であるのが好適である。第1処理部10で用いるCNNは、エンコーダ・デコーダ形式の特徴を有しない形式(非エンコーダ・デコーダ形式)のものであるのが好適であり、例えば、ResNet形式のものが好適である。
The N random noise images B 1 to B N and the N intermediate images C 1 to C N are of the same size as the target image A. The random noise images B 1 -B N need not have any meaningful structure and may be images consisting only of noise. N is preferably an integer of 16 or more, and more preferably an integer of 50 or more. n is each integer of 1 or more and N or less. It is expected that the larger the value of N, the greater the noise reduction effect. is preferred. The CNN used in the
画像処理装置1は、コンピュータを含む構成とすることができる。画像処理装置1は、各種の処理を行うCPUやGPU等を含む演算部と、画像等を表示する液晶ディスプレイ等を含む表示部と、処理条件等の入力を受け付けるキーボードやマウス等を含む入力部と、画像データ等を記憶するハードディスクドライブ、RAMおよびROM等を含む記憶部とを備える。
The
また、画像処理装置1の記憶部は、次に説明する本実施形態の画像処理方法の第1処理ステップS1および第2処理ステップS2をコンピュータに実行させるための画像処理プログラムを記憶する。演算部は、その画像処理プログラムに基づいて第1処理ステップS1および第2処理ステップS2を実行する。画像処理プログラムは、画像処理装置1の出荷時に記憶部に記憶されていてもよいし、出荷後に通信回線を経由して取得されたものが記憶部に記憶されてもよいし、コンピュータ読み取り可能な記録媒体30に記録されていたものが記憶部に記憶されてもよい。記録媒体30は、フレキシブルディスク、CD-ROM、DVD-ROM、BD-ROM、USBメモリなど任意である。
The storage unit of the
図2は、本実施形態の画像処理方法のフローチャートである。この画像処理方法は、対象画像Aに重畳されているノイズを低減して出力画像Dを作成する方法であって、第1処理ステップS1および第2処理ステップS2を備える。第1処理ステップS1は第1処理部10が行う処理であり、第2処理ステップS2は第2処理部20が行う処理である。第1処理ステップS1では、複数(N個)のランダムノイズ画像B1~BNそれぞれについて、該ランダムノイズ画像Bnを入力画像とし対象画像Aを教師画像としてCNNを繰り返し学習させ、その繰り返し学習の後に該CNNから出力される画像を中間画像Cnとして取得する。第2処理ステップS2では、第1処理ステップS1において取得された複数(N個)の中間画像C1~CNに基づいて、対象画像Aからノイズが低減された出力画像Dを作成する。
FIG. 2 is a flow chart of the image processing method of this embodiment. This image processing method is a method of reducing noise superimposed on the target image A to create an output image D, and includes a first processing step S1 and a second processing step S2. The first processing step S1 is performed by the
図3は、第1処理部10の構成を示す図である。第1処理部10は、教師画像(対象画像A)および入力画像(ランダムノイズ画像Bn)に基づいてCNNを学習させることで中間画像Cnを作成するものであって、第1CNN部11および第1評価部12を含む。
FIG. 3 is a diagram showing the configuration of the
第1CNN部11は、入力画像(ランダムノイズ画像Bn)をCNNに入力させ、その入力時点でのCNNの学習状態に応じた画像をCNNから出力させる。第1評価部12は、CNNから出力された画像と教師画像(対象画像A)との間の差を表す損失関数値を求める。損失関数は例えばL2ノルムである。第1CNN部11は、この損失関数値が小さくなるようにCNNを学習させる。このように、第1処理部10は、教師画像(対象画像A)および入力画像(ランダムノイズ画像Bn)の組合せを用いて、第1CNN部11および第1評価部12によりCNNを繰り返し学習させる。
The
CNNの繰り返し学習の過程において、CNNから出力される画像は、初めのうちは入力画像(ランダムノイズ画像Bn)に近いものであるが、次第に教師画像(対象画像A)において当初の固定ノイズが入力画像(ランダムノイズ画像Bn)に置き換えられていき、やがて教師画像(対象画像A)に近いものとなっていく。これは、意味のある構造の方がランダムノイズより早く学習される(すなわち、ランダムノイズは学習されにくい)というCNNの性質に基づく。 In the process of iterative learning of the CNN, the image output from the CNN is close to the input image (random noise image B n ) at first, but gradually the original fixed noise in the teacher image (target image A) It is replaced by the input image (random noise image B n ), and eventually becomes closer to the teacher image (target image A). This is based on the property of CNNs that meaningful structures are learned faster than random noise (that is, random noise is less learned).
そこで、CNNの繰り返し学習の途中で該学習を終了させることで、教師画像(対象画像A)において当初の固定ノイズが入力画像(ランダムノイズ画像Bn)に置き換えられたものを、CNNから出力させることができる。学習終了時にCNNから出力される画像を中間画像Cnとして取得する。CNNの繰り返し学習は、学習回数が目標値に達したときに終了してもよいが、CNNから出力された画像と教師画像(対象画像A)との間の差を表す損失関数値が目標範囲内になったときに終了するのが好適である。この学習終了の判定に用いる損失関数値の目標範囲は、当初の入力画像(ランダムノイズ画像Bn)と教師画像(対象画像A)との間の差を表す損失関数値に基づいて決定されるのが好適である。 Therefore, by ending the learning in the middle of the repeated learning of the CNN, the original fixed noise in the teacher image (target image A) is replaced with the input image (random noise image B n ). Output from the CNN be able to. An image output from the CNN at the end of learning is acquired as an intermediate image Cn . The iterative learning of the CNN may end when the number of times of learning reaches the target value, but the loss function value representing the difference between the image output from the CNN and the teacher image (target image A) is within the target range. It is preferable to terminate when the The target range of loss function values used to determine the end of learning is determined based on the loss function value representing the difference between the original input image (random noise image B n ) and the teacher image (target image A). is preferred.
N個のランダムノイズ画像B1~BNそれぞれを入力画像として用いて同様の処理を行って、N個の中間画像C1~CNを取得する。このようにして取得されたN個の中間画像C1~CNの共通の画素について見ると、その画素の輝度値は、対象画像Aの同じ画素の本来の輝度値(固定ノイズを除いた輝度値)を中心にして略対称な分布(正規分布)を有する。この輝度値の分布は、N個のランダムノイズ画像B1~BNが有していたノイズの分布に応じたものである。 Similar processing is performed using each of the N random noise images B 1 to BN as input images to acquire N intermediate images C 1 to C N . Looking at the common pixels of the N intermediate images C 1 to C N acquired in this way, the luminance value of the pixel is the original luminance value of the same pixel of the target image A (luminance excluding fixed noise value) and has a substantially symmetrical distribution (normal distribution). This luminance value distribution corresponds to the noise distribution of the N random noise images B 1 to BN .
なお、第1処理部10は、N個のランダムノイズ画像B1~BNからN個の中間画像C1~CNを取得する処理のうちの何れか2以上の処理を並列的に行ってもよい。例えば、第1処理部10が並列動作可能なN個の部分処理部を含む構成とし、そのうちの第n部分処理部が対象画像Aおよび第nランダムノイズ画像BnからCNNにより第n中間画像Cnを作成することにすれば、処理時間を1/Nに短縮することができる。
Note that the
図4は、第2処理部20の構成を示す図である。第2処理部20は、N個の中間画像C1~CNを用いてNoise2Noise方式(非特許文献4)によりCNNを学習させることで出力画像Dを作成するものであって、第2CNN部21、第2評価部22および画像選択部23を含む。
FIG. 4 is a diagram showing the configuration of the
画像選択部23は、N個の中間画像C1~CNのうちの何れかの中間画像Cn1を選択してCNNの入力画像とし、他の何れかの中間画像Cn2を選択して該CNNの教師画像とする。入力画像(中間画像Cn1)および教師画像(中間画像Cn2)の組合せはN(N-1)とおり可能であるが、N(N-1)とおりの全ての組合せを採用しなくてもよい。
The
第2CNN部21は、入力画像(中間画像Cn1)をCNNに入力させ、その入力時点でのCNNの学習状態に応じた画像をCNNから出力させる。第2評価部22は、CNNから出力された画像と教師画像(中間画像Cn2)との間の差を表す損失関数値を求める。損失関数は例えばL2ノルムである。第2CNN部21は、この損失関数値が小さくなるようにCNNを学習させる。このように、第2処理部20は、画像選択部23により選択された教師画像(中間画像Cn2)および入力画像(中間画像Cn1)の様々な組合せを用いて、第2CNN部21および第2評価部22によりCNNを繰り返し学習させる。
The
互いにノイズパターンが異なる教師画像(中間画像Cn2)および入力画像(中間画像Cn1)の様々な組合せを用いてCNNを繰り返し学習させることで、CNNから出力される画像は、対象画像Aからノイズが低減された出力画像Dとなる。 By repeatedly learning the CNN using various combinations of teacher images (intermediate images C n2 ) and input images (intermediate images C n1 ) having different noise patterns, the image output from the CNN is the noise from the target image A. is reduced as an output image D.
第2処理部20は、N個の中間画像C1~CNを用いてNoise2Noise方式によりCNNを学習させることで出力画像Dを作成するのが好ましいが、他の手法によりN個の中間画像C1~CNから出力画像Dを作成することもできる。例えば、N個の中間画像C1~CNの平均をとることで、対象画像Aからノイズが低減された出力画像Dを作成することができる。
The
本実施形態によれば、対象画像Aが一つしかない場合や対象画像AのSN比が低い場合であっても、該対象画像Aのノイズを効果的に低減することができる。以下では、シミュレーション結果を示すことにより本実施形態のノイズ低減効果について説明する。 According to this embodiment, even when there is only one target image A or when the SN ratio of the target image A is low, the noise of the target image A can be effectively reduced. Below, the noise reduction effect of this embodiment will be described by showing simulation results.
次にシミュレーション結果について説明する。以下では、第2処理ステップにおいてNoise2Noise方式によるCNNの学習により出力画像Dを作成した。 Next, simulation results will be described. In the following, the output image D is created by CNN learning by the Noise2Noise method in the second processing step.
図5(a)は、シミュレーションで用いた元画像を示す図である。図5(b)は、シミュレーションで用いた対象画像Aを示す図である。対象画像A(図5(b))は、標準偏差が5の正規分布を有する固定ノイズを元画像(図5(a))に重畳して作成した。図6(a)は、シミュレーションで用いたランダムノイズ画像Bnの一例を示す図である。図6(b)は、シミュレーションで作成した中間画像Cnの一例を示す図である。第1処理ステップでは、N=100として、ランダムノイズ画像B1~B100および対象画像Aから中間画像C1~C100を作成した。 FIG. 5A is a diagram showing the original image used in the simulation. FIG. 5B is a diagram showing the target image A used in the simulation. The target image A (FIG. 5(b)) was created by superimposing fixed noise having a normal distribution with a standard deviation of 5 on the original image (FIG. 5(a)). FIG. 6(a) is a diagram showing an example of the random noise image Bn used in the simulation. FIG. 6B is a diagram showing an example of an intermediate image Cn created by simulation. In the first processing step, intermediate images C 1 to C 100 were created from the random noise images B 1 to B 100 and the target image A with N= 100 .
図7は、中間画像C1~C100のうちからランダムに選択した2個の中間画像の差の画像における輝度値の分布を示すヒストグラムである。横軸は輝度値であり、縦軸は頻度である。この図に示されるように、中間画像Cnの各画素の輝度値は略対称な分布(正規分布)を有する。この分布の標準偏差は14.256であった。 FIG. 7 is a histogram showing the distribution of luminance values in difference images between two intermediate images randomly selected from the intermediate images C 1 to C 100 . The horizontal axis is the luminance value, and the vertical axis is the frequency. As shown in this figure, the luminance values of each pixel of the intermediate image Cn have a substantially symmetrical distribution (normal distribution). The standard deviation of this distribution was 14.256.
各画像の或る共通の領域(画像中の帽子の上の領域)について各画素の輝度値に含まれるノイズの分布の標準偏差を求めると、対象画像Aでは5.894であり、中間画像C1~C100のうちの1個の中間画像では11.137であり、中間画像C1~C100の平均画像では5.675であり、Noise2Noise方式によるCNNの学習により得られた出力画像Dでは2.893であった。対象画像Aのノイズ分布の標準偏差と比べると、各中間画像Cnのノイズ分布の標準偏差は大きくなるものの、中間画像C1~C100の平均画像のノイズ分布の標準偏差は小さくなり、出力画像Dのノイズ分布の標準偏差は更に小さくなった。 The standard deviation of the distribution of noise contained in the luminance value of each pixel in a certain common area of each image (the area above the hat in the image) is 5.894 for the target image A and 5.894 for the intermediate image C. 11.137 for one intermediate image out of C 1 to C 100 , 5.675 for the average image of intermediate images C 1 to C 100 , and 5.675 for the output image D obtained by CNN learning by the Noise2Noise method. was 2.893. Compared to the standard deviation of the noise distribution of the target image A, although the standard deviation of the noise distribution of each intermediate image C n is larger, the standard deviation of the noise distribution of the average image of the intermediate images C 1 to C 100 is smaller, and the output The standard deviation of the noise distribution for image D was even smaller.
図8~図11は、第1処理ステップにおけるCNNの学習回数と、CNNから出力される画像と教師画像との間の差を表す損失関数値と、の関係を示すグラフである。図8の一部を拡大したものが図9である。図10の一部を拡大したものが図11である。横軸はCNNの学習回数であり、縦軸は損失関数値である。 8 to 11 are graphs showing the relationship between the number of CNN learning times in the first processing step and the loss function value representing the difference between the image output from the CNN and the teacher image. FIG. 9 is an enlarged view of a part of FIG. FIG. 11 is an enlarged view of a part of FIG. The horizontal axis is the number of CNN learning times, and the vertical axis is the loss function value.
図8および図9は、対象画像A(図5(b))を用意する際に元画像(図5(a))に付加したランダムノイズパターン画像(固定ノイズ画像)を教師画像とした場合を示す。これらの図に示されるように、第1処理ステップにおいてCNNの学習回数が多くなるにしたがって損失関数値が小さくなっていく傾向が認められる。学習を繰り返すことにより、ランダムノイズ画像から固定ノイズ画像が学習され、損失関数値が小さくなっていく。CNNから出力される画像は最終的には固定ノイズ画像に近いものとなる。第1処理ステップでは、固定ノイズ画像まで学習する前に、CNNから出力される画像がランダムノイズ画像を含む時点で学習を終了する。図8および図9の例では、60~80回の学習で終了するのが好適である。なお、前述したとおり、CNNの繰り返し学習は、学習回数が目標値に達したときに終了してもよいが、CNNから出力された画像と教師画像との間の差を表す損失関数値が目標範囲内になったときに終了するのが好適である。 8 and 9 show the case where the random noise pattern image (fixed noise image) added to the original image (FIG. 5(a)) when preparing the target image A (FIG. 5(b)) is used as the teacher image. show. As shown in these figures, there is a tendency for the loss function value to decrease as the number of times of CNN learning increases in the first processing step. By repeating learning, the fixed noise image is learned from the random noise image, and the loss function value becomes smaller. The final image output from the CNN is close to a fixed noise image. In the first processing step, learning is terminated when an image output from the CNN contains a random noise image before learning up to a fixed noise image. In the examples of FIGS. 8 and 9, it is preferable to finish learning after 60 to 80 times. As described above, the iterative learning of the CNN may end when the number of times of learning reaches the target value. It is preferred to terminate when in range.
図10および図11は、元画像(図5(a))を教師画像とした場合(SignalOnly)の場合、および、固定ノイズが重畳された対象画像A(図5(b))を教師画像とした場合(Signal+Noise)を示す。これらの図に示されるように、元画像を教師画像とした場合と比べて、固定ノイズが重畳された対象画像Aを教師画像とした場合の方が、学習が遅い。これは、Deep Image Prior技術(非特許文献1~3)と同様に、教師画像にノイズが重畳されていることにより学習が遅くなることを示している。そこで、CNNの学習を適切な回数で終了することにより、CNNから出力される画像は、固定ノイズの学習することなく、本来の画像(元画像)にランダムノイズが重畳されたものとすることができる。
10 and 11 show the case where the original image (FIG. 5(a)) is used as the teacher image (SignalOnly), and the target image A (FIG. 5(b)) superimposed with fixed noise is used as the teacher image. (Signal + Noise). As shown in these figures, learning is slower when the target image A superimposed with fixed noise is used as the teacher image than when the original image is used as the teacher image. This indicates that, like the Deep Image Prior technology (
図12および図13は、第1処理ステップにおいてCNNの繰り返し学習の過程でCNNから出力される画像の例を示す図である。ここでは、元画像(図5(a))を教師画像とした。図12(a)は、第1処理ステップにおいて学習回数が32回のときにCNNから出力される画像を示す図である。図12(b)は、第1処理ステップにおいて学習回数が64回のときにCNNから出力される画像を示す図である。図13(a)は、第1処理ステップにおいて学習回数が96回のときにCNNから出力される画像を示す図である。図13(b)は、第1処理ステップにおいて学習回数が128回のときにCNNから出力される画像を示す図である。これらの図に示されるように、第1処理ステップにおいてCNNの学習回数が多くなるにしたがって、CNNから出力される画像は教師画像に近づいていく。 12 and 13 are diagrams showing examples of images output from the CNN in the process of iterative learning of the CNN in the first processing step. Here, the original image (FIG. 5(a)) is used as the teacher image. FIG. 12(a) is a diagram showing an image output from the CNN when the number of times of learning is 32 in the first processing step. FIG. 12(b) is a diagram showing an image output from the CNN when the number of times of learning is 64 in the first processing step. FIG. 13(a) is a diagram showing an image output from the CNN when the number of times of learning is 96 in the first processing step. FIG. 13(b) is a diagram showing an image output from the CNN when the number of times of learning is 128 in the first processing step. As shown in these figures, as the number of times the CNN learns in the first processing step increases, the image output from the CNN approaches the teacher image.
次に、より大きな標準偏差が50のガウシアン分布を有する固定ノイズを元画像(図5(a))に重畳して作成した対象画像Aを用いて、シミュレーションにより、本実施形態の手法(実施例)と他の手法(比較例)との間でノイズの低減の程度を比較した。図14は、対象画像Aを示す図である。固定ノイズは、32ビット単精度少数に拡張し、0以下または255以上のノイズが丸まらないようにして、元画像に付加した。この図には、2つの注目領域R1,R2が矩形枠で示されている。図15(a)は、実施例により得られた出力画像Dを示す図である。図15(b)は、比較例1により得られた画像を示す図である。比較例1は、Deep Image Prior技術に基づくものである。 Next, the method of this embodiment (example ) and another method (comparative example) in terms of noise reduction. 14 is a diagram showing the target image A. FIG. Fixed noise was added to the original image by extending it to 32-bit single-precision decimals so that noise below 0 or above 255 is not rounded. In this figure, two regions of interest R1 and R2 are indicated by rectangular frames. FIG. 15(a) is a diagram showing an output image D obtained by the example. 15B is a diagram showing an image obtained by Comparative Example 1. FIG. Comparative Example 1 is based on Deep Image Prior technology.
これらの図に示されるように、比較例1により得られた画像は、一見するとシャープに見えるものの、ノイズに塊のような低周波成分が含まれているように見える。これに対して、実施例により得られた出力画像Dは、全体的にノイズが消し切れていないように見えるものの、バランスよくノイズが低減されており、より自然に元画像を再現している。 As shown in these figures, the image obtained in Comparative Example 1 looks sharp at first glance, but the noise appears to contain lumpy low-frequency components. On the other hand, in the output image D obtained by the embodiment, although it seems that the noise is not totally eliminated, the noise is reduced in a well-balanced manner, and the original image is reproduced more naturally.
図16は、注目領域R1における各画像と対象画像Aとの差の画像を拡大して示す図である。図16(a)は、元画像に付加した固定ノイズの分布を示す図である。この画像のノイズ分布の標準偏差は48.6であった。図16(b)は、実施例により得られた出力画像Dから対象画像Aを差し引いて得られた値の分布を示す図である。この画像のノイズ分布の標準偏差は16.2であった。図16(c)は、比較例1により得られた画像から対象画像Aを差し引いて得られた値の分布を示す図である。この画像のノイズ分布の標準偏差は16.3であった。 FIG. 16 is an enlarged view showing a difference image between each image and the target image A in the attention area R1. FIG. 16(a) is a diagram showing the distribution of fixed noise added to the original image. The standard deviation of the noise distribution for this image was 48.6. FIG. 16(b) is a diagram showing the distribution of values obtained by subtracting the target image A from the output image D obtained in the example. The standard deviation of the noise distribution for this image was 16.2. 16C is a diagram showing the distribution of values obtained by subtracting the target image A from the image obtained in Comparative Example 1. FIG. The standard deviation of the noise distribution for this image was 16.3.
図17は、注目領域R2における各画像と対象画像Aとの差の画像を拡大して示す図である。図17(a)は、元画像に付加した固定ノイズの分布を示す図である。この画像のノイズ分布の標準偏差は50.0であった。図17(b)は、実施例により得られた出力画像Dから対象画像Aを差し引いて得られた値の分布を示す図である。この画像のノイズ分布の標準偏差は13.8であった。図17(c)は、比較例1により得られた画像から対象画像Aを差し引いて得られた値の分布を示す図である。この画像のノイズ分布の標準偏差は16.9であった。 FIG. 17 is an enlarged view showing a difference image between each image and the target image A in the attention area R2. FIG. 17A is a diagram showing the distribution of fixed noise added to the original image. The standard deviation of the noise distribution for this image was 50.0. FIG. 17(b) is a diagram showing the distribution of values obtained by subtracting the target image A from the output image D obtained in the example. The standard deviation of the noise distribution for this image was 13.8. 17C is a diagram showing the distribution of values obtained by subtracting the target image A from the image obtained in Comparative Example 1. FIG. The standard deviation of the noise distribution for this image was 16.9.
出力画像と対象画像Aとの差は、元画像に付加した固定ノイズとなっていることが理想である。しかし、図16および図17に示されるように、比較例1では、元画像に付加した固定ノイズより低周波成分のノイズが目立つ。これに対して、実施例では、標準偏差は小さいものの、出力画像と対象画像Aとの差は固定ノイズと同じ特性を持つ。 Ideally, the difference between the output image and the target image A is fixed noise added to the original image. However, as shown in FIGS. 16 and 17, in Comparative Example 1, low-frequency component noise is more conspicuous than the fixed noise added to the original image. On the other hand, in the embodiment, although the standard deviation is small, the difference between the output image and the target image A has the same characteristics as fixed noise.
図18は、注目領域R1における各画像を拡大して示す図である。図18(a)は、対象画像Aを示す図である。この画像のノイズ分布の標準偏差は49.8であった。図18(b)は、実施例により得られた出力画像Dを示す図である。この画像のノイズ分布の標準偏差は18.9であった。図18(c)は、比較例1により得られた画像を示す図である。この画像のノイズ分布の標準偏差は19.3であった。 FIG. 18 is an enlarged view of each image in the region of interest R1. FIG. 18A is a diagram showing the target image A. FIG. The standard deviation of the noise distribution for this image was 49.8. FIG. 18(b) is a diagram showing an output image D obtained by the example. The standard deviation of the noise distribution for this image was 18.9. 18C is a diagram showing an image obtained by Comparative Example 1. FIG. The standard deviation of the noise distribution for this image was 19.3.
図19は、注目領域R2における各画像を拡大して示す図である。図19(a)は、対象画像Aを示す図である。この画像のノイズ分布の標準偏差は50.2であった。図19(b)は、実施例により得られた出力画像Dを示す図である。この画像のノイズ分布の標準偏差は14.6であった。図19(c)は、比較例1により得られた画像を示す図である。この画像のノイズ分布の標準偏差は17.9であった。 FIG. 19 is an enlarged view of each image in the attention area R2. FIG. 19A is a diagram showing the target image A. FIG. The standard deviation of the noise distribution for this image was 50.2. FIG. 19(b) is a diagram showing an output image D obtained by the example. The standard deviation of the noise distribution for this image was 14.6. FIG. 19C is a diagram showing an image obtained by Comparative Example 1. FIG. The standard deviation of the noise distribution for this image was 17.9.
図18および図19に示されるように、比較例1では、対象画像Aと比べると、元画像および固定ノイズ画像の何れにもない低周波成分のノイズが目立つ。これに対して、実施例では、対象画像Aと同様なパターンでノイズが低減されているように見える。 As shown in FIGS. 18 and 19, in Comparative Example 1, compared to the target image A, low-frequency component noise that is not present in either the original image or the fixed noise image is conspicuous. On the other hand, in the embodiment, it seems that the noise is reduced in a pattern similar to that of the target image A.
次に、シミュレーションにより実施例および比較例1~3の間でノイズ低減の程度を比較した。比較例1は、Deep Image Prior技術に基づくものである。比較例2は、Non-LocalMeans(テンプレートサイズ3×3)に基づくものである。比較例3は、Non-Local Means(テンプレートサイズ5×5)に基づくものである。ここで用いた元画像は図5(a)に示されたものであり、対象画像Aは図5(b)に示されたものである。図20は、元画像を示す図であり、2つの注目領域R3,R4を矩形枠で示している。 Next, the degree of noise reduction was compared between the example and comparative examples 1 to 3 by simulation. Comparative Example 1 is based on Deep Image Prior technology. Comparative Example 2 is based on Non-LocalMeans (template size 3×3). Comparative Example 3 is based on Non-Local Means (template size 5×5). The original image used here is shown in FIG. 5(a), and the target image A is shown in FIG. 5(b). FIG. 20 is a diagram showing an original image, in which two regions of interest R3 and R4 are indicated by rectangular frames.
図21~図23は、注目領域R3の各画像を拡大して示す図である。図21(a)は元画像を示す図である。図21(b)は対象画像Aを示す図である。図22(a)は実施例により得られた出力画像Dを示す図である。図22(b)は比較例1により得られた画像を示す図である。図23(a)は比較例2により得られた画像を示す図である。図23(b)は比較例3により得られた画像を示す図である。図21~図23に示されるように、実施例および比較例1~3のうち、実施例で得られた出力画像は、最も元画像に近く、毛髪の乱れた薄い部分の再現性が良い。比較例1~3で得られた画像は、毛髪の薄い部分が途切れ、直線的な毛髪の再現ができていない。 21 to 23 are diagrams showing enlarged images of the attention area R3. FIG. 21(a) is a diagram showing an original image. FIG. 21(b) is a diagram showing the target image A. FIG. FIG. 22(a) is a diagram showing an output image D obtained by the example. 22(b) is a diagram showing an image obtained by Comparative Example 1. FIG. FIG. 23(a) is a diagram showing an image obtained in Comparative Example 2. FIG. FIG. 23(b) is a diagram showing an image obtained in Comparative Example 3. FIG. As shown in FIGS. 21 to 23, among the example and comparative examples 1 to 3, the output image obtained in the example is the closest to the original image, and the reproducibility of the thin and disheveled hair is good. In the images obtained in Comparative Examples 1 to 3, thin hair portions are cut off, and straight hair cannot be reproduced.
図24~図26は、注目領域R4の各画像を拡大して示す図である。図24(a)は元画像を示す図である。図24(b)は対象画像Aを示す図である。図25(a)は実施例により得られた出力画像Dを示す図である。図25(b)は比較例1により得られた画像を示す図である。図26(a)は比較例2により得られた画像を示す図である。図26(b)は比較例3により得られた画像を示す図である。図24~図26に示されるように、実施例および比較例1~3のうち、実施例で得られた出力画像は、元画像に対して最も忠実に帽子リボン部分の布のテクスチャーであろう縦縞を再現しており、かつ、布の横縞も再現している。比較例1で得られた画像は、縦縞がほぼ消え、布の横縞の再現性もよくない。 24 to 26 are enlarged views showing respective images of the attention area R4. FIG. 24(a) is a diagram showing an original image. FIG. 24(b) is a diagram showing the target image A. FIG. FIG. 25(a) is a diagram showing an output image D obtained by the example. FIG. 25(b) is a diagram showing an image obtained by Comparative Example 1. FIG. FIG. 26(a) is a diagram showing an image obtained in Comparative Example 2. FIG. FIG. 26(b) is a diagram showing an image obtained in Comparative Example 3. FIG. As shown in FIGS. 24 to 26, among the example and comparative examples 1 to 3, the output image obtained in the example is probably the texture of the cloth of the hat ribbon portion that is most faithful to the original image. The vertical stripes are reproduced, and the horizontal stripes of the cloth are also reproduced. The image obtained in Comparative Example 1 has almost no vertical stripes, and the reproducibility of horizontal stripes on the cloth is poor.
次に、他の対象画像を用いてシミュレーションにより実施例および比較例1,3の間でノイズ低減の程度を比較した。比較例1は、Deep Image Prior技術に基づくものである。比較例3は、Non-LocalMeans(テンプレートサイズ5×5)に基づくものである。対象画像および元画像として用いた画像は、浜松ホトニクス株式会社製のデジタルCMOSカメラ(ORCA-Fusion)による撮像により取得された蛍光画像である。 Next, the degree of noise reduction was compared between the example and comparative examples 1 and 3 by simulation using another target image. Comparative Example 1 is based on Deep Image Prior technology. Comparative Example 3 is based on Non-LocalMeans (template size 5×5). The images used as the target image and the original image are fluorescence images captured by a digital CMOS camera (ORCA-Fusion) manufactured by Hamamatsu Photonics K.K.
図27は、元画像を示す図である。図27(b)は、図27(a)の一部を拡大して示す図である。この図は、注目領域R5を矩形枠で示している。この画像は、露光時間を十分に長い200msとして撮像により取得されたものであり、SN比が良い元画像として扱うことができる。 FIG. 27 is a diagram showing an original image. FIG.27(b) is a figure which expands and shows a part of Fig.27 (a). This figure shows the attention area R5 with a rectangular frame. This image was obtained by imaging with a sufficiently long exposure time of 200 ms, and can be treated as an original image with a good SN ratio.
図28は、対象画像Aを示す図である。図28(b)は、図28(a)の一部を拡大して示す図である。この画像は、露光時間を十分に短い6msとして撮像により取得されたものであり、SN比が悪い対象画像Aとして扱うことができる。 28 is a diagram showing a target image A. FIG. FIG.28(b) is a figure which expands and shows a part of Fig.28 (a). This image was obtained by imaging with a sufficiently short exposure time of 6 ms, and can be treated as the target image A with a poor SN ratio.
図29は、実施例により得られた出力画像Dを示す図である。図29(b)は、図29(a)の一部を拡大して示す図である。図30は、比較例1により得られた画像を示す図である。図30(b)は、図30(a)の一部を拡大して示す図である。図31は、比較例3により得られた画像を示す図である。図31(b)は、図31(a)の一部を拡大して示す図である。 FIG. 29 is a diagram showing an output image D obtained by the example. FIG.29(b) is a figure which expands and shows a part of FIG.29(a). 30 is a diagram showing an image obtained by Comparative Example 1. FIG. FIG.30(b) is a figure which expands and shows a part of Fig.30 (a). 31 is a diagram showing an image obtained by Comparative Example 3. FIG. FIG.31(b) is a figure which expands and shows a part of Fig.31 (a).
図32および図33は、注目領域R5の各画像を更に拡大して示す図である。図32(a)は元画像を示す図である。この画像のノイズ分布の標準偏差は6.467であった。図32(b)は対象画像Aを示す図である。この画像のノイズ分布の標準偏差は3.979であった。図33(a)は実施例により得られた出力画像Dを示す図である。この画像のノイズ分布の標準偏差は0.029であった。図33(b)は比較例1により得られた画像を示す図である。この画像のノイズ分布の標準偏差は0.214であった。図33(c)は比較例3により得られた画像を示す図である。この画像のノイズ分布の標準偏差は0.901であった。 32 and 33 are diagrams showing further enlarged images of the attention area R5. FIG. 32(a) is a diagram showing an original image. The standard deviation of the noise distribution for this image was 6.467. FIG. 32(b) is a diagram showing the target image A. FIG. The standard deviation of the noise distribution for this image was 3.979. FIG. 33(a) is a diagram showing an output image D obtained by the example. The standard deviation of the noise distribution for this image was 0.029. 33(b) is a diagram showing an image obtained by Comparative Example 1. FIG. The standard deviation of the noise distribution for this image was 0.214. FIG. 33(c) is a diagram showing an image obtained by Comparative Example 3. FIG. The standard deviation of the noise distribution for this image was 0.901.
図27~図33に示されるとおり、実施例および比較例1,3のうち、実施例により得られた出力画像Dは、ノイズ分布の標準偏差が最も小さく、元画像に最も近いものであった。 As shown in FIGS. 27 to 33, among the example and comparative examples 1 and 3, the output image D obtained by the example has the smallest standard deviation of noise distribution and is closest to the original image. .
1…画像処理装置、10…第1処理部、11…第1CNN部、12…第1評価部、20…第2処理部、21…第2CNN部、22…第2評価部、23…画像選択部、30…記録媒体。
REFERENCE SIGNS
Claims (14)
前記第1処理部により取得された複数の中間画像に基づいて、前記対象画像からノイズが低減された出力画像を作成する第2処理部と、
を備える画像処理装置。 For each of a plurality of random noise images, a convolutional neural network is repeatedly trained using the random noise image as an input image and the target image as a teacher image, and after the iterative learning, the image output from the convolutional neural network is acquired as an intermediate image. a first processing unit;
a second processing unit that creates an output image in which noise is reduced from the target image based on the plurality of intermediate images acquired by the first processing unit;
An image processing device comprising:
請求項1に記載の画像処理装置。 The first processing unit terminates the iterative learning when a loss function value representing a difference between the image output from the convolutional neural network and the target image in the process of the iterative learning falls within a target range. and acquiring an image output from the convolutional neural network at the end thereof as the intermediate image;
The image processing apparatus according to claim 1.
請求項1または2に記載の画像処理装置。 The first processing unit uses a non-encoder/decoder type as the convolutional neural network,
The image processing apparatus according to claim 1 or 2.
請求項1~3の何れか1項に記載の画像処理装置。 The first processing unit performs any two or more of the processes of acquiring the intermediate image for each of the plurality of random noise images in parallel,
The image processing apparatus according to any one of claims 1 to 3.
請求項1~4の何れか1項に記載の画像処理装置。 The second processing unit uses one of the plurality of intermediate images as an input image and one of the others as a teacher image, and trains a convolutional neural network by a Noise2Noise method to create the output image.
The image processing device according to any one of claims 1 to 4.
請求項1~4の何れか1項に記載の画像処理装置。 The second processing unit creates the output image by averaging the plurality of intermediate images.
The image processing device according to any one of claims 1 to 4.
前記第1処理ステップにおいて取得された複数の中間画像に基づいて、前記対象画像からノイズが低減された出力画像を作成する第2処理ステップと、
を備える画像処理方法。 For each of a plurality of random noise images, a convolutional neural network is repeatedly trained using the random noise image as an input image and the target image as a teacher image, and after the iterative learning, the image output from the convolutional neural network is acquired as an intermediate image. a first processing step;
a second processing step of creating an output image in which noise is reduced from the target image based on the plurality of intermediate images obtained in the first processing step;
An image processing method comprising:
請求項7に記載の画像処理方法。 In the first processing step, the iterative learning is terminated when a loss function value representing a difference between the image output from the convolutional neural network and the target image in the process of the iterative learning falls within a target range. and acquiring an image output from the convolutional neural network at the end thereof as the intermediate image;
The image processing method according to claim 7.
請求項7または8に記載の画像処理方法。 In the first processing step, using a non-encoder-decoder type as the convolutional neural network;
9. The image processing method according to claim 7 or 8.
請求項7~9の何れか1項に記載の画像処理方法。 In the first processing step, any two or more of the processing of obtaining the intermediate image for each of the plurality of random noise images are performed in parallel;
The image processing method according to any one of claims 7 to 9.
請求項7~10の何れか1項に記載の画像処理方法。 In the second processing step, one of the plurality of intermediate images is used as an input image and one of the other images is used as a teacher image, and a convolutional neural network is trained by a Noise2Noise method to create the output image.
The image processing method according to any one of claims 7 to 10.
請求項7~10の何れか1項に記載の画像処理方法。 creating the output image by averaging the plurality of intermediate images in the second processing step;
The image processing method according to any one of claims 7 to 10.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019198342A JP7284688B2 (en) | 2019-10-31 | 2019-10-31 | Image processing device, image processing method, image processing program and recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019198342A JP7284688B2 (en) | 2019-10-31 | 2019-10-31 | Image processing device, image processing method, image processing program and recording medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021071936A JP2021071936A (en) | 2021-05-06 |
JP7284688B2 true JP7284688B2 (en) | 2023-05-31 |
Family
ID=75713220
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019198342A Active JP7284688B2 (en) | 2019-10-31 | 2019-10-31 | Image processing device, image processing method, image processing program and recording medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7284688B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102561613B1 (en) * | 2021-12-10 | 2023-08-01 | 광주과학기술원 | Method and device for denoising image with noise by using deep image prior which has been applied with stochastic temporal ensembling and optimized stopping timing automatic decision algorithm |
JP2023176348A (en) * | 2022-05-31 | 2023-12-13 | 浜松ホトニクス株式会社 | Image processing device and image processing method |
JP2024054668A (en) * | 2022-10-05 | 2024-04-17 | 浜松ホトニクス株式会社 | Image processing device and image processing method |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018195069A (en) | 2017-05-17 | 2018-12-06 | キヤノン株式会社 | Image processing apparatus and image processing method |
-
2019
- 2019-10-31 JP JP2019198342A patent/JP7284688B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018195069A (en) | 2017-05-17 | 2018-12-06 | キヤノン株式会社 | Image processing apparatus and image processing method |
Also Published As
Publication number | Publication date |
---|---|
JP2021071936A (en) | 2021-05-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7284688B2 (en) | Image processing device, image processing method, image processing program and recording medium | |
JP4799428B2 (en) | Image processing apparatus and method | |
JP4585456B2 (en) | Blur conversion device | |
US7983511B1 (en) | Methods and apparatus for noise reduction in digital images | |
US9142009B2 (en) | Patch-based, locally content-adaptive image and video sharpening | |
JP5215612B2 (en) | System for classifying regions of intensity profiles | |
JP2017517818A (en) | Method and system for processing the color of a digital image | |
Lee et al. | High-quality non-blind image deconvolution with adaptive regularization | |
JP6781406B2 (en) | Image processing equipment and computer programs | |
JP7353803B2 (en) | Image processing device, image processing method, and program | |
KR20200132682A (en) | Image optimization method, apparatus, device and storage medium | |
US7623723B2 (en) | Method for random point and patterned noise reduction in digital images | |
JP2015099546A (en) | Image processing apparatus, image processing method, program, and recording medium | |
US20200118250A1 (en) | Image processing apparatus, image processing method, and non-transitory computer-readable storage medium | |
US20230196515A1 (en) | A method of denoising dental images through domain adaptation | |
Yoo et al. | Sinogram image completion for limited angle tomography with generative adversarial networks | |
Kong et al. | Deep red unfolding network for image restoration | |
US20170316542A1 (en) | Information processing device, information processing method, and recording medium | |
JP5460987B2 (en) | Image processing apparatus, image processing method, and image processing program | |
KR102255148B1 (en) | Image processing apparatus, image processing method, storage medium, and program | |
JP2021065707A (en) | Medical image processing device, learned model and medical image processing method | |
Liu et al. | Ganredl: Medical image enhancement using a generative adversarial network with real-order derivative induced loss functions | |
JP2010016470A (en) | Image restoration method, image restoration program and image restoration apparatus | |
JP6938282B2 (en) | Image processing equipment, image processing methods and programs | |
JP4851196B2 (en) | Image processing method and apparatus, and image processing program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220531 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230323 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230404 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230428 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230516 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230519 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7284688 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |