JP2020197915A - 画像処理装置、画像処理方法、及びプログラム - Google Patents

画像処理装置、画像処理方法、及びプログラム Download PDF

Info

Publication number
JP2020197915A
JP2020197915A JP2019103745A JP2019103745A JP2020197915A JP 2020197915 A JP2020197915 A JP 2020197915A JP 2019103745 A JP2019103745 A JP 2019103745A JP 2019103745 A JP2019103745 A JP 2019103745A JP 2020197915 A JP2020197915 A JP 2020197915A
Authority
JP
Japan
Prior art keywords
image
noise reduction
estimation means
noise
reduction processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019103745A
Other languages
English (en)
Other versions
JP7353803B2 (ja
JP2020197915A5 (ja
Inventor
檜垣 欣成
Kinsei Higaki
欣成 檜垣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019103745A priority Critical patent/JP7353803B2/ja
Priority to US16/889,045 priority patent/US11526963B2/en
Publication of JP2020197915A publication Critical patent/JP2020197915A/ja
Publication of JP2020197915A5 publication Critical patent/JP2020197915A5/ja
Application granted granted Critical
Publication of JP7353803B2 publication Critical patent/JP7353803B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/60Image enhancement or restoration using machine learning, e.g. neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20004Adaptive image processing
    • G06T2207/20012Locally adaptive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Neurology (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

【課題】入力画像の内容によらず、ノイズを適切に低減することができる画像処理装置、画像処理方法及びプログラムを提供する。【解決手段】画像のノイズ低減処理を実行する画像処理装置は、画像に含まれるノイズを推定する第1の推定手段と、画像からノイズが除去された元画像を推定する第2の推定手段と、画像の部分領域の各々について部分領域の内容に応じて第1の推定手段または第2の推定手段を用いてノイズ低減処理を行うノイズ低減手段と、を含むノイズ低減処理部205と、ノイズ低減処理が行われた部分領域を統合する統合手段であるパッチ統合部206とを有する。【選択図】図2

Description

本発明は、画像におけるノイズを低減する技術に関する。
従来、ニューラルネットワークを用いてノイズ低減処理を行う技術として、ノイズが含まれた入力画像からノイズが除去された元画像を直接推定する手法が知られている(非特許文献1)。しかし、入力画像の内容によっては、ニューラルネットワークを用いない従来手法の方がノイズ低減効果が大きくなることがあった。例えば、ニューラルネットワークを用いる従来手法の方が、テクスチャが多く含まれている箇所では、ノイズ低減後の残留ノイズが相対的に大きくなってしまっていた。
特許文献1には、特定のテクスチャに特化したニューラルネットワーク(専門NN)を用いてノイズ低減処理を行う技術が開示されている。しかし、特許文献1の方法では、学習においてニューラルネットワークの中間データ(注目ニューロン)に対し教師データを与える必要があること、また、ニューラルネットワークの構造が複雑であることから、学習が困難であった。また、専門NNは、予め特定の種類の被写体の画像を用いて学習されており、当該特定の種類の被写体が含まれない画像、または認識されない画像に対しては全て一般的なニューラルネットワーク(一般NN)のみで処理される。そのため、ノイズ低減効果の向上は限定的であった。
一方で、ノイズが含まれた入力画像からノイズ自体を推定するニューラルネットワークが近年提案されている(非特許文献2)。しかし、このようなニューラルネットワークは、学習における高速化や収束性の向上を目的としており、ノイズ低減効果が入力画像の内容に依存する点は解決されていなかった。
特開2016−31747号公報
H. Burger, C. Schuler, and S. Harmeling. Image denoising: Can plain neural networks compete with BM3D? In IEEE Conf. Computer Vision and Pattern Recognition, pages 2392-2399, 2012. K. Zhang, W. Zuo, Y. Chen, D. Meng, and L. Zhang, "Beyond a gaussian denoiser: Residual learning of deep cnn for image denoising," IEEE Trans. Image process. 2017.
上述したように、従来のノイズ低減処理では、入力画像の内容に応じてノイズ低減効果が異なってしまい、ノイズを適切に低減することができなかった。
本発明はこのような問題に鑑みてなされたものであり、入力画像の内容によらず、ノイズを適切に低減することを目的とする。
本発明の一実施形態において、画像のノイズ低減処理を実行する画像処理装置は、前記画像に含まれるノイズを推定する第1の推定手段と、前記画像からノイズが除去された元画像を推定する第2の推定手段と、前記画像の部分領域の各々について、前記部分領域の内容に応じて、前記第1の推定手段または前記第2の推定手段を用いて前記ノイズ低減処理を行うノイズ低減手段と、前記ノイズ低減処理が行われた部分領域を統合する統合手段とを有する。
本発明によれば、入力画像の内容によらず、ノイズを適切に低減することができる。
第1の実施形態の情報処理装置のハードウェア構成例を示す図。 第1の実施形態の情報処理装置の機能ブロック図。 第1の実施形態の画像解析部の構成例を示す機能ブロック図。 第1の実施形態のノイズ低減処理部の構成例を示す機能ブロック図。 第1の実施形態のノイズ低減処理のフローチャート。 第1の実施形態のニューラルネットワークの構造を示す模式図。 第2の実施形態の情報処理装置の機能ブロック図。 第2の実施形態のノイズ低減処理のフローチャート。 第3の実施形態の情報処理装置の機能ブロック図。 第3の実施形態のノイズ低減処理のフローチャート。 第3の実施形態の選択ニューラルネットワークの構造を示す模式図。 第4の実施形態の情報処理装置の機能ブロック図。 第4の実施形態のノイズ低減処理のフローチャート。
以下、添付の図面を参照して、本発明の実施形態について詳細に説明する。なお、以下の実施形態は例であり、本発明の範囲を限定するものではない。また、以下で説明される特徴の組み合わせの全てが本発明に必須のものとは限らない。同一の構成要素については、同じ符号を付す。
<第1の実施形態>
第1の実施形態では、入力された画像データを複数のパッチ(すなわち、部分領域)に分割し、このパッチを解析した結果に基づき2つのニューラルネットワークを使い分けることで、良好なノイズ低減を実現する例を述べる。
図1は、本実施形態の情報処理装置のハードウェア構成例を示す。情報処理装置100は、CPU101、RAM102、ROM103、二次記憶装置104、入力インターフェース105、及び出力インターフェース106を含む。各構成要素は、システムバス107を介して相互に接続されている。また、情報処理装置100は、入力インターフェース105を介して外部記憶装置108及び操作部110に接続されている。また、情報処理装置100は、出力インターフェース106を介して外部記憶装置108及び表示装置109に接続されている。
CPU101は、RAM102をワークメモリとして使用して、ROM103に格納されたプログラムを実行し、システムバス107を介して各構成要素を統括的に制御する。これにより、後述する様々な処理が実行される。二次記憶装置104は、情報処理装置100で取り扱われる種々のデータを記憶する記憶装置であり、本実施形態ではHDDが用いられる。CPU101は、システムバス107を介して二次記憶装置104へのデータの書き込み及び二次記憶装置104に記憶されたデータの読出しを行う。なお、二次記憶装置104にはHDDの他に、光ディスクドライブやフラッシュメモリなど、様々な記憶デバイスを用いることが可能である。
入力インターフェース105は、例えばUSBやIEEE1394等のシリアルバスインターフェースである。情報処理装置100は、入力インターフェース105を介して、外部装置からデータや命令等を入力する。本実施形態では、情報処理装置100は、入力インターフェース105を介して、外部記憶装置108(例えば、ハードディスク、メモリカード、CFカード、SDカード、USBメモリなどの記憶媒体)からデータを取得する。また、本実施形態では、情報処理装置100は、操作部110に入力されたユーザの指示を、入力インターフェース105を介して取得する。操作部110は、マウスやキーボードなどの入力装置であり、ユーザの指示を入力する。
出力インターフェース106は、入力インターフェース105と同様にUSBやIEEE1394等のシリアルバスインターフェースである。なお、出力インターフェース106は、例えばDVIやHDMI(登録商標)等の映像出力端子であってもよい。情報処理装置100は、出力インターフェース106を介して、外部装置にデータ等を出力する。本実施形態では、情報処理装置100は、出力インターフェース106を介して表示装置109(液晶ディスプレイなどの各種画像表示デバイス)に、CPU101によって処理されたデータ(例えば、画像データ)を出力する。なお、情報処理装置100の構成要素は上記以外にも存在するが、本発明の主眼ではないため、説明を省略する。
以下、本実施形態の情報処理装置100で行われる処理について、図2、図3、及び図4に示される機能ブロック図と、図5に示されるフローチャートを参照して説明する。
図2は、本実施形態の情報処理装置の機能ブロック図である。本実施形態の情報処理装置100は、画像データ取得部201、パッチ分割部202、画像解析部203、ニューラルネットワーク選択部204、ノイズ低減処理部205、及びパッチ統合部206を有する。本実施形態において、情報処理装置100は、画像に対してノイズ低減処理を実行する画像処理装置である。
図3は、本実施形態の画像解析部203の構成例を示す。画像解析部203は、画像変換部301、高周波成分判定部302、及び輝度成分判定部303を有する。
図4は、本実施形態のノイズ低減処理部205の構成例を示す。ノイズ低減処理部205は、元画像推定ニューラルネットワーク401、及びノイズ推定ニューラルネットワーク402を有する。
上述した各機能部の詳細は、図5のフローチャートを参照しながら後述する。
なお、各機能部に相当する専用の処理回路を備えるように情報処理装置100を構成してもよい。
図5は、本実施形態のノイズ低減処理のフローチャートを示す。以下、本実施形態におけるノイズ低減処理の流れについて、図5のフローチャートを参照して説明する。フローチャートで示される一連の処理は、CPU101がROM103などの記憶領域に格納されたプログラムコードをRAM102に読み出して実行することにより実現される。あるいはまた、フローチャートにおけるステップの一部または全部の機能をASICや電子回路等のハードウェアで実現してもよい。また、以下の記号「S」は、フローチャートにおける「ステップ」を意味する。その他のフローチャートについても同様である。
S501において、画像データ取得部201が、処理対象である画像データを取得する。画像データは、RAWやJPEGなどの任意の形式でよい。
S502において、パッチ分割部202が、画像データを既定のサイズの複数のパッチ(すなわち、部分領域)に分割する。これらのパッチは互いに重複していてもよく、形状やサイズが必ずしも同一である必要はない。
S503において、画像解析部203が、複数のパッチの各々に対して画像解析を行う。画像解析の目的は、対象パッチに複雑なテクスチャ(高周波成分)が含まれるかどうかを判定すること、及び対象パッチの輝度依存性ノイズが一定以上の大きさを有するかどうかを判定することである。輝度依存性ノイズは、分散が輝度に依存する種類のノイズで、イメージセンサにおいて発生する光ショットノイズなどにより必ず画像に含まれる。画像解析は、具体的には、周波数解析及び輝度解析を含む。
周波数解析では、まず、画像解析部203の画像変換部301が、対象パッチにフーリエ変換、ウェーブレット変換などの変換を行う。次いで、画像解析部203の高周波成分判定部302が、変換結果において、例えば高周波成分の統計値(最大、平均、中央値)が所定の閾値を超える場合には、対象パッチは高周波成分を有意に含むと判定する。
輝度解析では、画像解析部203の輝度成分判定部303が、対象パッチの輝度成分の統計値(最大、平均、中央値)が所定の閾値を超える場合には、対象パッチは高輝度であると判定する。すなわち、輝度依存性ノイズが一定以上の大きさを有すると判定する。
なお、本実施形態では、高周波成分及び輝度成分のうちの少なくとも一方を解析し、所定の閾値を超えるかどうか判定すればよい。
S504において、ニューラルネットワーク選択部204が、画像解析部203の解析結果に基づき、複数のパッチの各々について元画像推定ニューラルネットワークとノイズ推定ニューラルネットワークのどちらを用いて処理するかを選択する。
一般的に、ニューラルネットワークは、出力すべきデータの確率密度分布を学習していると解釈することができる。確率密度分布が複雑であるほど学習は困難となり、またニューラルネットワークによって推定された出力データは真の複雑な確率密度分布から乖離しやすくなる。そのため、確率密度分布が単純な形状に従うデータほど推定精度が高くなる。ノイズが除去された理想的な画像(元画像)の確率密度分布は、テクスチャが多いほど複雑な形状となる。そのため、元画像のテクスチャが少なく、元画像の確率密度分布が比較的単純な形状であるほど、元画像を推定するニューラルネットワークによる推定精度は高くなる。
一方、ノイズの確率密度分布の複雑さはノイズの大きさに依存せず、輝度依存性ノイズの場合でもガウス分布という形状にしたがう。そのため、元画像のテクスチャが多い、もしくはノイズが大きいために元画像の推定精度が落ちる場合には、ノイズを推定するニューラルネットワークによる推定精度の方が相対的に高くなる。
このような性質をふまえ、ニューラルネットワーク選択部204は、以下に説明するようにニューラルネットワークを選択する。
対象パッチが高周波成分を有意に含む、または高輝度であると画像解析部203が判定した場合には、ニューラルネットワーク選択部204は、ノイズ推定ニューラルネットワークを選択する。その他の場合には、元画像推定ニューラルネットワークを選択する。
元画像推定ニューラルネットワークは、非特許文献1に開示されているように、従来から知られている。一方、ノイズ推定ニューラルネットワークは、画質の高さに加えて学習における高速化及び収束性の面で優位であることが近年知られるようになってきた(非特許文献2)。しかしながら、これらの2つのタイプのニューラルネットワークの優位性が画像の内容によって変化し、互いに相補的な関係にあることに着目した技術は存在しなかった。本実施形態によれば、学習の難しさを上げることなく、相補的な効果を有するニューラルネットワークを使い分けることで、画像の内容の変化にロバストなノイズ低減効果を得ることができる。
S505において、ノイズ低減処理部205が、選択された元画像推定ニューラルネットワーク401またはノイズ推定ニューラルネットワーク402のいずれかを用いて、複数のパッチの各々に対しノイズ低減処理を実行する。
ここで、図6を参照して、ニューラルネットワークの構造について説明する。図6(a)は、元画像推定及びノイズ推定の双方に共通するニューラルネットワークの構造の一例を示す。本実施形態では、畳み込みニューラルネットワークを例に用いて説明するが、この構造には限定されない。入力層には、対象パッチの画素値(入力データ)が入力される。その後、逐次的にブロック1からブロックNまでの処理を実行し、最後に出力層にデータが出力される。元画像推定ニューラルネットワークの場合には、出力データは推定された元画像の画素値であり、ノイズ推定ニューラルネットワークの場合には、出力データは推定されたノイズの画素値である。後者の場合、入力データから出力データを差し引くことで、元画像が推定される。
ブロック間を伝達するデータは、入力データと同サイズ、またはより低い解像度の複数チャネルの画像の形態をとる。しかしこのデータは、入力データまたは出力データとは直接関連の無い、画像としては意味を持たないデータである。
図6(b)に示すように、畳み込みニューラルネットワークの各ブロックは、畳み込み層、正規化層、及び活性化層を連結した構造となっているが、必ずしも全てを含む必要はなく、ブロックによって構造が異なってもよい。
また、入力層または任意のブロックの出力と、別のブロックの出力とを加算または連結するようなスキップ連結を有してもよい。図6(c)は、元画像推定ニューラルネットワークの構造の一例として、入力層とブロックNの出力とを加算するスキップ連結を有する構造を示す。
畳み込み層は、入力されるデータの各チャネルに対し、所定のフィルタを畳み込んだ結果を加算して出力する。フィルタ係数は、後述する学習によって決定する。畳み込み層の出力チャネル数は任意に決めることができ、出力チャネル数に応じた種類のフィルタを用意すればよい。
正規化層は、入力データの平均と分散を補正する線形変換を行う。例えば、学習用データを入力した場合の正規化層の出力が、平均が0、分散が1になるように線形変換の係数を決定する。
活性化層は、入力されるデータに対し、要素ごとに独立に非線形変換を行う。非線形変換は具体的には、sigmoid関数、tanh関数、ReLU(Rectified Linear Unit)などの一般に知られている関数を用いることができる。
元画像推定及びノイズ推定ニューラルネットワークは、同一の学習用データを用いて独立に学習させる。ここで学習とは、ニューラルネットワークを構成するパラメータを、学習用データを用いて決定することを指す。パラメータとしては、畳み込み層のフィルタ係数、正規化層の線形変換の係数が挙げられる。
学習用データは、入力データ(生徒データ)と出力データの正解値(教師データ)のペアの集合である。ノイズ低減を目的とする場合には、生徒データは実写画像またはCG画像に人工的なノイズを付加して得られるノイズ画像とし、教師データはノイズを付加する前の元画像、または付加したノイズ自体とする。
人工ノイズは、分散値が同一のガウス乱数を画素ごと独立に加算する方法が一般的だが、輝度依存性ノイズなど、より現実に近いノイズモデルを用いてもよい。
また、人工ノイズを用いない方法として、ISO感度など、ノイズの大きさに関与する設定が異なる条件で撮影された同一被写体の画像のペアの集合を学習用データとして用いてもよい。この方法では、現実のノイズを用いて学習させることができるため、現実のノイズを推定する精度が人工ノイズを用いる方法に比べて高くなるメリットがある。しかしその反面、画像のペア間でわずかな位置ずれが発生することがあり、正しく学習を行うために画像間位置合わせ処理を行うと誤差が混入し、その誤差がノイズ推定精度の低下を引き起こす可能性があるというデメリットがある。
本実施形態では、元画像推定及びノイズ推定ニューラルネットワークは、従来の方法を用いて独立して学習させることができるため、特許文献1に開示された技術のように学習の難易度が上がらない。
S506において、パッチ統合部206が、ノイズ低減処理が実行された全パッチを統合して、ノイズが低減された補正画像を出力する。複数のパッチに互いに重複が存在する場合には、重複する画素には例えば複数パッチ間の平均値を与えることで、パッチ形状を反映したアーティファクトのない画像を生成することができる。
以上説明したように、本実施形態によると、パッチ毎に画像の内容に適したニューラルネットワークを用いてノイズ低減を行うことができるので、入力画像の内容によらず、ノイズを適切に低減することができる。
<第2の実施形態>
第1の実施形態では、ノイズが含まれた画像に対して周波数解析を行うため、ノイズによって誤った高周波成分の判定をしてしまう可能性がある。そこで、本実施形態では、ノイズが低減されたパッチに対して周波数解析を行うことで、高周波成分の判定をより高精度に行う。パッチには、元画像推定ニューラルネットワークまたはノイズ推定ニューラルネットワークによるノイズ低減処理が行われる。
本実施形態における情報処理装置のハードウェア構成は、第1の実施形態と同様である。以下では、本実施形態の情報処理装置100で行われる処理について、図7に示す機能ブロック図と、図8に示すフローチャートを用いて説明する。
図7は、本実施形態における情報処理装置の機能ブロック図である。情報処理装置100は、画像データ取得部701、パッチ分割部702、ノイズ低減処理部703、画像解析部704、ニューラルネットワーク選択部705、及びパッチ統合部706としての機能を有する。本実施形態では、第1の実施形態と比較して、ノイズ低減処理部703、画像解析部704、及びニューラルネットワーク選択部705による処理が異なる。
ノイズ低減処理部703は、第1の実施形態と同様に、図4に示すように、元画像推定ニューラルネットワーク401、及びノイズ推定ニューラルネットワーク402としての機能を有する。第1の実施形態では、ニューラルネットワーク選択部204によって選択された一方のニューラルネットワークを使用したが、本実施形態では、パッチの内容によらず、予め決められた一方もしくは両方のニューラルネットワークを使用してノイズを低減する。
画像解析部704は、第1の実施形態と同様に、図3に示すように、画像変換部301、高周波成分判定部302、及び輝度成分判定部303としての機能を有する。本実施形態では、第1の実施形態と異なり、ノイズが低減されたパッチ画像に対して画像解析を行う。
ニューラルネットワーク選択部705は、画像解析部704の解析結果にしたがい、元画像推定及びノイズ推定ニューラルネットワークのいずれかを使用してノイズが低減されたパッチ画像を選択する。
なお、各部に相当する専用の処理回路を備えるように、情報処理装置100を構成してもよい。
図8は、本実施形態のノイズ低減処理のフローチャートを示す。以下、本実施形態におけるノイズ低減処理の流れについて、図8のフローチャートを参照して説明する。
S801において、画像データ取得部701が、処理対象である画像データを取得する。画像データは、RAWやJPEGなどの任意の形式でよい。
S802において、パッチ分割部702が、画像データを既定のサイズの複数のパッチに分割する。これらのパッチは互いに重複していてもよく、形状やサイズが必ずしも同一である必要はない。
S803において、ノイズ低減処理部703が、元画像推定ニューラルネットワーク401またはノイズ推定ニューラルネットワーク402のいずれか、若しくは両方を用いて、複数のパッチの各々に対しノイズ低減処理を実行する。
S804において、画像解析部704が、ノイズ低減処理部703によってノイズ低減処理が実行された複数のパッチの各々に対して画像解析を行う。
S805において、ニューラルネットワーク選択部705が、画像解析の結果に基づき、複数のパッチの各々について、元画像推定ニューラルネットワークとノイズ推定ニューラルネットワークのどちらで処理したノイズ低減結果を用いるかを選択する。選択されたニューラルネットワークの出力がS803で得られていない場合には、ノイズ低減処理部703が追加でノイズ低減処理を行う。
S806において、パッチ統合部706が、ニューラルネットワーク選択部705によって選択された全パッチを統合して、ノイズが低減された補正画像を出力する。複数のパッチに互いに重複が存在する場合には、重複する画素は例えば複数パッチ間の平均値を与えることで、パッチ形状を反映したアーティファクトのない画像を生成することができる。
以上説明したように、本実施形態のような機能構成によっても、入力画像の内容によらず、ノイズを適切に低減することができる。また、本実施形態では、ノイズが低減されたパッチに対して画像解析を行うので、画像解析をより高精度に行うことができる。
<第3の実施形態>
第1の実施形態では、ニューラルネットワークの選択を、画像解析と判定という2段階で行っていた。この処理は、元画像推定ニューラルネットワークとノイズ推定ニューラルネットワークのどちらを用いるかを選択するための第3のニューラルネットワーク(以降では、選択NNと呼ぶ)で代替することが可能である。以下では、第1の実施形態と同様に、ノイズ低減処理の前にニューラルネットワークの選択を行う場合を例に取り説明するが、第2の実施形態にも同様に適用することができる。
本実施形態における情報処理装置のハードウェア構成は、第1の実施形態と同様である。以下では、本実施形態の情報処理装置100で行われる処理について、図9に示す機能ブロック図と、図10に示すフローチャートを用いて説明する。
図9は、本実施形態の情報処理装置の機能ブロック図である。情報処理装置100は、図9に示すように、画像データ取得部901、パッチ分割部902、ニューラルネットワーク選択部903、ノイズ低減処理部904、及びパッチ統合部905としての機能を有する。本実施形態では、第1の実施形態と異なり、画像解析部を有しておらず、ニューラルネットワーク選択部903が、選択NNを用いて元画像推定ニューラルネットワークとノイズ推定ニューラルネットワークのどちらかを選択する。
なお、各部に相当する専用の処理回路を備えるように情報処理装置100を構成してもよい。
図10は、本実施形態のノイズ低減処理のフローチャートを示す。以下、本実施形態におけるノイズ低減処理の流れについて、図10のフローチャートを参照して説明する。
本実施形態のノイズ低減処理では、第1の実施形態と異なり、画像解析は行わない。本実施形態では、S1003においてニューラルネットワーク選択部903が選択NNを用いて、パッチからニューラルネットワークの選択を1段階で行う。このため、事前に選択NNの学習を行う必要がある。選択NNの学習においては、まず、パッチ(生徒データ)と判定結果(教師データ)のペアの集合を学習用データとして用意する。この判定結果は、元画像推定ニューラルネットワークとノイズ推定ニューラルネットワークのどちらを用いるかを表すデータである。また、第1の実施形態の画像解析部203の出力と同様に、高周波成分の有無と高輝度か否かの判定結果を表すデータであってもよい。データの形式は、1ビット(2値)のスカラー値でもよく、その場合、例えば元画像推定が選ばれるなら0、ノイズ推定が選ばれるなら1としてもよい。また後者の場合は、2ビット(4値)のスカラー値であってもよい。教師データは人手で設定してもよいし、第1の実施形態で用いられた画像解析部203とニューラルネットワーク選択部204を用いて自動的に生成してもよい。また、選択NNの精度向上とロバスト性のために、学習に用いる生徒データはできる限り大量かつ多様な画像(パッチ)を用いることが望ましい。
以下、図11を参照して、選択NNの構造について説明する。図11(a)は、選択NNの全体構造の一例を示す。本実施形態では、畳み込みニューラルネットワーク(CNN:Convolutional NN)を例に用いて説明するが、この構造には限定されない。
図11(a)に示した構造では、最初に、入力層に対象パッチの画素値(入力データ)が入力される。その後、逐次的にブロック1からブロックNまでの処理を実行し、全結合層1から全結合層M、活性化層、そして最後に出力層にデータが出力される。図11(b)に示すように、各ブロックは、複数の畳み込み層1〜Kとプーリング層を連結した構造でもよい。プーリング層は、入力画像を重複しない同形状のパッチに分割し、パッチごとに画素値の最大値または平均値などを出力することで、解像度の低い画像を生成する。また、ブロックによって構造が異なっていてもよく、例えば畳み込み層によって解像度(各チャネルの画像サイズ)が低減され、後のブロック程チャネル数が多いという構造でもよい。選択NNの出力データは、例えば前述の1ビットまたは2ビットのスカラー値の形式をとる。
なお、その他の処理は第1の実施形態と同様であるため、説明を省略する。
以上説明したように、本実施形態では、元画像推定ニューラルネットワークまたはノイズ推定ニューラルネットワークの選択を、第3のニューラルネットワークである選択NNで代替する。そうすることで、対象パッチのノイズ低減処理に用いるニューラルネットワークの選択を、1段階で行うことができる。
<第4の実施形態>
第1から第3の実施形態では、パッチ単位で同一のニューラルネットワークの出力を用いるため、ノイズ低減効果が画像内で階段状に変化し、結果としてパッチ形状を反映したアーティファクトが発生する可能性がある。そこで、本実施形態では、画素単位で元画像推定ニューラルネットワークとノイズ推定ニューラルネットワークのどちらの出力を用いるかを選択することにより、見た目に違和感のないノイズ低減画像を生成する例を説明する。
本実施形態における情報処理装置のハードウェア構成は、第1の実施形態と同様である。以下では、本実施形態の情報処理装置100で行われる処理について、図12に示す機能ブロック図と、図13に示すフローチャートを用いて説明する。
図12は、本実施形態の情報処理装置の機能ブロック図である。図12(a)は、第1の実施形態と同様に、ニューラルネットワークの選択に関する判定をノイズ低減処理前に行う場合の機能ブロック図である。図12(b)は、第2の実施形態と同様に、ニューラルネットワークの選択に関する判定をノイズ低減処理後に行う場合の機能ブロック図である。情報処理装置100は、図12(a)及び図12(b)に示すように、画像データ取得部1201、ノイズ低減処理部1202、選択マップ生成部1203、及び画像統合部1204としての機能を有する。
図13は、本実施形態のノイズ低減処理のフローチャートを示す。以下、本実施形態におけるノイズ低減処理の流れについて、図13のフローチャートを参照して説明する。図13(a)は、図12(a)に示した機能部を有する情報処理装置100によって実施されるフローチャートである。図13(b)は、図12(b)に示した機能部を有する情報処理装置100によって実施されるフローチャートである。
まず、図13(a)のフローチャートについて説明する。
S1301において、画像データ取得部1201が、処理対象である画像データを取得する。画像データは、RAWやJPEGなどの任意の形式でよい。
S1302において、選択マップ生成部1203が、取得した画像データの画素単位で、元画像推定及びノイズ推定ニューラルネットワークのどちらの出力を用いるかの選択情報を表す選択マップを生成する。選択マップは、入力画像と同サイズの画像の形態をとり、各画素の値は、第3の実施形態と同様に1ビットまたは2ビットのスカラー値など、どちらの出力を用いるかを表すデータであればよい。選択マップを生成する方法としては、着目画素を中心としたパッチ毎に画像解析を行って、当該着目画素に選択情報を付与する方法と、画像解析を行わずに、入力された画像から直接選択マップを導出する方法がある。
パッチ毎に画像解析を行って選択情報を付与する方法では、選択マップ生成部1203に入力された画像から、着目画素を中心としたパッチを抽出し、第1の実施形態と同様に、抽出したパッチに対して画像解析を行うことによって、選択情報を決定する。入力画像を1画素ずつ走査して処理を繰り返すことで、入力画像と同サイズの画像(すなわち、選択マップ)を得ることができる。
画像解析を行わずに、選択マップを直接導出する方法としては、第3の実施形態と同様に選択NNを用いる方法がある。本実施形態では、選択NNの入力及び出力はともに、パッチではなく、画像全体とする。この選択NNを学習させるために、生徒データとして元画像、あるいはノイズが付加された画像を用い、教師データとして正解の選択マップを用いる。正解の選択マップは、人手で生成してもよいし、パッチを走査して第1の実施形態と同様に画像解析部203とニューラルネットワーク選択部204を用いて自動的に生成してもよい。
このように、図13(a)のフローチャートでは、選択マップは、取得した画像データから直接生成される。
S1303において、ノイズ低減処理部1202が、取得した画像データに対して、元画像推定及びノイズ推定ニューラルネットワークを用いて、それぞれノイズが低減された画像を生成する。ノイズ低減処理部1202は、第1の実施形態の図4に示すように、元画像推定ニューラルネットワーク401、及びノイズ推定ニューラルネットワーク402としての機能を有する。第1の実施形態と異なり、本実施形態では、元画像推定及びノイズ推定ニューラルネットワークの両方の出力画像を生成する。
S1304において、画像統合部1204が、選択マップに従い、画素ごとに元画像推定ニューラルネットワークまたはノイズ推定ニューラルネットワークのいずれかの出力画像から画素値を取得して画像を統合し、ノイズが低減された補正画像を生成する。
図13(b)のフローチャートは、選択マップが、元画像推定及びノイズ推定ニューラルネットワークのそれぞれを用いてノイズが低減された出力画像から生成される点で、図13(a)のフローチャートとは異なる。その他の処理は、図13(a)のフローチャートと同様である。
以上説明したように、本実施形態によると、画素単位で元画像推定ニューラルネットワークまたはノイズ推定ニューラルネットワークを選択するので、見た目に違和感のないノイズ低減画像を生成することができる。
<第5の実施形態>
第1から第4の実施形態では、元画像推定ニューラルネットワークまたはノイズ推定ニューラルネットワークのいずれか一方の出力画像の画素値だけを用いてノイズが低減された補正画像を生成した。この場合、パッチあるいは画素間でノイズ低減効果が異なるため、結果として、補正画像に不自然なムラが生じる可能性がある。そこで、本実施形態では、2つのニューラルネットワークの出力の加重平均を用いて補正画像を生成する方法を説明する。
パッチ単位の画像解析を用いる場合には、第1の実施形態で述べたように、周波数解析による高周波成分の統計値と、輝度解析による輝度成分の統計値を算出し、これらから重み係数αを決定し、以下の式(1)に従う加重平均を補正画像の画素値とする。
Figure 2020197915
ここで、yは補正結果のパッチの画素値の集合を表すベクトル、x1はノイズ推定ニューラルネットワークの出力値の集合を表すベクトル、x2は元画像推定ニューラルネットワークの出力値の集合を表すベクトル、αは0以上1以下の実数である。パッチに互いに重複が存在する場合には、重複領域の画素値はパッチごとに算出されたyの平均値などを用いる。
また、画素単位で加重平均を行う場合には、y、x1、x2はαの決定に用いたパッチの代表画素(例えばパッチの中心画素)の1画素の値とする。αは、対象パッチの高周波成分の統計値をH、その閾値をθH、対象パッチの輝度成分の統計値をL、その閾値をθLとして、例えば以下の式(2)によって与えることができる。ここで、aH、aLはαの変化の急峻さを決定する実数のパラメータである。
Figure 2020197915
一方で、画像解析の代わりにαを第4のニューラルネットワーク(以降では、重み決定NNと呼ぶ)によって決定することもできる。重み決定NNは、第3の実施形態における選択NNを出力が多値または連続値となるように拡張したものである。重み決定NNの学習は、教師データを多値または連続値に置き換えて学習を行う点以外は、選択NNと同じである。
上述したように、本実施形態では、高周波成分の割合が大きいほど、ノイズ推定ニューラルネットワークの出力値に対する重みを増加させる。なお、高周波成分の統計値が所定の閾値を超える場合には、元画像推定ニューラルネットワークの出力値に対する重みを0にしてもよい。また、輝度成分の割合が大きいほど、ノイズ推定ニューラルネットワークの出力値に対する重みを増加させる。なお、輝度成分の統計値が所定の閾値を超える場合には、元画像推定ニューラルネットワークの出力値に対する重みを0とし、所定の閾値以下の場合にはノイズ推定ニューラルネットワークの出力値に対する重みを0としてもよい。
以上説明したように、本実施形態では、2つのニューラルネットワークの出力の加重平均を用いて補正画像を生成するため、補正画像に生じる可能性がある不自然なムラを抑制することができる。
<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
101 CPU
102 RAM
103 ROM
104 二次記憶装置
105 入力インターフェース
106 出力インターフェース
107 バス
108 外部記憶装置
109 表示装置
110 操作部

Claims (27)

  1. 画像のノイズ低減処理を実行する画像処理装置であって、
    前記画像に含まれるノイズを推定する第1の推定手段と、
    前記画像からノイズが除去された元画像を推定する第2の推定手段と、
    前記画像の部分領域の各々について、前記部分領域の内容に応じて、前記第1の推定手段または前記第2の推定手段を用いて前記ノイズ低減処理を行うノイズ低減手段と、
    前記ノイズ低減処理が行われた部分領域を統合する統合手段と
    を有することを特徴とする画像処理装置。
  2. 少なくとも前記部分領域の高周波成分または輝度成分を解析する解析手段をさらに有し、
    前記ノイズ低減手段は、前記高周波成分または前記輝度成分が所定の閾値を超える部分領域に対して、前記第1の推定手段を用いて前記ノイズ低減処理を行い、そうでない場合は前記第2の推定手段を用いて前記ノイズ低減処理を行うことを特徴とする請求項1に記載の画像処理装置。
  3. 前記部分領域の各々に対して、前記第1の推定手段または前記第2の推定手段を選択する選択手段をさらに備え、
    前記ノイズ低減手段は、前記選択された前記第1の推定手段または前記第2の推定手段を用いて前記ノイズ低減処理を行うことを特徴とする請求項1に記載の画像処理装置。
  4. 前記選択手段は、前記部分領域に対して前記第1の推定手段または前記第2の推定手段を選択するように学習させたニューラルネットワークであることを特徴とする請求項3に記載の画像処理装置。
  5. 画像のノイズ低減処理を実行する画像処理装置であって、
    前記画像に含まれるノイズを推定する第1の推定手段と、
    前記画像からノイズが除去された元画像を推定する第2の推定手段と、
    前記画像の部分領域の各々について、少なくとも前記第1の推定手段または前記第2の推定手段を用いて前記ノイズ低減処理を行うノイズ低減手段と、
    前記ノイズ低減処理が行われた部分領域の内容に応じて、前記第1の推定手段または前記第2の推定手段を用いて前記ノイズ低減処理が行われた部分領域を統合する統合手段と
    を有することを特徴とする画像処理装置。
  6. 前記ノイズ低減処理が行われた部分領域の高周波成分を解析する解析手段をさらに有し、
    前記統合手段は、前記高周波成分が所定の閾値を超える場合に、前記第1の推定手段を用いて前記ノイズ低減処理が行われた部分領域を統合し、そうでない場合は前記第2の推定手段を用いて前記ノイズ低減処理が行われた部分領域を統合することを特徴とする請求項5に記載の画像処理装置。
  7. 前記ノイズ低減処理が行われた部分領域の各々に対して、前記第1の推定手段または前記第2の推定手段を用いて前記ノイズ低減処理が行われた部分領域を選択する選択手段をさらに備え、
    前記統合手段は、前記選択手段によって選択された前記第1の推定手段または前記第2の推定手段によって前記ノイズ低減処理が行われた部分領域を統合することを特徴とする請求項5に記載の画像処理装置。
  8. 前記選択手段は、前記ノイズ低減処理が行われた部分領域に対して前記第1の推定手段または前記第2の推定手段によって前記ノイズ低減処理が行われた部分領域を選択するように学習させたニューラルネットワークであることを特徴とする請求項7に記載の画像処理装置。
  9. 画像のノイズ低減処理を実行する画像処理装置であって、
    前記画像に含まれるノイズを推定する第1の推定手段と、
    前記画像からノイズが除去された元画像を推定する第2の推定手段と、
    前記画像の画素単位で、前記第1の推定手段及び前記第2の推定手段の各々を用いて前記ノイズ低減処理がなされた画像のいずれかを選択するための選択マップを生成する生成手段と、
    前記画像に対して、前記第1の推定手段及び前記第2の推定手段の各々を用いて前記ノイズ低減処理を行うノイズ低減手段と、
    前記選択マップに従い、前記第1の推定手段または前記第2の推定手段を用いて前記ノイズ低減処理がなされた画像の画素値を取得して、前記画像を統合する統合手段と
    を有することを特徴とする画像処理装置。
  10. 前記生成手段は、前記画像の着目画素を中心とした部分領域の高周波成分及び輝度成分を解析し、前記高周波成分または前記輝度成分が所定の閾値を超える場合は、前記着目画素について前記第1の推定手段を用いて前記ノイズ低減処理が行われた画像の画素値を選択するように前記選択マップを生成し、そうでない場合は、前記第2の推定手段を用いて前記ノイズ低減処理が行われた画像の画素値を選択するように前記選択マップを生成することを特徴とする請求項9に記載の画像処理装置。
  11. 前記生成手段は、前記画像の画素単位で、前記第1の推定手段を用いて前記ノイズ低減処理が行われた画像、または前記第2の推定手段を用いて前記ノイズ低減処理が行われた画像のどちらかの画素を選択するように学習させたニューラルネットワークを用いて、前記選択マップを生成することを特徴とする請求項9に記載の画像処理装置。
  12. 画像のノイズ低減処理を実行する画像処理装置であって、
    前記画像に含まれるノイズを推定する第1の推定手段と、
    前記画像からノイズが除去された元画像を推定する第2の推定手段と、
    前記画像に対して、前記第1の推定手段及び前記第2の推定手段の各々を用いて前記ノイズ低減処理を行うノイズ低減手段と、
    前記ノイズ低減処理がなされた画像の画素単位で、前記第1の推定手段及び前記第2の推定手段の各々を用いて前記ノイズ低減処理がなされた画像のいずれかを選択するための選択マップを生成する生成手段と、
    前記選択マップに従い、前記第1の推定手段または前記第2の推定手段を用いて前記ノイズ低減処理がなされた画像の画素値を取得して、前記画像を統合する統合手段と
    を有することを特徴とする画像処理装置。
  13. 前記生成手段は、前記ノイズ低減処理がなされた画像の着目画素を中心とした部分領域の高周波成分及び輝度成分を解析し、前記高周波成分または前記輝度成分が所定の閾値を超える場合は、前記着目画素について前記第1の推定手段を用いて前記ノイズ低減処理が行われた画像の画素値を選択するように前記選択マップを生成し、そうでない場合は、前記第2の推定手段を用いて前記ノイズ低減処理が行われた画像の画素値を選択するように前記選択マップを生成することを特徴とする請求項12に記載の画像処理装置。
  14. 前記生成手段は、前記ノイズ低減処理がなされた画像の画素単位で、前記第1の推定手段を用いて前記ノイズ低減処理が行われた画像、または前記第2の推定手段を用いて前記ノイズ低減処理が行われた画像のどちらかの画素を選択するように学習させたニューラルネットワークを用いて、前記選択マップを生成することを特徴とする請求項12に記載の画像処理装置。
  15. 画像のノイズ低減処理を実行する画像処理装置であって、
    前記画像に含まれるノイズを推定する第1の推定手段と、
    前記画像からノイズが除去された元画像を推定する第2の推定手段と、
    前記画像に対して、前記第1の推定手段及び前記第2の推定手段の各々を用いて前記ノイズ低減処理を行うノイズ低減手段と、
    前記画像の内容に基づいて、前記ノイズ低減処理が行われた画像の各々の出力値に対して重みを付与する付与手段と、
    前記重みに基づいて前記出力値の加重平均を算出し、前記ノイズが低減された補正画像を生成する生成手段と、
    を有することを特徴とする画像処理装置。
  16. 前記付与手段は、前記画像の部分領域が有する高周波成分の割合が大きいほど、前記第1の推定手段を用いて前記ノイズ低減処理が行われた画像の出力値に対する重みを増加させることを特徴とする請求項15に記載の画像処理装置。
  17. 前記付与手段は、前記部分領域が有する高周波成分の統計値が所定の閾値を超える場合に、前記第2の推定手段を用いて前記ノイズ低減処理が行われた画像の出力値に対する重みを0にすることを特徴とする請求項16に記載の画像処理装置。
  18. 前記付与手段は、前記部分領域が有する輝度成分の割合が大きいほど、前記第1の推定手段によって前記ノイズ低減処理が行われた画像の出力値に対する重みを増加させることを特徴とする請求項16または17に記載の画像処理装置。
  19. 前記付与手段は、前記部分領域の輝度成分の統計値が所定の閾値を超える場合に、前記第2の推定手段によって前記ノイズ低減処理が行われた画像の出力値に対する重みを0とし、前記所定の閾値以下の場合には前記第1の推定手段によって前記ノイズ低減処理が行われた画像の出力値に対する重みを0とすることを特徴とする請求項18に記載の画像処理装置。
  20. 前記付与手段は、前記ノイズ低減処理が行われた画像の各々の出力値に対して重みを付与するように学習させたニューラルネットワークであることを特徴とする請求項15乃至19のいずれか1項に記載の画像処理装置。
  21. 前記第1の推定手段は、前記画像に含まれる前記ノイズを推定するように学習させたニューラルネットワークであり、
    前記第2の推定手段は、前記画像から前記ノイズが除去された元画像を推定するように学習させたニューラルネットワークであることを特徴とする請求項1乃至20のいずれか1項に記載の画像処理装置。
  22. コンピュータを請求項1乃至21のいずれか1項に記載の画像処理装置として機能させるためのプログラム。
  23. 画像のノイズ低減のための画像処理方法であって、
    前記画像の部分領域の各々について、前記部分領域の内容に応じて、前記部分領域に含まれるノイズを推定する第1の推定手段、または、前記部分領域からノイズが除去された部分領域の画像を推定する第2の推定手段を用いて、ノイズ低減処理を行うノイズ低減ステップと、
    前記ノイズ低減処理が行われた部分領域を統合する統合ステップと
    を含むことを特徴とする画像処理方法。
  24. 画像のノイズ低減のための画像処理方法であって、
    前記画像の部分領域の各々について、少なくとも前記部分領域に含まれるノイズを推定する第1の推定手段または前記部分領域からノイズが除去された部分領域の画像を推定する第2の推定手段を用いて、ノイズ低減処理を行うノイズ低減ステップと、
    前記ノイズ低減処理が行われた部分領域の内容に応じて、前記第1の推定手段または前記第2の推定手段を用いて前記ノイズ低減処理が行われた部分領域を統合する統合ステップと
    を含むことを特徴とする画像処理方法。
  25. 画像のノイズ低減のための画像処理方法であって、
    前記画像の画素単位で、前記画像に含まれるノイズを推定する第1の推定手段及び前記画像からノイズが除去された元画像を推定する第2の推定手段の各々を用いてノイズ低減処理がなされた画像のいずれかを選択するための選択マップを生成する生成手段と、
    前記画像に対して、前記第1の推定手段及び前記第2の推定手段の各々を用いて前記ノイズ低減処理を行うノイズ低減ステップと、
    前記選択マップに従い、前記第1の推定手段または前記第2の推定手段を用いて前記ノイズ低減処理がなされた画像の画素値を取得して、前記画像を統合する統合ステップと
    を含むことを特徴とする画像処理方法。
  26. 画像のノイズ低減のための画像処理方法であって、
    前記画像に対して、前記画像に含まれるノイズを推定する第1の推定手段及び前記画像からノイズが除去された元画像を推定する第2の推定手段の各々を用いてノイズ低減処理を行うノイズ低減ステップと、
    前記ノイズ低減処理がなされた画像の画素単位で、前記第1の推定手段及び前記第2の推定手段の各々を用いて前記ノイズ低減処理がなされた画像のいずれかを選択するための選択マップを生成する生成手段と、
    前記選択マップに従い、前記第1の推定手段または前記第2の推定手段を用いて前記ノイズ低減処理がなされた画像の画素値を取得して、前記画像を統合する統合ステップと
    を含むことを特徴とする画像処理方法。
  27. 画像のノイズ低減のための画像処理方法であって、
    前記画像に対して、前記画像に含まれるノイズを推定する第1の推定手段及び前記画像からノイズが除去された元画像を推定する第2の推定手段の各々を用いてノイズ低減処理を行うノイズ低減ステップと、
    前記画像の内容に基づいて、前記ノイズ低減処理が行われた画像の各々の出力値に対して重みを付与する付与ステップと、
    前記重みに基づいて前記出力値の加重平均を算出し、前記ノイズが低減された補正画像を生成する生成ステップと
    を含むことを特徴とする画像処理方法。
JP2019103745A 2019-06-03 2019-06-03 画像処理装置、画像処理方法、及びプログラム Active JP7353803B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019103745A JP7353803B2 (ja) 2019-06-03 2019-06-03 画像処理装置、画像処理方法、及びプログラム
US16/889,045 US11526963B2 (en) 2019-06-03 2020-06-01 Image processing apparatus, image processing method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019103745A JP7353803B2 (ja) 2019-06-03 2019-06-03 画像処理装置、画像処理方法、及びプログラム

Publications (3)

Publication Number Publication Date
JP2020197915A true JP2020197915A (ja) 2020-12-10
JP2020197915A5 JP2020197915A5 (ja) 2022-06-10
JP7353803B2 JP7353803B2 (ja) 2023-10-02

Family

ID=73550283

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019103745A Active JP7353803B2 (ja) 2019-06-03 2019-06-03 画像処理装置、画像処理方法、及びプログラム

Country Status (2)

Country Link
US (1) US11526963B2 (ja)
JP (1) JP7353803B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022113761A1 (ja) 2020-11-30 2022-06-02 三井住友建設株式会社 交通制御方法、交通制御システム、制御装置およびプログラム
WO2023018127A1 (ko) * 2021-08-09 2023-02-16 삼성전자 주식회사 이미지를 제공하는 방법 및 이를 지원하는 전자 장치

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11763450B1 (en) * 2019-11-14 2023-09-19 University Of South Florida Mitigating adversarial attacks on medical imaging understanding systems
US11954810B2 (en) * 2022-06-17 2024-04-09 Snap Inc. Augmented reality object rendering based on camera quality

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09231208A (ja) * 1996-02-28 1997-09-05 Oki Electric Ind Co Ltd 表形式の文書データ処理装置
JPH10187884A (ja) * 1996-12-27 1998-07-21 Brother Ind Ltd 文字認識装置および記録媒体

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016031747A (ja) 2014-07-30 2016-03-07 キヤノン株式会社 情報処理装置、情報処理方法
JP6581068B2 (ja) * 2016-11-11 2019-09-25 株式会社東芝 画像処理装置、画像処理方法、プログラム、運転制御システム、および、車両
US11315221B2 (en) * 2019-04-01 2022-04-26 Canon Medical Systems Corporation Apparatus and method for image reconstruction using feature-aware deep learning

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09231208A (ja) * 1996-02-28 1997-09-05 Oki Electric Ind Co Ltd 表形式の文書データ処理装置
JPH10187884A (ja) * 1996-12-27 1998-07-21 Brother Ind Ltd 文字認識装置および記録媒体

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022113761A1 (ja) 2020-11-30 2022-06-02 三井住友建設株式会社 交通制御方法、交通制御システム、制御装置およびプログラム
WO2023018127A1 (ko) * 2021-08-09 2023-02-16 삼성전자 주식회사 이미지를 제공하는 방법 및 이를 지원하는 전자 장치

Also Published As

Publication number Publication date
US20200380641A1 (en) 2020-12-03
JP7353803B2 (ja) 2023-10-02
US11526963B2 (en) 2022-12-13

Similar Documents

Publication Publication Date Title
CN108229526B (zh) 网络训练、图像处理方法、装置、存储介质和电子设备
JP7353803B2 (ja) 画像処理装置、画像処理方法、及びプログラム
CN108805829B (zh) 影像数据处理方法、装置、设备及计算机可读存储介质
CN104463804B (zh) 一种基于直觉模糊集的图像增强方法
JP7362297B2 (ja) 画像処理装置、画像処理方法、及びプログラム
CN111047543A (zh) 图像增强方法、装置和存储介质
US11887218B2 (en) Image optimization method, apparatus, device and storage medium
WO2020093782A1 (en) Method, system, and computer-readable medium for improving quality of low-light images
JP6320115B2 (ja) 画像処理装置、画像処理方法、およびプログラム
CN111951172A (zh) 一种图像优化方法、装置、设备和存储介质
Estrada et al. Stochastic Image Denoising.
JP2021179833A (ja) 情報処理装置、情報処理方法及びプログラム
CN115063318A (zh) 自适应频率分解的低光照图像增强方法与相关设备
CN118096584B (zh) 基于上下文感知和多尺度扩散网络的超声图像增强方法
JP2015226228A (ja) 画像処理装置及びプログラム
CN115471413A (zh) 图像处理方法及装置、计算机可读存储介质和电子设备
JP2021086284A (ja) 画像処理装置、画像処理方法、及びプログラム
Haller Adaptive histogram equalization in GIS
US20220292640A1 (en) Image processing apparatus, image forming system, image processing method, and non-transitory computer-readable storage medium
CN105913427A (zh) 一种基于机器学习的噪声图像显著性检测方法
CN108564534A (zh) 一种基于检索的图像对比度调整方法
CN111435448B (zh) 图像显著性物体检测方法、装置、设备及介质
CN115222606A (zh) 图像处理方法、装置、计算机可读介质及电子设备
Parihar et al. UndarkGAN: Low-light Image Enhancement with Cycle-consistent Adversarial Networks
JP7458857B2 (ja) 画像処理装置、画像処理方法及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220602

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220602

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230307

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230314

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230510

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230822

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230920

R151 Written notification of patent or utility model registration

Ref document number: 7353803

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151