JP2021086284A - 画像処理装置、画像処理方法、及びプログラム - Google Patents
画像処理装置、画像処理方法、及びプログラム Download PDFInfo
- Publication number
- JP2021086284A JP2021086284A JP2019213321A JP2019213321A JP2021086284A JP 2021086284 A JP2021086284 A JP 2021086284A JP 2019213321 A JP2019213321 A JP 2019213321A JP 2019213321 A JP2019213321 A JP 2019213321A JP 2021086284 A JP2021086284 A JP 2021086284A
- Authority
- JP
- Japan
- Prior art keywords
- image
- noise level
- noise
- teacher
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003672 processing method Methods 0.000 title claims 5
- 230000009467 reduction Effects 0.000 claims abstract description 51
- 238000001514 detection method Methods 0.000 claims abstract description 24
- 238000000034 method Methods 0.000 claims description 49
- 230000008569 process Effects 0.000 claims description 36
- 230000006870 function Effects 0.000 claims description 9
- 230000035945 sensitivity Effects 0.000 claims description 8
- 238000013528 artificial neural network Methods 0.000 claims description 7
- 238000006243 chemical reaction Methods 0.000 claims description 4
- 230000010365 information processing Effects 0.000 description 30
- 238000004364 calculation method Methods 0.000 description 21
- 238000010586 diagram Methods 0.000 description 12
- 230000009466 transformation Effects 0.000 description 7
- 238000003708 edge detection Methods 0.000 description 4
- 238000010606 normalization Methods 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 3
- 230000001419 dependent effect Effects 0.000 description 3
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 230000008602 contraction Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 239000006185 dispersion Substances 0.000 description 2
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000013450 outlier detection Methods 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
Images
Abstract
【課題】より好適な画質を実現するノイズ低減の処理モデルを学習するための生徒画像を生成可能にする。【解決手段】画像処理装置(100)は、画像のノイズ低減を行う処理モデルを学習するためのデータを生成する装置であって、ノイズ低減のターゲットとするノイズレベルを取得する取得手段(201)と、教師画像の特徴を検出する検出手段(204)と、教師画像に付加するノイズのノイズレベルを決定する決定手段(205)と、決定されたノイズレベルに対応するノイズを教師画像に付加して生徒画像を生成する生成手段(209)と、を有し、決定手段(205)は、検出手段(204)で検出した教師画像の特徴に応じて、ターゲットのノイズレベルとは異なるノイズレベルを決定する。【選択図】図2
Description
本発明は、画像のノイズを低減するための画像処理技術に関する。
近年、多層のニューラルネットワークで学習を行う深層学習(ディープラーニング)が、画像、音声、言語といった様々な分野で高い性能を実現している。
特許文献1では、画像のノイズ低減にニューラルネットワークを利用する例が開示されており、低ノイズの教師画像にノイズ低減のターゲットとするノイズレベルに対応するノイズを付加し、学習における生徒画像を生成している。
特許文献1では、画像のノイズ低減にニューラルネットワークを利用する例が開示されており、低ノイズの教師画像にノイズ低減のターゲットとするノイズレベルに対応するノイズを付加し、学習における生徒画像を生成している。
深層学習を用いたノイズ低減を行うためには、教師画像にノイズを付加した生徒画像のノイズ低減結果が教師画像に近づくように、ノイズ低減の処理モデル(ニューラルネットワーク)を学習することが望まれる。しかしながら、ノイズ低減のターゲットとするノイズレベルを用い、そのターゲットするレベルのノイズを教師画像に付加して学習したとしても、画像によってはノイズ低減後の画質が劣化してしまうことがある。
そこで、本発明は、より好適な画質を実現するノイズ低減の処理モデルを学習するための生徒画像を生成可能にすることを目的とする。
本発明は、画像のノイズ低減を行う処理モデルを学習するためのデータを生成する画像処理装置であって、ノイズ低減のターゲットとするノイズレベルを取得する取得手段と、教師画像の特徴を検出する検出手段と、前記教師画像に付加するノイズのノイズレベルを決定する決定手段と、前記決定されたノイズレベルに対応するノイズを前記教師画像に付加して生徒画像を生成する生成手段と、を有し、前記決定手段は、前記検出手段で検出した前記教師画像の特徴に応じて、前記ターゲットのノイズレベルとは異なるノイズレベルを決定することを特徴とする。
本発明によれば、より好適な画質を実現するノイズ低減の処理モデルを学習するための生徒画像を生成可能となる。
以下、本発明の実施形態について、図面を参照して説明する。なお、以下の実施形態は本発明を限定するものではなく、また、本実施形態で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものと限定されるものではない。なお、同一の構成については、同じ参照符号を付して説明する。
<第1の実施形態>
図1は、本発明の画像処理装置が適用される情報処理装置100のハードウェア構成の一例を示す図である。本実施形態において、情報処理装置100は、画像のノイズ低減を行う処理モデルを学習するためのデータを生成する。
図1は、本発明の画像処理装置が適用される情報処理装置100のハードウェア構成の一例を示す図である。本実施形態において、情報処理装置100は、画像のノイズ低減を行う処理モデルを学習するためのデータを生成する。
本実施形態の情報処理装置100は、CPU101、RAM102、ROM103、二次記憶装置104、入力インターフェース105、及び出力インターフェース106を含む。情報処理装置100の各構成要素は、システムバス107によって相互に接続されている。また、情報処理装置100は、入力インターフェース105を介して外部記憶装置108および操作部110に接続されている。また、情報処理装置100は、出力インターフェース106を介して外部記憶装置108および表示装置109に接続されている。
CPU101は、RAM102をワークメモリとして、ROM103に格納されたプログラムを実行し、システムバス107を介して情報処理装置100の各構成要素を統括的に制御する。これにより、後述する様々な処理が実行される。二次記憶装置104は、情報処理装置100で取り扱われる種々のデータを記憶する記憶装置であり、本実施形態ではHDDが用いられる。CPU101は、システムバス107を介して二次記憶装置104へのデータの書き込みおよび二次記憶装置104に記憶されたデータの読出しを行う。なお、二次記憶装置104にはHDDの他に、光ディスクドライブやフラッシュメモリなど、様々な記憶デバイスを用いることが可能である。
入力インターフェース105は、例えばUSBやIEEE1394等のシリアルバスインターフェースである。情報処理装置100は、入力インターフェース105を介して、外部装置からデータや命令等を入力する。本実施形態では、情報処理装置100は、入力インターフェース105を介して、外部記憶装置108(例えば、ハードディスク、メモリカード、CFカード、SDカード、USBメモリなどの記憶媒体)からデータを取得する。また本実施形態では、情報処理装置100は、操作部110に入力されたユーザの指示を、入力インターフェース105を介して取得する。操作部110は、マウスやキーボードなどの入力装置であり、ユーザの指示を入力する。
出力インターフェース106は、入力インターフェース105と同様にUSBやIEEE1394等のシリアルバスインターフェースである。なお、出力インターフェース106は、例えばDVIやHDMI(登録商標)等の映像出力端子であってもよい。情報処理装置100は、出力インターフェース106を介して、外部装置にデータ等を出力する。本実施形態では、情報処理装置100は、出力インターフェース106を介して表示装置109(液晶ディスプレイなどの各種画像表示デバイス)に、CPU101によって処理されたデータ(例えば、画像データ)を出力する。なお、情報処理装置100の構成要素は上記以外にも存在するが、それらの説明は省略する。
以下、第1の実施形態の情報処理装置100で行われる処理について、図2に示される機能ブロック図と、図3に示されるフローチャートを参照して説明する。
図2は、第1の実施形態の情報処理装置100の機能ブロック図である。情報処理装置100は、ターゲットレベル取得部201、教師画像取得部202、画像記憶部203、特徴検出部204、ノイズレベル算出部205、関係パラメータ記憶部206、モデル学習部207、モデル記憶部208、及び生徒画像生成部209を含む。各機能部の詳細は、図3のフローチャートを参照しながら後述する。
図2は、第1の実施形態の情報処理装置100の機能ブロック図である。情報処理装置100は、ターゲットレベル取得部201、教師画像取得部202、画像記憶部203、特徴検出部204、ノイズレベル算出部205、関係パラメータ記憶部206、モデル学習部207、モデル記憶部208、及び生徒画像生成部209を含む。各機能部の詳細は、図3のフローチャートを参照しながら後述する。
図3のフローチャートで示される一連の処理は、CPU101がROM103などの記憶領域に格納されたプログラムコードをRAM102に読み出して実行することにより実現される。あるいはまた、フローチャートにおけるステップの一部または全部の機能は、ASICや電子回路等のハードウェアで実現されてもよい。
ステップS301では、ターゲットレベル取得部201が、ノイズ低減のターゲットとするノイズレベル(ターゲットノイズレベル)を取得する。本実施形態においてノイズレベルは、画像撮影時のISO感度に応じて生ずるノイズレベルを用いる。このため本実施形態では、ノイズレベルを、例えばISO51200のように画像撮影時のISO感度で表すようにする。ノイズレベルとして他の物理パラメータが用いられてもよい。ターゲットノイズレベルは、例えば、情報処理装置100の操作部110を介してユーザにより指定される。
ステップS302〜ステップS305は、教師画像ごとの処理であるため、教師画像ループの中で行う。
ステップS302では、教師画像取得部202が、画像記憶部203が保持している教師画像を取得する。ここで教師画像とは、典型的にはクリーン(低ノイズ)な画像から切り出された比較的小さな(例えば64×64ピクセルの)画像パッチであり、ノイズ低減の処理モデルの学習における学習用データを構成する。なお、教師画像はCG(コンピュータグラフィックス)で生成されたCG画像であってもよい。
ステップS302では、教師画像取得部202が、画像記憶部203が保持している教師画像を取得する。ここで教師画像とは、典型的にはクリーン(低ノイズ)な画像から切り出された比較的小さな(例えば64×64ピクセルの)画像パッチであり、ノイズ低減の処理モデルの学習における学習用データを構成する。なお、教師画像はCG(コンピュータグラフィックス)で生成されたCG画像であってもよい。
ここで、本実施形態における教師画像とターゲットノイズレベル、さらに生徒画像について説明する。
図4は、図5に示した教師画像500に対して、ノイズ低減のターゲットレベル、ターゲットレベルより低いレベル、またはターゲットレベルより高いレベルのノイズをそれぞれ付加して学習した場合の、ノイズ低減結果の各画像を模式的に示した図である。なお図4の画像401,402,403は、それぞれ対応した図5に示す教師画像500の画像501,502,503に対して、ノイズ低減のターゲットノイズレベルより低いレベルのノイズを付加して学習した場合のノイズ低減結果の画像例を示している。また図4の画像411,412,413は、それぞれ対応した教師画像500の画像501,502,503に対して、ノイズ低減のターゲットノイズレベルのノイズを付加して学習した場合のノイズ低減結果の画像を示している。さらに図4の画像421,422,423は、それぞれ対応した教師画像500の画像501,502,503に対して、ノイズ低減のターゲットノイズレベルより高いレベルのノイズを付加して学習した場合のノイズ低減結果の画像例を示している。
図4は、図5に示した教師画像500に対して、ノイズ低減のターゲットレベル、ターゲットレベルより低いレベル、またはターゲットレベルより高いレベルのノイズをそれぞれ付加して学習した場合の、ノイズ低減結果の各画像を模式的に示した図である。なお図4の画像401,402,403は、それぞれ対応した図5に示す教師画像500の画像501,502,503に対して、ノイズ低減のターゲットノイズレベルより低いレベルのノイズを付加して学習した場合のノイズ低減結果の画像例を示している。また図4の画像411,412,413は、それぞれ対応した教師画像500の画像501,502,503に対して、ノイズ低減のターゲットノイズレベルのノイズを付加して学習した場合のノイズ低減結果の画像を示している。さらに図4の画像421,422,423は、それぞれ対応した教師画像500の画像501,502,503に対して、ノイズ低減のターゲットノイズレベルより高いレベルのノイズを付加して学習した場合のノイズ低減結果の画像例を示している。
例えばターゲットノイズレベルのノイズを付加して学習した場合のノイズ低減結果の各画像411〜413のうち、教師画像として比較的はっきりした丸の図形を含む画像502が用いられた場合の画像412は、概ね適切にノイズ低減された画像となる。しかしながら、教師画像として細いエッジ(細線)を含む画像501が用いられた場合の画像411は、細線の一部が欠き消えてしまっている。また教師画像として暗い水面などの低コントラストで低輝度の画像503が用いられた場合の画像413は、本来とは異なるテクスチャが作り出されるいわゆるアーティファクトが生じている。このように、教師画像にノイズ低減のターゲットノイズレベルのノイズを付加して学習した場合には、例えば細線消失やアーティファクト発生などのような画質劣化が生ずることがある。
一方で、例えばターゲットノイズレベルより低いレベルのノイズを付加して学習した場合には、ターゲットノイズレベルのノイズが付加された場合よりも、ノイズを低減しようとはしなくなる。このため、ターゲットノイズレベルより低いレベルのノイズを付加して学習した場合のノイズ低減結果の各画像401〜403は、教師画像の各画像501〜503に対してそれぞれ僅かにノイズが残った画像となる。
ここで、これらターゲットノイズレベルのノイズを付加して学習した場合のノイズ低減結果の各画像411〜413と、ターゲットノイズレベルより低いレベルのノイズを付加して学習した場合の画像401〜403とを比較してみる。
例えば、教師画像が比較的はっきりした丸の図形を含む画像502であった場合、それに対応した画像412と画像402とを比較した場合、画像402は画像412に比べてノイズが残っている。すなわち、ターゲットノイズレベルより低いレベルのノイズを付加して学習した場合における画像402は、ターゲットノイズレベルのノイズを付加して学習した場合における画像412よりも好適な画質になっているとは言えない。
例えば、教師画像が比較的はっきりした丸の図形を含む画像502であった場合、それに対応した画像412と画像402とを比較した場合、画像402は画像412に比べてノイズが残っている。すなわち、ターゲットノイズレベルより低いレベルのノイズを付加して学習した場合における画像402は、ターゲットノイズレベルのノイズを付加して学習した場合における画像412よりも好適な画質になっているとは言えない。
これに対し、教師画像が細いエッジ(細線)を含む画像501であった場合、それに対応した画像411と画像401とを比較した場合、画像411は細線の一部が消えているのに対し、画像401では多少のノイズは残っているものの細線は維持されている。このため、ターゲットノイズレベルより低いレベルのノイズを付加して学習した場合における画像401は、ターゲットノイズレベルのノイズを付加して学習した場合における画像401よりも好適な画質になっていると言える。すなわち、教師画像が細いエッジ(細線)を含む画像501であった場合、ノイズ低減のターゲットノイズレベルより低いレベルのノイズを付加して学習することで、細線が維持された好適な画質を実現することができることになる。
また例えば、ターゲットノイズレベルより高いレベルのノイズを付加して学習した場合には、ターゲットノイズレベルのノイズが付加された場合よりも、さらにノイズを低減しようとすることになる。このため、ターゲットノイズレベルより高いレベルのノイズを付加して学習した場合のノイズ低減結果の各画像421〜423は、ターゲットノイズレベルのノイズを付加して学習した場合における各画像411〜413よりも平滑化された画像となる。
ここで、ターゲットノイズレベルのノイズを付加して学習した場合のノイズ低減結果の各画像411〜413と、ターゲットノイズレベルより高いレベルのノイズを付加して学習した場合の画像421〜423とを比較してみる。
例えば、教師画像が細いエッジ(細線)を含む画像501であった場合、それに対応した画像421と画像411とを比較した場合、画像421は細線が消えてしまっているのに対し、画像411では一部消えてはいるものの細線が存在することは確認できる。すなわち、ターゲットノイズレベルより高いレベルのノイズを付加して学習した場合における画像422は、ターゲットノイズレベルのノイズを付加して学習した場合における画像411よりも好適な画質になっているとは言えない。
例えば、教師画像が細いエッジ(細線)を含む画像501であった場合、それに対応した画像421と画像411とを比較した場合、画像421は細線が消えてしまっているのに対し、画像411では一部消えてはいるものの細線が存在することは確認できる。すなわち、ターゲットノイズレベルより高いレベルのノイズを付加して学習した場合における画像422は、ターゲットノイズレベルのノイズを付加して学習した場合における画像411よりも好適な画質になっているとは言えない。
また、教師画像が比較的はっきりした丸の図形を含む画像502であった場合、それに対応した画像422と画像412とを比較した場合、画像422は丸の図形が暈けてしまっているのに対し、画像412では丸の図形がはっきりと維持されている。すなわちターゲットノイズレベルより高いレベルのノイズを付加して学習した場合における画像422は、ターゲットノイズレベルのノイズを付加して学習した場合における画像412よりも好適な画質になっているとは言えない。
これに対し、教師画像が暗い水面などの低コントラストで低輝度の画像503であった場合、それに対応した画像423と画像413とを比較した場合、画像413の方には本来とは異なるテクスチャが作り出されるアーティファクトが生じている。一方、画像423は、画像が暈けてはいるもののアーティファクトは生じていない。このため、ターゲットノイズレベルより高いレベルのノイズを付加して学習した場合における画像423は、ターゲットノイズレベルのノイズを付加して学習した場合における画像413よりも好適な画質になっていると言える。すなわち、教師画像が暗い水面などの低コントラストで低輝度の画像503であった場合、ノイズ低減のターゲットノイズレベルより高いレベルのノイズを付加して学習することで、アーティファクトの発生が抑制された好適な画質を実現することができる。
以上述べたようなことを踏まえて、本実施形態では、画像のエッジやコントラスト・輝度といった、教師画像の特徴に応じて、教師画像に付加するノイズのノイズレベルを制御する。これにより、本実施形態においては、細線維持やアーティファクトの発生抑制といった、より好適な画質を実現するノイズ低減を可能にする処理モデルを学習するための生徒画像を生成する。
図3のフローチャートに説明を戻す。
ステップS303に進むと、特徴検出部204は、ステップS302で取得した教師画像からエッジ幅マップを算出する。特徴検出部204は、具体的には例えば、方向ごと(例えば45°ごとの8方向)に複数の幅のエッジ画像(例えば7×7ピクセル)を用意して、エッジ検出フィルタのカーネルとして用いる。そして、特徴検出部204は、教師画像と各エッジ検出フィルタの2次元畳み込みを行い、その畳み込み出力(の絶対値)が所定値(エッジ検出の閾値)以上かつ最大となったときのエッジ検出フィルタの幅を、教師画像の注目画素におけるエッジ幅とする。特徴検出部204は、このようにして教師画像の各画素のエッジ幅を記録したエッジ幅マップを算出する。
ステップS303に進むと、特徴検出部204は、ステップS302で取得した教師画像からエッジ幅マップを算出する。特徴検出部204は、具体的には例えば、方向ごと(例えば45°ごとの8方向)に複数の幅のエッジ画像(例えば7×7ピクセル)を用意して、エッジ検出フィルタのカーネルとして用いる。そして、特徴検出部204は、教師画像と各エッジ検出フィルタの2次元畳み込みを行い、その畳み込み出力(の絶対値)が所定値(エッジ検出の閾値)以上かつ最大となったときのエッジ検出フィルタの幅を、教師画像の注目画素におけるエッジ幅とする。特徴検出部204は、このようにして教師画像の各画素のエッジ幅を記録したエッジ幅マップを算出する。
次にステップS304では、特徴検出部204が、ステップS302で取得した教師画像から局所コントラストマップを算出する。特徴検出部204は、教師画像の注目画素における局所コントラストCを、例えば次の式(1)で算出する。
C=(Imax−Imin)/(Imax+Imin) 式(1)
ここで、式(1)のImaxは、注目画素を中心とする参照画素(例えば15×15ピクセル)の輝度の最大値であり、Iminは、注目画素を中心とする参照画素(15×15ピクセル)の輝度の最小値である。特徴検出部204は、このようにして教師画像の各画素の局所コントラストを記録した局所コントラストマップを算出する。
ここで、式(1)のImaxとIminはそれぞれ、注目画素を中心とする参照画素(例えば15×15ピクセル)の輝度の最大値と最小値である。特徴検出部204は、このようにして教師画像の各画素の局所コントラストを記録した局所コントラストマップを算出する。
ここで、式(1)のImaxとIminはそれぞれ、注目画素を中心とする参照画素(例えば15×15ピクセル)の輝度の最大値と最小値である。特徴検出部204は、このようにして教師画像の各画素の局所コントラストを記録した局所コントラストマップを算出する。
なお、教師画像が例えば符号化された画像を元にしている場合、画像特徴量の情報を有している場合があるため、特徴検出部204は、その情報を検出して画像特徴量を取得するようにしてもよい。
次にステップS305では、ノイズレベル算出部205が、教師画像に付加するノイズのノイズレベル(付加ノイズレベル)を算出する。ここで、ノイズレベル算出部205は、関係パラメータ記憶部206が保持している、画像特徴と付加ノイズレベルとの関係を用いて、ステップS303〜S304で算出した画像特徴から教師画像に対する付加ノイズレベルを算出する。なお、画像特徴と付加ノイズレベルの関係を示す情報は、例えば予め外部から取得されて関係パラメータ記憶部206に保持されている。
まずノイズレベル算出部205は、画像特徴のうちエッジ幅が細いほどノイズ低減においてエッジ(細線)が消失しやすいという知見に基づき、例えば図6(a)のようなエッジ幅と付加ノイズレベルとの関係を用いてエッジ幅から付加ノイズレベルを算出する。
ここで、図6(a)は、ターゲットノイズレベルがISO51200のノイズレベルの場合における、付加ノイズレベルとエッジ幅との関係を示した図である。図6(a)は、縦軸が付加ノイズレベル(ISO感度)、横軸がエッジ幅を表し、ノイズレベル算出部205は、図中実線600で示すようにエッジ幅に応じた付加ノイズレベルを取得する。すなわち図6(a)に示すように、ノイズレベル算出部205は、画像特徴のうちエッジ幅が細いほど、教師画像に対する付加ノイズレベルをターゲットノイズレベル(ISO51200のノイズレベル)より低くする。なおノイズレベル算出部205は、エッジ幅が細くなるほど付加ノイズレベルをターゲットノイズレベルより低くするが、付加ノイズレベルを下げ過ぎるとノイズ低減結果がノイジーに感じられようになる場合がある。図6(a)の例の場合、ISO51200のターゲットノイズレベルより1/3段低いISO40000のノイズレベルが、付加ノイズレベルの下限値となされている。
ノイズレベル算出部205は、前述のようにして、教師画像のエッジ幅マップから、教師画像の各画素の付加ノイズレベルを算出する。なお、ノイズレベル算出部205は、エッジが検出されていない画素については付加ノイズレベルをターゲットノイズレベルと同じにする。またノイズレベル算出部205は、画素単位ではなく画像単位で付加ノイズレベルを算出する場合には、例えば教師画像の各画素で検出されたエッジ幅の最小値、平均値、中央値などを用いて付加ノイズレベルを算出する。
またノイズレベル算出部205は、画像特徴のうちコントラストと輝度についてはコントラスト・輝度が低いほどノイズ低減においてアーティファクトが発生しやすいという知見に基づき、コントラストと輝度に係る指標を基に付加ノイズレベルを算出する。ノイズレベル算出部205は、図6(b)に示すコントラスト・輝度と付加ノイズレベルとの関係を基に、コントラスト・輝度から付加ノイズレベルを算出する。
ここで、図6(b)は、ターゲットノイズレベルがISO51200のノイズレベルの場合における、付加ノイズレベルと、コントラストおよび輝度との関係を示した図である。図6(b)は、縦軸が付加ノイズレベル(ISO感度)、横軸がコントラストおよび輝度を表し、ノイズレベル算出部205は、図中実線610で示すようにコントラストおよび輝度に係る指標に応じた付加ノイズレベルを取得する。図6(b)の横軸のコントラスト・輝度に係る指標は、例えばコントラストと輝度の(重み付き)和や積として算出する。ノイズレベル算出部205は、図6(b)に示すように、コントラスト・輝度に係る指標の値が低いほど、教師画像に対する付加ノイズレベルをターゲットノイズレベルより高くする。ノイズレベル算出部205は、コントラスト・輝度に係る指標の値が低いほど、付加ノイズレベルをターゲットノイズレベルより高くするが、付加ノイズレベルを上げ過ぎるとノイズ低減結果が過平滑に感じられるようになる場合がある。図6(b)の例の場合、ISO51200のターゲットノイズレベルより2/3段高いISO80000のノイズレベルが、付加ノイズレベルの上限値となされている。
なお、ノイズ低減結果の画質の観点から、付加ノイズレベルの限度値(つまり下限値および上限値)とターゲットノイズレベルとの(段数)差の絶対値は、下限値の方が小さくなるように定めるのが好適である。
ノイズレベル算出部205は、このようにして、教師画像の局所コントラストマップおよび輝度から、教師画像の各画素の付加ノイズレベルを決定する。なお、ノイズレベル算出部205は、画素単位ではなく画像単位で付加ノイズレベルを算出する場合には例えば局所コントラストマップや輝度の全画素に亘る最小値、平均値、中央値などを用いて付加ノイズレベルを算出する。
ノイズレベル算出部205は、このようにして、教師画像の局所コントラストマップおよび輝度から、教師画像の各画素の付加ノイズレベルを決定する。なお、ノイズレベル算出部205は、画素単位ではなく画像単位で付加ノイズレベルを算出する場合には例えば局所コントラストマップや輝度の全画素に亘る最小値、平均値、中央値などを用いて付加ノイズレベルを算出する。
以上のようにして、エッジ幅から算出した付加ノイズレベルN1と、コントラスト・輝度から算出した付加ノイズレベルN2とが得られるため、ノイズレベル算出部205は、これらを用いて最終的な付加ノイズレベルNを例えば次式(2)のように算出する。なお、式(2)のT(=51200)はターゲットノイズレベルである。
N=T+(N1−T)+(N2−T)=N1+N2−T 式(2)
例えば、N1=40000、N2=51200の場合、N=40000である。また、N1=51200、N2=80000の場合、N=80000である。また、N1=40000、N2=80000の場合、N=68800である。N1およびN2が画素単位で算出されていればNも画素単位で算出でき、N1およびN2が画像単位で算出されていればNも画像単位で算出される。
さらに、各画像特徴から算出される付加ノイズレベルが合計K個となる場合に式(2)を一般化すると、次式(3)のようになる。ここで、k(=1〜K)は付加ノイズレベルのインデックスである。
N=T+Σk(Nk−T)=ΣkNk−(K−1)T 式(3)
なお図6(a)、図6(b)の図中の双方向矢印601,602,603または611,612,613で示すように、画像特徴と付加ノイズレベルの関係パラメータは、例えば情報処理装置100の操作部110を介してユーザが調整できるようになされてもよい。例えば図6(a)では、横方向の2つの双方向矢印601,602で調整するパラメータを同値にすれば、エッジ幅が所定値以下となった場合に付加ノイズレベルをターゲットノイズレベルから下限値に切替える構成となる。図6(b)の横方向の2つの双方向矢印611,612で調整するパラメータを同値にすれば、コントラストと輝度に係る指標が所定値以下の場合、付加ノイズレベルをターゲットノイズレベルから上限値に切替える構成となる。
ここで、本実施形態でノイズ低減の処理モデルとして用いる、ニューラルネットワーク(以下、NNとする)の構造と学習について概論的な説明を行う。
図7(a)は、NNの全体構造の一例を示した図である。本実施形態では、畳み込みニューラルネットワーク(CNN:Convolutional NN)を例に用いて説明するが、この構造には限定されない。
図7(a)に示した構造では、最初に、入力層にノイズを含む画像が入力される。その後、逐次的にブロック1からブロックNまでの処理が実行される。最後に、出力層にデータが出力される。ブロック間を伝達するデータは、入力データと同サイズ、またはより低い解像度の複数チャネルの画像の形態をとる。出力データは、推定されたノイズ、もしくはノイズが低減された画像である。出力データが、推定されたノイズである場合、入力データから出力データを差し引くことで、ノイズが低減された画像が得られる。
図7(a)は、NNの全体構造の一例を示した図である。本実施形態では、畳み込みニューラルネットワーク(CNN:Convolutional NN)を例に用いて説明するが、この構造には限定されない。
図7(a)に示した構造では、最初に、入力層にノイズを含む画像が入力される。その後、逐次的にブロック1からブロックNまでの処理が実行される。最後に、出力層にデータが出力される。ブロック間を伝達するデータは、入力データと同サイズ、またはより低い解像度の複数チャネルの画像の形態をとる。出力データは、推定されたノイズ、もしくはノイズが低減された画像である。出力データが、推定されたノイズである場合、入力データから出力データを差し引くことで、ノイズが低減された画像が得られる。
図7(b)は、ブロック1からブロックNまでの各ブロックの構造を示した図である。各ブロックは、畳み込み層、正規化層、及び活性化層を連結した構造となっているが、必ずしも全てを含む必要はなく、ブロックによって構造が異なっていてもよい。また、NNの全体構造は、入力層または任意のブロックの出力と、別のブロックの出力とを加算または連結するようなスキップ接続を有してもよい。図7(c)は、ノイズが低減された画像が出力されるNNの構造の一例として、入力層とブロックの出力とを加算するスキップ接続を有する構造を示した図である。
畳み込み層は、入力されるデータの各チャネルに対し所定のフィルタを畳み込んだ結果を加算し出力する。フィルタ係数は後述する学習によって決定する。畳み込み層の出力のチャネル数は任意に決めることができ、出力チャネル数に応じた種類のフィルタを用意すればよい。
正規化層は、入力データの平均と分散を補正する線形変換を行う。例えば、学習用データを入力したときの正規化層の出力が、平均が0、分散が1になるように線形変換の係数を、後述する学習によって決定する。
活性化層は、入力されるデータに対し、要素ごとに独立に非線形変換を行う。非線形変換は具体的には、sigmoid関数、tanh関数、ReLU(Rectified Linear Unit)など一般に知られている関数を用いることができる。
正規化層は、入力データの平均と分散を補正する線形変換を行う。例えば、学習用データを入力したときの正規化層の出力が、平均が0、分散が1になるように線形変換の係数を、後述する学習によって決定する。
活性化層は、入力されるデータに対し、要素ごとに独立に非線形変換を行う。非線形変換は具体的には、sigmoid関数、tanh関数、ReLU(Rectified Linear Unit)など一般に知られている関数を用いることができる。
次に、NNの学習について説明する。
NNの学習とは、具体的には、NNを構成するパラメータを、学習用データを用いて決定することを指す。パラメータとしては、例えば、畳み込み層のフィルタ係数、正規化層の線形変換の係数が挙げられる。
学習用データは、入力データ(生徒データ)と出力データの正解値(教師データ)のペアの集合である。ノイズ低減を目的とする場合には、生徒データ(生徒画像)は実写画像またはCG画像に人工的なノイズを付加して得られるノイズ画像とし、教師データ(教師画像)はノイズを付加する前の元画像、または付加したノイズ自体とする。
人工ノイズは、一般的に、分散値が同一のガウス乱数を画素ごと独立に加算して生成されるが、輝度依存性ノイズなど、より現実に近いノイズモデルを用いて生成してもよい。この人工ノイズにおける分散値は、特定のISO感度に対応した値とする。
一般にCNNにおいては、学習はパッチ(画像から抽出された小領域)単位で行うが、学習後の処理時には画像全体をそのままのサイズで入力し、同じサイズの出力画像を得ることができる。
NNの学習とは、具体的には、NNを構成するパラメータを、学習用データを用いて決定することを指す。パラメータとしては、例えば、畳み込み層のフィルタ係数、正規化層の線形変換の係数が挙げられる。
学習用データは、入力データ(生徒データ)と出力データの正解値(教師データ)のペアの集合である。ノイズ低減を目的とする場合には、生徒データ(生徒画像)は実写画像またはCG画像に人工的なノイズを付加して得られるノイズ画像とし、教師データ(教師画像)はノイズを付加する前の元画像、または付加したノイズ自体とする。
人工ノイズは、一般的に、分散値が同一のガウス乱数を画素ごと独立に加算して生成されるが、輝度依存性ノイズなど、より現実に近いノイズモデルを用いて生成してもよい。この人工ノイズにおける分散値は、特定のISO感度に対応した値とする。
一般にCNNにおいては、学習はパッチ(画像から抽出された小領域)単位で行うが、学習後の処理時には画像全体をそのままのサイズで入力し、同じサイズの出力画像を得ることができる。
図3のフローチャートに説明を戻す。
ステップS306では、モデル学習部207が、ターゲットノイズレベルに対応するノイズ低減を行うための処理モデル(ニューラルネットワーク)について、学習前の初期設定を行う。モデル学習部207は、典型的には、処理モデルのパラメータを乱数で初期化する。また、既存の処理モデルから追加学習を行う場合は、モデル学習部207が、モデル記憶部208が保持している、ターゲットノイズレベルに対応する処理モデルを読み込む。
ステップS306では、モデル学習部207が、ターゲットノイズレベルに対応するノイズ低減を行うための処理モデル(ニューラルネットワーク)について、学習前の初期設定を行う。モデル学習部207は、典型的には、処理モデルのパラメータを乱数で初期化する。また、既存の処理モデルから追加学習を行う場合は、モデル学習部207が、モデル記憶部208が保持している、ターゲットノイズレベルに対応する処理モデルを読み込む。
次に、ステップS307〜S308は、処理モデル学習中の処理であるため、学習ループ(例えば学習用データを所定のエポック数学習する)の中で行う。さらに、ステップS307〜S308は、教師画像ごとの処理であるため、教師画像ループの中で行う。
ステップS307では、生徒画像生成部209が、ステップS305で算出した付加ノイズレベルに対応するノイズを教師画像に付加することで、教師画像の対となる生徒画像を生成する。
以下、ノイズを与えるための式について説明する。
画像に含まれるノイズは、主として撮像素子の内部で発生しており、一般的に用いられるモデルとして、各画素値のノイズは画素間で独立であり、輝度によって決定される標準偏差を有する正規分布に従う乱数で与えられる。このようなノイズを、輝度依存性ノイズと呼ぶ。輝度依存性ノイズの標準偏差σの二乗は、一般的に以下の式(4)によって与えられる。
画像に含まれるノイズは、主として撮像素子の内部で発生しており、一般的に用いられるモデルとして、各画素値のノイズは画素間で独立であり、輝度によって決定される標準偏差を有する正規分布に従う乱数で与えられる。このようなノイズを、輝度依存性ノイズと呼ぶ。輝度依存性ノイズの標準偏差σの二乗は、一般的に以下の式(4)によって与えられる。
σ(x)^2=max(0,ax+b) 式(4)
ここで、式(4)において、xはノイズが付加される前の画素値、aおよびbはISO感度やカメラ機種によって異なるモデルパラメータ、maxは引数のうち大きい方の値を返す関数である。
本ステップで教師画像に付加するノイズは、各画素が独立に式(4)で与えられる標準偏差σをもつ正規乱数として与えることができる。ISO感度(本実施形態ではノイズレベルとして用いている)が大きいほど、式(4)の比例係数aも大きくなる傾向があるため、付加ノイズレベルが大きいほど、強い(標準偏差σが大きい)ノイズを教師画像に付加することになる。なお、画素単位で付加ノイズレベルが算出されていれば、式(4)のaおよびbも画素単位で異なる値となり、画像単位で付加ノイズレベルが算出されていれば、aおよびbは全画素で共通の値となる。
本ステップで教師画像に付加するノイズは、各画素が独立に式(4)で与えられる標準偏差σをもつ正規乱数として与えることができる。ISO感度(本実施形態ではノイズレベルとして用いている)が大きいほど、式(4)の比例係数aも大きくなる傾向があるため、付加ノイズレベルが大きいほど、強い(標準偏差σが大きい)ノイズを教師画像に付加することになる。なお、画素単位で付加ノイズレベルが算出されていれば、式(4)のaおよびbも画素単位で異なる値となり、画像単位で付加ノイズレベルが算出されていれば、aおよびbは全画素で共通の値となる。
次にステップS308では、モデル学習部207が、ステップS307で生成された生徒画像のノイズ低減結果が教師画像に近づくように、典型的には誤差逆伝播法を用いて処理モデルのパラメータを更新する。なお、1枚の教師画像ごとにパラメータ更新を行うオンライン学習のほか、所定枚数の教師画像ごとにパラメータ更新を行うミニバッチ学習等が行われてもよい。学習(パラメータ更新)が終了して学習ループを抜けたときの処理モデルは、モデル記憶部208に保存される。
以上説明した本実施形態の情報処理装置100によれば、教師画像の特徴に応じて教師画像に付加するノイズのノイズレベルを制御することで、より好適な画質を実現するノイズ低減の処理モデルを学習するための生徒画像を生成することができる。
ここで、本実施形態における生徒画像の生成について、図5を用いて説明する。
まず本実施形態において、生徒画像の生成は、ターゲットノイズレベルごとに行われる。図5は、ISO5000〜ISO80000の付加ノイズレベル531〜536の例と、ターゲットノイズレベルがISO6400の場合の生徒画像510と、ターゲットノイズレベルがISO51200の場合の生徒画像520の例を示している。なお、生徒画像510の画像511,512,513は、教師画像500の画像501,502,503にそれぞれ対応した画像である。同様に、生徒画像520の画像521,522,523は、教師画像500の画像501,502,503にそれぞれ対応した画像である。各ターゲットノイズレベル用の各生徒画像の生成において、教師画像の特徴に応じて、ターゲットノイズレベルとは異なる付加ノイズレベルで教師画像にノイズが付加される。
まず本実施形態において、生徒画像の生成は、ターゲットノイズレベルごとに行われる。図5は、ISO5000〜ISO80000の付加ノイズレベル531〜536の例と、ターゲットノイズレベルがISO6400の場合の生徒画像510と、ターゲットノイズレベルがISO51200の場合の生徒画像520の例を示している。なお、生徒画像510の画像511,512,513は、教師画像500の画像501,502,503にそれぞれ対応した画像である。同様に、生徒画像520の画像521,522,523は、教師画像500の画像501,502,503にそれぞれ対応した画像である。各ターゲットノイズレベル用の各生徒画像の生成において、教師画像の特徴に応じて、ターゲットノイズレベルとは異なる付加ノイズレベルで教師画像にノイズが付加される。
例えば、教師画像として図5の細いエッジ(細線)を含む画像501に対する付加ノイズレベルは、ターゲットノイズレベルより低いノイズレベルとする。例えばターゲットノイズレベルより1/3段低くするとして、ターゲットノイズレベルがISO6400の場合には付加ノイズレベルはISO5000とし、ターゲットノイズレベルがISO51200の場合には付加ノイズレベルはISO40000とする。
また例えば、教師画像として図5の低コントラスト・低輝度の画像503に対する付加ノイズレベルは、ターゲットノイズレベルより高いノイズレベルとする。例えばターゲットノイズレベルより2/3段高くするとして、ターゲットノイズレベルがISO6400の場合には付加ノイズレベルはISO10000とし、ターゲットノイズレベルがISO51200の場合には付加ノイズレベルはISO80000とする。
なお教師画像として、前述以外の例えば画像502に対する付加ノイズレベルは、ターゲットノイズレベルと同じ付加ノイズレベルとする。
なお教師画像として、前述以外の例えば画像502に対する付加ノイズレベルは、ターゲットノイズレベルと同じ付加ノイズレベルとする。
本実施形態の情報処理装置100では、図5で説明したようにして生成した生徒画像を用いて学習した処理モデルでノイズ低減を行う。これにより、図4中に太枠で囲まれた画像401、画像412、画像423のように、図中の画像411や画像413などに比べて細線維持やアーティファクト抑制が実現された、より好適な画質が得られる。
なお、低コントラスト・低輝度の画像のアーティファクト抑制については、平滑化された図4の画像423の方が、画像413よりも好適であるが、ノイズが残る画像403も画像413よりは悪くないとする考え方もあり得る。このため、コントラスト・輝度が低いほど付加ノイズレベルをターゲットノイズレベルより高くするのではなく、コントラスト・輝度が低いほど付加ノイズレベルをターゲットノイズレベルより低くするようにしてもよい。
<第2の実施形態>
前述したように情報処理装置100は、教師画像の特徴から付加ノイズレベルを算出するが、学習に用いる全教師画像の画像特徴のバランスによっては、付加ノイズレベルの分布に偏りが生じることがある。また、付加ノイズレベルの分布に偏りがあると、特定のノイズレベルの過学習や、ノイズ低減効果の不連続性につながる可能性がある。そこで第2の実施形態では、付加ノイズレベルの分布の偏りを解消するために、教師画像の水増し処理を行う。
前述したように情報処理装置100は、教師画像の特徴から付加ノイズレベルを算出するが、学習に用いる全教師画像の画像特徴のバランスによっては、付加ノイズレベルの分布に偏りが生じることがある。また、付加ノイズレベルの分布に偏りがあると、特定のノイズレベルの過学習や、ノイズ低減効果の不連続性につながる可能性がある。そこで第2の実施形態では、付加ノイズレベルの分布の偏りを解消するために、教師画像の水増し処理を行う。
以下、第2の実施形態の情報処理装置100で行われる処理について、図8に示される機能ブロック図と、図9に示されるフローチャートを参照して説明する。
図8は、第2の実施形態に係る情報処理装置100の機能ブロック図である。図8において、前述した図2と同じ機能部については図2と同じ参照符号を付してそれらの説明は省略する。第2の実施形態の情報処理装置100において、図2に示した第1の実施形態の情報処理装置100との違いは、生徒画像生成部809の機能と、分布算出部810及び教師画像制御部811が設けられていることである。各機能部の詳細は、図9のフローチャートを参照しながら後述する。なお、ステップS901〜S905の処理は、第1の実施形態における図3のステップS301〜S305と同じであるためそれらの説明を省略する。
図8は、第2の実施形態に係る情報処理装置100の機能ブロック図である。図8において、前述した図2と同じ機能部については図2と同じ参照符号を付してそれらの説明は省略する。第2の実施形態の情報処理装置100において、図2に示した第1の実施形態の情報処理装置100との違いは、生徒画像生成部809の機能と、分布算出部810及び教師画像制御部811が設けられていることである。各機能部の詳細は、図9のフローチャートを参照しながら後述する。なお、ステップS901〜S905の処理は、第1の実施形態における図3のステップS301〜S305と同じであるためそれらの説明を省略する。
第2の実施形態に係る図9のフローチャートにおいて、教師画像ループの処理後に進むステップS906では、分布算出部810が、全教師画像の付加ノイズレベルのヒストグラムを算出する。図10は、全教師画像の付加ノイズレベルのヒストグラムの一例を示した図であり、横軸が付加ノイズレベルを、縦軸が教師画像枚数を示している。また、図10において、ドット模様が付されたビンが教師画像水増し前のヒストグラムに対応する。
次にステップS907に進むと、教師画像制御部811が、ステップS906で算出されたヒストグラムの偏りを解消するために、教師画像の水増し設定を行う。
ここでまず、教師画像制御部811は、公知の外れ値検出技術等を用いて、教師画像枚数が不足している付加ノイズレベルのビンを特定する。図10の例では、左から3番目のビンと、右から3番目のビンが該当する。
ここでまず、教師画像制御部811は、公知の外れ値検出技術等を用いて、教師画像枚数が不足している付加ノイズレベルのビンを特定する。図10の例では、左から3番目のビンと、右から3番目のビンが該当する。
次に、教師画像制御部811は、教師画像枚数が不足しているビンについて、例えば近傍のビンの教師画像枚数を補間することで、教師画像水増し後の教師画像枚数を決定する。これにより、図10のビンの白い部分に対応する、必要な水増し枚数が決まる。
ここで、教師画像の水増し処理としては、同じビンに属する教師画像を用いる方法と、他のビンに属する教師画像を用いる方法が考えられる。
前者の方法は、反転や回転といった幾何変換を用いるものであり、例えばエッジを含む教師画像の場合、エッジ方向のバリエーションが増えることになる。この方法は、付加ノイズレベルが変わらない水増し処理であるため、図10ではビンの白い部分に向かう上向きの矢印1001,1002に対応する。
前者の方法は、反転や回転といった幾何変換を用いるものであり、例えばエッジを含む教師画像の場合、エッジ方向のバリエーションが増えることになる。この方法は、付加ノイズレベルが変わらない水増し処理であるため、図10ではビンの白い部分に向かう上向きの矢印1001,1002に対応する。
後者の方法は、教師画像の特徴から算出される付加ノイズレベルが所定値となるように、これまでと逆の考え方で教師画像の特徴を制御するものである。すなわち、教師画像制御部811は、前述した図6(a)や図6(b)に示した画像特徴と付加ノイズレベルとの関係を逆方向に用いて、所定の付加ノイズレベルとするためのエッジ幅やコントラスト・輝度を算出する。そして、教師画像制御部811は、例えばモルフォロジー変換(収縮/膨張)を利用してエッジ幅を制御したり、コントラスト・輝度を制御したりすることで、教師画像の特徴から算出される付加ノイズレベルが所定値となるようにする。この方法は、付加ノイズレベルが変わる水増し処理であるため、図10ではビンの白い部分に向かう斜め方向の矢印1011,1012に対応する。これは、教師画像枚数が不足していたビンにおいて、教師画像の被写体のバリエーションが増えることになる。
また図10の例において、真ん中のビンがターゲットノイズレベルを含むビンであるとすると、それより左のビンほどエッジ幅が細い教師画像に対応し、右のビンほど低コントラスト・低輝度の画像に対応する。このため、教師画像制御部811は、図10の左から3番目のビンの白い部分に向かう左斜め上方向の矢印1011に示すように例えば収縮処理によってエッジ幅を細くする水増し処理を行う。また、教師画像制御部811は、右から3番目のビンの白い部分に向かう右斜め上方向の矢印1012に示すように、教師画像の低コントラスト化・低輝度化による水増し処理を行う。
教師画像制御部811は、以上のような水増し処理による画像の変換を適宜組み合わせて必要枚数分の水増し処理が行えるように、教師画像の水増し設定を行う。水増し処理で生成するように設定された教師画像には、元になる教師画像や、水増し処理の方法、付加ノイズレベルが紐づけられる。
図9のフローチャートに説明を戻す。
ステップS908の処理は、第1の実施形態の図3に示したフローチャートのステップS306と同じであるため説明を省略する。
ステップS909〜S912は処理モデル学習中の処理であるため、学習ループの中で行う。さらに、ステップS909〜S912は、ステップS907で水増し設定された教師画像ごとの処理であるため、水増し教師画像ループの中で行う。
ステップS908の処理は、第1の実施形態の図3に示したフローチャートのステップS306と同じであるため説明を省略する。
ステップS909〜S912は処理モデル学習中の処理であるため、学習ループの中で行う。さらに、ステップS909〜S912は、ステップS907で水増し設定された教師画像ごとの処理であるため、水増し教師画像ループの中で行う。
ステップS909では、教師画像制御部811が、現在の水増し教師画像ループで対象としている教師画像が、水増し処理で生成するように設定されているかを判定する。そして、教師画像制御部811は、ステップS909において、教師画像が水増し処理で生成するように設定されていると判定した場合にはステップS910に、一方、設定されていないと判定した場合にはステップS911に進む。
ステップS910に進んだ場合、教師画像制御部811が、ステップS907で設定された水増し設定に従い、元になる教師画像に水増し処理(画像変換)を適用することで、現在の水増し教師画像ループで学習に用いるための教師画像を生成する。このステップS910の後、ステップS911に処理が進む。
ステップS911に進むと、生徒画像生成部809が、入力された教師画像に対応する付加ノイズレベルのノイズを付加することで、教師画像の対となる生徒画像を生成する。
ステップS912の処理は、第1の実施形態の図3のフローチャートのステップS308と同様であるため説明を省略する。
ステップS912の処理は、第1の実施形態の図3のフローチャートのステップS308と同様であるため説明を省略する。
以上説明した本実施形態によれば、教師画像の水増し処理を行うことで、教師画像に対する付加ノイズレベルの分布の偏りを解消することができる。
なお、教師画像の水増し処理や生徒画像の生成は、必ずしも学習ループの中で動的に行う必要はなく、学習前に行っておいて、水増し処理された教師画像やノイズ付加された生徒画像を、全て画像記憶部203が保持しておくようにしてもよい。
なお、教師画像の水増し処理や生徒画像の生成は、必ずしも学習ループの中で動的に行う必要はなく、学習前に行っておいて、水増し処理された教師画像やノイズ付加された生徒画像を、全て画像記憶部203が保持しておくようにしてもよい。
本発明は、前述の各実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
前述の実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明は、その技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。
前述の実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明は、その技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。
100:情報処理装置、201:ターゲットレベル取得部、202:教師画像取得部、203:画像記憶部、204:特徴検出部、205:ノイズレベル算出部、206:関係パラメータ記憶部、207:モデル学習部、208:モデル記憶部、209:生徒画像生成部
Claims (16)
- 画像のノイズ低減を行う処理モデルを学習するためのデータを生成する画像処理装置であって、
ノイズ低減のターゲットとするノイズレベルを取得する取得手段と、
教師画像の特徴を検出する検出手段と、
前記教師画像に付加するノイズのノイズレベルを決定する決定手段と、
前記決定されたノイズレベルに対応するノイズを前記教師画像に付加して生徒画像を生成する生成手段と、を有し、
前記決定手段は、前記検出手段で検出した前記教師画像の特徴に応じて、前記ターゲットのノイズレベルとは異なるノイズレベルを決定することを特徴とする画像処理装置。 - 画像のノイズ低減を行う処理モデルを学習するための画像処理装置であって、
ノイズ低減のターゲットとするノイズレベルを取得する取得手段と、
教師画像の特徴を検出する検出手段と、
前記教師画像に付加するノイズのノイズレベルを決定する決定手段と、
前記決定されたノイズレベルに対応するノイズを前記教師画像に付加して生徒画像を生成する生成手段と、
前記生徒画像のノイズ低減結果と前記教師画像との差が小さくなるように前記処理モデルの学習を行う学習手段と、を有し、
前記決定手段は、前記検出手段で検出した前記教師画像の特徴に応じて、前記ターゲットのノイズレベルとは異なるノイズレベルを決定することを特徴とする画像処理装置。 - 前記処理モデルはニューラルネットワークであることを特徴とする請求項1または請求項2に記載の画像処理装置。
- 前記ノイズレベルはISO感度に応じたレベルであることを特徴とする請求項1から請求項3のいずれか1項に記載の画像処理装置。
- 前記検出手段が検出した前記特徴であるエッジ幅が所定値以下の場合に、前記決定手段は、前記ターゲットのノイズレベルより低いノイズレベルを決定することを特徴とする請求項1から請求項4のいずれか1項に記載の画像処理装置。
- 前記検出手段で検出した前記特徴であるエッジ幅が細いほど、前記決定手段は、前記ターゲットのノイズレベルより低いノイズレベルを決定することを特徴とする請求項1から請求項5のいずれか1項に記載の画像処理装置。
- 前記検出手段が検出した前記特徴であるコントラストと輝度に係る指標が所定値以下の場合に、前記決定手段は、前記ターゲットのノイズレベルより高いノイズレベルを決定することを特徴とする請求項1から請求項6のいずれか1項に記載の画像処理装置。
- 前記検出手段で検出した前記特徴であるコントラストと輝度に係る指標が低いほど、前記決定手段は、前記ターゲットのノイズレベルより高いノイズレベルを決定することを特徴とする請求項1から請求項7のいずれか1項に記載の画像処理装置。
- 前記決定手段で決定する前記ノイズレベルの限度値の前記ターゲットのノイズレベルとの差は、前記ターゲットのノイズレベルより低い側の方が小さいことを特徴とする請求項1から請求項8のいずれか1項に記載の画像処理装置。
- 前記決定手段は、前記教師画像の複数の特徴からそれぞれ検出される複数のノイズレベルを用いて、前記教師画像に付加するノイズのノイズレベルを決定することを特徴とする請求項1から請求項9のいずれか1項に記載の画像処理装置。
- 前記検出手段で検出する前記教師画像の特徴と、前記決定手段で決定する前記ノイズレベルとの関係パラメータを調整する調整手段をさらに有することを特徴とする請求項1から請求項10のいずれか1項に記載の画像処理装置。
- 前記決定手段で決定する前記ノイズレベルの分布に偏りが生じないよう、前記教師画像の変換を行う変換手段をさらに有することを特徴とする請求項1から請求項11のいずれか1項に記載の画像処理装置。
- 前記変換手段は、前記決定手段で決定される前記ノイズレベルが所定値となるように、前記教師画像の変換を行うことを特徴とする請求項12に記載の画像処理装置。
- 画像のノイズ低減を行う処理モデルを学習するためのデータを生成する画像処理装置が実行する画像処理方法であって、
ノイズ低減のターゲットとするノイズレベルを取得する取得工程と、
教師画像の特徴を検出する検出工程と、
前記教師画像に付加するノイズのノイズレベルを決定する決定工程と、
前記決定されたノイズレベルに対応するノイズを前記教師画像に付加して生徒画像を生成する生成工程と、を有し、
前記決定工程では、前記検出工程で検出した前記教師画像の特徴に応じて、前記ターゲットのノイズレベルとは異なるノイズレベルを決定することを特徴とする画像処理方法。 - 画像のノイズ低減を行う処理モデルを学習するための画像処理装置が実行する画像処理方法であって、
ノイズ低減のターゲットとするノイズレベルを取得する取得工程と、
教師画像の特徴を検出する検出工程と、
前記教師画像に付加するノイズのノイズレベルを決定する決定工程と、
前記決定されたノイズレベルに対応するノイズを前記教師画像に付加して生徒画像を生成する生成工程と、
前記生徒画像のノイズ低減結果と前記教師画像との差が小さくなるように前記処理モデルの学習を行う学習工程と、を有し、
前記決定工程では、前記検出工程で検出した前記教師画像の特徴に応じて、前記ターゲットのノイズレベルとは異なるノイズレベルを決定することを特徴とする画像処理方法。 - コンピュータを、請求項1から請求項13のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019213321A JP2021086284A (ja) | 2019-11-26 | 2019-11-26 | 画像処理装置、画像処理方法、及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019213321A JP2021086284A (ja) | 2019-11-26 | 2019-11-26 | 画像処理装置、画像処理方法、及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021086284A true JP2021086284A (ja) | 2021-06-03 |
Family
ID=76087707
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019213321A Pending JP2021086284A (ja) | 2019-11-26 | 2019-11-26 | 画像処理装置、画像処理方法、及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021086284A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023059042A1 (en) * | 2021-10-08 | 2023-04-13 | Samsung Electronics Co., Ltd. | Method, system and apparatus for image orientation correction |
WO2023243202A1 (ja) * | 2022-06-16 | 2023-12-21 | 株式会社日立製作所 | 画像生成方法及び外観検査装置 |
-
2019
- 2019-11-26 JP JP2019213321A patent/JP2021086284A/ja active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023059042A1 (en) * | 2021-10-08 | 2023-04-13 | Samsung Electronics Co., Ltd. | Method, system and apparatus for image orientation correction |
WO2023243202A1 (ja) * | 2022-06-16 | 2023-12-21 | 株式会社日立製作所 | 画像生成方法及び外観検査装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10755173B2 (en) | Video deblurring using neural networks | |
CN110008817B (zh) | 模型训练、图像处理方法、装置、电子设备及计算机可读存储介质 | |
US10360664B2 (en) | Image processing apparatus and method using machine learning | |
US20210327031A1 (en) | Video blind denoising method based on deep learning, computer device and computer-readable storage medium | |
US11188777B2 (en) | Image processing method, image processing apparatus, learnt model manufacturing method, and image processing system | |
JP7353803B2 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
CN106412383A (zh) | 视频图像的处理方法和装置 | |
CN111047543A (zh) | 图像增强方法、装置和存储介质 | |
CN115424088A (zh) | 图像处理模型训练方法以及装置 | |
JP2021086284A (ja) | 画像処理装置、画像処理方法、及びプログラム | |
CN113724155A (zh) | 用于自监督单目深度估计的自提升学习方法、装置及设备 | |
US11823352B2 (en) | Processing video frames via convolutional neural network using previous frame statistics | |
US20210374916A1 (en) | Storage medium storing program, image processing apparatus, and training method of machine learning model | |
JP2006270897A (ja) | 画像処理装置、方法及びプログラム | |
CN115511755A (zh) | 一种视频流图像自适应增强方法和系统 | |
CN112749679B (zh) | 模型的训练方法、人脸识别方法、装置、设备和介质 | |
CN110363723B (zh) | 改进图像边界效果的图像处理方法及装置 | |
CN111382772B (zh) | 一种图像处理方法、装置及终端设备 | |
US20220292640A1 (en) | Image processing apparatus, image forming system, image processing method, and non-transitory computer-readable storage medium | |
JP7458857B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
WO2024029224A1 (ja) | 画像処理方法、画像処理装置、プログラムおよび画像処理システム | |
EP4047548A1 (en) | Image processing method and apparatus, training method and apparatus of machine learning model, and program | |
US20220277417A1 (en) | Image processing apparatus, image processing method, and non-transitory computer-readable storage medium | |
JP4645918B2 (ja) | 画像信号処理装置および方法 | |
US20240070826A1 (en) | Image processing method, image processing apparatus, and storage medium |