JP2021189929A - 画像処理方法、プログラム、画像処理装置、および、画像処理システム - Google Patents
画像処理方法、プログラム、画像処理装置、および、画像処理システム Download PDFInfo
- Publication number
- JP2021189929A JP2021189929A JP2020096645A JP2020096645A JP2021189929A JP 2021189929 A JP2021189929 A JP 2021189929A JP 2020096645 A JP2020096645 A JP 2020096645A JP 2020096645 A JP2020096645 A JP 2020096645A JP 2021189929 A JP2021189929 A JP 2021189929A
- Authority
- JP
- Japan
- Prior art keywords
- image
- model
- blur
- training
- original
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 28
- 238000012545 processing Methods 0.000 title claims description 75
- 238000012549 training Methods 0.000 claims abstract description 120
- 230000003287 optical effect Effects 0.000 claims abstract description 43
- 229920006395 saturated elastomer Polymers 0.000 claims abstract description 29
- 238000000034 method Methods 0.000 claims description 25
- 238000012935 Averaging Methods 0.000 claims description 5
- 230000005540 biological transmission Effects 0.000 claims description 2
- 238000012937 correction Methods 0.000 description 96
- 230000000694 effects Effects 0.000 description 38
- 238000013528 artificial neural network Methods 0.000 description 35
- 238000003860 storage Methods 0.000 description 20
- 230000006870 function Effects 0.000 description 16
- 230000004075 alteration Effects 0.000 description 13
- 230000009931 harmful effect Effects 0.000 description 13
- 230000008569 process Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 9
- 238000012986 modification Methods 0.000 description 7
- 230000004048 modification Effects 0.000 description 7
- 238000003384 imaging method Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 4
- 230000002411 adverse Effects 0.000 description 3
- 238000011161 development Methods 0.000 description 3
- 238000009826 distribution Methods 0.000 description 3
- 238000004088 simulation Methods 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000011946 reduction process Methods 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000013041 optical simulation Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
Abstract
【課題】輝度飽和した被写体を含む撮像画像のぼけを良好に補正することが可能な画像処理方法を提供する。【解決手段】画像処理方法は、第1のモデルと第2のモデルとに基づく第3のモデルを用いて補正画像を出力する出力ステップ(S203)を有し、第1のモデルは、第1の原画像に基づく第1の訓練画像と第1の正解画像とを含む第1の学習データを用いて学習されたモデルであり、第2のモデルは、第2の原画像に基づく第2の訓練画像と第2の正解画像とを含む第2の学習データを用いて学習されたモデルであり、第1の原画像の輝度飽和部における第1の正解画像のぼけに対する第1の訓練画像のぼけは、第2の原画像の輝度飽和部における第2の正解画像のぼけに対する第2の訓練画像のぼけよりも小さく、かつ光学特性に起因するぼけよりも小さい。【選択図】図5
Description
本発明は、撮像画像の光学特性に起因するぼけを補正した補正画像を出力する画像処理方法に関する。
特許文献1には、ニューラルネットワークを用いて、撮像画像から収差・回折によるぼけを補正し、高解像な画像を得る方法が開示されている。
輝度飽和部(輝度飽和した被写体)に関しては、真の輝度がわからないため、従来の線形フィルタを用いた画像処理では収差補正が難しい。ニューラルネットワークを用いると、収差補正の効果を向上させることはできるが、収差補正による鮮鋭化時に輝度飽和部周囲に弊害(オーバーシュート、アンダーシュート、リンギングなど)が生じやすい。このため、補正効果と補正により生じる弊害を適切に調整して補正する必要がある。以降、輝度飽和部における補正効果(または弊害)について述べる場合、輝度飽和部周囲の画素における補正効果(または弊害)を含む。
しかしながら、特許文献1に開示された方法では、撮像時に輝度飽和した被写体と輝度飽和していない被写体を一様に補正しているため、輝度飽和した被写体に対するぼけを良好に補正できない。すなわち、効果が不足するか弊害が強くなりすぎる。
そこで本発明は、輝度飽和した被写体を含む撮像画像のぼけを良好に補正することが可能な画像処理方法等を提供することを目的とする。
本発明の一側面としての画像処理方法は、撮像画像の光学特性に起因するぼけを補正した補正画像を出力する画像処理方法であって、第1のモデルと第2のモデルとに基づく第3のモデルを用いて前記補正画像を出力する出力ステップを有し、前記第1のモデルは、第1の原画像に基づく第1の訓練画像と第1の正解画像とを含む第1の学習データを用いて学習されたモデルであり、前記第2のモデルは、第2の原画像に基づく第2の訓練画像と第2の正解画像とを含む第2の学習データを用いて学習されたモデルであり、前記第1の原画像の輝度飽和部における前記第1の正解画像のぼけに対する前記第1の訓練画像のぼけは、前記第2の原画像の輝度飽和部における前記第2の正解画像のぼけに対する前記第2の訓練画像のぼけよりも小さく、かつ前記光学特性に起因するぼけよりも小さい。
本発明の他の目的及び特徴は、以下の実施例において説明される。
本発明によれば、輝度飽和した被写体を含む撮像画像のぼけを良好に補正することが可能な画像処理方法等を提供することができる。
以下、本発明の実施例について、図面を参照しながら詳細に説明する。各図において、同一の部材については同一の参照符号を付し、重複する説明は省略する。
まず、実施例の具体的な説明を行う前に、本発明の要旨を説明する。本発明は、輝度飽和部を含む撮像画像の光学特性(収差・回折、ローパスフィルタ、画素開口影響等)に起因するぼけを補正する鮮鋭化処理に関する。ここで、ぼけとは点像強度分布(PSF)であり、撮像画像上で輝度飽和した被写体のぼけは輝度飽和部およびその周辺部に影響する。それらの画像領域における補正効果と弊害を最適化するため、多層のニューラルネットワークを複数使用する(第1のモデル、第2のモデル)。また、これらのニューラルネットワークは学習データに後述する特徴を有することで、補正効果と弊害の強度が異なる。一般的に補正効果が強いほど弊害も大きくなり、各ニューラルネットワークは輝度飽和部およびその周辺画素において異なる補正効果と弊害を有するように学習されている。弊害とは、オーバーシュート、アンダーシュート、リンギングなど、補正画像に生じる本来の被写体には存在しない構造を指す。これら複数のニューラルネットワークに基づいて補正画像を出力するような第3のモデルを用いることで、補正効果と弊害のバランスが最適化され、良好にぼけが補正された補正画像を取得することができる。
多層のニューラルネットワークで使用するウエイト(フィルタ、バイアスなど)の学習において、正解画像を基準として相対的にぼけが大きい訓練画像を用いる。訓練画像をニューラルネットワークに入力し、その出力と正解画像との誤差が小さくなるようにウエイトを最適化する。このとき、相対的なぼけの大きさ(ぼけ量)の違いを補正するようにニューラルネットワークは学習される。輝度飽和部におけるニューラルネットワークの補正効果と弊害とが最適にバランスされているかを確認するには、学習されたモデルで実際に撮像画像を補正する必要がある。そこで最適なニューラルネットワークを学習するには、訓練画像と正解画像のぼけ量の関係を変えながら幾度も学習しなおす必要があり、現実的ではない。そこでさらに、訓練画像と正解画像の相対的なぼけ量の違いが異なるように第1のモデルと第2のモデルが学習されることで、異なる補正効果と弊害を有するニューラルネットワークを取得することができる。第1のモデルと第2のモデルとに基づいて第3のモデルを取得することで、新たなモデルを学習しなおすことなく、補正効果と弊害とが適切に(好ましくは最適に)バランスされたニューラルネットワークを取得することができる。
まず、図2および図3を参照して、本発明の実施例1における画像処理システムに関して説明する。本実施例では、多層のニューラルネットワークにぼけ補正を学習、実行させる。図2は、本実施例における画像処理システム100のブロック図である。図3は、画像処理システム100の外観図である。
画像処理システム100は、学習装置(画像処理装置)101、撮像装置102、画像推定装置(画像処理装置)103、表示装置104、記録媒体105、出力装置106、および、ネットワーク107を有する。学習装置101は、記憶部(記憶手段)101a、取得部(取得手段)101b、生成部(生成手段)101c、および、更新部(学習手段)101dを有する。
撮像装置102は、光学系(撮像光学系)102aおよび撮像素子102bを有する。光学系102aは、被写体空間から撮像装置102へ入射した光を集光する。撮像素子102bは、光学系102aを介して形成された光学像(被写体像)を受光して(光電変換して)撮像画像を取得する。撮像素子102bは、例えばCCD(Charge Coupled Device)センサや、CMOS(Complementary Metal−Oxide Semiconductor)センサなどである。撮像装置102によって取得される撮像画像は、光学系102aの収差や回折によるぼけと、撮像素子102bによるノイズを含む。
画像推定装置103は、記憶部103a、取得部(取得手段)103b、および、ぼけ補正部(推定手段、出力手段)103cを有する。画像推定装置103は、撮像画像を取得し、ぼけ補正を行って後述する第3のモデルによる推定画像(補正画像)を生成する。ぼけ補正には、多層のニューラルネットワークを含む第3のモデルを使用し、ウエイトの情報は記憶部103aから読み出される。ウエイト(ウエイトの情報)は学習装置101で学習されたものであり、画像推定装置103は、事前にネットワーク107を介して記憶部101aからウエイトの情報を読み出し、記憶部103aに保存している。保存されるウエイトの情報は、ウエイトの数値そのものでもよいし、符号化された形式でもよい。ウエイトの学習、およびウエイトを用いたぼけ補正処理に関する詳細は、後述する。画像推定装置103は、補正画像に対してぼけ補正の強度調整を行って、最終的な補正画像を生成する。
補正画像は、表示装置104、記録媒体105、および、出力装置106の少なくとも1つに出力される。表示装置104は、例えば液晶ディスプレイやプロジェクタなどである。ユーザは、表示装置104を介して、処理途中の画像を確認しながら編集作業などを行うことができる。記録媒体105は、半導体メモリ、ハードディスク、または、ネットワーク上のサーバなどである。出力装置106は、プリンタなどである。画像推定装置103は、必要に応じて現像処理やその他の画像処理を行う機能を有する。
次に、図1および図4を参照して、本実施例における学習装置101により実行されるウエイト(ウエイトの情報)の学習方法(学習済みモデルの製造方法)に関して説明する。図1は、ニューラルネットワーク(第1のモデル、第2のモデル)のウエイトの学習の流れを示す図である。図4は、ウエイトの学習に関するフローチャートである。図4の各ステップは、主に、学習装置101の取得部101b、生成部101c、または、更新部101dにより実行される。
ここで、第1のモデルおよび第2のモデルの学習方法を説明する。まず、図4のステップS101において、取得部101bは、第1の原画像(被写体画像)を取得する。本実施例において、原画像は、光学系102aの収差や回折によるぼけが少ない高解像(高品位)な画像である。原画像は複数取得し、様々な被写体、すなわち、様々な強さと方向のエッジや、テクスチャ、グラデーション、平坦部などを有する画像である。原画像は、実写画像でもよいし、CG(Computer Graphics)により生成した画像でもよい。特に、原画像として実写画像を使用する場合、既に収差や回折によってぼけが発生しているため、縮小することでぼけの影響を小さくし、高解像(高品位)な画像にすることができる。なお、原画像に高周波成分が充分に含まれている場合、縮小は行わなくてもよい。
好ましくは、原画像は、撮像素子102bの輝度飽和値よりも高い信号値を有する。これは、実際の被写体においても、特定の露出条件で撮像装置102により撮影を行った際、輝度飽和値に収まらない被写体が存在するためである。原画像として実写画像を使用する場合、HDR撮影や撮像装置102より高いダイナミックレンジを持つ撮像装置で撮影することで取得可能である。撮像装置102と同等のダイナミックレンジを持つ撮像装置で撮影した画像を原画像とする場合、信号値を比例倍する等して高い信号値とすることも可能である。ただし、比例倍による階調の低下が学習結果に影響を与えない範囲で行うことが好ましい。また、原画像はノイズ成分を有していてもよい。この場合、原画像に含まれるノイズを含めて被写体であるとみなせるため、原画像のノイズは特に問題にならない。
続いてステップS102において、取得部101bは、後述する撮像シミュレーションを行うために用いるぼけを取得する。まず取得部101bは、光学系102aのレンズステート(ズーム、絞り、合焦距離の状態)に対応する撮影条件を取得する。そして取得部101bは、撮影条件と像高、アジムスによって決まるぼけを取得する。ここで、ぼけとは、光学系102aのPSF(点像強度分布)またはOTF(光学伝達関数)である。ぼけは、光学系102aにおける光学シミュレーションや測定により取得することができる。なお、原画像ごとに異なるレンズステートや像高、アジムスの収差や回折によるぼけを取得する。これにより、複数の撮影条件、像高、アジムスに対応した撮像シミュレーションを行うことができる。また必要に応じて、付与するぼけには、撮像装置102に含まれる光学ローパスフィルタなどの成分を加えてもよい。
続いてステップS103において、生成部101cは、正解パッチ(第1の正解画像、第2の正解画像)と訓練パッチ(第1の訓練画像、第2の訓練画像)を生成する。正解パッチと訓練パッチはそれぞれ複数生成し、1枚の原画像に対応して1以上のパッチを生成する。本実施例において、正解パッチと訓練パッチは同一の被写体が写った画像である。本実施例では、正解パッチと訓練パッチの組み合わせを複数まとめたものを学習データとして、光学系102aの収差や回折を補正するモデルを学習するために用いる。このため、正解パッチは訓練パッチと比較してぼけが少ない画像である。ただし、後述するように原画像の条件次第で補正しない場合があってもよいため、学習データは正解パッチと訓練パッチで同一の画像である場合を含んでもよい。
なお、パッチとは既定の画素数(例えば、64×64画素など)を有する画像を指す。また、正解パッチと訓練パッチの画素数は、必ずしも一致していなくてもよい。本実施例では、多層のニューラルネットワークのウエイトの学習に、ミニバッチ学習を使用する。このためステップS103では、複数組の正解パッチと訓練パッチを取得する。ただし本実施例は、これに限定されるものではなく、オンライン学習またはバッチ学習を用いてもよい。
本実施例では、以下の方法により正解パッチと訓練パッチを取得するが、本実施例はこれに限定されるものではない。本実施例は、記憶部101aに記憶されている複数の原画像を被写体として、撮像シミュレーションを行うことにより、収差や回折によるぼけの影響が相対的に異なる正解画像と訓練画像とのペアを複数生成する。この時点では、正解画像と訓練画像は学習データとして用いるパッチの画素数と同じかそれより大きい画素数を有する。そして、正解画像と訓練画像との複数のペアから同一位置で規定の画素サイズの部分領域を抽出することで、複数の正解パッチと訓練パッチを取得する。本実施例において、原画像は未現像のRAW画像であり、正解パッチと訓練パッチも同様にRAW画像である。ただし本実施例は、これに限定されるものではなく、現像後の画像でもよい。また、部分領域の位置とは、部分領域の中心を指す。
第1の学習データは、以下の方法で生成される。まず、原画像の全領域に光学系102aの収差や回折によるぼけ、すなわちステップS102で取得したぼけを付与する(畳み込む)。その後、撮像素子102bの輝度飽和値でクリップした画像から部分領域を抽出することで、第1の訓練画像を取得する。次に、原画像のうち信号値が輝度飽和値より大きい領域を輝度飽和部、それ以外を非輝度飽和部として領域分割する。そして、原画像の非輝度飽和部は原画像のまま、輝度飽和部にのみステップS102で取得したぼけを付与し、輝度飽和値でクリップする。生成された画像から第1の訓練画像と同一の部分領域を抽出することで、第1の正解画像を取得する。ここで、輝度飽和部を原画像において輝度飽和値より大きい信号値の領域としたが、原画像の全領域にぼけを付与した画像における輝度飽和値より大きい信号値の領域としてもよい。
本実施例において、第2の訓練画像は、第1の訓練画像と同様に取得される。すなわち、原画像の全領域にステップS102にて取得したぼけを付与した後に輝度飽和値でクリップした画像から抽出する。第2の正解画像は、原画像にぼけを付与せずに輝度飽和値でクリップした画像から、第2の訓練画像と同一の部分領域を抽出する。ここで、第2の学習データを生成する際に用いる原画像は、第1の学習データで用いた原画像を用いてもよいし、異なる原画像を用いてもよい。また、第1の学習データで用いた原画像を用いる場合、第1の学習データと同一の部分領域を抽出してもよく、その場合、第2の訓練画像は第1の訓練画像を流用できる。
なお、実写画像を縮小して原画像とする場合、縮小とぼけの付与は順序を逆にしてもよい。ぼけの付与を先に行う場合、縮小を考慮して、ぼけのサンプリングレートを細かくする必要がある。PSF(点像強度分布)であれば空間のサンプリング点を細かくし、OTF(光学伝達関数)であれば最大周波数を大きくすればよい。
付与するぼけには、歪曲収差を含めないことが好ましい。歪曲収差が大きいと、被写体の位置が変化し、正解パッチと訓練パッチで被写体が異なる可能性があるためである。このため、本実施例で学習するニューラルネットワークは歪曲収差を補正しない。歪曲収差はバイリニア補間やバイキュービック補間などを用いて、ぼけ補正後、個別に補正する。
なお、実際の撮像時には、撮像素子102bでノイズが発生するため、学習データにもノイズの付与を行うことが好ましい。撮像素子102bのノイズ特性に対応した乱数を生成して付与すればよく、ISO感度等の撮影条件を考慮してもよい。訓練画像にのみノイズを付与した場合や、訓練画像と正解画像で相関のないノイズを付与した場合は、学習時にぼけ補正と同時にデノイズも学習される。訓練画像と正解画像で同一のノイズを付与した場合、ノイズの変化を抑制したぼけ補正が学習される。
続いてステップS104において、生成部101cは、図1の訓練パッチ(第1の訓練画像、第2の訓練画像)212を多層のニューラルネットワークへ入力し、推定パッチ(推定画像)213を生成する。ミニバッチ学習のため、複数の訓練パッチ212に対応する推定パッチ213を生成する。図1は、ステップS104からステップS105までの流れを示している。ステップS104からステップS106を通じて、第1の学習データを用いた学習と第2の学習データを用いた学習では個別のニューラルネットワークを用いる。第1の訓練画像は第1の学習データ用のニューラルネットワークへ入力し、第2の訓練画像は第2の学習データ用のニューラルネットワークへ入力する。推定パッチ213は、ぼけを補正した訓練パッチ212であり、理想的には正解パッチ(第1の正解画像、第2の正解画像)211と一致する。なお本実施例では、図1に示されるニューラルネットワークの構成を使用するが、本実施例はこれに限定されるものではない。
図1中のCNは畳み込み層、DCは逆畳み込み層をそれぞれ表す。畳み込み層CNおよび逆畳み込み層DCのいずれでも、入力とフィルタの畳み込み、およびバイアスとの和が算出され、その結果を活性化関数によって非線形変換する。フィルタの各成分とバイアスの初期値は任意であり、本実施例では乱数によって決定する。活性化関数は、例えばReLU(Rectified Linear Unit)やシグモイド関数などを使うことができる。最終層を除く各層の出力は、特徴マップと呼ばれる。スキップコネクション222、223は、連続していない層から出力された特徴マップを合成する。特徴マップの合成は、要素ごとの和をとってもよいし、チャンネル方向に連結(concatenation)してもよい。本実施例では、要素ごとの和を採用する。スキップコネクション221は、訓練パッチ212と正解パッチ211とから推定された残差と、訓練パッチ212との和を取り、推定パッチ213を生成する。複数の訓練パッチ212のそれぞれに対して、推定パッチ213を生成する。
続いてステップS105において、更新部101dは、推定パッチ213と正解パッチ(第1の正解画像、第2の正解画像)211との誤差から、ニューラルネットワークのウエイト(ウエイトの情報)を更新する。ここで、ウエイトは、各層のフィルタの成分とバイアスを含む。ウエイトの更新には誤差逆伝搬法(Backpropagation)を使用するが、本実施例はこれに限定されるものではない。ミニバッチ学習のため、複数の正解パッチ211とそれらに対応する推定パッチ213の誤差を求め、ウエイトを更新する。誤差関数(Loss function)には、例えばL2ノルムやL1ノルムなどを用いればよい。
続いてステップS106において、更新部101dは、ウエイトの学習が完了したか否かを判定する。完了は、学習(ウエイトの更新)の反復回数が規定値に達したか、または、更新時のウエイトの変化量が規定値より小さいかなどにより判定することができる。ウエイトの学習が完了していないと判定された場合、ステップS104へ戻り、新たな正解パッチと訓練パッチを複数取得する。一方、ウエイトの学習が完了したと判定された場合、学習装置101(更新部101d)は学習を終了し、ウエイトの情報を記憶部101aに保存する。
第2の学習データでは、訓練パッチ212には光学系102aの収差や回折によるぼけが常に付与され、正解パッチ211には原画像のままであり、ぼけが付与されていない。したがって、第2の学習データを用いて学習されたニューラルネットワークは画像の全領域において光学的なぼけを補正するモデルとなる(第2のモデル)。第1の学習データで学習された第1のモデルは、非輝度飽和部では訓練パッチにのみぼけが付与されているため、第2のモデルと同様に光学的なぼけを補正する。一方で、輝度飽和部では訓練パッチおよび正解パッチの両方に同じぼけが付与されている。したがって、第1のモデルは輝度飽和部を補正しない。
次に、図5および図6を参照して、本実施例における画像推定装置103で実行される補正画像の生成に関して説明する。図5は、補正画像の生成に関するフローチャートである。図6は、本実施例における第3のモデルである。図5の各ステップは、主に、画像推定装置103の取得部103bまたはぼけ補正部103cにより実行される。
まずステップS201において、取得部103bは、撮像画像とウエイトの情報を取得する。撮像画像は、学習と同様で未現像のRAW画像であり、本実施例では撮像装置102から送信されたものである。ウエイトの情報は、第1のモデルと第2のモデルのウエイトを学習装置101から送信されて記憶部103aに記憶されたものである。
続いてステップS202において、取得部103bは、ステップS201にて取得した第1のモデルと第2のモデルのウエイトに基づいて、第3のモデルを取得する。第3のモデルにおける処理を以下で説明する。まず、図6に示されるように、入力画像(撮像画像)401を取得して第1のモデルに入力し、第1のモデルの推定画像として第1の中間補正画像402を取得する。また、入力画像401を第2のモデルに入力し、第2のモデルの推定画像として第2の中間補正画像403を取得する。その後、第1の中間補正画像402と第2の中間補正画像403を予め決められたウエイトで加重平均して、第3のモデルによる推定画像(補正画像)404を取得する。加重平均のウエイトが規定されていれば、第1のモデルのウエイトと第2のモデルのウエイトから第3のモデルを取得することができる。
第3のモデルでは、輝度飽和部の補正効果が異なる第1のモデルと第2のモデルによる推定画像を加重平均した画像を出力する。したがって、最適に調整された加重平均のウエイトを規定しておくことで、輝度飽和部における補正効果と弊害が最適化された良好なぼけ補正画像を取得することができる。なお本実施例において、加重平均のウエイトは予め規定された値であるが、取得部103bがユーザからの入力に基づいて取得してもよい。この場合、ユーザの好みを反映した補正効果を持つ第3のモデルが得られる。
続いて、図5のステップS203において、ぼけ補正部103cは、取得された第3のモデルの入力画像として、ステップS201にて取得された撮像画像を入力し、補正画像を生成する。補正画像は、輝度飽和部飽和部の補正効果を最適に調整された画像である。なお、ニューラルネットワークへ撮像画像を入力する際には、学習時に使用した訓練パッチと同サイズに切り出す必要はない。
続いてステップS204において、ぼけ補正部103cは、ユーザの選択に基づいて、非輝度飽和部も含めたぼけ補正の強度を調整する。ぼけ補正の強度調整は、撮像画像と第3のモデルの推定画像(補正画像)404との加重平均によって行う。取得される画像はRAW画像であるため、必要に応じて現像処理が実行される。なお、ステップS204で行う処理を第3のモデルに含めてもよい。その場合、第1の中間補正画像402、第2の中間補正画像403、および入力画像(撮像画像)401の3つの画像間の加重平均で最終的な補正画像404を取得することができる。本実施例における画像間の加重平均のウエイトは、加重平均後の画像を見ながら調整できてもよい。
また本実施例において、第3のモデルは、第1のモデルにより生成された第1の中間補正画像402と第2のモデルにより生成された第2の中間補正画像403とを加重平均して補正画像を生成するが、本実施例はこれに限定されるものではない。例えば、第1のモデルと第2のモデルを同じ構成のニューラルネットワークとすることで、それぞれのウエイトを対応付けることができる。そして、図7に示されるように、第1のモデルと第2のモデルの対応するウエイト同士を予め規定された一律の係数で線形補間することで、第3のモデルを生成してもよい。図7は、第3のモデルの別の構成を示す図である。
これにより、輝度飽和部の補正効果が異なる第1のモデルと第2のモデルから、弊害を考慮して補正効果を調整した第3のモデルを取得することができる。この場合、第2のモデルを学習により取得する際に、学習済みの第1のモデルのウエイトを初期値として、第2の学習データを用いて追加学習することが好ましい。これにより、モデル間の対応するウエイトが関連付けられ、第3のモデルを取得する際に補正効果を連続的に変化させることができる。
なお本実施例では、第1のモデルのウエイトと第2のモデルのウエイトとが関連付けられればよく、第1のモデルの学習経過におけるウエイトを第2のモデルを学習する際の初期値としてもよい。また、第1のモデルを学習する際に、学習済みの第2のモデルのウエイトを初期値として用いてもよい。本実施例で用いた中間補正画像同士の加重平均では、加重平均のウエイトを後から調整してもニューラルネットワークの計算を再度行う必要がない。したがって、画像を見ながら輝度飽和部の補正効果を調整する場合に好ましい。一方、上述したモデル同士の補間ではニューラルネットワークの計算を一度行うだけで補正画像を生成できる。したがって、計算負荷を抑えられ、輝度飽和部の補正効果を予め調整しておく場合に好ましい。また、モデル同士の補間では、学習装置内の生成部101cで予め第1のモデルと第2のモデルとのウエイトを線形補間しておき、画像推定装置103の取得部103bでは線形補間されたウエイトを第3のモデルとして取得してもよい。この場合、学習装置101で記憶しておくウエイトや学習装置101から画像推定装置103へ通信するウエイトの情報量を削減することができる。
また、ステップS203において、学習時のステップS102と同じ形式の撮影条件を撮像画像に関して取得し、第3のモデルへ撮像画像とともに入力してもよい。これにより、レンズステートに対応した輝度飽和部の補正を行うことができる。撮影条件を取得する場合、画像間やモデル間の加重平均のウエイトを撮影条件に基づいて取得してもよい。また、第1のモデルおよび第2のモデルによる処理に撮影条件を用いてもよい。この場合、第1のモデルおよび第2のモデルの学習時にも撮影条件を入力して学習する必要がある。
以上の構成により、本実施例では、輝度飽和部の補正効果の調整と、非輝度飽和部を含めた全体のぼけ補正の強度調整を個別に行うことができる。これにより、非輝度飽和部でユーザが望む補正効果にしつつ、輝度飽和部の補正効果も独立して決められ、ユーザの意図した編集を実現できる。なお本実施例では、学習装置101と画像推定装置103とが別体である場合を例に説明したが、本実施例はこれに限定されるものではない。本実施例は、学習装置101と画像推定装置103とが一体的に構成されている場合にも適用可能である。すなわち、一体の装置内で学習(図4に示す処理)と推定(図5に示す処理)を行ってもよい。
以上のように、本実施例の画像処理方法は、撮像画像の光学特性に起因するぼけを補正した補正画像を出力する画像処理方法である。本実施例の画像処理方法は、第1のモデルと第2のモデルとに基づく第3のモデルを用いて補正画像を出力する出力ステップ(S203)を有する。第1のモデルは、第1の原画像に基づく第1の訓練画像と第1の正解画像とを含む第1の学習データを用いて学習されたモデルである。第2のモデルは、第2の原画像に基づく第2の訓練画像と第2の正解画像とを含む第2の学習データを用いて学習されたモデルである。第1の原画像の輝度飽和部における第1の正解画像のぼけに対する第1の訓練画像のぼけは、第2の原画像の輝度飽和部における第2の正解画像のぼけに対する第2の訓練画像のぼけよりも小さく、かつ光学特性に起因するぼけよりも小さい。
本実施例によれば、輝度飽和した被写体を含む撮像画像のぼけを良好に補正することが可能な画像処理方法を提供することが可能である。
次に、図8および図9を参照して、本発明の実施例2における画像処理システムに関して説明する。本実施例は、撮像装置内の画像推定部323における補正画像の生成、第1のモデルと第2のモデルの学習方法、および、第3のモデルの構成の点で、実施例1とは異なる。
図8は、本実施例における画像処理システム300のブロック図である。図9は、画像処理システム300の外観図である。画像処理システム300は、ネットワーク303を介して接続された学習装置(画像処理装置)301と撮像装置302とを含む。学習装置301は、記憶部(記憶手段)311、取得部(取得手段)312、生成部(生成手段)313、および、更新部(学習手段)314を有し、ニューラルネットワークでぼけ補正を行うためのウエイト(ウエイトの情報)を学習する。撮像装置302は、被写体空間を撮像して撮像画像を取得し、読み出したウエイトの情報を用いて撮像画像中のぼけを補正する。撮像装置302は、光学系321および撮像素子322を有する。画像推定部(画像処理装置)323は、取得部(取得手段)323aおよびぼけ補正部(出力手段)323bを有し、記憶部324に保存されたウエイトの情報を用いて、撮像画像のぼけ補正を実行する。
ウエイトの情報は、学習装置301で事前に学習され、記憶部311に保存されている。撮像装置302は、記憶部311からネットワーク303を介してウエイトの情報を読み出し、記憶部324に保存する。ぼけ補正された撮像画像(補正画像)は、記録媒体325に保存される。ユーザから補正画像の表示に関する指示が出された場合、保存された補正画像が読み出され、表示部326に表示される。なお、記録媒体325に既に保存された撮像画像を読み出し、画像推定部323でぼけ補正を行ってもよい。以上の一連の制御は、システムコントローラ327によって行われる。
本実施例の学習装置301で実行される第1のモデルおよび第2のモデルの学習に関する処理フローは、基本的には実施例1と等しいが、ステップS103における学習データの生成方法に関して実施例1とは異なる。
まず、取得部312は、原画像の輝度飽和部のみにステップS102で取得したぼけを付与した後、撮像素子322の輝度飽和値でクリップした画像から部分領域を抽出することで、第1の訓練画像を取得する。次に、取得部312は、原画像の輝度飽和部のみにステップS102で取得したぼけよりもぼけ量が小さいぼけを付与した後、輝度飽和値でクリップした画像から同一の部分領域を抽出することで、第1の正解画像を取得する。
第2の訓練画像は、第1の訓練画像と同様に取得される。第2の正解画像も、第1の正解画像と同様に取得される。すなわち、原画像の輝度飽和部のみにステップS102で取得したぼけよりもぼけ量が小さいぼけを付与した後、輝度飽和値でクリップした画像から同一の部分領域を抽出することで取得する。ただし、付与するぼけ量は第1の正解画像を取得する際に付与したぼけよりも小さいぼけを付与する。
本実施例において、第1の正解画像および第2の正解画像に付与するぼけは、ステップS102にて取得したPSFの空間ひろがりを縮小することで取得する。すなわち、光学特性に起因するぼけとは異なるぼけは、光学特性に基づいて取得される。第1の正解画像に付与するぼけはPSFを0.8倍に縮小し、第2の正解画像に付与するぼけは0.2倍に縮小する。縮小処理は、ダウンサンプリングとバイキュービック補間等の補間処理を用いて行う。これにより、第1の正解画像に与えたぼけを基準とした第1の訓練画像のぼけは、第2の正解画像を基準とした第2の訓練画像のぼけよりも小さい。ニューラルネットワークの学習は、訓練画像を正解画像に近づけるように、すなわち訓練画像と正解画像の相対的な関係に基づいて学習する。したがって、本実施例の第1のモデルは、第2のモデルよりも輝度飽和部の補正効果が小さい。また、第1のモデルおよび第2のモデルともに、非輝度飽和部は補正しないように学習される。このように本実施例では、輝度飽和部の補正効果が異なる第1のモデルと第2のモデルを取得する。
なお、第1の正解画像および第2の正解画像に付与するぼけは、上述のぼけに限定されるものではない。ガウスぼけ等のぼかしフィルタでもよく、ステップS102に基づいて取得したぼけに基づいて生成してもよい。例えば、ステップS102で取得したPSFをダウンサンプリングや既存の縮小処理等によって縮小してもよい。ステップS102でOTFとしてぼけを取得した場合、アップサンプリング等で拡大することや、OTFにゲインをかけて向上させることで、ぼけを小さくすることができる。本実施例におけるぼけ量の大小は所定の指標で表すことができ、例えばPSFの最大値が大きい、PSFのメリ断面における半値幅が小さい、規定された空間周波数のMTFが大きい、MTFの空間周波数に対する積分値が大きい等の場合にぼけ量が小さいと言える。また、PSFにぼかしフィルタ(ローパスフィルタ)を畳み込むことや、OTFにローパスフィルタの周波数特性をかけることで、ぼけ量を大きくしたと言える。ある画像のぼけを基準としたぼけの大きさ(ある画像のぼけに対するぼけの大きさ)とは、上述の指標の差分や比で表してもよく、OTFの差分や比に対して上述の指標を用いてもよい。
次に、本実施例における画像推定部323で実行されるぼけ補正画像の生成について述べる。本実施例は、第3のモデルが実施例1と異なり、図10に示される処理を行う。図10は、本実施例における第3のモデルの構成を示す図である。
まず、画像推定部323は、入力画像501を取得して第1のモデルおよび第2のモデルとは異なる非輝度飽和部のみを補正するように学習したニューラルネットワーク(非輝度飽和部補正モデル)に入力する。その結果、画像推定部323は、非輝度飽和部補正画像502を取得する。このニューラルネットワークは、実施例1における第1のモデルと等しい。次に、画像推定部323は、非輝度飽和部補正画像502を第1のモデルおよび第2のモデルのそれぞれに入力し、輝度飽和部の補正度合いが異なる第1の中間補正画像503と第2の中間補正画像504を取得する。そして画像推定部323は、実施例1と同様に、加重平均によって第3のモデルの推定画像(補正画像)505を取得する。なお、本実施例におけるその他の処理は、実施例1と同様である。
次に、図11および図12を参照して、本実施例における第3のモデルの変形例について説明する。図11および図12は、本実施例における第3のモデルの変形例である。
まず、図11(A)を参照して、変形例の1つを説明する。撮像画像をまず第1のモデルおよび第2のモデルにそれぞれ入力して、輝度飽和部のみが補正された第1の中間補正画像503および第2の中間補正画像504を取得する。その後、第1の中間補正画像503および第2の中間補正画像504を加重平均して画像506を取得する。さらに、非輝度飽和部補正モデルを用いて第3のモデルの推定画像(補正画像)505を取得することで、輝度飽和部および非輝度飽和部を良好に補正することができる。第3のモデルが図11(A)に示される構成の場合、第1のモデルおよび第2のモデルには、非輝度飽和部が補正されない画像が入力される。したがって、第1の訓練画像、第1の正解画像、第2の訓練画像、および第2の正解画像の非輝度飽和部には、ステップS102で取得したぼけを付与することがより好ましい。
また、変形例として、第1のモデルおよび第2のモデルはそれぞれ、第1の学習データおよび第2の学習データを用いて学習された処理を含み、入力された画像に処理を実行して画像を出力するものであればよい。すなわち、一括で学習されたニューラルネットワークに限定されない。
次に、図11(B)を参照して変形例の1つを説明する。実施例2の非輝度飽和部補正モデルを前処理として用い、さらに実施例2の第1のモデル(輝度飽和部補正モデル1)を接続した構成を第1のモデルとする。また、実施例2の非輝度飽和部補正モデルを前処理として用い、さらに実施例2の第2のモデル(輝度飽和部補正モデル2)を接続した構成を第2のモデルとする。撮像画像を第1のモデル、第2のモデルにそれぞれ入力して得られた第1の中間補正画像503、第2の中間補正画像504を加重平均することで、第3のモデルの推定画像(補正画像)505を取得できる。この場合、第1の学習データおよび第2の学習データはそれぞれ、実施例2と等しい。
また、図11(B)の第1のモデルで輝度飽和部を補正しない場合、
図12(A)に示される構成となる。すなわち、非輝度飽和部補正モデルを第1のモデルとする。この場合、第1の学習データは実施例2の非輝度飽和部補正モデルの学習に用いた学習データである。第2の学習データは実施例2と等しい。このとき、第1のモデルと第2のモデルで非輝度飽和部補正モデルによる処理が共通となるため、共通する処理を省略してもよい。
図12(A)に示される構成となる。すなわち、非輝度飽和部補正モデルを第1のモデルとする。この場合、第1の学習データは実施例2の非輝度飽和部補正モデルの学習に用いた学習データである。第2の学習データは実施例2と等しい。このとき、第1のモデルと第2のモデルで非輝度飽和部補正モデルによる処理が共通となるため、共通する処理を省略してもよい。
次に、図12(B)を参照して、処理の省略方法を説明する。まず、非輝度飽和部補正モデルによる処理のみを実行した画像を第1の中間補正画像503とし、さらに輝度飽和部補正モデルによる処理を実行して第2の中間補正画像504を取得する。その後、第1の中間補正画像503と第2の中間補正画像504を加重平均することで第3のモデルによる推定画像(補正画像)505を取得する。したがって、第1のモデルと第2のモデルに基づいて第3のモデルは取得されているが、本実施例はそれぞれのモデルを独立して処理する場合に限定されるものではない。この場合、ステップS201でウエイトの情報を取得する際にも共通するウエイト情報を重複して取得する必要はない。
本実施例は、実施例1と異なり、非輝度飽和部を常に同一のモデルで補正する。したがって、加重平均を行っても非輝度飽和部の補正効果を高い精度で一定に保ちつつ、輝度飽和部の補正効果を調整することができる。
輝度飽和部の補正効果を学習時に調整する場合、正解画像に付与するぼけ量を適切に決める必要がある。一方、補正効果を知るには学習済みの第3のモデルによる推定画像(補正画像)を見なければならない。したがって、通常は補正効果を調整するために学習データの修正と学習とを幾度も繰り返す必要がある。しかし、本実施例の方法によれば、輝度飽和部においてぼけの異なる2つの学習データによって学習された第1のモデル、第2のモデルに基づいて第3のモデルを取得することで、容易に補正効果を調整することができる。
本実施例によれば、輝度飽和部を含む被写体のぼけを良好に補正する画像処理方法、および該画像処理を実行する撮像装置を提供することができる。
次に、図13を参照して、本発明の実施例3における画像処理システムに関して説明する。本実施例の画像処理システムは、画像推定装置に対して画像処理の対象である撮像画像を送信し処理済みの出力画像(補正画像)を画像推定装置から受信する処理装置(コンピュータ)を有する点で、実施例1、2と異なる。
図13は、本実施例における画像処理システム600のブロック図である。画像処理システム600は、学習装置601、撮像装置602、画像推定装置603、および、処理装置(コンピュータ)604を有する。学習装置601および画像推定装置603は、例えばサーバである。コンピュータ604は、例えばユーザ端末(パーソナルコンピュータまたはスマートフォン)である。処理装置604は、ネットワーク605を介して画像推定装置603に接続されている。画像推定装置603はネットワーク606を介して学習装置601に接続されている。
すなわち、コンピュータ604と画像推定装置603は通信可能に構成され、画像推定装置603と学習装置601は通信可能に構成されている。コンピュータ604は第1の装置に相当し、画像推定装置603は第2の装置に相当する。
学習装置601および撮像装置602の構成は、実施例1の学習装置101および撮像装置102とそれぞれ同様のため、それらの説明を省略する。
画像推定装置603は、記憶部603a、取得部603b、ぼけ補正部603c、および、通信部(受信手段)603dを有する。記憶部603a、取得部603b、および、ぼけ補正部603cは、実施例1の画像推定装置103の記憶部103a、取得部103b、および、ぼけ補正部103cとそれぞれ同様である。通信部603dは、コンピュータ604から送信される要求を受信する機能と、画像推定装置603によって生成された出力画像をコンピュータ604に送信する機能を有する。
コンピュータ604は、通信部(送信手段)604a、表示部604b、画像処理部604c、および、記録部604dを有する。通信部604aは、撮像画像に対する処理を画像推定装置603に実行させるための要求を画像推定装置603に送信する機能、および、画像推定装置603によって処理された出力画像を受信する機能を有する。表示部604bは、種々の情報を表示する機能を有する。表示部604bによって表示される情報は、例えば画像推定装置603に送信する撮像画像と、画像推定装置603から受信した出力画像を含む。画像処理部604cは、画像推定装置603から受信した出力画像に対してさらに画像処理を施す機能を有する。記録部604dは、撮像装置602から取得した撮像画像や、画像推定装置603から受信した出力画像等を記録する。
次に、図14を参照して、本実施例における画像処理について説明する。本実施例における画像処理は、図5を参照して実施例1にて説明したぼけ補正処理と同等である。図14は、本実施例における補正画像の生成(画像処理)に関するフローチャートである。図14に示される画像処理は、コンピュータ604を介してユーザにより画像処理開始の指示が成されたことを契機として開始される。まず、コンピュータ604における動作について説明する。
ステップS701において、コンピュータ604は、撮像画像に対する処理の要求を画像推定装置603へ送信する。なお、処理対象である撮像画像を画像推定装置603に送信する方法は問わない。例えば、撮像画像はステップS701と同時に画像推定装置603にアップロードされてもよく、または、ステップS701以前に画像推定装置603にアップロードされていてもよい。また撮像画像は、画像推定装置603とは異なるサーバ上に記憶された画像でもよい。なお、ステップS701において、コンピュータ604は、撮像画像に対する処理の要求と共に、ユーザを認証するID情報等を送信してもよい。
続いてステップS702において、コンピュータ604は、画像推定装置603内で生成された出力画像を受信する。出力画像は、実施例1と同様に撮像画像に対してぼけ補正が成された画像である。
次に、画像推定装置603の動作について説明する。まずステップS801において、画像推定装置603は、コンピュータ604から送信された撮像画像に対する処理の要求を受信する。画像推定装置603は、撮像画像に対する処理(ぼけ補正処理)が指示されたと判定し、ステップS802以降の処理を実行する。
ステップS802において、画像推定装置603は、ウエイトの情報を取得する。ウエイトの情報は、図4を参照して実施例1にて説明した方法と同様の方法で学習された情報(学習済みモデル)である。画像推定装置603は、学習装置601からウエイトの情報を取得してもよく、または、予め学習装置601から取得され記憶部603aに記憶されたウエイトの情報を取得してもよい。続くステップS803〜S805は、実施例1のステップS202〜S204とそれぞれ同様である。続いてステップS806において、画像推定装置603は、出力画像をコンピュータ604へ送信する。
本実施例は、実施例1のぼけ補正処理を行うものとして説明したが、実施例2(変形例を含む)のぼけ補正処理にも同様に適用可能である。なお本実施例では、ぼけ補正の強度の調整は画像推定装置603内で行われる例について述べたが、ぼけ補正の強度はユーザがコンピュータ604を介して画像推定装置に指示することで行ってもよい。本実施例のように、ぼけ補正処理を画像推定装置603内で行う場合、ぼけ補正処理による処理負荷を画像推定装置603内で担うことができるため、コンピュータ604側に求められる処理能力を減じることが可能である。
以上のように、本実施例のように、画像推定装置603を、画像推定装置603と通信可能に接続されたコンピュータ604を用いて制御するように構成してもよい。
(その他の実施例)
本発明は、上述の実施例の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
本発明は、上述の実施例の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
各実施例によれば、輝度飽和した被写体を含む撮像画像のぼけを良好に補正することが可能な画像処理方法、プログラム、画像処理装置、および、画像処理システムを提供することができる。
以上、本発明の好ましい実施例について説明したが、本発明はこれらの実施例に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。
103 画像推定装置(画像処理装置)
103b 取得部(取得手段)
103c ぼけ補正部(出力手段)
103b 取得部(取得手段)
103c ぼけ補正部(出力手段)
Claims (16)
- 撮像画像の光学特性に起因するぼけを補正した補正画像を出力する画像処理方法であって、
第1のモデルと第2のモデルとに基づく第3のモデルを用いて前記補正画像を出力する出力ステップを有し、
前記第1のモデルは、第1の原画像に基づく第1の訓練画像と第1の正解画像とを含む第1の学習データを用いて学習されたモデルであり、
前記第2のモデルは、第2の原画像に基づく第2の訓練画像と第2の正解画像とを含む第2の学習データを用いて学習されたモデルであり、
前記第1の原画像の輝度飽和部における前記第1の正解画像のぼけに対する前記第1の訓練画像のぼけは、前記第2の原画像の輝度飽和部における前記第2の正解画像のぼけに対する前記第2の訓練画像のぼけよりも小さく、かつ前記光学特性に起因するぼけよりも小さいことを特徴とする画像処理方法。 - 前記第1のモデルと前記第2のモデルとに基づいて前記第3のモデルを取得する取得ステップを更に有することを特徴とする請求項1に記載の画像処理方法。
- 前記第1の訓練画像は、少なくとも前記第1の原画像の前記輝度飽和部において、前記第1の原画像にぼけが付与された画像であり、
前記第1の正解画像は、少なくとも前記第1の原画像の前記輝度飽和部において、前記第1の訓練画像の同一位置に付与されたぼけと比較して同一または小さいぼけが付与された画像であることを特徴とする請求項1または2に記載の画像処理方法。 - 前記第2の訓練画像は、少なくとも前記第2の原画像の前記輝度飽和部において、前記第2の原画像にぼけが付与された画像であり、
前記第2の正解画像は、少なくとも前記第2の原画像の前記輝度飽和部において、ぼけが付与されないか、または、前記第2の訓練画像の同一位置に付与されたぼけと比較して小さいぼけが付与された画像であることを特徴とする請求項1乃至3のいずれか一項に記載の画像処理方法。 - 前記第1の訓練画像は、前記第1の原画像の前記輝度飽和部において、前記光学特性に起因するぼけが付与された画像であり、
前記第2の訓練画像は、前記第2の原画像の前記輝度飽和部において、前記光学特性に起因するぼけが付与された画像であり、
前記第1の正解画像は、前記第1の原画像の前記輝度飽和部において、前記光学特性に起因するぼけと比較して同一または小さいぼけが付与された画像であり、
前記第2の正解画像は、前記第2の原画像の前記輝度飽和部において、ぼけが付与されないか、または、前記光学特性に起因するぼけと比較して小さいぼけが付与された画像であることを特徴とする請求項1乃至4のいずれか一項に記載の画像処理方法。 - 前記第1の訓練画像と前記第1の正解画像は、前記第1の原画像の非輝度飽和部において、ぼけが付与されないか、または、前記第1の原画像と同一のぼけが付与された画像であり、
前記第2の訓練画像と前記第2の正解画像は、前記第2の原画像の非輝度飽和部において、ぼけが付与されないか、または、前記第2の原画像と同一のぼけが付与された画像であることを特徴とする請求項1乃至5のいずれか一項に記載の画像処理方法。 - 前記第1の訓練画像は、前記第1の原画像に対して、前記光学特性に起因するぼけが付与された画像であり、
前記第2の訓練画像は、前記第2の原画像に対して、前記光学特性に起因するぼけが付与された画像であり、
前記第1の原画像の非輝度飽和部において、前記第1の正解画像は、前記第1の原画像にぼけが付与されない画像であり、
前記第2の原画像の非輝度飽和部において、前記第2の正解画像は、前記第2の原画像にぼけが付与されない画像であることを特徴とする請求項1乃至6のいずれか一項に記載の画像処理方法。 - 前記光学特性に起因するぼけとは異なるぼけは、前記光学特性に基づいて取得されることを特徴とする請求項1乃至7のいずれか一項に記載の画像処理方法。
- 前記撮像画像の複数の撮影条件を取得するステップと、
前記複数の撮影条件に基づいて前記光学特性を取得するステップと、を更に有し、
前記第1のモデルと前記第2のモデルは、前記複数の撮影条件に対応する学習データを用いて学習され、
前記出力ステップにおいて、前記撮像画像と、前記撮像画像に対応する前記撮影条件とを、前記第3のモデルに入力することを特徴とする請求項1乃至8のいずれか一項に記載の画像処理方法。 - 前記第3のモデルは、前記第1のモデルによる第1の中間補正画像と前記第2のモデルによる第2の中間補正画像との加重平均により前記補正画像を生成することを特徴とする請求項1乃至9のいずれか一項に記載の画像処理方法。
- 前記第3のモデルは、前記第1のモデルのウエイトと前記第2のモデルのウエイトとを加重平均することで取得され、
前記第2のモデルは、前記第1のモデルを追加学習することで学習されることを特徴とする請求項1乃至9のいずれか一項に記載の画像処理方法。 - 前記加重平均の重みは、ユーザからの入力に基づいて決定されることを特徴とする請求項10または11に記載の画像処理方法。
- 撮像画像の光学特性に起因するぼけを補正した補正画像を出力する画像処理装置であって、
第1のモデルと第2のモデルとに基づく第3のモデルを用いて前記補正画像を出力する出力手段を有し、
前記第1のモデルは、第1の原画像に基づく第1の訓練画像と第1の正解画像とを含む第1の学習データを用いて学習されたモデルであり、
前記第2のモデルは、第2の原画像に基づく第2の訓練画像と第2の正解画像とを含む第2の学習データを用いて学習されたモデルであり、
前記第1の原画像の輝度飽和部における前記第1の正解画像のぼけに対する前記第1の訓練画像のぼけは、前記第2の原画像の輝度飽和部における前記第2の正解画像のぼけに対する前記第2の訓練画像のぼけよりも小さく、かつ前記光学特性に起因するぼけよりも小さいことを特徴とする画像処理装置。 - 前記第1のモデルと前記第2のモデルとに基づいて前記第3のモデルを取得する取得手段を更に有することを特徴とする請求項13に記載の画像処理装置。
- 請求項1乃至12のいずれか一項に記載の画像処理方法をコンピュータに実行させることを特徴とするプログラム。
- 第1の装置と、前記第1の装置と通信可能な第2の装置とを含む画像処理システムであって、
前記第1の装置は、撮像画像に対する処理を前記第2の装置に実行させるための要求を送信する送信手段を有し、
前記第2の装置は、
前記送信手段により送信された前記要求を受信する受信手段と、
第1のモデルと第2のモデルに基づいて取得された第3のモデルを用いて、前記撮像画像の光学特性に起因するぼけを補正した補正画像を出力する出力手段と、を有し、
前記第1のモデルは、第1の原画像に基づく第1の訓練画像と第1の正解画像とを含む第1の学習データを用いて学習されたモデルであり、
前記第2のモデルは、第2の原画像に基づく第2の訓練画像と第2の正解画像とを含む第2の学習データを用いて学習されたモデルであり、
前記第1の原画像の輝度飽和部における前記第1の正解画像のぼけに対する前記第1の訓練画像のぼけは、前記第2の原画像の輝度飽和部における前記第2の正解画像のぼけに対する前記第2の訓練画像のぼけよりも小さく、かつ前記光学特性に起因するぼけよりも小さいことを特徴とする画像処理システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020096645A JP2021189929A (ja) | 2020-06-03 | 2020-06-03 | 画像処理方法、プログラム、画像処理装置、および、画像処理システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020096645A JP2021189929A (ja) | 2020-06-03 | 2020-06-03 | 画像処理方法、プログラム、画像処理装置、および、画像処理システム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021189929A true JP2021189929A (ja) | 2021-12-13 |
Family
ID=78848528
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020096645A Pending JP2021189929A (ja) | 2020-06-03 | 2020-06-03 | 画像処理方法、プログラム、画像処理装置、および、画像処理システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021189929A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024029224A1 (ja) * | 2022-08-03 | 2024-02-08 | キヤノン株式会社 | 画像処理方法、画像処理装置、プログラムおよび画像処理システム |
-
2020
- 2020-06-03 JP JP2020096645A patent/JP2021189929A/ja active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024029224A1 (ja) * | 2022-08-03 | 2024-02-08 | キヤノン株式会社 | 画像処理方法、画像処理装置、プログラムおよび画像処理システム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7242185B2 (ja) | 画像処理方法、画像処理装置、画像処理プログラム、および、記憶媒体 | |
JP7258604B2 (ja) | 画像処理方法、画像処理装置、プログラム、および学習済みモデルの製造方法 | |
JP7439145B2 (ja) | 画像処理方法、画像処理装置、画像処理システム、学習済みウエイトの生成方法、および、プログラム | |
JP7362284B2 (ja) | 画像処理方法、画像処理装置、プログラム、画像処理システム、および、学習済みモデルの製造方法 | |
JP7297470B2 (ja) | 画像処理方法、画像処理装置、プログラム、画像処理システム、および、学習済みモデルの製造方法 | |
JP2021168048A (ja) | 画像処理方法、画像処理装置、画像処理システム、およびプログラム | |
US20240046439A1 (en) | Manufacturing method of learning data, learning method, learning data manufacturing apparatus, learning apparatus, and memory medium | |
JP5479187B2 (ja) | 画像処理装置及びそれを用いた撮像装置 | |
JP2021140663A (ja) | 画像処理方法、画像処理装置、画像処理プログラム、および記憶媒体 | |
US11308592B2 (en) | Image processing method, image processing apparatus, imaging apparatus, and storage medium, that correct a captured image using a neutral network | |
JP2022056769A (ja) | 画像処理方法、プログラム、画像処理装置、学習済みモデルの製造方法、学習方法、学習装置、および、画像処理システム | |
JP2021189929A (ja) | 画像処理方法、プログラム、画像処理装置、および、画像処理システム | |
JP7414745B2 (ja) | 学習データの製造方法、学習方法、学習データ製造装置、学習装置、およびプログラム | |
JP7225315B2 (ja) | 画像処理方法、画像処理装置、画像処理システム、およびプログラム | |
WO2022215375A1 (ja) | 画像処理方法、機械学習モデルの製造方法、画像処理装置、画像処理システム、及びプログラム | |
JP2021114186A (ja) | 画像処理装置、画像処理方法、およびプログラム | |
JP2021190814A (ja) | 学習方法、画像処理方法、およびプログラム | |
JP7225316B2 (ja) | 画像処理方法、画像処理装置、画像処理システム、およびプログラム | |
JP7455574B2 (ja) | 画像処理方法、プログラム、学習済みモデルの製造方法、画像処理装置、および、画像処理システム | |
JP2024032621A (ja) | 画像処理方法、画像処理装置、及びプログラム | |
US20240029321A1 (en) | Image processing method, image processing apparatus, storage medium, image processing system, method of generating machine learning model, and learning apparatus | |
JP2021170197A (ja) | 画像処理方法、画像処理装置、画像処理プログラム、および学習済みモデルの製造方法 | |
JP2021086272A (ja) | 画像処理方法、プログラム、学習済みモデルの製造方法、画像処理装置、および、画像処理システム | |
JP2023088349A (ja) | 画像処理方法、画像処理装置、画像処理システム、およびプログラム | |
JP2023116364A (ja) | 画像処理方法、画像処理装置、画像処理システム、およびプログラム |