JP7333467B2 - 学習に基づくレンズフレア除去 - Google Patents
学習に基づくレンズフレア除去 Download PDFInfo
- Publication number
- JP7333467B2 JP7333467B2 JP2022513320A JP2022513320A JP7333467B2 JP 7333467 B2 JP7333467 B2 JP 7333467B2 JP 2022513320 A JP2022513320 A JP 2022513320A JP 2022513320 A JP2022513320 A JP 2022513320A JP 7333467 B2 JP7333467 B2 JP 7333467B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- lens flare
- images
- training
- lens
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012549 training Methods 0.000 claims description 139
- 238000010801 machine learning Methods 0.000 claims description 107
- 230000006870 function Effects 0.000 claims description 77
- 238000000034 method Methods 0.000 claims description 45
- 230000003287 optical effect Effects 0.000 claims description 36
- 238000012545 processing Methods 0.000 claims description 33
- 230000000007 visual effect Effects 0.000 claims description 31
- 230000007547 defect Effects 0.000 claims description 14
- 230000009471 action Effects 0.000 claims description 9
- 238000013527 convolutional neural network Methods 0.000 claims description 6
- 230000010363 phase shift Effects 0.000 claims description 6
- 230000001965 increasing effect Effects 0.000 claims description 5
- 238000005070 sampling Methods 0.000 claims description 5
- 238000000149 argon plasma sintering Methods 0.000 claims description 4
- 230000003247 decreasing effect Effects 0.000 claims description 4
- 239000011159 matrix material Substances 0.000 claims description 4
- 230000002194 synthesizing effect Effects 0.000 claims 3
- 238000004590 computer program Methods 0.000 claims 2
- 238000004891 communication Methods 0.000 description 16
- 238000003860 storage Methods 0.000 description 12
- 230000008569 process Effects 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 5
- 238000005094 computer simulation Methods 0.000 description 5
- 238000013500 data storage Methods 0.000 description 5
- 238000012937 correction Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 4
- 230000000670 limiting effect Effects 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 239000000428 dust Substances 0.000 description 3
- 230000007774 longterm Effects 0.000 description 3
- 238000004088 simulation Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 230000005670 electromagnetic radiation Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000003825 pressing Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- 238000010408 sweeping Methods 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 241000699670 Mus sp. Species 0.000 description 1
- 238000012952 Resampling Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000012447 hatching Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 238000013442 quality metrics Methods 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 241000894007 species Species 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 238000011179 visual inspection Methods 0.000 description 1
- 230000003313 weakening effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/80—Geometric correction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/10—Image enhancement or restoration using non-spatial domain filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/20—Image enhancement or restoration using local operators
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/60—Image enhancement or restoration using machine learning, e.g. neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/60—Noise processing, e.g. detecting, correcting, reducing or removing noise
- H04N25/61—Noise processing, e.g. detecting, correcting, reducing or removing noise the noise originating only from the lens unit, e.g. flare, shading, vignetting or "cos4"
- H04N25/615—Noise processing, e.g. detecting, correcting, reducing or removing noise the noise originating only from the lens unit, e.g. flare, shading, vignetting or "cos4" involving a transfer function modelling the optical system, e.g. optical transfer function [OTF], phase transfer function [PhTF] or modulation transfer function [MTF]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Medical Informatics (AREA)
- Studio Devices (AREA)
- Geometry (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Description
本願は、2020年9月28日に提出された米国特許仮出願第63/084377号の優先権を主張する。当該出願の全ての内容は、本明細書に完全に記載されているかのように、参照により本明細書に組み込まれる。
レンズフレアは、カメラが強い光源に向けられているときに生じた写真中の共通のアーチファクトである。レンズフレアは、環境の一部の表現を不明瞭にするまたは干渉することによって、写真の画質を低下させる可能性がある。
機械学習モデル、例えば畳み込みニューラルネットワークを訓練して、画像内のレンズフレアの表現を決定することができる。具体的には、機械学習モデルは、レンズフレアの表現を含む入力画像を処理することによって、少なくとも一部のレンズフレアの表現が除去された入力画像のフレア除去画像を生成するように構成されてもよい。機械学習モデルは、レンズフレアの表現を有しない複数の基準画像と、レンズフレアを表す複数のレンズフレア画像とを合成することによって形成された複数の訓練画像に基づいて、訓練されてもよい。一部のレンズフレア画像は、物理的なカメラを用いて実験的に撮影されてもよく、他のレンズフレア画像は、カメラのコンピュータシミュレーションに基づいて生成されてもよい。
本明細書において、例示的な方法、装置、およびシステムを説明する。理解すべきことは、「例示」および「例示的な」という用語は、本明細書において、「例示、事例、または実例として機能する」という意味で使用されることである。本明細書において、「例示的な」、「例証的な」、および/または「実例的な」ものとして記載された任意の実施形態または特徴は、特に明記しない限り、必ずしも他の実施形態または特徴よりも好ましいまたは有利であると解釈されるべきではない。したがって、本明細書に記載された主題の範囲から逸脱することなく、他の実施形態を利用することができ、他の変更を行うことができる。
レンズフレアは、カメラが比較的強い/明るい光源から出射された光を捕捉するときに観察される光学現象である。レンズフレアは、画像データにおいて、他の可能な視覚的アーチファクト/パターンの中でも特に、条斑、線条、および/または不規則な斑点に類似する視覚的アーチファクト/パターンを引き起こすことができ、および/またはそれらとして表されてもよい。画像データ内のレンズフレアの表現は、カメラの光学要素(例えば、レンズ)による光の内部反射によって引き起こされてもよく、表現の特定の視覚パターンは、光学要素の光学特性に応じて変動してもよい。また、画像データ内のレンズフレアの表現は、カメラの光学要素内および/または上に存在する欠陥による光の散乱および/または回折によって引き起こされてもよく、表現の特定の視覚パターンは、欠陥の特定の種類、サイズ、および/または空間分布に応じて変動してもよい。
図1は、例示的なコンピューティング装置100を示す。コンピューティング装置100は、携帯電話のフォームファクタで示されている。しかしながら、代替的に、コンピューティング装置100は、他の可能性の中でも特に、ラップトップコンピュータ、タブレットコンピュータ、またはウェアラブルコンピューティング装置として実装されてもよい。コンピューティング装置100は、様々な要素、例えば、本体102、ディスプレイ106、およびボタン108、110を含むことができる。コンピューティング装置100は、1つ以上のカメラ、例えば、前面カメラ104および背面カメラ112をさらに含むことができる。
図3Aは、画像からレンズフレアの表現を除去するための例示的なシステムを示す。具体的には、図3Aは、機械学習モデル304と、フレアコントローラ310と、マスク生成器314と、逆演算子318とを含むシステム300を示す。システム300は、他の可能性の中でも特に、コンピューティング装置100および/またはコンピューティングシステム200の一部を形成することができる。システム300は、ハードウェア要素(例えば、専用回路)、ソフトウェア命令、またはそれらの組み合わせであってもよい。
図5は、様々な解像度の入力画像に適用されるシステム300の態様を示す。具体的には、機械学習モデル304は、入力として特定の解像度を有する画像データを受け入れ、出力として特定の解像度を有する画像データを生成するように構成されてもよい。例えば、図5に示すように、特定の解像度は、512ピクセル×512ピクセル(すなわち、512×512)であってもよい。したがって、異なるサイズを有する画像データに対して動作するために、システム300は、ダウンサンプラ502と、アップサンプラ510とを含むことができる。例えば、ダウンサンプラ502は、4という倍率で、2048ピクセル×2048ピクセル(すなわち、2048×2048)の(第1の)解像度を有する入力画像500をダウンサンプリングすることによって、512ピクセル×512ピクセルの(第2の)解像度を有する入力画像504を生成することができる。
図6は、レンズフレアの表現を含む画像を処理するように機械学習モデルを訓練することに関連する動作のフローチャートを示す。図7は、画像からレンズフレアの表現を除去するために、機械学習モデルを用いて画像を処理することに関連する動作のフローチャートを示す。図6および/または7の動作は、コンピューティング装置100、コンピューティングシステム200、システム300、および/または他の種類のコンピューティング装置によって実行されてもよい。図6および/または7の動作は、1つ以上のカメラ装置を備えるコンピューティング装置によって実行されてもよく、および/またはカメラ装置を備えないコンピューティング装置によって実行されてもよい。図6および/または7の実施形態は、図示された特徴のうち、任意の1つ以上を除去することによって簡略化されてもよい。さらに、これらの実施形態は、前述した図面または本明細書に記載された特徴、特性および/または実装例と組み合わせられてもよい。
いくつかの実施形態において、特定のレンズフレア復元画像は、(i)機械学習モデルを用いるか、または(ii)フレア除去画像と入力画像との間の差異に基づいて、決定されてもよい。入力画像の第1の修正画像は、特定のレンズフレア復元画像に基づいて、入力画像内の特定のレンズフレアの表現の視覚外観を調整することによって生成されてもよい。入力画像の第1の修正画像は、出力(例えば、記憶および/または表示)されてもよい。
いくつかの実施形態において、複数の基準画像の少なくとも一部は、レンズフレアの表現を含まないフレアフリー画像を含んでもよい。
本開示は、本明細書に記載された特定の実施形態に限定されない。これらの実施形態は、様々な態様の例示として意図される。当業者には明らかなように、本開示の範囲から逸脱することなく、多くの修正および変形を行うことができる。本明細書に記載されるものに加えて、本開示の範囲と機能的に等価な方法および装置は、前述した説明から当業者には明らかであろう。このような修正および変形は、添付の特許請求の範囲に含まれることが意図される。
Claims (20)
- コンピュータ実施方法であって、
(i)複数の基準画像と(ii)複数のレンズフレア画像とを取得することと、
前記複数の基準画像の各基準画像と、前記複数のレンズフレア画像のうち、対応するレンズフレア画像とを合成することによって、複数の訓練画像を生成することと、
機械学習モデルを用いて前記複数の訓練画像の各訓練画像を処理することによって、前記各訓練画像の修正画像を決定することとを含み、前記修正画像は、対応するレンズフレアの表現の少なくとも一部が除去された前記各訓練画像を含み、
前記コンピュータ実施方法はさらに、
(i)前記機械学習モデルを用いるか、または(ii)前記修正画像と前記複数の訓練画像の各訓練画像との間の差異に基づいて、前記各訓練画像のレンズフレア復元画像を決定することと、
(i)前記修正画像と、前記各訓練画像を生成するために使用された対応する基準画像とを比較するように構成された第1の損失関数および(ii)前記レンズフレア復元画像と、前記各訓練画像を生成するために使用された対応するレンズフレア画像とを比較するように構成された第2の損失関数に基づいて、損失値を決定することと、
(i)各訓練画像について決定された前記損失値、(ii)前記第1の損失関数、および(iii)前記第2の損失関数に基づいて、前記機械学習モデルの1つ以上のパラメータを調整することとを含む、コンピュータ実施方法。 - 特定のレンズフレアの表現を含む入力画像を取得することと、
機械学習モデルを用いて前記入力画像を処理することによって、前記特定のレンズフレアの表現の少なくとも一部が除去された前記入力画像を含むフレア除去画像を生成することと、
前記フレア除去画像を出力することとをさらに含む、請求項1に記載のコンピュータ実施方法。 - 前記機械学習モデルを用いて前記各訓練画像を処理することによって、前記修正画像を決定することは、
前記機械学習モデルを用いて前記修正画像を決定することか、または
前記レンズフレア復元画像と前記各訓練画像との間の差異に基づいて前記修正画像を決定することを含み、
前記機械学習モデルを用いて前記修正画像を決定する場合、前記レンズフレア復元画像は、前記修正画像と前記各訓練画像との間の差異に基づき、
前記レンズフレア復元画像と前記各訓練画像との間の前記差異に基づいて前記修正画像を決定する場合、前記レンズフレア復元画像は、前記機械学習モデルを用いて決定される、請求項1または2に記載のコンピュータ実施方法。 - 前記損失値を決定することは、(i)第1の重み値と前記第1の損失関数の出力との積と、(ii)第2の重み値と前記第2の損失関数の出力との積との和を決定することを含む、請求項1~3のいずれか1項に記載のコンピュータ実施方法。
- 前記複数のレンズフレア画像は、1つ以上の第1のレンズフレアパターンの表現を生成するために、カメラ装置の光学システムをコンピュータにおいてシミュレートすることによって生成された1つ以上のレンズフレア模擬画像を含む、請求項1~4のいずれか1項に記載のコンピュータ実施方法。
- 前記1つ以上の第1のレンズフレアパターンの前記表現の少なくとも一部は、前記カメラ装置のレンズ上に存在する1つ以上の欠陥による光の散乱を表す、請求項5に記載のコンピュータ実施方法。
- 前記カメラ装置の前記光学システムをコンピュータにおいてシミュレートすることは、
前記カメラ装置の開口関数を決定することを含み、前記開口関数は、前記カメラ装置のレンズ上に存在する1つ以上の欠陥を表し、
模擬光源に対する前記カメラ装置の角度位置に基づいて、線形位相シフトを決定することと、
前記模擬光源に対する前記カメラ装置の深度に基づいて、ピンぼけレベルを決定することと、
(i)前記開口関数と、(ii)前記線形位相シフトおよび前記ピンぼけレベルの和の指数関数との積のフーリエ変換に基づいて、前記カメラ装置の点像分布関数を決定することと、
複数の異なる波長で前記点像分布関数をサンプリングすることによって、非干渉性光源を表すマルチチャネル点像分布関数を生成することと、
前記マルチチャネル点像分布関数に、前記マルチチャネル点像分布関数を画像空間に変換するように構成されたカラーマトリックスを乗算することによって、前記1つ以上のレンズフレア模擬画像のうち、特定のレンズフレア模擬画像を生成することとを含み、前記1つ以上のレンズフレア模擬画像の追加のレンズフレア模擬画像は、(i)前記開口関数、(ii)前記模擬光源に対する前記カメラ装置の位置、または(iii)前記カラーマトリックスのうち、1つ以上を調整することによって生成される、請求項5または6に記載のコンピュータ実施方法。 - 前記複数のレンズフレア画像は、カメラ装置を用いて撮影された1つ以上のレンズフレア実験画像を含み、
前記1つ以上のレンズフレア実験画像は、前記カメラ装置に向かって光を出射する1つ以上の光源によって引き起こされた1つ以上の第2のレンズフレアパターンの表現を含み、
前記1つ以上のレンズフレア実験画像は、前記1つ以上の光源に対して1つ以上の異なる姿勢で配置された前記カメラ装置を用いて撮影される、請求項1~4のいずれか1項に記載のコンピュータ実施方法。 - 前記1つ以上の第2のレンズフレアパターンの前記表現の少なくとも一部は、前記カメラ装置のレンズの1つ以上の表面からの光の反射を表す、請求項8に記載のコンピュータ実施方法。
- 前記複数の基準画像は、複数の平面視画像を含む、請求項1~9のいずれか1項に記載のコンピュータ実施方法。
- 前記複数の基準画像の少なくとも一部は、レンズフレアの表現を含まないフレアフリー画像を含む、請求項1~10のいずれか1項に記載のコンピュータ実施方法。
- 前記複数のレンズフレア画像は、単調背景に対して示されたレンズフレアの表現をそれぞれ含む、請求項1~11のいずれか1項に記載のコンピュータ実施方法。
- (i)前記機械学習モデルを用いるか、または(ii)前記フレア除去画像と前記入力画像との間の差異に基づいて、特定のレンズフレア復元画像を決定することと、
前記特定のレンズフレア復元画像に基づいて前記入力画像内の前記特定のレンズフレアの表現の視覚外観を調整することによって、前記入力画像の第1の修正画像を生成することと、
前記入力画像の前記第1の修正画像を出力することとをさらに含む、請求項2に記載のコンピュータ実施方法。 - 前記入力画像内の前記特定のレンズフレアの表現の前記視覚外観を調整することは、(i)前記視覚外観の強度を増加させること、(ii)前記視覚外観の強度を低下させること、または(iii)前記視覚外観の色を調整することのうち、1つ以上を含む、請求項13に記載のコンピュータ実施方法。
- 前記入力画像を第1の解像度から第2の解像度にダウンサンプリングすることによって、前記入力画像のダウンサンプリング画像を生成することをさらに含み、前記フレア除去画像は、前記入力画像の前記ダウンサンプリング画像に基づいて生成され、前記フレア除去画像は、前記第2の解像度を有し、前記特定のレンズフレア復元画像は、(i)前記機械学習モデルによって決定されるか、または(ii)前記入力画像の前記ダウンサンプリング画像から前記フレア除去画像を減算することによって決定され、前記特定のレンズフレア復元画像は、前記第2の解像度を有し、前記コンピュータ実施方法は、
前記特定のレンズフレア復元画像を前記第2の解像度から前記第1の解像度にアップサンプリングすることによって、前記特定のレンズフレア復元画像のアップサンプリング画像を生成することをさらに含み、前記入力画像の前記第1の修正画像は、前記特定のレンズフレア復元画像の前記アップサンプリング画像に基づいて、前記入力画像内の前記特定のレンズフレアの表現の前記視覚外観を調整することによって生成される、請求項13または14に記載のコンピュータ実施方法。 - 前記入力画像に基づいて、(i)前記入力画像内に表されるとともに(ii)前記特定のレンズフレアの表現を引き起こす1つ以上の光源を、マスクするように構成された光源マスクを決定することと、
(i)前記入力画像と前記光源マスクとの間のピクセルごとの乗算の第1の積と、(ii)前記フレア除去画像と前記光源マスクの逆数との間のピクセルごとの乗算の第2の積とを合計することによって、前記入力画像の第2の修正画像を生成することと、
前記入力画像の前記第2の修正画像を出力することとをさらに含む、請求項2に記載のコンピュータ実施方法。 - 前記光源マスクは、複数のピクセルを含み、前記入力画像と同じ解像度を有し、
前記光源マスクを決定することは、
前記入力画像において、輝度閾値を超える輝度値をそれぞれ有する1つ以上のピクセルを特定することと、
(i)前記1つ以上のピクセルの各位置に空間的に対応する複数のピクセルのうちの1つ以上のピクセルに第1の値を割り当てるとともに、(ii)前記複数のピクセルのうちの1つ以上の他のピクセルに第2の値を割り当てることによって、前記光源マスクを決定することとを含む、請求項16に記載のコンピュータ実施方法。 - 前記機械学習モデルは、畳み込みニューラルネットワークを含む、請求項1~17のいずれか1項に記載のコンピュータ実施方法。
- システムであって、
プロセッサと、
前記プロセッサによって実行されると、以下の動作を前記プロセッサに実行させる命令を記憶するコンピュータ可読媒体とを備え、
前記動作は、
(i)複数の基準画像と(ii)複数のレンズフレア画像とを取得することと、
前記複数の基準画像の各基準画像と、前記複数のレンズフレア画像のうち、対応するレンズフレア画像とを合成することによって、複数の訓練画像を生成することと、
機械学習モデルを用いて前記複数の訓練画像の各訓練画像を処理することによって、前記各訓練画像の修正画像を決定することとを含み、前記修正画像は、対応するレンズフレアの表現の少なくとも一部が除去された前記各訓練画像を含み、
前記動作はさらに、
(i)前記機械学習モデルを用いるか、または(ii)前記修正画像と前記複数の訓練画像の各訓練画像との間の差異に基づいて、前記各訓練画像のレンズフレア復元画像を決定することと、
(i)前記修正画像と、前記各訓練画像を生成するために使用された対応する基準画像とを比較するように構成された第1の損失関数および(ii)前記レンズフレア復元画像と、前記各訓練画像を生成するために使用された対応するレンズフレア画像とを比較するように構成された第2の損失関数に基づいて、損失値を決定することと、
(i)各訓練画像について決定された前記損失値、(ii)前記第1の損失関数、および(iii)前記第2の損失関数に基づいて、前記機械学習モデルの1つ以上のパラメータを調整することとを含む、システム。 - 命令を記憶するコンピュータプログラムであって、
前記命令は、コンピューティング装置によって実行されると、以下の動作を前記コンピューティング装置に実行させ、
前記動作は、
(i)複数の基準画像と(ii)複数のレンズフレア画像とを取得することと、
前記複数の基準画像の各基準画像と、前記複数のレンズフレア画像のうち、対応するレンズフレア画像とを合成することによって、複数の訓練画像を生成することと、
機械学習モデルを用いて前記複数の訓練画像の各訓練画像を処理することによって、前記各訓練画像の修正画像を決定することとを含み、前記修正画像は、対応するレンズフレアの表現の少なくとも一部が除去された前記各訓練画像を含み、
前記動作はさらに、
(i)前記機械学習モデルを用いるか、または(ii)前記修正画像と前記複数の訓練画像の各訓練画像との間の差異に基づいて、前記各訓練画像のレンズフレア復元画像を決定することと、
(i)前記修正画像と、前記各訓練画像を生成するために使用された対応する基準画像とを比較するように構成された第1の損失関数および(ii)前記レンズフレア復元画像と、前記各訓練画像を生成するために使用された対応するレンズフレア画像とを比較するように構成された第2の損失関数に基づいて、損失値を決定することと、
(i)各訓練画像について決定された前記損失値、(ii)前記第1の損失関数、および(iii)前記第2の損失関数に基づいて、前記機械学習モデルの1つ以上のパラメータを調整することとを含む、コンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US202063084377P | 2020-09-28 | 2020-09-28 | |
US63/084,377 | 2020-09-28 | ||
PCT/US2020/059661 WO2022066194A1 (en) | 2020-09-28 | 2020-11-09 | Learning-based lens flare removal |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023510440A JP2023510440A (ja) | 2023-03-14 |
JP7333467B2 true JP7333467B2 (ja) | 2023-08-24 |
Family
ID=73740493
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022513320A Active JP7333467B2 (ja) | 2020-09-28 | 2020-11-09 | 学習に基づくレンズフレア除去 |
Country Status (5)
Country | Link |
---|---|
EP (1) | EP4032061A1 (ja) |
JP (1) | JP7333467B2 (ja) |
KR (1) | KR102606208B1 (ja) |
CN (1) | CN114616587A (ja) |
WO (1) | WO2022066194A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116051434B (zh) * | 2022-07-22 | 2023-11-14 | 荣耀终端有限公司 | 一种图像处理方法及相关电子设备 |
TWI820889B (zh) * | 2022-09-01 | 2023-11-01 | 英屬維爾京群島商威爾德嘉德有限公司 | 圖像處理方法及其裝置 |
CN117135438A (zh) * | 2023-03-10 | 2023-11-28 | 荣耀终端有限公司 | 图像处理的方法及电子设备 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019057944A1 (en) | 2017-09-22 | 2019-03-28 | F. Hoffmann-La Roche Ag | ELIMINATION OF ARTIFACTS FROM IMAGES OF FABRIC |
US20200143519A1 (en) | 2018-11-07 | 2020-05-07 | Spectrum Optix Inc. | Bright Spot Removal Using A Neural Network |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7146461B2 (ja) * | 2018-06-06 | 2022-10-04 | キヤノン株式会社 | 画像処理方法、画像処理装置、撮像装置、プログラム、および、記憶媒体 |
-
2020
- 2020-11-09 WO PCT/US2020/059661 patent/WO2022066194A1/en unknown
- 2020-11-09 KR KR1020227001654A patent/KR102606208B1/ko active IP Right Grant
- 2020-11-09 EP EP20820601.1A patent/EP4032061A1/en active Pending
- 2020-11-09 JP JP2022513320A patent/JP7333467B2/ja active Active
- 2020-11-09 CN CN202080061137.1A patent/CN114616587A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019057944A1 (en) | 2017-09-22 | 2019-03-28 | F. Hoffmann-La Roche Ag | ELIMINATION OF ARTIFACTS FROM IMAGES OF FABRIC |
US20200143519A1 (en) | 2018-11-07 | 2020-05-07 | Spectrum Optix Inc. | Bright Spot Removal Using A Neural Network |
Also Published As
Publication number | Publication date |
---|---|
WO2022066194A1 (en) | 2022-03-31 |
US20220375045A1 (en) | 2022-11-24 |
CN114616587A (zh) | 2022-06-10 |
JP2023510440A (ja) | 2023-03-14 |
KR102606208B1 (ko) | 2023-11-24 |
KR20220044190A (ko) | 2022-04-06 |
EP4032061A1 (en) | 2022-07-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7333467B2 (ja) | 学習に基づくレンズフレア除去 | |
US11663733B2 (en) | Depth determination for images captured with a moving camera and representing moving features | |
US9591237B2 (en) | Automated generation of panning shots | |
Banterle et al. | A framework for inverse tone mapping | |
JP7425188B2 (ja) | デュアルピクセル画像データを使用した焦点ブラー除去および深度推定 | |
JPWO2016181804A1 (ja) | 画像処理装置および方法 | |
JP2023519467A (ja) | より深い被写界深度の分割ピクセルデータの合併 | |
WO2021145913A1 (en) | Estimating depth based on iris size | |
US20230343025A1 (en) | Method and device for light estimation | |
JP7387029B2 (ja) | ソフトレイヤ化および深度認識インペインティングを用いた単画像3d写真技術 | |
US12033309B2 (en) | Learning-based lens flare removal | |
US20230368340A1 (en) | Gating of Contextual Attention and Convolutional Features | |
US11935285B1 (en) | Real-time synthetic out of focus highlight rendering | |
Mandl et al. | Neural Bokeh: Learning Lens Blur for Computational Videography and Out-of-Focus Mixed Reality | |
JP2019080258A (ja) | 画像処理方法、及びそれを用いた画像処理プログラム、画像処理装置、撮像装置 | |
Farouk | Towards a filmic look and feel in real time computer graphics |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220707 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220707 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230705 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230718 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230814 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7333467 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |