WO2021106853A1 - 画像処理装置、画像処理方法、学習装置、学習方法、撮像装置、及びプログラム - Google Patents

画像処理装置、画像処理方法、学習装置、学習方法、撮像装置、及びプログラム Download PDF

Info

Publication number
WO2021106853A1
WO2021106853A1 PCT/JP2020/043619 JP2020043619W WO2021106853A1 WO 2021106853 A1 WO2021106853 A1 WO 2021106853A1 JP 2020043619 W JP2020043619 W JP 2020043619W WO 2021106853 A1 WO2021106853 A1 WO 2021106853A1
Authority
WO
WIPO (PCT)
Prior art keywords
image data
image
learning
processing
demosaic
Prior art date
Application number
PCT/JP2020/043619
Other languages
English (en)
French (fr)
Inventor
敦 ▲高▼濱
Original Assignee
キヤノン株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by キヤノン株式会社 filed Critical キヤノン株式会社
Publication of WO2021106853A1 publication Critical patent/WO2021106853A1/ja
Priority to US17/732,979 priority Critical patent/US20220261955A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4015Image demosaicing, e.g. colour filter arrays [CFA] or Bayer patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4046Scaling of whole images or parts thereof, e.g. expanding or contracting using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/92Dynamic range modification of images or parts thereof based on global image properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/12Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths with one sensor only
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Definitions

  • the image processing device 100 having the above configuration develops the RAW image data input to the image processing application based on the command from the CPU 101 and outputs the developed image data
  • the functions of the parts described below, shown in FIGS. 2A to 2C can be realized by a processor such as the CPU 101 executing a program stored in the memory such as the RAM 102 or the HDD 103. ..
  • the gamma correction process adjusts the contrast and dynamic range of the entire image using the gamma curve.
  • Sharpness processing emphasizes edges in an image and adjusts the sharpness of the entire image.
  • Color processing can change the hue or saturation of an image, or suppress color bending in a high-luminance region.
  • the image generation unit 602 may generate a teacher image in the linear color space from the fourth image by using the demosaic process.
  • the demosaic method to be used is not particularly limited, but the image generation unit 602 can use the demosaic method capable of suppressing the occurrence of false colors, or can perform a process of reducing the generated false colors.
  • step S704 the learning data generation unit 604 generates a student image group as described above by subsampling the teacher image group in the non-linear color space obtained in step S703 based on the color filter array.
  • step S705 the learning data generation unit 604 generates a learning data set in which the teacher image group obtained in step S703 and the student image group obtained in step S704 are paired, as described above.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Image Processing (AREA)
  • Color Television Image Signal Generators (AREA)
  • Studio Devices (AREA)

Abstract

撮像装置により得られたRAW画像の現像処理において、デモザイク処理の補間精度を向上させる。 非線形変換を行うことにより、RAW画像データから第1の画像データを生成する。第1の画像データを用いて学習済みのニューラルネットワークを用いてRAW画像データにデモザイク処理を行うことにより、第2の画像データを生成する。第2の画像データを用いて現像処理を行う。

Description

画像処理装置、画像処理方法、学習装置、学習方法、撮像装置、及びプログラム
 本発明は画像処理装置、画像処理方法、学習装置、学習方法、撮像装置、及びプログラムに関し、特に画像に対するデモザイク処理に関する。
 デジタルカメラ等のデジタル撮像装置が有する撮像素子の各画素には、例えばRGB配列のカラーフィルタを通して、特定の波長の光が入射する。例えば、ベイヤー(Bayer)配列を持つカラーフィルタが多く利用されている。ベイヤー配列の撮像画像は、各画素がRGBいずれかの色に対応する画素値のみを有している、いわゆるモザイク画像である。カメラ等が行う現像処理では、このモザイク画像に対して残り2色の画素値を補間により得るデモザイク処理及びその他の信号処理を施すことにより、カラー画像が生成される。
 従来のデモザイク処理手法としては線形補間等が知られていたが、近年、深層学習技術を応用した補間手法が提案されている。例えば非特許文献1は、CNN(畳み込みニューラルネットワーク)を用いたデモザイク処理手法を開示している。
M. Gharbi et al. "Deep Joint Demosaicking and Denoising", Siggraph Asia 2016.
 しかしながら、非特許文献1に記載のデモザイク処理を、撮像装置により得られたRAW画像の現像処理に用いた場合、依然として偽パターンが生じることが発見された。
 本発明の一実施形態は、撮像装置により得られたRAW画像の現像処理において、デモザイク処理の補間精度を向上させることができる。
 本発明の一実施形態によれば、画像処理装置は、
 非線形変換を行うことにより、RAW画像データから第1の画像データを生成する変換手段と、
 前記第1の画像データを用いて学習済みのニューラルネットワークを用いてRAW画像データにデモザイク処理を行うことにより、第2の画像データを生成するデモザイク手段と、
 前記第2の画像データを用いて現像処理を行う現像手段と、
 を備える。
 本発明の一実施形態は、撮像装置により得られたRAW画像の現像処理において、デモザイク処理の補間精度を向上させることができる。
 本発明のその他の特徴及び利点は、添付図面を参照とした以下の説明により明らかになるであろう。なお、添付図面においては、同じ若しくは同様の構成には、同じ参照番号を付す。
 添付図面は明細書に含まれ、その一部を構成し、本発明の実施の形態を示し、その記述と共に本発明の原理を説明するために用いられる。
一実施形態に係る画像処理装置のハードウェア構成例を示すブロック図。 一実施形態に係る画像処理装置の機能構成例を示すブロック図。 一実施形態に係る画像処理装置の機能構成例を示すブロック図。 一実施形態に係る画像処理装置の機能構成例を示すブロック図。 一実施形態に係る画像処理方法のフローチャート。 一実施形態に係る学習装置の機能構成例を示すブロック図。 一実施形態に係る学習方法のフローチャート。 ニューラルネットワークの一例を示す模式図。 ニューラルネットワークの一例を示す模式図。 ニューラルネットワークの一例を示す模式図。 RAW画像データから正解画像を生成する方法の一例を示す模式図。 RAW画像データから正解画像を生成する方法の一例を示す模式図。 RAW画像データから正解画像を生成する方法の一例を示す模式図。 学習データセット構築方法の一例を示す模式図。 学習データセット構築方法の一例を示す模式図。 学習処理の流れを示す模式図。 困難データ抽出処理の流れを示す模式図。 デモザイク処理の結果を示す図。 デモザイク処理の結果を示す図。
 以下、添付図面を参照して実施形態を詳しく説明する。なお、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。
 本願発明者は、非特許文献1に記載のデモザイク方法を、撮像装置により得られたRAW画像の現像処理に適用した場合、特にエッジ付近、とりわけ高コントラストのエッジ付近で偽パターンが発生しやすいことを発見した。本願発明者は、その理由を、現像後の画像と比較して相対的にコントラストの低いリニア色空間の画像を用いてニューラルネットワークの学習を行っているためと考えた。すなわち、リニア色空間の画像を用いた学習は、現像後の画像を用いる学習よりもエッジ部におけるデモザイク処理の補間精度が低くなり、比較的補間処理が容易なデータを用いた学習であるといえる。このため、補間処理が困難なデータを用いた十分な学習が行われていない可能性がある。特に、学習用データの中から困難データを抽出してさらなる学習を行う場合であっても、こうしてリニア色空間の画像から抽出された困難データは、相対的に補間処理が容易な学習データであるといえる。
 このような知見に鑑みてなされた以下の実施形態によれば、撮像装置により得られたRAW画像の現像処理において高精度にデモザイク処理を行うことができる。例えば、一実施形態によれば、モアレが抑制されてより広帯域化されたカラー画像を得ることができる。
[実施形態1]
 実施形態1に係る画像処理装置は、プロセッサとメモリとを備えるコンピュータにより実現することができる。図1は、実施形態1に係る画像処理装置のハードウェア構成の一例を示す。画像処理装置100は、例えばPC等のコンピュータであり、CPU101、RAM102、HDD103、汎用インターフェース(I/F)104、モニタ108、及びメインバス109を備える。また、画像処理装置100のメインバス109には、汎用I/F104を介して、カメラ等の撮像装置105、マウス又はキーボード等の入力装置106、及びメモリカード等の外部メモリ107が接続されている。
 CPU101は、HDD103に格納された各種ソフトウェア(コンピュータプログラム)に従って動作することにより、以下のような各種処理を実現する。まず、CPU101は、HDD103に格納されている画像処理アプリケーションのプログラムをRAM102に展開して実行することにより、モニタ108にユーザインターフェース(UI)を表示させる。続いて、HDD103又は外部メモリ107に格納されている各種データ、撮像装置105により取得された画像データ、入力装置106からのユーザ指示等が、RAM102に転送させる。さらに、画像処理アプリケーションの処理に従って、RAM102に格納されているデータを用いた演算処理がCPU101からの指令に基づいて行われる。演算処理の結果は、モニタ108に表示することができ、また、HDD103又は外部メモリ107に格納することができる。なお、HDD103又は外部メモリ107に格納されている画像データがRAM102に転送されてもよい。また、不図示のネットワークを介してサーバから送信された画像データがRAM102に転送されてもよい。
 以下では、上記のような構成を備える画像処理装置100において、CPU101からの指令に基づき、画像処理アプリケーションに入力されたRAW画像データを現像し、現像後の画像データを出力する態様について説明する。例えば図2A~2Cに示されている、以下で説明される各部の機能は、CPU101のようなプロセッサが、RAM102又はHDD103のようなメモリに格納されたプログラムを実行することにより実現することができる。
(ニューラルネットワークについて)
 本実施形態で利用可能なニューラルネットワークの例として、畳み込みニューラルネットワーク(Convolutional Neural Network:CNN)について説明する。CNNは、非特許文献1で用いられており、深層学習技術を応用した画像処理技術全般で用いられている。CNNとは、学習(training又はlearning)により生成されたフィルタを画像に対して畳み込んだ(convolution)後で非線形演算を行うことを繰り返す技術である。フィルタは、局所受容野(Local Receptive Field:LPF)とも呼ばれる。また、画像に対してフィルタを畳み込んだ後で非線形演算を行うことで得られる画像は、特徴マップ(feature map)と呼ばれる。また、学習は入力画像(生徒画像とも呼ぶ)と出力画像(教師画像とも呼ぶ)とのペアからなる学習データ(training images又はdata sets)を用いて行われる。出力画像は、入力画像に対するCNN処理により得られることが期待されるデータ、すなわち正解データである。簡単に説明すると、入力画像から対応する出力画像へ高精度に変換可能なフィルタの値を、学習データから生成することが、学習である。その詳細については後述する。
 特徴マップが複数枚の画像から構成されている場合、畳み込みに用いるフィルタも特徴マップの枚数に応じた複数のチャンネルを有することができる。すなわち、畳み込みフィルタは、縦サイズ、横サイズ、及びフィルタ枚数に加えて、チャンネル数に応じた4次元配列で表現される。画像(又は特徴マップ)にフィルタを畳み込んだ後に非線形演算を行う1組の処理は、層(layer)という単位で表現される。例えば、CNN内の特定の位置にある特徴マップ及びフィルタは、先頭からn層目の特徴マップ及びn層目のフィルタ等と呼ぶことができる。また、例えばフィルタの畳み込みと非線形演算とのセットを3回繰り返すCNNは、3層のネットワーク構造を有するCNNと呼ぶことができる。
 このような畳み込みと非線形演算との組み合わせは、以下の式(1)で表すことができる。
Figure JPOXMLDOC01-appb-M000001
 式(1)において、nはn層目のフィルタ、bはn層目のバイアス、fは非線形演算子、Xはn層目の特徴マップ、*は畳み込み演算子を表す。なお、(l)はl番目のフィルタ又は特徴マップであることを表している。フィルタ及びバイアスは、後述する学習により生成され、まとめてネットワークパラメータとも呼ばれる。
 非線形演算の種類は特に限定されないが、例えばシグモイド関数(sigmoid function)又はReLU(Rectified Linear Unit)を用いることができる。ReLUに従う非線形演算は以下の式(2)で表すことができる。
Figure JPOXMLDOC01-appb-M000002
 すなわち、ReLU処理は、入力したベクトルXの要素のうち負の要素値をゼロに変換し、正の要素値をそのままにする非線形な処理である。
 次に、CNNの学習について説明する。CNNの学習は、入力画像(生徒画像)と対応する出力画像(教師画像)との組からなる学習データに対して得られる目的関数を最小化することにより行うことができる。目的関数は、例えば以下の式(3)で表すことができる。
Figure JPOXMLDOC01-appb-M000003
 ここで、目的関数であるLは、正解(出力画像)と、推定(入力画像に対するCNN処理結果)との誤差を測る損失関数(loss function)である。また、Yはi番目の出力画像、Xはi番目の入力画像である。Fは、CNNの各層で行う演算(式1)をまとめて表す関数である。θは、ネットワークパラメータ(フィルタ及びバイアス)である。また、||Z||はベクトルZのL2ノルムを表し、簡単にいえばベクトルZの要素の2乗和の平方根である。式(3)における目的関数では、L2ノルムの2乗が用いられている。また、nは学習に用いる学習データ(入力画像と出力画像とのセット)の数である。一般に、学習データの総数は多いため、確率的勾配降下法(Stochastic Gradient Descent:SGD)を用いた学習においては、学習データの一部をランダムに選び、目的関数の最小化のために用いることができる。このような方法によれば、多くの学習データを用いた学習における計算負荷を低減できる。
 目的関数の最小化(=最適化)法としては、モーメンタム(momentum)法、AdaGrad法、AdaDelta法、及びAdam法等の様々な方法を用いることができる。例えば、以下の式(4)に従うAdam法を採用することができる。
Figure JPOXMLDOC01-appb-M000004
 式(4)において、θ は、t回目の反復におけるi番目のネットワークパラメータであり、gはθ に関する損失関数Lの勾配である。また、m及びvはモーメントベクトルであり、αは基本学習率(base learning rate)であり、β1及びβ2はハイパーパラメータであり、εは適宜定めることができる小さな定数である。使用する最適化法は特に限定されないが、最適化法ごとに収束性の違いがあり、学習時間の違いも生じることが知られているため、用途等に応じて選択することができる。
 CNNの具体的な構成は特に限定されない。CNNを用いたネットワークの具体的な構成としては、画像認識分野で用いられるResNet、及び超解像分野におけるRED-Net等が挙げられる。いずれも、多層のCNNを用いて、フィルタの畳み込みを何度も行うことにより、処理の高精度化が図られている。例えば、ResNetは畳み込み層をショートカットする経路を有するネットワーク構造を有しており、152層の多層ネットワークにより人間の認識率に迫る高精度な認識を実現する。なお、多層のCNNにより処理が高精度化する理由は、簡単にいえば、非線形演算を何度も繰り返すことによりCNNが入出力間の非線形な関係を表現できるためである。
(画像処理装置の機能構成例)
 本実施形態に係る画像処理装置100の機能構成例について、図2Aのブロック図を参照して説明する。なお、図2A~2C及び図4に示した構成は、適宜変形又は変更することが可能である。例えば、1つの機能部を複数の機能部に分割してもよいし、2つ以上の機能部を1つの機能部に統合してもよい。また、図2A~2C及び図4に示す構成は、2以上の装置によって実現されてもよい。この場合、各装置は、回路又有線若しくは無線のネットワークを介して接続され、互いにデータ通信を行って協調動作を行うことで、後述する各処理を実現することができる。
 以下の説明は、図2A~2C及び図4に示す機能部が処理の主体であるように記載されているが、上述のように、機能部に対応するコンピュータプログラムをCPU101が実行することで、この機能部の機能が実現される。なお、図2A~2C及び図4に示す機能部のうち少なくとも一部が、専用のハードウェアによって実現されてもよい。また、以下では、入力画像又はRAW画像が、ベイヤー配列のRGBカラーフィルタを用いて撮像されたベイヤー画像である場合について主に説明する。しかしながら、本発明に係る実施形態は、ベイヤー配列以外のカラーフィルタ配列を用いて撮像された入力画像に対しても適用可能である。また、以下では、入力画像の各画素がR、G、又はBの色情報を有しており、現像により得られる画像がRGB画像である場合について説明するが、色の種類はRGBに限られないし、色の種類も3つには限られない。
 取得部201は、入力画像を取得する。取得部201は、リニア色空間における互いに異なる複数の色情報の画素が配列されている入力画像(RAW画像のデータであってもよい)を取得することができる。より具体的には、取得部201は、1つの画素位置に1色分のカラーフィルタが取り付けられている単板撮像素子を有するデジタル撮像装置が撮像を行うことにより生成したリニア色空間の生データを、入力画像のデータとして取得することができる。このような入力画像は、1つの画素位置に1色分のみの情報を有している。また、取得部201は、入力画像に対して、変換部202に入力するための前処理を施すことができる。例えば、取得部201は、入力画像に対して以下に説明する前処理のうちの1以上を行い、前処理後の入力画像を変換部202へと出力することができる。
 図2Bは、取得部201の機能構成例を示す。図2Bに示すように、取得部201は、前処理を行うための機能部として、ホワイトバランス適用部301とオフセット付与部302とを有していてもよい。ホワイトバランス適用部301は、入力画像に対してホワイトバランス適用処理を行う。例えば、ホワイトバランス適用部301は、式(5)に従って、RAW画像の各画素の画素値に対して色別に異なるゲインを乗算することができる。
 RawWB = (Raw-offset)×WBcoeff …(5)
 式(5)において、RawはRAW画像データの画素値を、RawWBはホワイトバランス処理を適用した後のRAW画像データの画素値を示す。また、OffsetはRAW画像データの画素値に加算されているオフセット値を、WBCoeffは色ごとに決定されているホワイトバランス係数を示す。ホワイトバランス処理においては色ごとゲインが乗算されるため、ベイヤー配列の場合はR画素、G画素(G1及びG2)、B画素のそれぞれについて計算が行われる。なお、オフセット値及びその有無はRAW画像データによって異なるものであり、RAW画像を撮像する撮像装置ごとに予め定められていてもよい。
 オフセット付与部302は、ホワイトバランス適用部301から出力されたホワイトバランス処理を適用した後のRAW画像データに対してオフセット値を付与する。例えば、RAW画像の各画素の画素値が13bit(0~8191)、オフセット値が256である場合、オフセット付与部302はRAW画像の各画素の画素値にオフセット値を加算することができる。この場合、オフセット付与部302は、14bit以上(例えば16bit)の画像データを出力することができる。オフセット値は、入力画像であるRAW画像のノイズ量に基づいて適切な値に決定することができる。
 なお、取得部201は、前処理として、入力画像に対するノイズ低減処理を行うこともできる。また、取得部201が取得した入力画像に対して、既にセンサ補正又は光学補正等の前処理が施されていてもよい。
 変換部202は、入力画像に対して非線形変換を行うことにより、第1の画像(非線形変換後の入力画像)を生成する。上述のようにエッジ付近の補間精度を向上させることを目的とする本実施形態においては、コントラストを強調する非線形変換を行うことができる。一方で、他の目的を有する実施形態においては、異なる種類の非線形変換を用いてもよい。
 変換部202は、例えば、少なくとも暗部のコントラストを強調する非線形変換を行うことができる。暗部のコントラストを強調する非線形変換としては、1未満のガンマ値を用いるガンマ補正が挙げられる。具体例として、変換部202は、入力画像に対して式(5)に従うガンマ変換を適用することができる。
 Output = Input(1/2.2) …(6)
 式(6)において、Inputが入力画像の各画素の画素値を、Outputは第1の画像の対応する画素の画素値を表す。
 なお、非線形変換が適用される入力画像の各画素には、予め一定のオフセット値が付与されていてもよい。上述のように、オフセット付与部302は入力画像に対してオフセット値を付与することができ、この場合、変換部202はオフセット値が付与された入力画像に対して非線形変換を適用してもよい。このように、オフセット値が加算されている入力画像に対して非線形変換を適用することにより、入力画像にノイズがある場合においても暗部のデモザイク精度が向上する。また、入力画像にノイズがない場合であっても、オフセット値を付与することによってデモザイク精度を向上できることがある。これは、オフセット値の付与により、デモザイクされる画像データから、学習が困難な境界領域(すなわち黒レベル付近及び飽和レベル付近)の情報が減るためである。すなわち、画像データの画素値が、良好な学習が行われている(学習済みモデルが高精度に推論を行うことが可能な)範囲に近づくため、ニューラルネットワークを用いたデモザイク処理の精度が向上することが期待される。一方で、オフセット値が与えられていない入力画像に対して非線形変換処理を適用してもよい。
 デモザイク部203は、ニューラルネットワークを用いて第1の画像に対するデモザイク処理を行うことにより、第2の画像(デモザイク画像)を生成する。デモザイク部203は、学習により得られたデモザイクネットワークモデルを用いて、変換部202により出力された非線形変換後のRAW画像に対するデモザイク処理を行うことで、色情報が補間された多チャンネルのカラー画像データを出力することができる。本実施形態においては、デモザイク部203はR画像、G画像、及びB画像で構成されるRGB画像データを生成することができる。
 ここで、デモザイクネットワークモデルとは、デモザイク処理を行うように学習が行われているニューラルネットワークのアーキテクチャ及びパラメータ(係数)を意味する。ニューラルネットワークのアーキテクチャは上述のような多層CNNをベースとしたものであってもよいが、これには限定されない。本実施形態で使用可能なニューラルネットワークのアーキテクチャの例を図6A、図6B、及び図6Cに示す。このようなネットワークモデルは、後述するように、モザイク画像(生徒画像)及びデモザイク画像(教師画像)のペアを用いた学習により得ることができる。ここで、学習において用いられるモザイク画像は、後述するように、デモザイク画像を、入力画像における、互いに異なる複数の色情報の画素の配列パターンに従ってサブサンプリングすることによって得ることができる。すなわち、入力画像を撮像した撮像装置が用いるカラーフィルタの配列パターンに従って、このサブサンプリングを行うことができる。
 逆変換部204及び現像部205は、第2の画像に対する現像処理を行う。本実施形態において逆変換部204は、第2の画像に対する、変換部202が適用した非線形変換の逆変換を行うことにより、リニア色空間の色情報を有する第3の画像を生成する。このように、変換部202が適用した非線形変換に対応する逆変換処理を、R画像、G画像、及びB画像のそれぞれに適用することにより、逆変換部204は、リニア色空間のRGB画像データである第3の画像を出力することができる。
 例えば、変換部202が式(6)に示す非線形変換を用いた場合、逆変換部204は式(7)に示す逆変換処理を適用することができる。
 Output = Input2.2 …(7)
 式(7)において、Inputは第2の画像(R画像、G画像、及びB画像のそれぞれ)の各画素の画素値を、Outputは第3の画像(R画像、G画像、及びB画像のそれぞれ)の対応する画素の画素値を表す。なお、オフセット付与部302等によってオフセット値が加算された入力画像に対して、変換部202が非線形変換を行っている場合、逆変換部204は、逆変換処理により得られた画像からこのオフセット値を減算することができる。
 現像部205は、逆変換部204により得られた第3の画像に対する現像処理を行うことができる。すなわち、現像部205は、逆変換部204から出力されたリニア色空間のRGB画像に対する現像処理を行うことにより、現像結果を生成する。
 図2Cは、現像部205の機能構成例を示す。図2Cに示すように、現像部205は、ノイズ低減処理部401及び画作り部402を有していてもよい。ノイズ低減処理部401は、逆変換部204から出力された第3の画像(例えばリニア色空間のRGB画像)に対して、ノイズ低減処理を行う。なお、入力画像にノイズがない場合、又は取得部201がノイズ低減処理を行っている場合は、ノイズ低減処理部401によるノイズ低減処理を省略してもよい。
 画作り部402は、ノイズ低減処理後の第3の画像(例えばリニア色空間のRGB画像)に対して画作りに必要な各種画像処理を適用することにより、最終的な現像処理結果(カラー画像)を得る。画作りのための画像処理としては、ダイナミックレンジ調整処理、ガンマ補正処理、シャープネス処理、又は色処理等が挙げられる。
 ダイナミックレンジ調整処理は、現像の際に用いる入力下限値Bkと入力上限値Wtとを決定する。ガンマ補正処理などのダイナミックレンジ調整処理に後続する処理においては、入力下限値Bkから入力上限値Wtまでの入力値が、出力値に割り当てられる。ここで、画像の輝度分布等に応じて入力下限値Bkと入力上限値Wtとを定めることにより、コントラストの高い現像データを得ることができる。また、入力下限値Bkを大きくすることにより暗部ノイズを切り捨てることができ、入力上限値Wtを大きくすることにより白とびを抑えることができる。
 ガンマ補正処理は、ガンマカーブを用いて画像全体のコントラスト及びダイナミックレンジを調整する。シャープネス処理は、画像におけるエッジを強調し、画像全体のシャープネスを調整する。色処理は、画像における色相若しくは彩度の変更、又は高輝度領域における色曲がりの抑圧を行うことができる。
 画作り部402が行う処理は上記のものには限られない。画作り部402が行う処理としては、処理の順序を変更することも含め、様々なバリエーションを採用することができる。
 次に、本実施形態に係る画像処理装置100が行う、本実施形態に係る画像処理方法である入力画像に対する現像処理方法について、図3のフローチャートに従って説明する。ステップS501で取得部201は、撮像装置105、HDD103、又は外部メモリ107等から、現像処理の対象となる入力画像を読み込む。ここで、取得部201は、上述のように、ホワイトバランス処理又はオフセット加算処理等の前処理を、入力画像に対して行うことができる。
 ステップS502で変換部202は、上述のように、ステップS501で取得した入力画像に対して非線形変換を行うことにより第1の画像を生成する。ステップS503でデモザイク部203は、上述のように、学習済みのデモザイクネットワークモデルを用いて、ステップS503で生成された第1の画像に対するデモザイク処理を行うことにより、補間された第2の画像を生成する。ステップS504で逆変換部204は、ステップS503で出力された第2の画像に対し、ステップS502で行った非線形変換処理に対応する逆変換処理を適用することにより、リニア色空間の第3の画像を出力する。
 ステップS505で現像部205は、ステップS504で出力されたリニア色空間の第3の画像に対する現像処理により、現像処理結果(カラー画像)を生成して出力する。現像処理結果の出力先は特に限定されず、例えばHDD103、外部メモリ107、又は汎用I/F104に接続される他の機器(例えばネットワークを介して画像処理装置100と接続される外部機器)であってもよい。
 このように本実施形態によれば、リニア色空間の入力画像に対する非線形処理を行うことにより、高コントラスト化された非線形変換後の色空間におけるデモザイク処理が行われる。このとき、リニア色空間ではなく、高コントラスト化された非線形変換後の色空間の画像データに基づいて学習されたネットワークモデルを用いて推論(デモザイク処理)を行うことができる。このような構成により、デモザイク処理の精度を向上させることが可能になる。例えば、一実施形態によれば、モアレが抑制されてより広帯域化された現像結果(カラー画像)を得ることができる。
[実施形態2]
 実施形態1に係る画像処理装置は、学習済みのデモザイク処理用のニューラルネットワークを用いて画像の現像を行った。実施形態2に係る学習装置は、デモザイク処理用のニューラルネットワークを生成するための学習処理を行う。実施形態2に係る画像処理装置は、例えば、実施形態1に係る画像処理装置が使用可能なデモザイクネットワークモデルを生成することができる。実施形態2に係る画像処理装置は、実施形態1と同様のハードウェア構成を有することができ、その説明は省略する。
 図4を参照して、実施形態2に係る学習装置600の機能構成例について説明する。画像取得部601は、リニア色空間の色情報を有する第4の画像を取得する。第4の画像の取得方法は特に限定されないが、以下では、RAW画像データから第4の画像を生成する場合について説明する。
 画像取得部601は、リニア色空間の色情報を有する第4の画像であるRAW画像データを取得する。この画像データは、リニア色空間における互いに異なる複数の色情報の画素が配列されている画像である。このRAW画像データは、例えばベイヤー配列に従うカラーフィルタを有する撮像装置が撮像を行うことにより生成した生データであってもよい。
 画像生成部602、変換部603、及び学習データ生成部604は、第4の画像に基づいて、非線形色空間の色情報を有する教師画像と、教師画像のモザイク画像である生徒画像と、のセットを生成する。画像生成部602は、第4の画像から、リニア色空間の教師画像を生成する。例えば、画像生成部602は、1つの画素位置に1色分のみの情報を有するRAW画像データに基づいて、残り2色の情報を補間することにより、リニア色空間のRGB画像を正解画像として生成することができる。
 ところで、後述するように変換部603は、リニア色空間の教師画像に対して非線形変換を行うことにより、学習に用いられる教師画像を生成する。したがって、高品質な画像、例えば偽色が少ないリニア色空間の教師画像を用いることにより、学習により得られるニューラルネットワークを用いたデモザイク処理の精度が向上することが期待される。そこで、本実施形態において、画像生成部602は、以下の方法を用いて、第4の画像から、第5の画像であるリニア色空間の教師画像を生成することができる。この教師画像は、RGB画像のような、各画素が複数の色情報を有している画像である。
 例えば、画像生成部602は、図7A~7Cに示すように第4の画像を縮小することにより、リニア色空間の教師画像を生成することができる。図7Aの例においては、RAW画像の4×4画素ブロックが1画素に対応するように、解像度を1/4に縮小されたRGB画像が、教師画像として生成されている。この場合、1画素の画素値を対応する4×4画素ブロックに含まれる画素値から求めることができるため、偽色の発生を抑えることができる。具体的には、図7Bに示すように、教師画像の1画素のR画素値、G画素値、及びB画素値は、第4の画像の対応する4×4画素ブロックに含まれるR画素値、G画素値、及びB画素値から算出することができる。ここで、図7Bに示すように偶数サイズの画素ブロックを1画素に縮小する場合、ブロックの中心に対して同じ色の画素が均一に分布しない。このため、図7Bに示すように、教師画像の1画素の画素値は、画素ブロックに含まれる同色の画素値を重み付け合成することにより得ることができる。また、図7Cに示すように奇数サイズの画素ブロックを1画素に縮小する場合、ブロックの中心に対して同じ色の画素が均一に分布する。このため、図7Cに示すように、教師画像の1画素の画素値は、画素ブロックに含まれる同色の画素値を平均することにより得ることができる。もっとも、具体的な縮小方法は特に限定されない。
 また、画像生成部602は、デモザイク処理を用いることにより、第4の画像からリニア色空間の教師画像を生成してもよい。使用するデモザイク手法は特に限定されないが、画像生成部602は、偽色の発生を抑制できるデモザイク手法を用いるか、又は、発生した偽色を低減する処理を行うことができる。
 また、画像生成部602は、上記のように縮小された画像、又はデモザイク処理により補間された画像に対して、さらにバイキュービック補間等の手法を用いた縮小処理を行うことができる。このような縮小処理により、歪曲収差等の影響を減らすことができる。ここで、正解画像として偽色又はモアレが少ない画像を用意するために、縮小においてはエイリアシングが発生しにくい縮小方法を用いることができる。
 なお、ここでは、画像取得部601がベイヤー画像のようなモザイク画像を取得し、画像生成部602がモザイク画像をRGB画像(すなわち各画素がR画素値、G画素値、及びB画素値を有する画像)に変換する場合について説明した。しかしながら、画像取得部601は、RGB画像のような、各画素が複数の色情報を有している画像を取得してもよい。例えば、画像取得部601は、三板式の撮像装置を用いて撮像したリニア色空間のRGB画像を取得してもよい。この場合には、画像生成部602を省略することができる。
 変換部603は、画像生成部602が生成したリニア色空間の教師画像に対して非線形変換を行うことにより、非線形色空間の教師画像を生成する。この処理は、実施形態1の変換部202と同様に行うことができる。
 学習データ生成部604は、変換部603が生成した非線形色空間の教師画像のモザイク化処理により、モザイク画像である生徒画像を生成する。学習データ生成部604は、図8Aに示すように、教師画像であるR画像、G画像、及びB画像のそれぞれについて、カラーフィルタ配列に基づくサブサンプリングを行うことにより、生徒画像を生成することができる。ここでは、学習後のニューラルネットワークを用いたデモザイク処理の対象となるRAW画像を撮像する撮像装置が有するカラーフィルタの配列を、サブサンプリングのために参照することができる。
 画像生成部602、変換部603、学習データ生成部604は、画像取得部601が取得した複数の画像を含む画像群に対して上述の処理を行うことにより、生徒画像群及び対応する教師画像群を生成することができる。学習データ生成部604は、図8Bに示すように、生徒画像群と教師画像とのセットを複数含む学習データセットを生成することができる。なお、学習データセットには教師画像群のみが含まれていてもよい。この場合、後述する学習部605は、学習データ生成部604と同様に教師画像から生徒画像を生成することができる。
 学習部605は、学習データ生成部604が生成した学習データセットを用いてニューラルネットワークの学習を行うことにより、プレ学習済みモデルを生成する。具体的には、学習部605は、学習データセットから正解画像群と生徒画像群を取り出し、生徒画像群に対してニューラルネットワークを用いたデモザイク処理を行う。次に学習部605は、ニューラルネットワークからの出力結果(生徒画像から得られたデモザイク画像)と教師画像とを比較し、誤差をフィードバックするようにニューラルネットワークのパラメータを更新する。そして、学習部605は、更新されたニューラルネットワークを用いて同様の処理を行うことにより、ニューラルネットワークのパラメータをさらに更新し続けていく。具体的なパラメータの更新方法は、既に実施形態1で説明した。学習部605は、選択された最適化手法に基づいて、既定の条件を満たすまでパラメータの更新を繰り返すことにより、プレ学習済みモデルを生成する。以上の処理のデータの流れを図9に示す。
 学習部605によって学習されたニューラルネットワークはデモザイク処理のために使用可能であるが、本実施形態においては処理精度を高めるために、プレ学習済みモデルに対してさらなる学習が行われる。困難データ生成部606は、学習データセットのうち一部を選択することにより、新しい学習データセットを生成する。ここで選択される学習データは、精度の高いデモザイク処理が困難である生徒画像と教師画像とのセットであり、困難データと呼ばれる。
 困難データ生成部606は、例えば、プレ学習済みモデルを用いた生徒画像に対するデモザイク処理の結果と、生徒画像に対応する教師画像と、の差分に基づいて、困難データを抽出することができる。具体的には、困難データ生成部606は、学習部605により得られたプレ学習済みモデルを用いて、学習データセットに含まれる生徒画像群に対する推論(デモザイク)処理を行うことにより、デモザイク画像群を得る。困難データ生成部606は、得られたデモザイク画像と、学習データセットに含まれる対応する教師画像とを、定量評価手法に基づいて比較することにより、知覚的な差異が大きい画像群を抽出することができる。定量評価手法としては、例えば非特許文献1で用いられている方法を採用することができる。定量評価手法の具体例としては、輝度アーティファクトの発生量を示す指標及び色モアレの発生量を示す指標に基づき、何れかの発生量が基準値を超える生徒画像と教師画像とのセットを、困難データとして抽出することができる。以上の処理のデータの流れを図10に示す。
 そして学習部605は、困難データ生成部606が生成した学習データセットを用いて、再度デモザイク処理を行うニューラルネットワークの学習を行う。具体的な学習方法は上述の通りである。ここで、学習部605は、困難データ生成部606が生成した学習データセットを用いて、プレ学習済みモデルのさらなる学習を行ってもよい。すなわち、学習部605は、プレ学習モデルのファインチューニングを行ってもよい。この場合、処理精度を向上させるために、学習部605は、プレ学習モデルの各層の重みを初期値として用いながら、全層についての重みの再学習を行うことができる。
 次に、本実施形態に係る学習装置600が行う、本実施形態に係る学習方法について、図5のフローチャートに従って説明する。ステップS701で画像取得部601は、撮像装置105、HDD103、又は外部メモリ107等からRAW画像群を取得する。ステップS702で画像生成部602は、ステップS701で取得されたRAW画像群から、上述のようにリニア色空間の教師画像群を生成する。ステップS703で変換部603は、ステップS702で得られたリニア色空間の教師画像群に対する非線形変換により、上述のように非線形色空間の教師画像群を生成する。ステップS704で学習データ生成部604は、ステップS703で得られた非線形色空間の教師画像群に対するカラーフィルタ配列に基づくサブサンプリングにより、上述のように生徒画像群を生成する。ステップS705で学習データ生成部604は、上述のように、ステップS703で得られた教師画像群と、ステップS704で得られた生徒画像群とがペアとなっている学習データセットを生成する。
 ステップS706で学習部605は、ステップS704で得られた学習データセットを用いてニューラルネットワークの学習を行うことにより、上述のようにプレ学習済みモデルを生成する。ステップS707で困難データ生成部606は、上述のように、ステップS706で得られたプレ学習済みモデルを用いて、生徒画像群に対してデモザイク処理を行うことによりデモザイク画像群を得る。ステップS708で困難データ生成部606は、デモザイク画像群と教師画像群との比較に基づき、上述のように学習データセットから困難データを抽出する。ステップS709で困難データ生成部606は、ステップS708で抽出された困難データを用いて新たな学習データセットを生成する。ステップS710で学習部605は、ステップS709で生成された学習データセットを用いて、上述のようにニューラルネットワークの学習を行う。このようにして、デモザイク処理のためのニューラルネットワークの学習を行い、本実施形態に係る学習装置の出力であるデモザイクネットワークモデルを得ることができる。
[実施形態3]
 実施形態1,2では、撮像装置105による撮像画像に対して画像処理装置100が現像処理を行う、学習装置600が学習処理を行った。しかしながら、上述の現像処理及び学習処理を撮像装置105が行ってもよい。この場合、撮像装置105に上記の現像処理及び学習処理用のハードウェアを設け、このハードウェアを用いて上記の現像処理及び学習処理を行ってもよい。また、上記の現像処理及び学習処理用のコンピュータプログラムを撮像装置105のメモリに格納し、撮像装置105のプロセッサがこのコンピュータプログラムを実行することにより上記の現像処理及び学習処理を実行してもよい。このように、上記の画像処理装置100及び学習装置600の構成を、撮像装置105に組み込むことができる。
 また、画像処理装置100は、ネットワークを介してクライアント装置から送信された撮像画像に対して現像処理を行い、現像処理により得られた画像を自身に登録し、又はクライアント装置に対して返信してもよい。このような画像処理装置100を用いた現像処理システムを提供することも可能である。学習装置600は、このような現像処理システムに組み込まれていてもよい。また、画像処理装置100が学習装置600の機能をさらに有していてもよい。
(処理例)
 図11Bは、実施形態1に従い、非線形変換後の画像に対してニューラルネットワークを用いたデモザイク処理を行うことにより得られた画像を示す。使用されたニューラルネットワークは、実施形態2に従う学習により得られたものである。一方で、図11Aは、従来技術に従う学習により得られたニューラルネットワークを用いたデモザイク処理を、非線形変換を行っていないリニア色空間画像に対して行うことにより得られた画像を示す。図11Bに示す画像は、図11Aに示す画像と比較してモアレが抑制されており、上述の実施形態によりデモザイク処理の補間精度が向上することがわかる。
(その他の実施例)
 本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
 発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために請求項を添付する。
 本願は、2019年11月29日提出の日本国特許出願特願2019-217503を基礎として優先権を主張するものであり、その記載内容の全てを、ここに援用する。
 100:画像処理装置、201:取得部、202:変換部、203:デモザイク部、204:逆変換部、205:現像部、600:学習装置、601:画像取得部、602:画像生成部、603:変換部、604:学習データ生成部、605:学習部、606:困難データ生成部

Claims (20)

  1.  非線形変換を行うことにより、RAW画像データから第1の画像データを生成する変換手段と、
     前記第1の画像データを用いて学習済みのニューラルネットワークを用いてRAW画像データにデモザイク処理を行うことにより、第2の画像データを生成するデモザイク手段と、
     前記第2の画像データを用いて現像処理を行う現像手段と、
     を備えることを特徴とする画像処理装置。
  2.  前記非線形変換は、画像のコントラストを向上させる処理であることを特徴とする、請求項1に記載の画像処理装置。
  3.  前記非線形変換は、画像の暗部におけるコントラストを向上させる処理であることを特徴とする、請求項2に記載の画像処理装置。
  4.  前記非線形変換は、ガンマ変換であることを特徴とする、請求項1から3のいずれか1項に記載の画像処理装置。
  5.  前記現像手段は、前記第2の画像データに対する前記非線形変換の逆変換を行うことにより、リニア色空間の色情報を有する第3の画像データを生成することを特徴とする、請求項1から4のいずれか1項に記載の画像処理装置。
  6.  前記現像手段は、前記第3の画像データに対するガンマ補正を行うことを特徴とする、請求項5に記載の画像処理装置。
  7.  前記現像手段は、前記第3の画像データに対するノイズ低減処理の後に前記ガンマ補正を行うことを特徴とする、請求項6に記載の画像処理装置。
  8.  前記変換手段は、前記RAW画像データに対してホワイトバランス適用処理を行ってから前記非線形変換を行うことを特徴とする、請求項1から7のいずれか1項に記載の画像処理装置。
  9.  前記変換手段は、前記RAW画像データに対してホワイトバランス適用処理を行い、さらに各画素にオフセット値を付与してから前記非線形変換を行うことを特徴とする、請求項8に記載の画像処理装置。
  10.  前記ニューラルネットワークは、前記第1の画像データと、前記第1の画像データから得られたモザイク画像データと、のセットを用いて学習されていることを特徴とする、請求項1から9のいずれか1項に記載の画像処理装置。
  11.  RAW画像データに基づいて、非線形色空間の色情報を有する教師画像データと、前記教師画像データのモザイク画像データである生徒画像データと、のセットを生成する生成手段と、
     前記教師画像データと前記生徒画像データとのセットに基づいて、デモザイク処理を行うニューラルネットワークの学習を行う学習手段と、
     を備えることを特徴とする学習装置。
  12.  前記生成手段は、前記RAW画像データから、各画素が複数の色情報を有する画像データを生成し、前記各画素が複数の色情報を有する画像データに対する非線形変換を行うことにより前記教師画像データを生成することを特徴とする、請求項11に記載の学習装置。
  13.  前記生成手段は、前記RAW画像データに対する縮小処理又はデモザイク処理により前記各画素が複数の色情報を有する画像データを生成することを特徴とする、請求項12に記載の学習装置。
  14.  前記生成手段は、前記教師画像データのモザイク化処理により前記生徒画像データを生成することを特徴とする、請求項12又は13に記載の学習装置。
  15.  学習により得られた前記ニューラルネットワークを用いた前記生徒画像データに対する前記デモザイク処理の結果と、前記生徒画像データに対応する前記教師画像データと、の差分に基づいて、複数の前記セットのうち一部を選択する選択手段をさらに備え、
     前記学習手段は、前記選択されたセットを用いて、再度デモザイク処理を行うニューラルネットワークの学習を行うことを特徴とする、請求項11から14のいずれか1項に記載の学習装置。
  16.  前記ニューラルネットワークが、請求項11から15のいずれか1項に記載の学習装置によって得られたニューラルネットワークであることを特徴とする、請求項1から10のいずれか1項に記載の画像処理装置。
  17.  画像を撮像する撮像手段と、
     非線形変換を行うことにより、前記撮像手段により得られたRAW画像データから第1の画像データを生成する変換手段と、
     前記第1の画像データを用いて学習済みのニューラルネットワークを用いてRAW画像データにデモザイク処理を行うことにより、第2の画像データを生成するデモザイク手段と、
     前記第2の画像データを用いて現像処理を行う現像手段と、
     前記RAW画像データに基づいて、非線形色空間の色情報を有する教師画像データと、前記教師画像データのモザイク画像データである生徒画像データと、のセットを生成する生成手段と、
     前記教師画像データと前記生徒画像データとのセットに基づいて、デモザイク処理に用いる前記ニューラルネットワークの学習を行う学習手段と、
     を備えることを特徴とする撮像装置。
  18.  非線形変換を行うことにより、RAW画像データから第1の画像データを生成する変換工程と、
     前記第1の画像データを用いて学習済みのニューラルネットワークを用いてRAW画像データにデモザイク処理を行うことにより、第2の画像データを生成するデモザイク工程と、
     前記第2の画像データを用いて現像処理を行う現像工程と、
     を有することを特徴とする画像処理方法。
  19.  RAW画像データに基づいて、非線形色空間の色情報を有する教師画像データと、前記教師画像データのモザイク画像データである生徒画像データと、のセットを生成する生成工程と、
     前記教師画像データと前記生徒画像データとのセットに基づいて、デモザイク処理を行うニューラルネットワークの学習を行う学習工程と、
     を有することを特徴とする学習方法。
  20.  コンピュータを、請求項1から10及び16のいずれか1項に記載の画像処理装置又は請求項11から15のいずれか1項に記載の学習装置の各手段として機能させるためのプログラム。
PCT/JP2020/043619 2019-11-29 2020-11-24 画像処理装置、画像処理方法、学習装置、学習方法、撮像装置、及びプログラム WO2021106853A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US17/732,979 US20220261955A1 (en) 2019-11-29 2022-04-29 Image processing apparatus, image capturing apparatus, image processing method, and medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-217503 2019-11-29
JP2019217503A JP2021087201A (ja) 2019-11-29 2019-11-29 画像処理装置、画像処理方法、学習装置、学習方法、撮像装置、及びプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/732,979 Continuation US20220261955A1 (en) 2019-11-29 2022-04-29 Image processing apparatus, image capturing apparatus, image processing method, and medium

Publications (1)

Publication Number Publication Date
WO2021106853A1 true WO2021106853A1 (ja) 2021-06-03

Family

ID=76086023

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/043619 WO2021106853A1 (ja) 2019-11-29 2020-11-24 画像処理装置、画像処理方法、学習装置、学習方法、撮像装置、及びプログラム

Country Status (3)

Country Link
US (1) US20220261955A1 (ja)
JP (1) JP2021087201A (ja)
WO (1) WO2021106853A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113658060A (zh) * 2021-07-27 2021-11-16 中科方寸知微(南京)科技有限公司 基于分布学习的联合去噪去马赛克方法及系统
CN113824945A (zh) * 2021-11-22 2021-12-21 深圳深知未来智能有限公司 一种基于深度学习的快速自动白平衡和颜色矫正方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023095490A1 (ja) * 2021-11-26 2023-06-01 新興窯業株式会社 プログラム、情報処理装置、情報処理方法、学習モデルの生成方法、および撮影システム

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015154307A (ja) * 2014-02-17 2015-08-24 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015154307A (ja) * 2014-02-17 2015-08-24 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113658060A (zh) * 2021-07-27 2021-11-16 中科方寸知微(南京)科技有限公司 基于分布学习的联合去噪去马赛克方法及系统
CN113824945A (zh) * 2021-11-22 2021-12-21 深圳深知未来智能有限公司 一种基于深度学习的快速自动白平衡和颜色矫正方法

Also Published As

Publication number Publication date
US20220261955A1 (en) 2022-08-18
JP2021087201A (ja) 2021-06-03

Similar Documents

Publication Publication Date Title
WO2021106853A1 (ja) 画像処理装置、画像処理方法、学習装置、学習方法、撮像装置、及びプログラム
WO2020192483A1 (zh) 图像显示方法和设备
US20220036523A1 (en) Image processor
JP4831067B2 (ja) 画像処理装置、画像処理方法、画像処理プログラム製品、および撮像装置
JP7297470B2 (ja) 画像処理方法、画像処理装置、プログラム、画像処理システム、および、学習済みモデルの製造方法
JP3731577B2 (ja) 画像処理プログラム
EP3891693A1 (en) Image processor
JP6840957B2 (ja) 画像類似度算出装置、画像処理装置、画像処理方法、及び記録媒体
KR101821285B1 (ko) 열화상 이미지 개선 장치 및 방법
US9911060B2 (en) Image processing apparatus, image processing method, and storage medium for reducing color noise in an image
US11145032B2 (en) Image processing apparatus, method and storage medium for reducing color noise and false color
CN110930341A (zh) 一种基于图像融合的低光照图像增强方法
JP2021179833A (ja) 情報処理装置、情報処理方法及びプログラム
CN109478316A (zh) 实时自适应阴影和高光增强
JP2021189527A (ja) 情報処理装置、情報処理方法及びプログラム
US9053552B2 (en) Image processing apparatus, image processing method and non-transitory computer readable medium
JP2023003763A (ja) 学習装置、画像処理装置、学習処理方法、及びプログラム
JP7443030B2 (ja) 学習方法、プログラム、学習装置、および、学習済みウエイトの製造方法
JP2019139713A (ja) 画像処理装置、撮像装置、画像処理方法、プログラムおよび記憶媒体
CN113099121A (zh) 一种基于弱监督学习的isp实现方法
CN111292251B (zh) 图像偏色校正方法、装置以及计算机存储介质
JP2006114006A (ja) 階調変換装置、プログラム、電子カメラ、およびその方法
US11900564B2 (en) Storage medium storing program, image processing apparatus, and training method of machine learning model
JP2023003764A (ja) 画像処理装置、画像処理方法、及びプログラム
JPWO2018084069A1 (ja) 画像合成システム、画像合成方法、および画像合成プログラム記録媒体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20894789

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20894789

Country of ref document: EP

Kind code of ref document: A1