JP2021114180A - 画像処理装置、画像処理方法、およびプログラム - Google Patents

画像処理装置、画像処理方法、およびプログラム Download PDF

Info

Publication number
JP2021114180A
JP2021114180A JP2020006899A JP2020006899A JP2021114180A JP 2021114180 A JP2021114180 A JP 2021114180A JP 2020006899 A JP2020006899 A JP 2020006899A JP 2020006899 A JP2020006899 A JP 2020006899A JP 2021114180 A JP2021114180 A JP 2021114180A
Authority
JP
Japan
Prior art keywords
image
processing
training
correct
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020006899A
Other languages
English (en)
Inventor
雄太 生清
Yuta Narikiyo
雄太 生清
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2020006899A priority Critical patent/JP2021114180A/ja
Priority to US17/145,105 priority patent/US11574390B2/en
Publication of JP2021114180A publication Critical patent/JP2021114180A/ja
Priority to US18/150,610 priority patent/US11880963B2/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】推論された画像に対してダイナミックレンジを拡張する処理が行われても、画像の色味に変化が生じ難いニューラルネットワークを取得可能にする。【解決手段】画像処理装置は、訓練画像と正解画像を取得する画像取得手段(S101)と、訓練画像をニューラルネットワークへ入力して出力画像を生成する生成手段(S103)と、正解画像と出力画像のそれぞれに色域処理と輝度処理を実行し実行し、その処理後の正解画像と出力画像の誤差を取得する誤差取得手段(S104)と、取得された誤差に基づいてニューラルネットワークのパラメータを更新する更新手段(S105)と、を有する。【選択図】図2

Description

本発明は、ディープラーニングを用いた画像処理技術に関する。
近年、機械学習におけるディープラーニングを用いて、入力画像から所望の出力画像を推論する画像処理技術が提案されている。ディープラーニングとは、例えばいわゆるニューラルネットワークを用いた機械学習である。また、ニューラルネットワークにRAW画像を入力して所望の出力画像を推論しようとする場合には、そのニューラルネットワークの学習もRAW画像を用いて行われることになる。
特許文献1には、RAW画像を用いた入力画像から、ニューラルネットワークによって解像度やコントラストなどを向上させた画像を推論する技術が開示されている。特許文献1では、ニューラルネットワークにRAW画像を入力して学習する際、ユーザが鑑賞する出力形式に合わせたガンマ補正を行うことで、推論精度が向上したニューラルネットワークの学習を可能としている。
特開2019−121252号公報
ここで、ユーザが実際に鑑賞等する場合、RAW画像を現像処理した画像に対して、いわゆるHDR(High Dynamic Range)処理などのダイナミックレンジを拡張する画像処理が実行されることがある。しかしながら、ニューラルネットワークを用いて推論されたRAW画像を現像処理した画像にダイナミックレンジを拡張する処理が行われた場合、その画像処理後の画像の色味が変化してしまうことがある。
そこで本発明は、推論された画像に対してダイナミックレンジを拡張する処理が行われても、画像の色味に変化が生じ難いニューラルネットワークを取得可能にすることを目的とする。
本発明の画像処理装置は、訓練画像と正解画像を取得する画像取得手段と、前記訓練画像をニューラルネットワークへ入力して出力画像を生成する生成手段と、前記正解画像と前記出力画像のそれぞれに色域処理と輝度処理を実行し、その処理後の前記正解画像と前記出力画像との誤差を取得する誤差取得手段と、前記取得された前記誤差に基づいて、前記ニューラルネットワークのパラメータを更新する更新手段と、を有することを特徴とする。
本発明によれば、推論された画像に対してダイナミックレンジを拡張する処理が行われても、画像の色味に変化が生じ難いニューラルネットワークを取得可能となる。
実施形態の画像処理装置を含むシステムの構成例を示す図である。 第1の実施形態に係る学習工程のフローチャートである。 ニューラルネットワークの概念説明に用いる図である。 推論工程のフローチャートである。 第2の実施形態に係る学習工程のフローチャートである。 第3の実施形態に係る放送制御システムの構成例を示す図である。
以下、本発明の一実施形態について、図面を参照しながら詳細に説明する。なお、各図において同一の構成要素または処理については同一の参照符号を付し、重複する説明は省略する。
本実施形態では、ニューラルネットワークによる機械学習であるディープラーニングを用いて、入力画像から所望の出力画像を推論するような画像処理を例に挙げる。ニューラルネットワークの学習では、訓練画像とそれに対応する教師画像とを複数用意し、訓練画像の特徴分布を教師画像の特徴分布に近づけるなどの学習が行われて、重みやバイアスなどのネットワークパラメータを最適化することが行われる。これにより、学習されていない入力画像に対しても精度よい推論が可能となる。なお本実施形態では、ニューラルネットワークを用いた画像処理において、ネットワークパラメータを更新する学習を行う処理工程を学習工程と呼ぶ。また、本実施形態では、学習工程等において更新されたネットワークパラメータを用いて、未知の入力画像に対する推論を行って推論画像を取得する処理工程を推論工程と呼ぶ。
また本実施形態では、ニューラルネットワークを用いた推論工程において、RAW画像が入力されて所望の出力画像を推論する例を挙げる。このため、ニューラルネットワークの学習工程では、訓練用のRAW画像をニューラルネットワークへ入力して得られた出力RAW画像と、正解のRAW画像との誤差を最小化するようにして、ネットワークパラメータを最適化するような学習が行われる。つまり、ニューラルネットワークの学習時の誤差は、RAW画像の状態で最小化される。なお、本実施形態では、ニューラルネットワークを用いて、ノイズが低減された画像を推論(生成)するような画像処理が行われる例を挙げる。
また本実施形態において、ユーザが実際に画像を鑑賞する際、ニューラルネットワークにより推論されたRAW画像は、現像処理された後、HDR処理等のような画像のダイナミックレンジを拡張する画像処理が行われた後に表示装置等に表示されるものとする。
ここで、例えば静止画におけるHDR処理は、あるダイナミックレンジにおける低輝度部の黒つぶれや高輝度部の白飛びを改善するために、複数の露光量で撮像された画像を合成することでダイナミックレンジが拡張されたような表現を可能にする処理である。またSDR(Standard Dynamic Range)の動画においても、あるダイナミックレンジにおいて輝度表現を改善するためにガンマカーブ等を適用するような処理が行われることがある。これらの画像処理は、結果的に、人間の見た目に近い、またはあたかもダイナミックレンジが拡張されたかのような画像を作り出す処理である。
またそれらHDR技術やSDRでの表現等に対し、ディスプレイなどの表示装置における輝度のダイナミックレンジを拡張するための画像処理もある。これも人間の見た目に近いダイナミックレンジを表現するための画像処理であり、例としてHDR10やHDR10+などに規定された処理が挙げられる。HDR処理においては、色域のRec.2020、ガンマカーブのPQ方式またはHLG方式などあるが、他の色域やガンマカーブが用いられても良い。また、SDR処理においては、色域のRec.709、ガンマカーブとしてITU−R BT.709に規定されているものがある。
しかしながら、ニューラルネットワークを用いて推論されたRAW画像を現像処理し、HDR処理などの画像処理が行われると、その画像処理後の画像の色味が変化してしまうことがある。これは、以下のような理由によって生ずることを本出願の発明者は見出した。
前述したHDR処理などの画像処理では、画像に対して色域処理と輝度処理とが実行されるため、各カラーチャネルの信号量が変化する。すなわち、それら画像処理が行われた画像は、ニューラルネットワークによって推論されたRAW画像に対して各カラーチャネルの信号量が変化している。また、それら画像処理によって各カラーチャネルの信号量や輝度の信号量が変化すると、ニューラルネットワークによる推論誤差が拡大され、その推論誤差の拡大は推論画像の低輝度部などで生じ易い。そして、ニューラルネットワークによる推論誤差が推論画像の低輝度部などで拡大すると、その低輝度部に特定の色味がついてしまう現象となって表れる。またニューラルネットワークを用いてノイズが低減された画像を推論できたとしても、前述の画像処理後の画像は低輝度部にノイズが残った画像になってしまい、その結果、見かけ上、ニューラルネットワークによる推論精度は低いものとなる。本実施形態ではHDRやSDRにおける画像処理を例に挙げているが、それ以外の色域処理と輝度処理を含む画像処理が行われた場合も、前述同様の色味の変化が生ずると考えられる。
なお前述した特許文献1に記載の技術の場合、誤差を最小化する際に考慮される現像処理はガンマ補正であり、色域処理や高輝度化などの画像処理は行われない。このため、特許文献1の技術では、画像に特定の色味が付いてしまうという課題は生じない。
これらのことを踏まえ、本実施形態の画像処理装置は、以下に説明する構成及び処理により、推論画像に色域処理と輝度処理を含む画像処理が行われても、画像の色味の変化が生じ難いニューラルネットワークを取得可能としている。これにより、本実施形態の画像処理装置は、ニューラルネットワークを用いてノイズ低減された画像を推論する場合の推論精度を向上させている。
<第1の実施形態>
図1は、第1の実施形態における画像処理システム100の全体構成例を示すブロック図である。画像処理システム100は、図1に示すように、本実施形態に係る画像処理装置101、撮像装置111、ストレージ装置121、及び表示装置131を備える。
まず、本実施形態に係る画像処理システム100について説明する。
画像処理装置101は、学習工程と推論工程のいずれをも実行可能な処理装置であり、画像入出力部102、学習部103、推論部104、および記憶部105を有する。
画像入出力部102は、撮像装置111やストレージ装置121からの画像の入力、ストレージ装置121や表示装置131への画像の出力を行う。
学習部103は、推論工程で用いるニューラルネットワークのネットワークパラメータを算出する学習工程を実行する。学習部103における学習工程では、記憶部105に記憶された複数の訓練画像と正解画像とを用いてネットワークパラメータを更新するような学習が行われる。本実施形態のようにニューラルネットワークを用いてノイズが低減された画像を推定(取得)する場合、訓練画像と正解画像は、ノイズの有無によって異なる画像である。訓練画像と正解画像の詳細は後述する。また本実施形態の場合、訓練画像と正解画像は、それぞれRAW画像である。
推論部104は、学習によって算出されたネットワークパラメータのニューラルネットワークを用いて推論した画像を出力する推論工程を実行する。
記憶部105は、学習部103によって算出されたネットワークパラメータ、出力画像、学習に使用する訓練画像、及び訓練画像に対応する正解画像などを記憶する。
撮像装置111は、撮像光学系、CMOSセンサやCCDセンサなどの撮像素子等を有する。撮像装置111は、撮像素子によって撮像された撮像画像を出力する。撮像装置111や画像処理装置101は、その他に現像処理などを行う機能を有していてもよい。
ストレージ装置121は、学習に用いる大量の訓練画像と正解画像のペアや、学習部103によって更新されたネットワークパラメータなどを保存する。
表示装置131は、例えば液晶ディスプレイやプロジェクタなどからなり、画像処理装置101から受け取った画像を表示する。
次に、画像処理装置101について詳しく説明する。
画像処理装置101は、有線または無線で接続された撮像装置111、またはストレージ装置121から、RAW画像である撮像画像を取得して、記憶部105に記憶する。推論時の推論部104は、撮像画像から入力画像を取得してニューラルネットワークへ入力し、ノイズが低減された推論画像を生成する。画像処理装置101は、ストレージ装置121に記憶されたネットワークパラメータを記憶部105に格納し、その記憶部105に記録されたネットワークパラメータを読み出して、推論工程に用いる。ネットワークパラメータは撮像装置111が記憶してもよい。画像処理装置101は、撮像画像からノイズが低減された画像を生成し、その生成された撮像画像はストレージ装置121、表示装置131、または撮像装置111の少なくとも一つに出力される。
本実施形態において、訓練画像はベイヤー配列のRAW画像であるが、三板式の撮像センサを用いて撮像されたRAW画像を使用しても良いし、FOVEON(登録商標)センサのように垂直色分子方式の撮像センサなどで撮像されたRAW画像でも良い。また、訓練画像における画素配列は、ベイヤー配列にとどまらず、その他の配列(ハニカム構造、X−Trans(登録商標)CMOSセンサのフィルタ配列など)であっても良い。また訓練画像は、ベイヤー配列のRAW画像の場合、ベイヤー配列の1chのままとしても良いし、カラーチャネルごとに分離した画像としても良い。本実施形態では、複数のカラーチャネルをまとめて学習と推論を実行するが、各色で個別に学習と推論が実行されても良い。
なお、画像処理装置101は、例えばCPUや専用または汎用のプロセッサを備える装置であっても良い。プロセッサは、記憶部に記憶された各種のプログラムを実行することによって、本実施形態の画像処理装置101の各部の機能を実現することができる。また画像処理装置101は、FPGAやASIC等のハードウェアで構成されていても良い。これらのハードウェアによっても本実施形態の画像処理装置101の各部の機能が実現されてもよい。また画像処理装置101は、プロセッサとプログラムによるソフトウェア処理と、ハードウェア処理とを組み合わせて、本実施形態の画像処理に係る各部の機能を現するものであっても良い。
図2は、学習部103で実行される学習工程に関するフローチャートである。
まず、ステップS101において、学習部103は、画像取得処理として記憶部105から訓練画像と正解画像とを取得する。訓練画像と正解画像は、それぞれ、未現像のRAW画像である。また本実施形態の場合、訓練画像はノイズを含んだ画像である。正解画像は、訓練画像と同一の被写体が写っており、且つノイズの無い(または非常に少ない)画像である。訓練画像は、正解画像に対して、シミュレーションでノイズを付与することで生成できる。
また訓練画像は、正解画像と同一の被写体を実際にノイズが発生しうる状況(例えば高感度設定)で撮像した画像が用いられてもよい。この場合、正解画像は、例えば低感度で撮像された画像とする。一方、訓練画像は、高感度で撮像された画像、または低照度で撮像された画像に感度補正を行って正解画像と同程度の明るさになるよう補正された画像を用いることができる。なお、学習工程では、画像に含まれていないノイズパターンや被写体の構造(エッジなど)は、後の推論工程で精度よく推論することができない可能性が高い。このため、学習部103は、様々なノイズパターンや被写体の構造が含まれるように、ステップS101において複数の訓練画像と正解画像を取得する。なお、ノイズ量は、単一のノイズ量でも良いし、複数のノイズ量が混ぜられたノイズ量でもよい。
また、訓練画像と正解画像は、それぞれ、信号の上限値(飽和輝度値)で割ることで規格化(正規化)することが好ましい。この場合、学習部103は、上限値取得処理として訓練画像と正解画像のそれぞれの信号値が取り得る上限値を取得し、さらに規格化処理としてその取得した上限値に基づいて訓練画像と正解画像のそれぞれの信号値を規格化する。
続いてステップS102において、画像処理装置101は、例えばストレージ装置121から、学習工程で用いられる情報として、色域処理と輝度処理に関する情報を取得して記憶部105に記憶する。本実施形態の場合、色域処理と輝度処理に関する情報は、前述したHDR処理またはSDR処理などによる色域変化と輝度変化などを表した情報である。ステップS102では、学習工程で得るニューラルネットワークがHDR処理を対象とする場合には、HDR処理における色域変化と輝度変化に関する情報が取得される。一方、学習工程で得るニューラルネットワークがSDR処理を対象とする場合には、ステップS102ではSDR処理における色域変化と輝度変化に関する情報が取得される。また本実施形態の場合、推論部104で生成された推論画像の現像処理後に用いる色域処理および輝度処理と、後述するステップS104で正解画像と出力画像に行う色域処理および輝度処理とは、それぞれ同じ処理になされる。このように推論画像に対する色域処理および輝度処理と、正解画像と出力画像に対する色域処理および輝度処理とを合わせることで、色域処理と輝度処理を含む画像処理後のカラーチャネル間のノイズ量や信号量に依らない安定した精度での推論が可能となる。なお、ステップS102の処理は、ステップS104の処理前であれば、いつ実行してもよい。
続いてステップS103において、出力画像生成処理として、学習部103は、ステップS101で取得された複数の訓練画像のうちの少なくとも一つを選択し、その選択した訓練画像をニューラルネットワークへ入力して出力画像を生成する。このとき学習工程で用いる訓練画像のノイズ量を複数パターン用意して学習を行うことで、推論工程時に学習外のノイズ量を持つ撮像画像が入力されても、効果的にノイズ低減を行うことが可能となる。なお、訓練画像の枚数が十分でない場合は、訓練画像から切り取りや回転、反転などの水増し処理を行った画像を訓練画像として用意しても良い。なおこの場合は、正解画像に対しても同一の処理が施される。
ここで、図3を参照して、ニューラルネットワーク200で行われる処理について説明する。図3は、入力画像に対するニューラルネットワーク200の説明に用いる図である。一例として、畳み込みニューラルネットワーク(以降、CNNとする)を例にとるが、本実施形態はこれに限定されるものではない。ニューラルネットワークは、例えば、GAN(Generative Adversarial Network)などが用いられてもよいし、スキップコネクションなどを有してもよい。またニューラルネットワークは、RNN(Recurrent Neural Network)などのように再帰型であってもよい。
図3において、入力画像201は、ニューラルネットワークに入力する画像または後述の特徴マップを表す。記号202は、畳み込み演算を表す。畳み込み行列203は、入力画像201に対して畳み込み演算を行うフィルタである。バイアス204は、入力画像201と畳み込み行列203との畳み込み演算によって出力された結果に加算される値である。特徴マップ205は、バイアス204が加算された後の畳み込み演算結果である。
なお、図3では、簡単のために各ニューロンや中間層、チャネル数が少なく描かれているが、ニューロンや層の数、またニューロン間の結合の数や重みなどは、この例に限定されるものではない。また、ニューラルネットワーク200がFPGAなどに実装される際には、ニューロン間の結合や重みが削減されてもよい。
CNNでは、入力画像に対し、あるフィルタによって畳み込み演算を実行することで、入力画像の特徴マップが得られる。なお、フィルタの大きさは任意である。次の層では、前層の特徴マップに対し、別のフィルタによる畳み込み演算を実行することで、異なる特徴マップが得られる。また各層では、ある入力信号をフィルタと掛け合わせ、バイアスとの和が求められる。そして、その結果に対して活性化関数が適用されることにより、各ニューロンにおける出力信号が得られる。各層における重みとバイアスがネットワークパラメータと呼ばれ、学習工程ではその値(ネットワークパラメータ)を更新する処理が行われる。また活性化関数の例としては、シグモイド関数やReLU関数などがあり、本実施形態では以下の式(1)に示すLeaky ReLU関数が用いられるが、これに限定されるものではない。なお、式(1)において、maxは、引数のうち最大値を出力する関数を表す。
f(x)=max(x,x×0.2) 式(1)
続いてステップS104において、学習部103は、ニューラルネットワークの出力画像と正解画像とに対してそれぞれ色域処理と輝度処理を実行し、誤差取得処理としてそれら色域処理と輝度処理がなされた出力画像と正解画像との誤差を取得する。なお、正解画像も訓練画像と同様の並びの色成分の配列である。学習部103は、誤差取得処理において、例えば各画素の平均二乗誤差、或いは各画素の差分の絶対値の総和による算出処理によって誤差を取得する。誤差取得処理は、それら平均二乗誤差や差分の絶対値の総和以外の算出処理が用いられても良い。
続いてステップS105において、学習部103は、ステップS104で算出された誤差が小さくなるように、誤差逆伝播法を用いて各ネットワークパラメータを更新する。ただし、本実施形態はこれに限定されるものではない。また、各ネットワークパラメータの更新量は、固定でも良いし、変動させてもよい。
続いてステップS106において、学習部103は、所定の終了条件を満たしたかを判断し、条件を満たさない場合にはステップS101に戻り、さらに学習を進める。一方、所定の終了条件を満たす場合、学習部103は、ステップS107に処理を進める。所定の終了条件とは、学習回数が規定値に達したかを示す条件でも良いし、誤差がある所定の値以下になったかを示す条件でも良い。または、所定の終了条件は、誤差の減少がほとんどなくなったかを示す条件でも良いし、ユーザからの終了指示があったかを示す条件でも良い。
次に、ステップS107において、学習部103は、学習によって更新されたネットワークパラメータやニューラルネットワークの構造などに関する情報を、ストレージ装置121に出力する。ストレージ装置121は、学習部103から出力されたネットワークパラメータを保存する。
以上説明したように、本実施形態の画像処理装置101は、ニューラルネットワークの学習工程において、ニューラルネットワークの出力画像と正解画像とにそれぞれ同じ色域処理と輝度処理を実行する。そして、画像処理装置101は、それら色域処理と輝度処理が行われた後の出力画像と正解画像との誤差を最小化するようにして、ネットワークパラメータを更新(つまりネットワークパラメータ最適化)するような学習処理を行う。これにより、本実施形態の画像処理装置101においては、現像された画像の色域処理と輝度処理に対し、推論精度が影響され難く画像に特定の色味が付き難いニューラルネットワークを取得することが可能となる。
なお本実施形態では、ニューラルネットワークを用いたノイズ低減を例に挙げたが、以下に挙げるようなノイズ低減以外の処理に関しても、訓練画像と正解画像のペアを用意することで、学習工程を実行することができる。以下のノイズ低減以外の処理の場合も、現像された画像に対する色域処理と輝度処理等の画像処理が行われても画像の色味が変化し難いニューラルネットワークを学習することが可能となる。
例えば、入力画像より高い解像度の出力画像を生成するような超解像処理を実現するニューラルネットワークの学習工程では、正解画像をダウンサンプリングすることで正解画像よりも解像度を下げた訓練画像を用意することができる。なおこの場合、正解画像と訓練画像とはサイズを合わせが行われても良いし、サイズ合わせが行われなくてもよい。
例えば、入力画像からボケ低減やブレ低減(デブラー)された出力画像を生成するようなニューラルネットワークの学習工程では、正解画像に対してボケまたはブレを付与する処理を施すことで訓練画像を用意することができる。なお、正解画像に対するボケの付与は、いわゆるボケ関数を用いた処理を施すことで実現可能である。
例えば、入力画像からホワイトバランスが適切になされた出力画像を生成するようなニューラルネットワークの学習工程では、正解画像をホワイトバランスが適切に設定されて撮像された画像とする。訓練画像は、ホワイトバランスを適切に合わせていない、またはホワイトバランスを補正していない画像を用いれば良い。
例えば、入力画像からカラーマトリクス補正による色補正がなされた出力画像を生成するようなニューラルネットワークの学習工程では、色補正が適切な正解画像に対し、色補正を適切に合わせていない、または色補正していない画像を訓練画像とすれば良い。
例えば、入力画像から欠損画素が補間された出力画像を生成するようなニューラルネットワークの学習工程では、欠損画素がない正解画像から画素を欠損させた訓練画像を生成すれば良い。
例えば、入力画像からデモザイキングされた出力画像を生成するようなニューラルネットワークの学習工程では、三板式の撮像素子などを用いて得られた正解画像に対し、ベイヤー配列などで再サンプリングを行った訓練画像を用意すれば良い。正解画像は、三板式の撮像素子で得られた画像に限定されず、画素毎に複数の色情報を有する画像であれば他の手法によって取得された画像でも良い。また訓練画像は、画素毎に一つの色情報を有する画像であれば、他の手法によって取得された画像でもよい。
例えば、入力画像から色成分を推定した出力画像を生成するようなニューラルネットワークの学習工程では、正解画像から色成分を減らすことで訓練画像を用意することができる。
例えば、入力画像からディヘイズされた出力画像を生成するようなニューラルネットワークの学習工程では、霞のようなヘイズ成分を含まない正解画像に対し、物理現象のシミュレーションによる散乱光等のヘイズ成分を付与することで、訓練画像を用意できる。
その他にも、動画などの複数フレームが連続する場合においては、所望のフレーム数を時間順の奥行き方向にまとめてニューラルネットワークに入力すると、より効果的なノイズ低減や前述のようなノイズ低減以外の処理が可能となる。
次に、図4を参照して、推論部104で実行される推論工程に関して説明する。図4は、推論部104で実行される推論工程に関するフローチャートである。
まず、ステップS201において、推論部104は、学習工程で更新されて保存されたネットワークパラメータを取得する。このとき、推論部104は、ストレージ装置121からネットワークパラメータを読み込んでもよいし、ストレージ装置121から読み出されて記憶部105に記憶されたネットワークパラメータを取得しても良い。推論部104が取得するネットワークパラメータは、学習工程で学習されたときのネットワーク構造と同じ構造が使用されていれば、学習部103で学習されたものでなく、別の画像処理装置などで学習されたものでも良い。
続いてステップS202において、推論部104は、撮像装置111またはストレージ装置121または記憶部105から、撮像画像を取得する。このときの撮像画像とは、未現像のRAW画像である。なお、RAW画像に符号化処理が施されている場合、推論部104は復号処理を行う。
次に、ステップS203において、推論部104は、RAW画像(撮像画像)をニューラルネットワークへ入力する入力画像に変換する。このときの推論部104は、入力画像に対し、学習工程において訓練画像に行われるのと同様の処理を施す。なお、入力画像のサイズは、訓練画像のサイズと必ずしも一致する必要はない。学習工程において訓練画像に行われるのと同様の処理には、信号の規格化や、色成分ごとの分離処理などが含まれる。なお、撮像画像がそのまま学習工程で利用された場合、ステップS203の処理は必ずしも行う必要はない。
続いてステップS204において、推論部104は、入力画像を、学習工程で使用したニューラルネットワークと同様の構造を持つニューラルネットワークに入力する。そして、推論部104は、そのニューラルネットワークのネットワークパラメータを基に、入力画像から推論画像を生成する。
続いてステップS205において、推論部104は、生成した推論画像をストレージ装置121、撮像装置111、或いは表示装置131の少なくとも一つに出力する。このとき、推論部104は、先のステップS202において撮像画像に施した処理を元に戻す処理を施してもよい。
以上説明したように第1の実施形態によれば、現像された画像の色域と輝度に対して、推論精度が影響されにくいニューラルネットワークを取得し、そのニューラルネットワークを用いて推論を行うことが可能な画像処理システムを実現することができる。
<第2の実施形態>
次に、第2の実施形態における画像処理システムについて説明する。第2の実施形態では、学習工程における訓練画像の色域処理と輝度処理を、ニューラルネットワークに入力する前に実行する点が第1の実施形態とは異なる。以下では、第1の実施形態とは異なる点を中心に説明し、第1の実施形態と同様の構成や処理についての詳細の説明は省略する。
図5のフローチャートを参照して、第2の実施形態における学習部103が実行する学習工程について説明する。図5のステップS301〜ステップS302およびステップS304、ステップS306〜ステップS308の処理は、第1の実施形態における図2のステップS101〜ステップS103、ステップS105〜ステップS107の処理とそれぞれ同様である。
図5のステップS302の後に進むステップS303において、学習部103は、訓練画像と正解画像とに対してそれぞれ色域処理と輝度処理を実行する。このとき、色域処理と輝度処理に必要な係数は、訓練画像と正解画像のどちらも同一のものが用いられる。ステップS303の後、学習部103は、ステップS304の処理を行った後、ステップS305の処理に進む。
ステップS305において、学習部103は、正解画像とニューラルネットワークの出力画像との誤差を算出する。第2の実施形態の場合、このとき色域処理と輝度処理は実行されない。誤差の算出方法は、図2のステップS104と同様である。
前述したように、第2の実施形態の画像処理装置101では、学習工程において、訓練画像と正解画像とにそれぞれ同じ色域処理と輝度処理を実行し、それらの画像処理後の訓練画像をニューラルネットワークで処理する。そして、画像処理装置101は、正解画像とニューラルネットワークの出力画像との誤差を最小化するようにして、ネットワークパラメータを更新(ネットワークパラメータ最適化)するような学習処理を行う。これにより、第2の実施形態の画像処理装置101においても、現像された画像の色域と輝度に対して、推論精度が影響されにくいニューラルネットワークを取得することが可能となる。
なお、第2の実施形態において、推論部104で実行される推論工程は、第1の実施形態において図4を参照して説明した推論工程と同様であるため、その説明は省略する。
<第3の実施形態>
次に、第3の実施形態に係る画像処理システムについて説明する。第3の実施形態は、放送現場等で行われている、SDR映像とHDR映像とにおけるサイマル放送に向けた放送制御システムを想定している。本実施形態では、ニューラルネットワークの学習時に、ユーザが鑑賞する編集済みの映像に合わせた処理を施すことで、推論精度の向上を行っている。そのため、SDR映像とHDR映像とでは色域や輝度の範囲が大きく異なり、推論精度に影響が生じることになる。そこで、第3の実施形態では、色域や輝度の範囲が大きく異なる場合でも、推論精度が高いニューラルネットワークを取得可能とする例を説明する。なお、第1の実施形態と同様の構成や処理についての詳細の説明は省略する。
図6は、第3の実施形態に係る放送制御システム300の概略構成を示した図である。以下、図6を参照して、第3の実施形態における放送制御システム300で行われる工程を説明する。
放送制御システム300は、一つ以上の撮像装置等で撮影された映像を管理する。
撮像システム301にて撮影されて出力された映像は、SDR用推論部302とHDR用推論部303とに入力する。
SDR用推論部302は、SDR用の映像で学習したニューラルネットワークのネットワークパラメータを持ち、そのニューラルネットワークを用いて入力映像に応じた推論を実行する。そして、SDR用推論部302による推論結果はSDR放送システム304に出力され、当該SDR放送システム304により放送される。
HDR用推論部303は、HDR用の映像で学習したニューラルネットワークのネットワークパラメータを持ち、そのニューラルネットワークを用いて入力映像に応じた推論を実行する。そして、HDR用推論部303による推論結果はHDR放送システム305に出力され、当該HDR放送システム305により放送される。
なお図6の構成例はSDR用推論部302とHDR用推論部303とが分かれているが、処理速度等が仕様等を満足するならば、SDR用推論部302とHDR用推論部303が1つの推論部に統合されていてもよい。この場合、当該一つの推論部では、SDR用の映像で学習されたネットワークパラメータとHDR用の映像で学習されたネットワークパラメータとを、切り替えて推論を実行する。
前述した第1、第2の実施形態の画像処理システムは、デジタルカメラやデジタルビデオカメラ等の撮像装置だけでなく、工業用カメラ、車載カメラ、医療用カメラ、監視カメラ、カメラ機能を備えたスマートフォンやタブレット端末等にも適用可能である。また、本実施形態に係る画像処理装置101は、これらの撮像装置で撮像されて、ストレージ装置等に保存された後に読み出した画像、または通信回線等のネットワークを介してダウンロード等した画像に対して前述した処理を行うことも可能である。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
上述の実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明は、その技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。
100:画像処理システム、101:画像処理装置、102:画像入出力部、103:学習部、104:推論部、105:記憶部、111:撮像装置、121:ストレージ装置、131:表示装置

Claims (17)

  1. 訓練画像と正解画像を取得する画像取得手段と、
    前記訓練画像をニューラルネットワークへ入力して出力画像を生成する生成手段と、
    前記正解画像と前記出力画像のそれぞれに色域処理と輝度処理を実行し、その処理後の前記正解画像と前記出力画像との誤差を取得する誤差取得手段と、
    前記取得された前記誤差に基づいて、前記ニューラルネットワークのパラメータを更新する更新手段と、
    を有することを特徴とする画像処理装置。
  2. 訓練画像と正解画像を取得する画像取得手段と、
    前記訓練画像と前記正解画像のそれぞれに色域処理と輝度処理を実行する実行手段と、
    前記実行手段による処理後の前記訓練画像をニューラルネットワークへ入力して出力画像を生成する生成手段と、
    前記正解画像と前記出力画像との誤差を取得する誤差取得手段と、
    前記取得された前記誤差に基づいて、前記ニューラルネットワークのパラメータを更新する更新手段と、
    を有することを特徴とする画像処理装置。
  3. 前記色域処理と輝度処理は画像のダイナミックレンジを拡張する際に行われる処理であることを特徴とする請求項1または請求項2に記載の画像処理装置。
  4. 前記訓練画像と前記正解画像のそれぞれの信号値が取り得る上限値を取得する上限値取得手段と、
    前記取得した上限値に基づいて、前記訓練画像と前記正解画像のそれぞれの前記信号値を規格化する規格化手段と、
    を更に有することを特徴とする請求項1から請求項3のいずれか1項に記載の画像処理装置。
  5. 前記色域処理と輝度処理に関する情報と、前記更新手段にて前記更新された前記パラメータとを、記憶する記憶手段を、更に有することを特徴とする請求項1から請求項4のいずれか1項に記載の画像処理装置。
  6. 前記取得手段は、ノイズを含まない画像である前記正解画像と、前記正解画像にノイズが含まれた画像である前記訓練画像とを取得し、
    前記生成手段は、前記訓練画像よりもノイズが低減された前記出力画像を生成することを特徴とする請求項1から請求項5のいずれか1項に記載の画像処理装置。
  7. 前記取得手段は、前記正解画像と、前記正解画像の解像度を下げた画像である前記訓練画像とを取得し、
    前記生成手段は、前記訓練画像よりも解像度が高い前記出力画像を生成することを特徴とする請求項1から請求項5のいずれか1項に記載の画像処理装置。
  8. 前記取得手段は、前記正解画像と、前記正解画像にボケまたはブレを付与した画像である前記訓練画像とを取得し、
    前記生成手段は、前記訓練画像よりも前記ボケまたはブレが低減された前記出力画像を生成することを特徴とする請求項1から請求項5のいずれか1項に記載の画像処理装置。
  9. 前記取得手段は、ホワイトバランスが適切に設定されて撮像された画像である前記正解画像と、ホワイトバランスが適切でない設定で前記撮像がなされた画像である前記訓練画像とを取得し、
    前記生成手段は、前記訓練画像よりもホワイトバランスが適切な前記出力画像を生成することを特徴とする請求項1から請求項5のいずれか1項に記載の画像処理装置。
  10. 前記取得手段は、適切な色補正を行った画像である前記正解画像と、前記色補正が適切でない画像である前記訓練画像とを取得し、
    前記生成手段は、前記訓練画像よりも色補正が適切な前記出力画像を生成することを特徴とする請求項1から請求項5のいずれか1項に記載の画像処理装置。
  11. 前記取得手段は、前記正解画像と、前記正解画像から画素を欠損させた画像である前記訓練画像とを取得し、
    前記生成手段は、前記訓練画像よりも画素の欠損が少ない前記出力画像を生成することを特徴とする請求項1から請求項5のいずれか1項に記載の画像処理装置。
  12. 前記取得手段は、画素毎に複数の色を有する画像である前記正解画像と、画素毎に一つの色が配列された画像である前記訓練画像とを取得し、
    前記生成手段は、前記訓練画像をデモザイキングした前記出力画像を生成することを特徴とする請求項1から請求項5のいずれか1項に記載の画像処理装置。
  13. 前記取得手段は、前記正解画像と、前記正解画像から色成分を減らした画像である前記訓練画像とを取得し、
    前記生成手段は、前記訓練画像から、推定した色成分を含む前記出力画像を生成することを特徴とする請求項1から請求項5のいずれか1項に記載の画像処理装置。
  14. 前記取得手段は、前記正解画像と、前記正解画像にヘイズ成分を付与した画像である前記訓練画像とを取得し、
    前記生成手段は、前記訓練画像にディヘイズを行った前記出力画像を生成することを特徴とする請求項1から請求項5のいずれか1項に記載の画像処理装置。
  15. 画像処理装置が実行する画像処理方法であって、
    訓練画像と正解画像を取得する画像取得工程と、
    前記訓練画像をニューラルネットワークへ入力して出力画像を生成する生成工程と、
    前記正解画像と前記出力画像のそれぞれに色域処理と輝度処理を実行し、その処理後の前記正解画像と前記出力画像との誤差を取得する誤差取得工程と、
    前記取得された前記誤差に基づいて、前記ニューラルネットワークのパラメータを更新する更新工程と、
    を有することを特徴とする画像処理方法。
  16. 画像処理装置が実行する画像処理方法であって、
    訓練画像と正解画像を取得する画像取得工程と、
    前記訓練画像と前記正解画像のそれぞれに色域処理と輝度処理を実行する実行工程と、
    前記実行工程による処理後の前記訓練画像をニューラルネットワークへ入力して出力画像を生成する生成工程と、
    前記正解画像と前記出力画像との誤差を取得する誤差取得工程と、
    前記取得された前記誤差に基づいて、前記ニューラルネットワークのパラメータを更新する更新工程と、
    を有することを特徴とする画像処理方法。
  17. コンピュータを、請求項1から請求項14のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。
JP2020006899A 2020-01-20 2020-01-20 画像処理装置、画像処理方法、およびプログラム Pending JP2021114180A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020006899A JP2021114180A (ja) 2020-01-20 2020-01-20 画像処理装置、画像処理方法、およびプログラム
US17/145,105 US11574390B2 (en) 2020-01-20 2021-01-08 Apparatus and method for image processing
US18/150,610 US11880963B2 (en) 2020-01-20 2023-01-05 Apparatus and method for image processing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020006899A JP2021114180A (ja) 2020-01-20 2020-01-20 画像処理装置、画像処理方法、およびプログラム

Publications (1)

Publication Number Publication Date
JP2021114180A true JP2021114180A (ja) 2021-08-05

Family

ID=77077608

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020006899A Pending JP2021114180A (ja) 2020-01-20 2020-01-20 画像処理装置、画像処理方法、およびプログラム

Country Status (1)

Country Link
JP (1) JP2021114180A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114189633A (zh) * 2021-12-22 2022-03-15 北京紫光展锐通信技术有限公司 Hdr图像成像方法、装置及电子设备
WO2024047770A1 (ja) * 2022-08-30 2024-03-07 日本電気株式会社 情報処理システム、情報処理方法及び記録媒体

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007234000A (ja) * 2006-02-01 2007-09-13 Fujifilm Corp 画像補正装置および方法
JP2019121252A (ja) * 2018-01-10 2019-07-22 キヤノン株式会社 画像処理方法、画像処理装置、画像処理プログラム、および、記憶媒体

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007234000A (ja) * 2006-02-01 2007-09-13 Fujifilm Corp 画像補正装置および方法
JP2019121252A (ja) * 2018-01-10 2019-07-22 キヤノン株式会社 画像処理方法、画像処理装置、画像処理プログラム、および、記憶媒体

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
R. NORMAN HURST: "The Future’s So Bright, I Gotta Wear Shades: Test Patterns for HDR", [ONLINE], JPN6023047650, 3 April 2017 (2017-04-03), ISSN: 0005200405 *
SIVALOGESWARAN RATNASINGAM: "Deep Camera: A Fully Convolutional Neural Network for Image Signal Processing", [ONLINE], JPN7023004366, 24 August 2019 (2019-08-24), ISSN: 0005200406 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114189633A (zh) * 2021-12-22 2022-03-15 北京紫光展锐通信技术有限公司 Hdr图像成像方法、装置及电子设备
WO2024047770A1 (ja) * 2022-08-30 2024-03-07 日本電気株式会社 情報処理システム、情報処理方法及び記録媒体

Similar Documents

Publication Publication Date Title
US11127117B2 (en) Information processing method, information processing apparatus, and recording medium
US11880963B2 (en) Apparatus and method for image processing
KR20040043157A (ko) 디지털 영상을 그 잡음을 고려하여 수정하기 위한 방법 및시스템
US11941791B2 (en) High-dynamic-range image generation with pre-combination denoising
JP2012165213A (ja) 画像処理装置
JP4066803B2 (ja) 画像処理装置、画像処理プログラム、画像処理方法および電子カメラ
CN113538211B (zh) 一种画质增强装置及相关方法
JP6087612B2 (ja) 画像処理装置および画像処理方法
JP2021114180A (ja) 画像処理装置、画像処理方法、およびプログラム
JP2004102903A (ja) フィルタ処理
JP7504629B2 (ja) 画像処理方法、画像処理装置、画像処理プログラム、および記憶媒体
CN114549383A (zh) 一种基于深度学习的图像增强方法、装置、设备及介质
WO2022151852A1 (zh) 图像处理方法、装置、系统、电子设备以及存储介质
CN113689335A (zh) 图像处理方法与装置、电子设备及计算机可读存储介质
JP2009224901A (ja) 画像のダイナミックレンジ圧縮方法、画像処理回路、撮像装置およびプログラム
JP2009200743A (ja) 画像処理装置および画像処理方法および画像処理プログラムおよび撮像装置
JP2021114186A (ja) 画像処理装置、画像処理方法、およびプログラム
JP2019028537A (ja) 画像処理装置および画像処理方法
WO2022215375A1 (ja) 画像処理方法、機械学習モデルの製造方法、画像処理装置、画像処理システム、及びプログラム
JP6157274B2 (ja) 撮像装置、情報処理方法及びプログラム
CN114494005A (zh) 图像处理方法、装置、存储介质及电子设备
WO2016002260A1 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP2007006158A (ja) 画像処理装置
JP2578409B2 (ja) 画像処理装置
JP2014119725A (ja) 露出、焦点制御装置、方法、およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230116

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240116

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20240130