JP2021089654A - Image processing apparatus, image processing method, and program - Google Patents
Image processing apparatus, image processing method, and program Download PDFInfo
- Publication number
- JP2021089654A JP2021089654A JP2019220428A JP2019220428A JP2021089654A JP 2021089654 A JP2021089654 A JP 2021089654A JP 2019220428 A JP2019220428 A JP 2019220428A JP 2019220428 A JP2019220428 A JP 2019220428A JP 2021089654 A JP2021089654 A JP 2021089654A
- Authority
- JP
- Japan
- Prior art keywords
- image
- correction
- target image
- evaluation
- learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims abstract description 152
- 238000003672 processing method Methods 0.000 title claims description 3
- 238000011156 evaluation Methods 0.000 claims abstract description 224
- 238000012937 correction Methods 0.000 claims abstract description 153
- 238000003702 image correction Methods 0.000 claims abstract description 41
- 238000000034 method Methods 0.000 claims description 94
- 230000008569 process Effects 0.000 claims description 87
- 239000000284 extract Substances 0.000 claims description 6
- 238000006243 chemical reaction Methods 0.000 description 38
- 230000006870 function Effects 0.000 description 10
- 238000004891 communication Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 5
- 238000003384 imaging method Methods 0.000 description 4
- 238000003825 pressing Methods 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 235000013305 food Nutrition 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Images
Abstract
Description
本発明は、画像処理装置、画像処理方法、及びプログラムに関する。 The present invention relates to an image processing apparatus, an image processing method, and a program.
近年、スマートフォンなど画像処理が可能な装置の普及により、画像の撮像後に補正処理を行い、撮像画像を加工・編集するユーザが増えている。画像に補正処理を行う際には、装置にインストールされた画像加工アプリ等を用いて、予め設定された風合いに加工することができるフィルタや、明度、彩度、コントラスト等に関するスライドバーを介した調整などを行うことが多い。特許文献1には、補正対象の画像に対して、他の画像(目標画像)の色空間の特徴を反映する技術が記載されている。 In recent years, with the spread of devices capable of image processing such as smartphones, an increasing number of users perform correction processing after capturing an image to process and edit the captured image. When performing correction processing on an image, a filter that can be processed to a preset texture using an image processing application installed on the device, and a slide bar related to brightness, saturation, contrast, etc. are used. Often make adjustments. Patent Document 1 describes a technique for reflecting the characteristics of the color space of another image (target image) with respect to the image to be corrected.
画像の特徴には、色合いのみに限らず、他にもコントラストやノイズ感などの様々な項目があり、補正対象の画像を目標画像の色空間に近づけたいとユーザが所望しているとは限らない。しかしながら、特許文献1に記載の技術では、画像の特徴に関わる様々な項目について補正対象の画像の特徴を目標画像の特徴に近づける補正処理を行うことはできなかった。本発明は、このような事情に鑑みてなされたものであり、画像の特徴に関わる任意の項目について補正対象の画像の特徴を目標画像の特徴に近づける補正処理を実行できるようにすることを目的とする。 The features of the image are not limited to the hue, but there are various other items such as contrast and noise, and the user does not always want to bring the image to be corrected closer to the color space of the target image. Absent. However, with the technique described in Patent Document 1, it is not possible to perform correction processing for bringing the features of the image to be corrected closer to the features of the target image for various items related to the features of the image. The present invention has been made in view of such circumstances, and an object of the present invention is to enable a correction process for bringing the characteristics of an image to be corrected closer to the characteristics of a target image for any item related to the characteristics of the image. And.
本発明に係る画像処理装置は、補正処理の対象とする補正対象画像と前記補正処理にて参照する目標画像とのそれぞれについて、複数の評価項目毎の評価値を取得する評価値取得手段と、取得した前記補正対象画像及び前記目標画像の評価値に基づいて学習用データを生成するデータ生成手段と、生成した前記学習用データに基づいて前記補正処理に係る学習モデルを評価項目毎に生成するモデル生成手段と、生成した評価項目毎の前記学習モデルのうちから選択した前記学習モデルを用いて前記補正対象画像を補正する画像補正手段とを有することを特徴とする。 The image processing apparatus according to the present invention includes an evaluation value acquisition means for acquiring evaluation values for each of a plurality of evaluation items for each of the correction target image to be corrected and the target image referred to in the correction processing. A data generation means for generating learning data based on the acquired evaluation values of the correction target image and the target image, and a learning model related to the correction processing based on the generated learning data are generated for each evaluation item. It is characterized by having a model generation means and an image correction means for correcting the correction target image by using the learning model selected from the learning models for each generated evaluation item.
本発明によれば、画像の特徴に関わる任意の項目について補正対象の画像の特徴を目標画像の特徴に近づける補正処理を実行することが可能となる。 According to the present invention, it is possible to execute a correction process for bringing the feature of the image to be corrected closer to the feature of the target image for any item related to the feature of the image.
以下、本発明の実施形態を図面に基づいて説明する。なお、以下に説明する実施形態は一例であり、本発明を必ずしも限定するものではない。また、本実施形態において説明する構成のすべてが本発明の解決手段に必須のものとは限らない。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. The embodiments described below are examples, and do not necessarily limit the present invention. Moreover, not all of the configurations described in the present embodiment are indispensable for the means for solving the present invention.
[第1の実施形態]
本実施形態では、補正処理の対象とする画像に対して、補正対象とは異なるシーンにおいて撮像された他の画像に基づいて所望の画像処理を実行する例について説明する。
[First Embodiment]
In the present embodiment, an example will be described in which a desired image processing is executed on an image to be corrected based on another image captured in a scene different from the correction target.
<画像処理装置100のハードウェア構成>
図1(a)は、本実施形態における画像処理装置100のハードウェア構成の一例を示す図である。画像処理装置100は、例えばスマートフォンやタブレット端末やパーソナルコンピュータ(タブレットPCを含む)等により実現される。画像処理装置100は、CPU101、ROM102、RAM103、入出力インタフェース(I/F)104、タッチパネルディスプレイ105、撮像部106、及び通信I/F107を有する。
<Hardware configuration of
FIG. 1A is a diagram showing an example of the hardware configuration of the
CPU(central processing unit)101は、システムバス108に接続された画像処理装置100の各構成を制御する。ROM(read only memory)102は、書き換え可能な不揮発性メモリであり、画像処理装置100のプログラム、画像データ、学習モデル等を記憶する。RAM(random access memory)103は、CPU101の主メモリ又はワークメモリ等として機能する。CPU101は、RAM103をワークメモリとして、ROM102や外部記憶装置110等に格納されたOS(オペレーティングシステム)や各種プログラムを実行することで、画像処理装置100の制御や各種処理を行う。なお、後述するフローチャートに示す処理は、ROM102や外部記憶装置110等から読み出されてRAM103に展開されたプログラムを、CPU101が実行することにより実現される。
The CPU (central processing unit) 101 controls each configuration of the
入出力I/F104には、シリアルバス109を介して、外部記憶装置110が接続される。外部記憶装置110は、例えばHDD(ハードディスクドライブ)であり、プログラムや画像データ等を記憶する。タッチパネルディスプレイ105は、画像等の表示を行うディスプレイと、指などの指示体によるタッチの位置を検出するタッチパネルとが一体となった入出力部である。なお、タッチパネルディスプレイ105に対応するように、画像等の表示を行う表示部とユーザからの入力を受け付ける入力部とを分けて設けるように構成されていてもよい。撮像部106は、撮像対象の画像を取得する撮像部である。通信I/F107は、他の装置等との間で有線又は無線による双方向の通信を行う。本実施形態における通信I/F107は、無線LAN(ローカルエリアネットワーク)を介して通信相手とのデータの送受信が可能である。また、通信I/F107は、他の通信機器との間では直接の通信以外に中継装置を介した間接的な通信も可能である。
An
図2に、本実施形態における画像処理装置100の外観の一例を示す。図2(a)は、画像処理装置100のタッチパネルディスプレイ105を有する側の面(以下、ディスプレイ面と呼ぶ)を示す図である。図2(b)は、画像処理装置100のディスプレイ面とは反対側の面(以下、背面と呼ぶ)を示す図である。本実施形態における画像処理装置100は、撮像部106として、画像処理装置100のディスプレイ面に備えられるインカメラ201と、画像処理装置100の背面に備えられるアウトカメラ202とを有する。インカメラ201は、ディスプレイ(表示画面)を閲覧するユーザの顔を撮像可能な位置及び方向に設置されている。
FIG. 2 shows an example of the appearance of the
<画像処理装置100の機能構成>
図3は、本実施形態における画像処理装置100の機能構成の一例を示すブロック図である。画像処理装置100は、CPU101がRAM103をワークメモリとして用いて、ROM102等に格納されたプログラムを実行することによって、図3に示す各機能部の機能を実現する。なお、以下に説明する機能部の一部又はすべてが、CPU101以外の1つ又は複数の処理回路によって実現されるように画像処理装置100が構成されていてもよい。
<Functional configuration of
FIG. 3 is a block diagram showing an example of the functional configuration of the
画像処理装置100は、画像取得部301、評価値取得部302、学習用データ生成部303、学習モデル生成部304、画像補正部305、及び表示制御部306を有する。画像取得部301は、補正対象画像と目標画像とを取得する。補正対象画像は補正処理の対象とする画像であり、目標画像は補正対象画像を補正する際に目標として参照する画像である。補正対象画像と目標画像とは、例えば異なるシーンで撮像された画像である。
The
評価値取得部302は、画像取得部301で取得された補正対象画像及び目標画像をそれぞれ解析して、画像の特徴に関わる複数の異なる評価項目毎に各画像の評価値を取得する。一例として評価値取得部302は、画像の特徴を表す評価値として、色み、ノイズ、及びヒストグラムの各項目について評価値を取得するものとする。なお、評価値取得部302で取得する評価値は、これに限定されるものではなく、他の項目の評価値を取得するようにしてもよく、例えば光沢やコントラスト等の評価値を取得するようにしてもよい。
The evaluation
学習用データ生成部303は、評価値取得部302で取得した評価値に基づいて補正処理に係る学習モデルの生成に使用する学習用データを生成する。学習モデル生成部304は、学習用データ生成部303で生成した学習用データを用いて学習処理を行い、補正処理に係る学習モデルを生成する。画像補正部305は、画像取得部301で取得した補正対象画像を学習モデル生成部304で生成した学習モデルを用いて補正する。表示制御部306は、処理に必要な情報をユーザに入力してもらうためのユーザインタフェースや補正処理に係る画像等の表示を制御する。
The learning
<画像処理装置100が実行する処理>
図4は、本実施形態における画像処理装置100の処理例を示すフローチャートである。CPU101が、ROM102等からプログラムを読み出して実行することで、図4に示すフローチャートの各処理が実現される。以下、各ステップ(工程)は符号の先頭に“S”を付して表す。
<Processing executed by the
FIG. 4 is a flowchart showing a processing example of the
S401において、表示制御部306は、処理に必要な情報をユーザに入力してもらうためのグラフィカルユーザインタフェース(GUI:Graphical User Interface)を、タッチパネルディスプレイ105に表示させる。また、表示制御部306は、GUIを介したユーザからの指示を受け付ける。図5に、本実施形態における画像処理装置100において、タッチパネルディスプレイ105に表示されるGUIの一例を示す。
In S401, the
表示制御部306は、まず、補正処理において補正する画像(補正対象画像)の選択を受け付けるための図5(a)に示すGUIをタッチパネルディスプレイ105に表示させる。補正対象画像の選択領域502には、補正対象画像の候補である複数の画像が表示される。選択領域502に表示されている画像のうちの何れかの画像に対してユーザによるタッチ操作が行われると、タッチパネルディスプレイ105は、タッチ操作により指定された画像を検知して、表示制御部306に指定された画像を示す情報を送信する。また、フォルダ指定ボタン503は、画像が保存されたフォルダの選択及び指定を受け付けるためのボタンである。フォルダ指定ボタン503がユーザにより押下され、それが検知されると、表示制御部306は、画像が保存されているフォルダ候補を選択可能なように表示させる。さらに、表示制御部306は、ユーザのタッチ操作等によるフォルダの指定を受け付けると、指定されたフォルダに格納された画像を選択領域502に表示させる。このようにして表示制御部306は、ユーザからの指示に応じて選択領域502に補正対象画像の候補となる画像を表示しながら、ユーザによる補正対象画像の指定を受け付ける。移動ボタン501は、次のメニュー(目標画像を選択するメニュー)に進む指示をユーザから受け付けるためのボタンである。補正対象画像の指定が完了すると、ユーザによる移動ボタン501の押下が可能となる。
First, the
移動ボタン501がユーザにより押下され、それが検知されると、次に、表示制御部306は、補正処理において目標として参照する画像(目標画像)の選択を受け付けるための図5(b)に示すGUIを表示させる。目標画像の選択領域512には、目標画像の候補となる複数の画像が表示される。補正対象画像の場合と同様にして、タッチパネルディスプレイ105を介してユーザにより指定された画像を示す情報が表示制御部306に送信され、表示制御部306は、ユーザによる目標画像の指定を受け付ける。フォルダ指定ボタン513は、図5(a)に示したフォルダ指定ボタン503と同様に、画像が保存されたフォルダの選択及び指定を受け付けるためのボタンである。移動ボタン511は、次のメニュー(補正対象画像に対する補正処理を実行するメニュー)に進む指示をユーザから受け付けるためのボタンである。目標画像の指定が完了すると、ユーザによる移動ボタン511の押下が可能となる。
When the
移動ボタン511が押下され、それが検知されると、表示制御部306は、図5(c)に示すGUIをタッチパネルディスプレイ105に表示させる。図5(c)に示すGUIにおいて、補正対象画像領域522が表示されている。補正対象画像領域522には、補正処理前又は補正処理後の補正対象画像が表示される。補正適用ボタン521は、補正対象画像に対する補正処理の適用を指示するためのボタンである。補正適用ボタン521がユーザにより押下されると、画像処理装置100は、図4に示したS402以降の処理を開始する。なお、元に戻すボタン523は、補正処理後の画像を補正処理前の画像に戻すためのボタンである。
When the
なお、図5(a)及び図5(b)に示した例においては、補正対象画像の選択領域502及び目標画像の選択領域512に、それぞれ9枚までの画像を一覧表示することが可能である。しかし、選択領域502、512に表示可能な画像の数は、これに限定されるものではなく、任意である。また、指定されたフォルダに格納されている画像の数が選択領域502、512に表示可能な画像数より多い場合には、選択領域502、512に対するユーザによるスライド(スワイプ)操作等に応じて表示する画像を適宜切り替えるようにすればよい。
In the examples shown in FIGS. 5A and 5B, up to 9 images can be displayed in a list in the
図4に戻り、S402において、画像取得部301は、補正対象画像の画像データを取得する。画像取得部301は、表示制御部306からユーザの指示により補正対象画像として指定された画像を特定する情報を受け付けると、補正対象画像として指定された画像の画像データが格納された場所を特定し、ROM102から画像データを読み出す。
Returning to FIG. 4, in S402, the
S403において、画像取得部301は、目標画像の画像データを取得する。画像取得部301は、表示制御部306からユーザの指示により目標画像として指定された画像を特定する情報を受け付けると、目標画像として指定された画像の画像データが格納された場所を特定し、ROM102から画像データを読み出す。
In S403, the
ここでは、補正対象画像及び目標画像のそれぞれの画像データは、R(レッド)、G(グリーン)、B(ブルー)の各色の画像データからなるものとする。各色の画像データは、画素毎に8ビットの画素値からなる画像を表すデータであるとする。なお、これは一例であり、補正対象画像及び目標画像の画像データは、これに限定されるものではない。また、S402の処理とS403の処理とを実行する順序は任意であり、S404の処理を開始する前に、補正対象画像及び目標画像のそれぞれの画像データが取得されていればよい。 Here, it is assumed that the image data of the image to be corrected and the target image are composed of image data of each color of R (red), G (green), and B (blue). It is assumed that the image data of each color is data representing an image consisting of 8-bit pixel values for each pixel. Note that this is an example, and the image data of the correction target image and the target image is not limited to this. Further, the order in which the processing of S402 and the processing of S403 are executed is arbitrary, and it is sufficient that the image data of the correction target image and the target image are acquired before the processing of S404 is started.
S404において、評価値取得部302は、S402で読み出された補正対象画像の画像データ及びS403で読み出された目標画像の画像データを用いて評価値取得処理を行い、補正対象画像及び目標画像のそれぞれについて評価値を取得する。ここで、評価値取得部302は、複数の同じ項目に関して補正対象画像及び目標画像の評価値を算出することで、複数の異なる評価項目毎の評価値を取得する。本実施形態では、前述したように、一例として画像の色み、ノイズ、及びヒストグラムの評価値を取得する。このS404において評価値取得部302により実行される評価値取得処理の詳細については後述する。
In S404, the evaluation
S405において、学習用データ生成部303は、学習用データの生成処理を行い、S404で取得された補正対象画像及び目標画像の評価値に基づいて、評価項目毎に学習用データを生成する。学習用データ生成部303は、評価項目別に、変換前の画像データと変換後の画像データとを対とする複数組のデータを生成して学習用データセットとしてROM102等に保存する。このS405において学習用データ生成部303により実行される学習用データの生成処理の詳細については後述する。
In S405, the learning
S406において、学習モデル生成部304及び画像補正部305は、学習モデルを用いた画像補正処理を行う。学習モデルを用いた画像補正処理では、学習モデル生成部304は、S405で生成された学習用データに基づいて評価項目別に学習モデルを生成する。また、画像補正部305は、学習モデル生成部304により生成された学習モデルを用いて補正処理を行い、S402で取得された補正対象画像を補正する。このS406において学習モデル生成部304及び画像補正部305により実行される学習モデルを用いた画像補正処理の詳細については後述する。
In S406, the learning
S407において、表示制御部306は、S406で補正対象画像を補正処理して得られた画像(補正された補正対象画像)をタッチパネルディスプレイ105に表示させる。そして、画像処理装置100は処理を終了する。
In S407, the
<評価値取得処理(S404)>
図6は、図4に示したS404において評価値取得部302が実行する評価値取得処理の例を示すフローチャートである。
<Evaluation value acquisition process (S404)>
FIG. 6 is a flowchart showing an example of the evaluation value acquisition process executed by the evaluation
S601において、評価値取得部302は、補正対象画像及び目標画像のそれぞれについて、画像の色みに関する評価値を算出する。本実施形態において評価値取得部302は、補正対象画像及び目標画像のそれぞれにおける色度値を、色みに関する評価値として算出する。具体的には、評価値取得部302は、まず、各画像における全画素の画素値を色毎に平均する。次に、評価値取得部302は、sRGBやAdobeRGBなどの所定の変換式を用いて各色の平均値をXYZ値に変換し、さらにCIECAM02の色度値a(赤−緑)、b(黄−青)を用いてXYZ値を色度値に変換する。なお、色みに関する評価値は、画像全体の色みではなく、光源の色みに関する評価値を算出するようにしてもよい。例えば、入力される画像から輝度成分についてヒストグラムを作成し、ヒストグラムでの上位側から5%の画素値の平均値に基づいて評価値を算出してもよい。あるいは、XYZ値から色度値への変換として、CIE−xy色度値やCIE−Labの色度値a、bを用いてもよい。
In S601, the evaluation
S602において、評価値取得部302は、補正対象画像及び目標画像のそれぞれについて、図7に示す処理を行ってノイズに関する評価値を算出する。図7は、ノイズの評価値を算出する処理の例を示すフローチャートである。
In S602, the evaluation
S701において、評価値取得部302は、補正対象画像及び目標画像のそれぞれに対して、各画素の画素値をsRGB変換式とCIE−Lab変換式を用いて明度値L*(x,y)に変換する。さらに、評価値取得部302は、明度値L*(x,y)を式(1)によりフーリエ変換して空間周波数特性F(u,v)を算出する。式(1)において、Mは評価値の算出対象の画像における横方向の画素数であり、Nは評価値の算出対象の画像における縦方向の画素数である。
In S701, the evaluation
次に、S702において、評価値取得部302は、S701で算出した空間周波数特性F(u,v)に所望の帯域フィルタをかけ、式(2)に基づいてウィーナースペクトルWS(u,v)を算出する。式(2)において、BPF(u,v)は、2次元の画像ノイズを評価するために用いられる帯域フィルタである。本実施形態において評価値取得部302は、高周波帯域用フィルタ(BPFHigh)と低周波帯域用フィルタ(BPFLow)を用いて2つの帯域についてノイズの評価値を算出するが、これに限定されるものではなく、帯域フィルタは3つ以上用いてもよい。
Next, in S702, the evaluation
次に、S703において、評価値取得部302は、周波数帯域毎に、S702で算出したウィーナースペクトルWS(u,v)の積分値を算出し、積分値をノイズの評価値とする。ノイズの評価値は、評価値が大きいほど、画像に2次元の画像ノイズが多く含まれることを表す。
次に、S704において、評価値取得部302は、S703で算出したノイズの評価値を周波数帯域毎に保存して、図7に示す処理を終了する。
Next, in S703, the evaluation
Next, in S704, the evaluation
図6に戻り、S603において、評価値取得部302は、補正対象画像及び目標画像のそれぞれについて、図8に示す処理を行って画像のヒストグラムに関する評価値を算出する。図8は、ヒストグラムの評価値を算出する処理の例を示すフローチャートである。
Returning to FIG. 6, in S603, the evaluation
S801において、評価値取得部302は、補正対象画像及び目標画像のそれぞれにおける各画素の画素値を明度値に変換する。
次に、S802において、評価値取得部302は、補正対象画像及び目標画像のそれぞれについて、S801で算出した各画素の明度値に基づいて、明度値のヒストグラムの特徴量として歪度及び尖度を算出する。評価値取得部302は、式(3)を用いて歪度を算出し、式(4)を用いて尖度を算出する。
In S801, the evaluation
Next, in S802, the evaluation
次に、S803において、評価値取得部302は、S802で算出した歪度と尖度とをヒストグラムの評価値として保存して、図8に示す処理を終了する。
Next, in S803, the evaluation
評価値取得部302は、前述のようにして、画像の色み、ノイズ、及びヒストグラムの評価値をそれぞれ算出すると、評価値取得処理を終了する。なお、図6に示した例では、画像の色み(S601)、ノイズ(S602)、ヒストグラム(S603)の順に評価値を算出するようにしているが、これに限定されるものではない。評価値取得処理において、画像の色み、ノイズ、及びヒストグラムの評価値が取得できればよく、評価値を算出する順序は任意である。すなわち、図6に示したS601の処理、S602の処理、S603の処理を実行する順序は、順不同である。
When the evaluation
<学習用データの生成処理(S405)>
図9は、図4に示したS405において学習用データ生成部303が実行する学習用データの生成処理の例を示すフローチャートである。また、図10は、学習用データ生成部303が実行する処理を模式的に表した図である。
<Learning data generation process (S405)>
FIG. 9 is a flowchart showing an example of the learning data generation process executed by the learning
図10に示すように、学習用データの生成処理では、学習用データ生成部303は、まず学習用の画像データベース(DB)1001の中から色み、ノイズ、ヒストグラムの評価項目毎に、補正対象画像の評価値に近い画像をそれぞれ抽出する。学習用データ生成部303は、補正対象画像の色みの評価値に基づいて、学習用の画像DB1001から色みに関して近似する評価値を有する複数の画像1011を抽出する。また、学習用データ生成部303は、補正対象画像のノイズの評価値に基づいて、学習用の画像DB1001からノイズに関して近似する評価値を有する複数の画像1021を抽出する。また、学習用データ生成部303は、補正対象画像のヒストグラムの評価値に基づいて、学習用の画像DB1001からヒストグラムに関して近似する評価値を有する複数の画像1031を抽出する。
As shown in FIG. 10, in the learning data generation process, the learning
学習用データ生成部303は、画像データベース(DB)1001から画像を抽出した後、抽出した画像に対して目標画像の評価値に近似するように変換処理を行う。そして、学習用データ生成部303は、変換前の画像と変換後の画像との対を1つの組として複数組の学習用データを生成し学習用データセットとして保存する。学習用データ生成部303は、複数の画像1011のそれぞれについて、目標画像の色みの評価値に基づいて変換処理し、元の画像1011と変換処理後の画像1012とを対とする複数組のデータを生成する。また、学習用データ生成部303は、複数の画像1021のそれぞれについて、目標画像のノイズの評価値に基づいて変換処理し、元の画像1021と変換処理後の画像1022とを対とする複数組のデータを生成する。また、学習用データ生成部303は、複数の画像1031のそれぞれについて、目標画像のヒストグラムの評価値に基づいて変換処理し、元の画像1031と変換処理後の画像1032とを対とする複数組のデータを生成する。このような学習用データの生成処理を行うことで、補正対象画像を目標画像の印象に近づける際の変換精度を向上させることができる。以下、処理の詳細を説明する。
The learning
図9のS901において、学習用データ生成部303は、図4に示したS404で評価値取得部302により取得された評価項目毎の補正対象画像と目標画像の評価値を取得する。
S902において、学習用データ生成部303は、学習用の画像データとして予め準備した画像データ群を取得する。なお、本実施形態では、一例として人物や風景画像、スポーツや趣味、食品など多様なカテゴリの画像を10000枚予め準備し保持させるが、ユーザの趣向に応じて特定のカテゴリの画像を保持させてもよいし、準備する画像の数もこれに制限されない。補正対象画像のカテゴリに合致し、画像の数が多いほど変換精度を向上させることができる。なお、S901の処理及びS902の処理を実行する順序は順不同であり、次のS903の処理を開始する前に実行されていればよい。
In S901 of FIG. 9, the learning
In S902, the learning
S903において、学習用データ生成部303は、S902で取得した画像データの中から補正対象画像の評価値に近い画像データを抽出する。S902で取得する画像データについては、前述した評価値取得処理と同様の方法により予め評価値が算出されている。本実施形態では、学習用データ生成部303は、予め算出されている画像データの評価値に基づいて、補正対象画像の評価値に近い方から(補正対象画像の評価値との差分が小さい方から)順番で100枚の画像を抽出する。この画像データの抽出は、色み、ノイズ、ヒストグラムの各評価項目別に行う。なお、本実施形態では、評価項目毎に100枚の画像を抽出するようにしているが、抽出する画像の数は任意である。また、補正対象画像の評価値に近い方から所定の数の画像を抽出するようにしているが、画像の数を限定せずに補正対象画像の評価値との差分が所定の範囲内にある画像を抽出するようにしてもよい。
In S903, the learning
次に、S904において、学習用データ生成部303は、S903で抽出した画像データを、目標画像の評価値を参照して変換する。変換は、色み及びヒストグラムについては、色変換係数が記述された3×10の変換行列を補正パラメータとして設定し、変換後の画像の評価値と目標画像の評価値との差が最小となるようにパラメータを決定して画像変換を行う。なお、補正パラメータは、3DLUTや多項式で近似してもよい。また、ノイズについては、補正対象画像と比較して目標画像のノイズが少ない場合にはローパスフィルタを補正パラメータとして設定し、目標画像のノイズが多い場合には各画素の輝度を中心に標準偏差σを補正パラメータとした正規分布乱数を加える処理を行う。学習用データ生成部303は、補正後の画像の評価値と目標画像の評価値の差が最小となるようにフィルタサイズ及び係数、又はノイズ付加の大きさを表す標準偏差σを補正パラメータとして決定し、決定した補正パラメータを用いて画像変換を行う。
Next, in S904, the learning
次に、S905において、学習用データ生成部303は、評価項目別にS903で抽出した画像100枚について、S903で抽出した画像とS904で変換した画像とを対とする画像データを学習用データセットとして保存する。
Next, in S905, the learning
S906において、学習用データ生成部303は、すべての評価項目について学習用データを生成したか否かを判定する。学習用データ生成部303は、すべての評価項目について学習用データを生成したと判定した場合(S906のYES)には学習用データの生成処理を終了する。一方、学習用データ生成部303は、すべての評価項目についての学習用データの生成が完了していないと判定した場合(S906のNO)にはS903の処理へ戻り、学習用データを生成していない評価項目についてS903以降の処理を行う。
In S906, the learning
<学習モデルを用いた画像補正処理(S406)>
図11は、図4に示したS406において学習モデル生成部304及び画像補正部305が実行する学習モデルを用いた画像補正処理の例を示すフローチャートである。
<Image correction processing using a learning model (S406)>
FIG. 11 is a flowchart showing an example of image correction processing using the learning model executed by the learning
S1101において、学習モデル生成部304は、S405での学習用データの生成処理により生成した学習用データを取得する。
In S1101, the learning
S1102において、学習モデル生成部304は、S1101で取得した学習用データを用いて学習処理を行う。本実施形態において学習処理は、畳み込みニューラルネットワーク(CNN:convolution neural network)を使用し、その処理概要を図12(a)に示す。本実施形態においてCNNモデルは、一例として畳み込み層が13層、全結合層が3層の16層からなるVGG16モデルを使用するものとする。図12(b)に例示するように、畳み込み層では入力画像に対するフィルタ処理(3×3)及び活性化関数を用いた非線形処理を行い、プーリング層では畳み込み層で処理された特徴マップの縮小処理を行う。本実施形態において、活性化関数はReLU関数を用いるが、シグモイド関数等の他の非線形処理を用いてもよい。また、損失関数は二乗和誤差を使用し、勾配降下法を用いて損失関数が最小となるように重みパラメータを最適化する。学習モデル生成部304は、入力画像及び教師画像にS405で生成した学習用データにおける変換前の画像及び変換後の画像をそれぞれ設定して学習処理を行い、学習モデルを生成する。なお、本実施形態では、学習処理としてCNNを用いるようにしているが、画像間の関係から画像生成を行うGAN(generative adversarial network)の1手法であるpix2pix等の他の学習処理を用いてもよい。
In S1102, the learning
S1103において、学習モデル生成部304は、すべての評価項目について学習モデルを生成したか否かを判定する。すべての評価項目について学習モデルを生成したと学習モデル生成部304が判定した場合(S1103のYES)、S1104の処理へ進む。一方、すべての評価項目についての学習モデルの生成が完了していないと学習モデル生成部304が判定した場合(S1103のNO)、S1102の処理へ戻り、学習モデルを生成していない評価項目について学習処理を行う。
In S1103, the learning
S1104において、画像補正部305は、図4に示したS404で評価値取得部302により取得された評価項目毎の補正対象画像と目標画像の評価値を取得する。
In S1104, the
S1105において、画像補正部305は、S1104で取得した評価項目毎の補正対象画像と目標画像の評価値に基づいて、評価項目毎に評価値の差分値を算出する。さらに、画像補正部305は、評価値の差分値が最も大きい項目について補正処理を行うように、前述のようにして学習モデル生成部304により生成された学習モデルの中から評価値の差分値が最も大きい評価項目に合致する学習モデルを選択する。そして、画像補正部305は、選択した学習モデルを用いて補正処理を行い、補正対象画像の補正を行う。なお、本実施形態では、補正対象画像と目標画像の評価値の差分値が最も大きい評価項目に対応した学習モデルを1つ選択して補正対象画像の補正を行うが、評価値の差分値に応じて複数の学習モデルを適用して補正対象画像の補正を行ってもよい。例えば、評価項目毎に予め閾値を設定し、補正対象画像と目標画像の評価値の差分値が、設定した閾値を超える評価項目について、それぞれ学習モデルを適用して補正対象画像の補正を行ってもよい。
In S1105, the
S1106において、画像補正部305は、S1105で補正した画像を保存して、学習モデルを用いた画像補正処理を終了する。
In S1106, the
以上説明したように、第1の実施形態によれば、補正対象画像と目標画像とを解析して複数の異なる評価項目に関する評価値を取得し、評価値に応じた学習モデルを評価項目毎に生成して、生成した学習モデルを用いて補正対象画像の補正を行う。取得した評価値に基づいて学習モデルの生成に使用する学習用データを生成することで学習モデルの変換精度が向上し、画像の特徴に関わる任意の評価項目について目標画像の印象(風合い)に近づける補正処理を実行することができる。 As described above, according to the first embodiment, the correction target image and the target image are analyzed to obtain evaluation values for a plurality of different evaluation items, and a learning model according to the evaluation values is obtained for each evaluation item. Generate and correct the image to be corrected using the generated learning model. By generating the learning data used to generate the learning model based on the acquired evaluation values, the conversion accuracy of the learning model is improved, and the impression (texture) of the target image is brought closer to any evaluation item related to the image features. The correction process can be executed.
[第2の実施形態]
第1の実施形態における学習用データの生成処理では、学習用の画像データベースを予め準備しておき、その中から評価値に基づいて評価項目毎に学習用の画像データを抽出、変換して学習用データを生成する方法を説明した。第2の実施形態においては、ユーザが指定する目標画像に基づいて学習用データを生成する方法について説明する。第2の実施形態では、補正対象画像の補正処理において実際に目標とする目標画像を学習用データに使用することで学習モデルの変換精度の向上を図る。第2の実施形態は、前述した第1の実施形態とは学習用データの生成処理が異なり、他の構成や処理等は第1の実施形態と同様であるので、それらの説明は省略し、以下では、第2の実施形態における学習用データの生成処理について説明する。
[Second Embodiment]
In the learning data generation process of the first embodiment, an image database for learning is prepared in advance, and image data for learning is extracted and converted for each evaluation item based on the evaluation value from the database for learning. Explained how to generate data for. In the second embodiment, a method of generating learning data based on a target image specified by the user will be described. In the second embodiment, the conversion accuracy of the learning model is improved by using the target image that is actually the target in the correction process of the image to be corrected as the learning data. The second embodiment is different from the first embodiment described above in the process of generating learning data, and other configurations and processes are the same as those of the first embodiment. Hereinafter, the learning data generation process in the second embodiment will be described.
図13は、第2の実施形態において学習用データ生成部303が実行する学習用データの生成処理の例を示すフローチャートである。
S1301において、学習用データ生成部303は、図4に示したS404の処理と同様にして、評価項目毎の補正対象画像と目標画像の評価値を取得する。
S1302において、学習用データ生成部303は、図4に示したS403の処理と同様にして、目標画像を取得する。なお、S1301の処理及びS1302の処理を実行する順序は順不同であり、次のS1303の処理を開始する前に実行されていればよい。
FIG. 13 is a flowchart showing an example of the learning data generation process executed by the learning
In S1301, the learning
In S1302, the learning
S1303において、学習用データ生成部303は、補正対象画像と目標画像の評価値を参照し、目標画像を変換する。変換は、色み及びヒストグラムについては、色変換係数が記述された3×10の変換行列を補正パラメータとして設定し、目標画像を変換した後の画像の評価値と補正対象画像の評価値との差が最小となるようにパラメータを決定して画像変換を行う。なお、補正パラメータは、3DLUTや多項式で近似してもよい。また、ノイズについては、補正対象画像のノイズよりも目標画像のノイズが多い場合には、ノイズを低減するローパスフィルタを補正パラメータとして設定し、評価値の差が小さくなるようにフィルタサイズ及び係数を決定し画像変換を行う。一方、補正対象画像のノイズよりも目標画像のノイズが少ない場合には、各画素の輝度を中心に標準偏差σを補正パラメータとして正規分布乱数を加える処理を行い、評価値の差が小さくなるように標準偏差σを決定してノイズ付加の処理を行う。
In S1303, the learning
次に、S1304において、学習用データ生成部303は、S1302で取得した目標画像とS1303で変換した画像とを組とする画像データを学習に使用する学習用データとして保存する。
Next, in S1304, the learning
S1305において、学習用データ生成部303は、すべての評価項目について学習用データを生成したか否かを判定する。学習用データ生成部303は、すべての評価項目について学習用データを生成したと判定した場合(S1305のYES)には学習用データの生成処理を終了する。一方、学習用データ生成部303は、すべての評価項目についての学習用データの生成が完了していないと判定した場合(S1305のNO)にはS1303の処理へ戻り、学習用データを生成していない評価項目についてS1303以降の処理を行う。
In S1305, the learning
第2の実施形態によれば、目標画像に基づいて学習用データを生成することで、学習モデルの変換精度が向上し、画像の特徴に関わる任意の評価項目について目標画像の印象(風合い)に近づける補正処理を実行することができる。 According to the second embodiment, by generating the learning data based on the target image, the conversion accuracy of the learning model is improved, and the impression (texture) of the target image is obtained for any evaluation item related to the characteristics of the image. It is possible to execute the correction process to bring it closer.
[第3の実施形態]
第1の実施形態では、複数の異なる評価項目に関する評価値を取得し、目標画像の評価値に応じた学習モデルを生成し、補正対象画像の補正を行う。第3の実施形態においては、評価項目毎に補正結果画像の候補をユーザに提示することで、補正結果を参照しながら簡易に補正対象画像に対する補正処理を決定する方法について説明する。また、補正結果画像を提示する際の画像データにおいて、過去の変換履歴を参照して過去の変換画像を用いた追加学習を行うことで学習モデルの変換精度を向上させる方法についても説明する。なお、第3の実施形態における画像処理装置のハードウェア構成や機能構成は、第1の実施形態における画像処理装置と同様であるので説明は省略する。
[Third Embodiment]
In the first embodiment, evaluation values for a plurality of different evaluation items are acquired, a learning model corresponding to the evaluation values of the target image is generated, and the correction target image is corrected. In the third embodiment, a method of presenting a correction result image candidate for each evaluation item to the user and simply determining the correction process for the correction target image while referring to the correction result will be described. In addition, a method of improving the conversion accuracy of the learning model by performing additional learning using the past converted image with reference to the past conversion history in the image data when presenting the correction result image will also be described. Since the hardware configuration and functional configuration of the image processing device in the third embodiment are the same as those in the image processing device in the first embodiment, the description thereof will be omitted.
<画像処理装置100が実行する処理>
図14は、第3の実施形態における画像処理装置100の処理例を示すフローチャートである。CPU101が、ROM102等からプログラムを読み出して実行することで、図14に示すフローチャートの各処理が実現される。
<Processing executed by the
FIG. 14 is a flowchart showing a processing example of the
S1401において、表示制御部306は、GUIをタッチパネルディスプレイ105に表示させる。図15に、本実施形態において、タッチパネルディスプレイ105に表示されるGUIの一例を示す。図15において、図5に示した構成要素と同一の構成要素には同一の符号を付している。図15(a)及び図15(b)に示すGUIについては、第1の実施形態において図5(a)及び図5(b)に示したGUIと同一であるため説明を省略する。
In S1401, the
図15(b)に示したGUIにおいて、移動ボタン511が押下され、それが検知されると、表示制御部306は、図15(c)に示すGUIをタッチパネルディスプレイ105に表示させる。図15(c)に示すGUIにおいて、補正対象画像領域522が表示されている。補正適用ボタン521は、補正対象画像に対して学習モデルを用いた補正処理の適用を指示するためのボタンである。元に戻すボタン523は、補正画像を補正処理前の画像に戻すためのボタンである。履歴参照ボタン1501は、過去の補正画像や補正処理に使用した学習モデルの履歴を参照するボタンである。モデル選択ボタン1502は、補正画像の候補の提示を指示するためのボタンである。選択用画像領域1503は、補正処理に用いる学習モデルを選択するための補正画像の候補が表示される。
In the GUI shown in FIG. 15 (b), when the
図14に戻り、S1402において、画像取得部301は、第1の実施形態でのS402の処理と同様にして、補正対象画像の画像データを取得する。
S1403において、画像取得部301は、第1の実施形態でのS403の処理と同様にして、補正対象画像を補正処理する際に目標とする目標画像の画像データを取得する。なお、S1402の処理とS1403の処理とを実行する順序は任意であり、S1404の処理を開始する前に、補正対象画像及び目標画像のそれぞれの画像データが取得されていればよい。
Returning to FIG. 14, in S1402, the
In S1403, the
S1404において、評価値取得部302は、第1の実施形態でのS404の処理と同様にして、S1402で読み出された補正対象画像の画像データ及びS1403で読み出された目標画像の画像データを用いて評価値取得処理を行う。評価値取得部302は、補正対象画像及び目標画像のそれぞれについて、複数の異なる評価項目毎の評価値を取得する。
In S1404, the evaluation
S1405において、評価値取得部302は、ユーザによる履歴参照ボタン1501の押下を検知し、ユーザの指示により指定された変換履歴を示す画像データ及び学習モデルが格納された場所を特定し、ROM102から画像データ及び学習モデルを読み出す。変換履歴にはユーザが過去に画像データを目標画像に近づけるために使用した学習済モデルと補正後の画像データとが作成日時に関連付けてROM102に記録されている。
In S1405, the evaluation
S1406において、学習モデル生成部304は、学習モデルの生成処理を行い、S1405で取得された過去の変換履歴、及び補正対象画像と目標画像の評価値に基づいて、評価項目別に学習モデルを生成する。このS1406において学習モデル生成部304により実行される学習モデルの生成処理の詳細については後述する。
In S1406, the learning
S1407において、画像補正部305及び表示制御部306は、学習モデルを用いた画像補正処理を行う。学習モデルを用いた画像補正処理では、画像補正部305は、S1406で生成された学習モデルを取得して補正処理を行い、S1402で取得された補正対象画像を補正する。また、表示制御部306は、処理に必要な情報をユーザに入力してもらうためのGUIや、画像補正部305により補正処理して得られた画像(補正された補正対象画像)を、タッチパネルディスプレイ105に表示させる。このS1407において画像補正部305及び表示制御部306により実行される学習モデルを用いた画像補正処理の詳細については後述する。
In S1407, the
<学習モデルの生成処理(S1406)>
図16は、図14に示したS1406において学習モデル生成部304が実行する学習モデルの生成処理の例を示すフローチャートである。
<Learning model generation process (S1406)>
FIG. 16 is a flowchart showing an example of a learning model generation process executed by the learning
S1601において、学習モデル生成部304は、複数の評価項目毎に適した学習済モデルを取得する。学習済モデルは、予め評価項目毎にROM102に保存されているものとする。例えば、色みの評価項目に関しては色みに適した補正を行う学習済モデルが保存され、ノイズの評価項目に関してはノイズに適した補正を行う学習済モデルが保存されている。
In S1601, the learning
S1602において、学習モデル生成部304は、S1405で取得された過去の変換履歴を参照して、ユーザからの指示に応じて過去に変換した画像データを取得する。
S1603において、学習モデル生成部304は、S1601で取得した学習済モデルとS1602で取得した画像データとを用いて、評価項目毎に学習済モデルの追加学習を行う。
In S1602, the learning
In S1603, the learning
S1604において、学習モデル生成部304は、すべての評価項目について過去の変換画像を用いた学習済モデルの追加学習を実施したか否かを判定する。学習モデル生成部304は、すべての評価項目について学習済モデルの追加学習を実施したと判定した場合(S1604のYES)にはS1605の処理へ進む。一方、学習モデル生成部304は、すべての評価項目についての学習済モデルの追加学習が完了していないと判定した場合(S1604のNO)にはS1601の処理へ戻り、学習済モデルの追加学習を実施していない評価項目について前述した処理を行う。
In S1604, the learning
S1605において、学習モデル生成部304は、前述のようにして評価項目毎に追加学習した学習モデルを保存して、学習モデルの生成処理を終了する。
In S1605, the learning
<学習モデルを用いた画像補正処理(S1407)>
図17は、図14に示したS1407において画像補正部305及び表示制御部306が実行する学習モデルを用いた画像補正処理の例を示すフローチャートである。
S1701において、表示制御部306は、処理に必要な情報をユーザに入力してもらうためのGUIを表示する。
<Image correction processing using a learning model (S1407)>
FIG. 17 is a flowchart showing an example of image correction processing using the learning model executed by the
In S1701, the
S1702において、表示制御部306は、ユーザによるモデル選択ボタン1502の押下を検知する。表示制御部306は、モデル選択ボタン1502の押下を検知すると、図15(c)に示すGUIの選択用画像領域1503に、各評価項目についての学習モデルを用いた補正画像の一覧を表示させる。例えば、表示制御部306は、複数の評価項目の中で目標画像の評価値と補正対象画像の評価値との差が大きい評価項目の順番に3つの評価項目に関連する補正画像を表示させる。なお、すべての評価項目について補正の度合いを選択できるように、すべての評価項目について補正に使用する学習モデルを異ならせた複数の補正画像を一覧表示するようにしてもよい。また、本実施形態では、選択用画像領域1503に評価項目毎に画像を3つずつ配置する。左側に第1の実施形態で説明したような学習モデルを適用して補正処理した画像、中央に過去の変換履歴を参照して取得した過去の変換に使用した学習済モデルを適用して補正処理した画像、右側にS1406の処理により作成した補正画像を配置する。なお、本実施形態では、評価項目毎に3つの変化させた画像を配置しているが、配置する画像の数はこれに限定されるものではない。準備する学習済モデル数やディスプレイの表示面積に合わせて拡大・縮小させて任意の数の画像を配置させてもよいし、配置する画像の数を指定させる手段をGUIに設けさせてもよい。
In S1702, the
S1703において、画像処理部305及び表示制御部306は、ユーザによって選択された画像に使用されている学習モデルを用いて補正対象画像に補正処理を適用し、補正処理を適用した画像をタッチパネルディスプレイ105に表示させる。具体的には、画像補正部305は、選択用画像領域1503に表示された画像のユーザからの選択指示に応じて、選択された画像に使用されている学習モデルを用いて補正処理を行い、補正対象画像の補正を行う。表示制御部306は、補正対象画像を補正処理して得られた画像を補正対象画像領域522に表示させる。
In S1703, the
画像処理部305及び表示制御部306は、S1704においてユーザからの適用ボタン521の押下が検知されるまでは、選択用画像領域1503に表示された画像がユーザにより選択される毎にS1703の処理を繰り返し行う。画像処理部305及び表示制御部306は、S1704においてユーザからの適用ボタン521の押下が検知されると、補正対象画像への補正処理の選択が完了したとみなしてS1705の処理へ進む。
The
S1705において、画像処理部305及び表示制御部306は、補正対象画像領域522に表示している補正済の画像を保存して、学習モデルを用いた画像補正処理を終了する。
In S1705, the
第3の実施形態によれば、画像の特徴に関わる任意の評価項目について目標画像の印象(風合い)に近づける補正処理を実行することができる。また、過去の変換履歴に基づいて複数の異なる評価項目毎に補正した画像を提示することにより、ユーザが補正対象画像をどのような画像に補正したいと所望している傾向を類推し、ユーザの好みに応じた補正画像を提示できる。 According to the third embodiment, it is possible to execute a correction process that brings the impression (texture) of the target image closer to any evaluation item related to the features of the image. In addition, by presenting an image corrected for each of a plurality of different evaluation items based on the past conversion history, it is possible to infer the tendency of the user to correct the image to be corrected to what kind of image the user wants to correct. A corrected image can be presented according to the preference.
[変形例]
前述した実施形態において、画像処理装置100のハードウェア構成は、図1(a)に示した構成に限られるものではなく、例えば、図1(b)に示すような構成であってもよい。図1(b)に示す画像処理装置100は、CPU101、ROM102、RAM103、VC(ビデオカード)111、汎用I/F114、及びSATA(シリアルATA)I/F118を有する。
[Modification example]
In the above-described embodiment, the hardware configuration of the
CPU101は、RAM103をワークメモリとして、ROM102や外部記憶装置110等に格納されたOS(オペレーティングシステム)や各種プログラムを実行することで、画像処理装置100の制御や各種処理を行う。例えば、CPU101は、システムバス108に接続された画像処理装置100の各構成を制御する。
The
汎用I/F114には、シリアルバス115を介して、マウスやキーボード等の入力デバイス116や撮像装置117が接続される。SATAI/F118には、シリアルバス119を介して、外部記憶装置110が接続される。VC111には、シリアルバス112を介して、ディスプレイ113が接続される。CPU101は、プログラムによって提供されるUI(ユーザインタフェース)をディスプレイ113に表示し、入力デバイス116を介して得られたユーザの指示を表す入力情報を受信する。
An
図1(b)に示した画像処理装置100は、例えば、デスクトップ型のPCによって実現される。なお、画像処理装置100は、撮像装置117と一体となったデジタルカメラや、ディスプレイ113と一体となったPCなどによって実現されてもよい。
The
また、前述した実施形態においては、画像処理装置100は、撮像部106としてアウトカメラ202とインカメラ201との2つのカメラを有していたが、撮像部106はこの例に限られない。例えば、画像処理装置100は、撮像部106としてアウトカメラ202のみを有する構成であってもよい。
Further, in the above-described embodiment, the
また、前述した実施形態における外部記憶装置110は、HDDとしたが、外部記憶装置110は、これに限られない。例えば、外部記憶装置110は、SSD(ソリッドステートドライブ)であってもよい。また、外部記憶装置110は、メディア(記録媒体)と、当該メディアへのアクセスを行うための外部記憶ドライブとによって実現されてもよい。メディアには、例えばフレキシブルディスク(FD)、CD−ROM、DVD、USBメモリ、MO、フラッシュメモリなどを用いることができる。
Further, although the
[その他の実施形態]
本発明は、前述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
[Other Embodiments]
The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or a device via a network or a storage medium, and one or more processors in the computer of the system or the device read and execute the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
なお、前記実施形態は、何れも本発明を実施するにあたっての具体化のほんの一例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。 It should be noted that the above-described embodiments are merely examples of embodiment of the present invention, and the technical scope of the present invention should not be construed in a limited manner by these. That is, the present invention can be implemented in various forms without departing from the technical idea or its main features.
100:画像処理装置 301:画像取得部 302:評価値取得部 303:学習用データ生成部 304:学習モデル生成部 305:画像補正部 306:表示制御部 100: Image processing device 301: Image acquisition unit 302: Evaluation value acquisition unit 303: Learning data generation unit 304: Learning model generation unit 305: Image correction unit 306: Display control unit
Claims (12)
取得した前記補正対象画像及び前記目標画像の評価値に基づいて学習用データを生成するデータ生成手段と、
生成した前記学習用データに基づいて前記補正処理に係る学習モデルを評価項目毎に生成するモデル生成手段と、
生成した評価項目毎の前記学習モデルのうちから選択した前記学習モデルを用いて前記補正対象画像を補正する画像補正手段とを有することを特徴とする画像処理装置。 An evaluation value acquisition means for acquiring evaluation values for each of a plurality of evaluation items for each of the correction target image to be corrected and the target image referred to in the correction processing.
A data generation means for generating learning data based on the acquired evaluation values of the correction target image and the target image, and
A model generation means for generating a learning model related to the correction process for each evaluation item based on the generated learning data, and
An image processing apparatus comprising: an image correction means for correcting an image to be corrected by using the learning model selected from the learning models for each of the generated evaluation items.
前記画像補正手段は、前記表示手段に一覧表示された補正画像のうちから選択された前記補正画像に対応する前記学習モデルを用いて前記補正対象画像を補正することを特徴とする請求項8に記載の画像処理装置。 The display control means causes the display means to display a list of corrected images using the learning model for each evaluation item.
8. The image correction means is characterized in that the correction target image is corrected by using the learning model corresponding to the correction image selected from the correction images listed in the display means. The image processing apparatus described.
取得した前記補正対象画像及び前記目標画像の評価値に基づいて学習用データを生成するデータ生成工程と、
生成した前記学習用データに基づいて前記補正処理に係る学習モデルを評価項目毎に生成するモデル生成工程と、
生成した評価項目毎の前記学習モデルのうちから選択した前記学習モデルを用いて前記補正対象画像を補正する画像補正工程とを有することを特徴とする画像処理方法。 An evaluation value acquisition process for acquiring evaluation values for each of a plurality of evaluation items for each of the correction target image to be corrected and the target image referred to in the correction processing.
A data generation step of generating learning data based on the acquired evaluation values of the correction target image and the target image, and
A model generation step of generating a learning model related to the correction process for each evaluation item based on the generated learning data, and
An image processing method comprising an image correction step of correcting the correction target image using the learning model selected from the learning models for each of the generated evaluation items.
取得した前記補正対象画像及び前記目標画像の評価値に基づいて学習用データを生成するデータ生成ステップと、
生成した前記学習用データに基づいて前記補正処理に係る学習モデルを評価項目毎に生成するモデル生成ステップと、
生成した評価項目毎の前記学習モデルのうちから選択した前記学習モデルを用いて前記補正対象画像を補正する画像補正ステップとをコンピュータに実行させるためのプログラム。 An evaluation value acquisition step for acquiring evaluation values for each of a plurality of evaluation items for each of the correction target image to be corrected and the target image referred to in the correction processing.
A data generation step of generating learning data based on the acquired evaluation values of the correction target image and the target image, and
A model generation step of generating a learning model related to the correction process for each evaluation item based on the generated learning data, and
A program for causing a computer to perform an image correction step of correcting the image to be corrected using the learning model selected from the learning models for each of the generated evaluation items.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019220428A JP2021089654A (en) | 2019-12-05 | 2019-12-05 | Image processing apparatus, image processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019220428A JP2021089654A (en) | 2019-12-05 | 2019-12-05 | Image processing apparatus, image processing method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021089654A true JP2021089654A (en) | 2021-06-10 |
Family
ID=76220289
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019220428A Pending JP2021089654A (en) | 2019-12-05 | 2019-12-05 | Image processing apparatus, image processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021089654A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023068126A1 (en) * | 2021-10-19 | 2023-04-27 | ソニーグループ株式会社 | Learning device, data processing device, parameter generation device, learning method, data processing method, and parameter generation method |
-
2019
- 2019-12-05 JP JP2019220428A patent/JP2021089654A/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023068126A1 (en) * | 2021-10-19 | 2023-04-27 | ソニーグループ株式会社 | Learning device, data processing device, parameter generation device, learning method, data processing method, and parameter generation method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6786850B2 (en) | Image processing equipment, image processing methods, image processing systems and programs | |
CN109844800B (en) | Virtual makeup device and virtual makeup method | |
JP4905552B2 (en) | Image quality adjustment capability measurement method, apparatus and program, and image quality adjustment method, apparatus and program | |
US9552650B2 (en) | Image combining apparatus, image combining method and recording medium storing control program for image combining apparatus | |
WO2016184206A1 (en) | Method and device for adjusting icon colors | |
US10602026B2 (en) | Image processing apparatus, image processing method, and non-transitory computer readable medium | |
US9786076B2 (en) | Image combining apparatus, image combining method and non-transitory computer readable medium for storing image combining program | |
JP6582472B2 (en) | Image processing apparatus, image processing system, and program | |
JP2021089654A (en) | Image processing apparatus, image processing method, and program | |
JP2007053543A (en) | Image processor and image processing method | |
EP2790396A1 (en) | Color extraction-based image processing method, computer-readable storage medium storing the same, and digital image apparatus | |
JP5824423B2 (en) | Illumination light color estimation device, illumination light color estimation method, and illumination light color estimation program | |
JP6497030B2 (en) | Imaging system, information processing apparatus, imaging method, program, storage medium | |
CN112150347A (en) | Image modification patterns learned from a limited set of modified images | |
JP5202190B2 (en) | Image processing method and image processing apparatus | |
CN108460823B (en) | Display method and system for rendering three-dimensional scene model | |
JP6337430B2 (en) | Image processing system, image processing method, and program | |
JP6958641B2 (en) | Image processing system, image processing method and program | |
JP2007151094A (en) | Tone-conversion device for image, program, electronic camera, and tone-conversion method | |
JP2020087118A (en) | Image processing device, image processing method and program | |
JP2022003445A (en) | Image processing device, image processing method, and program | |
JP6753145B2 (en) | Image processing equipment, image processing methods, image processing systems and programs | |
US10341531B2 (en) | Applying a perceptually uniform color space for image processing | |
JP6577766B2 (en) | Image processing device | |
JP2018142352A (en) | Image processing system, image processing method, and program |