JP2021089654A - Image processing apparatus, image processing method, and program - Google Patents

Image processing apparatus, image processing method, and program Download PDF

Info

Publication number
JP2021089654A
JP2021089654A JP2019220428A JP2019220428A JP2021089654A JP 2021089654 A JP2021089654 A JP 2021089654A JP 2019220428 A JP2019220428 A JP 2019220428A JP 2019220428 A JP2019220428 A JP 2019220428A JP 2021089654 A JP2021089654 A JP 2021089654A
Authority
JP
Japan
Prior art keywords
image
correction
target image
evaluation
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019220428A
Other languages
Japanese (ja)
Inventor
利幸 石井
Toshiyuki Ishii
利幸 石井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019220428A priority Critical patent/JP2021089654A/en
Publication of JP2021089654A publication Critical patent/JP2021089654A/en
Pending legal-status Critical Current

Links

Images

Abstract

To execute correction processing of bringing the feature of an image to be corrected closer to the feature of a target image in terms of an arbitrary item related to the feature of the image.SOLUTION: For an image to be corrected subjected to correction processing and a target image referred to in the correction processing, an evaluation value acquisition unit acquires evaluation values for a plurality of evaluation items. A data-for-learning generation unit generates data for learning based on the acquired evaluation values for the image to be corrected and the target image. A learning model generation unit generates learning models related to the correction processing for the evaluation items based on the generated data for learning. An image correction unit executes the correction processing of using a learning model selected from the learning models for evaluation items to correct the image to be corrected so as to bring the image to be corrected closer to the impression of the target image in terms of an arbitrary evaluation item.SELECTED DRAWING: Figure 3

Description

本発明は、画像処理装置、画像処理方法、及びプログラムに関する。 The present invention relates to an image processing apparatus, an image processing method, and a program.

近年、スマートフォンなど画像処理が可能な装置の普及により、画像の撮像後に補正処理を行い、撮像画像を加工・編集するユーザが増えている。画像に補正処理を行う際には、装置にインストールされた画像加工アプリ等を用いて、予め設定された風合いに加工することができるフィルタや、明度、彩度、コントラスト等に関するスライドバーを介した調整などを行うことが多い。特許文献1には、補正対象の画像に対して、他の画像(目標画像)の色空間の特徴を反映する技術が記載されている。 In recent years, with the spread of devices capable of image processing such as smartphones, an increasing number of users perform correction processing after capturing an image to process and edit the captured image. When performing correction processing on an image, a filter that can be processed to a preset texture using an image processing application installed on the device, and a slide bar related to brightness, saturation, contrast, etc. are used. Often make adjustments. Patent Document 1 describes a technique for reflecting the characteristics of the color space of another image (target image) with respect to the image to be corrected.

特開2015−226164号公報Japanese Unexamined Patent Publication No. 2015-226164

画像の特徴には、色合いのみに限らず、他にもコントラストやノイズ感などの様々な項目があり、補正対象の画像を目標画像の色空間に近づけたいとユーザが所望しているとは限らない。しかしながら、特許文献1に記載の技術では、画像の特徴に関わる様々な項目について補正対象の画像の特徴を目標画像の特徴に近づける補正処理を行うことはできなかった。本発明は、このような事情に鑑みてなされたものであり、画像の特徴に関わる任意の項目について補正対象の画像の特徴を目標画像の特徴に近づける補正処理を実行できるようにすることを目的とする。 The features of the image are not limited to the hue, but there are various other items such as contrast and noise, and the user does not always want to bring the image to be corrected closer to the color space of the target image. Absent. However, with the technique described in Patent Document 1, it is not possible to perform correction processing for bringing the features of the image to be corrected closer to the features of the target image for various items related to the features of the image. The present invention has been made in view of such circumstances, and an object of the present invention is to enable a correction process for bringing the characteristics of an image to be corrected closer to the characteristics of a target image for any item related to the characteristics of the image. And.

本発明に係る画像処理装置は、補正処理の対象とする補正対象画像と前記補正処理にて参照する目標画像とのそれぞれについて、複数の評価項目毎の評価値を取得する評価値取得手段と、取得した前記補正対象画像及び前記目標画像の評価値に基づいて学習用データを生成するデータ生成手段と、生成した前記学習用データに基づいて前記補正処理に係る学習モデルを評価項目毎に生成するモデル生成手段と、生成した評価項目毎の前記学習モデルのうちから選択した前記学習モデルを用いて前記補正対象画像を補正する画像補正手段とを有することを特徴とする。 The image processing apparatus according to the present invention includes an evaluation value acquisition means for acquiring evaluation values for each of a plurality of evaluation items for each of the correction target image to be corrected and the target image referred to in the correction processing. A data generation means for generating learning data based on the acquired evaluation values of the correction target image and the target image, and a learning model related to the correction processing based on the generated learning data are generated for each evaluation item. It is characterized by having a model generation means and an image correction means for correcting the correction target image by using the learning model selected from the learning models for each generated evaluation item.

本発明によれば、画像の特徴に関わる任意の項目について補正対象の画像の特徴を目標画像の特徴に近づける補正処理を実行することが可能となる。 According to the present invention, it is possible to execute a correction process for bringing the feature of the image to be corrected closer to the feature of the target image for any item related to the feature of the image.

画像処理装置100のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware composition of the image processing apparatus 100. 画像処理装置100の外観の一例を示す図である。It is a figure which shows an example of the appearance of the image processing apparatus 100. 画像処理装置100の機能構成の一例を示す図である。It is a figure which shows an example of the functional structure of the image processing apparatus 100. 第1の実施形態における画像処理装置100の処理例を示すフローチャートである。It is a flowchart which shows the processing example of the image processing apparatus 100 in 1st Embodiment. グラフィカルユーザインタフェースの一例を示す図である。It is a figure which shows an example of a graphical user interface. 第1の実施形態における評価値取得処理の例を示すフローチャートである。It is a flowchart which shows the example of the evaluation value acquisition processing in 1st Embodiment. ノイズの評価値を算出する処理の例を示すフローチャートである。It is a flowchart which shows the example of the process of calculating the evaluation value of noise. ヒストグラムの評価値を算出する処理の例を示すフローチャートである。It is a flowchart which shows the example of the process of calculating the evaluation value of a histogram. 第1の実施形態における学習用データの生成処理の例を示すフローチャートである。It is a flowchart which shows the example of the generation process of learning data in 1st Embodiment. 学習用データの生成処理を説明する図である。It is a figure explaining the generation process of learning data. 第1の実施形態における学習モデルを用いた画像補正処理の例を示すフローチャートである。It is a flowchart which shows the example of the image correction processing using the learning model in 1st Embodiment. 学習モデル生成部304での学習処理を説明する図である。It is a figure explaining the learning process in the learning model generation unit 304. 第2の実施形態における学習用データの生成処理の例を示すフローチャートである。It is a flowchart which shows the example of the generation process of learning data in 2nd Embodiment. 第3の実施形態における画像処理装置100の処理例を示すフローチャートである。It is a flowchart which shows the processing example of the image processing apparatus 100 in 3rd Embodiment. グラフィカルユーザインタフェースの一例を示す図である。It is a figure which shows an example of a graphical user interface. 第3の実施形態における学習モデルの生成処理の例を示すフローチャートである。It is a flowchart which shows the example of the generation process of the learning model in 3rd Embodiment. 第3の実施形態における学習モデルを用いた画像補正処理の例を示すフローチャートである。It is a flowchart which shows the example of the image correction processing using the learning model in 3rd Embodiment.

以下、本発明の実施形態を図面に基づいて説明する。なお、以下に説明する実施形態は一例であり、本発明を必ずしも限定するものではない。また、本実施形態において説明する構成のすべてが本発明の解決手段に必須のものとは限らない。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. The embodiments described below are examples, and do not necessarily limit the present invention. Moreover, not all of the configurations described in the present embodiment are indispensable for the means for solving the present invention.

[第1の実施形態]
本実施形態では、補正処理の対象とする画像に対して、補正対象とは異なるシーンにおいて撮像された他の画像に基づいて所望の画像処理を実行する例について説明する。
[First Embodiment]
In the present embodiment, an example will be described in which a desired image processing is executed on an image to be corrected based on another image captured in a scene different from the correction target.

<画像処理装置100のハードウェア構成>
図1(a)は、本実施形態における画像処理装置100のハードウェア構成の一例を示す図である。画像処理装置100は、例えばスマートフォンやタブレット端末やパーソナルコンピュータ(タブレットPCを含む)等により実現される。画像処理装置100は、CPU101、ROM102、RAM103、入出力インタフェース(I/F)104、タッチパネルディスプレイ105、撮像部106、及び通信I/F107を有する。
<Hardware configuration of image processing device 100>
FIG. 1A is a diagram showing an example of the hardware configuration of the image processing device 100 according to the present embodiment. The image processing device 100 is realized by, for example, a smartphone, a tablet terminal, a personal computer (including a tablet PC), or the like. The image processing device 100 includes a CPU 101, a ROM 102, a RAM 103, an input / output interface (I / F) 104, a touch panel display 105, an imaging unit 106, and a communication I / F 107.

CPU(central processing unit)101は、システムバス108に接続された画像処理装置100の各構成を制御する。ROM(read only memory)102は、書き換え可能な不揮発性メモリであり、画像処理装置100のプログラム、画像データ、学習モデル等を記憶する。RAM(random access memory)103は、CPU101の主メモリ又はワークメモリ等として機能する。CPU101は、RAM103をワークメモリとして、ROM102や外部記憶装置110等に格納されたOS(オペレーティングシステム)や各種プログラムを実行することで、画像処理装置100の制御や各種処理を行う。なお、後述するフローチャートに示す処理は、ROM102や外部記憶装置110等から読み出されてRAM103に展開されたプログラムを、CPU101が実行することにより実現される。 The CPU (central processing unit) 101 controls each configuration of the image processing device 100 connected to the system bus 108. The ROM (read only memory) 102 is a rewritable non-volatile memory, and stores a program, image data, a learning model, and the like of the image processing device 100. The RAM (random access memory) 103 functions as a main memory, a work memory, or the like of the CPU 101. The CPU 101 uses the RAM 103 as a work memory to execute an OS (operating system) and various programs stored in the ROM 102, the external storage device 110, and the like to control the image processing device 100 and perform various processes. The process shown in the flowchart described later is realized by the CPU 101 executing a program read from the ROM 102, the external storage device 110, or the like and expanded in the RAM 103.

入出力I/F104には、シリアルバス109を介して、外部記憶装置110が接続される。外部記憶装置110は、例えばHDD(ハードディスクドライブ)であり、プログラムや画像データ等を記憶する。タッチパネルディスプレイ105は、画像等の表示を行うディスプレイと、指などの指示体によるタッチの位置を検出するタッチパネルとが一体となった入出力部である。なお、タッチパネルディスプレイ105に対応するように、画像等の表示を行う表示部とユーザからの入力を受け付ける入力部とを分けて設けるように構成されていてもよい。撮像部106は、撮像対象の画像を取得する撮像部である。通信I/F107は、他の装置等との間で有線又は無線による双方向の通信を行う。本実施形態における通信I/F107は、無線LAN(ローカルエリアネットワーク)を介して通信相手とのデータの送受信が可能である。また、通信I/F107は、他の通信機器との間では直接の通信以外に中継装置を介した間接的な通信も可能である。 An external storage device 110 is connected to the input / output I / F 104 via the serial bus 109. The external storage device 110 is, for example, an HDD (hard disk drive) and stores programs, image data, and the like. The touch panel display 105 is an input / output unit in which a display for displaying an image or the like and a touch panel for detecting the position of touch by an indicator such as a finger are integrated. In addition, in order to correspond to the touch panel display 105, the display unit for displaying an image or the like and the input unit for receiving input from the user may be provided separately. The imaging unit 106 is an imaging unit that acquires an image to be imaged. The communication I / F 107 performs two-way communication by wire or wireless with another device or the like. The communication I / F 107 in this embodiment can send and receive data to and from a communication partner via a wireless LAN (local area network). Further, the communication I / F 107 can perform indirect communication with other communication devices in addition to direct communication via a relay device.

図2に、本実施形態における画像処理装置100の外観の一例を示す。図2(a)は、画像処理装置100のタッチパネルディスプレイ105を有する側の面(以下、ディスプレイ面と呼ぶ)を示す図である。図2(b)は、画像処理装置100のディスプレイ面とは反対側の面(以下、背面と呼ぶ)を示す図である。本実施形態における画像処理装置100は、撮像部106として、画像処理装置100のディスプレイ面に備えられるインカメラ201と、画像処理装置100の背面に備えられるアウトカメラ202とを有する。インカメラ201は、ディスプレイ(表示画面)を閲覧するユーザの顔を撮像可能な位置及び方向に設置されている。 FIG. 2 shows an example of the appearance of the image processing device 100 according to the present embodiment. FIG. 2A is a diagram showing a surface (hereinafter, referred to as a display surface) of the image processing device 100 on the side having the touch panel display 105. FIG. 2B is a diagram showing a surface (hereinafter, referred to as a back surface) opposite to the display surface of the image processing device 100. The image processing device 100 in the present embodiment has an in-camera 201 provided on the display surface of the image processing device 100 and an out-camera 202 provided on the back surface of the image processing device 100 as the image pickup unit 106. The in-camera 201 is installed at a position and a direction in which the face of the user who browses the display (display screen) can be imaged.

<画像処理装置100の機能構成>
図3は、本実施形態における画像処理装置100の機能構成の一例を示すブロック図である。画像処理装置100は、CPU101がRAM103をワークメモリとして用いて、ROM102等に格納されたプログラムを実行することによって、図3に示す各機能部の機能を実現する。なお、以下に説明する機能部の一部又はすべてが、CPU101以外の1つ又は複数の処理回路によって実現されるように画像処理装置100が構成されていてもよい。
<Functional configuration of image processing device 100>
FIG. 3 is a block diagram showing an example of the functional configuration of the image processing device 100 according to the present embodiment. The image processing device 100 realizes the functions of the functional units shown in FIG. 3 by executing the program stored in the ROM 102 or the like by the CPU 101 using the RAM 103 as the work memory. The image processing apparatus 100 may be configured so that a part or all of the functional units described below are realized by one or a plurality of processing circuits other than the CPU 101.

画像処理装置100は、画像取得部301、評価値取得部302、学習用データ生成部303、学習モデル生成部304、画像補正部305、及び表示制御部306を有する。画像取得部301は、補正対象画像と目標画像とを取得する。補正対象画像は補正処理の対象とする画像であり、目標画像は補正対象画像を補正する際に目標として参照する画像である。補正対象画像と目標画像とは、例えば異なるシーンで撮像された画像である。 The image processing device 100 includes an image acquisition unit 301, an evaluation value acquisition unit 302, a learning data generation unit 303, a learning model generation unit 304, an image correction unit 305, and a display control unit 306. The image acquisition unit 301 acquires the correction target image and the target image. The correction target image is an image to be corrected, and the target image is an image to be referred to as a target when the correction target image is corrected. The correction target image and the target image are, for example, images captured in different scenes.

評価値取得部302は、画像取得部301で取得された補正対象画像及び目標画像をそれぞれ解析して、画像の特徴に関わる複数の異なる評価項目毎に各画像の評価値を取得する。一例として評価値取得部302は、画像の特徴を表す評価値として、色み、ノイズ、及びヒストグラムの各項目について評価値を取得するものとする。なお、評価値取得部302で取得する評価値は、これに限定されるものではなく、他の項目の評価値を取得するようにしてもよく、例えば光沢やコントラスト等の評価値を取得するようにしてもよい。 The evaluation value acquisition unit 302 analyzes each of the correction target image and the target image acquired by the image acquisition unit 301, and acquires the evaluation value of each image for each of a plurality of different evaluation items related to the characteristics of the image. As an example, the evaluation value acquisition unit 302 acquires evaluation values for each item of color, noise, and histogram as evaluation values representing the features of the image. The evaluation value acquired by the evaluation value acquisition unit 302 is not limited to this, and evaluation values of other items may be acquired, for example, evaluation values such as gloss and contrast may be acquired. You may do it.

学習用データ生成部303は、評価値取得部302で取得した評価値に基づいて補正処理に係る学習モデルの生成に使用する学習用データを生成する。学習モデル生成部304は、学習用データ生成部303で生成した学習用データを用いて学習処理を行い、補正処理に係る学習モデルを生成する。画像補正部305は、画像取得部301で取得した補正対象画像を学習モデル生成部304で生成した学習モデルを用いて補正する。表示制御部306は、処理に必要な情報をユーザに入力してもらうためのユーザインタフェースや補正処理に係る画像等の表示を制御する。 The learning data generation unit 303 generates learning data to be used for generating a learning model related to the correction process based on the evaluation value acquired by the evaluation value acquisition unit 302. The learning model generation unit 304 performs learning processing using the learning data generated by the learning data generation unit 303, and generates a learning model related to the correction processing. The image correction unit 305 corrects the correction target image acquired by the image acquisition unit 301 by using the learning model generated by the learning model generation unit 304. The display control unit 306 controls the display of a user interface for having the user input information necessary for processing, an image related to correction processing, and the like.

<画像処理装置100が実行する処理>
図4は、本実施形態における画像処理装置100の処理例を示すフローチャートである。CPU101が、ROM102等からプログラムを読み出して実行することで、図4に示すフローチャートの各処理が実現される。以下、各ステップ(工程)は符号の先頭に“S”を付して表す。
<Processing executed by the image processing device 100>
FIG. 4 is a flowchart showing a processing example of the image processing apparatus 100 according to the present embodiment. When the CPU 101 reads the program from the ROM 102 or the like and executes it, each process of the flowchart shown in FIG. 4 is realized. Hereinafter, each step (step) is represented by adding "S" to the beginning of the reference numeral.

S401において、表示制御部306は、処理に必要な情報をユーザに入力してもらうためのグラフィカルユーザインタフェース(GUI:Graphical User Interface)を、タッチパネルディスプレイ105に表示させる。また、表示制御部306は、GUIを介したユーザからの指示を受け付ける。図5に、本実施形態における画像処理装置100において、タッチパネルディスプレイ105に表示されるGUIの一例を示す。 In S401, the display control unit 306 causes the touch panel display 105 to display a graphical user interface (GUI: Graphical User Interface) for having the user input information necessary for processing. Further, the display control unit 306 receives an instruction from the user via the GUI. FIG. 5 shows an example of the GUI displayed on the touch panel display 105 in the image processing device 100 according to the present embodiment.

表示制御部306は、まず、補正処理において補正する画像(補正対象画像)の選択を受け付けるための図5(a)に示すGUIをタッチパネルディスプレイ105に表示させる。補正対象画像の選択領域502には、補正対象画像の候補である複数の画像が表示される。選択領域502に表示されている画像のうちの何れかの画像に対してユーザによるタッチ操作が行われると、タッチパネルディスプレイ105は、タッチ操作により指定された画像を検知して、表示制御部306に指定された画像を示す情報を送信する。また、フォルダ指定ボタン503は、画像が保存されたフォルダの選択及び指定を受け付けるためのボタンである。フォルダ指定ボタン503がユーザにより押下され、それが検知されると、表示制御部306は、画像が保存されているフォルダ候補を選択可能なように表示させる。さらに、表示制御部306は、ユーザのタッチ操作等によるフォルダの指定を受け付けると、指定されたフォルダに格納された画像を選択領域502に表示させる。このようにして表示制御部306は、ユーザからの指示に応じて選択領域502に補正対象画像の候補となる画像を表示しながら、ユーザによる補正対象画像の指定を受け付ける。移動ボタン501は、次のメニュー(目標画像を選択するメニュー)に進む指示をユーザから受け付けるためのボタンである。補正対象画像の指定が完了すると、ユーザによる移動ボタン501の押下が可能となる。 First, the display control unit 306 causes the touch panel display 105 to display the GUI shown in FIG. 5A for accepting the selection of the image to be corrected (correction target image) in the correction process. In the correction target image selection area 502, a plurality of images that are candidates for the correction target image are displayed. When a user touches any of the images displayed in the selection area 502, the touch panel display 105 detects the image specified by the touch operation and causes the display control unit 306 to perform a touch operation. Sends information indicating the specified image. Further, the folder designation button 503 is a button for accepting the selection and designation of the folder in which the image is saved. When the folder designation button 503 is pressed by the user and it is detected, the display control unit 306 displays the folder candidates in which the images are stored so that they can be selected. Further, when the display control unit 306 receives the designation of the folder by the user's touch operation or the like, the display control unit 306 displays the image stored in the designated folder in the selection area 502. In this way, the display control unit 306 accepts the user's designation of the correction target image while displaying the image that is a candidate for the correction target image in the selection area 502 in response to the instruction from the user. The move button 501 is a button for receiving an instruction from the user to proceed to the next menu (menu for selecting a target image). When the specification of the image to be corrected is completed, the user can press the move button 501.

移動ボタン501がユーザにより押下され、それが検知されると、次に、表示制御部306は、補正処理において目標として参照する画像(目標画像)の選択を受け付けるための図5(b)に示すGUIを表示させる。目標画像の選択領域512には、目標画像の候補となる複数の画像が表示される。補正対象画像の場合と同様にして、タッチパネルディスプレイ105を介してユーザにより指定された画像を示す情報が表示制御部306に送信され、表示制御部306は、ユーザによる目標画像の指定を受け付ける。フォルダ指定ボタン513は、図5(a)に示したフォルダ指定ボタン503と同様に、画像が保存されたフォルダの選択及び指定を受け付けるためのボタンである。移動ボタン511は、次のメニュー(補正対象画像に対する補正処理を実行するメニュー)に進む指示をユーザから受け付けるためのボタンである。目標画像の指定が完了すると、ユーザによる移動ボタン511の押下が可能となる。 When the move button 501 is pressed by the user and is detected, the display control unit 306 then shows in FIG. 5 (b) for accepting the selection of the image (target image) to be referred to as the target in the correction process. Display the GUI. In the target image selection area 512, a plurality of images that are candidates for the target image are displayed. Similar to the case of the correction target image, information indicating the image designated by the user is transmitted to the display control unit 306 via the touch panel display 105, and the display control unit 306 accepts the user to specify the target image. The folder designation button 513 is a button for accepting selection and designation of a folder in which an image is saved, similar to the folder designation button 503 shown in FIG. 5 (a). The move button 511 is a button for receiving an instruction from the user to proceed to the next menu (a menu for executing the correction process for the image to be corrected). When the designation of the target image is completed, the user can press the move button 511.

移動ボタン511が押下され、それが検知されると、表示制御部306は、図5(c)に示すGUIをタッチパネルディスプレイ105に表示させる。図5(c)に示すGUIにおいて、補正対象画像領域522が表示されている。補正対象画像領域522には、補正処理前又は補正処理後の補正対象画像が表示される。補正適用ボタン521は、補正対象画像に対する補正処理の適用を指示するためのボタンである。補正適用ボタン521がユーザにより押下されると、画像処理装置100は、図4に示したS402以降の処理を開始する。なお、元に戻すボタン523は、補正処理後の画像を補正処理前の画像に戻すためのボタンである。 When the move button 511 is pressed and detected, the display control unit 306 displays the GUI shown in FIG. 5C on the touch panel display 105. In the GUI shown in FIG. 5C, the correction target image area 522 is displayed. In the correction target image area 522, the correction target image before or after the correction processing is displayed. The correction application button 521 is a button for instructing the application of the correction process to the image to be corrected. When the correction application button 521 is pressed by the user, the image processing device 100 starts the processing after S402 shown in FIG. The restore button 523 is a button for returning the image after the correction process to the image before the correction process.

なお、図5(a)及び図5(b)に示した例においては、補正対象画像の選択領域502及び目標画像の選択領域512に、それぞれ9枚までの画像を一覧表示することが可能である。しかし、選択領域502、512に表示可能な画像の数は、これに限定されるものではなく、任意である。また、指定されたフォルダに格納されている画像の数が選択領域502、512に表示可能な画像数より多い場合には、選択領域502、512に対するユーザによるスライド(スワイプ)操作等に応じて表示する画像を適宜切り替えるようにすればよい。 In the examples shown in FIGS. 5A and 5B, up to 9 images can be displayed in a list in the selection area 502 of the correction target image and the selection area 512 of the target image, respectively. is there. However, the number of images that can be displayed in the selection areas 502 and 512 is not limited to this, and is arbitrary. If the number of images stored in the specified folder is larger than the number of images that can be displayed in the selection areas 502 and 512, the images are displayed according to the user's slide (swipe) operation on the selection areas 502 and 512. The image to be displayed may be switched as appropriate.

図4に戻り、S402において、画像取得部301は、補正対象画像の画像データを取得する。画像取得部301は、表示制御部306からユーザの指示により補正対象画像として指定された画像を特定する情報を受け付けると、補正対象画像として指定された画像の画像データが格納された場所を特定し、ROM102から画像データを読み出す。 Returning to FIG. 4, in S402, the image acquisition unit 301 acquires the image data of the image to be corrected. When the image acquisition unit 301 receives the information for specifying the image designated as the correction target image from the display control unit 306 according to the user's instruction, the image acquisition unit 301 specifies the location where the image data of the image designated as the correction target image is stored. , Read image data from ROM 102.

S403において、画像取得部301は、目標画像の画像データを取得する。画像取得部301は、表示制御部306からユーザの指示により目標画像として指定された画像を特定する情報を受け付けると、目標画像として指定された画像の画像データが格納された場所を特定し、ROM102から画像データを読み出す。 In S403, the image acquisition unit 301 acquires the image data of the target image. When the image acquisition unit 301 receives the information for specifying the image designated as the target image from the display control unit 306 according to the user's instruction, the image acquisition unit 301 identifies the place where the image data of the image designated as the target image is stored, and ROM 102. Read the image data from.

ここでは、補正対象画像及び目標画像のそれぞれの画像データは、R(レッド)、G(グリーン)、B(ブルー)の各色の画像データからなるものとする。各色の画像データは、画素毎に8ビットの画素値からなる画像を表すデータであるとする。なお、これは一例であり、補正対象画像及び目標画像の画像データは、これに限定されるものではない。また、S402の処理とS403の処理とを実行する順序は任意であり、S404の処理を開始する前に、補正対象画像及び目標画像のそれぞれの画像データが取得されていればよい。 Here, it is assumed that the image data of the image to be corrected and the target image are composed of image data of each color of R (red), G (green), and B (blue). It is assumed that the image data of each color is data representing an image consisting of 8-bit pixel values for each pixel. Note that this is an example, and the image data of the correction target image and the target image is not limited to this. Further, the order in which the processing of S402 and the processing of S403 are executed is arbitrary, and it is sufficient that the image data of the correction target image and the target image are acquired before the processing of S404 is started.

S404において、評価値取得部302は、S402で読み出された補正対象画像の画像データ及びS403で読み出された目標画像の画像データを用いて評価値取得処理を行い、補正対象画像及び目標画像のそれぞれについて評価値を取得する。ここで、評価値取得部302は、複数の同じ項目に関して補正対象画像及び目標画像の評価値を算出することで、複数の異なる評価項目毎の評価値を取得する。本実施形態では、前述したように、一例として画像の色み、ノイズ、及びヒストグラムの評価値を取得する。このS404において評価値取得部302により実行される評価値取得処理の詳細については後述する。 In S404, the evaluation value acquisition unit 302 performs an evaluation value acquisition process using the image data of the correction target image read in S402 and the image data of the target image read in S403, and performs the correction target image and the target image. Get the evaluation value for each of. Here, the evaluation value acquisition unit 302 acquires the evaluation values for each of a plurality of different evaluation items by calculating the evaluation values of the correction target image and the target image for a plurality of the same items. In the present embodiment, as described above, the evaluation values of the color, noise, and histogram of the image are acquired as an example. The details of the evaluation value acquisition process executed by the evaluation value acquisition unit 302 in S404 will be described later.

S405において、学習用データ生成部303は、学習用データの生成処理を行い、S404で取得された補正対象画像及び目標画像の評価値に基づいて、評価項目毎に学習用データを生成する。学習用データ生成部303は、評価項目別に、変換前の画像データと変換後の画像データとを対とする複数組のデータを生成して学習用データセットとしてROM102等に保存する。このS405において学習用データ生成部303により実行される学習用データの生成処理の詳細については後述する。 In S405, the learning data generation unit 303 performs a learning data generation process, and generates learning data for each evaluation item based on the evaluation values of the correction target image and the target image acquired in S404. The learning data generation unit 303 generates a plurality of sets of data in which the image data before conversion and the image data after conversion are paired for each evaluation item, and stores the data as a learning data set in the ROM 102 or the like. The details of the learning data generation process executed by the learning data generation unit 303 in S405 will be described later.

S406において、学習モデル生成部304及び画像補正部305は、学習モデルを用いた画像補正処理を行う。学習モデルを用いた画像補正処理では、学習モデル生成部304は、S405で生成された学習用データに基づいて評価項目別に学習モデルを生成する。また、画像補正部305は、学習モデル生成部304により生成された学習モデルを用いて補正処理を行い、S402で取得された補正対象画像を補正する。このS406において学習モデル生成部304及び画像補正部305により実行される学習モデルを用いた画像補正処理の詳細については後述する。 In S406, the learning model generation unit 304 and the image correction unit 305 perform image correction processing using the learning model. In the image correction process using the learning model, the learning model generation unit 304 generates a learning model for each evaluation item based on the learning data generated in S405. Further, the image correction unit 305 performs correction processing using the learning model generated by the learning model generation unit 304, and corrects the correction target image acquired in S402. Details of the image correction process using the learning model executed by the learning model generation unit 304 and the image correction unit 305 in S406 will be described later.

S407において、表示制御部306は、S406で補正対象画像を補正処理して得られた画像(補正された補正対象画像)をタッチパネルディスプレイ105に表示させる。そして、画像処理装置100は処理を終了する。 In S407, the display control unit 306 causes the touch panel display 105 to display the image (corrected correction target image) obtained by correcting the correction target image in S406. Then, the image processing device 100 ends the processing.

<評価値取得処理(S404)>
図6は、図4に示したS404において評価値取得部302が実行する評価値取得処理の例を示すフローチャートである。
<Evaluation value acquisition process (S404)>
FIG. 6 is a flowchart showing an example of the evaluation value acquisition process executed by the evaluation value acquisition unit 302 in S404 shown in FIG.

S601において、評価値取得部302は、補正対象画像及び目標画像のそれぞれについて、画像の色みに関する評価値を算出する。本実施形態において評価値取得部302は、補正対象画像及び目標画像のそれぞれにおける色度値を、色みに関する評価値として算出する。具体的には、評価値取得部302は、まず、各画像における全画素の画素値を色毎に平均する。次に、評価値取得部302は、sRGBやAdobeRGBなどの所定の変換式を用いて各色の平均値をXYZ値に変換し、さらにCIECAM02の色度値a(赤−緑)、b(黄−青)を用いてXYZ値を色度値に変換する。なお、色みに関する評価値は、画像全体の色みではなく、光源の色みに関する評価値を算出するようにしてもよい。例えば、入力される画像から輝度成分についてヒストグラムを作成し、ヒストグラムでの上位側から5%の画素値の平均値に基づいて評価値を算出してもよい。あるいは、XYZ値から色度値への変換として、CIE−xy色度値やCIE−Labの色度値a、bを用いてもよい。 In S601, the evaluation value acquisition unit 302 calculates an evaluation value regarding the color of the image for each of the correction target image and the target image. In the present embodiment, the evaluation value acquisition unit 302 calculates the chromaticity value in each of the correction target image and the target image as the evaluation value related to the tint. Specifically, the evaluation value acquisition unit 302 first averages the pixel values of all the pixels in each image for each color. Next, the evaluation value acquisition unit 302 converts the average value of each color into an XYZ value using a predetermined conversion formula such as sRGB or AdobeRGB, and further converts the chromaticity values a (red-green) and b (yellow-) of CIECAM02. Blue) is used to convert the XYZ value to a chromaticity value. As the evaluation value related to the color tint, the evaluation value related to the tint of the light source may be calculated instead of the tint of the entire image. For example, a histogram may be created for the luminance component from the input image, and the evaluation value may be calculated based on the average value of the pixel values of 5% from the upper side of the histogram. Alternatively, as the conversion from the XYZ value to the chromaticity value, the CIE-xy chromaticity value or the chromaticity values a and b of the CIE-Lab may be used.

S602において、評価値取得部302は、補正対象画像及び目標画像のそれぞれについて、図7に示す処理を行ってノイズに関する評価値を算出する。図7は、ノイズの評価値を算出する処理の例を示すフローチャートである。 In S602, the evaluation value acquisition unit 302 performs the processing shown in FIG. 7 for each of the correction target image and the target image to calculate the evaluation value related to noise. FIG. 7 is a flowchart showing an example of processing for calculating the evaluation value of noise.

S701において、評価値取得部302は、補正対象画像及び目標画像のそれぞれに対して、各画素の画素値をsRGB変換式とCIE−Lab変換式を用いて明度値L*(x,y)に変換する。さらに、評価値取得部302は、明度値L*(x,y)を式(1)によりフーリエ変換して空間周波数特性F(u,v)を算出する。式(1)において、Mは評価値の算出対象の画像における横方向の画素数であり、Nは評価値の算出対象の画像における縦方向の画素数である。 In S701, the evaluation value acquisition unit 302 converts the pixel value of each pixel into a brightness value L * (x, y) for each of the correction target image and the target image by using the sRGB conversion formula and the CIE-Lab conversion formula. Convert. Further, the evaluation value acquisition unit 302 calculates the spatial frequency characteristic F (u, v) by Fourier transforming the brightness value L * (x, y) by the equation (1). In the formula (1), M is the number of pixels in the horizontal direction in the image for which the evaluation value is calculated, and N is the number of pixels in the vertical direction in the image for which the evaluation value is calculated.

Figure 2021089654
Figure 2021089654

次に、S702において、評価値取得部302は、S701で算出した空間周波数特性F(u,v)に所望の帯域フィルタをかけ、式(2)に基づいてウィーナースペクトルWS(u,v)を算出する。式(2)において、BPF(u,v)は、2次元の画像ノイズを評価するために用いられる帯域フィルタである。本実施形態において評価値取得部302は、高周波帯域用フィルタ(BPFHigh)と低周波帯域用フィルタ(BPFLow)を用いて2つの帯域についてノイズの評価値を算出するが、これに限定されるものではなく、帯域フィルタは3つ以上用いてもよい。 Next, in S702, the evaluation value acquisition unit 302 applies a desired band filter to the spatial frequency characteristic F (u, v) calculated in S701, and obtains the Wiener spectrum WS (u, v) based on the equation (2). calculate. In equation (2), BPF (u, v) is a band filter used to evaluate two-dimensional image noise. In the present embodiment, the evaluation value acquisition unit 302 calculates the noise evaluation value for two bands by using the high frequency band filter (BPF High ) and the low frequency band filter (BPF Low), but the evaluation value acquisition unit 302 is limited to this. Instead, three or more band filters may be used.

Figure 2021089654
Figure 2021089654

次に、S703において、評価値取得部302は、周波数帯域毎に、S702で算出したウィーナースペクトルWS(u,v)の積分値を算出し、積分値をノイズの評価値とする。ノイズの評価値は、評価値が大きいほど、画像に2次元の画像ノイズが多く含まれることを表す。
次に、S704において、評価値取得部302は、S703で算出したノイズの評価値を周波数帯域毎に保存して、図7に示す処理を終了する。
Next, in S703, the evaluation value acquisition unit 302 calculates the integrated value of the Wiener spectrum WS (u, v) calculated in S702 for each frequency band, and uses the integrated value as the noise evaluation value. The noise evaluation value indicates that the larger the evaluation value, the more two-dimensional image noise is contained in the image.
Next, in S704, the evaluation value acquisition unit 302 saves the evaluation value of noise calculated in S703 for each frequency band, and ends the process shown in FIG. 7.

図6に戻り、S603において、評価値取得部302は、補正対象画像及び目標画像のそれぞれについて、図8に示す処理を行って画像のヒストグラムに関する評価値を算出する。図8は、ヒストグラムの評価値を算出する処理の例を示すフローチャートである。 Returning to FIG. 6, in S603, the evaluation value acquisition unit 302 performs the processing shown in FIG. 8 for each of the correction target image and the target image to calculate the evaluation value related to the histogram of the image. FIG. 8 is a flowchart showing an example of processing for calculating the evaluation value of the histogram.

S801において、評価値取得部302は、補正対象画像及び目標画像のそれぞれにおける各画素の画素値を明度値に変換する。
次に、S802において、評価値取得部302は、補正対象画像及び目標画像のそれぞれについて、S801で算出した各画素の明度値に基づいて、明度値のヒストグラムの特徴量として歪度及び尖度を算出する。評価値取得部302は、式(3)を用いて歪度を算出し、式(4)を用いて尖度を算出する。
In S801, the evaluation value acquisition unit 302 converts the pixel value of each pixel in each of the correction target image and the target image into a brightness value.
Next, in S802, the evaluation value acquisition unit 302 sets the skewness and kurtosis as the feature amount of the histogram of the brightness value for each of the correction target image and the target image based on the brightness value of each pixel calculated in S801. calculate. The evaluation value acquisition unit 302 calculates the skewness using the equation (3) and calculates the kurtosis using the equation (4).

Figure 2021089654
Figure 2021089654

次に、S803において、評価値取得部302は、S802で算出した歪度と尖度とをヒストグラムの評価値として保存して、図8に示す処理を終了する。 Next, in S803, the evaluation value acquisition unit 302 saves the skewness and kurtosis calculated in S802 as the evaluation values of the histogram, and ends the process shown in FIG.

評価値取得部302は、前述のようにして、画像の色み、ノイズ、及びヒストグラムの評価値をそれぞれ算出すると、評価値取得処理を終了する。なお、図6に示した例では、画像の色み(S601)、ノイズ(S602)、ヒストグラム(S603)の順に評価値を算出するようにしているが、これに限定されるものではない。評価値取得処理において、画像の色み、ノイズ、及びヒストグラムの評価値が取得できればよく、評価値を算出する順序は任意である。すなわち、図6に示したS601の処理、S602の処理、S603の処理を実行する順序は、順不同である。 When the evaluation value acquisition unit 302 calculates the color, noise, and the evaluation value of the histogram as described above, the evaluation value acquisition process ends. In the example shown in FIG. 6, the evaluation values are calculated in the order of image color (S601), noise (S602), and histogram (S603), but the evaluation value is not limited to this. In the evaluation value acquisition process, it suffices if the color, noise, and histogram evaluation values of the image can be acquired, and the order in which the evaluation values are calculated is arbitrary. That is, the order in which the processing of S601, the processing of S602, and the processing of S603 shown in FIG. 6 are executed is in no particular order.

<学習用データの生成処理(S405)>
図9は、図4に示したS405において学習用データ生成部303が実行する学習用データの生成処理の例を示すフローチャートである。また、図10は、学習用データ生成部303が実行する処理を模式的に表した図である。
<Learning data generation process (S405)>
FIG. 9 is a flowchart showing an example of the learning data generation process executed by the learning data generation unit 303 in S405 shown in FIG. Further, FIG. 10 is a diagram schematically showing a process executed by the learning data generation unit 303.

図10に示すように、学習用データの生成処理では、学習用データ生成部303は、まず学習用の画像データベース(DB)1001の中から色み、ノイズ、ヒストグラムの評価項目毎に、補正対象画像の評価値に近い画像をそれぞれ抽出する。学習用データ生成部303は、補正対象画像の色みの評価値に基づいて、学習用の画像DB1001から色みに関して近似する評価値を有する複数の画像1011を抽出する。また、学習用データ生成部303は、補正対象画像のノイズの評価値に基づいて、学習用の画像DB1001からノイズに関して近似する評価値を有する複数の画像1021を抽出する。また、学習用データ生成部303は、補正対象画像のヒストグラムの評価値に基づいて、学習用の画像DB1001からヒストグラムに関して近似する評価値を有する複数の画像1031を抽出する。 As shown in FIG. 10, in the learning data generation process, the learning data generation unit 303 first corrects each of the evaluation items of color, noise, and histogram from the image database (DB) 1001 for learning. Each image that is close to the evaluation value of the image is extracted. The learning data generation unit 303 extracts a plurality of images 1011 having evaluation values similar to each other in terms of color from the image DB 1001 for learning based on the evaluation values of the color of the image to be corrected. Further, the learning data generation unit 303 extracts a plurality of images 1021 having evaluation values approximated with respect to noise from the learning image DB 1001 based on the evaluation value of the noise of the image to be corrected. Further, the learning data generation unit 303 extracts a plurality of images 1031 having evaluation values approximated with respect to the histogram from the learning image DB 1001 based on the evaluation values of the histogram of the image to be corrected.

学習用データ生成部303は、画像データベース(DB)1001から画像を抽出した後、抽出した画像に対して目標画像の評価値に近似するように変換処理を行う。そして、学習用データ生成部303は、変換前の画像と変換後の画像との対を1つの組として複数組の学習用データを生成し学習用データセットとして保存する。学習用データ生成部303は、複数の画像1011のそれぞれについて、目標画像の色みの評価値に基づいて変換処理し、元の画像1011と変換処理後の画像1012とを対とする複数組のデータを生成する。また、学習用データ生成部303は、複数の画像1021のそれぞれについて、目標画像のノイズの評価値に基づいて変換処理し、元の画像1021と変換処理後の画像1022とを対とする複数組のデータを生成する。また、学習用データ生成部303は、複数の画像1031のそれぞれについて、目標画像のヒストグラムの評価値に基づいて変換処理し、元の画像1031と変換処理後の画像1032とを対とする複数組のデータを生成する。このような学習用データの生成処理を行うことで、補正対象画像を目標画像の印象に近づける際の変換精度を向上させることができる。以下、処理の詳細を説明する。 The learning data generation unit 303 extracts an image from the image database (DB) 1001 and then performs a conversion process on the extracted image so as to approximate the evaluation value of the target image. Then, the learning data generation unit 303 generates a plurality of sets of learning data with a pair of the image before conversion and the image after conversion as one set, and saves it as a learning data set. The learning data generation unit 303 performs conversion processing on each of the plurality of images 1011 based on the evaluation value of the color of the target image, and sets a plurality of sets of the original image 1011 and the converted image 1012 as a pair. Generate data. Further, the learning data generation unit 303 converts each of the plurality of images 1021 based on the evaluation value of the noise of the target image, and sets a plurality of pairs of the original image 1021 and the converted image 1022. Generate data for. Further, the learning data generation unit 303 performs conversion processing on each of the plurality of images 1031 based on the evaluation value of the histogram of the target image, and a plurality of sets of the original image 1031 and the image 1032 after the conversion processing as a pair. Generate data for. By performing such learning data generation processing, it is possible to improve the conversion accuracy when the image to be corrected is brought closer to the impression of the target image. The details of the process will be described below.

図9のS901において、学習用データ生成部303は、図4に示したS404で評価値取得部302により取得された評価項目毎の補正対象画像と目標画像の評価値を取得する。
S902において、学習用データ生成部303は、学習用の画像データとして予め準備した画像データ群を取得する。なお、本実施形態では、一例として人物や風景画像、スポーツや趣味、食品など多様なカテゴリの画像を10000枚予め準備し保持させるが、ユーザの趣向に応じて特定のカテゴリの画像を保持させてもよいし、準備する画像の数もこれに制限されない。補正対象画像のカテゴリに合致し、画像の数が多いほど変換精度を向上させることができる。なお、S901の処理及びS902の処理を実行する順序は順不同であり、次のS903の処理を開始する前に実行されていればよい。
In S901 of FIG. 9, the learning data generation unit 303 acquires the evaluation values of the correction target image and the target image for each evaluation item acquired by the evaluation value acquisition unit 302 in S404 shown in FIG.
In S902, the learning data generation unit 303 acquires an image data group prepared in advance as image data for learning. In the present embodiment, as an example, 10,000 images of various categories such as people, landscape images, sports, hobbies, and foods are prepared and held in advance, but images of a specific category are held according to the user's taste. However, the number of images to be prepared is not limited to this. The conversion accuracy can be improved as the number of images matches the category of the image to be corrected. The order in which the processing of S901 and the processing of S902 are executed is in no particular order, and may be executed before the next processing of S903 is started.

S903において、学習用データ生成部303は、S902で取得した画像データの中から補正対象画像の評価値に近い画像データを抽出する。S902で取得する画像データについては、前述した評価値取得処理と同様の方法により予め評価値が算出されている。本実施形態では、学習用データ生成部303は、予め算出されている画像データの評価値に基づいて、補正対象画像の評価値に近い方から(補正対象画像の評価値との差分が小さい方から)順番で100枚の画像を抽出する。この画像データの抽出は、色み、ノイズ、ヒストグラムの各評価項目別に行う。なお、本実施形態では、評価項目毎に100枚の画像を抽出するようにしているが、抽出する画像の数は任意である。また、補正対象画像の評価値に近い方から所定の数の画像を抽出するようにしているが、画像の数を限定せずに補正対象画像の評価値との差分が所定の範囲内にある画像を抽出するようにしてもよい。 In S903, the learning data generation unit 303 extracts image data close to the evaluation value of the image to be corrected from the image data acquired in S902. For the image data acquired in S902, the evaluation value is calculated in advance by the same method as the evaluation value acquisition process described above. In the present embodiment, the learning data generation unit 303 is based on the evaluation value of the image data calculated in advance, from the one closest to the evaluation value of the correction target image (the one having a smaller difference from the evaluation value of the correction target image). (From) 100 images are extracted in order. This image data is extracted for each evaluation item of color, noise, and histogram. In the present embodiment, 100 images are extracted for each evaluation item, but the number of images to be extracted is arbitrary. Further, although a predetermined number of images are extracted from the one closer to the evaluation value of the correction target image, the difference from the evaluation value of the correction target image is within a predetermined range without limiting the number of images. The image may be extracted.

次に、S904において、学習用データ生成部303は、S903で抽出した画像データを、目標画像の評価値を参照して変換する。変換は、色み及びヒストグラムについては、色変換係数が記述された3×10の変換行列を補正パラメータとして設定し、変換後の画像の評価値と目標画像の評価値との差が最小となるようにパラメータを決定して画像変換を行う。なお、補正パラメータは、3DLUTや多項式で近似してもよい。また、ノイズについては、補正対象画像と比較して目標画像のノイズが少ない場合にはローパスフィルタを補正パラメータとして設定し、目標画像のノイズが多い場合には各画素の輝度を中心に標準偏差σを補正パラメータとした正規分布乱数を加える処理を行う。学習用データ生成部303は、補正後の画像の評価値と目標画像の評価値の差が最小となるようにフィルタサイズ及び係数、又はノイズ付加の大きさを表す標準偏差σを補正パラメータとして決定し、決定した補正パラメータを用いて画像変換を行う。 Next, in S904, the learning data generation unit 303 converts the image data extracted in S903 with reference to the evaluation value of the target image. For the conversion, for the color and histogram, a 3 × 10 transformation matrix in which the color conversion coefficient is described is set as a correction parameter, and the difference between the evaluation value of the converted image and the evaluation value of the target image is minimized. The parameters are determined so as to perform image conversion. The correction parameters may be approximated by 3DLUT or a polynomial. Regarding noise, if the noise of the target image is less than that of the image to be corrected, a low-pass filter is set as a correction parameter, and if the noise of the target image is large, the standard deviation σ is centered on the brightness of each pixel. Performs the process of adding a normally distributed random number with. The learning data generation unit 303 determines the filter size and coefficient, or the standard deviation σ representing the magnitude of noise addition as a correction parameter so that the difference between the evaluation value of the corrected image and the evaluation value of the target image is minimized. Then, image conversion is performed using the determined correction parameters.

次に、S905において、学習用データ生成部303は、評価項目別にS903で抽出した画像100枚について、S903で抽出した画像とS904で変換した画像とを対とする画像データを学習用データセットとして保存する。 Next, in S905, the learning data generation unit 303 uses image data of 100 images extracted in S903 for each evaluation item as a pair of images extracted in S903 and images converted in S904 as a learning data set. save.

S906において、学習用データ生成部303は、すべての評価項目について学習用データを生成したか否かを判定する。学習用データ生成部303は、すべての評価項目について学習用データを生成したと判定した場合(S906のYES)には学習用データの生成処理を終了する。一方、学習用データ生成部303は、すべての評価項目についての学習用データの生成が完了していないと判定した場合(S906のNO)にはS903の処理へ戻り、学習用データを生成していない評価項目についてS903以降の処理を行う。 In S906, the learning data generation unit 303 determines whether or not learning data has been generated for all the evaluation items. When it is determined that the learning data has been generated for all the evaluation items (YES in S906), the learning data generation unit 303 ends the learning data generation process. On the other hand, when the learning data generation unit 303 determines that the generation of the learning data for all the evaluation items has not been completed (NO in S906), the learning data generation unit 303 returns to the processing of S903 and generates the learning data. The processing after S903 is performed for the evaluation items that do not exist.

<学習モデルを用いた画像補正処理(S406)>
図11は、図4に示したS406において学習モデル生成部304及び画像補正部305が実行する学習モデルを用いた画像補正処理の例を示すフローチャートである。
<Image correction processing using a learning model (S406)>
FIG. 11 is a flowchart showing an example of image correction processing using the learning model executed by the learning model generation unit 304 and the image correction unit 305 in S406 shown in FIG.

S1101において、学習モデル生成部304は、S405での学習用データの生成処理により生成した学習用データを取得する。 In S1101, the learning model generation unit 304 acquires the learning data generated by the learning data generation process in S405.

S1102において、学習モデル生成部304は、S1101で取得した学習用データを用いて学習処理を行う。本実施形態において学習処理は、畳み込みニューラルネットワーク(CNN:convolution neural network)を使用し、その処理概要を図12(a)に示す。本実施形態においてCNNモデルは、一例として畳み込み層が13層、全結合層が3層の16層からなるVGG16モデルを使用するものとする。図12(b)に例示するように、畳み込み層では入力画像に対するフィルタ処理(3×3)及び活性化関数を用いた非線形処理を行い、プーリング層では畳み込み層で処理された特徴マップの縮小処理を行う。本実施形態において、活性化関数はReLU関数を用いるが、シグモイド関数等の他の非線形処理を用いてもよい。また、損失関数は二乗和誤差を使用し、勾配降下法を用いて損失関数が最小となるように重みパラメータを最適化する。学習モデル生成部304は、入力画像及び教師画像にS405で生成した学習用データにおける変換前の画像及び変換後の画像をそれぞれ設定して学習処理を行い、学習モデルを生成する。なお、本実施形態では、学習処理としてCNNを用いるようにしているが、画像間の関係から画像生成を行うGAN(generative adversarial network)の1手法であるpix2pix等の他の学習処理を用いてもよい。 In S1102, the learning model generation unit 304 performs the learning process using the learning data acquired in S1101. In the present embodiment, the learning process uses a convolution neural network (CNN), and the outline of the process is shown in FIG. 12 (a). In the present embodiment, as an example, the CNN model uses a VGG16 model consisting of 16 layers having 13 convolutional layers and 3 fully connected layers. As illustrated in FIG. 12B, the convolutional layer is filtered (3 × 3) and the non-linear processing using the activation function is performed on the input image, and the pooling layer is the reduction processing of the feature map processed by the convolutional layer. I do. In this embodiment, the ReLU function is used as the activation function, but other non-linear processing such as a sigmoid function may be used. The loss function also uses the sum of squares error and uses gradient descent to optimize the weighting parameters so that the loss function is minimized. The learning model generation unit 304 sets the image before conversion and the image after conversion in the learning data generated in S405 in the input image and the teacher image, respectively, and performs the learning process to generate the learning model. In this embodiment, CNN is used as the learning process, but other learning processes such as fix2pix, which is one method of GAN (generative adversarial network) that generates images from the relationship between images, can also be used. Good.

S1103において、学習モデル生成部304は、すべての評価項目について学習モデルを生成したか否かを判定する。すべての評価項目について学習モデルを生成したと学習モデル生成部304が判定した場合(S1103のYES)、S1104の処理へ進む。一方、すべての評価項目についての学習モデルの生成が完了していないと学習モデル生成部304が判定した場合(S1103のNO)、S1102の処理へ戻り、学習モデルを生成していない評価項目について学習処理を行う。 In S1103, the learning model generation unit 304 determines whether or not the learning model has been generated for all the evaluation items. When the learning model generation unit 304 determines that the learning model has been generated for all the evaluation items (YES in S1103), the process proceeds to S1104. On the other hand, when the learning model generation unit 304 determines that the generation of the learning model for all the evaluation items is not completed (NO in S1103), the process returns to the process of S1102 and the evaluation items for which the learning model is not generated are learned. Perform processing.

S1104において、画像補正部305は、図4に示したS404で評価値取得部302により取得された評価項目毎の補正対象画像と目標画像の評価値を取得する。 In S1104, the image correction unit 305 acquires the evaluation values of the correction target image and the target image for each evaluation item acquired by the evaluation value acquisition unit 302 in S404 shown in FIG.

S1105において、画像補正部305は、S1104で取得した評価項目毎の補正対象画像と目標画像の評価値に基づいて、評価項目毎に評価値の差分値を算出する。さらに、画像補正部305は、評価値の差分値が最も大きい項目について補正処理を行うように、前述のようにして学習モデル生成部304により生成された学習モデルの中から評価値の差分値が最も大きい評価項目に合致する学習モデルを選択する。そして、画像補正部305は、選択した学習モデルを用いて補正処理を行い、補正対象画像の補正を行う。なお、本実施形態では、補正対象画像と目標画像の評価値の差分値が最も大きい評価項目に対応した学習モデルを1つ選択して補正対象画像の補正を行うが、評価値の差分値に応じて複数の学習モデルを適用して補正対象画像の補正を行ってもよい。例えば、評価項目毎に予め閾値を設定し、補正対象画像と目標画像の評価値の差分値が、設定した閾値を超える評価項目について、それぞれ学習モデルを適用して補正対象画像の補正を行ってもよい。 In S1105, the image correction unit 305 calculates the difference value of the evaluation value for each evaluation item based on the evaluation value of the correction target image and the target image for each evaluation item acquired in S1104. Further, the image correction unit 305 calculates the difference value of the evaluation value from the learning models generated by the learning model generation unit 304 as described above so as to perform the correction processing for the item having the largest difference value of the evaluation value. Select the learning model that matches the largest endpoint. Then, the image correction unit 305 performs correction processing using the selected learning model, and corrects the image to be corrected. In the present embodiment, the correction target image is corrected by selecting one learning model corresponding to the evaluation item having the largest difference value between the evaluation values of the correction target image and the target image. Depending on the situation, a plurality of learning models may be applied to correct the image to be corrected. For example, a threshold value is set in advance for each evaluation item, and a learning model is applied to each evaluation item in which the difference value between the evaluation values of the correction target image and the target image exceeds the set threshold value to correct the correction target image. May be good.

S1106において、画像補正部305は、S1105で補正した画像を保存して、学習モデルを用いた画像補正処理を終了する。 In S1106, the image correction unit 305 saves the image corrected in S1105 and ends the image correction process using the learning model.

以上説明したように、第1の実施形態によれば、補正対象画像と目標画像とを解析して複数の異なる評価項目に関する評価値を取得し、評価値に応じた学習モデルを評価項目毎に生成して、生成した学習モデルを用いて補正対象画像の補正を行う。取得した評価値に基づいて学習モデルの生成に使用する学習用データを生成することで学習モデルの変換精度が向上し、画像の特徴に関わる任意の評価項目について目標画像の印象(風合い)に近づける補正処理を実行することができる。 As described above, according to the first embodiment, the correction target image and the target image are analyzed to obtain evaluation values for a plurality of different evaluation items, and a learning model according to the evaluation values is obtained for each evaluation item. Generate and correct the image to be corrected using the generated learning model. By generating the learning data used to generate the learning model based on the acquired evaluation values, the conversion accuracy of the learning model is improved, and the impression (texture) of the target image is brought closer to any evaluation item related to the image features. The correction process can be executed.

[第2の実施形態]
第1の実施形態における学習用データの生成処理では、学習用の画像データベースを予め準備しておき、その中から評価値に基づいて評価項目毎に学習用の画像データを抽出、変換して学習用データを生成する方法を説明した。第2の実施形態においては、ユーザが指定する目標画像に基づいて学習用データを生成する方法について説明する。第2の実施形態では、補正対象画像の補正処理において実際に目標とする目標画像を学習用データに使用することで学習モデルの変換精度の向上を図る。第2の実施形態は、前述した第1の実施形態とは学習用データの生成処理が異なり、他の構成や処理等は第1の実施形態と同様であるので、それらの説明は省略し、以下では、第2の実施形態における学習用データの生成処理について説明する。
[Second Embodiment]
In the learning data generation process of the first embodiment, an image database for learning is prepared in advance, and image data for learning is extracted and converted for each evaluation item based on the evaluation value from the database for learning. Explained how to generate data for. In the second embodiment, a method of generating learning data based on a target image specified by the user will be described. In the second embodiment, the conversion accuracy of the learning model is improved by using the target image that is actually the target in the correction process of the image to be corrected as the learning data. The second embodiment is different from the first embodiment described above in the process of generating learning data, and other configurations and processes are the same as those of the first embodiment. Hereinafter, the learning data generation process in the second embodiment will be described.

図13は、第2の実施形態において学習用データ生成部303が実行する学習用データの生成処理の例を示すフローチャートである。
S1301において、学習用データ生成部303は、図4に示したS404の処理と同様にして、評価項目毎の補正対象画像と目標画像の評価値を取得する。
S1302において、学習用データ生成部303は、図4に示したS403の処理と同様にして、目標画像を取得する。なお、S1301の処理及びS1302の処理を実行する順序は順不同であり、次のS1303の処理を開始する前に実行されていればよい。
FIG. 13 is a flowchart showing an example of the learning data generation process executed by the learning data generation unit 303 in the second embodiment.
In S1301, the learning data generation unit 303 acquires the evaluation values of the correction target image and the target image for each evaluation item in the same manner as the processing of S404 shown in FIG.
In S1302, the learning data generation unit 303 acquires the target image in the same manner as the processing of S403 shown in FIG. The order in which the processing of S1301 and the processing of S1302 are executed is in no particular order, and may be executed before the next processing of S1303 is started.

S1303において、学習用データ生成部303は、補正対象画像と目標画像の評価値を参照し、目標画像を変換する。変換は、色み及びヒストグラムについては、色変換係数が記述された3×10の変換行列を補正パラメータとして設定し、目標画像を変換した後の画像の評価値と補正対象画像の評価値との差が最小となるようにパラメータを決定して画像変換を行う。なお、補正パラメータは、3DLUTや多項式で近似してもよい。また、ノイズについては、補正対象画像のノイズよりも目標画像のノイズが多い場合には、ノイズを低減するローパスフィルタを補正パラメータとして設定し、評価値の差が小さくなるようにフィルタサイズ及び係数を決定し画像変換を行う。一方、補正対象画像のノイズよりも目標画像のノイズが少ない場合には、各画素の輝度を中心に標準偏差σを補正パラメータとして正規分布乱数を加える処理を行い、評価値の差が小さくなるように標準偏差σを決定してノイズ付加の処理を行う。 In S1303, the learning data generation unit 303 refers to the evaluation values of the correction target image and the target image, and converts the target image. For the conversion, for the color tint and the histogram, a 3 × 10 transformation matrix in which the color conversion coefficient is described is set as a correction parameter, and the evaluation value of the image after the conversion of the target image and the evaluation value of the correction target image are set. Image conversion is performed by determining the parameters so that the difference is minimized. The correction parameters may be approximated by 3DLUT or a polynomial. Regarding noise, if the noise of the target image is larger than the noise of the image to be corrected, a low-pass filter that reduces the noise is set as a correction parameter, and the filter size and coefficient are set so that the difference between the evaluation values becomes small. Determine and perform image conversion. On the other hand, when the noise of the target image is less than the noise of the image to be corrected, a process of adding a normal distribution random number with the standard deviation σ as the correction parameter centered on the brightness of each pixel is performed so that the difference in the evaluation values becomes small. The standard deviation σ is determined and noise addition processing is performed.

次に、S1304において、学習用データ生成部303は、S1302で取得した目標画像とS1303で変換した画像とを組とする画像データを学習に使用する学習用データとして保存する。 Next, in S1304, the learning data generation unit 303 saves the image data as a set of the target image acquired in S1302 and the image converted in S1303 as learning data to be used for learning.

S1305において、学習用データ生成部303は、すべての評価項目について学習用データを生成したか否かを判定する。学習用データ生成部303は、すべての評価項目について学習用データを生成したと判定した場合(S1305のYES)には学習用データの生成処理を終了する。一方、学習用データ生成部303は、すべての評価項目についての学習用データの生成が完了していないと判定した場合(S1305のNO)にはS1303の処理へ戻り、学習用データを生成していない評価項目についてS1303以降の処理を行う。 In S1305, the learning data generation unit 303 determines whether or not learning data has been generated for all the evaluation items. When it is determined that the learning data has been generated for all the evaluation items (YES in S1305), the learning data generation unit 303 ends the learning data generation process. On the other hand, when the learning data generation unit 303 determines that the generation of the learning data for all the evaluation items has not been completed (NO in S1305), the learning data generation unit 303 returns to the processing of S1303 and generates the learning data. The processing after S1303 is performed for the evaluation items that do not exist.

第2の実施形態によれば、目標画像に基づいて学習用データを生成することで、学習モデルの変換精度が向上し、画像の特徴に関わる任意の評価項目について目標画像の印象(風合い)に近づける補正処理を実行することができる。 According to the second embodiment, by generating the learning data based on the target image, the conversion accuracy of the learning model is improved, and the impression (texture) of the target image is obtained for any evaluation item related to the characteristics of the image. It is possible to execute the correction process to bring it closer.

[第3の実施形態]
第1の実施形態では、複数の異なる評価項目に関する評価値を取得し、目標画像の評価値に応じた学習モデルを生成し、補正対象画像の補正を行う。第3の実施形態においては、評価項目毎に補正結果画像の候補をユーザに提示することで、補正結果を参照しながら簡易に補正対象画像に対する補正処理を決定する方法について説明する。また、補正結果画像を提示する際の画像データにおいて、過去の変換履歴を参照して過去の変換画像を用いた追加学習を行うことで学習モデルの変換精度を向上させる方法についても説明する。なお、第3の実施形態における画像処理装置のハードウェア構成や機能構成は、第1の実施形態における画像処理装置と同様であるので説明は省略する。
[Third Embodiment]
In the first embodiment, evaluation values for a plurality of different evaluation items are acquired, a learning model corresponding to the evaluation values of the target image is generated, and the correction target image is corrected. In the third embodiment, a method of presenting a correction result image candidate for each evaluation item to the user and simply determining the correction process for the correction target image while referring to the correction result will be described. In addition, a method of improving the conversion accuracy of the learning model by performing additional learning using the past converted image with reference to the past conversion history in the image data when presenting the correction result image will also be described. Since the hardware configuration and functional configuration of the image processing device in the third embodiment are the same as those in the image processing device in the first embodiment, the description thereof will be omitted.

<画像処理装置100が実行する処理>
図14は、第3の実施形態における画像処理装置100の処理例を示すフローチャートである。CPU101が、ROM102等からプログラムを読み出して実行することで、図14に示すフローチャートの各処理が実現される。
<Processing executed by the image processing device 100>
FIG. 14 is a flowchart showing a processing example of the image processing apparatus 100 according to the third embodiment. When the CPU 101 reads the program from the ROM 102 or the like and executes it, each process of the flowchart shown in FIG. 14 is realized.

S1401において、表示制御部306は、GUIをタッチパネルディスプレイ105に表示させる。図15に、本実施形態において、タッチパネルディスプレイ105に表示されるGUIの一例を示す。図15において、図5に示した構成要素と同一の構成要素には同一の符号を付している。図15(a)及び図15(b)に示すGUIについては、第1の実施形態において図5(a)及び図5(b)に示したGUIと同一であるため説明を省略する。 In S1401, the display control unit 306 causes the GUI to be displayed on the touch panel display 105. FIG. 15 shows an example of the GUI displayed on the touch panel display 105 in the present embodiment. In FIG. 15, the same components as those shown in FIG. 5 are designated by the same reference numerals. The GUI shown in FIGS. 15 (a) and 15 (b) is the same as the GUI shown in FIGS. 5 (a) and 5 (b) in the first embodiment, and thus the description thereof will be omitted.

図15(b)に示したGUIにおいて、移動ボタン511が押下され、それが検知されると、表示制御部306は、図15(c)に示すGUIをタッチパネルディスプレイ105に表示させる。図15(c)に示すGUIにおいて、補正対象画像領域522が表示されている。補正適用ボタン521は、補正対象画像に対して学習モデルを用いた補正処理の適用を指示するためのボタンである。元に戻すボタン523は、補正画像を補正処理前の画像に戻すためのボタンである。履歴参照ボタン1501は、過去の補正画像や補正処理に使用した学習モデルの履歴を参照するボタンである。モデル選択ボタン1502は、補正画像の候補の提示を指示するためのボタンである。選択用画像領域1503は、補正処理に用いる学習モデルを選択するための補正画像の候補が表示される。 In the GUI shown in FIG. 15 (b), when the move button 511 is pressed and detected, the display control unit 306 causes the GUI shown in FIG. 15 (c) to be displayed on the touch panel display 105. In the GUI shown in FIG. 15C, the correction target image area 522 is displayed. The correction application button 521 is a button for instructing the application of the correction process using the learning model to the image to be corrected. The restore button 523 is a button for returning the corrected image to the image before the correction process. The history reference button 1501 is a button for referring to the history of the past corrected image and the learning model used for the correction process. The model selection button 1502 is a button for instructing the presentation of a candidate for a corrected image. In the selection image area 1503, candidates for correction images for selecting a learning model to be used for correction processing are displayed.

図14に戻り、S1402において、画像取得部301は、第1の実施形態でのS402の処理と同様にして、補正対象画像の画像データを取得する。
S1403において、画像取得部301は、第1の実施形態でのS403の処理と同様にして、補正対象画像を補正処理する際に目標とする目標画像の画像データを取得する。なお、S1402の処理とS1403の処理とを実行する順序は任意であり、S1404の処理を開始する前に、補正対象画像及び目標画像のそれぞれの画像データが取得されていればよい。
Returning to FIG. 14, in S1402, the image acquisition unit 301 acquires the image data of the image to be corrected in the same manner as the process of S402 in the first embodiment.
In S1403, the image acquisition unit 301 acquires the image data of the target image to be corrected when the correction target image is corrected, in the same manner as the process of S403 in the first embodiment. The order in which the processing of S1402 and the processing of S1403 are executed is arbitrary, and it is sufficient that the image data of the correction target image and the target image are acquired before the processing of S1404 is started.

S1404において、評価値取得部302は、第1の実施形態でのS404の処理と同様にして、S1402で読み出された補正対象画像の画像データ及びS1403で読み出された目標画像の画像データを用いて評価値取得処理を行う。評価値取得部302は、補正対象画像及び目標画像のそれぞれについて、複数の異なる評価項目毎の評価値を取得する。 In S1404, the evaluation value acquisition unit 302 obtains the image data of the correction target image read out in S1402 and the image data of the target image read out in S1403 in the same manner as the processing of S404 in the first embodiment. Use to perform evaluation value acquisition processing. The evaluation value acquisition unit 302 acquires evaluation values for each of a plurality of different evaluation items for each of the correction target image and the target image.

S1405において、評価値取得部302は、ユーザによる履歴参照ボタン1501の押下を検知し、ユーザの指示により指定された変換履歴を示す画像データ及び学習モデルが格納された場所を特定し、ROM102から画像データ及び学習モデルを読み出す。変換履歴にはユーザが過去に画像データを目標画像に近づけるために使用した学習済モデルと補正後の画像データとが作成日時に関連付けてROM102に記録されている。 In S1405, the evaluation value acquisition unit 302 detects the pressing of the history reference button 1501 by the user, identifies the location where the image data indicating the conversion history and the learning model indicating the conversion history specified by the user's instruction are stored, and the image from the ROM 102. Read the data and learning model. In the conversion history, the trained model used by the user to bring the image data closer to the target image in the past and the corrected image data are recorded in the ROM 102 in association with the creation date and time.

S1406において、学習モデル生成部304は、学習モデルの生成処理を行い、S1405で取得された過去の変換履歴、及び補正対象画像と目標画像の評価値に基づいて、評価項目別に学習モデルを生成する。このS1406において学習モデル生成部304により実行される学習モデルの生成処理の詳細については後述する。 In S1406, the learning model generation unit 304 performs a learning model generation process, and generates a learning model for each evaluation item based on the past conversion history acquired in S1405 and the evaluation values of the correction target image and the target image. .. The details of the learning model generation process executed by the learning model generation unit 304 in S1406 will be described later.

S1407において、画像補正部305及び表示制御部306は、学習モデルを用いた画像補正処理を行う。学習モデルを用いた画像補正処理では、画像補正部305は、S1406で生成された学習モデルを取得して補正処理を行い、S1402で取得された補正対象画像を補正する。また、表示制御部306は、処理に必要な情報をユーザに入力してもらうためのGUIや、画像補正部305により補正処理して得られた画像(補正された補正対象画像)を、タッチパネルディスプレイ105に表示させる。このS1407において画像補正部305及び表示制御部306により実行される学習モデルを用いた画像補正処理の詳細については後述する。 In S1407, the image correction unit 305 and the display control unit 306 perform image correction processing using the learning model. In the image correction process using the learning model, the image correction unit 305 acquires the learning model generated in S1406 and performs the correction process, and corrects the image to be corrected acquired in S1402. Further, the display control unit 306 displays a GUI for having the user input information necessary for processing and an image obtained by correction processing by the image correction unit 305 (corrected correction target image) on a touch panel display. It is displayed on 105. Details of the image correction process using the learning model executed by the image correction unit 305 and the display control unit 306 in S1407 will be described later.

<学習モデルの生成処理(S1406)>
図16は、図14に示したS1406において学習モデル生成部304が実行する学習モデルの生成処理の例を示すフローチャートである。
<Learning model generation process (S1406)>
FIG. 16 is a flowchart showing an example of a learning model generation process executed by the learning model generation unit 304 in S1406 shown in FIG.

S1601において、学習モデル生成部304は、複数の評価項目毎に適した学習済モデルを取得する。学習済モデルは、予め評価項目毎にROM102に保存されているものとする。例えば、色みの評価項目に関しては色みに適した補正を行う学習済モデルが保存され、ノイズの評価項目に関してはノイズに適した補正を行う学習済モデルが保存されている。 In S1601, the learning model generation unit 304 acquires a learned model suitable for each of a plurality of evaluation items. It is assumed that the trained model is stored in the ROM 102 in advance for each evaluation item. For example, for the evaluation item of color, a trained model that performs correction suitable for color is stored, and for the evaluation item of noise, a trained model that corrects for noise is stored.

S1602において、学習モデル生成部304は、S1405で取得された過去の変換履歴を参照して、ユーザからの指示に応じて過去に変換した画像データを取得する。
S1603において、学習モデル生成部304は、S1601で取得した学習済モデルとS1602で取得した画像データとを用いて、評価項目毎に学習済モデルの追加学習を行う。
In S1602, the learning model generation unit 304 refers to the past conversion history acquired in S1405 and acquires the image data converted in the past in response to an instruction from the user.
In S1603, the learning model generation unit 304 performs additional learning of the trained model for each evaluation item by using the trained model acquired in S1601 and the image data acquired in S1602.

S1604において、学習モデル生成部304は、すべての評価項目について過去の変換画像を用いた学習済モデルの追加学習を実施したか否かを判定する。学習モデル生成部304は、すべての評価項目について学習済モデルの追加学習を実施したと判定した場合(S1604のYES)にはS1605の処理へ進む。一方、学習モデル生成部304は、すべての評価項目についての学習済モデルの追加学習が完了していないと判定した場合(S1604のNO)にはS1601の処理へ戻り、学習済モデルの追加学習を実施していない評価項目について前述した処理を行う。 In S1604, the learning model generation unit 304 determines whether or not additional learning of the trained model using the past converted image has been performed for all the evaluation items. When the learning model generation unit 304 determines that the additional learning of the trained model has been performed for all the evaluation items (YES in S1604), the learning model generation unit 304 proceeds to the process of S1605. On the other hand, when the learning model generation unit 304 determines that the additional learning of the trained model for all the evaluation items has not been completed (NO in S1604), the learning model generation unit 304 returns to the process of S1601 and performs the additional learning of the trained model. Perform the above-mentioned processing for the evaluation items that have not been implemented.

S1605において、学習モデル生成部304は、前述のようにして評価項目毎に追加学習した学習モデルを保存して、学習モデルの生成処理を終了する。 In S1605, the learning model generation unit 304 saves the learning model additionally learned for each evaluation item as described above, and ends the learning model generation process.

<学習モデルを用いた画像補正処理(S1407)>
図17は、図14に示したS1407において画像補正部305及び表示制御部306が実行する学習モデルを用いた画像補正処理の例を示すフローチャートである。
S1701において、表示制御部306は、処理に必要な情報をユーザに入力してもらうためのGUIを表示する。
<Image correction processing using a learning model (S1407)>
FIG. 17 is a flowchart showing an example of image correction processing using the learning model executed by the image correction unit 305 and the display control unit 306 in S1407 shown in FIG.
In S1701, the display control unit 306 displays a GUI for asking the user to input information necessary for processing.

S1702において、表示制御部306は、ユーザによるモデル選択ボタン1502の押下を検知する。表示制御部306は、モデル選択ボタン1502の押下を検知すると、図15(c)に示すGUIの選択用画像領域1503に、各評価項目についての学習モデルを用いた補正画像の一覧を表示させる。例えば、表示制御部306は、複数の評価項目の中で目標画像の評価値と補正対象画像の評価値との差が大きい評価項目の順番に3つの評価項目に関連する補正画像を表示させる。なお、すべての評価項目について補正の度合いを選択できるように、すべての評価項目について補正に使用する学習モデルを異ならせた複数の補正画像を一覧表示するようにしてもよい。また、本実施形態では、選択用画像領域1503に評価項目毎に画像を3つずつ配置する。左側に第1の実施形態で説明したような学習モデルを適用して補正処理した画像、中央に過去の変換履歴を参照して取得した過去の変換に使用した学習済モデルを適用して補正処理した画像、右側にS1406の処理により作成した補正画像を配置する。なお、本実施形態では、評価項目毎に3つの変化させた画像を配置しているが、配置する画像の数はこれに限定されるものではない。準備する学習済モデル数やディスプレイの表示面積に合わせて拡大・縮小させて任意の数の画像を配置させてもよいし、配置する画像の数を指定させる手段をGUIに設けさせてもよい。 In S1702, the display control unit 306 detects the user pressing the model selection button 1502. When the display control unit 306 detects that the model selection button 1502 is pressed, the display control unit 306 causes the GUI selection image area 1503 shown in FIG. 15C to display a list of corrected images using the learning model for each evaluation item. For example, the display control unit 306 displays the correction images related to the three evaluation items in the order of the evaluation items in which the difference between the evaluation value of the target image and the evaluation value of the correction target image is large among the plurality of evaluation items. In addition, a plurality of corrected images having different learning models used for correction may be displayed in a list for all the evaluation items so that the degree of correction can be selected for all the evaluation items. Further, in the present embodiment, three images are arranged for each evaluation item in the selection image area 1503. The image corrected by applying the learning model as described in the first embodiment is applied to the left side, and the trained model used for the past conversion acquired by referring to the past conversion history is applied to the correction processing in the center. The corrected image created by the processing of S1406 is placed on the right side of the image. In the present embodiment, three changed images are arranged for each evaluation item, but the number of arranged images is not limited to this. An arbitrary number of images may be arranged by enlarging / reducing according to the number of trained models to be prepared and the display area of the display, or the GUI may be provided with a means for designating the number of images to be arranged.

S1703において、画像処理部305及び表示制御部306は、ユーザによって選択された画像に使用されている学習モデルを用いて補正対象画像に補正処理を適用し、補正処理を適用した画像をタッチパネルディスプレイ105に表示させる。具体的には、画像補正部305は、選択用画像領域1503に表示された画像のユーザからの選択指示に応じて、選択された画像に使用されている学習モデルを用いて補正処理を行い、補正対象画像の補正を行う。表示制御部306は、補正対象画像を補正処理して得られた画像を補正対象画像領域522に表示させる。 In S1703, the image processing unit 305 and the display control unit 306 apply the correction process to the image to be corrected using the learning model used for the image selected by the user, and the image to which the correction process is applied is displayed on the touch panel display 105. To display. Specifically, the image correction unit 305 performs correction processing using the learning model used for the selected image in response to a selection instruction from the user of the image displayed in the selection image area 1503. Corrects the image to be corrected. The display control unit 306 displays the image obtained by correcting the correction target image in the correction target image area 522.

画像処理部305及び表示制御部306は、S1704においてユーザからの適用ボタン521の押下が検知されるまでは、選択用画像領域1503に表示された画像がユーザにより選択される毎にS1703の処理を繰り返し行う。画像処理部305及び表示制御部306は、S1704においてユーザからの適用ボタン521の押下が検知されると、補正対象画像への補正処理の選択が完了したとみなしてS1705の処理へ進む。 The image processing unit 305 and the display control unit 306 perform the processing of S1703 every time the image displayed in the selection image area 1503 is selected by the user until the pressing of the apply button 521 from the user is detected in S1704. Repeat. When the image processing unit 305 and the display control unit 306 detect that the application button 521 is pressed by the user in S1704, the image processing unit 305 and the display control unit 306 consider that the selection of the correction processing for the correction target image is completed, and proceed to the processing of S1705.

S1705において、画像処理部305及び表示制御部306は、補正対象画像領域522に表示している補正済の画像を保存して、学習モデルを用いた画像補正処理を終了する。 In S1705, the image processing unit 305 and the display control unit 306 save the corrected image displayed in the correction target image area 522, and end the image correction processing using the learning model.

第3の実施形態によれば、画像の特徴に関わる任意の評価項目について目標画像の印象(風合い)に近づける補正処理を実行することができる。また、過去の変換履歴に基づいて複数の異なる評価項目毎に補正した画像を提示することにより、ユーザが補正対象画像をどのような画像に補正したいと所望している傾向を類推し、ユーザの好みに応じた補正画像を提示できる。 According to the third embodiment, it is possible to execute a correction process that brings the impression (texture) of the target image closer to any evaluation item related to the features of the image. In addition, by presenting an image corrected for each of a plurality of different evaluation items based on the past conversion history, it is possible to infer the tendency of the user to correct the image to be corrected to what kind of image the user wants to correct. A corrected image can be presented according to the preference.

[変形例]
前述した実施形態において、画像処理装置100のハードウェア構成は、図1(a)に示した構成に限られるものではなく、例えば、図1(b)に示すような構成であってもよい。図1(b)に示す画像処理装置100は、CPU101、ROM102、RAM103、VC(ビデオカード)111、汎用I/F114、及びSATA(シリアルATA)I/F118を有する。
[Modification example]
In the above-described embodiment, the hardware configuration of the image processing apparatus 100 is not limited to the configuration shown in FIG. 1A, and may be, for example, the configuration shown in FIG. 1B. The image processing apparatus 100 shown in FIG. 1B has a CPU 101, a ROM 102, a RAM 103, a VC (video card) 111, a general-purpose I / F 114, and a SATA (Serial ATA) I / F 118.

CPU101は、RAM103をワークメモリとして、ROM102や外部記憶装置110等に格納されたOS(オペレーティングシステム)や各種プログラムを実行することで、画像処理装置100の制御や各種処理を行う。例えば、CPU101は、システムバス108に接続された画像処理装置100の各構成を制御する。 The CPU 101 uses the RAM 103 as a work memory to execute an OS (operating system) and various programs stored in the ROM 102, the external storage device 110, and the like to control the image processing device 100 and perform various processes. For example, the CPU 101 controls each configuration of the image processing device 100 connected to the system bus 108.

汎用I/F114には、シリアルバス115を介して、マウスやキーボード等の入力デバイス116や撮像装置117が接続される。SATAI/F118には、シリアルバス119を介して、外部記憶装置110が接続される。VC111には、シリアルバス112を介して、ディスプレイ113が接続される。CPU101は、プログラムによって提供されるUI(ユーザインタフェース)をディスプレイ113に表示し、入力デバイス116を介して得られたユーザの指示を表す入力情報を受信する。 An input device 116 such as a mouse or keyboard and an imaging device 117 are connected to the general-purpose I / F 114 via a serial bus 115. An external storage device 110 is connected to the SATAI / F118 via the serial bus 119. A display 113 is connected to the VC 111 via a serial bus 112. The CPU 101 displays a UI (user interface) provided by the program on the display 113, and receives input information representing a user's instruction obtained via the input device 116.

図1(b)に示した画像処理装置100は、例えば、デスクトップ型のPCによって実現される。なお、画像処理装置100は、撮像装置117と一体となったデジタルカメラや、ディスプレイ113と一体となったPCなどによって実現されてもよい。 The image processing device 100 shown in FIG. 1B is realized by, for example, a desktop PC. The image processing device 100 may be realized by a digital camera integrated with the image pickup device 117, a PC integrated with the display 113, or the like.

また、前述した実施形態においては、画像処理装置100は、撮像部106としてアウトカメラ202とインカメラ201との2つのカメラを有していたが、撮像部106はこの例に限られない。例えば、画像処理装置100は、撮像部106としてアウトカメラ202のみを有する構成であってもよい。 Further, in the above-described embodiment, the image processing device 100 has two cameras, an out-camera 202 and an in-camera 201, as the image pickup unit 106, but the image pickup unit 106 is not limited to this example. For example, the image processing device 100 may have a configuration in which only the out-camera 202 is provided as the image pickup unit 106.

また、前述した実施形態における外部記憶装置110は、HDDとしたが、外部記憶装置110は、これに限られない。例えば、外部記憶装置110は、SSD(ソリッドステートドライブ)であってもよい。また、外部記憶装置110は、メディア(記録媒体)と、当該メディアへのアクセスを行うための外部記憶ドライブとによって実現されてもよい。メディアには、例えばフレキシブルディスク(FD)、CD−ROM、DVD、USBメモリ、MO、フラッシュメモリなどを用いることができる。 Further, although the external storage device 110 in the above-described embodiment is an HDD, the external storage device 110 is not limited to this. For example, the external storage device 110 may be an SSD (Solid State Drive). Further, the external storage device 110 may be realized by a medium (recording medium) and an external storage drive for accessing the media. As the medium, for example, a flexible disk (FD), a CD-ROM, a DVD, a USB memory, an MO, a flash memory, or the like can be used.

[その他の実施形態]
本発明は、前述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
[Other Embodiments]
The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or a device via a network or a storage medium, and one or more processors in the computer of the system or the device read and execute the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

なお、前記実施形態は、何れも本発明を実施するにあたっての具体化のほんの一例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。 It should be noted that the above-described embodiments are merely examples of embodiment of the present invention, and the technical scope of the present invention should not be construed in a limited manner by these. That is, the present invention can be implemented in various forms without departing from the technical idea or its main features.

100:画像処理装置 301:画像取得部 302:評価値取得部 303:学習用データ生成部 304:学習モデル生成部 305:画像補正部 306:表示制御部 100: Image processing device 301: Image acquisition unit 302: Evaluation value acquisition unit 303: Learning data generation unit 304: Learning model generation unit 305: Image correction unit 306: Display control unit

Claims (12)

補正処理の対象とする補正対象画像と前記補正処理にて参照する目標画像とのそれぞれについて、複数の評価項目毎の評価値を取得する評価値取得手段と、
取得した前記補正対象画像及び前記目標画像の評価値に基づいて学習用データを生成するデータ生成手段と、
生成した前記学習用データに基づいて前記補正処理に係る学習モデルを評価項目毎に生成するモデル生成手段と、
生成した評価項目毎の前記学習モデルのうちから選択した前記学習モデルを用いて前記補正対象画像を補正する画像補正手段とを有することを特徴とする画像処理装置。
An evaluation value acquisition means for acquiring evaluation values for each of a plurality of evaluation items for each of the correction target image to be corrected and the target image referred to in the correction processing.
A data generation means for generating learning data based on the acquired evaluation values of the correction target image and the target image, and
A model generation means for generating a learning model related to the correction process for each evaluation item based on the generated learning data, and
An image processing apparatus comprising: an image correction means for correcting an image to be corrected by using the learning model selected from the learning models for each of the generated evaluation items.
前記画像補正手段は、前記補正対象画像及び前記目標画像の評価値の差分値に基づいて、補正に用いる前記学習モデルを選択することを特徴とする請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the image correction means selects the learning model to be used for correction based on the difference value between the evaluation values of the correction target image and the target image. 前記画像補正手段は、前記補正対象画像及び前記目標画像の評価値の差分値が最も大きい評価項目に対応する前記学習モデルを、補正に用いる前記学習モデルに選択することを特徴とする請求項2に記載の画像処理装置。 2. The image correction means is characterized in that the learning model corresponding to the evaluation item having the largest difference value between the evaluation values of the correction target image and the target image is selected as the learning model to be used for correction. The image processing apparatus according to. 前記画像補正手段は、前記補正対象画像及び前記目標画像の評価値の差分値が所定の閾値を超える評価項目に対応する前記学習モデルを、補正に用いる前記学習モデルに選択することを特徴とする請求項2に記載の画像処理装置。 The image correction means is characterized in that the learning model corresponding to an evaluation item in which the difference value between the evaluation values of the correction target image and the target image exceeds a predetermined threshold value is selected as the learning model to be used for correction. The image processing apparatus according to claim 2. 前記複数の評価項目は、画像の色み、ノイズ、ヒストグラム、光沢、及びコントラストのうちの少なくとも2つを含むことを特徴とする請求項1〜4の何れか1項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 4, wherein the plurality of evaluation items include at least two of image color, noise, histogram, gloss, and contrast. 前記データ生成手段は、評価項目毎に、予め準備した複数の画像から前記補正対象画像の評価値に近い複数の画像を抽出し、抽出した複数の画像のそれぞれを前記目標画像の評価値に近似するように変換し、抽出した画像と変換した画像との組を学習用データとして生成することを特徴とする請求項1〜5の何れか1項に記載の画像処理装置。 The data generation means extracts a plurality of images close to the evaluation value of the correction target image from a plurality of images prepared in advance for each evaluation item, and approximates each of the extracted plurality of images to the evaluation value of the target image. The image processing apparatus according to any one of claims 1 to 5, wherein a set of the extracted image and the converted image is generated as learning data. 前記モデル生成手段は、過去に使用した画像を取得し、取得した画像を用いて前記学習モデルの追加学習を行うことを特徴とする請求項1〜6の何れか1項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 6, wherein the model generation means acquires an image used in the past and additionally learns the learning model using the acquired image. .. 前記補正対象画像の候補となる複数の画像、及び前記目標画像の候補となる複数の画像を、表示手段に一覧表示させる表示制御手段を有することを特徴とする請求項1〜7の何れか1項に記載の画像処理装置。 Any one of claims 1 to 7, wherein the display means includes a display control means for displaying a plurality of images that are candidates for the correction target image and a plurality of images that are candidates for the target image in a list. The image processing apparatus according to the section. 前記表示制御手段は、評価項目毎に前記学習モデルを用いた補正画像を前記表示手段に一覧表示させ、
前記画像補正手段は、前記表示手段に一覧表示された補正画像のうちから選択された前記補正画像に対応する前記学習モデルを用いて前記補正対象画像を補正することを特徴とする請求項8に記載の画像処理装置。
The display control means causes the display means to display a list of corrected images using the learning model for each evaluation item.
8. The image correction means is characterized in that the correction target image is corrected by using the learning model corresponding to the correction image selected from the correction images listed in the display means. The image processing apparatus described.
前記補正対象画像として指定された画像、及び前記目標画像として指定された画像をそれぞれ取得する画像取得手段を有することを特徴とする請求項1〜9の何れか1項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 9, further comprising an image acquisition means for acquiring an image designated as the correction target image and an image designated as the target image, respectively. 補正処理の対象とする補正対象画像と前記補正処理にて参照する目標画像とのそれぞれについて、複数の評価項目毎の評価値を取得する評価値取得工程と、
取得した前記補正対象画像及び前記目標画像の評価値に基づいて学習用データを生成するデータ生成工程と、
生成した前記学習用データに基づいて前記補正処理に係る学習モデルを評価項目毎に生成するモデル生成工程と、
生成した評価項目毎の前記学習モデルのうちから選択した前記学習モデルを用いて前記補正対象画像を補正する画像補正工程とを有することを特徴とする画像処理方法。
An evaluation value acquisition process for acquiring evaluation values for each of a plurality of evaluation items for each of the correction target image to be corrected and the target image referred to in the correction processing.
A data generation step of generating learning data based on the acquired evaluation values of the correction target image and the target image, and
A model generation step of generating a learning model related to the correction process for each evaluation item based on the generated learning data, and
An image processing method comprising an image correction step of correcting the correction target image using the learning model selected from the learning models for each of the generated evaluation items.
補正処理の対象とする補正対象画像と前記補正処理にて参照する目標画像とのそれぞれについて、複数の評価項目毎の評価値を取得する評価値取得ステップと、
取得した前記補正対象画像及び前記目標画像の評価値に基づいて学習用データを生成するデータ生成ステップと、
生成した前記学習用データに基づいて前記補正処理に係る学習モデルを評価項目毎に生成するモデル生成ステップと、
生成した評価項目毎の前記学習モデルのうちから選択した前記学習モデルを用いて前記補正対象画像を補正する画像補正ステップとをコンピュータに実行させるためのプログラム。
An evaluation value acquisition step for acquiring evaluation values for each of a plurality of evaluation items for each of the correction target image to be corrected and the target image referred to in the correction processing.
A data generation step of generating learning data based on the acquired evaluation values of the correction target image and the target image, and
A model generation step of generating a learning model related to the correction process for each evaluation item based on the generated learning data, and
A program for causing a computer to perform an image correction step of correcting the image to be corrected using the learning model selected from the learning models for each of the generated evaluation items.
JP2019220428A 2019-12-05 2019-12-05 Image processing apparatus, image processing method, and program Pending JP2021089654A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019220428A JP2021089654A (en) 2019-12-05 2019-12-05 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019220428A JP2021089654A (en) 2019-12-05 2019-12-05 Image processing apparatus, image processing method, and program

Publications (1)

Publication Number Publication Date
JP2021089654A true JP2021089654A (en) 2021-06-10

Family

ID=76220289

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019220428A Pending JP2021089654A (en) 2019-12-05 2019-12-05 Image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP2021089654A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023068126A1 (en) * 2021-10-19 2023-04-27 ソニーグループ株式会社 Learning device, data processing device, parameter generation device, learning method, data processing method, and parameter generation method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023068126A1 (en) * 2021-10-19 2023-04-27 ソニーグループ株式会社 Learning device, data processing device, parameter generation device, learning method, data processing method, and parameter generation method

Similar Documents

Publication Publication Date Title
JP6786850B2 (en) Image processing equipment, image processing methods, image processing systems and programs
CN109844800B (en) Virtual makeup device and virtual makeup method
JP4905552B2 (en) Image quality adjustment capability measurement method, apparatus and program, and image quality adjustment method, apparatus and program
US9552650B2 (en) Image combining apparatus, image combining method and recording medium storing control program for image combining apparatus
WO2016184206A1 (en) Method and device for adjusting icon colors
US10602026B2 (en) Image processing apparatus, image processing method, and non-transitory computer readable medium
US9786076B2 (en) Image combining apparatus, image combining method and non-transitory computer readable medium for storing image combining program
JP6582472B2 (en) Image processing apparatus, image processing system, and program
JP2021089654A (en) Image processing apparatus, image processing method, and program
JP2007053543A (en) Image processor and image processing method
EP2790396A1 (en) Color extraction-based image processing method, computer-readable storage medium storing the same, and digital image apparatus
JP5824423B2 (en) Illumination light color estimation device, illumination light color estimation method, and illumination light color estimation program
JP6497030B2 (en) Imaging system, information processing apparatus, imaging method, program, storage medium
CN112150347A (en) Image modification patterns learned from a limited set of modified images
JP5202190B2 (en) Image processing method and image processing apparatus
CN108460823B (en) Display method and system for rendering three-dimensional scene model
JP6337430B2 (en) Image processing system, image processing method, and program
JP6958641B2 (en) Image processing system, image processing method and program
JP2007151094A (en) Tone-conversion device for image, program, electronic camera, and tone-conversion method
JP2020087118A (en) Image processing device, image processing method and program
JP2022003445A (en) Image processing device, image processing method, and program
JP6753145B2 (en) Image processing equipment, image processing methods, image processing systems and programs
US10341531B2 (en) Applying a perceptually uniform color space for image processing
JP6577766B2 (en) Image processing device
JP2018142352A (en) Image processing system, image processing method, and program