JP2022046219A - 画像処理方法、画像処理装置、画像処理プログラム、学習方法、学習装置、学習プログラム - Google Patents

画像処理方法、画像処理装置、画像処理プログラム、学習方法、学習装置、学習プログラム Download PDF

Info

Publication number
JP2022046219A
JP2022046219A JP2020152151A JP2020152151A JP2022046219A JP 2022046219 A JP2022046219 A JP 2022046219A JP 2020152151 A JP2020152151 A JP 2020152151A JP 2020152151 A JP2020152151 A JP 2020152151A JP 2022046219 A JP2022046219 A JP 2022046219A
Authority
JP
Japan
Prior art keywords
image
resolution
loss
generator
linear sum
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020152151A
Other languages
English (en)
Other versions
JP2022046219A5 (ja
Inventor
法人 日浅
Norito Hiasa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2020152151A priority Critical patent/JP2022046219A/ja
Priority to US17/465,716 priority patent/US12061672B2/en
Priority to CN202111042030.5A priority patent/CN114170073A/zh
Priority to EP21195376.5A priority patent/EP3968265A1/en
Publication of JP2022046219A publication Critical patent/JP2022046219A/ja
Publication of JP2022046219A5 publication Critical patent/JP2022046219A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4007Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2148Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2132Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on discrimination criteria, e.g. discriminant analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Databases & Information Systems (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

【課題】 機械学習モデルを用いた画像の高解像化において、高品位な画像を提供することである。【解決手段】 本発明の画像処理方法では。機械学習モデルである生成器を用いる。生成器では、入力された低解像画像は第1の特徴マップ202に変換される。第1の特徴マップ202から低解像画像よりも高解像な第1の中間画像203と低解像画像よりも高解像な第2の中間画像204が生成される。第1の中間画像203と第2の中間画像204とに基づいて、低解像画像よりも高解像な推定画像207が生成される。【選択図】 図1

Description

本発明は、機械学習モデルを用いて画像の高解像化を行う技術に関する。
特許文献1には、敵対的生成ネットワーク(GAN:Generative Adversarial Network)と呼ばれる機械学習モデルを用いて、画像の高解像化を行う手法が開示されている。この手法は、SRGAN(Super Resolution GAN)と呼ばれる。SRGANは、高解像画像を生成する生成器と、入力された画像が生成器によって生成された画像か実際の高解像画像かを識別する識別器とを用いて学習を行う。ここで、実際の高解像画像とは、生成器によって生成されたのではない高解像な画像を意味している。
生成器は、生成する高解像画像と実際の高解像画像が識別器に識別できなくなるように、ウエイトを学習する。これによって、高解像なテクスチャを有するより自然な見えの高解像画像を生成することができる。しかし同時に問題として、主観的に違和感のある偽構造が出現する可能性がある。
これに対して非特許文献1には、偽構造の出現と解像感を制御する方法が開示されている。非特許文献1では、識別器を用いずに高解像化を学習した生成器(偽構造は少ないが、解像感が低い)のウエイトと、識別器を用いて学習した生成器(SRGAN相当。解像感は高いが、偽構造が存在しうる)のウエイトとの加重平均を取る。この加重平均したウエイトを用いた生成器により、高解像画像を生成する。この手法は、ネットワーク補間と呼ばれる。加重平均の重みを変更することで、偽構造の出現と解像感のバランスを制御することができる。
US2018/0075581
Xintao Wang,et al.,Deep Network Interpolation for Continuous Imagery Effect Transition,Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition(CVPR),2019,pp.1692-1701
しかし、本発明者の検討により、非特許文献1のネットワーク補間を行った生成器は、生成される高解像画像に、被写体が2重に見えるエッジの多重化や色の変化などの画質劣化が発生する場合があることがわかった。
そこで、本発明の目的は、機械学習モデルを用いた画像の高解像化において、高品位な画像を提供することである。
本発明の画像処理方法は、機械学習モデルである生成器を用いて、入力された低解像画像を第1の特徴マップに変換し、前記第1の特徴マップから前記低解像画像よりも高解像な第1の中間画像と前記低解像画像よりも高解像な第2の中間画像とを生成する工程と、
前記第1の中間画像と前記第2の中間画像とに基づいて、前記低解像画像よりも高解像な推定画像を生成する工程と、を有することを特徴とする。
本発明によれば、機械学習モデルを用いた画像の高解像化において、高品位な画像を提供することができる。
実施例1における高解像化の流れを表した図である。 実施例1における画像処理システムのブロック図である。 実施例1における画像処理システムの外観図である。 実施例1における機械学習モデルの学習のフローチャートである。 実施例1および2におけるサブネットの模式図である。 実施例1における推定高解像画像の生成のフローチャートである。 実施例2における画像処理システムのブロック図である。 実施例2における画像処理システムの外観図である。 実施例2における機械学習モデルの学習のフローチャートである。 実施例2における高解像化の流れを表した図である。 実施例2におけるサブネットの模式図である。 実施例2における推定高解像画像の生成のフローチャートである。
以下、本発明の処理装置を含むシステムについて添付の図面に基づいて説明する。なお、各図において同じ構成要素には同一の符号を付し、重複する説明は省略する。
[実施例1]
まず本発明の実施例である実施例1の詳述の前に、その要旨を説明する。以下に述べる実施例1は本発明の好ましい実施形態の一つであって、そのすべてが本発明の実現に必要なわけではない。
本実施例では、機械学習モデルである生成器が、低解像画像を特徴マップ(第1の特徴マップ)に変換し、さらに該第1の特徴マップから低解像画像よりも高解像である2枚の中間画像(第1の中間画像と第2の中間画像)を生成する。以下では、第1の中間画像と第2の中間画像はそれぞれ第1の中間高解像画像と第2の中間高解像画像とも称する。
生成器は、この2枚の中間高解像画像に対して異なる損失関数を用いて、学習されている。損失関数は、中間高解像画像と正解(正解画像)である高解画像との差異に基づく第1の損失と、入力された画像が生成器によって生成された画像であるかを識別する識別器の識別出力に基づいて定義される第2の損失を有する。
第1の中間高解像画像は、第2の中間高解像画像より、第1の損失に対する第2の損失の重みが小さい損失関数で学習された結果を用いて生成される。例えば、第1の中間高解像画像を生成するための学習は第1の損失のみを損失関数とする。
第2の中間高解像画像は、第1の損失と第2の損失の重み付き和を損失関数として学習された結果を用いて生成されてもよい。これによって、第2の中間高解像画像は、SRGANにより学習された場合と同等の高解像なテクスチャを有するが、偽構造も出現しうる画像となる。
一方で、第1の中間高解像画像を生成するための学習手法はGANでない(或いは、その寄与が第2の中間高解像画像より弱い)ため、高解像なテクスチャと偽構造の両方が低減された画像となる。この2枚の中間高解像画像を組み合わせる(例えば加重平均など)ことで、解像感と偽構造の出現を調整した高解像画像(推定画像)を生成することができる。推定画像は低解像画像よりも高解像である。以下では推定画像を推定高解像画像とも称する。
この手法はネットワーク補間のように生成器のウエイトでなく、損失関数の対象である高解像化された画像を組み合わせるため、エッジの多重化や色の変化といった画質劣化を抑制させることができる。また、1つの生成器で同時に2枚の中間高解像画像を生成するため、計算時間の増大も抑制することができる。
なお以下では、学習データセットに基づいて機械学習モデルである生成器と識別器のウエイトを決定する段階のことを学習と呼び、学習済みのウエイトを用いた生成器によって低解像画像から推定高解像画像を生成する段階のことを推定と呼ぶ。機械学習モデルは、例えば、ニューラルネットワーク、遺伝的プログラミング、ベイジアンネットワークなどを含む。ニューラルネットワークは、CNN(Convolutional Neural Network)、GAN(Generative Adversarial Network)、RNN(Recurrent Neural Network)などを含む。
次に実施例1における画像処理システムに関して説明する。
図2及び3は各々、画像処理システム100のブロック図と外観図である。
画像処理システム100は、互いに有線または無線のネットワークで接続された学習装置101、高解像化装置102、制御装置103を有する。
制御装置103は、記憶部131、通信部132、表示部133を有し、ユーザの指示に従って、低解像画像に対する高解像化の実行の要求を高解像化装置102へ送信する。
高解像化装置102は、記憶部121、通信部122、取得部123、高解像化部124を有し、学習済みの機械学習モデルである生成器を用いて、低解像画像に高解像化処理を行い、推定高解像画像を生成する。取得部123、高解像化部124は1以上のCPU等のプロセッサー(処理手段)によりその機能を実装することができる。高解像化装置102は、学習装置101から生成器のウエイトの情報を取得し、記憶部121に記憶している。
学習装置101は、記憶部111、取得部112、演算部113、更新部114を有し、生成器のウエイトを学習する。取得部112、演算部113、更新部114は1以上のCPU等のプロセッサー(処理手段)によりその機能を実装することができる。
このように構成された画像処理システム100において、制御装置103は高解像化装置102により生成された推定高解像画像を取得し、表示部133を介してユーザに結果を提示する。
次に、学習装置101で実行されるウエイトの学習に関して、図4のフローチャートを用いて説明する。
実施例1の学習は、識別器を使用しない第1の学習と、識別器を使用する第2の学習(GAN)の2段階で構成される。学習装置101は、記憶部111、取得部112、演算部113、更新部114を有し、各ステップはこれらのいずれかで実行される。なお、以下に述べる各フローチャートの機能(方法)はコンピュータに該機能(方法)を実行させるプログラムとしても実現可能である。
ステップS101において、取得部112は、記憶部111から1組以上の高解像画像と低解像画像を取得する。記憶部111には、複数の高解像画像と低解像画像からなる学習データセットが保存されている。対応する低解像画像と高解像画像は、同一の物体(被写体)が画像内に存在する。なお、低解像画像は、高解像画像をダウンサンプルすることで生成してもよい。実施例1において、高解像画像の画素数は、低解像画像の16倍(水平垂直それぞれ4倍)となっている。ただし、画素数の関係はこれに限定されない。また、画像はカラー、グレースケールのどちらでもよい。また、低解像画像にダウンサンプル以外の劣化(JPEGの圧縮ノイズなど)を加えてもよい。これによって、生成器に高解像化機能に加え、画像の劣化を補正する機能を付与できる。
ステップS102において、演算部113は、低解像画像を生成器に入力して、第1および第2の中間高解像画像を生成する。生成器は、例えばCNN(Convolutional Neural Network)であり、実施例1では図1のような構成のモデルを使用する。ただし、発明はこれに限定されない。
生成器のウエイトの初期値は、乱数などで生成するとよい。図1に示された生成器では、入力された低解像画像201がサブネット(サブネットワーク)211で処理されることで、第1の特徴マップ202に変換される。サブネット211は、線型和層を1以上有する。線型和層とは、線型和層への入力と線型和層のウエイトとの線型和をとる機能を有する。線型和層は例えば畳み込み層、逆畳み込み層、フルコネクション層などである。
また、サブネット211は、非線型変換である活性化関数を1以上有する。活性化関数は、ReLU(Rectified Linear Unit)、シグモイド関数、ハイパボリックタンジェント関数などである。
実施例1において、低解像画像201は、対応する高解像画像より画素数が少ない。そのため、実施例1において、サブネット211は、水平垂直方向の画素数を増やすアップサンプル層を有する。すなわちアップサンプル層はアップサンプル層への入力にアップサンプルを実行する機能を有する層である。実施例1におけるアップサンプル層は、サブピクセル畳み込み(Sub-pixel Convolution。Pixel Shufflerとも呼ばれる)を行う機能を有する。アップサンプル層としてはこれに限定されず、逆畳み込み、バイリニア補間、最近傍補間などでアップサンプル機能を実現してもよい。ただし、サブピクセル畳み込みを使用する場合、他の手法に対してゼロ埋めの影響低減やウエイトとの畳み込みによる自由度が増すため、最終的な高解像化の効果を高めることができる。
実施例1において、サブネット211は、図5(A)に示した構成をしている。
「conv.」は畳み込み、「sum」は画素毎の和、「sub-pixel conv.」はサブピクセル畳み込みを表す。
また、「residual block」は残差ブロックを表す。実施例1における残差ブロックの構成を図5(B)に示す。
残差ブロックとは、複数の線型和層と活性化関数とを備えて構成されるブロックである。残差ブロックは、残差ブロックへの入力と残差ブロック内での一連の演算結果の和をとって出力する構成となっている。「concatenation」は、チャンネル方向の連結を行うこと示す。
実施例1において、サブネット211は、残差ブロックを8個有している。ただし、残差ブロックの数はこれに限定されない。生成器の性能をより高めたい場合は、残差ブロックの数を増やすとよい。
実施例1において、アップサンプル層(サブピクセル畳み込み)は複数存在する。実施例1では低解像度画像の画素数を16倍にアップサンプルするため、4倍にアップサンプルするサブピクセル畳み込みを2回実行している。1つのアップサンプル層で高倍率なアップサンプルを行うと、高解像化した画像に格子状のパターンなどが発生しやすいので、このように低倍率なアップサンプルを複数回実行することが望ましい。なお、実施例1ではアップサンプル層がサブネット211にある例について述べているが、本発明はこれに限定されない。アップサンプル層は、サブネット211でなく、サブネット212およびサブネット213に存在してもよい。
第1の特徴マップ202は、サブネット212に入力され、第1の残差成分203が生成される。また、第1の特徴マップ202は、サブネット213に入力され、第2の残差成分204が生成される。
サブネット212とサブネット213はそれぞれ、1以上の線型和層を有する。サブネット212とサブネット213は実施例1ではそれぞれ1つの畳み込み層で構成される。なお、サブネット212およびサブネット213は、1つの線型和層にまとめることもできる。例えば畳み込み層のフィルタの数を倍にすれば、低解像画像201のチャンネル数(カラーなら3)の倍のチャンネルを有する出力が得られる。この出力をチャンネル方向に2分割することで、第1の残差成分203と第2の残差成分204としてもよい。
第1の残差成分203は、低解像画像201と和をとられ、第1の中間高解像画像205が生成される。また、第2の残差成分204は、低解像画像201と和をとられ、第2の中間高解像画像206が生成される。低解像画像201は、第1の残差成分203と第2の残差成分204と画素数が一致するように、和をとる前にアップサンプルされる。このアップサンプルは、バイリニア補間やバイキュービック補間でもよいし、逆畳み込み層などを用いてもよい。高解像画像そのものでなく、その残差成分を推定することで、低解像画像201から色が変化するなどの画質劣化が発生しにくくなる。
なお、低解像画像201を高解像画像と画素数が一致するよう、事前にバイキュービック補間などでアップサンプルし、生成器に入力してもよい。この場合、生成器にアップサンプル層は不要となる。ただし、低解像画像201の水平垂直方向の画素数が多くなると、線型和をとる回数が増え、計算負荷が大きくなる。そのため、実施例1のように低解像画像201のアップサンプルを行わずに生成器へ入力し、生成器内部でアップサンプルすることが望ましい。
ステップS103において、更新部114は、第1の損失に基づいて、生成器のウエイトを更新する。実施例1における第1の損失とは、低解像画像201に対応する高解像画像(正解画像)と、中間高解像画像と、の違いに基づいて定義される損失である。実施例1ではMSE(Mean Square Error)を使用するが、MAE(Mean Absolute Error)などでもよい。
実施例1では、第1の中間高解像画像205と高解像画像のMSEと、第2の中間高解像画像206と高解像画像のMSEと、の和を損失関数とし、誤差逆伝搬法(Backpropagation)によって生成器のウエイトを更新する。
ステップS104において、更新部114は、第1の学習が完了したか判定する。完了は、学習(ウエイトの更新)の反復回数が既定の回数に達したかや、更新時のウエイトの変化量が既定値より小さいかなどによって、判定することができる。ステップS104にてウエイトの学習が完了していないと判定された場合、ステップS101へ戻り、取得部112は1組以上の新たな低解像画像201と高解像画像を取得する。一方、第1の学習が完了したと判定された場合、ステップS105へ進み、第2の学習を開始する。
ステップS105において、取得部112は、記憶部111から1組以上の高解像画像と低解像画像201を取得する。
ステップS106において、演算部113は、低解像画像201を生成器に入力して、第1の中間高解像画像205と第2の中間高解像画像206を生成する。
ステップS107において、演算部113は、第2の中間高解像画像206と高解像画像それぞれを識別器に入力し、識別出力を生成する。識別器は、入力された画像が生成器で生成された高解像画像か、実際の高解像画像かを識別する。識別器は、CNNなどを用いるとよい。識別器のウエイトの初期値は、乱数などで決定する。なお、識別器に入力する高解像画像は、実際の高解像画像であればなんでもよく、低解像画像201に対応する画像である必要はない。
ステップS108において、更新部114は、識別出力と正解ラベルに基づいて、識別器のウエイトを更新する。実施例1では、第2の中間高解像画像206に対する正解ラベルが0、実際の高解像画像に対する正解ラベルが1とする。損失関数にはシグモイドクロスエントロピーを使用するが、その他の関数を使用してもよい。
ステップS109において、更新部114は、第1の損失と第2の損失に基づいて、生成器のウエイトを更新する。第1の中間高解像画像205に対しては、第1の損失(対応する高解像画像とのMSE)のみをとる。第2の中間高解像画像206に対しては、第1の損失と第2の損失の重み付き和をとる。第2の損失は、第2の中間高解像画像206を識別器に入力した際の識別出力と正解ラベル1とのシグモイドクロスエントロピーである。生成器は、第2の中間高解像画像206を識別器が実際の高解像画像と誤判定するように学習したいので、正解ラベルを1(実際の高解像画像に対応)とする。第1の中間高解像画像205と第2の中間高解像画像206それぞれの損失の和を、生成器の損失関数とする。
この損失関数によってウエイトの更新を繰り返すことで、第2の中間高解像画像206側では、識別器に誤判定を起こさせるような高解像なテクスチャを有する自然な見えの高解像画像が生成されるようになる。ただし、弊害として偽構造が出現する場合がある。一方、第1の中間高解像画像205側では、高解像なテクスチャと偽構造の両方が抑制され、第2の中間高解像画像206より高周波成分の少ない高解像画像が出力されるようになる。
実施例1では、第1の中間高解像画像205に対しては第1の損失のみを使用したが、第2の損失を併用してもよい。この場合、第1の中間高解像画像205において、第1の損失における第2の損失の重みは、第2の中間高解像画像206より小さくすると良い。なお、ステップS108とステップS109の順序は逆でもよい。
ステップS110において、更新部114は、第2の学習が完了したか判定する。未完と判定した場合、ステップS105に戻って新たな1組以上の低解像画像201と高解像画像を取得する。完了の場合、ウエイトの情報を記憶部111に記憶する。なお、推定時には生成器しか使用しないため、生成器のみのウエイトを記憶してもよい。
次に、高解像化装置102および制御装置103で実行される推定(推定高解像画像の生成)に関して、図6のフローチャートを用いて説明する。高解像化装置102は、記憶部121、通信部122、取得部123、高解像化部124を有し、制御装置103は、記憶部131、通信部132、表示部133を有し、各ステップはこれらのいずれかで実行される。
ステップS201において、制御装置103の通信部132は、高解像化装置102へ高解像化の実行の要求を送信する。実行の要求は、高解像化を行う低解像画像201を指定する情報も有する。或いは、高解像化する低解像画像201自体を処理の実行の要求とともに送信してもよい。
ステップS202において、高解像化装置102の通信部122は、制御装置103から送信された実行の要求を取得する。
ステップS203において、取得部123は、記憶部121より生成器のウエイトの情報と高解像化を行う低解像画像201を取得する。低解像画像201は、有線または無線経由で接続されたその他の記憶装置から取得してもよい。
ステップS204において、高解像化部124は、低解像画像201から図1で示される生成器を用いて、第1の中間高解像画像205と第2の中間高解像画像206を生成する。第2の中間高解像画像206は、高解像なテクスチャを有する自然な見えの高解像画像だが、偽構造が出現している場合がある。一方、第1の中間高解像画像205は、高解像なテクスチャと偽構造の両方が抑制された高解像画像である。第1の中間高解像画像205は、第2の中間高解像画像206より高周波成分が少ない。
ステップS205において、高解像化部124は、第1の中間高解像画像205と第2の中間高解像画像206に基づいて、推定高解像画像207を生成する。実施例1では、第1の中間高解像画像205と第2の中間高解像画像206との加重平均によって、推定高解像画像207を生成する。なお、高解像度画像207の生成は、第1の中間高解像画像205と第2の中間高解像画像206との加重平均に限らず、第2の中間高解像画像206の部分領域を、第1の中間高解像画像205で置換するなどして生成してもよい。
ステップS206において、通信部122は、制御装置103へ推定高解像画像207を送信する。
ステップS207において、制御装置103の通信部132は、推定高解像画像207を取得する。取得された推定高解像画像207は記憶部131に記憶、または表示部133に表示される。或いは、制御装置103または高解像化装置102から、有線または無線経由で接続されたその他の記憶装置に記憶してもよい。また、制御装置103が第1の中間高解像画像205と第2の中間高解像画像206を取得するように構成しておき、推定高解像画像207の生成を制御装置103で行ってもよい。この場合、ユーザは表示部133で実際の画像を確認しながら、解像感と偽構造の出現の調整を行うことができる。
次に、本発明の効果を得るための望ましい条件に関して説明する。
生成器は、線型和層の数が、最も出力側に存在するアップサンプル層の入力側より出力側で少ないことが望ましい。生成器の演算のうち早期にアップサンプルが行われると、その後の線型和をとる回数が増え、計算負荷が増大するためである。実施例1では、最も出力側のアップサンプル層の入力側では40以上の線型和層が存在するが、出力側では第1の残差成分203と第2の残差成分204それぞれに対して線型和層1つのみである。
また、生成器は線型和層を複数有して構成されており、複数の線型和層のうち少なくとも1層の出力は、線型和層への入力とチャンネル方向に連結されるように構成されることが望ましい。これは例えば図5(b)の「concatenation」で表される連結を意味する。これによって生成器が層の後により多くの特徴マップを伝達することができ、第1の中間高解像画像205と第2の中間高解像画像206の精度が向上する。
さらに、生成器が有する複数の線型和層のうち少なくとも半数は、線型和層への入力とチャンネル方向に連結されることが望ましい。これによって、さらに高解像化の精度をより向上することができる。
また、生成器が有する複数の残差ブロックはそれぞれ、3以上の線型和層を有することが望ましい。これによって、高解像化の精度を向上することができる。さらに、残差ブロックは、2以上の活性化関数を有することが望ましい。これによって、非線型の効果が増し、高解像化の精度を向上する。
また、生成器が有する複数の残差ブロックのうち、バッチ正則化を行うバッチ正則化層を有するブロックが半数以下であることが望ましい。認識タスクと異なり、画像から画像を推定する回帰タスクでは、バッチ正則化による精度向上の効果が小さい。そのため、計算負荷の抑制のため、バッチ正則化の数を減らすことが望ましい。さらに計算負荷の抑制を望む場合、生成器がバッチ正則化層を有さない構成としてもよい。
また、生成器の学習において、画像を特徴マップに変換する学習済みの特徴抽出器を用いるとよい。特徴抽出器によって、低解像画像201に対応する正解の高解像画像を第2の特徴マップに変換し、第2の中間高解像画像206を第3の特徴マップに変換する。第2の特徴マップと第3の特徴マップの差異(例えば、MSE)に基づく第3の損失を損失関数に加え、生成器を学習するとよい。これによって、損失関数により抽象的な特徴も加味されるようになるため、高解像化された画像の見えが自然になる。
また、第2の損失は、複数の実際の高解像画像に対する識別器の識別出力それぞれに基づく値と、第1の中間高解像画像205または第2の中間高解像画像206の識別出力と、の比較に基づくことが望ましい。これはRelativistic GANと呼ばれる手法である。複数の実際の高解像画像に対する識別器の識別出力それぞれに基づく値は、複数の識別出力の平均値や中央値などを用いるとよい。例えば、第1の中間高解像画像205または第2の中間高解像画像206の識別出力と、実際の高解像画像の識別出力の平均値の差分が正解ラベル(ここでは1)を示すように、シグモイドクロスエントロピーをとる。これによって、実際の高解像画像の集合に対して、生成器で生成した高解像画像が、より本物らしいか否かという相対的な観点での学習が行える。従来のGANでは、学習時に実際の高解像画像を無視し、生成器で生成した高解像画像のみから本物らしさを学習しようとする問題が発生することがあった。しかし、Relativistic GANによってこの問題を回避し、学習の安定性を向上することができる。
以上の構成によって、機械学習モデルを用いた画像の高解像化において、計算負荷の増大と画質の劣化を抑制しつつ、解像感と偽構造の出現を制御することが可能な画像処理システムを提供することができる。すなわち、機械学習モデルを用いた画像の高解像化において、高品位な画像を提供することができる。
[実施例2]
本発明の実施例2における画像処理システムに関して説明する。
図7及び8は各々、画像処理システム300のブロック図と外観図である。画像処理システム300は、学習装置301と撮像装置302を有する。撮像装置302は、光学系321、撮像素子322、画像処理部323、記憶部324、通信部325、表示部326、システムコントローラ327を有する。光学系321は、被写体空間から入射した光を集光し、被写体像を形成する。光学系321は、必要に応じてズームや絞り調節、オートフォーカスなどの機能を有する。撮像素子322は、被写体像を光電変換によって電気信号へ変換し、撮像画像を生成する。撮像素子322は、例えばCCD(Charge Coupled Device)センサや、CMOS(Complementary Metal-Oxide Semiconductor)センサ等である。撮像画像は、撮影前の被写体空間のライブビューや、ユーザによってレリーズが押された場合に取得され、画像処理部323で所定の処理を施され、表示部326に表示される。
撮影時に、ユーザがデジタルズームを指示してレリーズを押した場合、撮像画像(低解像画像)は、画像処理部323で機械学習モデルである生成器で高解像化される。この際、学習装置301で学習されたウエイトが使用される。該ウエイトの情報は、予め通信部325を介して学習装置301から読み出され、記憶部324に記憶されている。生成器の学習と推定に関する詳細は、後述する。
なお、ユーザがデジタルズームを指示した際のライブビューでは、バイリニア補間など高速な手法でアップサンプルされた画像が表示部326に表示される。生成器によって高解像化された撮像画像(推定高解像画像)は、記憶部324に記憶され、表示部326に表示される。以上の動作は、システムコントローラ327によって制御される。
図8には撮像装置302としていわゆる一眼カメラを示しているが、撮像装置302はスマートフォンのような装置でも良い。
次に、学習装置301で実行される生成器のウエイトの学習に関して、図9のフローチャートを用いて説明する。学習装置301は、記憶部311、取得部312、演算部313、更新部314を有し、各ステップはこれらのいずれかで実行される。
ステップS301において、取得部312は、記憶部311から1組以上の低解像画像と高解像画像を取得する。実施例2において、高解像画像の画素数は低解像画像の16倍であるが、これに限定されない。
ステップS302において、演算部313は、低解像画像を生成器に入力し、第1の中間高解像画像と第2の中間高解像画像を生成する。実施例2において生成器は、図10で示した構成をしている。低解像画像401をサブネット411が第1の特徴マップ402に変換し、第1の特徴マップ402からサブネット412が第1の中間高解像画像403を、サブネット413が第2の中間高解像画像404を生成する。サブネット411は、図5(A)で示された構成であり、残差ブロックは図11に示した構成である。サブネット411は、残差ブロックを4つ有する。サブネット412とサブネット413はそれぞれ、1つの畳み込み層で構成される。ただし、各サブネットの構成はこれに限定されない。
ステップS303において、演算部313は、高解像画像と第2の中間高解像画像404をそれぞれ識別器に入力し、識別出力を生成する。
ステップS304において、更新部314は、識別出力と正解ラベルに基づいて、識別器のウエイトを更新する。
ステップS305において、更新部314は、第1の損失と第2の損失に基づいて、生成器のウエイトを更新する。第1の損失および第2の損失は、実施例1の説明と同様である。
ステップS306において、更新部314は、生成器の学習が完了したかの判定を行う。ウエイトの学習が完了していないと判定された場合、ステップS301へ戻り、完了したと判定された場合、学習を終了してウエイトの情報を記憶部311に記憶する。
次に、図12のフローチャートを用いて、画像処理部323で実行される、デジタルズームした撮像画像の高解像化に関して説明する。画像処理部323は、取得部323a、高解像化部323b、演算部323cを有し、各ステップはこれらのいずれかで実行される。
ステップS401において、取得部323aは、撮像画像から部分領域(低解像画像401)を抽出する。撮像画像は撮像素子322で取得された全画素の情報を有するため、デジタルズームに必要な部分領域のみを抽出する。
ステップS402において、取得部323aは、生成器のウエイトの情報を記憶部324から取得する。なお、ステップS401とステップS402の順序は問わない。
ステップS403において、高解像化部323bは、撮像画像の部分領域(低解像画像401)を生成器に入力し、第1の中間高解像画像403と第2の中間高解像画像404を生成する。
ステップS404において、演算部323cは、第1の中間高解像画像403と第2の中間高解像画像404の加重平均によって、推定高解像画像405を生成する。
ステップS405において、演算部323cは、推定高解像画像405を指定の画素数に拡縮(アップサンプルまたはダウンサンプル)する。生成器は画素数を16倍にアップサンプルするように学習されているため、ユーザの指定したデジタルズームの倍率に合わせる必要がある。ダウンサンプルにはバイキュービック補間などを用い、必要に応じてアンチエイリアス処理を行うとよい。1次元で4倍を超える倍率のデジタルズームが指定された場合、推定高解像画像405をバイキュービック補間などでアップサンプルする。或いは、推定高解像画像405を新たな低解像画像401として、生成器に入力してもよい。
以上の構成によって、機械学習モデルを用いた画像の高解像化において、計算負荷の増大と画質の劣化を抑制しつつ、解像感と偽構造の出現を制御することが可能な画像処理システムを提供することができる。すなわち、機械学習モデルを用いた画像の高解像化において、高品位な画像を提供することができる。
(その他の実施例)
なお、以上の各実施例では第1の損失としてMSEまたはMAE、第2の損失として識別器による識別結果を用いる例について述べたが、本発明はこれに限られない。本発明の効果は低解像画像に基づく第1の特徴マップから互いに特性の異なる第1の中間画像と第2の中間画像を生成し、第1の中間画像と第2の中間画像に基づき推定画像を生成すれば得られるのである。これは、第1の中間画像と第2の中間画像の一方で生じてしまう弊害を他方でカバーすることが可能となるためである。
また、本発明は上述の実施例の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
各実施例によれば、機械学習モデルを用いた画像の高解像化において、高品位な画像を生成することが可能な画像処理装置、撮像装置、画像処理方法、画像処理プログラム、および、記憶媒体を提供することができる。
以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の組合せ、変形及び変更が可能である。例えば、上述した実施形態では目標情報として身体情報または運動情報を設定する例について述べたが、本発明はこれに限らない。目標情報としては、勉強量や読書量を設定しても良い。
200 低解像画像
202 第1の特徴マップ
205 第1の中間画像
206 第2の中間画像
207 推定画像

Claims (23)

  1. 機械学習モデルである生成器を用いて、入力された低解像画像を第1の特徴マップに変換し、前記第1の特徴マップから前記低解像画像よりも高解像な第1の中間画像と前記低解像画像よりも高解像な第2の中間画像とを生成する工程と、
    前記第1の中間画像と前記第2の中間画像とに基づいて、前記低解像画像よりも高解像な推定画像を生成する工程と、を有することを特徴とする画像処理方法。
  2. 前記第1の中間画像は、前記第2の中間画像に対して高周波成分が少ないことを特徴とする請求項1に記載の画像処理方法。
  3. 前記第1の中間画像および前記第2の中間画像は、前記低解像画像より画素数が多いことを特徴とする請求項1または2に記載の画像処理方法。
  4. 前記生成器は、アップサンプル層を有し、
    前記アップサンプル層は、前記アップサンプル層への入力をアップサンプルして出力することを特徴とする請求項1乃至3のいずれか一項に記載の画像処理方法。
  5. 前記生成器は、1以上の線型和層を有し、
    前記線型和層は前記線型和層への入力と前記線型和層のウエイトの線型和を出力し、
    前記線型和層の数は、前記生成器に含まれる前記アップサンプル層のうちで前記生成器の最も出力側に存在するものの入力側と比べて出力側で少ないことを特徴とする請求項4に記載の画像処理方法。
  6. 前記生成器は、前記第1の特徴マップから生成した第1の残差成分と前記低解像画像との和をとることで前記第1の中間画像を生成し、
    前記第1の特徴マップから生成した第2の残差成分と前記低解像画像との和をとることで前記第2の中間画像を生成することを特徴とする請求項1乃至5のいずれか一項に記載の画像処理方法。
  7. 前記低解像画像は、前記第1の残差成分および前記第2の残差成分と画素数が一致するように、和をとる前にアップサンプルされることを特徴とする請求項6に記載の画像処理方法。
  8. 前記生成器は、線型和層を複数有し、
    前記線型和層は前記線型和層への入力と前記線型和層のウエイトの線型和を出力し、
    複数の前記線型和層のうち少なくとも1層の出力は、該線型和層への入力とチャンネル方向に連結されることを特徴とする請求項1乃至7のいずれか一項に記載の画像処理方法。
  9. 前記生成器は、線型和層を複数有し、
    前記線型和層は前記線型和層への入力と前記線型和層のウエイトの線型和を出力し、
    複数の前記線型和層のうち少なくとも半数の出力は、それぞれの前記線型和層への入力とチャンネル方向に連結されることを特徴とする請求項1乃至8のいずれか一項に記載の画像処理方法。
  10. 前記生成器は、線型和層を複数有する残差ブロックを複数有し、
    前記線型和層は前記線型和層への入力と前記線型和層のウエイトの線型和を出力し、
    前記残差ブロックは、前記残差ブロックへの入力と前記入力が前記残差ブロックよって演算された結果の和を出力することを特徴とする請求項1乃至9のいずれか一項に記載の画像処理方法。
  11. 前記残差ブロックは、非線型変換を行う活性化関数を2つ以上有することを特徴とする請求項10に記載の画像処理方法。
  12. 前記生成器は、線型和層を複数有する残差ブロックを複数有し、
    前記線型和層は前記線型和層への入力と前記線型和層のウエイトの線型和を出力し、
    前記残差ブロックは、前記残差ブロックへの入力と前記入力が前記残差ブロックよって演算された結果の和を出力し、
    複数の前記残差ブロックのうちバッチ正則化を行うバッチ正則化層を有するブロックは、半数以下であることを特徴とする請求項1乃至11のいずれか一項に記載の画像処理方法。
  13. 前記生成器は、バッチ正則化を行うバッチ正則化層を有さないことを特徴とする請求項1乃至12のいずれか一項に記載の画像処理方法。
  14. 前記推定画像は、前記第1の中間画像と前記第2の中間画像の加重平均によって生成されることを特徴とする請求項1乃至13のいずれか一項に記載の画像処理方法。
  15. 前記生成器は、第1の損失と第2の損失に基づく損失を用いて学習された機械学習モデルであり、
    前記第1の損失は前記生成器によって生成された中間画像と、該中間画像に対応する正解画像との比較に基づいて定義され、
    前記第2の損失は前記生成器によって生成された中間画像が前記生成器によって生成された画像であるかの識別結果に基づいて定義され、
    前記第1の中間画像を用いて定義される損失における前記第1の損失に対する前記第2の損失の重みは、前記第2の中間画像を用いて定義される損失における前記第1の損失に対する前記第2の損失の重みよりも小さいことを特徴とする請求項1乃至14のいずれか一項に記載の画像処理方法。
  16. 複数の低解像画像と、複数の高解像画像と、を取得する工程と、
    生成器によって、前記低解像画像を第1の特徴マップに変換し、前記第1の特徴マップから前記低解像画像よりも高解像な第1の中間画像と前記低解像画像よりも高解像な第2の中間画像とを生成する工程と、
    識別器によって、入力された画像が前記生成器で生成された画像であるかを識別する工程と、
    前記低解像画像に対応する前記高解像画像と前記第1の中間画像または前記第2の中間画像との差異に基づく第1の損失と、前記第1の中間画像または前記第2の中間画像を入力した際の前記識別器の識別出力に基づく第2の損失と、に基づいて、前記生成器を学習する工程と、を有し、
    前記第1の中間画像を用いて定義される損失における前記第1の損失に対する前記第2の損失の重みは、前記第2の中間画像を用いて定義される損失における前記第1の損失に対する前記第2の損失の重みより小さいことを特徴とする学習方法。
  17. 前記第1の中間画像を用いて定義される損失における前記第2の損失の重みは0であることを特徴とする請求項16に記載の学習方法。
  18. 特徴抽出器を用いて画像を特徴マップに変換する工程を有し、
    前記生成器を学習する工程では、前記特徴抽出器によって前記高解像画像を変換した第2の特徴マップと、前記第2の中間画像を変換した第3の特徴マップと、の差異に基づく第3の損失に基づいて、前記生成器を学習することを特徴とする請求項16または17に記載の学習方法。
  19. 前記第2の損失は、複数の前記高解像画像を入力した際の前記識別器の複数の識別出力それぞれに基づく値と、前記第1の中間画像または第2の中間画像を入力した際の前記識別器の識別出力と、の比較に基づくことを特徴とする請求項16乃至18のいずれか一項に記載の学習方法。
  20. 入力された低解像画像を高解像化した推定画像を生成する処理手段を有し、
    前記処理手段は、
    機械学習モデルである生成器を用いて、入力された低解像画像を第1の特徴マップに変換し、前記第1の特徴マップから前記低解像画像よりも高解像な第1の中間画像と前記低解像画像よりも高解像な第2の中間画像とを生成する工程と、
    前記第1の中間画像と前記第2の中間画像とに基づいて、前記低解像画像よりも高解像な推定画像を生成する工程と、を実行することを特徴とする画像処理装置。
  21. 請求項1乃至15のいずれか一項に記載の画像処理方法をコンピュータに実行させることを特徴とするプログラム。
  22. 機械学習モデルを学習させる処理手段を有し、
    前記処理手段は、
    複数の低解像画像と、複数の高解像画像と、を取得する工程と、
    生成器で前記低解像画像を第1の特徴マップに変換し、前記第1の特徴マップから前記低解像画像よりも高解像な第1の中間画像と前記低解像画像よりも高解像な第2の中間画像とを生成する工程と、
    識別器で入力された画像が前記生成器で生成された画像であるかを識別する手段と、
    前記低解像画像に対応する前記高解像画像と前記第1の中間画像または前記第2の中間画像との差異に基づく第1の損失と、前記第1の中間画像または前記第2の中間画像を入力した際の前記識別器の識別出力に基づく第2の損失と、に基づいて、前記生成器を学習する工程と、を実行し、
    前記第1の中間画像を用いて定義される損失における前記第1の損失に対する前記第2の損失の重みは、前記第2の中間画像を用いて定義される損失における前記第1の損失に対する前記第2の損失の重みより小さいことを特徴とする学習装置。
  23. 請求項16乃至19のいずれか一項に記載の学習方法をコンピュータに実行させることを特徴とするプログラム。
JP2020152151A 2020-09-10 2020-09-10 画像処理方法、画像処理装置、画像処理プログラム、学習方法、学習装置、学習プログラム Pending JP2022046219A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2020152151A JP2022046219A (ja) 2020-09-10 2020-09-10 画像処理方法、画像処理装置、画像処理プログラム、学習方法、学習装置、学習プログラム
US17/465,716 US12061672B2 (en) 2020-09-10 2021-09-02 Image processing method, image processing apparatus, learning method, learning apparatus, and storage medium
CN202111042030.5A CN114170073A (zh) 2020-09-10 2021-09-07 图像处理方法、图像处理装置、学习方法、学习装置、以及存储介质
EP21195376.5A EP3968265A1 (en) 2020-09-10 2021-09-07 Image processing method, computer implemented method, image processing apparatus, learning apparatus, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020152151A JP2022046219A (ja) 2020-09-10 2020-09-10 画像処理方法、画像処理装置、画像処理プログラム、学習方法、学習装置、学習プログラム

Publications (2)

Publication Number Publication Date
JP2022046219A true JP2022046219A (ja) 2022-03-23
JP2022046219A5 JP2022046219A5 (ja) 2023-09-14

Family

ID=77666279

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020152151A Pending JP2022046219A (ja) 2020-09-10 2020-09-10 画像処理方法、画像処理装置、画像処理プログラム、学習方法、学習装置、学習プログラム

Country Status (4)

Country Link
US (1) US12061672B2 (ja)
EP (1) EP3968265A1 (ja)
JP (1) JP2022046219A (ja)
CN (1) CN114170073A (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6715289B2 (ja) * 2018-05-24 2020-07-01 日本電信電話株式会社 映像処理装置、映像処理方法、および映像処理プログラム
US11917286B2 (en) * 2022-03-04 2024-02-27 Humane, Inc. Displaying images using wearable multimedia devices

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5274216B2 (ja) * 2008-11-25 2013-08-28 キヤノン株式会社 監視システム及び監視方法
US9459825B2 (en) * 2013-09-09 2016-10-04 Opus Medicus, Inc. Systems and methods for high-resolution image viewing
WO2018053340A1 (en) * 2016-09-15 2018-03-22 Twitter, Inc. Super resolution using a generative adversarial network
JP6832155B2 (ja) * 2016-12-28 2021-02-24 ソニーセミコンダクタソリューションズ株式会社 画像処理装置、画像処理方法、及び画像処理システム
JP7139333B2 (ja) 2017-08-11 2022-09-20 株式会社半導体エネルギー研究所 表示装置
US20210067735A1 (en) * 2019-09-03 2021-03-04 Nvidia Corporation Video interpolation using one or more neural networks

Also Published As

Publication number Publication date
CN114170073A (zh) 2022-03-11
EP3968265A1 (en) 2022-03-16
US20220076071A1 (en) 2022-03-10
US12061672B2 (en) 2024-08-13

Similar Documents

Publication Publication Date Title
JP7258604B2 (ja) 画像処理方法、画像処理装置、プログラム、および学習済みモデルの製造方法
JP7362284B2 (ja) 画像処理方法、画像処理装置、プログラム、画像処理システム、および、学習済みモデルの製造方法
JP7297470B2 (ja) 画像処理方法、画像処理装置、プログラム、画像処理システム、および、学習済みモデルの製造方法
JP6711396B2 (ja) 画像処理装置、撮像装置、および画像処理方法、並びにプログラム
RU2432614C2 (ru) Устройство обработки изображения, способ обработки изображения и программа
JP2021056678A (ja) 画像処理方法、プログラム、画像処理装置、学習済みモデルの製造方法、および、画像処理システム
JP2022046219A (ja) 画像処理方法、画像処理装置、画像処理プログラム、学習方法、学習装置、学習プログラム
JP2020036310A (ja) 画像処理方法、画像処理装置、撮像装置、レンズ装置、プログラム、記憶媒体、および、画像処理システム
CN112750092A (zh) 训练数据获取方法、像质增强模型与方法及电子设备
JP2022056769A (ja) 画像処理方法、プログラム、画像処理装置、学習済みモデルの製造方法、学習方法、学習装置、および、画像処理システム
JP2007184774A (ja) 表示装置および表示方法、学習装置および学習方法、並びにプログラム
JP7504629B2 (ja) 画像処理方法、画像処理装置、画像処理プログラム、および記憶媒体
JP2014086968A (ja) 画像処理装置、画像処理方法及びプログラム
JP6838918B2 (ja) 画像データ処理装置及び方法
WO2014156669A1 (ja) 画像処理装置および画像処理方法
CN113763524B (zh) 基于物理光学模型和神经网络的双流散景渲染方法及系统
WO2014077024A1 (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP2021140758A (ja) 学習データの製造方法、学習方法、学習データ製造装置、学習装置、およびプログラム
JP2021189929A (ja) 画像処理方法、プログラム、画像処理装置、および、画像処理システム
JP2020057242A (ja) 画像処理装置、画像処理方法、及びプログラム
JP7558890B2 (ja) 画像処理方法、画像処理装置、プログラム、訓練済み機械学習モデルの製造方法、処理装置、画像処理システム
JP2021103404A (ja) 画像処理方法、プログラム、学習済みモデルの製造方法、画像処理装置、および、画像処理システム
JP2021096747A (ja) 画像処理方法、プログラム、学習済みモデルの製造方法、画像処理装置、および、画像処理システム
US20240029321A1 (en) Image processing method, image processing apparatus, storage medium, image processing system, method of generating machine learning model, and learning apparatus
WO2024095506A1 (ja) 情報処理システム、情報処理装置、情報処理方法及び記録媒体

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230905

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230905

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20231213

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20240405

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240517

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240528

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240725

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20241001