JP7463643B2 - 画像処理用の装置、方法及びコンピュータ読み取り可能媒体、並びにニューラルネットワークトレーニングシステム - Google Patents

画像処理用の装置、方法及びコンピュータ読み取り可能媒体、並びにニューラルネットワークトレーニングシステム Download PDF

Info

Publication number
JP7463643B2
JP7463643B2 JP2020528242A JP2020528242A JP7463643B2 JP 7463643 B2 JP7463643 B2 JP 7463643B2 JP 2020528242 A JP2020528242 A JP 2020528242A JP 2020528242 A JP2020528242 A JP 2020528242A JP 7463643 B2 JP7463643 B2 JP 7463643B2
Authority
JP
Japan
Prior art keywords
image
network
feature
resolution
processor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020528242A
Other languages
English (en)
Other versions
JP2022501661A (ja
Inventor
ミケリーニ パブロ ナバレッテ、
ダン ジュー、
ハンウェン リウ、
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
BOE Technology Group Co Ltd
Original Assignee
BOE Technology Group Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from CN201811155147.2A external-priority patent/CN109360151B/zh
Priority claimed from CN201811155930.9A external-priority patent/CN109345456B/zh
Priority claimed from CN201811155252.6A external-priority patent/CN109255390B/zh
Priority claimed from CN201811155326.6A external-priority patent/CN109345455B/zh
Application filed by BOE Technology Group Co Ltd filed Critical BOE Technology Group Co Ltd
Publication of JP2022501661A publication Critical patent/JP2022501661A/ja
Application granted granted Critical
Publication of JP7463643B2 publication Critical patent/JP7463643B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2148Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/20Linear translation of whole images or parts thereof, e.g. panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4007Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4046Scaling of whole images or parts thereof, e.g. expanding or contracting using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • G06T3/4076Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution using the original low-resolution images to iteratively correct the high-resolution images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Algebra (AREA)

Description

関連出願の相互参照
本出願は、2018年9月30に出願された中国特許出願第201811155147.2号に基づく優先権と、2018年9月30に出願された中国特許出願第201811155252.6号に基づく優先権と、2018年9月30に出願された中国特許出願第201811155326.6号に基づく優先権と、2018年9月30に出願された中国特許出願第201811155930.9号に基づく優先権とを主張しており、その内容は、本明細書において参照により全体に組み込まれる。
本開示は、全般的には深層学習技術分野に関し、より詳しくは、画像処理、より詳しくは、画像処理並びに画像解像度向上用のシステム、方法及びコンピュータ読み取り可能媒体に関する。
人工ニューラルネットワークに基づく深層学習技術は、画像処理などの分野で大いに進歩している。深層学習技術の利点は、汎用構造及び比較的類似したシステムを利用した異なる技術的問題の解決にある。
本開示は、敵対的生成ネットワークトレーニング方法を提供する。前記方法は、生成ネットワークおいて、第1振幅を有する第1ノイズ入力及び第1リファレンス画像を反復的に増強して第1出力画像を生成するステップと、前記生成ネットワークにおいて、第2振幅を有する第2ノイズ入力及び前記第1リファレンス画像を反復的に増強して第2出力画像を生成するステップと、前記第1出力画像、及び前記第1リファレンス画像に対応し且つ前記第1リファレンス画像より高い解像度を有する第2リファレンス画像を、識別ネットワークに送信するステップと、前記第2リファレンス画像に基づいて前記識別ネットワークから第1スコアを得、前記第1出力画像に基づいて前記識別ネットワークから第2スコアを得るステップと、前記第1スコア及び前記第2スコアに基づいて前記生成ネットワークの損失関数を計算するステップと、前記生成ネットワークの損失関数が低減するように、前記生成ネットワークの少なくとも一つのパラメータを調整するステップとを含み得る。
いくつかの実施形態において、前記生成ネットワークの損失関数は数式(1)により計算され得る。
Figure 0007463643000001
数式(1)において、Xは高解像度のリファレンス画像を表す。Yn=0は前記第2出力画像を表す。Yn=1は前記第1出力画像を表す。Lrec(X,Yn=0)は前記第2出力画像と前記第2リファレンス画像の間の再構築誤差を表す。Lper(X,Yn=1)は前記第1出力画像と前記第2リファレンス画像の間の知覚損失を表す。LGAN(Yn=1)は前記第1スコアと前記第2スコアとの和を表す。λ、λ、λはいずれも所定の加重値を表す。
いくつかの実施形態において、前記第2出力画像と前記第2リファレンス画像の間の再構築誤差は数式(2)により計算され得る。
Figure 0007463643000002
数式(2)において、Lは増強の反復回数を表し、L≧1である。Y n=0はネットワークマイクロプロセッサにより、前記第2ノイズ入力に基づいて1回の反復を行った後に生成された画像を表し、l≦Lである。LRは第1リファレンス画像を表す。D bic(Y n=0)は、Y n=0で表される画像に対してダウンサンプリングを行うことによって得られた画像を表し、D bic(Y n=0)で表される画像は前記第1リファレンス画像と同じ解像度を有する。HRは、前記第2リファレンス画像に対してダウンサンプリングを行うことによって得られた画像を表し、HRで表される画像はY n=0で表される画像と同じ解像度を有する。E[ ]はマトリックスエネルギー計算を表す。
いくつかの実施形態において、前記第1出力画像と前記第2リファレンス画像の間の知覚損失は数式(3)により計算され得る。
Figure 0007463643000003
数式(3)において、Y n=1は生成ネットワークマイクロプロセッサにより、前記第1ノイズ入力に基づいて1回の反復を行った後に生成された画像を表す。D bic(Y n=1)は、Y n=1で表される画像に対してダウンサンプリングを行うことによって得られた画像を表し、D bic(Y n=1)で表される画像は前記第1リファレンス画像と同じ解像度を有する。LCX( )は知覚損失関数を表す。
いくつかの実施形態において、前記第1スコアと前記第2スコアとの和は数式(4)により計算され得る。
Figure 0007463643000004
数式(4)において、D(Y n=1)は前記第1スコアを表す。D(HR)は前記第2スコアを表す。
いくつかの実施形態において、前記方法は、前記第1ノイズ入力及び前記第1リファレンス画像を、少なくとも一つのパラメータが調整された前記生成ネットワークに提供して第3出力画像を生成するステップと、前記第3出力画像及び前記第2リファレンス画像を、前記識別ネットワークに提供するステップと、前記第2リファレンス画像に基づいて前記識別ネットワークから第3スコアを得、前記第3出力画像に基づいて前記識別ネットワークから第4スコアを得るステップと、前記生成ネットワークマイクロプロセッサの損失関数を計算するステップとを更に含み得る。
いくつかの実施形態において、前記第1ノイズ入力及び前記第1リファレンス画像を反復的に増強するステップは、前記第1リファレンス画像に基づいて第1特徴画像を生成するステップと、前記第1特徴画像を前記第1ノイズ入力と結合して第1併合画像を得るステップと、有限回数の反復にて、前記第1特徴画像に基づく前記第1リファレンス画像及び前記第1併合画像を反復的に増強して、前記第1リファレンス画像の高解像度画像を生成するステップとを含む。
いくつかの実施形態において、前記有限回数の反復の各々のノイズ入力は同じ所定の振幅を有する。
いくつかの実施形態において、前記方法は、前記第1リファレンス画像を補間して第1補間画像を得るステップと、前記第1補間画像に基づいて第2特徴画像を生成するステップと、前記第2特徴画像をダウンサンプリングし、当該ダウンサンプリングされた第2特徴画像を前記第1併合画像と結合して第2併合画像を得るステップと、前記有限回数の反復にて、前記第2特徴画像に基づいた前記第1リファレンス画像、前記第1併合画像、及び前記第2併合画像を反復的に増強して前記第1リファレンス画像の高解像度画像を得るステップとを更に含み得る。
いくつかの実施形態において、前記方法は、前記第1併合画像に基づいて、前記第1併合画像と前記第1特徴画像の間の相違度を表す第1残差画像を生成するステップと、前記第1残差画像に基づいて前記第1特徴画像に残差補正を適用し、前記第1リファレンス画像の高解像度画像を得るステップとを更に含み得る。
いくつかの実施形態において、前記第1残差画像の生成及び残差補正の適用は少なくとも一回行われる。
本開示は、敵対的生成ネットワークトレーニングシステムを更に提供する。前記システムは、敵対的生成ネットワークプロセッサを含み得る。前記敵対的生成ネットワークプロセッサは、生成ネットワークマイクロプロセッサと、前記生成ネットワークマイクロプロセッサにカップリングされた識別ネットワークマイクロプロセッサとを含み得る。いくつかの実施形態において、前記敵対的生成ネットワークプロセッサは、敵対的生成ネットワークトレーニング方法を実行するように構成される。前記方法は上記のとおりであってよい。
本開示は、敵対的生成ネットワークトレーニング方法によりトレーニングされた生成ネットワークマイクロプロセッサを含むシステムを更に提供する。前記方法は上記のとおりであってよい。
本開示は、敵対的生成ネットワークトレーニング方法を実行するように構成される装置を含む生成ネットワークマイクロプロセッサを更に提供する。前記方法は上記のとおりであってよい。
いくつかの実施形態において、前記装置は、分析プロセッサと、前記分析プロセッサにカップリングされた接続プロセッサと、前記接続プロセッサにカップリングされた増強プロセッサとを含み得る。
いくつかの実施形態において、前記分析プロセッサは、リファレンス画像を受信し、前記入力画像から1つ又は複数の特徴を抽出して、前記リファレンス画像に基づいて特徴画像を生成するように構成され得る。
いくつかの実施形態において、前記接続プロセッサは、所定の振幅を有するノイズ入力を受信し、前記ノイズ入力と前記特徴画像とを結合して第1併合画像を生成するように構成され得る。
いくつかの実施形態において、前記増強プロセッサは、前記特徴画像に基づくリファレンス画像及び前記第1併合画像を反復的に増強して、前記リファレンス画像の高解像度画像を生成するように構成され得る。
いくつかの実施形態において、複数回の反復が行われる場合、各回の反復のノイズ入力は同じ所定の振幅を有し得る。
いくつかの実施形態において、前記増強プロセッサは、互いにカップリングされた第1アップサンプラと、ダウンサンプラと、残差確定プロセッサと、第2アップサンプラと、補正プロセッサと、合成プロセッサとを含み得る。
いくつかの実施形態において、前記第1アップサンプラは、前記第1併合画像をアップサンプリングしてアップサンプリング特徴画像を生成するように構成され得る。
いくつかの実施形態において、前記ダウンサンプラは、前記アップサンプリング特徴画像をダウンサンプリングしてダウンサンプリング特徴画像を生成するように構成され得る。
いくつかの実施形態において、前記残差確定プロセッサは、前記ダウンサンプリング特徴画像及び前記第1併合画像から、前記ダウンサンプリング特徴画像と前記第1併合画像の間の差異を表す残差画像を生成するように構成され得る。
いくつかの実施形態において、前記第2アップサンプラは、前記残差画像をアップサンプリングしてアップサンプリング残差画像を生成するように構成され得る。
いくつかの実施形態において、前記補正プロセッサは、アップサンプリング残差画像に基づいて、前記アップサンプリング特徴画像に少なくとも1回の残差補正を適用して前記リファレンス画像の高解像度特徴画像を生成するように構成され得る。
いくつかの実施形態において、合成プロセッサは、前記高解像度特徴画像から、前記リファレンス画像の高解像度画像を合成するように構成され得る。
いくつかの実施形態において、前記増強プロセッサは、少なくとも2回の反復を行うように構成され得る。
いくつかの実施形態において、前記高解像度画像及び前記高解像度特徴画像は、後続の反復のリファレンス画像及び特徴画像であり得る。
いくつかの実施形態において、前記増強プロセッサは、互いにカップリングされた補間プロセッサと、重畳プロセッサとを更に含み得る。
いくつかの実施形態において、前記補間プロセッサは、前記リファレンス画像に対して補間を行って補間画像を生成するように構成され得る。
いくつかの実施形態において、前記重畳プロセッサは、前記補間画像を前記合成プロセッサからの出力に重畳して前記リファレンス画像の高解像度画像を生成するように構成され得る。
いくつかの実施形態において、前記第1アップサンプラは、前記第1併合画像を直接アップサンプリングするように構成され得る。
いくつかの実施形態において、前記第1アップサンプラは、前記補間画像に基づいて第2併合画像を生成し、そして前記第2併合画像をアップサンプリングしてアップサンプリング特徴画像を生成するように構成され得る。
本発明と見なされる主題は、本明細書の終末での請求項に特に指摘され且つ明確に請求される。本発明の前述の及び他の目的、特徴並びに利点は、添付図面と併せて進められる次の詳細な説明からより明らかになるであろう。図面は以下の通りである。
歪みターゲットと知覚品質ターゲットの「可能な」組み合わせの領域と、歪みターゲットと知覚品質ターゲットの「不可能な」組み合わせの領域とを含む、歪み量と知覚品質の損失の関係を説明するグラフを示す。 本開示の実施形態に係る画像処理システムのブロック図を示す。 本開示の実施形態に係る増強ユニットのブロック図を示す。 本開示の実施形態に係る増強ユニットのブロック図を示す。 本開示の実施形態に係る増強ユニットのブロック図を示す。 本開示の実施形態に係る増強ユニットのブロック図を示す。 本開示の実施形態に係る増強ユニットのブロック図を示す。 残差補正のない入力画像の増強を説明する概略図を示す。 1回の残差補正による入力画像の増強を説明する概略図を示す。 2回の残差補正による入力画像の増強を説明する概略図を示す。 本開示の別の実施形態に係る画像処理システムの概略図を示す。 本開示の実施形態に係る生成ネットワークトレーニング方法のフローチャートを示す。 本開示の実施形態に係る識別ネットワークトレーニング方法のフローチャートを示す。 本開示の実施形態に係る画像処理方法のフローチャートを示す。 本開示の実施形態に係る画像を反復的に増強する方法のフローチャートを示す。 本開示の別の実施形態に係る画像を反復的に増強する方法のフローチャートを示す。
図示は当業者による詳細な説明と併せた本発明の理解の促進における明確性を図るものであるため、図面の多様な特徴は縮尺通りでない。
次に、上で簡単に述べられた添付図面と併せて本開示の実施形態を明確且つ具体的に記述することにする。本開示の主題は、法定要件を満たすために特異性を持って記述される。しかし、説明そのものは本開示の範囲を限定することを意図していない。むしろ、本発明者らは、この文書で記述されるステップ又は要素に類似した異なるステップ又は要素を含むように、請求される主題が現在又は将来の技術と併せて他のやり方で具現され得ると考える。
多様な図面の実施形態に関連して本技術を記述したが、理解すべきことは、本技術から逸脱することなく本技術の同じ機能を実行するために、他の類似した実施形態が利用され得るか、又は記述された実施形態に対する変更及び追加が実施され得る。したがって、本技術は、いずれか単一の実施形態に限定されるべきではなく、添付される特許請求の範囲に応じた広さ及び範囲に準拠して解釈されるべきである。また、当該技術分野における通常の知識を有する者によりこの書類に記載される実施形態に基づいて得られるその他すべての実施形態は本開示の範囲内であると見なされる。
人工ニューラルネットワークに基づく深層学習技術は、画像処理などの分野で大いに進歩している。深層学習は、機械学習方法におけるデータの特性に基づく学習方法である。観測値(例えば、画像)は多様なピクセルの強度値のベクタとして、もしくは、より抽象的には、特定の形状を有する一連のエッジ、領域等として多様な方式により表され得る。深層学習技術の利点は、汎用構造及び比較的類似したシステムを利用した異なる技術的問題の解決にある。深層学習の利点は、特徴の手動取得を特徴学習及び階層的な特徴抽出用の効率的な教師なし又は半教師ありアルゴリズムに代替することである。
自然界の画像は、人間によって合成的に又はコンピュータによってランダムに作成された画像と容易に区別され得る。自然画像は、少なくとも特定の構造を含有し、非常に非ランダムであるため特徴的である。例えば、合成的に及びコンピュータによってランダムに生成された画像は自然的なシーン又はオブジェクトをほとんど含有しない。圧縮アルゴリズム、アナログ記憶媒体、さらには人間自身の視覚システムのような画像処理システムは現実世界の画像に対して機能する。
畳み込みニューラルネットワーク又は単に畳み込みネットワークは、画像を入力/出力として使用し、スカラ重みをフィルタに置き換える(即ち、畳み込み)ニューラルネットワーク構造である。例示的な例として、畳み込みネットワークは3つの層を持つ簡単な構造を有し得る。この構造は、入力の第1層における第1数量の入力画像を取り込み、非表示の第2層で第2数量の画像を生成し、出力層で2つの画像を出力する。各々の層で、畳み込みの後に画像へのバイアスの追加が続く。そして、いくつかの畳み込みとバイアスの加算の結果は、一般的に正規化線形ユニット(ReLU)、シグモイド関数、双曲線正接などに対応する活性化ボックスを通過する。前記畳み込み及びバイアスは、ネットワークの動作中に固定され、一連の入力/出力画像例の適用及び応用に依存する何らかの最適化基準に合わせるように行う調整を含むトレーニングプロセスを通じて得られる。一般的な構成は往々にして各層における数十又は数百の畳み込みを含む。少数の層を持つネットワーク(例えば、3つの層)は浅層と見なされるのに対し、5又は10層を超える層を持つネットワークは通常深層と見なされる。
畳み込みネットワークは、一般的な深層学習システムであり、例えば、画像認識、画像分類、及び超解像度画像再構築をトレーニングするよう、画像処理技術に広く使用される。
従来の超解像度画像再構築技術は、そのダウンスケールされたバージョンから高解像度画像を再構築する。これは、往々にして画像情報の損失をもたらし、その結果として、高解像度画像の現実感及び知覚品質を低下させる。
敵対的生成ネットワーク(GAN)は、自然画像の現実的サンプルを生成する一ソリューションである。GANは、2つのモデルが同時にトレーニングされるか又はクロストレーニングされる生成モデリングへのアプローチであり得る。
学習システムは、特定のターゲットに基づいてパラメータを調整するように構成され得、損失関数で表され得る。GANにおいて、前記損失関数は、難しいタスクを独立して学習できる別の機械学習システムに置き換えられる。GANは、通常、識別ネットワークに対抗する生成ネットワークを含む。前記生成ネットワークは、低解像度データ画像の入力を受信し、前記低解像度データ画像をアップスケールし、当該アップスケールされた画像を前記識別ネットワークに送る。前記識別ネットワークは、その入力が前記生成ネットワークの出力(即ち、「フェイク」アップスケールデータ画像)であるかそれとも実際画像(即ち、オリジナル高解像度データ画像)であるかを区別するタスクを任せられる。前記識別ネットワークは、その入力がアップスケールされた画像及びオリジナル画像である確率を測定する「0」と「1」の間のスコアを出力する。前記識別ネットワークが「0」又は「0」に近づくスコアを出力する場合、前記識別ネットワークは、当該画像が前記生成ネットワークの出力であると判断している。前記識別ネットワークが「1」又は「1」に近づく数値を出力する場合、前記識別ネットワークは、当該画像がオリジナル画像であると判断している。このような生成ネットワークを識別ネットワークに対向させ、したがって、「敵対的」な仕方は2つのネットワーク間の競争を利用して、生成ネットワークにより生成された画像がオリジナルと区別できなくなるまで、両方のネットワークがそれらの方法を改善するように駆動する。
識別ネットワークは、所定のスコアを有するデータを用いて入力を「リアル」又は「フェイク」とスコアリングするようにトレーニングされ得る。「フェイク」データは生成ネットワークにより生成された高解像度画像であり得、「リアル」データは所定のリファレンス画像であり得る。識別ネットワークをトレーニングするために、識別ネットワークが「リアル」データを受信する時はいつでも「1」に近づくスコアを出力し、「フェイク」データを受信する時はいつでも「0」に近づくスコアを出力するまで、前記識別ネットワークのパラメータを調整する。生成ネットワークをトレーニングするために、前記生成ネットワークの出力が識別ネットワークから「1」にできるだけ近いスコアを受信するまで、前記生成ネットワークのパラメータを調整する。
GANは普遍的には、偽造者と警察に類推される。生成ネットワークは偽造者に類推され、贋金を製造して、検出なしにそれを使用しようとするのに対し、識別ネットワークは警察に類推され、当該贋金を検出しようとし得る。偽造者と警察の間の競争は双方が、偽造品が本物と区別できなくなるまで、それらの方法を改善するように刺激する。
生成ネットワーク及び識別ネットワークの両方ともゼロ和ゲームで異なり且つ対立する目的関数、即ち、損失関数を最適化しょうとする。「クロストレーニング」を通じて識別ネットワークによる出力を最大化し、生成ネットワークは生成ネットワークが生成する画像を改善し、識別ネットワークはそのオリジナル高解像度画像と生成ネットワークにより生成された画像の区別の正確度を向上させる。前記生成ネットワークと前記識別ネットワークとは、より良好な画像を生成し、画像を評価する基準を高めようと競争する。
生成ネットワークが特定のパラメータを改善するようにトレーニングするためには、オリジナル高解像度画像と生成ネットワークにより生成された画像の区別における識別ネットワークの正確度を高める必要が残っている。例えば、リアルで破損していないと認識される画像の生成するタスクに関心がある。これは、ぼけ除去、ノイズ除去、デモザイク処理、圧縮解除、コントラスト強調、画像超解像度などのような問題に応用できる。このような問題において、破損された画像が視覚的に損なわれており、機械学習システムがそれを修復するために設計され得る。しかし、オリジナル画像を復旧するターゲットは往々にして非現実的であり、本物らしく見えない画像につながる。GANは、「リアル」画像を生成するように設計される。一般的な構成は、カラー出力画像を取り、機械学習システム(例えば、畳み込みネットワーク)を用いて画像がどれほどリアルであるかを測定する単一の数値を出力する。このシステムは知覚品質を向上できるが、現在、敵対的システムの出力は依然として人間ビューアにより自然画像と認識されるのに不足している。
超解像度画像再構築は、ベース画像をアップスケールして高解像度画像を生成し、より詳しくは、ベース画像の品質を数倍(例えば、4倍)向上させる超解像度画像を生成する。歪み及び知覚品質は、しばしば超解像度画像再構築の効果を評価するのに用いられる。歪みは、再構築された画像とベース画像の間の相違点を客観的に測定する。平均二乗偏差(MSE)、構造的類似度(SSIM)及びピーク信号対ノイズ比(PSNR)を含むいくつかの歪みメトリックが提案されている。一方で、知覚品質は人間の目に自然画像と同じくらいリアルに見えるアップスケールされた画像を作成することにもっと焦点を当てている。
図1は、歪みと知覚品質の関係を説明するグラフを示す。より詳しくは、図1は、画像再構築おける歪みと知覚品質の相反する役割を図示している。図1において、曲線の上方の領域は歪みターゲットと知覚品質ターゲットの「可能な」組み合わせを表すのに対し、曲線の下方の領域は歪みターゲットと知覚品質ターゲットの「不可能な」組み合わせを表す。図1に示すように、歪み量が小さい場合、知覚品質の損失は大きくなりがちである。そのような状況において、再構築された画像はまとまっているように現れるが、細部が欠落し得る。一方で、知覚品質の損失が小さい場合、歪み量は大きくなりがちである。そのような状況において、再構築された画像は細部が豊かになりがちである。既存の超解像度画像再構築技術は歪みの最小化を強調するのを好むが、一部の応用に対して、ビューアは細部が豊かに再構築された再構築画像を好む。
図2は、本開示の実施形態に係る画像処理システムのブロック図を示す。
図2のブロック図は、画像処理システムが図2に示されたコンポーネントのみを含むことを示すことを意図していない。本開示に係る画像処理システムは、具体的な実施の詳細に応じて、当該技術分野における通常の知識を有する者に知られているが図2に示されていない任意の数の追加的なアクセサリ及び/又はコンポーネントを含み得る。
図2に示すように、当該システムは取得ユニット100と、取得ユニット100にカップリングされた生成ネットワーク200とを含む。取得ユニット100は、リファレンス画像及びノイズ入力Iを取得するように構成される。前記リファレンス画像は入力画像Iであるか、又は、後述されるように、前記リファレンス画像は、増強又はアップスケーリングプロセスにより生成された増強された又はアップスケールされた高解像度画像であり得る。ノイズ入力Iには特に制限がない。ノイズ入力Iはノイズ画像の形であり得る。ノイズ入力Iはランダムノイズを含有し得る。
生成ネットワーク200は、入力画像Iに対して増強又はアップスケーリングを行うように構成される。生成ネットワーク200は、分析ユニット210と、接続ユニット220と、増強ユニット230とを含む。
分析ユニット210は、入力画像Iに基づいて、対応する特徴画像Rを生成するように構成される。特徴画像Rは、対応する入力像Iの異なるディメンションを表すマルチチャンネル画像であり得る。特徴画像Rは、対応する入力画像Iより多くのチャンネルを有する。いくつかの実施形態において、入力画像Iは3つのチャンネルを有し得、出力特徴画像Rは64個のチャンネル、128個のチャンネル又は他の任意の数のチャンネルを有し得る。ノイズ入力Iは同じくマルチチャンネル画像であり得る。
いくつかの実施形態において、分析ユニット210はニューラルネットワークアーキテクチャ上で実施され得る。例示的なニューラルネットワークは、畳み込みニューラルネットワーク(CNN)、残差ニューラルネットワーク(ResNet)、密集接続畳み込みネットワーク(DenseNet)、CliqueNet、filter bank(フィルタバンク)等を含む。分析ユニット210は、少なくとも一つの畳み込み層を含み得、且つ、特徴画像Rの生成を容易にするように、入力画像Iを受信、分析及び操作するように構成され得る。より詳しくは、分析ユニット210は、中間特徴画像を生成し、そして中間特徴画像に対して畳み込みを行って入力画像Iの特徴画像Rを得るように構成され得る。
接続ユニット220は、リファレンス画像の特徴画像とノイズ入力(例えば、ノイズ画像)とを連結することによって第1併合画像を生成するように構成される。ノイズ入力がノイズ画像であり且つ特徴画像及びノイズ画像の両方ともマルチチャンネル画像である実施形態において、特徴画像とノイズ入力とを連結することによって生成された第1併合画像もマルチチャンネル画像になる。より詳しくは、連結は、特徴画像の各チャンネルからのチャンネル画像をノイズ画像のチャンネルの一つからのチャンネル画像と重畳することを含む。前記第1併合画像におけるチャンネル数は、前記特徴画像におけるチャンネル数とノイズ画像におけるチャンネル数との和になる。第1併合画像の各チャンネルのチャンネル画像は、特徴画像及びノイズ画像からの対応するチャンネル画像の併合になる。
増強の複数回の反復が行われる実施形態において、一回目の反復で、接続ユニット220は、例えば、図2に示すように、入力画像Iの特徴画像Rとノイズ入力Iとを連結することによって併合画像を生成するように構成される。
増強ユニット230は、前記第1併合画像に基づいて、前記リファレンス画像に基づく高解像度特徴画像を生成するように構成される。前記高解像度特徴画像の解像度は、所定のアップスケーリング係数でリファレンス画像の解像度より高い。前記所定のアップスケーリング係数は、1より大きい任意の整数であり得る。高解像度特徴画像の前の画像がマルチチャンネル画像である実施形態において、増強ユニット230により生成される高解像度特徴画像もマルチチャンネル画像である。前記高解像度特徴画像におけるチャンネル数は、前記リファレンス画像におけるチャンネル数より大きい。増強の複数回の反復が行われる実施形態において、一回目の反復で、増強ユニット230は、例えば、図2に示すように、入力画像Iの高解像度特徴画像を生成するように構成される。
いくつかの実施形態において、増強ユニット230は、リファレンス画像に基づいて高解像度画像を生成するように構成されても良い。非限定的且つ例示的な一例として、アップスケーリング係数はAであり、リファレンス画像の解像度はx*xであると仮定する。前記リファレンス画像がA倍アップスケールされた場合、結果画像の解像度はA*x*xである。
生成ネットワーク200は、アップスケーリングを通じてリファレンス画像を反復的に増強するように構成される。より詳しくは、生成ネットワーク200は、増強の1回又は複数回の反復(即ち、アップスケーリング)を行うことによってターゲット解像度を有する画像を得るように構成される。一回目の反復で、前記リファレンス画像は入力画像Iであり、前記リファレンス画像の特徴画像は入力画像Iの特徴画像Rである。増強の後続の反復で、前記リファレンス画像は先行する反復中に生成された高解像度画像であり、前記リファレンス画像の特徴画像は同じく先行する反復中に生成された高解像度特徴画像である。
図2に示すように、増強の1回目の反復中、反復回数lは1より大きく、接続ユニット220が受信した特徴画像は増強のl-1回目の反復を経たリファレンス画像の高解像度特徴画像Rl-1である。非限定的且つ例示的な一例として、アップスケーリング係数が2である場合、1回目の反復後の高解像度特徴画像の解像度は、初期入力画像の解像度の2l倍である。実際には、反復回数は所望のターゲット解像度及び/又は増強の各回の反復中のアップスケーリング係数応じて決定され得る。
増強の各回の反復中、ノイズの振幅は変わらない。前記ノイズの振幅はノイズの平均変動に対応する。例えば、いくつかの実施形態において、ノイズはランダムノイズであり、ノイズ入力の平均値及び分散は、それぞれμ及びσである。ノイズ入力における各ピクセル値はμ-σ乃至μ+σの範囲内で変動する。そのような実施形態において、ノイズの振幅はμである。画像処理中、画像は画像アレイとして表され、したがって上記の「ピクセル値」は基本単位値を表すことが理解できる。
超解像度の再構築中、再構築された超解像度画像(例えば、毛髪、ライン、など)における細部は往々にしてノイズの影響を受ける。そのため、再構築された超解像度画像が所望の基準を満たすように、生成ネットワーク上の超解像度再構築中、選好及び必要(例えば、細部をハイライト表示すべきであるか否か、細部表示の度合い、等)に応じてノイズの振幅を調整し得ることは理解できる。
図3は、本開示の実施形態に係る増強ユニットのブロック図を示す。
図3のブロック図は、前記増強ユニットが図3に示されたコンポーネントのみを含むことを示すことを意図するものではない。本開示に係る増強ユニットは、具体的な実施の詳細に応じて、当該技術分野における通常の知識を有する者に既知である、図3に示されていない任意の数の追加的なアクセサリ及び/又はコンポーネントを含み得る。
図3において、接続ユニット220が受信したリファレンス画像は、初期入力画像Iである。図3に示すように、増強ユニット230は、第1アップサンプラ231と、ダウンサンプラ233と、残差確定ユニット234と、第2アップサンプラ232と、補正ユニット235と、合成ユニット236とを含む。
第1アップサンプラ231は、第1併合画像RCに基づいて第1アップサンプリング特徴画像R を生成するように構成される。いくつかの実施形態において、第1アップサンプラ231は、畳み込みニューラルネットワーク(CNN)及び残差ニューラルネットワーク(ResNet)のようなニューラルネットワークアーキテクチャ、及びアップサンプリング層の組み合わせを実施するように構成され得る。第1アップサンプラ231は第1併合画像RCに対して畳み込みを行って中間画像を生成するように構成される上記のニューラルネットワークアーキテクチャを実施し得る。前記アップサンプリング層は、前記中間画像に対してアップサンプリングを行って第1アップサンプリング特徴画像R を生成するように構成される。前記アップサンプリング層は、MuxOut層、ストライド転置畳み込み層、又はスタンダードパーチャンネルアップサンプラ(例えば、バイキュビック補間層)を含み得る。
ダウンサンプラ233は、第1アップサンプリング特徴画像R に対してダウンサンプリングを行って第1ダウンサンプリング特徴画像R を生成するように構成される。いくつかの実施形態において、第1アップサンプラ231は、畳み込みニューラルネットワーク(CNN)及び残差ニューラルネットワーク(ResNet)のようなニューラルネットワークアーキテクチャ、及びダウンサンプリング層の組み合わせを実施するように構成され得る。ダウンサンプラ233は、第1アップサンプリング特徴画像R に対してダウンサンプリングを行うように構成されるニューラルネットワークアーキテクチャを実施し得る。前記ダウンサンプリング層は、前記ダウンサンプリング画像に対して畳み込みを行って第1ダウンサンプリング特徴画像R を得るように構成される。前記ダウンサンプリング層は、反転MuxOut層、ストライド畳み込み層、maxpool層、又はスタンダードパーチャンネルダウンサンプラ(例えば、バイキュビック補間層)を含み得る。
残差確定ユニット234は、第1ダウンサンプリング特徴画像R 及び第1併合画像RCから残差画像D を生成するように構成される。残差画像D は、前記第1ダウンサンプリング特徴画像R と第1併合画像RCの間の相違度を表す。
いくつかの実施形態において、残差確定ユニット234は、第1ダウンサンプリング特徴画像R 及び第1併合画像RCに対して線形演算を行って残差画像D を得るように構成される。前記残差画像は、第1ダウンサンプリング特徴画像R と第1併合画像RCの間の差の大きさを表す。非限定的且つ例示的な一例として、D =αR +βD である。α=1であり、β=-1である場合、残差画像D は、第1ダウンサンプリング特徴画像R と第1併合画像RCの間の差である。残差画像D における各ピクセル値は、第1ダウンサンプリング特徴画像R 及び第1併合画像RCにおける位置的に対応するピクセルの差を表す。α及びβの値は特に限定されない。α及びβの値が選好及び必要に応じて設定され得ることは理解できる。一実施形態において、α=1.1であり、β=-0.9である。上記のα及びβの値は単に例示的な例として示されたものであり、本開示の範囲を限定することを意図していない。いくつかの実施形態において、残差画像は畳み込みネットワークにより生成され得る。
いくつかの実施形態において、残差確定ユニット234は、ニューラルネットワークを用いて残差画像D を生成するように構成され得る。他の実施形態において、残差確定ユニット234は、第1ダウンサンプリング特徴画像R と第1併合画像RCとを結合するように構成され得る。通常、結合操作は、畳される二つの画像における位置的に対応するピクセルの加重重畳を含む。そして、当該結合された特徴画像に対して畳み込みを行って残差画像D を得る。即ち、残差確定ユニット234は接続ユニット220と同じニューラルネットワークアーキテクチャを利用し得るが、当該2つのニューラルネットワークアーキテクチャのパラメータが異なり得ることは理解できる。
第2アップサンプラ232は、残差画像D に対してアップサンプリングを行ってアップサンプリング残差画像D を生成するように構成される。第2アップサンプラ232は、例えば、上記のように、畳み込みニューラルネットワーク(CNN)及び残差ニューラルネットワーク(ResNet)のようなニューラルネットワークアーキテクチャ及びアップサンプリング層の組み合わせを実施するように構成され得る。
補正ユニット235は、第1アップサンプリング残差画像D に基づいて、第1アップサンプリング特徴画像R に残差補正を適用することによって高解像度特徴画像を生成するように構成される。
第1ダウンサンプリング特徴画像R は、第1併合画像RCに対してアップサンプリングを行ってからダウンサンプリングを行った後に得られる。第1ダウンサンプリング特徴画像R は、入力画像Iの特徴画像Rと同じ解像度を有する。言い換えれば、第1ダウンサンプリング特徴画像R は、処理されていない第1併合画像RCと同様である。しかし、実際には、画像のアップサンプリングは、推定により画像の解像度を向上させることを含む。その結果、第1併合画像RCと、第1アップサンプリング特徴画像R に対してダウンサンプリングを行うことによって得られた第1ダウンサンプリング特徴画像R の間に相違点が存在する。したがって、そのような第1ダウンサンプリング特徴画像R と第1併合画像RCの間の差異を利用して、第1アップサンプリング特徴画像R を補正し得る。
例えば、図3に示すように、補正ユニット235は、以下のように第1アップサンプリング特徴画像R に残差補正を適用し得る。第1重畳モジュール2351は、第1アップサンプリング特徴画像R を補正するように、第1アップサンプリング残差画像D と第1アップサンプリング特徴画像R とを重畳するように構成される。重畳後に得られる画像は、高解像度特徴画像Rである。通常、重畳操作は、重畳される2つの画像における位置的に対応するピクセルの階調の重畳を含む。
合成ユニット236は、高解像度特徴画像Rから高解像度画像Iを合成するように構成される。図3に示すように、合成ユニット236は、入力画像Iの高解像度バージョンである画像Iを出力する。高解像度画像Iの解像度は、高解像度特徴画像Rの解像度と同じである。高解像度画像Iは、入力画像Iと同じチャンネル数を有する。いくつかの実施形態において、合成ユニット236は、ニューラルネットワーク、及び畳み込み層を実施するように構成され得る。合成ユニット236は、前記畳み込みニューラルネットワークを利用して高解像度特徴画像Rに対して畳み込みを行い、畳み込み層を利用して高解像度特徴画像Rから高解像度画像Iを合成するように構成され得る。
図4は、本開示の実施形態に係る増強ユニットのブロック図を示す。
図4のブロック図は、前記増強ユニットが図4に示されるコンポーネントのみを含むことを示すことを意図していない。本開示に係る増強ユニットは、具体的な実施の詳細に応じて、当該技術分野における通常の知識を有する者に知られているが図4に示されていない任意の数の追加的なアクセサリ及び/又はコンポーネントを含み得る。
図4において、接続ユニット220が受信したリファレンス画像は、初期入力画像Iである。同様に図3に示すように、生成ネットワーク200は、分析ユニット210と、接続ユニット220と、増強ユニット230とを含む。増強ユニット230は、第1アップサンプラ231と、第2アップサンプラ232と、ダウンサンプラ233と、残差確定ユニット234と、合成ユニット236とを含む。これらのコンポーネントの構造及び構成は上記のようである。
図3に図示される実施形態と図4に図示される実施形態の間の違いは、補正ユニット235である。
図4に示すように、補正ユニット235は、第1重畳モジュール2351と、ダウンサンプリングモジュール2352と、残差確定モジュール2353と、アップサンプリングモジュール2354と、第2重畳モジュール2355とを含む。
図4において、第1重畳モジュール2351は、第1アップサンプリング残差画像D と第1アップサンプリング特徴画像R とを重畳して第2アップサンプリング特徴画像R を得るように構成される。ダウンサンプリングモジュール2352は、第2アップサンプリング特徴画像R に対してダウンサンプリングを行って第2ダウンサンプリング特徴画像R を得るように構成される。残差確定モジュール2353は、第2ダウンサンプリング特徴画像R 及び第1併合画像RCから残差画像D を生成するように構成される。残差確定モジュール2353は、残差確定ユニット234と類似したプロセスに従って残差画像D を生成するように構成され得る。アップサンプリングモジュール2354は、残差画像D に対してアップサンプリングを行ってアップサンプリング残差画像D を得るように構成される。第2重畳モジュール2355は、アップサンプリング残差画像D と第2アップサンプリング特徴画像R とを重畳して第3アップサンプリング特徴画像R を得、そして第3アップサンプリング特徴画像R から高解像度画像Rを生成するように構成される。
第1アップサンプラ231と、第2アップサンプラ232と、アップサンプリングモジュール2354とは類似した構造を有し得る。ダウンサンプラ233とダウンサンプリングモジュール2352と類似した構造を有し得る。残差確定ユニット234と残差確定モジュール2353とは類似した畳み込みネットワークを実施するように構成され得るが、同一の画像処理システム内の2つの畳み込みネットワークは同じ構造でありながらも異なるパラメータを有し得る。
図4に図示する実施形態において、ダウンサンプラ233、残差確定ユニット234、第2アップサンプラ232及び第1重畳モジュール2351は、第1アップサンプリング特徴画像R に第1残差補正を適用する。ダウンサンプリングモジュール2352、残差確定モジュール2353、アップサンプリングモジュール2354及び第2重畳ユニット2355は、第1アップサンプリング特徴画像R に第2残差補正を適用する。いくつかの実施形態において、複数回の残差補正を行って再構築解像度をさらに向上させるために、補正ユニット235は、複数のアップサンプリングモジュールと、複数のダウンサンプリングモジュールと、複数の残差確定モジュールと、複数の第2重畳ユニットとを含み得る。
本開示に係る生成ネットワーク200は、アップスケーリングを通じて入力画像Iを反復的に増強するように構成される。より詳しくは、生成ネットワーク200は、増強の1回又は複数回の反復(即ち、アップスケーリング)を行うことによってターゲット解像度を有する画像を得るように構成される。一回目の反復で、前記リファレンス画像は、入力画像Iである。後続の増強の反復で、先行する反復中で生成された高解像度特徴画を接続モジュール220に提供する。各回の反復中、接続モジュール220は、同じ解像度を有するノイズ入力と特徴画像受信とを受信する。いくつかの実施形態において、所定の振幅が取得ユニット210に提供され得、そして、所定の振幅に基づいて、取得ユニット210は、異なる解像度を有する複数のノイズ入力を生成し、且つ、各回の反復中、接続モジュール220が受信した特徴画像と同じ解像度を有するノイズ入力を接続モジュール220に提供し得る。
図5は、本開示の実施形態に係る増強ユニットのブロック図を示す。
図5のブロック図は、前記増強ユニットが図5に示されるコンポーネントのみを含むことを示すことを意図していない。本開示に係る増強ユニットは、具体的な実施の詳細に応じて、当該技術分野における通常の知識を有する者に知られているが図5に示されていない任意の数の追加的なアクセサリ及び/又はコンポーネントを含み得る。
本開示に係る生成ネットワーク200は、入力画像に対して増強の複数回の反復を行うように構成される。図5に示すように、増強ユニット230は、第1アップサンプラ231と、第2アップサンプラ232と、ダウンサンプラ233と、残差確定ユニット234と、第1重畳モジュール2351と、ダウンサンプリングモジュール2352と、アップサンプリングモジュール2354と、残差確定モジュール2353とを含む。これらのコンポーネントの構造及び構成は、図4に対して前述されたようである。
図5に示すように、接続モジュール220が受信したリファレンス画像は、増強のl-1回目の反復後に生成された高解像度特徴画像R l-1である。図5に図示する実施形態が分析ユニット(不図示)を含むことは理解できる。増強の1回目の反復中、反復回数lは1より大きく、前記分析ユニットは初期入力画像の特徴画像を生成し、前記特徴画像を前記接続モジュールに提供する。
増強ユニット230は、逆投影を行うように構成される残差補正システムを含み得る。逆投影は、第1アップサンプリング特徴画像R に対して残差補正を行うプロセスである。前記残差補正システムからの出力は補正されたアップサンプリング特徴画像である。
増強のl-1回目の反復後に得られた高解像度画像Rμ l-1をノイズ入力に結合して第1併合画像RCl-1を生成する。第1アップサンプラ231は、第1併合画像RCl-1に対してアップサンプリングを行い、第1アップサンプリング特徴画像R を生成する。前記残差補正システムは、第1アップサンプリング特徴画像RR に対して複数ラウンドのダウンサンプリングを行って初期入力画像Iと同じ解像度を有するダウンサンプリング画像を生成する。第1アップサンプリング特徴画像R に対して複数ラウンドのダウンサンプリングを行うことによって準備されたダウンサンプリング画像を第1併合画像RCと比較することで、第1アップサンプリング特徴画像R に適用すべき残差補正を確定することができる。
図5において、Rρ は増強のl回目の反復後に得られた高解像度特徴画像を表し、当該l回目の反復中、第1アップサンプリング特徴画像Rに対してρラウンドの残差補正を行う。図5に示すように、R は1ラウンドの残差補正処理を受けたアップサンプリング特徴画像を表すために用いられ得る。R は2ラウンドの残差補正処理を受けたアップサンプリング特徴画像を表すために用いられ得、以下同様に続き得る。残差補正の回数(即ち、ρ値)を含めて、具体的な実施が選好及び必要に応じて調整され得ることは理解できる。
図6は、本開示の実施形態に係る増強ユニットのブロック図を示す。
図6のブロック図は、前記増強ユニットが図6に示されるコンポーネントのみを含むことを示すことを意図するものではない。本開示に係る増強ユニットは、具体的な実施の詳細に応じて、当該技術分野における通常の知識を有する者に既知の、図6に示されていない任意の数の追加的なアクセサリ及び/又はコンポーネントを含み得る。
図6における増強ユニット230は、第1アップサンプラ231と、第2アップサンプラ232と、ダウンサンプラ233と、残差確定ユニット234と、第1重畳モジュール2351と、ダウンサンプリングモジュール2352と、アップサンプリングモジュール2354と、残差確定モジュール2353とを含む。
図6に示すように、増強ユニット230は、補間ユニット237と、重畳ユニット238とを含む。
補間ユニット237は、リファレンス画像Il-1に対して補間を行って、前記リファレンス画像Il-1に基づく補間画像を生成するように構成される。前記補間画像におけるチャンネル数は、リファレンス画像Il-1におけるチャンネル数と同じである。前記補間画像の解像度は、高解像度特徴画像Rμ の解像度と同じである。補間ユニット237は、バイキュビック補間を含むがこれに限られない当該技術分野における通常の知識を有する者に既知の任意の適当な補間方法に従って補間を行うように構成され得る。
重畳ユニット238は、リファレンス画像Il-1の高解像度画像Iを生成するために、補間ユニット237により生成された補間画像を合成ユニット236からの出力に重畳するように構成される。
図5に図示される実施形態と図6に図示される実施形態の間の違いとしては、図5において、生成ネットワーク200は直接リファレンス画像Il-1の高解像度バージョンを出力するのに対し、図6において、生成ネットワーク200はリファレンス画像Il-1の細部画像の高解像度バージョンを出力する。図5に図示される生成ネットワーク200と図6に図示される生成ネットワーク200とは構造的に類似しているが、当該2つのニューラルネットワークアーキテクチャのパラメータが異なり得ることは理解できる。
図7は、本開示の実施形態に係る増強ユニットのブロック図を示す。
図7のブロック図は、前記増強ユニットが図7に示されるコンポーネントのみを含むことを示すことを意図するものではない。本開示に係る増強ユニットは、具体的な実施の詳細に応じて、当該技術分野における通常の知識を有する者に既知の、図7に示されていない任意の数の追加的なアクセサリ及び/又はコンポーネントを含み得る。
図7に示すように、増強ユニット200は、第1アップサンプラ231と、第2アップサンプラ232と、ダウンサンプラ233と、残差確定ユニット234と、ダウンサンプリングモジュール2352と、アップサンプリングモジュール2354と、残差確定モジュール2353とを含む。これらのコンポーネントの構造及び構成は、図6に対して前述されたようである。
図6における実施形態と図7における実施形態の間の違いは、第1アップサンプラ231にある。図6における第1アップサンプラ231は、直接第1併合画像RCl-1に対してアップサンプリングを行って第1アップサンプリング特徴画像R を生成するように構成される。図7において、第1アップサンプラ231は、直接第1併合画像RCl-1に対してアップサンプリングを行わない。図6及び図7に図示される第1アップサンプラが本開示に係る画像処理システムにおいて個別に又は組み合わせて使用され得ることは理解できる。
図7に示すように、第1アップサンプラ231は、分析モジュール2311と、ダウンサンプリングモジュール2312と、接続モジュール2313と、アップサンプリングモジュール2314とを含む。
第1アップサンプラ231の分析モジュール2311は、前記補間画像の特徴画像を生成するように構成される。前記特徴画像におけるチャンネル数は、前記補間画像におけるチャンネル数と同じである。前記特徴画像の解像度は、前記補間画像の解像度と同じである。
第1アップサンプラ231のダウンサンプリングモジュール2312は、前記補間画像の特徴画像に対してダウンサンプリングを行ってダウンサンプリング特徴画像を生成するように構成される。
第1アップサンプラ231の接続モジュール2313は、ダウンサンプリングモジュール2312により生成されたダウンサンプリング特徴画像を第1併合画像RCl-1と結合して第2併合画像を得るように構成される。
第1アップサンプラ231のアップサンプリングモジュール2314は、前記第2併合画像に対してアップサンプリングを行って第1アップサンプリング特徴画像R を生成するように構成される。
本開示に係る画像処理システムにおけるモジュール、ユニット、及び/又はコンポーネントの各々は本明細書で記述される多様な技法を実施し得る1つ又は複数のコンピュータシステム及び/又はコンピューティング装置上で実施され得る。前記コンピューティング装置は、汎用のコンピュータ、マイクロプロセッサ、デジタル電子回路、集積回路、特に設計されたASIC(特定用途向け集積回路)、コンピュータハードウェア、ファームウェア、ソフトウェア、及び/又はその組み合わせの形であり得る。これらの多様な実施は、少なくとも一つのプログラマブルプロセッサを含むプログラマブルシステム上で実行可能及び/又は解釈可能な1つ又は複数のコンピュータプログラムにおける実施を含み、当該少なくとも一つのプログラマブルプロセッサは専用又は汎用であり得、且つカップリングされて記憶システム、少なくとも一つの入力装置や少なくとも一つの出力装置からデータ及び命令を受信し、記憶システム、少なくとも一つの入力装置や少なくとも一つの出力装置にデータ及び命令を送信し得る。
例えば、一例示的なコンピューティング装置は、互いに通信可能にカップリングされた処理システム、少なくとも一つのコンピュータ読み取り可能媒体、及び少なくとも一つのI/Oインタフェースを含み得る。前記コンピューティング装置は、多様なコンポーネントを互いにカップリングさせるシステムバス又は他のデータ、及び指令転送システムを更に含み得る。システムバスは、各種のバスアーキテクチャのいずれか一つを利用するメモリバス又はメモリコントローラ、周辺バス、ユニバーサルシリアルバス、及び/又はプロセッサ又はローカルバスのような異なるバス構造のうちの1つ又はその組み合わせを含み得る。制御ライン及びデータラインのような多様な他の例も考えられる。
前記処理システムは、ハードウェアを利用して1つ又は複数の操作を行うように構成され、したがって、プロセッサ、機能ブロック等として構成され得るハードウェア素子を含み得る。これは、1つ又は複数の半導体を用いて形成された特定用途向け集積回路又は他の論理デバイスとしてのハードウェアにおける実施を含み得る。ハードウェア素子は、それらが形成される材料又はびそれらに用いられる処理メカニズムによって限定されない。プロセッサは、半導体及び/又はトランジスタ(例えば、電子集積回路)を含み得る。
コンピュータプログラム(プログラム、アプリケーション、ソフトウェア、ソフトウェアアプリケーション又はコードとも呼ばれる)は、プログラマブルプロセッサの機械命令を含み、高レベルの手続き及び/又はオブジェクト指向プログラミング言語、及び/又はアセンブリ/機械言語で実施され得る。本明細書で使用されるように、用語「機械読み取り可能媒体」、「コンピュータ読み取り可能媒体」は、機械読み取り可能信号として機械命令を受信する機械読み取り可能媒体を含むプログラマブルプロセッサに機械命令及び/又はデータを提供するために用いられる任意のコンピュータプログラム製品、装置及び/又はデバイス(例えば、磁気ディスク、光ディスク、メモリ、プログラマブル論理デバイス(PLD))を指す。用語「機械読み取り可能信号」は、プログラマブルプロセッサに機械命令及び/又はデータを提供するために用いられる任意の信号を指す。
I/Oインタフェースは、ユーザがコマンド及び情報をコンピューティング装置に入力可能にし、なお、情報がユーザ及び/又は他のコンポーネント又はデバイスに提示され得るようにする任意のデバイスであり得る。その例は、ユーザに情報を表示するための表示装置(例えば、CRT(陰極線管)又はLCD(液晶ディスプレイ)モニター)、並びにユーザがコンピュータに入力を提供できるキーボード及びポインティングデバイス(例えば、マウス又はトラックボール))を含むが、これらに限られない。他の種類のアクセサリ及び/又はデバイスを用いてユーザとの対話を提供しても良い。例えば、ユーザに提供されるフィードバックは任意の形の感覚フィードバック(例えば、視覚フィードバック、聴覚フィードバック、又は触覚フィードバック)であり得る。ユーザからの入力は、音響、音声又は触覚入力を含む任意の形で受信され得る。
上記の装置、システム、プロセス、機能、及び技法は、バックエンド・コンポーネント(例えば、データサーバとして)を含む、又はミドルウェアコンポーネント(例えば、アプリケーションサーバ)を含む、又はフロントエンド・コンポーネント(例えば、ユーザが上記の装置、システム、プロセス、機能、及び技法の実施と対話を行えるグラフィカルユーザインタフェース又はウェブブラウザを有するクライアントコンピュータ)を含む、又はそのようなバックエンド、ミドルウェア、又はフロントエンドコンポーネントの組み合わせを含むコンピューティングシステムにおいて実施され得る。前記システムのコンポーネントは、任意の形式又はデジタルデータ通信の媒体(通信ネットワーク等)により相互接続され得る。通信ネットワークの例は、ローカルエリアネットワーク(「LAN」)、ワイドエリアネットワーク(「WAN」)、及びインターネットを含む。
前記コンピューティングシステムは、クライアントと、サーバとを含み得る。クライアントとサーバとは、通常互いに離れており、且つ、一般的に通信ネットワークを介して対話を行う。クライアントとサーバーの関係は、それぞれのコンピュータで実行され且つ互いにクライアント―サーバ関係を持つコンピュータープログラムによって生じる。
図8A乃至図8Cは、異なる回数の残差補正による入力画像の増強を説明する概略図を示す。図8Aは、残差補正のない入力画像の増強を説明する概略図を示す。図8Bは、1回の残差補正による入力画像の増強を説明する概略図を示す。図8Cは、2回の残差補正による入力画像の増強を説明する概略図を示す。
図8A乃至図8Cにおいて、文字「a」は、分析ユニット210及び/又は分析モジュール2311より行われる特徴抽出操作を表す。文字「s」は、合成ユニット236により行われる合成操作を表す。文字「b」は、補間ユニット237により行われる補間操作を表す。文字「d」は、ダウンサンプラ233及び/又はダウンサンプリングモジュール2352、2312により行われるダウンサンプリング操作を表す。文字「u」は、第2アップサンプラ233及び/又はアップサンプリングモジュール2353、2314により行われるアップサンプリング操作を表す。記号「+」は、第1重畳モジュール2351及び/又は第2重畳モジュール2355により行われる重畳操作を表す。前記重畳操作は、重畳される2つの画像における位置的に対応するピクセルの階調の重畳を含む。文字「c」は、接続ユニット220及び/又は接続モジュール2313により行われる結合操作を表す。結合操作は、重畳される2つの画像における位置的に対応するピクセルの加重重畳を含む。各コンポーネントの構造及び構成は、上記のようである。なお、上記のように、2つの画像の間の残差画像は、2つの画像の間の相違点を表す。いくつかの実施形態において、残差画像を得るために、減算を実行し得る。他の実施形態において、残差画像は、2つの画像を結合し、そして当該結合された画像に対して変換を行うことによって得られる。図8A乃至8Cに図示される実施形態において、残差画像は、結合操作を含むプロセスを通じて得られる。
図8Aに図示される実施形態において、残差補正なしに入力画像に対して増強を行う。増強の反復の総回数は3回であり、残差補正のラウンド数(ρ)は0である(即ち、ρ=0である)。
図8Aに示すように、入力画像Iを、入力画像Iに対して特徴抽出操作を行って入力画像Iの特徴画像を得る分析モジュール(a)に入力する。そして、接続モジュール(c)で当該特徴画像とノイズ入力とを結合して第1併合画像を得る。合成モジュール(s)は前記特徴画像に対して合成操作を行い、重畳モジュール(+)は当該合成された画像を入力画像Iと重畳して変換された入力画像を得る。補間モジュール(b)で当該変換された入力画像に対して補間操作を行って、解像度が2倍向上された第1補間画像を得る。分析モジュール(a)は、第1補間画像の特徴画像を得、続いて、ダウンサンプリングモジュール(d)におけるダウンサンプリング操作が行われる。接続モジュール(c)でダウンサンプリングされた画像を前記第1併合画像と結合する。そして、当該結合された画像をアップサンプリングモジュール(u)で2倍アップサンプリングして第1高解像度特徴画像を得る。合成モジュール(s)により前記第1高解像度特徴画像に対して合成操作を行い、当該合成された画像が第1補間画像と重畳され、第1高解像度画像が得られる。
そして、前記第1高解像度画像に対して補間操作を行って第2補間画像を得る。前記第1高解像度特徴画像を対応する解像度を有するノイズ入力と結合して第2併合画像を得る。前記第2補間画像に対して特徴抽出及び2倍ダウンサンプリングを順次行う。当該ダウンサンプリングされた画像を前記第2併合画像と結合する。そして、当該結合された画像を2倍アップサンプリングして第2高解像度特徴画像を得る。前記第2高解像度特徴画像に対して合成操作を行い、合成された画像を前記第2補間画像と重畳して、入力画像Iに対して4倍向上された解像度を有する第2高解像度画像を得る。
そして、入力画像Iに対して8x倍向上された解像度を有する第3高解像度画像を得るために、前記第2高解像度画像に前記第1高解像度画像と同じ処理を施し、前記第2高解像度特徴画像に前記第1高解像度特徴画像と同じ処理を施す。
図8Bに図示される実施形態において、一回の残差補正で入力画像に対して増強を行う。増強の反復の総回数は3回であり、残差補正のラウンド数(ρ)は1である(即ち、ρ=1である)。
図8Bに示すように、入力画像Iを分析モジュール(a)に入力し、分析モジュール(a)は入力画像Iに対して特徴抽出操作を行って力画像Iの特徴画像を得る。前記特徴画像を同じ解像度を有するノイズ入力と結合して第1併合画像を得る。合成モジュール(s)は前記特徴画像に対して合成操作を行い、重畳モジュール(+)は当該合成された画像を入力画像Iと重畳して変換された入力画像を得る。補間モジュール(b)は、当該変換された入力画像を補間係数2で補間して第1補間画像を得る。分析モジュール(a)は、前記第1補間画像の特徴画像を得る。ダウンサンプリングモジュール(d)で前記第1補間画像を2倍ダウンサンプリングする。そして、前記接続モジュール(c)で当該ダウンサンプリングされた第1補間画像を前記第1併合画像と結合する。そして、アップサンプリングモジュール(u)で当該結合された画像を2倍アップサンプリングして第1アップサンプリング特徴画像を得る。前記第1アップサンプリング特徴画像は、2倍アップサンプリングされている。
前記第1アップサンプリング特徴画像をダウンサンプリングし、当該ダウンサンプリングされた第1アップサンプリング特徴画像と前記第1併合画像の間の相違点を表す第1残差画像を得る。前記第1残差画像を2倍アップサンプリングする。当該アップサンプリングされた第1残差画像と前記第1アップサンプリング特徴画像とを重畳して第1高解像度特徴画像を得る。前記第1高解像度特徴画像に対して合成操作を行い、その後、当該合成された画像を前記第1補間画像と重畳して第1高解像度画像を得る。前記第1高解像度画像の解像度は、入力画像Iの解像度に対して2倍向上されている。
解像度をさらに向上させるために、前記第1高解像度画像を補間ファクタ2で補間して第2補間画像を取得し得る。前記第1高解像度特徴画像を同じ解像度を有するノイズ入力と結合して第2併合画像を得る。前記第2補間画像に対して特徴抽出及びダウンサンプリングを行い、そして当該ダウンサンプリングされた第2補間画像を前記第2併合画像と結合する。当該結合された画像をアップサンプリングして4倍アップサンプリングされた第1アップサンプリング特徴画像を得る。
前記第1アップサンプリング特徴画像を2倍ダウンサンプリングして第1ダウンサンプリング特徴画像を得る。前記第1ダウンサンプリング特徴画像をさらに2倍ダウンサンプリングし、その後、前記第1ダウンサンプリング特徴画像と前記第1併合画像の間の相違点を表す第2残差画像を得る。前記第2併合画像を2倍アップサンプリングし、そして前記第1ダウンサンプリング特徴画像と重畳して、当該重畳された画像と前記第1高解像度特徴画像の間の残差を確定する。前記残差を2倍アップサンプリングし、そして(4倍アップサンプリングされた)第1アップサンプリング特徴画像と重畳して第2高解像度特徴画像を得る。前記第2高解像度特徴画像に対して合成操作を行い、続いて前記第2補間画像との重畳を行って第2高解像度画像を得る。前記第2高解像度画像の解像度は、入力画像Iの解像度に対して4倍向上されている。
図8Bに示すように、上記のプロセスを繰り返すと、入力画像Iの解像度に対して8倍向上された解像度を有する第3高解像度画像が生成される。
図8Cに図示される実施形態において、一回の残差補正で入力画像に対して増強を行う。増強の反復の総回数は3回であり、残差補正のラウンド数(ρ)は2である(即ち、ρ=2である)。
図8Bに図示される実施形態と図8Cに図示される実施形態の間の違いとして、図8Cにおいて、第1アップサンプリング特徴画像に複数ラウンドのダウンサンプリングを施し、最終的なダウンサンプリング画像と前記第1併合画像の間の残差を確定する。前記第1アップサンプリング特徴画像に対して複数回の残差補正を行うために、前記残差をアップサンプリングして、第1アップサンプリング特徴画像と重畳する。図8Cに図示される実施形態は、図5に関連して前述されている。
図9は、本開示の別の実施形態に係る画像処理システムの概略図を示す。
図9に示すように、前記画像処理システムは、生成ネットワーク200と、トレーニングデータ構築モジュール300と、トレーニングモジュール400とを含む。
トレーニングセット構築モジュール300は、トレーニング生成ネットワーク200をトレーニングするためのデータを構築するように構成される。トレーニングデータは、複数の高解像度リファレンス画像と、前記複数の高解像度リファレンス画像に対してダウンサンプリングを行うことによって得られた複数の対応する低解像度リファレンス画像とを含み得る。前記高解像度リファレンス画像と前記低解像度リファレンス画像の間アップスケール係数は、前記生成ネットワークにより最終的に生成される高解像度画像と入力画像(例えば、I)の間のアップスケール係数と同じである。
トレーニングモジュール400は、所望のトレーニング目標が満たされるまで、生成ネットワーク200と識別ネットワーク(不図示)とを交互にトレーニングするように構成される。例えば、トレーニング目標は、所定の数のトレーニングセッションであり得る。生成ネットワークと識別ネットワークとを交互にトレーニングすることは、生成ネットワークのトレーニングを識別ネットワークのトレーニングと交互に行うことであり、その逆も同様である。識別ネットワークは、生成ネットワークとトレーニングできるである限り、当該技術分野における通常の知識を有する者に知られている任意の適当な方式で構築及び構成され得る。
図10は、本開示の実施形態に係る生成ネットワークトレーニング方法のフローチャートを示す。
図10に示すように、前記方法は以下のステップを含む。
ステップS111で、第1振幅を有するリファレンスノイズ入力に対応する少なくとも一つの第1ノイズ入力、及び複数の低解像度リファレンス画像のうちの一つを生成ネットワークに提供して、上記のように反復的に増強し、第1出力画像を生成する。
ステップS112で、第2振幅を有するリファレンスノイズ入力に対応する少なくとも一つの第2ノイズ入力、及び複数の低解像度リファレンス画像のうちの一つを前記生成ネットワーク提供して、上記のような反復画像処理を通じて第2出力画像を生成する。
S111とS112とが行われる順序は特に限定されない。
前記第1振幅は「0」より大きく、前記第2振幅は「0」に等しい。前記第1ノイズ入力の数及び前記第2ノイズ入力の数はいずれも反復画像処理で行われるべき増強の反復回数と同じである。さらに、各回の反復中、前記ノイズ入力は、前記リファレンス画像に対応する特徴画像の解像度と同じ解像度を有する。前記第1出力画像及び前記第2出力画像は、反復画像処理によって生成される最終的な画像を指す。同一のトレーニングセッション中、前記第1出力画像と前記第2出力画像は、生成ネットワーク200により同じネットワークパラメータに基づいて生成される。
ランダムノイズを含有し得るノイズリファレンスには特に制限がない。ノイズ入力の平均値及び分散はそれぞれμ及びσである。前記ノイズ入力における各ピクセル値はμ-σ乃至μ+σの範囲内で変動する。そのような実施形態において、ノイズの振幅はμである。いくつかの実施形態において、第1ノイズ入力の平均値(μ)は1であり、分散は所定の値(σ)である。
ステップS113で、前記第1出力画像、及び前記複数の低解像度リファレンス画像のうちの一つに対応する高解像度リファレンス画像を、識別ネットワークに提供する。前記識別ネットワークは、画像を分析及び分類して、前記高解像度リファレンス画像に基づく第1スコアを出力し、前記第1出力画像に基づく第2スコアを出力する。
前記生成ネットワークの損失は、以下の数式(1)により計算される。
Figure 0007463643000005
式(1)において、Xは前記高解像度のリファレンス画像を表す。Yn=0は、前記第2出力画像を表す。Yn=1は、前記第1出力画像を表す。Lrec(X,Yn=0)は、前記第2出力画像と前記高解像度リファレンス画像の間の再構築誤差を表す。Lper(X,Yn=1)は、前記第1出力画像と前記高解像度リファレンス画像の間の知覚損失を表す。LGAN(Yn=1)は、前記第1スコアと前記第2スコアとの和を表す。λ、λ、λは、いずれも所定の加重値を表す。
再構築誤差Lrec(X,Yn=0)は、以下の数式(2)により計算される。
Figure 0007463643000006
知覚損失Lper(X,Yn=1)は、以下の数式(3)により計算される。
Figure 0007463643000007
GAN(Yn=1)の値は、以下の数式(4)により計算される。
Figure 0007463643000008
上記の数式(2)乃至(4)において、
Lは増強の反復回数を表し、L≧1であり、
n=0は、前記生成ネットワークにより第2ノイズ入力に基づいて増強の一回の反復を行った後に生成される画像を表し、l≦Lである。
LRは、低解像度リファレンス画像を表し、
bic(Y n=0)は、Y n=0で表される画像に対してダウンサンプリングを行うことによって得られた画像を表し、D bic(Y n=0)で表される画像は前記低解像度リファレンス画像と同じ解像度を有する。
HRは高解像度リファレンス画像に対してダウンサンプリングを行うことによって得られた画像を表し、HRで表される画像はY n=0で表される画像と同じ解像度を有し、
n=1は、前記生成ネットワークにより第1ノイズ入力に基づいて増強の一回の反復を行った後に生成された画像を表し、
bic(Y n=1)はY n=1で表される画像に対してダウンサンプリングを行うことによって得られた画像を表し、D bic(Y n=1)で表される画像は前記低解像度リファレンス画像と同じ解像度を有し、
CX( )は、知覚損失関数を表し、
D(Y n=1)は、前記第1スコアを表し、
D(HR)は、前記2スコアを表し、
E[ ]は、マトリックスエネルギー計算を表す。
識別ネットワークはL個の入力端を含む。Lは増強の反復回数を表し、L≧1である。前記生成ネットワークによる第1ノイズ入力に基づく増強の(L-1)回目の反復の各々は一つの中間画像を生成し、L回目の反復は第1出力画像を生成する。前記第1出力画像を前記識別ネットワークに提供すると同時に、各々の中間画像を前記識別ネットワークに提供する。各々の中間画像及び前記第1出力画像を対応する入力端を介して前記識別ネットワークに提供する。
また、高解像度リファレンス画像に対してダウンサンプリングを行うことによって、対応する中間画像と同じ解像度を有する中間解像度画像を生成する。前記高解像度リファレンス画像を前記識別ネットワークに提供すると同時に、複数の中間解像度画像を前記識別ネットワークに提供する。前記複数の中間解像度画像の各々及び高解像度リファレンス画像を対応する入力端を介して前記識別ネットワークに提供する。
前記識別ネットワークは、高解像度リファレンス画像と各入力端で受信された計算された解像度が最も高い画像の間のマッチング度を評価するように構成される。前記識別ネットワークは、「0」乃至「1」の値を割り当てることによって各々のマッチングをスコアリングするように構成される。前記識別ネットワークが「0」又は「0」に近づくスコアを出力する場合、前記識別ネットワークは、計算された解像度が最も高い画像が前記生成ネットワークの出力であると判断している。前記識別ネットワークが「1」又は「1」に近づく数値を出力する場合、前記識別ネットワークは、計算された解像度が最も高い画像が高解像度リファレンス画像であると判断している。
ステップS114で、生成ネットワークの損失が低減するように、前記生成ネットワークのパラメータを調整する。前記損失は、前記高解像度リファレンス画像と出力画像の間の差と、前記高解像度リファレンス画像と前記第2出力画像の間の差との和を表す。
生成ネットワークの損失を低減することは、損失関数に従って計算して得られる損失を前回の生成ネットワークのトレーニングセッションにおいてより小さくするか、又は複数回の生成ネットワークトレーニングセッションプロセスにわたって損失が減少する傾向を確立することである。
図11は、本開示の実施形態に係る識別ネットワークトレーニング方法のフローチャートを示す。
図11に示すように、前記方法は以下のステップを含む。
ステップS121で、第1振幅を有するリファレンスノイズ入力に対応する第1ノイズ入力及び低解像度リファレンス画像を、パラメータが調整された生成ネットワークに提供する。前記生成ネットワークは、第3出力画像を生成する。
ステップS122で、前記第3出力画像及び前記低解像度リファレンス画像の高解像度バージョンを識別ネットワークに提供する。前記識別ネットワークの損失を低減させることに着目して前記識別ネットワークのパラメータを調整する。前記識別ネットワークは、前記識別ネットワークが受信した入力が前記生成ネットワークからの出力画像であるかそれとも高解像度リファレンス画像であるかを分類する分類結果を出力するように構成される。前記分類結果は「0」から「1」までの値である。前記識別ネットワークが「0」又は「0」に近づくスコアを出力する場合、前記識別ネットワークは、前記入力が前記生成ネットワークからの出力画像であると判断している。前記識別ネットワークが「1」又は「1」に近づく数値を出力する場合、前記識別ネットワークは、入力画像が高解像度リファレンス画像であると判断している。
識別ネットワークは、入力として受信した画像とリファレンス画像の間のマッチング度を分類できる限り、当該技術分野における通常の知識を有する者に知られている任意の適当な方法で構築及び構成され得る。
例えば、いくつかの実施形態において、識別器はカスケードシステムであり得る。前記カスケードシステムは、複数のカスケード層を含み、前記複数のカスケード層の各々は、分析モジュールと、プーリングモジュールと、合成層と、シグモイド層とを含む。
複数の分析モジュールの各々は、複数の入力端のうち対応する一つにカップリングされる。前記分析モジュールは、入力端を介して複数の入力画像を受信して、前記複数の入力画像の各々から1つ又は複数の特徴を抽出し、当該抽出された1つ又は複数の特徴に基づいて前記複数の入力画像に対応する複数の特徴画像を生成するように構成される。
前記分析モジュールは、畳み込み層と、フィルタとを含み得る。前記畳み込み層は、入力画像に対して畳み込みを行うように構成される。前記畳み込み層により生成される画像は、前記入力画像の中間特徴画像である。前記フィルタは、前記中間特徴画像にフィルタを適用して前記入力画像の特徴画像を得るように構成される。前記フィルタは、(例えば、特徴を抽出することにより)画像を変換するように構成される。前記フィルタは、畳み込みニューラルネットワーク(CNN)、残差ネットワーク(ResNet)、密に接続された畳み込みネットワーク(DenseNet)、交互に更新されるクリークを持つ畳み込みニューラルネットワーク(CliqueNet)、フィルタバンク等として構成され得る。
前記複数の分析モジュールの各々は、プーリングモジュールにカップリングされる。前記プーリングモジュールは、カスケード接続される。前記プーリングモジュールは、複数の入力画像を受信し、前記複数の入力画像を連結することによって併合画像を生成し、前記併合画像に対してダウンサンプリングを行ってダウンサンプリングされた併合画像を生成するように構成される。カスケードの第1層において、分析モジュールからの特徴画像は、対応するプーリングモジュールのリファレンス画像として兼ねる。カスケードの後続の層において、前記リファレンス画像は、カスケードの前の層におけるプーリングモジュールにより生成されるダウンサンプリングされた併合画像である。
前記プーリングモジュールは、コネクタと、畳み込み層と、フィルタとを含み得る。前記コネクタは、併合画像を生成するために、前記分析モジュールにより生成された特徴画像と前記特徴画像と同じ解像度を有する前記リファレンス画像とを連結するように構成される。前記畳み込み層は、前記併合画像に対してダウンサンプリング操作を行って前記併合画像より低い解像度を有する中間ダウンサンプリング特徴画像を得るように構成される。言い換えれば、前記プーリングモジュールにおける畳み込み層は、ダウンサンプリング層であり得る。前記畳み込み層は、反転MuxOut層、ストライド畳み込み層、maxpool層、又はスタンダードパーチャンネルダウンサンプラ(例えば、バイキュビック補間層)を含み得る。前記プーリングモジュールにおけるフィルタは、前記中間ダウンサンプリング特徴画像に対してフィルタを適用してダウンサンプリング特徴画像を得るように構成される。前記フィルタは、畳み込みニューラルネットワーク(CNN)、残差ネットワーク(ResNet)、密に接続された畳み込みネットワーク(DenseNet)、交互に更新されるクリークを持つ畳み込みニューラルネットワーク(CliqueNet)、フィルタバンク等として構成され得る。
前記合成層は、カスケードシステムの最後の層におけるプーリングモジュールからダウンサンプリングされた併合画像を受信するように構成される。前記合成層は、プーリングモジュールのカスケードの最後の層からのダウンサンプリングされた併合画像に基づいてトレーニング画像を生成するように構成される。前記合成層は、フィルタと、少なくとも一つの畳み込み層とを含み得る。前記フィルタは、プーリングモジュールのカスケードの最後の層からのダウンサンプリングされた併合画像にフィルタを適用して、中間トレーニング画像を得るように構成される。前記フィルタは、畳み込みニューラルネットワーク(CNN)、残差ネットワーク(ResNet)、密に接続された畳み込みネットワーク(DenseNet)、交互に更新されるクリークを持つ畳み込みニューラルネットワーク(CliqueNet)、フィルタバンク等として構成され得る。前記合成層の畳み込み層は、前記中間トレーニング画像に対して畳み込みを行ってトレーニング画像を得るように構成される。そして、前記トレーニング画像をシグモイド層に送り、そこで、前記トレーニング画像を前記トレーニング画像と同じ解像度を有する予め設定された標準画像に対して分類する。
前記シグモイド層は、受信された画像と前記受信された画像と同じ解像度を有する予め設定された標準画像の間のマッチング度を表すスコアを生成することによって、受信された前記合成層が生成したダウンサンプリングされた併合画像を分類するように構成される。前記スコアは「0」から「1」までの値を有する。スコアが「0」であるか又は「0」に近づく場合、入力画像は生成ネットワークの出力であると判断される。スコアが「1」であるか又は「1」に近づく場合、画像は予め設定された標準画像であると判断される。
トレーニングプロセスは、n回の識別ネットワークトレーニングセッションと、n回の生成ネットワークのトレーニングセッションとを含む。同一のトレーニングプロセス内の識別ネットワークのレーニングセッション及び生成ネットワークのレーニングセッション中、同一の低解像度リファレンス画像を前記生成ネットワークに提供する。異なるトレーニングプロセス中、異なる低解像度特徴画像が利用される。
超解像度再構築中、再構築されるより高解像度を有する画像の細部はノイズの影響を受ける。本開示は、ノイズの存在下で生成される高解像度リファレンス画像と出力画像の間の差異だけでなく、ノイズ入力がゼロに設定された場合において生成される高解像度リファレンス画像と出力画像の間の差異も考慮に入れた生成ネットワークの損失関数を提供する。超解像度再構築中に生成ネットワークに入るノイズ入力の振幅を調整することによって、本開示は、再構築された画像における損失量を図1の曲線上のポイントに制限することを可能にする。即ち、歪み量が与えられる場合、生成ネットワークに入るノイズ入力の振幅を調整することによって、本開示は、可能な最低知覚損失を得ることを可能にする。逆に、知覚損失量が与えられる場合、生成ネットワークに入るノイズ入力の振幅を調整することによって、本開示は、可能な最低歪み損失を得ることを可能にする。したがって、本開示は、異なるスケール及び/又は異なるサイズで細部を生成するように操作されるノイズ入力を通じて知覚-歪みトレードオフを制御するための戦略を提供することを可能にする。本開示は、再構築と知覚損失の間の衝突を回避する。これにより、本開示は、異なる選好及び基準に応じて画像を再構築し得る画像再構築に対する柔軟かつ汎用性の手法を提供する。
図12は、本開示の実施形態に係る画像処理方法のフローチャートを示す。
図12に示すように、前記方法は以下のステップを含む。
ステップ0(S0)で、トレーニングセットを構築する。トレーニングデータは、複数の高解像度リファレンス画像と、前記複数の高解像度リファレンス画像に対してダウンサンプリングを行うことによって得られた複数の対応する低解像度リファレンス画像とを含み得る。高解像度リファレンス画像と低解像度リファレンス画像の間のアップスケール係数は、生成ネットワークにより最終的に生成される高解像度画像と入力画像(例えば、I)の間のアップスケール係数と同じである。
ステップS1で、トレーニングプロセスにおいて、所望のトレーニング目標が満たされるまで、異なる低解像度画像を利用して生成ネットワークと識別ネットワークとを反復的かつ交互にトレーニングする。例えば、トレーニング目標は、所定の数のトレーニングセッションであり得る。生成ネットワークと識別ネットワークとを交互にトレーニングすることは、生成ネットワークのトレーニングを識別ネットワークのトレーニングと交互に行うことであり、その逆も同様である。生成ネットワークは図10に図示されるようにトレーニングされ得、識別ネットワークは図11に図示されるようにトレーニングされ得る。
ステップS2で、前記生成ネットワークが、入力画像に対して反復増強を行う。前記生成ネットワークは、ステップS1に従ってトレーニングされた生成ネットワークである。
図13は、本開示の実施形態に係る画像を反復的に増強する方法のフローチャートを示す。
図13に示すように、前記方法は以下のステップを含む。
ステップS21で、リファレンス画像の特徴画像及びノイズ入力を取得する。
ステップS22で、前記特徴画像と前記ノイズ入力とを結合して第1併合画像を得る。
ステップS23で、前記第1併合画像に基づいて高解像度特徴画像を生成する。前記高解像度特徴画像の解像度は、前記リファレンス画像の解像度より高い。
増強の1回目の反復において、前記「リファレンス画像の特徴画像」は、前記入力画像の特徴画像を指す。後続の反復において、前記「リファレンス画像の特徴画像」は、先行する反復中に生成された高解像度特徴画像を指す。各回の反復において、ノイズ入力の振幅は同じである。
図14は、本開示の別の実施形態に係る画像を反復的に増強する方法のフローチャートを示す。
図14に示すように、前記方法は以下のステップを含む。
ステップS31で、リファレンス画像の特徴画像及びノイズ入力を取得する。
ステップS32で、前記特徴画像と前記ノイズ入力とを結合して第1併合画像を得る。
ステップS33で、前記リファレンス画像を補間して前記リファレンス画像に対応する補間画像を得る。
テップS34で、前記第1併合画像に基づいて高解像度特徴画像を生成する。前記高解像度特徴画像の解像度は、前記リファレンス画像の解像度より高い。前記補間画像の解像度は、前記高解像度特徴画像の解像度と同じである。
ステップS34は以下のステップを更に含む。
ステップS341で、前記第1併合画像に基づいて第1アップサンプリング特徴画像を生成する。より詳しくは、ステップS341で、前記補間画像から特徴を抽出して前記補間画像の特徴画像を得る。そして、前記補間画像の特徴画像をダウンサンプリングして前記第1併合画像と結合して、第2併合画像を得る。前記第2併合画像をアップサンプリングして第1アップサンプリング特徴画像を得る。
ステップS342で、前記第1アップサンプリング特徴画像をダウンサンプリングして第1ダウンサンプリング特徴画像を得る。
ステップS343で、前記第1ダウンサンプリング特徴画像と前記第1併合画像の間の相違点を表す残差画像を生成する。いくつかの実施形態において、前記第1ダウンサンプリング特徴画像及び前記第1併合画像に対して減算を行って残差画像が得られ得る。他の実施形態において、第1ダウンサンプリング特徴画像を前記第1併合画像に結合し、そして当該結合された画像に対して変換を行うことによって前記残差画像が得られ得る。
ステップS344で、前記残差画像をアップサンプリングしてアップサンプリング残差画像を得る。
ステップS345で、前記アップサンプリング残差画像を補正して高解像度特徴画像を得る。いくつかの実施形態において、アップサンプリング残差画像と第1アップサンプリング特徴画像とを重畳して高解像度特徴画像が得られ得る。これらの実施形態において、第1アップサンプリング特徴画像に対して一回の補正を行う。他の実施形態において、補正は、アップサンプリング残差画像と第1アップサンプリング特徴画像とを重畳して第2アップサンプリング特徴画像を得るステップと、前記第2アップサンプリング特徴画像をダウンサンプリングして第2ダウンサンプリング特徴画像を得るステップと、前記第2ダウンサンプリング特徴画像及び前記第1併合画像から残差画像を取得するステップと、前記残差画像をアップサンプリングするステップと、当該アップサンプリング残差画像を前記第2ダウンサンプリング特徴画像と重畳して高解像度特徴画像を得るステップとを含み得る。これらの実施形態において、前記第1アップサンプリング特徴画像に対して二回の補正を行う。これらの実施形態も図4に関連して前述されている。
ステップS34の後、ステップS35で、前記高解像度特徴画像を前記補間画像と合成及び重畳して高解像度画像を得る。前記高解像度画像は、前記リファレンス画像の高解像度バージョンである。
増強の1回目の反復において、前記リファレンス画像は前記入力画像である。後続の反復において、前記リファレンス画像は先行する反復において生成された高解像度画像である。
上記の方法及び技法は、汎用のコンピュータ、マイクロプロセッサ、デジタル電子回路、集積回路、特に設計されたASIC(特定用途向け集積回路)、コンピュータハードウェア、ファームウェア、ソフトウェア、及び/又はその組み合わせの形でコンピューティング装置上で実施され得る。これらの多様な実施は、少なくとも一つのプログラマブルプロセッサを含むプログラマブルシステム上で実行可能及び/又は解釈可能な1つ又は複数のコンピュータプログラムにおける実施を含み、当該少なくとも一つのプログラマブルプロセッサは専用又は汎用であり得、且つカップリングされて記憶システム、少なくとも一つの入力装置、及び少なくとも一つの出力装置からデータ及び命令を受信し、記憶システム、少なくとも一つの入力装置、及び少なくとも一つの出力装置にデータ及び命令を送信し得る。
これらのコンピュータプログラム(プログラム、ソフトウェア、ソフトウェアアプリケーション又はコードとも呼ばれる)は、プログラマブルプロセッサの機械命令を含み、高レベルの手続き及び/又はオブジェクト指向プログラミング言語、及び/又はアセンブリ/機械言語で実施され得る。本明細書で使用されるように、用語「機械読み取り可能媒体」、「コンピュータ読み取り可能媒体」は、機械読み取り可能信号として機械命令を受信する機械読み取り可能媒体を含むプログラマブルプロセッサに機械命令及び/又はデータを提供するために用いられる任意のコンピュータプログラム製品、装置及び/又はデバイス(例えば、磁気ディスク、光ディスク、メモリ、プログラマブル論理デバイス(PLD))を指す。用語「機械読み取り可能信号」は、プログラマブルプロセッサに機械命令及び/又はデータを提供するために用いられる任意の信号を指す。
本開示に係る画像処理方法において、生成ネットワークを利用した画像の超解像度再構築中、生成ネットワークに入るノイズ入力の振幅を調整して所望の効果(例えば、再構築された画像における細部をハイライト表示するか否か及びどの細部をハイライト表示すべきか、詳細の程度など)を達成し得る。これにより、本開示は、異なる選好及び基準に応じて画像を再構築し得る画像再構築に対する柔軟かつ汎用性の手法を提供する。
本開示は、画像増強方法を更に提供する。前記方法は、入力画像及びノイズ入力の振幅を上記のような画像処理システムに提供するステップを含む。前記画像処理システムは、前記入力画像に対してL回の増強を行って高解像度画像を出力する。任意の与えられた入力画像に対して、異なる振幅を有するノイズ入力が提供される場合、前記画像処理システムは異なる画像を出力する。即ち、与えられた入力画像に対して、異なる振幅を有するノイズ入力が提供される場合、出力画像は、同じコンテンツを有するが、知覚損失及び/又は歪みの点で異なる。
本開示は、上記のような画像処理方法を実行するための命令を記憶したコンピュータ読み取り可能媒体を更に提供する。
用語「コンピュータ読み取り可能媒体」は、機械読み取り可能信号として機械命令を受信する機械読み取り可能媒体を含むプログラマブルプロセッサに機械命令及び/又はデータを提供するために用いられる任意のコンピュータプログラム製品、装置及び/又はデバイス(例えば、磁気ディスク、光ディスク、メモリ、プログラマブル論理デバイス(PLD))を指し得る。用語「機械読み取り可能信号」は、プログラマブルプロセッサに機械命令及び/又はデータを提供するために用いられる任意の信号を指す。本開示に係るコンピュータ読み取り可能媒体は、ランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、不揮発性ランダムアクセスメモリ(NVRAM)、プログラマブル読み取り専用メモリ(PROM)、消去可能なプログラマブル読み取り専用メモリ(EPROM)、電気的消去可能PROM(EEPROM)、フラッシュメモリ、磁気又は光学データストレージ、レジスタ、コンパクトディスク(CD)又はDVD(デジタル・バーサタイル・ディスク)光学記憶媒体及び他の非一時的媒体のようなディスク又はテープを含むが、これらに限られない。
ソフトウェア、ハードウェア素子、又はプログラムモジュールの一般的なコンテキストで、多様な特徴、実施、及び技法が本開示に記述される。一般的に、このようなモジュールは、特定のタスクを実行するか又は特定の抽象データ型を実施するルーチン、プログラム、オブジェクト、要素、コンポーネント、データ構造などを含む。本明細書で使用されるような用語「モジュール」、「機能」、「コンポーネント」は、一般的にソフトウェア、ファームウェア、ハードウェア、又はその組み合わせを表す。本開示で記述される技法の特徴はプラットフォーム非依存であって、技法が様々なプロセッサを有する様々なコンピューティングプラットフォーム上で実施され得ることを意味する。
「いくつかの実施形態」、「いくつかの実施例」、及び「例示的な実施形態」、「例」及び「特定の例」又は「いくつかの例」などに対する本開示における言及は、特定の特徴及び構造、材料又は特性が本開示の少なくとも一部の実施形態又は例に含まれる実施形態又は例に関連して記述された旨を意図する。用語の概略的な表現は、必ずしも同じ実施形態又は例を指すとは限らない。さらに、記述される特定の特徴、構造、材料又は特性は、任意の適切な方法で任意の1つ又は複数の実施形態又は例に含まれ得る。また、当該技術分野における通常の知識を有する者にとって、開示されたものは本開示の範囲に関し、技術方案は技術的特徴の特定の組み合わせに限定されず、本発明の概念から逸脱することなく技術的特徴又は技術的特徴の同等の特徴を組み合わせることによって形成される他の技術方案も網羅すべきである。その上、用語「第1」及び「第2」は単に説明を目的としており、示された技術的特徴の数量に対する相対的な重要性又は暗示的な言及を明示又は暗示するものとして解釈されるべきではない。したがって、用語「第1」及び「第2」によって定義される特徴は、1つ又は複数の特徴を明示的又は暗黙的に含み得る。本開示の記述において、「複数」の意味は、特に具体的に定義されない限り、2つ以上である。
本開示の原理及び実施形態は明細書に記載されている。本開示の実施形態の記述は単に本開示の方法及びその核となるアイデアの理解を助けるためのみに用いられる。一方、当該技術分野における通常の知識を有する者にとって、開示されたものは本開示の範囲に関し、技術方案は技術的特徴の特定の組み合わせに限定されず、本発明の概念から逸脱することなく技術的特徴又は技術的特徴の同等の特徴を組み合わせることによって形成される他の技術方案も網羅すべきである。例えば、本開示に開示されるような(ただし、これに限られない)上記の特徴を類似した特徴に置き換えることによって技術方案が得られ得る。

Claims (16)

  1. 敵対的生成ネットワークトレーニング方法であって、
    前記方法は、
    生成ネットワークで第1振幅を有する第1ノイズ入力及び第1リファレンス画像を反復的に増強して第1出力画像を生成するステップと、
    前記生成ネットワークで第2振幅を有する第2ノイズ入力及び前記第1リファレンス画像を反復的に増強して第2出力画像を生成するステップと、
    前記第1出力画像及び前記第1リファレンス画像に対応し且つ前記第1リファレンス画像より高解像度を有する第2リファレンス画像を識別ネットワークに送信するステップと、
    前記第2リファレンス画像に基づいて前記識別ネットワークから第1スコアを得、前記第1出力画像に基づいて前記識別ネットワークから第2スコアを得るステップと、
    前記第1スコア及び前記第2スコアに基づいて前記生成ネットワークの損失関数を計算するステップと、
    前記生成ネットワークの損失関数が低減するように、前記生成ネットワークの少なくとも一つのパラメータを調整するステップと
    を含み、
    前記生成ネットワークの損失関数は数式(1)により計算され、
    Figure 0007463643000009
    Xは高解像度リファレンス画像を表し、
    n=0は前記第2出力画像を表し、
    n=1は前記第1出力画像を表し、
    rec(X,Yn=0)は前記第2出力画像と前記第2リファレンス画像の間の再構築誤差を表し、
    per(X,Yn=1)は前記第1出力画像と前記第2リファレンス画像の間の知覚損失を表し、
    GAN(Yn=1)は前記第1スコアと前記第2スコアとの和を表し、
    λ、λ、λはいずれも所定の加重値を表し、
    前記第2出力画像と前記第2リファレンス画像の間の再構築誤差は数式(2)により計算され、
    Figure 0007463643000010
    Lは増強の反復回数を表し、L≧1であり、
    n=0は生成ネットワークマイクロプロセッサにより、前記第2ノイズ入力に基づいて1回の反復を行った後に生成された画像を表し、l≦Lであり、
    LRは第1リファレンス画像を表し、
    bic(Y n=0)は、Y n=0で表される画像に対してダウンサンプリングを行うことによって得られた画像を表し、D bic(Y n=0)で表される画像は前記第1リファレンス画像と同じ解像度を有し、
    HRは、前記第2リファレンス画像に対してダウンサンプリングを行うことによって得られた画像を表し、HRで表される画像はY n=0で表される画像と同じ解像度を有し、
    E[ ]はマトリックスエネルギー計算を表す方法。
  2. 前記第1出力画像と前記第2リファレンス画像の間の知覚損失は数式(3)により計算され、
    Figure 0007463643000011
    n=1は生成ネットワークマイクロプロセッサにより、前記第1ノイズ入力に基づいて1回の反復を行った後に生成された画像を表し、
    bic(Y n=1)は、Y n=1で表される画像に対してダウンサンプリングを行うことによって得られた画像を表し、D bic(Y n=1)で表される画像は前記第1リファレンス画像と同じ解像度を有し、
    CX( )は知覚損失関数を表す請求項1に記載の方法。
  3. 前記第1スコアと前記第2スコアとの和は数式(4)により計算され、
    Figure 0007463643000012
    D(Y n=1)は前記第1スコアを表し、
    D(HR)は前記第2スコアを表す請求項1又は2に記載の方法。
  4. 前記第1ノイズ入力及び前記第1リファレンス画像を、少なくとも一つのパラメータが調整された前記生成ネットワークに提供して第3出力画像を生成するステップと、
    前記第3出力画像及び前記第2リファレンス画像を、前記識別ネットワークに提供するステップと、
    前記第2リファレンス画像に基づいて前記識別ネットワークから第3スコアを得、前記第3出力画像に基づいて前記識別ネットワークから第4スコアを得るステップと、
    前記生成ネットワークマイクロプロセッサの損失関数を計算するステップと
    を更に含む請求項1乃至請求項3のいずれか一項に記載の方法。
  5. 前記第1ノイズ入力及び前記第1リファレンス画像を反復的に増強するステップは、
    前記第1リファレンス画像に基づいて第1特徴画像を生成するステップと、
    前記第1特徴画像を前記第1ノイズ入力と結合して第1併合画像を得るステップと、
    有限回数の反復にて、前記第1特徴画像に基づく前記第1リファレンス画像及び前記第1併合画像を反復的に増強して、前記第1リファレンス画像の高解像度画像を生成するステップと
    を含み、
    前記有限回数の反復の各々のノイズ入力は同じ所定の振幅を有する請求項1に記載の方法。
  6. 前記第1リファレンス画像を補間して第1補間画像を得るステップと、
    前記第1補間画像に基づいて第2特徴画像を生成するステップと、
    前記第2特徴画像をダウンサンプリングし、当該ダウンサンプリングされた第2特徴画像を前記第1併合画像と結合して第2併合画像を得るステップと、
    前記有限回数の反復にて、前記第2特徴画像に基づいた前記第1リファレンス画像、前記第1併合画像、及び前記第2併合画像を反復的に増強して前記第1リファレンス画像の高解像度画像を得るステップと
    を更に含む請求項5に記載の方法。
  7. 前記第1併合画像に基づいて、前記第1併合画像と前記第1特徴画像の間の相違度を表す第1残差画像を生成するステップと、
    前記第1残差画像に基づいて前記第1特徴画像に残差補正を適用し、前記第1リファレンス画像の高解像度画像を得るステップと
    を更に含む請求項5又は請求項6に記載の方法。
  8. 前記第1残差画像の生成及び残差補正の適用は少なくとも一回行われる請求項7に記載の方法。
  9. 生成ネットワークマイクロプロセッサと、前記生成ネットワークマイクロプロセッサにカップリングされた識別ネットワークマイクロプロセッサとを含む敵対的生成ネットワークプロセッサを含み、
    前記敵対的生成ネットワークプロセッサは請求項1に記載の方法を実行するように構成される、敵対的生成ネットワークトレーニングシステム。
  10. 請求項1に記載の方法によりトレーニングされた生成ネットワークマイクロプロセッサを含む、システム。
  11. 請求項5乃至請求項8のいずれか一項に記載の方法を実行するように構成される装置を含む、生成ネットワークマイクロプロセッサ。
  12. 前記装置は、
    分析プロセッサと、
    前記分析プロセッサにカップリングされた接続プロセッサと、
    前記接続プロセッサにカップリングされた増強プロセッサと
    を含み、
    前記分析プロセッサは、リファレンス画像を受信し、入力画像から1つ又は複数の特徴を抽出して、前記リファレンス画像に基づいて特徴画像を生成するように構成され、
    前記接続プロセッサは、所定の振幅を有するノイズ入力を受信し、前記ノイズ入力と前記特徴画像とを結合して第1併合画像を生成するように構成され、
    前記増強プロセッサは、前記特徴画像に基づくリファレンス画像及び前記第1併合画像を反復的に増強して、前記リファレンス画像の高解像度画像を生成するように構成され、複数回の反復が行われる場合、各回の反復のノイズ入力は同じ所定の振幅を有する請求項11に記載の生成ネットワークマイクロプロセッサ。
  13. 前記増強プロセッサは、互いにカップリングされた第1アップサンプラと、ダウンサンプラと、残差確定プロセッサと、第2アップサンプラと、補正プロセッサと、合成プロセッサとを含み、
    前記第1アップサンプラは、前記第1併合画像をアップサンプリングしてアップサンプリング特徴画像を生成するように構成され、
    前記ダウンサンプラは、前記アップサンプリング特徴画像をダウンサンプリングしてダウンサンプリング特徴画像を生成するように構成され、
    前記残差確定プロセッサは、前記ダウンサンプリング特徴画像及び前記第1併合画像から、前記ダウンサンプリング特徴画像と前記第1併合画像の間の差異を表す残差画像を生成するように構成され、
    前記第2アップサンプラは、前記残差画像をアップサンプリングしてアップサンプリング残差画像を生成するように構成され、
    前記補正プロセッサは、アップサンプリング残差画像に基づいて、前記アップサンプリング特徴画像に少なくとも1回の残差補正を適用して前記リファレンス画像の高解像度特徴画像を生成するように構成され、
    合成プロセッサは、前記高解像度特徴画像から、前記リファレンス画像の高解像度画像を合成するように構成され、
    前記増強プロセッサは、少なくとも2回の反復を行うように構成され、
    前記高解像度画像及び前記高解像度特徴画像は、後続の反復のリファレンス画像及び特徴画像である請求項12に記載の生成ネットワークマイクロプロセッサ。
  14. 前記増強プロセッサは、互いにカップリングされた補間プロセッサと、重畳プロセッサとを更に含み、
    前記補間プロセッサは、前記リファレンス画像に対して補間を行って補間画像を生成するように構成され、
    前記重畳プロセッサは、前記補間画像を前記合成プロセッサからの出力に重畳して前記リファレンス画像の高解像度画像を生成するように構成される請求項13に記載の生成ネットワークマイクロプロセッサ。
  15. 前記第1アップサンプラは、前記第1併合画像を直接アップサンプリングするように構成される求項14に記載の生成ネットワークマイクロプロセッサ。
  16. 前記第1アップサンプラは、前記補間画像に基づいて第2併合画像を生成し、そして前記第2併合画像をアップサンプリングしてアップサンプリング特徴画像を生成するように構成される請求項15に記載の生成ネットワークマイクロプロセッサ。
JP2020528242A 2018-09-30 2019-06-20 画像処理用の装置、方法及びコンピュータ読み取り可能媒体、並びにニューラルネットワークトレーニングシステム Active JP7463643B2 (ja)

Applications Claiming Priority (9)

Application Number Priority Date Filing Date Title
CN201811155147.2A CN109360151B (zh) 2018-09-30 2018-09-30 图像处理方法及系统、分辨率提升方法、可读存储介质
CN201811155930.9 2018-09-30
CN201811155147.2 2018-09-30
CN201811155930.9A CN109345456B (zh) 2018-09-30 2018-09-30 生成对抗网络训练方法、图像处理方法、设备及存储介质
CN201811155326.6 2018-09-30
CN201811155252.6 2018-09-30
CN201811155252.6A CN109255390B (zh) 2018-09-30 2018-09-30 训练图像的预处理方法及模块、鉴别器、可读存储介质
CN201811155326.6A CN109345455B (zh) 2018-09-30 2018-09-30 图像鉴别方法、鉴别器和计算机可读存储介质
PCT/CN2019/092113 WO2020062958A1 (en) 2018-09-30 2019-06-20 Apparatus, method, and computer-readable medium for image processing, and system for training a neural network

Publications (2)

Publication Number Publication Date
JP2022501661A JP2022501661A (ja) 2022-01-06
JP7463643B2 true JP7463643B2 (ja) 2024-04-09

Family

ID=69950197

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2020529196A Active JP7415251B2 (ja) 2018-09-30 2019-04-23 画像処理用の装置及び方法、並びにニューラルネットワークトをトレーニングするシステム
JP2020528242A Active JP7463643B2 (ja) 2018-09-30 2019-06-20 画像処理用の装置、方法及びコンピュータ読み取り可能媒体、並びにニューラルネットワークトレーニングシステム
JP2020528931A Active JP7446997B2 (ja) 2018-09-30 2019-09-25 敵対的生成ネットワークのトレーニング方法、画像処理方法、デバイスおよび記憶媒体

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2020529196A Active JP7415251B2 (ja) 2018-09-30 2019-04-23 画像処理用の装置及び方法、並びにニューラルネットワークトをトレーニングするシステム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2020528931A Active JP7446997B2 (ja) 2018-09-30 2019-09-25 敵対的生成ネットワークのトレーニング方法、画像処理方法、デバイスおよび記憶媒体

Country Status (9)

Country Link
US (4) US11615505B2 (ja)
EP (4) EP3857447A4 (ja)
JP (3) JP7415251B2 (ja)
KR (2) KR102661434B1 (ja)
AU (1) AU2019350918B2 (ja)
BR (1) BR112020022560A2 (ja)
MX (1) MX2020013580A (ja)
RU (1) RU2762144C1 (ja)
WO (4) WO2020062846A1 (ja)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7312026B2 (ja) * 2019-06-12 2023-07-20 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
EP3788933A1 (en) * 2019-09-05 2021-03-10 BSH Hausgeräte GmbH Method for controlling a home appliance
CN114981836A (zh) * 2020-01-23 2022-08-30 三星电子株式会社 电子设备和电子设备的控制方法
US11507831B2 (en) * 2020-02-24 2022-11-22 Stmicroelectronics International N.V. Pooling unit for deep learning acceleration
CN111695605B (zh) * 2020-05-20 2024-05-10 平安科技(深圳)有限公司 基于oct图像的图像识别方法、服务器及存储介质
EP3937120B1 (en) * 2020-07-08 2023-12-20 Sartorius Stedim Data Analytics AB Computer-implemented method, computer program product and system for processing images
US11887279B2 (en) * 2020-08-25 2024-01-30 Sharif University Of Technology Machine learning-based denoising of an image
US11455811B2 (en) * 2020-08-28 2022-09-27 Check it out Co., Ltd. System and method for verifying authenticity of an anti-counterfeiting element, and method for building a machine learning model used to verify authenticity of an anti-counterfeiting element
CN112132012B (zh) * 2020-09-22 2022-04-26 中国科学院空天信息创新研究院 基于生成对抗网络的高分辨率sar船舶图像生成方法
WO2022099710A1 (zh) * 2020-11-16 2022-05-19 京东方科技集团股份有限公司 图像重建方法、电子设备和计算机可读存储介质
CN112419200B (zh) * 2020-12-04 2024-01-19 宁波舜宇仪器有限公司 一种图像质量优化方法及显示方法
US11895330B2 (en) * 2021-01-25 2024-02-06 Lemon Inc. Neural network-based video compression with bit allocation
CN113012064B (zh) * 2021-03-10 2023-12-12 腾讯科技(深圳)有限公司 图像处理方法、装置、设备及存储介质
CN112884673A (zh) * 2021-03-11 2021-06-01 西安建筑科技大学 改进损失函数SinGAN的墓室壁画分块间缺失信息的重建方法
CN113962360B (zh) * 2021-10-09 2024-04-05 西安交通大学 一种基于gan网络的样本数据增强方法及系统
KR102548283B1 (ko) * 2021-12-22 2023-06-27 (주)뉴로컴즈 콘볼루션 신경망 컴퓨팅 장치
CN114331903B (zh) * 2021-12-31 2023-05-12 电子科技大学 一种图像修复方法及存储介质
CN115063492B (zh) * 2022-04-28 2023-08-08 宁波大学 一种抵抗jpeg压缩的对抗样本的生成方法
KR20240033619A (ko) 2022-09-05 2024-03-12 삼성에스디에스 주식회사 문서 내 관심 영역 추출 방법 및 장치
CN115393242A (zh) * 2022-09-30 2022-11-25 国网电力空间技术有限公司 一种基于gan的电网异物图像数据增强的方法和装置
CN115631178B (zh) * 2022-11-03 2023-11-10 昆山润石智能科技有限公司 自动晶圆缺陷检测方法、系统、设备及存储介质
CN117196985A (zh) * 2023-09-12 2023-12-08 军事科学院军事医学研究院军事兽医研究所 一种基于深度强化学习的视觉去雨雾方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180075581A1 (en) 2016-09-15 2018-03-15 Twitter, Inc. Super resolution using a generative adversarial network
JP2018063504A (ja) 2016-10-12 2018-04-19 株式会社リコー 生成モデル学習方法、装置及びプログラム
JP2018097875A (ja) 2016-12-15 2018-06-21 富士通株式会社 トレーニング画像処理装置に用いるトレーニング装置及びトレーニング方法
JP2018139071A (ja) 2017-02-24 2018-09-06 株式会社リコー 生成モデル学習方法、生成モデル学習装置およびプログラム

Family Cites Families (63)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5781196A (en) 1990-10-19 1998-07-14 Eidos Plc Of The Boat House Video compression by extracting pixel changes exceeding thresholds
US5754697A (en) 1994-12-02 1998-05-19 Fu; Chi-Yung Selective document image data compression technique
US6766067B2 (en) 2001-04-20 2004-07-20 Mitsubishi Electric Research Laboratories, Inc. One-pass super-resolution images
US7215831B2 (en) 2001-04-26 2007-05-08 Georgia Tech Research Corp. Video enhancement using multiple frame techniques
EP1491038A2 (en) 2001-12-26 2004-12-29 YEDA RESEARCH AND DEVELOPMENT CO., Ltd. A system and method for increasing space or time resolution in video
CN101593269B (zh) 2008-05-29 2012-05-02 汉王科技股份有限公司 人脸识别装置及方法
JP2013518336A (ja) 2010-01-28 2013-05-20 イーサム リサーチ ディベロップメント カンパニー オブ ザ ヘブリュー ユニバーシティ オブ エルサレム,リミテッド 入力画像から増加される画素解像度の出力画像を生成する方法及びシステム
CN101872472B (zh) 2010-06-02 2012-03-28 中国科学院自动化研究所 一种基于样本学习的人脸图像超分辨率重建方法
US9378542B2 (en) * 2011-09-28 2016-06-28 The United States Of America As Represented By The Secretary Of The Army System and processor implemented method for improved image quality and generating an image of a target illuminated by quantum particles
US8737728B2 (en) * 2011-09-30 2014-05-27 Ebay Inc. Complementary item recommendations using image feature data
EP2662824A1 (en) 2012-05-10 2013-11-13 Thomson Licensing Method and device for generating a super-resolution version of a low resolution input data structure
US8675999B1 (en) * 2012-09-28 2014-03-18 Hong Kong Applied Science And Technology Research Institute Co., Ltd. Apparatus, system, and method for multi-patch based super-resolution from an image
CN102915527A (zh) 2012-10-15 2013-02-06 中山大学 基于形态学成分分析的人脸图像超分辨率重建方法
CN104813672A (zh) 2012-11-27 2015-07-29 Lg电子株式会社 信号收发装置和信号收发方法
CN103514580B (zh) 2013-09-26 2016-06-08 香港应用科技研究院有限公司 用于获得视觉体验优化的超分辨率图像的方法和系统
EP2908285A1 (en) 2014-02-13 2015-08-19 Thomson Licensing Method for performing super-resolution on single images and apparatus for performing super-resolution on single images
TWI492187B (zh) 2014-02-17 2015-07-11 Delta Electronics Inc 超解析度影像處理方法及其裝置
CN104853059B (zh) 2014-02-17 2018-12-18 台达电子工业股份有限公司 超分辨率图像处理方法及其装置
CN103903236B (zh) * 2014-03-10 2016-08-31 北京信息科技大学 人脸图像超分辨率重建的方法和装置
CN105144232B (zh) 2014-03-25 2017-09-08 展讯通信(上海)有限公司 图像去噪方法和系统
US9865036B1 (en) * 2015-02-05 2018-01-09 Pixelworks, Inc. Image super resolution via spare representation of multi-class sequential and joint dictionaries
KR102338372B1 (ko) * 2015-09-30 2021-12-13 삼성전자주식회사 영상으로부터 객체를 분할하는 방법 및 장치
WO2017100903A1 (en) 2015-12-14 2017-06-22 Motion Metrics International Corp. Method and apparatus for identifying fragmented material portions within an image
US10360477B2 (en) * 2016-01-11 2019-07-23 Kla-Tencor Corp. Accelerating semiconductor-related computations using learning based models
CN107315566B (zh) * 2016-04-26 2020-11-03 中科寒武纪科技股份有限公司 一种用于执行向量循环移位运算的装置和方法
FR3050846B1 (fr) * 2016-04-27 2019-05-03 Commissariat A L'energie Atomique Et Aux Energies Alternatives Dispositif et procede de distribution de donnees de convolution d'un reseau de neurones convolutionnel
CN105976318A (zh) 2016-04-28 2016-09-28 北京工业大学 一种图像超分辨率重建方法
CN105975931B (zh) 2016-05-04 2019-06-14 浙江大学 一种基于多尺度池化的卷积神经网络人脸识别方法
CN105975968B (zh) * 2016-05-06 2019-03-26 西安理工大学 一种基于Caffe框架的深度学习车牌字符识别方法
RU2635883C1 (ru) * 2016-06-02 2017-11-16 Самсунг Электроникс Ко., Лтд. Способ и система обработки изображений для формирования изображений сверхвысокого разрешения
US10319076B2 (en) 2016-06-16 2019-06-11 Facebook, Inc. Producing higher-quality samples of natural images
CN108074215B (zh) * 2016-11-09 2020-04-14 京东方科技集团股份有限公司 图像升频系统及其训练方法、以及图像升频方法
KR20180057096A (ko) * 2016-11-21 2018-05-30 삼성전자주식회사 표정 인식과 트레이닝을 수행하는 방법 및 장치
KR101854071B1 (ko) * 2017-01-13 2018-05-03 고려대학교 산학협력단 딥러닝을 사용하여 관심 부위 이미지를 생성하는 방법 및 장치
US10482639B2 (en) * 2017-02-21 2019-11-19 Adobe Inc. Deep high-resolution style synthesis
KR101947782B1 (ko) * 2017-02-22 2019-02-13 한국과학기술원 열화상 영상 기반의 거리 추정 장치 및 방법. 그리고 이를 위한 신경망 학습 방법
KR102499396B1 (ko) * 2017-03-03 2023-02-13 삼성전자 주식회사 뉴럴 네트워크 장치 및 뉴럴 네트워크 장치의 동작 방법
RU2652722C1 (ru) * 2017-05-03 2018-04-28 Самсунг Электроникс Ко., Лтд. Обработка данных для сверхразрешения
CN107133601B (zh) 2017-05-13 2021-03-23 五邑大学 一种基于生成式对抗网络图像超分辨率技术的行人再识别方法
CN107154023B (zh) 2017-05-17 2019-11-05 电子科技大学 基于生成对抗网络和亚像素卷积的人脸超分辨率重建方法
CN107369189A (zh) 2017-07-21 2017-11-21 成都信息工程大学 基于特征损失的医学图像超分辨率重建方法
CN107527044B (zh) 2017-09-18 2021-04-30 北京邮电大学 一种基于搜索的多张车牌清晰化方法及装置
WO2019061020A1 (zh) 2017-09-26 2019-04-04 深圳市大疆创新科技有限公司 图像生成方法、图像生成装置和机器可读存储介质
US10552944B2 (en) * 2017-10-13 2020-02-04 Adobe Inc. Image upscaling with controllable noise reduction using a neural network
CN108122197B (zh) 2017-10-27 2021-05-04 江西高创保安服务技术有限公司 一种基于深度学习的图像超分辨率重建方法
CN107766860A (zh) 2017-10-31 2018-03-06 武汉大学 基于级联卷积神经网络的自然场景图像文本检测方法
CN107767343B (zh) 2017-11-09 2021-08-31 京东方科技集团股份有限公司 图像处理方法、处理装置和处理设备
CN108154499B (zh) 2017-12-08 2021-10-08 东华大学 一种基于k-svd学习字典的机织物纹理瑕疵检测方法
CN108052940A (zh) 2017-12-17 2018-05-18 南京理工大学 基于深度学习的sar遥感图像水面目标检测方法
CN107977932B (zh) 2017-12-28 2021-04-23 北京工业大学 一种基于可鉴别属性约束生成对抗网络的人脸图像超分辨率重建方法
CN108268870B (zh) 2018-01-29 2020-10-09 重庆师范大学 基于对抗学习的多尺度特征融合超声图像语义分割方法
CN108334848B (zh) 2018-02-06 2020-12-25 哈尔滨工业大学 一种基于生成对抗网络的微小人脸识别方法
CN108416428B (zh) 2018-02-28 2021-09-14 中国计量大学 一种基于卷积神经网络的机器人视觉定位方法
US11105942B2 (en) * 2018-03-27 2021-08-31 Schlumberger Technology Corporation Generative adversarial network seismic data processor
US10783622B2 (en) * 2018-04-25 2020-09-22 Adobe Inc. Training and utilizing an image exposure transformation neural network to generate a long-exposure image from a single short-exposure image
US11222415B2 (en) * 2018-04-26 2022-01-11 The Regents Of The University Of California Systems and methods for deep learning microscopy
CN108596830B (zh) * 2018-04-28 2022-04-22 国信优易数据股份有限公司 一种图像风格迁移模型训练方法以及图像风格迁移方法
KR102184755B1 (ko) * 2018-05-31 2020-11-30 서울대학교 산학협력단 안면 특화 초 고화질 심층 신경망 학습 장치 및 방법
US11756160B2 (en) * 2018-07-27 2023-09-12 Washington University ML-based methods for pseudo-CT and HR MR image estimation
CN109345455B (zh) * 2018-09-30 2021-01-26 京东方科技集团股份有限公司 图像鉴别方法、鉴别器和计算机可读存储介质
CN109345456B (zh) 2018-09-30 2021-01-19 京东方科技集团股份有限公司 生成对抗网络训练方法、图像处理方法、设备及存储介质
CN109255390B (zh) * 2018-09-30 2021-01-29 京东方科技集团股份有限公司 训练图像的预处理方法及模块、鉴别器、可读存储介质
CN109360151B (zh) 2018-09-30 2021-03-05 京东方科技集团股份有限公司 图像处理方法及系统、分辨率提升方法、可读存储介质

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180075581A1 (en) 2016-09-15 2018-03-15 Twitter, Inc. Super resolution using a generative adversarial network
JP2018063504A (ja) 2016-10-12 2018-04-19 株式会社リコー 生成モデル学習方法、装置及びプログラム
JP2018097875A (ja) 2016-12-15 2018-06-21 富士通株式会社 トレーニング画像処理装置に用いるトレーニング装置及びトレーニング方法
JP2018139071A (ja) 2017-02-24 2018-09-06 株式会社リコー 生成モデル学習方法、生成モデル学習装置およびプログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Hanwen Liu et al.,Artsy-GAN: A style transfer system with improved quality, diversity and performance,2018 24th International Conference on Pattern Recognition (ICPR),2018年08月24日,https://ieeexplore.ieee.org/document/8546172
Pablo Navarrete Michelini et al.,Multi-Scale Recursive and Perception-Distortion Controllable Image Super-Resolution,[online],2018年09月27日,[retrieved on 2023.06.07], Retrieved from the Internet: <URL: https://arxiv.org/pdf/1809.10711v1.pdf>

Also Published As

Publication number Publication date
JP2022501661A (ja) 2022-01-06
WO2020062957A1 (en) 2020-04-02
US20200285959A1 (en) 2020-09-10
US11449751B2 (en) 2022-09-20
US11348005B2 (en) 2022-05-31
KR102661434B1 (ko) 2024-04-29
JP2022501662A (ja) 2022-01-06
WO2020062958A1 (en) 2020-04-02
JP2022501663A (ja) 2022-01-06
EP3859655A1 (en) 2021-08-04
EP3857504A1 (en) 2021-08-04
KR102389173B1 (ko) 2022-04-21
EP3857503A4 (en) 2022-07-20
EP3857447A1 (en) 2021-08-04
EP3857503A1 (en) 2021-08-04
JP7415251B2 (ja) 2024-01-17
KR20200073267A (ko) 2020-06-23
US11615505B2 (en) 2023-03-28
BR112020022560A2 (pt) 2021-06-01
WO2020062846A1 (en) 2020-04-02
US20210334642A1 (en) 2021-10-28
US20210365744A1 (en) 2021-11-25
AU2019350918B2 (en) 2021-10-07
AU2019350918A1 (en) 2020-11-19
MX2020013580A (es) 2021-02-26
US11361222B2 (en) 2022-06-14
KR20210012009A (ko) 2021-02-02
RU2762144C1 (ru) 2021-12-16
EP3859655A4 (en) 2022-08-10
WO2020063648A1 (zh) 2020-04-02
EP3857447A4 (en) 2022-06-29
JP7446997B2 (ja) 2024-03-11
US20210342976A1 (en) 2021-11-04
EP3857504A4 (en) 2022-08-10

Similar Documents

Publication Publication Date Title
JP7463643B2 (ja) 画像処理用の装置、方法及びコンピュータ読み取り可能媒体、並びにニューラルネットワークトレーニングシステム
CN109345456B (zh) 生成对抗网络训练方法、图像处理方法、设备及存储介质
Lepcha et al. Image super-resolution: A comprehensive review, recent trends, challenges and applications
Wang et al. Deep networks for image super-resolution with sparse prior
US20180075581A1 (en) Super resolution using a generative adversarial network
Yan et al. Deep objective quality assessment driven single image super-resolution
CN109360151B (zh) 图像处理方法及系统、分辨率提升方法、可读存储介质
CN112541864A (zh) 一种基于多尺度生成式对抗网络模型的图像修复方法
López-Tapia et al. A single video super-resolution GAN for multiple downsampling operators based on pseudo-inverse image formation models
Vacher et al. Texture interpolation for probing visual perception
Lu et al. A no-reference image sharpness metric based on structural information using sparse representation
CN115631107A (zh) 边缘引导的单幅图像噪声去除
Dastmalchi et al. Super-resolution of very low-resolution face images with a wavelet integrated, identity preserving, adversarial network
Liu et al. Arbitrary-scale super-resolution via deep learning: A comprehensive survey
Björk et al. Simpler is better: spectral regularization and up-sampling techniques for variational autoencoders
Dixit et al. A Review of Single Image Super Resolution Techniques using Convolutional Neural Networks
CN117710216A (zh) 一种基于变分自编码器的图像超分辨率重建方法
Al-Hassan Mathematically inspired approaches to face recognition in uncontrolled conditions: super resolution and compressive sensing
Patnaik et al. Remote Sensing Single-Image Super-Resolution using Convolutional Block Attention Residual Network with Joint Adversarial Mechanisms
Dalal Short-Time Fourier Transform for deblurring Variational Autoencoders
Lin et al. A pluggable single-image super-resolution algorithm based on second-order gradient loss
CN117274043A (zh) 一种数据处理方法、装置、计算机设备以及可读存储介质
Sumali et al. Single image Super Resolution by no-reference image quality index optimization in PCA subspace
CN117593187A (zh) 基于元学习和Transformer的遥感图像任意尺度超分辨率重建方法
CN115222608A (zh) 图像处理方法、图像处理设备和计算机可读存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220615

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20230329

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230529

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230613

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230912

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231017

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240227

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240305

R150 Certificate of patent or registration of utility model

Ref document number: 7463643

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150