JP2022510622A - 画像処理モデルの訓練方法、画像処理方法、ネットワーク機器、及び記憶媒体 - Google Patents

画像処理モデルの訓練方法、画像処理方法、ネットワーク機器、及び記憶媒体 Download PDF

Info

Publication number
JP2022510622A
JP2022510622A JP2021529409A JP2021529409A JP2022510622A JP 2022510622 A JP2022510622 A JP 2022510622A JP 2021529409 A JP2021529409 A JP 2021529409A JP 2021529409 A JP2021529409 A JP 2021529409A JP 2022510622 A JP2022510622 A JP 2022510622A
Authority
JP
Japan
Prior art keywords
network
image
parameters
feature
parameter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021529409A
Other languages
English (en)
Other versions
JP7206386B2 (ja
Inventor
ガオ,ホォンユン
タオ,シン
ジィア,ジィアヤ
タイ,ユィウィン
シェン,シアオヨン
Original Assignee
テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド filed Critical テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド
Publication of JP2022510622A publication Critical patent/JP2022510622A/ja
Application granted granted Critical
Publication of JP7206386B2 publication Critical patent/JP7206386B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2148Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4046Scaling of whole images or parts thereof, e.g. expanding or contracting using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/60Image enhancement or restoration using machine learning, e.g. neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • G06V10/95Hardware or software architectures specially adapted for image or video understanding structured as a network, e.g. client-server architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

ボケ画像を処理するための画像処理モデルの訓練方法、画像処理方法、及びネットワーク機器において、画像処理モデルは、少なくとも、第1ネットワークと第2ネットワークとを含む。訓練方法は、訓練用のサンプル対を取得するステップであり、サンプル対には、鮮明画像とボケ画像とが含まれる、ステップ(S301)と、画像処理モデルを呼び出して、ボケ画像に対して鮮明度回復処理を行うことにより、回復画像を取得するステップ(S302)と、回復画像及び鮮明画像に基づいて、画像処理モデルにおける第1ネットワークのネットワークパラメータ及び/又は第2ネットワークのネットワークパラメータを更新ことにより、訓練後の画像処理モデルを取得するステップ(S303)と、を含む。第1ネットワークのネットワークパラメータと第2ネットワークのネットワークパラメータとの間は、選択的共有条件を満たし、選択的共有条件は、第1ネットワークと第2ネットワークとの間で共有するネットワークパラメータを指示するために用いられるとともに、第1ネットワークと第2ネットワークとの間で互いに独立したネットワークパラメータを指示するために用いられる。

Description

本願は、2019年4月1日に中国特許庁に提出された、出願番号が第201910259016.7号であり、発明の名称が「画像処理モデルの訓練方法、画像処理方法、及び関連機器」である、中国特許出願に基づく優先権を主張し、その全ての内容が、参照することにより本願に組み込まれている。
本願は、インターネットの技術分野に関する。具体的には、画像処理の技術分野に関し、特には、ボケ画像を処理するための画像処理モデルの訓練方法、画像処理方法、ボケ画像を処理するための画像処理モデルの訓練装置、画像処理装置、ネットワーク機器、及びコンピュータ記憶媒体に関する。
画像ボケ除去は、画像処理の重要な研究方向であり、ボケ画像においてボケにより失われた細部情報を回復することを目的とする。ニューラルネットワークモデルの研究の推進に伴い、画像処理モデルに基づく画像ボケ除去方法では、従来の方法よりも優れた効果が得られる。いわゆる画像処理モデルは、ボケ画像に対して画像ボケ除去処理を行うことにより、鮮明画像を取得するためのニューラルネットワークモデルである。どのようなモデル訓練により性能が完璧な画像処理モデルを取得するかが、後続の画像ボケ除去処理の効果には特に重要である。従来のモデル訓練方法において、通常、ボケ画像が、複数の異なるボケ領域で構成されていると考えられ、異なるボケ領域に対して畳み込みモデル仮定を行うことにより、異なる領域の鮮明画像をそれぞれ復元して、画像処理モデルを訓練する。具体的には、まず、ボケ画像を異なる領域に分割する必要がある。次に、異なる領域に対して、畳み込みカーネル推定及び画像逆畳み込みという2つの処理を連続的に反復することにより、各領域のボケ除去効果を段階的に最適化し、最後に、ボケ除去後の各領域を合成することにより、完全な鮮明画像を取得する。
本願の実施例では、ネットワーク機器が実行する、ボケ画像を処理するための画像処理モデルの訓練方法が提供されている。前記画像処理モデルは、少なくとも、第1ネットワークと第2ネットワークとを含み、前記第1ネットワークと前記第2ネットワークとは、異なるスケールを有するコーデックネットワークであり、前記スケールの大きさは、処理対象のボケ画像の鮮明度の大きさに対応している。前記方法は、
訓練用のサンプル対を取得するステップであって、前記サンプル対には、鮮明画像と、前記鮮明画像に対応するボケ画像とが含まれ、前記鮮明画像の鮮明度が所定閾値よりも大きく、前記ボケ画像の鮮明度が前記所定閾値よりも小さい、ステップと、
前記画像処理モデルを呼び出して、前記ボケ画像に対して鮮明度回復処理を行うことにより、回復画像を取得するステップと、
前記回復画像及び前記鮮明画像に基づいて、前記画像処理モデルにおける前記第1ネットワークのネットワークパラメータ及び/又は前記第2ネットワークのネットワークパラメータを更新することにより、訓練後の画像処理モデルを取得するステップと、を含み、
前記第1ネットワークのネットワークパラメータと前記第2ネットワークのネットワークパラメータとの間は、選択的共有条件を満たし、前記選択的共有条件は、前記第1ネットワークと前記第2ネットワークとの間で共有するネットワークパラメータを指示するために用いられるとともに、前記第1ネットワークと前記第2ネットワークとの間で互いに独立したネットワークパラメータを指示するために用いられる。
また、本願の実施例では、ネットワーク機器が実行する画像処理方法が提供されている。前記方法は、
処理対象の元画像を取得するステップであって、前記元画像の鮮明度が所定閾値よりも小さい、ステップと、
ボケ画像を処理するための画像処理モデルを呼び出して、前記元画像に対して鮮明度回復処理を行うことにより、ターゲット画像を取得するステップであって、前記ターゲット画像の鮮明度が前記所定閾値よりも大きく、前記画像処理モデルは、少なくとも、第1ネットワークと第2ネットワークとを含み、前記第1ネットワークと前記第2ネットワークとは、異なるスケールを有するコーデックネットワークであり、前記スケールの大きさは、処理対象のボケ画像の鮮明度の大きさに対応し、前記第1ネットワークのネットワークパラメータと前記第2ネットワークのネットワークパラメータとの間は、選択的共有条件を満たし、前記選択的共有条件は、前記第1ネットワークと前記第2ネットワークとの間で共有するネットワークパラメータを指示するために用いられるとともに、前記第1ネットワークと前記第2ネットワークとの間で互いに独立したネットワークパラメータを指示するために用いられる、ステップと、
前記ターゲット画像を出力するステップと、を含む。
本願の実施例では、ボケ画像を処理するための画像処理モデルの訓練装置が提供されておいる。前記画像処理モデルは、少なくとも、第1ネットワークと第2ネットワークとを含み、前記第1ネットワークと前記第2ネットワークとは、異なるスケールを有するコーデックネットワークであり、前記スケールの大きさは、処理対象のボケ画像の鮮明度の大きさに対応している。前記装置は、
訓練用のサンプル対を取得し、前記サンプル対には、鮮明画像と、前記鮮明画像に対応するボケ画像とが含まれ、前記鮮明画像の鮮明度が所定閾値よりも大きく、前記ボケ画像の鮮明度が前記所定閾値よりも小さい取得ユニットと、
前記画像処理モデルを呼び出して、前記ボケ画像に対して鮮明度回復処理を行うことにより、回復画像を取得する処理ユニットと、
前記回復画像及び前記鮮明画像に基づいて、前記画像処理モデルにおける前記第1ネットワークのネットワークパラメータ及び/又は前記第2ネットワークのネットワークパラメータを更新することにより、訓練後の画像処理モデルを取得する更新ユニットと、を含み、
前記第1ネットワークのネットワークパラメータと前記第2ネットワークのネットワークパラメータとの間は、選択的共有条件を満たし、前記選択的共有条件は、前記第1ネットワークと前記第2ネットワークとの間で共有するネットワークパラメータを指示するために用いられるとともに、前記第1ネットワークと前記第2ネットワークとの間で互いに独立したネットワークパラメータを指示するために用いられる。
本願の実施例では、画像処理装置が提供されている。前記装置は、
処理対象の元画像を取得し、前記元画像の鮮明度が所定閾値よりも小さい取得ユニットと、
ボケ画像を処理するための画像処理モデルを呼び出して、前記元画像に対して鮮明度回復処理を行うことにより、ターゲット画像を取得し、前記ターゲット画像の鮮明度が前記所定閾値よりも大きく、前記画像処理モデルは、少なくとも、第1ネットワークと第2ネットワークとを含み、前記第1ネットワークと前記第2ネットワークとは、異なるスケールを有するコーデックネットワークであり、前記スケールの大きさは、処理対象のボケ画像の鮮明度の大きさに対応し、前記第1ネットワークのネットワークパラメータと前記第2ネットワークのネットワークパラメータとの間は、選択的共有条件を満たし、前記選択的共有条件は、前記第1ネットワークと前記第2ネットワークとの間で共有するネットワークパラメータを指示するために用いられるとともに、前記第1ネットワークと前記第2ネットワークとの間で互いに独立したネットワークパラメータを指示するために用いられる処理ユニットと、
前記ターゲット画像を出力する出力ユニットと、を含む。
本願の実施例では、ネットワーク機器が提供されている。前記ネットワーク機器は、プロセッサと、前記プロセッサに接続されたメモリと、を備え、前記メモリには、機械読み取り可能な命令が記憶され、前記機械読み取り可能な命令は、プロセッサによって実行されると、本願の実施例に記載の画像処理モデルの訓練方法及び画像処理方法を実行させることが可能である。
また、本願の実施例では、複数の命令を記憶したコンピュータ読み取り可能な記憶媒体が提供されている。前記命令は、プロセッサによってロードされ、実行されると、本願の実施例に記載の画像処理モデルの訓練方法及び画像処理方法を実行させるように構成される。
本願の実施例の構成をより明確に説明するために、以下に、実施例の説明に必要な図面を簡単的に紹介する。明らかに、以下の説明における図面は本願のいくつかの実施例を示しているに過ぎず、当業者であれば、創造的な労働をすることなく、これらの図面から他の図面を得ることもできる。
本願の実施例で提供される画像処理モデルの構成の模式図である。 本願の実施例で提供される1段残差関数の構成の模式図である。 本願の実施例で提供される2段残差関数に対応する2段ネストスキップ接続の構成と直列接続の構成との対比模式図である。 本願の実施例で提供される3段残差関数に対応する3段ネストスキップ接続の構成の模式図である。 本願の実施例で提供される特徴変換ユニットの内部構成の模式図である。 本願の実施例で提供される画像処理モデルの訓練方法のシーンの模式図である。 本願の実施例で提供される画像処理モデルの訓練方法のフローの模式図である。 本願の実施例における鮮明度回復処理の具体的なフローチャートである。 本願の実施例で提供されるボケ画像の研究結果の模式図である。 本願の実施例で提供されるネットワークパラメータの割り当ての模式図である。 本願の実施例で提供される他のネットワークパラメータの割り当ての模式図である。 本願の他の実施例で提供される画像処理モデルの訓練方法のフローの模式図である。 本願の実施例における訓練用のサンプル対を取得する方法のフローチャートである。 本願の実施例におけるステップS602において画像処理モデルを呼び出して、ボケ画像に対して鮮明度回復処理を行う方法のフローチャートである。 願の実施例で提供される画像処理方法のフローの模式図である。 本願の実施例で提供される画像処理モデルの訓練装置の構成の模式図である。 本願の実施例で提供される画像処理装置の構成の模式図である。 本願の実施例で提供されるネットワーク機器の構成の模式図である。
以下、本願の実施例の図面を参照しながら、本願の実施例の構成を明確かつ完全に説明する。
人工知能技術は、総合的な学科であり、関連する分野が幅広く、ハードウェアレベルの技術もソフトウェアレベルの技術もある。人工知能の基礎技術には、一般的に、例えば、センサ、人工知能専用チップ、クラウドコンピューティング、分散記憶、ビッグデータ処理技術、操作/インタラクティブシステム、メカトロニクスなどの技術が含まれる。人工知能のソフトウェア技術は、主に、コンピュータビジョン技術、音声処理技術、自然言語処理技術、及び、機械学習/深層学習などのいくつかの方面を含む。
現在、深層学習は、機械学習の技術及び研究分野の1つであり、階層構成を有する人工ニューラルネットワークを構築することにより、コンピュータシステムにおいて人工知能(AI:Artificial Intelligence)を実現する。
深層学習(DL:Deep Learning)のビジョン分野での適用が成功しているため、研究者は、深層学習を画像処理分野にも導入し、大量の訓練画像を用いて深層学習ニューラルネットワークモデルを訓練することにより、深層学習ニューラルネットワークモデルが画像処理、例えば、ボケ画像の処理を行うことを可能にする。
画像ボケは、画像の撮像によくある問題である。例えば、ユーザが動的なシーン又は暗い環境にいる場合、動的なシーンにおける物体の動き及び/又は撮像カメラの動きによって、撮像された画像に様々な程度のボケが発生する。また、例えば、ユーザが対象物を撮像するとき、ユーザの手のわずかなブレによっても、撮像された画像に様々な程度のボケが発生する。ユーザは、撮像されたボケ画像に直面すると、鮮明画像を取得するために、通常、再撮像を選択する。ここでのボケ画像とは、鮮明度が所定閾値よりも小さい画像を指し、鮮明画像とは、鮮明度が所定閾値よりも大きい画像を指し、鮮明度とは、画像における各細部のテクスチャ及びその境界の明瞭度を指す。しかしながら、カメラの動き、物体の動き、及び手ブレなどの様々な要因により、ユーザが再撮像を複数回行っても鮮明画像を取得できない可能性がある。また、いくつかの瞬間スナップショットの撮像シーンでは、ユーザは、通常、2回目の撮像機会がない。例えば、高速で動く自動車/汽車で窓外の風景を撮像するシーン、又は、迅速に動く物体を静止シーンで撮像するシーンのいずれにおいても、ユーザは、再撮像する機会がない。
ボケ画像を処理する過程において、ボケ画像の実際の撮像シーンは、非常に複雑であり、カメラの動き、撮像シーンにおける物体の動きなどの複数の要因を含む。そこで、従来のモデル訓練方法では、全ての動きボケ領域に対する畳み込みモデル仮定を満たすことができないため、訓練された画像処理モデルは、画像のボケ除去性能が悪い。また、モデル訓練では、ボケ画像に対して、分割してからそれぞれ計算して合成するという処理を行う必要があるため、そのモデル訓練効率が低い。
これに基づき、本願の実施例では、ボケ画像を処理するための画像処理モデルが提供されている。該画像処理モデルは、ボケ画像に対して鮮明度回復処理を行うことにより、鮮明画像を取得するために用いることができる。
本願の実施例で提供されるボケ画像を処理するための画像処理モデルは、少なくとも2つの異なるスケールのネットワークをスケールの大きい順又は小さい順に直列に接続して形成することができ、異なるスケールのネットワークは、異なる鮮明度のボケ画像に対して鮮明度回復処理を行うことができる。ネットワークのスケールは、該ネットワークに入力された画像の鮮明度の大きさを表すためのものである。つまり、前記スケールの大きさは、処理対象のボケ画像の鮮明度の大きさに対応する。粗スケールは、元のボケ画像をより小さい解像度にダウンサンプリングすることにより、鮮明度の高い画像を取得することを表し、該画像のボケ程度が相対的に低いが、細スケールは、元のボケ画像をより大きい解像度にダウンサンプリングすることにより、鮮明度の低い画像を取得することを表し、該画像のボケ程度が相対的に高い。図1に示すように(図1において、画像処理モデルが3つのネットワークを含む場合を例として説明する)、該画像処理モデルは、粗スケールネットワーク11、中スケールネットワーク12、及び、細スケールネットワーク13などの3つの異なるスケールのネットワークを含んでもよい。ここで、この3つの異なるスケールのネットワークのうち、粗スケールネットワーク11のスケールが最大であり、中スケールネットワーク12のスケールが2番目に大きく、細スケールネットワーク13のスケールが最小である。各ネットワークは、いずれもコーデックネットワークであり、具体的には、複数の異なるチャネル数の特徴抽出ユニット111(図1において黒色ユニットで示されている)、特徴変換ユニット112(図1において灰色ユニットで示されている)、及び、特徴再構築ユニット113(図1において白色ユニットで示されている)を含んでもよい。各ユニットのチャネル数は、経験値又はサービスニーズに基づいて設定することができ、例えば、32チャネル、64チャネル、及び、128チャネルなどに設定する。いくつかの実施例では、特徴抽出ユニット111、特徴変換ユニット112、及び、特徴再構築ユニット113は、いずれも1つ以上の畳み込み層を含んでもよく、各畳み込み層それぞれは、2つの3×3の畳み込みカーネルを含んでもよい。2つの3×3の畳み込みカーネルを採用すると、パラメータ量を低減し、モデル訓練速度を向上させることができる。説明すべきものとして、図1は、画像処理モデルの構成を模式的に示すものに過ぎず、本願の実施例で提供された画像処理モデルの構成を限定するものではない。例えば、画像処理モデルにおけるネットワーク数は、図1に示す3つに限定されず、2つや4つなどであってもよい。また、例えば、各畳み込み層それぞれは、3つの3×3の畳み込みカーネル、又は、1つの5×5の畳み込みカーネルなどを含んでもよい。
任意の2つのネットワークにおける特徴抽出ユニット111のネットワークパラメータは、互いに独立し、かつ/あるいは、任意の2つのネットワークにおける特徴再構築ユニット113のネットワークパラメータは、互いに独立している。任意の2つのネットワークにおける特徴変換ユニット112のネットワークパラメータは、互いに共有される。いくつかの実施例では、特徴変換ユニット112は、少なくとも2つの残差ユニットを含んでもよく、各残差ユニットそれぞれは、2つ以上の畳み込み層を含んでもよく、各残差ユニットの間は、多段ネストスキップ接続の構成で接続されてもよい。ここで、1つの残差ユニットの定義は、式1.1を参照すればよい。
Figure 2022510622000002
ここで、xn-1、x、及びFは、それぞれ、n番目の残差ユニットの入力、出力、及び、残差関数を表す。式1.1に示す式は、1段残差関数と呼ばれてもよく、それに対応する構成は、図2Aに示すとおりである。本願の実施例では、n-1番目の残差ユニットの入力も別の残差関数により生成されると仮定すると、式1.1に代入して、式1.2に示す2段残差関数を取得することができ、それに対応する2段ネストスキップ接続の構成は、図2Bの左側の構成の模式図に示すようなものであってもよい。また、図2Bにおける左右両側の構成の模式図を比較すると分かるように、2つの残差ユニットが直接的に直列接続される従来の技術よりも、本願の実施例で提供された2段ネストスキップ接続の構成には、接続が1つ多い。
Figure 2022510622000003
式1.2を拡張すると、式1.3に示す3段残差関数をさらに取得することができ、それに対応する3段ネストスキップ接続の構成は、図2Cに示すようなものであってもよい。
Figure 2022510622000004
同様に、多段残差関数及びそれに対応する多段ネストスキップ接続の構成を取得することができる。多段ネストスキップ接続の構成をネストモジュールに組み合わせて、特徴変換ユニットに埋め込んでもよい。これにより、勾配の伝播を改善し、ネットワークパラメータの最適化の複雑度を低下させる。特徴変換ユニット112が4つの残差ユニットFiを含み、各残差ユニットそれぞれが2つの畳み込み層を含み、各残差ユニットの間が4段ネストスキップ接続の構成で接続される場合を例として、その特徴変換ユニット112の構成の模式図は、図2Dを参照すればよい。図2Dは、図1における特徴変換ユニット112の内部構成の模式図である。説明すべきものとして、図2Dは、特徴変換ユニット112の構成を模式的に示すものに過ぎず、本願の実施例で提供される特徴変換ユニット112の構成を限定するものではない。例えば、特徴変換ユニット112における残差ユニットの数は、図2Dに示す4つに限定されず、2つや5つなどであってもよい。また、例えば、各残差ユニットは、2つの畳み込み層のみを含むことに限定されず、3つ、5つ、又は、それ以上の畳み込み層を含んでもよい。
上記画像処理モデルに対して、本願の実施例では、該画像処理モデルの訓練更新をより良く行い、画像処理モデルのボケ除去性能を最適化し、モデル訓練効率を向上させるモデル訓練方式がさらに提供されている。該モデル訓練方式で画像処理モデルの訓練更新を行う際に、対をなすボケ画像及び鮮明画像を取得し、画像処理モデルにおける各ネットワークを順次に呼び出して、訓練用のボケ画像に対して鮮明度回復処理を行うことにより、回復画像を取得する。次に、回復画像及び鮮明画像に基づいて、画像処理モデルにおける各ネットワークのネットワークパラメータを更新してもよい。ここで、各ネットワークは、画像に対して鮮明度回復処理を行うとき、いずれも複数の符号化段階及び複数の復号化段階を含んでもよい(図1において、3つの符号化段階及び3つの復号化段階を例として説明する)。各符号化段階において、まず、特徴抽出ユニット111を呼び出して、受信された画像に対して特徴抽出を行い、次に、特徴変換ユニット112を呼び出して、特徴抽出処理後の画像に対して特徴変換処理を行ってもよい。各復号化段階において、まず、特徴変換ユニット112を呼び出して、受信された画像に対して特徴変換処理を行い、次に、特徴再構築ユニット113を呼び出して、特徴変換処理後の画像に対して特徴再構築処理を行ってもよい。
上記の説明に基づき、本願の実施例では、ボケ画像を処理するための画像処理モデルの訓練方法、装置、ネットワーク機器、及び、記憶媒体が提供されている。
ここで、該画像処理モデルの訓練装置は、具体的に、ネットワーク機器、例えば、端末又はサーバ等の機器に組み込まれてもよい。ここでの端末は、スマート端末、タブレットコンピュータ、ラップトップコンピュータ、デスクトップコンピュータなどを含むが、これらに限定されない。例えば、図3Aを参照すると、ネットワーク機器31は、鮮明度が所定閾値よりも大きい鮮明画像と、鮮明度が前記所定閾値よりも小さく、前記鮮明画像に対応するボケ画像とが含まれる訓練用のサンプル対を取得し、前記画像処理モデルを呼び出して、前記ボケ画像に対して鮮明度回復処理を行うことにより、回復画像を取得し、前記回復画像及び前記鮮明画像に基づいて、前記画像処理モデルにおける前記第1ネットワークのネットワークパラメータ及び/又は前記第2ネットワークのネットワークパラメータを更新することにより、訓練後の画像処理モデルを取得してもよい。
本願の実施例で提供された、ボケ画像を処理するための画像処理モデルの訓練方法は、ネットワーク機器によって実行されてもよい。図3Bを参照すると、ボケ画像を処理するための該画像処理モデルの訓練方法は、以下のステップS301~S303を含んでもよい。
S301では、訓練用のサンプル対を取得し、サンプル対には、鮮明画像と、該鮮明画像に対応するボケ画像とが含まれる。
訓練用のサンプル対を取得する際に、データ駆動方式を用いて、鮮明画像と、該鮮明画像に対応するボケ画像とを取得してもよい。いわゆるデータ駆動方式とは、カメラの連続する複数フレームの画像を重ね合わせて、動的なシーンのボケをシミュレートすることにより、動的なシーンでのボケ画像及び鮮明画像を取得する方式である。ここで、鮮明画像の鮮明度は所定閾値よりも大きく、ボケ画像の鮮明度は所定閾値よりも小さい。ここでの所定閾値は、経験値又は実際のサービスニーズ(例えば、画像処理モデルのボケ除去性能の精度のニーズ)に基づいて設定してもよい。データ駆動方式を用いて、対をなす鮮明画像及びボケ画像を取得すると、サンプル対の収集の難しさを低下させることができる。
S302では、画像処理モデルを呼び出して、ボケ画像に対して鮮明度回復処理を行うことにより、回復画像を取得する。
本願の実施例では、画像処理モデルは、少なくとも、第1ネットワークと第2ネットワークとを含み、前記第1ネットワークと前記第2ネットワークとは、異なるスケールを有するコーデックネットワークであり、第1ネットワークは、第1スケールに対応し、第2ネットワークは、第2スケールに対応する。第1スケールと第2スケールとの値が異なり、第1スケールの値は、第2スケールの値より大きくてもよく、即ち、第1スケールは、粗スケールであってもよく、第2スケールは、細スケールであってもよい。画像処理モデルを呼び出して、ボケ画像に対して鮮明度回復処理を行う際に、第1ネットワーク及び第2ネットワークを順次に呼び出して、ボケ画像に対して鮮明度回復処理を行うことにより、回復画像を取得してもよい。説明すべきものとして、画像処理モデルが、他のネットワーク、例えば、第3ネットワークや第4ネットワークなどをさらに含む場合、第1ネットワーク、第2ネットワーク、及び、他のネットワークを呼び出して、ボケ画像に対して鮮明度回復処理を行ってもよい。
ここでの鮮明度回復処理とは、画像の鮮明度を向上させる処理である。図3Cは、本願の実施例における鮮明度回復処理の具体的なフローチャートである。いくつかの実施例では、図3Cに示すように、鮮明度回復処理は、具体的に、以下のステップS321~S323を含む。
S321では、画像に対して特徴抽出処理を行う。
具体的には、画像に対して複数回の畳み込み操作を行うことにより、画像の特徴抽出処理を実現してもよいし、特徴抽出アルゴリズムを用いて、画像に対して特徴抽出処理を行ってもよい。ここでの特徴抽出アルゴリズムは、ローカルバイナリパターン(LBP:Local Binary Patterns)アルゴリズム、勾配方向ヒストグラム(HOG:Histogram of Oriented Gradient)特徴抽出アルゴリズム、スピードアップロバスト特徴(SURF:Speeded Up Robust Features)アルゴリズムなどを含むが、これらに限定されない。
S322では、多段残差関数を用いて、特徴抽出処理後の画像に対して特徴変換処理を行う。
ここでの多段残差関数とは、段数が2以上である残差関数を指す。
S323では、特徴変換処理後の画像に対して特徴再構築処理を行う。
具体的には、特徴変換処理後の画像に対して複数回の逆畳み込み操作を行うことにより、特徴変換処理後の画像の特徴再構築処理を実現してもよい。
S303では、回復画像及び鮮明画像に基づいて、画像処理モデルにおける第1ネットワークのネットワークパラメータ及び/又は第2ネットワークのネットワークパラメータを更新することにより、訓練後の画像処理モデルを取得している。
動的なシーンで撮像されたボケ画像(図4の左側に示される画像)を検討すると、図4の左側に示された画像において、背景領域における建築部分の画像が鮮明であるが、前景領域における群衆部分の画像がボケていることが分かる。前景領域における1つのボケた画像領域21と、背景領域における1つの鮮明な画像領域22とを任意に選択し、選択されたこれらの2つの画像領域を画像ピラミッドで分析した。その分析結果は、図4の右側を参照すればよい。図4の右側に示された分析結果から分かるように、背景領域における画像領域22に対してダウンサンプリング処理を行った後では、その画像エッジがダウンサンプリング後に依然として鮮明であるが、前景領域における画像領域21に対してダウンサンプリング処理を行った後では、その画像エッジがダウンサンプリング後にますます鮮明になる。画像処理モデルにおける異なるスケールのネットワークに対して、同じ特徴抽出パラメータを割り当てると、画像処理モデルは、鮮明な画像特徴及びボケた画像特徴を同時に抽出することができない。したがって、本願の実施例では、異なるスケールのネットワークの特徴抽出ユニットに対して、異なる特徴抽出パラメータを割り当てる。これにより、異なるスケールのネットワークが自スケールでの重要な画像情報を学習できるようにして、異なるスケールでの画像特徴をより多く抽出することができる。
異なるスケールのネットワークにおける特徴変換ユニットの特徴変換機能は、類似しており、いずれも、対応するボケ画像特徴を鮮明画像特徴に変換することを目的とするため、本願の実施例では、図5Aに示すように、異なるスケールのネットワークの特徴抽出ユニットに対して、同じ特徴変換パラメータを割り当てる。図5Aにおける上から下への3行は、それぞれ、粗スケールから細スケールまでの3つのネットワークを表し、ここで、FEは、特徴抽出ユニットを表し、Tは、特徴変換ユニットを表し、同一の背景は、同じパラメータを表す。さらに、特徴変換は、異なるスケールと同じスケールでの機能が類似するため、図5Bに示すように、同一のスケールのネットワークにおける各特徴変換ユニットに対して、同じ特徴変換パラメータを割り当ててもよい。説明すべきものとして、図5A及び図5Bは、いずれも、各ネットワークの符号化段階のみを模式的に表すものであり、その復号化段階は、図5A及び図5Bに示されていない。
上記の説明に基づき、画像処理モデルにおける第1ネットワーク及び第2ネットワークに対して、第1ネットワークのネットワークパラメータと第2ネットワークのネットワークパラメータとの間が選択的共有条件を満たすように設定してもよく、選択的共有条件は、第1ネットワークと第2ネットワークとの間で共有するネットワークパラメータを指示するために用いられるとともに、第1ネットワークと第2ネットワークとの間で互いに独立したネットワークパラメータを指示するために用いられる。具体的には、ネットワークパラメータは、特徴抽出パラメータ及び特徴変換パラメータを含み、選択的共有条件は、第1ネットワークと第2ネットワークとの間で共有するネットワークパラメータを指示するために用いられる場合、具体的に、第1ネットワークの特徴変換パラメータと第2ネットワークの特徴変換パラメータとが、共有するネットワークパラメータであり、即ち、第1ネットワークの特徴変換パラメータと第2ネットワークの特徴変換パラメータとが、同じネットワークパラメータであることを指示するために用いられる。選択的共有条件は、第1ネットワークと第2ネットワークとの間で互いに独立したネットワークパラメータを指示するために用いられる場合、具体的に、第1ネットワークの特徴抽出パラメータと第2ネットワークの特徴抽出パラメータとが、互いに独立したネットワークパラメータであり、第1ネットワークの特徴抽出パラメータと第2ネットワークの特徴抽出パラメータとが、異なるネットワークパラメータであることを指示するために用いられる。いくつかの実施例では、ネットワークパラメータは、特徴再構築パラメータをさらに含み、選択的共有条件は、第1ネットワークと第2ネットワークとの間で互いに独立したネットワークパラメータを指示するために用いられる場合、第1ネットワークの特徴再構築パラメータと第2ネットワークの特徴再構築パラメータとが、互いに独立したネットワークパラメータであり、即ち、第1ネットワークの特徴再構築パラメータと第2ネットワークの特徴再構築パラメータとが、異なるネットワークパラメータであることを指示するためにも用いられる。
ここで、選択的共有条件は、具体的に、第1ネットワークの特徴変換パラメータと第2ネットワークの特徴変換パラメータとが、共有するネットワークパラメータであることを指示するために用いられる場合、以下の2種類の実施形態を含んでもよい。(1)特徴変換パラメータの数が1よりも大きいとき、図5Aの右側の画像に示すように、第1ネットワークの複数の特徴変換パラメータと第2ネットワークの複数の特徴変換パラメータとは、共有するネットワークパラメータであり、第1ネットワークにおける各特徴変換パラメータは、互いに独立したネットワークパラメータであり、第2ネットワークにおける各特徴変換パラメータは、互いに独立したネットワークパラメータである。(2)特徴変換パラメータの数が1よりも大きいとき、図5Bの右側の画像に示すように、第1ネットワークの複数の特徴変換パラメータと第2ネットワークの複数の特徴変換パラメータとは、共有するネットワークパラメータであり、第1ネットワークの各特徴変換パラメータは、共有するネットワークパラメータであり、第2ネットワークの各特徴変換パラメータは、共有するネットワークパラメータである。
本願の実施例における画像処理モデルは、少なくとも、第1スケールの第1ネットワークと、第2スケールの第2ネットワークとを含む。第1ネットワークと第2ネットワークとの間に、共有するネットワークパラメータ及び独立したネットワークパラメータが存在するため、画像処理モデルは、ボケ画像に対して鮮明度回復処理を行う際に、ボケ画像におけるより多くの画像特徴を学習して、正確な回復画像を取得することができる。正確な回復画像及び鮮明画像に基づいて、第1ネットワークのネットワークパラメータ及び/又は第2ネットワークのネットワークパラメータを更新すると、訓練後の画像処理モデルのボケ除去性能を向上させることができる。また、第1ネットワークと第2ネットワークとの間に、共有するネットワークパラメータが存在するため、画像処理モデルのパラメータ数を減少させ、モデル訓練効率を向上させることができる。また、対応付けられる鮮明画像及びボケ画像を用いて、画像処理モデルに対してエンドツーエンドの訓練学習を行うことにより、ボケ画像の各動きボケ領域を分割する必要がなく、かつ、ボケ画像に対していかなる仮定を行う必要もなく、訓練後の画像処理モデルのボケ除去性能及びモデル訓練効率をさらに向上させることができる。
本願の実施例で提供される、ボケ画像を処理するための画像処理モデルの他の訓練方法のフローの模式図である図6Aを参照されたい。該画像処理モデルの訓練方法は、ネットワーク機器によって実行されてもよい。図6Aを参照すると、該画像処理モデルの訓練方法は、以下のステップS601~S605を含んでもよい。
S601では、訓練用のサンプル対を取得する。サンプル対には、鮮明画像と、鮮明画像に対応するボケ画像とが含まれる。
ネットワーク機器は、大量のサンプル対を取得し、これらの大量のサンプル対を用いて、画像処理モデルに対して後続のモデル訓練更新操作を行ってもよい。一実施形態では、ボケ画像の生成は、通常、撮像時にカメラが動くか、又は、撮像シーンにおける物体が動くことによるものである。本質的には、カメラのシャッタースピードが十分に速くないため、カメラの動き、又は、撮像シーンにおける物体の動きにより、シャッターが開いてから閉じるまでの時間帯内にカメラのセンサが収集したものは、ある一定の位置の輝度だけではなく、該時間帯内での関連位置の全ての輝度の積分であり、これが画像のボケを招く。研究によると、関連位置の全ての輝度の積分が、カメラで撮像された連続フレームの画像において、隣接する連続画像の和を求めることとして近似できることが示されている。
図6Bは、本願の実施例における訓練用のサンプル対を取得する方法のフローチャートである。図6Bに示すように、訓練用のサンプル対を取得することは、具体的に、以下のステップS611~S613を含んでもよい。
ステップS611では、訓練用の画像シーケンスフレームを取得する。
いくつかの実施例では、該画像シーケンスフレームは、アクションカメラ(例えば、GoPro高速カメラ)及びネットワーク機器の高速モードを採用して大量のビデオを収集し、収集されたビデオに対して画像フレーム解析を行うことにより取得してもよい。該ビデオは、240フレーム/秒の高速ビデオであってもよく、120フレーム/秒の高速ビデオなどであってもよい。
ステップS612では、画像シーケンスフレームの中から1フレームの画像を鮮明画像として任意に選択し、鮮明画像に関連する複数フレームの参照画像を決定する。
いくつかの実施例では、参照画像が鮮明画像に関連することは、参照画像のフレームシーケンス番号と鮮明画像のフレームシーケンス番号との差が所定の差値よりも小さいことを指す。例えば、鮮明画像のフレームシーケンス番号が5であり、即ち、鮮明画像が画像シーケンスフレームにおける第5フレームの画像であり、所定の差値が3であるとすると、画像シーケンスフレームにおける第3フレームの画像、第4フレームの画像、第6フレームの画像、及び、第7フレームの画像をいずれも参照画像としてもよい。
ステップS613では、複数フレームの参照画像に基づいて、鮮明画像に対応するボケ画像を取得し、ボケ画像及び鮮明画像を用いて、訓練用のサンプル対を構築する。
いくつかの実施例では、複数フレームの参照画像に基づいて、鮮明画像に対応するボケ画像を取得する具体的な実施形態は、複数フレームの参照画像を重ね合わせて平均を求めることにより、鮮明画像に対応するボケ画像を取得することであってもよい。
S602では、画像処理モデルを呼び出して、ボケ画像に対して鮮明度回復処理を行うことにより、回復画像を取得する。
本願の実施例では、画像処理モデルは、少なくとも、第1ネットワークと第2ネットワークとを含み、第1ネットワークは、第1スケールに対応し、第2ネットワークは、第2スケールに対応し、第1スケールと第2スケールとの値が異なる。上記から分かるように、異なるスケールのネットワークは、異なる鮮明度のボケ画像に対して鮮明度回復処理を行うことができる。
図6Cは、本願の実施例におけるステップS602において画像処理モデルを呼び出して、ボケ画像に対して鮮明度回復処理を行う方法のフローチャートである。図6Cに示すように、該方法は、以下のステップS621~S624を含む。
ステップS621では、第1スケールに従って、ボケ画像に対してダウンサンプリング処理を行うことにより、第1鮮明度のボケ画像を取得する。
ステップS622では、第1ネットワークを呼び出して、第1鮮明度のボケ画像に対して鮮明度回復処理を行うことにより、中間画像を取得する。
いくつかの実施例では、第1ネットワークは、式1.4に示す式を用いて、第1鮮明度のボケ画像に対して鮮明度回復処理を行ってもよい。
Figure 2022510622000005
ここで、Netは、第1ネットワークが鮮明度回復処理を行うために採用された関数であり、Bは、第1ネットワークに入力された第1鮮明度のボケ画像を表し、θは、第1ネットワークにおける、第2ネットワークと互いに独立したネットワークパラメータを表し、ηは、第1ネットワークと第2ネットワークとの間で共有するネットワークパラメータを表し、Iは、第1ネットワークから出力された中間画像を表す。
ステップS623では、第2スケールに従って、ボケ画像に対してダウンサンプリング処理を行うことにより、第2鮮明度のボケ画像を取得する。
ステップS624では、第2ネットワークを呼び出して、第2鮮明度のボケ画像と、中間画像とに基づいて、鮮明度回復処理を行うことにより、回復画像を取得する。
いくつかの実施例では、第2ネットワークは、式1.5に示す式を用いて、第2鮮明度のボケ画像と、中間画像とに基づいて、鮮明度回復処理を行ってもよい。
Figure 2022510622000006
ここで、Netは、第2ネットワークが鮮明度回復処理を行うために採用された関数であり、Bは、第2ネットワークに入力された第2鮮明度のボケ画像を表し、Iは、第1ネットワークから出力された中間画像を表し、θは、第2ネットワークにおける、第1ネットワークと互いに独立したネットワークパラメータを表し、ηは、第1ネットワークと第2ネットワークとの間で共有するネットワークパラメータを表し、Iは、第2ネットワークから出力された回復画像を表す。
説明すべきものとして、画像処理モデルが少なくとも3つのネットワークを含む場合、画像処理モデルの接続順序に従って、各ネットワークを順次に呼び出して、ボケ画像に対して鮮明度回復処理を行ってもよい。画像処理モデルにおける1番目のネットワークは、式1.4に示す式を用いて、鮮明度回復処理を行ってもよいが、画像処理モデルにおける1番目のネットワーク以外の残りの任意のネットワークは、いずれも、式1.6に示す式を用いて、鮮明度回復処理を行ってもよく、最後のネットワークが鮮明度回復処理を行うことにより取得された画像は、回復画像である。
Figure 2022510622000007
ここで、Netは、i番目のネットワークが鮮明度回復処理を行うために採用された関数であり、Bは、i番目のネットワークに入力されたi番目の鮮明度のボケ画像を表し、θは、i番目のネットワークにおける、他の異なるスケールのネットワークと互いに独立したネットワークパラメータを表し、ηは、各ネットワークの間で共有するネットワークパラメータを表し、Ii-1は、i-1番目のネットワークから出力された中間画像を表し、Iは、i番目のネットワークから出力された中間画像を表す。
S603では、画像処理モデルの最適化関数を取得する。
S604では、回復画像及び鮮明画像に基づいて、最適化関数の値を決定する。
S605では、最適化関数の値を減少させる原則に従って、画像処理モデルにおける第1ネットワークのネットワークパラメータ及び/又は第2ネットワークのネットワークパラメータを更新することにより、訓練後の画像処理モデルを取得する。
ネットワーク機器は、上記ステップS601~S602を採用して大量のサンプル対の回復画像及び鮮明画像を取得し、対をなす回復画像及び鮮明画像を大量取得した後、ステップS603~S605を実行してもよい。ここで、ステップS603~S605において、画像処理モデルの最適化関数は、式1.7に示すようなものであってもよい。
Figure 2022510622000008
ここで、Nは、サンプル対の数を表し、B 及びL は、それぞれ、スケールiでのk番目のサンプル対におけるボケ画像及び鮮明画像を表し、Sは、画像処理モデルにおけるスケールの総数を表し、θは、スケールiに対応するネットワークにおける互いに独立したネットワークパラメータを表し、ηは、共有するネットワークパラメータを表し、Tは、スケールiでの画像の画素点の総数を表し、Fは、ボケ画像B に対して鮮明度回復処理を行う関数を表す。
最適化関数を取得した後で、回復画像及び鮮明画像を最適化関数に代入して、最適化関数の値を決定し、次に、最適化関数の値を減少させる原則に従って、最適化関数の値が最小化されて画像処理モデルが収束状態にあるまで、画像処理モデルにおける第1ネットワークのネットワークパラメータ及び/又は第2ネットワークのネットワークパラメータを連続的に更新してもよい。説明すべきものとして、画像処理モデルは、第1ネットワーク及び第2ネットワーク以外の他のネットワークをさらに含んでもよい。この場合、最適化関数の値を決定した後で、最適化関数の値を減少させる原則に従って、画像処理モデルにおける他のネットワークのネットワークパラメータを連続的に更新してもよい。
本願の実施例におけるボケ画像を処理するための画像処理モデルは、少なくとも、第1スケールの第1ネットワークと、第2スケールの第2ネットワークとを含む。第1ネットワークと第2ネットワークとの間に、共有するネットワークパラメータ及び独立したネットワークパラメータが存在するため、画像処理モデルは、ボケ画像に対して鮮明度回復処理を行う際に、ボケ画像におけるより多くの画像特徴を学習して、正確な回復画像を取得することができる。正確な回復画像及び鮮明画像に基づいて、第1ネットワークのネットワークパラメータ及び/又は第2ネットワークのネットワークパラメータを更新すると、訓練後の画像処理モデルのボケ除去性能を向上させることができる。また、第1ネットワークと第2ネットワークとの間に、共有するネットワークパラメータが存在するため、画像処理モデルのパラメータ数を減少させ、モデル訓練効率を向上させることができる。また、対応付けられる鮮明画像及びボケ画像を用いて、画像処理モデルに対してエンドツーエンドの訓練学習を行うことにより、ボケ画像の各動きボケ領域を分割する必要がなく、かつ、ボケ画像に対していかなる仮定を行う必要もなく、訓練後の画像処理モデルのボケ除去性能及びモデル訓練効率をさらに向上させることができる。
上記の画像処理モデルの関連説明に基づき、本願の実施例では、画像処理方法がさらに提供されている。該画像処理方法は、図3Aにおけるネットワーク機器によって実行されてもよい。図7を参照すると、該画像処理方法は、以下のステップS701~S703を含んでもよい。
S701では、処理対象の元画像を取得する。
元画像の鮮明度が所定閾値よりも小さく、処理対象の元画像を取得する方式は、以下の2種類を含んでもよい。
(1)処理対象の元画像を自発的に取得する。
具体的には、撮像コンポーネントを呼び出して画像を撮像する際に、ネットワーク機器は、撮像コンポーネントが動的なシーン又は暗い環境にあることを検出すると、撮像コンポーネントで撮像された画像の鮮明度が所定閾値よりも小さいか否かを自発的に検出してもよい。所定閾値よりも小さい場合、ネットワーク機器は、自発的に、該撮像コンポーネントで撮像された画像を処理対象の元画像としてもよい。例えば、あるエリアの環境状況をネットワーク機器の撮像コンポーネントが撮像する際に、ネットワーク機器は、該エリアの過去環境データに基づいて、通常、該エリアに人や車の流れがあると決定すると、撮像コンポーネントが動的な環境にあると考えられ、このとき、撮像コンポーネントで撮像された画像の鮮明度が所定閾値よりも小さいか否かを自発的に検出してもよい。所定閾値よりも小さい場合、ネットワーク機器は、自発的に、該撮像コンポーネントで撮像された画像を処理対象の元画像としてもよい。また、例えば、ネットワーク機器の撮像コンポーネントが画像を撮像する際に、ネットワーク機器は、光センサ又は撮像コンポーネントによって、撮像コンポーネントの位置する環境の光線が所定の光線値よりも低いことを検出すると、撮像コンポーネントが暗い環境にあると考えられ、この時、撮像コンポーネントで撮像された画像の鮮明度が所定閾値よりも小さいか否かを自発的に検出してもよい。所定閾値よりも小さい場合、ネットワーク機器は、自発的に、該撮像コンポーネントで撮像された画像を処理対象の元画像としてもよい。
(2)ユーザの指示に従って処理対象の元画像を取得する。
一実施形態において、ネットワーク機器は、ユーザがネットワーク機器の撮像コンポーネントを使用して画像を撮像したことを検出すると、撮像コンポーネントで撮像された画像を取得し、ユーザによる閲覧のために、撮像された画像をユーザインタフェースに表示してもよい。ユーザは、該撮像された画像が鮮明でなく、その鮮明度が所定閾値よりも小さいことを発見すると、ネットワーク機器に画像処理指示を入力してもよい。ネットワーク機器は、該画像処理指示を受け付けると、該撮像された画像を処理対象の元画像としてもよい。他の実施形態では、ユーザは、ネットワーク機器のイメージライブラリにおけるいくつかの過去画像がボケており、その鮮明度が所定閾値よりも小さいことを発見すると、ネットワーク機器に画像処理指示を入力することにより、ネットワーク機器がこれらの過去画像を処理対象の元画像として取得するようにトリガーしてもよい。ここで、上記で言及された画像処理指示は、ユーザが画像をクリックするか又は押すことにより生成された指示であってもよいし、ユーザがネットワーク機器上の指定キーを押すことにより生成された指示であってもよいし、ユーザがネットワーク機器に音声を入力することにより生成された指示などであってもよい。
S702では、画像処理モデルを呼び出して、元画像に対して鮮明度回復処理を行うことにより、ターゲット画像を取得する。
ここで、ターゲット画像の鮮明度が所定閾値よりも大きく、鮮明度回復処理は、画像に対して特徴抽出処理を行うことと、多段残差関数を用いて、特徴抽出処理後の画像に対して特徴変換処理を行うことと、特徴変換処理後の画像に対して特徴再構築処理を行うことと、を含む。これに応じて、ステップS702の具体的な実施過程においては、画像処理モデルを呼び出し、まず、元画像に対して特徴抽出処理を行うことにより、特徴抽出処理後の第1画像を取得し、次に、多段残差関数を用いて、第1画像に対して特徴変換処理を行うことにより、特徴変換処理後の第2画像を取得し、最後に、第2画像に対して特徴再構築処理を行うことにより、ターゲット画像を取得してもよい。
ここでの画像処理モデルは、図3B又は図6Aに示すような画像処理モデルの訓練方法によって訓練されたものであってもよい。該画像処理モデルは、少なくとも、第1ネットワークと第2ネットワークとを含み、第1ネットワークは、第1スケールに対応し、第2ネットワークは、第2スケールに対応し、第1ネットワークのネットワークパラメータと第2ネットワークのネットワークパラメータとの間は、選択的共有条件を満たし、該選択的共有条件は、第1ネットワークと第2ネットワークとの間で共有するネットワークパラメータを指示するために用いられるとともに、第1ネットワークと第2ネットワークとの間で互いに独立したネットワークパラメータを指示するために用いられる。一実施形態では、ネットワークパラメータは、特徴抽出パラメータ及び特徴変換パラメータを含む。これに応じて、選択的共有条件は、第1ネットワークと第2ネットワークとの間で共有するネットワークパラメータを指示するために用いられる場合、具体的に、第1ネットワークの特徴変換パラメータと第2ネットワークの特徴変換パラメータとが、共有するネットワークパラメータであることを指示するために用いられる。選択的共有条件は、第1ネットワークと第2ネットワークとの間で互いに独立したネットワークパラメータを指示するために用いられる場合、具体的に、第1ネットワークの特徴抽出パラメータと第2ネットワークの特徴抽出パラメータとが、互いに独立したネットワークパラメータであることを指示するために用いられる。他の実施形態では、ネットワークパラメータは、特徴再構築パラメータをさらに含み、これに対応して、選択的共有条件は、第1ネットワークと第2ネットワークとの間で互いに独立したネットワークパラメータを指示するために用いられる場合、第1ネットワークの特徴再構築パラメータと第2ネットワークの特徴再構築パラメータとが、互いに独立したネットワークパラメータであることを指示するためにも用いられる。
S703では、ターゲット画像を出力する。
本願の実施例では、画像処理モデルは、図3B又は図6Aに示す画像処理モデルの訓練方法によって訓練されたものであり、該画像処理モデルのボケ除去性能が良い。このため、該画像処理モデルを呼び出して、鮮明度の低い元画像に対して鮮明度回復処理を行うと、元画像に対してボケ除去処理をより良く行うことができる。これにより、鮮明なターゲット画像を取得し、ターゲット画像の鮮明度を向上させ、さらにターゲット画像の画質を向上させることができる。
上記の画像処理モデルの訓練方法の実施例の説明に基づき、本願の実施例では、ボケ画像を処理するための画像処理モデルの訓練装置が開示されており、前記画像処理モデルは、少なくとも、第1ネットワークと第2ネットワークとを含み、前記第1ネットワークと前記第2ネットワークとは、異なるスケールを有するコーデックネットワークであり、前記スケールの大きさは、処理対象のボケ画像の鮮明度の大きさに対応し、前記画像処理モデルの訓練装置は、ネットワーク機器で実行されるコンピュータプログラム(プログラムコードを含む)であってもよい。該画像処理モデルの訓練装置は、図3B又は図6Aに示す方法を実行することができる。図8を参照すると、前記画像処理モデルの訓練装置では、
訓練用のサンプル対を取得し、前記サンプル対には、鮮明画像と、前記鮮明画像に対応するボケ画像とが含まれ、前記鮮明画像の鮮明度が所定閾値よりも大きく、前記ボケ画像の鮮明度が前記所定閾値よりも小さい取得ユニット101と、
前記画像処理モデルを呼び出して、前記ボケ画像に対して鮮明度回復処理を行うことにより、回復画像を取得する処理ユニット102と、
前記回復画像及び前記鮮明画像に基づいて、前記画像処理モデルにおける前記第1ネットワークのネットワークパラメータ及び/又は前記第2ネットワークのネットワークパラメータを更新することにより、訓練後の画像処理モデルを取得する更新ユニット103と、を実行することができ、
ここで、前記第1ネットワークのネットワークパラメータと前記第2ネットワークのネットワークパラメータとの間は、選択的共有条件を満たし、前記選択的共有条件は、前記第1ネットワークと前記第2ネットワークとの間で共有するネットワークパラメータを指示するために用いられるとともに、前記第1ネットワークと前記第2ネットワークとの間で互いに独立したネットワークパラメータを指示するために用いられる。
一実施形態において、前記ネットワークパラメータは、特徴抽出パラメータ及び特徴変換パラメータを含み、
前記選択的共有条件は、前記第1ネットワークと前記第2ネットワークとの間で共有するネットワークパラメータを指示するために用いられる場合、具体的に、前記第1ネットワークの特徴変換パラメータと前記第2ネットワークの特徴変換パラメータとが、共有するネットワークパラメータであることを指示するために用いられ、
前記選択的共有条件は、前記第1ネットワークと前記第2ネットワークとの間で互いに独立したネットワークパラメータを指示するために用いられる場合、具体的に、前記第1ネットワークの特徴抽出パラメータと前記第2ネットワークの特徴抽出パラメータとが、互いに独立したネットワークパラメータであることを指示するために用いられる。
他の実施形態において、前記ネットワークパラメータは、特徴再構築パラメータをさらに含み、
前記選択的共有条件は、前記第1ネットワークと前記第2ネットワークとの間で互いに独立したネットワークパラメータを指示するために用いられる場合、前記第1ネットワークの特徴再構築パラメータと前記第2ネットワークの特徴再構築パラメータとが、互いに独立したネットワークパラメータであることを指示するためにも用いられる。
他の実施形態において、前記選択的共有条件は、具体的に、前記第1ネットワークの特徴変換パラメータと前記第2ネットワークの特徴変換パラメータが、共有するネットワークパラメータであることを指示するために用いられる場合、
前記特徴変換パラメータの数が1よりも大きいとき、前記第1ネットワークの複数の特徴変換パラメータと前記第2ネットワークの複数の特徴変換パラメータとが、共有するネットワークパラメータであり、第1ネットワークにおける各特徴変換パラメータが、互いに独立したネットワークパラメータであり、第2ネットワークにおける各特徴変換パラメータが、互いに独立したネットワークパラメータであり、又は、
前記特徴変換パラメータの数が1よりも大きいとき、前記第1ネットワークの複数の特徴変換パラメータと前記第2ネットワークの複数の特徴変換パラメータとが、共有するネットワークパラメータであり、前記第1ネットワークの各特徴変換パラメータが、共有するネットワークパラメータであり、前記第2ネットワークの各特徴変換パラメータが、共有するネットワークパラメータである、ことを含む。
他の実施形態において、前記第1ネットワークは、第1スケールに対応し、前記第2ネットワークは、第2スケールに対応し、処理ユニット102は、前記画像処理モデルを呼び出して、前記ボケ画像に対して鮮明度回復処理を行うことにより、回復画像を取得する際に、具体的に、
前記第1スケールに従って、前記ボケ画像に対してダウンサンプリング処理を行うことにより、第1鮮明度のボケ画像を取得し、
前記第1ネットワークを呼び出して、前記第1鮮明度のボケ画像に対して鮮明度回復処理を行うことにより、中間画像を取得し、
前記第2スケールに従って、前記ボケ画像に対してダウンサンプリング処理を行うことにより、第2鮮明度のボケ画像を取得し、
前記第2ネットワークを呼び出して、前記第2鮮明度のボケ画像及び前記中間画像に基づいて、鮮明度回復処理を行うことにより、回復画像を取得する。
他の実施形態において、前記鮮明度回復処理は、画像に対して特徴抽出処理を行うことと、多段残差関数を用いて、特徴抽出処理後の画像に対して特徴変換処理を行うことと、特徴変換処理後の画像に対して特徴再構築処理を行うことと、を含む。
他の実施形態では、更新ユニット103は、前記回復画像及び前記鮮明画像に基づいて、前記画像処理モデルにおける前記第1ネットワークのネットワークパラメータ及び/又は前記第2ネットワークのネットワークパラメータを更新する際に、具体的に、
前記画像処理モデルの最適化関数を取得し、
前記回復画像及び前記鮮明画像に基づいて、前記最適化関数の値を決定し、
前記最適化関数の値を減少させる原則に従って、前記画像処理モデルにおける前記第1ネットワークのネットワークパラメータ及び/又は前記第2ネットワークのネットワークパラメータを更新する。
他の実施形態において、取得ユニット101は、訓練用のサンプル対を取得する際に、具体的に、
訓練用の画像シーケンスフレームを取得し、前記画像シーケンスフレームには、少なくとも2フレームの画像が含まれ、
前記画像シーケンスフレームの中から1フレームの画像を鮮明画像として任意に選択し、前記鮮明画像に関連する複数フレームの参照画像を決定し、
前記複数フレームの参照画像に基づいて、前記鮮明画像に対応するボケ画像を取得し、前記ボケ画像及び前記鮮明画像を用いて、訓練用のサンプル対を構築する。
他の実施形態では、取得ユニット101は、前記複数フレームの参照画像に基づいて前記鮮明画像に対応するボケ画像を取得する際に、具体的に、
前記複数フレームの参照画像を重ね合わせて平均を求めることにより、前記鮮明画像に対応するボケ画像を取得する。
本願の一実施例によれば、図3B又は図6Aに示す方法に係る各ステップは、いずれも、図8に示す画像処理モデルの訓練装置における各ユニットによって実行されてもよい。例えば、図3Bに示すステップS301~S303は、それぞれ、図8に示す取得ユニット101、処理ユニット102、及び、更新ユニット103によって実行されてもよい。また、例えば、図6Aに示すステップS601~S602は、それぞれ、図8に示す取得ユニット101及び処理ユニット102によって実行されてもよく、ステップS603~S605は、図8に示す更新ユニット103によって実行されてもよい。
本願の他の実施例によれば、図8に示す、ボケ画像を処理するための画像処理モデルの訓練装置における各ユニットは、それぞれ又は全部に1つ又はいくつかの他のユニットに統合して構成してもよく、或いは、そのうちのある(いくらかの)ユニットは、機能的により小さい複数のユニットにさらに分割して構成してもよい。これは、同様の操作を実現することができるが、本願の実施例の技術的効果の実現に影響を与えない。上記のユニットは、論理的な機能に基づいて分割され、実際の適用では、1つのユニットの機能は、複数のユニットによって実現されてもよく、又は、複数のユニットの機能は、1つのユニットによって実現される。本願の他の実施例において、画像処理モデルの訓練装置が他のユニットも含み得ることに基づき、実際の適用では、これらの機能は、他のユニットによって補助して実現されてもよく、複数のユニットによって協働して実現されてもよい。
本願の他の実施例によれば、中央処理装置(CPU)、ランダムアクセスメモリ(RAM)、リードオンリーメモリ(ROM)などの処理素子及び記憶素子を含むコンピュータのような汎用コンピューティングデバイスで、図3B又は図6Aに示す相応の方法に係る各ステップを実行可能なコンピュータプログラム(プログラムコードを含む)を実行することにより、図8に示す画像処理モデルの訓練装置を構築し、本願の実施例における画像処理モデルの訓練方法を実現してもよい。前記コンピュータプログラムは、例えば、コンピュータ読み取り可能な記録媒体に記録され、コンピュータ読み取り可能な記録媒体を介して上記コンピューティングデバイスにロードされ、上記コンピューティングデバイスで実行されてもよい。
本願の実施例におけるボケ画像を処理するための画像処理モデルは、少なくとも、第1スケールの第1ネットワークと、第2スケールの第2ネットワークとを含む。第1ネットワークと第2ネットワークとの間に、共有するネットワークパラメータ及び独立したネットワークパラメータが存在するため、画像処理モデルは、ボケ画像に対して鮮明度回復処理を行う際に、ボケ画像におけるより多くの画像特徴を学習して、正確な回復画像を取得することができる。正確な回復画像及び鮮明画像に基づいて、第1ネットワークのネットワークパラメータ及び/又は第2ネットワークのネットワークパラメータを更新すると、訓練後の画像処理モデルのボケ除去性能を向上させることができる。また、第1ネットワークと第2ネットワークとの間に、共有するネットワークパラメータが存在するため、画像処理モデルのパラメータ数を減少させ、モデル訓練効率を向上させることができる。また、対応付けられる鮮明画像及びボケ画像を用いて、画像処理モデルに対してエンドツーエンドの訓練学習を行うことにより、ボケ画像の各動きボケ領域を分割する必要がなく、かつ、ボケ画像に対していかなる仮定を行う必要もなく、訓練後の画像処理モデルのボケ除去性能及びモデル訓練効率をさらに向上させることができる。
上記の画像処理方法の実施例の説明に基づき、本願の実施例では、画像処理装置がさらに開示されている。前記画像処理装置は、ネットワーク機器で実行されるコンピュータプログラム(プログラムコードを含む)であってもよい。該画像処理装置は、図7に示す方法を実行することができる。図9を参照すると、前記画像処理装置では、
処理対象の元画像を取得し、前記元画像の鮮明度が所定閾値よりも小さい取得ユニット201と、
ボケ画像を処理するための画像処理モデルを呼び出して、前記元画像に対して鮮明度回復処理を行うことにより、ターゲット画像を取得し、前記ターゲット画像の鮮明度が前記所定閾値よりも大きく、前記画像処理モデルは、少なくとも、第1ネットワークと第2ネットワークとを含み、前記第1ネットワークと前記第2ネットワークとは、異なるスケールを有するコーデックネットワークであり、前記スケールの大きさは、処理対象のボケ画像の鮮明度の大きさに対応し、前記第1ネットワークのネットワークパラメータと前記第2ネットワークのネットワークパラメータとの間は、選択的共有条件を満たし、前記選択的共有条件は、前記第1ネットワークと前記第2ネットワークとの間で共有するネットワークパラメータを指示するために用いられるとともに、前記第1ネットワークと前記第2ネットワークとの間で互いに独立したネットワークパラメータを指示するために用いられる処理ユニット202と、
前記ターゲット画像を出力する出力ユニット203と、を実行することができる。
一実施形態において、前記ネットワークパラメータは、特徴抽出パラメータ及び特徴変換パラメータを含み、
前記選択的共有条件は、前記第1ネットワークと前記第2ネットワークとの間で共有するネットワークパラメータを指示するために用いられる場合、具体的に、前記第1ネットワークの特徴変換パラメータと前記第2ネットワークの特徴変換パラメータとが、共有するネットワークパラメータであることを指示するために用いられ、
前記選択的共有条件は、前記第1ネットワークと前記第2ネットワークとの間で互いに独立したネットワークパラメータを指示するために用いられる場合、具体的に、前記第1ネットワークの特徴抽出パラメータと前記第2ネットワークの特徴抽出パラメータとが、互いに独立したネットワークパラメータであることを指示するために用いられる。
他の実施形態において、前記ネットワークパラメータは、特徴再構築パラメータをさらに含み、
前記選択的共有条件は、前記第1ネットワークと前記第2ネットワークとの間で互いに独立したネットワークパラメータを指示するために用いられる場合、前記第1ネットワークの特徴再構築パラメータと前記第2ネットワークの特徴再構築パラメータとが、互いに独立したネットワークパラメータであることを指示するためにも用いられる。
本願の一実施例によれば、図7に示す方法に係る各ステップは、いずれも、図9に示す画像処理装置における各ユニットによって実行されてもよい。具体的には、図7に示すステップS701~S703は、それぞれ、図9に示す取得ユニット201、処理ユニット202、及び、出力ユニット203によって実行されてもよい。本願の他の実施例によれば、図9に示す画像処理装置における各ユニットは、それぞれ又は全部に1つ又はいくつかの他のユニットに統合して構成してもよく、或いは、そのうちのある(いくらかの)ユニットは、機能的により小さい複数のユニットにさらに分割して構成してもよい。これは、同様の操作を実現することができるが、本願の実施例の技術的効果の実現に影響を与えない。上記のユニットは、論理的な機能に基づいて分割され、実際の適用では、1つのユニットの機能は、複数のユニットによって実現されてもよく、又は、複数のユニットの機能は、1つのユニットによって実現される。本願の他の実施例において、画像処理装置が他のユニットも含み得ることに基づき、実際の適用では、これらの機能は、他のユニットによって補助して実現されてもよく、複数のユニットによって協働して実現されてもよい。本願の他の実施例によれば、中央処理装置(CPU)、ランダムアクセスメモリ(RAM)、リードオンリーメモリ(ROM)などの処理素子及び記憶素子を含むコンピュータのような汎用コンピューティングデバイスで、図7に示す相応の方法に係る各ステップを実行可能なコンピュータプログラム(プログラムコードを含む)を実行することにより、図9に示す画像処理装置を構築し、本願の実施例における画像処理方法を実現してもよい。前記コンピュータプログラムは、例えば、コンピュータ読み取り可能な記録媒体に記録され、コンピュータ読み取り可能な記録媒体を介して上記コンピューティングデバイスにロードされ、上記コンピューティングデバイスで実行されてもよい。
本願の実施例では、画像処理モデルは、図3B又は図6Aに示す画像処理モデルの訓練方法によって訓練されたものであり、該画像処理モデルのボケ除去性能が良い。このため、該画像処理モデルを呼び出して、鮮明度の低い元画像に対して鮮明度回復処理を行うと、元画像に対してボケ除去処理をより良く行うことができる。これにより、鮮明なターゲット画像を取得し、ターゲット画像の鮮明度を向上させ、さらにターゲット画像の画質を向上させることができる。
上記の方法の実施例及び装置の実施例の説明に基づき、本願の実施例では、ネットワーク機器がさらに提供されている。図10を参照すると、該ネットワーク機器は、少なくとも、プロセッサ301と、入力機器302と、出力機器303と、コンピュータ記憶媒体304と、を含む。前記入力機器302は、撮像コンポーネントを含んでもよく、撮像コンポーネントは、画像を収集するために用いられ得る。前記撮像コンポーネントは、ネットワーク機器の出荷時にネットワーク機器に配置されたコンポーネントであってもよいし、ネットワーク機器に接続された外部コンポーネントであってもよい。いくつかの実施例では、該ネットワーク機器は、他の機器に接続されて、他の機器から送信された画像を受信することができる。
コンピュータ記憶媒体304は、ネットワーク機器のメモリに記憶されてもよい。前記コンピュータ記憶媒体304は、コンピュータプログラムを記憶するためのものであり、前記コンピュータプログラムには、プログラム命令が含まれ、前記プロセッサ301は、前記コンピュータ記憶媒体304に記憶されたプログラム命令を実行する。プロセッサ301(又は、中央処理装置(CPU:Central Processing Unit)と称する)は、ネットワーク機器のコンピューティングコア及び制御コアであり、1つ以上の命令を実現するように構成され、具体的に、1つ以上の命令をロードして実行することにより、相応の方法のフロー又は相応の機能を実現するように構成される。一実施例において、本願の実施例におけるプロセッサ301は、ボケ画像を処理するための画像処理モデルに対して、訓練用のサンプル対を取得するステップであって、前記サンプル対には、鮮明画像と、前記鮮明画像に対応するボケ画像とが含まれ、前記鮮明画像の鮮明度が所定閾値よりも大きく、前記ボケ画像の鮮明度が前記所定閾値よりも小さい、ステップと、前記画像処理モデルを呼び出して、前記ボケ画像に対して鮮明度回復処理を行うことにより、回復画像を取得するステップと、前記回復画像及び前記鮮明画像に基づいて、前記画像処理モデルにおける前記第1ネットワークのネットワークパラメータ及び/又は前記第2ネットワークのネットワークパラメータを更新するステップと、を含む一連の訓練処理を行うことができる。ここで、前記第1ネットワークのネットワークパラメータと前記第2ネットワークのネットワークパラメータとの間は、選択的共有条件を満たし、前記選択的共有条件は、前記第1ネットワークと前記第2ネットワークとの間で共有するネットワークパラメータを指示するために用いられるとともに、前記第1ネットワークと前記第2ネットワークとの間で互いに独立したネットワークパラメータを指示するために用いられる。他の実施例において、本願の実施例におけるプロセッサ301は、さらに、元画像に対して、処理対象の元画像を取得するステップであって、前記元画像の鮮明度が所定閾値よりも小さい、ステップと、画像処理モデルを呼び出して、前記元画像に対して鮮明度回復処理を行うことにより、ターゲット画像を取得するステップであって、前記ターゲット画像の鮮明度が前記所定閾値よりも大きい、ステップと、を含む一連の画像処理を行うことができる。
本願の実施例では、コンピュータ記憶媒体(Memory)がさらに提供されている。前記コンピュータ記憶媒体は、ネットワーク機器における記憶デバイスであり、プログラム及びデータを記憶するためのものである。理解できるように、ここでのコンピュータ記憶媒体は、ネットワーク機器における内蔵記憶媒体を含んでもよいし、当然にネットワーク機器がサポートする拡張記憶媒体を含んでもよい。コンピュータ記憶媒体は、記憶スペースを提供し、該記憶スペースには、ネットワーク機器のオペレーティングシステムが記憶されている。また、該記憶スペースには、プロセッサ301によりロードされて実行されるように構成される1つ以上の命令も記憶されており、これらの命令は、1つ以上のコンピュータプログラム(プログラムコードを含む)であってもよい。説明すべきものとして、ここでのコンピュータ記憶媒体は、高速RAMであってもよく、不揮発性メモリ(non-volatile memory)、例えば、少なくとも1つの磁気ディスクメモリであってもよく、いくつかの実施例において、前記プロセッサから離れて位置する少なくとも1つのコンピュータ記憶媒体であってもよい。
一実施例では、プロセッサ301が、コンピュータ記憶媒体に記憶された1つ以上の第1命令をロードして実行することにより、上記の画像処理モデルの訓練の実施例における方法に係る相応のステップを実現してもよい。前記画像処理モデルは、少なくとも、第1ネットワークと第2ネットワークとを含み、前記第1ネットワークと前記第2ネットワークとは、異なるスケールを有するコーデックネットワークであり、前記スケールの大きさは、処理対象のボケ画像の鮮明度の大きさに対応する。具体的な実現において、コンピュータ記憶媒体における1つ以上の第1命令は、プロセッサ301によりロードされ、
訓練用のサンプル対を取得するステップであって、前記サンプル対には、鮮明画像と、前記鮮明画像に対応するボケ画像とが含まれ、前記鮮明画像の鮮明度が所定閾値よりも大きく、前記ボケ画像の鮮明度が前記所定閾値よりも小さい、ステップと、
前記画像処理モデルを呼び出して、前記ボケ画像に対して鮮明度回復処理を行うことにより、回復画像を取得するステップと、
前記回復画像及び前記鮮明画像に基づいて、前記画像処理モデルにおける前記第1ネットワークのネットワークパラメータ及び/又は前記第2ネットワークのネットワークパラメータを更新するステップと、を実行させ、
ここで、前記第1ネットワークのネットワークパラメータと前記第2ネットワークのネットワークパラメータとの間は、選択的共有条件を満たし、前記選択的共有条件は、前記第1ネットワークと前記第2ネットワークとの間で共有するネットワークパラメータを指示するために用いられるとともに、前記第1ネットワークと前記第2ネットワークとの間で互いに独立したネットワークパラメータを指示するために用いられる。
一実施形態において、前記ネットワークパラメータは、特徴抽出パラメータ及び特徴変換パラメータを含み、
前記選択的共有条件は、前記第1ネットワークと前記第2ネットワークとの間で共有するネットワークパラメータを指示するために用いられる場合、具体的に、前記第1ネットワークの特徴変換パラメータと前記第2ネットワークの特徴変換パラメータとが、共有するネットワークパラメータであることを指示するために用いられ、
前記選択的共有条件は、前記第1ネットワークと前記第2ネットワークとの間で互いに独立したネットワークパラメータを指示するために用いられる場合、具体的に、前記第1ネットワークの特徴抽出パラメータと前記第2ネットワークの特徴抽出パラメータとが、互いに独立したネットワークパラメータであることを指示するために用いられる。
他の実施形態において、前記ネットワークパラメータは、特徴再構築パラメータをさらに含み、
前記選択的共有条件は、前記第1ネットワークと前記第2ネットワークとの間で互いに独立したネットワークパラメータを指示するために用いられる場合、前記第1ネットワークの特徴再構築パラメータと前記第2ネットワークの特徴再構築パラメータとが、互いに独立したネットワークパラメータであることを指示するためにも用いられる。
他の実施形態において、前記選択的共有条件は、具体的に、前記第1ネットワークの特徴変換パラメータと前記第2ネットワークの特徴変換パラメータが、共有するネットワークパラメータであることを指示するために用いられる場合、
前記特徴変換パラメータの数が1よりも大きいとき、前記第1ネットワークの複数の特徴変換パラメータと前記第2ネットワークの複数の特徴変換パラメータとが、共有するネットワークパラメータであり、第1ネットワークにおける各特徴変換パラメータが、互いに独立したネットワークパラメータであり、第2ネットワークにおける各特徴変換パラメータが、互いに独立したネットワークパラメータであり、又は、
前記特徴変換パラメータの数が1よりも大きいとき、前記第1ネットワークの複数の特徴変換パラメータと前記第2ネットワークの複数の特徴変換パラメータとが、共有するネットワークパラメータであり、前記第1ネットワークの各特徴変換パラメータが、共有するネットワークパラメータであり、前記第2ネットワークの各特徴変換パラメータが、共有するネットワークパラメータである、ことを含む。
他の実施形態において、前記第1ネットワークは、第1スケールに対応し、前記第2ネットワークは、第2スケールに対応し、前記画像処理モデルを呼び出して、前記ボケ画像に対して鮮明度回復処理を行うことにより、回復画像を取得する際に、前記1つ以上の第1命令は、プロセッサ301によってロードされ、
前記第1スケールに従って、前記ボケ画像に対してダウンサンプリング処理を行うことにより、第1鮮明度のボケ画像を取得するステップと、
前記第1ネットワークを呼び出して、前記第1鮮明度のボケ画像に対して鮮明度回復処理を行うことにより、中間画像を取得するステップと、
前記第2スケールに従って、前記ボケ画像に対してダウンサンプリング処理を行うことにより、第2鮮明度のボケ画像を取得するステップと、
前記第2ネットワークを呼び出して、前記第2鮮明度のボケ画像と、前記中間画像とに基づいて、鮮明度回復処理を行うことにより、回復画像を取得するステップと、を実行させる。
他の実施形態において、前記鮮明度回復処理は、画像に対して特徴抽出処理を行うことと、多段残差関数を用いて、特徴抽出処理後の画像に対して特徴変換処理を行うことと、特徴変換処理後の画像に対して特徴再構築処理を行うことと、を含む。
他の実施形態では、前記回復画像及び前記鮮明画像に基づいて、前記画像処理モデルにおける前記第1ネットワークのネットワークパラメータ及び/又は前記第2ネットワークのネットワークパラメータを更新する際に、前記1つ以上の第1命令は、プロセッサ301によってロードされ、
前記画像処理モデルの最適化関数を取得するステップと、
前記回復画像及び前記鮮明画像に基づいて、前記最適化関数の値を決定するステップと、
前記最適化関数の値を減少させる原則に従って、前記画像処理モデルにおける前記第1ネットワークのネットワークパラメータ及び/又は前記第2ネットワークのネットワークパラメータを更新するステップと、を実行させる。
他の実施形態では、訓練用のサンプル対を取得する際に、前記1つ以上の第1命令は、プロセッサ301によってロードされ、
訓練用の画像シーケンスフレームを取得するステップであって、前記画像シーケンスフレームには、少なくとも2フレームの画像が含まれる、ステップと、
前記画像シーケンスフレームの中から1フレームの画像を鮮明画像として任意に選択し、前記鮮明画像に関連する複数フレームの参照画像を決定するステップと、
前記複数フレームの参照画像に基づいて、前記鮮明画像に対応するボケ画像を取得し、前記ボケ画像及び前記鮮明画像を用いて、訓練用のサンプル対を構築するステップと、を実行させる。
他の実施形態では、前記複数フレームの参照画像に基づいて、前記鮮明画像に対応するボケ画像を取得する際に、前記1つ以上の第1命令は、プロセッサ301によってロードされ、
前記複数フレームの参照画像を重ね合わせて平均を求めることにより、前記鮮明画像に対応するボケ画像を取得するステップを実行させる。
他の実施例では、プロセッサ301が、コンピュータ記憶媒体に記憶された1つ以上の第2命令をロードして実行することにより、上記の画像処理の実施例における方法に係る相応のステップを実現してもよい。具体的な実現において、コンピュータ記憶媒体における1つ以上の第2命令は、プロセッサ301によってロードされ、
処理対象の元画像を取得するステップであって、前記元画像の鮮明度が所定閾値よりも小さい、ステップと、
画像処理モデルを呼び出して、前記元画像に対して鮮明度回復処理を行うことにより、ターゲット画像を取得するステップであって、前記ターゲット画像の鮮明度が前記所定閾値よりも大きく、前記画像処理モデルは、少なくとも、第1ネットワークと第2ネットワークとを含み、前記第1ネットワークは、第1スケールに対応し、前記第2ネットワークは、第2スケールに対応し、前記第1ネットワークのネットワークパラメータと前記第2ネットワークのネットワークパラメータとの間は、選択的共有条件を満たし、前記選択的共有条件は、前記第1ネットワークと前記第2ネットワークとの間で共有するネットワークパラメータを指示するために用いられるとともに、前記第1ネットワークと前記第2ネットワークとの間で互いに独立したネットワークパラメータを指示するために用いられる、ステップと、
前記ターゲット画像を出力するステップと、を実行させる。
一実施形態において、前記ネットワークパラメータは、特徴抽出パラメータ及び特徴変換パラメータを含み、
前記選択的共有条件は、前記第1ネットワークと前記第2ネットワークとの間で共有するネットワークパラメータを指示するために用いられる場合、具体的に、前記第1ネットワークの特徴変換パラメータと前記第2ネットワークの特徴変換パラメータとが、共有するネットワークパラメータであることを指示するために用いられ、
前記選択的共有条件は、前記第1ネットワークと前記第2ネットワークとの間で互いに独立したネットワークパラメータを指示するために用いられる場合、具体的に、前記第1ネットワークの特徴抽出パラメータと前記第2ネットワークの特徴抽出パラメータとが、互いに独立したネットワークパラメータであることを指示するために用いられる。
他の実施形態において、前記ネットワークパラメータは、特徴再構築パラメータをさらに含み、
前記選択的共有条件は、前記第1ネットワークと前記第2ネットワークとの間で互いに独立したネットワークパラメータを指示するために用いられる場合、前記第1ネットワークの特徴再構築パラメータと前記第2ネットワークの特徴再構築パラメータとが、互いに独立したネットワークパラメータであることを指示するためにも用いられる。
本願の実施例におけるボケ画像を処理するための画像処理モデルは、少なくとも、第1スケールの第1ネットワークと、第2スケールの第2ネットワークとを含む。第1ネットワークと第2ネットワークとの間に、共有するネットワークパラメータ及び独立したネットワークパラメータが存在するため、画像処理モデルは、ボケ画像に対して鮮明度回復処理を行う際に、ボケ画像におけるより多くの画像特徴を学習して、正確な回復画像を取得することができる。正確な回復画像及び鮮明画像に基づいて、第1ネットワークのネットワークパラメータ及び/又は第2ネットワークのネットワークパラメータを更新すると、訓練後の画像処理モデルのボケ除去性能を向上させることができる。また、第1ネットワークと第2ネットワークとの間に、共有するネットワークパラメータが存在するため、画像処理モデルのパラメータ数を減少させ、モデル訓練効率を向上させることができる。また、対応付けられる鮮明画像及びボケ画像を用いて、画像処理モデルに対してエンドツーエンドの訓練学習を行うことにより、ボケ画像の各動きボケ領域を分割する必要がなく、かつ、ボケ画像に対していかなる仮定を行う必要もなく、訓練後の画像処理モデルのボケ除去性能及びモデル訓練効率をさらに向上させることができる。
上記に提示されたのは、本願の好ましい実施例に過ぎず、当然に、これによって本願の権利範囲を限定するものではない。したがって、本願の請求の範囲に基づいて行われた同等な変更は、同様に本願の保護範囲内に含まれるものである。

Claims (20)

  1. ネットワーク機器が実行する、ボケ画像を処理するための画像処理モデルの訓練方法であって、
    前記画像処理モデルは、少なくとも、第1ネットワークと第2ネットワークとを含み、前記第1ネットワークと前記第2ネットワークとは、異なるスケールを有するコーデックネットワークであり、前記スケールの大きさは、処理対象のボケ画像の鮮明度の大きさに対応しており、
    前記方法は、
    訓練用のサンプル対を取得するステップであり、前記サンプル対には、鮮明画像と、前記鮮明画像に対応するボケ画像とが含まれ、前記鮮明画像の鮮明度が所定閾値よりも大きく、前記ボケ画像の鮮明度が前記所定閾値よりも小さい、ステップと、
    前記画像処理モデルを呼び出して、前記ボケ画像に対して鮮明度回復処理を行うことにより、回復画像を取得するステップと、
    前記回復画像及び前記鮮明画像に基づいて、前記画像処理モデルにおける前記第1ネットワークのネットワークパラメータ及び/又は前記第2ネットワークのネットワークパラメータを更新することにより、訓練後の画像処理モデルを取得するステップと、を含み、
    前記第1ネットワークのネットワークパラメータと前記第2ネットワークのネットワークパラメータとの間は、選択的共有条件を満たし、
    前記選択的共有条件は、前記第1ネットワークと前記第2ネットワークとの間で共有するネットワークパラメータを指示するために用いられるとともに、前記第1ネットワークと前記第2ネットワークとの間で互いに独立したネットワークパラメータを指示するために用いられる、
    方法。
  2. 前記ネットワークパラメータは、特徴抽出パラメータ及び特徴変換パラメータを含み、
    前記選択的共有条件は、前記第1ネットワークと前記第2ネットワークとの間で共有するネットワークパラメータを指示するために用いられる場合に、前記第1ネットワークの特徴変換パラメータと前記第2ネットワークの特徴変換パラメータとが、共有するネットワークパラメータであることを指示するために用いられ、
    前記選択的共有条件は、前記第1ネットワークと前記第2ネットワークとの間で互いに独立したネットワークパラメータを指示するために用いられる場合に、前記第1ネットワークの特徴抽出パラメータと前記第2ネットワークの特徴抽出パラメータとが、互いに独立したネットワークパラメータであることを指示するために用いられる、
    請求項1に記載の方法。
  3. 前記ネットワークパラメータは、特徴再構築パラメータをさらに含み、
    前記選択的共有条件は、前記第1ネットワークと前記第2ネットワークとの間で互いに独立したネットワークパラメータを指示するために用いられる場合に、前記第1ネットワークの特徴再構築パラメータと前記第2ネットワークの特徴再構築パラメータとが、互いに独立したネットワークパラメータであることを指示するために用いられる、
    請求項2に記載の方法。
  4. 前記選択的共有条件は、前記第1ネットワークの特徴変換パラメータと前記第2ネットワークの特徴変換パラメータとが、共有するネットワークパラメータであることを指示するために用いられる場合に、
    前記特徴変換パラメータの数が1よりも大きいとき、前記第1ネットワークの複数の特徴変換パラメータと前記第2ネットワークの複数の特徴変換パラメータとは、共有するネットワークパラメータであり、第1ネットワークにおける各特徴変換パラメータは、互いに独立したネットワークパラメータであり、第2ネットワークにおける各特徴変換パラメータは、互いに独立したネットワークパラメータであり、又は、
    前記特徴変換パラメータの数が1よりも大きいとき、前記第1ネットワークの複数の特徴変換パラメータと前記第2ネットワークの複数の特徴変換パラメータとは、共有するネットワークパラメータであり、前記第1ネットワークの各特徴変換パラメータは、共有するネットワークパラメータであり、前記第2ネットワークの各特徴変換パラメータは、共有するネットワークパラメータである、
    ことを含む、
    請求項2に記載の方法。
  5. 前記第1ネットワークは、第1スケールに対応し、前記第2ネットワークは、第2スケールに対応し、
    前記画像処理モデルを呼び出して、前記ボケ画像に対して鮮明度回復処理を行うことにより、回復画像を取得する前記ステップは、
    前記第1スケールに従って、前記ボケ画像に対してダウンサンプリング処理を行うことにより、第1鮮明度のボケ画像を取得するステップと、
    前記第1ネットワークを呼び出して、前記第1鮮明度のボケ画像に対して鮮明度回復処理を行うことにより、中間画像を取得するステップと、
    前記第2スケールに従って、前記ボケ画像に対してダウンサンプリング処理を行うことにより、第2鮮明度のボケ画像を取得するステップと、
    前記第2ネットワークを呼び出して、前記第2鮮明度のボケ画像と、前記中間画像とに基づいて、鮮明度回復処理を行うことにより、回復画像を取得するステップと、
    を含む、請求項1に記載の方法。
  6. 前記鮮明度回復処理は、
    画像に対して特徴抽出処理を行うことと、
    多段残差関数を用いて、特徴抽出処理後の画像に対して特徴変換処理を行うことと、
    特徴変換処理後の画像に対して特徴再構築処理を行うことと、
    を含む、請求項5に記載の方法。
  7. 前記回復画像及び前記鮮明画像に基づいて、前記画像処理モデルにおける前記第1ネットワークのネットワークパラメータ及び/又は前記第2ネットワークのネットワークパラメータを更新することは、
    前記画像処理モデルの最適化関数を取得するステップと、
    前記回復画像及び前記鮮明画像に基づいて、前記最適化関数の値を決定するステップと、
    前記最適化関数の値を減少させる原則に従って、前記画像処理モデルにおける前記第1ネットワークのネットワークパラメータ及び/又は前記第2ネットワークのネットワークパラメータを更新するステップと、
    を含む、請求項1乃至6のいずれか一項に記載の方法。
  8. 訓練用のサンプル対を取得する前記ステップは、
    訓練用の画像シーケンスフレームを取得するステップであり、前記画像シーケンスフレームには、少なくとも2フレームの画像が含まれる、ステップと、
    前記画像シーケンスフレームの中から1フレームの画像を鮮明画像として任意に選択し、前記鮮明画像に関連する複数フレームの参照画像を決定するステップと、
    前記複数フレームの参照画像に基づいて、前記鮮明画像に対応するボケ画像を取得し、前記ボケ画像及び前記鮮明画像を用いて、訓練用のサンプル対を構築するステップと、
    を含む、請求項1乃至6のいずれか一項に記載の方法。
  9. 前記複数フレームの参照画像に基づいて、前記鮮明画像に対応するボケ画像を取得することは、
    前記複数フレームの参照画像を重ね合わせて平均を求めることにより、前記鮮明画像に対応するボケ画像を取得するステップ、
    を含む、請求項8に記載の方法。
  10. ネットワーク機器が実行する画像処理方法であって、
    処理対象の元画像を取得するステップであり、前記元画像の鮮明度が所定閾値よりも小さい、ステップと、
    ボケ画像を処理するための画像処理モデルを呼び出して、前記元画像に対して鮮明度回復処理を行うことにより、ターゲット画像を取得するステップであり、
    前記ターゲット画像の鮮明度が前記所定閾値よりも大きく、
    前記画像処理モデルは、少なくとも、第1ネットワークと第2ネットワークとを含み、
    前記第1ネットワークと前記第2ネットワークとは、異なるスケールを有するコーデックネットワークであり、
    前記スケールの大きさは、処理対象のボケ画像の鮮明度の大きさに対応し、
    前記第1ネットワークのネットワークパラメータと前記第2ネットワークのネットワークパラメータとの間は、選択的共有条件を満たし、
    前記選択的共有条件は、前記第1ネットワークと前記第2ネットワークとの間で共有するネットワークパラメータを指示するために用いられるとともに、前記第1ネットワークと前記第2ネットワークとの間で互いに独立したネットワークパラメータを指示するために用いられる、
    ステップと、
    前記ターゲット画像を出力するステップと、
    を含む、方法。
  11. 前記ネットワークパラメータは、特徴抽出パラメータ及び特徴変換パラメータを含み、
    前記選択的共有条件は、前記第1ネットワークと前記第2ネットワークとの間で共有するネットワークパラメータを指示するために用いられる場合に、前記第1ネットワークの特徴変換パラメータと前記第2ネットワークの特徴変換パラメータとが、共有するネットワークパラメータであることを指示するために用いられ、
    前記選択的共有条件は、前記第1ネットワークと前記第2ネットワークとの間で互いに独立したネットワークパラメータを指示するために用いられる場合に、前記第1ネットワークの特徴抽出パラメータと前記第2ネットワークの特徴抽出パラメータとが、互いに独立したネットワークパラメータであることを指示するために用いられる、
    請求項10に記載の方法。
  12. 前記ネットワークパラメータは、特徴再構築パラメータをさらに含み、
    前記選択的共有条件は、前記第1ネットワークと前記第2ネットワークとの間で互いに独立したネットワークパラメータを指示するために用いられる場合に、前記第1ネットワークの特徴再構築パラメータと前記第2ネットワークの特徴再構築パラメータとが、互いに独立したネットワークパラメータであることを指示するために用いられる、
    請求項11に記載の方法。
  13. ボケ画像を処理するための画像処理モデルの訓練装置であって、
    前記画像処理モデルは、少なくとも、第1ネットワークと第2ネットワークとを含み、前記第1ネットワークと前記第2ネットワークとは、異なるスケールを有するコーデックネットワークであり、前記スケールの大きさは、処理対象のボケ画像の鮮明度の大きさに対応しており、前記装置は、
    訓練用のサンプル対を取得し、前記サンプル対には、鮮明画像と、前記鮮明画像に対応するボケ画像とが含まれ、前記鮮明画像の鮮明度が所定閾値よりも大きく、前記ボケ画像の鮮明度が前記所定閾値よりも小さい取得ユニットと、
    前記画像処理モデルを呼び出して、前記ボケ画像に対して鮮明度回復処理を行うことにより、回復画像を取得する処理ユニットと、
    前記回復画像及び前記鮮明画像に基づいて、前記画像処理モデルにおける前記第1ネットワークのネットワークパラメータ及び/又は前記第2ネットワークのネットワークパラメータを更新することにより、訓練後の画像処理モデルを取得する更新ユニットと、を含み、
    前記第1ネットワークのネットワークパラメータと前記第2ネットワークのネットワークパラメータとの間は、選択的共有条件を満たし、
    前記選択的共有条件は、前記第1ネットワークと前記第2ネットワークとの間で共有するネットワークパラメータを指示するために用いられるとともに、前記第1ネットワークと前記第2ネットワークとの間で互いに独立したネットワークパラメータを指示するために用いられる、
    装置。
  14. 前記ネットワークパラメータは、特徴抽出パラメータ及び特徴変換パラメータを含み、
    前記選択的共有条件は、前記第1ネットワークと前記第2ネットワークとの間で共有するネットワークパラメータを指示するために用いられる場合に、前記第1ネットワークの特徴変換パラメータと前記第2ネットワークの特徴変換パラメータとが、共有するネットワークパラメータであることを指示するために用いられ、
    前記選択的共有条件は、前記第1ネットワークと前記第2ネットワークとの間で互いに独立したネットワークパラメータを指示するために用いられる場合に、前記第1ネットワークの特徴抽出パラメータと前記第2ネットワークの特徴抽出パラメータとが、互いに独立したネットワークパラメータであることを指示するために用いられる、
    請求項13に記載の装置。
  15. 前記ネットワークパラメータは、特徴再構築パラメータをさらに含み、
    前記選択的共有条件は、前記第1ネットワークと前記第2ネットワークとの間で互いに独立したネットワークパラメータを指示するために用いられる場合に、前記第1ネットワークの特徴再構築パラメータと前記第2ネットワークの特徴再構築パラメータとが、互いに独立したネットワークパラメータであることを指示するために用いられる、
    請求項14に記載の装置。
  16. 前記選択的共有条件は、前記第1ネットワークの特徴変換パラメータと前記第2ネットワークの特徴変換パラメータとが、共有するネットワークパラメータであることを指示するために用いられる場合に、
    前記特徴変換パラメータの数が1よりも大きいとき、前記第1ネットワークの複数の特徴変換パラメータと前記第2ネットワークの複数の特徴変換パラメータとが、共有するネットワークパラメータであり、第1ネットワークにおける各特徴変換パラメータが、互いに独立したネットワークパラメータであり、第2ネットワークにおける各特徴変換パラメータが、互いに独立したネットワークパラメータであり、又は、
    前記特徴変換パラメータの数が1よりも大きいとき、前記第1ネットワークの複数の特徴変換パラメータと前記第2ネットワークの複数の特徴変換パラメータとが、共有するネットワークパラメータであり、前記第1ネットワークの各特徴変換パラメータが、共有するネットワークパラメータであり、前記第2ネットワークの各特徴変換パラメータが、共有するネットワークパラメータである、
    ことを含む、
    請求項14に記載の装置。
  17. 画像処理装置であって、
    処理対象の元画像を取得し、前記元画像の鮮明度が所定閾値よりも小さい取得ユニットと、
    処理ユニットであり、
    ボケ画像を処理するための画像処理モデルを呼び出して、前記元画像に対して鮮明度回復処理を行うことにより、ターゲット画像を取得し、
    前記ターゲット画像の鮮明度が前記所定閾値よりも大きく、
    前記画像処理モデルは、少なくとも、第1ネットワークと第2ネットワークとを含み、
    前記第1ネットワークと前記第2ネットワークとは、異なるスケールを有するコーデックネットワークであり、
    前記スケールの大きさは、処理対象のボケ画像の鮮明度の大きさに対応し、
    前記第1ネットワークのネットワークパラメータと前記第2ネットワークのネットワークパラメータとの間は、選択的共有条件を満たし、
    前記選択的共有条件は、前記第1ネットワークと前記第2ネットワークとの間で共有するネットワークパラメータを指示するために用いられるとともに、前記第1ネットワークと前記第2ネットワークとの間で互いに独立したネットワークパラメータを指示するために用いられる、
    処理ユニットと、
    前記ターゲット画像を出力する出力ユニットと、
    を含む、装置。
  18. 前記ネットワークパラメータは、特徴抽出パラメータ及び特徴変換パラメータを含み、
    前記選択的共有条件は、前記第1ネットワークと前記第2ネットワークとの間で共有するネットワークパラメータを指示するために用いられる場合に、前記第1ネットワークの特徴変換パラメータと前記第2ネットワークの特徴変換パラメータとが、共有するネットワークパラメータであることを指示するために用いられ、
    前記選択的共有条件は、前記第1ネットワークと前記第2ネットワークとの間で互いに独立したネットワークパラメータを指示するために用いられる場合に、前記第1ネットワークの特徴抽出パラメータと前記第2ネットワークの特徴抽出パラメータとが、互いに独立したネットワークパラメータであることを指示するために用いられる、
    請求項17に記載の装置。
  19. ネットワーク機器であって、
    プロセッサと、
    前記プロセッサに接続されたメモリと、を備え、
    前記メモリには、機械で読み取り可能な命令が記憶されており、
    前記機械で読み取り可能な命令は、プロセッサによって実行されると、請求項1乃至12のいずれか一項に記載の方法を実行させる、
    ネットワーク機器。
  20. 複数の命令を含むコンピュータプログラムであって、
    前記命令は、プロセッサによってロードされ、実行されると、請求項1乃至12のいずれか一項に記載の方法を実行させる、
    ように構成されている、コンピュータプログラム。
JP2021529409A 2019-04-01 2020-03-04 画像処理モデルの訓練方法、画像処理方法、ネットワーク機器、及び記憶媒体 Active JP7206386B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201910259016.7 2019-04-01
CN201910259016.7A CN109993712B (zh) 2019-04-01 2019-04-01 图像处理模型的训练方法、图像处理方法及相关设备
PCT/CN2020/077699 WO2020199831A1 (zh) 2019-04-01 2020-03-04 图像处理模型的训练方法、图像处理方法、网络设备及存储介质

Publications (2)

Publication Number Publication Date
JP2022510622A true JP2022510622A (ja) 2022-01-27
JP7206386B2 JP7206386B2 (ja) 2023-01-17

Family

ID=67131172

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021529409A Active JP7206386B2 (ja) 2019-04-01 2020-03-04 画像処理モデルの訓練方法、画像処理方法、ネットワーク機器、及び記憶媒体

Country Status (6)

Country Link
US (1) US11741581B2 (ja)
EP (1) EP3951702A4 (ja)
JP (1) JP7206386B2 (ja)
KR (1) KR102499147B1 (ja)
CN (1) CN109993712B (ja)
WO (1) WO2020199831A1 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109993712B (zh) 2019-04-01 2023-04-25 腾讯科技(深圳)有限公司 图像处理模型的训练方法、图像处理方法及相关设备
CN112446835A (zh) * 2019-09-04 2021-03-05 华为技术有限公司 图像恢复方法、图像恢复网络训练方法、装置和存储介质
CN112927144A (zh) * 2019-12-05 2021-06-08 北京迈格威科技有限公司 图像增强方法、图像增强装置、介质和电子设备
CN113139911A (zh) * 2020-01-20 2021-07-20 北京迈格威科技有限公司 图像处理方法及装置、图像处理模型的训练方法及装置
CN114981836A (zh) * 2020-01-23 2022-08-30 三星电子株式会社 电子设备和电子设备的控制方法
CN111402175B (zh) * 2020-04-07 2022-04-08 华中科技大学 一种高速扫描成像系统及方法
CN112016389A (zh) * 2020-07-14 2020-12-01 深圳市裕展精密科技有限公司 用于车辆的控制装置及方法
US11741579B2 (en) * 2020-11-16 2023-08-29 Huawei Technologies Co., Ltd. Methods and systems for deblurring blurry images
CN112488943B (zh) * 2020-12-02 2024-02-02 北京字跳网络技术有限公司 模型训练和图像去雾方法、装置、设备
CN112907818B (zh) * 2021-01-20 2022-06-24 广东便捷神科技股份有限公司 一种广告营销类语音信息的处理方法
KR20230054982A (ko) * 2021-10-18 2023-04-25 삼성전자주식회사 전자 장치 및 그 제어 방법

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002170112A (ja) * 2000-12-04 2002-06-14 Minolta Co Ltd 解像度変換プログラムを記録したコンピュータ読取可能な記録媒体、解像度変換装置および解像度変換方法
WO2017209307A1 (en) * 2016-06-01 2017-12-07 Mitsubishi Electric Corporation Method and system for generating multimodal digital image

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI405147B (zh) * 2010-03-16 2013-08-11 Novatek Microelectronics Corp 單張影像的階層式去動態模糊方法
US9734567B2 (en) * 2015-06-24 2017-08-15 Samsung Electronics Co., Ltd. Label-free non-reference image quality assessment via deep neural network
CN108399362B (zh) * 2018-01-24 2022-01-07 中山大学 一种快速行人检测方法及装置
CN108509986A (zh) * 2018-03-16 2018-09-07 上海海事大学 基于模糊不变卷积神经网络的飞机目标识别方法
CN108629743B (zh) 2018-04-04 2022-03-25 腾讯科技(深圳)有限公司 图像的处理方法、装置、存储介质和电子装置
CN108846820A (zh) * 2018-07-10 2018-11-20 深圳市唯特视科技有限公司 一种基于尺度递归网络的深度图像去模糊方法
CN109360171B (zh) * 2018-10-26 2021-08-06 北京理工大学 一种基于神经网络的视频图像实时去模糊方法
CN109993712B (zh) * 2019-04-01 2023-04-25 腾讯科技(深圳)有限公司 图像处理模型的训练方法、图像处理方法及相关设备

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002170112A (ja) * 2000-12-04 2002-06-14 Minolta Co Ltd 解像度変換プログラムを記録したコンピュータ読取可能な記録媒体、解像度変換装置および解像度変換方法
WO2017209307A1 (en) * 2016-06-01 2017-12-07 Mitsubishi Electric Corporation Method and system for generating multimodal digital image

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
XIN TAO ほか4名: "Scale-recurrent Network for Deep Image Deblurring", 2018 IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION, JPN6022030175, 2018, pages 8174 - 8182, XP033473740, ISSN: 0004835396, DOI: 10.1109/CVPR.2018.00853 *

Also Published As

Publication number Publication date
WO2020199831A1 (zh) 2020-10-08
KR20210095936A (ko) 2021-08-03
CN109993712B (zh) 2023-04-25
CN109993712A (zh) 2019-07-09
KR102499147B1 (ko) 2023-02-10
US20210287047A1 (en) 2021-09-16
JP7206386B2 (ja) 2023-01-17
EP3951702A4 (en) 2022-06-08
EP3951702A1 (en) 2022-02-09
US11741581B2 (en) 2023-08-29

Similar Documents

Publication Publication Date Title
JP2022510622A (ja) 画像処理モデルの訓練方法、画像処理方法、ネットワーク機器、及び記憶媒体
CN112308200B (zh) 神经网络的搜索方法及装置
CN115442515B (zh) 图像处理方法和设备
CN111667399B (zh) 风格迁移模型的训练方法、视频风格迁移的方法以及装置
CN110717851A (zh) 图像处理方法及装置、神经网络的训练方法、存储介质
WO2022134971A1 (zh) 一种降噪模型的训练方法及相关装置
CN113065645B (zh) 孪生注意力网络、图像处理方法和装置
CN111914997B (zh) 训练神经网络的方法、图像处理方法及装置
CN108764244B (zh) 基于卷积神经网络和条件随机场的潜在目标区域检测方法
CN111079507B (zh) 一种行为识别方法及装置、计算机装置及可读存储介质
CN113191489B (zh) 二值神经网络模型的训练方法、图像处理方法和装置
CN112070664A (zh) 一种图像处理方法以及装置
CN113673545A (zh) 光流估计方法、相关装置、设备及计算机可读存储介质
Jin et al. Learning to see through reflections
CN117237756A (zh) 一种训练目标分割模型的方法、目标分割方法及相关装置
CN116597144A (zh) 一种基于事件相机的图像语义分割方法
CN110889858A (zh) 一种基于点回归的汽车部件分割方法及装置
US20230394632A1 (en) Method and image processing device for improving signal-to-noise ratio of image frame sequences
Li et al. Joint learning of motion deblurring and defocus deblurring networks with a real-world dataset
CN113256556A (zh) 一种图像选择方法及装置
Singh et al. WDN: a wide and deep network to divide-and-conquer image super-resolution
Cao et al. Single image super-resolution via deep learning
WO2022183325A1 (zh) 视频块处理方法及装置、神经网络的训练方法和存储介质
WO2023028866A1 (zh) 图像处理方法、装置和车辆
JP7315516B2 (ja) 骨格推定装置及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210525

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220708

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220726

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221026

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230104

R150 Certificate of patent or registration of utility model

Ref document number: 7206386

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150