JP2022510622A - 画像処理モデルの訓練方法、画像処理方法、ネットワーク機器、及び記憶媒体 - Google Patents
画像処理モデルの訓練方法、画像処理方法、ネットワーク機器、及び記憶媒体 Download PDFInfo
- Publication number
- JP2022510622A JP2022510622A JP2021529409A JP2021529409A JP2022510622A JP 2022510622 A JP2022510622 A JP 2022510622A JP 2021529409 A JP2021529409 A JP 2021529409A JP 2021529409 A JP2021529409 A JP 2021529409A JP 2022510622 A JP2022510622 A JP 2022510622A
- Authority
- JP
- Japan
- Prior art keywords
- network
- image
- parameters
- feature
- parameter
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 title claims abstract description 312
- 238000012549 training Methods 0.000 title claims abstract description 104
- 238000000034 method Methods 0.000 title claims abstract description 100
- 238000003672 processing method Methods 0.000 title claims abstract description 14
- 238000011084 recovery Methods 0.000 claims abstract description 92
- 238000006243 chemical reaction Methods 0.000 claims description 132
- 238000000605 extraction Methods 0.000 claims description 60
- 230000006870 function Effects 0.000 claims description 52
- 230000008569 process Effects 0.000 claims description 33
- 238000005457 optimization Methods 0.000 claims description 20
- 238000004590 computer program Methods 0.000 claims description 11
- 238000003384 imaging method Methods 0.000 description 21
- 238000010586 diagram Methods 0.000 description 19
- 238000005516 engineering process Methods 0.000 description 9
- 238000013135 deep learning Methods 0.000 description 7
- 238000013473 artificial intelligence Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 238000003062 neural network model Methods 0.000 description 4
- 238000011160 research Methods 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 230000003247 decreasing effect Effects 0.000 description 3
- 238000007796 conventional method Methods 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000003825 pressing Methods 0.000 description 2
- 230000002194 synthesizing effect Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 235000019557 luminance Nutrition 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/73—Deblurring; Sharpening
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2148—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4046—Scaling of whole images or parts thereof, e.g. expanding or contracting using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/60—Image enhancement or restoration using machine learning, e.g. neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/94—Hardware or software architectures specially adapted for image or video understanding
- G06V10/95—Hardware or software architectures specially adapted for image or video understanding structured as a network, e.g. client-server architectures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20016—Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
訓練用のサンプル対を取得するステップであって、前記サンプル対には、鮮明画像と、前記鮮明画像に対応するボケ画像とが含まれ、前記鮮明画像の鮮明度が所定閾値よりも大きく、前記ボケ画像の鮮明度が前記所定閾値よりも小さい、ステップと、
前記画像処理モデルを呼び出して、前記ボケ画像に対して鮮明度回復処理を行うことにより、回復画像を取得するステップと、
前記回復画像及び前記鮮明画像に基づいて、前記画像処理モデルにおける前記第1ネットワークのネットワークパラメータ及び/又は前記第2ネットワークのネットワークパラメータを更新することにより、訓練後の画像処理モデルを取得するステップと、を含み、
前記第1ネットワークのネットワークパラメータと前記第2ネットワークのネットワークパラメータとの間は、選択的共有条件を満たし、前記選択的共有条件は、前記第1ネットワークと前記第2ネットワークとの間で共有するネットワークパラメータを指示するために用いられるとともに、前記第1ネットワークと前記第2ネットワークとの間で互いに独立したネットワークパラメータを指示するために用いられる。
処理対象の元画像を取得するステップであって、前記元画像の鮮明度が所定閾値よりも小さい、ステップと、
ボケ画像を処理するための画像処理モデルを呼び出して、前記元画像に対して鮮明度回復処理を行うことにより、ターゲット画像を取得するステップであって、前記ターゲット画像の鮮明度が前記所定閾値よりも大きく、前記画像処理モデルは、少なくとも、第1ネットワークと第2ネットワークとを含み、前記第1ネットワークと前記第2ネットワークとは、異なるスケールを有するコーデックネットワークであり、前記スケールの大きさは、処理対象のボケ画像の鮮明度の大きさに対応し、前記第1ネットワークのネットワークパラメータと前記第2ネットワークのネットワークパラメータとの間は、選択的共有条件を満たし、前記選択的共有条件は、前記第1ネットワークと前記第2ネットワークとの間で共有するネットワークパラメータを指示するために用いられるとともに、前記第1ネットワークと前記第2ネットワークとの間で互いに独立したネットワークパラメータを指示するために用いられる、ステップと、
前記ターゲット画像を出力するステップと、を含む。
訓練用のサンプル対を取得し、前記サンプル対には、鮮明画像と、前記鮮明画像に対応するボケ画像とが含まれ、前記鮮明画像の鮮明度が所定閾値よりも大きく、前記ボケ画像の鮮明度が前記所定閾値よりも小さい取得ユニットと、
前記画像処理モデルを呼び出して、前記ボケ画像に対して鮮明度回復処理を行うことにより、回復画像を取得する処理ユニットと、
前記回復画像及び前記鮮明画像に基づいて、前記画像処理モデルにおける前記第1ネットワークのネットワークパラメータ及び/又は前記第2ネットワークのネットワークパラメータを更新することにより、訓練後の画像処理モデルを取得する更新ユニットと、を含み、
前記第1ネットワークのネットワークパラメータと前記第2ネットワークのネットワークパラメータとの間は、選択的共有条件を満たし、前記選択的共有条件は、前記第1ネットワークと前記第2ネットワークとの間で共有するネットワークパラメータを指示するために用いられるとともに、前記第1ネットワークと前記第2ネットワークとの間で互いに独立したネットワークパラメータを指示するために用いられる。
処理対象の元画像を取得し、前記元画像の鮮明度が所定閾値よりも小さい取得ユニットと、
ボケ画像を処理するための画像処理モデルを呼び出して、前記元画像に対して鮮明度回復処理を行うことにより、ターゲット画像を取得し、前記ターゲット画像の鮮明度が前記所定閾値よりも大きく、前記画像処理モデルは、少なくとも、第1ネットワークと第2ネットワークとを含み、前記第1ネットワークと前記第2ネットワークとは、異なるスケールを有するコーデックネットワークであり、前記スケールの大きさは、処理対象のボケ画像の鮮明度の大きさに対応し、前記第1ネットワークのネットワークパラメータと前記第2ネットワークのネットワークパラメータとの間は、選択的共有条件を満たし、前記選択的共有条件は、前記第1ネットワークと前記第2ネットワークとの間で共有するネットワークパラメータを指示するために用いられるとともに、前記第1ネットワークと前記第2ネットワークとの間で互いに独立したネットワークパラメータを指示するために用いられる処理ユニットと、
前記ターゲット画像を出力する出力ユニットと、を含む。
訓練用のサンプル対を取得し、前記サンプル対には、鮮明画像と、前記鮮明画像に対応するボケ画像とが含まれ、前記鮮明画像の鮮明度が所定閾値よりも大きく、前記ボケ画像の鮮明度が前記所定閾値よりも小さい取得ユニット101と、
前記画像処理モデルを呼び出して、前記ボケ画像に対して鮮明度回復処理を行うことにより、回復画像を取得する処理ユニット102と、
前記回復画像及び前記鮮明画像に基づいて、前記画像処理モデルにおける前記第1ネットワークのネットワークパラメータ及び/又は前記第2ネットワークのネットワークパラメータを更新することにより、訓練後の画像処理モデルを取得する更新ユニット103と、を実行することができ、
ここで、前記第1ネットワークのネットワークパラメータと前記第2ネットワークのネットワークパラメータとの間は、選択的共有条件を満たし、前記選択的共有条件は、前記第1ネットワークと前記第2ネットワークとの間で共有するネットワークパラメータを指示するために用いられるとともに、前記第1ネットワークと前記第2ネットワークとの間で互いに独立したネットワークパラメータを指示するために用いられる。
前記選択的共有条件は、前記第1ネットワークと前記第2ネットワークとの間で共有するネットワークパラメータを指示するために用いられる場合、具体的に、前記第1ネットワークの特徴変換パラメータと前記第2ネットワークの特徴変換パラメータとが、共有するネットワークパラメータであることを指示するために用いられ、
前記選択的共有条件は、前記第1ネットワークと前記第2ネットワークとの間で互いに独立したネットワークパラメータを指示するために用いられる場合、具体的に、前記第1ネットワークの特徴抽出パラメータと前記第2ネットワークの特徴抽出パラメータとが、互いに独立したネットワークパラメータであることを指示するために用いられる。
前記選択的共有条件は、前記第1ネットワークと前記第2ネットワークとの間で互いに独立したネットワークパラメータを指示するために用いられる場合、前記第1ネットワークの特徴再構築パラメータと前記第2ネットワークの特徴再構築パラメータとが、互いに独立したネットワークパラメータであることを指示するためにも用いられる。
前記特徴変換パラメータの数が1よりも大きいとき、前記第1ネットワークの複数の特徴変換パラメータと前記第2ネットワークの複数の特徴変換パラメータとが、共有するネットワークパラメータであり、第1ネットワークにおける各特徴変換パラメータが、互いに独立したネットワークパラメータであり、第2ネットワークにおける各特徴変換パラメータが、互いに独立したネットワークパラメータであり、又は、
前記特徴変換パラメータの数が1よりも大きいとき、前記第1ネットワークの複数の特徴変換パラメータと前記第2ネットワークの複数の特徴変換パラメータとが、共有するネットワークパラメータであり、前記第1ネットワークの各特徴変換パラメータが、共有するネットワークパラメータであり、前記第2ネットワークの各特徴変換パラメータが、共有するネットワークパラメータである、ことを含む。
前記第1スケールに従って、前記ボケ画像に対してダウンサンプリング処理を行うことにより、第1鮮明度のボケ画像を取得し、
前記第1ネットワークを呼び出して、前記第1鮮明度のボケ画像に対して鮮明度回復処理を行うことにより、中間画像を取得し、
前記第2スケールに従って、前記ボケ画像に対してダウンサンプリング処理を行うことにより、第2鮮明度のボケ画像を取得し、
前記第2ネットワークを呼び出して、前記第2鮮明度のボケ画像及び前記中間画像に基づいて、鮮明度回復処理を行うことにより、回復画像を取得する。
前記画像処理モデルの最適化関数を取得し、
前記回復画像及び前記鮮明画像に基づいて、前記最適化関数の値を決定し、
前記最適化関数の値を減少させる原則に従って、前記画像処理モデルにおける前記第1ネットワークのネットワークパラメータ及び/又は前記第2ネットワークのネットワークパラメータを更新する。
訓練用の画像シーケンスフレームを取得し、前記画像シーケンスフレームには、少なくとも2フレームの画像が含まれ、
前記画像シーケンスフレームの中から1フレームの画像を鮮明画像として任意に選択し、前記鮮明画像に関連する複数フレームの参照画像を決定し、
前記複数フレームの参照画像に基づいて、前記鮮明画像に対応するボケ画像を取得し、前記ボケ画像及び前記鮮明画像を用いて、訓練用のサンプル対を構築する。
前記複数フレームの参照画像を重ね合わせて平均を求めることにより、前記鮮明画像に対応するボケ画像を取得する。
処理対象の元画像を取得し、前記元画像の鮮明度が所定閾値よりも小さい取得ユニット201と、
ボケ画像を処理するための画像処理モデルを呼び出して、前記元画像に対して鮮明度回復処理を行うことにより、ターゲット画像を取得し、前記ターゲット画像の鮮明度が前記所定閾値よりも大きく、前記画像処理モデルは、少なくとも、第1ネットワークと第2ネットワークとを含み、前記第1ネットワークと前記第2ネットワークとは、異なるスケールを有するコーデックネットワークであり、前記スケールの大きさは、処理対象のボケ画像の鮮明度の大きさに対応し、前記第1ネットワークのネットワークパラメータと前記第2ネットワークのネットワークパラメータとの間は、選択的共有条件を満たし、前記選択的共有条件は、前記第1ネットワークと前記第2ネットワークとの間で共有するネットワークパラメータを指示するために用いられるとともに、前記第1ネットワークと前記第2ネットワークとの間で互いに独立したネットワークパラメータを指示するために用いられる処理ユニット202と、
前記ターゲット画像を出力する出力ユニット203と、を実行することができる。
前記選択的共有条件は、前記第1ネットワークと前記第2ネットワークとの間で共有するネットワークパラメータを指示するために用いられる場合、具体的に、前記第1ネットワークの特徴変換パラメータと前記第2ネットワークの特徴変換パラメータとが、共有するネットワークパラメータであることを指示するために用いられ、
前記選択的共有条件は、前記第1ネットワークと前記第2ネットワークとの間で互いに独立したネットワークパラメータを指示するために用いられる場合、具体的に、前記第1ネットワークの特徴抽出パラメータと前記第2ネットワークの特徴抽出パラメータとが、互いに独立したネットワークパラメータであることを指示するために用いられる。
前記選択的共有条件は、前記第1ネットワークと前記第2ネットワークとの間で互いに独立したネットワークパラメータを指示するために用いられる場合、前記第1ネットワークの特徴再構築パラメータと前記第2ネットワークの特徴再構築パラメータとが、互いに独立したネットワークパラメータであることを指示するためにも用いられる。
訓練用のサンプル対を取得するステップであって、前記サンプル対には、鮮明画像と、前記鮮明画像に対応するボケ画像とが含まれ、前記鮮明画像の鮮明度が所定閾値よりも大きく、前記ボケ画像の鮮明度が前記所定閾値よりも小さい、ステップと、
前記画像処理モデルを呼び出して、前記ボケ画像に対して鮮明度回復処理を行うことにより、回復画像を取得するステップと、
前記回復画像及び前記鮮明画像に基づいて、前記画像処理モデルにおける前記第1ネットワークのネットワークパラメータ及び/又は前記第2ネットワークのネットワークパラメータを更新するステップと、を実行させ、
ここで、前記第1ネットワークのネットワークパラメータと前記第2ネットワークのネットワークパラメータとの間は、選択的共有条件を満たし、前記選択的共有条件は、前記第1ネットワークと前記第2ネットワークとの間で共有するネットワークパラメータを指示するために用いられるとともに、前記第1ネットワークと前記第2ネットワークとの間で互いに独立したネットワークパラメータを指示するために用いられる。
前記選択的共有条件は、前記第1ネットワークと前記第2ネットワークとの間で共有するネットワークパラメータを指示するために用いられる場合、具体的に、前記第1ネットワークの特徴変換パラメータと前記第2ネットワークの特徴変換パラメータとが、共有するネットワークパラメータであることを指示するために用いられ、
前記選択的共有条件は、前記第1ネットワークと前記第2ネットワークとの間で互いに独立したネットワークパラメータを指示するために用いられる場合、具体的に、前記第1ネットワークの特徴抽出パラメータと前記第2ネットワークの特徴抽出パラメータとが、互いに独立したネットワークパラメータであることを指示するために用いられる。
前記選択的共有条件は、前記第1ネットワークと前記第2ネットワークとの間で互いに独立したネットワークパラメータを指示するために用いられる場合、前記第1ネットワークの特徴再構築パラメータと前記第2ネットワークの特徴再構築パラメータとが、互いに独立したネットワークパラメータであることを指示するためにも用いられる。
前記特徴変換パラメータの数が1よりも大きいとき、前記第1ネットワークの複数の特徴変換パラメータと前記第2ネットワークの複数の特徴変換パラメータとが、共有するネットワークパラメータであり、第1ネットワークにおける各特徴変換パラメータが、互いに独立したネットワークパラメータであり、第2ネットワークにおける各特徴変換パラメータが、互いに独立したネットワークパラメータであり、又は、
前記特徴変換パラメータの数が1よりも大きいとき、前記第1ネットワークの複数の特徴変換パラメータと前記第2ネットワークの複数の特徴変換パラメータとが、共有するネットワークパラメータであり、前記第1ネットワークの各特徴変換パラメータが、共有するネットワークパラメータであり、前記第2ネットワークの各特徴変換パラメータが、共有するネットワークパラメータである、ことを含む。
前記第1スケールに従って、前記ボケ画像に対してダウンサンプリング処理を行うことにより、第1鮮明度のボケ画像を取得するステップと、
前記第1ネットワークを呼び出して、前記第1鮮明度のボケ画像に対して鮮明度回復処理を行うことにより、中間画像を取得するステップと、
前記第2スケールに従って、前記ボケ画像に対してダウンサンプリング処理を行うことにより、第2鮮明度のボケ画像を取得するステップと、
前記第2ネットワークを呼び出して、前記第2鮮明度のボケ画像と、前記中間画像とに基づいて、鮮明度回復処理を行うことにより、回復画像を取得するステップと、を実行させる。
前記画像処理モデルの最適化関数を取得するステップと、
前記回復画像及び前記鮮明画像に基づいて、前記最適化関数の値を決定するステップと、
前記最適化関数の値を減少させる原則に従って、前記画像処理モデルにおける前記第1ネットワークのネットワークパラメータ及び/又は前記第2ネットワークのネットワークパラメータを更新するステップと、を実行させる。
訓練用の画像シーケンスフレームを取得するステップであって、前記画像シーケンスフレームには、少なくとも2フレームの画像が含まれる、ステップと、
前記画像シーケンスフレームの中から1フレームの画像を鮮明画像として任意に選択し、前記鮮明画像に関連する複数フレームの参照画像を決定するステップと、
前記複数フレームの参照画像に基づいて、前記鮮明画像に対応するボケ画像を取得し、前記ボケ画像及び前記鮮明画像を用いて、訓練用のサンプル対を構築するステップと、を実行させる。
前記複数フレームの参照画像を重ね合わせて平均を求めることにより、前記鮮明画像に対応するボケ画像を取得するステップを実行させる。
処理対象の元画像を取得するステップであって、前記元画像の鮮明度が所定閾値よりも小さい、ステップと、
画像処理モデルを呼び出して、前記元画像に対して鮮明度回復処理を行うことにより、ターゲット画像を取得するステップであって、前記ターゲット画像の鮮明度が前記所定閾値よりも大きく、前記画像処理モデルは、少なくとも、第1ネットワークと第2ネットワークとを含み、前記第1ネットワークは、第1スケールに対応し、前記第2ネットワークは、第2スケールに対応し、前記第1ネットワークのネットワークパラメータと前記第2ネットワークのネットワークパラメータとの間は、選択的共有条件を満たし、前記選択的共有条件は、前記第1ネットワークと前記第2ネットワークとの間で共有するネットワークパラメータを指示するために用いられるとともに、前記第1ネットワークと前記第2ネットワークとの間で互いに独立したネットワークパラメータを指示するために用いられる、ステップと、
前記ターゲット画像を出力するステップと、を実行させる。
前記選択的共有条件は、前記第1ネットワークと前記第2ネットワークとの間で共有するネットワークパラメータを指示するために用いられる場合、具体的に、前記第1ネットワークの特徴変換パラメータと前記第2ネットワークの特徴変換パラメータとが、共有するネットワークパラメータであることを指示するために用いられ、
前記選択的共有条件は、前記第1ネットワークと前記第2ネットワークとの間で互いに独立したネットワークパラメータを指示するために用いられる場合、具体的に、前記第1ネットワークの特徴抽出パラメータと前記第2ネットワークの特徴抽出パラメータとが、互いに独立したネットワークパラメータであることを指示するために用いられる。
前記選択的共有条件は、前記第1ネットワークと前記第2ネットワークとの間で互いに独立したネットワークパラメータを指示するために用いられる場合、前記第1ネットワークの特徴再構築パラメータと前記第2ネットワークの特徴再構築パラメータとが、互いに独立したネットワークパラメータであることを指示するためにも用いられる。
Claims (20)
- ネットワーク機器が実行する、ボケ画像を処理するための画像処理モデルの訓練方法であって、
前記画像処理モデルは、少なくとも、第1ネットワークと第2ネットワークとを含み、前記第1ネットワークと前記第2ネットワークとは、異なるスケールを有するコーデックネットワークであり、前記スケールの大きさは、処理対象のボケ画像の鮮明度の大きさに対応しており、
前記方法は、
訓練用のサンプル対を取得するステップであり、前記サンプル対には、鮮明画像と、前記鮮明画像に対応するボケ画像とが含まれ、前記鮮明画像の鮮明度が所定閾値よりも大きく、前記ボケ画像の鮮明度が前記所定閾値よりも小さい、ステップと、
前記画像処理モデルを呼び出して、前記ボケ画像に対して鮮明度回復処理を行うことにより、回復画像を取得するステップと、
前記回復画像及び前記鮮明画像に基づいて、前記画像処理モデルにおける前記第1ネットワークのネットワークパラメータ及び/又は前記第2ネットワークのネットワークパラメータを更新することにより、訓練後の画像処理モデルを取得するステップと、を含み、
前記第1ネットワークのネットワークパラメータと前記第2ネットワークのネットワークパラメータとの間は、選択的共有条件を満たし、
前記選択的共有条件は、前記第1ネットワークと前記第2ネットワークとの間で共有するネットワークパラメータを指示するために用いられるとともに、前記第1ネットワークと前記第2ネットワークとの間で互いに独立したネットワークパラメータを指示するために用いられる、
方法。 - 前記ネットワークパラメータは、特徴抽出パラメータ及び特徴変換パラメータを含み、
前記選択的共有条件は、前記第1ネットワークと前記第2ネットワークとの間で共有するネットワークパラメータを指示するために用いられる場合に、前記第1ネットワークの特徴変換パラメータと前記第2ネットワークの特徴変換パラメータとが、共有するネットワークパラメータであることを指示するために用いられ、
前記選択的共有条件は、前記第1ネットワークと前記第2ネットワークとの間で互いに独立したネットワークパラメータを指示するために用いられる場合に、前記第1ネットワークの特徴抽出パラメータと前記第2ネットワークの特徴抽出パラメータとが、互いに独立したネットワークパラメータであることを指示するために用いられる、
請求項1に記載の方法。 - 前記ネットワークパラメータは、特徴再構築パラメータをさらに含み、
前記選択的共有条件は、前記第1ネットワークと前記第2ネットワークとの間で互いに独立したネットワークパラメータを指示するために用いられる場合に、前記第1ネットワークの特徴再構築パラメータと前記第2ネットワークの特徴再構築パラメータとが、互いに独立したネットワークパラメータであることを指示するために用いられる、
請求項2に記載の方法。 - 前記選択的共有条件は、前記第1ネットワークの特徴変換パラメータと前記第2ネットワークの特徴変換パラメータとが、共有するネットワークパラメータであることを指示するために用いられる場合に、
前記特徴変換パラメータの数が1よりも大きいとき、前記第1ネットワークの複数の特徴変換パラメータと前記第2ネットワークの複数の特徴変換パラメータとは、共有するネットワークパラメータであり、第1ネットワークにおける各特徴変換パラメータは、互いに独立したネットワークパラメータであり、第2ネットワークにおける各特徴変換パラメータは、互いに独立したネットワークパラメータであり、又は、
前記特徴変換パラメータの数が1よりも大きいとき、前記第1ネットワークの複数の特徴変換パラメータと前記第2ネットワークの複数の特徴変換パラメータとは、共有するネットワークパラメータであり、前記第1ネットワークの各特徴変換パラメータは、共有するネットワークパラメータであり、前記第2ネットワークの各特徴変換パラメータは、共有するネットワークパラメータである、
ことを含む、
請求項2に記載の方法。 - 前記第1ネットワークは、第1スケールに対応し、前記第2ネットワークは、第2スケールに対応し、
前記画像処理モデルを呼び出して、前記ボケ画像に対して鮮明度回復処理を行うことにより、回復画像を取得する前記ステップは、
前記第1スケールに従って、前記ボケ画像に対してダウンサンプリング処理を行うことにより、第1鮮明度のボケ画像を取得するステップと、
前記第1ネットワークを呼び出して、前記第1鮮明度のボケ画像に対して鮮明度回復処理を行うことにより、中間画像を取得するステップと、
前記第2スケールに従って、前記ボケ画像に対してダウンサンプリング処理を行うことにより、第2鮮明度のボケ画像を取得するステップと、
前記第2ネットワークを呼び出して、前記第2鮮明度のボケ画像と、前記中間画像とに基づいて、鮮明度回復処理を行うことにより、回復画像を取得するステップと、
を含む、請求項1に記載の方法。 - 前記鮮明度回復処理は、
画像に対して特徴抽出処理を行うことと、
多段残差関数を用いて、特徴抽出処理後の画像に対して特徴変換処理を行うことと、
特徴変換処理後の画像に対して特徴再構築処理を行うことと、
を含む、請求項5に記載の方法。 - 前記回復画像及び前記鮮明画像に基づいて、前記画像処理モデルにおける前記第1ネットワークのネットワークパラメータ及び/又は前記第2ネットワークのネットワークパラメータを更新することは、
前記画像処理モデルの最適化関数を取得するステップと、
前記回復画像及び前記鮮明画像に基づいて、前記最適化関数の値を決定するステップと、
前記最適化関数の値を減少させる原則に従って、前記画像処理モデルにおける前記第1ネットワークのネットワークパラメータ及び/又は前記第2ネットワークのネットワークパラメータを更新するステップと、
を含む、請求項1乃至6のいずれか一項に記載の方法。 - 訓練用のサンプル対を取得する前記ステップは、
訓練用の画像シーケンスフレームを取得するステップであり、前記画像シーケンスフレームには、少なくとも2フレームの画像が含まれる、ステップと、
前記画像シーケンスフレームの中から1フレームの画像を鮮明画像として任意に選択し、前記鮮明画像に関連する複数フレームの参照画像を決定するステップと、
前記複数フレームの参照画像に基づいて、前記鮮明画像に対応するボケ画像を取得し、前記ボケ画像及び前記鮮明画像を用いて、訓練用のサンプル対を構築するステップと、
を含む、請求項1乃至6のいずれか一項に記載の方法。 - 前記複数フレームの参照画像に基づいて、前記鮮明画像に対応するボケ画像を取得することは、
前記複数フレームの参照画像を重ね合わせて平均を求めることにより、前記鮮明画像に対応するボケ画像を取得するステップ、
を含む、請求項8に記載の方法。 - ネットワーク機器が実行する画像処理方法であって、
処理対象の元画像を取得するステップであり、前記元画像の鮮明度が所定閾値よりも小さい、ステップと、
ボケ画像を処理するための画像処理モデルを呼び出して、前記元画像に対して鮮明度回復処理を行うことにより、ターゲット画像を取得するステップであり、
前記ターゲット画像の鮮明度が前記所定閾値よりも大きく、
前記画像処理モデルは、少なくとも、第1ネットワークと第2ネットワークとを含み、
前記第1ネットワークと前記第2ネットワークとは、異なるスケールを有するコーデックネットワークであり、
前記スケールの大きさは、処理対象のボケ画像の鮮明度の大きさに対応し、
前記第1ネットワークのネットワークパラメータと前記第2ネットワークのネットワークパラメータとの間は、選択的共有条件を満たし、
前記選択的共有条件は、前記第1ネットワークと前記第2ネットワークとの間で共有するネットワークパラメータを指示するために用いられるとともに、前記第1ネットワークと前記第2ネットワークとの間で互いに独立したネットワークパラメータを指示するために用いられる、
ステップと、
前記ターゲット画像を出力するステップと、
を含む、方法。 - 前記ネットワークパラメータは、特徴抽出パラメータ及び特徴変換パラメータを含み、
前記選択的共有条件は、前記第1ネットワークと前記第2ネットワークとの間で共有するネットワークパラメータを指示するために用いられる場合に、前記第1ネットワークの特徴変換パラメータと前記第2ネットワークの特徴変換パラメータとが、共有するネットワークパラメータであることを指示するために用いられ、
前記選択的共有条件は、前記第1ネットワークと前記第2ネットワークとの間で互いに独立したネットワークパラメータを指示するために用いられる場合に、前記第1ネットワークの特徴抽出パラメータと前記第2ネットワークの特徴抽出パラメータとが、互いに独立したネットワークパラメータであることを指示するために用いられる、
請求項10に記載の方法。 - 前記ネットワークパラメータは、特徴再構築パラメータをさらに含み、
前記選択的共有条件は、前記第1ネットワークと前記第2ネットワークとの間で互いに独立したネットワークパラメータを指示するために用いられる場合に、前記第1ネットワークの特徴再構築パラメータと前記第2ネットワークの特徴再構築パラメータとが、互いに独立したネットワークパラメータであることを指示するために用いられる、
請求項11に記載の方法。 - ボケ画像を処理するための画像処理モデルの訓練装置であって、
前記画像処理モデルは、少なくとも、第1ネットワークと第2ネットワークとを含み、前記第1ネットワークと前記第2ネットワークとは、異なるスケールを有するコーデックネットワークであり、前記スケールの大きさは、処理対象のボケ画像の鮮明度の大きさに対応しており、前記装置は、
訓練用のサンプル対を取得し、前記サンプル対には、鮮明画像と、前記鮮明画像に対応するボケ画像とが含まれ、前記鮮明画像の鮮明度が所定閾値よりも大きく、前記ボケ画像の鮮明度が前記所定閾値よりも小さい取得ユニットと、
前記画像処理モデルを呼び出して、前記ボケ画像に対して鮮明度回復処理を行うことにより、回復画像を取得する処理ユニットと、
前記回復画像及び前記鮮明画像に基づいて、前記画像処理モデルにおける前記第1ネットワークのネットワークパラメータ及び/又は前記第2ネットワークのネットワークパラメータを更新することにより、訓練後の画像処理モデルを取得する更新ユニットと、を含み、
前記第1ネットワークのネットワークパラメータと前記第2ネットワークのネットワークパラメータとの間は、選択的共有条件を満たし、
前記選択的共有条件は、前記第1ネットワークと前記第2ネットワークとの間で共有するネットワークパラメータを指示するために用いられるとともに、前記第1ネットワークと前記第2ネットワークとの間で互いに独立したネットワークパラメータを指示するために用いられる、
装置。 - 前記ネットワークパラメータは、特徴抽出パラメータ及び特徴変換パラメータを含み、
前記選択的共有条件は、前記第1ネットワークと前記第2ネットワークとの間で共有するネットワークパラメータを指示するために用いられる場合に、前記第1ネットワークの特徴変換パラメータと前記第2ネットワークの特徴変換パラメータとが、共有するネットワークパラメータであることを指示するために用いられ、
前記選択的共有条件は、前記第1ネットワークと前記第2ネットワークとの間で互いに独立したネットワークパラメータを指示するために用いられる場合に、前記第1ネットワークの特徴抽出パラメータと前記第2ネットワークの特徴抽出パラメータとが、互いに独立したネットワークパラメータであることを指示するために用いられる、
請求項13に記載の装置。 - 前記ネットワークパラメータは、特徴再構築パラメータをさらに含み、
前記選択的共有条件は、前記第1ネットワークと前記第2ネットワークとの間で互いに独立したネットワークパラメータを指示するために用いられる場合に、前記第1ネットワークの特徴再構築パラメータと前記第2ネットワークの特徴再構築パラメータとが、互いに独立したネットワークパラメータであることを指示するために用いられる、
請求項14に記載の装置。 - 前記選択的共有条件は、前記第1ネットワークの特徴変換パラメータと前記第2ネットワークの特徴変換パラメータとが、共有するネットワークパラメータであることを指示するために用いられる場合に、
前記特徴変換パラメータの数が1よりも大きいとき、前記第1ネットワークの複数の特徴変換パラメータと前記第2ネットワークの複数の特徴変換パラメータとが、共有するネットワークパラメータであり、第1ネットワークにおける各特徴変換パラメータが、互いに独立したネットワークパラメータであり、第2ネットワークにおける各特徴変換パラメータが、互いに独立したネットワークパラメータであり、又は、
前記特徴変換パラメータの数が1よりも大きいとき、前記第1ネットワークの複数の特徴変換パラメータと前記第2ネットワークの複数の特徴変換パラメータとが、共有するネットワークパラメータであり、前記第1ネットワークの各特徴変換パラメータが、共有するネットワークパラメータであり、前記第2ネットワークの各特徴変換パラメータが、共有するネットワークパラメータである、
ことを含む、
請求項14に記載の装置。 - 画像処理装置であって、
処理対象の元画像を取得し、前記元画像の鮮明度が所定閾値よりも小さい取得ユニットと、
処理ユニットであり、
ボケ画像を処理するための画像処理モデルを呼び出して、前記元画像に対して鮮明度回復処理を行うことにより、ターゲット画像を取得し、
前記ターゲット画像の鮮明度が前記所定閾値よりも大きく、
前記画像処理モデルは、少なくとも、第1ネットワークと第2ネットワークとを含み、
前記第1ネットワークと前記第2ネットワークとは、異なるスケールを有するコーデックネットワークであり、
前記スケールの大きさは、処理対象のボケ画像の鮮明度の大きさに対応し、
前記第1ネットワークのネットワークパラメータと前記第2ネットワークのネットワークパラメータとの間は、選択的共有条件を満たし、
前記選択的共有条件は、前記第1ネットワークと前記第2ネットワークとの間で共有するネットワークパラメータを指示するために用いられるとともに、前記第1ネットワークと前記第2ネットワークとの間で互いに独立したネットワークパラメータを指示するために用いられる、
処理ユニットと、
前記ターゲット画像を出力する出力ユニットと、
を含む、装置。 - 前記ネットワークパラメータは、特徴抽出パラメータ及び特徴変換パラメータを含み、
前記選択的共有条件は、前記第1ネットワークと前記第2ネットワークとの間で共有するネットワークパラメータを指示するために用いられる場合に、前記第1ネットワークの特徴変換パラメータと前記第2ネットワークの特徴変換パラメータとが、共有するネットワークパラメータであることを指示するために用いられ、
前記選択的共有条件は、前記第1ネットワークと前記第2ネットワークとの間で互いに独立したネットワークパラメータを指示するために用いられる場合に、前記第1ネットワークの特徴抽出パラメータと前記第2ネットワークの特徴抽出パラメータとが、互いに独立したネットワークパラメータであることを指示するために用いられる、
請求項17に記載の装置。 - ネットワーク機器であって、
プロセッサと、
前記プロセッサに接続されたメモリと、を備え、
前記メモリには、機械で読み取り可能な命令が記憶されており、
前記機械で読み取り可能な命令は、プロセッサによって実行されると、請求項1乃至12のいずれか一項に記載の方法を実行させる、
ネットワーク機器。 - 複数の命令を含むコンピュータプログラムであって、
前記命令は、プロセッサによってロードされ、実行されると、請求項1乃至12のいずれか一項に記載の方法を実行させる、
ように構成されている、コンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910259016.7 | 2019-04-01 | ||
CN201910259016.7A CN109993712B (zh) | 2019-04-01 | 2019-04-01 | 图像处理模型的训练方法、图像处理方法及相关设备 |
PCT/CN2020/077699 WO2020199831A1 (zh) | 2019-04-01 | 2020-03-04 | 图像处理模型的训练方法、图像处理方法、网络设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022510622A true JP2022510622A (ja) | 2022-01-27 |
JP7206386B2 JP7206386B2 (ja) | 2023-01-17 |
Family
ID=67131172
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021529409A Active JP7206386B2 (ja) | 2019-04-01 | 2020-03-04 | 画像処理モデルの訓練方法、画像処理方法、ネットワーク機器、及び記憶媒体 |
Country Status (6)
Country | Link |
---|---|
US (1) | US11741581B2 (ja) |
EP (1) | EP3951702A4 (ja) |
JP (1) | JP7206386B2 (ja) |
KR (1) | KR102499147B1 (ja) |
CN (1) | CN109993712B (ja) |
WO (1) | WO2020199831A1 (ja) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109993712B (zh) | 2019-04-01 | 2023-04-25 | 腾讯科技(深圳)有限公司 | 图像处理模型的训练方法、图像处理方法及相关设备 |
CN112446835A (zh) * | 2019-09-04 | 2021-03-05 | 华为技术有限公司 | 图像恢复方法、图像恢复网络训练方法、装置和存储介质 |
CN112927144A (zh) * | 2019-12-05 | 2021-06-08 | 北京迈格威科技有限公司 | 图像增强方法、图像增强装置、介质和电子设备 |
CN113139911A (zh) * | 2020-01-20 | 2021-07-20 | 北京迈格威科技有限公司 | 图像处理方法及装置、图像处理模型的训练方法及装置 |
CN114981836A (zh) * | 2020-01-23 | 2022-08-30 | 三星电子株式会社 | 电子设备和电子设备的控制方法 |
CN111402175B (zh) * | 2020-04-07 | 2022-04-08 | 华中科技大学 | 一种高速扫描成像系统及方法 |
CN112016389A (zh) * | 2020-07-14 | 2020-12-01 | 深圳市裕展精密科技有限公司 | 用于车辆的控制装置及方法 |
US11741579B2 (en) * | 2020-11-16 | 2023-08-29 | Huawei Technologies Co., Ltd. | Methods and systems for deblurring blurry images |
CN112488943B (zh) * | 2020-12-02 | 2024-02-02 | 北京字跳网络技术有限公司 | 模型训练和图像去雾方法、装置、设备 |
CN112907818B (zh) * | 2021-01-20 | 2022-06-24 | 广东便捷神科技股份有限公司 | 一种广告营销类语音信息的处理方法 |
KR20230054982A (ko) * | 2021-10-18 | 2023-04-25 | 삼성전자주식회사 | 전자 장치 및 그 제어 방법 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002170112A (ja) * | 2000-12-04 | 2002-06-14 | Minolta Co Ltd | 解像度変換プログラムを記録したコンピュータ読取可能な記録媒体、解像度変換装置および解像度変換方法 |
WO2017209307A1 (en) * | 2016-06-01 | 2017-12-07 | Mitsubishi Electric Corporation | Method and system for generating multimodal digital image |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI405147B (zh) * | 2010-03-16 | 2013-08-11 | Novatek Microelectronics Corp | 單張影像的階層式去動態模糊方法 |
US9734567B2 (en) * | 2015-06-24 | 2017-08-15 | Samsung Electronics Co., Ltd. | Label-free non-reference image quality assessment via deep neural network |
CN108399362B (zh) * | 2018-01-24 | 2022-01-07 | 中山大学 | 一种快速行人检测方法及装置 |
CN108509986A (zh) * | 2018-03-16 | 2018-09-07 | 上海海事大学 | 基于模糊不变卷积神经网络的飞机目标识别方法 |
CN108629743B (zh) | 2018-04-04 | 2022-03-25 | 腾讯科技(深圳)有限公司 | 图像的处理方法、装置、存储介质和电子装置 |
CN108846820A (zh) * | 2018-07-10 | 2018-11-20 | 深圳市唯特视科技有限公司 | 一种基于尺度递归网络的深度图像去模糊方法 |
CN109360171B (zh) * | 2018-10-26 | 2021-08-06 | 北京理工大学 | 一种基于神经网络的视频图像实时去模糊方法 |
CN109993712B (zh) * | 2019-04-01 | 2023-04-25 | 腾讯科技(深圳)有限公司 | 图像处理模型的训练方法、图像处理方法及相关设备 |
-
2019
- 2019-04-01 CN CN201910259016.7A patent/CN109993712B/zh active Active
-
2020
- 2020-03-04 JP JP2021529409A patent/JP7206386B2/ja active Active
- 2020-03-04 EP EP20783018.3A patent/EP3951702A4/en active Pending
- 2020-03-04 WO PCT/CN2020/077699 patent/WO2020199831A1/zh unknown
- 2020-03-04 KR KR1020217020255A patent/KR102499147B1/ko active IP Right Grant
-
2021
- 2021-05-27 US US17/332,970 patent/US11741581B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002170112A (ja) * | 2000-12-04 | 2002-06-14 | Minolta Co Ltd | 解像度変換プログラムを記録したコンピュータ読取可能な記録媒体、解像度変換装置および解像度変換方法 |
WO2017209307A1 (en) * | 2016-06-01 | 2017-12-07 | Mitsubishi Electric Corporation | Method and system for generating multimodal digital image |
Non-Patent Citations (1)
Title |
---|
XIN TAO ほか4名: "Scale-recurrent Network for Deep Image Deblurring", 2018 IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION, JPN6022030175, 2018, pages 8174 - 8182, XP033473740, ISSN: 0004835396, DOI: 10.1109/CVPR.2018.00853 * |
Also Published As
Publication number | Publication date |
---|---|
WO2020199831A1 (zh) | 2020-10-08 |
KR20210095936A (ko) | 2021-08-03 |
CN109993712B (zh) | 2023-04-25 |
CN109993712A (zh) | 2019-07-09 |
KR102499147B1 (ko) | 2023-02-10 |
US20210287047A1 (en) | 2021-09-16 |
JP7206386B2 (ja) | 2023-01-17 |
EP3951702A4 (en) | 2022-06-08 |
EP3951702A1 (en) | 2022-02-09 |
US11741581B2 (en) | 2023-08-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2022510622A (ja) | 画像処理モデルの訓練方法、画像処理方法、ネットワーク機器、及び記憶媒体 | |
CN112308200B (zh) | 神经网络的搜索方法及装置 | |
CN115442515B (zh) | 图像处理方法和设备 | |
CN111667399B (zh) | 风格迁移模型的训练方法、视频风格迁移的方法以及装置 | |
CN110717851A (zh) | 图像处理方法及装置、神经网络的训练方法、存储介质 | |
WO2022134971A1 (zh) | 一种降噪模型的训练方法及相关装置 | |
CN113065645B (zh) | 孪生注意力网络、图像处理方法和装置 | |
CN111914997B (zh) | 训练神经网络的方法、图像处理方法及装置 | |
CN108764244B (zh) | 基于卷积神经网络和条件随机场的潜在目标区域检测方法 | |
CN111079507B (zh) | 一种行为识别方法及装置、计算机装置及可读存储介质 | |
CN113191489B (zh) | 二值神经网络模型的训练方法、图像处理方法和装置 | |
CN112070664A (zh) | 一种图像处理方法以及装置 | |
CN113673545A (zh) | 光流估计方法、相关装置、设备及计算机可读存储介质 | |
Jin et al. | Learning to see through reflections | |
CN117237756A (zh) | 一种训练目标分割模型的方法、目标分割方法及相关装置 | |
CN116597144A (zh) | 一种基于事件相机的图像语义分割方法 | |
CN110889858A (zh) | 一种基于点回归的汽车部件分割方法及装置 | |
US20230394632A1 (en) | Method and image processing device for improving signal-to-noise ratio of image frame sequences | |
Li et al. | Joint learning of motion deblurring and defocus deblurring networks with a real-world dataset | |
CN113256556A (zh) | 一种图像选择方法及装置 | |
Singh et al. | WDN: a wide and deep network to divide-and-conquer image super-resolution | |
Cao et al. | Single image super-resolution via deep learning | |
WO2022183325A1 (zh) | 视频块处理方法及装置、神经网络的训练方法和存储介质 | |
WO2023028866A1 (zh) | 图像处理方法、装置和车辆 | |
JP7315516B2 (ja) | 骨格推定装置及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210525 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220708 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220726 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221026 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221213 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230104 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7206386 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |