JP7026222B2 - 画像生成ネットワークの訓練および画像処理方法、装置、電子機器、ならびに媒体 - Google Patents
画像生成ネットワークの訓練および画像処理方法、装置、電子機器、ならびに媒体 Download PDFInfo
- Publication number
- JP7026222B2 JP7026222B2 JP2020524341A JP2020524341A JP7026222B2 JP 7026222 B2 JP7026222 B2 JP 7026222B2 JP 2020524341 A JP2020524341 A JP 2020524341A JP 2020524341 A JP2020524341 A JP 2020524341A JP 7026222 B2 JP7026222 B2 JP 7026222B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- structural
- feature
- network
- loss
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Description
本願は、2019年04月30日に出願された、出願番号が201910363957.5である中国特許出願に基づいて提出され、該中国特許出願の優先権を主張し、その開示の全てが参照によって本願に組み込まれる。
例えば、本願は以下の項目を提供する。
(項目1)
第一サンプル画像と前記第一サンプル画像に対応する第二サンプル画像とを含むサンプル画像を取得することと、
画像生成ネットワークに基づいて前記第一サンプル画像を処理し、予測目標画像を得ることと、
前記予測目標画像と前記第二サンプル画像との間の差異損失を特定することと、
前記差異損失に基づいて前記画像生成ネットワークを訓練し、訓練後の画像生成ネットワークを得ることと、を含む画像生成ネットワークの訓練方法。
(項目2)
前記予測目標画像と前記第二サンプル画像との間の差異損失を特定する前記ステップは、
構造分析ネットワークに基づいて前記予測目標画像と前記第二サンプル画像との間の差異損失を特定することを含み、
前記差異損失に基づいて前記画像生成ネットワークを訓練し、訓練後の画像生成ネットワークを得る前記ステップは、
前記差異損失に基づいて前記画像生成ネットワークと前記構造分析ネットワークとに対して敵対的訓練を行い、訓練後の画像生成ネットワークを得ることを含む、項目1に記載の方法。
(項目3)
前記差異損失は第一構造差異損失および特徴損失を含み、
前記予測目標画像と前記第二サンプル画像との間の差異損失を特定する前記ステップは、
構造分析ネットワークに基づいて前記予測目標画像および前記第二サンプル画像を処理し、前記予測目標画像と前記第二サンプル画像との間の第一構造差異損失を特定することと、
前記構造分析ネットワークに基づいて前記予測目標画像と前記第二サンプル画像との間の特徴損失を特定することと、を含む、項目2に記載の方法。
(項目4)
構造分析ネットワークに基づいて前記予測目標画像および前記第二サンプル画像を処理し、前記予測目標画像と前記第二サンプル画像との間の第一構造差異損失を特定する前記ステップは、
前記構造分析ネットワークに基づいて前記予測目標画像を処理し、前記予測目標画像における少なくとも一つの位置の少なくとも一つの第一構造特徴を特定することと、
前記構造分析ネットワークに基づいて前記第二サンプル画像を処理し、前記第二サンプル画像における少なくとも一つの位置の少なくとも一つの第二構造特徴を特定することと、
前記少なくとも一つの第一構造特徴および前記少なくとも一つの第二構造特徴に基づき、前記予測目標画像と前記第二サンプル画像との間の第一構造差異損失を特定することと、を含む、項目3に記載の方法。
(項目5)
前記構造分析ネットワークに基づいて前記予測目標画像を処理し、前記予測目標画像における少なくとも一つの位置の少なくとも一つの第一構造特徴を特定する前記ステップは、
構造分析ネットワークに基づいて前記予測目標画像を処理し、少なくとも一つのスケールにおける前記予測目標画像の第一特徴マップを得ることと、
各前記第一特徴マップに対して、前記第一特徴マップにおける少なくとも一つの位置の各々の特徴と前記位置の隣接領域特徴とのコサイン距離に基づき、前記予測目標画像の少なくとも一つの第一構造特徴を得ることと、を含み、
前記第一特徴マップにおける各位置はそれぞれ一つの第一構造特徴に対応し、前記隣接領域特徴が、前記位置を中心として少なくとも二つの位置を含む領域内の各特徴である、項目4に記載の方法。
(項目6)
前記構造分析ネットワークに基づいて前記第二サンプル画像を処理し、前記第二サンプル画像における少なくとも一つの位置の少なくとも一つの第二構造特徴を特定する前記ステップは、
構造分析ネットワークに基づいて前記第二サンプル画像を処理し、少なくとも一つのスケールにおける前記第二サンプル画像の第二特徴マップを得ることと、
各前記第二特徴マップに対して、前記第二特徴マップにおける少なくとも一つの位置の各々の特徴と前記位置の隣接領域特徴とのコサイン距離に基づき、前記第二サンプル画像の少なくとも一つの第二構造特徴を得ることと、を含み、
ここで、前記第二特徴マップにおける各位置はそれぞれ一つの第二構造特徴に対応する、項目4または5に記載の方法。
(項目7)
前記第一特徴マップにおける各位置と前記第二特徴マップにおける各位置とは対応関係を有し、
前記少なくとも一つの第一構造特徴および前記少なくとも一つの第二構造特徴に基づき、前記予測目標画像と前記第二サンプル画像との間の第一構造差異損失を特定する前記ステップは、
対応関係を有する位置が対応する前記第一構造特徴と前記第二構造特徴との間の距離を計算することと、
前記予測目標画像が対応する全ての前記第一構造特徴と前記第二構造特徴との間の距離に基づき、前記予測目標画像と前記第二サンプル画像との間の第一構造差異損失を特定することと、を含む、項目6に記載の方法。
(項目8)
前記構造分析ネットワークに基づいて前記予測目標画像と前記第二サンプル画像との間の特徴損失を特定する前記ステップは、
前記構造分析ネットワークに基づいて前記予測目標画像および前記第二サンプル画像を処理し、少なくとも一つのスケールにおける前記予測目標画像の第一特徴マップおよび少なくとも一つのスケールにおける前記第二サンプル画像の第二特徴マップを得ることと、
前記少なくとも一つの第一特徴マップおよび前記少なくとも一つの第二特徴マップに基づき、前記予測目標画像と前記第二サンプル画像との間の特徴損失を特定することと、を含む、項目3から7のいずれか一項に記載の方法。
(項目9)
前記第一特徴マップにおける各位置と前記第二特徴マップにおける各位置とは対応関係を有し、
前記少なくとも一つの第一特徴マップおよび前記少なくとも一つの第二特徴マップに基づき、前記予測目標画像と前記第二サンプル画像との間の特徴損失を特定する前記ステップは、
対応関係を有する位置が対応する前記第一特徴マップにおける特徴と前記第二特徴マップにおける特徴との間の距離を計算することと、
前記第一特徴マップにおける特徴と前記第二特徴マップにおける特徴との間の距離に基づき、前記予測目標画像と前記第二サンプル画像との間の特徴損失を特定することと、を含む、項目8に記載の方法。
(項目10)
前記差異損失はさらに色損失を含み、前記差異損失に基づいて前記画像生成ネットワークを訓練し、訓練後の画像生成ネットワークを得る前に、前記方法はさらに、
前記予測目標画像と前記第二サンプル画像との間の色差に基づき、前記画像生成ネットワークの色損失を特定することを含み、
前記差異損失に基づいて前記画像生成ネットワークと前記構造分析ネットワークとに対して敵対的訓練を行い、訓練後の画像生成ネットワークを得る前記ステップは、
第一反復処理において、前記第一構造差異損失、前記特徴損失および前記色損失に基づいて、前記画像生成ネットワークのネットワークパラメータを調整することと、
第二反復処理において、前記第一構造差異損失に基づいて前記構造分析ネットワークのネットワークパラメータを調整することと、
訓練停止条件が満たされるようになるまで前記第一反復処理及び前記第二反復処理を行い、訓練後の画像生成ネットワークを得ることと、を含み、
ここで、前記第一反復処理と前記第二反復処理は連続的に実行される二回の反復処理である、項目3から9のいずれか一項に記載の方法。
(項目11)
前記予測目標画像と前記第二サンプル画像との間の差異損失を特定する前に、さらに、
前記第二サンプル画像にノイズを注入し、ノイズ画像を得ることと、
前記ノイズ画像および前記第二サンプル画像に基づいて第二構造差異損失を特定することと、を含む、項目1から10のいずれか一項に記載の方法。
(項目12)
前記ノイズ画像および前記第二サンプル画像に基づいて第二構造差異損失を特定する前記ステップは、
構造分析ネットワークに基づいて前記ノイズ画像を処理し、前記ノイズ画像における少なくとも一つの位置の少なくとも一つの第三構造特徴を特定することと、
構造分析ネットワークに基づいて前記第二サンプル画像を処理し、前記第二サンプル画像における少なくとも一つの位置の前記少なくとも一つの第二構造特徴を特定することと、
前記少なくとも一つの第三構造特徴および前記少なくとも一つの第二構造特徴に基づき、前記ノイズ画像と前記第二サンプル画像との間の第二構造差異損失を特定することと、を含む、項目11に記載の方法。
(項目13)
構造分析ネットワークに基づいて前記ノイズ画像を処理し、前記ノイズ画像における少なくとも一つの位置の少なくとも一つの第三構造特徴を特定する前記ステップは、
前記構造分析ネットワークに基づいて前記ノイズ画像を処理し、少なくとも一つのスケールにおける前記ノイズ画像の第三特徴マップを得ることと、
各前記第三特徴マップに対して、前記第三特徴マップにおける少なくとも一つの位置の各々の特徴と前記位置の隣接領域特徴とのコサイン距離に基づき、前記ノイズ画像の少なくとも一つの第三構造特徴を得ることと、を含み、
ここで、前記第三特徴マップにおける各位置はそれぞれ一つの第三構造特徴に対応し、前記隣接領域特徴が、前記位置を中心として少なくとも二つの位置を含む領域内の各特徴である、項目12に記載の方法。
(項目14)
前記第三特徴マップにおける各位置と前記第二特徴マップにおける各位置とは対応関係を有し、
前記少なくとも一つの第三構造特徴および前記少なくとも一つの第二構造特徴に基づき、前記ノイズ画像と前記第二サンプル画像との間の第二構造差異損失を特定する前記ステップは、
対応関係を有する位置が対応する前記第三構造特徴と前記第二構造特徴との間の距離を計算することと、
前記ノイズ画像が対応する全ての前記第三構造特徴と前記第二構造特徴との間の距離に基づき、前記ノイズ画像と前記第二サンプル画像との間の第二構造差異損失を特定することと、を含む、項目12または13に記載の方法。
(項目15)
前記差異損失に基づいて前記画像生成ネットワークと前記構造分析ネットワークとに対して敵対的訓練を行い、訓練後の画像生成ネットワークを得る前記ステップは、
第三反復処理において、前記第一構造差異損失、前記特徴損失および前記色損失に基づいて、前記画像生成ネットワークのネットワークパラメータを調整することと、
第四反復処理において、前記第一構造差異損失および前記第二構造差異損失に基づいて前記構造分析ネットワークのネットワークパラメータを調整することと、
訓練停止条件が満たされるようになるまで前記第三反復処理及び前記第四反復処理を行い、訓練後の画像生成ネットワークを得ることと、を含み、
ここで、前記第三反復処理と前記第四反復処理は連続的に実行される二回の反復処理である、項目11から14のいずれか一項に記載の方法。
(項目16)
前記構造分析ネットワークに基づいて前記予測目標画像を処理し、前記予測目標画像における少なくとも一つの位置の少なくとも一つの第一構造特徴を特定した後に、さらに、
画像再構成ネットワークに基づいて前記少なくとも一つの第一構造特徴に対して画像再構成処理を行い、第一再構成画像を得ることと、
前記第一再構成画像および前記予測目標画像に基づいて第一再構成損失を特定することと、を含む、項目4から15のいずれか一項に記載の方法。
(項目17)
前記構造分析ネットワークに基づいて前記第二サンプル画像を処理し、前記第二サンプル画像における少なくとも一つの位置の少なくとも一つの第二構造特徴を特定した後に、さらに、
画像再構成ネットワークに基づいて前記少なくとも一つの第二構造特徴に対して画像再構成処理を行い、第二再構成画像を得ることと、
前記第二再構成画像および前記第二サンプル画像に基づいて第二再構成損失を特定することと、を含む、項目16に記載の方法。
(項目18)
前記差異損失に基づいて前記画像生成ネットワークと構造分析ネットワークとに対して敵対的訓練を行い、訓練後の画像生成ネットワークを得る前記ステップは、
第五反復処理において、前記第一構造差異損失、前記特徴損失および前記色損失に基づいて、前記画像生成ネットワークのネットワークパラメータを調整することと、
第六反復処理において、前記第一構造差異損失、前記第二構造差異損失、前記第一再構成損失および前記第二再構成損失に基づいて前記構造分析ネットワークのネットワークパラメータを調整することと、
訓練停止条件が満たされるようになるまで前記第五反復処理及び前記第六反復処理を行い、訓練後の画像生成ネットワークを得ることと、を含み、
ここで、前記第五反復処理と前記第六反復処理は連続的に実行される二回の反復処理である、項目17に記載の方法。
(項目19)
前記差異損失に基づいて前記画像生成ネットワークを訓練し、訓練後の画像生成ネットワークを得る前記ステップの後に、さらに、
前記訓練後の画像生成ネットワークに基づいて処理待ち画像を処理し、目標画像を得ることを含む、項目1から18のいずれか一項に記載の方法。
(項目20)
前記処理待ち画像は左眼画像を含み、前記目標画像は前記左眼画像に対応する右眼画像を含む、項目19に記載の方法。
(項目21)
三次元画像生成シーンで、左眼画像を画像生成ネットワークに入力し、右眼画像を得ることと、
前記左眼画像および前記右眼画像に基づいて三次元画像を生成することと、を含み、
ここで、前記画像生成ネットワークは上記項目1から20のいずれか一項に記載の画像生成ネットワークの訓練方法によって訓練して得られる、画像処理方法。
(項目22)
第一サンプル画像と前記第一サンプル画像に対応する第二サンプル画像とを含むサンプル画像を取得するように構成されたサンプル取得ユニットと、
画像生成ネットワークに基づいて前記第一サンプル画像を処理し、予測目標画像を得るように構成された目標予測ユニットと、
前記予測目標画像と前記第二サンプル画像との間の差異損失を特定するように構成された差異損失特定ユニットと、
前記差異損失に基づいて前記画像生成ネットワークを訓練し、訓練後の画像生成ネットワークを得るように構成されたネットワーク訓練ユニットと、を含む、画像生成ネットワークの訓練装置。
(項目23)
前記差異損失特定ユニットは、具体的に、構造分析ネットワークに基づいて前記予測目標画像と前記第二サンプル画像との間の差異損失を特定するように構成され、
前記ネットワーク訓練ユニットは、具体的に、前記差異損失に基づいて前記画像生成ネットワークと前記構造分析ネットワークとに対して敵対的訓練を行い、訓練後の画像生成ネットワークを得るように構成される、項目22に記載の装置。
(項目24)
前記差異損失は第一構造差異損失および特徴損失を含み、
前記差異損失特定ユニットは、
構造分析ネットワークに基づいて前記予測目標画像および前記第二サンプル画像を処理し、前記予測目標画像と前記第二サンプル画像との間の第一構造差異損失を特定するように構成された第一構造差異特定モジュールと、
前記構造分析ネットワークに基づいて前記予測目標画像と前記第二サンプル画像との間の特徴損失を特定するように構成された特徴損失特定モジュールと、を含む、項目23に記載の装置。
(項目25)
前記第一構造差異特定モジュールは、前記構造分析ネットワークに基づいて前記予測目標画像を処理し、前記予測目標画像における少なくとも一つの位置の少なくとも一つの第一構造特徴を特定し、前記構造分析ネットワークに基づいて前記第二サンプル画像を処理し、前記第二サンプル画像における少なくとも一つの位置の少なくとも一つの第二構造特徴を特定し、前記少なくとも一つの第一構造特徴および前記少なくとも一つの第二構造特徴に基づき、前記予測目標画像と前記第二サンプル画像との間の第一構造差異損失を特定するように構成される、項目24に記載の装置。
(項目26)
前記第一構造差異特定モジュールは、前記構造分析ネットワークに基づいて前記予測目標画像を処理し、前記予測目標画像における少なくとも一つの位置の少なくとも一つの第一構造特徴を特定する時に、構造分析ネットワークに基づいて前記予測目標画像を処理し、少なくとも一つのスケールにおける前記予測目標画像の第一特徴マップを得て、各前記第一特徴マップに対して、前記第一特徴マップにおける少なくとも一つの位置の各々の特徴と前記位置の隣接領域特徴とのコサイン距離に基づき、前記予測目標画像の少なくとも一つの第一構造特徴を得るように構成され、ここで、前記第一特徴マップにおける各位置はそれぞれ一つの第一構造特徴に対応し、前記隣接領域特徴が、前記位置を中心として少なくとも二つの位置を含む領域内の各特徴である、項目25に記載の装置。
(項目27)
前記第一構造差異特定モジュールは、前記構造分析ネットワークに基づいて前記第二サンプル画像を処理し、前記第二サンプル画像における少なくとも一つの位置の少なくとも一つの第二構造特徴を特定する時に、構造分析ネットワークに基づいて前記第二サンプル画像を処理し、少なくとも一つのスケールにおける前記第二サンプル画像の第二特徴マップを得て、各前記第二特徴マップに対して、前記第二特徴マップにおける少なくとも一つの位置の各々の特徴と前記位置の隣接領域特徴とのコサイン距離に基づき、前記第二サンプル画像の少なくとも一つの第二構造特徴を得るように構成され、ここで、前記第二特徴マップにおける各位置はそれぞれ一つの第二構造特徴に対応する、項目25または26に記載の装置。
(項目28)
前記第一特徴マップにおける各位置と前記第二特徴マップにおける各位置とは対応関係を有し、
前記第一構造差異特定モジュールは、前記少なくとも一つの第一構造特徴および前記少なくとも一つの第二構造特徴に基づき、前記予測目標画像と前記第二サンプル画像との間の第一構造差異損失を特定する時に、対応関係を有する位置が対応する前記第一構造特徴と前記第二構造特徴との間の距離を計算し、前記予測目標画像が対応する全ての前記第一構造特徴と前記第二構造特徴との間の距離に基づき、前記予測目標画像と前記第二サンプル画像との間の第一構造差異損失を特定するように構成される、項目27に記載の装置。
(項目29)
前記特徴損失特定モジュールは、具体的に、前記構造分析ネットワークに基づいて前記予測目標画像および前記第二サンプル画像を処理し、少なくとも一つのスケールにおける前記予測目標画像の第一特徴マップおよび少なくとも一つのスケールにおける前記第二サンプル画像の第二特徴マップを得て、前記少なくとも一つの第一特徴マップおよび前記少なくとも一つの第二特徴マップに基づき、前記予測目標画像と前記第二サンプル画像との間の特徴損失を特定するように構成される、項目24から28のいずれか一項に記載の装置。
(項目30)
前記第一特徴マップにおける各位置と前記第二特徴マップにおける各位置とは対応関係を有し、
前記特徴損失特定モジュールは、前記少なくとも一つの第一特徴マップおよび前記少なくとも一つの第二特徴マップに基づき、前記予測目標画像と前記第二サンプル画像との間の特徴損失を特定する時に、対応関係を有する位置が対応する前記第一特徴マップにおける特徴と前記第二特徴マップにおける特徴との間の距離を計算し、前記第一特徴マップにおける特徴と前記第二特徴マップにおける特徴との間の距離に基づき、前記予測目標画像と前記第二サンプル画像との間の特徴損失を特定するように構成される、項目29に記載の装置。
(項目31)
前記差異損失はさらに色損失を含み、
前記差異損失特定ユニットは、さらに
前記予測目標画像と前記第二サンプル画像との間の色差に基づき、前記画像生成ネットワークの色損失を特定するように構成された色損失特定モジュールを含み、
前記ネットワーク訓練ユニットは、具体的に、第一反復処理において、前記第一構造差異損失、前記特徴損失および前記色損失に基づいて、前記画像生成ネットワークのネットワークパラメータを調整し、第二反復処理において、前記第一構造差異損失に基づいて前記構造分析ネットワークのネットワークパラメータを調整し、訓練停止条件が満たされるようになるまで前記第一反復処理及び前記第二反復処理を行い、訓練後の画像生成ネットワークを得るように構成され、ここで、前記第一反復処理と前記第二反復処理は連続的に実行される二回の反復処理である、項目24から30のいずれか一項に記載の装置。
(項目32)
さらに、
前記第二サンプル画像にノイズを注入し、ノイズ画像を得るように構成されたノイズ注入ユニットと、
前記ノイズ画像および前記第二サンプル画像に基づいて第二構造差異損失を特定するように構成された第二構造差異損失ユニットと、を含む、項目22から31のいずれか一項に記載の装置。
(項目33)
前記第二構造差異損失ユニットは、具体的に、構造分析ネットワークに基づいて前記ノイズ画像を処理し、前記ノイズ画像における少なくとも一つの位置の少なくとも一つの第三構造特徴を特定し、構造分析ネットワークに基づいて前記第二サンプル画像を処理し、前記第二サンプル画像における少なくとも一つの位置の前記少なくとも一つの第二構造特徴を特定し、前記少なくとも一つの第三構造特徴および前記少なくとも一つの第二構造特徴に基づき、前記ノイズ画像と前記第二サンプル画像との間の第二構造差異損失を特定するように構成される、項目32に記載の装置。
(項目34)
前記第二構造差異損失ユニットは、構造分析ネットワークに基づいて前記ノイズ画像を処理し、前記ノイズ画像における少なくとも一つの位置の少なくとも一つの第三構造特徴を特定する時に、前記構造分析ネットワークに基づいて前記ノイズ画像を処理し、少なくとも一つのスケールにおける前記ノイズ画像の第三特徴マップを得て、各前記第三特徴マップに対して、前記第三特徴マップにおける少なくとも一つの位置の各々の特徴と前記位置の隣接領域特徴とのコサイン距離に基づき、前記ノイズ画像の少なくとも一つの第三構造特徴を得るように構成され、ここで、前記第三特徴マップにおける各位置はそれぞれ一つの第三構造特徴に対応し、前記隣接領域特徴が、前記位置を中心として少なくとも二つの位置を含む領域内の各特徴である、項目33に記載の装置。
(項目35)
前記第三特徴マップにおける各位置と前記第二特徴マップにおける各位置とは対応関係を有し、
前記第二構造差異損失ユニットは、前記少なくとも一つの第三構造特徴および前記少なくとも一つの第二構造特徴に基づき、前記ノイズ画像と前記第二サンプル画像との間の第二構造差異損失を特定する時に、対応関係を有する位置が対応する前記第三構造特徴と前記第二構造特徴との間の距離を計算し、前記ノイズ画像が対応する全ての前記第三構造特徴と前記第二構造特徴との間の距離に基づき、前記ノイズ画像と前記第二サンプル画像との間の第二構造差異損失を特定するように構成される、項目33または34に記載の装置。
(項目36)
前記ネットワーク訓練ユニットは、具体的に、第三反復処理において、前記第一構造差異損失、前記特徴損失および前記色損失に基づいて、前記画像生成ネットワークのネットワークパラメータを調整し、第四反復処理において、前記第一構造差異損失および前記第二構造差異損失に基づいて前記構造分析ネットワークのネットワークパラメータを調整し、訓練停止条件が満たされるようになるまで前記第三反復処理及び前記第四反復処理を行い、訓練後の画像生成ネットワークを得るように構成され、ここで、前記第三反復処理と前記第四反復処理は連続的に実行される二回の反復処理である、項目32から35のいずれか一項に記載の装置。
(項目37)
前記第一構造差異特定モジュールはさらに、画像再構成ネットワークに基づいて前記少なくとも一つの第一構造特徴に対して画像再構成処理を行い、第一再構成画像を得て、前記第一再構成画像および前記予測目標画像に基づいて第一再構成損失を特定するように構成される、項目25から36のいずれか一項に記載の装置。
(項目38)
前記第一構造差異特定モジュールはさらに、画像再構成ネットワークに基づいて前記少なくとも一つの第二構造特徴に対して画像再構成処理を行い、第二再構成画像を得て、前記第二再構成画像および前記第二サンプル画像に基づいて第二再構成損失を特定するように構成される、項目37に記載の装置。
(項目39)
前記ネットワーク訓練ユニットは、具体的に、第五反復処理において、前記第一構造差異損失、前記特徴損失および前記色損失に基づいて、前記画像生成ネットワークのネットワークパラメータを調整し、第六反復処理において、前記第一構造差異損失、前記第二構造差異損失、前記第一再構成損失および前記第二再構成損失に基づいて前記構造分析ネットワークのネットワークパラメータを調整し、訓練停止条件が満たされるようになるまで前記第五反復処理及び前記第六反復処理を行い、訓練後の画像生成ネットワークを得るように構成され、ここで、前記第五反復処理と前記第六反復処理は連続的に実行される二回の反復処理である、項目38に記載の装置。
(項目40)
さらに、
前記訓練後の画像生成ネットワークに基づいて処理待ち画像を処理し、目標画像を得るように構成された画像処理ユニットを含む、項目22から39のいずれか一項に記載の装置。
(項目41)
前記処理待ち画像は左眼画像を含み、前記目標画像は前記左眼画像に対応する右眼画像を含む、項目40に記載の装置。
(項目42)
三次元画像生成シーンで、左眼画像を画像生成ネットワークに入力し、右眼画像を得るように構成された右眼画像取得ユニットと、
前記左眼画像および前記右眼画像に基づいて三次元画像を生成するように構成された三次元画像生成ユニットと、を含み、
ここで、前記画像生成ネットワークは上記項目1から20のいずれか一項に記載の画像生成ネットワークの訓練方法によって訓練して得られる、画像処理装置。
(項目43)
項目22から41のいずれか一項に記載の画像生成ネットワークの訓練装置または項目42に記載の画像処理装置を含むプロセッサを含む、電子機器。
(項目44)
プロセッサと、
プロセッサ実行可能命令を記憶するためのメモリと、を含み、
ここで、前記プロセッサは、前記実行可能命令を実行する時に項目1から20のいずれか一項に記載の画像生成ネットワークの訓練方法、および/または項目21に記載の画像処理方法を実現するように構成される、電子機器。
(項目45)
コンピュータ可読命令が記憶されているコンピュータ記憶媒体であって、前記命令は実行される時に項目1から20のいずれか一項に記載の画像生成ネットワークの訓練方法の動作、および/または項目21に記載の画像処理方法の動作を実行する、コンピュータ記憶媒体。
(項目46)
コンピュータ可読コードを含むコンピュータプログラム製品であって、前記コンピュータ可読コードが機器において運用される時、前記機器内のプロセッサは項目1から20のいずれか一項に記載の画像生成ネットワークの訓練方法を実現するための命令、および/または項目21に記載の画像処理方法を実現するための命令を実行する、コンピュータプログラム製品。
上記図1および/または図2に示す実施例におけるステップ130および/またはステップ230は、
構造分析ネットワークに基づいて予測目標画像および第二サンプル画像を処理し、予測目標画像と第二サンプル画像との間の第一構造差異損失を特定するステップ302と、
構造分析ネットワークに基づいて予測目標画像と第二サンプル画像との間の特徴損失を特定するステップ304と、を含む。
訓練後の画像生成ネットワークに基づいて処理待ち画像を処理し、目標画像を得ることを含む。
実の右画像
三次元画像生成シーンで、左眼画像を画像生成ネットワークに入力し、右眼画像を得るステップ510と、
左眼画像および右眼画像に基づいて三次元画像を生成するステップ520と、を含む。
差異損失特定ユニット63は、構造分析ネットワークに基づいて予測目標画像および第二サンプル画像を処理し、予測目標画像と第二サンプル画像との間の第一構造差異損失を特定するように構成された第一構造差異特定モジュールと、構造分析ネットワークに基づいて予測目標画像と第二サンプル画像との間の特徴損失を特定するように構成された特徴損失特定モジュールと、を含む。
第一構造差異特定モジュールは、少なくとも一つの第一構造特徴および少なくとも一つの第二構造特徴に基づき、予測目標画像と第二サンプル画像との間の第一構造差異損失を特定する場合に、対応関係を有する位置が対応する第一構造特徴と第二構造特徴との間の距離を計算し、予測目標画像が対応する全ての第一構造特徴と第二構造特徴との間の距離に基づき、予測目標画像と第二サンプル画像との間の第一構造差異損失を特定するように構成される。
特徴損失特定モジュールは、少なくとも一つの第一特徴マップおよび少なくとも一つの第二特徴マップに基づき、予測目標画像と第二サンプル画像との間の特徴損失を特定する場合に、対応関係を有する位置が対応する第一特徴マップにおける特徴と第二特徴マップにおける特徴との間の距離を計算し、第一特徴マップにおける特徴と第二特徴マップにおける特徴との間の距離に基づき、予測目標画像と第二サンプル画像との間の特徴損失を特定するように構成される。
差異損失特定ユニット63はさらに、予測目標画像と第二サンプル画像との間の色差に基づき、画像生成ネットワークの色損失を特定するように構成された色損失特定モジュールを含み、ネットワーク訓練ユニット64は、具体的に、第一反復処理において、第一構造差異損失、特徴損失および色損失に基づいて画像生成ネットワークのネットワークパラメータを調整し、第二反復処理において、第一構造差異損失に基づいて構造分析ネットワークのネットワークパラメータを調整し、訓練停止条件が満たされるようになるまで前記第一反復処理及び前記第二反復処理を行い、訓練後の画像生成ネットワークを得るように構成される。
第二構造差異損失ユニットは、少なくとも一つの第三構造特徴および少なくとも一つの第二構造特徴に基づき、ノイズ画像と第二サンプル画像との間の第二構造差異損失を特定する場合に、対応関係を有する位置が対応する第三構造特徴と第二構造特徴との間の距離を計算し、ノイズ画像が対応する全ての第三構造特徴と第二構造特徴との間の距離に基づき、ノイズ画像と第二サンプル画像との間の第二構造差異損失を特定するように構成される。
Claims (24)
- 画像生成ネットワークを訓練する方法であって、前記方法は、
第一サンプル画像と前記第一サンプル画像に対応する第二サンプル画像とを含むサンプル画像を取得することと、
画像生成ネットワークに基づいて前記第一サンプル画像を処理することにより、予測目標画像を得ることと、
前記予測目標画像と前記第二サンプル画像との間の差異損失を特定することと、
前記差異損失に基づいて前記画像生成ネットワークを訓練することにより、訓練後の画像生成ネットワークを得ることと
を含み、
前記差異損失は、第一構造差異損失および特徴損失を含み、
前記予測目標画像と前記第二サンプル画像との間の差異損失を特定することは、
構造分析ネットワークに基づいて前記予測目標画像および前記第二サンプル画像を処理することにより、前記予測目標画像と前記第二サンプル画像との間の第一構造差異損失を特定することと、
前記構造分析ネットワークに基づいて前記予測目標画像と前記第二サンプル画像との間の特徴損失を特定することと
を含む、方法。 - 前記予測目標画像と前記第二サンプル画像との間の差異損失を特定することは、前記構造分析ネットワークに基づいて前記予測目標画像と前記第二サンプル画像との間の差異損失を特定することを含み、
前記差異損失に基づいて前記画像生成ネットワークを訓練することにより、訓練後の画像生成ネットワークを得ることは、前記差異損失に基づいて前記画像生成ネットワークと前記構造分析ネットワークとに対して敵対的訓練を行うことにより、訓練後の画像生成ネットワークを得ることを含む、請求項1に記載の方法。 - 構造分析ネットワークに基づいて前記予測目標画像および前記第二サンプル画像を処理することにより、前記予測目標画像と前記第二サンプル画像との間の第一構造差異損失を特定することは、
前記構造分析ネットワークに基づいて前記予測目標画像を処理することにより、前記予測目標画像における少なくとも一つの位置の少なくとも一つの第一構造特徴を特定することと、
前記構造分析ネットワークに基づいて前記第二サンプル画像を処理することにより、前記第二サンプル画像における少なくとも一つの位置の少なくとも一つの第二構造特徴を特定することと、
前記少なくとも一つの第一構造特徴および前記少なくとも一つの第二構造特徴に基づき、前記予測目標画像と前記第二サンプル画像との間の第一構造差異損失を特定することと
を含む、請求項1に記載の方法。 - 前記構造分析ネットワークに基づいて前記予測目標画像を処理することにより、前記予測目標画像における少なくとも一つの位置の少なくとも一つの第一構造特徴を特定することは、
前記構造分析ネットワークに基づいて前記予測目標画像を処理することにより、少なくとも一つのスケールにおける前記予測目標画像の第一特徴マップを得ることと、
各前記第一特徴マップに対して、前記第一特徴マップにおける少なくとも一つの位置の各々の特徴と前記位置の隣接領域特徴とのコサイン距離に基づき、前記予測目標画像の少なくとも一つの第一構造特徴を得ることと
を含み、
前記第一特徴マップにおける各位置は、それぞれ一つの第一構造特徴に対応し、前記隣接領域特徴は、前記位置を中心として少なくとも二つの位置を含む領域内の各特徴である、請求項3に記載の方法。 - 前記構造分析ネットワークに基づいて前記第二サンプル画像を処理することにより、前記第二サンプル画像における少なくとも一つの位置の少なくとも一つの第二構造特徴を特定することは、
前記構造分析ネットワークに基づいて前記第二サンプル画像を処理することにより、少なくとも一つのスケールにおける前記第二サンプル画像の第二特徴マップを得ることと、
各前記第二特徴マップに対して、前記第二特徴マップにおける少なくとも一つの位置の各々の特徴と前記位置の隣接領域特徴とのコサイン距離に基づき、前記第二サンプル画像の少なくとも一つの第二構造特徴を得ることと
を含み、
前記第二特徴マップにおける各位置は、それぞれ一つの第二構造特徴に対応する、請求項4に記載の方法。 - 前記第一特徴マップにおける各位置と前記第二特徴マップにおける各位置とは、対応関係を有し、
前記少なくとも一つの第一構造特徴および前記少なくとも一つの第二構造特徴に基づき、前記予測目標画像と前記第二サンプル画像との間の第一構造差異損失を特定することは、
対応関係を有する位置が対応する前記第一構造特徴と前記第二構造特徴との間の距離を計算することと、
前記予測目標画像が対応する全ての前記第一構造特徴と前記第二構造特徴との間の距離に基づき、前記予測目標画像と前記第二サンプル画像との間の第一構造差異損失を特定することと
を含む、請求項5に記載の方法。 - 前記構造分析ネットワークに基づいて前記予測目標画像と前記第二サンプル画像との間の特徴損失を特定することは、
前記構造分析ネットワークに基づいて前記予測目標画像および前記第二サンプル画像を処理することにより、少なくとも一つのスケールにおける前記予測目標画像の第一特徴マップおよび少なくとも一つのスケールにおける前記第二サンプル画像の第二特徴マップを得ることと、
前記少なくとも一つの第一特徴マップおよび前記少なくとも一つの第二特徴マップに基づき、前記予測目標画像と前記第二サンプル画像との間の特徴損失を特定することと
を含む、請求項1から6のいずれか一項に記載の方法。 - 前記第一特徴マップにおける各位置と前記第二特徴マップにおける各位置とは、対応関係を有し、
前記少なくとも一つの第一特徴マップおよび前記少なくとも一つの第二特徴マップに基づき、前記予測目標画像と前記第二サンプル画像との間の特徴損失を特定することは、
対応関係を有する位置が対応する前記第一特徴マップにおける特徴と前記第二特徴マップにおける特徴との間の距離を計算することと、
前記第一特徴マップにおける特徴と前記第二特徴マップにおける特徴との間の距離に基づき、前記予測目標画像と前記第二サンプル画像との間の特徴損失を特定することと
を含む、請求項7に記載の方法。 - 前記差異損失は、色損失をさらに含み、前記差異損失に基づいて前記画像生成ネットワークを訓練することにより、訓練後の画像生成ネットワークを得る前に、前記方法は、
前記予測目標画像と前記第二サンプル画像との間の色差に基づき、前記画像生成ネットワークの色損失を特定することをさらに含み、
前記差異損失に基づいて前記画像生成ネットワークと前記構造分析ネットワークとに対して敵対的訓練を行うことにより、訓練後の画像生成ネットワークを得ることは、
第一反復処理において、前記第一構造差異損失および前記特徴損失および前記色損失に基づいて、前記画像生成ネットワークのネットワークパラメータを調整することと、
第二反復処理において、前記第一構造差異損失に基づいて前記構造分析ネットワークのネットワークパラメータを調整することと、
訓練停止条件が満たされるようになるまで前記第一反復処理および前記第二反復処理を行うことにより、訓練後の画像生成ネットワークを得ることと
を含み、
前記第一反復処理および前記第二反復処理は、連続的に実行される二回の反復処理である、請求項5から8のいずれか一項に記載の方法。 - 前記方法は、
前記予測目標画像と前記第二サンプル画像との間の差異損失を特定する前に、
前記第二サンプル画像にノイズを注入することにより、ノイズ画像を得ることと、
前記ノイズ画像および前記第二サンプル画像に基づいて第二構造差異損失を特定することと
をさらに含む、請求項9に記載の方法。 - 前記ノイズ画像および前記第二サンプル画像に基づいて第二構造差異損失を特定することは、
前記構造分析ネットワークに基づいて前記ノイズ画像を処理することにより、前記ノイズ画像における少なくとも一つの位置の少なくとも一つの第三構造特徴を特定することと、
前記構造分析ネットワークに基づいて前記第二サンプル画像を処理することにより、前記第二サンプル画像における少なくとも一つの位置の前記少なくとも一つの第二構造特徴を特定することと、
前記少なくとも一つの第三構造特徴および前記少なくとも一つの第二構造特徴に基づき、前記ノイズ画像と前記第二サンプル画像との間の第二構造差異損失を特定することと
を含む、請求項10に記載の方法。 - 前記構造分析ネットワークに基づいて前記ノイズ画像を処理することにより、前記ノイズ画像における少なくとも一つの位置の少なくとも一つの第三構造特徴を特定することは、
前記構造分析ネットワークに基づいて前記ノイズ画像を処理することにより、少なくとも一つのスケールにおける前記ノイズ画像の第三特徴マップを得ることと、
各前記第三特徴マップに対して、前記第三特徴マップにおける少なくとも一つの位置の各々の特徴と前記位置の隣接領域特徴とのコサイン距離に基づき、前記ノイズ画像の少なくとも一つの第三構造特徴を得ることと
を含み、
前記第三特徴マップにおける各位置は、それぞれ一つの第三構造特徴に対応し、前記隣接領域特徴は、前記位置を中心として少なくとも二つの位置を含む領域内の各特徴である、請求項11に記載の方法。 - 前記第三特徴マップにおける各位置と前記第二特徴マップにおける各位置とは、対応関係を有し、
前記少なくとも一つの第三構造特徴および前記少なくとも一つの第二構造特徴に基づき、前記ノイズ画像と前記第二サンプル画像との間の第二構造差異損失を特定することは、
対応関係を有する位置が対応する前記第三構造特徴と前記第二構造特徴との間の距離を計算することと、
前記ノイズ画像が対応する全ての前記第三構造特徴と前記第二構造特徴との間の距離に基づき、前記ノイズ画像と前記第二サンプル画像との間の第二構造差異損失を特定することと
を含む、請求項12に記載の方法。 - 前記差異損失に基づいて前記画像生成ネットワークと前記構造分析ネットワークとに対して敵対的訓練を行うことにより、訓練後の画像生成ネットワークを得ることは、
第三反復処理において、前記第一構造差異損失および前記特徴損失および前記色損失に基づいて、前記画像生成ネットワークのネットワークパラメータを調整することと、
第四反復処理において、前記第一構造差異損失および前記第二構造差異損失に基づいて前記構造分析ネットワークのネットワークパラメータを調整することと、
訓練停止条件が満たされるようになるまで前記第三反復処理および前記第四反復処理を行うことにより、訓練後の画像生成ネットワークを得ることと
を含み、
前記第三反復処理および前記第四反復処理は、連続的に実行される二回の反復処理である、請求項10から13のいずれか一項に記載の方法。 - 前記方法は、
前記構造分析ネットワークに基づいて前記予測目標画像を処理することにより、前記予測目標画像における少なくとも一つの位置の少なくとも一つの第一構造特徴を特定した後に、
画像再構成ネットワークに基づいて前記少なくとも一つの第一構造特徴に対して画像再構成処理を行うことにより、第一再構成画像を得ることと、
前記第一再構成画像および前記予測目標画像に基づいて第一再構成損失を特定することと
をさらに含む、請求項10から14のいずれか一項に記載の方法。 - 前記方法は、
前記構造分析ネットワークに基づいて前記第二サンプル画像を処理することにより、前記第二サンプル画像における少なくとも一つの位置の少なくとも一つの第二構造特徴を特定した後に、
画像再構成ネットワークに基づいて前記少なくとも一つの第二構造特徴に対して画像再構成処理を行うことにより、第二再構成画像を得ることと、
前記第二再構成画像および前記第二サンプル画像に基づいて第二再構成損失を特定することと
をさらに含む、請求項15に記載の方法。 - 前記差異損失に基づいて前記画像生成ネットワークと構造分析ネットワークとに対して敵対的訓練を行うことにより、訓練後の画像生成ネットワークを得ることは、
第五反復処理において、前記第一構造差異損失および前記特徴損失および前記色損失に基づいて、前記画像生成ネットワークのネットワークパラメータを調整することと、
第六反復処理において、前記第一構造差異損失および前記第二構造差異損失および前記第一再構成損失および前記第二再構成損失に基づいて前記構造分析ネットワークのネットワークパラメータを調整することと、
訓練停止条件が満たされるようになるまで前記第五反復処理および前記第六反復処理を行うことにより、訓練後の画像生成ネットワークを得ることと
を含み、
前記第五反復処理および前記第六反復処理は、連続的に実行される二回の反復処理である、請求項16に記載の方法。 - 前記構造分析ネットワークは、カラー画像を入力とする、請求項1に記載の方法。
- 画像を処理する方法であって、前記方法は、
三次元画像生成シーンで、左眼画像を画像生成ネットワークに入力することにより、右眼画像を得ることと、
前記左眼画像および前記右眼画像に基づいて三次元画像を生成することと
を含み、
前記画像生成ネットワークは、請求項1から18のいずれか一項に記載の画像生成ネットワークを訓練する方法によって訓練することによって得られる、方法。 - 画像生成ネットワークの訓練装置であって、前記画像生成ネットワークの訓練装置は、
第一サンプル画像と前記第一サンプル画像に対応する第二サンプル画像とを含むサンプル画像を取得するように構成されているサンプル取得ユニットと、
画像生成ネットワークに基づいて前記第一サンプル画像を処理することにより、予測目標画像を得るように構成されている目標予測ユニットと、
前記予測目標画像と前記第二サンプル画像との間の差異損失を特定するように構成されている差異損失特定ユニットと、
前記差異損失に基づいて前記画像生成ネットワークを訓練することにより、訓練後の画像生成ネットワークを得るように構成されているネットワーク訓練ユニットと
を含み、
前記差異損失は第一構造差異損失および特徴損失を含み、
前記差異損失特定ユニットは、
構造分析ネットワークに基づいて前記予測目標画像および前記第二サンプル画像を処理することにより、前記予測目標画像と前記第二サンプル画像との間の第一構造差異損失を特定することと、
前記構造分析ネットワークに基づいて前記予測目標画像と前記第二サンプル画像との間の特徴損失を特定することと
を実行するように構成されている、画像生成ネットワークの訓練装置。 - 画像処理装置であって、前記画像処理装置は、
三次元画像生成シーンで、左眼画像を画像生成ネットワークに入力することにより、右眼画像を得るように構成されている右眼画像取得ユニットと、
前記左眼画像および前記右眼画像に基づいて三次元画像を生成するように構成されている三次元画像生成ユニットと
を含み、
前記画像生成ネットワークは、請求項1から18のいずれか一項に記載の画像生成ネットワークを訓練する方法によって訓練して得られる、画像処理装置。 - 電子機器であって、前記電子機器は、
プロセッサと、
プロセッサ実行可能な命令を記憶するためのメモリと
を含み、
前記プロセッサは、前記実行可能な命令を実行する時に請求項1から18のいずれか一項に記載の画像生成ネットワークを訓練する方法、および/または、請求項19に記載の画像を処理する方法を実現するように構成されている、電子機器。 - コンピュータ読み取り可能な命令が記憶されているコンピュータ記憶媒体であって、前記命令は実行される時に請求項1から18のいずれか一項に記載の画像生成ネットワークを訓練する方法の動作、および/または、請求項19に記載の画像を処理する方法の動作を実行する、コンピュータ記憶媒体。
- コンピュータ読み取り可能なコードを含むコンピュータプログラムであって、前記コンピュータ読み取り可能なコードが機器において運用される時、前記機器内のプロセッサは、請求項1から18のいずれか一項に記載の画像生成ネットワークを訓練する方法を実現するための命令、および/または、請求項19に記載の画像を処理する方法を実現するための命令を実行する、コンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910363957.5A CN110322002B (zh) | 2019-04-30 | 2019-04-30 | 图像生成网络的训练及图像处理方法和装置、电子设备 |
CN201910363957.5 | 2019-04-30 | ||
PCT/CN2019/101457 WO2020220516A1 (zh) | 2019-04-30 | 2019-08-19 | 图像生成网络的训练及图像处理方法、装置、电子设备、介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021525401A JP2021525401A (ja) | 2021-09-24 |
JP7026222B2 true JP7026222B2 (ja) | 2022-02-25 |
Family
ID=68113358
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020524341A Active JP7026222B2 (ja) | 2019-04-30 | 2019-08-19 | 画像生成ネットワークの訓練および画像処理方法、装置、電子機器、ならびに媒体 |
Country Status (6)
Country | Link |
---|---|
JP (1) | JP7026222B2 (ja) |
KR (1) | KR20200128378A (ja) |
CN (1) | CN110322002B (ja) |
SG (1) | SG11202004325RA (ja) |
TW (1) | TWI739151B (ja) |
WO (1) | WO2020220516A1 (ja) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111242844B (zh) * | 2020-01-19 | 2023-09-22 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、服务器和存储介质 |
CN113139893B (zh) * | 2020-01-20 | 2023-10-03 | 北京达佳互联信息技术有限公司 | 图像翻译模型的构建方法和装置、图像翻译方法和装置 |
CN111325693B (zh) * | 2020-02-24 | 2022-07-12 | 西安交通大学 | 一种基于单视点rgb-d图像的大尺度全景视点合成方法 |
CN111475618B (zh) * | 2020-03-31 | 2023-06-13 | 百度在线网络技术(北京)有限公司 | 用于生成信息的方法和装置 |
WO2022099613A1 (zh) * | 2020-11-13 | 2022-05-19 | 华为技术有限公司 | 图像生成模型的训练方法、新视角图像生成方法及装置 |
CN112884124A (zh) * | 2021-02-24 | 2021-06-01 | 中国工商银行股份有限公司 | 神经网络的训练方法及设备、图像处理方法及设备 |
TWI790560B (zh) * | 2021-03-03 | 2023-01-21 | 宏碁股份有限公司 | 並排影像偵測方法與使用該方法的電子裝置 |
CN112927172B (zh) * | 2021-05-10 | 2021-08-24 | 北京市商汤科技开发有限公司 | 图像处理网络的训练方法和装置、电子设备和存储介质 |
CN113311397B (zh) * | 2021-05-25 | 2023-03-10 | 西安电子科技大学 | 基于卷积神经网络的大型阵列快速自适应抗干扰方法 |
CN113900608B (zh) * | 2021-09-07 | 2024-03-15 | 北京邮电大学 | 立体三维光场的显示方法、装置、电子设备及介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108495110A (zh) | 2018-01-19 | 2018-09-04 | 天津大学 | 一种基于生成式对抗网络的虚拟视点图像生成方法 |
CN109166144A (zh) | 2018-07-20 | 2019-01-08 | 中国海洋大学 | 一种基于生成对抗网络的图像深度估计方法 |
CN109191409A (zh) | 2018-07-25 | 2019-01-11 | 北京市商汤科技开发有限公司 | 图像处理、网络训练方法、装置、电子设备和存储介质 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI612433B (zh) * | 2016-11-17 | 2018-01-21 | 財團法人工業技術研究院 | 整體式學習預測裝置與方法、以及非暫存電腦可讀的儲存媒介 |
US10474929B2 (en) * | 2017-04-25 | 2019-11-12 | Nec Corporation | Cyclic generative adversarial network for unsupervised cross-domain image generation |
CN108229494B (zh) * | 2017-06-16 | 2020-10-16 | 北京市商汤科技开发有限公司 | 网络训练方法、处理方法、装置、存储介质和电子设备 |
CN108229526B (zh) * | 2017-06-16 | 2020-09-29 | 北京市商汤科技开发有限公司 | 网络训练、图像处理方法、装置、存储介质和电子设备 |
US10578869B2 (en) * | 2017-07-24 | 2020-03-03 | Mentor Acquisition One, Llc | See-through computer display systems with adjustable zoom cameras |
CN109191402B (zh) * | 2018-09-03 | 2020-11-03 | 武汉大学 | 基于对抗生成神经网络的图像修复方法和系统 |
CN109635745A (zh) * | 2018-12-13 | 2019-04-16 | 广东工业大学 | 一种基于生成对抗网络模型生成多角度人脸图像的方法 |
CN110163193B (zh) * | 2019-03-25 | 2021-08-06 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、计算机可读存储介质和计算机设备 |
-
2019
- 2019-04-30 CN CN201910363957.5A patent/CN110322002B/zh active Active
- 2019-08-19 WO PCT/CN2019/101457 patent/WO2020220516A1/zh active Application Filing
- 2019-08-19 KR KR1020207012581A patent/KR20200128378A/ko not_active Application Discontinuation
- 2019-08-19 JP JP2020524341A patent/JP7026222B2/ja active Active
- 2019-08-19 SG SG11202004325RA patent/SG11202004325RA/en unknown
- 2019-09-03 TW TW108131747A patent/TWI739151B/zh active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108495110A (zh) | 2018-01-19 | 2018-09-04 | 天津大学 | 一种基于生成式对抗网络的虚拟视点图像生成方法 |
CN109166144A (zh) | 2018-07-20 | 2019-01-08 | 中国海洋大学 | 一种基于生成对抗网络的图像深度估计方法 |
CN109191409A (zh) | 2018-07-25 | 2019-01-11 | 北京市商汤科技开发有限公司 | 图像处理、网络训练方法、装置、电子设备和存储介质 |
Non-Patent Citations (2)
Title |
---|
Jyh-Jing Hwang et al.,Adversarial Structure Matching for Structured Prediction Tasks,[online],2018年05月18日,[2021.08.24検索], インターネット, <URL:https://arxiv.org/pdf/1805.07457.pdf> |
Yuan Xue et al.,SegAN: Adversarial Network with Multi-scale L1 Loss for Medical Image Segmentation,[online],2017年07月16日, [2021.08.24検索], インターネット, <URL:https://arxiv.org/pdf/1706.01805.pdf> |
Also Published As
Publication number | Publication date |
---|---|
JP2021525401A (ja) | 2021-09-24 |
TWI739151B (zh) | 2021-09-11 |
TW202042176A (zh) | 2020-11-16 |
CN110322002B (zh) | 2022-01-04 |
WO2020220516A1 (zh) | 2020-11-05 |
CN110322002A (zh) | 2019-10-11 |
KR20200128378A (ko) | 2020-11-12 |
SG11202004325RA (en) | 2020-12-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7026222B2 (ja) | 画像生成ネットワークの訓練および画像処理方法、装置、電子機器、ならびに媒体 | |
CN111275518B (zh) | 一种基于混合光流的视频虚拟试穿方法及装置 | |
CN105654492B (zh) | 基于消费级摄像头的鲁棒实时三维重建方法 | |
KR20190100320A (ko) | 이미지 처리를 위한 신경망 모델 훈련 방법, 장치 및 저장 매체 | |
US20190287283A1 (en) | User-guided image completion with image completion neural networks | |
JP5645842B2 (ja) | スケールスペースを使用した画像処理装置及び方法 | |
US20200349391A1 (en) | Method for training image generation network, electronic device, and storage medium | |
WO2022188282A1 (zh) | 基于物理感知的三维流体逆向建模方法 | |
CN110796593A (zh) | 基于人工智能的图像处理方法、装置、介质及电子设备 | |
CN102136156B (zh) | 用于介观几何结构调制的系统和方法 | |
JP7432005B2 (ja) | 二次元画像の三次元化方法、装置、機器及びコンピュータプログラム | |
JP2022525552A (ja) | 高分解能なリアルタイムでのアーティスティックスタイル転送パイプライン | |
CN107018400B (zh) | 一种将2d视频转换成3d视频的方法 | |
Wu et al. | [Retracted] 3D Film Animation Image Acquisition and Feature Processing Based on the Latest Virtual Reconstruction Technology | |
US20230290132A1 (en) | Object recognition neural network training using multiple data sources | |
Nie et al. | Physics-preserving fluid reconstruction from monocular video coupling with SFS and SPH | |
CN108769644B (zh) | 一种基于深度学习的双目动画风格化渲染方法 | |
Li et al. | DGNR: Density-Guided Neural Point Rendering of Large Driving Scenes | |
Tsai et al. | A novel method for 2D-to-3D video conversion based on boundary information | |
CN114255328A (zh) | 一种基于单视图与深度学习的古文物三维重建方法 | |
Liu | Light image enhancement based on embedded image system application in animated character images | |
Lei et al. | [Retracted] Design of 3D Modeling Face Image Library in Multimedia Film and Television | |
Larey et al. | Facial Expression Retargeting from a Single Character | |
CN117241065B (zh) | 视频插帧图像生成方法、装置、计算机设备和存储介质 | |
CN115243025B (zh) | 三维渲染方法、装置、终端设备以及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200430 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200430 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210827 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211018 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220207 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220214 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7026222 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |