JP2024502326A - 2dイメージを3dモデルへと変換するために構成されたニューラル・ネットワークを訓練する方法 - Google Patents

2dイメージを3dモデルへと変換するために構成されたニューラル・ネットワークを訓練する方法 Download PDF

Info

Publication number
JP2024502326A
JP2024502326A JP2023539969A JP2023539969A JP2024502326A JP 2024502326 A JP2024502326 A JP 2024502326A JP 2023539969 A JP2023539969 A JP 2023539969A JP 2023539969 A JP2023539969 A JP 2023539969A JP 2024502326 A JP2024502326 A JP 2024502326A
Authority
JP
Japan
Prior art keywords
model
pose
character
image
substeps
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023539969A
Other languages
English (en)
Inventor
カガルリツキー,フセヴォロド
ケイナン,シャーリー
バーンボイム,マイケル
グリーン,アミール
モケイチェブ,アリク
ヘケル,マイケル
バルーク,ヤイル
ウォホルスタドテール,ギル
タルモン,ギラッド
タミール,マイケル
Original Assignee
ユーム.コム リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ユーム.コム リミテッド filed Critical ユーム.コム リミテッド
Publication of JP2024502326A publication Critical patent/JP2024502326A/ja
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/261Image signal generators with monoscopic-to-stereoscopic image conversion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/08Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Image Generation (AREA)

Abstract

2Dイメージを3Dモデルへと変換するように構成されるニューラル・ネットワークを訓練するためのデータベースを生成するための、コンピュータ実装される方法は、(a)3Dモデルを得るステップと、(b)少なくとも1つの視点から前記の3Dモデルを2Dフォーマットにレンダリングするステップと、(c)レンダリングされた前記2Dイメージ・フレームと、対応するサンプリングされた前記3Dモデルとのそれぞれを更に含む対を集めるステップとを含む。

Description

本発明は、ニューラル・ネットワークによるイメージ処理と関連し、より具体的には、2Dイメージ・フレームを3Dモデルへと変換することと関連する。
仮想/拡張現実コンテンツを維持する技術は、現在の社会において話題性のある技術となっており、生活における様々な場面に適用されている。3Dコンテンツは貧弱であり、また、それを撮影することに多くの費用がかかることが、現在の3Dビデオの開発を制限する1つの要因である。
この技術では、2Dイメージをボリュメトリック・イメージへと変換するためにニューラル・ネットワークを使用できることが、知られている。例えば、CN10706745は、完全畳み込み(full convolutional)ニューラル・ネットワークに基づいて2Dフィルムを3Dフィルムへと変換する方法を開示する。当該方法は、1)写真撮影されたフィルムの2Dビデオの各フレームの2Dイメージを抽出するステップと、2)完全畳み込みニューラル・ネットワークを用いて各フレームの2Dイメージの特徴を抽出し、深度値を計算するステップと、3)各フレームの2Dイメージを、その深度値に従って彩色して、対応する3Dイメージを生成するステップと、4)全ての3Dイメージを連続的にまとめて3Dフィルムにするステップとを含む。
ニューラル・ネットワークにより行われる変換の忠実度は、ニューラル・ネットワークの訓練に用いられるデータベースに応じたものとなる。従って、ニューラル・ネットワークの訓練に使用可能な、入力2Dイメージと出力3Dモデルとの対のデータベースを提供することが求められているが、長く放置されて未だに対処されていない。
従って、本発明の1つの目的は、2Dイメージを3Dモデルへと変換するように構成されるニューラル・ネットワークを訓練するためのデータベースを生成するための、コンピュータ実装される方法を開示することである。データベースは、収集した前記の2Dイメージとそれに対応する3Dモデルとを含む。上記の方法は、(a)サブステップのうちの少なくとも1つのものにより3Dモデルを得るステップであって、前記サブステップは、(i)所定のポーズの少なくとも1つのキャラクタの3Dモデルを得て、前記3Dモデルのリギングおよびスキニングを行い、前記3Dモデルを目的のポーズへと動かすサブステップと、(ii)静的ポーズの前記少なくとも1つのキャラクタの複数のボリュメトリック・イメージ・フレームをキャプチャするサブステップと、(iii)運動している前記少なくとも1つのキャラクタのボリュメトリック・ビデオをキャプチャするサブステップとであり、前記サブステップ(i)ないし(iii)における前記少なくとも1つのキャラクタは互いに同じ又は互いに異なるものである、前記サブステップのうちの少なくとも1つのものにより3Dモデルを得るステップと、(b)前記3Dモデルを2Dフォーマットにレンダリングするステップと、(c)レンダリングされた前記2Dイメージ・フレームと、対応するサンプリングされた前記3Dモデルとをそれぞれに含む対を更に集めるステップとを含む。
本発明の更なる目的は、ステップaで得た前記3Dモデルをサンプリングすることを含む請求項1に記載の方法を提供することである。
本発明の更なる目的は、前記3Dモデルを少なくとも1つの2Dイメージへ投影して、それに基づく3Dポーズ見積を計算することにより、前記3Dモデルの前記のリギングおよびスキニングすることを提供することである。
本発明の更なる目的は、自動的な形で行われる前記3Dモデルの前記のリギングおよびスキニングすることを提供することである。
本発明の更なる目的は、2Dイメージを3Dモデルへと変換するために構成されたニューラル・ネットワークを訓練するために使用可能な前記データベースを提供することである。
本発明の更なる目的は、TポーズまたはAポーズとして限定の無い形で定められる前記静的ポーズを提供することである。
本発明の更なる目的は、2Dイメージを3Dモデルへと変換するように構成されるニューラル・ネットワークを訓練するためのデータベースを生成するための、コンピュータ実装されるシステムを開示することである。データベースは、収集した前記の2Dイメージとそれに対応する3Dモデルとを含む。前記のコンピュータ実装されるシステムは、(a)プロセッサと、(b)命令を記憶するメモリとを含み、前記命令は、前記プロセッサにより実行されたときに、前記プロセッサへ、(i)サブステップのうちの少なくとも1つのものにより3Dモデルを得るステップであって、前記サブステップは、(1)所定のポーズの少なくとも1つのキャラクタの3Dモデルを得て、前記3Dモデルのリギングおよびスキニングを行い、前記3Dモデルを目的のポーズへと動かすサブステップと、(2)静的ポーズの前記少なくとも1つのキャラクタの複数のボリュメトリック・イメージ・フレームをキャプチャするサブステップと、(3)運動している前記少なくとも1つのキャラクタのボリュメトリック・ビデオをキャプチャするサブステップとであり、前記サブステップ(1)ないし(3)における前記少なくとも1つのキャラクタは互いに同じ又は互いに異なるものである、前記サブステップのうちの少なくとも1つのものにより3Dモデルを得るステップと、(ii)前記3Dモデルを2Dフォーマットにレンダリングするステップと、(iii)レンダリングされた前記2Dイメージ・フレームと、対応するサンプリングされた前記3Dモデルとをそれぞれに含む対を更に集めるステップとを行うことを指示する命令である。
本発明の更なる目的は、2Dイメージを3Dモデルへと変換するように構成されるニューラル・ネットワークを訓練するための方法を実行させるためのプロセッサへの命令を含む非一時的コンピュータ読取可能媒体を提供することである。上記の命令は、(a)サブステップのうちの少なくとも1つのものにより3Dモデルを得るステップであって、前記サブステップは、(i)所定のポーズの少なくとも1つのキャラクタの3Dモデルを得て、前記3Dモデルのリギングおよびスキニングを行い、前記3Dモデルを目的のポーズへと動かすサブステップと、(ii)静的ポーズの前記少なくとも1つのキャラクタの複数のボリュメトリック・イメージ・フレームをキャプチャするサブステップと、(iii)運動している前記少なくとも1つのキャラクタのボリュメトリック・ビデオをキャプチャするサブステップとであり、前記サブステップ(i)ないし(iii)における前記少なくとも1つのキャラクタは互いに同じ又は互いに異なるものである、前記サブステップのうちの少なくとも1つのものにより3Dモデルを得るステップと、(b)前記3Dモデルを2Dフォーマットにレンダリングするステップと、(c)レンダリングされた前記2Dイメージ・フレームと、対応するサンプリングされた前記3Dモデルとをそれぞれに含む対を更に集めるステップとを含む。
発明を理解できるように、および実際にどのように実装できるかを見せるために、ここで、単なる非限定的な例として、添付の図面を参照して複数の実施形態を用いて説明を行う。
図1ないし図3は、2Dイメージを3Dモデルへと変換するように構成されたニューラル・ネットワークを訓練するためのデータベースを生成する方法の代替的な実施形態のフローチャートである。 図1ないし図3は、2Dイメージを3Dモデルへと変換するように構成されたニューラル・ネットワークを訓練するためのデータベースを生成する方法の代替的な実施形態のフローチャートである。 図1ないし図3は、2Dイメージを3Dモデルへと変換するように構成されたニューラル・ネットワークを訓練するためのデータベースを生成する方法の代替的な実施形態のフローチャートである。
下記の説明は、何れの当業者も前記の発明を使用できるようにするために提供しており、この発明を実施するための発明者が考える最適の態様を記載している。しかしながら、当業者には、適合する様々な変更が残されていることは明らかであり、その理由は、本発明の包括的な本質は、具体的に、2Dイメージを3Dモデルへと変換するように構成されるニューラル・ネットワークを訓練するためのデータベースを生成するための、コンピュータ実装される方法と、前記の方法を実装するための、コンピュータ実装されるシステムと、前記の方法を実行させるためのプロセッサへの命令を含む非一時的コンピュータ読取可能媒体とを提供することと、定義しているからである。
本発明の目的は、ニューラル・ネットワークでの処理により2Dイメージを3Dモデルへと変更することが可能なツールを提供することである。より具体的な達成しようとする課題は、ユーザ定義の2Dイメージがニューラル・ネットワークにより高忠実度で3Dモデルへと変換されるように、ニューラル・ネットワークを訓練するためのデータベースを作成することである。
ここで、2Dイメージを3Dモデルへと変換するように構成されたニューラル・ネットワークを訓練するためのデータベースを生成する方法100のフローチャートを示す図1を参照する。開始のステップ110では、3Dモデルを取得することが、3つの方法のうちの少なくとも1つのものにより実施される。3つの選択できる方法のうちの第1のものを参照すると、キャラクタの3Dモデルが取得される(ステップ111)。
次に、取得した3Dモデルへリギングおよびスキニングを適用する(ステップ112)。3Dモデルを目的のポーズへと動かすことにより複数のイメージ・フレームを生成することができる(ステップ113)。3Dモデルを取得するための他の方法は、TポーズやAポーズなどのような様々な静的ポースの少なくとも1つのキャラクタのシングル・ボリュメトリック・イメージ・フレームをキャプチャすること(ステップ115)と、少なくとも1つのキャラクタのボリュメトリック・ビデオをキャプチャすること(ステップ117)とである。サブステップ111から117における少なくとも1つのキャラクタは、互いに同一であっても互いに異なっていてもよい。
ステップ110で生成された3Dモデルは、ニューラル・ネットワークを訓練するために使用可能な生データのボディを3Dモデル形成する。ステップ110で取得した3Dモデルは、少なくとも1つの視点から2Dイメージ・フォーマットへとレンダリングされる(ステップ130)。そして、最後に、レンダリングされた2Dイメージ・フレームと、対応するサンプリングされた3Dモデルとのそれぞれにより形成される対が、ニューラル・ネットワークを訓練するためのデータベースへ集められる。
ここで、第1の代替の実施形態100a示す図2を参照するが、実施形態100aは、ステップ110で取得した3Dモデルの一部をサンプリングする(ステップ119)ことが実施形態100とは異なる。サンプリングされた3Dモデルは、図1の方法100と同様に、2Dフォーマットへとレンダリングされる(ステップ130)。
ここで、第2の代替の実施形態100bを示す図2を参照する。前記3Dモデルを少なくとも1つの2Dイメージへ投影して、それに基づく3Dポーズ見積を計算することにより、3Dモデルのリギングおよびスキニング、メッシングを行うサブステップ112aへと、図1の方法100のサブステップ112が置き換えられている。3Dモデルに関するリギングおよびスキニングは、自動的な形で行うことができる。
上記の実施形態100、100a、および100bを実装するためのシステムと、これらの実施形態を実施させるためのプロセッサへの命令を含む非一時的コンピュータ読取可能媒体とは、本発明の範囲内にある。

Claims (18)

  1. 2Dイメージを3Dモデルへと変換するように構成されるニューラル・ネットワークを訓練するためのデータベースを生成するための、コンピュータ実装される方法であって、前記データベースは前記2Dイメージとそれに対応する3Dモデルとを含むものであり、
    a.サブステップのうちの少なくとも1つのものにより3Dモデルを得るステップであって、前記サブステップは、
    i.少なくとも1つのキャラクタの3Dモデルを得て、前記3Dモデルのリギングおよびスキニングを行い、前記3Dモデルを目的のポーズへと動かすサブステップと、
    ii.静的ポーズの前記少なくとも1つのキャラクタの複数のシングル・ボリュメトリック・イメージ・フレームをキャプチャするサブステップと、
    iii.運動している前記少なくとも1つのキャラクタのボリュメトリック・ビデオをキャプチャするサブステップと
    であり、前記サブステップ(i)ないし(iii)における前記少なくとも1つのキャラクタは互いに同じ又は互いに異なるものである、
    前記サブステップのうちの少なくとも1つのものにより3Dモデルを得るステップと、
    b.少なくとも1つの視点から前記3Dモデルを2Dフォーマットにレンダリングするステップと、
    c.レンダリングされた前記2Dイメージ・フレームと、対応するサンプリングされた前記3Dモデルとをそれぞれに含む対を更に集めるステップと
    を含む方法。
  2. 請求項1に記載の方法であって、前記ステップaで取得した前記3Dモデルをサンプリングすることを含む方法。
  3. 請求項1に記載の方法であって、前記3Dモデルの前記リギングおよび前記スキニングは、前記3Dモデルを少なくとも1つの2Dイメージへ投影して、それに基づく3Dポーズ見積を計算することにより行われる、方法。
  4. 請求項3に記載の方法であって、前記3Dモデルの前記リギングおよび前記スキニングは自動的な形で行われる、方法。
  5. 請求項1に記載の方法であって、前記データベースは、2Dイメージを3Dモデルへと変換するために構成されたニューラル・ネットワークを訓練するために使用可能である、方法。
  6. 請求項1に記載の方法であって、前記静的ポースの少なくとも1つはTポーズまたはAポーズである、方法。
  7. 2Dイメージを3Dモデルへと変換するように構成されるニューラル・ネットワークを訓練するためのデータベースを生成するための、コンピュータ実装されるシステムであって、前記データベースは収集した前記2Dイメージとそれに対応する3Dモデルとを含むものであり、
    a.プロセッサと、
    b.命令を記憶するメモリと
    を含み、前記命令は、前記プロセッサにより実行されたときに、前記プロセッサへ、
    i.サブステップのうちの少なくとも1つのものにより3Dモデルを得るステップであって、前記サブステップは、
    1.所定のポーズの少なくとも1つのキャラクタの3Dモデルを得て、前記3Dモデルのリギングおよびスキニングを行い、前記3Dモデルを目的のポーズへと動かすサブステップと、
    2.静的ポーズの前記少なくとも1つのキャラクタの複数のシングル・ボリュメトリック・イメージ・フレームをキャプチャするサブステップと、
    3.運動している前記少なくとも1つのキャラクタのボリュメトリック・ビデオをキャプチャするサブステップと
    である、前記サブステップのうちの少なくとも1つのものにより3Dモデルを得るステップと、
    ii.前記サブステップ1ないし3における前記少なくとも1つのキャラクタは互いに同じ又は互いに異なるものであり、前記ステップiで取得した3Dモデルをサンプリングするステップと、
    iii.前記3Dモデルを2Dフォーマットにレンダリングするステップと、
    iv.レンダリングされた前記2Dイメージ・フレームと、対応するサンプリングされた前記3Dモデルとをそれぞれに含む対を更に集めるステップと
    を行うことを指示する命令である、
    システム。
  8. 請求項7に記載のシステムであって、前記ステップaで取得した前記3Dモデルをサンプリングすることを含む、システム。
  9. 請求項7に記載のシステムであって、前記3Dモデルの前記リギングおよび前記スキニングは、前記3Dモデルを少なくとも1つの2Dイメージへ投影して、それに基づく3Dポーズ見積を計算することにより行われる、システム。
  10. 請求項9に記載のシステムであって、前記3Dモデルの前記リギングおよび前記スキニングは自動的な形で行われる、システム。
  11. 請求項7に記載のシステムであって、前記データベースは、2Dイメージを3Dモデルへと変換するために構成されたニューラル・ネットワークを訓練するために使用可能である、システム。
  12. 請求項7に記載のシステムであって、前記静的ポースの少なくとも1つはTポーズまたはAポーズである、システム。
  13. 2Dイメージを3Dモデルへと変換するように構成されるニューラル・ネットワークを訓練するための方法を実行させるためのプロセッサへの命令を含む非一時的コンピュータ読取可能媒体であって、前記命令は、
    a.サブステップのうちの少なくとも1つのものにより3Dモデルを得るステップであって、前記サブステップは、
    i.所定のポーズの少なくとも1つのキャラクタの3Dモデルを得て、前記3Dモデルのリギングおよびスキニングを行い、前記3Dモデルを目的のポーズへと動かすサブステップと、
    ii.静的ポーズの前記少なくとも1つのキャラクタの複数のボリュメトリック・イメージ・フレームをキャプチャするサブステップと、
    iii.運動している前記少なくとも1つのキャラクタのボリュメトリック・ビデオをキャプチャするサブステップと
    であり、前記サブステップiないしiiiにおける前記少なくとも1つのキャラクタは互いに同じ又は互いに異なるものである、
    前記サブステップのうちの少なくとも1つのものにより3Dモデルを得るステップと、
    b.前記3Dモデルを2Dフォーマットにレンダリングするステップと、
    c.レンダリングされた前記2Dイメージ・フレームと、対応するサンプリングされた前記3Dモデルとをそれぞれに含む対を更に集めるステップと
    を含む、
    非一時的コンピュータ読取可能媒体。
  14. 請求項13に記載の非一時的コンピュータ読取可能媒体であって、前記ステップaで取得した前記3Dモデルをサンプリングすることを含む一時的コンピュータ読取可能媒体。
  15. 請求項13に記載の非一時的コンピュータ読取可能媒体であって、前記3Dモデルの前記リギングおよび前記スキニングは、前記3Dモデルを少なくとも1つの2Dイメージへ投影して、それに基づく3Dポーズ見積を計算することにより行われる、非一時的コンピュータ読取可能媒体。
  16. 請求項15に記載の非一時的コンピュータ読取可能媒体であって、前記3Dモデルの前記リギングおよび前記スキニングは自動的な形で行われる、非一時的コンピュータ読取可能媒体。
  17. 請求項13に記載の非一時的コンピュータ読取可能媒体であって、前記データベースは、2Dイメージを3Dモデルへと変換するために構成されたニューラル・ネットワークを訓練するために使用可能である、非一時的コンピュータ読取可能媒体。
  18. 請求項13に記載の非一時的コンピュータ読取可能媒体であって、前記静的ポースの少なくとも1つはTポーズまたはAポーズである、非一時的コンピュータ読取可能媒体。
JP2023539969A 2021-01-06 2022-01-04 2dイメージを3dモデルへと変換するために構成されたニューラル・ネットワークを訓練する方法 Pending JP2024502326A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US202163134207P 2021-01-06 2021-01-06
US63/134,207 2021-01-06
PCT/IL2022/050012 WO2022149127A1 (en) 2021-01-06 2022-01-04 Method of training a neural network configured for converting 2d images into 3d models

Publications (1)

Publication Number Publication Date
JP2024502326A true JP2024502326A (ja) 2024-01-18

Family

ID=82219120

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023539969A Pending JP2024502326A (ja) 2021-01-06 2022-01-04 2dイメージを3dモデルへと変換するために構成されたニューラル・ネットワークを訓練する方法

Country Status (5)

Country Link
US (1) US20220217321A1 (ja)
EP (1) EP4275152A1 (ja)
JP (1) JP2024502326A (ja)
CA (1) CA3204378A1 (ja)
WO (1) WO2022149127A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116580121B (zh) * 2023-05-18 2024-04-09 北京元跃科技有限公司 一种基于深度学习的单张绘画生成2d模型的方法及系统

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
BRPI0917864A2 (pt) * 2008-08-15 2015-11-24 Univ Brown aparelho e método para estimativa da forma corporal
US20170103563A1 (en) * 2015-10-07 2017-04-13 Victor Erukhimov Method of creating an animated realistic 3d model of a person
KR101964282B1 (ko) * 2015-12-22 2019-04-01 연세대학교 산학협력단 3d 모델을 활용한 2d 영상 학습 데이터 생성 시스템 및 그 생성방법
US11514642B2 (en) * 2016-10-08 2022-11-29 Purdue Research Foundation Method and apparatus for generating two-dimensional image data describing a three-dimensional image
KR102286037B1 (ko) * 2018-11-12 2021-08-05 한국전자통신연구원 기계 학습을 위한 학습 데이터 셋 생성 장치 및 방법
WO2020242047A1 (en) * 2019-05-30 2020-12-03 Samsung Electronics Co., Ltd. Method and apparatus for acquiring virtual object data in augmented reality

Also Published As

Publication number Publication date
EP4275152A1 (en) 2023-11-15
WO2022149127A1 (en) 2022-07-14
US20220217321A1 (en) 2022-07-07
CA3204378A1 (en) 2022-07-14

Similar Documents

Publication Publication Date Title
EP3321881A1 (en) Novel view synthesis using deep convolutional neural networks
CN108124489B (zh) 信息处理方法、装置、云处理设备以及计算机程序产品
CN111985281B (zh) 图像生成模型的生成方法、装置及图像生成方法、装置
CN108198177A (zh) 图像获取方法、装置、终端及存储介质
JP7247327B2 (ja) ダイナミックデプス画像を撮影して編集するための手法
WO2023005140A1 (zh) 视频数据处理方法、装置、设备以及存储介质
RU2770748C1 (ru) Способ и аппарат для обработки изображений, устройство и носитель данных
US20220156987A1 (en) Adaptive convolutions in neural networks
CN110751649A (zh) 视频质量评估方法、装置、电子设备及存储介质
CN111127309A (zh) 肖像风格迁移模型训练方法、肖像风格迁移方法以及装置
JP2024502326A (ja) 2dイメージを3dモデルへと変換するために構成されたニューラル・ネットワークを訓練する方法
CN112561782B (zh) 一种提高海上场景仿真图片真实度的方法
CN116091955A (zh) 一种分割方法、装置、设备及计算机可读存储介质
WO2023086398A1 (en) 3d rendering networks based on refractive neural radiance fields
CN113436094B (zh) 一种基于多视角注意力机制的灰度图像自动上色方法
CN112991236B (zh) 一种基于模板的图像增强方法及装置
CN111553961B (zh) 线稿对应色图的获取方法和装置、存储介质和电子装置
CN115049558A (zh) 模型训练、人脸图像处理方法及装置、电子设备及可读存储介质
CN110689542A (zh) 一种基于多级卷积神经网络的人像分割处理方法及装置
CN113609960B (zh) 一种目标图片的人脸驱动方法及装置
CN109272441B (zh) 关联图像的生成方法
US20240214542A1 (en) Techniques to capture and edit dynamic depth images
CN117315061A (zh) 面向事件相机的任务系统
CN114037786A (zh) 卡通动画的生成方法、设备及存储介质
CN117750066A (zh) 视频的生成方法、装置、电子设备及可读存储介质