JP2024502326A - 2dイメージを3dモデルへと変換するために構成されたニューラル・ネットワークを訓練する方法 - Google Patents
2dイメージを3dモデルへと変換するために構成されたニューラル・ネットワークを訓練する方法 Download PDFInfo
- Publication number
- JP2024502326A JP2024502326A JP2023539969A JP2023539969A JP2024502326A JP 2024502326 A JP2024502326 A JP 2024502326A JP 2023539969 A JP2023539969 A JP 2023539969A JP 2023539969 A JP2023539969 A JP 2023539969A JP 2024502326 A JP2024502326 A JP 2024502326A
- Authority
- JP
- Japan
- Prior art keywords
- model
- pose
- character
- image
- substeps
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 27
- 238000000034 method Methods 0.000 claims abstract description 27
- 238000012549 training Methods 0.000 claims abstract description 16
- 238000009877 rendering Methods 0.000 claims abstract description 7
- 230000003068 static effect Effects 0.000 claims description 11
- 238000005070 sampling Methods 0.000 claims description 5
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000004040 coloring Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/275—Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/579—Depth or shape recovery from multiple images from motion
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/172—Processing image signals image signals comprising non-image signal components, e.g. headers or format information
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/261—Image signal generators with monoscopic-to-stereoscopic image conversion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/08—Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Processing Or Creating Images (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Image Generation (AREA)
Abstract
2Dイメージを3Dモデルへと変換するように構成されるニューラル・ネットワークを訓練するためのデータベースを生成するための、コンピュータ実装される方法は、(a)3Dモデルを得るステップと、(b)少なくとも1つの視点から前記の3Dモデルを2Dフォーマットにレンダリングするステップと、(c)レンダリングされた前記2Dイメージ・フレームと、対応するサンプリングされた前記3Dモデルとのそれぞれを更に含む対を集めるステップとを含む。
Description
本発明は、ニューラル・ネットワークによるイメージ処理と関連し、より具体的には、2Dイメージ・フレームを3Dモデルへと変換することと関連する。
仮想/拡張現実コンテンツを維持する技術は、現在の社会において話題性のある技術となっており、生活における様々な場面に適用されている。3Dコンテンツは貧弱であり、また、それを撮影することに多くの費用がかかることが、現在の3Dビデオの開発を制限する1つの要因である。
この技術では、2Dイメージをボリュメトリック・イメージへと変換するためにニューラル・ネットワークを使用できることが、知られている。例えば、CN10706745は、完全畳み込み(full convolutional)ニューラル・ネットワークに基づいて2Dフィルムを3Dフィルムへと変換する方法を開示する。当該方法は、1)写真撮影されたフィルムの2Dビデオの各フレームの2Dイメージを抽出するステップと、2)完全畳み込みニューラル・ネットワークを用いて各フレームの2Dイメージの特徴を抽出し、深度値を計算するステップと、3)各フレームの2Dイメージを、その深度値に従って彩色して、対応する3Dイメージを生成するステップと、4)全ての3Dイメージを連続的にまとめて3Dフィルムにするステップとを含む。
ニューラル・ネットワークにより行われる変換の忠実度は、ニューラル・ネットワークの訓練に用いられるデータベースに応じたものとなる。従って、ニューラル・ネットワークの訓練に使用可能な、入力2Dイメージと出力3Dモデルとの対のデータベースを提供することが求められているが、長く放置されて未だに対処されていない。
従って、本発明の1つの目的は、2Dイメージを3Dモデルへと変換するように構成されるニューラル・ネットワークを訓練するためのデータベースを生成するための、コンピュータ実装される方法を開示することである。データベースは、収集した前記の2Dイメージとそれに対応する3Dモデルとを含む。上記の方法は、(a)サブステップのうちの少なくとも1つのものにより3Dモデルを得るステップであって、前記サブステップは、(i)所定のポーズの少なくとも1つのキャラクタの3Dモデルを得て、前記3Dモデルのリギングおよびスキニングを行い、前記3Dモデルを目的のポーズへと動かすサブステップと、(ii)静的ポーズの前記少なくとも1つのキャラクタの複数のボリュメトリック・イメージ・フレームをキャプチャするサブステップと、(iii)運動している前記少なくとも1つのキャラクタのボリュメトリック・ビデオをキャプチャするサブステップとであり、前記サブステップ(i)ないし(iii)における前記少なくとも1つのキャラクタは互いに同じ又は互いに異なるものである、前記サブステップのうちの少なくとも1つのものにより3Dモデルを得るステップと、(b)前記3Dモデルを2Dフォーマットにレンダリングするステップと、(c)レンダリングされた前記2Dイメージ・フレームと、対応するサンプリングされた前記3Dモデルとをそれぞれに含む対を更に集めるステップとを含む。
本発明の更なる目的は、ステップaで得た前記3Dモデルをサンプリングすることを含む請求項1に記載の方法を提供することである。
本発明の更なる目的は、前記3Dモデルを少なくとも1つの2Dイメージへ投影して、それに基づく3Dポーズ見積を計算することにより、前記3Dモデルの前記のリギングおよびスキニングすることを提供することである。
本発明の更なる目的は、自動的な形で行われる前記3Dモデルの前記のリギングおよびスキニングすることを提供することである。
本発明の更なる目的は、2Dイメージを3Dモデルへと変換するために構成されたニューラル・ネットワークを訓練するために使用可能な前記データベースを提供することである。
本発明の更なる目的は、TポーズまたはAポーズとして限定の無い形で定められる前記静的ポーズを提供することである。
本発明の更なる目的は、2Dイメージを3Dモデルへと変換するように構成されるニューラル・ネットワークを訓練するためのデータベースを生成するための、コンピュータ実装されるシステムを開示することである。データベースは、収集した前記の2Dイメージとそれに対応する3Dモデルとを含む。前記のコンピュータ実装されるシステムは、(a)プロセッサと、(b)命令を記憶するメモリとを含み、前記命令は、前記プロセッサにより実行されたときに、前記プロセッサへ、(i)サブステップのうちの少なくとも1つのものにより3Dモデルを得るステップであって、前記サブステップは、(1)所定のポーズの少なくとも1つのキャラクタの3Dモデルを得て、前記3Dモデルのリギングおよびスキニングを行い、前記3Dモデルを目的のポーズへと動かすサブステップと、(2)静的ポーズの前記少なくとも1つのキャラクタの複数のボリュメトリック・イメージ・フレームをキャプチャするサブステップと、(3)運動している前記少なくとも1つのキャラクタのボリュメトリック・ビデオをキャプチャするサブステップとであり、前記サブステップ(1)ないし(3)における前記少なくとも1つのキャラクタは互いに同じ又は互いに異なるものである、前記サブステップのうちの少なくとも1つのものにより3Dモデルを得るステップと、(ii)前記3Dモデルを2Dフォーマットにレンダリングするステップと、(iii)レンダリングされた前記2Dイメージ・フレームと、対応するサンプリングされた前記3Dモデルとをそれぞれに含む対を更に集めるステップとを行うことを指示する命令である。
本発明の更なる目的は、2Dイメージを3Dモデルへと変換するように構成されるニューラル・ネットワークを訓練するための方法を実行させるためのプロセッサへの命令を含む非一時的コンピュータ読取可能媒体を提供することである。上記の命令は、(a)サブステップのうちの少なくとも1つのものにより3Dモデルを得るステップであって、前記サブステップは、(i)所定のポーズの少なくとも1つのキャラクタの3Dモデルを得て、前記3Dモデルのリギングおよびスキニングを行い、前記3Dモデルを目的のポーズへと動かすサブステップと、(ii)静的ポーズの前記少なくとも1つのキャラクタの複数のボリュメトリック・イメージ・フレームをキャプチャするサブステップと、(iii)運動している前記少なくとも1つのキャラクタのボリュメトリック・ビデオをキャプチャするサブステップとであり、前記サブステップ(i)ないし(iii)における前記少なくとも1つのキャラクタは互いに同じ又は互いに異なるものである、前記サブステップのうちの少なくとも1つのものにより3Dモデルを得るステップと、(b)前記3Dモデルを2Dフォーマットにレンダリングするステップと、(c)レンダリングされた前記2Dイメージ・フレームと、対応するサンプリングされた前記3Dモデルとをそれぞれに含む対を更に集めるステップとを含む。
発明を理解できるように、および実際にどのように実装できるかを見せるために、ここで、単なる非限定的な例として、添付の図面を参照して複数の実施形態を用いて説明を行う。
下記の説明は、何れの当業者も前記の発明を使用できるようにするために提供しており、この発明を実施するための発明者が考える最適の態様を記載している。しかしながら、当業者には、適合する様々な変更が残されていることは明らかであり、その理由は、本発明の包括的な本質は、具体的に、2Dイメージを3Dモデルへと変換するように構成されるニューラル・ネットワークを訓練するためのデータベースを生成するための、コンピュータ実装される方法と、前記の方法を実装するための、コンピュータ実装されるシステムと、前記の方法を実行させるためのプロセッサへの命令を含む非一時的コンピュータ読取可能媒体とを提供することと、定義しているからである。
本発明の目的は、ニューラル・ネットワークでの処理により2Dイメージを3Dモデルへと変更することが可能なツールを提供することである。より具体的な達成しようとする課題は、ユーザ定義の2Dイメージがニューラル・ネットワークにより高忠実度で3Dモデルへと変換されるように、ニューラル・ネットワークを訓練するためのデータベースを作成することである。
ここで、2Dイメージを3Dモデルへと変換するように構成されたニューラル・ネットワークを訓練するためのデータベースを生成する方法100のフローチャートを示す図1を参照する。開始のステップ110では、3Dモデルを取得することが、3つの方法のうちの少なくとも1つのものにより実施される。3つの選択できる方法のうちの第1のものを参照すると、キャラクタの3Dモデルが取得される(ステップ111)。
次に、取得した3Dモデルへリギングおよびスキニングを適用する(ステップ112)。3Dモデルを目的のポーズへと動かすことにより複数のイメージ・フレームを生成することができる(ステップ113)。3Dモデルを取得するための他の方法は、TポーズやAポーズなどのような様々な静的ポースの少なくとも1つのキャラクタのシングル・ボリュメトリック・イメージ・フレームをキャプチャすること(ステップ115)と、少なくとも1つのキャラクタのボリュメトリック・ビデオをキャプチャすること(ステップ117)とである。サブステップ111から117における少なくとも1つのキャラクタは、互いに同一であっても互いに異なっていてもよい。
ステップ110で生成された3Dモデルは、ニューラル・ネットワークを訓練するために使用可能な生データのボディを3Dモデル形成する。ステップ110で取得した3Dモデルは、少なくとも1つの視点から2Dイメージ・フォーマットへとレンダリングされる(ステップ130)。そして、最後に、レンダリングされた2Dイメージ・フレームと、対応するサンプリングされた3Dモデルとのそれぞれにより形成される対が、ニューラル・ネットワークを訓練するためのデータベースへ集められる。
ここで、第1の代替の実施形態100a示す図2を参照するが、実施形態100aは、ステップ110で取得した3Dモデルの一部をサンプリングする(ステップ119)ことが実施形態100とは異なる。サンプリングされた3Dモデルは、図1の方法100と同様に、2Dフォーマットへとレンダリングされる(ステップ130)。
ここで、第2の代替の実施形態100bを示す図2を参照する。前記3Dモデルを少なくとも1つの2Dイメージへ投影して、それに基づく3Dポーズ見積を計算することにより、3Dモデルのリギングおよびスキニング、メッシングを行うサブステップ112aへと、図1の方法100のサブステップ112が置き換えられている。3Dモデルに関するリギングおよびスキニングは、自動的な形で行うことができる。
上記の実施形態100、100a、および100bを実装するためのシステムと、これらの実施形態を実施させるためのプロセッサへの命令を含む非一時的コンピュータ読取可能媒体とは、本発明の範囲内にある。
Claims (18)
- 2Dイメージを3Dモデルへと変換するように構成されるニューラル・ネットワークを訓練するためのデータベースを生成するための、コンピュータ実装される方法であって、前記データベースは前記2Dイメージとそれに対応する3Dモデルとを含むものであり、
a.サブステップのうちの少なくとも1つのものにより3Dモデルを得るステップであって、前記サブステップは、
i.少なくとも1つのキャラクタの3Dモデルを得て、前記3Dモデルのリギングおよびスキニングを行い、前記3Dモデルを目的のポーズへと動かすサブステップと、
ii.静的ポーズの前記少なくとも1つのキャラクタの複数のシングル・ボリュメトリック・イメージ・フレームをキャプチャするサブステップと、
iii.運動している前記少なくとも1つのキャラクタのボリュメトリック・ビデオをキャプチャするサブステップと
であり、前記サブステップ(i)ないし(iii)における前記少なくとも1つのキャラクタは互いに同じ又は互いに異なるものである、
前記サブステップのうちの少なくとも1つのものにより3Dモデルを得るステップと、
b.少なくとも1つの視点から前記3Dモデルを2Dフォーマットにレンダリングするステップと、
c.レンダリングされた前記2Dイメージ・フレームと、対応するサンプリングされた前記3Dモデルとをそれぞれに含む対を更に集めるステップと
を含む方法。 - 請求項1に記載の方法であって、前記ステップaで取得した前記3Dモデルをサンプリングすることを含む方法。
- 請求項1に記載の方法であって、前記3Dモデルの前記リギングおよび前記スキニングは、前記3Dモデルを少なくとも1つの2Dイメージへ投影して、それに基づく3Dポーズ見積を計算することにより行われる、方法。
- 請求項3に記載の方法であって、前記3Dモデルの前記リギングおよび前記スキニングは自動的な形で行われる、方法。
- 請求項1に記載の方法であって、前記データベースは、2Dイメージを3Dモデルへと変換するために構成されたニューラル・ネットワークを訓練するために使用可能である、方法。
- 請求項1に記載の方法であって、前記静的ポースの少なくとも1つはTポーズまたはAポーズである、方法。
- 2Dイメージを3Dモデルへと変換するように構成されるニューラル・ネットワークを訓練するためのデータベースを生成するための、コンピュータ実装されるシステムであって、前記データベースは収集した前記2Dイメージとそれに対応する3Dモデルとを含むものであり、
a.プロセッサと、
b.命令を記憶するメモリと
を含み、前記命令は、前記プロセッサにより実行されたときに、前記プロセッサへ、
i.サブステップのうちの少なくとも1つのものにより3Dモデルを得るステップであって、前記サブステップは、
1.所定のポーズの少なくとも1つのキャラクタの3Dモデルを得て、前記3Dモデルのリギングおよびスキニングを行い、前記3Dモデルを目的のポーズへと動かすサブステップと、
2.静的ポーズの前記少なくとも1つのキャラクタの複数のシングル・ボリュメトリック・イメージ・フレームをキャプチャするサブステップと、
3.運動している前記少なくとも1つのキャラクタのボリュメトリック・ビデオをキャプチャするサブステップと
である、前記サブステップのうちの少なくとも1つのものにより3Dモデルを得るステップと、
ii.前記サブステップ1ないし3における前記少なくとも1つのキャラクタは互いに同じ又は互いに異なるものであり、前記ステップiで取得した3Dモデルをサンプリングするステップと、
iii.前記3Dモデルを2Dフォーマットにレンダリングするステップと、
iv.レンダリングされた前記2Dイメージ・フレームと、対応するサンプリングされた前記3Dモデルとをそれぞれに含む対を更に集めるステップと
を行うことを指示する命令である、
システム。 - 請求項7に記載のシステムであって、前記ステップaで取得した前記3Dモデルをサンプリングすることを含む、システム。
- 請求項7に記載のシステムであって、前記3Dモデルの前記リギングおよび前記スキニングは、前記3Dモデルを少なくとも1つの2Dイメージへ投影して、それに基づく3Dポーズ見積を計算することにより行われる、システム。
- 請求項9に記載のシステムであって、前記3Dモデルの前記リギングおよび前記スキニングは自動的な形で行われる、システム。
- 請求項7に記載のシステムであって、前記データベースは、2Dイメージを3Dモデルへと変換するために構成されたニューラル・ネットワークを訓練するために使用可能である、システム。
- 請求項7に記載のシステムであって、前記静的ポースの少なくとも1つはTポーズまたはAポーズである、システム。
- 2Dイメージを3Dモデルへと変換するように構成されるニューラル・ネットワークを訓練するための方法を実行させるためのプロセッサへの命令を含む非一時的コンピュータ読取可能媒体であって、前記命令は、
a.サブステップのうちの少なくとも1つのものにより3Dモデルを得るステップであって、前記サブステップは、
i.所定のポーズの少なくとも1つのキャラクタの3Dモデルを得て、前記3Dモデルのリギングおよびスキニングを行い、前記3Dモデルを目的のポーズへと動かすサブステップと、
ii.静的ポーズの前記少なくとも1つのキャラクタの複数のボリュメトリック・イメージ・フレームをキャプチャするサブステップと、
iii.運動している前記少なくとも1つのキャラクタのボリュメトリック・ビデオをキャプチャするサブステップと
であり、前記サブステップiないしiiiにおける前記少なくとも1つのキャラクタは互いに同じ又は互いに異なるものである、
前記サブステップのうちの少なくとも1つのものにより3Dモデルを得るステップと、
b.前記3Dモデルを2Dフォーマットにレンダリングするステップと、
c.レンダリングされた前記2Dイメージ・フレームと、対応するサンプリングされた前記3Dモデルとをそれぞれに含む対を更に集めるステップと
を含む、
非一時的コンピュータ読取可能媒体。 - 請求項13に記載の非一時的コンピュータ読取可能媒体であって、前記ステップaで取得した前記3Dモデルをサンプリングすることを含む一時的コンピュータ読取可能媒体。
- 請求項13に記載の非一時的コンピュータ読取可能媒体であって、前記3Dモデルの前記リギングおよび前記スキニングは、前記3Dモデルを少なくとも1つの2Dイメージへ投影して、それに基づく3Dポーズ見積を計算することにより行われる、非一時的コンピュータ読取可能媒体。
- 請求項15に記載の非一時的コンピュータ読取可能媒体であって、前記3Dモデルの前記リギングおよび前記スキニングは自動的な形で行われる、非一時的コンピュータ読取可能媒体。
- 請求項13に記載の非一時的コンピュータ読取可能媒体であって、前記データベースは、2Dイメージを3Dモデルへと変換するために構成されたニューラル・ネットワークを訓練するために使用可能である、非一時的コンピュータ読取可能媒体。
- 請求項13に記載の非一時的コンピュータ読取可能媒体であって、前記静的ポースの少なくとも1つはTポーズまたはAポーズである、非一時的コンピュータ読取可能媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US202163134207P | 2021-01-06 | 2021-01-06 | |
US63/134,207 | 2021-01-06 | ||
PCT/IL2022/050012 WO2022149127A1 (en) | 2021-01-06 | 2022-01-04 | Method of training a neural network configured for converting 2d images into 3d models |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024502326A true JP2024502326A (ja) | 2024-01-18 |
Family
ID=82219120
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023539969A Pending JP2024502326A (ja) | 2021-01-06 | 2022-01-04 | 2dイメージを3dモデルへと変換するために構成されたニューラル・ネットワークを訓練する方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20220217321A1 (ja) |
EP (1) | EP4275152A1 (ja) |
JP (1) | JP2024502326A (ja) |
CA (1) | CA3204378A1 (ja) |
WO (1) | WO2022149127A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116580121B (zh) * | 2023-05-18 | 2024-04-09 | 北京元跃科技有限公司 | 一种基于深度学习的单张绘画生成2d模型的方法及系统 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
BRPI0917864A2 (pt) * | 2008-08-15 | 2015-11-24 | Univ Brown | aparelho e método para estimativa da forma corporal |
US20170103563A1 (en) * | 2015-10-07 | 2017-04-13 | Victor Erukhimov | Method of creating an animated realistic 3d model of a person |
KR101964282B1 (ko) * | 2015-12-22 | 2019-04-01 | 연세대학교 산학협력단 | 3d 모델을 활용한 2d 영상 학습 데이터 생성 시스템 및 그 생성방법 |
US11514642B2 (en) * | 2016-10-08 | 2022-11-29 | Purdue Research Foundation | Method and apparatus for generating two-dimensional image data describing a three-dimensional image |
KR102286037B1 (ko) * | 2018-11-12 | 2021-08-05 | 한국전자통신연구원 | 기계 학습을 위한 학습 데이터 셋 생성 장치 및 방법 |
WO2020242047A1 (en) * | 2019-05-30 | 2020-12-03 | Samsung Electronics Co., Ltd. | Method and apparatus for acquiring virtual object data in augmented reality |
-
2021
- 2021-12-30 US US17/566,623 patent/US20220217321A1/en active Pending
-
2022
- 2022-01-04 JP JP2023539969A patent/JP2024502326A/ja active Pending
- 2022-01-04 WO PCT/IL2022/050012 patent/WO2022149127A1/en active Application Filing
- 2022-01-04 CA CA3204378A patent/CA3204378A1/en active Pending
- 2022-01-04 EP EP22736708.3A patent/EP4275152A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
EP4275152A1 (en) | 2023-11-15 |
WO2022149127A1 (en) | 2022-07-14 |
US20220217321A1 (en) | 2022-07-07 |
CA3204378A1 (en) | 2022-07-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3321881A1 (en) | Novel view synthesis using deep convolutional neural networks | |
CN108124489B (zh) | 信息处理方法、装置、云处理设备以及计算机程序产品 | |
CN111985281B (zh) | 图像生成模型的生成方法、装置及图像生成方法、装置 | |
CN108198177A (zh) | 图像获取方法、装置、终端及存储介质 | |
JP7247327B2 (ja) | ダイナミックデプス画像を撮影して編集するための手法 | |
WO2023005140A1 (zh) | 视频数据处理方法、装置、设备以及存储介质 | |
RU2770748C1 (ru) | Способ и аппарат для обработки изображений, устройство и носитель данных | |
US20220156987A1 (en) | Adaptive convolutions in neural networks | |
CN110751649A (zh) | 视频质量评估方法、装置、电子设备及存储介质 | |
CN111127309A (zh) | 肖像风格迁移模型训练方法、肖像风格迁移方法以及装置 | |
JP2024502326A (ja) | 2dイメージを3dモデルへと変換するために構成されたニューラル・ネットワークを訓練する方法 | |
CN112561782B (zh) | 一种提高海上场景仿真图片真实度的方法 | |
CN116091955A (zh) | 一种分割方法、装置、设备及计算机可读存储介质 | |
WO2023086398A1 (en) | 3d rendering networks based on refractive neural radiance fields | |
CN113436094B (zh) | 一种基于多视角注意力机制的灰度图像自动上色方法 | |
CN112991236B (zh) | 一种基于模板的图像增强方法及装置 | |
CN111553961B (zh) | 线稿对应色图的获取方法和装置、存储介质和电子装置 | |
CN115049558A (zh) | 模型训练、人脸图像处理方法及装置、电子设备及可读存储介质 | |
CN110689542A (zh) | 一种基于多级卷积神经网络的人像分割处理方法及装置 | |
CN113609960B (zh) | 一种目标图片的人脸驱动方法及装置 | |
CN109272441B (zh) | 关联图像的生成方法 | |
US20240214542A1 (en) | Techniques to capture and edit dynamic depth images | |
CN117315061A (zh) | 面向事件相机的任务系统 | |
CN114037786A (zh) | 卡通动画的生成方法、设备及存储介质 | |
CN117750066A (zh) | 视频的生成方法、装置、电子设备及可读存储介质 |