JP7329612B2 - オブジェクトカテゴリモデリングのための生成潜在テクスチャプロキシ - Google Patents
オブジェクトカテゴリモデリングのための生成潜在テクスチャプロキシ Download PDFInfo
- Publication number
- JP7329612B2 JP7329612B2 JP2021553141A JP2021553141A JP7329612B2 JP 7329612 B2 JP7329612 B2 JP 7329612B2 JP 2021553141 A JP2021553141 A JP 2021553141A JP 2021553141 A JP2021553141 A JP 2021553141A JP 7329612 B2 JP7329612 B2 JP 7329612B2
- Authority
- JP
- Japan
- Prior art keywords
- neural
- textures
- generating
- image
- proxy
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000001537 neural effect Effects 0.000 claims description 135
- 238000000034 method Methods 0.000 claims description 64
- 230000015654 memory Effects 0.000 claims description 38
- 238000012545 processing Methods 0.000 claims description 29
- 238000009877 rendering Methods 0.000 claims description 28
- 238000013528 artificial neural network Methods 0.000 claims description 21
- 239000002131 composite material Substances 0.000 claims description 20
- 238000005457 optimization Methods 0.000 claims description 11
- 239000000463 material Substances 0.000 claims description 8
- 239000012780 transparent material Substances 0.000 claims description 4
- 239000011521 glass Substances 0.000 description 42
- 230000008569 process Effects 0.000 description 25
- 238000004891 communication Methods 0.000 description 16
- 210000003128 head Anatomy 0.000 description 12
- 238000004590 computer program Methods 0.000 description 9
- 230000000875 corresponding effect Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 8
- 238000012549 training Methods 0.000 description 7
- 230000000007 visual effect Effects 0.000 description 7
- 239000000872 buffer Substances 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 6
- 230000033001 locomotion Effects 0.000 description 6
- 239000003086 colorant Substances 0.000 description 5
- 230000001419 dependent effect Effects 0.000 description 5
- 239000010408 film Substances 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 230000003993 interaction Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000005070 sampling Methods 0.000 description 4
- 241000699666 Mus <mouse, genus> Species 0.000 description 3
- 230000004888 barrier function Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 240000007320 Pinus strobus Species 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 244000025254 Cannabis sativa Species 0.000 description 1
- 241000196324 Embryophyta Species 0.000 description 1
- 241000699670 Mus sp. Species 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000003750 conditioning effect Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- PCHJSUWPFVWCPO-UHFFFAOYSA-N gold Chemical compound [Au] PCHJSUWPFVWCPO-UHFFFAOYSA-N 0.000 description 1
- 229910052737 gold Inorganic materials 0.000 description 1
- 239000010931 gold Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000003278 mimic effect Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 239000004033 plastic Substances 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 238000002310 reflectometry Methods 0.000 description 1
- 239000011347 resin Substances 0.000 description 1
- 229920005989 resin Polymers 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 229910052709 silver Inorganic materials 0.000 description 1
- 239000004332 silver Substances 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 125000006850 spacer group Chemical group 0.000 description 1
- 230000001502 supplementing effect Effects 0.000 description 1
- 239000010409 thin film Substances 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/04—Texture mapping
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/005—General purpose rendering architectures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
- G06T15/205—Image-based rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/50—Lighting effects
- G06T15/506—Illumination models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/10—Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/94—Hardware or software architectures specially adapted for image or video understanding
- G06V10/95—Hardware or software architectures specially adapted for image or video understanding structured as a network, e.g. client-server architectures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2012—Colour editing, changing, or manipulating; Use of colour codes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2021—Shape modification
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- Geometry (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Molecular Biology (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Architecture (AREA)
- Computer Hardware Design (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Processing Or Creating Images (AREA)
- Image Generation (AREA)
- Image Analysis (AREA)
Description
本出願は、2020年6月30日に出願された、「GENERATIVE LATENT TEXTURED PROXIES FOR OBJECT CATEGORY MODELING(オブジェクトカテゴリモデリングのための生成潜在テクスチャプロキシ)」と題された米国仮特許出願第62/705,500号の利益を主張し、その全体が本明細書において参照によって援用される。
本明細書は一般に、ディスプレイに提示するためにコンテンツを生成する際に用いられる方法、デバイス、およびアルゴリズムに関する。
生成モデルは、訓練データと一致するデータを生成するために用いられるマシン学習モデルの一種である。生成モデルは、データセットに含まれる訓練データに類似したデータを生成するために、データセットのモデルを学習可能である。たとえば、生成モデルは、データセットの特徴XおよびラベルYの確率分布p(X,Y)を求めるように訓練されてもよい。生成モデルを実行するようにプログラムされたコンピュータシステムに、ラベルYが設けられてもよい。これに応じて、コンピュータシステムは、ラベルYに一致する特徴または特徴Xのセットを生成してもよい。
1つ以上のコンピュータのシステムは、動作中にシステムにアクションを行わせるシステムにインストールされるソフトウェア、ファームウェア、ハードウェア、またはこれらの組合わせを有することによって、特定の動作またはアクションを行うように構成可能である。1つ以上のコンピュータプログラムは、データ処理装置によって実行されると装置にアクションを行わせる命令を含むことによって、特定の動作またはアクションを行うように構成可能である。
詳細な説明
3Dオブジェクトの正確なモデリングおよび表現は、オブジェクトが透明な表面、反射面、および/または薄い構造などの特徴を示す場合は困難なことがある。本明細書で説明するシステムおよび技術は、3Dプロキシジオメトリ(たとえば、テクスチャプロキシ)を用いて、そのような特徴を有する3Dオブジェクトをモデリングして、2Dスクリーンまたはオートステレオスコピックディスプレイ(たとえば、3Dディスプレイ)上の3Dオブジェクトの正確なレンダリングを可能にする方法を提供し得る。いくつかの実現例では、3Dプロキシジオメトリは、画像コンテンツ内のオブジェクトを構成する形状の幾何学的補間に基づく。
Claims (22)
- 少なくとも1つの処理デバイスを用いて動作を行う、コンピュータによって実現される方法であって、前記動作は、
画像コンテンツ内のオブジェクトと関連付けられたポーズを受信することと、
前記オブジェクトの複数の3次元(3D)プロキシジオメトリを生成することとを含み、前記複数の3Dプロキシジオメトリは、前記オブジェクトの形状に基づき、さらに、
前記複数の3Dプロキシジオメトリに基づいて、前記オブジェクトの複数のニューラルテクスチャを生成することを含み、前記複数のニューラルテクスチャは、前記オブジェクトを表す複数の異なる形状および外観を規定し、さらに、
積層形態で提供される前記複数のニューラルテクスチャを、ニューラルレンダラーに提供することと、
前記複数のニューラルテクスチャに基づいて、カラー画像と、前記オブジェクトの少なくとも一部の不透明度を表すアルファマスクとを、前記ニューラルレンダラーから受信することと、
前記カラー画像、および前記アルファマスクに基づいて、合成画像を生成することとを含み、
前記複数のニューラルテクスチャは、前記画像コンテンツにおいて取込まれた前記オブジェクトの隠れた部分を再構成するように構成される、方法。 - 前記オブジェクトと関連付けられた前記ポーズに少なくとも部分的に基づいて、対象視点に対して潜在テクスチャをレンダリングすることをさらに含み、前記複数の3Dプロキシジオメトリの各々は、前記オブジェクトの少なくとも一部の粗い幾何学的近似値と、前記粗い幾何学的近似値にマッピングされた前記オブジェクトの前記潜在テクスチャとを含む、請求項1に記載の方法。
- 前記隠れた部分は、前記ニューラルレンダラーが、前記オブジェクトの透明層と、前記オブジェクトの前記透明層の背後の面とを生成することを可能にする前記ニューラルテクスチャの前記積層形態に基づいて再構成される、請求項1または請求項2に記載の方法。
- 前記複数の3Dプロキシジオメトリの各々は、前記画像コンテンツ内の前記オブジェクトと関連付けられた表面光フィールドを符号化し、前記表面光フィールドは、前記オブジェクトと関連付けられた正反射を含む、請求項1~請求項3のいずれか1項に記載の方法。
- 少なくとも1つの処理デバイスを用いて動作を行う、コンピュータによって実現される方法であって、前記動作は、
画像コンテンツ内のオブジェクトと関連付けられたポーズを受信することと、
前記オブジェクトの複数の3次元(3D)プロキシジオメトリを生成することとを含み、前記複数の3Dプロキシジオメトリは、前記オブジェクトの形状に基づき、さらに、
前記複数の3Dプロキシジオメトリに基づいて、前記オブジェクトの複数のニューラルテクスチャを生成することを含み、前記複数のニューラルテクスチャは、前記オブジェクトを表す複数の異なる形状および外観を規定し、さらに、
積層形態で提供される前記複数のニューラルテクスチャを、ニューラルレンダラーに提供することと、
前記複数のニューラルテクスチャに基づいて、カラー画像と、前記オブジェクトの少なくとも一部の不透明度を表すアルファマスクとを、前記ニューラルレンダラーから受信することと、
前記カラー画像、および前記アルファマスクに基づいて、合成画像を生成することとを含み、
前記複数のニューラルテクスチャは、少なくとも部分的に前記ポーズに基づき、前記ニューラルテクスチャは、
前記オブジェクトのカテゴリを識別することと、
前記オブジェクトの識別された前記カテゴリに基づいて、特徴マップを生成することと、
前記特徴マップをニューラルネットワークに提供することと、
識別された前記カテゴリの各インスタンスと関連付けられた潜在コードと、
前記ポーズと関連付けられたビューとに基づいて、前記ニューラルテクスチャを生成することとによって生成される、方法。 - 前記オブジェクトの少なくとも一部は透明材料である、請求項1~請求項5のいずれか1項に記載の方法。
- 前記オブジェクトの少なくとも一部は反射材料である、請求項1~請求項5のいずれか1項に記載の方法。
- 前記画像コンテンツは、少なくともユーザを含むテレプレゼンス画像データを含み、
前記オブジェクトは眼鏡を含む、請求項1~請求項7のいずれか1項に記載の方法。 - システムであって、
少なくとも1つの処理デバイスと、
実行されると前記システムに動作を行わせる命令を格納したメモリとを備え、前記動作は、
画像コンテンツ内のオブジェクトと関連付けられたポーズを受信することと、
前記オブジェクトの複数の3次元(3D)プロキシジオメトリを生成することとを含み、前記複数の3Dプロキシジオメトリは、前記オブジェクトの形状に基づき、さらに、
前記複数の3Dプロキシジオメトリに基づいて、前記オブジェクトの複数のニューラルテクスチャを生成することを含み、前記複数のニューラルテクスチャは、前記オブジェクトを表す複数の異なる形状および外観を規定し、さらに、
積層形態で提供される前記複数のニューラルテクスチャを、ニューラルレンダラーに提供することと、
前記複数のニューラルテクスチャに基づいて、カラー画像と、
前記オブジェクトの少なくとも一部の不透明度を表すアルファマスクとを、前記ニューラルレンダラーから受信することと、
前記カラー画像と前記アルファマスクとに基づいて、合成画像を生成することとを含み、
前記複数のニューラルテクスチャは、前記画像コンテンツにおいて取込まれた前記オブジェクトの隠れた部分を再構成するように構成される、システム。 - 前記オブジェクトと関連付けられた前記ポーズに少なくとも部分的に基づいて、対象視点に対して潜在テクスチャをレンダリングすることをさらに含み、前記複数の3Dプロキシジオメトリの各々は、前記オブジェクトの少なくとも一部の粗い幾何学的近似値と、
前記粗い幾何学的近似値にマッピングされた前記オブジェクトの前記潜在テクスチャとを含む、請求項9に記載のシステム。 - 前記複数の3Dプロキシジオメトリの各々は、前記画像コンテンツ内の前記オブジェクトと関連付けられた表面光フィールドを符号化し、前記表面光フィールドは、前記オブジェクトと関連付けられた正反射を含む、請求項9または請求項10に記載のシステム。
- システムであって、
少なくとも1つの処理デバイスと、
実行されると前記システムに動作を行わせる命令を格納したメモリとを備え、前記動作は、
画像コンテンツ内のオブジェクトと関連付けられたポーズを受信することと、
前記オブジェクトの複数の3次元(3D)プロキシジオメトリを生成することとを含み、前記複数の3Dプロキシジオメトリは、前記オブジェクトの形状に基づき、さらに、
前記複数の3Dプロキシジオメトリに基づいて、前記オブジェクトの複数のニューラルテクスチャを生成することを含み、前記複数のニューラルテクスチャは、前記オブジェクトを表す複数の異なる形状および外観を規定し、さらに、
積層形態で提供される前記複数のニューラルテクスチャを、ニューラルレンダラーに提供することと、
前記複数のニューラルテクスチャに基づいて、カラー画像と、
前記オブジェクトの少なくとも一部の不透明度を表すアルファマスクとを、前記ニューラルレンダラーから受信することと、
前記カラー画像と前記アルファマスクとに基づいて、合成画像を生成することとを含み、
前記複数のニューラルテクスチャは、少なくとも部分的に前記ポーズに基づき、前記ニューラルテクスチャは、
前記オブジェクトのカテゴリを識別することと、
前記オブジェクトの識別された前記カテゴリに基づいて、特徴マップを生成することと、
前記特徴マップをニューラルネットワークに提供することと、
識別された前記カテゴリの各インスタンスと関連付けられた潜在コードと、
前記ポーズと関連付けられたビューとに基づいて、前記ニューラルテクスチャを生成することとによって生成される、システム。 - 前記ニューラルレンダラーは、生成モデルを使用して、識別された前記カテゴリ内の見えないオブジェクトインスタンスを再構成し、前記再構成は、前記オブジェクトの4つ未満の取込まれたビューに基づく、請求項12に記載のシステム。
- 前記複数の3Dプロキシジオメトリは、前記画像コンテンツ内の前記オブジェクトを構成する形状の幾何学的補間に基づく、請求項9~請求項13のいずれか1項に記載のシステム。
- 命令を含むプログラムであって、前記命令は、プロセッサによって実行されると、
コンピューティングデバイスに、
画像コンテンツ内のオブジェクトと関連付けられたポーズを受信することと、
前記オブジェクトの複数の3次元(3D)プロキシジオメトリを生成することとを行わせ、前記複数の3Dプロキシジオメトリは、前記オブジェクトの形状に基づき、さらに、
前記複数の3Dプロキシジオメトリに基づいて、前記オブジェクトの複数のニューラルテクスチャを生成することを行わせ、前記複数のニューラルテクスチャは、前記オブジェクトを表す複数の異なる形状および外観を規定し、さらに、
積層形態で提供される前記複数のニューラルテクスチャを、ニューラルレンダラーに提供することと、
前記複数のニューラルテクスチャに基づいて、カラー画像と、前記オブジェクトの少なくとも一部の不透明度を表すアルファマスクとを、前記ニューラルレンダラーから受信することと、
前記カラー画像と前記アルファマスクとに基づいて、合成画像を生成することとを行わせ、
前記複数のニューラルテクスチャは、前記画像コンテンツにおいて取込まれた前記オブジェクトの隠れた部分を再構成するように構成される、プログラム。 - 前記オブジェクトと関連付けられた前記ポーズに少なくとも部分的に基づいて、対象視点に対して潜在テクスチャをレンダリングすることをさらに含み、前記複数の3Dプロキシジオメトリの各々は、前記オブジェクトの少なくとも一部の粗い幾何学的近似値と、前記粗い幾何学的近似値にマッピングされた前記オブジェクトの前記潜在テクスチャとを含む、請求項15に記載のプログラム。
- 前記隠れた部分は、前記ニューラルレンダラーが、前記オブジェクトの透明層と、前記オブジェクトの前記透明層の背後の面とを生成することを可能にする前記ニューラルテクスチャの前記積層形態に基づいて再構成される、請求項15または請求項16に記載のプログラム。
- 命令を含むプログラムであって、前記命令は、プロセッサによって実行されると、
コンピューティングデバイスに、
画像コンテンツ内のオブジェクトと関連付けられたポーズを受信することと、
前記オブジェクトの複数の3次元(3D)プロキシジオメトリを生成することとを行わせ、前記複数の3Dプロキシジオメトリは、前記オブジェクトの形状に基づき、さらに、
前記複数の3Dプロキシジオメトリに基づいて、前記オブジェクトの複数のニューラルテクスチャを生成することを行わせ、前記複数のニューラルテクスチャは、前記オブジェクトを表す複数の異なる形状および外観を規定し、さらに、
積層形態で提供される前記複数のニューラルテクスチャを、ニューラルレンダラーに提供することと、
前記複数のニューラルテクスチャに基づいて、カラー画像と、前記オブジェクトの少なくとも一部の不透明度を表すアルファマスクとを、前記ニューラルレンダラーから受信することと、
前記カラー画像と前記アルファマスクとに基づいて、合成画像を生成することとを行わせ、
前記複数のニューラルテクスチャは、少なくとも部分的に前記ポーズに基づき、前記ニューラルテクスチャは、
前記オブジェクトのカテゴリを識別することと、
前記オブジェクトの識別された前記カテゴリに基づいて、特徴マップを生成することと、
前記特徴マップをニューラルネットワークに提供することと、
識別された前記カテゴリの各インスタンスと関連付けられた潜在コードと、
前記ポーズと関連付けられたビューとに基づいて、前記ニューラルテクスチャを生成することとによって生成される、プログラム。 - 前記オブジェクトの少なくとも一部は透明材料である、請求項15~請求項18のいずれか1項に記載のプログラム。
- 前記オブジェクトの少なくとも一部は反射材料である、請求項15~請求項18のいずれか1項に記載のプログラム。
- 前記画像コンテンツは、少なくともユーザを含むテレプレゼンス画像データを含み、
前記オブジェクトは眼鏡を含む、請求項15~請求項20のいずれか1項に記載のプログラム。 - 前記合成画像は、生成潜在最適化(GLO)フレームワークおよび知覚再構成損失を用いて生成される、請求項15~請求項21のいずれか1項に記載のプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US202062705500P | 2020-06-30 | 2020-06-30 | |
US62/705,500 | 2020-06-30 | ||
PCT/US2020/070359 WO2022005523A1 (en) | 2020-06-30 | 2020-08-04 | Generative latent textured proxies for object category modeling |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022542207A JP2022542207A (ja) | 2022-09-30 |
JP7329612B2 true JP7329612B2 (ja) | 2023-08-18 |
Family
ID=72240544
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021553141A Active JP7329612B2 (ja) | 2020-06-30 | 2020-08-04 | オブジェクトカテゴリモデリングのための生成潜在テクスチャプロキシ |
Country Status (6)
Country | Link |
---|---|
US (1) | US11710287B2 (ja) |
EP (1) | EP3959688B1 (ja) |
JP (1) | JP7329612B2 (ja) |
KR (1) | KR20220004008A (ja) |
CN (1) | CN114175097A (ja) |
WO (1) | WO2022005523A1 (ja) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11887241B2 (en) * | 2020-12-23 | 2024-01-30 | Adobe Inc. | Learning 2D texture mapping in volumetric neural rendering |
US11582519B1 (en) | 2021-03-29 | 2023-02-14 | Amazon Technologies, Inc. | Person replacement utilizing deferred neural rendering |
US11581020B1 (en) * | 2021-03-30 | 2023-02-14 | Amazon Technologies, Inc. | Facial synchronization utilizing deferred neural rendering |
US11663775B2 (en) * | 2021-04-19 | 2023-05-30 | Adobe, Inc. | Generating physically-based material maps |
US11503270B1 (en) * | 2021-08-10 | 2022-11-15 | Varjo Technologies Oy | Imaging systems and methods for facilitating local lighting |
US20230154090A1 (en) * | 2021-11-15 | 2023-05-18 | Disney Enterprises, Inc. | Synthesizing sequences of images for movement-based performance |
US12008716B2 (en) * | 2021-11-19 | 2024-06-11 | Electronic Arts Inc. | Systems and methods for generating a simplified polygonal mesh |
US20230344975A1 (en) * | 2022-04-22 | 2023-10-26 | Faurecia Irystec Inc. | System and method for controlling perceptual three-dimensional elements for display |
CN114842121B (zh) * | 2022-06-30 | 2022-09-09 | 北京百度网讯科技有限公司 | 贴图生成模型训练和贴图生成方法、装置、设备及介质 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190213772A1 (en) | 2018-01-08 | 2019-07-11 | Oculus Vr, Llc | Systems and methods for rendering avatars with deep appearance models |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10529137B1 (en) * | 2016-11-29 | 2020-01-07 | MAX-PLANCK-Gesellschaft zur Förderung der Wissenschaften e.V. | Machine learning systems and methods for augmenting images |
US11062502B2 (en) * | 2019-04-09 | 2021-07-13 | Facebook Technologies, Llc | Three-dimensional modeling volume for rendering images |
US11010951B1 (en) * | 2020-01-09 | 2021-05-18 | Facebook Technologies, Llc | Explicit eye model for avatar |
US11393158B2 (en) * | 2020-04-02 | 2022-07-19 | Adobe Inc. | Utilizing voxel feature transformations for deep novel view synthesis |
-
2020
- 2020-08-04 WO PCT/US2020/070359 patent/WO2022005523A1/en unknown
- 2020-08-04 US US17/309,817 patent/US11710287B2/en active Active
- 2020-08-04 JP JP2021553141A patent/JP7329612B2/ja active Active
- 2020-08-04 KR KR1020217018631A patent/KR20220004008A/ko not_active Application Discontinuation
- 2020-08-04 CN CN202080007948.3A patent/CN114175097A/zh active Pending
- 2020-08-04 EP EP20761730.9A patent/EP3959688B1/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190213772A1 (en) | 2018-01-08 | 2019-07-11 | Oculus Vr, Llc | Systems and methods for rendering avatars with deep appearance models |
Non-Patent Citations (2)
Title |
---|
Ricardo Martin-Brualla, et al.,GeLaTO: Generative Latent Textured Objects,European Conference on Computer Vision,インターネット<URL:https://arxiv.org/abs/2008.04852>,2020年08月11日 |
Stephen Lombardi, et al.,Neural Volumes: Learning Dynamic Renderable Volumes from Images,ACM Transactions on Graphics,2019年07月,Vol. 38, No. 4,65:1 - 65.14 |
Also Published As
Publication number | Publication date |
---|---|
US11710287B2 (en) | 2023-07-25 |
KR20220004008A (ko) | 2022-01-11 |
EP3959688B1 (en) | 2023-07-19 |
US20220051485A1 (en) | 2022-02-17 |
WO2022005523A1 (en) | 2022-01-06 |
EP3959688A1 (en) | 2022-03-02 |
JP2022542207A (ja) | 2022-09-30 |
CN114175097A (zh) | 2022-03-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7329612B2 (ja) | オブジェクトカテゴリモデリングのための生成潜在テクスチャプロキシ | |
JP7386888B2 (ja) | 画面上の話者のフューショット合成 | |
US10096157B2 (en) | Generation of three-dimensional imagery from a two-dimensional image using a depth map | |
TWI813098B (zh) | 用於新穎視圖合成之神經混合 | |
CN111051959B (zh) | 使用来自先前视角的渲染内容和非渲染内容生成新帧 | |
JP6553184B2 (ja) | デジタルビデオのレンダリング | |
Li et al. | Immersive neural graphics primitives | |
US20230368432A1 (en) | Synthesized Camera Arrays for Rendering Novel Viewpoints | |
JP2023551864A (ja) | 自動立体テレプレゼンスシステムのための3次元(3d)顔特徴追跡 | |
US20230396750A1 (en) | Dynamic resolution of depth conflicts in telepresence | |
JP7426413B2 (ja) | ブレンドモード3次元ディスプレイシステムおよび方法 | |
US20240153201A1 (en) | Image Generation System with Controllable Scene Lighting | |
Thatte et al. | Real-World Virtual Reality With Head-Motion Parallax | |
Ali et al. | 3D VIEW: Designing of a Deception from Distorted View-dependent Images and Explaining interaction with virtual World. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210910 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210910 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221101 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20230130 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230328 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230711 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230807 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7329612 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |