JP7181233B2 - テクスチャマップ及びメッシュに基づく3d画像情報の処理 - Google Patents
テクスチャマップ及びメッシュに基づく3d画像情報の処理 Download PDFInfo
- Publication number
- JP7181233B2 JP7181233B2 JP2019570444A JP2019570444A JP7181233B2 JP 7181233 B2 JP7181233 B2 JP 7181233B2 JP 2019570444 A JP2019570444 A JP 2019570444A JP 2019570444 A JP2019570444 A JP 2019570444A JP 7181233 B2 JP7181233 B2 JP 7181233B2
- Authority
- JP
- Japan
- Prior art keywords
- texture map
- viewpoint
- mesh
- image
- texture
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/161—Encoding, multiplexing or demultiplexing different image signal components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/04—Texture mapping
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/111—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/194—Transmission of image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/117—Filters, e.g. for pre-processing or post-processing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/597—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/04—Indexing scheme for image data processing or generation, in general involving 3D image data
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Graphics (AREA)
- General Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Image Generation (AREA)
- Processing Or Creating Images (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Description
性能の向上を可能にするようなアプローチが有益である。
P2=texturemap[T1,M1] (2)
と書くことにする。
1.テクスチャTiとメッシュMiとを有する複数の基準アンカが、第1の視点に対応する予測されるアンカjに個別的にワープされ、その結果として、テクスチャPi,jとMi,jとが生じる。
2.いずれかの残留データテクスチャマップEi,jが、テクスチャを改良して、結果的に、Ti,j=Pi,j+Ei,jを生じる。
3.最終的なワープが、第2の視点のための中間出力画像を生じさせるが、これは、具体的には、左目画像Ti,j,L又は右目画像Ti,j,Rであり得る。さらに、それは、ストレッチその他の量を数量化する信頼度、視差(disparity)、深度又はマップなどの補助的情報を生じ得る。
4.次に、中間画像は統合され、最終的な出力画像に到達し、これは、再び、左目画像TL又は右目画像TRであり得る。
1.複数の基準アンカ(Ti,Mi)が、予測されるアンカjにワープされ、(Ti,j,Mi,j)を得る。
2.複数のテクスチャが統合され、テクスチャ予測Pjが形成される。
3.残留が追加されて、テクスチャTj=Pj+Ejが形成される。
4.いくつかのシナリオでは、入力メッシュの信頼性ベースの混合に基づき、オプションであるが残留Fjを用いて訂正された稠密深度マップDjが存在し得る。
5.これらのメッシュは、1つのメッシュMj=intersecti(Mi,j)を形成するように、交差される。メッシュだけに基づく交差方法を有することは有益ではあるが、一般的には、テクスチャにも依存し得るのであって、その場合には、メッシュは、フラグメントシェーディングの後でのみ利用可能である。
1.すべてのメッシュが、1つの素なグラフである状態から開始する。
2.オプションであるが、全体のビューポート(T)がカバーされることを確認するために、通常のメッシュを追加する。いくつかの場合には、このメッシュの深度値が、他のメッシュから決定されなければならず、その場合には、他のメッシュを最初に交差させ、次に、その結果を通常のメッシュと交差させることが意味を有する場合がある。
3.2次元的な意味で交差しているエッジe12とエッジe34とのそれぞれの対に対して、
a.交点に、頂点v5を追加する。深度(又は視差)成分を決定する方法は、次のように、複数ある。
i.最短なエッジ(を形成する頂点)から内挿する。
ii.好適であるのは、最も信頼性の高いエッジからの内挿であるが、この場合には、ワープされたエッジが元のエッジよりも長く伸張されているときには、この場合の信頼性は、より低くなり得る。
iii.両方のエッジの平均を取る。
iv.稠密な深度マップDjから値をフェッチする。
b.エッジe12及びe34を除去する。
c.1~4のiに対して、エッジei5を追加する。
4.メッシュ交差アルゴリズムは決定論的であるから、残留を上述されたように追加することが可能である。例えば、頂点の指数及び値の表を用いて、いくつかの深度値を訂正することが可能である。
・例えば、いくつかの利用可能な下記の選択肢から選択して、それぞれの予測されるアンカに対し、メッシュがいかに形成されるべきかを示すフィールド。
・通常のメッシュ
・最も近いアンカからのメッシュ
・アンカiからのメッシュ
・メッシュの交差
・その他
・予測されたアンカごとに、いくつのそしてどのアンカが用いられるべきかを示すフィールド。
Claims (13)
- 画像を生成するための装置であって、前記装置は、
異なる視点からのシーンを表す複数の3次元画像であって、それぞれがメッシュとテクスチャマップとを含む複数の3次元画像を含む画像信号を受け取るための受信機であって、前記画像信号は、さらに、前記複数の3次元画像の前記異なる視点と異なる第1の視点のための複数の残留データテクスチャマップを含み、前記複数の残留データテクスチャマップのうちの第1の残留データテクスチャマップは、前記複数の3次元画像のうちの第1の3次元画像のテクスチャマップである第1の基準テクスチャマップの前記第1の視点への視点移動の結果として生じるテクスチャマップに対して相対的に、前記第1の視点のためのテクスチャマップに残留データを提供し、前記複数の残留データテクスチャマップのうちの第2の残留データテクスチャマップは、前記複数の3次元画像のうちの第2の3次元画像のテクスチャマップである第2の基準テクスチャマップの前記第1の視点への視点移動の結果として生じるテクスチャマップに対して相対的に、前記第1の視点のためのテクスチャマップに残留データを提供し、前記画像信号は、前記第1の視点のための完全なテクスチャマップを含まない、受信機と、
前記複数の3次元画像のうちの第1の3次元画像のメッシュである第1の基準メッシュから、前記第1の視点のための第1のメッシュを生成し、前記複数の3次元画像のうちの第2の3次元画像のメッシュである第2の基準メッシュから、前記第1の視点のための第2のメッシュを生成するためのメッシュプロセッサと、
前記第1の3次元画像の視点から前記第1の視点への前記第1の基準テクスチャマップの視点変換に応答して、第1の中間テクスチャマップを生成し、前記第2の3次元画像の視点から前記第1の視点への前記第2の基準テクスチャマップの視点変換に応答して、第2の中間テクスチャマップを生成するための第1のテクスチャプロセッサと、
前記第1の中間テクスチャマップと前記第1の残留データテクスチャマップとの組合せに応答して、前記第1の視点のための第1のテクスチャマップを生成し、前記第2の中間テクスチャマップと前記第2の残留データテクスチャマップとの組合せに応答して、前記第1の視点のための第2のテクスチャマップを生成するための第2のテクスチャプロセッサと、
前記第1のテクスチャマップと前記第1のメッシュと前記第2のテクスチャマップと前記第2のメッシュとから、前記第1の視点と異なり、且つ、前記複数の3次元画像の前記異なる視点と異なる第2の視点のための2次元画像を生成するための画像生成器と、
を備える、装置。 - 前記画像信号は、さらに、前記第1の基準メッシュに関して、前記第1の視点のためのメッシュに対するメッシュ残留データを含み、前記メッシュプロセッサは、前記メッシュ残留データと前記第1の基準メッシュとに応答して、前記第1のメッシュを生成する、請求項1に記載の装置。
- 前記メッシュ残留データは、前記第1の視点のための前記メッシュの頂点の部分集合のみのための残留データを含む、請求項2に記載の装置。
- 前記画像信号は、前記第1の視点のためのメッシュデータを含まない、請求項1に記載の装置。
- 前記画像信号は、メッシュ生成制御データを含み、前記メッシュプロセッサは、前記メッシュ生成制御データに応答して、第1のメッシュを生成する、請求項1から4のいずれか一項に記載の装置。
- 前記画像信号は、前記複数の残留データテクスチャマップにリンクされた3次元画像を示すメタデータを含む、請求項1から5のいずれか一項に記載の装置。
- 前記画像生成器は、前記第1のテクスチャマップと前記第1のメッシュとに応答して、前記第2の視点のための第1の中間画像を生成し、追加的な視点のための追加的なテクスチャマップと追加的なメッシュとに応答して、前記第2の視点のための第2の中間画像を生成し、前記第1の中間画像と前記第2の中間画像とを組み合わせることによって、前記画像を生成する、請求項1から6に記載のいずれか一項に記載の装置。
- 前記画像生成器は、前記第1の視点から前記第2の視点への視点変換に応答して、前記第1のテクスチャマップと前記第1のメッシュとに基づき、第2の視点のための第1の中間画像を生成し、前記第1の視点から前記第2の視点への視点変換に応答して、前記第2のテクスチャマップと前記第2のメッシュとに基づき、第2の視点のための第2の中間画像を生成し、前記第1の中間画像と前記第2の中間画像とを組み合わせることによって、前記画像を生成する、請求項1に記載の装置。
- 前記画像生成器は、前記第1の3次元画像と前記第2の3次元画像とのうちの少なくとも一方の視点と関連付けられた遮蔽データに応答して、前記第1の中間画像と前記第2の中間画像とを組み合わせる、請求項8に記載の装置。
- 前記画像生成器は、前記第1のテクスチャマップと前記第2のテクスチャマップとを前記第1の視点のための第3のテクスチャマップに組み合わせ、前記第1のメッシュと前記第2のメッシュとを前記第1の視点のための第3のメッシュに組み合わせ、前記第3のテクスチャマップと前記第3のメッシュとに基づき、前記第1の視点から前記第2の視点への視点変換に応答して前記画像を生成する、請求項1に記載の装置。
- 画像信号を生成するための装置であって、前記装置は、
異なる視点からのシーンを表す複数の3次元画像であって、それぞれがメッシュとテクスチャマップとを含む複数の3次元画像を受け取り、前記複数の3次元画像の前記異なる視点と異なる第1の視点のための第1のテクスチャマップを受け取るための受信機と、
前記複数の3次元画像のうちの第1の3次元画像から前記第1の視点への第1の基準テクスチャマップの視点変換に応答して、第1の中間テクスチャマップを生成し、前記複数の3次元画像のうちの第2の3次元画像から前記第1の視点への第2の基準テクスチャマップの視点変換に応答して、第2の中間テクスチャマップを生成するためのビュー移動プロセッサと、
前記第1の中間テクスチャマップと前記第1のテクスチャマップとの比較に応答して、第1の残留データテクスチャマップを生成し、前記第2の中間テクスチャマップと前記第1のテクスチャマップとの比較に応答して、第2の残留データテクスチャマップを生成する残留プロセッサであって、前記第1の残留データテクスチャマップは、前記第1の中間テクスチャマップと前記第1のテクスチャマップとの差を示し、前記第2の残留データテクスチャマップは、前記第2の中間テクスチャマップと前記第1のテクスチャマップとの差を示す、残留プロセッサと、
前記複数の3次元画像と前記第1の残留データテクスチャマップと前記第2の残留データテクスチャマップとを含むが前記第1のテクスチャマップは含まない画像信号を生成するための信号生成器と、
を備える、装置。 - 画像を生成する方法であって、前記方法は、
異なる視点からのシーンを表しそれぞれがメッシュとテクスチャマップとを含む複数の3次元画像を含む画像信号を受け取るステップであって、前記画像信号は、さらに、前記複数の3次元画像の前記異なる視点と異なる第1の視点のための複数の残留データテクスチャマップを含み、前記複数の残留データテクスチャマップのうちの第1の残留データテクスチャマップは、前記複数の3次元画像のうちの第1の3次元画像のテクスチャマップである第1の基準テクスチャマップの前記第1の視点への視点移動の結果として生じるテクスチャマップに対して相対的に、前記第1の視点のためのテクスチャマップに残留データを提供し、前記複数の残留データテクスチャマップのうちの第2の残留データテクスチャマップは、前記複数の3次元画像のうちの第2の3次元画像のテクスチャマップである第2の基準テクスチャマップの前記第1の視点への視点移動の結果として生じるテクスチャマップに対して相対的に、前記第1の視点のためのテクスチャマップに残留データを提供し、前記画像信号は、前記第1の視点のための完全なテクスチャマップを含まない、受け取るステップと、
前記複数の3次元画像のうちの第1の3次元画像のメッシュである第1の基準メッシュから、前記第1の視点のための第1のメッシュを生成し、前記複数の3次元画像のうちの第2の3次元画像のメッシュである第2の基準メッシュから、前記第1の視点のための第2のメッシュを生成するステップと、
前記第1の3次元画像の視点から前記第1の視点への前記第1の基準テクスチャマップの視点変換に応答して、第1の中間テクスチャマップを生成し、前記第2の3次元画像の視点から前記第1の視点への前記第2の基準テクスチャマップの視点変換に応答して、第2の中間テクスチャマップを生成するステップと、
前記第1の中間テクスチャマップと前記第1の残留データテクスチャマップとの組合せに応答して、前記第1の視点のための第1のテクスチャマップを生成し、前記第2の中間テクスチャマップと前記第2の残留データテクスチャマップとの組合せに応答して、前記第1の視点のための第2のテクスチャマップを生成するステップと、
前記第1のテクスチャマップと前記第1のメッシュと前記第2のテクスチャマップと前記第2のメッシュとから、前記第1の視点と異なり、且つ、前記複数の3次元画像の前記異なる視点と異なる第2の視点のための2次元画像を生成するステップと、
を有する、方法。 - 画像信号を生成する方法であって、前記方法は、
異なる視点からのシーンを表す複数の3次元画像であって、それぞれがメッシュとテクスチャマップとを含む複数の3次元画像を受け取り、前記複数の3次元画像の前記異なる視点と異なる第1の視点のための第1のテクスチャマップを受け取るステップと、
前記複数の3次元画像のうちの第1の3次元画像から前記第1の視点への第1の基準テクスチャマップの視点変換に応答して第1の中間テクスチャマップを生成し、前記複数の3次元画像のうちの第2の3次元画像から前記第1の視点への第2の基準テクスチャマップの視点変換に応答して第2の中間テクスチャマップを生成するステップと、
前記第1の中間テクスチャマップと前記第1のテクスチャマップとの比較に応答して第1の残留データテクスチャマップを生成し、前記第2の中間テクスチャマップと前記第1のテクスチャマップとの比較に応答して第2の残留データテクスチャマップを生成するステップであって、前記第1の残留データテクスチャマップは、前記第1の中間テクスチャマップと前記第1のテクスチャマップとの差を示し、前記第2の残留データテクスチャマップは、前記第2の中間テクスチャマップと前記第1のテクスチャマップとの差を示す、ステップと、
前記複数の3次元画像と前記第1の残留データテクスチャマップと前記第2の残留データテクスチャマップとを含むが前記第1のテクスチャマップは含まない画像信号を生成するステップと、
を有する、方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP17177649.5A EP3419286A1 (en) | 2017-06-23 | 2017-06-23 | Processing of 3d image information based on texture maps and meshes |
EP17177649.5 | 2017-06-23 | ||
PCT/EP2018/066159 WO2018234258A1 (en) | 2017-06-23 | 2018-06-19 | PROCESSING 3D IMAGE INFORMATION BASED ON TEXTURE AND MESH CARDS |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2020524851A JP2020524851A (ja) | 2020-08-20 |
JP2020524851A5 JP2020524851A5 (ja) | 2021-07-29 |
JP7181233B2 true JP7181233B2 (ja) | 2022-11-30 |
Family
ID=59152789
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019570444A Active JP7181233B2 (ja) | 2017-06-23 | 2018-06-19 | テクスチャマップ及びメッシュに基づく3d画像情報の処理 |
Country Status (9)
Country | Link |
---|---|
US (1) | US11189079B2 (ja) |
EP (2) | EP3419286A1 (ja) |
JP (1) | JP7181233B2 (ja) |
KR (1) | KR102538939B1 (ja) |
CN (1) | CN110999285B (ja) |
BR (1) | BR112019027116A2 (ja) |
RU (1) | RU2764187C2 (ja) |
TW (1) | TWI800513B (ja) |
WO (1) | WO2018234258A1 (ja) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
IL272651B (en) * | 2017-09-01 | 2022-08-01 | Magic Leap Inc | Creating a new frame using processed and unprocessed content from a previous perspective |
EP3509308A1 (en) | 2018-01-05 | 2019-07-10 | Koninklijke Philips N.V. | Apparatus and method for generating an image data bitstream |
GB2582315B (en) | 2019-03-19 | 2023-05-17 | Sony Interactive Entertainment Inc | Method and system for generating an image |
EP3712843A1 (en) | 2019-03-19 | 2020-09-23 | Koninklijke Philips N.V. | Image signal representing a scene |
US11217011B2 (en) * | 2019-04-19 | 2022-01-04 | Facebook Technologies, Llc. | Providing semantic-augmented artificial-reality experience |
US20220309733A1 (en) * | 2021-03-29 | 2022-09-29 | Tetavi Ltd. | Surface texturing from multiple cameras |
US20230162404A1 (en) * | 2021-11-22 | 2023-05-25 | Tencent America LLC | Decoding of patch temporal alignment for mesh compression |
CN114140569B (zh) * | 2022-01-27 | 2022-04-26 | 山东捷瑞数字科技股份有限公司 | 一种三维场景序列化压缩方法 |
WO2024107872A1 (en) * | 2022-11-15 | 2024-05-23 | Google Llc | Real-time view synthesis |
CN117974817A (zh) * | 2024-04-02 | 2024-05-03 | 江苏狄诺尼信息技术有限责任公司 | 基于图像编码的三维模型纹理数据高效压缩方法及系统 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002183761A (ja) | 2000-10-27 | 2002-06-28 | Canon Inc | 画像生成の方法および装置 |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6124864A (en) * | 1997-04-07 | 2000-09-26 | Synapix, Inc. | Adaptive modeling and segmentation of visual image streams |
RU2237283C2 (ru) * | 2001-11-27 | 2004-09-27 | Самсунг Электроникс Ко., Лтд. | Устройство и способ представления трехмерного объекта на основе изображений с глубиной |
KR100731979B1 (ko) | 2005-10-18 | 2007-06-25 | 전자부품연구원 | 다시점 정방향 카메라 구조 기반의 메쉬를 이용한 중간영상 합성 방법 및 장치와 이를 구현하는 기능을실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는기록 매체 |
TWI348120B (en) | 2008-01-21 | 2011-09-01 | Ind Tech Res Inst | Method of synthesizing an image with multi-view images |
US8913657B2 (en) * | 2008-10-27 | 2014-12-16 | Lg Electronics Inc. | Virtual view image synthesis method and apparatus |
CN101626509B (zh) * | 2009-08-10 | 2011-02-02 | 北京工业大学 | 三维网格编码、解码方法及编码、解码装置 |
WO2011068582A2 (en) * | 2009-09-18 | 2011-06-09 | Logos Technologies, Inc. | Systems and methods for persistent surveillance and large volume data streaming |
RU2467395C1 (ru) * | 2011-07-11 | 2012-11-20 | Российская Федерация, От Имени Которой Выступает Министерство Промышленности И Торговли Российской Федерации | Способ создания изображений трехмерных объектов для систем реального времени |
US20130095920A1 (en) * | 2011-10-13 | 2013-04-18 | Microsoft Corporation | Generating free viewpoint video using stereo imaging |
CN102625126B (zh) * | 2012-03-22 | 2014-10-15 | 北京工业大学 | 一种基于预测的三维网格编码方法 |
KR101429349B1 (ko) * | 2012-09-18 | 2014-08-12 | 연세대학교 산학협력단 | 중간 시점 영상 합성 장치 및 방법과 이에 관한 기록매체 |
US20140092439A1 (en) * | 2012-09-28 | 2014-04-03 | Scott A. Krig | Encoding images using a 3d mesh of polygons and corresponding textures |
GB2499694B8 (en) * | 2012-11-09 | 2017-06-07 | Sony Computer Entertainment Europe Ltd | System and method of image reconstruction |
US10484697B2 (en) * | 2014-09-09 | 2019-11-19 | Qualcomm Incorporated | Simultaneous localization and mapping for video coding |
US10163247B2 (en) * | 2015-07-14 | 2018-12-25 | Microsoft Technology Licensing, Llc | Context-adaptive allocation of render model resources |
WO2018042388A1 (en) * | 2016-09-02 | 2018-03-08 | Artomatix Ltd. | Systems and methods for providing convolutional neural network based image synthesis using stable and controllable parametric models, a multiscale synthesis framework and novel network architectures |
EP3552183B1 (en) | 2016-12-06 | 2021-09-15 | Koninklijke Philips N.V. | Apparatus and method for generating a light intensity image |
US10026218B1 (en) * | 2017-11-01 | 2018-07-17 | Pencil and Pixel, Inc. | Modeling indoor scenes based on digital images |
EP3509308A1 (en) * | 2018-01-05 | 2019-07-10 | Koninklijke Philips N.V. | Apparatus and method for generating an image data bitstream |
-
2017
- 2017-06-23 EP EP17177649.5A patent/EP3419286A1/en not_active Withdrawn
-
2018
- 2018-06-19 RU RU2020102462A patent/RU2764187C2/ru active
- 2018-06-19 EP EP18732338.1A patent/EP3643059B1/en active Active
- 2018-06-19 JP JP2019570444A patent/JP7181233B2/ja active Active
- 2018-06-19 WO PCT/EP2018/066159 patent/WO2018234258A1/en active Application Filing
- 2018-06-19 CN CN201880049509.1A patent/CN110999285B/zh active Active
- 2018-06-19 BR BR112019027116-3A patent/BR112019027116A2/pt unknown
- 2018-06-19 US US16/622,996 patent/US11189079B2/en active Active
- 2018-06-19 KR KR1020207002012A patent/KR102538939B1/ko active IP Right Grant
- 2018-06-20 TW TW107121041A patent/TWI800513B/zh active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002183761A (ja) | 2000-10-27 | 2002-06-28 | Canon Inc | 画像生成の方法および装置 |
Also Published As
Publication number | Publication date |
---|---|
US20210150802A1 (en) | 2021-05-20 |
RU2764187C2 (ru) | 2022-01-14 |
TW201921921A (zh) | 2019-06-01 |
EP3419286A1 (en) | 2018-12-26 |
BR112019027116A2 (pt) | 2020-07-07 |
RU2020102462A3 (ja) | 2021-08-25 |
EP3643059A1 (en) | 2020-04-29 |
JP2020524851A (ja) | 2020-08-20 |
KR102538939B1 (ko) | 2023-06-01 |
US11189079B2 (en) | 2021-11-30 |
CN110999285A (zh) | 2020-04-10 |
TWI800513B (zh) | 2023-05-01 |
CN110999285B (zh) | 2023-02-28 |
RU2020102462A (ru) | 2021-07-26 |
KR20200020879A (ko) | 2020-02-26 |
EP3643059B1 (en) | 2022-03-30 |
WO2018234258A1 (en) | 2018-12-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7181233B2 (ja) | テクスチャマップ及びメッシュに基づく3d画像情報の処理 | |
US11210838B2 (en) | Fusing, texturing, and rendering views of dynamic three-dimensional models | |
KR102581134B1 (ko) | 광 강도 이미지를 생성하기 위한 장치 및 방법 | |
EP1437898A1 (en) | Video filtering for stereo images | |
Bonatto et al. | Real-time depth video-based rendering for 6-DoF HMD navigation and light field displays | |
KR102059732B1 (ko) | 디지털 비디오 렌더링 | |
KR20220011180A (ko) | 체적 비디오 인코딩 및 디코딩을 위한 방법, 장치 및 컴퓨터 프로그램 | |
KR20210129685A (ko) | 광 강도 이미지를 생성하기 위한 장치 및 방법 | |
EP3540696A1 (en) | A method and an apparatus for volumetric video rendering | |
KR101163020B1 (ko) | 3차원 모델을 스케일링하는 방법 및 스케일링 유닛 | |
Van Bogaert et al. | Novel view synthesis in embedded virtual reality devices | |
WO2020193703A1 (en) | Techniques for detection of real-time occlusion | |
EP4254958A1 (en) | Compression of depth maps | |
EP4345759A1 (en) | Generation of adapted mesh representation for a scene | |
Kim et al. | Ray tracing-based construction of 3D background model for real-time stereoscopic rendering of live immersive video | |
WO2024107872A1 (en) | Real-time view synthesis |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210617 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210617 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220808 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220929 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221021 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221117 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7181233 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |