JP6651679B2 - 光強度画像を生成するための装置及び方法 - Google Patents
光強度画像を生成するための装置及び方法 Download PDFInfo
- Publication number
- JP6651679B2 JP6651679B2 JP2019530064A JP2019530064A JP6651679B2 JP 6651679 B2 JP6651679 B2 JP 6651679B2 JP 2019530064 A JP2019530064 A JP 2019530064A JP 2019530064 A JP2019530064 A JP 2019530064A JP 6651679 B2 JP6651679 B2 JP 6651679B2
- Authority
- JP
- Japan
- Prior art keywords
- light intensity
- mesh
- viewpoint
- depth
- map
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 72
- 230000009466 transformation Effects 0.000 claims description 51
- 230000004044 response Effects 0.000 claims description 7
- 230000003247 decreasing effect Effects 0.000 claims description 6
- 230000001419 dependent effect Effects 0.000 claims description 6
- 238000004590 computer program Methods 0.000 claims 1
- 238000012545 processing Methods 0.000 description 31
- 238000013459 approach Methods 0.000 description 29
- 230000008569 process Effects 0.000 description 20
- 230000006870 function Effects 0.000 description 19
- 238000009877 rendering Methods 0.000 description 14
- 238000006243 chemical reaction Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 9
- 230000008901 benefit Effects 0.000 description 8
- 230000008859 change Effects 0.000 description 7
- 238000000844 transformation Methods 0.000 description 5
- 238000012360 testing method Methods 0.000 description 4
- 230000007704 transition Effects 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 239000008186 active pharmaceutical agent Substances 0.000 description 2
- 230000015556 catabolic process Effects 0.000 description 2
- 238000006731 degradation reaction Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 239000012634 fragment Substances 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 125000001475 halogen functional group Chemical group 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/04—Texture mapping
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
- G06T15/205—Image-based rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/20—Processor architectures; Processor configuration, e.g. pipelining
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/50—Lighting effects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/111—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/111—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
- H04N13/117—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/275—Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/28—Indexing scheme for image data processing or generation, in general involving image processing hardware
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Graphics (AREA)
- Signal Processing (AREA)
- Geometry (AREA)
- Computing Systems (AREA)
- Image Generation (AREA)
- Processing Or Creating Images (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Description
a.どのメッシュポリゴンにそれが含まれるかを決定する。
b.3D三角形頂点座標及び線形補間を使用して、メッシュの元の座標系におけるその3D位置を決定する。
c.三角形の頂点の(u、v)テクスチャ座標及び線形補間を使用して、入力テクスチャマップにおける(u、v)テクスチャ座標を決定する。
d.出力画像のピクセル値を、テクスチャマップの位置(u、v)におけるテクスチャ値に設定する。
w1=f(g1),w2=f(g2)
f=e−10g
w1=f(g1,g2)
ここで、g1は第1のメッシュにおける局所勾配の大きさであり、g2は第2のメッシュにおける局所勾配の大きさであり、fはg1の単調減少関数であって、g2の単調増加関数である。
w2=1−w1
g≡gk
f≡fk
w≡wk
c≡ck
ここでkは、所与の視点についてのメッシュ頂点のインデックス又は2D画像座標(xk,yk)のインデックスのいずれかである。
w1=f(g1)
が使用される。
w1=f(g1,g2)
である。
Claims (15)
- 光強度画像を生成する方法であって、前記方法は、
第1の視点からのシーンを表す第1のメッシュ及び第1のテクスチャマップを受け取ることと、
第2の視点からのシーンを表す第2のメッシュ及び第2のテクスチャマップを受け取ることと、
前記第1のテクスチャマップ、前記第1のメッシュ、前記第2のテクスチャマップ及び前記第2のメッシュに応じて、第3の視点からのシーンを表す光強度画像を決定することとを有し、
前記光強度画像を決定することは、前記光強度画像内の第1の位置について、
前記第1のテクスチャマップ及び前記第1のメッシュに基づいて視点変換によって前記第1の位置についての第1の光強度値を決定するステップと、
前記第2のテクスチャマップ及び前記第2のメッシュに基づいて視点変換によって前記第1の位置についての第2の光強度値を決定するステップと、
前記第1の光強度値及び前記第2の光強度値の加重結合によって、前記第1の位置における前記光強度画像の光強度値を決定するステップであって、前記加重結合による前記第2の光強度値に対する相対的な前記第1の光強度値の重み付けが、前記第1の位置に対応する第2のメッシュ位置における前記第2のメッシュ内の第2の深度勾配に対する相対的な、前記第1の位置に対応する前記第1のメッシュ位置における前記第1のメッシュ内の第1の深度勾配に依存する、決定するステップとを
実行することを含む、
方法。 - 前記重み付けは、前記第2の光強度値に対する相対的な前記第1の光強度値の重み付けを含み、前記第1の光強度値の重み付けは、前記第1の深度勾配の絶対値の単調減少関数である、請求項1に記載の方法。
- 前記重み付けは、前記第2の光強度値に対する相対的な前記第1の光強度値の重み付けを含み、前記第1の光強度値の重み付けは、前記第2の深度勾配の絶対値の単調増加関数である、請求項1に記載の方法。
- 前記第1のメッシュの少なくともいくつかの頂点についての深度勾配を決定することと、前記少なくともいくつかの頂点についての前記深度勾配に応じて前記第1の深度勾配を決定することとをさらに有する、請求項1に記載の方法。
- 前記深度勾配を決定することは、前記第1のメッシュの前記少なくともいくつかの頂点のうちの1つの頂点について、前記頂点の深度と、前記第1のメッシュの少なくとも1つの他の頂点の深度と、前記頂点及び前記少なくとも1つの他の頂点の間の距離とに応じて深度勾配を決定することを含む、請求項4に記載の方法。
- 前記深度勾配を決定することは、前記第1のメッシュの前記少なくともいくつかの頂点のうちの1つの頂点について、前記頂点から複数の近傍の頂点への深度勾配に応じて深度勾配を決定することを含む、請求項4に記載の方法。
- 前記第1のテクスチャマップについての深度マップにおける深度変動に応じて前記第1の深度勾配を決定することをさらに有する、請求項1乃至6のいずれか一項に記載の方法。
- 前記第1のテクスチャマップについての深度勾配マップを決定するステップと、
視点変換を前記深度勾配マップに適用して、視点変換された深度勾配マップを生成するステップと、
前記第1の位置に対応する前記視点変換された深度勾配マップ内の位置における深度勾配に応じて前記第1の深度勾配を決定するステップとをさらに有する、
請求項1乃至7のいずれか一項に記載の方法。 - 前記深度勾配に応じて前記加重結合の重みを含む重みマップを決定するステップと、
視点変換を前記重みマップに適用して、視点変換された重みマップを生成するステップと、
前記視点変換された深度勾配マップ内の前記第1の位置における重みに応じて前記加重結合の重みを決定するステップとをさらに有する、
請求項1乃至8のいずれか一項に記載の方法。 - 前記第1のテクスチャマップ、前記第2のテクスチャマップ、並びに前記深度勾配マップ及び前記重みマップのうちの少なくとも1つに対する前記視点変換は、同一の視点変換である、請求項8又は9に記載の方法。
- 前記第1のテクスチャマップ及び前記第1のメッシュは、現実のシーンのキャプチャから生成される、請求項1乃至10のいずれか一項に記載の方法。
- 前記重み付けはさらに、前記第1の視点と前記第3の視点との差に依存する、請求項1乃至11のいずれか一項に記載の方法。
- 前記第2の光強度値に対する相対的な前記第1の光強度値の前記重み付けは、第1の深度マップ内の前記第1のメッシュ位置における深度を決定するために使用される深度推定の信頼性を示す信頼性指標にさらに依存し、前記第2の光強度値に対する相対的な前記第1の光強度値の前記重み付けが前記信頼性指標に関して増加することは、前記深度推定の信頼性が増加することを示す、請求項1乃至12のいずれか一項に記載の方法。
- 光強度画像を生成するための装置であって、前記装置は、
第1の視点からのシーンを表す第1のメッシュ及び第1のテクスチャマップを受け取るための受信器と、
第2の視点からのシーンを表す第2のメッシュ及び第2のテクスチャマップを受け取るための受信器と、
前記第1のテクスチャマップ、前記第1のメッシュ、前記第2のテクスチャマップ及び前記第2のメッシュに応じて、第3の視点からのシーンを表す光強度画像を決定するための画像生成器とを備え、
前記画像生成器は、
前記第1のテクスチャマップ及び前記第1のメッシュに基づいて視点変換によって前記光強度画像内の第1の位置についての第1の光強度値を決定するための第1の視点変換器と、
前記第2のテクスチャマップ及び前記第2のメッシュに基づいて視点変換によって前記第1の位置についての第2の光強度値を決定するための第2の視点変換器と、
前記第1の光強度値及び前記第2の光強度値の加重結合によって、前記第1の位置における光強度画像の光強度値を決定するための結合器であって、前記加重結合による前記第2の光強度値に対する相対的な前記第1の光強度値の重み付けが、前記第1の位置に対応する第2のメッシュ位置における前記第2のメッシュ内の第2の深度勾配に対する相対的な、前記第1の位置に対応する前記第1のメッシュ位置における前記第1のメッシュ内の第1の深度勾配に依存する、結合器とを備える、
装置。 - 請求項1乃至13のいずれか一項に記載の方法を実行する、コンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP16202469.9 | 2016-12-06 | ||
EP16202469 | 2016-12-06 | ||
PCT/EP2017/080597 WO2018104102A1 (en) | 2016-12-06 | 2017-11-28 | Apparatus and method for generating a light intensity image |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019536174A JP2019536174A (ja) | 2019-12-12 |
JP6651679B2 true JP6651679B2 (ja) | 2020-02-19 |
Family
ID=57517749
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019530064A Active JP6651679B2 (ja) | 2016-12-06 | 2017-11-28 | 光強度画像を生成するための装置及び方法 |
Country Status (9)
Country | Link |
---|---|
US (1) | US10699466B2 (ja) |
EP (1) | EP3552183B1 (ja) |
JP (1) | JP6651679B2 (ja) |
KR (1) | KR102581134B1 (ja) |
CN (1) | CN110140151B (ja) |
BR (1) | BR112019011254A8 (ja) |
RU (1) | RU2754721C2 (ja) |
TW (1) | TWI764959B (ja) |
WO (1) | WO2018104102A1 (ja) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113923438A (zh) * | 2017-04-27 | 2022-01-11 | 谷歌有限责任公司 | 合成立体视觉图像内容捕获 |
EP3419286A1 (en) | 2017-06-23 | 2018-12-26 | Koninklijke Philips N.V. | Processing of 3d image information based on texture maps and meshes |
EP3629585A1 (en) * | 2018-09-25 | 2020-04-01 | Koninklijke Philips N.V. | Image synthesis |
TWI757658B (zh) * | 2018-11-14 | 2022-03-11 | 宏達國際電子股份有限公司 | 影像處理系統及影像處理方法 |
EP3696773A1 (en) | 2019-02-15 | 2020-08-19 | Koninklijke Philips N.V. | Apparatus and method for generating a light intensity image |
US11361505B2 (en) * | 2019-06-06 | 2022-06-14 | Qualcomm Technologies, Inc. | Model retrieval for objects in images using field descriptors |
TWI736335B (zh) * | 2020-06-23 | 2021-08-11 | 國立成功大學 | 基於深度影像生成方法、電子裝置與電腦程式產品 |
EP4013059A1 (en) | 2020-12-11 | 2022-06-15 | Koninklijke Philips N.V. | Changing video tracks in immersive videos |
US20240135593A1 (en) * | 2022-10-11 | 2024-04-25 | Tencent America LLC | Method and apparatus for uv attributes coding for symmetry mesh |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5424556A (en) * | 1993-11-30 | 1995-06-13 | Honeywell Inc. | Gradient reflector location sensing system |
JP2000348213A (ja) * | 1999-06-07 | 2000-12-15 | Sanyo Electric Co Ltd | 三次元画像生成装置、三次元画像生成表示装置、及びその方法並びに記録媒体 |
US6750873B1 (en) | 2000-06-27 | 2004-06-15 | International Business Machines Corporation | High quality texture reconstruction from multiple scans |
EP2180449A1 (en) * | 2008-10-21 | 2010-04-28 | Koninklijke Philips Electronics N.V. | Method and device for providing a layered depth model of a scene |
EP2348733A4 (en) * | 2008-10-27 | 2012-09-12 | Lg Electronics Inc | METHOD AND APPARATUS FOR THE SYNTHESIS OF VIRTUAL VISUALIZATION IMAGES |
WO2011121117A1 (en) * | 2010-04-02 | 2011-10-06 | Imec | Virtual camera system |
JP5858381B2 (ja) * | 2010-12-03 | 2016-02-10 | 国立大学法人名古屋大学 | 多視点画像合成方法及び多視点画像合成システム |
KR20120079794A (ko) * | 2011-01-05 | 2012-07-13 | 삼성전자주식회사 | 영상 처리 장치 및 방법 |
US9495806B2 (en) | 2012-03-29 | 2016-11-15 | Panasonic Intellectual Property Management Co., Ltd. | Image processing apparatus and image processing method |
WO2013158784A1 (en) * | 2012-04-17 | 2013-10-24 | 3Dmedia Corporation | Systems and methods for improving overall quality of three-dimensional content by altering parallax budget or compensating for moving objects |
FR2993662B1 (fr) * | 2012-07-23 | 2015-05-15 | Msc & Sgcc | Procede et installation pour la detection notamment de defauts refractants |
RU2015106702A (ru) * | 2012-07-27 | 2016-09-20 | Конинклейке Филипс Н.В. | Цветовое выделение и сохранение объектов с использованием спектров отражения |
EP3869797B1 (en) | 2012-08-21 | 2023-07-19 | Adeia Imaging LLC | Method for depth detection in images captured using array cameras |
US9437039B2 (en) * | 2012-09-11 | 2016-09-06 | Nvidia Corporation | Method and system for graphics rendering employing gradient domain metropolis light transport |
US9519972B2 (en) * | 2013-03-13 | 2016-12-13 | Kip Peli P1 Lp | Systems and methods for synthesizing images from image data captured by an array camera using restricted depth of field depth maps in which depth estimation precision varies |
US9905039B2 (en) * | 2014-02-21 | 2018-02-27 | Qualcomm Incorporated | View independent color equalized 3D scene texturing |
US10484697B2 (en) | 2014-09-09 | 2019-11-19 | Qualcomm Incorporated | Simultaneous localization and mapping for video coding |
US9900583B2 (en) * | 2014-12-04 | 2018-02-20 | Futurewei Technologies, Inc. | System and method for generalized view morphing over a multi-camera mesh |
WO2017050858A1 (en) | 2015-09-23 | 2017-03-30 | Koninklijke Philips N.V. | Generation of triangle mesh for a three dimensional image |
-
2017
- 2017-11-28 US US16/465,606 patent/US10699466B2/en active Active
- 2017-11-28 CN CN201780082446.5A patent/CN110140151B/zh active Active
- 2017-11-28 EP EP17804203.2A patent/EP3552183B1/en active Active
- 2017-11-28 RU RU2019120831A patent/RU2754721C2/ru active
- 2017-11-28 JP JP2019530064A patent/JP6651679B2/ja active Active
- 2017-11-28 WO PCT/EP2017/080597 patent/WO2018104102A1/en unknown
- 2017-11-28 BR BR112019011254A patent/BR112019011254A8/pt active Search and Examination
- 2017-11-28 KR KR1020197019245A patent/KR102581134B1/ko active IP Right Grant
- 2017-12-04 TW TW106142336A patent/TWI764959B/zh active
Also Published As
Publication number | Publication date |
---|---|
RU2754721C2 (ru) | 2021-09-06 |
KR102581134B1 (ko) | 2023-09-21 |
RU2019120831A3 (ja) | 2021-03-10 |
BR112019011254A2 (pt) | 2019-10-08 |
US20190385352A1 (en) | 2019-12-19 |
US10699466B2 (en) | 2020-06-30 |
BR112019011254A8 (pt) | 2023-04-04 |
EP3552183B1 (en) | 2021-09-15 |
KR20190091500A (ko) | 2019-08-06 |
RU2019120831A (ru) | 2021-01-12 |
JP2019536174A (ja) | 2019-12-12 |
WO2018104102A1 (en) | 2018-06-14 |
EP3552183A1 (en) | 2019-10-16 |
TWI764959B (zh) | 2022-05-21 |
CN110140151B (zh) | 2023-08-29 |
TW201828255A (zh) | 2018-08-01 |
CN110140151A (zh) | 2019-08-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6651679B2 (ja) | 光強度画像を生成するための装置及び方法 | |
KR102538939B1 (ko) | 텍스처 맵들 및 메시들에 기초한 3d 이미지 정보의 처리 | |
WO2019135979A1 (en) | Fusing, texturing, and rendering views of dynamic three-dimensional models | |
KR102156402B1 (ko) | 영상 처리 방법 및 장치 | |
JP7460641B2 (ja) | 光強度画像を生成するための装置及び方法 | |
KR100908123B1 (ko) | 원근 보정을 수행하는 3차원 그래픽 처리 방법 및 장치 | |
US20240311959A1 (en) | Frame Interpolation Using Both Optical Motion And In-Game Motion | |
CN118678014A (zh) | 利用光学运动补偿和游戏内运动补偿进行帧插值 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190604 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20190604 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20191011 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191224 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200122 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6651679 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |