JP5527856B2 - 三次元画像データ処理 - Google Patents
三次元画像データ処理 Download PDFInfo
- Publication number
- JP5527856B2 JP5527856B2 JP2011528482A JP2011528482A JP5527856B2 JP 5527856 B2 JP5527856 B2 JP 5527856B2 JP 2011528482 A JP2011528482 A JP 2011528482A JP 2011528482 A JP2011528482 A JP 2011528482A JP 5527856 B2 JP5527856 B2 JP 5527856B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- transparency
- depth
- map
- value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title description 33
- 230000007704 transition Effects 0.000 claims description 185
- 238000000034 method Methods 0.000 claims description 88
- 238000009877 rendering Methods 0.000 claims description 49
- 230000004044 response Effects 0.000 claims description 20
- 238000011156 evaluation Methods 0.000 claims description 3
- 238000013459 approach Methods 0.000 description 36
- 230000008569 process Effects 0.000 description 25
- 239000010410 layer Substances 0.000 description 9
- 230000015556 catabolic process Effects 0.000 description 6
- 238000006731 degradation reaction Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 230000004048 modification Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000009286 beneficial effect Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 238000002156 mixing Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 241000813217 Spinus lawrencei Species 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 239000002356 single layer Substances 0.000 description 1
- 239000000779 smoke Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
- G06T15/205—Image-based rendering
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Geometry (AREA)
- Computer Graphics (AREA)
- General Physics & Mathematics (AREA)
- Image Generation (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Description
yn=tn*fn+(1−tn)*bn
ここで、fは前景画像ピクセル値であり、bは背景画像ピクセル値であり、tはピクセルnに対する透明度の値であって、0と1との間の値である(ここで、0は完全に透明であることを表わし、1は完全に不透明であることを表わす)。
yn=tn*fn+(1−tn)*bn
として生成され、ここで、yは混合画像のピクセル値であり、fは前景画像のピクセル値であり、bは背景画像のピクセル値であり、tはピクセルnに対する透明度の値であって、0から1の間の値である(0は総合的に透明であり、1は完全に不透明を表わす)。画像の混合は、前景画像ソース303から受信される3Dデータに応じて、実施される。例えば、前景画像対象物のリストは、どの画像領域が前景画像から採られ、どれが背景画像から採られるかを選択するために使用される。
tn*fn=yn−(1−tn)*bn
Claims (29)
- 3次元画像データの少なくとも一つの視野の画像要素をレンダリングする際の使用のために、当該3次元画像データを供給する方法であって、
第1の画像を背景画像ソースにより供給するステップと、
前景画像ソースからの第2の画像と、第1の画像との組み合わせである混合画像を混合画像生成器により供給するステップであって、第2の画像は第1の画像に対する前景画像であり、当該組み合わせは第2の画像に対する透明度データに応じている、前記混合画像を供給するステップと、
前記混合画像に関係する透明度マップを透明度プロセッサにより供給するステップであって、当該透明度マップは、前記混合画像のピクセルに対する透明度の値を有する、前記透明度マップを供給するステップと、
前記混合画像に対する第1の深度指標マップを混合深度プロセッサにより供給するステップであって、第1の深度指標マップは前記混合画像のピクセルに対する深度指標値を有する、第1の深度指標マップを供給するステップと、
第1の画像、前記混合画像、前記透明度マップ及び第1の深度指標マップを有する前記3次元画像データを画像エンコーダユニットにより供給するステップとを、有する方法。 - 前記3次元画像データを有する画像信号を生成するステップを更に有する、請求項1に記載の方法。
- 前記3次元画像データに応じて、第1の画像及び第2の画像の視野角とは異なる視野角に対する視野をレンダリングするステップを更に有する、請求項1に記載の方法。
- 前記3次元画像データに応じて、3次元画像を視覚化するのに使用するための前記3次元画像データの複数の視野の画像要素に対応する画像要素をレンダリングするステップを更に有する、請求項3に記載の方法。
- 値のセットのグループから値の第2のセットの値に応じて、前記値のセットのグループから値の第1のセットの値を修正するステップを更に有し、前記値のセットのグループは前記透明度マップの透明度の値に対応する値のセットと第1の深度指標マップの深度指標値に対応する値のセットとを有する、請求項1に記載の方法。
- 画像対象物エッジに対応する画像領域を検出するステップを更に有し、値を修正するステップは前記画像領域に対する値を修正するステップを有する、請求項5に記載の方法。
- 画像領域内の第1の深度指標マップの深度指標値と、前記透明度マップの透明度の値との間の関係を修正するステップを更に有する、請求項1に記載の方法。
- 前記関係を修正するステップが、画像方向に沿った前記透明度マップの透明度遷移と、前記画像方向に沿った第1の深度指標マップの深度遷移とを揃えるステップを有する、請求項7に記載の方法。
- 第1の深度指標マップの深度指標値に応じて、前記透明度マップの透明度の値を修正するステップを更に有する、請求項1に記載の方法。
- 透明度の値を修正するステップは、前記透明度マップの透明度遷移の一部であって、第1の深度指標マップの深度指標の一部ではない画像領域内のより高い透明度に向かって前記透明度マップの透明度の値をバイアスするステップを有する、請求項9に記載の方法。
- 透明度の値を修正するステップは、
前記画像方向に沿った第1の深度遷移マップの前記深度指標値に応じて、第1の深度遷移ポイントを決定するステップと、
より高い透明度及びより低い深度の少なくとも一つの方向に第1の深度遷移ポイントから延在する画像方向に沿って、インターバルのピクセルに対するより高い透明度に向かう画像方向に沿って前記透明度マップの透明度の値をバイアスするステップとにより、画像方向に沿った透明度遷移及び深度遷移を有する画像領域の少なくとも一部内の透明度の値を修正するステップを有する、請求項9に記載の方法。 - 前記画像方向に沿った第1の透明度マップの透明度の値に応じて、第1の透明度遷移ポイントを決定するステップを更に有し、前記インターバルが第1の透明度ポイントから第1の深度遷移ポイントまで延在する、請求項11に記載の方法。
- より高い透明度及びより低い深度の少なくとも一つの方向に前記深度遷移ポイントから延在する評価インターバル内の最高の透明度の値を持つ、画像方向に沿ったポイントとして、第1の透明度遷移ポイントを決定するステップを更に有する、請求項12に記載の方法。
- 前記バイアスするステップが、バイアスする前の前記インターバルの最高の透明度の値へ、前記インターバルの全ての透明度の値の透明度の値を設定するステップを有する、請求項11に記載の方法。
- 第1の画像に対する第2の深度指標マップを供給するステップを更に有し、第2の深度指標マップが第1の画像のピクセルに対する深度指標値を有し、第1の深度遷移ポイントを決定するステップが、第2の深度指標マップの深度指標値に応じて、第1の深度遷移ポイントを更に決定するステップを有する、請求項11に記載の方法。
- 前記深度遷移ポイントを決定するステップは、第1の深度指標マップの深度指標値と第2の深度指標マップの深度指標値との比較に応じて、前記深度指標遷移ポイントを決定するステップを有する、請求項15に記載の方法。
- 前記深度遷移ポイントを決定するステップは、第2の深度指標マップの深度指標値と第1の深度指標マップの深度指標値との間の差が閾値と交差する、画像方向に沿ったポイントとして前記深度遷移ポイントを決定するステップを有する、請求項15に記載の方法。
- 前記透明度マップの透明度の値に応じて、第1の深度指標マップの深度指標値を修正するステップを更に有する、請求項1に記載の方法。
- 深度指標値を修正するステップが、前記透明度マップ内の透明度遷移に対応する画像領域内の前景深度指標値に向かって、第1の深度指標マップの深度指標値をバイアスするステップを有する、請求項18に記載の方法。
- 深度指標値を修正するステップが、
画像方向に沿った第1の深度指標マップの前記深度指標値と前記透明度マップの前記透明度の値の少なくとも一つに応じて、第1の遷移ポイントを決定するステップと、
より低い透明度の方向に第1の透明度ポイントから延在し、第1の透明度遷移ポイントで終わる、前記画像方向に沿ったインターバルのピクセルに対する前景深度指標値に向かって、前記画像方向に沿った第1の深度指標マップの深度指標値をバイアスするステップとにより、
前記画像方向に沿った深度遷移及び透明度遷移を有する画像領域の少なくとも一部内の深度指標値を修正するステップを有する、請求項18に記載の方法。 - 第1の遷移ポイントが、前記透明度マップの前記透明度の値に応じて決定される第1の透明度遷移ポイントであって、
前記画像方向に沿った前記透明度マップの透明度指標値に応じて、第2の透明度遷移ポイントを決定するステップであって、第2の透明度遷移ポイントが第1の透明度ポイントより低い透明度に対応する当該ステップを更に有し、前記インターバルが第1の深度遷移ポイントから第2の深度遷移ポイントまで延在する、請求項20に記載の方法。 - 第1の遷移ポイントが、前記透明度マップの前記透明度の値に応じて決定される第1の透明度遷移ポイントであって、
前記画像の方向に沿った第1の深度指標マップの深度指標値に応じて第1の深度遷移ポイントを決定するステップと、
第1の深度遷移ポイントに応じて透明度検索インターバルを決定するステップとを更に有し、
第1の透明度ポイントを決定するステップが、前記透明度検索インターバル内の透明度の値に応じて、第1の透明度ポイントを決定するステップを有する、請求項20に記載の方法。 - 深度指標値をバイアスするステップが、バイアスする前の、前記インターバルに対して最も遠い前景深度指標値に対応する深度指標値へ、前記インターバルの全ての深度指標値を設定するステップを有する、請求項20に記載の方法。
- 第1の画像を背景画像ソースにより供給するステップと、
前景画像ソースからの第2の画像と、第1の画像との組み合わせである混合画像を混合画像生成器により供給するステップであって、第2の画像は第1の画像に対する前景画像であり、当該組み合わせは第2の画像に対する透明度の値に応じている、前記混合画像を供給するステップと、
前記混合画像に関係する透明度マップを透明度プロセッサにより供給するステップであって、当該透明度マップは前記混合画像のピクセルに対する透明度の値を有する、前記透明度マップを供給するステップと、
前記混合画像に対する第1の深度指標マップを混合深度プロセッサにより供給するステップであって、第1の深度指標マップは前記混合画像のピクセルに対する深度指標値を有する、第1の深度指標マップを供給するステップと、
第1の画像、前記混合画像、前記透明度マップ及び第1の深度指標マップを表現するエンコードされたデータを有する3次元画像データを画像エンコーダユニットにより生成するステップとを有する、
画像信号をエンコードする方法。 - 第1の深度指標マップの深度指標値に応じて、前記透明度マップの透明度の値を修正するステップを更に有する、請求項24に記載の方法。
- 前記透明度マップの透明度の値に応じて、第1の深度指標マップの深度指標値を修正するステップを更に有する、請求項24に記載の方法。
- 第1の画像を背景画像ソースにより供給するステップと、
前景画像ソースからの第2の画像と、第1の画像との組み合わせである混合画像を混合画像生成器により供給するステップであって、第2の画像は第1の画像に対する前景画像であり、当該組み合わせは第2の画像に対する透明度の値に応じている、当該ステップと、
前記混合画像に関係する透明度マップを透明度プロセッサにより供給するステップであって、当該透明度マップは前記混合画像のピクセルに対する深度指標値を有する当該ステップと、
前記混合画像に対する第1の深度指標マップを混合深度プロセッサにより供給するステップであって、第1の深度指標マップは前記混合画像のピクセルに対する深度指標値を有する、第1の深度指標マップを供給するステップと、
第1の画像、前記混合画像、前記透明度マップ及び第1の深度指標マップに応じて画像を3Dレンダリングユニットによりレンダリングするステップとを有する、
画像をレンダリングする方法。 - 第1の画像を供給する手段と、
第1の画像及び第2の画像の組み合わせである混合画像を供給する手段であって、第2の画像は第1の画像に対する前景画像であり、当該組み合わせは第2の画像に対する透明度の値に応じている、当該手段と、
前記混合画像に関係する透明度マップを供給する手段であって、当該透明度マップは前記混合画像のピクセルに対する深度指標値を有する当該手段と、
前記混合画像に対する第1の深度指標マップを供給するための手段であって、前記混合画像のピクセルに対して深度指標値を有する当該手段と、
第1の画像、前記混合画像、前記透明度マップ及び第1の深度指標マップを表現するエンコードされたデータを有する3次元画像データを生成するための手段とを有する画像信号エンコーダ。 - 第1の画像を供給する手段と、
第1の画像及び第2の画像の組み合わせである混合画像を供給する手段であって、第2の画像は第1の画像に対する前景画像であり、当該組み合わせは第2の画像に対する透明度の値に応じている、当該手段と、
前記混合画像に関係する透明度マップを供給する手段であって、当該透明度マップは前記混合画像のピクセルに対する透明度の値を有する、当該手段と、
前記混合画像に対する第1の深度指標マップを供給するための手段であって、第1の深度指標マップは前記混合画像のピクセルに対する深度指標値を有する、当該手段と、
第1の画像、前記混合画像、前記透明度マップ及び第1の深度指標マップに応じて画像をレンダリングする手段とを有する、
画像レンダリングユニット。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP08165057.4 | 2008-09-25 | ||
EP08165057 | 2008-09-25 | ||
PCT/IB2009/054160 WO2010035223A1 (en) | 2008-09-25 | 2009-09-23 | Three dimensional image data processing |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012503815A JP2012503815A (ja) | 2012-02-09 |
JP5527856B2 true JP5527856B2 (ja) | 2014-06-25 |
Family
ID=41406855
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011528482A Active JP5527856B2 (ja) | 2008-09-25 | 2009-09-23 | 三次元画像データ処理 |
Country Status (7)
Country | Link |
---|---|
US (1) | US10043304B2 (ja) |
EP (1) | EP2338145B1 (ja) |
JP (1) | JP5527856B2 (ja) |
KR (1) | KR20110059790A (ja) |
CN (1) | CN102165496B (ja) |
TW (1) | TWI610270B (ja) |
WO (1) | WO2010035223A1 (ja) |
Families Citing this family (49)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2180449A1 (en) * | 2008-10-21 | 2010-04-28 | Koninklijke Philips Electronics N.V. | Method and device for providing a layered depth model of a scene |
US8902229B2 (en) | 2010-01-13 | 2014-12-02 | Samsung Electronics Co., Ltd. | Method and system for rendering three dimensional views of a scene |
US9485495B2 (en) | 2010-08-09 | 2016-11-01 | Qualcomm Incorporated | Autofocus for stereo images |
JP5150698B2 (ja) * | 2010-09-30 | 2013-02-20 | 株式会社東芝 | デプス補正装置及び方法 |
WO2012075631A1 (en) | 2010-12-08 | 2012-06-14 | Industrial Technology Research Institute | Methods for generating stereoscopic views from monoscopic endoscope images and systems using the same |
JP5242667B2 (ja) | 2010-12-22 | 2013-07-24 | 株式会社東芝 | マップ変換方法、マップ変換装置及びマップ変換プログラム |
GB201114591D0 (en) * | 2011-08-23 | 2011-10-05 | Tomtom Int Bv | Methods of and apparatus for displaying map information |
US9438889B2 (en) | 2011-09-21 | 2016-09-06 | Qualcomm Incorporated | System and method for improving methods of manufacturing stereoscopic image sensors |
JP2014534665A (ja) | 2011-09-29 | 2014-12-18 | トムソン ライセンシングThomson Licensing | 視差マップをフィルタリングする方法及び装置 |
US9471988B2 (en) | 2011-11-02 | 2016-10-18 | Google Inc. | Depth-map generation for an input image using an example approximate depth-map associated with an example similar image |
JP5289538B2 (ja) * | 2011-11-11 | 2013-09-11 | 株式会社東芝 | 電子機器、表示制御方法及びプログラム |
US9672609B1 (en) * | 2011-11-11 | 2017-06-06 | Edge 3 Technologies, Inc. | Method and apparatus for improved depth-map estimation |
US9661307B1 (en) | 2011-11-15 | 2017-05-23 | Google Inc. | Depth map generation using motion cues for conversion of monoscopic visual content to stereoscopic 3D |
JP2013118468A (ja) | 2011-12-02 | 2013-06-13 | Sony Corp | 画像処理装置および画像処理方法 |
US9111350B1 (en) | 2012-02-10 | 2015-08-18 | Google Inc. | Conversion of monoscopic visual content to stereoscopic 3D |
KR101893771B1 (ko) | 2012-05-10 | 2018-08-31 | 삼성전자주식회사 | 3d 정보 처리 장치 및 방법 |
US8644596B1 (en) | 2012-06-19 | 2014-02-04 | Google Inc. | Conversion of monoscopic visual content using image-depth database |
TWI485653B (zh) * | 2012-06-28 | 2015-05-21 | Imec Taiwan Co | 成像系統及方法 |
NL2009616C2 (en) * | 2012-10-11 | 2014-04-14 | Ultra D Co Peratief U A | Adjusting depth in a three-dimensional image signal. |
US9398264B2 (en) | 2012-10-19 | 2016-07-19 | Qualcomm Incorporated | Multi-camera system using folded optics |
TW201421972A (zh) * | 2012-11-23 | 2014-06-01 | Ind Tech Res Inst | 立體視訊的編碼方法及其系統 |
CN103077557B (zh) * | 2013-02-07 | 2016-08-24 | 河北大学 | 一种自适应分层次胸部大数据显示的实现方法 |
US9674498B1 (en) | 2013-03-15 | 2017-06-06 | Google Inc. | Detecting suitability for converting monoscopic visual content to stereoscopic 3D |
KR20160034259A (ko) * | 2013-07-18 | 2016-03-29 | 엘지전자 주식회사 | 비디오 신호 처리 방법 및 장치 |
US10178373B2 (en) * | 2013-08-16 | 2019-01-08 | Qualcomm Incorporated | Stereo yaw correction using autofocus feedback |
JP6332982B2 (ja) * | 2014-01-29 | 2018-05-30 | キヤノン株式会社 | 画像処理装置およびその方法 |
US9383550B2 (en) | 2014-04-04 | 2016-07-05 | Qualcomm Incorporated | Auto-focus in low-profile folded optics multi-camera system |
US9374516B2 (en) | 2014-04-04 | 2016-06-21 | Qualcomm Incorporated | Auto-focus in low-profile folded optics multi-camera system |
US10013764B2 (en) | 2014-06-19 | 2018-07-03 | Qualcomm Incorporated | Local adaptive histogram equalization |
US9819863B2 (en) | 2014-06-20 | 2017-11-14 | Qualcomm Incorporated | Wide field of view array camera for hemispheric and spherical imaging |
US9294672B2 (en) | 2014-06-20 | 2016-03-22 | Qualcomm Incorporated | Multi-camera system using folded optics free from parallax and tilt artifacts |
US9386222B2 (en) | 2014-06-20 | 2016-07-05 | Qualcomm Incorporated | Multi-camera system using folded optics free from parallax artifacts |
US9541740B2 (en) | 2014-06-20 | 2017-01-10 | Qualcomm Incorporated | Folded optic array camera using refractive prisms |
US9832381B2 (en) | 2014-10-31 | 2017-11-28 | Qualcomm Incorporated | Optical image stabilization for thin cameras |
FR3035208B1 (fr) * | 2015-04-17 | 2017-04-21 | Thales Sa | Procede de gestion et d'affichage de symboles graphiques geo-references et systeme de visualisation associe |
CN106937103B (zh) * | 2015-12-31 | 2018-11-30 | 深圳超多维科技有限公司 | 一种图像处理方法及装置 |
CN106937104B (zh) * | 2015-12-31 | 2019-03-26 | 深圳超多维科技有限公司 | 一种图像处理方法及装置 |
CN107154032B (zh) * | 2017-04-20 | 2019-01-29 | 腾讯科技(深圳)有限公司 | 一种图像数据处理方法和装置 |
EP3396949A1 (en) * | 2017-04-26 | 2018-10-31 | Koninklijke Philips N.V. | Apparatus and method for processing a depth map |
GB2565301A (en) | 2017-08-08 | 2019-02-13 | Nokia Technologies Oy | Three-dimensional video processing |
KR102022980B1 (ko) | 2017-12-01 | 2019-09-19 | 클릭트 주식회사 | 깊이데이터를 이용한 증강현실영상 제공방법 및 프로그램 |
CN108881887B (zh) * | 2018-07-19 | 2019-07-19 | 四川长虹电器股份有限公司 | 一种基于Unity3D的光场信息获取及处理方法 |
US10643398B2 (en) * | 2018-07-23 | 2020-05-05 | Microsoft Technology Licensing, Llc | Depth ray layer for reduced visual noise |
CN109598737B (zh) * | 2018-12-04 | 2021-01-12 | 广东智媒云图科技股份有限公司 | 一种图像边缘识别方法及系统 |
EP3691277A1 (en) * | 2019-01-30 | 2020-08-05 | Ubimax GmbH | Computer-implemented method and system of augmenting a video stream of an environment |
KR102374945B1 (ko) * | 2019-02-22 | 2022-03-16 | 지멘스 메디컬 솔루션즈 유에스에이, 인크. | 영상 처리 방법 및 영상 처리 시스템 |
US11363249B2 (en) * | 2019-02-22 | 2022-06-14 | Avalon Holographics Inc. | Layered scene decomposition CODEC with transparency |
CN110336942B (zh) * | 2019-06-28 | 2021-02-02 | Oppo广东移动通信有限公司 | 一种虚化图像获取方法及终端、计算机可读存储介质 |
US11330196B2 (en) * | 2020-10-12 | 2022-05-10 | Microsoft Technology Licensing, Llc | Estimating illumination in an environment based on an image of a reference object |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2888375B2 (ja) * | 1990-11-30 | 1999-05-10 | 株式会社日立製作所 | 画像合成方法及び文字フオント生成方法 |
US5684941A (en) * | 1994-09-01 | 1997-11-04 | Cirrus Logic, Inc. | Interpolation rendering of polygons into a pixel grid |
US6266068B1 (en) * | 1998-03-13 | 2001-07-24 | Compaq Computer Corporation | Multi-layer image-based rendering for video synthesis |
JPH11339008A (ja) * | 1998-05-26 | 1999-12-10 | Matsushita Electric Ind Co Ltd | 画像処理装置 |
GB2354416B (en) * | 1999-09-17 | 2004-04-21 | Technologies Limit Imagination | Depth based blending for 3D graphics systems |
JP2002329210A (ja) | 2001-04-27 | 2002-11-15 | Canon Inc | 画像処理装置および画像処理装置の制御方法および記憶媒体 |
US7081892B2 (en) * | 2002-04-09 | 2006-07-25 | Sony Computer Entertainment America Inc. | Image with depth of field using z-buffer image data and alpha blending |
NZ525956A (en) * | 2003-05-16 | 2005-10-28 | Deep Video Imaging Ltd | Display control system for use with multi-layer displays |
CN100483463C (zh) * | 2003-09-17 | 2009-04-29 | 皇家飞利浦电子股份有限公司 | 用于在3-d图像显示屏上显示3-d图像的系统和方法 |
US7015926B2 (en) | 2004-06-28 | 2006-03-21 | Microsoft Corporation | System and process for generating a two-layer, 3D representation of a scene |
JP4240395B2 (ja) * | 2004-10-01 | 2009-03-18 | シャープ株式会社 | 画像合成装置、電子機器、画像合成方法、制御プログラムおよび可読記録媒体 |
US20060087556A1 (en) * | 2004-10-21 | 2006-04-27 | Kazunari Era | Stereoscopic image display device |
WO2006067714A2 (en) | 2004-12-20 | 2006-06-29 | Koninklijke Philips Electronics N.V. | Transparency change of view-obscuring objects |
DE102005023195A1 (de) * | 2005-05-19 | 2006-11-23 | Siemens Ag | Verfahren zur Erweiterung des Darstellungsbereiches einer Volumenaufnahme eines Objektbereiches |
CN101322418B (zh) | 2005-12-02 | 2010-09-01 | 皇家飞利浦电子股份有限公司 | 图像信号的深度相关的滤波 |
JP5011316B2 (ja) * | 2006-02-27 | 2012-08-29 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 出力画像のレンダリング |
KR101257849B1 (ko) | 2006-09-29 | 2013-04-30 | 삼성전자주식회사 | 3차원 그래픽 객체 렌더링 방법 및 장치, 이를 위한 렌더링객체 최소화 방법 및 장치 |
US8588514B2 (en) * | 2007-05-11 | 2013-11-19 | Koninklijke Philips N.V. | Method, apparatus and system for processing depth-related information |
US7982734B2 (en) * | 2007-08-01 | 2011-07-19 | Adobe Systems Incorporated | Spatially-varying convolutions for rendering soft shadow effects |
US8878836B2 (en) * | 2008-02-29 | 2014-11-04 | Samsung Electronics Co., Ltd. | Method and apparatus for encoding datastream including additional information on multiview image and method and apparatus for decoding datastream by using the same |
-
2009
- 2009-09-23 CN CN200980137747.9A patent/CN102165496B/zh active Active
- 2009-09-23 KR KR1020117009231A patent/KR20110059790A/ko not_active Application Discontinuation
- 2009-09-23 US US13/119,773 patent/US10043304B2/en active Active
- 2009-09-23 WO PCT/IB2009/054160 patent/WO2010035223A1/en active Application Filing
- 2009-09-23 EP EP09787273.3A patent/EP2338145B1/en active Active
- 2009-09-23 JP JP2011528482A patent/JP5527856B2/ja active Active
- 2009-09-24 TW TW098132351A patent/TWI610270B/zh active
Also Published As
Publication number | Publication date |
---|---|
WO2010035223A1 (en) | 2010-04-01 |
KR20110059790A (ko) | 2011-06-03 |
CN102165496A (zh) | 2011-08-24 |
EP2338145A1 (en) | 2011-06-29 |
EP2338145B1 (en) | 2020-04-08 |
US20110181588A1 (en) | 2011-07-28 |
JP2012503815A (ja) | 2012-02-09 |
TW201035907A (en) | 2010-10-01 |
US10043304B2 (en) | 2018-08-07 |
TWI610270B (zh) | 2018-01-01 |
CN102165496B (zh) | 2014-08-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5527856B2 (ja) | 三次元画像データ処理 | |
KR101648206B1 (ko) | 3차원 이미지 데이터 처리 | |
KR101468267B1 (ko) | 중간 뷰 합성 및 멀티-뷰 데이터 신호 추출 | |
RU2551789C2 (ru) | Выбор точек обзора для формирования дополнительных видов в 3d видео | |
US7822265B2 (en) | Ghost artifact reduction for rendering 2.5D graphics | |
JP5173028B2 (ja) | シーンの階層化深さモデルを提供するための方法及び装置並びにシーンの階層化深さモデルを有する信号 | |
Smolic et al. | Intermediate view interpolation based on multiview video plus depth for advanced 3D video systems | |
Muller et al. | Reliability-based generation and view synthesis in layered depth video | |
KR102581134B1 (ko) | 광 강도 이미지를 생성하기 위한 장치 및 방법 | |
JP2015522198A (ja) | 画像に対する深度マップの生成 | |
JP2020524851A (ja) | テクスチャマップ及びメッシュに基づく3d画像情報の処理 | |
KR20110015452A (ko) | 입체 이미지의 블러 향상 | |
EP4033754A1 (en) | An image synthesis system and method therefor | |
Barenbrug | Declipse 2: multi-layer image and depth with transparency made practical |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120921 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20131021 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140204 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140314 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20140411 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140411 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5527856 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |