JP6412690B2 - 深さ情報を取得する方法及びディスプレイ装置 - Google Patents
深さ情報を取得する方法及びディスプレイ装置 Download PDFInfo
- Publication number
- JP6412690B2 JP6412690B2 JP2013256699A JP2013256699A JP6412690B2 JP 6412690 B2 JP6412690 B2 JP 6412690B2 JP 2013256699 A JP2013256699 A JP 2013256699A JP 2013256699 A JP2013256699 A JP 2013256699A JP 6412690 B2 JP6412690 B2 JP 6412690B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- video
- depth
- sensor
- depth information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/207—Image signal generators using stereoscopic image cameras using a single 2D image sensor
- H04N13/232—Image signal generators using stereoscopic image cameras using a single 2D image sensor using fly-eye lenses, e.g. arrangements of circular lenses
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B2207/00—Coding scheme for general features or characteristics of optical elements and systems of subclass G02B, but not including elements and systems which would be classified in G02B6/00 and subgroups
- G02B2207/129—Coded aperture imaging
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Studio Devices (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Stereoscopic And Panoramic Photography (AREA)
- Automatic Focus Adjustment (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Image Input (AREA)
- Measurement Of Optical Distance (AREA)
- Controls And Circuits For Display Device (AREA)
- Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
Description
510:基準決定部
520:センサ選択部
530:データ復号化部
540:深さ取得部
550:ディスプレイパネル
560:センサパネル
Claims (38)
- ディスプレイパネル及びセンサパネルを含むディスプレイ装置で深さ情報を取得する方法において、
オブジェクトの位置を想定して選択される基準距離に基づいて前記センサパネルのセンサ領域を変更するステップと、
前記変更されたセンサ領域に基づいてオブジェクトの深さ情報を取得するステップと、
を含むことを特徴とする深さ情報を取得する方法。 - 前記センサパネルのセンサ領域を変更するステップは、前記オブジェクトからの推定された距離に応じて前記センサパネルの前記センサ領域の大きさを変更するステップを含むことを特徴とする請求項1に記載の深さ情報を取得する方法。
- 前記オブジェクトからの推定された距離が遠いほど前記センサ領域の大きさは小さくなることを特徴とする請求項1又は2に記載の深さ情報を取得する方法。
- ディスプレイパネル及びセンサパネルを含むディスプレイ装置でオブジェクトの深さ情報を取得する方法において、
基準距離を推定するステップと、
前記センサパネルで、前記基準距離によるセンサデータを選択するステップと、
前記センサデータを用いて前記オブジェクトに対するマルチビュー映像を生成するステップと、
前記マルチビュー映像を用いて前記オブジェクトの深さ映像を取得するステップと、
を含むことを特徴とする深さ情報を取得する方法。 - 前記マルチビュー映像を用いて前記オブジェクトの深さ映像を取得するステップは、
前記オブジェクトに対する対応点を決定するステップと、
前記対応点を用いて前記マルチビュー映像それぞれをマッチングして前記深さ映像を取得するステップと、
を含むことを特徴とする請求項4に記載の深さ情報を取得する方法。 - 前記マルチビュー映像を用いて複数のリフォーカス映像を生成するステップをさらに含み、
前記オブジェクトの深さ映像を取得するステップは、前記複数のリフォーカス映像から前記オブジェクトの深さ映像を取得するステップを含むことを特徴とする請求項4又は5に記載の深さ情報を取得する方法。 - 前記複数のリフォーカス映像を生成するステップは、
前記マルチビュー映像内のセンター映像を中心に、前記マルチビュー映像それぞれをピクセル単位にシフトするステップと、
前記シフトにより前記センター映像に対して重なる映像を前記複数のリフォーカス映像として生成するステップと、
を含むことを特徴とする請求項6に記載の深さ情報を取得する方法。 - 前記複数のリフォーカス映像のそれぞれは、シフトされるピクセル値に基づいて前記オブジェクトの一部を鮮明に表現する映像であることを特徴とする請求項6又は7に記載の深さ情報を取得する方法。
- 前記複数のリフォーカス映像から前記オブジェクトの深さ映像を取得するステップは、
前記複数のリフォーカス映像それぞれで境界面を決定するステップと、
前記境界面を用いて前記複数のリフォーカス映像それぞれをマッチングして前記深さ映像を取得するステップと、
を含むことを特徴とする請求項6乃至8のうちいずれか一項に記載の深さ情報を取得する方法。 - 前記基準距離によるセンサデータを選択するステップは、前記基準距離に応じて前記センサデータの数を変更して選択するステップを含むことを特徴とする請求項4乃至9のうちいずれか一項に記載の深さ情報を取得する方法。
- 前記基準距離が遠いほど前記センサデータの数は減少することを特徴とする請求項10に記載の深さ情報を取得する方法。
- 前記基準距離を推定するステップは、
複数の候補距離を選択するステップと、
前記複数の候補距離それぞれに対応し、前記センサパネルと関連して生成された映像の鮮明度に応じて前記複数の候補距離の中から前記基準距離を決定するステップと、
を含むことを特徴とする請求項4乃至11のうちいずれか一項に記載の深さ情報を取得する方法。 - 前記複数の候補距離の中から前記基準距離を決定するステップは、前記映像内のブラーが少なく含まれるほど前記鮮明度が高いものと判断するステップを含むことを特徴とする請求項12に記載の深さ情報を取得する方法。
- 前記複数の候補距離の中から前記基準距離を決定するステップは、
前記センサパネルで、前記複数の候補距離による複数の候補センサデータを選択するステップと、
前記候補センサデータを用いて生成される前記映像の鮮明度として、平均絶対変化率値を算出するステップと、
を含むことを特徴とする請求項12又は13に記載の深さ情報を取得する方法。 - 前記平均絶対変化率値を算出するステップは、
前記候補センサデータを復号化して第1映像を生成するステップと、
前記第1映像に対して非局所平均化法(non−local means)を行って第2映像を生成するステップと、
前記第2映像に対して2進化を行って第3映像を生成するステップと、
前記第3映像に対して前記平均絶対変化率値を算出するステップと、
を含むことを特徴とする請求項14に記載の深さ情報を取得する方法。 - ディスプレイパネル及びセンサパネルを含むディスプレイ装置でオブジェクトの深さ情報を取得する方法において、
基準距離に応じて前記センサパネルで選択されるセンサデータを用いて前記オブジェクトに対するマルチビュー映像を生成するステップと、
前記マルチビュー映像を用いて複数のリフォーカス映像を生成するステップと、
前記マルチビュー映像及び前記複数のリフォーカス映像を用いて前記オブジェクトの深さ映像を取得するステップと、
を含むことを特徴とする深さ情報を取得する方法。 - 前記オブジェクトの深さ映像を取得するステップは、前記マルチビュー映像の点に関する深さ情報、及び前記リフォーカス映像のエッジに関する深さ情報を用いて前記オブジェクトの深さ映像を取得するステップを含むことを特徴とする請求項16に記載の深さ情報を取得する方法。
- 前記オブジェクトの深さ映像を取得するステップは、
前記オブジェクトに対する対応点を用いて前記マルチビュー映像それぞれをマッチングし、前記マルチビュー映像に関する第1深さ映像を生成するステップと、
前記リフォーカス映像内の境界面を用いて前記リフォーカス映像それぞれをマッチングし、前記リフォーカス映像に関する第2深さ映像を生成するステップと、
前記第1深さ映像と前記第2深さ映像とを組み合わせて前記深さ映像を取得するステップと、
を含むことを特徴とする請求項16又は17に記載の深さ情報を取得する方法。 - ディスプレイパネル及びセンサパネルを含むディスプレイ装置において、
基準距離を推定する基準決定部と、
前記センサパネルで前記基準距離によるセンサデータを選択するセンサ選択部と、
前記センサデータを用いてオブジェクトに対するマルチビュー映像を生成するデータ復号化部と、
前記マルチビュー映像を用いて前記オブジェクトの深さ映像を取得する深さ取得部と、
を備えることを特徴とする深さ情報を取得するディスプレイ装置。 - 前記深さ取得部は、前記オブジェクトに対する対応点を決定し、前記対応点を用いて前記マルチビュー映像それぞれをマッチングして前記深さ映像を取得することを特徴とする請求項19に記載の深さ情報を取得するディスプレイ装置。
- 前記データ復号化部は、前記マルチビュー映像を用いて複数のリフォーカス映像を生成し、
前記深さ取得部は、前記複数のリフォーカス映像から前記オブジェクトの深さ映像を取得することを特徴とする請求項19又は20に記載の深さ情報を取得するディスプレイ装置。 - 前記データ復号化部は、前記マルチビュー映像内のセンター映像を中心に、前記マルチビュー映像それぞれをピクセル単位にシフトし、前記シフトにより前記センター映像に対して重なる映像を前記リフォーカス映像として生成することを特徴とする請求項19乃至21のうちのいずれか一項に記載の深さ情報を取得するディスプレイ装置。
- 前記リフォーカス映像はそれぞれ、シフトされるピクセル値に基づいて前記オブジェクトの一部を鮮明に表現する映像であることを特徴とする請求項21又は22に記載の深さ情報を取得するディスプレイ装置。
- 前記深さ取得部は、前記リフォーカス映像それぞれで境界面を決定し、前記境界面を用いて前記リフォーカス映像それぞれをマッチングして前記深さ映像を取得することを特徴とする請求項21乃至23のうちのいずれか一項に記載の深さ情報を取得するディスプレイ装置。
- 前記センサ選択部は、前記基準距離に応じて前記センサデータの数を変更して選択することを特徴とする請求項19乃至23のうちのいずれか一項に記載の深さ情報を取得するディスプレイ装置。
- 前記基準距離が遠いほど前記センサデータの数は減少することを特徴とする請求項25に記載の深さ情報を取得するディスプレイ装置。
- 前記基準決定部は、複数の候補距離を選択して前記複数の候補距離それぞれに対応し、前記センサパネルと関連して生成された映像の鮮明度に応じて前記複数の候補距離の中から前記基準距離を決定することを特徴とする請求項19乃至26のうちのいずれか一項に記載の深さ情報を取得するディスプレイ装置。
- 前記基準決定部は、前記映像内に含まれるブラーが少ないほど前記鮮明度が高いものと判断することを特徴とする請求項27に記載の深さ情報を取得するディスプレイ装置。
- 前記基準決定部は、前記センサパネルで前記複数の候補距離による複数の候補センサデータを選択し、前記候補センサデータを用いて生成される前記映像の鮮明度として平均絶対変化率値を算出することを特徴とする請求項27に記載の深さ情報を取得するディスプレイ装置。
- 前記基準決定部は、前記候補センサデータを復号化して第1映像を生成し、前記第1映像に対して非局所平均化法を行って第2映像を生成し、前記第2映像に対して2進化を行って第3映像を生成し、前記第3映像に対して前記平均絶対変化率値を算出することを特徴とする請求項29に記載の深さ情報を取得するディスプレイ装置。
- ディスプレイパネル及びセンサパネルを含むディスプレイ装置において、
基準距離に応じて前記センサパネルで選択されるセンサデータを用いてオブジェクトに対するマルチビュー映像を生成し、前記マルチビュー映像を用いて複数のリフォーカス映像を生成するデータ復号化部と、
前記マルチビュー映像及び前記複数のリフォーカス映像を用いて前記オブジェクトの深さ映像を取得する深さ取得部と、
を備えることを特徴とする深さ情報を取得するディスプレイ装置。 - 前記深さ取得部は、前記マルチビュー映像の点に関する深さ情報、及び前記リフォーカス映像のエッジに関する深さ情報を用いて前記オブジェクトの深さ映像を取得することを特徴とする請求項31に記載の深さ情報を取得するディスプレイ装置。
- 前記深さ取得部は、前記オブジェクトに対する対応点を用いて前記マルチビュー映像それぞれをマッチングして前記マルチビュー映像に関する第1深さ映像を生成し、前記リフォーカス映像内の境界面を用いて前記リフォーカス映像それぞれをマッチングして前記リフォーカス映像に関する第2深さ映像を生成し、前記第1深さ映像と前記第2深さ映像とを組み合わせて前記深さ映像を取得することを特徴とする請求項31又は32に記載の深さ情報を取得するディスプレイ装置。
- 前記ディスプレイパネルは複数のピクセルから構成され、
予め決定された第1時間中にディスプレイモードとして動作し、予め決定された第2時間中に映像取得モードとして動作するように前記ディスプレイパネルを制御することを特徴とする請求項19に記載のディスプレイ装置。 - 前記ディスプレイパネルは、前記映像取得モード中に映像を取得するセンサパネルを含むことを特徴とする請求項34に記載のディスプレイ装置。
- 前記ディスプレイパネルは、前記第1時間中に前記複数のピクセルを用いて放送映像信号をディスプレイし、前記第2時間中に外部光が、前記ディスプレイパネルを通過して前記センサパネルに伝達するように許容し、
前記センサパネルは、前記外部光に基づいてセンサデータを取得することを特徴とする請求項34又は35に記載のディスプレイ装置。 - ディスプレイパネル及びセンサパネルを含むディスプレイ装置でオブジェクトの深さ情報を取得する方法において、
基準距離を推定するステップと、
前記基準距離に基づいて前記センサパネルからのセンサデータを選択するステップと、
前記センサデータを用いて生成されたマルチビュー映像との組合せによって第1深さ映像を生成するステップと、
前記マルチビュー映像を用いて生成されたリフォーカス映像との組合せによって取得されたマルチビュー映像との組合せによって第2深さ映像を生成するステップと、
前記第1深さ映像と前記第2深さ映像とを再結合して前記オブジェクトの深さ映像を取得するステップと、
を含むことを特徴とする深さ情報を取得する方法。 - 前記ディスプレイパネルは複数のピクセルから構成され、
前記センサパネルは、映像取得のために前記ディスプレイパネルの後方に位置し、
前記複数のピクセルを用いて映像信号をディスプレイし、同時に、前記ディスプレイパネルによって前記映像信号が表示される間に前記センサパネルで外部光を用いて映像を取得できるように、前記外部光が、前記ディスプレイパネルを通過して前記センサパネルに伝達するよう前記ディスプレイパネルを制御することを特徴とする、請求項19に記載のディスプレイ装置。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20120156387 | 2012-12-28 | ||
KR10-2012-0156387 | 2012-12-28 | ||
KR10-2013-0009075 | 2013-01-28 | ||
KR1020130009075A KR101905528B1 (ko) | 2012-12-28 | 2013-01-28 | 깊이 정보를 획득하는 방법 및 디스플레이 장치 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014131266A JP2014131266A (ja) | 2014-07-10 |
JP6412690B2 true JP6412690B2 (ja) | 2018-10-24 |
Family
ID=50033308
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013256699A Active JP6412690B2 (ja) | 2012-12-28 | 2013-12-12 | 深さ情報を取得する方法及びディスプレイ装置 |
Country Status (4)
Country | Link |
---|---|
US (1) | US10257506B2 (ja) |
EP (1) | EP2749993B1 (ja) |
JP (1) | JP6412690B2 (ja) |
CN (1) | CN103916654B (ja) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI510086B (zh) * | 2014-12-03 | 2015-11-21 | Nat Univ Tsing Hua | 數位重對焦方法 |
US9820513B2 (en) * | 2014-12-23 | 2017-11-21 | Intel Corporation | Depth proximity layering for wearable devices |
EP3251338A1 (en) * | 2015-01-29 | 2017-12-06 | William Marsh Rice University | Lensless imaging system using an image sensor with one or more attenuating layers |
KR102415501B1 (ko) * | 2015-08-07 | 2022-07-01 | 삼성전자주식회사 | 3차원 디스플레이 장치의 파라미터 추정 방법 및 그 방법을 이용한 3차원 디스플레이 장치 |
US10262466B2 (en) | 2015-10-14 | 2019-04-16 | Qualcomm Incorporated | Systems and methods for adjusting a combined image visualization based on depth information |
CN105744166B (zh) * | 2016-03-11 | 2019-05-10 | 苏州睿仟医疗科技有限公司 | 图像扫描时的自动聚焦装置及其自动聚焦方法 |
US10230935B2 (en) | 2016-10-11 | 2019-03-12 | Marvel Digital Limited | Method and a system for generating depth information associated with an image |
JP7107224B2 (ja) * | 2016-11-08 | 2022-07-27 | ソニーグループ株式会社 | 画像処理装置、画像処理方法、及び、プログラム |
CN107636679B (zh) * | 2016-12-30 | 2021-05-25 | 达闼机器人有限公司 | 一种障碍物检测方法及装置 |
CN108459417B (zh) * | 2018-02-05 | 2020-06-26 | 华侨大学 | 一种单目窄带多光谱立体视觉系统及其使用方法 |
CN108919573B (zh) * | 2018-07-13 | 2019-12-20 | 京东方科技集团股份有限公司 | 显示面板、显示装置、成像方法和深度距离的检测方法 |
US10297697B1 (en) * | 2018-11-01 | 2019-05-21 | H3D, Inc. | Coded aperture system of imaging with a plurality of detectors in a spaced-apart configuration |
US11397475B2 (en) * | 2019-01-14 | 2022-07-26 | Boe Technology Group Co., Ltd. | Display device, electronic device and method for driving display device |
TWI807299B (zh) * | 2020-04-09 | 2023-07-01 | 荷蘭商荷蘭移動驅動器公司 | 圖像深度擴增方法、裝置及電子設備 |
GB202019760D0 (en) * | 2020-12-15 | 2021-01-27 | Ams Sensors Singapore Pte Ltd | Video user interface and method for use in determining depth information relating to a scene |
Family Cites Families (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20000036863A (ko) | 2000-03-30 | 2000-07-05 | 이형근 | Dfd를 이용한 3차원 형상복원 기술 |
US7262799B2 (en) * | 2000-10-25 | 2007-08-28 | Canon Kabushiki Kaisha | Image sensing apparatus and its control method, control program, and storage medium |
JP3860979B2 (ja) | 2001-02-28 | 2006-12-20 | 安西メディカル株式会社 | ガンマカメラ装置 |
KR20030029933A (ko) | 2001-07-06 | 2003-04-16 | 코닌클리케 필립스 일렉트로닉스 엔.브이. | 움직임 또는 깊이 추정 방법들 및 유닛들과 이러한 움직임추정 유닛이 제공된 이미지 처리 장치 |
US7671321B2 (en) * | 2005-01-18 | 2010-03-02 | Rearden, Llc | Apparatus and method for capturing still images and video using coded lens imaging techniques |
US7697053B2 (en) * | 2006-11-02 | 2010-04-13 | Eastman Kodak Company | Integrated display having multiple capture devices |
KR100931311B1 (ko) | 2006-12-04 | 2009-12-11 | 한국전자통신연구원 | 프레임 간 깊이 연속성 유지를 위한 깊이 추정 장치 및 그방법 |
KR20100008677A (ko) | 2008-07-16 | 2010-01-26 | 광주과학기술원 | 깊이맵 추정장치와 방법, 이를 이용한 중간 영상 생성 방법및 다시점 비디오의 인코딩 방법 |
US20100098323A1 (en) * | 2008-07-18 | 2010-04-22 | Agrawal Amit K | Method and Apparatus for Determining 3D Shapes of Objects |
KR101506926B1 (ko) | 2008-12-04 | 2015-03-30 | 삼성전자주식회사 | 깊이 추정 장치 및 방법, 및 3d 영상 변환 장치 및 방법 |
KR20100080704A (ko) | 2009-01-02 | 2010-07-12 | 삼성전자주식회사 | 영상 데이터 획득 방법 및 장치 |
KR20100090961A (ko) | 2009-02-09 | 2010-08-18 | 삼성전자주식회사 | 가변 부호화 어퍼쳐 장치를 이용하는 이미징 방법 및 이를 적용하는 이미징 장치 |
EP2244484B1 (en) * | 2009-04-22 | 2012-03-28 | Raytrix GmbH | Digital imaging method for synthesizing an image using data recorded with a plenoptic camera |
US8654234B2 (en) * | 2009-07-26 | 2014-02-18 | Massachusetts Institute Of Technology | Bi-directional screen |
KR101725044B1 (ko) | 2010-05-27 | 2017-04-11 | 삼성전자주식회사 | 촬영이 가능한 디스플레이 장치 |
KR101385514B1 (ko) | 2010-06-08 | 2014-04-16 | 주식회사 에스칩스 | 깊이 맵 정보를 이용한 입체 영상 변환 방법 및 장치 |
TW201205551A (en) * | 2010-07-29 | 2012-02-01 | Hon Hai Prec Ind Co Ltd | Display device assembling a camera |
KR101680252B1 (ko) * | 2010-08-02 | 2016-11-29 | 삼성전자주식회사 | 촬영이 가능한 3d 디스플레이 장치 |
US8582867B2 (en) | 2010-09-16 | 2013-11-12 | Primesense Ltd | Learning-based pose estimation from depth maps |
JP5536071B2 (ja) | 2010-10-05 | 2014-07-02 | エンパイア テクノロジー ディベロップメント エルエルシー | 空間光パターンに基づく深さデータの生成 |
KR20120080845A (ko) | 2011-01-10 | 2012-07-18 | 삼성전자주식회사 | 광 감지 기능을 구비한 oled 디스플레이 장치 |
JP5725975B2 (ja) | 2011-05-27 | 2015-05-27 | キヤノン株式会社 | 撮像装置及び撮像方法 |
JP5762142B2 (ja) * | 2011-05-31 | 2015-08-12 | キヤノン株式会社 | 撮像装置、画像処理装置およびその方法 |
WO2013054499A1 (ja) * | 2011-10-11 | 2013-04-18 | パナソニック株式会社 | 画像処理装置、撮像装置および画像処理方法 |
US9652043B2 (en) * | 2012-05-14 | 2017-05-16 | Hewlett-Packard Development Company, L.P. | Recognizing commands with a depth sensor |
-
2013
- 2013-11-05 US US14/071,965 patent/US10257506B2/en active Active
- 2013-12-12 JP JP2013256699A patent/JP6412690B2/ja active Active
- 2013-12-30 CN CN201310744537.4A patent/CN103916654B/zh active Active
- 2013-12-30 EP EP13199749.6A patent/EP2749993B1/en active Active
Also Published As
Publication number | Publication date |
---|---|
EP2749993A3 (en) | 2014-07-16 |
US20140184754A1 (en) | 2014-07-03 |
EP2749993B1 (en) | 2017-08-09 |
EP2749993A2 (en) | 2014-07-02 |
CN103916654B (zh) | 2017-04-05 |
CN103916654A (zh) | 2014-07-09 |
US10257506B2 (en) | 2019-04-09 |
JP2014131266A (ja) | 2014-07-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6412690B2 (ja) | 深さ情報を取得する方法及びディスプレイ装置 | |
Choi et al. | Extreme view synthesis | |
US9214013B2 (en) | Systems and methods for correcting user identified artifacts in light field images | |
JP5966256B2 (ja) | 画像処理装置および方法、プログラム、並びに記録媒体 | |
KR101502362B1 (ko) | 영상처리 장치 및 방법 | |
JP6734620B2 (ja) | 映像処理方法及び映像処理装置 | |
TW201031177A (en) | Generation of occlusion data for image properties | |
US8611642B2 (en) | Forming a steroscopic image using range map | |
KR20110049039A (ko) | 능동 부화소 렌더링 방식 고밀도 다시점 영상 표시 시스템 및 방법 | |
US20130127993A1 (en) | Method for stabilizing a digital video | |
WO2013074561A1 (en) | Modifying the viewpoint of a digital image | |
TWI496452B (zh) | 立體影像系統、立體影像產生方法、立體影像調整裝置及其方法 | |
JP5663857B2 (ja) | 画像表示装置および画像表示方法 | |
JP5755571B2 (ja) | 仮想視点画像生成装置、仮想視点画像生成方法、制御プログラム、記録媒体、および立体表示装置 | |
US9886096B2 (en) | Method and apparatus for processing three-dimensional (3D) object based on user interaction | |
JP7184748B2 (ja) | 場面の積層深度データを生成するための方法 | |
KR20110047791A (ko) | 2차원 영상의 3차원 영상으로의 변환방법 및 그 장치 | |
WO2013035457A1 (ja) | 立体画像処理装置、立体画像処理方法、及びプログラム | |
JP6717576B2 (ja) | 映像レンダリング装置及び方法 | |
Schmeing et al. | Depth image based rendering | |
US9767580B2 (en) | Apparatuses, methods, and systems for 2-dimensional and 3-dimensional rendering and display of plenoptic images | |
KR101435611B1 (ko) | 3차원 집적영상의 가려짐 문제 해결방법 | |
Orozco et al. | HDR multiview image sequence generation: Toward 3D HDR video | |
JP5791328B2 (ja) | 3d画像処理方法及び3d画像処理装置 | |
WO2020059575A1 (ja) | 3次元画像生成装置、3次元画像生成方法、及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20161107 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20171219 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180130 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180412 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180925 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181001 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6412690 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |