JP2014534656A - 運動視差を用いた、2d画像からの3d知覚の生成 - Google Patents
運動視差を用いた、2d画像からの3d知覚の生成 Download PDFInfo
- Publication number
- JP2014534656A JP2014534656A JP2014529661A JP2014529661A JP2014534656A JP 2014534656 A JP2014534656 A JP 2014534656A JP 2014529661 A JP2014529661 A JP 2014529661A JP 2014529661 A JP2014529661 A JP 2014529661A JP 2014534656 A JP2014534656 A JP 2014534656A
- Authority
- JP
- Japan
- Prior art keywords
- viewing angle
- images
- display
- information
- scene
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/302—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/08—Volume rendering
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Graphics (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
本発明の例を下記の各項目として示す。
[項目1]
シーンの複数の2次元画像(複数の2D画像)を受信することと、
前記複数の2D画像に応じて、前記シーンに関連付けられた3次元情報(3D情報)を決定することと、
ディスプレイに対する第1のユーザー視認角を決定することと、
少なくとも前記3D情報及び前記第1のユーザー視認角に応じて、第1の生成された画像を前記ディスプレイ上に提示することと、
を含む、コンピューター実施方法。
[項目2]
前記ディスプレイに対する、前記第1のユーザー視認角とは異なる第2のユーザー視認角を決定することと、
少なくとも前記3D情報及び前記第2のユーザー視認角に応じて、第2の生成された画像を前記ディスプレイ上に提示することと、
を更に含む、項目1に記載の方法。
[項目3]
前記複数の2D画像は、複数のビデオ画像を含み、前記シーンに関連付けられた3D情報を決定することは、前記複数のビデオ画像の各画像について前記シーンに対する視角を決定することを含む、項目1に記載の方法。
[項目4]
前記第1の生成された画像を前記ディスプレイ上に提示することは、前記複数のビデオ画像のうちの、前記第1のユーザー視認角に最も近い視角を有するビデオ画像を決定することを含む、項目3に記載の方法。
[項目5]
前記3D情報に対応するメタデータを記憶することを更に含む、項目1に記載の方法。
[項目6]
前記ディスプレイに対する前記第1のユーザー視認角を決定することは、
前向きカメラ、マウス、キーボード又はタッチスクリーンのユーザー制御のうちの少なくとも1つを用いて、前記ディスプレイに対するユーザーの向きを決定することを含む、項目1に記載の方法。
[項目7]
前記シーンに関連付けられた3D情報を決定することは、前記複数の2D画像に応じて立体再構成を実行することを含む、項目1に記載の方法。
[項目8]
前記第1の生成された画像を提示することは、前記3D情報及び前記第1のユーザー視認角に少なくとも部分的に応じて、前記第1の生成された画像を合成することを含む、項目7に記載の方法。
[項目9]
前記3D情報は、前記シーンの3D座標又は前記複数の2D画像に関連付けられたカメラ姿勢情報のうちの少なくとも一方を含む、項目7に記載の方法。
[項目10]
前記複数の2D画像は、複数の撮像デバイスによってキャプチャされた画像を含む、項目1に記載の方法。
[項目11]
前記複数の撮像デバイスは、カラーカメラ又はカラー深度カメラのうちの少なくとも一方を含む、項目10に記載の方法。
[項目12]
前記複数の撮像デバイスは、高解像度カラーカメラ及び広視野カラーカメラを含む、項目10に記載の方法。
[項目13]
命令を記憶しているコンピュータープログラム製品を含む物品であって、前記命令は実行されると、結果として、
シーンの複数の2次元画像(複数の2D画像)を受信することと、
前記複数の2D画像に応じて、前記シーンに関連付けられた3次元情報(3D情報)を決定することと、
ディスプレイに対する第1のユーザー視認角を決定することと、
少なくとも前記3D情報及び前記第1のユーザー視認角に応じて、第1の生成された画像を前記ディスプレイ上に提示することと、
が行われる命令を記憶しているコンピュータープログラム製品を含む物品。
[項目14]
前記コンピュータープログラム製品は、実行されると、結果として、
前記ディスプレイに対する、前記第1のユーザー視認角とは異なる第2のユーザー視認角を決定することと、
少なくとも前記3D情報及び前記第2のユーザー視認角に応じて、第2の生成された画像を前記ディスプレイ上に提示することと、
が行われる命令を更に記憶している、項目13に記載の物品。
[項目15]
前記複数の2D画像は、複数のビデオ画像を含み、前記シーンに関連付けられた3D情報を決定することは、前記複数のビデオ画像の各画像について前記シーンに対する視角を決定することを含む、項目13に記載の物品。
[項目16]
前記第1の生成された画像を前記ディスプレイ上に提示することは、前記複数のビデオ画像のうちの、前記第1のユーザー視認角に最も近い視角を有するビデオ画像を決定することを含む、項目15に記載の物品。
[項目17]
前記コンピュータープログラム製品は、実行されると、結果として、
前記3D情報に対応するメタデータを記憶することが行われる命令を更に記憶している、項目13に記載の物品。
[項目18]
前記ディスプレイに対する前記第1のユーザー視認角を決定することは、
前向きカメラ、マウス、キーボード又はタッチスクリーンのユーザー制御のうちの少なくとも1つを用いて、前記ディスプレイに対するユーザーの向きを決定することを含む、項目13に記載の物品。
[項目19]
前記シーンに関連付けられた3D情報を決定することは、前記複数の2D画像に応じて立体再構成を実行することを含む、項目13に記載の物品。
[項目20]
前記第1の生成された画像を提示することは、前記3D情報及び前記第1のユーザー視認角に少なくとも部分的に応じて、前記第1の生成された画像を合成することを含む、項目19に記載の物品。
[項目21]
前記3D情報は、前記シーンの3D座標又は前記複数の2D画像に関連付けられたカメラ姿勢情報のうちの少なくとも一方を含む、項目19に記載の物品。
[項目22]
システムであって、
プロセッサと、該プロセッサに結合されたメモリとを備え、該メモリ内の命令は、
シーンの複数の2次元画像(複数の2D画像)を受信することと、
前記複数の2D画像に応じて、前記シーンに関連付けられた3次元情報(3D情報)を決定することと、
ディスプレイに対する第1のユーザー視認角を決定することと、
少なくとも前記3D情報及び前記第1のユーザー視認角に応じて、第1の生成された画像を前記ディスプレイ上に提示することと、
を行うように前記プロセッサを構成する、システム。
[項目23]
前記メモリ内の命令は、
前記ディスプレイに対する、前記第1のユーザー視認角とは異なる第2のユーザー視認角を決定することと、
少なくとも前記3D情報及び前記第2のユーザー視認角に応じて、第2の生成された画像を前記ディスプレイ上に提示することと、
を行うように前記プロセッサを更に構成する、項目22に記載のシステム。
[項目24]
前記複数の2D画像は、複数のビデオ画像を含み、前記シーンに関連付けられた3D情報を決定することを行うように前記プロセッサを構成する命令は、前記複数のビデオ画像の各画像について前記シーンに対する視角を決定することを行うように前記プロセッサを構成する命令を含む、項目22に記載のシステム。
[項目25]
前記第1の生成された画像を前記ディスプレイ上に提示することを行うように前記プロセッサを構成する命令は、前記複数のビデオ画像のうちの、前記第1のユーザー視認角に最も近い視角を有するビデオ画像を決定することを行うように前記プロセッサを構成する命令を含む、項目24に記載のシステム。
[項目26]
前向きカメラ、マウス、キーボード又はタッチスクリーンシステムのうちの少なくとも1つを更に備え、前記ディスプレイに対する前記第1のユーザー視認角を決定することを行うように前記プロセッサを構成する命令は、前記前向きカメラ、前記マウス、前記キーボード又は前記タッチスクリーンのユーザー制御を用いて、前記ディスプレイに対するユーザーの向きを決定することを行うように前記プロセッサを構成する命令を含む、項目22に記載のシステム。
[項目27]
前記シーンに関連付けられた3D情報を決定することを行うように前記プロセッサを構成する命令は、前記複数の2D画像に応じて立体再構成を実行することを行うように前記プロセッサを構成する命令を含む、項目22に記載のシステム。
[項目28]
前記第1の生成された画像を提示することを行うように前記プロセッサを構成する命令は、前記3D情報及び前記第1のユーザー視認角に少なくとも部分的に応じて、前記第1の生成された画像を合成することを行うように前記プロセッサを構成する命令を含む、項目27に記載のシステム。
[項目29]
前記3D情報は、前記シーンの3D座標又は前記複数の2D画像に関連付けられたカメラ姿勢情報のうちの少なくとも一方を含む、項目27に記載のシステム。
[項目30]
カラーカメラ、カラー深度カメラ又は広視野カメラのうちの少なくとも2つを含む複数の撮像デバイスを更に備える、項目22に記載のシステム。
Claims (30)
- シーンの複数の2次元画像(複数の2D画像)を受信することと、
前記複数の2D画像に応じて、前記シーンに関連付けられた3次元情報(3D情報)を決定することと、
ディスプレイに対する第1のユーザー視認角を決定することと、
少なくとも前記3D情報及び前記第1のユーザー視認角に応じて、第1の生成された画像を前記ディスプレイ上に提示することと、
を含む、コンピューター実施方法。 - 前記ディスプレイに対する、前記第1のユーザー視認角とは異なる第2のユーザー視認角を決定することと、
少なくとも前記3D情報及び前記第2のユーザー視認角に応じて、第2の生成された画像を前記ディスプレイ上に提示することと、
を更に含む、請求項1に記載の方法。 - 前記複数の2D画像は、複数のビデオ画像を含み、前記シーンに関連付けられた3D情報を決定することは、前記複数のビデオ画像の各画像について前記シーンに対する視角を決定することを含む、請求項1に記載の方法。
- 前記第1の生成された画像を前記ディスプレイ上に提示することは、前記複数のビデオ画像のうちの、前記第1のユーザー視認角に最も近い視角を有するビデオ画像を決定することを含む、請求項3に記載の方法。
- 前記3D情報に対応するメタデータを記憶することを更に含む、請求項1に記載の方法。
- 前記ディスプレイに対する前記第1のユーザー視認角を決定することは、
前向きカメラ、マウス、キーボード又はタッチスクリーンのユーザー制御のうちの少なくとも1つを用いて、前記ディスプレイに対するユーザーの向きを決定することを含む、請求項1に記載の方法。 - 前記シーンに関連付けられた3D情報を決定することは、前記複数の2D画像に応じて立体再構成を実行することを含む、請求項1に記載の方法。
- 前記第1の生成された画像を提示することは、前記3D情報及び前記第1のユーザー視認角に少なくとも部分的に応じて、前記第1の生成された画像を合成することを含む、請求項7に記載の方法。
- 前記3D情報は、前記シーンの3D座標又は前記複数の2D画像に関連付けられたカメラ姿勢情報のうちの少なくとも一方を含む、請求項7に記載の方法。
- 前記複数の2D画像は、複数の撮像デバイスによってキャプチャされた画像を含む、請求項1に記載の方法。
- 前記複数の撮像デバイスは、カラーカメラ又はカラー深度カメラのうちの少なくとも一方を含む、請求項10に記載の方法。
- 前記複数の撮像デバイスは、高解像度カラーカメラ及び広視野カラーカメラを含む、請求項10に記載の方法。
- 命令を記憶しているコンピュータープログラム製品を含む物品であって、前記命令は実行されると、結果として、
シーンの複数の2次元画像(複数の2D画像)を受信することと、
前記複数の2D画像に応じて、前記シーンに関連付けられた3次元情報(3D情報)を決定することと、
ディスプレイに対する第1のユーザー視認角を決定することと、
少なくとも前記3D情報及び前記第1のユーザー視認角に応じて、第1の生成された画像を前記ディスプレイ上に提示することと、
が行われる命令を記憶しているコンピュータープログラム製品を含む物品。 - 前記コンピュータープログラム製品は、実行されると、結果として、
前記ディスプレイに対する、前記第1のユーザー視認角とは異なる第2のユーザー視認角を決定することと、
少なくとも前記3D情報及び前記第2のユーザー視認角に応じて、第2の生成された画像を前記ディスプレイ上に提示することと、
が行われる命令を更に記憶している、請求項13に記載の物品。 - 前記複数の2D画像は、複数のビデオ画像を含み、前記シーンに関連付けられた3D情報を決定することは、前記複数のビデオ画像の各画像について前記シーンに対する視角を決定することを含む、請求項13に記載の物品。
- 前記第1の生成された画像を前記ディスプレイ上に提示することは、前記複数のビデオ画像のうちの、前記第1のユーザー視認角に最も近い視角を有するビデオ画像を決定することを含む、請求項15に記載の物品。
- 前記コンピュータープログラム製品は、実行されると、結果として、
前記3D情報に対応するメタデータを記憶することが行われる命令を更に記憶している、請求項13に記載の物品。 - 前記ディスプレイに対する前記第1のユーザー視認角を決定することは、
前向きカメラ、マウス、キーボード又はタッチスクリーンのユーザー制御のうちの少なくとも1つを用いて、前記ディスプレイに対するユーザーの向きを決定することを含む、請求項13に記載の物品。 - 前記シーンに関連付けられた3D情報を決定することは、前記複数の2D画像に応じて立体再構成を実行することを含む、請求項13に記載の物品。
- 前記第1の生成された画像を提示することは、前記3D情報及び前記第1のユーザー視認角に少なくとも部分的に応じて、前記第1の生成された画像を合成することを含む、請求項19に記載の物品。
- 前記3D情報は、前記シーンの3D座標又は前記複数の2D画像に関連付けられたカメラ姿勢情報のうちの少なくとも一方を含む、請求項19に記載の物品。
- システムであって、
プロセッサと、該プロセッサに結合されたメモリとを備え、該メモリ内の命令は、
シーンの複数の2次元画像(複数の2D画像)を受信することと、
前記複数の2D画像に応じて、前記シーンに関連付けられた3次元情報(3D情報)を決定することと、
ディスプレイに対する第1のユーザー視認角を決定することと、
少なくとも前記3D情報及び前記第1のユーザー視認角に応じて、第1の生成された画像を前記ディスプレイ上に提示することと、
を行うように前記プロセッサを構成する、システム。 - 前記メモリ内の命令は、
前記ディスプレイに対する、前記第1のユーザー視認角とは異なる第2のユーザー視認角を決定することと、
少なくとも前記3D情報及び前記第2のユーザー視認角に応じて、第2の生成された画像を前記ディスプレイ上に提示することと、
を行うように前記プロセッサを更に構成する、請求項22に記載のシステム。 - 前記複数の2D画像は、複数のビデオ画像を含み、前記シーンに関連付けられた3D情報を決定することを行うように前記プロセッサを構成する命令は、前記複数のビデオ画像の各画像について前記シーンに対する視角を決定することを行うように前記プロセッサを構成する命令を含む、請求項22に記載のシステム。
- 前記第1の生成された画像を前記ディスプレイ上に提示することを行うように前記プロセッサを構成する命令は、前記複数のビデオ画像のうちの、前記第1のユーザー視認角に最も近い視角を有するビデオ画像を決定することを行うように前記プロセッサを構成する命令を含む、請求項24に記載のシステム。
- 前向きカメラ、マウス、キーボード又はタッチスクリーンシステムのうちの少なくとも1つを更に備え、前記ディスプレイに対する前記第1のユーザー視認角を決定することを行うように前記プロセッサを構成する命令は、前記前向きカメラ、前記マウス、前記キーボード又は前記タッチスクリーンのユーザー制御を用いて、前記ディスプレイに対するユーザーの向きを決定することを行うように前記プロセッサを構成する命令を含む、請求項22に記載のシステム。
- 前記シーンに関連付けられた3D情報を決定することを行うように前記プロセッサを構成する命令は、前記複数の2D画像に応じて立体再構成を実行することを行うように前記プロセッサを構成する命令を含む、請求項22に記載のシステム。
- 前記第1の生成された画像を提示することを行うように前記プロセッサを構成する命令は、前記3D情報及び前記第1のユーザー視認角に少なくとも部分的に応じて、前記第1の生成された画像を合成することを行うように前記プロセッサを構成する命令を含む、請求項27に記載のシステム。
- 前記3D情報は、前記シーンの3D座標又は前記複数の2D画像に関連付けられたカメラ姿勢情報のうちの少なくとも一方を含む、請求項27に記載のシステム。
- カラーカメラ、カラー深度カメラ又は広視野カメラのうちの少なくとも2つを含む複数の撮像デバイスを更に備える、請求項22に記載のシステム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/US2011/051197 WO2013039470A1 (en) | 2011-09-12 | 2011-09-12 | Using motion parallax to create 3d perception from 2d images |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014534656A true JP2014534656A (ja) | 2014-12-18 |
JP6240963B2 JP6240963B2 (ja) | 2017-12-06 |
Family
ID=47883554
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014529661A Expired - Fee Related JP6240963B2 (ja) | 2011-09-12 | 2011-09-12 | 運動視差を用いた、2d画像からの3d知覚の生成 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20140306963A1 (ja) |
EP (1) | EP2756680A4 (ja) |
JP (1) | JP6240963B2 (ja) |
KR (2) | KR101609486B1 (ja) |
CN (1) | CN103765878A (ja) |
WO (1) | WO2013039470A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3125549A1 (en) | 2015-07-27 | 2017-02-01 | Masaki Fusama | Three-dimensional image display device |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9106908B2 (en) | 2012-07-30 | 2015-08-11 | Intel Corporation | Video communication with three dimensional perception |
US9241103B2 (en) | 2013-03-15 | 2016-01-19 | Voke Inc. | Apparatus and method for playback of multiple panoramic videos with control codes |
US9384551B2 (en) * | 2013-04-08 | 2016-07-05 | Amazon Technologies, Inc. | Automatic rectification of stereo imaging cameras |
US9392248B2 (en) * | 2013-06-11 | 2016-07-12 | Google Inc. | Dynamic POV composite 3D video system |
US10321126B2 (en) * | 2014-07-08 | 2019-06-11 | Zspace, Inc. | User input device camera |
CN105120251A (zh) * | 2015-08-19 | 2015-12-02 | 京东方科技集团股份有限公司 | 一种3d场景展示方法及装置 |
US10003786B2 (en) * | 2015-09-25 | 2018-06-19 | Intel Corporation | Method and system of 3D image capture with dynamic cameras |
US10327624B2 (en) * | 2016-03-11 | 2019-06-25 | Sony Corporation | System and method for image processing to generate three-dimensional (3D) view of an anatomical portion |
US10616551B2 (en) * | 2017-01-27 | 2020-04-07 | OrbViu Inc. | Method and system for constructing view from multiple video streams |
US10535156B2 (en) | 2017-02-03 | 2020-01-14 | Microsoft Technology Licensing, Llc | Scene reconstruction from bursts of image data |
EP3416371A1 (en) * | 2017-06-12 | 2018-12-19 | Thomson Licensing | Method for displaying, on a 2d display device, a content derived from light field data |
EP3416381A1 (en) | 2017-06-12 | 2018-12-19 | Thomson Licensing | Method and apparatus for providing information to a user observing a multi view content |
US10275934B1 (en) * | 2017-12-20 | 2019-04-30 | Disney Enterprises, Inc. | Augmented video rendering |
US11323754B2 (en) * | 2018-11-20 | 2022-05-03 | At&T Intellectual Property I, L.P. | Methods, devices, and systems for updating streaming panoramic video content due to a change in user viewpoint |
CN113892129B (zh) * | 2019-05-31 | 2022-07-29 | 苹果公司 | 创建三维外观的虚拟视差 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH02251708A (ja) * | 1989-03-27 | 1990-10-09 | Nissan Motor Co Ltd | 三次元位置計測装置 |
JPH0814861A (ja) * | 1994-07-01 | 1996-01-19 | Canon Inc | 3次元形状の計測方法及び装置 |
JP2000215311A (ja) * | 1999-01-21 | 2000-08-04 | Nippon Telegr & Teleph Corp <Ntt> | 仮想視点画像生成方法およびその装置 |
JP2007019666A (ja) * | 2005-07-05 | 2007-01-25 | Ntt Docomo Inc | 立体画像表示装置及び立体画像表示方法 |
JP2010072477A (ja) * | 2008-09-19 | 2010-04-02 | Toshiba Tec Corp | 画像表示装置、画像表示方法及びプログラム |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5287437A (en) * | 1992-06-02 | 1994-02-15 | Sun Microsystems, Inc. | Method and apparatus for head tracked display of precomputed stereo images |
KR100304784B1 (ko) * | 1998-05-25 | 2001-09-24 | 박호군 | 편광과광띠를이용한다자시청용3차원영상표시장치 |
US6573912B1 (en) * | 2000-11-07 | 2003-06-03 | Zaxel Systems, Inc. | Internet system for virtual telepresence |
KR100424401B1 (ko) * | 2001-11-02 | 2004-03-24 | 전자부품연구원 | 검색기능을 포함한 3차원 입체영상을 위한 다시점영상통신 시스템 |
CN1809131A (zh) * | 2005-01-20 | 2006-07-26 | 乐金电子(沈阳)有限公司 | 显示外部全景的影像显示设备及其方法 |
KR100560464B1 (ko) * | 2005-03-30 | 2006-03-13 | (주)디노스 | 관찰자의 시점에 적응적인 다시점 영상 디스플레이 시스템을 구성하는 방법 |
JP2008146221A (ja) * | 2006-12-07 | 2008-06-26 | Sony Corp | 画像表示システム |
US8189035B2 (en) * | 2008-03-28 | 2012-05-29 | Sharp Laboratories Of America, Inc. | Method and apparatus for rendering virtual see-through scenes on single or tiled displays |
CN101582959A (zh) * | 2008-05-15 | 2009-11-18 | 财团法人工业技术研究院 | 智能型多视角数字显示系统及显示方法 |
JP2009294728A (ja) * | 2008-06-02 | 2009-12-17 | Sony Ericsson Mobilecommunications Japan Inc | 表示処理装置、表示処理方法、表示処理プログラム、及び携帯端末装置 |
KR101154051B1 (ko) * | 2008-11-28 | 2012-06-08 | 한국전자통신연구원 | 다시점 영상 송수신 장치 및 그 방법 |
US8199186B2 (en) | 2009-03-05 | 2012-06-12 | Microsoft Corporation | Three-dimensional (3D) imaging based on motionparallax |
DE102009041328A1 (de) * | 2009-09-15 | 2011-03-24 | Natural View Systems Gmbh | Verfahren und Vorrichtung zum Erzeugen von Teilansichten und/oder einer Raumbildvorlage aus einer 2D-Ansicht für eine stereoskopische Wiedergabe |
-
2011
- 2011-09-12 US US13/977,443 patent/US20140306963A1/en not_active Abandoned
- 2011-09-12 EP EP11872456.6A patent/EP2756680A4/en not_active Withdrawn
- 2011-09-12 KR KR1020147007108A patent/KR101609486B1/ko not_active IP Right Cessation
- 2011-09-12 KR KR1020157016520A patent/KR20150080003A/ko not_active Application Discontinuation
- 2011-09-12 JP JP2014529661A patent/JP6240963B2/ja not_active Expired - Fee Related
- 2011-09-12 CN CN201180073419.4A patent/CN103765878A/zh active Pending
- 2011-09-12 WO PCT/US2011/051197 patent/WO2013039470A1/en active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH02251708A (ja) * | 1989-03-27 | 1990-10-09 | Nissan Motor Co Ltd | 三次元位置計測装置 |
JPH0814861A (ja) * | 1994-07-01 | 1996-01-19 | Canon Inc | 3次元形状の計測方法及び装置 |
JP2000215311A (ja) * | 1999-01-21 | 2000-08-04 | Nippon Telegr & Teleph Corp <Ntt> | 仮想視点画像生成方法およびその装置 |
JP2007019666A (ja) * | 2005-07-05 | 2007-01-25 | Ntt Docomo Inc | 立体画像表示装置及び立体画像表示方法 |
JP2010072477A (ja) * | 2008-09-19 | 2010-04-02 | Toshiba Tec Corp | 画像表示装置、画像表示方法及びプログラム |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3125549A1 (en) | 2015-07-27 | 2017-02-01 | Masaki Fusama | Three-dimensional image display device |
US10104370B2 (en) | 2015-07-27 | 2018-10-16 | Masaki Fusama | Three-dimensional image display device |
Also Published As
Publication number | Publication date |
---|---|
KR20150080003A (ko) | 2015-07-08 |
WO2013039470A1 (en) | 2013-03-21 |
EP2756680A4 (en) | 2015-05-06 |
EP2756680A1 (en) | 2014-07-23 |
US20140306963A1 (en) | 2014-10-16 |
KR20140057610A (ko) | 2014-05-13 |
KR101609486B1 (ko) | 2016-04-05 |
JP6240963B2 (ja) | 2017-12-06 |
CN103765878A (zh) | 2014-04-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6240963B2 (ja) | 運動視差を用いた、2d画像からの3d知覚の生成 | |
US20200051269A1 (en) | Hybrid depth sensing pipeline | |
US9049428B2 (en) | Image generation system, image generation method, and information storage medium | |
EP4038478A1 (en) | Systems and methods for video communication using a virtual camera | |
US20110306413A1 (en) | Entertainment device and entertainment methods | |
EP3942796A1 (en) | Method and system for rendering a 3d image using depth information | |
JP2017532847A (ja) | 立体録画及び再生 | |
US20180288387A1 (en) | Real-time capturing, processing, and rendering of data for enhanced viewing experiences | |
WO2013056188A1 (en) | Generating free viewpoint video using stereo imaging | |
JP2008140271A (ja) | 対話装置及びその方法 | |
Jia et al. | 3D image reconstruction and human body tracking using stereo vision and Kinect technology | |
CN108885342A (zh) | 用于低延迟渲染的宽基线立体 | |
JP2023515669A (ja) | マルチビューステレオのための疎点の三角測量および緻密化を学習することによる深度推定のためのシステムおよび方法 | |
US20230298280A1 (en) | Map for augmented reality | |
US20210082176A1 (en) | Passthrough visualization | |
WO2018032841A1 (zh) | 绘制三维图像的方法及其设备、系统 | |
JP2013115668A (ja) | 画像処理装置、および画像処理方法、並びにプログラム | |
CN105301789A (zh) | 一种跟随人眼位置的立体显示装置 | |
US11741671B2 (en) | Three-dimensional scene recreation using depth fusion | |
Yuan et al. | 18.2: Depth sensing and augmented reality technologies for mobile 3D platforms | |
JP2024062935A (ja) | 立体視表示コンテンツを生成する方法および装置 | |
TW202332263A (zh) | 立體影像播放裝置及其立體影像產生方法 | |
CN117768599A (zh) | 处理图像的方法、装置、系统、电子设备和存储介质 | |
CN117745982A (zh) | 录制视频的方法、装置、系统、电子设备和存储介质 | |
Xu et al. | A camera network for the voxel data acquiring of the Three-Dimensional Swept Volume Display |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150706 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150721 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20151020 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20160322 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160721 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20160729 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20160923 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170904 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20171016 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6240963 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |