JP2014505917A - 3dヒューマンマシンインターフェースのためのハイブリッドリアリティ - Google Patents
3dヒューマンマシンインターフェースのためのハイブリッドリアリティ Download PDFInfo
- Publication number
- JP2014505917A JP2014505917A JP2013542078A JP2013542078A JP2014505917A JP 2014505917 A JP2014505917 A JP 2014505917A JP 2013542078 A JP2013542078 A JP 2013542078A JP 2013542078 A JP2013542078 A JP 2013542078A JP 2014505917 A JP2014505917 A JP 2014505917A
- Authority
- JP
- Japan
- Prior art keywords
- image
- virtual
- real
- plane
- parallax
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/156—Mixing image signals
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
以下に、本願の出願当初請求項に記載された発明を付記する。
[C1]
現実3次元(3D)画像についてのゼロ視差平面までの距離を決定することと、
前記ゼロ視差平面までの前記距離に少なくとも部分的に基づいて射影行列に関する1つまたは複数のパラメータを決定することと、
前記射影行列に少なくとも部分的に基づいて仮想3Dオブジェクトをレンダリングすることと、
混合リアリティ3D画像を生成するために前記現実画像と前記仮想オブジェクトとを組み合わせることと
を備える、方法。
[C2]
前記ゼロ視差平面までの前記距離に少なくとも部分的に基づいて両眼間隔値を決定することと、
前記両眼間隔値に少なくとも部分的に基づいて前記仮想3Dオブジェクトをレンダリングすることと
をさらに備える、上記[C1]に記載の方法。
[C3]
前記現実3D画像がステレオカメラによってキャプチャされる、上記[C1]に記載の方法。
[C4]
前記方法が、
前記ステレオカメラのアスペクト比を決定することと、
前記射影行列に関する1つまたは複数のパラメータのうちの少なくとも1つを決定するために前記アスペクト比を使用することと
をさらに備える、上記[C3]に記載の方法。
[C5]
前記パラメータが、左境界パラメータ、右境界パラメータ、上境界パラメータ、下境界パラメータ、ニアクリッピング平面パラメータ、およびファークリッピング平面パラメータを備える、上記[C1]に記載の方法。
[C6]
前記現実3D画像についてのニア平面視差値を決定することと、
前記ニア平面視差値を用いて前記仮想3Dオブジェクトをレンダリングすることと
をさらに備える、上記[C1]に記載の方法。
[C7]
前記現実3D画像についてのファー平面視差値を決定することと、
前記ファー平面視差値を用いて前記仮想3Dオブジェクトをレンダリングすることと
をさらに備える、上記[C1]に記載の方法。
[C8]
前記混合リアリティ3D画像のビューポートをシフトすること
をさらに備える、上記[C1]に記載の方法。
[C9]
3次元(3D)ビデオデータを処理するためのシステムであって、前記システムが、
現実3D画像ソースであって、キャプチャされた3D画像についてのゼロ視差平面までの距離を決定するように構成された現実3D画像ソースと、
仮想画像ソースであって、
前記ゼロ視差平面までの前記距離に少なくとも基づいて射影行列に関する1つまたは複数のパラメータを決定することと、
前記射影行列に少なくとも部分的に基づいて仮想3Dオブジェクトをレンダリングすることと、を行うように構成された仮想画像ソースと、
混合リアリティ3D画像を生成するために前記現実画像と前記仮想オブジェクトとを組み合わせるように構成された混合シーン合成ユニットと
を備える、システム。
[C10]
前記仮想画像ソースが、さらに、
前記ゼロ視差平面までの前記距離に少なくとも基づいて前記両眼間隔値を決定し、前記両眼間隔値に少なくとも部分的に基づいて前記仮想3Dオブジェクトをレンダリングするように構成された、上記[C9]に記載のシステム。
[C11]
前記現実3D画像ソースがステレオカメラである、上記[C9]に記載のシステム。
[C12]
前記仮想画像ソースが、さらに、前記ステレオカメラのアスペクト比を決定し、前記射影行列に関する1つまたは複数のパラメータのうちの少なくとも1つを決定するために前記アスペクト比を使用するように構成された、上記[C11]に記載のシステム。
[C13]
前記パラメータが、左境界パラメータ、右境界パラメータ、上境界パラメータ、下境界パラメータ、ニアクリッピング平面パラメータ、およびファークリッピング平面パラメータを備える、上記[C9]に記載のシステム。
[C14]
前記仮想画像ソースが、さらに、前記現実3D画像についてのニア平面視差値を決定し、前記同じニア平面視差値を用いて前記仮想3Dオブジェクトをレンダリングするように構成された、上記[C9]に記載のシステム。
[C15]
前記仮想画像ソースが、さらに、前記現実3D画像についてのファー平面視差値を決定し、前記同じファー平面視差値を用いて前記仮想3Dオブジェクトをレンダリングするように構成された、上記[C9]に記載のシステム。
[C16]
前記混合シーン合成ユニットが、さらに、前記混合リアリティ3D画像のビューポートをシフトするように構成された、上記[C9]に記載のシステム。
[C17]
現実3次元(3D)画像についてのゼロ視差平面までの距離を決定するための手段と、
前記ゼロ視差平面までの前記距離に少なくとも部分的に基づいて射影行列に関する1つまたは複数のパラメータを決定するための手段と、
前記射影行列に少なくとも部分的に基づいて仮想3Dオブジェクトをレンダリングするための手段と、
混合リアリティ3D画像を生成するために前記現実画像と前記仮想オブジェクトとを組み合わせるための手段と
を備える、装置。
[C18]
前記ゼロ視差平面までの前記距離に少なくとも部分的に基づいて両眼間隔値を決定するための手段と、
前記両眼間隔値に少なくとも部分的に基づいて前記仮想3Dオブジェクトをレンダリングするための手段と
をさらに備える、上記[C17]に記載の装置。
[C19]
前記現実3D画像がステレオカメラによってキャプチャされる、上記[C17]に記載の装置。
[C20]
前記装置が、
前記ステレオカメラのアスペクト比を決定するための手段と、
前記射影行列に関する1つまたは複数のパラメータのうちの少なくとも1つを決定するために前記アスペクト比を使用するための手段と
をさらに備える、上記[C19]に記載の装置。
[C21]
前記パラメータが、左境界パラメータ、右境界パラメータ、上境界パラメータ、下境界パラメータ、ニアクリッピング平面パラメータ、ファークリッピング平面パラメータを備える、上記[C17]に記載の装置。
[C22]
前記現実3D画像についてのニア平面視差値を決定するための手段と、
前記ニア平面視差値を用いて前記仮想3Dオブジェクトをレンダリングするための手段と
をさらに備える、上記[C17]に記載の装置。
[C23]
前記現実3D画像についてのファー平面視差値を決定するための手段と、
前記ファー平面視差値を用いて前記仮想3Dオブジェクトをレンダリングするための手段と
をさらに備える、上記[C17]に記載の装置。
[C24]
前記混合リアリティ3D画像のビューポートをシフトするための手段
をさらに備える、上記[C17]に記載の装置。
[C25]
1つまたは複数のプロセッサによって実行されたときに前記1つまたは複数のプロセッサに、
現実3次元(3D)画像についてのゼロ視差平面までの距離を決定することと、
前記ゼロ視差平面までの前記距離に少なくとも部分的に基づいて射影行列に関する1つまたは複数のパラメータを決定することと、
前記射影行列に少なくとも部分的に基づいて仮想3Dオブジェクトをレンダリングすることと、
混合リアリティ3D画像を生成するために前記現実画像と前記仮想オブジェクトとを組み合わせることと
を行わせる1つまたは複数の命令を有形に記憶する、非一時的コンピュータ可読記憶媒体。
[C26]
前記1つまたは複数のプロセッサによって実行されたときに前記1つまたは複数のプロセッサに、
前記ゼロ視差平面までの前記距離に少なくとも部分的に基づいて両眼間隔値を決定することと、
前記両眼間隔値に少なくとも部分的に基づいて前記仮想3Dオブジェクトをレンダリングすることと
を行わせるさらなる命令を記憶する、上記[C25]に記載のコンピュータ可読記憶媒体。
[C27]
前記現実3D画像がステレオカメラによってキャプチャされる、上記[C25]に記載のコンピュータ可読記憶媒体。
[C28]
前記1つまたは複数のプロセッサによって実行されたときに前記1つまたは複数のプロセッサに、
前記ステレオカメラのアスペクト比を決定することと、
前記射影行列に関する1つまたは複数のパラメータのうちの少なくとも1つを決定するために前記アスペクト比を使用することと
行わせるさらなる命令を記憶する、上記[C27]に記載のコンピュータ可読記憶媒体。
[C29]
前記パラメータが、左境界パラメータ、右境界パラメータ、上境界パラメータ、下境界パラメータ、ニアクリッピング平面パラメータ、およびファークリッピング平面パラメータを備える、上記[C27]に記載のコンピュータ可読記憶媒体。
[C30]
前記1つまたは複数のプロセッサによって実行されたときに前記1つまたは複数のプロセッサに、
前記現実3D画像についてのニア平面視差値を決定することと、
前記ニア平面視差値を用いて前記仮想3Dオブジェクトをレンダリングすることと
を行わせるさらなる命令を記憶する、上記[C25]に記載のコンピュータ可読記憶媒体。
[C31]
前記1つまたは複数のプロセッサによって実行されたときに前記1つまたは複数のプロセッサに、
前記現実3D画像についてのファー平面視差値を決定することと、
前記ファー平面視差値を用いて前記仮想3Dオブジェクトをレンダリングすることと
を行わせるさらなる命令を記憶する、上記[C25]に記載のコンピュータ可読記憶媒体。
[C32]
前記1つまたは複数のプロセッサによって実行されたときに前記1つまたは複数のプロセッサに、
前記混合リアリティ3D画像のビューポートをシフトすること
を行わせるさらなる命令を記憶する、上記[C25]に記載のコンピュータ可読記憶媒体。
Claims (32)
- 現実3次元(3D)画像についてのゼロ視差平面までの距離を決定することと、
前記ゼロ視差平面までの前記距離に少なくとも部分的に基づいて射影行列に関する1つまたは複数のパラメータを決定することと、
前記射影行列に少なくとも部分的に基づいて仮想3Dオブジェクトをレンダリングすることと、
混合リアリティ3D画像を生成するために前記現実画像と前記仮想オブジェクトとを組み合わせることと
を備える、方法。 - 前記ゼロ視差平面までの前記距離に少なくとも部分的に基づいて両眼間隔値を決定することと、
前記両眼間隔値に少なくとも部分的に基づいて前記仮想3Dオブジェクトをレンダリングすることと
をさらに備える、請求項1に記載の方法。 - 前記現実3D画像がステレオカメラによってキャプチャされる、請求項1に記載の方法。
- 前記方法が、
前記ステレオカメラのアスペクト比を決定することと、
前記射影行列に関する1つまたは複数のパラメータのうちの少なくとも1つを決定するために前記アスペクト比を使用することと
をさらに備える、請求項3に記載の方法。 - 前記パラメータが、左境界パラメータ、右境界パラメータ、上境界パラメータ、下境界パラメータ、ニアクリッピング平面パラメータ、およびファークリッピング平面パラメータを備える、請求項1に記載の方法。
- 前記現実3D画像についてのニア平面視差値を決定することと、
前記ニア平面視差値を用いて前記仮想3Dオブジェクトをレンダリングすることと
をさらに備える、請求項1に記載の方法。 - 前記現実3D画像についてのファー平面視差値を決定することと、
前記ファー平面視差値を用いて前記仮想3Dオブジェクトをレンダリングすることと
をさらに備える、請求項1に記載の方法。 - 前記混合リアリティ3D画像のビューポートをシフトすること
をさらに備える、請求項1に記載の方法。 - 3次元(3D)ビデオデータを処理するためのシステムであって、前記システムが、
現実3D画像ソースであって、キャプチャされた3D画像についてのゼロ視差平面までの距離を決定するように構成された現実3D画像ソースと、
仮想画像ソースであって、
前記ゼロ視差平面までの前記距離に少なくとも基づいて射影行列に関する1つまたは複数のパラメータを決定することと、
前記射影行列に少なくとも部分的に基づいて仮想3Dオブジェクトをレンダリングすることと、を行うように構成された仮想画像ソースと、
混合リアリティ3D画像を生成するために前記現実画像と前記仮想オブジェクトとを組み合わせるように構成された混合シーン合成ユニットと
を備える、システム。 - 前記仮想画像ソースが、さらに、
前記ゼロ視差平面までの前記距離に少なくとも基づいて前記両眼間隔値を決定し、前記両眼間隔値に少なくとも部分的に基づいて前記仮想3Dオブジェクトをレンダリングするように構成された、請求項9に記載のシステム。 - 前記現実3D画像ソースがステレオカメラである、請求項9に記載のシステム。
- 前記仮想画像ソースが、さらに、前記ステレオカメラのアスペクト比を決定し、前記射影行列に関する1つまたは複数のパラメータのうちの少なくとも1つを決定するために前記アスペクト比を使用するように構成された、請求項11に記載のシステム。
- 前記パラメータが、左境界パラメータ、右境界パラメータ、上境界パラメータ、下境界パラメータ、ニアクリッピング平面パラメータ、およびファークリッピング平面パラメータを備える、請求項9に記載のシステム。
- 前記仮想画像ソースが、さらに、前記現実3D画像についてのニア平面視差値を決定し、前記同じニア平面視差値を用いて前記仮想3Dオブジェクトをレンダリングするように構成された、請求項9に記載のシステム。
- 前記仮想画像ソースが、さらに、前記現実3D画像についてのファー平面視差値を決定し、前記同じファー平面視差値を用いて前記仮想3Dオブジェクトをレンダリングするように構成された、請求項9に記載のシステム。
- 前記混合シーン合成ユニットが、さらに、前記混合リアリティ3D画像のビューポートをシフトするように構成された、請求項9に記載のシステム。
- 現実3次元(3D)画像についてのゼロ視差平面までの距離を決定するための手段と、
前記ゼロ視差平面までの前記距離に少なくとも部分的に基づいて射影行列に関する1つまたは複数のパラメータを決定するための手段と、
前記射影行列に少なくとも部分的に基づいて仮想3Dオブジェクトをレンダリングするための手段と、
混合リアリティ3D画像を生成するために前記現実画像と前記仮想オブジェクトとを組み合わせるための手段と
を備える、装置。 - 前記ゼロ視差平面までの前記距離に少なくとも部分的に基づいて両眼間隔値を決定するための手段と、
前記両眼間隔値に少なくとも部分的に基づいて前記仮想3Dオブジェクトをレンダリングするための手段と
をさらに備える、請求項17に記載の装置。 - 前記現実3D画像がステレオカメラによってキャプチャされる、請求項17に記載の装置。
- 前記装置が、
前記ステレオカメラのアスペクト比を決定するための手段と、
前記射影行列に関する1つまたは複数のパラメータのうちの少なくとも1つを決定するために前記アスペクト比を使用するための手段と
をさらに備える、請求項19に記載の装置。 - 前記パラメータが、左境界パラメータ、右境界パラメータ、上境界パラメータ、下境界パラメータ、ニアクリッピング平面パラメータ、ファークリッピング平面パラメータを備える、請求項17に記載の装置。
- 前記現実3D画像についてのニア平面視差値を決定するための手段と、
前記ニア平面視差値を用いて前記仮想3Dオブジェクトをレンダリングするための手段と
をさらに備える、請求項17に記載の装置。 - 前記現実3D画像についてのファー平面視差値を決定するための手段と、
前記ファー平面視差値を用いて前記仮想3Dオブジェクトをレンダリングするための手段と
をさらに備える、請求項17に記載の装置。 - 前記混合リアリティ3D画像のビューポートをシフトするための手段
をさらに備える、請求項17に記載の装置。 - 1つまたは複数のプロセッサによって実行されたときに前記1つまたは複数のプロセッサに、
現実3次元(3D)画像についてのゼロ視差平面までの距離を決定することと、
前記ゼロ視差平面までの前記距離に少なくとも部分的に基づいて射影行列に関する1つまたは複数のパラメータを決定することと、
前記射影行列に少なくとも部分的に基づいて仮想3Dオブジェクトをレンダリングすることと、
混合リアリティ3D画像を生成するために前記現実画像と前記仮想オブジェクトとを組み合わせることと
を行わせる1つまたは複数の命令を有形に記憶する、非一時的コンピュータ可読記憶媒体。 - 前記1つまたは複数のプロセッサによって実行されたときに前記1つまたは複数のプロセッサに、
前記ゼロ視差平面までの前記距離に少なくとも部分的に基づいて両眼間隔値を決定することと、
前記両眼間隔値に少なくとも部分的に基づいて前記仮想3Dオブジェクトをレンダリングすることと
を行わせるさらなる命令を記憶する、請求項25に記載のコンピュータ可読記憶媒体。 - 前記現実3D画像がステレオカメラによってキャプチャされる、請求項25に記載のコンピュータ可読記憶媒体。
- 前記1つまたは複数のプロセッサによって実行されたときに前記1つまたは複数のプロセッサに、
前記ステレオカメラのアスペクト比を決定することと、
前記射影行列に関する1つまたは複数のパラメータのうちの少なくとも1つを決定するために前記アスペクト比を使用することと
行わせるさらなる命令を記憶する、請求項27に記載のコンピュータ可読記憶媒体。 - 前記パラメータが、左境界パラメータ、右境界パラメータ、上境界パラメータ、下境界パラメータ、ニアクリッピング平面パラメータ、およびファークリッピング平面パラメータを備える、請求項27に記載のコンピュータ可読記憶媒体。
- 前記1つまたは複数のプロセッサによって実行されたときに前記1つまたは複数のプロセッサに、
前記現実3D画像についてのニア平面視差値を決定することと、
前記ニア平面視差値を用いて前記仮想3Dオブジェクトをレンダリングすることと
を行わせるさらなる命令を記憶する、請求項25に記載のコンピュータ可読記憶媒体。 - 前記1つまたは複数のプロセッサによって実行されたときに前記1つまたは複数のプロセッサに、
前記現実3D画像についてのファー平面視差値を決定することと、
前記ファー平面視差値を用いて前記仮想3Dオブジェクトをレンダリングすることと
を行わせるさらなる命令を記憶する、請求項25に記載のコンピュータ可読記憶媒体。 - 前記1つまたは複数のプロセッサによって実行されたときに前記1つまたは複数のプロセッサに、
前記混合リアリティ3D画像のビューポートをシフトすること
を行わせるさらなる命令を記憶する、請求項25に記載のコンピュータ可読記憶媒体。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US41955010P | 2010-12-03 | 2010-12-03 | |
US61/419,550 | 2010-12-03 | ||
US13/234,028 | 2011-09-15 | ||
US13/234,028 US20120139906A1 (en) | 2010-12-03 | 2011-09-15 | Hybrid reality for 3d human-machine interface |
PCT/US2011/062261 WO2012074937A1 (en) | 2010-12-03 | 2011-11-28 | Hybrid reality for 3d human-machine interface |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014505917A true JP2014505917A (ja) | 2014-03-06 |
JP5654138B2 JP5654138B2 (ja) | 2015-01-14 |
Family
ID=46161809
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013542078A Expired - Fee Related JP5654138B2 (ja) | 2010-12-03 | 2011-11-28 | 3dヒューマンマシンインターフェースのためのハイブリッドリアリティ |
Country Status (5)
Country | Link |
---|---|
US (1) | US20120139906A1 (ja) |
EP (1) | EP2647207A1 (ja) |
JP (1) | JP5654138B2 (ja) |
CN (1) | CN103238338B (ja) |
WO (1) | WO2012074937A1 (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6959682B1 (ja) * | 2020-12-28 | 2021-11-05 | 株式会社計数技研 | 画像合成装置、画像合成方法、及びプログラム |
JP7044426B1 (ja) | 2021-10-14 | 2022-03-30 | 株式会社計数技研 | 画像合成装置、画像合成方法、及びプログラム |
WO2022145414A1 (ja) * | 2020-12-28 | 2022-07-07 | 株式会社計数技研 | 画像合成装置、画像合成方法、及びプログラム |
Families Citing this family (40)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR2976388B1 (fr) * | 2011-06-08 | 2014-01-10 | Media Relief | Procede de fabrication d'une image iridescente, image obtenue et dispositif la comprenant, programme associe |
US10805625B2 (en) * | 2011-07-05 | 2020-10-13 | Texas Instruments Incorporated | Method, system and computer program product for adjusting a stereoscopic image in response to decoded disparities between views of the stereoscopic image |
US9606992B2 (en) * | 2011-09-30 | 2017-03-28 | Microsoft Technology Licensing, Llc | Personal audio/visual apparatus providing resource management |
CN103108197A (zh) | 2011-11-14 | 2013-05-15 | 辉达公司 | 一种用于3d视频无线显示的优先级压缩方法和系统 |
KR20130053466A (ko) * | 2011-11-14 | 2013-05-24 | 한국전자통신연구원 | 인터랙티브 증강공간 제공을 위한 콘텐츠 재생 장치 및 방법 |
KR20130081569A (ko) * | 2012-01-09 | 2013-07-17 | 삼성전자주식회사 | 3d 영상을 출력하기 위한 장치 및 방법 |
US9829715B2 (en) | 2012-01-23 | 2017-11-28 | Nvidia Corporation | Eyewear device for transmitting signal and communication method thereof |
US20130215229A1 (en) * | 2012-02-16 | 2013-08-22 | Crytek Gmbh | Real-time compositing of live recording-based and computer graphics-based media streams |
EP2675173A1 (en) * | 2012-06-15 | 2013-12-18 | Thomson Licensing | Method and apparatus for fusion of images |
US9578224B2 (en) | 2012-09-10 | 2017-02-21 | Nvidia Corporation | System and method for enhanced monoimaging |
GB2499694B8 (en) | 2012-11-09 | 2017-06-07 | Sony Computer Entertainment Europe Ltd | System and method of image reconstruction |
TWI571827B (zh) * | 2012-11-13 | 2017-02-21 | 財團法人資訊工業策進會 | 決定3d物件影像在3d環境影像中深度的電子裝置及其方法 |
JP6396310B2 (ja) * | 2012-11-23 | 2018-09-26 | キャデンス メディカル イメージング インコーポレイテッドCadens Medical Imaging Inc. | 第一レンダリング投影と第二レンダリング投影との間のトランジションをユーザーに表示するための方法および装置 |
DE102013201377A1 (de) * | 2013-01-29 | 2014-07-31 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren und Vorrichtung zum Verarbeiten von 3d-Bilddaten |
US10935788B2 (en) | 2014-01-24 | 2021-03-02 | Nvidia Corporation | Hybrid virtual 3D rendering approach to stereovision |
WO2015123775A1 (en) * | 2014-02-18 | 2015-08-27 | Sulon Technologies Inc. | Systems and methods for incorporating a real image stream in a virtual image stream |
EP3175614A4 (en) * | 2014-07-31 | 2018-03-28 | Hewlett-Packard Development Company, L.P. | Virtual changes to a real object |
CN105611267B (zh) * | 2014-11-21 | 2020-12-15 | 罗克韦尔柯林斯公司 | 现实世界和虚拟世界图像基于深度和色度信息的合并 |
KR20160070874A (ko) * | 2014-12-10 | 2016-06-21 | 브이앤아이 주식회사 | 모바일 기기를 이용한 위치기반 시설물 관리 시스템 |
CN104539925B (zh) * | 2014-12-15 | 2016-10-05 | 北京邮电大学 | 基于深度信息的三维场景增强现实的方法及系统 |
US9911232B2 (en) | 2015-02-27 | 2018-03-06 | Microsoft Technology Licensing, Llc | Molding and anchoring physically constrained virtual environments to real-world environments |
US9836117B2 (en) | 2015-05-28 | 2017-12-05 | Microsoft Technology Licensing, Llc | Autonomous drones for tactile feedback in immersive virtual reality |
US9898864B2 (en) | 2015-05-28 | 2018-02-20 | Microsoft Technology Licensing, Llc | Shared tactile interaction and user safety in shared space multi-person immersive virtual reality |
US20170039986A1 (en) * | 2015-08-07 | 2017-02-09 | Microsoft Technology Licensing, Llc | Mixed Reality Social Interactions |
US9600938B1 (en) * | 2015-11-24 | 2017-03-21 | Eon Reality, Inc. | 3D augmented reality with comfortable 3D viewing |
EP3185550A1 (en) * | 2015-12-23 | 2017-06-28 | Thomson Licensing | Tridimensional rendering with adjustable disparity direction |
US20170228916A1 (en) * | 2016-01-18 | 2017-08-10 | Paperclip Productions, Inc. | System and method for an enhanced, multiplayer mixed reality experience |
US9906981B2 (en) | 2016-02-25 | 2018-02-27 | Nvidia Corporation | Method and system for dynamic regulation and control of Wi-Fi scans |
CN106131533A (zh) * | 2016-07-20 | 2016-11-16 | 深圳市金立通信设备有限公司 | 一种图像显示方法和终端 |
US10306215B2 (en) | 2016-07-31 | 2019-05-28 | Microsoft Technology Licensing, Llc | Object display utilizing monoscopic view with controlled convergence |
US20180063205A1 (en) * | 2016-08-30 | 2018-03-01 | Augre Mixed Reality Technologies, Llc | Mixed reality collaboration |
US20180077437A1 (en) | 2016-09-09 | 2018-03-15 | Barrie Hansen | Parallel Video Streaming |
CN110869980B (zh) | 2017-05-18 | 2024-01-09 | 交互数字Vc控股公司 | 将内容分发和呈现为球形视频和3d资产组合 |
US10297087B2 (en) * | 2017-05-31 | 2019-05-21 | Verizon Patent And Licensing Inc. | Methods and systems for generating a merged reality scene based on a virtual object and on a real-world object represented from different vantage points in different video data streams |
WO2019041035A1 (en) | 2017-08-30 | 2019-03-07 | Innovations Mindtrick Inc. | STEREOSCOPIC IMAGE DISPLAY DEVICE ADJUSTED BY THE SPECTATOR |
CN107995481B (zh) * | 2017-11-30 | 2019-11-15 | 贵州颐爱科技有限公司 | 一种混合现实的显示方法及装置 |
DE102018130770A1 (de) * | 2017-12-13 | 2019-06-13 | Apple Inc. | Stereoskopische Wiedergabe von virtuellen 3D-Objekten |
US11941499B2 (en) * | 2019-10-16 | 2024-03-26 | Hewlett-Packard Development Company, L.P. | Training using rendered images |
US11917119B2 (en) | 2020-01-09 | 2024-02-27 | Jerry Nims | 2D image capture system and display of 3D digital image |
CN116097644A (zh) * | 2020-06-24 | 2023-05-09 | 杰瑞·尼姆斯 | 2d数字图像捕获系统和模拟3d数字图像序列 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003284095A (ja) * | 2002-03-27 | 2003-10-03 | Sanyo Electric Co Ltd | 立体画像処理方法および装置 |
JP2006285609A (ja) * | 2005-03-31 | 2006-10-19 | Canon Inc | 画像処理方法、画像処理装置 |
JP2008146497A (ja) * | 2006-12-12 | 2008-06-26 | Canon Inc | 画像処理装置、画像処理方法 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1667471B1 (en) * | 2004-12-02 | 2008-02-06 | Sony Ericsson Mobile Communications AB | Portable communication device with three dimensional display |
JP4847203B2 (ja) * | 2006-04-27 | 2011-12-28 | キヤノン株式会社 | 情報処理方法、情報処理装置 |
EP2675175A3 (en) * | 2008-10-03 | 2014-07-23 | Real D Inc. | Optimal depth mapping |
JP5647242B2 (ja) * | 2009-07-27 | 2014-12-24 | コーニンクレッカ フィリップス エヌ ヴェ | 3dビデオ及び補助データの結合 |
WO2012005962A1 (en) * | 2010-06-28 | 2012-01-12 | Thomson Licensing | Method and apparatus for customizing 3-dimensional effects of stereo content |
US9699438B2 (en) * | 2010-07-02 | 2017-07-04 | Disney Enterprises, Inc. | 3D graphic insertion for live action stereoscopic video |
US8854356B2 (en) * | 2010-09-28 | 2014-10-07 | Nintendo Co., Ltd. | Storage medium having stored therein image processing program, image processing apparatus, image processing system, and image processing method |
-
2011
- 2011-09-15 US US13/234,028 patent/US20120139906A1/en not_active Abandoned
- 2011-11-28 JP JP2013542078A patent/JP5654138B2/ja not_active Expired - Fee Related
- 2011-11-28 EP EP11791726.0A patent/EP2647207A1/en not_active Withdrawn
- 2011-11-28 WO PCT/US2011/062261 patent/WO2012074937A1/en active Application Filing
- 2011-11-28 CN CN201180057284.2A patent/CN103238338B/zh not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003284095A (ja) * | 2002-03-27 | 2003-10-03 | Sanyo Electric Co Ltd | 立体画像処理方法および装置 |
JP2006285609A (ja) * | 2005-03-31 | 2006-10-19 | Canon Inc | 画像処理方法、画像処理装置 |
JP2008146497A (ja) * | 2006-12-12 | 2008-06-26 | Canon Inc | 画像処理装置、画像処理方法 |
Non-Patent Citations (2)
Title |
---|
CSND201000688006; 加納 裕: '第4章 実世界と3DCGの世界をつないで、画像を立体視させる OpenGLを使って立体視の絵を作ろう' Interface 第37巻 第1号 第37巻 第1号, 20110101, P.71-77, CQ出版株式会社 * |
JPN6014027497; 加納 裕: '第4章 実世界と3DCGの世界をつないで、画像を立体視させる OpenGLを使って立体視の絵を作ろう' Interface 第37巻 第1号 第37巻 第1号, 20110101, P.71-77, CQ出版株式会社 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6959682B1 (ja) * | 2020-12-28 | 2021-11-05 | 株式会社計数技研 | 画像合成装置、画像合成方法、及びプログラム |
WO2022145414A1 (ja) * | 2020-12-28 | 2022-07-07 | 株式会社計数技研 | 画像合成装置、画像合成方法、及びプログラム |
JP2022103572A (ja) * | 2020-12-28 | 2022-07-08 | 株式会社計数技研 | 画像合成装置、画像合成方法、及びプログラム |
JP7044426B1 (ja) | 2021-10-14 | 2022-03-30 | 株式会社計数技研 | 画像合成装置、画像合成方法、及びプログラム |
JP2023059137A (ja) * | 2021-10-14 | 2023-04-26 | 株式会社計数技研 | 画像合成装置、画像合成方法、及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
WO2012074937A1 (en) | 2012-06-07 |
CN103238338B (zh) | 2016-08-10 |
EP2647207A1 (en) | 2013-10-09 |
CN103238338A (zh) | 2013-08-07 |
US20120139906A1 (en) | 2012-06-07 |
JP5654138B2 (ja) | 2015-01-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5654138B2 (ja) | 3dヒューマンマシンインターフェースのためのハイブリッドリアリティ | |
JP5763184B2 (ja) | 3次元画像に対する視差の算出 | |
US9986258B2 (en) | Efficient encoding of multiple views | |
KR101492876B1 (ko) | 사용자 선호도들에 기초하여 3d 비디오 렌더링을 조정하기 위한 3d 비디오 제어 시스템 | |
US20140198182A1 (en) | Representation and Coding of Multi-View Images Using Tapestry Encoding | |
EP3759925A1 (en) | An apparatus, a method and a computer program for volumetric video | |
CN113243112A (zh) | 流式传输体积视频和非体积视频 | |
US20230283759A1 (en) | System and method for presenting three-dimensional content | |
JP7344988B2 (ja) | ボリュメトリック映像の符号化および復号化のための方法、装置、およびコンピュータプログラム製品 | |
EP3729805A1 (en) | Method for encoding and decoding volumetric video data | |
WO2019077199A1 (en) | APPARATUS, METHOD, AND COMPUTER PROGRAM FOR VOLUMETRIC VIDEO | |
Knorr et al. | From 2D-to stereo-to multi-view video | |
Scheer et al. | A client-server architecture for real-time view-dependent streaming of free-viewpoint video | |
Tan et al. | A system for capturing, rendering and multiplexing images on multi-view autostereoscopic display | |
US20230008125A1 (en) | Augmenting a view of a real-world environment with a view of a volumetric video object | |
Kovács et al. | Analysis and optimization of pixel usage of light-field conversion from multi-camera setups to 3D light-field displays | |
Robitza | 3d vision: Technologies and applications | |
Towards a three-dimensional immersive teleconferencing system: Design and implementation | ||
Lee et al. | Technical Challenges of 3D Video Coding |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140625 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140701 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140930 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20141021 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20141119 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5654138 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |