JP7263451B2 - レイヤ化拡張型エンターテインメント体験 - Google Patents
レイヤ化拡張型エンターテインメント体験 Download PDFInfo
- Publication number
- JP7263451B2 JP7263451B2 JP2021133460A JP2021133460A JP7263451B2 JP 7263451 B2 JP7263451 B2 JP 7263451B2 JP 2021133460 A JP2021133460 A JP 2021133460A JP 2021133460 A JP2021133460 A JP 2021133460A JP 7263451 B2 JP7263451 B2 JP 7263451B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- display
- cinema
- layer
- images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 239000010410 layer Substances 0.000 claims description 230
- 230000000007 visual effect Effects 0.000 claims description 225
- 239000002356 single layer Substances 0.000 claims description 127
- 238000000034 method Methods 0.000 claims description 89
- 238000000926 separation method Methods 0.000 claims description 45
- 238000009877 rendering Methods 0.000 claims description 36
- 230000009466 transformation Effects 0.000 claims description 8
- 238000000844 transformation Methods 0.000 claims description 6
- 238000001514 detection method Methods 0.000 claims description 5
- 230000000712 assembly Effects 0.000 claims description 4
- 238000000429 assembly Methods 0.000 claims description 4
- 238000009826 distribution Methods 0.000 description 32
- 230000008569 process Effects 0.000 description 26
- 238000003860 storage Methods 0.000 description 19
- 238000004891 communication Methods 0.000 description 18
- 238000012545 processing Methods 0.000 description 17
- 230000004308 accommodation Effects 0.000 description 10
- 238000006073 displacement reaction Methods 0.000 description 9
- 230000033001 locomotion Effects 0.000 description 9
- 238000013459 approach Methods 0.000 description 8
- 230000003287 optical effect Effects 0.000 description 8
- 230000003190 augmentative effect Effects 0.000 description 7
- 238000013519 translation Methods 0.000 description 7
- 239000011521 glass Substances 0.000 description 6
- 230000002123 temporal effect Effects 0.000 description 6
- 230000001133 acceleration Effects 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 5
- 210000004556 brain Anatomy 0.000 description 5
- 230000007246 mechanism Effects 0.000 description 5
- 230000003068 static effect Effects 0.000 description 5
- 238000013500 data storage Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 210000003205 muscle Anatomy 0.000 description 4
- 239000007787 solid Substances 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 230000001413 cellular effect Effects 0.000 description 3
- 238000007726 management method Methods 0.000 description 3
- 230000008447 perception Effects 0.000 description 3
- 230000007704 transition Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 230000001886 ciliary effect Effects 0.000 description 2
- 238000004140 cleaning Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000009499 grossing Methods 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000010287 polarization Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 238000011144 upstream manufacturing Methods 0.000 description 2
- 241000473391 Archosargus rhomboidalis Species 0.000 description 1
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 206010028813 Nausea Diseases 0.000 description 1
- 238000000149 argon plasma sintering Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000004438 eyesight Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 230000003340 mental effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008693 nausea Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- JTJMJGYZQZDUJJ-UHFFFAOYSA-N phencyclidine Chemical compound C1CCCCN1C1(C=2C=CC=CC=2)CCCCC1 JTJMJGYZQZDUJJ-UHFFFAOYSA-N 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 230000016776 visual perception Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/25—Output arrangements for video game devices
- A63F13/26—Output arrangements for video game devices having at least one additional display device, e.g. on the game controller or outside a game booth
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/005—General purpose rendering architectures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/156—Mixing image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/172—Processing image signals image signals comprising non-image signal components, e.g. headers or format information
- H04N13/183—On-screen display [OSD] information, e.g. subtitles or menus
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/597—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/8146—Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/60—Methods for processing data by generating or executing the game program
- A63F2300/69—Involving elements of the real world in the game world, e.g. measurement in live races, real video
Description
本出願は、2017年4月11日に出願された米国特許仮出願第62/484,121号に基づく優先権の利益を主張し、この米国特許仮出願の開示の全体を本願において援用する。
それぞれを幾つかの特定の焦点距離(または倍率)に合わせ、実世界の物体への合焦を行う。同時に、人間の脳は、実世界の物体の3D物体としての知覚をサポートするために、両眼転導プロセスを用いて外眼筋を制御し、2つの眼を実世界の物体に向けて同時に輻輳(converge)または開散(diverge)させる。
1.一般的概要
2.拡張型エンターテインメント体験
3.レイヤ化画像生成
4.テンソルマップ
5.レイヤ化画像エンコーダおよび拡張型エンターテインメントシステム
6.プロセスフロー例
7.実装メカニズム-ハードウェア概要
8.均等物、拡張物、代替物およびその他
本概要は、本発明のある例示的実施形態が有するいくつかの側面について、基本的説明を提示する。本概要は、例示的実施形態が有する諸側面についての広範かつ網羅的な要約ではない、ということに留意すべきである。さらに留意すべきは、本概要は、例示的実施形態が有する任意の特に重要な側面または要素を示すものとして理解されるようには意図されておらず、その特定の例示的実施形態あるいは広く本発明の何らの範囲をも策定するものとして理解されるようにも意図されていない。本概要は、例示的実施形態に関するいくつかの概念を凝縮された簡素な形式で提示するに過ぎず、以下に続く例示的実施形態についてのより詳細な説明に対する単なる概念的な前置きとして理解されるべきである。本明細書では別個の実施形態が論じられているが、本明細書で論じられている実施形態の任意の組み合わせおよび/または部分的な実施形態は、組み合わせられてさらなる実施形態を形成し得ることに留意されたい。
する米国特許出願第15/945,237号において知ることができる。この米国特許出願の全内容は本願において援用され、本明細書に完全に述べられているのと同等に取り扱われる。
る(または視覚的に知覚する)ことができる。デバイス画像に描写された追加の3D物体の中には、シネマディスプレイから鑑賞者の前面に飛び出すように見えるものがある。鑑賞者は、これらの3D物体のうちの任意のものを、そのような3D物体が、鑑賞者が位置している3D(物理)空間にあたかも実際に存在するように追うことができる。鑑賞者が3D物体の周囲を移動すると、鑑賞者は、3D物体周りの、直前には遮蔽されていた3D物体の視覚的細部を、現実感の次元または深度が追加/拡張された状態で見ることができる。したがって、デバイス画像およびシネマ画像の組み合わせを通じて、鑑賞者は、鑑賞者の頭部の移動に応じた異なる視差を見ることによって、物体が周囲を浮遊しているという(例えば、心理視覚的、精神物理的等の)感覚を得ることができる。
ィスプレイ(またはこのデバイスディスプレイに関連した画像平面)に対して正の視差を有する。したがって、他の手法下で起こるであろう遠近調節と両眼転導との不整合は、本明細書において説明される技法の下では、回避または大幅に改善することができる。デバイスディスプレイは、鑑賞者の前方の単一距離の単一画像平面において、または、(例えば、時分割多重化等を通じて)複数の異なる距離の複数の画像平面において、デバイスディスプレイ画像を表示または投影することができる。画像平面のこれらの距離は、固定され得るし、自動調節可能にし得る。鑑賞者から自動調節可能な距離(単数または複数)の画像平面(単数または複数)を有するデバイスディスプレイの例は、2017年10月30日に出願された「EYEWEAR DEVICES WITH FOCUS TUNABLE LENSES」という出願名称を有
する米国特許出願第15/798,274号において知ることができる。この米国特許出願の全内容は本願において援用され、本明細書に完全に述べられているのと同等に取り扱われる。
、多視点画像に表された3D画像空間内の様々な空間ロケーションにおいて仮想的に配置され得る。本明細書において、多視点非レイヤ化画像とは、レイヤ化画像生成処理が適用されるべき多視点画像を指す。
テンソルマップの上記部分とシームレスに接合するという制約条件の下で、ウェアラブルデバイスごとに、そのウェアラブルデバイスの特定の空間位置および/または特定の空間方向に基づいて個別に生成することができる。したがって、本明細書において説明される技法によれば、シネマディスプレイ画像およびデバイスディスプレイ画像の組み合わせによって描画される3D画像空間は、多視点非レイヤ化画像に当初描写された3D画像空間を正確にまたは忠実に再現する。
点ビデオ信号が受信される。シネマ画像レイヤにおけるシングルレイヤシネマ画像と、1つ以上のデバイス画像レイヤにおけるシングルレイヤデバイス画像とは、1つ以上の多視点非レイヤ化画像から事前に得られたものである。1つ以上のシングルレイヤシネマ画像は、多レイヤ多視点ビデオ信号のシネマ画像レイヤから取り出される。1つ以上のシングルレイヤシネマ画像は、1つ以上の多視点非レイヤ化画像によって当初描写された複数の視覚物体における1つ以上の視覚物体の第1の真部分集合を描写する。1つ以上のシングルレイヤデバイス画像は、多レイヤ多視点ビデオ信号の1つ以上のデバイス画像レイヤから取り出される。1つ以上のデバイス画像は、1つ以上の多視点非レイヤ化画像によって当初描写された複数の視覚物体における1つ以上の視覚物体の1つ以上の第2の真部分集合を描写する。1つ以上の第1の多視点シングルレイヤ画像に描写された視覚物体の第1の真部分集合は、3D空間において鑑賞者に対してシネマディスプレイ上に描画される。1つ以上の第2の多視点シングルレイヤ画像に描写された視覚物体の1つ以上の第2の真部分集合は、3D空間において鑑賞者に対してデバイスディスプレイ上に同時に描画される。シネマディスプレイ上に描画された視覚物体の第1の真部分集合と、デバイスディスプレイ上に描画された視覚物体の1つ以上の第2の真部分集合とは、3D画像空間において、1つ以上の多視点非レイヤ化画像によって当初描写されたものと同じ空間ロケーションに位置する複数の視覚物体をひとまとめにして描写する。複数の視覚物体が位置する3D画像空間内の空間ロケーションを記述した空間情報は、1つ以上の多視点非レイヤ化画像によって当初描写された複数の視覚物体をシネマ画像レイヤおよび1つ以上のデバイス画像レイヤに分割するために事前に用いられたものである。
、ヘルメットマウントディスプレイデバイス、CAVEタイプシステム、壁サイズディスプレイ、ビデオゲームデバイス、ディスプレイデバイス、メディアプレーヤー、メディアサーバ、メディア制作システム、カメラシステム、ホームベースシステム、通信デバイス、ビデオ処理システム、ビデオコーデックシステム、スタジオシステム、ストリーミングサーバ、クラウドベースコンテンツサービスシステム、ハンドヘルドデバイス、ゲームマシン、テレビ、シネマディスプレイ、ラップトップコンピュータ、ネットブックコンピュータ、タブレットコンピュータ、セルラー無線電話機、電子ブックリーダー、POS(point of sale)端末、デスクトップコンピュータ、コンピュータワークステーション、コ
ンピュータサーバ、コンピュータキオスク、または他の様々な種類の端末およびメディア処理ユニットのうちの任意のものを含むが、これらに限定されるものではない。
幾つかの例示の実施形態では、本明細書において説明される技法は、共有ディスプレイ(例えば、シネマディスプレイ等)とウェアラブルデバイスのデバイスディスプレイとを用いて、統合された(例えば、3D、多視点等の)画像コンテンツを提示し、鑑賞者のエンターテインメント体験を拡張/強化するために用いることができる。鑑賞者は、シネマディスプレイ上のシネマ画像コンテンツを視認している間、当該鑑賞者によって用いられるウェアラブルデバイスのデバイスディスプレイを用いて描画されたデバイス画像コンテンツを同時に視認することができる。多視点非レイヤ化画像から得ることができるこれらのシネマ画像コンテンツおよびデバイス画像コンテンツは、同じ多視点非レイヤ化画像に当初描写されていた全ての視覚物体をひとまとめにして提示する。
必ずしもこれらのみに限定されるものではない。
図1Aは、多視点非レイヤ化画像に描写された3D視覚物体(例えば、118、120等)の例を示している。多視点非レイヤ化画像は、複数の異なる視点(例えば、視認方向、視野等)に対応する複数の非レイヤ化(単一)視点画像を含むことができる。多視点非レイヤ化画像の複数の非レイヤ化視点画像中の各非レイヤ化視点画像は、複数の異なる視点の中のそれぞれの視点に対応することができる。例えば、多視点非レイヤ化画像は、左視点に対応する第1の非レイヤ化視点画像(例えば、鑑賞者の左眼等に対して描画される)と、右視点に対応する第2の非レイヤ化視点画像(例えば、鑑賞者の右眼等に対して描画される)とを含むことができる。
6における単一ディスプレイ上に直接描画するのではなく、鑑賞者によって用いられるウェアラブルデバイスのデバイスディスプレイを含む3D空間126における複数のディスプレイ(例えば、104、116等)上にシネマディスプレイ画像およびデバイスディス
プレイ画像を描画する。
うちの1つ以上を含むことができるが、必ずしもこれらのみに限定されるものではない。
に対して設定される。一例では、レイヤ分離面194は、シネマディスプレイ104と一致することができる。別の例では、レイヤ分離面194は、(図1Bに示すように)シネマディスプレイ104の背後の特定の距離に設定することもできるし、(図1Dに示すように)シネマディスプレイ104の前方の特定の距離に設定することもできる。レイヤ分離面194からシネマディスプレイ104までの特定の距離は、相対的に小さな距離、相対的に大きな距離、ゼロの距離、1メートル離れた距離、5メートル離れた距離、シネマディスプレイ104と鑑賞者112-0の空間位置192との間の深度または距離の一部等のうちの1つとすることができるが、これらに限定されるものではない。したがって、レイヤ分離面194からシネマディスプレイ104までの特定の距離は、多視点非レイヤ化画像に描写された複数の視覚物体における視覚物体を異なる画像レイヤに分離するために用いられる距離閾値(または相対深度閾値)を表すことができる。
なる空間関係閾値(または基準)を含むことができる。例えば、これらの更なる空間関係閾値(または基準)は、視覚物体(例えば、120等)の1つ以上の第2の真部分集合の中で、ある部分集合を別の部分集合と分離または区別するために用いることができる。
ム等を表すことができる。
上記のように、多視点非レイヤ化画像は、複数の異なる視点(例えば、視認方向、視野等)に対応する複数の非レイヤ化(単一)視点画像を含むことができる。幾つかの実施形態では、多視点非レイヤ化画像における各非レイヤ化視点画像の深度情報に基づいて、テンソルマップ(例えば、x、y、z次元/座標/軸等の次数3のテンソルマップ)を作成して、3D画像空間内の多視点非レイヤ化画像における非レイヤ化視点画像のピクセル分布を生成することができる。テンソルマップから生成されたピクセル分布におけるピクセルは、xおよびy次元/座標/軸(例えば、画像フレームの列、画像フレームの行等)だけでなく、z次元/座標/軸(例えば、深度等)においても表される。
88に基づいて非レイヤ化視点画像から生成された例示のシングルレイヤ画像176-1~176-3を示している。
できる。
再現する。
図2Aは、拡張型エンターテインメントシステムの一例示の構成100を示している。この構成は、レイヤ化画像エンコーダ180、画像コンテンツ受信機110、画像レンダラ(例えば、106、108等)、デバイストラッカ122、3D空間(例えば、126等)における鑑賞者112-1のウェアラブル画像描画デバイス102-1等の1つ以上のウェアラブルデバイス等を備える。図2Aに示す構成要素/デバイスの幾つかまたは全ては、1つ以上の機械構成要素、1つ以上の電気光学構成要素、ソフトウェア、ハードウェア、ソフトウェアおよびハードウェアの組み合わせ等による1つ以上のコンピューティングデバイス、モジュール、ユニット等によって実施することができる。図2Aに示す構成要素/デバイスの幾つかまたは全ては、図2Aに示す他の幾つかの構成要素/デバイスまたは図2Aに示していない他の構成要素/デバイスと(例えば、無線、有線接続等を用いて)通信結合することができる。
ブルデバイス102-1の一部とすることもできるし、ウェアラブルデバイス102-1と同じ場所への配置、ウェアラブルデバイス102-1との共動等を行うこともできるインサイドアウトデバイストラッカも、(外部)デバイストラッカ122に加えてまたはその代わりに用いることができることに留意されたい。デバイストラッカ122は、相対的に多数のウェアラブルデバイスの空間座標を追跡することができる。これらのウェアラブルデバイスには、3D空間126に存在するウェアラブルデバイス102-1が含まれるが、これに限定されるものではない。
102-1の(経時的な)線形速度、線形スピード、線形加速度等は、ウェアラブルデバイス102-1の空間軌道から(例えば、1次導関数、2次導関数等として)決定または導出することができる。
ディスプレイシステム、バックライトベースのディスプレイシステム、ライトフィールドベースのディスプレイシステム、光導波路ベースのディスプレイシステム、液晶ベースのディスプレイシステム、発光ダイオードベースのシステム、有機発光ダイオードベースのシステム、画像プロジェクター、ARディスプレイ、HoloLensディスプレイ、Magic Leapディスプレイ、複合現実(MR)ディスプレイ、テンソルディスプレイ、ボリュームディスプレイ、ライトフィールド(LF)ディスプレイ、Immyディスプレイ、メタディスプレイ、相対的に単純なARメガネ、遠近調節と両眼転導との不整合を克服する広範囲の能力のうちの任意のものを有するディスプレイ等のうちの任意のものを含むことができるが、必ずしもこれらのみに限定されるものではない。
出願第15/949,720号において知ることができる。この米国特許出願の全内容は本願において援用され、本明細書に完全に述べられているのと同等に取り扱われる。
有する米国特許出願第15/949,720号において知ることができる。
できる。各ゾーン(例えば、328等)内の鑑賞者は、複数のメディアストリーミングサーバにおけるそれぞれのメディアストリーミングサーバによってサポートすることができる。幾つかの実施形態では、メディアストリーミングサーバは、このメディアストリーミングサーバによってサポートされるように指定された、ゾーン328に着席した鑑賞者の各鑑賞者用の鑑賞者固有のデバイス画像コンテンツを生成する。鑑賞者固有のデバイス画像コンテンツを受信すると、ゾーン328内の鑑賞者のウェアラブルデバイスは、更なる適合を伴わずもしくは更なる適合をほとんど伴わず、または、相対的に単純な画像描画処理(例えば、画像補間/再構築/選択等)を伴って、鑑賞者固有のデバイス画像コンテンツを描画することができる。幾つかの実施形態では、メディアストリーミングサーバは、このメディアストリーミングサーバによってサポートされるゾーン328において、このゾーン内の全ての鑑賞者用のゾーン固有のデバイス画像コンテンツを生成することができる。ゾーン固有のデバイス画像コンテンツを受信すると、ゾーン328内の個々の鑑賞者のウェアラブルデバイスは、このウェアラブルデバイスの空間位置および/または空間方向に基づいて、ゾーン固有のデバイス画像コンテンツを適合させ、この適合されたデバイス画像コンテンツを描画することができる。
)、相対的に高い精度、相対的に多数の複数の鑑賞者等とともに実施することができる。
。追跡センサーアセンブリ124とともに動作するデバイストラッカ122は、拡張型エンターテインメントセッション(例えば、VRセッション、ARセッション、リモートプレゼンスセッション、コンピュータゲームセッション、映画等)においてウェアラブルデバイス(例えば、102-1、102-2等)の空間位置および/または空間方向をリアルタイムで決定する。
、それぞれシネマ画像コンテンツおよびデバイス画像コンテンツとともに記憶または送信することができる。シネマディスプレイ画像がシネマディスプレイ上に描画されている間、対応するデバイスディスプレイ画像は、ウェアラブルデバイスに(例えば、事前等に)ストリーミングされ、シネマディスプレイ上へのシネマディスプレイ画像の描画と同期してデバイスディスプレイ上に同時に描画される。
ているシネマ画像コンテンツの描画と同期して描画すべき対応するデバイス画像コンテンツを特定するために、シネマ画像レンダラによって3D空間126内の全てのウェアラブルデバイスに送信することができる。追加的、選択的、または代替的に、タイムスタンプ、ピングメッセージ等に代えてまたはこれらに加えて、対応するデバイス画像コンテンツの描画をシネマ画像コンテンツと同期させることを目的として、ウォーターマーキング、メディアコンテンツに対して実行中のフィンガープリントアルゴリズムから導出されたフィンガープリント、基準マーク等を組み込み、搬送、表示、送信または追跡することができる。
た (rigidly affixed)、すなわち、ウェアラブルデバイスに静止した(stationary with)
特定の3次元座標系の角度位置の空間座標によって特徴付けまたは測定することができる。3D空間126内の基準3次元座標系は、x軸、y軸およびz軸(図2Cには、x軸およびz軸のみが示されている)を備え、その座標原点がシネマディスプレイ104の選択位置「p」に位置している基準デカルト座標系とすることができる。ウェアラブル画像描画デバイス102に固定された、すなわち、このデバイスに静止したデバイス静止3次元座標系の例としては、鑑賞者の前方視認方向に対応する正のz方向と、鑑賞者の瞳孔間距離に平行なx方向と、x方向およびz方向に垂直なy方向とを有する3次元デカルト座標系とすることができる。角度位置の空間座標の例としては、ピッチ、ヨー、ロール等とすることができる。
生理的な不快感をもたらす傾向があるので、第3の範囲は、相対的に小さく設定されてもよい。
との間の空間関係を決定することができる。幾つかの実施形態では、これらの空間関係は、シネマディスプレイ104または3D空間126における基準デカルト座標系に対するウェアラブルデバイス(例えば、102-1、102-2等)の線形位置/線形変位、角度位置/角度変位、線形速度または角速度、線形スピードまたは角スピード、線形加速度または角加速度等のうちの1つ以上によって表すことができる。
のディスプレイ画像の生成、鑑賞者112-1または112-2へのそれぞれのウェアラブルデバイス102-1または102-2を用いた1つ以上のディスプレイ画像の描画等を行う。
図4Aは、本発明の一例示の実施形態による一例示のプロセスフローを示している。幾つかの例示の実施形態では、1つ以上のコンピューティングデバイスまたは構成要素が、このプロセスフローを実行することができる。ブロック402において、レイヤ化画像エンコーダ(例えば、図2Aの180等)は、1つ以上の多視点非レイヤ化画像に表された3次元(3D)画像空間内の複数の視覚物体の空間ロケーションを記述した空間情報にアクセスする。1つ以上の多視点非レイヤ化画像のそれぞれは、複数の視認方向に対応する複数の単視点非レイヤ化画像を含む。
づく空間変換を用いて、1つ以上のシングルレイヤデバイス画像をデバイスディスプレイ画像に適合させることを行うように更に構成されている。
1つの実施形態によれば、本明細書において説明される技法は、1つ以上の専用コンピューティングデバイスによって実施される。専用コンピューティングデバイスは、上記技法を実行するように配線接続することができ、または、上記技法を実行するように永続的にプログラムされる、1つ以上の特定用途向け集積回路(ASIC)またはフィールドプ
ログラマブルゲートアレイ(FPGA)等のデジタル電子デバイスを含むことができ、または、ファームウェア、メモリ、他の記憶装置または組み合わせにおいてプログラム命令に従って上記技法を実行するようにプログラムされた、1つ以上の汎用ハードウェアプロセッサを含むことができる。こうした専用コンピューティングデバイスはまた、カスタムプログラミングによりカスタム配線論理、ASICまたはFPGAを結合して、上記技法を実現することもできる。専用コンピューティングデバイスは、上記技法を実施する配線および/またはプログラム論理を組み込んだ、デスクトップコンピュータシステム、ポータブルコンピュータシステム、ハンドヘルドデバイス、ネットワーキングデバイス、または他の任意のデバイスとすることができる。
説明したプロセスステップを実行する。代替の実施形態では、ソフトウェア命令に代えてまたはソフトウェア命令と組み合わせて配線回路部を用いることができる。
ジタルデータおよびコンピュータシステム500からのデジタルデータを搬送する様々なネットワークを通る信号並びにネットワークリンク520上の信号および通信インターフェース518を通る信号は、伝送媒体の例示の形態である。
この明細書において、態様毎に異なり得る多数の詳細事項に言及しながら本発明の実施形態を説明した。従って、本発明が何たるか、また、本出願人が本発明であると意図するものを示す唯一且つ排他的な指標は、本願が特許になった際の請求の範囲(今後のあらゆる補正を含む、特許された特定の請求項)である。当該請求項に含まれる用語について本明細書中に明示したあらゆる定義が、請求項において使用される当該用語の意味を決定する。よって、請求項において明示されていない限定事項、要素、性質、特徴、利点または属性は、その請求項の範囲をいかなる意味においても限定すべきではない。従って、本明細書および図面は、限定的ではなく、例示的であるとみなされるべきである。
Claims (21)
- シネマ画像レイヤにおける1つ以上のシングルレイヤシネマ画像と、1つ以上のデバイス画像レイヤにおける1つ以上のシングルレイヤデバイス画像とを含む多レイヤ多視点ビデオ信号を受信することであって、該シネマ画像レイヤにおける該シングルレイヤシネマ画像と、該1つ以上のデバイス画像レイヤにおける該シングルレイヤデバイス画像とは、1つ以上の多視点非レイヤ化画像から事前に得られていることと、
前記多レイヤ多視点ビデオ信号の前記シネマ画像レイヤから、前記1つ以上のシングルレイヤシネマ画像を取り出すことであって、該1つ以上のシングルレイヤシネマ画像は、前記1つ以上の多視点非レイヤ化画像によって描写されていた複数の視覚物体における第1視覚物体を描写することと、
前記多レイヤ多視点ビデオ信号の前記1つ以上のデバイス画像レイヤから、前記1つ以上のシングルレイヤデバイス画像を取り出すことであって、該1つ以上のデバイス画像は、前記1つ以上の多視点非レイヤ化画像によって描写されていた前記複数の視覚物体における1つ以上の第2視覚物体を描写することと、
前記第1視覚物体および前記第2視覚物体が位置する3D画像空間における空間ロケーションを記述する空間情報を受け取ることと、
前記1つ以上のシングルレイヤシネマ画像に描写される前記第1視覚物体を3D空間内のシネマディスプレイ上に鑑賞者に対して描画することと、
前記1つ以上のシングルレイヤデバイス画像に描写される前記1つ以上の第2視覚物体を前記3D空間内のデバイスディスプレイ上に前記鑑賞者に対して同時に描画することと、
を含む方法。 - 前記デバイスディスプレイは、前記シネマディスプレイに対して1以上の自由度で空間的に移動可能である、請求項1に記載の方法。
- 前記デバイスディスプレイは、ウェアラブルデバイスによって用いられて画像を描画し、前記デバイスディスプレイは、前記ウェアラブルデバイスに対して空間的に固定されている、請求項1に記載の方法。
- 前記シネマディスプレイは静止ディスプレイであり、前記デバイスディスプレイは、前記鑑賞者によって用いられるウェアラブルデバイスのヘッドマウントディスプレイを表す、請求項1に記載の方法。
- 前記3D空間内の前記シネマディスプレイは、前記3D画像空間内のレイヤ分離面を画定するために用いられ、前記複数の視覚物体は、前記レイヤ分離面に対する前記複数の視覚物体の空間関係に少なくとも部分的に基づいて、前記第1視覚物体と前記1つ以上の第2視覚物体とに分割される、請求項1に記載の方法。
- 前記1つ以上の第2視覚物体は、前記レイヤ分離面までの空間距離に基づいて前記複数の視覚物体の中から選択される、請求項5に記載の方法。
- 前記複数の視覚物体の中の少なくとも1つの視覚物体は、前記レイヤ分離面にまたがり、前記第1視覚物体は、前記少なくとも1つの視覚物体の一部分を含み、前記1つ以上の第2視覚物体は、前記少なくとも1つの視覚物体の残りの部分を含む、請求項5に記載の方法。
- 前記シネマディスプレイは、前記3D空間内のゼロの視差の空間表面を表し、前記シネマディスプレイの背後におけるシネマディスプレイ画像によって描写された視覚物体は正の視差を有し、前記シネマディスプレイの前面における前記シネマディスプレイ画像によって描写された視覚物体は負の視差を有し、前記複数の視覚物体は、該複数の視覚物体における個々の視覚物体の個々の視差に基づいて、前記第1視覚物体と、前記1つ以上の第2視覚物体とに分割される、請求項1に記載の方法。
- 前記1つ以上の第2視覚物体が、前記シネマディスプレイ上に描画されたシネマディスプレイ画像によって描画される場合に、前記1つ以上の第2視覚物体における全ての視覚物体は負の視差を有する、請求項8に記載の方法。
- 前記1つ以上の第2視覚物体が、前記シネマディスプレイ上に描画されたシネマディスプレイ画像によって描画される場合に、前記1つ以上の第2視覚物体における少なくとも1つの視覚物体は正の視差を有する、請求項8に記載の方法。
- 前記1つ以上のシングルレイヤデバイス画像に描写される前記1つ以上の第2視覚物体における視覚物体の2つの異なる部分集合を、前記鑑賞者に対して、2つの異なる距離の2つの異なる画像平面において前記デバイスディスプレイ上に描画することを更に含む、請求項1に記載の方法。
- 前記デバイスディスプレイは、前記鑑賞者の両眼転導角度に基づいて調節可能な距離の画像平面においてデバイスディスプレイ画像を描画する、請求項1に記載の方法。
- 前記デバイスディスプレイは、前記鑑賞者に対して固定された距離の画像平面においてデバイスディスプレイ画像を描画する、請求項1に記載の方法。
- 前記デバイスディスプレイを備えるウェアラブルデバイスの特定の空間位置または特定の空間方向のうちの1つ以上に基づく空間変換を用いて、前記1つ以上のシングルレイヤデバイス画像をデバイスディスプレイ画像に適合させることを更に含む、請求項1に記載の方法。
- 前記空間変換は、前記1つ以上の多視点非レイヤ化画像から前記シネマ画像レイヤおよび前記1つ以上のデバイス画像レイヤを生成するのに事前に用いられたテンソルモデルを再構築する、請求項14に記載の方法。
- 前記シネマディスプレイ上に描画されたシネマディスプレイ画像は、2次元画像または3D画像のうちの一方を表す、請求項1に記載の方法。
- 前記デバイスディスプレイを備えるウェアラブルデバイスは、シネマ画像コンテンツが前記シネマディスプレイ上に描画されているときに同時に描画されるデバイス画像コンテンツを受信するメディアシステムに自動的に登録される前記3D空間内の複数のウェアラブルデバイスの中の1つである、請求項1に記載の方法。
- 前記ウェアラブルデバイスは、該ウェアラブルデバイスの鑑賞者に発行された特定のチケットに基づく特定の座席位置、シネマ画像コンテンツもしくは前記シネマディスプレイの周囲の空間エリアに組み込まれた基準マーカー、デバイスID情報を用いて符号化された光線、無線周波数(RF)ロケーション検出、または前記3D空間内の視聴者エリアの特定のゾーンのうちの1つ以上に基づいて前記メディアシステムに自動的に登録される、請求項17に記載の方法。
- 前記デバイスディスプレイを備えるウェアラブルデバイスは、前記3D空間内の視聴者エリアにおいて複数のゾーンに分割された前記3D空間内の複数のウェアラブルデバイスの中の1つであり、前記複数のゾーンにおける第1のゾーン内の第1のウェアラブルデバイスは、第1のデバイス画像コンテンツサーバからデバイス画像コンテンツを受信し、前記複数のゾーンにおける第2のゾーン内の第2のウェアラブルデバイスは、第2のデバイス画像コンテンツサーバからデバイス画像コンテンツを受信する、請求項1に記載の方法。
- 前記3D空間内の1つ以上の空間設置ロケーションに設置されたデバイスセンサーアセンブリを用いて前記デバイスディスプレイを備えるウェアラブルデバイスを追跡することを更に含む、請求項1に記載の方法。
- 前記デバイスセンサーアセンブリのうちの少なくとも1つは、前記3D空間内の天井、壁、床、前記シネマディスプレイに近い空間エリア、前記シネマディスプレイから離れた空間エリア、座席空間、または座席の裏側のうちの1つにある、請求項20に記載の方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201762484121P | 2017-04-11 | 2017-04-11 | |
US62/484,121 | 2017-04-11 | ||
JP2020012509A JP6932796B2 (ja) | 2017-04-11 | 2020-01-29 | レイヤ化拡張型エンターテインメント体験 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020012509A Division JP6932796B2 (ja) | 2017-04-11 | 2020-01-29 | レイヤ化拡張型エンターテインメント体験 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021184636A JP2021184636A (ja) | 2021-12-02 |
JP7263451B2 true JP7263451B2 (ja) | 2023-04-24 |
Family
ID=62092275
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019544632A Active JP6654275B1 (ja) | 2017-04-11 | 2018-04-10 | レイヤ化拡張型エンターテインメント体験 |
JP2020012509A Active JP6932796B2 (ja) | 2017-04-11 | 2020-01-29 | レイヤ化拡張型エンターテインメント体験 |
JP2021133460A Active JP7263451B2 (ja) | 2017-04-11 | 2021-08-18 | レイヤ化拡張型エンターテインメント体験 |
Family Applications Before (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019544632A Active JP6654275B1 (ja) | 2017-04-11 | 2018-04-10 | レイヤ化拡張型エンターテインメント体験 |
JP2020012509A Active JP6932796B2 (ja) | 2017-04-11 | 2020-01-29 | レイヤ化拡張型エンターテインメント体験 |
Country Status (10)
Country | Link |
---|---|
US (3) | US10991164B2 (ja) |
EP (2) | EP3610654B1 (ja) |
JP (3) | JP6654275B1 (ja) |
KR (3) | KR102087414B1 (ja) |
CN (2) | CN113660539B (ja) |
BR (2) | BR122021006807B1 (ja) |
ES (1) | ES2902979T3 (ja) |
PL (1) | PL3610654T3 (ja) |
RU (2) | RU2722495C1 (ja) |
WO (1) | WO2018191312A1 (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10726574B2 (en) | 2017-04-11 | 2020-07-28 | Dolby Laboratories Licensing Corporation | Passive multi-wearable-devices tracking |
US11363250B2 (en) | 2017-04-11 | 2022-06-14 | Dolby Laboratories Licensing Corporation | Augmented 3D entertainment systems |
US11882267B2 (en) | 2017-04-11 | 2024-01-23 | Dolby Laboratories Licensing Corporation | Adapting video images for wearable devices |
US11095927B2 (en) * | 2019-02-22 | 2021-08-17 | The Nielsen Company (Us), Llc | Dynamic watermarking of media based on transport-stream metadata, to facilitate action by downstream entity |
TR201910049A2 (tr) * | 2019-07-05 | 2021-01-21 | Karinca Teknoloji Ve Ilet San Tic Ltd Sti | Üç boyutlu ortam aktarma, yayinlama si̇stemi̇ ve yöntemi̇ |
US11743559B2 (en) * | 2021-01-05 | 2023-08-29 | Mediatek Singapore Pte. Ltd. | Methods and systems for derived immersive tracks |
WO2023038264A1 (ko) * | 2021-09-13 | 2023-03-16 | 삼성전자 주식회사 | 복수의 카메라들로부터 획득된 이미지들에 기반하는 입체 사진을 생성하는 전자 장치 및 그 방법 |
US20230245373A1 (en) * | 2022-01-28 | 2023-08-03 | Samsung Electronics Co., Ltd. | System and method for generating a three-dimensional photographic image |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001195601A (ja) | 2000-01-13 | 2001-07-19 | Mixed Reality Systems Laboratory Inc | 複合現実感提示装置及び複合現実感提示方法並びに記憶媒体 |
WO2013146385A1 (ja) | 2012-03-27 | 2013-10-03 | 株式会社ニコン | 表示装置及びプログラム |
JP2016042680A (ja) | 2014-08-19 | 2016-03-31 | セイコーエプソン株式会社 | 頭部装着型表示装置、画像表示システム、頭部装着型表示装置を制御する方法、および、コンピュータープログラム |
JP2018142162A (ja) | 2017-02-28 | 2018-09-13 | コニカミノルタ株式会社 | 画像形成システム |
Family Cites Families (62)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6016150A (en) * | 1995-08-04 | 2000-01-18 | Microsoft Corporation | Sprite compositor and method for performing lighting and shading operations using a compositor to combine factored image layers |
US6816158B1 (en) * | 1998-10-30 | 2004-11-09 | Lemelson Jerome H | Three-dimensional display system |
US7580378B2 (en) * | 2000-06-06 | 2009-08-25 | Alien Technology Corporation | Distance/ranging determination using relative phase data |
CA2418089A1 (en) | 2000-08-04 | 2002-02-14 | Dynamic Digital Depth Research Pty Ltd. | Image conversion and encoding technique |
US6803912B1 (en) | 2001-08-02 | 2004-10-12 | Mark Resources, Llc | Real time three-dimensional multiple display imaging system |
US20030038922A1 (en) | 2001-08-22 | 2003-02-27 | Ferrell Stanford L. | Apparatus and method for displaying 4-D images |
JP4188968B2 (ja) | 2003-01-20 | 2008-12-03 | 三洋電機株式会社 | 立体視用映像提供方法及び立体映像表示装置 |
EP1712981A1 (en) * | 2005-04-15 | 2006-10-18 | Herman Bailey | Interactive augmented reality system |
CN101292516A (zh) * | 2005-07-06 | 2008-10-22 | 米迪尔波得股份有限公司 | 捕获画面数据的系统和方法 |
US8094928B2 (en) | 2005-11-14 | 2012-01-10 | Microsoft Corporation | Stereo video for gaming |
US7679641B2 (en) | 2006-04-07 | 2010-03-16 | Real D | Vertical surround parallax correction |
JP5132690B2 (ja) | 2007-03-16 | 2013-01-30 | トムソン ライセンシング | テキストを3次元コンテンツと合成するシステム及び方法 |
KR101582142B1 (ko) * | 2008-06-06 | 2016-01-05 | 톰슨 라이센싱 | 이미지들의 유사성 검색을 위한 시스템 및 방법 |
MX2011000728A (es) * | 2008-07-21 | 2011-03-29 | Thomson Licensing | Dispositivo de codificacion multiestandar para señales de video en 3d. |
CN101771830B (zh) | 2008-12-30 | 2012-09-19 | 华为终端有限公司 | 立体全景视频流生成方法、设备及视频会议方法和设备 |
CN102427534B (zh) | 2009-01-19 | 2014-06-18 | 松下电器产业株式会社 | 编码方法和编码装置 |
WO2010085361A2 (en) * | 2009-01-26 | 2010-07-29 | Thomson Licensing | Frame packing for video coding |
US8411746B2 (en) | 2009-06-12 | 2013-04-02 | Qualcomm Incorporated | Multiview video coding over MPEG-2 systems |
BRPI1005171A2 (pt) * | 2009-06-17 | 2019-07-02 | Panasonic Corp | meio de gravação de informações e dispositivo de reprodução destinado à reprodução de imagens em 3d |
KR20110018261A (ko) | 2009-08-17 | 2011-02-23 | 삼성전자주식회사 | 텍스트 서브타이틀 데이터 처리 방법 및 재생 장치 |
US9049431B2 (en) | 2009-12-31 | 2015-06-02 | Cable Television Laboratories, Inc. | Method and system for generation of captions over stereoscopic 3D images |
US8717360B2 (en) * | 2010-01-29 | 2014-05-06 | Zspace, Inc. | Presenting a view within a three dimensional scene |
GB2478156A (en) * | 2010-02-26 | 2011-08-31 | Sony Corp | Method and apparatus for generating a disparity map for stereoscopic images |
WO2012002690A2 (ko) | 2010-06-27 | 2012-01-05 | 엘지전자 주식회사 | 디지털 수신기 및 디지털 수신기에서의 캡션 데이터 처리 방법 |
CN101894267B (zh) | 2010-07-06 | 2012-07-18 | 清华大学 | 一种三维对象特征视图选取方法 |
US9565415B2 (en) | 2010-09-14 | 2017-02-07 | Thomson Licensing | Method of presenting three-dimensional content with disparity adjustments |
BR112013023302A2 (pt) | 2011-03-18 | 2016-12-20 | Sony Corp | aparelho e método de processamento de imagem |
US20130038685A1 (en) | 2011-08-12 | 2013-02-14 | Alcatel-Lucent Usa Inc. | 3d display apparatus, method and structures |
US8941560B2 (en) * | 2011-09-21 | 2015-01-27 | Google Inc. | Wearable computer with superimposed controls and instructions for external device |
CN104272660A (zh) | 2011-10-11 | 2015-01-07 | 时间游戏公司 | 用于交互式体验的系统和方法和用于其的控制器 |
KR101872864B1 (ko) | 2011-12-19 | 2018-06-29 | 엘지전자 주식회사 | 전자 기기 및 전자 기기의 제어 방법 |
EP2795888B1 (en) | 2011-12-19 | 2015-09-23 | Dolby Laboratories Licensing Corporation | Head-mounted display |
CN104160705B (zh) | 2012-03-12 | 2018-11-16 | 杜比实验室特许公司 | 三维视觉动态范围编码 |
US9483853B2 (en) * | 2012-05-23 | 2016-11-01 | Glasses.Com Inc. | Systems and methods to display rendered images |
WO2014007414A1 (en) | 2012-07-06 | 2014-01-09 | Lg Electronics Inc. | Terminal for increasing visual comfort sensation of 3d object and control method thereof |
WO2014016986A1 (ja) | 2012-07-27 | 2014-01-30 | Necソフト株式会社 | 3次元環境共有システム及び3次元環境共有方法 |
US9717982B2 (en) * | 2012-12-21 | 2017-08-01 | Microsoft Technology Licensing, Llc | Client rendering of latency sensitive game features |
WO2014107066A1 (ko) * | 2013-01-04 | 2014-07-10 | 삼성전자 주식회사 | 위상차를 고려한 영상 업샘플링을 이용하는 스케일러블 비디오 부호화 방법 및 장치, 스케일러블 비디오 복호화 방법 및 장치 |
US8951071B2 (en) | 2013-03-15 | 2015-02-10 | Apple Inc. | Contact-support mechanism for increased retention force |
US10019057B2 (en) | 2013-06-07 | 2018-07-10 | Sony Interactive Entertainment Inc. | Switching mode of operation in a head mounted display |
US10905943B2 (en) * | 2013-06-07 | 2021-02-02 | Sony Interactive Entertainment LLC | Systems and methods for reducing hops associated with a head mounted system |
US9679369B2 (en) | 2013-09-12 | 2017-06-13 | Ventana 3D Llc | Depth key compositing for video and holographic projection |
US9804395B2 (en) | 2014-01-29 | 2017-10-31 | Ricoh Co., Ltd | Range calibration of a binocular optical augmented reality system |
KR20150106380A (ko) * | 2014-03-11 | 2015-09-21 | 삼성전자주식회사 | 인터 레이어 비디오 부복호화를 위한 깊이 영상의 예측 모드 전송 방법 및 장치 |
JP2015210580A (ja) * | 2014-04-24 | 2015-11-24 | エイディシーテクノロジー株式会社 | 表示システム及びウェアラブル機器 |
US10368098B2 (en) * | 2014-06-20 | 2019-07-30 | Samsung Electronics Co., Ltd. | Method and device for transmitting prediction mode of depth image for interlayer video encoding and decoding |
US10593113B2 (en) * | 2014-07-08 | 2020-03-17 | Samsung Electronics Co., Ltd. | Device and method to display object with visual effect |
US20160103330A1 (en) | 2014-10-10 | 2016-04-14 | 3DOO, Inc. | System and method for adjusting parallax in three-dimensional stereoscopic image representation |
KR20180035934A (ko) * | 2014-12-23 | 2018-04-06 | 메타 컴퍼니 | 관심 객체의 임의의 깊이에 있는 동일한 평면으로 시각적 조절과 시각적 수렴을 결합시키는 장치, 방법 및 시스템 |
US20170038598A1 (en) * | 2015-03-04 | 2017-02-09 | Jay Song | Adjustable optical stereoscopic glasses |
CN107660276A (zh) | 2015-03-04 | 2018-02-02 | 宋杰 | 可调节光学立体眼镜 |
CN104899870B (zh) | 2015-05-15 | 2017-08-25 | 清华大学深圳研究生院 | 基于光场数据分布的深度估计方法 |
US10078917B1 (en) | 2015-06-26 | 2018-09-18 | Lucasfilm Entertainment Company Ltd. | Augmented reality simulation |
KR20180084749A (ko) * | 2015-09-17 | 2018-07-25 | 루미, 인코퍼레이티드 | 멀티뷰 디스플레이 및 관련 시스템과 방법 |
US10511895B2 (en) | 2015-10-09 | 2019-12-17 | Warner Bros. Entertainment Inc. | Cinematic mastering for virtual reality and augmented reality |
US10330935B2 (en) | 2016-09-22 | 2019-06-25 | Apple Inc. | Predictive, foveated virtual reality system |
US10928638B2 (en) | 2016-10-31 | 2021-02-23 | Dolby Laboratories Licensing Corporation | Eyewear devices with focus tunable lenses |
US10726574B2 (en) | 2017-04-11 | 2020-07-28 | Dolby Laboratories Licensing Corporation | Passive multi-wearable-devices tracking |
US11363250B2 (en) | 2017-04-11 | 2022-06-14 | Dolby Laboratories Licensing Corporation | Augmented 3D entertainment systems |
US11882267B2 (en) | 2017-04-11 | 2024-01-23 | Dolby Laboratories Licensing Corporation | Adapting video images for wearable devices |
GB2566744B (en) * | 2017-09-26 | 2021-03-03 | Sony Interactive Entertainment Inc | Head-mountable display system |
US10893261B2 (en) * | 2017-12-06 | 2021-01-12 | Dolby Laboratories Licensing Corporation | Positional zero latency |
-
2018
- 2018-04-10 KR KR1020197023910A patent/KR102087414B1/ko active IP Right Grant
- 2018-04-10 RU RU2019124450A patent/RU2722495C1/ru active
- 2018-04-10 ES ES18721565T patent/ES2902979T3/es active Active
- 2018-04-10 CN CN202110930851.6A patent/CN113660539B/zh active Active
- 2018-04-10 CN CN201880011840.4A patent/CN111406412B/zh active Active
- 2018-04-10 BR BR122021006807-0A patent/BR122021006807B1/pt active IP Right Grant
- 2018-04-10 RU RU2020117045A patent/RU2743518C2/ru active
- 2018-04-10 JP JP2019544632A patent/JP6654275B1/ja active Active
- 2018-04-10 KR KR1020207027477A patent/KR102279143B1/ko active IP Right Grant
- 2018-04-10 EP EP18721565.2A patent/EP3610654B1/en active Active
- 2018-04-10 EP EP21206636.9A patent/EP3988187B1/en active Active
- 2018-04-10 PL PL18721565T patent/PL3610654T3/pl unknown
- 2018-04-10 US US16/604,118 patent/US10991164B2/en active Active
- 2018-04-10 BR BR112019016820-6A patent/BR112019016820B1/pt active IP Right Grant
- 2018-04-10 WO PCT/US2018/026974 patent/WO2018191312A1/en active Application Filing
- 2018-04-10 KR KR1020207006343A patent/KR102161734B1/ko active IP Right Grant
-
2020
- 2020-01-29 JP JP2020012509A patent/JP6932796B2/ja active Active
-
2021
- 2021-04-26 US US17/240,954 patent/US11361520B2/en active Active
- 2021-08-18 JP JP2021133460A patent/JP7263451B2/ja active Active
-
2022
- 2022-04-28 US US17/731,770 patent/US11893700B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001195601A (ja) | 2000-01-13 | 2001-07-19 | Mixed Reality Systems Laboratory Inc | 複合現実感提示装置及び複合現実感提示方法並びに記憶媒体 |
WO2013146385A1 (ja) | 2012-03-27 | 2013-10-03 | 株式会社ニコン | 表示装置及びプログラム |
JP2016042680A (ja) | 2014-08-19 | 2016-03-31 | セイコーエプソン株式会社 | 頭部装着型表示装置、画像表示システム、頭部装着型表示装置を制御する方法、および、コンピュータープログラム |
JP2018142162A (ja) | 2017-02-28 | 2018-09-13 | コニカミノルタ株式会社 | 画像形成システム |
Non-Patent Citations (1)
Title |
---|
ALJOSCHA SMOLIC et al.,Three-Dimensional Video Postproduction and Processing,Proceedings of the IEEE,2011年04月,Vol.99, No.4,pp.607-625 |
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7263451B2 (ja) | レイヤ化拡張型エンターテインメント体験 | |
US11363240B2 (en) | System and method for augmented reality multi-view telepresence | |
US11711504B2 (en) | Enabling motion parallax with multilayer 360-degree video | |
Fuchs et al. | Immersive 3D telepresence | |
CN108693970B (zh) | 用于调适可穿戴装置的视频图像的方法和设备 | |
US20230179756A1 (en) | Information processing device, information processing method, and program | |
CN113709439B (zh) | 用于渲染视觉对象的方法、装置及系统 | |
TW202046716A (zh) | 表示場景之影像信號 | |
WO2021130406A1 (en) | Method for a telepresence system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210819 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220926 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221004 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221130 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230328 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230412 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7263451 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |