JP7263451B2 - レイヤ化拡張型エンターテインメント体験 - Google Patents

レイヤ化拡張型エンターテインメント体験 Download PDF

Info

Publication number
JP7263451B2
JP7263451B2 JP2021133460A JP2021133460A JP7263451B2 JP 7263451 B2 JP7263451 B2 JP 7263451B2 JP 2021133460 A JP2021133460 A JP 2021133460A JP 2021133460 A JP2021133460 A JP 2021133460A JP 7263451 B2 JP7263451 B2 JP 7263451B2
Authority
JP
Japan
Prior art keywords
image
display
cinema
layer
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021133460A
Other languages
English (en)
Other versions
JP2021184636A (ja
Inventor
ナイナン,アジト
マーメン,ニール
ワイ. ブラウン,タイロム
Original Assignee
ドルビー ラボラトリーズ ライセンシング コーポレイション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ドルビー ラボラトリーズ ライセンシング コーポレイション filed Critical ドルビー ラボラトリーズ ライセンシング コーポレイション
Publication of JP2021184636A publication Critical patent/JP2021184636A/ja
Application granted granted Critical
Publication of JP7263451B2 publication Critical patent/JP7263451B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/26Output arrangements for video game devices having at least one additional display device, e.g. on the game controller or outside a game booth
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/183On-screen display [OSD] information, e.g. subtitles or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8146Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/69Involving elements of the real world in the game world, e.g. measurement in live races, real video

Description

[関連出願の相互参照]
本出願は、2017年4月11日に出願された米国特許仮出願第62/484,121号に基づく優先権の利益を主張し、この米国特許仮出願の開示の全体を本願において援用する。
本発明は、3次元(3D)エンターテインメント体験全般に関し、特に、レイヤ化(layered)拡張型(augmented)3Dエンターテインメント体験に関する。
実世界のシーンにおいて実世界の物体を視認するとき、人間の脳は、遠近調節(accommodation)プロセスを用いて毛様体筋を制御し、2つの眼の瞳孔の背後にある眼水晶体の
それぞれを幾つかの特定の焦点距離(または倍率)に合わせ、実世界の物体への合焦を行う。同時に、人間の脳は、実世界の物体の3D物体としての知覚をサポートするために、両眼転導プロセスを用いて外眼筋を制御し、2つの眼を実世界の物体に向けて同時に輻輳(converge)または開散(diverge)させる。
比較として、3D画像に示された物体を視認するとき、人間の脳は、3D画像に描写された物体がどこに位置するのかによらず、ディスプレイ上に描画された3D画像の明瞭視をサポートするために、遠近調節プロセスを用いて毛様体筋を制御して、鑑賞者の眼の眼水晶体を調整し、ディスプレイ(例えば、シネマディスプレイ等)への合焦を行う。同時に、人間の脳は、描写された物体の3D物体としての知覚をサポートするために、両眼転導プロセスを用いて外眼筋を制御し、眼を3D画像に描写された物体に向けて同時に輻輳または開散させる。
描写された物体が相対的に大きな負の視差(parallax:パララックス)を有し、したがって、ディスプレイの前方において相対的に眼の近くに視覚的に知覚される場合、遠近調節プロセスは、依然として眼をディスプレイ上に調整しようと試みる一方、両眼転導プロセスは、相対的に近い距離にある描写物体に眼を輻輳または開散しようとし、それによって、遠近調節と両眼転導との不整合が引き起こされる。この3D画像視認における遠近調節と両眼転導との不整合は、深刻な生理的不快感/気持ち悪さを誘発する傾向がある。したがって、相対的に大きな負の視差は、特にシネマ3Dエンターテインメント体験にはめったに用いられない。
本節に記載されているアプローチは、探求し得るアプローチではあるが、必ずしもこれまでに着想または探求されてきたアプローチではない。従って、別途示唆のない限り、本節に記載されたアプローチのいずれも、本節に記載されているという理由だけで従来技術としての適格性を有すると考えるべきではない。同様に、別途示唆のない限り、1以上のアプローチに関して特定される問題が、本節に基づいて、いずれかの先行技術において認識されたことがあると考えるべきではない。
添付図面の各図において、本発明を限定することなく例示する。同様の部材には同様の参照符号を付している。
多視点(multi-view:マルチビュー)画像に描写された例示の3D視覚物体を示す図である。 鑑賞者が、ウェアラブルデバイスのシネマディスプレイおよびデバイスディスプレイを用いて、多視点画像に描写された複数の視覚物体を視認する一例示の3D空間を示す図である。 鑑賞者が、ウェアラブルデバイスのシネマディスプレイおよびデバイスディスプレイを用いて、多視点画像に描写された複数の視覚物体を視認する一例示の3D空間を示す図である。 鑑賞者が、ウェアラブルデバイスのシネマディスプレイおよびデバイスディスプレイを用いて、多視点画像に描写された複数の視覚物体を視認する一例示の3D空間を示す図である。 鑑賞者が、ウェアラブルデバイスのシネマディスプレイおよびデバイスディスプレイを用いて、多視点画像に描写された複数の視覚物体を視認する一例示の3D空間を示す図である。 テンソルマップから導出された一例示の3Dピクセル分布を示す図である。 テンソルマップに基づいて生成された非レイヤ化(unlayered)視点画像からの例示のシングルレイヤ画像を示す図である。 画像描画処理において再構築されたテンソルマップを示す図である。 拡張型エンターテインメントシステムの例示の構成を示す図である。 拡張型エンターテインメントシステムの例示の構成を示す図である。 拡張型エンターテインメントシステムの例示の構成を示す図である。 シネマディスプレイが複数の鑑賞者の共有ディスプレイとしての機能を果たす例示の複数鑑賞者環境を示す図である。 シネマディスプレイが複数の鑑賞者の共有ディスプレイとしての機能を果たす例示の複数鑑賞者環境を示す図である。 プロセスフロー例を示す図である。 プロセスフロー例を示す図である。 本明細書において説明されるようなコンピュータまたはコンピューティングデバイスを実施することができる一例示のハードウェアプラットフォームを示す図である。
レイヤ化拡張型3Dエンターテインメント体験に関連する例示的実施形態が、本明細書に記載される。以下の説明においては、便宜上、本発明を完全に理解できるように、多数の詳細事項を説明する。ただし、これらの詳細事項が無くても本発明を実施可能であることは明白であろう。他方、本発明の説明を不必要に煩雑にしたり、不明瞭にしたり、難読化したりしないように、周知の構造およびデバイスの細かな詳細までは説明しない。
例示の実施形態は、本明細書において以下のアウトラインに従って説明される。
1.一般的概要
2.拡張型エンターテインメント体験
3.レイヤ化画像生成
4.テンソルマップ
5.レイヤ化画像エンコーダおよび拡張型エンターテインメントシステム
6.プロセスフロー例
7.実装メカニズム-ハードウェア概要
8.均等物、拡張物、代替物およびその他
1.一般的概要
本概要は、本発明のある例示的実施形態が有するいくつかの側面について、基本的説明を提示する。本概要は、例示的実施形態が有する諸側面についての広範かつ網羅的な要約ではない、ということに留意すべきである。さらに留意すべきは、本概要は、例示的実施形態が有する任意の特に重要な側面または要素を示すものとして理解されるようには意図されておらず、その特定の例示的実施形態あるいは広く本発明の何らの範囲をも策定するものとして理解されるようにも意図されていない。本概要は、例示的実施形態に関するいくつかの概念を凝縮された簡素な形式で提示するに過ぎず、以下に続く例示的実施形態についてのより詳細な説明に対する単なる概念的な前置きとして理解されるべきである。本明細書では別個の実施形態が論じられているが、本明細書で論じられている実施形態の任意の組み合わせおよび/または部分的な実施形態は、組み合わせられてさらなる実施形態を形成し得ることに留意されたい。
本明細書において説明される技法は、3D技術とともに用いられて、拡張型エンターテインメント体験を提供することができる。この拡張型エンターテインメント体験では、鑑賞者が、共有ディスプレイ(shared display)と鑑賞者のウェアラブルデバイスの個々のデバイスディスプレイとの組み合わせを用いて、統合画像空間に3D物体を描写した画像を視認することができる。限定ではなく例として、共有ディスプレイは、Dolby 3D、RealD、直線偏光ベースの3D、円偏光ベースの3D、スペクトル空間分離ベースの3D等のうちの任意のものに関連したディスプレイ等のシネマディスプレイであり得る。ウェアラブルデバイスのデバイスディスプレイは、共有ディスプレイに対して移動可能なディスプレイであってもよく、移動可能なディスプレイは、画像プロジェクター、ARディスプレイ、HoloLensディスプレイ、Magic Leapディスプレイ、複合現実(MR)ディスプレイ、テンソルディスプレイ、ボリュームディスプレイ、ライトフィールド(LF)ディスプレイ、Immyディスプレイ、メタディスプレイ、相対的に単純なARメガネ、遠近調節と両眼転導との不整合を克服する種々の広範な性能のうちの任意のものを有するディスプレイ等に関連したディスプレイ等である。ウェアラブルデバイスおよびデバイスディスプレイの例は、2018年4月4日に出願されたAjit NinanおよびNeil Mammenによる「AUGMENTED 3D ENTERTAINMENT SYSTEMS」という出願名称を有
する米国特許出願第15/945,237号において知ることができる。この米国特許出願の全内容は本願において援用され、本明細書に完全に述べられているのと同等に取り扱われる。
シネマディスプレイ上には、2Dシネマ画像または3Dシネマ画像を表示することができる。シネマ画像を視聴している鑑賞者は、デバイスディスプレイ上に描画されたデバイス画像において追加の3D物体または追加の3D深度(depth:奥行き)情報も同時に見
る(または視覚的に知覚する)ことができる。デバイス画像に描写された追加の3D物体の中には、シネマディスプレイから鑑賞者の前面に飛び出すように見えるものがある。鑑賞者は、これらの3D物体のうちの任意のものを、そのような3D物体が、鑑賞者が位置している3D(物理)空間にあたかも実際に存在するように追うことができる。鑑賞者が3D物体の周囲を移動すると、鑑賞者は、3D物体周りの、直前には遮蔽されていた3D物体の視覚的細部を、現実感の次元または深度が追加/拡張された状態で見ることができる。したがって、デバイス画像およびシネマ画像の組み合わせを通じて、鑑賞者は、鑑賞者の頭部の移動に応じた異なる視差を見ることによって、物体が周囲を浮遊しているという(例えば、心理視覚的、精神物理的等の)感覚を得ることができる。
デバイスディスプレイは、1つ以上の画像平面(one or more image planes)において、鑑賞者の相対的に近くに仮想的または物理的に配置されるように設定することができる。したがって、鑑賞者が、シネマ画像に描写された物体と比較して、鑑賞者の相対的に近くに配置され得るデバイス画像に描写された3D物体を視認しているときであっても、デバイス画像に描写された3D物体は、依然として、デバイス画像が描画されたデバイスデ
ィスプレイ(またはこのデバイスディスプレイに関連した画像平面)に対して正の視差を有する。したがって、他の手法下で起こるであろう遠近調節と両眼転導との不整合は、本明細書において説明される技法の下では、回避または大幅に改善することができる。デバイスディスプレイは、鑑賞者の前方の単一距離の単一画像平面において、または、(例えば、時分割多重化等を通じて)複数の異なる距離の複数の画像平面において、デバイスディスプレイ画像を表示または投影することができる。画像平面のこれらの距離は、固定され得るし、自動調節可能にし得る。鑑賞者から自動調節可能な距離(単数または複数)の画像平面(単数または複数)を有するデバイスディスプレイの例は、2017年10月30日に出願された「EYEWEAR DEVICES WITH FOCUS TUNABLE LENSES」という出願名称を有
する米国特許出願第15/798,274号において知ることができる。この米国特許出願の全内容は本願において援用され、本明細書に完全に述べられているのと同等に取り扱われる。
したがって、本明細書において説明される技法によるウェアラブルデバイスは、シネマ画像およびデバイス画像が同期して描画される、異なる深度の少なくとも2つの画像平面を鑑賞者に提供する。少なくとも2つの画像平面のうちの第1の画像平面は、シネマディスプレイの画像平面に対応する。少なくとも2つの画像平面のうちの1つ以上の第2の画像平面は、デバイスディスプレイの画像平面に対応する。
多視点非レイヤ化画像(例えば、事前にレイヤ化された画像、レイヤ化されていない画像、モノリシック画像、ユニタリー画像等)に描写された視覚物体(visual object)は
、多視点画像に表された3D画像空間内の様々な空間ロケーションにおいて仮想的に配置され得る。本明細書において、多視点非レイヤ化画像とは、レイヤ化画像生成処理が適用されるべき多視点画像を指す。
空間ロケーションに基づいて、多視点非レイヤ化画像に描写された視覚物体は、異なる画像レイヤに分割することができる。各多視点非レイヤ化画像について、画像レイヤのそれぞれは、視覚物体の部分集合を描写するシングルレイヤ画像を含む。
異なる画像レイヤの中で、シネマ画像レイヤは、基準空間ロケーションにおける鑑賞者から相対的に遠くにある多視点非レイヤ化画像における視覚物体(シネマディスプレイの近くまたは背後にあるような)の部分集合を描写する、シングルレイヤ画像を含むことができる。1つ以上のデバイス画像レイヤは、基準空間ロケーションにおける鑑賞者の相対的に近くにある多視点非レイヤ化画像における視覚物体(シネマディスプレイから鑑賞者の前面に飛び出して見えるような)の1つ以上の部分集合を描写するシングルレイヤ画像を含むことができる。
シネマ画像レイヤにおけるシングルレイヤ画像を用いると、シネマディスプレイ上に描画されるシネマディスプレイ画像を得ることができるのに対して、デバイス画像レイヤにおけるシングルレイヤ画像を用いると、ウェアラブルデバイスのデバイスディスプレイを用いて描画されるデバイスディスプレイ画像を得ることができる。3D画像空間は、シネマディスプレイ上に描画されるシネマディスプレイ画像に描写された3D画像空間の部分を用いて、3D物理空間内に固定または投影することができる。デバイスディスプレイ画像に描写された3D画像空間の他の部分は、シネマディスプレイ画像に描写された3D画像空間の部分とシームレスに接合するように、空間的に変換することができる。ウェアラブルデバイスのそれぞれの空間ロケーションおよび/または空間方向に応じて、異なるウェアラブルデバイスには異なる空間変換を適用することによって、異なるウェアラブルデバイスに個別に描写された3D画像空間の他の部分が、シネマディスプレイ画像に描写された3D画像空間の部分とシームレスに接合するようにできる。
単一の画像レンダラまたは複数の画像レンダラを用いて、シネマ画像描画処理およびデバイス画像描画処理を同時に駆動することができる。3D空間(例えば、シネマ、映画シアター等)に存在する複数の鑑賞者は、自身のウェアラブルデバイスをこれらの画像レンダラに登録して、拡張型エンターテインメントセッションを体験することができる。
幾つかの実施形態では、ウェアラブルデバイスを自動的に登録することができる。例えば、3D空間内のウェアラブルデバイスの空間位置および空間方向を追跡/監視するデバイストラッカを3D空間に配備することができる。追加的、選択的、または代替的に、デバイストラッカは、リモートデバイス追跡/監視を通じて、MACアドレス、ネットワークアドレス、IPアドレス等のウェアラブルデバイスのデバイスID情報を取得することができる。ウェアラブルデバイスのデバイスID情報、空間位置および空間方向を用いて、ウェアラブルデバイスを登録することができ、正しいMACアドレス、ネットワークアドレス、IPアドレス等において登録されたウェアラブルデバイスにデバイスディスプレイ画像を配信することができる。デバイス追跡の例は、2018年4月10日に出願されたAjit NinanおよびNeil Mammenによる「PASSIVE MULTI-WEARABLE-DEVICES TRACKING」という出願名称を有する米国特許出願第15/949,536号において知ることができる。この米国特許出願の全内容は本願において援用され、本明細書に完全に述べられているのと同等に取り扱われる。
本明細書において説明される技法によれば、異なる画像レイヤから得られる複数のディスプレイ画像をデバイスディスプレイおよびシネマディスプレイ上に同時に描画することができ、元の多視点非レイヤ化画像(ここから異なる画像レイヤの複数のディスプレイ画像が直接または間接的に得られた)に以前に描写されていたのと同じ空間ロケーションに全ての視覚物体が位置するような、3D画像空間のシームレスな外観を提供または再構築することができる。
多視点非レイヤ化画像は、異なる視点(例えば、視認方向、視野等)に対応する非レイヤ化(単一)視点画像を含むことができる。多視点非レイヤ化画像における各非レイヤ化視点画像に関連した深度情報に基づいて、テンソルマップ(例えば、x、y、z次元/座標/軸の次数3のテンソルマップ等)をレイヤ化画像生成処理において作成し、3D画像空間内の多視点非レイヤ化画像における非レイヤ化視点画像のピクセル分布を生成することができる。テンソルマップから生成されたピクセル分布におけるピクセルは、x、yおよびz次元/座標/軸(例えば、画像フレームの列、画像フレームの行、深度等)において表される。テンソルマップが与えられると、例えば、レイヤ分離面を用いてシングルレイヤ画像を生成することができる。テンソルマップに基づく画像レイヤ生成処理は、多視点非レイヤ化画像における視点画像の各視点画像に適用され、異なる画像レイヤのそのような各視点画像のシングルレイヤ画像を生成することができる。
テンソルマップは、画像描画処理にも用いることができる。例えば、シングルレイヤ画像が、鑑賞者のウェアラブルデバイスを用いて描画されるディスプレイ画像を生成するために用いられるとき、これらのシングルレイヤ画像またはディスプレイ画像を、ウェアラブルデバイスの実際の空間位置および実際の空間方向に基づいて、並進、回転、拡大縮小等によって空間的に変換することができる。
シネマ画像レイヤにおけるシングルレイヤ画像から生成されたシネマディスプレイ画像を深度情報とともに用いて、3D画像空間の一部分に対応するテンソルマップの一部分を作成することができる。1つ以上のデバイス画像レイヤにおけるシングルレイヤ画像から生成されたデバイスディスプレイ画像を深度情報とともに用いて、3D画像空間の他の部分を作成することができる。デバイスディスプレイ画像は、デバイスディスプレイ画像から作成されたテンソルマップの他の部分が、シネマディスプレイ画像から作成された同じ
テンソルマップの上記部分とシームレスに接合するという制約条件の下で、ウェアラブルデバイスごとに、そのウェアラブルデバイスの特定の空間位置および/または特定の空間方向に基づいて個別に生成することができる。したがって、本明細書において説明される技法によれば、シネマディスプレイ画像およびデバイスディスプレイ画像の組み合わせによって描画される3D画像空間は、多視点非レイヤ化画像に当初描写された3D画像空間を正確にまたは忠実に再現する。
本明細書において説明される例示の実施形態は、画像レイヤを生成することに関する。1つ以上の多視点非レイヤ化画像に表される3次元(3D)画像空間内の複数の視覚物体の空間ロケーションを記述した空間情報にアクセスする。1つ以上の多視点非レイヤ化画像のそれぞれは、複数の視認方向に対応する複数の単視点非レイヤ化画像を含む。1つ以上の多視点非レイヤ化画像に表される3D画像空間内の複数の視覚物体の空間ロケーションを記述した空間情報に基づいて、1つ以上の多視点非レイヤ化画像から、複数の視覚物体における1つ以上の視覚物体の第1の真部分集合を描写した1つ以上のシングルレイヤシネマ画像を含むシネマ画像レイヤを生成し、1つ以上の多視点非レイヤ化画像から、1つ以上のデバイス画像レイヤのそれぞれが複数の視覚物体における1つ以上の視覚物体の1つ以上の第2の真部分集合を描写する1つ以上のシングルレイヤデバイス画像を含む、当該1つ以上のデバイス画像レイヤを生成すること等を行う。シネマ画像レイヤにおける1つ以上のシングルレイヤシネマ画像と、1つ以上のデバイス画像レイヤにおける1つ以上のシングルレイヤデバイス画像とを含む多レイヤ多視点ビデオ信号は、描画を行う1つ以上の下流側デバイスに送信される。
本明細書において説明される例示の実施形態は、画像レイヤから生成されたシネマディスプレイ画像およびデバイスディスプレイ画像を描画することに関する。シネマ画像レイヤにおける1つ以上のシングルレイヤシネマ画像と、1つ以上のデバイス画像レイヤにおける1つ以上のシングルレイヤデバイス画像とを含むマルチレイヤ(multi-layer)多視
点ビデオ信号が受信される。シネマ画像レイヤにおけるシングルレイヤシネマ画像と、1つ以上のデバイス画像レイヤにおけるシングルレイヤデバイス画像とは、1つ以上の多視点非レイヤ化画像から事前に得られたものである。1つ以上のシングルレイヤシネマ画像は、多レイヤ多視点ビデオ信号のシネマ画像レイヤから取り出される。1つ以上のシングルレイヤシネマ画像は、1つ以上の多視点非レイヤ化画像によって当初描写された複数の視覚物体における1つ以上の視覚物体の第1の真部分集合を描写する。1つ以上のシングルレイヤデバイス画像は、多レイヤ多視点ビデオ信号の1つ以上のデバイス画像レイヤから取り出される。1つ以上のデバイス画像は、1つ以上の多視点非レイヤ化画像によって当初描写された複数の視覚物体における1つ以上の視覚物体の1つ以上の第2の真部分集合を描写する。1つ以上の第1の多視点シングルレイヤ画像に描写された視覚物体の第1の真部分集合は、3D空間において鑑賞者に対してシネマディスプレイ上に描画される。1つ以上の第2の多視点シングルレイヤ画像に描写された視覚物体の1つ以上の第2の真部分集合は、3D空間において鑑賞者に対してデバイスディスプレイ上に同時に描画される。シネマディスプレイ上に描画された視覚物体の第1の真部分集合と、デバイスディスプレイ上に描画された視覚物体の1つ以上の第2の真部分集合とは、3D画像空間において、1つ以上の多視点非レイヤ化画像によって当初描写されたものと同じ空間ロケーションに位置する複数の視覚物体をひとまとめにして描写する。複数の視覚物体が位置する3D画像空間内の空間ロケーションを記述した空間情報は、1つ以上の多視点非レイヤ化画像によって当初描写された複数の視覚物体をシネマ画像レイヤおよび1つ以上のデバイス画像レイヤに分割するために事前に用いられたものである。
幾つかの例示の実施形態では、本明細書において説明されるメカニズムは、メディア処理システムの一部をなす。このメディア処理システムは、クラウドベースサーバ、モバイルデバイス、仮想現実システム、拡張現実システム、ヘッドアップディスプレイデバイス
、ヘルメットマウントディスプレイデバイス、CAVEタイプシステム、壁サイズディスプレイ、ビデオゲームデバイス、ディスプレイデバイス、メディアプレーヤー、メディアサーバ、メディア制作システム、カメラシステム、ホームベースシステム、通信デバイス、ビデオ処理システム、ビデオコーデックシステム、スタジオシステム、ストリーミングサーバ、クラウドベースコンテンツサービスシステム、ハンドヘルドデバイス、ゲームマシン、テレビ、シネマディスプレイ、ラップトップコンピュータ、ネットブックコンピュータ、タブレットコンピュータ、セルラー無線電話機、電子ブックリーダー、POS(point of sale)端末、デスクトップコンピュータ、コンピュータワークステーション、コ
ンピュータサーバ、コンピュータキオスク、または他の様々な種類の端末およびメディア処理ユニットのうちの任意のものを含むが、これらに限定されるものではない。
本明細書において説明される好適な実施形態並びに一般的な原理および特徴に対する様々な変更形態は、当業者には直ちに明らかであろう。したがって、本開示は、示された実施形態に限定されることを意図しておらず、本明細書において説明される原理および特徴と整合する最も広い範囲を与えられる。
2.拡張型エンターテインメント体験
幾つかの例示の実施形態では、本明細書において説明される技法は、共有ディスプレイ(例えば、シネマディスプレイ等)とウェアラブルデバイスのデバイスディスプレイとを用いて、統合された(例えば、3D、多視点等の)画像コンテンツを提示し、鑑賞者のエンターテインメント体験を拡張/強化するために用いることができる。鑑賞者は、シネマディスプレイ上のシネマ画像コンテンツを視認している間、当該鑑賞者によって用いられるウェアラブルデバイスのデバイスディスプレイを用いて描画されたデバイス画像コンテンツを同時に視認することができる。多視点非レイヤ化画像から得ることができるこれらのシネマ画像コンテンツおよびデバイス画像コンテンツは、同じ多視点非レイヤ化画像に当初描写されていた全ての視覚物体をひとまとめにして提示する。
ウェアラブルデバイスおよびこれに付随するデバイスディスプレイは、シネマディスプレイの付加物、TV等のフラットエンターテインメント画面等を表す。例えば、ウェアラブルデバイスは、鑑賞者によって装着されたARメガネとすることができる。ウェアラブルデバイスは、シネマディスプレイ上の3Dコンテンツを視認するために、左眼および右眼の分離技術を実施することができる。同時に、ウェアラブルデバイス(またはウェアラブルデバイスを有するイメージャー)は、シネマディスプレイ上への2Dシネマ画像コンテンツまたは3Dシネマ画像コンテンツの描画と同期してデバイス画像コンテンツを描画することができる。したがって、ウェアラブルデバイスは、シネマディスプレイ単独によって通常提供することができる次元または深度の範囲に、新たな次元または深度の新たな範囲を追加することができる。
3Dシネマ画像コンテンツがシネマディスプレイ上に描画される場合、ウェアラブルデバイス上に描画されるデバイス画像コンテンツは、3Dデバイス画像コンテンツとすることができる。幾つかの実施形態では、ウェアラブルデバイスによって描画される3Dデバイス画像コンテンツは、鑑賞者とシネマディスプレイとの間の視覚物体に(例えば、ほとんど、実質的に、部分的に等で)合焦することができる。そのような3D画像コンテンツ部分は、シネマディスプレイ上に描画された場合に、負の視差および深度を有する。比較として、本明細書において説明される技法によれば、鑑賞者とシネマディスプレイとの間の3D画像コンテンツ部分を、ウェアラブルデバイスによって正の視差および深度を用いて表示することができる。したがって、シネマディスプレイ上に描画される正の視差の視覚物体と、ウェアラブルデバイスによって描画される同じく正の視差の視覚物体との間の非常に快適な移行を鑑賞者に提供することができる。
2Dシネマ画像コンテンツがシネマディスプレイ上に描画される場合、ARメガネ上に描画されたデバイス画像コンテンツは、2Dシネマ画像コンテンツを補完する3Dデバイス画像コンテンツとすることができる。ウェアラブルデバイスによって描画される3Dデバイス画像コンテンツは、ウェアラブルデバイスの空間位置および/または空間方向に応じて、3Dの細部の適切な遮蔽および/または非遮蔽を伴って、視覚物体を、鑑賞者とシネマディスプレイとの間の3D物体として、および、任意選択で、鑑賞者に対してシネマディスプレイの背後にある3D物体として描写する全体画像コンテンツにおける3D画像コンテンツ部分に(例えば、ほとんど、実質的に、部分的に等で)合焦することができる。これらの3D画像コンテンツ部分のうちの幾つかは、シネマディスプレイ上に描画された場合、負の視差および深度を有する。比較として、本明細書において説明される技法によれば、鑑賞者とシネマディスプレイとの間の全ての3D画像コンテンツ部分と、更にはシネマディスプレイの背後にある3D画像コンテンツ部分とは、ARメガネによって正の視差および深度を用いて表示することができる。したがって、鑑賞者がシネマディスプレイ上に描画される視覚物体と、ウェアラブルデバイスを用いて描画される視覚物体とを追跡するとき、非常に快適でシームレスな移行を鑑賞者に提供することができる。
シネマディスプレイの前面の非常に浅い深度に視覚物体を制限する他の手法、または、相対的に大きな負の視差を有する視覚物体を表示することによって深度の増加を試みる他の手法と異なり、本明細書において説明される技法による手法は、相対的に大きな負の視差を導入することなく、シネマディスプレイの前面に相対的に大きな深度を有する視覚物体を表示するために用いることができる。したがって、本明細書において説明される技法は、遠近調節と両眼転導との不整合を防止または解決する効果的な解決策を提供することができる。
シネマディスプレイのみ(本明細書において説明されるウェアラブルデバイスを有しない)を用いて3D視覚物体を描画するとき、特定の3D視覚物体が、シネマディスプレイの背後からシネマディスプレイの前面に移行する場合がある。この特定の3D視覚物体がシネマディスプレイから過度に遠くにある場合、この特定の3D視覚物体がシネマディスプレイによってサポートされる立体視野角範囲の外部に移動する場合があるので、シネマ画像コンテンツは、この特定の3D視覚物体を描画することができない場合がある。
比較すると、本明細書において説明される技法によれば、ウェアラブルデバイスを用いて特定の3D視覚物体を表示または描画し、シネマディスプレイ単独によって通常サポートすることができる視野角範囲よりもはるかに大きな視野角範囲をサポートすることができる。したがって、鑑賞者は、シネマディスプレイ単独によってサポートされる立体角に制限も制約もされることなく、そのはるかに大きな視野角範囲内で特定の3D視覚物体を視覚的に追跡し続けることができる。
本明細書において説明される技法は、多種多様な共有ディスプレイの中のある共有ディスプレイと、多種多様なウェアラブルデバイスの中のあるウェアラブルデバイスとの任意の組み合わせを用いて実施することができる。単一の共有ディスプレイまたは単一の専用ディスプレイを用いて3D画像を表示する代わりに、複数のディスプレイを同時に用いて、同じ多視点画像コンテンツから生成された複数の画像レイヤを表示することができる。これらの画像レイヤのそれぞれを描画して、正の視差または深度(または許容可能な負の視差量以下)の視覚物体を描写することができる。ウェアラブルデバイスの例としては、画像プロジェクター、ARディスプレイ、HoloLensディスプレイ、Magic Leapディスプレイ、複合現実(MR)ディスプレイ、テンソルディスプレイ、ボリュームディスプレイ、ライトフィールド(LF)ディスプレイ、Immyディスプレイ、メタディスプレイ、相対的に単純なARメガネ、遠近調節と両眼転導との不整合を克服する広範囲の能力のうちの任意のものを有するディスプレイ等の幾つかまたは全てを含むが、
必ずしもこれらのみに限定されるものではない。
ウェアラブルデバイスは、相対的に近い距離または遠近調節点の単一の画像平面(例えば、バーチャルディスプレイ、リアルディスプレイ、LFディスプレイ等)に投影、合焦する相対的に単純なARシステムとすることができる。鑑賞者には、ウェアラブルデバイスを用いて負の視差を回避する選択肢、および/または、シネマディスプレイによってサポートされる深度範囲においてシネマディスプレイを用いて提示された2D画像コンテンツもしくは3D画像コンテンツまたは視覚物体に加えて、追加の3D画像コンテンツもしくは視覚物体を同期して視認する選択肢を与えることができる。したがって、差別化された視認体験を鑑賞者に提供することができ、複数の深度を有する複数のディスプレイ上に描画された複数の画像レイヤを、広範囲の深度の単一ディスプレイ上に描画された全体的な画像コンテンツとして実際に思わせるように見せかけることができる。本明細書において説明される拡張型エンターテインメント体験は、相対的に大きな負の視差を有する視認体験よりも生理的に快適であり、相対的に大きな負の視差を有する視認体験によって表された精神的受容閾値よりも低い精神的受容閾値を表すので、人間の脳は、これらの知覚を容易に受け付けることができる(またはこれらの知覚に容易に適応することができる)。
3.レイヤ化画像生成
図1Aは、多視点非レイヤ化画像に描写された3D視覚物体(例えば、118、120等)の例を示している。多視点非レイヤ化画像は、複数の異なる視点(例えば、視認方向、視野等)に対応する複数の非レイヤ化(単一)視点画像を含むことができる。多視点非レイヤ化画像の複数の非レイヤ化視点画像中の各非レイヤ化視点画像は、複数の異なる視点の中のそれぞれの視点に対応することができる。例えば、多視点非レイヤ化画像は、左視点に対応する第1の非レイヤ化視点画像(例えば、鑑賞者の左眼等に対して描画される)と、右視点に対応する第2の非レイヤ化視点画像(例えば、鑑賞者の右眼等に対して描画される)とを含むことができる。
幾つかの実施形態では、多視点非レイヤ化画像は、3D画像空間196に複数の(3D)視覚物体を描写する。簡略化するために、図1Aに示すように、3D画像空間196には、2つの(3D)視覚物体120および118しか存在しない。しかしながら、本明細書において説明される多視点非レイヤ化画像は、任意の数の(3D)視覚物体を描写することができることに留意されたい。視覚物体の例としては、人間、アバター、コンピュータ生成図、動物、植物、山岳、河川、天空、家屋、公園、橋梁、飛行機、車両、船舶、または人間視覚系に描画することができるとともに人間視覚系によって知覚することができる他の視覚物体等を含むことができるが、必ずしもこれらに限定されるものではない。
多視点非レイヤ化画像は、物理的または仮想3Dシーンから、この3Dシーンに物理的または仮想的に存在し得る多種多様なキャプチャーデバイスの任意の組み合わせによって取得/撮像/合成することができる。幾つかの実施形態では、視覚物体モデルを用いて、多視点非レイヤ化画像における幾つかまたは全ての画像部分を描画または生成することができる。キャプチャーデバイスの例としては、スタジオカメラ、多視点カメラ、ライトフィールドカメラ、マイクロレンズ素子を備えるカメラ、HDRカメラ、モバイルフォンカメラ、コンピューティングデバイスと一体化されたカメラ、コンピューティングデバイスと連動動作するカメラ、非プロフェッショナルカメラ、プロフェッショナルカメラ、仮想カメラ、コンピュータ画像ジェネレータ、コンピュータ画像レンダラ、コンピュータグラフィックスジェネレータ、コンピュータアニメーター、仮想画像ジェネレータ等を含むが、これらに限定されるものではない。多視点非レイヤ化画像が得られる3Dシーンは、全面的に物理3Dシーンの場合もあるし、全面的に仮想3Dシーンの場合もあるし、1つ以上の物理3Dシーンおよび/または1つ以上の仮想3Dシーンの組み合わせの場合もあることに留意されたい。
3D画像空間196は、多視点非レイヤ化画像が取得/撮像/構成される3Dシーンの一部分を表すことができる。3D画像空間196の例は、3Dシーン全体、3Dシーンの1つ以上の顕著な部分、3Dシーンの1つ以上の細部、相対的に大きな部分、相対的に小さな部分等のうちの1つを含むことができるが、必ずしもこれのみに限定されるものではない。
図1Bは、鑑賞者が、シネマディスプレイ104、当該鑑賞者によって用いられるウェアラブルデバイスのデバイスディスプレイ116等の(画像)ディスプレイを用いて描画された画像を通じて、3D画像空間196内の複数の視覚物体を視認するために位置している一例示の3D空間126を示している。
3D空間126の例は、基準3D空間、物理空間、シネマ、シアター、コンサートホール、公会堂、遊園地、バー、自宅、部屋、展示場、会場、酒場、船舶、飛行機等のうちの任意のものを含むことができるが、必ずしもこれのみに限定されるものではない。3D空間126は、当該3D空間126に対して静止した3次元空間座標系(例えば、基準座標系、世界座標系等)内に表すことができる3次元ボリューム空間位置とすることができる。
限定ではなく例示として、3D空間126内の空間位置を表すために用いられる静止3次元空間座標系は、3D空間126の左下コーナーに描写された基準デカルト座標系とすることができる。この基準デカルト座標系は、図1Bに示すように、「p」として示された基準空間位置に座標系原点を含むことができる。基準空間位置「p」は、3D空間126に対して静止した任意の空間位置から選択することができる。
多視点非レイヤ化画像に描写された3D画像空間196は、ディスプレイが多視点非レイヤ化画像に複数の視覚物体を描画する(正:render)ために用いられる3D空間126のサイズと同じサイズ(または同一の広がり)を有する場合もあるし、有しない場合もある。特定の画像コンテンツ(例えば、広大な風景、小さな部屋等)または多視点非レイヤ化画像に関連したディスプレイアプリケーションに応じて、描画された3D画像空間196は、鑑賞者112-0およびディスプレイ(例えば、104、116等)が位置する3D空間126よりも大きい(例えば、はるかに大きい)場合もあるし、小さい(例えば、はるかに小さい)場合もある。
本明細書において説明される技法に従って複数の視覚物体を描画することによって、鑑賞者112-0が位置する3D空間126が3D画像空間196にあたかも合体、融合もしくは投影されているように、または、視覚物体(例えば、118、120等)が3D空間126内にまたはその一部としてあたかも存在する実際の3D物体であるように、鑑賞者112-0は、3D画像空間196に存在するというユーザー体験を有することが可能になる。
幾つかの実施形態では、本明細書において説明される技法の幾つかまたは全てを実施する拡張型エンターテインメントシステムが、多視点非レイヤ化画像から、レイヤ化画像エンコーダ(例えば、図2Aの180等)等の上流側デバイスによって事前に生成された複数の画像レイヤにおけるシングルレイヤ画像を取得し、これらの受け取ったシングルレイヤ画像からシネマディスプレイ画像およびデバイスディスプレイ画像を生成し、多視点非レイヤ化画像(またはその中の単視点(single-view)非レイヤ化画像)を3D空間12
6における単一ディスプレイ上に直接描画するのではなく、鑑賞者によって用いられるウェアラブルデバイスのデバイスディスプレイを含む3D空間126における複数のディスプレイ(例えば、104、116等)上にシネマディスプレイ画像およびデバイスディス
プレイ画像を描画する。
幾つかの実施形態では、上流側デバイスまたはレイヤ化画像エンコーダ(図2Aの180)は、多視点非レイヤ化画像に描写された3D画像空間196内の複数の視覚物体中の各視覚物体の空間ロケーションを記述した空間情報にアクセスする。空間情報の例は、深度画像、ディスパリティ(disparity:視差)情報、エピポーラ情報、3Dメッシュ等の
うちの1つ以上を含むことができるが、必ずしもこれらのみに限定されるものではない。
1つ以上の多視点非レイヤ化画像に表された3D画像空間196内の複数の視覚物体の空間ロケーションを記述した空間情報に基づいて、レイヤ化画像エンコーダ(図2Aの180)は、多視点非レイヤ化画像から複数の画像レイヤを生成する。
複数の画像レイヤにおける各画像レイヤは、多視点非レイヤ化画像に(例えば、当初、事前等に)描写された複数の視覚物体における1つ以上の視覚物体の真部分集合を描写した1つ以上の多視点シングルレイヤ画像を含む。
様々な選択的要因、空間関係閾値、空間関係基準等の任意の組み合わせを用いて、複数の画像レイヤにおける特定の画像レイヤに含まれる多視点非レイヤ化画像に描写される複数の視覚物体の中から視覚物体を選択することができる。選択的要因、空間関係閾値、空間関係基準等の例としては、3D空間126内のディスプレイの空間ロケーション;3D空間126内の鑑賞者112-0の空間ロケーション;ディスプレイまたは鑑賞者112-0の空間ロケーションに対する視覚物体の空間位置;鑑賞者112-0に対する3D空間126内の視覚物体の空間方向;視覚物体の相対的な芸術的重要性;視覚物体の視覚的性質(例えば、明度、色等);視覚物体の運動特性(例えば、移動物体、静止物体、背景等);視覚物体の過去の空間ロケーション;視覚物体の過去の空間方向等のうちの1つ以上を含むが、必ずしもこれらのみに限定されるものではない。
限定ではなく例として、複数の画像レイヤは、多視点非レイヤ化画像から、この多視点非レイヤ化画像に描写された視覚物体の深度に基づいて生成することができる。図1Bに示すように、多視点非レイヤ化画像の3D画像空間196は、3D空間126に静止した空間位置192(例えば、基準空間位置等)に位置する鑑賞者112-0(例えば、基準鑑賞者、実際の鑑賞者等)に対して3D空間126内に投影することができまたは重ね合わせることができる。多視点非レイヤ化画像に描写された複数の視覚物体における視覚物体の深度は、鑑賞者112-0の基準空間位置192に対して鑑賞者112-0の基準空間方向に沿って測定することができる。鑑賞者112-0のこの基準空間方向は、鑑賞者112-0によって用いられるウェアラブルデバイスの前方視認方向として求めることができる。この前方視認方向は、鑑賞者112-0の基準空間位置192から開始してシネマディスプレイ104に向かい、シネマディスプレイ104に垂直に交差する。
シネマディスプレイ104は、例えば、単一の鑑賞者または複数の鑑賞者によって視認される静止ディスプレイとして3D空間126に配備することができる。デバイスディスプレイ116は、鑑賞者112-0を含む鑑賞者によって用いられる個々のウェアラブルデバイスの個々のディスプレイの中の特定のディスプレイとすることができ、3D空間126において必ずしも静止したものとは限らない場合がある。
本明細書において説明される技法によれば、鑑賞者112-0によって用いられるウェアラブルデバイスのデバイスディスプレイ116と、鑑賞者の間で共有されるシネマディスプレイ104との双方が、多視点非レイヤ化画像から生成された複数の画像レイヤにおけるシングルレイヤ画像を鑑賞者112-0に対して描画するために用いられる。
図1Bに示すように、レイヤ化画像エンコーダは、レイヤ分離面194を用いて、レイヤ分離面194にあるかまたは鑑賞者112-0に対してその背後にある視覚物体(例えば、118等)の第1の真部分集合をシネマ画像レイヤに分割することができる。このシネマ画像レイヤは、視覚物体(例えば、118等)の第1の真部分集合を描写する多視点非レイヤ化画像の複数の非レイヤ化視点画像に、画像部分から生成された複数の第1の多視点シングルレイヤ画像を含む。
さらに、レイヤ化画像エンコーダは、レイヤ分離面194を用いて、鑑賞者112-0に対してレイヤ分離面194の前方にある視覚物体(例えば、120等)の1つ以上の第2の真部分集合を1つ以上のデバイス画像レイヤに分割することができる。視覚物体(例えば、120等)の1つ以上の第2の真部分集合における各第2の真部分集合は、1つ以上のデバイス画像レイヤにおけるそれぞれのデバイス画像レイヤに対応する。それぞれの画像レイヤは、視覚物体(例えば、118等)のそのような各第2の真部分集合を描写する多視点非レイヤ化画像の複数の非レイヤ化視点画像におけるそれぞれの画像部分から生成されたそれぞれの複数の第2の多視点シングルレイヤ画像を含む。したがって、1つ以上のデバイス画像レイヤは、視覚物体(例えば、118等)の1つ以上の第2の真部分集合を描写する多視点非レイヤ化画像の複数の非レイヤ化視点画像における画像部分から生成された1つ以上の複数の第2の多視点シングルレイヤ画像を含む。
図1Bに示すような194等の1つのレイヤ分離面に加えて、幾つかの実施形態では、0個以上の追加のレイヤ分離面を用いて、1つ以上のデバイス画像レイヤを互いに分割することができる。例えば、視覚物体の複数の第2の真部分集合が存在する場合に、追加のレイヤ分離面を用いて、視覚物体(例えば、120等)の1つ以上の第2の真部分集合の中で、ある部分集合を別の部分集合と分離または区別することができる。幾つかの実施形態では、視覚物体(例えば、3D物体等)は、2つ以上の画像レイヤにまたがってもよい。例えば、車両等の視覚物体は、第1のデバイス画像レイヤには、この車両の前部等の視覚物体の一部分を有するとともに、1つ以上の第2のデバイス画像レイヤには、この車両の後部等の視覚物体の他の部分を有する場合がある。追加的、選択的、または代替的に、本明細書において説明される視覚物体は、シネマ画像レイヤと、デバイス画像レイヤのうちの1つ以上とにまたがってもよい。
図1Cに示すように、鑑賞者112-0によって用いられるウェアラブルデバイスは、鑑賞者112-0の基準空間位置192からの1つ以上のデバイスディスプレイ116-1、116-2等(または種々の画像平面深度を有する単一のデバイスディスプレイ)を備えることができる。レイヤ分離面194によって分割されたシネマ画像レイヤにおけるシングルレイヤ画像を用いて、シネマディスプレイ104に描画/表示されるシネマディスプレイ画像を生成することができる。レイヤ分離面194-1によって更に分割された1つ以上のデバイス画像レイヤのうちの1つにおけるシングルレイヤ画像を用いて、デバイスディスプレイ116-1に描画/表示されるデバイスディスプレイ画像を生成することができる。1つ以上のデバイス画像レイヤの残りにあるシングルレイヤ画像を用いて、デバイスディスプレイ116-2に描画/表示される追加のディスプレイ画像を生成することができる。種々の画像平面深度に描画/表示されるディスプレイ画像は、同時に描画することもできるし、時分割多重化を用いて、単一の画像リフレッシュ時間または単一の画像フレーム間隔で時間的に連続して描画することもできる。
本明細書において説明されるレイヤ分離面の例は、平面、曲面、規則形状、不規則形状等のうちの任意のものを含むことができるが、必ずしもこれらのみに限定されるものではない。
幾つかの実施形態では、レイヤ分離面194の空間位置は、シネマディスプレイ104
に対して設定される。一例では、レイヤ分離面194は、シネマディスプレイ104と一致することができる。別の例では、レイヤ分離面194は、(図1Bに示すように)シネマディスプレイ104の背後の特定の距離に設定することもできるし、(図1Dに示すように)シネマディスプレイ104の前方の特定の距離に設定することもできる。レイヤ分離面194からシネマディスプレイ104までの特定の距離は、相対的に小さな距離、相対的に大きな距離、ゼロの距離、1メートル離れた距離、5メートル離れた距離、シネマディスプレイ104と鑑賞者112-0の空間位置192との間の深度または距離の一部等のうちの1つとすることができるが、これらに限定されるものではない。したがって、レイヤ分離面194からシネマディスプレイ104までの特定の距離は、多視点非レイヤ化画像に描写された複数の視覚物体における視覚物体を異なる画像レイヤに分離するために用いられる距離閾値(または相対深度閾値)を表すことができる。
幾つかの実施形態では、レイヤ分離面194の空間位置は、(基準)空間位置192における鑑賞者112-0に対して設定される。例えば、レイヤ分離面194は、鑑賞者112-0から特定の距離に設定することができる。レイヤ分離面194から鑑賞者112-0までの特定の距離は、相対的に小さな距離、相対的に大きな距離、5メートル離れた距離、20メートル離れた距離、50メートル離れた距離等のうちの1つとすることができるが、これらに限定されるものではない。したがって、レイヤ分離面194から鑑賞者112-0までの特定の距離は、多視点非レイヤ化画像に描写された複数の視覚物体における視覚物体を異なる画像レイヤに分離するために用いられる距離閾値(または相対深度閾値)を表すことができる。
幾つかの実施形態では、レイヤ分離面194の空間位置は、(基準)空間位置192における鑑賞者112-0およびシネマディスプレイ104の空間ロケーション以外の別の空間ロケーションに対して設定される。例えば、レイヤ分離面194は、基準座標系の原点「p」から特定の距離に設定することができる。レイヤ分離面194から原点「p」までの特定の距離は、相対的に小さな距離、相対的に大きな距離、ゼロの距離、1メートル離れた距離、5メートル離れた距離、20メートル離れた距離、50メートル離れた距離等のうちの1つとすることができるが、これらに限定されるものではない。したがって、レイヤ分離面194から原点「p」までの特定の距離は、多視点非レイヤ化画像に描写された複数の視覚物体における視覚物体を異なる画像レイヤに分離するために用いられる距離閾値(または相対深度閾値)を表すことができる。
幾つかの実施形態では、図1Eに示すように、レイヤ化画像エンコーダは、レイヤ分離面(例えば、図1Bまたは図1Cの194等)を用いることなく、3D空間126に物理的または仮想的に存在する実体に対する空間関係に基づいて、多視点非レイヤ化画像における複数の視覚物体を画像レイヤに分割することができる。
例えば、複数の視覚物体(例えば、118、120等)は、これらの視覚物体が、それぞれ、図1Bに示すようなシネマディスプレイ104、(基準)空間ロケーション192における鑑賞者112-0、基準座標系の原点「p」等のうちの1つ以上に関連した幾つかの特定の空間関係閾値(または基準)を満たすか否かに基づいて分割することができる。
シネマディスプレイ104に対する特定の空間関係閾値(または基準)を満たす視覚物体(例えば、118等)の第1の真部分集合は、シネマ画像レイヤに分割することができる。シネマディスプレイ104に対する特定の空間関係閾値(または基準)を満たさない視覚物体(例えば、120等)の1つ以上の第2の真部分集合は、1つ以上のデバイス画像レイヤに分割される。シネマディスプレイ104に対する特定の空間関係閾値(または基準)は、1つ以上のデバイス画像レイヤを互いに分割するために用いることができる更
なる空間関係閾値(または基準)を含むことができる。例えば、これらの更なる空間関係閾値(または基準)は、視覚物体(例えば、120等)の1つ以上の第2の真部分集合の中で、ある部分集合を別の部分集合と分離または区別するために用いることができる。
幾つかの実施形態では、空間関係閾値は、特定の深度閾値(例えば、1メートル以下、2メートル以下、シネマディスプレイ104の空間寸法に対する相対値として設定された空間寸法値以下等)を含むことができる。深度閾値は、シネマディスプレイ104から特定の深度の背後にある全ての視覚物体がシネマ画像レイヤに分割されることを指定する。深度閾値は、シネマディスプレイ104から特定の深度の前方にある他の全ての視覚物体が1つ以上のデバイス画像レイヤに分割されることを指定する。深度閾値は、シネマディスプレイ104までの特定の距離の正の値、0、または負の値によって表すことができる。
追加的、選択的、または代替的に、多視点非レイヤ化画像に描写された複数の視覚物体を異なる画像レイヤに選択または分割するために、空間視差閾値、空間ディスパリティ閾値等の異なる空間閾値を、深度閾値の代わりにまたはこれに加えて用いることができる。
例えば、シネマディスプレイ104は、画像描画処理においてゼロ視差平面/表面を表すことができる。シネマディスプレイ104の背後にあるシネマディスプレイ104上に描画されたシングルレイヤ画像とともに描写されるいずれの視覚物体も正の視差を有するのに対して、シネマディスプレイ104の前方にあるシネマディスプレイ104上に描画されたシングルレイヤ画像とともに描写されるいずれの視覚物体も負の視差を有する。
幾つかの実施形態では、空間関係閾値は、特定の視差閾値を含むことができる。この視差閾値は、シネマディスプレイ104によって表されるゼロ視差平面/表面に対して特定の視差以上の全ての視覚物体がシネマ画像レイヤに分割されることを指定する。この視差閾値は、シネマディスプレイ104によって表されるゼロ視差平面/表面に対して特定の視差未満の全ての視覚物体が1つ以上のデバイス画像レイヤに分割されることを指定する。視差閾値は、特定の視差の正の値、0、または負の値によって表すことができる。
追加的、選択的、または代替的に、シネマディスプレイ104は、画像描画処理においてゼロディスパリティ平面/表面を表すことができる。シネマディスプレイ104の背後にあるシネマディスプレイ104上に描画されたシングルレイヤ画像とともに描写されるいずれの視覚物体も正のディスパリティを有するのに対して、シネマディスプレイ104の前方にあるシネマディスプレイ104上に描画されたシングルレイヤ画像とともに描写されるいずれの視覚物体も負のディスパリティを有する。
幾つかの実施形態では、空間関係閾値は、特定のディスパリティ閾値を含むことができる。このディスパリティ閾値は、シネマディスプレイ104によって表されるゼロディスパリティ平面/表面に対して特定のディスパリティ以上の全ての視覚物体がシネマ画像レイヤに分割されることを指定する。このディスパリティ閾値は、シネマディスプレイ104によって表されるゼロディスパリティ平面/表面に対して特定のディスパリティ未満の全ての視覚物体が1つ以上のデバイス画像レイヤに分割されることを指定する。ディスパリティ閾値は、特定のディスパリティの正の値、0、または負の値によって表すことができる。
幾つかの実施形態では、多視点非レイヤ化画像は、時系列の多視点非レイヤ化画像を構成する複数の多視点非レイヤ化画像における特定の多視点非レイヤ化画像とすることができる。これらの時系列の多視点非レイヤ化画像は、メディアプログラム、放送番組、映画、VRセッション、ARセッション、リモートプレゼンスセッション、コンピュータゲー
ム等を表すことができる。
幾つかの実施形態では、視覚物体の過去および/または未来の空間ロケーション、視覚物体の過去および/または未来の空間方向、視覚物体の過去および/または未来の運動特性、特定の画像レイヤへの視覚物体の過去および/または未来のメンバーシップ等の幾つかまたは全てを用いて、これらの視覚物体のうちのいずれかが複数の画像レイヤにおける特定の画像レイヤに分割されるべきか否かを判断することができる。
例えば、視覚物体は、ある画像レイヤに存在すると事前に決定しておくことができ、その後、異なる画像レイヤに対応する空間ロケーション、空間方向等に移動することができる。視覚物体が異なる画像レイヤ間を相対的に短い期間に過度に高速または過度に頻繁に躍動するようなスラッシングを削減するために、遅延効果/メカニズム、減衰因子、平滑フィルター、雑音処理等のうちの1つ以上をレイヤ化画像エンコーダによって実施し、視覚物体が、現在の画像レイヤ、新たな画像レイヤ等に直ちに分割されまたは割り当てられるのではなく、以前の画像レイヤ、現在の画像レイヤ等の特定の画像レイヤに留まることを可能にすることができ、または、視覚物体をその特定の画像レイヤに割り当てることができる。これらの遅延効果/メカニズム、減衰因子、平滑フィルター、雑音処理等のうちの任意のものが、視覚物体の過去および/または未来の空間ロケーション、視覚物体の過去および/または未来の空間方向、視覚物体の過去および/または未来の運動特性、特定の画像レイヤへの視覚物体の過去および/または未来のメンバーシップ/割り当て等の幾つかまたは全てに応じて動作することができる。
追加的、選択的、または代替的に、視覚物体の相対的な芸術的重要性、視覚物体の視覚的性質(例えば、明度、色等)、視覚物体の運動特性(例えば、移動物体、静止物体、背景等)等も、上述したような上記選択因子、上記空間関係閾値、上記空間関係基準等の代わりにまたはこれらに加えて、選択因子、空間関係閾値、空間関係基準等として用いることができる。
幾つかの実施形態では、レイヤ化画像エンコーダは、それぞれのシングルレイヤ画像を有する複数の画像レイヤを多レイヤ多視点画像に符号化することができる。多レイヤ多視点画像は、他の多視点非レイヤ化画像から生成された他の多レイヤ多視点画像とともに、1つ以上の下流側デバイスに直接または間接的に送信される多レイヤ多視点ビデオ信号に符号化することができる。下流側デバイスの例としては、多視点画像を多レイヤ表現で描画する拡張型エンターテインメントシステム、多レイヤ表現の多視点画像を記憶する記憶デバイス、多レイヤ表現の多視点画像をストリーミングするメディアストリーミングサーバ等のうちの任意のものを含むことができるが、必ずしもこれらのみに限定されるものではない。
4.テンソルマップ
上記のように、多視点非レイヤ化画像は、複数の異なる視点(例えば、視認方向、視野等)に対応する複数の非レイヤ化(単一)視点画像を含むことができる。幾つかの実施形態では、多視点非レイヤ化画像における各非レイヤ化視点画像の深度情報に基づいて、テンソルマップ(例えば、x、y、z次元/座標/軸等の次数3のテンソルマップ)を作成して、3D画像空間内の多視点非レイヤ化画像における非レイヤ化視点画像のピクセル分布を生成することができる。テンソルマップから生成されたピクセル分布におけるピクセルは、xおよびy次元/座標/軸(例えば、画像フレームの列、画像フレームの行等)だけでなく、z次元/座標/軸(例えば、深度等)においても表される。
図1Fは、テンソルマップから導出された多視点非レイヤ化画像における非レイヤ化視点画像の一例示の3Dピクセル分布188を示している。図1Gは、3Dピクセル分布1
88に基づいて非レイヤ化視点画像から生成された例示のシングルレイヤ画像176-1~176-3を示している。
テンソルマップは、(a)非レイヤ化視点画像に表されたxおよびy次元/座標/軸における2Dピクセル分布と、(b)分布における各ピクセルのz次元/軸を示す(例えば、正確、近似的等に示す)深度情報とに基づいて、多視点非レイヤ画像に描写される3D画像空間(例えば、196等)内に作成することができる。テンソルマップに基づくと、非レイヤ化視点画像における2Dピクセル分布は、次に、3D画像空間196における3Dピクセル分布188として表すことができる。
多視点非レイヤ化画像の3Dピクセル分布188を用いると、例えば、レイヤ分離面とともにシングルレイヤ画像を生成することができる。限定ではなく例として、2つのレイヤ分離面194-2および194-3を3D画像空間196に配置して、3Dピクセル分布188のピクセルを3つの異なる画像レイヤにおける3つのシングルレイヤ画像176-1~176-3に分離することができる。
図1Gに示すように、深度方向またはz方向(鑑賞者の前方視認方向)に沿った基準空間位置192における鑑賞者から第1のレイヤ分離面194-2への深度を有する全てのピクセルを含むことができる3Dピクセル分布188の第1の3Dピクセル分布188-1は、基準空間ロケーション192における鑑賞者からの第1の深度(例えば、ウェアラブルデバイスのデバイスディスプレイによってサポートされる画像平面に対応する深度等)におけるウェアラブルデバイスのデバイスディスプレイを用いて描画される第1のシングルレイヤ画像176-1に投影される。第1の3Dピクセル分布188-1における3Dピクセルは、当該第1の3Dピクセル分布188-1における3Dピクセルのxおよびy次元/座標/軸に基づいて、第1のシングルレイヤ画像176-1の2Dピクセル(例えば、178-1、178-2等)上に投影することができる。
深度方向またはz方向に沿った第1のレイヤ分離面194-2から第2のレイヤ分離面194-3への深度を有する全てのピクセルを含むことができる3Dピクセル分布188の第2の3Dピクセル分布188-2は、基準空間ロケーション192における鑑賞者からの第2の深度(例えば、第1のレイヤ分離面194-2に対応する深度)におけるウェアラブルデバイスのデバイスディスプレイを用いて描画される第2のシングルレイヤ画像176-2に投影される。第2の3Dピクセル分布188-2における3Dピクセルは、当該第2の3Dピクセル分布188-2における3Dピクセルのxおよびy次元/座標/軸に基づいて、第2のシングルレイヤ画像176-2の2Dピクセル(例えば、178-3、178-4等)上に投影することができる。
深度方向またはz方向に沿った第2のレイヤ分離面194-3の後方の深度を有する全てのピクセルを含むことができる3Dピクセル分布188の第3の3Dピクセル分布188-3は、基準空間ロケーション192における鑑賞者からの第3の深度(例えば、シネマディスプレイに対応する深度)におけるシネマディスプレイを用いて描画される第3のシングルレイヤ画像176-3に投影される。第3の3Dピクセル分布188-3における3Dピクセルは、当該第3の3Dピクセル分布188-3における3Dピクセルのxおよびy次元/座標/軸に基づいて、第3のシングルレイヤ画像176-3の2Dピクセル(例えば、178-5、178-6等)上に投影することができる。
テンソルマップに基づく画像レイヤ生成技法は、多視点非レイヤ化画像における複数の視点画像の各視点画像に適用されて、そのような視点画像ごとにシングルレイヤ画像をそれぞれ生成することができる。したがって、複数の画像レイヤにおけるシングルレイヤ画像は、これらの画像レイヤ生成技法を用いて、多視点非レイヤ化画像から生成することが
できる。
シングルレイヤ画像は、鑑賞者のウェアラブルデバイスを用いて描画を行う拡張型エンターテインメントシステム内の画像レンダラに提供されると、ウェアラブルデバイスの実際の空間位置および実際の空間方向に基づいて、並進、回転、拡大縮小等によって空間的に変換することができる。例えば、第1のシングルレイヤ画像176-1(またはシネマ画像レイヤ)は、シネマディスプレイ上に描画することができるのに対して、第2のシングルレイヤ画像176-2および第3のシングルレイヤ画像176-3(またはデバイス画像レイヤ)は、ウェアラブルディスプレイのデバイスディスプレイを用いて描画することができる。
相対的に遠方の鑑賞者には、第1のシングルレイヤ画像176-1が、この相対的に遠方の鑑賞者とシネマディスプレイとの間の距離に反比例する相対的に小さな画像として見える。したがって、第2のシングルレイヤ画像および第3のシングルレイヤ画像を、相対的に遠方の鑑賞者によって視認されている第1のシングルレイヤ画像176-1のサイズまたは縦横比と一致するように比例して拡大することができる。さらに、相対的に遠方の鑑賞者は、基準空間ロケーション(例えば、192等)における鑑賞者から更に後方に位置している場合があるので、第2のシングルレイヤ画像および第3のシングルレイヤ画像またはそれらの画像における視覚物体は、相対的に遠方の鑑賞者と基準空間ロケーション192における鑑賞者との間の距離に少なくとも部分的に基づいて空間的に並進させることができる。相対的に遠方の鑑賞者のウェアラブルデバイスの空間方向が、画像レイヤおよびシングルレイヤ画像を生成するために用いられる基準空間ロケーション192における鑑賞者の前方視認方向と一致しない場合、第2のシングルレイヤ画像および第3のシングルレイヤ画像またはそれらの画像における視覚物体は、相対的に遠方の鑑賞者のウェアラブルデバイスの空間方向と基準空間ロケーション192における鑑賞者の前方視認方向との間の角度または角距離に少なくとも部分的に基づいて空間的に回転させることができる。同様に、相対的に近い鑑賞者についても、この相対的に近い鑑賞者の空間位置および/または空間方向に基づいて、並進、回転、拡大縮小等の空間変換をシングルレイヤ画像に同様に適用することができる。
幾つかの実施形態では、テンソルマップは、図1Hに示すように、画像描画処理においても用いることができる。例えば、シネマ画像レイヤにおけるシングルレイヤ画像から生成されてシネマディスプレイ104上に描画されるシネマディスプレイ画像を用いて、基準空間ロケーション192と同じ場合もあるし異なる場合もある空間ロケーションに鑑賞者が位置する、3D物理空間126における3D画像空間196の一部分に対応するテンソルマップ(またはピクセル分布)の一部分を再現することができる。1つ以上のデバイス画像レイヤにおけるシングルレイヤ画像から生成されて1つ以上の画像平面(例えば、116、116-1等)においてデバイスディスプレイを用いて描画されるデバイスディスプレイ画像を用いて、3D物理空間126における3D画像空間196の残りの部分に対応するテンソルマップ(またはピクセル分布)の他の部分を再現することができる。デバイスディスプレイ画像は、デバイスディスプレイ画像から再現されたテンソルマップ(またはピクセル分布)の他の部分が、シネマディスプレイ画像から再現された同じテンソルマップ(またはピクセル分布)の部分とシームレスに接合するという制約条件の下で、ウェアラブルデバイスの特定の空間位置および/または特定の空間方向に応じた空間変換(例えば、並進、回転、拡大縮小等)に基づいて、ウェアラブルデバイスについて個別に生成することができる。加えて、任意選択で、補間、鮮明化、ぼかし、非遮蔽等の画像処理演算の幾つかまたは全てを、本明細書において説明される技法による画像描画処理において実行することができる。したがって、シネマディスプレイ画像およびデバイスディスプレイ画像の組み合わせによって描画される3D画像空間は、多視点非レイヤ化画像に当初描写されたとおりに3D画像空間196に3Dピクセル分布188を正確または忠実に
再現する。
5.レイヤ化画像エンコーダおよび拡張型エンターテインメントシステム
図2Aは、拡張型エンターテインメントシステムの一例示の構成100を示している。この構成は、レイヤ化画像エンコーダ180、画像コンテンツ受信機110、画像レンダラ(例えば、106、108等)、デバイストラッカ122、3D空間(例えば、126等)における鑑賞者112-1のウェアラブル画像描画デバイス102-1等の1つ以上のウェアラブルデバイス等を備える。図2Aに示す構成要素/デバイスの幾つかまたは全ては、1つ以上の機械構成要素、1つ以上の電気光学構成要素、ソフトウェア、ハードウェア、ソフトウェアおよびハードウェアの組み合わせ等による1つ以上のコンピューティングデバイス、モジュール、ユニット等によって実施することができる。図2Aに示す構成要素/デバイスの幾つかまたは全ては、図2Aに示す他の幾つかの構成要素/デバイスまたは図2Aに示していない他の構成要素/デバイスと(例えば、無線、有線接続等を用いて)通信結合することができる。
幾つかの実施形態では、レイヤ化画像エンコーダ180は、非レイヤ化画像受信機182、レイヤ化画像ジェネレータ186、非レイヤ化画像データストア184等を備える。
幾つかの実施形態では、非レイヤ化画像受信機182は、例えば、非レイヤ化画像データストア184等の非レイヤ化画像ソース、クラウドベース画像ソース、VRアプリケーション、ARアプリケーション、リモートプレゼンスアプリケーション、ディスプレイアプリケーション等と関係したカメラシステムから非レイヤ化画像ビデオ信号または記憶された非レイヤ化画像データの形で多視点非レイヤ化画像を受信するように構成されたソフトウェア、ハードウェア、ソフトウェアおよびハードウェアの組み合わせ等を備える。
幾つかの実施形態では、レイヤ化画像ジェネレータ186は、多視点非レイヤ化画像のそれぞれに描写された3D画像空間(例えば、図1Aの196等)内の複数の視覚物体における各視覚物体の空間ロケーションを記述した空間情報にアクセスするように構成されたソフトウェア、ハードウェア、ソフトウェアおよびハードウェアの組み合わせ等を備える。
多視点非レイヤ化画像のそれぞれにおける3D画像空間(図1Aの196)内の複数の視覚物体の空間ロケーションを記述した空間情報に基づいて、レイヤ化画像ジェネレータ186は、そのような各多視点非レイヤ化画像からの複数の画像レイヤにおけるシングルレイヤ画像を生成する。したがって、複数の画像レイヤにおける各画像レイヤは、全ての多視点非レイヤ化画像からの多視点シングルレイヤ画像を含む。
非限定的な例では、複数の画像レイヤにおける第1の画像レイヤは、下流の受信側デバイスによってシネマ画像レイヤとして用いることができるのに対して、複数の画像レイヤにおける他の画像レイヤは、下流の受信側デバイスによってデバイス画像レイヤとして用いることができる。
レイヤ化画像ジェネレータ186は、多視点非レイヤ化画像から生成された複数の画像レイヤにおける多視点シングルレイヤ画像を画像コンテンツ114に符号化し、この画像コンテンツ114を、入力コンテンツ受信機110、データ記憶装置、シネマ3Dシステム等の1つ以上の下流側デバイスに提供/送信する。
幾つかの実施形態では、画像コンテンツ受信機110は、多視点(MV)画像受信機152、画像レイヤ送信機156、データレポジトリ154等を備える。
幾つかの実施形態では、多視点画像受信機152は、レイヤ化画像エンコーダ180、クラウドベース画像ソース、VRアプリケーション、ARアプリケーション、リモートプレゼンスアプリケーション、ディスプレイアプリケーション等に関係したカメラシステム等の画像ソースから(入力)画像コンテンツ114を受信し、入力画像ストリーム114を多レイヤ多視点画像シーケンスに復号化するように構成されたソフトウェア、ハードウェア、ソフトウェアおよびハードウェアの組み合わせ等を備える。各多レイヤ多視点画像は、多レイヤ多視点ビデオ信号からの多視点画像受信機152によって復号化されたシネマ画像レイヤにおける1つ以上のシングルレイヤシネマ画像および1つ以上のデバイス画像レイヤにおける1つ以上のシングルレイヤデバイス画像を含む。
シネマ画像レイヤから、画像レイヤ送信機156は、1つ以上のシングルレイヤシネマ画像を特定または生成する。この1つ以上のシングルレイヤシネマ画像は、シネマ画像レイヤおよび1つ以上のデバイス画像レイヤにおけるシングルレイヤシネマ画像およびシングルレイヤデバイス画像が事前に得られた(元の)多視点非レイヤ化画像に描写された複数の視覚物体(例えば、118、120等)における1つ以上の視覚物体(例えば、118等)の第1の真部分集合を描写することができる。
1つ以上のデバイス画像レイヤから、画像レイヤ送信機156は、1つ以上のシングルレイヤデバイス画像を特定または生成する。この1つ以上のシングルレイヤデバイス画像は、(元の)多視点非レイヤ化画像によって描写された複数の視覚物体(例えば、118、120等)における1つ以上の視覚物体(例えば、120等)の1つ以上の第2の真部分集合を描写することができる。
幾つかの実施形態では、画像レイヤ送信機156は、データフロー158を介して、全てのシングルレイヤシネマ画像を、画像レンダラ106、108またはその中のシネマ画像レンダラ(例えば、106等)に送信しまたは別の方向で提供する。さらに、画像レイヤ送信機156は、データフロー158を介して、全てのシングルレイヤデバイス画像を、画像レンダラ106、108またはその中のデバイス画像レンダラ(例えば、108等)に送信しまたは別の方法で提供する。
ユーザー112-1は、ランタイムにおいて移動し、ウェアラブルデバイス102-1の空間位置および空間方向の変化を引き起こす場合がある。幾つかの実施形態では、デバイストラッカ122は、ウェアラブルデバイス102-1の空間位置および/または空間方向を追跡/監視し、ウェアラブルデバイス102-1の空間位置および/または空間方向に基づいてウェアラブルデバイス102-1の位置データおよび方向データを生成する等を行うように構成されたソフトウェア、ハードウェア、ソフトウェアおよびハードウェアの組み合わせ等を備える。
デバイストラッカ122によって生成されるウェアラブルデバイス102-1の位置データおよび方向データは、相対的に微細な時間分解能(例えば、1ミリ秒ごと、5ミリ秒ごと等)のものとすることができ、画像コンテンツ受信機110および/または画像レンダラ106、108等の他のデバイスが所与の時間分解能(例えば、1ミリ秒ごと、5ミリ秒ごと等)でウェアラブルデバイス102-1の空間位置および/または空間方向を確立/確定するために用いることができる。
本明細書において説明されるデバイストラッカの例は、外部デバイストラッカ、内部デバイストラッカ、アウトサイドインデバイストラッカ、インサイドアウトデバイストラッカ等のうちの任意のものを含むことができるが、必ずしもこれらのみに限定されるものではない。限定ではなく例として、図2Aに示すような構成100におけるデバイストラッカ122は、外部デバイストラッカを表す。しかしながら、他の実施形態では、ウェアラ
ブルデバイス102-1の一部とすることもできるし、ウェアラブルデバイス102-1と同じ場所への配置、ウェアラブルデバイス102-1との共動等を行うこともできるインサイドアウトデバイストラッカも、(外部)デバイストラッカ122に加えてまたはその代わりに用いることができることに留意されたい。デバイストラッカ122は、相対的に多数のウェアラブルデバイスの空間座標を追跡することができる。これらのウェアラブルデバイスには、3D空間126に存在するウェアラブルデバイス102-1が含まれるが、これに限定されるものではない。
限定ではなく例示として、3D空間126内の空間位置を表すために用いられる静止3次元空間座標系は、基準デカルト座標系とすることができる。図2Aは、基準デカルト座標系の2つの例示の空間次元、すなわち、x軸およびz軸のみを示している。基準デカルト座標系は、別の空間次元、すなわち、図2Aの紙面から外部に向いている、x軸およびz軸の双方と直交するy軸を含むことができる。基準デカルト座標系は、図2Aに示すように、「p」として表記された基準空間位置に座標系原点を含むことができる。基準空間位置は、3D空間126に対して静止した任意の空間位置から選択することができる。
ウェアラブルデバイス102-1は、動作時において剛体(または固定空間形状)デバイスとすることができるが、必ずしもこれのみに限定されるものではない。ウェアラブルデバイス102-1上の空間位置は、ウェアラブルデバイス102-1に対して静止した3次元空間座標系で表すことができる。基準デカルト座標系に対するデバイス静止デカルト座標系は、ウェアラブルデバイス102-1上の空間位置および空間方向を表すために用いることができる。デバイス静止デカルト座標系は、図2Aに示すようなx1軸およびz1軸と、図2Aに示されていないx1軸およびz1軸の双方に直交するy1軸とを含むそれぞれの軸によって表された3つの空間次元を含む。デバイス静止デカルト座標系は、図2Aに示すように、「p1」として表記されたデバイス静止空間位置に座標系原点を含むことができる。デバイス静止空間位置は、ウェアラブルデバイス102-1に対して静止した任意の空間位置から選択することができる。幾つかの実施形態では、ウェアラブルデバイス102-1上に対称点である空間ロケーションが存在する場合、そのような空間ロケーションは、デバイス静止デカルト座標系に対する座標原点としての機能を果たすデバイス静止空間位置「p1」として選択することができる。
幾つかの実施形態では、デバイストラッカ122は、3D空間126の基準デカルト座標系における所与の時点のウェアラブルデバイス102-1の1つ以上の空間座標を繰り返し(例えば、リアルタイム、準リアルタイム、厳密なタイミングバジェット内、1ミリ秒ごと、2ミリ秒ごと等で)追跡または決定する。幾つかの実施形態では、ウェアラブルデバイス102-1の1つ以上の空間座標は、3D空間126の基準デカルト座標系に対してウェアラブルデバイス102-1に静止したデバイス静止空間位置「p1」の1つ以上の空間座標によって表すことができる。
ウェアラブルデバイス102-1のデバイス静止空間ロケーション「p1」の空間座標は、時間の関数として表すことができるウェアラブルデバイス102-1の空間軌道を構成する。ウェアラブルデバイス102-1の1つ以上の運動特性の任意の組み合わせは、ウェアラブルデバイス102-1の空間軌道を表すこれらの時間の関数から決定することができる。
例えば、3D空間126において静止した基準デカルト座標系の原点「p」等の基準点に対するウェアラブルデバイス102-1の(経時的な)線形位置/線形変位は、ウェアラブルデバイス102-1の空間軌道(前述したような時間の関数によって表される)から(例えば、ベクトル差等として)決定または導出することができる。追加的、選択的、または代替的に、3D空間126において静止した基準点に対するウェアラブルデバイス
102-1の(経時的な)線形速度、線形スピード、線形加速度等は、ウェアラブルデバイス102-1の空間軌道から(例えば、1次導関数、2次導関数等として)決定または導出することができる。
同様に、ウェアラブルデバイス102-1の(経時的な)角度位置/角度変位(例えば、a1等)は、基準デカルト座標系(例えば、x、y、z等)に対するデバイス静止座標系(例えば、x1、y1、z1等)の角度位置/角度変位から決定または導出することができる。
追加的、選択的、または代替的に、3D空間126における基準座標系に対するウェアラブルデバイス102-1の(経時的な)線形速度、線形スピード、線形加速度または角速度、角スピード、角加速度等は、ウェアラブルデバイス102-1の線形位置/線形変位または角度位置/角度変位(例えば、p1、a1等)から(例えば、1次導関数、2次導関数等として)決定または導出することができる。
幾つかの実施形態では、画像レンダラ106、108は、図2Bおよび図2Cに示すように、シネマ画像レンダラ(例えば、106等)およびデバイス画像レンダラ(例えば、108)として別々に実施することができる。追加的、選択的、または代替的に、シネマ画像レンダラ106、デバイス画像レンダラ108等の画像レンダラは、図2Aに示すように、単一のデバイス(例えば、シネマワイドサーバ等)内にひとまとめにして実施することができる。シネマ画像レンダラ106、デバイス画像レンダラ108等の画像レンダラ106、108における個々の任意の画像レンダラを、3D空間126において相対的に多数の鑑賞者と同時に関係した画像描画処理をリアルタイムでサポートするために並列に動作する複数のインスタンス(例えば、コンピュータ、デバイス、仮想マシン等)において実施することができる。
限定ではなく例として、画像レンダラ106、108は、画像レイヤ受信機160、デバイスレジスタ170、ディスプレイ画像ジェネレータ162等を備える。画像レンダラ106、108は、中央画像レンダラ、分散画像レンダラ、ウェアラブルデバイス(例えば、102-1等)の一部として実施される画像レンダラ、一部がウェアラブルデバイス(例えば、102-1等)の一部として実施されるとともに一部がウェアラブルデバイス102-1の外部の別個のデバイスにおいて実施される3D空間126におけるウェアラブルデバイス(例えば、102-1等)の幾つかまたは全ての外部の画像レンダラ等のうちの任意のものを含むことができるが、必ずしもこれらのみに限定されるものではない。
幾つかの実施形態では、画像レイヤ受信機160は、データフロー158を介して、多レイヤ多視点画像シーケンスにおける各多レイヤ多視点画像について、シネマ画像レイヤおよび1つ以上のデバイス画像レイヤを受信するように構成されたソフトウェア、ハードウェア、ソフトウェアおよびハードウェアの組み合わせ等を備える。
幾つかの実施形態では、デバイスレジスタ170は、3D空間126におけるウェアラブルデバイス(例えば、102-1等)のデバイスID情報(例えば、MACアドレス、ネットワークアドレス、IPアドレス等)の受信、ウェアラブルデバイス(例えば、102-1等)において描画されるデバイスディスプレイ画像を受信するウェアラブルデバイス(例えば、102-1等)のそれぞれの登録等を行うように構成されたソフトウェア、ハードウェア、ソフトウェアおよびハードウェアの組み合わせ等を備える。
シネマ画像レイヤにおけるシングルレイヤシネマ画像に基づいて、ディスプレイ画像ジェネレータ162は、1つ以上のシネマディスプレイ画像の生成、1つ以上のシネマディスプレイ画像のシネマディスプレイ104上への描画等を行う。
幾つかの実施形態では、画像レンダラ106、108またはこの画像レンダラにおけるディスプレイ画像ジェネレータ162は、3D空間126においてデバイストラッカ122によって追跡/監視されるウェアラブルデバイス(例えば、102-1等)のそれぞれの位置データおよび方向データを受信すること;1つ以上のデバイス画像レイヤにおけるシングルレイヤデバイス画像と、そのような各ウェアラブルデバイス(例えば、102-1等)の位置データおよび方向データとに基づいて、ウェアラブルデバイス(例えば、102-1等)のそれぞれの1つ以上のそれぞれのデバイスディスプレイ画像を生成すること;そのような各ウェアラブルデバイス(例えば、102-1等)を用いて、それぞれの1つ以上のデバイスディスプレイ画像をそれぞれのデバイスディスプレイ(例えば、図1Bの116等)上に描画すること等を行う。画像レンダラ(例えば、106、108等)は、制御情報、ステータス情報、位置データ、デバイスディスプレイ画像等の画像データ、メタデータ等をウェアラブル画像描画デバイス(例えば、102-1等)と1つ以上のデータ接続を介して通信することができる。データ接続の例としては、無線データ接続、有線データ接続、無線周波数ベースのデータ接続、セルラーデータ接続、Wi-Fiデータ接続、赤外線ベースのデータ接続、座席/アームレスト/床等へのHDMIケーブルを介したデータ接続、光ケーブルを介したデータ接続、高速シリアルインターフェース(HSSI)、高精細シリアルデジタルインターフェース(HD-SDI)、12G-SDI、USBケーブル等を介したデータ接続を含むことができるが、これらに限定されない。
シネマディスプレイ画像および/またはデバイスディスプレイ画像の例は、モノスコープ画像、左視点画像および右視点画像の組み合わせ、2つ以上の多視点画像の組み合わせ等のうちの1つを含むが、必ずしもこれらのみに限定されるものではない。
画像レイヤが複数の異なる視点シングルレイヤ画像を含む処理シナリオでは、シネマ画像レンダラ106および/またはデバイス画像レンダラ108は、これらの複数の異なる視点シングルレイヤ画像の中から左視点画像および右視点画像を特定、選択、および/または補間することができる。例えば、そのような左視点画像および右視点画像の一方または双方は、異なる視点シングルレイヤ画像を組み合わせて左視点画像および/または右視点画像にする画像補間および/または画像再構築によって生成することができる。
幾つかの実施形態では、画像レンダラ106、108は、シネマディスプレイ画像および/またはデバイスディスプレイ画像の描画の一部としてディスプレイ管理処理を実行する。
拡張型エンターテインメントシステムは、リアルタイムビデオアプリケーション、準リアルタイムビデオアプリケーション、非リアルタイムビデオアプリケーション、仮想現実(VR)アプリケーション、拡張現実(AR)アプリケーション、リモートプレゼンスアプリケーション、自動車エンターテインメントアプリケーション、ヘルメットマウントディスプレイアプリケーション、ヘッドアップディスプレイアプリケーション、ゲーム、2Dディスプレイアプリケーション、3Dディスプレイアプリケーション、多視点ディスプレイアプリケーション等をサポートするために用いることができる。入力画像コンテンツデータ114の幾つかまたは全ては、拡張型エンターテインメントシステムによってリアルタイム、準リアルタイム、非リアルタイム等で受信、生成またはアクセスすることができる。
本明細書において説明される技法は、多種多様なディスプレイを用いて3D画像または多視点画像を描画することおよび視認することをサポートするために用いることができる。ディスプレイ(例えば、104、ウェアラブルデバイスのデバイスディスプレイ等)の例としては、シネマディスプレイ、ホームシアターディスプレイ、テレビ、投影ベースの
ディスプレイシステム、バックライトベースのディスプレイシステム、ライトフィールドベースのディスプレイシステム、光導波路ベースのディスプレイシステム、液晶ベースのディスプレイシステム、発光ダイオードベースのシステム、有機発光ダイオードベースのシステム、画像プロジェクター、ARディスプレイ、HoloLensディスプレイ、Magic Leapディスプレイ、複合現実(MR)ディスプレイ、テンソルディスプレイ、ボリュームディスプレイ、ライトフィールド(LF)ディスプレイ、Immyディスプレイ、メタディスプレイ、相対的に単純なARメガネ、遠近調節と両眼転導との不整合を克服する広範囲の能力のうちの任意のものを有するディスプレイ等のうちの任意のものを含むことができるが、必ずしもこれらのみに限定されるものではない。
幾つかの実施形態では、複数の画像レイヤにおけるシングルレイヤ画像を含む多レイヤ多視点画像をレイヤ化画像エンコーダ180等の外部画像ソースから受信する代わりに、多視点画像受信機152は、例えば、ローカルに、データレポジトリ154からこれらの多視点多レイヤ画像を受信しまたは取り出すことができる。データレポジトリ154は、多レイヤ多視点画像等の幾つかまたは全てに関する記憶、更新、取り出し、削除等の処理をサポートするように構成された1つ以上のデータベース、1つ以上のデータ記憶ユニット/モジュール/デバイス等を表す。
幾つかの実施形態では、画像レイヤを画像レンダラ(例えば、シネマ画像レンダラ、デバイス画像レンダラ等)に直接送信する代わりに、画像レイヤにおいて具体的に選択されたシングルレイヤ画像を含む画像セットを画像レンダラ(例えば、106、108等)に送信することができる。画像レイヤ送信機156は、画像レンダラ106、108内のある画像レンダラおよび/またはデバイストラッカ122から、デバイストラッカ122によって追跡/監視されるウェアラブルデバイス102-1の位置データおよび方向データを受信し、基準座標系に対する所与のウェアラブルデバイス(例えば、102-1等)の空間位置および/または空間方向を経時的に確立/決定し、受信された各多レイヤ多視点画像の画像レイヤにおける特定のシングルレイヤ画像を選択することによって1つ以上の画像セットを生成することができる。特定のシングルレイヤ画像は、ウェアラブルデバイス102-1の空間位置および/または空間方向に従ってウェアラブルデバイス102-1に特に適合することができる。さらに、画像レイヤ送信機156は、単数または複数の画像セットのビデオストリームへの符号化、データフロー158を介したビデオストリームの画像レンダラ106、108への提供/送信等を行うことができる。画像セットは、画像レンダラ106、108が画像再構築/補間を用いてウェアラブルデバイス102-1のデバイスディスプレイ画像を生成するために用いることができる。画像セットおよび画像再構築/補間の例は、2018年4月10日に出願されたAjit NinanおよびNeil Mammenによる「ADAPTING VIDEO IMAGES FOR WEARABLE DEVICES」という出願名称の米国特許
出願第15/949,720号において知ることができる。この米国特許出願の全内容は本願において援用され、本明細書に完全に述べられているのと同等に取り扱われる。
本明細書において説明される技法は、様々なシステムアーキテクチャにおいて実施することができる。本明細書において説明される幾つかまたは全ての画像処理演算は、クラウドベースビデオストリーミングサーバ、ウェアラブルデバイスと同じ場所に配置されまたはウェアラブルデバイス内に組み込まれたビデオストリーミングサーバ、ビデオストリーミングクライアント、画像コンテンツ受信機、画像描画デバイス等のうちの1つ以上によって実施することができる。受信側デバイスのビデオアプリケーションのタイプ、帯域幅/ビットレートバジェット、計算能力、リソース、負荷等、ビデオストリーミングサーバ、画像コンテンツ受信機、画像描画デバイス、下レイヤのコンピュータネットワーク等の計算能力、リソース、負荷等の1つ以上の要因に基づいて、幾つかの画像処理演算は、画像コンテンツ受信機が実行することができる一方、他の幾つかの画像処理演算は、画像描画デバイス等が実行することができる。
図2Bは、(3D)拡張型エンターテインメントシステムの別の例示の構成100-1を示している。この構成は、デバイスディスプレイ112、シネマディスプレイ104、シネマ画像レンダラ106、デバイス画像レンダラ108、画像コンテンツ受信機110等を有するウェアラブルデバイス102等の3D画像描画ビューイングアイウェアデバイスを備える。図2Bに示す構成要素/デバイスの幾つかまたは全ては、1つ以上の機械構成要素、1つ以上の電気光学構成要素、ソフトウェア、ハードウェア、ソフトウェアおよびハードウェアの組み合わせ等による1つ以上のコンピューティングデバイス、モジュール、ユニット等によって実施することができる。図2Bに示す構成要素/デバイスの幾つかまたは全ては、図2Bに示す他の幾つかの構成要素/デバイスまたは図2Bに示していない他の構成要素/デバイスと(例えば、無線、有線接続等を用いて)通信結合することができる。
幾つかの実施形態では、画像コンテンツ受信機110は、シネマ画像レイヤから復号化されたシングルレイヤシネマ画像(図2Aに関して前述)をシネマ画像レンダラ106に送信または別の方法で提供する。さらに、画像コンテンツ受信機110は、デバイス画像レイヤから復号化されたシングルレイヤデバイス画像(図2Aに関して前述)をデバイス画像レンダラ108に送信または別の方法で提供する。
シングルレイヤシネマ画像に基づいて、シネマ画像レンダラ106は、シネマディスプレイ画像をシネマディスプレイ104上に描画する。これらのシネマディスプレイ画像は、第1のモノスコープ画像、第1の左視点画像および第1の右視点画像の組み合わせ、2つ以上の第1の多視点画像の組み合わせ等のうちの1つとすることができる。
シングルレイヤデバイス画像に基づいて、デバイス画像レンダラ108は、ウェアラブルデバイス102にデバイスディスプレイ画像をデバイスディスプレイ116上に描画させる。これらのデバイスディスプレイ画像は、第2のモノスコープ画像、第2の左視点画像および第2の右視点画像の組み合わせ、2つ以上の第2の多視点画像の組み合わせ等のうちの1つとすることができる。
幾つかの実施形態では、デバイスディスプレイ116は、物理的なディスプレイではなく、ウェアラブルデバイス102におけるイメージャー(単数または複数)によって放出された光線によって作成される画像平面または仮想的なディスプレイである。
幾つかの実施形態では、シネマディスプレイ104上に描画された左視点シネマディスプレイ画像および右視点シネマディスプレイ画像の対に描写された視覚物体(例えば、118等)の第1の真部分集合と、デバイスディスプレイ116上に描画された対応するデバイスディスプレイ画像に描写された視覚物体(例えば、120等)の1つ以上の第2の真部分集合とは、同時に(例えば、並行して、同期して、同じ画像フレーム間隔内等で)描画され、3D画像空間(例えば、図1Aの196等)内の異なる空間ロケーションに位置する複数の視覚物体(例えば、118、120等)をひとまとめにして描写する。3D画像空間196内のこれらの空間ロケーションは、元々は、複数の視覚物体をシネマ画像レイヤ(または視覚物体の第1の真部分集合)と、1つ以上のデバイス画像レイヤ(または視覚物体の1つ以上の第2の真部分集合)とに分割するために用いられた多視点非レイヤ化画像の空間情報に指定または記述されたものと同じものとすることができる。
幾つかの実施形態では、シネマ画像レンダラ106および/またはデバイス画像レンダラ108は、(a)左視点シネマディスプレイ画像および右視点シネマディスプレイ画像および/または(b)デバイスディスプレイ画像の描画の一部としてディスプレイ管理処理を実行する。
本明細書において説明される拡張型エンターテインメントシステムが複数鑑賞者環境において動作する処理シナリオでは、複数のユーザーの個々のウェアラブルデバイスの空間位置(複数のユーザーの個々の座席位置を含むが、これに限定されるものではない)および/または空間方向を追跡、計算および/または使用して、鑑賞者の個々のウェアラブルデバイスを用いて描画された個々のデバイス画像コンテンツを、シネマディスプレイ、投影ディスプレイ等の共有ディスプレイ上に描画される大画面コンテンツ(またはシネマ画像コンテンツ)とシームレスにオーバーレイ(または重ね合わせ)することができる。
図3Aは、3D空間(例えば、126等)と、複数の鑑賞者の共有ディスプレイとしてのシネマディスプレイ(例えば、104等)とを備える一例示の複数鑑賞者環境の斜視図を示している。3D空間126は、複数の座席空間(例えば、326等)を含む視聴者エリア324を備えることができる。自身のそれぞれのウェアラブルデバイスを装着している複数の鑑賞者は、視聴者エリア324内の複数の座席空間に着席して、シネマディスプレイ104上に描画されるシネマ画像コンテンツを視認することができ、シネマ画像コンテンツを視認すると同時に、ウェアラブルデバイスによって個別に描画される適切にオーバーレイされたデバイス画像コンテンツを視認することができる。3D空間126の特定の幾何学的構成を所与として、ウェアラブルデバイスの高さ、線形距離および角距離は、複数鑑賞者環境においてシネマディスプレイ104に対して実質的に変化し得る。
鑑賞者およびそれらのウェアラブルデバイスの実際の座席位置は、複数の異なる方法のうちの1つ以上の任意の組み合わせで決定することができる。一例では、鑑賞者および鑑賞者のウェアラブルデバイスの特定の座席位置(または特定の座席空間)は、鑑賞者または鑑賞者のウェアラブルデバイスに発行された特定のチケットに基づいて決定することができる。別の例では、シネマ画像コンテンツまたはシネマディスプレイ104の周囲の空間エリアに基準マーカーを組み込むことができる。ウェアラブルデバイス(またはヘッドセット)は、これらの基準マーカーからの光線に応答して生成された画像マーカーを有する追跡画像を取得することができる。追跡画像内の画像マーカーに基づいて、ウェアラブルデバイスは、拡張型エンターテインメントセッション内の任意の所与の時点におけるウェアラブルデバイスの空間位置および/または空間方向を決定(例えば、正確に決定等)することができる。基準マーカーに基づくウェアラブルデバイスの空間位置および/または空間方向の決定の例は、前述した2018年4月10日に出願されたAjit NinanおよびNeil Mammenによる「ADAPTING VIDEO IMAGES FOR WEARABLE DEVICES」という出願名称を
有する米国特許出願第15/949,720号において知ることができる。
更なる例では、異なるウェアラブルデバイス(例えば、ARヘッドセット等)が、3D空間126内のそれらのそれぞれの座席位置(または座席空間)に取り付けまたは割り当てられてもよい。
追加的、選択的、または代替的に、無線周波数(RF)ロケーション検出を用いて、拡張型エンターテインメントセッション内の任意の所与の時点におけるウェアラブルデバイスの空間位置および/または空間方向を決定することができる。RFロケーション検出に基づくウェアラブルデバイスの空間位置および/または空間方向の決定の例は、米国特許第7,580,378号において知ることができる。この米国特許の全内容は本願において援用され、本明細書に完全に述べられているのと同等に取り扱われる。
幾つかの実施形態では、3D空間126(例えば、相対的に大きな3D空間等)は、複数のゾーンに分離することができる(例えば、これらのゾーンのうちの1つが図3Bの328等であってもよい)。複数のメディアストリーミングサーバを用いて、デバイス画像コンテンツを複数のゾーン(例えば、328等)内の鑑賞者にストリーミングすることが
できる。各ゾーン(例えば、328等)内の鑑賞者は、複数のメディアストリーミングサーバにおけるそれぞれのメディアストリーミングサーバによってサポートすることができる。幾つかの実施形態では、メディアストリーミングサーバは、このメディアストリーミングサーバによってサポートされるように指定された、ゾーン328に着席した鑑賞者の各鑑賞者用の鑑賞者固有のデバイス画像コンテンツを生成する。鑑賞者固有のデバイス画像コンテンツを受信すると、ゾーン328内の鑑賞者のウェアラブルデバイスは、更なる適合を伴わずもしくは更なる適合をほとんど伴わず、または、相対的に単純な画像描画処理(例えば、画像補間/再構築/選択等)を伴って、鑑賞者固有のデバイス画像コンテンツを描画することができる。幾つかの実施形態では、メディアストリーミングサーバは、このメディアストリーミングサーバによってサポートされるゾーン328において、このゾーン内の全ての鑑賞者用のゾーン固有のデバイス画像コンテンツを生成することができる。ゾーン固有のデバイス画像コンテンツを受信すると、ゾーン328内の個々の鑑賞者のウェアラブルデバイスは、このウェアラブルデバイスの空間位置および/または空間方向に基づいて、ゾーン固有のデバイス画像コンテンツを適合させ、この適合されたデバイス画像コンテンツを描画することができる。
拡張型エンターテインメントシステムは、デバイス追跡技法を実施しまたはこのデバイス追跡技法を用いて動作し、拡張型エンターテインメントセッション(例えば、VRセッション、ARセッション、リモートプレゼンスセッション、コンピュータゲームセッション、映画等)においてウェアラブルデバイスの空間位置および/または空間方向をリアルタイムで決定することができる。これらのデバイス追跡技法のうちの幾つかまたは全ては、相対的に多数の鑑賞者のウェアラブルデバイスの空間位置および/または空間方向を同時に追跡/監視するようにスケーリングすることができる。これらのウェアラブルデバイスの空間位置および/または空間方向は、デバイス画像コンテンツを、個々のウェアラブルデバイスおよび個々の鑑賞者向けに具体的に適合されたデバイス画像コンテンツに適合させ、この具体的に適合されたデバイス画像コンテンツを個々のウェアラブルデバイス上に描画するために用いることができる。
デバイス追跡技法の例としては、ウェアラブルデバイス単独で実行される追跡技法、外部デバイス単独で実行される追跡技法、一部はウェアラブルデバイスによって実行され、一部は外部デバイスによって実行される追跡技法、アウトサイドインデバイス追跡、インサイドアウトデバイス追跡、複数のデバイスが協力した分散デバイス追跡、基準マークに基づく追跡、RF信号または赤外線信号に基づく追跡等のうちの任意のものを含むことができるが、必ずしもこれらのみに限定されるものではない。これらのデバイス追跡技法の幾つかまたは全てを、拡張型エンターテインメントシステムが動作する特定の環境に具体的に適合させることができる。これらのデバイス追跡技法の幾つかまたは全ては、相対的に低コスト、相対的に低複雑度、相対的に高い弾力冗長性(redundancy for resilience
)、相対的に高い精度、相対的に多数の複数の鑑賞者等とともに実施することができる。
追加的、選択的、または代替的に、ウェアラブルデバイスのデバイスID情報は、本明細書において説明されるデバイス追跡技法によって取得することができる。このデバイスID情報は、MACアドレス、ネットワークアドレス、IPアドレス等を含むが、これらに限定されるものではない。
ウェアラブルデバイスの空間位置、空間方向、デバイスID情報、ネットワークアドレス等の幾つかまたは全ては、それぞれのメディアストリーミングサーバと通信し、ウェアラブルデバイスをそれぞれのメディアストリーミングサーバに(個別にまたはグループ/ゾーンで)登録し、シネマ画像コンテンツと同期して描画されるデバイス画像コンテンツを取得またはダウンロードするために用いることができる。
特定の時点におけるウェアラブルデバイスのデバイスID情報、特定の空間位置および/または特定の空間方向等は、その特定の時点用に生成されたデバイス画像コンテンツのストリーミングおよび描画を、その特定の時点用に生成されたシネマ画像コンテンツのストリーミングおよび描画と同期させるために用いることができる。例えば、第1の時点にシネマディスプレイ104上に描画される3Dシネマディスプレイ画像を生成するために用いられるシングルレイヤシネマ画像は、第1の時点を論理的に示すタイムスタンプによってインデックス付けすることができる。同じ第1の時点にウェアラブルデバイスを用いて描画される対応する3Dデバイスディスプレイ画像を生成するために用いられる対応するシングルレイヤデバイス画像は、同じタイムスタンプによってインデックス付けすることができる。したがって、ウェアラブルデバイスおよびシネマ画像レンダラ106の双方が、3Dシネマディスプレイ画像および対応する3Dデバイスディスプレイ画像を同時に表示することができる。
図2Cは、拡張型エンターテインメントシステムの一例示の構成100-2を示している。この構成は、追跡センサーアセンブリ124とともに動作して、3D空間(例えば、126等)において第1の鑑賞者112-1によって用いられる第1のウェアラブルデバイス102-1、第2の鑑賞者112-2によって用いられる第2のウェアラブルデバイス102-2等の複数のウェアラブルデバイスを監視するデバイストラッカ122を備える。図2Cに示すように、この拡張型エンターテインメントシステムは、シネマ画像レンダラ(例えば、106等)、デバイス画像レンダラ(例えば、108等)、画像コンテンツ受信機(例えば、110等)、シネマディスプレイ(例えば、104等)、1つ以上のウェアラブルデバイスを更に備える。図2Cに示す構成要素/デバイスの幾つかまたは全ては、1つ以上の機械構成要素、1つ以上の電気光学構成要素、ソフトウェア、ハードウェア、ソフトウェアおよびハードウェアの組み合わせ等による1つ以上のコンピューティングデバイス、モジュール、ユニット等によって実施することができる。図2Cに示す構成要素/デバイスの幾つかまたは全ては、図2Cに示す他の幾つかの構成要素/デバイスまたは図2Cに示していない他の構成要素/デバイスと(例えば、無線、有線接続等を用いて)通信結合することができる。
幾つかの実施形態では、デバイストラッカ122および追跡センサーアセンブリ124は、追跡中のウェアラブルデバイスからリモートの中央追跡システムを表す。デバイストラッカ122および追跡センサーアセンブリ124は、ウェアラブルデバイスが複雑なおよび/または能動的な自己追跡機能を実施する必要なく、ウェアラブルデバイスを用いてデバイス追跡処理を行うことができる。したがって、ウェアラブルデバイスは、相対的に低コストで相対的に単純な設計を用いて作製することができる。追跡センサーアセンブリとともに動作するデバイストラッカの例は、2018年4月10日に出願されたAjit NinanおよびNeil Mammenによる「PASSIVE MULTI-WEARABLE-DEVICES TRACKING」という出願名称を有する前述した米国特許出願第15/949,536号において知ることができる。
本明細書において説明される中央追跡システムは、単一のウェアラブルデバイスまたは複数のウェアラブルデバイスの物理的な移動を正確で確実かつ敏感に追跡するために用いることができる。追跡目的に用いられる構成要素は、相対的に非常に小さなフットプリントに小型化する必要はなく、ウェアラブルデバイスの全体的なフォームファクターに機械的および/または電気的に組み込む必要はない。ウェアラブルデバイスの空間位置および視認方向を追跡する複雑な解析アルゴリズムの、ウェアラブルデバイスにおける設計、完成、および実施の必要はない。
幾つかの実施形態では、シネマ画像レンダラ106、デバイス画像レンダラ108およびデバイストラッカ122は、ウェアラブルデバイス(例えば、102-1、102-2等)から離れて配置された1つ以上の中央メディアサーバにおいて実施することができる
。追跡センサーアセンブリ124とともに動作するデバイストラッカ122は、拡張型エンターテインメントセッション(例えば、VRセッション、ARセッション、リモートプレゼンスセッション、コンピュータゲームセッション、映画等)においてウェアラブルデバイス(例えば、102-1、102-2等)の空間位置および/または空間方向をリアルタイムで決定する。
第1のウェアラブルデバイス102-1は、第1のウェアラブルデバイス102-1に対して静止した3次元空間座標系において表すことができる空間位置にある剛体デバイスとすることができるが、必ずしもこれのみに限定されるものではない。基準デカルト座標系に対するデバイス静止デカルト座標系を用いて、第1のウェアラブルデバイス102-1に関する空間位置および空間方向を表すことができる。このデバイス静止デカルト座標系は、x1軸およびz1軸と、図2Cに示されていないx1軸およびz1軸の双方に直交するy1軸とを含むそれぞれの軸によって表された3つの空間次元を備える。デバイス静止デカルト座標系は、「p1」と表記されたデバイス静止空間位置に座標系原点を備えることができる。デバイス静止空間位置「p1」は、第1のウェアラブルデバイス102-1に対して静止した任意の空間位置から選択することができる。幾つかの実施形態では、第1のウェアラブルデバイス102-1上に対称点である空間ロケーションが存在する場合、そのような空間ロケーションは、デバイス静止デカルト座標系に対する座標原点としての機能を果たすデバイス静止空間位置「p1」として選択することができる。
同様に、第2のウェアラブルデバイス102-2は、第2のウェアラブルデバイス102-2に対して静止した第2の3次元空間座標系において表すことができる空間位置にある剛体デバイスとすることができるが、必ずしもこれのみに限定されるものではない。基準デカルト座標系に対する第2のデバイス静止デカルト座標系を用いて、第2のウェアラブルデバイス102-2に関する空間位置および空間方向を表すことができる。この第2のデバイス静止デカルト座標系は、x2軸およびz2軸と、図2Cに示されていないx2軸およびz2軸の双方に直交するy2軸とを含むそれぞれの軸によって表された3つの空間次元を備える。第2のデバイス静止デカルト座標系は、「p2」と表記されたデバイス静止空間位置に座標系原点を備えることができる。デバイス静止空間位置「p2」は、第2のウェアラブルデバイス102-2に対して静止した任意の空間位置から選択することができる。幾つかの実施形態では、第2のウェアラブルデバイス102-2上に対称点である空間ロケーションが存在する場合、そのような空間ロケーションは、第2のデバイス静止デカルト座標系に対する座標原点としての機能を果たすデバイス静止空間位置「p2」として選択することができる。
ウェアラブルデバイス(例えば、102-1、102-2等)の空間位置および/または空間方向は、デバイス画像コンテンツを、個々のウェアラブルデバイスおよび個々の鑑賞者向けに具体的に適合されたデバイス画像コンテンツに適合させ、この具体的に適合されたデバイス画像コンテンツを個々のウェアラブルデバイス上に描画するために用いることができる。
加えて、ウェアラブルデバイス(例えば、102-1、102-2等)の空間位置および/または空間方向は、時間の関数としてシネマ画像レンダラ106およびデバイス画像レンダラ108に提供することができる。ウェアラブルデバイス(例えば、102-1、102-2等)の空間位置、空間方向等に基づいて、シネマ画像レンダラ106およびデバイス画像レンダラは、例えば、シネマ画像コンテンツおよびデバイス画像コンテンツをインデックス付けする共通のタイムスタンプを介して、特定の時点について生成されたデバイス画像コンテンツのストリーミングおよび描画を、その特定の時点について生成されたシネマ画像コンテンツのストリーミングおよび描画と同期させることができる。シネマ画像コンテンツおよびデバイス画像コンテンツをインデックス付けするタイムスタンプは
、それぞれシネマ画像コンテンツおよびデバイス画像コンテンツとともに記憶または送信することができる。シネマディスプレイ画像がシネマディスプレイ上に描画されている間、対応するデバイスディスプレイ画像は、ウェアラブルデバイスに(例えば、事前等に)ストリーミングされ、シネマディスプレイ上へのシネマディスプレイ画像の描画と同期してデバイスディスプレイ上に同時に描画される。
幾つかの実施形態では、シネマ画像コンテンツおよびデバイス画像コンテンツの幾つかまたは全ては、画像コンテンツ受信機または画像レンダラからの無線または有線データ接続によるストリーミングに代えてまたはこれに加えて、ローカルに記憶することができる。例えば、デバイス画像コンテンツは、ローカルハードドライブ(例えば、鑑賞者の個々の座席空間におけるUSBデータ接続等から利用可能)からフェッチすることができる。タイムスタンプ、ピング(pinging)メッセージ等は、シネマディスプレイ上に描画され
ているシネマ画像コンテンツの描画と同期して描画すべき対応するデバイス画像コンテンツを特定するために、シネマ画像レンダラによって3D空間126内の全てのウェアラブルデバイスに送信することができる。追加的、選択的、または代替的に、タイムスタンプ、ピングメッセージ等に代えてまたはこれらに加えて、対応するデバイス画像コンテンツの描画をシネマ画像コンテンツと同期させることを目的として、ウォーターマーキング、メディアコンテンツに対して実行中のフィンガープリントアルゴリズムから導出されたフィンガープリント、基準マーク等を組み込み、搬送、表示、送信または追跡することができる。
したがって、デバイストラッカ122および追跡センサーアセンブリ124とともに実施される中央追跡システムを用いると、相対的に高いデバイス製造コスト、相対的に高いデバイスメンテナンスコスト(例えば、異なる連続した鑑賞者の間でウェアラブルデバイスを共有する商業的環境における相対的に高いデバイス洗浄/クリーニングコスト等)、相対的に高い通信コスト、相対的に高い同期コストを招く可能性が高い分散デバイス追跡を有するエンターテインメントシステムと比較して、拡張型エンターテインメントシステムにおけるシネマ画像コンテンツおよびデバイス画像コンテンツのストリーミングおよび描画の同期を、相対的に効率的な動作にすることができる。
ウェアラブルデバイス(例えば、102-1、102-2等)等は、静止物体または3D空間126において静止したシネマディスプレイ104等の静止座標系に対して相対運動を行うように、例えば、ユーザー(例えば、112-1、112-2等)によって駆動させることができる。これらの相対運動は、線形位置/線形変位、角度位置/角度変位、線形速度/線形スピード、角速度/角スピード、線形加速度、回転加速度等のうちの1つ以上の任意の組み合わせによって表すことができる。
例えば、ウェアラブルデバイス(例えば、102-1、102-2等)は、映画シアター、ホームエンターテインメント空間、会場等の物理空間内で任意の所与の時点において特定の空間位置および特定の空間方向を有する3D物理物体とすることができる。
ウェアラブルデバイス(例えば、102-1、102-2等)の特定の空間位置は、このウェアラブルデバイス(例えば、102-1、102-2等)の特定の線形位置の空間座標によって特徴付けまたは測定することができる。そのような特定の線形位置の例は、メガネフレームの空間対称点、幾何学的中心点等、鑑賞者の眼の間の中点に対応する位置等とすることができる。線形位置の空間座標の例としては、デカルト座標系、極座標系等の空間座標とすることができる。
ウェアラブルデバイスの特定の空間方向は、3D空間126内で静止した基準3次元座標系に対する、ウェアラブルデバイス(例えば、102-1、102-2等)に固定され
た (rigidly affixed)、すなわち、ウェアラブルデバイスに静止した(stationary with)
特定の3次元座標系の角度位置の空間座標によって特徴付けまたは測定することができる。3D空間126内の基準3次元座標系は、x軸、y軸およびz軸(図2Cには、x軸およびz軸のみが示されている)を備え、その座標原点がシネマディスプレイ104の選択位置「p」に位置している基準デカルト座標系とすることができる。ウェアラブル画像描画デバイス102に固定された、すなわち、このデバイスに静止したデバイス静止3次元座標系の例としては、鑑賞者の前方視認方向に対応する正のz方向と、鑑賞者の瞳孔間距離に平行なx方向と、x方向およびz方向に垂直なy方向とを有する3次元デカルト座標系とすることができる。角度位置の空間座標の例としては、ピッチ、ヨー、ロール等とすることができる。
ウェアラブルデバイス(例えば、102-1、102-2等)の特定の空間位置および特定の空間方向は、一般に、6つの空間次元によって特徴付けることができる。そのうちの3つは並進に関係し、他の3つは回転に関係している。幾つかの実施形態では、ウェアラブルデバイス(例えば、102-1、102-2等)の特定の空間位置および特定の空間方向を特徴付けるために用いられるこれらの6つの空間次元は、互いに完全に独立している。これらの実施形態では、ウェアラブルデバイス(例えば、102-1、102-2等)は6自由度を有する。ただし、所与の自由度に対応する線形位置または角度位置は引き続きある範囲に制限し得ることが可能である。
例えば、映画シアターでは、シネマディスプレイ104に対して静止した基準デカルト座標系におけるx方向に沿ったウェアラブルデバイス(例えば、102-1、102-2等)の線形位置(例えば、左右揺等)は、鑑賞者(例えば、112-1、112-2等)に割り当てられた座席の幅の一部分に対応する範囲に制限することができる。シネマディスプレイ104に対して静止したデカルト座標系におけるy方向に沿ったウェアラブルデバイス(例えば、102-1、102-2等)の線形位置(上下揺)は、鑑賞者の頭部の一部分に対応する範囲に制限することができる。シネマディスプレイ104に対して静止したデカルト座標系におけるz方向に沿ったウェアラブルデバイス(例えば、102-1、102-2等)の線形位置(例えば、前後揺等)は、鑑賞者(例えば、112-1、112-2等)の座席の背面と鑑賞者(例えば、112-1、112-2等)の座席の直前の座席の背面との間の範囲に制限することができる。
本明細書において説明される技法は、360度(または球の4π立体角全体)までの全方向画像の視認をサポートするために用いることができる。例えば、シネマディスプレイ画像が描画されるシネマディスプレイが3D空間において固定または静止していても、本明細書において説明されるウェアラブルデバイスは、360度(または球の4π立体角全体)までの任意の視野角から方向固有デバイスディスプレイ画像を視認することができる。シネマディスプレイから離れて視認するとき、ウェアラブルデバイスの鑑賞者は、1つ以上のデバイス画像レイヤにおけるシングルレイヤデバイス画像から得られたデバイスディスプレイ画像のみを視認することができる。一方、幾つかの処理シナリオでは、シネマディスプレイ104に関するヨーのウェアラブルデバイス(例えば、102-1、102-2等)の角度位置は、前方視認方向の第1の範囲(例えば、+/-20度の角度、+/-30度の角度、最大で+/-180度の角度等)に制限することができる。シネマディスプレイ104に関するロールのウェアラブルデバイス(例えば、102-1、102-2等)の角度位置は、前方視認方向の第2の範囲(例えば、+/-20度の角度、+/-30度の角度、最大で+/-180度の角度等)に制限することができる。シネマディスプレイ104に関するピッチのウェアラブルデバイス(例えば、102-1、102-2等)の角度位置は、前方視認方向の第3の範囲(例えば、+/-20度の角度、+/-30度の角度、最大で+/-180度の角度等)に制限することができる。これらの角度範囲は、異なって制約されてもよい。例えば、ピッチ運動は、相対的に深刻な吐き気および
生理的な不快感をもたらす傾向があるので、第3の範囲は、相対的に小さく設定されてもよい。
上述の位置範囲または角度範囲のうちのいずれかが、単一の値に縮小した場合または制約された場合、この単一の値の位置範囲または角度範囲に対応する自由度は、6自由度から喪失または除去される。シネマディスプレイ104に対するウェアラブルデバイス(例えば、102-1、102-2等)の並進および回転が(例えば、論理的、物理的等に)固定されているとき、ウェアラブルデバイス(例えば、102-1、102-2等)が有する自由度は0である。シネマディスプレイ104に対するウェアラブルデバイス(例えば、102-1、102-2等)の回転は固定されているが、並進が直線または1次元曲線に沿って動作するように限定されているとき、ウェアラブルデバイス(例えば、102-1、102-2等)が有する自由度は1である。同様に、シネマディスプレイ104に対するウェアラブルデバイス(例えば、102-1、102-2等)の並進は固定されているが、回転が単一の回転方向に限定されているとき、ウェアラブルデバイス(例えば、102-1、102-2等)が有する自由度は1である。
幾つかの実施形態では、3D空間126に配備された追跡センサーアセンブリ124とともに動作するデバイストラッカ122は、3D空間126におけるウェアラブルデバイスの空間位置および空間方向を監視する。幾つかの実施形態では、ウェアラブルデバイス(例えば、102-1、102-2等)は、ウェアラブルデバイス(例えば、102-1、102-2等)に着脱可能もしくは着脱不能に取り付けられ、または別の方法で設置された光源を有する。これらの光源は、可視光波長の光線、不可視光波長の光線、赤外線光等の光線を放出または反射することができる。光源の例は、光放出器、発光ダイオード(LED)、非LED光、光再生器、光反射器、光散乱デバイス、再帰反射器等のうちの任意のものを含むことができるが、必ずしもこれらのみに限定されるものではない。限定ではなく例として、ウェアラブルデバイス(例えば、102-1、102-2等)上の光源は、デバイス追跡目的用の赤外線光等の不可視光を放出または反射する。
幾つかの実施形態では、ウェアラブルデバイス上に配置された光源からの光線を撮像する追跡センサーアセンブリ124における1つ以上の追跡画像センサーが、デバイス追跡画像を生成する。これらのウェアラブルデバイスは、ウェアラブルデバイス(例えば、102-1、102-2等)を含むが、これに限定されるものではない。これらの光線は、追跡センサーアセンブリ124における追跡画像センサーに向けて放出、反射/方向変換/散乱等することができる。これらの光線は、設定されたタイムスケジュール等において連続的に撮像することができる。例えば、デバイス追跡画像は、1ミリ秒または1ミリ秒の数分の1の時間分解能、100分の1秒ごとの時間分解能、10分の1秒ごとの時間分解能等で取得することができる。
幾つかの実施形態では、デバイストラッカ122は、ウェアラブルデバイスの光源からの光線から追跡画像センサー124によって所与の時点において撮像された1つ以上のデバイス追跡画像に基づいて、(例えば、ある時間間隔、3D映画の継続時間全体等にわたって)所与の時点においてウェアラブルデバイスのそれぞれの空間位置および空間方向を追跡または決定する。
幾つかの実施形態では、デバイス画像レンダラ108は、ウェアラブルデバイス(例えば、102-1、102-2等)の空間位置および空間方向(例えば、p1、a1、p2、a2等)をデバイストラッカ122から(例えば、ある時間間隔、3D映画の継続時間全体等にわたって)経時的に受信する。ウェアラブルデバイス(例えば、102-1、102-2等)の空間位置および空間方向に基づいて、デバイス画像レンダラ108は、ウェアラブルデバイス(例えば、102-1、102-2等)とシネマディスプレイ104
との間の空間関係を決定することができる。幾つかの実施形態では、これらの空間関係は、シネマディスプレイ104または3D空間126における基準デカルト座標系に対するウェアラブルデバイス(例えば、102-1、102-2等)の線形位置/線形変位、角度位置/角度変位、線形速度または角速度、線形スピードまたは角スピード、線形加速度または角加速度等のうちの1つ以上によって表すことができる。
例えば、多視点非レイヤ化画像から得られたシングルレイヤデバイス画像に基づいて、デバイス画像レンダラ108は、1つ以上の左視点デバイス画像および1つ以上の右視点デバイス画像を含む1つ以上の3Dデバイス画像を決定することができる。デバイス画像レンダラ108またはウェアラブルデバイス(例えば、102-1、102-2等)は、画像を描画する前に、ウェアラブルデバイス(例えば、102-1、102-2等)とシネマディスプレイ104との間の空間関係に基づいて、(1つ以上の3Dデバイス画像における)1つ以上の左視点デバイス画像および1つ以上の右視点デバイス画像に対して空間変換を行うことができる。
空間変換によって変換された左視点デバイス画像および右視点デバイス画像に基づいて、デバイス画像レンダラ108は、ウェアラブルデバイス(例えば、102-1、102-2等)にこれらの左視点デバイス画像および右視点デバイス画像を1つ以上のデバイスディスプレイ(例えば、116等)上に描画させることができる。デバイス画像レンダラ108は、制御情報、ステータス情報、位置データ、デバイス画像等の画像データ、メタデータ等をウェアラブル画像描画デバイス(例えば、102-1、102-2等)と1つ以上のデータ接続を介して通信することができる。データ接続の例としては、無線データ接続、有線データ接続、無線周波数ベースのデータ接続、セルラーデータ接続、Wi-Fiデータ接続、赤外線ベースのデータ接続、座席/アームレスト/床等へのHDMIケーブルを介したデータ接続、光ケーブルを介したデータ接続、高速シリアルインターフェース(HSSI)、高精細シリアルデジタルインターフェース(HD-SDI)、12G-SDI、USBケーブル等を介したデータ接続を含むことができるが、これらに限定されない。
追加的、選択的、または代替的に、画像回転の決定、画像整列解析、シーンカット検出、座標系間の変換、時間的減衰、ディスプレイ管理、コンテンツマッピング、色マッピング、視野管理等の画像処理演算の幾つかまたは全ては、画像コンテンツ受信機110によって実行することができる。
幾つかの実施形態では、図2Cに示す122等の外部デバイストラッカを用いる代わりに、内部デバイストラッカを用いて、ウェアラブルデバイス(例えば、102-1、102-2等)の空間位置および/または空間方向の追跡/監視、ウェアラブルデバイス(例えば、102-1、102-2等)の空間位置および/または空間方向に基づくウェアラブルデバイス(例えば、102-1、102-2等)の位置データおよび方向データの生成等を行うことができる。
幾つかの実施形態では、デバイス画像レンダラ108は、単一のウェアラブルデバイス(例えば、102-1等)のみとともに動作する場合もあるし、しない場合もある。限定ではなく例として、図2Cに示すようなデバイス画像レンダラ108は、同時に2つ以上のウェアラブルデバイス(例えば、102-1および102-2等)とともに動作する。
幾つかの実施形態では、デバイス画像レンダラ108は、ウェアラブルデバイス102-1および102-2のビデオストリームの受信、各ウェアラブルデバイス102-1または102-2の位置データおよび方向データに従ったそのような各ウェアラブルデバイス102-1または102-2のビデオストリームにおけるビデオデータからの1つ以上
のディスプレイ画像の生成、鑑賞者112-1または112-2へのそれぞれのウェアラブルデバイス102-1または102-2を用いた1つ以上のディスプレイ画像の描画等を行う。
6.プロセスフロー例
図4Aは、本発明の一例示の実施形態による一例示のプロセスフローを示している。幾つかの例示の実施形態では、1つ以上のコンピューティングデバイスまたは構成要素が、このプロセスフローを実行することができる。ブロック402において、レイヤ化画像エンコーダ(例えば、図2Aの180等)は、1つ以上の多視点非レイヤ化画像に表された3次元(3D)画像空間内の複数の視覚物体の空間ロケーションを記述した空間情報にアクセスする。1つ以上の多視点非レイヤ化画像のそれぞれは、複数の視認方向に対応する複数の単視点非レイヤ化画像を含む。
ブロック404において、1つ以上の多視点非レイヤ化画像に表された3D画像空間内の複数の視覚物体の空間ロケーションを記述した空間情報に基づいて、レイヤ化画像エンコーダ180は、1つ以上の多視点非レイヤ化画像から、複数の視覚物体における1つ以上の視覚物体の第1の真部分集合を描写する1つ以上のシングルレイヤシネマ画像を含むシネマ画像レイヤを生成する。
ブロック406において、1つ以上の多視点非レイヤ化画像に表される3D画像空間内の複数の視覚物体の空間ロケーションを記述した空間情報に基づいて、レイヤ化画像エンコーダ180は、1つ以上の多視点非レイヤ化画像から1つ以上のデバイス画像レイヤを生成する。これらのデバイス画像レイヤのそれぞれは、複数の視覚物体における1つ以上の視覚物体の1つ以上の第2の真部分集合を描写する1つ以上のシングルレイヤデバイス画像を含む。
ブロック408において、レイヤ化画像エンコーダ180は、シネマ画像レイヤにおける1つ以上のシングルレイヤシネマ画像と、1つ以上のデバイス画像レイヤにおける1つ以上のシングルレイヤデバイス画像とを含む多レイヤ多視点ビデオ信号を、描画を行う1つ以上の下流側デバイスに送信する。
一実施形態では、空間情報は、深度情報、ディスパリティ情報、視差情報、3Dメッシュ情報、エピポーラ情報、テンソルマップ情報等のうちの1つ以上を表す。
一実施形態では、3D画像空間は、1つ以上の実世界シーン、1つ以上の仮想世界シーン、1つ以上の実世界シーンおよび1つ以上の仮想世界シーンの組み合わせ等のうちの1つを表す。
一実施形態では、1つ以上の多視点非レイヤ化画像に表される3D画像空間における複数の視覚物体は、1つ以上のレイヤ分離面を用いて、シネマ画像レイヤと1つ以上のデバイス画像レイヤとに分離される。一実施形態では、1つ以上のレイヤ分離面のうちの少なくとも1つは、シネマ画像レイヤにおけるシングルレイヤシネマ画像から生成されたシネマディスプレイ画像を描画するために用いられるシネマディスプレイと一致する。一実施形態では、1つ以上のレイヤ分離面のいずれも、シネマ画像レイヤにおけるシングルレイヤシネマ画像から生成されたシネマディスプレイ画像を描画するために用いられるシネマディスプレイと一致しない。
一実施形態では、シネマ画像レイヤにおけるシングルレイヤシネマ画像および1つ以上のデバイス画像レイヤにおけるシングルレイヤデバイス画像のうちの少なくとも1つは、テンソルマップを用いて生成された3Dピクセル分布を用いて生成される。
一実施形態では、1つ以上の多視点非レイヤ化画像に表される3D画像空間内の複数の視覚物体は、3D基準空間内のディスプレイの空間ロケーション;3D基準空間内の基準空間ロケーションにおける鑑賞者の空間ロケーション;ディスプレイもしくは鑑賞者の空間ロケーションに対する3D基準空間に投影される視覚物体の空間位置;鑑賞者(112-0)に対する3D基準空間内の視覚物体の空間方向;視覚物体の相対的な芸術的重要性;視覚物体の視覚的性質;視覚物体の運動特性;視覚物体の過去、現在もしくは未来の空間ロケーション;視覚物体の過去、現在または未来の空間方向等、のうちの1つ以上に基づいてシネマ画像レイヤと1つ以上のデバイス画像レイヤとに分離される。
図4Bは、本発明の一例示の実施形態による一例示のプロセスフローを示している。幾つかの例示の実施形態では、1つ以上のコンピューティングデバイスまたは構成要素が、このプロセスフローを実行することができる。ブロック452において、拡張型エンターテインメントシステム(例えば、図2A、図2Bまたは図2Cに示すもの等)は、シネマ画像レイヤにおける1つ以上のシングルレイヤシネマ画像と、1つ以上のデバイス画像レイヤにおける1つ以上のシングルレイヤデバイス画像とを含む多レイヤ多視点ビデオ信号を受信する。これらのシネマ画像レイヤにおけるシングルレイヤシネマ画像と、1つ以上のデバイス画像レイヤにおけるシングルレイヤデバイス画像とは、1つ以上の多視点非レイヤ化画像から事前に得られたものである。
ブロック454において、拡張型エンターテインメントシステムは、多レイヤ多視点ビデオ信号のシネマ画像レイヤから、1つ以上のシングルレイヤシネマ画像を取り出す。これらの1つ以上のシングルレイヤシネマ画像は、1つ以上の多視点非レイヤ化画像によって当初描写されていた複数の視覚物体における1つ以上の視覚物体の第1の真部分集合を描写する。
ブロック456において、拡張型エンターテインメントシステムは、多レイヤ多視点ビデオ信号の1つ以上のデバイス画像レイヤから、1つ以上のシングルレイヤデバイス画像を取り出し、当該1つ以上のデバイス画像は、1つ以上の多視点非レイヤ化画像によって当初描写されていた複数の視覚物体における1つ以上の視覚物体の1つ以上の第2の真部分集合を描写する。
ブロック458において、拡張型エンターテインメントシステムは、1つ以上のシングルレイヤシネマ画像に描写される視覚物体の第1の真部分集合を3D空間内のシネマディスプレイ上に鑑賞者に対して描画する。
ブロック460において、拡張型エンターテインメントシステムは、1つ以上のシングルレイヤデバイス画像に描写される視覚物体の1つ以上の第2の真部分集合を3D空間内のデバイスディスプレイ上に鑑賞者に対して同時に描画する。
一実施形態では、シネマディスプレイ上に描画される視覚物体の第1の真部分集合と、デバイスディスプレイ上に描画される視覚物体の1つ以上の第2の真部分集合とは、1つ以上の多視点非レイヤ化画像によって当初描写されていた3D画像空間内の同じ空間ロケーションに位置する複数の視覚物体をひとまとめにして描写する。一実施形態では、複数の視覚物体が位置する3D画像空間内の空間ロケーションを記述した空間情報が事前に用いられて、1つ以上の多視点非レイヤ化画像によって当初描写されていた複数の視覚物体が、シネマ画像レイヤと1つ以上のデバイス画像レイヤとに分割されている。
一実施形態では、デバイスディスプレイは、シネマディスプレイに対して1以上の自由度で空間的に移動可能である。
一実施形態では、デバイスディスプレイは、ウェアラブルデバイスによって用いられて画像を描画し、デバイスディスプレイは、ウェアラブルデバイスに対して空間的に固定されている。
一実施形態では、シネマディスプレイは静止ディスプレイであり、デバイスディスプレイは、鑑賞者によって用いられるウェアラブルデバイスのヘッドマウントディスプレイを表す。
一実施形態では、3D空間内のシネマディスプレイは、3D画像空間内のレイヤ分離面を画定するために用いられ、複数の視覚物体は、レイヤ分離面に対する複数の視覚物体の空間関係に少なくとも部分的に基づいて、視覚物体の第1の真部分集合と視覚物体の1つ以上の第2の真部分集合とに分割される。
一実施形態では、視覚物体の1つ以上の第2の真部分集合は、レイヤ分離面までの空間距離に基づいて複数の視覚物体の中から選択される。
一実施形態では、複数の視覚物体の中の少なくとも1つの視覚物体は、レイヤ分離面にまたがり、視覚物体の第1の真部分集合は、少なくとも1つの視覚物体の一部分を含み、視覚物体の1つ以上の第2の真部分集合は、当該少なくとも1つの視覚物体の残りの部分を含む。
一実施形態では、シネマディスプレイは、3D空間内のゼロの視差の空間表面を表し、シネマディスプレイの背後におけるシネマディスプレイ画像によって描写された視覚物体は正の視差を有し、シネマディスプレイの前面におけるシネマディスプレイ画像によって描写された視覚物体は負の視差を有し、複数の視覚物体は、複数の視覚物体における個々の視覚物体の個々の視差に基づいて、視覚物体の第1の真部分集合と、視覚物体の1つ以上の第2の真部分集合とに分割される。
一実施形態では、視覚物体の1つ以上の第2の真部分集合が、シネマディスプレイ上に描画されたシネマディスプレイ画像によって描画される場合に、視覚物体の1つ以上の第2の真部分集合における全ての視覚物体は負の視差を有する。
一実施形態では、視覚物体の1つ以上の第2の真部分集合が、シネマディスプレイ上に描画されたシネマディスプレイ画像によって描画される場合に、視覚物体の1つ以上の第2の真部分集合における少なくとも1つの視覚物体は正の視差を有する。
一実施形態では、拡張型エンターテインメントシステムは、1つ以上のシングルレイヤデバイス画像に描写された視覚物体の1つ以上の第2の真部分集合における視覚物体の2つの異なる真部分集合を、鑑賞者への2つの異なる距離の2つの異なる画像平面におけるデバイスディスプレイ上に描画することを実行するように更に構成されている。
一実施形態では、デバイスディスプレイは、鑑賞者の両眼転導角度に基づいて調節可能な距離の画像平面においてデバイスディスプレイ画像を描画する。
一実施形態では、デバイスディスプレイは、鑑賞者に対して固定された距離の画像平面においてデバイスディスプレイ画像を描画する。
一実施形態では、拡張型エンターテインメントシステムは、デバイスディスプレイを備えるウェアラブルデバイスの特定の空間位置または特定の空間方向のうちの1つ以上に基
づく空間変換を用いて、1つ以上のシングルレイヤデバイス画像をデバイスディスプレイ画像に適合させることを行うように更に構成されている。
一実施形態では、空間変換は、1つ以上の多視点非レイヤ化画像からシネマ画像レイヤおよび1つ以上のデバイス画像レイヤを生成するのに事前に用いられたテンソルモデルを再構築する。
一実施形態では、シネマディスプレイ上に描画されたシネマディスプレイ画像は、2次元画像または3D画像のうちの一方を表す。
一実施形態では、デバイスディスプレイを備えるウェアラブルデバイスは、シネマ画像コンテンツがシネマディスプレイ上に描画されているときに同時に描画されるデバイス画像コンテンツを受信するメディアシステムに自動的に登録される3D空間内の複数のウェアラブルデバイスの中の1つである。一実施形態では、ウェアラブルデバイスは、ウェアラブルデバイスの鑑賞者に発行された特定のチケットに基づく特定の座席位置、シネマ画像コンテンツもしくはシネマディスプレイの周囲の空間エリアに組み込まれた基準マーカー、デバイスID情報を用いて符号化された光線、無線周波数(RF)ロケーション検出、または3D空間内の視聴者エリアの特定のゾーン等のうちの1つ以上に基づいてメディアシステムに自動的に登録される。
一実施形態では、デバイスディスプレイを備えるウェアラブルデバイスは、3D空間内の視聴者エリアにおいて複数のゾーンに分割された3D空間内の複数のウェアラブルデバイスの中の1つであり、複数のゾーンにおける第1のゾーン内の第1のウェアラブルデバイスは、第1のデバイス画像コンテンツサーバ(例えば、第1のデバイス画像レンダラ等)からデバイス画像コンテンツを受信し、複数のゾーンにおける第2のゾーン内の第2のウェアラブルデバイスは、第2のデバイス画像コンテンツサーバ(例えば、第2のデバイス画像レンダラ等)からデバイス画像コンテンツを受信する。
一実施形態では、拡張型エンターテインメントシステムは、3D空間内の1つ以上の空間設置ロケーションに設置されたデバイスセンサーアセンブリを用いてウェアラブルデバイスを追跡することを行うように更に構成されている。一実施形態では、デバイスセンサーアセンブリのうちの少なくとも1つは、3D空間内の天井、壁、床、シネマディスプレイに近い空間エリア、シネマディスプレイから離れた空間エリア、座席空間、または座席の裏側のうちの1つにある。
様々な例示の実施形態では、装置、システム、装置、または1つ以上の他のコンピューティングデバイスが、説明した上記方法のうちの任意のものまたは一部を実行する。一実施形態では、非一時的なコンピュータ読み取り可能な記憶媒体が、1つ以上のプロセッサによって実行されると、本明細書において説明した方法の動作を生じさせるソフトウェア命令を記憶する。
個別の実施形態が本明細書において論述されているが、本明細書において論述した実施形態および/または部分的な実施形態を任意に組み合わせて、更なる実施形態を形成することができることに留意されたい。
7.実装メカニズム-ハードウェア概要
1つの実施形態によれば、本明細書において説明される技法は、1つ以上の専用コンピューティングデバイスによって実施される。専用コンピューティングデバイスは、上記技法を実行するように配線接続することができ、または、上記技法を実行するように永続的にプログラムされる、1つ以上の特定用途向け集積回路(ASIC)またはフィールドプ
ログラマブルゲートアレイ(FPGA)等のデジタル電子デバイスを含むことができ、または、ファームウェア、メモリ、他の記憶装置または組み合わせにおいてプログラム命令に従って上記技法を実行するようにプログラムされた、1つ以上の汎用ハードウェアプロセッサを含むことができる。こうした専用コンピューティングデバイスはまた、カスタムプログラミングによりカスタム配線論理、ASICまたはFPGAを結合して、上記技法を実現することもできる。専用コンピューティングデバイスは、上記技法を実施する配線および/またはプログラム論理を組み込んだ、デスクトップコンピュータシステム、ポータブルコンピュータシステム、ハンドヘルドデバイス、ネットワーキングデバイス、または他の任意のデバイスとすることができる。
例えば、図5は、本発明の一例示の実施形態を実施することができるコンピュータシステム500を示すブロック図である。コンピュータシステム500は、情報を通信するバス502または他の通信メカニズムと、バス502と結合された情報処理用のハードウェアプロセッサ504とを備える。ハードウェアプロセッサ504は、例えば、汎用マイクロプロセッサとすることができる。
コンピュータシステム500は、情報と、プロセッサ504によって実行される命令とを記憶する、バス502に結合されたランダムアクセスメモリ(RAM)または他の動的記憶デバイス等のメインメモリ506も備える。メインメモリ506は、プロセッサ504によって実行される命令の実行中に一時変数または他の中間情報を記憶するために用いることもできる。そのような命令は、プロセッサ504にアクセス可能な非一時的な記憶媒体に記憶されると、コンピュータシステム500を、それらの命令において指定された動作を実行するようにカスタマイズされた専用マシンにする。
コンピュータシステム500は、プロセッサ504の静的情報および命令を記憶する、バス502に結合されたリードオンリーメモリ(ROM)508または他の静的記憶デバイスを更に備える。
情報および命令を記憶する磁気ディスクまたは光ディスク、固体RAM等の記憶デバイス510が設けられ、バス502に結合されている。
コンピュータシステム500は、情報をコンピュータユーザーに表示する液晶ディスプレイ等のディスプレイ512にバス502を介して結合することができる。英数字キーおよび他のキーを備える入力デバイス514は、情報およびコマンド選択をプロセッサ504に通信するバス502に結合される。別のタイプのユーザー入力デバイスは、方向情報およびコマンド選択をプロセッサ504に通信し、ディスプレイ512上でのカーソル移動を制御するマウス、トラックボール、またはカーソル方向キー等のカーソルコントロール516である。この入力デバイスは、通常、このデバイスが平面内の位置を指定することを可能にする第1の軸(例えばx)および第2の軸(例えばy)の2つの軸における2自由度を有する。
コンピュータシステム500は、コンピュータシステムと組み合わさってコンピュータシステム500を専用マシンとなるようにし、またはそのようにプログラムするカスタマイズされた配線論理、1つ以上のASICもしくはFPGA、ファームウェアおよび/またはプログラム論理を用いて、本明細書において説明した技法を実施することができる。1つの実施形態によれば、本明細書における技法は、プロセッサ504が、メインメモリ506に含まれる1つ以上の命令の1つ以上のシーケンスを実行することに応答して、コンピュータシステム500によって実行される。そのような命令は、記憶デバイス510等の別の記憶媒体からメインメモリ506内に読み込むことができる。メインメモリ506に含まれる命令のシーケンスの実行によって、プロセッサ504は、本明細書において
説明したプロセスステップを実行する。代替の実施形態では、ソフトウェア命令に代えてまたはソフトウェア命令と組み合わせて配線回路部を用いることができる。
本明細書において、「記憶媒体」という用語は、マシンを特定の方法で動作させるデータおよび/または命令を記憶する任意の非一時的な媒体を指す。そのような記憶媒体は、不揮発性媒体および/または揮発性媒体を含むことができる。不揮発性媒体は、例えば、記憶デバイス510等の光ディスクまたは磁気ディスクを含む。揮発性媒体は、メインメモリ506等のダイナミックメモリを含む。一般的な形態の記憶媒体は、例えば、フロッピーディスク、フレキシブルディスク、ハードディスク、固体ドライブ、磁気テープ、または他の任意の磁気データ記憶媒体、CD-ROM、他の任意の光データ記憶媒体、ホールパターンを有する任意の物理媒体、RAM、PROM、およびEPROM、FLASH-EPROM、NVRAM、他の任意のメモリチップまたはカートリッジを含む。
記憶媒体は、伝送媒体と異なるが、伝送媒体とともに用いることができる。伝送媒体は、記憶媒体の間の情報の転送に関与する。例えば、伝送媒体は、バス502を構成する有線を含む同軸ケーブル、銅線および光ファイバーを含む。伝送媒体は、電波および赤外線のデータ通信中に生成されるような音波または光波の形態も取ることができる。
様々な形態の媒体が、1つ以上の命令の1つ以上のシーケンスを実行のためにプロセッサ504に搬送することに関与することができる。例えば、これらの命令は、最初に、リモートコンピュータの磁気ディスクまたは固体ドライブ上に保持しておくことができる。リモートコンピュータは、命令をそのダイナミックメモリ内にロードすることができ、モデムを用いて命令を、電話線を介して送信することができる。コンピュータシステム500にローカルなモデムは、電話線上でデータを受信することができ、赤外線送信機を用いて、データを赤外線信号に変換することができる。赤外線検出器は、赤外線信号で搬送されたデータを受信することができ、適切な回路部は、そのデータをバス502上に置くことができる。バス502は、データをメインメモリ506に搬送し、このメインメモリから、プロセッサ504は命令を取り出して実行する。メインメモリ506によって受信された命令は、任意選択で、プロセッサ504による実行前または実行後に記憶デバイス510に記憶することができる。
コンピュータシステム500は、バス502に結合された通信インターフェース518も備える。通信インターフェース518は、ローカルネットワーク522に接続されたネットワークリンク520に結合する2方向データ通信を提供する。例えば、通信インターフェース518は、サービス統合デジタル網(ISDN)カード、ケーブルモデム、衛星モデム、または対応するタイプの電話線へのデータ通信接続を提供するモデムとすることができる。別の例として、通信インターフェース518は、互換性LANにデータ通信接続を提供するローカルエリアネットワーク(LAN)カードとすることができる。無線リンクも実施することができる。そのような実施態様ではいずれも、通信インターフェース518は、様々なタイプの情報を表すデジタルデータストリームを搬送する電気信号、電磁信号または光信号を送受信する。
ネットワークリンク520は、通常、他のデータデバイスへの1つ以上のネットワークを通じたデータ通信を提供する。例えば、ネットワークリンク520は、ホストコンピュータ524またはインターネットサービスプロバイダー(ISP)526によって稼働されるデータ機器へのローカルネットワーク522を通じた接続を提供することができる。さらに、ISP526は、今日「インターネット」528と一般に呼ばれている世界規模のパケットデータ通信ネットワークを通じてデータ通信サービスを提供する。ローカルネットワーク522およびインターネット528は、ともに、デジタルデータストリームを搬送する電気信号、電磁信号または光信号を用いる。コンピュータシステム500へのデ
ジタルデータおよびコンピュータシステム500からのデジタルデータを搬送する様々なネットワークを通る信号並びにネットワークリンク520上の信号および通信インターフェース518を通る信号は、伝送媒体の例示の形態である。
コンピュータシステム500は、ネットワーク(単数または複数)、ネットワークリンク520および通信インターフェース518を通じて、メッセージを送信し、プログラムコードを含むデータを受信することができる。インターネットの例では、サーバ530は、インターネット528、ISP526、ローカルネットワーク522および通信インターフェース518を通じて、アプリケーションプログラムの要求されたコードを送信することができる。
受信されたコードは、受信された際にプロセッサ504によって実行することができ、および/または、後の実行のために記憶デバイス510もしくは他の不揮発性記憶装置に記憶することができる。
8.均等物、拡張物、代替物、およびその他
この明細書において、態様毎に異なり得る多数の詳細事項に言及しながら本発明の実施形態を説明した。従って、本発明が何たるか、また、本出願人が本発明であると意図するものを示す唯一且つ排他的な指標は、本願が特許になった際の請求の範囲(今後のあらゆる補正を含む、特許された特定の請求項)である。当該請求項に含まれる用語について本明細書中に明示したあらゆる定義が、請求項において使用される当該用語の意味を決定する。よって、請求項において明示されていない限定事項、要素、性質、特徴、利点または属性は、その請求項の範囲をいかなる意味においても限定すべきではない。従って、本明細書および図面は、限定的ではなく、例示的であるとみなされるべきである。

Claims (21)

  1. シネマ画像レイヤにおける1つ以上のシングルレイヤシネマ画像と、1つ以上のデバイス画像レイヤにおける1つ以上のシングルレイヤデバイス画像とを含む多レイヤ多視点ビデオ信号を受信することであって、該シネマ画像レイヤにおける該シングルレイヤシネマ画像と、該1つ以上のデバイス画像レイヤにおける該シングルレイヤデバイス画像とは、1つ以上の多視点非レイヤ化画像から事前に得られていることと、
    前記多レイヤ多視点ビデオ信号の前記シネマ画像レイヤから、前記1つ以上のシングルレイヤシネマ画像を取り出すことであって、該1つ以上のシングルレイヤシネマ画像は、前記1つ以上の多視点非レイヤ化画像によって描写されていた複数の視覚物体における第1視覚物体を描写することと、
    前記多レイヤ多視点ビデオ信号の前記1つ以上のデバイス画像レイヤから、前記1つ以上のシングルレイヤデバイス画像を取り出すことであって、該1つ以上のデバイス画像は、前記1つ以上の多視点非レイヤ化画像によって描写されていた前記複数の視覚物体における1つ以上の第2視覚物体を描写することと、
    前記第1視覚物体および前記第2視覚物体が位置する3D画像空間における空間ロケーションを記述する空間情報を受け取ることと、
    前記1つ以上のシングルレイヤシネマ画像に描写される前記第1視覚物体を3D空間内のシネマディスプレイ上に鑑賞者に対して描画することと、
    前記1つ以上のシングルレイヤデバイス画像に描写される前記1つ以上の第2視覚物体を前記3D空間内のデバイスディスプレイ上に前記鑑賞者に対して同時に描画することと、
    を含む方法。
  2. 前記デバイスディスプレイは、前記シネマディスプレイに対して1以上の自由度で空間的に移動可能である、請求項1に記載の方法。
  3. 前記デバイスディスプレイは、ウェアラブルデバイスによって用いられて画像を描画し、前記デバイスディスプレイは、前記ウェアラブルデバイスに対して空間的に固定されている、請求項1に記載の方法。
  4. 前記シネマディスプレイは静止ディスプレイであり、前記デバイスディスプレイは、前記鑑賞者によって用いられるウェアラブルデバイスのヘッドマウントディスプレイを表す、請求項1に記載の方法。
  5. 前記3D空間内の前記シネマディスプレイは、前記3D画像空間内のレイヤ分離面を画定するために用いられ、前記複数の視覚物体は、前記レイヤ分離面に対する前記複数の視覚物体の空間関係に少なくとも部分的に基づいて、前記第1視覚物体と前記1つ以上の第2視覚物体とに分割される、請求項1に記載の方法。
  6. 前記1つ以上の第2視覚物体は、前記レイヤ分離面までの空間距離に基づいて前記複数の視覚物体の中から選択される、請求項5に記載の方法。
  7. 前記複数の視覚物体の中の少なくとも1つの視覚物体は、前記レイヤ分離面にまたがり、前記第1視覚物体は、前記少なくとも1つの視覚物体の一部分を含み、前記1つ以上の第2視覚物体は、前記少なくとも1つの視覚物体の残りの部分を含む、請求項5に記載の方法。
  8. 前記シネマディスプレイは、前記3D空間内のゼロの視差の空間表面を表し、前記シネマディスプレイの背後におけるシネマディスプレイ画像によって描写された視覚物体は正の視差を有し、前記シネマディスプレイの前面における前記シネマディスプレイ画像によって描写された視覚物体は負の視差を有し、前記複数の視覚物体は、該複数の視覚物体における個々の視覚物体の個々の視差に基づいて、前記第1視覚物体と、前記1つ以上の第2視覚物体とに分割される、請求項1に記載の方法。
  9. 前記1つ以上の第2視覚物体が、前記シネマディスプレイ上に描画されたシネマディスプレイ画像によって描画される場合に、前記1つ以上の第2視覚物体における全ての視覚物体は負の視差を有する、請求項8に記載の方法。
  10. 前記1つ以上の第2視覚物体が、前記シネマディスプレイ上に描画されたシネマディスプレイ画像によって描画される場合に、前記1つ以上の第2視覚物体における少なくとも1つの視覚物体は正の視差を有する、請求項8に記載の方法。
  11. 前記1つ以上のシングルレイヤデバイス画像に描写される前記1つ以上の第2視覚物体における視覚物体の2つの異なる部分集合を、前記鑑賞者に対して、2つの異なる距離の2つの異なる画像平面において前記デバイスディスプレイ上に描画することを更に含む、請求項1に記載の方法。
  12. 前記デバイスディスプレイは、前記鑑賞者の両眼転導角度に基づいて調節可能な距離の画像平面においてデバイスディスプレイ画像を描画する、請求項1に記載の方法。
  13. 前記デバイスディスプレイは、前記鑑賞者に対して固定された距離の画像平面においてデバイスディスプレイ画像を描画する、請求項1に記載の方法。
  14. 前記デバイスディスプレイを備えるウェアラブルデバイスの特定の空間位置または特定の空間方向のうちの1つ以上に基づく空間変換を用いて、前記1つ以上のシングルレイヤデバイス画像をデバイスディスプレイ画像に適合させることを更に含む、請求項1に記載の方法。
  15. 前記空間変換は、前記1つ以上の多視点非レイヤ化画像から前記シネマ画像レイヤおよび前記1つ以上のデバイス画像レイヤを生成するのに事前に用いられたテンソルモデルを再構築する、請求項14に記載の方法。
  16. 前記シネマディスプレイ上に描画されたシネマディスプレイ画像は、2次元画像または3D画像のうちの一方を表す、請求項1に記載の方法。
  17. 前記デバイスディスプレイを備えるウェアラブルデバイスは、シネマ画像コンテンツが前記シネマディスプレイ上に描画されているときに同時に描画されるデバイス画像コンテンツを受信するメディアシステムに自動的に登録される前記3D空間内の複数のウェアラブルデバイスの中の1つである、請求項1に記載の方法。
  18. 前記ウェアラブルデバイスは、該ウェアラブルデバイスの鑑賞者に発行された特定のチケットに基づく特定の座席位置、シネマ画像コンテンツもしくは前記シネマディスプレイの周囲の空間エリアに組み込まれた基準マーカー、デバイスID情報を用いて符号化された光線、無線周波数(RF)ロケーション検出、または前記3D空間内の視聴者エリアの特定のゾーンのうちの1つ以上に基づいて前記メディアシステムに自動的に登録される、請求項17に記載の方法。
  19. 前記デバイスディスプレイを備えるウェアラブルデバイスは、前記3D空間内の視聴者エリアにおいて複数のゾーンに分割された前記3D空間内の複数のウェアラブルデバイスの中の1つであり、前記複数のゾーンにおける第1のゾーン内の第1のウェアラブルデバイスは、第1のデバイス画像コンテンツサーバからデバイス画像コンテンツを受信し、前記複数のゾーンにおける第2のゾーン内の第2のウェアラブルデバイスは、第2のデバイス画像コンテンツサーバからデバイス画像コンテンツを受信する、請求項1に記載の方法。
  20. 前記3D空間内の1つ以上の空間設置ロケーションに設置されたデバイスセンサーアセンブリを用いて前記デバイスディスプレイを備えるウェアラブルデバイスを追跡することを更に含む、請求項1に記載の方法。
  21. 前記デバイスセンサーアセンブリのうちの少なくとも1つは、前記3D空間内の天井、壁、床、前記シネマディスプレイに近い空間エリア、前記シネマディスプレイから離れた空間エリア、座席空間、または座席の裏側のうちの1つにある、請求項20に記載の方法。
JP2021133460A 2017-04-11 2021-08-18 レイヤ化拡張型エンターテインメント体験 Active JP7263451B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201762484121P 2017-04-11 2017-04-11
US62/484,121 2017-04-11
JP2020012509A JP6932796B2 (ja) 2017-04-11 2020-01-29 レイヤ化拡張型エンターテインメント体験

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2020012509A Division JP6932796B2 (ja) 2017-04-11 2020-01-29 レイヤ化拡張型エンターテインメント体験

Publications (2)

Publication Number Publication Date
JP2021184636A JP2021184636A (ja) 2021-12-02
JP7263451B2 true JP7263451B2 (ja) 2023-04-24

Family

ID=62092275

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2019544632A Active JP6654275B1 (ja) 2017-04-11 2018-04-10 レイヤ化拡張型エンターテインメント体験
JP2020012509A Active JP6932796B2 (ja) 2017-04-11 2020-01-29 レイヤ化拡張型エンターテインメント体験
JP2021133460A Active JP7263451B2 (ja) 2017-04-11 2021-08-18 レイヤ化拡張型エンターテインメント体験

Family Applications Before (2)

Application Number Title Priority Date Filing Date
JP2019544632A Active JP6654275B1 (ja) 2017-04-11 2018-04-10 レイヤ化拡張型エンターテインメント体験
JP2020012509A Active JP6932796B2 (ja) 2017-04-11 2020-01-29 レイヤ化拡張型エンターテインメント体験

Country Status (10)

Country Link
US (3) US10991164B2 (ja)
EP (2) EP3610654B1 (ja)
JP (3) JP6654275B1 (ja)
KR (3) KR102087414B1 (ja)
CN (2) CN113660539B (ja)
BR (2) BR122021006807B1 (ja)
ES (1) ES2902979T3 (ja)
PL (1) PL3610654T3 (ja)
RU (2) RU2722495C1 (ja)
WO (1) WO2018191312A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10726574B2 (en) 2017-04-11 2020-07-28 Dolby Laboratories Licensing Corporation Passive multi-wearable-devices tracking
US11363250B2 (en) 2017-04-11 2022-06-14 Dolby Laboratories Licensing Corporation Augmented 3D entertainment systems
US11882267B2 (en) 2017-04-11 2024-01-23 Dolby Laboratories Licensing Corporation Adapting video images for wearable devices
US11095927B2 (en) * 2019-02-22 2021-08-17 The Nielsen Company (Us), Llc Dynamic watermarking of media based on transport-stream metadata, to facilitate action by downstream entity
TR201910049A2 (tr) * 2019-07-05 2021-01-21 Karinca Teknoloji Ve Ilet San Tic Ltd Sti Üç boyutlu ortam aktarma, yayinlama si̇stemi̇ ve yöntemi̇
US11743559B2 (en) * 2021-01-05 2023-08-29 Mediatek Singapore Pte. Ltd. Methods and systems for derived immersive tracks
WO2023038264A1 (ko) * 2021-09-13 2023-03-16 삼성전자 주식회사 복수의 카메라들로부터 획득된 이미지들에 기반하는 입체 사진을 생성하는 전자 장치 및 그 방법
US20230245373A1 (en) * 2022-01-28 2023-08-03 Samsung Electronics Co., Ltd. System and method for generating a three-dimensional photographic image

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001195601A (ja) 2000-01-13 2001-07-19 Mixed Reality Systems Laboratory Inc 複合現実感提示装置及び複合現実感提示方法並びに記憶媒体
WO2013146385A1 (ja) 2012-03-27 2013-10-03 株式会社ニコン 表示装置及びプログラム
JP2016042680A (ja) 2014-08-19 2016-03-31 セイコーエプソン株式会社 頭部装着型表示装置、画像表示システム、頭部装着型表示装置を制御する方法、および、コンピュータープログラム
JP2018142162A (ja) 2017-02-28 2018-09-13 コニカミノルタ株式会社 画像形成システム

Family Cites Families (62)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6016150A (en) * 1995-08-04 2000-01-18 Microsoft Corporation Sprite compositor and method for performing lighting and shading operations using a compositor to combine factored image layers
US6816158B1 (en) * 1998-10-30 2004-11-09 Lemelson Jerome H Three-dimensional display system
US7580378B2 (en) * 2000-06-06 2009-08-25 Alien Technology Corporation Distance/ranging determination using relative phase data
CA2418089A1 (en) 2000-08-04 2002-02-14 Dynamic Digital Depth Research Pty Ltd. Image conversion and encoding technique
US6803912B1 (en) 2001-08-02 2004-10-12 Mark Resources, Llc Real time three-dimensional multiple display imaging system
US20030038922A1 (en) 2001-08-22 2003-02-27 Ferrell Stanford L. Apparatus and method for displaying 4-D images
JP4188968B2 (ja) 2003-01-20 2008-12-03 三洋電機株式会社 立体視用映像提供方法及び立体映像表示装置
EP1712981A1 (en) * 2005-04-15 2006-10-18 Herman Bailey Interactive augmented reality system
CN101292516A (zh) * 2005-07-06 2008-10-22 米迪尔波得股份有限公司 捕获画面数据的系统和方法
US8094928B2 (en) 2005-11-14 2012-01-10 Microsoft Corporation Stereo video for gaming
US7679641B2 (en) 2006-04-07 2010-03-16 Real D Vertical surround parallax correction
JP5132690B2 (ja) 2007-03-16 2013-01-30 トムソン ライセンシング テキストを3次元コンテンツと合成するシステム及び方法
KR101582142B1 (ko) * 2008-06-06 2016-01-05 톰슨 라이센싱 이미지들의 유사성 검색을 위한 시스템 및 방법
MX2011000728A (es) * 2008-07-21 2011-03-29 Thomson Licensing Dispositivo de codificacion multiestandar para señales de video en 3d.
CN101771830B (zh) 2008-12-30 2012-09-19 华为终端有限公司 立体全景视频流生成方法、设备及视频会议方法和设备
CN102427534B (zh) 2009-01-19 2014-06-18 松下电器产业株式会社 编码方法和编码装置
WO2010085361A2 (en) * 2009-01-26 2010-07-29 Thomson Licensing Frame packing for video coding
US8411746B2 (en) 2009-06-12 2013-04-02 Qualcomm Incorporated Multiview video coding over MPEG-2 systems
BRPI1005171A2 (pt) * 2009-06-17 2019-07-02 Panasonic Corp meio de gravação de informações e dispositivo de reprodução destinado à reprodução de imagens em 3d
KR20110018261A (ko) 2009-08-17 2011-02-23 삼성전자주식회사 텍스트 서브타이틀 데이터 처리 방법 및 재생 장치
US9049431B2 (en) 2009-12-31 2015-06-02 Cable Television Laboratories, Inc. Method and system for generation of captions over stereoscopic 3D images
US8717360B2 (en) * 2010-01-29 2014-05-06 Zspace, Inc. Presenting a view within a three dimensional scene
GB2478156A (en) * 2010-02-26 2011-08-31 Sony Corp Method and apparatus for generating a disparity map for stereoscopic images
WO2012002690A2 (ko) 2010-06-27 2012-01-05 엘지전자 주식회사 디지털 수신기 및 디지털 수신기에서의 캡션 데이터 처리 방법
CN101894267B (zh) 2010-07-06 2012-07-18 清华大学 一种三维对象特征视图选取方法
US9565415B2 (en) 2010-09-14 2017-02-07 Thomson Licensing Method of presenting three-dimensional content with disparity adjustments
BR112013023302A2 (pt) 2011-03-18 2016-12-20 Sony Corp aparelho e método de processamento de imagem
US20130038685A1 (en) 2011-08-12 2013-02-14 Alcatel-Lucent Usa Inc. 3d display apparatus, method and structures
US8941560B2 (en) * 2011-09-21 2015-01-27 Google Inc. Wearable computer with superimposed controls and instructions for external device
CN104272660A (zh) 2011-10-11 2015-01-07 时间游戏公司 用于交互式体验的系统和方法和用于其的控制器
KR101872864B1 (ko) 2011-12-19 2018-06-29 엘지전자 주식회사 전자 기기 및 전자 기기의 제어 방법
EP2795888B1 (en) 2011-12-19 2015-09-23 Dolby Laboratories Licensing Corporation Head-mounted display
CN104160705B (zh) 2012-03-12 2018-11-16 杜比实验室特许公司 三维视觉动态范围编码
US9483853B2 (en) * 2012-05-23 2016-11-01 Glasses.Com Inc. Systems and methods to display rendered images
WO2014007414A1 (en) 2012-07-06 2014-01-09 Lg Electronics Inc. Terminal for increasing visual comfort sensation of 3d object and control method thereof
WO2014016986A1 (ja) 2012-07-27 2014-01-30 Necソフト株式会社 3次元環境共有システム及び3次元環境共有方法
US9717982B2 (en) * 2012-12-21 2017-08-01 Microsoft Technology Licensing, Llc Client rendering of latency sensitive game features
WO2014107066A1 (ko) * 2013-01-04 2014-07-10 삼성전자 주식회사 위상차를 고려한 영상 업샘플링을 이용하는 스케일러블 비디오 부호화 방법 및 장치, 스케일러블 비디오 복호화 방법 및 장치
US8951071B2 (en) 2013-03-15 2015-02-10 Apple Inc. Contact-support mechanism for increased retention force
US10019057B2 (en) 2013-06-07 2018-07-10 Sony Interactive Entertainment Inc. Switching mode of operation in a head mounted display
US10905943B2 (en) * 2013-06-07 2021-02-02 Sony Interactive Entertainment LLC Systems and methods for reducing hops associated with a head mounted system
US9679369B2 (en) 2013-09-12 2017-06-13 Ventana 3D Llc Depth key compositing for video and holographic projection
US9804395B2 (en) 2014-01-29 2017-10-31 Ricoh Co., Ltd Range calibration of a binocular optical augmented reality system
KR20150106380A (ko) * 2014-03-11 2015-09-21 삼성전자주식회사 인터 레이어 비디오 부복호화를 위한 깊이 영상의 예측 모드 전송 방법 및 장치
JP2015210580A (ja) * 2014-04-24 2015-11-24 エイディシーテクノロジー株式会社 表示システム及びウェアラブル機器
US10368098B2 (en) * 2014-06-20 2019-07-30 Samsung Electronics Co., Ltd. Method and device for transmitting prediction mode of depth image for interlayer video encoding and decoding
US10593113B2 (en) * 2014-07-08 2020-03-17 Samsung Electronics Co., Ltd. Device and method to display object with visual effect
US20160103330A1 (en) 2014-10-10 2016-04-14 3DOO, Inc. System and method for adjusting parallax in three-dimensional stereoscopic image representation
KR20180035934A (ko) * 2014-12-23 2018-04-06 메타 컴퍼니 관심 객체의 임의의 깊이에 있는 동일한 평면으로 시각적 조절과 시각적 수렴을 결합시키는 장치, 방법 및 시스템
US20170038598A1 (en) * 2015-03-04 2017-02-09 Jay Song Adjustable optical stereoscopic glasses
CN107660276A (zh) 2015-03-04 2018-02-02 宋杰 可调节光学立体眼镜
CN104899870B (zh) 2015-05-15 2017-08-25 清华大学深圳研究生院 基于光场数据分布的深度估计方法
US10078917B1 (en) 2015-06-26 2018-09-18 Lucasfilm Entertainment Company Ltd. Augmented reality simulation
KR20180084749A (ko) * 2015-09-17 2018-07-25 루미, 인코퍼레이티드 멀티뷰 디스플레이 및 관련 시스템과 방법
US10511895B2 (en) 2015-10-09 2019-12-17 Warner Bros. Entertainment Inc. Cinematic mastering for virtual reality and augmented reality
US10330935B2 (en) 2016-09-22 2019-06-25 Apple Inc. Predictive, foveated virtual reality system
US10928638B2 (en) 2016-10-31 2021-02-23 Dolby Laboratories Licensing Corporation Eyewear devices with focus tunable lenses
US10726574B2 (en) 2017-04-11 2020-07-28 Dolby Laboratories Licensing Corporation Passive multi-wearable-devices tracking
US11363250B2 (en) 2017-04-11 2022-06-14 Dolby Laboratories Licensing Corporation Augmented 3D entertainment systems
US11882267B2 (en) 2017-04-11 2024-01-23 Dolby Laboratories Licensing Corporation Adapting video images for wearable devices
GB2566744B (en) * 2017-09-26 2021-03-03 Sony Interactive Entertainment Inc Head-mountable display system
US10893261B2 (en) * 2017-12-06 2021-01-12 Dolby Laboratories Licensing Corporation Positional zero latency

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001195601A (ja) 2000-01-13 2001-07-19 Mixed Reality Systems Laboratory Inc 複合現実感提示装置及び複合現実感提示方法並びに記憶媒体
WO2013146385A1 (ja) 2012-03-27 2013-10-03 株式会社ニコン 表示装置及びプログラム
JP2016042680A (ja) 2014-08-19 2016-03-31 セイコーエプソン株式会社 頭部装着型表示装置、画像表示システム、頭部装着型表示装置を制御する方法、および、コンピュータープログラム
JP2018142162A (ja) 2017-02-28 2018-09-13 コニカミノルタ株式会社 画像形成システム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ALJOSCHA SMOLIC et al.,Three-Dimensional Video Postproduction and Processing,Proceedings of the IEEE,2011年04月,Vol.99, No.4,pp.607-625

Also Published As

Publication number Publication date
CN113660539A (zh) 2021-11-16
ES2902979T3 (es) 2022-03-30
US10991164B2 (en) 2021-04-27
CN111406412A (zh) 2020-07-10
EP3988187A1 (en) 2022-04-27
RU2722495C1 (ru) 2020-06-01
US11893700B2 (en) 2024-02-06
CN113709439A (zh) 2021-11-26
CN111406412B (zh) 2021-09-03
JP2021184636A (ja) 2021-12-02
EP3610654A1 (en) 2020-02-19
KR20200113031A (ko) 2020-10-05
US11361520B2 (en) 2022-06-14
RU2020117045A3 (ja) 2020-09-02
KR20190100420A (ko) 2019-08-28
JP2020512723A (ja) 2020-04-23
JP6654275B1 (ja) 2020-02-26
RU2020117045A (ru) 2020-07-27
KR102279143B1 (ko) 2021-07-19
BR112019016820B1 (pt) 2022-05-24
KR102161734B1 (ko) 2020-10-05
WO2018191312A1 (en) 2018-10-18
EP3610654B1 (en) 2021-11-17
JP6932796B2 (ja) 2021-09-08
CN113660539B (zh) 2023-09-01
KR20200026328A (ko) 2020-03-10
BR122021006807B1 (pt) 2022-08-30
US20210319623A1 (en) 2021-10-14
PL3610654T3 (pl) 2022-02-14
BR112019016820A2 (pt) 2020-04-07
KR102087414B1 (ko) 2020-03-11
US20220254126A1 (en) 2022-08-11
US20200388077A1 (en) 2020-12-10
JP2020123952A (ja) 2020-08-13
RU2743518C2 (ru) 2021-02-19
EP3988187B1 (en) 2023-10-18

Similar Documents

Publication Publication Date Title
JP7263451B2 (ja) レイヤ化拡張型エンターテインメント体験
US11363240B2 (en) System and method for augmented reality multi-view telepresence
US11711504B2 (en) Enabling motion parallax with multilayer 360-degree video
Fuchs et al. Immersive 3D telepresence
CN108693970B (zh) 用于调适可穿戴装置的视频图像的方法和设备
US20230179756A1 (en) Information processing device, information processing method, and program
CN113709439B (zh) 用于渲染视觉对象的方法、装置及系统
TW202046716A (zh) 表示場景之影像信號
WO2021130406A1 (en) Method for a telepresence system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210819

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220926

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221004

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230328

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230412

R150 Certificate of patent or registration of utility model

Ref document number: 7263451

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150