JP2020523957A - マルチ・ビュー・コンテンツを観察するユーザに情報を提示する方法及び機器 - Google Patents

マルチ・ビュー・コンテンツを観察するユーザに情報を提示する方法及び機器 Download PDF

Info

Publication number
JP2020523957A
JP2020523957A JP2020518129A JP2020518129A JP2020523957A JP 2020523957 A JP2020523957 A JP 2020523957A JP 2020518129 A JP2020518129 A JP 2020518129A JP 2020518129 A JP2020518129 A JP 2020518129A JP 2020523957 A JP2020523957 A JP 2020523957A
Authority
JP
Japan
Prior art keywords
user
head
area
trigger
positioning area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020518129A
Other languages
English (en)
Other versions
JP7293208B2 (ja
JP2020523957A5 (ja
Inventor
ラングロワ,トリスタン
カービリウ,ポール
アリエ,ヴァレリー
Original Assignee
インターデジタル シーイー パテント ホールディングス
インターデジタル シーイー パテント ホールディングス
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by インターデジタル シーイー パテント ホールディングス, インターデジタル シーイー パテント ホールディングス filed Critical インターデジタル シーイー パテント ホールディングス
Publication of JP2020523957A publication Critical patent/JP2020523957A/ja
Publication of JP2020523957A5 publication Critical patent/JP2020523957A5/ja
Application granted granted Critical
Publication of JP7293208B2 publication Critical patent/JP7293208B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/31Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

ユーザの頭の位置に応じて、画面(106)に表示されるマルチ・ビュー・コンテンツを観察するユーザに情報を提示するのに適した機器であって、−表示されたマルチ・ビュー・コンテンツを観察するための位置決め区域を生成するための手段(104B)と、−位置決め区域内に少なくとも部分的に配置されたトリガ領域を画定するための手段(104C)と、−ユーザの頭の位置が前記トリガ領域内に位置付けられるとき、1つ又は複数のインセンティブ効果をトリガして、ユーザが位置決め区域内に留まるよう促すための手段(104D)とを備える、機器。

Description

技術分野
本開示は、マルチ・ビュー・コンテンツのレンダリングに関する。本開示は、詳細には、ユーザの位置に応じた、表示画面へのマルチ・ビュー・マルチメディア・コンテンツのレンダリングを対象とするが、それだけに限定されるものではない。
背景
このセクションは、技術の様々な態様を読者に紹介するものであり、これらの態様は、以下で説明され、及び/又は特許請求の範囲に記載されている本開示の様々な態様に関連していてもよい。本開示の様々な態様の理解がさらに進むよう、読者に背景情報を提示する際に、この考察が有益であると考えられる。したがって、こうした説明は、この観点から読むべきであり、従来技術を認めるものとして読むべきではないことを理解されたい。
マルチ・ビュー・コンテンツ(いわゆる、ライト・フィールド・コンテンツ)、静止画像、又はビデオは、複数の別個のカメラから構成される固定カメラ・アレイ、又はイメージ・センサの前方に配置されたマイクロレンズのアレイによって形成されたプレノプティック・カメラなど、ライト・フィールド取得システムによって得ることができる。ライト・フィールド・ビデオの各フレーム、又はそれぞれのライト・フィールド画像において、ライト・フィールド取得システムは、1組のマルチ・ビュー、1組の奥行きマップ、及び関連するシステム取得パラメータを提供することが可能である。
既知の表示画面(たとえば、2D TV画面)上にライト・フィールド・コンテンツをレンダリングするとき、ユーザは、このライト・フィールド・コンテンツによって提供される視差機能の恩恵を受けることができ、視差レンダリング効果及び仮想現実(VR)体験を実現する。この視差効果は、奥行き感を与え、対象物の大きさ又はシーンの特徴をユーザが感じるようにさせる。
ライト・フィールド取得システム及びユーザの位置(具体的には、ユーザの頭又は目)に応じて、シーンの対象範囲には何からの制限を伴う場合があり、したがってユーザは縁部での孔又は黒色の表面を知覚することになる。
本開示は、これまでに述べたことを念頭に置いて考案されてきた。
概要
一般的な形式では、本開示は、ユーザの頭の位置に応じた、表示画面へのマルチ・ビュー・コンテンツの表示に関連付けられるように構成された方法に関し、前記方法は、
−表示されたマルチ・ビュー・コンテンツを観察するための位置決め区域を生成することと、
−この位置決め区域内に少なくとも部分的に配置されたトリガ領域を画定することと、
−ユーザの頭の位置が前記トリガ領域内に位置付けられるとき、1つ又は複数のインセンティブ効果をトリガして、ユーザが位置決め区域内に留まるよう促すことと
を含む。
一実施形態では、位置決め区域とトリガ領域は両方とも、ピラミッド形状を有することができる。
一実施形態では、1つ又は複数のインセンティブ効果は、
−前記トリガ領域内のユーザの頭の位置に応じて表示画面を暗くするための減光効果と、
−このトリガ領域内でのユーザの頭の動きに関連付けられる視差効果の強度を適応させるための視差強度効果と、
−表示画面上での方向を示す1つ又は複数の視覚的合図と
のうち、少なくとも1つを含むことができる。
一実施形態では、トリガ領域内に位置付けられたユーザの頭の位置に関連付けられる画角が増すと、この減光効果は増大することがある。
一実施形態では、この減光効果は、ユーザの頭の位置の画角とともに直線的に増大することがある。
一実施形態では、トリガ領域内に位置付けられたユーザの頭の位置に関連付けられる画角が増すと、視差強度効果は、画面に表示されるマルチ・ビュー・コンテンツに現れる各要素の移動速度を低下させることができる。
一実施形態では、1つ又は複数のインセンティブ効果は、可逆性とすることができる。
一実施形態では、マルチ・ビュー・コンテンツは取得装置によって取得されており、この取得装置の1つ又は複数の得られた取得パラメータ、及び表示画面の1つ又は複数の得られたパラメータに基づいて、位置決め区域を確立することができる。
一実施形態では、取得装置の水平画角、及び取得装置の垂直画角によって、位置決め区域のピラミッド形状を画定することができる。
一実施形態では、このピラミッド形状は、表示画面に対して中央に位置することができる。
一実施形態では、位置決め区域は、表示画面からの最小距離によって画定することができる。
一実施形態では、表示画面からの前記最小距離は、
−表示画面の幅及び取得装置の水平画角から得られる水平最小距離と、
−表示画面の高さ及び取得装置の垂直画角から得られる垂直最小距離と
の間の最大距離に対応することができる。
一実施形態では、水平最小距離は、次式から得ることができる。
Figure 2020523957

screenは表示画面の幅であり、αは取得装置の水平画角である。
一実施形態では、垂直最小距離は、次式から得ることができる。
Figure 2020523957

screenは表示画面の高さであり、βは取得装置の垂直画角である。
一実施形態では、位置決め区域は、表示画面からの最大距離によって画定することができる。
一実施形態では、前記最大距離は、ユーザの注視先が位置する場合のある最小高と最大高から得ることができる。
一実施形態では、前記最大距離は、ピラミッド形状と、前記最小高と最大高によって画定される水平帯との交点から得ることができる。
本開示はさらに、ユーザの頭の位置に応じて、画面に表示されるマルチ・ビュー・コンテンツを観察するユーザに情報を提示するのに適した機器に関し、この機器は、
−表示されたマルチ・ビュー・コンテンツを観察するための位置決め区域を確立し、
−この位置決め区域内に少なくとも部分的に配置されたトリガ領域を画定し、
−ユーザの頭の位置が前記トリガ領域内に位置付けられるとき、1つ又は複数のインセンティブ効果をトリガして、ユーザがこの位置決め区域内に留まるよう促す
ように構成された、少なくとも1つのメモリ及び少なくとも1つの処理回路を備える。
本開示はまた、ユーザの頭の位置に応じて、画面に表示されるマルチ・ビュー・コンテンツを観察するユーザに情報を提示するのに適した機器に関し、この機器は、
−表示されたマルチ・ビュー・コンテンツを観察するための位置決め区域を生成するための手段と、
−この位置決め区域内に少なくとも部分的に配置されたトリガ領域を画定するための手段と、
−ユーザの頭の位置が前記トリガ領域内に位置付けられるとき、1つ又は複数のインセンティブ効果をトリガして、ユーザがこの位置決め区域内に留まるよう促すための手段と
を備える。
一実施形態では、位置決め区域とトリガ領域は両方とも、ピラミッド形状を有することができる。
一実施形態では、1つ又は複数のインセンティブ効果は、
−前記トリガ領域内のユーザの頭の位置に応じて表示画面を暗くするための減光効果と、
−このトリガ領域内でのユーザの頭の動きに関連付けられる視差効果の強度を適応させるための視差強度効果と、
−表示画面上での方向を示す1つ又は複数の視覚的合図と
のうち、少なくとも1つを含むことができる。
一実施形態では、トリガ領域内に位置付けられたユーザの頭の位置に関連付けられる画角が増すと、この減光効果は表示画面の明度を増大させることがあり、またその逆のことも言える。
一実施形態では、トリガ領域内に位置付けられたユーザの頭の位置に関連付けられる画角が増すと、視差強度効果は、画面に表示されるマルチ・ビュー・コンテンツに現れる各要素の移動速度を低下させることができる。
一実施形態では、1つ又は複数のインセンティブ効果は、可逆性とすることができる。
一実施形態では、この機器は、位置決め区域及び/又はトリガ区域を表示するように構成することができる。
加えて、本開示はさらに、コンピュータによって読取り可能で、ユーザの頭の位置に応じた、表示画面へのマルチ・ビュー・コンテンツの表示に関連付けられるように構成された方法を実行するための、このコンピュータによって実行可能な命令のプログラムを明白に実施する、持続的なプログラム記憶装置を対象としており、前記方法は、
−表示されたマルチ・ビュー・コンテンツを観察するための位置決め区域を生成することと、
−この位置決め区域内に少なくとも部分的に配置されたトリガ領域を画定することと、
−ユーザの頭の位置が前記トリガ領域内に位置付けられるとき、1つ又は複数のインセンティブ効果をトリガして、ユーザが位置決め区域内に留まるよう促すことと
を含む。
本開示はまた、持続的でコンピュータ読取り可能な媒体に記憶されるコンピュータ・プログラム製品に関し、ユーザの頭の位置に応じた、表示画面へのマルチ・ビュー・コンテンツの表示に関連付けられるように構成された方法を実装するための、プロセッサによって実行可能なプログラム・コード命令を含み、前記方法は、
−表示されたマルチ・ビュー・コンテンツを観察するための位置決め区域を生成することと、
−この位置決め区域内に少なくとも部分的に配置されたトリガ領域を画定することと、
−ユーザの頭の位置が前記トリガ領域内に位置付けられるとき、1つ又は複数のインセンティブ効果をトリガして、ユーザが位置決め区域内に留まるよう促すことと
を含む。
本開示による方法は、プログラム可能な機器でのソフトウェアで実装されてもよい。この方法は、もっぱらハードウェア若しくはソフトウェアで実装してもよく、又はその組合せで実装してもよい。
本開示の各要素によって実装されるプロセスによっては、コンピュータ実装されてもよい。したがって、このような要素は、もっぱらハードウェアの実施形態、もっぱらソフトウェアの実施形態(ファームウェア、常駐ソフトウェア、マイクロコードなどを含む)、又は、本明細書ではすべて一般に「回路」、「モジュール」、若しくは「システム」と呼んでもよい、ソフトウェアとハードウェアの態様を組み合わせた実施形態の形をとってもよい。さらに、このような要素は、媒体に組み込まれたコンピュータ使用可能なプログラム・コードを有する表現式の任意の有形媒体に組み込まれたコンピュータ・プログラム製品の形をとってもよい。
本開示の各要素はソフトウェアで実装することができるので、本開示は、任意の適切な搬送媒体上のプログラム可能な機器に提供するためのコンピュータ読取り可能なコードとして実施することができる。有形の搬送媒体は、フロッピー・ディスク、CD−ROM、ハード・ディスク・ドライブ、磁気テープ装置、又は固体記憶装置などの記憶媒体を含んでもよい。
したがって、本開示は、前述の方法をコンピュータが実行できるようにするコンピュータ実行可能な命令を含む、コンピュータ読取り可能なプログラムを提供する。
開示された各実施形態と範囲が同等の、特定の態様を以下に説明する。こうした態様は、本開示がとり得る特定の形態の概要を、読者に提供するためだけに提示されるものであり、こうした態様が本開示の範囲を限定するものではないことを理解されたい。実際、本開示は、以下に説明されていない場合もある様々な態様を包含してもよい。
添付図を参照して、決して限定的ではない以下の実施形態及び実行例によって、本開示がより良好に理解され、また例示されよう。
図面の簡単な説明
本開示の1つ又は複数の実施形態を実装してもよい、使用される例示的なレンダリング・システムの概略図である。 OpenGL表現において使用される座標系を示す。 いくつかの実施形態に従って、ユーザの頭の位置に応じて図1Aのレンダリング・システムによって表示されるマルチ・ビュー・コンテンツの4つの投影図を示す。 いくつかの実施形態に従って、ユーザの頭の位置に応じて図1Aのレンダリング・システムによって表示されるマルチ・ビュー・コンテンツの4つの投影図を示す。 いくつかの実施形態に従って、ユーザの頭の位置に応じて図1Aのレンダリング・システムによって表示されるマルチ・ビュー・コンテンツの4つの投影図を示す。 いくつかの実施形態に従って、ユーザの頭の位置に応じて図1Aのレンダリング・システムによって表示されるマルチ・ビュー・コンテンツの4つの投影図を示す。 表示されたマルチ・ビュー・コンテンツの限界にユーザが達すると、レンダリング・システムの表示画面に表示される黒い帯を示す。 表示されたマルチ・ビュー・コンテンツの限界にユーザが達すると、レンダリング・システムの表示画面に表示される黒い帯を示す。 本開示のいくつかの実施形態によって使用されて位置決め区域を生成する、例示的な方法のフロー・チャートである。 図4の方法の実装から得られる、水平面での位置決め区域を示す。 図4の方法の実装から得られる、垂直面での位置決め区域を示す。 現在の位置決め区域が修正されると、図1Aのレンダリング・システムによるマルチ・ビュー・コンテンツの表示を適応させるように、本開示のいくつかの実施形態によって使用される例示的な方法のフロー・チャートを示す。 いくつかの実施形態に従って現在の位置決め区域に適用されるいくつかの修正(奥行き変換及びスケーリング)を示す。 いくつかの実施形態に従って現在の位置決め区域に適用されるいくつかの修正(奥行き変換及びスケーリング)を示す。 いくつかの実施形態に従って現在の位置決め区域に適用されるいくつかの修正(奥行き変換及びスケーリング)を示す。 本開示のいくつかの実施形態によって使用されて、図1のレンダリング装置によって表示されるマルチ・ビュー・コンテンツを観察するユーザが位置決め区域に留まるよう促す、例示的な方法のフロー・チャートである。 位置決め区域に関連付けられる例示的なトリガ領域の一例を示す。 ユーザの頭の画角と、図1のレンダリング・システムの表示画面の暗さとの間の関係を示す例示的な曲線を示す。 計算角度と、ユーザの頭の位置に関連付けられる画角とをリンクする例示的な曲線を示す。
詳細な説明
可能な限り、同じ又は同様の部分を指すために、各図全体を通して同じ参照番号を使用する。
以下の説明には、本開示の原理が例示してある。したがって、本明細書では明示的に説明したり、図示したりしないが、本開示の原理を実施し、本開示の範囲内に含まれる様々な構成を、当業者であれば考案できることが理解されよう。
本明細書に記載したあらゆる例及び条件付き文言は、本開示の原理を読者が理解する助けとするための教育目的向けのものであり、具体的に記載したこのような例及び条件に限定されるものではないと解釈すべきである。
さらに、本開示の原理、態様、及び実施形態、並びにその具体的な例を説明する、本明細書におけるあらゆる説明は、その構造的な均等物と機能的な均等物の両方を含むものである。さらに、こうした均等物には、現在知られている均等物並びに将来開発される均等物の両方、すなわち構造はどうであれ同じ機能を実行する任意の開発要素が含まれるものである。
したがって、たとえば、本明細書において提示されたブロック図は、本開示の原理を実施する例示的な回路の概念図を表すことが当業者には理解されよう。同様に、任意のフロー・チャート、流れ図、状態遷移図、擬似コードなどは、実質上コンピュータ読取り可能な媒体で表してもよく、したがって、コンピュータ又はプロセッサが明示的に示してあろうとなかろうと、こうしたコンピュータ又はプロセッサによって実行することができる様々なプロセスを表すことが理解されよう。
各図に示す様々な要素の機能は、専用のハードウェア、並びに適切なソフトウェアに関連してソフトウェアを実行することのできるハードウェアを使用して実現してもよい。プロセッサによって実現されるとき、各機能は、単一の専用プロセッサ、単一の共用プロセッサ、又はそのうちのいくつかが共用されてもよい複数の個々のプロセッサによって実現されてもよい。さらに、用語「プロセッサ」又は「制御装置」を明示的に使用することは、もっぱらソフトウェアを実行することができるハードウェアを指すものと解釈すべきではなく、それだけには限らないが、デジタル信号プロセッサ(DSP)ハードウェア、ソフトウェアを記憶するためのリード・オンリ・メモリ(ROM)、ランダム・アクセス・メモリ(RAM)、及び不揮発性記憶装置を暗に含んでもよい。
本明細書の特許請求の範囲において、指定された機能を実行するための手段及び/又はモジュールとして表される任意の要素は、たとえば、a)その機能を実行する回路素子の組合せ、又は、b)したがって、ソフトウェアを実行してその機能を実行するための適切な回路と組み合わされた、ファームウェア、マイクロコードなどを含む任意の形式でのソフトウェア、を含む機能を実行する任意の方式を包含するものである。したがって、そうした機能を提供できる任意の手段は、本明細書に示してあるものと同等であるとみなされる。
さらに、本開示の各図及び各説明は、本開示を明確に理解するのに関連した要素を例示するように簡略化されてきており、説明を明確にするために、典型的なデジタル・マルチメディア・コンテンツ・デリバリの方法、装置、及びシステムに見られる、数多くの他の要素を省いてあることを理解されたい。しかし、このような要素は当技術分野でよく知られているので、本明細書においては、このような要素の詳細な議論をおこなわない。本明細書での開示は、当業者に知られているこのようなあらゆる変形形態及び修正形態を対象とする。
図1Aには、本開示の1つ又は複数の実施形態を実装してもよい、使用される例示的なレンダリング・システムの概略図が示してある。
このレンダリング・システム1は、取込み装置101、処理機器102、取得装置103、画像投影コンピューティング機器104、及び表示画面106を備えた表示装置105を備える。
画像投影コンピューティング機器104及び表示装置105は、図1Aでは別々に示されてきたが、ともに組み合わせて独立型装置を形成できることを理解されたい。同様に、処理機器は、画像投影コンピューティング機器と一体化することができる。
取込み装置101は、この取込み装置101の前方でユーザの顔を撮影するように構成された、ウェブカメラ、ビデオ・カメラなどによって形成することができる。取込み装置101は、処理機器102と通信するように構成することができる。
処理機器102は、取込み装置101によって取り込まれるマルチメディア・コンテンツ(ビデオなど)を受信するように構成される。受信したこのコンテンツから、処理機器102は、表示画面106に対するユーザの頭の位置を決定することができ、既知の追跡アルゴリズムのおかげでユーザの頭の動きをさらに追跡することができる。
取得装置103は、マルチ・ビュー静止画像又はマルチ・ビュー・ビデオなど、(シーン200に対応する)マルチ・ビュー・コンテンツを取得するように構成される。例示的ではあるが非限定的な例として、この取得装置は、規則正しく配置された複数の別個のカメラから構成された固定カメラ・アレイによって形成することができ、又はイメージ・センサの前方に配置されたマイクロレンズのアレイを含むプレノプティック・カメラによって形成することができる。本発明の原理に準拠した一変形形態又は一補完形態では、この取得装置は、コンピュータ生成画像(CGI)を取得するための仮想取得装置(たとえば、仮想カメラ・アレイ)とすることができる。取得済みの各マルチ・ビュー画像又はマルチ・ビュー・ビデオの各フレームについて、取得装置103は、1組のマルチ・ビュー、1組の奥行きマップ、及び関連するシステム取得パラメータを提供することができる。
画像投影コンピューティング機器104は、処理機器102から、ユーザの頭の位置及び動きに関連付けられるデータと、取得装置103によって配信された取得済みのマルチ・ビュー・コンテンツ(画像又はビデオ)との両方を受信することができる。受信した情報に基づいて、この画像投影コンピューティング機器104は、ユーザの頭の位置に応じて、表示装置105に表示されるマルチ・ビュー・コンテンツの投影を確定するように構成される。
取得済みのマルチ・ビュー・コンテンツ(奥行きマップに関連付けられた互いに異なる1組の画像)の、画面106への投影は、
−取得装置103によって取り込まれるシーン200の3D表現を得るための、元のマルチ・ビュー・コンテンツ(いわゆる、マルチ・ビュー・データすなわちMVD)の非投影と、
−このシーンを適切に視覚化するための変換Hと、
−画面106上のユーザの位置から見た画像を得るための3Dデータの再投影と
の結果である。
取得装置103がカメラ・アレイのとき、それぞれのカメラ用の較正によって以下の2つの行列が推定される。
−投影行列K(固有行列とも呼ばれる)が次式で定義される。
Figure 2020523957

ここで、
・f及びfは、それぞれ水平方向及び垂直方向での、取得装置103の考慮対象のカメラの焦点距離である(単位はピクセルである)。
・c及びcは、光軸とカメラのセンサとの交点の水平座標及び垂直座標である(単位はピクセルである)。
−姿勢行列P(外部行列とも呼ばれる)が次式で定義される。
Figure 2020523957

ここで、
・r11〜r33の各要素が、3Dワールド座標系に対する、考慮対象のカメラの回転を示す3D回転行列を形成する。便宜上、この3Dワールド座標系は、取得装置103の中央に配置されると考えられる。
・T、T、及びTは、3Dワールド座標系に対する、考慮対象のカメラの移動成分である(単位はメートルである)。
取得装置103のカメラのセンサのピクセル(u,v)を考慮すると、その色(基準RGB)及び奥行き(基準z(u,v,c))が利用可能である(画像及び関連する奥行きマップ)。ピクセル(u,v)は、次式を使用することによって、3Dワールド座標系において非投影とすることができる。
Figure 2020523957

ここで、Zuvは、画像内の位置(u,v)でのピクセルの奥行きである。自然画像では、この奥行きは、既知のアルゴリズムを用いて推定されてきた。
以下において、画面106に関連付けられる3D視覚化座標系(CS)は、画面106の中央Oに配置された基準座標系(図1Bでの(X,Y,Z)によって識別される)と考えられ、その寸法は、W_screen/2又はH_screen/2で正規化される(x及びyの寸法は[−1;+1]の範囲で変換される)。
再投影では、投影の以下のOpenGL行列Keyeを使用することができる。
Figure 2020523957

ここで、
−Wscreenは画面の幅であり、Hscreenは画面の高さである。
−(Xeyeeyeeyeは、この3D視覚化CSでのユーザの位置を表す。
−Znearは、目の位置と、シーン内の各ポイントがそれ以下で破棄される平面(z=znear)との間でのz軸に沿った距離である(図1Bには示さず)。
−Zfarは、目の位置と、シーン内の各ポイントがその背後で破棄される平面(z=zfar)との間でのz軸に沿った距離である(図1Bには示さず)。
このようなOpenGL行列は、たとえば、Dave Shreiner、Graham Sellers、John Kessenich - The Khronos OpenGL ARB Working Group - Addison Wesley editorによる「OpenGL Programming Guide 9th edition, Appendix E」の文書に説明してある。
(ユーザの頭の位置に配置された)仮想カメラは、その3D視覚化CSにも配置する必要がある。以下の変換行列Teye(画面106に対するユーザの頭の動きを表す)を使用して、ユーザが画面106に見る画像を計算する。
Figure 2020523957
次式によって、3Dポイントがさらに変換される。
Figure 2020523957

次いで、4Dベクトルを均一にすることによって、表示された画像に投影される。
Figure 2020523957

ここで、Zeyeは、(ユーザの頭に取り付けられた)仮想カメラの座標系において表示される3DポイントのZを定義し、Z’は、表示された画像計算のZバッファに記憶される奥行きである。
マイナス符号は、OpenGL表現において、あらゆる3Dポイントが負のZ値をもつように、Z軸が目に向いているという事実に依存していることに留意されたい。Zeyeの値はメトリック値と一致し、Z’eye=A−B/Zeyeは、Zバッファ・アルゴリズムに好都合な形式でのZの関数である。
ユーザが観察する画面106にMVD形式でのピクセルを投影するには、次式が考慮される。
Figure 2020523957
したがって、レンダリング・システム1によって、ユーザの頭が画面106に近づくほど、取得したシーン200の大部分が見えることになる。ユーザは、画面106から遠ざかるほど、その一部分を目にすることになる。
表示装置105は、テレビ受像機、タブレット、スマートフォン、ラップトップ、PDA、ヘッドマウント装置など、画面を備えた任意の種類の装置とすることができる。
図2A〜図2Dに示すように、レンダリング・システム1は、ユーザの頭の位置に依存する取得済みのマルチ・ビュー・コンテンツの投影を、画面106上に表示することができる。表示されたこの投影はユーザの頭の位置に依存し、レンダリング・システム1は、ユーザの頭の動きに従って、この表示された投影を調整するように構成されている。図2A〜図2Dには、表示画面106に対するユーザの頭の4つの異なる位置に関連付けられる、取得済みの同じシーン200のマルチ・ビュー・コンテンツの投影210A〜210Dの4つの例が示してある。画面106に表示される投影は、ウィンドウを通してユーザが観察するシーン200に対応する。
したがって、レンダリング・システム1は、マルチ・ビュー・コンテンツを画面106に表示するとき、表示装置105の前方でのユーザの頭の位置に応じて視差効果を実現するように構成される。具体的には、視差効果は、シーン200のいくつかの対象物(要素)の相対位置によって定義することができ、こうした位置はユーザによって観察される。各対象物の間の奥行きの差が広がるほど、観察される相対位置が大きく修正されることになる。
表示されたマルチ・ビュー・コンテンツの限界(たとえば、図3A及び図3Bに示すように表示画面の縁部に黒い帯300が表示されるようになる)にユーザが到達するのを防ぐため、本開示は、レンダリング・システム1が取得するマルチ・ビュー・コンテンツを表示画面106上で観察するための、位置決め区域500(いわゆる、図5及び図6に示す快適区域)を生成する方法400(図4に示す)を提案する。
以下において、方法400は、画像投影コンピューティング機器104によって動作する。必然的に、一変形形態又は一補完形態では、表示装置105又は独立型要素(各図には図示せず)などのレンダリング・システム1の別の要素によって、前記方法400を実装することができる。
一実施形態では、図5及び図6に示すように、位置決め区域500は、たとえば表示画面106に対して中央に位置するピラミッド形状を有することができる。
一実施形態では、方法400は、ステップ401において、画像投影コンピューティング機器104による、取得装置103の取得パラメータ及び表示画面106のパラメータの受信を含む。
図5及び図6に示すように、取得パラメータは、取得装置103の水平画角α及び垂直画角βを含むことができる。表示装置105のパラメータはさらに、表示画面106の高さhscreen及び幅wscreenを含むことができる。
方法400はさらに、ステップ402において、たとえば画像投影コンピューティング機器104の専用手段104Aによって、表示画面からの最小距離を決定して位置決め区域500を画定することを含む。
一実施形態では、取得装置103によって取り込まれるマルチ・ビュー・コンテンツのアスペクト比(幅と高さの関係)が、表示画面106に関連付けられるアスペクト比と異なるとき、最小距離zminは、以下2つの距離の間の最大値に対応する。
−たとえば、次式による、表示画面の幅wscreenと取得装置103の水平画角αとから得られる水平最小距離。
Figure 2020523957

−たとえば、次式による、表示画面の高さhscreenと取得装置103の垂直画角βとから得られる垂直最小距離。
Figure 2020523957
一変形形態では、取得装置103によって取り込まれるマルチ・ビュー・コンテンツのアスペクト比が、表示画面106のアスペクト比と同じであるとき、最小距離zminは、前述の水平最小距離に対応し、これは垂直最小距離に等しい。
したがって、位置決め区域500のピラミッド形状の上端部は、最小距離zminで配置され、表示画面106に対して中央に位置する。
図5及び図6に示すように、位置決め区域500のピラミッド形状は、取得装置103の水平画角α及び垂直画角βによって画定される。このピラミッド形状は、長方形のベースを提示することができる。
図6に示すように、一変形形態又は一補完形態では、方法400はさらに、ステップ403において、手段104Aにより、ユーザの注視先が位置する場合のある最小高hminと最大高hmaxから得られる、表示画面106からの最大距離zmaxの確定を含むことができる。前記最大距離zmaxは、ユーザの身長、垂直方向に移動する能力、及び/又は所定の能力に依存することがある。最小高hmin及び最大高hmaxは、たとえば、画像投影コンピューティング機器104又は表示装置105のいずれかによって動作するユーザ・インターフェース(各図には図示せず)を介したユーザ入力に基づいて、画像投影コンピューティング機器104によって決定することができる。たとえば、hmin及びhmaxは、それぞれユーザの身長から所与の値を引いた値と所与の値を足した値に対応することができる(前記所与の値は正又は負である)。一変形形態では、ユーザは、ユーザ・インターフェースを介して、レンダリング・システムにhmin及びhmaxを直接入力することもできる。
図6に示すように、hminとhmaxの間に配置される水平帯600を決定することができる。画像投影コンピューティング機器104はさらに、ピラミッド形状と水平帯600の交点Iから最大距離zmaxを得ることができる。(互いに異なる距離に位置している)2つの異なる交点Iが存在しているとき、zmaxは、表示画面106から最も遠くに配置された交点Iに関連付けられる距離に対応する。最大距離zmaxは、ユーザの頭の位置の動きが一定の振幅になる場合に、視差効果が減衰を開始するときの距離に対応する。
本開示による一実施形態では、マルチ・ビュー・コンテンツを観察するために生成される位置決め区域500を、たとえばユーザ・インターフェースを介して画面106上に表示することができる。
さらなる一実施形態では、図7に示すように、本開示はまた、取得装置103によって取得され、たとえば方法400の実施から現在の位置決め区域500が得られた表示装置105の画面106に表示される、マルチ・ビュー・コンテンツを調整する方法700を提案する。
具体的には、方法700は、ステップ701において、たとえば、専用のユーザ・インターフェース(方法400について説明したものと同じとすることができる)を介してユーザが入力するときの、現在の位置決め区域500の修正を含むことができる。
図8A〜図8Cに示すように、この修正は、
−現在の位置決め区域500の、表示画面106に対する奥行き方向(z)での移動、及び/又は、
−現在の位置決め区域500を画定する水平画角及び垂直画角(α,β)の均一なスケーリングに対応する、水平方向及び垂直方向(x,y)での均一なスケーリングを含むことができる。このスケーリングは、画面106の中央を考慮に入れることによって実行される。現在の位置決め区域には、奥行き方向(z)でのスケーリングが許可されないことに留意されたい。
(これまでに定義された変換Hの行列によって表される)大域的な修正は、ステップ702において、次式で定義される。
Figure 2020523957

ここで、Sxyはスケーリング行列であり、Tは奥行きの移動行列である。
図8A〜図8Cに示すように、奥行きの移動及び均一なスケーリングによって、次式のように、新規の最小距離zcz並びに新規の画角αcz及びβczによって定義される新規の位置決め区域800が生成されることになる。
cz=zmin+|T
αcz=α×Sxy
次式の、ユーザの頭の位置に応じて画面106にマルチ・ビュー・コンテンツを投影するための前述の式を考慮に入れることによって、
Figure 2020523957

新規の変換行列Hを用いて、画像投影コンピューティング機器104は、ステップ703において、表示されたマルチ・ビュー・コンテンツの投影を、新規の位置決め区域800の画定に適合させる。
したがって、たとえばユーザ・インターフェースにより、新規の位置決め区域800がユーザによって拡大されると、表示されたこのマルチ・ビュー・コンテンツは、(たとえばコンピューティング機器104の適合手段104Bによって)適合され、その結果、ユーザは、マルチ・ビュー・コンテンツの表示の限界(黒い帯又は隠れた領域など)に至ることなく、新規の位置決め区域に移動することができる。
前方移動は(すなわち、図8A〜図8Cに示すように、位置決め区域が画面に向かって移動するとき、T<zmin)、現在の位置決め区域を増大させることになる場合があることを理解されたい。
例示的ではあるが非限定的な例では、1組の2重矢印(図示せず)を、画面106がタッチ・スクリーンのときは矢印に触れることによって直接ユーザが選択できるようにその画面に表示することができ、又はキーボード若しくは専用の遠隔制御装置を介して表示することができる。
図9に示すさらなる一実施形態では、本開示はまた、画面106上のマルチ・ビュー・コンテンツを観察しているユーザに対して、このユーザが、対応する位置決め区域500の境界に到達しそうであり、及び/又はこの境界に向けて移動していることを通知する方法900を提案する。前記方法900はさらに、画像投影コンピューティング機器104によって実施することができる。
そのために、方法900は、ステップ901において、前述の方法400に従って、(たとえば、コンピューティング機器104の手段104Aによって)マルチ・ビュー・コンテンツを観察するための位置決め区域500を生成することを含む。
ステップ902において、方法900はさらに、位置決め区域500内に少なくとも部分的に配置されたトリガ領域550を(たとえば、コンピューティング機器104のモジュール104Cによって)画定することを含む。一変形形態では、このトリガ領域は、位置決め区域500の外側に、たとえば位置決め区域500に隣接して配置することができる。
図10に示すようにトリガ領域550は、以下のように画定されるピラミッド形状を有することができる。
−水平面において、位置決め区域500内に配置されたトリガ領域550の境界を画定するインセンティブ画角αincentiveによって、また位置決め区域500の外側に位置する前記トリガ領域550の別の境界を画定する最大水平画角αmaxによって画定される。一変形形態又は一補完形態では、αmaxは、位置決め区域500を画定する水平画角αに対応することができる。さらなる変形形態又は補完形態では、αincentive及びαmaxを位置決め区域500内に配置することができる。
−垂直面において、位置決め区域500内に配置されたトリガ領域550の境界を画定するインセンティブ画角βincentive(各図には図示せず)によって、また位置決め区域500の外側に位置する前記トリガ領域550の別の境界を画定する最大垂直画角βmaxによって画定される。一変形形態又は一補完形態では、βmaxは、位置決め区域500を画定する垂直画角βに対応することができる。さらなる変形形態又は補完形態では、βincentive及びβmaxを位置決め区域500内に配置することができる。
ユーザの頭の位置が前記トリガ領域550内に位置付けられるとき、方法900はさらに、ステップ903において、このユーザが位置決め区域500内に留まるよう促すための1つ又は複数のインセンティブ効果をトリガすることを含む。画像投影コンピューティング機器104のトリガ手段104Dによって、ステップ903を実施することができる。
一実施形態では、インセンティブ効果は、以下のうち少なくとも1つとすることができる。
−ユーザの頭が、位置決め区域500の境界に向けて移動しているとき、表示画面106を暗くするための減光効果であり、またその逆のことも言える。この減光効果は、トリガ領域550内のユーザの頭の位置に依存する。
−トリガ領域550内でのユーザの頭の動きに関連付けられる視差効果の強度を適応させるための視差強度効果。
−表示画面106上の方向を示す1つ又は複数の視覚的合図。
必然的に、コンピューティング機器104によって、1つ又は複数のインセンティブ効果を同時にトリガすることができる。
具体的には、トリガ領域550内に位置付けられたユーザの頭の位置に関連付けられる(水平又は垂直の)画角が増すと、減光効果が増大することがあり(たとえば、画面106の輝度が低下し、画面106が暗くなり)、またその逆のことも言える。ユーザの頭の位置の画角が(水平角度αmax及び/又は垂直角度βmaxの間の)ある最大角度に到達すると、画面106は完全に暗く、すなわち黒くなる。ユーザの頭が、トリガ領域550の境界から位置決め区域500の中央に向けて移動するとき、減光効果が減少する(すなわち、画面106の輝度が増大し、画面106が明るくなる)ことを理解されたい。
さらに、この減光効果は、画面106に適用されるものとして説明してきたが、一変形形態又は一補完形態では、(画面106の輝度を修正することなく)マルチメディア・コンテンツ自体に直接適用することもできる。
図11の曲線によって示すように、減光効果の強度は、ユーザの頭に関連付けられる画角に比例することがある。必然的に、本開示から逸脱することなく、減光効果の強度とユーザの頭の画角との間の、他の種類の関係を使用してもよい。
さらに、トリガ領域550内に位置付けられたユーザの頭の位置に関連付けられる画角が増すと、視差強度効果によって、画面106に表示されるマルチ・ビュー・コンテンツに現れる各要素の移動速度を修正できるようになり、またその逆のことも言える。
そのために、一実施形態では、画像投影コンピューティング機器104は、ユーザの頭の画角に関連付けられる計算角度を使用することができる。前記計算角度は、たとえば、図12に示す例示的な曲線によって定義される関係から得ることができる。ユーザの頭の画角に基づいて画面106に表示されるマルチメディア・コンテンツの投影を計算する代わりに、このコンピューティング機器104は、対応する計算角度を使用することによって、ユーザの頭の前記画角に関連付けられる投影を決定することができる。
したがって、ユーザが知覚する視差効果は、このユーザの位置に関連付けられる画角とは異なる角度で観察できる視差効果に対応し、したがって、画面106を観察するユーザには、この視差効果が減衰しているように見える。
一実施形態では、視覚的合図(たとえば矢印)が実施されるとき、ユーザの頭に関連付けられる画角がαincentiveとαmax、及び/又はβincentiveとβmaxの間に配置されると、1つ又は複数の矢印を表示することができる。この矢印を、位置決め区域500の中央に向けて配向して、ユーザが後の境界から離れて移動するよう促すことができる。ユーザの頭が位置決め区域500にはあるが、トリガ区域550にはないと、この矢印は消えることがある。さらなる補完形態では、この矢印が明滅してユーザの注意を引くことができる。明滅速度は、トリガ区域内のユーザの頭の位置に依存することがある(たとえば、ユーザの頭がトリガ区域の外側境界に近いほど明滅速度が速くなるなど)。
この説明、特許請求の範囲、及び各図面に開示される参照情報を、独立して、又は任意の適切な組合せで提示してもよい。必要に応じて、ハードウェア、ソフトウェア、又はこの2つの組合せで、各機能を実装してもよい。
本明細書における「一実装形態(one embodiment)」又は「一実施形態(an embodiment)」への言及は、その実施形態に関連して説明される具体的な特徴、構造、又は特性が、説明される方法及び装置のうち少なくとも1つの実装形態に含まれ得ることを意味する。本明細書の様々な場所で「一実施形態では(in one embodiment)」という表現が現れるが、必ずしもすべてが同じ実施形態を指すものではなく、又は他の実施形態を必然的に相互に排除する別個の実施形態若しくは代替の実施形態でもない。
特許請求の範囲に示される参照番号は、もっぱら例示するためのものであり、特許請求の範囲に記載の範囲に限定的な影響を及ぼすものではない。
本明細書では、本開示のある特定の実施形態のみを説明してきたが、本開示の他の修正形態、変形形態、及び実現可能な形態が可能であることが当業者には理解されよう。したがって、このような修正形態、変形形態、及び実現可能な形態は、本開示の趣旨及び範囲内に含まれ、したがって、本明細書において説明及び/又は例示される本開示の一部分を形成するものとみなすべきである。
各図におけるフロー・チャート及び/又はブロック図には、本開示の様々な実施形態によるシステム、方法、及びコンピュータ・プログラム製品の実現可能な実装形態の構成、動作、及び機能が示してある。この点に関して、フロー・チャート又はブロック図における各ブロックは、コードのモジュール、セグメント、又は一部分を表してもよく、これは、指定された論理機能を実施するための、1つ又は複数の実行可能な命令を含む。代替実装形態によっては、ブロックに記された各機能が、各図に記された順序と異なって実行されてもよいことにも留意されたい。たとえば、必要とする機能に応じて、連続して示した2つのブロックを、実際には実質上同時に実行してもよく、又はこのブロックをときとして逆の順序で実行してもよく、又は各ブロックを代替の順序で実行してもよい。ブロック図及び/又はフロー・チャートの各ブロック、並びにブロック図及び/又はフロー・チャートでの各ブロックの組合せは、指定された機能若しくは動作を実行する特殊目的のハードウェア・ベースのシステム、又は特殊目的のハードウェアとコンピュータ命令の組合せによって実施できることにも留意されよう。明示的に説明されてはいないが、この実施形態は、任意の組合せ又はサブコンビネーションで利用されてもよい。

Claims (15)

  1. ユーザの頭の位置に応じた、表示画面(106)へのマルチ・ビュー・コンテンツの表示に関連付けられるように構成された方法であって、
    前記表示されたマルチ・ビュー・コンテンツを観察するための位置決め区域(500)を生成すること(901)と、
    前記位置決め区域(500)内に少なくとも部分的に配置されたトリガ領域(550)を画定すること(902)と、
    前記ユーザの頭の位置が前記トリガ領域(550)内に位置付けられるとき、1つ又は複数のインセンティブ効果をトリガして、前記ユーザが前記位置決め区域(500)内に留まるよう促すこと(903)と、
    を含む、方法。
  2. 前記位置決め区域(500)及び前記トリガ領域(550)が、両方ともピラミッド形状を有する、請求項1に記載の方法。
  3. 前記1つ又は複数のインセンティブ効果が、
    前記トリガ領域(550)内の前記ユーザの頭の位置に応じて前記表示画面を暗くするための減光効果と、
    前記トリガ領域内でのユーザの頭の動きに関連付けられる視差効果の強度を適応させるための視差強度効果と、
    前記表示画面(106)上での方向を示す1つ又は複数の視覚的合図と、
    のうち、少なくとも1つを含む、請求項1又は2に記載の方法。
  4. 前記減光効果は、前記トリガ領域(550)内に位置付けられた前記ユーザの頭の位置に関連付けられる画角が増すときに増大する、請求項3に記載の方法。
  5. 前記減光効果が、前記ユーザの頭の位置の前記画角とともに直線的に増大する、請求項4に記載の方法。
  6. 前記トリガ領域(550)内に位置付けられた前記ユーザの頭の位置に関連付けられる前記画角が増すと、前記視差強度効果によって、前記画面(106)に表示される前記マルチ・ビュー・コンテンツに現れる各要素の移動速度が低下する、請求項3〜5のいずれか一項に記載の方法。
  7. 前記1つ又は複数のインセンティブ効果が可逆的である、請求項1〜6のいずれか一項に記載の方法。
  8. 前記マルチ・ビュー・コンテンツが取得装置(103)によって取得されており、前記位置決め区域(500)が、前記取得装置(103)の1つ又は複数の得られた取得パラメータ、及び前記表示画面(106)の1つ又は複数の得られたパラメータに基づいて確立される、請求項1〜7のいずれか一項に記載の方法。
  9. ユーザの頭の位置に応じて、画面(106)に表示されるマルチ・ビュー・コンテンツを観察する前記ユーザに情報を提示するのに適した機器であって、
    前記表示されたマルチ・ビュー・コンテンツを観察するための位置決め区域(500)を生成するための手段(104B)と、
    前記位置決め区域内に少なくとも部分的に配置されたトリガ領域(550)を画定するための手段(104C)と、
    前記ユーザの頭の位置が前記トリガ領域(550)内に位置付けられるとき、1つ又は複数のインセンティブ効果をトリガして、前記ユーザが前記位置決め区域(500)内に留まるよう促すための手段(104D)と、
    を備える、機器。
  10. 前記位置決め区域(500)及び前記トリガ領域(550)が、両方ともピラミッド形状を有する、請求項9に記載の機器。
  11. 前記1つ又は複数のインセンティブ効果が、
    前記トリガ領域(550)内の前記ユーザの頭の位置に応じて前記表示画面(106)を暗くするための減光効果と、
    前記トリガ領域(550)内でのユーザの頭の動きに関連付けられる視差効果の強度を適応させるための視差強度効果と、
    前記表示画面(106)上での方向を示す1つ又は複数の視覚的合図と、
    のうち、少なくとも1つを含む、請求項8又は9に記載の機器。
  12. 前記トリガ領域(550)内に位置付けられた前記ユーザの頭の位置に関連付けられる画角が増すと、前記減光効果が前記表示画面(106)の明度を増大させ、またその逆のことも言える、請求項11に記載の機器。
  13. 前記トリガ領域(550)内に位置付けられた前記ユーザの頭の位置に関連付けられる前記画角が増すと、前記視差強度効果によって、前記画面(106)に表示される前記マルチ・ビュー・コンテンツに現れる各要素の移動速度が低下する、請求項11又は12に記載の機器。
  14. 前記位置決め区域及び/又は前記トリガ区域を表示するように構成される、請求項9〜13のいずれか一項に記載の機器。
  15. コンピュータによって読取り可能で、ユーザの頭の位置に応じた、表示画面(106)へのマルチ・ビュー・コンテンツの表示に関連付けられるように構成された方法を実行するための、前記コンピュータによって実行可能な命令のプログラムを明白に実施する、持続的なプログラム記憶装置であって、前記方法が、
    前記表示されたマルチ・ビュー・コンテンツを観察するための位置決め区域(500)を生成すること(901)と、
    前記位置決め区域内に少なくとも部分的に配置されたトリガ領域(550)を画定すること(902)と、
    前記ユーザの頭の位置が前記トリガ領域内に位置付けられるとき、1つ又は複数のインセンティブ効果をトリガして、前記ユーザが前記位置決め区域(500)内に留まるよう促すこと(903)と、
    を含む、持続的なプログラム記憶装置。
JP2020518129A 2017-06-12 2018-06-01 マルチ・ビュー・コンテンツを観察するユーザに情報を提示する方法及び機器 Active JP7293208B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP17305712.6A EP3416381A1 (en) 2017-06-12 2017-06-12 Method and apparatus for providing information to a user observing a multi view content
EP17305712.6 2017-06-12
PCT/EP2018/064510 WO2018228833A1 (en) 2017-06-12 2018-06-01 Method and apparatus for providing information to a user observing a multi view content

Publications (3)

Publication Number Publication Date
JP2020523957A true JP2020523957A (ja) 2020-08-06
JP2020523957A5 JP2020523957A5 (ja) 2021-07-26
JP7293208B2 JP7293208B2 (ja) 2023-06-19

Family

ID=59258155

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020518129A Active JP7293208B2 (ja) 2017-06-12 2018-06-01 マルチ・ビュー・コンテンツを観察するユーザに情報を提示する方法及び機器

Country Status (6)

Country Link
US (1) US11589034B2 (ja)
EP (2) EP3416381A1 (ja)
JP (1) JP7293208B2 (ja)
CN (1) CN110870304B (ja)
RU (1) RU2768013C2 (ja)
WO (1) WO2018228833A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220215638A1 (en) * 2018-05-29 2022-07-07 Exploring, Inc. System and method for haptic mapping of a configurable virtual reality environment
CN113228153A (zh) * 2018-12-21 2021-08-06 镭亚股份有限公司 具有视图终点指示器的多视图显示系统、多视图显示器和方法
EP4165874A1 (en) * 2020-06-11 2023-04-19 Dolby Laboratories Licensing Corporation Producing and adapting video images for presentation on displays with different aspect ratios

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10504917A (ja) * 1995-05-25 1998-05-12 フィリップス エレクトロニクス ネムローゼ フェンノートシャップ ヘッドマウントディスプレイ用衝突警告システム
JP2005165848A (ja) * 2003-12-04 2005-06-23 Canon Inc 複合現実感提示方法および装置
WO2013132886A1 (ja) * 2012-03-07 2013-09-12 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
WO2015122108A1 (ja) * 2014-02-17 2015-08-20 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP2016541035A (ja) * 2013-09-30 2016-12-28 株式会社ソニー・インタラクティブエンタテインメント ヘッドマウントディスプレイのユーザー向けカメラベース安全機構
JP6113337B1 (ja) * 2016-06-17 2017-04-12 株式会社コロプラ 表示制御方法および当該表示制御方法をコンピュータに実行させるためのプログラム

Family Cites Families (85)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6097394A (en) 1997-04-28 2000-08-01 Board Of Trustees, Leland Stanford, Jr. University Method and system for light field rendering
KR100914636B1 (ko) * 2001-05-29 2009-08-28 코닌클리케 필립스 일렉트로닉스 엔.브이. 비주얼 통신 신호를 전송하기 위한 방법, 비주얼 통신 신호를 전송하기 위한 송신기 및 비주얼 통신 신호를 수신하기 위한 수신기
US20040075735A1 (en) 2002-10-17 2004-04-22 Koninklijke Philips Electronics N.V. Method and system for producing a pseudo three-dimensional display utilizing a two-dimensional display device
CN1691098A (zh) * 2004-04-21 2005-11-02 夏普株式会社 显示装置、仪表板、自动车辆及控制仪表板的方法
US20070285554A1 (en) 2005-10-31 2007-12-13 Dor Givon Apparatus method and system for imaging
US7762676B2 (en) * 2006-10-17 2010-07-27 Sharp Laboratories Of America, Inc. Methods and systems for multi-view display privacy
US7792423B2 (en) 2007-02-06 2010-09-07 Mitsubishi Electric Research Laboratories, Inc. 4D light field cameras
KR101502362B1 (ko) 2008-10-10 2015-03-13 삼성전자주식회사 영상처리 장치 및 방법
US8416289B2 (en) 2009-04-28 2013-04-09 Microsoft Corporation Light-field display
RU2423018C2 (ru) * 2009-08-04 2011-06-27 Корпорация "САМСУНГ ЭЛЕКТРОНИКС Ко., Лтд." Способ и система для преобразования стереоконтента
US20110075257A1 (en) 2009-09-14 2011-03-31 The Arizona Board Of Regents On Behalf Of The University Of Arizona 3-Dimensional electro-optical see-through displays
KR101629479B1 (ko) * 2009-11-04 2016-06-10 삼성전자주식회사 능동 부화소 렌더링 방식 고밀도 다시점 영상 표시 시스템 및 방법
US9451924B2 (en) 2009-12-30 2016-09-27 General Electric Company Single screen multi-modality imaging displays
JP2011228862A (ja) * 2010-04-16 2011-11-10 Sony Corp データ構造、画像処理装置、画像処理方法、およびプログラム
US20110273466A1 (en) 2010-05-10 2011-11-10 Canon Kabushiki Kaisha View-dependent rendering system with intuitive mixed reality
US9132352B1 (en) 2010-06-24 2015-09-15 Gregory S. Rabin Interactive system and method for rendering an object
JP5494284B2 (ja) * 2010-06-24 2014-05-14 ソニー株式会社 立体表示装置及び立体表示装置の制御方法
US20120005624A1 (en) * 2010-07-02 2012-01-05 Vesely Michael A User Interface Elements for Use within a Three Dimensional Scene
US8803918B2 (en) 2010-08-27 2014-08-12 Adobe Systems Incorporated Methods and apparatus for calibrating focused plenoptic camera data
US8704879B1 (en) 2010-08-31 2014-04-22 Nintendo Co., Ltd. Eye tracking enabling 3D viewing on conventional 2D display
EP2451164B1 (en) 2010-11-08 2017-05-03 Telefonaktiebolaget LM Ericsson (publ) Improved view synthesis
KR101828017B1 (ko) * 2010-11-19 2018-02-13 한국전자통신연구원 입체 영상 디스플레이 장치 및 방법
US9146403B2 (en) 2010-12-01 2015-09-29 Massachusetts Institute Of Technology Content-adaptive parallax barriers for automultiscopic display
US8624891B2 (en) 2011-01-17 2014-01-07 Disney Enterprises, Inc. Iterative reprojection of images
JP5623313B2 (ja) 2011-03-10 2014-11-12 キヤノン株式会社 撮像装置および撮像光学系
US8736660B2 (en) 2011-03-14 2014-05-27 Polycom, Inc. Methods and system for simulated 3D videoconferencing
JP5367034B2 (ja) * 2011-08-24 2013-12-11 株式会社ソニー・コンピュータエンタテインメント 画像処理装置および画像処理方法
KR101609486B1 (ko) 2011-09-12 2016-04-05 인텔 코포레이션 모션 패럴랙스를 이용한 2d 이미지로부터의 3d 지각 생성
US9060093B2 (en) 2011-09-30 2015-06-16 Intel Corporation Mechanism for facilitating enhanced viewing perspective of video images at computing devices
US20130093752A1 (en) 2011-10-13 2013-04-18 Sharp Laboratories Of America, Inc. Viewer reactive auto stereoscopic display
CN103209313A (zh) * 2012-01-16 2013-07-17 华为技术有限公司 图像处理方法、会议终端、会场电子系统和视频会议系统
US8995785B2 (en) 2012-02-28 2015-03-31 Lytro, Inc. Light-field processing and analysis, camera control, and user interfaces and interaction on light-field capture devices
JP6168794B2 (ja) 2012-05-31 2017-07-26 キヤノン株式会社 情報処理方法および装置、プログラム。
WO2014011103A1 (en) 2012-07-10 2014-01-16 Telefonaktiebolaget L M Ericsson (Publ) Methods and arrangements for supporting view synthesis
US20140028662A1 (en) 2012-07-24 2014-01-30 Sharp Laboratories Of America, Inc. Viewer reactive stereoscopic display for head detection
JP6380881B2 (ja) 2012-07-31 2018-08-29 Tianma Japan株式会社 立体画像表示装置、画像処理装置及び立体画像処理方法
US8754829B2 (en) 2012-08-04 2014-06-17 Paul Lapstun Scanning light field camera and display
US9311771B2 (en) * 2012-08-28 2016-04-12 Bally Gaming, Inc. Presenting autostereoscopic gaming content according to viewer position
US9214013B2 (en) 2012-09-14 2015-12-15 Pelican Imaging Corporation Systems and methods for correcting user identified artifacts in light field images
EP2901671A4 (en) 2012-09-28 2016-08-24 Pelican Imaging Corp CREATING IMAGES FROM LIGHT FIELDS USING VIRTUAL POINTS OF VIEW
KR101380517B1 (ko) 2012-09-28 2014-04-01 엘지디스플레이 주식회사 멀티 뷰 무안경 입체 영상 표시장치와 그 최적 시청 거리 제어 방법
US9137524B2 (en) 2012-11-27 2015-09-15 Qualcomm Incorporated System and method for generating 3-D plenoptic video images
RU2640357C2 (ru) * 2013-02-06 2017-12-28 Конинклейке Филипс Н.В. Способ кодирования сигнала видеоданных для использования с мультивидовым стереоскопическим устройством отображения
US9497429B2 (en) 2013-03-15 2016-11-15 Pelican Imaging Corporation Extended color processing on pelican array cameras
JP2016521488A (ja) * 2013-04-05 2016-07-21 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 3次元画像信号の再ターゲット
CN103281550B (zh) 2013-06-14 2015-03-11 冠捷显示科技(厦门)有限公司 一种裸眼立体显示器指引观看者找到最佳观看位置的方法
KR20150044732A (ko) 2013-10-17 2015-04-27 엘지전자 주식회사 무안경 방식의 입체 영상 표시장치, 및 그 동작방법
US10165176B2 (en) 2013-10-31 2018-12-25 The University Of North Carolina At Chapel Hill Methods, systems, and computer readable media for leveraging user gaze in user monitoring subregion selection systems
US9967538B2 (en) * 2013-11-04 2018-05-08 Massachussetts Institute Of Technology Reducing view transitions artifacts in automultiscopic displays
JP6076893B2 (ja) * 2013-12-27 2017-02-08 株式会社ジャパンディスプレイ 表示装置及び表示装置の製造方法
US20150235408A1 (en) 2014-02-14 2015-08-20 Apple Inc. Parallax Depth Rendering
US10852838B2 (en) 2014-06-14 2020-12-01 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
US10176592B2 (en) 2014-10-31 2019-01-08 Fyusion, Inc. Multi-directional structured image array capture on a 2D graph
EP3038359A1 (en) * 2014-12-23 2016-06-29 Thomson Licensing A method for indicating a sweet spot in front of an auto-stereoscopic display device, corresponding auto-stereoscopic display device and computer program product
JP2016130061A (ja) 2015-01-13 2016-07-21 ヤマハ発動機株式会社 船外機の転舵装置および船外機艇
US10419737B2 (en) 2015-04-15 2019-09-17 Google Llc Data structures and delivery methods for expediting virtual reality playback
US10540818B2 (en) 2015-04-15 2020-01-21 Google Llc Stereo image generation and interactive playback
US10565734B2 (en) 2015-04-15 2020-02-18 Google Llc Video capture, processing, calibration, computational fiber artifact removal, and light-field pipeline
US10444931B2 (en) 2017-05-09 2019-10-15 Google Llc Vantage generation and interactive playback
US10567464B2 (en) 2015-04-15 2020-02-18 Google Llc Video compression with adaptive view-dependent lighting removal
US10033986B2 (en) 2015-05-26 2018-07-24 Google Llc Capturing light-field images with uneven and/or incomplete angular sampling
EP3098778A1 (en) 2015-05-29 2016-11-30 Thomson Licensing Method for obtaining a refocused image from 4d raw light field data
EP3099055A1 (en) 2015-05-29 2016-11-30 Thomson Licensing Method and apparatus for displaying a light field based image on a user's device, and corresponding computer program product
WO2017058322A2 (en) 2015-06-30 2017-04-06 Massachusetts Institute Of Technology Apparatus and methods for augmented reality
JP5856344B1 (ja) 2015-07-27 2016-02-09 正樹 房間 3d画像表示装置
US10070118B2 (en) * 2015-09-17 2018-09-04 Lumii, Inc. Multi-view displays and associated systems and methods
US10134178B2 (en) 2015-09-30 2018-11-20 Visual Music Systems, Inc. Four-dimensional path-adaptive anchoring for immersive virtual visualization systems
CN108475330B (zh) 2015-11-09 2022-04-08 港大科桥有限公司 用于有伪像感知的视图合成的辅助数据
CN105488771B (zh) 2015-12-16 2018-08-28 清华大学 光场图像编辑方法及装置
KR20180103059A (ko) 2016-01-11 2018-09-18 톰슨 라이센싱 광 필드 데이터의 일관된 편집
US10319071B2 (en) * 2016-03-23 2019-06-11 Qualcomm Incorporated Truncated square pyramid geometry and frame packing structure for representing virtual reality video content
EP3236657A1 (en) 2016-04-21 2017-10-25 Ultra-D Coöperatief U.A. Dual mode depth estimator
EP3273686A1 (en) 2016-07-21 2018-01-24 Thomson Licensing A method for generating layered depth data of a scene
US20180046874A1 (en) 2016-08-10 2018-02-15 Usens, Inc. System and method for marker based tracking
CN106501635A (zh) 2016-09-28 2017-03-15 国家电网公司 一种三维数字化电网连续性监测系统
IL266041B (en) 2016-10-18 2022-09-01 Photonic Sensors & Algorithms S L Device and method for obtaining distance information from a sight
US10679361B2 (en) 2016-12-05 2020-06-09 Google Llc Multi-view rotoscope contour propagation
JP6974873B2 (ja) 2017-02-06 2021-12-01 フォトニック センサーズ アンド アルゴリズムス,エセ.エレ. シーンから深度情報を取得するための装置および方法
US10573056B2 (en) 2017-03-06 2020-02-25 3D Patents, Llc Multi-view processing unit systems and methods
US10474227B2 (en) 2017-05-09 2019-11-12 Google Llc Generation of virtual reality with 6 degrees of freedom from limited viewer data
WO2018205164A1 (en) 2017-05-10 2018-11-15 Shanghaitech University Method and system for three-dimensional model reconstruction
BR112019024597A2 (pt) 2017-05-30 2020-06-09 Sony Corp aparelho e método de processamento de imagem, programa para fazer com que um computador execute processamento, e, aparelho e método de geração de arquivo
EP3416371A1 (en) 2017-06-12 2018-12-19 Thomson Licensing Method for displaying, on a 2d display device, a content derived from light field data
US11007772B2 (en) * 2017-08-09 2021-05-18 Fathom Optics Inc. Manufacturing light field prints
US10545215B2 (en) 2017-09-13 2020-01-28 Google Llc 4D camera tracking and optical stabilization

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10504917A (ja) * 1995-05-25 1998-05-12 フィリップス エレクトロニクス ネムローゼ フェンノートシャップ ヘッドマウントディスプレイ用衝突警告システム
JP2005165848A (ja) * 2003-12-04 2005-06-23 Canon Inc 複合現実感提示方法および装置
WO2013132886A1 (ja) * 2012-03-07 2013-09-12 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP2016541035A (ja) * 2013-09-30 2016-12-28 株式会社ソニー・インタラクティブエンタテインメント ヘッドマウントディスプレイのユーザー向けカメラベース安全機構
WO2015122108A1 (ja) * 2014-02-17 2015-08-20 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP6113337B1 (ja) * 2016-06-17 2017-04-12 株式会社コロプラ 表示制御方法および当該表示制御方法をコンピュータに実行させるためのプログラム

Also Published As

Publication number Publication date
EP3639514A1 (en) 2020-04-22
US11589034B2 (en) 2023-02-21
US20200195914A1 (en) 2020-06-18
RU2768013C2 (ru) 2022-03-23
JP7293208B2 (ja) 2023-06-19
RU2020100224A (ru) 2021-07-13
CN110870304A (zh) 2020-03-06
WO2018228833A1 (en) 2018-12-20
CN110870304B (zh) 2022-08-02
RU2020100224A3 (ja) 2021-09-17
EP3416381A1 (en) 2018-12-19

Similar Documents

Publication Publication Date Title
US11709545B2 (en) Gaze detection method and apparatus
JP6636163B2 (ja) 画像表示方法、成形そり幕を生成する方法、および頭部装着ディスプレイデバイス
CN107306332B (zh) 闭塞直接视图增强现实系统、计算设备及方法
US9684946B2 (en) Image making
US20160148384A1 (en) Real-time Visual Feedback for User Positioning with Respect to a Camera and a Display
US20120081360A1 (en) Generation of Depth Data Based on Spatial Light Pattern
KR102539427B1 (ko) 화상 처리장치, 화상 처리방법, 및 기억매체
KR101713875B1 (ko) 프로젝터 투사 환경하에서의 사용자 시점을 고려한 가상공간 구현 방법 및 시스템
WO2019198570A1 (ja) 映像生成装置、映像生成方法、プログラム、およびデータ構造
JP2019510991A (ja) 適応焦点面を有して仮想現実をレンダリングする構成
CN111275801A (zh) 一种三维画面渲染方法及装置
CN114026603B (zh) 渲染计算机生成现实文本
JP2020523957A (ja) マルチ・ビュー・コンテンツを観察するユーザに情報を提示する方法及び機器
JP7367689B2 (ja) 情報処理装置、情報処理方法、及び記録媒体
KR20130071100A (ko) 3차원 모형에 영상을 투사하는 장치 및 방법
WO2022133683A1 (zh) 一种混合现实显示的方法、混合现实设备及存储介质
CN109427089B (zh) 基于环境光照条件的混合现实对象呈现
CN111142660A (zh) 一种显示装置、画面显示方法和存储介质
US11636578B1 (en) Partial image completion
JP5506371B2 (ja) 画像処理装置、画像処理方法およびプログラム
EP3416380A1 (en) Method and apparatus for generating a positioning zone to observe a multi view content

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210531

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210602

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20211117

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220427

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220506

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220804

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230525

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230607

R150 Certificate of patent or registration of utility model

Ref document number: 7293208

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150