JP2024518243A - 没入型視聴体験 - Google Patents
没入型視聴体験 Download PDFInfo
- Publication number
- JP2024518243A JP2024518243A JP2023558524A JP2023558524A JP2024518243A JP 2024518243 A JP2024518243 A JP 2024518243A JP 2023558524 A JP2023558524 A JP 2023558524A JP 2023558524 A JP2023558524 A JP 2023558524A JP 2024518243 A JP2024518243 A JP 2024518243A
- Authority
- JP
- Japan
- Prior art keywords
- user
- image
- specific display
- display image
- shows
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 claims abstract description 33
- 239000002131 composite material Substances 0.000 claims description 20
- 230000008921 facial expression Effects 0.000 claims description 4
- 210000003128 head Anatomy 0.000 description 13
- 241000282414 Homo sapiens Species 0.000 description 7
- 230000006641 stabilisation Effects 0.000 description 7
- 238000011105 stabilization Methods 0.000 description 7
- 230000003190 augmentative effect Effects 0.000 description 6
- 239000011521 glass Substances 0.000 description 6
- 238000002679 ablation Methods 0.000 description 4
- 238000010408 sweeping Methods 0.000 description 4
- 241000282994 Cervidae Species 0.000 description 3
- 241000086550 Dinosauria Species 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 238000001914 filtration Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000010422 painting Methods 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 230000004308 accommodation Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 230000009191 jumping Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000005043 peripheral vision Effects 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/243—Image signal generators using stereoscopic image cameras using three or more 2D image sensors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/122—Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
- H04N13/344—Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Stereoscopic And Panoramic Photography (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
本開示は、ユーザが視覚化できるよりも大きな画像を記録する方法を開示する。そして、ヘッドトラッキングとアイトラッキングによってユーザが自然に見ることができるようにし、あたかもその場にいる人がリアルタイムで見ているかのようにシーンを見たり検査したりできるようにする。ユーザの視聴パラメータを分析し、カスタマイズされた画像をストリーミング表示するスマートなシステムもここで教示される。
Description
本開示の側面は、一般的に仕事の分配の使用に関する。
関連出願の相互参照
関連出願の相互参照
本出願は、2021年2月28日に出願された米国特許出願17/187,828の一部継続出願である、2021年4月7日に出願された米国特許出願17/225,610の一部継続出願である、2021年4月22日に出願された米国特許出願17/237,152のPCTである。
映画はエンターテイメントの一形態である。
本明細書に記載されているすべての例、態様及び特徴は、技術的に考えられるあらゆる方法で組み合わせることができる。本開示は、没入型視聴体験のための方法、ソフトウェア、装置に関する。
一般に、本開示は、2021年4月7日に出願された米国特許出願17/225,610で教示された技術を改良したものであり、その全体が参照により組み込まれる。米国特許出願17/225,610に記載されている装置の中には、非常に大きなデータセットを生成する機能を持つものがある。本開示は、このような非常に大きなデータセットの表示を改善した。
本開示は、改善された没入型視聴体験を実現するためのシステム、方法、装置及びソフトウェアを開示する。まず、ユーザの視聴パラメータをクラウドにアップロードし、当該クラウドが画像(好ましい実施形態では、極めて大規模なデータセットである)を保存する。視聴パラメータには、任意の動作、ジェスチャー、体位、視線角度、視線の収束/輻輳、又は入力(例えば、グラフィカルユーザインターフェースを介したもの)を含めることができる。したがって、ほぼリアルタイムで、ユーザの視聴パラメータが(例えば、視線カメラやジェスチャーを記録するカメラなど、さまざまな装置によって)特徴付けられ、クラウドに送信される。第2に、画像からユーザ固有の画像のセットが最適化され、ユーザ固有の画像は少なくとも視聴パラメータに基づく。好ましい実施形態では、ユーザ固有の画像の視野は、画像よりも小さい。好ましい実施形態では、ユーザが見ている場所は高分解能になり、ユーザが見ていない場所は低分解能になる。例えば、ユーザが左側の被写体を見ている場合、ユーザ固有の画像は左側の分解能が高くなる。いくつかの実施形態では、ユーザ固有の画像がほぼリアルタイムでストリーミングされる。
いくつかの実施形態では、ユーザ固有の画像は、第1の空間分解能を有する第1の部分と、第2の空間分解能を有する第2の部分とを含み、第1の空間分解能は、第2の空間分解能よりも高い。いくつかの実施形態は、視認パラメータが視認位置を含み、視認位置が第1の部分に対応する。
いくつかの実施形態は、ユーザ固有の画像が、第1のズーム設定を有する第1の部分と、第2のズーム設定を有する第2の部分とを含み、第1のズーム設定が第2のズーム設定よりも高い。いくつかの実施形態は、第1の部分が、視聴パラメータによって決定され、視聴パラメータが、ユーザの身体の位置、ユーザの身体の向き、ユーザの手のジェスチャー、ユーザの顔の表情、ユーザの頭の位置、及びユーザの頭の向きからなる群から選択される少なくとも1つを含む。いくつかの実施形態は、第1の部分が、マウス又はコントローラなどのグラフィカルユーザインターフェースによって決定されることを含む。
いくつかの実施形態は、画像が第1の視野(FOV)を含み、ユーザ固有の画像が第2の視野を含み、第1のFOVが第2のFOVよりも大きい。
いくつかの実施形態は、画像が立体画像を含み、立体画像が、立体カメラ又は立体カメラクラスタを介して取得される。
いくつかの実施形態は、画像がスティッチングされた画像を含み、スティッチングされた画像が少なくとも2つのカメラによって生成される。
いくつかの実施形態は、画像が合成画像を含み、合成画像が、第1のカメラ設定セットを用いてシーンの第1の画像を撮影するステップであって、第1のカメラ設定セットにより、第1の被写体に焦点が合い、第2の被写体に焦点が合わなくなるステップと、第2のカメラ設定でシーンの第2の画像を撮影するステップであって、第2のカメラ設定で第2の物体に焦点を合わせ、第1の物体を焦点から外すステップによって生成される。幾つかの実施形態は、ユーザが第1の被写体を見ると、第1の画像がユーザに提示され、ユーザが第2の被写体を見ると、第2の画像が前記ユーザに提示される。いくつかの実施形態は、少なくとも第1の画像からの第1の被写体と第2の画像からの第2の被写体とを合成画像に合成することを含む。
いくつかの実施形態では、手ぶれ補正が実行される。いくつかの実施形態は、視聴パラメータが収束を含む。いくつかの実施形態は、ユーザ固有の画像が3D画像であり、3D画像がHDU、アナグリフメガネのセット、又は偏光メガネのセットで提示される。
いくつかの実施形態は、ユーザ固有の画像が、ユーザが少なくとも0.5πステラジアン視野を有するディスプレイ上でユーザに提示されることを含む。
いくつかの実施形態では、ユーザ固有の画像がディスプレイ上に提示される。いくつかの実施形態では、ディスプレイはスクリーン(例えば、テレビ、プロジェクターシステムと結合された反射スクリーン、拡張現実ディスプレイ、仮想現実ディスプレイ、又は複合現実ディスプレイを含む拡張現実ヘッドディスプレイユニット)である。
フロー図は、特定のプログラミング言語のシンタックスを描いたものではない。むしろ、フロー図は、当業者が本発明に従って必要な処理を実行するために回路を作製したり、コンピュータソフトウェアを生成したりするために必要な機能情報を示す。なお、ループ及び変数の初期化、一時変数の使用など、多くの日常的なプログラム要素が示されていない。本明細書において特に指示しない限り、記載された特定の工程の順序は例示に過ぎず、本発明の精神から逸脱することなく変更可能であることは、当業者には理解されよう。したがって、特に断りのない限り、以下に説明するステップは順不同であり、可能であれば、ステップを都合のよい又は望ましい順序で実行できることを意味する。
図1は、立体画像のレトロスペクティブ表示を示す。100は、ステップAを示しており、これは、視聴者が時点nで見ている位置(例えば、(αn,βn,rn)座標)を決定することである。注1:この位置は、近位、中位、遠位の収束点となりうる。注2:立体映像のコレクションが収集され、記録されている。ステップAは、収集プロセスに続いて行われ、ユーザによる視聴中のその後のある時間帯に行われる。101は、時点nの位置(例えば、(αn、βn、rn)座標)に対応するFOVnを決定するステップBを示す。注:ユーザはFOVを選択するオプションを有する)。102はステップCを示しており、左目のFOVに対応するカメラを選択し、追加画像処理(例えば、合成画像の使用、輻輳ゾーンの使用)を実行して、時点n(PLEIn)でパーソナライズされた左目画像を生成する。103はステップDを示しており、これは右目のFOVに対応するカメラを選択し、追加画像処理(例えば、合成画像の使用、輻輳ゾーンの使用)を実行し、時点n(PREIn)でパーソナライズされた右目画像を生成するオプションである。104はステップEを示しており、HDUの左目ディスプレイにPLEInを表示する。105はステップFを示しており、HDUの右目ディスプレイにPREInを表示する。106はステップGを示しており、これは時間ステップをn+1に増やし、上記のステップAに進む。
図2は、所与の時点について、どのステレオペアをユーザに表示するかを決定する方法を示す。200は、どの立体画像をユーザに表示するかを決定するために、ユーザのパラメータを分析するテキストボックスを示す。第一に、ユーザの頭の方向を用いる。例えば、ユーザの頭が前方に向いている場合、第1のステレオペアを用い、ユーザの頭が左方に向いている場合、第2のステレオペアを用いることができる。第二に、ユーザの視線の角度を利用する。例えば、ユーザが遠くの物体(例えば遠くの山)を見ている場合、その時点では遠くの(例えばゾーン3)ステレオ画像ペアが選択される。第三に、ユーザの収束を用いる。例えば、近くの物体(木の葉など)の視線方向と遠くの物体(遠くの山など)の視線方向とが極端に似ている場合、収束角と視野角とを組み合わせて使用するオプションがある。第四に、ユーザの目の調節を利用する。例えば、ユーザの瞳孔の大きさをモニターし、その大きさの変化を利用して、ユーザがどこ(近く/遠く)を見ているかを示す。
図3は、HDUにビデオ録画を表示することを示している。300は座標系の確立を示す。例えば、カメラ座標を原点とし、カメラのポインティング方向を軸として用いる。この点については、米国特許出願17/225,610に詳しく述べられており、参照することによりその全体が組み込まれる。301は、シーンを広角で記録することを示す。例えば、ユーザに見せるFOVよりも大きなFOVでデータを記録する)。302は、図2で説明したように、ユーザがシーンのどこを見ているかを判断するために、ユーザの分析を実行することを示す。303は、302の分析に基づいて表示を最適化することを示す。いくつかの実施形態では、物理被写体の特徴(例えば、位置、サイズ、形状、向き、色、明るさ、テクスチャ、AIアルゴリズムによる分類)が、仮想被写体の特徴(例えば、位置、サイズ、形状、向き、色、明るさ、テクスチャ)を決定する。例えば、ユーザが家の中の部屋で複合現実ディスプレイを使用していて、部屋の一部の領域(例えば、昼間の窓)が明るく、部屋の一部の領域が暗い(例えば、濃い青色の壁)。いくつかの実施形態では、仮想被写体の配置位置は、部屋内の被写体の位置に基づいている。例えば、背景が紺色の壁の場合、仮想被写体を目立たせるために白に着色することができる。例えば、背景が白い壁の場合、仮想被写体を青く着色して目立たせることができる。例えば、仮想被写体は、その背景がユーザにとって最適な視聴体験となるように表示されるように位置決め(又は再配置)され得る。
図4は、ユーザ1が行った録画済みのステレオ視聴を示す。400は、ステレオカメラシステム(スマートフォンなど)を使ってステレオ録画を行うユーザ1を示す。この点については、米国特許出願17/225,610に詳しく述べられており、参照することによりその全体が組み込まれる。401はステレオ録音がメモリ装置に保存されることを示す。402は、ユーザ(例えば、ユーザ1又は他のユーザ)が保存されたステレオ録音を取得することを示す。なお、ステレオ録音が他のユーザに送信され、他のユーザが保存されたステレオ録音を受信する。403は、ステレオディスプレイユニット(例えば、拡張現実、複合現実、バーチャルリアリティディスプレイ)上で保存されたステレオレコーディングを視聴するユーザ(例えば、ユーザ1又は他のユーザ)を示す。
図5は、立体カメラクラスタを用いて、遠距離の対象物を長範囲立体撮像することを示す。500は、2つのカメラクラスタを少なくとも50フィート離して配置している。501は少なくとも1マイル離れた目標を選択する。502は、焦点の中心線が目標で交差するように、各カメラクラスタを正確に照準することを示す。503は、目標の立体画像を取得することを示す。504は、取得した立体画像の視聴及び/又は分析を示す。いくつかの実施形態では、カメラクラスタではなく、望遠レンズを備えたカメラを使用する。また、いくつかの実施形態では、1マイル未満の距離で最適化された視聴のために、50フィート以下のステレオ分離を有する。
図6は、立体合成画像の生成により、ユーザの視線追跡に基づいて最良の画像になるように画像を取得後に調整する機能を示す。この時点で表示される立体画像には、現場を観察している人が興味を持ちそうな被写体がいくつかある。こうして、各時点で、少なくとも1人のユーザの入力に一致する立体合成画像が生成される。例えば、第1の時点において、ユーザが山600又は雲601を見ている(視線追跡により視線位置を決定している)場合、HDUに配信される立体合成画像ペアは、山600又は雲601の遠方の被写体に焦点が合い、鹿603及び花602を含む近傍の被写体に焦点が合わないように生成される。ユーザが鹿603を見ていた場合(視線追跡で視聴位置を決定)、このフレームで提示される立体合成画像は中距離用に最適化される。最後に、ユーザが近くの花603を見ている(視線追跡で見る位置を決定している)場合、立体合成画像は近距離用に最適化される(例えば、収束を実装し、鹿603、山600、雲601などの遠くのアイテムをぼかす)。さまざまなユーザ入力を使って、立体合成画像を最適化する方法をソフトウェアスイートに指示することができる。目を細めるようなジェスチャーは、より遠くの物体に対して立体合成画像を最適化するために使用できる。前傾姿勢のようなジェスチャーを使えば、遠くの対象物にズームインできる。また、没入感のある視聴体験を向上させるためにGUIを使用することもできる。
図7(A)は、動きのある画像と手ぶれ補正処理の適用とを示す図である。700Aは、物体の縁部をぼかす動きがある物体の左目画像を示す。701Aは、手ぶれ補正処理が施された被写体の左目画像を示す。
図7(B)は、HDUに表示された動きのある画像を示す。702はHDUを示す。700Aは、物体の縁部をぼかす動きがある物体の左目画像を示す。700Bは、物体の縁部をぼかす動きがある物体の右目画像を示す。701Aは、ユーザの左目に合わせた左目用ディスプレイを示す。701Bは、ユーザの右目に合わせた右目用ディスプレイを示す。
図7(C)は、立体画像を使用して画像に適用される手ぶれ補正を示す。画像処理の重要なタスクは、立体画像を使った手ぶれ補正である。700Aは、手ぶれ補正処理が施された被写体の左目画像を示す。700Bは、手ぶれ補正処理が施された被写体の左目画像を示す。701Aは、ユーザの左目に合わせた左目用ディスプレイを示す。701Bは右目用ディスプレイを示し、ユーザの右目に合わせて表示される。702はHDUを説明する。
図8(A)は、第1のカメラ設定による左画像と右画像とを示す。なお、モニター上の文字には焦点が合っており、キャビネット上のノブという遠くの被写体には焦点が合っていない。
図8(B)は、第2のカメラ設定による左画像と右画像とを示す。なお、モニター上の文字には焦点が合っておらず、遠くのキャビネットのノブには焦点が合っている。新規な点は、少なくとも2台のカメラを使用していることである。第1のカメラからの第1の画像が得られる。第2のカメラからの第2の画像が得られる。第1のカメラと第2のカメラとは同じ視点にある。また、それらはシーンのものである(例えば、静止したシーン又は動き/変化のあるシーンの同じ時点)。合成画像が生成され、合成画像の第1の部分が第1の画像から得られ、合成画像の第2の部分が第2の画像から得られる。なお、いくつかの実施形態では、第1の画像内の被写体をセグメント化し、第2の画像内の同じ被写体もセグメント化することができる。被写体の第1の画像と被写体の第2の画像とを比較して、どちらが画質が良いかを見ることができる。より画質の良い画像を合成画像に加えることができる。しかし、いくつかの実施形態では、クリアでない部分を意図的に選択することができる。
図9(A)は、ある時点におけるシーンの収集された全データの上面図を示す。
図9(B)は、ビデオ録画の表示された広角2D画像フレームを示す。なお、この全視野をユーザに表示すると、ユーザの固有FOV(人間の目のFOV)とカメラシステムのFOVとが不一致になるため、歪んで表示されることになる。
図9(C)は、ユーザAの視野角-70°、FOV55°の上面図を示す。新規な点は、ユーザが立体映像の一部を視野角で選択できることである。なお、選択された部分は現実的には-180°まで可能だが、それ以上にはならない。
図9(D)は、ユーザAの視野角が-70°、FOVが55°の場合、ユーザAが何を見るかを示している。これにより、異なる視聴者が視野の異なる部分を見ることができるため、先行技術よりも改善される。人間の水平視野は180度をわずかに超えるが、人間が文字を読めるのは視野の約10度超、形状を判断できるのは視野の約30度超、色を判断できるのは視野の約60度超である。いくつかの実施形態では、フィルタリング(減算)が実行される。人間の垂直方向の視野は約120度、上方(水平より上)の視野は約50度、下方(水平より下)の視野は約70度である。しかし、眼球の最大回旋角度は、水平より約25度上、水平より約30度下に制限されている。通常、座った状態からの通常の視線は、水平より約15度下にある。
図9(E)は、ユーザBの視野角+50°、FOV85°の上面図を示す。新規な点は、ユーザが立体映像の一部を視野角で選択できることである。なお、また、ユーザBのFOVはユーザAのFOVよりも大きい。なお、選択された部分は、現実的には-180°まで可能であるが、人間の目の限界のため、それ以上にはならない。
図9(F)は、ユーザBの視野角が+50°、FOVが85°の場合、ユーザBが何を見るかを示す。これにより、異なる視聴者が視野の異なる部分を見ることができるため、先行技術よりも改善される。いくつかの実施形態では、複数のカメラが240°フィルム用に記録されている。一実施形態では、同時録画用に4台のカメラ(それぞれ60°のセクターを持つ)を使用する。別の実施形態では、セクタは順次撮影される。映画のあるシーンは順次撮影され、他のシーンは同時に撮影される。いくつかの実施形態では、画像のつなぎ合わせのために重複してカメラのセットを使用することができる。いくつかの実施形態は、参照によりその全体が組み込まれる米国特許出願17/225,610に記載されているカメラボールシステムを使用することを含む。映像が記録された後、カメラからの映像はシーンを同期させ、つなぎ合わせるために編集される。LIDAR装置は、正確なカメラ方向指示のためにカメラシステムに統合することができる。
図10(A)は、左カメラによって第1の時点で撮像された視野を示す。左カメラ1000と右カメラ1001とを示す。左のFOV1002は白い領域で示され、約215°で、+90°から-135°の範囲のαを有する(反時計回りに+90°から-135°まで掃引)。左FOV1003内の撮像されない領域は約135°であり、+90°から-135°の範囲のαを有する(時計回りに+90°から-135°まで掃引)。
図10(B)は、右のカメラによって第1の時点で撮像された視野を示す。左カメラ1000と右カメラ1001とが示される。右のFOV1004は白い領域で示されており、約215°で、+135°から-90°の範囲のαを有する(反時計回りに+135°から-90°まで掃引)。右FOV1005内に撮像されない領域は約135°であり、+135°から-90°の範囲のαを有する(反時計回りに+135°から-90°まで掃引)。
図10(C)は、所与の時点における第1のユーザのパーソナライズされた視野(FOV)を示す。1000は左のカメラを示す。1001は右のカメラを示す。1006aは、第1のユーザの左目FOVの左境界を示しており、薄い灰色で示される。1007aは、第1のユーザの左目FOVの右側の境界を示しており、薄い灰色で示される。1008aは、第1のユーザの右目FOVの左境界を示しており、薄い灰色で示される。1009aは、第1のユーザの右目FOVの右側の境界を示しており、薄い灰色で示される。1010aは、第1のユーザの左目FOVの中心線を示す。1011aは、第1のユーザの右目FOVの中心線を示す。なお、第1のユーザの左眼FOV1010aの中心線と第1のユーザの右眼FOV1011aの中心線とは平行であり、無限遠に収束点があることと等価である。なお、第1のユーザは前方方向を見ている。動きのあるシーンの撮影では、ほとんどのアクションがこの前方を見ている方向で起こることが示唆されている。
図10(D)は、ある時点における第2のユーザの個人化された視野(FOV)を示す。1000は左のカメラを示す。1001は右のカメラを示す。1006bは、第2のユーザの左目FOVの左境界を示しており、薄い灰色で示される。1007bは、第2のユーザの左目FOVの右側の境界を示しており、薄い灰色で示される。1008bは、第2のユーザの右目FOVの左境界を示しており、薄い灰色で示される。1009bは、第2のユーザの右目FOVの右側の境界を示しており、薄い灰色で示される。1010bは、第2のユーザの左目FOVの中心線を示す。1011bは、第2のユーザの右目FOVの中心線を示している。なお、第2のユーザの左目FOV1010bの中心線と第2のユーザの右目FOV1011bの中心線とは、収束点1012で合流している。これにより、第2のユーザは小さな対象物をより詳細に見ることができる。なお、第2のユーザは前方を見ている。動きのあるシーンの撮影では、ほとんどのアクションがこの前方を見ている方向で起こることが示唆される。
図10(E)は、ある時点における第3のユーザのパーソナライズされた視野(FOV)を示す図である。1000は左のカメラを示す。1001は右のカメラを示す。1006cは、第3のユーザの左目FOVの左境界を示しており、薄い灰色で示される。1007cは、第3のユーザの左目FOVの右側の境界を示しており、薄い灰色で示される。1008cは、第3のユーザの右目FOVの左境界を示しており、薄い灰色で示される。1009cは、第3のユーザの右目FOVの右側の境界を示しており、薄い灰色で示される。1010cは、第3のユーザの左目FOVの中心線を示す。1011cは、第3のユーザの右目FOVの中心線を示す。なお、第3のユーザの左目FOV1010cの中心線と第3のユーザの右目FOV1011cの中心線とはほぼ平行であり、非常に遠くを見ていることに相当する。なお、第3のユーザは適度に左方向を見ている。なお、左目用FOVと右目用FOVとが重なることで、第3の視聴者に立体視が提供される。
図10(F)は、ある時点における第4のユーザのパーソナライズされた視野(FOV)を示す図である。1000は左のカメラを示す。1001は右のカメラを示す。1006dは、第4のユーザの左目FOVの左境界を示しており、薄い灰色で示される。1107dは、第4のユーザの左目FOVの右側の境界を示しており、薄い灰色で示される。1008dは、第4のユーザの右目FOVの左境界を示しており、薄い灰色で示される。1009dは、第4のユーザの右目FOVの右側の境界を示しており、薄い灰色で示される。1010dは、第4のユーザの左目FOVの中心線を示す。1011dは、第4のユーザの右目FOVの中心線を示す。なお、第4のユーザの左目FOV1010dの中心線と第4のユーザの右目FOV1011dの中心線とはほぼ平行であり、非常に遠くを見ていることに相当する。なお、第4のユーザは左方向を見ている。なお、第1のユーザ、第2のユーザ、第3のユーザ及び第4のユーザは、すべて同じ時点で異なる映像を見ている。なお、カメラクラスタ又はボールシステムなど、いくつかの設計は、以下に説明する。
図11(A)は、時点1における第1のユーザの左目視界の上面図を示す。1100は左目の視点を示している。1101は右目の視点を示している。1102は、どちらのカメラによってもカバーされていない視野(FOV)の部分を示している。1103は、少なくとも1つのカメラによってカバーされるFOVの部分を示す。1104Aは、ユーザが使用する高分解能FOVの内側部分を示しており、α=+25°に相当する。この点については、米国特許出願17/225,610に詳しく述べられており、参照することによりその全体が組み込まれる。
1105Aは、ユーザが使用する高分解能FOVの側方部分を示しており、これはα=-25°に対応する。
図11(B)は、左眼と右眼とに近接する収束点がある第1のユーザの左眼視界の上面図を示す。1100は左目の視点を示す。
1101は右目の視点を示す。1102は、どちらのカメラによってもカバーされていない視野(FOV)の部分を示す。1103は、少なくとも1つのカメラによってカバーされるFOVの部分を示す。1104Bは、α=-5°に対応する、ユーザによって使用される高分解能FOVの中央部分を示す。1105Bは、α=+45°に対応する、ユーザによって使用される高分解能FOVの側方部分を示す。
図11(C)は、収束のない時点1での左目視界を示す。なお、花1106が画像内に示されており、視角α=0°に沿って位置している。
図11(D)は、収束した時点2での左目の視野を示す。なお、花1106が画像内に示されており、依然として視角α=0°に沿って位置している。ただし、この時点でユーザは収束している。この収束動作により、左目の視野は、αが-25°~25°の範囲である水平視野(図11(A)及び11(C)に示す)から、αが-5°~+45°の範囲に変更される(図11(B)及び11(D)に示すように)。このシステムは、左(及び右)の視野に従って画像をシフトすることによって立体カメラ上で立体収束を提供するため、従来技術を改良している。いくつかの実施形態では、ディスプレイの一部は最適化されていないが、これは米国特許第10,712,837号に記載されており、その全体が参照により組み込まれる。
図12は、以前に取得された広角ステレオ画像からの様々な立体画像の再構成を示す。1200は、立体カメラシステムから画像を取得することを示す。このカメラシステムについては、米国特許出願第17/225,610号でより詳細に説明されており、その全体が参照により組み込まれる。1201は、左眼視点用の第1のカメラと右眼視点用の第2のカメラとが利用されることを示す。1202は、左眼の視線角度に基づいて第1のカメラの視野を選択し、右眼の視線角度に基づいて第2のカメラの視野を選択することを示す。好ましい実施形態では、選択は、ユーザの目の動きを追跡する視線追跡システムに基づいてコンピュータ(例えば、ヘッドディスプレイユニットに組み込まれた)によって実行される。なお、また、好ましい実施形態では、収束中に鼻に近いディスプレイ上で画像が内側にシフトすることもあり、これは米国特許第10,712,837号、特に図15(A)、15(B)、16(A)、及び16(B)に教示されており、その全体が参照により組み込まれる。1203は、左目の視野をユーザの左目に提示し、右目の視野をユーザの右目に提示することを示す。この場合にはさまざまなオプションがある。第一に、左眼画像が少なくとも2つのレンズから生成され(例えば、第一に近接画像用に最適化され、第二に遠方画像用に最適化される)、左眼画像が少なくとも2つのレンズから生成される(例えば、第一に近接画像用に最適化され、第二に遠方画像用に最適化される)。ユーザが近くの物体を見ている場合、近くの物体には焦点が合い、遠くの物体には焦点が合っていない立体画像のペアを表示する。ユーザが遠くの物体を見ている場合、近くの物体には焦点が合っておらず、遠くの物体には焦点が合っている立体画像のペアを表示する。第二に、さまざまな表示装置(拡張現実、仮想現実、複合現実ディスプレイなど)を用いる。
図13(A)は、ホームシアターの上面図を示す。1300はユーザを示す。1301はプロジェクタを示す。1302は画面を示す。なお、この没入型ホームシアターは、ユーザ1300の視野よりも広い視野を表示する。例えば、ユーザ1300がまっすぐ前を見ている場合、ホームシアターは180度を超える水平FOVを表示することになる。したがって、ホームシアターのFOVはユーザの水平方向のFOVを完全にカバーする。同様に、ユーザがまっすぐ前を見ている場合、ホームシアターは120度を超える垂直方向のFOVを表示する。したがって、ホームシアターのFOVはユーザの垂直方向のFOVを完全にカバーする。AR/VR/MRヘッドセットはこのシステムと併用できるが、必須ではない。安価なアナグリフ又は使い捨ての色メガネも使用できる。従来のIMAX偏光プロジェクタは、IMAXタイプの偏光使い捨てメガネと一緒に利用できる。ホームシアターのサイズは異なる場合がある。ホームシアターの壁は、白い反射パネルとフレームで構築できる。プロジェクタには、より広い視野をカバーするために複数のヘッドを有する。
図13(B)は、図13(A)に示すホームシアターの側面図を示す。1300はユーザを示す。1301はプロジェクタを示す。1302は画面を示す。なお、この没入型ホームシアターは、ユーザ1300の視野よりも広い視野を表示する。例えば、ユーザ100がリクライニングチェアに座って前を向いている場合、ホームシアターは120度を超える垂直方向のFOVを表示することになる。したがって、ホームシアターのFOVは完全にユーザのFOVをカバーするであろう。同様に、もしユーザがまっすぐ前を見ていれば、ホームシアターは120度以上の水平のFOVを表示するであろう。したがって、ホームシアターのFOVは完全にユーザのFOVをカバーするであろう。
図14(A)は、ホームシアターの上面図を示す。1400Aは、第1のユーザを示す。1400Bは、第1のユーザを示す。1401はプロジェクタを示す。1402は画面を示す。なお、この没入型ホームシアターは、第1のユーザ1400A又は第2のユーザ1400BのFOVよりも大きな視野を表示する。例えば、第1のユーザ1400Aが真っ直ぐ前を見ていた場合、第1のユーザ1400Aは180度を超える水平FOVを見ることになる。したがって、ホームシアターのFOVはユーザの水平方向のFOVを完全にカバーする。同様に、第1のユーザ1400Aが真っ直ぐ前を見ていた場合、ホームシアターは、図14(B)に示すように、120度を超える垂直FOVを表示するであろう。したがって、ホームシアターのFOVはユーザの垂直方向のFOVを完全にカバーする。AR/VR/MRヘッドセットはこのシステムと併用できるが、必須ではない。安価なアナグリフグラス又は偏光グラスも使用できる。従来のIMAX偏光プロジェクタは、IMAXタイプの偏光使い捨てメガネと一緒に利用できる。ホームシアターのサイズは異なる場合がありうる。ホームシアターの壁は、白い反射パネルとフレームで構築できる。プロジェクタには、より広い視野をカバーするために複数のヘッドを有する。
図14(B)は、図14(A)に示すホームシアターの側面図を示す。1400Aは、第1のユーザを示す。1401はプロジェクタを示す。1402は画面を示す。なお、この没入型ホームシアターは、第1のユーザ1400Aの視野よりも広い視野を表示する。例えば、第1のユーザ1400Aがリクライニングチェアに座っているときに前方を向いていた場合、ユーザは120度を超える垂直FOVを見ることになる。したがって、ホームシアターのFOVは、第1のユーザ1400AのFOVを完全にカバーすることになる。同様に、第1のユーザ1400Aがまっすぐ前を見ていた場合、ホームシアターは120度を超える水平FOVを表示するであろう。したがって、ホームシアターのFOVは、第1のユーザ1400AのFOVを完全にカバーすることになる。
典型的な高分解能ディスプレイは、1.37mの距離にわたって4000個のピクセルを有する。これは、1.87m2あたり10×106ピクセルと等価である。半球シアターのデータを考えてみる。半球シアターが半径2メートルを有すると仮定する。半球の表面積は2×π×r2で、(4)(3.14)(22)又は50.24m2に相当する。空間分解能が一般的な高分解能ディスプレイと等しいことが望ましいと仮定すると、これは(50.24m2)(1.87m2あたり10×106ピクセル)、つまり4億2,900万ピクセルに等しくなる。フレームレートが1秒あたり60フレームであると仮定する。これは、標準的な4Kモニターと比較して26倍のデータ量である。
いくつかの実施形態は、プロジェクタの幾何学的形状と一致するようにホームシアターを構築することを含む。好ましい実施形態は、準球形(例えば、半球形)である。低コストの構造は、反射面をマルチヘッドプロジェクタとつなぎ合わせて使用することになる。いくつかの実施形態では、視野は4πステラジアンの球形の範囲を含む。これはHDUを介して実現できる。いくつかの実施形態では、視野は、少なくとも3πステラジアンの準球面範囲を含む。いくつかの実施形態では、視野は少なくとも2πステラジアンの準球面範囲を含む。いくつかの実施形態では、視野は少なくとも1πステラジアンの準球面範囲を含む。いくつかの実施形態では、視野は少なくとも0.5πステラジアンの準球面範囲を含む。いくつかの実施形態では、視野は、少なくとも0.25πステラジアンの球面以下の範囲を含む。いくつかの実施形態では、視野は少なくとも0.05πステラジアンの準球面範囲を含む。いくつかの実施形態では、多くの視聴者による改善された映画館体験のために、亜球面IMAXシステムが作成される。椅子は標準的な映画館と同様の位置に配置されるが、スクリーンは準球形であろう。いくつかの実施形態では、非球形の形状も使用することができる。
図15(A)は、ユーザが真っ直ぐ前方を見て、水平約60度、垂直40度の水平視野を適度に正確な視野で見る(例えば、ユーザは周辺の形状と色とを見ることができる)時点#1を示す。
図15(B)は、TVの中央部分と、時点#1でユーザによって観察されている視野を示す。なお、いくつかの実施形態では、データは(例えば、インターネットを介して)ストリーミングされる。なお、本開示の新しい機能は「視聴パラメータポインティングストリーミング」と呼ばれる。本実施形態では、ストリーミングされるデータを指示するために視聴パラメータが使用される。例えば、ユーザ1500が真っ直ぐ前方を見ていた場合、第1のデータセットは、ユーザ1500の真っ直ぐ前方の視野角に対応するようにストリーミングされることになる。しかしながら、ユーザが画面の横を見ていた場合、第2のデータセットは、ユーザ1500の横を見る角度に対応するようにストリーミングされることになる。視野角を制御できるその他の視野パラメータにはユーザの輻輳、ユーザの頭の位置、ユーザの頭の向きがあるが、これらに限定されない。広い意味では、ユーザのあらゆる特徴(年齢、性別、好み)又はアクション(視野角、位置など)を使用してストリーミングを指示することができる。なお、もう1つの新しい特徴は、少なくとも2つの画質のストリーミングである。例えば、第1の画質(例えば、高品質)は、第1のパラメータに従って(例えば、ユーザの30°の水平FOV及び30°の垂直FOV内で)ストリーミングされるであろう。そして、この基準を満たさない(たとえば、ユーザの水平FOV30°及び垂直FOV30°内にない)第2の画質(たとえば、低品質)もストリーミングされる。このシステムにはサラウンドサウンドが実装される。
図15(C)は、時点#2を示しており、ユーザが画面の左側を見ていると、水平約60度、垂直約40度の水平視野が適度に正確な視野で見える(例えば、ユーザは、周辺視野の形状と色とを見ることができる)。
図15(D)は、時点#2でユーザによって観察されている視野を有する時点#2を示しており、図15(B)と比較すると異なる。対象領域は時点#1の半分である。いくつかの実施形態では、シーン内の小さなFOV内の被写体のより詳細でより高い分解能がユーザに提供される。この高分解能の視野ゾーンの外側では、低分解能の画質が画面上に表示されうるであろう。
図15(E)は、ユーザが画面の右側を見ている時点#3を示す。
図15(F)は時点#3を示し、円形の高分解能FOVを示す。
図16(A)は、ズームされていない画像を示す。1600は画像を示す。1601Aは、ズームインされるように設定された画像1600内の領域を示すために示されたボックスを示す。
図16(B)は、画像の一部を拡大したデジタルタイプを示す。これは、米国特許第8,384,771号に記載されている方法(例えば、1つのピクセルが4になる)を介して達成することができ、その全体が参照により組み込まれる。なお、ズームインする領域は、ジェスチャー追跡システム、視線追跡システム及びグラフィカルユーザインターフェイス(GUI)を含むさまざまなユーザ入力を通じて実現できる。なお、図16(A)に示されていた画像1601A内の領域が、1601Bに示されているようにズームインされている。なお、領域1601Bの分解能は画像1600の分解能と等しいが、それより大きいだけである。なお、1600Bは、1600Aの拡大されていない部分を示している。なお、1601Aが拡大されており、1600Aの一部が視覚化されていない。
図17(A)は、ズームされていない画像を示す。1700は画像を示す。1701Aは、ズームインされるように設定された画像1700内の領域を示すために示されたボックスを示す。
図17(B)は、画像の一部に対する光学式ズームインを示す。なお、ズームインする領域は、ジェスチャー追跡システム、視線追跡システム及びグラフィカルユーザインターフェイス(GUI)を含むさまざまなユーザ入力を通じて実現できる。なお、図17(A)に示されていた画像1701A内の領域が、1701Bに示されるように拡大されており、また、1701B内の画像がより高画質に見える。これは、領域1701Bに最高品質の画像を選択的に表示し、領域1701Bを拡大することによって行うことができる。クラウドが大きくなっただけでなく、クラウドの分解能も良くなる。なお、1700Bは、拡大されていない1700Aの部分を示している(なお、拡大されていない1700Aの部分の一部がズームインされた領域によって覆われている)。
図18(A)は、単一分解能画像を示す。1800Aは画像を示す。1801Aは、分解能が改善されるように設定された画像1800A内の領域を示すために示されたボックスを示す。
図18(B)は、多重分解能画像を示す。分解能が向上する領域は、ジェスチャー追跡システム、視線追跡システム及びジョイスティック又はコントローラを含むグラフィカルユーザインターフェイス(GUI)を含むさまざまなユーザ入力を通じて実現できる。なお、図18(A)に示されていた画像1801A内の領域が、1801Bに示されるように、より高い分解能で表示される。いくつかの実施形態では、1801B内の画像は、他のオプション(例えば、異なる配色、異なる明るさ設定など)でも同様に変更することができる。これは、領域1701Bを拡大することなく、領域1801Bにより高い(例えば、最高の)品質の画像を選択的に表示することによって行うことができる。
図19(A)は、第1のユーザが画像の第1の部分を見ており、第2のユーザが画像の第2の部分を見ている広い視野を示す。1900Aは広い視野であり、第1分解能である。1900Bは、図19(B)に示すように、第1のユーザが見ている場所であり、高分解能になるように設定されている。1900Cは、図19(B)に示すように、第2のユーザが見ている場所であり、高分解能になるように設定されている。
図19(B)は、図19(A)の画像の第1の部分のみと図19(A)の画像の第2の部分のみが高分解能であり、画像の残りの部分が低分解能であることを示す。1900Aは広い視野であり、第1の分解能(低分解能)である。1900Bは、第2の分解能(この例では高分解能)である第1のユーザの高分解能ゾーンの位置である。1900Cは、第2の分解能(この例では高分解能)である第2のユーザの高分解能ゾーンの位置である。したがって、第1の高分解能ゾーンは第1のユーザに使用される。また、第2の高分解能ゾーンは第2のユーザに使用できる。このシステムは、図14(A)及び14(B)に示すように、ホームシアターディスプレイに役立ちうるであろう。
図20(A)は、低分解能画像を示す。
図20(B)は、高分解能画像を示す。
図20(C)は、合成画像を示す。なお、この合成画像は、低分解能の第1の部分2000と高分解能の第2の部分2001とを有する。これは米国特許第16/893,291号に記載されており、その全体が参照により組み込まれる。第1の部分は、ユーザの視聴パラメータ(視野角など)によって決定される。新規な点は、第1の画質による第1の部分2000と第2の画質による第2の部分とのほぼリアルタイムのストリーミングである。なお、第1の部分は第2の部分とは異なる方法で表示される可能性がある。例えば、第1の部分と第2の部分は、輝度、カラースキーム又はその他のような視覚的プレゼンテーションパラメータが異なりうる。したがって、いくつかの実施形態では、画像の第1の部分は圧縮することができ、画像の第2の部分は圧縮されない。他の実施形態では、ユーザに表示するためにいくつかの高分解能画像といくつかの低分解能画像とをつなぎ合わせて配置して合成画像が生成される。いくつかの実施形態では、大きな(例えば、4億2900万ピクセル)画像のいくつかの部分は高分解能であり、大きな画像のいくつかの部分は低分解能である。大きな画像の高分解能部分は、ユーザの表示パラメータ(収束点、視野角、頭の角度など)に従ってストリーミングされる。
図21は、カスタマイズされた画像のほぼリアルタイムのストリーミングを実行するための方法及びプロセスを示す。
ディスプレイ2100に関して、ディスプレイには、大型テレビ、拡張現実(拡張現実、仮想現実、複合現実ディスプレイなど)、スクリーン上のプロジェクターシステム、コンピュータのモニターなどが含まれるが、これらに限定されない。ディスプレイの重要な要素は、ユーザが画像のどこを見ているか、及び表示パラメータが何であるかを追跡する能力である。
表示パラメータ2101に関して、表示パラメータには、視野角、輻輳/収束、ユーザの好み(例:特定の関心のある被写体、フィルタリング*「R」と評価された一部の被写体は特定のユーザ向けにフィルタリング可能、など)が含まれるが、これらに限定されない。
クラウド1202に関しては、映画又はビデオの各フレームは非常に大きなデータになる(特に、図14(A)及び14(B)に示されるホームシアターが米国特許出願第17/225,610号、その全体が参照により組み込まれる、に記載されているようにカメラクラスタと組み合わせて使用される場合)。なお、クラウドとはストレージ、データベースなどを指す。なお、クラウドはクラウドコンピューティングが可能である。本開示の新規な点は、ユーザの表示パラメータをクラウドに送信し、クラウド内で表示パラメータを処理すること(例えば、図12で説明した視野又は複合立体画像ペアの選択)及び個々のユーザのエクスペリエンスを最適化するために、非常に大きなデータのどの部分をストリーミングするかを決定することである。例えば、複数のユーザがムービーを同期させることができるであろう。それぞれが、その特定の時点で個別に最適化されたデータをクラウドからモバイル装置にストリーミングする2103。そして、各自が個別に最適化されたデータを自分の装置で表示する。これにより、没入型の視聴体験が向上する。例えば、ある時点で、シャンデリア、犬、老人、本棚、長テーブル、カーペット、壁画のあるディナーのシーンがあると仮定する。デーブという名前のユーザが犬を見ていると、デーブの画像が最適化される(例えば、犬の最大分解能と最適化された色の画像とがデーブのモバイル装置にストリーミングされ、デーブのHDUに表示される)。キャシーという名前のユーザがシャンデリアを見ている可能性があり、キャシーの画像が最適化される(例えば、シャンデリアの最大分解能と最適化された色の画像とがキャシーのモバイル装置にストリーミングされ、キャシーのHDUに表示される)。最後に、ボブという名前のユーザが老人を見ている可能性があり、ボブの画像が最適化される(例えば、老人の最大分解能と最適化された色の画像とがボブのモバイル装置にストリーミングされ、ボブのHDUに表示される)。なお、クラウドには各時点で膨大なデータセットが保存されるが、ストリーミングされるのはその一部のみであり、それらの部分はユーザの視聴パラメータ及び/又は好みによって決定される。したがって、本棚、長テーブル、カーペット、壁画はすべてデーブ、キャシー、ボブの視野内にある可能性があるが、これらの被写体は表示用に最適化されない(例えば、クラウドに保存されたこれらの画像の考えうる最高の分解能はトリーミングされなかった)。
最後に、先制の概念が導入される。次のシーンが特定のユーザの視聴パラメータの変化(例えば、ユーザの頭の回転)を引き起こす可能性があると予測される場合、その追加の画像フレームの先制的なストリーミングを実行することができる。たとえば、映画の時間が1:43:05で、1:43:30に恐竜が音を立てて画面の左側から飛び出してくるとする。したがって、シーン全体を低分解能フォーマットでダウンロードし、必要に応じてFOVの選択部分のデータの追加セットをダウンロードすることができる(例えば、ユーザの観察パラメータに基づいて、ユーザが見ると予測される今後の恐竜シーンに基づいて)。したがって、飛び出してくる恐竜は常に最大分解能になる。このような技術により、より没入型で改善された視聴体験が作られる。
図22(A)は、立体カメラと組み合わせて切除を使用することを示す。カメラ#1は既知の位置(GPSからの緯度と経度など)を有する。カメラ#1から、被写体2200までの距離(2マイル)及び方向(北北西330度)が分かる。被写体2200の位置を計算することができる。カメラ#2の位置は不明であるが、被写体2200までの距離(1マイル)と方向(北北東30度)は分かっている。被写体2200の位置は計算できるので、幾何学的形状を解決してカメラ#2の位置を決定することができる。
図22(A)は、立体カメラと組み合わせて切除を使用することを示す。カメラ#1は既知の位置(GPSからの緯度と経度など)を有する。カメラ#1とカメラ#2とは既知の位置を有する。カメラ#1から、被写体2200Bまでの方向(北北西330度)が分かる。カメラ#2から、被写体2200Bまでの方向(北北東30度)が分かる。被写体2200Bの位置を計算することができる。
図23(A)は、ホームシアターのスクリーンの中心から前方を見ている人の上面図を示す。人物2300は、ホームシアターのスクリーン2301の中央セクション2302Bを向いている。この時点の間、ストリーミングは、中央セクション2302Bが最適化され(例えば、可能な限り最高の分解能)、左セクション2302Aが最適化されず(例えば、低分解能又は黒)、右セクション2302Cが最適化されない(例えば、高分解能)ようにカスタマイズされる。なお、適切なストリーミングのためには、監視システム(ユーザの視線方向及びジェスチャー又は顔の表情などのその他の視聴パラメータを検出する)又はコントローラ(ユーザからのコマンドを受け取るためのコントローラも設置する必要がある)が必要である。
図23(B)は、ホームシアターのスクリーンの右側を見ている人の上面図を示す。人物2300は、ホームシアターのスクリーン2301のセクション2302Cの右側を見ている。この時点の間、ストリーミングは、右セクション2302Cが最適化され(例えば、可能な限り最高の分解能)、左セクション2302Aが非最適化(例えば、低分解能又は黒)、中央セクション2302Bが非最適化(例えば、高分解能)するようにカスタマイズされる。なお、適切なストリーミングのためには、監視システム(ユーザの視線方向及び、ジェスチャー又は顔の表情などのその他の視聴パラメータを検出する)又はコントローラ(ユーザからのコマンドを受け取るためのコントローラも設置する必要がある)が必要である。
図24は、移動中の画像取得中に立体カメラ設定を最適化するための方法、システム、及び装置を示す。2400は、ある時点での物体の距離を決定する(例えば、レーザー距離計を使用する)ことを示す。被写体追跡/目標追跡システムを実装できる。2401は、ステップ2400で決定された前記距離に対して最適化されるように立体カメラシステムのズーム設定を調整することを示す。好ましい実施形態では、これは、デジタルズームを実行するのではなく、ズームレンズを使用するときに実行される。2402は、ステップ2400で決定されたように、立体カメラ間の分離の距離(ステレオ距離)が前記距離に対して最適化されるように調整することを示す。なお、ステップ2400で決定された前記距離に対して最適化されるようにカメラの向きを調整するオプションもある。2403は、ステップ2400の時点で目標の立体画像を取得することを示す。2404は、取得された立体画像の記録、表示、及び/又は分析を示す。
Claims (20)
- インターネットを介してユーザの視聴パラメータをクラウドにアップロードするステップであって、前記クラウドは画像を保存し、前記クラウドはクラウドコンピューティングが可能であり、前記ユーザの視聴パラメータは視野角を含むステップと、
前記クラウドにおいて、前記画像からユーザ固有の表示画像を最適化するステップであって、前記ユーザ固有の表示画像は、少なくとも前記視聴パラメータに基づき、前記ユーザ固有の表示画像は、第1の部分と第2の部分とを含み、前記ユーザ固有の表示画像の前記第1の部分は、前記ユーザ固有の表示画像の前記第2の部分とは異なり、前記ユーザ固有の表示画像の前記第1の部分は第1の画質を含み、
前記ユーザ固有の表示画像の前記第1の部分は前記視野角に対応し、前記ユーザ固有の表示画像の前記第2の部分は第2の画質を含み、前記第2の画質は前記第1の画質より低く、
前記インターネットを介して、前記ユーザ固有の表示画像をダウンロードするステップと、
前記ユーザ固有の表示画像を前記ユーザに表示するステップと、
を含む方法。 - 前記ユーザ固有の表示画像は、第1の空間解像度を有する第1の部分と、第2の空間解像度を有する第2の部分とを含み、前記第1の空間解像度は、前記第2の空間解像度よりも高いことをさらに含む請求項1に記載の方法。
- 前記画像がビデオ画像を含むことをさらに含む請求項1に記載の方法。
- 前記ユーザ固有の表示画像は、前記第1の部分が第1のズーム設定を含み、前記第2の部分が第2のズーム設定を含み、前記第1のズーム設定が前記第2のズーム設定よりも高いことをさらに含む請求項1に記載の方法。
- 前記第1の部分が、前記ユーザの身体の位置と、前記ユーザの身体の位置と、前記ユーザの身体の向きと、前記ユーザの手のジェスチャーと、前記ユーザの表情と、前記ユーザの頭の位置と、及び前記ユーザの頭の向きからなる群のうちの少なくとも1つによって決定されることをさらに含む請求項4に記載の方法。
- 前記第1の部分がグラフィカルユーザインターフェースによって決定されることをさらに含む請求項4に記載の方法。
- 前記画像は第1の視野(FOV)を含み、前記ユーザ固有の表示画像は第2のFOVを含み、前記第1のFOVは前記第2のFOVよりも大きいことをさらに含む請求項1に記載の方法。
- 前記画像は立体画像を含み、前記立体画像は、立体カメラ又は立体カメラクラスタを介して取得されることをさらに含む請求項1に記載の方法。
- 前記画像は結合された画像を含み、前記結合された画像は少なくとも2台のカメラによって生成されることをさらに含む請求項1に記載の方法。
- 前記画像は合成画像を含み、前記合成画像は、第1のカメラ設定セットを用いてシーンの第1の画像を撮影するステップであって、前記第1のカメラ設定のセットにより、第1の対象に焦点が合い、第2の対象に焦点が合わなくなるステップと、第2のカメラ設定のセットを用いてシーンの第2の画像を撮影するステップであって、前記第2のカメラ設定のセットにより、前記第2の対象に焦点が合い、前記第1の対象に焦点が合わなくなるステップと、によって生成されることをさらに含む請求項1に記載の方法。
- 前記ユーザが前記第1の対象を見ると、前記第1の画像が前記ユーザに提示され、前記ユーザが前記第2の対象を見ると、前記第2の画像が前記ユーザに提示される請求項10に記載の方法。
- 少なくとも前記第1の画像からの前記第1の対象と前記第2の画像からの前記第2の対象とを前記合成画像に組み合わせるステップをさらに含む請求項10に記載の方法。
- 前記視野角が前記ユーザによって移動可能であることをさらに含む請求項1に記載の方法。
- 前記視聴パラメータが収束を含む請求項1に記載の方法。
- 前記ユーザ固有の画像が3D画像であり、前記3D画像がヘッドディスプレイユニット(HDU)上に提示されることをさらに含む請求項1に記載の方法。
- 前記視野角は、前記HDUの向きによって決定されることをさらに含む請求項15に記載の方法。
- ユーザの視聴パラメータを決定するステップであって、前記ユーザの視聴パラメータは視野角を含むステップと、
インターネットを介して前記ユーザの視聴パラメータをクラウドに送信するステップであって、前記クラウドはクラウドコンピューティングが可能であり、前記クラウドコンピューティングは、前記クラウドに保存された画像からユーザ固有の表示画像を生成し、前記ユーザ固有の表示画像は少なくとも前記ユーザの視聴パラメータに基づき、前記ユーザ固有の表示画像は第1の部分と第2の部分とを含み、前記ユーザ固有の表示画像の前記第1の部分は、前記ユーザ固有の表示画像の前記第2の部分とは異なり、
前記ユーザ固有の表示画像の前記第1の部分は第1の画質を含み、前記ユーザ固有の表示画像の前記第1の部分は前記視野角に対応し、前記ユーザ固有の表示画像の前記第2の部分は第2の画質を含み、前記第2の画質は、前記第1の画質よりも低く、
前記インターネットを介して前記ユーザ固有の表示画像を受信するステップと、
前記ユーザ固有の表示画像をヘッドディスプレイユニット(HDU)上に表示するステップであって、前記HDUは左目ディスプレイ及び右目ディスプレイを備えるステップ、を含む方法。 - 前記ユーザ固有の表示画像がディスプレイ上で前記ユーザに提示され、前記ユーザが少なくとも0.5πステラジアンの視野を有することをさらに含む、請求項1に記載の方法。
- 前記ディスプレイが、スクリーン及びプロジェクタ、テレビ並びにモニターからなる群のうちの少なくとも1つを含むことをさらに含む、請求項18に記載の方法。
- インターネットを介してクラウドでユーザの視聴パラメータを受信するステップであって、前記ユーザの視聴パラメータは視野角を含み、前記クラウドはクラウドコンピューティングが可能であるステップと、
クラウドコンピューティングを使用して、前記クラウドに保存された画像からユーザ固有の表示画像を生成するステップであって、前記ユーザ固有の表示画像は、少なくとも前記ユーザの視聴パラメータに基づいており、前記ユーザ固有の表示画像は、第1の部分及び第2の部分を含み、前記ユーザ固有の表示画像の前記第1の部分は、前記ユーザの前記第2の部分とは異なる、前記ユーザ固有の表示画像の前記第1の部分は第1の画質を含み、前記ユーザ固有の表示画像の前記第1の部分は前記視野角に対応し、前記ユーザ固有の表示画像の前記第2の部分は、第2の画質を含み、前記第2の画質は前記第1の画質よりも低いステップと、
前記インターネットを介して、前記ユーザ固有の表示画像をヘッドディスプレイユニット(HDU)に送信するステップであって、前記HDUは左目ディスプレイ及び右目ディスプレイを備え、前記HDUは前記ユーザ固有の表示画像を表示するステップと、を含む方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US17/237,152 US11589033B1 (en) | 2021-02-28 | 2021-04-22 | Immersive viewing experience |
US17/237,152 | 2021-04-22 | ||
PCT/US2022/025818 WO2022226224A1 (en) | 2021-04-22 | 2022-04-21 | Immersive viewing experience |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024518243A true JP2024518243A (ja) | 2024-05-01 |
Family
ID=83723167
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023558524A Pending JP2024518243A (ja) | 2021-04-22 | 2022-04-21 | 没入型視聴体験 |
Country Status (4)
Country | Link |
---|---|
EP (1) | EP4327552A1 (ja) |
JP (1) | JP2024518243A (ja) |
CN (1) | CN117321987A (ja) |
WO (1) | WO2022226224A1 (ja) |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8228327B2 (en) * | 2008-02-29 | 2012-07-24 | Disney Enterprises, Inc. | Non-linear depth rendering of stereoscopic animated images |
US10551993B1 (en) * | 2016-05-15 | 2020-02-04 | Google Llc | Virtual reality content development environment |
EP3337154A1 (en) * | 2016-12-14 | 2018-06-20 | Thomson Licensing | Method and device for determining points of interest in an immersive content |
US20200371673A1 (en) * | 2019-05-22 | 2020-11-26 | Microsoft Technology Licensing, Llc | Adaptive interaction models based on eye gaze gestures |
US11206364B1 (en) * | 2020-12-08 | 2021-12-21 | Microsoft Technology Licensing, Llc | System configuration for peripheral vision with reduced size, weight, and cost |
-
2022
- 2022-04-21 JP JP2023558524A patent/JP2024518243A/ja active Pending
- 2022-04-21 EP EP22792523.7A patent/EP4327552A1/en active Pending
- 2022-04-21 CN CN202280030471.XA patent/CN117321987A/zh active Pending
- 2022-04-21 WO PCT/US2022/025818 patent/WO2022226224A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
EP4327552A1 (en) | 2024-02-28 |
WO2022226224A1 (en) | 2022-10-27 |
CN117321987A (zh) | 2023-12-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9842433B2 (en) | Method, apparatus, and smart wearable device for fusing augmented reality and virtual reality | |
US20200288113A1 (en) | System and method for creating a navigable, three-dimensional virtual reality environment having ultra-wide field of view | |
US9137524B2 (en) | System and method for generating 3-D plenoptic video images | |
CA2949005C (en) | Method and system for low cost television production | |
US9684435B2 (en) | Camera selection interface for producing a media presentation | |
US10154194B2 (en) | Video capturing and formatting system | |
US20150312561A1 (en) | Virtual 3d monitor | |
US20080246759A1 (en) | Automatic Scene Modeling for the 3D Camera and 3D Video | |
RU2765424C2 (ru) | Оборудование и способ для формирования изображения | |
US11143876B2 (en) | Optical axis control based on gaze detection within a head-mountable display | |
WO2012166593A2 (en) | System and method for creating a navigable, panoramic three-dimensional virtual reality environment having ultra-wide field of view | |
US11218681B2 (en) | Apparatus and method for generating an image | |
WO2016201015A1 (en) | Display for stereoscopic augmented reality | |
JP6628343B2 (ja) | 装置および関連する方法 | |
CN116325771A (zh) | 用于提供图像平移、倾斜和变焦功能的多传感器摄像系统、设备和方法 | |
WO2020206647A1 (zh) | 跟随用户运动控制播放视频内容的方法和装置 | |
US20210037225A1 (en) | Method of modifying an image on a computational device | |
Foote et al. | One-man-band: A touch screen interface for producing live multi-camera sports broadcasts | |
JP2024518243A (ja) | 没入型視聴体験 | |
US11589033B1 (en) | Immersive viewing experience | |
CN111602391A (zh) | 用于根据物理环境定制合成现实体验的方法和设备 | |
WO2009109804A1 (en) | Method and apparatus for image processing | |
Vockeroth et al. | The combination of a mobile gaze-driven and a head-mounted camera in a hybrid perspective setup | |
DeHart | Directing audience attention: cinematic composition in 360 natural history films | |
GB2548080A (en) | A method for image transformation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231006 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240325 |