JP7462069B2 - 複数のカメラからの合成入力を使用してビデオを生成するための仮想カメラ位置のユーザ選択 - Google Patents

複数のカメラからの合成入力を使用してビデオを生成するための仮想カメラ位置のユーザ選択 Download PDF

Info

Publication number
JP7462069B2
JP7462069B2 JP2022562530A JP2022562530A JP7462069B2 JP 7462069 B2 JP7462069 B2 JP 7462069B2 JP 2022562530 A JP2022562530 A JP 2022562530A JP 2022562530 A JP2022562530 A JP 2022562530A JP 7462069 B2 JP7462069 B2 JP 7462069B2
Authority
JP
Japan
Prior art keywords
space
location
instructions
user
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022562530A
Other languages
English (en)
Other versions
JP2023522654A (ja
Inventor
ブラック、グレン
テイラー、マイケル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Publication of JP2023522654A publication Critical patent/JP2023522654A/ja
Application granted granted Critical
Publication of JP7462069B2 publication Critical patent/JP7462069B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/35Details of game servers
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/50Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
    • A63F2300/53Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers details of basic data processing
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/69Involving elements of the real world in the game world, e.g. measurement in live races, real video

Description

本願は、必然的にコンピュータ技術に根ざしており、具体的な技術的改善を生じさせる技術的に発明性のある、通常にはない解決策に関連する。
本明細書で理解されるように、拡張現実(AR)コンピュータシミュレーション、例えばARビデオゲームのプレイヤは、ユーザがAR環境中を進むにつれてユーザ自身が選択することができるバンテージポイントから自分自身を見たいと思うかもしれない。
メッシュネットワーキングを使用して、拡張現実(AR)ヘッドセットなどの複数のカメラソースからのビデオを結合することができる。カメラが配置されている空間の集約されたビデオが生成されることができると、その空間内の任意のポイントで仮想カメラがシミュレートされ、仮想カメラの位置及び向きから空間の合成ビデオが生成されることができることで、ユーザが仮想カメラのバンテージポイントから自分自身及びその他の人を観察することができる。合成ビデオは、様々なカメラソースによって撮られた実世界ビデオから合成される。複数のビデオフレームから合成ビデオを生成する非限定的な例は、参照により本明細書に援用されている、USPP20170221218及び20170111652に記載されている。
ユーザは、レーザポインタ、アイトラッキングなどのジェスチャ(向き)による任意の適切なAR/VRインジケーション技法を使用して、ユーザがビデオを見たいバンテージポイントからの仮想カメラの位置及び向きを識別することができる。仮想カメラの焦点及び視野(FOV)もまた、例えばジェスチャを使用して、調整されることができる。
したがって、実世界空間は、多視点を同時に使用してマッピングされることができる。本出願の譲受人またはその関連会社によって所有され、参照により本明細書に援用され、「Multipoint SLAM capture」と題されたUSPN10,549,186は、複数のカメラから実世界マップを構築するための技法の一例を提供する。
実世界の合成ビデオは、仮想現実(VR)オブジェクトで拡張されることができる。複数の視点を使用して実世界マップを更新し、視点間の補間を使用して特徴空間内のギャップを埋めることができる。チームメイトの意図を推測するために、機械学習が使用される場合がある。カメラは、仮想移動オブジェクト(車、ドローンなど)に取り付けられ得、仮想ドリーは、映画制作に使用されることができる。仮想空間内のポイントを指定して、その間でカメラビューをパンすることができる。撮像された空間内のシャドウイング領域をハイライトして、ユーザにそこに移動して実世界シャドウ領域を撮影するように促すことができる。移動の速いオブジェクトを自動的に選択して、それらのようなオブジェクト上のカメラを訓練することができる。オープンループの実世界空間とクローズドループ空間(室内)との両方が企図され、仮想カメラは、人々の行動が予測されている、どこかに「配置」されることができる。自己画像の場合、GPS及びモーションセンサが使用されることができるため、ユーザのアバターは、仮想カメラのバンテージポイントから見えるであろう空間に配置されることができる。
したがって、装置は、命令でプログラムされた少なくとも1つのプロセッサを含み、これらの命令は、プロセッサによって、仮想カメラのために空間内の少なくとも1つの位置を識別することを実行可能である。これらの命令は、それぞれの複数のカメラによって生成された空間の複数のビデオにアクセスして、仮想カメラのバンテージポイントから空間の合成ビデオを生成することを実行可能である。また、命令は、合成ビデオを少なくとも1つの頭部搭載型装置に表示することを実行可能である。
頭部搭載型装置は、拡張現実ヘッドマウントディスプレイ(HMD)を含んでもよく、または拡張現実メガネを含んでもよい。
非限定的な例では、複数のカメラのうちの第一カメラは、頭部搭載型装置にある。必要に応じて、複数のカメラをそれぞれの頭部搭載型装置に搭載することができる。いくつかの実装では、仮想カメラのバンテージポイントは、仮想カメラの位置及び向きの両方を含む。
例示的な実施形態では、命令は、レーザからの光を撮像することに少なくとも部分的に基づいて、仮想カメラの空間内の位置を識別することを実行可能であり得る。他の例では、命令は、頭部搭載型装置の着用者のジェスチャを撮像することに少なくとも部分的に基づいて、仮想カメラの空間内の位置を識別することを実行可能であり得る。さらに他の例では、命令は、頭部搭載型装置の着用者の眼を撮像することに少なくとも部分的に基づいて仮想カメラの空間内の位置を識別することを実行可能であり得る。必要に応じて、命令は、ビデオ撮像を必要とする空間内の領域のインジケーションを頭部搭載型装置に提示することを実行可能であり得る。
別の態様では、アセンブリは、少なくとも1つのそれぞれのカメラを各含む、少なくとも第一及び第二ヘッドマウントデバイス(HMD)を含む。また、アセンブリは、命令でプログラムされた少なくとも1つのプロセッサを含み、これらの命令は、仮想カメラのために空間内の少なくとも1つの位置を識別し、HMDのカメラからの画像を使用して、仮想カメラのその位置のバンテージポイントからビデオを生成するようにプロセッサを構成することを実行可能である。命令は、HMDのうちの少なくとも1つにビデオを提示することを実行可能である。
別の態様では、方法は、それぞれの実世界カメラによって撮られた空間の複数のビデオにアクセスすることを含む。また、方法は、ユーザによるバンテージポイントの識別に基づいて、実世界カメラのそれぞれの位置から離れたバンテージポイントから、複数のビデオからの合成ビデオを生成することを含む。この方法は、ユーザが装着した頭部搭載型装置に合成ビデオを提示することを含む。
本願の詳細は、その構造及び動作の両方について、同様の参照符号が同様の部分を指す添付図を参照して最も良く理解できる。
本原理と一致した例示的なシステムのブロック図である。 AR環境の一例を示す。 本原理と一致した例示的なロジックを例示的なフローチャート形式で示す。 メガネとして構成された代替の頭部搭載用具を示す。 仮想カメラのバンテージポイントを選択するための第一技法を示す。 仮想カメラのバンテージポイントを選択するための第二技法を示す。 仮想カメラのバンテージポイントを選択するための第三技法を示す。 ユーザが指定した位置でカメラが撮ったかのような例示的なAR合成ビデオのスクリーンショットを示す。 本原理と一致したスクリーンショットを示す。 本原理と一致した代替のロジックの例を示す。
本開示は、概して、限定ではないが、コンピュータゲームネットワーク等の家電製品(CE)デバイスネットワークの態様を含むコンピュータエコシステムに関する。本明細書のシステムは、クライアントコンポーネントとサーバコンポーネントとの間でデータを交換し得るように、ネットワークを通じて接続されたサーバコンポーネント及びクライアントコンポーネントを含み得る。クライアントコンポーネントは、Sony PlayStation(登録商標)等のゲーム機またはMicrosoft(登録商標)もしくはNintendo(登録商標)もしくは他の製造者によって作成されたゲーム機、仮想現実(VR)ヘッドセット、拡張現実(AR)ヘッドセット、ポータブルテレビ(例えば、スマートテレビ、インターネット対応テレビ)、ラップトップ及びタブレットコンピュータ等のポータブルコンピュータ、ならびにスマートフォン及び下記に説明される追加の例を含む他のモバイルデバイスを含む、1つ以上のコンピューティングデバイスを含み得る。これらのクライアントデバイスは、様々な動作環境で動作し得る。例えば、クライアントコンピュータの一部は、例として、Linux(登録商標)オペレーティングシステム、Microsoft(登録商標)のオペレーティングシステム、もしくはUnix(登録商標)オペレーティングシステム、またはApple Computer(登録商標)もしくはGoogle(登録商標)によって製造されたオペレーティングシステムを使用し得る。これらの動作環境を使用して、Microsoft(登録商標)もしくはGoogle(登録商標)もしくはMozilla(登録商標)によって作成されたブラウザ、または下記に説明されるインターネットサーバによってホストされるウェブサイトにアクセスできる他のブラウザプログラム等の1つ以上の閲覧プログラムを実行し得る。また、1つ以上のコンピュータゲームプログラムを実行するために、本原理による動作環境が用いられ得る。
サーバ及び/またはゲートウェイは、インターネット等のネットワークを介してデータの受信及び送信を行うようにサーバを構成する命令を実行する1つ以上のプロセッサを含み得る。または、クライアント及びサーバは、ローカルイントラネットまたは仮想プライベートネットワークを介して接続することができる。サーバまたはコントローラは、Sony PlayStation(登録商標)等のゲーム機、パーソナルコンピュータ等によってインスタンス化され得る。
クライアントとサーバとの間でネットワークを介して情報を交換することができる。この目的のために及びセキュリティのために、サーバ及び/またはクライアントは、ファイアウォール、ロードバランサ、テンポラリストレージ、及びプロキシ、ならびに信頼性及びセキュリティのための他のネットワークインフラストラクチャを含み得る。1つ以上のサーバは、ネットワークメンバーにオンラインソーシャルウェブサイト等のセキュアコミュニティを提供する方法を実施する装置を形成し得る。
本明細書で使用される場合、命令は、システムにおいて情報を処理するためにコンピュータにより実施されるステップを指す。命令は、ソフトウェア、ファームウェアまたはハードウェアに実装されることができ、システムのコンポーネントによって行われるあらゆるタイプのプログラムされたステップを含むことができる。
プロセッサは、アドレスライン、データライン、及び制御ラインなどの様々なライン、ならびにレジスタ及びシフトレジスタによってロジックを実行できる汎用シングルチッププロセッサまたは汎用マルチチッププロセッサであり得る。
本明細書のフローチャート及びユーザインタフェースによって説明されるソフトウェアモジュールは、様々なサブルーチン、プロシージャなどを含むことができる。本開示を限定することなく、特定のモジュールによって実行されると述べられたロジックは、他のソフトウェアモジュールに再配布されること、及び/または単一モジュールに合わせて結合されること、及び/または共有可能なライブラリで利用可能にされることができる。
本明細書で説明される本原理は、ハードウェア、ソフトウェア、ファームウェア、またはそれらの組み合わせとして実装されてもよく、よって、例示的なコンポーネント、ブロック、モジュール、回路、及びステップは、それらの機能性の観点から示される。
さらに、上で示唆されたものについて、以下で説明される論理ブロック、モジュール、及び回路は、本明細書で説明される機能を実行するよう設計された、汎用プロセッサ、デジタルシグナルプロセッサ(DSP)、フィールドプログラマブルゲートアレイ(FPGA)、もしくは特定用途向け集積回路(ASIC)、個別ゲートもしくはトランジスタ論理、個別ハードウェアコンポーネント、またはそれらのいずれかの組み合わせ等の他のプログラマブル論理デバイスにより実装または実行され得る。プロセッサは、コンピューティングデバイスのコントローラもしくはステートマシン、または組み合わせによって実装され得る。
以下で説明される機能及び方法は、ソフトウェアにおいて実装されるとき、限定ではないが、Java(登録商標)、C#、またはC++等の適切な言語において記述することができ、ランダムアクセスメモリ(RAM)、リードオンリメモリ(ROM)、電気的消去可能プログラマブルリードオンリメモリ(EEPROM)、コンパクトディスクリードオンリメモリ(CD-ROM)、またはデジタル多用途ディスク(DVD)等の他の光ディスクストレージ、磁気ディスクストレージもしくは着脱可能サムドライブ等を含む他の磁気記憶装置等のコンピュータ可読記憶媒体に記憶することができ、またはそれらを通して伝送することができる。接続は、コンピュータ可読媒体を確立し得る。このような接続は、例として、光ファイバ、同軸ワイヤ、デジタル加入者回線(DSL)、及びツイストペアワイヤを含む有線ケーブルを含み得る。そのような接続は、赤外線及び無線機を含む無線通信接続を含んでもよい。
ある実施形態に含まれるコンポーネントを、他の実施形態において任意の適切な組み合わせで使用することができる。例えば、本明細書で説明される、及び/または図に描かれる様々なコンポーネントのいずれも、組み合わされてもよく、交換されてもよく、または他の実施形態から除外されてもよい。
「A、B、及びCの少なくとも1つを有するシステム」(同様に「A、B、またはCの少なくとも1つを有するシステム」及び「A、B、Cのうちの少なくとも1つを有するシステム」)は、Aを単独で、Bを単独で、Cを単独で、A及びBを一緒に、A及びCを一緒に、B及びCを一緒に、及び/またはA、B、及びCを一緒に有するシステム等を含む。
ここで具体的に図1を参照すると、システム10の一例が示されており、これは、本原理による、前述されており、さらに後述されている例示的なデバイスのうちの1つ以上を含み得る。システム10に含まれる例示的なデバイスの第一デバイスは、TVチューナを備えたインターネット対応TV(同等に、TVを制御するセットトップボックス)などであるがこれに限定されない、オーディオビデオデバイス(AVD)12などの家庭用電化製品(CE)のデバイスである。しかし、AVD12は、代わりに、電気器具または家庭用品、例えば、コンピュータ制御でインターネット対応の冷蔵庫、洗濯機、または乾燥機であってよい。あるいは、AVD12はまた、コンピュータ制御型インターネット対応(「スマート」)電話、タブレットコンピュータ、ノートブックコンピュータ、例えば、コンピュータ制御型インターネット対応時計、コンピュータ制御型インターネット対応ブレスレット、他のコンピュータ制御型インターネット対応デバイス等のウェアラブルコンピュータ制御デバイス、コンピュータ制御型インターネット対応ミュージックプレーヤ、コンピュータ制御型インターネット対応ヘッドフォン、インプラント可能な皮膚用デバイス等のコンピュータ制御型インターネット対応のインプラント可能なデバイス等であってよい。いずれにしても、AVD12は、本原理を実施する(例えば、本原理を実施するように他のCEデバイスと通信し、本明細書に説明されるロジックを実行し、本明細書に説明されるいずれかの他の機能及び/または動作を行う)ように構成されることを理解されたい。
したがって、このような原理を実施するために、AVD12は、図1に示すコンポーネントの一部または全てによって確立され得る。例えば、AVD12は、高解像度フラットスクリーンまたは「4K」以上の超高解像度フラットスクリーンによって実装してもよく、ユーザ入力信号をディスプレイ上のタッチを介して受け取るためのタッチ対応であってもよい、1つ以上のディスプレイ14を含むことが可能である。AVD12は、本原理に従ってオーディオを出力するための1つ以上のスピーカ16と、例えば、可聴コマンドをAVD12に入力して、AVD12を制御するための、例えば、オーディオ受信機/マイクロフォン等の少なくとも1つの追加の入力デバイス18とを備え得る。例示的なAVD12は、また、1つまたは複数のプロセッサ24の制御下でインターネット、WAN、LAN等の少なくとも1つのネットワーク22を介して通信するための1つまたは複数のネットワークインタフェース20を含み得る。グラフィックスプロセッサ24Aを含んでいてもよい。したがって、インタフェース20は、Wi-Fi(登録商標)送受信器であり得るが、これに限定されず、Wi-Fi(登録商標)送受信器は、非限定的にメッシュネットワーク送受信器などの無線コンピュータネットワークインタフェースの例である。プロセッサ24は、例えば、画像を提示するようにディスプレイ14を制御することや、ディスプレイ14から入力を受信すること等の本明細書に説明されるAVD12の他の要素を含むAVD12が本原理を実施するように制御することが理解されよう。さらに、ネットワークインタフェース20は、例えば、有線もしくは無線モデムもしくはルータ、または、例えば、無線テレフォニ送受信機もしくは上述したWi-Fi(登録商標)送受信機などの他の適切なインタフェースであってもよい。
上記に加えて、ADV12はまた、例えば、別のCEデバイスに(例えば、有線接続を使用して)物理的に接続するための高精細マルチメディアインタフェース(HDMI(登録商標))ポートもしくはUSBポート、及び/またはヘッドフォンを通してADV12からユーザにオーディオを提供するためにADV12にヘッドフォンを接続するためのヘッドフォンポート等の1つまたは複数の入力ポート26を含み得る。例えば、入力ポート26は、オーディオビデオコンテンツのケーブルソースまたは衛星ソース26aに、有線または無線を介して接続され得る。したがって、ソース26aは、例えば、別個のもしくは統合されたセットトップボックス、または衛星受信器であり得る。あるいは、ソース26aは、以下でさらに説明されている、チャネル割り当て目的でユーザがお気に入りとみなし得るコンテンツを含むゲームコンソールまたはディスクプレーヤであってもよい。ソース26aは、ゲームコンソールとして実装されるとき、CEデバイス44に関連して以下で説明されるコンポーネントの一部または全てを含んでもよい。
AVD12はさらに、一時的信号でない、ディスクベースまたはソリッドステート記憶装置等の1つ以上のコンピュータメモリ28を含んでもよく、これらは、いくつかの場合にはスタンドアロンデバイスとして、またはパーソナルビデオレコーディングデバイス(PVR)としてAVDのシャーシで具体化され、またはAVプログラムを再生するために、AVDのシャーシの内部もしくは外部のいずれかでビデオディスクプレーヤとして具体化され、または着脱可能メモリ媒体として具体化される。また、いくつかの実施形態では、AVD12は、限定するものではないが、例えば、少なくとも1つのサテライト基地局もしくは携帯電話基地局から地理的位置情報を受信し、情報をプロセッサ24に提供し、及び/またはAVD12がプロセッサ24と併せて配置される高度を判定するように構成される、携帯電話受信機、GPS受信機、及び/または高度計30等の位置受信機または場所受信機を含み得る。しかし、例えば全3次元において、例えば、AVD12の場所を判定するために、本原理に従って、携帯電話受信機、GPS受信機、及び/または高度計以外の別の適切な位置受信機が使用され得ることを理解されたい。
AVD12の説明を続けると、ある実施形態では、AVD12は、1つまたは複数のカメラ32を備えてよく、1つまたは複数のカメラ32は、例えば、サーマルイメージングカメラ、ウェブカメラなどのデジタルカメラ、及び/またはAVD12に統合され、本原理に従って写真/画像及び/またはビデオを収集するようプロセッサ24によって制御可能なカメラであってよい。AVD12にはまた、ブルートゥース(登録商標)及び/または近距離無線通信(NFC)技術をそれぞれ使用した他のデバイスとの通信のためのブルートゥース(登録商標)送受信機34及び他のNFC素子36が含まれ得る。例示的なNFC素子は、無線周波数識別(RFID)素子であってよい。
さらにまた、AVD12は、プロセッサ24に入力を提供する1つ以上の補助センサ37(例えば、加速度計、ジャイロスコープ、サイクロメータ等の運動センサ、または磁気センサ、赤外線(IR)センサ、光学センサ、速度センサ及び/またはケイデンスセンサ、ジェスチャセンサ(例えば、ジェスチャコマンドを検知するためのセンサ)等)を含み得る。AVD12は、プロセッサ24への入力をもたらすOTA(無線経由)TV放送を受信するための無線経由TV放送ポート38を含み得る。上述したものに加え、AVD12は、赤外線(IR)送信機及び/またはIR受信機及び/または赤外線データアソシエーション(IRDA)デバイスなどのIR送受信機42も備えてよいことに留意されよう。AVD12に給電するためのバッテリ(図示せず)が備えられてよい。
さらに図1を参照すると、AVD12に加えて、システム10は、1つまたは複数の他のCEデバイスタイプを含んでもよい。一例では、第一CEデバイス44は、コンピュータゲームのオーディオ及びビデオを、ADV12に直接送信されるコマンドを介して、及び/または以下に説明されるサーバを通してADV12に送信するために使用され得、一方、第二CEデバイス46は、第一CEデバイス44と同様のコンポーネントを含み得る。示される例では、第二CEデバイス46は、図示されるようにプレイヤ47が装着するVRヘッドセットとして構成され得る。示される実施例では、2つのCEデバイス44、46だけが示されており、より少ない数またはより多い数のデバイスが使用され得ることが理解される。
示される例では、本原理を示すために、3つ全てのデバイス12、44、46は、例えば家庭のエンターテインメントネットワークのメンバーであるか、または少なくとも、住宅等の場所において相互に近接して存在していると想定される。しかし、本原理は、他に明確に主張されない限り、破線48によって示される特定の場所に限定されない。
例示的な非限定的な第一CEデバイス44は、上述のデバイス、例えば、ポータブル無線ラップトップコンピュータまたはノートブックコンピュータまたはゲームコントローラ(「コンソール」とも称される)のいずれか1つによって確立されてもよく、したがって、以下で説明される1つ以上のコンポーネントを有してもよい。第一CEデバイス44は、例えば、AV再生コマンド及び一時停止コマンドをAVD12に発行するためのリモート制御(RC)であってもよく、またはタブレットコンピュータ、有線もしくは無線リンクを介してAVD12と通信するゲームコントローラ、パーソナルコンピュータ、無線電話等のより高性能のデバイスであってもよい。
したがって、第一CEデバイス44は1つ以上のディスプレイ50を含み得、1つ以上のディスプレイ50はディスプレイのタッチによりユーザ入力信号を受信するためのタッチ式であり得る。第一CEデバイス44は、本原理に従って音声を出力するための1つまたは複数のスピーカ52と、例えば、デバイス44を制御するために可聴コマンドを第一CEデバイス44に入力するための、例えば、音声受信機/マイクロフォン等の少なくとも1つの追加の入力デバイス54とを備えてよい。例示の第一CEデバイス44はまた、1つ以上のCEデバイスプロセッサ58の制御下で、ネットワーク22を介して通信するための1つ以上のネットワークインタフェース56を含み得る。グラフィックスプロセッサ58Aを含んでいてもよい。したがって、インタフェース56は、Wi-Fi(登録商標)送受信器であり得るが、これに限定されず、Wi-Fi(登録商標)送受信器は、メッシュネットワークインタフェースを含む無線コンピュータネットワークインタフェースの例である。プロセッサ58は、例えば、ディスプレイ50を、画像を提示するように制御することや、そこから入力を受信すること等の本明細書に説明される第一CEデバイス44の他の要素を含む、本原理を実施するように第一CEデバイス44を制御することが理解されよう。さらに、ネットワークインタフェース56は、例えば、有線もしくは無線モデムもしくはルータ、または、例えば、無線テレフォニ送受信機もしくは上述したWi-Fi(登録商標)送受信機などの他の適切なインタフェースであってもよい。
上記に加えて、第一CEデバイス44はまた、例えば、別のCEデバイスに(例えば、有線接続を使用して)物理的に接続するためのHDMI(登録商標)ポートもしくはUSBポート、及び/またはヘッドフォンを通して第一CEデバイス44からユーザにオーディオを提供するために第一CEデバイス44にヘッドフォンを接続するためのヘッドフォンポート等の1つまたは複数の入力ポート60を含み得る。第一CEデバイス44はさらに、ディスクベースストレージまたはソリッドステートストレージなどの1つ以上の有形コンピュータ可読記憶媒体62を含み得る。また、ある実施形態では、第一CEデバイス44は、限定ではないが、携帯電話及び/またはGPS受信機及び/または高度計64など、位置または場所の受信機を備えることができ、位置または場所の受信機は、例えば、三角測量を使用して、少なくとも1つの衛星タワー及び/または携帯電話タワーから地理的位置情報を受信し、その情報をCEデバイスプロセッサ58に提供し、及び/または第一CEデバイス44がCEデバイスプロセッサ58と共に配置される高度を判定するように構成される。しかしながら、本原理に従って、例えば、全ての3つの次元において第一CEデバイス44の位置を判定するために、携帯電話及び/またはGPS受信機及び/または高度計以外の他の適切な位置受信機が使用されてもよいことを理解されたい。
第一CEデバイス44の説明を続けると、ある実施形態では、第一CEデバイス44は、1つまたは複数のカメラ66を備えてよく、1つまたは複数のカメラ66は、例えば、サーマルイメージングカメラ、ウェブカメラなどのデジタルカメラ、及び/または第一CEデバイス44に統合され、本原理に従って写真/画像及び/またはビデオを収集するようにCEデバイスプロセッサ58によって制御可能であるカメラであってよい。また、第一CEデバイス44は、ブルートゥース(登録商標)送受信器68と他の近距離無線通信(NFC)素子70とを含み得、これらは、ブルートゥース(登録商標)及び/またはNFC技術をそれぞれ使用して、他のデバイスと通信する。例示的なNFC素子は、無線周波数識別(RFID)素子であってもよい。
さらにまた、第一CEデバイス44は、CEデバイスのプロセッサ58に入力を提供する1つ以上の補助センサ72(例えば、加速度計、ジャイロスコープ、サイクロメータ等のモーションセンサ、または磁気センサ、赤外線(IR)センサ、光センサ、速度センサ及び/またはケイデンスセンサ、ジェスチャセンサ(例えば、ジェスチャコマンドを検知するためのセンサ)等)を含み得る。第一CEデバイス44は、例えば1つ以上の気候センサ74(例えば、気圧計、湿度センサ、ウィンドセンサ、光センサ、温度センサなど)及び/またはCEデバイスのプロセッサ58に入力を提供する1つ以上のバイオメトリックセンサ76のようなさらに他のセンサを含んでもよい。前述に加えて、いくつかの実施形態では、第一CEデバイス44はまた、赤外線データ協会(IRDA)デバイスなどの赤外線(IR)送信器及び/またはIR受信器及び/またはIR送受信器78を含み得ることに留意されたい。第一CEデバイス44に給電するためのバッテリ(図示せず)が備えられてよい。CEデバイス44は、上記の通信モード及び関連コンポーネントのいずれかを介してAVD12と通信し得る。
第二CEデバイス46は、CEデバイス44について示したコンポーネントの一部または全部を含むことができる。CEデバイスの1つまたは両方のいずれかは、1つ以上のバッテリによって供電され得る。
ここで、上記言及された少なくとも1つのサーバ80を参照すると、サーバは、少なくとも1つのサーバプロセッサ82、ディスクベースまたはソリッドステート記憶装置等の少なくとも1つの有形コンピュータ可読記憶媒体84、及びサーバプロセッサ82の制御の下、ネットワーク22を通じて図1の他のデバイスとの通信を可能にし、実際に、本原理に従ってサーバとクライアントデバイスとの間の通信を促進し得る少なくとも1つのネットワークインタフェース86を含む。ネットワークインタフェース86は、例えば、有線もしくは無線のモデムもしくはルータ、Wi-Fi(登録商標)送受信機、または、例えば、無線テレフォニ送受信機等の他の適切なインタフェースであり得ることに留意されたい。
したがって、いくつかの実施形態では、サーバ80は、インターネットサーバまたはサーバ「ファーム」全体であってもよく、システム10のデバイスが、例えばネットワークゲームアプリケーションについての例示的な実施形態においてサーバ80を介して「クラウド」環境にアクセスできるような「クラウド」機能を含み、この「クラウド」機能を実行することができる。または、サーバ80は、1つ以上のゲーム機、または図1に示される他のデバイスと同じ部屋もしくはその近くにある他のコンピュータによって実装され得る。
本明細書における方法は、当業者によって認識されるように、プロセッサ、適切に構成された特定用途向け集積回路(ASIC)もしくはフィールドプログラマブルゲートアレイ(FPGA)モジュール、またはいずれかの他の便利な方式によって実行されるソフトウェア命令として実装されてもよい。採用される場合、ソフトウェア命令は、CD ROMまたはフラッシュドライブ等の非一時的デバイスにおいて具体化されてもよい。代わりに、ソフトウェアコード命令は、無線機もしくは光信号等の一時的な配列において、またはインターネットを通じたダウンロードを介して具体化され得る。
ここで図2を参照すると、複数のユーザ200が、図4を参照して以下でさらに説明される、コンピュータゲームの拡張現実(AR)ヘッドマウントデバイス(HMD)またはメガネ型装置などであるがこれらに限定されないそれぞれの頭部搭載型装置(HMA)を各装着することができることが示されている。各HMA202は1つ以上のカメラを含み、これら1つ以上のカメラは、ユーザ200が存在する空間を撮像することができ、ユーザの眼を撮像することもできる。通常、ビデオ形式の画像は、無線リンクを介してシンセサイザコンピュータ204に送信される。シンセサイザコンピュータ204は、いくつかの実施形態では、サーバもしくは他のコンピュータによって実装されてもよく、またはHMA202の一方もしくは両方に統合されてもよい。無線リンクは、ブルートゥース(登録商標)またはWi-Fi(登録商標)リンクのうちのいずれか1つ以上であってもよいが、これらに限定されない。
図3は、図2に示されるシンセサイザコンピュータ204または本明細書に記載の他のコンピュータによって実装され得る全体的なロジックを示す。ブロック300で開始すると、図2のHMA202のそれぞれは、ユーザ200が位置する空間のそれぞれのビデオを生成する。集約された空間マップは、ブロック300で受信したビデオを使用して、ブロック302で作成され得る。上記で参照された米国特許は、ブロック302でのステップの1つの例示的な技法を示す。
ブロック304に移ると、必要に応じて、集約された空間マップ内の任意の「シャドウ」領域は、本明細書でより詳細に説明されるようにハイライトされることができる。換言すれば、その空間の領域に対するビデオ画像が存在しない場合、これらの領域は、1人以上のユーザ200に注目されることができるため、ユーザはシャドウイング領域に移動してそれらを撮像することができる。
ブロック306に進むと、ユーザが空間のビデオを観察することを望んでいるバンテージポイントから空間内の仮想カメラの位置、及び必要に応じて向きのユーザインジケーションが受信される。仮想カメラの位置及び向きは、HMA202の位置から離れている。ブロック308では、仮想カメラの指示された位置(及び必要に応じて向き)に基づいて、ブロック302で作成された空間マップからビデオを合成することによって、ビデオシーンが作成される。そのような合成のための例示的な技法は、実世界カメラからの2つのフレーム間の補間を含み得、上記で参照された米国特許公報に記載された技法を実装することができる。次に、ブロック306で識別された位置及び必要に応じて向きに配置された仮想カメラのバンテージポイントからの合成ビデオは、図2に示されるHMAのうちの1つ以上などのディスプレイに表示される。
図4は、左及び右のテンプレート404と結合する左及び右のイヤーループ402を有するメガネとして構成された代替のHMA400を示し、これらはブリッジ406によってフロントエンドで連結される。左及び右のARディスプレイは、ブリッジ406に取り付けられることができ、カメラ410は装置400に取り付けられることができる。
図5~7は、合成ビデオが生成されるバンテージポイントから仮想カメラの位置及び向きを識別することができる非限定的な技法の例を示す。図5では、ユーザ500は、レーザポインタ502を操作して空間内の位置504を照射し、仮想カメラの所望の位置を指示する。位置504は、例えば、赤外線(IR)カメラを使用して撮像され得、シンセサイザ204に入力され得る。
図6では、ユーザ600は、自分の指602を所望の位置に向ける、または所望の位置を指示すると理解される別のジェスチャを行う。ジェスチャは、本明細書に記載のカメラのいずれかによって撮像され得、シンセサイザコンピュータ204に入力され得る。シンセサイザコンピュータ204は、ユーザの指から空間内の最も近い表面までの見通し線を計算し得、所望の仮想カメラ位置を、この表面と見通し線との交点として識別することができる。ユーザ600は、指602または手を回して、または別の向きタイプのジェスチャを行って、仮想カメラの向きを、例えば上から下に向けるか、下から上に向けるかを指示することができる。
図7は、ユーザ700の画像を使用して、ユーザの眼702を追跡して、仮想カメラの位置を決定し、前の段落で説明された見通し線を確認することができることを示す。仮想カメラの向きは、矢印706によって示されるように動く手704のジェスチャを使用して指示され得る。
音声認識を使用して、カメラの位置及び向きを識別することもできる。例えば、ユーザが「向かいの建物の上から自分の姿を見たい」と言えば、それに応じて仮想カメラの位置及び向きが識別される。
図8は、合成ビデオを示し、この合成ビデオは、第一及び第二ユーザ806、808のHMAからのビデオを使用して、建物804の上にある仮想カメラの位置802のバンテージポイントから、本明細書で開示されるディスプレイのいずれかなどのビデオディスプレイ800に提示され得、その識別は、示されるように指示され得る。示される例では、ユーザ806、808は、通りであるとシミュレートされる物理空間の領域810を歩いており、この通りに沿って、建物804及び銀行812などの他の建物が現れるようにシミュレートされている。建物804、812は物理的なものと、飛行機などの高速移動オブジェクト814であってもよく、またはビデオオブジェクトのうちの1つ以上は物理空間のビデオ上にスーパーインポーズされた仮想オブジェクトであってもよい。このようにして、仮想カメラの位置802を定義したユーザ806は、建物804の上から見えるように自分自身を見ることができる。
図9は、画像またはアバター902が提示され得るユーザを識別するために、本明細書で説明されるディスプレイのいずれかによって実装され得るディスプレイ900を示す。プロンプト904は、物理空間の領域906が撮像されておらず、空間マップを完成させるために撮像が必要であることを示すことができるので、ユーザは領域906に向けて移動し、ユーザのHMA上のカメラで領域906を撮像することができる。
図10は、マッピングされた空間内に1人のユーザしか存在しない場合を示す。そのような状況では、ユーザの外部画像を利用できない可能性があるが、それにもかかわらずユーザが仮想カメラのバンテージポイントから自分自身を見たいと思う可能性があることが理解されよう。したがって、ブロック1000では、例えばユーザのHMA上の位置受信器及びIMUから、ユーザの位置及び動きを示す入力が受信される。次にブロック1002では、所望のバンテージポイントからのビデオは、空間内のユーザの位置に描かれたユーザを表し、ユーザの動きに従って動くアバターと共に、本明細書に記載の原理に従って生成される。
特定の技術及び機械が本明細書に示され、詳細に説明されているが、本発明に含まれる主題は、特許請求の範囲によってのみ限定されることが理解されるべきである。

Claims (20)

  1. 命令でプログラムされた少なくとも1つのプロセッサ、
    を含む装置であって、
    前記命令は、前記少なくとも1つのプロセッサによって、
    ユーザによって識別される空間内の少なくとも1つの位置であって、前記ユーザによって装着される頭部搭載型装置から離れた前記少なくとも1つの位置を識別することであって、前記空間内の位置は、カメラと同じ位置に配置されない、識別することと、
    それぞれの複数のカメラによって生成された前記空間の複数のビデオにアクセスして、前記空間内の位置のバンテージポイントから前記空間の合成ビデオを生成することであって、前記複数のカメラは、前記頭部搭載型装置に搭載される、生成することと、
    前記合成ビデオを少なくとも1つの頭部搭載型装置に表示することと、
    を実行可能である、前記装置。
  2. 前記頭部搭載型装置は、拡張現実ヘッドマウントディスプレイ(HMD)を含む、請求項1に記載の装置。
  3. 前記頭部搭載型装置は、拡張現実メガネを含む、請求項1に記載の装置。
  4. 前記バンテージポイントは、仮想カメラの位置及び向きを含む、請求項1に記載の装置。
  5. 前記命令は、レーザからの光を撮像することに少なくとも部分的に基づいて、前記空間内の位置を識別することを実行可能である、請求項1に記載の装置。
  6. 前記命令は、前記頭部搭載型装置の着用者のジェスチャを撮像することに少なくとも部分的に基づいて、前記空間内の位置を識別することを実行可能である、請求項1に記載の装置。
  7. 前記命令は、前記頭部搭載型装置の着用者の眼を撮像することに少なくとも部分的に基づいて、前記空間内の位置を識別することを実行可能である、請求項1に記載の装置。
  8. 前記命令は、ビデオ撮像を必要とする空間内の領域のインジケーションを前記頭部搭載型装置に提示することを実行可能である、請求項1に記載の装置。
  9. 前記命令は、
    前記ユーザの位置及び動きを識別することと、
    前記合成ビデオに、空間内の前記ユーザの前記位置で描かれた前記ユーザを表すアバターであって、前記ユーザの前記動きに従って動く前記アバターを含ませることと、
    を実行可能である、請求項1に記載の装置。
  10. 前記命令は、音声信号に少なくとも部分的に基づいて前記空間内の位置を識別することを実行可能である、請求項1に記載の装置。
  11. 少なくとも1つのそれぞれのカメラを各々が含む、少なくとも第一及び第二ヘッドマウントデバイス(HMD)と、
    命令によってプログラムされた少なくとも1つのプロセッサと、
    を含むアセンブリであって、
    前記命令は、前記プロセッサを、
    カメラが位置付けられていない空間内の少なくとも1つの位置を識別し、
    前記HMDの前記カメラからの画像を使用して、前記空間内の前記位置のバンテージポイントからのビデオを生成し、
    前記HMDのうちの少なくとも1つに前記ビデオを提示する、
    ように構成する、前記アセンブリ。
  12. 前記バンテージポイントは、仮想カメラの位置及び向きを含む、請求項11に記載のアセンブリ。
  13. 前記命令は、レーザからの光を撮像することに少なくとも部分的に基づいて、前記空間内の位置を識別することを実行可能である、請求項11に記載のアセンブリ。
  14. 前記命令は、前記HMDのうちの1つの着用者のジェスチャを撮像することに少なくとも部分的に基づいて、前記空間内の位置を識別することを実行可能である、請求項11に記載のアセンブリ。
  15. 前記命令は、前記HMDのうちの1つの着用者の眼を撮像することに少なくとも部分的に基づいて、前記空間内の位置を識別することを実行可能である、請求項11に記載のアセンブリ。
  16. 前記命令は、ビデオ撮像を必要とする空間内の領域のインジケーションを前記HMDの少なくとも1つに提示することを実行可能である、請求項11に記載のアセンブリ。
  17. それぞれのカメラによって撮られた空間の複数のビデオから合成ビデオを生成することであって、前記合成ビデオは、前記それぞれのカメラのそれぞれの位置から離れたバンテージポイントから、ユーザによる前記バンテージポイントの識別に基づいて生成される、生成することと、
    前記ユーザが装着した頭部搭載型装置に前記合成ビデオを提示することであって、前記頭部搭載型装置は、前記バンテージポイントから離れている、提示することと、
    を含む、方法。
  18. 記カメラは、それぞれの頭部搭載型装置に搭載される、請求項17に記載の方法。
  19. レーザからの光を撮像することに少なくとも部分的に基づいて前記バンテージポイントを識別することを含む、請求項17に記載の方法。
  20. 前記ユーザを撮像することに少なくとも部分的に基づいて前記バンテージポイントを識別することを含む、請求項17に記載の方法。
JP2022562530A 2020-05-11 2021-05-11 複数のカメラからの合成入力を使用してビデオを生成するための仮想カメラ位置のユーザ選択 Active JP7462069B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US16/871,819 2020-05-11
US16/871,819 US11431952B2 (en) 2020-05-11 2020-05-11 User selection of virtual camera location to produce video using synthesized input from multiple cameras
PCT/US2021/031725 WO2021231390A1 (en) 2020-05-11 2021-05-11 User selection of virtual camera location to produce video using synthesized input from multiple cameras

Publications (2)

Publication Number Publication Date
JP2023522654A JP2023522654A (ja) 2023-05-31
JP7462069B2 true JP7462069B2 (ja) 2024-04-04

Family

ID=78413290

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022562530A Active JP7462069B2 (ja) 2020-05-11 2021-05-11 複数のカメラからの合成入力を使用してビデオを生成するための仮想カメラ位置のユーザ選択

Country Status (5)

Country Link
US (2) US11431952B2 (ja)
EP (1) EP4150588A1 (ja)
JP (1) JP7462069B2 (ja)
CN (1) CN115485736A (ja)
WO (1) WO2021231390A1 (ja)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007042073A (ja) 2005-07-01 2007-02-15 Canon Inc 映像提示システム、映像提示方法、該映像提示方法をコンピュータに実行させるためのプログラム、および記憶媒体
WO2014162825A1 (ja) 2013-04-04 2014-10-09 ソニー株式会社 表示制御装置、表示制御方法およびプログラム
WO2017068824A1 (ja) 2015-10-21 2017-04-27 シャープ株式会社 映像生成装置、映像生成装置の制御方法、表示システム、映像生成制御プログラム、およびコンピュータ読み取り可能な記録媒体
JP2018097280A (ja) 2016-12-16 2018-06-21 カシオ計算機株式会社 表示装置、表示方法及びプログラム
JP2018113683A (ja) 2017-01-06 2018-07-19 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP2018156339A (ja) 2017-03-16 2018-10-04 株式会社リコー 情報表示システム、情報表示装置、制御方法、およびプログラム
WO2018193509A1 (ja) 2017-04-17 2018-10-25 株式会社オプティム 遠隔作業支援システム、遠隔作業支援方法、及びプログラム
JP2019179080A (ja) 2018-03-30 2019-10-17 ソニー株式会社 情報処理装置、情報処理方法およびプログラム

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6133944A (en) * 1995-12-18 2000-10-17 Telcordia Technologies, Inc. Head mounted displays linked to networked electronic panning cameras
US9619104B2 (en) * 2010-10-01 2017-04-11 Smart Technologies Ulc Interactive input system having a 3D input space
CA2896985A1 (en) * 2013-01-03 2014-07-10 Meta Company Extramissive spatial imaging digital eye glass for virtual or augmediated vision
US10203762B2 (en) 2014-03-11 2019-02-12 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
JP6641122B2 (ja) * 2015-08-27 2020-02-05 キヤノン株式会社 表示装置及び情報処理装置及びその制御方法
US20180261120A1 (en) * 2015-12-01 2018-09-13 Sharp Kabushiki Kaisha Video generating device, method of controlling video generating device, display system, video generation control program, and computer-readable storage medium
JP6212667B1 (ja) 2016-12-26 2017-10-11 株式会社コロプラ 仮想空間を介して通信するためにコンピュータで実行される方法、当該方法をコンピュータに実行させるプログラム、および、情報処理装置
US10893190B2 (en) 2017-02-02 2021-01-12 PreNav, Inc. Tracking image collection for digital capture of environments, and associated systems and methods
US10204456B2 (en) * 2017-03-07 2019-02-12 vGolf, LLC Mixed reality golf simulation and training system
JP6257827B1 (ja) * 2017-06-01 2018-01-10 株式会社コロプラ 仮想空間を提供するためにコンピュータで実行される方法、プログラム、および、情報処理装置
US11024078B2 (en) * 2017-08-07 2021-06-01 Verizon Patent And Licensing Inc. Systems and methods compression, transfer, and reconstruction of three-dimensional (3D) data meshes
JP6419916B1 (ja) * 2017-09-04 2018-11-07 株式会社コロプラ ヘッドマウントデバイスによって仮想空間を提供するためのプログラム、方法、および当該プログラムを実行するための情報処理装置
CN113010125B (zh) * 2019-12-20 2024-03-19 托比股份公司 方法、计算机程序产品和双目式头戴装置控制器

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007042073A (ja) 2005-07-01 2007-02-15 Canon Inc 映像提示システム、映像提示方法、該映像提示方法をコンピュータに実行させるためのプログラム、および記憶媒体
WO2014162825A1 (ja) 2013-04-04 2014-10-09 ソニー株式会社 表示制御装置、表示制御方法およびプログラム
WO2017068824A1 (ja) 2015-10-21 2017-04-27 シャープ株式会社 映像生成装置、映像生成装置の制御方法、表示システム、映像生成制御プログラム、およびコンピュータ読み取り可能な記録媒体
JP2018097280A (ja) 2016-12-16 2018-06-21 カシオ計算機株式会社 表示装置、表示方法及びプログラム
JP2018113683A (ja) 2017-01-06 2018-07-19 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP2018156339A (ja) 2017-03-16 2018-10-04 株式会社リコー 情報表示システム、情報表示装置、制御方法、およびプログラム
WO2018193509A1 (ja) 2017-04-17 2018-10-25 株式会社オプティム 遠隔作業支援システム、遠隔作業支援方法、及びプログラム
JP2019179080A (ja) 2018-03-30 2019-10-17 ソニー株式会社 情報処理装置、情報処理方法およびプログラム

Also Published As

Publication number Publication date
US11431952B2 (en) 2022-08-30
US20210352254A1 (en) 2021-11-11
US20220394227A1 (en) 2022-12-08
JP2023522654A (ja) 2023-05-31
CN115485736A (zh) 2022-12-16
WO2021231390A1 (en) 2021-11-18
US11689704B2 (en) 2023-06-27
EP4150588A1 (en) 2023-03-22

Similar Documents

Publication Publication Date Title
CN112334969B (zh) 多点slam捕获
US10530818B2 (en) Server-based sound mixing for multiuser voice chat system
US20220258045A1 (en) Attention-based ai determination of player choices
JP2023551665A (ja) 仮想位置を指示する実世界ビーコン
US11508072B2 (en) Smart phones for motion capture
US10915945B2 (en) Method and apparatuses for intelligent TV startup based on consumer behavior and real time content availability
JP7462069B2 (ja) 複数のカメラからの合成入力を使用してビデオを生成するための仮想カメラ位置のユーザ選択
US11103794B2 (en) Post-launch crowd-sourced game qa via tool enhanced spectator system
WO2021262376A1 (en) Motion matching for vr full body reconstruction
WO2021091799A1 (en) Adaptive time dilation based on player performance
WO2019245726A1 (en) Gesture-based user interface for ar and vr with gaze trigger
US11474620B2 (en) Controller inversion detection for context switching
US20220180854A1 (en) Sound effects based on footfall
US20240042312A1 (en) Haptics support for ui navigation
US11373342B2 (en) Social and scene target awareness and adaptation of an occlusion system for increased social and scene interaction in an optical see-through augmented reality head mounted display
US20220180664A1 (en) Frame of reference for motion capture
US20210129033A1 (en) Spectator feedback to game play
WO2021231051A1 (en) Highly interactive display environment for gaming
US20190020808A1 (en) Remotely controllable camera on head-mount for the blind

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221013

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231030

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240122

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240305

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240325

R150 Certificate of patent or registration of utility model

Ref document number: 7462069

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150