JP2020520494A - ヘッドマウントディスプレイおよび方法 - Google Patents

ヘッドマウントディスプレイおよび方法 Download PDF

Info

Publication number
JP2020520494A
JP2020520494A JP2019558509A JP2019558509A JP2020520494A JP 2020520494 A JP2020520494 A JP 2020520494A JP 2019558509 A JP2019558509 A JP 2019558509A JP 2019558509 A JP2019558509 A JP 2019558509A JP 2020520494 A JP2020520494 A JP 2020520494A
Authority
JP
Japan
Prior art keywords
screen
video image
area
image
mounted display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019558509A
Other languages
English (en)
Other versions
JP7191853B2 (ja
Inventor
ウィネシュ ラゴーバーダヤル、シャーウィン
ウィネシュ ラゴーバーダヤル、シャーウィン
マーク ベンソン、サイモン
マーク ベンソン、サイモン
Original Assignee
ソニー インタラクティブ エンタテインメント ヨーロッパ リミテッド
ソニー インタラクティブ エンタテインメント ヨーロッパ リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー インタラクティブ エンタテインメント ヨーロッパ リミテッド, ソニー インタラクティブ エンタテインメント ヨーロッパ リミテッド filed Critical ソニー インタラクティブ エンタテインメント ヨーロッパ リミテッド
Publication of JP2020520494A publication Critical patent/JP2020520494A/ja
Application granted granted Critical
Publication of JP7191853B2 publication Critical patent/JP7191853B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/26Output arrangements for video game devices having at least one additional display device, e.g. on the game controller or outside a game booth
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/15Processing image signals for colour aspects of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay

Abstract

【解決手段】モバイルデバイス画面を表示するシステムは、ユーザに第1コンテンツを表示するためのヘッドマウントディスプレイと、ヘッドマウントディスプレイに搭載されたビデオカメラであって、ユーザの前のシーンのビデオ画像をキャプチャするように機能するビデオカメラと、モバイルデバイス画面を含むキャプチャされたビデオ画像の画面領域を検出するように機能する領域検出プロセッサと、ヘッドマウントディスプレイにおける表示された第1コンテンツの対応する領域を、モバイルデバイス画面を含むキャプチャされたビデオ画像の検出された画面領域で置き換えるように機能する画像プロセッサとを含む。【選択図】図2

Description

本発明は、ヘッドマウントディスプレイおよび方法に関する。
最新のビデオゲームは非常に没入感のある体験を提供できるが、最近、これはソニー(登録商標)ヘッドマウントディスプレイ(HMD)などのバーチャルリアリティシステムの登場により強化されている。HMDは、立体視コンテンツを提示するために立体ディスプレイ(たとえば左目用および右目用ディスプレイ画面)をユーザの目の正面に配置し、HMDの現在の向きを(ソニープレイステーション4(登録商標)などの)コンテンツソースにリレーすることによって、表示された視点を変更してユーザの頭の動きを追跡できるようにする。主観的な体験は、ユーザがコンテンツに没頭し、自由に見回せることである。コンテンツは典型的にはビデオゲームの仮想環境であるが、パノラマ写真やビデオ、または仮想環境と仮想映画などの事前に記録されたコンテンツの組み合わせでも同様である。
これを実現するために、ユーザはHMDを頭に装着し、ローカル環境の通常のビューをブロックしなければならない。また、オプションとして、ディスプレイを目の位置に適切に合わせて快適に頭の上に置くためのさらなる調整が必要である。結果として、プレイ中に不必要にHMDを取り外して再配置することを避けることが望ましい。
もっともユーザは、通常HMDを取り外す必要がある実世界のアクティビティを実行したい場合がある。そのようなアクティビティは、電話、タブレット、または他のモバイルデバイスで通話、テキスト、およびその他のコンテンツを確認することである。
一つの解決策は、モバイルデバイスを(たとえばブルートゥース(登録商標)またはWiFi(登録商標)ダイレクト(登録商標)を介して)プレイステーション(登録商標)と同期することにより、通知をプレイステーション(登録商標)に中継し、その上でHMDに中継できるようにすることである。ただし、これには、この目的のために電話のコンテンツに幅広くアクセスできるアプリを電話にインストールする必要があり、これは望ましくないと見なされる場合がある。さらに、通信により、モバイルデバイスの電力消費が増加する場合がある。
したがって、代替解決策が必要である。
本発明は、上記の問題に対処または軽減することを目的とする。
第1の態様では、モバイルデバイス画面を表示するためのシステムが請求項1に従って提供される。
別の態様では、モバイルデバイス画面を表示するための方法が請求項12に従って提供される。
本発明のさらなるそれぞれの態様および特徴は、添付の特許請求の範囲に定義されている。
次に、本発明の実施の形態を、添付図面を参照して例として説明する。
本発明の一実施の形態によるヘッドマウントディスプレイおよびビデオゲームコンソールの概略図である。 本発明の一実施の形態によるモバイルデバイス画面を表示する方法のフロー図である。
ヘッドマウントディスプレイおよび対応する方法が開示される。以下の説明では、本発明の実施形態の完全な理解を提供するために、いくつかの特定の詳細が提示されている。しかし、これらの特定の詳細を使用して本発明を実施する必要がないことは、当業者には明らかであろう。逆に、当業者に知られている特定の詳細は、明確にするために必要に応じて省略されている。
図1は、Sony(登録商標)PlayStation 4(登録商標)娯楽装置のシステム全体のアーキテクチャを概略的に示す。システムユニット10には、システムユニットに接続可能な様々な周辺装置が設けられている。
システムユニット10は、中央処理装置(CPU)20Aおよびグラフィック処理装置(GPU)20Bを含む単一チップである加速処理装置(APU)20を含む。APU20は、ランダムアクセスメモリ(RAM)ユニット22にアクセスする。
APU20は、任意選択でI/Oブリッジ24を介して、バス40と通信し、I/Oブリッジ24は、APU20の別個の構成要素またはその一部であってもよい。
バス40に接続されているのは、ハードディスクドライブ37、および互換性のある光ディスク36A上のデータにアクセスするように動作可能なブルーレイ(登録商標)ドライブ36などのデータ記憶構成要素である。さらに、RAMユニット22はバス40と通信することができる。
任意選択でバス40には補助プロセッサ38も接続されている。補助プロセッサ38は、オペレーティングシステムを実行またはサポートするために提供されてもよい。
システムユニット10は、オーディオ/ビジュアル入力ポート31、イーサネット(登録商標)ポート32、ブルートゥース(登録商標)無線リンク33、Wi−Fi(登録商標)無線リンク34、あるいは1つまたは複数のユニバーサルシリアルバス(USB)ポート35を介して周辺装置と適宜通信する。オーディオおよびビデオは、HDMI(登録商標)ポートなどのAV出力39を介して出力されてもよい。
周辺装置は、PlayStation Eye(登録商標)などの単眼または立体ビデオカメラ41、PlayStation Move(登録商標)などのワンドスタイルのビデオゲームコントローラ42およびDualShock4(登録商標)などの従来のハンドヘルドビデオゲームコントローラ43、PlayStation Portable(登録商標)およびPlayStation Vita(登録商標)などの携帯娯楽装置44、キーボード45および/またはマウス46、例えばリモコンの形態のメディアコントローラ47、ならびにヘッドセット48を含んでもよい。プリンタ、または3Dプリンタ(図示せず)などの他の周辺装置も同様に考慮することができる。
GPU20Bは、任意選択でCPU20Aと連携して、AV出力39を介して出力するためのビデオ画像およびオーディオを生成する。任意選択で、オーディオは、オーディオプロセッサ(図示せず)と共に、または代わりにそれによって生成されてもよい。
ビデオおよび任意選択的にオーディオはテレビ51に提示されてもよい。テレビによってサポートされている場合、ビデオは立体的であってもよい。オーディオは、ステレオ、5.1サラウンドサウンドまたは7.1サラウンドサウンドなどのいくつかのフォーマットのうちの1つでホームシネマシステム52に提示されてもよい。ビデオおよびオーディオも同様に、ユーザ60が装着しているヘッドマウントディスプレイユニット53に提示されてもよい。
出力に関して、GPUは、典型的には、1080pの高解像度画像をAV出力39に生成する。これらの画像のフレームレートは、さまざまであってよい。画像は、典型的には、標準のHDMI接続を介し、随意によりAVレシーバ(図示せず)を介して、テレビ受像機51へと伝えられる。テレビ受像機が立体表示をサポートする場合、随意によりユーザからのコマンドに応答して、1080p高解像度を、例えば左右並列フォーマットを使用して立体画像としてフォーマットすることができる。次いで、テレビ受像機は、画像を2つに分割し、各々を全幅へと補間して、特別に構成された眼鏡の使用または裸眼立体ディスプレイからの指向性の光路の使用のいずれかによって、ユーザの左右の目にそれぞれ提示する。
随意により、補助オーディオプロセッサ(図示せず)と連携して、APU20は、AV出力39を介して出力されるオーディオを生成する。オーディオ信号は、典型的には、ステレオ形式またはいくつかのサラウンドサウンド形式のうちの1つである。やはりこれも、典型的には、HDMI規格の接続を介してテレビ受像機51に伝えられる。これに代え、あるいはこれに加えて、オーディオ信号を、オーディオ信号フォーマットを復号してホームシネマシステム52に提示するAVレシーバ(図示せず)に伝えてもよい。オーディオを、無線リンクを介してヘッドセット48または手持ち型のコントローラ43へともたらしてもよい。次いで、手持ち型のコントローラは、ヘッドフォンまたはヘッドセットの接続を可能にするためのオーディオジャックを備えることができる。
最後に、ビデオおよび随意によるオーディオを、Sony PlayStation VR(登録商標)ディスプレイなどのヘッドマウントディスプレイ(HMD)53に伝えることができる。ヘッドマウントディスプレイは、典型的には、ユーザの目の前方にそれぞれ取り付けられた2つの小型の表示ユニットを備え、随意により、これらの表示ユニットには、ユーザが表示ユニットに焦点を合わせることを可能にするための適切な光学系が組み合わせられる。あるいは、1つ以上の表示源をユーザの頭部の側方に取り付け、表示画像または各々の表示画像をユーザの目にそれぞれ提示するように導光体に動作可能に組み合わせることができる。あるいは、1つ以上の表示源をユーザの目の上方に取り付け、ミラーまたはハーフミラーを介してユーザに提示することができる。この後者の場合において、表示源は、画面の左側および右側部分がユーザの左右の目のためのそれぞれの画像を表示する分割画面出力を随意により表示する携帯電話機または携帯型エンターテイメント機器44であってよい。それらのヘッドマウントディスプレイは、一体のヘッドフォンを備えることができ、あるいはヘッドフォンへの接続が可能であってよい。同様に、ヘッドマウントディスプレイは、一体のマイクロフォンを備えることができ、あるいはマイクロフォンへの接続が可能であってよい。
動作中、娯楽装置はデフォルトでFreeBSD 9.0の変種などのオペレーティングシステムになる。オペレーティングシステムは、CPU20A、補助プロセッサ38、またはこれら2つの混合物上で動作することができる。オペレーティングシステムは、PlayStation Dynamic Menuなどのグラフィカルユーザインターフェースをユーザに提供する。このメニューにより、ユーザはオペレーティングシステムの機能にアクセスし、ゲームや任意選択的に他のコンテンツを選択することができる。
Sony PlayStation VRユニットおよびSony PlayStation 4は、本発明の実施の形態に関して本明細書で説明されるHMDおよびコンソールの非限定的な例を示す。
したがって、再び図1を参照すると、本発明の一実施の形態では、モバイルデバイス画面を表示するためのシステムが提供される。このシステムは、第1コンテンツをユーザに表示するためのヘッドマウントディスプレイを備える。第1のコンテンツは、ビデオゲーム、ライブまたは事前に記録されたビデオ、ビデオ会議またはテレプレゼンスフィード、または仮想書籍などのHMDによる表示に適した他のコンテンツであってもよい。モバイルデバイスは、典型的には、たとえば、電話、タブレット、ラップトップ、またはいくつかの種類のAVリモートコントロールなど、画面を持つ任意のハンドヘルドデバイスである。このシステムは、それ自身で(統合ユニットとして、または別個のモバイルコンピューティングデバイスの挿入/取り付けによって)コンテンツを生成または受信するように機能するヘッドマウントディスプレイを備える、および/または、このシステムは、何らかの形でコンテンツをHMDに中継する前にコンテンツを生成または受信するビデオゲームコンソール、パーソナルコンピュータ、またはクラウドサービスを含んでもよい。したがって、システム(またはシステムの使用モード)に応じて、HMDまたはビデオゲームコンソールやサーバなどのリモートデバイスが第1コンテンツのソースになり得る。
このシステムは、ヘッドマウントディスプレイに取り付けられたビデオカメラをさらに備え、ビデオカメラは、ユーザの前のシーンのビデオ画像をキャプチャするように動作可能である。ビデオカメラは、モノスコピックでもステレオでもよく、および/または超音波または赤外線巻尺を使用して、または構造化された光(典型的には近赤外における所定のパターンであり、キャプチャされたシーンの表面に投影されたパターンの大きさがカメラからその表面までの距離を示す)の投影を通して深度検出を実装してもよい。カメラは任意の適切な解像度であり得る。カメラは、デフォルトでHMDに水平に取り付けられるか、または、通常の使用時にモバイルデバイスを保持しているときにユーザの手が予想される領域に向かって下向きになるように取り付けられる。カメラはまた、上下または左右に旋回可能である。オプションとして、ピボットの量を示す信号がセンサによって生成されてもよい。
カメラの出力は、オプションで圧縮または他の符号化をした後、モバイルデバイス画面を含むキャプチャされたビデオ画像の領域を検出するように動作可能な領域検出プロセッサに供給される。
領域検出プロセッサは、適切なソフトウェア命令の下で動作するHMDのCPU、または(たとえば、これが第1コンテンツのソースである場合)ビデオゲームコンソール、PC、サーバなどのリモートデバイスのCPU、またはそのようなCPUの組み合わせであってもよい。
モバイルデバイス画面を含むキャプチャされたビデオ画像の領域を検出するための技術は、本明細書で後述される。
そのような領域が検出された場合、画像プロセッサは、ヘッドマウントディスプレイに表示された第1コンテンツの対応する領域を、モバイルデバイス画面を含むキャプチャされたビデオ画像の検出領域で置き換えるように動作可能である。
再び、画像プロセッサは、HMDのCPUおよび/またはグラフィックプロセッサ、または適切なソフトウェア命令の下で動作する第1のコンテンツの他のソースであってもよい。
置換は、(たとえば、ソースがビデオゲームコンソールであり画像プロセッサがHMD内にある場合にそうであるように、画像プロセッサをホストするデバイスとは別のソースデバイスから第1コンテンツが受信される場合)第1コンテンツを既存の領域に重畳させることを含んでもよい。あるいは、(たとえば、第1コンテンツのソースが画像プロセッサをホストするデバイスである場合、この場合は重畳または挿入のいずれも可能であることが理解されるであろうが)第1コンテンツの元の領域がレンダリングまたは再レンダリングされないように、たとえばスプライトまたはテクスチャとしてレンダリングまたはリプロジェクション処理に挿入してもよい。
いずれにしても、その効果は、モバイルデバイス画面に対応するキャプチャされたビデオ画像の領域がHMDに表示された画像に組み込まれることである。
したがって、有利なことには、ユーザは単に自分のデバイスを「見る」(すなわち、ビデオカメラの視野がモバイルデバイスのディスプレイを含むように頭を向ける)だけでモバイルデバイスの画面に表示されている情報を見ることができる。その結果、画面のコンテンツを見るために、HMDを外したり、何らかの方法でモバイルデバイスをHMDまたは第1コンテンツのリモートソースと同期させる必要はない。
本明細書で前述したように、領域検出プロセッサは、モバイルデバイス画面を含むキャプチャされたビデオ画像の領域を検出するために適切に1つまたは複数の手法を逐次的または並列に使用してもよい。
第1の手法では、領域検出プロセッサは、キャプチャされた画像内の画面の明るさに応じて、モバイルデバイス画面を含むキャプチャされたビデオ画像の領域を検出する。
したがって、例えば、取り込まれたビデオ画像の平均輝度を決定し、その平均を超える所定の量または割合の輝度値を有する画像ピクセルを選択してもよい。その代わりにまたはそれに加えて、絶対輝度しきい値を使用してもよい。隣接する領域を形成するピクセルのみが選択されるという制約もまた適用してもよく、最小ピクセル面積のしきい値もまた適用してもよい。モバイルデバイスの表示テキストが黒であり、そのためキャプチャされた画像の対応ピクセルが適切な輝度値を持たない可能性があるという事実を説明するために、このような領域内の選択ギャップを埋めるための手法(たとえばブルーム)を使用してもよい。その代わりに、明るい領域が特定された場合、その領域を近似するピクセルの四角形を選択してもよく、それにより明るい領域内のすべての潜在的なコンテンツを包含してもよい。
いずれにしても、オプションとして、検出された領域を1以上の方向に明るい領域を超えて所定量だけ拡大してもよい。これにより、ユーザは画面に近づくにつれて自分の手または指を少なくとも部分的に見ることができ、テキストメッセージやその他のタッチベースの操作が容易になる。オプションとして、ユーザが1以上の方向に所定の量を設定できるようにしてもよく、その結果、たとえばデバイスのディスプレイの下に配置された物理キーボード(たとえば、Blackberry(登録商標)デバイスまたは一部のフィーチャーフォンの場合)も検出された領域内にキャプチャされる。
別の手法では、当該システムは距離検出プロセッサを含む。ここでもこれはHMDのCPUまたは適切なソフトウェア命令の下で動作するリモートデバイスであってもよい。このプロセッサは、備えられているものによるが、カメラに関連付けられたIRまたは超音波テープ測定から距離測定を受信する、または構造化光パターンのスケールを既知の距離で参照テンプレートと比較する、またはカメラからの立体画像ペア上の視差検出を実行することにより、シーン内のオブジェクトのカメラからの距離を検出する。オプションの制約は、検出された領域がしきい値の許容範囲内で平坦であることである。
第1の手法と連携して動作する場合、このような分析は画像の明るい(オプションとして、より制限の少ない輝度基準、たとえばより低い相対/絶対輝度しきい値で識別される)領域に制限してもよい。
次いで、距離検出プロセッサの結果に基づいて、領域検出プロセッサは、ビデオカメラからの候補領域の距離に応じて、画面を含むキャプチャされたビデオ画像の領域を検出するように動作可能である。
したがって、たとえば、カメラから1メートル(または代表的な人々の腕の長さを表すように選択された距離)以上離れていると判断された明るい領域は、モバイルデバイスの画面に対応する領域として考慮から除外されることがある。
これは、キャプチャされたビデオ画像内に存在する可能性のあるテレビ、窓、電球などの潜在的な誤判定を排除するのに役立つ。
これらの技術のいずれかと併せて、任意選択で、当該システムは、さもなければキャプチャされたビデオ画像内の候補画面領域と見なされる可能性のある画像の誤判定領域を除去することを目的とした機能を備えてもよい。
したがって、オプションとして、当該システムは画像相関器を備えてもよい。ここでもこれは、HMDのCPUおよび/またはグラフィックプロセッサ、または適切なソフトウェア命令の下で動作する第1コンテンツのリモートソースであってもよい。
画像相関器は、第1コンテンツのソースによって補助ディスプレイに現在出力されている画像に対応するキャプチャされたビデオ画像内の候補画面領域を無視するように構成される。
したがって、たとえば、ビデオゲームコンソールが第1コンテンツをHMDに出力するとともに、たとえば友人がHMDのユーザが見ているものを見ることができるように、またはさもなければ彼らの進行状況/活動を監視することができるように、潜在的に第1コンテンツ(または他の典型的には補完的なコンテンツ)もテレビに出力する場合、画面のコンテンツは第1コンテンツのソースに知られている。したがって、画像相関器が第1コンテンツのソースデバイスにある場合、画像相関器は、キャプチャされた画像の候補画面領域をテレビの既知の出力と比較することができ、所定のしきい値を超える相関がある場合、その候補領域を無視することができる。
一方、画像相関器がHMDにあり、これがテレビに表示される画像のソースではない場合、オプションとして、テレビに表示される画像の低解像度プロキシ画像を、たとえば同様の相関、しきい値、およびHMDによって実行される条件付き無視プロセスに対するメタデータとして、HMDに中継することができる。
画像相関器と同様に、オプションとして、制御相関器を配置して、第1コンテンツのソースに現在関連付けられている発光制御デバイスに対応する色および位置からなるリストから選択された1つまたは複数を含む光源を候補画面領域として無視するようにしてもよい。
したがって、上記の手法のいずれかと組み合わせて操作する場合、(たとえば、明るさおよび/または位置によって選択された)候補領域がコントローラのライトの既知の色(たとえば、PS4で設定されたPlayStation Move(登録商標)コントローラまたはDualShock4(登録商標)コントローラ上のライトの色)と相関する場合、また、特に球状のMoveコントローラの場合の潜在的には既知のライトの形状と相関する場合、その領域を無視してもよい。その代わりにまたはそれに加えて、オプションとして、キャプチャされた画像の領域が、(たとえばHMDおよびコントローラからの動き検出テレメトリ、および/またはリモートカメラの画像分析に基づいて)そのようなコントローラの計算された位置に対応するように計算される場合、その領域を無視してもよい。
再びオプションとして、当該システムは較正プロセッサを備えてもよい。ここでもこれは、HMDのCPUおよび/またはグラフィックプロセッサ、または適切なソフトウェア命令の下で動作する第1コンテンツのリモートソースであってもよい。
オプションとして、較正プロセッサは、キャプチャされたビデオ画像内の光源のヘッドマウントディスプレイに対する相対位置を少なくとも第1所定期間記録し、これらの光源を後続のキャプチャされたビデオ画像内の候補画面領域として無視するように構成される。
したがって、例えば、ユーザにとってローカルな環境の光マップが、較正ステップに対応する第1所定期間中に生成されてもよい。これは、ユーザに通知し、自分の周りまたは所定の領域内をユーザに見るように求め、明るい領域をHMDからの動きテレメトリおよび/またはリモートカメラフィードの画像分析と相関させることに基づいて、明るい領域がHMDに関してどこで見つかるかを保存するという意味での正式なキャリブレーションプロセスである。あるいは、第1所定期間は、ユーザがその画面を見ることを目的としてモバイルデバイスを保持していないと仮定することが合理的である時であってもよい。したがって、たとえば、2つのハンドヘルドコントローラ(左右のMoveコントローラなど)の使用が検出されるか、両手持ちのコントローラ(DualShock4など)の使用が検出される時である。このようにして、潜在的に連続した期間にわたって、光マップが構築されてもよい。オプションとして、可能な場合、対応する距離マップも作成してもよい。
その後、キャプチャされたビデオ画像内の候補の明るい領域は、光マップの領域と一致する場合は無視することができる。ただし、オプションとしてキャプチャされたビデオ画像内の候補領域の距離が光マップの明るい領域よりも近い場合を除く。この情報が利用できる場合、これは、モバイルデバイスが背景の明るい領域の前に置かれていることを示している可能性があるからである。
再びオプションとして、当該システムは方向検出器を備えてもよい。典型的には、これは、HMDの加速度計および/またはジャイロセンサであるか、または、HMDのCPUおよび/またはグラフィックプロセッサ、またはオプティカルフロー技術または類似技術を用いてキャプチャされたビデオ画像から向きを決定するために適切なソフトウェア命令の下で動作する第1コンテンツのリモートソースを含んでもよい。
いずれにせよ、この場合、オプションとして、領域検出プロセッサは、ヘッドマウントディスプレイが水平に対して所定の角度より下を向いている場合にだけ、モバイルデバイス画面を含むキャプチャされたビデオ画像の領域を検出するように動作可能である。
したがって、これは、ユーザが画面を頭の高さまで持ち上げず、むしろ立っているときは典型的には胸と腰の高さの間、座っているときは典型的には首と腰の高さの間で画面を見下ろすことを前提としている。
有利なことに、これにより、たとえば天井灯やほとんどの窓など、多数の光源を考慮から除外することができる。
同様に、領域検出プロセッサは、HMDが中央位置のしきい値角度内(つまり、真正面を向いたデフォルト位置の左右に+/−N度以内)にある場合にのみ、キャプチャされたビデオ画像の領域を検出してもよい。これは同様に、ユーザが画面を顔の左または右に持たず、代わりに一般的には顔の正面に持っていることを前提としている。
水平からのしきい値角度と横方向のしきい値角度の組み合わせにより、その中で領域検出を実行する(または同様にその外側で候補領域を無視する)ためのユーザの環境内の直線領域を形成することができ、モバイルデバイス画面以外のすべてではないが多くの光源を有利に除外するであろう。
本明細書で前述した検出技術と拒絶/無視/除外方法の任意の適切な組み合わせを使用して、キャプチャされた画像の候補領域をHMDへの表示用に選択してもよい。
HMD画像に組み込まれる画面の画像もまた、ユーザの頭の動きを追跡することが望ましいことは明らかである。ユーザが頭や手を動かすと、HMDのカメラがモバイルデバイスの画面に対して移動するため、これはキャプチャされたビデオ画像内で自動的に起きることが理解される。
したがって、本発明の実施の形態では、画像プロセッサは、キャプチャされたビデオ画像内の選択された画面領域の位置をヘッドマウントディスプレイのディスプレイ内の対応位置に置き換えることにより、キャプチャされたビデオ画像の対応領域により重畳される/置換されるべきヘッドマウントディスプレイに表示された第1コンテンツの領域を選択するように動作可能である。
オプションとして、カメラの位置ではなくユーザの目の位置と一致するように、逆投影処理を実行して、キャプチャされたビデオ画像を横切る画面領域の任意の移動をマッピングしてもよい。ただし、ユーザの頭が比較的静止している場合、そのような補正の効果はわずかである。
HMDは典型的には、立体視ディスプレイペアを有することが理解されよう。その結果、画像プロセッサは、所定の視差を生成するために相対的なオフセットを有する各ディスプレイの領域を選択するように適合されてもよい。
好ましくは、視差はHMDカメラ(または上記のように逆投影を使用する場合は特にユーザの目)からデバイス画面までの距離に対応する。これは、画面およびユーザの手が頭/体に関連しているというユーザの固有受容と運動感覚に役立つからである。
したがって、相対オフセットは、本明細書で前述した距離検出プロセッサによって取得された距離値、および、これが利用できない場合、ユーザが通常の使用中はビデオカメラから離してモバイルデバイスを保持する平均距離に対応する所定のオフセットから成るリストから選択された1つであってもよい。
ビデオカメラが立体ビデオカメラである場合、相対オフセットは、ビデオカメラからの立体画像内の画面の相対オフセットの関数になり得ることが理解されよう。
図2を参照して、モバイルデバイス画面を表示する方法は、
第1ステップs210において、ヘッドマウントディスプレイを通してユーザに第1コンテンツを表示することと;
第2ステップs220において、ヘッドマウントディスプレイに搭載されたビデオカメラからユーザの前のシーンをキャプチャすることと;
第3ステップs230において、モバイルデバイス画面を含むキャプチャされたビデオ画像の領域を検出することと;
第4ステップs240において、ヘッドマウントディスプレイに表示された第1コンテンツの対応領域を、モバイルデバイス画面を含むキャプチャされたビデオ画像の検出領域で置換することとを含む。
上記の方法の詳細な実装は、任意の適当な組み合わせで上述の開示された技術および方法に適切に対応してもよい。
したがって検出するステップs230は、
ビデオ画像の背景領域に対する画像の相対的明度に応じて、ビデオ画像の候補領域を選択すること、
ビデオカメラからの領域の検出された距離に応じて、ビデオ画像の候補領域を選択すること、
第1コンテンツのソースからの既知の出力と相関するビデオ画像の候補領域を無視すること、
第1コンテンツに現在関連付けられている既知の発光制御デバイスに対応する色および/または位置を有するビデオ画像の候補領域を無視すること、および
較正ステップの間に特定された光源に対する位置を有するビデオ画像の候補領域を無視すること
からなるリストから選択された1つ以上を含んでもよい。
同様に、当該方法は、ヘッドマウントディスプレイの向きを検出するステップs225を含んでもよく、モバイルデバイス画面を含むキャプチャされたビデオ画像の領域を検出するステップ230は、ヘッドマウントディスプレイが水平線に関して所定の角度より下を向いているかどうかに応じてなされてもよい。
当然のことながら、上記の方法は、ソフトウェア命令によって、または専用ハードウェアの包含または置換によって適用可能な場合は適切に適合された従来のハードウェア上で実行することができる。
したがって、従来の同等の装置の既存の部分への必要な適応は、フロッピー(登録商標)ディスク、光ディスク、ハードディスク、PROM、RAM、フラッシュメモリ、またはこれらもしくは他の記憶媒体の任意の組み合わせなどの非一時的機械可読媒体に格納された、プロセッサ実装可能命令を含むコンピュータプログラム製品の形で実装されてもよく、あるいは、ASIC(特定用途向け集積回路)またはFPGA(フィールドプログラマブルゲートアレイ)または従来の同等の装置を適合させるのに使用するのに適した他の構成可能な回路としてハードウェアで実現されてもよい。別に、そのようなコンピュータプログラムは、イーサネット、無線ネットワーク、インターネット、またはこれらもしくは他のネットワークの任意の組み合わせなどのネットワーク上のデータ信号を介して送信されてもよい。

Claims (15)

  1. モバイルデバイス画面を表示するシステムであって、
    ユーザに第1コンテンツを表示するためのヘッドマウントディスプレイと、
    前記ヘッドマウントディスプレイに搭載されたビデオカメラであって、前記ユーザの前のシーンのビデオ画像をキャプチャするように機能するビデオカメラと、
    モバイルデバイス画面を含む前記キャプチャされたビデオ画像の画面領域を検出するように機能する領域検出プロセッサと、
    前記ヘッドマウントディスプレイにおける前記表示された第1コンテンツの対応する領域を、前記モバイルデバイス画面を含む前記キャプチャされたビデオ画像の前記検出された画面領域で置き換えるように機能する画像プロセッサとを含む、システム。
  2. 前記領域検出プロセッサは、前記キャプチャされた画像における候補画面領域の明度に応じて、モバイルデバイス画面を含む前記キャプチャされたビデオ画像の前記画面領域を検出するように機能する、請求項1のシステム。
  3. 距離検出プロセッサをさらに含み、前記領域検出プロセッサは、前記ビデオカメラからの候補画面領域の距離に応じて、前記画面を含む前記キャプチャされたビデオ画像の前記画面領域を検出するように機能する、請求項1または2のシステム。
  4. 前記第1コンテンツのソースによって補助ディスプレイに現在出力されている画像に対応する前記キャプチャされたビデオ画像内の候補画面領域を無視するように構成された画像相関器をさらに含む、請求項1から3のいずれかのシステム。
  5. 前記第1コンテンツのソースに現在関連付けられている発光制御デバイスに対応する
    i.色、および
    ii.位置
    からなるリストから選択された1つ以上を有する光源を候補画面領域として無視するように構成された制御相関器をさらに含む、請求項1から4のいずれかのシステム。
  6. 前記ヘッドマウントディスプレイに対する前記キャプチャされたビデオ画像内の複数の光源の相対位置を第1所定期間記録し、後続のキャプチャされたビデオ画像内の候補画面領域として前記複数の光源を無視するように構成された較正プロセッサをさらに含む、請求項1から5のいずれかのシステム。
  7. 方向検出器をさらに含み、前記領域検出プロセッサは、前記ヘッドマウントディスプレイが水平線に関して所定の角度よりも下を向いているときだけ、モバイルデバイス画面を含む前記キャプチャされたビデオ画像の画面領域を検出するように機能する、請求項1から6のいずれかのシステム。
  8. 前記画像プロセッサは、前記キャプチャされたビデオ画像内の前記画面の位置を前記ヘッドマウントディスプレイのディスプレイ内の対応する位置に移すことによって、前記キャプチャされたビデオ画像の前記対応する画面領域で置換されるべき前記ヘッドマウントディスプレイにおける前記表示された第1コンテンツの前記領域を選択するように機能する、請求項1から7のいずれかのシステム。
  9. 前記ヘッドマウントディスプレイが立体視ディスプレイのペアを含む場合、前記画像プロセッサは、所定の視差を生成するように相対的オフセットをもつ各ディスプレイに対する領域を選択するように適合される、請求項8のシステム。
  10. 前記相対的オフセットは、
    i.通常使用の間、ユーザがモバイルデバイスを前記ビデオカメラから離してもつ平均距離に対する所定のオフセット;および
    ii.距離検出プロセッサによって取得された距離値
    を含むリストから選択された1つである、請求項9のシステム。
  11. 前記ビデオカメラは立体ビデオカメラであり、
    前記相対的オフセットは、立体画像内の前記画面の前記ビデオカメラからの相対的オフセットの関数である、請求項9のシステム。
  12. モバイルデバイス画面を表示する方法であって、
    ヘッドマウントディスプレイを通してユーザに第1コンテンツを表示するステップと、
    前記ヘッドマウントディスプレイに搭載されたビデオカメラから前記ユーザの前のシーンをキャプチャするステップと、
    モバイルデバイス画面を含む前記キャプチャされたビデオ画像の画面領域を検出するステップと、
    前記ヘッドマウントディスプレイに前記表示された第1コンテンツの対応領域を、前記モバイルデバイス画面を含む前記キャプチャされたビデオ画像の前記検出された画面領域で置換するステップとを含む、方法。
  13. 前記検出するステップは、
    i.前記ビデオ画像の背景領域に対する画像の相対的明度に応じて、前記ビデオ画像の候補画面領域を選択すること;
    ii.前記ビデオカメラからの領域の検出された距離に応じて、前記ビデオ画像の候補画面領域を選択すること;
    iii.前記第1コンテンツのソースからの既知の出力と相関する前記ビデオ画像の候補画面領域を無視すること;
    iv.前記第1コンテンツに現在関連付けられている既知の発光制御デバイスに対応する色および/または位置を有する前記ビデオ画像の候補画面領域を無視すること;および
    v.較正ステップの間に特定された光源に対する位置を有する前記ビデオ画像の候補画面領域を無視すること
    からなるリストから選択された1つ以上を含む、請求項12の方法。
  14. 前記ヘッドマウントディスプレイの向きを検出するステップをさらに含み、
    モバイルデバイス画面を含む前記キャプチャされたビデオ画像の画面領域を検出するステップは、前記ヘッドマウントディスプレイが水平線に関して所定の角度より下を向いているかどうかに応じてなされる、請求項12の方法。
  15. コンピュータシステムに請求項12〜14のいずれかの方法を実行させるように適合されたコンピュータ実行可能な命令を含むコンピュータ読み取り可能媒体。
JP2019558509A 2017-05-04 2018-04-26 ヘッドマウントディスプレイおよび方法 Active JP7191853B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
GB1707133.3 2017-05-04
GB1707133.3A GB2555501B (en) 2017-05-04 2017-05-04 Head mounted display and method
PCT/GB2018/051092 WO2018203037A1 (en) 2017-05-04 2018-04-26 Head mounted display and method

Publications (2)

Publication Number Publication Date
JP2020520494A true JP2020520494A (ja) 2020-07-09
JP7191853B2 JP7191853B2 (ja) 2022-12-19

Family

ID=59065465

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019558509A Active JP7191853B2 (ja) 2017-05-04 2018-04-26 ヘッドマウントディスプレイおよび方法

Country Status (6)

Country Link
US (1) US11590415B2 (ja)
EP (1) EP3619685B1 (ja)
JP (1) JP7191853B2 (ja)
CN (1) CN110537208B (ja)
GB (1) GB2555501B (ja)
WO (1) WO2018203037A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200096901A (ko) * 2018-01-05 2020-08-14 삼성전자주식회사 가상 현실 (vr) 디바이스에 의해 디스플레이되는 가상 컨텐트를 네비게이트하는 방법 및 장치
EP3588970A1 (en) * 2018-06-22 2020-01-01 Koninklijke Philips N.V. Apparatus and method for generating an image data stream
US11231827B2 (en) * 2019-08-03 2022-01-25 Qualcomm Incorporated Computing device and extended reality integration
KR20210145485A (ko) * 2020-05-25 2021-12-02 (주)이머시브캐스트 인카 클라우드 vr 장치 및 방법
JP6892960B1 (ja) * 2020-09-29 2021-06-23 Kddi株式会社 制御装置、情報処理システム、制御方法及びプログラム
CN113703704B (zh) * 2021-08-26 2024-01-02 杭州灵伴科技有限公司 界面显示方法、头戴式显示设备和计算机可读介质

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012124250A1 (ja) * 2011-03-15 2012-09-20 パナソニック株式会社 オブジェクト制御装置、オブジェクト制御方法、オブジェクト制御プログラム、及び集積回路
WO2015111283A1 (ja) * 2014-01-23 2015-07-30 ソニー株式会社 画像表示装置及び画像表示方法
WO2015125626A1 (ja) * 2014-02-20 2015-08-27 ソニー株式会社 表示制御装置、表示制御方法およびコンピュータプログラム
WO2016021252A1 (ja) * 2014-08-05 2016-02-11 ソニー株式会社 情報処理装置及び情報処理方法、並びに画像表示システム
JP2016506530A (ja) * 2012-11-20 2016-03-03 マイクロソフト テクノロジー ライセンシング,エルエルシー ヘッドマウントディスプレイ、およびこれを制御する方法
EP2996017A1 (en) * 2014-09-11 2016-03-16 Nokia Technologies OY Method, apparatus and computer program for displaying an image
JP2016526237A (ja) * 2013-06-07 2016-09-01 株式会社ソニー・インタラクティブエンタテインメント 頭部装着ディスプレイにおけるオペレーション・モード・スイッチング
JP5996814B1 (ja) * 2016-02-08 2016-09-21 株式会社コロプラ 仮想空間の画像をヘッドマウントディスプレイに提供する方法及びプログラム
WO2016194844A1 (ja) * 2015-05-29 2016-12-08 京セラ株式会社 ウェアラブル装置
WO2017048519A1 (en) * 2015-09-16 2017-03-23 Google Inc. Touchscreen hover detection in an augmented and/or virtual reality environment

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8754931B2 (en) * 2010-01-08 2014-06-17 Kopin Corporation Video eyewear for smart phone games
US8964298B2 (en) * 2010-02-28 2015-02-24 Microsoft Corporation Video display modification based on sensor input for a see-through near-to-eye display
JP5681850B2 (ja) * 2010-03-09 2015-03-11 レノボ・イノベーションズ・リミテッド(香港) ヘッドマウントディスプレイを外部表示装置として使用する携帯端末
KR101674956B1 (ko) * 2010-07-12 2016-11-10 엘지전자 주식회사 이동 단말기 및 3차원 영상 제어 방법
US8576276B2 (en) * 2010-11-18 2013-11-05 Microsoft Corporation Head-mounted display device which provides surround video
WO2014188798A1 (ja) * 2013-05-21 2014-11-27 ソニー株式会社 表示制御装置、表示制御方法および記録媒体
US9443355B2 (en) * 2013-06-28 2016-09-13 Microsoft Technology Licensing, Llc Reprojection OLED display for augmented reality experiences
KR102063076B1 (ko) * 2013-07-10 2020-01-07 엘지전자 주식회사 모바일 디바이스, 헤드 마운트 디스플레이 및 제어 방법
CN110308561A (zh) * 2014-03-14 2019-10-08 索尼互动娱乐股份有限公司 用于头戴式显示器(hmd)的方法和系统
GB2527503A (en) * 2014-06-17 2015-12-30 Next Logic Pty Ltd Generating a sequence of stereoscopic images for a head-mounted display
KR102238531B1 (ko) * 2014-06-25 2021-04-09 엘지전자 주식회사 이동단말기 및 그 제어방법
JP6294780B2 (ja) * 2014-07-17 2018-03-14 株式会社ソニー・インタラクティブエンタテインメント 立体画像提示装置、立体画像提示方法、およびヘッドマウントディスプレイ
JP6459380B2 (ja) * 2014-10-20 2019-01-30 セイコーエプソン株式会社 頭部装着型表示装置、頭部装着型表示装置の制御方法、および、コンピュータープログラム
US10102674B2 (en) * 2015-03-09 2018-10-16 Google Llc Virtual reality headset connected to a mobile computing device
JP2017004354A (ja) * 2015-06-12 2017-01-05 富士通株式会社 表示制御方法、表示制御プログラム、情報処理端末、及びウェアラブルデバイス
US10083544B2 (en) * 2015-07-07 2018-09-25 Google Llc System for tracking a handheld device in virtual reality
GB2544469B (en) * 2015-11-13 2020-05-27 Sony Interactive Entertainment Europe Ltd Communication method and device
US10366536B2 (en) * 2016-06-28 2019-07-30 Microsoft Technology Licensing, Llc Infinite far-field depth perception for near-field objects in virtual environments

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012124250A1 (ja) * 2011-03-15 2012-09-20 パナソニック株式会社 オブジェクト制御装置、オブジェクト制御方法、オブジェクト制御プログラム、及び集積回路
JP2016506530A (ja) * 2012-11-20 2016-03-03 マイクロソフト テクノロジー ライセンシング,エルエルシー ヘッドマウントディスプレイ、およびこれを制御する方法
JP2016526237A (ja) * 2013-06-07 2016-09-01 株式会社ソニー・インタラクティブエンタテインメント 頭部装着ディスプレイにおけるオペレーション・モード・スイッチング
WO2015111283A1 (ja) * 2014-01-23 2015-07-30 ソニー株式会社 画像表示装置及び画像表示方法
WO2015125626A1 (ja) * 2014-02-20 2015-08-27 ソニー株式会社 表示制御装置、表示制御方法およびコンピュータプログラム
WO2016021252A1 (ja) * 2014-08-05 2016-02-11 ソニー株式会社 情報処理装置及び情報処理方法、並びに画像表示システム
EP2996017A1 (en) * 2014-09-11 2016-03-16 Nokia Technologies OY Method, apparatus and computer program for displaying an image
WO2016194844A1 (ja) * 2015-05-29 2016-12-08 京セラ株式会社 ウェアラブル装置
WO2017048519A1 (en) * 2015-09-16 2017-03-23 Google Inc. Touchscreen hover detection in an augmented and/or virtual reality environment
JP5996814B1 (ja) * 2016-02-08 2016-09-21 株式会社コロプラ 仮想空間の画像をヘッドマウントディスプレイに提供する方法及びプログラム

Also Published As

Publication number Publication date
CN110537208B (zh) 2024-01-09
JP7191853B2 (ja) 2022-12-19
US11590415B2 (en) 2023-02-28
EP3619685A1 (en) 2020-03-11
CN110537208A (zh) 2019-12-03
GB2555501A (en) 2018-05-02
US20200316462A1 (en) 2020-10-08
GB2555501B (en) 2019-08-28
EP3619685B1 (en) 2024-01-24
WO2018203037A1 (en) 2018-11-08
GB201707133D0 (en) 2017-06-21

Similar Documents

Publication Publication Date Title
JP7191853B2 (ja) ヘッドマウントディスプレイおよび方法
US10078366B2 (en) Head-mountable apparatus and system
US11350156B2 (en) Method and apparatus for implementing video stream overlays
JP5143856B2 (ja) 3次元画像表示装置、および3次元画像表示方法
JP2017097122A (ja) 情報処理装置および画像生成方法
US20210368152A1 (en) Information processing apparatus, information processing method, and program
US10986401B2 (en) Image processing apparatus, image processing system, and image processing method
CN105939497A (zh) 媒体串流系统及媒体串流方法
GB2523554A (en) Head-mountable apparatus and systems
US11187895B2 (en) Content generation apparatus and method
US11749141B2 (en) Information processing apparatus, information processing method, and recording medium
JP6370446B1 (ja) 視点基盤のオブジェクトピッキングシステム及びその方法
GB2546273A (en) Detection system
KR20200115631A (ko) 멀티뷰잉 가상 현실 사용자 인터페이스
CN111630848A (zh) 图像处理装置、图像处理方法、程序和投影系统
JP2019121072A (ja) 3dcg空間の鑑賞条件連動システム、方法、およびプログラム
GB2571286A (en) Virtual reality
JP2018026706A (ja) 画像処理装置、画像表示装置、画像処理システム、及び画像処理方法
GB2558282A (en) Data processing
GB2556114A (en) Virtual reality
WO2018115843A1 (en) Head mountable display system

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20210325

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210326

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20210325

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220204

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220808

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221207

R150 Certificate of patent or registration of utility model

Ref document number: 7191853

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150