JP2020178330A - 仮想シーン及び現実シーンをピクチャ・イン・ピクチャモードで表示可能なヘッドマウントディスプレイシステム、関連する方法及び関連する非一時的なコンピュータ可読記憶媒体 - Google Patents

仮想シーン及び現実シーンをピクチャ・イン・ピクチャモードで表示可能なヘッドマウントディスプレイシステム、関連する方法及び関連する非一時的なコンピュータ可読記憶媒体 Download PDF

Info

Publication number
JP2020178330A
JP2020178330A JP2019089495A JP2019089495A JP2020178330A JP 2020178330 A JP2020178330 A JP 2020178330A JP 2019089495 A JP2019089495 A JP 2019089495A JP 2019089495 A JP2019089495 A JP 2019089495A JP 2020178330 A JP2020178330 A JP 2020178330A
Authority
JP
Japan
Prior art keywords
head
unit
display system
mounted display
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019089495A
Other languages
English (en)
Other versions
JP6820376B2 (ja
Inventor
威碩 陳
Wei-Shuo Chen
威碩 陳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
XRspace Co Ltd
Original Assignee
XRspace Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by XRspace Co Ltd filed Critical XRspace Co Ltd
Publication of JP2020178330A publication Critical patent/JP2020178330A/ja
Application granted granted Critical
Publication of JP6820376B2 publication Critical patent/JP6820376B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/212Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • H04N5/45Picture in picture, e.g. displaying simultaneously another television channel in a region of the screen

Abstract

【課題】仮想シーン及び現実シーンをピクチャ・イン・ピクチャモードで表示可能なヘッドマウントディスプレイシステムを提供する。【解決手段】ヘッドマウントディスプレイシステムは、装着可能な本体、画像捕捉ユニット、表示ユニット及び処理ユニットを含む。画像捕捉ユニットは装着可能な本端に取り付けられ、現実環境の現実世界を捕捉する。表示ユニットは装着可能な本体に取り付けられ、仮想シーン及び現実シーンをピクチャ・イン・ピクチャモードで表示する。処理ユニットは表示ユニット及び画像捕捉ユニットへ結合される。本開示は、ユーザが仮想シーン及び現実シーンを同時に同じビデオフレーム内で組み合わせて見ることを可能にし、ユーザが現実環境におけるユーザの現在の位置又は現在の状態を理解するのを助ける。これは、ユーザが仮想環境を体験するときに、ユーザの安全性を有効に確保し、衝突による負傷を防ぐ。【選択図】図2

Description

本開示は、ヘッドマウントディスプレイシステム、関連する方法及び関連する非一時的なコンピュータ可読記憶媒体に関係があり、より具体的には、仮想シーン及び現実シーンをピクチャ・イン・ピクチャモードで同時に表示可能なヘッドマウントディスプレイシステム、関連する方法及び関連する非一時的なコンピュータ可読記憶媒体に関係がある。
技術の進歩及び発達とともに、コンピュータゲームとユーザとの間のインタラクションの要求は高まっている。人間とコンピュータとの間のインタラクション技術、例えば、体性感覚ゲーム、仮想現実(virtual reality;VR)環境、拡張現実(augmented reality;AR)環境、複合現実(mixed reality;MR)環境及びクロスリアリティ(extended reality;XR)環境は、その生理的及び娯楽的機能により一般的になりつつある。ヘッドマウントディスプレイ(head mounted display;HMD)のような従来の表示装置は、通常、フルスクリーンモードで仮想環境の仮想シーンのみを表示することができる。しかしながら、ユーザは、現実環境の現実シーンを見ることができず、そのために、ユーザは、ユーザが仮想環境を体験するときに、実在の事物と容易に衝突することといった、現実環境での起こり得る来るべきアクシデントに気付くことができない。
従って、本開示の目的は、上記の問題を解決するために、仮想シーン及び現実シーンをピクチャ・イン・ピクチャモードで同時に表示可能なヘッドマウントディスプレイシステム、関連する方法及び関連する非一時的なコンピュータ可読記憶媒体を提供することである。
上記の目的を達成するために、本開示は、ヘッドマウントディスプレイシステムを開示する。ヘッドマウントディスプレイシステムは、装着可能な本体、画像捕捉ユニット、表示ユニット及び処理ユニットを含む。前記装着可能な本体は、ユーザによって身に付けられるよう構成される。前記画像捕捉ユニットは、前記装着可能な本体に取り付けられ、現実シーンを捕捉するよう構成される。前記表示ユニットは、前記装着可能な本体に取り付けられる。前記表示ユニットは、仮想シーン及び前記現実シーンをピクチャ・イン・ピクチャモードで表示するよう構成される。前記処理ユニットは、前記表示ユニット及び前記画像捕捉ユニットへ結合される。
上記の目的を達成するために、本開示は、仮想シーン及び現実シーンをピクチャ・イン・ピクチャモードで表示するためにヘッドマウントディスプレイシステムを使用する方法を更に開示する。方法は、前記現実シーンを捕捉するために前記ヘッドマウントディスプレイシステムの画像捕捉ユニットを使用することと、前記仮想シーン及び前記現実シーンを前記ピクチャ・イン・ピクチャモードで表示するために前記ヘッドマウントディスプレイシステムの表示ユニットを使用することとを含む。
上記の目的を達成するために、本開示は、ヘッドマウントディスプレイシステムにプロセスを実行させるプログラムを記憶している非一時的なコンピュータ可読記憶媒体を開示する。前記プロセスは、現実シーンを捕捉するために前記ヘッドマウントディスプレイシステムの画像捕捉ユニットを使用することと、仮想シーン及び前記現実シーンをピクチャ・イン・ピクチャモードで表示するために前記ヘッドマウントディスプレイシステムの表示ユニットを使用することとを含む。
要約すると、本開示は、仮想シーンをフルスクリーンモードで表示するか又は仮想シーン及び現実シーンをピクチャ・イン・ピクチャモードで同時に同じビデオフレーム内に組み合わせて表示するために表示ユニットを利用し、更には、表示ユニットに起動コマンドに応答してフルスクリーンモードとピクチャ・イン・ピクチャモードとの間で切り替わるよう指示するために処理ユニットを利用する。従って、それは、ユーザが現実環境におけるユーザの現在の位置又は現在の状態を理解することを助けるために、種々の方法で表示ユニットをフルスクリーンモードとピクチャ・イン・ピクチャモードとの間で切り替えることをユーザに可能にする。このことは、ユーザが仮想環境を体験するときに、ユーザの安全性を有効に確保するとともに、衝突によって引き起こされる負傷を防ぐ。
本開示のそれら及び他の障害物は、様々な図及び図面で説明される好適な実施形態の以下の詳細な説明を読んだ後で当業者にきっと明らかになるだろう。
本開示の第1実施形態に従うヘッドマウントディスプレイシステムの図である。 本開示の第1実施形態に従うヘッドマウントディスプレイシステムの機能ブロック図である。 本開示の第1実施形態に従ってヘッドマウントディスプレイシステムをフルスクリーンモードとピクチャ・イン・ピクチャモードとの間で切り替える方法を説明するフローチャート図である。 本開示の第1実施形態に従って仮想シーンをフルスクリーンモードで表示する表示ユニットを表す図である。 本開示の第1実施形態に従って仮想シーン及び現実シーンをピクチャ・イン・ピクチャモードで表示する表示ユニットを表す図である。 本開示の第2実施形態に従うヘッドマウントディスプレイシステムの図である。 本開示の第2実施形態に従うヘッドマウントディスプレイシステムの機能ブロック図である。 本開示の第2実施形態に従ってヘッドマウントディスプレイシステムをフルスクリーンモードとピクチャ・イン・ピクチャモードとの間で切り替える方法を説明するフローチャート図である。 本開示の第3実施形態に従うヘッドマウントディスプレイシステムの図である。 本開示の第3実施形態に従うヘッドマウントディスプレイシステムの機能ブロック図である。 本開示の第3実施形態に従ってヘッドマウントディスプレイシステムをフルスクリーンモードとピクチャ・イン・ピクチャモードとの間で切り替える方法を説明するフローチャート図である。 本開示の第4実施形態に従うヘッドマウントディスプレイシステムの図である。 本開示の第4実施形態に従うヘッドマウントディスプレイシステムの機能ブロック図である。 本開示の第4実施形態に従ってヘッドマウントディスプレイシステムをフルスクリーンモードとピクチャ・イン・ピクチャモードとの間で切り替える方法を説明するフローチャート図である。 本開示の第5実施形態に従うヘッドマウントディスプレイシステムの図である。 本開示の第5実施形態に従うヘッドマウントディスプレイシステムの機能ブロック図である。 本開示の第5実施形態に従ってヘッドマウントディスプレイシステムをフルスクリーンモードとピクチャ・イン・ピクチャモードとの間で切り替える方法を説明するフローチャート図である。
特定の語が、特定のコンポーネントに言及するために、明細書及び続く特許請求の範囲を通じて使用される。当業者が理解するだろうように、電子機器メーカーは、種々の名称によってあるコンポーネントに言及することがある。本書は、名称が異なるが機能は異ならないコンポーネントを区別するつもりはない。以下の記載において、及び特許請求の範囲において、語「含む」(include)及び「有する」(comprise)は、非限定的な意味で使用され、よって、「制限なしに、〜を含む」を意味すると解釈されるべきである。その上、記載を簡単にし、且つ、夫々の実施形態を比較することをより都合良くするよう、同じコンポーネントは、以下の実施形態の夫々で、同じ参照番号を付されている。図はもっぱら説明を目的とし、図は実寸通りでない点に留意されたい。また、語「結合する」(couple)は、間接的又は直接的な電気的/機械的接続のいずれかを意味するよう意図される。よって、第1デバイスが第2デバイスへ結合される場合に、その接続は直接的な電気的/機械的接続を通じても、又は他のデバイス及び接続を経る間接的な電気的/機械的接続を通じてもよい。
図1及び図2を参照されたい。図1は、本開示の第1実施形態に従うヘッドマウントディスプレイシステム1の図である。図2は、本開示の第1実施形態に従うヘッドマウントディスプレイシステム1の機能ブロック図である。図1及び図2に示されるように、ヘッドマウントディスプレイシステム1は、ユーザによって身に付けられ得る装着可能な本体11と、表示ユニット12と、処理ユニット13と、追跡ユニット14と、画像捕捉ユニット15とを含む。
画像捕捉ユニット15は、装着可能な本体11に取り付けられ、処理ユニット13へ結合され得る。画像捕捉ユニット15は、現実環境の現実シーンを捕捉するよう構成される。この実施形態で、画像捕捉ユニット15はカメラモジュールであることができる。しかし、本開示はそれに限られない。
表示ユニット12は、装着可能な本体11に取り付けられ、処理ユニット13へ結合され得る。表示ユニット12は、仮想環境の仮想シーンをフルスクリーンモードで表示するか、又は仮想環境の仮想シーン及び画像捕捉ユニット15によって捕捉された現実環境の現実シーンをピクチャ・イン・ピクチャモードで同時に同じビデオフレーム内で組み合わせて表示するよう構成される。表示ユニット12は、フルスクリーンモードからピクチャ・イン・ピクチャモードへ切り替わること、及び/又はピクチャ・イン・ピクチャモードからフルスクリーンモードへ切り替わることができる。この実施形態では、表示ユニット12は、液晶ディスプレイ(liquid crystal display;LCD)、発光ダイオード(light-emitting diode;LED)ディスプレイ、有機発光ダイオード(organic light-emitting diode;OLED)ディスプレイ、又は何らかの他のディスプレイであることができる。なお、本開示はそれらに限られない。
処理ユニット13は、装着可能な本体11内に実装され得る。処理ユニット13は、起動コマンドに応答して、表示ユニット12に、フルスクリーンモードからピクチャ・イン・ピクチャモードへ切り替えるように、及び/又はピクチャ・イン・ピクチャモードからフルスクリーンモードへ切り替えるように指示するよう構成される。この実施形態では、処理ユニット13は、ソフトウェア、ファームウェア、ハードウェア構成、又はそれらの組み合わせにおいて実施され得る。例えば、処理ユニット13は、中央演算処理装置、アプリケーションプロセッサ、マイクロプロセッサなどのようなプロセッサであることができ、あるいは、特定用途向け集積回路(application specific integrated circuit;ASIC)によって実現されてもよい。なお、本開示はそれらに限られない。
追跡ユニット14は、処理ユニット13へ結合され、ヘッドマウントディスプレイシステム1の位置、向き又は姿勢を追跡することができる。この実施形態では、追跡ユニットは、ヘッドマウントディスプレイシステム1の位置、向き又は姿勢を決定するよう装着可能な本体11の位置、向き又は姿勢を追跡するために、ジャイロスコープ、加速度計、磁気センサ又はそれらの組み合わせのような、装着可能な本体11内に実装された慣性計測装置(inertial measurement unit;IMU)141を含むことができる。なお、本開示は、この実施形態に限られない。慣性計測装置は、装着可能な本体以外の他のコンポーネントに実装され得る。例えば、他の実施形態では、追跡ユニット14は、手センサ、下半身センサ又は外部カメラモジュールを更に含むことができ、慣性計測装置は、ヘッドマウントディスプレイシステム1の位置、向き又は姿勢を決定するよう手センサ、下半身センサ又は外部カメラモジュールの位置、向き又は姿勢を追跡するために、手センサ、下半身センサ又は外部カメラモジュールに実装され得る。
この実施形態では、追跡ユニット14は、起動コマンドの生成を決定するデータを収集するよう構成される。例えば、起動コマンドは、追跡ユニット14の追跡結果が所定の条件を満たすときに生成され得る。なお、起動コマンドの生成の決定は、この実施形態に限られない。後述される他の実施形態では、追跡ユニット14から収集されたデータは、起動コマンドの生成を決定するために使用されなくてもよい。
更に、この実施形態では、起動コマンドの生成の決定及び起動コマンドの生成は、追跡ユニット14によって実行され得る。なお、本開示はこれに限られない。他の実施形態では、追跡ユニットは、収集されたデータ又は追跡結果を処理ユニットへ送ることができ、起動コマンドの生成の決定及び起動コマンドの生成は、処理ユニットによって実行され得る。
更に、この実施形態では、表示ユニット12、処理ユニット13、追跡ユニット14及び画像捕捉ユニット15は、装着可能な本体11に配置されている。しかし、本開示は、この実施形態に限られない。例えば、他の実施形態では、ヘッドマウントディスプレイシステムは、装着可能な本体から離れて独立して配置された遠隔コンピュータ装置と、遠隔コンピュータ装置への通信チャネルを構成するために装着可能な本体に配置された通信モジュールとを更に含む。遠隔コンピュータ装置は、エッジコンピュータデバイス、クラウドコンピュータデバイス、ローカルホストコンピュータ、遠隔サーバ、スマートフォン、などであることができる。通信モジュールは、装着可能な本体における要素と遠隔コンピュータ装置における要素との間に有線接続又は無線接続を確立することができる。この実施形態では、処理ユニット及び追跡ユニットのうちの少なくとも一方は、装着可能な本体以外に遠隔コンピュータ装置に少なくとも部分的に配置又は構成され得、且つ/あるいは、タスクの一部を遠隔コンピュータ装置へ分配する。それにより、遠隔コンピュータ装置は、ヘッドマウントディスプレイのサイズ及び計算を減らして、装着可能な本体を軽量且つ持ち運び可能にするために、通信モジュールを介して、追跡ユニットの追跡結果を受けること、又は起動コマンドを送信することができる。
図3乃至図5を参照されたい。図3は、本開示の第1実施形態に従ってヘッドマウントディスプレイシステム1をフルスクリーンモードとピクチャ・イン・ピクチャモードとの間で切り替える方法を説明するフローチャート図である。図4は、本開示の第1実施形態に従って仮想シーンをフルスクリーンモードで表示する表示ユニット12を表す図である。図5は、本開示の第1実施形態に従って仮想シーン及び現実シーンをピクチャ・イン・ピクチャモードで表示する表示ユニット12を表す図である。図3に示されるように、方法は、次のステップを含む。
S1:表示ユニット12は、仮想環境の仮想シーンをフルスクリーンモードで表示する。
S2:画像捕捉ユニット15は、現実環境の現実シーンを捕捉する。
S3:追跡ユニット14は、ヘッドマウントディスプレイシステム1の位置、向き及び姿勢の中の少なくとも1つを追跡する。
S4:追跡ユニット14の追跡結果が所定の条件を満たすときに、起動コマンドが生成される。
S5:処理ユニット13は、起動コマンドに応答して、表示ユニット12に、フルスクリーンモードからピクチャ・イン・ピクチャモードへ切り替えるよう指示する。
ステップの詳細な説明は、次のように与えられる。ステップS1で、ユーザがヘッドマウントディスプレイ10を身に付けているとき、表示ユニット12は、図4に示されるように、最初に、ユーザのためにフルスクリーンモードで仮想環境の仮想シーンを表示することができる。ステップS2からS4において、ユーザが仮想環境を体験しているとき、一方で、追跡ユニット14は、現実環境における装着可能な本体11の位置、向き及び姿勢の中の少なくとも1つを追跡することによって、ヘッドマウントディスプレイシステム1の位置、向き及び姿勢の中の少なくとも1つを追跡することができ、画像捕捉ユニット15は、現実環境の現実シーンを捕捉することができる。更に、追跡ユニット14の追跡結果が所定の条件を満たすときに起動コマンドが生成される。所定の条件は、ヘッドマウントディスプレイシステム1と現実環境との間の関係に従って決定され得る。
例えば、所定の条件は、ユーザによって装着されている装着可能な本体11と、現実環境における、図4及び図5に示されているテレビ受像機2、又は壁のような実在の事物との間の距離が所定の距離以下であることを参照することができる。所定の条件は、望ましくは50センチメートルであることができる。すなわち、装着可能な本体11と現実環境における実在の事物との間の距離がユーザの動作中に50センチメートル以下であるとき、起動コマンドは生成され、ユーザが衝突を回避するための警告メッセージを供給することができる。
しかし、所定の条件はそれに限られない。他の実施形態では、所定の条件は、所定の向き又は所定の姿勢を参照することができ、起動コマンドは、追跡ユニットによって追跡されるヘッドマウントディスプレイシステムの向き又は姿勢が所定の向き又は所定の姿勢を満たすときに生成され得る。
代替的に、後述される他の実施形態では、追跡ユニットは、ユーザの手のジェスチャ、ユーザの手の動き又はユーザの下半身の動きを決定するために、カメラモジュール、ユーザに手に装着される手センサ、ユーザの下半身に装着される下半身センサ、又はそれらの組み合わせを更に含むことができ、所定の条件は、所定の手のジェスチャ、所定の手の動き、所定の下半身の動き、又はそれらの組み合わせを参照することができ、起動コマンドは、追跡ユニットによって追跡されるユーザの手のジェスチャ、手の動き、又は下半身の動きが所定の手のジェスチャ、所定の手の動き、又は所定の下半身の動きを満たすときに生成され得る。
代替的に、他の実施形態では、追跡ユニットは単に省略され得、画像捕捉ユニットが更に、ユーザの手のジェスチャ、ユーザの手の動き、ユーザの下半身の動き、ヘッドマウントディスプレイシステムの位置、ヘッドマウントディスプレイシステムの向き、及びヘッドマウントディスプレイシステムの姿勢のうちの少なくとも1つを、画像捕捉ユニットによって捕捉された画像に従って追跡するよう構成される。
その後、ステップS5で、処理ユニット13は、ユーザが仮想シーン及び現実シーンを同時に同じビデオフレーム内で組み合わせて見ることを可能にし且つユーザが現実環境におけるユーザの現在の位置又は現在の状態を理解するのを助けるために、起動コマンドに応答して、表示ユニット12に、図4に示されるフルスクリーンモードから、図5に示されるピクチャ・イン・ピクチャモードへ切り替えるよう指示することができる。このことは、ユーザが仮想環境を体験しているときに、ユーザの安全性を有効に確保するとともに、衝突によって引き起こされる負傷を防ぐ。
その上、ピクチャ・イン・ピクチャモードで表示される現実シーンのウィンドウ21のサイズ又は位置は、追跡ユニット14又は画像捕捉ユニット15の追跡結果が所定の条件を満たすときに調整され得る。例えば、ユーザは、特定の手のジェスチャ及び/又は特定の手の動きによって、表示されている現実シーンのウィンドウ21のサイズ又は位置を調整することができる。他の例として、ウィンドウ21のサイズ又は位置は、より良いユーザ経験を提供するために、追跡ユニット14の追跡結果(例えば、アイトラッキング結果)に基づき自動調整され得る。
当然のことだが、装着可能な本体11と実在の事物との間の距離が再び広がり、50センチメートルといった所定の距離よりも大きくなる場合には、表示ユニットは、没入体験を強めるためにピクチャ・イン・ピクチャモードからフルスクリーンモードへ切り替えられ得る。
図6乃至図8を参照されたい。図6は、本開示の第2実施形態に従うヘッドマウントディスプレイシステム1’の図である。図7は、本開示の第2実施形態に従うヘッドマウントディスプレイシステム1’の機能ブロック図である。図8は、本開示の第2実施形態に従ってヘッドマウントディスプレイシステム1’をフルスクリーンモードとピクチャ・イン・ピクチャモードとの間で切り替える方法を説明するフローチャート図である。図6乃至図8に示されるように、第1実施形態のヘッドマウントディスプレイシステム1とは異なり、この実施形態のヘッドマウントディスプレイシステム1’は、装着可能な本体11’、表示ユニット12’、処理ユニット13’、画像捕捉ユニット15’及びスイッチユニット16’を含む。画像捕捉ユニット15’は、装着可能な本体11’に配置される。表示ユニット12’は、装着可能な本体11’に配置される。処理ユニット13’は、装着可能な本体11’に配置され、表示ユニット12’及び画像捕捉ユニット15’へ結合される。スイッチユニット16’は、装着可能な本体11’に配置され、スイッチユニット16’の状態が変化するときに起動コマンドを生成する処理ユニット13’へ結合される。すなわち、この実施形態では、ユーザは、実際の要求に従ってスイッチユニット16’の状態を変化させることによって、表示ユニット12’をフルスクリーンモードからピクチャ・イン・ピクチャモードへ切り替えることができる。更に、当然のことながら、ユーザは、スイッチユニット16’の状態を再び変化させることによって、表示ユニット12’をピクチャ・イン・ピクチャモードからフルスクリーンモードへ切り替えることができる。その上、この実施形態では、スイッチユニット16’は、装着可能な本体11’上の物理的なボタンであることができ、スイッチユニット16’の状態は、物理的なボタンを押下又はクリックすることによって変更可能である。しかしながら、本開示はそれに限られない。他の実施形態では、スイッチユニットはまた、装着可能な本体上の仮想ボタンであるか、あるいは、表示ユニットによって表示され、タッチ操作によってアクティブ又は非アクティブにされ得る。
図9乃至図11を参照されたい。図9は、本開示の第3実施形態に従うヘッドマウントディスプレイシステム1”の図である。図10は、本開示の第3実施形態に従うヘッドマウントディスプレイシステム1”の機能ブロック図である。図11は、本開示の第3実施形態に従ってヘッドマウントディスプレイシステム1”をフルスクリーンモードとピクチャ・イン・ピクチャモードとの間で切り替える方法を説明するフローチャート図である。図9乃至図11に示されるように、上記のヘッドマウントディスプレイシステム1、1’とは異なり、この実施形態のヘッドマウントディスプレイシステム1”は、装着可能な本体11”と、装着可能な本体11”に取り付けられている表示ユニット12”と、表示ユニット12”へ結合されている処理ユニット13”と、装着可能な本体11”に取り付けられ、処理ユニット13”へ結合されている画像捕捉ユニット15”と、リモートコントローラ17”と、通信モジュール18”と、遠隔コンピュータ装置19”とを含む。処理ユニット13”は、遠隔コンピュータ装置19”において構成され得る。通信モジュール18”は、遠隔コンピュータ装置19”にある処理ユニット13”と、装着可能な本体11”に配置されている表示ユニット12”と、リモートコントローラ17”との間の通信チャネルを構成する。すなわち、処理ユニット13”は、表示ユニット12”にフルスクリーンモードとピクチャ・イン・ピクチャモードとの間で切り替わるよう指示するために、通信モジュール18”によって表示ユニット12”及び画像捕捉ユニット15”へ結合され、リモートコントローラ17”は、リモートコントローラ17”が操作されるときに起動コマンドを生成し、通信モジュール18”を介して処理ユニット13”へ遠隔で送信するために、通信モジュール18”によって処理ユニット13”へ結合されてそれと通信する。すなわち、この実施形態では、ユーザは、実際の要求に従ってリモートコントローラ17”を操作することによって、表示ユニット12”をフルスクリーンモードからピクチャ・イン・ピクチャモードへ切り替えることができる。更に、当然のことながら、ユーザは、リモートコントローラ17”を再び操作することによって、表示ユニット12”をピクチャ・イン・ピクチャモードからフルスクリーンモードへ切り替えることができる。
図12乃至図14を参照されたい。図12は、本開示の第4実施形態に従うヘッドマウントディスプレイシステム1’’’の図である。図13は、本開示の第4実施形態に従うヘッドマウントディスプレイシステム1’’’の機能ブロック図である。図14は、本開示の第4実施形態に従ってヘッドマウントディスプレイシステム1’’’をフルスクリーンモードとピクチャ・イン・ピクチャモードとの間で切り替える方法を説明するフローチャート図である。図12乃至図14に示されるように、上記のヘッドマウントディスプレイシステム1、1’、1”とは異なり、この実施形態のヘッドマウントディスプレイシステム1’’’は、装着可能な本体11’’’、表示ユニット12’’’、処理ユニット13’’’、追跡ユニット14’’’及び画像捕捉ユニット15’’’を含む。表示ユニット12’’’、処理ユニット13’’’及び画像捕捉ユニット15’’’は、装着可能な本体11’’’に配置される。処理ユニット13’’’は、表示ユニット12’’’及び画像捕捉ユニット15’’’へ結合される。追跡ユニット14’’’は、ユーザの手のジェスチャ、ユーザの手の動き、及びユーザの下半身の動きのうちの少なくとも1つを追跡するために、処理ユニット13’’’へ結合され、装着可能な本体11’’’に配置されているカメラモジュール142’’’と、処理ユニット13’’’へ結合され、ユーザの手に装着されている手センサ143’’’と、処理ユニット13’’’へ結合され、ユーザの下半身に装着されている下半身センサ144’’’とを含み、所定の条件は、所定の手のジェスチャ、所定の手の動き、所定の下半身の動き、又はそれらの組み合わせを参照することができる。例えば、起動コマンドは、追跡ユニットによって追跡されているユーザの手のジェスチャ、手の動き又は下半身の動きが所定の手のジェスチャ、所定の手の動き又は所定の下半身の動きを満たすときに生成され得る。しかしながら、本開示はそれに限られない。追跡ユニットは、カメラモジュール142’’’、手センサ143’’’及び下半身センサ144’’’のうちの少なくとも1つしか含まなくてもよい。例えば、他の実施形態では、追跡ユニットのカメラモジュールは省略され得、追跡ユニットは、画像捕捉ユニットによって捕捉された画像、手センサ及び下半身センサによってユーザの手のジェスチャ、ユーザの手の動き及びユーザの下半身の動きのうちの少なくとも1つを決定するために、画像捕捉ユニットへ結合され得る。
図15乃至図17を参照されたい。図15は、本開示の第5実施形態に従うヘッドマウントディスプレイシステム1””の図である。図16は、本開示の第5実施形態に従うヘッドマウントディスプレイシステム1””の機能ブロック図である。図17は、本開示の第5実施形態に従ってヘッドマウントディスプレイシステム1””をフルスクリーンモードとピクチャ・イン・ピクチャモードとの間で切り替える方法を説明するフローチャート図である。図15乃至図17に示されるように、この実施形態のヘッドマウントディスプレイシステム1””は、装着可能な本体11””、表示ユニット12””、処理ユニット13””、追跡ユニット14””及び画像捕捉ユニット15””を含む。表示ユニット12””、処理ユニット13””及び画像捕捉ユニット15””は、装着可能な本体11””に配置される。処理ユニット13””は、表示ユニット12””及び画像捕捉ユニット15””へ結合される。追跡ユニット14””は、ユーザの下半身の動き、ヘッドマウントディスプレイシステム1””の位置、ヘッドマウントディスプレイシステム1””の向き、及びヘッドマウントディスプレイシステム1””の姿勢のうちの少なくとも1つを追跡するために、処理ユニット13””へ結合された慣性計測装置141””と、処理ユニット13””へ結合され、ユーザの下半身に装着された下半身センサ144””とを含む。画像捕捉ユニット15””は、カメラモジュールを含み、ユーザの手のジェスチャ及び手の動きのうちの少なくとも1つを追跡するよう構成される。起動コマンドは、追跡ユニット14””の追跡結果及び画像捕捉ユニット15””の追跡結果が夫々第1所定条件及び第2所定条件を満たすときに生成され得る。第1所定条件は、所定の距離、ヘッドマウントディスプレイシステム1””の所定の位置、ヘッドマウントディスプレイシステム1””の所定の向き、又はヘッドマウントディスプレイシステム1””の所定の姿勢を参照することができ、第2所定条件は、所定の手のジェスチャ、所定の手の動き、及び所定の下半身の動きを参照することができる。
この実施形態では、慣性計測装置141””は、追跡ユニット14””がヘッドマウントディスプレイシステム1””の位置、向き又は姿勢を決定するよう装着可能な本体11””の位置、向き又は姿勢を追跡することができるように、装着可能な本体11””に取り付けられ得る。
更に、起動コマンドの生成の決定は、多段階動作、例えば、二段階動作であることができる。例えば、装着可能な本体11””と実在の事物との間の距離が所定の距離に満たないと追跡ユニット14””が決定するときに、画像捕捉ユニット15””が更に、ユーザの手のジェスチャが所定の手のジェスチャと一致するかどうかを判定する。ユーザの手のジェスチャが所定の手のジェスチャと一致すると画像捕捉ユニット15””が決定するときに、起動コマンドが生成される。しかし、本開示はこの実施形態に制限されない。他の実施形態では、起動コマンドの生成の決定は、一段階動作であることができ、すなわち、起動コマンドは、追跡ユニットの追跡結果及び画像捕捉ユニットの追跡結果が夫々第1所定条件及び第2所定条件を同時に満たすときに生成され得る。
更に、本開示の上記の実施形態は、ソフトウェア、ファームウェア、ハードウェア構成、又はそれらの組み合わせにおいて実施可能であり、ヘッドマウントディスプレイシステムに本開示の上記の方法に従ってプロセッサによって処理を実行させるプログラムを記憶する非一時的なコンピュータ可読記憶媒体を提供することも可能である。プロセッサは、中央演算処理装置、アプリケーションプロセッサ、マイクロプロセッサなどであることができ、あるいは、特定用途向け集積回路(ASIC)によって実現され得る。コンピュータ可読記憶媒体は、リードオンリーメモリ(ROM)、ランダムアクセスメモリ(RAM)、CD−ROM、磁気テープ、フロッピー(登録商標)ディスク、又は光学式データ記憶デバイスであることができる。しかしながら、本開示はそれらに限られない。
先行技術と対照的に、本開示は、仮想シーンをフルスクリーンモードで表示するか、又は仮想シーン及び現実シーンをピクチャ・イン・ピクチャモードで同時に同じビデオフレーム内で組み合わせて表示するために表示ユニットを利用し、更には、起動コマンドに応答して、表示ユニットにフルスクリーンモードとピクチャ・イン・ピクチャモードとの間で切り替わるよう指示するために処理ユニットを利用する。従って、それは、ユーザが現実環境におけるユーザの現在の位置又は現在の状態を理解することを助けるために、様々な方法でユーザが表示ユニットをフルスクリーンモードとピクチャ・イン・ピクチャモードとの間で切り替えることを可能にする。これにより、ユーザが仮想環境を体験しているときに、ユーザの安全性が有効に確保されるとともに、衝突によって引き起こされる負傷が防止される。
当業者は、デバイス及び方法の多数の改良及び変更が本開示の教示を保ちながら行われ得ると容易に気付くだろう。然るに、上記の開示は、添付の特許請求の範囲の境界によってしか制限されないと理解されるべきである。
1,1’,1”,1’’’,1”” ヘッドマウントディスプレイシステム
11,11’,11”,11’’’,11”” 装着可能な本体
12,12’,12”,12’’’,12”” 表示ユニット
13,13’,13”,13’’’,13”” 処理ユニット
14,14’’’,14”” 追跡ユニット
141,141”” 慣性計測装置
142’’’ カメラモジュール
143’’’ 手センサ
144’’’,144”” 下半身センサ
15,15”,15’’’,15”” 画像捕捉ユニット
16’ スイッチユニット
17” リモートコントローラ
18” 通信モジュール
19” 遠隔コンピュータ装置

Claims (10)

  1. ユーザによって身に付けられるよう構成される装着可能な本体と、
    前記装着可能な本体に取り付けられ、現実シーンを捕捉するよう構成される画像捕捉ユニットと、
    前記装着可能な本体に取り付けられ、仮想シーン及び前記現実シーンをピクチャ・イン・ピクチャモードで表示するよう構成される表示ユニットと、
    前記画像捕捉ユニット及び前記表示ユニットへ結合される処理ユニットと
    を有し、
    前記表示ユニットは更に、前記仮想シーンをフルスクリーンモードで表示するよう構成され、
    前記処理ユニットは、起動コマンドに応答して、前記表示ユニットに前記フルスクリーンモードと前記ピクチャ・イン・ピクチャモードとの間で切り替わるように指示するよう構成される、
    ヘッドマウントディスプレイシステム。
  2. 前記処理ユニットへ結合されるスイッチユニットであり、該スイッチユニットの状態が変化するときに前記起動コマンドを生成する前記スイッチユニット、及び/又は
    前記処理ユニットと通信するリモートコントローラであり、該リモートコントローラが操作されるときに前記起動コマンドを生成する前記リモートコントローラ
    を更に有する
    請求項1に記載のヘッドマウントディスプレイシステム。
  3. 前記画像捕捉ユニットは更に、前記ユーザの手のジェスチャ、前記ユーザの手の動き、前記ユーザの下半身の動き、当該ヘッドマウントディスプレイシステムの位置、当該ヘッドマウントディスプレイシステムの向き、及び当該ヘッドマウントディスプレイシステムの姿勢、の中の少なくとも1つを追跡するよう構成され、前記起動コマンドは、前記画像捕捉ユニットの追跡結果が所定の条件を満たすときに生成され、あるいは、
    当該ヘッドマウントディスプレイシステムは、前記処理ユニットへ結合され、前記ユーザの手のジェスチャ、前記ユーザの手の動き、前記ユーザの下半身の動き、当該ヘッドマウントディスプレイシステムの位置、当該ヘッドマウントディスプレイシステムの向き、及び当該ヘッドマウントディスプレイシステムの姿勢、の中の少なくとも1つを追跡するよう構成される追跡ユニットを更に有し、前記起動コマンドは、前記追跡ユニットの追跡結果が所定の条件を満たすときに生成される、
    請求項1に記載のヘッドマウントディスプレイシステム。
  4. 前記処理ユニットへ結合され、前記ユーザの下半身の動き、当該ヘッドマウントディスプレイシステムの位置、当該ヘッドマウントディスプレイシステムの向き、及び当該ヘッドマウントディスプレイシステムの姿勢、の中の少なくとも1つを追跡するよう構成される追跡ユニットを更に有し、
    前記画像捕捉ユニットは、前記ユーザの手のジェスチャ及び手の動きの中の少なくとも1つを追跡するよう構成され、
    前記起動コマンドは、前記追跡ユニットの追跡結果及び前記画像捕捉ユニットの追跡結果が夫々第1所定条件及び第2所定条件を満たすときに生成される、
    請求項1に記載のヘッドマウントディスプレイシステム。
  5. 前記画像捕捉ユニットは更に、前記ユーザの手のジェスチャ及び手の動きの中の少なくとも1つを追跡するよう構成され、
    前記ピクチャ・イン・ピクチャモードで表示される前記現実シーンのウィンドウのサイズ及び位置の少なくとも一方は、前記画像捕捉ユニットの追跡結果が所定の条件を満たすときに調整される、
    請求項1に記載のヘッドマウントディスプレイシステム。
  6. 仮想シーン及び現実シーンをピクチャ・イン・ピクチャモードで表示するためにヘッドマウントディスプレイシステムを使用する方法であって、
    前記仮想シーンをフルスクリーンモードで表示するために前記ヘッドマウントディスプレイシステムの表示ユニットを使用することと、
    前記現実シーンを捕捉するために前記ヘッドマウントディスプレイシステムの画像捕捉ユニットを使用することと、
    起動コマンドに応答して、前記表示ユニットに、前記フルスクリーンモードと前記ピクチャ・イン・ピクチャモードとの間で切り替わるよう指示するために、前記ヘッドマウントディスプレイシステムの処理ユニットを使用することと、
    前記仮想シーン及び前記現実シーンを前記ピクチャ・イン・ピクチャモードで表示するために前記表示ユニットを使用することと
    を有する方法。
  7. スイッチユニットの状態が変化するときに前記起動コマンドを生成するよう前記ヘッドマウントディスプレイシステムの前記スイッチユニットを使用すること、及び/又は
    リモートコントローラが操作されるときに前記起動コマンドを生成するよう前記ヘッドマウントディスプレイシステムの前記リモートコントローラを使用すること
    を更に有する
    請求項6に記載の方法。
  8. ユーザの手のジェスチャ、前記ユーザの手の動き、前記ユーザの下半身の動き、前記ヘッドマウントディスプレイシステムの位置、前記ヘッドマウントディスプレイシステムの向き、及び前記ヘッドマウントディスプレイシステムの姿勢、の中の少なくとも1つを追跡するために前記画像捕捉ユニットを使用し、前記画像捕捉ユニットの追跡結果が所定の条件を満たすときに前記起動コマンドを生成すること、又は
    ユーザの手のジェスチャ、前記ユーザの手の動き、前記ユーザの下半身の動き、前記ヘッドマウントディスプレイシステムの位置、前記ヘッドマウントディスプレイシステムの向き、及び前記ヘッドマウントディスプレイシステムの姿勢、の中の少なくとも1つを追跡するために前記ヘッドマウントディスプレイシステムの追跡ユニットを使用し、前記追跡ユニットの追跡結果が所定の条件を満たすときに前記起動コマンドを生成すること
    を更に有する
    請求項6に記載の方法。
  9. ユーザの手のジェスチャ及び前記ユーザの手の動きの中の少なくとも1つを追跡するために前記画像捕捉ユニットを使用することと、
    前記ユーザの下半身の動き、前記ヘッドマウントディスプレイシステムの位置、前記ヘッドマウントディスプレイシステムの向き、及び前記ヘッドマウントディスプレイシステムの姿勢、の中の少なくとも1つを追跡するために前記ヘッドマウントディスプレイシステムの追跡ユニットを使用することと、
    前記追跡ユニットの追跡結果及び前記画像捕捉ユニットの追跡結果が夫々第1所定条件及び第2所定条件を満たすときに前記起動コマンドを生成することと
    を更に有する
    請求項6に記載の方法。
  10. ユーザの手のジェスチャ及び前記ユーザの手の動きの中の少なくとも1つを追跡するために前記画像捕捉ユニットを使用することと、
    前記画像捕捉ユニットの追跡結果が所定の条件を満たすときに、前記ピクチャ・イン・ピクチャモードで表示される前記現実シーンのウィンドウのサイズ及び位置の少なくとも一方を調整することと
    を更に有する
    請求項6に記載の方法。
JP2019089495A 2019-04-15 2019-05-10 仮想シーン及び現実シーンをピクチャ・イン・ピクチャモードで表示可能なヘッドマウントディスプレイシステム、関連する方法及び関連する非一時的なコンピュータ可読記憶媒体 Active JP6820376B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/384,914 US10992926B2 (en) 2019-04-15 2019-04-15 Head mounted display system capable of displaying a virtual scene and a real scene in a picture-in-picture mode, related method and related non-transitory computer readable storage medium
US16/384,914 2019-04-15

Publications (2)

Publication Number Publication Date
JP2020178330A true JP2020178330A (ja) 2020-10-29
JP6820376B2 JP6820376B2 (ja) 2021-01-27

Family

ID=71134374

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019089495A Active JP6820376B2 (ja) 2019-04-15 2019-05-10 仮想シーン及び現実シーンをピクチャ・イン・ピクチャモードで表示可能なヘッドマウントディスプレイシステム、関連する方法及び関連する非一時的なコンピュータ可読記憶媒体

Country Status (4)

Country Link
US (1) US10992926B2 (ja)
JP (1) JP6820376B2 (ja)
CN (1) CN111831105A (ja)
TW (1) TWI690730B (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10698481B1 (en) * 2017-09-28 2020-06-30 Apple Inc. Glint-assisted gaze tracker

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010515876A (ja) * 2007-01-15 2010-05-13 オプテック ヴェンチャーズ,エルエルシー 画像方向補正方法およびシステム
US20160220324A1 (en) * 2014-12-05 2016-08-04 Camplex, Inc. Surgical visualizations systems and displays
JP2016189120A (ja) * 2015-03-30 2016-11-04 ソニー株式会社 情報処理装置、情報処理システム、及び頭部装着ディスプレイ

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9088787B1 (en) * 2012-08-13 2015-07-21 Lockheed Martin Corporation System, method and computer software product for providing visual remote assistance through computing systems
JP6361649B2 (ja) 2013-03-29 2018-07-25 ソニー株式会社 情報処理装置、通知状態制御方法及びプログラム
US20160049011A1 (en) 2013-04-04 2016-02-18 Sony Corporation Display control device, display control method, and program
US10019057B2 (en) 2013-06-07 2018-07-10 Sony Interactive Entertainment Inc. Switching mode of operation in a head mounted display
US9729864B2 (en) 2013-09-30 2017-08-08 Sony Interactive Entertainment Inc. Camera based safety mechanisms for users of head mounted displays
CN104216520B (zh) * 2014-09-09 2018-07-06 联想(北京)有限公司 一种信息处理方法及电子设备
CN106484085B (zh) * 2015-08-31 2019-07-23 北京三星通信技术研究有限公司 在头戴式显示器中显示真实物体的方法及其头戴式显示器
KR102610120B1 (ko) 2016-01-20 2023-12-06 삼성전자주식회사 Hmd 디바이스 및 그 제어 방법
US10217287B2 (en) * 2016-12-24 2019-02-26 Motorola Solutions, Inc. Method and apparatus for generating a search pattern for an incident scene
TWI626851B (zh) 2017-03-14 2018-06-11 宏正自動科技股份有限公司 影像切換裝置、影像切換系統及影像切換方法
US20180288354A1 (en) * 2017-03-31 2018-10-04 Intel Corporation Augmented and virtual reality picture-in-picture
TWM573838U (zh) 2018-09-17 2019-02-01 全台晶像股份有限公司 Head-mounted virtual reality display device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010515876A (ja) * 2007-01-15 2010-05-13 オプテック ヴェンチャーズ,エルエルシー 画像方向補正方法およびシステム
US20160220324A1 (en) * 2014-12-05 2016-08-04 Camplex, Inc. Surgical visualizations systems and displays
JP2016189120A (ja) * 2015-03-30 2016-11-04 ソニー株式会社 情報処理装置、情報処理システム、及び頭部装着ディスプレイ

Also Published As

Publication number Publication date
US10992926B2 (en) 2021-04-27
TWI690730B (zh) 2020-04-11
TW202040214A (zh) 2020-11-01
US20200329229A1 (en) 2020-10-15
JP6820376B2 (ja) 2021-01-27
CN111831105A (zh) 2020-10-27

Similar Documents

Publication Publication Date Title
US10978019B2 (en) Head mounted display system switchable between a first-person perspective mode and a third-person perspective mode, related method and related non-transitory computer readable storage medium
WO2018034319A1 (ja) 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム
US11601592B2 (en) Head mounted display having a plurality of display modes
JP6434667B1 (ja) 仮想空間を提供するためのプログラム、システム、及び方法
KR102449439B1 (ko) Hmd를 이용한 무인기 조종 장치
WO2016163183A1 (ja) 没入型仮想空間に実空間のユーザの周辺環境を提示するためのヘッドマウント・ディスプレイ・システムおよびコンピュータ・プログラム
EP3528024B1 (en) Information processing device, information processing method, and program
US11151804B2 (en) Information processing device, information processing method, and program
CN111937045A (zh) 信息处理装置、信息处理方法和记录介质
JP2020177608A (ja) 仮想シーン及び現実環境のマップをピクチャ・イン・ピクチャモードで表示可能なヘッドマウントディスプレイシステム、関連する方法及び関連する非一時的なコンピュータ可読記憶媒体
US11477433B2 (en) Information processor, information processing method, and program
JP6820376B2 (ja) 仮想シーン及び現実シーンをピクチャ・イン・ピクチャモードで表示可能なヘッドマウントディスプレイシステム、関連する方法及び関連する非一時的なコンピュータ可読記憶媒体
US20220351442A1 (en) Animation production system
GB2582106A (en) Display device and display device control method
WO2021014673A1 (ja) 映像表示制御装置、方法およびプログラム
JP7077132B2 (ja) 電子機器、電子機器の制御方法、プログラム、及び、記憶媒体
EP3734417A1 (en) Head mounted display system capable of displaying a virtual scene and a real scene in a picture-in-picture mode, related method and related non-transitory computer readable storage medium
EP3734418A1 (en) Head mounted display system capable of displaying a virtual scene and a map of a real environment in a picture-in-picture mode, related method and related non-transitory computer readable storage medium
EP3734415A1 (en) Head mounted display system switchable between a first-person perspective mode and a third-person perspective mode, related method and related non-transitory computer readable storage medium
WO2024064231A1 (en) Devices, methods, and graphical user interfaces for interacting with three-dimensional environments
CN114579074A (zh) 用于助视器的交互式投屏方法、计算机存储介质及助视器

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190510

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200714

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201008

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201215

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210104

R150 Certificate of patent or registration of utility model

Ref document number: 6820376

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250