JP2020177608A - 仮想シーン及び現実環境のマップをピクチャ・イン・ピクチャモードで表示可能なヘッドマウントディスプレイシステム、関連する方法及び関連する非一時的なコンピュータ可読記憶媒体 - Google Patents

仮想シーン及び現実環境のマップをピクチャ・イン・ピクチャモードで表示可能なヘッドマウントディスプレイシステム、関連する方法及び関連する非一時的なコンピュータ可読記憶媒体 Download PDF

Info

Publication number
JP2020177608A
JP2020177608A JP2019089500A JP2019089500A JP2020177608A JP 2020177608 A JP2020177608 A JP 2020177608A JP 2019089500 A JP2019089500 A JP 2019089500A JP 2019089500 A JP2019089500 A JP 2019089500A JP 2020177608 A JP2020177608 A JP 2020177608A
Authority
JP
Japan
Prior art keywords
head
unit
mounted display
display system
tracking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019089500A
Other languages
English (en)
Inventor
自強 王
Tzu-Chiang Wang
自強 王
佳駿 李
Chia-Chun Lee
佳駿 李
思瑩 李
si-ying Li
思瑩 李
威碩 陳
Wei-Shuo Chen
威碩 陳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
XRspace Co Ltd
Original Assignee
XRspace Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by XRspace Co Ltd filed Critical XRspace Co Ltd
Publication of JP2020177608A publication Critical patent/JP2020177608A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/14Display of multiple viewports
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/003Details of a display terminal, the details relating to the control arrangement of the display terminal and to the interfaces thereto
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • G09G5/373Details of the operation on graphic patterns for modifying the size of the graphic pattern
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/012Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/045Zooming at least part of an image, i.e. enlarging it or shrinking it
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0492Change of orientation of the displayed image, e.g. upside-down, mirrored
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
    • G09G2340/125Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels wherein one of the images is motion video
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】仮想シーン及び現実環境のマップをピクチャ・イン・ピクチャモードで表示可能なヘッドマウントディスプレイシステムを提供する。【解決手段】ヘッドマウントディスプレイシステムは、追跡ユニットと、表示ユニットと、追跡ユニット及び表示ユニットへ結合された処理ユニットとを含む。追跡ユニットは、ヘッドマウントディスプレイシステムの位置、向き及び姿勢のうちの少なくとも1つを追跡し、更には追跡結果を生成する。表示ユニットは、仮想シーン及び現実環境のマップを追跡ユニットの追跡結果に基づきピクチャ・イン・ピクチャモードで表示する。本開示は、ユーザが仮想シーン及び現実環境のマップをピクチャ・イン・ピクチャモードで同時に見ることを可能にし、ユーザが現実環境におけるユーザの現在の位置又は現在の状態を理解するのを助ける。これは、ユーザが仮想環境を体験するときに、ユーザの安全性を有効に確保し、衝突による負傷を防ぐ。【選択図】図2

Description

本開示は、ヘッドマウントディスプレイシステム、関連する方法及び関連する非一時的なコンピュータ可読記憶媒体に関係があり、より具体的には、仮想シーン及び現実環境のマップを同時にピクチャ・イン・ピクチャモードで表示可能なヘッドマウントディスプレイシステム、関連する方法及び関連する非一時的なコンピュータ可読記憶媒体に関係がある。
技術の進歩及び発達とともに、コンピュータゲームとユーザとの間のインタラクションの要求は高まっている。人間とコンピュータとの間のインタラクション技術、例えば、体性感覚ゲーム、仮想現実(virtual reality;VR)環境、拡張現実(augmented reality;AR)環境、複合現実(mixed reality;MR)環境及びクロスリアリティ(extended reality;XR)環境は、その生理的及び娯楽的機能により一般的になりつつある。ヘッドマウントディスプレイ(head mounted display;HMD)のような従来の表示装置は、通常、フルスクリーンモードで仮想環境の仮想シーンのみを表示することができる。そのために、ユーザは、現実環境におけるユーザの位置又は状態を理解することができない。これは、ユーザが仮想環境を体験するときに、潜在的な安全上の問題を引き起こす可能性がある。
従って、本開示の目的は、上記の問題を解決するために、仮想シーン及び現実環境のマップを同時にピクチャ・イン・ピクチャモードで表示可能なヘッドマウントディスプレイシステム、関連する方法及び関連する非一時的なコンピュータ可読記憶媒体を提供することである。
上記の目的を達成するために、本開示は、ヘッドマウントディスプレイシステムを開示する。ヘッドマウントディスプレイシステムは、装着可能な本体、追跡ユニット、表示ユニット及び処理ユニットを含む。前記装着可能な本体は、ユーザによって身に付けられるよう構成される。前記追跡ユニットは、前記装着可能な本体の位置、当該ヘッドマウントディスプレイシステムの向き及び当該ヘッドマウントディスプレイシステムの姿勢の中の少なくとも1つを追跡し、更には、追跡結果を生成するよう構成される。前記表示ユニットは、前記装着可能な本体に取り付けられ、仮想シーン及び現実環境のマップを前記追跡ユニットの前記追跡結果に基づきピクチャ・イン・ピクチャモードで表示するよう構成される。前記処理ユニットは、前記表示ユニット及び前記追跡ユニットへ結合される。
上記の目的を達成するために、本開示は、仮想シーン及び現実環境のマップをピクチャ・イン・ピクチャモードで表示するためにヘッドマウントディスプレイシステムを使用する方法を更に開示する。方法は、前記ヘッドマウントディスプレイシステムの位置、前記ヘッドマウントディスプレイシステムの向き及び前記ヘッドマウントディスプレイシステムの姿勢の中の少なくとも1つを追跡するために、更には、追跡結果を生成するために前記ヘッドマウントディスプレイシステムの追跡ユニットを使用することと、前記仮想シーン及び前記現実環境の前記マップを前記追跡ユニットの前記追跡結果に基づき前記ピクチャ・イン・ピクチャモードで表示するために前記ヘッドマウントディスプレイシステムの表示ユニットを使用することとを含む。
上記の目的を達成するために、本開示は、ヘッドマウントディスプレイシステムにプロセスを実行させるプログラムを記憶している非一時的なコンピュータ可読記憶媒体を開示する。前記プロセスは、前記ヘッドマウントディスプレイシステムの位置、前記ヘッドマウントディスプレイシステムの向き及び前記ヘッドマウントディスプレイシステムの姿勢の中の少なくとも1つを追跡するために、更には、追跡結果を生成するために前記ヘッドマウントディスプレイシステムの追跡ユニットを使用することと、前記仮想シーン及び前記現実環境の前記マップを前記追跡ユニットの前記追跡結果に基づき前記ピクチャ・イン・ピクチャモードで表示するために前記ヘッドマウントディスプレイシステムの表示ユニットを使用することとを含む。
要約すると、本開示は、仮想シーンをフルスクリーンモードで表示するか又は仮想シーン及び現実環境のマップを同時にピクチャ・イン・ピクチャモードで同じビデオフレーム内に組み合わせて表示するために表示ユニットを利用し、更には、表示ユニットに起動コマンドに応答してフルスクリーンモードとピクチャ・イン・ピクチャモードとの間で切り替わるよう指示するために処理ユニットを利用する。従って、それは、ユーザが現実環境におけるユーザの現在の位置又は現在の状態を理解することを助けるために、種々の方法で表示ユニットをフルスクリーンモードとピクチャ・イン・ピクチャモードとの間で切り替えることをユーザに可能にする。このことは、ユーザが仮想環境を体験するときに、ユーザの安全性を有効に確保するとともに、衝突によって引き起こされる負傷を防ぐ。
本発明のそれら及び他の目的は、様々な図及び図面で説明される好適な実施形態の以下の詳細な説明を読んだ後で当業者にきっと明らかになるだろう。
本開示の第1実施形態に従うヘッドマウントディスプレイシステムの図である。 本開示の第1実施形態に従うヘッドマウントディスプレイシステムの機能ブロック図である。 本開示の第1実施形態に従ってヘッドマウントディスプレイシステムをフルスクリーンモードとピクチャ・イン・ピクチャモードとの間で切り替える方法を説明するフローチャート図である。 本開示の第1実施形態に従って仮想シーンをフルスクリーンモードで表示する表示ユニットを表す図である。 本開示の第1実施形態に従って仮想シーン及び現実環境のマップをピクチャ・イン・ピクチャモードで表示する表示ユニットを表す図である。 本開示の第2実施形態に従うヘッドマウントディスプレイシステムの図である。 本開示の第2実施形態に従うヘッドマウントディスプレイシステムの機能ブロック図である。 本開示の第2実施形態に従ってヘッドマウントディスプレイシステムをフルスクリーンモードとピクチャ・イン・ピクチャモードとの間で切り替える方法を説明するフローチャート図である。 本開示の第3実施形態に従うヘッドマウントディスプレイシステムの図である。 本開示の第3実施形態に従うヘッドマウントディスプレイシステムの機能ブロック図である。 本開示の第3実施形態に従ってヘッドマウントディスプレイシステムをフルスクリーンモードとピクチャ・イン・ピクチャモードとの間で切り替える方法を説明するフローチャート図である。 本開示の第4実施形態に従うヘッドマウントディスプレイシステムの図である。 本開示の第4実施形態に従うヘッドマウントディスプレイシステムの機能ブロック図である。 本開示の第4実施形態に従ってヘッドマウントディスプレイシステムをフルスクリーンモードとピクチャ・イン・ピクチャモードとの間で切り替える方法を説明するフローチャート図である。 本開示の第5実施形態に従うヘッドマウントディスプレイシステムの図である。 本開示の第5実施形態に従うヘッドマウントディスプレイシステムの機能ブロック図である。 本開示の第5実施形態に従ってヘッドマウントディスプレイシステムをフルスクリーンモードとピクチャ・イン・ピクチャモードとの間で切り替える方法を説明するフローチャート図である。
特定の語が、特定のコンポーネントに言及するために、明細書及び続く特許請求の範囲を通じて使用される。当業者が理解するだろうように、電子機器メーカーは、種々の名称によってあるコンポーネントに言及することがある。本書は、名称が異なるが機能は異ならないコンポーネントを区別するつもりはない。以下の記載において、及び特許請求の範囲において、語「含む」(include)及び「有する」(comprise)は、非限定的な意味で使用され、よって、「制限なしに、〜を含む」を意味すると解釈されるべきである。その上、記載を簡単にし、且つ、夫々の実施形態を比較することをより都合良くするよう、同じコンポーネントは、以下の実施形態の夫々で、同じ参照番号を付されている。図はもっぱら説明を目的とし、図は実寸通りでない点に留意されたい。また、語「結合する」(couple)は、間接的又は直接的な電気的/機械的接続のいずれかを意味するよう意図される。よって、第1デバイスが第2デバイスへ結合される場合に、その接続は直接的な電気的/機械的接続を通じても、又は他のデバイス及び接続を経る間接的な電気的/機械的接続を通じてもよい。
図1及び図2を参照されたい。図1は、本開示の第1実施形態に従うヘッドマウントディスプレイシステム1の図である。図2は、本開示の第1実施形態に従うヘッドマウントディスプレイシステム1の機能ブロック図である。図1及び図2に示されるように、ヘッドマウントディスプレイシステム1は、ユーザによって身に付けられ得る装着可能な本体11と、表示ユニット12と、処理ユニット13と、追跡ユニット14とを含む。
表示ユニット12は、装着可能な本体11に取り付けられ得る。表示ユニット12は、仮想環境の仮想シーンをフルスクリーンモードで表示するか、又は仮想環境の仮想シーン及び現実環境の現実シーンのマップをピクチャ・イン・ピクチャモードで同時に同じビデオフレーム内で組み合わせて表示するよう構成される。表示ユニット12は、フルスクリーンモードからピクチャ・イン・ピクチャモードへ切り替わること、及び/又はピクチャ・イン・ピクチャモードからフルスクリーンモードへ切り替わることができる。この実施形態では、表示ユニット12は、液晶ディスプレイ(liquid crystal display;LCD)、発光ダイオード(light-emitting diode;LED)ディスプレイ、有機発光ダイオード(organic light-emitting diode;OLED)ディスプレイ、又は何らかの他のディスプレイであることができる。なお、本開示はそれらに限られない。
処理ユニット13は、装着可能な本体11内に実装され、表示ユニット12及び追跡ユニット14へ結合され得る。処理ユニット13は、表示ユニット12及び追跡ユニット14のデータを処理するよう、且つ、起動コマンドに応答して、表示ユニット12に、フルスクリーンモードからピクチャ・イン・ピクチャモードへ切り替えるように、及び/又はピクチャ・イン・ピクチャモードからフルスクリーンモードへ切り替えるように指示するよう構成される。この実施形態では、処理ユニット13は、ソフトウェア、ファームウェア、ハードウェア構成、又はそれらの組み合わせにおいて実施され得る。例えば、処理ユニット13は、中央演算処理装置、アプリケーションプロセッサ、マイクロプロセッサなどのようなプロセッサであることができ、あるいは、特定用途向け集積回路(application specific integrated circuit;ASIC)によって実現されてもよい。なお、本開示はそれらに限られない。
追跡ユニット14は、ヘッドマウントディスプレイシステム1の位置、向き又は姿勢を追跡するよう構成される。この実施形態では、追跡ユニット14は、ヘッドマウントディスプレイシステム1の位置、向き又は姿勢を決定するよう装着可能な本体11の位置、向き及び姿勢の中の少なくとも1つを追跡するために、ジャイロスコープ、加速度計、磁気センサ又はそれらの組み合わせのような、装着可能な本体11内に実装された慣性計測装置(inertial measurement unit;IMU)141を含むことができる。なお、本開示は、この実施形態に限られない。慣性計測装置は、装着可能な本体以外の他のコンポーネントに実装され得る。例えば、他の実施形態では、追跡ユニット14は、手センサ、下半身センサ又は外部カメラモジュールを更に含むことができ、慣性計測装置は、ヘッドマウントディスプレイシステム1の位置、向き又は姿勢を決定するよう手センサ、下半身センサ又は外部カメラモジュールの位置、向き又は姿勢を追跡するために、手センサ、下半身センサ又は外部カメラモジュールに実装され得る。
追跡ユニット14は、現実環境の捕捉された画像と、装着可能な本体11の位置、向き及び姿勢の中の少なくとも1つとに従って追跡結果を生成するために、現実環境の画像を捕捉するカメラモジュール142を更に含むことできる。それにより、現実環境のマップが、同時の位置決め及びマッピング(Simultaneous Localization and Mapping;SLAM)技術によって追跡ユニット14の追跡ユニットに基づき構築され得る。
しかし、本開示はそれに限られない。例えば、他の実施形態では、慣性計測装置は省略可能であり、ヘッドマウントディスプレイシステムの位置、向き及び姿勢は、追跡ユニットのカメラモジュールによって捕捉された画像によって決定され得る。代替的に、他の実施形態では、追跡ユニットのカメラモジュールは省略可能であり、現実環境のマップは、現実環境の画像を捕捉せずに、所定のマップ情報及び追跡ユニットの追跡結果に基づき構築され得る。
更に、この実施形態では、追跡ユニット14は、現実環境のマップを構築するためだけでなく、起動コマンドの生成を決定するためにも、データを収集するよう構成される。例えば、起動コマンドは、追跡ユニット14の追跡結果が所定の条件を満たすときに生成され得る。なお、起動コマンドの生成の決定は、この実施形態に限られない。後述される他の実施形態では、追跡ユニット14から収集されたデータは、起動コマンドの生成を決定するために使用されなくてもよい。
その上、この実施形態では、起動コマンドの生成の決定及び起動コマンドの生成は、追跡ユニット14によって実行され得る。なお、本開示はこれに限られない。他の実施形態では、追跡ユニットは、収集されたデータ又は追跡結果を、装着可能な本体に配置された処理ユニットへ送ることができ、起動コマンドの生成の決定及び起動コマンドの生成は、装着可能な本体に配置された処理ユニットによって実行され得る。
この実施形態では、表示ユニット12、処理ユニット13及び追跡ユニット14は、装着可能な本体11に配置されている。しかし、本開示は、この実施形態に限られない。例えば、他の実施形態では、ヘッドマウントディスプレイシステムは、装着可能な本体から離れて独立して配置された遠隔コンピュータ装置と、遠隔コンピュータ装置への通信チャネルを構成するために装着可能な本体に配置された通信モジュールとを更に含むことができる。遠隔コンピュータ装置は、エッジコンピュータデバイス、クラウドコンピュータデバイス、ローカルホストコンピュータ、遠隔サーバ、スマートフォン、などであることができる。通信モジュールは、装着可能な本体における要素と遠隔コンピュータ装置における要素との間に有線接続又は無線接続を確立することができる。この実施形態では、処理ユニット及び追跡ユニットのうちの少なくとも一方は、装着可能な本体以外に遠隔コンピュータ装置に少なくとも部分的に配置又は構成され得、且つ/あるいは、タスクの一部を遠隔コンピュータ装置へ分配する。それにより、遠隔コンピュータ装置は、装着可能な本体のサイズ及び装着可能な本体に配置された処理ユニットの計算を減らして、装着可能な本体を軽量且つ持ち運び可能にするために、通信モジュールを介して、追跡ユニットの追跡結果に基づき現実環境のマップを構築するために追跡ユニットの追跡結果を受けること、又は起動コマンド、現実環境の画像及び現実環境のマップの中の少なくとも1つを送信することができる。
図3乃至図5を参照されたい。図3は、本開示の第1実施形態に従ってヘッドマウントディスプレイシステム1をフルスクリーンモードとピクチャ・イン・ピクチャモードとの間で切り替える方法を説明するフローチャート図である。図4は、本開示の第1実施形態に従って仮想シーンをフルスクリーンモードで表示する表示ユニット12を表す図である。図5は、本開示の第1実施形態に従って仮想シーン及び現実環境のマップをピクチャ・イン・ピクチャモードで表示する表示ユニット12を表す図である。図3に示されるように、方法は、次のステップを含む。
S1:表示ユニット12は、仮想環境の仮想シーンをフルスクリーンモードで表示する。
S2:追跡ユニット14は、追跡結果を生成するために、ヘッドマウントディスプレイシステム1の位置、向き及び姿勢の中の少なくとも1つを追跡し且つ現実環境の画像を捕捉する。
S3:現実環境のマップが、追跡ユニット14の追跡結果に基づき構築される。
S4:追跡ユニット14の追跡結果が所定の条件を満たすときに、起動コマンドが生成される。
S5:処理ユニット13は、起動コマンドに応答して、表示ユニット12に、フルスクリーンモードからピクチャ・イン・ピクチャモードへ切り替えるよう指示する。
ステップの詳細な説明は、次のように与えられる。ステップS1で、ユーザが装着可能な本体11を身に付けているとき、表示ユニット12は、図4に示されるように、最初に、ユーザのためにフルスクリーンモードで仮想環境の仮想シーンを表示することができる。ステップS2からS4において、ユーザが仮想環境を体験しているとき、一方で、追跡ユニット14は、現実環境における装着可能な本体11の位置、向き及び姿勢の中の少なくとも1つを追跡することによって、ヘッドマウントディスプレイシステム1の位置、向き及び姿勢の中の少なくとも1つを追跡し、ヘッドマウントディスプレイシステムの位置、向き及び姿勢の中の少なくとも1つと、現実環境の捕捉された画像とに従って追跡結果を生成するために現実環境の画像を捕捉することができる。それにより、現実環境のマップが、追跡ユニットの追跡結果に基づき構築され得る。更に、追跡ユニット14の追跡結果が所定の条件を満たすときに起動コマンドが生成される。所定の条件は、ヘッドマウントディスプレイシステム1と現実環境との間の関係に従って決定され得る。
例えば、所定の条件は、ユーザによって装着されている装着可能な本体11と、現実環境における、図4及び図5に示されているテレビ受像機2、又は壁のような実在の事物との間の距離が所定の距離以下であることを参照することができる。所定の条件は、望ましくは50センチメートルであることができる。すなわち、装着可能な本体11と現実環境における実在の事物との間の距離がユーザの動作中に50センチメートル以下であるとき、起動コマンドは生成され、ユーザが衝突を回避するための警告メッセージを供給することができる。
しかし、所定の条件はそれに限られない。他の実施形態では、所定の条件は、所定の向き又は所定の姿勢を参照することができ、起動コマンドは、追跡ユニットによって追跡されるヘッドマウントディスプレイシステムの向き又は姿勢が所定の向き又は所定の姿勢を満たすときに生成され得る。
代替的に、後述される他の実施形態では、追跡ユニットは、ユーザの手のジェスチャ、ユーザの手の動き又はユーザの下半身の動きを決定するために、カメラモジュール、ユーザに手に装着される手センサ、ユーザの下半身に装着される下半身センサ、又はそれらの組み合わせを含むことができ、所定の条件は、所定の手のジェスチャ、所定の手の動き、所定の下半身の動き、又はそれらの組み合わせであることができ、起動コマンドは、追跡ユニットによって追跡されるユーザの手のジェスチャ、手の動き、又は下半身の動きが所定の手のジェスチャ、所定の手の動き、又は所定の下半身の動きを満たすときに生成され得る。
その後、ステップS5で、処理ユニット13は、ユーザが仮想シーン及び現実環境のマップを同時に同じビデオフレーム内で組み合わせて見ることを可能にし且つユーザが現実環境におけるユーザの現在の位置又は現在の状態を理解するのを助けるために、起動コマンドに応答して、表示ユニット12に、図4に示されるフルスクリーンモードから、図5に示されるピクチャ・イン・ピクチャモードへ切り替えるよう指示することができる。このことは、ユーザが仮想環境を体験しているときに、ユーザの安全性を有効に確保するとともに、衝突によって引き起こされる負傷を防ぐ。
その上、マップのウィンドウ21のサイズ、マップのウィンドウ21の位置、マップのスケール、マップの方位又はマップのビューは、追跡ユニット14の追跡結果が所定の条件を満たすときに調整され得る。例えば、ユーザは、特定の手のジェスチャ及び/又は特定の手の動きによって、ウィンドウ21のサイズ、ウィンドウ21の位置、マップのスケール、マップの方位、又はマップのビューを調整することができる。他の例として、ウィンドウ21のサイズ、ウィンドウ21の位置、マップのスケール、マップの方位、又はマップのビューは、より良いユーザ経験を提供するために、追跡ユニット14の追跡結果(例えば、アイトラッキング結果)に基づき自動調整され得る。
当然のことだが、装着可能な本体11と実在の事物との間の距離が再び広がり、50センチメートルといった所定の距離よりも大きくなる場合には、表示ユニットは、没入体験を強めるためにピクチャ・イン・ピクチャモードからフルスクリーンモードへ切り替えられ得る。
図6乃至図8を参照されたい。図6は、本開示の第2実施形態に従うヘッドマウントディスプレイシステム1’の図である。図7は、本開示の第2実施形態に従うヘッドマウントディスプレイシステム1’の機能ブロック図である。図8は、本開示の第2実施形態に従ってヘッドマウントディスプレイシステム1’をフルスクリーンモードとピクチャ・イン・ピクチャモードとの間で切り替える方法を説明するフローチャート図である。図6乃至図8に示されるように、第1実施形態のヘッドマウントディスプレイシステム1とは異なり、この実施形態のヘッドマウントディスプレイシステム1’は、装着可能な本体11’、表示ユニット12’、処理ユニット13’、追跡ユニット14’及びスイッチユニット15’を含む。追跡ユニット14’及び表示ユニット12’は、装着可能な本体11’に配置される。処理ユニット13’は、装着可能な本体11’に配置され、表示ユニット12’及び追跡ユニット14’へ結合され得る。スイッチユニット15’は、装着可能な本体11’に配置され、スイッチユニット15’の状態が変化するときに起動コマンドを生成する処理ユニット13’へ結合される。すなわち、この実施形態では、ユーザは、実際の要求に従ってスイッチユニット15’の状態を変化させることによって、表示ユニット12’をフルスクリーンモードからピクチャ・イン・ピクチャモードへ切り替えることができる。更に、当然のことながら、ユーザは、スイッチユニット15’の状態を再び変化させることによって、表示ユニット12’をピクチャ・イン・ピクチャモードからフルスクリーンモードへ切り替えることができる。その上、この実施形態では、スイッチユニット15’は、装着可能な本体11’上の物理的なボタンであることができ、スイッチユニット15’の状態は、物理的なボタンを押下又はクリックすることによって変更可能である。しかしながら、本開示はそれに限られない。他の実施形態では、スイッチユニットはまた、装着可能な本体上の仮想ボタンであるか、あるいは、表示ユニットによって表示され、タッチ操作によってアクティブ又は非アクティブにされ得る。
図9乃至図11を参照されたい。図9は、本開示の第3実施形態に従うヘッドマウントディスプレイシステム1”の図である。図10は、本開示の第3実施形態に従うヘッドマウントディスプレイシステム1”の機能ブロック図である。図11は、本開示の第3実施形態に従ってヘッドマウントディスプレイシステム1”をフルスクリーンモードとピクチャ・イン・ピクチャモードとの間で切り替える方法を説明するフローチャート図である。図9乃至図11に示されるように、上記のヘッドマウントディスプレイシステム1、1’とは異なり、この実施形態のヘッドマウントディスプレイシステム1”は、装着可能な本体11”、表示ユニット12”、処理ユニット13”と、追跡ユニット14”、リモートコントローラ16”、通信モジュール17”、遠隔コンピュータ装置18”を含む。表示ユニット12”及び追跡ユニット14”は、装着可能な本体11”に取り付けられる。処理ユニット13”は、遠隔コンピュータ装置18”において構成され得る。通信モジュール17”は、遠隔コンピュータ装置18”にある処理ユニット13”と、装着可能な本体11”に配置されている表示ユニット12”と、リモートコントローラ16”との間の通信チャネルを構成する。すなわち、処理ユニット13”は、追跡ユニット14”の追跡結果を受け、表示ユニット12”にフルスクリーンモードとピクチャ・イン・ピクチャモードとの間で切り替わるよう指示するために、通信モジュール17”によって追跡ユニット14”及び表示ユニット12”へ結合され、リモートコントローラ16”は、リモートコントローラ16”が操作されるときに起動コマンドを生成し、通信モジュール17”を介して処理ユニット13”へ遠隔で送信するために、通信モジュール17”によって処理ユニット13”へ結合される。すなわち、この実施形態では、ユーザは、実際の要求に従ってリモートコントローラ16”を操作することによって、表示ユニット12”をフルスクリーンモードからピクチャ・イン・ピクチャモードへ切り替えることができる。更に、当然のことながら、ユーザは、リモートコントローラ16”を再び操作することによって、表示ユニット12”をピクチャ・イン・ピクチャモードからフルスクリーンモードへ切り替えることができる。
図12乃至図14を参照されたい。図12は、本開示の第4実施形態に従うヘッドマウントディスプレイシステム1’’’の図である。図13は、本開示の第4実施形態に従うヘッドマウントディスプレイシステム1’’’の機能ブロック図である。図14は、本開示の第4実施形態に従ってヘッドマウントディスプレイシステム1’’’をフルスクリーンモードとピクチャ・イン・ピクチャモードとの間で切り替える方法を説明するフローチャート図である。図12乃至図14に示されるように、上記のヘッドマウントディスプレイシステム1、1’、1”とは異なり、この実施形態のヘッドマウントディスプレイシステム1’’’は、装着可能な本体11’’’、表示ユニット12’’’、処理ユニット13’’’及び追跡ユニット14’’’を含む。表示ユニット12’’’及び処理ユニット13’’’は、装着可能な本体11’’’に配置される。処理ユニット13’’’は、表示ユニット12’’’へ結合される。追跡ユニット14’’’は、ヘッドマウントディスプレイシステム1’’’の位置、ヘッドマウントディスプレイシステム1’’’の向き、ヘッドマウントディスプレイシステム1’’’の姿勢、ユーザの手のジェスチャ、ユーザの手の動き、及びユーザの下半身の動きのうちの少なくとも1つを追跡するために、装着可能な本体11’’’内に実装され、処理ユニット13’’’へ結合された慣性計測装置141’’’と、装着可能な本体11’’’に配置され、処理ユニット13’’’へ結合されたカメラモジュール142’’’と、ユーザの手に装着され、処理ユニット13’’’へ結合された手センサ143’’’と、ユーザの下半身に装着され、処理ユニット13’’’へ結合された下半身センサ144’’’とを含む。この実施形態で、所定の条件は、所定の手のジェスチャ、所定の手の動き、所定の下半身の動き、又はそれらの組み合わせを参照することができる。例えば、起動コマンドは、追跡ユニットによって追跡されているユーザの手のジェスチャ、手の動き又は下半身の動きが所定の手のジェスチャ、所定の手の動き又は所定の下半身の動きを満たすときに生成され得る。しかしながら、本開示はそれに限られない。他の実施形態では、追跡ユニットは、慣性計測装置、カメラモジュール、手センサ及び下半身センサの中の少なくとも1つしか含まなくてもよい。
図15乃至図17を参照されたい。図15は、本開示の第5実施形態に従うヘッドマウントディスプレイシステム1””の図である。図16は、本開示の第5実施形態に従うヘッドマウントディスプレイシステム1””の機能ブロック図である。図17は、本開示の第5実施形態に従ってヘッドマウントディスプレイシステム1””をフルスクリーンモードとピクチャ・イン・ピクチャモードとの間で切り替える方法を説明するフローチャート図である。図15乃至図17に示されるように、この実施形態のヘッドマウントディスプレイシステム1””は、装着可能な本体11””、表示ユニット12””、処理ユニット13””及び追跡ユニット14””を含む。表示ユニット12””及び処理ユニット13””は、装着可能な本体11””に配置される。処理ユニット13””は、表示ユニット12””へ結合される。追跡ユニット14””は、ユーザの手のジェスチャ、ユーザの手の動き、ユーザの下半身の動き、ヘッドマウントディスプレイシステム1””の位置、ヘッドマウントディスプレイシステム1””の向き、及びヘッドマウントディスプレイシステム1””の姿勢の中の少なくとも1つを追跡するために、処理ユニット13””へ結合された慣性計測装置141””と、装着可能な本体11””に取り付けられ、処理ユニット13””へ結合されたカメラモジュール142””と、処理ユニット13へ結合され、ユーザの手に装着された手センサ143””と、処理ユニット13””へ結合され、ユーザの下半身に装着された下半身センサ144””とを含む。起動コマンドは、追跡ユニット14””の追跡結果が複数の所定の条件を満たすときに生成され得る。複数の所定の条件は、例えば、第1所定条件及び第2所定条件を含むことができる。第1所定条件は、所定の距離、ヘッドマウントディスプレイシステム1””の所定の位置、ヘッドマウントディスプレイシステム1””の所定の向き、又はヘッドマウントディスプレイシステム1””の所定の姿勢を参照することができ、第2所定条件は、所定の手のジェスチャ、所定の手の動き、及び所定の下半身の動きを参照することができる。
この実施形態では、慣性計測装置141””は、追跡ユニット14””がヘッドマウントディスプレイシステム1””の位置、向き又は姿勢を決定するよう装着可能な本体11””の位置、向き又は姿勢を追跡することができるように、装着可能な本体11””に取り付けられ得る。
更に、起動コマンドの生成の決定は、多段階動作、例えば、二段階動作であることができる。例えば、装着可能な本体11””と実在の事物との間の距離が所定の距離に満たないと追跡ユニット14””が決定するときに、追跡ユニット14””は更に、ユーザの手のジェスチャが所定の手のジェスチャと一致するかどうかを判定する。ユーザの手のジェスチャが所定の手のジェスチャと一致すると追跡ユニット14””が決定するときに、起動コマンドが生成される。しかし、本開示はこの実施形態に制限されない。他の実施形態では、起動コマンドの生成の決定は、一段階動作であることができ、すなわち、起動コマンドは、追跡ユニットの第1追跡結果及び第2追跡結果が夫々第1所定条件及び第2所定条件を同時に満たすときに生成され得る。
更に、本開示の上記の実施形態は、ソフトウェア、ファームウェア、ハードウェア構成、又はそれらの組み合わせにおいて実施可能であり、ヘッドマウントディスプレイシステムに本開示の上記の方法に従ってプロセッサによって処理を実行させるプログラムを記憶する非一時的なコンピュータ可読記憶媒体を提供することも可能である。プロセッサは、中央演算処理装置、アプリケーションプロセッサ、マイクロプロセッサなどであることができ、あるいは、特定用途向け集積回路(ASIC)によって実現され得る。コンピュータ可読記憶媒体は、リードオンリーメモリ(ROM)、ランダムアクセスメモリ(RAM)、CD−ROM、磁気テープ、フロッピー(登録商標)ディスク、又は光学式データ記憶デバイスであることができる。しかしながら、本開示はそれらに限られない。
先行技術と対照的に、本開示は、仮想シーンをフルスクリーンモードで表示するか、又は仮想シーン及び現実環境のマップをピクチャ・イン・ピクチャモードで同時に同じビデオフレーム内で組み合わせて表示するために表示ユニットを利用し、更には、起動コマンドに応答して、表示ユニットにフルスクリーンモードとピクチャ・イン・ピクチャモードとの間で切り替わるよう指示するために処理ユニットを利用する。従って、それは、ユーザが現実環境におけるユーザの現在の位置又は現在の状態を理解することを助けるために、様々な方法でユーザが表示ユニットをフルスクリーンモードとピクチャ・イン・ピクチャモードとの間で切り替えることを可能にする。これにより、ユーザが仮想環境を体験しているときに、ユーザの安全性が有効に確保されるとともに、衝突によって引き起こされる負傷が防止される。
当業者は、デバイス及び方法の多数の改良及び変更が本発明の教示を保ちながら行われ得ると容易に気付くだろう。然るに、上記の開示は、添付の特許請求の範囲の境界によってしか制限されないと理解されるべきである。
1,1’,1”,1’’’,1”” ヘッドマウントディスプレイシステム
11,11’,11”,11’’’,11”” 装着可能な本体
12,12’,12”,12’’’,12”” 表示ユニット
13,13’,13”,13’’’,13”” 処理ユニット
14,14’,14”,14’’’,14”” 追跡ユニット
141,141’’’,141”” 慣性計測装置
142,142’’’,142”” カメラモジュール
143’’’,143”” 手センサ
144’’’,144”” 下半身センサ
15’ スイッチユニット
16” リモートコントローラ
17” 通信モジュール
18” 遠隔コンピュータ装置

Claims (10)

  1. ヘッドマウントディスプレイシステムであって、
    ユーザによって身に付けられるよう構成される装着可能な本体と、
    当該ヘッドマウントディスプレイシステムの位置、当該ヘッドマウントディスプレイシステムの向き、及び当該ヘッドマウントディスプレイシステムの姿勢、の中の少なくとも1つを追跡するよう、更に、追跡結果を生成するよう構成される追跡ユニットと、
    前記本体に取り付けられ、仮想シーン及び現実環境のマップを前記追跡ユニットの前記追跡結果に基づきピクチャ・イン・ピクチャモードで表示するよう構成される表示ユニットと、
    前記追跡ユニット及び前記表示ユニットへ結合される処理ユニットと
    を有するヘッドマウントディスプレイシステム。
  2. 前記表示ユニットは更に、前記仮想シーンをフルスクリーンモードで表示するよう構成され、
    前記処理ユニットは、起動コマンドに応答して、前記表示ユニットに前記フルスクリーンモードと前記ピクチャ・イン・ピクチャモードとの間で切り替わるように指示するよう構成される、
    請求項1に記載のヘッドマウントディスプレイシステム。
  3. 前記処理ユニットへ結合されるスイッチユニットであり、該スイッチユニットの状態が変化するときに前記起動コマンドを生成する前記スイッチユニット、及び/又は
    前記処理ユニットと通信するリモートコントローラであり、該リモートコントローラが操作されるときに前記起動コマンドを生成する前記リモートコントローラを更に有する
    請求項2に記載のヘッドマウントディスプレイシステム。
  4. 前記追跡ユニットは、前記ユーザの手のジェスチャ、前記ユーザの手の動き、及び前記ユーザの下半身の動き、の中の少なくとも1つを追跡するよう更に構成され、
    前記起動コマンドは、前記追跡ユニットの前記追跡結果が少なくとも1つの所定の条件を満たすときに生成される、
    請求項2に記載のヘッドマウントディスプレイシステム。
  5. 前記追跡ユニットは、前記ユーザの手のジェスチャ、前記ユーザの手の動き、及び前記ユーザの下半身の動き、の中の少なくとも1つを追跡するよう更に構成され、
    前記マップのウィンドウのサイズ、前記マップの前記ウィンドウの位置、前記マップのスケール、前記マップの方位及び前記マップのビューの中の少なくとも1つは、前記追跡ユニットの前記追跡結果が所定の条件を満たすときに調整される、
    請求項1に記載のヘッドマウントディスプレイシステム。
  6. 仮想シーン及び現実環境のマップをピクチャ・イン・ピクチャモードで表示するためにヘッドマウントディスプレイシステムを使用する方法であって、
    前記ヘッドマウントディスプレイシステムの位置、前記ヘッドマウントディスプレイシステムの向き、及び前記ヘッドマウントディスプレイシステムの姿勢、の中の少なくとも1つを追跡するために、更に、追跡結果を生成するために前記ヘッドマウントディスプレイシステムの追跡ユニットを使用することと、
    前記仮想シーン及び前記現実環境の前記マップを前記追跡ユニットの前記追跡結果に基づき前記ピクチャ・イン・ピクチャモードで表示するために前記ヘッドマウントディスプレイシステムの表示ユニットを使用することと
    を有する方法。
  7. 前記仮想シーンをフルスクリーンモードで表示するために前記表示ユニットを使用することと、
    起動コマンドに応答して、前記表示ユニットに、前記フルスクリーンモードと前記ピクチャ・イン・ピクチャモードとの間で切り替わるよう指示するために、前記ヘッドマウントディスプレイシステムの処理ユニットを使用することと
    を更に有する
    請求項6に記載の方法。
  8. スイッチユニットの状態が変化するときに前記起動コマンドを生成するよう前記ヘッドマウントディスプレイシステムの前記スイッチユニットを使用すること、及び/又は
    リモートコントローラが操作されるときに前記起動コマンドを生成するよう前記ヘッドマウントディスプレイシステムの前記リモートコントローラを使用すること
    を更に有する
    請求項7に記載の方法。
  9. ユーザの手のジェスチャ、前記ユーザの手の動き、及び前記ユーザの下半身の動き、の中の少なくとも1つを追跡するために前記追跡ユニットを使用することと、
    前記追跡ユニットの前記追跡結果が少なくとも1つの所定の条件を満たすときに前記起動コマンドを生成することと
    を更に有する
    請求項7に記載の方法。
  10. ユーザの手のジェスチャ、前記ユーザの手の動き、及び前記ユーザの下半身の動き、の中の少なくとも1つを追跡するために前記追跡ユニットを使用することと、
    前記追跡ユニットの前記追跡結果が所定の条件を満たすときに、前記マップのウィンドウのサイズ、前記マップの前記ウィンドウの位置、前記マップのスケール、前記マップの方位及び前記マップのビュー、の中の少なくとも1つを調整することと
    を更に有する
    請求項6に記載の方法。
JP2019089500A 2019-04-15 2019-05-10 仮想シーン及び現実環境のマップをピクチャ・イン・ピクチャモードで表示可能なヘッドマウントディスプレイシステム、関連する方法及び関連する非一時的なコンピュータ可読記憶媒体 Pending JP2020177608A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/384,881 2019-04-15
US16/384,881 US20200327867A1 (en) 2019-04-15 2019-04-15 Head mounted display system capable of displaying a virtual scene and a map of a real environment in a picture-in-picture mode, related method and related non-transitory computer readable storage medium

Publications (1)

Publication Number Publication Date
JP2020177608A true JP2020177608A (ja) 2020-10-29

Family

ID=72748102

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019089500A Pending JP2020177608A (ja) 2019-04-15 2019-05-10 仮想シーン及び現実環境のマップをピクチャ・イン・ピクチャモードで表示可能なヘッドマウントディスプレイシステム、関連する方法及び関連する非一時的なコンピュータ可読記憶媒体

Country Status (4)

Country Link
US (1) US20200327867A1 (ja)
JP (1) JP2020177608A (ja)
CN (1) CN111831106A (ja)
TW (1) TWI707575B (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11874969B2 (en) 2021-09-15 2024-01-16 Htc Corporation Method for determining two-handed gesture, host, and computer readable medium
CN114666647B (zh) * 2022-03-25 2023-07-07 深圳市康冠商用科技有限公司 不同信源之间实现画中画的方法、装置及相关组件

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016189120A (ja) * 2015-03-30 2016-11-04 ソニー株式会社 情報処理装置、情報処理システム、及び頭部装着ディスプレイ
JP2016541035A (ja) * 2013-09-30 2016-12-28 株式会社ソニー・インタラクティブエンタテインメント ヘッドマウントディスプレイのユーザー向けカメラベース安全機構
JP2017119032A (ja) * 2015-12-29 2017-07-06 株式会社バンダイナムコエンターテインメント ゲーム装置及びプログラム
US20180093186A1 (en) * 2016-09-30 2018-04-05 Sony Interactive Entertainment Inc. Methods for Providing Interactive Content in a Virtual Reality Scene to Guide an HMD User to Safety Within a Real World Space

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8912979B1 (en) * 2011-07-14 2014-12-16 Google Inc. Virtual window in head-mounted display
KR20150101612A (ko) * 2014-02-27 2015-09-04 엘지전자 주식회사 폐쇄형 시야(Closed-view)를 제공하는 헤드 마운티드 디스플레이 및 그 제어 방법
CN104216520B (zh) * 2014-09-09 2018-07-06 联想(北京)有限公司 一种信息处理方法及电子设备
US9898864B2 (en) * 2015-05-28 2018-02-20 Microsoft Technology Licensing, Llc Shared tactile interaction and user safety in shared space multi-person immersive virtual reality
CN106484085B (zh) * 2015-08-31 2019-07-23 北京三星通信技术研究有限公司 在头戴式显示器中显示真实物体的方法及其头戴式显示器
US10691220B2 (en) * 2017-02-14 2020-06-23 Samsung Electronics Co., Ltd. Method for display of information from real world environment on a virtual reality (VR) device and VR device thereof

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016541035A (ja) * 2013-09-30 2016-12-28 株式会社ソニー・インタラクティブエンタテインメント ヘッドマウントディスプレイのユーザー向けカメラベース安全機構
JP2016189120A (ja) * 2015-03-30 2016-11-04 ソニー株式会社 情報処理装置、情報処理システム、及び頭部装着ディスプレイ
JP2017119032A (ja) * 2015-12-29 2017-07-06 株式会社バンダイナムコエンターテインメント ゲーム装置及びプログラム
US20180093186A1 (en) * 2016-09-30 2018-04-05 Sony Interactive Entertainment Inc. Methods for Providing Interactive Content in a Virtual Reality Scene to Guide an HMD User to Safety Within a Real World Space

Also Published As

Publication number Publication date
CN111831106A (zh) 2020-10-27
TW202041000A (zh) 2020-11-01
TWI707575B (zh) 2020-10-11
US20200327867A1 (en) 2020-10-15

Similar Documents

Publication Publication Date Title
EP3673345B1 (en) System and method for distributed device tracking
WO2018034319A1 (ja) 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム
US10978019B2 (en) Head mounted display system switchable between a first-person perspective mode and a third-person perspective mode, related method and related non-transitory computer readable storage medium
US11202008B2 (en) Head mounted display having a plurality of display modes
KR102449439B1 (ko) Hmd를 이용한 무인기 조종 장치
JP6751205B2 (ja) ディスプレイ装置及びその制御方法
EP3349095B1 (en) Method, device, and terminal for displaying panoramic visual content
US10521013B2 (en) High-speed staggered binocular eye tracking systems
EP3528024B1 (en) Information processing device, information processing method, and program
US11151804B2 (en) Information processing device, information processing method, and program
KR20200096901A (ko) 가상 현실 (vr) 디바이스에 의해 디스플레이되는 가상 컨텐트를 네비게이트하는 방법 및 장치
JP2020177608A (ja) 仮想シーン及び現実環境のマップをピクチャ・イン・ピクチャモードで表示可能なヘッドマウントディスプレイシステム、関連する方法及び関連する非一時的なコンピュータ可読記憶媒体
US11477433B2 (en) Information processor, information processing method, and program
JP6820376B2 (ja) 仮想シーン及び現実シーンをピクチャ・イン・ピクチャモードで表示可能なヘッドマウントディスプレイシステム、関連する方法及び関連する非一時的なコンピュータ可読記憶媒体
US11474595B2 (en) Display device and display device control method
WO2021014673A1 (ja) 映像表示制御装置、方法およびプログラム
EP3734415A1 (en) Head mounted display system switchable between a first-person perspective mode and a third-person perspective mode, related method and related non-transitory computer readable storage medium
EP3734418A1 (en) Head mounted display system capable of displaying a virtual scene and a map of a real environment in a picture-in-picture mode, related method and related non-transitory computer readable storage medium
EP3734417A1 (en) Head mounted display system capable of displaying a virtual scene and a real scene in a picture-in-picture mode, related method and related non-transitory computer readable storage medium
JP2019201307A (ja) 電子機器、電子機器の制御方法、プログラム、及び、記憶媒体
WO2024064231A1 (en) Devices, methods, and graphical user interfaces for interacting with three-dimensional environments

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190510

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200804

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201013

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201110

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210629