WO2017022769A1 - ヘッドマウントディスプレイ、表示制御方法及びプログラム - Google Patents

ヘッドマウントディスプレイ、表示制御方法及びプログラム Download PDF

Info

Publication number
WO2017022769A1
WO2017022769A1 PCT/JP2016/072678 JP2016072678W WO2017022769A1 WO 2017022769 A1 WO2017022769 A1 WO 2017022769A1 JP 2016072678 W JP2016072678 W JP 2016072678W WO 2017022769 A1 WO2017022769 A1 WO 2017022769A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
display
unit
hmd
camera
Prior art date
Application number
PCT/JP2016/072678
Other languages
English (en)
French (fr)
Inventor
勇一郎 中村
泰史 奥村
Original Assignee
株式会社ソニー・インタラクティブエンタテインメント
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ソニー・インタラクティブエンタテインメント filed Critical 株式会社ソニー・インタラクティブエンタテインメント
Priority to EP16833048.8A priority Critical patent/EP3333616A4/en
Priority to US15/744,341 priority patent/US10685211B2/en
Publication of WO2017022769A1 publication Critical patent/WO2017022769A1/ja
Priority to US16/855,815 priority patent/US11417126B2/en
Priority to US17/858,244 priority patent/US11763578B2/en
Priority to US18/467,741 priority patent/US20240005680A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/285Analysis of motion using a sequence of stereo image pairs
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0127Head-up displays characterised by optical features comprising devices increasing the depth of field
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0149Head-up displays characterised by mechanical features
    • G02B2027/0167Emergency system, e.g. to prevent injuries

Definitions

  • the present invention relates to a head mounted display, a display control method, and a program.
  • the display 18 is, for example, a liquid crystal display or the like, and displays a video or the like represented by a video signal output from the entertainment apparatus 14.
  • FIG. 4 is a view showing an example of a photographed image 56 which is a frame image for the left eye or a frame image for the right eye constituting an image photographed by the camera unit 42.
  • the captured image 56 includes an image of an object disposed in front of the user wearing the HMD 12, such as the entertainment device 14 and the display 18 shown in FIG.
  • the situation in front of the display unit 36 is displayed on the display unit 36. Therefore, the user approaches the object in the vicinity It becomes easy to grasp
  • FIG. 5 is a functional block diagram showing an example of functions implemented by the HMD 12 according to the present embodiment.
  • all the functions shown in FIG. 5 do not have to be mounted, and functions other than the functions shown in FIG. 5 may be mounted.
  • the threshold (first threshold) of the object shortest distance at which the HMD 12 is changed from the non-forced state to the forced state is an object where the HMD 12 is changed from the forced state to the non-forced state It is shorter than the shortest distance threshold (second threshold). Therefore, according to the present processing example, it is possible to prevent the occurrence of a situation where the state in which the captured image 56 is displayed and the state in which the play image 50 is displayed are alternately switched in a short period of time.
  • the detection unit 64 may be able to detect that an object is within the movable range of the user's limbs. Then, the HMD 12 may be changed from the non-forced state to the forced state in response to the detection of the presence of the object within the movable range of the user's limbs.
  • the HMD 12 may be changed from the non-forced state to the forced state.
  • the HMD 12 may be changed from the non-forced state to the forced state. In this way, the user can easily pick up the controller 22 by looking at the location where the controller 22 is located.
  • the display control unit 66 controls the entertainment device 14 to resume the game being played and play back the content such as a movie being played. You may For example, at the time of the process shown in S107 described above, the display control unit 66 may control the entertainment apparatus 14 to resume the game being played or to play back the content such as the movie being played.

Abstract

周辺の物体との接近をユーザが把握しやすくなるヘッドマウントディスプレイ、表示制御方法及びプログラムを提供する。HMD(12)を装着するユーザの眼前には表示部(36)が配置されている。HMD(12)は、ユーザと当該ユーザの周辺の物体との接近に応じて、表示部(36)を制御することで表示部(36)よりも前方をユーザに視認させる。

Description

ヘッドマウントディスプレイ、表示制御方法及びプログラム
 本発明は、ヘッドマウントディスプレイ、表示制御方法及びプログラムに関する。
 例えば特許文献1~3に記載されているような、ユーザが頭部に装着して映像を観賞等するためのヘッドマウントディスプレイ(HMD)が知られている。
 このようなHMDのなかには、ユーザの眼前に配置された表示部の前方をユーザが視認できるか否かを制御できるものがある。例えばカメラが搭載されたビデオシースルー型のHMDのなかには、表示部の前方を撮影した映像を表示させることでユーザが表示部の前方を視認できるものがある。また例えば表示部が光透過性を有する光学シースルー型のHMDでは、表示されている映像を消すことで、ユーザは表示部の前方を視認できることとなる。一方、例えばゲームのプレイ状況を表す映像や映画の映像などといったコンテンツの映像などが表示されている場合においてはユーザが表示部の前方を視認できないことがある。
特開2004-205711号公報 特開2012-2889号公報 特開2013-210588号公報
 そして従来のHMDでは、ユーザは、表示部の前方をユーザが視認できる状況と視認できない状況とを、例えばスイッチを操作するなどして手作業で切り替える必要があった。
 そのためHMDを装着しているユーザは、表示部の前方を視認できない状況である際には、ユーザと周辺の物体とが接近してもそのことを把握しにくいという実情があった。
 本発明は上記実情に鑑みてなされたものであって、その目的の一つは、周辺の物体との接近をユーザが把握しやすくなるヘッドマウントディスプレイ、表示制御方法及びプログラムを提供することにある。
 上記課題を解決するために、本発明に係るヘッドマウントディスプレイは、ユーザが装着するヘッドマウントディスプレイであって、前記ユーザの眼前に配置された表示部と、前記ユーザと当該ユーザの周辺の物体との接近に応じて、前記表示部を制御することで前記表示部の前方を前記ユーザに視認させる制御部と、を含む。
 本発明の一態様では、前記表示部の前方を撮影するカメラ、をさらに含み、前記制御部は、前記ユーザと当該ユーザの周辺の物体との接近に応じて、前記カメラが撮影した映像が前記表示部に表示されるよう制御する。
 この態様では、前記カメラはステレオカメラであり、前記ステレオカメラが撮影する画像に基づいて、前記ユーザと前記物体との接近を検出する検出部、をさらに含み、前記制御部は、前記検出部により検出される接近に応じて、前記カメラが撮影した映像が前記表示部に表示されるよう制御してもよい。
 この態様では、前記検出部は、前記ステレオカメラが撮影する画像に基づいて特定される、前記ユーザと前記物体との間の距離に基づいて、前記ユーザと前記物体との接近を検出してもよい。
 また、前記ヘッドマウントディスプレイに含まれる前記カメラとは別体のカメラが撮影する画像に基づいて、前記ユーザと前記物体との接近を検出する検出部、をさらに含み、前記制御部は、前記検出部により検出される接近に応じて、前記カメラが撮影した映像が前記表示部に表示されるよう制御してもよい。
 また、本発明の一態様では、前記表示部は、光透過性を有し、前記制御部は、前記ユーザと当該ユーザの周辺の物体との接近に応じて、前記表示部による映像の表示を抑制してもよい。
 また、本発明に係る表示制御方法は、ヘッドマウントディスプレイを装着するユーザと当該ユーザの周辺の物体との接近に応じて、前記ユーザの眼前に配置された表示部を制御することで前記表示部よりも前方を前記ユーザに視認させるステップ、を含む。
 また、本発明に係るプログラムは、ヘッドマウントディスプレイを装着するユーザと当該ユーザの周辺の物体との接近に応じて、前記ユーザの眼前に配置された表示部を制御することで前記表示部よりも前方を前記ユーザに視認させる手順、を実行させる。
本発明の一実施形態に係る映像表示システムの全体構成の一例を示す図である。 本発明の一実施形態に係るヘッドマウントディスプレイの構成の一例を示す図である。 プレイ画像の一例を示す図である。 撮影画像の一例を示す図である。 本発明の一実施形態に係るヘッドマウントディスプレイで実装される機能の一例を示す機能ブロック図である。 本発明の一実施形態に係るヘッドマウントディスプレイにおいて行われる処理の流れの一例を示す図である。
 以下、本発明の一実施形態について、図面を参照しながら説明する。
 図1は、本発明の一実施形態に係る映像表示システム10の全体構成の一例を示す図である。図2は、本実施形態に係るヘッドマウントディスプレイ(HMD)12の構成の一例を示す図である。
 図1に示すように、本実施形態に係る映像表示システム10は、HMD12とエンタテインメント装置14と中継装置16とディスプレイ18とカメラマイクユニット20とコントローラ22とを含んでいる。
 本実施形態に係るHMD12には、例えば図2に示すように、制御部30、記憶部32、入出力部34、表示部36、音声出力部38、センサ部40、カメラ部42、が含まれる。
 制御部30は、例えばHMD12にインストールされるプログラムに従って動作するマイクロプロセッサ等のプログラム制御デバイスである。
 記憶部32は、例えばROMやRAM等の記憶素子などである。記憶部32には、制御部30によって実行されるプログラムなどが記憶される。
 入出力部34は、例えばHDMI(登録商標)(High-Definition Multimedia Interface)ポートやUSBポートなどの入出力ポートである。
 表示部36は、例えば液晶ディスプレイや有機ELディスプレイ等のディスプレイであり、エンタテインメント装置14が生成する映像や、カメラ部42が撮影する映像などを表示させる。本実施形態に係る表示部36は、例えば左目用の画像と右目用の画像を表示することによって三次元画像を表示させることができるようになっている。なお表示部36は三次元画像の表示ができず二次元画像の表示のみができるものであっても構わない。
 音声出力部38は、例えばスピーカ等であり、エンタテインメント装置14が生成する音声データが表す音声などを出力する。
 センサ部40は、例えば加速度センサやモーションセンサなどのセンサであり、HMD12の姿勢、回転量、移動量などの計測結果を所定のフレームレート(例えば、1/60秒間隔)で、制御部30に出力する。そして制御部30は、当該計測結果に基づいて、単位時間あたりのHMD12の移動量及び回転量、すなわちHMD12の速度及び角速度を特定する。このようにして本実施形態では、所定のフレームレートでHMD12の移動量及び回転量を特定できるようになっている。またセンサ部40が、例えばユーザによるHMD12の装着又は脱着を検出可能な赤外線センサ等のセンサを含んでいてもよい。
 カメラ部42は、例えばデジタルカメラなどのカメラであり、所定のフレームレートでHMD12を装着するユーザの周辺の様子を撮影する。図1に示すように、本実施形態に係るカメラ部42は、表示部36の上方に、表示部36の前方を撮影できるように2つ配置されている。また本実施形態に係るカメラ部42は、例えば左目用の画像を撮影するためのレンズ及び右目用の画像を生成するためのレンズを備えたステレオカメラである。そして本実施形態に係るカメラ部42は、撮影する画像に基づいて、例えばユーザとユーザの周辺の物体との間の距離を特定できるようになっている。なお本実施形態では、カメラ部42とユーザの周辺に存在する物体との間の距離を、ユーザと当該物体との間の距離として取り扱うこととする。
 本実施形態に係るエンタテインメント装置14は、例えばゲームコンソール、DVDプレイヤ、Blu-ray(登録商標)プレイヤなどといったコンピュータである。本実施形態に係るエンタテインメント装置14は、例えば記憶されているゲームプログラムの実行や光ディスクに記録されたコンテンツの再生などによって生成される映像を表す映像信号を、中継装置16を経由して、HMD12やディスプレイ18に出力する。
 本実施形態に係るディスプレイ18は、例えば液晶ディスプレイ等であり、エンタテインメント装置14から出力される映像信号が表す映像などを表示させる。
 本実施形態に係るカメラマイクユニット20は、例えば被写体を撮像した画像をエンタテインメント装置14に出力するカメラ20a及び周囲の音声を取得して当該音声を音声データに変換してエンタテインメント装置14に出力するマイク20bを含んでいる。また本実施形態に係るカメラ20aはステレオカメラである。
 HMD12と中継装置16とは、例えば、HDMIケーブルやUSBケーブルなどを介して接続されている。エンタテインメント装置14と中継装置16とは、例えば、HDMIケーブルやUSBケーブルなどを介して接続されている。中継装置16とディスプレイ18とは、例えば、HDMIケーブルなどを介して接続されている。エンタテインメント装置14とカメラマイクユニット20とは、例えば、AUXケーブルなどを介して接続されている。
 本実施形態に係るコントローラ22は、エンタテインメント装置14に対する操作入力を行うための操作入力装置である。ユーザは、コントローラ22が備える方向キーやボタンを押下したり、操作スティックを傾けたりすることで、コントローラ22を用いて各種の操作入力を行うことができる。そして本実施形態では、コントローラ22は、操作入力に対応付けられる入力データをエンタテインメント装置14に出力する。また本実施形態に係るコントローラ22は、USBポートを備えている。そしてコントローラ22は、USBケーブルでエンタテインメント装置14と接続することで、有線で入力データをエンタテインメント装置14に出力することができる。また本実施形態に係るコントローラ22は、無線通信モジュール等を備えており、無線で入力データをエンタテインメント装置14に出力することができるようにもなっている。
 図3は、例えばHMD12のユーザがゲームをプレイしている際にHMD12の表示部36に表示されるプレイ画像50の一例を示す図である。図3に示すプレイ画像50は、例えばゲームプログラムを実行するエンタテインメント装置14が生成してHMD12に出力された映像を構成する左目用のフレーム画像、あるいは、右目用のフレーム画像である。図3に示すプレイ画像50は、例えば、3人のプレイヤ(ここでは例えば、プレイヤA、プレイヤB、及び、プレイヤC)のそれぞれに対応付けられるキャラクタオブジェクト52が配置されている仮想空間内の視点から視線方向を見た様子を表している。また図3に示すプレイ画像50には、それぞれのプレイヤのパワーゲージ54も配置されている。
 そして本実施形態では、HMD12を装着しているユーザは、コントローラ22を操作することによって当該ゲームにおける各種の操作入力を行えるようになっている。またHMD12を装着しているユーザは、頭部を移動させることや回転させることによっても当該ゲームにおける各種の操作入力を行えるようになっている。例えば図3に示すプレイ画像50が表示されている際に、ユーザが頭部を動かすと、頭部が動いた方向に仮想空間内に配置された視点が移動する。また例えばユーザが頭部を回転させると、頭部が回転した方向に動いた方向に仮想空間内に配置された視点の視線方向が回転する。
 そして本実施形態では、ユーザが、当該ユーザの周辺の物体に接近すると、HMD12の表示部36に表示されている映像が、カメラ部42が撮影した映像に切り替わる。図4は、カメラ部42が撮影した映像を構成する左目用のフレーム画像、あるいは、右目用のフレーム画像である撮影画像56の一例を示す図である。図4に示すように、撮影画像56には、図1に示すエンタテインメント装置14やディスプレイ18などといった、HMD12を装着するユーザの前方に配置されている物体の像が含まれている。このようにして本実施形態によれば、ユーザが当該周辺の物体に接近すると、表示部36の前方の様子が表示部36に表示されるため、ユーザは、当該ユーザと周辺の物体との接近を把握しやすくなる。
 以下、本実施形態に係るHMD12の機能並びに本実施形態に係るHMD12で実行される処理についてさらに説明する。
 図5は、本実施形態に係るHMD12で実装される機能の一例を示す機能ブロック図である。なお、本実施形態に係るHMD12で、図5に示す機能のすべてが実装される必要はなく、また、図5に示す機能以外の機能が実装されていても構わない。
 図5に示すように、本実施形態に係るHMD12は、機能的には例えば、映像受信部60、撮影画像生成部62、検出部64、表示制御部66、を含む。映像受信部60は、入出力部34を主として実装される。撮影画像生成部62は、カメラ部42を主として実装される。検出部64は、制御部30又はカメラ部42を主として実装される。表示制御部66は、制御部30及び表示部36を主として実装される。
 そして以上の機能は、コンピュータであるHMD12にインストールされた、以上の機能に対応する指令を含むプログラムを制御部30で実行することにより実装されている。このプログラムは、例えば、光ディスク、磁気ディスク、磁気テープ、光磁気ディスク、フラッシュメモリ等のコンピュータ読み取り可能な情報記憶媒体を介して、あるいは、インターネットなどを介してHMD12に供給される。
 映像受信部60は、本実施形態では例えば、エンタテインメント装置14が生成して出力する映像を受信する。本実施形態では例えば、エンタテインメント装置14が、記憶されているプログラムの実行や光ディスクに記録されたコンテンツの再生などによって映像を生成する。そしてエンタテインメント装置14は、本実施形態では例えば、生成された映像を表す映像信号を中継装置16に送信する。すると中継装置16は、本実施形態では例えば、当該映像信号を受信して、HMD12に送信する。なおこのとき中継装置16は、当該映像信号をディスプレイ18に送信してもよい。また中継装置16は、エンタテインメント装置14から受信した映像信号を所定の形式に変換した上でディスプレイ18に送信してもよい。そしてディスプレイ18は、中継装置16から送信された映像信号を受信して、当該映像信号が表す映像を出力するようにしてもよい。
 撮影画像生成部62は、本実施形態では例えば、所定のフレームレートで撮影画像56を生成する。本実施形態では上述のように、所定のフレームレートで左目用の画像と右目用の画像とが生成されることとなる。
 検出部64は、本実施形態では例えば、ユーザと当該ユーザの周辺の物体との接近を検出する。本実施形態では例えば、上述した所定のフレームレートで、撮影画像生成部62が生成する左目用の画像と右目用の画像とに基づいて、撮影画像56に像が含まれている物体までの距離を特定する。本実施形態に係る検出部64は例えば、撮影画像56を構成する複数の画素のそれぞれについて、当該画素が表す物体の表面上の位置までの距離の分布を特定できるようになっている。そして検出部64は、本実施形態では例えば、このようにして各画素について特定された距離のうちの最も短い距離を特定する。以下、このようにして特定される距離を物体最短距離と呼ぶこととする。そして本実施形態では、検出部64は、特定された物体最短距離に基づいて、ユーザと当該ユーザの周辺の物体とが接近した状態であるか否かを特定する。
 表示制御部66は、本実施形態では例えば、上述した所定のフレームレートで表示部36の表示を制御する。表示制御部66は、本実施形態では例えば、検出部64によってユーザと当該ユーザの周辺の物体との接近が検出された際には、撮影画像56が強制的に表示部36に表示されるよう制御する。このように表示制御部66は、本実施形態では、ユーザと当該ユーザの周辺の物体との接近に応じて、表示部36を制御することで表示部36の前方をユーザに視認させる役割を担っている。一方本実施形態では、検出部64によって、ユーザと当該ユーザの周辺の物体とが接近した状態ではないと特定された際には、プレイ画像50が表示されるよう表示部36を制御する。
 また本実施形態では、カメラ部42が撮影した映像が強制的に表示部36に表示される強制状態であるか、カメラ部42が撮影した映像が強制的には表示部36に表示されない非強制状態であるかが、強制状態管理フラグによって管理されることとする。そして本実施形態では、表示制御部66が、強制状態管理フラグを保持していることとする。本実施形態では、HMD12が上述の強制状態である場合は、強制状態管理フラグの値は「1」となり、HMD12が上述の非強制状態である場合は、強制状態管理フラグの値は「0」となることとする。
 ここで、本実施形態に係るHMD12において所定のフレームレートで行われる表示制御処理の流れの一例を、図6に例示するフロー図を参照しながら説明する。
 まず、撮影画像生成部62が、撮影画像56を生成する(S101)。そして、検出部64が、S101に示す処理で生成された撮影画像56に基づいて、上述の物体最短距離を特定する(S102)。
 そして、検出部64が、表示制御部66が保持する強制状態管理フラグの値を確認する(S103)。強制状態管理フラグの値が「0」であることが確認された場合は、検出部64は、S102に示す処理で特定された物体最短距離が第1の閾値(ここでは例えば50cm)よりも短いか否かを判定する(S104)。
 S102に示す処理で特定された物体最短距離が第1の閾値以上である場合は(S104:N)、S108に示す処理に進む。S102に示す処理で特定された物体最短距離が第1の閾値よりも短い場合は(S104:Y)、表示制御部66は、保持している強制状態管理フラグの値を「1」に変更する(S105)。そしてS108に示す処理に進む。
 S103に示す処理で強制状態管理フラグの値が「1」であることが確認された場合は、検出部64は、S102に示す処理で特定された物体最短距離が第2の閾値(ここでは例えば100cm)よりも長いか否かを判定する(S106)。
 S102に示す処理で特定された物体最短距離が第2の閾値以下である場合は(S106:N)、S108に示す処理に進む。S102に示す処理で特定された物体最短距離が第2の閾値よりも長い場合は(S106:Y)、表示制御部66は、保持している強制状態管理フラグの値を「0」に変更する(S107)。そしてS108に示す処理に進む。
 そして表示制御部66は、保持している強制状態管理フラグの値に応じた画像が表示部36に表示されるよう制御する(S108)。ここでは例えば、強制状態管理フラグの値が「1」である場合は、表示制御部66は、S101に示す処理で生成された撮影画像56を表示させる。一方強制状態管理フラグの値が「0」である場合は、表示制御部66は、このフレームにおいて表示されるべきフレーム画像を表示させる。
 そして本処理例では、上述したように、S101~S108に示す処理が所定のフレームレートで繰り返し実行されることとなる。
 以上で説明したように、本処理例では、HMD12が非強制状態から強制状態に変更される物体最短距離の閾値(第1の閾値)が、HMD12が強制状態から非強制状態に変更される物体最短距離の閾値(第2の閾値)よりも短い。そのため本処理例によれば、撮影画像56が表示される状態とプレイ画像50が表示される状態とが短期間で交互に切り替わってしまう事態の発生を防ぐことができる。
 また本実施形態では、上述したように、検出部64が所定のフレームレートで上述の物体最短距離を特定する必要があるため、撮影画像56が表示部36に表示されていない状況でも、撮影画像生成部62は所定のフレームレートで撮影画像56を生成する。このように本実施形態では、ユーザと当該ユーザの前方の物体との接近に応じて表示される撮影画像56を、ユーザと当該ユーザの前方の物体との接近の検出にも用いている。そのため本実施形態では、ユーザと当該ユーザの前方の物体との接近の検出のための赤外線センサ等の測距装置をHMD12に別途設ける必要がない。その結果本実施形態では、HMD12の部品点数や制作コストの削減が可能となる。
 もちろん、センサ部40が、ユーザと当該ユーザの前方の物体との接近の検出のための測距装置を含んでいてもよい。そして、検出部64が、当該測距装置が測定するユーザと当該ユーザの周辺の物体との間の距離に基づいて、ユーザと当該物体との接近を検出してもよい。またこの場合に、撮影画像56が表示部36に表示されない際には、撮影画像生成部62が撮影画像56を生成しなくても構わない。
 また例えば、検出部64が、ユーザの手足の可動範囲内に物体があることを検出することができても構わない。そして、ユーザの手足の可動範囲内に物体があることが検出されたことに応じて、HMD12が非強制状態から強制状態に変更されても構わない。
 また例えば、検出部64が、カメラ部42とは別体であるカメラ20aが撮影する画像に基づいて、ユーザと物体との接近を検出してもよい。そして表示制御部66が、カメラ20aが撮影する画像に基づいて検出された接近に応じて、カメラ部42が撮影した映像が表示部36に表示されるよう制御してもよい。例えば、カメラマイクユニット20は、ステレオカメラであるカメラ20aが備える2つのレンズのそれぞれが生成する画像を中継装置16経由でHMD12に送信してもよい。そしてHMD12の検出部64が、カメラ20aが備える2つのレンズのそれぞれが同一フレームにおいて撮影した2つの画像に基づいて、HMD12とHMD12に最も接近している物体との距離を物体最短距離として特定してもよい。ここでカメラマイクユニット20が、物体最短距離を特定して、特定された物体最短距離を示すデータを中継装置16経由でHMD12に送信しても構わない。そして特定された物体最短距離に基づいて、上述したS103~S108と同様の処理が実行されるようにしてもよい。
 また例えば、HMD12が非強制状態であっても、ユーザの操作に応じて、表示部36に撮影画像56が表示されるようにしてもよい。
 また例えば、HMD12が非強制状態であっても、プレイ画像50の一部、例えば、パワーゲージ54のみが撮影画像56に重畳されて表示されるようにしてもよい。また例えば、HMD12が非強制状態であっても、プレイ画像50が縮小されて撮影画像56とともに表示されてもよい。こうすればHMD12が非強制状態であっても、エンタテインメント装置14が生成する画像をユーザは視認できることとなる。
 また本発明は、上述したような、カメラ部42が搭載されたビデオシースルー型のHMD12に限らず、表示部36が光透過性を有する光学シースルー型のHMD12にも適用可能である。例えばHMD12が非強制状態から強制状態に変更された際に、光学シースルー型のHMD12の表示制御部66が、映像の表示を抑制することで、表示部36の前方をユーザに視認させるようにしてもよい。例えばHMD12が非強制状態から強制状態に変更された際に、表示される映像が暗くなるようにしたり、映像の表示が停止されるようにしたりしてもよい。
 なお、HMD12が非強制状態から強制状態に変更されるトリガや、強制状態から非強制状態に変更されるトリガは、ユーザと当該ユーザの周辺の物体との接近の検出には限定されない。
 例えば、HMD12を装着するユーザが下を向いたことの検出に応じて、HMD12が非強制状態から強制状態に変更されても構わない。ここでHMD12を装着するユーザが下を向いたことの検出は、例えば、センサ部40に含まれる加速度センサやモーションセンサ等のセンサによって測定可能なHMD12の向きに基づいて行うことが可能である。具体的には例えば、HMD12が水平方向に対して斜め下45度よりも下を向いたことをセンサ部40が検出した際に、HMD12が非強制状態から強制状態に変更されるようにしてもよい。
 また例えば、カメラ部42が撮影する撮影画像56、又は撮影画像56とセンサ部40の検出結果との組合せに基づいて、HMD12を装着するユーザが下を向いたことが検出されてもよい。また例えば、カメラ20aが撮影する画像に基づいて、HMD12を装着するユーザが下を向いたことが検出されてもよい。具体的には例えば、公知の画像解析技術によって撮影画像56内において床の像が配置されている領域が特定されるようにしてもよい。そして撮影画像56全体の面積に対する特定された領域の面積の比率が所定値よりも大きい際に、HMD12を装着するユーザが下を向いたと判定され、HMD12が非強制状態から強制状態に変更されるようにしてもよい。
 HMD12を装着しているユーザは手元を見たい場合には下を向く可能性が高い。そのため以上で説明したように、HMD12を装着するユーザが下を向いたことの検出に応じて、HMD12が非強制状態から強制状態に変更されるようにすれば、HMD12を装着しているユーザは下を向くことで手元を視認できることとなる。
 また例えば、HMD12が瞳孔検出機能等によりユーザの視線方向を追跡可能なカメラを搭載していてもよい。そして視線トラッキング技術により、ユーザの視線方向が下を向いた、例えば水平方向に対して斜め下45度よりも下を向いたことが検出された場合に、HMD12が非強制状態から強制状態に変更されるようにしてもよい。こうすればユーザは頭部を動かしていなくても視線方向を下に向けることで、例えば手元などといった表示部36よりも前方を視認することができる。
 また例えば、撮影画像56に、コントローラ22の画像が含まれていることが検出された場合に、HMD12が非強制状態から強制状態に変更されるようにしてもよい。例えばコントローラ22がLEDを備えており、撮影画像56に、当該LEDの画像が含まれていることが検出された場合に、HMD12が非強制状態から強制状態に変更されるようにしてもよい。こうすればユーザはコントローラ22が置いてある場所を見ることで、コントローラ22を容易に手にとることができることとなる。
 また撮影画像56に、コントローラ22の画像が含まれていることが検出された場合に、HMD12が強制状態から非強制状態に変更されて、エンタテインメント装置14がメニューの表示やゲームプログラムの実行の開始を行うようにしてもよい。また例えば、コントローラ22の画像が含まれていることが検出されてから所定の時間が経過した際に、エンタテインメント装置14がゲームプログラムの実行を開始するようにしてもよい。こうすれば例えばユーザがコントローラ22を手に取ることで、スタート操作等の明示的な操作を行うことなく、ゲームのプレイが開始されることとなる。
 また例えば、撮影画像56に、スマートフォン等の携帯端末の画像が含まれていることが検出された場合に、HMD12が非強制状態から強制状態に変更されるようにしてもよい。例えば、携帯端末に表示されている所定の画像が撮影画像56に含まれていることが検出された場合に、HMD12が非強制状態から強制状態に変更されるようにしてもよい。こうすればHMD12を装着しているユーザは、前方に所定の画像が表示されている携帯端末をかざすことで、当該携帯端末を視認できることとなる。
 また例えば、HMD12が、スマートフォン等の携帯端末と通信可能な無線通信インタフェースを備えていてもよい。そして例えば、スマートフォンへの着信などといったイベントの発生の検出に応じて、HMD12が非強制状態から強制状態に変更されるようにしてもよい。当該イベントの発生は、例えば、スマートフォンから送信される信号の受信、スマートフォンが発する音声の受付、スマートフォンから発せられる光の認識、などで検出可能である。こうすればユーザはスマートフォンに着信があった際などといったイベントの発生の際に、HMD12を脱着することなくスマートフォンをスムーズに操作できることとなる。
 また例えば、HMD12が、エンタテインメント装置14との接続が切断されたことの検出に応じて、HMD12が非強制状態から強制状態に変更されるようにしてもよい。こうすればHMD12を装着するユーザの視界が突然真っ暗になる、あるいは、表示部36に異常な映像が表示されることを防ぐことができる。HMD12とエンタテインメント装置14との接続の切断は、例えばケーブルの不具合、抜け、無線接続の不具合、エンタテインメント装置14のハングアップ、電源の不具合などが原因となりうる。なおHMD12がエンタテインメント装置14や中継装置16からの電源の供給を受けられなくなった場合には、HMD12は、内蔵のバッテリーから電源の供給を受けるようにしてもよい。またHMD12が、エンタテインメント装置14と接続されたことの検出に応じて、HMD12が強制状態から非強制状態に変更されるようにしてもよい。
 また例えば、映像表示システム10が、HMD12と中継装置16とを接続するケーブル、エンタテインメント装置14と中継装置16とを接続するケーブル、中継装置16とディスプレイ18とを接続するケーブルのひっぱりやからまりを検出可能であってもよい。また映像表示システム10が、エンタテインメント装置14とカメラマイクユニット20とを接続するケーブルや、エンタテインメント装置14とコントローラ22とを接続するケーブルのひっぱりやからまりを検出可能であってもよい。そしてケーブルのひっぱりやからまりの検出に応じて、HMD12が非強制状態から強制状態に変更されるようにしてもよい。そしてケーブルのひっぱりやからまりが解消されたことの検出に応じて、HMD12が強制状態から非強制状態に変更されるようにしてもよい。
 なお、HMD12が非強制状態から強制状態に変更された際に、表示制御部66が、実行されているゲームのポーズや、再生されている映画等のコンテンツの一時停止が行われるようエンタテインメント装置14を制御してもよい。例えば上述のS105に示す処理の際に、表示制御部66が、実行されているゲームのポーズや、再生されている映画等のコンテンツの一時停止が行われるようエンタテインメント装置14を制御してもよい。具体的には例えば、表示制御部66が、エンタテインメント装置14に停止信号を送信し、停止信号を受信したエンタテインメント装置14がゲームのポーズや再生されている映画の一時停止を実行してもよい。
 またHMD12が強制状態から非強制状態に変更された際に、表示制御部66が、実行されているゲームの再開や、再生されている映画等のコンテンツの再生が行われるようエンタテインメント装置14を制御してもよい。例えば上述のS107に示す処理の際に、表示制御部66が、実行されているゲームの再開や、再生されている映画等のコンテンツの再生が行われるようエンタテインメント装置14を制御してもよい。
 このようにすれば、強制状態となりエンタテインメント装置14が生成する映像が表示されなくなった際に、ユーザの意図と無関係にゲームが進行したりコンテンツが再生されたりすることを防ぐことができる。
 またセンサ部40が、心拍数、呼吸、発汗等の、バイタルサインを測定可能なセンサを含んでいてもよい。そして、バイタルサインの測定結果に応じて、HMD12が非強制状態から強制状態に変更されたり強制状態から非強制状態に変更されたりしてもよい。例えば心拍数が所定値を超えた場合に、HMD12が非強制状態から強制状態に変更されるようにしてもよい。こうすれば例えばユーザの身体に異変が生じた際にユーザに現実空間の映像を提示できることとなる。
 また以上でいくつかの例を挙げて説明したように、表示制御部66は、カメラ部42が撮影する撮影画像56に基づいて、撮影画像56が表示部36に表示されるか否かを制御するようにしてもよい。こうすれば条件を適切に設定することで、ユーザが視認すべき状況がユーザの前方において発生した際に、その状況をユーザに視認させることができることとなる。
 なお、本発明は上述の実施形態に限定されるものではない。
 また、上記の具体的な文字列や数値及び図面中の具体的な文字列や数値は例示であり、これらの文字列や数値には限定されない。

Claims (8)

  1.  ユーザが装着するヘッドマウントディスプレイであって、
     前記ユーザの眼前に配置された表示部と、
     前記ユーザと当該ユーザの周辺の物体との接近に応じて、前記表示部を制御することで前記表示部の前方を前記ユーザに視認させる制御部と、
     を含むことを特徴とするヘッドマウントディスプレイ。
  2.  前記表示部の前方を撮影するカメラ、をさらに含み、
     前記制御部は、前記ユーザと当該ユーザの周辺の物体との接近に応じて、前記カメラが撮影した映像が前記表示部に表示されるよう制御する、
     ことを特徴とする請求項1に記載のヘッドマウントディスプレイ。
  3.  前記カメラはステレオカメラであり、
     前記ステレオカメラが撮影する画像に基づいて、前記ユーザと前記物体との接近を検出する検出部、をさらに含み、
     前記制御部は、前記検出部により検出される接近に応じて、前記カメラが撮影した映像が前記表示部に表示されるよう制御する、
     ことを特徴とする請求項2に記載のヘッドマウントディスプレイ。
  4.  前記検出部は、前記ステレオカメラが撮影する画像に基づいて特定される、前記ユーザと前記物体との間の距離に基づいて、前記ユーザと前記物体との接近を検出する、
     ことを特徴とする請求項3に記載のヘッドマウントディスプレイ。
  5.  前記ヘッドマウントディスプレイに含まれる前記カメラとは別体のカメラが撮影する画像に基づいて、前記ユーザと前記物体との接近を検出する検出部、をさらに含み、
     前記制御部は、前記検出部により検出される接近に応じて、前記カメラが撮影した映像が前記表示部に表示されるよう制御する、
     ことを特徴とする請求項2に記載のヘッドマウントディスプレイ。
  6.  前記表示部は、光透過性を有し、
     前記制御部は、前記ユーザと当該ユーザの周辺の物体との接近に応じて、前記表示部による映像の表示を抑制する、
     ことを特徴とする請求項1に記載のヘッドマウントディスプレイ。
  7.  ヘッドマウントディスプレイを装着するユーザと当該ユーザの周辺の物体との接近に応じて、前記ユーザの眼前に配置された表示部を制御することで前記表示部よりも前方を前記ユーザに視認させるステップ、
     を含むことを特徴とする表示制御方法。
  8.  ヘッドマウントディスプレイを装着するユーザと当該ユーザの周辺の物体との接近に応じて、前記ユーザの眼前に配置された表示部を制御することで前記表示部よりも前方を前記ユーザに視認させる手順、
     をコンピュータに実行させることを特徴とするプログラム。
PCT/JP2016/072678 2015-08-04 2016-08-02 ヘッドマウントディスプレイ、表示制御方法及びプログラム WO2017022769A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
EP16833048.8A EP3333616A4 (en) 2015-08-04 2016-08-02 VISIOCASQUE, DISPLAY CONTROL METHOD, AND PROGRAM
US15/744,341 US10685211B2 (en) 2015-08-04 2016-08-02 Head-mounted display, display control method, and program
US16/855,815 US11417126B2 (en) 2015-08-04 2020-04-22 Head-mounted display, display control method, and program
US17/858,244 US11763578B2 (en) 2015-08-04 2022-07-06 Head-mounted display, display control method, and program
US18/467,741 US20240005680A1 (en) 2015-08-04 2023-09-15 Head-mounted display, display control method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015153920 2015-08-04
JP2015-153920 2015-08-04

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US15/744,341 A-371-Of-International US10685211B2 (en) 2015-08-04 2016-08-02 Head-mounted display, display control method, and program
US16/855,815 Continuation US11417126B2 (en) 2015-08-04 2020-04-22 Head-mounted display, display control method, and program

Publications (1)

Publication Number Publication Date
WO2017022769A1 true WO2017022769A1 (ja) 2017-02-09

Family

ID=57943034

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/072678 WO2017022769A1 (ja) 2015-08-04 2016-08-02 ヘッドマウントディスプレイ、表示制御方法及びプログラム

Country Status (3)

Country Link
US (4) US10685211B2 (ja)
EP (1) EP3333616A4 (ja)
WO (1) WO2017022769A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020520487A (ja) * 2017-03-29 2020-07-09 ベステル エレクトロニク サナイー ベ ティカレト エー.エス. Vrインタラクションの改良された方法およびシステム

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10685211B2 (en) 2015-08-04 2020-06-16 Sony Interactive Entertainment Inc. Head-mounted display, display control method, and program
WO2021040107A1 (ko) * 2019-08-30 2021-03-04 엘지전자 주식회사 Ar 장치 및 그 제어 방법
GB2610386B (en) * 2021-09-01 2024-01-10 Sony Interactive Entertainment Inc Head-mountable display system and methods

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010145436A (ja) * 2008-12-16 2010-07-01 Brother Ind Ltd ヘッドマウントディスプレイ
JP2013257716A (ja) * 2012-06-12 2013-12-26 Sony Computer Entertainment Inc 障害物回避装置および障害物回避方法
WO2014156389A1 (ja) * 2013-03-29 2014-10-02 ソニー株式会社 情報処理装置、提示状態制御方法及びプログラム
JP2015064868A (ja) * 2013-08-29 2015-04-09 キヤノンマーケティングジャパン株式会社 情報処理システムとその処理方法及びプログラム
JP2015191124A (ja) * 2014-03-28 2015-11-02 ソフトバンクBb株式会社 非透過型ヘッドマウントディスプレイ及びプログラム
JP5869712B1 (ja) * 2015-04-08 2016-02-24 株式会社コロプラ 没入型仮想空間に実空間のユーザの周辺環境を提示するためのヘッドマウント・ディスプレイ・システムおよびコンピュータ・プログラム

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004205711A (ja) 2002-12-24 2004-07-22 Canon Inc 表示装置
JP2012002889A (ja) 2010-06-15 2012-01-05 Brother Ind Ltd シースルー型画像表示装置
US8754831B2 (en) * 2011-08-02 2014-06-17 Microsoft Corporation Changing between display device viewing modes
US9081177B2 (en) * 2011-10-07 2015-07-14 Google Inc. Wearable computer with nearby object response
JP5803784B2 (ja) 2012-03-30 2015-11-04 ブラザー工業株式会社 ヘッドマウントディスプレイ
GB2501768A (en) * 2012-05-04 2013-11-06 Sony Comp Entertainment Europe Head mounted display
US9934614B2 (en) * 2012-05-31 2018-04-03 Microsoft Technology Licensing, Llc Fixed size augmented reality objects
US20130326364A1 (en) * 2012-05-31 2013-12-05 Stephen G. Latta Position relative hologram interactions
JP2014049934A (ja) * 2012-08-31 2014-03-17 Sony Corp ヘッドマウントディスプレイ
US9908048B2 (en) 2013-06-08 2018-03-06 Sony Interactive Entertainment Inc. Systems and methods for transitioning between transparent mode and non-transparent mode in a head mounted display
GB201310360D0 (en) * 2013-06-11 2013-07-24 Sony Comp Entertainment Europe Head-Mountable apparatus and systems
JP6149584B2 (ja) * 2013-08-01 2017-06-21 セイコーエプソン株式会社 表示装置、表示システムおよび表示装置の制御方法
JP6202942B2 (ja) * 2013-08-26 2017-09-27 キヤノン株式会社 情報処理装置とその制御方法、コンピュータプログラム、記憶媒体
US9658454B2 (en) * 2013-09-06 2017-05-23 Omnivision Technologies, Inc. Eyewear display system providing vision enhancement
JP2015119373A (ja) * 2013-12-19 2015-06-25 ソニー株式会社 画像処理装置および方法、並びにプログラム
JP6355978B2 (ja) * 2014-06-09 2018-07-11 株式会社バンダイナムコエンターテインメント プログラムおよび画像生成装置
JP2016004493A (ja) * 2014-06-18 2016-01-12 キヤノン株式会社 画像処理装置およびその制御方法
US10311638B2 (en) * 2014-07-25 2019-06-04 Microsoft Technology Licensing, Llc Anti-trip when immersed in a virtual reality environment
KR102127356B1 (ko) * 2014-07-31 2020-06-26 삼성전자주식회사 투명 디스플레이 장치 및 그 제어 방법
US20160070343A1 (en) * 2014-09-09 2016-03-10 Beijing Lenovo Software Ltd. Information processing method and electronic device
CN107850953B (zh) 2014-11-05 2021-08-31 威尔乌集团 用于在虚拟现实环境中引导用户的感官反馈系统和方法
CN105988219B (zh) * 2015-03-17 2020-11-10 精工爱普生株式会社 头部佩戴型显示装置以及头部佩戴型显示装置的控制方法
JP6421670B2 (ja) * 2015-03-26 2018-11-14 富士通株式会社 表示制御方法、表示制御プログラム、及び情報処理装置
US10685211B2 (en) * 2015-08-04 2020-06-16 Sony Interactive Entertainment Inc. Head-mounted display, display control method, and program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010145436A (ja) * 2008-12-16 2010-07-01 Brother Ind Ltd ヘッドマウントディスプレイ
JP2013257716A (ja) * 2012-06-12 2013-12-26 Sony Computer Entertainment Inc 障害物回避装置および障害物回避方法
WO2014156389A1 (ja) * 2013-03-29 2014-10-02 ソニー株式会社 情報処理装置、提示状態制御方法及びプログラム
JP2015064868A (ja) * 2013-08-29 2015-04-09 キヤノンマーケティングジャパン株式会社 情報処理システムとその処理方法及びプログラム
JP2015191124A (ja) * 2014-03-28 2015-11-02 ソフトバンクBb株式会社 非透過型ヘッドマウントディスプレイ及びプログラム
JP5869712B1 (ja) * 2015-04-08 2016-02-24 株式会社コロプラ 没入型仮想空間に実空間のユーザの周辺環境を提示するためのヘッドマウント・ディスプレイ・システムおよびコンピュータ・プログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020520487A (ja) * 2017-03-29 2020-07-09 ベステル エレクトロニク サナイー ベ ティカレト エー.エス. Vrインタラクションの改良された方法およびシステム

Also Published As

Publication number Publication date
US20240005680A1 (en) 2024-01-04
US20220335734A1 (en) 2022-10-20
US11417126B2 (en) 2022-08-16
US10685211B2 (en) 2020-06-16
EP3333616A4 (en) 2019-04-03
US20180204050A1 (en) 2018-07-19
US11763578B2 (en) 2023-09-19
EP3333616A1 (en) 2018-06-13
US20200250400A1 (en) 2020-08-06

Similar Documents

Publication Publication Date Title
US10268438B2 (en) Display screen front panel of HMD for viewing by users viewing the HMD player
EP3029550B1 (en) Virtual reality system
US9952652B2 (en) Virtual reality system and method for controlling operation modes of virtual reality system
US10229541B2 (en) Methods and systems for navigation within virtual reality space using head mounted display
JP6155622B2 (ja) 表示装置、頭部装着型表示装置、表示装置の制御方法、および、頭部装着型表示装置の制御方法
US10692300B2 (en) Information processing apparatus, information processing method, and image display system
US11763578B2 (en) Head-mounted display, display control method, and program
JP6348665B2 (ja) ヘッドマウントディスプレイ、表示制御方法及びプログラム
JP2021103303A (ja) 情報処理装置および画像表示方法
WO2020012955A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP6303274B2 (ja) 頭部装着型表示装置および頭部装着型表示装置の制御方法
EP3367215B1 (en) Electronic device for providing virtual reality content
WO2015125364A1 (ja) 電子機器、および画像の提供方法
JP2018042004A (ja) 表示装置、頭部装着型表示装置、及び、表示装置の制御方法
KR20180101047A (ko) 전자장치 및 그 제어 방법
WO2018101162A1 (ja) ヘッドマウントディスプレイ、表示制御装置、表示制御方法及びプログラム
JP7260673B2 (ja) 映像表示装置及び映像表示方法
WO2016158080A1 (ja) 情報処理装置、情報処理方法およびプログラム
WO2023040562A1 (zh) 信息显示方法、近眼显示设备以及电子设备
JP2018085595A (ja) 頭部装着型表示装置、及び、頭部装着型表示装置の制御方法
KR20180098917A (ko) 가상 현실 체험 중 이벤트 발생시 동작 방법 및 그 전자장치
JP2021068296A (ja) 情報処理装置、ヘッドマウントディスプレイ、およびユーザ操作処理方法
WO2016082063A1 (zh) 一种3d显示头盔控制装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16833048

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15744341

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

NENP Non-entry into the national phase

Ref country code: JP