JP2021068296A - Information processing device, head-mounted display, and user operation processing method - Google Patents
Information processing device, head-mounted display, and user operation processing method Download PDFInfo
- Publication number
- JP2021068296A JP2021068296A JP2019194524A JP2019194524A JP2021068296A JP 2021068296 A JP2021068296 A JP 2021068296A JP 2019194524 A JP2019194524 A JP 2019194524A JP 2019194524 A JP2019194524 A JP 2019194524A JP 2021068296 A JP2021068296 A JP 2021068296A
- Authority
- JP
- Japan
- Prior art keywords
- user operation
- head
- mounted display
- information
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、ヘッドマウントディスプレイを装着したユーザの操作に対応する処理を実施する情報処理装置、ヘッドマウントディスプレイ、およびユーザ操作処理方法に関する。 The present invention relates to an information processing device that performs processing corresponding to the operation of a user wearing a head-mounted display, a head-mounted display, and a user operation processing method.
ヘッドマウントディスプレイを装着したユーザの頭部の動きを検出し、それに対応する視野で表示対象の空間を表すことにより、臨場感のある画像世界を表現できるシステムが普及している。また、ヘッドマウントディスプレイを装着したユーザが物理的に移動することで、映像として表示された空間内を仮想的に歩き回ることのできるウォークスルーシステムも開発されている。 A system that can express a realistic image world by detecting the movement of the head of a user wearing a head-mounted display and expressing the space to be displayed in the corresponding field of view has become widespread. In addition, a walk-through system has also been developed that allows a user wearing a head-mounted display to virtually walk around in the space displayed as an image by physically moving.
外界の光を遮蔽するヘッドマウントディスプレイは、表示世界への没入感を高められる一方、装着したままでは実世界が見えず、ユーザが周囲の物を持ったり操作したりするのが難しい。例えばコンテンツを楽しんでいるユーザが、音声のボリュームや表示パネルの輝度を調整したいと考えても、一般的なスイッチやボタンによる調整では手探りでの操作となり容易でない。操作を容易にしたり、調整可能な対象を増やしたりするには、スイッチ等を大きくしたり数を増やしたりすることが考えられるが、そのような操作手段をヘッドマウントディスプレイ自体に設ける場合は特に、デザイン上の制約が増える点で好ましくない。 A head-mounted display that shields the light of the outside world enhances the immersive feeling in the display world, but it is difficult for the user to hold or operate surrounding objects because the real world cannot be seen while wearing it. For example, even if a user who enjoys content wants to adjust the volume of audio and the brightness of the display panel, adjustment with general switches and buttons is not easy because it is a fumbling operation. In order to facilitate the operation and increase the number of adjustable objects, it is conceivable to increase the size or number of switches, etc., but especially when such an operation means is provided on the head-mounted display itself. It is not preferable because it increases design restrictions.
本発明はこうした課題に鑑みてなされたものであり、その目的は、ヘッドマウントディスプレイを装着しても操作が容易なユーザインターフェースを提供することにある。本発明の別の目的は、ヘッドマウントディスプレイのデザイン制約を増やすことなく多様な操作を可能とする技術を提供することにある。 The present invention has been made in view of these problems, and an object of the present invention is to provide a user interface that is easy to operate even when a head-mounted display is attached. Another object of the present invention is to provide a technique that enables various operations without increasing the design restrictions of the head-mounted display.
本発明のある態様は情報処理装置に関する。この情報処理装置は、ヘッドマウントディスプレイ外面の複数箇所における光の輝度情報を取得する輝度情報取得部と、複数箇所における輝度情報の少なくともいずれかに所定の変化が生じたとき、ユーザ操作がなされたことを判定するユーザ操作判定部と、ユーザ操作がなされたことが判定されたとき、輝度情報の変化に対応づけられた操作内容をユーザ操作として取得する操作内容取得部と、操作内容に対応する処理を実施する操作処理部と、を備えたことを特徴とする。 One aspect of the present invention relates to an information processing device. In this information processing device, a user operation is performed when a predetermined change occurs in at least one of the luminance information acquisition unit that acquires the luminance information of light at a plurality of locations on the outer surface of the head mount display and the luminance information at the plurality of locations. Corresponds to the user operation determination unit that determines that, the operation content acquisition unit that acquires the operation content associated with the change in the luminance information as the user operation when it is determined that the user operation has been performed, and the operation content. It is characterized by including an operation processing unit for performing processing.
本発明の別の態様はヘッドマウントディスプレイに関する。このヘッドマウントディスプレイは、上記情報処理装置と、複数箇所にそれぞれ配置され、輝度情報として画像を撮影する複数のカメラと、操作処理部によって調整される表示部および音声出力部と、を備えたことを特徴とする。 Another aspect of the invention relates to a head-mounted display. This head-mounted display includes the above-mentioned information processing device, a plurality of cameras arranged at a plurality of locations and capturing images as luminance information, and a display unit and an audio output unit adjusted by an operation processing unit. It is characterized by.
本発明のさらに別の態様はユーザ操作処理方法に関する。このユーザ操作処理方法は、ヘッドマウントディスプレイ外面の複数箇所における光の輝度情報を所定のレートで取得するステップと、複数箇所における輝度情報の少なくともいずれかに所定の変化が生じたとき、ユーザ操作がなされたことを判定するステップと、ユーザ操作がなされたことが判定されたとき、輝度情報の変化に対応づけられた操作内容をユーザ操作として取得するステップと、操作内容に対応する処理を実施するステップと、を含むことを特徴とする。 Yet another aspect of the present invention relates to a user operation processing method. In this user operation processing method, when a predetermined change occurs in at least one of a step of acquiring light luminance information at a plurality of locations on the outer surface of the head-mounted display at a predetermined rate and at least one of the luminance information at the plurality of locations, the user operation is performed. A step of determining that the operation has been performed, a step of acquiring the operation content associated with the change in the luminance information as a user operation when it is determined that the user operation has been performed, and a process corresponding to the operation content are executed. It is characterized by including steps.
なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、コンピュータプログラム、コンピュータプログラムを記録した記録媒体などの間で変換したものもまた、本発明の態様として有効である。 It should be noted that any combination of the above components and the conversion of the expression of the present invention between a method, a device, a system, a computer program, a recording medium on which a computer program is recorded, and the like are also effective as aspects of the present invention. ..
本発明によると、デザイン上の制約を増やすことなく、ヘッドマウントディスプレイを装着した状態でのユーザ操作を容易にする。 According to the present invention, the user operation with the head-mounted display attached is facilitated without increasing design restrictions.
図1はヘッドマウントディスプレイ100の外観例を示す。この例においてヘッドマウントディスプレイ100は、出力機構部102および装着機構部104で構成される。装着機構部104は、ユーザが被ることにより頭部を一周し装置の固定を実現する装着バンド106を含む。出力機構部102は、ヘッドマウントディスプレイ100をユーザが装着した状態において左右の目を覆うような形状の筐体108を含み、内部には装着時に目に正対するように表示パネルを備える。
FIG. 1 shows an example of the appearance of the head-mounted
筐体108内部にはさらに、ヘッドマウントディスプレイ100の装着時に表示パネルとユーザの目との間に位置し、画像を拡大して見せる接眼レンズを備える。またヘッドマウントディスプレイ100はさらに、装着時にユーザの耳に対応する位置にスピーカーやイヤホンを備えてよい。またヘッドマウントディスプレイ100は、加速度センサ、ジャイロセンサ、地磁気センサなどのモーションセンサを内蔵し、ヘッドマウントディスプレイ100を装着したユーザの頭部の並進運動や回転運動、ひいては各時刻の位置や姿勢を検出してもよい。
Further, the inside of the
ヘッドマウントディスプレイ100はさらに、筐体108の前面にカメラ110a、110b、110c、110dを備え、ユーザの顔の向きに対応する視野で周囲の実空間を動画撮影する。カメラ110a、110b、110c、110dの数や配置は特に限定されないが、図示する例では、出力機構部102の筐体108前面の4隅に設けている。以後、カメラ110a、110b、110c、110dをカメラ110と総称する場合がある。ある態様においてヘッドマウントディスプレイ100は、カメラ110が撮影した動画像を即時表示させることにより、ユーザが向いた方向の実空間の様子をそのまま見せるシースルーモードを提供する。
The head-mounted
ヘッドマウントディスプレイ100はさらに、カメラ110による撮影画像を解析することにより、ヘッドマウントディスプレイ100自体の位置や姿勢、ひいてはユーザ頭部の位置や姿勢、および周囲にある物の存在や形状、位置などの少なくともいずれかの情報を所定のレートで取得する。以後、これらの情報を「実空間情報」と総称する。撮影画像などのセンシング結果を解析することにより実空間情報を得る技術として、SLAM(Simultaneous Localization and Mapping)がある。
The head-mounted
撮影画像を用いたSLAMは、複数視点からの撮影画像に写る同じ実物体の像の位置関係から当該実物体の3次元での位置を推定する処理と、位置が推定された実物体の像の撮影画像上での位置に基づきカメラの位置や姿勢を推定する処理とを繰り返すことにより、環境地図を作成しながらカメラの位置や姿勢を取得していく手法である。そのようにして撮影画像から得られた実空間情報は、ヘッドマウントディスプレイ100に表示させる画像の視野を決定するのに用いたり、周囲の実物体とインタラクションする仮想オブジェクトを描画するのに用いたりできる。その他、実空間情報を用いてなされる情報処理が様々に考えられることは当業者には理解されるところである。
SLAM using captured images is a process of estimating the three-dimensional position of the real object from the positional relationship of the images of the same real object appearing in the captured images from multiple viewpoints, and the image of the real object whose position has been estimated. This is a method of acquiring the position and orientation of the camera while creating an environmental map by repeating the process of estimating the position and orientation of the camera based on the position on the captured image. The real space information obtained from the captured image in this way can be used to determine the field of view of the image to be displayed on the head-mounted
図2は、本実施の形態を適用できるコンテンツ処理システムの構成例を示す。ヘッドマウントディスプレイ100は、無線通信またはUSB Type−Cなどの周辺機器を接続するインターフェースによりコンテンツ処理装置200に接続される。コンテンツ処理装置200は、さらにネットワークを介してサーバに接続されてもよい。その場合、サーバは、複数のユーザがネットワークを介して参加できるゲームなどのオンラインアプリケーションをコンテンツ処理装置200に提供してもよい。
FIG. 2 shows a configuration example of a content processing system to which the present embodiment can be applied. The head-mounted
コンテンツ処理装置200は基本的に、コンテンツのプログラムを処理し、表示画像や音声のデータを生成してヘッドマウントディスプレイ100に送信する。ヘッドマウントディスプレイ100は、当該表示画像や音声のデータを受信し、コンテンツの画像や音声として出力する。この際、コンテンツ処理装置200は、ヘッドマウントディスプレイ100の位置や姿勢の情報を所定のレートでヘッドマウントディスプレイ100から取得し、それに基づきユーザの視点の位置や視線の方向を特定したうえ、対応する視野で表示画像を生成、送信してよい。
The
あるいはコンテンツ処理装置200は、ユーザの周囲にある物やその位置、形状などの情報をヘッドマウントディスプレイ100から取得し、対応する位置に仮想オブジェクトを描画した画像を生成、送信してもよい。例えば送信された仮想オブジェクトを、ヘッドマウントディスプレイ100においてカメラ110の撮影画像と合成して表示することにより、拡張現実や複合現実を実現してもよい。ただしヘッドマウントディスプレイ100が取得した実空間情報を利用する目的は特に限定されない。
Alternatively, the
例えばコンテンツ処理装置200は、ヘッドマウントディスプレイ100の動きをユーザのジェスチャとして取得し、それに応じて、実施する情報処理の内容を決定したり電子ゲームを進捗させたりしてもよい。いずれにしろヘッドマウントディスプレイ100の内部で実空間情報を取得しておくことにより、撮影画像を送信するよりコンテンツ処理装置200へ送信すべきデータのサイズを格段に軽減させることができる。ただし本実施の形態をこれに限定する趣旨ではなく、例えば上述したコンテンツ処理装置200の一部または全部の機能を、ヘッドマウントディスプレイ100に搭載してもよい。あるいは実空間情報を取得する機能を、コンテンツ処理装置200に設けてもよい。
For example, the
本実施の形態ではこのような前提において、ヘッドマウントディスプレイ100が備える機能、あるいはヘッドマウントディスプレイ100に出力されているコンテンツが備える機能に対するユーザ操作を、カメラ110を利用して実現する。図3は本実施の形態における操作手法の例を説明するための図である。(a)においてヘッドマウントディスプレイ100には、図1で示したように4つのカメラ110a、110b、110c、110dが備えられている。
In the present embodiment, under such a premise, the user operation for the function provided by the head-mounted
そのため(b)の上段に示すように、4つの画像フレーム122が所定の撮影レートで取得される。図示する例で4つの画像フレーム122には、ユーザの前にあるテーブルが、カメラの位置に応じた視差を持って写っている。ここで(a)に示すように、ユーザがあるカメラ110dの前に手120をかざすと、(b)の下段に示すように、カメラ110dが撮影する画像フレーム124のみに変化が生じる。すなわち手120によりカメラ110dへの入射光が遮られるため、像が写らなくなったり全体的に輝度が低下したりする。
Therefore, as shown in the upper part of (b), four image frames 122 are acquired at a predetermined shooting rate. In the illustrated example, the four image frames 122 show a table in front of the user with parallax according to the position of the camera. Here, as shown in (a), when the user holds the
ここで「変化」とは、1つのカメラ110dが撮影する動画のフレームにおける時系列での変化でもよいし、同じタイミングで他のカメラ110a、110b、110cが撮影した画像フレームとの差でもよい。あるいはそれらの組み合わせでもよい。それらのパラメータが、変化が生じたと見なされる所定の条件を満たしたとき、ヘッドマウントディスプレイ100は、変化が生じた画像フレームを撮影しているカメラ110dに手120がかざされたことを検出する。そしてヘッドマウントディスプレイ100は、当該カメラ110dの位置にあらかじめ対応づけられた操作内容を特定し、対応する処理を実施する。
Here, the "change" may be a change in a time-series frame of a moving image taken by one
例えばカメラ110dがボリューム調整に対応づけられていれば、ヘッドマウントディスプレイ100は音声のボリュームを調整する。このときヘッドマウントディスプレイ100は、手120がかざされた反復回数やかざされた継続時間によって調整量を変化させてもよい。また図では1つのカメラ110dのみに手がかざされているが、同時に複数のカメラ110に手がかざされたことを検出したら、ヘッドマウントディスプレイ100は、当該カメラ110の位置の組み合わせによって操作内容を判別してもよい。
For example, if the
さらにヘッドマウントディスプレイ100は、カメラ110の前での手120の動きによって操作内容を判別してもよい。またかざす物は手120に限らず、所定の物、あるいは所定の色の物でもよく、何がかざされたか、何色の物がかざされたか、などによって、操作内容のバリエーションを増やしてもよい。
Further, the head-mounted
ユーザは、ヘッドマウントディスプレイ100を装着した状態でも、各カメラ110の位置や視野をおよそ把握できる。また検出条件を適切に設定すれば、ヘッドマウントディスプレイ100は、カメラ110が厳密に覆われていなくても手などがかざされたことを検出できる。したがって、小さいボタンやスイッチを探り当てたり判別したりするのと比較し、ユーザ操作を格段に容易にできる。また、位置姿勢の取得やシースルーモードを目的として、ヘッドマウントディスプレイ100にカメラ110を設ける場合、当該カメラ110を流用できるため、別途操作手段を設けるのと比較しデザイン上の制約が少なく製造コストも抑えられる。
The user can roughly grasp the position and the field of view of each camera 110 even when the head-mounted
図4はヘッドマウントディスプレイ100の内部回路構成を示している。ヘッドマウントディスプレイ100は、CPU50、メインメモリ52、表示部54、音声出力部56を含む。これらの各部はバス58を介して相互に接続されている。バス58にはさらに入出力インターフェース60が接続されている。入出力インターフェース60には、有線又は無線LANのネットワークインターフェースからなる通信部62、モーションセンサ64、および撮像部66が接続される。
FIG. 4 shows the internal circuit configuration of the head-mounted
CPU50は、バス58を介してHMD18の各部から取得した情報を処理し、出力データを表示部54、音声出力部56に供給する。メインメモリ52はCPU50における処理に必要なプログラムやデータを格納する。ただし実行するアプリケーションや装置の設計によっては、コンテンツ処理装置200がほぼ全ての処理を行い、ヘッドマウントディスプレイ100では、コンテンツ処理装置200から送信されたデータを出力するのみで十分な場合がある。この場合、CPU50やメインメモリ52は、より簡易なデバイスで置き換えることができる。
The
表示部54は、液晶パネルや有機ELパネルなどの表示パネルとその制御機構で構成され、ヘッドマウントディスプレイ100を装着したユーザの眼前に画像を表示する。左右の目に対応する領域に一対の視差画像を表示することにより立体視を実現してもよい。音声出力部56は、ヘッドマウントディスプレイ100の装着時にユーザの耳に対応する位置に設けたスピーカーやイヤホンとその制御機構で構成され、ユーザに音声を聞かせる。
The
通信部62は、コンテンツ処理装置200との間で通信を確立し、必要なデータを送受する。モーションセンサ64は、加速度センサ、ジャイロセンサ、地磁気センサなどの少なくともいずれかで構成され、ヘッドマウントディスプレイ100の3次元空間での姿勢や動きを検出する。撮像部66は複数のカメラ110で構成され、実空間を所定のレートで撮影し、適宜補正処理を施すことにより撮影画像を出力する。
The
図5はヘッドマウントディスプレイ100の機能ブロックの構成を示している。図5に示す各機能ブロックは、ハードウェア的には、CPU、GPU、各種メモリ、表示パネル、スピーカー、カメラ、モーションセンサなどの構成で実現でき、ソフトウェア的には、記録媒体などからメモリにロードした、データ入力機能、データ保持機能、画像処理機能、通信機能などの諸機能を発揮するプログラムで実現される。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。
FIG. 5 shows the configuration of the functional block of the head-mounted
ヘッドマウントディスプレイ100は、図4で示した撮像部66、表示部54、および音声出力部56のほか、CPU50、メインメモリ52などで実現される情報処理装置70を備える。情報処理装置70は、撮像部66により撮影された輝度情報のデータを取得する輝度情報取得部72、輝度情報に基づきユーザ操作がなされたことを判定するユーザ操作判定部74、ユーザ操作がなされた際、その操作内容を取得する操作内容取得部76、ユーザ操作に対応する処理を実施する操作処理部78、輝度情報に基づき実空間情報を取得する実空間情報取得部80、実空間情報などに基づきコンテンツを処理するコンテンツ処理部82を含む。
The head-mounted
輝度情報取得部72は、ヘッドマウントディスプレイ100の外面の複数箇所における光の輝度情報を所定のレートで取得する。ここで「輝度情報」は、代表的にはカメラ110により撮影された2次元の画像であるが、複数箇所での光の輝度を表す情報であればその画素数は限定されない。またこれまで述べたようにカメラ110を利用する場合、輝度情報取得部72は、ヘッドマウントディスプレイ100の外面の複数箇所に入射する光の輝度情報(以後、主に撮影画像とする)を取得する。
The brightness
一方、変形例として輝度情報取得部72が、ヘッドマウントディスプレイ100の外面の複数箇所から反射または発光する光の輝度を検出しても、同様のユーザ操作が可能である。この場合、出射光を検出する外部カメラを別途設ける。この態様については後に述べる。ユーザ操作判定部74は、ヘッドマウントディスプレイ100の外面の複数箇所における輝度情報の少なくともいずれかに所定の変化が生じたとき、ユーザ操作がなされたことを判定する。
On the other hand, as a modification, the same user operation can be performed even if the luminance
ここでユーザ操作判定部74は、例えば次のような事象を所定の変化として検出する。
1.カメラ110への入射光が遮られたと見なされる所定の基準を満たしたこと
2.カメラ110の前に所定の物がかざされたと見なされる所定の基準を満たしたこと
3.カメラ110の前に所定の色の物がかざされたと見なされる所定の基準を満たしたこと
4.カメラ110の前にかざされた物が所定の動きをしたと見なされる所定の基準を満たしたこと
Here, the user
1. 1. 2. Satisfying the predetermined criteria that the light incident on the camera 110 is considered to be blocked. 2. Satisfying a predetermined criterion that a predetermined object is considered to be held in front of the camera 110. 2. Satisfying a predetermined criterion that an object of a predetermined color is considered to be held in front of the camera 110. An object held in front of the camera 110 meets a predetermined criterion that is considered to have made a predetermined movement.
上記1としてユーザ操作判定部74は、例えば輝度または輝度の平均値が所定値以上低下したことを検出する。上記2としてユーザ操作判定部74は例えば、ユーザの手、所定のコントローラ、携帯端末、高機能携帯電話などが写ったことを、一般的な画像認識処理により検出する。上記3としてユーザ操作判定部74は、所定の色の物、例えば所定色のカード、携帯端末、高機能携帯電話などが写ったことを、一般的な画像認識処理により検出する。上記4としてユーザ操作判定部74は例えば、一般的な画像解析によって得られるオプティカルフローに基づき、撮像面の水平方向、垂直方向、斜め方向、特定の図形を描く動きなどを検出する。
As the above 1, the user
ここで動きを検出する対象は、上記2または3で検出する物や色のいずれでもよい。そのような対象が、2つ以上のカメラ110の撮影画像に写っているとき、ユーザ操作判定部74はステレオマッチングにより、その3次元空間での動きを求め、それを上記所定の基準と照合してもよい。例えばユーザ操作判定部74は、撮像面に対し手を近づけたり遠ざけたりする動きを検出する。これらの検出処理のため、ユーザ操作判定部74は、輝度の変化量のしきい値、検出すべき物や色、検出すべき動きなど、上記所定基準の登録情報を内部のメモリに保持する。
Here, the object for detecting the movement may be any of the object and the color detected in 2 or 3 above. When such an object is captured in images taken by two or more cameras 110, the user
なお上述のとおりユーザ操作判定部74は、各カメラ110が撮影する画像フレームの時系列的な比較に基づき変化を検出してもよいし、複数のカメラ110が同時に撮影する複数の画像の比較に基づき変化を検出してもよい。あるいはユーザ操作判定部74は、双方を踏まえて変化を検出してもよい。またユーザ操作判定部74は、カメラに所定の物がかざされたうえ、それが所定の動きをしたなど、上記1〜4を適宜組み合わせた事象を検出してもよい。
As described above, the user
さらにユーザ操作判定部74は、上記2〜4を、複数のカメラ110による撮影画像に基づき検出してもよい。例えばユーザ操作判定部74は、所定の携帯端末が複数の撮影画像に写っていると認識した場合、撮影したカメラ110の位置関係と、撮影画像上の携帯端末の像の位置関係に矛盾がないことを確認したうえで、1つの携帯端末がかざされたことを判定する。これにより、1つの撮影画像のみを用いた判定と比較し、元から存在していた周囲の物を、かざされた物として検出するといった誤認識の可能性を低くできる。
Further, the user
操作内容取得部76は、ユーザ操作判定部74によりユーザ操作がなされたことが判定されたとき、検出された変化に対応づけられた操作内容をユーザ操作として取得する。すなわちヘッドマウントディスプレイ100外面の複数箇所のうち、上記1〜4のような基準を満たした位置またはその組み合わせに基づき、操作内容取得部76は、ユーザが意図する操作内容を特定する。このため操作内容取得部76にはあらかじめ、変化が生じた位置やその組み合わせと操作内容とを対応づけて登録しておく。操作内容取得部76が保持する登録情報にはさらに、上記所定基準を満たした物、その色、その動きなど、変化の内容の少なくともいずれかと組み合わせて、操作内容を対応づけておいてもよい。
When it is determined by the user
操作処理部78は、操作内容取得部76が取得した操作内容に対応する処理を実施する。実施する操作の内容は特に限定されず、ヘッドマウントディスプレイ100自体の出力調整や出力制御であってもよいし、コンテンツに対する操作であってもよい。ただし操作処理部78が、従来はスイッチやボタンなどを介して実現されていた、コンテンツ自体の処理とは異なる(コンテンツに依存しない)調整や制御を実施することで、本実施の形態の効果をより高められる。
The
例えば操作処理部78は、ヘッドマウントディスプレイ100の電源オフ、表示パネルの輝度の増減、音声のボリュームの増減、出力対象のコンテンツである動画や楽曲の再生開始、一時停止、早送り、巻き戻し、コンテンツの切り替え、画像ズームアップやズームダウンなどを実施する。操作処理部78は実施する処理に応じて、表示部54、音声出力部56などの出力状態を調整する。操作処理部78は、ヘッドマウントディスプレイ100の装着バンド106の長さ調整、左右の接眼レンズの間隔調整、左目用/右目用の表示画像の間隔調整などを実施してもよい。いずれにしろこれらの調整や制御を実現する手法は、スイッチやボタンなどを用いた一般的なものと同様でよい。
For example, the
実空間情報取得部80は、カメラ110による撮影画像の少なくともいずれかを用いて、表示画像などコンテンツの出力データの生成に必要な実空間に係る情報を取得する。実空間情報とは上述のとおり、ヘッドマウントディスプレイの位置や姿勢、ユーザの周囲にある物との位置関係など、コンテンツの画像や音声自体のデータ生成に影響を与える情報であり、ユーザ操作判定部74が検出する、「所定の変化」が生じていない状態の撮影画像から得られる。
The real space
したがってユーザ操作判定部74は、撮影画像に所定の変化が生じているか否かを判別し、生じていない撮影画像のデータを、実空間情報取得部80に順次供給する。カメラ110を複数設け、同時に複数の撮影画像を得ることにより、そのうちの一部にユーザ操作による変化が生じても、その他の撮影画像を用いて実空間情報を取得し続けることができる。例えば実空間情報取得部80は、ユーザの手がかざされるなどして周囲の物が写っていない撮影画像以外の撮影画像を解析することにより、実空間情報を取得する。実空間情報取得部80はさらに、モーションセンサ64の出力値を利用して、実空間情報の精度を高めてもよい。
Therefore, the user
コンテンツ処理部82は、実空間情報を用いて、コンテンツとして規定されている処理を実施し、表示画像や出力音声を取得する。例えばコンテンツ処理部82は、実空間情報取得部80が取得したヘッドマウントディスプレイ100の姿勢に対応する視野で表示画像を生成する。あるいは撮影画像に写る周囲の物を、その3次元空間での位置や姿勢を反映させた仮想オブジェクトに置換した表示画像を生成する。この場合、コンテンツ処理部82は、実空間情報取得部80から撮影画像を取得し、仮想オブジェクトを重畳描画する。
The
そのほか、実空間情報をコンテンツの表示画像や音声に反映させる態様には様々なものがあることは当業者には理解されるところである。なお実空間情報取得部80は、取得した実空間情報をコンテンツ処理装置200に送信し、コンテンツ処理装置200において表示画像や音声のデータを生成するようにしてもよい。この場合、コンテンツ処理部82は、コンテンツ処理装置200から取得した表示画像や音声のデータに必要な補正処理を施すのみでもよい。
In addition, those skilled in the art will understand that there are various modes in which real space information is reflected in the displayed image and sound of the content. The real space
例えばコンテンツ処理部82は、ヘッドマウントディスプレイ100が備える接眼レンズに対応する歪みを表示画像に与えるなどの処理を実施してもよい。コンテンツ処理部82は、表示画像のデータと出力音声のデータを、表示部54と音声出力部56にそれぞれ供給することにより、コンテンツの画像を表示させたり音声を出力させたりする。このように、通常時はコンテンツデータの生成に用いるカメラ110を、ユーザ操作にも利用することにより、製造コストを増加させることなく容易かつ多様なユーザ操作を実現できる。
For example, the
ただしカメラ110の用途をそれらに限定する趣旨ではなく、場合によってはユーザ操作のために複数のカメラ110、あるいは輝度検出装置を設けるようにしてもよい。またコンテンツの生成に実空間情報を用いない場合、実空間情報取得部80の機能を省略できる。これらの場合も、ユーザはスイッチを手探りしたり、装着していたヘッドマウントディスプレイ100を外して調整したりする手間をかけることなく、コンテンツを楽しみながら容易に操作できる。なお情報処理装置70の一部または全ての機能は、コンテンツ処理装置200に設けてもよい。
However, the purpose of the camera 110 is not limited to those, and in some cases, a plurality of cameras 110 or a brightness detection device may be provided for user operation. Further, when the real space information is not used for generating the content, the function of the real space
次に、これまで述べた構成によって実現できる情報処理装置70の動作について説明する。図6は、情報処理装置70がユーザ操作に対応しつつコンテンツを処理する手順を示すフローチャートである。このフローチャートはユーザが、電源が入った状態のヘッドマウントディスプレイ100を装着した状態で開始される。まず輝度情報取得部72は、ヘッドマウントディスプレイ100の複数箇所における輝度情報を取得する(S10)。複数のカメラ110により2次元の撮影画像を取得する場合、輝度情報取得部72はこのステップにおいて、それぞれが撮影する動画像の1フレーム目のデータを取得する。
Next, the operation of the
するとユーザ操作判定部74は、輝度情報の少なくともいずれかに、上述したような所定の変化が生じているか否かを確認する(S12)。所定の変化が生じていなければ(S12のN)、実空間情報取得部80は当該輝度情報(撮影画像)を解析して実空間情報を取得し、コンテンツ処理部82がそれを用いてコンテンツを処理し出力データを取得する(S18)。取得された表示画像や音声のデータは表示部54や音声出力部56から適宜出力される。輝度情報の少なくともいずれかに所定の変化が生じていたら(S12のY)、操作内容取得部76は、当該変化が生じているカメラの位置、位置の組み合わせ、変化の内容、の少なくともいずれかに対応づけられた操作内容を取得する(S14)。
Then, the user
そして操作処理部78は、S14で取得された操作内容に対応する処理を実施する(S16)。この場合も実空間情報取得部80は、変化が生じていない撮影画像を解析して実空間情報を取得し、コンテンツ処理部82がそれを用いてコンテンツを処理する(S18)。コンテンツが終了したり、ユーザが処理を停止させる操作を行ったりして、コンテンツの処理を終了させる必要がなければ(S20のN)、次に取得された輝度情報に基づきS12からS18の処理を繰り返す。
Then, the
ただし一旦、S12において変化が生じていることが判定されたあと、その状態が継続している間は、S12、S14の処理をスキップして、S16の、操作に対応する処理を継続して行う。これらの処理により、ユーザ操作の有無に関わらずコンテンツの画像や音声は出力され続け、その一方で、ユーザ操作に対応する調整や制御がなされる。そしてコンテンツの処理を終了させる必要が生じたら、全処理を終了させる(S20のY)。 However, once it is determined that a change has occurred in S12, the processing of S12 and S14 is skipped and the processing corresponding to the operation of S16 is continued while the state continues. .. By these processes, the image and sound of the content are continuously output regardless of the presence or absence of the user operation, and on the other hand, the adjustment and the control corresponding to the user operation are performed. Then, when it becomes necessary to end the processing of the content, all the processing is ended (Y in S20).
図7は、操作内容取得部76が内部で保持する、輝度情報の変化と操作内容とを対応づけた情報を例示している。この例では、図1と同様、カメラA、B、C、Dの4つのカメラを備えたヘッドマウントディスプレイ100を想定している。また上記1のとおり、ユーザの手によりカメラへの入射光が遮られたことをユーザ操作と判定する場合の一例を示している。図示するユーザ操作対応情報90において、入射光が遮られているカメラを塗りつぶしで示している。ただし情報の形式を限定する趣旨ではない。また上述のとおり、輝度の低減量に対ししきい値を設定することで手がかざされていることが判明すれば、入射光が完全に遮蔽されている必要はない。
FIG. 7 exemplifies the information that the operation
例えば、カメラAへの入射光が遮られたことを、音声のボリュームアップと対応づけ、カメラBへの入射光が遮られたことを、音声のボリュームダウンと対応づけている。またカメラCへの入射光が遮られたことを、表示パネルの輝度アップと対応づけ、カメラDへの入射光が遮られたことを、表示パネルの輝度ダウンと対応づけている。これらの場合、遮られている状態の継続時間に応じてボリュームや輝度を徐々に変化させていってもよい。 For example, blocking the incident light on the camera A is associated with increasing the volume of the sound, and blocking the incident light on the camera B is associated with decreasing the volume of the sound. Further, the fact that the incident light to the camera C is blocked corresponds to the increase in the brightness of the display panel, and the fact that the incident light to the camera D is blocked corresponds to the decrease in the brightness of the display panel. In these cases, the volume and brightness may be gradually changed according to the duration of the blocked state.
またカメラAとBへの入射光が遮られたことを、コンテンツの再生開始と解釈し、カメラBとCへの入射光が遮られたことを、一時停止と解釈する。さらにカメラCとDへの入射光が遮られたことを、コンテンツの早送りと解釈し、カメラDとAへの入射光が遮られたことを、コンテンツの巻き戻しと解釈する。この場合も、遮られている状態の継続時間に応じて早送りや巻き戻しの量を徐々に増やしていってもよい。なお図示する例では、入射光が同時に遮られたカメラの数を最大2つとしたが、それに限る趣旨ではない。 Further, the interruption of the incident light to the cameras A and B is interpreted as the start of playback of the content, and the interruption of the incident light to the cameras B and C is interpreted as the pause. Further, blocking the incident light on the cameras C and D is interpreted as fast-forwarding the content, and blocking the incident light on the cameras D and A is interpreted as rewinding the content. In this case as well, the amount of fast forward and rewind may be gradually increased according to the duration of the blocked state. In the illustrated example, the maximum number of cameras in which the incident light is blocked at the same time is two, but the purpose is not limited to this.
このようにカメラ110に手をかざすような単純な動作であっても、複数のカメラ110を利用することにより、多様な操作が可能となる。また入射光が完全に遮られなくとも操作がなされたことを判定できるため、スイッチを探り当てるような正確な動作の必要がない。なお上述のとおり、かざされた物や色、動きなどを操作内容に対応づけることにより、容易な動作で操作内容をさらに細分化できる。 Even with such a simple operation of holding a hand over the camera 110, various operations can be performed by using the plurality of cameras 110. Moreover, since it can be determined that the operation has been performed even if the incident light is not completely blocked, there is no need for an accurate operation such as finding a switch. As described above, by associating the held object, color, movement, etc. with the operation content, the operation content can be further subdivided by a simple operation.
図8は、ヘッドマウントディスプレイ100の外面の複数箇所からの光の輝度情報の変化に基づきユーザ操作を判定する態様を説明するための図である。この場合のヘッドマウントディスプレイ100aは、図1で説明したヘッドマウントディスプレイ100のカメラ110a、110b、110c、110dの代わりに、発光体130a、130b、130c、130dを備える。ただしこの場合も、発光体の数や配置は限定されない。この場合、ヘッドマウントディスプレイ100aを外部から撮影するカメラ12をシステムに組み入れ、情報処理装置70の輝度情報取得部72は、当該カメラ12が所定のレートで撮影するヘッドマウントディスプレイ100aの画像を順次取得する。
FIG. 8 is a diagram for explaining a mode in which a user operation is determined based on changes in brightness information of light from a plurality of locations on the outer surface of the head-mounted
なおカメラ12は、図示する例ではステレオカメラとしているが、ヘッドマウントディスプレイ100の実空間での位置を特定するなど他の目的がなければ、単眼のカメラとしてもよい。そしてユーザ操作判定部74は当該撮影画像を解析し、発光体130a、130b、130c、130dの少なくともいずれかがユーザの手で隠されたことを、像(輝度情報)の変化に基づき検出する。例えばユーザ操作判定部74は、発光体130a、130b、130c、130dの像を一般的な視覚追跡技術により追跡し、像が消失して追跡できなくなった発光体があれば、ユーザの手で隠されたと判定する。
Although the camera 12 is a stereo camera in the illustrated example, it may be a monocular camera if there is no other purpose such as specifying the position of the head-mounted
この場合も、操作内容取得部76は、図7で示したのと同様の情報を参照して、手で隠された発光体の位置やその組み合わせに基づき、操作内容を決定できる。なお自らが発光する発光体130a、130b、130c、130dの代わりに、入射光を反射させる反射部材をヘッドマウントディスプレイ100の複数箇所に設けてもよい。当該反射部材は、環境光を高効率で反射させるためのものでもよいし、赤外線など所定の波長帯の光を外部から照射し、それを反射させるものでもよい。
In this case as well, the operation
この場合も発光体と同様に、カメラ12の撮影画像における輝度の変化に基づきユーザ操作を判定できる。これらの態様は、ユーザ操作のない期間には発光体や反射部材が全て撮影画像に写っていることが前提となるため、ヘッドマウントディスプレイ100を装着したユーザがカメラ12に正対した状態が継続するようなコンテンツには有効である。
In this case as well, the user operation can be determined based on the change in brightness in the image captured by the camera 12, as in the case of the light emitting body. Since it is premised that all the light emitting bodies and the reflecting members are shown in the captured image during the period when there is no user operation, the user wearing the head-mounted
以上述べた本実施の形態によれば、ヘッドマウントディスプレイの外面の複数箇所における輝度情報の変化を検出し、所定の変化が生じた位置やその組み合わせに基づきユーザ操作の内容を取得する。これにより、スイッチやボタンなどを探り当てたり判別したりする手間なく、単純な動作で多様な操作が可能になる。結果として、デザイン制約が少なく使い勝手のよいヘッドマウントディスプレイを実現できる。 According to the present embodiment described above, changes in the luminance information at a plurality of locations on the outer surface of the head-mounted display are detected, and the content of the user operation is acquired based on the positions where the predetermined changes occur and their combinations. As a result, various operations can be performed with simple operations without the trouble of finding and distinguishing switches and buttons. As a result, it is possible to realize an easy-to-use head-mounted display with few design restrictions.
また、表示させる画像の視野を決定したり、コンテンツの画像を生成したりするのに必要な情報を、ヘッドマウントディスプレイが備えるカメラによる撮影画像から取得するシステムにおいては、当該撮影画像をそのまま利用できるため、製造コストを抑えることができる。そのような目的では通常、複数のカメラが設けられることが多いため、一部がユーザ操作に使用されても、コンテンツ処理に必要な情報を並行して取得できる。 In addition, in a system that acquires information necessary for determining the field of view of an image to be displayed and generating an image of contents from an image captured by a camera provided in a head-mounted display, the captured image can be used as it is. Therefore, the manufacturing cost can be suppressed. For such purposes, a plurality of cameras are usually provided, so that even if some of them are used for user operations, information necessary for content processing can be acquired in parallel.
このときヘッドマウントディスプレイに対し非接触でユーザ操作を行えるため、スイッチ操作などで振動が生じる場合と比較し、姿勢追跡などの精度への影響を最小限にでき、コンテンツ出力の正常動作を妨げる可能性を抑えられる。また複数のカメラによる撮影画像を利用すれば、カメラにかざされた物の誤認識が少なく、ユーザ操作の判定を高精度に行える。 At this time, since the user can operate the head-mounted display without contacting it, the effect on accuracy such as posture tracking can be minimized compared to the case where vibration occurs due to switch operation, etc., which can interfere with the normal operation of content output. Sex can be suppressed. Further, if the images taken by a plurality of cameras are used, there is less erroneous recognition of the object held by the cameras, and the user operation can be determined with high accuracy.
以上、本発明を実施の形態をもとに説明した。上記実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。 The present invention has been described above based on the embodiments. The above-described embodiment is an example, and it is understood by those skilled in the art that various modifications are possible for each of these components and combinations of each processing process, and that such modifications are also within the scope of the present invention. is there.
50 CPU、 52 メインメモリ、 54 表示部、 56 音声出力部、 60 入出力インターフェース、 62 通信部、 64 モーションセンサ、 66 撮像部、 70 情報処理装置、 72 輝度情報取得部、 74 ユーザ操作判定部、 76 操作内容取得部、 78 操作処理部、 80 実空間情報取得部、 82 コンテンツ処理部、 100 ヘッドマウントディスプレイ、 110 カメラ、 130a 発光体、 200 コンテンツ処理装置。 50 CPU, 52 main memory, 54 display unit, 56 audio output unit, 60 input / output interface, 62 communication unit, 64 motion sensor, 66 imaging unit, 70 information processing device, 72 brightness information acquisition unit, 74 user operation judgment unit, 76 Operation content acquisition unit, 78 Operation processing unit, 80 Real space information acquisition unit, 82 Content processing unit, 100 Head mount display, 110 camera, 130a light emitter, 200 Content processing device.
Claims (15)
前記複数箇所における輝度情報の少なくともいずれかに所定の変化が生じたとき、ユーザ操作がなされたことを判定するユーザ操作判定部と、
ユーザ操作がなされたことが判定されたとき、前記輝度情報の変化に対応づけられた操作内容をユーザ操作として取得する操作内容取得部と、
前記操作内容に対応する処理を実施する操作処理部と、
を備えたことを特徴とする情報処理装置。 A brightness information acquisition unit that acquires light brightness information at multiple locations on the outer surface of the head-mounted display,
A user operation determination unit that determines that a user operation has been performed when a predetermined change occurs in at least one of the luminance information at the plurality of locations.
When it is determined that a user operation has been performed, an operation content acquisition unit that acquires the operation content associated with the change in the luminance information as a user operation, and an operation content acquisition unit.
An operation processing unit that executes processing corresponding to the operation content, and
An information processing device characterized by being equipped with.
前記操作内容取得部は、前記複数箇所のうち前記撮影画像が前記所定の基準を満たした位置またはその組み合わせに基づき操作内容を取得することを特徴とする請求項2または3に記載の情報処理装置。 The user operation determination unit determines that the user operation has been performed when at least one of the captured images satisfies a predetermined criterion in which the light incident on the camera is considered to be blocked.
The information processing apparatus according to claim 2 or 3, wherein the operation content acquisition unit acquires operation content based on a position or a combination thereof in which the captured image satisfies the predetermined criteria among the plurality of locations. ..
前記操作内容取得部は、前記複数箇所のうち前記撮影画像が前記所定の基準を満たした位置またはその組み合わせ、およびかざされた物に基づき操作内容を取得することを特徴とする請求項2または3に記載の情報処理装置。 The user operation determination unit determines that the user operation has been performed when at least one of the captured images satisfies a predetermined criterion in which a predetermined object is considered to be held in front of the camera.
Claim 2 or 3 characterized in that the operation content acquisition unit acquires operation content based on a position or a combination thereof in which the captured image satisfies the predetermined criteria among the plurality of locations, and an object held over. The information processing device described in.
前記操作内容取得部は、前記複数箇所のうち前記撮影画像が前記所定の基準を満たした位置またはその組み合わせ、およびかざされた物の色に基づき操作内容を取得することを特徴とする請求項2または3に記載の情報処理装置。 The user operation determination unit determines that the user operation has been performed when at least one of the captured images satisfies a predetermined criterion in which an object of a predetermined color is considered to be held in front of the camera.
2. The operation content acquisition unit is characterized in that the operation content acquisition unit acquires the operation content based on the position or combination thereof in which the photographed image satisfies the predetermined criteria among the plurality of locations and the color of the object held over. Or the information processing apparatus according to 3.
前記操作内容取得部はさらに、前記動きに基づき操作内容を取得することを特徴とする請求項5または6に記載の情報処理装置。 The user operation determination unit determines that the user operation has been performed when at least one of the captured images satisfies a predetermined criterion in which an object held in front of the camera is considered to have made a predetermined movement. ,
The information processing device according to claim 5 or 6, wherein the operation content acquisition unit further acquires operation content based on the movement.
前記ユーザ操作判定部は、前記画像における前記発光体または反射部材の像の輝度情報の少なくともいずれかに所定の変化が生じたとき、ユーザ操作がなされたことを判定することを特徴とする請求項1に記載の情報処理装置。 The luminance information acquisition unit acquires an image of the head-mounted display provided with light emitters or reflective members at a plurality of locations from an external camera.
The user operation determination unit is characterized in that it determines that a user operation has been performed when at least one of the luminance information of the image of the light emitting body or the reflective member in the image has changed. The information processing apparatus according to 1.
前記複数箇所にそれぞれ配置され、前記輝度情報として画像を撮影するカメラと、
前記操作処理部によって制御される出力装置と、
を備えたことを特徴とするヘッドマウントディスプレイ。 The information processing device according to any one of claims 1 to 12 and
A camera that is arranged at each of the plurality of locations and captures an image as the luminance information,
An output device controlled by the operation processing unit and
A head-mounted display featuring.
前記複数箇所における輝度情報の少なくともいずれかに所定の変化が生じたとき、ユーザ操作がなされたことを判定するステップと、
ユーザ操作がなされたことが判定されたとき、前記輝度情報の変化に対応づけられた操作内容をユーザ操作として取得するステップと、
前記操作内容に対応する処理を実施するステップと、
を含むことを特徴とする情報処理装置によるユーザ操作処理方法。 A step of acquiring light brightness information at multiple locations on the outer surface of a head-mounted display at a predetermined rate,
A step of determining that a user operation has been performed when a predetermined change occurs in at least one of the luminance information at the plurality of locations, and a step of determining that the user operation has been performed.
When it is determined that a user operation has been performed, a step of acquiring the operation content associated with the change in the luminance information as a user operation, and
The step of executing the process corresponding to the operation content and
A user operation processing method by an information processing device, which comprises.
前記複数箇所における輝度情報の少なくともいずれかに所定の変化が生じたとき、ユーザ操作がなされたことを判定する機能と、
ユーザ操作がなされたことが判定されたとき、前記輝度情報の変化に対応づけられた操作内容をユーザ操作として取得する機能と、
前記操作内容に対応する処理を実施する機能と、
をコンピュータに実現させることを特徴とするコンピュータプログラム。 A function to acquire light brightness information at multiple locations on the outer surface of the head-mounted display at a predetermined rate,
A function for determining that a user operation has been performed when a predetermined change occurs in at least one of the luminance information at the plurality of locations, and a function for determining that a user operation has been performed.
When it is determined that a user operation has been performed, a function to acquire the operation content associated with the change in the luminance information as a user operation, and
A function to perform processing corresponding to the above operation contents and
A computer program characterized by realizing a computer.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019194524A JP2021068296A (en) | 2019-10-25 | 2019-10-25 | Information processing device, head-mounted display, and user operation processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019194524A JP2021068296A (en) | 2019-10-25 | 2019-10-25 | Information processing device, head-mounted display, and user operation processing method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021068296A true JP2021068296A (en) | 2021-04-30 |
Family
ID=75637318
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019194524A Pending JP2021068296A (en) | 2019-10-25 | 2019-10-25 | Information processing device, head-mounted display, and user operation processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021068296A (en) |
-
2019
- 2019-10-25 JP JP2019194524A patent/JP2021068296A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10009542B2 (en) | Systems and methods for environment content sharing | |
US9411160B2 (en) | Head mounted display, control method for head mounted display, and image display system | |
US10142618B2 (en) | Imaging apparatus and imaging method | |
US8912980B2 (en) | Image processing device, image processing method, and image processing system | |
JP7408678B2 (en) | Image processing method and head mounted display device | |
CN110506249B (en) | Information processing apparatus, information processing method, and recording medium | |
CN108535868B (en) | Head-mounted display device and control method thereof | |
JP6845111B2 (en) | Information processing device and image display method | |
KR20180002534A (en) | External imaging system, external imaging method, external imaging program | |
JP6094305B2 (en) | Head-mounted display device and method for controlling head-mounted display device | |
JP7218376B2 (en) | Eye-tracking method and apparatus | |
CN110895433B (en) | Method and apparatus for user interaction in augmented reality | |
WO2017022769A1 (en) | Head-mounted display, display control method and program | |
EP3402410B1 (en) | Detection system | |
KR20190038296A (en) | Image display system, image display method, and image display program | |
WO2020189450A1 (en) | Device provided with plurality of markers | |
US9866823B2 (en) | Head mounted display device, control method for head mounted display device, and computer program | |
US11094109B2 (en) | Data processing | |
JP2021068296A (en) | Information processing device, head-mounted display, and user operation processing method | |
JP2017183857A (en) | Head-mounted display device, control method for head-mounted display device, and computer program | |
WO2017163649A1 (en) | Image processing device | |
JP6705929B2 (en) | Display control device and display control method | |
JP2020177283A (en) | Device with plurality of markers | |
WO2018096315A1 (en) | Virtual reality | |
GB2515131A (en) | Head-mountable apparatus and systems |