JP2021068296A - Information processing device, head-mounted display, and user operation processing method - Google Patents

Information processing device, head-mounted display, and user operation processing method Download PDF

Info

Publication number
JP2021068296A
JP2021068296A JP2019194524A JP2019194524A JP2021068296A JP 2021068296 A JP2021068296 A JP 2021068296A JP 2019194524 A JP2019194524 A JP 2019194524A JP 2019194524 A JP2019194524 A JP 2019194524A JP 2021068296 A JP2021068296 A JP 2021068296A
Authority
JP
Japan
Prior art keywords
user operation
head
mounted display
information
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019194524A
Other languages
Japanese (ja)
Inventor
渉一 池上
Shoichi Ikegami
渉一 池上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment LLC
Original Assignee
Sony Interactive Entertainment LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment LLC filed Critical Sony Interactive Entertainment LLC
Priority to JP2019194524A priority Critical patent/JP2021068296A/en
Publication of JP2021068296A publication Critical patent/JP2021068296A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide a user interface that is easy to operate even when a head-mounted display is attached.SOLUTION: In an information processing device 70 of a head-mounted display 100, an illuminance information acquisition unit 72 acquires illuminance information at a plurality of locations on the outer surface of the head-mounted display 100. A user operation determination unit 74 determines that a user operation has been performed when a predetermined change occurs in the luminance information. An operation content acquisition unit 76 acquires operation content associated with the change in the luminance information as a user operation, and an operation processing unit 78 executes processing corresponding to the acquired operation content.SELECTED DRAWING: Figure 5

Description

本発明は、ヘッドマウントディスプレイを装着したユーザの操作に対応する処理を実施する情報処理装置、ヘッドマウントディスプレイ、およびユーザ操作処理方法に関する。 The present invention relates to an information processing device that performs processing corresponding to the operation of a user wearing a head-mounted display, a head-mounted display, and a user operation processing method.

ヘッドマウントディスプレイを装着したユーザの頭部の動きを検出し、それに対応する視野で表示対象の空間を表すことにより、臨場感のある画像世界を表現できるシステムが普及している。また、ヘッドマウントディスプレイを装着したユーザが物理的に移動することで、映像として表示された空間内を仮想的に歩き回ることのできるウォークスルーシステムも開発されている。 A system that can express a realistic image world by detecting the movement of the head of a user wearing a head-mounted display and expressing the space to be displayed in the corresponding field of view has become widespread. In addition, a walk-through system has also been developed that allows a user wearing a head-mounted display to virtually walk around in the space displayed as an image by physically moving.

外界の光を遮蔽するヘッドマウントディスプレイは、表示世界への没入感を高められる一方、装着したままでは実世界が見えず、ユーザが周囲の物を持ったり操作したりするのが難しい。例えばコンテンツを楽しんでいるユーザが、音声のボリュームや表示パネルの輝度を調整したいと考えても、一般的なスイッチやボタンによる調整では手探りでの操作となり容易でない。操作を容易にしたり、調整可能な対象を増やしたりするには、スイッチ等を大きくしたり数を増やしたりすることが考えられるが、そのような操作手段をヘッドマウントディスプレイ自体に設ける場合は特に、デザイン上の制約が増える点で好ましくない。 A head-mounted display that shields the light of the outside world enhances the immersive feeling in the display world, but it is difficult for the user to hold or operate surrounding objects because the real world cannot be seen while wearing it. For example, even if a user who enjoys content wants to adjust the volume of audio and the brightness of the display panel, adjustment with general switches and buttons is not easy because it is a fumbling operation. In order to facilitate the operation and increase the number of adjustable objects, it is conceivable to increase the size or number of switches, etc., but especially when such an operation means is provided on the head-mounted display itself. It is not preferable because it increases design restrictions.

本発明はこうした課題に鑑みてなされたものであり、その目的は、ヘッドマウントディスプレイを装着しても操作が容易なユーザインターフェースを提供することにある。本発明の別の目的は、ヘッドマウントディスプレイのデザイン制約を増やすことなく多様な操作を可能とする技術を提供することにある。 The present invention has been made in view of these problems, and an object of the present invention is to provide a user interface that is easy to operate even when a head-mounted display is attached. Another object of the present invention is to provide a technique that enables various operations without increasing the design restrictions of the head-mounted display.

本発明のある態様は情報処理装置に関する。この情報処理装置は、ヘッドマウントディスプレイ外面の複数箇所における光の輝度情報を取得する輝度情報取得部と、複数箇所における輝度情報の少なくともいずれかに所定の変化が生じたとき、ユーザ操作がなされたことを判定するユーザ操作判定部と、ユーザ操作がなされたことが判定されたとき、輝度情報の変化に対応づけられた操作内容をユーザ操作として取得する操作内容取得部と、操作内容に対応する処理を実施する操作処理部と、を備えたことを特徴とする。 One aspect of the present invention relates to an information processing device. In this information processing device, a user operation is performed when a predetermined change occurs in at least one of the luminance information acquisition unit that acquires the luminance information of light at a plurality of locations on the outer surface of the head mount display and the luminance information at the plurality of locations. Corresponds to the user operation determination unit that determines that, the operation content acquisition unit that acquires the operation content associated with the change in the luminance information as the user operation when it is determined that the user operation has been performed, and the operation content. It is characterized by including an operation processing unit for performing processing.

本発明の別の態様はヘッドマウントディスプレイに関する。このヘッドマウントディスプレイは、上記情報処理装置と、複数箇所にそれぞれ配置され、輝度情報として画像を撮影する複数のカメラと、操作処理部によって調整される表示部および音声出力部と、を備えたことを特徴とする。 Another aspect of the invention relates to a head-mounted display. This head-mounted display includes the above-mentioned information processing device, a plurality of cameras arranged at a plurality of locations and capturing images as luminance information, and a display unit and an audio output unit adjusted by an operation processing unit. It is characterized by.

本発明のさらに別の態様はユーザ操作処理方法に関する。このユーザ操作処理方法は、ヘッドマウントディスプレイ外面の複数箇所における光の輝度情報を所定のレートで取得するステップと、複数箇所における輝度情報の少なくともいずれかに所定の変化が生じたとき、ユーザ操作がなされたことを判定するステップと、ユーザ操作がなされたことが判定されたとき、輝度情報の変化に対応づけられた操作内容をユーザ操作として取得するステップと、操作内容に対応する処理を実施するステップと、を含むことを特徴とする。 Yet another aspect of the present invention relates to a user operation processing method. In this user operation processing method, when a predetermined change occurs in at least one of a step of acquiring light luminance information at a plurality of locations on the outer surface of the head-mounted display at a predetermined rate and at least one of the luminance information at the plurality of locations, the user operation is performed. A step of determining that the operation has been performed, a step of acquiring the operation content associated with the change in the luminance information as a user operation when it is determined that the user operation has been performed, and a process corresponding to the operation content are executed. It is characterized by including steps.

なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、コンピュータプログラム、コンピュータプログラムを記録した記録媒体などの間で変換したものもまた、本発明の態様として有効である。 It should be noted that any combination of the above components and the conversion of the expression of the present invention between a method, a device, a system, a computer program, a recording medium on which a computer program is recorded, and the like are also effective as aspects of the present invention. ..

本発明によると、デザイン上の制約を増やすことなく、ヘッドマウントディスプレイを装着した状態でのユーザ操作を容易にする。 According to the present invention, the user operation with the head-mounted display attached is facilitated without increasing design restrictions.

本実施の形態のヘッドマウントディスプレイの外観例を示す図である。It is a figure which shows the appearance example of the head-mounted display of this embodiment. 本実施の形態を適用できるコンテンツ処理システムの構成例を示す図である。It is a figure which shows the configuration example of the content processing system to which this embodiment can be applied. 本実施の形態における操作手法の例を説明するための図である。It is a figure for demonstrating the example of the operation method in this Embodiment. 本実施の形態におけるヘッドマウントディスプレイの内部回路構成を示す図である。It is a figure which shows the internal circuit structure of the head mounted display in this embodiment. 本実施の形態におけるヘッドマウントディスプレイの機能ブロックの構成を示す図である。It is a figure which shows the structure of the functional block of the head-mounted display in this embodiment. 本実施の形態において、情報処理装置がユーザ操作に対応しつつコンテンツを処理する手順を示すフローチャートである。In this embodiment, it is a flowchart which shows the procedure which an information processing apparatus processes a content while corresponding to a user operation. 本実施の形態において操作内容取得部が内部で保持する、輝度情報の変化と操作内容とを対応づけた情報を例示する図である。It is a figure which illustrates the information which corresponded with the change of the luminance information and the operation content, which is held internally by the operation content acquisition part in this embodiment. 本実施の形態において、ヘッドマウントディスプレイの外面の複数箇所からの光の輝度情報の変化に基づきユーザ操作を判定する態様を説明するための図である。In this embodiment, it is a figure for demonstrating the mode of determining a user operation based on the change of the brightness information of light from a plurality of places on the outer surface of a head-mounted display.

図1はヘッドマウントディスプレイ100の外観例を示す。この例においてヘッドマウントディスプレイ100は、出力機構部102および装着機構部104で構成される。装着機構部104は、ユーザが被ることにより頭部を一周し装置の固定を実現する装着バンド106を含む。出力機構部102は、ヘッドマウントディスプレイ100をユーザが装着した状態において左右の目を覆うような形状の筐体108を含み、内部には装着時に目に正対するように表示パネルを備える。 FIG. 1 shows an example of the appearance of the head-mounted display 100. In this example, the head-mounted display 100 is composed of an output mechanism unit 102 and a mounting mechanism unit 104. The mounting mechanism unit 104 includes a mounting band 106 that goes around the head and realizes fixing of the device when the user wears it. The output mechanism 102 includes a housing 108 having a shape that covers the left and right eyes when the head-mounted display 100 is worn by the user, and includes a display panel inside so as to face the eyes when the head-mounted display 100 is worn.

筐体108内部にはさらに、ヘッドマウントディスプレイ100の装着時に表示パネルとユーザの目との間に位置し、画像を拡大して見せる接眼レンズを備える。またヘッドマウントディスプレイ100はさらに、装着時にユーザの耳に対応する位置にスピーカーやイヤホンを備えてよい。またヘッドマウントディスプレイ100は、加速度センサ、ジャイロセンサ、地磁気センサなどのモーションセンサを内蔵し、ヘッドマウントディスプレイ100を装着したユーザの頭部の並進運動や回転運動、ひいては各時刻の位置や姿勢を検出してもよい。 Further, the inside of the housing 108 is provided with an eyepiece located between the display panel and the user's eyes when the head-mounted display 100 is attached to magnify the image. Further, the head-mounted display 100 may further include a speaker or an earphone at a position corresponding to the user's ear when worn. The head-mounted display 100 also incorporates motion sensors such as an acceleration sensor, a gyro sensor, and a geomagnetic sensor, and detects the translational motion and rotational motion of the head of the user wearing the head-mounted display 100, as well as the position and posture at each time. You may.

ヘッドマウントディスプレイ100はさらに、筐体108の前面にカメラ110a、110b、110c、110dを備え、ユーザの顔の向きに対応する視野で周囲の実空間を動画撮影する。カメラ110a、110b、110c、110dの数や配置は特に限定されないが、図示する例では、出力機構部102の筐体108前面の4隅に設けている。以後、カメラ110a、110b、110c、110dをカメラ110と総称する場合がある。ある態様においてヘッドマウントディスプレイ100は、カメラ110が撮影した動画像を即時表示させることにより、ユーザが向いた方向の実空間の様子をそのまま見せるシースルーモードを提供する。 The head-mounted display 100 further includes cameras 110a, 110b, 110c, and 110d on the front surface of the housing 108, and captures a moving image of the surrounding real space with a field of view corresponding to the orientation of the user's face. The number and arrangement of the cameras 110a, 110b, 110c, and 110d are not particularly limited, but in the illustrated example, they are provided at the four corners of the front surface of the housing 108 of the output mechanism 102. Hereinafter, the cameras 110a, 110b, 110c, and 110d may be collectively referred to as the camera 110. In a certain aspect, the head-mounted display 100 provides a see-through mode in which a moving image taken by the camera 110 is immediately displayed to show the state of the real space in the direction in which the user is facing.

ヘッドマウントディスプレイ100はさらに、カメラ110による撮影画像を解析することにより、ヘッドマウントディスプレイ100自体の位置や姿勢、ひいてはユーザ頭部の位置や姿勢、および周囲にある物の存在や形状、位置などの少なくともいずれかの情報を所定のレートで取得する。以後、これらの情報を「実空間情報」と総称する。撮影画像などのセンシング結果を解析することにより実空間情報を得る技術として、SLAM(Simultaneous Localization and Mapping)がある。 The head-mounted display 100 further analyzes the image captured by the camera 110 to determine the position and posture of the head-mounted display 100 itself, the position and posture of the user's head, and the existence, shape, and position of surrounding objects. Acquire at least one of the information at a predetermined rate. Hereinafter, this information is collectively referred to as "real space information". SLAM (Simultaneous Localization and Mapping) is a technique for obtaining real space information by analyzing sensing results such as captured images.

撮影画像を用いたSLAMは、複数視点からの撮影画像に写る同じ実物体の像の位置関係から当該実物体の3次元での位置を推定する処理と、位置が推定された実物体の像の撮影画像上での位置に基づきカメラの位置や姿勢を推定する処理とを繰り返すことにより、環境地図を作成しながらカメラの位置や姿勢を取得していく手法である。そのようにして撮影画像から得られた実空間情報は、ヘッドマウントディスプレイ100に表示させる画像の視野を決定するのに用いたり、周囲の実物体とインタラクションする仮想オブジェクトを描画するのに用いたりできる。その他、実空間情報を用いてなされる情報処理が様々に考えられることは当業者には理解されるところである。 SLAM using captured images is a process of estimating the three-dimensional position of the real object from the positional relationship of the images of the same real object appearing in the captured images from multiple viewpoints, and the image of the real object whose position has been estimated. This is a method of acquiring the position and orientation of the camera while creating an environmental map by repeating the process of estimating the position and orientation of the camera based on the position on the captured image. The real space information obtained from the captured image in this way can be used to determine the field of view of the image to be displayed on the head-mounted display 100, or can be used to draw a virtual object that interacts with a surrounding real object. .. In addition, it is understood by those skilled in the art that various types of information processing using real space information can be considered.

図2は、本実施の形態を適用できるコンテンツ処理システムの構成例を示す。ヘッドマウントディスプレイ100は、無線通信またはUSB Type−Cなどの周辺機器を接続するインターフェースによりコンテンツ処理装置200に接続される。コンテンツ処理装置200は、さらにネットワークを介してサーバに接続されてもよい。その場合、サーバは、複数のユーザがネットワークを介して参加できるゲームなどのオンラインアプリケーションをコンテンツ処理装置200に提供してもよい。 FIG. 2 shows a configuration example of a content processing system to which the present embodiment can be applied. The head-mounted display 100 is connected to the content processing device 200 by wireless communication or an interface for connecting peripheral devices such as USB Type-C. The content processing device 200 may be further connected to the server via a network. In that case, the server may provide the content processing device 200 with an online application such as a game in which a plurality of users can participate via a network.

コンテンツ処理装置200は基本的に、コンテンツのプログラムを処理し、表示画像や音声のデータを生成してヘッドマウントディスプレイ100に送信する。ヘッドマウントディスプレイ100は、当該表示画像や音声のデータを受信し、コンテンツの画像や音声として出力する。この際、コンテンツ処理装置200は、ヘッドマウントディスプレイ100の位置や姿勢の情報を所定のレートでヘッドマウントディスプレイ100から取得し、それに基づきユーザの視点の位置や視線の方向を特定したうえ、対応する視野で表示画像を生成、送信してよい。 The content processing device 200 basically processes a content program, generates display image and audio data, and transmits the data to the head-mounted display 100. The head-mounted display 100 receives the display image or sound data and outputs the content as an image or sound. At this time, the content processing device 200 acquires information on the position and posture of the head-mounted display 100 from the head-mounted display 100 at a predetermined rate, specifies the position of the user's viewpoint and the direction of the line of sight based on the information, and then responds. A display image may be generated and transmitted in the field of view.

あるいはコンテンツ処理装置200は、ユーザの周囲にある物やその位置、形状などの情報をヘッドマウントディスプレイ100から取得し、対応する位置に仮想オブジェクトを描画した画像を生成、送信してもよい。例えば送信された仮想オブジェクトを、ヘッドマウントディスプレイ100においてカメラ110の撮影画像と合成して表示することにより、拡張現実や複合現実を実現してもよい。ただしヘッドマウントディスプレイ100が取得した実空間情報を利用する目的は特に限定されない。 Alternatively, the content processing device 200 may acquire information such as an object around the user, its position, and its shape from the head-mounted display 100, and generate and transmit an image in which a virtual object is drawn at the corresponding position. For example, augmented reality or mixed reality may be realized by combining and displaying the transmitted virtual object with the captured image of the camera 110 on the head-mounted display 100. However, the purpose of using the real space information acquired by the head-mounted display 100 is not particularly limited.

例えばコンテンツ処理装置200は、ヘッドマウントディスプレイ100の動きをユーザのジェスチャとして取得し、それに応じて、実施する情報処理の内容を決定したり電子ゲームを進捗させたりしてもよい。いずれにしろヘッドマウントディスプレイ100の内部で実空間情報を取得しておくことにより、撮影画像を送信するよりコンテンツ処理装置200へ送信すべきデータのサイズを格段に軽減させることができる。ただし本実施の形態をこれに限定する趣旨ではなく、例えば上述したコンテンツ処理装置200の一部または全部の機能を、ヘッドマウントディスプレイ100に搭載してもよい。あるいは実空間情報を取得する機能を、コンテンツ処理装置200に設けてもよい。 For example, the content processing device 200 may acquire the movement of the head-mounted display 100 as a gesture of the user, determine the content of the information processing to be performed, or advance the electronic game accordingly. In any case, by acquiring the real space information inside the head-mounted display 100, it is possible to significantly reduce the size of the data to be transmitted to the content processing device 200 rather than transmitting the captured image. However, the present embodiment is not limited to this, and for example, a part or all of the functions of the content processing device 200 described above may be mounted on the head-mounted display 100. Alternatively, the content processing device 200 may be provided with a function of acquiring real space information.

本実施の形態ではこのような前提において、ヘッドマウントディスプレイ100が備える機能、あるいはヘッドマウントディスプレイ100に出力されているコンテンツが備える機能に対するユーザ操作を、カメラ110を利用して実現する。図3は本実施の形態における操作手法の例を説明するための図である。(a)においてヘッドマウントディスプレイ100には、図1で示したように4つのカメラ110a、110b、110c、110dが備えられている。 In the present embodiment, under such a premise, the user operation for the function provided by the head-mounted display 100 or the function provided by the content output to the head-mounted display 100 is realized by using the camera 110. FIG. 3 is a diagram for explaining an example of the operation method in the present embodiment. In (a), the head-mounted display 100 is provided with four cameras 110a, 110b, 110c, and 110d as shown in FIG.

そのため(b)の上段に示すように、4つの画像フレーム122が所定の撮影レートで取得される。図示する例で4つの画像フレーム122には、ユーザの前にあるテーブルが、カメラの位置に応じた視差を持って写っている。ここで(a)に示すように、ユーザがあるカメラ110dの前に手120をかざすと、(b)の下段に示すように、カメラ110dが撮影する画像フレーム124のみに変化が生じる。すなわち手120によりカメラ110dへの入射光が遮られるため、像が写らなくなったり全体的に輝度が低下したりする。 Therefore, as shown in the upper part of (b), four image frames 122 are acquired at a predetermined shooting rate. In the illustrated example, the four image frames 122 show a table in front of the user with parallax according to the position of the camera. Here, as shown in (a), when the user holds the hand 120 in front of a certain camera 110d, as shown in the lower part of (b), only the image frame 124 captured by the camera 110d changes. That is, since the light incident on the camera 110d is blocked by the hand 120, the image is not captured or the brightness is lowered as a whole.

ここで「変化」とは、1つのカメラ110dが撮影する動画のフレームにおける時系列での変化でもよいし、同じタイミングで他のカメラ110a、110b、110cが撮影した画像フレームとの差でもよい。あるいはそれらの組み合わせでもよい。それらのパラメータが、変化が生じたと見なされる所定の条件を満たしたとき、ヘッドマウントディスプレイ100は、変化が生じた画像フレームを撮影しているカメラ110dに手120がかざされたことを検出する。そしてヘッドマウントディスプレイ100は、当該カメラ110dの位置にあらかじめ対応づけられた操作内容を特定し、対応する処理を実施する。 Here, the "change" may be a change in a time-series frame of a moving image taken by one camera 110d, or may be a difference from an image frame taken by another cameras 110a, 110b, 110c at the same timing. Alternatively, a combination thereof may be used. When those parameters meet a predetermined condition for which the change is considered to have occurred, the head-mounted display 100 detects that the hand 120 is held over the camera 110d that is capturing the image frame in which the change has occurred. Then, the head-mounted display 100 identifies the operation content associated with the position of the camera 110d in advance, and performs the corresponding processing.

例えばカメラ110dがボリューム調整に対応づけられていれば、ヘッドマウントディスプレイ100は音声のボリュームを調整する。このときヘッドマウントディスプレイ100は、手120がかざされた反復回数やかざされた継続時間によって調整量を変化させてもよい。また図では1つのカメラ110dのみに手がかざされているが、同時に複数のカメラ110に手がかざされたことを検出したら、ヘッドマウントディスプレイ100は、当該カメラ110の位置の組み合わせによって操作内容を判別してもよい。 For example, if the camera 110d is associated with volume adjustment, the head-mounted display 100 adjusts the volume of audio. At this time, the head-mounted display 100 may change the adjustment amount depending on the number of repetitions in which the hand 120 is held and the duration of holding the hand 120. Further, in the figure, the hand is held over only one camera 110d, but when it is detected that the hand is held over a plurality of cameras 110 at the same time, the head-mounted display 100 determines the operation content according to the combination of the positions of the cameras 110. You may discriminate.

さらにヘッドマウントディスプレイ100は、カメラ110の前での手120の動きによって操作内容を判別してもよい。またかざす物は手120に限らず、所定の物、あるいは所定の色の物でもよく、何がかざされたか、何色の物がかざされたか、などによって、操作内容のバリエーションを増やしてもよい。 Further, the head-mounted display 100 may determine the operation content by the movement of the hand 120 in front of the camera 110. Further, the object to be held is not limited to the hand 120, and may be a predetermined object or an object of a predetermined color, and variations in the operation contents may be increased depending on what is held over, what color is held over, and the like. ..

ユーザは、ヘッドマウントディスプレイ100を装着した状態でも、各カメラ110の位置や視野をおよそ把握できる。また検出条件を適切に設定すれば、ヘッドマウントディスプレイ100は、カメラ110が厳密に覆われていなくても手などがかざされたことを検出できる。したがって、小さいボタンやスイッチを探り当てたり判別したりするのと比較し、ユーザ操作を格段に容易にできる。また、位置姿勢の取得やシースルーモードを目的として、ヘッドマウントディスプレイ100にカメラ110を設ける場合、当該カメラ110を流用できるため、別途操作手段を設けるのと比較しデザイン上の制約が少なく製造コストも抑えられる。 The user can roughly grasp the position and the field of view of each camera 110 even when the head-mounted display 100 is attached. Further, if the detection conditions are appropriately set, the head-mounted display 100 can detect that a hand or the like is held up even if the camera 110 is not strictly covered. Therefore, the user operation can be made much easier than finding and distinguishing a small button or switch. Further, when the camera 110 is provided on the head-mounted display 100 for the purpose of acquiring the position and orientation and the see-through mode, the camera 110 can be diverted, so that there are few design restrictions and the manufacturing cost is low as compared with providing a separate operating means. It can be suppressed.

図4はヘッドマウントディスプレイ100の内部回路構成を示している。ヘッドマウントディスプレイ100は、CPU50、メインメモリ52、表示部54、音声出力部56を含む。これらの各部はバス58を介して相互に接続されている。バス58にはさらに入出力インターフェース60が接続されている。入出力インターフェース60には、有線又は無線LANのネットワークインターフェースからなる通信部62、モーションセンサ64、および撮像部66が接続される。 FIG. 4 shows the internal circuit configuration of the head-mounted display 100. The head-mounted display 100 includes a CPU 50, a main memory 52, a display unit 54, and an audio output unit 56. Each of these parts is connected to each other via a bus 58. An input / output interface 60 is further connected to the bus 58. A communication unit 62, a motion sensor 64, and an imaging unit 66, which are wired or wireless LAN network interfaces, are connected to the input / output interface 60.

CPU50は、バス58を介してHMD18の各部から取得した情報を処理し、出力データを表示部54、音声出力部56に供給する。メインメモリ52はCPU50における処理に必要なプログラムやデータを格納する。ただし実行するアプリケーションや装置の設計によっては、コンテンツ処理装置200がほぼ全ての処理を行い、ヘッドマウントディスプレイ100では、コンテンツ処理装置200から送信されたデータを出力するのみで十分な場合がある。この場合、CPU50やメインメモリ52は、より簡易なデバイスで置き換えることができる。 The CPU 50 processes the information acquired from each unit of the HMD 18 via the bus 58, and supplies the output data to the display unit 54 and the audio output unit 56. The main memory 52 stores programs and data required for processing in the CPU 50. However, depending on the design of the application or the device to be executed, the content processing device 200 may perform almost all the processing, and the head-mounted display 100 may be sufficient to output the data transmitted from the content processing device 200. In this case, the CPU 50 and the main memory 52 can be replaced with a simpler device.

表示部54は、液晶パネルや有機ELパネルなどの表示パネルとその制御機構で構成され、ヘッドマウントディスプレイ100を装着したユーザの眼前に画像を表示する。左右の目に対応する領域に一対の視差画像を表示することにより立体視を実現してもよい。音声出力部56は、ヘッドマウントディスプレイ100の装着時にユーザの耳に対応する位置に設けたスピーカーやイヤホンとその制御機構で構成され、ユーザに音声を聞かせる。 The display unit 54 is composed of a display panel such as a liquid crystal panel or an organic EL panel and a control mechanism thereof, and displays an image in front of the eyes of a user wearing the head-mounted display 100. Stereoscopic vision may be realized by displaying a pair of parallax images in the regions corresponding to the left and right eyes. The voice output unit 56 is composed of a speaker or earphone provided at a position corresponding to the user's ear when the head-mounted display 100 is attached, and a control mechanism thereof, and allows the user to hear the voice.

通信部62は、コンテンツ処理装置200との間で通信を確立し、必要なデータを送受する。モーションセンサ64は、加速度センサ、ジャイロセンサ、地磁気センサなどの少なくともいずれかで構成され、ヘッドマウントディスプレイ100の3次元空間での姿勢や動きを検出する。撮像部66は複数のカメラ110で構成され、実空間を所定のレートで撮影し、適宜補正処理を施すことにより撮影画像を出力する。 The communication unit 62 establishes communication with the content processing device 200 and transmits / receives necessary data. The motion sensor 64 is composed of at least one of an acceleration sensor, a gyro sensor, a geomagnetic sensor, and the like, and detects the posture and movement of the head-mounted display 100 in a three-dimensional space. The imaging unit 66 is composed of a plurality of cameras 110, captures a real space at a predetermined rate, performs appropriate correction processing, and outputs a captured image.

図5はヘッドマウントディスプレイ100の機能ブロックの構成を示している。図5に示す各機能ブロックは、ハードウェア的には、CPU、GPU、各種メモリ、表示パネル、スピーカー、カメラ、モーションセンサなどの構成で実現でき、ソフトウェア的には、記録媒体などからメモリにロードした、データ入力機能、データ保持機能、画像処理機能、通信機能などの諸機能を発揮するプログラムで実現される。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。 FIG. 5 shows the configuration of the functional block of the head-mounted display 100. Each functional block shown in FIG. 5 can be realized by the configuration of CPU, GPU, various memories, display panel, speaker, camera, motion sensor, etc. in terms of hardware, and is loaded into memory from a recording medium or the like in terms of software. It is realized by a program that demonstrates various functions such as data input function, data retention function, image processing function, and communication function. Therefore, it is understood by those skilled in the art that these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof, and is not limited to any of them.

ヘッドマウントディスプレイ100は、図4で示した撮像部66、表示部54、および音声出力部56のほか、CPU50、メインメモリ52などで実現される情報処理装置70を備える。情報処理装置70は、撮像部66により撮影された輝度情報のデータを取得する輝度情報取得部72、輝度情報に基づきユーザ操作がなされたことを判定するユーザ操作判定部74、ユーザ操作がなされた際、その操作内容を取得する操作内容取得部76、ユーザ操作に対応する処理を実施する操作処理部78、輝度情報に基づき実空間情報を取得する実空間情報取得部80、実空間情報などに基づきコンテンツを処理するコンテンツ処理部82を含む。 The head-mounted display 100 includes an image pickup unit 66, a display unit 54, and an audio output unit 56 shown in FIG. 4, as well as an information processing device 70 realized by a CPU 50, a main memory 52, and the like. The information processing device 70 includes a brightness information acquisition unit 72 that acquires data of brightness information captured by the imaging unit 66, a user operation determination unit 74 that determines that a user operation has been performed based on the brightness information, and a user operation. At that time, the operation content acquisition unit 76 for acquiring the operation content, the operation processing unit 78 for performing the processing corresponding to the user operation, the real space information acquisition unit 80 for acquiring the real space information based on the brightness information, the real space information, etc. The content processing unit 82 that processes the content based on the content is included.

輝度情報取得部72は、ヘッドマウントディスプレイ100の外面の複数箇所における光の輝度情報を所定のレートで取得する。ここで「輝度情報」は、代表的にはカメラ110により撮影された2次元の画像であるが、複数箇所での光の輝度を表す情報であればその画素数は限定されない。またこれまで述べたようにカメラ110を利用する場合、輝度情報取得部72は、ヘッドマウントディスプレイ100の外面の複数箇所に入射する光の輝度情報(以後、主に撮影画像とする)を取得する。 The brightness information acquisition unit 72 acquires light brightness information at a plurality of locations on the outer surface of the head-mounted display 100 at a predetermined rate. Here, the "luminance information" is typically a two-dimensional image taken by the camera 110, but the number of pixels is not limited as long as it is information representing the brightness of light at a plurality of locations. Further, when the camera 110 is used as described above, the luminance information acquisition unit 72 acquires the luminance information (hereinafter mainly referred to as a captured image) of the light incident on a plurality of locations on the outer surface of the head-mounted display 100. ..

一方、変形例として輝度情報取得部72が、ヘッドマウントディスプレイ100の外面の複数箇所から反射または発光する光の輝度を検出しても、同様のユーザ操作が可能である。この場合、出射光を検出する外部カメラを別途設ける。この態様については後に述べる。ユーザ操作判定部74は、ヘッドマウントディスプレイ100の外面の複数箇所における輝度情報の少なくともいずれかに所定の変化が生じたとき、ユーザ操作がなされたことを判定する。 On the other hand, as a modification, the same user operation can be performed even if the luminance information acquisition unit 72 detects the luminance of the light reflected or emitted from a plurality of locations on the outer surface of the head-mounted display 100. In this case, an external camera for detecting the emitted light is separately provided. This aspect will be described later. The user operation determination unit 74 determines that the user operation has been performed when a predetermined change occurs in at least one of the luminance information at a plurality of locations on the outer surface of the head-mounted display 100.

ここでユーザ操作判定部74は、例えば次のような事象を所定の変化として検出する。
1.カメラ110への入射光が遮られたと見なされる所定の基準を満たしたこと
2.カメラ110の前に所定の物がかざされたと見なされる所定の基準を満たしたこと
3.カメラ110の前に所定の色の物がかざされたと見なされる所定の基準を満たしたこと
4.カメラ110の前にかざされた物が所定の動きをしたと見なされる所定の基準を満たしたこと
Here, the user operation determination unit 74 detects, for example, the following event as a predetermined change.
1. 1. 2. Satisfying the predetermined criteria that the light incident on the camera 110 is considered to be blocked. 2. Satisfying a predetermined criterion that a predetermined object is considered to be held in front of the camera 110. 2. Satisfying a predetermined criterion that an object of a predetermined color is considered to be held in front of the camera 110. An object held in front of the camera 110 meets a predetermined criterion that is considered to have made a predetermined movement.

上記1としてユーザ操作判定部74は、例えば輝度または輝度の平均値が所定値以上低下したことを検出する。上記2としてユーザ操作判定部74は例えば、ユーザの手、所定のコントローラ、携帯端末、高機能携帯電話などが写ったことを、一般的な画像認識処理により検出する。上記3としてユーザ操作判定部74は、所定の色の物、例えば所定色のカード、携帯端末、高機能携帯電話などが写ったことを、一般的な画像認識処理により検出する。上記4としてユーザ操作判定部74は例えば、一般的な画像解析によって得られるオプティカルフローに基づき、撮像面の水平方向、垂直方向、斜め方向、特定の図形を描く動きなどを検出する。 As the above 1, the user operation determination unit 74 detects, for example, that the luminance or the average value of the luminance has decreased by a predetermined value or more. As described in 2, the user operation determination unit 74 detects, for example, that a user's hand, a predetermined controller, a mobile terminal, a high-performance mobile phone, or the like is captured by a general image recognition process. As described in 3, the user operation determination unit 74 detects by a general image recognition process that an object of a predetermined color, for example, a card of a predetermined color, a mobile terminal, a high-performance mobile phone, or the like is captured. As described in 4, the user operation determination unit 74 detects, for example, the horizontal direction, the vertical direction, the oblique direction, and the movement of drawing a specific figure of the imaging surface based on the optical flow obtained by general image analysis.

ここで動きを検出する対象は、上記2または3で検出する物や色のいずれでもよい。そのような対象が、2つ以上のカメラ110の撮影画像に写っているとき、ユーザ操作判定部74はステレオマッチングにより、その3次元空間での動きを求め、それを上記所定の基準と照合してもよい。例えばユーザ操作判定部74は、撮像面に対し手を近づけたり遠ざけたりする動きを検出する。これらの検出処理のため、ユーザ操作判定部74は、輝度の変化量のしきい値、検出すべき物や色、検出すべき動きなど、上記所定基準の登録情報を内部のメモリに保持する。 Here, the object for detecting the movement may be any of the object and the color detected in 2 or 3 above. When such an object is captured in images taken by two or more cameras 110, the user operation determination unit 74 obtains the movement in the three-dimensional space by stereo matching, and collates it with the above-mentioned predetermined standard. You may. For example, the user operation determination unit 74 detects a movement of moving a hand closer to or further away from the image pickup surface. For these detection processes, the user operation determination unit 74 holds the registration information of the predetermined criteria such as the threshold value of the amount of change in brightness, the object or color to be detected, and the movement to be detected in the internal memory.

なお上述のとおりユーザ操作判定部74は、各カメラ110が撮影する画像フレームの時系列的な比較に基づき変化を検出してもよいし、複数のカメラ110が同時に撮影する複数の画像の比較に基づき変化を検出してもよい。あるいはユーザ操作判定部74は、双方を踏まえて変化を検出してもよい。またユーザ操作判定部74は、カメラに所定の物がかざされたうえ、それが所定の動きをしたなど、上記1〜4を適宜組み合わせた事象を検出してもよい。 As described above, the user operation determination unit 74 may detect a change based on a time-series comparison of image frames captured by each camera 110, or may compare a plurality of images captured by a plurality of cameras 110 at the same time. Changes may be detected based on this. Alternatively, the user operation determination unit 74 may detect a change based on both. Further, the user operation determination unit 74 may detect an event in which the above 1 to 4 are appropriately combined, such as a predetermined object being held over the camera and the predetermined object moving.

さらにユーザ操作判定部74は、上記2〜4を、複数のカメラ110による撮影画像に基づき検出してもよい。例えばユーザ操作判定部74は、所定の携帯端末が複数の撮影画像に写っていると認識した場合、撮影したカメラ110の位置関係と、撮影画像上の携帯端末の像の位置関係に矛盾がないことを確認したうえで、1つの携帯端末がかざされたことを判定する。これにより、1つの撮影画像のみを用いた判定と比較し、元から存在していた周囲の物を、かざされた物として検出するといった誤認識の可能性を低くできる。 Further, the user operation determination unit 74 may detect the above 2 to 4 based on the images captured by the plurality of cameras 110. For example, when the user operation determination unit 74 recognizes that a predetermined mobile terminal is captured in a plurality of captured images, there is no contradiction between the positional relationship of the captured camera 110 and the positional relationship of the image of the mobile terminal on the captured image. After confirming that, it is determined that one mobile terminal is held over. As a result, it is possible to reduce the possibility of erroneous recognition such as detecting a surrounding object that originally existed as an object held over, as compared with a determination using only one captured image.

操作内容取得部76は、ユーザ操作判定部74によりユーザ操作がなされたことが判定されたとき、検出された変化に対応づけられた操作内容をユーザ操作として取得する。すなわちヘッドマウントディスプレイ100外面の複数箇所のうち、上記1〜4のような基準を満たした位置またはその組み合わせに基づき、操作内容取得部76は、ユーザが意図する操作内容を特定する。このため操作内容取得部76にはあらかじめ、変化が生じた位置やその組み合わせと操作内容とを対応づけて登録しておく。操作内容取得部76が保持する登録情報にはさらに、上記所定基準を満たした物、その色、その動きなど、変化の内容の少なくともいずれかと組み合わせて、操作内容を対応づけておいてもよい。 When it is determined by the user operation determination unit 74 that the user operation has been performed, the operation content acquisition unit 76 acquires the operation content associated with the detected change as the user operation. That is, the operation content acquisition unit 76 specifies the operation content intended by the user based on the position or a combination thereof that satisfies the criteria such as 1 to 4 above among the plurality of locations on the outer surface of the head-mounted display 100. Therefore, in the operation content acquisition unit 76, the position where the change has occurred, the combination thereof, and the operation content are registered in advance in association with each other. The registration information held by the operation content acquisition unit 76 may be further associated with the operation content by combining with at least one of the content of the change such as an object satisfying the above-mentioned predetermined criteria, its color, and its movement.

操作処理部78は、操作内容取得部76が取得した操作内容に対応する処理を実施する。実施する操作の内容は特に限定されず、ヘッドマウントディスプレイ100自体の出力調整や出力制御であってもよいし、コンテンツに対する操作であってもよい。ただし操作処理部78が、従来はスイッチやボタンなどを介して実現されていた、コンテンツ自体の処理とは異なる(コンテンツに依存しない)調整や制御を実施することで、本実施の形態の効果をより高められる。 The operation processing unit 78 executes a process corresponding to the operation content acquired by the operation content acquisition unit 76. The content of the operation to be performed is not particularly limited, and may be output adjustment or output control of the head-mounted display 100 itself, or may be an operation for the content. However, the operation processing unit 78 can achieve the effect of the present embodiment by performing adjustments and controls (independent of the content) that are different from the processing of the content itself, which has been conventionally realized via switches and buttons. It will be higher.

例えば操作処理部78は、ヘッドマウントディスプレイ100の電源オフ、表示パネルの輝度の増減、音声のボリュームの増減、出力対象のコンテンツである動画や楽曲の再生開始、一時停止、早送り、巻き戻し、コンテンツの切り替え、画像ズームアップやズームダウンなどを実施する。操作処理部78は実施する処理に応じて、表示部54、音声出力部56などの出力状態を調整する。操作処理部78は、ヘッドマウントディスプレイ100の装着バンド106の長さ調整、左右の接眼レンズの間隔調整、左目用/右目用の表示画像の間隔調整などを実施してもよい。いずれにしろこれらの調整や制御を実現する手法は、スイッチやボタンなどを用いた一般的なものと同様でよい。 For example, the operation processing unit 78 turns off the power of the head-mounted display 100, increases / decreases the brightness of the display panel, increases / decreases the volume of audio, starts playing, pauses, fast-forwards, rewinds, and contents the moving image or music which is the output target content. Switching, image zooming up and zooming down, etc. The operation processing unit 78 adjusts the output state of the display unit 54, the voice output unit 56, and the like according to the processing to be performed. The operation processing unit 78 may adjust the length of the wearing band 106 of the head-mounted display 100, adjust the distance between the left and right eyepieces, adjust the distance between the left-eye / right-eye display images, and the like. In any case, the method for realizing these adjustments and controls may be the same as the general method using switches and buttons.

実空間情報取得部80は、カメラ110による撮影画像の少なくともいずれかを用いて、表示画像などコンテンツの出力データの生成に必要な実空間に係る情報を取得する。実空間情報とは上述のとおり、ヘッドマウントディスプレイの位置や姿勢、ユーザの周囲にある物との位置関係など、コンテンツの画像や音声自体のデータ生成に影響を与える情報であり、ユーザ操作判定部74が検出する、「所定の変化」が生じていない状態の撮影画像から得られる。 The real space information acquisition unit 80 acquires information related to the real space necessary for generating output data of contents such as a display image by using at least one of the images captured by the camera 110. As described above, the real space information is information that affects the data generation of the content image and sound itself, such as the position and posture of the head-mounted display and the positional relationship with objects around the user, and is the user operation judgment unit. It is obtained from a captured image in a state in which a "predetermined change" has not occurred, which is detected by 74.

したがってユーザ操作判定部74は、撮影画像に所定の変化が生じているか否かを判別し、生じていない撮影画像のデータを、実空間情報取得部80に順次供給する。カメラ110を複数設け、同時に複数の撮影画像を得ることにより、そのうちの一部にユーザ操作による変化が生じても、その他の撮影画像を用いて実空間情報を取得し続けることができる。例えば実空間情報取得部80は、ユーザの手がかざされるなどして周囲の物が写っていない撮影画像以外の撮影画像を解析することにより、実空間情報を取得する。実空間情報取得部80はさらに、モーションセンサ64の出力値を利用して、実空間情報の精度を高めてもよい。 Therefore, the user operation determination unit 74 determines whether or not a predetermined change has occurred in the captured image, and sequentially supplies the data of the captured image that has not occurred to the real space information acquisition unit 80. By providing a plurality of cameras 110 and obtaining a plurality of captured images at the same time, it is possible to continue to acquire real space information using the other captured images even if a change occurs due to a user operation in a part of them. For example, the real space information acquisition unit 80 acquires real space information by analyzing a photographed image other than the photographed image in which a user's hand is held over and the surrounding objects are not captured. The real space information acquisition unit 80 may further improve the accuracy of the real space information by using the output value of the motion sensor 64.

コンテンツ処理部82は、実空間情報を用いて、コンテンツとして規定されている処理を実施し、表示画像や出力音声を取得する。例えばコンテンツ処理部82は、実空間情報取得部80が取得したヘッドマウントディスプレイ100の姿勢に対応する視野で表示画像を生成する。あるいは撮影画像に写る周囲の物を、その3次元空間での位置や姿勢を反映させた仮想オブジェクトに置換した表示画像を生成する。この場合、コンテンツ処理部82は、実空間情報取得部80から撮影画像を取得し、仮想オブジェクトを重畳描画する。 The content processing unit 82 performs the processing defined as the content by using the real space information, and acquires the display image and the output sound. For example, the content processing unit 82 generates a display image in a field of view corresponding to the posture of the head-mounted display 100 acquired by the real space information acquisition unit 80. Alternatively, a display image is generated in which the surrounding objects reflected in the captured image are replaced with virtual objects that reflect the position and orientation in the three-dimensional space. In this case, the content processing unit 82 acquires the captured image from the real space information acquisition unit 80, and superimposes and draws the virtual object.

そのほか、実空間情報をコンテンツの表示画像や音声に反映させる態様には様々なものがあることは当業者には理解されるところである。なお実空間情報取得部80は、取得した実空間情報をコンテンツ処理装置200に送信し、コンテンツ処理装置200において表示画像や音声のデータを生成するようにしてもよい。この場合、コンテンツ処理部82は、コンテンツ処理装置200から取得した表示画像や音声のデータに必要な補正処理を施すのみでもよい。 In addition, those skilled in the art will understand that there are various modes in which real space information is reflected in the displayed image and sound of the content. The real space information acquisition unit 80 may transmit the acquired real space information to the content processing device 200 to generate display image and audio data in the content processing device 200. In this case, the content processing unit 82 may only perform necessary correction processing on the display image and audio data acquired from the content processing device 200.

例えばコンテンツ処理部82は、ヘッドマウントディスプレイ100が備える接眼レンズに対応する歪みを表示画像に与えるなどの処理を実施してもよい。コンテンツ処理部82は、表示画像のデータと出力音声のデータを、表示部54と音声出力部56にそれぞれ供給することにより、コンテンツの画像を表示させたり音声を出力させたりする。このように、通常時はコンテンツデータの生成に用いるカメラ110を、ユーザ操作にも利用することにより、製造コストを増加させることなく容易かつ多様なユーザ操作を実現できる。 For example, the content processing unit 82 may perform processing such as giving a distortion corresponding to the eyepiece included in the head-mounted display 100 to the display image. The content processing unit 82 supplies the display image data and the output audio data to the display unit 54 and the audio output unit 56, respectively, to display the content image and output the audio. As described above, by using the camera 110, which is normally used for generating content data, for user operations, it is possible to realize easy and diverse user operations without increasing the manufacturing cost.

ただしカメラ110の用途をそれらに限定する趣旨ではなく、場合によってはユーザ操作のために複数のカメラ110、あるいは輝度検出装置を設けるようにしてもよい。またコンテンツの生成に実空間情報を用いない場合、実空間情報取得部80の機能を省略できる。これらの場合も、ユーザはスイッチを手探りしたり、装着していたヘッドマウントディスプレイ100を外して調整したりする手間をかけることなく、コンテンツを楽しみながら容易に操作できる。なお情報処理装置70の一部または全ての機能は、コンテンツ処理装置200に設けてもよい。 However, the purpose of the camera 110 is not limited to those, and in some cases, a plurality of cameras 110 or a brightness detection device may be provided for user operation. Further, when the real space information is not used for generating the content, the function of the real space information acquisition unit 80 can be omitted. In these cases as well, the user can easily operate the content while enjoying the content without having to fumble for the switch or remove and adjust the attached head-mounted display 100. Note that some or all the functions of the information processing device 70 may be provided in the content processing device 200.

次に、これまで述べた構成によって実現できる情報処理装置70の動作について説明する。図6は、情報処理装置70がユーザ操作に対応しつつコンテンツを処理する手順を示すフローチャートである。このフローチャートはユーザが、電源が入った状態のヘッドマウントディスプレイ100を装着した状態で開始される。まず輝度情報取得部72は、ヘッドマウントディスプレイ100の複数箇所における輝度情報を取得する(S10)。複数のカメラ110により2次元の撮影画像を取得する場合、輝度情報取得部72はこのステップにおいて、それぞれが撮影する動画像の1フレーム目のデータを取得する。 Next, the operation of the information processing apparatus 70 that can be realized by the configuration described so far will be described. FIG. 6 is a flowchart showing a procedure in which the information processing device 70 processes contents while responding to user operations. This flowchart starts with the user wearing the head-mounted display 100 in a power-on state. First, the luminance information acquisition unit 72 acquires the luminance information at a plurality of locations of the head-mounted display 100 (S10). When two-dimensional captured images are acquired by a plurality of cameras 110, the luminance information acquisition unit 72 acquires the data of the first frame of the moving image captured by each in this step.

するとユーザ操作判定部74は、輝度情報の少なくともいずれかに、上述したような所定の変化が生じているか否かを確認する(S12)。所定の変化が生じていなければ(S12のN)、実空間情報取得部80は当該輝度情報(撮影画像)を解析して実空間情報を取得し、コンテンツ処理部82がそれを用いてコンテンツを処理し出力データを取得する(S18)。取得された表示画像や音声のデータは表示部54や音声出力部56から適宜出力される。輝度情報の少なくともいずれかに所定の変化が生じていたら(S12のY)、操作内容取得部76は、当該変化が生じているカメラの位置、位置の組み合わせ、変化の内容、の少なくともいずれかに対応づけられた操作内容を取得する(S14)。 Then, the user operation determination unit 74 confirms whether or not a predetermined change as described above has occurred in at least one of the luminance information (S12). If a predetermined change has not occurred (N in S12), the real space information acquisition unit 80 analyzes the luminance information (captured image) to acquire the real space information, and the content processing unit 82 uses the information to obtain the content. Process and acquire output data (S18). The acquired display image and audio data are appropriately output from the display unit 54 and the audio output unit 56. If a predetermined change has occurred in at least one of the luminance information (Y in S12), the operation content acquisition unit 76 has set at least one of the position of the camera in which the change has occurred, the combination of positions, and the content of the change. Acquire the associated operation content (S14).

そして操作処理部78は、S14で取得された操作内容に対応する処理を実施する(S16)。この場合も実空間情報取得部80は、変化が生じていない撮影画像を解析して実空間情報を取得し、コンテンツ処理部82がそれを用いてコンテンツを処理する(S18)。コンテンツが終了したり、ユーザが処理を停止させる操作を行ったりして、コンテンツの処理を終了させる必要がなければ(S20のN)、次に取得された輝度情報に基づきS12からS18の処理を繰り返す。 Then, the operation processing unit 78 executes the process corresponding to the operation content acquired in S14 (S16). In this case as well, the real space information acquisition unit 80 analyzes the captured image in which no change has occurred to acquire the real space information, and the content processing unit 82 uses the captured image to process the content (S18). If it is not necessary to end the content processing by ending the content or performing an operation to stop the processing by the user (N in S20), the processing from S12 to S18 is performed next based on the acquired luminance information. repeat.

ただし一旦、S12において変化が生じていることが判定されたあと、その状態が継続している間は、S12、S14の処理をスキップして、S16の、操作に対応する処理を継続して行う。これらの処理により、ユーザ操作の有無に関わらずコンテンツの画像や音声は出力され続け、その一方で、ユーザ操作に対応する調整や制御がなされる。そしてコンテンツの処理を終了させる必要が生じたら、全処理を終了させる(S20のY)。 However, once it is determined that a change has occurred in S12, the processing of S12 and S14 is skipped and the processing corresponding to the operation of S16 is continued while the state continues. .. By these processes, the image and sound of the content are continuously output regardless of the presence or absence of the user operation, and on the other hand, the adjustment and the control corresponding to the user operation are performed. Then, when it becomes necessary to end the processing of the content, all the processing is ended (Y in S20).

図7は、操作内容取得部76が内部で保持する、輝度情報の変化と操作内容とを対応づけた情報を例示している。この例では、図1と同様、カメラA、B、C、Dの4つのカメラを備えたヘッドマウントディスプレイ100を想定している。また上記1のとおり、ユーザの手によりカメラへの入射光が遮られたことをユーザ操作と判定する場合の一例を示している。図示するユーザ操作対応情報90において、入射光が遮られているカメラを塗りつぶしで示している。ただし情報の形式を限定する趣旨ではない。また上述のとおり、輝度の低減量に対ししきい値を設定することで手がかざされていることが判明すれば、入射光が完全に遮蔽されている必要はない。 FIG. 7 exemplifies the information that the operation content acquisition unit 76 internally holds in which the change in the luminance information and the operation content are associated with each other. In this example, as in FIG. 1, a head-mounted display 100 including four cameras A, B, C, and D is assumed. Further, as described in 1 above, an example of a case where it is determined that the light incident on the camera is blocked by the user's hand as a user operation is shown. In the illustrated user operation correspondence information 90, the camera in which the incident light is blocked is shown by filling. However, it does not mean to limit the format of information. Further, as described above, if it is found that the hand is held by setting a threshold value for the amount of reduction in brightness, the incident light does not need to be completely blocked.

例えば、カメラAへの入射光が遮られたことを、音声のボリュームアップと対応づけ、カメラBへの入射光が遮られたことを、音声のボリュームダウンと対応づけている。またカメラCへの入射光が遮られたことを、表示パネルの輝度アップと対応づけ、カメラDへの入射光が遮られたことを、表示パネルの輝度ダウンと対応づけている。これらの場合、遮られている状態の継続時間に応じてボリュームや輝度を徐々に変化させていってもよい。 For example, blocking the incident light on the camera A is associated with increasing the volume of the sound, and blocking the incident light on the camera B is associated with decreasing the volume of the sound. Further, the fact that the incident light to the camera C is blocked corresponds to the increase in the brightness of the display panel, and the fact that the incident light to the camera D is blocked corresponds to the decrease in the brightness of the display panel. In these cases, the volume and brightness may be gradually changed according to the duration of the blocked state.

またカメラAとBへの入射光が遮られたことを、コンテンツの再生開始と解釈し、カメラBとCへの入射光が遮られたことを、一時停止と解釈する。さらにカメラCとDへの入射光が遮られたことを、コンテンツの早送りと解釈し、カメラDとAへの入射光が遮られたことを、コンテンツの巻き戻しと解釈する。この場合も、遮られている状態の継続時間に応じて早送りや巻き戻しの量を徐々に増やしていってもよい。なお図示する例では、入射光が同時に遮られたカメラの数を最大2つとしたが、それに限る趣旨ではない。 Further, the interruption of the incident light to the cameras A and B is interpreted as the start of playback of the content, and the interruption of the incident light to the cameras B and C is interpreted as the pause. Further, blocking the incident light on the cameras C and D is interpreted as fast-forwarding the content, and blocking the incident light on the cameras D and A is interpreted as rewinding the content. In this case as well, the amount of fast forward and rewind may be gradually increased according to the duration of the blocked state. In the illustrated example, the maximum number of cameras in which the incident light is blocked at the same time is two, but the purpose is not limited to this.

このようにカメラ110に手をかざすような単純な動作であっても、複数のカメラ110を利用することにより、多様な操作が可能となる。また入射光が完全に遮られなくとも操作がなされたことを判定できるため、スイッチを探り当てるような正確な動作の必要がない。なお上述のとおり、かざされた物や色、動きなどを操作内容に対応づけることにより、容易な動作で操作内容をさらに細分化できる。 Even with such a simple operation of holding a hand over the camera 110, various operations can be performed by using the plurality of cameras 110. Moreover, since it can be determined that the operation has been performed even if the incident light is not completely blocked, there is no need for an accurate operation such as finding a switch. As described above, by associating the held object, color, movement, etc. with the operation content, the operation content can be further subdivided by a simple operation.

図8は、ヘッドマウントディスプレイ100の外面の複数箇所からの光の輝度情報の変化に基づきユーザ操作を判定する態様を説明するための図である。この場合のヘッドマウントディスプレイ100aは、図1で説明したヘッドマウントディスプレイ100のカメラ110a、110b、110c、110dの代わりに、発光体130a、130b、130c、130dを備える。ただしこの場合も、発光体の数や配置は限定されない。この場合、ヘッドマウントディスプレイ100aを外部から撮影するカメラ12をシステムに組み入れ、情報処理装置70の輝度情報取得部72は、当該カメラ12が所定のレートで撮影するヘッドマウントディスプレイ100aの画像を順次取得する。 FIG. 8 is a diagram for explaining a mode in which a user operation is determined based on changes in brightness information of light from a plurality of locations on the outer surface of the head-mounted display 100. The head-mounted display 100a in this case includes light emitters 130a, 130b, 130c, 130d instead of the cameras 110a, 110b, 110c, 110d of the head-mounted display 100 described with reference to FIG. However, even in this case, the number and arrangement of the light emitters are not limited. In this case, a camera 12 that captures the head-mounted display 100a from the outside is incorporated into the system, and the brightness information acquisition unit 72 of the information processing device 70 sequentially acquires images of the head-mounted display 100a that the camera 12 captures at a predetermined rate. To do.

なおカメラ12は、図示する例ではステレオカメラとしているが、ヘッドマウントディスプレイ100の実空間での位置を特定するなど他の目的がなければ、単眼のカメラとしてもよい。そしてユーザ操作判定部74は当該撮影画像を解析し、発光体130a、130b、130c、130dの少なくともいずれかがユーザの手で隠されたことを、像(輝度情報)の変化に基づき検出する。例えばユーザ操作判定部74は、発光体130a、130b、130c、130dの像を一般的な視覚追跡技術により追跡し、像が消失して追跡できなくなった発光体があれば、ユーザの手で隠されたと判定する。 Although the camera 12 is a stereo camera in the illustrated example, it may be a monocular camera if there is no other purpose such as specifying the position of the head-mounted display 100 in the real space. Then, the user operation determination unit 74 analyzes the captured image and detects that at least one of the light emitters 130a, 130b, 130c, and 130d is hidden by the user's hand based on the change in the image (luminance information). For example, the user operation determination unit 74 tracks the images of the light emitters 130a, 130b, 130c, and 130d by a general visual tracking technique, and if there is a light emitter that disappears and cannot be tracked, it is hidden by the user's hand. It is determined that it has been done.

この場合も、操作内容取得部76は、図7で示したのと同様の情報を参照して、手で隠された発光体の位置やその組み合わせに基づき、操作内容を決定できる。なお自らが発光する発光体130a、130b、130c、130dの代わりに、入射光を反射させる反射部材をヘッドマウントディスプレイ100の複数箇所に設けてもよい。当該反射部材は、環境光を高効率で反射させるためのものでもよいし、赤外線など所定の波長帯の光を外部から照射し、それを反射させるものでもよい。 In this case as well, the operation content acquisition unit 76 can determine the operation content based on the position of the light emitting body hidden by the hand and the combination thereof with reference to the same information as shown in FIG. Instead of the light emitting bodies 130a, 130b, 130c, and 130d that emit light by themselves, reflective members that reflect incident light may be provided at a plurality of locations on the head-mounted display 100. The reflecting member may be one for reflecting ambient light with high efficiency, or may be one that irradiates light in a predetermined wavelength band such as infrared rays from the outside and reflects the light.

この場合も発光体と同様に、カメラ12の撮影画像における輝度の変化に基づきユーザ操作を判定できる。これらの態様は、ユーザ操作のない期間には発光体や反射部材が全て撮影画像に写っていることが前提となるため、ヘッドマウントディスプレイ100を装着したユーザがカメラ12に正対した状態が継続するようなコンテンツには有効である。 In this case as well, the user operation can be determined based on the change in brightness in the image captured by the camera 12, as in the case of the light emitting body. Since it is premised that all the light emitting bodies and the reflecting members are shown in the captured image during the period when there is no user operation, the user wearing the head-mounted display 100 continues to face the camera 12. It is effective for such content.

以上述べた本実施の形態によれば、ヘッドマウントディスプレイの外面の複数箇所における輝度情報の変化を検出し、所定の変化が生じた位置やその組み合わせに基づきユーザ操作の内容を取得する。これにより、スイッチやボタンなどを探り当てたり判別したりする手間なく、単純な動作で多様な操作が可能になる。結果として、デザイン制約が少なく使い勝手のよいヘッドマウントディスプレイを実現できる。 According to the present embodiment described above, changes in the luminance information at a plurality of locations on the outer surface of the head-mounted display are detected, and the content of the user operation is acquired based on the positions where the predetermined changes occur and their combinations. As a result, various operations can be performed with simple operations without the trouble of finding and distinguishing switches and buttons. As a result, it is possible to realize an easy-to-use head-mounted display with few design restrictions.

また、表示させる画像の視野を決定したり、コンテンツの画像を生成したりするのに必要な情報を、ヘッドマウントディスプレイが備えるカメラによる撮影画像から取得するシステムにおいては、当該撮影画像をそのまま利用できるため、製造コストを抑えることができる。そのような目的では通常、複数のカメラが設けられることが多いため、一部がユーザ操作に使用されても、コンテンツ処理に必要な情報を並行して取得できる。 In addition, in a system that acquires information necessary for determining the field of view of an image to be displayed and generating an image of contents from an image captured by a camera provided in a head-mounted display, the captured image can be used as it is. Therefore, the manufacturing cost can be suppressed. For such purposes, a plurality of cameras are usually provided, so that even if some of them are used for user operations, information necessary for content processing can be acquired in parallel.

このときヘッドマウントディスプレイに対し非接触でユーザ操作を行えるため、スイッチ操作などで振動が生じる場合と比較し、姿勢追跡などの精度への影響を最小限にでき、コンテンツ出力の正常動作を妨げる可能性を抑えられる。また複数のカメラによる撮影画像を利用すれば、カメラにかざされた物の誤認識が少なく、ユーザ操作の判定を高精度に行える。 At this time, since the user can operate the head-mounted display without contacting it, the effect on accuracy such as posture tracking can be minimized compared to the case where vibration occurs due to switch operation, etc., which can interfere with the normal operation of content output. Sex can be suppressed. Further, if the images taken by a plurality of cameras are used, there is less erroneous recognition of the object held by the cameras, and the user operation can be determined with high accuracy.

以上、本発明を実施の形態をもとに説明した。上記実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。 The present invention has been described above based on the embodiments. The above-described embodiment is an example, and it is understood by those skilled in the art that various modifications are possible for each of these components and combinations of each processing process, and that such modifications are also within the scope of the present invention. is there.

50 CPU、 52 メインメモリ、 54 表示部、 56 音声出力部、 60 入出力インターフェース、 62 通信部、 64 モーションセンサ、 66 撮像部、 70 情報処理装置、 72 輝度情報取得部、 74 ユーザ操作判定部、 76 操作内容取得部、 78 操作処理部、 80 実空間情報取得部、 82 コンテンツ処理部、 100 ヘッドマウントディスプレイ、 110 カメラ、 130a 発光体、 200 コンテンツ処理装置。 50 CPU, 52 main memory, 54 display unit, 56 audio output unit, 60 input / output interface, 62 communication unit, 64 motion sensor, 66 imaging unit, 70 information processing device, 72 brightness information acquisition unit, 74 user operation judgment unit, 76 Operation content acquisition unit, 78 Operation processing unit, 80 Real space information acquisition unit, 82 Content processing unit, 100 Head mount display, 110 camera, 130a light emitter, 200 Content processing device.

Claims (15)

ヘッドマウントディスプレイ外面の複数箇所における光の輝度情報を取得する輝度情報取得部と、
前記複数箇所における輝度情報の少なくともいずれかに所定の変化が生じたとき、ユーザ操作がなされたことを判定するユーザ操作判定部と、
ユーザ操作がなされたことが判定されたとき、前記輝度情報の変化に対応づけられた操作内容をユーザ操作として取得する操作内容取得部と、
前記操作内容に対応する処理を実施する操作処理部と、
を備えたことを特徴とする情報処理装置。
A brightness information acquisition unit that acquires light brightness information at multiple locations on the outer surface of the head-mounted display,
A user operation determination unit that determines that a user operation has been performed when a predetermined change occurs in at least one of the luminance information at the plurality of locations.
When it is determined that a user operation has been performed, an operation content acquisition unit that acquires the operation content associated with the change in the luminance information as a user operation, and an operation content acquisition unit.
An operation processing unit that executes processing corresponding to the operation content, and
An information processing device characterized by being equipped with.
前記輝度情報取得部は、前記複数箇所にそれぞれ配置されたカメラによる撮影画像を取得することを特徴とする請求項1に記載の情報処理装置。 The information processing device according to claim 1, wherein the luminance information acquisition unit acquires images taken by cameras arranged at each of the plurality of locations. 前記撮影画像の少なくともいずれかを用いて、表示画像の生成に必要な実空間に係る情報を取得する実空間情報取得部をさらに備えたことを特徴とする請求項2に記載の情報処理装置。 The information processing apparatus according to claim 2, further comprising a real space information acquisition unit that acquires information related to the real space necessary for generating a display image by using at least one of the captured images. 前記ユーザ操作判定部は、前記撮影画像の少なくともいずれかが、カメラへの入射光が遮られたと見なされる所定の基準を満たしたときユーザ操作がなされたことを判定し、
前記操作内容取得部は、前記複数箇所のうち前記撮影画像が前記所定の基準を満たした位置またはその組み合わせに基づき操作内容を取得することを特徴とする請求項2または3に記載の情報処理装置。
The user operation determination unit determines that the user operation has been performed when at least one of the captured images satisfies a predetermined criterion in which the light incident on the camera is considered to be blocked.
The information processing apparatus according to claim 2 or 3, wherein the operation content acquisition unit acquires operation content based on a position or a combination thereof in which the captured image satisfies the predetermined criteria among the plurality of locations. ..
前記ユーザ操作判定部は、前記撮影画像の少なくともいずれかが、前記カメラの前に所定の物がかざされたと見なされる所定の基準を満たしたときユーザ操作がなされたことを判定し、
前記操作内容取得部は、前記複数箇所のうち前記撮影画像が前記所定の基準を満たした位置またはその組み合わせ、およびかざされた物に基づき操作内容を取得することを特徴とする請求項2または3に記載の情報処理装置。
The user operation determination unit determines that the user operation has been performed when at least one of the captured images satisfies a predetermined criterion in which a predetermined object is considered to be held in front of the camera.
Claim 2 or 3 characterized in that the operation content acquisition unit acquires operation content based on a position or a combination thereof in which the captured image satisfies the predetermined criteria among the plurality of locations, and an object held over. The information processing device described in.
前記ユーザ操作判定部は、前記撮影画像の少なくともいずれかが、前記カメラの前に所定の色の物がかざされたと見なされる所定の基準を満たしたときユーザ操作がなされたことを判定し、
前記操作内容取得部は、前記複数箇所のうち前記撮影画像が前記所定の基準を満たした位置またはその組み合わせ、およびかざされた物の色に基づき操作内容を取得することを特徴とする請求項2または3に記載の情報処理装置。
The user operation determination unit determines that the user operation has been performed when at least one of the captured images satisfies a predetermined criterion in which an object of a predetermined color is considered to be held in front of the camera.
2. The operation content acquisition unit is characterized in that the operation content acquisition unit acquires the operation content based on the position or combination thereof in which the photographed image satisfies the predetermined criteria among the plurality of locations and the color of the object held over. Or the information processing apparatus according to 3.
前記ユーザ操作判定部は、前記撮影画像の少なくともいずれかが、前記カメラの前にかざされた物が所定の動きをしたと見なされる所定の基準を満たしたときユーザ操作がなされたことを判定し、
前記操作内容取得部はさらに、前記動きに基づき操作内容を取得することを特徴とする請求項5または6に記載の情報処理装置。
The user operation determination unit determines that the user operation has been performed when at least one of the captured images satisfies a predetermined criterion in which an object held in front of the camera is considered to have made a predetermined movement. ,
The information processing device according to claim 5 or 6, wherein the operation content acquisition unit further acquires operation content based on the movement.
前記ユーザ操作判定部は、複数の前記カメラによる撮影画像を用いて、前記かざされた物の3次元空間での動きを求め、それを前記所定の基準と照合することによりユーザ操作がなされたことを判定することを特徴とする請求項7に記載の情報処理装置。 The user operation determination unit obtains the movement of the object held over in the three-dimensional space by using the images captured by the plurality of cameras, and collates it with the predetermined reference to perform the user operation. The information processing apparatus according to claim 7, wherein the information processing apparatus is determined. 前記ユーザ操作判定部は、複数の前記カメラによる撮影画像上の像の位置関係と、当該複数のカメラの位置関係に矛盾がないことを確認したうえで、前記カメラの前に物がかざされたことを判定することを特徴とする請求項5から8のいずれかに記載の情報処理装置。 After confirming that there is no contradiction between the positional relationship of the images on the images captured by the plurality of cameras and the positional relationship of the plurality of cameras, the user operation determination unit holds an object in front of the cameras. The information processing apparatus according to any one of claims 5 to 8, wherein the information processing apparatus is characterized in that the above is determined. 前記輝度情報取得部は、前記複数箇所に発光体または反射部材を備えた前記ヘッドマウントディスプレイを外部のカメラから撮影した画像を取得し、
前記ユーザ操作判定部は、前記画像における前記発光体または反射部材の像の輝度情報の少なくともいずれかに所定の変化が生じたとき、ユーザ操作がなされたことを判定することを特徴とする請求項1に記載の情報処理装置。
The luminance information acquisition unit acquires an image of the head-mounted display provided with light emitters or reflective members at a plurality of locations from an external camera.
The user operation determination unit is characterized in that it determines that a user operation has been performed when at least one of the luminance information of the image of the light emitting body or the reflective member in the image has changed. The information processing apparatus according to 1.
前記操作処理部は、前記ヘッドマウントディスプレイに画像を表示させる表示部、または音声を出力する音声出力部の出力状態を調整することを特徴とする請求項1から10のいずれかに記載の情報処理装置。 The information processing according to any one of claims 1 to 10, wherein the operation processing unit adjusts an output state of a display unit that displays an image on the head-mounted display or an audio output unit that outputs audio. apparatus. 前記操作処理部は、前記ヘッドマウントディスプレイの電源オフ、表示パネルの輝度の増減、音声のボリュームの増減、出力対象のコンテンツの再生開始、一時停止、早送り、巻き戻し、当該コンテンツの切り替え、画像のズームアップ、ズームダウン、前記ヘッドマウントディスプレイの装着バンドの長さ調整、左右の接眼レンズの間隔調整、左目用および右目用の表示画像の間隔調整のいずれかを実施することを特徴とする請求項1から10のいずれかに記載の情報処理装置。 The operation processing unit turns off the power of the head-mounted display, increases / decreases the brightness of the display panel, increases / decreases the volume of audio, starts playback of the content to be output, pauses, fast-forwards, rewinds, switches the content, and changes the image. A claim comprising zooming up, zooming down, adjusting the length of the wearing band of the head-mounted display, adjusting the distance between the left and right eyepieces, and adjusting the distance between the display images for the left eye and the right eye. The information processing apparatus according to any one of 1 to 10. 請求項1から12のいずれかに記載の情報処理装置と、
前記複数箇所にそれぞれ配置され、前記輝度情報として画像を撮影するカメラと、
前記操作処理部によって制御される出力装置と、
を備えたことを特徴とするヘッドマウントディスプレイ。
The information processing device according to any one of claims 1 to 12 and
A camera that is arranged at each of the plurality of locations and captures an image as the luminance information,
An output device controlled by the operation processing unit and
A head-mounted display featuring.
ヘッドマウントディスプレイ外面の複数箇所における光の輝度情報を所定のレートで取得するステップと、
前記複数箇所における輝度情報の少なくともいずれかに所定の変化が生じたとき、ユーザ操作がなされたことを判定するステップと、
ユーザ操作がなされたことが判定されたとき、前記輝度情報の変化に対応づけられた操作内容をユーザ操作として取得するステップと、
前記操作内容に対応する処理を実施するステップと、
を含むことを特徴とする情報処理装置によるユーザ操作処理方法。
A step of acquiring light brightness information at multiple locations on the outer surface of a head-mounted display at a predetermined rate,
A step of determining that a user operation has been performed when a predetermined change occurs in at least one of the luminance information at the plurality of locations, and a step of determining that the user operation has been performed.
When it is determined that a user operation has been performed, a step of acquiring the operation content associated with the change in the luminance information as a user operation, and
The step of executing the process corresponding to the operation content and
A user operation processing method by an information processing device, which comprises.
ヘッドマウントディスプレイ外面の複数箇所における光の輝度情報を所定のレートで取得する機能と、
前記複数箇所における輝度情報の少なくともいずれかに所定の変化が生じたとき、ユーザ操作がなされたことを判定する機能と、
ユーザ操作がなされたことが判定されたとき、前記輝度情報の変化に対応づけられた操作内容をユーザ操作として取得する機能と、
前記操作内容に対応する処理を実施する機能と、
をコンピュータに実現させることを特徴とするコンピュータプログラム。
A function to acquire light brightness information at multiple locations on the outer surface of the head-mounted display at a predetermined rate,
A function for determining that a user operation has been performed when a predetermined change occurs in at least one of the luminance information at the plurality of locations, and a function for determining that a user operation has been performed.
When it is determined that a user operation has been performed, a function to acquire the operation content associated with the change in the luminance information as a user operation, and
A function to perform processing corresponding to the above operation contents and
A computer program characterized by realizing a computer.
JP2019194524A 2019-10-25 2019-10-25 Information processing device, head-mounted display, and user operation processing method Pending JP2021068296A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019194524A JP2021068296A (en) 2019-10-25 2019-10-25 Information processing device, head-mounted display, and user operation processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019194524A JP2021068296A (en) 2019-10-25 2019-10-25 Information processing device, head-mounted display, and user operation processing method

Publications (1)

Publication Number Publication Date
JP2021068296A true JP2021068296A (en) 2021-04-30

Family

ID=75637318

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019194524A Pending JP2021068296A (en) 2019-10-25 2019-10-25 Information processing device, head-mounted display, and user operation processing method

Country Status (1)

Country Link
JP (1) JP2021068296A (en)

Similar Documents

Publication Publication Date Title
US10009542B2 (en) Systems and methods for environment content sharing
US9411160B2 (en) Head mounted display, control method for head mounted display, and image display system
US10142618B2 (en) Imaging apparatus and imaging method
US8912980B2 (en) Image processing device, image processing method, and image processing system
JP7408678B2 (en) Image processing method and head mounted display device
CN110506249B (en) Information processing apparatus, information processing method, and recording medium
CN108535868B (en) Head-mounted display device and control method thereof
JP6845111B2 (en) Information processing device and image display method
KR20180002534A (en) External imaging system, external imaging method, external imaging program
JP6094305B2 (en) Head-mounted display device and method for controlling head-mounted display device
JP7218376B2 (en) Eye-tracking method and apparatus
CN110895433B (en) Method and apparatus for user interaction in augmented reality
WO2017022769A1 (en) Head-mounted display, display control method and program
EP3402410B1 (en) Detection system
KR20190038296A (en) Image display system, image display method, and image display program
WO2020189450A1 (en) Device provided with plurality of markers
US9866823B2 (en) Head mounted display device, control method for head mounted display device, and computer program
US11094109B2 (en) Data processing
JP2021068296A (en) Information processing device, head-mounted display, and user operation processing method
JP2017183857A (en) Head-mounted display device, control method for head-mounted display device, and computer program
WO2017163649A1 (en) Image processing device
JP6705929B2 (en) Display control device and display control method
JP2020177283A (en) Device with plurality of markers
WO2018096315A1 (en) Virtual reality
GB2515131A (en) Head-mountable apparatus and systems