JP2022187199A - Image display system and image display method - Google Patents

Image display system and image display method Download PDF

Info

Publication number
JP2022187199A
JP2022187199A JP2021095090A JP2021095090A JP2022187199A JP 2022187199 A JP2022187199 A JP 2022187199A JP 2021095090 A JP2021095090 A JP 2021095090A JP 2021095090 A JP2021095090 A JP 2021095090A JP 2022187199 A JP2022187199 A JP 2022187199A
Authority
JP
Japan
Prior art keywords
image
user
sensor
area
processor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021095090A
Other languages
Japanese (ja)
Inventor
源輝 佐藤
Genki Sato
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2021095090A priority Critical patent/JP2022187199A/en
Publication of JP2022187199A publication Critical patent/JP2022187199A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

To provide an image display system capable of easily estimating the sight line of a user, for realizing foveated rendering.SOLUTION: An image display system 2 comprises: an attachment part 8 which is attached to the head of a user 12; a display part 10 which is arranged at the attachment part 8, and displays an image 14 to the user 12; a sensor 34 which detects movement of the attachment part 8; a sensor 18 which detects the movement of a controller 6; and a processor 46 which controls display of the image 14, and draws the image 14 including a high resolution area 54, and a medium resolution area 56 in which the resolution is lower than that of the high resolution area 54, and moves a pointer 16 indicating a position on the image 14, on the basis of the detection result of the sensor 18. The processor 46 estimates the sight line of the user 12 on the basis of each detection result of the sensors 18, 34, and controls the position of the high resolution area 54 so that the estimated sight line of the user 12 overlaps with the high resolution area 54.SELECTED DRAWING: Figure 7

Description

本開示は、画像表示システム及び画像表示方法に関する。 The present disclosure relates to an image display system and an image display method.

ヘッドマウントディスプレイ(HMD:Head Mounted Display)と呼ばれる頭部装着型の画像表示装置が知られている(例えば、特許文献1参照)。この種の画像表示装置は、装着部と、表示部とを有している。装着部は、例えば眼鏡形状を有し、ユーザの頭部に装着される。表示部は、装着部に配置され、ユーザに例えば仮想現実(VR:Virtual Reality)の画像を表示する。 A head-mounted image display device called a head-mounted display (HMD) is known (see Patent Document 1, for example). This type of image display device has a mounting section and a display section. The wearing part has, for example, a spectacle shape and is worn on the user's head. The display unit is arranged on the wearing unit and displays a virtual reality (VR) image to the user, for example.

上述した画像表示装置では、画像の描画処理の負荷を大幅に低減するために、フォービエイテッド・レンダリング(Foveated Rendering)と呼ばれる技術が用いられる。このフォービエイテッド・レンダリングでは、中心視野領域(中心窩領域ともいう)では高解像度で、周辺視野領域では低解像度で画像が描画される。このフォービエイテッド・レンダリングを実現するために、画像表示装置の装着部には、ユーザの視線を検出するための専用の機器が搭載されている。 In the image display device described above, a technique called foveated rendering is used in order to greatly reduce the load of image rendering processing. Foveated rendering renders images at high resolution in the central vision area (also called the foveal area) and at low resolution in the peripheral vision area. In order to realize this foveated rendering, the mounted portion of the image display device is equipped with a dedicated device for detecting the line of sight of the user.

国際公開第2018/122902号WO2018/122902

本開示は、フォービエイテッド・レンダリングを実現するために、簡易な方法でユーザの視線を推定することができる画像表示システム及び画像表示方法を提供する。 The present disclosure provides an image display system and image display method capable of estimating a user's line of sight in a simple manner in order to achieve foveated rendering.

本開示における画像表示システムは、ユーザの頭部に装着される装着部と、装着部に配置され、ユーザに画像を表示する表示部と、装着部の動きを検出する第1のセンサと、操作体の動きを検出する第2のセンサと、画像の表示を制御するプロセッサであって、第1の領域と、第1の領域の周囲に配置され且つ第1の領域よりも解像度の低い第2の領域と、を含む画像を描画し、第2のセンサの検出結果に基づいて、画像上の位置を指し示すポインタを移動させるプロセッサと、を備え、プロセッサは、第1のセンサ及び第2のセンサの各々の検出結果に基づいてユーザの視線を推定し、推定したユーザの視線が第1の領域に重畳するように第1の領域の位置を制御する。 An image display system according to the present disclosure includes a mounting unit that is worn on the head of a user, a display unit that is arranged on the mounting unit and displays an image to the user, a first sensor that detects movement of the mounting unit, an operation a second sensor for detecting body movement; a processor for controlling display of an image; and a processor that draws an image containing a region of and moves a pointer that indicates a position on the image based on the detection result of the second sensor, the processor is provided with the first sensor and the second sensor The user's line of sight is estimated based on the respective detection results, and the position of the first area is controlled so that the estimated user's line of sight is superimposed on the first area.

本開示における画像表示システム等によれば、フォービエイテッド・レンダリングを実現するために、簡易な方法でユーザの視線を推定することができる。 According to the image display system and the like according to the present disclosure, it is possible to estimate the line of sight of the user by a simple method in order to realize foveated rendering.

実施の形態に係る画像表示システムの概要を示す図である。1 is a diagram showing an overview of an image display system according to an embodiment; FIG. 実施の形態に係る画像表示システムの構成を示すブロック図である。1 is a block diagram showing the configuration of an image display system according to an embodiment; FIG. 実施の形態に係るコントローラの構成を示すブロック図である。3 is a block diagram showing the configuration of a controller according to the embodiment; FIG. 実施の形態に係るヘッドマウントディスプレイの構成を示すブロック図である。1 is a block diagram showing the configuration of a head mounted display according to an embodiment; FIG. 実施の形態に係る画像表示システムの動作の流れを示すフローチャートである。4 is a flow chart showing the flow of operations of the image display system according to the embodiment. 図5のフローチャートのステップS103を説明するための図である。6 is a diagram for explaining step S103 in the flowchart of FIG. 5; FIG. 図5のフローチャートのステップS107を説明するための図である。6 is a diagram for explaining step S107 in the flowchart of FIG. 5; FIG. 図5のフローチャートのステップS107を説明するための図である。6 is a diagram for explaining step S107 in the flowchart of FIG. 5; FIG. 図5のフローチャートのステップS107を説明するための図である。6 is a diagram for explaining step S107 in the flowchart of FIG. 5; FIG. 図5のフローチャートのステップS110を説明するための図である。6 is a diagram for explaining step S110 in the flowchart of FIG. 5; FIG. 図5のフローチャートのステップS110を説明するための図である。6 is a diagram for explaining step S110 in the flowchart of FIG. 5; FIG. 図5のフローチャートのステップS110を説明するための図である。6 is a diagram for explaining step S110 in the flowchart of FIG. 5; FIG. 図5のフローチャートのステップS110を説明するための図である。6 is a diagram for explaining step S110 in the flowchart of FIG. 5; FIG. 実施の形態の変形例に係る画像表示システムの構成を示すブロック図である。FIG. 11 is a block diagram showing the configuration of an image display system according to a modified example of the embodiment; 実施の形態の変形例に係るヘッドマウントディスプレイの構成を示すブロック図である。It is a block diagram which shows the structure of the head mounted display based on the modification of embodiment.

以下、適宜図面を参照しながら、実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。 Hereinafter, embodiments will be described in detail with reference to the drawings as appropriate. However, more detailed description than necessary may be omitted. For example, detailed descriptions of well-known matters and redundant descriptions of substantially the same configurations may be omitted. This is to avoid unnecessary verbosity in the following description and to facilitate understanding by those skilled in the art.

なお、発明者は、当業者が本開示を十分に理解するために添付図面及び以下の説明を提供するのであって、これらによって特許請求の範囲に記載の主題を限定することを意図するものではない。 It is noted that the inventors provide the accompanying drawings and the following description for a full understanding of the present disclosure by those skilled in the art and are not intended to limit the claimed subject matter thereby. No.

(実施の形態)
以下、図1~図15を参照しながら、実施の形態について説明する。
(Embodiment)
Embodiments will be described below with reference to FIGS. 1 to 15. FIG.

[1.画像表示システムの概要]
まず、図1を参照しながら、実施の形態に係る画像表示システム2の概要について説明する。図1は、実施の形態に係る画像表示システム2の概要を示す図である。図2は、実施の形態に係る画像表示システム2の構成を示すブロック図である。
[1. Overview of Image Display System]
First, an overview of an image display system 2 according to an embodiment will be described with reference to FIG. FIG. 1 is a diagram showing an overview of an image display system 2 according to an embodiment. FIG. 2 is a block diagram showing the configuration of the image display system 2 according to the embodiment.

なお、図1において、左右方向をX軸方向、前後方向をY軸方向、上下方向をZ軸方向とする。 In FIG. 1, the horizontal direction is the X-axis direction, the front-rear direction is the Y-axis direction, and the vertical direction is the Z-axis direction.

図1及び図2に示すように、実施の形態に係る画像表示システム2は、ヘッドマウントディスプレイ(以下、「HMD」と称する場合がある)4と、コントローラ6(操作体の一例)とを備える。画像表示システム2は、ヘッドマウントディスプレイ4及びコントローラ6以外の他の機器を用いないスタンドアローン型の画像表示システムである。 As shown in FIGS. 1 and 2, an image display system 2 according to the embodiment includes a head-mounted display (hereinafter sometimes referred to as "HMD") 4 and a controller 6 (an example of an operating body). . The image display system 2 is a stand-alone image display system that does not use equipment other than the head-mounted display 4 and the controller 6 .

ヘッドマウントディスプレイ4は、例えば眼鏡型又はゴーグル型のウェアラブル端末である。ヘッドマウントディスプレイ4は、装着部8と、表示部10とを有している。装着部8は、ユーザ12の両目を覆うようにして、ユーザ12の頭部に装着される筐体である。表示部10は、装着部8に配置されており、ユーザ12の両目に対向するように位置される。 The head-mounted display 4 is, for example, an eyeglass-type or goggle-type wearable terminal. The head mounted display 4 has a mounting section 8 and a display section 10 . The mounting unit 8 is a housing mounted on the head of the user 12 so as to cover both eyes of the user 12 . The display unit 10 is arranged on the mounting unit 8 and positioned so as to face both eyes of the user 12 .

表示部10は、例えば液晶ディスプレイであり、画像をユーザ12に表示する。表示部10には、例えば後述する図6の(b)に示すような画像14が表示される。図6の(b)に示す例では、画像14は、風景を示す仮想現実(VR)の三次元画像であり、樹木を示すオブジェクト13と、小屋を示すオブジェクト15と、切り株を示すオブジェクト17とを含んでいる。ユーザ12が装着部8を装着した頭部を動かすことにより、画像14のアングルが装着部8の動きに追従して変化する。画像14には、当該画像14上の位置を指し示すポインタ16が重畳表示される。ポインタ16は、例えば画像14上に表示されたアイコン等を選択する操作を行う際に用いられる。なお、図6の(b)では、ポインタ16を黒丸で図示してある。 The display unit 10 is, for example, a liquid crystal display, and displays images to the user 12 . The display unit 10 displays, for example, an image 14 as shown in (b) of FIG. 6, which will be described later. In the example shown in FIG. 6B, the image 14 is a three-dimensional virtual reality (VR) image showing a landscape, and includes an object 13 representing a tree, an object 15 representing a hut, and an object 17 representing a stump. contains. When the user 12 moves the head on which the mounting section 8 is worn, the angle of the image 14 changes following the movement of the mounting section 8 . A pointer 16 pointing to a position on the image 14 is superimposed on the image 14 . The pointer 16 is used, for example, when performing an operation of selecting an icon or the like displayed on the image 14 . In addition, in FIG. 6(b), the pointer 16 is illustrated by a black circle.

コントローラ6は、表示部10に表示された画像14の表示を操作するためのコントローラであり、ヘッドマウントディスプレイ4と無線通信可能に接続されている。コントローラ6は、ヘッドマウントディスプレイ4の装着部8から分離して配置され、ユーザ12により手で把持されて操作される。例えば、ユーザ12がコントローラ6を把持した手を動かすことにより、ポインタ16がコントローラ6の動きに追従して画像14上を移動する。 The controller 6 is a controller for operating the display of the image 14 displayed on the display unit 10 and is connected to the head mounted display 4 so as to be capable of wireless communication. The controller 6 is arranged separately from the mounting portion 8 of the head-mounted display 4, and is held and operated by the user 12 by hand. For example, when the user 12 moves the hand holding the controller 6 , the pointer 16 follows the movement of the controller 6 and moves on the image 14 .

[2.コントローラの構成]
図3を参照しながら、実施の形態に係るコントローラ6の構成について説明する。図3は、実施の形態に係るコントローラ6の構成を示すブロック図である。
[2. Controller configuration]
The configuration of the controller 6 according to the embodiment will be described with reference to FIG. FIG. 3 is a block diagram showing the configuration of the controller 6 according to the embodiment.

図3に示すように、コントローラ6は、センサ18(第2のセンサの一例)と、通信部20と、ハプティクス22と、メモリ24と、入力部26と、プロセッサ28と、バッテリ30と、USB(Universal Serial Bus)コネクタ32とを有している。 As shown in FIG. 3, the controller 6 includes a sensor 18 (an example of a second sensor), a communication unit 20, haptics 22, a memory 24, an input unit 26, a processor 28, a battery 30, a USB (Universal Serial Bus) connector 32 .

センサ18は、例えばIMU(Inertial Measurement Unit)センサであり、X軸、Y軸及びZ軸の3軸方向の加速度センサと、X軸、Y軸及びZ軸の3軸周りジャイロセンサとを含む。センサ18は、コントローラ6の6DoF(Degree of Freedom)の動きを検出する。6DoFは、動きの自由度であり、X軸、Y軸及びZ軸の3軸方向における移動と、X軸、Y軸及びZ軸の3軸周りの回転(ピッチ、ロール及びヨー)とを含む。センサ18は、検出したコントローラ6の動きを示す検出信号(検出結果の一例)をプロセッサ28に出力する。 The sensor 18 is, for example, an IMU (Inertial Measurement Unit) sensor, and includes an acceleration sensor in three axial directions of the X, Y and Z axes and a gyro sensor around the three axes of the X, Y and Z axes. The sensor 18 detects movements of the controller 6 in 6 DoF (Degree of Freedom). 6DoF is the degrees of freedom of movement, including movement in three axial directions, X, Y, and Z, and rotation (pitch, roll, and yaw) about three axes, X, Y, and Z. . The sensor 18 outputs a detection signal (an example of a detection result) indicating the detected movement of the controller 6 to the processor 28 .

なお、本実施の形態では、センサ18は、加速度センサ及びジャイロセンサを含むようにしたが、これに限定されず、例えば感圧センサ及び磁気センサ等の各種センサを含んでいてもよい。 In this embodiment, the sensor 18 includes an acceleration sensor and a gyro sensor, but is not limited to this, and may include various sensors such as a pressure sensor and a magnetic sensor.

通信部20は、例えばBluetooth(登録商標)によりヘッドマウントディスプレイ4と無線通信するための通信アダプタである。通信部20は、プロセッサ28からの指示に応じて、センサ18の検出信号をヘッドマウントディスプレイ4に送信する。 The communication unit 20 is a communication adapter for wirelessly communicating with the head mounted display 4 by Bluetooth (registered trademark), for example. The communication unit 20 transmits detection signals from the sensor 18 to the head mounted display 4 according to instructions from the processor 28 .

ハプティクス22は、コントローラ6を把持したユーザ12の手に触感を与えるためのアクチュエータである。 The haptics 22 are actuators that give a tactile sensation to the hand of the user 12 holding the controller 6 .

メモリ24は、コントローラ6を制御するためのプログラムを記憶する。 Memory 24 stores a program for controlling controller 6 .

入力部26は、例えばコントローラ6に配置されたボタン等であり、ユーザ12の操作を受け付ける。入力部26は、受け付けたユーザ12の操作を示す入力信号をプロセッサ28に出力する。 The input unit 26 is, for example, a button or the like arranged on the controller 6 and receives an operation by the user 12 . The input unit 26 outputs to the processor 28 an input signal indicating the received operation of the user 12 .

プロセッサ28は、メモリ24に記憶されたプログラムを読み出し、読み出したプログラムを実行することにより、コントローラ6を制御する。具体的には、プロセッサ28は、通信部20に対して、センサ18の検出信号をヘッドマウントディスプレイ4に送信するように指示する。 The processor 28 reads the program stored in the memory 24 and controls the controller 6 by executing the read program. Specifically, the processor 28 instructs the communication unit 20 to transmit the detection signal of the sensor 18 to the head mounted display 4 .

バッテリ30は、例えば充電可能な二次電池であり、コントローラ6の各部に電力を供給する。 The battery 30 is, for example, a rechargeable secondary battery, and supplies power to each part of the controller 6 .

USBコネクタ32は、各種機器に接続可能なコネクタである。例えば、USBコネクタ32に給電装置が接続された場合には、給電装置からの電力がUSBコネクタ32を介してバッテリ30に供給され、バッテリ30が充電される。 The USB connector 32 is a connector that can be connected to various devices. For example, when a power supply device is connected to the USB connector 32, power from the power supply device is supplied to the battery 30 via the USB connector 32, and the battery 30 is charged.

[3.ヘッドマウントディスプレイの構成]
図4を参照しながら、実施の形態に係るヘッドマウントディスプレイ4の構成について説明する。図4は、実施の形態に係るヘッドマウントディスプレイ4の構成を示すブロック図である。
[3. Configuration of head-mounted display]
The configuration of the head mounted display 4 according to the embodiment will be described with reference to FIG. FIG. 4 is a block diagram showing the configuration of the head mounted display 4 according to the embodiment.

図4に示すように、ヘッドマウントディスプレイ4は、表示部10と、センサ34(第1のセンサの一例)と、通信部36と、ハプティクス38と、メモリ40と、カメラ42と、入力部44と、プロセッサ46と、バッテリ48と、USBコネクタ50とを有している。表示部10については既述したため、ここでの説明は省略する。 As shown in FIG. 4, the head mounted display 4 includes a display unit 10, a sensor 34 (an example of a first sensor), a communication unit 36, a haptic 38, a memory 40, a camera 42, an input unit 44 , a processor 46 , a battery 48 and a USB connector 50 . Since the display unit 10 has already been described, a description thereof will be omitted here.

センサ34は、例えばIMUセンサであり、X軸、Y軸及びZ軸の3軸方向の加速度センサと、X軸、Y軸及びZ軸の3軸周りジャイロセンサとを含む。センサ34は、ヘッドマウントディスプレイ4の装着部8(図1参照)の6DoFの動きを検出する。6DoFは、動きの自由度であり、X軸、Y軸及びZ軸の3軸方向における移動と、X軸、Y軸及びZ軸の3軸周りの回転(ピッチ、ロール及びヨー)とを含む。センサ34は、検出したヘッドマウントディスプレイ4の装着部8の動きを示す検出信号(検出結果の一例)をプロセッサ46に出力する。 The sensor 34 is, for example, an IMU sensor, and includes an acceleration sensor in the X-, Y-, and Z-axes, and a gyro sensor around the X-, Y-, and Z-axes. The sensor 34 detects 6 DoF movements of the mounting portion 8 (see FIG. 1) of the head mounted display 4 . 6DoF is the degrees of freedom of movement, including movement in three axial directions, X, Y, and Z, and rotation (pitch, roll, and yaw) about three axes, X, Y, and Z. . The sensor 34 outputs a detection signal (an example of a detection result) indicating the detected movement of the mounting portion 8 of the head mounted display 4 to the processor 46 .

なお、本実施の形態では、センサ34は、加速度センサ及びジャイロセンサを含むようにしたが、これに限定されず、例えば感圧センサ及び磁気センサ等の各種センサを含んでいてもよい。 In this embodiment, the sensor 34 includes an acceleration sensor and a gyro sensor, but is not limited to this, and may include various sensors such as a pressure sensor and a magnetic sensor.

通信部36は、例えばBluetooth(登録商標)によりコントローラ6と無線通信するための通信アダプタである。通信部36は、コントローラ6から送信されたセンサ18の検出信号を受信し、受信したセンサ18の検出信号をプロセッサ46に出力する。 The communication unit 36 is a communication adapter for wirelessly communicating with the controller 6 by Bluetooth (registered trademark), for example. The communication unit 36 receives the detection signal of the sensor 18 transmitted from the controller 6 and outputs the received detection signal of the sensor 18 to the processor 46 .

ハプティクス38は、装着部8を装着したユーザ12の頭部に触感を与えるためのアクチュエータである。 The haptics 38 are actuators for giving a tactile sensation to the head of the user 12 wearing the wearing section 8 .

メモリ40は、ヘッドマウントディスプレイ4を制御するためのプログラムを記憶する。 Memory 40 stores a program for controlling head mounted display 4 .

カメラ42は、ヘッドマウントディスプレイ4の装着部8に配置され、例えばユーザ12の前方を撮影する。なお、カメラ42で撮影した映像を、表示部10に表示してもよい。また、カメラ42で撮影した映像をプロセッサ46で解析することにより、6DoFに変換可能である。この場合、カメラ42をセンサ34に置き換えてもよい。 The camera 42 is arranged on the mounting portion 8 of the head mounted display 4, and photographs the front of the user 12, for example. In addition, the image captured by the camera 42 may be displayed on the display unit 10 . Also, by analyzing the video captured by the camera 42 with the processor 46, it can be converted to 6DoF. In this case, camera 42 may be replaced with sensor 34 .

入力部44は、例えばヘッドマウントディスプレイ4の装着部8に配置されたボタン等であり、ユーザ12の操作を受け付ける。入力部44は、受け付けたユーザ12の操作を示す入力信号をプロセッサ46に出力する。 The input unit 44 is, for example, a button or the like arranged on the mounting unit 8 of the head-mounted display 4 , and receives operations from the user 12 . The input unit 44 outputs to the processor 46 an input signal indicating the received operation of the user 12 .

プロセッサ46は、メモリ40に記憶されたプログラムを読み出し、読み出したプログラムを実行することにより、ヘッドマウントディスプレイ4を制御する。具体的には、プロセッサ46は、表示部10における画像14の表示を制御するための画像処理部52を有している。 The processor 46 reads the program stored in the memory 40 and controls the head mounted display 4 by executing the read program. Specifically, the processor 46 has an image processing section 52 for controlling display of the image 14 on the display section 10 .

画像処理部52は、後述する図6の(b)に示すように、高解像度領域54(第1の領域の一例)と、高解像度領域54の周囲に配置され且つ高解像度領域54よりも解像度の低い中解像度領域56(第2の領域の一例)と、中解像度領域56の周囲に配置され且つ中解像度領域56よりもさらに解像度の低い低解像度領域58(第2の領域の一例)とを含む画像14を描画する。本実施の形態では、高解像度領域54は円形状の領域であり、中解像度領域56は、高解像度領域54と中心を同一とする円環状の領域である。図6の(b)において、高解像度領域54は濃い灰色で示す領域であり、中解像度領域56は薄い灰色で示す領域であり、低解像度領域58は白色で示す領域である。この時、高解像度領域54の面積は、ユーザ12の視線の微細な動きに対応してやや広めにするのが好ましい。なお、高解像度領域54の解像度を100%としたとき、中解像度領域56の解像度は例えば60%、低解像度領域の解像度は例えば20%である。 The image processing unit 52 includes a high-resolution area 54 (an example of a first area) and a high-resolution area 54 arranged around the high-resolution area 54 and having a higher resolution than the high-resolution area 54, as shown in FIG. and a low resolution area 58 (an example of a second area) arranged around the intermediate resolution area 56 and having a resolution lower than that of the intermediate resolution area 56 (an example of a second area). Render the containing image 14 . In this embodiment, the high-resolution area 54 is a circular area, and the medium-resolution area 56 is an annular area having the same center as the high-resolution area 54 . In FIG. 6B, the high resolution area 54 is the dark gray area, the medium resolution area 56 is the light gray area, and the low resolution area 58 is the white area. At this time, it is preferable that the area of the high-resolution area 54 is made slightly wider in response to fine movements of the user's 12 line of sight. When the resolution of the high-resolution area 54 is 100%, the resolution of the medium-resolution area 56 is, for example, 60%, and the resolution of the low-resolution area is, for example, 20%.

また、画像処理部52は、センサ34の検出信号に基づいて、ヘッドマウントディスプレイ4の装着部8の動きに追従して画像14のアングルを変化させる。また、画像処理部52は、コントローラ6から送信されたセンサ18の検出信号に基づいて、コントローラ6の動きに追従してポインタ16を画像14上で移動させる。 The image processing unit 52 also changes the angle of the image 14 based on the detection signal of the sensor 34 to follow the movement of the mounting unit 8 of the head mounted display 4 . Further, the image processing unit 52 moves the pointer 16 on the image 14 by following the movement of the controller 6 based on the detection signal of the sensor 18 transmitted from the controller 6 .

さらに、画像処理部52は、センサ34の検出信号及びコントローラ6のセンサ18の検出信号に基づいてユーザ12の視線を推定し、推定したユーザ12の視線が高解像度領域54に重畳するように高解像度領域54の位置を制御する。これにより、中心視野領域では高解像度で、周辺視野領域では低解像度で画像14が描画される、フォービエイテッド・レンダリングが実現される。 Further, the image processing unit 52 estimates the line of sight of the user 12 based on the detection signal of the sensor 34 and the detection signal of the sensor 18 of the controller 6 , and performs a high resolution image so that the estimated line of sight of the user 12 is superimposed on the high resolution area 54 . Controls the position of the resolution area 54 . This provides foveated rendering in which the image 14 is rendered at high resolution in the central vision area and at low resolution in the peripheral vision area.

バッテリ48は、例えば充電可能な二次電池であり、ヘッドマウントディスプレイ4の各部に電力を供給する。 The battery 48 is, for example, a rechargeable secondary battery, and supplies power to each part of the head mounted display 4 .

USBコネクタ50は、各種機器に接続可能なコネクタである。例えば、USBコネクタ50に給電装置が接続された場合には、給電装置からの電力がUSBコネクタ50を介してバッテリ48に供給され、バッテリ48が充電される。 The USB connector 50 is a connector that can be connected to various devices. For example, when a power supply device is connected to the USB connector 50, power from the power supply device is supplied to the battery 48 via the USB connector 50, and the battery 48 is charged.

[4.画像表示システムの動作]
図5~図13を参照しながら、実施の形態に係る画像表示システム2の動作について説明する。図5は、実施の形態に係る画像表示システム2の動作の流れを示すフローチャートである。図6は、図5のフローチャートのステップS103を説明するための図である。図7~図9は、図5のフローチャートのステップS107を説明するための図である。図10~図13は、図5のフローチャートのステップS110を説明するための図である。
[4. Operation of Image Display System]
The operation of the image display system 2 according to the embodiment will be described with reference to FIGS. 5 to 13. FIG. FIG. 5 is a flow chart showing the operation flow of the image display system 2 according to the embodiment. FIG. 6 is a diagram for explaining step S103 in the flowchart of FIG. 7 to 9 are diagrams for explaining step S107 in the flowchart of FIG. 10 to 13 are diagrams for explaining step S110 in the flowchart of FIG.

なお、図6~図13の各々の(a)は、ヘッドマウントディスプレイ4とコントローラ6との位置関係を示す上面図である。また、図6~図13の各々の(b)は、ヘッドマウントディスプレイ4とコントローラ6との位置関係がそれぞれ図6~図13の各々の(a)である場合における、ヘッドマウントディスプレイ4の表示部10に表示される画像14の一例である。また、図6~図13の各々の(b)において、破線の十字線の交点は、画像14の中心(すなわち、表示部10の表示面の中心)を表している。 6 to 13 are top views showing the positional relationship between the head mounted display 4 and the controller 6. FIG. Each (b) of FIGS. 6 to 13 shows the display of the head mounted display 4 when the positional relationship between the head mounted display 4 and the controller 6 is the same as (a) of each of FIGS. 6 to 13. 1 is an example of an image 14 displayed on the unit 10; In addition, in (b) of each of FIGS. 6 to 13, the intersection point of the dashed cross lines represents the center of the image 14 (that is, the center of the display surface of the display unit 10).

まず、ユーザ12は、ヘッドマウントディスプレイ4の装着部8を頭部に装着し、コントローラ6を手で把持する。この状態で、図5に示すように、まず、ヘッドマウントディスプレイ4においてキャリブレーションが行われ(S101)、次いで、コントローラ6においてキャリブレーションが行われる(S102)。 First, the user 12 wears the mounting portion 8 of the head-mounted display 4 on the head and holds the controller 6 by hand. In this state, as shown in FIG. 5, calibration is first performed in the head mounted display 4 (S101), and then calibration is performed in the controller 6 (S102).

これにより、ヘッドマウントディスプレイ4のプロセッサ46は、ヘッドマウントディスプレイ4及びコントローラ6の各々の中心(正面)の初期位置を決定する(S103)。以下、この初期位置では、図6の(a)に示すように、ヘッドマウントディスプレイ4及びコントローラ6の各々の中心は、同じ方向(Y軸のプラス方向)を向いているものとして説明する。この時、図6の(b)に示すように、高解像度領域54の中心は画像14の中心と一致しており、ポインタ16は、画像14のオブジェクト15の中心に重畳しているものとする。なお、この時、画像14のオブジェクト15の中心は、画像14の中心と一致している。 Thereby, the processor 46 of the head mounted display 4 determines the initial position of the center (front) of each of the head mounted display 4 and the controller 6 (S103). Hereinafter, in this initial position, as shown in FIG. 6A, the center of each of the head mounted display 4 and the controller 6 is oriented in the same direction (plus direction of the Y axis). At this time, as shown in FIG. 6B, the center of the high-resolution area 54 coincides with the center of the image 14, and the pointer 16 is superimposed on the center of the object 15 of the image 14. . At this time, the center of the object 15 in the image 14 coincides with the center of the image 14 .

ヘッドマウントディスプレイ4のプロセッサ46の画像処理部52は、コントローラ6のセンサ18の検出信号に含まれる、コントローラ6の回転角度を示す回転角度データを取得する(S104)。次いで、プロセッサ46の画像処理部52は、ヘッドマウントディスプレイ4のセンサ34の検出信号に含まれる、ヘッドマウントディスプレイ4の装着部8の回転角度を示す回転角度データを取得する(S105)。 The image processing unit 52 of the processor 46 of the head mounted display 4 acquires the rotation angle data indicating the rotation angle of the controller 6 included in the detection signal of the sensor 18 of the controller 6 (S104). Next, the image processing unit 52 of the processor 46 acquires rotation angle data indicating the rotation angle of the mounting unit 8 of the head mounted display 4, which is included in the detection signal of the sensor 34 of the head mounted display 4 (S105).

なお、本実施の形態において、「回転」とは、Z軸周りの回転を意味し、「回転角度」とは、Z軸周りの回転における回転角度を意味するものとする。また、図6~図13の各々の(a)に示す上面図において、初期位置におけるヘッドマウントディスプレイ4及びコントローラ6の各々の回転角度を0°とし、初期位置から時計方向(図6の(a)において矢印Pで示す方向)(以下、「右方」ともいう)へ回転した際の回転角度を正とし、初期位置から反時計方向(図6の(a)において矢印Qで示す方向)(以下、「左方」ともいう)へ回転した際の回転角度を負とする。 In the present embodiment, "rotation" means rotation around the Z-axis, and "rotation angle" means the rotation angle in rotation around the Z-axis. In the top views shown in (a) of each of FIGS. 6 to 13, the rotation angle of each of the head mounted display 4 and the controller 6 at the initial position is assumed to be 0°, and clockwise from the initial position ((a) of FIG. 6). ) in the direction indicated by the arrow P) (hereinafter also referred to as “rightward”), the rotation angle is positive, and the counterclockwise direction from the initial position (the direction indicated by the arrow Q in FIG. 6(a)) ( Hereinafter, the rotation angle when rotated to the left is assumed to be negative.

プロセッサ46の画像処理部52は、コントローラ6の回転角度とヘッドマウントディスプレイ4の装着部8の回転角度との差分の絶対値が、第1の閾値よりも大きく且つ第2の閾値よりも小さいか否かを判定する(S106)。すなわち、上記差分の絶対値が次式1を満たすか否かを判定する。 The image processing unit 52 of the processor 46 determines whether the absolute value of the difference between the rotation angle of the controller 6 and the rotation angle of the mounting unit 8 of the head-mounted display 4 is larger than the first threshold and smaller than the second threshold. It is determined whether or not (S106). That is, it is determined whether or not the absolute value of the difference satisfies the following equation (1).

第1の閾値<|コントローラ6の回転角度-HMD4の回転角度|<第2の閾値 (式1) First threshold<|Rotation angle of controller 6−Rotation angle of HMD 4|<Second threshold (Formula 1)

上式1において、第1の閾値は、例えば5°である。また、第2の閾値は、第1の閾値よりも大きい値であり、例えば45°である。 In Equation 1, the first threshold is, for example, 5°. Also, the second threshold is a value larger than the first threshold, eg, 45°.

上記差分の絶対値が上式1を満たす場合、すなわち、上記差分の絶対値が第1の閾値よりも大きく且つ第2の閾値よりも小さい場合には(S106でYES)、プロセッサ46の画像処理部52は、ユーザ12の視線がポインタ16の位置にある(すなわち、ユーザ12がポインタ16の動きを目で追っている)と推定する。プロセッサ46の画像処理部52は、高解像度領域54の中心位置をポインタ16の位置に決定する(S107)。そして、プロセッサ46の画像処理部52は、ポインタ16が高解像度領域54に重畳するように高解像度領域54の位置を制御するフォービエイテッド・レンダリングを実行し(S108)、画像14を描画する(S109)。 If the absolute value of the difference satisfies the above equation 1, that is, if the absolute value of the difference is larger than the first threshold and smaller than the second threshold (YES in S106), the image processing of the processor 46 Unit 52 assumes that user 12's line of sight is at pointer 16 (ie, user 12 is following the movement of pointer 16 with their eyes). The image processing unit 52 of the processor 46 determines the center position of the high resolution area 54 as the position of the pointer 16 (S107). Then, the image processing unit 52 of the processor 46 executes foveated rendering for controlling the position of the high resolution area 54 so that the pointer 16 is superimposed on the high resolution area 54 (S108), and draws the image 14 ( S109).

ここで、図7~図9を参照しながら、上記差分の絶対値が第1の閾値よりも大きく且つ第2の閾値よりも小さい場合の例について説明する。 Here, an example in which the absolute value of the difference is larger than the first threshold and smaller than the second threshold will be described with reference to FIGS. 7 to 9. FIG.

図7の(a)に示す例では、ヘッドマウントディスプレイ4の装着部8の回転角度は0°であり、コントローラ6の回転角度は20°である。すなわち、ユーザ12は、ヘッドマウントディスプレイ4の装着部8を初期位置から回転させず、コントローラ6を初期位置から右方に20°回転させている。この時、上記差分の絶対値は、|20°-0°|=20°となり、上式1を満たすようになる。なお、図7の(b)に示すように、画像14のアングルは初期アングル(図6の(b)に示すアングル)から変化せず、ポインタ16は、コントローラ6の回転に追従して、画像14のオブジェクト15に対して当該オブジェクト15の中心から右方に所定距離(コントローラ6の回転角度20°に対応する距離)だけ移動する。この場合、プロセッサ46の画像処理部52は、ユーザ12の視線がポインタ16の位置にあると推定し、高解像度領域54の中心位置をポインタ16の位置に決定する。 In the example shown in FIG. 7A, the rotation angle of the mounting portion 8 of the head mounted display 4 is 0°, and the rotation angle of the controller 6 is 20°. That is, the user 12 does not rotate the mounting portion 8 of the head mounted display 4 from the initial position, but rotates the controller 6 rightward from the initial position by 20°. At this time, the absolute value of the difference is |20°−0°|=20°, which satisfies the above equation (1). As shown in FIG. 7B, the angle of the image 14 does not change from the initial angle (the angle shown in FIG. 6B), and the pointer 16 follows the rotation of the controller 6 to move the image. 14 to the right from the center of the object 15 by a predetermined distance (a distance corresponding to a rotation angle of 20° of the controller 6). In this case, the image processing unit 52 of the processor 46 estimates that the line of sight of the user 12 is at the position of the pointer 16 and determines the center position of the high resolution area 54 to be the position of the pointer 16 .

図8の(a)に示す例では、ヘッドマウントディスプレイ4の装着部8の回転角度は-20°であり、コントローラ6の回転角度は0°である。すなわち、ユーザ12は、コントローラ6を初期位置から回転させず、ヘッドマウントディスプレイ4の装着部8を初期位置から左方に20°回転させている。この時、上記差分の絶対値は、|0°-(-20°)|=20°となり、上式1を満たすようになる。なお、図8の(b)に示すように、画像14のアングルは、初期アングルから左方に所定角度(ヘッドマウントディスプレイ4の装着部8の回転角度-20°に対応する角度)だけ変化する。一方、ポインタ16と画像14のオブジェクト15との位置関係は変化しないため、画像14のアングルの変化に伴って、ポインタ16は、オブジェクト15とともに画像14の中心から右方にずれるようになる。この場合、プロセッサ46の画像処理部52は、ユーザ12の視線がポインタ16の位置にあると推定し、高解像度領域54の中心位置をポインタ16の位置に決定する。 In the example shown in FIG. 8(a), the rotation angle of the mounting portion 8 of the head mounted display 4 is -20°, and the rotation angle of the controller 6 is 0°. That is, the user 12 does not rotate the controller 6 from the initial position, but rotates the mounting section 8 of the head mounted display 4 leftward by 20° from the initial position. At this time, the absolute value of the difference is |0°−(−20°)|=20°, which satisfies the above equation (1). Note that, as shown in FIG. 8B, the angle of the image 14 changes from the initial angle to the left by a predetermined angle (the angle corresponding to the rotation angle of the mounting portion 8 of the head mounted display 4 -20°). . On the other hand, since the positional relationship between the pointer 16 and the object 15 in the image 14 does not change, the pointer 16 shifts to the right from the center of the image 14 together with the object 15 as the angle of the image 14 changes. In this case, the image processing unit 52 of the processor 46 estimates that the line of sight of the user 12 is at the position of the pointer 16 and determines the center position of the high resolution area 54 to be the position of the pointer 16 .

図9の(a)に示す例では、ヘッドマウントディスプレイ4の装着部8の回転角度は-45°であり、コントローラ6の回転角度は-20°である。すなわち、ユーザ12は、ヘッドマウントディスプレイ4の装着部8を初期位置から左方に45°回転させ、且つ、コントローラ6を初期位置から左方に20°回転させている。この時、上記差分の絶対値は、|-20°-(-45°)|=25°となり、上式1を満たすようになる。なお、図9の(b)に示すように、画像14のアングルは、初期アングルから左方に所定角度(ヘッドマウントディスプレイ4の装着部8の回転角度-45°に対応する角度)だけ変化する。一方、ポインタ16は、コントローラ6の回転に追従して、画像14のオブジェクト15に対して当該オブジェクト15の中心から左方に所定距離(コントローラ6の回転角度-20°に対応する距離)だけ移動する。その結果、ポインタ16は、画像14の中心から右方にずれるようになる。この場合、プロセッサ46の画像処理部52は、ユーザ12の視線がポインタ16の位置にあると推定し、高解像度領域54の中心位置をポインタ16の位置に決定する。 In the example shown in FIG. 9A, the rotation angle of the mounting portion 8 of the head mounted display 4 is -45°, and the rotation angle of the controller 6 is -20°. That is, the user 12 rotates the mounting portion 8 of the head-mounted display 4 to the left from the initial position by 45 degrees, and rotates the controller 6 to the left from the initial position by 20 degrees. At this time, the absolute value of the difference is |−20°−(−45°)|=25°, which satisfies Equation 1 above. As shown in FIG. 9B, the angle of the image 14 changes from the initial angle to the left by a predetermined angle (the angle corresponding to the rotation angle of the mounting portion 8 of the head mounted display 4 -45°). . On the other hand, the pointer 16 follows the rotation of the controller 6 and moves a predetermined distance to the left of the object 15 in the image 14 from the center of the object 15 (distance corresponding to the rotation angle of the controller 6 -20°). do. As a result, the pointer 16 is shifted rightward from the center of the image 14 . In this case, the image processing unit 52 of the processor 46 estimates that the line of sight of the user 12 is at the position of the pointer 16 and determines the center position of the high resolution area 54 to be the position of the pointer 16 .

図5のフローチャートに戻り、ステップS106において、上記差分の絶対値が上式1を満たさない場合、すなわち、上記差分の絶対値が第1の閾値以下である、又は、第2の閾値以上である場合には(S106でNO)、プロセッサ46の画像処理部52は、ユーザ12の視線が画像14の中心にある(すなわち、ユーザ12が画像14の中心を注視している)と推定する。そして、プロセッサ46の画像処理部52は、高解像度領域54の中心位置を画像14の中心に決定する(S110)。そして、プロセッサ46の画像処理部52は、画像14の中心が高解像度領域54に重畳するように高解像度領域54の位置を制御するフォービエイテッド・レンダリングを実行し(S108)、画像14を描画する(S109)。 Returning to the flowchart of FIG. 5, in step S106, if the absolute value of the difference does not satisfy the above equation 1, that is, the absolute value of the difference is less than or equal to the first threshold, or more than or equal to the second threshold. In that case (NO in S106), the image processing unit 52 of the processor 46 estimates that the line of sight of the user 12 is at the center of the image 14 (that is, the user 12 is gazing at the center of the image 14). Then, the image processing unit 52 of the processor 46 determines the center position of the high resolution area 54 as the center of the image 14 (S110). Then, the image processing unit 52 of the processor 46 executes foveated rendering for controlling the position of the high resolution area 54 so that the center of the image 14 overlaps the high resolution area 54 (S108), and draws the image 14. (S109).

ここで、図10~図13を参照しながら、上記差分の絶対値が第1の閾値以下である、又は、第2の閾値以上である場合の例について説明する。 Now, with reference to FIGS. 10 to 13, examples of cases where the absolute value of the difference is less than or equal to the first threshold or greater than or equal to the second threshold will be described.

図10の(a)に示す例では、ヘッドマウントディスプレイ4の装着部8の回転角度は0°であり、コントローラ6の回転角度は0°である。すなわち、ユーザ12は、ヘッドマウントディスプレイ4の装着部8及びコントローラ6のいずれも初期位置から回転させていない。この時、上記差分の絶対値は、|0°-0°|=0°となり、上式1を満たさない。なお、図10の(b)に示すように、画像14のアングルは初期アングルから変化せず、ポインタ16は、画像14のオブジェクト15に対して当該オブジェクト15の中心から移動しない。この場合、プロセッサ46の画像処理部52は、ユーザ12の視線が画像14の中心にあると推定し、高解像度領域54の中心位置を画像14の中心に決定する。 In the example shown in FIG. 10(a), the rotation angle of the mounting portion 8 of the head mounted display 4 is 0°, and the rotation angle of the controller 6 is 0°. That is, the user 12 has not rotated either the mounting section 8 of the head mounted display 4 or the controller 6 from the initial position. At this time, the absolute value of the difference is |0°−0°|=0°, which does not satisfy Equation 1 above. Note that, as shown in FIG. 10B, the angle of the image 14 does not change from the initial angle, and the pointer 16 does not move from the center of the object 15 of the image 14 with respect to the object 15 . In this case, the image processing portion 52 of the processor 46 assumes that the line of sight of the user 12 is at the center of the image 14 and determines the center position of the high resolution area 54 to be the center of the image 14 .

図11の(a)に示す例では、ヘッドマウントディスプレイ4の装着部8の回転角度は-45°であり、コントローラ6の回転角度は0°である。すなわち、ユーザ12は、コントローラ6を初期位置から回転させず、ヘッドマウントディスプレイ4の装着部8を初期位置から左方に45°回転させている。この時、上記差分の絶対値は、|0°-(-45°)|=45°となり、上式1を満たさない。なお、図11の(b)に示すように、画像14のアングルは、初期アングルから左方に所定角度(ヘッドマウントディスプレイ4の装着部8の回転角度-45°に対応する角度)だけ変化する。一方、ポインタ16と画像14のオブジェクト15との位置関係は変化しないため、画像14のアングルの変化に伴って、ポインタ16は、オブジェクト15とともに画像14の中心から右方にずれるようになる。この場合、プロセッサ46の画像処理部52は、ユーザ12の視線が画像14の中心にあると推定し、高解像度領域54の中心位置を画像14の中心に決定する。 In the example shown in FIG. 11(a), the rotation angle of the mounting portion 8 of the head mounted display 4 is -45°, and the rotation angle of the controller 6 is 0°. That is, the user 12 does not rotate the controller 6 from the initial position, but rotates the mounting section 8 of the head mounted display 4 leftward from the initial position by 45°. At this time, the absolute value of the difference is |0°−(−45°)|=45°, which does not satisfy Equation 1 above. Note that, as shown in FIG. 11B, the angle of the image 14 is changed from the initial angle to the left by a predetermined angle (the angle corresponding to the rotation angle of the mounting portion 8 of the head mounted display 4 -45°). . On the other hand, since the positional relationship between the pointer 16 and the object 15 in the image 14 does not change, the pointer 16 shifts to the right from the center of the image 14 together with the object 15 as the angle of the image 14 changes. In this case, the image processing portion 52 of the processor 46 assumes that the line of sight of the user 12 is at the center of the image 14 and determines the center position of the high resolution area 54 to be the center of the image 14 .

図12の(a)に示す例では、ヘッドマウントディスプレイ4の装着部8の回転角度は-45°であり、コントローラ6の回転角度は20°である。すなわち、ユーザ12は、ヘッドマウントディスプレイ4の装着部8を初期位置から左方に45°回転させ、コントローラ6を初期位置から右方に20°回転させている。この時、上記差分の絶対値は、|20°-(-45°)|=65°となり、上式1を満たさない。なお、図12の(b)に示すように、画像14のアングルは、初期アングルから左方に所定角度(ヘッドマウントディスプレイ4の装着部8の回転角度-45°に対応する角度)だけ変化する。一方、ポインタ16は、コントローラ6の回転に追従して、画像14のオブジェクト15に対して当該オブジェクト15の中心から右方に所定距離(コントローラ6の回転角度20°に対応する距離)だけ移動する。この場合、プロセッサ46の画像処理部52は、ユーザ12の視線が画像14の中心にあると推定し、高解像度領域54の中心位置を画像14の中心に決定する。 In the example shown in FIG. 12(a), the rotation angle of the mounting portion 8 of the head mounted display 4 is -45°, and the rotation angle of the controller 6 is 20°. That is, the user 12 rotates the mounting portion 8 of the head-mounted display 4 to the left from the initial position by 45 degrees, and rotates the controller 6 to the right from the initial position by 20 degrees. At this time, the absolute value of the difference is |20°−(−45°)|=65°, which does not satisfy Equation 1 above. Note that, as shown in FIG. 12B, the angle of the image 14 is changed from the initial angle to the left by a predetermined angle (the angle corresponding to the rotation angle of the mounting portion 8 of the head mounted display 4 -45°). . On the other hand, the pointer 16 follows the rotation of the controller 6 and moves to the right of the object 15 in the image 14 from the center of the object 15 by a predetermined distance (distance corresponding to the rotation angle of 20 degrees of the controller 6). . In this case, the image processing portion 52 of the processor 46 assumes that the line of sight of the user 12 is at the center of the image 14 and determines the center position of the high resolution area 54 to be the center of the image 14 .

図13の(a)に示す例では、ヘッドマウントディスプレイ4の装着部8の回転角度は0°であり、コントローラ6の回転角度は-2°である。すなわち、ユーザ12は、ヘッドマウントディスプレイ4の装着部8を初期位置から回転させず、コントローラ6を初期位置から左方に2°回転させている。この時、上記差分の絶対値は、|2°-0°|=2°となり、上式1を満たさない。なお、図13の(b)に示すように、画像14のアングルは、初期アングルから変化しない。一方、ポインタ16は、コントローラ6の回転に追従して、画像14のオブジェクト15に対して当該オブジェクト15の中心から左方に所定距離(コントローラ6の回転角度2°に対応する距離)だけ移動する。この場合、プロセッサ46の画像処理部52は、ユーザ12の視線が画像14の中心にあると推定し、高解像度領域54の中心位置を画像14の中心に決定する。 In the example shown in FIG. 13(a), the rotation angle of the mounting portion 8 of the head mounted display 4 is 0°, and the rotation angle of the controller 6 is -2°. That is, the user 12 does not rotate the mounting portion 8 of the head mounted display 4 from the initial position, but rotates the controller 6 leftward from the initial position by 2 degrees. At this time, the absolute value of the difference is |2°−0°|=2°, which does not satisfy the above equation (1). Incidentally, as shown in FIG. 13(b), the angle of the image 14 does not change from the initial angle. On the other hand, the pointer 16 follows the rotation of the controller 6 and moves to the left of the object 15 in the image 14 from the center of the object 15 by a predetermined distance (distance corresponding to the rotation angle of 2° of the controller 6). . In this case, the image processing portion 52 of the processor 46 assumes that the line of sight of the user 12 is at the center of the image 14 and determines the center position of the high resolution area 54 to be the center of the image 14 .

図5のフローチャートに戻り、ステップS109の後、画像14の表示を継続する場合には(S111でYES)、上述したステップS104に戻る。一方、画像14の表示を継続しない場合には(S111でNO)、図5のフローチャートを終了する。 Returning to the flowchart of FIG. 5, after step S109, if the display of the image 14 is to be continued (YES in S111), the process returns to step S104 described above. On the other hand, if the display of the image 14 is not to be continued (NO in S111), the flow chart of FIG. 5 ends.

[5.効果]
本実施の形態では、画像表示システム2は、ユーザ12の頭部に装着される装着部8と、装着部8に配置され、ユーザ12に画像14を表示する表示部10と、装着部8の動きを検出するセンサ34と、操作体(コントローラ6)の動きを検出するセンサ18と、画像14の表示を制御するプロセッサ46であって、高解像度領域54と、高解像度領域54の周囲に配置され且つ高解像度領域54よりも解像度の低い中解像度領域56(低解像度領域58)と、を含む画像14を描画し、センサ18の検出結果に基づいて、画像14上の位置を指し示すポインタ16を移動させるプロセッサ46と、を備える。プロセッサ46は、センサ34及びセンサ18の各々の検出結果に基づいてユーザ12の視線を推定し、推定したユーザ12の視線が高解像度領域54に重畳するように高解像度領域54の位置を制御する。
[5. effect]
In this embodiment, the image display system 2 includes a mounting unit 8 mounted on the head of the user 12 , a display unit 10 arranged on the mounting unit 8 and displaying an image 14 to the user 12 , and A sensor 34 for detecting movement, a sensor 18 for detecting movement of the operating body (controller 6), and a processor 46 for controlling display of the image 14, which are arranged in a high resolution area 54 and around the high resolution area 54. and a middle resolution region 56 (low resolution region 58) having a resolution lower than that of the high resolution region 54, and a pointer 16 pointing to a position on the image 14 based on the detection result of the sensor 18. and a processor 46 for moving. The processor 46 estimates the line of sight of the user 12 based on the detection results of the sensors 34 and 18, and controls the position of the high resolution area 54 so that the estimated line of sight of the user 12 is superimposed on the high resolution area 54. .

これによれば、プロセッサ46は、装着部8の動き及び操作体の動きの各検出結果を利用して、フォービエイテッド・レンダリングを実現するために、簡易な方法でユーザ12の視線を推定することができる。その結果、ユーザ12の視線を検出するための専用の機器を装着部8に搭載しなくてもよいため、ヘッドマウントディスプレイ4の小型化及び省電力化を図ることができる。 According to this, the processor 46 estimates the line of sight of the user 12 by a simple method in order to realize foveated rendering using the respective detection results of the movement of the mounting unit 8 and the movement of the operating body. be able to. As a result, since it is not necessary to mount a dedicated device for detecting the line of sight of the user 12 on the mounting unit 8, the size and power consumption of the head mounted display 4 can be reduced.

また、本実施の形態では、センサ34は、装着部8の回転角度を検出する。センサ18は、操作体の回転角度を検出する。プロセッサ46は、操作体の回転角度と装着部8の回転角度との差分に基づいて、ユーザ12の視線を推定する。 Moreover, in the present embodiment, the sensor 34 detects the rotation angle of the mounting portion 8 . A sensor 18 detects the rotation angle of the operating body. The processor 46 estimates the line of sight of the user 12 based on the difference between the rotation angle of the operating body and the rotation angle of the mounting section 8 .

これによれば、プロセッサ46は、操作体の回転角度と装着部8の回転角度との差分に基づいて、ユーザ12の視線を容易に推定することができる。 According to this, the processor 46 can easily estimate the line of sight of the user 12 based on the difference between the rotation angle of the operating body and the rotation angle of the mounting section 8 .

また、本実施の形態では、プロセッサ46は、(i)上記差分が第1の閾値よりも大きく、且つ、第1の閾値よりも大きい第2の閾値よりも小さい場合には、ユーザ12の視線がポインタ16の位置にあると推定し、ポインタ16が高解像度領域54に重畳するように高解像度領域54の位置を制御し、(ii)上記差分が第1の閾値以下である、又は、第2の閾値以上である場合には、ユーザ12の視線が画像14の中心にあると推定し、画像14の中心が高解像度領域54に重畳するように高解像度領域54の位置を制御する。 In addition, in the present embodiment, the processor 46 determines (i) if the difference is greater than a first threshold and less than a second threshold that is greater than the first threshold, the line of sight of the user 12 is at the position of the pointer 16, the position of the high resolution region 54 is controlled so that the pointer 16 is superimposed on the high resolution region 54, and (ii) the difference is less than or equal to the first threshold, or If it is greater than or equal to the threshold of 2, it is assumed that the line of sight of the user 12 is at the center of the image 14 and the position of the high resolution area 54 is controlled so that the center of the image 14 overlaps the high resolution area 54 .

これによれば、プロセッサ46は、操作体の回転角度と装着部8の回転角度との差分に基づいて、ユーザ12の視線がポインタ16の位置又は画像14の中心にあると容易に推定することができる。 According to this, the processor 46 can easily estimate that the line of sight of the user 12 is at the position of the pointer 16 or at the center of the image 14 based on the difference between the rotation angle of the operating body and the rotation angle of the mounting section 8. can be done.

また、本実施の形態では、操作体は、装着部8から分離して配置され、ユーザ12により操作されるコントローラ6である。 Further, in the present embodiment, the operating body is the controller 6 which is arranged separately from the mounting section 8 and operated by the user 12 .

これによれば、プロセッサ46は、装着部8の動き及びコントローラ6の動きの各検出結果を利用して、フォービエイテッド・レンダリングを実現するために、簡易な方法でユーザ12の視線を推定することができる。 According to this, the processor 46 utilizes the detection results of the movement of the mounting part 8 and the movement of the controller 6 to estimate the line of sight of the user 12 in a simple manner in order to achieve foveated rendering. be able to.

また、本実施の形態では、画像表示方法は、(a)ユーザ12の頭部に装着される装着部8であって、ユーザ12に画像14を表示する表示部10を有する装着部8の動きを検出するステップと、(b)操作体(コントローラ6)の動きを検出するステップと、(c)高解像度領域54と、高解像度領域54の周囲に配置され且つ高解像度領域54よりも解像度の低い中解像度領域56(低解像度領域58)と、を含む画像14を描画するステップと、(d)上記(b)の検出結果に基づいて、画像14上の位置を指し示すポインタ16を移動させるステップと、(e)上記(a)の検出結果及び上記(b)の検出結果に基づいてユーザ12の視線を推定し、推定したユーザ12の視線が高解像度領域54に重畳するように高解像度領域54の位置を制御するステップと、を含む。 In addition, in the present embodiment, the image display method is as follows: (a) movement of the wearing unit 8 that is worn on the head of the user 12 and that has a display unit 10 that displays the image 14 to the user 12; (b) detecting the movement of the operating body (controller 6); (d) moving the pointer 16 pointing to a position on the image 14 based on the detection result of (b) above; and (e) estimating the line of sight of the user 12 based on the detection result of (a) above and the detection result of (b) above, and superimposing the estimated line of sight of the user 12 on the high resolution area 54 . and controlling the position of 54.

これによれば、上述と同様に、フォービエイテッド・レンダリングを実現するために、簡易な方法でユーザ12の視線を推定することができる。 According to this, the line of sight of the user 12 can be estimated by a simple method in order to realize foveated rendering, as described above.

[6.変形例]
図14を参照しながら、実施の形態の変形例に係る画像表示システム2Aの構成について説明する。図14は、実施の形態の変形例に係る画像表示システム2Aの構成を示すブロック図である。
[6. Modification]
A configuration of an image display system 2A according to a modification of the embodiment will be described with reference to FIG. FIG. 14 is a block diagram showing the configuration of an image display system 2A according to a modification of the embodiment.

図14に示すように、実施の形態の変形例に係る画像表示システム2Aは、ヘッドマウントディスプレイ4Aと、コントローラ6と、端末装置60とを備える。画像表示システム2Aは、ヘッドマウントディスプレイ4及びコントローラ6以外に、端末装置60を用いるテザード型の画像表示システムである。 As shown in FIG. 14, an image display system 2A according to the modified example of the embodiment includes a head mounted display 4A, a controller 6, and a terminal device 60. As shown in FIG. The image display system 2A is a tethered image display system using a terminal device 60 in addition to the head mounted display 4 and the controller 6 .

端末装置60は、例えばパーソナルコンピュータ又はスマートフォン等であり、ヘッドマウントディスプレイ4Aと有線通信可能に接続されている。なお、端末装置60は、ヘッドマウントディスプレイ4Aと無線通信可能に接続されていてもよい。 The terminal device 60 is, for example, a personal computer, a smartphone, or the like, and is connected to the head mounted display 4A for wired communication. Note that the terminal device 60 may be connected to the head mounted display 4A so as to be capable of wireless communication.

次に、図15を参照しながら、実施の形態の変形例に係るヘッドマウントディスプレイ4Aの構成について説明する。図15は、実施の形態の変形例に係るヘッドマウントディスプレイ4Aの構成を示すブロック図である。 Next, a configuration of a head mounted display 4A according to a modified example of the embodiment will be described with reference to FIG. FIG. 15 is a block diagram showing the configuration of a head mounted display 4A according to a modification of the embodiment.

図15に示すように、実施の形態の変形例に係るヘッドマウントディスプレイ4Aでは、プロセッサ46Aは上述した画像処理部52を有しておらず、端末装置60のプロセッサ62が上述した画像処理部52の機能を有している。端末装置60は、ヘッドマウントディスプレイ4AのUSBコネクタ50に接続されている。ヘッドマウントディスプレイ4Aのプロセッサ46Aは、USBコネクタ50を介して、端末装置60との間で各種データを送受信する。具体的には、プロセッサ46Aは、センサ34の検出信号及びコントローラ6のセンサ18(図3参照)の検出信号を端末装置60に送信する。また、プロセッサ46Aは、端末装置60から送信された画像14を示すデータを受信する。 As shown in FIG. 15, in a head mounted display 4A according to the modification of the embodiment, the processor 46A does not have the image processing unit 52 described above, and the processor 62 of the terminal device 60 has the image processing unit 52 described above. has the function of The terminal device 60 is connected to the USB connector 50 of the head mounted display 4A. The processor 46A of the head mounted display 4A transmits and receives various data to and from the terminal device 60 via the USB connector 50. FIG. Specifically, the processor 46A transmits the detection signal of the sensor 34 and the detection signal of the sensor 18 (see FIG. 3) of the controller 6 to the terminal device 60. FIG. The processor 46A also receives data representing the image 14 transmitted from the terminal device 60 .

本変形例では、端末装置60のプロセッサ62が上述した画像処理部52の機能を有しているので、ヘッドマウントディスプレイ4Aのプロセッサ46Aの処理負荷を低減することができる。 In this modification, the processor 62 of the terminal device 60 has the function of the image processing unit 52 described above, so the processing load on the processor 46A of the head mounted display 4A can be reduced.

(他の変形例等)
以上のように、本出願において開示する技術の例示として、上記実施の形態を説明した。しかしながら、本開示における技術は、これに限定されず、適宜、変更、置き換え、付加、省略などを行った実施の形態にも適用可能である。また、上記実施の形態で説明した各構成要素を組み合わせて、新たな実施の形態とすることも可能である。
(other modifications, etc.)
As described above, the above embodiment has been described as an example of the technology disclosed in the present application. However, the technology in the present disclosure is not limited to this, and can be applied to embodiments in which modifications, replacements, additions, omissions, etc. are made as appropriate. Further, it is also possible to combine the constituent elements described in the above embodiments to form a new embodiment.

そこで、以下、他の実施の形態を例示する。 Therefore, other embodiments will be exemplified below.

上記実施の形態では、プロセッサ46の画像処理部52は、センサ34の検出信号及びコントローラ6のセンサ18の検出信号に基づいてユーザ12の視線を推定し、推定したユーザ12の視線が高解像度領域54に重畳するように高解像度領域54の位置を制御したが、これに限定されない。例えば、プロセッサ46の画像処理部52は、推定したユーザ12の視線が高解像度領域54に重畳するように、高解像度領域54の位置及び/又は範囲を制御するようにしてもよい。 In the above embodiment, the image processing unit 52 of the processor 46 estimates the line of sight of the user 12 based on the detection signal of the sensor 34 and the detection signal of the sensor 18 of the controller 6, and the estimated line of sight of the user 12 is a high-resolution area. Although the position of the high resolution area 54 is controlled so as to be superimposed on 54, it is not limited to this. For example, the image processing unit 52 of the processor 46 may control the position and/or range of the high resolution area 54 such that the estimated line of sight of the user 12 overlaps the high resolution area 54 .

また、上記実施の形態では、プロセッサ46の画像処理部52は、ヘッドマウントディスプレイ4及びコントローラ6の各回転角度に基づいてユーザ12の視線を推定したが、これに限定されず、ヘッドマウントディスプレイ4及びコントローラ6の各回転角度及び/又は移動量(X軸、Y軸、Z軸の3軸方向への移動距離及び移動方向)に基づいてユーザ12の視線を推定してもよい。 Further, in the above embodiment, the image processing unit 52 of the processor 46 estimates the line of sight of the user 12 based on the respective rotation angles of the head mounted display 4 and the controller 6, but is not limited to this. And the line of sight of the user 12 may be estimated based on each rotation angle and/or amount of movement of the controller 6 (movement distance and movement direction in the three axial directions of the X-axis, Y-axis, and Z-axis).

また、上記実施の形態では、操作体が1つのコントローラ6である場合について説明したが、これに限定されず、操作体は複数のコントローラであってもよい。例えば、操作体は、ユーザ12の右手で把持される右手用コントローラ、及び、ユーザ12の左手で把持される左手用コントローラであってもよい。この場合、右手用コントローラ及び左手用コントローラの各指示座標の中間位置をポインタ16の位置としてもよい。あるいは、右手用コントローラ及び左手用コントローラのうち、最後に有効になったコントローラの指示座標位置をポインタ16の位置としてもよい。 Further, in the above embodiment, the case where the operating body is one controller 6 has been described, but the present invention is not limited to this, and the operating body may be a plurality of controllers. For example, the operating body may be a right-hand controller gripped by the right hand of the user 12 and a left-hand controller gripped by the left hand of the user 12 . In this case, the position of the pointer 16 may be an intermediate position between the indicated coordinates of the right-hand controller and the left-hand controller. Alternatively, the position of the pointer 16 may be the indicated coordinate position of the last valid controller of the right-hand controller and the left-hand controller.

また、上記実施の形態では、操作体が手で把持して操作するタイプのコントローラ6である場合について説明したが、これに限定されず、ヘッドマウントディスプレイ4(4A)がハンドトラッキング機能を有する場合には、操作体をユーザ12の手としてもよい。この場合、ヘッドマウントディスプレイ4(4A)のカメラ42によりユーザ12の手を認識することにより、ハンドトラッキング機能を実現することができる。 Further, in the above embodiment, the case where the operating body is the controller 6 that is held and operated by hand has been described. Alternatively, the hand of the user 12 may be used as the operating body. In this case, a hand tracking function can be realized by recognizing the hand of the user 12 with the camera 42 of the head mounted display 4 (4A).

また、上記実施の形態では、操作体を手で把持して操作するタイプのコントローラ6としたが、これに限定されず、例えば腕輪型、指輪型又は手袋型のコントローラとしてもよい。 Further, in the above-described embodiment, the controller 6 is of a type in which the operation body is gripped by hand and operated, but is not limited to this, and may be, for example, a bracelet-type, ring-type, or glove-type controller.

なお、上記実施の形態において、各構成要素は、専用のハードウェアで構成されるか、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPU又はプロセッサ等のプログラム実行部が、ハードディスク又は半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。 In the above embodiments, each component may be implemented by dedicated hardware or by executing a software program suitable for each component. Each component may be realized by reading and executing a software program recorded in a recording medium such as a hard disk or a semiconductor memory by a program execution unit such as a CPU or processor.

また、上記実施の形態に係る画像表示システム2(2A)の機能の一部又は全てを、CPU等のプロセッサがプログラムを実行することにより実現してもよい。 Also, part or all of the functions of the image display system 2 (2A) according to the above embodiment may be implemented by a processor such as a CPU executing a program.

以上のように、本開示における技術の例示として、実施の形態を説明した。そのために、添付図面及び詳細な説明を提供した。 As described above, the embodiment has been described as an example of the technique of the present disclosure. To that end, the accompanying drawings and detailed description have been provided.

したがって、添付図面及び詳細な説明に記載された構成要素の中には、課題解決のために必須な構成要素だけでなく、上記技術を例示するために、課題解決のためには必須でない構成要素も含まれ得る。そのため、それらの必須ではない構成要素が添付図面や詳細な説明に記載されていることをもって、直ちに、それらの必須ではない構成要素が必須であるとの認定をするべきではない。 Therefore, among the components described in the attached drawings and detailed description, there are not only components essential for solving the problem, but also components not essential for solving the problem in order to illustrate the above technology. can also be included. Therefore, it should not be immediately recognized that those non-essential components are essential just because they are described in the attached drawings and detailed description.

また、上述の実施の形態は、本開示における技術を例示するためのものであるから、特許請求の範囲又はその均等の範囲において種々の変更、置き換え、付加、省略などを行うことができる。 In addition, the above-described embodiments are intended to illustrate the technology of the present disclosure, and various modifications, replacements, additions, omissions, etc. can be made within the scope of the claims or equivalents thereof.

本開示は、例えばヘッドマウントディスプレイ及びコントローラを備えた画像表示システム等として適用可能である。 The present disclosure is applicable as, for example, an image display system including a head-mounted display and a controller.

2,2A 画像表示システム
4,4A ヘッドマウントディスプレイ
6 コントローラ
8 装着部
10 表示部
12 ユーザ
13,15,17 オブジェクト
14 画像
16 ポインタ
18,34 センサ
20,36 通信部
22,38 ハプティクス
24,40 メモリ
26,44 入力部
28,46,46A,62 プロセッサ
30,48 バッテリ
32,50 USBコネクタ
42 カメラ
52 画像処理部
54 高解像度領域
56 中解像度領域
58 低解像度領域
60 端末装置
2, 2A Image display system 4, 4A Head-mounted display 6 Controller 8 Mounting unit 10 Display unit 12 User 13, 15, 17 Object 14 Image 16 Pointer 18, 34 Sensor 20, 36 Communication unit 22, 38 Haptics 24, 40 Memory 26 , 44 input units 28, 46, 46A, 62 processors 30, 48 batteries 32, 50 USB connector 42 camera 52 image processing unit 54 high resolution area 56 medium resolution area 58 low resolution area 60 terminal device

Claims (5)

ユーザの頭部に装着される装着部と、
前記装着部に配置され、前記ユーザに画像を表示する表示部と、
前記装着部の動きを検出する第1のセンサと、
操作体の動きを検出する第2のセンサと、
前記画像の表示を制御するプロセッサであって、第1の領域と、前記第1の領域の周囲に配置され且つ前記第1の領域よりも解像度の低い第2の領域と、を含む前記画像を描画し、前記第2のセンサの検出結果に基づいて、前記画像上の位置を指し示すポインタを移動させるプロセッサと、を備え、
前記プロセッサは、前記第1のセンサ及び前記第2のセンサの各々の検出結果に基づいて前記ユーザの視線を推定し、推定した前記ユーザの視線が前記第1の領域に重畳するように前記第1の領域の位置を制御する
画像表示システム。
a wearing part worn on a user's head;
a display unit arranged on the mounting unit and configured to display an image to the user;
a first sensor that detects movement of the mounting part;
a second sensor that detects the movement of the operating body;
A processor for controlling display of the image, the image including a first area and a second area arranged around the first area and having a resolution lower than that of the first area. a processor that draws and moves a pointer pointing to a position on the image based on the detection result of the second sensor;
The processor estimates a line of sight of the user based on detection results of each of the first sensor and the second sensor, and estimates the line of sight of the user so that the estimated line of sight of the user overlaps the first area. An image display system that controls the position of one region.
前記第1のセンサは、前記装着部の回転角度を検出し、
前記第2のセンサは、前記操作体の回転角度を検出し、
前記プロセッサは、前記操作体の回転角度と前記装着部の回転角度との差分に基づいて、前記ユーザの視線を推定する
請求項1に記載の画像表示システム。
The first sensor detects a rotation angle of the mounting part,
The second sensor detects a rotation angle of the operating body,
The image display system according to claim 1, wherein the processor estimates the line of sight of the user based on the difference between the rotation angle of the operating body and the rotation angle of the mounting section.
前記プロセッサは、(i)前記差分が第1の閾値よりも大きく、且つ、前記第1の閾値よりも大きい第2の閾値よりも小さい場合には、前記ユーザの視線が前記ポインタの位置にあると推定し、前記ポインタが前記第1の領域に重畳するように前記第1の領域の位置を制御し、(ii)前記差分が前記第1の閾値以下である、又は、前記第2の閾値以上である場合には、前記ユーザの視線が前記画像の中心にあると推定し、前記画像の中心が前記第1の領域に重畳するように前記第1の領域の位置を制御する
請求項2に記載の画像表示システム。
The processor determines that (i) if the difference is greater than a first threshold and less than a second threshold that is greater than the first threshold, then the user's line of sight is at the location of the pointer; and controlling the position of the first area so that the pointer overlaps the first area, and (ii) the difference is equal to or less than the first threshold, or the second threshold In the above case, it is estimated that the line of sight of the user is at the center of the image, and the position of the first area is controlled so that the center of the image overlaps with the first area. The image display system described in .
前記操作体は、前記装着部から分離して配置され、前記ユーザにより操作されるコントローラである
請求項1~3のいずれか1項に記載の画像表示システム。
The image display system according to any one of claims 1 to 3, wherein the operating body is a controller arranged separately from the mounting section and operated by the user.
(a)ユーザの頭部に装着される装着部であって、前記ユーザに画像を表示する表示部を有する装着部の動きを検出するステップと、
(b)操作体の動きを検出するステップと、
(c)第1の領域と、前記第1の領域の周囲に配置され且つ前記第1の領域よりも解像度の低い第2の領域と、を含む前記画像を描画するステップと、
(d)前記(b)の検出結果に基づいて、前記画像上の位置を指し示すポインタを移動させるステップと、
(e)前記(a)の検出結果及び前記(b)の検出結果に基づいて前記ユーザの視線を推定し、推定した前記ユーザの視線が前記第1の領域に重畳するように前記第1の領域の位置を制御するステップと、を含む
画像表示方法。
(a) detecting movement of a wearable part that is worn on the head of a user and has a display that displays an image to the user;
(b) detecting movement of the operating body;
(c) rendering said image comprising a first region and a second region disposed around said first region and having a lower resolution than said first region;
(d) moving a pointer indicating a position on the image based on the detection result of (b);
(e) estimating the line of sight of the user based on the detection result of (a) and the detection result of (b); and controlling the position of the region.
JP2021095090A 2021-06-07 2021-06-07 Image display system and image display method Pending JP2022187199A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021095090A JP2022187199A (en) 2021-06-07 2021-06-07 Image display system and image display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021095090A JP2022187199A (en) 2021-06-07 2021-06-07 Image display system and image display method

Publications (1)

Publication Number Publication Date
JP2022187199A true JP2022187199A (en) 2022-12-19

Family

ID=84525365

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021095090A Pending JP2022187199A (en) 2021-06-07 2021-06-07 Image display system and image display method

Country Status (1)

Country Link
JP (1) JP2022187199A (en)

Similar Documents

Publication Publication Date Title
US10303250B2 (en) Wearable glasses and method of displaying image via the wearable glasses
US10565725B2 (en) Method and device for displaying virtual object
KR101958778B1 (en) A Head Mounted Display and a Method for Controlling a Digital Device Using the Same
EP3097552A1 (en) Environmental interrupt in a head-mounted display and utilization of non field of view real estate
WO2017183279A1 (en) Image processing device and image processing method
US20190227642A1 (en) Head-mounted display apparatus and method of controlling head-mounted display apparatus
KR20230074233A (en) Geometry modeling of eyewear devices with flexible frames
KR20130034125A (en) Augmented reality function glass type monitor
KR20160056133A (en) Method for controlling display of image and apparatus implementing the same
JP7455277B2 (en) An electronic device for controlling a host device using motion and mouse signals
JP7274510B2 (en) VIRTUAL OBJECT DISPLAY DEVICE AND VIRTUAL OBJECT DISPLAY METHOD
US11531392B2 (en) Tracking upper arm movements using sensor modules attached to the hand and forearm
CN113448343B (en) Method, system and readable medium for setting a target flight path of an aircraft
US20240143066A1 (en) Head-mounted information processing apparatus and its controlling method
CN108351736B (en) Wearable display, image display device, and image display system
WO2021193062A1 (en) Information processing device, information processing method, and program
JP2022187199A (en) Image display system and image display method
US11768546B1 (en) Method and device for positional/rotational information of a finger-wearable device
WO2019106862A1 (en) Operation guiding system
US10936147B2 (en) Tablet computing device with display dock
US20200348749A1 (en) Information processing apparatus, information processing method, and program
TW202040506A (en) Virtual reality view compensation method, non-transitory computer readable medium and virtual reality device
WO2024070296A1 (en) Information processing device, information processing method, and program
US20220253198A1 (en) Image processing device, image processing method, and recording medium
US20230376109A1 (en) Image processing apparatus, image processing method, and storage device