JP2022187199A - Image display system and image display method - Google Patents
Image display system and image display method Download PDFInfo
- Publication number
- JP2022187199A JP2022187199A JP2021095090A JP2021095090A JP2022187199A JP 2022187199 A JP2022187199 A JP 2022187199A JP 2021095090 A JP2021095090 A JP 2021095090A JP 2021095090 A JP2021095090 A JP 2021095090A JP 2022187199 A JP2022187199 A JP 2022187199A
- Authority
- JP
- Japan
- Prior art keywords
- image
- user
- sensor
- area
- processor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Position Input By Displaying (AREA)
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本開示は、画像表示システム及び画像表示方法に関する。 The present disclosure relates to an image display system and an image display method.
ヘッドマウントディスプレイ(HMD:Head Mounted Display)と呼ばれる頭部装着型の画像表示装置が知られている(例えば、特許文献1参照)。この種の画像表示装置は、装着部と、表示部とを有している。装着部は、例えば眼鏡形状を有し、ユーザの頭部に装着される。表示部は、装着部に配置され、ユーザに例えば仮想現実(VR:Virtual Reality)の画像を表示する。
A head-mounted image display device called a head-mounted display (HMD) is known (see
上述した画像表示装置では、画像の描画処理の負荷を大幅に低減するために、フォービエイテッド・レンダリング(Foveated Rendering)と呼ばれる技術が用いられる。このフォービエイテッド・レンダリングでは、中心視野領域(中心窩領域ともいう)では高解像度で、周辺視野領域では低解像度で画像が描画される。このフォービエイテッド・レンダリングを実現するために、画像表示装置の装着部には、ユーザの視線を検出するための専用の機器が搭載されている。 In the image display device described above, a technique called foveated rendering is used in order to greatly reduce the load of image rendering processing. Foveated rendering renders images at high resolution in the central vision area (also called the foveal area) and at low resolution in the peripheral vision area. In order to realize this foveated rendering, the mounted portion of the image display device is equipped with a dedicated device for detecting the line of sight of the user.
本開示は、フォービエイテッド・レンダリングを実現するために、簡易な方法でユーザの視線を推定することができる画像表示システム及び画像表示方法を提供する。 The present disclosure provides an image display system and image display method capable of estimating a user's line of sight in a simple manner in order to achieve foveated rendering.
本開示における画像表示システムは、ユーザの頭部に装着される装着部と、装着部に配置され、ユーザに画像を表示する表示部と、装着部の動きを検出する第1のセンサと、操作体の動きを検出する第2のセンサと、画像の表示を制御するプロセッサであって、第1の領域と、第1の領域の周囲に配置され且つ第1の領域よりも解像度の低い第2の領域と、を含む画像を描画し、第2のセンサの検出結果に基づいて、画像上の位置を指し示すポインタを移動させるプロセッサと、を備え、プロセッサは、第1のセンサ及び第2のセンサの各々の検出結果に基づいてユーザの視線を推定し、推定したユーザの視線が第1の領域に重畳するように第1の領域の位置を制御する。 An image display system according to the present disclosure includes a mounting unit that is worn on the head of a user, a display unit that is arranged on the mounting unit and displays an image to the user, a first sensor that detects movement of the mounting unit, an operation a second sensor for detecting body movement; a processor for controlling display of an image; and a processor that draws an image containing a region of and moves a pointer that indicates a position on the image based on the detection result of the second sensor, the processor is provided with the first sensor and the second sensor The user's line of sight is estimated based on the respective detection results, and the position of the first area is controlled so that the estimated user's line of sight is superimposed on the first area.
本開示における画像表示システム等によれば、フォービエイテッド・レンダリングを実現するために、簡易な方法でユーザの視線を推定することができる。 According to the image display system and the like according to the present disclosure, it is possible to estimate the line of sight of the user by a simple method in order to realize foveated rendering.
以下、適宜図面を参照しながら、実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。 Hereinafter, embodiments will be described in detail with reference to the drawings as appropriate. However, more detailed description than necessary may be omitted. For example, detailed descriptions of well-known matters and redundant descriptions of substantially the same configurations may be omitted. This is to avoid unnecessary verbosity in the following description and to facilitate understanding by those skilled in the art.
なお、発明者は、当業者が本開示を十分に理解するために添付図面及び以下の説明を提供するのであって、これらによって特許請求の範囲に記載の主題を限定することを意図するものではない。 It is noted that the inventors provide the accompanying drawings and the following description for a full understanding of the present disclosure by those skilled in the art and are not intended to limit the claimed subject matter thereby. No.
(実施の形態)
以下、図1~図15を参照しながら、実施の形態について説明する。
(Embodiment)
Embodiments will be described below with reference to FIGS. 1 to 15. FIG.
[1.画像表示システムの概要]
まず、図1を参照しながら、実施の形態に係る画像表示システム2の概要について説明する。図1は、実施の形態に係る画像表示システム2の概要を示す図である。図2は、実施の形態に係る画像表示システム2の構成を示すブロック図である。
[1. Overview of Image Display System]
First, an overview of an
なお、図1において、左右方向をX軸方向、前後方向をY軸方向、上下方向をZ軸方向とする。 In FIG. 1, the horizontal direction is the X-axis direction, the front-rear direction is the Y-axis direction, and the vertical direction is the Z-axis direction.
図1及び図2に示すように、実施の形態に係る画像表示システム2は、ヘッドマウントディスプレイ(以下、「HMD」と称する場合がある)4と、コントローラ6(操作体の一例)とを備える。画像表示システム2は、ヘッドマウントディスプレイ4及びコントローラ6以外の他の機器を用いないスタンドアローン型の画像表示システムである。
As shown in FIGS. 1 and 2, an
ヘッドマウントディスプレイ4は、例えば眼鏡型又はゴーグル型のウェアラブル端末である。ヘッドマウントディスプレイ4は、装着部8と、表示部10とを有している。装着部8は、ユーザ12の両目を覆うようにして、ユーザ12の頭部に装着される筐体である。表示部10は、装着部8に配置されており、ユーザ12の両目に対向するように位置される。
The head-mounted
表示部10は、例えば液晶ディスプレイであり、画像をユーザ12に表示する。表示部10には、例えば後述する図6の(b)に示すような画像14が表示される。図6の(b)に示す例では、画像14は、風景を示す仮想現実(VR)の三次元画像であり、樹木を示すオブジェクト13と、小屋を示すオブジェクト15と、切り株を示すオブジェクト17とを含んでいる。ユーザ12が装着部8を装着した頭部を動かすことにより、画像14のアングルが装着部8の動きに追従して変化する。画像14には、当該画像14上の位置を指し示すポインタ16が重畳表示される。ポインタ16は、例えば画像14上に表示されたアイコン等を選択する操作を行う際に用いられる。なお、図6の(b)では、ポインタ16を黒丸で図示してある。
The
コントローラ6は、表示部10に表示された画像14の表示を操作するためのコントローラであり、ヘッドマウントディスプレイ4と無線通信可能に接続されている。コントローラ6は、ヘッドマウントディスプレイ4の装着部8から分離して配置され、ユーザ12により手で把持されて操作される。例えば、ユーザ12がコントローラ6を把持した手を動かすことにより、ポインタ16がコントローラ6の動きに追従して画像14上を移動する。
The
[2.コントローラの構成]
図3を参照しながら、実施の形態に係るコントローラ6の構成について説明する。図3は、実施の形態に係るコントローラ6の構成を示すブロック図である。
[2. Controller configuration]
The configuration of the
図3に示すように、コントローラ6は、センサ18(第2のセンサの一例)と、通信部20と、ハプティクス22と、メモリ24と、入力部26と、プロセッサ28と、バッテリ30と、USB(Universal Serial Bus)コネクタ32とを有している。
As shown in FIG. 3, the
センサ18は、例えばIMU(Inertial Measurement Unit)センサであり、X軸、Y軸及びZ軸の3軸方向の加速度センサと、X軸、Y軸及びZ軸の3軸周りジャイロセンサとを含む。センサ18は、コントローラ6の6DoF(Degree of Freedom)の動きを検出する。6DoFは、動きの自由度であり、X軸、Y軸及びZ軸の3軸方向における移動と、X軸、Y軸及びZ軸の3軸周りの回転(ピッチ、ロール及びヨー)とを含む。センサ18は、検出したコントローラ6の動きを示す検出信号(検出結果の一例)をプロセッサ28に出力する。
The
なお、本実施の形態では、センサ18は、加速度センサ及びジャイロセンサを含むようにしたが、これに限定されず、例えば感圧センサ及び磁気センサ等の各種センサを含んでいてもよい。
In this embodiment, the
通信部20は、例えばBluetooth(登録商標)によりヘッドマウントディスプレイ4と無線通信するための通信アダプタである。通信部20は、プロセッサ28からの指示に応じて、センサ18の検出信号をヘッドマウントディスプレイ4に送信する。
The
ハプティクス22は、コントローラ6を把持したユーザ12の手に触感を与えるためのアクチュエータである。
The
メモリ24は、コントローラ6を制御するためのプログラムを記憶する。
Memory 24 stores a program for controlling
入力部26は、例えばコントローラ6に配置されたボタン等であり、ユーザ12の操作を受け付ける。入力部26は、受け付けたユーザ12の操作を示す入力信号をプロセッサ28に出力する。
The
プロセッサ28は、メモリ24に記憶されたプログラムを読み出し、読み出したプログラムを実行することにより、コントローラ6を制御する。具体的には、プロセッサ28は、通信部20に対して、センサ18の検出信号をヘッドマウントディスプレイ4に送信するように指示する。
The
バッテリ30は、例えば充電可能な二次電池であり、コントローラ6の各部に電力を供給する。
The
USBコネクタ32は、各種機器に接続可能なコネクタである。例えば、USBコネクタ32に給電装置が接続された場合には、給電装置からの電力がUSBコネクタ32を介してバッテリ30に供給され、バッテリ30が充電される。
The
[3.ヘッドマウントディスプレイの構成]
図4を参照しながら、実施の形態に係るヘッドマウントディスプレイ4の構成について説明する。図4は、実施の形態に係るヘッドマウントディスプレイ4の構成を示すブロック図である。
[3. Configuration of head-mounted display]
The configuration of the head mounted
図4に示すように、ヘッドマウントディスプレイ4は、表示部10と、センサ34(第1のセンサの一例)と、通信部36と、ハプティクス38と、メモリ40と、カメラ42と、入力部44と、プロセッサ46と、バッテリ48と、USBコネクタ50とを有している。表示部10については既述したため、ここでの説明は省略する。
As shown in FIG. 4, the head mounted
センサ34は、例えばIMUセンサであり、X軸、Y軸及びZ軸の3軸方向の加速度センサと、X軸、Y軸及びZ軸の3軸周りジャイロセンサとを含む。センサ34は、ヘッドマウントディスプレイ4の装着部8(図1参照)の6DoFの動きを検出する。6DoFは、動きの自由度であり、X軸、Y軸及びZ軸の3軸方向における移動と、X軸、Y軸及びZ軸の3軸周りの回転(ピッチ、ロール及びヨー)とを含む。センサ34は、検出したヘッドマウントディスプレイ4の装着部8の動きを示す検出信号(検出結果の一例)をプロセッサ46に出力する。
The
なお、本実施の形態では、センサ34は、加速度センサ及びジャイロセンサを含むようにしたが、これに限定されず、例えば感圧センサ及び磁気センサ等の各種センサを含んでいてもよい。
In this embodiment, the
通信部36は、例えばBluetooth(登録商標)によりコントローラ6と無線通信するための通信アダプタである。通信部36は、コントローラ6から送信されたセンサ18の検出信号を受信し、受信したセンサ18の検出信号をプロセッサ46に出力する。
The
ハプティクス38は、装着部8を装着したユーザ12の頭部に触感を与えるためのアクチュエータである。
The
メモリ40は、ヘッドマウントディスプレイ4を制御するためのプログラムを記憶する。
カメラ42は、ヘッドマウントディスプレイ4の装着部8に配置され、例えばユーザ12の前方を撮影する。なお、カメラ42で撮影した映像を、表示部10に表示してもよい。また、カメラ42で撮影した映像をプロセッサ46で解析することにより、6DoFに変換可能である。この場合、カメラ42をセンサ34に置き換えてもよい。
The
入力部44は、例えばヘッドマウントディスプレイ4の装着部8に配置されたボタン等であり、ユーザ12の操作を受け付ける。入力部44は、受け付けたユーザ12の操作を示す入力信号をプロセッサ46に出力する。
The
プロセッサ46は、メモリ40に記憶されたプログラムを読み出し、読み出したプログラムを実行することにより、ヘッドマウントディスプレイ4を制御する。具体的には、プロセッサ46は、表示部10における画像14の表示を制御するための画像処理部52を有している。
The processor 46 reads the program stored in the
画像処理部52は、後述する図6の(b)に示すように、高解像度領域54(第1の領域の一例)と、高解像度領域54の周囲に配置され且つ高解像度領域54よりも解像度の低い中解像度領域56(第2の領域の一例)と、中解像度領域56の周囲に配置され且つ中解像度領域56よりもさらに解像度の低い低解像度領域58(第2の領域の一例)とを含む画像14を描画する。本実施の形態では、高解像度領域54は円形状の領域であり、中解像度領域56は、高解像度領域54と中心を同一とする円環状の領域である。図6の(b)において、高解像度領域54は濃い灰色で示す領域であり、中解像度領域56は薄い灰色で示す領域であり、低解像度領域58は白色で示す領域である。この時、高解像度領域54の面積は、ユーザ12の視線の微細な動きに対応してやや広めにするのが好ましい。なお、高解像度領域54の解像度を100%としたとき、中解像度領域56の解像度は例えば60%、低解像度領域の解像度は例えば20%である。
The
また、画像処理部52は、センサ34の検出信号に基づいて、ヘッドマウントディスプレイ4の装着部8の動きに追従して画像14のアングルを変化させる。また、画像処理部52は、コントローラ6から送信されたセンサ18の検出信号に基づいて、コントローラ6の動きに追従してポインタ16を画像14上で移動させる。
The
さらに、画像処理部52は、センサ34の検出信号及びコントローラ6のセンサ18の検出信号に基づいてユーザ12の視線を推定し、推定したユーザ12の視線が高解像度領域54に重畳するように高解像度領域54の位置を制御する。これにより、中心視野領域では高解像度で、周辺視野領域では低解像度で画像14が描画される、フォービエイテッド・レンダリングが実現される。
Further, the
バッテリ48は、例えば充電可能な二次電池であり、ヘッドマウントディスプレイ4の各部に電力を供給する。
The
USBコネクタ50は、各種機器に接続可能なコネクタである。例えば、USBコネクタ50に給電装置が接続された場合には、給電装置からの電力がUSBコネクタ50を介してバッテリ48に供給され、バッテリ48が充電される。
The
[4.画像表示システムの動作]
図5~図13を参照しながら、実施の形態に係る画像表示システム2の動作について説明する。図5は、実施の形態に係る画像表示システム2の動作の流れを示すフローチャートである。図6は、図5のフローチャートのステップS103を説明するための図である。図7~図9は、図5のフローチャートのステップS107を説明するための図である。図10~図13は、図5のフローチャートのステップS110を説明するための図である。
[4. Operation of Image Display System]
The operation of the
なお、図6~図13の各々の(a)は、ヘッドマウントディスプレイ4とコントローラ6との位置関係を示す上面図である。また、図6~図13の各々の(b)は、ヘッドマウントディスプレイ4とコントローラ6との位置関係がそれぞれ図6~図13の各々の(a)である場合における、ヘッドマウントディスプレイ4の表示部10に表示される画像14の一例である。また、図6~図13の各々の(b)において、破線の十字線の交点は、画像14の中心(すなわち、表示部10の表示面の中心)を表している。
6 to 13 are top views showing the positional relationship between the head mounted
まず、ユーザ12は、ヘッドマウントディスプレイ4の装着部8を頭部に装着し、コントローラ6を手で把持する。この状態で、図5に示すように、まず、ヘッドマウントディスプレイ4においてキャリブレーションが行われ(S101)、次いで、コントローラ6においてキャリブレーションが行われる(S102)。
First, the
これにより、ヘッドマウントディスプレイ4のプロセッサ46は、ヘッドマウントディスプレイ4及びコントローラ6の各々の中心(正面)の初期位置を決定する(S103)。以下、この初期位置では、図6の(a)に示すように、ヘッドマウントディスプレイ4及びコントローラ6の各々の中心は、同じ方向(Y軸のプラス方向)を向いているものとして説明する。この時、図6の(b)に示すように、高解像度領域54の中心は画像14の中心と一致しており、ポインタ16は、画像14のオブジェクト15の中心に重畳しているものとする。なお、この時、画像14のオブジェクト15の中心は、画像14の中心と一致している。
Thereby, the processor 46 of the head mounted
ヘッドマウントディスプレイ4のプロセッサ46の画像処理部52は、コントローラ6のセンサ18の検出信号に含まれる、コントローラ6の回転角度を示す回転角度データを取得する(S104)。次いで、プロセッサ46の画像処理部52は、ヘッドマウントディスプレイ4のセンサ34の検出信号に含まれる、ヘッドマウントディスプレイ4の装着部8の回転角度を示す回転角度データを取得する(S105)。
The
なお、本実施の形態において、「回転」とは、Z軸周りの回転を意味し、「回転角度」とは、Z軸周りの回転における回転角度を意味するものとする。また、図6~図13の各々の(a)に示す上面図において、初期位置におけるヘッドマウントディスプレイ4及びコントローラ6の各々の回転角度を0°とし、初期位置から時計方向(図6の(a)において矢印Pで示す方向)(以下、「右方」ともいう)へ回転した際の回転角度を正とし、初期位置から反時計方向(図6の(a)において矢印Qで示す方向)(以下、「左方」ともいう)へ回転した際の回転角度を負とする。
In the present embodiment, "rotation" means rotation around the Z-axis, and "rotation angle" means the rotation angle in rotation around the Z-axis. In the top views shown in (a) of each of FIGS. 6 to 13, the rotation angle of each of the head mounted
プロセッサ46の画像処理部52は、コントローラ6の回転角度とヘッドマウントディスプレイ4の装着部8の回転角度との差分の絶対値が、第1の閾値よりも大きく且つ第2の閾値よりも小さいか否かを判定する(S106)。すなわち、上記差分の絶対値が次式1を満たすか否かを判定する。
The
第1の閾値<|コントローラ6の回転角度-HMD4の回転角度|<第2の閾値 (式1)
First threshold<|Rotation angle of
上式1において、第1の閾値は、例えば5°である。また、第2の閾値は、第1の閾値よりも大きい値であり、例えば45°である。
In
上記差分の絶対値が上式1を満たす場合、すなわち、上記差分の絶対値が第1の閾値よりも大きく且つ第2の閾値よりも小さい場合には(S106でYES)、プロセッサ46の画像処理部52は、ユーザ12の視線がポインタ16の位置にある(すなわち、ユーザ12がポインタ16の動きを目で追っている)と推定する。プロセッサ46の画像処理部52は、高解像度領域54の中心位置をポインタ16の位置に決定する(S107)。そして、プロセッサ46の画像処理部52は、ポインタ16が高解像度領域54に重畳するように高解像度領域54の位置を制御するフォービエイテッド・レンダリングを実行し(S108)、画像14を描画する(S109)。
If the absolute value of the difference satisfies the
ここで、図7~図9を参照しながら、上記差分の絶対値が第1の閾値よりも大きく且つ第2の閾値よりも小さい場合の例について説明する。 Here, an example in which the absolute value of the difference is larger than the first threshold and smaller than the second threshold will be described with reference to FIGS. 7 to 9. FIG.
図7の(a)に示す例では、ヘッドマウントディスプレイ4の装着部8の回転角度は0°であり、コントローラ6の回転角度は20°である。すなわち、ユーザ12は、ヘッドマウントディスプレイ4の装着部8を初期位置から回転させず、コントローラ6を初期位置から右方に20°回転させている。この時、上記差分の絶対値は、|20°-0°|=20°となり、上式1を満たすようになる。なお、図7の(b)に示すように、画像14のアングルは初期アングル(図6の(b)に示すアングル)から変化せず、ポインタ16は、コントローラ6の回転に追従して、画像14のオブジェクト15に対して当該オブジェクト15の中心から右方に所定距離(コントローラ6の回転角度20°に対応する距離)だけ移動する。この場合、プロセッサ46の画像処理部52は、ユーザ12の視線がポインタ16の位置にあると推定し、高解像度領域54の中心位置をポインタ16の位置に決定する。
In the example shown in FIG. 7A, the rotation angle of the mounting
図8の(a)に示す例では、ヘッドマウントディスプレイ4の装着部8の回転角度は-20°であり、コントローラ6の回転角度は0°である。すなわち、ユーザ12は、コントローラ6を初期位置から回転させず、ヘッドマウントディスプレイ4の装着部8を初期位置から左方に20°回転させている。この時、上記差分の絶対値は、|0°-(-20°)|=20°となり、上式1を満たすようになる。なお、図8の(b)に示すように、画像14のアングルは、初期アングルから左方に所定角度(ヘッドマウントディスプレイ4の装着部8の回転角度-20°に対応する角度)だけ変化する。一方、ポインタ16と画像14のオブジェクト15との位置関係は変化しないため、画像14のアングルの変化に伴って、ポインタ16は、オブジェクト15とともに画像14の中心から右方にずれるようになる。この場合、プロセッサ46の画像処理部52は、ユーザ12の視線がポインタ16の位置にあると推定し、高解像度領域54の中心位置をポインタ16の位置に決定する。
In the example shown in FIG. 8(a), the rotation angle of the mounting
図9の(a)に示す例では、ヘッドマウントディスプレイ4の装着部8の回転角度は-45°であり、コントローラ6の回転角度は-20°である。すなわち、ユーザ12は、ヘッドマウントディスプレイ4の装着部8を初期位置から左方に45°回転させ、且つ、コントローラ6を初期位置から左方に20°回転させている。この時、上記差分の絶対値は、|-20°-(-45°)|=25°となり、上式1を満たすようになる。なお、図9の(b)に示すように、画像14のアングルは、初期アングルから左方に所定角度(ヘッドマウントディスプレイ4の装着部8の回転角度-45°に対応する角度)だけ変化する。一方、ポインタ16は、コントローラ6の回転に追従して、画像14のオブジェクト15に対して当該オブジェクト15の中心から左方に所定距離(コントローラ6の回転角度-20°に対応する距離)だけ移動する。その結果、ポインタ16は、画像14の中心から右方にずれるようになる。この場合、プロセッサ46の画像処理部52は、ユーザ12の視線がポインタ16の位置にあると推定し、高解像度領域54の中心位置をポインタ16の位置に決定する。
In the example shown in FIG. 9A, the rotation angle of the mounting
図5のフローチャートに戻り、ステップS106において、上記差分の絶対値が上式1を満たさない場合、すなわち、上記差分の絶対値が第1の閾値以下である、又は、第2の閾値以上である場合には(S106でNO)、プロセッサ46の画像処理部52は、ユーザ12の視線が画像14の中心にある(すなわち、ユーザ12が画像14の中心を注視している)と推定する。そして、プロセッサ46の画像処理部52は、高解像度領域54の中心位置を画像14の中心に決定する(S110)。そして、プロセッサ46の画像処理部52は、画像14の中心が高解像度領域54に重畳するように高解像度領域54の位置を制御するフォービエイテッド・レンダリングを実行し(S108)、画像14を描画する(S109)。
Returning to the flowchart of FIG. 5, in step S106, if the absolute value of the difference does not satisfy the
ここで、図10~図13を参照しながら、上記差分の絶対値が第1の閾値以下である、又は、第2の閾値以上である場合の例について説明する。 Now, with reference to FIGS. 10 to 13, examples of cases where the absolute value of the difference is less than or equal to the first threshold or greater than or equal to the second threshold will be described.
図10の(a)に示す例では、ヘッドマウントディスプレイ4の装着部8の回転角度は0°であり、コントローラ6の回転角度は0°である。すなわち、ユーザ12は、ヘッドマウントディスプレイ4の装着部8及びコントローラ6のいずれも初期位置から回転させていない。この時、上記差分の絶対値は、|0°-0°|=0°となり、上式1を満たさない。なお、図10の(b)に示すように、画像14のアングルは初期アングルから変化せず、ポインタ16は、画像14のオブジェクト15に対して当該オブジェクト15の中心から移動しない。この場合、プロセッサ46の画像処理部52は、ユーザ12の視線が画像14の中心にあると推定し、高解像度領域54の中心位置を画像14の中心に決定する。
In the example shown in FIG. 10(a), the rotation angle of the mounting
図11の(a)に示す例では、ヘッドマウントディスプレイ4の装着部8の回転角度は-45°であり、コントローラ6の回転角度は0°である。すなわち、ユーザ12は、コントローラ6を初期位置から回転させず、ヘッドマウントディスプレイ4の装着部8を初期位置から左方に45°回転させている。この時、上記差分の絶対値は、|0°-(-45°)|=45°となり、上式1を満たさない。なお、図11の(b)に示すように、画像14のアングルは、初期アングルから左方に所定角度(ヘッドマウントディスプレイ4の装着部8の回転角度-45°に対応する角度)だけ変化する。一方、ポインタ16と画像14のオブジェクト15との位置関係は変化しないため、画像14のアングルの変化に伴って、ポインタ16は、オブジェクト15とともに画像14の中心から右方にずれるようになる。この場合、プロセッサ46の画像処理部52は、ユーザ12の視線が画像14の中心にあると推定し、高解像度領域54の中心位置を画像14の中心に決定する。
In the example shown in FIG. 11(a), the rotation angle of the mounting
図12の(a)に示す例では、ヘッドマウントディスプレイ4の装着部8の回転角度は-45°であり、コントローラ6の回転角度は20°である。すなわち、ユーザ12は、ヘッドマウントディスプレイ4の装着部8を初期位置から左方に45°回転させ、コントローラ6を初期位置から右方に20°回転させている。この時、上記差分の絶対値は、|20°-(-45°)|=65°となり、上式1を満たさない。なお、図12の(b)に示すように、画像14のアングルは、初期アングルから左方に所定角度(ヘッドマウントディスプレイ4の装着部8の回転角度-45°に対応する角度)だけ変化する。一方、ポインタ16は、コントローラ6の回転に追従して、画像14のオブジェクト15に対して当該オブジェクト15の中心から右方に所定距離(コントローラ6の回転角度20°に対応する距離)だけ移動する。この場合、プロセッサ46の画像処理部52は、ユーザ12の視線が画像14の中心にあると推定し、高解像度領域54の中心位置を画像14の中心に決定する。
In the example shown in FIG. 12(a), the rotation angle of the mounting
図13の(a)に示す例では、ヘッドマウントディスプレイ4の装着部8の回転角度は0°であり、コントローラ6の回転角度は-2°である。すなわち、ユーザ12は、ヘッドマウントディスプレイ4の装着部8を初期位置から回転させず、コントローラ6を初期位置から左方に2°回転させている。この時、上記差分の絶対値は、|2°-0°|=2°となり、上式1を満たさない。なお、図13の(b)に示すように、画像14のアングルは、初期アングルから変化しない。一方、ポインタ16は、コントローラ6の回転に追従して、画像14のオブジェクト15に対して当該オブジェクト15の中心から左方に所定距離(コントローラ6の回転角度2°に対応する距離)だけ移動する。この場合、プロセッサ46の画像処理部52は、ユーザ12の視線が画像14の中心にあると推定し、高解像度領域54の中心位置を画像14の中心に決定する。
In the example shown in FIG. 13(a), the rotation angle of the mounting
図5のフローチャートに戻り、ステップS109の後、画像14の表示を継続する場合には(S111でYES)、上述したステップS104に戻る。一方、画像14の表示を継続しない場合には(S111でNO)、図5のフローチャートを終了する。
Returning to the flowchart of FIG. 5, after step S109, if the display of the
[5.効果]
本実施の形態では、画像表示システム2は、ユーザ12の頭部に装着される装着部8と、装着部8に配置され、ユーザ12に画像14を表示する表示部10と、装着部8の動きを検出するセンサ34と、操作体(コントローラ6)の動きを検出するセンサ18と、画像14の表示を制御するプロセッサ46であって、高解像度領域54と、高解像度領域54の周囲に配置され且つ高解像度領域54よりも解像度の低い中解像度領域56(低解像度領域58)と、を含む画像14を描画し、センサ18の検出結果に基づいて、画像14上の位置を指し示すポインタ16を移動させるプロセッサ46と、を備える。プロセッサ46は、センサ34及びセンサ18の各々の検出結果に基づいてユーザ12の視線を推定し、推定したユーザ12の視線が高解像度領域54に重畳するように高解像度領域54の位置を制御する。
[5. effect]
In this embodiment, the
これによれば、プロセッサ46は、装着部8の動き及び操作体の動きの各検出結果を利用して、フォービエイテッド・レンダリングを実現するために、簡易な方法でユーザ12の視線を推定することができる。その結果、ユーザ12の視線を検出するための専用の機器を装着部8に搭載しなくてもよいため、ヘッドマウントディスプレイ4の小型化及び省電力化を図ることができる。
According to this, the processor 46 estimates the line of sight of the
また、本実施の形態では、センサ34は、装着部8の回転角度を検出する。センサ18は、操作体の回転角度を検出する。プロセッサ46は、操作体の回転角度と装着部8の回転角度との差分に基づいて、ユーザ12の視線を推定する。
Moreover, in the present embodiment, the
これによれば、プロセッサ46は、操作体の回転角度と装着部8の回転角度との差分に基づいて、ユーザ12の視線を容易に推定することができる。
According to this, the processor 46 can easily estimate the line of sight of the
また、本実施の形態では、プロセッサ46は、(i)上記差分が第1の閾値よりも大きく、且つ、第1の閾値よりも大きい第2の閾値よりも小さい場合には、ユーザ12の視線がポインタ16の位置にあると推定し、ポインタ16が高解像度領域54に重畳するように高解像度領域54の位置を制御し、(ii)上記差分が第1の閾値以下である、又は、第2の閾値以上である場合には、ユーザ12の視線が画像14の中心にあると推定し、画像14の中心が高解像度領域54に重畳するように高解像度領域54の位置を制御する。
In addition, in the present embodiment, the processor 46 determines (i) if the difference is greater than a first threshold and less than a second threshold that is greater than the first threshold, the line of sight of the
これによれば、プロセッサ46は、操作体の回転角度と装着部8の回転角度との差分に基づいて、ユーザ12の視線がポインタ16の位置又は画像14の中心にあると容易に推定することができる。
According to this, the processor 46 can easily estimate that the line of sight of the
また、本実施の形態では、操作体は、装着部8から分離して配置され、ユーザ12により操作されるコントローラ6である。
Further, in the present embodiment, the operating body is the
これによれば、プロセッサ46は、装着部8の動き及びコントローラ6の動きの各検出結果を利用して、フォービエイテッド・レンダリングを実現するために、簡易な方法でユーザ12の視線を推定することができる。
According to this, the processor 46 utilizes the detection results of the movement of the mounting
また、本実施の形態では、画像表示方法は、(a)ユーザ12の頭部に装着される装着部8であって、ユーザ12に画像14を表示する表示部10を有する装着部8の動きを検出するステップと、(b)操作体(コントローラ6)の動きを検出するステップと、(c)高解像度領域54と、高解像度領域54の周囲に配置され且つ高解像度領域54よりも解像度の低い中解像度領域56(低解像度領域58)と、を含む画像14を描画するステップと、(d)上記(b)の検出結果に基づいて、画像14上の位置を指し示すポインタ16を移動させるステップと、(e)上記(a)の検出結果及び上記(b)の検出結果に基づいてユーザ12の視線を推定し、推定したユーザ12の視線が高解像度領域54に重畳するように高解像度領域54の位置を制御するステップと、を含む。
In addition, in the present embodiment, the image display method is as follows: (a) movement of the wearing
これによれば、上述と同様に、フォービエイテッド・レンダリングを実現するために、簡易な方法でユーザ12の視線を推定することができる。
According to this, the line of sight of the
[6.変形例]
図14を参照しながら、実施の形態の変形例に係る画像表示システム2Aの構成について説明する。図14は、実施の形態の変形例に係る画像表示システム2Aの構成を示すブロック図である。
[6. Modification]
A configuration of an
図14に示すように、実施の形態の変形例に係る画像表示システム2Aは、ヘッドマウントディスプレイ4Aと、コントローラ6と、端末装置60とを備える。画像表示システム2Aは、ヘッドマウントディスプレイ4及びコントローラ6以外に、端末装置60を用いるテザード型の画像表示システムである。
As shown in FIG. 14, an
端末装置60は、例えばパーソナルコンピュータ又はスマートフォン等であり、ヘッドマウントディスプレイ4Aと有線通信可能に接続されている。なお、端末装置60は、ヘッドマウントディスプレイ4Aと無線通信可能に接続されていてもよい。
The
次に、図15を参照しながら、実施の形態の変形例に係るヘッドマウントディスプレイ4Aの構成について説明する。図15は、実施の形態の変形例に係るヘッドマウントディスプレイ4Aの構成を示すブロック図である。
Next, a configuration of a head mounted
図15に示すように、実施の形態の変形例に係るヘッドマウントディスプレイ4Aでは、プロセッサ46Aは上述した画像処理部52を有しておらず、端末装置60のプロセッサ62が上述した画像処理部52の機能を有している。端末装置60は、ヘッドマウントディスプレイ4AのUSBコネクタ50に接続されている。ヘッドマウントディスプレイ4Aのプロセッサ46Aは、USBコネクタ50を介して、端末装置60との間で各種データを送受信する。具体的には、プロセッサ46Aは、センサ34の検出信号及びコントローラ6のセンサ18(図3参照)の検出信号を端末装置60に送信する。また、プロセッサ46Aは、端末装置60から送信された画像14を示すデータを受信する。
As shown in FIG. 15, in a head mounted
本変形例では、端末装置60のプロセッサ62が上述した画像処理部52の機能を有しているので、ヘッドマウントディスプレイ4Aのプロセッサ46Aの処理負荷を低減することができる。
In this modification, the
(他の変形例等)
以上のように、本出願において開示する技術の例示として、上記実施の形態を説明した。しかしながら、本開示における技術は、これに限定されず、適宜、変更、置き換え、付加、省略などを行った実施の形態にも適用可能である。また、上記実施の形態で説明した各構成要素を組み合わせて、新たな実施の形態とすることも可能である。
(other modifications, etc.)
As described above, the above embodiment has been described as an example of the technology disclosed in the present application. However, the technology in the present disclosure is not limited to this, and can be applied to embodiments in which modifications, replacements, additions, omissions, etc. are made as appropriate. Further, it is also possible to combine the constituent elements described in the above embodiments to form a new embodiment.
そこで、以下、他の実施の形態を例示する。 Therefore, other embodiments will be exemplified below.
上記実施の形態では、プロセッサ46の画像処理部52は、センサ34の検出信号及びコントローラ6のセンサ18の検出信号に基づいてユーザ12の視線を推定し、推定したユーザ12の視線が高解像度領域54に重畳するように高解像度領域54の位置を制御したが、これに限定されない。例えば、プロセッサ46の画像処理部52は、推定したユーザ12の視線が高解像度領域54に重畳するように、高解像度領域54の位置及び/又は範囲を制御するようにしてもよい。
In the above embodiment, the
また、上記実施の形態では、プロセッサ46の画像処理部52は、ヘッドマウントディスプレイ4及びコントローラ6の各回転角度に基づいてユーザ12の視線を推定したが、これに限定されず、ヘッドマウントディスプレイ4及びコントローラ6の各回転角度及び/又は移動量(X軸、Y軸、Z軸の3軸方向への移動距離及び移動方向)に基づいてユーザ12の視線を推定してもよい。
Further, in the above embodiment, the
また、上記実施の形態では、操作体が1つのコントローラ6である場合について説明したが、これに限定されず、操作体は複数のコントローラであってもよい。例えば、操作体は、ユーザ12の右手で把持される右手用コントローラ、及び、ユーザ12の左手で把持される左手用コントローラであってもよい。この場合、右手用コントローラ及び左手用コントローラの各指示座標の中間位置をポインタ16の位置としてもよい。あるいは、右手用コントローラ及び左手用コントローラのうち、最後に有効になったコントローラの指示座標位置をポインタ16の位置としてもよい。
Further, in the above embodiment, the case where the operating body is one
また、上記実施の形態では、操作体が手で把持して操作するタイプのコントローラ6である場合について説明したが、これに限定されず、ヘッドマウントディスプレイ4(4A)がハンドトラッキング機能を有する場合には、操作体をユーザ12の手としてもよい。この場合、ヘッドマウントディスプレイ4(4A)のカメラ42によりユーザ12の手を認識することにより、ハンドトラッキング機能を実現することができる。
Further, in the above embodiment, the case where the operating body is the
また、上記実施の形態では、操作体を手で把持して操作するタイプのコントローラ6としたが、これに限定されず、例えば腕輪型、指輪型又は手袋型のコントローラとしてもよい。
Further, in the above-described embodiment, the
なお、上記実施の形態において、各構成要素は、専用のハードウェアで構成されるか、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPU又はプロセッサ等のプログラム実行部が、ハードディスク又は半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。 In the above embodiments, each component may be implemented by dedicated hardware or by executing a software program suitable for each component. Each component may be realized by reading and executing a software program recorded in a recording medium such as a hard disk or a semiconductor memory by a program execution unit such as a CPU or processor.
また、上記実施の形態に係る画像表示システム2(2A)の機能の一部又は全てを、CPU等のプロセッサがプログラムを実行することにより実現してもよい。 Also, part or all of the functions of the image display system 2 (2A) according to the above embodiment may be implemented by a processor such as a CPU executing a program.
以上のように、本開示における技術の例示として、実施の形態を説明した。そのために、添付図面及び詳細な説明を提供した。 As described above, the embodiment has been described as an example of the technique of the present disclosure. To that end, the accompanying drawings and detailed description have been provided.
したがって、添付図面及び詳細な説明に記載された構成要素の中には、課題解決のために必須な構成要素だけでなく、上記技術を例示するために、課題解決のためには必須でない構成要素も含まれ得る。そのため、それらの必須ではない構成要素が添付図面や詳細な説明に記載されていることをもって、直ちに、それらの必須ではない構成要素が必須であるとの認定をするべきではない。 Therefore, among the components described in the attached drawings and detailed description, there are not only components essential for solving the problem, but also components not essential for solving the problem in order to illustrate the above technology. can also be included. Therefore, it should not be immediately recognized that those non-essential components are essential just because they are described in the attached drawings and detailed description.
また、上述の実施の形態は、本開示における技術を例示するためのものであるから、特許請求の範囲又はその均等の範囲において種々の変更、置き換え、付加、省略などを行うことができる。 In addition, the above-described embodiments are intended to illustrate the technology of the present disclosure, and various modifications, replacements, additions, omissions, etc. can be made within the scope of the claims or equivalents thereof.
本開示は、例えばヘッドマウントディスプレイ及びコントローラを備えた画像表示システム等として適用可能である。 The present disclosure is applicable as, for example, an image display system including a head-mounted display and a controller.
2,2A 画像表示システム
4,4A ヘッドマウントディスプレイ
6 コントローラ
8 装着部
10 表示部
12 ユーザ
13,15,17 オブジェクト
14 画像
16 ポインタ
18,34 センサ
20,36 通信部
22,38 ハプティクス
24,40 メモリ
26,44 入力部
28,46,46A,62 プロセッサ
30,48 バッテリ
32,50 USBコネクタ
42 カメラ
52 画像処理部
54 高解像度領域
56 中解像度領域
58 低解像度領域
60 端末装置
2, 2A
Claims (5)
前記装着部に配置され、前記ユーザに画像を表示する表示部と、
前記装着部の動きを検出する第1のセンサと、
操作体の動きを検出する第2のセンサと、
前記画像の表示を制御するプロセッサであって、第1の領域と、前記第1の領域の周囲に配置され且つ前記第1の領域よりも解像度の低い第2の領域と、を含む前記画像を描画し、前記第2のセンサの検出結果に基づいて、前記画像上の位置を指し示すポインタを移動させるプロセッサと、を備え、
前記プロセッサは、前記第1のセンサ及び前記第2のセンサの各々の検出結果に基づいて前記ユーザの視線を推定し、推定した前記ユーザの視線が前記第1の領域に重畳するように前記第1の領域の位置を制御する
画像表示システム。 a wearing part worn on a user's head;
a display unit arranged on the mounting unit and configured to display an image to the user;
a first sensor that detects movement of the mounting part;
a second sensor that detects the movement of the operating body;
A processor for controlling display of the image, the image including a first area and a second area arranged around the first area and having a resolution lower than that of the first area. a processor that draws and moves a pointer pointing to a position on the image based on the detection result of the second sensor;
The processor estimates a line of sight of the user based on detection results of each of the first sensor and the second sensor, and estimates the line of sight of the user so that the estimated line of sight of the user overlaps the first area. An image display system that controls the position of one region.
前記第2のセンサは、前記操作体の回転角度を検出し、
前記プロセッサは、前記操作体の回転角度と前記装着部の回転角度との差分に基づいて、前記ユーザの視線を推定する
請求項1に記載の画像表示システム。 The first sensor detects a rotation angle of the mounting part,
The second sensor detects a rotation angle of the operating body,
The image display system according to claim 1, wherein the processor estimates the line of sight of the user based on the difference between the rotation angle of the operating body and the rotation angle of the mounting section.
請求項2に記載の画像表示システム。 The processor determines that (i) if the difference is greater than a first threshold and less than a second threshold that is greater than the first threshold, then the user's line of sight is at the location of the pointer; and controlling the position of the first area so that the pointer overlaps the first area, and (ii) the difference is equal to or less than the first threshold, or the second threshold In the above case, it is estimated that the line of sight of the user is at the center of the image, and the position of the first area is controlled so that the center of the image overlaps with the first area. The image display system described in .
請求項1~3のいずれか1項に記載の画像表示システム。 The image display system according to any one of claims 1 to 3, wherein the operating body is a controller arranged separately from the mounting section and operated by the user.
(b)操作体の動きを検出するステップと、
(c)第1の領域と、前記第1の領域の周囲に配置され且つ前記第1の領域よりも解像度の低い第2の領域と、を含む前記画像を描画するステップと、
(d)前記(b)の検出結果に基づいて、前記画像上の位置を指し示すポインタを移動させるステップと、
(e)前記(a)の検出結果及び前記(b)の検出結果に基づいて前記ユーザの視線を推定し、推定した前記ユーザの視線が前記第1の領域に重畳するように前記第1の領域の位置を制御するステップと、を含む
画像表示方法。 (a) detecting movement of a wearable part that is worn on the head of a user and has a display that displays an image to the user;
(b) detecting movement of the operating body;
(c) rendering said image comprising a first region and a second region disposed around said first region and having a lower resolution than said first region;
(d) moving a pointer indicating a position on the image based on the detection result of (b);
(e) estimating the line of sight of the user based on the detection result of (a) and the detection result of (b); and controlling the position of the region.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021095090A JP2022187199A (en) | 2021-06-07 | 2021-06-07 | Image display system and image display method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021095090A JP2022187199A (en) | 2021-06-07 | 2021-06-07 | Image display system and image display method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022187199A true JP2022187199A (en) | 2022-12-19 |
Family
ID=84525365
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021095090A Pending JP2022187199A (en) | 2021-06-07 | 2021-06-07 | Image display system and image display method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022187199A (en) |
-
2021
- 2021-06-07 JP JP2021095090A patent/JP2022187199A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10303250B2 (en) | Wearable glasses and method of displaying image via the wearable glasses | |
US10565725B2 (en) | Method and device for displaying virtual object | |
KR101958778B1 (en) | A Head Mounted Display and a Method for Controlling a Digital Device Using the Same | |
EP3097552A1 (en) | Environmental interrupt in a head-mounted display and utilization of non field of view real estate | |
WO2017183279A1 (en) | Image processing device and image processing method | |
US20190227642A1 (en) | Head-mounted display apparatus and method of controlling head-mounted display apparatus | |
KR20230074233A (en) | Geometry modeling of eyewear devices with flexible frames | |
KR20130034125A (en) | Augmented reality function glass type monitor | |
KR20160056133A (en) | Method for controlling display of image and apparatus implementing the same | |
JP7455277B2 (en) | An electronic device for controlling a host device using motion and mouse signals | |
JP7274510B2 (en) | VIRTUAL OBJECT DISPLAY DEVICE AND VIRTUAL OBJECT DISPLAY METHOD | |
US11531392B2 (en) | Tracking upper arm movements using sensor modules attached to the hand and forearm | |
CN113448343B (en) | Method, system and readable medium for setting a target flight path of an aircraft | |
US20240143066A1 (en) | Head-mounted information processing apparatus and its controlling method | |
CN108351736B (en) | Wearable display, image display device, and image display system | |
WO2021193062A1 (en) | Information processing device, information processing method, and program | |
JP2022187199A (en) | Image display system and image display method | |
US11768546B1 (en) | Method and device for positional/rotational information of a finger-wearable device | |
WO2019106862A1 (en) | Operation guiding system | |
US10936147B2 (en) | Tablet computing device with display dock | |
US20200348749A1 (en) | Information processing apparatus, information processing method, and program | |
TW202040506A (en) | Virtual reality view compensation method, non-transitory computer readable medium and virtual reality device | |
WO2024070296A1 (en) | Information processing device, information processing method, and program | |
US20220253198A1 (en) | Image processing device, image processing method, and recording medium | |
US20230376109A1 (en) | Image processing apparatus, image processing method, and storage device |