JP2022050768A - Element image group generation device and program thereof - Google Patents
Element image group generation device and program thereof Download PDFInfo
- Publication number
- JP2022050768A JP2022050768A JP2020156877A JP2020156877A JP2022050768A JP 2022050768 A JP2022050768 A JP 2022050768A JP 2020156877 A JP2020156877 A JP 2020156877A JP 2020156877 A JP2020156877 A JP 2020156877A JP 2022050768 A JP2022050768 A JP 2022050768A
- Authority
- JP
- Japan
- Prior art keywords
- image group
- element image
- vector
- ray tracing
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、ライトフィールドHMDが表示する要素画像群を生成する要素画像群生成装置及びそのプログラムに関する。 The present invention relates to an element image group generator and a program thereof for generating an element image group displayed by a light field HMD.
近年、教育、医療、娯楽などの様々な分野でバーチャルリアリティー(VR:Virtual Reality)の活用が広がりつつある。VR表示装置であるヘッドマウントディスプレイ(HMD:Head Mounted Display)の光学系は、接眼レンズによりディスプレイの映像を拡大する単純な構造である。このHMDは、左眼用と右眼用の2枚のディスプレイに視差のある映像を表示することにより、立体感を感じる仕組みとなっている。 In recent years, the use of virtual reality (VR) is spreading in various fields such as education, medical care, and entertainment. The optical system of a head-mounted display (HMD), which is a VR display device, has a simple structure in which an image of a display is magnified by an eyepiece. This HMD is a mechanism that gives a three-dimensional effect by displaying images with parallax on two displays, one for the left eye and the other for the right eye.
このHMDが解決できていない問題の一つに、焦点距離と輻輳距離の不一致に起因する眼精疲労がある。この問題は、調整機能によって眼が焦点を合わせる位置と、輻輳機能によって両眼の視線方向が交差する位置が一致しないことに起因する。そして、この問題は、仮想的に3Dオブジェクトの光源を再生するライトフィールドHMDを用いることで解決できる。 One of the problems that this HMD has not been able to solve is eye strain caused by the mismatch between the focal length and the convergence distance. This problem is caused by the fact that the position where the eyes focus by the adjustment function and the position where the line-of-sight directions of both eyes intersect due to the convergence function do not match. Then, this problem can be solved by using a light field HMD that virtually reproduces the light source of the 3D object.
ライトフィールドHMDは、ディスプレイ、マイクロレンズアレイ、及び、接眼レンズを備えている(非特許文献1,2)。なお、ライトフィールドHMDは、接眼レンズが必須ではなく、ディスプレイ及びマイクロレンズアレイだけを備えてもよい(特許文献1)。そして、ライトフィールドHMDは、3Dオブジェクトの光源を生成するための要素画像群をディスプレイに表示する。
The light field HMD includes a display, a microlens array, and an eyepiece (
ライトフィールドHMDにおいて、要素画像群の生成は、ディスプレイの各画素から光学素子を通過し瞳面に到達するまでの光路計算処理と、瞳面から仮想空間に配置した3Dオブジェクトに到達して色情報を取得するまでの光線追跡処理とに分類される。 In the light field HMD, the element image group is generated by the optical path calculation process from each pixel of the display through the optical element to reach the pupil surface, and the color information by reaching the 3D object arranged in the virtual space from the pupil surface. It is classified as a ray tracing process until it is acquired.
しかし、ライトフィールドHMDでは、要素画素群を生成するまでに必要な計算量が多く、その生成に時間を要するという問題がある。 However, the light field HMD has a problem that a large amount of calculation is required to generate an element pixel group, and it takes time to generate the element pixel group.
そこで、要素画像群を高速に生成できる要素画像群生成装置及びそのプログラムを提供することを課題とする。 Therefore, it is an object of the present invention to provide an element image group generation device capable of generating element image groups at high speed and a program thereof.
前記課題を解決するため、本発明に係る要素画像群生成装置は、ディスプレイ及び光学素子で構成された光学素子アレイを備えるライトフィールドHMDに表示する要素画像群を生成する要素画像群生成装置であって、光路計算手段と、光線追跡計算手段と、を備える構成とした。 In order to solve the above problems, the element image group generation device according to the present invention is an element image group generation device that generates an element image group to be displayed on a light field HMD including an optical element array composed of a display and optical elements. Therefore, the configuration is provided with an optical path calculation means and a ray tracing calculation means.
かかる構成によれば、光路計算手段は、ディスプレイの各画素から光学素子を通過して所定の瞳面に到達する光線の光路計算を予め行い、瞳面に到達した光線の方向ベクトルを反転させた追跡ベクトルを算出する。
光線追跡計算手段は、ライトフィールドHMDの装着者の頭部運動情報に基づいて、追跡ベクトルの延長線が仮想空間内の物体に接触する個所の色情報を取得する光線追跡処理を行い、要素画像群を生成する。
According to such a configuration, the optical path calculation means preliminarily calculates the optical path of the light ray that passes through the optical element and reaches a predetermined pupil surface from each pixel of the display, and inverts the direction vector of the light ray that reaches the pupil surface. Calculate the tracking vector.
The ray tracing calculation means performs ray tracing processing to acquire color information of a place where an extension line of the tracking vector contacts an object in the virtual space based on the head motion information of the wearer of the light field HMD, and performs an element image. Generate a swarm.
このように、要素画像群生成装置は、ディスプレイの各画素から光学素子を通過して瞳面に到達するまでの光路計算を事前に行っておく。そして、要素画像群生成装置は、光路計算の結果に基づいて、ライトフィールドHMDの装着者の頭部運動に応じた光線追跡処理を行うことで、要素画像群を高速に生成できる。すなわち、要素画像群生成装置は、光路計算を事前に行っておき、装着者の頭部運動に応じた光線追跡処理を適宜行うことで、要素画像群の生成時間を短縮できる。 In this way, the element image group generating device performs the optical path calculation from each pixel of the display to reach the pupil surface through the optical element in advance. Then, the element image group generation device can generate the element image group at high speed by performing the ray tracing process according to the head movement of the wearer of the light field HMD based on the result of the optical path calculation. That is, the element image group generation device can shorten the generation time of the element image group by performing the optical path calculation in advance and appropriately performing the ray tracing process according to the wearer's head movement.
なお、本発明は、コンピュータを、前記した要素画像群生成装置として機能させるためのプログラムで実現することができる。 The present invention can be realized by a program for making a computer function as the element image group generation device described above.
本発明によれば、要素画像群を高速に生成できる。 According to the present invention, an element image group can be generated at high speed.
以下、本発明の各実施形態について図面を参照して説明する。但し、以下に説明する各実施形態は、本発明の技術思想を具体化するためのものであって、特定的な記載がない限り、本発明を以下のものに限定しない。また、同一の手段には同一の符号を付し、説明を省略する場合がある。 Hereinafter, each embodiment of the present invention will be described with reference to the drawings. However, each embodiment described below is for embodying the technical idea of the present invention, and the present invention is not limited to the following unless otherwise specified. Further, the same means may be designated by the same reference numerals and the description thereof may be omitted.
(第1実施形態)
図1を参照し、第1実施形態に係る要素画像群生成装置1の構成について説明する。
要素画像群生成装置1は、ライトフィールド方式のHMD2に表示する要素画像群を生成して表示するものであり、図1に示すように、光路計算装置(光路計算手段)3と、光線追跡計算装置(光線追跡計算手段)4とを備える。本実施形態では、光路計算装置3がワークステーションに実装され、光線追跡計算装置4がHMD2に内蔵されていることとする。また、HMD2及び光路計算装置3は、無線通信を行うこととする。
(First Embodiment)
With reference to FIG. 1, the configuration of the element image
The element image
[HMDの構成]
図1及び図2を参照し、HMD2の構成について説明する。
HMD2は、一般的なライトフィールド方式のHMDであり、図1及び図2に示すように、ディスプレイ20と、マイクロレンズアレイ(光学素子アレイ)22と、接眼レンズ24と、記憶手段25とを備える。
[HMD configuration]
The configuration of HMD2 will be described with reference to FIGS. 1 and 2.
The HMD 2 is a general light field type HMD, and includes a
ディスプレイ20は、一般的なスマートフォンと同様、画素21を2次元状に配列した平面ディスプレイである。また、ディスプレイ20は、右眼用のディスプレイ20Rと左眼用のディスプレイ20Lで構成され、右眼用と左眼用の要素画像群を表示する。ここで、1枚のディスプレイ20の左右それぞれで、右眼用と左眼用の要素画像群を表示してもよい。
The
マイクロレンズアレイ22は、マイクロレンズ(光学素子)23を2次元状に配列したものである。また、マイクロレンズアレイ22は、右眼用のマイクロレンズアレイ22Rと左眼用のマイクロレンズアレイ22Lで構成されている(図3参照)。例えば、マイクロレンズ23は、微小な両凸レンズである。
接眼レンズ24は、ディスプレイ20が表示する要素画像からの光線がマイクロレンズアレイ22を通過した後に形成する中間像を拡大するレンズである。また、接眼レンズ24は、右眼用の接眼レンズ24Rと左眼用の接眼レンズ24Lで構成されている(図3参照)。ここで、接眼レンズ24は、HMD2の装着者の側に位置する。
The
The
なお、瞳面αとは、HMD2の装着者の両眼が位置する仮想的な平面である。
また、像面βとは、3Dオブジェクト(物体)Aの像が形成される仮想的な平面である。
The pupil surface α is a virtual plane on which both eyes of the wearer of HMD2 are located.
The image plane β is a virtual plane on which an image of a 3D object (object) A is formed.
記憶手段25は、要素画像群の生成に必要な各種情報を記憶するメモリやSDカードなどの記憶装置である。例えば、記憶手段25は、情報テーブルI、頭部運動情報H、仮想環境情報Kを記憶する。なお、記憶手段25が記憶する各種情報の詳細は、後記する。 The storage means 25 is a storage device such as a memory or an SD card that stores various information necessary for generating an element image group. For example, the storage means 25 stores the information table I, the head movement information H, and the virtual environment information K. The details of various information stored in the storage means 25 will be described later.
[光路計算装置の構成]
光路計算装置3は、光路計算を予め行い、図2に示すように、瞳面αに到達した光線の方向ベクトルを反転させた追跡ベクトルV3を算出するものである。光路計算とは、ディスプレイ20の各画素21からマイクロレンズ23と接眼レンズ24とを通過して瞳面αに到達する光線の光路を計算することである。
[Configuration of optical path calculation device]
The optical
図1に示すように、光路計算装置3は、マイクロレンズアレイ対応手段(光学素子対応手段)30と、接眼レンズ屈折手段31と、瞳面再帰反射手段32と、情報テーブル生成手段33とを備える。
As shown in FIG. 1, the optical
<マイクロレンズアレイ対応手段>
マイクロレンズアレイ対応手段30は、マイクロレンズアレイ対応処理を行うものである。マイクロレンズアレイ対応処理とは、図2に示すように、画素21とマイクロレンズ23とを対応付けて、その画素21からマイクロレンズ23の中心を通過する光線のマイクロレンズ後ベクトル(光学素子後ベクトル)V1を算出する処理である。なお、図2では、1個の画素21のみをマイクロレンズ23に対応付けているが、全ての画素21をマイクロレンズ23に対応づける。また、図2では、右眼又は左眼の一方のみを表しているが、両眼とも同様の構成である。
<Measures for Microlens Arrays>
The microlens array compatible means 30 performs microlens array compatible processing. As shown in FIG. 2, the microlens array compatible process corresponds to a
ここで、マイクロレンズアレイ対応手段30には、ディスプレイ画素配置、マイクロレンズアレイ配置、マイクロレンズアレイ焦点距離、マイクロレンズアレイピッチ、及び、接眼レンズ焦点距離からなるパラメータを入力する。
Here, a parameter including a display pixel arrangement, a microlens array arrangement, a microlens array focal length, a microlens array pitch, and an eyepiece lens focal length is input to the microlens
ディスプレイ画素配置は、ディスプレイ20を構成する画素21の配置(i,j)を表す。
マイクロレンズアレイ配置は、マイクロレンズアレイ22を構成するマイクロレンズ23の配置(k,l)を表す。
マイクロレンズアレイ焦点距離は、マイクロレンズアレイ22を構成するマイクロレンズ23の焦点距離を表す。
マイクロレンズアレイピッチは、マイクロレンズアレイ22を構成するマイクロレンズ23のピッチ(間隔)を表す。
接眼レンズ焦点距離は、接眼レンズ24の焦点距離を表す。
The display pixel arrangement represents the arrangement (i, j) of the
The microlens array arrangement represents the arrangement (k, l) of the
The microlens array focal length represents the focal length of the
The microlens array pitch represents the pitch (interval) of the
The eyepiece focal length represents the focal length of the
具体的には、マイクロレンズアレイ対応手段30は、ディスプレイ20の画素21を光源とし、画素21に対応付けたマイクロレンズ23を通過する光線のベクトルを算出する。図2に示すように、光線の始点位置は、ディスプレイ20を構成する各画素21の画素位置ODijである。また、マイクロレンズ後ベクトルV1は、画素21の画素位置ODijから、その画素21に対応付けたマイクロレンズ23の中心位置OLAklへ向かう単位ベクトルである。
Specifically, the microlens array-
ここで、画素21とマイクロレンズ23とを対応付ける手法は、幾つかある。例えば、一番簡易な手法として、ディスプレイ20の画素21毎に、その画素21に最も近いマイクロレンズ23を対応付けるものがある。この手法では、前記したパラメータのうち、ディスプレイ画素配置及びマイクロレンズアレイ配置を用いる。
Here, there are several methods for associating the
また、別の手法として、ディスプレイ20の画素21からの光線がマイクロレンズ23を通過し、装着者の眼球に入射することを確認してから、マイクロレンズ23を対応付けるものがある。この手法では、瞳面αの中心を始点として接眼レンズ24で屈折されマイクロレンズ23の中心を通る直線がディスプレイ20に接する点を中心として、その中心からマイクロレンズ23の半径内に位置する画素21を対応付ける。この手法では、前記したパラメータのうち、ディスプレイ画素配置、マイクロレンズアレイ配置、マイクロレンズアレイ焦点距離、マイクロレンズアレイピッチ、及び、接眼レンズ焦点距離を用いる。
Further, as another method, there is a method in which the light beam from the
その後、マイクロレンズアレイ対応手段30は、ディスプレイ画素配置と、マイクロレンズ後ベクトルV1とを接眼レンズ屈折手段31に出力する。 After that, the microlens array corresponding means 30 outputs the display pixel arrangement and the microlens rear vector V 1 to the eyepiece refraction means 31.
<接眼レンズ屈折手段>
接眼レンズ屈折手段31は、マイクロレンズアレイ対応手段30からディスプレイ画素配置及びマイクロレンズ後方向ベクトルV1を入力し、接眼レンズ屈折処理を行うものである。
<Eyepiece refraction means>
The eyepiece refraction means 31 inputs the display pixel arrangement and the microlens rearward vector V1 from the microlens array compatible means 30, and performs the eyepiece refraction processing.
接眼レンズ屈折処理とは、図2に示すように、マイクロレンズ後ベクトルV1を延長することで、マイクロレンズ23の中心を通過して接眼レンズ24で屈折した光線の接眼レンズ後ベクトルV2を算出する処理である。すなわち、接眼レンズ屈折処理では、画素21から出射してマイクロレンズ23を通過した光線を入射光とし、接眼レンズ24により屈折された光線の光路計算を行う。この接眼レンズ屈折処理では、前記したパラメータのうち、接眼レンズ焦点距離を用いる。
As shown in FIG. 2, the eyepiece refraction process is to extend the posterior vector V 1 of the microlens to obtain the posterior vector V 2 of the light beam that has passed through the center of the
接眼レンズ後ベクトルV2の始点位置は、マイクロレンズ後ベクトルV1と接眼レンズ24との接触位置OEPである。また、接眼レンズ後ベクトルV2は、接眼レンズ24で屈折された方向へ向かう単位ベクトルである。
The starting point position of the posterior eyepiece vector V 2 is the contact position OEP between the posterior microlens vector V 1 and the
その後、接眼レンズ屈折手段31は、接眼レンズ後ベクトルV2を瞳面再帰反射手段32に出力する。 After that, the eyepiece refraction means 31 outputs the post-eyepiece vector V 2 to the pupil surface retroreflection means 32.
<瞳面再帰反射手段>
瞳面再帰反射手段32は、接眼レンズ屈折手段31から接眼レンズ後ベクトルV2を入力し、瞳面再帰反射処理を行うものである。
<Eye plane retroreflective means>
The pupil surface retroreflection means 32 inputs the eyepiece posterior vector V 2 from the eyepiece refraction means 31 and performs the pupil surface retroreflection process.
瞳面再帰反射処理とは、図2に示すように、瞳面αにおいて、接眼レンズ後ベクトルV2の方向を反転させた追跡ベクトルV3を算出する処理である。すなわち、瞳面再帰反射処理では、接眼レンズ24を通過した光線(接眼レンズ後ベクトルV2)が瞳面αに到達する位置を、瞳面αに対応する平面との接触判定から算出する。ここでは、接眼レンズ後ベクトルV2の符号を反転させて、光線追跡処理を行うための追跡ベクトルV3=(u,v,w)とする。また、接眼レンズ後ベクトルV2が瞳面αに到達する位置を瞳面位置OEye=(x,y,z)とする。
As shown in FIG. 2, the pupil surface retroreflection process is a process of calculating a tracking vector V 3 in which the direction of the eyepiece post-lens vector V 2 is reversed on the pupil surface α. That is, in the pupil surface retroreflection process, the position where the light ray (the vector V 2 after the eyepiece) that has passed through the
その後、瞳面再帰反射手段32は、ディスプレイ画素配置、瞳面位置OEye及び追跡ベクトルV3を情報テーブル生成手段33に出力する。 After that, the pupil surface retroreflection means 32 outputs the display pixel arrangement, the pupil surface position O Eye , and the tracking vector V 3 to the information table generation means 33.
<情報テーブル生成手段>
情報テーブル生成手段33は、情報テーブル生成処理を行うものである。この情報テーブル生成処理とは、瞳面再帰反射手段32から入力したディスプレイ画素配置、瞳面位置OEye及び追跡ベクトルV3を、情報テーブルIという一つのファイルとして生成する処理である。そして、情報テーブル生成手段33は、情報テーブルIを記憶手段25に書き込む。
<Information table generation means>
The information table generation means 33 performs information table generation processing. This information table generation process is a process of generating the display pixel arrangement, the pupil surface position O Eye , and the tracking vector V3 input from the pupil surface retroreflection means 32 as one file called the information table I. Then, the information table generation means 33 writes the information table I in the storage means 25.
[光線追跡計算装置の構成]
光線追跡計算装置4は、装着者の頭部運動情報Hに基づいて光線追跡処理を行い、要素画像群を生成するものである。光線追跡処理とは、追跡ベクトルV3の延長線が仮想空間内の3DオブジェクトAに接触する個所の色情報を取得する処理のことである(図3)。図1に示すように、光線追跡計算装置4は、二眼表示手段40と、頭部運動手段41と、光線追跡手段42と、要素画像群生成手段43とを備える。
[Structure of ray tracing calculator]
The ray
<二眼表示手段>
二眼表示手段40は、記憶手段25が記憶している情報テーブルIを参照し、二眼表示処理を行うものである。二眼表示処理とは、予め設定した眼球間距離dだけ追跡ベクトルV3を水平方向にシフトさせて、右眼及び左眼の追跡ベクトルV3R,V3Lを生成する処理である。また、眼球間距離dとは、装着者の両眼の距離を表し、任意に設定できる。つまり、二眼表示処理では、片眼から両眼の情報テーブルIを複製するために、眼球間距離dに応じて瞳面位置OEyeをそれぞれx方向に±d/2シフトさせる。なお、二眼表示処理は、初回のみ行えばよい。図3には、右眼の瞳面位置OEyeR1,OEyeR2、左眼の瞳面位置OEyeL1,OEyeL2、右眼の追跡ベクトルV3R1,V3R2、及び、左眼の追跡ベクトルV3L1,V3L2を図示した。
その後、二眼表示手段40は、右眼及び左眼の情報テーブルIを頭部運動手段41に出力する。
<Binocular display means>
The binocular display means 40 refers to the information table I stored in the storage means 25 and performs the binocular display process. The binocular display process is a process of horizontally shifting the tracking vector V 3 by a preset inter-eye distance d to generate tracking vectors V 3R and V 3L for the right eye and the left eye. Further, the distance between the eyeballs d represents the distance between the wearer's eyes and can be arbitrarily set. That is, in the binocular display process, in order to duplicate the information table I of both eyes from one eye, the pupil surface position OEye is shifted ± d / 2 in the x direction according to the inter-eye distance d. The binocular display process may be performed only for the first time. In FIG. 3, the pupil surface positions OEyeR1 and OEyeR2 of the right eye, the pupil surface positions OEyeL1 , OEyeL2 of the left eye, the tracking vector V 3R1 and V 3R2 of the right eye, and the tracking vector V 3L1 of the left eye are shown. V 3L2 is illustrated.
After that, the binocular display means 40 outputs the information table I of the right eye and the left eye to the head movement means 41.
以下、頭部運動手段41を説明する前に、記憶手段25が記憶している頭部運動情報H及び仮想環境情報Kを説明する。
頭部運動情報Hは、装着者の頭部運動を表す情報である。頭部運動情報Hには、フレームごとの頭部の位置差分および角速度の積分値が含まれている。ここでは、HMD2に備えられた加速度センサ(不図示)が頭部運動情報Hを計測し、記憶手段25に書き込むこととする。
Hereinafter, before explaining the head movement means 41, the head movement information H and the virtual environment information K stored in the storage means 25 will be described.
The head movement information H is information representing the head movement of the wearer. The head motion information H includes the position difference of the head for each frame and the integrated value of the angular velocity. Here, it is assumed that the acceleration sensor (not shown) provided in the
仮想環境情報Kは、仮想空間内の3DオブジェクトAを描画するのに必要な情報である。この仮想環境情報Kには、仮想空間内の3DオブジェクトAのメッシュ情報(頂点座標、法線ベクトル、色情報)と、仮想空間内の光源情報(例えば、光源Bの位置、色、明るさ)とが含まれている。例えば、仮想環境情報Kとしては、OBJ形式のファイルをあげることができる。ここでは、要素画像群生成装置1の管理者が、仮想環境情報Kを記憶手段25に手動で書き込むこととする。
The virtual environment information K is information necessary for drawing the 3D object A in the virtual space. The virtual environment information K includes mesh information (vertex coordinates, normal vector, color information) of 3D object A in virtual space and light source information (for example, position, color, brightness of light source B) in virtual space. And are included. For example, as the virtual environment information K, an OBJ format file can be mentioned. Here, it is assumed that the administrator of the element image
<頭部運動手段>
頭部運動手段41は、二眼表示手段40から右眼及び左眼の情報テーブルIを入力し、頭部運動処理を行うものである。この頭部運動処理とは、装着者の頭部重心位置を基準として、両眼の追跡ベクトルV3及び瞳面位置OEyeに頭部運動情報Hから定まる頭部の回転行列を適用する処理である。
<Head movement means>
The head movement means 41 inputs information tables I for the right eye and the left eye from the binocular display means 40, and performs head movement processing. This head movement processing is a processing in which a rotation matrix of the head determined from the head movement information H is applied to the tracking vector V3 of both eyes and the pupil surface position OEye with reference to the position of the center of gravity of the head of the wearer. be.
具体的には、頭部運動手段41は、右眼及び左眼の情報テーブルIから瞳面位置OEyeR,OEyeL及び追跡ベクトルV3R,V3Lを抽出する。また、頭部運動手段41は、記憶手段25から頭部運動情報Hを読み出す。前記したように、頭部運動情報Hには、フレームごとの頭部の位置差分および角速度の積分値が含まれている。従って、頭部運動手段41は、位置差分の平行移動行列TH及び角速度の積分値から、x軸、y軸、z軸のそれぞれで頭部の回転行列R=[Rx,Ry,Rz]を算出する。そして、頭部運動手段41は、頭部重心位置OH=(x0,y0,z0)を基準として、瞳面位置OEyeR,OEyeL及び追跡ベクトルV3R,V3Lに回転行列Rを適用する。 Specifically, the head movement means 41 extracts the pupil surface positions OEyeR , OEyeL and the tracking vectors V3R , V3L from the information table I of the right eye and the left eye. Further, the head movement means 41 reads out the head movement information H from the storage means 25. As described above, the head motion information H includes the position difference of the head for each frame and the integrated value of the angular velocity. Therefore, the head motion means 41 has a rotation matrix R = [R x , R y , R of the head on each of the x-axis, y-axis, and z-axis from the translation matrix TH of the position difference and the integrated value of the angular velocity. z ] is calculated. Then, the head movement means 41 applies a rotation matrix R to the pupil surface positions OEyeR , OEyeL and the tracking vectors V3R, V3L with reference to the head center of gravity position OH = (x 0 , y 0 , z 0 ). Apply.
その後、頭部運動手段41は、回転行列Rを適用した瞳面位置OEyeR,OEyeL及び追跡ベクトルV3R,V3Lを右眼及び左眼の情報テーブルIに格納し、この情報テーブルIを光線追跡手段42に出力する。 After that, the head movement means 41 stores the pupil surface positions OEyeR , OEyeL and the tracking vectors V 3R , V 3L to which the rotation matrix R is applied in the information table I of the right eye and the left eye, and stores this information table I in the information table I. It is output to the ray tracing means 42.
<光線追跡手段>
光線追跡手段42は、回転行列Rを適用した追跡ベクトルV3R,V3Lで光線追跡処理を行い、光線が3DオブジェクトAに接触する個所の色情報を取得するものである。
<Ray tracing means>
The ray tracing means 42 performs ray tracing processing on the tracking vectors V 3R and V 3L to which the rotation matrix R is applied, and acquires color information at a point where the ray contacts the 3D object A.
具体的には、光線追跡手段42は、頭部運動手段41から入力した情報テーブルIより、ディスプレイ画素配置、瞳面位置OEyeR,OEyeL及び追跡ベクトルV3R,V3Lを抽出する。また、光線追跡手段42は、記憶手段25から仮想環境情報Kを読み出す。前記したように、仮想環境情報Kには、仮想空間内の3DオブジェクトAのメッシュ情報と、仮想空間内の光源情報とが含まれている(図3参照)。そこで、光線追跡手段42は、瞳面位置OEyeR,OEyeLを始点とする追跡ベクトルV3R,V3Lで光線追跡処理を行い、3DオブジェクトAの表面に接触する箇所を求める。さらに、光線追跡手段42は、3DオブジェクトAに接触した個所の色情報をディスプレイ画素配置に割り当てることで、ディスプレイ20の各画素21の画素値(例えば、RGB値)を算出する。なお、図3では、3DオブジェクトAの色をハッチングの種類で表現した。
Specifically, the ray tracing means 42 extracts the display pixel arrangement, the pupil surface positions OEyeR , OEyeL , and the tracking vectors V3R , V3L from the information table I input from the head movement means 41. Further, the ray tracing means 42 reads out the virtual environment information K from the storage means 25. As described above, the virtual environment information K includes the mesh information of the 3D object A in the virtual space and the light source information in the virtual space (see FIG. 3). Therefore, the ray tracing means 42 performs a ray tracing process with the tracking vectors V 3R and V 3L starting from the pupil surface positions OEyeR and OEyeL , and obtains a portion that comes into contact with the surface of the 3D object A. Further, the ray tracing means 42 calculates the pixel value (for example, RGB value) of each
その後、光線追跡手段42は、ディスプレイ20の各画素21の色情報(画素値)を要素画像群生成手段43に出力する。
After that, the ray tracing means 42 outputs the color information (pixel value) of each
<要素画像群生成手段>
要素画像群生成手段43は、光線追跡手段42からディスプレイ20の各画素21の色情報を入力し、要素画像群生成処理を行うものである。この要素画像群生成処理とは、光線追跡手段42で取得したディスプレイ20の各画素21の画素値を要素画像の各画素に格納し、両眼の要素画像群を生成する処理である。
<Element image group generation means>
The element image group generating means 43 inputs the color information of each
その後、要素画像群生成手段43は、全ての要素画像の画素について画素値を格納したら、右眼及び左眼の要素画像群をディスプレイ20に出力する。すなわち、要素画像群生成手段43は、右眼の要素画像群を右眼用のディスプレイ20Rに出力し、左眼の要素画像群を左眼用のディスプレイ20Lに出力する。
After that, the element image group generation means 43 stores the pixel values for the pixels of all the element images, and then outputs the element image groups of the right eye and the left eye to the
なお、光線追跡処理及び要素画像群生成処理は、以下の参考文献1,2に説明されているため、詳細な説明を省略する。
Since the ray tracing process and the element image group generation process are described in
参考文献1:片山、3Dモデルからインテグラル立体像への変換手法、NHK技研 R&D/No.128、2011年7月、[online]、[令和2年7月9日検索]、インターネット〈URL:https://www.nhk.or.jp/strl/publica/rd/rd128/PDF/P04-10.pdf/〉
参考文献2:3次元モデルからインテグラル立体像の生成技術、NHK技研 R&D/No.123、2010年9月、[online]、[令和2年7月9日検索]、インターネット〈URL:https://www.nhk.or.jp/strl/publica/rd/rd123/PDF/P64.pdf/〉
Reference 1: Katayama, 3D model to integral stereoscopic conversion method, NHK Science & Technical Research Laboratories R & D / No. 128, July 2011, [online], [Search on July 9, 2011], Internet <URL: https://www.nhk.or.jp/strl/publica/rd/rd128/PDF/P04 -10.pdf/>
Reference 2: Technology for generating an integral stereoscopic image from a 3D model, NHK Science & Technical Research Laboratories R & D / No. 123, September 2010, [online], [Search on July 9, 2010], Internet <URL: https://www.nhk.or.jp/strl/publica/rd/rd123/PDF/P64 .pdf />
[光路計算装置の動作]
図4を参照し、光路計算装置3の動作について説明する。
図4に示すように、ステップS1において、マイクロレンズアレイ対応手段30は、画素21とマイクロレンズ23とを対応付けて、その画素21からマイクロレンズ23の中心を通過する光線のマイクロレンズ後ベクトルV1を算出する。
[Operation of optical path calculator]
The operation of the optical
As shown in FIG. 4, in step S1, the microlens array corresponding means 30 associates the
ステップS2において、接眼レンズ屈折手段31は、マイクロレンズ後ベクトルV1を延長することで、マイクロレンズ23の中心を通過して接眼レンズ24で屈折した光線の接眼レンズ後ベクトルV2を算出する。
ステップS3において、瞳面再帰反射手段32は、瞳面αにおいて、接眼レンズ後ベクトルV2の方向を反転させた追跡ベクトルV3を算出する。
ステップS4において、情報テーブル生成手段33は、情報テーブルIを生成する。
In step S2, the eyepiece refracting means 31 calculates the post-eyepiece vector V 2 of the light beam that has passed through the center of the
In step S3, the pupil plane retroreflective means 32 calculates the tracking vector V 3 in which the direction of the eyepiece posterior vector V 2 is reversed in the pupil plane α.
In step S4, the information table generation means 33 generates the information table I.
[光線追跡計算装置の動作]
図5を参照し、光線追跡計算装置4の動作について説明する。
図5に示すように、ステップS10において、二眼表示手段40は、予め設定した眼球間距離dだけ追跡ベクトルV3を水平方向にシフトさせて、右眼及び左眼の追跡ベクトルV3R,V3Lを生成する。
ステップS11において、頭部運動手段41は、装着者の頭部重心位置を基準として、両眼の追跡ベクトルV3R,V3L及び瞳面位置OEyeR,OEyeLに頭部運動情報Hから定まる頭部の回転行列Rを適用する。
[Operation of ray tracing calculator]
The operation of the ray
As shown in FIG. 5, in step S10, the binocular display means 40 horizontally shifts the tracking vector V 3 by the preset inter-eye distance d, and the tracking vectors V 3R , V of the right eye and the left eye. Generate 3L .
In step S11, the head movement means 41 determines the head determined from the head movement information H in the tracking vectors V 3R , V 3L and the pupil surface positions OEyeR , OEyeL of both eyes with reference to the position of the center of gravity of the head of the wearer. The rotation matrix R of the part is applied.
ステップS12において、光線追跡手段42は、回転行列Rを適用した追跡ベクトルV3R,V3Lで光線追跡処理を行い、光線が3DオブジェクトAに接触する個所の色情報を取得する。
ステップS13において、要素画像群生成手段43は、ステップS12で取得した画素値を要素画像の各画素に格納し、両眼の要素画像群を生成する。
ステップS14において、要素画像群生成手段43は、ステップS13で生成した要素画像群をディスプレイ20に出力する。
In step S12, the ray tracing means 42 performs ray tracing processing on the tracking vectors V 3R and V 3L to which the rotation matrix R is applied, and acquires color information at a point where the ray contacts the 3D object A.
In step S13, the element image group generating means 43 stores the pixel value acquired in step S12 in each pixel of the element image and generates the element image group of both eyes.
In step S14, the element image group generating means 43 outputs the element image group generated in step S13 to the
ステップS15において、要素画像群生成手段43は、全フレームで要素画像群の生成を終了したか否かを判定する。
終了しない場合(ステップS15でNo)、光線追跡計算装置4は、ステップS11の処理に戻る。
終了した場合(ステップS15でYes)、光線追跡計算装置4は、処理を終了する。
In step S15, the element image group generating means 43 determines whether or not the generation of the element image group is completed in all frames.
If it does not end (No in step S15), the ray
When finished (Yes in step S15), the ray
このように、光線追跡計算装置4は、ステップS11~S14の処理をフレームごとに繰り返し実施することで、動画像を生成する。
In this way, the ray
[作用・効果]
以上のように、第1実施形態に係る要素画像群生成装置1は、ディスプレイ20の各画素21からマイクロレンズ23と接眼レンズ24とを通過して瞳面αに到達するまでの光路計算を事前に行い、情報テーブルIを生成しておく。そして、要素画像群生成装置1は、この情報テーブルIに基づいて、装着者の頭部運動に応じて光線追跡処理を行うことで、要素画像群を高速に生成できる。これにより、要素画像群生成装置1は、ライトフィールド方式のHMD2における映像生成プロセスを大幅に短縮することが可能となり、毎フレームごとの要素画像群を生成する時間を短縮できる。さらに、要素画像群生成装置1は、HMD2の構成が同様であれば情報テーブルIを流用し、光路計算を省略することが可能である。
[Action / Effect]
As described above, the element image
ここで、ライトフィールド方式は、インテグラル方式と類似しているので、インテグラル方式と対比した際の利点を説明する。
インテグラル方式の場合、様々な視点から見える立体像がディスプレイによって表示されているので、視点位置が変わっても要素画像群を生成し直す必要がなく、光路計算を事前に行っておく必要性がない。一方、ライトフィールド方式の場合、眼球位置から見える立体像のみがHMD2に表示されている。このため、ライトフィールド方式では、視点位置が変わると、その視点位置に応じた要素画像群を生成する必要があり、光路計算を事前に行っておく利点がある。
Here, since the light field method is similar to the integral method, the advantages when compared with the integral method will be described.
In the case of the integral method, since the three-dimensional images that can be seen from various viewpoints are displayed on the display, there is no need to regenerate the element image group even if the viewpoint position changes, and it is necessary to perform optical path calculation in advance. do not have. On the other hand, in the case of the light field method, only the stereoscopic image seen from the eyeball position is displayed on the
(第2実施形態)
図6を参照し、第2実施形態に係る要素画像群生成装置1Bの構成について、第1実施形態と異なる点を説明する。
要素画像群生成装置1Bは、装着者の中心視野付近のみ光線追跡処理を事前に行い、要素画像群を部分的に生成することで、光線追跡処理を高速化する。図6に示すように、要素画像群生成装置1Bは、光路計算装置(光路計算手段)3Bと、光線追跡計算装置(光線追跡手段)4Bと、を備える。
(Second Embodiment)
With reference to FIG. 6, the configuration of the element image
The element image
[HMDの構成]
図6を参照し、HMD2の構成について説明する。
HMD2Bは、図6に示すように、ディスプレイ20と、マイクロレンズアレイ(光学素子アレイ)22と、接眼レンズ24と、記憶手段25と、視線検出装置26とを備える。また、HMD2Bは、光線追跡計算装置4Bを内蔵する。
なお、視線検出装置26以外の構成は、第1実施形態と同様のため、説明を省略する。
[HMD configuration]
The configuration of HMD2 will be described with reference to FIG.
As shown in FIG. 6, the
Since the configurations other than the line-of-
視線検出装置26は、装着者の視線方向を検出し、視線方向ベクトルGとして光線追跡計算装置4Bに出力するものである。ここで、視線検出装置26は、一般的な視線方向の検出手法を用いることができる。
The line-of-
[光路計算装置の構成]
図6に示すように、光路計算装置3Bは、マイクロレンズアレイ対応手段(光学素子対応手段)30Bと、接眼レンズ屈折手段31と、瞳面再帰反射手段32と、情報テーブル生成手段33Bとを備える。
なお、接眼レンズ屈折手段31及び瞳面再帰反射手段32は、第1実施形態と同様のため、説明を省略する。
[Configuration of optical path calculation device]
As shown in FIG. 6, the optical
Since the eyepiece refraction means 31 and the pupil surface retroreflection means 32 are the same as those in the first embodiment, the description thereof will be omitted.
<マイクロレンズアレイ対応手段>
マイクロレンズアレイ対応手段30Bは、第1実施形態と同様、マイクロレンズアレイ対応処理を行うものである。
さらに、マイクロレンズアレイ対応手段30Bは、マイクロレンズ後ベクトルV1を算出する際、ディスプレイ画素配置のそれぞれに、要素画像の固有番号を割り当てる。具体的には、マイクロレンズアレイ対応手段30Bは、同一のマイクロレンズ23の中心位置OLAklに対応する画素21に対し、同一の固有番号を割り当てる。つまり、同一の固有番号を割り当てられた画素21は、同一の要素画像に属する。さらに、マイクロレンズアレイ対応手段30Bは、同一の固有番号を割り当てた画素21の中で、中心に位置する画素21に中心画素フラグを設定する。
<Measures for Microlens Arrays>
The microlens array corresponding means 30B performs the microlens array corresponding processing as in the first embodiment.
Further, the microlens array corresponding means 30B assigns a unique number of the element image to each of the display pixel arrangements when calculating the vector V1 after the microlens. Specifically, the microlens array corresponding means 30B assigns the same unique number to the
図7(a)及び(b)に示すように、マイクロレンズアレイ対応手段30Bは、左上の16個の画素21が同一の要素画像に属するので、固有番号‘1’を割り当てている。また、マイクロレンズアレイ対応手段30Bは、固有番号‘1’の画素21のうち、上から2列目、左から2行目の画素21が中心に位置するので、この画素21に中心画素フラグを設定する。なお、図7では、中心画素フラグを設定した画素21をハッチングで図示した。
As shown in FIGS. 7A and 7B, the microlens array corresponding means 30B is assigned a unique number '1' because the 16
また、マイクロレンズアレイ対応手段30Bは、右隣りの要素画像を構成する16個の画素に固有番号‘2’を割り当てている。また、マイクロレンズアレイ対応手段30Bは、固有番号‘2’の画素21のうち中心に位置する画素21に対し、中心画素フラグを設定する(固有番号‘3’~‘16’も同様)。
Further, the microlens array corresponding means 30B assigns a unique number '2' to 16 pixels constituting the element image on the right side. Further, the microlens array corresponding means 30B sets the center pixel flag for the
その後、マイクロレンズアレイ対応手段30Bは、ディスプレイ画素配置と、マイクロレンズ後ベクトルV1と、要素画像の固有番号と、中心画素フラグとを接眼レンズ屈折手段31に出力する。 After that, the microlens array corresponding means 30B outputs the display pixel arrangement, the microlens rear vector V 1 , the unique number of the element image, and the center pixel flag to the eyepiece refraction means 31.
<情報テーブル生成手段>
情報テーブル生成手段33Bは、ディスプレイ画素配置、瞳面位置OEye及び追跡ベクトルV3に加えて、要素画像の固有番号及び中心画素フラグからなる情報テーブルIを生成する。そして、情報テーブル生成手段33Bは、情報テーブルIを記憶手段25に書き込む。
<Information table generation means>
The information table generation means 33B generates an information table I including a unique number of the element image and a center pixel flag in addition to the display pixel arrangement, the pupil surface position OEye , and the tracking vector V3. Then, the information table generation means 33B writes the information table I in the storage means 25.
[光線追跡計算装置の構成]
図6に示すように、光線追跡計算装置4Bは、二眼表示手段40と、頭部運動手段41と、光線追跡手段42Bと、要素画像群生成手段43とを備える。
なお、光線追跡手段42B以外の各手段は、第1実施形態と同様のため、説明を省略する。
[Structure of ray tracing calculator]
As shown in FIG. 6, the ray
Since each means other than the ray tracing means 42B is the same as that of the first embodiment, the description thereof will be omitted.
<光線追跡手段>
光線追跡手段42Bは、装着者の視線方向に最も近い方向の追跡ベクトルV3で光線追跡処理を行い、光線が3DオブジェクトAに接触する個所の色情報を取得するものである。
<Ray tracing means>
The ray tracing means 42B performs ray tracing processing with the tracking vector V3 in the direction closest to the line - of-sight direction of the wearer, and acquires color information at a point where the ray contacts the 3D object A.
具体的には、光線追跡手段42Bは、頭部運動手段41から入力した情報テーブルIより、ディスプレイ画素配置、瞳面位置OEyeR,OEyeL及び追跡ベクトルV3R,V3Lを抽出する。また、光線追跡手段42Bは、記憶手段25から仮想環境情報Kを読み出す。また、光線追跡手段42Bは、視線検出装置26から視線方向ベクトルGを入力する。
Specifically, the ray tracing means 42B extracts the display pixel arrangement, the pupil surface positions OEyeR , OEyeL , and the tracking vectors V3R , V3L from the information table I input from the head movement means 41. Further, the ray tracing means 42B reads out the virtual environment information K from the storage means 25. Further, the ray tracing means 42B inputs the line-of-sight direction vector G from the line-of-
次に、光線追跡手段42Bは、中心画素フラグを有する画素21の追跡ベクトルV3と視線方向ベクトルGとを比較し、視線方向ベクトルGに最も平行な追跡ベクトルV3R,V3Lを求める。そして、光線追跡手段42Bは、最も平行な追跡ベクトルV3R,V3Lの固有番号を基準として、中心視野に含まれる要素画像の固有番号を抽出する。さらに、光線追跡手段42Bは、抽出した固有番号を有する画素21の追跡ベクトルV3R,V3Lで光線追跡処理を行う。
Next, the ray tracing means 42B compares the tracking vector V 3 of the
この中心視野のサイズは、任意に設定できる。例えば、中心視野のサイズは、表示可能な全視野の1/2である。要素画像群の描画速度に余裕がある場合、中心視野のサイズを拡大するなど、計算処理の速度に応じて中心視野のサイズを変化させてもよい。 The size of this central field of view can be set arbitrarily. For example, the size of the central visual field is 1/2 of the total visible field of view. If there is a margin in the drawing speed of the element image group, the size of the central visual field may be changed according to the speed of the calculation process, such as increasing the size of the central visual field.
図7の例では、視線方向ベクトルGに最も平行な追跡ベクトルV3R,V3Lの固有番号が‘6’であることとする。また、中心視野のサイズが、3×3の要素画像であることとする。この場合、光線追跡手段42Bは、固有番号‘6’を基準とした周囲の1要素画像の固有番号‘1~3、5、7、9~11’を抽出する。そして、光線追跡手段42Bは、固有番号‘1~3、5~7、9~11’を有する画素21の追跡ベクトルV3R,V3Lで光線追跡処理を行う。
In the example of FIG. 7, it is assumed that the unique numbers of the tracking vectors V 3R and V 3L most parallel to the line-of-sight direction vector G are '6'. Further, it is assumed that the size of the central visual field is a 3 × 3 element image. In this case, the ray tracing means 42B extracts the unique numbers '1 to 3, 5, 7, 9 to 11' of the surrounding one-element image based on the unique number '6'. Then, the ray tracing means 42B performs the ray tracing process with the tracking vectors V 3R and V 3L of the
[作用・効果]
以上のように、第2実施形態に係る要素画像群生成装置1Bは、情報テーブルI及び視線方向ベクトルGを用いて、視線方向に対応する要素画像のみを生成する。これにより、要素画像群生成装置1Bは、計算量を低減し、要素画像群をより高速に生成できる。
[Action / Effect]
As described above, the element image
以上、本発明の実施形態を詳述してきたが、本発明はこれに限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更なども含まれる。
前記した各実施形態では、光学素子アレイがマイクロレンズアレイ22であることとして説明したが、これに限定されない。
Although the embodiments of the present invention have been described in detail above, the present invention is not limited to this, and includes design changes within a range that does not deviate from the gist of the present invention.
In each of the above-described embodiments, the optical element array has been described as being a
前記した各実施形態では、光路計算装置3がワークステーションに実装され、光線追跡計算装置4がHMD2に内蔵されていることとして説明したが、これに限定されない。例えば、光路計算装置3及び光線追跡計算装置4の両方をワークステーションに実装してもよい。この場合、光線追跡計算装置4が生成した要素画像群をHMD2に出力する。また、光路計算装置3及び光線追跡計算装置4の両方をHMD2に内蔵してもよい。
In each of the above embodiments, the optical
前記した各実施形態では、HMD2,2Bが接眼レンズ24を備えることとして説明したが、接眼レンズ24を備えなくてもよい。この場合、接眼レンズ屈折手段31は、接眼レンズ屈折処理を行わない。そして、瞳面再帰反射手段32は、接眼レンズ後ベクトルV2の代わりにマイクロレンズ後ベクトルV1を用いて、瞳面再帰反射処理を行う。この場合、瞳面再帰反射処理では、瞳面αにおいて、マイクロレンズ後ベクトルV1の方向を反転させた追跡ベクトルV3を算出することになる。
In each of the above-described embodiments, the
本発明は、コンピュータが備えるCPU、メモリ、ハードディスク等のハードウェア資源を、前記した要素画像群生成装置として動作させるプログラムで実現することもできる。これらのプログラムは、通信回線を介して配布してもよく、CD-ROMやフラッシュメモリ等の記録媒体に書き込んで配布してもよい。 The present invention can also be realized by a program that operates the hardware resources such as the CPU, memory, and hard disk of the computer as the element image group generation device described above. These programs may be distributed via a communication line, or may be written and distributed on a recording medium such as a CD-ROM or a flash memory.
1,1B 要素画像群生成装置
2,2B HMD
20 ディスプレイ
21 画素
22 マイクロレンズアレイ(光学素子アレイ)
23 マイクロレンズ(光学素子)
24 接眼レンズ
25 記憶手段
26 視線検出装置
3,3B 光路計算装置(光路計算手段)
30,30B マイクロレンズアレイ対応手段(光学素子対応手段)
31 接眼レンズ屈折手段
32 瞳面再帰反射手段
33,33B 情報テーブル生成手段
4,4B 光線追跡計算装置(光線追跡計算手段)
40 二眼表示手段
41 頭部運動手段
42,42B 光線追跡手段
43 要素画像群生成手段
1,1B element
20
23 Microlens (optical element)
24
30,30B Microlens array compatible means (optical element compatible means)
31 Eyepiece refraction means 32 Eye retroreflection means 33, 33B Information table generation means 4, 4B Ray tracing calculation device (ray tracing calculation means)
40 Binocular display means 41 Head movement means 42, 42B Ray tracing means 43 Element image group generation means
Claims (6)
前記ディスプレイの各画素から光学素子を通過して所定の瞳面に到達する光線の光路計算を予め行い、前記瞳面に到達した光線の方向ベクトルを反転させた追跡ベクトルを算出する光路計算手段と、
前記ライトフィールドHMDの装着者の頭部運動情報に基づいて、前記追跡ベクトルの延長線が仮想空間内の物体に接触する個所の色情報を取得する光線追跡処理を行い、前記要素画像群を生成する光線追跡計算手段と、
を備えることを特徴とする要素画像群生成装置。 An element image group generator that generates an element image group to be displayed on a light field HMD including a display and an optical element array.
An optical path calculation means for calculating an optical path of a light ray passing through an optical element from each pixel of the display and reaching a predetermined pupil surface in advance, and calculating a tracking vector obtained by reversing the direction vector of the light ray reaching the pupil surface. ,
Based on the head motion information of the wearer of the light field HMD, a ray tracing process is performed to acquire color information of a place where an extension line of the tracking vector contacts an object in the virtual space, and the element image group is generated. Ray tracing calculation method and
An element image group generating device characterized by comprising.
前記ディスプレイの各画素から前記光学素子の中心を通過する光線の光学素子後ベクトルを算出する光学素子対応手段と、
前記瞳面において、前記光学素子後ベクトルの方向を反転させた前記追跡ベクトルを算出する瞳面再帰反射手段と、
を備えることを特徴とする請求項1に記載の要素画像群生成装置。 The optical path calculation means is
An optical element-compatible means for calculating the post-optical vector of a light ray passing through the center of the optical element from each pixel of the display.
In the pupil surface, a pupil surface retroreflection means for calculating the tracking vector obtained by reversing the direction of the vector after the optical element, and
The element image group generation device according to claim 1, wherein the element image group generation device is provided.
前記光路計算手段は、前記光学素子後ベクトルを延長し、前記光学素子の中心を通過して前記接眼レンズで屈折した光線の接眼レンズ後ベクトルを算出する接眼レンズ屈折手段、をさらに備え、
前記瞳面再帰反射手段は、前記瞳面において、前記接眼レンズ後ベクトルの方向を反転させた前記追跡ベクトルを算出することを特徴とする請求項2に記載の要素画像群生成装置。 The light field HMD further comprises an eyepiece.
The optical path calculating means further includes an eyepiece refracting means that extends the posterior vector of the optical element and calculates the posterior vector of the light beam that has passed through the center of the optical element and is refracted by the eyepiece.
The element image group generation device according to claim 2, wherein the pupil surface retroreflection means calculates the tracking vector in the pupil surface by reversing the direction of the vector after the eyepiece.
予め設定した眼球間距離だけ前記追跡ベクトルを水平方向にシフトさせて、両眼の前記追跡ベクトルを算出する二眼表示手段と、
前記装着者の頭部重心位置を基準として、両眼の前記追跡ベクトルに前記頭部運動情報から定まる頭部の回転行列を適用する頭部運動手段と、
前記回転行列を適用した両眼の追跡ベクトルで前記光線追跡処理を行い、前記光線が前記物体に接触する個所の色情報を取得する光線追跡手段と、
前記光線追跡手段で取得した色情報を要素画像の各画素に格納し、前記要素画像群を生成する要素画像群生成手段と、
を備えることを特徴とする請求項1から請求項3の何れか一項に記載の要素画像群生成装置。 The ray tracing calculation means is
A binocular display means for calculating the tracking vector for both eyes by horizontally shifting the tracking vector by a preset distance between the eyeballs.
A head movement means that applies a rotation matrix of the head determined from the head movement information to the tracking vector of both eyes with reference to the position of the center of gravity of the head of the wearer.
A ray tracing means that performs the ray tracing process with the tracking vector of both eyes to which the rotation matrix is applied and acquires color information of a place where the ray contacts the object.
An element image group generating means that stores the color information acquired by the ray tracing means in each pixel of the element image and generates the element image group.
The element image group generating apparatus according to any one of claims 1 to 3, wherein the element image group generating apparatus is provided.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020156877A JP2022050768A (en) | 2020-09-18 | 2020-09-18 | Element image group generation device and program thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020156877A JP2022050768A (en) | 2020-09-18 | 2020-09-18 | Element image group generation device and program thereof |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022050768A true JP2022050768A (en) | 2022-03-31 |
Family
ID=80854788
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020156877A Pending JP2022050768A (en) | 2020-09-18 | 2020-09-18 | Element image group generation device and program thereof |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022050768A (en) |
-
2020
- 2020-09-18 JP JP2020156877A patent/JP2022050768A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11651566B2 (en) | Systems and methods for mixed reality | |
CN111512213B (en) | Augmented reality optical system with pinhole mirror | |
US10838459B2 (en) | Hybrid optics for near-eye displays | |
Song et al. | Light f ield head-mounted display with correct focus cue using micro structure array | |
CN106662731B (en) | Wearable 3D augmented reality display | |
CN101356468B (en) | Ophthalmic lens simulation system and method | |
CN104204904A (en) | Compact eye-tracked head-mounted display | |
WO2010044383A1 (en) | Visual field image display device for eyeglasses and method for displaying visual field image for eyeglasses | |
US11889050B2 (en) | Image display control method, image display control apparatus, and head-mounted display device | |
US11825064B2 (en) | Light field display method and system, storage medium and display panel | |
JP5632245B2 (en) | Eyeglass field image display device | |
Liu et al. | Near eye light field display based on human visual features | |
JP2022050768A (en) | Element image group generation device and program thereof | |
Lu et al. | Vergence-accommodation conflict potential solutions in augmented reality head mounted displays | |
JP2022544287A (en) | Optical design and optimization techniques for 3D brightfield displays | |
CN105913379A (en) | Virtual reality terminal, its picture display method and apparatus | |
Hua | Optical methods for enabling focus cues in head-mounted displays for virtual and augmented reality | |
Hua | Advances in Head‐Mounted Light‐Field Displays for Virtual and Augmented Reality | |
JP2022088739A (en) | Element image group generation device and program thereof | |
US20230239456A1 (en) | Display system with machine learning (ml) based stereoscopic view synthesis over a wide field of view | |
CN107479207A (en) | The light field helmet mounted display device and space three-dimensional object light field method for reconstructing of light source scanning | |
JP2023004538A (en) | Head-mount display | |
Rathinavel et al. | Optical calibration and distortion correction for a volumetric augmented reality display | |
KR101784208B1 (en) | System and method for displaying three-dimension image using multiple depth camera | |
JP2024033977A (en) | head mounted display |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230807 |