JP2022050768A - Element image group generation device and program thereof - Google Patents

Element image group generation device and program thereof Download PDF

Info

Publication number
JP2022050768A
JP2022050768A JP2020156877A JP2020156877A JP2022050768A JP 2022050768 A JP2022050768 A JP 2022050768A JP 2020156877 A JP2020156877 A JP 2020156877A JP 2020156877 A JP2020156877 A JP 2020156877A JP 2022050768 A JP2022050768 A JP 2022050768A
Authority
JP
Japan
Prior art keywords
image group
element image
vector
ray tracing
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020156877A
Other languages
Japanese (ja)
Inventor
恭孝 前田
Yasutaka Maeda
健介 久富
Kensuke Hisatomi
大一 小出
Daiichi Koide
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK, Japan Broadcasting Corp filed Critical Nippon Hoso Kyokai NHK
Priority to JP2020156877A priority Critical patent/JP2022050768A/en
Publication of JP2022050768A publication Critical patent/JP2022050768A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide an element image group generation device capable of generating an element image group at a high speed.SOLUTION: An element image group generation device 1 comprises: a light path calculation device 3 which calculates a light path of a light beam reaching the pupil surface from each of pixels of a display through a microlens in advance, and calculates a tracking vectors by inverting a directional vector of the light beam reaching the pupil surface; and a light beam tracking calculation device 4 which performs, based upon head part movement information on a wearer of an HMD 2, light beam tracking processing to acquire color information at a part where an extension of the tracking vector comes into contact with a 3D object in a virtual space, and generates an element image group.SELECTED DRAWING: Figure 1

Description

本発明は、ライトフィールドHMDが表示する要素画像群を生成する要素画像群生成装置及びそのプログラムに関する。 The present invention relates to an element image group generator and a program thereof for generating an element image group displayed by a light field HMD.

近年、教育、医療、娯楽などの様々な分野でバーチャルリアリティー(VR:Virtual Reality)の活用が広がりつつある。VR表示装置であるヘッドマウントディスプレイ(HMD:Head Mounted Display)の光学系は、接眼レンズによりディスプレイの映像を拡大する単純な構造である。このHMDは、左眼用と右眼用の2枚のディスプレイに視差のある映像を表示することにより、立体感を感じる仕組みとなっている。 In recent years, the use of virtual reality (VR) is spreading in various fields such as education, medical care, and entertainment. The optical system of a head-mounted display (HMD), which is a VR display device, has a simple structure in which an image of a display is magnified by an eyepiece. This HMD is a mechanism that gives a three-dimensional effect by displaying images with parallax on two displays, one for the left eye and the other for the right eye.

このHMDが解決できていない問題の一つに、焦点距離と輻輳距離の不一致に起因する眼精疲労がある。この問題は、調整機能によって眼が焦点を合わせる位置と、輻輳機能によって両眼の視線方向が交差する位置が一致しないことに起因する。そして、この問題は、仮想的に3Dオブジェクトの光源を再生するライトフィールドHMDを用いることで解決できる。 One of the problems that this HMD has not been able to solve is eye strain caused by the mismatch between the focal length and the convergence distance. This problem is caused by the fact that the position where the eyes focus by the adjustment function and the position where the line-of-sight directions of both eyes intersect due to the convergence function do not match. Then, this problem can be solved by using a light field HMD that virtually reproduces the light source of the 3D object.

ライトフィールドHMDは、ディスプレイ、マイクロレンズアレイ、及び、接眼レンズを備えている(非特許文献1,2)。なお、ライトフィールドHMDは、接眼レンズが必須ではなく、ディスプレイ及びマイクロレンズアレイだけを備えてもよい(特許文献1)。そして、ライトフィールドHMDは、3Dオブジェクトの光源を生成するための要素画像群をディスプレイに表示する。 The light field HMD includes a display, a microlens array, and an eyepiece (Non-Patent Documents 1 and 2). The light field HMD does not necessarily have an eyepiece, and may include only a display and a microlens array (Patent Document 1). Then, the light field HMD displays an element image group for generating a light source of the 3D object on the display.

ライトフィールドHMDにおいて、要素画像群の生成は、ディスプレイの各画素から光学素子を通過し瞳面に到達するまでの光路計算処理と、瞳面から仮想空間に配置した3Dオブジェクトに到達して色情報を取得するまでの光線追跡処理とに分類される。 In the light field HMD, the element image group is generated by the optical path calculation process from each pixel of the display through the optical element to reach the pupil surface, and the color information by reaching the 3D object arranged in the virtual space from the pupil surface. It is classified as a ray tracing process until it is acquired.

特開2020-073988号公報Japanese Unexamined Patent Publication No. 2020-07388

H. Huang and H. Hua, “Generalized methods and strategies for modeling and optimizing the optics of 3D head-mounted light field displays,” Opt. Express, 27(18), 25154, (2019).H. Huang and H. Hua, “Generalized methods and strategies for modeling and optimizing the optics of 3D head-mounted light field displays,” Opt. Express, 27 (18), 25154, (2019). D. Lanman and D. Luebke, “Near-Eye Light Field Displays,” ACM Trans. Graph. 32(6), 1-10 (2013).D. Lanman and D. Luebke, “Near-Eye Light Field Displays,” ACM Trans. Graph. 32 (6), 1-10 (2013).

しかし、ライトフィールドHMDでは、要素画素群を生成するまでに必要な計算量が多く、その生成に時間を要するという問題がある。 However, the light field HMD has a problem that a large amount of calculation is required to generate an element pixel group, and it takes time to generate the element pixel group.

そこで、要素画像群を高速に生成できる要素画像群生成装置及びそのプログラムを提供することを課題とする。 Therefore, it is an object of the present invention to provide an element image group generation device capable of generating element image groups at high speed and a program thereof.

前記課題を解決するため、本発明に係る要素画像群生成装置は、ディスプレイ及び光学素子で構成された光学素子アレイを備えるライトフィールドHMDに表示する要素画像群を生成する要素画像群生成装置であって、光路計算手段と、光線追跡計算手段と、を備える構成とした。 In order to solve the above problems, the element image group generation device according to the present invention is an element image group generation device that generates an element image group to be displayed on a light field HMD including an optical element array composed of a display and optical elements. Therefore, the configuration is provided with an optical path calculation means and a ray tracing calculation means.

かかる構成によれば、光路計算手段は、ディスプレイの各画素から光学素子を通過して所定の瞳面に到達する光線の光路計算を予め行い、瞳面に到達した光線の方向ベクトルを反転させた追跡ベクトルを算出する。
光線追跡計算手段は、ライトフィールドHMDの装着者の頭部運動情報に基づいて、追跡ベクトルの延長線が仮想空間内の物体に接触する個所の色情報を取得する光線追跡処理を行い、要素画像群を生成する。
According to such a configuration, the optical path calculation means preliminarily calculates the optical path of the light ray that passes through the optical element and reaches a predetermined pupil surface from each pixel of the display, and inverts the direction vector of the light ray that reaches the pupil surface. Calculate the tracking vector.
The ray tracing calculation means performs ray tracing processing to acquire color information of a place where an extension line of the tracking vector contacts an object in the virtual space based on the head motion information of the wearer of the light field HMD, and performs an element image. Generate a swarm.

このように、要素画像群生成装置は、ディスプレイの各画素から光学素子を通過して瞳面に到達するまでの光路計算を事前に行っておく。そして、要素画像群生成装置は、光路計算の結果に基づいて、ライトフィールドHMDの装着者の頭部運動に応じた光線追跡処理を行うことで、要素画像群を高速に生成できる。すなわち、要素画像群生成装置は、光路計算を事前に行っておき、装着者の頭部運動に応じた光線追跡処理を適宜行うことで、要素画像群の生成時間を短縮できる。 In this way, the element image group generating device performs the optical path calculation from each pixel of the display to reach the pupil surface through the optical element in advance. Then, the element image group generation device can generate the element image group at high speed by performing the ray tracing process according to the head movement of the wearer of the light field HMD based on the result of the optical path calculation. That is, the element image group generation device can shorten the generation time of the element image group by performing the optical path calculation in advance and appropriately performing the ray tracing process according to the wearer's head movement.

なお、本発明は、コンピュータを、前記した要素画像群生成装置として機能させるためのプログラムで実現することができる。 The present invention can be realized by a program for making a computer function as the element image group generation device described above.

本発明によれば、要素画像群を高速に生成できる。 According to the present invention, an element image group can be generated at high speed.

第1実施形態に係る要素画像群生成装置の構成を示すブロック図である。It is a block diagram which shows the structure of the element image group generation apparatus which concerns on 1st Embodiment. 第1実施形態において、光路計算を説明する説明図である。It is explanatory drawing explaining the optical path calculation in 1st Embodiment. 第1実施形態において、光線追跡処理を説明する説明図である。It is explanatory drawing explaining the ray tracing process in 1st Embodiment. 第1実施形態に係る光路計算装置の動作を示すフローチャートである。It is a flowchart which shows the operation of the optical path calculation apparatus which concerns on 1st Embodiment. 第1実施形態に係る光線追跡計算装置の動作を示すフローチャートである。It is a flowchart which shows the operation of the ray tracing calculation apparatus which concerns on 1st Embodiment. 第2実施形態に係る要素画像群生成装置の構成を示すブロック図である。It is a block diagram which shows the structure of the element image group generation apparatus which concerns on 2nd Embodiment. 第2実施形態において、要素画像の固有番号と中心位置フラグの設定を説明する説明図であり、(a)はディスプレイの正面図であり、(b)はディスプレイの側面図である。In the second embodiment, it is explanatory drawing explaining the setting of the unique number and the center position flag of an element image, (a) is the front view of the display, and (b) is the side view of the display.

以下、本発明の各実施形態について図面を参照して説明する。但し、以下に説明する各実施形態は、本発明の技術思想を具体化するためのものであって、特定的な記載がない限り、本発明を以下のものに限定しない。また、同一の手段には同一の符号を付し、説明を省略する場合がある。 Hereinafter, each embodiment of the present invention will be described with reference to the drawings. However, each embodiment described below is for embodying the technical idea of the present invention, and the present invention is not limited to the following unless otherwise specified. Further, the same means may be designated by the same reference numerals and the description thereof may be omitted.

(第1実施形態)
図1を参照し、第1実施形態に係る要素画像群生成装置1の構成について説明する。
要素画像群生成装置1は、ライトフィールド方式のHMD2に表示する要素画像群を生成して表示するものであり、図1に示すように、光路計算装置(光路計算手段)3と、光線追跡計算装置(光線追跡計算手段)4とを備える。本実施形態では、光路計算装置3がワークステーションに実装され、光線追跡計算装置4がHMD2に内蔵されていることとする。また、HMD2及び光路計算装置3は、無線通信を行うこととする。
(First Embodiment)
With reference to FIG. 1, the configuration of the element image group generation device 1 according to the first embodiment will be described.
The element image group generation device 1 generates and displays an element image group to be displayed on the light field type HMD2, and as shown in FIG. 1, the optical path calculation device (optical path calculation means) 3 and the ray tracing calculation. A device (ray tracing calculation means) 4 is provided. In this embodiment, it is assumed that the optical path calculation device 3 is mounted on the workstation and the ray tracing calculation device 4 is built in the HMD 2. Further, the HMD 2 and the optical path calculation device 3 are to perform wireless communication.

[HMDの構成]
図1及び図2を参照し、HMD2の構成について説明する。
HMD2は、一般的なライトフィールド方式のHMDであり、図1及び図2に示すように、ディスプレイ20と、マイクロレンズアレイ(光学素子アレイ)22と、接眼レンズ24と、記憶手段25とを備える。
[HMD configuration]
The configuration of HMD2 will be described with reference to FIGS. 1 and 2.
The HMD 2 is a general light field type HMD, and includes a display 20, a microlens array (optical element array) 22, an eyepiece 24, and a storage means 25, as shown in FIGS. 1 and 2. ..

ディスプレイ20は、一般的なスマートフォンと同様、画素21を2次元状に配列した平面ディスプレイである。また、ディスプレイ20は、右眼用のディスプレイ20と左眼用のディスプレイ20で構成され、右眼用と左眼用の要素画像群を表示する。ここで、1枚のディスプレイ20の左右それぞれで、右眼用と左眼用の要素画像群を表示してもよい。 The display 20 is a flat display in which pixels 21 are arranged two-dimensionally, similar to a general smartphone. Further, the display 20 is composed of a display 20 R for the right eye and a display 20 L for the left eye, and displays a group of element images for the right eye and the left eye. Here, the element images for the right eye and the element images for the left eye may be displayed on the left and right sides of one display 20, respectively.

マイクロレンズアレイ22は、マイクロレンズ(光学素子)23を2次元状に配列したものである。また、マイクロレンズアレイ22は、右眼用のマイクロレンズアレイ22と左眼用のマイクロレンズアレイ22で構成されている(図3参照)。例えば、マイクロレンズ23は、微小な両凸レンズである。
接眼レンズ24は、ディスプレイ20が表示する要素画像からの光線がマイクロレンズアレイ22を通過した後に形成する中間像を拡大するレンズである。また、接眼レンズ24は、右眼用の接眼レンズ24と左眼用の接眼レンズ24で構成されている(図3参照)。ここで、接眼レンズ24は、HMD2の装着者の側に位置する。
The microlens array 22 is a two-dimensional arrangement of microlenses (optical elements) 23. Further, the microlens array 22 is composed of a microlens array 22 R for the right eye and a microlens array 22 L for the left eye (see FIG. 3). For example, the microlens 23 is a minute biconvex lens.
The eyepiece 24 is a lens that magnifies an intermediate image formed after a light ray from an element image displayed by the display 20 passes through the microlens array 22. Further, the eyepiece lens 24 is composed of an eyepiece lens 24 R for the right eye and an eyepiece lens 24 L for the left eye (see FIG. 3). Here, the eyepiece 24 is located on the side of the wearer of the HMD2.

なお、瞳面αとは、HMD2の装着者の両眼が位置する仮想的な平面である。
また、像面βとは、3Dオブジェクト(物体)Aの像が形成される仮想的な平面である。
The pupil surface α is a virtual plane on which both eyes of the wearer of HMD2 are located.
The image plane β is a virtual plane on which an image of a 3D object (object) A is formed.

記憶手段25は、要素画像群の生成に必要な各種情報を記憶するメモリやSDカードなどの記憶装置である。例えば、記憶手段25は、情報テーブルI、頭部運動情報H、仮想環境情報Kを記憶する。なお、記憶手段25が記憶する各種情報の詳細は、後記する。 The storage means 25 is a storage device such as a memory or an SD card that stores various information necessary for generating an element image group. For example, the storage means 25 stores the information table I, the head movement information H, and the virtual environment information K. The details of various information stored in the storage means 25 will be described later.

[光路計算装置の構成]
光路計算装置3は、光路計算を予め行い、図2に示すように、瞳面αに到達した光線の方向ベクトルを反転させた追跡ベクトルVを算出するものである。光路計算とは、ディスプレイ20の各画素21からマイクロレンズ23と接眼レンズ24とを通過して瞳面αに到達する光線の光路を計算することである。
[Configuration of optical path calculation device]
The optical path calculation device 3 performs optical path calculation in advance, and as shown in FIG. 2 , calculates a tracking vector V3 in which the direction vector of the light ray reaching the pupil surface α is inverted. The optical path calculation is to calculate the optical path of a light ray passing through the microlens 23 and the eyepiece 24 from each pixel 21 of the display 20 and reaching the pupil surface α.

図1に示すように、光路計算装置3は、マイクロレンズアレイ対応手段(光学素子対応手段)30と、接眼レンズ屈折手段31と、瞳面再帰反射手段32と、情報テーブル生成手段33とを備える。 As shown in FIG. 1, the optical path calculation device 3 includes a microlens array corresponding means (optical element corresponding means) 30, an eyepiece refraction means 31, a pupil surface retroreflection means 32, and an information table generation means 33. ..

<マイクロレンズアレイ対応手段>
マイクロレンズアレイ対応手段30は、マイクロレンズアレイ対応処理を行うものである。マイクロレンズアレイ対応処理とは、図2に示すように、画素21とマイクロレンズ23とを対応付けて、その画素21からマイクロレンズ23の中心を通過する光線のマイクロレンズ後ベクトル(光学素子後ベクトル)Vを算出する処理である。なお、図2では、1個の画素21のみをマイクロレンズ23に対応付けているが、全ての画素21をマイクロレンズ23に対応づける。また、図2では、右眼又は左眼の一方のみを表しているが、両眼とも同様の構成である。
<Measures for Microlens Arrays>
The microlens array compatible means 30 performs microlens array compatible processing. As shown in FIG. 2, the microlens array compatible process corresponds to a pixel 21 and a microlens 23, and a vector after the microlens (post-optical vector) of a light ray passing from the pixel 21 to the center of the microlens 23. ) This is a process for calculating V1. In FIG. 2, only one pixel 21 is associated with the microlens 23, but all the pixels 21 are associated with the microlens 23. Further, in FIG. 2, only one of the right eye and the left eye is shown, but both eyes have the same configuration.

ここで、マイクロレンズアレイ対応手段30には、ディスプレイ画素配置、マイクロレンズアレイ配置、マイクロレンズアレイ焦点距離、マイクロレンズアレイピッチ、及び、接眼レンズ焦点距離からなるパラメータを入力する。 Here, a parameter including a display pixel arrangement, a microlens array arrangement, a microlens array focal length, a microlens array pitch, and an eyepiece lens focal length is input to the microlens array corresponding means 30.

ディスプレイ画素配置は、ディスプレイ20を構成する画素21の配置(i,j)を表す。
マイクロレンズアレイ配置は、マイクロレンズアレイ22を構成するマイクロレンズ23の配置(k,l)を表す。
マイクロレンズアレイ焦点距離は、マイクロレンズアレイ22を構成するマイクロレンズ23の焦点距離を表す。
マイクロレンズアレイピッチは、マイクロレンズアレイ22を構成するマイクロレンズ23のピッチ(間隔)を表す。
接眼レンズ焦点距離は、接眼レンズ24の焦点距離を表す。
The display pixel arrangement represents the arrangement (i, j) of the pixels 21 constituting the display 20.
The microlens array arrangement represents the arrangement (k, l) of the microlenses 23 constituting the microlens array 22.
The microlens array focal length represents the focal length of the microlens 23 constituting the microlens array 22.
The microlens array pitch represents the pitch (interval) of the microlenses 23 constituting the microlens array 22.
The eyepiece focal length represents the focal length of the eyepiece 24.

具体的には、マイクロレンズアレイ対応手段30は、ディスプレイ20の画素21を光源とし、画素21に対応付けたマイクロレンズ23を通過する光線のベクトルを算出する。図2に示すように、光線の始点位置は、ディスプレイ20を構成する各画素21の画素位置ODijである。また、マイクロレンズ後ベクトルVは、画素21の画素位置ODijから、その画素21に対応付けたマイクロレンズ23の中心位置OLAklへ向かう単位ベクトルである。 Specifically, the microlens array-compatible means 30 uses the pixel 21 of the display 20 as a light source and calculates a vector of light rays passing through the microlens 23 associated with the pixel 21. As shown in FIG. 2, the starting point position of the light beam is the pixel position ODij of each pixel 21 constituting the display 20. Further, the microlens rear vector V 1 is a unit vector from the pixel position ODij of the pixel 21 to the center position OLAkl of the microlens 23 associated with the pixel 21.

ここで、画素21とマイクロレンズ23とを対応付ける手法は、幾つかある。例えば、一番簡易な手法として、ディスプレイ20の画素21毎に、その画素21に最も近いマイクロレンズ23を対応付けるものがある。この手法では、前記したパラメータのうち、ディスプレイ画素配置及びマイクロレンズアレイ配置を用いる。 Here, there are several methods for associating the pixel 21 with the microlens 23. For example, as the simplest method, there is a method in which the microlens 23 closest to the pixel 21 is associated with each pixel 21 of the display 20. In this method, among the above-mentioned parameters, the display pixel arrangement and the microlens array arrangement are used.

また、別の手法として、ディスプレイ20の画素21からの光線がマイクロレンズ23を通過し、装着者の眼球に入射することを確認してから、マイクロレンズ23を対応付けるものがある。この手法では、瞳面αの中心を始点として接眼レンズ24で屈折されマイクロレンズ23の中心を通る直線がディスプレイ20に接する点を中心として、その中心からマイクロレンズ23の半径内に位置する画素21を対応付ける。この手法では、前記したパラメータのうち、ディスプレイ画素配置、マイクロレンズアレイ配置、マイクロレンズアレイ焦点距離、マイクロレンズアレイピッチ、及び、接眼レンズ焦点距離を用いる。 Further, as another method, there is a method in which the light beam from the pixel 21 of the display 20 passes through the microlens 23 and is incident on the wearer's eyeball, and then the microlens 23 is associated with the microlens 23. In this method, the pixel 21 is located within the radius of the microlens 23 from the center of the point where the straight line that is refracted by the eyepiece 24 and passes through the center of the microlens 23 touches the display 20 with the center of the pupil surface α as the starting point. To associate. In this method, among the above-mentioned parameters, the display pixel arrangement, the microlens array arrangement, the microlens array focal length, the microlens array pitch, and the eyepiece lens focal length are used.

その後、マイクロレンズアレイ対応手段30は、ディスプレイ画素配置と、マイクロレンズ後ベクトルVとを接眼レンズ屈折手段31に出力する。 After that, the microlens array corresponding means 30 outputs the display pixel arrangement and the microlens rear vector V 1 to the eyepiece refraction means 31.

<接眼レンズ屈折手段>
接眼レンズ屈折手段31は、マイクロレンズアレイ対応手段30からディスプレイ画素配置及びマイクロレンズ後方向ベクトルVを入力し、接眼レンズ屈折処理を行うものである。
<Eyepiece refraction means>
The eyepiece refraction means 31 inputs the display pixel arrangement and the microlens rearward vector V1 from the microlens array compatible means 30, and performs the eyepiece refraction processing.

接眼レンズ屈折処理とは、図2に示すように、マイクロレンズ後ベクトルVを延長することで、マイクロレンズ23の中心を通過して接眼レンズ24で屈折した光線の接眼レンズ後ベクトルVを算出する処理である。すなわち、接眼レンズ屈折処理では、画素21から出射してマイクロレンズ23を通過した光線を入射光とし、接眼レンズ24により屈折された光線の光路計算を行う。この接眼レンズ屈折処理では、前記したパラメータのうち、接眼レンズ焦点距離を用いる。 As shown in FIG. 2, the eyepiece refraction process is to extend the posterior vector V 1 of the microlens to obtain the posterior vector V 2 of the light beam that has passed through the center of the microlens 23 and is refracted by the eyepiece 24. It is a process to calculate. That is, in the eyepiece lens refraction processing, the light beam emitted from the pixel 21 and passing through the microlens 23 is regarded as incident light, and the optical path of the light ray refracted by the eyepiece lens 24 is calculated. In this eyepiece refraction processing, the eyepiece focal length is used among the above-mentioned parameters.

接眼レンズ後ベクトルVの始点位置は、マイクロレンズ後ベクトルVと接眼レンズ24との接触位置OEPである。また、接眼レンズ後ベクトルVは、接眼レンズ24で屈折された方向へ向かう単位ベクトルである。 The starting point position of the posterior eyepiece vector V 2 is the contact position OEP between the posterior microlens vector V 1 and the eyepiece 24. Further, the posterior vector V 2 of the eyepiece is a unit vector toward the direction refracted by the eyepiece 24.

その後、接眼レンズ屈折手段31は、接眼レンズ後ベクトルVを瞳面再帰反射手段32に出力する。 After that, the eyepiece refraction means 31 outputs the post-eyepiece vector V 2 to the pupil surface retroreflection means 32.

<瞳面再帰反射手段>
瞳面再帰反射手段32は、接眼レンズ屈折手段31から接眼レンズ後ベクトルVを入力し、瞳面再帰反射処理を行うものである。
<Eye plane retroreflective means>
The pupil surface retroreflection means 32 inputs the eyepiece posterior vector V 2 from the eyepiece refraction means 31 and performs the pupil surface retroreflection process.

瞳面再帰反射処理とは、図2に示すように、瞳面αにおいて、接眼レンズ後ベクトルVの方向を反転させた追跡ベクトルVを算出する処理である。すなわち、瞳面再帰反射処理では、接眼レンズ24を通過した光線(接眼レンズ後ベクトルV)が瞳面αに到達する位置を、瞳面αに対応する平面との接触判定から算出する。ここでは、接眼レンズ後ベクトルVの符号を反転させて、光線追跡処理を行うための追跡ベクトルV=(u,v,w)とする。また、接眼レンズ後ベクトルVが瞳面αに到達する位置を瞳面位置OEye=(x,y,z)とする。 As shown in FIG. 2, the pupil surface retroreflection process is a process of calculating a tracking vector V 3 in which the direction of the eyepiece post-lens vector V 2 is reversed on the pupil surface α. That is, in the pupil surface retroreflection process, the position where the light ray (the vector V 2 after the eyepiece) that has passed through the eyepiece lens 24 reaches the pupil surface α is calculated from the contact determination with the plane corresponding to the pupil surface α. Here, the sign of the vector V 2 after the eyepiece is inverted, and the tracking vector V 3 = (u, v, w) for performing the ray tracing process. Further, the position where the vector V 2 after the eyepiece reaches the pupil surface α is defined as the pupil surface position O Eye = (x, y, z).

その後、瞳面再帰反射手段32は、ディスプレイ画素配置、瞳面位置OEye及び追跡ベクトルVを情報テーブル生成手段33に出力する。 After that, the pupil surface retroreflection means 32 outputs the display pixel arrangement, the pupil surface position O Eye , and the tracking vector V 3 to the information table generation means 33.

<情報テーブル生成手段>
情報テーブル生成手段33は、情報テーブル生成処理を行うものである。この情報テーブル生成処理とは、瞳面再帰反射手段32から入力したディスプレイ画素配置、瞳面位置OEye及び追跡ベクトルVを、情報テーブルIという一つのファイルとして生成する処理である。そして、情報テーブル生成手段33は、情報テーブルIを記憶手段25に書き込む。
<Information table generation means>
The information table generation means 33 performs information table generation processing. This information table generation process is a process of generating the display pixel arrangement, the pupil surface position O Eye , and the tracking vector V3 input from the pupil surface retroreflection means 32 as one file called the information table I. Then, the information table generation means 33 writes the information table I in the storage means 25.

[光線追跡計算装置の構成]
光線追跡計算装置4は、装着者の頭部運動情報Hに基づいて光線追跡処理を行い、要素画像群を生成するものである。光線追跡処理とは、追跡ベクトルVの延長線が仮想空間内の3DオブジェクトAに接触する個所の色情報を取得する処理のことである(図3)。図1に示すように、光線追跡計算装置4は、二眼表示手段40と、頭部運動手段41と、光線追跡手段42と、要素画像群生成手段43とを備える。
[Structure of ray tracing calculator]
The ray tracing calculation device 4 performs ray tracing processing based on the wearer's head motion information H to generate an element image group. The ray tracing process is a process of acquiring color information at a point where the extension line of the tracking vector V 3 contacts the 3D object A in the virtual space (FIG. 3). As shown in FIG. 1, the ray tracing calculation device 4 includes a binocular display means 40, a head movement means 41, a ray tracing means 42, and an element image group generating means 43.

<二眼表示手段>
二眼表示手段40は、記憶手段25が記憶している情報テーブルIを参照し、二眼表示処理を行うものである。二眼表示処理とは、予め設定した眼球間距離dだけ追跡ベクトルVを水平方向にシフトさせて、右眼及び左眼の追跡ベクトルV3R,V3Lを生成する処理である。また、眼球間距離dとは、装着者の両眼の距離を表し、任意に設定できる。つまり、二眼表示処理では、片眼から両眼の情報テーブルIを複製するために、眼球間距離dに応じて瞳面位置OEyeをそれぞれx方向に±d/2シフトさせる。なお、二眼表示処理は、初回のみ行えばよい。図3には、右眼の瞳面位置OEyeR1,OEyeR2、左眼の瞳面位置OEyeL1,OEyeL2、右眼の追跡ベクトルV3R1,V3R2、及び、左眼の追跡ベクトルV3L1,V3L2を図示した。
その後、二眼表示手段40は、右眼及び左眼の情報テーブルIを頭部運動手段41に出力する。
<Binocular display means>
The binocular display means 40 refers to the information table I stored in the storage means 25 and performs the binocular display process. The binocular display process is a process of horizontally shifting the tracking vector V 3 by a preset inter-eye distance d to generate tracking vectors V 3R and V 3L for the right eye and the left eye. Further, the distance between the eyeballs d represents the distance between the wearer's eyes and can be arbitrarily set. That is, in the binocular display process, in order to duplicate the information table I of both eyes from one eye, the pupil surface position OEye is shifted ± d / 2 in the x direction according to the inter-eye distance d. The binocular display process may be performed only for the first time. In FIG. 3, the pupil surface positions OEyeR1 and OEyeR2 of the right eye, the pupil surface positions OEyeL1 , OEyeL2 of the left eye, the tracking vector V 3R1 and V 3R2 of the right eye, and the tracking vector V 3L1 of the left eye are shown. V 3L2 is illustrated.
After that, the binocular display means 40 outputs the information table I of the right eye and the left eye to the head movement means 41.

以下、頭部運動手段41を説明する前に、記憶手段25が記憶している頭部運動情報H及び仮想環境情報Kを説明する。
頭部運動情報Hは、装着者の頭部運動を表す情報である。頭部運動情報Hには、フレームごとの頭部の位置差分および角速度の積分値が含まれている。ここでは、HMD2に備えられた加速度センサ(不図示)が頭部運動情報Hを計測し、記憶手段25に書き込むこととする。
Hereinafter, before explaining the head movement means 41, the head movement information H and the virtual environment information K stored in the storage means 25 will be described.
The head movement information H is information representing the head movement of the wearer. The head motion information H includes the position difference of the head for each frame and the integrated value of the angular velocity. Here, it is assumed that the acceleration sensor (not shown) provided in the HMD 2 measures the head movement information H and writes it in the storage means 25.

仮想環境情報Kは、仮想空間内の3DオブジェクトAを描画するのに必要な情報である。この仮想環境情報Kには、仮想空間内の3DオブジェクトAのメッシュ情報(頂点座標、法線ベクトル、色情報)と、仮想空間内の光源情報(例えば、光源Bの位置、色、明るさ)とが含まれている。例えば、仮想環境情報Kとしては、OBJ形式のファイルをあげることができる。ここでは、要素画像群生成装置1の管理者が、仮想環境情報Kを記憶手段25に手動で書き込むこととする。 The virtual environment information K is information necessary for drawing the 3D object A in the virtual space. The virtual environment information K includes mesh information (vertex coordinates, normal vector, color information) of 3D object A in virtual space and light source information (for example, position, color, brightness of light source B) in virtual space. And are included. For example, as the virtual environment information K, an OBJ format file can be mentioned. Here, it is assumed that the administrator of the element image group generating device 1 manually writes the virtual environment information K in the storage means 25.

<頭部運動手段>
頭部運動手段41は、二眼表示手段40から右眼及び左眼の情報テーブルIを入力し、頭部運動処理を行うものである。この頭部運動処理とは、装着者の頭部重心位置を基準として、両眼の追跡ベクトルV及び瞳面位置OEyeに頭部運動情報Hから定まる頭部の回転行列を適用する処理である。
<Head movement means>
The head movement means 41 inputs information tables I for the right eye and the left eye from the binocular display means 40, and performs head movement processing. This head movement processing is a processing in which a rotation matrix of the head determined from the head movement information H is applied to the tracking vector V3 of both eyes and the pupil surface position OEye with reference to the position of the center of gravity of the head of the wearer. be.

具体的には、頭部運動手段41は、右眼及び左眼の情報テーブルIから瞳面位置OEyeR,OEyeL及び追跡ベクトルV3R,V3Lを抽出する。また、頭部運動手段41は、記憶手段25から頭部運動情報Hを読み出す。前記したように、頭部運動情報Hには、フレームごとの頭部の位置差分および角速度の積分値が含まれている。従って、頭部運動手段41は、位置差分の平行移動行列T及び角速度の積分値から、x軸、y軸、z軸のそれぞれで頭部の回転行列R=[R,R,R]を算出する。そして、頭部運動手段41は、頭部重心位置OH=(x,y,z)を基準として、瞳面位置OEyeR,OEyeL及び追跡ベクトルV3R,V3Lに回転行列Rを適用する。 Specifically, the head movement means 41 extracts the pupil surface positions OEyeR , OEyeL and the tracking vectors V3R , V3L from the information table I of the right eye and the left eye. Further, the head movement means 41 reads out the head movement information H from the storage means 25. As described above, the head motion information H includes the position difference of the head for each frame and the integrated value of the angular velocity. Therefore, the head motion means 41 has a rotation matrix R = [R x , R y , R of the head on each of the x-axis, y-axis, and z-axis from the translation matrix TH of the position difference and the integrated value of the angular velocity. z ] is calculated. Then, the head movement means 41 applies a rotation matrix R to the pupil surface positions OEyeR , OEyeL and the tracking vectors V3R, V3L with reference to the head center of gravity position OH = (x 0 , y 0 , z 0 ). Apply.

その後、頭部運動手段41は、回転行列Rを適用した瞳面位置OEyeR,OEyeL及び追跡ベクトルV3R,V3Lを右眼及び左眼の情報テーブルIに格納し、この情報テーブルIを光線追跡手段42に出力する。 After that, the head movement means 41 stores the pupil surface positions OEyeR , OEyeL and the tracking vectors V 3R , V 3L to which the rotation matrix R is applied in the information table I of the right eye and the left eye, and stores this information table I in the information table I. It is output to the ray tracing means 42.

<光線追跡手段>
光線追跡手段42は、回転行列Rを適用した追跡ベクトルV3R,V3Lで光線追跡処理を行い、光線が3DオブジェクトAに接触する個所の色情報を取得するものである。
<Ray tracing means>
The ray tracing means 42 performs ray tracing processing on the tracking vectors V 3R and V 3L to which the rotation matrix R is applied, and acquires color information at a point where the ray contacts the 3D object A.

具体的には、光線追跡手段42は、頭部運動手段41から入力した情報テーブルIより、ディスプレイ画素配置、瞳面位置OEyeR,OEyeL及び追跡ベクトルV3R,V3Lを抽出する。また、光線追跡手段42は、記憶手段25から仮想環境情報Kを読み出す。前記したように、仮想環境情報Kには、仮想空間内の3DオブジェクトAのメッシュ情報と、仮想空間内の光源情報とが含まれている(図3参照)。そこで、光線追跡手段42は、瞳面位置OEyeR,OEyeLを始点とする追跡ベクトルV3R,V3Lで光線追跡処理を行い、3DオブジェクトAの表面に接触する箇所を求める。さらに、光線追跡手段42は、3DオブジェクトAに接触した個所の色情報をディスプレイ画素配置に割り当てることで、ディスプレイ20の各画素21の画素値(例えば、RGB値)を算出する。なお、図3では、3DオブジェクトAの色をハッチングの種類で表現した。 Specifically, the ray tracing means 42 extracts the display pixel arrangement, the pupil surface positions OEyeR , OEyeL , and the tracking vectors V3R , V3L from the information table I input from the head movement means 41. Further, the ray tracing means 42 reads out the virtual environment information K from the storage means 25. As described above, the virtual environment information K includes the mesh information of the 3D object A in the virtual space and the light source information in the virtual space (see FIG. 3). Therefore, the ray tracing means 42 performs a ray tracing process with the tracking vectors V 3R and V 3L starting from the pupil surface positions OEyeR and OEyeL , and obtains a portion that comes into contact with the surface of the 3D object A. Further, the ray tracing means 42 calculates the pixel value (for example, RGB value) of each pixel 21 of the display 20 by allocating the color information of the portion in contact with the 3D object A to the display pixel arrangement. In FIG. 3, the color of the 3D object A is represented by the type of hatching.

その後、光線追跡手段42は、ディスプレイ20の各画素21の色情報(画素値)を要素画像群生成手段43に出力する。 After that, the ray tracing means 42 outputs the color information (pixel value) of each pixel 21 of the display 20 to the element image group generating means 43.

<要素画像群生成手段>
要素画像群生成手段43は、光線追跡手段42からディスプレイ20の各画素21の色情報を入力し、要素画像群生成処理を行うものである。この要素画像群生成処理とは、光線追跡手段42で取得したディスプレイ20の各画素21の画素値を要素画像の各画素に格納し、両眼の要素画像群を生成する処理である。
<Element image group generation means>
The element image group generating means 43 inputs the color information of each pixel 21 of the display 20 from the ray tracing means 42, and performs the element image group generating process. This element image group generation process is a process of storing the pixel value of each pixel 21 of the display 20 acquired by the ray tracing means 42 in each pixel of the element image and generating the element image group of both eyes.

その後、要素画像群生成手段43は、全ての要素画像の画素について画素値を格納したら、右眼及び左眼の要素画像群をディスプレイ20に出力する。すなわち、要素画像群生成手段43は、右眼の要素画像群を右眼用のディスプレイ20に出力し、左眼の要素画像群を左眼用のディスプレイ20に出力する。 After that, the element image group generation means 43 stores the pixel values for the pixels of all the element images, and then outputs the element image groups of the right eye and the left eye to the display 20. That is, the element image group generation means 43 outputs the element image group of the right eye to the display 20 R for the right eye, and outputs the element image group of the left eye to the display 20 L for the left eye.

なお、光線追跡処理及び要素画像群生成処理は、以下の参考文献1,2に説明されているため、詳細な説明を省略する。 Since the ray tracing process and the element image group generation process are described in References 1 and 2 below, detailed description thereof will be omitted.

参考文献1:片山、3Dモデルからインテグラル立体像への変換手法、NHK技研 R&D/No.128、2011年7月、[online]、[令和2年7月9日検索]、インターネット〈URL:https://www.nhk.or.jp/strl/publica/rd/rd128/PDF/P04-10.pdf/〉
参考文献2:3次元モデルからインテグラル立体像の生成技術、NHK技研 R&D/No.123、2010年9月、[online]、[令和2年7月9日検索]、インターネット〈URL:https://www.nhk.or.jp/strl/publica/rd/rd123/PDF/P64.pdf/〉
Reference 1: Katayama, 3D model to integral stereoscopic conversion method, NHK Science & Technical Research Laboratories R & D / No. 128, July 2011, [online], [Search on July 9, 2011], Internet <URL: https://www.nhk.or.jp/strl/publica/rd/rd128/PDF/P04 -10.pdf/>
Reference 2: Technology for generating an integral stereoscopic image from a 3D model, NHK Science & Technical Research Laboratories R & D / No. 123, September 2010, [online], [Search on July 9, 2010], Internet <URL: https://www.nhk.or.jp/strl/publica/rd/rd123/PDF/P64 .pdf />

[光路計算装置の動作]
図4を参照し、光路計算装置3の動作について説明する。
図4に示すように、ステップS1において、マイクロレンズアレイ対応手段30は、画素21とマイクロレンズ23とを対応付けて、その画素21からマイクロレンズ23の中心を通過する光線のマイクロレンズ後ベクトルVを算出する。
[Operation of optical path calculator]
The operation of the optical path calculation device 3 will be described with reference to FIG.
As shown in FIG. 4, in step S1, the microlens array corresponding means 30 associates the pixel 21 with the microlens 23, and the microlens posterior vector V of the light ray passing from the pixel 21 to the center of the microlens 23. 1 is calculated.

ステップS2において、接眼レンズ屈折手段31は、マイクロレンズ後ベクトルVを延長することで、マイクロレンズ23の中心を通過して接眼レンズ24で屈折した光線の接眼レンズ後ベクトルVを算出する。
ステップS3において、瞳面再帰反射手段32は、瞳面αにおいて、接眼レンズ後ベクトルVの方向を反転させた追跡ベクトルVを算出する。
ステップS4において、情報テーブル生成手段33は、情報テーブルIを生成する。
In step S2, the eyepiece refracting means 31 calculates the post-eyepiece vector V 2 of the light beam that has passed through the center of the microlens 23 and is refracted by the eyepiece 24 by extending the post-microlens vector V 1 .
In step S3, the pupil plane retroreflective means 32 calculates the tracking vector V 3 in which the direction of the eyepiece posterior vector V 2 is reversed in the pupil plane α.
In step S4, the information table generation means 33 generates the information table I.

[光線追跡計算装置の動作]
図5を参照し、光線追跡計算装置4の動作について説明する。
図5に示すように、ステップS10において、二眼表示手段40は、予め設定した眼球間距離dだけ追跡ベクトルVを水平方向にシフトさせて、右眼及び左眼の追跡ベクトルV3R,V3Lを生成する。
ステップS11において、頭部運動手段41は、装着者の頭部重心位置を基準として、両眼の追跡ベクトルV3R,V3L及び瞳面位置OEyeR,OEyeLに頭部運動情報Hから定まる頭部の回転行列Rを適用する。
[Operation of ray tracing calculator]
The operation of the ray tracing calculation device 4 will be described with reference to FIG.
As shown in FIG. 5, in step S10, the binocular display means 40 horizontally shifts the tracking vector V 3 by the preset inter-eye distance d, and the tracking vectors V 3R , V of the right eye and the left eye. Generate 3L .
In step S11, the head movement means 41 determines the head determined from the head movement information H in the tracking vectors V 3R , V 3L and the pupil surface positions OEyeR , OEyeL of both eyes with reference to the position of the center of gravity of the head of the wearer. The rotation matrix R of the part is applied.

ステップS12において、光線追跡手段42は、回転行列Rを適用した追跡ベクトルV3R,V3Lで光線追跡処理を行い、光線が3DオブジェクトAに接触する個所の色情報を取得する。
ステップS13において、要素画像群生成手段43は、ステップS12で取得した画素値を要素画像の各画素に格納し、両眼の要素画像群を生成する。
ステップS14において、要素画像群生成手段43は、ステップS13で生成した要素画像群をディスプレイ20に出力する。
In step S12, the ray tracing means 42 performs ray tracing processing on the tracking vectors V 3R and V 3L to which the rotation matrix R is applied, and acquires color information at a point where the ray contacts the 3D object A.
In step S13, the element image group generating means 43 stores the pixel value acquired in step S12 in each pixel of the element image and generates the element image group of both eyes.
In step S14, the element image group generating means 43 outputs the element image group generated in step S13 to the display 20.

ステップS15において、要素画像群生成手段43は、全フレームで要素画像群の生成を終了したか否かを判定する。
終了しない場合(ステップS15でNo)、光線追跡計算装置4は、ステップS11の処理に戻る。
終了した場合(ステップS15でYes)、光線追跡計算装置4は、処理を終了する。
In step S15, the element image group generating means 43 determines whether or not the generation of the element image group is completed in all frames.
If it does not end (No in step S15), the ray tracing calculation device 4 returns to the process of step S11.
When finished (Yes in step S15), the ray tracing calculation device 4 ends the process.

このように、光線追跡計算装置4は、ステップS11~S14の処理をフレームごとに繰り返し実施することで、動画像を生成する。 In this way, the ray tracing calculation device 4 repeatedly performs the processes of steps S11 to S14 for each frame to generate a moving image.

[作用・効果]
以上のように、第1実施形態に係る要素画像群生成装置1は、ディスプレイ20の各画素21からマイクロレンズ23と接眼レンズ24とを通過して瞳面αに到達するまでの光路計算を事前に行い、情報テーブルIを生成しておく。そして、要素画像群生成装置1は、この情報テーブルIに基づいて、装着者の頭部運動に応じて光線追跡処理を行うことで、要素画像群を高速に生成できる。これにより、要素画像群生成装置1は、ライトフィールド方式のHMD2における映像生成プロセスを大幅に短縮することが可能となり、毎フレームごとの要素画像群を生成する時間を短縮できる。さらに、要素画像群生成装置1は、HMD2の構成が同様であれば情報テーブルIを流用し、光路計算を省略することが可能である。
[Action / Effect]
As described above, the element image group generating device 1 according to the first embodiment preliminarily calculates the optical path from each pixel 21 of the display 20 through the microlens 23 and the eyepiece 24 to reach the pupil surface α. And generate the information table I. Then, the element image group generation device 1 can generate the element image group at high speed by performing the ray tracing process according to the wearer's head movement based on the information table I. As a result, the element image group generation device 1 can significantly shorten the image generation process in the light field type HMD2, and can shorten the time for generating the element image group for each frame. Further, if the configuration of the HMD 2 is the same, the element image group generating device 1 can use the information table I and omit the optical path calculation.

ここで、ライトフィールド方式は、インテグラル方式と類似しているので、インテグラル方式と対比した際の利点を説明する。
インテグラル方式の場合、様々な視点から見える立体像がディスプレイによって表示されているので、視点位置が変わっても要素画像群を生成し直す必要がなく、光路計算を事前に行っておく必要性がない。一方、ライトフィールド方式の場合、眼球位置から見える立体像のみがHMD2に表示されている。このため、ライトフィールド方式では、視点位置が変わると、その視点位置に応じた要素画像群を生成する必要があり、光路計算を事前に行っておく利点がある。
Here, since the light field method is similar to the integral method, the advantages when compared with the integral method will be described.
In the case of the integral method, since the three-dimensional images that can be seen from various viewpoints are displayed on the display, there is no need to regenerate the element image group even if the viewpoint position changes, and it is necessary to perform optical path calculation in advance. do not have. On the other hand, in the case of the light field method, only the stereoscopic image seen from the eyeball position is displayed on the HMD 2. Therefore, in the light field method, when the viewpoint position changes, it is necessary to generate an element image group according to the viewpoint position, and there is an advantage that the optical path calculation is performed in advance.

(第2実施形態)
図6を参照し、第2実施形態に係る要素画像群生成装置1Bの構成について、第1実施形態と異なる点を説明する。
要素画像群生成装置1Bは、装着者の中心視野付近のみ光線追跡処理を事前に行い、要素画像群を部分的に生成することで、光線追跡処理を高速化する。図6に示すように、要素画像群生成装置1Bは、光路計算装置(光路計算手段)3Bと、光線追跡計算装置(光線追跡手段)4Bと、を備える。
(Second Embodiment)
With reference to FIG. 6, the configuration of the element image group generating device 1B according to the second embodiment will be described as being different from the first embodiment.
The element image group generation device 1B performs the ray tracing process only in the vicinity of the central visual field of the wearer in advance, and partially generates the element image group to speed up the ray tracing process. As shown in FIG. 6, the element image group generating device 1B includes an optical path calculation device (optical path calculation means) 3B and a ray tracing calculation device (ray tracing means) 4B.

[HMDの構成]
図6を参照し、HMD2の構成について説明する。
HMD2Bは、図6に示すように、ディスプレイ20と、マイクロレンズアレイ(光学素子アレイ)22と、接眼レンズ24と、記憶手段25と、視線検出装置26とを備える。また、HMD2Bは、光線追跡計算装置4Bを内蔵する。
なお、視線検出装置26以外の構成は、第1実施形態と同様のため、説明を省略する。
[HMD configuration]
The configuration of HMD2 will be described with reference to FIG.
As shown in FIG. 6, the HMD 2B includes a display 20, a microlens array (optical element array) 22, an eyepiece 24, a storage means 25, and a line-of-sight detection device 26. Further, the HMD 2B has a built-in ray tracing calculation device 4B.
Since the configurations other than the line-of-sight detection device 26 are the same as those in the first embodiment, the description thereof will be omitted.

視線検出装置26は、装着者の視線方向を検出し、視線方向ベクトルGとして光線追跡計算装置4Bに出力するものである。ここで、視線検出装置26は、一般的な視線方向の検出手法を用いることができる。 The line-of-sight detection device 26 detects the line-of-sight direction of the wearer and outputs the line-of-sight direction vector G to the ray tracing calculation device 4B. Here, the line-of-sight detection device 26 can use a general line-of-sight direction detection method.

[光路計算装置の構成]
図6に示すように、光路計算装置3Bは、マイクロレンズアレイ対応手段(光学素子対応手段)30Bと、接眼レンズ屈折手段31と、瞳面再帰反射手段32と、情報テーブル生成手段33Bとを備える。
なお、接眼レンズ屈折手段31及び瞳面再帰反射手段32は、第1実施形態と同様のため、説明を省略する。
[Configuration of optical path calculation device]
As shown in FIG. 6, the optical path calculation device 3B includes a microlens array corresponding means (optical element corresponding means) 30B, an eyepiece refraction means 31, a pupil surface retroreflection means 32, and an information table generation means 33B. ..
Since the eyepiece refraction means 31 and the pupil surface retroreflection means 32 are the same as those in the first embodiment, the description thereof will be omitted.

<マイクロレンズアレイ対応手段>
マイクロレンズアレイ対応手段30Bは、第1実施形態と同様、マイクロレンズアレイ対応処理を行うものである。
さらに、マイクロレンズアレイ対応手段30Bは、マイクロレンズ後ベクトルVを算出する際、ディスプレイ画素配置のそれぞれに、要素画像の固有番号を割り当てる。具体的には、マイクロレンズアレイ対応手段30Bは、同一のマイクロレンズ23の中心位置OLAklに対応する画素21に対し、同一の固有番号を割り当てる。つまり、同一の固有番号を割り当てられた画素21は、同一の要素画像に属する。さらに、マイクロレンズアレイ対応手段30Bは、同一の固有番号を割り当てた画素21の中で、中心に位置する画素21に中心画素フラグを設定する。
<Measures for Microlens Arrays>
The microlens array corresponding means 30B performs the microlens array corresponding processing as in the first embodiment.
Further, the microlens array corresponding means 30B assigns a unique number of the element image to each of the display pixel arrangements when calculating the vector V1 after the microlens. Specifically, the microlens array corresponding means 30B assigns the same unique number to the pixel 21 corresponding to the center position OLAkl of the same microlens 23. That is, the pixels 21 to which the same unique number is assigned belong to the same element image. Further, the microlens array corresponding means 30B sets the center pixel flag to the pixel 21 located at the center among the pixels 21 to which the same unique number is assigned.

図7(a)及び(b)に示すように、マイクロレンズアレイ対応手段30Bは、左上の16個の画素21が同一の要素画像に属するので、固有番号‘1’を割り当てている。また、マイクロレンズアレイ対応手段30Bは、固有番号‘1’の画素21のうち、上から2列目、左から2行目の画素21が中心に位置するので、この画素21に中心画素フラグを設定する。なお、図7では、中心画素フラグを設定した画素21をハッチングで図示した。 As shown in FIGS. 7A and 7B, the microlens array corresponding means 30B is assigned a unique number '1' because the 16 pixels 21 on the upper left belong to the same element image. Further, in the microlens array corresponding means 30B, among the pixels 21 having the unique number '1', the pixel 21 in the second column from the top and the second row from the left is located at the center, so that the center pixel flag is set for this pixel 21. Set. In FIG. 7, the pixel 21 in which the center pixel flag is set is shown by hatching.

また、マイクロレンズアレイ対応手段30Bは、右隣りの要素画像を構成する16個の画素に固有番号‘2’を割り当てている。また、マイクロレンズアレイ対応手段30Bは、固有番号‘2’の画素21のうち中心に位置する画素21に対し、中心画素フラグを設定する(固有番号‘3’~‘16’も同様)。 Further, the microlens array corresponding means 30B assigns a unique number '2' to 16 pixels constituting the element image on the right side. Further, the microlens array corresponding means 30B sets the center pixel flag for the pixel 21 located at the center of the pixels 21 having the unique number '2' (the same applies to the unique numbers '3' to '16').

その後、マイクロレンズアレイ対応手段30Bは、ディスプレイ画素配置と、マイクロレンズ後ベクトルVと、要素画像の固有番号と、中心画素フラグとを接眼レンズ屈折手段31に出力する。 After that, the microlens array corresponding means 30B outputs the display pixel arrangement, the microlens rear vector V 1 , the unique number of the element image, and the center pixel flag to the eyepiece refraction means 31.

<情報テーブル生成手段>
情報テーブル生成手段33Bは、ディスプレイ画素配置、瞳面位置OEye及び追跡ベクトルVに加えて、要素画像の固有番号及び中心画素フラグからなる情報テーブルIを生成する。そして、情報テーブル生成手段33Bは、情報テーブルIを記憶手段25に書き込む。
<Information table generation means>
The information table generation means 33B generates an information table I including a unique number of the element image and a center pixel flag in addition to the display pixel arrangement, the pupil surface position OEye , and the tracking vector V3. Then, the information table generation means 33B writes the information table I in the storage means 25.

[光線追跡計算装置の構成]
図6に示すように、光線追跡計算装置4Bは、二眼表示手段40と、頭部運動手段41と、光線追跡手段42Bと、要素画像群生成手段43とを備える。
なお、光線追跡手段42B以外の各手段は、第1実施形態と同様のため、説明を省略する。
[Structure of ray tracing calculator]
As shown in FIG. 6, the ray tracing calculation device 4B includes a binocular display means 40, a head movement means 41, a ray tracing means 42B, and an element image group generating means 43.
Since each means other than the ray tracing means 42B is the same as that of the first embodiment, the description thereof will be omitted.

<光線追跡手段>
光線追跡手段42Bは、装着者の視線方向に最も近い方向の追跡ベクトルVで光線追跡処理を行い、光線が3DオブジェクトAに接触する個所の色情報を取得するものである。
<Ray tracing means>
The ray tracing means 42B performs ray tracing processing with the tracking vector V3 in the direction closest to the line - of-sight direction of the wearer, and acquires color information at a point where the ray contacts the 3D object A.

具体的には、光線追跡手段42Bは、頭部運動手段41から入力した情報テーブルIより、ディスプレイ画素配置、瞳面位置OEyeR,OEyeL及び追跡ベクトルV3R,V3Lを抽出する。また、光線追跡手段42Bは、記憶手段25から仮想環境情報Kを読み出す。また、光線追跡手段42Bは、視線検出装置26から視線方向ベクトルGを入力する。 Specifically, the ray tracing means 42B extracts the display pixel arrangement, the pupil surface positions OEyeR , OEyeL , and the tracking vectors V3R , V3L from the information table I input from the head movement means 41. Further, the ray tracing means 42B reads out the virtual environment information K from the storage means 25. Further, the ray tracing means 42B inputs the line-of-sight direction vector G from the line-of-sight detection device 26.

次に、光線追跡手段42Bは、中心画素フラグを有する画素21の追跡ベクトルVと視線方向ベクトルGとを比較し、視線方向ベクトルGに最も平行な追跡ベクトルV3R,V3Lを求める。そして、光線追跡手段42Bは、最も平行な追跡ベクトルV3R,V3Lの固有番号を基準として、中心視野に含まれる要素画像の固有番号を抽出する。さらに、光線追跡手段42Bは、抽出した固有番号を有する画素21の追跡ベクトルV3R,V3Lで光線追跡処理を行う。 Next, the ray tracing means 42B compares the tracking vector V 3 of the pixel 21 having the central pixel flag with the line-of-sight direction vector G, and obtains the tracking vectors V 3R and V 3L most parallel to the line-of-sight direction vector G. Then, the ray tracing means 42B extracts the unique number of the element image included in the central visual field with reference to the unique number of the most parallel tracking vectors V 3R and V 3L . Further, the ray tracing means 42B performs ray tracing processing with the tracking vectors V 3R and V 3L of the pixel 21 having the extracted unique number.

この中心視野のサイズは、任意に設定できる。例えば、中心視野のサイズは、表示可能な全視野の1/2である。要素画像群の描画速度に余裕がある場合、中心視野のサイズを拡大するなど、計算処理の速度に応じて中心視野のサイズを変化させてもよい。 The size of this central field of view can be set arbitrarily. For example, the size of the central visual field is 1/2 of the total visible field of view. If there is a margin in the drawing speed of the element image group, the size of the central visual field may be changed according to the speed of the calculation process, such as increasing the size of the central visual field.

図7の例では、視線方向ベクトルGに最も平行な追跡ベクトルV3R,V3Lの固有番号が‘6’であることとする。また、中心視野のサイズが、3×3の要素画像であることとする。この場合、光線追跡手段42Bは、固有番号‘6’を基準とした周囲の1要素画像の固有番号‘1~3、5、7、9~11’を抽出する。そして、光線追跡手段42Bは、固有番号‘1~3、5~7、9~11’を有する画素21の追跡ベクトルV3R,V3Lで光線追跡処理を行う。 In the example of FIG. 7, it is assumed that the unique numbers of the tracking vectors V 3R and V 3L most parallel to the line-of-sight direction vector G are '6'. Further, it is assumed that the size of the central visual field is a 3 × 3 element image. In this case, the ray tracing means 42B extracts the unique numbers '1 to 3, 5, 7, 9 to 11' of the surrounding one-element image based on the unique number '6'. Then, the ray tracing means 42B performs the ray tracing process with the tracking vectors V 3R and V 3L of the pixel 21 having the unique numbers '1 to 3, 5 to 7, 9 to 11'.

[作用・効果]
以上のように、第2実施形態に係る要素画像群生成装置1Bは、情報テーブルI及び視線方向ベクトルGを用いて、視線方向に対応する要素画像のみを生成する。これにより、要素画像群生成装置1Bは、計算量を低減し、要素画像群をより高速に生成できる。
[Action / Effect]
As described above, the element image group generating device 1B according to the second embodiment uses the information table I and the line-of-sight direction vector G to generate only the element images corresponding to the line-of-sight direction. As a result, the element image group generation device 1B can reduce the amount of calculation and generate the element image group at a higher speed.

以上、本発明の実施形態を詳述してきたが、本発明はこれに限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更なども含まれる。
前記した各実施形態では、光学素子アレイがマイクロレンズアレイ22であることとして説明したが、これに限定されない。
Although the embodiments of the present invention have been described in detail above, the present invention is not limited to this, and includes design changes within a range that does not deviate from the gist of the present invention.
In each of the above-described embodiments, the optical element array has been described as being a microlens array 22, but the present invention is not limited thereto.

前記した各実施形態では、光路計算装置3がワークステーションに実装され、光線追跡計算装置4がHMD2に内蔵されていることとして説明したが、これに限定されない。例えば、光路計算装置3及び光線追跡計算装置4の両方をワークステーションに実装してもよい。この場合、光線追跡計算装置4が生成した要素画像群をHMD2に出力する。また、光路計算装置3及び光線追跡計算装置4の両方をHMD2に内蔵してもよい。 In each of the above embodiments, the optical path calculation device 3 is mounted on the workstation and the ray tracing calculation device 4 is built in the HMD 2, but the present invention is not limited to this. For example, both the optical path calculator 3 and the ray tracing calculator 4 may be mounted on the workstation. In this case, the element image group generated by the ray tracing calculation device 4 is output to the HMD 2. Further, both the optical path calculation device 3 and the ray tracing calculation device 4 may be built in the HMD 2.

前記した各実施形態では、HMD2,2Bが接眼レンズ24を備えることとして説明したが、接眼レンズ24を備えなくてもよい。この場合、接眼レンズ屈折手段31は、接眼レンズ屈折処理を行わない。そして、瞳面再帰反射手段32は、接眼レンズ後ベクトルVの代わりにマイクロレンズ後ベクトルVを用いて、瞳面再帰反射処理を行う。この場合、瞳面再帰反射処理では、瞳面αにおいて、マイクロレンズ後ベクトルVの方向を反転させた追跡ベクトルVを算出することになる。 In each of the above-described embodiments, the HMDs 2 and 2B have been described as including the eyepieces 24, but the eyepieces 24 may not be provided. In this case, the eyepiece refraction means 31 does not perform the eyepiece refraction processing. Then, the pupil surface retroreflection means 32 performs the pupil surface retroreflection process by using the microlens posterior vector V1 instead of the eyepiece posterior vector V2. In this case, in the pupil plane retroreflection process, the tracking vector V 3 in which the direction of the vector V 1 after the microlens is inverted is calculated in the pupil plane α.

本発明は、コンピュータが備えるCPU、メモリ、ハードディスク等のハードウェア資源を、前記した要素画像群生成装置として動作させるプログラムで実現することもできる。これらのプログラムは、通信回線を介して配布してもよく、CD-ROMやフラッシュメモリ等の記録媒体に書き込んで配布してもよい。 The present invention can also be realized by a program that operates the hardware resources such as the CPU, memory, and hard disk of the computer as the element image group generation device described above. These programs may be distributed via a communication line, or may be written and distributed on a recording medium such as a CD-ROM or a flash memory.

1,1B 要素画像群生成装置
2,2B HMD
20 ディスプレイ
21 画素
22 マイクロレンズアレイ(光学素子アレイ)
23 マイクロレンズ(光学素子)
24 接眼レンズ
25 記憶手段
26 視線検出装置
3,3B 光路計算装置(光路計算手段)
30,30B マイクロレンズアレイ対応手段(光学素子対応手段)
31 接眼レンズ屈折手段
32 瞳面再帰反射手段
33,33B 情報テーブル生成手段
4,4B 光線追跡計算装置(光線追跡計算手段)
40 二眼表示手段
41 頭部運動手段
42,42B 光線追跡手段
43 要素画像群生成手段
1,1B element image group generator 2,2B HMD
20 Display 21 Pixels 22 Microlens Array (Optical Element Array)
23 Microlens (optical element)
24 Eyepiece 25 Storage means 26 Line-of-sight detection device 3, 3B Optical path calculation device (optical path calculation means)
30,30B Microlens array compatible means (optical element compatible means)
31 Eyepiece refraction means 32 Eye retroreflection means 33, 33B Information table generation means 4, 4B Ray tracing calculation device (ray tracing calculation means)
40 Binocular display means 41 Head movement means 42, 42B Ray tracing means 43 Element image group generation means

Claims (6)

ディスプレイ及び光学素子アレイを備えるライトフィールドHMDに表示する要素画像群を生成する要素画像群生成装置であって、
前記ディスプレイの各画素から光学素子を通過して所定の瞳面に到達する光線の光路計算を予め行い、前記瞳面に到達した光線の方向ベクトルを反転させた追跡ベクトルを算出する光路計算手段と、
前記ライトフィールドHMDの装着者の頭部運動情報に基づいて、前記追跡ベクトルの延長線が仮想空間内の物体に接触する個所の色情報を取得する光線追跡処理を行い、前記要素画像群を生成する光線追跡計算手段と、
を備えることを特徴とする要素画像群生成装置。
An element image group generator that generates an element image group to be displayed on a light field HMD including a display and an optical element array.
An optical path calculation means for calculating an optical path of a light ray passing through an optical element from each pixel of the display and reaching a predetermined pupil surface in advance, and calculating a tracking vector obtained by reversing the direction vector of the light ray reaching the pupil surface. ,
Based on the head motion information of the wearer of the light field HMD, a ray tracing process is performed to acquire color information of a place where an extension line of the tracking vector contacts an object in the virtual space, and the element image group is generated. Ray tracing calculation method and
An element image group generating device characterized by comprising.
前記光路計算手段は、
前記ディスプレイの各画素から前記光学素子の中心を通過する光線の光学素子後ベクトルを算出する光学素子対応手段と、
前記瞳面において、前記光学素子後ベクトルの方向を反転させた前記追跡ベクトルを算出する瞳面再帰反射手段と、
を備えることを特徴とする請求項1に記載の要素画像群生成装置。
The optical path calculation means is
An optical element-compatible means for calculating the post-optical vector of a light ray passing through the center of the optical element from each pixel of the display.
In the pupil surface, a pupil surface retroreflection means for calculating the tracking vector obtained by reversing the direction of the vector after the optical element, and
The element image group generation device according to claim 1, wherein the element image group generation device is provided.
前記ライトフィールドHMDは、接眼レンズをさらに備え、
前記光路計算手段は、前記光学素子後ベクトルを延長し、前記光学素子の中心を通過して前記接眼レンズで屈折した光線の接眼レンズ後ベクトルを算出する接眼レンズ屈折手段、をさらに備え、
前記瞳面再帰反射手段は、前記瞳面において、前記接眼レンズ後ベクトルの方向を反転させた前記追跡ベクトルを算出することを特徴とする請求項2に記載の要素画像群生成装置。
The light field HMD further comprises an eyepiece.
The optical path calculating means further includes an eyepiece refracting means that extends the posterior vector of the optical element and calculates the posterior vector of the light beam that has passed through the center of the optical element and is refracted by the eyepiece.
The element image group generation device according to claim 2, wherein the pupil surface retroreflection means calculates the tracking vector in the pupil surface by reversing the direction of the vector after the eyepiece.
前記光線追跡計算手段は、
予め設定した眼球間距離だけ前記追跡ベクトルを水平方向にシフトさせて、両眼の前記追跡ベクトルを算出する二眼表示手段と、
前記装着者の頭部重心位置を基準として、両眼の前記追跡ベクトルに前記頭部運動情報から定まる頭部の回転行列を適用する頭部運動手段と、
前記回転行列を適用した両眼の追跡ベクトルで前記光線追跡処理を行い、前記光線が前記物体に接触する個所の色情報を取得する光線追跡手段と、
前記光線追跡手段で取得した色情報を要素画像の各画素に格納し、前記要素画像群を生成する要素画像群生成手段と、
を備えることを特徴とする請求項1から請求項3の何れか一項に記載の要素画像群生成装置。
The ray tracing calculation means is
A binocular display means for calculating the tracking vector for both eyes by horizontally shifting the tracking vector by a preset distance between the eyeballs.
A head movement means that applies a rotation matrix of the head determined from the head movement information to the tracking vector of both eyes with reference to the position of the center of gravity of the head of the wearer.
A ray tracing means that performs the ray tracing process with the tracking vector of both eyes to which the rotation matrix is applied and acquires color information of a place where the ray contacts the object.
An element image group generating means that stores the color information acquired by the ray tracing means in each pixel of the element image and generates the element image group.
The element image group generating apparatus according to any one of claims 1 to 3, wherein the element image group generating apparatus is provided.
前記光線追跡手段は、前記装着者の視線方向に最も近い方向の前記追跡ベクトルで前記光線追跡処理を行い、前記光線が前記物体に接触する個所の前記色情報を取得することを特徴とする請求項4に記載の要素画像群生成装置。 The ray tracing means is characterized in that the ray tracing process is performed with the tracking vector in the direction closest to the line-of-sight direction of the wearer, and the color information at the point where the ray contacts the object is acquired. Item 4. The element image group generation device according to Item 4. コンピュータを、請求項1から請求項5の何れか一項に記載の要素画像群生成装置として機能させるためのプログラム。 A program for causing a computer to function as the element image group generating device according to any one of claims 1 to 5.
JP2020156877A 2020-09-18 2020-09-18 Element image group generation device and program thereof Pending JP2022050768A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020156877A JP2022050768A (en) 2020-09-18 2020-09-18 Element image group generation device and program thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020156877A JP2022050768A (en) 2020-09-18 2020-09-18 Element image group generation device and program thereof

Publications (1)

Publication Number Publication Date
JP2022050768A true JP2022050768A (en) 2022-03-31

Family

ID=80854788

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020156877A Pending JP2022050768A (en) 2020-09-18 2020-09-18 Element image group generation device and program thereof

Country Status (1)

Country Link
JP (1) JP2022050768A (en)

Similar Documents

Publication Publication Date Title
US11651566B2 (en) Systems and methods for mixed reality
CN111512213B (en) Augmented reality optical system with pinhole mirror
US10838459B2 (en) Hybrid optics for near-eye displays
Song et al. Light f ield head-mounted display with correct focus cue using micro structure array
CN106662731B (en) Wearable 3D augmented reality display
CN101356468B (en) Ophthalmic lens simulation system and method
CN104204904A (en) Compact eye-tracked head-mounted display
WO2010044383A1 (en) Visual field image display device for eyeglasses and method for displaying visual field image for eyeglasses
US11889050B2 (en) Image display control method, image display control apparatus, and head-mounted display device
US11825064B2 (en) Light field display method and system, storage medium and display panel
JP5632245B2 (en) Eyeglass field image display device
Liu et al. Near eye light field display based on human visual features
JP2022050768A (en) Element image group generation device and program thereof
Lu et al. Vergence-accommodation conflict potential solutions in augmented reality head mounted displays
JP2022544287A (en) Optical design and optimization techniques for 3D brightfield displays
CN105913379A (en) Virtual reality terminal, its picture display method and apparatus
Hua Optical methods for enabling focus cues in head-mounted displays for virtual and augmented reality
Hua Advances in Head‐Mounted Light‐Field Displays for Virtual and Augmented Reality
JP2022088739A (en) Element image group generation device and program thereof
US20230239456A1 (en) Display system with machine learning (ml) based stereoscopic view synthesis over a wide field of view
CN107479207A (en) The light field helmet mounted display device and space three-dimensional object light field method for reconstructing of light source scanning
JP2023004538A (en) Head-mount display
Rathinavel et al. Optical calibration and distortion correction for a volumetric augmented reality display
KR101784208B1 (en) System and method for displaying three-dimension image using multiple depth camera
JP2024033977A (en) head mounted display

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230807