JP2024023752A - Data generation device, video system, and data generation method - Google Patents

Data generation device, video system, and data generation method Download PDF

Info

Publication number
JP2024023752A
JP2024023752A JP2023215064A JP2023215064A JP2024023752A JP 2024023752 A JP2024023752 A JP 2024023752A JP 2023215064 A JP2023215064 A JP 2023215064A JP 2023215064 A JP2023215064 A JP 2023215064A JP 2024023752 A JP2024023752 A JP 2024023752A
Authority
JP
Japan
Prior art keywords
image
visible light
infrared
photographed image
data generation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023215064A
Other languages
Japanese (ja)
Inventor
サフキン パーベル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
FOVE, INC.
Original Assignee
FOVE, INC.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by FOVE, INC. filed Critical FOVE, INC.
Priority to JP2023215064A priority Critical patent/JP2024023752A/en
Publication of JP2024023752A publication Critical patent/JP2024023752A/en
Pending legal-status Critical Current

Links

Abstract

【課題】ユーザに対し正確な三次元画像を提供するためのデータを容易に生成するデータ生成装置と、そのようなデータを利用可能な映像システムを提供する。【解決手段】本発明に係るデータ生成装置は、眼を可視光及び赤外光で撮影して第1可視光撮影画像及び第1赤外撮影画像の対を取得する画像対取得部と、前記第1可視光撮影画像及び前記第1赤外撮影画像の特徴を比較して、前記第1可視光撮影画像及び前記第1赤外撮影画像の関係を示す特徴量を取得し、学習済みモデルを生成する機械学習部とを備える。【選択図】図1The present invention provides a data generation device that easily generates data for providing accurate three-dimensional images to a user, and a video system that can utilize such data. A data generation device according to the present invention includes an image pair acquisition unit that photographs an eye using visible light and infrared light to acquire a pair of a first visible light photographed image and a first infrared photographed image; The features of the first visible light photographed image and the first infrared photographed image are compared to obtain a feature quantity indicating the relationship between the first visible light photographed image and the first infrared photographed image, and the learned model is and a machine learning unit that generates the data. [Selection diagram] Figure 1

Description

本発明は、ヘッドマウントディスプレイ等の映像システムにおいて使用され得るデータ
を生成するためのデータ生成装置、映像システム、及びデータ生成方法に関する。
The present invention relates to a data generation device, a video system, and a data generation method for generating data that can be used in a video system such as a head-mounted display.

現在、ゲームや映像において仮想現実(VR)を提供するため、立体画像を提供するこ
とが可能なヘッドマウントディスプレイの普及が加速している。ヘッドマウントディスプ
レイは、ユーザの頭部を覆う筐体の内部においてユーザに対し立体画像を提供する映像提
供装置である。このようなヘッドマウントディスプレイにおいては、ユーザの視線方向を
検出する視線検出器を設け、その視線方向の映像のみを高解像度化するなど、立体画像を
変化させるように構成された装置も知られている(例えば、特許文献1参照)。
Currently, in order to provide virtual reality (VR) in games and videos, head-mounted displays that can provide stereoscopic images are becoming increasingly popular. A head-mounted display is an image providing device that provides a three-dimensional image to a user inside a casing that covers the user's head. In such head-mounted displays, there are devices that are configured to change the stereoscopic image, such as by installing a line-of-sight detector that detects the user's line-of-sight direction and increasing the resolution of only the image in that line-of-sight direction. (For example, see Patent Document 1).

ヘッドマウントディスプレイにおけるユーザの視線の検出は、ユーザに眩しさを感じさ
せないように、赤外光を眼に照射し、赤外光で照射された眼の画像(赤外画像)の瞳孔等
の位置を検出することにより行われる。このとき、赤外光を照射して得られた画像と視線
方向との関係を正確に把握するためには、多数の眼の赤外光画像データを収集・分析し、
その分析の結果を視線方向の演算に反映させることが必要である。しかし、眼の動作をシ
ミュレートするシミュレータは、可視光画像を対象としており、赤外画像を分析の対象と
するシミュレータは存在しない。このため、多数の眼の赤外光画像データを取得し、ヘッ
ドマウントディスプレイにおける視線検出等に用いることは困難であった。
To detect the user's line of sight in a head-mounted display, the user's eyes are irradiated with infrared light so that the user does not feel glare, and the position of the pupil, etc. in the image of the eye irradiated with infrared light (infrared image) is detected. This is done by detecting the At this time, in order to accurately understand the relationship between the image obtained by irradiating infrared light and the line of sight direction, it is necessary to collect and analyze infrared light image data of a large number of eyes.
It is necessary to reflect the results of the analysis in the calculation of the line of sight direction. However, simulators that simulate eye movements target visible light images, and there are no simulators that analyze infrared images. For this reason, it has been difficult to acquire infrared light image data of a large number of eyes and use it for line-of-sight detection in a head-mounted display.

特開2001-134371号公報Japanese Patent Application Publication No. 2001-134371

本発明は、多数の眼の赤外光画像のデータの収集を容易にするデータ生成装置と、その
ようなデータを利用可能な映像システム及びデータ生成方法を提供するものである。
The present invention provides a data generation device that facilitates the collection of infrared light image data of a large number of eyes, and an imaging system and data generation method that can utilize such data.

上記の課題を解決するため、本発明に係るデータ生成装置は、眼を可視光及び赤外光で
撮影して第1可視光撮影画像及び第1赤外撮影画像の対を取得する画像対取得部と、前記
第1可視光撮影画像及び前記第1赤外撮影画像の関係を示す特徴量を取得し、学習済みモ
デルを生成する機械学習部とを備える。
In order to solve the above-mentioned problems, a data generation device according to the present invention provides image pair acquisition for photographing an eye using visible light and infrared light to obtain a pair of a first visible light photographed image and a first infrared photographed image. and a machine learning unit that acquires a feature amount indicating a relationship between the first visible light photographed image and the first infrared photographed image and generates a learned model.

また、本発明に係る映像システムは、赤外光を照射してユーザの視線の方向を検出する
視線検出部と、可視光で撮像された眼の可視光撮影画像の特徴量と、赤外光で撮像された
同一の眼についての赤外撮影画像との特徴量とに基づいて生成される学習済みモデルを記
憶する学習済みモデル記憶部とを備え、前記視線検出部は、前記赤外光を照射して得られ
た赤外画像と、前記学習済みモデルとに従い、前記視線の方向を検出するよう構成される
Further, the video system according to the present invention includes a line-of-sight detection unit that detects the direction of the user's line of sight by emitting infrared light, a feature amount of a visible-light photographed image of the eye captured using visible light, and a trained model storage unit that stores a trained model generated based on an infrared photographed image of the same eye taken by The device is configured to detect the direction of the line of sight based on the infrared image obtained by irradiation and the learned model.

また、本発明に係るデータ生成方法は、眼を可視光及び赤外光で撮影して第1可視光撮
影画像及び第1赤外撮影画像の対を取得するステップと、前記第1可視光撮影画像及び前
記第1赤外撮影画像の関係を示す特徴量を取得して学習済みモデルを生成するステップと
前記第1可視光撮影画像とは別の可視光画像を入力させるステップと、前記可視光画像及
び前記学習済みモデルに基づいて赤外画像を生成するステップと、を備える。
Further, the data generation method according to the present invention includes the step of photographing the eye using visible light and infrared light to obtain a pair of a first visible light photographed image and a first infrared photographed image; a step of generating a learned model by acquiring a feature amount indicating a relationship between the image and the first infrared photographed image; a step of inputting a visible light image different from the first visible light photographed image; and a step of inputting a visible light image different from the first visible light photographed image; generating an infrared image based on the image and the learned model.

本発明によれば、多数の眼の赤外光画像のデータの収集を容易にするデータ生成装置と
、そのようなデータを利用可能な映像システムを提供することができる。
According to the present invention, it is possible to provide a data generation device that facilitates the collection of infrared light image data of a large number of eyes, and an imaging system that can utilize such data.

第1の実施の形態に係るデータ生成装置1を説明する概略図である。FIG. 1 is a schematic diagram illustrating a data generation device 1 according to a first embodiment. 機械学習部16における学習済みモデルの生成手順、及び赤外画像Roの生 成手順を説明する概念図である。FIG. 2 is a conceptual diagram illustrating a procedure for generating a learned model in the machine learning unit 16 and a procedure for generating an infrared image Ro. 機械学習部16における特徴量の算出の手順の一例を説明する概念図である 。3 is a conceptual diagram illustrating an example of a procedure for calculating feature amounts in the machine learning unit 16. FIG. 赤外画像生成部18において、可視光画像Voに基づいて赤外画像Roを生 成する方法の一例を説明する概念図である。3 is a conceptual diagram illustrating an example of a method of generating an infrared image Ro based on a visible light image Vo in an infrared image generation unit 18. FIG. 第2の実施の形態に係るデータ生成装置1を説明する概略図である。FIG. 2 is a schematic diagram illustrating a data generation device 1 according to a second embodiment. 第2の実施の形態の機械学習部16における学習済みモデルの生成手順、及 び赤外画像Roの生成手順を説明する概念図である。FIG. 7 is a conceptual diagram illustrating a procedure for generating a trained model and a procedure for generating an infrared image Ro in the machine learning unit 16 of the second embodiment. 映像システム2の概観を示す模式図である。1 is a schematic diagram showing an overview of a video system 2. FIG. 筐体110が収容する画像提示部140の構成を模式的に示す斜視図である 。2 is a perspective view schematically showing the configuration of an image presentation section 140 housed in a housing 110. FIG. 筐体110が収容する画像提示部140の構成を模式的に示す側面図である 。2 is a side view schematically showing the configuration of an image presentation section 140 housed in a housing 110. FIG. 映像システム2を構成するヘッドマウントディスプレイ100と映像再生 装置200の主要部の構成を示すブロック図である。2 is a block diagram showing the configuration of main parts of a head-mounted display 100 and a video playback device 200 that constitute a video system 2. FIG. 変形例を示す概略図である。It is a schematic diagram showing a modification.

以下、添付図面を参照して本実施形態について説明する。添付図面では、機能的に同じ
要素は同じ番号で表示される場合もある。なお、添付図面は本開示の原理に則った実施形
態と実装例を示しているが、これらは本開示の理解のためのものであり、決して本開示を
限定的に解釈するために用いられるものではない。本明細書の記述は典型的な例示に過ぎ
ず、本開示の特許請求の範囲又は適用例を如何なる意味においても限定するものではない
This embodiment will be described below with reference to the accompanying drawings. In the accompanying drawings, functionally similar elements may be designated by the same number. Although the attached drawings show embodiments and implementation examples in accordance with the principles of the present disclosure, they are for the purpose of understanding the present disclosure, and should not be used to limit the present disclosure in any way. isn't it. The descriptions herein are merely typical examples and do not limit the scope of claims or applications of the present disclosure in any way.

本実施形態では、当業者が本開示を実施するのに十分詳細にその説明がなされているが
、他の実装・形態も可能で、本開示の技術的思想の範囲と精神を逸脱することなく構成・
構造の変更や多様な要素の置き換えが可能であることを理解する必要がある。従って、以
降の記述をこれに限定して解釈してはならない。
Although the embodiments are described in sufficient detail for those skilled in the art to implement the present disclosure, other implementations and forms are possible without departing from the scope and spirit of the technical idea of the present disclosure. composition·
It is necessary to understand that it is possible to change the structure and replace various elements. Therefore, the following description should not be interpreted as being limited to this.

[第1の実施の形態]
図1を参照して、第1の実施の形態に係るデータ生成装置1を説明する。このデータ生
成装置1は、撮像装置11と、CPU12と、可視光撮影画像記憶部13と、赤外撮影画
像記憶部14と、可視光画像入力部15と、機械学習部16と、学習済みモデル記憶部1
7と、赤外画像生成部18とを備える。
[First embodiment]
With reference to FIG. 1, a data generation device 1 according to a first embodiment will be described. This data generation device 1 includes an imaging device 11, a CPU 12, a visible light image storage section 13, an infrared image storage section 14, a visible light image input section 15, a machine learning section 16, and a learned model. Storage part 1
7 and an infrared image generation section 18.

撮像装置11は、撮影対象である眼Eを可視光及び赤外光にてそれぞれ撮影して可視光
撮影画像Vj(第1可視光撮影画像)及び赤外撮影画像Rj(第1赤外撮影画像)の対を
取得するための画像対取得部である。後述するように、可視光撮影画像と赤外撮影画像と
を同一の眼について取得し、特徴量を比較することで、赤外光で視線検出を行うヘッドマ
ウントディスプレイ等の映像システムにおいて有用なデータを収集することが可能になる
The imaging device 11 photographs the eye E, which is the photographing target, using visible light and infrared light, respectively, and creates a visible light photographed image Vj (first visible light photographed image) and an infrared photographed image Rj (first infrared photographed image). ) is an image pair acquisition unit for acquiring pairs of images. As described later, by acquiring a visible light image and an infrared image of the same eye and comparing the feature amounts, useful data can be obtained in imaging systems such as head-mounted displays that detect line of sight using infrared light. It becomes possible to collect.

撮像装置11は、一例として、可視光光源1001と、赤外光光源1002と、対物レ
ンズ1003と、ダイクロイックミラー1004と、結像レンズ1005と、可視画像カ
メラ1006と、結像レンズ1007と、赤外カメラ1008とを備える。
The imaging device 11 includes, for example, a visible light source 1001, an infrared light source 1002, an objective lens 1003, a dichroic mirror 1004, an imaging lens 1005, a visible image camera 1006, an imaging lens 1007, and an infrared light source 1002. An external camera 1008 is provided.

可視光光源1001は、可視光撮影のための可視光を発する光源であり、例えば360
~780nmの波長の全領域又はその一部の波長を成分として含む光を照射する。カラー
撮影のためには、上述の波長域の全領域又は大部分の波長成分を有する光とすることが好
ましい。波長域に関しては、目的とする撮像が可能であれば、上記波長域のうちの特定の
波長域に限定されていてもよい。一方、赤外光光源1002は、赤外光撮影のための赤外
光を発する光源であり、例えば780~2500nm程度の波長を有する光を照射する。
The visible light source 1001 is a light source that emits visible light for visible light photography, and for example,
Light containing as a component the entire wavelength range of ~780 nm or a part of the wavelength range is irradiated. For color photography, it is preferable to use light having wavelength components in all or most of the wavelength ranges mentioned above. Regarding the wavelength range, it may be limited to a specific wavelength range among the above wavelength ranges, as long as the desired imaging is possible. On the other hand, the infrared light source 1002 is a light source that emits infrared light for infrared photography, and emits light having a wavelength of about 780 to 2500 nm, for example.

対物レンズ1003は、撮影対象の眼Eの前に配置され、眼Eからの光を集光させる機
能を有する。眼Eから出て対物レンズ1003で集光された光は、ダイクロイックミラー
1004で反射又は透過して結像レンズ1005又は1007に入射し、可視画像カメラ
1006又は赤外カメラ1008に入射する。ダイクロイックミラー1004は、赤外光
を反射し、可視光を透過させる性質を有する。
The objective lens 1003 is placed in front of the eye E to be photographed, and has a function of condensing light from the eye E. Light exiting from the eye E and condensed by the objective lens 1003 is reflected or transmitted by the dichroic mirror 1004, enters the imaging lens 1005 or 1007, and then enters the visible image camera 1006 or the infrared camera 1008. Dichroic mirror 1004 has the property of reflecting infrared light and transmitting visible light.

CPU12は、データ生成装置1における全体の制御を司る演算制御部の一例である。
CPU12に代えて、GPU(Graphics Processing Unit)を採用することも可能である
。また、可視光撮影画像記憶部13、及び赤外撮影画像記憶部14は、撮像装置11で撮
影された可視光撮影画像、及び赤外撮影画像を記憶する記憶部である。撮像装置11で撮
影された同一の眼Eについての可視光撮影画像及び赤外撮影画像は、例えばシリアル番号
によって関連付けられて対の画像データとして保存される。関連付けの手法は、シリアル
番号に限定されるものではなく、例えば保存場所のアドレスを同一にすることにより関連
付けを行っても良い。
The CPU 12 is an example of an arithmetic control unit that controls the entire data generation device 1 .
Instead of the CPU 12, it is also possible to employ a GPU (Graphics Processing Unit). Further, the visible light photographed image storage unit 13 and the infrared photographed image storage unit 14 are storage units that store visible light photographed images and infrared photographed images photographed by the imaging device 11. A visible light photographed image and an infrared photographed image of the same eye E photographed by the imaging device 11 are stored as a pair of image data in association with each other, for example, by a serial number. The method of association is not limited to serial numbers, and for example, association may be performed by making the addresses of storage locations the same.

可視光画像入力部15は、撮像装置11とは別に、眼の可視光画像を入力するためのデ
ータ入力部である。可視光画像入力部15は、眼の画像を入力する部分ではあるが、撮像
装置11とは異なり、可視光撮影画像と赤外撮影画像との対を入力するものではなく、可
視光撮影画像のみを入力する部分である。入力された可視光撮影画像は、後述するように
赤外画像生成部18に基づいて赤外画像を生成するための元データとされる。可視光画像
入力部15は、例えば単にネットワークに接続されて外部から眼の画像を入力可能なイン
タフェースであってもよいし、撮像装置11とは別のカメラ等であってもよい。
The visible light image input unit 15 is a data input unit, separate from the imaging device 11, for inputting a visible light image of the eye. The visible light image input unit 15 is a part for inputting an image of the eye, but unlike the imaging device 11, it does not input a pair of a visible light photographed image and an infrared photographed image, but only a visible light photographed image. This is the part where you input. The input visible light photographed image is used as original data for generating an infrared image based on the infrared image generation section 18 as described later. The visible light image input unit 15 may be, for example, an interface that is simply connected to a network and can input an eye image from the outside, or may be a camera separate from the imaging device 11.

機械学習部16は、図2に示すように、撮像装置11により得られた可視光撮影画像V
jと赤外撮影画像Rjとの画像対EPj(j=1~n)を、所定の画像解析手法を用いて
解析する。そして、機械学習部16は、その解析結果に基づいて可視光撮影画像、赤外撮
影画像のそれぞれについて特徴量Fvj、Frjを算出し、更に2つの特徴量の差ΔF(
=Fvj-Frj)を算出する。機械学習部16は、この特徴量の差ΔFのデータを収集
し、可視光撮影画像と赤外撮影画像の特徴量の差に関する学習済みモデルを生成し、学習
済みモデル記憶部17に記憶させる。
The machine learning unit 16, as shown in FIG.
An image pair EPj (j=1 to n) of j and an infrared photographed image Rj is analyzed using a predetermined image analysis method. Then, the machine learning unit 16 calculates the feature quantities Fvj and Frj for each of the visible light photographed image and the infrared photographed image based on the analysis results, and further calculates the difference ΔF (
=Fvj−Frj). The machine learning unit 16 collects data on the difference ΔF in feature amounts, generates a learned model regarding the difference in feature amounts between the visible light image and the infrared image, and stores it in the learned model storage unit 17.

同一の眼Eから得られた可視光撮影画像Vjと赤外撮影画像Rjであっても、可視光と
赤外光との波長の差により、可視光撮影画像Vjと赤外撮影画像Rjは異なる特徴量を有
する。機械学習部16は、この特徴量の差ΔFを画像対EPjのそれぞれに関し収集し、
この差ΔFに基づいて学習済みモデルを生成する。特徴量の差ΔFは、可視光撮影画像V
jと赤外撮影画像Rjとの関係を示す特徴量の一例である。
Even if visible light photographed image Vj and infrared photographed image Rj are obtained from the same eye E, visible light photographed image Vj and infrared photographed image Rj differ due to the difference in wavelength between visible light and infrared light. It has features. The machine learning unit 16 collects this feature amount difference ΔF for each image pair EPj,
A learned model is generated based on this difference ΔF. The feature amount difference ΔF is the visible light photographed image V
This is an example of a feature amount indicating the relationship between Rj and an infrared photographed image Rj.

人間の眼は、眼球の色、瞳孔の大きさ、眼の長さ、高さ、縦横比、白目部分の色、肌の
色、睫毛の長さなどにおいて異なり、これらも特徴量に影響を与える。このため、このデ
ータ生成装置1では、撮像装置11により少なくとも数十人程度の眼の撮像を行って可視
光撮影画像Vjと赤外撮影画像Rjとの対を取得し、可視光撮影画像と赤外撮影画像との
間の特徴量の差Fのデータを収集する。収集させた特徴量の差のデータ群は、機械学習部
16において機械学習の対象とされる。
Human eyes differ in eyeball color, pupil size, eye length, height, aspect ratio, color of the white part of the eye, skin color, eyelash length, etc., and these also affect the feature amount. . Therefore, in this data generation device 1, the imaging device 11 images the eyes of at least several dozen people to obtain a pair of a visible light photographed image Vj and an infrared photographed image Rj. Data on the difference F in feature amount between the image taken outside and the image taken outside is collected. The collected data group of differences in feature amounts is subjected to machine learning in the machine learning unit 16.

特徴量の算出の一例を、図3を参照して説明する。ここでは、一例として、局所画像特
徴量の算出方法として周知のSIFT(Scaled In variance Feature Transform)を用い
て可視光撮影画像Vj、赤外撮影画像Rjの特徴量を算出する場合を説明する。SIFT
はあくまでも一例であり、他の特徴量抽出方法を用いてもよいことは言うまでもない。
An example of feature amount calculation will be described with reference to FIG. 3. Here, as an example, a case will be described in which the feature amounts of the visible light photographed image Vj and the infrared photographed image Rj are calculated using the well-known SIFT (Scaled In variance Feature Transform) as a method for calculating local image feature amounts. SIFT
This is just an example, and it goes without saying that other feature extraction methods may be used.

可視光撮影画像Vj、赤外撮影画像Rjが得られると、まず特徴点の検出が行われる。
例えば、図3に示すように、可視光撮影画像Vjにおいて、眼の瞳孔のエッジ上の特徴点
Pc1~Pc4、黒目と白目の境界上の特徴点Bc1~Bc6、及び瞼の境界上の特徴点
Lc1~Lc4などが検出される。また、赤外撮影画像Rjにおいて、眼の瞳孔のエッジ
上の特徴点Pi1~Pi4、黒目と白目の境界上の特徴点Bi1~Bi6、及び瞼の境界
上の特徴点Li1~Li4が検出される。特徴点は、一例として原画像に対し繰り返しガ
ウシアン平滑化を行い、その差分画像を取得し、差分画像の変化の極大を検索することで
検出することができる。
When the visible light photographed image Vj and the infrared photographed image Rj are obtained, feature points are first detected.
For example, as shown in FIG. 3, in a visible light photographed image Vj, feature points Pc1 to Pc4 on the edge of the pupil of the eye, feature points Bc1 to Bc6 on the boundary between the iris and white of the eye, and feature points on the boundary of the eyelid. Lc1 to Lc4, etc. are detected. Furthermore, in the infrared photographed image Rj, feature points Pi1 to Pi4 on the edge of the pupil of the eye, feature points Bi1 to Bi6 on the boundary between the iris and white of the eye, and feature points Li1 to Li4 on the boundary of the eyelid are detected. . For example, feature points can be detected by repeatedly performing Gaussian smoothing on the original image, obtaining a difference image thereof, and searching for a maximum change in the difference image.

特徴点が検出されたら、それぞれの特徴点の周囲の勾配情報を取得し特徴量として算出
する。そして、これらの特徴点の特徴量の集合を、それぞれの画像の特徴量Fvj、Fr
jとして算出し、さらに両者の差ΔFを算出する。
When feature points are detected, gradient information around each feature point is acquired and calculated as a feature quantity. Then, the set of feature values of these feature points is defined as the feature values Fvj, Fr of each image.
j, and further calculate the difference ΔF between the two.

このようにして、複数の眼Ej(j=1~n)について、可視光撮影画像Vjと赤外撮
影画像Rjとが得られ、それぞれについて特徴量Fvj、Frj、差ΔFのデータの集合
が得られると、これらのデータにより、どのような眼において、どのような特徴量の差Δ
Fが得られる傾向にあるかを示す学習済みモデルが機械学習部16における機械学習の結
果として得られる。この学習済みモデルは、学習済みモデル記憶部17に記憶される。
In this way, visible light photographed images Vj and infrared photographed images Rj are obtained for a plurality of eyes Ej (j=1 to n), and a data set of feature quantities Fvj, Frj, and difference ΔF is obtained for each. Then, using these data, it is possible to determine what kind of feature difference Δ is in what kind of eyes.
A trained model indicating whether F tends to be obtained is obtained as a result of machine learning in the machine learning unit 16. This trained model is stored in the trained model storage section 17.

学習済みモデルは、多数の眼Eについて可視光撮影画像Vjと赤外撮影画像Rjを得て
、それぞれ特徴量を算出することで、より正確なものとなり得る。ただし、ヘッドマウン
トディスプレイの潜在的なユーザのすべての対応するためには、数千、数万のデータ対が
必要となるが、そのような多数の眼について撮像装置11からデータ取得することは、可
能ではあるが、長い時間とコストを必要とする。
The trained model can be made more accurate by obtaining visible light images Vj and infrared images Rj of a large number of eyes E and calculating feature amounts for each. However, in order to accommodate all potential users of the head-mounted display, thousands or tens of thousands of data pairs are required, but acquiring data from the imaging device 11 for such a large number of eyes is difficult. Although it is possible, it requires a long time and cost.

そこで、この第1の実施の形態のデータ生成装置では、図2に示すように、撮像装置1
1において複数の眼Eについて可視光撮影画像Vjと赤外撮影画像Rjの画像対EPjを
得てこれに基づいて学習済みモデルを生成した後、撮像装置11とは別に得られた可視光
画像Voを可視光画像入力部15から入力させる。そして、更にこの可視光撮影画像Vo
を機械学習部16に入力させる。機械学習部16は、この新たに入力された可視光画像V
oの特徴量Foを算出し、赤外画像生成部18は、その特徴量Foと、学習済みモデル記
憶部17に記憶された学習済みモデルとに基づいて、対応する赤外画像Roを生成する。
入力された可視光画像Voと、生成された赤外画像Roとは、撮像装置11で撮像された
可視光撮影画像Vjと赤外撮影画像Rjとの画像対EPjと同様に取り扱われ、学習済み
モデルを更新(再構成)するためのデータとしても用いられる。
Therefore, in the data generation device of this first embodiment, as shown in FIG.
1, after obtaining an image pair EPj of a visible light photographed image Vj and an infrared photographed image Rj for a plurality of eyes E and generating a trained model based on this, a visible light image Vo obtained separately from the imaging device 11 is generated. is input from the visible light image input section 15. Furthermore, this visible light photographed image Vo
is input to the machine learning unit 16. The machine learning unit 16 uses this newly input visible light image V.
The infrared image generation unit 18 calculates the feature amount Fo of o, and generates the corresponding infrared image Ro based on the feature amount Fo and the learned model stored in the learned model storage unit 17. .
The input visible light image Vo and the generated infrared image Ro are treated in the same way as the image pair EPj of the visible light image Vj and the infrared image Rj captured by the imaging device 11, and are used as the learned image. It is also used as data for updating (reconfiguring) the model.

図4の概念図を参照して、可視光画像Voに基づいて赤外画像Voを生成する方法を説
明する。図4において、黒丸の点と白丸の点は、それぞれ、撮像装置11により得られた
可視光撮影画像Vjと赤外撮影画像Rjを示している。図4の左側の図のように、複数の
可視光撮影画像Vjと赤外撮影画像Rjとの対のデータである画像対EPjが多数取得さ
れる。撮像装置11で撮像された画像対EPjが数十個~数百個得られると、これに基づ
いて機械学習部16において学習済みモデルM1が生成される。
A method for generating an infrared image Vo based on a visible light image Vo will be described with reference to the conceptual diagram of FIG. 4. In FIG. 4, black dots and white dots indicate a visible light photographed image Vj and an infrared photographed image Rj obtained by the imaging device 11, respectively. As shown in the diagram on the left side of FIG. 4, a large number of image pairs EPj, which are paired data of a plurality of visible light photographed images Vj and infrared photographed images Rj, are acquired. When several tens to hundreds of image pairs EPj captured by the imaging device 11 are obtained, a learned model M1 is generated in the machine learning unit 16 based on the image pairs EPj.

その後、可視光画像Voが可視光画像入力部15から別途得られると、機械学習部16
は、その可視光画像Voの特徴量Foを算出するとともに、その特徴量Foと近似した特
徴量を有する可視光撮影画像Vjadを学習済みモデルM1の生成に使われた画像対EP
jの中から抽出し、さらにこれに対応する赤外撮影画像Rjadを抽出する。ここで、抽
出される可視光撮影画像Vjad、赤外撮影画像Rjadは1組でもよいし、複数組とす
ることも可能である。ここでは、説明の簡略化のため、1つであるとして説明をする。
Thereafter, when the visible light image Vo is separately obtained from the visible light image input section 15, the machine learning section 16
calculates the feature value Fo of the visible light image Vo, and converts the visible light photographed image Vjad having a feature value similar to the feature value Fo into the image pair EP used to generate the trained model M1.
j, and further extracts the corresponding infrared photographed image Rjad. Here, the visible light photographed image Vjad and the infrared photographed image Rjad to be extracted may be one set or a plurality of sets. Here, in order to simplify the explanation, the explanation will be given assuming that there is only one.

赤外画像生成部18は、抽出された可視光撮影画像Vjadと赤外撮影画像Rjadと
の間の特徴量の差ΔFadに基づき、赤外画像Roを生成する。すなわち、可視光画像V
oと赤外画像Roとの間の特徴量の差ΔFoが、上述の特徴量ΔFadと同一又は近似し
た値となるように、赤外画像Roを決定する。こうして、可視光画像Voと赤外画像Ro
との組み合わせに基づき、機械学習部16において新たな学習済みモデルM1’が再構成
される。このようにして生成された可視光画像Voと赤外画像Roは、それぞれ可視光撮
影画像記憶部13及び赤外撮影画像記憶部14に記憶される。記憶させる場合、両画像デ
ータには、両者を紐付けするためのデータ(シリアル番号等)が付加される。
The infrared image generation unit 18 generates an infrared image Ro based on the difference ΔFad in the feature amount between the extracted visible light photographed image Vjad and the infrared photographed image Rjad. That is, visible light image V
The infrared image Ro is determined such that the feature amount difference ΔFo between the infrared image Ro and the infrared image Ro is the same as or approximates the feature amount ΔFad described above. In this way, the visible light image Vo and the infrared image Ro
Based on the combination, a new learned model M1' is reconstructed in the machine learning unit 16. The visible light image Vo and the infrared image Ro generated in this way are stored in the visible light image storage section 13 and the infrared image storage section 14, respectively. When storing both image data, data (serial number, etc.) for linking the two is added to both image data.

以上説明したように、この第1の実施の形態のデータ生成装置によれば、複数の眼につ
いて可視光撮影画像Vjと赤外撮影画像Rjとの画像対EPjを取得し、この画像対EP
jに基づいて、可視光撮影画像Vj及び赤外撮影画像Rjの関係を示す特徴量の差ΔFを
取得する。この差ΔFの集合に基づき、学習済みモデルが生成される。
As explained above, according to the data generation device of the first embodiment, an image pair EPj of a visible light photographed image Vj and an infrared photographed image Rj is acquired for a plurality of eyes, and this image pair EP
Based on j, a difference ΔF in feature amounts indicating the relationship between the visible light photographed image Vj and the infrared photographed image Rj is obtained. A learned model is generated based on this set of differences ΔF.

また、この第1の実施の形態によれば、撮像装置11の撮影により得られた画像対EP
jだけでなく、撮像装置11とは別に得られた可視光画像Voを入力させ、この入力され
た可視光画像Voに対応する赤外画像Roを、得られた学習済みモデルから推定すること
ができる。このようにして得られた可視光画像Voと赤外画像Roの画像対を用いて、学
習済みモデルを再構築(補正)することができる。後述するように、生成された可視光画
像Voと赤外画像Roの画像対は、撮像された画像対EPiと同様に、ヘッドマウントデ
ィスプレイ等の映像システムにおいて、視線検出に用いられ得る。
Furthermore, according to the first embodiment, the image pair EP obtained by photographing with the imaging device 11
j, but also a visible light image Vo obtained separately from the imaging device 11, and an infrared image Ro corresponding to the input visible light image Vo can be estimated from the obtained trained model. can. The learned model can be reconstructed (corrected) using the image pair of the visible light image Vo and the infrared image Ro obtained in this way. As described later, the generated image pair of the visible light image Vo and the infrared image Ro can be used for line-of-sight detection in a video system such as a head-mounted display, similarly to the captured image pair EPi.

[第2の実施の形態]
図5を参照して、第2の実施の形態に係るデータ生成装置1を説明する。図5において
、図1と同一の構成要素については同一の参照符号を付しているので、以下では重複する
説明は省略する。この第2の実施の形態のデータ生成装置1は、第1の実施の形態の構成
要素に加え、属性情報記憶部19、及び属性情報入力部20を更に備えている。
[Second embodiment]
With reference to FIG. 5, a data generation device 1 according to a second embodiment will be described. In FIG. 5, the same reference numerals are given to the same components as in FIG. 1, so redundant explanation will be omitted below. The data generation device 1 of this second embodiment further includes an attribute information storage section 19 and an attribute information input section 20 in addition to the components of the first embodiment.

属性情報記憶部19は、撮像装置11で撮像されて可視光撮影画像記憶部13に入力さ
れた可視光撮影画像Vjについての属性情報(例えば、眼の色、肌の色、眼の幅、高さ、
角膜の曲率、病歴、その他)を記憶するための記憶部である。この属性情報は、撮像装置
11から供給されても良いし、図示しない通信部から受領されてもよいし、入力の手法は
不問である。この属性情報は、機械学習部16において、可視光撮影画像Vj及び赤外撮
影画像Rjと共に、機械学習のための元データとして用いられる。可視光撮影画像Vjだ
けでなく、属性情報も関連付けて学習データとすることにより、より撮影対象とされた眼
Eの特性を正確に反映した学習が可能になる。
The attribute information storage unit 19 stores attribute information (for example, eye color, skin color, eye width, height, difference,
This is a memory unit for storing corneal curvature, medical history, etc.). This attribute information may be supplied from the imaging device 11 or may be received from a communication unit (not shown), and any input method may be used. This attribute information is used by the machine learning unit 16 as original data for machine learning, together with the visible light photographed image Vj and the infrared photographed image Rj. By associating not only the visible light photographed image Vj but also the attribute information as learning data, it becomes possible to perform learning that more accurately reflects the characteristics of the eye E, which is the object of photographing.

また、この第2の実施の形態は、可視光画像入力部15から入力される可視光画像Vo
の属性情報を入力するための属性情報入力部20も有している。この属性情報入力部20
から入力される属性情報は、可視光画像Voと共に、赤外画像生成部18において、可視
光画像Voと対になる赤外画像Roを生成するために用いられる。赤外画像Roの生成に
おいて属性情報が入力データとして使用されることにより、より可視光画像Voの特徴を
反映して赤外画像Roを生成することができる。
Further, in this second embodiment, the visible light image Vo input from the visible light image input section 15
It also has an attribute information input section 20 for inputting attribute information. This attribute information input section 20
The attribute information input from is used together with the visible light image Vo in the infrared image generation unit 18 to generate an infrared image Ro to be paired with the visible light image Vo. By using the attribute information as input data in generating the infrared image Ro, it is possible to generate the infrared image Ro while more reflecting the characteristics of the visible light image Vo.

機械学習部16は、図6に示すように、得られた可視光撮影画像Vjと赤外撮影画像R
jとの画像対EPj(j=1~n)を、所定の画像解析手法を用いて解析し、可視光撮影
画像、赤外撮影画像のそれぞれについて特徴量Fvj、Frjを算出し、更に2つの特徴
量の差ΔF(=Fvj-Frj)を算出する。機械学習部16は、この特徴量の差ΔFの
データと対応する属性情報とを関連付けて収集し、可視光撮影画像Vjと赤外撮影画像R
jの特徴量の差、及び属性情報に関する学習済みモデルを生成し、学習済みモデル記憶部
17に記憶させる。
As shown in FIG. 6, the machine learning unit 16 uses the obtained visible light photographed image Vj and infrared photographed image R.
The image pair EPj (j=1 to n) with j is analyzed using a predetermined image analysis method, the feature quantities Fvj and Frj are calculated for each of the visible light photographed image and the infrared photographed image, and two further A difference ΔF (=Fvj−Frj) between feature amounts is calculated. The machine learning unit 16 collects the data of the feature difference ΔF in association with the corresponding attribute information, and creates a visible light photographed image Vj and an infrared photographed image R.
A trained model regarding the difference in feature amounts of j and attribute information is generated and stored in the trained model storage unit 17.

また、学習済みモデルを生成した後、撮像装置11とは別に得られた可視光画像Voを
可視光画像入力部15から入力させるとともに、その属性情報も属性情報入力部20から
入力させる。機械学習部16は、この新たに入力された可視光画像Voの特徴量を算出す
るとともに、その属性情報も分析する。赤外画像生成部18は、その特徴量、学習済みモ
デル、及び可視光画像Voの属性情報に基づいて、対応する赤外画像Roを生成する。入
力された可視光画像Voと、生成された赤外画像Roとは、撮像装置11で撮像された可
視光撮影画像Vjと赤外撮影画像Rjとの画像対EPjと同様に取り扱われ、学習済みモ
デルを更新するためのデータとしても用いられる。
After the trained model is generated, the visible light image Vo obtained separately from the imaging device 11 is input from the visible light image input section 15, and its attribute information is also input from the attribute information input section 20. The machine learning unit 16 calculates the feature amount of this newly input visible light image Vo, and also analyzes its attribute information. The infrared image generation unit 18 generates a corresponding infrared image Ro based on the feature amount, the learned model, and the attribute information of the visible light image Vo. The input visible light image Vo and the generated infrared image Ro are treated in the same way as the image pair EPj of the visible light image Vj and the infrared image Rj captured by the imaging device 11, and are used as the learned image. It is also used as data to update the model.

以上説明したように、第2の実施の形態によれば、第1の実施の形態と同一の効果を得
ることができるとともに、更に属性情報を学習済みモデルの生成に用いることで、より眼
の特性を正確に反映して学習済みモデルを生成することができる。
As explained above, according to the second embodiment, it is possible to obtain the same effects as the first embodiment, and furthermore, by using attribute information to generate a trained model, it is more eye-catching. It is possible to generate a trained model that accurately reflects the characteristics.

[学習済みモデルの利用形態]
上述したように、上記実施の形態のデータ生成装置1で生成されたデータ(学習済みモ
デル)は、ヘッドマウントディスプレイ等の映像システム、特に視線検出装置を有する映
像システムにおいて有効に利用することができる。
[Usage form of trained model]
As described above, the data (trained model) generated by the data generation device 1 of the above embodiment can be effectively used in a video system such as a head-mounted display, particularly in a video system having a line of sight detection device. .

図7は、映像システム2の概観を模式的に示す図である。実施の形態に係る映像システ
ム2は、ヘッドマウントディスプレイ100と映像再生装置200とを含む。図1に示す
ように、ヘッドマウントディスプレイ100は、ユーザの頭部に装着して使用される遮蔽
型のヘッドマウントディスプレイであり得る。
FIG. 7 is a diagram schematically showing an overview of the video system 2. As shown in FIG. Video system 2 according to the embodiment includes a head-mounted display 100 and a video playback device 200. As shown in FIG. 1, the head mounted display 100 may be a shielded head mounted display that is used by being attached to the user's head.

映像再生装置200は、ヘッドマウントディスプレイ100が表示する映像データを生
成し、ヘッドマウントディスプレイ100に有線又は無線通信により送信する。一例とし
て、映像再生装置200は、据え置き型のゲーム機、携帯ゲーム機、パソコン、タブレッ
ト端末、スマートフォン、ファブレット、ビデオプレイヤ、テレビ等の映像を再生するこ
とができる装置である。映像再生装置200とヘッドマウントディスプレイ100との無
線接続は、例えば既知のWi-Fi(登録商標)、Bluetooth(登録商標)、赤
外線通信等の無線通信技術を用いて実現できる。また、ヘッドマウントディスプレイ10
0と映像再生装置200との間における映像の伝送は、Miracast(商標)、Wi
Gig(商標)、WHDI(商標)、又はイーサネット(商標)等の規格に則って実行さ
れる。映像再生装置200はヘッドマウントディスプレイ100と一体に構成されるか、
ヘッドマウントディスプレイ100に内蔵されてもよい。
Video playback device 200 generates video data to be displayed by head-mounted display 100 and transmits it to head-mounted display 100 via wired or wireless communication. As an example, the video playback device 200 is a device capable of playing back video such as a stationary game machine, a portable game machine, a personal computer, a tablet terminal, a smartphone, a phablet, a video player, a television, or the like. Wireless connection between the video playback device 200 and the head-mounted display 100 can be realized using, for example, known wireless communication technologies such as Wi-Fi (registered trademark), Bluetooth (registered trademark), and infrared communication. In addition, head mounted display 10
0 and the video playback device 200 using Miracast (trademark), Wi
It is executed according to standards such as Gig (trademark), WHDI (trademark), or Ethernet (trademark). Is the video playback device 200 configured integrally with the head mounted display 100?
It may be built into the head mounted display 100.

ヘッドマウントディスプレイ100は、筐体110、頭部固定部120、及びヘッドフ
ォン130を備える。筐体110は、後述するように、ディスプレイ、伝送モジュール、
各種センサを収容する。頭部固定部120は、ヘッドマウントディスプレイ100をユー
ザの頭部に装着する部材である。ヘッドフォン130は、映像再生装置200が再生する
映像の音声を出力する。
The head mounted display 100 includes a housing 110, a head fixing section 120, and headphones 130. The housing 110 has a display, a transmission module,
Accommodates various sensors. The head fixing section 120 is a member that attaches the head mounted display 100 to the user's head. Headphones 130 output the audio of the video played by video playback device 200.

図8は、筐体110が収容する画像提示部140の構成を模式的に示す斜視図であり、
図9はその側面図である。提示部140は、赤外光源141、画像表示部142、ホット
ミラー143、凸レンズ144、カメラ145、および画像出力部146を備える。
FIG. 8 is a perspective view schematically showing the configuration of the image presentation unit 140 housed in the housing 110.
FIG. 9 is a side view thereof. The presentation section 140 includes an infrared light source 141, an image display section 142, a hot mirror 143, a convex lens 144, a camera 145, and an image output section 146.

赤外光源141は、視線検出装置のための光源であって、近赤外(780nm~250
0nm程度)の波長帯域の光を照射可能な光源である。画像表示部142は、ユーザに提
示するための画像を表示するディスプレイである。画像表示部142が表示する画像は、
映像再生装置200内図示しないGPU(Graphic Processing Unit)が生成する。画像
表示部142は、例えば既知の液晶ディスプレイや有機ELディスプレイを用いて実現で
きる。
The infrared light source 141 is a light source for the line of sight detection device, and is a near infrared light source (780 nm to 250 nm).
This is a light source that can emit light in a wavelength band of about 0 nm). The image display unit 142 is a display that displays images to be presented to the user. The image displayed by the image display section 142 is
A GPU (Graphic Processing Unit, not shown) in the video playback device 200 generates the image. The image display section 142 can be realized using, for example, a known liquid crystal display or organic EL display.

ホットミラー143は、ユーザがヘッドマウントディスプレイ100を装着したときに
、画像表示部142とユーザの眼EL、ERとの間に配置される。ホットミラー143は
、画像表示部142が発する可視光は透過する一方、近赤外光は反射する特性を有する。
The hot mirror 143 is arranged between the image display section 142 and the user's eyes EL and ER when the user wears the head-mounted display 100. The hot mirror 143 has a characteristic of transmitting visible light emitted by the image display section 142 while reflecting near-infrared light.

凸レンズ144は、ホットミラー143に対して、画像表示部142の反対側に配置さ
れる。換言すれば、凸レンズ144は、ユーザがヘッドマウントディスプレイ100を装
着したときに、ホットミラー143とユーザの眼EL、ERとの間に配置される。凸レン
ズ144はホットミラー143を透過する画像表示のための光を集光する。
The convex lens 144 is arranged on the opposite side of the image display section 142 with respect to the hot mirror 143. In other words, the convex lens 144 is placed between the hot mirror 143 and the user's eyes EL and ER when the user wears the head-mounted display 100. The convex lens 144 collects the light transmitted through the hot mirror 143 for image display.

赤外光源141からユーザの眼EL、ERに到達した赤外光は、眼EL、ERで反射さ
れ、再び凸レンズ144の方向に向かう。凸レンズ144を透過した赤外光は、ホットミ
ラー143で反射される。カメラ145は逆に可視光を遮断するフィルタ(図示せず)を
備えており、ホットミラー143で反射された近赤外光を撮像する。すなわち、カメラ1
45は、赤外光源103から照射され、ユーザの眼EL、ERで反射された近赤外光を撮
像する近赤外カメラである。
The infrared light that reaches the user's eyes EL and ER from the infrared light source 141 is reflected by the eyes EL and ER, and heads toward the convex lens 144 again. The infrared light transmitted through the convex lens 144 is reflected by the hot mirror 143. On the other hand, the camera 145 includes a filter (not shown) that blocks visible light, and images the near-infrared light reflected by the hot mirror 143. That is, camera 1
45 is a near-infrared camera that images near-infrared light emitted from the infrared light source 103 and reflected by the user's eyes EL and ER.

画像出力部146は、カメラ145が撮像した画像を、映像再生装置200に設けられ
た視線検出部203(後述)に出力する。具体的には、画像出力部146は、カメラ14
5が撮像した画像を映像再生装置200に送信する。視線検出部203は、眼EL、ER
と、近赤外光に起因する輝点との位置関係から、ユーザの視線方向を検出することができ
る。視線検出部203は、映像再生装置200のCPU(Central Processing Unit)が
実行する視線検出プログラムによって実現される。なお、ヘッドマウントディスプレイ1
00がCPUやメモリ等の計算リソースを持っている場合には、ヘッドマウントディスプ
レイ100のCPUが視線検出部を実現するプログラムを実行してもよい。
The image output unit 146 outputs the image captured by the camera 145 to the line-of-sight detection unit 203 (described later) provided in the video playback device 200. Specifically, the image output unit 146
5 transmits the captured image to the video playback device 200. The line of sight detection unit 203 detects the eyes EL and ER.
The direction of the user's line of sight can be detected from the positional relationship between the bright spot and the bright spot caused by near-infrared light. The line of sight detection unit 203 is realized by a line of sight detection program executed by a CPU (Central Processing Unit) of the video playback device 200. In addition, head mounted display 1
If the computer 00 has computational resources such as a CPU and memory, the CPU of the head-mounted display 100 may execute a program that implements the line-of-sight detection unit.

図10は、映像システム2を構成するヘッドマウントディスプレイ100と映像再生装
置200の主要部の構成を示すブロック図である。
ヘッドマウントディスプレイ100は、制御部101と、通信部102と、赤外光源1
41と、画像表示部142と、カメラ145と、画像出力部146とを備えている。一方
、映像再生装置200は、制御部201と、通信部202と、視線検出部203と、映像
生成部204と、学習済みモデル記憶部205とを備えている。なお、図示は省略してい
るが、ヘッドマウントディスプレイ100は、ヘッドマウントディスプレイ100の傾斜
方向等を検出するためのジャイロセンサ等を備えていても良い。
FIG. 10 is a block diagram showing the configuration of main parts of the head-mounted display 100 and the video playback device 200 that constitute the video system 2. As shown in FIG.
The head mounted display 100 includes a control section 101, a communication section 102, and an infrared light source 1.
41, an image display section 142, a camera 145, and an image output section 146. On the other hand, the video playback device 200 includes a control section 201, a communication section 202, a line of sight detection section 203, a video generation section 204, and a learned model storage section 205. Although not shown, the head-mounted display 100 may include a gyro sensor or the like for detecting the tilt direction of the head-mounted display 100.

制御部101は、ヘッドマウントディスプレイ100における各種信号の処理及び信号
の入出力等を制御する。通信部102と通信部202は、ヘッドマウントディスプレイ1
00と映像再生装置200との間でのデータの送受信を制御する。視線検出部203は、
ヘッドマウントディスプレイ100から得た信号に従い、眼EL、ERの視線方向を検出
する。赤外光源141からの赤外光より照射された眼Eの画像がカメラ145により撮像
されると、その画像は画像出力部146により出力され、通信部102、202を介して
視線検出部203に入力される。視線検出部203は、眼Eの画像中の照射スポットの位
置等を判別することにより、視線方向を検出することができる。視線検出部203は、赤
外光により照射された眼Eの赤外画像のデータXと、学習済みモデル記憶部205に記憶
された学習済みモデルに基づいて決定される算出式に従って視線方向を演算する。ここで
の学習済みモデルは、前述の実施の形態のデータ生成装置1で生成され学習済みモデル記
憶部17に記憶される学習済みモデルと対応して生成される。データ生成装置1で生成さ
れた画像対EPjの可視光画像と赤外画像との特徴量の差のデータに基づき、赤外画像と
視線検出方向との関係を示す学習済みモデルが、外部のコンピュータ、又はヘッドマウン
トディスプレイ100内で演算され、学習済みモデル記憶部205に格納される。
The control unit 101 controls various signal processing, signal input/output, etc. in the head mounted display 100. The communication unit 102 and the communication unit 202 are connected to the head mounted display 1.
00 and the video playback device 200. The line of sight detection unit 203 is
According to the signal obtained from the head-mounted display 100, the line-of-sight directions of the eyes EL and ER are detected. When an image of the eye E irradiated with infrared light from the infrared light source 141 is captured by the camera 145, the image is outputted by the image output unit 146 and sent to the line of sight detection unit 203 via the communication units 102 and 202. is input. The line of sight detection unit 203 can detect the direction of the line of sight by determining the position of the irradiation spot in the image of the eye E, etc. The line-of-sight detection unit 203 calculates the line-of-sight direction according to a calculation formula determined based on the data X of the infrared image of the eye E illuminated with infrared light and the trained model stored in the trained model storage unit 205. do. The trained model here is generated in correspondence with the trained model generated by the data generation device 1 of the embodiment described above and stored in the trained model storage section 17. Based on the data on the difference in feature amounts between the visible light image and the infrared image of the image pair EPj generated by the data generation device 1, a trained model indicating the relationship between the infrared image and the line of sight detection direction is generated by an external computer. , or is calculated within the head-mounted display 100 and stored in the learned model storage unit 205.

一例として、視線検出部203で演算される視線方向データGが、カメラ145で得ら
れた赤外画像のデータXにより、G=a1f1(X)+a2f2(X)+・・・+bの式
で計算される場合を考える。ただし、a1、a2、...、bは、学習済みモデルによっ
て定まる係数である。学習済みモデルが取得されることにより係数a1、a2、...、
bの値が定まり、更に赤外画像のデータXがカメラ145から得られると、視線方向ベク
トルGが定まる。
As an example, the line-of-sight direction data G calculated by the line-of-sight detection unit 203 is calculated using the formula G=a1f1(X)+a2f2(X)+...+b using data X of an infrared image obtained by the camera 145. Consider the case where However, a1, a2, . .. .. , b are coefficients determined by the learned model. By acquiring the trained model, the coefficients a1, a2, . .. .. ,
When the value of b is determined and infrared image data X is obtained from the camera 145, the line-of-sight direction vector G is determined.

映像生成部204は、ジャイロセンサ(図示せず)の検出信号等に従い、画像表示部1
42において表示すべき画像を生成する機能を有する。なお、映像生成部204は、ジャ
イロセンサ等の出力に加え、前述の視線検出部203の検出結果に従い、生成する映像を
変更してもよい。
The video generation unit 204 generates the image display unit 1 according to a detection signal from a gyro sensor (not shown), etc.
It has a function of generating an image to be displayed at 42. Note that the video generation unit 204 may change the video to be generated according to the detection result of the line of sight detection unit 203 described above in addition to the output of a gyro sensor or the like.

[変形例]
図11を参照して、実施の形態のデータ生成装置1の変形例を示す。なお、図11にお
いて、図1の構成要素と同一又は対応する構成要素については、図11において同一又は
対応する参照符号を付しているので、以下では重複する説明は省略する。この変形例では
、データ生成装置1が、第1データ生成装置ML1と、第2データ生成装置ML2とに分
割されており、2つの装置ML1とML2がネットワークNWを介して接続されている。
[Modified example]
With reference to FIG. 11, a modification of the data generation device 1 of the embodiment will be shown. Note that in FIG. 11, components that are the same as or correspond to those in FIG. 1 are given the same or corresponding reference numerals in FIG. 11, and therefore, redundant explanation will be omitted below. In this modification, the data generation device 1 is divided into a first data generation device ML1 and a second data generation device ML2, and the two devices ML1 and ML2 are connected via a network NW.

第1データ生成装置ML1は、画像対EPjの取得、その特徴量の取得、及び特徴量に
基づく学習済みモデルの生成を行う。第2データ生成装置ML2は、学習済みモデルに基
づいて、別の可視光画像Voに基づく赤外画像Roの生成を行う。第1データ生成装置M
L1、第2データ生成装置ML2、及び映像システム2は、ネットワークNWを介して接
続され、データの送受信を行う。
The first data generation device ML1 acquires the image pair EPj, acquires its feature amount, and generates a trained model based on the feature amount. The second data generation device ML2 generates an infrared image Ro based on another visible light image Vo based on the learned model. First data generation device M
L1, second data generation device ML2, and video system 2 are connected via a network NW and perform data transmission and reception.

第1データ生成装置ML1は、撮像装置11と、CPU12Aと、可視光撮影画像記憶
部13Aと、赤外撮影画像記憶部14Aと、機械学習部16と、学習済みモデル記憶部1
7とを備える。第1データ生成装置ML1は、撮像装置11により撮像された可視光撮影
画像Vj及び赤外撮影画像Rjの対を取得し、それぞれ可視光撮影画像記憶部13Aと赤
外撮影画像記憶部14Aに記憶させる。その後、機械学習部16、及び学習済みモデル記
憶部17Aは、第1の実施の形態と同様にして、可視光撮影画像Vj及び赤外撮影画像R
jの特徴量の差を算出し、これに基づいて学習済みモデルを取得し、学習済みモデル記憶
部17Aに記憶する。
The first data generation device ML1 includes an imaging device 11, a CPU 12A, a visible light image storage section 13A, an infrared image storage section 14A, a machine learning section 16, and a learned model storage section 1.
7. The first data generation device ML1 acquires a pair of a visible light photographed image Vj and an infrared photographed image Rj captured by the imaging device 11, and stores them in a visible light photographed image storage section 13A and an infrared photographed image storage section 14A, respectively. let Thereafter, the machine learning unit 16 and the learned model storage unit 17A store the visible light photographed image Vj and the infrared photographed image R in the same manner as in the first embodiment.
The difference between the feature amounts of j is calculated, and based on this, a trained model is obtained and stored in the trained model storage section 17A.

第2データ生成装置ML2は、第1データ生成装置ML1から、画像対EPj(可視光
撮影画像Vj及び赤外撮影画像Rj)、及び上述の学習済みモデルをネットワークNWを
介して受信する。第2データ生成装置ML2は、CPU12Bと、可視光撮影画像記憶部
13Bと、赤外撮影画像記憶部14Bと、可視光画像入力部15と、機械学習部16と、
学習済みモデル記憶部17Bと、赤外画像生成部18とを備える。
The second data generation device ML2 receives the image pair EPj (visible light image Vj and infrared image Rj) and the above-mentioned learned model from the first data generation device ML1 via the network NW. The second data generation device ML2 includes a CPU 12B, a visible light image storage section 13B, an infrared image storage section 14B, a visible light image input section 15, a machine learning section 16,
It includes a trained model storage section 17B and an infrared image generation section 18.

受信された可視光撮影画像Vj及び赤外撮影画像Rjは、それぞれ可視光撮影画像記憶
部13B及び赤外撮影画像記憶部14Bに格納され、学習済みモデルは学習済みモデル記
憶部17Bに格納される。
The received visible light photographed image Vj and infrared photographed image Rj are stored in the visible light photographed image storage section 13B and infrared photographed image storage section 14B, respectively, and the learned model is stored in the learned model storage section 17B. .

その後、可視光画像入力部15から別の可視光画像Voが入力されると、第1の実施の
形態と同様にして赤外画像Roが赤外画像生成部18により生成され、可視光画像Voと
赤外画像Roが対の画像として格納される。学習済みモデルは、この新たに生成された画
像対に基づいて補正される。得られた学習済みモデルや画像対は、映像システム2に直接
又は間接的に提供され、視線検出の演算に利用される。
Thereafter, when another visible light image Vo is input from the visible light image input section 15, an infrared image Ro is generated by the infrared image generation section 18 in the same manner as in the first embodiment, and the visible light image Vo and infrared image Ro are stored as a pair of images. The trained model is corrected based on this newly generated image pair. The obtained trained model and image pairs are directly or indirectly provided to the video system 2 and used for calculation of line of sight detection.

以上、本発明のいくつかの実施の形態を説明したが、これらの実施の形態は、例として
提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施の
形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範
囲で、種々の省略、置き換え、変更を行うことができる。これら実施の形態やその変形は
、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の
範囲に含まれる。
Although several embodiments of the present invention have been described above, these embodiments are presented as examples and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, substitutions, and changes can be made without departing from the gist of the invention. These embodiments and their modifications are included within the scope and gist of the invention, as well as within the scope of the invention described in the claims and its equivalents.

1…データ生成装置、 2…映像システム、 11…撮像装置、 12…CPU、 13
…可視光撮影画像記憶部、 13…可視光撮影画像記憶部、 14…赤外撮影画像記憶部
、 15…可視光画像入力部、 16…機械学習部、 17…学習済みモデル記憶部、
18…赤外画像生成部、 19…属性情報記憶部、 20…属性情報入力部、 100…
ヘッドマウントディスプレイ、 101…制御部、 102…通信部、 103…赤外光
源、 110…筐体、 120…頭部固定部、 130…ヘッドフォン、 140…画像
提示部、 141…赤外光源、 142…画像表示部、 143…ホットミラー、 14
4…凸レンズ、 145…カメラ、 146…画像出力部、 200…映像再生装置、
201…制御部、 202…通信部、 203…視線検出部、 204…映像生成部、
205…学習済みモデル記憶部、 1001…可視光光源、 1002…赤外光光源、
1003…対物レンズ、 1004…ダイクロイックミラー、 1005…結像レンズ、
1005…集光レンズ、 1006…可視画像カメラ、 1007…結像レンズ、 1
008…赤外カメラ。
1...Data generation device, 2...Video system, 11...Imaging device, 12...CPU, 13
...Visible light image storage unit, 13...Visible light image storage unit, 14...Infrared image storage unit, 15...Visible light image input unit, 16...Machine learning unit, 17...Learned model storage unit,
18... Infrared image generation section, 19... Attribute information storage section, 20... Attribute information input section, 100...
Head mounted display, 101... Control unit, 102... Communication unit, 103... Infrared light source, 110... Housing, 120... Head fixing unit, 130... Headphones, 140... Image presentation unit, 141... Infrared light source, 142... Image display section, 143...Hot mirror, 14
4...Convex lens, 145...Camera, 146...Image output unit, 200...Video playback device,
201...Control unit, 202...Communication unit, 203...Line of sight detection unit, 204...Video generation unit,
205...Learned model storage unit, 1001...Visible light source, 1002...Infrared light source,
1003...Objective lens, 1004...Dichroic mirror, 1005...Imaging lens,
1005...Condensing lens, 1006...Visible image camera, 1007...Imaging lens, 1
008...Infrared camera.

Claims (11)

眼を可視光及び赤外光で撮影して第1可視光撮影画像及び第1赤外撮影画像の対を取得
する画像対取得部と、
前記第1可視光撮影画像及び前記第1赤外撮影画像の関係を示す特徴量を取得して学習
済みモデルを生成する機械学習部と
を備えたことを特徴とするデータ生成装置。
an image pair acquisition unit that photographs the eye with visible light and infrared light to acquire a pair of a first visible light photographed image and a first infrared photographed image;
A data generation device comprising: a machine learning unit that generates a trained model by acquiring feature amounts indicating a relationship between the first visible light photographed image and the first infrared photographed image.
前記第1可視光撮影画像とは別の可視光画像を入力させる可視光画像入力部と、
前記可視光画像及び前記学習済みモデルに基づいて赤外画像を生成する赤外画像生成部

を備えた、請求項1に記載のデータ生成装置。
a visible light image input unit that inputs a visible light image different from the first visible light photographed image;
The data generation device according to claim 1, further comprising: an infrared image generation unit that generates an infrared image based on the visible light image and the learned model.
前記機械学習部は、前記可視光画像と前記赤外画像との対に基づき、前記学習済みモデ
ルを再構成する、請求項2記載のデータ生成装置。
The data generation device according to claim 2, wherein the machine learning unit reconstructs the learned model based on the pair of the visible light image and the infrared image.
前記赤外画像生成部は、前記可視光画像の特徴量を取得し、前記可視光画像の特徴量と
近似する特徴量を有する前記第1可視光撮影画像を特定し、特定された前記第1可視光撮
影画像と対をなす前記第1赤外撮影画像との間の特徴量の差に基づいて前記赤外画像を生
成する、請求項3に記載のデータ生成装置。
The infrared image generation unit acquires the feature amount of the visible light image, identifies the first visible light photographed image having a feature amount that approximates the feature amount of the visible light image, and The data generation device according to claim 3, wherein the infrared image is generated based on a difference in feature amount between a visible light photographed image and the paired first infrared photographed image.
前記機械学習部は、前記特徴量、並びに前記第1可視光撮影画像及び前記第1赤外撮影
画像の属性情報に基づき前記学習済みモデルを生成する、請求項1に記載のデータ生成装
置。
The data generation device according to claim 1, wherein the machine learning unit generates the learned model based on the feature amount and attribute information of the first visible light photographed image and the first infrared photographed image.
前記第1可視光撮影画像とは別の可視光画像を入力させる可視光画像入力部と、
前記可視光画像の属性情報を入力させる属性情報入力部と、
前記可視光画像、前記属性情報及び前記学習済みモデルに基づいて赤外画像を生成する
赤外画像生成部と
を備えた、請求項5に記載のデータ生成装置。
a visible light image input unit that inputs a visible light image different from the first visible light photographed image;
an attribute information input unit for inputting attribute information of the visible light image;
The data generation device according to claim 5, further comprising: an infrared image generation unit that generates an infrared image based on the visible light image, the attribute information, and the learned model.
赤外光を照射してユーザの視線の方向を検出する視線検出部と、
可視光で撮像された眼の可視光撮影画像の特徴量と、赤外光で撮像された同一の眼につ
いての赤外撮影画像との特徴量とに基づいて生成される学習済みモデルを記憶する学習済
みモデル記憶部と
を備え、
前記視線検出部は、前記赤外光を照射して得られた赤外画像と、前記学習済みモデルと
に従い、前記視線の方向を検出するよう構成された、映像システム。
a line-of-sight detection unit that detects the direction of the user's line-of-sight by emitting infrared light;
Store a trained model that is generated based on the feature values of a visible light image of an eye captured with visible light and the feature values of an infrared image of the same eye captured with infrared light. Equipped with a trained model storage unit and
The visual line detection unit is configured to detect the direction of the visual line according to an infrared image obtained by irradiating the infrared light and the learned model.
眼を可視光及び赤外光で撮影して第1可視光撮影画像及び第1赤外撮影画像の対を取得
するステップと、
前記第1可視光撮影画像及び前記第1赤外撮影画像の関係を示す特徴量を取得して学習
済みモデルを生成するステップと
前記第1可視光撮影画像とは別の可視光画像を入力させるステップと、
前記可視光画像及び前記学習済みモデルに基づいて赤外画像を生成するステップと、
を備えた、データ生成方法。
photographing the eye with visible light and infrared light to obtain a pair of a first visible light photographed image and a first infrared photographed image;
generating a trained model by acquiring feature amounts indicating the relationship between the first visible light photographed image and the first infrared photographed image; and inputting a visible light image different from the first visible light photographed image. step and
generating an infrared image based on the visible light image and the learned model;
A data generation method with
前記可視光画像と前記赤外画像との対に基づき、前記学習済みモデルを再構成するステ
ップを更に備えた、請求項8に記載のデータ生成方法。
9. The data generation method according to claim 8, further comprising the step of reconstructing the learned model based on the pair of the visible light image and the infrared image.
前記赤外画像を生成するステップは、前記可視光画像の特徴量を取得し、前記可視光画
像の特徴量と近似する特徴量を有する前記第1可視光撮影画像を特定し、特定された前記
第1可視光撮影画像と対をなす前記第1赤外撮影画像との間の特徴量の差に基づいて前記
赤外画像を生成する、請求項9に記載のデータ生成方法。
The step of generating the infrared image includes acquiring the feature amount of the visible light image, identifying the first visible light photographed image having a feature amount that approximates the feature amount of the visible light image, and The data generation method according to claim 9, wherein the infrared image is generated based on a difference in feature amount between a first visible light photographed image and the paired first infrared photographed image.
前記学習済みモデルを生成するステップは、前記特徴量、並びに前記第1可視光撮影画
像及び前記第1赤外撮影画像の属性情報に基づき前記学習済みモデルを生成する、請求項
8に記載のデータ生成方法。
The data according to claim 8, wherein the step of generating the learned model generates the learned model based on the feature amount and attribute information of the first visible light photographed image and the first infrared photographed image. Generation method.
JP2023215064A 2018-07-05 2023-12-20 Data generation device, video system, and data generation method Pending JP2024023752A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023215064A JP2024023752A (en) 2018-07-05 2023-12-20 Data generation device, video system, and data generation method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018128450A JP2020009064A (en) 2018-07-05 2018-07-05 Data generation device, video system, and data generation method
JP2023215064A JP2024023752A (en) 2018-07-05 2023-12-20 Data generation device, video system, and data generation method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018128450A Division JP2020009064A (en) 2018-07-05 2018-07-05 Data generation device, video system, and data generation method

Publications (1)

Publication Number Publication Date
JP2024023752A true JP2024023752A (en) 2024-02-21

Family

ID=69151651

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018128450A Pending JP2020009064A (en) 2018-07-05 2018-07-05 Data generation device, video system, and data generation method
JP2023215064A Pending JP2024023752A (en) 2018-07-05 2023-12-20 Data generation device, video system, and data generation method

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2018128450A Pending JP2020009064A (en) 2018-07-05 2018-07-05 Data generation device, video system, and data generation method

Country Status (1)

Country Link
JP (2) JP2020009064A (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101202845B (en) * 2007-11-14 2011-05-18 北京大学 Method for changing infrared image into visible light image and device
JP6361500B2 (en) * 2014-12-24 2018-07-25 ソニー株式会社 Image processing apparatus, image processing method, and program
CN104700087B (en) * 2015-03-23 2018-05-04 上海交通大学 The method for mutually conversing of visible ray and near-infrared facial image
JP6582604B2 (en) * 2015-06-23 2019-10-02 富士通株式会社 Pupil detection program, pupil detection method, pupil detection device, and gaze detection system

Also Published As

Publication number Publication date
JP2020009064A (en) 2020-01-16

Similar Documents

Publication Publication Date Title
KR102544062B1 (en) Method for displaying virtual image, storage medium and electronic device therefor
US20230314798A1 (en) Method and device for eye tracking using event camera data
US11861873B2 (en) Event camera-based gaze tracking using neural networks
US11563700B2 (en) Directional augmented reality system
US9864910B2 (en) Threat identification system
US10168778B2 (en) User status indicator of an augmented reality system
JP6824285B2 (en) Collection, selection and combination of eye images
US20160343168A1 (en) Virtual personification for augmented reality system
US9536355B1 (en) Thermal detection in an augmented reality system
CN112567287A (en) Augmented reality display with frame modulation
KR20180004018A (en) Video display system, video display method, video display program
CN109086726A (en) A kind of topography's recognition methods and system based on AR intelligent glasses
JP2019511272A (en) Blue light conditioning for biometric security
WO2016187348A1 (en) Biometric authentication in a head mounted device
CN103648366A (en) System and method for remote measurement of optical focus
WO2016187351A1 (en) Context-based augmented reality content delivery
CN114730094A (en) Artificial reality system with zoom display of artificial reality content
CN109643152A (en) Use face and the eyes tracking of the face sensor in head-mounted display and FA Facial Animation
JP2018099174A (en) Pupil detector and pupil detection method
JP7165994B2 (en) Methods and devices for collecting eye measurements
JP2021527888A (en) Methods and systems for performing eye tracking using off-axis cameras
JP2017191546A (en) Medical use head-mounted display, program of medical use head-mounted display, and control method of medical use head-mounted display
US20220358724A1 (en) Information processing device, information processing method, and program
WO2021034527A1 (en) Pupil assessment using modulated on-axis illumination
Kasprowski Eye tracking hardware: past to present, and beyond

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240119

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240119