JP7342409B2 - Observation status display system, observation status display method and program - Google Patents

Observation status display system, observation status display method and program Download PDF

Info

Publication number
JP7342409B2
JP7342409B2 JP2019077697A JP2019077697A JP7342409B2 JP 7342409 B2 JP7342409 B2 JP 7342409B2 JP 2019077697 A JP2019077697 A JP 2019077697A JP 2019077697 A JP2019077697 A JP 2019077697A JP 7342409 B2 JP7342409 B2 JP 7342409B2
Authority
JP
Japan
Prior art keywords
display
observer
visual field
observation
head
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019077697A
Other languages
Japanese (ja)
Other versions
JP2020177066A (en
Inventor
久史 小黒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toppan Inc
Original Assignee
Toppan Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toppan Inc filed Critical Toppan Inc
Priority to JP2019077697A priority Critical patent/JP7342409B2/en
Publication of JP2020177066A publication Critical patent/JP2020177066A/en
Application granted granted Critical
Publication of JP7342409B2 publication Critical patent/JP7342409B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Eye Examination Apparatus (AREA)
  • Studio Devices (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Image Analysis (AREA)

Description

本発明は、観察者の観察状態を表示する観察状態表示システム、観察状態表示方法及びプログラムに関する。 The present invention relates to an observation state display system, an observation state display method, and a program for displaying an observer's observation state.

様々な観察対象が存在する店舗や展示場の観察する対象物が陳列された陳列空間などの3次元空間(以下、観察空間と称す)の中を、観察者が移動しながら上記対象物を観察する場合にも使用可能な、観察者の視線方向を計測するための装置として、視線方向を検出する視線計測機能と、観察者の観察方向の視野の画像を撮像する視野ビデオカメラとが一体化された装着型の視線計測装置が実用化されている(例えば、特許文献1及び特許文献2参照)。
一般に、観察者の頭部に固定される頭部装着型の視線計測装置(以下、頭部装着計測装置と称す)の場合、上記視線計測機能から得られる視線データは、観察者の頭部に対して固定された頭部座標系での視線方向を示している。
An observer moves through a three-dimensional space (hereinafter referred to as an observation space) such as a display space where objects to be observed are displayed in a store or exhibition hall where various observation objects exist, and observes the objects. As a device for measuring the direction of the observer's line of sight, which can also be used when A wearable line of sight measurement device has been put into practical use (see, for example, Patent Document 1 and Patent Document 2).
In general, in the case of a head-mounted gaze measuring device that is fixed to the observer's head (hereinafter referred to as a head-mounted measuring device), the gaze data obtained from the above-mentioned gaze measurement function is attached to the observer's head. The line of sight direction is shown in a fixed head coordinate system.

上記視野カメラは、頭部装着計測装置において、両眼の中央の位置に設けられている。観察者の観察方向の視野における視線方向を計測する際、視野カメラにより観察者の観察方向の視野の画像として視野撮像画像を撮像する。
そして、視線方向は、視線計測装置による検出される視点の位置として、視野カメラの頭部装着計測装置における取付位置、画角などの幾何学パラメータに基づき、視野撮像画像上の画素位置と一意に対応付けられる。
The above-mentioned visual field camera is provided at the center position of both eyes in the head-mounted measurement device. When measuring the line-of-sight direction in the visual field of the observer in the observation direction, a visual field camera captures a visual field captured image as an image of the visual field in the observation direction of the observer.
The direction of the line of sight is uniquely determined as the position of the viewpoint detected by the line-of-sight measurement device, based on the mounting position of the field-of-view camera on the head-mounted measurement device, geometric parameters such as the angle of view, and the pixel position on the field-of-view captured image. Can be matched.

これにより、観察者の位置や姿勢の情報を用いることなく、視野撮像画像上における観察者の注視する視点(以下、注視点と称す)の位置として注視点マーカーを重畳させて表示し、実験者に対して観察者の注視点の位置をビジュアルに示すことができる。 As a result, a gaze point marker is superimposed and displayed as the position of the observer's gaze point (hereinafter referred to as the gaze point) on the visual field captured image, without using information about the observer's position or posture, and the experimenter It is possible to visually indicate the position of the observer's gaze point.

特開平06-189906号公報Japanese Patent Application Publication No. 06-189906 特開2012-146199号公報Japanese Patent Application Publication No. 2012-146199

上述したように、装着型視線計測装置を用いることにより、観察者が観察空間の中を、移動しながら対象物を観察する際、観察者の観察空間における観察動作を阻害することがない。
このため、特許文献1及び特許文献2の装着型視線計測装置によって、実験者は、観察空間における観察者の自由な意志による移動による、観察者の観察空間内の注視点を、ビジュアルにかつリアルタイムに求めることができる。
As described above, by using the wearable line-of-sight measuring device, when the observer observes an object while moving in the observation space, the observation movement of the observer in the observation space is not obstructed.
Therefore, using the wearable gaze measuring devices of Patent Documents 1 and 2, the experimenter can visually and in real time measure the gaze point of the observer in the observation space by moving the observer's free will in the observation space. can be asked for.

しかし、観察空間において観察方向を変える際、観察者は、自身の興味ある対象物、すなわち注視点の存在する観察方向を向く必要性から、観察位置を移動したり、観察方向の視野における視線を変更するため頭部の姿勢を変化させたりする。
このとき、観察空間に対して固定された座標系(以下、グローバル座標系と示す)と、観察者が観察する視野を撮像する視野カメラの頭部座標系との関係も変化する。
However, when changing the observation direction in the observation space, the observer needs to face the observation direction where the object of interest, that is, the gaze point, is located, so the observer moves the observation position or changes the line of sight in the field of view in the observation direction. In order to change the posture of the head, the posture of the head may be changed.
At this time, the relationship between the coordinate system fixed to the observation space (hereinafter referred to as global coordinate system) and the head coordinate system of the visual field camera that images the visual field observed by the observer also changes.

一方、観察者の心理状態を高い精度で解析する場合など、観察方向を変えるための頭部の動き(頭部の姿勢の変化)と、観察方向の視野内における視線との双方の関連性を解析する必要がある。
しかしながら、特許文献1及び特許文献2においては、頭部座標系において計測された注視点をグローバル座標系に変換して、注視点マーカーとしてプロットしており、観察方向、すなわち観察者の頭部の動きを解析することについては全く考慮されていない。
このため、特許文献1及び特許文献2においては、観察者の視線に対応する注視点について解析する構成のため、対象物に対する視線を求めることができる一方、観察方向を変化させた頭部の姿勢情報をビジュアルに示すことはできない。
On the other hand, when analyzing the psychological state of an observer with high accuracy, we need to investigate the relationship between head movements (changes in head posture) to change the observation direction and the line of sight within the field of view in the observation direction. Needs to be analyzed.
However, in Patent Document 1 and Patent Document 2, the gaze point measured in the head coordinate system is converted to the global coordinate system and plotted as a gaze point marker. No consideration is given to analyzing movement.
For this reason, in Patent Document 1 and Patent Document 2, since the gaze point corresponding to the observer's line of sight is analyzed, the line of sight to the object can be determined, while the posture of the head when the observation direction is changed. Information cannot be presented visually.

観察者の心理状態を観察する際、観察方法を変化させた場合における頭部の姿勢情報を解析する必要があり、頭部座標系での撮像時の視野のままの視野撮像画像に対して直接に注視点マーカーをプロットすることが考えられる。
これにより、観察方向を変化させる度に、視野撮像画像が頭部の動きに合わせて変化し、かつ視線方向が変化すると視野撮像画像における注視点マーカーの位置が変化することで、観察方向と注視点の位置との情報を個々に示すことができる。
When observing the psychological state of an observer, it is necessary to analyze the head posture information when changing the observation method, and it is necessary to analyze the head posture information when changing the observation method. It is conceivable to plot a gaze point marker on the
As a result, each time the observation direction changes, the visual field image changes in accordance with the movement of the head, and when the line of sight direction changes, the position of the gaze point marker in the visual field image changes, thereby changing the observation direction and attention. Information regarding the position of the viewpoint can be shown individually.

上述したように、視野撮像画像が観察方向の変化に対応して視野が移動するため、注視点に対して独立に、視野の移動の方向から頭部の動きを観察することは可能となる。
しかしながら、視野撮像画像における画像の変化から、観察者の視野の移動の方向、すなわち頭部がどちらの方向に変化したかを直感的に把握することは困難である。
また、視野撮像画像は、観察者の頭部の移動及び姿勢の変化に起因するカメラぶれが大きい。そのため、実験者は、視野撮像画像における視野の変化及びカメラぶれ、すなわち不規則に揺れた画像による映像酔いを起し、長時間にわたる観察者の解析が困難となる場合がある。
As described above, since the visual field of the captured image moves in response to a change in the observation direction, it is possible to observe the movement of the head from the direction of movement of the visual field independently of the point of gaze.
However, it is difficult to intuitively grasp the direction of movement of the observer's field of view, that is, the direction in which the head has changed, from changes in images in the visual field captured images.
In addition, the field-of-view captured image has large camera shake due to movement of the observer's head and changes in posture. Therefore, the experimenter may experience video sickness due to changes in the field of view and camera shake in the visual field captured image, that is, images that shake irregularly, making it difficult for the observer to perform analysis over a long period of time.

本発明は、このような状況に鑑みてなされたもので、観察空間における観察者の挙動として、観察方向を変えるための観察者の頭部の移動を直感的に把握することができ、かつ視野撮像画像における視野の変化やカメラぶれによる実験者の映像酔いを低減することが可能な観察状態表示システム、観察状態表示方法及びプログラムを提供する。 The present invention has been made in view of the above situation, and it is possible to intuitively grasp the movement of the observer's head to change the observation direction as the behavior of the observer in the observation space, and it is possible to change the field of view. Provided are an observation state display system, an observation state display method, and a program that can reduce visual sickness of an experimenter due to changes in the field of view in captured images and camera shake.

上述した課題を解決するために、本発明の観察状態表示システムは、実空間における観察者の観察方向の視野の画像を視野撮像画像として表示し、実験者が観察する表示画面を有する画像表示部を備える観察状態表示システムであって、前記視野撮像画像を取得する視野画像取得部と、前記観察者の頭部の姿勢である頭部姿勢を取得する頭部姿勢情報取得部と、前記視野撮像画像が表示される表示枠の位置を前記頭部姿勢に対応させて、実験者の表示画面内で移動させる表示枠表示制御部とを備えることを特徴とする。 In order to solve the above-mentioned problems, the observation state display system of the present invention displays an image of the visual field of the observer in the observation direction in real space as a visual field captured image, and includes an image display unit having a display screen for observation by the experimenter. An observation state display system comprising : a visual field image acquisition unit that acquires the visual field captured image ; a head posture information acquisition unit that acquires a head posture that is a posture of the observer's head; The present invention is characterized by comprising a display frame display control unit that moves the position of the display frame in which the image is displayed within the experimenter's display screen in correspondence with the head posture.

本発明の観察状態表示システムは、表示枠表示制御部が、前記表示画面内における前記表示枠の移動角を、頭部姿勢の姿勢角の変化量に対応させて、当該表示枠を移動させることを特徴とする。 In the observation state display system of the present invention, the display frame display control unit moves the display frame within the display screen by making the movement angle of the display frame correspond to the amount of change in the posture angle of the head posture. It is characterized by

本発明の観察状態表示システムは、表示枠表示制御部が、前記移動角の方向及び大きさの各々に対応させて、前記表示枠及び当該表示枠内の前記視野撮像画像に対する射影変換を行なうことを特徴とする。 In the observation state display system of the present invention, the display frame display control section performs projective transformation on the display frame and the visual field captured image within the display frame in correspondence with each of the directions and magnitudes of the movement angle. It is characterized by

本発明の観察状態表示システムは、前記観察者の視線の方向を計測する視線計測部と、当該視線の方向に対応した注視点の位置を示す注視点マーカーを、前記視野撮像画像に重畳させて表示する注視点マーカー表示部とをさらに備えることを特徴とする。 The observation state display system of the present invention includes a line-of-sight measurement unit that measures the direction of the observer 's line of sight , and a point-of-gaze marker that indicates the position of the point of gaze corresponding to the direction of the line-of-sight, superimposed on the visual field captured image. The present invention is characterized in that it further includes a gaze point marker display section that displays the point of interest marker.

本発明の観察状態表示システムは、前記頭部姿勢情報取得部が、前記観察者の頭部に所定の装具により取り付けられており、前記観察者の頭部姿勢における回転移動を計測する加速度センサーまたは角速度センサーのいずれかまたは両方が設けられていることを特徴とする。 In the observation state display system of the present invention, the head posture information acquisition section is attached to the head of the observer with a predetermined brace, and the head posture information acquisition section is provided with an acceleration sensor or an acceleration sensor that measures rotational movement in the head posture of the observer. It is characterized by being provided with one or both of the angular velocity sensors.

本発明の観察状態表示システムは、前記観察者が観察を行なう観察空間に設けられた撮像装置をさらに備え、前記頭部姿勢情報取得部が、前記撮像装置の撮像する前記観察者の動画像から、当該観察者の頭部姿勢を検出することを特徴とする。 The observation state display system of the present invention further includes an imaging device provided in an observation space in which the observer performs observation, and the head posture information acquisition unit collects a moving image of the observer captured by the imaging device. , is characterized by detecting the head posture of the observer.

本発明の観察状態表示システムは、前記観察者の頭部に所定の装具により、当該頭部における眼の位置の近傍における、前記観察者の視野が撮像可能な位置に取り付けられ、前記視野撮像画像を撮像する視野撮像装置をさらに備え、前記視野画像取得部が、前記視野撮像装置から前記視野撮像画像を取得することを特徴とする。 The observation state display system of the present invention is attached to the observer's head with a predetermined equipment at a position near the eye position on the head where the visual field of the observer can be imaged, and the visual field image is The device further includes a visual field imaging device that images the visual field image, and the visual field image acquisition unit acquires the visual field captured image from the visual field imaging device.

本発明の観察状態表示方法は、実空間における観察者の観察方向の視野の画像を視野撮像画像として表示し、実験者が観察する表示画面を有する画像表示部を備える観察状態表示システムにおける観察状態表示方法であり、視野画像取得部が、前記視野撮像画像を取得する視野画像取得過程と、頭部姿勢情報取得部が、前記観察者の頭部の姿勢である頭部姿勢を取得する頭部姿勢検出過程と、表示枠表示制御部が、前記視野撮像画像が表示される表示枠の位置を前記頭部姿勢に対応させて、実験者の表示画面内で移動させる表示枠表示制御過程とを含むことを特徴とする。 The observation state display method of the present invention displays an image of the visual field of an observer in the observation direction in real space as a visual field captured image, and the observation state in an observation state display system comprising an image display unit having a display screen for observation by an experimenter. The display method includes a visual field image acquisition step in which the visual field image acquisition unit acquires the visual field captured image , and a head posture information acquisition unit in which the head posture information acquisition unit acquires a head posture that is the posture of the head of the observer. a posture detection step; and a display frame display control step in which the display frame display control unit moves the position of the display frame in which the visual field captured image is displayed within the experimenter's display screen in correspondence with the head posture. It is characterized by containing.

本発明のプログラムは、実空間における観察者の観察方向の視野の画像を視野撮像画像として表示し、実験者が観察する表示画面を有する画像表示部を備える観察状態表示システムの動作をコンピュータに実行させるプログラムであり、前記コンピュータを、前記視野撮像画像を取得する視野画像取得手段、前記観察者の頭部の姿勢である頭部姿勢を取得する頭部姿勢検出手段、前記視野撮像画像が表示される表示枠の位置を前記頭部姿勢に対応させて、実験者の表示画面内で移動させる表示枠表示制御手段として機能させるためのプログラムである。 The program of the present invention causes a computer to display an image of the field of view of an observer in the observation direction in real space as a field-of-view captured image, and to cause a computer to operate an observation state display system including an image display section having a display screen for observation by an experimenter. The computer program includes: a visual field image acquisition unit that acquires the visual field captured image ; a head posture detection unit that acquires a head posture that is the posture of the observer's head; This program functions as a display frame display control means for moving the position of the display frame within the display screen of the experimenter in accordance with the head posture.

以上説明したように、本発明によれば、観察空間における観察者の挙動として、観察方向を変えるための観察者の頭部の移動を直感的に把握することができ、かつ視野撮像画像における視野の変化やカメラぶれによる観察者の映像酔いを低減することが可能な観察状態表示システム、観察状態表示方法及びプログラムを提供することができる。 As explained above, according to the present invention, it is possible to intuitively understand the movement of the observer's head to change the observation direction as the behavior of the observer in the observation space, and the visual field in the visual field captured image can be understood intuitively. It is possible to provide an observation state display system, an observation state display method, and a program that can reduce the viewer's motion sickness caused by changes in the image and camera shake.

本実施形態による観察状態表示システムの構成例を示すブロック図である。FIG. 1 is a block diagram showing an example of the configuration of an observation state display system according to the present embodiment. 本実施形態による観察状態表示システム1における観察者情報取得装置20の構成例を示す概念図である。FIG. 2 is a conceptual diagram showing a configuration example of an observer information acquisition device 20 in the observation state display system 1 according to the present embodiment. 観察空間310における観察者の観察方向及び視線の一例を示す概念図である。3 is a conceptual diagram showing an example of an observation direction and line of sight of an observer in an observation space 310. FIG. 画像表示部16の表示画面における視野撮像画像が表示される表示枠の表示位置の制御を説明する概念図である。FIG. 3 is a conceptual diagram illustrating control of the display position of a display frame in which a visual field captured image is displayed on the display screen of the image display unit 16. FIG. 観察空間310_1における観察者の観察方向及び視線の一例を示す概念図である。It is a conceptual diagram showing an example of an observer's observation direction and line of sight in an observation space 310_1. 画像表示部16の表示画面における視野撮像画像が表示される表示枠の表示位置の制御を説明する概念図である。FIG. 3 is a conceptual diagram illustrating control of the display position of a display frame in which a visual field captured image is displayed on the display screen of the image display unit 16. FIG. 本実施形態による観察状態表示システム1の視線計測処理の動作例を説明するフローチャートである。It is a flowchart explaining an example of the operation of the line of sight measurement processing of the observation state display system 1 according to the present embodiment.

以下、本発明の一実施形態について、図面を参照して説明する。
図1は、本実施形態による観察状態表示システムの構成例を示すブロック図である。図1において、観察状態表示システム1は、観察者の状態を表示するシステムであり、観察状態表示装置10及び観察者情報取得装置20の各々を備えている。観察状態表示装置10及び観察者情報取得装置20の各々は、所定のネットワーク(不図示)により接続されている。
観察者情報取得装置20は、観察状態表示装置10に対して、視線計測情報、画像情報及び頭部姿勢情報の各々を含む観察者の観察する視野に関する情報を、観察状態表示装置10に対して供給する。
Hereinafter, one embodiment of the present invention will be described with reference to the drawings.
FIG. 1 is a block diagram showing a configuration example of an observation state display system according to this embodiment. In FIG. 1, an observation state display system 1 is a system that displays the state of an observer, and includes an observation state display device 10 and an observer information acquisition device 20. The observation state display device 10 and the observer information acquisition device 20 are each connected through a predetermined network (not shown).
The observer information acquisition device 20 transmits information regarding the visual field observed by the observer, including each of gaze measurement information, image information, and head posture information, to the observation state display device 10. supply

図2は、本実施形態による観察状態表示システム1における観察者情報取得装置20の構成例を示す概念図である。観察者情報取得装置20は、頭部取付治具210、視線計測部220、視野撮像装置230及び姿勢情報取得装置240の各々を備えている。
頭部取付治具210は、例えばヘルメット形状やメガネ形状をした、観察者200が頭部に対して実装する治具であり、頭部の動きに対して装着時の位置からずれないように固定される構成の装具である。ここで、頭部取付治具210としてHMD(Head Mounted Display)を用いる場合、視野撮像装置230により撮像される視野撮像画像に代えて、HMDに表示される仮想空間の画像を視野撮像画像として用いることが出来る。そして、視線計測部220、視野撮像装置230及び姿勢情報取得装置240の各々をHMDに取り付け(例えば、内蔵する)、上記視野撮像画像を表示する構成とする。
FIG. 2 is a conceptual diagram showing a configuration example of the observer information acquisition device 20 in the observation state display system 1 according to the present embodiment. The observer information acquisition device 20 includes a head mounting jig 210, a line of sight measurement section 220, a visual field imaging device 230, and a posture information acquisition device 240.
The head mounting jig 210 is, for example, a helmet-shaped or glasses-shaped jig that is mounted on the head of the observer 200, and is fixed so that it does not shift from the position when worn due to movement of the head. This is an orthosis with a configuration that allows Here, when an HMD (Head Mounted Display) is used as the head mounting jig 210, an image of the virtual space displayed on the HMD is used as the visual field image in place of the visual field image captured by the visual field imaging device 230. I can do it. Then, each of the line-of-sight measurement unit 220, the visual field imaging device 230, and the posture information acquisition device 240 is attached to (for example, built into) the HMD, and the above-mentioned visual field image is displayed.

視線計測部220は、観察者200の視線を計測し、この視線に対応した観察方向の視野内における、観察者200の注視している視点である注視点の位置を示す情報である視線計測情報を求める。
そして、視線計測部220は、求めた視線計測情報を観察状態表示装置10に対して供給する。本実施形態において、視線計測情報は、後述する視野撮像画像の2次元平面における注視点の座標位置を示す情報である。
The line-of-sight measurement unit 220 measures the line-of-sight of the observer 200, and generates line-of-sight measurement information that is information indicating the position of the point of gaze, which is the viewpoint that the observer 200 is gazing at, within the field of view in the observation direction corresponding to this line of sight. seek.
Then, the line-of-sight measurement unit 220 supplies the obtained line-of-sight measurement information to the observation state display device 10. In this embodiment, the line of sight measurement information is information indicating the coordinate position of a gaze point on a two-dimensional plane of a visual field captured image, which will be described later.

例えば、矩形上の視野撮像画像の左下の位置座標を(0.0,0.0)とし、右上の位置座標を(1.0,1.0)として、この座標範囲において、注視点の座標位置が示される。ここで、観察者200の視線方向と視野撮像画像における注視点の座標位置との関係性は、予め頭部取付治具210における視線計測部220及び視野撮像装置230の取り付けられた相対位置を考慮して、観察者毎に予め校正して求めておく。 For example, if the lower left position coordinates of a rectangular visual field captured image are (0.0, 0.0) and the upper right position coordinates are (1.0, 1.0), then in this coordinate range, the coordinates of the gaze point are The location is indicated. Here, the relationship between the gaze direction of the observer 200 and the coordinate position of the gaze point in the visual field captured image is determined in advance by considering the relative positions of the visual field measurement unit 220 and the visual field imaging device 230 in the head mounting jig 210. and calibrate and obtain it in advance for each observer.

視野撮像装置230は、観察者200の観察方向における視野の動画像(60フレーム/秒)を撮像し、撮像画像を上記視野撮像画像(画像情報)として観察状態表示装置10に供給する。
姿勢情報取得装置240は、本実施形態において、例えば、姿勢センサーであり、ジャイロセンサー及び加速度センサーとの各々から構成されている。ここで、ジャイロセンサーは、観察者200の頭部の回転情報(頭部のパン、チルト及びロールの各々における角度変化量)を取得する。加速度センサーは、重力の方向から観察者200の頭の回転情報を算出するための加速度を取得する。姿勢情報取得装置240は、取得した移動情報及び回転情報の各々を、頭部姿勢情報として観察状態表示装置10に供給する。頭部姿勢情報における回転情報は、例えば四元数で表された回転角の時系列データ(後述するタイムスタンプに対応)である。
The visual field imaging device 230 captures a moving image (60 frames/sec) of the visual field of the observer 200 in the observation direction, and supplies the captured image to the observation state display device 10 as the visual field captured image (image information).
In the present embodiment, the posture information acquisition device 240 is, for example, a posture sensor, and includes a gyro sensor and an acceleration sensor. Here, the gyro sensor acquires rotation information of the head of the observer 200 (the amount of angular change in each of panning, tilting, and rolling of the head). The acceleration sensor acquires acceleration for calculating rotation information of the observer's 200 head from the direction of gravity. The posture information acquisition device 240 supplies each of the acquired movement information and rotation information to the observation state display device 10 as head posture information. The rotation information in the head posture information is, for example, time series data of rotation angles expressed in quaternions (corresponding to time stamps described later).

図1に戻り、 観察状態表示装置10は、視線情報取得部11、視野画像取得部12、注視点マーカー重畳部13、頭部姿勢情報取得部14、表示枠表示制御部15、画像表示部16及び記憶部17の各々を備えている。
視線情報取得部11は、視線計測部220から供給される、視野撮像画像における注視点の座標位置を示す視線計測情報を、タイムスタンプに対応させて記憶部17に対して書き込んで記憶させる。このタイムスタンプは、フレーム単位で撮像される視野撮像画像が撮像された順番を時系列に示す情報である。
視野画像取得部12は、視野撮像装置230から供給される、フレーム単位の視野撮像画像を、タイムスタンプに対応させて、記憶部17に対して書き込んで記憶させる。
Returning to FIG. 1, the observation state display device 10 includes a line of sight information acquisition section 11, a visual field image acquisition section 12, a gaze point marker superimposition section 13, a head posture information acquisition section 14, a display frame display control section 15, and an image display section 16. and a storage unit 17.
The line-of-sight information acquisition unit 11 writes the line-of-sight measurement information, which is supplied from the line-of-sight measurement unit 220 and indicates the coordinate position of the gaze point in the visual field captured image, in the storage unit 17 in correspondence with the time stamp, and stores the information. This time stamp is information indicating in chronological order the order in which visual field images captured in frame units were captured.
The visual field image acquisition unit 12 writes and stores the visual field captured image in units of frames, which is supplied from the visual field imaging device 230, in correspondence with the time stamp in the storage unit 17.

注視点マーカー重畳部13は、記憶部17から視野撮像画像を読み出し、読み出した視野撮像画像における注視点の座標位置に、注視点マーカーの画像を重畳させる。そして、注視点マーカー重畳部13は、注視点マーカーを重畳させた視野撮像画像を記憶部17に対して書き込んで記憶させる(例えば、読み出した視野撮像画像の画像データに上書きする)。 The gaze point marker superimposing unit 13 reads the visual field captured image from the storage unit 17 and superimposes the image of the gaze point marker on the coordinate position of the gaze point in the read visual field captured image. Then, the gaze point marker superimposing unit 13 writes the visual field captured image on which the gaze point marker is superimposed into the storage unit 17 and stores it (for example, overwrites the image data of the read visual field captured image).

頭部姿勢情報取得部14は、姿勢情報取得装置240から供給される頭部姿勢情報を入力し、表示枠表示制御部15に対して出力する。
表示枠表示制御部15は、観察者200の頭部姿勢情報から、観察方向の変化を検出し、画像表示部16の表示画面における表示枠の表示位置を制御する。この表示枠は、視野撮像画像が表示されるサブ画面の枠である。
The head posture information acquisition section 14 inputs the head posture information supplied from the posture information acquisition device 240 and outputs it to the display frame display control section 15 .
The display frame display control section 15 detects a change in the viewing direction from the head posture information of the observer 200, and controls the display position of the display frame on the display screen of the image display section 16. This display frame is a sub-screen frame on which the visual field captured image is displayed.

図3は、観察空間310における観察者の観察方向及び視線の一例を示す概念図である。図3は、観察空間310の上部から見た平面図である。観察空間310には、対象物体340及び対象物体350の各々が配置されている。
観察方向330は、姿勢情報取得装置240から供給される頭部姿勢情報(第1)に基づいて求められる。視野撮像装置230は、観察者200の観察方向330方向の視野の画像を視野撮像画像として撮像する。視線計測部220は、観察者200の視線360を計測し、上記視野撮像画像における注視点の位置座標を求め、視線計測情報として出力する。
FIG. 3 is a conceptual diagram showing an example of the observation direction and line of sight of an observer in the observation space 310. FIG. 3 is a plan view of the observation space 310 seen from above. In the observation space 310, a target object 340 and a target object 350 are arranged.
The observation direction 330 is determined based on the head posture information (first) supplied from the posture information acquisition device 240. The visual field imaging device 230 captures an image of the visual field of the observer 200 in the observation direction 330 as a visual field captured image. The line-of-sight measuring unit 220 measures the line-of-sight 360 of the observer 200, determines the positional coordinates of the point of gaze in the visual field captured image, and outputs the position coordinates as line-of-sight measurement information.

図4は、画像表示部16の表示画面における視野撮像画像が表示される表示枠の表示位置の制御を説明する概念図である。
図4(a)は、図3における観察方向330における視野撮像画像に、注視点マーカー420が重畳された視野撮像画像410を示している。注視点マーカー420は、例えば十字形状のマークであり、対象物体350の画像450に重畳されている。すなわち、観察者200の視線は、対象物体350の方向に向いている。
FIG. 4 is a conceptual diagram illustrating control of the display position of the display frame in which the visual field captured image is displayed on the display screen of the image display unit 16.
FIG. 4A shows a visual field captured image 410 in which a gaze point marker 420 is superimposed on the visual field captured image in the observation direction 330 in FIG. The gaze point marker 420 is, for example, a cross-shaped mark, and is superimposed on the image 450 of the target object 350. That is, the line of sight of the observer 200 is directed toward the target object 350.

図4(b)は、画像表示部16における表示画面500内において、頭部姿勢情報に基づく表示位置に表示された表示枠510内に、図4(a)の視野撮像画像410が表示されている状態を示している。
図4(b)においては、観察者が例えば観察空間310において正面を向いている、ずなわち観察方向が観察者にとって正面である初期状態であるため、表示枠510が表示画面500内の中央に表示されている。
このとき、表示枠表示制御部15は、観察者200が観察している視野の視角と、表示画面500を観察している実験者が視認する表示枠510の視角との各々が同様となるように、それぞれの視角を対応させて表示する。
4(b) shows that the visual field captured image 410 of FIG. 4(a) is displayed within a display frame 510 displayed at a display position based on head posture information on a display screen 500 in the image display unit 16. It shows the state of being.
In FIG. 4B, the initial state is such that the observer is facing forward in the observation space 310, that is, the observation direction is the front for the observer, so that the display frame 510 is located at the center of the display screen 500. is displayed.
At this time, the display frame display control unit 15 controls the display frame display control unit 15 so that the visual angle of the visual field observed by the observer 200 and the visual angle of the display frame 510 viewed by the experimenter observing the display screen 500 are the same. are displayed in correspondence with each viewing angle.

図5は、観察空間310_1における観察者の観察方向及び視線の一例を示す概念図である。図5は、図3と同様に、観察空間310の上部から見た平面図である。観察空間310_1には、図3と同様に、対象物体340及び対象物体350の各々が配置されている。
観察方向330_1は、姿勢情報取得装置240から供給される頭部姿勢情報(第2)に基づいて求められる。視野撮像装置230は、観察者200の観察方向330_1方向の視野の画像を視野撮像画像として撮像する。視線計測部220は、観察者200の視線360_1を計測し、上記視野撮像画像における注視点の位置座標を求め、視線計測情報として出力する。
FIG. 5 is a conceptual diagram showing an example of the observation direction and line of sight of the observer in the observation space 310_1. Similar to FIG. 3, FIG. 5 is a plan view of the observation space 310 seen from above. In the observation space 310_1, a target object 340 and a target object 350 are arranged, as in FIG. 3.
The observation direction 330_1 is determined based on the head posture information (second) supplied from the posture information acquisition device 240. The visual field imaging device 230 captures an image of the visual field of the observer 200 in the observation direction 330_1 as a visual field captured image. The line-of-sight measurement unit 220 measures the line-of-sight 360_1 of the observer 200, determines the positional coordinates of the gaze point in the visual field captured image, and outputs the position coordinates as line-of-sight measurement information.

図6は、画像表示部16の表示画面における視野撮像画像が表示される表示枠の表示位置の制御を説明する概念図である。
図6(a)は、図3における観察方向330_1における視野撮像画像に、注視点マーカー420_1が重畳された視野撮像画像410_1を示している。注視点マーカー420_1は、例えば十字形状のマークであり、対象物体350の画像450に重畳されている。すなわち、観察者200の視線は、図4(a)と同様に、対象物体350の方向に向いている。
FIG. 6 is a conceptual diagram illustrating control of the display position of the display frame in which the visual field captured image is displayed on the display screen of the image display unit 16.
FIG. 6A shows a visual field captured image 410_1 in which a gaze point marker 420_1 is superimposed on the visual field captured image in the observation direction 330_1 in FIG. The gaze point marker 420_1 is, for example, a cross-shaped mark, and is superimposed on the image 450 of the target object 350. That is, the line of sight of the observer 200 is directed toward the target object 350, as in FIG. 4(a).

図6(b)は、画像表示部16における表示画面500内において、頭部姿勢情報に基づく表示位置に表示された表示枠510_1内に、図6(a)の視野撮像画像410_1が表示されている状態を示している。
図6(b)においては、図3の初期状態の位置(及び姿勢)に対して、所定の角度変化量でパン方向(例えば、図5において左方向)に、観察者200が頭部を回転させた頭部の姿勢変化後の状態を示している。
FIG. 6(b) shows that the visual field captured image 410_1 of FIG. 6(a) is displayed within a display frame 510_1 displayed at a display position based on the head posture information on the display screen 500 of the image display unit 16. It shows the state of being.
In FIG. 6(b), the observer 200 rotates his head in the panning direction (for example, to the left in FIG. 5) by a predetermined angle change amount with respect to the initial position (and posture) in FIG. The figure shows the state after the head posture has changed.

このとき、表示枠表示制御部15は、図4(b)の場合と同様に、観察者200が観察している視野の視角と、表示画面500を観察している実験者が視認する表示枠510_1の視角との各々が同様となるように、それぞれの視角を対応させて表示する。また、表示枠表示制御部15は、頭部姿勢情報の示す観察者200の頭の動き(平行移動、回転移動)、すなわち頭部姿勢情報の示す観察方向の変化に対応させ、表示画面500内における表示枠510_1の表示位置を制御する。 At this time, the display frame display control unit 15 determines the viewing angle of the field of view observed by the observer 200 and the display frame visually recognized by the experimenter observing the display screen 500, as in the case of FIG. 4(b). The respective viewing angles are displayed in correspondence so that the viewing angles are the same as those of 510_1. The display frame display control unit 15 also controls the display screen 500 to correspond to the movement (parallel movement, rotational movement) of the observer's 200 head indicated by the head posture information, that is, the change in the observation direction indicated by the head posture information. The display position of the display frame 510_1 is controlled.

例えば、図6(b)の場合、観察者200が頭をパン方向において左方向に所定の角度変化量で回転したことで、観察者200の観察方向が左方向に変化するため、表示枠表示制御部15は、角度変化量に対応させて、表示画面500における表示枠510_1の表示位置を左方向に移動させる。この際、表示枠表示制御部15は、観察者の頭の回転における角度変化量と、表示画面において表示枠510_1を視認する際の実験者の頭の回転における角度変化量とが同等となる表示位置に、表示画面500における表示枠510_1を移動させる。また、観察者200が頭をパン方向において右方向に所定の角度変化量で回転させた場合、観察者200の観察方向が右方向に変化するため、表示枠表示制御部15は、角度変化量に対応させて、表示画面500における表示枠510_1の表示位置を右方向に移動させる。 For example, in the case of FIG. 6(b), when the observer 200 rotates his head to the left in the panning direction by a predetermined angle change amount, the observation direction of the observer 200 changes to the left, so the display frame is displayed. The control unit 15 moves the display position of the display frame 510_1 on the display screen 500 to the left in accordance with the amount of change in angle. At this time, the display frame display control unit 15 displays a display in which the amount of angular change due to the rotation of the observer's head is equal to the amount of angular change due to the rotation of the experimenter's head when viewing the display frame 510_1 on the display screen. The display frame 510_1 on the display screen 500 is moved to the position. Furthermore, when the observer 200 rotates his or her head to the right in the panning direction by a predetermined angle change amount, the viewing direction of the observer 200 changes to the right. In response to this, the display position of the display frame 510_1 on the display screen 500 is moved to the right.

同様に、観察者200が頭をチルト方向において上方向に所定の角度変化量で回転させた場合、観察者200の観察方向が上方向に変化するため、表示枠表示制御部15は、角度変化量に対応させて、表示画面500における表示枠510_1の表示位置を上方向に移動させる。また、観察者200が頭をチルト方向において下方向に所定の角度変化量で回転させた場合、観察者200の観察方向が下方向に変化するため、表示枠表示制御部15は、角度変化量に対応させて、表示画面500における表示枠510_1の表示位置を下方向に移動させる。 Similarly, when the observer 200 rotates his or her head upward in the tilt direction by a predetermined angle change amount, the viewing direction of the observer 200 changes upward, so the display frame display control unit 15 controls the angle change. The display position of the display frame 510_1 on the display screen 500 is moved upward in accordance with the amount. Further, when the observer 200 rotates his or her head downward by a predetermined angle change amount in the tilt direction, the viewing direction of the observer 200 changes downward, so the display frame display control unit 15 controls the angle change amount. In response to this, the display position of the display frame 510_1 on the display screen 500 is moved downward.

また、同様に、観察者200が頭をロール方向において時計回り方向に所定の角度変化量で回転させた場合、観察者200の観察視野が時計回りに変化するため、表示枠表示制御部15は、角度変化量に対応させて、表示画面500における表示枠510_1の表示角度を時計回りに回転させる。また、観察者200が頭をロール方向において反時計周り方向に所定の角度変化量で回転させた場合、観察者200の観察視野が反時計回りに変化するため、表示枠表示制御部15は、角度変化量に対応させて、表示画面500における表示枠510_1の表示角度を反時計回りに回転させる。
これにより、観察者の頭部の回転における角度変換量と、実験者が表示画面500で視認する移動角度とを対応させることができる。このため、表示枠510(図4(b))の表示位置が表示枠510_1(図6(b))の表示位置に変化した際、表示枠内における視野撮像画像が静止しているように、実験者に対して感じさせることができる。
Similarly, when the observer 200 rotates his head clockwise in the roll direction by a predetermined angle change amount, the observation field of the observer 200 changes clockwise, so the display frame display control unit 15 , the display angle of the display frame 510_1 on the display screen 500 is rotated clockwise in accordance with the angle change amount. Further, when the observer 200 rotates his head counterclockwise in the roll direction by a predetermined angle change amount, the observation field of the observer 200 changes counterclockwise, so the display frame display control unit 15 The display angle of the display frame 510_1 on the display screen 500 is rotated counterclockwise in accordance with the amount of change in angle.
Thereby, the amount of angular change in the rotation of the observer's head can be made to correspond to the movement angle visually recognized by the experimenter on the display screen 500. Therefore, when the display position of the display frame 510 (FIG. 4(b)) changes to the display position of the display frame 510_1 (FIG. 6(b)), the visual field captured image within the display frame remains stationary. It can be made to feel for the experimenter.

また、表示枠表示制御部15は、角度変化量に対応させて、この表示枠510_1(図6(b))を表示する座標位置を、予め設定されている座標変換条件により、表示枠510(図4(b))の座標位置から座標変換を行なう。
これにより、観察空間内の視野における観察者の観察するオブジェクトの視角と同様の視角として、表示画面500において実験者が観察する視野撮像画像におけるオブジェクトの視角とを、同様の視角として実験者に視認させ、観察者の観察する視野と直感的に同様の視野として、実験者に対して視野撮像画像を視認させることができる。
In addition, the display frame display control unit 15 changes the coordinate position for displaying the display frame 510_1 (FIG. 6(b)) according to the angle change amount according to preset coordinate conversion conditions. Coordinate transformation is performed from the coordinate position shown in FIG. 4(b)).
This allows the experimenter to visually recognize the visual angle of the object in the visual field captured image observed by the experimenter on the display screen 500 as the same visual angle as the visual angle of the object observed by the observer in the visual field in the observation space. This allows the experimenter to visually recognize the visual field captured image as a visual field that is intuitively similar to the visual field observed by the observer.

また、表示枠表示制御部15は、表示画面500における表示枠510_1の表示位置を移動させる際、角度変化量に対応させて、図6(b)に示すように、表示枠510_1の中央から遠い方の辺の長さを長くし、近い方の辺の長さを短くする(言い換えると、表示画面500の各辺と対向する辺における近いほうの辺の長さを長くし、遠い方の辺の長さを短くする)ために、表示枠510_1に対する台形補正などの射影変換を行なっても良い。 In addition, when moving the display position of the display frame 510_1 on the display screen 500, the display frame display control unit 15 moves the display frame 510_1 further away from the center of the display frame 510_1 as shown in FIG. The length of one side is made longer and the length of the nearer side is made shorter. In order to shorten the length of the display frame 510_1, projective transformation such as trapezoidal correction may be performed on the display frame 510_1.

この射影変換によって、表示画面500を観察する実験者に対して、表示枠510_1内のオブジェクトの形状を一定に保つことができ、かつ表示画面500における観察者200の視野に対応する表示枠510_1の遠近感を、表示画面500において実験者に対して与えることができる。 Through this projective transformation, the shape of the object within the display frame 510_1 can be kept constant for the experimenter observing the display screen 500, and the shape of the object within the display frame 510_1 corresponding to the visual field of the observer 200 on the display screen 500 can be kept constant. A sense of perspective can be provided to the experimenter on the display screen 500.

すなわち、表示画面500において移動した表示枠510_1内のオブジェクトの見かけ上の形状を、実験者に対して正面で観察した際と同様の形状として視認させたい場合、表示枠510_1における表示画面500の中央から離れている辺ほど長くする射影変換を行なう必要がある。上述した射影変換を行なわないと 表示枠510_1内の視野撮像画像におけるオブジェクトが同じ形状として実験者に視認されない。
このため、表示枠表示制御部15は、図6(b)に示すように、表示枠510_1における対向する辺において、表示画面500の中央から遠い方の辺を、近い方の辺に比較して長くする射影変換を行なう。
That is, if you want the experimenter to see the apparent shape of the object in the display frame 510_1 that has moved on the display screen 500 as the same shape as when observing it from the front, the center of the display screen 500 in the display frame 510_1 It is necessary to perform a projective transformation to make the edges longer as they are further away from . Unless the above-mentioned projective transformation is performed, the objects in the visual field captured images within the display frame 510_1 will not be visually recognized by the experimenter as having the same shape.
Therefore, as shown in FIG. 6(b), the display frame display control unit 15 compares the side far from the center of the display screen 500 with the side near the opposite sides of the display frame 510_1. Perform projective transformation to lengthen.

表示枠表示制御部15は、観察者200が所定の時間を超えて、頭部の移動及び姿勢を変化、すなわち観察方向を変化させない場合、予め設定した移動速度により、表示枠510を表示画面500の中心に徐々に戻し、表示画面500の表示枠510の観察空間における視野撮像画像を、観察者200の頭部の頭部姿勢情報の初期値における観察方向の視野とするリセット処理(移動量及び角度変化量を0とする処理)を行なう。
これにより、制限された表示画面500における表示枠510の配置位置の移動範囲を実質的に広げ、観察空間内における観察者200の観察方向の変化を、実験者が制限された表示画面500内において、表示枠510が表示画面500からはみ出すことを防止し、有効に観察者の観察方向及び視野の観察を行なうことができる。
If the observer 200 does not change the movement and posture of the head, that is, does not change the observation direction, for a predetermined period of time, the display frame display control unit 15 changes the display frame 510 to the display screen 500 at a preset movement speed. is gradually returned to the center of the display frame 510 of the display screen 500, and the field of view captured image in the observation space of the display frame 510 is reset to the field of view in the observation direction at the initial value of the head posture information of the head of the observer 200 (the amount of movement and Processing to set the angle change amount to 0) is performed.
As a result, the movement range of the display frame 510 on the limited display screen 500 is substantially expanded, and the experimenter can change the observation direction of the observer 200 within the limited display screen 500 within the limited display screen 500. , the display frame 510 can be prevented from protruding from the display screen 500, and the viewer can effectively observe the viewing direction and field of view.

また、表示枠表示制御部15は、観察者200の頭部の角度変化量と、表示画面500における表示枠510の配置位置の移動角とを同様とせずに、表示画面500における実験者による表示枠510の視角、及び表示画面500を観察する実験者の表示枠510の視認性などを考慮し、所定の比率で任意に増減する構成としても良い。 The display frame display control unit 15 also controls the experimenter's display on the display screen 500 without making the amount of change in the angle of the head of the observer 200 the same as the movement angle of the arrangement position of the display frame 510 on the display screen 500. In consideration of the viewing angle of the frame 510 and the visibility of the display frame 510 by an experimenter observing the display screen 500, the number may be arbitrarily increased or decreased at a predetermined ratio.

図7は、本実施形態による観察状態表示システム1の視線計測処理の動作例を説明するフローチャートである。
ステップS101:
視野画像取得部12は、視野撮像装置230から所定の周期で供給される視野撮像画像データを入力する。そして、視野画像取得部12は、入力した視野撮像画像データにタイムスタンプを付与して、記憶部17に書き込んで記憶させる。
FIG. 7 is a flowchart illustrating an example of the operation of the line-of-sight measurement process of the observation state display system 1 according to the present embodiment.
Step S101:
The visual field image acquisition unit 12 receives visual field captured image data supplied from the visual field imaging device 230 at a predetermined period. Then, the visual field image acquisition unit 12 adds a time stamp to the input visual field captured image data, and writes it into the storage unit 17 for storage.

ステップS102:
頭部姿勢情報取得部14は、視野画像取得部12が視野撮像画像データを入力したタイミングにおいて、姿勢情報取得装置240から供給される、観察者の頭部の動きを計測した頭部姿勢情報を入力する。そして、頭部姿勢情報取得部14は、入力した頭部姿勢情報を上記タイムスタンプに対応させ、記憶部17に書き込んで記憶させる。
Step S102:
The head posture information acquisition unit 14 receives head posture information obtained by measuring the movement of the observer's head and is supplied from the posture information acquisition device 240 at the timing when the visual field image acquisition unit 12 inputs the visual field captured image data. input. Then, the head posture information acquisition section 14 associates the input head posture information with the above-mentioned time stamp, and writes it into the storage section 17 for storage.

ステップS103:
視線情報取得部11は、視野画像取得部12が視野撮像画像データを入力したタイミングにおいて、視線計測部220から供給される視線計測情報を入力する。そして、視線情報取得部11は、入力した視線計測情報を上記タイムスタンプに対応させ、記憶部17に書き込んで記憶させる。
Step S103:
The line-of-sight information acquisition unit 11 inputs the line-of-sight measurement information supplied from the line-of-sight measurement unit 220 at the timing when the visual field image acquisition unit 12 inputs the visual field captured image data. Then, the line-of-sight information acquisition unit 11 associates the input line-of-sight measurement information with the above-mentioned time stamp, and writes it into the storage unit 17 for storage.

ステップS104:
頭部姿勢情報取得部14は、新たに入力された頭部姿勢情報が、上述したタイムスタンプにおいて直前に入力した頭部姿勢情報に比較して移動量及び角度変化量の各々が変化したか否かの判定を行う。
このとき、頭部姿勢情報取得部14は、入力された頭部姿勢情報が、直前に入力した頭部姿勢情報に比較して移動量及び角度変化量の各々が変化した場合、処理をステップS104へ進める。一方、頭部姿勢情報取得部14は、入力された頭部姿勢情報が、直前に入力した頭部姿勢情報に比較して移動量及び角度変化量の各々が変化していない場合、処理をステップS106へ進める。
Step S104:
The head posture information acquisition unit 14 determines whether the newly input head posture information has changed in the amount of movement and the amount of angular change compared to the head posture information input immediately before at the above-mentioned timestamp. Make a judgment.
At this time, if the input head posture information has changed in the amount of movement and the amount of angular change compared to the head posture information input immediately before, the head posture information acquisition unit 14 executes the process in step S104. Proceed to. On the other hand, if the input head posture information has not changed in the amount of movement and the amount of angular change compared to the head posture information input immediately before, the head posture information acquisition unit 14 executes the process in step Proceed to S106.

ステップS105:
表示枠表示制御部15は、新たな移動量及び角度変化量の各々に対応して、表示枠510の表示画面500内における表示位置を求め、当該表示位置に対応させて表示枠510の形状の射影変換を行なう。
Step S105:
The display frame display control unit 15 determines the display position of the display frame 510 within the display screen 500 in accordance with each new movement amount and angle change amount, and changes the shape of the display frame 510 in accordance with the display position. Perform projective transformation.

ステップS106:
注視点マーカー重畳部13は、記憶部17から最新のタイムスタンプの視野撮像画像データを読み出し、視線計測データに対応した座標位置に、観察者の注視点を示す注視点マーカーを重畳させる(例えば、図4(a)及び図6(a))。
そして、注視点マーカー重畳部13は、注視点マーカーを重畳した視野撮像画像データを、タイムスタンプに対応させて、記憶部17に書き込んで記憶させる。
Step S106:
The gaze point marker superimposing unit 13 reads the visual field captured image data with the latest time stamp from the storage unit 17, and superimposes a gaze point marker indicating the observer's gaze point on the coordinate position corresponding to the gaze measurement data (for example, FIGS. 4(a) and 6(a)).
Then, the point-of-gaze marker superimposing section 13 writes and stores the field-of-view captured image data on which the point-of-gaze marker is superimposed in the storage section 17 in correspondence with the time stamp.

ステップS107:
表示枠表示制御部15は、注視点マーカーが重畳された視野撮像画像データを記憶部17から読み出し、表示枠510と同様な射影変換を行い、表示枠510に包含された形状に変換する。
そして、表示枠表示制御部15は、視野撮像画像データが嵌め込まれた表示枠510を、表示画面500における、すでに求めた表示位置に表示させる(例えば、図4(b)及び図6(b))。このとき、表示枠表示制御部15は、表示枠510が表示された表示画面500の表示画像データを、最新のタイムスタンプに対応させて記憶部17に書き込んで記憶させる。
Step S107:
The display frame display control unit 15 reads the visual field captured image data on which the gaze point marker is superimposed from the storage unit 17, performs the same projective transformation as the display frame 510, and converts it into a shape included in the display frame 510.
Then, the display frame display control unit 15 displays the display frame 510 in which the visual field captured image data is fitted at the already determined display position on the display screen 500 (for example, as shown in FIG. 4(b) and FIG. 6(b)). ). At this time, the display frame display control unit 15 writes and stores the display image data of the display screen 500 on which the display frame 510 is displayed in the storage unit 17 in correspondence with the latest time stamp.

ステップS108:
観察状態表示装置10は、実験者が計測処理を終了する入力を、不図示の入力手段から行ったか否かの検出を行う。このとき、観察状態表示装置10は、計測処理を終了する入力が行われた場合、処理を終了し、一方、計測処理を終了する入力が行われていない場合、処理をステップS101へ戻す。
Step S108:
The observation state display device 10 detects whether or not the experimenter has inputted an input to end the measurement process from an input means (not shown). At this time, the observation state display device 10 ends the process if an input to end the measurement process is made, whereas if an input to end the measurement process is not made, the process returns to step S101.

上述したように、本実施形態は、実験者が観察者の観察空間における対象物体に対する興味を解析する際、対象物を観察する観察者の挙動において、表示枠510が表示画面500内で観察者の頭部の動き(観察方向の変化)に対応して変化するため、表示画面500を観察している実験者が、観察方向を変えるための観察者の頭部の移動及び姿勢の変化(対象物を観察する観察者の状態)を直感的に把握することができる。 As described above, in this embodiment, when an experimenter analyzes an observer's interest in a target object in an observation space, the display frame 510 is set to Because the experimenter who is observing the display screen 500 changes in response to the movement of the observer's head (change in the observation direction), the experimenter who is observing the display screen 500 can change the observer's head movement and posture change (change in the observation direction) to change the observation direction. It is possible to intuitively grasp the state of an observer observing an object.

これにより、本実施形態によれば、従来においては対象物に対する観察者の視線方向の表示しか行えないのに比較し、本実施形態によれば、観察者が興味を持った対象物を観察するとき、観察者がその対象物に対して視線を先に向けた後に頭部をその対象物の方向(観察方向)に向けるか、観察者がその対象物に対して頭部の方向(観察方向)を先に向けた後に視線をその対象物に向けるかなどの観察方向と視線との詳細な関連を解析するための情報をビジュアルに直感的に取得することができる。 As a result, according to the present embodiment, compared to conventional methods that can only display the direction of the observer's line of sight with respect to the object, according to the present embodiment, the observer can observe the object in which he is interested. When the observer first directs his or her line of sight toward the object, then turns the head in the direction of the object (observation direction), or the observer turns the head toward the object (observation direction). ), it is possible to visually and intuitively obtain information for analyzing the detailed relationship between the observation direction and the line of sight, such as whether the user directs his or her line of sight to the object after first pointing at the object.

また、本実施形態は、実験者が、観察者の観察方向の変化に対応した表示枠510の動きを観察、すなわち観察者の観察している視野と同様の視野撮像画像をビジュアルに観察し、実験者が自身の頭部を動かしている感覚を得ることができる。
このため、本実施形態によれば、従来のように、観察者の観察方向によらずに視野撮像画像が表示される表示枠が固定されて、表示枠のなかの画像が大きく変化することによる映像酔いを抑制することができ、実験者による観察者の頭部の動き及び注視点の変化の観察を容易とすることができる。
In addition, in this embodiment, the experimenter observes the movement of the display frame 510 corresponding to a change in the observation direction of the observer, that is, visually observes a field-of-view captured image similar to the field of view observed by the observer, The experimenter can feel as if they are moving their own head.
Therefore, according to the present embodiment, the display frame in which the visual field captured image is displayed is fixed regardless of the observer's observation direction, and the image within the display frame changes greatly. Image sickness can be suppressed, and the experimenter can easily observe movements of the observer's head and changes in the gaze point.

また、上述した実施形態に置いては、観察者の頭部の移動及び角度変化量を加速度センサーやジャイロセンサーにより取得する構成として姿勢情報取得装置240を説明したが、観察者を撮像した動画像の撮像画像データから観察者の頭部の動きを解析して、頭部の移動量及び角度変化量を求める構成としても良い。
このとき、頭部姿勢情報は、観察空間において、観察者を観察するために設けられた撮像装置から、観察者を撮像した動画像のデータとして観察状態表示装置10に供給される。そして、頭部姿勢情報取得部14は、上記撮像装置から供給される観察者が撮像された動画像から、観察者の頭部の画像を画像処理により抽出し、この頭部の画像を動きを解析することにより、観察者の頭部の移動量及び角度変化量を検出する。
Furthermore, in the above-described embodiment, the posture information acquisition device 240 has been described as having a configuration that acquires the movement and angular change amount of the observer's head using an acceleration sensor or a gyro sensor. A configuration may be adopted in which the movement of the observer's head is analyzed from the captured image data to determine the amount of movement and angle change of the head.
At this time, the head posture information is supplied to the observation state display device 10 as data of a moving image of the observer from an imaging device provided for observing the observer in the observation space. Then, the head posture information acquisition unit 14 extracts an image of the observer's head from the moving image of the observer supplied from the imaging device through image processing, and calculates the movement of the head image. Through analysis, the amount of movement and angle change of the observer's head is detected.

また、視線計測部220は、観察空間において、観察者の眼を観察するために複数配置された近赤外線照明及び撮像装置により得られた画像から、観察者の視線の変化を検出して、視野撮像画像と対応させた視線計測情報を取得する構成としても良い。さらに、観察空間において、観察者の眼を観察するために複数配置された撮像装置から得られる画像から、観察者の視線の検知に重要な目頭や目尻、瞳など目の周囲の特徴を抽出し、観察方向の視野における視線の角度を算出し、視線を求める構成としても良い。 In addition, the line of sight measurement unit 220 detects changes in the line of sight of the observer from images obtained by a plurality of near-infrared illumination and imaging devices arranged for observing the eyes of the observer in the observation space, and detects changes in the line of sight of the observer. A configuration may also be adopted in which line of sight measurement information associated with a captured image is acquired. Furthermore, features around the eyes, such as the inner and outer corners of the eyes and pupils, which are important for detecting the observer's line of sight, are extracted from images obtained from multiple imaging devices arranged to observe the observer's eyes in the observation space. , the angle of the line of sight in the field of view in the observation direction may be calculated to determine the line of sight.

また、頭部姿勢情報取得部14の他の構成として、姿勢情報取得装置240にデプスカメラ等を用い、デプスカメラから供給されるデプスマップにより観察者の頭部の3次元形状を抽出し、この頭部の3次元形状の変化を解析して、観察者の頭部の移動量及び角度変化量を検出する構成を用いても良い。
上述したように、観察者の頭部の変化を検出することができる構成であれば、頭部姿勢情報を得るための姿勢情報取得装置240として用いても良い。同様に、観察空間における観察者の視線の方向の変化を検出することができる構成であれば、眼電位計測装置などを視線計測情報を得るための視線計測部220として用いても良い。
In addition, as another configuration of the head posture information acquisition unit 14, a depth camera or the like is used as the posture information acquisition device 240, and the three-dimensional shape of the observer's head is extracted from the depth map supplied from the depth camera. A configuration may be used in which the amount of movement and angular change of the observer's head is detected by analyzing changes in the three-dimensional shape of the head.
As described above, any configuration that can detect changes in the observer's head may be used as the posture information acquisition device 240 for obtaining head posture information. Similarly, an electro-oculography measuring device or the like may be used as the line-of-sight measurement unit 220 for obtaining line-of-sight measurement information, as long as it is configured to be able to detect changes in the direction of the observer's line of sight in the observation space.

また、観察状態表示システム1の他の構成として、観察者情報取得装置20を、観察状態表示装置10の内部または外部の記憶装置に置き換えても良い。この場合、当該記憶装置には予め観察者の視線、頭部姿勢及び視野画像それぞれの時系列情報が記憶されており、視線情報取得部11が視線の時系列情報を、頭部姿勢情報取得部が頭部姿勢の時系列情報を、視野画像取得部が視野画像の時系列情報を、それぞれ当該記憶装置から同期して逐次読み出す。これにより、観察者情報取得装置20を用いた場合と同様に観察者の状態が画像表示部16に表示される。
また、当該記憶装置が観察状態表示装置10の内部にある場合、当該記憶装置は記憶部17であっても良い。
また、当該記憶装置が観察状態表示装置10の外部にある場合、当該記憶装置はインターネット等のネットワークを介して観察状態表示装置10と接続されていても良い。
Further, as another configuration of the observation state display system 1, the observer information acquisition device 20 may be replaced with a storage device inside or outside the observation state display device 10. In this case, the storage device stores in advance time-series information of the observer's line of sight, head posture, and visual field image, and the line-of-sight information acquisition unit 11 receives the line-of-sight time-series information from the head posture information acquisition unit. The time-series information of the head posture is read out by the visual field image acquisition unit, and the time-series information of the visual field images is sequentially read out by the visual field image acquisition unit in synchronization with each other from the storage device. Thereby, the condition of the observer is displayed on the image display section 16 in the same way as when the observer information acquisition device 20 is used.
Further, when the storage device is inside the observation state display device 10, the storage device may be the storage section 17.
Further, when the storage device is located outside the observation state display device 10, the storage device may be connected to the observation state display device 10 via a network such as the Internet.

また、本実施形態においては、観察者の観察対象となる観察空間を実空間として説明したが、HMDを装着することにより観察する、CG(Computer Graphics)やVR(Virtual Reality)などの仮想空間において、この仮想空間内における観察者の観察方向及び注視点の解析を行なう構成としても用いることができる。この場合、表示画面500に仮想空間の画像が表示され、観察者の観察方向における視野撮像画像を包含する位置に表示枠510が表示される。 In addition, in this embodiment, the observation space that is the object of observation by the observer is described as a real space, but in a virtual space such as CG (Computer Graphics) or VR (Virtual Reality) that is observed by wearing an HMD. , it can also be used as a configuration for analyzing the observation direction and gaze point of the observer in this virtual space. In this case, an image of the virtual space is displayed on the display screen 500, and a display frame 510 is displayed at a position that includes the visual field captured image in the observation direction of the observer.

さらに、本実施形態においては、実験者が観察者の観察方向及び注視点の各々を解析するために観察する表示画面500を2次元平面(図4(b)及び図6(b)など)として説明したが、表示枠510の移動範囲を拡大するため、表示枠510を重畳して配置する表示画面として、2次元平面形状ではなく、円筒形や球体形などの曲面形状を有する表示画面を用いても良い。 Furthermore, in this embodiment, the display screen 500 that the experimenter observes in order to analyze each of the observer's observation direction and gaze point is a two-dimensional plane (such as FIG. 4(b) and FIG. 6(b)). As described above, in order to expand the movement range of the display frame 510, a display screen having a curved shape such as a cylinder or a sphere, instead of a two-dimensional planar shape, is used as the display screen on which the display frame 510 is arranged in an overlapping manner. It's okay.

なお、本発明における観察状態表示装置10の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより観察状態表示における観察者の観察方向及び注視点の計測処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。
また、「コンピュータシステム」は、ホームページ提供環境(あるいは表示環境)を備えたWWWシステムも含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。
Note that a program for realizing the functions of the observation status display device 10 according to the present invention is recorded on a computer-readable recording medium, and the program recorded on the recording medium is loaded into a computer system and executed to perform observation. Measurement processing of the observer's observation direction and gaze point in the status display may also be performed. Note that the "computer system" herein includes hardware such as an OS and peripheral devices.
Furthermore, the term "computer system" includes a WWW system equipped with a home page providing environment (or display environment). Furthermore, the term "computer-readable recording medium" refers to portable media such as flexible disks, magneto-optical disks, ROMs, and CD-ROMs, and storage devices such as hard disks built into computer systems. Furthermore, "computer-readable recording medium" refers to volatile memory (RAM) inside a computer system that serves as a server or client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. This also includes programs that are retained for a certain period of time.

また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。 Further, the program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in a transmission medium. Here, the "transmission medium" that transmits the program refers to a medium that has a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line. Moreover, the above program may be for realizing a part of the above-mentioned functions. Furthermore, it may be a so-called difference file (difference program) that can realize the above-mentioned functions in combination with a program already recorded in the computer system.

1…観察状態表示システム
10…観察状態表示装置
11…視線情報取得部
12…視野画像取得部
13…注視点マーカー重畳部
14…頭部姿勢情報取得部
15…表示枠表示制御部
16…画像表示部
17…記憶部
20…観察者情報取得装置
210…頭部取付治具
220…視線計測部
230…視野撮像装置
240…姿勢情報取得装置
1... Observation state display system 10... Observation state display device 11... Line of sight information acquisition section 12... Visual field image acquisition section 13... Gaze point marker superimposition section 14... Head posture information acquisition section 15... Display frame display control section 16... Image display Part 17...Storage unit 20...Observer information acquisition device 210...Head mounting jig 220...Line of sight measurement unit 230...Visual field imaging device 240...Posture information acquisition device

Claims (9)

実空間における観察者の観察方向の視野の画像を視野撮像画像として表示し、実験者が観察する表示画面を有する画像表示部を備える観察状態表示システムであって、
前記視野撮像画像を取得する視野画像取得部と、
前記観察者の頭部の姿勢である頭部姿勢を取得する頭部姿勢情報取得部と、
前記視野撮像画像が表示される表示枠の位置を前記頭部姿勢に対応させて、実験者の表示画面内で移動させる表示枠表示制御部と
を備えることを特徴とする観察状態表示システム。
An observation state display system comprising an image display unit having a display screen for displaying an image of the field of view in the observation direction of an observer in real space as a field-of-view captured image and for observation by an experimenter,
a visual field image acquisition unit that acquires the visual field captured image;
a head posture information acquisition unit that acquires a head posture that is a head posture of the observer;
An observation state display system comprising: a display frame display control unit that moves a position of a display frame in which the visual field captured image is displayed within a display screen of an experimenter in accordance with the head posture.
表示枠表示制御部が、
前記表示画面内における前記表示枠の移動角を、頭部姿勢の姿勢角の変化量に対応させて、当該表示枠を移動させる
ことを特徴とする請求項1に記載の観察状態表示システム。
The display frame display control section is
The observation state display system according to claim 1, wherein the display frame is moved by making a movement angle of the display frame within the display screen correspond to an amount of change in a posture angle of a head posture.
表示枠表示制御部が、
前記移動角の方向及び大きさの各々に対応させて、前記表示枠及び当該表示枠内の前記視野撮像画像に対する射影変換を行なう
ことを特徴とする請求項2に記載の観察状態表示システム。
The display frame display control section is
The observation state display system according to claim 2, wherein projective transformation is performed on the display frame and the visual field captured image within the display frame in correspondence with each of the direction and magnitude of the movement angle.
前記観察者の視線の方向を計測する視線計測部と、
当該視線の方向に対応した注視点の位置を示す注視点マーカーを、前記視野撮像画像に重畳させて表示する注視点マーカー表示部と
をさらに備えることを特徴とする請求項1から請求項3のいずれか一項に記載の観察状態表示システム。
a line-of-sight measurement unit that measures the direction of the observer's line of sight;
Claims 1 to 3, further comprising: a gaze point marker display unit that displays a gaze point marker indicating the position of the gaze point corresponding to the direction of the line of sight, superimposed on the visual field captured image. Observation status display system according to any one of the items.
前記頭部姿勢情報取得部が、
前記観察者の頭部に所定の装具により取り付けられており、前記観察者の頭部姿勢における平行移動及び回転移動の各々を計測する加速度センサーまたは角速度センサーのいずれかまたは両方が設けられている
ことを特徴とする請求項1から請求項4のいずれか一項に記載の観察状態表示システム。
The head posture information acquisition unit,
Either or both of an acceleration sensor or an angular velocity sensor is attached to the observer's head with a predetermined equipment and measures each of parallel and rotational movement in the observer's head posture. The observation state display system according to any one of claims 1 to 4, characterized by:
前記観察者が観察を行なう観察空間に設けられた撮像装置をさらに備え、
前記頭部姿勢情報取得部が、前記撮像装置の撮像する前記観察者の動画像から、当該観察者の頭部姿勢を検出する
ことを特徴とする請求項1から請求項4のいずれか一項に記載の観察状態表示システム。
further comprising an imaging device provided in an observation space where the observer performs observation,
Any one of claims 1 to 4, wherein the head posture information acquisition unit detects the head posture of the observer from a moving image of the observer captured by the imaging device. Observation status display system described in .
前記観察者の頭部に所定の装具により、当該頭部における眼の位置の近傍における、前記観察者の視野が撮像可能な位置に取り付けられ、前記視野撮像画像を撮像する視野撮像装置をさらに備え、
前記視野画像取得部が、前記視野撮像装置から前記視野撮像画像を取得する
ことを特徴とする請求項1から請求項5のいずれか一項に記載の観察状態表示システム。
The method further includes a visual field imaging device that is attached to the observer's head by a predetermined equipment at a position where the visual field of the observer can be imaged near the position of the eye on the head, and that captures the visual field image. ,
The observation state display system according to any one of claims 1 to 5, wherein the visual field image acquisition unit acquires the visual field captured image from the visual field imaging device.
実空間における観察者の観察方向の視野の画像を視野撮像画像として表示し、実験者が観察する表示画面を有する画像表示部を備える観察状態表示システムにおける観察状態表示方法であり、
視野画像取得部が、前記視野撮像画像を取得する視野画像取得過程と、
頭部姿勢情報取得部が、前記観察者の頭部の姿勢である頭部姿勢を取得する頭部姿勢検出過程と、
表示枠表示制御部が、前記視野撮像画像が表示される表示枠の位置を前記頭部姿勢に対応させて、実験者の表示画面内で移動させる表示枠表示制御過程と
を含むことを特徴とする観察状態表示方法。
An observation state display method in an observation state display system comprising an image display unit having a display screen for displaying an image of the field of view in the observation direction of an observer in real space as a field-of-view captured image, and for an experimenter to observe,
a visual field image acquisition step in which the visual field image acquisition unit acquires the visual field captured image ;
a head posture detection step in which the head posture information acquisition unit acquires a head posture that is a head posture of the observer;
and a display frame display control step in which the display frame display control unit moves the position of the display frame in which the visual field captured image is displayed within the experimenter's display screen in correspondence with the head posture. How to display observation status.
実空間における観察者の観察方向の視野の画像を視野撮像画像として表示し、実験者が観察する表示画面を有する画像表示部を備える観察状態表示システムの動作をコンピュータに実行させるプログラムであり、
前記コンピュータを、
前記視野撮像画像を取得する視野画像取得手段、
前記観察者の頭部の姿勢である頭部姿勢を取得する頭部姿勢検出手段、
前記視野撮像画像が表示される表示枠の位置を前記頭部姿勢に対応させて、実験者の表示画面内で移動させる表示枠表示制御手段
として機能させるためのプログラム。
A program that causes a computer to execute an operation of an observation state display system that displays an image of the visual field of an observer in the observation direction in real space as a visual field captured image, and includes an image display unit having a display screen for observation by an experimenter,
The computer,
visual field image acquisition means for acquiring the visual field captured image;
head posture detection means for acquiring a head posture that is the posture of the observer's head;
A program for functioning as a display frame display control means for moving a position of a display frame in which the visual field captured image is displayed within a display screen of an experimenter in correspondence with the head posture.
JP2019077697A 2019-04-16 2019-04-16 Observation status display system, observation status display method and program Active JP7342409B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019077697A JP7342409B2 (en) 2019-04-16 2019-04-16 Observation status display system, observation status display method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019077697A JP7342409B2 (en) 2019-04-16 2019-04-16 Observation status display system, observation status display method and program

Publications (2)

Publication Number Publication Date
JP2020177066A JP2020177066A (en) 2020-10-29
JP7342409B2 true JP7342409B2 (en) 2023-09-12

Family

ID=72936182

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019077697A Active JP7342409B2 (en) 2019-04-16 2019-04-16 Observation status display system, observation status display method and program

Country Status (1)

Country Link
JP (1) JP7342409B2 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010061452A (en) 2008-09-04 2010-03-18 Mobile Business Promote:Kk Terminal apparatus, information processing method, and program
JP2012146199A (en) 2011-01-13 2012-08-02 Nippon Steel Corp Sight line position detection device, sight line position detection method, and computer program
WO2014077046A1 (en) 2012-11-13 2014-05-22 ソニー株式会社 Image display device and image display method, mobile body device, image display system, and computer program
JP2014149794A (en) 2013-02-04 2014-08-21 Tokai Univ Visual line analysis device
WO2016017245A1 (en) 2014-07-31 2016-02-04 ソニー株式会社 Information processing device, information processing method, and image display system
JP2016191845A (en) 2015-03-31 2016-11-10 ソニー株式会社 Information processor, information processing method and program
US20180081178A1 (en) 2016-09-22 2018-03-22 Apple Inc. Predictive, foveated virtual reality system

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0449943A (en) * 1990-06-14 1992-02-19 A T R Shichiyoukaku Kiko Kenkyusho:Kk Eye ball motion analyzer
JPH06189906A (en) * 1992-12-26 1994-07-12 Nissan Motor Co Ltd Visual axial direction measuring device
JP3444935B2 (en) * 1993-08-20 2003-09-08 松下電器産業株式会社 Image generator

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010061452A (en) 2008-09-04 2010-03-18 Mobile Business Promote:Kk Terminal apparatus, information processing method, and program
JP2012146199A (en) 2011-01-13 2012-08-02 Nippon Steel Corp Sight line position detection device, sight line position detection method, and computer program
WO2014077046A1 (en) 2012-11-13 2014-05-22 ソニー株式会社 Image display device and image display method, mobile body device, image display system, and computer program
JP2014149794A (en) 2013-02-04 2014-08-21 Tokai Univ Visual line analysis device
WO2016017245A1 (en) 2014-07-31 2016-02-04 ソニー株式会社 Information processing device, information processing method, and image display system
JP2016191845A (en) 2015-03-31 2016-11-10 ソニー株式会社 Information processor, information processing method and program
US20180081178A1 (en) 2016-09-22 2018-03-22 Apple Inc. Predictive, foveated virtual reality system

Also Published As

Publication number Publication date
JP2020177066A (en) 2020-10-29

Similar Documents

Publication Publication Date Title
US10133073B2 (en) Image generation apparatus and image generation method
KR100911066B1 (en) Image display system, image display method and recording medium
US7830334B2 (en) Image displaying method and apparatus
US8633871B2 (en) Image processing apparatus and image processing method
JP5869712B1 (en) Head-mounted display system and computer program for presenting a user's surrounding environment in an immersive virtual space
EP3336848A1 (en) Method for operating a medical imaging device and medical imaging device
TW201911133A (en) Controller tracking for multiple degrees of freedom
JP2000102036A (en) Composite actual feeling presentation system, composite actual feeling presentation method, man-machine interface device and man-machine interface method
JP2013258614A (en) Image generation device and image generation method
JP2004233334A (en) Method for measuring position and orientation
JP2013179397A5 (en)
US10386633B2 (en) Virtual object display system, and display control method and display control program for the same
JP6690622B2 (en) Information processing apparatus, information processing system, information processing method, and program
JP2009087161A (en) Image processor and image processing method
JP7342409B2 (en) Observation status display system, observation status display method and program
LT6599B (en) Mobile virtual reality system for carrying out subjective visual vertical test
KR100520050B1 (en) Head mounted computer interfacing device and method using eye-gaze direction
He et al. Sensor-fusion based augmented-reality surgical navigation system
JP4217661B2 (en) Image processing method and image processing apparatus
KR20180060403A (en) Control apparatus for drone based on image
JP6975001B2 (en) Tilt measuring device and tilt measuring method
JP7175715B2 (en) Information processing device, information processing method and program
JP2015201734A (en) Image processing system, control method of the same, and program
JP5522799B2 (en) Gaze position estimation system and gaze position estimation program
JP6876639B2 (en) Display control device, display control method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220323

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221026

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230407

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230801

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230814

R150 Certificate of patent or registration of utility model

Ref document number: 7342409

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150