JP2017068818A - Device, method, and program for forming images - Google Patents

Device, method, and program for forming images Download PDF

Info

Publication number
JP2017068818A
JP2017068818A JP2016044440A JP2016044440A JP2017068818A JP 2017068818 A JP2017068818 A JP 2017068818A JP 2016044440 A JP2016044440 A JP 2016044440A JP 2016044440 A JP2016044440 A JP 2016044440A JP 2017068818 A JP2017068818 A JP 2017068818A
Authority
JP
Japan
Prior art keywords
image
frequency
display
area
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016044440A
Other languages
Japanese (ja)
Inventor
篤 猪俣
Atsushi Inomata
篤 猪俣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Colopl Inc
Original Assignee
Colopl Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Colopl Inc filed Critical Colopl Inc
Priority to JP2016044440A priority Critical patent/JP2017068818A/en
Publication of JP2017068818A publication Critical patent/JP2017068818A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To display additional information in an area not often viewed by a user.SOLUTION: An image forming device comprises; image forming means for forming an image to be displayed on a display; frequency statistical means configured to produce statistical data based on a frequency at which each area of the image being displayed on the display is viewed by a user; low frequency area identification means configured to identify an area of the image with a frequency lower than a threshold as a low frequency area based on the statistical data; additional image forming means configured to form an additional image to be superimposed on the image in the low frequency area; and an image output means for outputting the image and the additional image to the display.SELECTED DRAWING: Figure 6

Description

本発明は、画像生成装置、画像生成方法、及び画像生成プログラムに関する。   The present invention relates to an image generation apparatus, an image generation method, and an image generation program.

コンテンツに重畳して付加的な情報を表示する技術が知られている。例えば、特許文献1では、コンテンツの特性に応じて定まる表示領域に付加的な情報を表示している。   A technique for displaying additional information superimposed on content is known. For example, in Patent Document 1, additional information is displayed in a display area determined according to content characteristics.

特許第5465620号公報Japanese Patent No. 5465620

ユーザがあまり見ない領域に付加的な情報を表示することで、新たなユーザ体験を創出できる可能性がある。   Displaying additional information in areas that the user does not see often may create a new user experience.

本発明は、上記の点に鑑みてなされたものであり、その目的の1つは、ユーザがあまり見ない領域に付加的な情報を表示することを可能にする画像生成装置、画像生成方法、及び画像生成プログラムを提供することにある。   The present invention has been made in view of the above points, and one of the purposes thereof is an image generation apparatus, an image generation method, and an image generation apparatus that allow additional information to be displayed in an area that a user does not often see. And providing an image generation program.

上述した課題を解決するために、本発明の一態様は、ディスプレイに表示するための画像を生成する画像生成手段と、ユーザが前記ディスプレイに表示された前記画像の各部分を見る頻度に基づく統計データを作成する頻度統計手段と、前記統計データに基づいて、前記頻度が閾値を下回っている前記画像内のエリアを低頻度エリアとして識別する低頻度エリア識別手段と、前記低頻度エリアに前記画像と重畳して配置するための付加画像を生成する付加画像生成手段と、前記画像及び前記付加画像を前記ディスプレイへ出力する画像出力手段と、を備える画像生成装置である。   In order to solve the above-described problems, one aspect of the present invention provides image generation means for generating an image to be displayed on a display, and statistics based on a frequency at which a user views each part of the image displayed on the display. Frequency statistical means for creating data, low frequency area identifying means for identifying an area in the image in which the frequency is below a threshold value as a low frequency area based on the statistical data, and the image in the low frequency area And an image output device that outputs the image and the additional image to the display.

また、本発明の他の一態様は、コンピュータが実行する画像生成方法であって、ディスプレイに表示するための画像を生成するステップと、前記画像を前記ディスプレイへ出力するステップと、ユーザが前記ディスプレイに表示された前記画像の各部分を見る頻度に基づく統計データを作成するステップと、前記統計データに基づいて、前記頻度が閾値を下回っている前記画像内のエリアを低頻度エリアとして識別するステップと、前記低頻度エリアに前記画像と重畳して配置するための付加画像を生成するステップと、前記付加画像を前記ディスプレイへ出力するステップと、を含む画像生成方法である。   Another aspect of the present invention is an image generation method executed by a computer, the step of generating an image to be displayed on a display, the step of outputting the image to the display, and the user performing the display Creating statistical data based on the frequency of viewing each part of the image displayed on the screen, and identifying, based on the statistical data, an area in the image where the frequency is below a threshold as a low-frequency area And generating an additional image for superimposing and arranging the image in the low-frequency area, and outputting the additional image to the display.

また、本発明の他の一態様は、コンピュータに、ディスプレイに表示するための画像を生成するステップと、前記画像を前記ディスプレイへ出力するステップと、ユーザが前記ディスプレイに表示された前記画像の各部分を見る頻度に基づく統計データを作成するステップと、前記統計データに基づいて、前記頻度が閾値を下回っている前記画像内のエリアを低頻度エリアとして識別するステップと、前記低頻度エリアに前記画像と重畳して配置するための付加画像を生成するステップと、前記付加画像を前記ディスプレイへ出力するステップと、を実行させるための画像生成プログラムである。   Further, according to another aspect of the present invention, a computer generates an image to be displayed on a display, a step of outputting the image to the display, and each of the images displayed on the display by a user. Creating statistical data based on the frequency of viewing a portion; identifying an area in the image where the frequency is below a threshold based on the statistical data as a low frequency area; and An image generation program for executing the steps of generating an additional image to be superimposed on an image and outputting the additional image to the display.

本発明によれば、ユーザがあまり見ない領域に付加的な情報を表示することが可能であ整理番号:151470 特願2015-191042 (Proof) 提出日:平成27年 9月29日 2る。   According to the present invention, it is possible to display additional information in an area that the user does not often see. Reference number: 151470 Japanese Patent Application No. 2015-191042 (Proof) Submitted date: September 29, 2015 2

図1は、本発明の一実施形態に係る画像表示システム100のハードウェア構成図である。FIG. 1 is a hardware configuration diagram of an image display system 100 according to an embodiment of the present invention. 図2は、本発明の一実施形態に係る画像生成装置200の機能的な構成を示すブロック図である。FIG. 2 is a block diagram illustrating a functional configuration of the image generation apparatus 200 according to an embodiment of the present invention. 図3は、頻度統計部232によって作成される統計データの一例を示す。FIG. 3 shows an example of statistical data created by the frequency statistics unit 232. 図4は、頻度統計部232によって作成される統計データの一例を示す。FIG. 4 shows an example of statistical data created by the frequency statistics unit 232. 図5は、低頻度エリアの一例を示す。FIG. 5 shows an example of a low frequency area. 図6は、本発明の一実施形態に係る画像生成装置200の処理手順を示すフローチャートである。FIG. 6 is a flowchart showing a processing procedure of the image generation apparatus 200 according to an embodiment of the present invention.

[本発明の実施形態の説明]
最初に、本発明の実施形態の内容を列記して説明する。本発明の一実施形態は、以下のような構成を備える。
[Description of Embodiment of the Present Invention]
First, the contents of the embodiment of the present invention will be listed and described. One embodiment of the present invention has the following configuration.

(項目1)ディスプレイに表示するための画像を生成する画像生成手段と、ユーザが前記ディスプレイに表示された前記画像の各部分を見る頻度に基づく統計データを作成する頻度統計手段と、前記統計データに基づいて、前記頻度が閾値を下回っている前記画像内のエリアを低頻度エリアとして識別する低頻度エリア識別手段と、前記低頻度エリアに前記画像と重畳して配置するための付加画像を生成する付加画像生成手段と、前記画像及び前記付加画像を前記ディスプレイへ出力する画像出力手段と、を備える画像生成装置。   (Item 1) Image generation means for generating an image to be displayed on a display, frequency statistical means for generating statistical data based on the frequency with which a user views each part of the image displayed on the display, and the statistical data Based on the above, a low frequency area identifying means for identifying an area in the image in which the frequency is below a threshold as a low frequency area, and an additional image for superimposing the image on the low frequency area are generated. An image generation apparatus comprising: an additional image generation unit configured to output the image and the additional image to the display.

(項目2)前記ディスプレイは、ヘッドマウントディスプレイとして構成され、前記画像は、前記ヘッドマウントディスプレイを装着した前記ユーザに対して提示される仮想現実画像である、項目1に記載の画像生成装置。   (Item 2) The image generating device according to item 1, wherein the display is configured as a head mounted display, and the image is a virtual reality image presented to the user wearing the head mounted display.

(項目3)前記頻度統計手段は、視線方向検出手段によって検出された前記ユーザの視線方向に基づいて前記頻度を算出する、項目1又は2に記載の画像生成装置。   (Item 3) The image generation device according to item 1 or 2, wherein the frequency statistics unit calculates the frequency based on the user's gaze direction detected by the gaze direction detection unit.

(項目4)前記頻度統計手段は、前記ユーザの頭の向きを検知するセンサからの出力に基づいて前記頻度を算出する、項目1又は2に記載の画像生成装置。   (Item 4) The image generation device according to item 1 or 2, wherein the frequency statistics unit calculates the frequency based on an output from a sensor that detects a head orientation of the user.

(項目5)前記付加画像生成手段は、前記視線方向検出手段によって検出された前記ユーザの現在の視線方向、又は前記センサによって検知された前記ユーザの現在の頭の向きに応じて前記付加画像を動的に変化させる、項目3又は4に記載の画像生成装置。   (Item 5) The additional image generation means generates the additional image according to the current gaze direction of the user detected by the gaze direction detection means or the current head direction of the user detected by the sensor. Item 5. The image generating device according to Item 3 or 4, which is dynamically changed.

(項目6)前記低頻度エリア識別手段は、前記頻度が第1閾値を下回っている前記画像内のエリアを第1低頻度エリア、前記頻度が前記第1閾値を上回り、且つ前記第1閾値よりも大きい第2閾値を下回っている前記画像内のエリアを第2低頻度エリアとしてそれぞれ識別し、前記付加画像生成手段は、前記第1低頻度エリアに前記画像と重畳して第1付加画像を配置し、前記第2低頻度エリアに前記画像と重畳して前記第1付加画像とは属性値の異なる第2付加画像を配置する、項目1から5のいずれか1項に記載の画像生成装置。   (Item 6) The low-frequency area identifying means is configured such that an area in the image in which the frequency is lower than a first threshold is a first low-frequency area, the frequency is higher than the first threshold, and is greater than the first threshold. Each of the areas in the image that is less than a second threshold value that is greater than the second threshold value is identified as a second low-frequency area, and the additional image generation unit superimposes the first additional image on the first low-frequency area by superimposing the image. The image generating device according to any one of items 1 to 5, wherein the image generating device is arranged and arranges a second additional image having an attribute value different from that of the first additional image by superimposing the image on the second low-frequency area. .

(項目7)コンピュータが実行する画像生成方法であって、ディスプレイに表示するための画像を生成するステップと、前記画像を前記ディスプレイへ出力するステップと、ユーザが前記ディスプレイに表示された前記画像の各部分を見る頻度に基づく統計データを作成するステップと、前記統計データに基づいて、前記頻度が閾値を下回っている前記画像内のエリアを低頻度エリアとして識別するステップと、前記低頻度エリアに前記画像と重畳して配置するための付加画像を生成するステップと、前記付加画像を前記ディスプレイへ出力するステップと、を含む画像生成方法。   (Item 7) An image generation method executed by a computer, the step of generating an image to be displayed on a display, the step of outputting the image to the display, and the user displaying the image displayed on the display Creating statistical data based on the frequency of viewing each part; identifying an area in the image where the frequency is below a threshold based on the statistical data as a low frequency area; and An image generation method comprising: generating an additional image to be arranged so as to be superimposed on the image; and outputting the additional image to the display.

(項目8)コンピュータに、ディスプレイに表示するための画像を生成するステップと、前記画像を前記ディスプレイへ出力するステップと、ユーザが前記ディスプレイに表示された前記画像の各部分を見る頻度に基づく統計データを作成するステップと、前記統計データに基づいて、前記頻度が閾値を下回っている前記画像内のエリアを低頻度エリアとして識別するステップと、前記低頻度エリアに前記画像と重畳して配置するための付加画像を生成するステップと、前記付加画像を前記ディスプレイへ出力するステップと、を実行させるための画像生成プログラム。   (Item 8) Generating an image to be displayed on a display on a computer, outputting the image to the display, and statistics based on a frequency at which a user views each part of the image displayed on the display Creating data, identifying, based on the statistical data, an area in the image where the frequency is below a threshold as a low-frequency area, and placing the image on the low-frequency area so as to overlap with the image An image generation program for executing an additional image generation step and a step of outputting the additional image to the display.

[本発明の実施形態の詳細]
以下、図面を参照しながら本発明の実施形態について詳しく説明する。
[Details of the embodiment of the present invention]
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は、本発明の一実施形態に係る画像表示システム100のハードウェア構成図である。画像表示システム100は、ヘッドマウントディスプレイ(Head Mounted Display:以下HMDと称する)120と、画像生成装置200とを備える。HMD120と画像生成装置200は、一例として有線ケーブル150によって電気的に接続され、相互に通信可能である。有線ケーブル150に代えて、無線接続が用いられてもよい。   FIG. 1 is a hardware configuration diagram of an image display system 100 according to an embodiment of the present invention. The image display system 100 includes a head mounted display (hereinafter referred to as HMD) 120 and an image generation apparatus 200. For example, the HMD 120 and the image generation apparatus 200 are electrically connected by a wired cable 150 and can communicate with each other. Instead of the wired cable 150, a wireless connection may be used.

HMD120は、ユーザ160の頭に装着されて利用される表示デバイスである。HMD120は、ディスプレイ122と、アイトラッキングデバイス(Eye Tracking Device:以下ETDと称する)124と、センサ126とを備える。ETD124とセンサ126は、どちらか一方だけが択一的に設けられてもよい。HMD120は更に、不図示のスピーカ(ヘッドホン)やカメラを備えてもよい。   The HMD 120 is a display device that is used by being worn on the head of the user 160. The HMD 120 includes a display 122, an eye tracking device (hereinafter referred to as ETD) 124, and a sensor 126. Only one of the ETD 124 and the sensor 126 may be provided alternatively. The HMD 120 may further include a speaker (headphone) and a camera (not shown).

ディスプレイ122は、HMD120を装着したユーザ160の視界に画像を提示するように構成される。例えば、ディスプレイ122は、非透過型ディスプレイとして構成することができる。この場合、HMD120の外界の光景はユーザ160の視界から遮断され、ユーザ160の目にはディスプレイ122に映し出された画像だけが届けられる。ディスプレイ122には、例えば、コンピュータグラフィックスを用いて生成した画像が表示される。コンピュータグラフィックスによる画像の一例は、仮想現実の空間(例えばコンピュータゲームで作り出される世界)を画像化した仮想現実画像である。あるいは、現
実世界の実際の地形や物体等の位置座標データに基づいて、現実世界をコンピュータグラフィックスで表現してもよい。更に、コンピュータグラフィックスによるのではなく、HMD120に装備された不図示のカメラを用いてユーザ160の視点で撮影した映像を、ディスプレイ122に表示することとしてもよい。
Display 122 is configured to present an image to the field of view of user 160 wearing HMD 120. For example, the display 122 can be configured as a non-transmissive display. In this case, the external scene of the HMD 120 is blocked from the view of the user 160 and only the image displayed on the display 122 is delivered to the eyes of the user 160. For example, an image generated using computer graphics is displayed on the display 122. An example of an image by computer graphics is a virtual reality image obtained by imaging a virtual reality space (for example, a world created by a computer game). Alternatively, the real world may be represented by computer graphics based on position coordinate data such as actual topography and objects in the real world. Furthermore, instead of using computer graphics, an image captured from the viewpoint of the user 160 using a camera (not shown) installed in the HMD 120 may be displayed on the display 122.

ETD124は、ユーザ160の眼球の動きを追跡して、ユーザ160の視線がどちらの方向に向けられているかを検出するように構成される。例えば、ETD124は、赤外線光源と赤外線カメラとを備える。赤外線光源は、HMD120を装着したユーザ160の目に向けて赤外線を照射する。赤外線カメラは、赤外線で照射されたユーザ160の目の画像を撮像する。赤外線はユーザ160の目の表面で反射されるが、瞳と瞳以外の部分とで赤外線の反射率が異なる。赤外線カメラで撮像されたユーザ160の目の画像には、赤外線の反射率の違いが画像の明暗となって現れる。この明暗に基づいて、ユーザ160
の目の画像において瞳が識別され、更に、識別された瞳の位置に基づいて、ユーザ160の視線の方向が検出される。ユーザ160の視線方向は、ディスプレイ122に表示された画像のうちユーザ160がどの部分を注視しているかを示す。
The ETD 124 is configured to track the movement of the eyeball of the user 160 and detect in which direction the line of sight of the user 160 is directed. For example, the ETD 124 includes an infrared light source and an infrared camera. The infrared light source irradiates infrared rays toward the eyes of the user 160 wearing the HMD 120. The infrared camera captures an image of the eyes of the user 160 irradiated with infrared rays. Infrared rays are reflected on the surface of the eyes of the user 160, but the reflectance of the infrared rays differs between the pupil and a portion other than the pupil. In the image of the eyes of the user 160 captured by the infrared camera, the difference in infrared reflectance appears as the brightness of the image. Based on this contrast, the user 160
A pupil is identified in the eye image of the user's eye, and the direction of the line of sight of the user 160 is detected based on the position of the identified pupil. The line-of-sight direction of the user 160 indicates which part of the image displayed on the display 122 the user 160 is gazing at.

センサ126は、HMD120を装着したユーザ160の頭がどちらの方向を向いているかを検知するためのセンサである。センサ126としては、例えば、磁気センサ、角速度センサ、若しくは加速度センサのいずれか、又はこれらの組み合わせが用いられてよい。センサ126が磁気センサ、角速度センサ、又は加速度センサである場合、センサ126はHMD120に内蔵されて、HMD120の向きや動きに応じた値(磁気、角速度、又は加速度の値)を出力する。センサ126からの出力値を適宜の方法で加工することで、HMD120を装着したユーザ160の頭の向きが算出される。ユーザ160の頭の向きは、ユーザ160が頭を動かした際にその動きに追従するようにディスプレイ122の表示画像を変化させるのに利用することができる。ユーザ160の頭の動きに合わせてディスプレイ122の表示画像を変化させる場合、ユーザ160の頭の向きは、ディスプレイ122の表示画像のうちユーザ160が見ている蓋然性が比較的高い部分の大まかな目安を示す。   The sensor 126 is a sensor for detecting which direction the head of the user 160 wearing the HMD 120 is facing. As the sensor 126, for example, any one of a magnetic sensor, an angular velocity sensor, an acceleration sensor, or a combination thereof may be used. When the sensor 126 is a magnetic sensor, an angular velocity sensor, or an acceleration sensor, the sensor 126 is built in the HMD 120 and outputs a value (magnetism, angular velocity, or acceleration value) corresponding to the direction or movement of the HMD 120. The direction of the head of the user 160 wearing the HMD 120 is calculated by processing the output value from the sensor 126 by an appropriate method. The orientation of the head of the user 160 can be used to change the display image of the display 122 so as to follow the movement when the user 160 moves the head. When the display image on the display 122 is changed in accordance with the movement of the head of the user 160, the direction of the head of the user 160 is a rough guide for a portion of the display image on the display 122 that is relatively likely to be viewed by the user 160. Indicates.

なおセンサ126は、HMD120の外部に設けられたセンサであってもよい。例えば、センサ126は、HMD120とは別体の赤外線センサであってよい。この赤外線センサを用いて、HMD120の表面に設けられた赤外線反射マーカーを検知することにより、HMD120を装着したユーザ160の頭の向きを特定することができる。   The sensor 126 may be a sensor provided outside the HMD 120. For example, the sensor 126 may be an infrared sensor that is separate from the HMD 120. By using this infrared sensor to detect an infrared reflective marker provided on the surface of the HMD 120, the orientation of the head of the user 160 wearing the HMD 120 can be specified.

画像生成装置200は、HMD120に表示される画像を生成するための装置である。画像生成装置200は、プロセッサ202と、メモリ204と、ユーザ入力インターフェイス208とを少なくとも備える。画像生成装置200は更に、その他のコンポーネントとして、例えばネットワークを介して他の装置と通信するためのネットワークインターフェイス(不図示)を備えてもよい。画像生成装置200は、例えば、パーソナルコンピュータ、ゲームコンソール、スマートフォン、タブレット端末等として実現することが可能である。   The image generation device 200 is a device for generating an image displayed on the HMD 120. The image generating apparatus 200 includes at least a processor 202, a memory 204, and a user input interface 208. The image generation apparatus 200 may further include a network interface (not shown) for communicating with other apparatuses via a network, for example, as other components. The image generation device 200 can be realized as, for example, a personal computer, a game console, a smartphone, a tablet terminal, or the like.

メモリ204には、少なくともオペレーティングシステムと画像生成プログラムとが格納されている。オペレーティングシステムは、画像生成装置200の全体的な動作を制御するためのコンピュータプログラムである。画像生成プログラムは、画像生成装置200が後述する画像生成処理の各機能を実現するためのコンピュータプログラムである。メモリ204はまた、画像生成装置200の動作によって生成されるデータを一時的又は永続的に記憶することもできる。メモリ204の具体例は、ROM(Read Only Memory)、RAM(Random Access Memory)、ハードディスク、フラッシュメモリ、光ディスク等である。   The memory 204 stores at least an operating system and an image generation program. The operating system is a computer program for controlling the overall operation of the image generation apparatus 200. The image generation program is a computer program for the image generation apparatus 200 to realize each function of image generation processing described later. The memory 204 can also store data generated by the operation of the image generating apparatus 200 temporarily or permanently. Specific examples of the memory 204 include a ROM (Read Only Memory), a RAM (Random Access Memory), a hard disk, a flash memory, and an optical disk.

プロセッサ202は、メモリ204に格納されているプログラムを読み出して、それに従った処理を実行するように構成される。プロセッサ202がメモリ204に格納された画像生成プログラムを実行することによって、後述する画像生成処理の各機能が実現される。プロセッサ202は、CPU(Central Processing Unit)及びGPU(Graphics Processing Unit)を含む。   The processor 202 is configured to read a program stored in the memory 204 and execute processing according to the program. When the processor 202 executes an image generation program stored in the memory 204, each function of image generation processing described later is realized. The processor 202 includes a CPU (Central Processing Unit) and a GPU (Graphics Processing Unit).

ユーザ入力インターフェイス208は、画像表示システム100のユーザから画像生成装置200を操作するための入力を受け取るように構成される。ユーザ入力インターフェイス208の具体例は、ゲームコントローラ、タッチパッド、マウス、キーボード等である。   The user input interface 208 is configured to receive an input for operating the image generating apparatus 200 from a user of the image display system 100. Specific examples of the user input interface 208 are a game controller, a touch pad, a mouse, a keyboard, and the like.

図2は、本発明の一実施形態に係る画像生成装置200の機能的な構成を示すブロック図である。画像生成装置200は、記憶部220及び処理部230を有する。処理部230は更に、画像生成部231と、頻度統計部232と、低頻度エリア識別部233と、付加画像生成部234と、画像出力部235とを含む。記憶部220は、図1に示されたメモリ204に対応する。処理部230及び処理部230に含まれる各部231〜235は、図1に示されたプロセッサ202がメモリ204内の画像生成プログラムを読み出して実行することによって実現される、本発明に係る画像生成処理の機能を表す。   FIG. 2 is a block diagram illustrating a functional configuration of the image generation apparatus 200 according to an embodiment of the present invention. The image generation device 200 includes a storage unit 220 and a processing unit 230. The processing unit 230 further includes an image generation unit 231, a frequency statistics unit 232, a low frequency area identification unit 233, an additional image generation unit 234, and an image output unit 235. The storage unit 220 corresponds to the memory 204 shown in FIG. The processing unit 230 and each of the units 231 to 235 included in the processing unit 230 are realized by the processor 202 illustrated in FIG. 1 reading and executing the image generation program in the memory 204. Represents the function of.

画像生成部231は、HMD120に表示するための画像を生成する。例えば、画像生成部231は、記憶部220から所定のデータを取得し、取得したデータに基づいてコンピュータグラフィックス処理によって画像を生成する。一例として、画像生成部231は、HMD120を装着したユーザ160がコンピュータゲームによる仮想現実空間を認識することができるような仮想現実画像を生成することとしてよい。仮想現実画像は、ユーザが仮想現実空間内で目にすることのできる光景を表す。例えば、画像生成部231によって生成される仮想現実画像は、コンピュータゲーム内に登場するキャラクタ、建物や木などの風景、室内の家具や壁の内装、地面に落ちているアイテム、ユーザが操作しているアバターの体の一部(手や足)やアバターが手で持っている物体(銃や剣)等を含む。また、画像生成部231は、現実世界の実際の地形データ等に基づいて現実世界を再現したコンピュータグラフィックス画像を生成することとしてもよい。更に、画像生成部231が生成する画像は、コンピュータグラフィックス処理によるものではなく、例えば、HMD120に装備された外部カメラによってユーザ160の視点で撮影された映像そのものであってもよい。   The image generation unit 231 generates an image to be displayed on the HMD 120. For example, the image generation unit 231 acquires predetermined data from the storage unit 220 and generates an image by computer graphics processing based on the acquired data. As an example, the image generation unit 231 may generate a virtual reality image that allows the user 160 wearing the HMD 120 to recognize a virtual reality space by a computer game. The virtual reality image represents a scene that the user can see in the virtual reality space. For example, the virtual reality image generated by the image generation unit 231 includes characters appearing in computer games, landscapes such as buildings and trees, interior furniture and wall interiors, items falling on the ground, and user operations. A part of the body of an avatar (hand or foot) or an object (gun or sword) held by the avatar by a hand. Moreover, the image generation part 231 is good also as generating the computer graphics image which reproduced the real world based on the actual topographical data etc. of the real world. Furthermore, the image generated by the image generation unit 231 is not based on computer graphics processing, but may be, for example, a video image taken from the viewpoint of the user 160 by an external camera installed in the HMD 120.

画像生成部231は、更に、センサ126からの出力値に基づいて画像を変化させることとしてもよい。例えば、画像生成部231が生成する画像は、仮想現実空間内におけるユーザの視界が、センサ126からの出力値が示すユーザ160の頭の動きに追従して移り変わっていく様子を表す画像であってよい。   The image generation unit 231 may further change the image based on the output value from the sensor 126. For example, the image generated by the image generation unit 231 is an image representing a state in which the user's field of view in the virtual reality space changes following the movement of the head of the user 160 indicated by the output value from the sensor 126. Good.

画像生成部231によって生成された画像は、画像出力部235を介してHMD120へ出力されて、ディスプレイ122に表示される。   The image generated by the image generation unit 231 is output to the HMD 120 via the image output unit 235 and displayed on the display 122.

頻度統計部232は、HMD120を装着したユーザ160がディスプレイ122に表示された画像の各部分を見る頻度に基づいて、統計データを作成する。統計データは、ディスプレイ122に表示された画像のどの部分がよく見られ、どの部分があまり見られていないかを示す。例えば、頻度統計部232は、ETD124によって検出されたユーザ160の視線方向に基づいて、ユーザ160が画像の各部分を見る頻度の統計データを作成する。また、頻度統計部232は、センサ126によって検知されたユーザ160の頭の向きに基づいて、ユーザ160が画像の各部分を見る頻度の統計データを作成してもよい。図3及び4を参照して具体的に説明する。   The frequency statistics unit 232 creates statistical data based on the frequency with which the user 160 wearing the HMD 120 views each part of the image displayed on the display 122. The statistical data indicates which part of the image displayed on the display 122 is often seen and which part is not often seen. For example, the frequency statistics unit 232 creates statistical data on the frequency with which the user 160 views each part of the image based on the line-of-sight direction of the user 160 detected by the ETD 124. Further, the frequency statistics unit 232 may create statistical data of the frequency with which the user 160 views each part of the image based on the head direction of the user 160 detected by the sensor 126. This will be specifically described with reference to FIGS.

図3は、HMD120のディスプレイ122に表示される表示画像520を示す。表示画像520は、複数の部分領域501を含む。図3の例では、部分領域501は、表示画像520を縦横に格子状に分割してできる1つ1つの小さな画像範囲である。HMD120を装着したユーザ160は、ある瞬間において表示画像520のうちある特定の部分領域501を注視し、また別の瞬間には別の部分領域501を注視する。ユーザ160の視線は、時間の経過と共に表示画像520の異なる部分領域501を行き来する。この時々刻々のユーザ160の視線方向は、ETD124によって検出されて、頻度統計部232へ入力される。   FIG. 3 shows a display image 520 displayed on the display 122 of the HMD 120. Display image 520 includes a plurality of partial regions 501. In the example of FIG. 3, the partial area 501 is a small image range formed by dividing the display image 520 vertically and horizontally in a grid pattern. The user 160 wearing the HMD 120 gazes at a specific partial area 501 in the display image 520 at a certain moment, and gazes at another partial area 501 at another moment. The line of sight of the user 160 moves back and forth between different partial areas 501 of the display image 520 with the passage of time. The line-of-sight direction of the user 160 is detected by the ETD 124 and input to the frequency statistics unit 232.

図3の部分領域501には、それぞれ「0」から「5」までのいずれかの数字が記されている。この数字は、当該数字が記されている部分領域501の頻度値を表す。例えば、頻度値「0」は、ユーザ160がその部分領域501を全く見ていないことを示す。また、頻度値「1」は、ユーザ160がその部分領域501を僅かな頻度で見たことを示し、頻度値「5」は、ユーザ160がその部分領域501を最高頻度で見たことを示す。中間の頻度値「2」、「3」、「4」は、頻度値「1」と「5」を適宜按分した頻度を示す。頻度統計部232は、所定の時間期間、ETD124から入力されたユーザ160の視線方向を収集して、その収集結果に従って部分領域501毎に頻度値を付与する。例えば、頻度統計部232は、当該時間期間においてユーザ160の視線の滞在時間が最も長いグループに分類される部分領域501に対して頻度値「5」を付与し、その次に滞在時間が長いグループに分類される部分領域501に対して頻度値「4」を付与する。同様にして他の頻度値も付与される。   In the partial area 501 in FIG. 3, any number from “0” to “5” is written. This number represents the frequency value of the partial area 501 where the number is written. For example, the frequency value “0” indicates that the user 160 does not see the partial area 501 at all. The frequency value “1” indicates that the user 160 has viewed the partial area 501 with a slight frequency, and the frequency value “5” indicates that the user 160 has viewed the partial area 501 with the highest frequency. . The intermediate frequency values “2”, “3”, and “4” indicate the frequency obtained by appropriately dividing the frequency values “1” and “5”. The frequency statistics unit 232 collects the line-of-sight direction of the user 160 input from the ETD 124 for a predetermined time period, and assigns a frequency value to each partial region 501 according to the collection result. For example, the frequency statistics unit 232 assigns a frequency value “5” to the partial region 501 classified into the group with the longest stay time of the line of sight of the user 160 in the time period, and then the group with the longest stay time A frequency value “4” is assigned to the partial region 501 classified as “1”. Similarly, other frequency values are assigned.

図4は、HMD120のディスプレイ122に一度に表示される範囲530よりも広い領域540を示す。領域540は、例えば、コンピュータゲームによる仮想現実空間内でユーザが自分の周囲に見ることができる光景の全体を表す。表示範囲530は、仮想現実空間内でユーザがある特定方向を向いた時に視界に入る限られた範囲の光景を表し、図3の表示画像520の範囲に対応する。例えば、ユーザ160が頭をいろいろな方向に動かした場合、表示範囲530は頭の動きに追従して領域540内を動き回る。   FIG. 4 shows a region 540 that is wider than the range 530 that is displayed on the display 122 of the HMD 120 at a time. The region 540 represents the entire scene that the user can see around him / her in a virtual reality space created by a computer game, for example. The display range 530 represents a limited range of scenes that enter the field of view when the user faces a specific direction in the virtual reality space, and corresponds to the range of the display image 520 in FIG. For example, when the user 160 moves the head in various directions, the display range 530 moves around the area 540 following the movement of the head.

図4に示されるように、領域540は、図3で説明したのと同様の複数の部分領域501を含む。HMD120を装着したユーザ160は、ある時間帯において頭をある特定の方向に向けている。ユーザ160が当該方向に頭を向けている間に、図3において説明したのと同様にして、その時の表示範囲530に含まれる部分領域501に対して頻度値が付与される。またユーザ160は、別の時間帯では頭を別の方向に向ける。ユーザ160が当該別の方向に頭を向けている間、同様にその時の表示範囲530に含まれる部分領域501に対して頻度値が付与される。2つの時間帯における表示範囲530が一部重なる場合には、例えば、その重なった部分領域501にユーザ160の視線が滞在する合計の時間に基づいて、各部分領域501に頻度値が付与される。   As shown in FIG. 4, the region 540 includes a plurality of partial regions 501 similar to those described with reference to FIG. 3. The user 160 wearing the HMD 120 turns his head in a certain direction in a certain time zone. While the user 160 turns his head in the direction, a frequency value is assigned to the partial area 501 included in the display range 530 at the same time as described in FIG. In addition, the user 160 turns his head in another direction in another time zone. While the user 160 turns his head in the other direction, a frequency value is similarly given to the partial area 501 included in the display range 530 at that time. When the display ranges 530 in two time zones partially overlap, for example, a frequency value is given to each partial area 501 based on the total time that the user's 160 gaze stays in the overlapping partial area 501. .

図4のように表示範囲530が領域540内を移動する例においては、ユーザ160の頭の向きに基づいて、各部分領域501の頻度値を決定することとしてもよい。例えば、ユーザ160が頭を動かすと、センサ126によってユーザ160の頭の向きが検知されて、その向きに応じた表示範囲530の画像が画像生成部231によって生成される。この時、ユーザ160の実際の視線は生成された画像内の任意の部分に存在し得るが、ここでは1つの仮定として、ユーザ160は表示範囲530内の所定の固定部分(例えば表示範囲530の中心)を見ているとみなすこととする。頻度統計部232は、表示範囲530の当該固定部分の方向がユーザ160の視線方向であるものとして、各部分領域501の頻度値を決定する。例えば、頻度統計部232は、所定の時間期間にわたって表示範囲530が領域540内を動く様子を追跡し、表示範囲530の中心と重なっている時間が長い部分領域501には大きい頻度値、表示範囲530の中心と重なっている時間が短い部分領域501には小さい頻度値を付与する。   In the example in which the display range 530 moves within the region 540 as shown in FIG. 4, the frequency value of each partial region 501 may be determined based on the orientation of the head of the user 160. For example, when the user 160 moves the head, the orientation of the head of the user 160 is detected by the sensor 126, and an image of the display range 530 corresponding to the orientation is generated by the image generation unit 231. At this time, the actual line of sight of the user 160 may be present at any part in the generated image, but here, as one assumption, the user 160 is not allowed to have a predetermined fixed part within the display range 530 (for example, the display range 530). Center) The frequency statistics unit 232 determines the frequency value of each partial region 501 on the assumption that the direction of the fixed portion of the display range 530 is the line-of-sight direction of the user 160. For example, the frequency statistics unit 232 tracks how the display range 530 moves in the region 540 over a predetermined time period, and the partial region 501 having a long time overlapping the center of the display range 530 has a large frequency value and display range. A small frequency value is given to the partial region 501 that overlaps with the center of 530 for a short time.

このように、ユーザ160の視線方向又は頭の向きに基づいて、各部分領域501の頻度値が統計的に収集される。収集された各部分領域501の頻度値は統計データを構成する。統計データは、記憶部220に格納されてよい。   As described above, the frequency values of the partial areas 501 are statistically collected based on the viewing direction or the head direction of the user 160. The collected frequency values of each partial area 501 constitute statistical data. The statistical data may be stored in the storage unit 220.

なお、図3及び図4に描かれている点線(部分領域501の枠線)と数字(頻度値)は、以上の説明のために表したものであって、画像そのものを構成する要素ではなく、したがってHMD120のディスプレイ122には表示されないことに留意されたい。   Note that the dotted lines (the frame lines of the partial area 501) and the numbers (frequency values) depicted in FIGS. 3 and 4 are shown for the above explanation and are not elements constituting the image itself. Therefore, it should be noted that it is not displayed on the display 122 of the HMD 120.

低頻度エリア識別部233は、頻度統計部232によって作成された統計データに基づいて、低頻度エリアを識別する。低頻度エリアは、HMD120のディスプレイ122に表示された画像のうち、ユーザ160に見られる頻度が低い部分的なエリアである。例えば、低頻度エリア識別部233は、統計データを構成する各部分領域501の頻度値を所定の閾値と比較し、比較の結果、ある部分領域501の頻度値が閾値を下回っていれば、その部分領域501を低頻度エリアの一部と判断する。   The low frequency area identifying unit 233 identifies the low frequency area based on the statistical data created by the frequency statistical unit 232. The low frequency area is a partial area of the image displayed on the display 122 of the HMD 120 that is less frequently seen by the user 160. For example, the low-frequency area identification unit 233 compares the frequency value of each partial area 501 constituting the statistical data with a predetermined threshold value, and if the frequency value of a certain partial area 501 falls below the threshold value as a result of the comparison, The partial area 501 is determined as a part of the low frequency area.

図5は、低頻度エリアの一例を示す。この例は、図3に示した各部分領域501の頻度値の例に対応する。図5に例示された低頻度エリア570は、図3において頻度値「0」又は「1」を付与された部分領域501からなるエリアである。別の例として、「0」又は「1」又は「2」の頻度値を付与された部分領域501を低頻度エリアとしてもよい。   FIG. 5 shows an example of a low frequency area. This example corresponds to the example of the frequency value of each partial area 501 shown in FIG. The low-frequency area 570 illustrated in FIG. 5 is an area including the partial region 501 to which the frequency value “0” or “1” is assigned in FIG. 3. As another example, the partial region 501 to which the frequency value “0”, “1”, or “2” is assigned may be a low-frequency area.

また低頻度エリア識別部233は、低頻度エリアを頻度値に応じて複数段階に分類することとしてもよい。例えば、低頻度エリア識別部233は、頻度値が「0」又は「1」である部分領域501を第1低頻度エリアとし、頻度値が「2」又は「3」である部分領域501を第2低頻度エリアとしてもよい。   Moreover, the low frequency area identification part 233 is good also as classifying a low frequency area into several steps according to a frequency value. For example, the low-frequency area identification unit 233 sets the partial region 501 having the frequency value “0” or “1” as the first low-frequency area, and sets the partial region 501 having the frequency value “2” or “3” as the first. 2 It is good also as a low frequency area.

付加画像生成部234は、低頻度エリアに配置するための付加画像を生成する。生成された付加画像は、画像出力部235を介してHMD120へ出力されて、画像生成部231からの画像と重畳してディスプレイ122に表示される。付加画像は、例えば、仮想現実空間に広告を提示したり、コンピュータゲームにおいて敵キャラクタや有用なアイテムを表示したりするのに利用できる。付加画像はユーザ160に見られる頻度が低い低頻度エリアに表示されるので、ユーザ160は付加画像にあまり影響されずに画像生成部231からの画像を視認することができる。その反対に、例えば低頻度エリアにユーザ160にとって価値の高い付加画像が表示され得るというルールを仮定すれば、ユーザ160の注意を画像生成部231からの画像(低頻度エリア以外のエリア)だけでなく低頻度エリアにも向けさせることができる。例えば、コンピュータゲームの例において、価値の高いレアアイテムや倒すと高得点の得られる敵キャラクタを付加画像として低頻度エリアに表示することで、ゲームの面白さを高めることが可能である。   The additional image generation unit 234 generates an additional image to be arranged in the low frequency area. The generated additional image is output to the HMD 120 via the image output unit 235 and is displayed on the display 122 so as to be superimposed on the image from the image generation unit 231. The additional image can be used for, for example, presenting an advertisement in a virtual reality space or displaying an enemy character or a useful item in a computer game. Since the additional image is displayed in a low-frequency area where the frequency seen by the user 160 is low, the user 160 can visually recognize the image from the image generation unit 231 without being significantly affected by the additional image. On the other hand, for example, assuming a rule that an additional image having a high value for the user 160 can be displayed in the low-frequency area, the user's 160 attention is given only to the image from the image generation unit 231 (an area other than the low-frequency area). And can be directed to low frequency areas. For example, in an example of a computer game, it is possible to increase the fun of the game by displaying rare items with high value or enemy characters that can be scored high when defeated as additional images in a low-frequency area.

更に、付加画像生成部234は、ユーザ160の現在の視線方向や頭の向きに応じて付加画像を動的に変化させてもよい。例えば、まず付加画像としてあるキャラクタ(幽霊やモグラたたきゲームのモグラ)が低頻度エリアに表示される。付加画像生成部234は、ETD124又はセンサ126からの入力に基づいて、ユーザ160が視線(又は頭)を低頻度エリアに向けようとしている(向けつつある)か否かを判定する。ユーザ160が視線を低頻度エリアに向けようとしている場合、付加画像生成部234は、当該キャラクタの付加画像を、例えばキャラクタがユーザ160の視線から逃げる(幽霊が視界から消える、又はモグラが地面に隠れる)ような付加画像に変化させる。ユーザ160の視線が低頻度エリアに近付く度合いに応じて、キャラクタの逃げる度合いを調整してもよい。   Further, the additional image generation unit 234 may dynamically change the additional image according to the current gaze direction and head direction of the user 160. For example, a character (a ghost or a mole of a mole-tapping game) as an additional image is first displayed in the low-frequency area. Based on the input from the ETD 124 or the sensor 126, the additional image generation unit 234 determines whether or not the user 160 is about (or is turning) the line of sight (or head) to the low-frequency area. When the user 160 tries to turn his / her line of sight toward the low-frequency area, the additional image generation unit 234 displays the additional image of the character, for example, the character escapes from the line of sight of the user 160 (the ghost disappears from view or the mole moves to the ground. Change to an additional image that can be hidden. The degree to which the character escapes may be adjusted according to the degree to which the user's line of sight approaches the low frequency area.

付加画像生成部234はまた、低頻度エリアが複数段階に分類されている場合、分類された低頻度エリア(第1低頻度エリア、第2低頻度エリア等)毎に異なる付加画像(第1付加画像、第2付加画像等)を生成することとしてもよい。例えば、第1低頻度エリアに表示される第1付加画像の属性値は、第2低頻度エリアに表示される第2付加画像の属性値と異なる。一例として、第1低頻度エリアが頻度値「0」及び「1」に対応し、第2低頻度エリアが頻度値「2」及び「3」に対応する場合、ユーザ160に見られる頻度がより低いエリアである第1低頻度エリアに、より価値の高いレアアイテムや、倒すとより高い得点の得られる敵キャラクタを第1付加画像として表示することで、ゲームの面白さをより一層高めることが可能である。   Further, when the low frequency area is classified into a plurality of stages, the additional image generation unit 234 also adds a different additional image (first addition) for each classified low frequency area (first low frequency area, second low frequency area, etc.). An image, a second additional image, etc.) may be generated. For example, the attribute value of the first additional image displayed in the first low frequency area is different from the attribute value of the second additional image displayed in the second low frequency area. As an example, when the first low-frequency area corresponds to the frequency values “0” and “1” and the second low-frequency area corresponds to the frequency values “2” and “3”, the frequency seen by the user 160 is more In the first low-frequency area, which is a low area, a rare item with higher value and an enemy character that can obtain a higher score when defeated are displayed as a first additional image, thereby further enhancing the fun of the game. Is possible.

図6は、本発明の一実施形態に係る画像生成装置200の処理手順を示すフローチャートである。まず、ステップS602において、画像生成装置200の画像生成部231が、HMD120に表示するための画像を生成する。次に、ステップS604において、画像生成装置200の画像出力部235が、画像生成部231により生成された画像をHMD120へ出力する。これにより、HMD120のディスプレイ122に画像が表示される。次に、ステップS606において、画像生成装置200の頻度統計部232が、HMD120を装着したユーザ160がディスプレイ122に表示された画像の各部分を見る頻度に基づいて、統計データを作成する。例えば、画像生成装置200の頻度統計部232は、ETD124によって検出されたユーザ160の視線方向、又はセンサ126からの出力値により検知されるユーザ160の頭の向きに基づいて、各部分領域の頻度値を決定する。次に、ステップS608において、画像処理装置200の低頻度エリア識別部233が、頻度統計部232によって作成された統計データに基づいて、ユーザ160に見られる頻度が低い低頻度エリアを識別する。次に、ステップS610において、画像生成装置200の付加画像生成部234が、低頻度エリアに配置するための付加画像を生成する。次に、ステップS612において、画像生成装置200の画像出力部235が、付加画像生成部234により生成された付加画像をHMD120へ出力する。これにより、HMD120のディスプレイ122上の画像に重畳して、低頻度エリアに付加画像が表示される。   FIG. 6 is a flowchart showing a processing procedure of the image generation apparatus 200 according to an embodiment of the present invention. First, in step S <b> 602, the image generation unit 231 of the image generation apparatus 200 generates an image to be displayed on the HMD 120. Next, in step S604, the image output unit 235 of the image generation device 200 outputs the image generated by the image generation unit 231 to the HMD 120. Thereby, an image is displayed on the display 122 of the HMD 120. Next, in step S606, the frequency statistics unit 232 of the image generation apparatus 200 creates statistical data based on the frequency with which the user 160 wearing the HMD 120 views each part of the image displayed on the display 122. For example, the frequency statistic unit 232 of the image generation apparatus 200 determines the frequency of each partial region based on the direction of the line of sight of the user 160 detected by the ETD 124 or the direction of the head of the user 160 detected by the output value from the sensor 126. Determine the value. Next, in step S <b> 608, the low frequency area identifying unit 233 of the image processing apparatus 200 identifies a low frequency area that is less frequently seen by the user 160 based on the statistical data created by the frequency statistical unit 232. Next, in step S610, the additional image generation unit 234 of the image generation device 200 generates an additional image to be arranged in the low-frequency area. Next, in step S612, the image output unit 235 of the image generation apparatus 200 outputs the additional image generated by the additional image generation unit 234 to the HMD 120. Thereby, the additional image is displayed in the low frequency area so as to be superimposed on the image on the display 122 of the HMD 120.

以上、本発明の実施形態を説明したが、本発明はこれに限定されず、その要旨を逸脱しない範囲内において様々な変更が可能である。   As mentioned above, although embodiment of this invention was described, this invention is not limited to this, A various change is possible within the range which does not deviate from the summary.

100 画像表示システム
120 ヘッドマウントディスプレイ(HMD)
122 ディスプレイ
124 アイトラッキングデバイス(ETD)
126 センサ
150 有線ケーブル
200 画像生成装置
202 プロセッサ
204 メモリ
208 ユーザ入力インターフェイス
220 記憶部
230 処理部
231 画像生成部
232 頻度統計部
233 低頻度エリア識別部
234 付加画像生成部
235 画像出力部

100 Image Display System 120 Head Mount Display (HMD)
122 Display 124 Eye tracking device (ETD)
126 Sensor 150 Wired Cable 200 Image Generation Device 202 Processor 204 Memory 208 User Input Interface 220 Storage Unit 230 Processing Unit 231 Image Generation Unit 232 Frequency Statistics Unit 233 Low Frequency Area Identification Unit 234 Additional Image Generation Unit 235 Image Output Unit

Claims (8)

ディスプレイに表示するための画像を生成する画像生成手段と、
ユーザが前記ディスプレイに表示された前記画像の各部分を見る頻度に基づく統計データを作成する頻度統計手段と、
前記統計データに基づいて、前記頻度が閾値を下回っている前記画像内のエリアを低頻度エリアとして識別する低頻度エリア識別手段と、
前記低頻度エリアに前記画像と重畳して配置するための付加画像を生成する付加画像生成手段と、
前記画像及び前記付加画像を前記ディスプレイへ出力する画像出力手段と、
を備える画像生成装置。
Image generating means for generating an image to be displayed on the display;
Frequency statistics means for creating statistical data based on the frequency with which a user views each part of the image displayed on the display;
A low-frequency area identifying means for identifying an area in the image in which the frequency is below a threshold as a low-frequency area based on the statistical data;
An additional image generating means for generating an additional image to be superimposed on the image in the low-frequency area;
Image output means for outputting the image and the additional image to the display;
An image generation apparatus comprising:
前記ディスプレイは、ヘッドマウントディスプレイとして構成され、
前記画像は、前記ヘッドマウントディスプレイを装着した前記ユーザに対して提示される仮想現実画像である、
請求項1に記載の画像生成装置。
The display is configured as a head mounted display,
The image is a virtual reality image presented to the user wearing the head mounted display.
The image generation apparatus according to claim 1.
前記頻度統計手段は、視線方向検出手段によって検出された前記ユーザの視線方向に基づいて前記頻度を算出する、
請求項1又は2に記載の画像生成装置。
The frequency statistic unit calculates the frequency based on the gaze direction of the user detected by the gaze direction detection unit;
The image generation apparatus according to claim 1.
前記頻度統計手段は、前記ユーザの頭の向きを検知するセンサからの出力に基づいて前記頻度を算出する、
請求項1又は2に記載の画像生成装置。
The frequency statistics means calculates the frequency based on an output from a sensor that detects the orientation of the user's head.
The image generation apparatus according to claim 1.
前記付加画像生成手段は、前記視線方向検出手段によって検出された前記ユーザの現在の視線方向、又は前記センサによって検知された前記ユーザの現在の頭の向きに応じて前記付加画像を動的に変化させる、
請求項3又は4に記載の画像生成装置。
The additional image generation unit dynamically changes the additional image according to the current gaze direction of the user detected by the gaze direction detection unit or the current head direction of the user detected by the sensor. Let
The image generation apparatus according to claim 3 or 4.
前記低頻度エリア識別手段は、前記頻度が第1閾値を下回っている前記画像内のエリアを第1低頻度エリア、前記頻度が前記第1閾値を上回り、且つ前記第1閾値よりも大きい第2閾値を下回っている前記画像内のエリアを第2低頻度エリアとしてそれぞれ識別し、
前記付加画像生成手段は、前記第1低頻度エリアに前記画像と重畳して第1付加画像を配置し、前記第2低頻度エリアに前記画像と重畳して前記第1付加画像とは属性値の異なる第2付加画像を配置する、
請求項1から5のいずれか1項に記載の画像生成装置。
The low-frequency area identifying means includes a second low-frequency area in the image in which the frequency is lower than a first threshold, a second higher in frequency than the first threshold, and a second higher than the first threshold. Each identifying an area in the image that is below a threshold as a second infrequent area;
The additional image generating means arranges the first additional image on the first low-frequency area so as to be superimposed on the image, and superimposes the image on the second low-frequency area on the first additional image. Arranging different second additional images of
The image generation apparatus according to claim 1.
コンピュータが実行する画像生成方法であって、
ディスプレイに表示するための画像を生成するステップと、
前記画像を前記ディスプレイへ出力するステップと、
ユーザが前記ディスプレイに表示された前記画像の各部分を見る頻度に基づく統計データを作成するステップと、
前記統計データに基づいて、前記頻度が閾値を下回っている前記画像内のエリアを低頻度エリアとして識別するステップと、
前記低頻度エリアに前記画像と重畳して配置するための付加画像を生成するステップと、
前記付加画像を前記ディスプレイへ出力するステップと、
を含む画像生成方法。
An image generation method executed by a computer,
Generating an image for display on a display;
Outputting the image to the display;
Creating statistical data based on the frequency with which a user views each part of the image displayed on the display;
Identifying the area in the image where the frequency is below a threshold as a low frequency area based on the statistical data;
Generating an additional image to be superimposed on the image in the low frequency area;
Outputting the additional image to the display;
An image generation method including:
コンピュータに、
ディスプレイに表示するための画像を生成するステップと、
前記画像を前記ディスプレイへ出力するステップと、
ユーザが前記ディスプレイに表示された前記画像の各部分を見る頻度に基づく統計データを作成するステップと、
前記統計データに基づいて、前記頻度が閾値を下回っている前記画像内のエリアを低頻度エリアとして識別するステップと、
前記低頻度エリアに前記画像と重畳して配置するための付加画像を生成するステップと、
前記付加画像を前記ディスプレイへ出力するステップと、
を実行させるための画像生成プログラム。

On the computer,
Generating an image for display on a display;
Outputting the image to the display;
Creating statistical data based on the frequency with which a user views each part of the image displayed on the display;
Identifying the area in the image where the frequency is below a threshold as a low frequency area based on the statistical data;
Generating an additional image to be superimposed on the image in the low frequency area;
Outputting the additional image to the display;
An image generation program for executing

JP2016044440A 2016-03-08 2016-03-08 Device, method, and program for forming images Pending JP2017068818A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016044440A JP2017068818A (en) 2016-03-08 2016-03-08 Device, method, and program for forming images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016044440A JP2017068818A (en) 2016-03-08 2016-03-08 Device, method, and program for forming images

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2015191042A Division JP5913709B1 (en) 2015-09-29 2015-09-29 Image generation apparatus, image generation method, and image generation program

Publications (1)

Publication Number Publication Date
JP2017068818A true JP2017068818A (en) 2017-04-06

Family

ID=58492615

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016044440A Pending JP2017068818A (en) 2016-03-08 2016-03-08 Device, method, and program for forming images

Country Status (1)

Country Link
JP (1) JP2017068818A (en)

Similar Documents

Publication Publication Date Title
JP5913709B1 (en) Image generation apparatus, image generation method, and image generation program
CN110199325B (en) Simulation system, processing method, and information storage medium
JP6017664B1 (en) Information processing method and information processing program
JP6097377B1 (en) Image display method and program
US11738270B2 (en) Simulation system, processing method, and information storage medium
KR20180033138A (en) Eye line detection method and apparatus
JP6017008B1 (en) Avatar display system, user terminal, and program
US10761600B2 (en) Simulation control device and information storage medium
US20180011681A1 (en) Information processing method and system for executing the information processing method
CN108463839B (en) Information processing apparatus and user guide presenting method
JP7144796B2 (en) Simulation system and program
WO2019187862A1 (en) Information processing device, information processing method, and recording medium
JP6200023B1 (en) Simulation control apparatus and simulation control program
US11521346B2 (en) Image processing apparatus, image processing method, and storage medium
JP6707429B2 (en) Avatar display system, user terminal, and program
CN109416614B (en) Method implemented by computer and non-volatile computer-readable medium, system
US11474595B2 (en) Display device and display device control method
JP2017078893A (en) Device, method, and program for interacting with object in virtual reality space
JP6918189B2 (en) Simulation system and program
JP2017068818A (en) Device, method, and program for forming images
JP2014039630A (en) Game machine and staging-control method therefore
JP2017097918A (en) Image display method and program
KR102224057B1 (en) Method for load reduction using automatic control of observation image and head-mounted display using the same
JP2018045462A (en) Display system, display method, and computer device
JP2020014888A (en) Application control program, application control method, and application control system