JP2017068411A - 画像生成装置、画像生成方法、及び画像生成プログラム - Google Patents

画像生成装置、画像生成方法、及び画像生成プログラム Download PDF

Info

Publication number
JP2017068411A
JP2017068411A JP2015191042A JP2015191042A JP2017068411A JP 2017068411 A JP2017068411 A JP 2017068411A JP 2015191042 A JP2015191042 A JP 2015191042A JP 2015191042 A JP2015191042 A JP 2015191042A JP 2017068411 A JP2017068411 A JP 2017068411A
Authority
JP
Japan
Prior art keywords
image
frequency
display
area
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015191042A
Other languages
English (en)
Other versions
JP5913709B1 (ja
Inventor
篤 猪俣
Atsushi Inomata
篤 猪俣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Colopl Inc
Original Assignee
Colopl Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Colopl Inc filed Critical Colopl Inc
Priority to JP2015191042A priority Critical patent/JP5913709B1/ja
Application granted granted Critical
Publication of JP5913709B1 publication Critical patent/JP5913709B1/ja
Priority to PCT/JP2016/076307 priority patent/WO2017056892A1/ja
Priority to US15/271,188 priority patent/US10008041B2/en
Publication of JP2017068411A publication Critical patent/JP2017068411A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0141Head-up displays characterised by optical features characterised by the informative content of the display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Abstract

【課題】ユーザがあまり見ない領域に付加的な情報を表示する画像生成装置、生成方法及び生成プログラムを提供する。
【解決手段】画像生成装置の画像出力部が、ヘッドマウントディスプレイ(HMD)へ画像を表示するS604。頻度エリア識別部は、ユーザが画像の各部分を見る頻度に基づいて作成した統計データに基づいて、頻度が閾値を下回っている画像内のエリアを低頻度エリアとして識別するS608。画像生成装置の付加画像生成部は、低頻度エリアに画像と重畳して配置するための付加画像を生成しS610、画像及び付加画像をディスプレイへ出力するS612。
【選択図】図6

Description

本発明は、画像生成装置、画像生成方法、及び画像生成プログラムに関する。
コンテンツに重畳して付加的な情報を表示する技術が知られている。例えば、特許文献1では、コンテンツの特性に応じて定まる表示領域に付加的な情報を表示している。
特許第5465620号公報
ユーザがあまり見ない領域に付加的な情報を表示することで、新たなユーザ体験を創出できる可能性がある。
本発明は、上記の点に鑑みてなされたものであり、その目的の1つは、ユーザがあまり見ない領域に付加的な情報を表示することを可能にする画像生成装置、画像生成方法、及び画像生成プログラムを提供することにある。
上述した課題を解決するために、本発明の一態様は、ディスプレイに表示するための画像を生成する画像生成手段と、ユーザが前記ディスプレイに表示された前記画像の各部分を見る頻度に基づく統計データを作成する頻度統計手段と、前記統計データに基づいて、前記頻度が閾値を下回っている前記画像内のエリアを低頻度エリアとして識別する低頻度エリア識別手段と、前記低頻度エリアに前記画像と重畳して配置するための付加画像を生成する付加画像生成手段と、前記画像及び前記付加画像を前記ディスプレイへ出力する画像出力手段と、を備える画像生成装置である。
また、本発明の他の一態様は、コンピュータが実行する画像生成方法であって、ディスプレイに表示するための画像を生成するステップと、前記画像を前記ディスプレイへ出力するステップと、ユーザが前記ディスプレイに表示された前記画像の各部分を見る頻度に基づく統計データを作成するステップと、前記統計データに基づいて、前記頻度が閾値を下回っている前記画像内のエリアを低頻度エリアとして識別するステップと、前記低頻度エリアに前記画像と重畳して配置するための付加画像を生成するステップと、前記付加画像を前記ディスプレイへ出力するステップと、を含む画像生成方法である。
また、本発明の他の一態様は、コンピュータに、ディスプレイに表示するための画像を生成するステップと、前記画像を前記ディスプレイへ出力するステップと、ユーザが前記ディスプレイに表示された前記画像の各部分を見る頻度に基づく統計データを作成するステップと、前記統計データに基づいて、前記頻度が閾値を下回っている前記画像内のエリアを低頻度エリアとして識別するステップと、前記低頻度エリアに前記画像と重畳して配置するための付加画像を生成するステップと、前記付加画像を前記ディスプレイへ出力するステップと、を実行させるための画像生成プログラムである。
本発明によれば、ユーザがあまり見ない領域に付加的な情報を表示することが可能である。
図1は、本発明の一実施形態に係る画像表示システム100のハードウェア構成図である。 図2は、本発明の一実施形態に係る画像生成装置200の機能的な構成を示すブロック図である。 図3は、頻度統計部232によって作成される統計データの一例を示す。 図4は、頻度統計部232によって作成される統計データの一例を示す。 図5は、低頻度エリアの一例を示す。 図6は、本発明の一実施形態に係る画像生成装置200の処理手順を示すフローチャートである。
[本発明の実施形態の説明]
最初に、本発明の実施形態の内容を列記して説明する。本発明の一実施形態は、以下のような構成を備える。
(項目1)ディスプレイに表示するための画像を生成する画像生成手段と、ユーザが前記ディスプレイに表示された前記画像の各部分を見る頻度に基づく統計データを作成する頻度統計手段と、前記統計データに基づいて、前記頻度が閾値を下回っている前記画像内のエリアを低頻度エリアとして識別する低頻度エリア識別手段と、前記低頻度エリアに前記画像と重畳して配置するための付加画像を生成する付加画像生成手段と、前記画像及び前記付加画像を前記ディスプレイへ出力する画像出力手段と、を備える画像生成装置。
(項目2)前記ディスプレイは、ヘッドマウントディスプレイとして構成され、前記画像は、前記ヘッドマウントディスプレイを装着した前記ユーザに対して提示される仮想現実画像である、項目1に記載の画像生成装置。
(項目3)前記頻度統計手段は、視線方向検出手段によって検出された前記ユーザの視線方向に基づいて前記頻度を算出する、項目1又は2に記載の画像生成装置。
(項目4)前記頻度統計手段は、前記ユーザの頭の向きを検知するセンサからの出力に基づいて前記頻度を算出する、項目1又は2に記載の画像生成装置。
(項目5)前記付加画像生成手段は、前記視線方向検出手段によって検出された前記ユーザの現在の視線方向、又は前記センサによって検知された前記ユーザの現在の頭の向きに応じて前記付加画像を動的に変化させる、項目3又は4に記載の画像生成装置。
(項目6)前記低頻度エリア識別手段は、前記頻度が第1閾値を下回っている前記画像内のエリアを第1低頻度エリア、前記頻度が前記第1閾値を上回り、且つ前記第1閾値よりも大きい第2閾値を下回っている前記画像内のエリアを第2低頻度エリアとしてそれぞれ識別し、前記付加画像生成手段は、前記第1低頻度エリアに前記画像と重畳して第1付加画像を配置し、前記第2低頻度エリアに前記画像と重畳して前記第1付加画像とは属性値の異なる第2付加画像を配置する、項目1から5のいずれか1項に記載の画像生成装置。
(項目7)コンピュータが実行する画像生成方法であって、ディスプレイに表示するための画像を生成するステップと、前記画像を前記ディスプレイへ出力するステップと、ユーザが前記ディスプレイに表示された前記画像の各部分を見る頻度に基づく統計データを作成するステップと、前記統計データに基づいて、前記頻度が閾値を下回っている前記画像内のエリアを低頻度エリアとして識別するステップと、前記低頻度エリアに前記画像と重畳して配置するための付加画像を生成するステップと、前記付加画像を前記ディスプレイへ出力するステップと、を含む画像生成方法。
(項目8)コンピュータに、ディスプレイに表示するための画像を生成するステップと、前記画像を前記ディスプレイへ出力するステップと、ユーザが前記ディスプレイに表示された前記画像の各部分を見る頻度に基づく統計データを作成するステップと、前記統計データに基づいて、前記頻度が閾値を下回っている前記画像内のエリアを低頻度エリアとして識別するステップと、前記低頻度エリアに前記画像と重畳して配置するための付加画像を生成するステップと、前記付加画像を前記ディスプレイへ出力するステップと、を実行させるための画像生成プログラム。
[本発明の実施形態の詳細]
以下、図面を参照しながら本発明の実施形態について詳しく説明する。
図1は、本発明の一実施形態に係る画像表示システム100のハードウェア構成図である。画像表示システム100は、ヘッドマウントディスプレイ(Head Mounted Display:以下HMDと称する)120と、画像生成装置200とを備える。HMD120と画像生成装置200は、一例として有線ケーブル150によって電気的に接続され、相互に通信可能である。有線ケーブル150に代えて、無線接続が用いられてもよい。
HMD120は、ユーザ160の頭に装着されて利用される表示デバイスである。HMD120は、ディスプレイ122と、アイトラッキングデバイス(Eye Tracking Device:以下ETDと称する)124と、センサ126とを備える。ETD124とセンサ126は、どちらか一方だけが択一的に設けられてもよい。HMD120は更に、不図示のスピーカ(ヘッドホン)やカメラを備えてもよい。
ディスプレイ122は、HMD120を装着したユーザ160の視界に画像を提示するように構成される。例えば、ディスプレイ122は、非透過型ディスプレイとして構成することができる。この場合、HMD120の外界の光景はユーザ160の視界から遮断され、ユーザ160の目にはディスプレイ122に映し出された画像だけが届けられる。ディスプレイ122には、例えば、コンピュータグラフィックスを用いて生成した画像が表示される。コンピュータグラフィックスによる画像の一例は、仮想現実の空間(例えばコンピュータゲームで作り出される世界)を画像化した仮想現実画像である。あるいは、現実世界の実際の地形や物体等の位置座標データに基づいて、現実世界をコンピュータグラフィックスで表現してもよい。更に、コンピュータグラフィックスによるのではなく、HMD120に装備された不図示のカメラを用いてユーザ160の視点で撮影した映像を、ディスプレイ122に表示することとしてもよい。
ETD124は、ユーザ160の眼球の動きを追跡して、ユーザ160の視線がどちらの方向に向けられているかを検出するように構成される。例えば、ETD124は、赤外線光源と赤外線カメラとを備える。赤外線光源は、HMD120を装着したユーザ160の目に向けて赤外線を照射する。赤外線カメラは、赤外線で照射されたユーザ160の目の画像を撮像する。赤外線はユーザ160の目の表面で反射されるが、瞳と瞳以外の部分とで赤外線の反射率が異なる。赤外線カメラで撮像されたユーザ160の目の画像には、赤外線の反射率の違いが画像の明暗となって現れる。この明暗に基づいて、ユーザ160の目の画像において瞳が識別され、更に、識別された瞳の位置に基づいて、ユーザ160の視線の方向が検出される。ユーザ160の視線方向は、ディスプレイ122に表示された画像のうちユーザ160がどの部分を注視しているかを示す。
センサ126は、HMD120を装着したユーザ160の頭がどちらの方向を向いているかを検知するためのセンサである。センサ126としては、例えば、磁気センサ、角速度センサ、若しくは加速度センサのいずれか、又はこれらの組み合わせが用いられてよい。センサ126が磁気センサ、角速度センサ、又は加速度センサである場合、センサ126はHMD120に内蔵されて、HMD120の向きや動きに応じた値(磁気、角速度、又は加速度の値)を出力する。センサ126からの出力値を適宜の方法で加工することで、HMD120を装着したユーザ160の頭の向きが算出される。ユーザ160の頭の向きは、ユーザ160が頭を動かした際にその動きに追従するようにディスプレイ122の表示画像を変化させるのに利用することができる。ユーザ160の頭の動きに合わせてディスプレイ122の表示画像を変化させる場合、ユーザ160の頭の向きは、ディスプレイ122の表示画像のうちユーザ160が見ている蓋然性が比較的高い部分の大まかな目安を示す。
なおセンサ126は、HMD120の外部に設けられたセンサであってもよい。例えば、センサ126は、HMD120とは別体の赤外線センサであってよい。この赤外線センサを用いて、HMD120の表面に設けられた赤外線反射マーカーを検知することにより、HMD120を装着したユーザ160の頭の向きを特定することができる。
画像生成装置200は、HMD120に表示される画像を生成するための装置である。画像生成装置200は、プロセッサ202と、メモリ204と、ユーザ入力インターフェイス208とを少なくとも備える。画像生成装置200は更に、その他のコンポーネントとして、例えばネットワークを介して他の装置と通信するためのネットワークインターフェイス(不図示)を備えてもよい。画像生成装置200は、例えば、パーソナルコンピュータ、ゲームコンソール、スマートフォン、タブレット端末等として実現することが可能である。
メモリ204には、少なくともオペレーティングシステムと画像生成プログラムとが格納されている。オペレーティングシステムは、画像生成装置200の全体的な動作を制御するためのコンピュータプログラムである。画像生成プログラムは、画像生成装置200が後述する画像生成処理の各機能を実現するためのコンピュータプログラムである。メモリ204はまた、画像生成装置200の動作によって生成されるデータを一時的又は永続的に記憶することもできる。メモリ204の具体例は、ROM(Read Only Memory)、RAM(Random Access Memory)、ハードディスク、フラッシュメモリ、光ディスク等である。
プロセッサ202は、メモリ204に格納されているプログラムを読み出して、それに従った処理を実行するように構成される。プロセッサ202がメモリ204に格納された画像生成プログラムを実行することによって、後述する画像生成処理の各機能が実現される。プロセッサ202は、CPU(Central Processing Unit)及びGPU(Graphics Processing Unit)を含む。
ユーザ入力インターフェイス208は、画像表示システム100のユーザから画像生成装置200を操作するための入力を受け取るように構成される。ユーザ入力インターフェイス208の具体例は、ゲームコントローラ、タッチパッド、マウス、キーボード等である。
図2は、本発明の一実施形態に係る画像生成装置200の機能的な構成を示すブロック図である。画像生成装置200は、記憶部220及び処理部230を有する。処理部230は更に、画像生成部231と、頻度統計部232と、低頻度エリア識別部233と、付加画像生成部234と、画像出力部235とを含む。記憶部220は、図1に示されたメモリ204に対応する。処理部230及び処理部230に含まれる各部231〜235は、図1に示されたプロセッサ202がメモリ204内の画像生成プログラムを読み出して実行することによって実現される、本発明に係る画像生成処理の機能を表す。
画像生成部231は、HMD120に表示するための画像を生成する。例えば、画像生成部231は、記憶部220から所定のデータを取得し、取得したデータに基づいてコンピュータグラフィックス処理によって画像を生成する。一例として、画像生成部231は、HMD120を装着したユーザ160がコンピュータゲームによる仮想現実空間を認識することができるような仮想現実画像を生成することとしてよい。仮想現実画像は、ユーザが仮想現実空間内で目にすることのできる光景を表す。例えば、画像生成部231によって生成される仮想現実画像は、コンピュータゲーム内に登場するキャラクタ、建物や木などの風景、室内の家具や壁の内装、地面に落ちているアイテム、ユーザが操作しているアバターの体の一部(手や足)やアバターが手で持っている物体(銃や剣)等を含む。また、画像生成部231は、現実世界の実際の地形データ等に基づいて現実世界を再現したコンピュータグラフィックス画像を生成することとしてもよい。更に、画像生成部231が生成する画像は、コンピュータグラフィックス処理によるものではなく、例えば、HMD120に装備された外部カメラによってユーザ160の視点で撮影された映像そのものであってもよい。
画像生成部231は、更に、センサ126からの出力値に基づいて画像を変化させることとしてもよい。例えば、画像生成部231が生成する画像は、仮想現実空間内におけるユーザの視界が、センサ126からの出力値が示すユーザ160の頭の動きに追従して移り変わっていく様子を表す画像であってよい。
画像生成部231によって生成された画像は、画像出力部235を介してHMD120へ出力されて、ディスプレイ122に表示される。
頻度統計部232は、HMD120を装着したユーザ160がディスプレイ122に表示された画像の各部分を見る頻度に基づいて、統計データを作成する。統計データは、ディスプレイ122に表示された画像のどの部分がよく見られ、どの部分があまり見られていないかを示す。例えば、頻度統計部232は、ETD124によって検出されたユーザ160の視線方向に基づいて、ユーザ160が画像の各部分を見る頻度の統計データを作成する。また、頻度統計部232は、センサ126によって検知されたユーザ160の頭の向きに基づいて、ユーザ160が画像の各部分を見る頻度の統計データを作成してもよい。図3及び4を参照して具体的に説明する。
図3は、HMD120のディスプレイ122に表示される表示画像520を示す。表示画像520は、複数の部分領域501を含む。図3の例では、部分領域501は、表示画像520を縦横に格子状に分割してできる1つ1つの小さな画像範囲である。HMD120を装着したユーザ160は、ある瞬間において表示画像520のうちある特定の部分領域501を注視し、また別の瞬間には別の部分領域501を注視する。ユーザ160の視線は、時間の経過と共に表示画像520の異なる部分領域501を行き来する。この時々刻々のユーザ160の視線方向は、ETD124によって検出されて、頻度統計部232へ入力される。
図3の部分領域501には、それぞれ「0」から「5」までのいずれかの数字が記されている。この数字は、当該数字が記されている部分領域501の頻度値を表す。例えば、頻度値「0」は、ユーザ160がその部分領域501を全く見ていないことを示す。また、頻度値「1」は、ユーザ160がその部分領域501を僅かな頻度で見たことを示し、頻度値「5」は、ユーザ160がその部分領域501を最高頻度で見たことを示す。中間の頻度値「2」、「3」、「4」は、頻度値「1」と「5」を適宜按分した頻度を示す。頻度統計部232は、所定の時間期間、ETD124から入力されたユーザ160の視線方向を収集して、その収集結果に従って部分領域501毎に頻度値を付与する。例えば、頻度統計部232は、当該時間期間においてユーザ160の視線の滞在時間が最も長いグループに分類される部分領域501に対して頻度値「5」を付与し、その次に滞在時間が長いグループに分類される部分領域501に対して頻度値「4」を付与する。同様にして他の頻度値も付与される。
図4は、HMD120のディスプレイ122に一度に表示される範囲530よりも広い領域540を示す。領域540は、例えば、コンピュータゲームによる仮想現実空間内でユーザが自分の周囲に見ることができる光景の全体を表す。表示範囲530は、仮想現実空間内でユーザがある特定方向を向いた時に視界に入る限られた範囲の光景を表し、図3の表示画像520の範囲に対応する。例えば、ユーザ160が頭をいろいろな方向に動かした場合、表示範囲530は頭の動きに追従して領域540内を動き回る。
図4に示されるように、領域540は、図3で説明したのと同様の複数の部分領域501を含む。HMD120を装着したユーザ160は、ある時間帯において頭をある特定の方向に向けている。ユーザ160が当該方向に頭を向けている間に、図3において説明したのと同様にして、その時の表示範囲530に含まれる部分領域501に対して頻度値が付与される。またユーザ160は、別の時間帯では頭を別の方向に向ける。ユーザ160が当該別の方向に頭を向けている間、同様にその時の表示範囲530に含まれる部分領域501に対して頻度値が付与される。2つの時間帯における表示範囲530が一部重なる場合には、例えば、その重なった部分領域501にユーザ160の視線が滞在する合計の時間に基づいて、各部分領域501に頻度値が付与される。
図4のように表示範囲530が領域540内を移動する例においては、ユーザ160の頭の向きに基づいて、各部分領域501の頻度値を決定することとしてもよい。例えば、ユーザ160が頭を動かすと、センサ126によってユーザ160の頭の向きが検知されて、その向きに応じた表示範囲530の画像が画像生成部231によって生成される。この時、ユーザ160の実際の視線は生成された画像内の任意の部分に存在し得るが、ここでは1つの仮定として、ユーザ160は表示範囲530内の所定の固定部分(例えば表示範囲530の中心)を見ているとみなすこととする。頻度統計部232は、表示範囲530の当該固定部分の方向がユーザ160の視線方向であるものとして、各部分領域501の頻度値を決定する。例えば、頻度統計部232は、所定の時間期間にわたって表示範囲530が領域540内を動く様子を追跡し、表示範囲530の中心と重なっている時間が長い部分領域501には大きい頻度値、表示範囲530の中心と重なっている時間が短い部分領域501には小さい頻度値を付与する。
このように、ユーザ160の視線方向又は頭の向きに基づいて、各部分領域501の頻度値が統計的に収集される。収集された各部分領域501の頻度値は統計データを構成する。統計データは、記憶部220に格納されてよい。
なお、図3及び図4に描かれている点線(部分領域501の枠線)と数字(頻度値)は、以上の説明のために表したものであって、画像そのものを構成する要素ではなく、したがってHMD120のディスプレイ122には表示されないことに留意されたい。
低頻度エリア識別部233は、頻度統計部232によって作成された統計データに基づいて、低頻度エリアを識別する。低頻度エリアは、HMD120のディスプレイ122に表示された画像のうち、ユーザ160に見られる頻度が低い部分的なエリアである。例えば、低頻度エリア識別部233は、統計データを構成する各部分領域501の頻度値を所定の閾値と比較し、比較の結果、ある部分領域501の頻度値が閾値を下回っていれば、その部分領域501を低頻度エリアの一部と判断する。
図5は、低頻度エリアの一例を示す。この例は、図3に示した各部分領域501の頻度値の例に対応する。図5に例示された低頻度エリア570は、図3において頻度値「0」又は「1」を付与された部分領域501からなるエリアである。別の例として、「0」又は「1」又は「2」の頻度値を付与された部分領域501を低頻度エリアとしてもよい。
また低頻度エリア識別部233は、低頻度エリアを頻度値に応じて複数段階に分類することとしてもよい。例えば、低頻度エリア識別部233は、頻度値が「0」又は「1」である部分領域501を第1低頻度エリアとし、頻度値が「2」又は「3」である部分領域501を第2低頻度エリアとしてもよい。
付加画像生成部234は、低頻度エリアに配置するための付加画像を生成する。生成された付加画像は、画像出力部235を介してHMD120へ出力されて、画像生成部231からの画像と重畳してディスプレイ122に表示される。付加画像は、例えば、仮想現実空間に広告を提示したり、コンピュータゲームにおいて敵キャラクタや有用なアイテムを表示したりするのに利用できる。付加画像はユーザ160に見られる頻度が低い低頻度エリアに表示されるので、ユーザ160は付加画像にあまり影響されずに画像生成部231からの画像を視認することができる。その反対に、例えば低頻度エリアにユーザ160にとって価値の高い付加画像が表示され得るというルールを仮定すれば、ユーザ160の注意を画像生成部231からの画像(低頻度エリア以外のエリア)だけでなく低頻度エリアにも向けさせることができる。例えば、コンピュータゲームの例において、価値の高いレアアイテムや倒すと高得点の得られる敵キャラクタを付加画像として低頻度エリアに表示することで、ゲームの面白さを高めることが可能である。
更に、付加画像生成部234は、ユーザ160の現在の視線方向や頭の向きに応じて付加画像を動的に変化させてもよい。例えば、まず付加画像としてあるキャラクタ(幽霊やモグラたたきゲームのモグラ)が低頻度エリアに表示される。付加画像生成部234は、ETD124又はセンサ126からの入力に基づいて、ユーザ160が視線(又は頭)を低頻度エリアに向けようとしている(向けつつある)か否かを判定する。ユーザ160が視線を低頻度エリアに向けようとしている場合、付加画像生成部234は、当該キャラクタの付加画像を、例えばキャラクタがユーザ160の視線から逃げる(幽霊が視界から消える、又はモグラが地面に隠れる)ような付加画像に変化させる。ユーザ160の視線が低頻度エリアに近付く度合いに応じて、キャラクタの逃げる度合いを調整してもよい。
付加画像生成部234はまた、低頻度エリアが複数段階に分類されている場合、分類された低頻度エリア(第1低頻度エリア、第2低頻度エリア等)毎に異なる付加画像(第1付加画像、第2付加画像等)を生成することとしてもよい。例えば、第1低頻度エリアに表示される第1付加画像の属性値は、第2低頻度エリアに表示される第2付加画像の属性値と異なる。一例として、第1低頻度エリアが頻度値「0」及び「1」に対応し、第2低頻度エリアが頻度値「2」及び「3」に対応する場合、ユーザ160に見られる頻度がより低いエリアである第1低頻度エリアに、より価値の高いレアアイテムや、倒すとより高い得点の得られる敵キャラクタを第1付加画像として表示することで、ゲームの面白さをより一層高めることが可能である。
図6は、本発明の一実施形態に係る画像生成装置200の処理手順を示すフローチャートである。まず、ステップS602において、画像生成装置200の画像生成部231が、HMD120に表示するための画像を生成する。次に、ステップS604において、画像生成装置200の画像出力部235が、画像生成部231により生成された画像をHMD120へ出力する。これにより、HMD120のディスプレイ122に画像が表示される。次に、ステップS606において、画像生成装置200の頻度統計部232が、HMD120を装着したユーザ160がディスプレイ122に表示された画像の各部分を見る頻度に基づいて、統計データを作成する。例えば、画像生成装置200の頻度統計部232は、ETD124によって検出されたユーザ160の視線方向、又はセンサ126からの出力値により検知されるユーザ160の頭の向きに基づいて、各部分領域の頻度値を決定する。次に、ステップS608において、画像処理装置200の低頻度エリア識別部233が、頻度統計部232によって作成された統計データに基づいて、ユーザ160に見られる頻度が低い低頻度エリアを識別する。次に、ステップS610において、画像生成装置200の付加画像生成部234が、低頻度エリアに配置するための付加画像を生成する。次に、ステップS612において、画像生成装置200の画像出力部235が、付加画像生成部234により生成された付加画像をHMD120へ出力する。これにより、HMD120のディスプレイ122上の画像に重畳して、低頻度エリアに付加画像が表示される。
以上、本発明の実施形態を説明したが、本発明はこれに限定されず、その要旨を逸脱しない範囲内において様々な変更が可能である。
100 画像表示システム
120 ヘッドマウントディスプレイ(HMD)
122 ディスプレイ
124 アイトラッキングデバイス(ETD)
126 センサ
150 有線ケーブル
200 画像生成装置
202 プロセッサ
204 メモリ
208 ユーザ入力インターフェイス
220 記憶部
230 処理部
231 画像生成部
232 頻度統計部
233 低頻度エリア識別部
234 付加画像生成部
235 画像出力部
570 低頻度エリア

Claims (8)

  1. ディスプレイに表示するための画像を生成する画像生成手段と、
    ユーザが前記ディスプレイに表示された前記画像の各部分を見る頻度に基づく統計データを作成する頻度統計手段と、
    前記統計データに基づいて、前記頻度が閾値を下回っている前記画像内のエリアを低頻度エリアとして識別する低頻度エリア識別手段と、
    前記低頻度エリアに前記画像と重畳して配置するための付加画像を生成する付加画像生成手段と、
    前記画像及び前記付加画像を前記ディスプレイへ出力する画像出力手段と、
    を備える画像生成装置。
  2. 前記ディスプレイは、ヘッドマウントディスプレイとして構成され、
    前記画像は、前記ヘッドマウントディスプレイを装着した前記ユーザに対して提示される仮想現実画像である、
    請求項1に記載の画像生成装置。
  3. 前記頻度統計手段は、視線方向検出手段によって検出された前記ユーザの視線方向に基づいて前記頻度を算出する、
    請求項1又は2に記載の画像生成装置。
  4. 前記頻度統計手段は、前記ユーザの頭の向きを検知するセンサからの出力に基づいて前記頻度を算出する、
    請求項1又は2に記載の画像生成装置。
  5. 前記付加画像生成手段は、前記視線方向検出手段によって検出された前記ユーザの現在の視線方向、又は前記センサによって検知された前記ユーザの現在の頭の向きに応じて前記付加画像を動的に変化させる、
    請求項3又は4に記載の画像生成装置。
  6. 前記低頻度エリア識別手段は、前記頻度が第1閾値を下回っている前記画像内のエリアを第1低頻度エリア、前記頻度が前記第1閾値を上回り、且つ前記第1閾値よりも大きい第2閾値を下回っている前記画像内のエリアを第2低頻度エリアとしてそれぞれ識別し、
    前記付加画像生成手段は、前記第1低頻度エリアに前記画像と重畳して第1付加画像を配置し、前記第2低頻度エリアに前記画像と重畳して前記第1付加画像とは属性値の異なる第2付加画像を配置する、
    請求項1から5のいずれか1項に記載の画像生成装置。
  7. コンピュータが実行する画像生成方法であって、
    ディスプレイに表示するための画像を生成するステップと、
    前記画像を前記ディスプレイへ出力するステップと、
    ユーザが前記ディスプレイに表示された前記画像の各部分を見る頻度に基づく統計データを作成するステップと、
    前記統計データに基づいて、前記頻度が閾値を下回っている前記画像内のエリアを低頻度エリアとして識別するステップと、
    前記低頻度エリアに前記画像と重畳して配置するための付加画像を生成するステップと、
    前記付加画像を前記ディスプレイへ出力するステップと、
    を含む画像生成方法。
  8. コンピュータに、
    ディスプレイに表示するための画像を生成するステップと、
    前記画像を前記ディスプレイへ出力するステップと、
    ユーザが前記ディスプレイに表示された前記画像の各部分を見る頻度に基づく統計データを作成するステップと、
    前記統計データに基づいて、前記頻度が閾値を下回っている前記画像内のエリアを低頻度エリアとして識別するステップと、
    前記低頻度エリアに前記画像と重畳して配置するための付加画像を生成するステップと、
    前記付加画像を前記ディスプレイへ出力するステップと、
    を実行させるための画像生成プログラム。
JP2015191042A 2015-09-29 2015-09-29 画像生成装置、画像生成方法、及び画像生成プログラム Active JP5913709B1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2015191042A JP5913709B1 (ja) 2015-09-29 2015-09-29 画像生成装置、画像生成方法、及び画像生成プログラム
PCT/JP2016/076307 WO2017056892A1 (ja) 2015-09-29 2016-09-07 画像生成装置、画像生成方法、及び画像生成プログラム
US15/271,188 US10008041B2 (en) 2015-09-29 2016-09-20 Image generating device, image generating method, and image generating program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015191042A JP5913709B1 (ja) 2015-09-29 2015-09-29 画像生成装置、画像生成方法、及び画像生成プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2016044440A Division JP2017068818A (ja) 2016-03-08 2016-03-08 画像生成装置、画像生成方法、及び画像生成プログラム

Publications (2)

Publication Number Publication Date
JP5913709B1 JP5913709B1 (ja) 2016-04-27
JP2017068411A true JP2017068411A (ja) 2017-04-06

Family

ID=55808292

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015191042A Active JP5913709B1 (ja) 2015-09-29 2015-09-29 画像生成装置、画像生成方法、及び画像生成プログラム

Country Status (3)

Country Link
US (1) US10008041B2 (ja)
JP (1) JP5913709B1 (ja)
WO (1) WO2017056892A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019102091A (ja) * 2017-11-30 2019-06-24 株式会社デジタルガレージ 画像処理システム、及び画像処理方法
US10540825B2 (en) 2016-05-02 2020-01-21 Sony Interactive Entertainment Inc. Image processing apparatus

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6095830B1 (ja) * 2016-05-18 2017-03-15 株式会社コロプラ 視野情報収集方法および当該視野情報収集方法をコンピュータに実行させるためのプログラム
KR101844588B1 (ko) * 2017-02-08 2018-04-02 한림대학교 산학협력단 실내 측위를 이용한 영상 제공 장치 및 방법
JP6389305B1 (ja) * 2017-07-21 2018-09-12 株式会社コロプラ 情報処理方法、コンピュータ、及びプログラム
US10578639B2 (en) * 2017-08-28 2020-03-03 Otis Elevator Company Hybrid altimeter for measuring vertical velocity
JP2019023869A (ja) * 2018-08-03 2019-02-14 株式会社コロプラ 情報処理方法、コンピュータ、及びプログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0761257A (ja) * 1993-08-26 1995-03-07 Nissan Motor Co Ltd 車両用表示装置
JP2008210239A (ja) * 2007-02-27 2008-09-11 Nissan Motor Co Ltd 視線推定装置
JP2012010117A (ja) * 2010-06-25 2012-01-12 Kddi Corp 映像コンテンツに重畳する付加情報の領域を決定する映像出力装置、プログラム及び方法
JP2013255168A (ja) * 2012-06-08 2013-12-19 Toyota Infotechnology Center Co Ltd 撮像装置、および撮像方法
JP2015092237A (ja) * 2013-10-03 2015-05-14 パナソニックIpマネジメント株式会社 表示制御装置、表示制御方法、表示制御プログラムおよび投影装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8125310B2 (en) * 2005-04-01 2012-02-28 Abb Research Ltd. Method and system for providing a user interface
KR101317401B1 (ko) * 2010-08-25 2013-10-10 주식회사 팬택 객체 저장이 가능한 단말 장치 및 방법
US8379053B1 (en) * 2012-01-24 2013-02-19 Google Inc. Identification of areas of interest on a web page
WO2013138742A1 (en) * 2012-03-15 2013-09-19 Vibrant Media, Inc. Systems and methods for delivery techniques of contextualized services on mobile devices
EP2960896B1 (en) * 2013-02-22 2022-07-20 Sony Group Corporation Head-mounted display and image display device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0761257A (ja) * 1993-08-26 1995-03-07 Nissan Motor Co Ltd 車両用表示装置
JP2008210239A (ja) * 2007-02-27 2008-09-11 Nissan Motor Co Ltd 視線推定装置
JP2012010117A (ja) * 2010-06-25 2012-01-12 Kddi Corp 映像コンテンツに重畳する付加情報の領域を決定する映像出力装置、プログラム及び方法
JP2013255168A (ja) * 2012-06-08 2013-12-19 Toyota Infotechnology Center Co Ltd 撮像装置、および撮像方法
JP2015092237A (ja) * 2013-10-03 2015-05-14 パナソニックIpマネジメント株式会社 表示制御装置、表示制御方法、表示制御プログラムおよび投影装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10540825B2 (en) 2016-05-02 2020-01-21 Sony Interactive Entertainment Inc. Image processing apparatus
JP2019102091A (ja) * 2017-11-30 2019-06-24 株式会社デジタルガレージ 画像処理システム、及び画像処理方法
JP7277119B2 (ja) 2017-11-30 2023-05-18 株式会社デジタルガレージ 画像処理システム、及び画像処理方法

Also Published As

Publication number Publication date
WO2017056892A1 (ja) 2017-04-06
US20170092006A1 (en) 2017-03-30
JP5913709B1 (ja) 2016-04-27
US10008041B2 (en) 2018-06-26

Similar Documents

Publication Publication Date Title
JP5913709B1 (ja) 画像生成装置、画像生成方法、及び画像生成プログラム
CN110199325B (zh) 仿真系统、处理方法以及信息存储介质
JP6017664B1 (ja) 情報処理方法及び情報処理プログラム
JP6097377B1 (ja) 画像表示方法及びプログラム
US11738270B2 (en) Simulation system, processing method, and information storage medium
KR20180033138A (ko) 시선 검출 방법 및 장치
US10761600B2 (en) Simulation control device and information storage medium
JP6017008B1 (ja) アバター表示システム、ユーザ端末、及びプログラム
US20180011681A1 (en) Information processing method and system for executing the information processing method
CN108463839B (zh) 信息处理装置和用户指南呈现方法
JP7144796B2 (ja) シミュレーションシステム及びプログラム
US10350495B2 (en) Simulation control device and information storage medium
WO2019187862A1 (ja) 情報処理装置、情報処理方法、および記録媒体
JP6181842B1 (ja) アプリケーション制御プログラム、アプリケーション制御方法及びアプリケーション制御システム
US11521346B2 (en) Image processing apparatus, image processing method, and storage medium
JP2017138973A (ja) 仮想空間の提供方法、およびプログラム
JP6707429B2 (ja) アバター表示システム、ユーザ端末、及びプログラム
CN109416614B (zh) 通过计算机实现的方法以及非易失性计算机可读介质、系统
US11474595B2 (en) Display device and display device control method
JP2017078893A (ja) 仮想現実空間のオブジェクトと対話するための装置、方法、及びプログラム
JP6918189B2 (ja) シミュレーションシステム及びプログラム
JP2017068818A (ja) 画像生成装置、画像生成方法、及び画像生成プログラム
JP2014039630A (ja) 遊技機およびその演出制御方法
JP2017097918A (ja) 画像表示方法及びプログラム
JP6905022B2 (ja) アプリケーション制御プログラム、アプリケーション制御方法及びアプリケーション制御システム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160204

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160303

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160401

R150 Certificate of patent or registration of utility model

Ref document number: 5913709

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250