JP6298432B2 - 画像生成装置、画像生成方法、及び画像生成プログラム - Google Patents

画像生成装置、画像生成方法、及び画像生成プログラム Download PDF

Info

Publication number
JP6298432B2
JP6298432B2 JP2015205476A JP2015205476A JP6298432B2 JP 6298432 B2 JP6298432 B2 JP 6298432B2 JP 2015205476 A JP2015205476 A JP 2015205476A JP 2015205476 A JP2015205476 A JP 2015205476A JP 6298432 B2 JP6298432 B2 JP 6298432B2
Authority
JP
Japan
Prior art keywords
line
virtual reality
reality space
user
sight information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015205476A
Other languages
English (en)
Other versions
JP2017078891A (ja
Inventor
集平 寺畑
集平 寺畑
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Colopl Inc
Original Assignee
Colopl Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Colopl Inc filed Critical Colopl Inc
Priority to JP2015205476A priority Critical patent/JP6298432B2/ja
Priority to US15/286,485 priority patent/US10496158B2/en
Priority to PCT/JP2016/080667 priority patent/WO2017069075A1/ja
Publication of JP2017078891A publication Critical patent/JP2017078891A/ja
Application granted granted Critical
Publication of JP6298432B2 publication Critical patent/JP6298432B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/024Multi-user, collaborative environment

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Computer Graphics (AREA)
  • Multimedia (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Signal Processing (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Transfer Between Computers (AREA)

Description

本発明は、画像生成装置、画像生成方法、及び画像生成プログラムに関する。
ユーザの頭の向き(視界)に応じた仮想空間を表示するヘッドマウントディスプレイを用い、実空間で離れた場所にいる複数のユーザが仮想空間を共有し、各ユーザの実空間における位置と仮想空間における位置を対応させることにより、仮想空間内において各ユーザ同士が互いに相手を認識することが可能な仮想空間共有システムが知られている(例えば、特許文献1(段落0008)参照)。
特許第3653463号公報
しかしながら、特許文献1の仮想空間共有システムでは、情報処理サーバ16が仮想空間情報(画像)を生成して、ネットワークを介して各ユーザのユーザ制御装置15へ仮想空間情報を送信している。そのため、ネットワークの通信負荷が大きい。
本発明は、上記の点に鑑みてなされたものであり、その目的の1つは、仮想現実空間共有システムにおいて通信負荷を低減することにある。
上述した課題を解決するために、本発明の一態様は、第1ユーザによって使用される第1端末と、第2ユーザによって使用される第2端末としてのヘッドマウントディスプレイと、の間で仮想現実空間を共有する仮想現実空間共有システムにおいて、前記第1端末に表示するための仮想現実空間画像を生成する画像生成装置であって、前記第2端末から仮想現実空間における前記第2ユーザの位置と視線方向とを含む視線情報を取得する視線情報取得部と、前記第2端末からの前記視線情報に基づいて前記第1端末に表示するための仮想現実空間画像を生成する画像生成部と、
前記画像生成部によって生成された前記仮想現実空間画像を前記第1端末へ供給する画像供給部と、を備える画像生成装置である。
また、本発明の他の一態様は、第1ユーザによって使用される第1端末と、第2ユーザによって使用される第2端末としてのヘッドマウントディスプレイと、の間で仮想現実空間を共有する仮想現実空間共有システムにおいて、前記第1端末に表示するための仮想現実空間画像を生成する、コンピュータが実行する画像生成方法であって、前記第2端末から仮想現実空間における前記第2ユーザの位置と視線方向とを含む視線情報を取得するステップと、前記第2端末からの前記視線情報に基づいて前記第1端末に表示するための仮想現実空間画像を生成するステップと、を含む画像生成方法である。
また、本発明の他の一態様は、第1ユーザによって使用される第1端末と、第2ユーザによって使用される第2端末としてのヘッドマウントディスプレイと、の間で仮想現実空間を共有する仮想現実空間共有システムにおいて、前記第1端末に表示するための仮想現実空間画像をコンピュータに生成させる画像生成プログラムであって、前記コンピュータに、前記第2端末から仮想現実空間における前記第2ユーザの位置と視線方向とを含む視線情報を取得するステップと、前記第2端末からの前記視線情報に基づいて前記第1端末に表示するための仮想現実空間画像を生成するステップと、を実行させる画像生成プログラムである。
本発明によれば、仮想現実空間共有システムにおいて通信負荷を低減することが可能である。
図1は、本発明の一実施形態に係る仮想現実空間共有システム10の概略構成を示す図である。 図2は、本発明の一実施形態に係る画像表示システム100のハードウェア構成図である。 図3は、本発明の第1実施形態に係る画像生成装置200a、200bの機能的な構成を示すブロック図である。 図4は、ユーザの頭の動きを模式的に示す図である。 図5は、画像生成部231a及び231bによってそれぞれ生成される仮想現実空間画像を概念的に示す図である。 図6は、第2実施形態の画像生成部231a及び231bがそれぞれ生成する仮想現実空間画像を概念的に示す図である。 図7は、本発明の第3実施形態に係る画像生成装置200a、200bの機能的な構成を示すブロック図である。 図8は、第3実施形態における第1サブシステム100aと第2サブシステム100bの各画像生成部231がそれぞれ生成する仮想現実空間画像を概念的に示す図である。
[本発明の実施形態の説明]
最初に、本発明の実施形態の内容を列記して説明する。本発明の一実施形態は、以下のような構成を備える。
(項目1)第1ユーザによって使用される第1端末と、第2ユーザによって使用される第2端末としてのヘッドマウントディスプレイと、の間で仮想現実空間を共有する仮想現実空間共有システムにおいて、前記第1端末に表示するための仮想現実空間画像を生成する画像生成装置であって、前記第2端末から仮想現実空間における前記第2ユーザの位置と視線方向とを含む視線情報を取得する視線情報取得部と、前記第2端末からの前記視線情報に基づいて前記第1端末に表示するための仮想現実空間画像を生成する画像生成部と、前記画像生成部によって生成された前記仮想現実空間画像を前記第1端末へ供給する画像供給部と、を備える画像生成装置。
(項目2)前記画像生成部は、前記仮想現実空間画像として、前記第2端末によって前記第2ユーザに対して提示されるのと同じ又は近似する仮想現実空間画像を生成する、項目1に記載の画像生成装置。
(項目3)前記画像生成部は、前記仮想現実空間画像として、仮想現実空間内の前記視線情報に応じた位置及び向きに配置されたオブジェクトを含む仮想現実空間画像を生成する、項目1に記載の画像生成装置。
(項目4)前記第2端末からの前記視線情報を修正して修正視線情報を生成する視線情報修正部を備え、前記画像生成部は、前記修正視線情報に基づいて仮想現実空間画像を生成する、項目1から3のいずれか1項に記載の画像生成装置。
(項目5)前記視線情報修正部は、所定の時間間隔で前記修正視線情報を生成する、項目4に記載の画像生成装置。
(項目6)前記視線情報修正部は、前回の修正視線情報と前記第2端末から前回取得された視線情報とに基づいて今回の修正視線情報を生成する、項目5に記載の画像生成装置。
(項目7)前記視線情報修正部は、前回の修正視線情報と前記第2端末から前回取得された視線情報とを線形補間することによって今回の修正視線情報を生成する、項目6に記載の画像生成装置。
(項目8)前記線形補間の補間係数は、前回の修正視線情報に含まれる視線方向と前記第2端末から前回取得された視線情報に含まれる視線方向との角度差に応じた値である、項目7に記載の画像生成装置。
(項目9)前記仮想現実空間画像のロール軸回りの変化がピッチ軸及びヨー軸回りの変化に比べて小さくなるように、前記線形補間の補間係数のうちロール軸に対応する補間係数がピッチ軸及びヨー軸に対応する補間係数とは異なる値に設定される、項目7又は8に記載の画像生成装置。
(項目10)第1ユーザによって使用される第1端末と、第2ユーザによって使用される第2端末としてのヘッドマウントディスプレイと、の間で仮想現実空間を共有する仮想現実空間共有システムにおいて、前記第1端末に表示するための仮想現実空間画像を生成する、コンピュータが実行する画像生成方法であって、前記第2端末から仮想現実空間における前記第2ユーザの位置と視線方向とを含む視線情報を取得するステップと、前記第2端末からの前記視線情報に基づいて前記第1端末に表示するための仮想現実空間画像を生成するステップと、を含む画像生成方法。
(項目11)第1ユーザによって使用される第1端末と、第2ユーザによって使用される第2端末としてのヘッドマウントディスプレイと、の間で仮想現実空間を共有する仮想現実空間共有システムにおいて、前記第1端末に表示するための仮想現実空間画像をコンピュータに生成させる画像生成プログラムであって、前記コンピュータに、前記第2端末から仮想現実空間における前記第2ユーザの位置と視線方向とを含む視線情報を取得するステップと、前記第2端末からの前記視線情報に基づいて前記第1端末に表示するための仮想現実空間画像を生成するステップと、を実行させる画像生成プログラム。
[本発明の実施形態の詳細]
以下、図面を参照しながら本発明の実施形態について詳しく説明する。
図1は、本発明の一実施形態に係る仮想現実空間共有システム10の概略構成を示す図である。仮想現実空間共有システム10は、第1ユーザ101aによって使用される第1サブシステム(第1端末)100aと、第2ユーザ101bによって使用される第2サブシステム(第2端末)100bとを備える。第1サブシステム100aと第2サブシステム100bは、ネットワーク105を介して相互に通信可能に接続されている。ネットワーク105は、例えばインターネットやLAN(Local Area Network)などの、任意のタイプのネットワークであってよい。図1には2つのサブシステム100a及び100bのみが示されているが、仮想現実空間共有システム10は、それぞれが別個のユーザによって使用される任意の数の同様のサブシステムを含んでもよい。
第1サブシステム100aは、ヘッドマウントディスプレイ(Head Mounted Display:以下HMDと称する)120aと、画像生成装置200aとを備える。画像生成装置200aは、第1ユーザ101aに提示するための仮想現実空間を表す画像を生成して、生成した仮想現実空間画像をHMD120aに表示させる。HMD120aに表示された仮想現実空間画像を見た第1ユーザ101aは、その仮想現実空間画像によって表現された仮想現実空間を体感することができる。同様に、第2サブシステム100bは、HMD120bと、画像生成装置200bとを備える。画像生成装置200bは、第2ユーザ101bに提示するための仮想現実空間を表す画像を生成して、生成した仮想現実空間画像をHMD120bに表示させる。HMD120bに表示された仮想現実空間画像を見た第2ユーザ101bは、その仮想現実空間画像によって表現された仮想現実空間を体感することができる。
第1サブシステム100aの画像生成装置200aによって生成される仮想現実空間画像は、後述するように、第2サブシステム100bを使用している第2ユーザ101bが体感する仮想現実空間とある一定の関係を有する。また同様に、第2サブシステム100bの画像生成装置200bによって生成される仮想現実空間画像も、第1サブシステム100aを使用している第1ユーザ101aが体感する仮想現実空間と一定の関係を有していてよい。このような形で、第1ユーザ101aと第2ユーザ101bとの間で仮想現実空間の共有がなされる。
図2は、本発明の一実施形態に係る画像表示システム100のハードウェア構成図である。画像表示システム100は、図1に示された第1サブシステム100aと第2サブシステム100bのそれぞれに対応するものである。上述したように、画像表示システム100は、HMD120と、画像生成装置200とを備える。HMD120と画像生成装置200は、一例として有線ケーブル150によって電気的に接続され、相互に通信可能である。有線ケーブル150に代えて、無線接続が用いられてもよい。
HMD120は、ユーザ101の頭に装着されて利用される表示デバイスである。HMD120は、ディスプレイ122と、センサ126とを備える。HMD120は更に、不図示のスピーカ(ヘッドホン)を備えてもよい。
ディスプレイ122は、HMD120を装着したユーザ101の視界に画像を提示するように構成される。例えば、ディスプレイ122は、非透過型ディスプレイとして構成することができる。この場合、HMD120の外界の光景はユーザ101の視界から遮断され、ユーザ101の目にはディスプレイ122に映し出された画像だけが届けられる。ディスプレイ122には、例えば、コンピュータグラフィックスを用いて生成した画像が表示される。コンピュータグラフィックスによる画像の一例は、仮想現実の空間(例えばコンピュータゲームで作り出される世界)を画像化した仮想現実空間画像である。あるいは、現実世界の実際の地形や物体等の位置座標データに基づいて、現実世界をコンピュータグラフィックスで表現してもよい。
センサ126は、HMD120を装着したユーザ101の頭がどちらの方向を向いているかを検知するためのセンサである。センサ126としては、例えば、磁気センサ、角速度センサ、若しくは加速度センサのいずれか、又はこれらの組み合わせが用いられてよい。センサ126が磁気センサ、角速度センサ、又は加速度センサである場合、センサ126はHMD120に内蔵されて、HMD120の向きや動きに応じた値(磁気、角速度、又は加速度の値)を出力する。センサ126からの出力値を適宜の方法で加工することで、HMD120を装着したユーザ101の頭の向きが算出される。ユーザ101の頭の向きは、ユーザ101が頭を動かした際にその動きに追従するようにディスプレイ122の表示画像を変化させるのに利用することができる。例えば、ユーザ101が頭を右(又は左、上、下)に向けると、ディスプレイ122には、仮想現実空間においてユーザの右(又は左、上、下)方向にある仮想的光景が映し出されるのであってよい。
なおセンサ126として、HMD120の外部に設けられたセンサを適用することとしてもよい。例えば、センサ126は、HMD120とは別体の、室内の固定位置に設置された赤外線センサであってよい。この赤外線センサを用いて、HMD120の表面に設けられた赤外線反射マーカーを検知することにより、HMD120を装着したユーザ101の頭の向きを特定することができる。
画像生成装置200は、HMD120に表示される画像を生成するための装置である。画像生成装置200は、プロセッサ202と、メモリ204と、ユーザ入力インターフェイス206と、通信インターフェイス208とを少なくとも備える。画像生成装置200は、例えば、パーソナルコンピュータ、ゲームコンソール、スマートフォン、タブレット端末等として実現することが可能である。
メモリ204には、少なくともオペレーティングシステムと画像生成プログラムとが格納されている。オペレーティングシステムは、画像生成装置200の全体的な動作を制御するためのコンピュータプログラムである。画像生成プログラムは、画像生成装置200が後述する画像生成処理の各機能を実現するためのコンピュータプログラムである。メモリ204はまた、画像生成装置200の動作によって生成されるデータを一時的又は永続的に記憶することもできる。メモリ204の具体例は、ROM(Read Only Memory)、RAM(Random Access Memory)、ハードディスク、フラッシュメモリ、光ディスク等である。
プロセッサ202は、メモリ204に格納されているプログラムを読み出して、それに従った処理を実行するように構成される。プロセッサ202がメモリ204に格納された画像生成プログラムを実行することによって、後述する画像生成処理の各機能が実現される。プロセッサ202は、CPU(Central Processing Unit)及びGPU(Graphics Processing Unit)を含む。
ユーザ入力インターフェイス206は、画像表示システム100のユーザから画像生成装置200を操作するための入力を受け取るように構成される。ユーザ入力インターフェイス206の具体例は、ゲームコントローラ、タッチパッド、マウス、キーボード等である。
通信インターフェイス208は、ネットワークを介して他の装置と通信するためのネットワークインターフェイスである。例えば図1に示された第1サブシステム100aの画像生成装置200aと第2サブシステム100bの画像生成装置200bは、それぞれの通信インターフェイス208を用いて、ネットワーク105を介して相互に通信する。
次に、本発明の一実施形態に係る画像生成装置200の詳細な機能を説明する。画像生成装置200は、生成する画像の内容に応じて3つのタイプに分類することができる。以下、それらをそれぞれ第1、第2、第3実施形態として説明を行う。
<第1実施形態>
図3は、本発明の第1実施形態に係る画像生成装置200a、200bの機能的な構成を示すブロック図である。前述したように(図1参照)、画像生成装置200aは第1サブシステム100aを構成する要素であり、画像生成装置200bは第2サブシステム100bを構成する要素である。画像生成装置200a及び200bは、図2を参照して説明したとおり同一のハードウェア構成を有してよいが、機能的な構成は以下に説明するように相互に異なっている。
まず第2サブシステム100bの画像生成装置200bから説明する。画像生成装置200bは、記憶部220b及び処理部230bを有する。処理部230bは更に、画像生成部231bと、視線情報送信部232と、画像出力部239とを含む。記憶部220bは、図2に示されたメモリ204に対応する。処理部230b並びに処理部230bに含まれる各部231b、232、及び239は、図2に示されたプロセッサ202がメモリ204内の画像生成プログラムを読み出して実行することによって実現される画像生成処理の機能を表す。
画像生成部231bは、HMD120bに表示するための画像を生成する。例えば、画像生成部231bは、記憶部220bから所定のデータを取得し、取得したデータに基づいてコンピュータグラフィックス処理によって画像を生成する。一例として、画像生成部231bは、HMD120bを装着した第2ユーザ101bがコンピュータゲームによる仮想現実空間を認識することができるような仮想現実空間画像を生成する。仮想現実空間画像は、ユーザが仮想現実空間内で目にすることのできる光景を表す。例えば、画像生成部231bによって生成される仮想現実空間画像は、コンピュータゲーム内に登場するキャラクタ、建物や木などの風景、室内の家具や壁の内装、地面に落ちているアイテム、ユーザが操作しているアバター(自分自身)の体の一部(手や足)やアバターが手で持っている物体(銃や剣)等の様々なオブジェクトを含む。仮想現実空間を構成するこのような各オブジェクトの配置位置、形状、色など、仮想現実空間画像を生成するのに必要なデータは、仮想現実空間構成情報221として記憶部220bに格納されている。画像生成部231bは、記憶部220bから取得した仮想現実空間構成情報221に基づいて、このようなコンピュータゲームの仮想現実空間画像を生成する。
画像生成部231bは、センサ126からの出力値に基づいて画像を変化させることとしてもよい。例えば、画像生成部231bが生成する画像は、仮想現実空間内におけるユーザの視界が、センサ126からの出力値が示す第2ユーザ101bの頭の動きに追従して移り変わっていく様子を表す画像であってよい。一例として、図4は、ユーザの頭の動きを模式的に示す。図示されるように、ユーザ101の頭の中心とHMD120の中心(ディスプレイ122の画面中心)とを結ぶ軸をZ軸、ユーザ101の頭の中心と頭頂部とを結ぶ軸をY軸、ユーザ101の頭の中心を通りY軸及びZ軸に直交する軸をX軸にとる。センサ126が例えば角速度センサである場合、センサ126からはX軸回りのピッチ角、Y軸回りのヨー角、及びZ軸回りのロール角のそれぞれの角速度の値が出力される。画像生成部231bは、これらの角速度の出力値、即ちユーザ101の頭の向きに基づいて、仮想現実空間画像を変化させる。例えば、ユーザ101が頭を右に向けた場合、Y軸回りのヨー角が変化する。画像生成部231bは、Y軸の角速度値の変化に合わせて、仮想現実空間内でユーザの右方向にある光景が映し出されるように、仮想現実空間画像を変化させる。同様に、ユーザ101が頭を右に傾けた場合、Z軸回りのロール角が変化する。画像生成部231bは、Z軸の角速度値の変化に合わせて、仮想現実空間内におけるユーザの視界が右に傾くように、仮想現実空間画像を変化させる。
また画像生成部231bは、ユーザの位置に基づいて画像を変化させることとしてもよい。例えば、ユーザが仮想現実空間内を歩き回る場合、画像生成部231bが生成する画像は、仮想現実空間内でユーザが現在立っている位置から見える光景を表す画像であってよい。一例として、仮想現実空間内におけるユーザの経時的な位置情報が記憶部220bに記憶される。画像生成部231bは、記憶部220bから仮想現実空間内におけるユーザの直前の位置情報を取得する。またゲームコントローラなどのユーザ入力インターフェイス206からは、ユーザが仮想現実空間内を歩き回るための操作入力として、ユーザの移動方向及び移動速度の指示が入力される。画像生成部231bは、記憶部220bから取得したユーザの直前の位置情報と、ユーザ入力インターフェイス206から入力されたユーザの移動方向及び移動速度の情報とに基づいて、仮想現実空間内におけるユーザの現在位置を算出する。算出したユーザの現在位置に基づいて、画像生成部231bは、仮想現実空間内をユーザが歩くのに合わせてユーザの視界が移り変わるように、仮想現実空間画像を変化させる。
このようにして、画像生成部231bでは、仮想現実空間内におけるユーザの位置と頭の向きに応じた仮想現実空間画像が生成される。生成された仮想現実空間画像は、画像出力部239を介してHMD120bへ出力されて、ディスプレイ122に表示される。これにより第2ユーザ101bは、仮想現実空間において、現在自分が立っている場所から頭を向けた方向に存在する仮想的光景を見ることができる。
視線情報送信部232は、ネットワーク105を介して第1サブシステム100aの画像生成装置200aへ第2ユーザ101bの視線情報を送信する。視線情報は、仮想現実空間内でユーザがどこにいてどの方向を見ているかを示す情報である。一例として、視線情報は、第2ユーザ101bの仮想現実空間における現在位置と頭の向きとを含む。例えば、視線情報送信部232は、画像生成部231bが仮想現実空間画像を生成するのに用いた仮想現実空間内のユーザ位置と頭の向きを画像生成部231bから取得し、それらを視線情報として送信することとしてよい。仮想現実空間におけるユーザの頭の向きは、少なくともユーザの視線方向を含む。ユーザの視線方向は、図4に示したZ軸に沿った方向であり、HMD120bのディスプレイ122に表示される仮想現実空間画像の画面中心の方向に対応する。更に、仮想現実空間におけるユーザの頭の向きは、ユーザの視線方向回りの回転(即ちZ軸回りのロール角)を含んでもよい。こうして視線情報送信部232から送信された第2ユーザ101bの視線情報は、第1サブシステム100aの画像生成装置200aにおいて画像生成処理のために利用される。
次に、第1サブシステム100aの画像生成装置200aについて説明する。画像生成装置200aは、記憶部220a及び処理部230aを有する。処理部230aは更に、画像生成部231aと、視線情報受信部233と、視線情報修正部234と、画像出力部239とを含む。記憶部220aは、図2に示されたメモリ204に対応する。処理部230a並びに処理部230aに含まれる各部231a、233、234、及び239は、図2に示されたプロセッサ202がメモリ204内の画像生成プログラムを読み出して実行することによって実現される、本発明に係る画像生成処理の機能を表す。
画像生成部231aは、HMD120aに表示するための画像を生成する。例えば、画像生成部231aは、記憶部220aに格納されている仮想現実空間構成情報221を用いたコンピュータグラフィックス処理によって仮想現実空間画像を生成する。一例として、仮想現実空間画像は、HMD120aを装着した第1ユーザ101aにコンピュータゲームによる仮想現実空間を認識させる画像である。
画像生成部231aによる画像生成処理は、第2サブシステム100bの画像生成装置200bから送信された第2ユーザ101bの視線情報に基づいて行われる。例えば、第2ユーザ101bの視線情報は、視線情報受信部233によって受信されて、画像生成処理のために画像生成部231aへ供給される。画像生成部231aは、一例として、仮想現実空間を第2ユーザ101bの視点で眺めた光景を表す仮想現実空間画像を生成する。この場合、画像生成部231aによって生成される仮想現実空間画像は、第2サブシステム100bの画像生成装置200bにおいて生成される仮想現実空間画像と同じものである。前述したように、第2ユーザ101bの視線情報には、仮想現実空間における第2ユーザ101bの現在位置と頭の向き(視線方向)が含まれている。画像生成部231aは、第2ユーザ101bの視線情報から仮想現実空間における第2ユーザ101bの現在位置と視線方向とを特定し、更にその位置から視線方向に存在する仮想現実空間内の光景を特定することによって、第2サブシステム100bの画像生成装置200bと同じ仮想現実空間画像を生成する。
図5は、画像生成部231a及び231bによってそれぞれ生成される仮想現実空間画像を概念的に示す。図5において、仮想現実空間内の部分的な領域であるフィールド500内に、第2ユーザ101bが位置している。フィールド500内には、オブジェクト(例えば建物や障害物等)501、502も配置されている。フィールド500は、例えば、スポーツゲームにおける競技エリア(例えばテニスコート、野球のグラウンド等)や、対戦格闘ゲームあるいはアクションゲームにおける戦闘エリアなどである。フィールド500内にいる第2ユーザ101bは、コンピュータゲームを実際にプレイするプレイヤーとして存在し、オブジェクト501、502の方向を向いている。第2ユーザ101bが使用する第2サブシステム100bの画像生成装置200b(画像生成部231b)は、仮想現実空間における第2ユーザ101bの位置、及びセンサ126から取得される第2ユーザ101bの頭の向き(視線方向)に基づいて、オブジェクト501及び502を含んだ仮想現実空間画像503bを生成する。一方、第1ユーザ101aは、フィールド500の外に位置している。フィールド500外の第1ユーザ101aは、例えば第2ユーザ101bのゲームプレイを観戦する観客である。第1ユーザ101aが使用する第1サブシステム100aの画像生成装置200a(画像生成部231a)は、第2サブシステム100bの画像生成装置200bから送信された第2ユーザ101bの視線情報に基づいて、仮想現実空間画像503aを生成する。図示されるように、仮想現実空間画像503aは、オブジェクト501及び502を含む、仮想現実空間画像503bと同一の画像である。
このようにして、画像生成部231aでは、ネットワーク105を介して第2サブシステム100bの画像生成装置200bから送信された第2ユーザ101bの視線情報に基づいて、第2サブシステム100bの画像生成装置200bと同じ仮想現実空間画像が生成される。生成された仮想現実空間画像は、画像出力部239を介してHMD120aへ出力されて、ディスプレイ122に表示される。これにより第1ユーザ101aは、仮想現実空間において、第2ユーザ101bが見ているのと同じ仮想的光景を見ることができる。
本実施形態においては、ネットワーク105を介して伝送されるのは第2ユーザ101bの視線情報だけである。視線情報は位置と方向の情報であるので、画像そのものと比べてデータ量が圧倒的に少ない。したがって、ネットワークの通信負荷を大幅に低減することが可能である。
ネットワーク105を介して第2ユーザ101bの視線情報を伝送するに当たり、ネットワーク105の通信状況や画像表示システム100(第1サブシステム100a、第2サブシステム100b)の処理状況によっては、第2ユーザ101bの視線情報が画像生成部231aに適時のタイミングで届かず遅延したり、あるいはデータの一部又は全部が失われたりすることがある。画像生成装置200aは、そのような事態に対処するために視線情報修正部234を備える。但し、視線情報修正部234は、視線情報の受信に問題があった場合だけでなく、適正に視線情報を取得できた場合にも動作するのであってもよい。
視線情報修正部234は、第2ユーザ101bの視線情報を修正する。例えば、視線情報修正部234は、既に取得済みの視線情報を利用して視線情報を修正する。一例として、第2サブシステム100bの画像生成装置200bからは所定の時間間隔で第2ユーザ101bの視線情報が送信される。この経時的な視線情報は視線情報受信部233によって受信されて、記憶部220aに時系列で格納される。視線情報修正部234は、例えば予定された時刻に第2ユーザ101bの新たな視線情報が第2サブシステム100bから受信されなかった場合、記憶部220aから直前の視線情報を取得して、取得した直前の視線情報に基づいて修正視線情報を生成する。修正視線情報は、予定された時刻に受信されなかった第2ユーザ101bの視線情報の代わりに、画像生成部231aにおける画像生成処理で利用される。
一例として、視線情報修正部234は、次式に従って修正視線情報を生成する。
e(t=n)=F(α)Ps(t=n−1)+F(α)Pe(t=n−1) ……(1)
e(t=n)=F(β)Rs(t=n−1)+F(β)Re(t=n−1) ……(2)
式(1)及び(2)の各変数の意味は次のとおりである。なお添字のtは時刻を表す。
e(t=n):今回修正する第2ユーザの位置(今回の修正視線情報)
e(t=n−1):前回修正された第2ユーザの位置(前回の修正視線情報)
s(t=n−1):前回受信された第2ユーザの位置(前回の視線情報)
e(t=n):今回修正する第2ユーザの頭の向き(今回の修正視線情報)
e(t=n−1):前回修正された第2ユーザの頭の向き(前回の修正視線情報)
s(t=n−1):前回受信された第2ユーザの頭の向き(前回の視線情報)
(α):重み付け関数
(α):重み付け関数
(β):重み付け関数
(β):重み付け関数
ここで第2ユーザの位置P及びPは、仮想現実空間の三次元座標で表される。また第2ユーザの頭の向きR及びRは、例えば図4に示したX、Y、及びZ軸の3軸方向を示す。前述のように、図4のZ軸はユーザの視線方向に対応する。
記憶部220aには、第2サブシステム100bから受信された第2ユーザ101bの前回まで(即ちt≦n−1)の視線情報Ps(t)、Rs(t)が蓄積されている。また記憶部220aには、視線情報修正部234によって前回まで(t≦n−1)に修正された修正視線情報Pe(t)、Re(t)も蓄積されている。視線情報修正部234は、時刻t=nにおいて、記憶部220aから第2ユーザ101bの直前の(前回の)視線情報Ps(t=n−1)、Rs(t=n−1)と修正視線情報Pe(t=n−1)、Re(t=n−1)とを取得し、これらをそれぞれ式(1)及び(2)に代入することによって、今回の修正視線情報Pe(t=n)、Re(t=n)を生成する。
このようにして、時刻t=nにおいて第2サブシステム100bの画像生成装置200bから第2ユーザ101bの視線情報(Ps(t=n)及びRs(t=n))が正しく受信できていない場合であっても、第2ユーザ101bの視線情報を修正することができる。修正された第2ユーザ101bの視線情報(即ち今回の修正視線情報Pe(t=n)、Re(t=n))は、画像生成処理のために画像生成部231aへ供給される。画像生成部231aは、この修正された視線情報Pe(t=n)、Re(t=n)を用いて、前述の処理と同様にして仮想現実空間画像を生成する。生成された仮想現実空間画像は、仮想現実空間を修正視線情報Pe(t=n)、Re(t=n)によって指定される仮想現実空間内の位置及び視線方向(頭の向き)から眺めた光景を表す。この場合、修正視線情報Pe(t=n)、Re(t=n)は仮想現実空間における第2ユーザ101bの実際の位置及び視線方向(頭の向き)とは少し異なっているので、画像生成部231aによって生成される仮想現実空間画像は、第2サブシステム100bの画像生成装置200bにおいて生成されている仮想現実空間画像から少しずれた画像となる。しかしながら、フレームの欠落を生じさせることなく一定周期で画像が生成されるので、第1サブシステム100aを使用している第1ユーザ101aに対して、映像の動きが一瞬止まったり突然映像がジャンプしたりすることのない、滑らかな映像を提供することが可能である。
式(1)及び(2)の重み付け関数としては、例えば次のようなものを適用してよい。
(α)=α
(α)=1−α
(β)=β
(β)=1−β
このような重み付け関数を用いた場合、視線情報の修正式(1)及び(2)は、前回の視線情報Ps(t=n−1)、Rs(t=n−1)と前回の修正視線情報Pe(t=n−1)、Re(t=n−1)との線形補間を表す。補間係数α、βは、例えば次のように定義することとしてよい。なお、記号(A,B)はベクトルAとBの内積を意味する。
α=ΔT×V
β=ΔT×V×(1−d)
d=(Rs(t=n−1),Re(t=n−1)
ここで、ΔTは時刻t=n−1から画像生成部231aが画像生成を実施するまでの時間差であり、Vは視線情報を単位時間当たりどれだけ変化させるかを指定するパラメータ(補間速度)である。但し、0≦α≦1となるようにΔTとVを調整するものとする。またベクトルRs(t=n−1)及びRe(t=n−1)は正規化されているものとし、内積の値dが負になる場合はd=0と定義することにする。
視線情報を修正するに当たりこのような線形補間を用いることによって、第1ユーザ101aが仮想現実空間を体感する際の「酔い」を軽減することができる。例えば、補間速度Vの値が大きいほど、修正式(1)及び(2)に従って修正される視線情報Pe(t=n)、Re(t=n)は第2ユーザ101bの実際の視線情報Ps(t=n−1)、Rs(t=n−1)に近付く。反対に、補間速度Vの値が小さいほど、修正式(1)及び(2)に従って修正される視線情報Pe(t=n)、Re(t=n)は第2ユーザ101bの実際の視線情報Ps(t=n−1)、Rs(t=n−1)から離れる。したがって、補間速度Vを小さく設定した場合は、第2ユーザ101bの動きが修正視線情報Pe(t=n)、Re(t=n)に反映されにくくなる。そのため、第2ユーザ101bが急激に位置や視線方向を変えたとしても、画像生成部231aが生成する仮想現実空間画像にはそのような急激な変化は現れない。結果的に第1ユーザ101aは、「酔い」を感じにくい仮想現実空間を体感することが可能である。
ここで、補間係数βは因子(1−d)を含んでいる。よって、ユーザの頭の向き(視線方向)に関する視線情報Rs(t=n−1)のベクトルと修正視線情報のベクトルRe(t=n−1)との角度差が小さいほど補間係数βは小さくなり、前回の修正視線情報Re(t=n−1)により近い修正視線情報Re(t=n)が得られる。また2つのベクトルの角度差が大きいほど補間係数βは大きくなり、前回の視線情報Rs(t=n−1)により近い修正視線情報Re(t=n)が得られる。これにより、第1ユーザ101aが視認する仮想現実空間には第2ユーザ101bの急激な動きが反映されにくくなるので、第1ユーザ101aは、更に「酔い」を感じにくい仮想現実空間を体感することが可能である。なお、補間係数αが因子(1−d)を含んでいてもよい。
更に、修正式(2)は図4に示したX、Y、及びZ軸の3軸方向にそれぞれ対応する3つの成分の式からなるが、各式の補間係数β(補間速度V)は必ずしも同じでなくてよい。例えば、3つの成分の式のうちZ軸(ロール軸)に対応する式の補間速度Vを、X軸(ピッチ軸)及びY軸(ヨー軸)に対応する式の補間速度V、Vよりも小さく設定することとしてよい。ロール軸回りの激しい画像変化は特にユーザが「酔い」を感じる原因となりやすいので、V<V、Vと設定して仮想現実空間画像のロール軸回りの変化をピッチ軸及びヨー軸回りの変化より抑えることで、第1ユーザ101aが感じる「酔い」を効果的に軽減することが可能である。
<第2実施形態>
第2実施形態では、第1サブシステム100aの画像生成部231aの機能のみが第1実施形態と異なる。以下、第1実施形態と共通する内容は記載を省略し、相違点についてのみ説明を行う。
図6は、第2実施形態の画像生成部231a及び231bがそれぞれ生成する仮想現実空間画像を概念的に示す。図6が図5と異なる点は、画像生成部231aによって生成される仮想現実空間画像603aの内容である。仮想現実空間画像603aは、仮想現実空間内における第1ユーザ101aの位置から第1ユーザ101aの視点でフィールド500を眺めた画像である。図示されるように、仮想現実空間画像603aは、オブジェクト501及び502に加えてオブジェクト101b(第2ユーザ101bを表すオブジェクト)を含む。第1ユーザ101aは、仮想現実空間内を歩いたり、視線を向ける方向を変えたりしてよい。第1サブシステム100aの画像生成部231aは、第2サブシステム100bの画像生成部231bと同様に、そのような第1ユーザ101aの動きに追従するよう仮想現実空間画像603aを変化させる。更に、画像生成部231aは、第2サブシステム100bから送信された第2ユーザ101bの視線情報に基づいて、仮想現実空間画像603a内のオブジェクト101bを制御する。例えば、画像生成部231aは、仮想現実空間画像603a内におけるオブジェクト101bの向きを、フィールド500上での実際の第2ユーザ101bの顔の向きと一致させる。また、画像生成部231aは、フィールド500上で第2ユーザ101bが立っている場所に対応する仮想現実空間画像603a内の位置に、オブジェクト101bを配置することとしてよい。
仮想現実空間画像603aは、オブジェクト101bのみを含む画像であってもよい。そのような仮想現実空間画像603aにおけるオブジェクト101bの一例は、第2ユーザ101bを表すアバターの顔である。この場合も上記と同様に、例えばアバターの顔の向きが、第2サブシステム100bから送信された第2ユーザ101bの視線情報に基づいて制御されることとしてよい。
更に、本実施形態は第1実施形態と同じ視線情報修正部234を含む。視線情報修正部234は、第1実施形態の場合と同様に、第2ユーザ101bの視線情報を修正する。修正された視線情報を本実施形態で用いることにより、仮想現実空間画像603a内のオブジェクト101bの動きを滑らかにすることが可能である。
<第3実施形態>
第3実施形態では、第1サブシステム100aの画像生成装置200aと第2サブシステム100bの画像生成装置200bが同一の機能を有する。以下、第1・第2実施形態との相違点を中心に説明する。
図7は、本発明の第3実施形態に係る画像生成装置200a、200bの機能的な構成を示すブロック図である。第1サブシステム100aの画像生成装置200aは、記憶部220a及び処理部230aを有する。処理部230aは更に、画像生成部231と、視線情報送信部232と、視線情報受信部233と、視線情報修正部234と、画像出力部239とを含む。同様に、第2サブシステム100bの画像生成装置200bは、記憶部220b及び処理部230bを有し、処理部230bは更に、画像生成部231と、視線情報送信部232と、視線情報受信部233と、視線情報修正部234と、画像出力部239とを含む。記憶部220a及び220bは、図2に示されたメモリ204に対応する。処理部230a及び230b、並びにそれぞれの処理部に含まれる各部231、232、233、234、及び239は、図2に示されたプロセッサ202がメモリ204内の画像生成プログラムを読み出して実行することによって実現される、本発明に係る画像生成処理の機能を表す。
第1サブシステム100aの画像生成部231と第2サブシステム100bの画像生成部231は共に、第2実施形態における第1サブシステム100aの画像生成部231aと同じ機能を有する。また第1サブシステム100aと第2サブシステム100bのそれぞれの視線情報送信部232、視線情報受信部233、視線情報修正部234、及び画像出力部239は、それぞれ第1・第2実施形態における各部と同じ機能を有する。
即ち、第2サブシステム100bの視線情報送信部232は、ネットワーク105を介して第1サブシステム100aの画像生成装置200aへ第2ユーザ101bの視線情報を送信する。第2ユーザ101bの視線情報は、第1サブシステム100aの視線情報受信部233によって受信される。第1サブシステム100aの画像生成部231は、受信された第2ユーザ101bの視線情報に基づいて仮想現実空間画像を生成する。生成された仮想現実空間画像は、画像出力部239を介して第1サブシステム100aのHMD120aへ出力され、第1ユーザ101aへの提示のためHMD120aのディスプレイ122に表示される。また同様に、第1サブシステム100aの視線情報送信部232は、ネットワーク105を介して第2サブシステム100bの画像生成装置200bへ第1ユーザ101aの視線情報を送信する。第1ユーザ101aの視線情報は、第2サブシステム100bの視線情報受信部233によって受信される。第2サブシステム100bの画像生成部231は、受信された第1ユーザ101aの視線情報に基づいて仮想現実空間画像を生成する。生成された仮想現実空間画像は、画像出力部239を介して第2サブシステム100bのHMD120bへ出力され、第2ユーザ101bへの提示のためHMD120bのディスプレイ122に表示される。
図8は、第3実施形態における第1サブシステム100aと第2サブシステム100bの各画像生成部231がそれぞれ生成する仮想現実空間画像を概念的に示す。図8において、仮想現実空間内の部分的な領域であるフィールド500内に、第1ユーザ101aと第2ユーザ101bが位置している。フィールド500内にはオブジェクト501も配置されている。第1ユーザ101a及び第2ユーザ101bは、コンピュータゲーム(スポーツゲームや対戦格闘ゲーム等)のプレイヤーとしてフィールド500上に存在し、互いに向かい合っている。
第1ユーザ101aが使用する第1サブシステム100aの画像生成部231は、第2サブシステム100bから送信された第2ユーザ101bの視線情報に基づいて、仮想現実空間画像803aを生成する。第2実施形態の仮想現実空間画像603aと同様に、仮想現実空間画像803aは、仮想現実空間内における第1ユーザ101aの位置から第1ユーザ101aの視点で仮想現実空間を眺めた画像であり、図8に示されるように、第2ユーザ101bを表すオブジェクトを含む。また第1ユーザ101aは、第2実施形態と同じく仮想現実空間内を歩いたり、視線を向ける方向を変えたりしてよい。第1サブシステム100aの画像生成部231は、そのような第1ユーザ101aの動きに追従するよう仮想現実空間画像803aを変化させる。更に、第1サブシステム100aの画像生成部231は、第2実施形態の画像生成部231aと同様に、第2ユーザ101bの視線情報に基づいて仮想現実空間画像803a内のオブジェクト101bを制御する。例えば、画像生成部231は、仮想現実空間画像803a内におけるオブジェクト101bの向きを、フィールド500上での実際の第2ユーザ101bの顔の向きと一致させる。また、画像生成部231は、フィールド500上で第2ユーザ101bが立っている場所に対応する仮想現実空間画像803a内の位置に、オブジェクト101bを配置することとしてよい。
第2ユーザ101bが使用する第2サブシステム100bの画像生成部231も、第1サブシステム100aの画像生成部231と同様にして、第1ユーザ101aの視線情報に基づいて仮想現実空間画像803bを生成する。図8に示されるように、仮想現実空間画像803bは、仮想現実空間内における第2ユーザ101bの位置から第2ユーザ101bの視点で仮想現実空間を眺めた画像であり、第1ユーザ101aを表すオブジェクトを含む。図8では更に、仮想現実空間画像803bはオブジェクト501も含んでいる。また第2サブシステム100bの画像生成部231は、第1サブシステム100aの画像生成部231と同様に、第2ユーザ101bの動きに追従するよう仮想現実空間画像803bを変化させると共に、第1ユーザ101aの視線情報に基づいて、仮想現実空間画像803b内のオブジェクト101aの向きや位置を制御する。
なお、本実施形態における第1サブシステム100a及び第2サブシステム100bの各視線情報修正部234は、第1・第2実施形態の場合と同様に、それぞれ第2ユーザ101b又は第1ユーザ101aの視線情報を修正する。修正された視線情報を各サブシステム100a、100bで用いることにより、仮想現実空間画像803a内のオブジェクト101bと仮想現実空間画像803b内のオブジェクト101aの動きを滑らかにすることが可能である。
以上、本発明の実施形態を説明したが、本発明はこれに限定されず、その要旨を逸脱しない範囲内において様々な変更が可能である。
10 仮想現実空間共有システム
100a 第1サブシステム(第1端末)
100b 第2サブシステム(第2端末)
101a 第1ユーザ
101b 第2ユーザ
105 ネットワーク
120a、120b ヘッドマウントディスプレイ(HMD)
200a、200b 画像生成装置
100 画像表示システム
150 有線ケーブル
122 ディスプレイ
126 センサ
202 プロセッサ
204 メモリ
206 ユーザ入力インターフェイス
208 通信インターフェイス
220a、220b 記憶部
221 仮想現実空間構成情報
230a、230b 処理部
231、231a、231b 画像生成部
232 視線情報送信部
233 視線情報受信部
234 視線情報修正部
239 画像出力部

Claims (4)

  1. 第1ユーザによって使用される第1端末と、第2ユーザによって使用される第2端末としてのヘッドマウントディスプレイと、の間で仮想現実空間を共有する仮想現実空間共有システムにおいて、前記第1端末に表示するための仮想現実空間画像を生成する画像生成装置であって、
    前記第2端末から仮想現実空間における前記第2ユーザの位置と視線方向とを含む視線情報を取得する視線情報取得部と、
    前記第2端末からの前記視線情報に基づいて、前記第1端末に表示するための仮想現実空間画像であって、前記第2端末によって前記第2ユーザに対して提示されるのと同じ又は近似し、前記仮想現実空間を前記第2ユーザの視点で眺めた光景を表す仮想現実空間画像を生成する画像生成部と、
    前記画像生成部によって生成された前記仮想現実空間画像を前記第1端末へ供給する画像供給部と、
    前記第2端末からの前記視線情報を修正することにより所定の時間間隔で修正視線情報を生成する視線情報修正部と、
    を備え
    前記視線情報修正部は、前回の修正視線情報と前記第2端末から前回取得された視線情報とを線形補間することによって今回の修正視線情報を生成し、
    前記線形補間の補間係数は、前回の修正視線情報に含まれる視線方向と前記第2端末から前回取得された視線情報に含まれる視線方向との角度差に応じた値であり、
    前記画像生成部は、前記修正視線情報に基づいて仮想現実空間画像を生成する、
    画像生成装置。
  2. 前記仮想現実空間画像のロール軸回りの変化がピッチ軸及びヨー軸回りの変化に比べて小さくなるように、前記線形補間の補間係数のうちロール軸に対応する補間係数がピッチ軸及びヨー軸に対応する補間係数とは異なる値に設定される、請求項に記載の画像生成装置。
  3. 第1ユーザによって使用される第1端末と、第2ユーザによって使用される第2端末としてのヘッドマウントディスプレイと、の間で仮想現実空間を共有する仮想現実空間共有システムにおいて、前記第1端末に表示するための仮想現実空間画像を生成する、コンピュータが実行する画像生成方法であって、
    前記第2端末から仮想現実空間における前記第2ユーザの位置と視線方向とを含む視線情報を取得するステップと、
    前記第2端末からの前記視線情報に基づいて、前記第1端末に表示するための仮想現実空間画像であって、前記第2端末によって前記第2ユーザに対して提示されるのと同じ又は近似し、前記仮想現実空間を前記第2ユーザの視点で眺めた光景を表す仮想現実空間画像を生成するステップと、
    前記第2端末からの前記視線情報を修正することにより所定の時間間隔で修正視線情報を生成するステップと、
    を含み、
    前記修正視線情報を生成するステップは、前回の修正視線情報と前記第2端末から前回取得された視線情報とを線形補間することによって今回の修正視線情報を生成するステップであり、
    前記線形補間の補間係数は、前回の修正視線情報に含まれる視線方向と前記第2端末から前回取得された視線情報に含まれる視線方向との角度差に応じた値であり、
    前記仮想現実空間画像を生成するステップは、前記修正視線情報に基づいて仮想現実空間画像を生成するステップである、
    画像生成方法。
  4. 第1ユーザによって使用される第1端末と、第2ユーザによって使用される第2端末としてのヘッドマウントディスプレイと、の間で仮想現実空間を共有する仮想現実空間共有システムにおいて、前記第1端末に表示するための仮想現実空間画像をコンピュータに生成させる画像生成プログラムであって、前記コンピュータに、
    前記第2端末から仮想現実空間における前記第2ユーザの位置と視線方向とを含む視線情報を取得するステップと、
    前記第2端末からの前記視線情報に基づいて、前記第1端末に表示するための仮想現実空間画像であって、前記第2端末によって前記第2ユーザに対して提示されるのと同じ又は近似し、前記仮想現実空間を前記第2ユーザの視点で眺めた光景を表す仮想現実空間画像を生成するステップと、
    前記第2端末からの前記視線情報を修正することにより所定の時間間隔で修正視線情報を生成するステップと、
    を実行させ
    前記修正視線情報を生成するステップは、前回の修正視線情報と前記第2端末から前回取得された視線情報とを線形補間することによって今回の修正視線情報を生成するステップであり、
    前記線形補間の補間係数は、前回の修正視線情報に含まれる視線方向と前記第2端末から前回取得された視線情報に含まれる視線方向との角度差に応じた値であり、
    前記仮想現実空間画像を生成するステップは、前記修正視線情報に基づいて仮想現実空間画像を生成するステップである、
    画像生成プログラム。
JP2015205476A 2015-10-19 2015-10-19 画像生成装置、画像生成方法、及び画像生成プログラム Active JP6298432B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2015205476A JP6298432B2 (ja) 2015-10-19 2015-10-19 画像生成装置、画像生成方法、及び画像生成プログラム
US15/286,485 US10496158B2 (en) 2015-10-19 2016-10-05 Image generation device, image generation method and non-transitory recording medium storing image generation program
PCT/JP2016/080667 WO2017069075A1 (ja) 2015-10-19 2016-10-17 画像生成装置、画像生成方法、および画像生成プログラムを格納した一時的でない記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015205476A JP6298432B2 (ja) 2015-10-19 2015-10-19 画像生成装置、画像生成方法、及び画像生成プログラム

Publications (2)

Publication Number Publication Date
JP2017078891A JP2017078891A (ja) 2017-04-27
JP6298432B2 true JP6298432B2 (ja) 2018-03-20

Family

ID=58522987

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015205476A Active JP6298432B2 (ja) 2015-10-19 2015-10-19 画像生成装置、画像生成方法、及び画像生成プログラム

Country Status (3)

Country Link
US (1) US10496158B2 (ja)
JP (1) JP6298432B2 (ja)
WO (1) WO2017069075A1 (ja)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10803652B2 (en) * 2016-05-02 2020-10-13 Sony Interactive Entertainment Inc. Image generating apparatus, image generating method, and program for displaying fixation point objects in a virtual space
US10071281B1 (en) * 2017-02-21 2018-09-11 Robosport Technologies, Llc Systems, devices, and methods for virtual and augmented reality sports training
EP3588447B1 (en) * 2017-02-23 2021-08-11 Sony Group Corporation Image processing device, image processing method, and image system
US20180268614A1 (en) * 2017-03-16 2018-09-20 General Electric Company Systems and methods for aligning pmi object on a model
US10388077B2 (en) 2017-04-25 2019-08-20 Microsoft Technology Licensing, Llc Three-dimensional environment authoring and generation
WO2018198909A1 (ja) * 2017-04-28 2018-11-01 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、情報処理方法及びプログラム
CN111344776B (zh) * 2017-11-21 2023-06-02 索尼公司 信息处理装置、信息处理方法和程序
WO2019135313A1 (ja) * 2018-01-04 2019-07-11 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
KR101964661B1 (ko) * 2018-01-11 2019-04-02 주식회사 제이슨와이 트래픽 감소를 위한 vr 영상의 공유 시스템
JP7114326B2 (ja) * 2018-04-27 2022-08-08 株式会社コロプラ プログラム、情報処理装置、および方法
US11810202B1 (en) 2018-10-17 2023-11-07 State Farm Mutual Automobile Insurance Company Method and system for identifying conditions of features represented in a virtual model
US11556995B1 (en) 2018-10-17 2023-01-17 State Farm Mutual Automobile Insurance Company Predictive analytics for assessing property using external data
US11024099B1 (en) 2018-10-17 2021-06-01 State Farm Mutual Automobile Insurance Company Method and system for curating a virtual model for feature identification
US10873724B1 (en) 2019-01-08 2020-12-22 State Farm Mutual Automobile Insurance Company Virtual environment generation for collaborative building assessment
JP6843164B2 (ja) * 2019-01-25 2021-03-17 株式会社コロプラ プログラム、方法、および情報処理装置
CN111627528A (zh) * 2019-02-28 2020-09-04 未艾医疗技术(深圳)有限公司 VRDS 4D医学影像多设备Ai联动显示方法及产品
US11107292B1 (en) 2019-04-03 2021-08-31 State Farm Mutual Automobile Insurance Company Adjustable virtual scenario-based training environment
US11294453B2 (en) * 2019-04-23 2022-04-05 Foretell Studios, LLC Simulated reality cross platform system
US11049072B1 (en) 2019-04-26 2021-06-29 State Farm Mutual Automobile Insurance Company Asynchronous virtual collaboration environments
US11032328B1 (en) 2019-04-29 2021-06-08 State Farm Mutual Automobile Insurance Company Asymmetric collaborative virtual environments
US11847937B1 (en) 2019-04-30 2023-12-19 State Farm Mutual Automobile Insurance Company Virtual multi-property training environment
US20210192681A1 (en) * 2019-12-18 2021-06-24 Ati Technologies Ulc Frame reprojection for virtual reality and augmented reality
US20230164304A1 (en) 2020-04-30 2023-05-25 Virtualwindow Co., Ltd. Communication terminal device, communication method, and software program
KR102567710B1 (ko) * 2020-11-06 2023-08-17 주식회사 디캐릭 가상현실 환경에서의 선형 객체 데이터의 공유 시스템
US11733772B2 (en) * 2021-10-14 2023-08-22 Surefire, Llc Viewing a virtual world through a virtual window
WO2024076009A1 (ko) * 2022-10-06 2024-04-11 삼성전자주식회사 사용자의 시선 정보를 조정하기 위한 웨어러블 장치, 방법, 및 컴퓨터 판독 가능 저장 매체

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3653463B2 (ja) 2000-11-09 2005-05-25 日本電信電話株式会社 複数のユーザによる仮想空間共有システム
JP2002157607A (ja) * 2000-11-17 2002-05-31 Canon Inc 画像生成システム、画像生成方法および記憶媒体
JP4775989B2 (ja) * 2001-08-23 2011-09-21 株式会社バンダイナムコゲームス 画像生成システム、プログラム及び情報記憶媒体
US7673246B2 (en) * 2001-12-12 2010-03-02 Canon Kabushiki Kaisha Image information processing apparatus and method, virtual space presentation apparatus, information administration apparatus, and control methods thereof
JP2003256872A (ja) * 2002-03-01 2003-09-12 Nippon Telegr & Teleph Corp <Ntt> 仮想空間通信システムにおける共有情報設定方法、仮想空間表示方法、プログラム、該プログラムを記録した記録媒体
US8194002B2 (en) * 2004-09-14 2012-06-05 The Boeing Company Situational awareness components of an enhanced vision system
US7626569B2 (en) * 2004-10-25 2009-12-01 Graphics Properties Holdings, Inc. Movable audio/video communication interface system
JP4757115B2 (ja) * 2006-06-28 2011-08-24 キヤノン株式会社 画像処理装置、画像処理方法
JP2008217119A (ja) * 2007-02-28 2008-09-18 Canon Inc システム、画像処理装置、画像処理方法
JP2008257385A (ja) * 2007-04-03 2008-10-23 Mitsubishi Electric Corp 監視支援システム及び監視用携帯端末
US20100325255A1 (en) 2007-04-05 2010-12-23 Gene Cheung Data transmission system and method
EP2691936A1 (en) * 2011-03-29 2014-02-05 Qualcomm Incorporated Modular mobile connected pico projectors for a local multi-user collaboration
CN104919518B (zh) * 2013-01-24 2017-12-08 索尼公司 图像显示设备、图像显示方法与图像显示系统
US9814967B1 (en) * 2013-05-14 2017-11-14 Take-Two Interactive Software, Inc. System and method for time flow adjustment in multiplayer games
US20150097719A1 (en) * 2013-10-03 2015-04-09 Sulon Technologies Inc. System and method for active reference positioning in an augmented reality environment
US10430985B2 (en) * 2014-03-14 2019-10-01 Magic Leap, Inc. Augmented reality systems and methods utilizing reflections
WO2016002445A1 (ja) * 2014-07-03 2016-01-07 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP6017008B1 (ja) * 2015-12-01 2016-10-26 株式会社コロプラ アバター表示システム、ユーザ端末、及びプログラム

Also Published As

Publication number Publication date
US20170108922A1 (en) 2017-04-20
US10496158B2 (en) 2019-12-03
JP2017078891A (ja) 2017-04-27
WO2017069075A1 (ja) 2017-04-27

Similar Documents

Publication Publication Date Title
JP6298432B2 (ja) 画像生成装置、画像生成方法、及び画像生成プログラム
JP6754678B2 (ja) シミュレーションシステム及びプログラム
JP6408629B2 (ja) ヘッドマウントディスプレイでユーザーの動きに応答する画像レンダリング
US9098112B2 (en) Eye tracking enabling 3D viewing on conventional 2D display
US10394319B2 (en) Method of displaying an image, and system therefor
WO2017068824A1 (ja) 映像生成装置、映像生成装置の制御方法、表示システム、映像生成制御プログラム、およびコンピュータ読み取り可能な記録媒体
JP2019516174A (ja) ヘッドマウントディスプレイ追跡
JP6087453B1 (ja) 仮想空間の提供方法、およびプログラム
US20180357817A1 (en) Information processing method, program, and computer
JP2011258160A (ja) プログラム、情報記憶媒体及び画像生成システム
US11373379B2 (en) Image generation apparatus and image generation method for generating augmented reality images based on user interaction
KR20160147735A (ko) 헤드부 위치 검출 장치 및 헤드부 위치 검출 방법, 화상 처리 장치 및 화상 처리 방법, 표시 장치, 및 컴퓨터 프로그램
EP2394711A1 (en) Image generation system, image generation method, and information storage medium
WO2018155233A1 (ja) 画像処理装置、画像処理方法、および画像システム
US20180247453A1 (en) Information processing method and apparatus, and program for executing the information processing method on computer
JP2017138973A (ja) 仮想空間の提供方法、およびプログラム
JP2019152899A (ja) シミュレーションシステム及びプログラム
JP2019211864A (ja) コンピュータプログラム、情報処理装置および情報処理方法
JP7196089B2 (ja) 仮想現実映像の再生方法及びこれを用いたプログラム
JP2017142816A (ja) 同期サーバ及び同期方法
US11187895B2 (en) Content generation apparatus and method
US20220405996A1 (en) Program, information processing apparatus, and information processing method
JP6114848B1 (ja) 同期サーバ及び同期方法
JP6918189B2 (ja) シミュレーションシステム及びプログラム
JP2019179434A (ja) プログラム、情報処理装置、及び情報処理方法

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160902

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171225

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180223

R150 Certificate of patent or registration of utility model

Ref document number: 6298432

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250