JP2016162033A - 画像生成システム、画像生成方法、プログラム及び情報記憶媒体 - Google Patents

画像生成システム、画像生成方法、プログラム及び情報記憶媒体 Download PDF

Info

Publication number
JP2016162033A
JP2016162033A JP2015037855A JP2015037855A JP2016162033A JP 2016162033 A JP2016162033 A JP 2016162033A JP 2015037855 A JP2015037855 A JP 2015037855A JP 2015037855 A JP2015037855 A JP 2015037855A JP 2016162033 A JP2016162033 A JP 2016162033A
Authority
JP
Japan
Prior art keywords
pixel
pixel value
reference image
image
corresponding position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015037855A
Other languages
English (en)
Other versions
JP6474278B2 (ja
Inventor
貴一 池田
Kiichi Ikeda
貴一 池田
山本 孝
Takashi Yamamoto
孝 山本
篤史 滝沢
Atsushi Takizawa
篤史 滝沢
健一郎 横田
Kenichiro Yokota
健一郎 横田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment LLC
Original Assignee
Sony Interactive Entertainment LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment LLC filed Critical Sony Interactive Entertainment LLC
Priority to JP2015037855A priority Critical patent/JP6474278B2/ja
Priority to US15/043,870 priority patent/US9766458B2/en
Publication of JP2016162033A publication Critical patent/JP2016162033A/ja
Application granted granted Critical
Publication of JP6474278B2 publication Critical patent/JP6474278B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0325Detection arrangements using opto-electronic means using a plurality of light emitters or reflectors or a plurality of detectors forming a reference frame from which to derive the orientation of the object, e.g. by triangulation or on the basis of reference deformation in the picked up image
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Optics & Photonics (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】HMDに表示される、仮想3次元空間内に配置された視点から視線方向を見た様子を表す画像が観察者に与える違和感を従来よりも低減できる画像生成システム、画像生成方法、プログラム及び情報記憶媒体を提供する。
【解決手段】画素値特定部68は、対応位置に基づいて選択される基準画像内の対応する1以上の画素の画素値に基づいて、当該対応位置に対応付けられる表示画像内の画素の画素値を特定する。画素値特定部68は、対応位置に基づいて選択される基準画像内の対応する画素の存否に応じて、当該対応位置と基準画像内の基準点の位置とを結ぶ線分上の位置に基づいて選択される基準画像内の対応する1以上の画素の画素値に基づいて、当該対応位置に対応付けられる表示画像内の画素の画素値を特定するか否かを制御する。表示画像生成部72は、表示画像内の各画素について特定される画素値に基づいて、表示画像を生成する。
【選択図】図11

Description

本発明は、画像生成システム、画像生成方法、プログラム及び情報記憶媒体に関する。
近年、仮想3次元空間内に配置された視点から視線方向を見た様子を表す画像を表示できるヘッドマウントディスプレイ(HMD)が普及してきている。このようなHMDのなかには、観察者があたかも当該仮想3次元空間内にいるかのような感覚を得られるように、HMDの姿勢に基づいて視点の位置や視線方向が特定されるようにしたものが存在する。
HMDの姿勢の特定から当該姿勢に応じた画像の表示までにはある程度の時間がかかる。そのため、表示される画像の基礎となったHMDの姿勢と画像が表示されるタイミングにおけるHMDの姿勢とにはある程度のずれがある。このずれのためにHMDに表示される画像が観察者に違和感を与えることがあった。
ここで例えば特定されたHMDの姿勢に基づいて画像を生成した後に、HMDの姿勢を再度特定し、特定された姿勢の差分に基づいて生成された画像にアフィン変換等の変換を行った画像を表示させるようにすることが考えられる。こうすればHMDに表示される画像が観察者に与える違和感は低減される。
しかし画像処理の負荷を抑えるため一般的には生成される画像のサイズは観察者の視野範囲に相当する程度の大きさとなっている。このように、生成される画像のサイズに制限があるため、変換前の画像からは画素値が特定できない画素が変換後の画像に含まれるおそれがある。
ここで例えば変換前の画像からは画素値が特定できない画素の画素値を所定値とすることが考えられる。しかしこのようにすると変換後の画像は不自然なものとなり、その結果、HMDに表示される画像はやはり観察者に違和感を与えてしまう。
本発明は上記実情に鑑みてなされたものであって、その目的の一つは、HMDに表示される、仮想3次元空間内に配置された視点から視線方向を見た様子を表す画像が観察者に与える違和感を従来よりも低減できる画像生成システム、画像生成方法、プログラム及び情報記憶媒体を提供することにある。
上記課題を解決するために、本発明に係る画像生成システムは、第1のタイミングにおけるヘッドマウントディスプレイの姿勢を示す第1姿勢データを取得する第1姿勢データ取得部と、前記第1姿勢データに基づいて位置及び視線方向が特定される視点から仮想3次元空間を見た様子を表す基準画像を生成する基準画像生成部と、前記第1のタイミングよりも後である第2のタイミングにおける前記ヘッドマウントディスプレイの姿勢を示す第2姿勢データを取得する第2姿勢データ取得部と、前記第1姿勢データが示す姿勢と前記第2姿勢データが示す姿勢との差に基づいて、前記ヘッドマウントディスプレイに表示される表示画像内の各画素について、当該画素に対応付けられる前記基準画像を含む平面上の位置である対応位置を特定する対応位置特定部と、前記対応位置に基づいて選択される前記基準画像内の対応する1以上の画素の画素値に基づいて、当該対応位置に対応付けられる前記表示画像内の画素の画素値を特定する画素値特定部と、前記表示画像内の各画素について特定される前記画素値に基づいて、前記表示画像を生成する表示画像生成部と、を含み、前記画素値特定部は、前記対応位置に基づいて選択される前記基準画像内の対応する画素の存否に応じて、当該対応位置と前記基準画像内の基準点の位置とを結ぶ線分上の位置に基づいて選択される前記基準画像内の対応する1以上の画素の画素値に基づいて、当該対応位置に対応付けられる前記表示画像内の画素の画素値を特定するか否かを制御する。
また、本発明に係る画像生成方法は、第1のタイミングにおけるヘッドマウントディスプレイの姿勢を示す第1姿勢データを取得する第1姿勢データ取得ステップと、前記第1姿勢データに基づいて位置及び視線方向が特定される視点から仮想3次元空間を見た様子を表す基準画像を生成する基準画像生成ステップと、前記第1のタイミングよりも後である第2のタイミングにおける前記ヘッドマウントディスプレイの姿勢を示す第2姿勢データを取得する第2姿勢データ取得ステップと、前記第1姿勢データが示す姿勢と前記第2姿勢データが示す姿勢との差に基づいて、前記ヘッドマウントディスプレイに表示される表示画像内の各画素について、当該画素に対応付けられる前記基準画像を含む平面上の位置である対応位置を特定する対応位置特定ステップと、前記対応位置に基づいて選択される前記基準画像内の対応する1以上の画素の画素値に基づいて、当該対応位置に対応付けられる前記表示画像内の画素の画素値を特定する画素値特定ステップと、前記表示画像内の各画素について特定される前記画素値に基づいて、前記表示画像を生成する表示画像生成ステップと、を含み、前記画素値特定ステップでは、前記対応位置に基づいて選択される前記基準画像内の対応する画素の存否に応じて、当該対応位置と前記基準画像内の基準点の位置とを結ぶ線分上の位置に基づいて選択される前記基準画像内の対応する1以上の画素の画素値に基づいて、当該対応位置に対応付けられる前記表示画像内の画素の画素値を特定するか否かを制御する。
また、本発明に係るプログラムは、第1のタイミングにおけるヘッドマウントディスプレイの姿勢を示す第1姿勢データを取得する第1姿勢データ取得手順、前記第1姿勢データに基づいて位置及び視線方向が特定される視点から仮想3次元空間を見た様子を表す基準画像を生成する基準画像生成手順、前記第1のタイミングよりも後である第2のタイミングにおける前記ヘッドマウントディスプレイの姿勢を示す第2姿勢データを取得する第2姿勢データ取得手順、前記第1姿勢データが示す姿勢と前記第2姿勢データが示す姿勢との差に基づいて、前記ヘッドマウントディスプレイに表示される表示画像内の各画素について、当該画素に対応付けられる前記基準画像を含む平面上の位置である対応位置を特定する対応位置特定手順、前記対応位置に基づいて選択される前記基準画像内の対応する1以上の画素の画素値に基づいて、当該対応位置に対応付けられる前記表示画像内の画素の画素値を特定する画素値特定手順、前記表示画像内の各画素について特定される前記画素値に基づいて、前記表示画像を生成する表示画像生成手順、をコンピュータに実行させ、前記画素値特定手順では、前記対応位置に基づいて選択される前記基準画像内の対応する画素の存否に応じて、当該対応位置と前記基準画像内の基準点の位置とを結ぶ線分上の位置に基づいて選択される前記基準画像内の対応する1以上の画素の画素値に基づいて、当該対応位置に対応付けられる前記表示画像内の画素の画素値を特定するか否かを制御する。
また、本発明に係る情報記憶媒体は、第1のタイミングにおけるヘッドマウントディスプレイの姿勢を示す第1姿勢データを取得する第1姿勢データ取得手順、前記第1姿勢データに基づいて位置及び視線方向が特定される視点から仮想3次元空間を見た様子を表す基準画像を生成する基準画像生成手順、前記第1のタイミングよりも後である第2のタイミングにおける前記ヘッドマウントディスプレイの姿勢を示す第2姿勢データを取得する第2姿勢データ取得手順、前記第1姿勢データが示す姿勢と前記第2姿勢データが示す姿勢との差に基づいて、前記ヘッドマウントディスプレイに表示される表示画像内の各画素について、当該画素に対応付けられる前記基準画像を含む平面上の位置である対応位置を特定する対応位置特定手順、前記対応位置に基づいて選択される前記基準画像内の対応する1以上の画素の画素値に基づいて、当該対応位置に対応付けられる前記表示画像内の画素の画素値を特定する画素値特定手順、前記表示画像内の各画素について特定される前記画素値に基づいて、前記表示画像を生成する表示画像生成手順、をコンピュータに実行させ、前記画素値特定手順では、前記対応位置に基づいて選択される前記基準画像内の対応する画素の存否に応じて、当該対応位置と前記基準画像内の基準点の位置とを結ぶ線分上の位置に基づいて選択される前記基準画像内の対応する1以上の画素の画素値に基づいて、当該対応位置に対応付けられる前記表示画像内の画素の画素値を特定するか否かを制御するプログラムを記憶したコンピュータ読み取り可能な情報記憶媒体である。
本発明の一態様では、前記画素値特定部は、前記対応位置に基づいて選択される前記基準画像内の対応する画素の存否に応じて、当該対応位置と前記基準画像内の基準点とを結ぶ線分と前記基準画像の縁との交点の位置に基づいて選択される前記基準画像内の対応する1以上の画素の画素値に基づいて、当該対応位置に対応付けられる前記表示画像内の画素の画素値を特定するか否かを制御する。
あるいは、前記画素値特定部は、前記対応位置に基づいて選択される前記基準画像内の対応する画素の存否に応じて、当該対応位置と前記基準画像内の基準点の位置とを結ぶ線分と前記基準画像の縁との交点に対して当該対応位置と対称な点の位置に基づいて選択される前記基準画像内の画素の画素値に基づいて、当該対応位置に対応付けられる前記表示画像内の画素の画素値を特定するか否かを制御する。
また本発明の一態様では、前記基準画像内の基準点は、前記基準画像の中心点である。
この態様では、前記基準画像は、円形の画像であってもよい。
本発明の一実施形態に係る画像処理システムの全体構成の一例を示す図である。 本発明の一実施形態に係る画像生成システムのハードウェア構成の一例を示す図である。 本発明の一実施形態に係るヘッドマウントディスプレイの構成の一例を示す図である。 本発明の一実施形態に係るヘッドマウントディスプレイの構成の一例を示す図である。 仮想空間の一例を示す図である。 本発明の一実施形態における表示画像の生成及び表示の一例について説明する説明図である。 基準画像の一例を示す図である。 知覚画像から表示画像への歪み補正の一例を説明する説明図である。 知覚画像の一例を示す図である。 対応位置の画素値の特定の一例を説明する説明図である。 本発明の一実施形態に係る画像生成システムで実装される機能の一例を示す機能ブロック図である。 本発明の一実施形態に係る画像生成システムで行われる処理の流れの一例を示すフロー図である。
以下、本発明の一実施形態について、図面を参照しながら説明する。
図1は、本発明の一実施形態に係る画像処理システム10の全体構成の一例を示す図である。図1に示すように、本実施形態に係る画像処理システム10は、画像生成システム12とディスプレイ14とカメラマイクユニット16とヘッドマウントディスプレイ(HMD)18とを含んでいる。
本実施形態に係る画像生成システム12は、例えばゲームコンソールなどといったエンタテインメント装置等のコンピュータであり、例えば図2に示すように、制御部20、記憶部22、通信部24、入出力部26を含んでいる。制御部20は、例えば画像生成システム12にインストールされるプログラムに従って動作するCPU等のプログラム制御デバイスである。本実施形態に係る制御部20には、CPUから供給されるグラフィックスコマンドやデータに基づいてフレームバッファに画像を描画するGPU(Graphics Processing Unit)も含まれている。記憶部22は、例えばROMやRAM等の記憶素子やハードディスクドライブなどである。記憶部22には、制御部20によって実行されるプログラムなどが記憶される。また、本実施形態に係る記憶部22には、GPUにより画像が描画されるフレームバッファの領域が確保されている。通信部24は、例えばイーサネット(登録商標)モジュールや無線LANモジュールなどの通信インタフェースなどである。入出力部26は、例えばHDMI(登録商標)(High-Definition Multimedia Interface)ポートやUSBポートなどの入出力ポートである。
本実施形態に係るディスプレイ14は、例えば液晶ディスプレイ等であり、画像生成システム12が生成する画面などを表示させる。また、本実施形態に係るディスプレイ14は、画像生成システム12が生成する音声データが表す音声を出力するスピーカも備えている。
本実施形態に係るカメラマイクユニット16は、例えば被写体を撮像した画像を画像生成システム12に出力するカメラ16a及び周囲の音声を取得して当該音声を音声データに変換して画像生成システム12に出力するマイク16bを含んでいる。
本実施形態に係るHMD18は、例えば図3及び図4に示すように、制御部30、記憶部32、入出力部34、表示部36、音声出力部38、姿勢センサ40、レンズ部42、を含んでいる。制御部30は、例えばHMD18にインストールされるプログラムに従って動作するCPU等のプログラム制御デバイスである。記憶部32は、例えばROMやRAM等の記憶素子やハードディスクドライブなどである。記憶部32には、制御部20によって実行されるプログラムなどが記憶される。入出力部34は、例えばHDMIポートやUSBポートなどの入出力ポートである。表示部36は、例えば液晶ディスプレイや有機ELディスプレイ等のディスプレイであり、画像生成システム12が生成する画面などを表示させる。音声出力部38は、例えばスピーカ等であり、画像生成システム12が生成する音声データが表す音声を出力する。姿勢センサ40は、例えば加速度センサやジャイロセンサなどのセンサであり、HMD18の姿勢を計測する。レンズ部42は、例えば図4に示すように、表示部36に表示される画像を見るユーザの視点V1(左目の視点V1a及び右目の視点V1b)と表示部36との間に配置されるレンズである。なおレンズ部42が1枚のレンズから構成されていてもユーザの視線方向に沿って配置された複数のレンズから構成されていても構わない。また左目用のレンズと右目用のレンズが一体でも別体でも構わない。
画像生成システム12とディスプレイ14とは、例えば、HDMIケーブルなどを介して接続されている。画像生成システム12とカメラマイクユニット16とは、例えば、HDMIケーブルやUSBケーブルなどを介して接続されている。また画像生成システム12とHMD18とは、例えば、HDMIケーブルやUSBケーブルなどを介して接続されている。
本実施形態では例えば、図5に例示する仮想空間50内に配置された仮想的な視点V2から仮想的な視線方向Vdを見た様子を表す画像がHMD18の表示部36に表示される。本実施形態に係る仮想空間50は、例えば複数のポリゴンにより構成されている仮想オブジェクト52が配置された仮想3次元空間である。以下、HMD18の表示部36に表示される画像を表示画像54と呼ぶこととする(図4等参照)。また以下、視点V2の位置座標及び視線方向Vdを示すデータを仮想視点データと呼ぶこととする。
そして、本実施形態では、視点V2の位置及び視線方向Vdに基づいて、左目用の表示画像54aと右目用の表示画像54bとが生成されて、図4に示すように、それぞれ表示部36の所定の位置に表示される。本実施形態では例えば、左目用の表示画像54aの中心点が左目用のレンズの光軸上に配置されるよう表示画像54aが表示部36に表示される。また本実施形態では例えば、右目用の表示画像54bの中心点が右目用のレンズの光軸上に配置されるよう表示画像54bが表示部36に表示される。そして左目用の表示画像54aは左目用のレンズを通してユーザの左目によって知覚され、右目用の表示画像54bは右目用のレンズを通してユーザの右目によって知覚される。なお、左目用の表示画像54aの中心が、左目用のレンズの光軸上になくても構わない。また右目用の表示画像54bの中心が、右目用のレンズの光軸上になくても構わない。またユーザの注視方向がレンズの光軸方向と一致していてもよい。また、ユーザの注視方向がレンズの光軸方向と一致していなくてもよい。
本実施形態では、左目用の表示画像54aは、仮想空間50に配置された視点V2の位置に対して所定の長さだけ左にずらした位置(図5に示す左視点V2’aの位置)から視線方向Vdの方向を見た様子を表す画像である。そして右目用の表示画像54bは、仮想空間50に配置された視点V2の位置に対して所定の長さだけ右にずらした位置(図5に示す右視点V2’bの位置)から視線方向Vdを見た様子を表す画像である。
本実施形態ではHMD18の姿勢と仮想視点データの値とは対応付けられている。そのため例えば、ユーザがHMD18を装着した状態で左、あるいは右を向くと、それに連動して視線方向Vdが左、あるいは右を向く。また例えば、ユーザがHMD18を装着した状態で上、あるいは下を向くと、それに連動して視線方向Vdが上、あるいは下を向く。また例えば、ユーザがHMD18を装着した状態で顔を左、あるいは右に動かすと、それに連動して視点V2の位置が左、あるいは右に移動する。また例えば、ユーザがHMD18を装着した状態で顔を上、あるいは下に動かすと、それに連動して視点V2の位置が上、あるいは下に移動する。
本実施形態では、HMD18に含まれる姿勢センサ40によるHMD18の姿勢の計測結果に基づいてHMD18の姿勢を示す姿勢データが生成される。姿勢データは本実施形態では例えば、図1に示す点Aの位置座標の値と法線ベクトルBの値とを含む。ここで例えば、点Aの位置座標は、HMD18に設定された所定点(例えば、表示部36の中心点)の実空間内における位置座標である。また、法線ベクトルBは、例えば、点Aから離れる方向に向かう、表示部36を含む面に対して垂直なベクトルである。そして本実施形態では例えば、姿勢センサ40が生成する姿勢データがHMD18から画像生成システム12へ出力される。
本実施形態ではHMD18の姿勢の特定は、所定の時間間隔で定期的に行われる。そのため姿勢データの生成は所定の時間間隔で定期的に行われることとなる。
なおカメラ16aが撮影するHMD18の画像に基づいてHMD18の姿勢が特定されても構わない。この場合は例えば、カメラ16aが撮影するHMD18の画像がカメラマイクユニット16から画像生成システム12へ出力される。そして画像生成システム12が例えば当該画像に基づいて姿勢データを生成するようにしてもよい。また、姿勢センサ40による計測結果及びカメラ16aが撮影するHMD18の画像に基づいて姿勢データが生成されても構わない。
そして本実施形態では、仮想視点データの値は、HMD18の姿勢を示す姿勢データの値に対応付けられている。そのため本実施形態では例えば、姿勢データの値に基づいて仮想視点データの値が一意に特定可能となっている。
以下、本実施形態に係る表示画像の54生成及び表示について、図6を参照しながらさらに説明する。なお以下の内容は、左目用の表示画像54aの生成及び表示についても、右目用の表示画像54bの生成及び表示についてもあてはまる。
図6に示されているタイミングt1、タイミングt2、タイミングt3のそれぞれは、表示部36の垂直同期タイミング(VSYNCタイミング)を示している。
本実施形態では例えば、タイミングt1からタイミングt1’までのレンダリング期間(1)に、タイミングt1におけるHMD18の姿勢を示す姿勢データに基づいて、図7に例示する基準画像56の生成が行われる。なおここでタイミングt1’は、タイミングt1よりも後でタイミングt2よりも前のタイミングであることとする。
本実施形態では例えば、タイミングt1における姿勢データに基づいて、タイミングt1における仮想視点データが生成される。そして生成された仮想視点データに基づいて、基準画像56のレンダリングが行われる。ここで左目用の基準画像56の生成の際には、タイミングt1における視点V2’aから視線方向Vdを見た様子を表す画像がレンダリングされる。また、右目用の基準画像56の生成の際には、タイミングt1における視点V2’bから視線方向Vdを見た様子を表す画像がレンダリングされる。
本実施形態では、描画される画素の数を節約するため、基準画像56の生成において、ステンシルバッファによるクリッピング処理が行われる。その結果、図7に例示する基準画像56の形状は円形となっている。なお図7に例示する基準画像56の形状は円形であるが、基準画像56の形状が、例えば、八角形などの多角形であっても構わない。
そして本実施形態では例えば、タイミングt1’からタイミングt2までのリプロジェクション期間(1)に、上述のようにして生成された基準画像56に基づく表示画像54の生成が行われる。
本実施形態に係る表示画像54は、図8に示すように、知覚画像58に対して歪み補正を行った画像となっている。そして本実施形態では例えば、ユーザがレンズ部42を通して表示部36に表示される表示画像54を見ると、歪み補正が行われる前の表示画像54である知覚画像58のような像が見えることとなる。なお本実施形態では、知覚画像58は、基準画像56と同形状になっている。
図9は、本実施形態に係る知覚画像58の一例を示す図である。図9に示す知覚画像58は例えば、図7に示す基準画像56に対して公知のリプロジェクション処理を行った画像である。本実施形態では例えば、タイミングt1における姿勢データが示す姿勢とタイミングt1’における姿勢データが示す姿勢との差に応じたアフィン変換等の変換を基準画像56に対して行うことで、知覚画像58が生成される。
ここで知覚画像58は、タイミングt1’における姿勢データに基づいて特定可能な視点V2’a又は視点V2‘bから当該姿勢データに基づいて特定可能な視線方向Vdを見た様子を表す画像に相当する。しかし本実施形態ではタイミングt1’における姿勢データに基づいて特定される仮想視点データを用いたレンダリングは行われず、タイミングt1における姿勢データに基づいて生成される基準画像56に対する変換が行われる。
本実施形態では、知覚画像58内の各画素について、当該画素に対応付けられる、基準画像56を含む平面上の位置である対応位置が特定される。ここでは例えば、知覚画像58内の位置P1の位置座標に対して上述した変換の逆変換を行うことで、図10に例示する基準画像56内の位置P1’が、位置P1に対応付けられる対応位置として特定される。
そして本実施形態では知覚画像58内の位置P1の画素の画素値が、基準画像56内の位置P1’の画素値に基づいて特定される。本実施形態では例えば、位置P1’の画素値の特定に、最近傍(二アレストネイバー)補間、双一次(バイリニア)補間、双三次(バイキュビック)補間などといった公知の補間方法が用いられる。そして本実施形態では例えば、用いられる補間方法において位置P1’の画素値の特定に必要な基準画像56内の1以上の画素が選択される。そして本実施形態では、選択された1以上の画素の画素値に基づいて位置P1’の画素値が特定される。そして本実施形態では、特定された位置P1’の画素値が、知覚画像58内の位置P1の画素の画素値として特定される。
ここで本実施形態では、タイミングt1における姿勢データが示す姿勢とタイミングt1’における姿勢データが示す姿勢との差によっては、用いられる補間方法において対応位置の画素値の特定に必要な基準画像56内の画素が存在しない場合がある。例えば図9において斜線で示された領域Rに含まれる位置P2の画素の対応位置である、図10に示す位置P2’の画素値の特定に必要な基準画像56内の画素は存在しない。例えばこの場合のように、用いられる補間方法において対応位置の画素値の特定に必要な基準画像56内の画素の少なくとも1つが特定できない場合には、当該補間方法では対応位置の画素値の特定ができないこととなる。
用いられる補間方法において位置P2’の画素値の特定に必要な基準画像56内の画素が存在しない場合には、本実施形態では、図10に示すように、位置P2’と、基準画像56内の基準点(ここでは例えば基準画像56の中心点O)とを結ぶ線分Lが特定される。そして、上述のようにして特定される線分L上の位置の画素値が、知覚画像58内の位置P2の画素の画素値として特定されることとなる。ここで例えば、線分Lと基準画像56の縁Eとの交点Q1の位置の画素値が、位置P2の画素の画素値として特定されてもよい。あるいは例えば、交点Q1に対して位置P2’と対称な点Q2の位置の画素値が、位置P2の画素の画素値として特定されてもよい。例えばこの場合には、上述したように、交点Q1の位置の画素値、交点Q2の位置の画素値、などといった線分L上の位置の特定に必要な基準画像56内の1以上の画素が選択される。そして本実施形態では、選択された1以上の画素の画素値に基づいて特定される画素値が、知覚画像58内の位置P2の画素の画素値として特定されることとなる。なおここで例えば、画像を基準とした位置が知覚画像58内の位置P2と同一である基準画像56内の位置の画素値が、知覚画像58内の位置P2の画素の画素値として特定されてもよい。すなわち例えば、画像を基準とした座標値が知覚画像58内の位置P2と同一である基準画像56内の位置の画素値が、知覚画像58内の位置P2の画素の画素値として特定されてもよい。
そして以上のようにして特定される画素値に基づいて、知覚画像58が生成される。そして、生成される知覚画像58に対して歪み補正を行うことで表示画像54が生成される。
なお、基準画像56から知覚画像58への変換と、知覚画像58から表示画像54への変換(歪み補正)と、の合成変換が定義可能である。そのため例えば、表示画像54内の各画素について、当該画素に対応付けられる、基準画像56を含む平面上の位置である対応位置の特定が可能である。そこで、上述と同様にして、表示画像54内の各画素の画素値を基準画像56に基づいて特定するようにしてもよい。こうすれば、知覚画像58の生成を行うことなく、基準画像56に基づく表示画像54の生成が可能となる。
そして本実施形態では、上述のようにして生成される表示画像54は、画像生成システム12のフレームバッファに書き込まれる。そしてフレームバッファに書き込まれた表示画像54は、HMD18に出力される。
リプロジェクション期間(1)にHMD18に出力された表示画像54は、タイミングt2からタイミングt3までの出力期間(1)に表示部36に表示される。そして、ユーザはタイミングt3以降の視聴期間(1)に、表示された表示画像54を知覚することとなる。
同様に、図6に示すタイミングt2からタイミングt2’までのレンダリング期間(2)に、タイミングt2におけるHMD18の姿勢を示す姿勢データに基づいて基準画像56の生成が行われる。なおここでタイミングt2’は、タイミングt2よりも後でタイミングt3よりも前のタイミングであることとする。そして図6に示すタイミングt2’からタイミングt3までのリプロジェクション期間(2)に、生成された基準画像56に基づく表示画像54の生成及びHMD18への出力が行われる。そしてリプロジェクション期間(2)にHMD18に出力された表示画像54は、図6に示すタイミングt3以降の出力期間(2)に表示部36に表示される。その後、ユーザは表示された表示画像54を知覚することとなる。また同様に、図6に示すタイミングt3以降であるレンダリング期間(3)にタイミングt3におけるHMD18の姿勢を示す姿勢データに基づいて基準画像56の生成が行われることとなる。
以上のようにして本実施形態では、例えば、図9に示す領域R内に黒画素や白画素などといった画素値が所定値である画素が配置される場合よりも、表示画像54を見るユーザが受ける違和感が低減されることとなる。
なお上述の基準点は、基準画像56の中心点Oには限定されない。例えば、表示画像54又は知覚画像58の中心点の位置の対応位置にある基準画像56内の点を基準点としても構わない。
以下、本実施形態に係る画像生成システム12の機能並びに本実施形態に係る画像生成システム12で実行される処理についてさらに説明する。
図11は、本実施形態に係る画像生成システム12で実装される機能の一例を示す機能ブロック図である。なお、本実施形態に係る画像生成システム12で、図11に示す機能のすべてが実装される必要はなく、また、図11に示す機能以外の機能が実装されていても構わない。
図11に示すように、本実施形態に係る画像生成システム12は、機能的には例えば、第1姿勢データ取得部60−1、第2姿勢データ取得部60−2、仮想視点データ生成部62、基準画像生成部64、対応位置特定部66、画素値特定部68、知覚画像生成部70、表示画像生成部72、表示画像出力部74、を含む。第1姿勢データ取得部60−1、第2姿勢データ取得部60−2は、入出力部26を主として実装される。基準画像生成部64、知覚画像生成部70、表示画像生成部72は、制御部20と記憶部22を主として実装される。仮想視点データ生成部62、対応位置特定部66、画素値特定部68は、制御部20を主として実装される。表示画像出力部74は、制御部20と記憶部22と入出力部26を主として実装される。
第1姿勢データ取得部60−1は、本実施形態では例えば、第1のタイミングにおけるHMD18の姿勢を示す第1姿勢データを取得する。以下、第1姿勢データ取得部60−1が取得した第1姿勢データが示す姿勢を第1姿勢と呼ぶこととする。上述のように、第1姿勢データ取得部60−1は、例えば、姿勢センサ40が生成してHMD18から出力される第1姿勢データを取得する。また例えば、第1姿勢データ取得部60−1が、カメラマイクユニット16が出力する、カメラ16aが撮影するHMD18の画像に基づいて、第1姿勢データを生成し、生成された第1姿勢データを取得してもよい。
仮想視点データ生成部62は、第1姿勢データ取得部60−1が取得する第1姿勢データに基づいて、当該第1姿勢データに対応付けられる仮想視点データを生成する。
基準画像生成部64は、本実施形態では例えば、第1姿勢データ取得部60−1が取得した第1姿勢データに基づいて位置及び視線方向Vdが特定される視点V2’a又は視点V2’bから仮想空間50を見た様子を表す基準画像56を生成する。基準画像生成部64は、本実施形態では例えば、仮想視点データ生成部62が生成する仮想視点データの値に基づいて視点V2’aの位置及び視線方向Vdを特定する。そして、基準画像生成部64は、特定される視点V2’aの位置から視線方向Vdを見た様子を表す左目用の基準画像56を生成する。また基準画像生成部64は、本実施形態では例えば、仮想視点データ生成部62が生成する仮想視点データの値に基づいて視点V2’bの位置及び視線方向Vdを特定する。そして、基準画像生成部64は、特定される視点V2’bの位置から視線方向Vdを見た様子を表す右目用の基準画像56を生成する。
第2姿勢データ取得部60−2は、本実施形態では例えば、第1姿勢データ取得部60−1と同様にして、第1のタイミングよりも後のタイミングである第2のタイミングにおけるHMD18の姿勢を示す第2姿勢データを取得する。以下、第2姿勢データ取得部60−2が取得した第2姿勢データが示す姿勢を第2姿勢と呼ぶこととする。
対応位置特定部66は、本実施形態では例えば、上述の第1姿勢と上述の第2姿勢との差に基づいて、表示画像54内の各画素について、当該画素に対応付けられる、基準画像56を含む平面上の位置である対応位置を特定する。なお対応位置特定部66は、上述したように、知覚画像58内の各画素について、当該画素に対応付けられる、基準画像56を含む平面上の位置である対応位置を特定するようにしても構わない。
画素値特定部68は、本実施形態では例えば、対応位置に基づいて選択される基準画像56内の対応する1以上の画素の画素値に基づいて、当該対応位置に対応付けられる表示画像54内の画素の画素値を特定する。また画素値特定部68は、本実施形態では、上述のように、対応位置に基づいて選択される基準画像56内の対応する画素の存否を確認する。そして画素値特定部68は、上述のように、確認される存否に応じて、図10に示す線分L上の位置の画素値に基づいて、対応位置に対応付けられる表示画像54内の画素の画素値を特定するか否かを制御する。具体的には例えば、図10に示す点Q1や点Q2の画素の画素値に基づいて、対応位置に対応付けられる表示画像54内の画素の画素値が特定するか否かが制御される。なお画素値特定部68は、上述したように、対応位置に基づいて選択される基準画像56内の対応する1以上の画素の画素値に基づいて、当該対応位置に対応付けられる知覚画像58内の画素の画素値を特定するようにしてもよい。
知覚画像生成部70は、本実施形態では例えば、画素値特定部68が知覚画像58内の各画素について特定する画素値に基づいて、知覚画像58を生成する。
表示画像生成部72は、本実施形態では例えば、知覚画像生成部70が生成する知覚画像58に歪み補正を行うことで表示画像54を生成する。なお上述したように、知覚画像58の生成を行うことなく、基準画像56に基づく表示画像54の生成を行ってもよい。この場合は、表示画像生成部72は、画素値特定部68が表示画像54内の各画素について特定する画素値に基づいて、表示画像54を生成することとなる。
表示画像出力部74は、表示画像生成部72が生成する表示画像54をHMD18に出力する。
ここで、本実施形態に係る画像生成システム12で行われる表示画像54の生成処理の流れの一例を、図12に例示するフロー図を参照しながら説明する。なお、以下の流れは、表示画像54aの生成処理についても表示画像54bの生成処理についてもあてはまる。また以下の流れは、知覚画像58の生成が行われた上で表示画像54の生成が行われる場合の処理の流れの一例を示している。
まず、第1姿勢データ取得部60−1が、図6に示すタイミングt1におけるHMD18の姿勢を示す第1姿勢データを取得する(S101)。
そして、仮想視点データ生成部62が、S101に示す処理で取得された第1姿勢データに基づいて、仮想視点データを生成する(S102)。
そして、基準画像生成部64が、S102に示す処理で生成された仮想視点データに基づいて、基準画像56を生成する(S103)。
そして、第2姿勢データ取得部60−2が、図6に示すタイミングt1’におけるHMD18の姿勢を示す第2姿勢データを取得する(S104)。
そして、対応位置特定部66が、基準画像56の知覚画像58への変換の逆変換を表す逆変換行列Mを特定する(S105)。
そして、対応位置特定部66が、以下のS107〜S111の処理がまだ行われていない、知覚画像58内の画素を1つ特定する(S106)。
そして、対応位置特定部66が、S104に示す処理で特定された逆変換行列Mに基づいて、S106に示す処理で特定された画素に対応付けられる、基準画像56を含む平面上の対応位置を特定する(S107)。
そして、画素値特定部68が、S107に示す処理で特定された対応位置の画素値が特定可能であるか否かを確認する(S108)。ここでは例えば、所定の補間方法において対応位置の画素値の特定に必要な1以上の画素のいずれもが選択可能であるか否かが確認される。
特定可能であることが確認された場合には(S108:Y)、画素値特定部68は、所定の補間方法を用いて対応位置の画素値を特定する(S109)。一方特定可能でないことが確認された場合には(S108:N)、画素値特定部68は、上述したように図10に例示する線分L上の位置の画素値を特定する(S110)。
そして、画素値特定部68は、S109又はS110に示す処理で特定された画素値を、S107に示す処理で特定された対応位置に対応付けられる知覚画像58内の画素の画素値として特定する(S111)。
そして、画素値特定部68は、S107〜S111に示す処理がまだ行われていない、知覚画像58内の画素が存在するか否かを確認する(S112)。
存在する場合は(S112:Y)、S106以降の処理を再度実行する。存在しない場合は(S112:N)、知覚画像生成部70が、以上の処理により特定された各画素の画素値に基づいて知覚画像58を生成する(S113)。
そして表示画像生成部72が、S113に示す処理で生成された知覚画像58に対して歪み補正を行うことで、表示画像54を生成する(S114)。
そして、表示画像出力部74が、S114に示す処理で生成された表示画像54をHMD18に出力して(S115)、本処理例に示す処理は終了される。
以上の処理例において、S101〜S103に示す処理は、例えば図6に示すレンダリング期間(1)に行われ、S104〜S115に示す処理は、例えば図6に示すリプロジェクション期間(1)に行われる。
なお、上述のS105に示す処理で、左目用の基準画像56の左目用の知覚画像58への変換の逆変換を表す逆変換行列M1、及び、右目用の基準画像56の右目用の知覚画像58への変換の逆変換を表す逆変換行列M2が特定されてもよい。そして左目用の表示画像54aの生成には逆変換行列M1が用いられ、右目用の表示画像54bの生成には逆変換行列M2が用いられても構わない。
また、上述のS108に示す処理で、所定の補間方法において対応位置の画素値の特定に必要な画素が少なくとも1つ選択可能である場合に、画素値特定部68が、当該少なくとも1つの画素の画素値に基づいて、対応位置の画素値を特定してもよい。そして画素値特定部68は、特定された画素値を、S107に示す処理で特定された対応位置に対応付けられる知覚画像58内の画素の画素値として特定してもよい。
以下、知覚画像58の生成が行われることなく、基準画像56に基づく表示画像54の生成が行われる場合について説明する。この場合には、上述のS105に示す処理で、基準画像56の表示画像54への変換の逆変換を表す逆変換行列Mが特定される。そして、S106に示す処理で、表示画像54内の1つの画素が特定される。そして、S111に示す処理で、S109又はS110に示す処理で特定された画素値が、S107に示す処理で特定された対応位置に対応付けられる表示画像54内の画素の画素値として特定される。そしてS113に示す処理が行われることなく、表示画像生成部72が、特定された各画素の画素値に基づいて表示画像54を生成することとなる。
なお、本発明は上述の実施形態に限定されるものではない。
以上の説明では、本発明は、ゲームコンソールなどといったエンタテインメント装置等のコンピュータである画像生成システム12に適用された。しかし、本発明が、ゲームコンソールなどといったエンタテインメント装置等のコンピュータとHMD18との組合せに適用されても構わない。すなわち本発明の機能が複数のコンピュータ等の装置に分担されても構わない。例えば、表示画像54、基準画像56、知覚画像58のうちの少なくとも1つの画像の生成がHMD18で行われても構わない。
また画像生成システム12が表示画像54をエンコードした上でHMD18に出力してもよい。そしてHMD18が受信した表示画像54をデコードしてから表示部36に表示させてもよい。
また、上記の具体的な文字列や図面中の具体的な文字列は例示であり、これらの文字列には限定されない。
10 画像処理システム、12 画像生成システム、14 ディスプレイ、16 カメラマイクユニット、16a カメラ、16b マイク、20 制御部、22 記憶部、24 通信部、26 入出力部、30 制御部、32 記憶部、34 入出力部、36 表示部、38 音声出力部、40 姿勢センサ、42 レンズ部、50 仮想空間、52 仮想オブジェクト、54,54a,54b 表示画像、56 基準画像、58 知覚画像、60−1 第1姿勢データ取得部、60−2 第2姿勢データ取得部、62 仮想視点データ生成部、64 基準画像生成部、66 対応位置特定部、68 画素値特定部、70 知覚画像生成部、72 表示画像生成部、74 表示画像出力部。

Claims (8)

  1. 第1のタイミングにおけるヘッドマウントディスプレイの姿勢を示す第1姿勢データを取得する第1姿勢データ取得部と、
    前記第1姿勢データに基づいて位置及び視線方向が特定される視点から仮想3次元空間を見た様子を表す基準画像を生成する基準画像生成部と、
    前記第1のタイミングよりも後である第2のタイミングにおける前記ヘッドマウントディスプレイの姿勢を示す第2姿勢データを取得する第2姿勢データ取得部と、
    前記第1姿勢データが示す姿勢と前記第2姿勢データが示す姿勢との差に基づいて、前記ヘッドマウントディスプレイに表示される表示画像内の各画素について、当該画素に対応付けられる前記基準画像を含む平面上の位置である対応位置を特定する対応位置特定部と、
    前記対応位置に基づいて選択される前記基準画像内の対応する1以上の画素の画素値に基づいて、当該対応位置に対応付けられる前記表示画像内の画素の画素値を特定する画素値特定部と、
    前記表示画像内の各画素について特定される前記画素値に基づいて、前記表示画像を生成する表示画像生成部と、を含み、
    前記画素値特定部は、前記対応位置に基づいて選択される前記基準画像内の対応する画素の存否に応じて、当該対応位置と前記基準画像内の基準点の位置とを結ぶ線分上の位置に基づいて選択される前記基準画像内の対応する1以上の画素の画素値に基づいて、当該対応位置に対応付けられる前記表示画像内の画素の画素値を特定するか否かを制御する、
    ことを特徴とする画像生成システム。
  2. 前記画素値特定部は、前記対応位置に基づいて選択される前記基準画像内の対応する画素の存否に応じて、当該対応位置と前記基準画像内の基準点とを結ぶ線分と前記基準画像の縁との交点の位置に基づいて選択される前記基準画像内の対応する1以上の画素の画素値に基づいて、当該対応位置に対応付けられる前記表示画像内の画素の画素値を特定するか否かを制御する、
    ことを特徴とする請求項1に記載の画像生成システム。
  3. 前記画素値特定部は、前記対応位置に基づいて選択される前記基準画像内の対応する画素の存否に応じて、当該対応位置と前記基準画像内の基準点の位置とを結ぶ線分と前記基準画像の縁との交点に対して当該対応位置と対称な点の位置に基づいて選択される前記基準画像内の画素の画素値に基づいて、当該対応位置に対応付けられる前記表示画像内の画素の画素値を特定するか否かを制御する、
    ことを特徴とする請求項1に記載の画像生成システム。
  4. 前記基準画像内の基準点は、前記基準画像の中心点である、
    ことを特徴とする請求項1から3のいずれか一項に記載の画像生成システム。
  5. 前記基準画像は、円形の画像である、
    ことを特徴とする請求項4に記載の画像生成システム。
  6. 第1のタイミングにおけるヘッドマウントディスプレイの姿勢を示す第1姿勢データを取得する第1姿勢データ取得ステップと、
    前記第1姿勢データに基づいて位置及び視線方向が特定される視点から仮想3次元空間を見た様子を表す基準画像を生成する基準画像生成ステップと、
    前記第1のタイミングよりも後である第2のタイミングにおける前記ヘッドマウントディスプレイの姿勢を示す第2姿勢データを取得する第2姿勢データ取得ステップと、
    前記第1姿勢データが示す姿勢と前記第2姿勢データが示す姿勢との差に基づいて、前記ヘッドマウントディスプレイに表示される表示画像内の各画素について、当該画素に対応付けられる前記基準画像を含む平面上の位置である対応位置を特定する対応位置特定ステップと、
    前記対応位置に基づいて選択される前記基準画像内の対応する1以上の画素の画素値に基づいて、当該対応位置に対応付けられる前記表示画像内の画素の画素値を特定する画素値特定ステップと、
    前記表示画像内の各画素について特定される前記画素値に基づいて、前記表示画像を生成する表示画像生成ステップと、を含み、
    前記画素値特定ステップでは、前記対応位置に基づいて選択される前記基準画像内の対応する画素の存否に応じて、当該対応位置と前記基準画像内の基準点の位置とを結ぶ線分上の位置に基づいて選択される前記基準画像内の対応する1以上の画素の画素値に基づいて、当該対応位置に対応付けられる前記表示画像内の画素の画素値を特定するか否かを制御する、
    ことを特徴とする画像生成方法。
  7. 第1のタイミングにおけるヘッドマウントディスプレイの姿勢を示す第1姿勢データを取得する第1姿勢データ取得手順、
    前記第1姿勢データに基づいて位置及び視線方向が特定される視点から仮想3次元空間を見た様子を表す基準画像を生成する基準画像生成手順、
    前記第1のタイミングよりも後である第2のタイミングにおける前記ヘッドマウントディスプレイの姿勢を示す第2姿勢データを取得する第2姿勢データ取得手順、
    前記第1姿勢データが示す姿勢と前記第2姿勢データが示す姿勢との差に基づいて、前記ヘッドマウントディスプレイに表示される表示画像内の各画素について、当該画素に対応付けられる前記基準画像を含む平面上の位置である対応位置を特定する対応位置特定手順、
    前記対応位置に基づいて選択される前記基準画像内の対応する1以上の画素の画素値に基づいて、当該対応位置に対応付けられる前記表示画像内の画素の画素値を特定する画素値特定手順、
    前記表示画像内の各画素について特定される前記画素値に基づいて、前記表示画像を生成する表示画像生成手順、をコンピュータに実行させ、
    前記画素値特定手順では、前記対応位置に基づいて選択される前記基準画像内の対応する画素の存否に応じて、当該対応位置と前記基準画像内の基準点の位置とを結ぶ線分上の位置に基づいて選択される前記基準画像内の対応する1以上の画素の画素値に基づいて、当該対応位置に対応付けられる前記表示画像内の画素の画素値を特定するか否かを制御する、
    ことを特徴とするプログラム。
  8. 第1のタイミングにおけるヘッドマウントディスプレイの姿勢を示す第1姿勢データを取得する第1姿勢データ取得手順、
    前記第1姿勢データに基づいて位置及び視線方向が特定される視点から仮想3次元空間を見た様子を表す基準画像を生成する基準画像生成手順、
    前記第1のタイミングよりも後である第2のタイミングにおける前記ヘッドマウントディスプレイの姿勢を示す第2姿勢データを取得する第2姿勢データ取得手順、
    前記第1姿勢データが示す姿勢と前記第2姿勢データが示す姿勢との差に基づいて、前記ヘッドマウントディスプレイに表示される表示画像内の各画素について、当該画素に対応付けられる前記基準画像を含む平面上の位置である対応位置を特定する対応位置特定手順、
    前記対応位置に基づいて選択される前記基準画像内の対応する1以上の画素の画素値に基づいて、当該対応位置に対応付けられる前記表示画像内の画素の画素値を特定する画素値特定手順、
    前記表示画像内の各画素について特定される前記画素値に基づいて、前記表示画像を生成する表示画像生成手順、をコンピュータに実行させ、
    前記画素値特定手順では、前記対応位置に基づいて選択される前記基準画像内の対応する画素の存否に応じて、当該対応位置と前記基準画像内の基準点の位置とを結ぶ線分上の位置に基づいて選択される前記基準画像内の対応する1以上の画素の画素値に基づいて、当該対応位置に対応付けられる前記表示画像内の画素の画素値を特定するか否かを制御する、
    ことを特徴とするプログラムを記憶したコンピュータ読み取り可能な情報記憶媒体。
JP2015037855A 2015-02-27 2015-02-27 画像生成システム、画像生成方法、プログラム及び情報記憶媒体 Active JP6474278B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015037855A JP6474278B2 (ja) 2015-02-27 2015-02-27 画像生成システム、画像生成方法、プログラム及び情報記憶媒体
US15/043,870 US9766458B2 (en) 2015-02-27 2016-02-15 Image generating system, image generating method, and information storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015037855A JP6474278B2 (ja) 2015-02-27 2015-02-27 画像生成システム、画像生成方法、プログラム及び情報記憶媒体

Publications (2)

Publication Number Publication Date
JP2016162033A true JP2016162033A (ja) 2016-09-05
JP6474278B2 JP6474278B2 (ja) 2019-02-27

Family

ID=56798816

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015037855A Active JP6474278B2 (ja) 2015-02-27 2015-02-27 画像生成システム、画像生成方法、プログラム及び情報記憶媒体

Country Status (2)

Country Link
US (1) US9766458B2 (ja)
JP (1) JP6474278B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6216851B1 (ja) * 2016-09-12 2017-10-18 株式会社コロプラ 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム
JP2020519929A (ja) * 2017-04-25 2020-07-02 エーティーアイ・テクノロジーズ・ユーエルシーAti Technologies Ulc マルチヘッドマウントディスプレイ仮想現実構成でのディスプレイペーシング
WO2020170454A1 (ja) * 2019-02-22 2020-08-27 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置、ヘッドマウントディスプレイ、および画像生成方法
JP7507260B2 (ja) 2021-02-01 2024-06-27 株式会社ジャパンディスプレイ 表示システム

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5981591B1 (ja) * 2015-03-17 2016-08-31 株式会社コロプラ 没入型仮想空間でオブジェクト操作を制御するためのコンピュータ・プログラムおよびコンピュータ・システム
GB2557593A (en) * 2016-12-09 2018-06-27 Sony Interactive Entertainment Inc Virtual reality
JP6824579B2 (ja) * 2017-02-17 2021-02-03 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置および画像生成方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02301798A (ja) * 1989-05-17 1990-12-13 Nippon Hoso Kyokai <Nhk> 画像表示装置
JP2004109994A (ja) * 2002-08-30 2004-04-08 Olympus Corp 頭部装着型画像表示システム装置及びその画像処理方法
JP2008299669A (ja) * 2007-05-31 2008-12-11 Canon Inc 頭部装着型表示装置、及びその制御方法
JP2012033038A (ja) * 2010-07-30 2012-02-16 Fujitsu Ltd 模擬映像生成装置、方法、プログラム

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5856843A (en) * 1994-04-26 1999-01-05 Canon Kabushiki Kaisha Stereoscopic display method and apparatus
JPH08322004A (ja) * 1995-05-24 1996-12-03 Olympus Optical Co Ltd 立体視ディスプレイ装置
US6522312B2 (en) * 1997-09-01 2003-02-18 Canon Kabushiki Kaisha Apparatus for presenting mixed reality shared among operators
US6269175B1 (en) * 1998-08-28 2001-07-31 Sarnoff Corporation Method and apparatus for enhancing regions of aligned images using flow estimation
JP4371283B2 (ja) * 1999-09-09 2009-11-25 株式会社バンダイナムコゲームス 画像生成システム及び情報記憶媒体
JP3592168B2 (ja) * 1999-12-22 2004-11-24 キヤノン株式会社 画像データの符号化復号化方法及び装置
JP2002157607A (ja) * 2000-11-17 2002-05-31 Canon Inc 画像生成システム、画像生成方法および記憶媒体
JP4262011B2 (ja) * 2003-07-30 2009-05-13 キヤノン株式会社 画像提示方法及び装置
JP4500632B2 (ja) * 2004-09-07 2010-07-14 キヤノン株式会社 仮想現実感提示装置および情報処理方法
JP4738870B2 (ja) * 2005-04-08 2011-08-03 キヤノン株式会社 情報処理方法、情報処理装置および遠隔複合現実感共有装置
JP4717728B2 (ja) * 2005-08-29 2011-07-06 キヤノン株式会社 ステレオ表示装置及びその制御方法
JP4679661B1 (ja) * 2009-12-15 2011-04-27 株式会社東芝 情報提示装置、情報提示方法及びプログラム
JP5891131B2 (ja) * 2012-07-11 2016-03-22 株式会社ソニー・コンピュータエンタテインメント 画像生成装置および画像生成方法
US9292764B2 (en) * 2013-09-17 2016-03-22 Qualcomm Incorporated Method and apparatus for selectively providing information on objects in a captured image
JP6160398B2 (ja) * 2013-09-20 2017-07-12 日本精機株式会社 ヘッドアップディスプレイ装置
JP2015088828A (ja) * 2013-10-29 2015-05-07 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
EP3067781B1 (en) * 2013-11-05 2023-03-08 Sony Group Corporation Information processing device, method of processing information, and program
CN106415447B (zh) * 2014-06-30 2019-08-06 索尼公司 信息处理装置、信息处理方法和图像处理系统

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02301798A (ja) * 1989-05-17 1990-12-13 Nippon Hoso Kyokai <Nhk> 画像表示装置
JP2004109994A (ja) * 2002-08-30 2004-04-08 Olympus Corp 頭部装着型画像表示システム装置及びその画像処理方法
JP2008299669A (ja) * 2007-05-31 2008-12-11 Canon Inc 頭部装着型表示装置、及びその制御方法
JP2012033038A (ja) * 2010-07-30 2012-02-16 Fujitsu Ltd 模擬映像生成装置、方法、プログラム

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6216851B1 (ja) * 2016-09-12 2017-10-18 株式会社コロプラ 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム
JP2018045299A (ja) * 2016-09-12 2018-03-22 株式会社コロプラ 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム
JP2020519929A (ja) * 2017-04-25 2020-07-02 エーティーアイ・テクノロジーズ・ユーエルシーAti Technologies Ulc マルチヘッドマウントディスプレイ仮想現実構成でのディスプレイペーシング
US11474354B2 (en) 2017-04-25 2022-10-18 Ati Technologies Ulc Display pacing in multi-head mounted display virtual reality configurations
JP7198772B2 (ja) 2017-04-25 2023-01-04 エーティーアイ・テクノロジーズ・ユーエルシー マルチヘッドマウントディスプレイ仮想現実構成でのディスプレイペーシング
WO2020170454A1 (ja) * 2019-02-22 2020-08-27 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置、ヘッドマウントディスプレイ、および画像生成方法
US11960086B2 (en) 2019-02-22 2024-04-16 Sony Interactive Entertainment Inc. Image generation device, head-mounted display, and image generation method
JP7507260B2 (ja) 2021-02-01 2024-06-27 株式会社ジャパンディスプレイ 表示システム

Also Published As

Publication number Publication date
US20160252730A1 (en) 2016-09-01
JP6474278B2 (ja) 2019-02-27
US9766458B2 (en) 2017-09-19

Similar Documents

Publication Publication Date Title
JP6474278B2 (ja) 画像生成システム、画像生成方法、プログラム及び情報記憶媒体
JP6563043B2 (ja) 映像表示システム
JP6511386B2 (ja) 情報処理装置および画像生成方法
JP5113426B2 (ja) 頭部装着型表示装置、及びその制御方法
JP5996814B1 (ja) 仮想空間の画像をヘッドマウントディスプレイに提供する方法及びプログラム
US11132846B2 (en) Image generation device, image generation system, image generation method, and program for producing an augmented reality image
US10235808B2 (en) Communication system
US10277814B2 (en) Display control method and system for executing the display control method
US11003408B2 (en) Image generating apparatus and image generating method
US11204502B2 (en) Image generation apparatus, head mounted display, image generation system, image generation method, and program
JP6963399B2 (ja) プログラム、記録媒体、画像生成装置、画像生成方法
JP6591667B2 (ja) 画像処理システム、画像処理装置、及びプログラム
CN111699460A (zh) 多视图虚拟现实用户界面
JP2021039444A (ja) 画像処理装置及びその制御方法及びプログラム
JP2018109940A (ja) 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム
JP2018088604A (ja) 画像表示装置、画像表示方法、システム
JP6442619B2 (ja) 情報処理装置
WO2024071208A1 (ja) 表示装置、表示方法及びプログラム
US20240137482A1 (en) Image generation device, program, image generation method, and image displaying system
JP6611143B1 (ja) 画像表示方法、画像表示システム、プログラム
JP2017142769A (ja) 仮想空間の画像をヘッドマウントディスプレイに提供する方法及びプログラム
JP6205047B1 (ja) 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム
JP2024015868A (ja) ヘッドマウントディスプレイおよび画像表示方法
JP2018028682A (ja) 表示制御方法および当該表示制御方法をコンピュータに実行させるためのプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190122

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190129

R150 Certificate of patent or registration of utility model

Ref document number: 6474278

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250