JPWO2020152754A1 - 画像生成装置および画像生成方法 - Google Patents

画像生成装置および画像生成方法 Download PDF

Info

Publication number
JPWO2020152754A1
JPWO2020152754A1 JP2020567682A JP2020567682A JPWO2020152754A1 JP WO2020152754 A1 JPWO2020152754 A1 JP WO2020152754A1 JP 2020567682 A JP2020567682 A JP 2020567682A JP 2020567682 A JP2020567682 A JP 2020567682A JP WO2020152754 A1 JPWO2020152754 A1 JP WO2020152754A1
Authority
JP
Japan
Prior art keywords
distortion
image
information
distorted
texture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020567682A
Other languages
English (en)
Other versions
JP7170752B2 (ja
Inventor
徹悟 稲田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Publication of JPWO2020152754A1 publication Critical patent/JPWO2020152754A1/ja
Application granted granted Critical
Publication of JP7170752B2 publication Critical patent/JP7170752B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/18Image warping, e.g. rearranging pixels individually
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • Image Generation (AREA)
  • Image Processing (AREA)
  • Geometry (AREA)

Abstract

画像生成装置200は、画像を変形させて歪ませるための情報を歪み情報として記憶する歪み情報記憶部234と、歪み情報を用いたラスタライズ処理によって、歪み無し画像をメモリに生成することなく、歪み画像をレンダリングする歪みレンダリング部232とを含む。歪みレンダリング部232は、歪み情報にもとづいてラスタライズ処理対象の三角形を変換した歪みのある三角形の頂点の位置から上方向および下方向に歪みのある三角形をラスタライズ処理することにより、歪み画像をレンダリングする。

Description

この発明は、画像を生成する技術に関する。
ヘッドマウントディスプレイに立体映像を表示し、ヘッドマウントディスプレイを装着したユーザが頭部を回転させると視線方向に応じた立体映像が表示されるようにして臨場感を高めたシステムが開発されている。ヘッドマウントディスプレイを利用することで、映像への没入感を高めたり、ゲームなどのアプリケーションの操作性を向上させることもできる。
ヘッドマウントディスプレイではユーザの眼前と周囲に視野角の広い映像を表示させるために曲率の高い光学レンズを採用し、ユーザがレンズを介してディスプレイパネルを覗き込む構成になっている。しかしながら、曲率の高いレンズを用いるとレンズの歪曲収差によって映像が歪んでしまう。そこで、曲率の高いレンズを通して見たときに正しく見えるように、レンダリングされた画像に対してあらかじめ歪み補正を施し、歪み補正後の画像をヘッドマウントディスプレイに伝送してディスプレイパネルに表示し、ユーザが曲率の高いレンズを通して見ると正常に見えるようにしている。
レンダリングされた画像に歪み補正を施すためには、レンダリングされた画像をいったんフレームバッファに保持し、フレームバッファに格納された画像を歪み補正して出力する必要がある。そのため、歪みなし画像を保存するためのメモリ容量が必要になり、また歪み補正のための処理時間が余分にかかる。モバイル端末などの描画処理する場合はメモリ容量を削減して省電力化を図ることが求められる。また、ヘッドマウントディスプレイでは酔いを軽減するために描画レイテンシを短縮することが求められている。
本発明はこうした課題に鑑みてなされたものであり、その目的は、メモリ容量を削減または描画レイテンシを短縮することができる画像生成技術を提供することにある。
上記課題を解決するために、本発明のある態様の画像生成装置は、画像を変形させて歪ませるための情報を歪み情報として記憶する歪み情報記憶部と、前記歪み情報を用いたラスタライズ処理によって、歪み無し画像をメモリに生成することなく、歪み画像をレンダリングする歪みレンダリング部とを含む。
本発明の別の態様は、画像生成方法である。この方法は、画像を変形させて歪ませるための情報を歪み情報として読み出し、前記歪み情報を用いたラスタライズ処理によって、歪み無し画像をメモリに生成することなく、歪み画像をレンダリングする歪みレンダリングステップを含む。
なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、コンピュータプログラム、データ構造、記録媒体などの間で変換したものもまた、本発明の態様として有効である。
本発明によれば、メモリ容量を削減または描画レイテンシを短縮することができる。
ヘッドマウントディスプレイの外観図である。 第1の実施の形態に係る画像生成システムの構成図である。 ヘッドマウントディスプレイの機能構成図である。 第1の実施の形態に係る画像生成装置の機能構成図である。 図5(a)は、従来のレンダリング処理を説明する図であり、図5(b)は、第1の実施の形態の歪みレンダリング処理を説明する図である。 第1の実施の形態の歪みレンダリング処理の手順を示すフローチャートである。 図6のラスタライズ開始位置の決定処理を説明する図である。 図6のラスタライズ開始位置の決定処理を説明する図である。 図6の上方向のラスタライズ処理を説明する図である。 図6の上方向のラスタライズ処理を説明する図である。 図6の上方向のラスタライズ処理を説明する図である。 図6の上方向のラスタライズ処理を説明する図である。 図6の下方向のラスタライズ処理を説明する図である。 歪みレンダリング処理でパラメータのX方向、Y方向の微分値を算出する方法を説明する図である。 図15(a)〜図15(c)は、歪み変換および逆歪み変換を説明する図である。 第2の実施の形態に係る画像生成装置の構成図である。 従来のレンダリング処理を説明する図である。 第2の実施の形態の歪みレンダリング処理を説明する図である。 図19(a)および図19(b)は、注視点が動的に変わる場合の歪みレンダリング処理を説明する図である。 図17の従来のレンダリング処理の変形例を説明する図である。 第3の実施の形態の画像生成装置の構成図である。 従来のリプロジェクション処理を説明する図である。 第3の実施の形態の歪みリプロジェクション処理を説明する図である。 第3の実施の形態の歪みリプロジェクション処理をより詳しく説明する図である。 図25(a)〜図25(c)は、歪みリプロジェクション処理の手順を説明する図である。 従来のリプロジェクション処理の手順を説明する図である。 従来のリプロジェクション処理の手順を説明する図である。 第3の実施の形態の歪みリプロジェクション処理の手順を説明する図である。 第3の実施の形態の歪みリプロジェクション処理の手順を説明する図である。 第4の実施の形態に係る画像生成装置の構成図である。 第4の実施の形態の歪みリプロジェクション処理の手順を説明する図である。 第4の実施の形態の歪みリプロジェクション処理の手順を説明する図である。
(第1の実施の形態)
図1は、ヘッドマウントディスプレイ100の外観図である。ヘッドマウントディスプレイ100は、ユーザの頭部に装着してディスプレイに表示される静止画や動画などを鑑賞し、ヘッドホンから出力される音声や音楽などを聴くための表示装置である。
ヘッドマウントディスプレイ100に内蔵または外付けされたジャイロセンサや加速度センサなどによりヘッドマウントディスプレイ100を装着したユーザの頭部の位置情報と頭部の回転角や傾きなどの姿勢(orientation)情報を計測することができる。
ヘッドマウントディスプレイ100は、「ウェアラブルディスプレイ」の一例である。ここでは、ヘッドマウントディスプレイ100に表示される画像の生成方法を説明するが、本実施の形態の画像生成方法は、狭義のヘッドマウントディスプレイ100に限らず、めがね、めがね型ディスプレイ、めがね型カメラ、ヘッドフォン、ヘッドセット(マイクつきヘッドフォン)、イヤホン、イヤリング、耳かけカメラ、帽子、カメラつき帽子、ヘアバンドなどを装着した場合にも適用することができる。
図2は、本実施の形態に係る画像生成システムの構成図である。ヘッドマウントディスプレイ100は、一例として、映像・音声をデジタル信号で伝送する通信インタフェースの標準規格であるHDMI(登録商標)(High-Definition Multimedia Interface)などのインタフェース300で画像生成装置200に接続される。
画像生成装置200は、ヘッドマウントディスプレイ100の現在の位置・姿勢情報から、映像の生成から表示までの遅延を考慮してヘッドマウントディスプレイ100の位置・姿勢情報を予測し、ヘッドマウントディスプレイ100の予測位置・姿勢情報を前提としてヘッドマウントディスプレイ100に表示されるべき画像を描画し、ヘッドマウントディスプレイ100に伝送する。
画像生成装置200の一例はゲーム機である。画像生成装置200は、さらにネットワークを介してサーバに接続されてもよい。その場合、サーバは、複数のユーザがネットワークを介して参加できるゲームなどのオンラインアプリケーションを画像生成装置200に提供してもよい。ヘッドマウントディスプレイ100は、画像生成装置200の代わりに、コンピュータや携帯端末に接続されてもよい。
図3は、ヘッドマウントディスプレイ100の機能構成図である。
制御部10は、画像信号、センサ信号などの信号や、命令やデータを処理して出力するメインプロセッサである。入力インタフェース20は、ユーザからの操作信号や設定信号を受け付け、制御部10に供給する。出力インタフェース30は、制御部10から画像信号を受け取り、ディスプレイパネル32に表示する。
通信制御部40は、ネットワークアダプタ42またはアンテナ44を介して、有線または無線通信により、制御部10から入力されるデータを外部に送信する。通信制御部40は、また、ネットワークアダプタ42またはアンテナ44を介して、有線または無線通信により、外部からデータを受信し、制御部10に出力する。
記憶部50は、制御部10が処理するデータやパラメータ、操作信号などを一時的に記憶する。
姿勢センサ64は、ヘッドマウントディスプレイ100の位置情報と、ヘッドマウントディスプレイ100の回転角や傾きなどの姿勢情報を検出する。姿勢センサ64は、ジャイロセンサ、加速度センサ、角加速度センサなどを適宜組み合わせて実現される。3軸地磁気センサ、3軸加速度センサおよび3軸ジャイロ(角速度)センサの少なくとも1つ以上を組み合わせたモーションセンサを用いて、ユーザの頭部の前後、左右、上下の動きを検出してもよい。
外部入出力端子インタフェース70は、USB(Universal Serial Bus)コントローラなどの周辺機器を接続するためのインタフェースである。外部メモリ72は、フラッシュメモリなどの外部メモリである。
HDMI送受信部90は、HDMIにしたがって映像・音声のデジタル信号を画像生成装置200との間で送受信する。HDMI送受信部90は、画像生成装置200により生成された画像をHDMI伝送路で画像生成装置200から受信し、制御部10に供給する。
制御部10は、画像やテキストデータを出力インタフェース30に供給してディスプレイパネル32に表示させたり、通信制御部40に供給して外部に送信させることができる。
姿勢センサ64が検出したヘッドマウントディスプレイ100の現在の位置・姿勢情報は、通信制御部40または外部入出力端子インタフェース70を介して画像生成装置200に通知される。あるいは、HDMI送受信部90がヘッドマウントディスプレイ100の現在の位置・姿勢情報を画像生成装置200に送信してもよい。
図4は、本実施の形態に係る画像生成装置200の機能構成図である。同図は機能に着目したブロック図を描いており、これらの機能ブロックはハードウエアのみ、ソフトウエアのみ、またはそれらの組合せによっていろいろな形で実現することができる。
画像生成装置200の少なくとも一部の機能をヘッドマウントディスプレイ100に実装してもよい。あるいは、画像生成装置200の少なくとも一部の機能を、ネットワークを介して画像生成装置200に接続されたサーバに実装してもよい。
位置・姿勢取得部210は、ヘッドマウントディスプレイ100の現在の位置・姿勢情報をヘッドマウントディスプレイ100から取得する。
視点・視線設定部220は、位置・姿勢取得部210により取得されたヘッドマウントディスプレイ100の位置・姿勢情報を用いて、ユーザの視点位置および視線方向を設定する。
画像生成部230は、歪みレンダリング部232と、歪み情報記憶部234と、シーンデータ記憶部244とを含む。
歪みレンダリング部232は、シーンデータ記憶部244からシーンデータを読み出し、視点・視線設定部220によって設定されたユーザの視点位置および視線方向にしたがって、ヘッドマウントディスプレイ100を装着したユーザの視点位置から視線方向に見える仮想空間のオブジェクトをレンダリングする。レンダリングの際、歪みレンダリング部232は、歪み情報記憶部234から歪み情報を読み出し、ヘッドマウントディスプレイ100の光学系で生じる歪みに合わせて画像を変形(distortion)させて歪ませる処理を同時に実行する。すなわち、歪みレンダリング部232は、ヘッドマウントディスプレイ100の光学系の歪み情報を参照して、歪み無し画像を生成することなく、歪み画像を直接レンダリングし、画像記憶部260のフレームバッファに書き込む。このように歪み無し画像を中間バッファに生成することなく、歪み画像を直接フレームバッファにレンダリングする処理を「歪みレンダリング処理」と呼び、詳しくは後述する。
HDMI送受信部280は、画像記憶部260から画像生成部230により生成された拡張現実画像のフレームデータを読み出し、HDMIにしたがってヘッドマウントディスプレイ100に伝送する。
図5(a)は、従来のレンダリング処理を説明する図であり、図5(b)は、本実施の形態の歪みレンダリング処理を説明する図である。
従来、ヘッドマウントディスプレイ100のディスプレイパネル32に表示するための歪み画像420を生成する場合、図5(a)に示すように、レンダリング部231がシーンデータ記憶部244からシーンデータを読み出し、シーンデータにもとづいて歪み無し画像400をフレームバッファにレンダリングした後、歪み変換部233が歪み情報記憶部234から歪み情報を読み出し、歪み無し画像400を歪み情報にもとづいて歪ませて歪み画像420を生成していた。この従来のレンダリング処理では、歪み無し画像400を保存するためにメモリが必要であり、また、いったんレンダリングした後、歪み変換処理を施すため、処理時間が余分にかかり、描画レイテンシが長くなる。
本実施の形態の歪みレンダリング処理では、図5(b)に示すように、歪みレンダリング部232が、シーンデータ記憶部244に格納されたシーンデータにもとづく仮想空間のシーンを、歪み情報記憶部234に格納された歪み情報にもとづいて最初から歪ませてレンダリングし、歪み画像420をフレームバッファに書き込む。本実施の形態の歪みレンダリングでは、歪み無し画像を保存するためのメモリ容量を削減することができ、また、レンダリングと同時に歪み変換処理も行うため、処理時間を短縮し、描画レイテンシを短縮することができる。
モバイル端末などバッテリ容量に制約がある装置で描画処理を行う場合には省電力化が重要になるが、本実施の形態の歪みレンダリングでは、歪み無し画像をメモリに生成しないため、メモリアクセス回数が減り、消費電力が抑えられる。また、ヘッドマウントディスプレイ100では酔い軽減などユーザ体験向上のために描画レイテンシの短縮が重要であるが、本実施の形態の歪みレンダリングでは、歪み変換をレンダリング時に行うため、処理時間を短縮し、低レイテンシで画像を描画することができる。
図6は、本実施の形態の歪みレンダリング処理の手順を示すフローチャートである。
通常、ラスタライズ処理は処理対象の三角形の3頂点の座標を用いてラスタライズ範囲を確定する。しかし、三角形を歪み情報にもとづいて歪み変換すると、歪みが非線形である場合、歪みの生じた三角形の3頂点の座標のみではラスタライズ範囲を確定できない。そのため、歪みの生じた三角形のラスタライズ開始位置から上方向および下方向に三角形の外側に出るまでラスタライズを続ける。
歪みレンダリング部232は、歪み適用後の座標を用いてラスタライズ開始位置を決定する(S10)。歪みレンダリング部232は、ラスタライズ開始位置から上方向にラスタライズする(S20)。上方向のラスタライズが終了すると、次に歪みレンダリング部232は、ラスタライズ開始位置から上方向にラスタライズする(S30)。
図7および図8は、図6のラスタライズ開始位置の決定処理S10を説明する図である。
図7は、ラスタライズ開始位置の決定方法を説明する図である。図7に示すように、歪み適用前の座標系X_org−Y_orgにおけるラスタライス処理対象の三角形310は、歪み適用後の座標系X_dist−Y_distでは歪んだ三角形312になる。歪み適用前の三角形310の3頂点v0、v1、v2は、歪み適用後の三角形312の3頂点v0’、v1’、v2’に移動する。歪み関数をdistで表すと、歪んだ三角形312の3頂点v0’、v1’、v2’は以下の式で与えられる。
v0’=dist(v0)
v1’=dist(v1)
v2’=dist(v2)
歪んだ三角形312においてX座標が最も小さい頂点を選択する。図7の例ではX座標が最も小さい頂点v2’が選択される。頂点v2’の座標値は一般に整数値ではないので、頂点v2’に最も近いピクセル、すなわち頂点v2’に最も近いX座標、Y座標がともに整数である点P’をラスタライズ開始位置として選択する。
図8は、ラスタライズ開始ピクセルの生成方法を説明する図である。歪み適用後の座標系におけるラスタライズ開始ピクセルP’の歪み適用前の座標を求める。歪み関数distの逆関数であるundistを用いて歪み適用前のラスタライズ開始ピクセルPを次式によって求める。
P=undist(P’)
求められた歪み適用前のラスタライズ開始ピクセルPについて、三角形の内外判定とパラメータ生成を行う。たとえば重心座標系を利用して、ラスタライズ開始ピクセルPの値を三角形の3頂点v0、v1、v2の値の線形和で求める。
歪み適用後のラスタライズ開始ピクセルP’のピクセル値を歪み適用前のラスタライズ開始ピクセルPのピクセル値で設定する。このようにして歪み適用後のラスタライズ開始ピクセルP’が生成され、ラスタライズ開始位置の決定処理S10が終了する。
図9〜図12は、図6の上方向のラスタライズ処理S20を説明する図である。
図9に示すように、歪み適用後の座標系X_dist−Y_distにおいてラスタライズ開始ピクセルP’から右に1ピクセルずつ移動しながら、ピクセルQ1’、Q2’、Q3’、Q4’を処理する。逆歪み関数undistを適用して歪みを除去すると、歪み適用後のピクセルQ1’、Q2’、Q3’、Q4’はそれぞれ歪み適用前のピクセルQ1、Q2、Q3、Q4に変換される。歪み適用前のピクセルQ1、Q2、Q3、Q4について三角形の内外判定とパラメータ生成を行う。歪み適用前のピクセルQ1、Q2、Q3は、三角形の内部にあるため、重心座標系などを用いて歪み適用前のピクセルQ1、Q2、Q3の値を三角形の3頂点v0、v1、v2の値の線形和で求め、歪み適用後のピクセルQ1’、Q2’、Q3’の値を求められた値に設定する。歪み適用前のピクセルQ4は、三角形の外部にあるため、歪み適用後のピクセルQ4’は生成されず、歪み適用後の座標系X_dist−Y_distにおける右への移動は終了する。
図10に示すように、歪み適用後の座標系X_dist−Y_distにおいて右への移動が終了したピクセルQ4’から1ピクセル上に移動し、ピクセルQ5’から左に1ピクセルずつ移動しながら、ピクセルQ5’、Q6’、Q7’を処理する。最初に歪み適用前の三角形の内部に入ったピクセルからラスタライズを再開する。ただし、右への移動が終了したピクセルQ4’から1ピクセル上に移動した後の最初のピクセルQ5’が既に歪み適用前の三角形の内部にあった場合、いったん三角形の外部に出るまで右に移動してから、左に1ピクセルずつ移動する必要がある。
図10の例では、逆歪み関数undistを適用して歪みを除去すると、歪み適用後のピクセルQ5’、Q6’、Q7’はそれぞれ歪み適用前のピクセルQ5、Q6、Q7に変換される。歪み適用前のピクセルQ5、Q6は三角形の外部にあるが、歪み適用前のピクセルQ7は三角形の内部にある。よって、歪み適用後のピクセルQ7’からラスタライズを再開する。
図11に示すように、歪み適用後の座標系X_dist−Y_distにおいてラスタライズ再開ピクセルQ7’から左に1ピクセルずつ移動しながら、ピクセルQ8’、Q9’、Q10’を処理する。逆歪み関数undistを適用して歪みを除去すると、歪み適用後のピクセルQ8’、Q9’、Q10’はそれぞれ歪み適用前のピクセルQ8、Q9、Q10に変換される。歪み適用前のピクセルQ8、Q9は三角形の内部にあるため、歪み適用前のピクセルQ8、Q9の値を三角形の3頂点v0、v1、v2の値から求め、歪み適用後のピクセルQ8’、Q9’の値を求められた値に設定する。歪み適用前のピクセルQ10は、三角形の外部にあるため、歪み適用後のピクセルQ10’は生成されず、歪み適用後の座標系X_dist−Y_distにおける左への移動は終了する。
以降、図12に示すように、同様に1ラインずつ上方向にスキャンし、ラスタライズする。新しいラインのラスタライズ再開ピクセルを探す際、これまでにスキャンしたX座標範囲Sの端まで行っても三角形の内部に入らない場合、スキャンを終了する。図12の例では最後ピクセルLu’において上方向のラスタライズ処理を終了する。
図13は、図6の下方向のラスタライズ処理S30を説明する図である。上方向のラスタライズ処理S20と同様に、歪み適用後の座標系X_dist−Y_distにおいてラスタライズ開始ピクセルP’から左に1ピクセルずつ移動しながら、三角形の内部にあるピクセルをラスタライズし、三角形の外部に出ると、1ピクセル下に移動し、右に1ピクセルずつ移動しながら、三角形の内部にあるピクセルをラスタライズする。以降、1ラインずつ下方向に移動しながらピクセルをラスタライズし、上方向のラスタライズ処理S20と同様に、それまでにスキャンしたX座標範囲Sの端まで行っても三角形の内部に入らない場合、最後ピクセルLd’において下方向のラスタライズ処理を終了する。
図14は、歪みレンダリング処理でパラメータのX方向、Y方向の微分値を算出する方法を説明する図である。描画の際にミップマップを用いる場合など、ピクセルのパラメータのX方向、Y方向の微分値が必要になることがある。
図14に示すように、歪み適用後の座標系X_dist−Y_distにおけるピクセルP’と隣接ピクセルA’、B’、C’は、逆歪み関数undistを適用して歪みを除去すると、それぞれ歪み適用前の座標系X_org−Y_orgにおけるピクセルP、A、B、Cに変換される。
ピクセルP’のパラメータのX方向の微分値dp/dxは、ピクセルP’と隣接ピクセルA’の差分により計算される。ピクセルP’の値は歪み適用前のピクセルPをラスタライズすることで得られ、隣接ピクセルA’の値は歪み適用前のピクセルAをラスタライズすることで得られる。同様に、ピクセルP’のパラメータのY方向の微分値dp/dyは、ピクセルP’と隣接ピクセルC’の差分により計算される。ピクセルP’の値は歪み適用前のピクセルPをラスタライズすることで得られ、隣接ピクセルC’の値は歪み適用前のピクセルAをラスタライズすることで得られる。
そこで、2×2ピクセル単位でラスタライズを行って、ピクセルの値とともに、水平方向および垂直方向の隣接ピクセルとの差分値を計算し、水平方向および垂直方向の差分値をX方向、Y方向の微分値として2×2ピクセル単位で共有する。あるいは、ラインバッファにおいて現在のラインとその上または下に隣接するラインのパラメータ値を保持しておき、X方向、Y方向のピクセル間差分を求めるようにしてもよい。
図15(a)〜図15(c)は、歪み変換および逆歪み変換を説明する図である。上述の歪み変換関数dist、逆歪み変換関数undistは、図15(a)のように多項式で与えることができる。図15(b)のようにメッシュ近似で歪み変換および逆歪み変換を定義してもよい。近傍のメッシュ頂点から補間することで任意の点を歪み変換および逆歪み変換することができる。図15(c)のように、歪み中心からの距離rを歪み変換および逆歪み変換した値をテーブルの形式で保持し、テーブルを参照して近似的に任意の点の歪み変換および逆歪み変換を行ってもよい。
以上述べたように、本実施の形態の画像生成装置200による歪みレンダリング処理では、歪み無し画像をフレームバッファにレンダリングした後、歪み無し画像に歪み変換処理を施して歪み画像を生成するのではなく、歪み画像を直接フレームバッファにレンダリングする。歪み無し画像を中間バッファに生成しないため、メモリ容量を削減することができ、メモリアクセスのために必要な消費電力も削減することができる。また、レンダリングと歪み処理を同時に行うため、処理時間を短縮し、描画レイテンシを短縮することができる。
(第2の実施の形態)
上述の第1の実施の形態の歪みレンダリング処理は、フォービエイテッド(foveated)レンダリングに応用することができる。フォービエイテッドレンダリングでは、ユーザの視野の注視点を含む注視領域を他の領域よりも高解像度でレンダリングする。第1の実施の形態で利用した歪み情報を注視点に応じて動的に切り替えることで、注視点に応じた歪み画像を生成することができる。
図16は、第2の実施の形態に係る画像生成装置200の構成図である。第1の実施の形態の画像生成装置200とは異なる構成と動作について説明し、共通する構成と動作については説明を省略する。
位置・姿勢取得部210は、ヘッドマウントディスプレイ100からユーザの注視点の情報を取得し、注視情報記憶部238に注視情報として格納する。注視情報には、注視点の位置情報の他、注視点を含む注視領域の解像度を非注視領域の解像度に対して高める割合を示す縮尺情報が含まれる。
歪み情報算出部236は、注視情報を参照して、非注視領域に対する注視領域の解像度の比率を考慮して歪み情報を変形した「注視歪み情報」を算出して歪み情報記憶部234に格納する。歪みレンダリング部232は、歪み情報記憶部234から注視歪み情報を読み出し、注視歪み情報にもとづいて歪み画像をレンダリングして画像記憶部260に格納する。
ユーザの注視点は動的に変化するため、位置・姿勢取得部210がヘッドマウントディスプレイ100からユーザの新しい注視点の情報を取得すると、注視情報記憶部238に新しい注視情報が格納され、歪み情報算出部236が新しい注視情報を参照して歪み情報を変形させ、新しい注視歪み情報を歪み情報記憶部234に格納する。歪みレンダリング部232は、新しい注視歪み情報にもとづいて歪み画像をレンダリングする。
図17は、従来のレンダリング処理を説明する図である。レンダリング部231は、シーンデータ記憶部244からシーンデータを読み出し、注視情報記憶部238から注視情報を読み出し、注視点Gを含む注視領域の解像度を高くした画像をレンダリングしてフレームバッファに書き込む。ここでは注視点Gを含む注視領域を1.0倍、非注視領域を0.5倍に縮小しており、非注視領域は注視領域に比べてピクセル数が少ないので、ラスタライズの負荷が抑えられるのに対して、注視領域はピクセル数が多いので、高画質になる。
歪み変換部233は、歪み情報記憶部234から歪み情報を読み出し、レンダリングされた画像を歪ませる。この歪み変換処理の際、0.5倍の解像度の非注視領域は2倍でサンプリングすることで、等倍画像を生成し、メモリに保存する。スキャンアウト部251は、等倍画像をディスプレイパネル32に出力する。
図18は、本実施の形態の歪みレンダリング処理を説明する図である。歪み情報算出部236は、注視情報記憶部238から読み出した注視情報にもとづいて歪み情報を変形して注視歪み情報を算出し、歪み情報記憶部234に保存する。歪みレンダリング部232は、シーンデータ記憶部244からシーンデータを読み出し、歪み情報記憶部234から注視歪み情報を読み出し、注視歪み情報によって歪ませた画像をレンダリングする。ここでは注視点Gを含む注視領域が1.0倍、非注視領域が0.5倍に縮小された歪み画像がフレームバッファに生成される。
スケーリング付きスキャンアウト部252は、注視情報記憶部238から注視情報を読み出し、ラインバッファに少なくとも2ライン分の画像をバッファリングして注視情報に含まれる縮尺情報にしたがって画像のスケーリングを行って等倍画像を出力する。ここでは0.5倍の解像度の領域については2倍のサンプリングを行う。たとえばバイリニア補間であれば2ライン分のラインバッファが必要である。スキャンアウト時にスケーリングを行うため、図17の従来のレンダリング処理のように等倍画像をメモリに展開する必要がないため、メモリ容量を削減することができる。また、レンダリングと歪み処理を同時に行うため、処理時間を短縮することができる。
なお、ここでは、説明の便宜上、画像生成部230の構成がヘッドマウントディスプレイ100に設けられ、フレームバッファの画像がディスプレイパネル32にスキャンアウトされる構成を説明する。この場合は、スケーリング付きスキャンアウト部252は出力インタフェース30に実装され、ディスプレイパネル32に画像を出力する。図4のように画像生成部230の構成が画像生成装置200に設けられる場合でも、画像記憶部260から読み出された画像はHDMI送受信部280によってヘッドマウントディスプレイ100に送信され、ヘッドマウントディスプレイ100の出力インタフェース30に実装されたスケーリング付きスキャンアウト部252が画像をディスプレイパネル32に出力する。
図19(a)および図19(b)は、注視点が動的に変わる場合の歪みレンダリング処理を説明する図である。
図19(a)では、注視点GAの情報にもとづいて歪み情報算出部236は、注視歪み情報Aを算出し、歪みレンダリング部232は、注視歪み情報Aにもとづいて注視歪み画像を生成する。左上の注視点GAを含む注視領域が1.0倍、非注視領域が0.5倍に縮小された注視歪み画像が生成される。スケーリング付きスキャンアウト部252は、縮尺情報にもとづいて非注視領域については2倍のサンプリングを行って出力する。
図19(b)では、注視点GBの情報にもとづいて歪み情報算出部236は、注視歪み情報Bを算出し、歪みレンダリング部232は、注視歪み情報Bにもとづいて注視歪み画像を生成する。右下の注視点GBを含む注視領域が1.0倍、非注視領域が0.5倍に縮小された注視歪み画像が生成される。注視点GBを含む注視領域は、図19(a)の注視点GAを含む注視領域よりも狭く設定されている。注視領域と非注視領域の間の縮尺の設定は任意である。スケーリング付きスキャンアウト部252は、縮尺情報にもとづいて非注視領域については2倍のサンプリングを行って出力する。
図20は、図17の従来のレンダリング処理の変形例を説明する図である。図20では、図17の歪み変換部233の構成を外し、その代わりに歪み変換及びスケーリング付きスキャンアウト部253を設ける。レンダリング部231はシーンデータと注視情報にもとづいて注視画像をレンダリングする。歪み変換及びスケーリング付きスキャンアウト部253は、注視画像をラインバッファに読み出し、スキャンアウト時に歪み変換とスケーリング処理を行い、等倍画像を出力する。歪みの強度に応じて必要なラインバッファの本数が変わる。y方向の強い変形に耐えるためには多数のラインバッファが必要になる。それに対して、図18の本実施の形態の歪みレンダリング処理では、スキャンアウト時にはスケーリングを行うだけであり、バイリニア補間の場合は2ラインのバッファ量で足りるという利点がある。
(第3の実施の形態)
第1の実施の形態の歪みレンダリング処理は、リプロジェクションにも応用できる。第1の実施の形態で利用した歪み情報を利用して、リプロジェクション処理と同時に歪み変換を行い、レンダリングされた歪み画像からリプロジェクション処理された歪み画像(「リプロジェクション歪み画像」と呼ぶ)を生成することができる。
ここで、リプロジェクションについて説明する。ヘッドマウントディスプレイ100にヘッドトラッキング機能をもたせて、ユーザの頭部の動きと連動して視点や視線方向を変えて仮想現実の映像を生成した場合、仮想現実の映像の生成から表示までに遅延があるため、映像生成時に前提としたユーザの頭部の向きと、映像をヘッドマウントディスプレイ100に表示した時点でのユーザの頭部の向きとの間でずれが発生し、ユーザは酔ったような感覚(「VR酔い(Virtual Reality Sickness)」などと呼ばれる)に陥ることがある。
このように、ヘッドマウントディスプレイ100の動きを検知し、CPUが描画コマンドを発行し、GPU(Graphics Processing Unit)がレンダリングを実行し、描画された画像がヘッドマウントディスプレイ100に出力されるまでには時間がかかる。描画がたとえば60fps(フレーム/秒)のフレームレートで行われており、ヘッドマウントディスプレイ100の動きを検知してから画像を出力するまでに1フレーム分の遅れが生じるとする。これはフレームレート60fpsのもとでは、16.67ミリ秒ほどであり、人間がずれを感知するには十分な時間である。
そこで、「タイムワープ」または「リプロジェクション」と呼ばれる処理を行い、レンダリングした画像をヘッドマウントディスプレイ100の最新の位置と姿勢に合わせて補正することで人間がずれを感知しにくいようにする。
図21は、第3の実施の形態の画像生成装置200の構成図である。第1の実施の形態の画像生成装置200とは異なる構成と動作について説明し、共通する構成と動作については説明を省略する。
歪みレンダリング部232は、第1の実施の形態と同様、シーンデータにもとづいてレンダリングする際は、歪み情報にもとづいて歪み画像を生成するが、リプロジェクションの際は、既に生成された歪み画像をテクスチャとして利用して、歪み画像を台形変換してリプロジェクション歪み画像を生成する。リプロジェクションの際は、歪みレンダリング部232はテクスチャ座標変換部240と連携するため、歪みレンダリング部232とテクスチャ座標変換部240が歪みリプロジェクション部246として機能する。
歪みレンダリング部232は、参照すべき仮想テクスチャの座標をテクスチャ座標変換部240に提供する。テクスチャ座標変換部240は、テクスチャ歪み情報記憶部242からテクスチャ歪み情報を読み出し、テクスチャ歪み情報にもとづいて、歪みレンダリング部232が参照する仮想テクスチャの座標値を実テクスチャの座標値に変換する。テクスチャ座標変換部240は、変換後の実テクスチャの座標値にもとづいて実テクスチャである歪み画像からピクセルデータを読み出し、歪みレンダリング部232に提供する。
図22は、従来のリプロジェクション処理を説明する図である。時刻t1におけるヘッドマウントディスプレイ100の投影面S1に対して、時刻t2ではヘッドマウントディスプレイ100の投影面S2はユーザの姿勢に応じて回転している。投影面S1にレンダリングされた歪み無し画像400を投影面S2に表示させるために、歪み無し画像400に台形変換を行い、リプロジェクション画像410を生成するのがリプロジェクション処理である。
時刻t1でのヘッドマウントディスプレイ100の姿勢に合わせて歪み無し画像400がレンダリングされる。歪み無し画像400をテクスチャとして利用して、時刻t2でのヘッドマウントディスプレイ100の最新の姿勢に合うようにリプロジェクション処理を施し、リプロジェクション画像410を生成する。その後、リプロジェクション画像410に歪み変換を施して歪み画像420を生成する。
図23は、本実施の形態の歪みリプロジェクション処理を説明する図である。歪みレンダリング部232は、時刻t1でのヘッドマウントディスプレイ100の姿勢に合わせて、歪みレンダリング処理によって歪み画像430を投影面S1にレンダリングする。歪みリプロジェクション部246は、歪み画像430をテクスチャとして利用して、時刻t2でのヘッドマウントディスプレイ100の最新の姿勢に合うように歪みリプロジェクション処理を施し、投影面S2にリプロジェクション歪み画像440をレンダリングする。歪みリプロジェクション処理では、台形変換と歪み変換が同時に行われる。
図24は、本実施の形態の歪みリプロジェクション処理をより詳しく説明する図である。
本実施の形態では、歪みレンダリング部232は歪み無し画像をフレームバッファに生成せずに、歪み画像を直接フレームバッファに生成する。そのため、歪み無し画像がフレームバッファに実在しないため、歪み無し画像に対して、台形変換と歪み変換を同時に行う歪みリプロジェクション処理を施すことはできない。そこで、歪み画像430をテクスチャとして利用する際、仮想的に歪みのないテクスチャ(「仮想テクスチャ」と呼ぶ)を想定し、仮想テクスチャ450に対して歪みリプロジェクション処理を施す。仮想テクスチャは歪みがないため、本実施の形態の歪みレンダリング処理を適用して、台形変換と同時に歪み変換を施すことで、リプロジェクション歪み画像440を生成することができる。
ただし、仮想テクスチャ450は実在しないため、仮想テクスチャ450へのデータアクセスを、フレームバッファに実際に生成された歪み有りの実テクスチャである歪み画像430へのデータアクセスに変換し、実テクスチャである歪み画像430からデータを取得できるようにする。仮想テクスチャ450から実テクスチャである歪み画像430へのテクスチャの座標変換は、歪みレンダリング処理で参照する歪み情報と同じ歪み変換である。ただし、テクスチャとして利用するために、テクスチャ座標を導入し、スケールとオフセットを調整する。仮想テクスチャ450を仮想テクスチャ座標系s_org−t_orgに設け、実テクスチャである歪み画像430を実テクスチャ座標系s_dist−t_distに設け、画像サイズがs=1.0、t=1.0になるようにスケーリングし、画像の左上の座標がs=0、t=0となるようにオフセットする。テクスチャ座標の変換に必要なテクスチャ歪み情報は、歪みレンダリング処理で参照する歪み情報からあらかじめ求めておく。
図25(a)〜図25(c)は、歪みリプロジェクション処理の手順を説明する図である。図25(a)に示すように、仮想テクスチャ450を大きな二つの三角形に分割し、三角形の頂点v0、v1、v2に仮想テクスチャ座標を以下のように設定する。
v0:Tex_v(1.0,0.0)
v1:Tex_v(0.0,1.0)
v2:Tex_v(0.0,0.0)
仮想テクスチャ450の3頂点は台形変換と歪み変換により、投影面S2では歪みのある三角形の3頂点に対応する。歪みレンダリング部232が歪みのある三角形に対して実施の形態1で述べた歪みレンダリング処理を実行し、ラスタライズする。ここでは、図25(b)に示すように、ピクセルPをラスタライズする場合を説明する。ピクセルPに逆歪み変換を施すことにより、ピクセルPの仮想テクスチャ座標はたとえば以下のように求められる。
P:Tex_v(0.4,0.2)
仮想テクスチャは仮想的に存在するだけでフレームバッファに実在しないので、歪み変換によって仮想テクスチャ座標を実テクスチャ座標に変換する。これにより、図25(c)に示すように、ピクセルPの実テクスチャ座標がたとえば以下のように求められる。ここでは、仮想テクスチャ座標Tex_v(0.4,0.2)が実テクスチャ座標Tex_r(0.3,0.3)に変換される。
P:Tex_r(0.3,0.3)
実際にピクセルPをサンプリングするときは、実テクスチャ座標Tex_r(0.3,0.3)にもとづいて歪み画像430からサンプリングする。2つの三角形の内部の点を歪みレンダリング処理によってラスタライズすることにより、最終的にリプロジェクション歪み画像440が生成される。
図26は、従来のリプロジェクション処理の手順を説明する図である。ここでは単純なシーンの描画のため、レンダリングに時間がかからず、リプロジェクションの予測時間が短い場合を想定する。レンダリング部231はシーンデータにもとづいて時刻t=Nの歪み無し画像400をレンダリングし、歪み変換部233が歪み無し画像400を歪み情報にもとづいて歪み変換し、時刻t=Nの歪み画像420を生成する。レンダリング処理よりも高いフレームレートで画像を出力する場合、時刻t=N+1では、リプロジェクション部245は、直前の時刻t=Nの描画結果である歪み無し画像400に対してリプロジェクション処理を施し、リプロジェクション歪み無し画像412を生成し、歪み変換部233がリプロジェクション歪み無し画像412を歪み情報にもとづいて歪み変換し、時刻t=N+1のリプロジェクション歪み画像422を生成する。
図27は、従来のリプロジェクション処理の手順を説明する図である。ここでは複雑なシーンの描画のため、レンダリングに時間がかかり、リプロジェクションの予測時間が長い場合を想定する。レンダリング部231はシーンデータにもとづいて歪み無し画像400をレンダリングするが処理時間がかかったため、リプロジェクション部245は、歪み無し画像400に対してリプロジェクション処理を施し、時刻t=Nのリプロジェクション画像410を生成し、歪み変換部233がリプロジェクション画像410を歪み情報にもとづいて歪み変換し、時刻t=Nのリプロジェクション歪み画像421を生成する。また、次の時刻t=N+1では、リプロジェクション部245は、歪み無し画像400に対してリプロジェクション処理を施し、時刻t=N+1のリプロジェクション画像410を生成し、歪み変換部233がリプロジェクション画像410を歪み情報にもとづいて歪み変換し、時刻t=N+1のリプロジェクション歪み画像421を生成する。
図26、図27のいずれの場合でもリプロジェクション時の予測時間は、リプロジェクション処理にかかる時間、同期待ち時間、歪み変換にかかる時間を合計した時間である。
図28は、本実施の形態の歪みリプロジェクション処理の手順を説明する図である。ここでは単純なシーンの描画のため、レンダリングに時間がかからず、リプロジェクションの予測時間が短い場合を想定する。歪みレンダリング部232は、シーンデータと歪み情報にもとづいて時刻t=Nの歪み画像420をレンダリングする。歪みリプロジェクション部246は、時刻t=Nの歪み画像420に対して時刻t=N+1のヘッドマウントディスプレイ100の姿勢に合うように歪みリプロジェクション処理を施し、時刻t=N+1の歪みリプロジェクション歪み画像422を生成する。
図29は、本実施の形態の歪みリプロジェクション処理の手順を説明する図である。ここでは複雑なシーンの描画のため、レンダリングに時間がかかり、リプロジェクションの予測時間が長い場合を想定する。歪みレンダリング部232は、シーンデータと歪み情報にもとづいて歪み画像420をレンダリングする。歪みリプロジェクション部246は、歪み画像420に対して歪みリプロジェクション処理を施し、時刻t=Nの歪みリプロジェクション歪み画像421を生成する。次の時刻t=N+1では、歪みリプロジェクション部246は、歪み画像420に対して歪みリプロジェクション処理を施し、時刻t=N+1の歪みリプロジェクション歪み画像422を生成する。
図28、図29のいずれの場合でもリプロジェクション時の予測時間は、歪みリプロジェクション処理にかかる時間だけであり、図26、27の従来のリプロジェクション処理に比べて予測時間が短くなるので、低レイテンシであり、予測精度の向上も期待できる。また、中間バッファを介さないため、メモリリソースを削減できる。モバイル機器では、メモリアクセスが減る分、省電力の効果もある。
(第4の実施の形態)
第2の実施の形態のフォービエイテッドレンダリングと、第3の実施の形態のリプロジェクションとを組み合わせて行う場合を説明する。
図30は、第4の実施の形態に係る画像生成装置200の構成図である。歪み情報算出部236に関連する構成と動作は第2の実施の形態で説明し、歪みリプロジェクション部246に関連する構成と動作は第3の実施の形態で説明したので説明を省略し、ここでは、これらを組み合わせた構成と動作について説明する。
図31は、本実施の形態の歪みリプロジェクション処理の手順を説明する図である。レンダリングに比較的時間がかからず、リプロジェクションの予測時間が短い場合を想定する。歪み情報記憶部234には、時刻t=Nでは注視点GAの情報にもとづいて歪み情報算出部236によって生成された注視歪み情報Aが保持されており、時刻t=N+1では注視点GBの情報にもとづいて歪み情報算出部236によって生成された注視歪み情報Bが保持されており、注視歪み情報が時間とともに変化していることに留意する。
歪みレンダリング部232は、シーンデータと注視歪み情報Aにもとづいて時刻t=Nの注視歪み画像420をレンダリングする。
歪みリプロジェクション部246は、時刻t=Nの注視歪み画像420に対して時刻t=N+1のヘッドマウントディスプレイ100の姿勢に合うように歪みリプロジェクション処理を施すが、テクスチャ座標変換には時刻t=Nのテクスチャ歪み情報Aを利用し、歪み変換には時刻t=N+1の注視歪み情報Bを利用する。テクスチャ座標変換部240が時刻t=Nの注視歪み画像420に対応する仮想テクスチャを参照する際は、時刻t=Nのテクスチャ歪み情報Aを利用するが、歪みレンダリング部232が注視歪み画像420を歪みリプロジェクション処理する際は、時刻t=N+1の注視歪み情報Bにもとづいて歪み変換するからである。このようにして歪みリプロジェクション部246は、時刻t=Nの注視歪み画像420から、時刻t=N+1のリプロジェクション注視歪み画像422を生成する。
図32は、本実施の形態の歪みリプロジェクション処理の手順を説明する図である。レンダリングに比較的時間がかかり、リプロジェクションの予測時間が長い場合を想定する。図31と同様、歪み情報記憶部234には、時刻t=Nでは注視点GAの情報にもとづいて生成された注視歪み情報Aが保持されており、時刻t=N+1では注視点GBの情報にもとづいて生成された注視歪み情報Bが保持されている。
歪みレンダリング部232は、シーンデータと注視歪み情報Aにもとづいて歪み画像420をレンダリングする。歪みリプロジェクション部246は、歪み画像420に対して歪みリプロジェクション処理を施すが、テクスチャ座標変換には時刻t=Nのテクスチャ歪み情報Aを利用し、歪み変換には時刻t=Nの注視歪み情報Aを利用する。このようにして歪みリプロジェクション部246は、歪み画像420から時刻t=Nのリプロジェクション注視歪み画像421を生成する。
次の時刻t=N+1では、歪みリプロジェクション部246は、歪み画像420に対して歪みリプロジェクション処理を施すが、テクスチャ座標変換には時刻t=Nのテクスチャ歪み情報Aを利用し、歪み変換には時刻t=N+1の注視歪み情報Bを利用する。このようにして歪みリプロジェクション部246は、歪み画像420から時刻t=N+1のリプロジェクション注視歪み画像422を生成する。
本実施の形態の歪みリプロジェクション処理では、リプロジェクション次にテクスチャ歪み情報と注視歪み情報とを個別に用いることでフォービエイテッドレンダリングに対応したリプロジェクションが可能になる。
上記のいずれの実施の形態でも、ヘッドマウントディスプレイ100の光学系のように表示画像に非線形の歪みが生じる場合を説明したが、歪みは非線形に限らず、線形の歪みであっても歪みレンダリング処理を適用することができる。たとえば、壁にプロジェクションマッピングを行う場合、プロジェクタは壁を見上げるように斜めに設置されるため、画像にあらかじめ台形変換を施す必要がある。このような線形の歪みを画像に施す場合にも歪みレンダリングを適用して、レンダリング処理と歪み変換を同時に行うことでメモリ容量の削減と処理時間の短縮を図ることができる。ヘッドアップディスプレイや車のフロントガラスへの描画の際にも画像の歪み変換が必要になり、同様に歪みレンダリングを適用することができる。このように歪み変換として、拡大縮小、平行移動、回転など同次座標行列で表現可能な線形の変形の他、同次座標行列で表現できない、たとえばレンズの歪みなど2次以上の多項式で表現されるような非線形の変形など任意の変形を想定することができる。
以上、本発明を実施の形態をもとに説明した。実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
10 制御部、 20 入力インタフェース、 30 出力インタフェース、 32 ディスプレイパネル、 40 通信制御部、 42 ネットワークアダプタ、 44 アンテナ、 50 記憶部、 64 姿勢センサ、 70 外部入出力端子インタフェース、 72 外部メモリ、 100 ヘッドマウントディスプレイ、 200 画像生成装置、 210 位置・姿勢取得部、 220 視点・視線設定部、 230 画像生成部、 232 歪みレンダリング部、 234 歪み情報記憶部、 234 歪み情報記憶部、 236 歪み情報算出部、 238 注視情報記憶部、 240 テクスチャ座標変換部、 242 テクスチャ歪み情報記憶部、 244 シーンデータ記憶部、 246 歪みリプロジェクション部、 260 画像記憶部、 280 HDMI送受信部、 300 インタフェース。
この発明は、画像生成技術に利用できる。

Claims (8)

  1. 画像を変形させて歪ませるための情報を歪み情報として記憶する歪み情報記憶部と、
    前記歪み情報を用いたラスタライズ処理によって、歪み無し画像をメモリに生成することなく、歪み画像をレンダリングする歪みレンダリング部とを含むことを特徴とする画像生成装置。
  2. 前記歪みレンダリング部は、前記歪み情報にもとづいてラスタライズ処理対象の三角形を変換した歪みのある三角形の頂点の位置から上方向および下方向に歪みのある三角形をラスタライズ処理することにより、歪み画像をレンダリングすることを特徴とする請求項1に記載の画像生成装置。
  3. 前記歪みレンダリング部は、上方向および下方向に歪みのある三角形をラスタライズ処理する際、歪み適用前の歪みのない三角形においてピクセルの内外判定およびパラメータ生成を行うことを特徴とする請求項2に記載の画像生成装置。
  4. ユーザの注視領域と非注視領域の間の解像度の比率に関する情報を含む注視情報にもとづいて前記歪み情報を変形して注視歪み情報を生成する歪み情報算出部をさらに含み、
    前記レンダリング部は、前記注視歪み情報を用いたラスタライズ処理によって、歪み無し画像をメモリに生成することなく、前記歪み画像をレンダリングすることを特徴とする請求項1から3のいずれかに記載の画像生成装置。
  5. 前記歪みレンダリング部によってレンダリングされた歪み画像をテクスチャとして用いて、前記歪み画像に対して前記歪み情報を用いたラスタライズ処理を施すことによって、歪み無し画像をメモリに生成することなく、前記歪み画像をリプロジェクション処理する歪みリプロジェクション処理部をさらに含むことを特長とする請求項1から4のいずれかに記載の画像生成装置。
  6. 前記歪み画像のテクスチャから歪みを除去した仮想テクスチャの座標値を前記歪み情報にもとづいて前記歪み画像のテクスチャの座標値に変換し、前記歪み画像のテクスチャの座標値からピクセルデータを取得するテクスチャ座標変換部をさらに含み、
    前記歪みリプロジェクション処理部は、前記仮想テクスチャに対して前記歪み情報を用いたラスタライズ処理を施すことによって、歪み無し画像をメモリに生成することなく、前記歪み画像をリプロジェクション処理し、前記仮想テクスチャのピクセルデータをアクセスする際、前記テクスチャ座標変換部から、前記仮想テクスチャのピクセルに対応する前記歪み画像のテクスチャのピクセルのデータを取得することを特徴とする請求項5に記載の画像生成装置。
  7. 画像を変形させて歪ませるための情報を歪み情報として読み出し、前記歪み情報を用いたラスタライズ処理によって、歪み無し画像をメモリに生成することなく、歪み画像をレンダリングする歪みレンダリングステップを含むことを特徴とする画像生成方法。
  8. 画像を変形させて歪ませるための情報を歪み情報として読み出し、前記歪み情報を用いたラスタライズ処理によって、歪み無し画像をメモリに生成することなく、歪み画像をレンダリングする歪みレンダリング機能をコンピュータに実現させることを特徴とするプログラム。
JP2020567682A 2019-01-21 2019-01-21 画像生成装置および画像生成方法 Active JP7170752B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/001693 WO2020152754A1 (ja) 2019-01-21 2019-01-21 画像生成装置および画像生成方法

Publications (2)

Publication Number Publication Date
JPWO2020152754A1 true JPWO2020152754A1 (ja) 2021-12-02
JP7170752B2 JP7170752B2 (ja) 2022-11-14

Family

ID=71736833

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020567682A Active JP7170752B2 (ja) 2019-01-21 2019-01-21 画像生成装置および画像生成方法

Country Status (4)

Country Link
US (1) US11544822B2 (ja)
EP (1) EP3916679A4 (ja)
JP (1) JP7170752B2 (ja)
WO (1) WO2020152754A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210192681A1 (en) * 2019-12-18 2021-06-24 Ati Technologies Ulc Frame reprojection for virtual reality and augmented reality

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001034161A (ja) * 1999-07-21 2001-02-09 Denso Corp 地図表示装置
WO2014033913A1 (ja) * 2012-08-31 2014-03-06 三菱電機株式会社 表示装置
US20180350032A1 (en) * 2017-06-05 2018-12-06 Google Llc Smoothly varying foveated rendering

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004072553A (ja) * 2002-08-08 2004-03-04 Digital Zuu:Kk 映像歪み補正方法及び同方法用プログラム
JP6391423B2 (ja) * 2014-10-24 2018-09-19 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置、画像抽出装置、画像生成方法、および画像抽出方法
JP6511386B2 (ja) * 2015-11-20 2019-05-15 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および画像生成方法
GB2553353B (en) * 2016-09-05 2021-11-24 Advanced Risc Mach Ltd Graphics processing systems and graphics processors
US10546365B2 (en) * 2017-03-27 2020-01-28 Advanced Micro Devices, Inc. Single pass flexible screen/scale rasterization

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001034161A (ja) * 1999-07-21 2001-02-09 Denso Corp 地図表示装置
WO2014033913A1 (ja) * 2012-08-31 2014-03-06 三菱電機株式会社 表示装置
US20180350032A1 (en) * 2017-06-05 2018-12-06 Google Llc Smoothly varying foveated rendering

Also Published As

Publication number Publication date
EP3916679A1 (en) 2021-12-01
JP7170752B2 (ja) 2022-11-14
US11544822B2 (en) 2023-01-03
WO2020152754A1 (ja) 2020-07-30
EP3916679A4 (en) 2022-08-31
US20220076389A1 (en) 2022-03-10

Similar Documents

Publication Publication Date Title
US10861215B2 (en) Asynchronous time and space warp with determination of region of interest
US11592668B2 (en) Image generation apparatus and image generation method using frequency lower than display frame rate
WO2017212679A1 (ja) 画像生成装置および画像生成方法
US11120632B2 (en) Image generating apparatus, image generating system, image generating method, and program
JP6310898B2 (ja) 画像処理装置、情報処理装置、および画像処理方法
US20210368152A1 (en) Information processing apparatus, information processing method, and program
US9766458B2 (en) Image generating system, image generating method, and information storage medium
US11003408B2 (en) Image generating apparatus and image generating method
JP7170752B2 (ja) 画像生成装置および画像生成方法
US20230128288A1 (en) Compositor layer extrapolation
WO2021006191A1 (ja) 画像表示装置、画像表示システムおよび画像表示方法
JP7377014B2 (ja) 画像表示装置、画像表示システムおよび画像表示方法
US11270673B2 (en) Image generation apparatus, image generation method, and program
JP7429761B2 (ja) 画像表示装置、画像表示システムおよび画像表示方法
JP7365183B2 (ja) 画像生成装置、ヘッドマウントディスプレイ、コンテンツ処理システム、および画像表示方法
WO2024004134A1 (ja) 画像送信装置および画像送信方法
US20230239458A1 (en) Stereoscopic-image playback device and method for generating stereoscopic images
CN115914603A (zh) 图像渲染方法、头戴显示设备和可读存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210716

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220906

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221004

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221025

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221101

R150 Certificate of patent or registration of utility model

Ref document number: 7170752

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150