JPWO2012147363A1 - 画像生成装置 - Google Patents

画像生成装置 Download PDF

Info

Publication number
JPWO2012147363A1
JPWO2012147363A1 JP2013511945A JP2013511945A JPWO2012147363A1 JP WO2012147363 A1 JPWO2012147363 A1 JP WO2012147363A1 JP 2013511945 A JP2013511945 A JP 2013511945A JP 2013511945 A JP2013511945 A JP 2013511945A JP WO2012147363 A1 JPWO2012147363 A1 JP WO2012147363A1
Authority
JP
Japan
Prior art keywords
image
virtual
viewpoint
unit
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013511945A
Other languages
English (en)
Inventor
泰治 佐々木
泰治 佐々木
洋 矢羽田
洋 矢羽田
智輝 小川
智輝 小川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Publication of JPWO2012147363A1 publication Critical patent/JPWO2012147363A1/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

画像生成装置100は、観察者の観察位置を検出する検出部210と、基準位置からの、観察位置への変位量をr(rは1より大きな実数)倍した仮想観察位置を算出する位置算出部220と、仮想観察位置から観察される画像を生成する生成部230と、生成した画像を外部のディスプレイに出力する出力部240とを備える。

Description

本発明は、3次元物体が表わされた画像を生成する画像生成装置に関する。
従来、OpenGL等のAPI(Application Programming Interface)群を用いて行う3次元コンピュータグラフィックス処理技術、多視点画像を用いた自由視点画像生成技術(例えば、特許文献1参照)等といった、指定された観察位置から観察される3次元物体を表わす画像を生成する技術が知られている。
また、3次元物体を表わす画像を表示する表示画面を観察する観察者の位置を検出し、その検出した位置から観察されるはずの、その3次元物体を表わす画像を生成して表示画面に表示する自由視点テレビが知られている。
従来の自由視点テレビによると、観察者は、表示画面に対して移動することによって、移動位置から見えるべき3次元物体を表示する画像を観察することができる。
特開2008−21210号公報
しかしながら、従来の自由視点テレビによると、観察者は、現在観察している画像に表わされている物体について、現在の観察角度とは大きく角度が異なる観察角度から観察しようとするためには、比較的大きく移動しなければならない。
そこで、本発明は係る問題に鑑みてなされたものであり、画像に表わされている物体の観察角度を変更しようとする場合に、観察者の移動量が、従来よりも少なくて済むように画像を生成する画像生成装置を提供することを目的とする。
上記課題を解決するために本発明の一態様に係る画像生成装置は、3次元物体が表わされた画像を外部の表示デバイスに出力する画像生成装置であって、前記表示デバイスにより表示される画像を観察する観察者の観察位置を検出する検出手段と、前記表示デバイスにより表示される画像の表示領域に向かい合う所定の基準位置からの、前記検出手段によって検出された観察位置への変位量をr(rは1より大きな実数)倍した仮想視点を算出する位置算出手段と、前記3次元物体を表わす画像を生成するためのデータを取得して、前記位置算出手段によって算出された仮想視点から観察される、前記3次元物体を表わす画像を生成する生成手段と、前記生成手段によって生成された画像を、前記表示デバイスに出力する出力手段とを備えることを特徴とする。
上述の構成を備える本発明の一態様に係る画像生成装置によると、画像を観察する観察者が移動した場合に、生成する画像の観察位置となる仮想観察位置の移動量は、観察者の移動量のr(rは1よりも大きな実数)倍となる。このことにより、物体の観察角度を変更しようとする場合に、観察者の移動量が、従来よりも少なくて済む。
画像生成装置100の構成図 画像生成装置100を構成する主要な機能ブロックを示す機能ブロック図 実空間における座標系と、仮想空間における座標系との関係を示す図 表示面310と基準位置430との関係を模式的に示す模式図 (a)陰影処理を説明するための模式図その1(b)陰影処理を説明するための模式図その2 透視射影変換法を利用する画像の生成を説明するための模式図 右目原画像と左目原画像との関係を示す模式図 画像生成処理のフローチャート 画像生成装置100が生成する画像を説明するための模式図 (a)仮想観察位置K940を視点位置とする画像を示す図(b)仮想視点位置J950を視点位置とする画像を示す図 画像生成装置1100を構成する主要な機能ブロックを示す機能ブロック図 画像生成装置1100が生成する画像を説明するための模式図 第1変形画像生成処理のフローチャート (a)仮想観察位置K940を視点位置とする画像を示す図(b)仮想視点位置J950を視点位置とする原画像を示す図 画像生成装置1500を構成する主要な機能ブロックを示す機能ブロック図 画像生成装置1500が生成する画像を説明するための模式図 (a)仮想観察位置K940を視点位置とする画像を示す図(b)仮想視点位置J950を視点位置とする原画像を示す図 画像生成装置1800を構成する主要な機能ブロックを示す機能ブロック図 表示面310と基準位置1930との関係を模式的に示す模式図 画像生成装置1800が生成する画像を説明するための模式図 (a)仮想観察位置K2040を視点位置とする画像を示す図(b)仮想視点位置J2050を視点位置する画像を示す図 センシングの一例を説明するための模式図その1 センシングの一例を説明するための模式図その2 ヘッドトラッキングの一例を説明するための模式図その1 ヘッドトラッキングの一例を説明するための模式図その2 光源位置設定の一例を説明するための模式図その1 光源位置設定の一例を説明するための模式図その2 観測者とオブジェクトとの位置関係を模式的に示す模式図 側面スクリーンを設けた場合の一例を説明するための模式図 楕円の形をしている場合の一例を説明するための模式図 1プレーン+オフセット方式を説明するための模式図 1プレーン+オフセット方式を用いた一例を説明するための模式図 実物大スケーリング係数を説明するための模式図 ディスプレイが回転するタイプの画像生成装置を模式的に示す模式図 画像生成装置100におけるアプリケーションの一例を説明するための模式図 ユーザがスクリーンに入り込む様子を模式的に示す模式図その1 ユーザがスクリーンに入り込む方法を模式的に示す模式図その2 耳の不自由な障がい者と健常者とのコミュニケーションを円滑化するシステムを説明するための模式図その1 耳の不自由な障がい者と健常者とのコミュニケーションを円滑化するシステムを説明するための模式図その2 画像生成装置4000の構成を示すブロック図
<本発明の態様に係る実施形態を想到するに至った経緯>
従来の自由視点テレビは、自由視点テレビの表示画面に表わされる物体を観察する観察者に、あたかも立体構造を持つ物体を実際に観察しているかのように感じさせることができる。
しかしながら、発明者は、現在観察している画像に表わされている物体について、現在の観察角度とは大きく角度が異なる観察角度から観察しようとする場合に、観察者が表示画面に対して比較的大きく移動する必要があるため、このような場合に、観察者が、大きく移動することに対して煩わしく感じてしまうことがあることに気付いた。
そこで、発明者は、画像に表わされている物体の観察角度を変更しようとする場合に、表示画面に対する観察者の移動量が、従来よりも少なくて済むように画像を生成する画像生成装置を開発することで、上記観察者の感じる煩わしさを低減できるのではないかと考えた。
そして、発明者は、この考えを実現すべく、観察者の観察位置を検出した場合に、所定の基準位置からの、観察位置への変位量をr(rは1より大きな実数)倍した仮想観察位置から見える画像を生成する画像生成装置を想到するに至った。
<実施の形態1>
<概要>
以下、本発明の態様に係る画像生成装置の一実施形態として、仮想空間に仮想的に存在する立体物についての3DCG(Dimensional Computer Graphics)画像を生成して、外部のディスプレイに出力する画像生成装置100について説明する。
図2は、画像生成装置100を構成する主要な機能ブロックを示す機能ブロック図である。
同図に示されるように、画像生成装置100は、観察者の観察位置を検出する検出部210と、基準位置からの、観察位置への変位量をr(rは1より大きな実数)倍した視点位置を算出する位置算出部220と、視点位置から観察される3DCG画像を生成する生成部230と、生成した画像を外部のディスプレイに出力する出力部240とを備える。
まず、この画像生成装置100のハードウエア構成について、図面を参照しながら説明する。
<ハードウエア構成>
図1は、画像生成装置100の構成図である。
同図に示されるように、画像生成装置100は、集積回路110とカメラ130とハードディスク装置140と光ディスク装置150と入力装置160とから構成され、外部のディスプレイ190に接続される。
集積回路110は、プロセッサ111とメモリ112と右目フレームバッファ113と左目フレームバッファ114とセレクタ115とバス116と第1インターフェース121と第2インターフェース122と第3インターフェース123と第4インターフェース124と第5インターフェース125と第6インターフェースとが集積されたLSI(Large Scale Integration)であって、カメラ130とハードディスク装置140と光ディスク装置150と入力装置160とディスプレイ190とに接続される。
メモリ112は、バス116に接続され、RAM(Random Access Memory)とROM(Read Only Memory)とによって構成され、プロセッサ111の動作を規定するプログラムを記憶する。メモリ112の記憶領域のうちの一部の領域は、プロセッサ111によって主記憶領域として利用される。
右目フレームバッファ113は、バス116とセレクタ115とに接続されるRAMであって、右目画像(後述)を記憶するために利用される。
左目フレームバッファ114は、バス116とセレクタ115とに接続されるRAMであって、左目画像(後述)を記憶するために利用される。
セレクタ115は、バス116とプロセッサ111と右目フレームバッファ113と左目フレームバッファ114と第6インターフェース126とに接続され、プロセッサ111によって制御され、右目フレームバッファ113に記憶される右目画像と左目フレームバッファ114に記憶される左目画像とを、所定の周期(例えば、1/120秒周期)で交互に選択して第6インターフェース126に出力する機能を有する。
バス116は、プロセッサ111とメモリ112と右目フレームバッファ113と左目フレームバッファ114とセレクタ115と第1インターフェース121と第2インターフェース122と第3インターフェース123と第4インターフェース124と第5インターフェース125とに接続され、接続される回路間の信号を伝達する機能を有する。
第1インターフェース121と第2インターフェース122と第3インターフェース123と第4インターフェース124と第5インターフェース125とは、それぞれバス116に接続され、それぞれ、撮像装置132(後述)とバス116との間の信号のやり取りを仲介する機能、測距装置131とバス116との間の信号のやり取りを仲介する機能、バス116とハードディスク装置140との間の信号をやり取りする機能、バス116と光ディスク装置150との間の信号をやり取りする機能、入力装置160とバス116との間の信号をやり取りする機能を有する。第6インターフェース126は、セレクタ115に接続され、セレクタ115と外部のディスプレイ190との間の信号をやり取りする機能を有する。
プロセッサ111は、バス116に接続され、メモリ112に記憶されているプログラムを実行することで、セレクタ115と測距装置131と撮像装置132とハードディスク装置140と光ディスク装置150と入力装置160とを制御する機能を実現する。また、プロセッサ111は、メモリ112に記憶されているプログラムを実行することで、これらの装置を制御して、画像生成装置100に画像生成処理を実行させる機能を有する。なお、この画像生成処理については、後程<画像生成処理>の項目において、フローチャートを用いて詳細に説明する。
カメラ130は、測距装置131と撮像装置132とから構成される。このカメラ130は、ディスプレイ190の表示面側上部に装着され、ディスプレイ190の表示面近傍の被写体を撮影する機能を有する。
撮像装置132は、第1インターフェース121に接続され、プロセッサ111によって制御され、固体撮像素子(例えば、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサ)と、固体撮像素子に外部の光を集光するレンズ群とを備え、外部の被写体を所定のフレームレート(例えば30fps)で撮影して、所定数(例えば、640×480)の画素からなる画像を生成して出力する機能を有する。
測距装置131は、第2インターフェース122に接続され、プロセッサ111によって制御され、画素単位で被写体までの距離を測定する機能を有する。この測距装置131による測距方法は、例えば、赤外線等のレーザ光を被写体に照射して、その被写体からの反射光が再び戻ってくるまでの時間を測定することで距離を算出するTOF(Time Of Flight)測距方式を利用して実現される。
ハードディスク装置140は、第3インターフェース123に接続され、プロセッサ111によって制御され、ハードディスクを内蔵し、内蔵するハードディスクにデータを書き込む機能と、内蔵するハードディスクからデータを読み出す機能とを有する。
光ディスク装置150は、第4インターフェース124に接続され、プロセッサ111によって制御され、データ記録媒体である光ディスク(例えば、Blu−ray(登録商標)ディスク)を着脱可能に装着し、装着する光ディスクからデータを読み出す機能を有する。
入力装置160は、第5インターフェース125に接続され、プロセッサ111によって制御され、ユーザからの操作を受け付け、受け付けた操作を電気信号に変換してプロセッサ111に送る機能を有する。この入力装置160は、例えば、キーボードとマウスとによって実現される。
ディスプレイ190は、第6インターフェース126に接続され、画像生成装置100から送られてくる信号に基づく画像を表示する機能を有する、例えば、水平方向が890mm、垂直方向が500mmからなる長方形の表示面を有する液晶ディスプレイである。
上記ハードウエア構成を備える画像生成装置100について、以下、機能面から見た各構成要素について、図面を参照しながら説明する。
<機能構成>
図2に示されるように、画像生成装置100は、検出部210と位置算出部220と生成部230と出力部240とから構成される。
検出部210は、位置算出部220に接続され、サンプル画像保持部211とヘッドトラッキング部212とから構成され、ディスプレイ190の画像表示面を観察している観察者の観察位置を検出する機能を有する。
ヘッドトラッキング部212は、サンプル画像保持部211と座標変換部222(後述)とに接続され、プログラムを実行するプロセッサ111が測距装置131と撮像装置132とを制御することで実現され、以下の4つの機能を有する。
撮影機能:所定のフレームレート(例えば30fps)で、ディスプレイ190の表示面近傍に存在する被写体を撮影して、所定数(例えば、640×480)の画素からなる画像を生成する機能。
測距機能:所定のフレームレート(例えば30fps)で、ディスプレイ190の表示面近傍に存在する被写体までの距離を測定する機能。
顔検出機能:サンプル画像保持部211に記憶されるサンプル画像を利用するマッチング処理を行うことで、撮影された被写体に含まれる顔の領域を検出する機能。
目位置算出機能:顔の領域を検出した場合に、さらに、サンプル画像保持部211に記憶されるサンプル画像を利用するマッチング処理を行うことで、右目の位置と左目の位置とを特定し、実空間における、右目座標と左目座標とを算出する機能。なお、以下では、右目の位置と左目の位置とを、左右の区別せずに表現する場合に、単に観察位置と表現することがある。
図3は、実空間における座標系(以下、「実座標系」と呼ぶ。)と、仮想空間における座標系(以下、「仮想座標系」と呼ぶ。)との関係を示す図である。
実座標系とは、ディスプレイ190が設置されている現実世界における座標系であって、仮想座標系とは、画像生成装置100が3DCG画像を生成するために仮想的に構築する仮想空間における座標系である。
同図に示されるように、実座標系と仮想座標系とは、共に、ディスプレイ190の表示面310における中央を原点として、水平方向をX軸、垂直方向をY軸、奥行き方向をZ軸としている。また、ここでは、表示面310を観察する観察者300から見て、右方向をX軸の正の方向、上方向をY軸の正の方向、表示面310の手前方向をZ軸の正の方向としている。
実座標系で表わされる実座標から、仮想座標系で表わされる仮想座標への変換は、実座標に、座標変換係数であるRealToCG係数を乗ずることで算出される。
例えば、図3に示されるように、実空間における表示面310の高さが500mmで、仮想空間における、スクリーン領域の高さが100.0である場合には、RealToCG係数は、100.0/500=0.20となる。
再び図2に戻って、画像生成装置100の機能構成についての説明を続ける。
サンプル画像保持部211は、ヘッドトラッキング部212に接続され、メモリ112の記憶領域の一部として実現され、ヘッドトラッキング部212が行う、顔の領域を検出するためのマッチング処理に利用されるサンプル画像と、ヘッドトラッキング部212が行う、右目座標と左目座標とを算出するためのマッチング処理に利用されるサンプル画像とを記憶する機能を有する。
位置算出部220は、検出部210と生成部230とに接続され、パラメータ保持部221と座標変換部222とから構成され、基準位置からの、観察位置への変位量をr倍した視点位置を算出する機能を有する。
座標変換部222は、ヘッドトラッキング部212とパラメータ保持部221と視点変換部235(後述)とオブジェクトデータ保持部231(後述)とに接続され、プログラムを実行するプロセッサ111によって実現され、以下の3つの機能を有する。
基準位置算定機能:ヘッドトラッキング部212によって特定された、右目の位置と左目の位置とのそれぞれについて、目の位置を含む、ディスプレイ190の表示面に平行な基準平面を算出し、算出した基準平面における、ディスプレイ190の表示面中央に対向する位置を基準位置として算定する機能。ここで、基準平面における表示面中央に対向する位置とは、基準平面上の点のうち、表示面中央への距離が最短となる点の位置のことをいう。
図4は、Y軸(図3参照)における正の方向から、ディスプレイ190を見下ろした場合における、ディスプレイ190の表示面310と基準位置430との関係を模式的に示す模式図である。ここでは、表示面310がZ軸に垂直になっている。
同図において、位置K440は、ヘッドトラッキング部212によって特定された観察位置を示している。位置J450については後述する。
基準平面420は、位置K440を含む、表示面310に平行な平面である。
基準位置430は、基準平面420上の点のうち、表示面中央410への距離が最短となる点の位置である。
引き続き、座標変換部222が有する機能の説明を続ける。
視点位置算出機能:ヘッドトラッキング部212によって特定された右目の位置と左目の位置とのそれぞれについて、それぞれの基準平面における、それぞれの基準位置からの変位量をr倍した右目視点位置と左目視点位置とをそれぞれ算出する機能。ここで、基準平面における、変位量をr倍した視点位置を算出するとは、基準位置を始点として目の位置を終点とする基準平面上のベクトルに対して、ベクトルの向きを維持したまま、ベクトルの大きさをr倍して得られるベクトルの終点の位置を視点位置として算出することである。また、このrの値は、画像生成装置100を利用するユーザが、入力装置160を用いて自由に設定されるものであるとしてもよい。なお、以下では、右目視点位置と左目視点位置とを、左右の区別をせずに表現する場合に、単に視点位置と表現することがある。
図4において、位置J450は、ヘッドトラッキング部212によって特定された目の位置が位置K440である場合において、座標変換部222が算出する視点位置を示している。
位置J450は、基準平面420における、基準位置430からの位置K440への変位量をr倍した位置となっている
引き続き、座標変換部222が有する機能の説明を続ける。
座標変換機能:算出した、右目視点位置を示す座標(以下、「右目視点座標」と呼ぶ。)と、左目の視点位置を示す座標(以下、「左目視点座標」と呼ぶ。)とを、それぞれ、仮想座標系における仮想右視点座標と仮想左視点座標とに変換する機能。
実座標から仮想座標への変換係数であるRealToCG係数は、オブジェクトデータ保持部231(後述)からスクリーン領域の高さを読み出し、パラメータ保持部221(後述)から表示面310の高さを読み出して、読み出したスクリーン領域の高さを、読み出した表示面310の高さで除することで算出する。
例えば、図3に示されるように、実空間における表示面310の高さが500mmで、仮想空間における、スクリーン領域の高さが100.0である場合において、観察者300が、表示面310の中央からZ軸上に1000mm離れた位置に存在するときには、その観察者300の仮想座標系でのZ座標は、1000×(100.0/500)=200となる。
なお、ここでは、仮想右視点座標で表わされる仮想空間上の位置を仮想右視点位置と呼び、仮想左視点座標で表わされる仮想空間上の位置を仮想左視点位置と呼ぶ。また、以下では、仮想右視点位置と仮想左視点位置とを、左右の区別せずに表現する場合に、単に仮想視点位置と表現することがある。
再び図2に戻って、画像生成装置100の機能構成についての説明を続ける。
パラメータ保持部221は、座標変換部222に接続され、メモリ112の記憶領域の一部として実現され、座標変換部222によって、実空間における座標を算出するために利用される情報と、実空間における表示面310のサイズを示す情報とを記憶する機能を有する。
生成部230は、位置算出部220と出力部240とに接続され、オブジェクトデータ保持部231と3次元オブジェクト構築部232と光源設定部233と陰影処理部234と視点変換部235とラスタライズ部236とから構成され、視点位置から観察される3DCG画像を生成する、いわゆる、グラフィックスパイプライン処理を実現する機能を有する。
オブジェクトデータ保持部231は、3次元オブジェクト構築部232と光源設定部233と視点変換部235と座標変換部222とに接続され、ハードディスク装置140に内蔵されるハードディスクにおける記憶領域、及び、光ディスク装置150に装着される光ディスクにおける記憶領域として実現され、仮想空間に仮想的に存在する立体物であるオブジェクトについての位置と形状とに係る情報と、仮想空間に仮想的に存在する光源についての位置と光源特性に係る情報と、スクリーン領域の位置と形状とに係る情報とを記憶する機能を有する。
3次元オブジェクト構築部232は、オブジェクトデータ保持部231と陰影処理部234とに接続され、プログラムを実行するプロセッサ111によって実現され、オブジェクトデータ保持部231から、仮想空間に仮想的に存在するオブジェクトについての位置と形状とに係る情報を読み出して、それらオブジェクトを仮想空間に展開する機能を有する。ここで、このオブジェクトの仮想空間への展開は、例えば、対象となるオブジェクトについて、そのオブジェクトの形状を示す情報に対して、回転、移動、拡大、縮小といった処理等を行うことで実現される。
光源設定部233は、オブジェクトデータ保持部231と陰影処理部234とに接続され、プログラムを実行するプロセッサ111によって実現され、オブジェクトデータ保持部231から、仮想空間に仮想的に存在する光源についての位置と光源特性とに係る情報を読み出して、その光源を仮想空間に設定する機能を有する。
陰影処理部234は、3次元オブジェクト構築部232と光源設定部233と視点変換部235とに接続され、プログラムを実行するプロセッサ111によって実現され、3次元オブジェクト構築部232によって展開されたオブジェクトのそれぞれに対して、光源設定部233によって設定された光源による陰影をつける陰影処理を行う機能を有する。
図5(a)、(b)は、陰影処理部234が行う陰影処理を説明するための模式図である。
図5(a)は、球形のオブジェクトA502の上部に光源A501が設定される場合の例を示す模式図である。この場合には、オブジェクトA502において上部は反射が大きく、下部は反射が少なくなるように陰影をつける。そして、オブジェクトA502によって生成される、オブジェクトX503上への影領域を計算して、その計算した影領域に影をつける。
図5(b)は、球形のオブジェクトB512の左上部に光源B511が設定される場合の例を示す模式図である。この場合には、オブジェクトB512において左上部は反射が大きく、右下部は反射が少なくなるように陰影をつける。そして、オブジェクトB512によって生成される、オブジェクトY513上への影領域を計算して、その計算した影領域に影をつける。
視点変換部235は、座標変換部222とオブジェクトデータ保持部231と陰影処理部234とに接続され、プログラムを実行するプロセッサ111によって実現され、透視射影変換法を利用して、陰影処理部234によって陰影処理がなされたオブジェクトについての、座標変換部222によって算出された仮想右目視点位置から見た、スクリーン領域への射影画像(以下、「右目原画像」と呼ぶ。)と、座標変換部222によって算出された仮想左目視点位置から見た、スクリーン領域への射影画像(以下、「左目原画像」と呼ぶ。)とを生成する機能を有する。ここで、この透視射影変換法を利用する画像の生成は、視点位置と前クリッピング領域と後ろクリッピング領域とスクリーン領域とが指定されることで行われる。
図6は、視点変換部235が利用する透視射影変換法を利用する画像の生成を説明するための模式図である。
同図において、視錐台領域610は、指定される前クリッピング領域602の端点と指定される後クリッピング領域の端点とをそれぞれ結ぶ線分(図6中の太線)に囲まれた領域である。
この透視射影変換法を利用する画像の生成は、指定された視点位置601から見る、視錐台領域610に含まれるオブジェクトについての、遠近法に従った2次元射影画像を、スクリーン領域604に生成するという画像生成方法である。この透視射影変換法によると、視点位置と、前クリッピング領域の端点のそれぞれと、後クリッピング領域の端点のそれぞれとを結ぶ直線上に、スクリーン領域の端点のそれぞれが配置されるようになるため、生成された画像を表示するディスプレイの表示面を観察する観察者にとって、あたかも、その表示面を経由してオブジェクトを覗きこんでいるような画像を生成することができる。
図7は、視点変換部235が生成する右目原画像と左目原画像との関係を示す模式図である。
同図に示されるように、観察者が立った姿勢でディスプレイ190の表示面310を観察する場合には、右目の位置と左目の位置とが、X軸(図3参照)方向において互いに異なる座標となるため、右目原画像と左目原画像との関係が、互いにX軸方向において視差が生じる画像の関係となる。また、観察者が横になった姿勢でディスプレイ190の表示面310を観察する場合には、右目の位置と左目の位置とが、Y軸方向において互いに異なる座標となるため、右目原画像と左目原画像との関係が、互いにY軸方向において視差が生じる画像の関係となる。このように、視点変換部235は、右目原画像と左目原画像とを、互いに、観察者の姿勢の向きに応じた方向において視差が生じるように生成する。
再び図2に戻って、画像生成装置100の機能構成についての説明を続ける。
ラスタライズ部236は、視点変換部235と左目フレームバッファ部241(後述)と右目フレームバッファ部242(後述)とに接続され、プログラムを実行するプロセッサ111によって実現され、以下の2つの機能を有する。
テクスチャ貼り付け機能:視点変換部235によって生成された右目原画像と左目原画像とに、テクスチャの貼り付けを行う機能。
ラスタライズ処理機能:テクスチャが貼り付けられた右目原画像と左目原画像とから、それぞれ、ラスタ形式の右目画像とラスタ形式の左目画像とを生成する機能。ここで生成するラスタ形式の画像は、例えば、ビットマップ形式の画像である。また、このラスタライズ処理において、生成される画像を構成する画素の画素値が決定される。
出力部240は、生成部230に接続され、右目フレームバッファ部242と左目フレームバッファ部241と選択部243とから構成され、生成部230によって生成された画像をディスプレイ190へ出力する機能を有する。
右目フレームバッファ部242は、ラスタライズ部236と選択部243とに接続され、プログラムを実行するプロセッサ111と右目フレームバッファ113とによって実現され、ラスタライズ部236によって右目画像が生成された場合に、生成された右目画像を、自部を構成する右目フレームバッファ113に記憶する機能を有する。
左目フレームバッファ部241は、ラスタライズ部236と選択部243とに接続され、プログラムを実行するプロセッサ111と左目フレームバッファ114とによって実現され、ラスタライズ部236によって左目画像が生成された場合に、生成された左目画像を、自部を構成する左目フレームバッファ114に記憶する機能を有する。
選択部243は、右目フレームバッファ部242と左目フレームバッファ部241とに接続され、プログラムを実行するプロセッサ111がセレクタ115を制御することで実現され、右目フレームバッファ部242に記憶される右目画像と左目フレームバッファ部241に記憶される左目画像とを、所定の周期(例えば、1/120秒周期)で交互に選択してディスプレイ190へ出力する機能を有する。なお、ディスプレイ190を観察する観察者は、この所定周期に同期して動作するアクディブシャッタメガネを着用することで、奥行き感のある立体画像を観察することができる。
以下、図面を参照しながら、上記構成の画像生成装置100が行う動作について説明する。
<動作>
ここでは、画像生成装置100が行う動作のうち、特徴的な動作である、画像生成処理について説明する。
<画像生成処理>
画像生成処理は、画像生成装置100が、ディスプレイ190の表示面310を観察する観察者の観察位置に応じた、その表示面310に表示する画像を生成する処理である。
この画像生成処理において、画像生成装置100は、ヘッドトラッキング部212が行う撮影のフレームレートに同期して、右目画像と左目画像との2つの画像の生成を繰り返す。
図8は、画像生成処理のフローチャートである。
画像生成処理は、画像生成装置を利用するユーザによって入力装置160が操作されて、画像生成装置100に、画像生成処理を開始する旨のコマンドが入力されることによって開始される。
画像生成処理が開始されると、ヘッドトラッキング部212は、ディスプレイ190の表示面310近傍に存在する被写体を撮影し、撮影した被写体に含まれる顔の領域の検出を試みる(ステップS800)。そして、顔の領域の検出に成功した場合に(ステップS810:Yes)、ヘッドトラッキング部212は、右目位置と左目位置とを特定し(ステップS820)、右目位置の右目座標と左目位置の左目座標とを算出する。
右目座標と左目座標とが算出されると、座標変換部222は、算出された右目座標と左目座標とから、それぞれ、右視点座標と左視点座標とを算出する(ステップS830)。
ステップS810の処理において、顔の領域の検出に失敗した場合に(ステップS810:No)、座標変換部222は、右視点座標と左視点座標とのそれぞれに、予め設定された所定値のそれぞれを代入する(ステップS840)。
ステップS830の処理が終了した場合、又は、ステップS840の処理が終了した場合に、座標変換部222は、右視点座標と左視点座標とを、それぞれ、仮想右視点座標と仮想左視点座標とに変換する(ステップS850)。
右視点座標と左視点座標とが、それぞれ、仮想右視点座標と仮想左視点座標とに変換されると、視点変換部235は、その仮想右視点座標から見た右目原画像と、その仮想左視点座標から見た左目原画像とを生成する(ステップS860)。
右目原画像と左目原画像とが生成されると、ラスタライズ部236は、それら右目原画像と左目原画像とのそれぞれに対して、テクスチャの貼り付け処理とラスタライズ処理とを行い、右目画像と左目画像とのそれぞれを生成する。そして、生成された右目画像が右目フレームバッファ部242に記憶され、生成された左目画像が左目フレームバッファ部241に記憶される(ステップS870)。
右目画像と左目画像とが記憶されると、画像生成装置100は、ヘッドトラッキング部212が次に被写体を撮影するまでの所定時間待機した後、再びステップS800以下の処理を繰り返す(ステップS880)。
<考察>
以下、上記構成を備える画像生成装置100が生成する画像が、その画像を観察する観察者によってどのように観察されることになるのかについて考察する。
図9は、画像生成装置100が生成する画像を説明するための模式図であって、仮想空間における、オブジェクトとスクリーン領域と仮想視点位置との位置関係を示す。
同図において、スクリーン領域604はZ軸に垂直となっており、同図は、仮想空間内のY軸(図3参照)における正の方向から、スクリーン領域604を見下ろした図となっている。
仮想観察位置K940は、図4における位置K440に対応する仮想空間上の位置である。すなわち、ヘッドトラッキング部212によって特定された観察位置に対応する、仮想空間上の位置である。
仮想視点位置J950は、図4における位置J450に対応する仮想空間上の位置である。すなわち、座標変換部222によって算出された仮想視点位置である。
仮想基準平面920は、図4における基準平面420に対応する仮想空間上の平面である。
仮想基準位置930は、図4における基準位置430に対応する仮想空間上の位置である。
図10(a)は、透視射影変換法におけるスクリーン領域をスクリーン領域604とする場合における、仮想観察位置K940を視点位置とした、オブジェクト900を含む画像であって、図10(b)は、透視射影変換法におけるスクリーン領域をスクリーン領域604とする場合における、仮想視点位置J950を視点位置とした、オブジェクト900を含む画像である。
図9に示されるように、仮想視点位置J950についての、仮想基準位置930からの変位量は、仮想観察位置K940についての、仮想基準位置930からの変位量に対してr倍されたものとなっている。このことにより、図10(a)、(b)に示されるように、仮想視点位置J950からオブジェクト900を見る場合には、仮想観察位置K940からオブジェクト900を見る場合に比べて、よりオブジェクト900の側面側から見ることとなる。
このように、図4中の位置K440の位置からディスプレイ190を観察する観察者は、あたかも、基準位置430からの変位量がr倍された、位置J450からディスプレイ190を観察しているかのような角度からの画像を観察することとなる。
なお、図9に示されるように、仮想視点位置J950におけるスクリーン領域604の視角は、仮想観察位置K940におけるスクリーン領域604の視角よりも小さくなっている。
<変形例1>
以下、本発明の態様に係る画像生成装置の一実施形態として、実施の形態1に係る画像生成装置100の一部を変形した画像生成装置1100について説明する。
<概要>
画像生成装置1100は、そのハードウエア構成が実施の形態1に係る画像生成装置100と同一のものであるが、実行されるプログラムの一部が実施の形態1に係る画像生成装置100と異なっている。
実施の形態1に係る画像生成装置100は、ディスプレイ190の表示面310を観察する観察者の観察位置を検出した場合に、基準位置からの、観察位置への変位量をr倍した視点位置から見た画像を生成する構成の例である。そして、この場合には、観察位置における表示面310の視角に対して、視点位置における表示面310の視角が小さくなっている。
これに対して、変形例1に係る画像生成装置1100は、実施の形態1に係る画像生成装置100と同様に、観察者の観察位置を検出した場合に、基準位置からの、観察位置への変位量をr倍した視点位置から見た画像を生成する構成の例ではあるが、生成する画像を、観察位置における表示面310の視角と等しくなる視角の画像にした構成の例となっている。
以下、本変形例1に係る画像生成装置1100の構成について、図面を参照しながら、実施の形態1に係る画像生成装置100との相違点を中心に説明する。
<構成>
<ハードウエア構成>
画像生成装置1100のハードウエア構成は、実施の形態1に係る画像生成装置100の構成と同一のものである。よって、説明を省略する。
<機能構成>
図11は、画像生成装置1100を構成する主要な機能ブロックを示す機能ブロック図である。
同図に示されるように、画像生成装置1100は、実施の形態1に係る画像生成装置100から、座標変換部222が座標変換部1122に変形され、視点変換部235が視点変換部1135に変形されたものとなっている。そしてこれらの変形に伴って、位置算出部220が位置算出部1120に変形され、生成部230が生成部1130に変形されている。
座標変換部1122は、実施の形態1に係る座標変換部222から、その機能の一部が変形されたものであって、ヘッドトラッキング部212とパラメータ保持部221と視点変換部1135とオブジェクトデータ保持部231とに接続され、プログラムを実行するプロセッサ111によって実現され、実施の形態1に係る座標変換部222の有する、基準位置算定機能、視点位置算出機能、座標変換機能に加えて、さらに、以下の追加座標変換機能を有する。
追加座標変換機能:ヘッドトラッキング部212によって算出された右目座標と左目座標とを、それぞれ、仮想座標系における仮想右観察座標と仮想左観察座標とに変換する機能。
視点変換部1135は、実施の形態1に係る視点変換部235から、その機能の一部が変形されたものであって、座標変換部1122とオブジェクトデータ保持部231と陰影処理部234とラスタライズ部236とに接続され、プログラムを実行するプロセッサ111によって実現され、以下の4つの機能を有する。
視角算出機能:視点変換部1135によって算出された仮想右観察座標で示される仮想右観察位置から見た、スクリーン領域の視角(以下、「右観察位置視角」と呼ぶ。)と、視点変換部1135によって算出された仮想左観察座標で示される仮想左観察位置から見た、スクリーン領域の視角(以下、「左観察位置視角」と呼ぶ。)とを算出する機能。なお、以下では、左観察位置視角と右観察位置視角とを、左右の区別せずに表現する場合に、単に観察位置視角と表現することがある。
拡大スクリーン領域算出機能:スクリーン領域を含む平面における、仮想右目視点位置から見た、右観察位置視角を有する領域を右拡大スクリーン領域として算出し、スクリーン領域を含む平面における、仮想左目視点位置から見た、左観察位置視角を有する領域を左拡大スクリーン領域として算出する機能。ここで、視点変換部1135は、算出する右拡大スクリーン領域を、右拡大スクリーン領域の中央とスクリーン領域の中央とが一致するように算出し、算出する左拡大スクリーン領域を、左拡大スクリーン領域の中央とスクリーン領域の中央とが一致するように算出する。
図12は、仮想空間における、オブジェクトとスクリーン領域と拡大スクリーン領域と仮想観察位置と仮想視点位置との関係を示す模式図である。
同図において、視角K1260は、仮想観察位置K940から見た、スクリーン領域604の視角である。
視角J1270は、視角K1260と等しい角度となる角である。
拡大スクリーン領域1210は、スクリーン領域604を含む平面における、仮想視点位置J950から見た、視角J1270を有する領域である。そして、拡大スクリーン領域1210の中央は、スクリーン領域中央910と一致する位置となっている。
引き続いて、視点変換部1135が有する機能の説明を続ける。
拡大原画像生成機能:透視射影変換法を利用して、陰影処理部234によって陰影処理がなされたオブジェクトについての、座標変換部1122によって算出された仮想右目視点位置から見た、拡大スクリーン領域への射影画像(以下、「右目拡大原画像」と呼ぶ。)と、座標変換部222によって算出された仮想左目視点位置から見た、拡大スクリーン領域への射影画像(以下、「左目拡大原画像」と呼ぶ。)とを生成する機能。なお、以下では、右目拡大原画像と右目拡大原画像とを、左右の区別せずに表現する場合に、単に拡大原画像と表現することがある。
画像縮小機能:右目拡大原画像のサイズがスクリーン領域のサイズと等しくなるように、右目拡大原画像を縮小補正して右目原画像を生成し、左目拡大原画像のサイズがスクリーン領域のサイズと等しくなるように、左目拡大原画像を縮小補正して左目原画像を生成する機能。
以下、図面を参照しながら、上記構成の画像生成装置1100が行う動作について説明する。
<動作>
ここでは、画像生成装置1100が行う動作のうち、特徴的な動作である、第1変形画像生成処理について説明する。
<第1変形画像生成処理>
第1変形画像生成処理は、画像生成装置1100が、ディスプレイ190の表示面310を観察する観察者の観察位置に応じた、その表示面310に表示する画像を生成する処理であって、実施の形態1における画像生成処理(図8参照)からその処理の一部が変形されたものである。
図13は、第1変形画像生成処理のフローチャートである。
同図に示されるように、第1変形画像生成処理は、実施の形態1における画像生成処理(図8参照)に対して、ステップS850の処理とステップS860の処理との間に、ステップS1354の処理とステップS1358の処理とが追加され、ステップS860の処理とステップS870の処理との間にステップS1365の処理が追加され、さらに、ステップS840の処理がステップS1340の処理に変形され、ステップS860の処理がステップS1360の処理に変形された処理である。
従って、ここでは、ステップS1340の処理とステップS1354の処理とステップS1358の処理とステップS1360の処理とステップS1365の処理とについて説明する。
ステップS810の処理において、顔の領域の検出に失敗した場合に(ステップS810:No)、座標変換部222は、右目座標と左目座標と右視点座標と左視点座標とのそれぞれに、予め設定された所定値のそれぞれを代入する(ステップS1340)。
ステップS850の処理において、右視点座標と左視点座標とが、それぞれ、仮想右視点座標と仮想左視点座標とに変換されると、座標変換部1122は、右目座標と左目座標とを、それぞれ、仮想座標系における仮想右観察座標と仮想左観察座標とに変換する(ステップS1354)。
右目座標と左目座標とが、それぞれ、仮想座標系における仮想右観察座標と仮想左観察座標とに変換されると、視点変換部1135は、視点変換部1135によって算出された仮想右観察座標で示される仮想右観察位置から見た、スクリーン領域の視角である右観察位置視角と、視点変換部1135によって算出された仮想左観察座標で示される仮想左観察位置から見た、スクリーン領域の視角である左観察位置視角とを算出する(ステップS1358)。
右観察位置視角と左観察位置視角とが算出されると、視点変換部1135は、右観察位置視角を有する右拡大原画像と、左観察位置視角を有する左拡大原画像とを生成する(ステップS1360)。
右拡大原画像と左拡大原画像とが生成されると、生成された右拡大原画像と左拡大原画像とから、それぞれ、右目原画像と左目原画像とを生成する(ステップS1365)。
<考察>
以下、上記構成を備える画像生成装置1100が生成する画像が、その画像を観察する観察者によってどのように観察されることになるかについて考察する。
図14(a)は、透視射影変換法におけるスクリーン領域をスクリーン領域604(図12参照)とする場合における、仮想観察位置K940を視点位置とした、オブジェクト900を含む画像であって、図14(b)は、透視射影変換法におけるスクリーン領域をスクリーン領域604とする場合における、仮想視点位置J950を視点位置とした、オブジェクト900を含む画像を縮小補正することで得られる画像(以下、「縮小補正画像」と呼ぶ。)、すなわち原画像である。
図12に示されるように、仮想視点位置J950についての、仮想基準位置930からの変位量は、仮想観察位置K940についての、仮想基準位置930からの変位量に対してr倍されたものとなっている。このことにより、図14(a)、(b)に示されるように、仮想視点位置J950からオブジェクト900を見る場合には、仮想観察位置K940からオブジェクト900を見る場合に比べて、よりオブジェクト900の側面側から見ることとなる。さらに、ディスプレイ190の表示面310に表示されることとなる画像は、仮想視点位置J950から見た、スクリーン領域604の視角を有する領域についての画像となっている。このため、変形例1において、図4中の位置K440の位置からディスプレイ190を観察する観察者の観察する画像(図14(b)参照)は、実施の形態1において、図4中の位置K440の位置からディスプレイ190を観察する観察者の観察する画像(図10(b)参照)に比べて、より違和感の少ない画像となる。
<変形例2>
以下、本発明の態様における画像生成装置の一実施形態として、変形例1に係る画像生成装置1100の一部をさらに変形した画像生成装置1500について説明する。
<概要>
画像生成装置1500は、そのハードウエア構成が変形例1に係る画像生成装置1100と同一のものであるが、実行されるプログラムの一部が変形例1に係る画像生成装置1100と異なっている。
変形例1に係る画像生成装置1100は、拡大スクリーン領域の中央とスクリーン領域の中央とが一致するように拡大スクリーン領域の算出を行う構成の例である。これに対して、変形例2に係る画像生成装置1500は、拡大スクリーン領域における変位方向側の辺とスクリーン領域の変位方向側の辺とが互いに一致するように拡大スクリーン領域の算出行う構成の例となっている。
以下、本変形例2に係る画像生成装置1500の構成について、図面を参照しながら、変形例1に係る画像生成装置1100との相違点を中心に説明する。
<構成>
<ハードウエア構成>
画像生成装置1500のハードウエア構成は、変形例1に係る画像生成装置1100の構成と同一のものである。よって、説明を省略する。
<機能構成>
図15は、画像生成装置1500を構成する主要な機能ブロックを示す機能ブロック図である。
同図に示されるように、画像生成装置1500は、変形例1に係る画像生成装置1100から、視点変換部1135が視点変換部1535に変形されたものとなっている。そして、この変形に伴って、生成部1130が生成部1530に変形されている。
視点変換部1535は、変形例1に係る視点変換部1135から、その機能の一部が変形されたものであって、座標変換部1122とオブジェクトデータ保持部231と陰影処理部234とラスタライズ部236とに接続され、プログラムを実行するプロセッサ111によって実現され、変形例1に係る視点変換部1135が有する、視角算出機能、拡大原画像生成機能、画像縮小機能に加えて、変形拡大スクリーン領域算出機能を有する。
変形拡大スクリーン領域算出機能:スクリーン領域を含む平面における、仮想右目視点位置から見た、右観察位置視角を有する領域を右拡大スクリーン領域として算出し、スクリーン領域を含む平面における、仮想左目視点位置から見た、左観察位置視角を有する領域を左拡大スクリーン領域として算出する機能。ここで、視点変換部1535は、算出する右拡大スクリーン領域を、右拡大スクリーン領域における変位方向側の辺とスクリーン領域の変位方向側の辺とが一致するように算出し、算出する左拡大スクリーン領域を、左拡大スクリーン領域における変位方向側の辺とスクリーン領域の変位方向側の辺とが一致するように算出する。
図16は、仮想空間における、オブジェクトとスクリーン領域と拡大スクリーン領域と仮想観察位置と仮想視点位置との関係を示す模式図である。
同図において、視角J1670は、視角K1260と等しい角度となる角である。
拡大スクリーン領域1610は、スクリーン領域604を含む平面における、仮想視点位置J950から見た、視角J1670を有する領域である。そして、拡大スクリーン領域における変位方向側の辺とスクリーン領域の変位方向側の辺とが一致している。
<考察>
以下、上記構成を備える画像生成装置1500が生成する画像が、その画像を観察する観察者によってどのように観察されることになるかについて考察する。
図17(a)は、透視射影変換法におけるスクリーン領域をスクリーン領域604(図12参照)とする場合における、仮想観察位置K940を視点位置とした、オブジェクト900を含む画像であって、図17(b)は、透視射影変換法におけるスクリーン領域をスクリーン領域604とする場合における、仮想視点位置J950を視点位置とした、オブジェクト900を含む画像を縮小補正することで得られる縮小補正画像、すなわち原画像である。
図17(b)に示されるように、変形例2において図4中の位置K440の位置からディスプレイ190を観察する観察者の画像は、変形例1において図4中の位置K440の位置からディスプレイ190を観察する観察者の画像(図14(b)参照)に比べて、オブジェクト900の位置が左側(変位方向側)にシフトされたものとなる。
<変形例3>
以下、本発明の態様に係る画像生成装置の一実施形態として、実施の形態1に係る画像生成装置100の一部を変形した画像生成装置1800について説明する。
<概要>
画像生成装置1800は、そのハードウエア構成が実施の形態1に係る画像生成装置100と同一のものであるが、実行されるプログラムの一部が実施の形態1に係る画像生成装置100と異なっている。
実施の形態1に係る画像生成装置100は、視点位置の算出を、ディスプレイ190の表示面310に平行な平面である基準平面上において算出する構成の例である。これに対して、変形例3に係る画像生成装置1800は、視点位置の算出を、ディスプレイ190の表示面310についての視角が一定となる曲面である基準曲面上において算出する構成の例となっている。
以下、本変形例3に係る画像生成装置1800の構成について、図面を参照しながら、実施の形態1に係る画像生成装置100との相違点を中心に説明する。
<構成>
<ハードウエア構成>
画像生成装置1800のハードウエア構成は、変形例1に係る画像生成装置1100の構成と同一のものである。よって、説明を省略する。
<機能構成>
図18は、画像生成装置1800を構成する主要な機能ブロックを示す機能ブロック図である。
同図に示されるように、画像生成装置1800は、実施の形態1に係る画像生成装置100から、座標変換部222が座標変換部1822に変形されたものとなっている。そしてこの変形に伴って、位置算出部220が位置算出部1820に変形されている。
座標変換部1822は、実施の形態1に係る座標変換部222から、その機能の一部が変形されたものであって、ヘッドトラッキング部212とパラメータ保持部221と視点変換部235とオブジェクトデータ保持部231とに接続され、プログラムを実行するプロセッサ111によって実現され、実施の形態1に係る座標変換部222の有する座標変換機能に加えて、以下の変形基準位置算定機能と変形視点位置算出機能とを有する。
変形基準位置算定機能:ヘッドトラッキング部212によって特定された、右目の位置と左目の位置とのそれぞれについて、目の位置における、ディスプレイ190の表示面310についての視角を算出し、表示面310についての視角が、算出した視角に等しくなる位置の集合からなる基準曲面を算出し、算出した基準曲面における、表示面310中央に対向する位置を基準位置として算定する機能。ここで、基準曲面における表示面中央に対向する位置とは、表示面中央を通る表示面の垂線と、基準曲面との交点の位置である。
図19は、Y軸(図3参照)における正の方向から、ディスプレイ190を見下ろした場合における、ディスプレイ190の表示面310と基準位置430との関係を模式的に示す模式図である。ここでは、表示面がZ軸に垂直になっている。
同図において、位置K440は、ヘッドトラッキング部212によって特定された観察位置を示している(図4参照)。位置J1950については後述する。
視角K1960は、位置K440から見た、表示面310の視角である。
基準曲面1920は、表示面310についての視角が、視角K1960に等しくなる位置の集合からなる曲面である。
基準位置1930は、基準曲面1920上の点のうち、表示面中央410を通る表示面310の垂線と、基準曲面1920との交点の位置である。
引き続き、座標変換部1822が有する機能の説明を続ける。
変形視点位置算出機能:ヘッドトラッキング部212によって特定された右目の位置と左目の位置とのそれぞれについて、それぞれの基準曲面における、それぞれの基準位置からの変位量をr倍した右目視点位置と左目視点位置とをそれぞれ算出する機能。ここで、基準曲面における、変位量をr倍した視点位置を算出するとは、基準位置を始点として目の位置を終点とする基準曲面上のベクトルに対して、ベクトルの向きを維持したまま、ベクトルの大きさをr倍して得られるベクトルの終点の位置を視点位置として算出することである。ここで、算出する視点位置が、ディスプレイ190の表示面310の背後に回り込んでしまわないように、算出する視点位置を、表示面310の表面側に制限するとしてもよい。なお、以下では、右目視点位置と左目視点位置とを、左右の区別せずに表現する場合に、単に視点位置と表現することがある。
図19において、位置J1950は、ヘッドトラッキング部212によって特定された目の位置が位置K440である場合において、座標変換部1822が算出する視点位置を示している。
<考察>
以下、上記構成を備える画像生成装置1800が生成する画像が、その画像を観察する観察者によってどのように観察されることになるのかについて考察する。
図20は、画像生成装置1800が生成する画像を説明するための模式図であって、仮想空間における、オブジェクトとスクリーン領域と仮想視点位置との位置関係を示す。
同図において、スクリーン領域604はZ軸に垂直となっており、同図は、仮想空間内のY軸(図3参照)における正の方向から、スクリーン領域604を見下ろした図となっている。
仮想観察位置K2040は、図19における位置K440に対応する仮想空間上の位置である。すなわち、ヘッドトラッキング部212によって特定された観察位置に対応する、仮想空間上の位置である。
仮想視点位置J2050は、図19における位置J1950に対応する仮想空間上の位置である。すなわち、座標変換部1822によって算出された仮想視点位置である。
仮想基準曲面2020は、図19における基準曲面1920に対応する仮想空間上の曲面である。
仮想基準位置2030は、図19における基準位置1930に対応する仮想空間上の位置である。
図21(a)は、透視射影変換法におけるスクリーン領域をスクリーン領域604とする場合における、仮想観察位置K2040を視点位置とした、オブジェクト900を含む画像であって、図21(b)は、透視射影変換法におけるスクリーン領域をスクリーン領域604とする場合における、仮想視点位置J2050を視点位置とした、オブジェクト900を含む画像である。
図20に示されるように、仮想視点位置J2050についての、仮想基準位置2030からの変位量は、仮想観察位置K2040についての、仮想基準位置2030からの変位量に対してr倍されたものとなっている。このことにより、図21(a)、(b)に示されるように、仮想視点位置J2050からオブジェクト900を見る場合には、仮想観察位置K2040からオブジェクト900を見る場合に比べて、よりオブジェクト900の側面側から見ることとなる。
このように、図19中の位置K440の位置からディスプレイ190を観察する観察者は、あたかも、基準位置1930からの変位量がr倍された、位置J1950からディスプレイ190を観察しているかのような角度からの画像を観察することとなる。さらに、ディスプレイ190の表示面310に表示されることとなる画像は、仮想観察位置K2040から見たスクリーン領域604の視角と、仮想視点位置J2050から見たスクリーン領域604の視角とが互いに等しくなっている。このため、変形例3において、図4(又は図19)中の位置K440の位置からディスプレイ190を観察する観察者の観察する画像(図21(b)参照)は、実施の形態1において、図4中の位置K440の位置からディスプレイ190を観察する観察者の観察する画像(図10(b)参照)に比べて、より違和感の少ない画像となる。
<他の変形例>
ヘッドトラッキング部212は、測距装置131の精度によっては、フレーム毎に観察位置に少量の誤差が発生することがある。この場合には、ローパスフィルタを使って、複数の前の観察位置から測定誤差をなまらすように構成してもよい。
カメラ130の設置方法として、ディスプレイ190の上部にカメラ130を配置する方法が考えられるが、この場合、図22上段に示すように、ディスプレイ190との至近距離の領域等が、測距装置131や撮像装置132の画角に入らず、死角となり、センシングできないという課題がある。そこでディスプレイ190と至近距離にある観察者をセンシングするために、カメラ130を、図22下段に示すように、観察者の後方に配置して取得するようにしてもよい。この場合には、取得したX値、Y値は反転させ、Z値は、ディスプレイ190とカメラ130との距離を計測しておき、ディスプレイ190とカメラ130との距離からZ値を引いて値を求める。ディスプレイ190とカメラ130との距離関係を取得するために、ディスプレイ190側に目印となるマーカ画像を用意しておくと、ヘッドトラッキング部212は、そのマーカとパターンマッチングすることで、ディスプレイ190との距離を容易に計測することができる。このようにすることで、ディスプレイ190と至近距離の観察者をセンシングできる。
なお、ディスプレイ190と至近距離にある観察者をセンシングするために、カメラ130を、図23に示すように、ディスプレイ190上部に配置し、至近距離の観察者がセンシングできるように、斜めに傾けて配置するようにしてもよい。この場合には、カメラ130とディスプレイ190の傾き角αの情報を使って、座標を補正する。傾き角αを取得するために、カメラ130にジャイロセンサを搭載してもよい。このようにすることで、ディスプレイ190と至近距離の観察者をセンシングできる。
なお、ディスプレイ190と至近距離にある観察者をセンシングするために、カメラ130を、ディスプレイ190上部に配置し、観察者を追尾するように、回転するような構成にしてもよい。顔を認識される観察者が、カメラ130の画像に入るように、カメラ130を回転させるようにして構成する。
なお、カメラ130を、後からディスプレイ190に取り付けるような方式の場合には、カメラ130とディスプレイ190の位置関係が把握できないため、観察者位置を正しくトラッキングできないという課題がある。図24上段の例では、観察者はX,Y軸で中心位置にいるが、後から取り付けられたカメラ130は、ディスプレイ190との位置関係が把握できないため、カメラ130とディスプレイ190の中心との差分を補正できず、図24上段の例では、観察者位置をX=−200mm、Y=−300mmと誤検出してしまう。そこで、図24下段左の例のように、ユーザの頭の中心が、ディスプレイ190の中心にあうように、立つように促して、その位置を基準に、カメラ130とディスプレイ190の位置関係を把握するようにしてもよい。例えば、図24上段の例では、観察者がディスプレイ190の中心に頭が来るように立つと、カメラ130は、ユーザ頭部をX=−200mm、Y=−300mmと取得するが、以降のヘッドトラキングでは、この地点を中心(X=0mm、Y=0mm)となるように補正して処理する。
なお、図25上段のように、ディスプレイ190上に奥行きのある仮想ボックスを用意して、観察者に各かど(左上、右上、右下、左下)の地点に立ってもらい、その地点において、スクリーン平面のかどと仮想ボックスのかどをつなぐ直線が、観察者の視線上に存在するように、ボックスの座標をGUIなどで調整するようにしてキャリブレーションしてもよい。このようにすると観察者は直感的にキャリブレーションできると共に、複数の地点情報を使ってより精度の高いキャリブレーションができる。
なお、キャリブレーション方法として、図25下段左に示すように、画像生成装置100が物理サイズのわかっているものをセンシングさせて行うようにしてもよい。例えば、画像生成装置100にディスプレイ190を操作するリモコンの形状情報を持たせておいて、図25下段左のようにリモコンをかざすことで、座標の補正を行うようにしてもよい。画像生成装置100はリモコンの形状を知っているので、容易に認識をすることができ、また大きさを知っているので、カメラ130上のサイズと実サイズの関係からリモコン位置の奥行きを計算することが可能となる。リモコンだけでなく、ペットボトルやスマートフォンなどさまざまな身近のあるものを使ってもよい。
なお、図25下段右に示すように、ディスプレイ190に中心からの距離がわかるようにグリッドを表示して、観察者に中心からカメラ130までの距離を入力させるような構成にしてもよい。このようにすることで、カメラ130とディスプレイ190との位置関係を把握できるため補正が可能となる。
なお、ディスプレイ190の大きさの情報は、HDMI(High-Definition Multimedia Interface)の情報から設定してもよいし、ユーザがGUI等を通じて設定できるようにしてもよい。
なお、複数人がディスプレイ190の前にいる場合に、どの人物の頭部検出を行うかの選択は、「手を上げる」などの決められたジェスチャで決定できるようにすると、簡易に人物を選択できる。その場合には、ヘッドトラッキング部212に、「手を上げる」のジェスチャをパターンマッチングなどで認識する機能を持たせておいて、そのジェスチャを認識するようにして、そのジェスチャを実行した人物の顔を覚えておき、ヘッドトラッキングするように構成する。なお、複数人がテレビの前にいる場合の選択を、ジェスチャではなく、複数の人物を撮影した映像を画面上に移して、GUI等でトラッキングを行う人物を選択できるようにしてもよい。
なお、光源位置の設定は図26に示すように、実世界の光源(例えば、照明)の位置とあわせるように構成すると、臨場感が増す。図26上段では、実世界の照明の位置は観察者の上辺りに位置するのに対して、CG上の光源位置は、3次元モデルよりも後方(観察者の位置とは反対方向)に位置するため、陰影や影はユーザにとって違和感のあるものとなる。一方、図26下段のように、実世界の照明位置とCG空間の照明位置が一致すると、陰影や影に違和感がなくなり、臨場感が増すことになる。よって、実世界の照明の位置情報や強度を取得することが求められる。実世界の照明の位置情報及び強度を取得するためには、図27に示すように、照度センサを利用する構成にしてもよい。照度センサは光の量を測定するセンサであり、人間が暗いと感じる所で光源を点灯したり,逆に明るいと感じるならば消灯したりする用途に利用される。複数の照度センサを図27のように配置すれば、各照度センサの大きさから、光の方向を特定することが可能となる。例えば、図27のA、Bの光量が大きく、C、Dの光量が小さければ、右上から光が来ていることがわかる。なお、このようにセンサを使って光源位置を特定するためには、ディスプレイ190のパネルの明るさを落として、光の干渉を抑えるようにしてもよい。なお、実世界の照明の位置情報を知るためには、ユーザがGUI等で、設定できるようにしてもよい。その場合には、例えば、画像生成装置100は、観察者に照明の直下に移動してもらうように指示し、また、観察者の頭部から照明までの距離を入力してもらうように指示する。このようにすると、画像生成装置100は、観察者の頭部位置をヘッドトラッキング部212で取得して位置情報を特定して、その位置情報のY値に、実世界の照明と頭部までの距離を加算することで、照明の位置情報を特定することが可能である。なお、実世界の照明の位置を特定するために、カメラ130で撮影した映像の輝度情報から特定してもよい。
なお、右目の位置と左目の位置との特定を、サンプル画像を利用するマッチング処理を行うことで特定するとしたが、検出された顔の領域から顔の中心位置を算出して、その顔の中心位置から各目の位置を算出するとしてもよい。例えば、顔の中心位置の座標が(X1、Y1、Z1)であれば、左目の位置の座標が(X1−3cm、Y1、Z1)、右目の位置の座標が(X1+3cm、Y1、Z1)とする。さらには、仮想右視点位置と仮想左視点位置との算出を、顔の中心位置に対応する仮想視点位置を算出した後に、その仮想視点位置から、仮想右視点位置と仮想左視点位置とを算出するとしてもよい。例えば、顔の中心位置に対応する仮想視点位置が(X1、Y1、Z1)であれば、仮想左視点位置の座標が{X1−(3cm*RealToCG係数)、Y1、Z1}、仮想右視点位置の座標が{X1+(3cm*RealToCG係数)、Y1、Z1}とする。
なお、オブジェクトの快適な表示のために、視錘台の空間において、スクリーン領域より観察者側にある空間においては、オブジェクトの座標が含まれるように構成してもよい。図28の左図は、観察者とオブジェクトの、CG上の座標の関係を、示す図である。この場合には、オブジェクト1とオブジェクト2は、すべて視錘台の範囲に含まれるが、視点移動を行った右図においては、オブジェクト1とオブジェクト2が視錘台を出てしまう。ここで、オブジェクト1においては、スクリーン領域では見えない領域に入ったため違和感がないが、オブジェクト2においては、本来見えるべき箇所が欠けるため、違和感が大きい。そこで、CGモデルの座標の奥行き位置が、スクリーン領域のCG上奥行き座標より観察者側にある場合に、視錘台の空間のスクリーン領域より観察者側にある空間(領域A)をはみ出さないように制限するようにする。このようにすることで、観察者は手前にあるオブジェクトにおいても違和感のない画像を視聴することができる。オブジェクトが領域Aをはみ出さないためには、オブジェクトを覆うキューブを仮想的にモデル化して、そのキューブと領域Aとの包含関係を計算する。領域Aをはみ出る場合には、領域Aをはみ出さないように、横や後(ユーザとは反対側)に移動する。また、その場合にオブジェクトのスケールを小さくしてもよい。なお、常にオブジェクトを領域B(視錘台の空間において、スクリーン領域より奥側(観察者位置とは反対側))に配置してもよい。なお、図29右のように観音開きのように側面にスクリーンを設けることで、観察者の視野角が増えるため、図29左のように手前にあるオブジェクトの視聴可能領域が増える。この場合には、視点変換部235は、中心のディスプレイ用の変換だけでなく、観察位置から側面ディスプレイに対する透視斜影変換を行い、側面ディスプレイに映像を表示するように構成する。なお、図30に示すように、楕円の形のディスプレイであれば、複数の矩形領域に区切って、それぞれに対して、透視斜影変換を行い、画像を表示すればよい。
また、アクティブシャッタ方式や偏光方式のメガネを使う3Dテレビであれば、メガネの形状をパターンマッチングで特定することで、右目の位置と左目の位置との特定を行ってもよい。
なお、3D映像を生成する手段として、図31に示す1プレーン+オフセット方式がある。1プレーン+オフセット方式は、Blu−ray(登録商標) 3Dなどの3D映像フォーマットにおいて、字幕やメニューといった簡易な3Dグラフィックス表示に利用される。1プレーン+オフセット方式は、2Dのグラフィックスが描画されたプレーンに対して、指定されたオフセット分だけ、プレーンを左右にシフトして、左目用イメージと右目用イメージを生成する。そのイメージを、映像などのプレーンに合成することで、図31に示すように左目と右目用に視差画像を作り出すことができるため、平面のイメージに対して深度をつけることが可能となる。観察者にとっては平面イメージがディスプレイから浮かび上がったような表現が可能である。画像生成装置100の生成部230は、3次元コンピュータグラフィックスの描画を使って説明したが、1プレーン+オフセット方式によって3D映像を生成する場合には、右目の位置と左目の位置との傾きを求めて、プレーンシフトするような構成にしてもよい。つまり、図32上段に示すように、観察者が横になる姿勢で、左目が下側に来る場合には、上下にオフセットをかけて、左右の映像を生成する。これはつまり図32下段に示すように、観察者の目の位置の角度に応じて、大きさが1のベクトル値で、オフセットをかけるように構成する。このようにすることで、自由視点映像において、観察者の目の位置に応じて最適な形で1プレーン+オフセットの3D映像を生成できる。
なお、より臨場感を増すためには、描画されるオブジェクトは、実物大で表示されることが求められる。例えば、人物のモデルをスクリーン上に表示するためには、実際の人のサイズで表示することが求められる。図33を参照して、その方法を説明する。図33のように、オブジェクトには、座標データの他に、「実物大スケーリング係数」情報が含まれている。この情報は、オブジェクトの座標データを、実世界のサイズに変換するための情報である。ここでは、実物大スケーリング係数は、座標データの数値をmmに変換する係数であるとする。この係数があることによって、例えば、実物大スケーリング係数が10.0の場合で、オブジェクトのサイズが40.0であれば、実世界サイズは40.0×10.0=400(mm)と変換することが可能となる。ここで、生成部230が、オブジェクトをリアルサイズで表示するための、該当オブジェクトを、CG上の座標情報に変換する方法を説明する。生成部230が、該当オブジェクトを、CG上の座標情報に変換するには、該当オブジェクトを、実物大スケーリング係数を使って、実世界のサイズにスケーリングした後、RealToCG係数を乗算して求める。例えば、図33では、ディスプレイ物理サイズが1000mmのディスプレイと、ディスプレイ物理サイズが500mmのディスプレイに表示するケースを説明している。ディスプレイ物理サイズが1000mmのディスプレイの場合には、図33の例のモデルの場合には、CG上の座標は、RealToCG係数0.05であるため、この係数を、CGモデルの実世界サイズ400mmに乗算することで、CG上の座標20.0を求めることが可能となる。また、ディスプレイ物理サイズが1000mmのディスプレイの場合には、図33の例のモデルの場合には、CG上の座標は、RealToCG係数0.1であるため、この係数を400mmに乗算することで、CG上の座標40.0を求めることが可能となる。このように、実物大スケーリング係数を、モデルの情報に含めることによって実世界空間のサイズで、オブジェクトを描画することが可能となる。
なお、図34に示すように、ディスプレイ中心と観察者を結ぶ線を軸に、観察者の動きに合わせて、ディスプレイを回転させるような構成にしてもよい。この場合には、カメラ130が常に観察者が真正面に捕らえるように、ディスプレイを回転させる。このような構成にすることによって、観察者はCG上の物体を360度から眺めることが可能となる。
なお、rの値は、ディスプレイの物理サイズ(インチ数)によって調整するようにしてもよい。ディスプレイのサイズが大きい場合には、移動量が大きくなければ物体を回り込めないのでrの値を大きくし、ディスプレイのサイズが小さければ、rの値を小さくする。このようにすれば、ユーザが調整しなくても快適な倍率を設定できる。
また、rの値は、人物の身長などの体のサイズによって調整するようにしてもよい。子供よりも大人の方が、体を動かしたときの幅が大きいため、子供場合のrの値は、大人の場合のrの値よりも大きくなるように構成してもよい。このようにすれば、ユーザが調整しなくても快適な倍率を設定できる。
図35は、画像生成装置100における応用例(アプリケーション)を示す。これは、ユーザがCG空間上のCGキャラクタとコミュニケーションを取り、ゲームなどを行うアプリである。例えば、CGキャラクタを育成するゲームやCGキャラクタと友達になったり、恋愛するゲームなども考えられる。また、CGキャラクタはユーザのエージェントとして、仕事を行うなどをしてもよい。例えば、ユーザが「ハワイに行きたい」といえば、CGキャラクタは、インターネット上からハワイの旅行プランを検索して、その結果をユーザに通知する。コミュニケーションは、自由視点3D映像の臨場感によって、容易でわかりやすいものとなり、ユーザはCGキャラクタに対して愛着がわく。
このような応用例における課題と対策を述べる。
ユーザとCGキャラクタとが同じ空間にいる臨場感をより増すために、「温度センサ」を画像生成装置100に搭載してもよい。「温度センサ」から室内の温度を取得することにより、その温度に応じて、CGキャラクタの服装を変えるようにしてもよい。例えば、室温が低ければ、CGキャラクタはたくさん服を着るようにして、室温が高ければ、CGキャラクタは薄着をするようにする。このようにすることで、ユーザとの一体感を増すことが可能となる。
近年、インターネットを通じて、アイドルなどの有名人がつぶやきやブログなどで、自身の考えを伝えるケースが急激に増えてきている。こうした文字情報を、臨場感をもって表現する方法を提供する。CGキャラクタはアイドルなどの有名人がモデリングされており、そのCGキャラクタには、モデル化された有名人のつぶやきやブログのURLやアクセスAPI情報が組み込まれており、つぶやきやブログが更新されると、再生装置はつぶやきやブログの文字情報をそのURLやアクセスAPIを経由して取得し、CGキャラクタの口部分のCGの頂点座標をしゃべるように動かし、同時に、文字情報を該当有名人の音声特性に即して、発生させる。このようにすることで、ユーザはあたかも有名人がそのつぶやきやブログの内容を実際にコメントしているように感じるため、文字情報をただ読むよりも臨場感を感じることができる。なお、より臨場感を増すために、つぶやきやブログサイトから、該当有名人のつぶやきやブログの音声ストリーム、該当音声ストリームにおける口の動きのモーションキャプチャ情報を取得できるようにしてもよい。この場合、再生装置は、音声ストリームを再生しながら、口の動きのモーションキャプチャ情報に基づき、頂点座標を動かすことにより、より自然に、有名人のしゃべりを再現できる。
図36のようにユーザ自身がスクリーン内に入り込むことができれば、ユーザとCGキャラクタがより円滑にコミュニケーションをとることができる。そこで、ユーザがCGキャラクタと同一スクリーンに入り込むための構成について、図37を用いて説明する。まず、図37左のような構成で、テレビ(例えば、ディスプレイ190)にヘッドトラッキングデバイス(例えば、カメラ130)が配置されている場合には、ヘッドトラッキング部212は、ユーザをヘッドトラッキングで認識すると共に、画面全体の奥行き情報のデプスマップから、ユーザの体部分を抽出する。例えば、右上のように、デプスマップがあれば、背景とユーザの区別がつく。カメラで撮影した画像から、特定されたユーザの領域を切り抜く。これをCG世界上のテクスチャとして利用する。人間のモデルに対して、この画像をテクスチャとして貼り付け、ユーザ位置(X,Y座標値、Z値は反転するなど)にあうように、CG世界上に登場させ、レンダリングを行う。この場合には、図37中下のように、表示されることとなる。しかし、この場合には、前からのカメラ映像であるため、左右が反対となり、ユーザにとって違和感となる。よって、ユーザのテクスチャはY軸を軸に左右反転させて、図37右下のように表示する。このように実世界のユーザとスクリーン上のユーザは、鏡面の関係にすることが望ましい。このようにすることで、ユーザは違和感なく、スクリーン上に入り込むことが可能となる。
なお、図37右下のように、ユーザの顔がスクリーンに出るのではなく、ユーザの背中をスクリーン側に表示するようにするためには、ヘッドトラッキングデバイスをユーザの後方に持ってくるように構成してもよい。また、前からのデプスマップ情報からCGモデルを生成し、後方からはカメラで写真や映像を取ってテクスチャとしてモデルに貼り付けて表示するようにしてもよい。
なお、ユーザとCGキャラクタが同じスクリーン空間に入り込む場合の応用例として、好きなロケーション風景での散歩が考えられる。その場合には、背景に好きなロケーション映像を再生しながら、CGモデルとユーザを合成することで臨場感のある散歩が楽しめる。ロケーション映像はBD−ROMなどの光ディスクで頒布してもよい。
耳の不自由な障がい者と健常者とのコミュニケーションにおいての課題は、健常者が手話を使いこなせない、という問題がある。この問題を解決する画像生成装置を提供する。図38と図39が本システム構成の概要である。ユーザAは、耳の不自由な障がい者であり、ユーザBは健常者である。ユーザAのテレビ(例えば、ディスプレイ190)には、ユーザBのモデルが表示され、ユーザBのテレビには、ユーザAのモデルが表示される。本システムでの処理ステップを説明する。まず、図38で耳の不自由な障がい者ユーザAの情報発信における処理ステップを説明する。STEP1.ユーザAは手話を行う。STEP2.画像生成装置のヘッドトラッキング部(例えば、ヘッドトラッキング部212)は、ユーザの頭部位置だけでなく、手話ジェスチャを認識して、解釈する。STEP3.画像生成装置は、手話情報を文字情報に変換して、文字情報をユーザBの画像生成装置に、インターネットなどのネットワークを経由して伝送する。STEP4.ユーザBの画像生成装置は、データを受け取ると、文字情報を音声に変換して、ユーザBに出力する。次に、図39で健常者ユーザBの情報発信における処理ステップを説明する。STEP1.健常者ユーザAが声を使って話す。STEP2.画像生成装置は、マイクで音声を取得すると共に、口の動きを認識する。STEP3.画像生成装置は、音声、音声認識した結果の文字情報、口の動き情報を、ユーザAの画像生成装置に、インターネットなどのネットワークを経由して伝送する。STEP4.ユーザAの画像生成装置は、文字情報を画面上に表示しながら、口の動きをモデルで再現しながら表示する。もしくは文字情報を手話ジェスチャに変換して、ユーザAのモデルの動きに反映させてもよい。このようにすることで、手話を知らない健常者においても、耳の不自由な障がい者と自然なコミュニケーションを行うことが可能である。
<補足>
以上、本発明に係る画像生成装置の一実施形態として、実施の形態1、変形例1、変形例2、変形例3、他の変形例を用いて、複数の画像生成装置の例について説明したが、以下のように変形することも可能であり、本発明は上述した実施の形態等で示した通りの画像生成装置に限られないことはもちろんである。
(1)実施の形態1において、画像生成装置100は、生成する画像を、仮想空間上にモデリングされたCG画像として生成する構成の例である。しかしながら、指定された位置から見た画像を生成することができれば、必ずしも仮想空間上にモデリングされたCG画像として生成する構成に限られない。一例として、複数の位置から実際に撮影された画像間の補完によって画像を生成する技術(例えば、特許文献1記載の自由視点画像生成技術)を利用して画像を生成する構成の例等が考えられる。
(2)実施の形態1において、画像生成装置100は、観察者の右目の位置と左目の位置とを検出し、検出した右目の位置と左目の位置とのそれぞれに基づく、右目画像と左目画像とをそれぞれ生成する構成の例である。しかしながら、少なくとも、観察者の位置を検出し、検出した観察者の位置に基づく画像を生成することができれば、必ずしも観察者の右目の位置と左目の位置とを検出して、右目画像と左目画像とを生成する必要はない。一例として、ヘッドトラッキング部212が、観察者の顔の中心の位置を特定して観察位置とし、座標変換部222がその観察位置に基づいて仮想視点位置を算出し、視点変換部235がその仮想視点位置から見た原画像を生成し、ラスタライズ部236がその原画像から画像を生成する構成の例等が考えられる。
(3)実施の形態1において、画像生成装置100は、視点位置の算出を、基準平面における、基準位置からの、観察位置への変位量のX軸成分とY軸成分とを共にr倍して算出する構成の例である。しかしながら、別の一例として、視点位置の算出を、基準平面における、基準位置からの、観察位置への変位量のX軸成分をr1(r1は1より大きな実数)倍し、Y軸成分をr2(r2は、r1とは異なる、1より大きな実数)倍して算出する構成の例等が考えられる。
(4)実施の形態1において、ディスプレイ190は、液晶ディスプレイであるとして説明した。しかしながら、表示領域に画像を表示する機能を有していれば、必ずしも液晶ディスプレイである構成に限られない。一例として、壁面等を表示領域として利用して画像を表示するプロジェクタである構成の例等が考えられる。
(5)実施の形態1において、画像生成装置100は、描画の対象となるオブジェクト自身の形状や位置が時間的に変動するものであっても構わないし、時間的に変動しないものであっても構わない。
(6)実施の形態2において、画像生成装置1100は、視角J1270(図12参照)が視角K1260と等しい角度である構成の例である。しかしながら、視角J1270の方が、仮想視点位置J950から見たスクリーン領域604の視角よりも大きな角度であって、視角J1270内にスクリーン領域604が納まっている構成であれば、必ずしも、視角J1270が視角K1260と等しい角度である構成に限られない。
(7)以下、さらに本発明の一態様に係る画像生成装置の構成及びその変形例と各効果について説明する。
(a)本発明の一態様に係る画像生成装置は、3次元物体が表わされた画像を外部の表示デバイスに出力する画像生成装置であって、前記表示デバイスにより表示される画像を観察する観察者の観察位置を検出する検出手段と、前記表示デバイスにより表示される画像の表示領域に向かい合う所定の基準位置からの、前記検出手段によって検出された観察位置への変位量をr(rは1より大きな実数)倍した仮想視点を算出する位置算出手段と、前記3次元物体を表わす画像を生成するためのデータを取得して、前記位置算出手段によって算出された仮想視点から観察される、前記3次元物体を表わす画像を生成する生成手段と、前記生成手段によって生成された画像を、前記表示デバイスに出力する出力手段とを備えることを特徴とする。
上述の構成を備える本発明の一態様に係る画像生成装置によると、画像を観察する観察者が移動した場合に、生成する画像の観察位置となる仮想観察位置の移動量は、観察者の移動量のr(rは1よりも大きな実数)倍となる。このことにより、物体の観察角度を変更しようとする場合に、表示画面に対する観察者の移動量が、従来よりも少なくて済む。
図40は、上記変形例における画像生成装置4000の構成を示すブロック図である。
同図に示されるように、画像生成装置4000は、検出手段4010と位置算出手段4020と生成手段4030と出力手段4040とから構成される。
検出手段4010は、位置算出手段4020に接続され、外部の表示デバイスにより表示される画像を観察する観察者の観察位置を検出する機能を有する。検出手段4010は、一例として、検出部210(図2参照)として実現される。
位置算出手段4020は、検出手段4010と生成手段4030とに接続され、外部の表示デバイスにより表示される画像の表示領域に向かい合う所定の基準位置からの、検出手段4020によって検出された観察位置への変位量をr(rは1より大きな実数)倍した仮想視点を算出する機能を有する。位置算出手段4020は、一例として、位置算出部220として実現される。
生成手段4030は、位置算出手段4020と出力手段4040とに接続され、3次元物体を表す画像を生成するための3次元の座標データを取得して、位置算出手段4020によって算出された仮想視点から観察される、その3次元物体を表す画像を生成する機能を有する。生成手段4030は、一例として、生成部230として実現される。
出力手段4040は、生成手段4030によって生成された画像を、外部の表示デバイスに出力する機能を有する。出力手段4040は、一例として、出力部240として実現される。
(b)また、前記表示領域は平面状の領域であり、前記基準位置は、前記検出手段によって検出された観察位置を含む、前記表示領域に平行な基準平面における、前記表示領域の中央に向かい合う位置であり、前記位置算出手段は、算出する仮想視点が、前記基準平面において、前記変位量をr倍した位置になるように、前記仮想視点の算出を行うとしてもよい。
このような構成にすることによって、仮想視点を、観察位置を含む、表示領域に平行となる平面上の点とすることができる。
できるようになる。
(c)また、前記表示領域は長方形であり、前記生成手段は、生成する画像が、前記位置算出手段によって算出された仮想視点における視角であって、前記観察位置を含む水平面における前記表示領域の幅がなす視角以上の画角となるように、前記画像の生成を行うとしてもよい。
このような構成にすることによって、生成する画像が、仮想視点における表示領域の幅がなす視角以上の画角を有する画像となる。このことによって、生成する画像を、その画像を観察する観察者にとって比較的違和感の少ないものとすることができる。
(d)また、前記観察位置における視角であって、前記観察位置を含む水平面における前記表示領域の幅がなす視角を算出する視角算出手段を備え、前記生成手段は、生成する画像が、前記視角算出手段によって算出された視角に等しい画角を有する画像となるように、前記画像の生成を行うとしてもよい。
このような構成にすることによって、生成する画像が、観察位置における表示領域の幅がなす視角と等しい画角を有する画像となる。このことによって、生成する画像を、その画像を観察する観察者にとってさらに違和感の少ないものとすることができる。
(e)また、前記生成手段は、生成する画像が、前記位置算出手段によって算出された仮想視点を視点とする画像になるように、生成する画像のサイズを、前記表示領域のサイズに縮小補正することで前記画像の生成を行うとしてもよい。
このような構成にすることによって、生成する画像のサイズを、表示領域に表示できるサイズに収めることができるようになる。
(f)また、前記生成手段は、前記画像の生成を、前記縮小補正がなされる前の画像における中央が前記表示領域の中央に一致するように行うとしてもよい。
このような構成にすることによって、画像における中央の位置に表示される表示物の位置が移動しないように縮小補正された画像を生成することができるようになる。
(g)また、前記生成手段は、前記画像の生成を、前記縮小補正がなされる前の画像におけるいずれかの一辺が、前記表示領域のいずれかの一辺を含む辺となるように行うとしてもよい。
このような構成にすることによって、画像におけるいずれかの一辺の位置に表示される表示物の位置が移動しないように縮小補正された画像を生成することができるようになる。
できるようになる。
(h)また、前記表示領域は長方形であり、前記観察位置における視角であって、前記観察位置を含む水平面における前記表示領域の幅がなす視角を算出する視角算出手段を備え、前記基準位置は、前記幅がなす視角が、前記視角算出手段によって算出された視角に等しくなる位置の集合からなる基準曲面における、前記表示領域の中央に向かい合う位置であり、前記位置算出手段は、算出する仮想視点が、前記基準曲面において、前記変位量をr倍した位置となるように、前記仮想視点の算出を行うとしてもよい。
このような構成にすることによって、仮想視点における表示領域の幅がなす視角が、観察位置における表示領域の幅がなす視角に等しくなる。このことによって、生成する画像を、その画像を観察する観察者にとって比較的違和感の少ないものとすることができる。
できるようになる。
(i)また、前記表示デバイスに出力する画像を生成するためのデータを記憶するための記憶手段を備え、前記生成手段は、前記画像の生成を、前記表示デバイスに出力する画像を生成するためのデータを前記記憶手段から取得することで行うとしてもよい。
このような構成にすることによって、表示デバイスに出力する画像を生成するためのデータを自装置内に記憶して利用することができるようになる。
(j)また、前記検出手段は、前記観察位置の検出を、前記観察者における右目の右目観察位置と、前記観察者における左目の左目観察位置とが前記観察位置として算出されるように行い、前記位置算出手段は、前記仮想視点の算出を、前記基準位置からの、前記検出手段によって検出された右目観察位置への変位量をr倍した右目仮想視点と、前記基準位置からの、前記検出手段によって検出された左目観察位置への変位量をr倍した左目仮想視点とが前記仮想視点として算出されるように行い、前記生成手段は、前記画像の生成を、前記位置算出手段によって算出された右目仮想視点から観察された右目画像と、前記位置算出手段によって算出された左目仮想視点から観察された左目画像とが前記画像として生成されるように行い、前記出力手段は、前記生成手段によって生成された右目画像と、前記生成手段によって生成された左目画像とが交互に出力されるように、前記出力を行うとしてもよい。
このような構成にすることによって、例えば、右目画像を右目に見せて、左目画像を左目に見せる機能を有する3Dメガネを着用する観察者は、奥行き感のある3D画像を楽しむことができるようになる。
(k)また、前記3次元物体は、仮想空間における仮想物体であり、前記位置算出手段によって算出された仮想視点を示す座標を、前記仮想空間における座標系によって示される仮想座標系仮想視点座標に変換する座標変換手段を備え、前記生成手段は、前記画像の生成を、前記座標変換手段によって変換された仮想座標系仮想視点座標を利用して行うとしてもよい。
このような構成にすることによって、仮想空間において仮想的に存在する仮想物体を画像に表わすことができるようになる。
本発明は、画像を生成する機能を有する装置に広く利用することができる。
210 検出部
211 サンプル画像保持部
212 ヘッドトラッキング部
220 位置算出部
221 パラメータ保持部
222 座標変換部
230 生成部
231 オブジェクトデータ保持部
232 3次元オブジェクト構築部
233 光源設定部
234 陰影処理部
235 視点変換部
236 ラスタライズ部
240 出力部
241 左目フレームバッファ部
242 右目フレームバッファ部
243 選択部

Claims (11)

  1. 3次元物体が表わされた画像を外部の表示デバイスに出力する画像生成装置であって、
    前記表示デバイスにより表示される画像を観察する観察者の観察位置を検出する検出手段と、
    前記表示デバイスにより表示される画像の表示領域に向かい合う所定の基準位置からの、前記検出手段によって検出された観察位置への変位量をr(rは1より大きな実数)倍した仮想視点を算出する位置算出手段と、
    前記3次元物体を表わす画像を生成するためのデータを取得して、前記位置算出手段によって算出された仮想視点から観察される、前記3次元物体を表わす画像を生成する生成手段と、
    前記生成手段によって生成された画像を、前記表示デバイスに出力する出力手段とを備える
    ことを特徴とする画像生成装置。
  2. 前記表示領域は平面状の領域であり、
    前記基準位置は、前記検出手段によって検出された観察位置を含む、前記表示領域に平行な基準平面における、前記表示領域の中央に向かい合う位置であり、
    前記位置算出手段は、算出する仮想視点が、前記基準平面において、前記変位量をr倍した位置になるように、前記仮想視点の算出を行う
    ことを特徴とする請求項1記載の画像生成装置。
  3. 前記表示領域は長方形であり、
    前記生成手段は、生成する画像が、前記位置算出手段によって算出された仮想視点における視角であって、前記観察位置を含む水平面における前記表示領域の幅がなす視角以上の画角となるように、前記画像の生成を行う
    ことを特徴とする請求項2記載の画像生成装置。
  4. 前記観察位置における視角であって、前記観察位置を含む水平面における前記表示領域の幅がなす視角を算出する視角算出手段を備え、
    前記生成手段は、生成する画像が、前記視角算出手段によって算出された視角に等しい画角を有する画像となるように、前記画像の生成を行う
    ことを特徴とする請求項3記載の画像生成装置。
  5. 前記生成手段は、生成する画像が、前記位置算出手段によって算出された仮想視点を視点とする画像になるように、生成する画像のサイズを、前記表示領域のサイズに縮小補正することで前記画像の生成を行う
    ことを特徴とする請求項4記載の画像生成装置。
  6. 前記生成手段は、前記画像の生成を、前記縮小補正がなされる前の画像における中央が前記表示領域の中央に一致するように行う
    ことを特徴とする請求項5記載の画像生成装置。
  7. 前記生成手段は、前記画像の生成を、前記縮小補正がなされる前の画像におけるいずれかの一辺が、前記表示領域のいずれかの一辺を含む辺となるように行う
    ことを特徴とする請求項5記載の画像生成装置。
  8. 前記表示領域は長方形であり、
    前記観察位置における視角であって、前記観察位置を含む水平面における前記表示領域の幅がなす視角を算出する視角算出手段を備え、
    前記基準位置は、前記幅がなす視角が、前記視角算出手段によって算出された視角に等しくなる位置の集合からなる基準曲面における、前記表示領域の中央に向かい合う位置であり、
    前記位置算出手段は、算出する仮想視点が、前記基準曲面において、前記変位量をr倍した位置となるように、前記仮想視点の算出を行う
    ことを特徴とする請求項1記載の画像生成装置。
  9. 前記表示デバイスに出力する画像を生成するためのデータを記憶するための記憶手段を備え、
    前記生成手段は、前記画像の生成を、前記表示デバイスに出力する画像を生成するためのデータを前記記憶手段から取得することで行う
    ことを特徴とする請求項1記載の画像生成装置。
  10. 前記検出手段は、前記観察位置の検出を、前記観察者における右目の右目観察位置と、前記観察者における左目の左目観察位置とが前記観察位置として算出されるように行い、
    前記位置算出手段は、前記仮想視点の算出を、前記基準位置からの、前記検出手段によって検出された右目観察位置への変位量をr倍した右目仮想視点と、前記基準位置からの、前記検出手段によって検出された左目観察位置への変位量をr倍した左目仮想視点とが前記仮想視点として算出されるように行い、
    前記生成手段は、前記画像の生成を、前記位置算出手段によって算出された右目仮想視点から観察された右目画像と、前記位置算出手段によって算出された左目仮想視点から観察された左目画像とが前記画像として生成されるように行い、
    前記出力手段は、前記生成手段によって生成された右目画像と、前記生成手段によって生成された左目画像とが交互に出力されるように、前記出力を行う
    ことを特徴とする請求項1記載の画像生成装置。
  11. 前記3次元物体は、仮想空間における仮想物体であり、
    前記位置算出手段によって算出された仮想視点を示す座標を、前記仮想空間における座標系によって示される仮想座標系仮想視点座標に変換する座標変換手段を備え、
    前記生成手段は、前記画像の生成を、前記座標変換手段によって変換された仮想座標系仮想視点座標を利用して行う
    ことを特徴とする請求項1記載の画像生成装置。
JP2013511945A 2011-04-28 2012-04-27 画像生成装置 Pending JPWO2012147363A1 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201161479944P 2011-04-28 2011-04-28
US61/479,944 2011-04-28
PCT/JP2012/002905 WO2012147363A1 (ja) 2011-04-28 2012-04-27 画像生成装置

Publications (1)

Publication Number Publication Date
JPWO2012147363A1 true JPWO2012147363A1 (ja) 2014-07-28

Family

ID=47071893

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013511945A Pending JPWO2012147363A1 (ja) 2011-04-28 2012-04-27 画像生成装置

Country Status (4)

Country Link
US (1) US20130113701A1 (ja)
JP (1) JPWO2012147363A1 (ja)
CN (1) CN103026388A (ja)
WO (1) WO2012147363A1 (ja)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150206338A1 (en) * 2012-09-05 2015-07-23 Nec Casio Mobile Communications, Ltd. Display device, display method, and program
FR3005517B1 (fr) * 2013-05-07 2015-05-22 Commissariat Energie Atomique Procede de commande d'une interface graphique pour afficher des images d'un objet tridimensionnel
CN103996215A (zh) * 2013-11-05 2014-08-20 深圳市云立方信息科技有限公司 一种实现虚拟视图转立体视图的方法及装置
KR102156408B1 (ko) * 2013-11-19 2020-09-16 삼성전자주식회사 레이어드 디스플레이 기법을 위한 디스플레이 장치 및 영상 생성 방법
CN103677715A (zh) * 2013-12-13 2014-03-26 深圳市经伟度科技有限公司 一种沉浸式虚拟现实体验系统
CN104159036B (zh) * 2014-08-26 2018-09-18 惠州Tcl移动通信有限公司 一种图像方向信息的显示方法及拍摄设备
CN104484096B (zh) * 2014-12-30 2017-09-01 北京元心科技有限公司 一种桌面交互方法及装置
US9734553B1 (en) * 2014-12-31 2017-08-15 Ebay Inc. Generating and displaying an actual sized interactive object
US10459230B2 (en) 2016-02-02 2019-10-29 Disney Enterprises, Inc. Compact augmented reality / virtual reality display
US10068366B2 (en) * 2016-05-05 2018-09-04 Nvidia Corporation Stereo multi-projection implemented using a graphics processing pipeline
US9996984B2 (en) * 2016-07-05 2018-06-12 Disney Enterprises, Inc. Focus control for virtual objects in augmented reality (AR) and virtual reality (VR) displays
US11050991B2 (en) * 2016-09-29 2021-06-29 Koninklijke Philips N.V. Image processing using a plurality of images for a three dimension scene, having a different viewing positions and/or directions
CN108696742A (zh) * 2017-03-07 2018-10-23 深圳超多维科技有限公司 显示方法、装置、设备及计算机可读存储介质
KR102004991B1 (ko) * 2017-12-22 2019-10-01 삼성전자주식회사 이미지 처리 방법 및 그에 따른 디스플레이 장치
US11190757B2 (en) * 2017-12-22 2021-11-30 Mirage 3.4D Pty Ltd Camera projection technique system and method
US11425350B2 (en) * 2018-03-08 2022-08-23 Virtualwindow Co., Ltd. Image display system
CN111949111B (zh) * 2019-05-14 2022-04-26 Oppo广东移动通信有限公司 交互控制方法、装置、电子设备及存储介质
JP7409014B2 (ja) * 2019-10-31 2024-01-09 富士フイルムビジネスイノベーション株式会社 表示装置
TWI766316B (zh) * 2020-07-22 2022-06-01 財團法人工業技術研究院 可透光顯示系統及其圖像輸出方法與處理裝置

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3032414B2 (ja) * 1993-10-29 2000-04-17 キヤノン株式会社 画像処理方法および画像処理装置
JP2973867B2 (ja) * 1995-05-26 1999-11-08 日本電気株式会社 視点追従型立体表示装置および視点追従方法
JPH0954376A (ja) * 1995-06-09 1997-02-25 Pioneer Electron Corp 立体表示装置
JP3745117B2 (ja) * 1998-05-08 2006-02-15 キヤノン株式会社 画像処理装置及び画像処理方法
JP2002250895A (ja) * 2001-02-23 2002-09-06 Mixed Reality Systems Laboratory Inc 立体画像表示方法及びそれを用いた立体画像表示装置
KR100779634B1 (ko) * 2003-06-20 2007-11-26 니폰 덴신 덴와 가부시끼가이샤 가상시점 화상 생성방법 및 3차원 화상 표시방법 및 장치
JP2007052304A (ja) * 2005-08-19 2007-03-01 Mitsubishi Electric Corp 映像表示システム
US20100328428A1 (en) * 2009-06-26 2010-12-30 Booth Jr Lawrence A Optimized stereoscopic visualization
JP4754031B2 (ja) * 2009-11-04 2011-08-24 任天堂株式会社 表示制御プログラム、情報処理システム、および立体表示の制御に利用されるプログラム
CN101819401B (zh) * 2010-04-02 2011-07-20 中山大学 一种基于全息方法的大视角三维图像显示方法及系统
KR101729556B1 (ko) * 2010-08-09 2017-04-24 엘지전자 주식회사 입체영상 디스플레이 시스템, 입체영상 디스플레이 장치 및 입체영상 디스플레이 방법, 그리고 위치 추적 장치

Also Published As

Publication number Publication date
WO2012147363A1 (ja) 2012-11-01
US20130113701A1 (en) 2013-05-09
CN103026388A (zh) 2013-04-03

Similar Documents

Publication Publication Date Title
WO2012147363A1 (ja) 画像生成装置
US11010958B2 (en) Method and system for generating an image of a subject in a scene
US11277603B2 (en) Head-mountable display system
US10187633B2 (en) Head-mountable display system
US9811908B2 (en) Head-mountable apparatus and systems
TWI523488B (zh) 處理包含在信號中的視差資訊之方法
US10681276B2 (en) Virtual reality video processing to compensate for movement of a camera during capture
US9106906B2 (en) Image generation system, image generation method, and information storage medium
CN110291564B (zh) 图像生成设备和图像生成方法
JP2011090400A (ja) 画像表示装置および方法、並びにプログラム
CN108885342A (zh) 用于低延迟渲染的宽基线立体
KR101198557B1 (ko) 시청자세를 반영하는 3차원 입체영상 생성 시스템 및 방법
CN107005689B (zh) 数字视频渲染
WO2018084087A1 (ja) 画像表示システム、画像表示装置、その制御方法、及びプログラム
CN102799378B (zh) 一种立体碰撞检测物体拾取方法及装置
US10796485B2 (en) Rendering objects in virtual views
CN110060349B (zh) 一种扩展增强现实头戴式显示设备视场角的方法
GB2558283A (en) Image processing
US11128836B2 (en) Multi-camera display
WO2021166751A1 (ja) 情報処理装置、情報処理方法及びコンピュータプログラム
JP2013223133A (ja) 誘導装置、誘導方法、及び誘導プログラム
GB2556114A (en) Virtual reality

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20140606

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20141006