JP2010068059A - 映像データ生成プログラム - Google Patents

映像データ生成プログラム Download PDF

Info

Publication number
JP2010068059A
JP2010068059A JP2008230330A JP2008230330A JP2010068059A JP 2010068059 A JP2010068059 A JP 2010068059A JP 2008230330 A JP2008230330 A JP 2008230330A JP 2008230330 A JP2008230330 A JP 2008230330A JP 2010068059 A JP2010068059 A JP 2010068059A
Authority
JP
Japan
Prior art keywords
projector
mask
video data
video
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008230330A
Other languages
English (en)
Inventor
Katsuyuki Egawa
克之 江川
Yutaka Kano
裕 加納
Yusuke Nakano
裕介 中野
Masahito Katsuta
正仁 勝田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SP FORUM Inc
TAIYO KIKAKU KK
THREE D KK
Original Assignee
SP FORUM Inc
TAIYO KIKAKU KK
THREE D KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SP FORUM Inc, TAIYO KIKAKU KK, THREE D KK filed Critical SP FORUM Inc
Priority to JP2008230330A priority Critical patent/JP2010068059A/ja
Publication of JP2010068059A publication Critical patent/JP2010068059A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)

Abstract

【課題】簡易なデータ生成処理によって球面スクリーンに投影するための映像データを適切に生成する。
【解決手段】映像データ生成プログラムは、全球スクリーン12を見る仮想視点Vを中心としたキューブマップ映像60を作成する機能と、仮想視点Vから見てそのキューブマップ映像60と同じ映像が、全球スクリーン12上に配置された複数のプロジェクタ16によって全球スクリーン12の略全域にに投影像として形成されるよう、プロジェクタ16へ入力するための映像データを生成する機能と、をコンピュータに実現させる。
【選択図】図7

Description

本発明は、映像の投影技術に関し、特に互いに投影領域が重なり合う重複領域を有するよう各々がスクリーンに投影像を形成する複数のプロジェクタを用いた投影技術に関する。
近年、平面スクリーンだけでなく、球面、円筒面などのスクリーン形状における没入型ビジュアライゼーション・スクリーン・システム(immersive VR screen system)の開発が現在進められている。このような非平面スクリーンへの投影技術として、平面の表示面に対する映像信号に予め投射面に対する歪み補正を施して投影手段に与える映像信号処理装置が提案されている(例えば、特許文献1参照)。
特開2006−229768号公報
例えば球面スクリーンに映像を投影する場合、見る者を囲うようにスクリーンを構成することが可能となるため、広い視野に映像を投影することが可能となる。ここで、球面スクリーンを見る者の近くにプロジェクタなどの投影手段が配置しようとした場合、プロジェクタの投影範囲に人が重ならないようにするためのプロジェクタの配置が困難となる。また、プロジェクタによる光の照射が見る者に認識されやすくなり、臨場感などが減殺されるおそれがある。しかし、球面スクリーンを見る者からプロジェクタを離して配置しようとすると、上述の特許文献に記載されるように、歪みのない映像を投影するために複雑な映像データ生成処理を実行する必要がある。
そこで、本発明は上述した課題を解決するためになされたものであり、その目的は、簡易なデータ生成処理によって球面スクリーンに投影するための映像データを適切に生成することにある。
上記課題を解決するために、本発明のある態様の映像データ生成プログラムは、球面スクリーンを見る仮想視点を中心として作成されたキューブマップ映像と当該仮想視点から見て同じ映像が、仮想視点とは異なる位置に配置されたプロジェクタによって球面スクリーンに投影像として形成されるよう、プロジェクタへ入力するための映像データを生成する機能をコンピュータに実現させる。
この態様によれば、キューブマップ映像という簡易な映像生成技術を利用して、仮想視点と異なる位置に配置されたプロジェクタから映像を適切に球面スクリーンに投影することができる。
映像データを生成する機能は、仮想視点から見てそのキューブマップ映像と同じ映像が、球面スクリーンと同じ球面上に配置されたプロジェクタによって球面スクリーンに投影像として形成されるよう映像データを生成する機能を含んでもよい。
この態様によれば、プロジェクタを球面スクリーンと同じ球面上に配置することができる。このため、プロジェクタの照射光が見る者に干渉する可能性を低減させることができる。
映像データを生成する機能は、球面スクリーンの互いに異なる投影領域に投影像を形成する複数のプロジェクタの各々について、仮想視点から見てそのキューブマップ映像と同じ映像が複数のプロジェクタの各々によって球面スクリーンに投影像として形成されるよう映像データを生成する機能を含んでもよい。
この態様によれば、複数のプロジェクタを用いることによってより広い範囲に映像を投影することが可能となる。このため、映像を見る者の臨場感を高めることができる。
映像データを生成する機能は、全球スクリーンの略全域に投影像が形成されるよう、全球スクリーンの互いに異なる投影領域に投影像を形成する複数のプロジェクタの各々について、仮想視点から見てそのキューブマップ映像と同じ映像が複数のプロジェクタの各々によって球面スクリーンに投影像として形成されるよう映像データを生成する機能を含んでもよい。
この態様によれば、見る者の周囲の略全域に映像を投影することができる。このため、高い臨場感を見る者に与えることができる。
本発明によれば、簡易なデータ生成処理によって球面スクリーンに投影するための映像データを適切に生成することができる。
以下、図面を参照して本発明の実施の形態(以下、実施形態という)について詳細に説明する。
図1は、本実施形態に係る投影システム10の全体構成図である。投影システム10は、全球スクリーン12、通路14、第1プロジェクタ16A〜第12プロジェクタ16Lを備える。以下、第1プロジェクタ16A〜第12プロジェクタ16Lを必要に応じて「プロジェクタ16」と総称する。
全球スクリーン12は、内面に映像が投影できるよう構成されている。通路14は、全球スクリーン12の中心を通過して水平に延在するよう設けられる。全球スクリーン12には出入口12aおよび出入口12bが設けられており、通路14の両端部は、出入口12aおよび出入口12bにそれぞれ接続されている。
プロジェクタ16の各々は、全球スクリーン12の略全域に合成映像を投影するよう、互いに異なる領域に投影像を形成する。このときプロジェクタ16は、互いに投影領域が重なり合う重複領域を有するよう各々が全球スクリーン12に投影像を形成する。
図2は、図1の視点Pから投影システム10を見た図である。出入口12aの周囲には、第1プロジェクタ16A〜第6プロジェクタ16Fが配置される。第1プロジェクタ16A〜第6プロジェクタ16Fの各々は、全球スクリーン12の表面近傍から全球スクリーン12に映像を投影する。
第1プロジェクタ16Aは出入口12aの上方に配置され、第4プロジェクタ16Dは出入口12aの下方に配置される。第2プロジェクタ16Bは出入口12aの右上に配置され、第3プロジェクタ16Cは出入口12aの右下に配置される。第6プロジェクタ16Fは出入口12aの左上に配置され、第5プロジェクタ16Eは出入口12aの左下に配置される。第1プロジェクタ16Aから第6プロジェクタ16Fは、出入口12aから拡散する投影方向に向けて映像を投影する。
図3は、図2の視点Qから投影システム10を見た図である。出入口12bの周囲には、第7プロジェクタ16G〜第12プロジェクタ16Lが配置される。第7プロジェクタ16G〜第12プロジェクタ16Lの各々は、全球スクリーン12の表面近傍から全球スクリーン12に映像を投影する。
第8プロジェクタ16Hは出入口12bの右側に配置され、第11プロジェクタ16Kは出入口12bの左側に配置される。第7プロジェクタ16Gは出入口12bの右上に配置され、第12プロジェクタ16Lは出入口12bの左上に配置される。第9プロジェクタ16Iは出入口12bの右下に配置され、第10プロジェクタ16Jは出入口12bの左下に配置される。
図4は、第1プロジェクタ16A〜第12プロジェクタ16Lによって全球スクリーン12に形成される合成映像を示す図である。図4において、白い部分は3つのプロジェクタ16の投影像が重なる領域を示し、薄いグレーの部分は2つのプロジェクタ16の投影像が重なる領域を示し、濃いグレーの部分は1つのプロジェクタ16のみによって投影像が形成される領域を示す。このようにプロジェクタ16の各々は、全球スクリーン12上において投影領域が互いに重なり合う重複領域を形成する。また、プロジェクタ16は、平面のスクリーンに投影するときは矩形の投影像を形成するよう設けられているため、本実施形態のように全球スクリーン12に投影像を形成する場合、各々の投影像は図4に示すように複雑に重なり合う。
図5は、プロジェクタ16の各々に出力するための映像データを生成する映像生成用PC50の機能ブロック図である。映像生成用PC50には、プロジェクタ16の各々に出力する映像データを生成するための映像データ生成プログラムがインストールされている。図5は、各種演算処理を実行するCPU、各種制御プログラムを格納するROM、データ格納やプログラム実行のためのワークエリアとして利用されるRAMなどのハードウェア、およびこの映像データ生成プログラムを含むソフトウェアの連携によって実現される機能ブロックが描かれている。したがって、これらの機能ブロックはハードウェアおよびソフトウェアの組合せによって様々な形で実現することができる。
映像生成用PC50は、プロジェクタパラメータ取得部52、映像生成部54、および記憶部56を有する。ユーザは、マウスやキーボードなどの入力装置を使って映像生成用PC50にプロジェクタパラメータを入力することが可能となっている。ここで、プロジェクタパラメータには、プロジェクタ焦点位置、姿勢(ロール・ヨー・傾斜角度)、水平視野、垂直視野、水平・垂直イメージシフト、シフトが定義される光学焦点からの距離が含まれる。なお、ユーザは、全球スクリーン12中心位置、半径などのスクリーンパラメータも入力することが可能となっている。プロジェクタパラメータ取得部52は、第1プロジェクタ16A〜第12プロジェクタ16Lの各々のプロジェクタパラメータ、およびスクリーンパラメータを取得する。
映像生成部54は、キューブマップ映像を作成し、また、プロジェクタ16の各々に出力すべき映像データを生成する。キューブマップ映像とは、3次元映像を六面体の各々の面に表した映像である。キューブマップ映像の生成方法は公知であることから説明を省略する。
本実施形態では、映像生成部54は、キューブマップ映像からプロジェクタ16の各々に出力すべき映像データを直接生成する。記憶部56には、映像生成部54によって作成されたキューブマップ映像、および映像データが格納される。
図6は、プロジェクタ16に出力すべき映像データを生成する手順を示すフローチャートである。プロジェクタパラメータ取得部52は、ユーザによって入力されたプロジェクタパラメータを取得する(S10)。
映像生成部54は、ユーザによって所定の指示入力がなされたときに、全球スクリーン12に投影すべき映像のキューブマップ映像を作成する(S12)。作成されたキューブマップ映像は、記憶部56に一旦格納される。キューブマップ映像が作成されると、映像生成部54は、作成されたキューブマップ映像を利用して、プロジェクタ16の各々に出力すべき映像データを生成する(S14)。こうして生成された映像データは、記憶部56に格納される(S16)。
図7は、キューブマップ映像を利用して映像データを生成するときの概念図である。図7に示すように、映像生成部54は、その中心から全球スクリーン12を見る仮想視点Vを中心としたキューブマップ映像を作成する。すなわち本実施形態では、全球スクリーン12内部の通路14の中央にいる人の視点を仮想視点Vとしている。
次に映像生成部54は、取得したプロジェクタパラメータと利用して、プロジェクタ16の各々の全球スクリーン12への投影範囲Rを特定する。映像生成部54は、仮想視点Vから見てそのキューブマップ映像と同じ映像が、プロジェクタ16によって投影範囲Rに投影像として形成されるよう映像データを生成する。
具体的には、例えばキューブマップ映像60が動画の場合、映像生成部54は、仮想視点Vと、動画の1フレームの静止画像におけるキューブマップ上の画素P1とを結ぶ直線と全球スクリーン12との交点P2の空間座標を求める。映像生成部54は、プロジェクタパラメータを利用して、プロジェクタ16の投影焦点と交点P2とを結ぶ直線と、プロジェクタ16の仮想スクリーンSとの交点P3の空間座標を求めることにより、仮想スクリーンS上において、キューブマップ映像60の画素P1のプロジェクタ16による投影位置を算出する。映像生成部54は、キューブマップ映像60に含まれるすべてのフレームについてこの手順を繰り返し、プロジェクタ16に出力すべき映像データを生成する。こうして、仮想視点Vから見た適切な映像を、全球スクリーン12と同じ球面上に配置されたプロジェクタ16から全球スクリーン12に投影することができる。
なお、プロジェクタ16は、全球スクリーン12と同じ球面上に配置されていなくてもよく、仮想視点Vとは異なるいずれかの位置に配置されてもよい。この場合、映像生成部54は、仮想視点Vから見てそのキューブマップ映像と同じ映像が、仮想視点Vとは異なる位置に配置されたプロジェクタ16によって全球スクリーン12に投影像として形成されるよう、プロジェクタ16へ入力するための映像データを生成する。
図8は、ソフトウェアマスクを算定するマスク算定用PC70の機能ブロック図である。マスク算定用PC70には、12台のプロジェクタ16による全体投影像における重複領域内外の明度の差を減少させるよう、プロジェクタ16の各々の投影像にかけるべきソフトウェアマスクを算定するソフトウェアマスク算定プログラムがインストールされている。図8は、CPU、ROM、RAMなどのハードウェア、およびこのソフトウェアマスク算定プログラムを含むソフトウェアの連携によって実現される機能ブロックが描かれている。したがって、これらの機能ブロックはハードウェアおよびソフトウェアの組合せによって様々な形で実現することができる。
複数のプロジェクタを使って合成映像を投影する場合、図4に示すように、各々のプロジェクタ16の投影像が重なり合う重複領域の内外に明度の差が発生するおそれがある。このため、マスク算定用PC70は、各々のプロジェクタ16の投影領域のうち、他のプロジェクタ16の投影領域と重複する重複領域にかけるソフトウェアマスクを算定する。「ソフトウェアマスク」とは、明度を低下させるようRGBコンポーネントの値を減少させる方法である。このように重複領域における映像のRGBコンポーネントの値を下げることにより、複数のプロジェクタを用いた場合においても明度の均一な合成映像を投影することができる。このようなRGB値減少の手法は、「ブレンディング」とも呼ばれ、映像にかけるソフトウェアマスクを算定することによって実現される。
プロジェクタパラメータ取得部72は、第1プロジェクタ16A〜第12プロジェクタ16Lの各々のプロジェクタパラメータ、およびスクリーンパラメータを取得する。プロジェクタパラメータ、およびスクリーンパラメータについては上述と同様である。
重複領域特定部74は、プロジェクタ16の各々について、他のプロジェクタ16の投影領域との重複領域を特定する。ソフトウェアマスク算定部76は、重複領域にかけるべきソフトウェアマスクを算定する。ハードウェアマスク特定部78は、対応するプロジェクタから照射される重複領域への照射光量を減少させるためにハードウェアマスクの各々がとるべき形状を特定する。記憶部80には、算定されたソフトウェアマスク、および特定されたハードウェアマスクを示す情報が格納される。
ここで、各々のプロジェクタにおけるマスクのピクセル値はゼロから1の値をとる。スクリーン上の重複領域に投影像を投影するプロジェクタの総数をKとし、個々のプロジェクタ・イメージの各々のピクセル値は、原則として1/Kで計算できる。以下このようなマスクを、「重複ブレンディングマスク」という。
図9は、本実施形態に係る投影システム10におけるソフトウェアマスクの算定手順を示すフローチャートである。プロジェクタパラメータ取得部72は、ユーザによって入力されたプロジェクタパラメータを取得する(S30)。重複領域特定部74は、取得したプロジェクタパラメータを利用して、プロジェクタ16の各々について他のプロジェクタ16の投影領域と互いに重なり合う重複領域を特定する(S32)。
図10は、重複領域の特定手順を示す図である。プロジェクタ16の数をKとし、各々のプロジェクタ16にkの番号を割り当てたとする。また、15種類のプロジェクタパラメータ(P1k、P2k、・・・P15k)が取得されるものとする。また、プロジェクタ16の各々の投影画像サイズがNピクセル×Mピクセルであるものとし、プロジェクタ16の各々の座標を(x,y)として、x=[1,2,・・・,N]、y=[1,2,・・・,M]とする。本実施形態では、重複領域を特定するために、順行トレーシングおよび逆行トレーシングを実行する。
順行トレーシングでは、プロジェクタ16の光学焦点から(x,y)の画素を通過する光が全球スクリーン12に到達するときの全球スクリーン12上の座標を、緯度λ、経度φとして(λ,φ)とする。ここで、(x,y,p1k,p2k・・・,p15k)のスクリーン交差点(λ,φ)は、
とする。
逆行トレーシングでは、全球スクリーン12上の座標(λ,φ)からの反射光が他のプロジェクタ16の投影領域に交差するか否かを算出する。ここで、(λ,φ,p1k,p2k・・・,p15k)の投影領域交差点(x,y)は、
とする。
図9に戻る。重複領域が特定されると、ソフトウェアマスク算定部76は、重複ブレンディングマスク算定する(S34)。重複ブレンディングマスクの算出においては、RayCounter配列を利用する。RayCounter配列は、N×M×Kのサイズを有し、初期値はゼロとされる。重複ブレンディングマスクの算定手順は、
となる。
図11は、算定された重複ブレンディングマスクの一例を示す図である。図11において、白い領域はソフトウェアマスクをかける対象となるプロジェクタ16のみから映像が投影される領域であり、他のプロジェクタ16から映像が投影されない領域である。この重複ブレンディングマスクでは、この白色の領域のピクセル値が1に設定される。
薄い灰色の領域はソフトウェアマスクをかける対象となるプロジェクタ16だけでなく、その他の1つのプロジェクタ16からも映像が投影される重複領域である。この重複ブレンディングマスクでは、この薄い灰色の領域のピクセル値が1/2に設定される。
濃い灰色の領域はソフトウェアマスクをかける対象となるプロジェクタ16だけでなく、その他の2つのプロジェクタ16からも映像が投影される重複領域である。この重複ブレンディングマスクでは、この濃い灰色の領域のピクセル値は1/3に設定される。
しかし、この重複ブレンディングマスクは段階的に明度が切り替わるように作成される。一方、スクリーンに投影される合成映像は、重複領域の境界線近くでは明度が急に変化する部分が生じる可能性がある。したがってこのような段階的なブレンディングマスクをかける場合、上述のプロジェクタパラメータが精度良く入力されなければ、スクリーン上で映像を合成したときに明度の「傷(scratch)」を生じさせるおそれがある。このため、プロジェクタパラメータの入力値の精度によってこのような問題が起こらないよう滑らかなブレンディングマスクを生成することが必要となる。このような滑らかなブレンディングマスク作成のためのアルゴリズムはソフトウェアで実現される。本実施形態では、滑らかなマスクを作成するために、マスク値が1の領域の縁部からマスク値がゼロの外側領域へ進むにしたがって徐々に減少する。マスク値が1の領域はソフトウェアマスクをかける対象となる1つのプロジェクタ16によって投影される領域である。
重複ブレンディングマスクを算定すると、ソフトウェアマスク算定部76は、まず境界線を抽出する(S36)。図12は、図11に示す投影領域から境界線を抽出した状態を示す図である。境界線は、マスク値が1の領域と1より大きいの領域との間の境界を特定するRayCounter配列によって抽出することができる。
境界線が抽出されると、ソフトウェアマスク算定部76は、初期ブレンディングマスクを算定する(S38)。図13は、図12で特定した重複領域を利用して算定した初期ブレンディングマスクを示す図である。初期ブレンディングマスクを算定する演算は、境界条件を用いたラプラシアン方程式による未知の2次元関数P(x,y)、
のタスク境界線を解くことによって行われる。この「inner boundary」は、上述のステップにおいて抽出された境界であり、「outer boundary」は画像矩形周辺をいう。この方程式は、2次元の伝熱タスクの方程式に類似し独自なマスク円滑化の手法を提供する。P(x,y,k)の算出方法は、上述と同様である。これによって、初期ブレンディングマスクごとに異なるkを得る。図13は、作成した初期ブレンディングマスクを示す図である。
なお、スクリーン上のすべての投影画素は、1以上のプロジェクタによって投影される。このためマスク値1の領域がない場合、マスク値1は画像における中央点(中央ピクセル)として割り当てられる。この場合、P(x,y,k)の算出方法は、2次元ガウス方程式となる。
初期ブレンディングマスクが算定されると、ソフトウェアマスク算定部76は、最終ブレンディングマスクを算定する(S40)。最終ブレンディングマスクの算出は、すべてのkにおける初期演算のバランスをとることにより行われる。バランスが取られた全体の明度は疑似コードで与えられる以下の手順によって1に設定される。最終ブレンディングマスクは、F(x,y,k)とされ、
の手順によって算出される。
この手順は、逆行トレーシングにおける演算数を抑制すべくソフトウェアコードにおいて最適化される。また、このバランシング手法は数回反復実行される。このF(x,y,k)は、次の反復ステップにおいてP(x,y,k)として扱われる。このスムージングは、最終ブレンディングマスクにおけるマスク値の急な勾配を抑制するために有用である。図14は、生成された最終ブレンディングマスクを示す図である。
一方、黒がどれほど黒く表されるかを示す、いわゆる「黒問題」と呼ばれる問題がある。この黒問題は、プロジェクタのハードウェアにおける残余の光放射に起因する。具体的には、全てのプロジェクタにおいて全てのピクセルの全てのRGB構成要素の値をゼロにしても、スクリーン上の投影画像は理想的な黒とならずダークグレイとなる。このため、重複領域は非重複領域より明度が高くなる。投影される映像のRGBコンポーネントの平均値が約0.1を超える場合は重複領域の明度が高くなって視認されるおそれがあり、黒い背景(例えば星がある夜空)を有する映像では顕著となる。このような残余の光放射をカットするために、ハードウェアマスクを用いることができる。本実施形態に係るアルゴリズムも、このようなハードウェアマスクを生成するバイナリのパターンマスクを提供する。
このような黒問題を解決すべく、最終ブレンディングマスクが算定されると、ハードウェアマスク特定部78はハードウェアマスクのバイナリパターンを算定する(S42)。具体的には、上述のブレンディングマスクF(x,y,k)は、例えば0.1などの黒の閾値を導入することによりハードウェアマスク生成のひな型生成のためにも利用することができる。k番目のプロジェクタの各々における各ピクセル(x,y)のバイナリパターンB(x,y,k)は、
となる。
重複領域を含む周辺領域に複数のプロジェクタ16により黒色の投影像が形成されるときに、重複領域への照射光量を減少させて重複領域内外の明度の差を抑制させるためにハードウェアマスク110の各々がとるべき形状を特定する。これにより、黒問題を発生させないハードウェアマスク110の形状を簡易に特定でき、ハードウェアマスク110の制作を容易なものとすることができる。また、ハードウェアマスク110の形状を別途入力することなくハードウェアマスク110の形状を考慮して映像データを生成することができ、ソフトウェアマスクを算定することによる作業者の負担増加を抑制することができる。
ハードウェアマスクのバイナリパターンが算定されると、ソフトウェアマスク算定部76は、ブレンディングマスクを再計算する(S44)。ブレンディングマスクが再計算されると、ソフトウェアマスク算定部76は、ブレンディングマスクを決定する(S46)。
図15は、最終ブレンディングマスクの一例を示す図である。図16は、図15に示す最終ブレンディングマスクをもとに作成したハードウェアマスクのバイナリパターンを示す図である。この図16は、図15に示す最終ブレンディングマスクにおいてマスク値が0.1を境界としたバイナリパターンを示す。
図17は、図16に示すハードウェアマスクのバイナリパターンに対し、再計算して得たソフトウェアマスクを示す図である。この再計算の方法は、抽出した境界線をもとに初期ブレンディングマスクの算定を経て最終ブレンディングマスクを算定する方法と同様である。このように、ソフトウェアマスク算定部76は、特定されたハードウェアマスクのバイナリパターン利用して、プロジェクタ16による全体投影像における重複領域内外の明度の差を減少させるよう、プロジェクタ16の投影像にかけるべきソフトウェアマスクを算定する。こうして、ハードウェアマスクと共に併用すべきソフトウェアマスクが決定される。
なお、ハードウェアマスクの形状を特定するデータがユーザによって入力可能になっていてもよい。この場合、ソフトウェアマスク算定部76は、入力されたハードウェアマスクの形状を利用して、プロジェクタ16の投影像にかけるべきソフトウェアマスクを算定する。このときの算定方法は、特定されたハードウェアマスクのバイナリパターン利用する場合と同様である。
図18は、本実施形態に係る投影システム10の機能ブロック図である。投影システム10は、複数(本実施形態では12台)の映像出力PC100をさらに備える。映像出力PC100の各々は、複数のプロジェクタ16の各々に対応して設けられ、対応するプロジェクタ16に映像データを出力する。なお図16において映像出力PC100は、CPU、ROM、RAMなどのハードウェア、およびソフトウェアの連携によって実現される機能ブロックが描かれている。したがって、これらの機能ブロックはハードウェアおよびソフトウェアの組合せによって様々な形で実現することができる。
記憶部106には、映像生成用PC50によって作成された映像データが格納される。また、記憶部106には、マスク算定用PC70によって算定されたソフトウェアマスクが格納される。映像出力PC100は、ネットワークを介してこれらのデータを映像生成用PC50およびマスク算定用PC70から受信してもよい。
映像生成部102は、映像生成用PC50によって作成された映像データを使って、プロジェクタ16の各々へ入力すべき映像データを生成する。このとき、映像生成部102は、プロジェクタ16による全体投影像における重複領域内外の明度の差を減少させるよう、マスク算定用PC70によって算定されたソフトウェアマスクをかけて、プロジェクタ16の各々へ入力すべき映像データを生成する。ハードウェアマスク110を設けても生じる重複領域内外の明度の差を抑制することができる。このため、プロジェクタ16を用いる場合においても、滑らかな合成映像を投影することができる。
なお、映像生成部102は、複数のハードウェアマスク110の形状を利用して算定されたソフトウェアマスクをかけて、プロジェクタ16の各々へ入力すべき映像データを生成する。このように予めソフトウェアマスクを算定しておくことで、簡易に重複領域内外における明度の差を抑制することができる。このため映像データ生成時における映像生成部102における負担を軽減させることができる。
映像出力部104は、生成された映像データを対応するプロジェクタ16に出力する。プロジェクタ16は、映像生成用PC50から入力された映像データに基づく映像を全球スクリーン12に投影する。これにより、複数のプロジェクタ16で全球スクリーン12の略全域に合成映像を投影することができる。
ハードウェアマスク110の各々は、プロジェクタ16の各々に対応して設けられる。ハードウェアマスク110の各々は、算定されたバイナリパターンにしたがった形状に形成される。このようにハードウェアマスク110を設けることによって、プロジェクタ16により黒色の投影像が形成されたときにおける重複領域内外の明度の差を減少させるよう、対応するプロジェクタから照射される重複領域への照射光量を減少させる。これにより、上述の「黒問題」の発生を回避することが可能となる。
本発明は上述の各実施形態に限定されるものではなく、各実施形態の各要素を適宜組み合わせたものも、本発明の実施形態として有効である。また、当業者の知識に基づいて各種の設計変更等の変形を各実施形態に対して加えることも可能であり、そのような変形が加えられた実施形態も本発明の範囲に含まれうる。以下、そうした例をあげる。
本実施形態に係る投影システムの全体構成図である。 図1の視点Pから投影システムを見た図である。 図2の視点Qから投影システムを見た図である。 第1プロジェクタ〜第12プロジェクタによって全球スクリーンに形成される合成映像を示す図である。 プロジェクタの各々に出力するための映像データを生成する映像生成用PCの機能ブロック図である。 プロジェクタに出力すべき映像データを生成する手順を示すフローチャートである。 キューブマップ映像を利用して映像データを生成するときの概念図である。 ソフトウェアマスクを算定するマスク算定用PCの機能ブロック図である。 本実施形態に係る投影システムにおけるソフトウェアマスクの算定手順を示すフローチャートである。 重複領域の特定手順を示す図である。 算定された重複ブレンディングマスクの一例を示す図である。 図11に示す投影領域から境界線を抽出した状態を示す図である。 図12で特定した重複領域を利用して算定した初期ブレンディングマスクを示す図である。 生成された最終ブレンディングマスクを示す図である。 最終ブレンディングマスクの一例を示す図である。 図15に示す最終ブレンディングマスクをもとに作成したハードウェアマスクのバイナリパターンを示す図である。 図16に示すハードウェアマスクのバイナリパターンに対し、再計算して得たソフトウェアマスクを示す図である。 本実施形態に係る投影システムの機能ブロック図である。
符号の説明
10 投影システム、 12 全球スクリーン、 14 通路、 16A〜16L プロジェクタ、 50 映像生成用PC、 52 プロジェクタパラメータ取得部、 54 映像生成部、 56 記憶部、 60 キューブマップ映像、 70 マスク算定用PC、 72 プロジェクタパラメータ取得部、 74 重複領域特定部、 76 ソフトウェアマスク算定部、 78 ハードウェアマスク特定部、 100 映像出力PC、 102 映像生成部、 104 映像出力部、 110 ハードウェアマスク。

Claims (4)

  1. 球面スクリーンを見る仮想視点を中心として作成されたキューブマップ映像と当該仮想視点から見て同じ映像が、前記仮想視点とは異なる位置に配置されたプロジェクタによって前記球面スクリーンに投影像として形成されるよう、前記プロジェクタへ入力するための映像データを生成する機能をコンピュータに実現させる映像データ生成プログラム。
  2. 前記映像データを生成する機能は、前記仮想視点から見てそのキューブマップ映像と同じ映像が、前記球面スクリーンと同じ球面上に配置されたプロジェクタによって前記球面スクリーンに投影像として形成されるよう映像データを生成する機能を含む請求項1に記載の映像データ生成プログラム。
  3. 前記映像データを生成する機能は、前記球面スクリーンの互いに異なる投影領域に投影像を形成する複数のプロジェクタの各々について、前記仮想視点から見てそのキューブマップ映像と同じ映像が前記複数のプロジェクタの各々によって前記球面スクリーンに投影像として形成されるよう映像データを生成する機能を含む請求項1または2に記載の映像データ生成プログラム。
  4. 前記映像データを生成する機能は、全球スクリーンの略全域に投影像が形成されるよう、前記全球スクリーンの互いに異なる投影領域に投影像を形成する複数のプロジェクタの各々について、前記仮想視点から見てそのキューブマップ映像と同じ映像が前記複数のプロジェクタの各々によって前記球面スクリーンに投影像として形成されるよう映像データを生成する機能を含む請求項3に記載の映像データ生成プログラム。
JP2008230330A 2008-09-08 2008-09-08 映像データ生成プログラム Pending JP2010068059A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008230330A JP2010068059A (ja) 2008-09-08 2008-09-08 映像データ生成プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008230330A JP2010068059A (ja) 2008-09-08 2008-09-08 映像データ生成プログラム

Publications (1)

Publication Number Publication Date
JP2010068059A true JP2010068059A (ja) 2010-03-25

Family

ID=42193288

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008230330A Pending JP2010068059A (ja) 2008-09-08 2008-09-08 映像データ生成プログラム

Country Status (1)

Country Link
JP (1) JP2010068059A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2012017560A1 (ja) * 2010-08-06 2013-09-19 富士通株式会社 画像処理装置および画像処理プログラム
WO2017159063A1 (ja) * 2016-03-14 2017-09-21 ソニー株式会社 表示装置並びに情報処理端末装置
CN111953863A (zh) * 2020-08-07 2020-11-17 山东金东数字创意股份有限公司 一种异型led点对点视频抽点映射系统和方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10105734A (ja) * 1996-08-30 1998-04-24 Internatl Business Mach Corp <Ibm> 鏡面レンダリング方法及び装置
JP2003009039A (ja) * 2001-06-27 2003-01-10 Namco Ltd 画像表示装置、画像表示方法、情報記憶媒体および画像表示プログラム
JP2004086603A (ja) * 2002-08-27 2004-03-18 Toppan Printing Co Ltd 仮想空間画像生成装置及び画像表示装置
JP2006098574A (ja) * 2004-09-29 2006-04-13 Hitachi Ltd 映像表示システムおよび映像投映装置設置方法
JP2006229768A (ja) * 2005-02-18 2006-08-31 Matsushita Electric Works Ltd 映像信号処理装置及び該方法並びに仮想現実感生成装置
JP2007148416A (ja) * 2003-03-26 2007-06-14 Matsushita Electric Works Ltd 輝度フィルターの作成方法、および仮想空間生成システム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10105734A (ja) * 1996-08-30 1998-04-24 Internatl Business Mach Corp <Ibm> 鏡面レンダリング方法及び装置
JP2003009039A (ja) * 2001-06-27 2003-01-10 Namco Ltd 画像表示装置、画像表示方法、情報記憶媒体および画像表示プログラム
JP2004086603A (ja) * 2002-08-27 2004-03-18 Toppan Printing Co Ltd 仮想空間画像生成装置及び画像表示装置
JP2007148416A (ja) * 2003-03-26 2007-06-14 Matsushita Electric Works Ltd 輝度フィルターの作成方法、および仮想空間生成システム
JP2006098574A (ja) * 2004-09-29 2006-04-13 Hitachi Ltd 映像表示システムおよび映像投映装置設置方法
JP2006229768A (ja) * 2005-02-18 2006-08-31 Matsushita Electric Works Ltd 映像信号処理装置及び該方法並びに仮想現実感生成装置

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2012017560A1 (ja) * 2010-08-06 2013-09-19 富士通株式会社 画像処理装置および画像処理プログラム
JP5500255B2 (ja) * 2010-08-06 2014-05-21 富士通株式会社 画像処理装置および画像処理プログラム
US8817079B2 (en) 2010-08-06 2014-08-26 Fujitsu Limited Image processing apparatus and computer-readable recording medium
WO2017159063A1 (ja) * 2016-03-14 2017-09-21 ソニー株式会社 表示装置並びに情報処理端末装置
JPWO2017159063A1 (ja) * 2016-03-14 2019-01-17 ソニー株式会社 表示装置並びに情報処理端末装置
US10455184B2 (en) 2016-03-14 2019-10-22 Sony Corporation Display device and information processing terminal device
CN111953863A (zh) * 2020-08-07 2020-11-17 山东金东数字创意股份有限公司 一种异型led点对点视频抽点映射系统和方法

Similar Documents

Publication Publication Date Title
JP7395577B2 (ja) 再投影フレームのモーションスムージング
JP5366547B2 (ja) 立体視表示装置
US20110050685A1 (en) Image processing apparatus, image processing method, and program
KR100349483B1 (ko) 폴리곤이분할되는화상처리
JPH0344780A (ja) テクスチャマッピング方法
JP2010050542A (ja) 投写型表示装置および表示方法
JP7387434B2 (ja) 画像生成方法および画像生成装置
WO2014033886A1 (ja) 画像処理装置、画像処理方法、及びプログラム
JP2009080578A (ja) 多視点データ生成装置、方法及びプログラム
JP6403393B2 (ja) 画像生成装置
US8854392B2 (en) Circular scratch shader
JP2002071315A (ja) 投影平面計測システム
JP2008180797A (ja) 画像表示装置、画像表示装置の制御方法、及びコンピュータプログラム
JP6852224B2 (ja) 全視角方向の球体ライトフィールドレンダリング方法
JP2010068059A (ja) 映像データ生成プログラム
JP2010066327A (ja) ソフトウェアマスク算定プログラムおよび投影システム
JP6396022B2 (ja) 出力画像を生成する装置
JP2006311080A (ja) テクスチャ画像生成方法、画像処理装置、プログラム及び記録媒体
CN116958431A (zh) 一种三维模型的贴图方法及装置
JP2007328458A (ja) 画像生成用のプログラム及び当該プログラムを記録したコンピュータ読み取り可能な記録媒体、画像処理装置、画像処理方法
JP2010033397A (ja) 画像合成装置および方法
US11120606B1 (en) Systems and methods for image texture uniformization for multiview object capture
JP5146054B2 (ja) 仮想空間における音源より発生される音の生成制御プログラム
JPH11242753A (ja) 3次元描画方法および装置
JP2005165283A (ja) 地図表示装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100727

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100810

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120507

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120515

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120717

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130226