JP4645142B2 - インテグラル・フォトグラフィ画像生成方法 - Google Patents

インテグラル・フォトグラフィ画像生成方法 Download PDF

Info

Publication number
JP4645142B2
JP4645142B2 JP2004294809A JP2004294809A JP4645142B2 JP 4645142 B2 JP4645142 B2 JP 4645142B2 JP 2004294809 A JP2004294809 A JP 2004294809A JP 2004294809 A JP2004294809 A JP 2004294809A JP 4645142 B2 JP4645142 B2 JP 4645142B2
Authority
JP
Japan
Prior art keywords
data
image
coordinate axis
voxel data
projection image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004294809A
Other languages
English (en)
Other versions
JP2006107242A (ja
Inventor
奈津志 小野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2004294809A priority Critical patent/JP4645142B2/ja
Publication of JP2006107242A publication Critical patent/JP2006107242A/ja
Application granted granted Critical
Publication of JP4645142B2 publication Critical patent/JP4645142B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は複数の物体からなる立体像を得るためのインテグラル・フォトグラフィ画像生成方法に関する。
立体感を与える画像は、例えば非特許文献1や非特許文献2などに記述されているように、立体感を得る視覚効果によりいくつかの種類に分類される。その中で実際に物体31を見るときと同じ視覚効果を再現することで立体像を観察できるフォログラフィ等が一般的に知られている。
これらの方式の一つとして、インテグラル・フォトグラフィ(Integral Photography、以下「IP」と略す)が知られている。このIP方式は1908年にリップマン(Lippmann)によって発明され、その歴史は古い。これは密に並べられたフライアイ・レンズアレイを通して立体像の撮影・表示を行うものであり、特殊なメガネなどを装着せずに自然な3次元画像が観察できることから最近注目されている。
IPの基本原理を図11に示す。撮影には小さい凸レンズを規則的に配列したフライアイ・レンズ(ハエの目レンズ)と呼ばれるフライアイ・レンズアレイ(複眼状のレンズ)31を用いる。フライアイ・レンズアレイ31の各凸レンズ毎にフィルム32上に物体33の要素画像34が結像され、記録される。再生時にはフィルム32を現像し、そのまま元の位置に置き、背面から照明してフライアイ・レンズアレイ31越しに観察すると観測者35は立体像36を見ることができる。フィルム32上に記録された要素画像34の各点は、表示に際してはフライアイ・レンズアレイ31の各凸レンズを介して元の物体33の対応する点に集束するため、観察者35から見ると実際にその点から光が発しているように見える。つまり、観察者35には物体33があった空間に実像が形成され、あたかもそこに実物があるように見え、視線の動きに応じてこの立体像36の見える部分が変化するように見える。
ただし、このままでは立体像36の奥行きが逆転する現象が生じる。すなわち凹凸が逆の像が得られる。これは再現された光線が立体像36の方に逆行し、図11において物体33の右から撮影したのに関わらず、左側から観察することになるからである。このため、図12に示された要素画像34を変換する手順を追加する。つまり、単なる凸レンズでは倒立像になるので、正立像に変換する処理を光軸に対称に行う。
IP方式では立体像36の解像度の上限は観察者から見たフライアイ・レンズアレイ31のレンズ密度で決まるため、画質の確保にはフライアイ・レンズアレイ31を構成する多数のレンズ(つまり多数の要素画像34)が必要である。また、各要素画像34にも一定の画素数が必要になるため、全体として多くの画素が必要となる。
このようなIP方式による立体像36を得るための処理画像(以下「IP画像」という)を、実際の物体33から光学的な手法により得るのではなく、CG(コンピュータ・グラフィクス=Computer Graphicsの略)などの仮想的に描かれた画像を元にして作成することが今後広く行われると予想される。この場合、仮想的に描かれた画像の3次元座標の各座標成分や各物体の色情報等の固有情報からなる多次元データ、すなわちボクセルデータを作成したのち、そのボクセルデータにレンダリングと呼ばれる画像処理を施すことによりIP画像が得られる。このIP画像のレンダリングは、前述のフィルム32と実際の物体33を用いて行う光学的なアナログ処理に相当する部分を、数学的な計算を用いたデジタル処理によってCG画像に対し擬似的に行うもので、例えばコンピュータ上で動作するプログラムや専用のハードウェア回路等により実現される。このようにして得られたIP画像は解像度が非常に高く高精細であり、従来のものよりさらに自然な立体像36が観察でき、高い臨場感や没入感が体験できる。
「3次元画像工学」大越 考敬:著、朝倉書店 「立体視の不思議を探る」井上 弘:著、オプトロニクス社
前述のボクセルデータは、例えばX,Y,Zの3次元座標やR,G,Bの色情報等で構成される。このボクセルデータを生成する一つの方法として平行投影画像を元に行うことが知られている。平行投影画像とは、従来の光学的な処理で言えば平行光を物体に当てることによって得られる画像に相当するものである。
しかしながら、平行投影画像からでは視線方向に平行に近い向きをもった凹面のボクセルデータを得ることができない。例えば、視線方向に配置した筒状の物体のボクセルデータを作成する場合、平行投影画像では筒の側面が視線と平行になり見ることができないので、筒の側面のボクセルデータを生成することができない。
そこで、ボクセルデータを生成する他の方法として透視投影画像を元に行う。透視投影画像とは、従来の光学的な処理で言えばある一点から出された放射光を3次元の物体に当てることによって得られる画像に相当するものである。
ここで複数の物体が前後に重なりあった状態を表現する透視投影画像を元にIP画像を作成する場合について考えてみる。この場合、見る角度の変化に伴ってある物体の後ろにある物体や背景が見えたり隠れたりするようなIP画像を作成しなければならない。
しかしながら、透視投影画像においては手前に配置された物体によって隠された後方の物体に関する情報が存在しないので、これらの部分についてはボクセルデータが生成できない。その中には視点の角度や位置が透視投影画像の作成時からずれたときに観察されなければならない部分も含まれているが、これらの部分に関してはボクセルデータがないため完全なIP画像が作成できない。
したがって、これらの部分は視点の角度や位置を透視投影画像の作成時からずらしたときに白抜けの状態となり、フライアイ・レンズを通して観察される立体像は不自然なものとなってしまう。
なお、この問題は平行投影画像を用いた場合でも同様である。そして以上に述べた2つの問題は、CG画像だけでなく、従来のアナログ写真技術により得られる画像についても起こる。
CG画像の場合、仮想的な3次元空間座標(以下「グローバル座標」という)の全ての座標点について各物体や構成物の位置や色情報等のデータを保有していれば、それらがそのままボクセルデータとなる。しかしながら、これではボクセルデータを保持するのに必要な記憶容量やIP画像を作成するための作業用メモリの容量が多く必要とされ、IP画像を得るまでの処理時間も多く必要とされる。これらの容量や処理時間は画像のサイズが大きくなり解像度が上がるにしたがって3次級数的に増大する。
特に、このような立体像を遠隔地に提供する場合、表示できるIP画像のサイズやフライアイ・レンズの仕様が受信側の端末により異なることが予想される。この場合は受信側で必要な領域のボクセルデータを選択し、その選択されたボクセルデータを元に受信側でIP画像が生成されなければならない。そのために必要とされるハードウェア資源やソフトウェア資源はなるべく小さく、受信開始から表示までの時間も短時間であることが望まれる。つまり、受信側の端末においては、一時的にバッファリングするボクセルデータやIP画像への変換処理に必要なワーク・メモリ、ハードウェア処理回路のゲート規模などがなるべく小さく、順次処理でIP画像が生成される方がよい。
本発明はこれらのような従来の課題を解決するためになされたもので、複数の構成物からなる立体像を得るためのIP画像を作成する際にデータ容量やメモリ容量および処理時間が少なくてすみ、不自然さのない立体像が観察できるようにすることを目的とする。
本発明のIP画像生成方法は上記目的を達成するために、複数の物体の一部または全部が3次元空間座標および物体の固有情報を用いて表現された投影画像データからボクセルデータを作成し、画像をレンダリングするインテグラル・フォトグラフィ画像生成方法であって、前記投影画像データX座標軸成分とY座標軸成分とを含む第1のデータと、Z座標軸成分と前記投影画像データのR、G、Bの3つの色情報成分とを含み前記Z座標軸成分をデータの先頭にした第2のデータとに分離する分離部と、前記投影画像データ、前記ボクセルデータを処理する処理部と、前記ボクセルデータを記憶する記憶部とを備え、前記分離部が前記投影画像データから前記第1のデータと前記第2のデータとに分割するステップと、前記処理部が前記第1のデータと前記第2のデータとのXYZ座標をレンダリングを行う際に使用するグローバル座標であるxyz座標に変換し、前記第2のデータ、前記第1のデータの順に配置したボクセルデータをz座標軸成分の大きい順に記憶部の先頭から記憶し、前記記憶部の先頭のボクセルデータから順に用いて画像のレンダリングを行うステップとを有し、前記投影画像データは、投影領域のうち最遠面から最近面までの距離と前記最近面から透視視点までの距離とが等しくWとなり、前記最近面における物体の幅がWのとき前記最遠面における物体の幅を2Wと見えるような投影条件で前記XYZ座標軸成分が決められ、さらに前記Z座標軸成分は前記最近面の値を0とし前記最遠面の値が255となるように正規化され、前記XYZ座標軸成分から前記xyz座標軸成分への変換は所定の関係式により行うものである。この構成によりIP画像のレンダリング中に余計な判定処理が加わったり書き換えミスを起こしたりすることなく、後方にある物体から順にレンダリングが行われる。
本発明のIP画像生成方法によれば、IP画像のレンダリング中に余計な判定処理が加わったり書き換えミスを起こしたりすることなく、後方にある物体から順にレンダリングが行われるので、複数の構成物からなる立体像を得るためのIP画像を作成する際にデータ容量やメモリ容量および処理時間が少なくてすみ、不自然さのない立体像が観察できるようになる。
本発明のIP画像生成方法は、複数の物体の一部または全部が3次元空間座標および物体の固有情報を用いて表現された投影画像データからボクセルデータを作成し、画像をレンダリングするインテグラル・フォトグラフィ画像生成方法であって、前記投影画像データX座標軸成分とY座標軸成分とを含む第1のデータと、Z座標軸成分と前記投影画像データのR、G、Bの3つの色情報成分とを含み前記Z座標軸成分をデータの先頭にした第2のデータとに分離する分離部と、前記投影画像データ、前記ボクセルデータを処理する処理部と、前記ボクセルデータを記憶する記憶部とを備え、前記分離部が前記投影画像データから前記第1のデータと前記第2のデータとに分割するステップと、前記処理部が前記第1のデータと前記第2のデータとのXYZ座標をレンダリングを行う際に使用するグローバル座標であるxyz座標に変換し、前記第2のデータ、前記第1のデータの順に配置したボクセルデータをz座標軸成分の大きい順に記憶部の先頭から記憶し、前記記憶部の先頭のボクセルデータから順に用いて画像のレンダリングを行うステップとを有し、前記投影画像データは、投影領域のうち最遠面から最近面までの距離と前記最近面から透視視点までの距離とが等しくWとなり、前記最近面における物体の幅がWのとき前記最遠面における物体の幅を2Wと見えるような投影条件で前記XYZ座標軸成分が決められ、さらに前記Z座標軸成分は前記最近面の値を0とし前記最遠面の値が255となるように正規化され、前記XYZ座標軸成分から前記xyz座標軸成分への変換は所定の関係式により行うものである。
これにより、IP画像のレンダリング中に余計な判定処理が加わったり書き換えミスを起こしたりすることなく、後方にある物体から順にレンダリングが行われるので、複数の構成物からなる立体像を得るためのIP画像を作成する際にデータ容量やメモリ容量および処理時間が少なくてすみ、不自然さのない立体像が観察できるようになる。
以下、本発明の具体的な内容について実施例を用いて説明する。
(実施例1)
図1は本発明の実施の一形態における最終ボクセルデータを生成するための処理を示すフローチャートである。このフローチャートは、例えば図2に示す構成を有するIP画像生成回路またはその回路を搭載した装置におけるプログラムソフトウェアとして実現される。
図2のIP画像生成回路は、CPU11、ROM12、RAM13、透視投影画像データ入力I/F(「I/F」は「インタフェース」の略。以下同じ。)14、データ分離部15、RAMアドレス生成部16、4次元ベクトルレジスタ部17、ボクセルデータ生成部18、最終ボクセルデータ出力I/F19で構成され接続されている。このうち、CPU11、ROM12、RAM13、RAMアドレス生成部16、4次元ベクトルレジスタ部17、ボクセルデータ生成部18、最終ボクセルデータ出力I/F19については、CPU11のアドレス線およびデータ線22によって接続されている。ROM12にはCPU11を用いて各部を動作させるためのプログラムが格納されており、その中には図1のフローチャートがソフトウェアとして実現されたプログラムも含まれている。これにより複数の透視投影画像データ20から最終ボクセルデータ21が生成される。RAM13には最終ボクセルデータ21を出力するまでに必要な作業メモリ領域などが含まれる。
なお、本実施例1の図2のIP画像処理回路は32ビット処理を想定しているが、本発明のIP画像処理方法はこのビット数の処理に限らない。また、この他の実現方法としては、例えばパーソナル・コンピュータ(以下「PC」と略する。)上で動作するソフトウェアや、図1のフローチャートをハードウェア化したPC用拡張ボード、IP画像表示装置や受信端末等でゲートアレイ等の専用回路として実現されることが考えられる。
図3は図1のフローチャートによって示された最終ボクセルデータ21の生成処理を実行するための透視投影画像で、その中心を視点とする透視投影座標で表現された画像CGである。四角い箱1の中に5個の球2〜6が配置され、このうちの1個の球2が他の球3〜6の手前に配置された状態が表現されている。図3からわかるように、透視投影画像は視線が平行でなく放射状のため、四角い箱1の内部の側面を表現することができる。このような状態を表す図3に示す透視投影画像のボクセルデータを、図1のフローチャートに示す処理を用いて生成する。
本発明の特徴の一つとして、図3に示すものを含め複数の透視投影画像を作成する。図3の透視投影画像は、CG画像の場合、グローバル座標(x,y,z)とそれぞれの色情報(R,G,B)によって表現された仮想的な3次元画像を元に、例えばPC上で動作する汎用のCG画像作成ソフトウェアによって作成される(その詳細な手順についてはここでは省略する)。したがって、後ろ側に配置された4個の球3〜6がその手前に配置された1個の球2の影に隠れた部分および四角い箱1の内部が5個の球2〜6の影に隠れた部分については各透視投影画像には表示されていないものの、それらのグローバル座標データや色情報データなどは、PCの内部にあるメモリやハードディスク(いずれも図示せず)等に保持されている。
従って、図3の中に示された各物体を視線方向で分割し、一部の物体のみを表現する透視投影画像を新たに作成することは可能である。本実施例1では図3に示された全ての物体がそろった状態の透視投影画像のほかに、図4および図5に示された透視投影画像を用意する。図4は図3を構成する複数の物体のうち手前に配置された1個の球2のみが無い状態の透視投影画像である。図5は図3を構成する複数の物体のうち四角い箱1の内部のみが表現された透視投影画像である。ただし、本発明において図1のフローチャートによる処理にかけられる複数の透視投影画像はこの限りではない。例えば図3に示される全ての物体がそろった状態の透視投影画像の代わりに、手前の球2と四角い箱1の内部のみが表現された透視投影画像を用いてもよい。
このように本実施例1によれば、複数の透視投影画像を用いることによりこの後のIP画像のレンダリング時において必要最低限のボクセルデータのみが選択されるようになる。つまり、最終的に作成されたIP画像を用いて立体像を観察するときにいくら視線を変えても全く見えない部分(例えばそれぞれの球2〜6の背面)のボクセルデータはIP画像のレンダリング時に選択されないので、レンダリングの処理に用いられるボクセルデータの全体量が少なくなり、その処理時間を短くすることができる。
なお、各物体(すなわち本実施例1における球2〜6)は少なくともいずれかの透視投影画像の中に表現されるようにする。同じ物体が複数の透視投影画像の中に表現されるのは特に構わない。これにより、最終的に作成されたIP画像を用いて立体像を観察する際に、視点の変化に対応して後方の物体の一部が前方の物体に隠れたり見えたりするようになり、不自然さのない立体像が観察できるようになる。
また、これらの透視投影画像を作成する際には、物体に対する透視視点の角度(以下「画角」という)や投影面と視点との距離等について決められた投影条件に基づいて投影を行うことが必要である。これにより、後に示す最終ボクセルデータ21の作成時において、これらの透視投影画像のデータからそれぞれの物体の各部位におけるグローバル座標(x,y,z)の値が一意にかつ即座に得られるので、透視投影画像のデータ量を少なくすることができ、これらのデータを一時的に記憶するためのメモリ量が少なくてすむ。この時点でも先ほどの投影条件が必要とされるため、投影条件は透視投影画像の作成後も保存しておくことが望ましい。
本実施例1においては、図6に示された投影条件に基づいて投影を行っている。すなわち、透視投影画像の投影領域のうち最遠面Aから最近面Bまでの距離aと最近面Bから視点Pまでの距離bとが等しくWとなるようにし、画角は最近面Bにおいて幅Wを有するものが最遠面においては幅2Wに見えるように設定する。透視投影座標(X,Y,Z)のXY面のアスペクト比は簡単のために1:1にしてある。なお、透視投影座標(X,Y,Z)のZ座標の値は最近面Bのそれを0とし、最遠面Aと最近面Bとの間で0〜255までの256値に正規化されている。透視投影座標(X,Y,Z)のX座標およびY座標については、例えば各透視投影画像のデータが保存されるメモリのアドレス番地および画像サイズとの関係を計算式によって表すことにより、それらの値の保存が不要となる。各透視投影画像の投影面は最近面Bである。なお、本発明のIP画像形成方法に用いられる透視投影画像の投影条件は図6で示されたものには限らない。
これら図3〜図5に示された複数の透視投影画像と図1の最終ボクセルデータ21を生成するための処理を示すフローチャートおよびこのフローチャートがプログラムソフトウェアとして動作するIP画像生成回路を示す図2のブロック図を用いて、最終ボクセルデータ21を生成する処理過程について説明する。
まず、図2のROM12に格納されたプログラムにより、図3〜図5に示された複数の透視投影画像の画像データ20a〜20c(本実施例1においては透視投影画像データは3つである。)が図2の透視投影画像データ入力I/F11に対して順次入力される。本実施例1においては、各透視投影画像データ20a〜20cは透視投影座標(X,Y)の各点におけるZ座標の値および色成分の値(R,G,B)によって構成されているものとする。すなわち、透視投影座標のそれぞれの点は(X,Y,Z,R,G,B)の6成分で表現されている。
また、これらのデータはそれぞれ256値=8ビットのデジタル・データとして表現されているものとする。各透視投影画像データ20a〜20cが透視投影画像データ入力I/F14へ読み込まれる(以下「ロードされる」という。)順番は、例えば図7に示すように、通常の2次元画像をレーザプリンタで形成する際の露光順とする。すなわち、図7においてt1→・・・→t2→t3→・・・→t4→・・・→t(h−1)→thの順である。
なお、本実施例1において透視投影画像データ20a〜20cの各画素数はそれぞれn個ずつあるものとする。本実施例1においては図3〜図5に示される3つの透視投影画像が用いられるので、全ての透視投影画像データ20a〜20cの合計画素数は3n個となる。
このようにして透視投影画像データ入力I/F14へロードされた各透視投影画像データ20a〜20cは、データ分離部15において透視投影座標のX成分およびY成分からなるデータ(X,Y)とそれ以外の成分からなる4次元ベクトルデータ(Z,R,G,B)とに分離される。そして、透視投影座標のX成分およびY成分からなるデータ(X,Y)についてはRAMアドレス生成部16へ渡され、4次元ベクトルデータ(Z,R,G,B)については4次元ベクトルレジスタ部17へ渡され一時的に保持される。
RAMアドレス生成部16には、例えばあらかじめ透視投影座標のX成分およびY成分からなるデータ(X,Y)からRAM13での保管先アドレスを計算するための変換式がハードウェアロジックとして実装されている。(あるいは、この変換式はあらかじめROM12や外部のPCより与えられるようにしてもよい。)透視投影画像データ入力I/F14へロードされた各透視投影画像データ20a〜20cは、このRAMアドレス生成部16においてRAM13での保存先アドレスが計算された後、4次元ベクトルレジスタ部17に一時的に保持された4次元ベクトルデータ(Z,R,G,B)がRAM13に保存される。なお、4次元ベクトルデータ(Z,R,G,B)は8ビット×4=32ビットなので、1つの4次元ベクトルデータについて1ワードのメモリで格納できる。本実施例1においては、図8に示される4次元ベクトルデータの格納メモリ空間のm番地を先頭に順次保存されるものとする。
一つの画素の透視投影画像データについて4次元ベクトルデータ(Z,R,G,B)の生成およびRAM13への保存が終わったら、次の画素の透視投影画像データをロードし、以上に述べた処理とRAM13への保存が同様に行われる。一つの透視投影画像を構成する全ての透視投影画像データ20aについて4次元ベクトルデータ(Z,R,G,B)の生成およびRAM13への保存が終了したら、残りの透視投影画像データ20bおよび20cについても同じように繰り返し、全ての透視投影画像データ20a〜20cについて4次元ベクトルデータ(Z,R,G,B)の生成およびRAM13への保存を終了する。
次に、これらの4次元ベクトルデータ(Z,R,G,B)からの最終ボクセルデータ21の作成を開始する。
まず、最終ボクセルデータ作成プログラムの変数iを0にセットし、変数rを変数iと同じ値とする(図1のS001およびS002。この場合rも0である)。次に、RAM13のm+i番地(最初はm番地)に保存されたi番目(最初は0番目から数える)の4次元ベクトルデータ(Z,R,G,B)がボクセルデータ生成部18にロードされ(図1のS003)、この4次元ベクトルデータ(Z,R,G,B)のZの値がグローバル座標(x,y,z)におけるzの値へと座標変換される(図1のS004)。そして、この4次元ベクトルデータ(Z,R,G,B)が保存されていたメモリのアドレス番地m+iとその4次元ベクトルデータ(Z,R,G,B)の元になる透視投影画像の画像サイズの情報(あらかじめPC等よりロードされている)等を元に透視投影座標(X,Y,Z)におけるX座標およびY座標の値が計算された後、グローバル座標(x,y,z)におけるxおよびyの値へとそれぞれ座標変換され、ボクセルデータ生成部18の内部にあるレジスタ(図示せず。このレジスタは以降「比較基準用レジスタ」と呼ぶ。)に一時的に保持される(図1のS005)。
投影座標(X,Y,Z)からグローバル座標(x,y,z)への座標変換は以下のように行われる。前述の図6に示された投影条件により、正規化される前のZの値(以下「D」とする)が以下のように計算される。
D=Z×W/256
最近面BにおけるDの値は0のままである。透視投影座標(X,Y,Z)の各座標点において、Zの値から変換されたDの値を元に、グローバル座標(x,y,z)の各座標の値が以下のように計算される。
x=D×X/W
y=D×Y/W
z=D
本実施例1においては透視投影画像の作成時の投影条件を図6のように単純にしたので、投影条件から導き出される各透視投影画像から部分ボクセルデータへの座標変換式も単純なものとなっている。これにより座標変換の処理時間が少なくてすみ、IP画像の生成時間を短くすることができる。
これらの座標変換後に変数rが0かどうか判定(図1のS006)され、もしr=0であれば(最初の4次元ベクトルデータについては常にr=0である。)、図8のメモリ空間のm+i番地に保存されていた4次元ベクトルデータはグローバル座標(x,y,z)におけるi番目(先頭は0番目から始まる。)の最終ボクセルデータ21(x,y,z,R,G,B)となって再びRAM13へ書き込まれ(以下「ライトされる」と表す。)保存される(図1のS007およびS008)。このときにライトされるメモリ空間は図9に示す通りであり、先頭のボクセルデータはp番地から保存される。
なお、ボクセルデータ(x,y,z,R,G,B)は8ビット×6=48ビットなので、1つのボクセルデータについて2ワードのメモリが必要である。本実施例1においては、(z,R,G,B)についてはRAM13のp+2r番地へライトされ、(x,y)についてはp+2r+1番地にライトされる(先頭のボクセルデータはp番地およびp+1番地である)。
こうして1つのボクセルデータのRAM13への保存が終了したら、変数iをインクリメントしi=i+1とする(図1のS009)。次に未処理の4次元ベクトルが残っていないかどうかを知るためにi=3nであるかどうかを判定する(図1のS010)。i=3nであれば未処理のデータが無いことになるので最終ボクセルデータ21の生成を終了するが、最初(すなわちi=0+1=1)の場合は当然i≠3nであるので、次の番地に格納された4次元ベクトル(z,R,G,B)について図1のS002からのフローが繰り返される。
1番目以降の4次元ベクトル(z,R,G,B)に関しては、図1のS006での判定処理においてr≠0の場合が存在する。r=0の場合は上述の図1におけるS007〜S010までの処理が繰り返されるが、r≠0の場合はRAM13のp+2r−2番地およびp+2r−1番地よりそれぞれ格納されているボクセルデータ(z,R,G,B)と(x,y)の値をボクセルデータ生成部18にロードし、その内部にある先ほどの比較基準用レジスタとは別レジスタ(図示せず。以降「比較対象用レジスタ」と呼ぶ。)に保持し(図1のS011およびS012)、このレジスタに保持したr−1番目のボクセルデータの中に含まれているz成分の値と先の比較基準用レジスタに保持したi番目のボクセルデータの中に含まれているz成分の値とを取り出して比較する(図1のS013)。
ここでもし、i番目の4次元ベクトルから生成され比較基準用レジスタに保持されているボクセルデータのz成分値が比較対象用レジスタに保持されているr−1番目のボクセルデータのz成分値と同等かもしくはそれよりも小さければ上述の図1におけるS007〜S010までの処理が繰り返される。つまりその時点で図9のメモリ空間の最後列となるアドレス番地(つまりp+2r番地およびp+2r+1番地)に対して比較基準用レジスタに保持されているボクセルデータがライトされる。
これに対し、比較基準用レジスタに保持されているボクセルデータのz成分値が比較対象用レジスタに保持されているボクセルデータのz成分値よりも大きければ、比較基準用レジスタに保持されたr−1番目のボクセルデータがp+2r番地およびp+2r+1番地にライトされる(図1のS014およびS015)。すなわち、r−1番目にあったボクセルデータを一つ後ろにずらしr番目のボクセルデータとすることになる。
その後、変数rはr=r−1によりデクリメントされ(図1のS016)、図1のS006からの処理が繰り返される。
以上のような処理を行うことにより、各ボクセルデータはそのz成分の値の大きい順に配列されながらRAM13にライトされ、最終ボクセルデータ21が生成される。すなわち、各透視投影画像についての4次元ベクトルデータ(Z,R,G,B)における透視投影座標からグローバル座標(すなわち仮想的な3次元空間座標)への座標変換、各透視投影画像についての4次元ベクトルデータ(Z,R,G,B)から部分ボクセルデータ(x,y,z,R,G,B)の生成、それらの部分ボクセルデータの結合およびその結合されたボクセルデータのグローバル座標(x,y,z)におけるz成分の値(すなわち視線方向に沿った座標軸成分の値)についての並べ替えが同時に1回の処理で行われる。これにより、それらの工程途中での一時記憶領域の記憶容量が少なくて済むので、少ない記憶容量しか持たない装置においても最終ボクセルデータ21を形成することが可能となる。
なお、図6に示された透視投影画像の投影条件を用いて各透視投影画像から部分ボクセルデータ(x,y,z,R,G,B)を生成するようにした効果は、各透視投影画像を表現する4次元ベクトルデータ(Z,R,G,B)の次元数の少なさに現れている。もし、このような投影条件を用いなければ、各透視投影画像を表現するデータは、ボクセルデータと同じ6次元でなければならない。各座標成分を256値=8ビットで示した場合、ボクセルデータと同じ6次元であれば1座標あたり48ビット必要であるが、4次元ベクトルデータであれば32ビットとなり、16ビット少ない。
これにより透視投影画像のデータ量を少なくすることができ、これらのデータを一時的に記憶するためのメモリ量が少なくてすむ。また、近年のパーソナル・コンピュータは32ビット処理や64ビット処理のため、4次元ベクトルデータであれば区切りがよく、RAM13の記憶領域を無駄なく使用することができ、効率よく処理を行うことができる。
また、前述の比較基準用レジスタおよび比較対象用レジスタをボクセルデータ生成部18に設ける代わりに、RAM13の中に設けられたCPU11の作業用メモリ領域の中にそれぞれの一時記憶アドレスを確保するようにしてもよい。
さらにRAM13においては、図8に示される4次元ベクトルデータの記憶領域と図9に示される最終ボクセルデータ21の記憶領域とを共用化することも可能である。この場合、必要な記憶容量は最終ボクセルデータ21の記憶に必要な量である。これは、最終ボクセルデータ21のそれぞれが2ワード構成であるのに対し、4次元ベクトルデータのそれぞれが1ワード構成であることから明らかである。4次元ベクトルデータの記憶時にこの記憶領域の後半部分のみを使うようにすれば共用化は可能である。これにより4次元ベクトルデータの専用の記憶領域が不要となるので、RAM13の記憶容量はさらに削減される。
または、透視投影画像データ入力I/F14を介して入力するデータを始めから4次元ベクトルデータとし、透視投影画像データ入力I/F14から直接ボクセルデータ生成部18に入力する構成としても、RAM13の記憶容量を最終ボクセルデータ21の記憶に必要な量とすることが可能である。これによりRAM13の記憶容量も削減され、さらにRAMアドレス生成部16および4次元ベクトルレジスタ部17も不要となる。
以上のように生成され、RAM13に保存された最終ボクセルデータ21は、IP画像の作成時にRAM13の最終ボクセルデータ21が保存されている記憶領域の先頭p番地から各ボクセルデータが最終ボクセルデータ出力I/F18を介して順次取り出されてIP画像のレンダリングが行われる。IP画像を形成するのは、例えばPC上で動作するプログラムであってもよいし、電話回線やLANなどの通信線を介して互いに接続された専用のIP立体表示装置であってもよい。このとき、最終ボクセルデータ21をz座標の値の大きい順にソートして並べ替えたことによる効果が発揮される。
最終ボクセルデータ21がz座標の値の大きい順に並んでいるということは、後方にある物体よりIP画像が形成されるということである。本実施例1のように、複数の物体がある視点から見て前後に重なりあうような立体像が観察できるIP画像を作成する場合、以上に述べたような処理を行っていれば、手前の物体に隠された後方の物体のボクセルデータが作成および保存されていることになる。
よって、ある視点からみたIP画像のレンダリングを行っているときにその視線方向に沿って複数の物体が重なった場合、本実施例1のように最終ボクセルデータ21がz座標の値の大きい順に並んでいれば、後方にある物体のIP画像データがレンダリング用の作業メモリ空間にライトされた後、その手前にある物体のIP画像データが先ほどライトされた後方の物体のIP画像データを書き換える。つまり、最終的には一番手前にある物体のIP画像データのみが残るようになる。このようにすることで、IP画像のレンダリング中に余計な判定処理が加わったり書き換えミスを起こしたりすることなく、自然な立体像が観察できるIP画像が作成される。
なお、図2におけるデータ分離部15、RAMアドレス生成部16、4次元ベクトルレジスタ部17、ボクセルデータ生成部18は、ROM12に格納されCPU11上で動作するプログラムソフトウェアとして実現することも可能である。または最終ボクセルデータ21生成までのすべての処理をPC上で動作するプログラムソフトウェアとして実現してもよい。その処理の概要を示すフローチャートを図10に示す。この場合は、各透視投影画像についての4次元ベクトルデータにおける透視投影座標から仮想的な3次元空間座標への座標変換、各透視投影画像についての4次元ベクトルデータから部分ボクセルデータの生成とそれらの部分ボクセルデータの結合およびその結合されたボクセルデータの仮想的な3次元空間座標における視線方向に沿った座標軸成分の値についての並べ替えがそれぞれ個別に処理される。それ以外の部分については図1のフローチャートを用いて上述に説明したものと基本的に同じである。
さらに、最終ボクセルデータ21を保持する記憶領域は、電源が供給されなくても保持できる記憶媒体のほうが好ましい。たとえばRAM13が不揮発メモリであってもよいし、RAM13とは別に不揮発メモリやハードディスク、フロッピー(登録商標)ディスク、光ディスク等を設けた構成としてもよい。
このように、これらのインテグラル・フォトグラフィ画像生成方法がハードウェアまたはソフトウェアまたはそれらの混在形態によって最終ボクセルデータ生成装置または最終ボクセルデータ生成プログラムまたはそれらのいずれかが実装されたインテグラル・フォトグラフィ画像形成装置またはインテグラル・フォトグラフィ画像形成プログラムに実装されれば、最終ボクセルデータ21の生成が短時間で済み、インテグラル・フォトグラフィ画像を短時間で得ることができる。
以上のように本実施例によれば、IP画像のレンダリング中に余計な判定処理が加わったり書き換えミスを起こしたりすることなく、後方にある物体から順にレンダリングが行われるので、複数の構成物からなる立体像を得るためのIP画像を作成する際にデータ容量やメモリ容量および処理時間が少なくてすみ、不自然さのない立体像が観察できるようになる。
以上のように本発明にかかるIP画像形成方法は、複数の物体からなる立体像を得るためのIP画像を作成する際にデータ容量やメモリ容量および処理時間が少なくてすみ、不自然さのない立体像が観察できるところから、例えばIPディスプレイ装置やIP画像を提供するサービスおよびそのサービスに用いられるIP画像受信端末、フォログラム表示装置、建築・デザイン・機構向けフォログラムCAD、コンピュータ上で動作するIP画像生成ソフトウェアなどへの利用が可能である。
本発明の実施の一形態における最終ボクセルデータを生成するための処理を示すフローチャート 図1のフローチャートがプログラムソフトウェアとして動作するIP画像生成回路の一例を示すブロック図 図1のフローチャートによって示された最終ボクセルデータの生成処理を実行するための透視投影画像を示す図 図3を構成する複数の物体のうち手前に配置された1個の球のみが無い状態の透視投影画像を示す図 図3を構成する複数の物体のうち四角い箱の内部のみが表現された透視投影画像を示す図 実施例1における透視投影画像を作成するための投影条件を示す説明図 実施例1における透視投影画像データのロードする順番を示す説明図 RAM13における4次元ベクトルデータの格納メモリ空間を示す説明図 RAM13における最終ボクセルデータの格納メモリ空間を示す説明図 最終ボクセルデータ生成までのすべての処理をPC上で動作するプログラムソフトウェアとして実現した場合の処理の概要を示すフローチャート IPの基本原理を示す図 図11のIPの要素画像を変換する手順を示す説明図
符号の説明
1 四角い箱
2〜6 球
11 CPU
12 ROM
13 RAM
14 透視投影画像データ入力I/F
15 データ分離部
16 RAMアドレス生成部
17 4次元ベクトルレジスタ部
18 ボクセルデータ生成部
19 最終ボクセルデータ出力I/F
20a〜20c 透視投影画像データ
21 最終ボクセルデータ
22 アドレス線およびデータ線
31 フライアイ・レンズアレイ
32 フィルム
33 物体
34 要素画像
35 観測者
36 立体像



Claims (1)

  1. 複数の物体の一部または全部が3次元空間座標および物体の固有情報を用いて表現された投影画像データからボクセルデータを作成し、画像をレンダリングするインテグラル・フォトグラフィ画像生成方法であって、
    前記投影画像データX座標軸成分とY座標軸成分とを含む第1のデータと、Z座標軸成分と前記投影画像データのR、G、Bの3つの色情報成分とを含み前記Z座標軸成分をデータの先頭にした第2のデータとに分離する分離部と、
    前記投影画像データ、前記ボクセルデータを処理する処理部と、
    前記ボクセルデータを記憶する記憶部とを備え、
    前記分離部が前記投影画像データから前記第1のデータと前記第2のデータとに分割するステップと、前記処理部が前記第1のデータと前記第2のデータとのXYZ座標をレンダリングを行う際に使用するグローバル座標であるxyz座標に変換し、前記第2のデータ、前記第1のデータの順に配置したボクセルデータをz座標軸成分の大きい順に記憶部の先頭から記憶し、前記記憶部の先頭のボクセルデータから順に用いて画像のレンダリングを行うステップとを有し、前記投影画像データは、投影領域のうち最遠面から最近面までの距離と前記最近面から透視視点までの距離とが等しくWとなり、前記最近面における物体の幅がWのとき前記最遠面における物体の幅を2Wと見えるような投影条件で前記XYZ座標軸成分が決められ、さらに前記Z座標軸成分は前記最近面の値を0とし前記最遠面の値が255となるように正規化され、前記XYZ座標軸成分から前記xyz座標軸成分への変換は以下の関係式により行うインテグラル・フォトグラフィ画像生成方法。
    x=z×X/W
    y=z×Y/W
    z=Z×W/256
JP2004294809A 2004-10-07 2004-10-07 インテグラル・フォトグラフィ画像生成方法 Expired - Fee Related JP4645142B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004294809A JP4645142B2 (ja) 2004-10-07 2004-10-07 インテグラル・フォトグラフィ画像生成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004294809A JP4645142B2 (ja) 2004-10-07 2004-10-07 インテグラル・フォトグラフィ画像生成方法

Publications (2)

Publication Number Publication Date
JP2006107242A JP2006107242A (ja) 2006-04-20
JP4645142B2 true JP4645142B2 (ja) 2011-03-09

Family

ID=36376896

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004294809A Expired - Fee Related JP4645142B2 (ja) 2004-10-07 2004-10-07 インテグラル・フォトグラフィ画像生成方法

Country Status (1)

Country Link
JP (1) JP4645142B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6253180B2 (ja) * 2013-06-18 2017-12-27 日本放送協会 画像生成装置およびプログラム

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0962864A (ja) * 1995-08-25 1997-03-07 Toshiba Corp 高速描画方法および装置
JP2001022921A (ja) * 1999-06-25 2001-01-26 Terarikon Inc 三次元画像表示装置
JP2001034380A (ja) * 1999-07-21 2001-02-09 Hitachi Ltd 3次元グラフィックス表示装置
JP2002073003A (ja) * 2000-08-28 2002-03-12 Namco Ltd 立体視画像生成装置及び情報記憶媒体
JP2003109042A (ja) * 2001-09-28 2003-04-11 Univ Tokyo 三次元画像高速演算方法
JP2003288612A (ja) * 2002-03-28 2003-10-10 Toshiba Corp 画像形成方法、画像形成プログラム及び画像形成装置
JP2003346188A (ja) * 2002-05-27 2003-12-05 Canon Inc 立体画像形成システム
JP2004185204A (ja) * 2002-12-02 2004-07-02 Ziosoft Inc ボリュームレンダリング画像処理方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0962864A (ja) * 1995-08-25 1997-03-07 Toshiba Corp 高速描画方法および装置
JP2001022921A (ja) * 1999-06-25 2001-01-26 Terarikon Inc 三次元画像表示装置
JP2001034380A (ja) * 1999-07-21 2001-02-09 Hitachi Ltd 3次元グラフィックス表示装置
JP2002073003A (ja) * 2000-08-28 2002-03-12 Namco Ltd 立体視画像生成装置及び情報記憶媒体
JP2003109042A (ja) * 2001-09-28 2003-04-11 Univ Tokyo 三次元画像高速演算方法
JP2003288612A (ja) * 2002-03-28 2003-10-10 Toshiba Corp 画像形成方法、画像形成プログラム及び画像形成装置
JP2003346188A (ja) * 2002-05-27 2003-12-05 Canon Inc 立体画像形成システム
JP2004185204A (ja) * 2002-12-02 2004-07-02 Ziosoft Inc ボリュームレンダリング画像処理方法

Also Published As

Publication number Publication date
JP2006107242A (ja) 2006-04-20

Similar Documents

Publication Publication Date Title
US7760932B2 (en) Method for reconstructing three-dimensional structure using silhouette information in two-dimensional image
US11069124B2 (en) Systems and methods for reducing rendering latency
US11138782B2 (en) Systems and methods for rendering optical distortion effects
US6868177B1 (en) Efficient block transform including pre-processing and post processing for autostereoscopic displays
US7973791B2 (en) Apparatus and method for generating CG image for 3-D display
US20020113865A1 (en) Image processing method and apparatus
US10553012B2 (en) Systems and methods for rendering foveated effects
US10699467B2 (en) Computer-graphics based on hierarchical ray casting
JP2010039501A (ja) 3次元移動の自由視点映像生成方法および記録媒体
EP2051533A2 (en) 3D image rendering apparatus and method
US6157387A (en) Image generating apparatus and method
CN113870430B (zh) 一种工件数据处理方法和装置
JP2005165614A (ja) 画像合成装置および画像合成方法
JPH11504452A (ja) 2次元投影図に基づいて3次元の対象物を再現し、取り扱うための装置と方法
EP0831423B1 (en) Image generation using a light space
JP2008287588A (ja) 画像処理装置および方法
KR100489572B1 (ko) 화상 처리 방법
KR101208767B1 (ko) 곡면 투사를 이용한 입체 영상 생성 방법, 장치 및 시스템, 이를 위한 기록 매체
JP4645142B2 (ja) インテグラル・フォトグラフィ画像生成方法
KR100693134B1 (ko) 3차원 이미지 처리
JP2004272580A (ja) 高次元テクスチャを合成する装置および方法およびプログラム
KR20210147647A (ko) 얼굴 이미지 색상 합성 장치 및 방법
US20240112394A1 (en) AI Methods for Transforming a Text Prompt into an Immersive Volumetric Photo or Video
JP3648099B2 (ja) 画像合成表示方法および装置ならびに画像合成表示プログラムを記録した記録媒体
JP6814036B2 (ja) 要素画像群生成装置及びそのプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071003

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20071113

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20091120

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100525

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100702

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100817

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101015

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101109

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101122

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131217

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131217

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees