JP3891226B2 - Image data generation apparatus and method - Google Patents

Image data generation apparatus and method Download PDF

Info

Publication number
JP3891226B2
JP3891226B2 JP30269196A JP30269196A JP3891226B2 JP 3891226 B2 JP3891226 B2 JP 3891226B2 JP 30269196 A JP30269196 A JP 30269196A JP 30269196 A JP30269196 A JP 30269196A JP 3891226 B2 JP3891226 B2 JP 3891226B2
Authority
JP
Japan
Prior art keywords
image
image data
subject
data generation
parallax
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP30269196A
Other languages
Japanese (ja)
Other versions
JPH10143058A (en
Inventor
茂幸 馬場
明 白倉
信宏 木原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP30269196A priority Critical patent/JP3891226B2/en
Publication of JPH10143058A publication Critical patent/JPH10143058A/en
Application granted granted Critical
Publication of JP3891226B2 publication Critical patent/JP3891226B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03HHOLOGRAPHIC PROCESSES OR APPARATUS
    • G03H1/00Holographic processes or apparatus using light, infrared or ultraviolet waves for obtaining holograms or for obtaining an image from them; Details peculiar thereto
    • G03H1/26Processes or apparatus specially adapted to produce multiple sub- holograms or to obtain images from them, e.g. multicolour technique
    • G03H1/268Holographic stereogram
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03HHOLOGRAPHIC PROCESSES OR APPARATUS
    • G03H2210/00Object characteristics
    • G03H2210/40Synthetic representation, i.e. digital or optical object decomposition
    • G03H2210/45Representation of the decomposed object
    • G03H2210/454Representation of the decomposed object into planes

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Holo Graphy (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は画像データ生成装置および方法に関し、特に、比較的小さい画角のレンズを用いて、より効率的に画像を取り込むことができるようにした、画像データ生成装置および方法に関する。
【0002】
【従来の技術】
ホログラフィックステレオグラムプリンタにおいて、ビデオカメラにより被写体を撮影し、ホログラフィックステレオグラムを作成する場合、被写体の視差画像を短時間で多数取り込むことが望まれる。図14は、このような場合において、視差画像を入力する方法を示している。
【0003】
同図に示すように、ビデオカメラ2は、その光軸2aが視点パス3に対して垂直になるように配置されている。そして、ビデオカメラ2は、光軸2aを視点パス3に対して垂直に保持したまま、視点パス3に沿って直線的に移動される。ビデオカメラ2が、視点パス3に沿って移動する際、ビデオカメラ2が被写体1を撮像して得られる画像が視差画像として取り込まれる。
【0004】
このようにして取り込まれた画像は、再生画像をホログラム面近傍に定位させるための視点変換処理を施した後、LCDなどに表示される。そして、この表示画像から物体光を生成し、これを利用してホログラフィックステレオグラムが作成される。
【0005】
【発明が解決しようとする課題】
ところで、このような従来の画像取り込み方法においては、ビデオカメラ2を、その光軸2aが視点パス3に対して、常に垂直になるように保持しながら移動するようにしているため、ビデオカメラ2が、被写体1の中心から左または右方向に移動した場合においても、ビデオカメラ2が被写体1を撮像することができるように、比較的広角の撮影レンズを必要としていた。その結果、画像に歪みが発生し易いばかりでなく、視差方向に高解像度の画像を取り込むことが困難となる課題があった。また、被写体1が撮影されていない範囲の画像は必要ないため、無駄な画像データが多くなってしまう課題があった。
【0006】
本発明はこのような状況に鑑みてなされたものであり、画角が比較的小さい標準的なレンズを用いたビデオカメラを利用して、画像を取り込むことができるようにし、画像の歪みを抑制し、視差方向により高解像度の画像を効率的に取り込むことができるようにするものである。
【0007】
【課題を解決するための手段】
請求項1に記載の画像データ生成装置は、直線上を移動しつつ、光軸が常に被写体に向くように回転して、被写体の視差画像を取り込む取込手段と、取込手段により取り込まれた視差画像を、その画素列毎に、取込手段の回転角と光軸からの角度とに対応して、画素列方向にスケーリングするスケーリング手段と、スケーリング手段によりスケーリングされた視差画像を、被写体と平行な方向の面上の画像としてマッピングするマッピング手段と、マッピング手段によりマッピングされた画像を表示する表示手段と、表示手段に表示された画像からの光を物体光として、ホログラフィックステレオグラムを作成する作成手段とを備えることを特徴とする。
【0008】
請求項6に記載の画像データ生成方法は、直線上を移動しつつ、光軸が常に被写体に向くように回転して、被写体の視差画像を取り込む取込ステップと、取込ステップの処理により取り込まれた視差画像を、その画素列毎に、取込手段の回転角と光軸からの角度とに対応して、画素列方向にスケーリングするスケーリングステップと、スケーリングステップの処理によりスケーリングされた視差画像を、被写体と平行な方向の面上の画像としてマッピングするマッピングステップと、マッピングステップの処理によりマッピングされた画像を表示する表示ステップと、表示ステップの処理により表示された画像からの光を物体光として、ホログラフィックステレオグラムを作成する作成ステップとを備えることを特徴とする。
【0009】
請求項1に記載の画像データ生成装置および請求項6に記載の画像データ生成方法においては、被写体の視差画像を取り込む際、光軸が常に被写体を指向するようになされ、取り込まれた視差画像が、その画素列毎に、視差画像を取り込むときの回転角と光軸からの角度とに対応して、画素列方向にスケーリングされ、スケーリングされた視差画像が、被写体と平行な方向の面上の画像としてマッピングされ、マッピングされた画像が表示され、表示された画像からの光が物体光として、ホログラフィックステレオグラムが作成されるので、取り込まれた視差画像のキーストン歪みが補正される。
【0010】
【発明の実施の形態】
以下に本発明の実施の形態を説明するが、特許請求の範囲に記載の発明の各手段と以下の実施の形態との対応関係を明らかにするために、各手段の後の括弧内に、対応する実施の形態(但し一例)を付加して本発明の特徴を記述すると、次のようになる。但し勿論この記載は、各手段を記載したものに限定することを意味するものではない。
【0011】
請求項1に記載の画像データ生成装置は、直線上を移動しつつ、光軸が常に被写体に向くように回転して、被写体の視差画像を取り込む取込手段(例えば、図3のCCDビデオカメラ61)と、取込手段により取り込まれた視差画像を、その画素列毎に、前記取込手段の回転角と前記光軸からの角度とに対応して、画素列方向にスケーリングするスケーリング手段(例えば、図9のフローチャートのステップS3の処理を行う、図3の視点変換処理CPU72)と、スケーリング手段によりスケーリングされた視差画像を、被写体と平行な方向の面上の画像としてマッピングするマッピング手段(例えば、図9のフローチャートのステップS4の処理を行う、図3の視点変換処理CPU72)と、キーストン歪みの補正処理が行われた画像を表示する表示手段(例えば、図3のLCD30)と、表示手段に表示された画像からの光を物体光として、ホログラフィックステレオグラムを作成する作成手段(例えば、図3の露光ヘッド制御CPU81、露光ヘッド82)とを備えることを特徴とする。
【0013】
請求項4に記載の画像データ生成装置は、再生像をホログラム面に定位させるための視点変換処理を行う変換手段(例えば、図13のフローチャートの処理を行う図3の視点変換処理CPU72)をさらに備えることを特徴とする。
【0014】
図1と図2は、本発明の画像データ生成装置を適用した、ホログラフィックステレオグラムプリンタの光学系の平面から見た構成と、側面から見た構成をそれぞれ表している。
【0015】
光源21は、光L1を発生する。シャッタ22は、光源21より出射された光L1を、通過または遮断するように制御される。シャッタ22を通過した光L2は、ハーフミラー23に入射され、反射光と透過光に分離される。反射光L3は、参照光として、シリンドリカルレンズ24に入射される。シリンドリカルレンズ24は、入射された光を発散光に変換する。コリメータレンズ25は、シリンドリカルレンズ24より入射された発散光を平行光に変換して、全反射ミラー26に出射する。全反射ミラー26により反射された光は、参照光として、ホログラム用記録媒体32に斜め方向から入射されるようになされている。
【0016】
一方、ハーフミラー23を透過した物体光としての光L4は、全反射ミラー27により反射され、スペーシャルフィルタ28に入射されている。スペーシャルフィルタ28は、対物レンズとピンホールとにより構成されており、入射された光を発散光に変換して、コリメータレンズ29に出射する。コリメータレンズ29は、入射された発散光を平行光に変換して、LCD30に出射する。
【0017】
LCD30を透過した光は、シリンドリカルレンズ31により、横方向に収束され、ホログラム用記録媒体32に露光角θeで入射されるようになされている。記録媒体送り機構33は、ホログラム用記録媒体32を所定のタイミングで移送する。
【0018】
図3は、ホログラフィックステレオグラムプリンタの電気系の構成例を示している。同図に示すように、この電気系は、基本的に、視差画像入力部51、視点変換処理部52、およびホログラム露光部53により構成されている。視差画像入力部51は、被写体を撮像し、NTSC方式で視差画像を取り込むCCDビデオカメラ61を有している。
【0019】
視点変換処理部52は、CCDビデオカメラ61より供給された画像信号をJPEG方式で圧縮、伸長する処理を行うJPEG圧縮ボード71、キーストン(Keystone)歪みの補正処理と視点変換処理を行う視点変換処理CPU72、および画像データを一時的に記憶するRAM73を有している。
【0020】
ホログラム露光部53は、JPEG圧縮ボード71より、キーストン歪みの補正処理と視点変換処理が行われた後の画像データが供給されるLCDドライバ83と、このLCDドライバ83により駆動され、画像を表示するLCD30を有している。ホログラム露光部53はまた、視点変換処理部52の視点変換処理CPU72より、タイミング信号が供給される露光ヘッド制御CPU81と、この露光ヘッド制御CPU81により制御される露光ヘッド82とを有している。露光ヘッド82は、図1に示した、光源21とシャッタ22を有している。
【0021】
次に、その基本的な動作について説明する。ホログラフィックステレオグラムを作成する際、CCDビデオカメラ61により被写体が撮像され、その画像信号(NTSC方式の画像信号)が、視差画像信号として、JPEG圧縮ボード71に入力される。JPEG圧縮ボード71は、入力された画像信号を2値化した後、JPEG方式で圧縮し、さらに、VGA(Video Graphics Array(商標))方式のフォーマットのデータに変換する。そして、このデータは、視点変換処理CPU72を介してRAM73に記憶される。後述するように、CCDビデオカメラ61は、視点パス111(図5)に沿って、一定の速度で移動される。これにより、RAM73には、1枚が横480画素、縦640画素で構成される複数枚の画像が圧縮されて、記憶される。
【0022】
ここで、縦方向に640[pixel]、横方向に480[pixel]を設定した理由は、水平視差のみのホログラフィックステレオグラムにおいて、視差方向に較べて情報量が少なくなる傾向にある非視差方向にできるだけの情報を付加することと、コンピュータのRAM上における画像データの扱いが画像の左上を原点として走査方向に順次にpixelが配置されているため、視点変換処理を行うときに画像の横ラインを単位として連続したデータを視差画像間で入れ替えることにより処理の高速化を図れる点にある。
【0023】
視点変換処理CPU72は、RAM73に記憶された画像データを読み出し、JPEG圧縮ボード71に供給し、伸長させる。そして、この伸長された画像データを、再びRAM73に記憶させる。そして、伸長された画像データを再び読み出して、キーストン歪み補正処理と視点変換処理(その詳細については後述する)を行う。視点変換処理後の画像は、JPEG圧縮ボード71からホログラム露光部53のLCDドライバ83を介してLCD30に出力され、表示される。
【0024】
視点変換処理CPU72は、LCD30に表示する画像に同期したタイミング信号を発生し、RS−232C、またはEthernetなどを介してホログラム露光部53の露光ヘッド制御CPU81に供給する。露光ヘッドCPU81は、このタイミング信号に同期して、露光ヘッド82を制御し、露光動作を実行させる。
【0025】
露光ヘッド82の光源21の発生する光L1は、露光期間開放されるシャッタ22を介してハーフミラー23に入射される。ハーフミラー23で反射された参照光としての光L3は、シリンドリカルレンズ24に入射され、発散光に変換された後、コリメータレンズ25に入射され、平行光に変換される。コリメータレンズ25より出射された光は、全反射ミラー26で反射され、ホログラム用記録媒体32の一方の面に入射される。
【0026】
一方、ハーフミラー23を透過した物体光としての光L4は、全反射ミラー27で反射された後、スペーシャルフィルタ28に入射され、発散光に変換される。この発散光は、コリメータレンズ29に入射され、平行光に変換された後、LCD30に照射される。上述したように、LCD30には、CCDビデオカメラ61で取り込み、キーストン歪み補正処理と視点変換処理を施した画像が表示されている。従って、LCD30に表示された画像に対応する光が、シリンドリカルレンズ31を介して、露光角θeでホログラム用記録媒体32の他方の面に、ほぼ垂直に入射される。その結果、参照光と物体光とがホログラム用記録媒体32上において干渉し、この干渉によって生じる干渉縞がホログラム用記録媒体32上に、屈折率の変化として記録される。
【0027】
記録媒体送り機構33は、露光ヘッド制御CPU81により制御され、1枚の画像に対応する短冊状の1つの要素ホログラム(図4)が形成される毎に、ホログラム用記録媒体32を所定の方向に、順次移送する。これにより、ホログラム用記録媒体32が、3次元ホログラムを再生可能なホログラフィックステレオグラムとして形成される。
【0028】
図4は、このようにして形成されたホログラフィックステレオグラム101の模式的な構成を表している。同図に示すように、ホログラフィックステレオグラム101には、短冊状の要素ホログラム102が多数(m個)形成されている。各要素ホログラム102には、横480画素、縦640画素の画像に対応するホログラムが形成されている。
【0029】
図5に示すように、CCDビデオカメラ61は、視点パス111に沿って直線的に移動される。このとき、CCDビデオカメラ61は、その光軸61aが、常に被写体112を指向するように、視点パス111上の位置に対応して、光軸61aが角度θだけ回転される。なお、CCDビデオカメラ61が、被写体112を撮影する場合のカメラの画角θvは、図2に示した露光角θeに対応させる必要はない。
【0030】
このように、CCDビデオカメラ61は、視点パス111上の位置に拘らず、その光軸61aが、常に被写体112を指向するように制御されるので、CCDビデオカメラ61の撮影レンズを広角にする必要がなく、比較的小さな画角で、常に、被写体の視差画像を撮影することができる。その結果、CCDビデオカメラ61として、家庭用のビデオカメラなど、汎用のものを用いることが可能となる。比較的小さな画角のレンズを用いることができるので、画像歪みも抑制され、広角レンズを用いる場合に較べて、視差方向の解像度も向上させることができる。
【0031】
CCDビデオカメラ61の移動距離dCは、次式により表される。
C=2dV・tan(θe/2)+WH ・・・(1)
【0032】
ここで、dVは、CCDビデオカメラ61と被写体112の撮影距離(最短距離)を表し、この距離は、ホログラム観察時における視点距離に対応している。すなわち、被写体112の位置にホログラム面113を配置したとき、ホログラム面113上の画像を観察する視点が、CCDビデオカメラ61を配置している位置(視点位置)となる。従って、CCDビデオカメラ61が移動する直線(視点パス111)上に視点が位置することになる。
【0033】
また、上記(1)式におけるWHは、作成するホログラフィックステレオグラムの横方向の長さを表す。
【0034】
CCDビデオカメラ61の画角θvは次式で表される。
θv=θc−θe ・・・(2)
【0035】
ここで、θeはホログラムの露光角を示し、θcは、カメラ移動距離dCを被写体112から見た場合の角度、すなわち、図5において、点P1と点P3を結ぶ直線と、点P2と点3を結ぶ直線とのなす角度であり、次式で表される。
θc=2tan-1(tan(θe/2)+WH/2) ・・・(3)
【0036】
これらの式によって決定される画角を用いて撮影を行うことにより、最小の画角で視差画像を撮影することができ、撮影された視差画像から視点変換により露光用の画像を再構成することが補償される。
【0037】
ところで、図5に示したように、CCDビデオカメラ61の光軸61aを、常に被写体112の方向に指向させると、キーストン歪みが発生する。なお、簡単のため、ここでは、奥行き方向に厚みのない直方形の被写体を考える。すなわち、図6(A)に示すように、CCDビデオカメラ61(そのCCD61A)と、被写体112が平行である場合、図6(B)に示すように、被写体112の左側と右側の対応する垂直方向の長さは、同一の長さで表される。しかしながら、図7(A)に示すように、CCDビデオカメラ61(そのCCD61A)と、被写体112が平行でない場合、図7(B)に示すように、被写体112の左側と右側の対応する縦方向の長さは一致しないことになる。そこで、露光用の画像を再構成する前に(CCDビデオカメラ61で取り込んだ画像をLCD30に表示する前に)、このキーストン歪みを補正する処理が必要となる。
【0038】
図8は、このキーストン歪みを補正する原理を表している。同図に示すように、いま、CCDビデオカメラ61が、点P2上に位置し、その回転角(点P4と点P3を結んだ直線と、点P2と点P3を結んだ直線とのなす角度)θは次式で表される。
θ=tan-1(ΔdC/dV) ・・・(4)
【0039】
ここで、ΔdCは、カメラ移動距離dC上の中央の点P4と、CCDビデオカメラ61がそのとき位置する点P2との距離を表している。
【0040】
そして、点P2上に位置するCCDビデオカメラ61により取り込まれる画像の水平方向の画素の位置を表す光軸61aからの角度をαとすると、キーストン歪み補正のための拡大縮小率ratioは次式により表される。
ratio=1+tanα・tanθ ・・・(5)
但し、−θv/2≦α≦θv/2(θv:カメラの画角)
【0041】
従って、この角度αで規定される画素列の画素を縦方向(画素列の方向)に拡大縮小(スケーリング)処理することで、CCDビデオカメラ61が、点P4から右方向に移動した場合、または左方向に移動した場合に発生する画像の左と右の対応する縦方向の長さの差を補正することができる。
【0042】
また、キーストン歪みを補正するには、回転角θにおいて、CCDビデオカメラ61の投影面(CCD61Aの面)と、被写体112(ホログラム面113)の方向が平行ではないので、これを平行にするためのマッピング処理が必要となる。このため、図8に示すように、ホログラム面113と平行な方向にx軸をとり、x軸と点P3で交差するように、CCDビデオカメラ61の投影面と平行な方向にx’軸をとり、x’軸座標で表されているCCDビデオカメラ61の画素列のデータをx軸座標に変換するように、画素列データをマッピングする。この場合におけるx,x’,α,θの関係は、次のようになる。
α=tan-1[x/{dV(sinθ・tanθ+cosθ)−x・tanθ}]
・・・(6)
x’=dV・tanα ・・・(7)
【0043】
すなわち、上記(6)式と(7)式を利用して、座標変換処理を行うことができる。
【0044】
以上の原理に従って、視点変換処理CPU72が実行するキーストン歪みの補正処理を、図9のフローチャートを参照して説明する。最初にステップS1において、処理対象とされる画素列に対応する角度αが求められる。次に、ステップS2において、上記した式(5)に示す拡大縮小率ratioが演算される。
【0045】
次にステップS3に進み、ステップS2で求めた拡大縮小率ratioを用いて、処理対象画素列のスケーリング処理が実行される。
【0046】
さらにステップS4に進み、上記した式(6)と式(7)を利用して、x’座標で表されている画素列データをx座標で表される座標に変換する処理(マッピング処理)が行われる。
【0047】
次にステップS5において、すべての画素列についての処理を終了したか否かが判定される。まだ処理していない画素列が存在する場合においては、ステップS1に戻り、同様の処理が繰り返し実行される。
【0048】
ステップS5において、すべての画素率についての処理が終了したと判定された場合、ステップS6に進み、すべての入力画像についての処理が終了したか否かが判定される。まだ処理していない入力画像が存在する場合には、ステップS1に戻り、同様の処理が繰り返し実行される。すべての入力画像についての処理が終了したとき、キーストン歪みの補正処理が完了したことになる。
【0049】
以上の処理を行うことで、平面のホログラフィックステレオグラムを作成でき、かつ、観察時の視点もホログラム面と平行にとることが可能となる。
【0050】
ところで、図1の光源21として白色光を用いる場合、ホログラム面近傍から再生像が遠ざかるほど、再生像がぼける性質がある。そこで、再生像が、ホログラム面近傍に定位するような視点変換処理を施す必要がある。撮影時のカメラの視点と被写体との位置関係は、露光後の再生像に対しても保存されるので、視点変換処理が行われない状態においては、観察時に観察者の目をホログラム面に置かない限り、歪みのない再生像を得ることはできない。また、理論的に、ビデオカメラと被写体の距離に対応する距離だけ、再生像はホログラム面より奥に結像することになるため、上述した性質に基づき、再生像がぼやけた像となってしまう。そこで、再生像をホログラム面近傍に定位させ、ホログラム観察時の視点を、ホログラム面よりも手前に設定するような視点変換処理が必要となる。次に、この視点変換処理について説明する。
【0051】
図10は、入力画像とホログラム露光用画像(視点変換により再構成する画像)の位置関係を表している。ホログラム露光用画像131は、その画角をホログラム露光角θeに一致させる必要がある。視点変換処理は、複数枚の入力画像から、新たに1枚のホログラム露光用画像131を生成する(再構成する)ことにより実現される。
【0052】
ここで、簡単のために、図10に示す視点パス111を軸にして、入力画像を回転すると、入力画像とホログラム露光用画像は、図11に示すような位置関係となる。
【0053】
図11に示すように、ホログラム面113上には、n個の要素ホログラム102に対応して、露光点ep1乃至epnが存在する。各露光点epiのホログラム露光用画像131−iは、それぞれ480本の画素列(視差情報)131−i−1乃至131−i−480により構成される。各画素列(視差情報)は、横1画素、縦640画素により構成される。
【0054】
このうちの、例えば露光点ep1について注目してみると、図12に示すように、この露光点ep1の画像は、ホログラム露光用画像の画素列131−1−1乃至131−1−480の合計480本の画素列により構成される。
【0055】
このうち、例えばホログラム露光用画像の画素列131−1−1には、視点パス111上の、図中、最も左側の視点vP1において取り込まれた入力画像141−1の480個の画素列の中から1つの画素列が選択され、対応される。但し、上述したように、入力画像141−1は、キーストン歪みを補正する処理が行われ、ホログラム面113と平行にマッピングされているため、歪み補正後の入力画像141A−1を構成するN1本(この実施の形態の場合、N1=480)の中から、1つの画素列(図12の例の場合、図中、最も右側の画素列PC1)が選択され、対応される。
【0056】
ホログラム露光用画像の画素列131−1−2は、視点vP2において取り込まれた入力画像141−2の画素列データであって、歪み補正後のN2(この実施の形態の場合、N2=480)本の画素列の中から、所定の1つの画素列(この実施の形態の場合、左側からN21個目の画素列PC21)が選択され、対応される。
【0057】
以上のようにして、露光点ep1の480本のホログラム露光用画像の画素列131−1−1乃至131−1−480が求められる処理が行われる。
【0058】
次に、図13のフローチャートを参照して、視点変換処理CPU72が行う、視点変換処理の詳細について、さらに説明する。
【0059】
最初にステップS21とS22において、変数jとiに1が初期設定され、ステップS23で、ホログラム面113上のn個の露光点ep1乃至epnのうち、1つの露光点が選択される。例えば、露光点epj(j=1乃至n)のうち、露光点ep1が選択される。そして、この露光点ep1を構成する480本のホログラム露光用画像の画素列131−1−1乃至131−1−480のうち、1つの画素列がサンプリング点ri(i=1乃至480)として選択される。例えば、画素列131−1−1が、サンプリング点r1として選択される。
【0060】
このように選択された露光点ep1とサンプリング点r1(画素列131−1−1)とを結ぶ仮想線LN1が定義される。以下、同様にして、サンプリング点r2乃至r480として、画素列131−1−2乃至131−1−480が選択され、これらのサンプリング点riと、露光点ep1とを結ぶ仮想線LN1が定義される。これにより、合計480本の仮想線LN1が定義されることになる。
【0061】
次に、ステップS24に進み、ステップS23で定義した仮想線LN1と、視点パス111の交点が算出される。これにより、視点パス111上にn個の交点が求められることになる。
【0062】
さらに、ステップS25に進み、視点パス111上のm個の視点vP1乃至vPm(CCDビデオカメラ61で被写体112を撮影した点)の中から、ステップS24で求めた交点に最も近い視点vPkが探索される。これにより、m個の視点vP1乃至vPmの中から、最大n個の視点が探索される。2以上の視点が重複して、異なるサンプリング点に対応して探索された場合においては、視点の数はn個以下となる。
【0063】
ステップS26では、ステップS25で探索された視点vPkで取り込まれた入力画像141−kが選択される。これにより、最大n個の入力画像141が選択されることになる。
【0064】
次に、ステップS27に進み、ステップS26で求められた視点vPkと露光点ep1とを結ぶ仮想線LN2が定義される。これにより、最大n本の仮想線LN2が定義される。
【0065】
さらにステップS28においては、ステップS27で求めた仮想線LN2とキーストン歪みの補正後の入力画像との交点が求められる。そしてステップS29において、ステップS28で求めた交点に位置する入力画像の画素列を、対応するサンプリング点のホログラム露光用画像の画素列としてマッピングする。
【0066】
例えば、図12に示すように、露光点ep1のサンプリング点r1としてのホログラム露光用画像の画素列131−1−1に対応して、視点vP1と露光点ep1を通る直線が、仮想線LN2のうちの1本とされたとき、この直線上に位置する歪み補正後の入力画像141A−1の画素列PC1が選択され、これが画素列131−1−1に対応しする画素列として、RAM73上でマッピングされる。
【0067】
また、ホログラム露光用画像の画素列131−1−2に対応する視点として、視点vP2が選択され、視点vP2と露光点ep1とを結ぶ仮想線LN2が定義される。そして、この仮想線LN2上に位置する画素列として、歪み補正後の入力画像141A−2の左端からN21番目の画素列PC2が求められる。そして、この画素列PC2が、ホログラム用画像の画素列131−1−2の画素列としてマッピングされる。
【0068】
以上のようにして、露光点ep1のホログラム露光用画像の画素列131−1−1乃至131−1−480の画素列がマッピングされる。
【0069】
次にステップS30に進み、露光用画像のすべてのサンプリング点におけるマッピングが完了したか否か(i=480であるか否か)が判定される。いまの場合、露光点ep1のマッピングが完了しただけである。そこで、ステップS31に進み、iが1だけインクリメントされ、ステップS23に戻る。そして、露光点ep1の次の露光点ep2について、同様の処理が実行される。以上のような処理が、露光点ep1乃至epnについて行われると、ステップS30において、露光用画像のすべてのサンプリング点におけるマッピングが完了したと判定され、ステップS32に進む。
【0070】
ステップS32では、すべての露光点におけるマッピングが終了したか否か(j=nであるか否か)が判定され、NOであれば、ステップS33に進み、jが1だけインクリメントされた後、ステップS22に戻り、それ以降の処理が実行される。ステップS32でYESの判定が行われたとき、処理は終了する。
【0071】
視点変換処理を行う上において必要な被写体の位置、画角、視点の位置などの各種のパラメータは、1度設定すれば、変更する必要性は殆どない。視点変換処理は、処理する視差画像が水平視差のみの画像のため、対応する視差情報(横1画素、縦640画素により構成されるスリット状の画像)が計算できれば、最終的には、このスリット状の画像の入れ替えによって実行することができる。従って、初回の計算時に、すべての露光用画像のスリット状画像と、もとの視差画像のスリット状画像との対応関係をテーブルにして、ハードディスク等の記憶媒体に、予め記憶しておくようにすれば、次回からの視点変換処理は、このテーブルを参照して、高速に行うことが可能となる。
【0072】
なお、上記実施の形態においては、CCDビデオカメラ61として、NTSC方式のものを用いるようにしたが、PAL方式、その他の方式のものを用いることも可能である。また、視点変換処理CPU72において処理するフォーマットは、VGAに限らず、その他のフォーマットの画像とすることも可能である。さらに光源として、白色光源ではなく、レーザ光源を用いることも可能である。
【0073】
また、上記実施の形態においては、平面のホログラフィックステレオグラムを作成するホログラフィックステレオグラムプリンタを、基本的に視差画像入力部51、視点変換処理部52、ホログラム露光部53の3つにより、一体的に形成するようにしたが、これらを適宜、分離して、別体の構成とすることも可能である。
【0074】
【発明の効果】
以上のごとく、請求項1に記載の画像データ生成装置および請求項6に記載の画像データ生成方法によれば、光軸が、常に被写体に向くようにしながら、直線的に移動しつつ、取り込んだ視差画像を、その画素列毎に、視差画像を取り込むときの回転角と光軸からの角度とに対応して、画素列方向にスケーリングし、スケーリングした視差画像を、被写体と平行な方向の面上の画像としてマッピングし、マッピングした画像を表示し、表示した画像からの光を物体光として、ホログラフィックステレオグラムを作成するようにしたので、撮影時における画角を、比較的小さくすることができ、家庭用ビデオカメラなどを利用することが可能となる。また、画角を小さくすることで、広角レンズを用いる場合に較べ、画像の歪みを抑制し、解像度を向上させることができる。さらに、常に被写体の視差画像を得ることができるので、無駄な画像を取り込むことが抑制される。また、平面ホログラム面と平行な観察視点を有する平面ホログラフィックステレオグラムを作成することができる。
【図面の簡単な説明】
【図1】本発明の画像データ生成装置を適用したホログラフィックステレオグラムプリンタの光学系の平面の構成を示す図である。
【図2】図1に示す光学系の一部の側面の構成を示す図である。
【図3】本発明の画像データ生成装置を適用したホログラフィックステレオグラムプリンタの電気系の構成例を示すブロック図である。
【図4】ホログラフィックステレオグラムを説明する斜視図である。
【図5】視差画像入力方法を説明する図である。
【図6】キーストン歪みを説明する図である。
【図7】キーストン歪みを補正する図である。
【図8】キーストン歪み補正の処理を説明する図である。
【図9】キーストン歪みの補正処理を説明するフローチャートである。
【図10】入力画像とホログラム露光用画像の位置関係を説明する図である。
【図11】視点変換処理を説明する図である。
【図12】視点変換処理を説明する他の図である。
【図13】視点変換処理を説明するフローチャートである。
【図14】従来の視差画像入力方法を説明する図である。
【符号の説明】
21 光源, 22 シャッタ, 30 LCD, 24,31 シリンドリカルレンズ, 32 ホログラム用記録媒体, 33 記録媒体送り機構, 51 視差画像入力部, 52 視点変換処理部, 53 ホログラム露光部, 61 CCDビデオカメラ, 71 JPEG圧縮ボード, 72 視点変換処理CPU, 73 RAM, 81 露光ヘッド制御CPU, 82 露光ヘッド, 83 LCDドライバ
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image data generation apparatus and method, and more particularly to an image data generation apparatus and method that can capture an image more efficiently by using a lens having a relatively small angle of view.
[0002]
[Prior art]
In a holographic stereogram printer, when a subject is photographed by a video camera to create a holographic stereogram, it is desired to capture a large number of parallax images of the subject in a short time. FIG. 14 shows a method for inputting a parallax image in such a case.
[0003]
As shown in the figure, the video camera 2 is arranged so that its optical axis 2 a is perpendicular to the viewpoint path 3. The video camera 2 is moved linearly along the viewpoint path 3 while keeping the optical axis 2 a perpendicular to the viewpoint path 3. When the video camera 2 moves along the viewpoint path 3, an image obtained by imaging the subject 1 by the video camera 2 is captured as a parallax image.
[0004]
The image captured in this manner is displayed on an LCD or the like after a viewpoint conversion process for localizing the reproduced image near the hologram surface. And object light is produced | generated from this display image, A holographic stereogram is produced using this.
[0005]
[Problems to be solved by the invention]
By the way, in such a conventional image capturing method, the video camera 2 is moved while holding its optical axis 2 a so as to be always perpendicular to the viewpoint path 3. However, a relatively wide-angle photographic lens is required so that the video camera 2 can capture the subject 1 even when the subject 1 moves left or right from the center. As a result, there is a problem that not only the image is likely to be distorted but also it is difficult to capture a high-resolution image in the parallax direction. Further, since there is no need for an image in a range where the subject 1 has not been photographed, there is a problem that wasteful image data increases.
[0006]
The present invention has been made in view of such a situation, and by using a video camera using a standard lens having a relatively small angle of view, an image can be captured and image distortion is suppressed. In addition, a high-resolution image can be efficiently captured depending on the parallax direction.
[0007]
[Means for Solving the Problems]
  The image data generation device according to claim 1, wherein the image data generation device moves on a straight line, rotates so that the optical axis always faces the subject, and takes in a parallax image of the subject,The parallax image captured by the capturing means is scaled by the scaling means and the scaling means for each pixel column corresponding to the rotation angle of the capturing means and the angle from the optical axis, and the scaling means. Mapping means for mapping the parallax image as an image on a plane parallel to the subject, display means for displaying the image mapped by the mapping means, and light from the image displayed on the display means as object light Creating means to create holographic stereograms,It is characterized by providing.
[0008]
  The image data generation method according to claim 6, wherein the image data generation method is configured to capture a parallax image of a subject by rotating the optical axis so as to always face the subject while moving on a straight line.A scaling step for scaling the parallax image captured by the processing of the capturing step in the pixel column direction corresponding to the rotation angle of the capturing unit and the angle from the optical axis for each pixel column, Displayed by the mapping step for mapping the parallax image scaled by the process as an image on a plane parallel to the subject, the display step for displaying the image mapped by the process of the mapping step, and the process of the display step Creating a holographic stereogram using light from an image as object lightIt is characterized by providing.
[0009]
  In the image data generation device according to claim 1 and the image data generation method according to claim 6, when capturing a parallax image of a subject, the optical axis is always directed to the subject,The captured parallax image is scaled in the pixel column direction corresponding to the rotation angle and angle from the optical axis when the parallax image is captured for each pixel column, and the scaled parallax image is parallel to the subject. Since the mapped image is displayed as an image on a plane in a different direction, and the light from the displayed image is used as object light, a holographic stereogram is created.The keystone distortion of the captured parallax image is corrected.
[0010]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be described below, but in order to clarify the correspondence between each means of the invention described in the claims and the following embodiments, in parentheses after each means, The features of the present invention will be described with the corresponding embodiment (however, an example) added. However, of course, this description does not mean that each means is limited to the description.
[0011]
  The image data generation apparatus according to claim 1 is a capturing unit that captures a parallax image of a subject by moving the optical axis so that the optical axis always faces the subject while moving on a straight line (for example, the CCD video camera of FIG. 61)Scaling means for scaling the parallax image captured by the capturing means for each pixel column in accordance with the rotation angle of the capturing means and the angle from the optical axis in the pixel column direction(For example, the flowchart of FIG.Step S3(Viewpoint conversion processing CPU 72 in FIG. 3)And mapping means for mapping the parallax image scaled by the scaling means as an image on a plane parallel to the subject (for example, the viewpoint conversion processing CPU 72 in FIG. 3 that performs the processing in step S4 in the flowchart in FIG. 9). And display means (for example, LCD 30 in FIG. 3) that displays the image that has been subjected to the keystone distortion correction processing, and creation that creates a holographic stereogram using light from the image displayed on the display means as object light Means (for example, the exposure head control CPU 81 and the exposure head 82 in FIG. 3).
[0013]
The image data generation apparatus according to claim 4 further includes conversion means (for example, a viewpoint conversion processing CPU 72 of FIG. 3 that performs the processing of the flowchart of FIG. 13) that performs viewpoint conversion processing for locating the reproduced image on the hologram surface. It is characterized by providing.
[0014]
FIGS. 1 and 2 respectively show a configuration of the optical system of the holographic stereogram printer to which the image data generation device of the present invention is applied, and a configuration viewed from the side.
[0015]
The light source 21 generates light L1. The shutter 22 is controlled so as to pass or block the light L1 emitted from the light source 21. The light L2 that has passed through the shutter 22 enters the half mirror 23 and is separated into reflected light and transmitted light. The reflected light L3 is incident on the cylindrical lens 24 as reference light. The cylindrical lens 24 converts incident light into divergent light. The collimator lens 25 converts the divergent light incident from the cylindrical lens 24 into parallel light and emits it to the total reflection mirror 26. The light reflected by the total reflection mirror 26 is incident on the hologram recording medium 32 from an oblique direction as reference light.
[0016]
On the other hand, the light L4 as the object light transmitted through the half mirror 23 is reflected by the total reflection mirror 27 and is incident on the spatial filter 28. The spatial filter 28 includes an objective lens and a pinhole, converts incident light into divergent light, and outputs the divergent light to the collimator lens 29. The collimator lens 29 converts the incident divergent light into parallel light and emits it to the LCD 30.
[0017]
The light transmitted through the LCD 30 is converged in the horizontal direction by the cylindrical lens 31 and is incident on the hologram recording medium 32 at the exposure angle θe. The recording medium feeding mechanism 33 moves the hologram recording medium 32 at a predetermined timing.
[0018]
FIG. 3 shows a configuration example of the electrical system of the holographic stereogram printer. As shown in the figure, this electrical system basically includes a parallax image input unit 51, a viewpoint conversion processing unit 52, and a hologram exposure unit 53. The parallax image input unit 51 includes a CCD video camera 61 that captures an image of a subject and captures the parallax image using the NTSC method.
[0019]
The viewpoint conversion processing unit 52 is a JPEG compression board 71 that performs processing for compressing and expanding the image signal supplied from the CCD video camera 61 using the JPEG method, and viewpoint conversion processing that performs keystone distortion correction processing and viewpoint conversion processing. A CPU 72 and a RAM 73 for temporarily storing image data are provided.
[0020]
The hologram exposure unit 53 is driven by the LCD driver 83 to which the image data after the keystone distortion correction process and the viewpoint conversion process are performed from the JPEG compression board 71, and is driven by the LCD driver 83 to display an image. It has an LCD 30. The hologram exposure unit 53 also has an exposure head control CPU 81 to which a timing signal is supplied from the viewpoint conversion processing CPU 72 of the viewpoint conversion processing unit 52 and an exposure head 82 controlled by the exposure head control CPU 81. The exposure head 82 has the light source 21 and the shutter 22 shown in FIG.
[0021]
Next, the basic operation will be described. When creating a holographic stereogram, a subject is imaged by the CCD video camera 61 and the image signal (NTSC image signal) is input to the JPEG compression board 71 as a parallax image signal. The JPEG compression board 71 binarizes the input image signal, compresses the image signal using the JPEG method, and converts the image signal into data in a VGA (Video Graphics Array (trademark)) format. This data is stored in the RAM 73 via the viewpoint conversion processing CPU 72. As will be described later, the CCD video camera 61 is moved at a constant speed along the viewpoint path 111 (FIG. 5). Thereby, the RAM 73 compresses and stores a plurality of images each composed of 480 pixels in the horizontal direction and 640 pixels in the vertical direction.
[0022]
Here, the reason for setting 640 [pixel] in the vertical direction and 480 [pixel] in the horizontal direction is that the amount of information tends to be smaller in the holographic stereogram having only horizontal parallax than in the parallax direction. Since the pixels are sequentially arranged in the scanning direction with the upper left corner of the image as the origin, the horizontal line of the image is processed when the viewpoint conversion processing is performed. The processing speed can be increased by exchanging continuous data between parallax images in units of.
[0023]
The viewpoint conversion processing CPU 72 reads the image data stored in the RAM 73, supplies it to the JPEG compression board 71, and decompresses it. Then, the decompressed image data is stored in the RAM 73 again. Then, the decompressed image data is read again, and keystone distortion correction processing and viewpoint conversion processing (details thereof will be described later) are performed. The image after the viewpoint conversion process is output from the JPEG compression board 71 to the LCD 30 via the LCD driver 83 of the hologram exposure unit 53 and displayed.
[0024]
The viewpoint conversion processing CPU 72 generates a timing signal synchronized with the image displayed on the LCD 30 and supplies the timing signal to the exposure head control CPU 81 of the hologram exposure unit 53 via RS-232C or Ethernet. The exposure head CPU 81 controls the exposure head 82 in synchronization with this timing signal to execute an exposure operation.
[0025]
The light L1 generated by the light source 21 of the exposure head 82 is incident on the half mirror 23 through the shutter 22 that is opened during the exposure period. The light L3 as the reference light reflected by the half mirror 23 is incident on the cylindrical lens 24, converted into divergent light, then incident on the collimator lens 25, and converted into parallel light. The light emitted from the collimator lens 25 is reflected by the total reflection mirror 26 and is incident on one surface of the hologram recording medium 32.
[0026]
On the other hand, the light L4 as the object light transmitted through the half mirror 23 is reflected by the total reflection mirror 27, then enters the spatial filter 28, and is converted into divergent light. The divergent light is incident on the collimator lens 29, converted into parallel light, and then irradiated on the LCD 30. As described above, the LCD 30 displays an image captured by the CCD video camera 61 and subjected to keystone distortion correction processing and viewpoint conversion processing. Accordingly, the light corresponding to the image displayed on the LCD 30 is incident on the other surface of the hologram recording medium 32 through the cylindrical lens 31 at an exposure angle θe substantially perpendicularly. As a result, the reference light and the object light interfere on the hologram recording medium 32, and interference fringes generated by this interference are recorded on the hologram recording medium 32 as a change in refractive index.
[0027]
The recording medium feed mechanism 33 is controlled by the exposure head control CPU 81, and each time a strip-shaped element hologram (FIG. 4) corresponding to one image is formed, the hologram recording medium 32 is moved in a predetermined direction. , Transport sequentially. Thereby, the hologram recording medium 32 is formed as a holographic stereogram capable of reproducing a three-dimensional hologram.
[0028]
FIG. 4 shows a schematic configuration of the holographic stereogram 101 formed in this way. As shown in the figure, the holographic stereogram 101 has a large number (m) of strip-shaped element holograms 102 formed therein. Each element hologram 102 is formed with a hologram corresponding to an image having a width of 480 pixels and a length of 640 pixels.
[0029]
As shown in FIG. 5, the CCD video camera 61 is moved linearly along the viewpoint path 111. At this time, in the CCD video camera 61, the optical axis 61a is rotated by an angle θ corresponding to the position on the viewpoint path 111 so that the optical axis 61a always points to the subject 112. Note that the angle of view θv of the camera when the CCD video camera 61 captures the subject 112 need not correspond to the exposure angle θe shown in FIG.
[0030]
In this way, the CCD video camera 61 is controlled so that its optical axis 61a is always directed to the subject 112 regardless of the position on the viewpoint path 111, so that the photographing lens of the CCD video camera 61 has a wide angle. This is unnecessary, and a parallax image of the subject can always be taken with a relatively small angle of view. As a result, a general-purpose camera such as a home video camera can be used as the CCD video camera 61. Since a lens having a relatively small angle of view can be used, image distortion is also suppressed, and the resolution in the parallax direction can be improved as compared with the case where a wide-angle lens is used.
[0031]
Moving distance d of the CCD video camera 61CIs represented by the following equation.
dC= 2dV・ Tan (θe / 2) + WH  ... (1)
[0032]
Where dVRepresents the photographing distance (shortest distance) between the CCD video camera 61 and the subject 112, and this distance corresponds to the viewpoint distance during hologram observation. That is, when the hologram surface 113 is disposed at the position of the subject 112, the viewpoint for observing the image on the hologram surface 113 is the position (viewpoint position) where the CCD video camera 61 is disposed. Accordingly, the viewpoint is positioned on the straight line (viewpoint path 111) on which the CCD video camera 61 moves.
[0033]
In addition, W in the above equation (1)HRepresents the lateral length of the holographic stereogram to be created.
[0034]
The angle of view θv of the CCD video camera 61 is expressed by the following equation.
θv = θc−θe (2)
[0035]
Here, θe represents the exposure angle of the hologram, and θc represents the camera movement distance d.CWhen viewed from the subject 112, that is, in FIG.1And point PThreeAnd a line connecting the point P2And pointsThreeIs an angle formed by a straight line connecting the two and is expressed by the following equation.
θc = 2tan-1(Tan (θe / 2) + WH/ 2) (3)
[0036]
By taking a picture using the angle of view determined by these equations, a parallax image can be taken with the smallest angle of view, and an image for exposure is reconstructed from the taken parallax image by viewpoint conversion. Is compensated.
[0037]
As shown in FIG. 5, when the optical axis 61a of the CCD video camera 61 is always directed toward the subject 112, keystone distortion occurs. For simplicity, a rectangular object having no thickness in the depth direction is considered here. That is, as shown in FIG. 6A, when the CCD video camera 61 (the CCD 61A) and the subject 112 are parallel to each other, as shown in FIG. The length in the direction is represented by the same length. However, when the CCD video camera 61 (the CCD 61A) and the subject 112 are not parallel as shown in FIG. 7A, the corresponding vertical directions on the left and right sides of the subject 112 are shown in FIG. 7B. Will not match. Therefore, before reconstructing the image for exposure (before displaying the image captured by the CCD video camera 61 on the LCD 30), it is necessary to correct this keystone distortion.
[0038]
FIG. 8 shows the principle of correcting this keystone distortion. As shown in the figure, the CCD video camera 61 now has a point P.2Located at the top and its rotation angle (point PFourAnd point PThreeAnd the point P2And point PThreeThe angle between the straight line connecting the two and θ) is expressed by the following equation.
θ = tan-1(ΔdC/ DV(4)
[0039]
Where ΔdCIs the camera movement distance dCUpper center point PFourAnd the point P where the CCD video camera 61 is located at that time2Represents the distance between
[0040]
And point P2When the angle from the optical axis 61a representing the position of the pixel in the horizontal direction of the image captured by the CCD video camera 61 located above is α, the enlargement / reduction ratio ratio for keystone distortion correction is expressed by the following equation.
ratio = 1 + tan α · tan θ (5)
However, −θv / 2 ≦ α ≦ θv / 2 (θv: angle of view of the camera)
[0041]
Therefore, the CCD video camera 61 can perform the enlargement / reduction (scaling) processing on the pixels in the pixel row defined by the angle α in the vertical direction (pixel row direction), so that the point PFourIt is possible to correct the difference between the corresponding vertical lengths of the left and right of the image that occurs when moving from right to left or moving left.
[0042]
In order to correct the keystone distortion, the direction of the projection surface of the CCD video camera 61 (the surface of the CCD 61A) and the direction of the subject 112 (the hologram surface 113) are not parallel at the rotation angle θ. Mapping process is required. Therefore, as shown in FIG. 8, the x-axis is taken in a direction parallel to the hologram surface 113, and the x-axis and the point PThreeThe x′-axis is taken in the direction parallel to the projection plane of the CCD video camera 61 so as to intersect with each other, and the pixel column data of the CCD video camera 61 represented by the x′-axis coordinate is converted to the x-axis coordinate. To the pixel column data. In this case, the relationship between x, x ', α, and θ is as follows.
α = tan-1[X / {dV(Sinθ · tanθ + cosθ) −x · tanθ}]
... (6)
x ′ = dV・ Tanα (7)
[0043]
That is, the coordinate conversion process can be performed using the above equations (6) and (7).
[0044]
The keystone distortion correction processing executed by the viewpoint conversion processing CPU 72 in accordance with the above principle will be described with reference to the flowchart of FIG. First, in step S1, an angle α corresponding to a pixel column to be processed is obtained. Next, in step S2, the enlargement / reduction ratio ratio shown in the above equation (5) is calculated.
[0045]
Next, the process proceeds to step S3, and scaling processing of the processing target pixel row is executed using the enlargement / reduction ratio ratio obtained in step S2.
[0046]
Further, the process proceeds to step S4, and the process (mapping process) for converting the pixel column data represented by the x ′ coordinate into the coordinate represented by the x coordinate using the above-described expressions (6) and (7) Done.
[0047]
Next, in step S5, it is determined whether or not the processing for all the pixel columns has been completed. If there is a pixel row that has not yet been processed, the process returns to step S1 and the same processing is repeatedly executed.
[0048]
If it is determined in step S5 that the processing for all pixel ratios has been completed, the process proceeds to step S6, where it is determined whether or not the processing for all input images has been completed. If there is an input image that has not been processed yet, the process returns to step S1 and the same processing is repeatedly executed. When the processing for all the input images is completed, the keystone distortion correction processing is completed.
[0049]
By performing the above processing, a planar holographic stereogram can be created, and the viewpoint at the time of observation can be parallel to the hologram surface.
[0050]
By the way, when white light is used as the light source 21 in FIG. 1, the reproduced image is blurred as the reproduced image is further away from the vicinity of the hologram surface. Therefore, it is necessary to perform viewpoint conversion processing so that the reproduced image is localized near the hologram surface. Since the positional relationship between the camera viewpoint and the subject at the time of shooting is preserved for the reconstructed image after exposure, when the viewpoint conversion processing is not performed, the observer's eyes are placed on the hologram surface during observation. Unless this is the case, a reproduced image without distortion cannot be obtained. Theoretically, the reproduced image is formed deeper than the hologram surface by a distance corresponding to the distance between the video camera and the subject, so that the reproduced image becomes a blurred image based on the above-described properties. . Therefore, it is necessary to perform a viewpoint conversion process in which the reproduced image is localized in the vicinity of the hologram surface and the viewpoint at the time of hologram observation is set in front of the hologram surface. Next, this viewpoint conversion process will be described.
[0051]
FIG. 10 shows the positional relationship between the input image and the hologram exposure image (image reconstructed by viewpoint conversion). The hologram exposure image 131 needs to have its angle of view coincident with the hologram exposure angle θe. The viewpoint conversion process is realized by newly generating (reconstructing) one hologram exposure image 131 from a plurality of input images.
[0052]
Here, for the sake of simplicity, when the input image is rotated around the viewpoint path 111 shown in FIG. 10, the input image and the hologram exposure image are in a positional relationship as shown in FIG.
[0053]
As shown in FIG. 11, on the hologram surface 113, the exposure point ep corresponds to the n element holograms 102.1Thru epnExists. Each exposure point epiEach of the hologram exposure images 131-i includes 480 pixel columns (parallax information) 131-i-1 to 131-i-480. Each pixel column (parallax information) is composed of one horizontal pixel and 640 vertical pixels.
[0054]
Of these, for example, the exposure point ep1When attention is paid to this exposure point ep, as shown in FIG.1This image is composed of a total of 480 pixel columns of the pixel columns 131-1-1 to 131-1-480 of the hologram exposure image.
[0055]
Of these, for example, the pixel column 131-1-1 of the image for hologram exposure has a leftmost viewpoint vP in the drawing on the viewpoint path 111.1One pixel column is selected from the 480 pixel columns of the input image 141-1 captured in step S 1, and is associated. However, as described above, the input image 141-1 is subjected to the processing for correcting the keystone distortion and is mapped in parallel with the hologram surface 113, so that the N constituting the input image 141 A- 1 after the distortion correction is configured.1Book (in this embodiment, N1= 480), one pixel column (in the case of the example of FIG. 12, the rightmost pixel column PC in the figure)1) Is selected and responded.
[0056]
The pixel row 131-1-2 of the image for hologram exposure has a viewpoint vP2Is the pixel column data of the input image 141-2 captured in step N, and N after distortion correction2(In this embodiment, N2= 480) One predetermined pixel column from among the pixel columns (in this embodiment, N from the left side)twenty oneThe pixel row PCtwenty one) Is selected and responded.
[0057]
As described above, the exposure point ep1The processing for obtaining the 480 hologram exposure image pixel columns 131-1-1 to 131-1-480 is performed.
[0058]
Next, the details of the viewpoint conversion processing performed by the viewpoint conversion processing CPU 72 will be further described with reference to the flowchart of FIG.
[0059]
First, in steps S21 and S22, variables j and i are initially set to 1, and in step S23, n exposure points ep on the hologram surface 113 are set.1Thru epnOf these, one exposure point is selected. For example, the exposure point epj(J = 1 to n) of exposure points ep1Is selected. And this exposure point ep1Among the 480 holographic exposure image pixel rows 131-1-1 to 131-1-480 that constitute the image, one pixel row is a sampling point r.i(I = 1 to 480) is selected. For example, the pixel row 131-1-1 is a sampling point r.1Selected as.
[0060]
The exposure point ep selected in this way1And sampling point r1A virtual line LN1 that connects (pixel column 131-1-1) is defined. In the same manner, the sampling point r2Thru r480As a result, the pixel columns 131-1-2 through 131-1-480 are selected and their sampling points r are selected.iAnd exposure point ep1An imaginary line LN1 is defined. As a result, a total of 480 virtual lines LN1 are defined.
[0061]
Next, proceeding to step S24, the intersection of the virtual line LN1 defined at step S23 and the viewpoint path 111 is calculated. As a result, n intersection points are obtained on the viewpoint path 111.
[0062]
In step S25, m viewpoints vP on the viewpoint path 111 are displayed.1To vPmThe viewpoint vP closest to the intersection obtained in step S24 from (the point where the subject 112 was photographed by the CCD video camera 61).kIs searched. Thus, m viewpoints vP1To vPmA maximum of n viewpoints are searched from the list. When two or more viewpoints overlap and are searched corresponding to different sampling points, the number of viewpoints is n or less.
[0063]
In step S26, the viewpoint vP searched in step S25.kThe input image 141-k captured in is selected. As a result, a maximum of n input images 141 are selected.
[0064]
Next, the process proceeds to step S27, and the viewpoint vP obtained in step S26.kAnd exposure point ep1Is defined. Thereby, a maximum of n virtual lines LN2 are defined.
[0065]
Further, in step S28, an intersection between the virtual line LN2 obtained in step S27 and the input image after the correction of the keystone distortion is obtained. In step S29, the pixel row of the input image located at the intersection obtained in step S28 is mapped as the pixel row of the hologram exposure image at the corresponding sampling point.
[0066]
For example, as shown in FIG. 12, the exposure point ep1Sampling point r1Corresponding to the pixel row 131-1-1 of the hologram exposure image as1And exposure point ep1When the straight line passing through is one of the virtual lines LN2, the pixel column PC of the input image 141A-1 after distortion correction located on this straight line1Is selected and mapped on the RAM 73 as a pixel column corresponding to the pixel column 131-1-1.
[0067]
Further, as a viewpoint corresponding to the pixel column 131-1-2 of the hologram exposure image, the viewpoint vP is used.2Is selected and the viewpoint vP2And exposure point ep1Is defined. Then, N pixels from the left end of the input image 141A-2 after distortion correction are set as pixel columns located on the virtual line LN2.twenty oneTh pixel column PC2Is required. And this pixel column PC2Are mapped as pixel columns of the pixel column 131-1-2 of the hologram image.
[0068]
As described above, the exposure point ep1The pixel columns 131-1-1 to 131-1-480 of the hologram exposure image are mapped.
[0069]
In step S30, it is determined whether mapping at all sampling points of the exposure image is complete (i = 480). In this case, exposure point ep1The mapping of is only completed. Therefore, the process proceeds to step S31, i is incremented by 1, and the process returns to step S23. And exposure point ep1Next exposure point ep2The same processing is executed for. The above processing is performed at the exposure point ep.1Thru epnIn step S30, it is determined that mapping at all sampling points of the exposure image has been completed, and the process proceeds to step S32.
[0070]
In step S32, it is determined whether or not mapping has been completed for all exposure points (whether j = n). If NO, the process proceeds to step S33, and j is incremented by 1, and then step S32 is performed. Returning to S22, the subsequent processing is executed. When a determination of YES is made in step S32, the process ends.
[0071]
Various parameters such as the position of the subject, the angle of view, and the position of the viewpoint necessary for performing the viewpoint conversion process need not be changed if set once. In the viewpoint conversion process, since the parallax image to be processed is an image having only horizontal parallax, if the corresponding parallax information (a slit-like image composed of one horizontal pixel and 640 vertical pixels) can be calculated, the slit conversion process is finally performed. It can be executed by exchanging the images. Therefore, at the time of the first calculation, the correspondence relationship between the slit-like images of all the exposure images and the slit-like images of the original parallax images is stored in a storage medium such as a hard disk in advance as a table. Then, the next viewpoint conversion process can be performed at high speed with reference to this table.
[0072]
In the above embodiment, the NTSC system is used as the CCD video camera 61, but a PAL system or other system can also be used. Further, the format processed by the viewpoint conversion processing CPU 72 is not limited to the VGA, but can be an image of another format. Furthermore, it is possible to use a laser light source instead of a white light source as the light source.
[0073]
In the above-described embodiment, the holographic stereogram printer that creates a planar holographic stereogram is basically integrated with the parallax image input unit 51, the viewpoint conversion processing unit 52, and the hologram exposure unit 53. However, it is also possible to separate them appropriately to form a separate structure.
[0074]
【The invention's effect】
  As described above, according to the image data generation device according to claim 1 and the image data generation method according to claim 6, the optical axis always moves toward the subject while moving linearly,The captured parallax image is scaled in the pixel column direction corresponding to the rotation angle and angle from the optical axis when capturing the parallax image for each pixel column, and the scaled parallax image is parallel to the subject. Mapping as an image on the surface of the image, displaying the mapped image, and creating a holographic stereogram using the light from the displayed image as object lightSince it did in this way, the angle of view at the time of imaging | photography can be made comparatively small, and it becomes possible to utilize a home video camera. In addition, by reducing the angle of view, it is possible to suppress image distortion and improve resolution compared to the case of using a wide-angle lens. Furthermore, since a parallax image of the subject can always be obtained, it is possible to suppress the useless image capture. In addition, a planar holographic stereogram having an observation viewpoint parallel to the planar hologram surface can be created.
[Brief description of the drawings]
FIG. 1 is a diagram showing a plane configuration of an optical system of a holographic stereogram printer to which an image data generation apparatus of the present invention is applied.
FIG. 2 is a diagram showing a configuration of a part of a side surface of the optical system shown in FIG.
FIG. 3 is a block diagram illustrating a configuration example of an electrical system of a holographic stereogram printer to which the image data generation apparatus of the present invention is applied.
FIG. 4 is a perspective view illustrating a holographic stereogram.
FIG. 5 is a diagram illustrating a parallax image input method.
FIG. 6 is a diagram illustrating keystone distortion.
FIG. 7 is a diagram for correcting keystone distortion.
FIG. 8 is a diagram illustrating a keystone distortion correction process.
FIG. 9 is a flowchart illustrating a keystone distortion correction process.
FIG. 10 is a diagram illustrating a positional relationship between an input image and a hologram exposure image.
FIG. 11 is a diagram illustrating viewpoint conversion processing.
FIG. 12 is another diagram for explaining viewpoint conversion processing;
FIG. 13 is a flowchart illustrating viewpoint conversion processing.
FIG. 14 is a diagram illustrating a conventional parallax image input method.
[Explanation of symbols]
21 light source, 22 shutter, 30 LCD, 24, 31 cylindrical lens, 32 hologram recording medium, 33 recording medium feeding mechanism, 51 parallax image input unit, 52 viewpoint conversion processing unit, 53 hologram exposure unit, 61 CCD video camera, 71 JPEG compression board, 72 viewpoint conversion processing CPU, 73 RAM, 81 exposure head control CPU, 82 exposure head, 83 LCD driver

Claims (10)

平面のホログラフィックステレオグラムを作成するための画像データを生成する画像データ生成装置において、
直線上を移動しつつ、光軸が常に被写体に向くように回転して、前記被写体の視差画像を取り込む取込手段と、
前記取込手段により取り込まれた視差画像を、その画素列毎に、前記取込手段の回転角と前記光軸からの角度とに対応して、画素列方向にスケーリングするスケーリング手段と、
前記スケーリング手段によりスケーリングされた視差画像を、前記被写体と平行な方向の面上の画像としてマッピングするマッピング手段と、
前記マッピング手段によりマッピングされた画像を表示する表示手段と、
前記表示手段に表示された画像からの光を物体光として、ホログラフィックステレオグラムを作成する作成手段と を備えることを特徴とする画像データ生成装置。
In an image data generation device for generating image data for creating a planar holographic stereogram,
A taking-in means for taking in a parallax image of the subject by rotating so that the optical axis always faces the subject while moving on a straight line;
Scaling means for scaling the parallax image captured by the capturing unit for each pixel column in a pixel column direction corresponding to the rotation angle of the capturing unit and the angle from the optical axis;
Mapping means for mapping the parallax image scaled by the scaling means as an image on a plane parallel to the subject;
Display means for displaying an image mapped by the mapping means;
An image data generation apparatus comprising: a creation unit that creates a holographic stereogram using light from an image displayed on the display unit as object light .
前記スケーリング手段は、The scaling means includes
前記取込手段により取り込まれた視差画像を、その画素列毎に、前記取込手段の回転角と前記光軸からの角度とに対応する拡大縮小率を求める拡大縮小率計算手段と、An enlargement / reduction ratio calculation means for obtaining an enlargement / reduction ratio corresponding to a rotation angle of the acquisition means and an angle from the optical axis, for each pixel column, the parallax image captured by the capture means;
前記拡大縮小率計算手段により計算された拡大縮小率を用いて、前記視差画像を、その画素列毎に、前記回転角と前記光軸からの角度とに対応して拡大縮小する拡大縮小手段とをさらに備える  Enlarging / reducing means for enlarging / reducing the parallax image corresponding to the rotation angle and the angle from the optical axis for each pixel column using the enlargement / reduction ratio calculated by the enlargement / reduction ratio calculating means; Further comprising ことを特徴とする請求項1に記載の画像データ生成装置。The image data generation device according to claim 1.
前記マッピング手段は、The mapping means includes
前記スケーリング手段によりスケーリングされた視差画像の画素列のデータの座標系を変換することにより、前記被写体と平行な方向の面上の画像としてマッピングするBy mapping the coordinate system of the pixel column data of the parallax image scaled by the scaling means, it is mapped as an image on a plane parallel to the subject. ことを特徴とする請求項1に記載の画像データ生成装置。The image data generation device according to claim 1.
再生像をホログラム面に定位させるための視点変換処理を行う変換手段をさらに備える ことを特徴とする請求項1に記載の画像データ生成装置。  The image data generation device according to claim 1, further comprising conversion means for performing viewpoint conversion processing for localizing a reproduced image on a hologram surface. 前記視点変換処理は、取り込まれた複数の視差画像の画素列から新たな画像を生成することで行われる ことを特徴とする請求項に記載の画像データ生成装置。The image data generation apparatus according to claim 4 , wherein the viewpoint conversion process is performed by generating a new image from a pixel array of a plurality of captured parallax images. 平面のホログラフィックステレオグラムを作成するための画像データを生成する画像データ生成方法において、
直線上を移動しつつ、光軸が常に被写体に向くように回転して、前記被写体の視差画像を取り込む取込ステップと、
前記取込ステップの処理により取り込まれた視差画像を、その画素列毎に、前記取込手段の回転角と前記光軸からの角度とに対応して、画素列方向にスケーリングするスケーリングステップと、
前記スケーリングステップの処理によりスケーリングされた視差画像を、前記被写体と平行な方向の面上の画像としてマッピングするマッピングステップと、
前記マッピングステップの処理によりマッピングされた画像を表示する表示ステップと、
前記表示ステップの処理により表示された画像からの光を物体光として、ホログラフィックステレオグラムを作成する作成ステップと を備えることを特徴とする画像データ生成方法。
In an image data generation method for generating image data for creating a planar holographic stereogram,
A capturing step of capturing a parallax image of the subject by rotating so that the optical axis always faces the subject while moving on a straight line;
A scaling step for scaling the parallax image captured by the processing of the capturing step in the pixel column direction corresponding to the rotation angle of the capturing unit and the angle from the optical axis for each pixel column;
A mapping step for mapping the parallax image scaled by the processing of the scaling step as an image on a plane parallel to the subject;
A display step of displaying an image mapped by the mapping step;
And a creation step of creating a holographic stereogram using light from the image displayed by the processing of the display step as object light .
前記スケーリングステップの処理は、The processing of the scaling step is
前記取込手段により取り込まれた視差画像を、その画素列毎に、前記取込手段の回転角と前記光軸からの角度とに対応する拡大縮小率を求める拡大縮小率計算ステップと、An enlargement / reduction ratio calculation step for obtaining an enlargement / reduction ratio corresponding to the rotation angle of the acquisition means and the angle from the optical axis for each pixel column of the parallax image acquired by the acquisition means;
前記拡大縮小率計算ステップの処理により計算された拡大縮小率を用いて、前記視差画像を、その画素列毎に、前記回転角と前記光軸からの角度とに対応して拡大縮小する拡大  Using the enlargement / reduction ratio calculated by the processing of the enlargement / reduction ratio calculation step, enlargement / reduction of the parallax image corresponding to the rotation angle and the angle from the optical axis is performed for each pixel column. 縮小ステップとをさらに備えるAnd further comprising a reduction step ことを特徴とする請求項6に記載の画像データ生成方法。The image data generation method according to claim 6.
前記マッピングステップの処理は、The mapping step process is as follows:
前記スケーリング手段によりスケーリングされた視差画像の画素列のデータの座標系を変換することにより、前記被写体と平行な方向の面上の画像としてマッピングするBy mapping the coordinate system of the pixel column data of the parallax image scaled by the scaling means, it is mapped as an image on a plane parallel to the subject. ことを特徴とする請求項6に記載の画像データ生成方法。The image data generation method according to claim 6.
ホログラム面近傍に前記被写体を定位させる視点変換処理を行う変換ステップをさらに備える ことを特徴とする請求項6に記載の画像データ生成方法。  The image data generation method according to claim 6, further comprising a conversion step of performing a viewpoint conversion process for localizing the subject in the vicinity of the hologram surface. 前記視点変換処理は、取り込まれた複数の視差画像の画素列から新たな画像を生成することで行われる ことを特徴とする請求項9に記載の画像データ生成方法。The image data generation method according to claim 9, wherein the viewpoint conversion process is performed by generating a new image from a pixel array of a plurality of captured parallax images.
JP30269196A 1996-11-14 1996-11-14 Image data generation apparatus and method Expired - Fee Related JP3891226B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP30269196A JP3891226B2 (en) 1996-11-14 1996-11-14 Image data generation apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP30269196A JP3891226B2 (en) 1996-11-14 1996-11-14 Image data generation apparatus and method

Publications (2)

Publication Number Publication Date
JPH10143058A JPH10143058A (en) 1998-05-29
JP3891226B2 true JP3891226B2 (en) 2007-03-14

Family

ID=17912039

Family Applications (1)

Application Number Title Priority Date Filing Date
JP30269196A Expired - Fee Related JP3891226B2 (en) 1996-11-14 1996-11-14 Image data generation apparatus and method

Country Status (1)

Country Link
JP (1) JP3891226B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7990467B2 (en) * 2004-11-08 2011-08-02 Sony Corporation Parallax image pickup apparatus and image pickup method
GB0518554D0 (en) 2005-09-12 2005-10-19 Geola Technologies Ltd An image capture system for digital holograms

Also Published As

Publication number Publication date
JPH10143058A (en) 1998-05-29

Similar Documents

Publication Publication Date Title
US6108440A (en) Image data converting method
US6191808B1 (en) Image processing method with viewpoint compensation and apparatus therefor
US5835133A (en) Optical system for single camera stereo video
KR100730406B1 (en) Three-dimensional display apparatus using intermediate elemental images
JP4990852B2 (en) Free viewpoint video generation system and recording medium for three-dimensional movement
US20070285554A1 (en) Apparatus method and system for imaging
JP3744559B2 (en) Stereo camera, stereo display, and stereo video system
Hong et al. Three-dimensional visualization of partially occluded objects using integral imaging
JP2008146221A (en) Image display system
KR101600681B1 (en) Depth convertion method of 3D images interal imaging system
JP4066488B2 (en) Image data generation apparatus and image data generation method
US8154584B2 (en) Image capture system for a digital holographic printer
US6694882B2 (en) Holographic stereogram printing apparatus and a method therefor
JP4436488B2 (en) Stereo image acquisition device
JP4534337B2 (en) Imaging apparatus and imaging method, and image generation apparatus and image generation method
JP3596174B2 (en) Image data generation method
JP3891226B2 (en) Image data generation apparatus and method
JPH1097642A (en) Image processing method, its device and storage medium
JP4288722B2 (en) Image data creation device and creation method, image data conversion device and conversion method, holographic stereogram creation device and creation method, recording medium, and data transmission method
JPH10336703A (en) Image compositing device, its method and storage medium
JPH11155151A (en) Three-dimension image-pickup display system
JPH1020755A (en) Image data converting method
JP3583611B2 (en) Three-dimensional moving image display device and method for generating light modulation pattern data therefor
JP2006047690A (en) Projection type ip system three-dimensional display system
JPH1078742A (en) Parallactic picture line generating method

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040524

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050719

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050920

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060823

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20061115

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20061128

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091215

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101215

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111215

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121215

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131215

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees