以下に本発明の一実施形態について図面を参照して説明する。図1には、本実施形態の立体画像生成装置10の全体構成が示されている。立体画像生成装置10は、被写体を撮影し、背景画像と合成して立体画像として印刷する撮影・印刷システムである。図2には、前処理の流れがフローチャートで示され、図3には、被写体の撮影から立体画像の印刷までの全体的な処理の流れがフローチャートで示され、図4には、被写体またはオペレータによる背景画像の選択または生成についての詳細な流れがフローチャートで示され、図5には、被写体またはオペレータによる小道具画像の選択または生成についての詳細な流れがフローチャートで示され、図6には、配置位置の入力の受付、奥行き情報の取得、サイズ情報の取得、および倍率の算出についての詳細な流れがフローチャートで示され、図7には、リアルタイム確認表示用の撮影、および2D画像の表示についての詳細な流れがフローチャートで示され、図8には、本番撮影、および確認用の立体画像の表示についての詳細な流れがフローチャートで示され、図9には、印刷用の立体画像の生成、印刷についての詳細な流れがフローチャートで示されている。また、図10には、背景画像の選択画面の一例が示され、図11には、現在および過去の被写体画像、並びに小道具画像の配置位置の入力画面の一例が示され、図12には、現在および過去の被写体画像、並びに小道具画像を背景画像に合成する際のレイヤ構造が示され、図13には、合成された画像の一例が示されている。さらに、図14は、背景画像の生成および使用についての説明図であり、図15は、現在の被写体画像の生成および使用についての説明図であり、図16は、小道具画像の生成および使用についての説明図であり、図17は、過去の被写体画像の使用についての説明図であり、図18および図19は、被写体画像を90度回転させて合成する場合の説明図である。
図1において、立体画像生成装置10は、被写体1を撮影する際のバックとなるブルースクリーン11およびブルーの床12と、この床12に設けられたフットペダル13と、被写体1を撮影するための複数台の高解像度のカメラ14および1台の低解像度のカメラ15と、被写体の撮影並びに立体画像の生成および印刷に必要な各種処理を実行するとともに各種データを記憶するコンピュータ本体20と、印刷用(レンチキュラ用等)の立体画像を印刷する印刷装置60と、被写体1またはオペレータによる操作のための表示が行われる操作用ディスプレイ70と、この操作用ディスプレイ70と一体化された入力手段であるタッチパネル71と、合成された画像を確認するための表示が行われる確認用ディスプレイ80とを備えて構成されている。
フットペダル13は、被写体1が足でスイッチング操作を行うためのものであり、被写体1が撮影ポーズを決めてから本番撮影に移るタイミングを指示するために用いられる。例えば、フットペダル13を踏んでから一定時間経過後(例えば5秒後等)に、低解像度のカメラ15によるリアルタイム確認表示用の撮影が終了し、高解像度のカメラ14による本番撮影が行われる。
高解像度のカメラ14は、本番撮影を行うための実物のカメラであり、複数視点から被写体1を撮影するために複数台並べて設けられている。例えば、14視点から被写体1を撮影する場合には、14台のカメラ14A〜14Nを設置する。
低解像度のカメラ15は、リアルタイム確認表示用の撮影を行うための実物のビデオカメラであり、複数台並べて設けられた高解像度のカメラ14のうちの中央のカメラ14の近傍に設けられている。例えば、14台の高解像度のカメラ14A〜14Nが設置されている場合には、低解像度のカメラ15は、カメラ14Gまたは14Hの近傍(上側または下側)に設置する。
コンピュータ本体20は、被写体の撮影並びに立体画像の生成および印刷に必要な各種処理を実行する処理手段30と、この処理手段30に接続された背景画像記憶手段51、合成対象画像記憶手段52、合成対象サイズ記憶手段53、奥行き情報記憶手段54、眼数テーブル記憶手段55、および印刷用立体画像記憶手段56とを含んで構成されている。
処理手段30は、背景選択受付処理手段31と、配置位置入力受付処理手段32と、撮影処理手段33と、被写体切出処理手段34と、被写体サイズ算出処理手段35と、新規画像生成処理手段36と、奥行き情報抽出処理手段37と、合成対象画像倍率算出処理手段38と、眼数決定処理手段39と、確認用画像生成処理手段40と、合成処理手段41と、印刷処理手段42とを含んで構成されている。
背景選択受付処理手段31は、被写体1またはオペレータによる背景画像の選択、小道具画像の選択、および過去の被写体画像の選択を受け付ける処理を実行するものである。具体的には、背景選択受付処理手段31は、背景画像記憶手段51から各背景画像を取得し、取得した各背景画像を、図10に示すように、操作用ディスプレイ70の画面上に並べて縮小表示するとともに、被写体1またはオペレータによるタッチパネル71からの入力信号を受信し、被写体1またはオペレータにより選択された背景画像(背景番号)を特定する処理を行う。
また、背景選択受付処理手段31は、被写体1またはオペレータにより選択された背景画像に対応して用意された1つまたは複数の小道具画像を、小道具画像記憶手段52Bから取得し、取得した小道具画像を、図10に示した各背景画像の場合と同様に、操作用ディスプレイ70の画面上に並べて縮小表示するとともに、被写体1またはオペレータによるタッチパネル71からの入力信号を受信し、被写体1またはオペレータにより選択された小道具画像(小道具番号)を特定する処理を行う。本実施形態では、小道具画像を識別する小道具番号(小道具画像識別情報)に、背景画像を識別する背景番号(背景画像識別情報)を含ませることにより、背景画像と小道具画像とを関連付けている。例えば、背景番号=101の背景画像(風景1)に対応する小道具画像には、小道具番号101−1(小道具1)、小道具番号101−2(小道具2)、小道具番号101−3(小道具3)…が付されている。なお、背景番号(背景画像識別情報)と小道具番号(小道具画像識別情報)との対応関係を定めるテーブルを作成してもよく、また、背景画像識別情報や小道具画像識別情報は、システムで付した番号ではなく、背景や小道具の名称等としてもよい。
さらに、背景選択受付処理手段31は、被写体画像記憶手段52Aから、過去に撮影された各被写体画像を取得し、取得した過去の各被写体画像を、図10に示すように、操作用ディスプレイ70の画面上に並べて縮小表示するとともに、被写体1またはオペレータによるタッチパネル71からの入力信号を受信し、被写体1またはオペレータにより選択された過去の被写体画像(被写体番号)を特定する処理を行う。なお、被写体番号(被写体画像識別情報)は、現在および過去の被写体を区別することなく付される。また、被写体画像識別情報は、システムで付した番号ではなく、被写体の名前や電話番号等としてもよい。
また、背景選択受付処理手段31は、被写体1またはオペレータが背景画像や小道具画像を3DCGデータから自ら生成する旨の選択も受け付け、この場合には、背景用3DCG番号と関連付けられて背景画像記憶手段51に記憶されている背景用3DCGデータ、あるいは小道具用3DCG番号と関連付けられて小道具画像記憶手段52Bに記憶されている小道具用3DCGデータの選択メニューを操作用ディスプレイ70の画面上に表示し、被写体1またはオペレータにより、いずれかの背景用3DCGデータまたは小道具用3DCGデータが選択されたときに、その選択された背景用3DCGデータまたは小道具用3DCGデータを識別する背景用3DCG番号または小道具用3DCG番号を、新規画像生成処理手段36に引き渡す処理を行う。
配置位置入力受付処理手段32は、被写体1またはオペレータによる背景画像への合成対象画像(現在撮影しようとしている被写体画像、過去に撮影された被写体画像、および小道具画像)の配置位置の入力を受け付ける処理を実行するものである。具体的には、配置位置入力受付処理手段32は、被写体1またはオペレータにより選択された背景画像を、図11に示すように、操作用ディスプレイ70の画面上に表示するとともに、被写体1またはオペレータによるタッチパネル71からの入力信号を受信し、受信した信号値から、入力指定された配置位置に対応する背景画像の部位(部位識別情報)を特定する処理を行う。なお、本実施形態では、背景画像の部位は、一例として、画素単位で捉え、部位識別情報は、画素を識別する座標値(x,y)とする。
撮影処理手段33は、低解像度のカメラ15によるリアルタイム確認表示用の撮影を行い、その撮影画像を一定時間置きに(例えば毎秒)繰り返して取り込むとともに、フットペダル13が踏まれたときに、その信号を受信し、踏まれてから一定時間経過後(例えば5秒後等)に、低解像度のカメラ15によるリアルタイム確認表示用の撮影を終了させ、高解像度のカメラ14による本番撮影を行い、その撮影画像を取り込む処理を実行するものである。なお、複数台の高解像度のカメラ14による本番撮影は、交差法により行うことが好ましいが、平行法でもよい。
被写体切出処理手段34は、複数台の高解像度のカメラ14、および低解像度のカメラ15により撮影した被写体を含む各画像から、被写体を切り出して合成対象画像としての被写体画像を生成する処理を実行するものである。具体的には、被写体切出処理手段34は、被写体1がブルーバックで撮影されているため、ブルーバックからの被写体1の撮像部分の切出処理を行う。このブルーバックからの切出処理は、クロマキー合成(ブルーバック合成)として公知の技術であり、特許庁のホームページの「資料室(その他参考情報)>標準技術集>ノンリニア編集>3−2−4クロマキー」(http://www.jpo.go.jp/shiryou/s_sonota/hyoujun_gijutsu/nle/nle-3-3-2.html)にも記載されている。
被写体サイズ算出処理手段35は、被写体切出処理手段34により切り出された被写体画像の画像サイズから、現在の被写体の原寸のサイズ情報(本実施形態では、現在の被写体が人間や動物であれば、その身長となり、物体であれば、その高さ寸法となる。)を自動算出する処理を実行するものである。具体的には、複数台の高解像度のカメラ14、および低解像度のカメラ15の設置位置と、被写体1が立つ床12の位置とは、ほぼ固定されているため、どれぐらいの身長や高さ寸法を有する被写体が、何ピクセルで撮像されるのかを、予めキャリブレーションを行って把握しておく。例えば、キャリブレーションにおいて、身長L1メートル(原寸のサイズ)の被写体を撮影し、被写体切出処理手段34により被写体を切り出すことにより、Q1ピクセル(画像サイズ)の被写体画像が得られたとする。このとき、ある被写体を撮影し、被写体切出処理手段34により被写体を切り出し、Qピクセル(画像サイズ)の被写体画像が得られたとすると、撮影した被写体の身長Lメートル(原寸のサイズ)は、L=(L1/Q1)×Qという式により算出することができる。(L1/Q1)という比例係数は、身長の異なる多数のサンプル被写体を用いて収集したデータの平均値とすればよい。また、このように身長Lメートル(原寸のサイズ)とQピクセル(画像サイズ)とを比例関係で捉えるのではなく、身長の異なる多数のサンプル被写体を用いて、L−Qの関係を定める非線形のキャリブレーションデータを作成しておき、このデータを用いてQピクセル(画像サイズ)から被写体の身長Lメートル(原寸のサイズ)を算出するようにしてもよい。そして、(L1/Q1)という比例係数、あるいはL−Qの関係を定める非線形のキャリブレーションデータは、被写体サイズ算出処理手段35を実現するプログラム内に記述しておけばよいが、外出しのデータとしてもよい。
なお、被写体サイズ算出処理手段35の代わりに、被写体1またはオペレータによる被写体1の原寸のサイズ情報(身長、高さ寸法)の入力を受け付ける処理を実行する被写体サイズ入力受付処理手段を設けてもよい。但し、被写体1またはオペレータの操作の手間を軽減するという観点からは、被写体サイズ算出処理手段35を設けておくことが好ましい。
また、被写体サイズ算出処理手段35は、算出した現在の被写体の原寸のサイズ情報を、自動付与した被写体番号と関連付けて被写体サイズ記憶手段53Aに記憶させる処理も行う。これにより、被写体サイズ記憶手段53Aに記憶された被写体の原寸のサイズ情報は、後に、過去の被写体の原寸のサイズ情報として使用することができるようになる。
新規画像生成処理手段36は、被写体1またはオペレータが背景画像や小道具画像を3DCGデータから自ら生成することを選択し、背景選択受付処理手段31によりその選択情報を受け付けたときに、被写体1またはオペレータの操作に従って3DCGデータをレンダリングして背景画像や小道具画像を生成する処理を実行するものである。
具体的には、新規画像生成処理手段36は、被写体1またはオペレータにより背景用3DCGデータが選択され、背景選択受付処理手段31から、選択された背景用3DCGデータを識別する背景用3DCG番号を受け取った場合には、受け取った背景用3DCG番号の背景用3DCGデータを用いて操作用ディスプレイ70に、その背景用3DCGを表示し、被写体1またはオペレータによる背景用3DCGの回転操作等を受け付けることにより、背景用3DCGのアングルの指定を受け付け、指定されたアングルで、複数の仮想カメラにより多視点または2視点レンダリングを実行し、生成された多視点または2視点の背景用3DCGレンダリング画像を、自動付与した背景番号と関連付けて背景画像記憶手段51に記憶させる処理を行う。また、新規画像生成処理手段36は、代表視点(例えば、中央の視点)の背景用3DCGレンダリング画像についての奥行き情報の分布を示すマップ(本実施形態では、画素単位で分布を示すデプスマップ)を自動作成し、作成したデプスマップを、背景番号と関連付けて奥行き情報記憶手段54に記憶させる処理も行う。さらに、新規画像生成処理手段36は、奥行き情報と眼数との対応関係を定める眼数テーブルについて、被写体1またはオペレータによる設定入力を受け付け、あるいは標準の眼数テーブルを使用する旨の選択を受け付け、設定または選択された眼数テーブルを、背景番号と関連付けて眼数テーブル記憶手段55に記憶させる処理も行う。そして、新規画像生成処理手段36は、後述する合成対象画像倍率算出処理手段38で使用する比例係数D2×(Q2/L2)の値について、被写体1またはオペレータによる設定入力を受け付け、あるいは標準の比例係数の値を使用する旨の選択を受け付け、設定または選択された比例係数の値を、背景画像とともに、背景番号に関連付けて背景画像記憶手段51に記憶させる処理も行う。
また、新規画像生成処理手段36は、被写体1またはオペレータにより小道具用3DCGデータが選択され、背景選択受付処理手段31から、選択された小道具用3DCGデータを識別する小道具用3DCG番号を受け取った場合には、受け取った小道具用3DCG番号の小道具用3DCGデータを用いて操作用ディスプレイ70に、その小道具用3DCGを表示し、被写体1またはオペレータによる小道具用3DCGの回転操作等を受け付けることにより、小道具用3DCGのアングルの指定を受け付け、指定されたアングルで、複数の仮想カメラにより多視点または2視点レンダリングを実行し、生成された多視点または2視点の小道具用3DCGレンダリング画像を、自動付与した小道具番号と関連付けて小道具画像記憶手段52Bに記憶させる処理を行う。また、新規画像生成処理手段36は、被写体1またはオペレータによる小道具の原寸のサイズ情報の入力を受け付けるか、または小道具用3DCGデータとともに保持されていた小道具の原寸のサイズ情報を取得し、小道具の原寸のサイズ情報を、小道具番号と関連付けて小道具サイズ記憶手段53Bに記憶させる処理も行う。
奥行き情報抽出処理手段37は、被写体1またはオペレータにより選択された背景画像についての奥行き情報の分布を示すマップ(デプスマップ)を、背景番号をキーとして、奥行き情報記憶手段54から抽出し、配置位置入力受付処理手段32により受け付けた各配置位置(現在撮影しようとしている被写体画像の配置位置、過去に撮影された被写体画像の配置位置、および小道具画像の配置位置)に対応する背景画像の各部位(本実施形態では、各画素となる。)についての奥行き情報を、抽出した奥行き情報の分布を示すマップ(デプスマップ)から抽出する処理を実行するものである。
具体的には、奥行き情報記憶手段54には、各背景画像毎に奥行き情報の分布を示すマップ(本実施形態では、画素単位で分布を示すデプスマップ)が記憶され、各マップには、背景画像の各部位(各画素)の並び順に従って奥行き情報が記憶されているので、奥行き情報抽出処理手段37は、入力された各配置位置(現在撮影しようとしている被写体画像の配置位置、過去に撮影された被写体画像の配置位置、および小道具画像の配置位置)に対応する背景画像の各画素の座標値(x、y)から並び順の順番を算出し、算出した順番の位置に記憶されている奥行き情報を、奥行き情報記憶手段54から抽出した当該背景画像(被写体1またはオペレータにより選択された背景画像)についての奥行き情報の分布を示すマップ(デプスマップ)から抽出する。なお、各マップにおいて、奥行き情報が、背景画像の各部位についての部位識別情報(各画素についての座標値(x,y))と関連付けて記憶されている場合には、奥行き情報抽出処理手段37は、部位識別情報(座標値(x,y))をキーとして、当該背景画像についての奥行き情報の分布を示すマップ(デプスマップ)から、入力された各配置位置に対応する背景画像の各部位(各画素)についての奥行き情報を抽出する。
合成対象画像倍率算出処理手段38は、奥行き情報抽出処理手段37により抽出した奥行き情報(入力された現在の被写体画像の配置位置に対応する背景画像の部位についての奥行き情報)、および被写体サイズ算出処理手段35により算出した現在の被写体の原寸のサイズ情報(身長、高さ寸法)を用いて、合成対象画像としての現在の被写体画像を背景画像に合成する際の現在の被写体画像の拡大または縮小の倍率を算出する処理を実行するものである。
また、合成対象画像倍率算出処理手段38は、奥行き情報抽出処理手段37により抽出した奥行き情報(入力された過去の被写体画像および小道具画像の各配置位置に対応する背景画像の各部位についての奥行き情報)、および合成対象サイズ記憶手段53(被写体サイズ記憶手段53Aおよび小道具サイズ記憶手段53B)に記憶された過去の被写体および小道具の原寸のサイズ情報(身長、高さ寸法)を用いて、合成対象画像(過去の被写体画像および小道具画像)を背景画像に合成する際の合成対象画像の拡大または縮小の倍率を算出する処理を行う。
具体的には、原寸のサイズ(身長、高さ寸法)がLメートルの現在の被写体が撮影され、被写体切出処理手段34により切り出された現在の被写体画像の画像サイズがQピクセルであったとし、一方、背景画像の各部位のうち、奥行きD2の部位において、背景画像を構成する背景対象として原寸のサイズがL2メートルの物体等が、Q2ピクセルで撮像されていたとする。このとき、撮影された被写体画像を、奥行きD2の部位に配置するとすれば、合成する際の被写体画像の画像サイズQ3ピクセルは、Q3=(Q2/L2)×Lという式で算出される。つまり、被写体画像は、Q3/Q=(Q2/L2)×(L/Q)倍して合成される。なお、D2,Q2,L2は想定値でもよく、例えば、被写体1とグラビアアイドルとが添い寝状態で写っている立体画像(図18、図19参照)を生成する場合に、背景画像中の比較的手前側の部位に、原寸のサイズが身長1.68メートルのグラビアアイドル(小道具)を、横方向の画像サイズが300ピクセルとなるように描きたい場合には、D2を背景画像中の比較的手前側の当該部位についての奥行きとし、Q2を300ピクセルとし、L2を1.68メートルとすればよい。
そして、撮影された被写体画像を、奥行きD2の部位に配置するのではなく、より一般的に、奥行きDの部位に配置するとすれば、合成する際の被写体画像の画像サイズQ4ピクセルは、Q4=(D2/D)×Q3という式で算出され、これに、Q3=(Q2/L2)×Lを代入すると、Q4=(D2/D)×(Q2/L2)×Lという式となる。従って、D2,Q2,L2は予め定められている値であり、D2×(Q2/L2)は定数であるから、奥行き情報抽出処理手段37により抽出した奥行きD(現在の被写体画像の配置位置に対応する背景画像の部位についての奥行きD)と、被写体サイズ算出処理手段35により算出した現在の被写体の原寸のサイズLが与えられると、合成する際の被写体画像の画像サイズQ4ピクセルが算出される。つまり、被写体画像は、Q4/Q=(D2/D)×(Q2/L2)×(L/Q)倍して合成される。なお、この式で、DにD2を代入すれば、(D2/D)=1となるので、Q4/Q=(Q2/L2)×(L/Q)となり、前述したQ3/Qの式と一致するので、Q4/Qの式が、奥行きDを用いて一般化されていることがわかる。
この際、被写体サイズ算出処理手段35により、被写体の原寸のサイズLメートルが、比例係数(L1/Q1)を用いて、L=(L1/Q1)×Qという式により算出されていたとすれば、(L/Q)の値は、一定値(L1/Q1)となるので、被写体画像は、Q4/Q=(D2/D)×(Q2/L2)×(L1/Q1)倍して合成されることになるので、カメラ14,15と被写体1の立つ場所との位置関係が固定されていれば、被写体サイズ算出処理手段35により被写体の原寸のサイズLメートルを算出しなくても、奥行きDを与えるだけで、倍率は定まることになる。しかし、本実施形態では、同じ撮影状況(同じ装置)で撮影された現在の被写体画像および過去の被写体画像だけではなく、被写体画像とは異なる撮影状況で撮影され、あるいは3DCGデータをレンダリングして生成された小道具画像も背景画像に合成するので、小道具画像の倍率算出処理と同様な処理で被写体画像の倍率を算出することができるように、被写体サイズ算出処理手段35により被写体の原寸のサイズLメートルを算出している。
また、過去の被写体および小道具については、合成対象サイズ記憶手段53(被写体サイズ記憶手段53Aおよび小道具サイズ記憶手段53B)に記憶された過去の被写体および小道具の原寸のサイズがLメートルであり、合成対象画像記憶手段52(被写体画像記憶手段52Aおよび小道具画像記憶手段52B)に記憶された合成対象画像(過去の被写体画像および小道具画像)の画像サイズがQピクセルであるものとして、前述した現在の被写体の場合と同様の式により、合成する際の合成対象画像の画像サイズQ4ピクセル、あるいは合成対象画像の倍率Q4/Qが算出される。
なお、Q4の式中、あるいはQ4/Qの式中の比例係数D2×(Q2/L2)の値は、各背景画像毎に定まるので、背景画像とともに、背景番号に関連付けて背景画像記憶手段51に記憶させておけばよい。
眼数決定処理手段39は、被写体1またはオペレータにより選択された背景画像についての眼数テーブル(背景画像の各部位の奥行き情報と合成対象画像の眼数との対応関係を定めるテーブル)を、背景番号をキーとして、眼数テーブル記憶手段55から抽出し、奥行き情報抽出処理手段37により抽出した奥行き情報に対応する合成対象画像(現在撮影しようとしている被写体画像、過去に撮影された被写体画像、および小道具画像)の眼数を、抽出した眼数テーブルから取得して決定する処理を実行するものである。なお、本実施形態では、各背景画像毎に眼数テーブルを用意しているが、各背景画像に共通化した眼数テーブルとする場合には、眼数テーブルを、眼数決定処理手段39を実現するプログラム内に記述しておいてもよい。
確認用画像生成処理手段40は、リアルタイム確認表示用の2D画像を定期的に繰り返し生成する処理と、確認表示用の立体画像を生成する処理とを、被写体1の操作によるフットペダル13からの信号に基づき、切り替えて実行するとともに、生成したリアルタイム確認表示用の2D画像または確認表示用の立体画像を、確認用ディスプレイ80に切り替えて表示する処理を実行するものである。
前者のリアルタイム確認表示用の2D画像を定期的に繰り返し生成する処理では、1眼の現在の被写体画像(2D画像)、1眼の過去の被写体画像(2D画像)、および1眼の小道具画像(2D画像)を、それぞれ合成対象画像倍率算出処理手段38により算出した倍率で拡大または縮小した状態で、配置位置入力受付処理手段32により受け付けた各配置位置に配置し、被写体1またはオペレータにより選択された1眼の背景画像(2D画像)に合成することにより、リアルタイム確認表示用の2D画像を定期的に繰り返し生成する。この際、1眼の現在の被写体画像(2D画像)は、確認表示専用のカメラである1台の低解像度のカメラ15により撮影された現在の被写体を含む画像から被写体切出処理手段34による切出処理を行って得られた画像である(図15参照)。また、1眼の過去の被写体画像(2D画像)は、被写体画像記憶手段52Aに記憶された過去の被写体画像のうち、被写体1またはオペレータにより選択された過去の被写体画像(多視点または2視点の過去の被写体画像)の中から自動選択された代表視点(例えば、中央の視点)の画像である(図17参照)。さらに、1眼の小道具画像(2D画像)は、小道具画像記憶手段52Bに記憶された小道具画像のうち、被写体1またはオペレータにより選択された小道具画像(多視点または2視点の小道具用実写画像、あるいは多視点または2視点の小道具用3DCGレンダリング画像)の中から自動選択された代表視点(例えば、中央の視点)の画像である(図16参照)。そして、1眼の背景画像(2D画像)は、背景画像記憶手段51に記憶された背景画像のうち、被写体1またはオペレータにより選択された背景画像(多視点または2視点の背景用実写画像、あるいは多視点または2視点の背景用3DCGレンダリング画像)の中から自動選択された代表視点(例えば、中央の視点)の画像である(図14参照)。
後者の確認表示用の立体画像を生成する処理では、2眼偏光式用の現在の被写体画像、2眼偏光式用の過去の被写体画像、および2眼偏光式用の小道具画像を、それぞれ合成対象画像倍率算出処理手段38により算出した倍率で拡大または縮小した状態で、配置位置入力受付処理手段32により受け付けた各配置位置に配置し、被写体1またはオペレータにより選択された背景画像(2眼偏光式用の背景画像)に合成することにより、確認表示用の立体画像として、2眼の偏光メガネ方式の立体画像を生成する。この際、2眼偏光式用の現在の被写体画像は、本番撮影用の複数台の高解像度のカメラ14により撮影して得られた多視点または2視点の現在の被写体画像の中から自動選択された中央付近の2視点の画像を用いて、xpol(マイクロポール)のパターンに合わせて生成される(図15参照)。また、2眼偏光式用の過去の被写体画像は、被写体画像記憶手段52Aに記憶された過去の被写体画像のうち、被写体1またはオペレータにより選択された過去の被写体画像(多視点または2視点の過去の被写体画像)の中から自動選択された中央付近の2視点の画像を用いて、xpol(マイクロポール)のパターンに合わせて生成される(図17参照)。さらに、2眼偏光式用の小道具画像は、小道具画像記憶手段52Bに記憶された小道具画像のうち、被写体1またはオペレータにより選択された小道具画像(多視点または2視点の小道具用実写画像、あるいは多視点または2視点の小道具用3DCGレンダリング画像)の中から自動選択された中央付近の2視点の画像を用いて、xpol(マイクロポール)のパターンに合わせて生成される(図16参照)。そして、2眼偏光式用の背景画像は、背景画像記憶手段51に記憶された背景画像のうち、被写体1またはオペレータにより選択された背景画像(多視点または2視点の背景用実写画像、あるいは多視点または2視点の背景用3DCGレンダリング画像)の中から自動選択された中央付近の2視点の画像を用いて、xpol(マイクロポール)のパターンに合わせて生成される(図14参照)。なお、確認表示用の立体画像は、2眼の偏光メガネ方式の立体画像に限定されるものではなく、2眼の液晶シャッタ方式の立体画像でもよく、確認用ディスプレイ80が多眼式ディスプレイである場合には、メガネが必要ない多眼の立体画像としてもよい。
合成処理手段41は、眼数決定処理手段39により決定した眼数の合成対象画像(現在および過去の被写体画像、並びに小道具画像)を生成し、生成した各合成対象画像を、配置位置入力受付処理手段32により受け付けた各配置位置に配置し、被写体1またはオペレータにより選択された背景画像(予め定められた眼数の背景画像)に合成することにより、印刷用の立体画像を生成する処理を実行するものである。この際、合成して生成する印刷用の立体画像が、レンチキュラ用またはパララックスバリア用の立体画像である場合には、眼数決定処理手段39により決定した眼数の現在の被写体画像は、本番撮影用の複数台の高解像度のカメラ14により撮影して得られた多視点または2視点の現在の被写体画像から、それぞれ短冊状の画像を形成し、これらの短冊状の画像を横方向に並べて結合することにより、レンチキュラ用またはパララックスバリア用の画像として生成される(図15参照)。また、眼数決定処理手段39により決定した眼数の過去の被写体画像は、被写体画像記憶手段52Aに記憶された過去の被写体画像のうち、被写体1またはオペレータにより選択された過去の被写体画像(多視点または2視点の過去の被写体画像)から、それぞれ短冊状の画像を形成し、これらの短冊状の画像を横方向に並べて結合することにより、レンチキュラ用またはパララックスバリア用の画像として生成される(図17参照)。さらに、眼数決定処理手段39により決定した眼数の小道具画像は、小道具画像記憶手段52Bに記憶された小道具画像のうち、被写体1またはオペレータにより選択された小道具画像(多視点または2視点の小道具用実写画像、または多視点または2視点の小道具用3DCGレンダリング画像)から、それぞれ短冊状の画像を形成し、これらの短冊状の画像を横方向に並べて結合することにより、レンチキュラ用またはパララックスバリア用の画像として生成される(図16参照)。なお、予め定められた眼数の背景画像は、前処理(図2のステップS4)で予め生成されるか、または新規画像生成処理手段36による処理(図4のステップS1206)で生成されて背景画像記憶手段51に保存されている。
また、合成処理手段41は、多視点または2視点の元画像から、レンチキュラ用またはパララックスバリア用の合成対象画像(現在および過去の被写体画像、並びに小道具画像)を生成する際には、合成対象画像倍率算出処理手段38により算出した各倍率(現在の被写体画像の倍率、過去の被写体画像の倍率、および小道具画像の倍率)で画像を拡大または縮小する処理を行う。この際、元画像を拡大または縮小した後に、短冊状の画像を形成して横方向に並べて結合してもよく、あるいは元画像から短冊状の画像を形成して横方向に並べて結合した後に、拡大または縮小してもよい。
さらに、合成処理手段41は、奥行き情報抽出処理手段37により抽出した各奥行き情報(入力した現在の被写体画像の配置位置、過去の被写体画像の配置位置、小道具画像の配置位置に対応する背景画像の各部位についての奥行き情報)に応じたぼかし量で、合成対象画像(現在および過去の被写体画像、並びに小道具画像)をぼかした状態で、配置位置入力受付処理手段32により受け付けた各配置位置に配置して被写体1またはオペレータにより選択された背景画像に合成する。なお、ぼかしの処理は、ガウス分布によるぼかし処理等の既存の処理を採用することができる。
そして、合成処理手段41は、背景選択受付処理手段31により、被写体1と、グラビアアイドルや過去に撮影した恋人や家族等とが、添い寝状態で写っている立体画像を生成するための背景画像(ベッド、畳、じゅうたん、布団等の画像)の選択を受け付けた場合には、撮影した被写体1が写っている現在の被写体画像、および過去に撮影した恋人や家族等が写っている過去の被写体画像を、90度回転させた状態で、配置位置入力受付処理手段32により受け付けた各配置位置に配置して被写体1またはオペレータにより選択された背景画像に合成する(図18、図19参照)。なお、グラビアアイドル等が写っている小道具画像は、別の撮影装置で横たわった状態で撮影されているので、本実施形態では、回転させないが、小道具画像も、90度回転させた状態で、背景画像に合成するようにしてもよい。
また、合成処理手段41は、生成した印刷用の立体画像を、印刷用立体画像番号と関連付けて印刷用立体画像記憶手段56に記憶させる処理を行う。
印刷処理手段42は、合成処理手段41により生成した印刷用の立体画像を、印刷装置60で印刷する処理を実行するものである。
背景画像記憶手段51は、各映画(実写、コンピュータ・グラフィクスを含む。)の各シーン、風景等の各ロケーション、あるいは各ロケーションの各アングル等の背景画像を、前述した合成対象画像倍率算出処理手段38で使用する比例係数D2×(Q2/L2)の値とともに、背景番号と関連付けて記憶するものである。この背景画像記憶手段51に記憶される背景画像には、複数台の実物カメラ(カメラ14,15とは異なるカメラ)で撮影された多視点または2視点(例えば、14視点等)の背景用実写画像と、背景用3DCGデータを複数台の仮想カメラでレンダリングして得られた多視点または2視点(例えば、14視点等)の背景用3DCGレンダリング画像とが含まれる(図14参照)。また、背景画像記憶手段51には、被写体1またはオペレータが自らの操作で背景画像を生成する場合に用いられる背景用3DCGデータも、背景用3DCG番号と関連付けて記憶されている。
合成対象画像記憶手段52は、図1に示すように、被写体画像記憶手段52Aと、小道具画像記憶手段52Bとにより構成されている。
被写体画像記憶手段52Aは、ブルーバックで複数台の高解像度のカメラ14により撮影された被写体を含む多視点または2視点(例えば、14視点等)の実写画像から被写体切出処理手段34による切出処理を行って得られた多視点または2視点(例えば、14視点等)の被写体画像を、被写体番号と関連付けて記憶するものである(図15、図17参照)。この被写体画像記憶手段52Aには、過去の被写体画像および現在の被写体画像が区別することなく記憶される。なお、同時に撮影された人間や動物あるいは物体は、1つの被写体とみなされ、1つの被写体番号が付与されるので、例えば、2人で同時に写った場合や、犬とその飼い主とが同時に写った場合等は、1つの被写体とみなされる。
小道具画像記憶手段52Bは、各背景画像に対応する1つまたは複数の小道具画像を、小道具番号と関連付けて記憶するものである。この小道具画像記憶手段52Bに記憶される小道具画像には、複数台の実物カメラ(カメラ14,15とは異なるカメラ)で撮影された多視点または2視点(例えば、14視点等)の小道具用実写画像と、小道具用3DCGデータを複数台の仮想カメラでレンダリングして得られた多視点または2視点(例えば、14視点等)の小道具用3DCGレンダリング画像とが含まれる(図16参照)。また、小道具画像記憶手段52Bには、被写体1またはオペレータが自らの操作で小道具画像を生成する場合に用いられる小道具用3DCGデータも、小道具用3DCG番号と関連付けて記憶されている。さらに、小道具画像には、例えば、アニメ映画に登場するキャラクタ、映画の原作者の肖像、背景となる風景の場所にいる動物等の画像が含まれる他、被写体1とグラビアアイドル等の小道具とが添い寝状態になっている立体画像(図18、図19参照)を生成する際に用いられる小道具画像としてのグラビアアイドル等の画像も含まれる。
合成対象サイズ記憶手段53は、図1に示すように、被写体サイズ記憶手段53Aと、小道具サイズ記憶手段53Bとにより構成されている。
被写体サイズ記憶手段53Aは、被写体サイズ算出処理手段35により算出された被写体の原寸のサイズ情報(身長、高さ寸法)を、被写体番号と関連付けて記憶するものである。この被写体サイズ記憶手段53Aには、過去の被写体の原寸のサイズ情報および現在の被写体の原寸のサイズ情報が区別することなく記憶される。
小道具サイズ記憶手段53Bは、小道具の原寸のサイズ情報(身長、高さ寸法)を、小道具番号と関連付けて記憶するものである。
奥行き情報記憶手段54は、各背景画像毎に、背景画像の各部位についての奥行き情報の分布を示すマップを、背景番号と関連付けて記憶するものである。本実施形態では、一例として、奥行き情報の分布を示すマップは、背景画像の各画素についての奥行き情報の分布を示すデプスマップであるものとする。このデプスマップは、ビットマップデータの如く、背景画像の各画素の並び順に従って、各画素についての奥行き情報を並べて記憶しており、ヘッダーには、背景画像の縦のピクセル数と、横のピクセル数とが記憶されているので、画素(x,y)についての奥行き情報が、何番目に記憶されているのかが、わかるようになっている。また、本実施形態では、デプスマップを構成する各奥行き情報は、視点から対象物までの距離を相対的に示した値であり、例えば、0〜255までの数値である。
なお、奥行き情報記憶手段54は、奥行き情報の分布を示すマップとして、例えば、(1,1),67,(1,2),68,(1,3),66…のように、各画素の座標値と奥行き情報とを交互に記憶する等、奥行き情報を、部位識別情報(画素の座標値(x,y))と関連付けて記憶する構成としてもよい。
また、各背景画像についての奥行き情報の分布を示すマップは、背景画像記憶手段51に記憶された多視点または2視点(例えば、14視点等)の背景用実写画像、または多視点または2視点(例えば、14視点等)の背景用3DCGレンダリング画像のうち、代表視点(例えば中央の視点)の画像についての奥行き情報の分布を示すマップとする。
眼数テーブル記憶手段55は、背景画像の各部位についての奥行き情報と、各部位に配置される合成対象画像の眼数との対応関係を定める眼数テーブルを、背景番号と関連付けて記憶するものである。この眼数テーブルは、各背景画像毎に定められるものであるが、前述したように、被写体1またはオペレータが自らの操作で新規画像生成処理手段36により背景用3DCGデータから背景画像を生成する場合には、当該背景画像についての眼数テーブルとして、標準の眼数テーブルを選択し、眼数テーブル記憶手段55に記憶させてもよい。なお、標準の眼数テーブルは、新規画像生成処理手段36を実現するプログラム内に記述しておいてもよく、外出しのデータとして記憶しておいてもよい。
合成対象画像の眼数(像数)の変化は、例えば、14眼、7眼、4眼、2眼の4段階等とすることができ、背景画像が立体画像である場合には、1眼(2D)を加えて、14眼、7眼、4眼、2眼、1眼(2D)の5段階等としてもよい。背景画像において、両眼の視差量が0になる部位についての奥行きをD0とすれば、入力された合成対象画像の配置位置に対応する背景画像の部位についての奥行きDが、奥行きD0に近ければ、つまり視差量が0の近傍値になる部位では、眼数を多くして、例えば14眼または7眼の合成対象画像を配置し、奥行きD0よりもマイナス側(奥行きD=0寄りの側:視点側)またはプラス側(奥行きD=255寄りの側)のどちらかに離れる程、つまり視差量が交差方向に大きくなる部位(手前に飛び出る部位)である程または同側方向に大きくなる部位(奥側に引っ込む部位)である程、眼数を少なくしていき、例えば4眼または2眼の合成対象画像を配置することができる。
また、視差量が交差方向に大きくなる部位(手前に飛び出る部位)である場合と、視差量が同側方向に大きくなる部位(奥側に引っ込む部位)である場合とで、眼数の変化を対称にする必要はなく、例えば、視差量が交差方向に大きくなっていくときには、比較的急激に眼数を減少させ、視差量が同側方向に大きくなっていくときには、比較的緩やかに眼数を減少させるようにしてもよい。より具体的には、例えば、奥行きD=0〜31の範囲は、眼数を2眼とし、奥行きD=32〜63の範囲は、眼数を4眼とし、奥行きD=64〜95の範囲は、眼数を7眼とし、奥行きD=96〜127の範囲は、眼数を14眼とし、奥行きD=128〜159の範囲は、眼数を7眼とし、奥行きD=160〜191の範囲は、眼数を7眼とし、奥行きD=192〜223の範囲は、眼数を4眼とし、奥行きD=224〜255の範囲は、眼数を4眼とする等のように、奥行きDの各範囲に対して、眼数を設定すればよい。
印刷用立体画像記憶手段56は、合成処理手段41により生成された印刷用の立体画像を、印刷用立体画像番号と関連付けて記憶するものである。
そして、以上において、処理手段30に含まれる各処理手段31〜42は、コンピュータ本体20の内部に設けられた中央演算処理装置(CPU)、およびこのCPUの動作手順を規定する1つまたは複数のプログラムにより実現される。
また、各記憶手段51〜56は、例えばハードディスク等により好適に実現されるが、記憶容量やアクセス速度等に問題が生じない範囲であれば、ROM、EEPROM、フラッシュ・メモリ、RAM、MO、CD−ROM、CD−R、CD−RW、DVD−ROM、DVD−RAM、FD、磁気テープ、あるいはこれらの組合せ等を採用してもよい。
さらに、処理手段30は、1台のコンピュータまたは1つのCPUにより実現されるものに限定されず、複数台のコンピュータまたは複数のCPUによる分散処理で実現してもよい。
操作用ディスプレイ70およびタッチパネル71は、一体化されたタッチパネルディスプレイを構成し、被写体1またはオペレータの操作用の表示を行うとともに、タッチパネル71で入力操作を受け付けるものである。なお、操作用ディスプレイ70およびタッチパネル71は、本実施形態では、被写体1が、1人で自己の撮影をしながら入力操作を行うことができるようになっているが、オペレータ専用の操作用ディスプレイ70およびタッチパネル71(マウスやキーボード等、タッチパネル71以外の入力手段でもよい。)を別途に設けてもよく、あるいは被写体1は操作せず、オペレータのみが操作することを前提とした操作用ディスプレイ70およびタッチパネル71(マウスやキーボード等、タッチパネル71以外の入力手段でもよい。)を設けてもよい。
確認用ディスプレイ80は、リアルタイム確認表示用の2D画像の表示と、確認表示用の2眼の偏光メガネ方式の立体画像の表示とを、被写体1の操作によるフットペダル13からの信号に基づき、切り替えて行うものであり、後者の2眼の偏光メガネ方式の立体画像の表示を可能とするため、xpol(マイクロポール)を備えている。前者のリアルタイム確認表示用の2D画像の表示は、被写体1が動きながらポーズを決める際に行われるが、立体画像ではないため、メガネをかけることなく見ることができる。一方、後者の確認表示用の2眼の偏光メガネ方式の立体画像の表示は、被写体1がポーズを決めてから本番撮影をした後に行われ、偏光メガネをかけて観察することができる。なお、本番撮影時は、メガネはしていない。なお、確認用ディスプレイ80は、本実施形態では、被写体1が、撮影時から印刷時まで自ら合成状態を確認することができるようになっているが、オペレータ専用の確認用ディスプレイ80を別途に設けてもよく、あるいは被写体1が自ら確認することはせず、オペレータのみが確認することを前提とした表示を行う確認用ディスプレイ80を設けてもよい。
このような本実施形態においては、以下のようにして立体画像生成装置10を用いて、被写体の撮影、並びに立体画像の生成および印刷が行われる。
図2において、先ず、被写体の撮影、並びに立体画像の生成および印刷を行うために必要なデータを準備するための前処理を開始する(ステップS1)。
各映画の各シーン、風景等の各ロケーション、あるいは各ロケーションの各アングルについて、それぞれ複数台の実物カメラで撮影された多視点または2視点(例えば、14視点等)の背景用実写画像を用意し(図14参照)、背景番号と関連付けて背景画像記憶手段51に保存する(ステップS2)。なお、背景画像の撮影は、交差法だと遠景を融像させるのが困難であるため、平行法を用いることが好ましい。また、代表視点(例えば、14視点中の7番目または8番目の視点)の背景用実写画像についての奥行き情報の分布を示すマップ(デプスマップ)を作成し、背景番号と関連付けて奥行き情報記憶手段54に保存する(ステップS2)。さらに、眼数テーブルを作成し、背景番号と関連付けて眼数テーブル情報記憶手段55に保存する(ステップS2)。そして、前述した合成対象画像倍率算出処理手段38で使用する比例係数D2×(Q2/L2)の値を定め、背景用実写画像とともに、背景番号と関連付けて背景画像記憶手段51に保存する(ステップS2)。
続いて、コンピュータ・グラフィクス用のソフトウェアを用いて、各背景用3DCGデータ、あるいは各背景用3DCGデータの各アングルについて、それぞれ複数の仮想カメラで多視点または2視点レンダリングを実行して多視点または2視点(例えば、14視点等)の背景用3DCGレンダリング画像を生成し(図14参照)、背景番号と関連付けて背景画像記憶手段51に保存する(ステップS3)。この背景用3DCGレンダリング画像は、BMPイメージデータ、あるいはJPGイメージデータ等である。また、代表視点(例えば、14視点中の7番目または8番目の視点)の背景用3DCGレンダリング画像についての奥行き情報の分布を示すマップ(デプスマップ)を作成し、背景番号と関連付けて奥行き情報記憶手段54に保存する(ステップS3)。さらに、眼数テーブルを作成し、背景番号と関連付けて眼数テーブル情報記憶手段55に保存する(ステップS3)。そして、前述した合成対象画像倍率算出処理手段38で使用する比例係数D2×(Q2/L2)の値を定め、背景用3DCGレンダリング画像とともに、背景番号と関連付けて背景画像記憶手段51に保存する(ステップS3)。
それから、各背景画像について、多視点または2視点(例えば、14視点等)の背景用実写画像、あるいは多視点または2視点(例えば、14視点等)の背景用3DCGレンダリング画像から、それぞれ短冊状の画像を生成し、これらの短冊状の画像を横方向に並べて結合することにより、多眼または2眼の一枚の印刷用(レンチキュラ用またはパララックスバリア用)の背景画像を生成し(図14参照)、背景番号と関連付けて背景画像記憶手段51に保存する(ステップS4)。この印刷用(レンチキュラ用またはパララックスバリア用)の背景画像は、BMPイメージデータ、あるいはJPGイメージデータ等である。背景画像については、合成対象画像とは異なり、1種類の眼数の印刷用(レンチキュラ用またはパララックスバリア用)の背景画像を用意する。なお、用意する1種類の眼数は、比較的大きい眼数、例えば、14眼や7眼等が好ましい。具体的には、ステップS2,S3で、例えば、14視点の背景用実写画像H1〜H14または背景用3DCGレンダリング画像H1〜H14が生成されている場合(図14参照)には、例えば、14視点の元画像H1〜H14の全てを用いて、14眼の印刷用(レンチキュラ用またはパララックスバリア用)の背景画像を生成し、ステップS2,S3で、例えば、7視点の背景用実写画像または背景用3DCGレンダリング画像が生成されている場合には、例えば、7視点の元画像の全てを用いて、7眼の印刷用(レンチキュラ用またはパララックスバリア用)の背景画像を生成する。
次に、各映画の各シーン、風景等の各ロケーション、あるいは各背景用3DCGデータに対応させて、それぞれ複数台の実物カメラで撮影された多視点または2視点(例えば、14視点等)の小道具用実写画像を用意し(図16参照)、小道具番号と関連付けて小道具画像記憶手段52Bに保存する(ステップS5)。また、小道具の原寸のサイズ情報を入力し、小道具番号と関連付けて小道具サイズ記憶手段53Bに保存する保存する(ステップS5)。
続いて、各映画の各シーン、風景等の各ロケーション、あるいは各背景用3DCGデータに対応させて、それぞれ小道具用3DCGデータを用意し、コンピュータ・グラフィクス用のソフトウェアを用いて、用意した小道具用3DCGの各アングルについて、それぞれ複数の仮想カメラで多視点または2視点レンダリングを実行して多視点または2視点(例えば、14視点等)の小道具用3DCGレンダリング画像を生成し(図16参照)、小道具番号と関連付けて小道具画像記憶手段52Bに保存する(ステップS6)。この小道具用3DCGレンダリング画像は、BMPイメージデータ、あるいはJPGイメージデータ等である。また、小道具の原寸のサイズ情報を入力し、小道具番号と関連付けて小道具サイズ記憶手段53Bに保存する保存する(ステップS6)。
ここで、小道具画像について、背景画像と合成する際に、視差量調整等を行わない場合には、ステップS5,S6で生成した多視点または2視点(例えば、14視点等)の小道具用実写画像または小道具用3DCGレンダリング画像から、複数種類の眼数の印刷用の小道具画像を予め生成し、小道具番号と関連付けて小道具画像記憶手段52Bに保存しておいてもよく、そのようにすれば撮影から印刷までの処理時間を短縮することができる。具体的には、ステップS5,S6で、例えば、14視点の小道具用実写画像K1〜K14または小道具用3DCGレンダリング画像K1〜K14が生成されている場合(図16参照)には、例えば、14眼、7眼、4眼、2眼の合計4種類の眼数の印刷用(レンチキュラ用またはパララックスバリア用)の小道具画像を生成することができる。この際、14眼の印刷用の小道具画像は、14視点の元画像K1〜K14の全てを用いて、それぞれ短冊状の画像を生成し、それらを結合して得ることができ、7眼の印刷用の小道具画像は、例えば、14視点のうちの7視点の元画像(K1,K3,K5,K7,K9,K11,K13)または(K2,K4,K6,K8,K10,K12,K14)を用いて、それぞれ短冊状の画像を生成し、それらを結合して得ることができ、4眼の印刷用の小道具画像は、例えば、14視点のうちの4視点の元画像(K5,K7,K9,K11)または(K4,K6,K8,K10)を用いて、それぞれ短冊状の画像を生成し、それらを結合して得ることができ、2眼の印刷用の小道具画像は、例えば、14視点のうちの2視点の元画像(K7,K11)または(K8,K10)を用いて、それぞれ短冊状の画像を生成し、それらを結合して得ることができる。そして、背景画像が立体画像である場合には、これらに、1眼(2D)の印刷用の小道具画像を加えてもよく、その場合には、14眼、7眼、4眼、2眼、1眼(2D)の合計5種類の眼数の印刷用の小道具画像を用意することができる。
また、同様にして、ステップS5,S6で、例えば、7視点の小道具用実写画像または小道具用3DCGレンダリング画像が生成されている場合には、例えば、7眼、4眼、2眼の合計3種類(1眼(2D)を加えれば合計4種類)の眼数の印刷用の小道具画像を用意することができ、ステップS5,S6で、例えば、4視点の小道具用実写画像または小道具用3DCGレンダリング画像が生成されている場合には、例えば、4眼、2眼の合計2種類(1眼(2D)を加えれば合計3種類)の眼数の印刷用の小道具画像を用意することができ、ステップS5,S6で、例えば、2視点の小道具用実写画像または小道具用3DCGレンダリング画像が生成されている場合には、1眼(2D)を加えれば、2眼、1眼(2D)の合計2種類の眼数の印刷用の小道具画像を用意することができる。なお、本実施形態では、小道具画像について、背景画像と合成する際に、視差量調整等を行うことにしているため、印刷用の小道具画像の生成は、後述する図9のステップS2104の処理で行っている。
以上で、前処理を終了する(ステップS7)。
図3において、先ず、処理手段30を実現するプログラムを立ち上げ、被写体の撮影から立体画像の印刷までの一連の処理を開始する(ステップS11)。
続いて、被写体1またはオペレータによる背景画像の選択を受け付けるか、あるいは被写体1またはオペレータの指示操作に基づき背景画像を生成する処理を行う(ステップS12:図4のS1201〜S1206)。
図4において、背景選択受付処理手段31により、背景画像記憶手段51から各背景画像を取得し、取得した各背景画像を、図10に示すように、操作用ディスプレイ70の画面上に並べて縮小表示する。この中には、被写体1とグラビアアイドル等の小道具とが添い寝状態になっている立体画像(図18、図19参照)を生成する際に用いられる背景画像も含まれる。そして、被写体1またはオペレータは、所望の背景画像を選択するためのタッチ操作を行う。すると、背景選択受付処理手段31により、タッチパネル71からの入力信号が受信され、被写体1またはオペレータにより選択された背景画像(背景番号)が特定される(ステップS1201)。ここでは、背景番号=101の背景画像(風景1)が選択されたものとする。
また、被写体1またはオペレータは、操作用ディスプレイ70の画面上で、背景画像を自らの操作で背景用3DCGデータから生成する旨の選択も行うことができ、この場合には、背景選択受付処理手段31により、背景画像記憶手段51に記憶されている背景用3DCGデータの選択メニューを操作用ディスプレイ70の画面上に表示する。そして、被写体1またはオペレータは、所望の背景用3DCGデータを選択するためのタッチ操作を行う。すると、背景選択受付処理手段31により、タッチパネル71からの入力信号が受信され、被写体1またはオペレータにより選択された背景用3DCGデータ(背景用3DCG番号)が特定される(ステップS1201)。
続いて、背景選択受付処理手段31により背景用3DCGデータの選択を受け付けたか否かを判断し(ステップS1202)、背景用3DCGデータの選択を受け付けていない場合、すなわち背景画像を自らの操作で生成する旨の選択ではなく、既に用意されている背景画像が選択された場合には、次のステップS13の処理に移る。一方、背景選択受付処理手段31により背景用3DCGデータの選択を受け付けた場合には、背景選択受付処理手段31から新規画像生成処理手段36へ背景用3DCG番号を引き渡し、新規画像生成処理手段36により、背景選択受付処理手段31から受け取った背景用3DCG番号の背景用3DCGデータを背景画像記憶手段51から読み込み、読み込んだ背景用3DCGデータを用いて操作用ディスプレイ70の画面上に、その背景用3DCGを表示する(ステップS1203)。
それから、新規画像生成処理手段36により、被写体1またはオペレータによる背景用3DCGの回転操作等を受け付けることにより、背景用3DCGのアングルの指定を受け付ける(ステップS1204)。
続いて、新規画像生成処理手段36により、指定されたアングルで、複数の仮想カメラにより多視点または2視点レンダリングを実行して多視点または2視点(例えば、14視点等)の背景用3DCGレンダリング画像を生成し(図14参照)、自動付与した背景番号と関連付けて背景画像記憶手段51に保存する(ステップS1205)。この背景用3DCGレンダリング画像は、BMPイメージデータ、あるいはJPGイメージデータ等である。
また、新規画像生成処理手段36により、代表視点(例えば、14視点のうち、第7番目または第8番目の視点)の背景用3DCGレンダリング画像についての奥行き情報の分布を示すマップ(本実施形態では、画素単位で分布を示すデプスマップ)を自動作成し、作成したデプスマップを、背景番号と関連付けて奥行き情報記憶手段54に保存する(ステップS1205)。
さらに、新規画像生成処理手段36により、奥行き情報と眼数との対応関係を定める眼数テーブルについて、被写体1またはオペレータによる設定入力を受け付け、あるいは標準の眼数テーブルを使用する旨の選択を受け付け、設定または選択された眼数テーブルを、背景番号と関連付けて眼数テーブル記憶手段55に保存する(ステップS1205)。
そして、新規画像生成処理手段36により、前述した合成対象画像倍率算出処理手段38で使用する比例係数D2×(Q2/L2)の値について、被写体1またはオペレータによる設定入力を受け付け、あるいは標準の比例係数の値を使用する旨の選択を受け付け、設定または選択された比例係数の値を、背景画像とともに、背景番号に関連付けて背景画像記憶手段51に保存する(ステップS1205)。
それから、新規画像生成処理手段36により、前述したステップS4の処理と同様に、多視点または2視点(例えば、14視点等)の背景用3DCGレンダリング画像から、それぞれ短冊状の画像を生成し、これらの短冊状の画像を横方向に並べて結合することにより、多眼または2眼の一枚の印刷用(レンチキュラ用またはパララックスバリア用)の背景画像を生成し(図14参照)、背景番号と関連付けて背景画像記憶手段51に保存する(ステップS1206)。この印刷用(レンチキュラ用またはパララックスバリア用)の背景画像は、BMPイメージデータ、あるいはJPGイメージデータ等である。
次に、図3に示すように、被写体1またはオペレータによる小道具画像の選択を受け付けるか、あるいは被写体1またはオペレータの指示操作に基づき小道具画像を生成する処理を行う(図3のステップS13:図5のS1301〜S1305)。
図5において、背景選択受付処理手段31により、被写体1またはオペレータにより選択された既存の背景画像についての背景番号、または背景用3DCGデータについての背景用3DCG番号に基づき、選択された既存の背景画像または背景用3DCGデータに対応する各小道具画像についての小道具番号を把握する。本実施形態では、小道具番号に、背景番号または背景用3DCG番号を含ませることにより、この対応関係を定めている。そして、背景選択受付処理手段31により、把握した小道具番号に基づき、小道具画像記憶手段52Bから、選択された既存の背景画像または背景用3DCGデータに対応する各小道具画像を取得し、取得した各小道具画像を、図10に示した背景画像の場合と同様に、操作用ディスプレイ70の画面上に並べて縮小表示する。この中には、被写体1とグラビアアイドル等の小道具とが添い寝状態になっている立体画像(図18、図19参照)を生成する際に用いられる小道具画像としてのグラビアアイドル等の画像も含まれる。そして、被写体1またはオペレータは、所望の小道具画像を選択するためのタッチ操作を行う。すると、背景選択受付処理手段31により、タッチパネル71からの入力信号が受信され、被写体1またはオペレータにより選択された小道具画像(小道具番号)が特定される(ステップS1301)。ここでは、背景番号=101の背景画像(風景1)に対応して用意された小道具番号=101−1の小道具画像(小道具1)が選択されたものとする。
また、被写体1またはオペレータは、操作用ディスプレイ70の画面上で、小道具画像を自らの操作で小道具用3DCGデータから生成する旨の選択も行うことができ、この場合には、背景選択受付処理手段31により、小道具画像記憶手段52Bに記憶されている小道具用3DCGデータの選択メニューを操作用ディスプレイ70の画面上に表示する(ステップS1301)。この際、選択メニューに表示される小道具用3DCGデータは、被写体1またはオペレータにより選択された既存の背景画像または背景用3DCGデータに対応して用意された小道具用3DCGデータであり、この表示は、被写体1またはオペレータにより選択された既存の背景画像についての背景番号、または背景用3DCGデータについての背景用3DCG番号に基づき、当該小道具用3DCGデータについての小道具用3DCG番号を把握することにより実現される。本実施形態では、小道具用3DCG番号に、背景番号または背景用3DCG番号を含ませることにより、この対応関係を定めている。
そして、被写体1またはオペレータは、所望の小道具用3DCGデータを選択するためのタッチ操作を行う。すると、背景選択受付処理手段31により、タッチパネル71からの入力信号が受信され、被写体1またはオペレータにより選択された小道具用3DCGデータ(小道具用3DCG番号)が特定される(ステップS1301)。
続いて、背景選択受付処理手段31により小道具用3DCGデータの選択を受け付けたか否かを判断し(ステップS1302)、小道具用3DCGデータの選択を受け付けていない場合、すなわち小道具画像を自らの操作で生成する旨の選択ではなく、既に用意されている小道具画像が選択された場合には、次のステップS14の処理に移る。一方、背景選択受付処理手段31により小道具用3DCGデータの選択を受け付けた場合には、背景選択受付処理手段31から新規画像生成処理手段36へ小道具用3DCG番号を引き渡し、新規画像生成処理手段36により、背景選択受付処理手段31から受け取った小道具用3DCG番号の小道具用3DCGデータを小道具画像記憶手段52Bから読み込み、読み込んだ小道具用3DCGデータを用いて操作用ディスプレイ70の画面上に、その小道具用3DCGを表示する(ステップS1303)。
それから、新規画像生成処理手段36により、被写体1またはオペレータによる小道具用3DCGの回転操作等を受け付けることにより、小道具用3DCGのアングルの指定を受け付ける(ステップS1304)。
続いて、新規画像生成処理手段36により、指定されたアングルで、複数の仮想カメラにより多視点または2視点レンダリングを実行して多視点または2視点(例えば、14視点等)の小道具用3DCGレンダリング画像を生成し(図16参照)、自動付与した小道具番号と関連付けて小道具画像記憶手段52Bに保存する(ステップS1305)。この小道具用3DCGレンダリング画像は、BMPイメージデータ、あるいはJPGイメージデータ等である。
また、新規画像生成処理手段36により、被写体1またはオペレータによる小道具の原寸のサイズ情報の入力を受け付けるか、または小道具用3DCGデータとともに保持されていた小道具の原寸のサイズ情報を取得し、小道具の原寸のサイズ情報を、小道具番号と関連付けて小道具サイズ記憶手段53Bに保存する(ステップS1305)。
ここで、小道具画像について、背景画像と合成する際に、視差量調整等を行わない場合には、ステップS1305で生成した多視点または2視点(例えば、14視点等)の小道具用3DCGレンダリング画像から、複数種類の眼数の印刷用の小道具画像を予め生成し、小道具番号と関連付けて小道具画像記憶手段52Bに保存しておいてもよく、そのようにすれば撮影から印刷までの処理時間を短縮することができる。この点は、図2に示した前処理におけるステップS5,S6の処理後の説明で述べたことと同様である。なお、本実施形態では、小道具画像について、背景画像と合成する際に、視差量調整等を行うことにしているため、印刷用の小道具画像の生成は、後述する図9のステップS2104の処理で行っている。
その後、図3に示すように、被写体1またはオペレータによる過去の被写体画像の選択を受け付ける(図3のステップS14)。すなわち、背景選択受付処理手段31により、被写体画像記憶手段52Aから、過去に撮影された各被写体画像を取得し、取得した各被写体画像を、図10に示した背景画像の場合と同様に、操作用ディスプレイ70の画面上に並べて縮小表示する。この中には、これから撮影しようとしている現在の被写体1と過去の被写体(例えば、過去に撮影した恋人や家族等)とが添い寝状態になっている立体画像(図18、図19において、グラビアアイドルの代わりに、過去の被写体を配置した状態の立体画像)を生成する際に用いられる過去の被写体画像も含まれる。そして、被写体1またはオペレータは、所望の過去の被写体画像を選択するためのタッチ操作を行う。すると、背景選択受付処理手段31により、タッチパネル71からの入力信号が受信され、被写体1またはオペレータにより選択された過去の被写体画像(被写体番号)が特定される。ここでは、被写体番号=1の被写体画像(ギターを持った若者の画像)が選択されたものとする。
次に、図3に示すように、被写体1またはオペレータによる現在および過去の被写体画像並びに小道具画像の各配置位置の入力を受け付け、入力された各配置位置に対応する背景画像の各部位についての奥行き情報を取得し、過去の被写体および小道具の原寸のサイズ情報を取得し、背景画像に過去の被写体画像および小道具画像を合成する際の各倍率を算出する処理を行う(図3のステップS15:図6のステップS1501〜S1504)。
図15において、配置位置入力受付処理手段32により、被写体1またはオペレータにより選択された背景画像を、図11に示すように、操作用ディスプレイ70の画面上に表示する(ステップS1501)。被写体1またはオペレータは、システムによる音声案内等に従って、操作用ディスプレイ70に画面表示されている背景画像上で、現在撮影しようとしている被写体1の被写体画像を配置する配置位置(例えば、被写体1である人間の2足の中心位置)を入力するためのタッチ操作を行う。すると、配置位置入力受付処理手段32により、被写体1またはオペレータによるタッチパネル71からの入力信号が受信され、受信した信号値から、入力指定された配置位置に対応する背景画像の部位(本実施形態では、画素を識別する座標値(x,y))が特定されるとともに、操作用ディスプレイ70に画面表示されている背景画像上において、特定された部位(座標値(x,y))に、入力指定された現在の被写体画像の配置位置を示すマーク(例えば、図11中の黒い丸印のマーク105)が表示される(ステップS1501)。
また、同様にして、被写体1またはオペレータは、システムによる音声案内等に従って、操作用ディスプレイ70に画面表示されている背景画像上で、選択した過去の被写体画像を配置する配置位置(例えば、過去の被写体である人間の2足の中心位置)を入力するためのタッチ操作を行う。すると、配置位置入力受付処理手段32により、被写体1またはオペレータによるタッチパネル71からの入力信号が受信され、受信した信号値から、入力指定された配置位置に対応する背景画像の部位(座標値(x,y))が特定されるとともに、操作用ディスプレイ70に画面表示されている背景画像上において、特定された部位(座標値(x,y))に、入力指定された過去の被写体画像の配置位置を示すマーク(例えば、図11中の黒い四角印のマーク106)が表示される(ステップS1501)。
さらに、同様にして、被写体1またはオペレータは、システムによる音声案内等に従って、操作用ディスプレイ70に画面表示されている背景画像上で、選択した小道具画像を配置する配置位置(例えば、小道具である動物の4足の中心位置)を入力するためのタッチ操作を行う。すると、配置位置入力受付処理手段32により、被写体1またはオペレータによるタッチパネル71からの入力信号が受信され、受信した信号値から、入力指定された配置位置に対応する背景画像の部位(座標値(x,y))が特定されるとともに、操作用ディスプレイ70に画面表示されている背景画像上において、特定された部位(座標値(x,y))に、入力指定された小道具画像の配置位置を示すマーク(例えば、図11中の黒い三角印のマーク107)が表示される(ステップS1501)。
続いて、奥行き情報抽出処理手段37により、被写体1またはオペレータにより選択された背景画像についての背景番号をキーとして、奥行き情報記憶手段54から、選択された背景画像についての奥行き情報の分布を示すマップ(デプスマップ)を抽出する(ステップS1502)。そして、奥行き情報抽出処理手段37により、配置位置入力受付処理手段32により受け付けた各配置位置(現在撮影しようとしている被写体画像の配置位置、過去に撮影された被写体画像の配置位置、および小道具画像の配置位置)に対応する背景画像の各部位(座標値(x,y))についての奥行き情報を、奥行き情報の分布を示すマップ(デプスマップ)から抽出する(ステップS1502)。
それから、合成対象画像倍率算出処理手段38により、被写体1またはオペレータにより選択された過去の被写体画像についての被写体番号をキーとして、被写体サイズ記憶手段53Aから、選択された過去の被写体画像に写っている過去の被写体の原寸のサイズ情報を取得する(ステップS1503)。また、合成対象画像倍率算出処理手段38により、被写体1またはオペレータにより選択された小道具画像についての小道具番号をキーとして、小道具サイズ記憶手段53Bから、選択された小道具画像に写っている小道具の原寸のサイズ情報を取得する(ステップS1503)。さらに、合成対象画像倍率算出処理手段38により、被写体1またはオペレータにより選択された背景画像についての背景番号をキーとして、背景画像記憶手段51から、選択された背景画像についての比例係数D2×(Q2/L2)の値を取得する(ステップS1503)。
続いて、合成対象画像倍率算出処理手段38により、奥行き情報抽出処理手段37により抽出した過去の被写体画像の配置位置に対応する背景画像の部位についての奥行き情報(奥行きの値をDとする。)と、被写体サイズ記憶手段53Aから取得した過去の被写体の原寸のサイズ情報(身長をLメートルとする。)と、背景画像記憶手段51から取得した比例係数D2×(Q2/L2)の値とを用いて、前述したQ4=(D2/D)×(Q2/L2)×Lという式により、合成する際の過去の被写体画像の画像サイズQ4ピクセルを算出する(ステップS1504)。あるいは、被写体画像記憶手段52Aに記憶されている過去の被写体画像の画像サイズ(身長の方向がQピクセルとする。)を用いて、前述したQ4/Q=(D2/D)×(Q2/L2)×(L/Q)という式により、合成する際の過去の被写体画像の倍率Q4/Qを算出する(ステップS1504)。
また、合成対象画像倍率算出処理手段38により、奥行き情報抽出処理手段37により抽出した小道具画像の配置位置に対応する背景画像の部位についての奥行き情報(奥行きの値をDとする。)と、小道具サイズ記憶手段53Bから取得した小道具の原寸のサイズ情報(高さ寸法をLメートルとする。)と、背景画像記憶手段51から取得した比例係数D2×(Q2/L2)の値とを用いて、前述したQ4=(D2/D)×(Q2/L2)×Lという式により、合成する際の小道具画像の画像サイズQ4ピクセルを算出する(ステップS1504)。あるいは、小道具画像記憶手段52Bに記憶されている小道具画像の画像サイズ(高さ方向がQピクセルとする。)を用いて、前述したQ4/Q=(D2/D)×(Q2/L2)×(L/Q)という式により、合成する際の小道具画像の倍率Q4/Qを算出する(ステップS1504)。
次に、図3に示すように、リアルタイム確認表示用の被写体1の撮影を行い、背景画像に現在および過去の被写体画像並びに小道具画像を合成した状態の2D画像を、確認用ディスプレイ80に表示する(図3のステップS16:図7のステップS1601〜S1606)。
図7において、被写体1は、ブルースクリーン11をバックにして床12上に立つ。この状態で、撮影処理手段33により、低解像度のカメラ15による被写体1(現在の被写体)のリアルタイム確認表示用の撮影を行う(ステップS1601)。
続いて、被写体切出処理手段34により、低解像度のカメラ15により撮影した被写体1を含むブルーバックの画像から、被写体1を切り出すことにより、合成対象画像としての1眼(2D)の現在の被写体画像(図15参照)を生成する(ステップS1602)。
それから、被写体サイズ算出処理手段35により、被写体切出処理手段34により切り出された現在の被写体画像の画像サイズ(身長の方向がQピクセルとする。)から、前述したL=(L1/Q1)×Qという式により、被写体1(現在の被写体)の原寸のサイズ情報(身長Lメートル)を算出する(ステップS1603)。前述したように、(L1/Q1)は、予め定められた比例係数である。なお、ここでの現在の被写体画像の画像サイズ(身長の方向がQピクセルとする。)は、低解像度のカメラ15により撮影した画像の画像サイズであるから、後述する図8のステップS1902で生成される現在の被写体画像、すなわち高解像度のカメラ14により撮影した画像の画像サイズとは異なる。従って、次のステップS1604で算出される現在の被写体画像の倍率も、後述する図8のステップS1904で算出される現在の被写体画像の倍率とは異なる値となる。
さらに、合成対象画像倍率算出処理手段38により、奥行き情報抽出処理手段37により抽出した現在の被写体画像の配置位置に対応する背景画像の部位についての奥行き情報(奥行きの値をDとする。)と、被写体サイズ算出処理手段35により算出した現在の被写体の原寸のサイズ情報(身長をLメートルとする。)と、背景画像記憶手段51から取得した比例係数D2×(Q2/L2)の値とを用いて、前述したQ4=(D2/D)×(Q2/L2)×Lという式により、合成する際の現在の被写体画像の画像サイズQ4ピクセルを算出する(ステップS1604)。あるいは、被写体切出処理手段34により切り出された現在の被写体画像の画像サイズ(身長の方向がQピクセルとする。)を用いて、前述したQ4/Q=(D2/D)×(Q2/L2)×(L/Q)という式により、合成する際の現在の被写体画像の倍率Q4/Qを算出する(ステップS1604)。
続いて、確認用画像生成処理手段40により、1眼の現在の被写体画像(2D画像)、1眼の過去の被写体画像(2D画像)、および1眼の小道具画像(2D画像)を、それぞれ合成対象画像倍率算出処理手段38により算出した倍率で拡大または縮小した状態で、配置位置入力受付処理手段32により受け付けた各配置位置に配置し、被写体1またはオペレータにより選択された1眼の背景画像(2D画像)に合成することにより、リアルタイム確認表示用の2D画像を生成する(ステップS1605)。
この際、1眼の現在の被写体画像(2D画像)は、確認表示専用のカメラである1台の低解像度のカメラ15により撮影された現在の被写体を含む画像から被写体切出処理手段34による切出処理を行って得られた画像である(図15参照)。また、1眼の過去の被写体画像(2D画像)は、被写体画像記憶手段52Aに記憶された過去の被写体画像のうち、被写体1またはオペレータにより選択された過去の被写体画像(多視点または2視点の過去の被写体画像)の中から自動選択された代表視点(例えば、14視点のうち、第7番目または第8番目の視点)の画像である(図17参照)。さらに、1眼の小道具画像(2D画像)は、小道具画像記憶手段52Bに記憶された小道具画像のうち、被写体1またはオペレータにより選択された小道具画像(多視点または2視点の小道具用実写画像、あるいは多視点または2視点の小道具用3DCGレンダリング画像)の中から自動選択された代表視点(例えば、14視点のうち、第7番目または第8番目の視点)の画像である(図16参照)。そして、1眼の背景画像(2D画像)は、背景画像記憶手段51に記憶された背景画像のうち、被写体1またはオペレータにより選択された背景画像(多視点または2視点の背景用実写画像、あるいは多視点または2視点の背景用3DCGレンダリング画像)の中から自動選択された代表視点(例えば、14視点のうち、第7番目または第8番目の視点)の画像である(図14参照)。
また、1眼の現在の被写体画像(2D画像)は、背景画像が被写体1とグラビアアイドル等の小道具とを添い寝状態で合成するための背景画像(図18、図19参照)である場合には、1眼の現在の被写体画像(2D画像)を90度回転させた状態で背景画像に合成する。そして、1眼の過去の被写体画像(2D画像)は、背景画像が被写体1(現在の被写体)と過去の被写体とを添い寝状態で合成するための背景画像である場合(図18、図19において、グラビアアイドルに代えて、過去の被写体を配置する場合)には、1眼の過去の被写体画像(2D画像)を90度回転させた状態で背景画像に合成する。
そして、確認用画像生成処理手段40により、合成して得られたリアルタイム確認表示用の2D画像を、確認用ディスプレイ80に表示する(ステップS1606)。
被写体1は、確認用ディスプレイ80に表示された2D画像を見て、現在および過去の被写体画像並びに小道具画像の各配置位置を変更したい場合には、操作用ディスプレイ70に表示されている「配置位置の変更」ボタン101(図11参照)を押すためのタッチ操作を行う。オペレータが代理操作してもよい。従って、配置位置入力受付処理手段32がタッチパネル71からの「配置位置の変更」ボタン101の押下信号を受信した場合(ステップS17)には、図3に示すように、ステップS15に戻り、再度、配置位置入力受付処理手段32による配置位置の入力受付処理が行われる。
また、被写体1は、現在および過去の被写体画像並びに小道具画像の各配置位置を変更しなくてよい場合は、現時点のポーズで本番撮影を行うのか、あるいはポーズを変えて、再度、リアルタイム確認表示用の撮影を行うのかを判断し、本番撮影を行うと判断した場合には、床12に設けられたフットペダル13を踏む(図1参照)。オペレータが代理操作してもよい。従って、撮影処理手段33がフットペダル13からの踏信号を受信した場合、すなわち本番撮影を行うという判断がなされた場合(ステップS18)には、図3に示すように、次の本番撮影の処理に移る。一方、撮影処理手段33がフットペダル13からの踏信号を受信しない場合、すなわち本番撮影を行うという判断がなされない場合(ステップS18)には、図3に示すように、ステップS16に戻り、再度、リアルタイム確認表示用の撮影処理が行われる。このため、被写体1がフットペダル13を踏まなければ、ステップS16のリアルタイム確認表示用の撮影処理および2D画像の表示処理が繰り返されるので、その間に、被写体1は、好みのポーズを決めることができる。なお、図3において、図示は省略されているが、フットペダル13を踏んでから、一定時間(例えば、5秒間等)が経過するまでは、次の本番撮影の処理に進まずに、ステップS16のリアルタイム確認表示用の撮影処理および2D画像の表示処理が繰り返されるようになっているので、その間に、被写体1は、フットペダル13を踏む操作を行うことにより、若干、崩れてしまったポーズを、好みのポーズに修正し、本番撮影を待つことができる。
そして、図3に示すように、フットペダル13が踏まれてから、一定時間(例えば、5秒間等)が経過した後に、本番撮影の処理、および確認用の立体画像の表示処理が行われる(図3のステップS19:図8のステップS1901〜S1911)。
図8において、被写体1は、ブルースクリーン11をバックにして、好みのポーズで床12上に立っているので、この状態で、撮影処理手段33により、複数台の高解像度のカメラ14(例えば、14台のカメラ14A,14B,14C,…,14N)による被写体1(現在の被写体)の本番撮影を行う(ステップS1901)。
続いて、被写体切出処理手段34により、複数台の高解像度のカメラ14により撮影した被写体1を含むブルーバックの各画像から、被写体1を切り出すことにより、合成対象画像としての多視点または2視点の現在の被写体画像(図15参照)を生成し、自動付与した被写体番号と関連付けて被写体画像記憶手段52Aに保存する(ステップS1902)。例えば、14台の高解像度のカメラ14A,14B,14C,…,14N(図1参照)により撮影を行って、図15に示すように、被写体1を含むブルーバックの14視点の画像B1〜B14が得られた場合には、これらの14視点の画像B1〜B14から、それぞれ被写体1の切り出しを行って、14視点の現在の被写体画像G1〜G14を生成する。
それから、被写体サイズ算出処理手段35により、被写体切出処理手段34により切り出された多視点または2視点の現在の被写体画像のうち、代表視点(例えば、14視点のうち、第7番目または第8番目の視点)の現在の被写体画像の画像サイズ(身長の方向がQピクセルとする。)から、前述したL=(L1/Q1)×Qという式により、被写体1(現在の被写体)の原寸のサイズ情報(身長Lメートル)を算出し、被写体番号と関連付けて被写体サイズ記憶手段53Aに保存する(ステップS1903)。前述したように、(L1/Q1)は、予め定められた比例係数である。なお、ここでの現在の被写体画像の画像サイズ(身長の方向がQピクセルとする。)は、高解像度のカメラ14により撮影した画像の画像サイズであるから、前述した図7のステップS1602で生成される現在の被写体の2D画像、すなわち低解像度のカメラ15により撮影した画像の画像サイズとは異なる。従って、次のステップS1904で算出される現在の被写体画像の倍率も、前述した図7のステップS1604で算出される現在の被写体画像の倍率とは異なる値となる。
さらに、合成対象画像倍率算出処理手段38により、奥行き情報抽出処理手段37により抽出した現在の被写体画像の配置位置に対応する背景画像の部位についての奥行き情報(奥行きの値をDとする。)と、被写体サイズ算出処理手段35により算出した現在の被写体の原寸のサイズ情報(身長をLメートルとする。)と、背景画像記憶手段51から取得した比例係数D2×(Q2/L2)の値とを用いて、前述したQ4=(D2/D)×(Q2/L2)×Lという式により、合成する際の現在の被写体画像の画像サイズQ4ピクセルを算出する(ステップS1904)。あるいは、被写体切出処理手段34により切り出された多視点または2視点の現在の被写体画像のうちの代表視点の現在の被写体画像の画像サイズ(身長の方向がQピクセルとする。)を用いて、前述したQ4/Q=(D2/D)×(Q2/L2)×(L/Q)という式により、合成する際の現在の被写体画像の倍率Q4/Qを算出する(ステップS1904)。
それから、確認用画像生成処理手段40により、被写体切出処理手段34により切り出された多視点または2視点の現在の被写体画像(ステップS1902で被写体画像記憶手段52Aに保存された画像)から、多眼または2眼の確認表示用の現在の被写体画像(例えば、2眼偏光式用の現在の被写体画像)を生成する(ステップS1905)。2眼偏光式用の現在の被写体画像は、本番撮影用の複数台の高解像度のカメラ14により撮影して得られた多視点または2視点の現在の被写体画像の中から自動選択された中央付近の2視点の画像(例えば、図15に示すように、14視点の画像G1〜G14のうち、画像G7および画像G11、あるいは画像G8および画像G10)を用いて、xpol(マイクロポール)のパターンに合わせて生成される(図15参照)。なお、液晶シャッタ方式の2眼の現在の被写体画像を生成する場合も、同様にして中央付近の2視点の画像を自動選択すればよい。
また、確認用画像生成処理手段40により、被写体画像記憶手段52Aに記憶されている多視点または2視点の過去の被写体画像から、多眼または2眼の確認表示用の過去の被写体画像(例えば、2眼偏光式用の過去の被写体画像)を生成する(ステップS1906)。2眼偏光式用の過去の被写体画像は、被写体画像記憶手段52Aに記憶された過去の被写体画像のうち、被写体1またはオペレータにより選択された過去の被写体画像(多視点または2視点の過去の被写体画像)の中から自動選択された中央付近の2視点の画像(例えば、図17に示すように、14視点の画像P1〜P14のうち、画像P7および画像P11、あるいは画像P8および画像P10)を用いて、xpol(マイクロポール)のパターンに合わせて生成される(図17参照)。なお、液晶シャッタ方式の2眼の過去の被写体画像を生成する場合も、同様にして中央付近の2視点の画像を自動選択すればよい。
さらに、確認用画像生成処理手段40により、小道具画像記憶手段52Bに記憶されている多視点または2視点の小道具画像から、多眼または2眼の確認表示用の小道具画像(例えば、2眼偏光式用の小道具画像)を生成する(ステップS1907)。2眼偏光式用の小道具画像は、小道具画像記憶手段52Bに記憶された小道具画像のうち、被写体1またはオペレータにより選択された小道具画像(多視点または2視点の小道具用実写画像、あるいは多視点または2視点の小道具用3DCGレンダリング画像)の中から自動選択された中央付近の2視点の画像(例えば、図16に示すように、14視点の画像K1〜K14のうち、画像K7および画像K11、あるいは画像K8および画像K10)を用いて、xpol(マイクロポール)のパターンに合わせて生成される(図16参照)。なお、液晶シャッタ方式の2眼の小道具画像を生成する場合も、同様にして中央付近の2視点の画像を自動選択すればよい。
そして、確認用画像生成処理手段40により、背景画像記憶手段51に記憶されている多視点または2視点の背景画像から、多眼または2眼の確認表示用の背景画像(例えば、2眼偏光式用の背景画像)を生成する(ステップS1908)。2眼偏光式用の背景画像は、背景画像記憶手段51に記憶された背景画像のうち、被写体1またはオペレータにより選択された背景画像(多視点または2視点の背景用実写画像、あるいは多視点または2視点の背景用3DCGレンダリング画像)の中から自動選択された中央付近の2視点の画像(例えば、図14に示すように、14視点の画像H1〜H14のうち、画像H7および画像H11、あるいは画像H8および画像H10)を用いて、xpol(マイクロポール)のパターンに合わせて生成される(図14参照)。なお、液晶シャッタ方式の2眼の背景画像を生成する場合も、同様にして中央付近の2視点の画像を自動選択すればよい。
続いて、確認用画像生成処理手段40により、多眼または2眼の確認表示用の現在の被写体画像(例えば、2眼偏光式用の現在の被写体画像)、多眼または2眼の確認表示用の過去の被写体画像(例えば、2眼偏光式用の過去の被写体画像)、および多眼または2眼の確認表示用の小道具画像(例えば、2眼偏光式用の小道具画像)を、それぞれ合成対象画像倍率算出処理手段38により算出した倍率で拡大または縮小した状態で、配置位置入力受付処理手段32により受け付けた各配置位置に配置し、被写体1またはオペレータにより選択された多眼または2眼の確認表示用の背景画像(例えば、2眼偏光式用の背景画像)に合成することにより、確認表示用の立体画像(例えば、2眼の偏光メガネ方式の立体画像)を生成する(ステップS1909)。
そして、確認用画像生成処理手段40により、合成して得られた確認表示用の立体画像(例えば、2眼の偏光メガネ方式の立体画像)を、確認用ディスプレイ80に表示する(ステップS1910)。
その後、被写体1は、確認用ディスプレイ80に表示された確認表示用の立体画像を見て(例えば、偏光メガネをかけて、2眼の偏光メガネ方式の立体画像を見て)、現在および過去の被写体画像、並びに小道具画像について、配置位置、視差量、倍率等を微調整したい場合には、操作用ディスプレイ70に表示されている「微調整」ボタン102(図11参照)を押すためのタッチ操作を行う。オペレータが代理操作してもよい。従って、確認用画像生成処理手段40がタッチパネル71からの「微調整」ボタン102の押下信号を受信した場合には、ステップS1905に戻り、再度、確認用画像生成処理手段40による確認表示用の立体画像の生成および表示処理(ステップS1905〜S1910)を行う。
ここで、配置位置の微調整は、例えば、タッチ操作により微調整後の配置位置を入力指定させたり、あるいは上下左右や斜めのいずれの方向に、どれぐらい移動させるのかを段階的にタッチ操作により入力指定させる等の方法を採ることができる。また、視差量の微調整も、例えば、飛び出させる程度や引っ込める程度を、段階的にタッチ操作により入力指定させる等の方法を採ることができる。さらに、倍率の微調整も、例えば、拡大する程度や縮小する程度を、段階的にタッチ操作により入力指定させる等の方法を採ることができる。
次に、被写体1は、確認用ディスプレイ80に表示された確認表示用の立体画像を見て(例えば、偏光メガネをかけて、2眼の偏光メガネ方式の立体画像を見て)、微調整の必要がなく、印刷したい場合には、操作用ディスプレイ70に表示されている「印刷」ボタン103(図11参照)を押すためのタッチ操作を行う。オペレータが代理操作してもよい。一方、被写体1は、確認用ディスプレイ80に表示された確認表示用の立体画像を見て、出来映えが気に入らなければ、最初からやり直すことができ、この場合には、操作用ディスプレイ70に表示されている「やり直し」ボタン104(図11参照)を押すためのタッチ操作を行う。オペレータが代理操作してもよい。
従って、図3に示すように、合成処理手段41がタッチパネル71からの「印刷」ボタン103の押下信号を受信した場合(ステップS20)には、次の印刷用の立体画像の生成および印刷処理に移り、一方、背景選択受付処理手段31がタッチパネル71からの「やり直し」ボタン104の押下信号を受信した場合、すなわち印刷を行わない場合(ステップS20)には、ステップS11に戻り、背景画像や小道具画像の選択から処理をやり直す。
その後、印刷用の立体画像の生成および印刷処理を行う(図3のステップS21:図9のステップS2101〜S2106)。
図9において、先ず、眼数決定処理手段39により、被写体1またはオペレータにより選択された背景画像についての背景番号をキーとして、眼数テーブル記憶手段55から、選択された背景画像についての眼数テーブルを抽出する。そして、抽出した眼数テーブルを用いて、奥行き情報抽出処理手段37により抽出した現在の被写体画像の配置位置に対応する背景画像の部位についての奥行き情報から、現在の被写体画像の眼数を取得し、奥行き情報抽出処理手段37により抽出した過去の被写体画像の配置位置に対応する背景画像の部位についての奥行き情報から、過去の被写体画像の眼数を取得し、奥行き情報抽出処理手段37により抽出した小道具画像の配置位置に対応する背景画像の部位についての奥行き情報から、小道具画像の眼数を取得することにより、各合成対象画像の眼数を決定する(ステップS2101)。
続いて、合成処理手段41により、眼数決定処理手段39により決定した眼数の印刷用の現在の被写体画像を生成する(ステップS2102)。例えば、本番撮影用の複数台の高解像度のカメラ14により撮影して得られた多視点または2視点の現在の被写体画像(被写体画像記憶手段52Aに記憶されている多視点または2視点の現在の被写体画像)から、それぞれ短冊状の画像を形成し、これらの短冊状の画像を横方向に並べて結合することにより、印刷用の現在の被写体画像を、レンチキュラ用またはパララックスバリア用の画像として生成する(図15参照)。
より具体的には、例えば、14視点の現在の被写体画像G1〜G14が生成されている場合(図15参照)には、例えば、14眼、7眼、4眼、2眼の合計4種類の眼数の印刷用(レンチキュラ用またはパララックスバリア用)の現在の被写体画像を生成することができる。この際、14眼の印刷用の現在の被写体画像は、14視点の元画像G1〜G14の全てを用いて、それぞれ短冊状の画像を生成し、それらを結合して得ることができ、7眼の印刷用の現在の被写体画像は、例えば、14視点のうちの7視点の元画像(G1,G3,G5,G7,G9,G11,G13)または(G2,G4,G6,G8,G10,G12,G14)を用いて、それぞれ短冊状の画像を生成し、それらを結合して得ることができ、4眼の印刷用の現在の被写体画像は、例えば、14視点のうちの4視点の元画像(G5,G7,G9,G11)または(G4,G6,G8,G10)を用いて、それぞれ短冊状の画像を生成し、それらを結合して得ることができ、2眼の印刷用の現在の被写体画像は、例えば、14視点のうちの2視点の元画像(G7,G11)または(G8,G10)を用いて、それぞれ短冊状の画像を生成し、それらを結合して得ることができる。そして、背景画像が立体画像である場合には、これらに、1眼(2D)の印刷用の現在の被写体画像を加えてもよく、その場合には、14眼、7眼、4眼、2眼、1眼(2D)の合計5種類の眼数の印刷用の現在の被写体画像を生成することができる。
また、同様にして、7視点の現在の被写体画像が生成されている場合には、例えば、7眼、4眼、2眼の合計3種類(1眼(2D)を加えれば合計4種類)の眼数の印刷用の現在の被写体画像を生成することができ、4視点の現在の被写体画像が生成されている場合には、例えば、4眼、2眼の合計2種類(1眼(2D)を加えれば合計3種類)の眼数の印刷用の現在の被写体画像を生成することができ、2視点の現在の被写体画像が生成されている場合には、1眼(2D)を加えれば、2眼、1眼(2D)の合計2種類の眼数の印刷用の現在の被写体画像を生成することができる。なお、本実施形態では、現在の被写体画像について、背景画像と合成する際に、視差量調整等を行うことにしているため、本ステップ(ステップS2102)で、眼数決定処理手段39により決定した眼数の印刷用の現在の被写体画像を生成することにしているが、視差量調整等を行わない場合には、より前の段階(例えば、図8のステップS1902の処理後の段階等)で、複数種類の眼数の印刷用の現在の被写体画像を予め生成しておき、その中から、眼数決定処理手段39により決定した眼数の印刷用の現在の被写体画像を選択するようにしてもよい。
また、合成処理手段41により、眼数決定処理手段39により決定した眼数の印刷用の過去の被写体画像を生成する(ステップS2103)。例えば、被写体画像記憶手段52Aに記憶された過去の被写体画像のうち、被写体1またはオペレータにより選択された過去の被写体画像(多視点または2視点の過去の被写体画像)から、それぞれ短冊状の画像を形成し、これらの短冊状の画像を横方向に並べて結合することにより、印刷用の過去の被写体画像を、レンチキュラ用またはパララックスバリア用の画像として生成する(図17参照)。
より具体的には、例えば、14視点の過去の被写体画像P1〜P14が生成されている場合(図17参照)には、例えば、14眼、7眼、4眼、2眼の合計4種類の眼数の印刷用(レンチキュラ用またはパララックスバリア用)の過去の被写体画像を生成することができる。この際、14眼の印刷用の過去の被写体画像は、14視点の元画像P1〜P14の全てを用いて、それぞれ短冊状の画像を生成し、それらを結合して得ることができ、7眼の印刷用の過去の被写体画像は、例えば、14視点のうちの7視点の元画像(P1,P3,P5,P7,P9,P11,P13)または(P2,P4,P6,P8,P10,P12,P14)を用いて、それぞれ短冊状の画像を生成し、それらを結合して得ることができ、4眼の印刷用の過去の被写体画像は、例えば、14視点のうちの4視点の元画像(P5,P7,P9,P11)または(P4,P6,P8,P10)を用いて、それぞれ短冊状の画像を生成し、それらを結合して得ることができ、2眼の印刷用の過去の被写体画像は、例えば、14視点のうちの2視点の元画像(P7,P11)または(P8,P10)を用いて、それぞれ短冊状の画像を生成し、それらを結合して得ることができる。そして、背景画像が立体画像である場合には、これらに、1眼(2D)の印刷用の過去の被写体画像を加えてもよく、その場合には、14眼、7眼、4眼、2眼、1眼(2D)の合計5種類の眼数の印刷用の過去の被写体画像を生成することができる。
また、同様にして、7視点の過去の被写体画像が生成されている場合には、例えば、7眼、4眼、2眼の合計3種類(1眼(2D)を加えれば合計4種類)の眼数の印刷用の過去の被写体画像を生成することができ、4視点の過去の被写体画像が生成されている場合には、例えば、4眼、2眼の合計2種類(1眼(2D)を加えれば合計3種類)の眼数の印刷用の過去の被写体画像を生成することができ、2視点の過去の被写体画像が生成されている場合には、1眼(2D)を加えれば、2眼、1眼(2D)の合計2種類の眼数の印刷用の過去の被写体画像を生成することができる。なお、本実施形態では、過去の被写体画像について、背景画像と合成する際に、視差量調整等を行うことにしているため、本ステップ(ステップS2102)で、眼数決定処理手段39により決定した眼数の印刷用の過去の被写体画像を生成することにしているが、視差量調整等を行わない場合には、より前の段階(例えば、図3のステップS14の処理後の段階等)で、複数種類の眼数の印刷用の過去の被写体画像を予め生成しておき、その中から、眼数決定処理手段39により決定した眼数の印刷用の過去の被写体画像を選択するようにしてもよい。
さらに、合成処理手段41により、眼数決定処理手段39により決定した眼数の印刷用の小道具画像を生成する(ステップS2104)。例えば、小道具画像記憶手段52Bに記憶された小道具画像のうち、被写体1またはオペレータにより選択された小道具画像(多視点または2視点の小道具画像)から、それぞれ短冊状の画像を形成し、これらの短冊状の画像を横方向に並べて結合することにより、印刷用の小道具画像を、レンチキュラ用またはパララックスバリア用の画像として生成する(図16参照)。
より具体的には、例えば、14視点の小道具用実写画像K1〜K14または小道具用3DCGレンダリング画像K1〜K14が生成されている場合(図16参照)には、例えば、14眼、7眼、4眼、2眼の合計4種類の眼数の印刷用(レンチキュラ用またはパララックスバリア用)の小道具画像を生成することができる。この際、14眼の印刷用の小道具画像は、14視点の元画像K1〜K14の全てを用いて、それぞれ短冊状の画像を生成し、それらを結合して得ることができ、7眼の印刷用の小道具画像は、例えば、14視点のうちの7視点の元画像(K1,K3,K5,K7,K9,K11,K13)または(K2,K4,K6,K8,K10,K12,K14)を用いて、それぞれ短冊状の画像を生成し、それらを結合して得ることができ、4眼の印刷用の小道具画像は、例えば、14視点のうちの4視点の元画像(K5,K7,K9,K11)または(K4,K6,K8,K10)を用いて、それぞれ短冊状の画像を生成し、それらを結合して得ることができ、2眼の印刷用の小道具画像は、例えば、14視点のうちの2視点の元画像(K7,K11)または(K8,K10)を用いて、それぞれ短冊状の画像を生成し、それらを結合して得ることができる。そして、背景画像が立体画像である場合には、これらに、1眼(2D)の印刷用の小道具画像を加えてもよく、その場合には、14眼、7眼、4眼、2眼、1眼(2D)の合計5種類の眼数の印刷用の小道具画像を生成することができる。
また、同様にして、7視点の小道具用実写画像または小道具用3DCGレンダリング画像が生成されている場合には、例えば、7眼、4眼、2眼の合計3種類(1眼(2D)を加えれば合計4種類)の眼数の印刷用の小道具画像を生成することができ、4視点の小道具用実写画像または小道具用3DCGレンダリング画像が生成されている場合には、例えば、4眼、2眼の合計2種類(1眼(2D)を加えれば合計3種類)の眼数の印刷用の小道具画像を生成することができ、2視点の小道具用実写画像または小道具用3DCGレンダリング画像が生成されている場合には、1眼(2D)を加えれば、2眼、1眼(2D)の合計2種類の眼数の印刷用の小道具画像を生成することができる。なお、本実施形態では、小道具画像について、背景画像と合成する際に、視差量調整等を行うことにしているため、本ステップ(ステップS2102)で、眼数決定処理手段39により決定した眼数の印刷用の小道具画像を生成することにしているが、視差量調整等を行わない場合には、より前の段階(例えば、図3のステップS13の処理後の段階等)で、複数種類の眼数の印刷用の小道具画像を予め生成しておき、その中から、眼数決定処理手段39により決定した眼数の印刷用の小道具画像を選択するようにしてもよい。
なお、印刷用(レンチキュラ用またはパララックスバリア用)の背景画像は、予め定められた眼数(例えば、14眼)で、前処理(図2のステップS4)で予め生成されるか、または新規画像生成処理手段36による処理(図4のステップS1206)で生成されて背景画像記憶手段51に保存されている。
また、以上のステップS2102〜S2104において、合成処理手段41は、多視点または2視点の元画像から、印刷用(レンチキュラ用またはパララックスバリア用)の合成対象画像(現在および過去の被写体画像、並びに小道具画像)を生成する際には、合成対象画像倍率算出処理手段38により算出した各倍率(現在の被写体画像の倍率、過去の被写体画像の倍率、および小道具画像の倍率)で元画像を拡大または縮小するとともに、「微調整」ボタン102(図11参照)による倍率の調整が行われていた場合には、その調整量を加味した倍率で元画像を拡大または縮小する。また、合成処理手段41は、奥行き情報抽出処理手段37により抽出された各合成対象画像(現在および過去の被写体画像、並びに小道具画像)の配置位置に対応する背景画像の各部位についての奥行き情報に応じて、各合成対象画像(現在および過去の被写体画像、並びに小道具画像)の視差量を定めて印刷用の合成対象画像を生成するとともに、「微調整」ボタン102(図11参照)による視差量の調整が行われていた場合には、その調整量を加味した視差量で印刷用の合成対象画像を生成する。なお、奥行きの値が大きい程(視点から遠い程)、同側方向(右眼用画像を右向きにずらし、左眼用画像を左向きにずらす方向)の視差量を大きくし(あるいは、交差方向の視差量を小さくし)、奥行きの値が小さい程(視点に近い程)、交差方向(右眼用画像を左向きにずらし、左眼用画像を右向きにずらす方向)の視差量を大きくする(あるいは、同側方向の視差量を小さくする)。
さらに、合成処理手段41は、奥行き情報抽出処理手段37により抽出した各奥行き情報(現在および過去の被写体画像、並びに小道具画像の各配置位置に対応する背景画像の各部位についての奥行き情報)に応じたぼかし量で、ぼかした状態の印刷用(レンチキュラ用またはパララックスバリア用)の合成対象画像(現在および過去の被写体画像、並びに小道具画像)を生成する。すなわち、奥行きの値が大きい程(視点から遠い程)、ぼかし量を多くする。
それから、合成処理手段41により、前述したステップS2102で生成した印刷用の現在の被写体画像、前述したステップS2103で生成した印刷用の過去の被写体画像、および前述したステップS2104で生成した印刷用の小道具画像を、被写体1またはオペレータにより選択されたそれぞれの配置位置、あるいは「微調整」ボタン102(図11参照)による各配置位置の調整が行われていた場合には、その調整量を加味したそれぞれの配置位置に配置し、被写体1またはオペレータにより選択された背景画像(背景画像記憶手段51に記憶されている印刷用(レンチキュラ用またはパララックスバリア用)の背景画像)に合成することにより、印刷用(レンチキュラ用またはパララックスバリア用)の立体画像を生成し、印刷用立体画像番号と関連付けて印刷用立体画像記憶手段56に保存する(ステップS2105)。この印刷用(レンチキュラ用またはパララックスバリア用)の立体画像は、BMPイメージデータ、あるいはJPGイメージデータ等である。例えば、合成処理手段41は、図12に示したレイヤ構造のように、被写体1(女性)が写っている現在の被写体画像と、小道具番号101−1の小道具(シマウマ)が写っている小道具画像と、被写体番号=1の過去の被写体(ギターを持った若者)が写っている過去の被写体画像と、背景番号=101の風景が写っている背景画像とを、奥行き情報抽出処理手段37により抽出した各奥行き情報に応じて、Z軸方向に距離を持たせて並べて合成し、図13に示すような印刷用の立体画像を生成する。
この際、合成処理手段41は、背景画像が被写体1と小道具であるグラビアアイドル等とが添い寝状態で写っている立体画像、あるいは被写体1と過去の被写体とが添い寝状態で写っている立体画像を生成するための背景画像である場合には、被写体1が写っている現在の被写体画像、および過去に撮影した恋人や家族等が写っている過去の被写体画像を、90度回転させた状態で、配置位置入力受付処理手段32により受け付けた各配置位置に配置し、被写体1またはオペレータにより選択された背景画像に合成する。例えば、図18および図19の場合には、被写体1が写っている現在の被写体画像を90度回転させた状態で配置して背景画像に合成する。
なお、図18に示すように、被写体1またはオペレータが、被写体1が写っている現在の被写体画像を手前側に配置し、グラビアアイドル等が写っている小道具画像を奥側に配置した場合には、例えば、被写体1が写っている現在の被写体画像の眼数が多くなり、グラビアアイドル等が写っている小道具画像の眼数が少なくなるように、これらの背景画像についての眼数テーブルを設定しておくことができる。一方、図19に示すように、被写体1またはオペレータが、被写体1が写っている現在の被写体画像を奥側に配置し、グラビアアイドル等が写っている小道具画像を手前側に配置した場合には、例えば、被写体1が写っている現在の被写体画像の眼数が少なくなり、グラビアアイドル等が写っている小道具画像の眼数が多くなるように、これらの背景画像についての眼数テーブルを設定しておくことができる。また、図18および図19の場合のように、現在および過去の被写体画像に写っている被写体、並びに小道具画像に写っているグラビアアイドル等の小道具が、横向きになっている場合には、これらの画像の配置位置の指定方法は、足の位置を指定するのではなく、例えば、体の中心位置等を指定するようにしてもよい。
そして、印刷処理手段42により、合成処理手段41により生成した印刷用(レンチキュラ用またはパララックスバリア用)の立体画像を、印刷装置60で印刷する(ステップS2106)。
以上により、図3に示すように、被写体の撮影から立体画像の印刷までの一連の処理を終了する(図3のステップ22)。
このような本実施形態によれば、次のような効果がある。すなわち、立体画像生成装置10は、配置位置入力受付処理手段32、奥行き情報抽出処理手段37、眼数決定処理手段39、および合成処理手段41を備えているので、各合成対象画像(現在および過去の被写体画像、並びに小道具画像)の配置位置の入力を受け付け、受け付けた各配置位置に対応する背景画像の部位についての奥行き情報を抽出し、抽出した各奥行き情報に基づき眼数テーブルを用いて各合成対象画像の眼数を決定することができる。このため、観察し易い印刷用の立体画像を生成することができる。このように眼数を変化させることにより、例えば、14眼(14像)では、極端な飛び出し方向でぼやけることがあるが、眼数(像数)を減らすことで、融像した立体像が鮮明になり、観察し易くなる。
また、立体画像生成装置10は、被写体サイズ算出処理手段35、合成対象画像倍率算出処理手段38、および合成対象サイズ記憶手段53を備えているので、合成対象(現在および過去の被写体、並びに小道具)の原寸のサイズが大きいときには、合成対象画像の倍率を大きくし、合成対象の原寸のサイズが小さいときには、合成対象画像の倍率を小さくして合成することができる。このため、合成対象画像(現在および過去の被写体画像、並びに小道具画像)を自然な状態で背景画像に合成することができる。
さらに、立体画像生成装置10は、確認用画像生成処理手段40および確認用ディスプレイ80を備えているので、立体画像を印刷装置60で印刷する前に、生成した立体画像の合成状態を確認することができる。
そして、確認用画像生成処理手段40は、リアルタイム確認表示用の2D画像を定期的に繰り返し生成する処理と、確認表示用の立体画像を生成する処理とを切り替えて実行する構成とされているので、確認用ディスプレイ80で切替表示を行うことができ、例えば、被写体が動きながらポーズを決めているときの合成状態を逐次表示するとともに、ポーズを決めてから本番撮影を行ったときの合成状態を表示することができる。
また、合成処理手段41は、現在および過去の被写体画像を、90度回転させた状態で配置して背景画像に合成することができるので、例えば、立っている人間等のように縦長の被写体を撮影し、横に寝かせた状態で合成すること等ができ、合成するときの姿勢が被写体の撮影姿勢に適していないときであっても、被写体の撮影を容易に行い、かつ、所望の姿勢での被写体画像の合成を実現することができる。
さらに、合成処理手段41は、合成対象画像を、奥行き情報抽出処理手段37により抽出した奥行き情報に応じたぼかし量でぼかした状態で配置して背景画像に合成することができるので、背景画像の各部位のうち、視点から遠距離にある部位(奥側にある部位)が、合成対象画像の配置位置として入力されたときには、合成対象画像のぼかし量を自動的に大きくし、視点から近距離にある部位(手前側にある部位)が、合成対象画像の配置位置として入力されたときには、合成対象画像のぼかし量を自動的に小さくして合成することができる。このため、合成対象画像を自然な状態で背景画像に合成することができる。
なお、本発明は前記実施形態に限定されるものではなく、本発明の目的を達成できる範囲内での変形等は本発明に含まれるものである。
例えば、前記実施形態では、背景画像の各部位についての奥行き情報の分布を示すマップ(デプスマップ)を、奥行き情報記憶手段54に記憶しておき、被写体1またはオペレータにより入力された合成対象画像の配置位置に対応する背景画像の部位についての奥行き情報を、奥行き情報記憶手段54に記憶されたデプスマップから抽出し、抽出した奥行き情報に基づき、眼数テーブルを用いて合成対象画像の眼数を決定する構成とされていたが、本発明の立体画像生成装置は、このような構成に限定されるものではなく、次のような構成としてもよい。すなわち、背景画像の各部位についての奥行き情報を用いて合成対象画像の眼数を予め定め、このようにして予め定められた合成対象画像の眼数を、背景画像の各部位毎に眼数記憶手段に記憶しておき、被写体1またはオペレータにより入力された合成対象画像の配置位置に対応する背景画像の部位についての合成対象画像の眼数を、眼数記憶手段から抽出して決定する構成としてもよい。このような構成とした場合でも、奥行き情報に基づき合成対象画像の眼数が決定されることに変わりはないので、前記実施形態の場合と同様な効果が得られる。
また、前記実施形態では、背景画像に合成する合成対象画像として、現在の被写体画像、過去の被写体画像、および小道具画像があったが、過去の被写体画像や小道具画像の合成を行わない立体画像生成装置としてもよい。