JP4708619B2 - Stereoscopic image forming system and stereoscopic image forming method - Google Patents

Stereoscopic image forming system and stereoscopic image forming method Download PDF

Info

Publication number
JP4708619B2
JP4708619B2 JP2001232700A JP2001232700A JP4708619B2 JP 4708619 B2 JP4708619 B2 JP 4708619B2 JP 2001232700 A JP2001232700 A JP 2001232700A JP 2001232700 A JP2001232700 A JP 2001232700A JP 4708619 B2 JP4708619 B2 JP 4708619B2
Authority
JP
Japan
Prior art keywords
image
subject
dimensional
parallax map
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001232700A
Other languages
Japanese (ja)
Other versions
JP2003047027A (en
Inventor
光太郎 矢野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2001232700A priority Critical patent/JP4708619B2/en
Priority to US10/207,457 priority patent/US7113634B2/en
Publication of JP2003047027A publication Critical patent/JP2003047027A/en
Application granted granted Critical
Publication of JP4708619B2 publication Critical patent/JP4708619B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、カメラ等により取得した画像から3次元画像を生成し、レンチキュラ板等の光学部材を、生成した3次元画像に重ね合わせることにより、立体像が観察される立体画像形成システムおよび立体画像形成方法に関する。
【0002】
【従来の技術】
従来、立体画像を形成する方法として、インテグラルフォトグラフィやレンチキュラ板3次元画像が知られている(大越孝敬著:「三次元画像工学」,産業図書,1972発行参照)。
【0003】
このような従来の立体画像の形成方法は、写真的方法によるものである。例えば、レンチキュラ板3次元画像では、被写体を多くの視点から撮影した画像を取得し、これらの画像をレンチキュラ板を介して1つの写真乾板に焼き付けるものであり、以下に示す▲1▼〜▲3▼の問題点があった。
【0004】
▲1▼ 被写体の多地点からの画像を必要とするため、多眼式カメラなどの撮影装置が大掛かりなものとなっていた。
【0005】
▲2▼ ▲1▼と同様、立体画像形成に関しても、焼き付け装置が大掛かりなものとなっていた。
【0006】
▲3▼ 上記装置を用いても、撮影や焼付けに調整や熟練を要していた。
【0007】
このような問題点を克服するため、特開平5−210181号公報では、複数の視点の画像からより多くの視点の画像を補間により生成し、それらの画像を電子的な処理を用いて立体画像を形成する方法が示されている。すなわち、画像の電子的補間により、撮影の必要な画像の視点数を少なくした。また、近年のデジタル写真術を利用し、立体画像形成を簡便なものにした。
【0008】
しかしながら、複数の画像を必要とする以上、撮影は困難であり、動被写体を撮影できないという問題があった。
【0009】
このような撮影における問題を解消するため、本願出願人は、先に、カメラに立体写真アダプタを装着し、左右2つの視点のステレオ画像を撮影し、ステレオ画像から電子的補間により多視点画像を取得し、立体画像を形成する方法を提案した。しかし、この場合、通常の撮影では、必要としない立体写真アダプタが必須であった。したがって、理想的には、1枚の画像から多視点画像を取得し、立体画像を形成することが望ましい。
【0010】
これに対し、特開平8−140116号公報では、撮影時に画像中の複数のブロック毎に測距を行い、画像とともに距離値を記録し、その距離値を基に多視点画像を取得し、立体画像を取得する方法が示されている。
【0011】
また、1枚の画像から多視点画像を取得する方法として、例えば、画像中の背景から被写体領域を切り出し、背景に対して切り出した被写体領域がレンチキュラ板を重ね合わせて見たときに手前に飛び出して見えるように、多視点画像生成時に背景画像と被写体画像を所定の視差分ずらして合成する方法が知られている。
【0012】
【発明が解決しようとする課題】
しかしながら、上記従来の特開平8−140116号公報に記載の方法では、撮影時に複数のブロックの距離値を得るための特殊な装置が必要であり、また、距離値を画像データとともに記録しておく必要があるので、通常撮影される画像から立体画像を形成することはできなかった。
【0013】
また、上記従来の1枚の画像から多視点画像を取得する方法では、取得した多視点画像から合成した3次元画像をレンチキュラ板を通して観察すると、背景に対して切り出した被写体が衝立状のものとなり、立体感が不自然になってしまうという問題があった。また、被写体領域を切り出すことは、手作業を要し、簡単に被写体領域を指定したいという要望もあった。
【0014】
そこで、本発明は、特殊な撮影を行わず、1枚の画像から多視点画像を取得し、多視点画像を合成して立体画像として印刷し、レンチキュラ板などの光学部材を重ね合わせることにより、自然な立体感のある被写体の立体像を簡単な操作で観察できる立体画像形成システムおよび立体画像形成方法を提供することを目的とする。
【0015】
【課題を解決するための手段】
上記目的を達成するために、本発明の立体画像形成システムは、被写体画像を取得する画像取得手段と、前記画像取得手段により取得された被写体画像を出力画像領域に配置することにより前記出力画像領域上での前記被写体像の位置と大きさが確認可能な出力確認用画像を表示手段に表示させる表示制御手段と、前記表示手段に表示された出力確認用画像に含まれる被写体画像に対するユーザによる被写体領域の指示選択に応じて前記被写体画像から被写体領域を取得する領域取得手段と、前記被写体領域から被写体の奥行き分布を表す視差マップを抽出する視差マップ抽出手段と、前記抽出された視差マップを前記出力確認用画像に重ねて前記表示手段に表示する視差マップ表示制御手段と、前記被写体画像および前記視差マップを基に、複数の視点からの前記被写体に対する多視点画像を生成する多視点画像生成手段と、前記多視点画像の各画像における同一座標の画素を、前記視点の配列に応じた隣接画素となるように配列して3次元画像を合成する画像合成手段と、前記視差マップが重ねて表示された出力確認用画像に対応する前記合成された3次元画像を前記出力画像領域に配置して出力する出力手段とを備え、前記出力された3次元画像に周期的構造を有する光学部材を重ね合わせることにより、前記被写体の立体像が観察されることを特徴とする。
【0017】
本発明の立体画像形成方法は、被写体画像を取得する工程と、前記取得された被写体画像を出力画像領域に配置することにより前記出力画像領域上での前記被写体像の位置と大きさが確認可能な出力確認用画像を表示手段に表示させる表示制御工程と、前記表示手段に表示された出力確認用画像に含まれる被写体画像に対するユーザによる被写体領域の指示選択に応じて前記被写体画像から被写体領域を取得する工程と、前記被写体領域から被写体の奥行き分布を表す視差マップを抽出する工程と、前記抽出された視差マップを前記出力確認用画像に重ねて前記表示手段に表示する工程と、前記被写体画像および前記視差マップを基に、複数の視点からの前記被写体に対する多視点画像を生成する工程と、前記多視点画像の各画像における同一座標の画素を、前記視点の配列に応じた隣接画素となるように配列して3次元画像を合成する工程と、前記視差マップが重ねて表示された出力確認用画像に対応する前記合成された3次元画像を前記出力画像領域に配置して出力する工程とを有し、前記出力された3次元画像に周期的構造を有する光学部材を重ね合わせることにより、前記被写体の立体像が観察されることを特徴とする。
【0019】
【発明の実施の形態】
本発明の立体画像形成システムおよび立体画像形成方法の実施の形態について図面を参照しながら説明する。
【0020】
[第1の実施形態]
図1は第1の実施形態における立体画像形成システムの構成を示す図である。図において、1は被写体である。2はデジタルカメラである。3はマウス、キーボード等の指示選択部であり、ユーザインターフェース機能を有する。4は画像処理部である。5は画像および処理情報を表示するCRTディスプレイ等の表示部である。
【0021】
上記指示選択部3、画像処理部4および表示部5は、例えば、汎用のPC(Personal Computer)から構成される。この汎用のPCは、周知のCPU、ROM、RAM等の他、記録媒体としてハードディスクを内蔵する。6は画像処理部4に接続され、画像処理部4で生成された画像データ等を印刷する印刷部である。カメラ2、画像処理部4および印刷部6は、USB(Universal Serial Bus)を介して接続される。
【0022】
上記構成を有する立体画像形成システムでは、まず、カメラ2で撮影された画像を画像処理部4に取り込む。カメラ2で撮影・記録された画像データは、例えば、カメラ2のドライバソフトウェアを画像処理部4であるPC内で起動し、所定の操作を行うことで、USBインターフェースを介してPC内のハードディスクに一旦記録される。
【0023】
例えば、撮影された画像データは、CF(Compact Flash、登録商標)カードに記録されるので、画像処理部4にPCカードスロットがある場合、カメラ2と画像処理部4とを接続しないでも、一旦、カメラ2からCFカードを外し、CFカードをPCカードスロットに装着可能なCFカードアダプタに装着し、それをPCカードスロットに装着することで、CFカードに記録された画像データをPCのハードディスクに記録された画像データと同等に扱うことができる。
【0024】
このようにして画像処理部4に取り込まれた画像に対し、画像処理部4は被写体の多視点画像を生成し、3次元画像を合成して印刷部6に出力する。この一連の処理は、例えば、PCのアプリケーションソフトウェアとして実行される。
【0025】
図2は立体画像形成システムの画像処理部4における3次元画像形成処理手順を示すフローチャートである。この処理プログラムは、PC本体に相当する画像処理部4内のROM(図示せず)に格納されており、同じく画像処理部4内のCPU(図示せず)によって実行される。
【0026】
まず、カメラで撮影した画像を、この処理プログラムで扱えるデータに変換するため、画像処理部4であるPC本体のメモリに取り込む(ステップS1)。このとき、画像データのファイル名等の指示は、指示選択部3により行われ、指定されたファイルをプログラムに読み込む。また、画像データをRGBからなる3チャンネルの2次元配列データやビットマップに変換しておく。特に、入力する画像データがJPEG画像フォーマットのような圧縮画像データである場合、そのままの圧縮画像データに対して処理することは困難であるので、JPEG画像を解凍処理するような画像データの変換を行うことが必要である。
【0027】
ステップS1で取り込んだ画像データを表示部5に表示する(ステップS2)。このとき、所定の用紙に画像データを印刷する際の大きさ、位置などを確認できるように、用紙を表す無地の矩形領域中に画像が表示される。図3は画像データの表示例を示す図である。図中、Rは用紙を表す無地の矩形領域である。Iは取り込んだ画像である。印刷する用紙のサイズ、画像データの1画素当たりの印刷サイズ(解像度)などのパラメータから予め用紙中の画像の大きさ、位置が計算される。ユーザは、指示選択部3により、画像の大きさ、位置および方向(紙面内での回転)を指定し、パラメータを変更すると、それに応じて、表示部5に表示される画像が更新される。
【0028】
そして、被写体領域を取得する(ステップS3)。まず、ユーザが表示部5に表示された画像を見たときに、立体画像として手前に飛び出させたい被写体領域を指示選択部3により指定する。例えば、図3に示すように、背景の前に人物が立っているようなシーンでは、ユーザが人物の輪郭に沿って被写体領域を指定する。図4は図3の画像に対して被写体領域を指定した例を示す図である。図中、破線部分は、ユーザによって指定された被写体の輪郭である。被写体領域のデータを、例えば、指定した被写体領域では値1、背景では値0の画像データと同じサイズの2値からなる2次元データとして、メモリに記憶しておく。
【0029】
この後、ステップS3で指定された被写体領域から視差マップを生成する(ステップS4)。視差マップは、画像データの2次元上の各画素に対応した被写体を2つの視点で見たときのずれ量を表すものである。2値の被写体領域データに所定のサイズの2次元平均値フィルタを作用させ、2次元実数配列データを生成し、視差マップとする。この平均値フィルタ処理により、指定した被写体の輪郭がぼけて、被写体が衝立状のものではなく、背景から徐々に飛び出してくるような効果が期待できる。
【0030】
ここで、2次元平均値フィルタのサイズが大きいと、立体感がより滑らかになるが、ユーザが指定した被写体領域の輪郭がぼけ、形成される立体画像にユーザの意思が忠実に反映されなくなる。また、2次元平均値フィルタのサイズが小さいと、ユーザの意思はより忠実に反映されるが、被写体が衝立状のものに近づく。2次元平均値フィルタのサイズとしては、画像サイズの5〜10%程度が望ましい。
【0031】
また、ステップS1で取得した画像データのサイズが大きいと、フィルタ処理の計算量が大きくなるので、予め所定の倍率で被写体領域のデータを縮小してフィルタ処理を行い、その後、元のサイズに視差マップを拡大するようにしてもよい。
【0032】
また、指定した被写体領域の輪郭から経験的に望ましい3次元形状を得る方法として、輪郭形状を多角形に置き換え、多角形の骨格を推定し、骨格を構成する各頂点の高さを多角形の境界からの距離に応じて決めることにより、3次元形状を擬似的に得る方法が知られている(”Teddy:A Sketching Interface for 3D Freeform Design”, T.Igarashi, S.Matsuoka, H.Tanaka, SIGGRAPH99 Conference Proceedings 参照)。
【0033】
この方法によれば、領域の幅に応じて、幅が広い部分には太い断面、狭い部分には細い断面を仮定した3次元形状が得られる。被写体領域から視差マップを得る方法として、上記方法を応用してもよい。すなわち、ステップS3で取得した被写体領域を輪郭形状を表すチェーンコード等の線図形データとして記憶しておき、最初に輪郭形状を多角形に近似する。近似した多角形データから上記方法で3次元形状を取得し、その3次元形状を所定の2つの視点で透視投影変換を行って各画素に対応した画素位置のずれ量として画像の視差マップを求める。尚、簡易には、求まった3次元形状の高さデータに比例するように視差量を決めてもよい。
【0034】
この後、視差マップを画像データに重ね合わせて表示する(ステップS5)。視差マップのデータと画像データのRGB各成分の画素値の積を視差マップを表す画像データとして表示する。
【0035】
本実施形態では、手前の視差は値0であり、奥側が値1であるので、手前ほど暗い画像が表示される。図5は図3および図4のデータから生成した視差マップの表示例を示す図である。ユーザは、表示された視差マップを見て、作成する立体画像の確認を行う。すなわち、ステップS5の表示例から所望の視差マップが得られているか否かを判断する(ステップS6)。所望の視差マップが得られていると判断した場合、指示選択部3で次の処理を行うように指示し、ステップS7の処理を行う。一方、ステップS6で視差マップを修正し直す必要があると判断した場合、指示選択部3で被写体領域の再取得を行うように指示し、前述したステップS3の処理に戻る。
【0036】
この後、所望の視差マップを用いて多視点画像を生成する(ステップS7)。ここで、生成される画像は、3次元ストライプ画像を構成する多視点画像であり、それぞれの画像サイズは、画像数、印刷する解像度および大きさに依存する。印刷部6の解像度をRPdpi(dot per inch)、印刷サイズをXP×YPinchとすると、印刷する画像のサイズは、X(=RP×XP)×Y(=RP×YP)画素となる。画像数Nは、レンチキュラ板のピッチRLinchに合わせて、N=RP×RLとなるように決める。Nは整数であるので、実際には、RP×RLに近い整数を画像数とする。
【0037】
例えば、プリンタの解像度600dpi、レンチキュラ板のピッチ1/50.8inchの場合、N=12の像が望ましい。このとき、各視点の画像のサイズは、H(=X/N)×V(=Y)となる。ここで、実際には、H、Vが整数になるように、印刷サイズを決める。例えば、H=200、V=1800画素である場合、X=2400、Y=1800画素となり、印刷サイズは、4×3inchとなる。
【0038】
実際には、レンチキュラ板のピッチと画像周期を合わせる必要があるので、多少サイズが変わる。この処理は後述するステップS8で行われる。画像は、ステップS1で取得した画像を視差マップを用いて変形することにより生成される。
【0039】
例えば、画像のサイズがh(=800)×v(=600)画素である場合、水平方向の画素数H、垂直方向の画素数vに合わせて、200×600画素の画像を生成する。垂直方向の画素数が少ないのは、印刷に必要な各画像の垂直方向の画素数が水平方向の画素数に比べて著しく多く、視差を用いていきなり大きなサイズの画像を生成すると、処理時間がかかるためである。
【0040】
生成する画像の視点位置を、所定の視差量が発生するように決定する。視差量が小さくなりすぎると、立体像を観察する際の立体感が損われる。逆に、視差量が大きくなりすぎると、隣接する画像とのクロストークにより観察する立体像が不鮮明になる。また、各視点が左画像の視点位置を中心として等間隔かつ対称に並ぶように、視点位置を決める。これは、画像シーケンスの視点位置が等間隔に並ぶことで、立体像を安定して観察するためであり、また、左画像の視点位置を中心として視点位置を対称に並べることで、画像の変形量を最小に抑え、被写体や撮影条件により視差マップに誤差が生じても、高品位な立体像を安定して得るためである。
【0041】
ステップS4で求めた視差マップを基に、カメラ2から最も近い被写体位置に相当する視差と、最も遠い被写体位置に相当する視差とを求める。本実施形態では、視差マップは「0」から「1」の実数値となるので、最も近い被写体位置に相当する視差は「0」であり、最も遠い被写体位置に相当する視差は「1」である。そして、最も近い被写体が所定の観察位置において、観察時に印刷面から所定の距離だけ手前に観察され、最も遠い被写体が印刷面から所定の距離だけ奥に観察されるように、視点位置を決める。
【0042】
このとき、実際に画像生成に用いるパラメータは、左右ステレオ画像対の視差に対する各画像の比率r、遠近の視差調整量shであり、視点位置に対応する。例えば、比率r=0の場合、左画像そのものを表し、比率r=1の場合、右画像の視点位置での画像を表す。尚、視差マップに誤差がある場合、最近被写体の視差および最遠被写体の視差にも誤差が生じる場合があるので、画像生成に用いるパラメータを、視差マップ全体の統計的な分布から誤差に影響しないような方法で求めるようにしてもよい。
【0043】
以下、各視点画像を生成する方法を示す。まず、新規視点画像の生成を左画像の画素を用いてフォワードマッピングにより生成する。すなわち、まず、左画像の各画素をマッピングする新規視点画像中の位置(XN,YN)を、左画像の画素位置(x,y)における視差d、視点位置を表す比率r、左画像のサイズと新規視点画像のサイズから数式(1)により求める。
【0044】
N = H/h×(x+r×(d−sh)),YN = y … (1)
左画像の画素位置(x,y)における画素を新規視点画像の(XN,YN)の位置にコピーする。この処理を左画像の全画素について繰り返す。つぎに、新規視点画像の画素のうち、左画像から画素が割り当てられなかった画素に対して穴埋め処理を行う。穴埋め処理では、求める画素から所定距離だけ離れた有効な画素を探索し、その画素値の距離をパラメータとした加重平均値を割り当てる。有効な画素がない場合、探索する範囲を広げて、探索を繰り返す。この処理で全画素有効な新規視点画像が生成される。この処理を視点数分繰り返し、多視点画像シーケンスとする。
【0045】
そして、多視点画像シーケンスから3次元ストライプ画像を合成する(ステップS8)。このとき、多視点画像シーケンスの各画像の同一座標の画素を、画像の視点配列に従って隣接画素として配列するように、3次元画像を合成する。j番目視点の画素値をPjmn(但し、m、nはそれぞれ水平、垂直方向の画素配列のインデックス)とする場合、j番目の画像データは、次のような2次元配列として表される。
【0046】
j00j10j20j30 ………
j01j11j21j31 ………
j02j12j22j32 ………
………
合成は、それぞれの視点の画像を垂直方向に1ライン毎に短冊状に分解し、視点位置の逆順に視点数分だけ合成する。したがって、合成後の画像は、以下に示すようなストライプ画像となる。
【0047】
N00…P200100N10…P210110N20…P220120 ………
N01…P201101N11…P211111N21…P221121 ………
N02…P202102N12…P212112N22…P222122 ………
………
但し、視点1が左端、Nが右端の画像を表す。ここで、視点位置の配列順を逆にするのは、レンチキュラ板により観察する際、レンチキュラの1ピッチ内で画像が左右逆に観察されるためである。この3次元ストライプ画像は、元の多視点画像がH×vのサイズのN視点画像である場合、X(=N×H)×vのサイズとなる。
【0048】
そして、この3次元ストライプ画像に対し、レンチキュラ板とのピッチを合わせる。1ピッチにRPdpiの画素がN画素分あるので、1ピッチはN/RPinchとなるが、レンチキュラ板のピッチがRLinchであるので、画像を水平方向にRL×RP/N倍してピッチを合わせる。また、このとき、垂直方向の画素数は、(RL×RP/N)×Y画素とする必要があるので、垂直方向に(RL×RP×Y)/(N×v)倍して倍率を合わせる。したがって、3次元ストライプ画像に対し、上記水平、垂直方向に変倍処理を行い、印刷用の画像データとする。この変倍の処理は、例えば、双線形補間などにより行う。このようにして合成した3次元ストライプ画像は、PC内のハードディスクに保存可能である。
【0049】
最後に、ステップS8で得られた画像の印刷を行い(ステップS9)、この処理を終了する。
【0050】
以上示したステップS1〜S9の処理により、印刷された画像に対してレンチキュラ板を重ね合わせると、ユーザの意思を反映した、自然な立体像が観察される。このように、本実施形態では、特殊な撮影を行わないで、1枚の画像から立体画像の印刷を簡単な操作で行うことができる。
【0051】
[第2の実施形態]
図6は第2の実施形態における立体画像形成システムの構成を示す図である。前記第1の実施形態と同一の構成要素については、同一の符号を付してその説明を省略する。図において、7は形状モデル記憶部であり、複数の標準的な3次元形状をワイヤフレームモデル、サーフェスモデルなどのデータとして記憶している。
【0052】
図7は立体画像形成システムの画像処理部4における3次元画像形成処理手順を示すフローチャートである。この処理プログラムは、PC本体に相当する画像処理部4内のROM(図示せず)に格納されており、同じく画像処理部4内のCPU(図示せず)によって実行される。前記第1の実施形態と同一のステップ処理については、同一のステップ番号を付してその説明を省略する。
【0053】
第2の実施形態では、前記第1の実施形態のステップS3における被写体領域を取得する処理の代わりに、形状モデルを選択・配置する処理(ステップS3A)を行う。
【0054】
まず、前記第1の実施形態と同様、ステップS1、S2の処理により、ユーザの指示に応じて、取得した画像が表示部5に表示される。
【0055】
この後、ユーザの指示に応じて、形状モデルの選択および配置を行う(ステップS3A)。この処理では、3次元形状モデルを任意の方向および視点から描画し、画像に重畳して表示する機能、および3次元形状モデルを変形する機能が実行される。
【0056】
すなわち、表示部5に形状モデル記憶部7に記憶されている形状の一覧が表示される。ユーザは、一覧の中から被写体の形状に最も適合すると思われる形状モデルを指示選択部3により選択する。例えば、前述した図3の画像に対し、被写体の形状モデルとして、図8に示す形状モデルをユーザが選択した場合を示す。
図8は被写体の形状モデルを示す図である。
【0057】
選択された形状モデルが標準的な方向および視点位置で描画され、画像中に重畳して表示部5に表示される。ユーザは、指示選択部3により、画像中に表示された形状モデルを自由に移動、回転および変形させることができ、画像中の被写体領域に重ね合わせる操作を行い、被写体形状データを一時的に記憶する。図9は選択された形状モデルを画像に合わせる様子を示す図である。
【0058】
ステップS3Aで取得した被写体形状データから視差マップを生成する(ステップS4)。3次元形状から視差マップを求める場合、前記第1の実施形態のステップS4に示した方法を用いる。すなわち、3次元形状を所定の2つの視点で透視投影変換を行って画像の視差マップを求める。尚、簡易には、求まった3次元形状の高さデータに比例するように視差量を決めてもよい。
【0059】
そして、求めた視差マップを表示部5に表示する(ステップS5)。ユーザは、この表示された視差マップが所望のものであるか否かを判断する(ステップS6)。視差マップを修正する必要があると判断した場合、ステップS3Aに戻って同様の処理を繰り返す。このとき、画像に重畳して表示される形状データは、ステップS3Aで一時的に記憶された形状データである。一方、ステップS6で所望の視差マップが得られた場合、前記第1の実施形態と同様、ステップS7〜S9の処理を行い、3次元ストライプ画像を印刷する。
【0060】
このように、第2の実施形態では、被写体領域を切り出す代わりに、形状モデルを用いているので、被写体領域を切り出すことなく、1枚の画像から自然な立体画像を形成できる。さらに、より被写体に適合した形状モデルを用いることにより、より自然な立体画像を形成できる。
【0061】
以上が本発明の実施の形態の説明であるが、本発明は、これら実施の形態の構成に限られるものではなく、特許請求の範囲で示した機能、または実施の形態の構成が持つ機能が達成できる構成であればどのようなものであっても適用可能である。
【0062】
例えば、上記実施形態では、画像処理部内のハードディスクにカメラで撮影した画像を一旦記録するようにしたが、例えば、画像記録用として別のPCを用意しておき、これにカメラで撮影した画像を一旦記録した後、ネットワークを介して画像処理部が画像データを読み込めるようにしてもよい。この場合、さらに、あるユーザAが遠隔地でカメラ撮影を行い、その場でカメラの画像を携帯型PCに一旦記録した後、ネットワークに接続してデジタル画像データを転送する。別のユーザBは、別の地点で印刷部が接続された画像処理部であるPCをネットワークに接続し、デジタル画像データを直接、処理プログラムに取り込み、3次元画像を印刷し、その立体像を観察してもよい。また、ユーザAがリモートで画像処理部を操作することにより、遠隔地から立体画像を即時に取得できるようにしてもよい。
【0063】
また、上記実施形態では、生成した3次元ストライプ画像をそのまま印刷していたが、フォトフレーム、クリスマスカード、アニメキャラクタ等の画像テンプレートや文字テンプレートを3次元ストライプ画像に合成し、合成したデータを印刷するようにしてもよい。
【0064】
さらに、上記実施形態では、レンチキュラ板3次元画像の方式を用いた立体画像形成システムについて示したが、本発明は、この方式に限らず、インテグラルフォトグラフィやバリア方式を用いた立体画像形成システムにも適用できる。また、立体画像の最終出力をプリンタ出力としての印刷である場合を示したが、これに限らず、液晶ディスプレイ等の表示部にレンチキュラ板が取り付けられた、いわゆる眼鏡なしディスプレイへの最終出力であってもよく、立体画像の表示にも適用できる。
【0065】
また、本発明は、前述した実施形態の機能を実現するソフトウェアのプログラムコードをシステムに供給することによって達成される場合、プログラムコード自体が本発明の新規な機能を実現することになり、そのプログラム自体およびそのプログラムを記憶した記憶媒体は本発明を構成することになる。
【0066】
上記実施形態では、図2、図7のフローチャートに示すプログラムコードは記憶媒体に格納されている。プログラムコードを供給する記憶媒体としては、ROM、フレキシブルディスク、不揮発性のメモリカードなどを用いることができる。
【0067】
【発明の効果】
本発明によれば、特殊な撮影を行わず、1枚の画像から多視点画像を取得し、多視点画像を合成して立体画像として印刷し、レンチキュラ板などの光学部材を重ね合わせることにより、被写体の立体像を観察できる。また、背景に対して被写体が衝立状にならない、自然な立体感のある立体画像を得ることができる。さらに、簡単な操作で立体画像を得ることができる。
【図面の簡単な説明】
【図1】第1の実施形態における立体画像形成システムの構成を示す図である。
【図2】立体画像形成システムの画像処理部4における3次元画像形成処理手順を示すフローチャートである。
【図3】画像データの表示例を示す図である。
【図4】図3の画像に対して被写体領域を指定した例を示す図である。
【図5】図3および図4のデータから生成した視差マップの表示例を示す図である。
【図6】第2の実施形態における立体画像形成システムの構成を示す図である。
【図7】立体画像形成システムの画像処理部4における3次元画像形成処理手順を示すフローチャートである。
【図8】被写体の形状モデルを示す図である。
【図9】選択された形状モデルを画像に合わせる様子を示す図である。
【符号の説明】
1 被写体
2 カメラ
3 指示選択部
4 画像処理部
5 表示部
7 形状モデル記憶部
[0001]
BACKGROUND OF THE INVENTION
The present invention provides a three-dimensional image forming system in which a three-dimensional image is observed by generating a three-dimensional image from an image acquired by a camera or the like and superimposing an optical member such as a lenticular plate on the generated three-dimensional image. and 3D image formation To the law Related.
[0002]
[Prior art]
Conventionally, integral photography and three-dimensional images of lenticular plates are known as methods for forming stereoscopic images (see Takayoshi Ohkoshi: “Three-dimensional image engineering”, Sangyo Tosho, published in 1972).
[0003]
Such a conventional method for forming a stereoscopic image is based on a photographic method. For example, in the lenticular plate three-dimensional image, images obtained by photographing the subject from many viewpoints are acquired, and these images are printed on one photographic plate through the lenticular plate. The following (1) to (3) There was a problem of ▼.
[0004]
(1) Since images from multiple points of the subject are required, a photographing device such as a multi-lens camera has become large.
[0005]
{Circle around (2)} As with {circle around (1)}, a large-scale printing apparatus has been used for stereoscopic image formation.
[0006]
(3) Even with the above apparatus, adjustment and skill were required for shooting and printing.
[0007]
In order to overcome such problems, Japanese Patent Application Laid-Open No. 5-210181 discloses a method of generating more viewpoint images from a plurality of viewpoint images by interpolation, and using the electronic processing to generate the stereoscopic images. The method of forming is shown. That is, the number of viewpoints of an image that needs to be photographed is reduced by electronic interpolation of the image. In addition, recent digital photography has been used to simplify the formation of stereoscopic images.
[0008]
However, as long as a plurality of images are required, shooting is difficult, and there is a problem that moving subjects cannot be shot.
[0009]
In order to solve such a problem in photographing, the applicant of the present application first attaches a stereoscopic photograph adapter to the camera, shoots stereo images of two left and right viewpoints, and multi-viewpoint images from the stereo images by electronic interpolation. A method for acquiring and forming a stereoscopic image was proposed. However, in this case, a stereoscopic photograph adapter that is not required is necessary for normal photographing. Therefore, ideally, it is desirable to obtain a multi-viewpoint image from one image and form a stereoscopic image.
[0010]
On the other hand, in Japanese Patent Laid-Open No. 8-140116, distance measurement is performed for each of a plurality of blocks in an image at the time of shooting, a distance value is recorded together with the image, a multi-viewpoint image is acquired based on the distance value, A method of acquiring an image is shown.
[0011]
In addition, as a method of acquiring a multi-viewpoint image from one image, for example, a subject area is cut out from the background in the image, and the subject area cut out with respect to the background pops out to the front when viewed with the lenticular plate superimposed. As can be seen, a method is known in which a background image and a subject image are shifted by a predetermined amount of parallax when a multi-viewpoint image is generated.
[0012]
[Problems to be solved by the invention]
However, the conventional method described in Japanese Patent Laid-Open No. 8-140116 requires a special device for obtaining the distance values of a plurality of blocks at the time of shooting, and records the distance values together with the image data. Since it is necessary, a three-dimensional image cannot be formed from a normally taken image.
[0013]
In the conventional method for acquiring a multi-viewpoint image from a single image, when a three-dimensional image synthesized from the acquired multi-viewpoint image is observed through a lenticular plate, the subject cut out with respect to the background becomes a screen-like object. There is a problem that the three-dimensional effect becomes unnatural. In addition, cutting out the subject area requires manual work, and there has been a demand for simply specifying the subject area.
[0014]
Therefore, the present invention acquires a multi-viewpoint image from one image without performing special shooting, prints the multi-viewpoint image as a stereoscopic image, and superimposes an optical member such as a lenticular plate, A stereoscopic image forming system that allows you to observe a stereoscopic image of a subject with a natural stereoscopic effect with a simple operation. and 3D image formation The law The purpose is to provide.
[0015]
[Means for Solving the Problems]
In order to achieve the above object, a stereoscopic image forming system according to the present invention includes an image acquisition unit that acquires a subject image, and the subject image acquired by the image acquisition unit is arranged in an output image area. By doing so, an output confirmation image for confirming the position and size of the subject image on the output image area is obtained. Display control means for displaying on the display means, and displayed on the display means Included in output confirmation image Area acquisition means for acquiring a subject area from the subject image in response to an instruction selection of the subject area by the user for the subject image, and parallax map extraction means for extracting a parallax map representing the depth distribution of the subject from the subject area; A parallax map display control unit that displays the extracted parallax map on the display unit so as to overlap the output confirmation image; Based on the subject image and the parallax map, multi-viewpoint image generating means for generating a multi-viewpoint image for the subject from a plurality of viewpoints, and pixels of the same coordinates in each image of the multi-viewpoint image are arranged in the viewpoint array. Image synthesizing means for synthesizing a three-dimensional image by arranging so as to be adjacent pixels according to Corresponds to the output confirmation image displayed with the parallax map superimposed Output means for arranging and outputting the synthesized three-dimensional image in the output image region, and superimposing an optical member having a periodic structure on the output three-dimensional image, thereby providing a stereoscopic image of the subject. Is observed.
[0017]
The three-dimensional image forming method of the present invention includes a step of acquiring a subject image and arranging the acquired subject image in an output image region. By doing so, an output confirmation image for confirming the position and size of the subject image on the output image area is obtained. Display control process to be displayed on the display means, and displayed on the display means Included in output confirmation image Obtaining a subject area from the subject image in response to an instruction selection of the subject area by the user for the subject image, extracting a parallax map representing a depth distribution of the subject from the subject area, Displaying the extracted parallax map on the display for confirmation on the output confirmation image; A step of generating a multi-viewpoint image for the subject from a plurality of viewpoints based on the subject image and the parallax map, and pixels having the same coordinates in each image of the multi-viewpoint image are adjacent to each other according to the arrangement of the viewpoints A step of synthesizing a three-dimensional image by arranging the pixels, Corresponds to the output confirmation image displayed with the parallax map superimposed A step of arranging and outputting the synthesized three-dimensional image in the output image region, and superimposing an optical member having a periodic structure on the outputted three-dimensional image, thereby producing a stereoscopic image of the subject. Is observed.
[0019]
DETAILED DESCRIPTION OF THE INVENTION
Stereoscopic image forming system of the present invention and 3D image formation Legal Embodiments will be described with reference to the drawings.
[0020]
[First Embodiment]
FIG. 1 is a diagram illustrating a configuration of a stereoscopic image forming system according to the first embodiment. In the figure, 1 is a subject. Reference numeral 2 denotes a digital camera. An instruction selection unit 3 such as a mouse and a keyboard has a user interface function. Reference numeral 4 denotes an image processing unit. Reference numeral 5 denotes a display unit such as a CRT display for displaying images and processing information.
[0021]
The instruction selection unit 3, the image processing unit 4, and the display unit 5 are configured by, for example, a general-purpose PC (Personal Computer). This general-purpose PC incorporates a hard disk as a recording medium in addition to a known CPU, ROM, RAM, and the like. A printing unit 6 is connected to the image processing unit 4 and prints image data and the like generated by the image processing unit 4. The camera 2, the image processing unit 4, and the printing unit 6 are connected via a USB (Universal Serial Bus).
[0022]
In the stereoscopic image forming system having the above configuration, first, an image photographed by the camera 2 is taken into the image processing unit 4. For example, image data shot and recorded by the camera 2 is activated on the hard disk in the PC via the USB interface by starting the driver software of the camera 2 in the PC that is the image processing unit 4 and performing a predetermined operation. Once recorded.
[0023]
For example, photographed image data is recorded on a CF (Compact Flash (registered trademark) card, so that if the image processing unit 4 has a PC card slot, the camera 2 and the image processing unit 4 are not connected once. The CF card is removed from the camera 2, the CF card is attached to a CF card adapter that can be attached to the PC card slot, and the CF card adapter is attached to the PC card slot, so that the image data recorded on the CF card is recorded on the PC hard disk. Can be handled in the same way as the processed image data.
[0024]
The image processing unit 4 generates a multi-viewpoint image of the subject with respect to the image captured in the image processing unit 4 in this way, combines the three-dimensional image, and outputs the synthesized image to the printing unit 6. This series of processing is executed as application software of a PC, for example.
[0025]
FIG. 2 is a flowchart showing a three-dimensional image forming process procedure in the image processing unit 4 of the stereoscopic image forming system. This processing program is stored in a ROM (not shown) in the image processing unit 4 corresponding to the PC main body, and is also executed by a CPU (not shown) in the image processing unit 4.
[0026]
First, in order to convert an image captured by the camera into data that can be handled by this processing program, the image is captured into the memory of the PC main body, which is the image processing unit 4 (step S1). At this time, an instruction such as the file name of the image data is given by the instruction selecting unit 3, and the designated file is read into the program. In addition, the image data is converted into three-channel two-dimensional array data or bit map composed of RGB. In particular, when the input image data is compressed image data such as the JPEG image format, it is difficult to process the compressed image data as it is. It is necessary to do.
[0027]
The image data captured in step S1 is displayed on the display unit 5 (step S2). At this time, the image is displayed in a plain rectangular area representing the paper so that the size and position when printing the image data on the predetermined paper can be confirmed. FIG. 3 is a diagram showing a display example of image data. In the figure, R is a plain rectangular area representing paper. I is the captured image. The size and position of the image in the paper are calculated in advance from parameters such as the size of the paper to be printed and the print size (resolution) per pixel of the image data. When the user designates the size, position, and direction (rotation within the paper surface) of the image by the instruction selection unit 3 and changes the parameters, the image displayed on the display unit 5 is updated accordingly.
[0028]
Then, a subject area is acquired (step S3). First, when the user views an image displayed on the display unit 5, the instruction selection unit 3 designates a subject area that is to be projected forward as a stereoscopic image. For example, as shown in FIG. 3, in a scene where a person stands in front of the background, the user designates a subject area along the outline of the person. FIG. 4 is a diagram showing an example in which a subject area is designated for the image of FIG. In the figure, the broken line portion is the contour of the subject specified by the user. The data of the subject area is stored in the memory as, for example, two-dimensional data having two values having the same size as the image data having the value 1 for the designated subject area and the value 0 for the background.
[0029]
Thereafter, a parallax map is generated from the subject area specified in step S3 (step S4). The parallax map represents the amount of deviation when the subject corresponding to each two-dimensional pixel of the image data is viewed from two viewpoints. A two-dimensional average value filter having a predetermined size is applied to binary subject area data to generate two-dimensional real number array data, which is used as a parallax map. By this average value filter processing, it is possible to expect an effect that the contour of the designated subject is blurred and the subject gradually jumps out of the background instead of the screen.
[0030]
Here, when the size of the two-dimensional average value filter is large, the stereoscopic effect becomes smoother, but the contour of the subject area designated by the user is blurred, and the intention of the user is not faithfully reflected in the formed stereoscopic image. If the size of the two-dimensional average value filter is small, the user's intention is reflected more faithfully, but the subject approaches a screen-like one. The size of the two-dimensional average value filter is preferably about 5 to 10% of the image size.
[0031]
In addition, if the size of the image data acquired in step S1 is large, the amount of calculation for the filtering process increases. Therefore, the subject area data is preliminarily reduced at a predetermined magnification to perform filtering, and then the parallax is restored to the original size. The map may be enlarged.
[0032]
In addition, as a method of obtaining an empirically desirable three-dimensional shape from the contour of the specified subject area, the contour shape is replaced with a polygon, the polygonal skeleton is estimated, and the height of each vertex constituting the skeleton is set to a polygonal shape. A method of obtaining a three-dimensional shape in a pseudo manner by determining the distance according to the distance from the boundary is known ("Teddy: A Sketching Interface for 3D Freeform Design", T. Igarashi, S. Matsuoka, H. Tanaka, See SIGGRAPH99 Conference Processings).
[0033]
According to this method, it is possible to obtain a three-dimensional shape assuming a thick cross section in a wide portion and a thin cross section in a narrow portion according to the width of the region. The above method may be applied as a method for obtaining a parallax map from a subject area. That is, the subject area acquired in step S3 is stored as line graphic data such as a chain code representing the contour shape, and the contour shape is first approximated to a polygon. A three-dimensional shape is acquired from the approximate polygon data by the above method, and the three-dimensional shape is subjected to perspective projection conversion from two predetermined viewpoints to obtain a parallax map of the image as a shift amount of a pixel position corresponding to each pixel. . For simplicity, the parallax amount may be determined so as to be proportional to the obtained height data of the three-dimensional shape.
[0034]
Thereafter, the parallax map is displayed superimposed on the image data (step S5). The product of the parallax map data and the pixel values of the RGB components of the image data is displayed as image data representing the parallax map.
[0035]
In the present embodiment, the parallax on the near side has a value of 0 and the back side has a value of 1, so that a darker image is displayed toward the front. FIG. 5 is a diagram showing a display example of a parallax map generated from the data of FIGS. 3 and 4. The user looks at the displayed parallax map and confirms the stereoscopic image to be created. That is, it is determined whether a desired parallax map is obtained from the display example in step S5 (step S6). If it is determined that the desired parallax map is obtained, the instruction selection unit 3 instructs the next process to be performed, and the process of step S7 is performed. On the other hand, if it is determined in step S6 that the parallax map needs to be corrected again, the instruction selecting unit 3 instructs the re-acquisition of the subject area, and the process returns to step S3 described above.
[0036]
Thereafter, a multi-viewpoint image is generated using a desired parallax map (step S7). Here, the generated image is a multi-viewpoint image forming a three-dimensional stripe image, and the size of each image depends on the number of images, the resolution to be printed, and the size. If the resolution of the printing unit 6 is RPdpi (dot per inch) and the print size is XP × YPinch, the size of the image to be printed is X (= RP × XP) × Y (= RP × YP) pixels. The number N of images is determined so that N = RP × RL in accordance with the pitch RLinch of the lenticular plate. Since N is an integer, an integer close to RP × RL is actually used as the number of images.
[0037]
For example, in the case of a printer resolution of 600 dpi and a lenticular plate pitch of 1 / 50.8 inch, an image of N = 12 is desirable. At this time, the size of the image at each viewpoint is H (= X / N) × V (= Y). Here, in practice, the print size is determined so that H and V are integers. For example, when H = 200 and V = 1800 pixels, X = 2400 and Y = 1800 pixels, and the print size is 4 × 3 inches.
[0038]
Actually, since the pitch of the lenticular plate needs to match the image period, the size changes slightly. This process is performed in step S8 described later. The image is generated by deforming the image acquired in step S1 using a parallax map.
[0039]
For example, when the image size is h (= 800) × v (= 600) pixels, an image of 200 × 600 pixels is generated according to the number of pixels H in the horizontal direction and the number of pixels v in the vertical direction. The number of pixels in the vertical direction is small because the number of pixels in the vertical direction of each image required for printing is significantly larger than the number of pixels in the horizontal direction. This is because of this.
[0040]
The viewpoint position of the image to be generated is determined so that a predetermined amount of parallax is generated. If the amount of parallax becomes too small, the stereoscopic effect when observing a stereoscopic image is impaired. Conversely, if the amount of parallax becomes too large, a stereoscopic image to be observed becomes unclear due to crosstalk with adjacent images. Further, the viewpoint positions are determined so that the viewpoints are arranged at equal intervals and symmetrically about the viewpoint position of the left image. This is because the viewpoint position of the image sequence is arranged at equal intervals so that the stereoscopic image can be observed stably. Also, the viewpoint position is symmetrically arranged around the viewpoint position of the left image, thereby deforming the image. This is because the amount is minimized, and a high-quality stereoscopic image can be stably obtained even if an error occurs in the parallax map depending on the subject and shooting conditions.
[0041]
Based on the parallax map obtained in step S4, the parallax corresponding to the subject position closest to the camera 2 and the parallax corresponding to the farthest subject position are obtained. In the present embodiment, since the parallax map is a real value from “0” to “1”, the parallax corresponding to the closest subject position is “0”, and the parallax corresponding to the farthest subject position is “1”. is there. Then, the viewpoint position is determined so that the closest subject is observed at a predetermined distance from the print surface at a predetermined observation position and the farthest subject is observed at a predetermined distance from the print surface.
[0042]
At this time, the parameters actually used for image generation are the ratio r of each image to the parallax of the pair of left and right stereo images, and the parallax adjustment amount sh in the perspective, corresponding to the viewpoint position. For example, when the ratio r = 0, it represents the left image itself, and when the ratio r = 1, it represents the image at the viewpoint position of the right image. If there is an error in the parallax map, errors may also occur in the parallax of the latest subject and the parallax of the farthest subject, so the parameters used for image generation do not affect the error from the statistical distribution of the entire parallax map You may make it obtain | require by such a method.
[0043]
Hereinafter, a method of generating each viewpoint image will be described. First, a new viewpoint image is generated by forward mapping using pixels of the left image. That is, first, the position (X in the new viewpoint image that maps each pixel of the left image. N , Y N ) From the parallax d at the pixel position (x, y) of the left image, the ratio r representing the viewpoint position, the size of the left image, and the size of the new viewpoint image.
[0044]
X N = H / h × (x + r × (d−sh)), Y N = Y (1)
The pixel at the pixel position (x, y) of the left image is changed to (X N , Y N ). This process is repeated for all pixels of the left image. Next, among the pixels of the new viewpoint image, the hole filling process is performed on the pixels to which no pixel is assigned from the left image. In the hole filling process, an effective pixel that is a predetermined distance away from the pixel to be obtained is searched, and a weighted average value using the distance of the pixel value as a parameter is assigned. If there is no valid pixel, the search range is expanded and the search is repeated. With this process, a new viewpoint image in which all pixels are valid is generated. This process is repeated for the number of viewpoints to obtain a multi-viewpoint image sequence.
[0045]
Then, a three-dimensional stripe image is synthesized from the multi-viewpoint image sequence (step S8). At this time, the three-dimensional image is synthesized so that pixels at the same coordinates of each image in the multi-viewpoint image sequence are arranged as adjacent pixels according to the viewpoint arrangement of the image. When the pixel value at the j-th viewpoint is Pjmn (where m and n are indices of the pixel array in the horizontal and vertical directions, respectively), the j-th image data is represented as the following two-dimensional array.
[0046]
P j00 P j10 P j20 P j30 ………
P j01 P j11 P j21 P j31 ………
P j02 P j12 P j22 P j32 ………
………
In the synthesis, the images of the respective viewpoints are decomposed into strips for each line in the vertical direction, and are synthesized by the number of viewpoints in the reverse order of the viewpoint positions. Therefore, the combined image is a stripe image as shown below.
[0047]
P N00 ... P 200 P 100 P N10 ... P 210 P 110 P N20 ... P 220 P 120 ………
P N01 ... P 201 P 101 P N11 ... P 211 P 111 P N21 ... P 221 P 121 ………
P N02 ... P 202 P 102 P N12 ... P 212 P 112 P N22 ... P 222 P 122 ………
………
However, viewpoint 1 represents the left end image and N represents the right end image. Here, the reason for reversing the arrangement order of the viewpoint positions is that when observing with the lenticular plate, the image is observed in the left and right direction within one pitch of the lenticular. This three-dimensional stripe image has a size of X (= N × H) × v when the original multi-view image is an N viewpoint image having a size of H × v.
[0048]
Then, the pitch with the lenticular plate is matched with this three-dimensional stripe image. Since there are N RPdpi pixels for one pitch, one pitch is N / RPinch. Since the pitch of the lenticular plate is RLinch, the pitch is adjusted by multiplying the image by RL × RP / N in the horizontal direction. At this time, since the number of pixels in the vertical direction needs to be (RL × RP / N) × Y pixels, multiply the magnification by (RL × RP × Y) / (N × v) in the vertical direction. Match. Therefore, the scaling process is performed on the three-dimensional stripe image in the horizontal and vertical directions to obtain image data for printing. This scaling process is performed by, for example, bilinear interpolation. The synthesized three-dimensional stripe image can be stored in the hard disk in the PC.
[0049]
Finally, the image obtained in step S8 is printed (step S9), and this process ends.
[0050]
When the lenticular plate is overlaid on the printed image by the processing of steps S1 to S9 described above, a natural stereoscopic image reflecting the user's intention is observed. As described above, in this embodiment, it is possible to print a stereoscopic image from one image with a simple operation without performing special photographing.
[0051]
[Second Embodiment]
FIG. 6 is a diagram illustrating a configuration of a stereoscopic image forming system according to the second embodiment. The same components as those in the first embodiment are denoted by the same reference numerals and the description thereof is omitted. In the figure, reference numeral 7 denotes a shape model storage unit, which stores a plurality of standard three-dimensional shapes as data such as a wire frame model and a surface model.
[0052]
FIG. 7 is a flowchart showing a three-dimensional image forming process procedure in the image processing unit 4 of the stereoscopic image forming system. This processing program is stored in a ROM (not shown) in the image processing unit 4 corresponding to the PC main body, and is also executed by a CPU (not shown) in the image processing unit 4. The same step numbers as those in the first embodiment are denoted by the same step numbers and the description thereof is omitted.
[0053]
In the second embodiment, a process (step S3A) of selecting and arranging a shape model is performed instead of the process of acquiring the subject area in step S3 of the first embodiment.
[0054]
First, as in the first embodiment, the acquired image is displayed on the display unit 5 in accordance with the user's instruction by the processes in steps S1 and S2.
[0055]
Thereafter, the shape model is selected and arranged according to the user's instruction (step S3A). In this process, a function of drawing a three-dimensional shape model from an arbitrary direction and viewpoint and displaying it superimposed on an image and a function of deforming the three-dimensional shape model are executed.
[0056]
That is, a list of shapes stored in the shape model storage unit 7 is displayed on the display unit 5. The user uses the instruction selection unit 3 to select a shape model most likely to match the shape of the subject from the list. For example, the case where the user selects the shape model shown in FIG. 8 as the shape model of the subject with respect to the above-described image of FIG.
FIG. 8 is a diagram showing a shape model of a subject.
[0057]
The selected shape model is drawn in the standard direction and viewpoint position, and is displayed on the display unit 5 by being superimposed on the image. The user can freely move, rotate, and deform the shape model displayed in the image by the instruction selection unit 3, perform an operation of superimposing on the subject area in the image, and temporarily store the subject shape data. To do. FIG. 9 is a diagram showing how the selected shape model is matched with the image.
[0058]
A parallax map is generated from the subject shape data acquired in step S3A (step S4). When obtaining a parallax map from a three-dimensional shape, the method shown in step S4 of the first embodiment is used. That is, a perspective projection conversion is performed on a three-dimensional shape from two predetermined viewpoints to obtain a parallax map of the image. For simplicity, the parallax amount may be determined so as to be proportional to the obtained height data of the three-dimensional shape.
[0059]
Then, the obtained parallax map is displayed on the display unit 5 (step S5). The user determines whether or not the displayed parallax map is desired (step S6). If it is determined that the parallax map needs to be corrected, the process returns to step S3A and the same processing is repeated. At this time, the shape data displayed superimposed on the image is the shape data temporarily stored in step S3A. On the other hand, when a desired parallax map is obtained in step S6, the processing in steps S7 to S9 is performed as in the first embodiment, and a three-dimensional stripe image is printed.
[0060]
As described above, in the second embodiment, since a shape model is used instead of cutting out the subject area, a natural stereoscopic image can be formed from one image without cutting out the subject area. Furthermore, a more natural stereoscopic image can be formed by using a shape model more suitable for the subject.
[0061]
The above is the description of the embodiments of the present invention. However, the present invention is not limited to the configurations of these embodiments, and the functions shown in the claims or the functions of the configurations of the embodiments are included. Any configuration that can be achieved is applicable.
[0062]
For example, in the above-described embodiment, an image captured by the camera is temporarily recorded on the hard disk in the image processing unit. However, for example, another PC is prepared for image recording, and an image captured by the camera is stored in the PC. Once recorded, the image processing unit may read the image data via the network. In this case, a certain user A further takes a picture of the camera at a remote place, temporarily records the camera image on the portable PC, and then connects to the network to transfer the digital image data. Another user B connects a PC, which is an image processing unit to which a printing unit is connected at another point, to a network, directly imports digital image data into a processing program, prints a three-dimensional image, and displays the stereoscopic image. You may observe. Further, the user A may remotely acquire the stereoscopic image from a remote place by operating the image processing unit remotely.
[0063]
In the above-described embodiment, the generated three-dimensional stripe image is printed as it is, but an image template such as a photo frame, a Christmas card, or an animation character or a character template is synthesized with the three-dimensional stripe image, and the synthesized data is printed. You may make it do.
[0064]
Furthermore, in the above-described embodiment, the stereoscopic image forming system using the lenticular plate three-dimensional image method has been described. However, the present invention is not limited to this method, and the stereoscopic image forming system using the integral photography or the barrier method. It can also be applied to. In addition, although the case where the final output of the stereoscopic image is printing as a printer output has been shown, the present invention is not limited to this. It can also be applied to the display of stereoscopic images.
[0065]
Further, when the present invention is achieved by supplying software program code for realizing the functions of the above-described embodiments to the system, the program code itself realizes the new function of the present invention, and the program The storage medium storing itself and its program constitutes the present invention.
[0066]
In the above embodiment, the program code shown in the flowcharts of FIGS. 2 and 7 is stored in the storage medium. As a storage medium for supplying the program code, a ROM, a flexible disk, a nonvolatile memory card, or the like can be used.
[0067]
【The invention's effect】
According to the present invention, a multi-viewpoint image is acquired from one image without performing special shooting, the multi-viewpoint image is synthesized and printed as a stereoscopic image, and an optical member such as a lenticular plate is overlaid, A stereoscopic image of the subject can be observed. In addition, it is possible to obtain a stereoscopic image with a natural stereoscopic effect in which the subject does not form a screen with respect to the background. Furthermore, a stereoscopic image can be obtained by a simple operation.
[Brief description of the drawings]
FIG. 1 is a diagram illustrating a configuration of a stereoscopic image forming system according to a first embodiment.
FIG. 2 is a flowchart illustrating a three-dimensional image forming process procedure in an image processing unit 4 of the stereoscopic image forming system.
FIG. 3 is a diagram illustrating a display example of image data.
4 is a diagram illustrating an example in which a subject area is specified for the image in FIG. 3;
5 is a diagram showing a display example of a parallax map generated from the data of FIGS. 3 and 4. FIG.
FIG. 6 is a diagram illustrating a configuration of a stereoscopic image forming system according to a second embodiment.
FIG. 7 is a flowchart showing a 3D image forming process procedure in the image processing unit 4 of the stereoscopic image forming system.
FIG. 8 is a diagram illustrating a shape model of a subject.
FIG. 9 is a diagram showing how a selected shape model is matched with an image.
[Explanation of symbols]
1 Subject
2 Camera
3 Instruction selection part
4 Image processing section
5 display section
7 Shape model storage

Claims (12)

被写体画像を取得する画像取得手段と、
前記画像取得手段により取得された被写体画像を出力画像領域に配置することにより前記出力画像領域上での前記被写体像の位置と大きさが確認可能な出力確認用画像を表示手段に表示させる表示制御手段と、
前記表示手段に表示された出力確認用画像に含まれる被写体画像に対するユーザによる被写体領域の指示選択に応じて前記被写体画像から被写体領域を取得する領域取得手段と、
前記被写体領域から被写体の奥行き分布を表す視差マップを抽出する視差マップ抽出手段と、
前記抽出された視差マップを前記出力確認用画像に重ねて前記表示手段に表示する視差マップ表示制御手段と、
前記被写体画像および前記視差マップを基に、複数の視点からの前記被写体に対する多視点画像を生成する多視点画像生成手段と、
前記多視点画像の各画像における同一座標の画素を、前記視点の配列に応じた隣接画素となるように配列して3次元画像を合成する画像合成手段と、
前記視差マップが重ねて表示された出力確認用画像に対応する前記合成された3次元画像を前記出力画像領域に配置して出力する出力手段とを備え、
前記出力された3次元画像に周期的構造を有する光学部材を重ね合わせることにより、
前記被写体の立体像が観察されることを特徴とする立体画像形成システム。
Image acquisition means for acquiring a subject image;
Display control for displaying on the display means an output confirmation image in which the position and size of the subject image on the output image area can be confirmed by arranging the subject image acquired by the image acquisition means in the output image area. Means,
Area acquisition means for acquiring a subject area from the subject image in response to an instruction selection of a subject area by a user for a subject image included in the output confirmation image displayed on the display means;
Parallax map extraction means for extracting a parallax map representing the depth distribution of the subject from the subject region;
A parallax map display control unit that displays the extracted parallax map on the display unit so as to overlap the output confirmation image;
Multi-viewpoint image generation means for generating a multi-viewpoint image for the subject from a plurality of viewpoints based on the subject image and the parallax map;
Image synthesizing means for synthesizing a three-dimensional image by arranging pixels having the same coordinates in each image of the multi-viewpoint image to be adjacent pixels according to the arrangement of the viewpoints;
Output means for arranging and outputting the synthesized three-dimensional image corresponding to the output confirmation image on which the parallax map is superimposed and displayed in the output image region;
By superimposing an optical member having a periodic structure on the output three-dimensional image,
A stereoscopic image forming system, wherein a stereoscopic image of the subject is observed.
前記被写体領域は、前記被写体画像の各画素に対応し、被写体であるか背景であるかを表す二次元配列のマスクデータからなり、
前記視差マップ抽出手段は、前記マスクデータを二次元フィルタ処理によりぼかすことで、前記視差マップを抽出することを特徴とする請求項1記載の立体画像形成システム。
The subject area corresponds to each pixel of the subject image, and consists of a two-dimensional array of mask data representing whether the subject is a subject or the background,
The stereoscopic image forming system according to claim 1, wherein the parallax map extracting unit extracts the parallax map by blurring the mask data by a two-dimensional filter process.
前記視差マップ抽出手段は、前記被写体領域から被写体の3次元形状を推定し、該推定された3次元形状を基に前記視差マップを抽出することを特徴とする請求項1記載の立体画像形成システム。  The stereoscopic image forming system according to claim 1, wherein the parallax map extraction unit estimates a three-dimensional shape of a subject from the subject region and extracts the parallax map based on the estimated three-dimensional shape. . 前記出力手段は、印刷手段であることを特徴とする請求項1記載の立体画像形成システム。  The three-dimensional image forming system according to claim 1, wherein the output unit is a printing unit. 前記光学部材は、レンチキュラ板であることを特徴とする請求項1記載の立体画像形成システム。  The three-dimensional image forming system according to claim 1, wherein the optical member is a lenticular plate. 前記画像取得手段により取得した被写体画像をデジタル画像データとして記録する画像記録手段を備え、
前記画像記録手段は、ネットワークを介して前記デジタル画像データを転送することを特徴とする請求項1記載の立体画像形成システム。
Image recording means for recording the subject image acquired by the image acquisition means as digital image data;
The stereoscopic image forming system according to claim 1, wherein the image recording unit transfers the digital image data via a network.
被写体画像を取得する工程と、
前記取得された被写体画像を出力画像領域に配置することにより前記出力画像領域上での前記被写体像の位置と大きさが確認可能な出力確認用画像を表示手段に表示させる表示制御工程と、
前記表示手段に表示された出力確認用画像に含まれる被写体画像に対するユーザによる被写体領域の指示選択に応じて前記被写体画像から被写体領域を取得する工程と、
前記被写体領域から被写体の奥行き分布を表す視差マップを抽出する工程と、
前記抽出された視差マップを前記出力確認用画像に重ねて前記表示手段に表示する工程と、
前記被写体画像および前記視差マップを基に、複数の視点からの前記被写体に対する多視点画像を生成する工程と、
前記多視点画像の各画像における同一座標の画素を、前記視点の配列に応じた隣接画素となるように配列して3次元画像を合成する工程と、
前記視差マップが重ねて表示された出力確認用画像に対応する前記合成された3次元画像を前記出力画像領域に配置して出力する工程とを有し、
前記出力された3次元画像に周期的構造を有する光学部材を重ね合わせることにより、
前記被写体の立体像が観察されることを特徴とする立体画像形成方法。
Obtaining a subject image;
A display control step of displaying on the display means an output confirmation image in which the position and size of the subject image on the output image region can be confirmed by arranging the acquired subject image in the output image region;
Obtaining a subject area from the subject image in response to an instruction selection of a subject area by a user for a subject image included in the output confirmation image displayed on the display means;
Extracting a parallax map representing the depth distribution of the subject from the subject region;
Displaying the extracted parallax map on the display for confirmation on the output confirmation image;
Generating a multi-viewpoint image for the subject from a plurality of viewpoints based on the subject image and the parallax map;
Arranging the pixels of the same coordinates in each image of the multi-viewpoint image so as to be adjacent pixels according to the arrangement of the viewpoints, and synthesizing a three-dimensional image;
Arranging and outputting the synthesized three-dimensional image corresponding to the output confirmation image on which the parallax map is displayed superimposed on the output image region;
By superimposing an optical member having a periodic structure on the output three-dimensional image,
A stereoscopic image forming method, wherein a stereoscopic image of the subject is observed.
前記被写体領域は、前記被写体画像の各画素に対応し、被写体であるか背景であるかを表す二次元配列のマスクデータからなり、
前記視差マップを抽出する工程では、前記マスクデータを二次元フィルタ処理によりぼかすことで、前記視差マップを抽出することを特徴とする請求項記載の立体画像形成方法。
The subject area corresponds to each pixel of the subject image, and consists of a two-dimensional array of mask data representing whether the subject is a subject or the background,
The stereoscopic image forming method according to claim 7 , wherein in the step of extracting the parallax map, the parallax map is extracted by blurring the mask data by a two-dimensional filter process.
前記視差マップを抽出する工程では、前記被写体領域から被写体の3次元形状を推定し、該推定された3次元形状を基に前記視差マップを抽出することを特徴とする請求項記載の立体画像形成方法。8. The stereoscopic image according to claim 7 , wherein in the step of extracting the parallax map, a three-dimensional shape of a subject is estimated from the subject region, and the parallax map is extracted based on the estimated three-dimensional shape. Forming method. 前記出力する工程では、印刷することを特徴とする請求項記載の立体画像形成方法。8. The three-dimensional image forming method according to claim 7 , wherein printing is performed in the outputting step. 前記光学部材は、レンチキュラ板であることを特徴とする請求項記載の立体画像形成方法。The three-dimensional image forming method according to claim 7 , wherein the optical member is a lenticular plate. 前記取得した被写体画像をデジタル画像データとして記録する工程と、
前記記録されたデジタル画像データをネットワークを介して転送する工程とを有することを特徴とする請求項記載の立体画像形成方法。
Recording the acquired subject image as digital image data;
The stereoscopic image forming method according to claim 7, further comprising a step of transferring the recorded digital image data via a network.
JP2001232700A 2001-07-31 2001-07-31 Stereoscopic image forming system and stereoscopic image forming method Expired - Fee Related JP4708619B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2001232700A JP4708619B2 (en) 2001-07-31 2001-07-31 Stereoscopic image forming system and stereoscopic image forming method
US10/207,457 US7113634B2 (en) 2001-07-31 2002-07-29 Stereoscopic image forming apparatus, stereoscopic image forming method, stereoscopic image forming system and stereoscopic image forming program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001232700A JP4708619B2 (en) 2001-07-31 2001-07-31 Stereoscopic image forming system and stereoscopic image forming method

Publications (2)

Publication Number Publication Date
JP2003047027A JP2003047027A (en) 2003-02-14
JP4708619B2 true JP4708619B2 (en) 2011-06-22

Family

ID=19064584

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001232700A Expired - Fee Related JP4708619B2 (en) 2001-07-31 2001-07-31 Stereoscopic image forming system and stereoscopic image forming method

Country Status (1)

Country Link
JP (1) JP4708619B2 (en)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100672925B1 (en) 2004-04-20 2007-01-24 주식회사 후후 Method for generating mutiview image using adaptive disparity estimation scheme
KR100913173B1 (en) 2005-07-05 2009-08-19 삼성모바일디스플레이주식회사 3 dimension graphic processor and autostereoscopic display device using the same
KR100932977B1 (en) 2005-07-05 2009-12-21 삼성모바일디스플레이주식회사 Stereoscopic video display
US8279221B2 (en) 2005-08-05 2012-10-02 Samsung Display Co., Ltd. 3D graphics processor and autostereoscopic display device using the same
JP2007199452A (en) * 2006-01-27 2007-08-09 Seiko Epson Corp Image processing device, printer, and printing method
KR101377960B1 (en) * 2007-11-13 2014-04-01 엘지전자 주식회사 Device and method for processing image signal
JP5209121B2 (en) 2009-09-18 2013-06-12 株式会社東芝 Parallax image generation device
JP4966431B2 (en) * 2009-09-18 2012-07-04 株式会社東芝 Image processing device
JP5586377B2 (en) * 2010-08-17 2014-09-10 オリンパスイメージング株式会社 Display device
WO2012096054A1 (en) * 2011-01-13 2012-07-19 富士フイルム株式会社 Parallax image display device, parallax image display method, and parallax image display program
WO2012096065A1 (en) * 2011-01-13 2012-07-19 富士フイルム株式会社 Parallax image display device and parallax image display method
WO2012098607A1 (en) 2011-01-19 2012-07-26 パナソニック株式会社 Three-dimensional image processing device and three-dimensional image processing method
JP5659856B2 (en) * 2011-02-25 2015-01-28 カシオ計算機株式会社 Imaging apparatus, imaging method, and program
JP2013005376A (en) * 2011-06-21 2013-01-07 Office Sansara Co Ltd Image processing program, image processing apparatus, and image processing method
JP5287971B2 (en) * 2011-12-21 2013-09-11 セイコーエプソン株式会社 Printing device
JP5994320B2 (en) * 2012-03-26 2016-09-21 大日本印刷株式会社 Depth production support apparatus, depth production support method, and program
JP5966837B2 (en) * 2012-10-05 2016-08-10 大日本印刷株式会社 Depth production support apparatus, depth production support method, and program

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0430272A (en) * 1990-05-25 1992-02-03 Toppan Printing Co Ltd Generating method for solid and variable picture element forming sheet
JPH0568268A (en) * 1991-03-04 1993-03-19 Sharp Corp Device and method for generating stereoscopic visual image
WO1999030280A1 (en) * 1997-12-05 1999-06-17 Dynamic Digital Depth Research Pty. Ltd. Improved image conversion and encoding techniques
JP2000092516A (en) * 1998-09-17 2000-03-31 Sanyo Electric Co Ltd Device and method for converting two-dimensional video image to three-dimensional video image
JP2000261649A (en) * 1999-03-05 2000-09-22 Canon Inc Image processing method, device thereof and storage medium
JP2001109907A (en) * 1999-10-04 2001-04-20 Sharp Corp Three-dimensional model generation device, three- dimensional model generation method, and recording medium recording three-dimensional model generation program
JP2001202532A (en) * 1999-11-17 2001-07-27 Korea Advanced Inst Of Sci Technol Method for generating stereoscopic picture by using z buffer

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0430272A (en) * 1990-05-25 1992-02-03 Toppan Printing Co Ltd Generating method for solid and variable picture element forming sheet
JPH0568268A (en) * 1991-03-04 1993-03-19 Sharp Corp Device and method for generating stereoscopic visual image
WO1999030280A1 (en) * 1997-12-05 1999-06-17 Dynamic Digital Depth Research Pty. Ltd. Improved image conversion and encoding techniques
JP2000092516A (en) * 1998-09-17 2000-03-31 Sanyo Electric Co Ltd Device and method for converting two-dimensional video image to three-dimensional video image
JP2000261649A (en) * 1999-03-05 2000-09-22 Canon Inc Image processing method, device thereof and storage medium
JP2001109907A (en) * 1999-10-04 2001-04-20 Sharp Corp Three-dimensional model generation device, three- dimensional model generation method, and recording medium recording three-dimensional model generation program
JP2001202532A (en) * 1999-11-17 2001-07-27 Korea Advanced Inst Of Sci Technol Method for generating stereoscopic picture by using z buffer

Also Published As

Publication number Publication date
JP2003047027A (en) 2003-02-14

Similar Documents

Publication Publication Date Title
US7113634B2 (en) Stereoscopic image forming apparatus, stereoscopic image forming method, stereoscopic image forming system and stereoscopic image forming program
JP4708619B2 (en) Stereoscopic image forming system and stereoscopic image forming method
EP3251346B1 (en) Digital multi-dimensional image photon platform system and methods of use
JP6471780B2 (en) New view synthesis using deep convolutional neural networks
JP2001346226A (en) Image processor, stereoscopic photograph print system, image processing method, stereoscopic photograph print method, and medium recorded with processing program
JP2006107213A (en) Stereoscopic image printing system
JP4065488B2 (en) 3D image generation apparatus, 3D image generation method, and storage medium
US6219444B1 (en) Synthesizing virtual two dimensional images of three dimensional space from a collection of real two dimensional images
US20100085423A1 (en) Stereoscopic imaging
US20060082644A1 (en) Image processing apparatus and image processing program for multi-viewpoint image
US10178247B2 (en) Digital multi-dimensional image photon platform system and methods of use
JP2003209858A (en) Stereoscopic image generating method and recording medium
JP3524147B2 (en) 3D image display device
US10033990B2 (en) Digital multi-dimensional image photon platform system and methods of use
JP2005165614A (en) Device and method for synthesizing picture
EP1668919B1 (en) Stereoscopic imaging
JP3643511B2 (en) 3D image processing method, 3D modeling method, and recording medium recording 3D image processing program
KR100837776B1 (en) Apparatus and Method for Converting 2D Images to 3D Object
JP2008090750A (en) Method and device for generating three-dimensional image
JP2006211383A (en) Stereoscopic image processing apparatus, stereoscopic image display apparatus, and stereoscopic image generating method
KR102116561B1 (en) Method for producing virtual reality content for virtual experience of destroyed or loss historic site
JP4993355B2 (en) Occlusion processing method for free-viewpoint video generation with local region division
JP4595219B2 (en) Image processing apparatus and image processing method
JP3406781B2 (en) Method and apparatus for forming compressed image for lenticular lens
WO2017040784A1 (en) Digital multi-dimensional image photon platform system and methods of use

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20060415

RD05 Notification of revocation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7425

Effective date: 20070626

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080728

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100723

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100817

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101015

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20101116

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110210

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20110221

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110315

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110317

LAPS Cancellation because of no payment of annual fees