JP4354708B2 - 多視点カメラシステム - Google Patents

多視点カメラシステム Download PDF

Info

Publication number
JP4354708B2
JP4354708B2 JP2003006773A JP2003006773A JP4354708B2 JP 4354708 B2 JP4354708 B2 JP 4354708B2 JP 2003006773 A JP2003006773 A JP 2003006773A JP 2003006773 A JP2003006773 A JP 2003006773A JP 4354708 B2 JP4354708 B2 JP 4354708B2
Authority
JP
Japan
Prior art keywords
image
camera
cameras
dimensional
viewpoint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003006773A
Other languages
English (en)
Other versions
JP2004220312A (ja
Inventor
英雄 斎藤
大輔 磯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Science and Technology Agency
National Institute of Japan Science and Technology Agency
Original Assignee
Japan Science and Technology Agency
National Institute of Japan Science and Technology Agency
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Science and Technology Agency, National Institute of Japan Science and Technology Agency filed Critical Japan Science and Technology Agency
Priority to JP2003006773A priority Critical patent/JP4354708B2/ja
Publication of JP2004220312A publication Critical patent/JP2004220312A/ja
Application granted granted Critical
Publication of JP4354708B2 publication Critical patent/JP4354708B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Generation (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、多視点カメラシステムにおいて、多視点カメラに撮影された対象物の3次元形状を再構成(復元)することに関する。
【0002】
【従来の技術】
多視点カメラシステムとは、多視点カメラシステムを構成している各カメラ(以降「多視点カメラ」という)を用いて同一の対象物を多視点から撮影し、それらの撮影した画像から対象物の3次元形状を再構成(復元)するシステムである。例えば、仮想視点から見た画像(任意視点画像)を生成するために、このような多視点カメラシステムが利用されている。
従来、このような多視点カメラシステムにおいては、各カメラの内部パラメータ(焦点距離、投影中心座標など)および外部パラメータ(カメラの3次元位置、向き(回転3自由度)など)を推定する手続である、カメラキャリブレーション(校正)を行なう必要があった(例えば非特許文献1参照)。
このカメラキャリブレーションは、対象空間中に存在する点の3次元座標と、その点が画像に投影される2次元座標との関係(以降「3次元−2次元マップ」という)を6組以上あらかじめ測定しておくことにより行なわれる。実際には、例えば、各カメラについて同時に撮影されたマーカ点から、各カメラのキャリブレーションを行なう。
【0003】
しかしながら、カメラキャリブレーションによる手法の場合、各カメラ独立にカメラパラメータの推定を行なっているために、各カメラ間で推定されたカメラパラメータ間に、推定誤差による矛盾が発生してしまう。具体的には、各カメラで独立に推定されたカメラパラメータから計算したカメラ間のエピポーラ幾何と、各カメラに共通に見えるマーカ点から検出したカメラ間の対応関係から推定したエピポーラ幾何との間に微妙な誤差を発生してしまう。この誤差は、特に離れたカメラ間で大きい(例えば非特許文献2参照)。
また、このような多視点カメラシステムにおいては、基本的には複数のカメラ間で共通に見える点を検出して、三角測量の原理により3次元形状を再構成するものであるため、カメラ間の相対的幾何学関係を出来るだけ正確に扱うことが重要となる。一方で、多数のカメラに対して同時に3次元位置の既知なマーカ点を撮影させてキャリブレーションするのは手間がかかる。しかも、屋外のように広い撮影空間を対象とする場合に、マーカ点を広範囲にわたって正確に設置することは非常に困難である。
【0004】
上記の問題点を解決するために、発明者らは、カメラキャリブレーションを行なわずに対象物の3次元形状を再構成できる多視点カメラシステムを提案してきた(非特許文献2および非特許文献3参照)。
この手法では、まず、多視点カメラのうち、基準となるカメラ(以降「基底カメラ」という)を任意に2台選択する。そして、これらの2台の基底カメラから他のカメラに投影されるエピポーラ線を用いて、射影グリッド空間(Projective Grid Space)と呼ばれる3次元空間を構築する。そして、この射影グリッド空間内で対象物の3次元形状を再構成する。
【0005】
以下に、発明者らが従来提案してきた射影グリッド空間による手法を詳しく説明する。
上述したように、多視点カメラシステムにおいて対象物の3次元形状を再構成するためには、3次元形状を再構成しようとする3次元空間の各点(3次元座標)と、多視点カメラの各々の画像上に投影される点(2次元座標)との関係(3次元−2次元マップ)が必要となる。
従来の手法における多視点カメラシステムを、図1(a)に示す。図1(a)において、111〜116は多視点カメラシステムを構成している各カメラ(多視点カメラ)である。なお、多視点カメラの数は図に示されている数に限られない。従来の手法では、カメラの配置とは無関係にユークリッド空間120を定義し、ユークリッド空間120上の座標と、各カメラ(111〜116)の画像上の座標とをカメラごとに関連づけるカメラキャリブレーションが必要であった。
【0006】
一方、発明者らが従来提案してきた、射影グリッド空間を定義した多視点カメラシステムを図1(b)に示す。図1(b)において、111〜116は、図1(a)と同様に多視点カメラシステムを構成している各カメラである。
射影グリッド空間130は次のように定義される。まず、数台あるカメラのうち任意の2台(この例では、カメラ111およびカメラ112)をそれぞれ基底カメラ1、基底カメラ2とする。これらの基底カメラそれぞれの視点からの中心射影によって3次元空間(射影グリッド空間)130を定義する。つまり、空間を定義する3軸として、基底カメラ1の画像のX軸およびY軸、そして基底カメラ2の画像のX軸を用いる。そして、これらの3軸をそれぞれP軸、Q軸、R軸として、射影グリッド空間130を定義する。
【0007】
射影グリッド空間内の点A(p,q,r)と各カメラの画像との関係づけを図2および図3に示す。図2は、射影グリッド空間内の点A(p,q,r)の基底カメラ画像への投影を示した図である。図2において、点210は基底カメラ1の視点、点220は基底カメラ2の視点である。また、212は基底カメラ1から得られる画像(画像1)、222は基底カメラ2から得られる画像(画像2)を示している。点a(p,q)および点a(r,s)は、それぞれ画像1および画像2上における点Aの投影点である。
ここで、画像hの画像kに対する基礎行列をFhkと表すものとする。このとき、点A(p,q,r)は射影グリッド空間の定義より、画像1では点a(p,q)に投影される。また、画像2の画像1に対する基礎行列F21を用いて点a(p,q)を画像2に直線lとして投影すると、直線lは下記の式(1)で表される。
【数1】
Figure 0004354708
射影グリッド空間の定義より、点A(p,q,r)の画像2における投影点a(r,s)のX座標はrであるから、点a(r,s)は、直線l上の、X座標がrである点として定めることができる。
【0008】
図3は、点A(p,q,r)の基底カメラ以外のカメラ(カメラi)の画像への投影を示した図である。図3において、基底カメラ1における点210、212で示されている画像1、および点a(p,q)、基底カメラ2における点220、222で示されている画像2、および点a(r,s)については、図2と同様である。点230は基底カメラ以外のカメラiの視点であり、232で示されている画像はカメラiから得られる画像iであり、点aは画像i上における点Aの投影点である。また、Fi1は画像iの画像1に対する基礎行列、Fi2は画像iの画像2に対する基礎行列である。
【0009】
点aを決定するには、まずFi1を用いて点aを画像iに直線lとして投影する。さらにFi2を用いて点aを画像iに直線lとして投影する。そして、これらの2直線lとlの交点が、画像i上における点Aの投影点aとなる。なお、直線lおよびlは下記の式(2)および(3)で表される。
【数2】
Figure 0004354708
【数3】
Figure 0004354708
【0010】
このように、従来提案してきた射影グリッド空間による手法では、まず、多視点カメラの中から2つの基底カメラを選び、これらの基底カメラ間での基礎行列により、3次元のグリッド位置を定義する。そして、このグリッド位置と、基底カメラ以外の多視点カメラの画像位置との関係は、基底カメラと多視点カメラとの基礎行列により記述される。
また、3次元形状の再構成は、例えばシルエット法など(非特許文献4参照)を用いて行なう。射影グリッド空間による手法においてシルエット法を用いる場合、基底カメラと多視点カメラとの基礎行列から、射影グリッド空間の任意の点が各カメラに投影される2次元位置を求め、この位置がシルエットの内部か外部かの判定を行なうことによって、対象物の3次元形状を再構成する。
3次元形状の再構成には、全カメラ数をNとすると、2つの基底カメラ間の基礎行列と、各基底カメラとそれ以外の多視点カメラ間の基礎行列との、合計1+(N−2)×2組の基礎行列が必要となる。
【0011】
上述したように、発明者らが提案してきた射影グリッド空間による手法では、射影グリッド空間と画像上の点との関係を、カメラ間のエピポーラ幾何を表す基礎行列のみを用いて記述することができる。このため、多視点カメラシステムでカメラキャリブレーション(校正)を行なわなくても、対象物の3次元形状を復元することが可能である。
【0012】
【非特許文献1】
R. Tsai: "A Versatile Camera Calibration Technique for High-Accuracy 3D Machine Vision Metrology Using Off-the-Shelf TV Cameras and Lenses", IEEE Journal of Robotics and Automation RA-3, 4, pp.323-344, 1987
【非特許文献2】
斎藤英雄,金出武雄:「多数のカメラによるダイナミックイベントの仮想化」,情報処理学会研究報告「コンピュータビジョンとイメージメディア」No.119−016,1999年11月
【非特許文献3】
斎藤英雄,木村誠,矢口悟志,稲本奈穂;「多視点映像による現実シーンの仮想化−カメラ間の射影的関係の利用による中間視点映像生成−」,情報処理学会研究報告「コンピュータビジョンとイメージメディア」No.131−008,2002年1月
【非特許文献4】
矢口悟志,木村誠,斎藤英雄,金出武雄:「未校正多視点カメラシステムを用いた任意視点画像生成」,情報処理学会コンピュータビジョンとイメージメディア研究会論文誌,Vol.42,No.SIG6(CVIM2),pp.9−21,2001年6月
【0013】
【発明が解決しようとする課題】
しかしながら、発明者らが従来提案してきた上述の手法では、対象物を撮影するためのカメラから2台のカメラを基底カメラとして選択するため、基底カメラによって構成される3次元空間(射影グリッド空間)の各軸は透視投影の影響で直交せず、歪んだ空間となってしまう場合があった。この場合、射影グリッド空間において再構成された3次元形状にも歪みが生じてしまう。
本発明の目的は、再構成された3次元形状に歪みが生じない多視点カメラシステムを提供することである。
【0014】
【課題を解決するための手段】
上記の課題を解決するために、本発明は、対象物に対する複数の多視点カメラと、視線がほぼ直交するように設置した2台の基底カメラから画像を得る複数画像取得手段と、前記2台の基底カメラから得た画像から生成した、視線を座標軸とする3次元の射影グリッド空間と前記複数の多視点カメラから得た画像とを関連付ける3次元−2次元マップを、基底カメラの画像上の視線を多視点カメラの画像上に投影したエピポーラ線を用いて算出する関連付け手段と、前記複数の多視点カメラから得た画像の2次元座標と前記3次元の射影グリッド空間の3次元座標とを、前記3次元−2次元マップを利用して関連付け、前記3次元の射影グリッド空間に対象物の3次元形状を復元する復元処理手段とを備えることを特徴とする多視点カメラシステムである。
前記複数画像取得手段は、前記多視点カメラから得た画像から、対象物のシルエット画像を生成し、対象物の色彩画像とともに出力することを特徴としてもよい。
また、前記復元処理手段は、前記シルエット画像から、8分木モデル生成手法を用いて3次元モデルを作成することを特徴としてもよい。
また、前記復元処理手段は、8分木モデル生成手法を用いて生成された3次元モデルのボクセルのうち、内部ボクセルを除去し、対象物の色彩画像により表面ボクセルに着色することで対象物を任意視点で観察した画像を生成することを特徴としてもよい。
また、前記複数の多視点カメラは、視差画像を得ることができるステレオカメラであり、前記複数画像取得手段は、前記多視点カメラから得た視差画像および色彩画像から、対象物のシルエット画像を生成し、対象物の色彩画像とともに出力することを特徴としてもよい。
【0015】
【発明の実施の形態】
以降、図を参照しながら、本発明の多視点カメラシステムの実施形態の一例を説明する。
まず、図4および図5を参照しながら、本発明において3次元空間(射影グリッド空間)を定義する手法について説明する。
次に、図6および図7を参照しながら、本発明の実施形態の構成および処理の流れを説明する。
次に、図8〜図15を参照しながら、本実施形態において定義された射影グリッド空間で対象物の3次元形状を復元する手法について説明する。
最後に、図16〜図20を参照しながら、本実施形態を用いて行なった実験とその結果を示す。
【0016】
<射影グリッド空間の定義>
まず、図4および図5を参照しながら、本発明において3次元空間(射影グリッド空間)を定義する手法について説明する。
上述したように、発明者らが従来提案してきた射影グリッド空間による手法では、多視点カメラのうち任意の2台を基底カメラとして選択し、これら2台の基底カメラを用いて3次元座標系を構成していた。
本発明では、従来手法の問題点であった歪みを解消するために、2台の基底カメラを多視点カメラとは別に用意して3次元座標系を構成する。図4は本発明におけるカメラ配置の例を示したものである。
【0017】
図4において、ステレオカメラ411〜414は、多視点カメラである。本発明では、これらの多視点カメラ411等に対して、別途用意した基底カメラ431および432を配置する。
基底カメラ431および432は、焦点距離をほぼ無限遠にして使用する。また、図4に示しているように、これら2つの基底カメラの視線(r軸とp軸)がほぼ直交するように配置し、対象空間をできるだけ大きく捕えることができるよう、遠くに配置する。これにより、これら2つの基底カメラの視線で構成される座標軸の歪みを軽減することができる。
なお、本発明において基底カメラ431および432は、単に3次元座標系を構成するためにのみ用いられる。このため、動きのある対象物を撮影するような場合であっても、基底カメラ431および432には、動画像の撮影には向かないが空間解像度に優れているカメラを用いることが可能である。その結果、対象空間の解像度を向上することもできる。
【0018】
図5に、本発明において定義される射影グリッド空間を示す。この射影グリッド空間において、基底カメラと多視点カメラとを基礎行列によって関連付ける手法は、発明者らが従来提案してきた上述の手法とほぼ同様である。
2台の基底カメラをそれぞれ基底カメラ1、基底カメラ2とする。図5において、点510および点520はそれぞれ基底カメラ1および基底カメラ2の視点である。ここで、射影グリッド空間上の点P(p,q,r)は、基底カメラ1の画像512上の点p(p,q)と基底カメラ2の画像522上の点p(r,y)の2点によって定義される。ここで、点p(r,y)は、基底カメラ1の視点510から点pを通る基底カメラ1の視線を、基底カメラ2の画像522上に投影したエピポーラ線上の点である。このエピポーラ線は、上述の式(1)で表される。点pの座標yは、このエピポーラ線の一次方程式で求められる。
【0019】
次に、射影グリッド空間と各カメラで撮影される画像とを関連付ける3次元−2次元マップを算出する。画像532上の直線lは、基底カメラ1の画像512上の点pを通る基底カメラ1の視線を、カメラiの画像532上に投影したエピポーラ線である。エピポーラ線lは、上述の式(2)で表される。同様に、直線lは基底カメラ2の画像上の点pを通る基底カメラ2の視線を、カメラiの画像上に投影したエピポーラ線である。エピポーラ線lは、上述の式(3)で表される。
このようにして求められたエピポーラ線lとlの交点が、射影グリッド空間上の点P(p,q,r)に対応するカメラiの画像532上の点p(u,v)である。
同様にして、射影グリッド空間と全ての多視点カメラの画像との3次元−2次元マップを算出する。この3次元−2次元マップは、ルックアップ表として保存される。このルックアップ表は、後述の対象物の3次元形状を再構成する処理において、射影グリッド空間上の3次元座標を多視点カメラの画像上の2次元座標に変換する際に参照される。
【0020】
従来は、この3次元−2次元マップを算出するために、少なくとも対象空間における6つの3次元座標を定義し、それらの座標を各カメラの画像へ投影して、カメラパラメータを推定する(カメラキャリブレーションを行なう)必要があった。しかしながら、特に対象空間が広大である場合には、空間内の3次元座標を測定してカメラキャリブレーションを行なうのは非常に困難である。本発明の手法によれば、エピポーラ線を算出するのみでよいため、各カメラの画像上で2次元の座標を測定すれば足りる。このため、対象空間が広大である場合であっても、測定に費やす労力は増大しない。さらに、本実施形態の射影グリッド空間は歪みがほとんどない。なぜなら、この空間の座標軸は2台の基底カメラの視線により構成されているが、この視線は直交していることが前提だからである。
【0021】
<本実施形態の構成および処理の流れ>
次に、図6および図7を参照しながら、本発明の多視点カメラシステムの実施形態の構成および処理の流れを説明する。
図6は、本実施形態の多視点カメラシステムのシステム構成の例を示す図である。また、図7は本実施形態の多視点カメラシステムで任意視点画像を生成する処理の流れを示したフローチャートである。本実施形態では4台の多視点カメラからなる多視点カメラシステムを例として説明するが、カメラの台数はこれに限られない。また、各々の処理の内容は後で詳しく説明する。
【0022】
図6において、4台のステレオカメラ(611〜614)、4台のPC(621〜624)、1台のホストPC630、モニタ640がLANで接続されている。本実施形態ではこのほかに、3次元座標系を構成するために2台のカメラを基底カメラとして使用する。
4台のステレオカメラ611等には、色彩画像とともに視差画像を撮ることのできるタイプのものを用いる。ステレオカメラ611等は、それぞれ画像キャプチャ用の4台のPC621等に接続されている。画像キャプチャ用のPC621等と接続しているホストPC630は、任意視点画像を生成する処理などを行なうホストPCである。
まず、ステレオカメラ611等により、対象物が撮影される(図7のS710)。PC621等は、ステレオカメラ611等が撮影した画像からシルエット(輪郭)を抽出し、シルエット画像を生成する(S720)。この処理は画像キャプチャ用のPC621等でローカルに行なわれる。
【0023】
本実施形態では、シルエットを抽出するために色彩画像と視差画像の両方を用いる。その結果、画像の背景を効果的に除去することができる。一方、撮影した画像の視差値は3次元形状の再構成に使用するには粗い値であるため、3次元形状の再構成の際には視差画像は用いない。
色彩画像および上述のS720で生成されたシルエット画像は、画像キャプチャ用のPC621等においてJPEG圧縮され、ホストPC630に送信される。これらの画像は3次元形状の再構成の処理で用いられる。
次に、ホストPC630で3次元形状の再構成(復元)を行なう。3次元形状の再構成においては、まず、8分木モデルの生成を行なう(S730)。8分木モデルの生成には、シルエット法による形状生成手法とともに、8分木生成アルゴリズム(octree generation algorithm)の手法を用いる。この手法によれば、処理時間を短縮することができる。次に、8分木モデルからボクセルモデルを生成する(S740)。次に、内部ボクセルの除去を行なう(S750)。内部ボクセルの除去を行なうのは、最終的な任意視点画像の表示には表面ボクセルのみで足りるからである。最後に表面ボクセルに彩色(S760)すれば、任意視点画像が完成する。生成された任意視点画像は、例えばモニタ640に出力される。
【0024】
<3次元形状の復元>
次に、図8〜図15を参照しながら、多視点カメラに撮影された対象物の画像を用いて、基底カメラにより構成された射影グリッド空間で対象物の3次元形状を再構成し、任意視点画像を生成する手法について説明する。
【0025】
(シルエット画像の生成)
対象物の3次元形状を再構成する前に、まず、本実施形態の各ステレオカメラで撮影された画像から背景を除去してシルエット画像を生成する(図7のS720に示す処理)。
上述したように、本実施形態では、シルエット画像を生成する際に、各ステレオカメラで撮影された色彩画像だけでなく、視差画像も使用する。色彩画像のみでは、鏡面反射や影が、生成されるシルエット画像に影響を及ぼすからである。一方、視差画像のみを用いた場合ではこれらの影響はほとんどないが、粗いシルエットしか得ることができない。このため、本実施形態では色彩画像と視差画像の両方の情報を用いて背景除去を行なう。
【0026】
背景画像の画素(x,y)について色彩(color)をc(x,y),視差値(disparity value)をd(x,y)で表し、対象物を含む画像の画素(x,y)の色彩をc(x,y),視差値をd(x,y)で表すとすると、本実施形態では下記の擬似コードに示す処理でシルエットを生成する。
Figure 0004354708
ここで、p(x,y)はシルエット画像の画素の状態を表す。thは視差(disparity)の閾値で、対象物を含む画像と背景画像の視差の差分値がth以下なら背景(NOT_SILHOUETTE)と判定し、それ以外なら色彩(color)を使った判定を行う。色彩の判定に用いる閾値はth,thの2種類あり、対象物を含む画像と背景画像の色彩(color)の差分値が、前者のthより大きければシルエット内部(SILHOUETTE)と判定し、後者のthより小さければ背景(NOT_SILHOUETTE)と判定する。それ以外の場合、つまり色彩(color)の差分値が、th以下th以上になる場合は、色差θを使った判定を行う。この判定では、色差がth以上の場合はシルエット内部(SILHOUETTE)と判定し、それ以外の場合は背景(NOT_SILHOUETTE)と判定する。
【0027】
上述の手法を用いてシルエット画像を生成する様子を、図8〜図10に示す。
図8および図9は、ステレオカメラにより撮影された色彩画像および視差画像である。図8(a)はシルエット画像生成の対象物(人物)を含む色彩画像、図8(b)はシルエット画像生成の対象物を含まない(背景のみの)色彩画像である。また、図9(a)はシルエット画像生成の対象物(人物)を含む視差画像、図9(b)はシルエット画像生成の対象物を含まない(背景のみの)視差画像である。
図10(a)は、図9の視差画像を用いず、図8の色彩画像のみを用いて生成されたシルエット画像である。一方、図10(b)は図8の色彩画像および図9の視差画像を用いて(すなわち本実施形態における手法を用いて)生成されたシルエット画像である。
図10の(a)と(b)を比較すると、図10(a)では、図8(a)に写り込んでいる人物の影が、シルエット画像の人物の足周りに影響している(人物の影も、シルエットとして抽出されてしまっている)のがわかる。一方、視差画像は影に影響されないため、図10(b)のシルエット画像には影の影響はなく、人物のみがシルエットとして抽出されている。
【0028】
(シルエット画像からの3次元形状の生成)
次に、3次元形状の再構成を行なうためにシルエット画像からの3次元形状の生成を行なう。本実施形態では、射影グリッド空間と各カメラで撮影された画像との関連付けにより、8分木データ構造を用いてシルエットから3次元形状を生成する(図7のS730に示す処理)。なお、8分木モデルの生成については後述する。
従来手法であるユークリッド空間を用いた場合、シルエット画像の透視投影により円錐形モデルが多数生成される。そして、結果として生成される3次元形状は全ての円錐形モデルの共通部分である。すなわち、下記の式(4)によりシルエット画像から3次元形状が生成される。
【数4】
Figure 0004354708
ここで、Iは全てのシルエット画像の組であり、iはその組の中にあるひとつのシルエット画像である。Vはi個目のシルエット画像から生成される形状モデルである。
【0029】
一般的に、ユークリッド空間においては、各ボクセルを全てのシルエット画像に投影させることにより、そのボクセルがシルエットの内部にあるか外部にあるかを判断する。そして、ひとつの画像においてボクセルがシルエットの外部にあれば、そのボクセルは対象物の一部ではない。一方、ボクセルが全ての画像においてシルエットの内部にあれば、そのボクセルは対象物の一部であると判断される。
このシルエット法を、本実施形態の射影グリッド空間を用いた場合にあてはめると、透視投影による変換の代わりに、あらかじめ用意しておいた上述のルックアップ表を用いて、射影グリッド空間における3次元座標を画像上の2次元座標に変換する。この変換は、上述のように、基礎行列によってあらかじめ射影グリッド空間と各カメラ画像との関連付けを行なっているために可能である。
【0030】
(8分木モデルの生成)
上述した8分木データ構造は、対象とする3次元空間全体(ユニバーサル・スペースと呼ぶ)を再帰的に8分割(縦、横、奥行き方向にそれぞれ2分割)していくことにより生成される8分木モデルである。
8分割された空間の中のひとつの領域(オクタント)を構成するボクセルのタイプがすべて同じになった場合には、そのオクタントはそれ以上分割しない。それ以外の場合には、そのオクタントはさらに8つの立方体に分割され、場合によっては単一のボクセルにまで分割されることになる。
【0031】
図11は、対象空間から8分木モデルを生成する様子を示したものである。
図11(a)は、図11(b)に示す対象空間1150から生成された8分木である。この8分木の各ノード(1100,1110,1120,1130等)は、図11(b)で再帰的に分割された各空間に対応している。レベル0に示されているノード(1100)は空間全体に対応している。レベル1に示されている8個のノード(1110等)はそれぞれ1回目の分割による8個の空間に対応している。同様に、レベル2は2回目の分割による空間、レベル3は3回目の分割による空間に対応している。
また、ノードの色は、その空間が対象物であるかを示している。空間に対象物を含まない(背景のみである)場合には対応するノードを黒色で表す。また、空間全体が対象物である場合には対応するノードを白色で表す。空間の一部に対象物を含む場合には対応するノードを灰色で表す。そして、空間の一部に対象物を含む場合は、その空間をさらに8分割する。なお、その空間が対象物であるかを判断する手法は後述で説明する。
【0032】
上述したノードと空間との対応により図11(a)および(b)を参照すると、空間全体(1150)はその一部に対象物を含むため、ノード1100は灰色で表される。この場合、空間1150は8分割(縦、横、奥行き方向にそれぞれ2分割)される。
8分割された空間のうち、図11(b)において対象物1162を含むオクタントおよび対象物1164を含むオクタントは、対象物のみのオクタントであるため、それ以上分割されない。図11(a)においてこれらのオクタントに対応しているノードは黒色で表される。
一方、対象物1172を含むオクタントおよび対象物1174,1182を含むオクタントは、一部に対象物を含むオクタントであるため、さらに8分割される。図11(a)においてこれらのオクタントに対応しているノードは灰色で表される。
それ以外のオクタントは対象物を含まない(背景のみである)ため、それ以上分割されない。図11(a)においてこれらのオクタントに対応しているノードは白色で表される。
こうして、その一部に対象物を含む空間がなくなるまで(対応するノードが全て黒色か白色のいずれかになるまで)、空間の分割を再帰的に繰り返す。
【0033】
空間をオクタントに分割し、全てのシルエット画像に変換するにあたって、本実施形態では下記のような手法を用いる。
まず、オクタントの8頂点を画像平面内座標へ変換し、その立方体の画像内領域を探索することで、対象としている立方体が対象物を表すかどうかを調べていく。このとき、画像内領域は長方形になるとは限らない。そこで本実施形態のシステムでは、計算量削減のため、立方体の画像内領域を囲む最小の長方形を探索領域として、インターセクション・チェックを行なってオクタントの属性(キューブ・タイプ)を調べる。
【0034】
図12はインターセクション・チェックを説明した図である。図12(a)〜(c)はシルエット画像であり、黒く示された部分(1210)は背景、灰色で示された部分(1220)は対象物のシルエットである。また、矩形1232,1234,および1236は、チェック対象の矩形領域である。
図12(b)に示すように、ある画像におけるチェック対象の矩形領域1234がシルエットと背景からなる場合には、その領域に対応する空間(オクタント)のキューブ・タイプは”GRAY”であると仮定される。なお、キューブ・タイプが”GRAY”であるとは、その空間の一部に対象物を含んでいることを意味する。
また、図12(a)に示すように、チェック対象の矩形領域1232の全ての画素が背景である場合には、その領域に対応する空間のキューブ・タイプは”BLACK”であると仮定される。キューブ・タイプが”BLACK”であるとは、その空間全体が背景からなることを意味する。
一方、図12(c)に示すように、チェック対象の矩形領域1236の全ての画素がシルエットである場合には、その領域に対応する空間のキューブ・タイプは”WHITE”であると仮定される。キューブ・タイプが”WHITE”であるとは、その空間全体が対象物からなることを意味する。
【0035】
ある画像における矩形領域のインターセクション・チェックの結果、キューブ・タイプが”BLACK”であると仮定されると、シルエット法の概念に基づいて、この空間のキューブ・タイプは”BLACK”であると確定される。
それ以外の場合には、その空間の立方体に対して、他の全ての画像が参照されるまでインターセクション・チェックを続行する。
全ての画像が参照されると、その空間のキューブ・タイプが確定する。全ての画像において、仮定されたキューブ・タイプが”WHITE”である場合には、その空間のキューブ・タイプは”WHITE”であると確定される。それ以外の場合には”GRAY”であると確定される。”GRAY”であると確定された場合、その空間に対して仮定されたキューブ・タイプは全て保存され、以降の処理でも参照する。これにより、計算時間を短縮することができる。
【0036】
図13(a)(b)は、ある空間のキューブ・タイプが”GRAY”であると確定された場合に、上記により保存された仮定キューブ・タイプを後続の処理で参照する様子を示したものである。ここでは、対象モデルを4台のカメラ(カメラ1〜カメラ4)で捕らえた場合(4つのシルエット画像に対してインターセクション・チェックを行なう場合)で説明する。
図13(a)は4つのシルエット画像に対してインターセクションを行なった結果を、カメラごとにスタックで示している。図中の”W”は”WHITE”を、”G”は”GRAY”を、”?”は不明(これからチェックされる)であることを示している。図13(a)は4つのシルエット画像に対してインターセクション・チェックを行なった結果を、空間(キューブ)ごとに8分木で示している。
【0037】
図13において、親ノード1352の仮定キューブ・タイプが、1312に示すように、カメラ1の画像で”WHITE”,カメラ2の画像で”WHITE”,カメラ3の画像で”GRAY”,カメラ4の画像で”GRAY”であった場合、その親ノード1352に対応する空間のキューブ・タイプは”GRAY”であると確定する。この場合、この空間の立方体は8分割され、それぞれが8分木の子ノード(1354等)となる。ここで、子ノード1354等においても、カメラ1およびカメラ2の画像における仮定キューブ・タイプは”WHITE”であることが確定し(1314を参照)、カメラ1およびカメラ2の画像についてはインターセクション・チェックを再び行なう必要はない。
このように、親ノードの仮定キューブ・タイプを保存しておき、子ノードの処理の際に参照することで、処理の無駄を省くことができる。
【0038】
キューブ・タイプが確定すると、キューブ・タイプによって後工程が分かれる。キューブ・タイプが”BLACK”または”WHITE”で確定した場合は、対応する空間をそれ以上分割する必要はない。すなわち、その時点で8分木の各ノードはそのまま葉節点となる。一方、キューブ・タイプが”GRAY”で確定した場合には、対応する空間はさらに8分割される。すなわち、対応する8分木のノードは8つの子ノードを持つことになる。ある空間に対して上記の処理が終了したら、他の空間についても同様の処理を再帰的に繰り返す。
なお、8分木の手法については、例えば M. Potmesil, "Generating octree models of 3D objects from their silhouettes in a sequence of images", Computer Vision, Graphics, and Image Processing, vol. 40, pp. 1-29, 1987 等を参照されたい。
【0039】
(内部ボクセルの除去)
8分木構造の生成が終了したら、画像表示のために8分木モデルをボクセルモデルに変換する。8分木のそれぞれのノードについて、23n個(nは8分木のレベル数である)のボクセルがある。これらのボクセル全てを最終的な表示対象として処理すると、多大な処理時間を要する。この問題を避けるために、本実施形態では、対象物の内部に対応している内部ボクセルを処理対象から除去し、対象物の表面に対応している表面ボクセルのみを着色して表示する。なお、これらの処理は、図7のS740〜S760に示す処理である。
本実施形態において内部ボクセルを除去する様子を、図14(a)(b)に示す。図14(a)において、1400で示された対象空間内に1410等の立方体で示された対象物がある。この対象物を表現した8分木は、上述の図11に示したように、最大レベル数は3であった。図14(b)では、対象物をレベル数3の分割に対応するボクセル(1430等)で示している。後続の着色処理においては、これらのボクセルのうち、対象物の表面を構成している表面ボクセルのみを着色の対象とすればよく、表面を構成していない内部ボクセルは除去してよい。
【0040】
あるボクセル(ボクセルv)が内部ボクセルであるか表面ボクセルであるかは、次のようにして判断する。
ボクセルvの6つの面と隣り合うボクセルのうち1つ以上のボクセルが、対象物の含まれていない空のボクセルである場合、ボクセルvは表面ボクセルである。それ以外の場合、ボクセルvは内部ボクセルである。
以降の処理(ボクセルモデルの着色)においては、表面ボクセルのみを処理の対象とする。
【0041】
(ボクセルモデルの着色)
次に、3次元形状の表面ボクセルに着色する。本実施形態では、実際に各カメラで撮影された画像のうち2つの画像を選択し、それらの画像上の画素をもとに、表面ボクセルの色を動的に決定する。どの画像を選択するかは、任意視点の位置により決定される。
表面ボクセルの色を決定する手法を、図15および下記の式(5)を用いて説明する。
【数5】
Figure 0004354708
【0042】
図15および上記の式(5)において、θはカメラiと任意視点との水平角、φはカメラ(i+1)と任意視点との水平角である。色彩の混合の重みはこれらの角度によって決定される。対象物1540上の点Pが、前述で生成されたルックアップ表によりカメラiの画像1510上の点pおよびカメラ(i+1)の画像1520上の点pに変換される。点pの色彩(color)をc(p)、点pの色彩(color)をc(p)、任意視点の画像1530上において点pおよび点pと対応する点pの色彩(color)をc(p)とすると、上記の式(5)により、c(p)を算出することができる。
上述により表面ボクセルへの着色を行なえば、任意視点における3次元形状を表示することができる。
なお、ボクセルに対する処理については、例えば G. K. M. Cheung, T. Kanade, J. Y. Bouguet, and M. Holler, "A real time system for robust 3D voxel recostruction of human motions", CVPR 2000 IEEE Comput. Soc, Los Alamitos, CA, USA, vol. 2, pp. 714-729, 2000 等を参照されたい。
【0043】
<本実施形態を用いた実験結果>
最後に、本実施形態を用いて行なった実験とその結果を図16〜図20に示す。
この実験は、以下の条件で行なった。
・ボクセル数:256×256×256(個)
・8分木の最大レベル数:8
・画像の解像度:320×240ピクセル
・色彩の深度:24ビット
・視差の深度:8ビット
【0044】
なお、この実験は図6に示すような4台のステレオカメラ(カメラ1〜カメラ4とする)を用いた多視点カメラシステムを用いて行なった。
図16はこの実験において各処理に要した時間を示した図である。
図16において "Camera PC" で示されている4本の時間軸は、多視点カメラと接続している画像キャプチャ用PCの処理を時間軸で示している。また "Host PC" で示されている時間軸は、ホストPCにおける処理を時間軸で示している。
【0045】
"Capture" の処理は、ステレオカメラで対象モデルを撮影して画像キャプチャ用PCに保存する処理であり、この処理は50ミリ秒で行なわれている。
"Disparity image generation" は視差画像を生成する処理であり、この処理は100ミリ秒で行なわれている。
"Silhouette image generation" はシルエット画像を生成する処理であり、この処理は70ミリ秒で行なわれている。
"Image transfer" の処理は、色彩画像とシルエット画像をJPEG圧縮してホストPCに送信する処理である。この処理は100ミリ秒で行なわれている。
"3D shape reconstruction" の処理は、シルエット画像から8分木モデルを生成する処理である。この処理は120ミリ秒で行なわれている。なお、本実施形態の8分木生成アルゴリズムを使用しないでこの処理を実行した場合には520ミリ秒を要した。本実施形態の8分木生成アルゴリズムにより処理速度が向上していることがわかる。
"Display" の処理は、8分木モデルからボクセルモデルを生成し、内部ボクセルを除去し、表面ボクセルに色彩を施す処理である。この処理は100ミリ秒で行なわれている。
【0046】
図17(a)〜(d)は、4台のステレオカメラで捕らえた実際の画像である。(a)はカメラ1の画像、(b)はカメラ2の画像、(c)はカメラ3の画像、(d)はカメラ4の画像である。
図18(a)〜(l)は、図17に示した画像をもとに、本実施形態の手法を用いて生成された任意視点の画像である。(a)〜(d)はカメラ1とカメラ2の中間視点における生成画像であり、画像の下に示された10:0,7:3などの比率は、上述で示した色彩の混合の重みである。同様に、(e)〜(h)はカメラ2とカメラ3の中間視点における画像、(i)〜(l)はカメラ3とカメラ4の中間視点における画像である。
図18の各画像に示すように、本実施形態の射影グリッド空間による手法を用いれば、カメラキャリブレーションが必要な従来のユークリッド空間による手法と同程度の画像を生成できる。
【0047】
図19および図20は、発明者らが従来提案してきた射影グリッド空間による手法(多視点カメラから任意の2台を基底カメラとする手法)を用いた処理結果と、本実施形態の射影グリッド空間による手法を用いた処理結果とを比較する実験を示したものである。
図19(a)〜(d)は、それぞれカメラ1〜4により撮影された画像である。被写体となっている二人の人物A,Bは、実際にはほぼ同じ身長である。
図20(a)および(b)は、処理の結果を示した図である。図20(a)は、カメラ1およびカメラ4を基底カメラとして(すなわち、従来の射影グリッド空間の手法により)生成された画像である。一方、図20(b)は別途2台のカメラを基底カメラとして(すなわち、本実施形態の射影グリッド空間の手法により)生成された画像である。
【0048】
カメラ1とカメラ4から定義された射影グリッド空間の歪みの影響で、図20(a)の画像にも歪みが生じている。被写体の2人の人物A,Bは実際にはほぼ同じ身長であるのに、3次元形状が再構成された図20(a)においては、人物Aの身長は178ボクセル、人物Bの身長は158ボクセルとなっており、差が生じている。
これに対し、図20(b)においては人物AおよびBは実際と同様にほぼ同じ身長(Aが209ボクセル、Bが201ボクセル)で再構成されている。なぜなら、本実施形態の手法によれば、2台の基底カメラのエピポーラ線はほぼ平行になるため、歪みがほとんど生じないからである。
また、図20(a)上の白線は、射影グリッド空間におけるp−r平面の断面を表している。p−r平面上の直線は、図19の各画像上でエピポーラ線として表示されている。図19(a)〜(c)上では白線、図19(d)上では白い点として示されている。しかしながら、図20(a)においては、人物Bはp−r平面を表す白線上に立っているが、人物Aは足が白線より下に出てしまっている。
一方、図20(b)上の白線も、図20(a)と同様に射影グリッド空間におけるp−r平面の断面を表しているが、人物A,Bともp−r平面を表す白線上に立っている。
【0049】
【発明の効果】
本発明では、多視点カメラとは別に、透視投影の歪みを無視できるような2台のカメラを別途用意して、これら2台のカメラを基底カメラとし、多視点カメラと2台の基底カメラとのエピポーラ幾何を利用して、基底カメラにより構成された3次元座標系において対象物の3次元形状を再構成(復元)する。これにより、再構成された3次元形状の歪みを防ぐことができる。
【図面の簡単な説明】
【図1】(a)対象空間をユークリッド空間で定義した従来の多視点カメラシステムの例を示す図である。
(b)対象空間を射影グリッド空間で定義した従来の多視点カメラシステムの例を示す図である。
【図2】射影グリッド空間内の点Aの基底カメラ画像への投影を示す図である。
【図3】射影グリッド空間内の点Aの基底カメラ以外のカメラ画像への投影を示す図である。
【図4】本発明におけるカメラ配置の例を示す図である。
【図5】本発明において定義される射影グリッド空間を示す図である。
【図6】本実施形態における多視点カメラシステムのシステム構成の例を示す図である。
【図7】本実施形態の処理の流れを示したフローチャートである。
【図8】(a)対象物(人物)を含む色彩画像である。
(b)対象物を含まない(背景のみの)色彩画像である。
【図9】(a)対象物(人物)を含む視差画像である。
(b)対象物を含まない(背景のみの)視差画像である。
【図10】(a)視差画像を用いず、色彩画像のみを用いて生成されたシルエット画像である。
(b)色彩画像および視差画像を用いて生成されたシルエット画像である。
【図11】8分木モデルを生成する様子を示す図である。
【図12】インターセクション・チェックの手法を説明する図である。
【図13】(a)インターセクション・チェックの結果をカメラごとのスタックで示す図である。
(b)インターセクション・チェックの結果を空間ごとの8分木で示す図である。
【図14】(a)(b)内部ボクセルを除去する手法を説明する図である。
【図15】表面ボクセルの色を決定する手法を説明する図である。
【図16】本実施形態を用いた実験において、各処理に要した時間を示す図である。
【図17】(a)〜(d)本実施形態を用いた実験において、それぞれ4台のステレオカメラで捕らえた画像である。
【図18】(a)〜(l)図17の画像をもとに、本実施形態の手法を用いて生成された任意視点画像である。
【図19】(a)〜(d)本実施形態を用いた実験において、それぞれ4台のステレオカメラで捕らえた画像である
【図20】(a)カメラ1およびカメラ4を基底カメラとして生成された任意視点画像である。
(b)別途2台のカメラを基底カメラとして生成された任意視点画像である。

Claims (5)

  1. 多視点カメラシステムであって、
    対象物に対する複数の多視点カメラと、視線がほぼ直交するように設置した2台の基底カメラから画像を得る複数画像取得手段と、
    前記2台の基底カメラから得た画像から生成した、視線を座標軸とする3次元の射影グリッド空間と前記複数の多視点カメラから得た画像とを関連付ける3次元−2次元マップを、前記基底カメラの画像上の視線を多視点カメラの画像上に投影したエピポーラ線を用いて算出する関連付け手段と、
    前記複数の多視点カメラから得た画像の2次元座標と前記3次元の射影グリッド空間の3次元座標とを、前記3次元−2次元マップを利用して関連付け、前記3次元の射影グリッド空間に対象物の3次元形状を復元する復元処理手段と
    を備えることを特徴とする多視点カメラシステム。
  2. 請求項1に記載の多視点カメラシステムにおいて、
    前記複数画像取得手段は、前記多視点カメラから得た画像から、対象物のシルエット画像を生成し、対象物の色彩画像とともに出力する
    ことを特徴とする多視点カメラシステム。
  3. 請求項2に記載の多視点カメラシステムにおいて、
    前記復元処理手段は、前記シルエット画像から、8分木モデル生成手法を用いて3次元モデルを作成する
    ことを特徴とする多視点カメラシステム。
  4. 請求項3に記載の多視点カメラシステムにおいて、
    前記復元処理手段は、8分木モデル生成手法を用いて生成された3次元モデルのボクセルのうち、内部ボクセルを除去し、対象物の色彩画像により表面ボクセルに着色することで対象物を任意視点で観察した画像を生成する
    ことを特徴とする多視点カメラシステム。
  5. 請求項1〜4のいずれかに記載の多視点カメラシステムにおいて、
    前記複数の多視点カメラは、視差画像を得ることができるステレオカメラであり、
    前記複数画像取得手段は、前記多視点カメラから得た視差画像および色彩画像から、対象物のシルエット画像を生成し、対象物の色彩画像とともに出力する
    ことを特徴とする多視点カメラシステム。
JP2003006773A 2003-01-15 2003-01-15 多視点カメラシステム Expired - Fee Related JP4354708B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003006773A JP4354708B2 (ja) 2003-01-15 2003-01-15 多視点カメラシステム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003006773A JP4354708B2 (ja) 2003-01-15 2003-01-15 多視点カメラシステム

Publications (2)

Publication Number Publication Date
JP2004220312A JP2004220312A (ja) 2004-08-05
JP4354708B2 true JP4354708B2 (ja) 2009-10-28

Family

ID=32897054

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003006773A Expired - Fee Related JP4354708B2 (ja) 2003-01-15 2003-01-15 多視点カメラシステム

Country Status (1)

Country Link
JP (1) JP4354708B2 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006059165A (ja) * 2004-08-20 2006-03-02 Riyuukoku Univ 3次元モデリング装置、幾何学パターン、3次元モデリングデータの生成方法、3次元モデリングプログラム、記録媒体
US8204133B2 (en) 2004-10-12 2012-06-19 Electronics And Telecommunications Research Institute Method and apparatus for encoding and decoding multi-view video using image stitching
JP2006250722A (ja) * 2005-03-10 2006-09-21 Toshiba Corp キャリブレーション装置及びその方法、キャリブレーション用プログラム
JP4803594B2 (ja) * 2006-07-05 2011-10-26 Kddi株式会社 局所領域分割による自由視点画像の生成装置およびプログラム
WO2009038149A1 (ja) 2007-09-20 2009-03-26 Nec Corporation 映像提供システム、および映像提供方法
JP5131848B2 (ja) * 2008-09-18 2013-01-30 Kddi株式会社 画像表示装置、視点誘導方法及びプログラム
JP4998422B2 (ja) * 2008-09-25 2012-08-15 Kddi株式会社 画像生成装置、方法、通信システム及びプログラム
JP5035195B2 (ja) * 2008-09-25 2012-09-26 Kddi株式会社 画像生成装置及びプログラム
US11699247B2 (en) 2009-12-24 2023-07-11 Cognex Corporation System and method for runtime determination of camera miscalibration
ES2392229B1 (es) * 2010-08-27 2013-10-16 Telefónica, S.A. Método de generación de un modelo de un objeto plano a partir de vistas del objeto.
JP6857032B2 (ja) * 2017-01-05 2021-04-14 キヤノン株式会社 制御装置、システム、制御装置の制御方法
JP2019128641A (ja) 2018-01-22 2019-08-01 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
WO2021106089A1 (ja) * 2019-11-26 2021-06-03 日本電信電話株式会社 復号方法、符号化方法、復号装置、及びプログラム
CN110992474B (zh) * 2019-12-13 2023-10-31 四川中绳矩阵技术发展有限公司 一种时域技术的实现方法

Also Published As

Publication number Publication date
JP2004220312A (ja) 2004-08-05

Similar Documents

Publication Publication Date Title
Debevec et al. Modeling and rendering architecture from photographs: A hybrid geometry-and image-based approach
Saito et al. Shape reconstruction in projective grid space from large number of images
US5821943A (en) Apparatus and method for recreating and manipulating a 3D object based on a 2D projection thereof
US7046840B2 (en) 3-D reconstruction engine
Bonfort et al. General specular surface triangulation
CN110728671B (zh) 基于视觉的无纹理场景的稠密重建方法
US20100328308A1 (en) Three Dimensional Mesh Modeling
JP4354708B2 (ja) 多視点カメラシステム
Zou et al. A method of stereo vision matching based on OpenCV
Şanlıoğlua et al. PHOTOGRAMMETRIC SURVEY AND 3D MODELING OF IVRIZ ROCK RELIEF IN LATE HITTITE ERA.
CN106023307B (zh) 基于现场环境的快速重建三维模型方法及系统
JP2000268179A (ja) 三次元形状情報取得方法及び装置,二次元画像取得方法及び装置並びに記録媒体
Wenzel et al. High-resolution surface reconstruction from imagery for close range cultural Heritage applications
JPH11504452A (ja) 2次元投影図に基づいて3次元の対象物を再現し、取り扱うための装置と方法
JP4554231B2 (ja) 歪みパラメータの生成方法及び映像発生方法並びに歪みパラメータ生成装置及び映像発生装置
JP2002032744A (ja) 3次元モデリング及び3次元画像作成のための装置及び方法
Wong et al. 3D object model reconstruction from image sequence based on photometric consistency in volume space
CN115205491A (zh) 一种手持多视图三维重建的方法及装置
Lai et al. Projective reconstruction of building shape from silhouette images acquired from uncalibrated cameras
JP2004013869A (ja) 3次元形状生成装置及びそれに用いる3次元形状生成方法並びにそのプログラム
Wang 3D Reconstruction Using a Linear Laser Scanner and A Camera
Yaguchi et al. Arbitrary-view image generation from multiple silhouette images in projective grid space
Lin et al. Complete 3D model reconstruction from multiple views
Jankó et al. Creating entirely textured 3d models of real objects using surface flattening
Fortenbury et al. Robust 2D/3D calibration using RANSAC registration

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051110

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20081117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090106

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090414

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090611

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090728

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090730

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120807

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees