JP2004506215A - 3次元再構成のためのストラップダウンシステム - Google Patents

3次元再構成のためのストラップダウンシステム Download PDF

Info

Publication number
JP2004506215A
JP2004506215A JP2002518423A JP2002518423A JP2004506215A JP 2004506215 A JP2004506215 A JP 2004506215A JP 2002518423 A JP2002518423 A JP 2002518423A JP 2002518423 A JP2002518423 A JP 2002518423A JP 2004506215 A JP2004506215 A JP 2004506215A
Authority
JP
Japan
Prior art keywords
image
reference plane
cameras
point
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002518423A
Other languages
English (en)
Inventor
ウェインシャル,ダフナ
リー,ミ−スエン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips Electronics NV filed Critical Koninklijke Philips Electronics NV
Publication of JP2004506215A publication Critical patent/JP2004506215A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/246Calibration of cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Abstract

3次元対象物の形状は、最初に点の基準面における投影を決定することにより、キャリブレーションされていないステレオ画像から決定される。基準面からの各点の距離は、各カメラの視野において可視である2つの既知の点に基づくキャリブレーションを使用する技術によって得られる。この方法は、1つの精密測定のみを必要とし、それは、基準面からの2つのキャリブレーション点の奥行きである。これらはセットアップ装置に供給され、ユーザが測定を行う必要が無くなる。要求される残りのキャリブレーションデータは、カメラの画像から直接得られる。

Description

【0001】
[発明の背景]
[発明の属する技術分野]
本発明は、1対のカメラにより捕捉される同一の対象物の画像に基づく形状の3次元モデリングに関する。
【0002】
[発明の背景]
3次元シーンにおける対象物の形状及び位置に関する情報を入力することは、オートメーションの支援なくしては困難且つ単調な作業である。このような情報は、3次元アニメーション、マシンビジョン(製品の品質管理における形状解析/認識)、自動車衝突から動物の行動までのイベントの力学の解析、更には、ジェスチャ認識に依存するユーザインタフェース、及び、バイオ認証において有用である。その応用範囲は多様である。例えば、パニング効果を形成するよう1つの視点から次の視点に画像をモーフィングすることによる純粋な視覚データを使用する3次元モデリングの幾つかの利点を供給する方法もあるが、これらは、純3次元モデリングの能力には及ばない。
【0003】
[発明の概要]
本発明を使用することにより、複数のカメラ画像に基づいた3次元再構成を、精密測定、キャリブレーション、及び、機器の配置が困難である環境において行うことができる。例えば、消費者製品では、そのような再構成はユーザインタフェースの一部として使用でき、また、システムがセットアップされる速度が重要であり、このようなシステムは通常扱いにくい分野に使用することができる。本発明は、技術的な知識を必要とすることなく複数カメラの3次元再構成を容易にキャリブレーションすることが可能となる構成要素を提供する。
【0004】
セットアップをキャリブレーションするための2つの実施例について説明し、それを用いて未知の点に対する位置データを計算する。物理的な装置は他の計算技術と共に使用してもよい。2つの例示的な実施例のうちの1つでは、キャリブレーション処理によって、カメラ画像の光学的中心(ピンホールカメラのピンホールの位置)は、位置が既知である基準マーカから三角測量により決定され、位置データはカメラ画像から未知の点の座標を決定するために使用される。もう一方の実施例では、キャリブレーションはアルゴリズムを供給し、このアルゴリズムにより未知の点の基準面からの距離が計算され、アルゴリズムは、基準面からの1対の基準マーカの距離から得られる。いずれの実施例においても、2つのマーカが使用されてセットアップをキャリブレーションし、その後にシーンから取り除かれ、システムが同一の視野における任意の未知の点の位置又は奥行きを決定するために使用することができるようにする。
【0005】
キャリブレーション装置の1つの実施例において、各カメラは、画像の周辺フィールドにおいて常に可視である多角形のアパーチャの背後からシーンを見る。アパーチャは共に共通の基準面上にある。最初のセットアップ手順において、前面画面(カメラ及びそれぞれのアパーチャに向かって見る)が捕捉され、正投影に近似する狭い視野を得る。これは、基準面の歪んでいない2次元の外観をあらわす。カメラの2つの画像は、奥行きの計算の際に、平面投影変換により基準面にワープされ、アパーチャの境界が完全に一直線となるよう重ねられる。この平面投影変換は、セットアップ手順の際に計算され、繰り返す必要はない。
【0006】
セットアップ手順の際には更に、マーカを基準面に対し所定の位置に配置するのに有効である装置がシーンに置かれる。第1の計算実施例では、マーカの3つの座標が既知である。第2の計算実施例では、マーカの基準面からの距離(奥行き)のみが既知である。
【0007】
第1の計算実施例では、キャリブレーションの際に、キャリブレーションマーカの3次元座標が、基準面に対するカメラの光学的中心を計算するために使用される。このために、各カメラにおける各マーカの像は、変換を利用して基準面にワープされ、変換は、カメラのアパーチャのコーナを、基準面の直交ビューにおける対応する点にマッピングする。各カメラのマーカ像は、基準面上の1対の点にマッピングされ、これはカメラの光学的中心において交差する。光学的中心が既知となると、光学的中心は、基準面にワープされる任意の未知の点の像から、その任意の未知の点の位置を三角測量で得られるよう使用することができる。
【0008】
第2の計算実施例では、基準面に対するキャリブレーションマーカの奥行きのみが既知であるが、未知の点の基準面に対する奥行きは、あまり簡単でない手段によって決定可能である。この技術のためのアルゴリズムは、明細書の主要部分に与えられる。
【0009】
システムは、キャリブレーションのために使用される特定の取付部品を除き、カメラ又はオプティックスの位置についての情報を用いることなく実施することが可能であり、従って、迅速且つ便利なセットアップに好適である。シーンにおける画像をぴったりと合わせること以外は、必要となるキャリブレーションセットアップは、基準面に対し1対の点を正確に配置することだけである。これは、異なる位置にそれぞれ置かれる1対のマーカを有する伸張可能なブームといった取付部品により供給される。これにより、消費者が、例えば、家庭においてシステムをセットアップすることができるようになる。
【0010】
基準面に対する未知の点の奥行きの決定は、Weinshall, D., Ananda, P., Irani, Mによる「From ordinal to Euclidean reconstruction with partial scene calibration」Springer LNCS: 3D Structure from Multiple Image of Large Scale Environment, June, 1998に記載されるアルゴリズムに従い、ここに記載される内容全体は本願に記載されたものとして参考文献として組込まれる。
【0011】
上述した方法は、3次元シーンをモデリングするための「ストラップダウン(strap−down)」セットアップを形成するよう使用することができる。必要な整合情報は、幾つかの相互接続された構成要素及びカメラによって3次元シーンに置くことが可能である。例えば、アパーチャを有し基準面を表すパネルは、例えば、カメラの前にセットアップされ、「ピークスルー」構成とされてよい。パネルは、基準面から所定の距離において可視となる1対のスポットをシーンに配置する伸張可能なワンド又は他の一時的な装置を有してもよい。ワンドは、キャリブレーションの際に一時的にシーンに伸張され、その後取り除かれる。カメラの位置合わせ及び基準フレーム画像の作成には、カメラの正確な位置決め、又は、カメラの位置合わせ又は位置決めに関する正確な情報を必要としない。
【0012】
データ入力又は高い精度を必要としないので、セットアップ手順は単純であり、このような特徴が付加価値となる環境において使用することができる。例えば、システムは、例えば、対象物を分析するフィールドエンジニア又はジェスチャに基づくユーザインタフェースの一部としてプレゼンタによって、一時的な場所において迅速にセットアップすることができる携帯可能なキットとして形成可能である。システムは、スマート電化製品又は最新通信装置の制御用ユーザインタフェースのベースを形成できるよう家庭内においてセットアップされるべく消費者に出荷されてもよい。この技術の応用範囲は様々且つ数多く、現在及び将来のマシンビジョンの略どの用途も包含する。
【0013】
キャリブレーション及びセットアップは、1つのカメラからもう1つのカメラに位置情報を供給することによって行われることが可能であり、それにより、相対的な位置合わせ及び位置を決定可能である。例えば、各カメラはもう一方に平行ビームを送信するようにされていてもよい。粗い位置合わせは、ユーザが各カメラのビームをもう一方のカメラの検出器に向けることにより達成され、正確な誤差は、各カメラの検出器上にビームが当たる場所を検出することにより決定される。2つのカメラの精密な位置合わせが与えられると、任意の基準面が決定可能となる。或いは、カメラを精密に位置合わせするジグが使用されてもよい。しかし、この代替案は、カメラ間の位置合わせ及び画像差を補償する好適な構成の利点を有さず、というのは、代替案は、各カメラは光学的中心(ピンホールカメラ理想)を通る画像を形成するという仮定のみに基づいているからである。従って、第1の実施例は、カメラは基準面のアパーチャを覗き込み、基準面及びアパーチャの1つの画像のみを使用するので、好適である。
【0014】
尚、本発明の方法は、2つのカメラの使用に制限されるものではなく、シーンの重なり合う特徴を観察する任意の数のカメラを使用することが可能である。重なり合う画像からの画像データは、確率的誤差を減少するのに使用することができる。多数のカメラは、システムの有効視野を増加するために使用することもできる。
【0015】
[好適な実施例の詳細な説明]
本発明は、以下の例示的な図面を参照しながら、特定の好適な実施例に関連して説明し、それにより、本発明をより完全に理解することができよう。図面を参照するに、図示される詳細は例示的であり、且つ、本発明の好適な実施例を例示的に説明するものに過ぎず、本発明の原理及び概念的な面を容易に理解するのに最も有用であるものとして提示されていることを強調する。この点に関し、本発明は構造的な詳細を、本発明の基本的な理解のために必要である以上に示してはいない。参照図面と共に本発明の説明を考慮することにより、当業者には、実際に具現化される本発明の幾つかの方法を想到可能であろう。
【0016】
図1A、図1B、及び、図1Cを参照するに、1対のカメラ100及び105が、アパーチャ150及び155を有するスクリーン135が取付けられるテーブル110上に配置される。カメラ100はスクリーンの前にあるシーンに向けられ、カメラ100がアパーチャ150を介しシーンを見るようにされる。カメラ105もシーンに向けられ、アパーチャ155を介しシーンを見るようにされる。カメラ100及び150は、アパーチャ150及び155のフレーム165及び170の内側の縁がそれぞれ各画像に含まれるようアパーチャ150及び155を介しねらいが定められる。従って、カメラ105の視野130はアパーチャによって僅かにクリッピングされ、破線132によって示すような有効視野に小さくされる。カメラ100に対しても同様に、視野131は僅かにクリップングされ、破線145に示す通りとなる。
【0017】
ブーム115は、両方のカメラの視野に入り140に示すような位置に配置されるよう回転転可能である。ブームは、その長さ方向においてスクリーン110から異なる距離にある1対のマーカ120及び125を有する。伸張された位置140に回転されると、両方のマーカは各カメラの画像中に可視となる。
【0018】
マーカ120及び125は、スクリーン135の内側の縁170/165に対し既知の位置に配置される。マーカの3次元座標、又は、基準面からの距離のいずれかが使用されるが、これは、未知の点の3次元座標が所望されるか又は奥行きのみが所望されるかに依存する。3次元座標が所望される場合、カメラの光学的中心が計算され、未知の点はカメラの光学的中心からの三角測量により求められ、未知の点の座標は基準フレームにワープされる。奥行きが所望される場合、以下に説明するアルゴリズムが使用される。
【0019】
図1Dを更に参照するに、アパーチャ150及び155のコーナ21、22、23、及び、24によって定義付けられる4点は、スクリーンの内側面137により画成される面に全て配置される。本実施例では、この内側面137は基準面を画成する。各画像におけるこれらの4つの座標及びマーカに関する位置データにより、システムはキャリブレーションされ、それにより、シーンにおける任意の点(両方のカメラから可視である)の3次元座標及び奥行きを決定することができる。
【0020】
点を基準面にマッピングするには、スクリーン135から少し距離が置かれ且つスクリーン135に対し略垂直であるアパーチャの画像を必要とする。基準フレームにおける座標は、この画像に対し定義される。この画像は、セットアップの際に1回だけ生成されればよい。この画像は、各カメラのアパーチャの4点を示さなければならず、それにより、正確な変換を計算することができる。この変換は、2000年5月17日に出願された「Apparatus and Method for Indicating a Target by Image Processing Without Three−Dimensional Modeling」なる名称の米国特許出願番号09/572,991に記載されるように大体計算され、上記特許出願の全体は本願に参考文献として組込む。この変換を使用することにより、カメラの画像における任意の点を基準面にワープすることができる。
【0021】
図4に、使用可能な類似の方法を説明する。図4では、4つの基準点422、423、424、及び、425が基準面470に配置されるが、基準面は、同一の4つの基準マーカが各カメラ415及び420に対し可視となるよう配置される。各カメラは、4つの基準マーカ像431、432、433、及び、434をそれぞれの画像面430(カメラ415に対しては画像面440)に有する。これらのマーカ像は、基準フレーム435への変換を計算するために使用され、基準フレームは基準面470の平面投影である。
【0022】
図5を参照するに、第1の計算実施例では、位置が既知であるマーカ451及び452の像(432、434)は基準面に453、454として変換される。このマーカの既知の座標及びマーカの変換後の像の座標を使用して、各カメラの光学的中心(カメラ420に対しては455)を計算することができる。上記は、第1の計算実施例に対するキャリブレーション処理が完了する。
【0023】
図6を参照するに、カメラの光学的中心の既知の位置を使用して、任意の未知の点は基準面にワープされ、基準面における像座標が求められる。各カメラから基準フレームにワープされる未知の点は、それぞれのカメラに対し像462、463となる。未知の点の位置は図示するように三角測量から求めることができる。
【0024】
第2の計算実施例では、未知の点の基準面に対する奥行きが決定されるが、マーカの基準面に対する奥行きが与えられたとすると、上記決定は、それぞれの画像における未知の点及び2つのキャリブレーション点の非同次座標の基準面への平面投影変換から開始する。以下の変数が定義される:pは、第1のカメラ100の画像における点を表し、qは、第2のカメラ105の画像における点を表し、iは第1のマーカを表し、jは第2のマーカを表す。第1のカメラ100の画像における点を表す形状行列pの行インデックスは、軸(X=1及びY=2)を表し、行列pの列インデックスは、対応する座標の点を表す。同様に、第2のカメラ105の画像中の点を表す形状行列qの行インデックスは、軸(X=1及びY=2)を表し、行列qの列インデックスは、対応する座標の点を表す。文字i及びjは、マーカ120及び125に対応する点を表し、文字kは未知の点を表す。従って、p(1,i)は、第1のカメラ100の画像における1つのマーカ点のX座標であり、q(2,j)は、第2のカメラ100の画像におけるもう一方のマーカ点のY座標である。文字Zは、点の奥行き、又は、基準面からの距離を表す。未知の点kのX及びY座標は、アパーチャのそれぞれのコーナ点を、基準画像における対応する点にマッピングする平面投影変換を計算することにより、基準フレームにおいて得られる。像点とエピポールとをつなぐ線は、各像に対し上記の変換を用いることにより変換される。これらの2つの線の交点は、基準面座標における未知の点の場所を示す。次に、未知の点の奥行きが、以下の行列の特異値分解(SVD)を用いることにより計算される。
【0025】
【表1】
Figure 2004506215
SVDのV行列の比u=V(6,9)/V(3,9)(即ち、6行9列目の値を3行9列目の値によって割り算する)は、未知の点の相対的奥行きに等しい。数値による奥行きは、式1から得られる。
【0026】
【数1】
Figure 2004506215
従って、各画像に対するアパーチャ150及び155のコーナにより定義付けられる4つの点の座標と、スクリーン135の内側面137からのマーカ120及び125の距離によって、両方のカメラの画像における任意の点の距離を計算することができる。尚、変換はキャリブレーション段階に計算可能であり、繰り返される必要はなく、変換はコンピュータに記憶される。
【0027】
尚、ブーム115の機能は、外側に向かって旋回する軸受け105に取付けられる単一の要素以外に様々な他の装置によっても行うことが可能である。例えばブームは、或いは、マーカを指定の位置に配置するようカメラ100及び105の前に直接延出する伸縮式の構造であってもよい。
【0028】
図2を参照するに、本発明は、カメラが、4つのマーク220をその上に有する基準面210を見るセットアップを用いて実施されてもよい。点は、レーザスキャナによって壁に投影されてよい。或いは、マークを含むスクリーンが、カメラの前方に一時的にセットアップされてもよい。後者の場合、スクリーンの位置が、基準面であり、全ての座標はスクリーンに対し決定される。
【0029】
図3を参照するに、本発明は、カメラ301及び302等に接続される画像プロセッサ305により実施され得る。用途プロセス330は、3次元情報を使用する。上述したように、用途プロセスは、ジェスチャを認識するユーザインタフェース、解析又はアニメーションに使用する3次元モデルの作成、又は、3次元形状又は3次元位置情報を使用可能な任意のプロセスである。カメラの各2次元画像における特定の特徴は、既知である様々な方法により選択可能である。様々な2次元画像解析及び分類技術を使用して、1つの画像における点を他の画像における点と特定する技術を使用してもよく、このトピックに関する議論は本願の範囲外である。同一の3次元特徴に対応する2つの画像における点を特定するために使用してもよい1つの例示的な方法は、各画像における特徴点を単に特定し、それぞれに対しカーネルにおいて2次元的な強度の相関を計算することである。画像プロセッサ305は、メモリ310、不揮発性記憶装置320、及び、出力装置340を使用してもよい。
【0030】
当業者には、本発明は、上述した例示的な実施例の詳細に制限されるものではなく、更に、本発明の目的又は本質的なアトリビュートから逸脱することなく他の特定の形式で具現化可能であることが明らかであろう。本発明は、従って、全ての面において制限的ではなく例示的であると考えるべきであり、本発明の範囲は上述の説明ではなく、むしろ特許請求の範囲により決定されるものであり、従って、特許請求の範囲の目的及びそれと等価の範囲における全ての変更は本願に包含されるものとする。
【図面の簡単な説明】
【図1A】
本発明の実施例を実施するためのジグを示す平面図である。
【図1B】
図1Aのジグを示す正面図である。
【図1C】
図1A及び図1Bのジグを示す側面図である。
【図1D】
図1A乃至図1Cのジグのアパーチャの輪郭を示す図である。
【図2】
本発明の様々な実施例に共通する特徴を示す図である。
【図3】
本発明を実施するために使用されてもよいコンピュータシステムを示す図である。
【図4】
三角測量法を支援するために使用されるキャリブレーション処理の段階を示す図である。
【図5】
三角測量法を支援するために使用されるキャリブレーション処理の段階を示す図である。
【図6】
三角測量法を支援するために使用されるキャリブレーション処理の段階を示す図である。

Claims (12)

  1. 視野が重なるようねらいが定められる少なくとも2つのカメラを用いて空間における未知の点の位置を決定する方法であって、
    上記カメラのそれぞれにおいて、基準面にある少なくとも4つの点に対応する像を生成し、上記基準面は上記カメラの上記画面のそれぞれに共通する段階と、
    上記少なくとも4つの点の上記像を、基準フレームにマッピングする平面投影変換を計算し、上記基準フレームは上記基準面の投影である段階と、
    上記カメラのそれぞれにおいて、上記基準面に対する位置が既知である少なくとも2つのキャリブレーションマーカの像、及び、未知の点の像を生成する段階と、
    上記少なくとも2つのキャリブレーションマーカの上記像、及び、未知の点の上記像のそれぞれに対し上記変換を行い、上記画像面におけるそれぞれの点を画成する段階と、
    上記未知の点の少なくとも奥行き、及び、上記基準フレームに変換される上記未知の点及び上記少なくとも2つの点の座標に応答して、上記基準面からの上記未知の点の少なくとも距離を算出する段階とを含む方法。
  2. 上記算出段階は、上記キャリブレーション点の位置に応答して、上記基準面からの上記未知の点の距離を算出する段階を含む請求項1記載の方法。
  3. 上記点は、上記基準面からの上記キャリブレーション点の距離を示す請求項2記載の方法。
  4. 上記生成段階は、上記キャリブレーションマーカを上記重なる視野に配置する段階を含む請求項1記載の方法。
  5. 上記配置段階は、上記マーカを有するブームを延長する段階を含む請求項4記載の方法。
  6. 上記位置は、上記基準面からの距離だけを含む請求項1記載の方法。
  7. ストラップダウン式3次元再構成システムであって、
    少なくとも2つのカメラを支持するジグを含み、
    上記ジグは、上記少なくとも2つのカメラによって可視となる位置にある少なくとも2つのキャリブレーションマーカを支持する構造体を有し、
    上記ジグは更に、上記少なくとも2つのカメラのそれぞれの視野に少なくとも4つの基準マーカを支持し、上記基準マーカの全ては共通の面にあるシステム。
  8. 上記4つの基準マーカは、上記ジグのスクリーン(135)にあるアパーチャのコーナである請求項7記載のシステム。
  9. 上記4つの基準マーカは、スクリーン(210)に投影される請求項7記載のシステム。
  10. 上記カメラから上記像を受信するよう接続され、上記キャリブレーションマーカに対応する位置データに応答して、上記カメラのそれぞれにおいて可視となる点の位置を計算するようプログラムされる画像処理コンピュータを更に含む請求項7記載のシステム。
  11. 視野が重なるようねらいが定められる少なくとも2つのカメラを用いて空間における未知の点の位置を決定する方法であって、
    上記カメラのそれぞれにおいて、基準面にある少なくとも4つの点に対応する像を生成し、上記基準面は上記カメラの上記画面のそれぞれに共通する段階と、
    上記少なくとも4つの点の上記像を、基準フレームにマッピングする平面投影変換を計算し、上記基準フレームは上記基準面の投影である段階と、
    上記カメラのそれぞれにおいて、上記基準面に対する位置が既知である少なくとも2つのキャリブレーションマーカの像、及び、未知の点の像を生成する段階と、
    上記平面投影変換によって、上記キャリブレーションマーカの上記像のそれぞれを変換する段階と、
    変換段階の結果の応答して光学的中心を算出する段階と、
    上記カメラのそれぞれにおいて、未知の点の像を生成し、上記算出段階の結果に応答して、上記未知の点の位置を計算する段階とを含む方法。
  12. 上記計算段階は、上記平面投影変換を用いて上記未知の点の上記像を変換する段階を含む請求項11記載の方法。
JP2002518423A 2000-08-07 2001-07-23 3次元再構成のためのストラップダウンシステム Pending JP2004506215A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US09/633,760 US6993179B1 (en) 2000-08-07 2000-08-07 Strapdown system for three-dimensional reconstruction
PCT/EP2001/008536 WO2002013140A2 (en) 2000-08-07 2001-07-23 Camera calibration for three-dimensional reconstruction of objects

Publications (1)

Publication Number Publication Date
JP2004506215A true JP2004506215A (ja) 2004-02-26

Family

ID=24541020

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002518423A Pending JP2004506215A (ja) 2000-08-07 2001-07-23 3次元再構成のためのストラップダウンシステム

Country Status (6)

Country Link
US (1) US6993179B1 (ja)
EP (1) EP1354295A2 (ja)
JP (1) JP2004506215A (ja)
KR (1) KR20020035652A (ja)
CN (1) CN1561502A (ja)
WO (1) WO2002013140A2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008536112A (ja) * 2005-03-30 2008-09-04 ザ・トラスティーズ・オブ・ザ・ユニバーシティ・オブ・ペンシルバニア 撮像デバイスの位置特定を行うシステムおよび方法

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7058204B2 (en) * 2000-10-03 2006-06-06 Gesturetek, Inc. Multiple camera control system
DE10049926A1 (de) * 2000-10-07 2002-04-11 Robert Massen Kamera zur kostengünstigen Erfassung der Raumform von Körpern
FI111755B (fi) 2001-11-23 2003-09-15 Mapvision Oy Ltd Menetelmä ja järjestelmä konenäköjärjestelmän kalibroimiseksi
DE102004007455A1 (de) * 2004-02-13 2005-09-01 Corpus.E Ag Optische Erfassung der Raumform von Körpern und Körperteilen mit teilweise nicht einsehbaren Partien
CA2568852C (en) * 2004-06-03 2013-01-22 Japan Science And Technology Agency High-speed high-accuracy matrix singular value decomposition method, program, and device
EP1739622B1 (en) * 2005-06-28 2013-08-14 Canon Kabushiki Kaisha Image feature identification with two cameras
US7667762B2 (en) * 2006-08-01 2010-02-23 Lifesize Communications, Inc. Dual sensor video camera
US7769205B2 (en) * 2006-11-28 2010-08-03 Prefixa International Inc. Fast three dimensional recovery method and apparatus
CN101763632B (zh) * 2008-12-26 2012-08-08 华为技术有限公司 摄像机标定的方法和装置
CN101582165B (zh) * 2009-06-29 2011-11-16 浙江大学 基于灰度图像与空间深度数据的摄像机阵列标定算法
WO2011047505A1 (en) * 2009-10-20 2011-04-28 Hewlett-Packard Development Company, L.P. Data processing system and method
JP5713624B2 (ja) 2009-11-12 2015-05-07 キヤノン株式会社 三次元計測方法
US9229106B2 (en) 2010-08-13 2016-01-05 Ryan Dotson Enhancement of range measurement resolution using imagery
CN102074005B (zh) * 2010-12-30 2012-09-05 杭州电子科技大学 一种面向兴趣区域的立体匹配方法
US20130016186A1 (en) * 2011-07-13 2013-01-17 Qualcomm Incorporated Method and apparatus for calibrating an imaging device
WO2013103410A1 (en) 2012-01-05 2013-07-11 California Institute Of Technology Imaging surround systems for touch-free display control
WO2014107434A1 (en) 2013-01-02 2014-07-10 California Institute Of Technology Single-sensor system for extracting depth information from image blur
CN103606155B (zh) * 2013-11-27 2016-09-28 中国科学院西安光学精密机械研究所 摄像机视场标定方法和装置
US10478706B2 (en) * 2013-12-26 2019-11-19 Topcon Positioning Systems, Inc. Method and apparatus for precise determination of a position of a target on a surface
CN105160672A (zh) * 2015-08-31 2015-12-16 国网山东省电力公司淄博供电公司 基于现场照片三维重构入侵识别的输电线路防外破方法
TWI604417B (zh) * 2016-08-31 2017-11-01 國立交通大學 估算對極幾何模型的方法及其系統
CN109141344A (zh) * 2018-06-15 2019-01-04 北京众星智联科技有限责任公司 一种基于双目摄像头精准测距的方法及系统
JP7139953B2 (ja) * 2019-01-08 2022-09-21 オムロン株式会社 三次元形状測定装置、三次元形状測定方法及びプログラム
CN110322572B (zh) * 2019-06-11 2022-09-09 长江勘测规划设计研究有限责任公司 一种基于双目视觉的水下涵隧内壁三维信息恢复方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4099880A (en) * 1976-08-11 1978-07-11 Tsutomu Kano Method and an apparatus for stereoscopic measurement utilizing a three-dimensional image
US5386299A (en) 1993-03-12 1995-01-31 Ncr Corporation Method and appartus for automatically calibrating cameras used for document scanning
EP0852732A1 (en) * 1995-09-21 1998-07-15 Omniplanar, Inc. Method and apparatus for determining position and orientation
US6081273A (en) 1996-01-31 2000-06-27 Michigan State University Method and system for building three-dimensional object models
IL127534A (en) * 1996-06-13 2001-08-26 Leuven K U Res & Dev Method and system for acquiring a three-dimensional shape description
DE19721903C1 (de) * 1997-05-26 1998-07-02 Aicon Industriephotogrammetrie Verfahren und Anlage zur meßtechnischen räumlichen 3D-Lageerfassung von Oberflächenpunkten
JP3728900B2 (ja) * 1997-10-17 2005-12-21 ソニー株式会社 キャリブレーション方法及び装置、並びにキャリブレーション用データ生成方法
US6437823B1 (en) * 1999-04-30 2002-08-20 Microsoft Corporation Method and system for calibrating digital cameras
WO2005017450A1 (en) * 2003-08-11 2005-02-24 Multi-Dimension Technology, Llc Calibration block and calibration system for 3d scanner

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008536112A (ja) * 2005-03-30 2008-09-04 ザ・トラスティーズ・オブ・ザ・ユニバーシティ・オブ・ペンシルバニア 撮像デバイスの位置特定を行うシステムおよび方法

Also Published As

Publication number Publication date
US6993179B1 (en) 2006-01-31
WO2002013140A3 (en) 2003-08-21
WO2002013140A2 (en) 2002-02-14
KR20020035652A (ko) 2002-05-13
EP1354295A2 (en) 2003-10-22
CN1561502A (zh) 2005-01-05

Similar Documents

Publication Publication Date Title
JP2004506215A (ja) 3次元再構成のためのストラップダウンシステム
Zhou et al. Complete calibration of a structured light stripe vision sensor through planar target of unknown orientations
US6816187B1 (en) Camera calibration apparatus and method, image processing apparatus and method, program providing medium, and camera
US8208029B2 (en) Method and system for calibrating camera with rectification homography of imaged parallelogram
Rashidi et al. Generating absolute-scale point cloud data of built infrastructure scenes using a monocular camera setting
US20150116691A1 (en) Indoor surveying apparatus and method
CN107025663A (zh) 视觉系统中用于3d点云匹配的杂波评分系统及方法
US20080246762A1 (en) Method for Generating Three-Dimensional Shape Data, Apparatus for Generating Three-Dimensional Shape Data, and Three-Dimensional Shape Data Generating Program
US11015930B2 (en) Method for 2D picture based conglomeration in 3D surveying
CN108805936A (zh) 摄像机外参标定方法、装置和电子设备
McIvor Nonlinear calibration of a laser stripe profiler
CN113034612A (zh) 一种标定装置、方法及深度相机
Bergström et al. Virtual projective shape matching in targetless CAD-based close-range photogrammetry for efficient estimation of specific deviations
US6917700B2 (en) Method and apparatus for the determination of the contour of sheet metal blanks
Wohlfeil et al. Automatic camera system calibration with a chessboard enabling full image coverage
JP2003296708A (ja) データ処理方法、データ処理プログラムおよび記録媒体
Yang et al. Single-shot extrinsic calibration of a generically configured RGB-D camera rig from scene constraints
CN114926538A (zh) 单目激光散斑投影系统的外参数标定方法和装置
Uematsu et al. Vision-based registration for augmented reality with integration of arbitrary multiple planes
Siltanen et al. Automatic marker field calibration
WO2021111613A1 (ja) 3次元地図作成装置、3次元地図作成方法、及び3次元地図作成プログラム
CN113008135A (zh) 用于确定空间中目标点位置的方法、设备、电子装置及介质
Collins Projective reconstruction of approximately planar scenes
JP2000028355A (ja) 3次元画像処理装置
Nowak et al. Point Clouds With Color: A Simple Open Library for Matching RGB and Depth Pixels from an Uncalibrated Stereo Pair