JP2001512241A - 走査装置および方法 - Google Patents

走査装置および方法

Info

Publication number
JP2001512241A
JP2001512241A JP2000505603A JP2000505603A JP2001512241A JP 2001512241 A JP2001512241 A JP 2001512241A JP 2000505603 A JP2000505603 A JP 2000505603A JP 2000505603 A JP2000505603 A JP 2000505603A JP 2001512241 A JP2001512241 A JP 2001512241A
Authority
JP
Japan
Prior art keywords
image
dimensional
camera
images
pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000505603A
Other languages
English (en)
Inventor
フロクハート、クリストファー、ピーター
ファウラー、ガイ、リチャード、ジョン
Original Assignee
トリコーダー テクノロジー ピーエルシー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by トリコーダー テクノロジー ピーエルシー filed Critical トリコーダー テクノロジー ピーエルシー
Publication of JP2001512241A publication Critical patent/JP2001512241A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/245Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures using a plurality of fixed, simultaneously operating transducers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2545Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with one projection direction and several detection directions, e.g. stereo
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/147Details of sensors, e.g. sensor lenses
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/12Acquisition of 3D measurements of objects

Abstract

(57)【要約】 物体(O)の3次元形状を取得するための装置が単眼(図9)または立体(図8)デジタルカメラ装置を含み、このカメラは、重複画像から3次元情報の導出を容易にするためか(前者の場合)、または3次元データセットの組合せ(後者の場合)を容易にするために、この物体に対するカメラの位置および/または向きを示す慣性センサ(11)を随意に備える。単一の自由に動き得るカメラを利用する変形(図10、図13および図14)では、この慣性センサが不要になりまたは相対化移転を決めるためだけに使い、および少なくともこの物体(O,O’)に対するカメラの並進を画像(I)で点のネットワーク(a,b,c;a’,b’,c’)を追跡することによって決める。他の実施例(図3、図4および図6)では、画像処理装置が収束するエピポーラ線(EPa〜EPd)を利用してこれらの画像の相関する領域の探索を束縛し、または相関領域(P,P’)を両画像でそれらと同じトポロジイから識別できる投影フラクタルパターン(図15および図15A)を利用する。

Description

【発明の詳細な説明】
【0001】 本発明は、物体の3次元形状、大きさ、または、例えば色のような、その他の
3次元形態を取得するための走査装置および方法に関する。本発明は、特に手持
ち式またはその他の自由に動かし得る3次元スキャナに関するがこれのみに関す
るわけではない。
【0002】 我々が知る限り、二つの手持ち式スキャナ、即ち、US4,627,734(
シュルツ)とそれに相当するEP−A−553,226に記載されているもの、
および我々自身のPCT/GB95/0194とそれに相当する特許GB2,2
92,605Bに記載されているものしか知られていない。シュルツのスキャナ
装置は、スキャナの瞬間位置および向きを決めるために固定光学系を利用し、我
々のPCT出願のスキャナの一実施例は、その位置および向きを決めるためにス
キャナ上の慣性センサを利用する。他の実施例は、別々の個々に取得した表面部
分を全体の3次元表面記述に組合わせるためにソフトウェア技術を利用する。シ
ュルツの特許と我々自身のPCT出願の両方が、走査される物体上に投影した光
学パターンを検出する傾斜した光検出器アレイによって深さ情報を直接取得する
光学装置を有するスキャナを開示する。
【0003】 光学パターンの投影を要せず、且つ走査される物体に関して自由に動かし得る
一つのスキャナがUS4,993,836(フルハシ外)に開示されていて、そ
れは、光軸が平行で、視野が走査される物体の領域で重複する、2台の離間した
カメラを含む写真測定装置を使用する。走査される物体上の点の任意の線をこれ
らのカメラのそれぞれの像面上に2本の線として投影し、このカメラ装置の幾何
学的構成がこの線の3次元形状を決定できるようにする。走査される物体の回転
後に同様な方法で得た重複する線をそれらの重複領域で相互に関係させることに
よって組合わせて、この物体の表面の一つの断面を形成する閉ループを導出し、
多数のそのような断面ループを導出し且つ組合わせてこの物体の表面のワイヤフ
レーム記述を作る。好適実施例では、この物体が大きな鍛造品で、それを回転し
、カメラは固定して1メートル離した。手持ち式スキャナに参考文献はない。
【0004】 フルハシ外の幾何学的計算の原理を本発明の幾つかの実施例で使用し、以下の
図1および図2に示す。
【0005】 それぞれ、XY(水平)平面およびZY(垂直)平面内の2台のカメラ1およ
び2を示す、図1および図2を参照して、各カメラは、焦点距離aの集束レンズ
Lおよび感光性結像面Iを含み、各カメラの光軸は、Z軸から距離Sだけ離間し
ている。両カメラの視野内の物体上の任意の点(X,Y,Z)を、光線10、1
0”および20、20”によって示すように、各カメラの結像面I上に結像する
。カメラ1は、この点(X,Y,Z)をこのカメラシステムの局部座標の点(x
1,−y)に結像し、カメラ2は、この点を局部座標の点(−x2,−y)に結
像する。
【0006】 非偏向光線10、10’および10”によって形成する相似三角形を考えて: (S−X)/Z=x1/a (i) (X+S)/Z=−x2/a (ii) Y/Z=−y/a (iii) 従って、Z=2Sa/(x1−x2) (iv) Y=Z(x1−x2)/2a) (v) Y=−yZ/a (vi) 従って、座標X、YおよびZをx1、x2およびyから決定できる。
【0007】 フルハシ外では、点(X,Y,Z)が焦点距離に比べて比較的遠いと仮定する
が、実際には上の解析は、例えば、レンズLの絞り込みの結果として、焦点が合
っているならば、点(X,Y,Z)がこれらのカメラから遠いかどうかに関係な
く適用できる。
【0008】 画像の相関関係がフルハシには何も開示されていない。
【0009】 複雑な形状の物体の場合に起きる問題は、一つのカメラの結像面上の特定の点
が他のカメラの結像面上の特定の点と対応するかどうか(即ち、これらの点が共
にこの物体の表面上の同じ点の共役点であるかどうか)を決めることが困難なこ
とである。例えば、物体の張出し領域が下に横たわる領域を覆い隠して、それが
一つのカメラの視野にしか現れないかも知れない。この問題は、特に、これらの
カメラの間隔が物体からの距離に比べて比較的大きいときに起きそうである。し
かし、この間隔を物体からの距離に対して減少すると、幾何学的精度が損われる
【0010】 WO91/15732(ゴードン)は、レーザスキャナが一連のストライプを
走査される物体上に投影し、左および右のカメラがこの物体からの歪んだストラ
イプを検出する装置を開示する。一つのカメラの結像面の与えられた輝点を物体
の表面上の照明した点と単純に関連させることは、どのストライプがその点を照
明するのか分らないので、できないと認識されている。
【0011】 従って、一つのカメラの結像面のストライプの任意の画素を選択し、カメラレ
ンズの中心を通って線を引き、レンズがこの線を空間に投影する。次に、この線
を他のカメラの結像面上に投影し、この他のカメラの結像面にできたエピポーラ
線が、やはりその結像面に結像した多数のストライプを刻む。これらの交点の何
れか一つが原理上上述の任意の画素と対応する。全ての交点を空間に投影し戻し
て、できた線のどれがレーザプロジェクタからのレーザストライプと交差するか
を決めることによって、対応する特定の点を見付ける。
【0012】 上記の装置は、投影したパターンが必要であり、もし、最後に述べた投影点の
何れかが二つ以上のレーザストライプを切るか或いは殆ど切るならば、点の相関
に幾らかの不確定性が生ずるかも知れないという欠点がある。
【0013】 この装置は、上述の張出しが損う精度の問題にも影響されやすい。
【0014】 ちなみに述べてもよい、高精度の可能性がある一つの他の種類のスキャナは、
モアレ縞パターンの検出に基づく。そのようなスキャナの一つが我々の同時係属
特許出願PCT/GB95/02431(ムーア)に開示されている。
【0015】 本発明の一つの目的は、投影パターンが必要ないスキャナ装置を提供すること
である。
【0016】 ある実施例のもう一つの目的は、走査される物体に対するスキャナの運動をこ
の物体の画像の処理によって決め、慣性センサのようなハードウェアを要しない
(もっとも、慣性センサの出力をそのような処理を補足するために使うことがで
きるが)スキャナ装置を提供することである。
【0017】 一つの態様で、本発明は、物体の3次元形状を取得するために請求項1に記載
のような装置を提供する。
【0018】 もう一つの態様で、本発明は、物体の3次元形状を取得するために請求項8に
記載のような装置を提供する。
【0019】 もう一つの態様で、本発明は、請求項11に記載のような、重複画像を処理す
る方法を提供する。
【0020】 もう一つの態様で、本発明は、請求項17に記載のような、画像処理装置を提
供する。
【0021】 もう一つの態様で、本発明は、請求項24に記載のような、物体の3次元形状
を取得するための装置を提供する。
【0022】 これらのカメラの“視点”は、物体に対するカメラの位置および/または向き
の差によって特徴付けることができる。
【0023】 本発明の更なる独立の態様は請求項26、27、28および32に請求されて
いる。
【0024】 本発明の好適実施例を添付の図面の図1ないし図19を参照して、例としてだ
け、以下に説明する。
【0025】 図1および図2は、既に参照されており、第1実施例の光学系に適用できる。
一つのカメラ結像面Iの与えられた点x1,yが他のカメラの結像面の像点x2
,yと関連付けられる(即ち、両点が物体の表面上の共通点X,Y,Zの共役点
である)とすると、この点の座標X,Y,Zを見付けることができる。しかし、
一般的に、この相関付けは、2台のカメラ1および2のそれぞれの結像面での二
つの画像の何らかの処理なしには行えない。
【0026】 図3は、カメラ1の結像面の与えられた点A1、B1、C1およびD1と相関
する、カメラ2の結像面Iの点A1、B2、C2およびD2を探す際の予備段階
を図解する。物体の表面上の点A、B、CおよびDが表面領域Sを画定し、両カ
メラによって上記の点の組として結像される。非偏向光線a、b、cおよびdが
AをA1に、BをB1に、CをC1におよびDをD1に結合し、カメラ2の結像
面I上に結像されたとき、点X2’で交わる4本のエピポーラ線、それぞれ、E
aからEPdを形成する。これは、カメラ1のレンズLの中心X1の共役点であ
る。これらのエピポーラ線の位置は、物体の位置および向きと独立であり、カメ
ラ2の画像領域A1、B2、C2、D2の頂点がこれらの上になければならない
【0027】 図4は、これらのエピポーラ線の構成を示す。構成線CONSTは、レンズL
の光学中心X1およびX2を結合するように構成する。すると、線aがエピポー
ラ線EPa上に投影し、それらの点A2およびX2’が点X2aと共に、三角形 A,X1,X2と幾何学的に相似の三角形を形成することが分る。他のエピポー
ラ線も同様に構成でき、それらがX2から距離2S(X1とX2の間の間隔)の
点X2’で交差することに気付くだろう。
【0028】 物体Oの位置の不確実性を図5および図6で図解する。もし、この物体が位置
Oにあれば、カメラ1の画像の点3および4は、それぞれ、カメラ2の画像の点
3’および4’と相関する。しかし、もし、この物体が位置Oにあれば、それら
は、それぞれ、点5および6と相関する。
【0029】 さて、図5を参照して、簡単のために、上記の点を画定する物体Oの領域Sが
矩形である(即ち、互いから垂直に離れた二つの点3および二つの点4がある)
とすると、位置Oでカメラ1の画像領域3、3、4、4がカメラ2の画像領域7
と相関する。しかし、両画像領域7および8の頂点は、点3、3、4、4のエピ
ポーラ線EP上にある。一般的に、相関する領域(例えば、7および8)の範囲
に対応する物体の有り得る位置の範囲があり、しかしそれらは全てエピポーラ線
EPの組上にあり、それらの線の位置は、完全にカメラの幾何学的構成によって
決り、物体の位置と独立である。
【0030】 物体の真の位置は、頂点がそれぞれのエピポーラ線EP上にある種々の矩形画
像領域を選択し、それらを画像領域3、3、4、4と比較するアルゴリズムによ
って見付けることができる。最も良く適合する、これらのエピポーラ線上にある
カメラ2の画像領域をカメラ1の画像領域3、3、4、4と真に相関するものと
見做し、それによってこのカメラ装置を参照して物体の位置を定め、画像領域S
上の各点の3次元座標も図1および図2の幾何学的手順によって決められるよう
にする。
【0031】 遙かに緩い相関画像の遙かに緩い拘束画像領域(例えば、空中調査中に撮った
写真)を相関付けるための適当なアルゴリズムは既に知られている、例えば、グ
ルーエンのアルゴリズム(グルーエン、AW“適合型最小自乗相関:強力画像整
合技術”写真測量、リモートセンシングおよび地図作成法のS Afr J 1
4巻3号(1985)およびグルーエン、AWおよびバルトサビアス、EP“数
値地形モデル生成”国際アーチ写真測量25巻3号(1986)p254参照)
並びに特に、オットーおよびチャウ“地形画像整合用領域拡張アルゴリズム”イ
メ−ジ・アンド・ビジョン・コンピューティング17巻2号1989年5月p8
3に記載されている、それへの“領域拡張”修整で、それら全てを参考までにこ
ゝに援用する。
【0032】 本質的に、グルーエンのアルゴリズムは、適合型の最小自乗相関アルゴリズム
で、典型的には15×15から30×30画素の二つの画像パッチを、これらの
画像の座標間にアフィン幾何学歪みを許容し(即ち、本来隣接する点がこの変換
で隣接するまゝである伸長または圧縮)且つこれらの画像パッチの画素のグレー
レベル間に放射計測歪みを許容することによって相関付け(即ち、大きな左と右
の画像から、これらのパッチ間に最も安定した整合を与えるような方法で選択す
る)、相関付けした画素間の食違いを表す線形方程式の過剰拘束の組を作り、こ
れらの食違いを最小にする最小自乗解を見付ける。
【0033】 グルーエンのアルゴリズムは、本質的に会話形アルゴリズムで、正しい解に収
束する前に、送込むべき相関に対する妥当な近似を要求する。オットーおよびチ
ャウの領域拡張アルゴリズムは、一つの画像の点と他の画像の点の間の大体の整
合で始り、グルーエンのアルゴリズムを使ってより正確な整合を作り、且つ幾何
学的および放射計測的歪みパラメータを生成し、およびこれらの歪みパラメータ
を使って初期整合点の近隣領域の点に対する近似整合を予測する。これらの近隣
点は、あらゆる画素に対してグルーエンのアルゴリズムを実行するのを避けるた
めに、例えば、5または10画素のグリッド間隔を有するグリッド上の四つの隣
接する点を選ぶことによって選択する。
【0034】 この初期近似整合を生成するために使用する最初の点の対は、例えば、大体整
合する画画像にパターンまたは形態を探し、整合するパターンまたは形態の対内
で輪郭のはっきりした対を選ぶことによって見付けることができる。これは、人
間の介在なしに、適当なソフトウェアまたはファームウェアによって行うことが
できる。
【0035】 整合画像領域を個々で説明したようにエピポーラ線上にあるように限定するこ
とによって、このアルゴリズムを遙かに速く且つ不確実性少なく収束するように
できる。これは、重要な利点である。
【0036】 本実施例で表面領域Sの完全な3次元記述を導出するための手順を図7に要約
する。
【0037】 ステップ100で、パターン、例えば、3、3、4、4(図6)が一つのカメ
ラの結像面に選択され、その頂点の位置を定め、識別される。このパターンの形
状は、矩形、平行四辺形、正三角形、正六角形または繰返して光検出器アレイの
ほゞ全面積を覆えるその他の形態であるのが好ましいが、必須ではない。
【0038】 ステップ110で、これらの頂点のエピポーラ線(例えば、図6のEP)が他
のカメラの結像面上へ投影される。これらのエピポーラ線が1点(それは、必ず
しも他のカメラの感光性検出器内になくてもよいが、それの他のカメラの結像面
での座標はもし必要なら外挿法で見付けることができる)に収束し、ステップ1
00の選択したパターン境界と類似の形状を有するパターン境界の範囲を画定す
る。
【0039】 ステップ120で、他のカメラの結像面で可能な対応するパターン頂点の組が
、ステップ100で選択した形状(例えば、上記実施例の三角形)に対応するパ
ターン形状を選択し、その頂点を上記エピポーラ線に合わせることによって決め
られる。例えば、矩形パターンの異なる伸びおよびサイズの範囲が生ずる。
【0040】 ステップ130で、これらのパターンの各々がステップ100で選択したパタ
ーンと比較され、最も近く整合するパターン(例えば、画像密度分布、色分布、
コントラスト分布(即ち、画像密度の変化割合の分布)または上記パラメータの
何れかの重み付けした平均)が(例えば、グルーエンのアルゴリズムまたは類似
のアルゴリズムを使って)ステップ100のパターンと最も良く相関するパター
ンとして選択される。次に、この整合パターン内の個々の画素を互いに相関付け
、スキャナに対するこれらの画素の3次元座標を、以下に図12および図13を
参照して示すように、決めることができる。
【0041】 ステップ140で、上記ステップ100から130を第1カメラの結像面で全
ての他のパターンに対して繰返し、従って各カメラの光検出器アレイの全画素を
相関付ける。
【0042】 ある場合には、例えば、物体のある領域の張出しがこの物体表面のある領域を
両カメラによっては見えないようにする結果として、ステップ120で選択した
パターンのどれもステップ100で選択したパターンに対応しないことに注意す
べきである。そのような場合、このプロセッサは、相関が不可能であり、新しい
パターンを選択する(ステップ100)ことを報告する。
【0043】 ステップ100で選択したパターンのサイズは、重要ではないが、選択したパ
ターンの幾つかの画素は、他のカメラの視野内のパターンと相関するが他の画素
は相関せず、二つのパターンの不正確な整合に繋がる可能性を最小にするために
、好ましくは、この物体の大抵の表面形態より小さくあるべきである。このサイ
ズは、ユーザが選ぶこともできる。
【0044】 上記実施例の変形を図8に更に詳しく示す。手持ち式スキャナ13は、3軸振
動ジャイロスコープ装置11(それは相互に垂直な軸θx、θyおよびθz周りの 回転速度を検出する)および加速度計12(それは対応する軸X、YおよびZに
沿う加速度を検出する)を含む慣性センサ装置を備える。これらのセンサからの
出力信号は、我々の付与された特許GB2,292,606B(その全開示を参
考までにこゝに援用する)の図2に示すものと類似のマイクロプロセッサ装置μ
Pによって処理し、結果の位置および向き情報を随意に着脱式である(小型ハー
ドディスクMのような)メモリに記憶する。この位置および向きの情報は、この
プロセッサから両方向出力ポートを介して線、無線または光リンクによってコン
ピュータPCへ出力することもできる。コンピュータPCは、従来のRAM、ハ
ードディスクおよびマイクロプロセッサを備え、図3から図7に関連して既に言
及した処理並びに後に図10から図15に関連して説明する処理を行うように配
設されている。この装置は、再充電可能電池Bで駆動され、カメラ、加速度計お
よびジャイロスコープ装置からのデータの取得を手動操作トリガーボタンTRに
よって制御する。
【0045】 マイクロプロセッサからの位置および向き情報は、図7の処理を実行するソフ
トウェアを案内するために、特にステップ130で整合パターンを探す際に使用
することができる。しかし、一旦整合を見付け、2台のカメラの画像が相関付け
られると、スキャナ13に関する物体Oの位置および向きが確定することに注意
すべきである。この位置および向きは、ジャイロスコープおよび加速度計から得
たものより正確そうである。何故なら、後者はドリフトを受けやすいからである
。従って、画像相関ソフトウェアの案内の為だけにジャイロスコープおよび加速
度計から位置および向き情報を使うことが好ましい。
【0046】 原則として、物体の全表面を1走査で走査できるが、ある場合には、重複走査
から得た表面部分を組合せることが必要かも知れず、この目的には、我々の同時
係属特許出願PCT/GB95/01994で開示したプロセスを使うことがで
きる。
【0047】 スキャナ13は、物体Oを照明するための光源LS(例えば、ストロボ光)お
よび随意に、適当な光学パターンを物体Oの表面に投影することによって追加の
深さ情報またはその他の表面座標情報を導出するために使える、補助レーザ装置
LAも坦持し:例えば、それは我々のPCT/GB95/01994の図1また
は図3に開示するものに類似する三角測量装置でもよく、またはモアレ装置でも
よい。
【0048】 レーザ装置LAが三角測量装置である、上記実施例の更なる重要変形では、カ
メラの光軸を、三角測量の被写界深度の中心に相当する距離にある、そのような
投影パターンの中心で交差するように配置し、カメラを、三角測量と同時にまた
は交互に、物体の真のモノクロまたはカラー表現を得るために使う。これは、三
角測量によって得た輪郭をカメラからの画像データを使って再現させるために、
三角測量によって獲得した3次元画像上に重畳することができる。この様にして
、輪郭以外の表面形態、例えば、表面印刷および色を取込むことができる。
【0049】 光源LSは、大抵の環境照明条件で、物体Oのために安定した入射光を与える
ために使うことができる。それは、三角測量プロセスとの干渉を避けるために、
カメラによる画像捕捉と同期することができる。
【0050】 ジャイロスコープおよび加速度計から得た位置および姿勢データは、カメラお
よび三角測量装置からの画像データに連結して、カメラおよび三角測量装置から
のデータをリアルタイムでまたはオフラインで処理できるようにし、三角測量信
号による記述が不十分な領域をカメラからの画像データによって補正させ、また
はその逆にする。
【0051】 その上、カメラが検出した表面形態(即ち、画素の何らかの明確に区別できる
パターン)またはそのような表面形態のグループを、スキャナ13を物体Oに対
して動かすときに追跡することができ、そのような形態の運動および/または歪
みの傾向、および/またはそのような表面形態の運動または間隔の傾向を、スキ
ャナの次の位置および向きを予測するために、従って2台のカメラからの画像を
相関付ける際にソフトウェアを案内するために使うことができる。この情報は、
加速度計およびジャイロスコープからの加速度および回転速度データを補正する
ために使うこともできる。
【0052】 カメラ1および2を使う立体的結像と三角測量の組合せが、広範囲の照明条件
で多種多様な表面トポロジイのためのレンジデータを作ることができるシステム
を提供することに注目すべきである。二つの方法が異なる照明条件でそれらの適
用性において、大きく相補的であるので、一つの方法によって導入されるエラー
を他からのデータによって大きく補正することができる。
【0053】 我々のPCT/GB95/01994で開示したポストプロセシング法を使っ
て、三角測量装置またはモアレ装置またはカメラ1および2からの出力から得た
別々の取得表面領域を組合わせることができる。そのような方法は、そのような
方法を要する、上に説明したプロセスの何れかで使うための位置および向きのデ
ータを提供するために使うこともできる。
【0054】 一実施例では、共通プロセッサをa)2台のカメラ1および2からの立体的デ
ータを(例えば、本出願の図7のプロセスにより)処理するため、b)フレーム
間の形態(画素の何らかの明確に区別できるものでよい)のグループを追跡する
ことによって物体に対するスキャナの位置および/または向きを予測するため、
並びにc)三角測量データ(例えば、我々のPCT/GB95/01994の図
1または図3の光学装置によって得たような)を処理するために使う。それぞれ
、S、FおよびTで示すこれらのプロセスは、このプロセッサのフレーム率およ
び処理能力によって比率変動で逐次実行することができる。例えば、60フレー
ム/秒で順序が: STTFTTFTで比が1:2:6になり、 30フレーム/秒で順序が: STFTFTで比が1:2:3になる。
【0055】 図9は、物体Oを追跡しその形状を決めるために、単一カメラだけおよびマイ
クロプロセッサμPを利用する、更なる実施例13’を示す。
【0056】 この実施例は、図1および図2で概説し、図1から図8の実施例が利用したの
と類似の立体画像処理を利用するが、物体に対するスキャナ13’の異なる位置
および向きで得た画像を、この画像をその結像面Iで追跡することによって得た
スキャナの位置および向きについての情報を使って、立体的に組合わせる。この
処理は、このスキャナから出力データを受けるコンピュータPCによって実行さ
れる。
【0057】 これを図10に示す。物体O(図示を容易にするために多面体とする)がスキ
ャナに対して位置Oから位置O’まで動き、面ABCを結像面I上に最初画像a
bc(位置O)として、次に画像a’b’c’(位置O’)として投影する。非
偏向光線Aa’、Bb’およびCc’を画像a’b’c’の位置およびカメラの
幾何学的構成の知識からだけで構成できる。確定したサイズおよび形状の三角形
ABCは、レンズLの光学中心を越える1位置および向きだけでこれらの光線に
合わせることができる。従って、物体の位置および向きを追跡できる。
【0058】 上記の解析は、物体の面ABCのサイズおよび向きが最初に分っていると仮定
することに注意すべきである。しかし、これは、物体に対するスキャナの運動を
追跡するために本質的ではない。それで、光線Aa、BbおよびCcは、カメラ
の近くに位置する面A’B’C’(図示の通り)を有する小さな物体と一致する
。しかし、(その最初の向きが図示の通りだとすると)位置O’とOの間の物体
の検出した向きでの差が同じであり、スキャナの運動距離は、仮定した物体サイ
ズに比例するだろう。物体の形状は、影響されないだろう。
【0059】 勿論、物体の最初の位置Oが光線Aa、BbおよびCcと一致する唯一の位置
ではない。例えば、これらの光線は、面A’BCとも一致するだろう。しかし、
この面のサイズおよび形状は、物体とスキャナが互いに対して動いても、不変で
あるので、多面体の面の(同様に多面体の)面ABCに対する向きおよび位置も
変らず、画像abc/a’b’c’の追跡運動によって決る位置OとO’の間の
物体の相対運動は、影響されないだろう。
【0060】 上記の例で、点abcは、物体の角から導出する。しかし、原則として、物体
Oの運動およびスキャナ13’に対する回転を追跡するためには、この物体上の
三つ以上のはっきりと決る点の組または点のグループのどれでも追跡できる。実
際には、スキャナが通常動き、物体が静止しているだろう。
【0061】 追跡される点が次第にカメラの感光性アレイの縁を離れて動くので、スキャナ
に対する物体の運動をこの感光性アレイのサイズに比べて大きい距離に亘って追
跡するために、少なくとも四つの点を追跡するのが望ましい。
【0062】 上記の解析は、物体の追跡を説明するが、その形状が決るようにはしない。
【0063】 この形状の決定を図11および図12に示す。二つのパターンPを示し、それ
らは、それらの対応する画素間の相関25によって示されるように、互いの歪み
版である。これらのパターンは、スキャナ13’のカメラが物体に対して第1位
置から第2位置へ動くときにその結像面上に各々作られ、(それらが対応するの
で)物体の共通表面部Sから導出されると仮定する。レンズLの光学中心を通過
する、図12に示す非偏向光線は、物体に対するスキャナの位置および向きが図
10の解析から分っていれば、表面領域Sの位置および向きを決定する。
【0064】 図12に示す運動Mは、カメラの結像面の方向の直線運動で、固定立体カメラ
装置および可動単眼カメラ装置の解析との類似性を示す。しかし、原則として、
表面の位置および向きは、このスキャナの既知の非直線運動からまさに同じよう
に容易に決められるだろう。
【0065】 物体の形状を決めるプロセスの全体を図13の流れ線図に示す。ステップ20
0で、結像面の四つ以上の点を選択する。或いは、ある場合には、三つを超える
点を選択する必要がないかも知れない。
【0066】 ステップ210で、四つ以上の点の隣接するものを結合して少なくとも二つの
三角形のネットワークを作る。(或いは、ある場合にはそのような点三つだけに
頼って一つの三角形を作ることが可能かも知れない)。そのような三角形の一つ
abcは、既に図10に関連して言及した。
【0067】 第2の三角形は、1点が感光性アレイの縁を離れてもこのネットワークの追跡
を可能にするが、これはある場合には必要ないだろう。これらの点を追跡する(
ステップ220)。
【0068】 次に、非偏向光線を追跡した点から投影する(ステップ230)。
【0069】 ステップ240で、次に、四つ以上の点(ある場合には三つ以上の点)のネッ
トワークを投影した光線に合わせて物体の新しい位置(例えば、図10のO’)
を確定する。
【0070】 ステップ250で、視野から外れた点を捨て、新しいネットワークを構成する
(即ち、ステップ200および210を繰返す)。このステップは、ある場合に
は必要ないだろう。同時に、計算した位置および向きのデータを出力する。
【0071】 ステップ260で、引続く視野を比較し(図1および図2並びに図12参照)
、ステップ250の位置および向きの出力を使って、二つの視野に共通である物
体の表面部分(例えば、図12のS)の3次元座標を得る。
【0072】 最後に、ステップ250からの位置および向きの出力を使うか、または我々の
同時係属のPCT/GB95/01994で開示したようなポストプロセシング
法を使って、物体のこれらの表面部分を組合わせてこの物体表面の全体の3次元
座標を得る。
【0073】 ステップ260(図11および図12に示す)を図14の流れ線図で詳述する
。この流れ線図は、立体カメラ装置と単眼カメラ装置に同等に適用可能である。
【0074】 ステップ300で、パターン(例えば、図14の左側パターンP)を選択する
【0075】 ステップ310で、例えば、XおよびY方向に画像を圧縮/拡大するために、
ことによると物体の傾斜照明を考慮するために画像密度に線形相関を適用するた
めにも、可変倍率を使って、対応するパターン(例えば、図11の右側パターン
P)を探す。
【0076】 ステップ320で、他のパターンに対して上記ステップを繰返し、対応するパ
ターンの点を相関付ける(図11に線25によって示すマッピング参照)。
【0077】 ステップ330で、これらの相関付けた点を使い、図13のステップ250の
位置および/または向きのデータを使って、両カメラ視野(図12参照)に共通
の物体領域の3次元表面領域を構成する。その上、ジャイロデータおよび/また
は加速度データおよび/または(もし使うなら)図1から図8の立体カメラ装置
の幾何学的構成を決める幾何学的データをこのステップで利用できる。
【0078】 ステップ340で、このプロセスを他の表面領域に繰返し、次にこのプロセス
にステップ270(図13)を続ける。
【0079】 ある場合には、例えば、画像にコントラストを欠く結果として、ステップ31
0でパターンPを相関付けることが困難かも知れない。
【0080】 走査される物体上に、(小規模構造と大規模構造が共通の要素を共有する)フ
ラクタルパターンを設け、このパターンを異なる角度から見て異なる画像を導出
し、それらを相関付けてこのパターンが造られている物体の領域の次元表面座標
を導出する、この発明の態様を、例としてだけ図15および図15Aに示す。
【0081】 フラクタルパターン500(十字を作り、次に半分の大きさの十字を各先端に
重ね、このプロセスを各前の十字について繰返すことによって得る)の上記プロ
セスを3回繰返した後(実際には、適用範囲の詳細および密度を増すために更に
多くの繰返しを使う)を図15に示し、パターン領域Pを選択する。簡単のため
に、このパターンを物体の平面領域上に直交するように投影して、図15に示す
画像が元のパターンの一方向に歪んだ表現であると仮定する。
【0082】 このパターンを別の角度から見ると、図15Aに示すように(この場合は、垂
直に圧縮し、水平に伸した)歪んだ画面が得られる。しかし、パターン領域P(
この場合、その上部および左側境界が線上にあり、その右側境界が線の先端に接
触し、およびその下部境界が2本の線を横切り、もう一つの先端に接触している
)と同じ特徴を有する唯一のパターン領域P’があり、従って適当なアルゴリズ
ムによって上記のトポロジイ的特徴を探すことによって、このパターン領域をは
っきり位置付けることができる。それで、全パターン画像(立体カメラ装置によ
って見た左および右画像か、可動単眼カメラによってみた連続画像)を相関付け
ることができ、従って、パターン500を投影した物体の領域の全3次元表面座
標を見付けることができる。
【0083】 深さ情報を、少なくとも大体決めるための完全に異なる装置を図16に開示す
る。点照明源LSのアレイが光点Rを物体の表面S上に投影し、レンズLがこれ
らの光点が作る照明パターンを感光性結像面700上に結像する。各結像した点
のサイズおよび/または形状を適当な画像処理ソフトウェアによって測定する。
点Rのサイズは、対応する照明された表面領域の対応する光源LSからの距離に
正比例し、この形状(この場合は、真円度からの偏差)がこの表面の局部傾斜お
よび曲率についての情報を与える。従って、各照明円錐の角度およびその他の基
本的幾何学的情報が分っていれば、この表面座標の少なくとも近似を点Rのサイ
ズおよび/または形状から導出することができる。これらの光源は、光ファイバ
が好適で、そうすればこの装置を、例えば、内視鏡に小型化するために適する。
これらの光源は、点光源である必要はく、例えば、線光源でもよく、そうすれば
表面S上の各照明ストリップの幅がこの光源からの距離に関連する。その代りに
、適当なマスクを使って、暗黒領域を表面S上に投影してもよい。
【0084】 マスクを使う代替距離センサの幾何学的構成についての背景情報は、ロレンジ
外、3次元デジタルイメージングおよびモデリングの最近の進歩についての国際
会議議事録、1997年5月12日〜15日、pp51〜58のp52(米国カ
リフォルニア州ロスアラミトス市IEEEコンピュータソサイエティプレス発行
)により与えられる。異なる角度で撮ったシルエット(これらを、最初に物体の
下に設けた円形基準パターンを再構成することによって正しい方法で組合わせる
)から表面の3次元表現を構成することについての背景情報は、上記議事録にニ
エム外がpp173〜180に開示している。これらの両論文を参考までにこゝ
に援用し、それは、例えば、図14のプロセスを支援するために、こゝに開示し
た新規な技術の何れかの前またはそれと組合わせて使うことができる、表面座標
への少なくとも初期近似を得るための更なる技術を提供する。
【0085】 図17を参照すると、体管または体腔の3次元表現をもたらすように構成され
た内視鏡が開示され、それは直径約10mmのヘッドを有し、その(直径約6m
mの)中央領域に二つのCCD感光性アレイ701および702が配置されてい
る。この内視鏡は、標準通りに、手術器具等を収容するための、四つの規則的に
円周に分布したチャンネル704も備える。標準通りに、ケーブル703をこの
内視鏡の周辺領域周りに規則的に配置し、内視鏡を体管を通して案内するように
それを曲げるために使う。
【0086】 図18を参照すると、光ファイバの束710がヘッド705の前面で終り、こ
の内視鏡(図示せず)の基端の照明源から光ビームを伝送する。このビームを観
察すべき領域の表面上に投影し、重複する円形領域のアレイに見えるが、その一
つだけを図示する。これらの照明した領域のサイズおよび真円度からの歪みを検
出器アレイ701および702によって検出することができ、表面領域Sの3次
元座標の初期推定値をもたらす(実際ある場合には、この技術だけで満足な情報
をもたらすことができ、それで一つの感光性アレイしか必要ない)。しかし、図
示する立体装置では、照明した領域Sを二つの感光性アレイで別々に結像しこれ
らの画像を、上に図14を参照して説明したように相関付けて体管内部の正確な
3次元座標を見付ける。
【0087】 この画像は、分布屈折率(GRIN)ロッドまたはファイバ711によって集
束する。
【0088】 変形では、照明源を一つ以上の選択したファイバに結合し、少なくともこれら
のファイバの束710にレンズ708(またはGRIN部)を設け、それが光ビ
ームを、図示のように、体管の内部表面上にスポットとして集束する。この集束
したスポットを、例えば、照明源を隣接するファイバに順次結合してこのビーム
をファイバたばの出口面に対してラスタのように変位させるか、またはあまり好
ましくないが、何か適当な手段によって、例えば、圧電的にこの光ファイバの束
を動かすことによって、例えば、ラスタ式に走査できる。次に、出来たスポット
を、これらの感光性アレイ、並びに図1および図2を参照して説明したように、
表面Sの3次元座標を導出するために使うそれぞれのアレイ上の座標によって追
跡し、結像することができる。その代りに、我々のPCT/GB95/0199
4のように、好ましくはシャインプルー(Scheimpflug)の条件を満足する、単一 光検出器を使用することもできる。
【0089】 WO95/14952の図1に基づく図19を参照すると、末端に対物レンズ
402および基端に接眼レンズ403を有する従来の単眼剛性内視鏡401がビ
デオカメラ404と組合わされ、そのカメラが接眼レンズ403から出る光を集
束レンズLによって感光性検出器(例えば、CCD)の感光性結像面I上に集束
する。特に、レンズLは、通常多素子レンズで、露出を通常絞り(図示せず)に
よって制御する。これまで説明したように、この装置が普通である。その代りに
、カメラ404がシネカメラでもよく、その場合、レンズLからの光をシネフィ
ルムの感光性結像面上に集束する。
【0090】 本発明のもう一つの実施例では、内視鏡の末端ヘッドに、図8に示すのと類似
の小型慣性センサ11および12を設け、それらが3直交軸周りの角回転および
それぞれ3直交軸に沿う線形加速度を測定する。これらのセンサからの信号を図
8の実施例のように積分してこの内視鏡ヘッドの瞬間位置および向きを導出する
【0091】 レンズLは、接眼レンズ403の左および右領域からでる光を、処理回路装置
408からの信号の制御の下で、好ましくは毎秒50回(ビデオ用)のような速
い速度で、交互に塞ぐことによって立体的画面を得るために使う。このシャッタ
手段405は、例えば、図示のようにレンズLの前に設けても、多素子レンズ(
図示せず)の異なるレンズ素子の間に設けても、またはレンズLと感光性結合面
Iの間に位置してもよい。特に、このシャッタは、レンズLの表面上に印刷した
LCDシャッタでもよい。シャッタ手段405によって阻止される光線は、図示
のように平行であるのが好ましいが、その代りに収束または発散してもよい。特
に、光線が収束するなら、シャッタは、好ましくは、レンズの近くに位置すべき
である。
【0092】 立体画像対は、図8に関連して先に説明したように、内視鏡を挿入する体管の
3次元表現を得るために、図8の実施例のように位置情報および向き情報と結合
することができる。
【0093】 変形では、シャッタ手段405を省略し、内視鏡ヘッドを手で操作してその位
置および/または向きを変え、出来た画面を、必要な3次元表現が得られるよう
にするために、位置および/または向き情報と結合する。
【0094】 更なる変形では、慣性センサを省略し、図9の実施例のように、単眼画像の適
当な処理によって、3次元表現を構築する。
【0095】 迷光がビデオカメラに入るのを防ぐために、カメラ404と内視鏡401の境
界面にフード(図示せず)を設けること、またはカメラと内視鏡が一体式である
のが好ましい。この内視鏡は、例えば、腹腔鏡、ボアスコープ、膀胱鏡または関
節鏡でもよい。ユーザは、立体画像に影響することなく、焦点またはズーム(レ
ンズにこの機構があるとして)を引くことができる。
【0096】 スイッチング出力(シャッタ405と同期した)およびビデオ出力を、WO9
5/14952の図1に示すような標準観察装置へ送ってもよい。
【0097】 この発明の内視鏡態様は、例えば、GB−A−2,268,283、US5,
222,477およびUS5,12,650に示すような装置にも適用可能であ
る。それは、こゝに開示した画像処理方法の何れにも限定されず、例えば、パタ
ーンを投影するために内視鏡ヘッドの中の光ファイバアレイを使う、例えば、我
々の同時係属のPCT/GB95/01994の走査パターンおよび深さ検出装
置に関連して使うことができる。
【0098】 多数の発明を開示したことが明白だろう。こゝに開示した独創的特徴は全て独
立であると考えるが、指示される場合には随意に組合せ可能である。本発明の好
適特徴は、従属請求項で定義される。
【図面の簡単な説明】
【図1】 一実施例のカメラ装置を平面図で示す光線図である。
【図2】 図1のカメラ装置を立面図で示す光線図である。
【図3】 図1および図2の実施例のスケッチ透視光線図で、一つの画像領域ABCDの
角のエピポーラ線の生成および他のカメラの結像面の対応する画像領域に近接す
る共通点でのそれらの交差を示す。
【図4】 結像面から物体領域の方に見た、上記実施例の端面図で、上記エピポーラ線の
幾何学的構成を示す。
【図5】 上記実施例を示す平面図の光線図で、左右カメラ結像面の像点に相関がない、
物体位置の不確実性を図解する。
【図6】 上記光線図の正面図で、像点の相関付けを支援するためのエピポーラ線の使い
方を示す。
【図7】 上記実施例で像点を相関付けするプロセスを示す流れ線図である。
【図8】 慣性センサを利用する、上記実施例の変形のスケッチ透視図である。
【図9】 単一カメラだけを利用する、もう一つの実施例のスケッチ透視図である。
【図10】 物体に対するその位置を追跡するために使用する、図9の実施例の光線図を示
すスケッチ透視図である。
【図11】 第1実施例のそれぞれのカメラの、または第2実施例の異なる既知の位置のカ
メラの、画像間の像点の相関を示す光線図の立面図である。
【図12】 図11のXII−XIIによる断面である光線図で、相関画像からのカメラに対す
る物体位置の導出を図解する。
【図13】 図9および図10の実施例での像点の相関付のプロセスを示す流れ線図である
【図14】 図10および図11の実施例を使って完全な3次元表面記述を得るためのプロ
セスおよび画像相関ソフトウェアを示す流れ線図である。
【図15A】 本発明の実施例に使用するための投影したフラクタルパターンの説明図である
【図15B】 表面に対するカメラの傾斜によるフラクタルパターンの歪みの説明図である。
【図16】 本発明の更なる実施例のスケッチ透視図である。
【図17】 本発明のもう一つの態様による内視鏡ヘッドの線図的横断面図である。
【図18】 図17の内視鏡ヘッドの線図的側面図である。
【図19】 本発明による更なる内視鏡の図表示である。
───────────────────────────────────────────────────── フロントページの続き (81)指定国 EP(AT,BE,CH,CY, DE,DK,ES,FI,FR,GB,GR,IE,I T,LU,MC,NL,PT,SE),OA(BF,BJ ,CF,CG,CI,CM,GA,GN,GW,ML, MR,NE,SN,TD,TG),AP(GH,GM,K E,LS,MW,SD,SZ,UG,ZW),EA(AM ,AZ,BY,KG,KZ,MD,RU,TJ,TM) ,AL,AM,AT,AU,AZ,BA,BB,BG, BR,BY,CA,CH,CN,CU,CZ,DE,D K,EE,ES,FI,GB,GE,GH,GM,HR ,HU,ID,IL,IS,JP,KE,KG,KP, KR,KZ,LC,LK,LR,LS,LT,LU,L V,MD,MG,MK,MN,MW,MX,NO,NZ ,PL,PT,RO,RU,SD,SE,SG,SI, SK,SL,TJ,TM,TR,TT,UA,UG,U S,UZ,VN,YU,ZW (72)発明者 ファウラー、ガイ、リチャード、ジョン イギリス国 バークシャー、メイドンヘッ ド ハーレイ、 フログミル、サンジェイ ラル Fターム(参考) 2F065 AA04 AA53 BB05 DD00 DD02 FF01 FF05 FF09 GG12 GG16 HH07 JJ03 JJ05 JJ26 LL03 MM02 QQ25 QQ38 RR02 RR07 UU05 4C061 BB06 CC06 FF40 FF47 HH53 HH60 LL02 NN05 NN10 WW20 5L096 AA09 BA06 BA13 CA05 FA34 FA66 HA01 HA05 9A001 HH29 HH34 KK16 KK25

Claims (37)

    【特許請求の範囲】
  1. 【請求項1】 物体(O)の3次元形状を取得するための装置であって: a)この物体の重複する表面領域の画像のグループを取得するための画像取得装
    置(13)で、この物体に対して自由に動き得て、且つ視野が重複する2台以上
    の相互にオフセットしたカメラ(L,I)を含む取得装置と; b)この物体に対する上記画像取得装置の運動を検出し且つそのような運動を表
    す運動出力信号を生成するように配設した慣性検知手段(11,12)と; c)このグループに共通の、この物体の形態(ABCD)から導出した各グルー
    プのそれぞれの画像の形態(A1B1C1D1;A2B2C2D2)を相関付け
    且つ各グループに関してこの物体の表面領域の3次元形状を表す出力データセッ
    トを導出するように配設した画像処理手段(PC)と; d)これらの出力データセットを、上記画像処理手段によって導出した上記出力
    データと上記慣性検知手段によって生成した上記運動出力信号の両方に依存する
    共通の出力データセットに組合わせるように配設した組合せ手段(PC)と; を有する装置。
  2. 【請求項2】 請求項1に記載の装置において、上記慣性検知手段(11,
    12)を、物体(O)に対するこの画像取得装置(13)の回転を検出し且つ回
    転出力信号を生成するように配設し、および上記組合せ手段(PC)を、上記出
    力データセットを上記回転出力信号と画像取得装置から導出した並進情報の両方
    に依存して組合わせるように配設した装置。
  3. 【請求項3】 請求項1または請求項2に記載の装置において、上記慣性検
    知手段(11,12)を、並進出力信号を生成するように配設し、および上記組
    合せ手段(PC)を、上記出力データセットを上記並進出力信号と上記処理手段
    (PC)の出力データから導出した並進情報の両方に依存して組合わせるように
    配設した装置。
  4. 【請求項4】 先行する請求項の何れかに記載の装置が、体腔の3次元形状
    を取得するように配設した内視鏡(401)を含み、この慣性検知手段(11,
    12)をこの内視鏡のヘッドに取付けた装置。
  5. 【請求項5】 先行する請求項の何れかに記載の装置において、相互にオフ
    セットしたカメラ(405,L,I)が共通の対物レンズ(402)を有し、お
    よびそれらのオフセットを、物体からのオフセット光束を選択的に遮断するシャ
    ッタ手段(405)によってもたらす装置。
  6. 【請求項6】 請求項1から請求項4の何れかに記載の装置において、カメ
    ラ(L,I)のそれぞれの光軸が同一平面上にある装置。
  7. 【請求項7】 請求項6に記載の装置において、上記光軸が平行である装置
  8. 【請求項8】 物体(O)の3次元形状を取得するための装置であって: a)異なる視点からこの物体の重複する画像を取得するように、物体に対して自
    由に動き得るカメラ(13’)と; b)物体に対する上記カメラの運動を検出し且つそのような運動を表す運動出力
    信号を生成するように配設した慣性検知手段(11,12)と; c)カメラによって異なる視点から取得した物体の共通の形態(ABCD)から
    導出したそれぞれの画像の形態(A1B1C1D1;A2B2C2D2)を相関
    付け且つ物体の表面領域の3次元形状を表す出力データを導出するように配設し
    た画像処理手段(PC)と; d)そのような出力データセットを、上記処理手段によって導出した上記出力デ
    ータと上記慣性検知手段によって生成した上記運動出力信号の両方に依存する共
    通の出力データセットに組合わせるように配設した組合せ手段(PC)と; を有する装置。
  9. 【請求項9】 請求項8に記載の装置において、上記慣性検知手段(11,
    12)を、物体(O)に対するカメラ(L,I)の回転を検出し且つ回転出力信
    号を生成するように配設し、および上記組合せ手段(PC)を、上記出力データ
    セットを上記回転出力信号と重複する画像から導出した並進情報の両方に依存し
    て組合わせるように配設した装置。
  10. 【請求項10】 請求項8または請求項9に記載の装置において、上記慣性
    検知手段(11,12)を、並進出力信号を生成するように配設し、および上記
    組合せ手段(PC)を、上記出力データセットを上記並進出力信号と上記処理手
    段(PC)の出力データから導出した並進情報の両方に依存して組合わせるよう
    に配設した装置。
  11. 【請求項11】 物体(O)に対して異なる離間した視点から取得した物体
    の重複する2次元画像を処理する方法で、2次元画像が対応する領域の対(A1
    B1C1D1;A2B2C2D2)に関連し、そのような対応する領域の対の各
    々が、各々画像に共通の、物体の領域から導出した、一つの2次元画像の領域と
    もう一つの2次元画像の領域を含み、視点間の相対回転(もしあれば)と並進に
    よって決る、各対の対応する領域間に相互オフセットがあり、この方法が、一つ
    のそのような画像で一つのそのような領域に対応する複数のエピポーラ線(EP a 〜EPd)を利用することによって対応する領域を相関付けて他の画像での対応
    する領域の探索を束縛するために、これらの2次元画像をデジタル処理する工程
    を有する方法。
  12. 【請求項12】 請求項11に記載の方法において、画像を、投影画像間の
    オフセットを上記相互オフセットに対応させて、シミュレートした3次元空間に
    仮想的に投影することによって、物体(O)の共通領域の3次元構成を生成する
    方法。
  13. 【請求項13】 請求項11または請求項12に記載の方法において、上記
    相互オフセットを、上記重複する2次元画像を取得するように配設したカメラ(
    L,I)の視野内の点のグループ(a,b,c:a’,b’,c’)を追跡する
    こと(220)、これらの追跡した点からの光線を、それらがこれらの画像の一
    つに現れるときに、シミュレートした3次元空間に仮想的に投影すること(23
    0)、および任意のネットワークをこれらの光線に結合すること(240)、こ
    れらの追跡した点からの更なる光線を、それらがこれらの画像の他に現れるとき
    に、シミュレートした3次元空間に仮想的に投影すること(230)、および上
    記ネットワークを上記更なる光線に結合するためにそれをオフセットし、それに
    よってこのネットワークのオフセットが上記相互オフセットに対応するようにす
    ることによって導出する方法。
  14. 【請求項14】 請求項11から請求項13の何れかに記載の方法において
    、上記相互オフセットを、物体と視点の間の相対運動を検出するように配設した
    慣性検知手段(11,12)によって決める方法。
  15. 【請求項15】 請求項11または請求項12に記載の方法において、上記
    相互オフセットを、予め決める方法。
  16. 【請求項16】 請求項15に記載の方法において、上記画像を離間したカ
    メラの組立体(13)によって取得し、この組立体が物体(O)に対して自由に
    動き得る方法。
  17. 【請求項17】 物体(O)の3次元形状を、相互にオフセットした視点か
    ら取得した物体の重複画像から取得するための装置であって: a)これらの画像間の形態の運動を光学的に追跡することによって上記視点間の
    オフセットを決めるように配設した追跡手段(PC)と; b)上記オフセット視点から取得した物体の共通の形態(ABCD)から導出し
    たそれぞれの画像の形態(P/A1B1C1D1:P/A2B2C2D2)を相
    関付けるように配設した相関手段(PC)で、他の画像の領域に対応する一つの
    画像で2本以上のエピポーラ線(EPa〜EPd)のグループを導出し、そのグル
    ープを上記エピポーラ線のグループを利用することによって上記一つの画像の対
    応する領域と相関付けて対応する領域の探索を束縛するように配設した手段と; c)上記追跡手段および相関手段に反応し、上記オフセットおよび相関付けした
    形態から上記3次元形状を導出するように配設した3次元再現手段(PC)と; を有する装置。
  18. 【請求項18】 請求項17に記載の装置において、上記3次元再現手段(
    PC)がこれらの画像を上記相互オフセットに対応するオフセットで仮想的に投
    影するための手段を含み、相関付けた形態(P/A1B1C1D1;P/A2B
    2C2D2)がシミュレートした3次元空間で交差する装置。
  19. 【請求項19】 請求項17または請求項18に記載の装置において、上記
    追跡手段(PC)を、これらの追跡した点(a,b,c)からの光線を、それら
    がこれらの画像の一つに現れるときに、シミュレートした3次元空間に仮想的に
    投影し、および任意のネットワークをこれらの光線に結合し、これらの追跡した
    点(a’,b’,c’)からの更なる光線を、それらがこれらの画像の他に現れ
    るときに、シミュレートした3次元空間に仮想的に投影し、および上記ネットワ
    ークを上記更なる光線に結合するためにそれをオフセットし、それによってこの
    ネットワークのオフセットが上記相互オフセットに対応するように配設した装置
  20. 【請求項20】 請求項17から請求項19の何れかに記載の装置であって
    、更に、上記重複画像を取得するための画像取得装置(13/13’/401)
    を含み、上記画像取得装置が上記物体(O)に対して自由に動き得る装置。
  21. 【請求項21】 請求項17から請求項20の何れかに記載の装置で、上記
    画像を取得するように配設したカメラ(L,I)を含む装置において、上記画像
    を受けるように配設したコンピュータ(PC)が上記追跡手段、相関手段および
    3次元再現手段を実行するプログラムを備える装置。
  22. 【請求項22】 請求項21に記載の装置において、上記カメラ(L,I)
    がデジタルカメラである装置。
  23. 【請求項23】 請求項11から請求項16の何れかに記載の方法または請
    求項17から請求項22の何れかに記載の装置において、上記領域(P/A1B
    1C1D1:P/A2B2C2D2)が面である方法または装置。
  24. 【請求項24】 物体の3次元形状を取得するための装置であって: a)この物体(O)の重複する表面領域の画像を取得するための画像取得装置(
    13/13’/401)と; b)上記表面領域上にフラクタルパターン(500/500A)を設けるための
    手段と; c)上記画像間にこのフラクタルパターンの形態(P,P’)を相関付け、およ
    び上にこのパターンが作られているこの物体の領域の3次元表面座標を導出する
    ように配設した画像処理手段(PC)と; を有する装置。
  25. 【請求項25】 請求項24に記載の装置において、上記画像処理手段(P
    C)を、これらの重複画像の共通トポロジイのパターン形態を識別することによ
    って上記形態を相関付けるように配設した装置。
  26. 【請求項26】 物体の3次元形状を取得するための方法であって: a)この表面領域上にフラクタルパターン(500/500A)を設ける工程と
    ; b)上記表面領域の重複画像を取得する工程と; c)上記画像間にこのフラクタルパターンの形態(P,P’)を相関付け、およ
    び上記表面領域の3次元表面座標を導出する工程と; を有する方法。
  27. 【請求項27】 深さ情報を決めるための装置であって、表面を光学パター
    ンで照明するように配設したビーム形成手段で、この照明された表面上のパター
    ンの各形態のサイズがこのビーム形成手段からのその形態の距離に依存している
    手段と、上記形態のサイズ分布を検出するための手段と、上記サイズ分布および
    このビーム形成手段の光学特性から距離分布を導出するように配設した処理手段
    とを有する装置。
  28. 【請求項28】 形状情報を決めるための装置であって、表面(S)を光学
    パターン(R)で照明するように配設したビーム形成手段(LS/708)で、
    この照明された表面上のパターンの各形態の形状がこの表面の対応する領域のこ
    のビーム形成手段に対する勾配に依存する手段と、上記形態の勾配分布を検出す
    るための手段(PC)と、上記勾配分布およびこのビーム形成手段の光学特性か
    ら形状情報を導出するように配設した処理手段(PC)とを有する装置。
  29. 【請求項29】 請求項27または請求項28に記載の装置において、上記
    ビーム形成手段(LS/708)が光ファイバのアレイ(710,711)を有
    する装置。
  30. 【請求項30】 請求項27から請求項29の何れかに記載の装置を有し、
    且つ上記ビーム形成手段(708)をそのヘッド(705)に坦持する内視鏡(
    401)。
  31. 【請求項31】 体管または体腔の内部表面(S)を検知するための光学装
    置を有する内視鏡であって、この装置が上記表面上に照明パターンを作るように
    配設した光ファイバのアレイ(710)と、上記パターンを感光性結像面(70
    1)上に結像するための手段(711)と、この照明された表面に関する深さ情
    報を導出するためにこの画像を処理するための手段(PC)とを有する内視鏡。
  32. 【請求項32】 請求項31に記載の内視鏡において、この照明パターンが
    照明を隣接する光ファイバ(706)に連続して結合することによって作る走査
    パターンである内視鏡。
  33. 【請求項33】 請求項30から請求項32の何れかに記載の内視鏡で、こ
    の内視鏡ヘッドの位置および/または向きを決めるように配設した慣性検知手段
    (11,12)を有する内視鏡。
  34. 【請求項34】 実質的に添付図面の図3から図7、または図10、図13
    および図14、または図15および図15Aを参照して上に説明した通りの画像
    処理装置。
  35. 【請求項35】 物体の3次元形状を取得するための装置で、実質的に添付
    図面の図3から図7に関連して、または図10、図13および図14に関連して
    、図8または図9を参照して上に説明した通りである装置。
  36. 【請求項36】 物体の3次元形状を取得するための装置で、実質的に添付
    図面の図16を参照して上に説明した通りである装置。
  37. 【請求項37】 実質的に添付図面の図17または図18を参照して、また
    は図19を参照して上に説明した通りの内視鏡。
JP2000505603A 1997-07-31 1998-07-31 走査装置および方法 Pending JP2001512241A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
GB9716240.8 1997-07-31
GBGB9716240.8A GB9716240D0 (en) 1997-07-31 1997-07-31 Scanning apparatus and methods
PCT/GB1998/002307 WO1999006950A2 (en) 1997-07-31 1998-07-31 Scanning apparatus and methods

Publications (1)

Publication Number Publication Date
JP2001512241A true JP2001512241A (ja) 2001-08-21

Family

ID=10816794

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000505603A Pending JP2001512241A (ja) 1997-07-31 1998-07-31 走査装置および方法

Country Status (6)

Country Link
EP (1) EP1000318A2 (ja)
JP (1) JP2001512241A (ja)
AU (1) AU8636298A (ja)
CA (1) CA2299426A1 (ja)
GB (2) GB9716240D0 (ja)
WO (1) WO1999006950A2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101166719B1 (ko) 2008-12-22 2012-07-19 한국전자통신연구원 평행사변형 기반의 무한 호모그래피 산출 방법과 이를 이용한 건물 구조 복원 방법
JP2015185947A (ja) * 2014-03-20 2015-10-22 株式会社東芝 撮像システム
CN114485479A (zh) * 2022-01-17 2022-05-13 吉林大学 基于双目相机和惯性导航的结构光扫描测量方法及系统
JP7316762B2 (ja) 2018-04-27 2023-07-28 川崎重工業株式会社 外科手術システム及び外科手術システムの制御方法

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2370156C (en) * 1999-04-30 2009-02-17 Christoph Wagner Method for optically detecting the shape of objects
GB2368117A (en) * 2000-05-08 2002-04-24 Neutral Ltd Optical viewing arrangement
DE10025741C2 (de) * 2000-05-19 2002-06-13 Fraunhofer Ges Forschung Verfahren zur Bestimmung der räumlichen Koordinaten von Gegenständen und/oder deren zeitlicher Änderung
US7359748B1 (en) 2000-07-26 2008-04-15 Rhett Drugge Apparatus for total immersion photography
US8625854B2 (en) 2005-09-09 2014-01-07 Industrial Research Limited 3D scene scanner and a position and orientation system
US20080195316A1 (en) * 2007-02-12 2008-08-14 Honeywell International Inc. System and method for motion estimation using vision sensors
DE102007022361A1 (de) 2007-05-04 2008-11-06 Friedrich-Schiller-Universität Jena Vorrichtung und Verfahren zum berührungslosen Erfassen räumlicher Koordinaten einer Oberfläche
WO2009027585A1 (fr) * 2007-08-31 2009-03-05 Institut De Recherche Sur Les Cancers De L'appareil Digestif Ircad Dispositif flexible de determination d'une forme en trois dimensions
FR2922640B1 (fr) * 2007-10-19 2010-01-08 Ct Tech Cuir Chaussure Maroqui Procede et un dispositif de reconstruction tridimensionnelle de la surface interieure d'une chaussure
AT506110B1 (de) 2007-12-12 2011-08-15 Nextsense Mess Und Pruefsysteme Gmbh Vorrichtung und verfahren zur erfassung von körpermassdaten und konturdaten
US8213706B2 (en) 2008-04-22 2012-07-03 Honeywell International Inc. Method and system for real-time visual odometry
US8238612B2 (en) 2008-05-06 2012-08-07 Honeywell International Inc. Method and apparatus for vision based motion determination
JP5206344B2 (ja) * 2008-11-14 2013-06-12 オムロン株式会社 光学式計測装置
FR2950138B1 (fr) * 2009-09-15 2011-11-18 Noomeo Procede de numerisation tridimensionnelle a recalage rapide
US8760447B2 (en) 2010-02-26 2014-06-24 Ge Inspection Technologies, Lp Method of determining the profile of a surface of an object
EP2568870B1 (en) * 2010-03-30 2018-05-02 3Shape A/S Scanning of cavities with restricted accessibility
DE102010064320B4 (de) * 2010-12-29 2019-05-23 Siemens Healthcare Gmbh Optischer Zeiger für ein Chirurgieassistenzsystem
US10157495B2 (en) 2011-03-04 2018-12-18 General Electric Company Method and device for displaying a two-dimensional image of a viewed object simultaneously with an image depicting the three-dimensional geometry of the viewed object
US9875574B2 (en) 2013-12-17 2018-01-23 General Electric Company Method and device for automatically identifying the deepest point on the surface of an anomaly
US9984474B2 (en) 2011-03-04 2018-05-29 General Electric Company Method and device for measuring features on or near an object
US10586341B2 (en) 2011-03-04 2020-03-10 General Electric Company Method and device for measuring features on or near an object
US10019812B2 (en) 2011-03-04 2018-07-10 General Electric Company Graphic overlay for measuring dimensions of features using a video inspection device
US9013469B2 (en) 2011-03-04 2015-04-21 General Electric Company Method and device for displaying a three-dimensional view of the surface of a viewed object
ITTO20130202A1 (it) 2013-03-15 2014-09-16 Torino Politecnico Dispositivo e sistema di scansione tridimensionale, e relativo metodo.
US9600928B2 (en) 2013-12-17 2017-03-21 General Electric Company Method and device for automatically identifying a point of interest on the surface of an anomaly
US9818039B2 (en) 2013-12-17 2017-11-14 General Electric Company Method and device for automatically identifying a point of interest in a depth measurement on a viewed object
US9842430B2 (en) 2013-12-17 2017-12-12 General Electric Company Method and device for automatically identifying a point of interest on a viewed object
US9903950B2 (en) 2014-08-27 2018-02-27 Leica Geosystems Ag Multi-camera laser scanner
GB2572755B (en) * 2018-04-05 2020-06-10 Imagination Tech Ltd Matching local image feature descriptors
US20210223397A1 (en) * 2018-05-30 2021-07-22 Vi3D Labs Inc. Three-dimensional surface scanning
CN112254674B (zh) * 2020-10-15 2022-02-15 天目爱视(北京)科技有限公司 一种近距离智能视觉3d信息采集设备
US11676293B2 (en) * 2020-11-25 2023-06-13 Meta Platforms Technologies, Llc Methods for depth sensing using candidate images selected based on an epipolar line

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4645348A (en) * 1983-09-01 1987-02-24 Perceptron, Inc. Sensor-illumination system for use in three-dimensional measurement of objects and assemblies of objects
WO1986005058A1 (en) * 1985-02-13 1986-08-28 University Of Queensland Digital imagery and analysis system
JPH0749937B2 (ja) * 1988-03-22 1995-05-31 工業技術院長 形状測定方法
GB2230118B (en) * 1989-04-05 1992-12-23 Intel Corp Microprocessor providing selectable alignment checking on memory references
US5054907A (en) * 1989-12-22 1991-10-08 Phoenix Laser Systems, Inc. Ophthalmic diagnostic apparatus and method
IT1245014B (it) * 1991-01-29 1994-09-13 Dea Spa Sistema per la misura tridimensionale di superfici sculturate da matematizzare
US5309222A (en) * 1991-07-16 1994-05-03 Mitsubishi Denki Kabushiki Kaisha Surface undulation inspection apparatus
US5383013A (en) * 1992-09-18 1995-01-17 Nec Research Institute, Inc. Stereoscopic computer vision system
GB2292605B (en) * 1994-08-24 1998-04-08 Guy Richard John Fowler Scanning arrangement and method
US5559334A (en) * 1995-05-22 1996-09-24 General Electric Company Epipolar reconstruction of 3D structures
US5818959A (en) * 1995-10-04 1998-10-06 Visual Interface, Inc. Method of producing a three-dimensional image from two-dimensional images
JPH09187038A (ja) * 1995-12-27 1997-07-15 Canon Inc 3次元形状抽出装置

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101166719B1 (ko) 2008-12-22 2012-07-19 한국전자통신연구원 평행사변형 기반의 무한 호모그래피 산출 방법과 이를 이용한 건물 구조 복원 방법
US8401277B2 (en) 2008-12-22 2013-03-19 Electronics And Telecommunications Research Institute Method for restoration of building structure using infinity homographies calculated based on parallelograms
JP2015185947A (ja) * 2014-03-20 2015-10-22 株式会社東芝 撮像システム
JP7316762B2 (ja) 2018-04-27 2023-07-28 川崎重工業株式会社 外科手術システム及び外科手術システムの制御方法
US11801103B2 (en) 2018-04-27 2023-10-31 Kawasaki Jukogyo Kabushiki Kaisha Surgical system and method of controlling surgical system
CN114485479A (zh) * 2022-01-17 2022-05-13 吉林大学 基于双目相机和惯性导航的结构光扫描测量方法及系统

Also Published As

Publication number Publication date
GB2328280B (en) 2002-03-13
GB9816756D0 (en) 1998-09-30
GB9716240D0 (en) 1997-10-08
GB2328280A (en) 1999-02-17
AU8636298A (en) 1999-02-22
WO1999006950A2 (en) 1999-02-11
CA2299426A1 (en) 1999-02-11
EP1000318A2 (en) 2000-05-17
WO1999006950A3 (en) 1999-04-22

Similar Documents

Publication Publication Date Title
JP2001512241A (ja) 走査装置および方法
US11629955B2 (en) Dual-resolution 3D scanner and method of using
EP2732434B1 (en) Detection of a movable object when 3d scanning a rigid object
US7747067B2 (en) System and method for three dimensional modeling
CN104335005B (zh) 3d扫描以及定位系统
US5967979A (en) Method and apparatus for photogrammetric assessment of biological tissue
US7978892B2 (en) 3D photogrammetry using projected patterns
US8411917B2 (en) Device for determining the 3D coordinates of an object, in particular of a tooth
US7193773B2 (en) Stereomicroscopy method and stereomicroscopy system
US20030025788A1 (en) Hand-held 3D vision system
US20110057930A1 (en) System and method of using high-speed, high-resolution depth extraction to provide three-dimensional imagery for endoscopy
CN107735016A (zh) 用于扫描解剖结构且用于显示扫描结果的系统和方法
JP3409873B2 (ja) 物体入力装置
WO2009120073A2 (en) A dynamically calibrated self referenced three dimensional structured light scanner
D'Apuzzo Surface measurement and tracking of human body parts from multi station video sequences
JP2000222585A (ja) 動き検出方法および動き検出装置および動き認識方法および動き認識装置および記録媒体
D'Apuzzo Automated photogrammetric measurement of human faces
JPH07181024A (ja) 3次元形状計測方法および装置
JP3178205B2 (ja) 画像入力システム
JP3282332B2 (ja) 画像入力システム
Mao et al. Improved area-based stereo matching using an image segmentation approach for 3-D facial imaging
JPH02297515A (ja) 立体視電子内視鏡
Nin Use of digital cameras as an adjunct to LODOX
JPH11118442A (ja) 3次元データの取得方法