JP2020518820A - 平坦な形状を有し且つ符号化されていないスポットを投影する三角測量スキャナ - Google Patents
平坦な形状を有し且つ符号化されていないスポットを投影する三角測量スキャナ Download PDFInfo
- Publication number
- JP2020518820A JP2020518820A JP2019560375A JP2019560375A JP2020518820A JP 2020518820 A JP2020518820 A JP 2020518820A JP 2019560375 A JP2019560375 A JP 2019560375A JP 2019560375 A JP2019560375 A JP 2019560375A JP 2020518820 A JP2020518820 A JP 2020518820A
- Authority
- JP
- Japan
- Prior art keywords
- camera
- projector
- spot
- image
- points
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/66—Tracking systems using electromagnetic waves other than radio waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/002—Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/25—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
- G01B11/2513—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with several lines being projected in more than one direction, e.g. grids, patterns
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/25—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
- G01B11/2545—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with one projection direction and several detection directions, e.g. stereo
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/87—Combinations of systems using electromagnetic waves other than radio waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/521—Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/254—Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/271—Image signal generators wherein the generated image signals comprise depth maps or disparity maps
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/296—Synchronisation thereof; Control thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Abstract
プロジェクタは、第1カメラ及び第2カメラによって撮像されるオブジェクト上に符号化されていないスポットの符号化されていないパターンを投影する。オブジェクト上のスポットの3D座標が三角測量法に基づいてプロセッサによって決定され、プロセッサは、プロジェクタと、その個々の投射中心を通る画像スポットとから引かれた線の交点の近さに少なくとも部分的に基づいて、投影され撮像されたスポット間の対応関係をさらに決定する。【選択図】図2B
Description
本明細書で開示される主題は、平坦な形状を有する三角測量スキャナに関する。三角測量スキャナは、符号化されていないスポット(uncoded spot)をオブジェクト上に投影し、それに応じてオブジェクト上の点の3次元(3D)座標を決定する。
一般に、三角測量スキャナは、少なくとも1つのプロジェクタと少なくとも1つのカメラとを含む。プロジェクタ及びカメラは、ベースラインの距離(baseline distance)だけ離れている。斯かるスキャナは、光の投影パターンと捕捉されたカメラ画像とに少なくとも部分的に基づいてオブジェクト上の点の3D座標を決定するために、三角測量計算(triangulation calculation)を使用する。本明細書でシングルショットスキャナ(single-shot scanner)と呼ばれる三角測量スキャナの1つのカテゴリは、光の単一の投影パターンに基づいてオブジェクトの点の3D座標を取得する。本明細書でシーケンシャルスキャナ(sequential scanner)と呼ばれる三角測量スキャナの別のカテゴリは、静止プロジェクタからオブジェクトへの投影パターンのシーケンスに基づいて、オブジェクトの点の3D座標を取得する。
シングルショット三角測量スキャナの場合、三角測量の計算は、2つのパターンの各々における要素間の決定された対応関係に少なくとも部分的に基づく。2つのパターンは、プロジェクタによって投影されたパターンとカメラによって捕捉されたパターンとを含み得る。代替として、2つのパターンは、第1カメラによって捕捉された第1のパターンと、第2カメラによって捕捉された第2のパターンとを含み得る。いずれの場合でも、三角測量計算による3D座標の決定は、2つのパターンの各々におけるパターン要素間で決定されるべき対応関係を提供する。ほとんどの場合、対応関係は、投影又は捕捉されたパターンのパターン要素をマッチングすることによって取得される。代替的なアプローチは、ハイデマン他の米国特許第9,599,455号('455)に記載されている。このアプローチでは、対応関係は、パターン要素のマッチングによってではなく、2つのカメラとプロジェクタとから又は2つのプロジェクタとカメラとからのエピポーラ線の交点でスポットを識別することにより、決定される。一実施形態では、追加の2Dカメラ画像は、複数の収集された点群を基準の共通フレームと一緒に登録するためにさらに使用され得る。特許第'455号に記載されているシステムの場合、3つのカメラ及びプロジェクタの要素は三角に配置され、これはエピポーラ線の交差を可能にする。
場合によっては、三角測量スキャナを、プロジェクタ及びカメラの要素の三角配置において可能なものよりもコンパクトにすることが望ましい。したがって、既存の三角測量システムはその意図した目的に適している一方で、特に符号化されていないスポットを投影するコンパクトな三角測量スキャナを提供する場合には、改善の必要性が残っている。
本発明の一態様によれば、方法は、第1のインスタンスにおいて、オブジェクト上に照らされたオブジェクトスポットを形成するために、投射中心を有するプロジェクタを用いて、プロジェクタの基準面から符号化されていないスポットの第1の符号化されていないパターンを投影することと、第1カメラの投影中心を有する第1カメラを用いて、照らされたオブジェクトスポットを第1の画像の第1の画像スポットとして捕捉することと、第2カメラの投影中心を有する第2カメラを用いて、照らされたオブジェクトスポットを第2の画像の第2の画像スポットとして捕捉することと、プロセッサを用いて、オブジェクト上の点の第1の集合の3D座標を決定することであって、点の第1の集合の3D座標が、符号化されていないスポットの第1の符号化されていないパターンと、第1の画像と、第2の画像と、プロジェクタ、第1カメラ及び第2カメラの相対的な位置と、選択された複数の交点の組とに少なくとも部分的に基づき、各交点の組が第1のスポット、第2のスポット及び第3のスポットを含み、第1のスポットがプロジェクタの基準面の符号化されていないスポットのうちの1つであり、第2のスポットが第1の画像スポットのうちの1つであり、第3のスポットが第2の画像スポットのうちの1つであり、交点の組の各々を選択することが第1の線、第2の線及び第3の線の交点の近さに少なくとも部分的に基づき、第1の線が第1のスポットからプロジェクタの投射中心を通って引かれた線であり、第2の線が第2のスポットから第1カメラの投射中心を通って引かれた線であり、第3の線が第3のスポットから第2カメラの投射中心を通って引かれた線である、決定することと、点の第1の集合の決定された3D座標を記憶することと、を含む。
本発明の別の態様によれば、システムは、投射中心を有するプロジェクタであって、オブジェクト上に照らされたオブジェクトスポットを形成するために、プロジェクタの基準面から符号化されていないスポットの第1の符号化されていないパターンを投影するように動作可能なプロジェクタと、第1カメラ投射中心を有する第1カメラであって、第1の画像において照らされたオブジェクトスポットを第1の画像スポットとして捕捉するように動作可能な第1カメラと、第2カメラ投射中心を有する第2カメラであって、第2の画像において照らされたオブジェクトスポットを第2の画像スポットとして捕捉するように動作可能な第2カメラと、プロセッサであって、プロセッサ上で実行されるとき、オブジェクト上の点の第1の集合の3D座標を決定するコンピュータ命令であって、点の第1の集合の3D座標が、第1のインスタンスにおいて、符号化されていないスポットの第1の符号化されていないパターンと、第1の画像と、第2の画像と、プロジェクタ、第1カメラ及び第2カメラの相対的な位置と、選択された複数の交点の組とに少なくとも部分的に基づき、各交点の組が第1のスポット、第2のスポット及び第3のスポットを含み、第1のスポットがプロジェクタの基準面の符号化されていないスポットのうちの1つであり、第2のスポットが第1の画像スポットのうちの1つであり、第3のスポットが第2の画像スポットのうちの1つであり、交点の組の各々を選択することが第1の線、第2の線及び第3の線の交点の近さに少なくとも部分的に基づき、第1の線が第1のスポットからプロジェクタの投射中心を通って引かれた線であり、第2の線が第2のスポットから第1カメラの投射中心を通って引かれた線であり、第3の線が第3のスポットから第2カメラの投射中心を通って引かれた線である、コンピュータ命令を実行するように動作可能なプロセッサと、を含む。
本発明の別の態様によれば、システムは、プロジェクタの光軸及びプロジェクタの投射中心を有するプロジェクタであって、第1の符号化されていないパターンにおける光の符号化されていないスポットの集合をオブジェクト上に投影するように動作可能なプロジェクタと、第1カメラの光軸及び第1カメラの投射中心を有する第1カメラであって、オブジェクト上の光の符号化されていないスポットの集合の第1の画像を捕捉するように動作可能な第1カメラと、第2カメラの光軸及び第2カメラの投射中心を有する第2カメラであって、オブジェクト上の光の符号化されていないスポットの集合の第2の画像を捕捉するように動作可能な第1カメラと、前側部を有する筐体であって、前側部がプロジェクタの光軸、第1カメラの光軸、及び第2カメラの光軸によって交差され、前側部がプロジェクタの投射中心、第1カメラの光軸及び第2カメラの光軸を含む第1の面によってさらに交差される、筐体と、プロセッサであって、プロセッサ上で実行されるとき、符号化されていないスポットの第1の符号化されていないパターン、第1の画像、及び第2の画像に少なくとも部分的に基づいて、オブジェクト上の点の3次元(3D)座標を決定するコンピュータ命令を実行するように動作可能なプロセッサと、を含む。
これら及び他の利点及び特徴は、図面と併せて以下の説明からより明らかになるであろう。
本発明としてみなされる主題は、本明細書の末尾の特許請求の範囲で特に指摘され且つ明確に請求されている。本発明の前述及び他の特徴及び利点は、添付の図面と併せて以下の詳細な説明から明らかである。
詳細な説明は、図面を参照して例として、利点及び特徴とともに本発明の実施形態を説明する。
本発明の実施形態は、本明細書で3Dイメージャとも呼ばれる、比較的コンパクトで低コストの正確な三角測量スキャナを使用して3D測定値を取得できるという利点を提供する。さらに、迅速な登録、6つの自由度の姿勢情報の抽出、及びロボット機構の制御を可能にするという利点が提供される。他の実施形態は、走査技術をレーザトラッカ又は関節アーム座標測定機と組み合わせて使用することにより、さらなる改善を可能にする。
図1A、1B、1C、1Dに例示される本発明の一実施形態では、三角測量スキャナ1は、本体5、プロジェクタ20、第1カメラ30、及び第2カメラ40を含む。一実施形態では、図1C、1Dに示されるように、プロジェクタ20のプロジェクタ光軸22、第1カメラ30の第1カメラ光軸32、及び第2カメラ40の第2カメラ光軸42は、全て共通の平面50上にある。いくつかの実施形態では、光軸は、例えば、プロジェクタ又はカメラであり得る光学システムの対称性の中心を通過する。例えば、光軸は、光学システムのレンズ表面又はミラー表面の曲率中心を通過し得る。第1の平面50とも呼ばれる共通の平面50は、図1Dの紙面に垂直に出入りする。
一実施形態では、本体5は、底部支持構造6、頂部支持構造7、スペーサ8、カメラ取付板9、底部取付部10、ドレスカバー11、プロジェクタ及びカメラ用の窓部12、イーサネット(登録商標)コネクタ13及びGPIOコネクタ14を含む。さらに、本体は、前側部15及び後側部16を含む。一実施形態では、底部支持構造6及び上部支持構造7は、炭素繊維の複合材料で作られた平板である。一実施形態では、炭素繊維の複合材料は、低い熱膨張係数(CTE)を有する。一実施形態では、スペーサ8は、アルミニウムで作られており、底部支持構造6と頂部支持構造7との間に共通の間隔を提供するためのサイズにされている。
一実施形態では、プロジェクタ20は、プロジェクタ本体24及びプロジェクタ前面26を含む。一実施形態では、プロジェクタ20は、図5A、図5B、図5Cに関して本明細書で以下に説明されるように、ターニングミラー及び回折光学素子(DOE)を含むプロジェクタ本体24に取り付けられる光源25を含む。光源25は、例えば、レーザ、スーパールミネセントダイオード、又は部分的にコヒーレントなLEDであり得る。一実施形態では、DOEは、規則的なパターンで配置されたスポットのアレイを生成する。一実施形態では、プロジェクタ20は、近赤外波長の光を放出する。
一実施形態では、第1カメラ30は、第1カメラ本体34及び第1カメラ前面36を含む。一実施形態では、第1カメラは、レンズ、感光性アレイ及びカメラ電子機器を含む。第1カメラ30は、プロジェクタ20によってオブジェクト上に投影された符号化されていないスポットの第1の画像を感光性アレイ上に形成する。一実施形態では、第1カメラは、近赤外光に応答する。
一実施形態では、第2カメラ40は、第2カメラ本体44及び第2カメラ前面46を含む。一実施形態では、第2カメラは、レンズ、感光性アレイ、及びカメラ電子機器を含む。第2カメラ40は、プロジェクタ20によってオブジェクト上に投影された符号化されていないスポットの第2の画像を形成する。一実施形態では、第2カメラは、近赤外スペクトルの光に応答する。一実施形態では、プロセッサ2は、本明細書で以下に説明する方法に従ってオブジェクト上の点の3D座標を決定するために使用される。プロセッサ2は、本体5の内部に含まれてもよく、又は本体の外部にあってもよい。さらなる実施形態では、2つ以上のプロセッサが使用される。さらに別の実施形態では、プロセッサ2は、三角測量スキャナから離れて配置され得る。
図1Eは、三角測量スキャナ1の上面図である。プロジェクタ光線28は、プロジェクタ24の本体からプロジェクタ前面26を通ってプロジェクタ光軸に沿って延びる。そうすることで、プロジェクタ光線28は、前側部15を通過する。第1カメラ光線38は、第1カメラ34の本体から第1カメラの前面36を通って第1カメラの光軸32に沿って延びる。そうすることで、前方のカメラ光線38は、前側部15を通過する。第2カメラ光線48は、第2カメラ44の本体から第2カメラ前面46を通って第2カメラ光軸42に沿って延びる。そうすることで、第2カメラ光線48は、前側部15を通過する。
図2は、例えば、図1A、1B、1C、1D及び1Eに示される三角測量スキャナ1であり得る三角測量スキャナ200の要素を示す。一実施形態では、三角測量スキャナ200は、プロジェクタ250、第1カメラ210、及び第2カメラ230を含む。一実施形態では、プロジェクタ250は、パターン生成器の平面252上に光のパターンを作成する。パターン上の例示的な補正点253は、光線251をレンズ254の投射中心(perspective center)258(点D)を通って点272(点F)でオブジェクトの表面270上に投影する。点272は、点272からレンズ214の投射中心218(点E)を通って、カメラの感光性アレイ212の表面上に補正点220として光線を受けることにより、第1カメラ210によって撮像される。点220は、レンズ収差の影響を取り除くために、補正値を適用することにより読出データにおいて補正される。同様に、点272は、点272からレンズ234の投射中心238(点C)を通って第2カメラの感光性アレイ232の表面上に補正点235として光線を受けることにより、第2カメラ230によって撮像される。本明細書で使用される場合、レンズへの任意の言及は、レンズシステム内の開口部を含む、単一のレンズ又は複数のレンズ要素にかかわらず、任意のタイプのレンズシステムを含むことを理解されたい。この文書におけるプロジェクタへの任意の言及は、レンズ又はレンズシステムを用いて画像平面をオブジェクト平面に投影するシステムだけを指すものではないことを理解されたい。プロジェクタは、必ずしも物理的なパターン生成面252を有する必要はなく、パターンを生成する任意の他の要素の組を有し得る。例えば、DOEを有するプロジェクタでは、光の発散するスポットは、プロジェクタの投射中心を取得し、また、パターンを生成するために現れる基準プロジェクタ平面を取得するために、後方に追跡され得る。ほとんどの場合、本明細書に記載されたプロジェクタは、符号化されていないパターンに光の符号化されていないスポットを伝搬する。しかし、プロジェクタはさらに、光の符号化されたスポットを投影し、符号化されたパターンに投影し、又は符号化されたパターンに光の符号化されたスポットを投影するように動作可能であり得る。言い換えれば、本発明のいくつかの態様において、プロジェクタは、符号化されていないスポットを符号化されていないパターンに投影するように少なくとも動作可能であるが、加えて、他の符号化された要素及び符号化されたパターンに投影し得る。
図2の三角測量スキャナ200が、投影パターンの単一の投影と、2つのカメラの各々によって捕捉された単一の画像とに基づいて3D座標を決定するシングルショットスキャナである実施形態では、プロジェクタの点253、画像の点220、及び画像の点235の間の対応関係は、プロジェクタ250によって投影され、2つのカメラ210、230によって受け取られる符号化されたパターンをマッチングすることによって取得され得る。代替的には、符号化されたパターンは、3つの要素のうちの2つ、例えば、2つのカメラ210、230、又はプロジェクタ250と2つのカメラ210又は230のうちの1つとマッチングされ得る。これは、投影された要素若しくは投影されたパターン、又はその両方での符号化のために、シングルショット三角測量スキャナにおいて可能である。
対応関係が投影され且つ画像化された要素の間で決定された後、三角測量の計算が、オブジェクト上の投影された要素の3D座標を決定するために実行される。図2に関して、要素は符号化されていないパターンに投影された符号化されていないスポットである。一実施形態では、三角測量の計算は、対応が2つのカメラの各々上で得られたスポットの選択に基づいて実行される。この実施形態では、2つのカメラの相対的な位置及び方向(orientation)が使用される。例えば、投射中心218及び238の間のベースライン距離B3は、第1カメラ210の第1の画像及び第2カメラ230の第2の画像に基づいて三角測量の計算を実行するために使用される。同様に、ベースラインB1は、プロジェクタ250の投影パターンと第2カメラ230の第2の画像とに基づいて三角測量の計算を実行するために使用される。同様に、ベースラインB2は、プロジェクタ250の投影パターンと第1カメラ210の第1の画像とに基づいて三角測量の計算を実行するために使用される。本発明の一実施形態では、プロジェクタによって投影される符号化されていない要素の符号化されていないパターン、第1カメラによって捕捉された符号化されていないパターンの第1の画像、及び第2カメラによって捕捉された符号化されていないパターンの第2の画像に少なくとも基づいて決定される。一実施形態では、対応関係はさらに、プロジェクタ、第1カメラ、及び第2カメラの位置に少なくとも部分的に基づく。さらなる実施形態では、対応関係はさらに、プロジェクタ、第1カメラ、及び第2カメラの方向に少なくとも部分的に基づく。
本明細書で使用される「符号化されていない要素」又は「符号化されていないスポット」という用語は、投影又は撮像される他の符号化されていない要素と区別されることが可能な内部構造を含まない投影又は撮像された要素について言及する。本明細書で使用される「符号化されていないパターン」という用語は、投影又は撮像された要素の相対的な位置に情報が符号化されていないパターンについて言及する。例えば、情報を投影されたパターンに符号化する1つの方法は、「ドット」の準ランダムなパターンを投影することであり、ドットの相対的な位置は、既知であり且つ2つの画像又は投影及び画像における要素の対応関係を決定するために使用されることができる。このような準ランダムなパターンは、点の間の対応関係を確立するために使用され得る情報を含むため、符号化されていないパターンの例ではない。符号化されていないパターンの例は、投影されたパターンの要素の直線的なパターンである。
一実施形態では、符号化されていないスポットは、図2Bのスキャナシステム100に示されるような、符号化されていないパターンにおいて投影される。一実施形態では、スキャナシステム100は、プロジェクタ110、第1カメラ130、第2カメラ140、及びプロセッサ150を含む。プロジェクタは、符号化されていないスポットの符号化されていないパターンをプロジェクタの基準面114から投影する。図2B及び2Cに例示される実施形態では、符号化されていないスポットの符号化されていないパターンは、照らされたオブジェクトスポット121をオブジェクト120上に形成する円形スポットの直線的なアレイ111である。一実施形態では、オブジェクト120に達しているスポットの直線的なアレイ111は、オブジェクト120の特性に従って、照らされたオブジェクトスポット121のパターンに修正又は変形される。投影された直線的なアレイ111内からの例示的な符号化されていないスポット112は、スポット122としてオブジェクト120上に投影される。プロジェクタスポット112から照らされたオブジェクトスポット122への方向は、基準面114上のプロジェクタスポット112からプロジェクタの投射中心116を通って直線124を引くことにより見つけられ得る。プロジェクタの投射中心116の位置は、プロジェクタの光学システムの特性によって決定される。
一実施形態では、照らされたオブジェクトスポット122は、第1カメラ130の第1の画像平面136上に第1の画像スポット134を生成する。 第1の画像スポットから照らされたオブジェクトスポット122への方向は、第1の画像スポット134から第1カメラの投射中心132を通って直線126を引くことにより見つけられ得る。第1カメラの投射中心132の位置は、第1カメラの光学システムの特性によって決定される。
一実施形態では、照らされたオブジェクトスポット122は、第2カメラ140の第2の画像平面146上に第2の画像スポット144を生成する。 第2の画像スポット144から照らされたオブジェクトスポット122への方向は、第2の画像スポット144から第2カメラの投射中心142を通って直線126を引くことにより見つけられ得る。第2カメラの投射中心142の位置は、第2カメラの光学システムの特性によって決定される。
一実施形態では、プロセッサ150は、プロジェクタ110、第1カメラ130、及び第2カメラ140と通信する。有線又は無線のいずれかのチャネル151は、プロセッサ150、プロジェクタ110、第1カメラ130、及び第2カメラ140の間の接続を確立するために使用され得る。プロセッサは、単一の処理部又は複数の処理部を含んでもよく、マイクロプロセッサ、フィールドプログラマブルゲートアレイ(FPGA)、デジタルシグナルプロセッサ(DSP)、及び他の電気構成要素などの構成要素を含んでもよい。プロセッサは、プロジェクタ、第1カメラ、及び第2カメラを含むスキャナシステムに対してローカルであってもよく、又は分散され且つネットワーク化されたプロセッサを含んでもよい。プロセッサという用語は、任意のタイプの計算電子機器を包含し、メモリストレージ要素を含み得る。
図2Eは、オブジェクト上の点の3D座標を決定する方法180の要素を示す。要素182は、オブジェクト上に照らされたオブジェクトスポットを形成するために、プロジェクタを用いて、符号化されていないスポットの第1の符号化されていないパターンを投影することを含む。図2B、2Cは、プロジェクタ110が、照らされたオブジェクトスポット121をオブジェクト120上に形成するために、符号化されていないスポット111の第1の符号化されていないパターンを投影する実施形態100を使用して、この要素182を例示する。
方法の要素184は、照らされたオブジェクトスポットを第1カメラを用いて第1の画像の第1の画像スポットとして捕捉することを含む。この要素は、第1カメラ130が、照らされたオブジェクトスポット122の画像である第1の画像スポット134を含む、照らされたオブジェクトスポット121を捕捉する実施形態を使用して図2Bに示されている。方法の要素186は、照らされたオブジェクトスポットを第2カメラを用いて第2の画像の第2の画像スポットとして捕捉することを含む。この要素は、第2カメラ140が、照らされたオブジェクトスポット122の画像である第2の画像スポット144を含む、照らされたオブジェクトスポット121を捕捉する実施形態を使用して、図2Bに示されている。
方法の要素188の第1の態様は、プロセッサを用いて、符号化されていないスポットの第1の符号化されていないパターンと、第1の画像と、第2の画像と、プロジェクタ、第1カメラ及び第2カメラの相対的な位置と、選択された複数の交点の組とに少なくとも部分的に基づいてオブジェクト上の点の第1の集合の3D座標を決定することを含む。要素188のこの態様は、プロセッサ150が、符号化されていないスポット111の第1の符号化されていないパターン111と、第1の画像136と、第2の画像146と、プロジェクタ110、第1カメラ130及び第2カメラ140の相対的な位置と、選択された複数の交点の組とに基づいて、オブジェクト上のオブジェクトスポット121に対応する点の第1の集合の3D座標を決定する実施形態を使用して、図2B、2Cに示されている。交点の組の図2Bからの例は、点112、134及び144を含む組である。これらの3つの点のうちの任意の2つは、図2A、図2Bを参照して本明細書で上述された照らされたオブジェクトスポット122の3D座標を取得するように三角測量の計算を実行するために使用され得る。
方法の要素188の第2の態様は、プロセッサを用いて、複数の交点の組を選択することを含む。各交点の組は、第1のスポット、第2のスポット、及び第3のスポットを含む。第1のスポットは、プロジェクタの基準面の符号化されていないスポットのうちの1つである。第2のスポットは、第1の画像スポットのうちの1つである。第3のスポットは、第2の画像スポットのうちの1つである。各交点の組を選択することは、第1の線、第2の線及び第3の線の交点の近さ(nearness)に少なくとも部分的に基づく。第1の線は、第1のスポットからプロジェクタの投射中心を通って引かれた線である。第2の線は、第2のスポットから第1カメラの投射中心を通って引かれた線である。第3の線は、第3のスポットから第2カメラの投射中心を通って引かれた線である。要素188のこの態様は、1つの交点の組が第1のスポット112、第2のスポット134、及び第3のスポット144を含む実施形態を使用して、図2Bに示されている。この実施形態では、第1の線は線124であり、第2の線は線126であり、第3の線は線128である。第1の線124は、プロジェクタの基準面114の符号化されていないスポット112からプロジェクタの投射中心116を通って引かれる。第2の線126は、第1の画像スポット134から第1カメラの投射中心132を通って引かれる。第3の線128は、第2の画像スポット144から第2カメラの投射中心142を通って引かれる。プロセッサ150は、第1の線124、第2の線126、及び第3の線128の交点の近さに少なくとも部分的に基づいて交点の組を選択する。
プロセッサ150は、任意の様々な基準に基づいて、第1の線、第2の線、及び第3の線の交点の近さを決定し得る。例えば、一実施形態では、交点の近さの基準は、第1の3D点と第2の3D点との間の距離に基づく。一実施形態では、第1の3D点は、第1の画像の点134及び第2の画像の点144を使用して三角測量の計算を実行することによって見つけられ、三角測量の計算で使用されるベースライン距離は投射中心132及び142の間の距離である。実施形態では、第2の3D点は、第1の画像の点134及びプロジェクタの点112を使用して三角測量の計算を実行することによって見つけられ、三角測量の計算で使用されるベースライン距離は投射中心134及び116の間の距離である。3つの線124、126、及び128がオブジェクトの点122でほぼ交差する場合、第1の3D点と第2の3D点との間の距離の計算は、比較的小さい距離をもたらすことになる。一方、第1の3D点と第2の3D点との間の距離が比較的大きい場合は、点112、134、144が全てオブジェクトの点122に対応しているわけではなかったことを示すであろう。
別の例として、一実施形態では、交点の近さの基準は、3対の線の各々の間の最近接距離(closest-approach distance)の最大値に基づく。この状況は図2Dに例示されている。最も近接する線125は、線124及び126の間に描かれている。線125は、線124、126の各々に垂直であり、交点の近接長さaを有する。最も近接する線127は、線126及び128の間に描かれている。線127は、線126、128の各々に垂直であり、長さbを有する。最も近接する線129は、線124及び128の間に引かれる。線129は、線124、128の各々に垂直であり、長さcを有する。上記実施形態に記載された基準によると、考慮される値は、a、b、及びcの最大値である。比較的小さな最大値は、点112、134及び144が照らされたオブジェクト点122に対応するものとして正しく選択されたことを示すであろう。比較的大きな最大値は、点112、134及び144が照らされたオブジェクト点122に対応するものとして誤って選択されたことを示すであろう。
プロセッサ150は、交点の近さを確立するために他の多くの基準を使用し得る。例えば、3つの線が同一平面上にあった場合について、3つの点112、134、144がオブジェクト点122に対応する場合、交差する線から形成される三角形に内接する円は、比較的小さな半径を有すると予想されるであろう。3つの線が同一平面上になかった場合、3つの線に接する接点を有する球は、比較的小さい半径を有すると予想されるであろう。
第1の線、第2の線、及び第3の線の交点の近さに少なくとも部分的に基づいて交点の組を選択することは、三角測量に基づく他のほとんどのプロジェクタ−カメラの方法では使用されないことに留意されたい。例えば、投影された点が符号化された点である場合、つまり、投影面と画像面で比較したときに対応するものとして認識できる場合、投影された要素と画像化された要素との交点の近さを決定する必要はない。同様に、位相シフトされた正弦波パターンの逐次投影(sequential projection)などの逐次法が使用される場合、投影された点と画像化された点との間の対応関係はプロジェクタによって投影され且つカメラによって受け取られた光強度の連続読み取り(sequential readings)に基づいて決定された位相の画素毎の比較に基づいて決定されるため、交点の近さを決定する必要はない。方法の要素190は、点の第1の集合の3D座標を記憶することを含む。
符号化されていないパターンに投影された符号化されていない点の間の対応関係を確立するために、エピポーラ平面上のエピポーラ線の交点を使用する代替的な方法は、本明細書において上で参照した特許'455号に記載される。 特許第'455号に記載されている方法の実施形態では、三角測量スキャナはプロジェクタと2つのカメラとを三角形のパターンにおいて配置する。斯かる三角形のパターンを有する三角測量スキャナ300の例が図3に示される。三角測量スキャナ300は、プロジェクタ350、第1カメラ310、及び辺A1−A2−A3を有する三角形状に配置された第2カメラ330を含む。一実施形態では、三角測量スキャナ300は、三角測量には使用されないが、登録(registration)及び色付けを支援する追加のカメラ390をさらに含み得る。
ここで、図4を参照すると、3Dイメージャ(三角測量スキャナ)490のエピポーラの関係は、図3の3Dイメージャ300に対応する。図3では、2つのカメラと1つのプロジェクタが、辺402、404、406を有する三角形の形状に配置される。一般に、デバイス1、デバイス2及びデバイス3は、デバイスの少なくとも1つがカメラである限り、カメラとプロジェクタの任意の組み合わせであり得る。3つのデバイス491、492、493の各々は、それぞれ、投射中心O1、O2、O3を有し、それぞれ、基準面460、470、及び480を有する。図4では、基準面460、470、480は、感光性アレイの画像面又はプロジェクタパターン生成器の表面のプロジェクタ面などの物理的な面に対応するエピポーラ平面であるが、これら平面は、投射中心O1、O2、O3の反対側の数学的に等価な位置に投影される。デバイスの各ペアは、エピ極のペアを有する。エピ極は、投射中心の間に描かれた線がエピポーラ平面と交差する点である。デバイス1及びデバイス2は、それぞれ、平面460、470上にエピ極E12、E21を有する。デバイス1及びデバイス3は、それぞれ、平面460、480上にエピ極E13、E31を有する。デバイス2及びデバイス3は、それぞれ、平面470,480上にエピ極E23、E32を有する。換言すると、各基準面は2つのエピ極を含む。デバイス1の基準面は、エピ極E12及びE13を含む。デバイス2の基準面は、エピ極E21及びE23を含む。デバイス3の基準面は、エピ極E31及びE32を含む。
一実施形態では、デバイス3はプロジェクタ493であり、デバイス1は第1カメラ491であり、デバイス2は第2カメラ492である。 投影点P3、第1の画像の点P1、及び第2の画像の点P2が測定において取得されると仮定する。これらの結果は、次の方法で整合性について確認され得る。
画像の点P1の整合性を確認するために、平面P3−E31−E13を基準面460と交差させて、エピポーラ線464を取得する。平面P2−E21−E12を交差させて、エピポーラ線462を取得する。画像の点P1が整合して決定されている場合、観察された画像の点P1は、決定されたエピポーラ線462及び464の交点上にあることになる。
画像の点P2の整合性を確認するために、平面P3−E32−E23を基準面470と交差させて、エピポーラ線474を取得する。平面P1−E12−E21を交差させて、エピポーラ線472を取得する。画像の点P2が矛盾なく決定されている場合、観察された画像の点P2は、決定されたエピポーラ線472及び474の交点上にあることになる。
投影点P3の整合性を確認するために、平面P2−E23−E32を基準面480と交差させて、エピポーラ線484を取得する。平面P1−E13−E31を交差させて、エピポーラ線482を取得する。投影点P3が整合して決定される場合、投影点P3は、決定されたエピポーラ線482及び484の交点上にあることになる。
デバイス1、デバイス2、及びデバイス3の幾何学的な構成は既知であるため、プロジェクタ493がカメラ491、492によって撮像されるオブジェクト上の点上に光の点を照射するとき、3Dイメージャ490の基準のフレーム内の点の3D座標は、三角測量法を使用して決定され得ることを理解されたい。
図4に関して本明細書で上述したアプローチは、エピポーラ線はこの場合に縮退(degenerate)している(互いの頂点にある)ため、デバイス1、デバイス2、及びデバイス3の光軸を含む平面上の点の3D座標を決定するために使用され得るわけではないことに留意されたい。換言すると、この場合、エピポーラ線の交点はもはや得られない。代わりに、本発明の一実施形態では、図2B、2C、2D、2Eを参照して本明細書で上述されるように、プロジェクタの投影面上の符号化されていないスポットの位置と第1及び第2カメラの画像面との自己整合性を決定することは、符号化されていないスポット間の対応関係を決定するために使用される。
図5A、5B、5C、5D、5Eは、プロジェクタ20の代替的な実施形態の概略図である。図5Aでは、プロジェクタ500は、光源、ミラー504、及び回折光学素子(DOE)506を含む。光源502は、例えば、レーザ、スーパールミネセントダイオード、又は部分的にコヒーレントなLED(partially coherent LED)であり得る。光源502は、ミラー504で反射されてDOEを通過する光ビーム510を放出する。一実施形態では、DOE506は、発散し且つ均一に分布した光スポット512のアレイを生成する。図5Bでは、プロジェクタ520は、図5Aと同様に、光源502、ミラー504、及びDOE506を含む。しかしながら、図5のシステム520では、ミラー504は、ミラーにおいて回転524又は何らかの他の運動(並進(translation)など)を引き起こすアクチュエータ522に取り付けられる。回転524に応答して、ミラー504からの反射ビームは、DOE506に到達して光スポット512の集合を生成する前に、新しい位置に向け直されるか、又は操作される。図5Cのシステム530では、アクチュエータは、ビーム512をビーム536に向け直すミラー532に適用される。代替的には、機械的、光学的、又は電気光学的機構を使用するものなどの他のタイプのステアリング機構が図5A、5B、5Cのシステムにおいて使用され得る。他の実施形態では、光は最初にパターン生成要素506を通過し、次にミラー504を通過するか、又はミラー504なしでオブジェクト空間に向けられる。
図5Dのシステム540では、電気信号は、プロジェクタパターン生成器542を駆動するために、例えば、パターン生成部として機能するLCoS(Liquid Crystal on Silicon)ディスプレイなどの画素ディスプレイであり得る電子機器544によって提供される。LCoSディスプレイ542からの光545は、符号化されていないスポット548の発散する集合として現れる投射中心547を通って向けられる。図5Eのシステム550では、光源552は、パターン生成部554を通って送られるか、又はそこから反射され得る光を放出し得る。一実施形態では、光源552は、レンズ556を通って光555を反射するデジタルマイクロミラーデバイス(DMD)に光を送る。一実施形態では、光は、符号化されていないパターンの符号化されていないスポット558の発散する集合として現れる投射中心557を通って向けられる。別の実施形態では、光源562は、レンズ556を通過し、光558の符号化されていないパターンとして進む前に、符号化されていないドットパターンを有するスライド554を通過する。別の実施形態では、光源552からの光は、パターン558に向け直される前にレンズレットアレイ554を通過する。この場合、レンズ556を含むことは選択的である。
ビーム操作機構とも呼ばれるアクチュエータ522、534は、ピエゾアクチュエータ、微小電気機械システム(MEMS)デバイス、磁気コイル、又は固体偏向器などのいくつかのタイプのいずれであり得る。
図6Aは、それぞれ、窓部603、605、607を有する単一のカメラ602と2つのプロジェクタ604、606とを含む三角測量スキャナ600の等角図である。システム600では、プロジェクタ604、606によって投影される符号化されていないスポットは、カメラ602によって区別される。これは、符号化されていない投影されるスポットの特性の違いの結果であり得る。例えば、カメラ602がカラーカメラである場合、プロジェクタ604によって投影されるスポットは、プロジェクタ606によって投影されるスポットとは異なる色であり得る。別の実施形態では、三角測量スキャナ600及び試験中のオブジェクトは、測定中には静止しており、これにより、プロジェクタ604、606によって投影された画像がカメラ602によって連続的に収集されることが可能になる。符号化されていないスポット間の対応関係を決定する方法及びその後の3D座標を決定する方法は、2つのカメラと1つのプロジェクタの場合について図2において前述した方法と同じである。一実施形態では、システム600は、投影面及び画像面における符号化されていないスポット間の対応関係を決定し、投影されたスポットの3D座標を決定するなどの計算タスクを実行するプロセッサ2を含む。
図6Bは、プロジェクタ622を含み、さらに3つのカメラ:第1カメラ624、第2カメラ626、及び第3カメラ628を含む三角測量スキャナ620の等角図である。これらの前述のプロジェクタ及びカメラは、それぞれ、窓部623、625、627、629によって覆われている。3つのカメラと1つのプロジェクタを有する三角測量スキャナの場合、プロジェクタから放射されるドットのパターンを事前に知らなくても、符号化されていない光の投影されたスポットの3D座標を決定することが可能である。この場合、線は、3つのカメラの各々の投射中心を通って、オブジェクト上の符号化されていないスポットから引かれ得る。引かれた線は、それぞれ、3つのカメラの各々の符号化されていないスポットと交差し得る。次に、三角測量の計算は、オブジェクト面上の点の3D座標を決定するために実行され得る。一実施形態では、システム620は、3つの画像平面内の符号化されていないスポット間の対応関係を検証し、オブジェクト上の投影スポットの3D座標を決定するなどの動作方法を実行するプロセッサ2を含む。
図6Cは、三角測量スキャナ640に結合されるカメラ642をさらに含むことを除いて、図1Aのものと同様の三角測量スキャナ640の等角図である。一実施形態では、カメラ642は、捕捉された3D画像に色付けを提供するカラーカメラである。さらなる実施形態では、カメラ642は、カメラ642が動かされるとき、例えば、オペレータ又はロボットによって動かされるとき、登録を支援する。
図7A、図7Bは、自動化環境において三角測量スキャナ1を使用するための2つの異なる実施形態を例示する図7Aは、スキャナ1が所定の位置に固定され、テスト中のオブジェクト702がコンベアベルト700上又は他の輸送装置上などで動かされる実施形態を示す。スキャナ1は、オブジェクト702に関する3D座標を取得する。一実施形態では、スキャナ1の内部及び外部のいずれかのプロセッサは、オブジェクト702がその寸法仕様を満たすかどうかをさらに判定する。いくつかの実施形態では、スキャナ1は、例えば工場又は工場のセルなどの場所に固定され、活動を監視するために使用される。一実施形態では、プロセッサ2は、工場環境において動作中の機器から人間と接触する危険性があるかどうかを監視し、それに応じて、警告、アラームを発し、又は機器の動きを停止させる。
図7Bは、取り付けプレート712及びロボットアーム714を含み得るロボットエンドエフェクタ710に三角測量スキャナ1が取り付けられる実施形態を例示する。ロボットは、テスト中の1つ又は複数のオブジェクトの寸法の特性を測定するために動かされ得る。さらなる実施形態では、ロボットエンドエフェクタは、別のタイプの動作構造に置き換えられる。例えば、三角測量スキャナ1は、工作機械の可動部分に取り付けられ得る。
図8は、本明細書で上述した三角測量スキャナに適され得る測定への適用800の概略等角図である。一実施形態では、三角測量スキャナ1は、光の符号化されていないスポットをガラスなどの半透明又はほぼ透明な材料810のシートに送る。ガラスの前面812上の符号化されていない光のスポット802は、ガラスの前面812の法線ベクトルに対してある角度で到達する。符号化されていない光スポット802の光強度の一部は、前面812を通過し、ガラスの背面814で反射され、前面812に2回に到達して、破線の円として図8において表される光804の反射スポットを生成する。符号化されていない光のスポット802は、前面812の法線に対してある角度で到達するため、光のスポット804は、光のスポット802に対して横方向にシフトする。ガラス表面の反射率が比較的高い場合、前面及び背面のガラス表面間の多重反射が三角測量スキャナ1によって検出(pick up)され得る。
前面812での光の符号化されていないスポット802は、プロジェクタ及びスキャナの2つのカメラの投射中心を通る線によって交差される図2に関して記載した基準を満たす。例えば、図2において、要素250がプロジェクタであり、要素210、230がカメラであり、オブジェクト表面270がガラスの前面270を表す場合を考慮する。図2では、プロジェクタ250は、点253からの光を投射中心258を通して位置272でのオブジェクト270上に送る。点253は、図8の光のスポット802の中心を表すものとする。オブジェクト点272は、第1カメラの投射中心218を通過して第1の画像の点220に到達する。また、それは、第2カメラ230の投射中心238を通過して、第2の画像の点235に到達する。画像の点200、235は、符号化されていないスポット802の中心の点を表す。この方法により、プロジェクタと2つのカメラとの対応関係が、ガラスの前面812の符号化されていないスポット802に対して確認される。しかし、背面で最初に反射する前面の光スポット804について、画像化されたスポットに対応するプロジェクタスポットはない。換言すると、図2の表現では、線211、231、251が反射スポット204に対して単一の点272において交差する条件はない。したがって、この方法を使用して、前面でのスポットは、背面でのスポットと区別され得る。つまり、前面の3D座標は、背面からの反射による汚染(contamination)がないと決定される。これは、ガラスの厚さが十分に大きく且つガラスが法線入射に対して十分に傾いている限り可能である。前面及び背面のガラスの表面から反射された点の距離間隔は、図8に例示されるように、投影された符号化されていないパターンにおける符号化されていないスポットの比較的広い間隔によってさらに大きくなる。図8の方法がスキャナ1に関して記載されたが、本方法は、図6A、6B、6Cのスキャナ600、620、640などの他のスキャナの実施形態でもそれぞれ同様にうまく機能する。
また、場合によっては、例えば、図9A、9Bに示されるように6パックのボトルを封入するために使用される透明なプラスチックラップにおいて、ほぼ透明な材料は薄い。図9A、9Bの画像900A、900Bは、それぞれ、符号化されていないスポットのまばらなパターンを投影するように構成された三角測量スキャナ1によって収集された3D点群から得られた。画像900A、900Bをより良く理解するために、再び図8の状況を検討するが、ガラスの層が薄くなっている。ガラスがますます薄くなるにつれて、二次反射スポット804は、入射反射スポット802に徐々に近づくように動く。一実施形態では、最終的に、スポット802及びスポット804は、ほぼ垂直な入射でオブジェクト810に当たる光のように、ほぼ完全に重なり合う。例えば、6パックのボトルを囲むために使用されるプラスチックラップの厚さは0.025ミリメートルである一方で、投影される光のスポットの直径は1.0ミリメートルである。この状況では、プラスチックラップの背面層で反射した光のスポットは、プラスチックラップの前面層で反射した光とほぼ完全に重なることになる。図9A、9Bにおいて例示されるように、ボトルを覆う薄いプラスチック被覆層について、スキャナ1などのスキャナによるスポットのまばらな投影パターンは、6つのボトルを囲むプラスチック製の形状の輪郭を明確に示す反射スポットの画像を生成する。画像900A、900Bにおいて、各暗いスポットは少なくとも1つの3D座標を表す。スポットは、視聴者にオブジェクトの明確な感覚を提供するために、画像900A、900Bの2D表現で十分に大きく作られるが、ほぼ完全に黒い画像9A、9Bの領域は、3D座標の大きな集合を表す。これらの3D座標は、三角測量スキャナ1に接続されたプロセッサで利用可能であるが、3D座標の完全な組で各3D座標を視覚的に表示しなくても、画像900A、900Bは半透明の素材の曲率を明確に示す。斯かる画像は、包装された材料を動かすように設計されたロボット機械によって有用に使用され得る。
複数の異なる姿勢においてスキャナによって取得された3D座標の複数の組は、共通の参照フレームに置かれたときに一緒に登録されると言われている。斯かる登録を実行する1つの方法は、複数の姿勢からシーンを表示するカメラを用いて共通の関心点又は目標の点を観察することによるものである。ここで、姿勢という用語は、x、y、zなどの3つの並進自由度、及びピッチ角、ロール角及びヨー角などの3つの方向自由度を含む空間の6つの自由度を指すことが理解される。関心の点又は目標の点を捕捉するために使用され得るカメラの例は、図3の三角測量スキャナ300におけるカメラ390及び図6Cの三角測量スキャナ640におけるカメラ642である。関心/目標の点は、当技術分野で知られる様々な数学的な方法を使用して見つけられ得る。そのような点は、画像に配置された小さな十字1033によって図10A、10Bに示されている。図10A、10Bの例では、十字1033は、主にオブジェクトのエッジを示しているが、エッジ上の点以外の他の目標の点も見つけられ得る。目標の点は、自然の特徴、又はテスト下のオブジェクト上又は近くに配置された反射ドットなどの人工の目標に基づかれ得る。斯かる目標の点のシーケンスを様々な姿勢のカメラと比較することによって、撮像されたオブジェクトの姿勢(位置及び方向)の変化を判定することが可能であり、それによりプロセッサが3Dオブジェクトの座標の収集されたセットを共通の参照のフレームに置くことを可能にする。リアルタイムの2D画像データと蓄積された3D点群データを同時に表示するための1つの方法は、図10Bにおいて例示される表示プラットフォーム1000を使用することによるものである。斯かる表示プラットフォーム1000は、例えば、タブレット、スマートフォン、ラップトップコンピュータ、又はスキャナセンブリに組み込まれたものであり得る。
図10A、図10Bにおける表示プラットフォーム1000は、一実施形態では、第1の表示部1012及び第2の表示部1014にさらに細分されるディスプレイ1010を含む。 一実施形態では、第1の表示部1012は、ディスプレイ1010の(長方形の)中央部であり、第2の表示部1014は、第1の表示部1012の周囲の周辺領域を包含する。別の実施形態では、2つの表示部は列である。他の実施形態では、第1の表示部は、円形、正方形、台形、多角形、又はユーザ選択可能な形状を有する。
一実施形態では、ビデオライブ画像Vは、第1の表示部1012に表示される。斯かるビデオライブ画像は、例えば、2Dカメラ390又は642によって捕捉され得る。第2の表示部1014では、最新の3D点群(又は蓄積され登録された3D点群)の画像が表示される。領域1014内に表示される3D点群は、総累積点群の一部であり得る。ユーザがスキャナ300又は640を動かしたときなど、ビデオライブ画像VLが変化すると、スキャナ300又は640の位置及び方向の変化を反映するために、3次元点群3DPの画像がそれに応じて変化する。追加のスキャンが所定の領域において望まれるかどうかを判定する1つの方法は、第2の表示部1014の様々な部分に蓄積された点群の密度を観察することによるものである。例えば、ユーザは、領域1044、1046と比較して領域1042、1044の比較的高い密度に注目し得る。
一実施形態では、図1A、1B、1C、1D、1Eのスキャナ1又は図3のスキャナ300などのスキャナは、3つの並進自由度(例えばx、y、z)及び3つの方向自由度(例えばロール角、ピッチ角、ヨー角)に基づいて6つの自由度の姿勢の変化を判定するために、連続的に収集された3D点群の3D座標の分布の変化に注目することにより連続的に収集された3D点群の登録を実行し得る。そのような登録を実行するためのいくつかの可能な方法は、図11A、11B、11C、11D、HE、11F、11G、11H、11Jに例示される。図11A、11Bは、スキャナ1などのスキャナから収集された3D点群1100、1102をそれぞれ示す。一実施形態では、投影点は、例えば、80×80スポットの長方形アレイに配列された符号化されていないスポットの符号化されていないパターンにおいて、比較的まばらに間隔が空けられる。一実施形態では、フレームレートは70ヘルツであり、連続するフレーム間で14.3ミリ秒である。この状況では、連続するフレームの各3D点を比較的簡単に追跡するのが通常である。図11Cの画像1104は、図11Aの点群1100上に重ねられた灰色で示される画像化されたスポットと、黒色で示される画像化されたスポットとを有する図11Bの3D点群1102を示す。黒いスポットに対する灰色のスポットの動きは、図11Cに明確に示される。図11A、11Bの例では、点群に取り込まれたオブジェクトには比較的大きい3D構造がある。この場合、最適化手順が相対的な姿勢1110の6つの自由度を調整するために実行され得る。このような最適化手順は、例えば、x、y、z、ロール、ピッチ、ヨーを、比較的滑らかな下層表面からの3D点の偏差の二乗の和が最小になるまで調整する、最小二乗最適化を使用して実行され得る。他の多くの最適化が可能である。例えば、反復最接近アプローチ(ICP:Iterative Closest Approach)アルゴリズムに基づく方法、及び任意のこれらの最適化のいずれかが使用され得る。
次に、連続するフレーム間の相対的な姿勢が決定され得る更なる状況が、図11D、11E、11F、11G、11H、11Jを参照して説明される。図11D、11Eは、符号化されていないスポットの符号化されていないパターンが、それぞれ第1のインスタンス(instance)1122及び第2のインスタンス1123のオブジェクト1120上に投影される状況を示す。オブジェクト1120は、3つの表面1127、1128、1129のそれぞれに共通のコーナーの点1125を含む3D特徴を含む。円、十字、及びダッシュは、それぞれ表面1127、1128、1129のそれぞれにある3D座標を示すために示される。オブジェクト1120内の3D構造の量により、最小二乗最適化などの最適化が、第1のインスタンス1122から第2のインスタンス1123への姿勢の相対的な変化を判定するために実行され得る。それにより、連続的に取得された点群を登録することを可能にする。
連続的なスキャンの間の姿勢の相対的な変化を判定するための比較的難しいケースは、識別機能を持たない平坦な平面1130をスキャナが測定しているときに発生する。この問題を回避する方法の1つが、図11F、11Gに例示される。一実施形態では、反射スポットであり得る3つ以上のマーカー1135、1136、1137は、例えば、表面1130上に又は表面1130から離れて配置されるが、スキャナ1などのスキャナのカメラに対して依然として可視である。一実施形態では、スポットは、それぞれ、第1のインスタンス1132及び第2のインスタンス1133においてオブジェクト1130に投影される。第1のインスタンス及び第2のインスタンスのスキャナによって決定されたスポットの3D座標は、プロセッサが第1のインスタンス1132と第2のインスタンス1133との間の姿勢1110の相対的な変化を判定するのに十分な情報である。これにより、図11F、11Gにおいて得られた3D点群が一緒に登録されることをさらに可能にする。表面1130が完全に平面というわけではなく、3つ以上の区別可能な自然な特徴1135、1136、1137を含む場合、これらの自然な特徴は、姿勢1110の相対的な変化を判定するために使用される情報を提供し、それにより、第1のインスタンス1132及び第2のインスタンス1133において取得された点群の登録を可能にする。
図11H、11Jは、区別する特徴を持たない平坦な平面1130など平面を測定することが比較的困難である場合を再び例示する。一実施形態では、3つ以上の光のスポット1145、1146、1147は、外部プロジェクタ1149によって平面1130に投影される。投影された光のスポット1145、1146、1147は、スキャナ1などのスキャナのカメラによって見られる。したがって、光の投影されたスポット1145、1146、1147は、マーカー1135、1136、1137と同じ機能を果たし、姿勢1110の相対的な変化を判定し、それにより第1のインスタンス1142及び第2のインスタンス1143において得られた3D点群が登録されることを可能にする。このアプローチは、例えば、スキャナ1又は300などのスキャナが動く一方で、テストの対象と外部のプロジェクタの両方が固定されている場合に使用され得る。スキャナのこのような動きは、例えば、スキャナが手持ち式であるか又はロボットのエンドエフェクタに搭載される場合に発生し得る。
場合によっては、背景オブジェクトは、連続的なスキャンの登録を支援するために使用され得る。例えば、図12Aのスキャナ1がオブジェクト1202を測定するために使用されると仮定する。一実施形態では、スキャナが静止している一方で、オブジェクト1202はコンベアベルト上で動いている。別の実施形態では、スキャナ1は例えばロボットエンドエフェクタにより又はオペレータによりハンドヘルドモードで動かされる一方で、オブジェクト1202は静止している。いずれの場合でも、スキャナ1とオブジェクト1202との間の相対的な動きは、背景オブジェクト1204の相対的な動きが見えるようにすることになる。1つ又はいくつかが存在され得る背景オブジェクトは、破線のボックス1204によって概略的に表される。可視及び静止オブジェクト1204の存在は、連続して収集された点群の登録を取得するのを支援する。
場合によっては、補正又は較正が、スキャナ又はロボットなどのスキャナとともに使用される産業用システムのために望まれ得る。図12Bに示されるスキャナ1の補正又は較正は、スキャナの正確な性能のための補正パラメータを決定するために実行されてもよく、又は製造業者の仕様に対する標準の性能を検証するために使用されてもよい。補正パラメータの定期的な調整は、例えば、スキャナ内の材料の熱膨張から、又は起こり得る機械的な衝撃の結果としてのスキャナの機械的な変化によって生じ得る。同様に、スキャナ1をロボットエンドエフェクタに取り付けて、ロボットに正確なガイダンスとナビゲーションとを提供し得る。ほとんどの場合、ロボットはそのエンドエフェクタを所定の位置に動かすのに役立つ角度エンコーダなどのセンサを有するが、ロボットのシステムの全体的な操縦精度はスキャナ1と比較して非常に正確というわけではない。したがって、スキャナ1は、ロボットのシステムをガイドするために費用効果の高い方法を提供し得る。図12Bにおいて、基準のアーティファクト(reference artifact)1224は、補正又は較正のためにスキャナによって使用される。
ここで、基準のアーティファクト1224の特定の例が、図12C、12Dを参照して説明される。スキャナ1などのスキャナは、取り付けプレート712及びロボットアーム714を含み得るロボットエンドエフェクタ710に取り付けられる。一実施形態では、ロボットは、エンドエフェクタ710を所望の位置に動かす関節アームセグメントの集合を含む。別の実施形態では、ロボットは、エンドエフェクタを所定の方法で動かす工作機械などの非関節的な構造である。一実施形態では、スキャナは、低い熱膨張係数(CTE)を有する剛性材料1232上の較正位置に配置された反射ドット1231の集合を含む較正プレート1230を定期的に測定する。例えば、剛性材料1232は、1.0マイクロメートル/メートル/℃未満の熱膨張係数を有する低CTE炭素繊維複合材料であり得る。一実施形態では、較正又は補正手順において、エンドエフェクタ710は、スキャナ1を傾けていくつかのわずかに異なる位置に移動させて較正プレートを撮像し得る。わずかに異なる位置及び角度から較正プレートのカメラ30、40によって捕捉された画像を比較することにより、スキャナの補正パラメータが決定され得る。そのような補正パラメータは、歪みなどのカメラ収差に関連するカメラ補正パラメータの補正を含み得る。また、補正パラメータは、プロジェクタ20、カメラ30、及びカメラ40の相対的な姿勢を補正するための値を含み得る。そのような姿勢の補正の例は、図2に示されるようなベースラインB1、B2、及びB3の補正である。また、補正パラメータは、ロボットの機構及びセンサの変化を構成し得る。例えば、補正は、ロボットのジョイントの各角度エンコーダに関連付けられた「ゼロ角度」に対して使用され得る。更なる補正が、ロボットアームの温度依存の長さのために使用され得る。
また、定期的な補正に加えて、フィールドチェック又は較正が実行され得る。フィールドチェック及び較正は、スキャナのセンサ又はロボットシステムが望みどおり又は期待どおりに実行していることを確認するために定期的に実行される。較正プレートは、システムの性能を改善するための補正パラメータを決定するだけでなく、システムをチェック又は較正する方法を提供する。
また、図12Dに示される2つの他のタイプのアーティファクトは、補正及び較正に使用され得る。ボールバー1240は、較正された基準直径を有し且つ中心シャフト1244に取り付けられた2つ以上のボール1242を含み、ボール1242は較正された基準距離だけ離れている。各球体の表面上の点を測定することにより、スキャナ1は各ボール1242の直径及びボール間の距離を決定し得る。使用され得る別のアーティファクトは、スケールバー1250である。スケールバーは、それぞれが較正された基準距離だけ離れた多数のマーカ1252を有するバーです。状況によっては、スケールバー1250は比較的非常に長い場合がある。一実施形態では、スキャナは、比較的大きなオブジェクトと併せて長いスケールバーを測定する。一実施形態では、スケールバーの比較的大きな長さにわたってスキャナ1によって取得されたスケールバーの読み取り値は、大きなオブジェクトを測定する際に取得された点群の登録を支援するために一緒に使用される。
図12E、12Fに例示される実施形態では、スキャナ1は、コンベアベルト700又はロボットエンドエフェクタ710と組み合わせて使用される。一実施形態では、スキャナ1は、複数の3D点群において、コンベアベルト700上で動くオブジェクトを捕捉する。一実施形態では、複数の3D点群は、図11A、11B、11Cを参照して上述したように、基準の共通フレームと一緒に登録される。その結果、図7Aのオブジェクト700が、700A、700B、700Cなどのいくつかの位置で捕捉される。3D点群が一緒に登録されると、オブジェクト700は複数の視点から見られ、それにより、結果として生じる3D表現の捕捉された容量が増加する。加えて、スキャナ1は、位置700A、700B、700C間の経過時間を決定するために使用され得る。一実施形態では、このタイミング情報は、コンベアベルト又は他のプロセスに同期信号を提供するために使用される。
一実施形態では、ロボットエンドエフェクタ710に取り付けられた移動スキャナ1は、複数の位置1260A、1260B、1260Cにおいてオブジェクト1260を捕捉する。一実施形態では、複数の3D点群は、図11A、11B、11Cを参照して上述したように、基準の共通フレームと一緒に登録される。3D点群が一緒に登録されると、オブジェクト1200は複数の視点から見られ、それにより結果として生じる3D表現の捕捉の容量が増加する。加えて、スキャナ1は、位置1260A、1260B、1260C間の経過時間を決定するために使用され得る。一実施形態では、このタイミング情報は、ロボットエンドエフェクタ710又は他のプロセスに同期信号を提供するために使用される。
本明細書で使用される場合、エンドエフェクタ710を有する人間中心のロボットは、人間のオペレータに近接して自律的又は半自律的に動作するように構成されたロボット装置である。本明細書で使用される「近接」という語句は、人間中心のロボットの一部分が操作中に人間のオペレータと重なる領域内で動くように人間中心のロボットの一部分及びオペレータが配置されることを意味する。また、人間中心のロボットは、ヒューマンフレンドリ、協調ロボット、又は人間協調ロボットとも呼ばれ得る。そのようなものとして、人間中心のロボットは、例えば、人間中心のロボットの可動部分が接触の危険があるように人間のオペレータの所定の距離内にあるようにオペレータ及び人間中心のロボットが位置付けられるかどうかを決定するセンサなどの1つ又は複数のセンサを含み得る。一実施形態では、コントローラは、人間中心のロボットの速度又は動きを変更して、接触を回避するか、又は接触した場合に人間のオペレータにかかる力を減らすように構成される。1つ又は複数の実施形態では、人間中心のロボットは、接触点での速度25メートル/秒以下、最大動的出力80ワット以下、又は最大静的力150ニュートン以下を有するように構成される。
一実施形態では、スキャナ1は、人間のオペレータ及び人間中心のロボットの相対的な位置の決定を可能にする位置信号を送信する。例示的な実施形態では、位置信号は環境又は周囲照明に応じるものではない。言い換えれば、位置信号は環境光の状態(environmental light condition)とは独立して決定される。一実施形態では、ロボットの近くで働いているオペレータがロボット機構と相互作用する危険性があるかどうかに関しての評価がプロセッサによって行われる。一実施形態では、オペレータがロボットと相互作用する可能性は、ロボットが第1の姿勢を有する第1のインスタンスからロボットが第2の姿勢を有する第2のインスタンスへのロボットエンドエフェクタの姿勢の変化に少なくとも部分的に基づいて判定される。これは、オペレータを含む相互作用の可能性を決定することによりなされる。相互作用の可能性は、第1のインスタンスから第2のインスタンスへの三角測量スキャナ1の姿勢の変化に少なくとも部分的に基づく。一実施形態では、姿勢の変化は、図11A、11B、11Cに例示されるように、第1のインスタンス及び第2のインスタンスの点群の捕捉された3D座標の変化に基づく。
一実施形態では、3D測定デバイス1300は、スキャナ1310と、プローブアセンブリ1320と、を含む。図13Aに例示される実施形態では、ハンドヘルド3D測定デバイス1310は、ハンドルアセンブリ1320に取り付けられたスキャナ1310を含む。一実施形態では、プローブアセンブリ1320は、ハンドル1321、測定を開始若しくは停止するための又は他の指示を与えるためのボタン/アクチュエータ1322、及び触覚プローブアセンブリ1325を含む。プローブアセンブリ1325は、オペレータが三次元で測定される点と接触して保持し得るプローブチップ1327を含む。プローブチップは、図13Aに示されるように、スキャナ1310から比較的短い距離だけ延び得る。又は、例えば、プローブチップ1327を比較的長いスタイラスに取り付けることにより、スキャナからさらに遠くまで延びてもよい。また、プローブの先端は、下向きに角度を付けるか、又は別の方向に向けられ得る。プローブチップ1327がスキャナ1310の比較的近くに配置される場合、追加のカメラ1312が、プロジェクタ20によって投影される光の符号化されていないスポットに関してプローブチップ1327を可視化するカメラ40と協働するために追加され得る。他の実施形態では、プローブアセンブリ1325はプローブチップを含まず、代わりに3D測定値を取得するためにスキャナ1310に完全に依存する。実施形態では、図11A、11B、11C、11D、HE、11F、11G、11H、11Jに示される登録方法のいずれかは、オペレータが3D測定デバイス1300をある位置からある位置に移動させるときに得られるプローブチップ1327を用いて測定される複数の3D点群及び3D点を登録するために使用され得る。別の実施形態では、図10A、10Bに関して説明したように、追加のカメラが、2D測定値を提供し複数の点群の登録を支援するためにスキャナ1310に追加され得る。一実施形態では、カメラ1312は、三角測量ではなく登録に使用される。
図13Bは、比較的大きな容量にわたって測定するときなど、測定デバイス1300と比較して改善された3D測定性能を有する3D測定システム1330を示す。一実施形態では、3D測定デバイス1330は、3D測定デバイス1300Aと、レーザトラッカ1330と、球形に搭載された再帰反射器(SMR)1350と、磁気ネスト1370と、を含む。一実施形態では、三角測量スキャナ1300Aは、カメラ1312がないことを除いて、三角測量スキャナ1300と同様である。しかし、3D測定デバイス1300Aは3D測定デバイス1300によって置き換えられ得る。同様に、3D測定デバイス1300Aのスキャナは、図1A、IB、1C、ID、IE、3、6A、6B、6C又はこれらの変形に示されているスキャナのいずれかによって置き換えられ得る。図13Bでは、レーザトラッカ1340が通常では再帰反射器の頂点に向けられる光ビームを放出する。図13Bに例示される実施形態では、再帰反射器はSMR1350であるが、任意のタイプの再帰反射器が使用され得る。一実施形態では、SMR1350は、3D測定デバイス1310Aに取り付けられた磁気ネスト1370により所定の位置に保持される。一実施形態では、SMR1350の外面1352は、球形であり、非腐食性の強磁性金属製である。一実施形態では、キューブコーナー再帰反射器1360は、球状外面1352内に埋め込まれる。一実施形態では、キューブコーナー再帰反射器1360は、それぞれが他の2つのミラーに対して相互に垂直であり、それぞれが頂点1354と呼ばれる共通の交点で接合された3つの第1の表面ミラー1362を含む。一実施形態では、頂点1354は、球状外面1352の球状中心に配置される。一実施形態では、磁気ネスト1370は、ネスト1370から取り外されてネストに戻された後であっても、SMR1350の中心を一定の位置に保持する運動学的ネストである。一実施形態では、レーザトラッカは、光ビーム1342を頂点1354に向ける。各位置で、レーザトラッカ1340は頂点1354までの距離を測定し、また光のビーム1342がレーザトラッカ1340の理想的な回転中心(ジンバル点)に向けられる垂直及び水平角度を測定する。したがって、測定された距離及び2つの測定された角度を使用して、トラッカ1340は再帰反射器の頂点1354の3D座標を決定することができる。SMR1350は、磁気ネスト1370内で任意の方向に回転させることができ、それにより、レーザトラッカ1340がほぼ任意の角度に回されたときにSMRを追跡しやすくする。
レーザトラッカ1340は、通常、頂点1354の3D座標を1000分の1又は2インチ(0.025〜0.050ミリメートル)以内から20メートル以上の範囲まで判定する比較的正確な3D測定機器である。言い換えれば、レーザトラッカは、比較的高い並進(x、y、z)精度に対して3D測定デバイス1300Aの並進運動を判定する。比較的近い範囲(例えば、通常0.2メートルから3.5メートルの最大範囲)で測定している間、3D測定デバイス1300Aの精度は比較的高く、複数の3Dデータセットの登録は、前述したいずれかの方法を使用して実行され得る。レーザトラッカ1340及び再帰反射器1350と3D測定デバイス1300A(又は同様の装置)とのこの組み合わせの使用は、3D測定デバイス1300Aにより近距離で比較的高い精度を得ることが可能にする。同様に、3つの方向自由度(ピッチ角、ヨー角、ロール角など)においてスキャナ1310Aを正確に登録する3D測定デバイス1300Aの能力は、図13Bの3D測定システム1330を、大容量を迅速に測定できる比較的柔軟で正確な測定システムにする。
図14は、三角測量スキャナ1がロボットエンドエフェクタ710に取り付けられる実施形態を例示する。ロボットエンドエフェクタ710は、取り付けプレート712及びロボットアーム714を含み得る。一実施形態では、ロボットは、エンドエフェクタ710を所望の場所に動かす関節アームセグメントの集合を含む。別の実施形態では、ロボットは、エンドエフェクタを所定の方法で動かす工作機械などの非関節構造である。図14に例示される実施形態では、レーザトラッカ740がSMR1350の位置(x、y、z)を正確に追跡及び測定することを可能にするために、SMR1350及び磁気ネスト1370がロボットエンドエフェクタ710に取り付けられる。
図15Aは、エリア三角測量スキャナ1510及びラインスキャナ1520を含む3D測定システム1500の実施形態を例示する。一実施形態では、レーザラインプローブ(LLP)としても知られるラインスキャナ1520は、例えば関節アーム座標測定機などの他のデバイスに取り付けられ得る組み合わせの機械的/電気的コネクタ1512Bを含む。図15Aの実施形態では、三角測量スキャナ1510は、2つのユニット間で機械的剛性を提供しユニット1510、1520間で電気信号を転送するために、コネクタ1512Bにロックする組み合わせの機械的/電気的コネクタ1512Aを含む。一実施形態では、ラインスキャナは、ハンドルカバー1542を有するハンドル1540を含み、その半分は、ハンドル1540内に封入された電気回路1544を示すために除去される。また、ラインスキャナ1520は、ラインプロジェクタ1532及びカメラ1534を含むライン走査三角測量アセンブリ1530を含む。一実施形態では、ラインスキャナは、2Dカメラ1534によって画像が撮像されるオブジェクトに光の線(line of light)を放出する。光の線と交差するオブジェクト点の3D座標は、三角測量の方法を使用してプロセッサによって決定される。プロセッサは、電気回路1544内に存在するか、又は、例えばネットワークコンピューティングシステム内のスキャナの外部にあってもよい。
一実施形態では、3D測定デバイス1510によって取得された3D座標は、ラインスキャナ1520によって取得された3D座標の複数の線を登録するために使用される。ラインスキャナ1520は比較的正確である。例えば、いくつかのシステムでは、ラインスキャナ1520は毎秒約100万点の3D点を収集し得る。1000分の1インチから2インチ(0.025mmから0.05mm)の比較的高い精度が収集された点について得られる。複数の3D線座標を3D測定デバイス1510に登録することにより、3D座標の比較的正確な登録された点群が取得され得る。これは、レーザラインプローブが異なる時間に2つの異なる重なり合う方向に動いた場合に特に当てはまる。例えば、ラインスキャナ1520は、多数の線にわたって点を捕捉するために第1の方向に移動され、その後、より多くのラインを収集するために第1の方向にほぼ垂直な第2の方向に移動され得る。この方法で点を収集し、データを後処理することにより(おそらく最終的な3D座標を提示する際に比較的小さな遅延が生じる)、登録の精度が改善され、比較的高精度及び高密度の点群が得られ得る。また、あるラインスキャナ1520は、黒色又は透明なオブジェクトなどの低反射オブジェクト及び拡散した白い表面などの高反射オブジェクトから反射した光から、広いダイナミックレンジの光レベルにわたって3D座標を収集することが知られている。したがって、3D測定デバイス1510は、いくつかの測定状況において重要な利点を有する。
図15Bは、3D測定デバイス1500の正面図であり、図15Aにも示されている。図15Cは、コネクタ1512A及び1512Bがないことを除いて1500と同様である3D測定デバイス1500Bの正面図である。3D測定デバイス1500Bは、3D測定デバイスのサイズが所望の属性である場合、デバイス1500よりも有利である。
図15Dは、図15Cを参照して説明された3D測定デバイス1500Bと、図13Bを参照して説明されたレーザトラッカ1340と、SMR1350と、磁石1372を含む磁気ネスト1370と、を有するハンドヘルド3D測定システムの実施形態を例示する。一実施形態では、レーザトラッカ1340、SMR1350及び磁気ネスト1370の主な目的は、3つの並進自由度(x、y、z)においてハンドヘルドスキャナセンブリを追跡することである。スキャナセンブリ1510Bの主な目的は、3つの方向自由度(ピッチ角、ヨー角、ロール角)を提供することである。並進自由度及び方向自由度の両方の比較的高い精度は、比較的高い精度の登録を取得するのに役立つ。ラインスキャナ1520Bの主な目的は、スキャナセンブリ1510B及びレーザトラッカ1340によって適切に登録される、正確で高ダイナミックレンジの3D座標を提供することである。
図15Eは、アセンブリ1560がロボットアセンブリ又はコンベアベルトと組み合わせて制御又は測定するなどの自動システムで使用するために設計されることを除いて、図15Dの測定アセンブリ1550と同様の3D測定アセンブリ1560の実施形態を示す。したがって、アセンブリ1550のハンドルは、ラインスキャナ1570の平らな底部1572に置き換えられている。ラインスキャナ1570は、プロジェクタ1532、図15Aを参照して前述したようなカメラ1534を含む。ラインスキャナ1570は、処理及び電子機器1536をさらに含み得る。
限られた数の実施形態のみに関連して本発明を詳細に説明したが、本発明はそのような開示された実施形態に限定されないことを直ちに理解されたい。 むしろ、本発明は、これまで説明されていないが本発明の精神及び範囲に見合う任意の数の変形、変更、置換、又は同等の構成を組み込むように修正され得る。加えて、本発明の様々な実施形態が説明されたが、本発明の態様は、説明された実施形態の一部のみを含み得ることを理解されたい。したがって、本発明は、前述の説明によって限定されると見なされるべきではなく、添付の特許請求の範囲によってのみ限定される。
Claims (26)
- 第1のインスタンスにおいて、
オブジェクト上に照らされたオブジェクトスポットを形成するために、投射中心を有するプロジェクタを用いて、プロジェクタの基準面から符号化されていないスポットの第1の符号化されていないパターンを投影することと、
第1カメラの投影中心を有する第1カメラを用いて、前記照らされたオブジェクトスポットを第1の画像の第1の画像スポットとして捕捉することと、
第2カメラの投影中心を有する第2カメラを用いて、前記照らされたオブジェクトスポットを第2の画像の第2の画像スポットとして捕捉することと、
プロセッサを用いて、前記オブジェクト上の点の第1の集合の3D座標を決定することであって、点の前記第1の集合の前記3D座標が、符号化されていないスポットの前記第1の符号化されていないパターンと、前記第1の画像と、前記第2の画像と、前記プロジェクタ、前記第1カメラ及び前記第2カメラの相対的な位置と、選択された複数の交点の組とに少なくとも部分的に基づき、各交点の組が第1のスポット、第2のスポット及び第3のスポットを含み、前記第1のスポットが前記プロジェクタの基準面の符号化されていないスポットのうちの1つであり、前記第2のスポットが第1の画像スポットのうちの1つであり、前記第3のスポットが第2の画像スポットのうちの1つであり、前記交点の組の各々を選択することが第1の線、第2の線及び第3の線の交点の近さに少なくとも部分的に基づき、前記第1の線が前記第1のスポットから前記プロジェクタの投射中心を通って引かれた線であり、前記第2の線が前記第2のスポットから前記第1カメラの投射中心を通って引かれた線であり、前記第3の線が前記第3のスポットから前記第2カメラの投射中心を通って引かれた線である、決定することと、
前記点の第1の集合の前記決定された3D座標を記憶することと、
を含む方法。 - 第2のインスタンスにおいて、
前記プロジェクタ、前記第1カメラ、前記第2カメラ及び前記プロセッサを有するスキャナシステムを用いて、点の第2の集合の3D座標を決定することをさらに含む請求項1に記載の方法。 - 前記プロセッサを用いて、前記点の第1の集合の決定された3D座標及び前記点の第2の集合の決定された3D座標に少なくとも部分的に基づいて、基準の共通フレームにおいて前記点の第1の集合及び前記点の第2の集合を登録することをさらに含む請求項2に記載の方法。
- 再帰反射器を前記スキャナシステムに結合することと、
前記第1のインスタンスにおいて、レーザトラッカを用いて前記再帰反射器の第1の3D座標を測定することと、
前記第2のインスタンスにおいて、レーザトラッカを用いて前記再帰反射器の第2の3D座標を測定することと、
前記プロセッサを用いて、前記再帰反射器の前記測定された第1の3D座標及び前記再帰反射器の前記測定された第2の3D座標にさらに少なくとも部分的に基づいて、前記基準の共通フレームにおいて前記点の第1の集合及び前記点の第2の集合を登録することと、
をさらに含む請求項3に記載の方法。 - 前記プロセッサを用いて、前記点の第1の集合の決定された3D座標及び前記点の第2の集合の決定された3D座標に少なくとも部分的に基づいて、前記第1のインスタンスにおける第1の姿勢から前記第2のインスタンスにおける第2の姿勢までの前記スキャナシステムの姿勢の変化を判定することをさらに含む請求項2に記載の方法。
- 再帰反射器を前記スキャナシステムに結合することと、
前記第1のインスタンスにおいて、レーザトラッカを用いて前記再帰反射器の第1の3D座標を測定することと、
前記第2のインスタンスにおいて、レーザトラッカを用いて前記再帰反射器の第2の3D座標を測定することと、
前記プロセッサを用いて、前記再帰反射器の前記測定された第1の3D座標及び前記再帰反射器の前記測定された第2の3D座標にさらに基づいて、前記第1の姿勢から前記第2の姿勢までの前記スキャナシステムの姿勢の前記変化を判定することと、
をさらに含む請求項5に記載の方法。 - 前記スキャナシステムを用いて基準のアーティファクトの3D座標を測定することと、
前記プロセッサを用いて、前記基準のアーティファクトの前記測定された3D座標にさらに基づいて前記第1の姿勢から前記第2の姿勢までの前記スキャナシステムの姿勢の前記変化を判定することと、
をさらに含む請求項6に記載の方法。 - ロボット機構を前記スキャナシステムに結合することと、
前記プロセッサを用いて、前記第1の姿勢から前記第2の姿勢までの前記スキャナシステムの姿勢の前記判定された変化に少なくとも部分的に基づいて、前記ロボット機構の姿勢の所望の変化を計算することと、
姿勢の前記所望の変化を得るために前記ロボット機構を調整することと、
をさらに含む請求項5に記載の方法。 - 予め定められた可能性閾値以上である、オペレータを含む相互作用の可能性に応じて、前記ロボット機構の方向及び速度の少なくとも1つを変えることをさらに含む請求項8に記載の方法。
- 再帰反射器を前記スキャナシステムに結合することと、
前記第1のインスタンスにおいて、レーザトラッカを用いて前記再帰反射器の第1の3D座標を測定することと、
前記第2のインスタンスにおいて、レーザトラッカを用いて前記再帰反射器の第2の3D座標を測定することと、
前記プロセッサを用いて、前記再帰反射器の前記測定された第1の3D座標及び前記再帰反射器の前記測定された第2の3D座標にさらに基づいて、前記ロボット機構の姿勢の前記所望の変化を計算することと、
をさらに含む請求項8に記載の方法。 - 前記スキャナシステムを用いて基準のアーティファクトの3D座標を測定することと、
前記プロセッサを用いて、前記基準のアーティファクトの前記測定された3D座標にさらに基づいて、前記ロボット機構の姿勢の前記所望の変化を計算することと、
をさらに含む請求項8に記載の方法。 - 第3カメラを前記スキャナシステムに結合することと、
前記第1のインスタンスにおいて、前記第3カメラを用いて、第1のマークの第1の第3カメラ画像を捕捉することと、
前記第2のインスタンスにおいて、前記第3カメラを用いて、前記第1のマークの第2の第3カメラ画像を捕捉することと、
前記プロセッサを用いて、前記第1のマークの前記第1の第3カメラ画像及び前記第1のマークの前記第2の第3カメラ画像にさらに基づいて基準の前記共通フレームにおける点の前記第1の集合及び点の前記第2の集合を登録することと、
をさらに含む請求項3に記載の方法。 - 前記第1の第3カメラ画像及び前記第2の第3カメラ画像を捕捉することでは、前記第1のマークが自然の特徴の態様及び人口の目標からなるグループから選択される請求項12に記載の方法。
- ラインスキャナを前記スキャナシステムに結合することであって、前記ラインスキャナがラインプロジェクタ及び2次元(2D)カメラを有する、結合することと、
前記第1のインスタンスにおいて、前記オブジェクト上に前記ラインプロジェクタから光の第1の線を投影し前記カメラを用いて前記オブジェクト上の光の前記第1の線の第1のラインスキャナ画像を捕捉することと、
前記第2のインスタンスにおいて、前記オブジェクト上に前記ラインプロジェクタから光の第2の線を投影し前記カメラを用いて前記オブジェクト上の光の前記第2の線の第2のラインスキャナ画像を捕捉することと、
前記プロセッサを用いて、点の前記第1の集合、点の前記第2の集合、光の前記投影された第1の線、前記捕捉された第1のラインスキャナ画像、光の前記投影された第2の線、及び前記捕捉された第2のラインスキャナ画像に少なくとも部分的に基づいて、前記オブジェクト上の光の前記第2の線に対する前記オブジェクト上の光の前記第1の線を登録することと、
をさらに含む請求項2に記載の方法。 - 前記プロジェクタを用いて符号化されていないスポットの符号化されていないパターンを投影することでは、前記プロジェクタが、共通平面を前記第1カメラの光軸及び前記第2カメラの光軸と共有する光軸を含む請求項1に記載の方法。
- 前記プロジェクタを用いて符号化されていないスポットの符号化されていないパターンを投影することでは、前記プロジェクタ、前記第1カメラ及び前記第2カメラが頂部構造要素及び底部構造要素と結合され、前記頂部構造要素及び前記底部構造要素がスペーサによって別に保持された剛性板である請求項1に記載の方法。
- 前記プロジェクタを用いて、光源からパターン生成器に光を投影することであって、前記パターン生成器は、回折光学素子(DOE)、パターンを有する透明又は反射スライド、デジタルマイクロミラーデバイス(DMD)、及びレンズレットアレイからなるグループから選択される請求項1に記載の方法。
- ビーム操作機構を用いて、符号化されていないスポットの符号化されていないパターンを操作することであって、前記ビーム操作機構が、ピエゾアクチュエータ、微小電気機械システム(MEMS)デバイス、及び磁気コイルからなるグループから選択される機構によって作動される固体状態偏向又は反射要素を含む請求項1に記載の方法。
- 点の前記第1の集合が、動作しているコンベアベルト上に配置されるときに前記オブジェクトに関して前記第1のインスタンスにおいて得られ、
点の前記第2の集合が、前記動作しているコンベアベルト上の前記オブジェクトに関して前記第1のインスタンスにおいて得られる請求項3に記載の方法。 - 点の前記第1の集合が、ロボットの動作しているエンドエフェクタ上に配置されるときに前記オブジェクトに関して前記第1のインスタンスにおいて得られ、
点の前記第2の集合が、前記ロボットの前記動作しているエンドエフェクタ上の前記オブジェクトに関して前記第1のインスタンスにおいて得られる請求項3に記載の方法。 - 投射中心を有するプロジェクタであって、オブジェクト上に照らされたオブジェクトスポットを形成するために、プロジェクタの基準面から符号化されていないスポットの第1の符号化されていないパターンを投影するように動作可能なプロジェクタと、
第1カメラ投射中心を有する第1カメラであって、第1の画像において前記照らされたオブジェクトスポットを第1の画像スポットとして捕捉するように動作可能な第1カメラと、
第2カメラ投射中心を有する第2カメラであって、第2の画像において前記照らされたオブジェクトスポットを第2の画像スポットとして捕捉するように動作可能な第2カメラと、
プロセッサであって、前記プロセッサ上で実行されるとき、前記オブジェクト上の点の第1の集合の3D座標を決定するコンピュータ命令であって、点の前記第1の集合の前記3D座標が、第1のインスタンスにおいて、符号化されていないスポットの前記第1の符号化されていないパターンと、前記第1の画像と、前記第2の画像と、前記プロジェクタ、前記第1カメラ及び前記第2カメラの相対的な位置と、選択された複数の交点の組とに少なくとも部分的に基づき、各交点の組が第1のスポット、第2のスポット及び第3のスポットを含み、前記第1のスポットが前記プロジェクタの基準面の符号化されていないスポットのうちの1つであり、前記第2のスポットが第1の画像スポットのうちの1つであり、前記第3のスポットが第2の画像スポットのうちの1つであり、前記交点の組の各々を選択することが第1の線、第2の線及び第3の線の交点の近さに少なくとも部分的に基づき、前記第1の線が前記第1のスポットから前記プロジェクタの投射中心を通って引かれた線であり、前記第2の線が前記第2のスポットから前記第1カメラの投射中心を通って引かれた線であり、前記第3の線が前記第3のスポットから前記第2カメラの投射中心を通って引かれた線である、コンピュータ命令を実行するように動作可能なプロセッサと、
を備えるシステム。 - スキャナシステムは、前記プロジェクタ、前記第1カメラ、前記第2カメラ及び前記プロセッサを含み、前記プロセッサが、第2のインスタンスにおいて、前記プロセッサ上で実行されるとき、点の第2の集合の3D座標を決定するコンピュータ命令を実行するように動作可能である請求項21に記載のシステム。
- 前記プロセッサが、前記プロセッサ上で実行されるとき、前記点の第1の集合の測定された3D座標及び前記点の第2の集合の測定された3D座標に少なくとも部分的に基づいて、基準の共通フレームにおいて前記点の第1の集合及び前記点の第2の集合を登録するコンピュータ命令を実行するように動作可能である請求項22に記載のシステム。
- プロジェクタの光軸及びプロジェクタの投射中心を有するプロジェクタであって、第1の符号化されていないパターンにおける光の符号化されていないスポットの集合をオブジェクト上に投影するように動作可能なプロジェクタと、
第1カメラの光軸及び第1カメラの投射中心を有する第1カメラであって、前記オブジェクト上の光の符号化されていないスポットの前記集合の第1の画像を捕捉するように動作可能な第1カメラと、
第2カメラの光軸及び第2カメラの投射中心を有する第2カメラであって、前記オブジェクト上の光の符号化されていないスポットの前記集合の第2の画像を捕捉するように動作可能な第1カメラと、
前側部を有する筐体であって、前記前側部が前記プロジェクタの光軸、前記第1カメラの光軸、及び前記第2カメラの光軸によって交差され、前記前側部が前記プロジェクタの投射中心、前記第1カメラの光軸及び前記第2カメラの光軸を含む第1の面によってさらに交差される、筐体と、
プロセッサであって、前記プロセッサ上で実行されるとき、符号化されていないスポットの前記第1の符号化されていないパターン、前記第1の画像、及び前記第2の画像に少なくとも部分的に基づいて、前記オブジェクト上の点の3次元(3D)座標を決定するコンピュータ命令を実行するように動作可能なプロセッサと、
を備えるシステム。 - 前記プロジェクタの光軸、前記第1カメラの光軸及び前記第2カメラの光軸は共通の面上にある請求項24に記載のシステム。
- 前記プロジェクタが光源及び回折光学素子をさらに含み、光の符号化されていないスポットの前記集合が前記光源から前記回折光学素子を通る光によって生成される請求項24に記載のシステム。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201762502065P | 2017-05-05 | 2017-05-05 | |
US62/502,065 | 2017-05-05 | ||
US15/784,437 US11022692B2 (en) | 2017-05-05 | 2017-10-16 | Triangulation scanner having flat geometry and projecting uncoded spots |
US15/784,437 | 2017-10-16 | ||
PCT/US2018/028831 WO2018204112A1 (en) | 2017-05-05 | 2018-04-23 | Triangulation scanner having flat geometry and projecting uncoded spots |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020518820A true JP2020518820A (ja) | 2020-06-25 |
Family
ID=64015251
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019560375A Pending JP2020518820A (ja) | 2017-05-05 | 2018-04-23 | 平坦な形状を有し且つ符号化されていないスポットを投影する三角測量スキャナ |
Country Status (4)
Country | Link |
---|---|
US (1) | US11022692B2 (ja) |
EP (1) | EP3619498B1 (ja) |
JP (1) | JP2020518820A (ja) |
WO (1) | WO2018204112A1 (ja) |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019094901A1 (en) | 2017-11-13 | 2019-05-16 | Hexagon Metrology, Inc. | Thermal management of an optical scanning device |
WO2019227974A1 (zh) * | 2018-06-02 | 2019-12-05 | Oppo广东移动通信有限公司 | 电子组件和电子装置 |
USD875573S1 (en) | 2018-09-26 | 2020-02-18 | Hexagon Metrology, Inc. | Scanning device |
CN109828231B (zh) * | 2019-02-26 | 2022-05-17 | 天津大学 | 一种基于led的室内飞行光源定位方法 |
US11683465B2 (en) | 2019-03-28 | 2023-06-20 | Faro Technologies, Inc. | Stereo illumination |
US11080870B2 (en) | 2019-06-19 | 2021-08-03 | Faro Technologies, Inc. | Method and apparatus for registering three-dimensional point clouds |
US11592285B2 (en) | 2019-08-15 | 2023-02-28 | Faro Technologies, Inc. | Modular inspection system for measuring an object |
TWI709725B (zh) * | 2019-12-03 | 2020-11-11 | 阿丹電子企業股份有限公司 | 箱體的體積量測裝置及體積量測方法 |
EP3889543B1 (de) * | 2020-04-01 | 2023-06-07 | Leica Geosystems AG | Six-dof-messhilfsmittelmodul zur bestimmung von 3d-koordinaten von zu vermessenden punkten einer objektoberfläche |
US11763473B2 (en) * | 2020-07-23 | 2023-09-19 | Zhejiang Hanchine Ai Tech. Co., Ltd. | Multi-line laser three-dimensional imaging method and system based on random lattice |
US20220092345A1 (en) | 2020-09-23 | 2022-03-24 | Faro Technologies, Inc. | Detecting displacements and/or defects in a point cloud using cluster-based cloud-to-cloud comparison |
CN112415010A (zh) * | 2020-09-30 | 2021-02-26 | 成都中信华瑞科技有限公司 | 一种成像检测方法及系统 |
US20220179083A1 (en) | 2020-12-04 | 2022-06-09 | Faro Technologies, Inc. | Cloud-to-cloud comparison using artificial intelligence-based analysis |
US11908162B2 (en) | 2020-12-23 | 2024-02-20 | Faro Technologies, Inc. | Line scanner having target-tracking and geometry-tracking modes |
US11930155B2 (en) | 2020-12-23 | 2024-03-12 | Faro Technologies, Inc. | Handheld scanner for measuring three-dimensional coordinates |
US20220254151A1 (en) | 2021-02-05 | 2022-08-11 | Faro Technologies, Inc. | Upscaling triangulation scanner images to reduce noise |
CN115325959B (zh) * | 2022-10-13 | 2023-03-07 | 思看科技(杭州)股份有限公司 | 一种三维扫描系统及方法 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5589942A (en) | 1990-04-05 | 1996-12-31 | Intelligent Automation Systems | Real time three dimensional sensing system |
DE102012107544B3 (de) | 2012-08-17 | 2013-05-23 | Faro Technologies, Inc. | Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung |
DE102012112322B4 (de) | 2012-12-14 | 2015-11-05 | Faro Technologies, Inc. | Verfahren zum optischen Abtasten und Vermessen einer Umgebung |
DE202012104890U1 (de) | 2012-12-14 | 2013-03-05 | Faro Technologies, Inc. | Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung |
DE102012112321B4 (de) * | 2012-12-14 | 2015-03-05 | Faro Technologies, Inc. | Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung |
US20150015701A1 (en) * | 2013-07-10 | 2015-01-15 | Faro Technologies, Inc. | Triangulation scanner having motorized elements |
JP6394005B2 (ja) | 2014-03-10 | 2018-09-26 | 株式会社リコー | 投影画像補正装置、投影する原画像を補正する方法およびプログラム |
US9671221B2 (en) | 2014-09-10 | 2017-06-06 | Faro Technologies, Inc. | Portable device for optically measuring three-dimensional coordinates |
US9693040B2 (en) | 2014-09-10 | 2017-06-27 | Faro Technologies, Inc. | Method for optically measuring three-dimensional coordinates and calibration of a three-dimensional measuring device |
US9602811B2 (en) | 2014-09-10 | 2017-03-21 | Faro Technologies, Inc. | Method for optically measuring three-dimensional coordinates and controlling a three-dimensional measuring device |
DE102014013678B3 (de) | 2014-09-10 | 2015-12-03 | Faro Technologies, Inc. | Verfahren zum optischen Abtasten und Vermessen einer Umgebung mit einem Handscanner und Steuerung durch Gesten |
-
2017
- 2017-10-16 US US15/784,437 patent/US11022692B2/en active Active
-
2018
- 2018-04-23 WO PCT/US2018/028831 patent/WO2018204112A1/en active Application Filing
- 2018-04-23 EP EP18723266.5A patent/EP3619498B1/en active Active
- 2018-04-23 JP JP2019560375A patent/JP2020518820A/ja active Pending
Also Published As
Publication number | Publication date |
---|---|
EP3619498C0 (en) | 2023-12-06 |
US11022692B2 (en) | 2021-06-01 |
EP3619498B1 (en) | 2023-12-06 |
US20180321383A1 (en) | 2018-11-08 |
WO2018204112A1 (en) | 2018-11-08 |
EP3619498A1 (en) | 2020-03-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3619498B1 (en) | Triangulation scanner having flat geometry and projecting uncoded spots | |
US11408728B2 (en) | Registration of three-dimensional coordinates measured on interior and exterior portions of an object | |
US10119805B2 (en) | Three-dimensional coordinate scanner and method of operation | |
US10578423B2 (en) | Diagnosing multipath interference and eliminating multipath interference in 3D scanners using projection patterns | |
JP6355710B2 (ja) | 非接触型光学三次元測定装置 | |
Chen et al. | Active sensor planning for multiview vision tasks | |
CN105190235A (zh) | 以六自由度跟踪的结构光扫描仪的补偿 | |
GB2544181A (en) | Three-dimensional imager that includes a dichroic camera | |
US10670390B2 (en) | System and method for verifying projection accuracy | |
US11644303B2 (en) | Three-dimensional coordinate measuring instrument coupled to a camera having a diffractive optical element | |
EP4044107A1 (en) | Upscaling triangulation scanner images to reduce noise |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200107 |