JP2016514271A - Three-dimensional coordinate scanner and operation method - Google Patents
Three-dimensional coordinate scanner and operation method Download PDFInfo
- Publication number
- JP2016514271A JP2016514271A JP2016500623A JP2016500623A JP2016514271A JP 2016514271 A JP2016514271 A JP 2016514271A JP 2016500623 A JP2016500623 A JP 2016500623A JP 2016500623 A JP2016500623 A JP 2016500623A JP 2016514271 A JP2016514271 A JP 2016514271A
- Authority
- JP
- Japan
- Prior art keywords
- light
- camera
- projector
- scanner
- pattern
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/25—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
- G01B11/2513—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with several lines being projected in more than one direction, e.g. grids, patterns
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/245—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures using a plurality of fixed, simultaneously operating transducers
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/25—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B21/00—Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant
- G01B21/02—Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring length, width, or thickness
- G01B21/04—Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring length, width, or thickness by measuring coordinates of points
- G01B21/045—Correction of measurements
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/66—Tracking systems using electromagnetic waves other than radio waves
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Electromagnetism (AREA)
- Computer Networks & Wireless Communication (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
第1プロジェクタ、第1カメラ、第2プロジェクタ、および第2カメラと、第1プロジェクタと第1カメラと第2プロジェクタと第2カメラとに電気結合されたプロセッサと、プロセッサにより実行された時に第1時点で第1デジタル信号を収集させるとともに第1時点と異なる第2時点で第2デジタル信号を収集させ、第1デジタル信号および第1距離に少なくとも部分的に基づいて表面上の第1点の三次元座標を判断するとともに、第2デジタル信号および第2距離に少なくとも部分的に基づいて表面上の第2点の三次元座標を判断するコンピュータ可読媒体とを含む、非接触型光学三次元測定装置。A first projector, a first camera, a second projector, and a second camera; a processor electrically coupled to the first projector, the first camera, the second projector, and the second camera; and a first when executed by the processor. Collecting a first digital signal at a time and collecting a second digital signal at a second time different from the first time, and a cubic of a first point on the surface based at least in part on the first digital signal and the first distance A non-contact optical three-dimensional measurement apparatus comprising: a computer-readable medium for determining original coordinates and determining a three-dimensional coordinate of a second point on the surface based at least in part on the second digital signal and the second distance .
Description
ここに開示される主題は、三次元座標スキャナに、詳しくは多数のデータ獲得方式を有する三角測距式スキャナに関する。 The subject matter disclosed herein relates to a three-dimensional coordinate scanner, and more particularly to a triangulation scanner having multiple data acquisition schemes.
物体または環境の三次元座標の獲得は知られている。例えば飛行時間または三角測距方法など、様々な技術が使用されうる。レーザトラッカ、トータルステーション、または飛行時間スキャナなどの飛行時間システムは、レーザビームなどの光線を再帰反射器ターゲットまたは物体表面上のスポットへ向ける。光がターゲットまたはスポットに達してから戻るのに要する時間長に基づいてターゲットまたはスポットまでの距離を判断するのに、絶対距離計が使用される。レーザビームまたはターゲットを物体の表面上で移動させることにより、物体の座標が確認される。飛行時間システムは、比較的高精度を有するという利点を有するが、いくつかの事例では、飛行時間システムは通常、表面上の各ポイントを個別に測定しなければならないので、他のいくつかのシステムよりも低速である。 The acquisition of three-dimensional coordinates of an object or environment is known. Various techniques can be used, such as time-of-flight or triangulation methods. A time-of-flight system such as a laser tracker, total station, or time-of-flight scanner directs a light beam, such as a laser beam, to a retroreflector target or spot on the object surface. An absolute rangefinder is used to determine the distance to the target or spot based on the length of time it takes for the light to reach the target or spot and return. By moving the laser beam or target over the surface of the object, the coordinates of the object are confirmed. Time-of-flight systems have the advantage of having relatively high accuracy, but in some cases, time-of-flight systems typically have to measure each point on the surface individually, so some other systems Slower than.
対照的に、三次元座標を測定するのに三角測距法を使用するスキャナは、直線上の光パターン(レーザ線プローブからのレーザ線など)と、エリアを被覆する光パターン(構造化光など)のいずれかを表面に投影する。カメラとプロジェクタとを例えば共通のフレームに装着することにより、カメラがプロジェクタに固定関係で結合される。プロジェクタから放射された光は、表面で反射されてカメラにより検出される。カメラとプロジェクタとは固定関係で配置されるので、三角法の原理を使用して物体までの距離が判断されうる。触覚プローブを使用する座標測定装置と比較して、三角測距システムは広いエリアにわたって座標データを迅速に獲得できるという利点を提供する。ここで使用される際に、三角測距システムにより提供される三次元座標値の収集結果は、ポイントクラウドデータ(point cloud data)または単純にポイントクラウドと呼ばれる。 In contrast, scanners that use triangulation to measure three-dimensional coordinates use light patterns on a straight line (such as laser lines from a laser probe) and light patterns that cover an area (such as structured light). ) Is projected onto the surface. By mounting the camera and projector on a common frame, for example, the camera is coupled to the projector in a fixed relationship. The light emitted from the projector is reflected by the surface and detected by the camera. Since the camera and projector are arranged in a fixed relationship, the distance to the object can be determined using the principle of trigonometry. Compared to coordinate measuring devices that use tactile probes, the triangulation system offers the advantage that coordinate data can be acquired quickly over a large area. As used herein, the collection of 3D coordinate values provided by the triangulation system is referred to as point cloud data or simply point cloud.
幾つかの問題点が、レーザスキャナを使用するときの高精度のポイントクラウドデータの獲得を妨げる。これらは、例えば、物体表面の反射率の変化または投影光に対する表面の入射角の変化を結果的に生じる、カメラ像面で受容される光のレベル変化、孔のエッジなどエッジ付近での低解像度、多経路干渉を含むが、これらに限定されるわけではない。いくつかの事例では、オペレータは問題に気付かないか、これを解消することができない。これらの事例では、欠損または欠陥のあるポイントクラウドデータが結果的に生じる。 Several problems prevent the acquisition of highly accurate point cloud data when using a laser scanner. These are, for example, changes in the reflectance of the object surface or changes in the incident angle of the surface relative to the projection light, resulting in a low resolution near the edge, such as a change in the level of light received at the camera image plane, the edge of the hole, etc. Including, but not limited to, multipath interference. In some cases, the operator does not notice the problem or cannot resolve it. In these cases, missing or defective point cloud data results.
したがって、既存のスキャナはその想定目的に適しているが、不適切な条件に適応してデータ点獲得を改良できるスキャナを提供するという点では特に、改良の必要性が残っている。 Thus, while existing scanners are suitable for their intended purpose, there remains a need for improvement, particularly in providing a scanner that can adapt to inappropriate conditions and improve data point acquisition.
本発明の一態様によれば、非接触型光学三次元測定装置が提供される。非接触型光学三次元は、プロジェクタと第1カメラと第2カメラとを含むアセンブリであって、プロジェクタと第1カメラと第2カメラとが相互に対して固定され、プロジェクタと第1カメラとの間に第1距離が、プロジェクタと第2カメラとの間に第2距離が設けられ、プロジェクタが光源を有し、プロジェクタが、複数の空間的変化パターンのいずれかを有する第1光を物体の表面に放射するように構成され、第1カメラが第1レンズと第1感光アレイとを有し、第1カメラが、表面で反射された第1光の第1部分を受容して相応の第1デジタル信号を発生させるように構成され、第1カメラが第1視野を有して第1視野が第1カメラの第1視認角度領域であり、第2カメラが第2レンズと第2感光アレイとを有し、第2カメラが、表面で反射した第1光の第2部分を受容して相応の第2デジタル信号を発生させるように構成され、第2カメラが第2視野を有して第2視野が第2カメラの第2視認角度領域であり、第2視野が第1視野と異なる、アセンブリと、プロジェクタと第1カメラと第2カメラとに電気結合されたプロセッサと、プロセッサにより実行されたときに、第1時点で第1デジタル信号を収集させるとともに、第1時点と異なる第2時点で第2デジタル信号を収集させ、第1デジタル信号および第1距離に少なくとも部分的に基づいて表面上の第1点の三次元座標を判断し、第2デジタル信号および第2距離に少なくとも部分的に基づいて表面上の第2点の三次元座標を判断するコンピュータ可読媒体とを包含する。 According to one aspect of the present invention, a non-contact optical three-dimensional measurement apparatus is provided. Non-contact optical three-dimensional is an assembly including a projector, a first camera, and a second camera, wherein the projector, the first camera, and the second camera are fixed to each other, and the projector and the first camera are connected to each other. A first distance in between, a second distance between the projector and the second camera, wherein the projector has a light source, and the projector emits a first light having one of a plurality of spatial change patterns to the object A first camera having a first lens and a first photosensitive array, the first camera receiving a first portion of the first light reflected by the surface and receiving a corresponding first light; The first camera has a first field of view, the first field of view is a first viewing angle region of the first camera, and the second camera has a second lens and a second photosensitive array. And the second camera has a surface The second portion of the reflected first light is adapted to generate a corresponding second digital signal, wherein the second camera has a second field of view and the second field of view is a second viewing angle of the second camera. An assembly having a second field of view different from the first field of view, a processor electrically coupled to the projector, the first camera, and the second camera, and a first digital at a first time point when executed by the processor. Collecting a signal and collecting a second digital signal at a second time different from the first time and determining a three-dimensional coordinate of the first point on the surface based at least in part on the first digital signal and the first distance And a computer readable medium for determining a three-dimensional coordinate of the second point on the surface based at least in part on the second digital signal and the second distance.
本発明の一態様によれば、物体の表面上の三次元座標を判断するための方法が提供される。この方法は、プロジェクタと第1カメラと第2カメラとを含むアセンブリを提供することであって、プロジェクタと第1カメラと第2カメラとが相互に対して固定され、プロジェクタと第1カメラとの間に第1距離が、プロジェクタと第2カメラとの間に第2距離が設けられ、プロジェクタが光源を有し、プロジェクタが、複数の空間的変化パターンのいずれかを有する第1光を表面に放射するように構成され、第1カメラが第1レンズと第1感光アレイとを有し、第1カメラが、表面で反射された第1光の第1部分を受容するように構成され、第1カメラが第1視野を有して第1視野が第1カメラの第1視認角度領域であり、第2カメラが第2レンズと第2感光アレイとを有し、第2カメラが、表面で反射された第1光の第2部分を受容するように構成され、第2カメラが第2視野を有して第2視野が第2カメラの第2視認角度領域であり、第2視野が第1視野と異なる、アセンブリを提供し、プロジェクタと第1カメラと第2カメラとに電気結合されたプロセッサを提供し、複数の空間的変化パターンの中から選択された第1パターンを有する第1光を、第1例として、前記プロジェクタから前記表面へ放射し、第1例において第1カメラにより表面の第1像を獲得し、相応の第1デジタル信号をプロセッサへ送信し、表面上の第1点の三次元座標の第1集合を判断することであって、第1パターンと第1デジタル信号と第1距離とに少なくとも部分的に基づいて前記第1集合を判断し、第1集合の品質を評価する診断手順を実行し、複数の空間的変化パターンの中から選択される第1光の第2パターンを判断することであって、診断手順の結果に少なくとも部分的に基づいて前記第2パターンを判断し、第2パターンを有する第1光を、第2例として、プロジェクタから表面へ放射し、第2例で表面の第2像を第2カメラで獲得して相応の第2信号をプロセッサへ送信し、表面上の第2点の三次元座標の第2集合を判断することであって、第2パターンと第2デジタル信号と第2距離とに少なくとも部分的に基づいて前記第1集合を判断することを包含する。 According to one aspect of the invention, a method is provided for determining three-dimensional coordinates on the surface of an object. The method provides an assembly including a projector, a first camera, and a second camera, wherein the projector, the first camera, and the second camera are fixed relative to each other, and the projector and the first camera are connected to each other. A first distance is provided between the projector and the second camera, the projector has a light source, and the projector has a first light having any one of a plurality of spatial change patterns on the surface. A first camera having a first lens and a first photosensitive array, wherein the first camera is configured to receive a first portion of the first light reflected by the surface; One camera has a first field of view, the first field of view is the first viewing angle region of the first camera, the second camera has a second lens and a second photosensitive array, and the second camera is on the surface Receiving a second portion of the reflected first light The second camera has a second field of view, the second field of view is a second viewing angle region of the second camera, and the second field of view is different from the first field of view. A processor electrically coupled to one camera and a second camera is provided, and a first light having a first pattern selected from among a plurality of spatial change patterns is taken as a first example from the projector to the surface. Radiating and acquiring a first image of the surface by a first camera in a first example and sending a corresponding first digital signal to the processor to determine a first set of three-dimensional coordinates of the first point on the surface. And determining a first set based at least in part on the first pattern, the first digital signal, and the first distance, and performing a diagnostic procedure for evaluating the quality of the first set, wherein a plurality of spatial Selected from change patterns Determining a second pattern of the first light, determining the second pattern based at least in part on a result of the diagnostic procedure, and using the first light having the second pattern as a second example, Radiating from the projector to the surface, in the second example, a second image of the surface is acquired by the second camera and a corresponding second signal is sent to the processor to obtain a second set of three-dimensional coordinates of the second point on the surface. Determining, including determining the first set based at least in part on the second pattern, the second digital signal, and the second distance.
以上および他の利点および特徴は、図面とともに解釈される以下の説明からより明白になるだろう。 These and other advantages and features will become more apparent from the following description taken in conjunction with the drawings.
発明と考えられる主題が詳しく指摘され、明細書の最後の請求項で明確に請求される。本発明の以上および他の特徴および利点は、添付図面とともに解釈されると以下の詳細な説明から明白である。 The subject matter considered as the invention is pointed out in detail and explicitly claimed in the claims at the end of the description. These and other features and advantages of the present invention will become apparent from the following detailed description when taken in conjunction with the accompanying drawings.
詳細な説明では、図面を参照して、本発明の実施形態を利点および特徴とともに例として説明する。 The detailed description explains embodiments of the invention, together with advantages and features, by way of example with reference to the drawings.
本発明の実施形態は、スキャナにより獲得されるデータポイントクラウドの三次元座標の信頼性および精度を高めるという利点を提供する。本発明の実施形態は、獲得データの異常を検出し、スキャナの操作を自動的に調節して所望の結果を得るという利点を提供する。本発明の実施形態は、獲得データの異常を検出して、付加的なデータ獲得が必要とされるエリアについてオペレータに指示を与えるという利点を提供する。本発明のまたさらなる実施形態は、獲得データの異常を検出して、付加的なデータ獲得が遠隔プローブで獲得されうる際にオペレータに指示を与えるという利点を提供する。 Embodiments of the present invention provide the advantage of increasing the reliability and accuracy of the three-dimensional coordinates of the data point cloud acquired by the scanner. Embodiments of the present invention provide the advantage of detecting acquired data anomalies and automatically adjusting the operation of the scanner to obtain the desired results. Embodiments of the present invention provide the advantage of detecting anomalies in acquired data and instructing the operator about areas where additional data acquisition is required. Still further embodiments of the present invention provide the advantage of detecting acquisition data anomalies and providing instructions to the operator when additional data acquisition can be acquired with a remote probe.
スキャナ装置は、物体の三次元座標データを獲得する。一実施形態において、図1に示されたスキャナ20は、第1カメラと第2カメラとプロジェクタ28とを含むハウジング22を有する。プロジェクタ28は、物体34の表面32へ光30を放射する。例示的実施形態において、プロジェクタ28は、パターン発生器を照射する可視光源を使用する。可視光源は、例えばレーザ、スーパールミネセントダイオード、白熱光、キセノンランプ、発光ダイオード(LED)、または他の発光装置でありうる。一実施形態において、パターン発生器は、構造化光パターンがエッチングされたクロムオンガラスのスライドである。スライドは、必要に応じて定位置へ、また定位置から移動する単一パターンまたは多数パターンを有しうる。スライドは、手動または自動で操作位置に設置されうる。他の実施形態において、ソースパターンは、Texas Instruments Corporationにより製造されるデジタル光プロジェクタ(DLP)などのデジタルマイクロミラー装置(DMD)、液晶装置(LCD)、液晶オンシリコン(LCOS)装置、反射モードではなく伝導モードで使用される類似の装置により反射または伝導される光でありうる。プロジェクタ28はさらに、所望エリアを被覆するように射出光を変更するレンズシステム36を含みうる。
The scanner device acquires three-dimensional coordinate data of the object. In one embodiment, the
一実施形態において、プロジェクタ28は、構造化光をエリア37に放射するように構成可能である。ここで使用される際に、「構造化光」は、物体上の点の座標を判断するのに使用されうる情報を伝える、物体のあるエリアに投影される光の二次元パターンを指す。一実施形態において、構造化光パターンは、エリア内に載置される少なくとも三つの非共線状パターン要素を内含する。三つの非共線状パターン要素の各々は、点座標を判断するのに使用されうる情報を伝える。別の実施形態では、エリアパターンとともに直線パターンを投影するように構成可能であるプロジェクタが設けられる。一実施形態において、プロジェクタは、二つの間で前後に切り換わるように構成されたデジタルマイクロミラー装置(DMD)である。一実施形態において、DMDプロジェクタは、ラスタパターンで直線を掃引するか、点を掃引しうる。
In one embodiment,
概して、二つのタイプの構造化光パターン、つまり符号化光パターンと非符号化光パターンが設けられる。ここで使用される際に、符号化光パターンは、単一の像を獲得することにより物体の被照射表面の三次元座標が得られるものである。符号化光パターンでは、投影装置が物体に対して移動している間にポイントクラウドデータを取得および記録することが可能である。符号化光パターンの一つのタイプは、直線上に配置された要素の集合(幾何学的形状など)を含み、要素のうち少なくとも三つが非共線状である。このようなパターン要素はその配置のため認識可能である。 In general, two types of structured light patterns are provided: an encoded light pattern and an uncoded light pattern. As used herein, an encoded light pattern is one in which the three-dimensional coordinates of the illuminated surface of an object are obtained by acquiring a single image. With an encoded light pattern, point cloud data can be acquired and recorded while the projection device is moving relative to the object. One type of encoded light pattern includes a collection of elements (such as a geometric shape) arranged on a straight line, at least three of which are non-collinear. Such pattern elements are recognizable because of their arrangement.
対照的に、ここで使用される非符号化構造化光パターンは、単一パターンによる測定を可能にしないパターンである。一連の非符号化光パターンが順次、投影および撮像される。この事例では、物体に対して固定されたままプロジェクタを保持することが通常は必要である。 In contrast, the uncoded structured light pattern used here is a pattern that does not allow measurement by a single pattern. A series of uncoded light patterns are projected and imaged sequentially. In this case, it is usually necessary to hold the projector while being fixed to the object.
スキャナ20は符号化と非符号化のいずれかの構造化光パターンを使用しうることが認識されるべきである。構造化光パターンは、「SPIE会報」第7932号で発表されたJason Gengによる雑誌論文「DLPベースの構造化光3D撮像技術および応用」に開示されたパターンを含みうる。加えて、以下で説明されるいくつかの実施形態において、プロジェクタ28はパターン形成された掃引線状光または掃引点状光を伝導する。掃引される線状および点状の光は、多経路干渉など何らかのタイプの異常を特定する際にエリア状の光よりも有利である。スキャナが静止されたままで直線を自動的に掃引することも、表面点のより均一なサンプリングが得られるという点で有利である。
It should be appreciated that the
第1カメラ24は、センサの視野内にエリア48のデジタル像/表示を生成する感光センサ44を含む。センサは、電荷結合素子(CCD)タイプのセンサ、または例えばピクセルのアレイを有する相補型金属酸化膜半導体(CMOS)タイプのセンサでありうる。第1カメラ24はさらに、限定的ではないがレンズ46や例えば他の光学素子など、他の構成要素を含みうる。レンズ46は、関連の第1焦点距離を有する。センサ44とレンズ46とが協働して、第1視野「X」を画定する。例示的実施形態では、第1視野「X」は16度(インチあたり0.28インチ)である。
The
同様に、第2カメラ26は、センサの視野内のエリア40にデジタル像/表示を生成する感光センサ38を含む。このセンサは、電荷結合素子(CCD)タイプのセンサ、または、例えばピクセルのアレイを有する相補型金属酸化膜半導体(CMOS)タイプのセンサでありうる。第2カメラ26はさらに、限定的ではないがレンズ42と例えば他の光学素子など、他の構成要素を含みうる。レンズ42は関連の第2焦点距離を有し、第2焦点距離は第1焦点距離と異なる。センサ38とレンズ42とが協働して、第2視野「Y」を画定する。例示的実施形態では、第2視野「Y」は50度(インチあたり0.85インチ)である。第2視野Yは第1視野Xより大きい。同様に、エリア40はエリア48より大きい。大きな視野は、測定される物体表面32の所与の領域の高速での獲得を可能にすることが認識されるべきであるが、感光アレイ44,38が同数のピクセルを有する場合には、視野が狭いほど高い解像度が得られる。
Similarly, the
例示的実施形態では、物体34の表面から反射した光をセンサ44が受容しうるような角度で、プロジェクタ28と第1カメラ24とが固定関係で配置される。同様に、物体34の表面32から反射した光をセンサ38が受容しうるような角度で、プロジェクタ28と第2カメラ26とが固定関係で配置される。プロジェクタ28と第1カメラ24と第2カメラ26とは固定の幾何学的関係を有するので、表面上の点の距離および座標はその三角法関係により判断されうる。カメラ24,26の視野(FOV)は図1では重複していないものとして示されているが、FOVは部分的に重複するか完全に重複してもよい。
In the exemplary embodiment,
プロジェクタ28とカメラ24,26とは、ハウジング22内に載置された制御装置50に電気結合される。制御装置50は、一つ以上のマイクロプロセッサ、デジタル信号プロセッサ、メモリ、そして信号調節回路を含みうる。スキャナ20はさらに、オペレータにより手で起動されてスキャナ20による操作およびデータ捕捉を開始するアクチュエータ(不図示)を含みうる。一実施形態では、物体34の表面32を表すポイントクラウドのX,Y,Z座標データを判断する像処理が、制御装置50により実施される。座標データは、例えば揮発性または不揮発性メモリ54などに局所的に記憶されうる。メモリは、例えばフラッシュドライブまたはメモリカードなど、リムーバブルでありうる。他の実施形態では、スキャナ20に遠隔処理システム56へ座標データを送信させる通信回路52をスキャナ20が有する。スキャナ20と遠隔処理システム56との間の通信媒体58は、有線(イーサネット(登録商標)など)でも無線(ブルートゥース、IEEE802.11など)でもよい。一実施形態では、通信媒体58を通してスキャナ20により送信される獲得像に基づいて、座標データが遠隔処理システム56により判断される。
The
両方向矢印47によって指示されるように、物体表面32とスキャナ20との間には相対運動が可能である。このような相対運動が行われる手法にはいくつかある。一実施形態では、スキャナはハンドヘルドスキャナであり、物体34が固定されている。相対運動は、物体表面でスキャナを移動させることにより行われる。別の実施形態では、スキャナがロボット式エンドエフェクタに装着される。ロボットが物体表面でスキャナを移動させる際に、ロボットにより相対運動が行われる。別の実施形態では、可動機械的機構、例えばガントリ座標測定機械や多関節アームCMMにスキャナ20または物体34が装着される。物体表面でスキャナ20を移動させる際に機械的機構を移動させることにより、相対運動が行われる。いくつかの実施形態では、オペレータの動作によって運動が行われ、他の実施形態では、コンピュータ制御下にある機構によって運動が行われる。
Relative motion is possible between the
さて図2を参照すると、方法1260によるスキャナ20の動作が説明されている。ブロック1262に示されているように、プロジェクタ28は最初に、物体34の表面32のエリア37へ構造化光パターンを放射する。プロジェクタ28からの光30は、第2カメラ26により受容される反射光62として表面32から反射される。表面32の三次元プロフィールは、第2カメラ26内の感光アレイ38により捕捉されるパターンの像に影響する。単数または複数のパターンの一つ以上の像から収集された情報を使用して、制御装置50または遠隔処理システム56は、感光アレイ38のピクセルとプロジェクタ28により放射される光のパターンとの間の一対一対応を判断する。この一対一対応を使用して、表面32上の点の三次元座標を判断するのに三角法の原理が使用される。この三次元座標データ(ポイントクラウドデータ)の獲得は、ブロック1264に示されている。表面32にわたってスキャナ20を移動させることにより、物体34の全体についてポイントクラウドが作成される。
Referring now to FIG. 2, the operation of
スキャンプロセス中に、制御装置50または遠隔処理システム56は、ブロック1266に示されているようにポイントクラウドデータの望ましくない条件または問題を検出しうる。このような問題を検出する方法は、図12に関して以下で記される。検出される問題は、例えば特定エリアでのポイントクラウドデータのエラーまたはその不在でありうる。このデータのエラーまたは不在は、このエリアから反射する光が過少であるか過多であることにより生じうる。反射光の過少または過多は、例えば物体表面32への光30の高いまたは可変の入射角の結果としての、あるいは低反射率(黒色や透明)の材料または光沢表面の結果としての物体表面32での反射率の差から生じうる。物体上のある点は、グリントとして知られる非常に高輝度の正反射率を発生させるような角度を持ちうる。
During the scanning process, the
ポイントクラウドデータのエラーまたは不在について考えられる別の理由は、微小な特徴、尖鋭なエッジ、または奥行の急激な変化を有する領域での解像度の欠如である。このような解像度の欠如は、例えば孔の結果でありうる。 Another possible reason for the error or absence of point cloud data is the lack of resolution in areas with minute features, sharp edges, or abrupt changes in depth. This lack of resolution can be the result of, for example, holes.
ポイントクラウドデータのエラーまたは不在について考えられる別の理由は、多経路干渉である。通常は、プロジェクタ28からの光線は表面32上の点に衝突し、ある角度範囲にわたって散乱される。散乱光は、カメラ26のレンズ42により感光アレイ38の小さなスポットに像形成される。同様に、散乱光は、カメラ24のレンズ46により感光アレイ44の小さなスポットに像形成されうる。表面32上の点に達した光がプロジェクタ28からの光線であるばかりでなく、二次光が表面32の別の部分で反射するときに、多経路干渉が発生する。このような二次光は、感光アレイ38,44により受容される光のパターンを乱すことにより、この点の三次元座標の正確な判断を妨げうる。多経路干渉の存在を特定するための方法は、図12に関して本出願で説明される。
Another possible reason for error or absence of point cloud data is multipath interference. Normally, light rays from the
ブロック1266でポイントクラウドに問題がないと制御装置が判断した場合には、手順が終了する。さもなければ、スキャナが手動または自動モードで使用されるかどうかについての判断が、ブロック1268で行われる。モードが手動である場合、オペレータはブロック1270で所望の位置へスキャナを移動させるように案内される。
If the controller determines at
オペレータにより所望される移動が指示される手法は多くある。一実施形態では、スキャナ本体の表示灯が所望の移動方向を指示する。別の実施形態では、オペレータが移動すべき方向を指示する光が表面に投影される。加えて、投影光の色は、スキャナが物体に近すぎるか遠すぎるかどうかを指示しうる。別の実施形態では、オペレータが光を投影する領域についての指示がディスプレイで行われる。このようなディスプレイは、ポイントクラウドデータ、CADモデル、またはその二つの組み合わせの図形表示でありうる。ディスプレイは、コンピュータモニタ、またはスキャン装置に組み込まれるディスプレイに提示されうる。 There are many methods in which a desired movement is instructed by an operator. In one embodiment, the indicator light on the scanner body indicates the desired direction of movement. In another embodiment, light is projected onto the surface indicating the direction in which the operator should move. In addition, the color of the projected light can indicate whether the scanner is too close or too far from the object. In another embodiment, an indication is given on the display about the area in which the operator projects light. Such a display may be a point cloud data, a CAD model, or a graphic display of a combination of the two. The display can be presented on a computer monitor, or a display incorporated into the scanning device.
これらの実施形態のいずれかでは、スキャナの概略位置を判断する方法が望まれる。一事例では、ジョイントの角度エンコーダを使用して、端部に装着されたスキャナの位置および配向を判断する多関節アームCMMにスキャナが装着されうる。別の事例で、スキャナは装置内に設けられる慣性センサを含む。慣性センサは例えば、ジャイロスコープ、加速度計、および磁力計を含みうる。スキャナの概略位置を判断する別の方法は、物体またはその周囲にマーカポイントとして設けられる写真計測ドットを照射することである。このようにして、スキャナの広角FOVカメラは、物体に対するスキャナの概略位置を判断できる。 In any of these embodiments, a method for determining the approximate position of the scanner is desired. In one case, the scanner may be mounted on an articulated arm CMM that uses a joint angle encoder to determine the position and orientation of the scanner mounted at the end. In another case, the scanner includes an inertial sensor provided in the apparatus. Inertial sensors can include, for example, gyroscopes, accelerometers, and magnetometers. Another way to determine the approximate position of the scanner is to illuminate a photometric dot provided as a marker point on or around the object. In this way, the wide-angle FOV camera of the scanner can determine the approximate position of the scanner with respect to the object.
別の実施形態において、コンピュータ画面上のCADモデルは、付加的測定が所望される領域を指示し、オペレータは、物体上の特徴をスキャナ上の特徴と整合させることによりスキャナを適宜移動させる。スキャンが行われる際に画面上でCADモデルを更新することにより、オペレータは、部品の所望の領域が測定されたかどうかについて迅速なフィードバックが得られる。 In another embodiment, the CAD model on the computer screen indicates the area where additional measurements are desired, and the operator moves the scanner accordingly by matching the features on the object with the features on the scanner. By updating the CAD model on the screen as it is scanned, the operator can get quick feedback on whether the desired area of the part has been measured.
オペレータがスキャナを定位置へ移動させた後、ブロック1272で小型FOVカメラ24により測定が行われる。ブロック1272で比較的狭い領域を視認することにより、結果的に得られる三次元座標の解像度が向上し、孔やエッジなどの特徴を明らかにする良好な能力が得られる。
After the operator moves the scanner to a home position, measurements are performed by the
狭角FOVカメラは広角FOVカメラよりも比較的狭い領域を視認するため、プロジェクタ28は比較的狭い領域を照射しうる。光を反射させて物体へ戻すことのできる比較的少ない照射点が物体に設けられるので、これは、多経路干渉の排除には有利である。照射領域を狭くすると、検査対象の物体の所与の反射率および入射角について最適な量の光を得るように、露出の制御を容易にしうる。ブロック1274では、すべての点が収集された場合に、ブロック1276で手順が終了する。さもなければ継続する。
Since the narrow-angle FOV camera visually recognizes a relatively narrow area than the wide-angle FOV camera, the
ブロック1268以降のモードが自動化される実施形態において、ブロック1278では、自動化機構がスキャナを所望の位置へ移動させる。いくつかの実施形態において、自動化機構は、スキャナと検査対象物体との相対位置についての情報を提供するセンサを有する。自動化機構がロボットである実施形態については、ロボットジョイント内の角変換器が、スキャナを保持するのに使用されるロボットエンドエフェクタの位置および配向についての情報を提供する。別のタイプの自動化機構により物体が移動される実施形態については、リニアエンコーダまたは他の多様なセンサが、物体とスキャナとの相対位置に関する情報を提供しうる。
In embodiments where the
自動化機構がスキャナまたは物体を定位置へ移動させた後、ブロック1280では小型FOVカメラにより三次元測定が行われる。すべての測定が完了してブロック1284で手順が終了するまで、ブロック1282によりこのような測定が反復される。
After the automated mechanism moves the scanner or object to a fixed position, block 1280 performs a three-dimensional measurement with a small FOV camera. Such measurements are repeated by
一実施形態において、第2カメラ26によるデータ獲得から第1カメラ24へスキャナが切り換わるときに、プロジェクタ28は構造化光パターンを変化させる。別の実施形態では、同じ構造化光パターンが両方のカメラ24,26で使用される。また別の実施形態では、第1カメラ24によりデータが獲得されるときに、掃引線または点により形成されるパターンをプロジェクタ28が放射する。第1カメラ24でデータを獲得した後に、プロセスは第2カメラ26を使用してスキャンを継続する。このプロセスは、オペレータがこの部品の所望のエリアをスキャンしてしまうまで継続する。
In one embodiment,
図2のプロセスは線形または逐次プロセスとして示されているが、他の実施形態では、示された図の一つ以上のステップが並列して実行されうることが認識されるべきである。図2に示された方法において、この方法は、最初に物体全体を測定してから、獲得されたポイントクラウドデータの評価に従ってさらに詳細な測定を実行することを必要とする。スキャナ20の代替的な使用は、小型FOVを有するカメラ24を使用して詳細または臨界領域を測定することにより開始する。
While the process of FIG. 2 is illustrated as a linear or sequential process, it should be appreciated that in other embodiments, one or more steps of the illustrated diagram can be performed in parallel. In the method shown in FIG. 2, this method requires first measuring the entire object and then performing more detailed measurements according to the evaluation of the acquired point cloud data. An alternative use of the
スキャンシステムにおいてカメラまたはプロジェクタのFOVを変更する手法としてカメラレンズまたはプロジェクタレンズを変更する手法を提供することは、既存のスキャンシステムでの一般的慣行であることも認識されるべきである。しかし、このような変更は時間を浪費し、一般的に、カメラまたはプロジェクタシステムの収差補正パラメータを判断するようにドットプレートなどの人工物がカメラまたはプロジェクタの前に置かれる付加的補正ステップを必要とする。ゆえに、図1のカメラ24,26など、異なるFOVを有する2台のカメラが提供されるスキャンシステムは、完全自動化モードでのスキャナの測定速度および実行可能性において重大な利点を提供する。
It should also be recognized that providing a technique for changing a camera lens or projector lens as a technique for changing a camera or projector FOV in a scanning system is a common practice in existing scanning systems. However, such changes are time consuming and generally require an additional correction step in which an artifact such as a dot plate is placed in front of the camera or projector to determine the aberration correction parameters of the camera or projector system. And Thus, a scanning system in which two cameras having different FOVs, such as
第1座標獲得システム76と第2座標獲得システム78とを含むハウジング22を有するスキャナ20についての別の実施形態が、図3に示されている。第1座標獲得システム76は、第1プロジェクタ80と第1カメラ82とを含む。図1の実施形態と同様に、プロジェクタ80は物体34の表面32へ光84を放射する。例示的実施形態において、プロジェクタ80はパターン発生器を照射する可視光源を使用する。可視光源は、レーザ、スーパールミネセントダイオード、白熱光、発光ダイオード(LED)、または他の発光素子でありうる。一実施形態において、パターン発生器は、構造化光パターンがエッチングされたクロムオンガラスのスライドである。スライドは、必要に応じて定位置へまたは定位置から移動する単一パターンや多数パターンを有しうる。スライドは、手動または自動で操作位置に設置されうる。他の実施形態において、ソースパターンは、Texas Instruments Corporation製のデジタル光プロジェクタ(DLP)などのデジタルマイクロミラー装置(DMD)、液晶装置(LCD)、液晶オンシリコン(LCOS)装置、または反射モードでなく伝導モードで使用される類似の装置により反射または伝導される光でありうる。プロジェクタ80はさらに、所望の焦点特性を有するように射出光を変化させるレンズシステム86を含みうる。
Another embodiment for a
第1カメラ82は、センサの視野内のエリア90にデジタル像/表示を生成する感光アレイセンサ88を含む。センサは、電荷結合素子(CCD)タイプのセンサ、または例えばピクセルのアレイを有する相補型金属酸化膜半導体(CMOS)タイプのセンサでありうる。第1カメラ82はさらに、例えば限定的ではないがレンズ92および他の光学素子など、他の構成要素を含みうる。第1プロジェクタ80と第1カメラ82とは、物体34の表面32で反射した第1プロジェクタ80からの光85を第1カメラ82が検出しうるように、固定関係の角度で配置される。第1カメラ92と第1プロジェクタ80とは固定関係で配置されるので、エリア90内の表面32上の点の座標を判断するのに、上記の三角法の原理が使用されうる。明瞭化のため、第1プロジェクタ80の近くに第1カメラ82を有するものとして図3が描かれているが、カメラはハウジング22の反対側の近くに設けられてもよいことが認識されるべきである。第1カメラ82と第1プロジェクタ80とをさらに離間させることにより、3D測定の精度が向上することが予想される。
The
第2座標獲得システム78は、第2プロジェクタ94と第2カメラ96とを含む。プロジェクタ94は、レーザ、発光ダイオード(LED)、スーパールミネセントダイオード(SLED)、キセノンバルブ、または他の適当なタイプの光源を包含しうる光源を有する。一実施形態において、レンズ98は、レーザ光源から受容した光を線状光100へ集束するのに使用され、一つ以上の円柱レンズ、または他の様々な形状のレンズを包含しうる。一つ以上の個別レンズまたはレンズの集合体を含みうるため、レンズは「レンズシステム」とも呼ばれる。線状光は実質的に直線状である、つまり直線からの最大偏差は長さの約1%未満である。一実施形態により利用されうる一つのレンズタイプは、ロッドレンズである。ロッドレンズは一般的に、周面が研磨されて両端部が研削されるガラスまたはプラスチック製の全円筒体の形状である。このようなレンズはロッドの直径を通る視準光を直線に変換する。使用されうる別のタイプのレンズは円柱レンズでありうる。円柱レンズは部分円筒体の形状を有するレンズである。例えば、円筒レンズの一表面は平坦であるのに対して、反対の表面は円筒形の形である。
The second coordinate
別の実施形態において、プロジェクタ94は、表面32のエリアを覆う二次元パターンの光を生成する。このとき、結果的に得られる座標獲得システム78は、構造化光スキャナと呼ばれる。
In another embodiment, the
第2カメラ96は、例えば電荷結合素子(CCD)タイプのセンサであるか相補型金属酸化膜半導体(CMOS)タイプのセンサなどのセンサ102を含む。第2カメラ96はさらに、例えば限定的ではないがレンズ104および他の光学素子など、他の構成要素を含みうる。第2プロジェクタ94と第2カメラ96とは、物体34で反射した第2プロジェクタ94からの光106を第2カメラ96が検出するような角度で配置される。第2プロジェクタ94と第2カメラ96とは固定関係で配置されるので、上記の三角法の原理が使用されて、光100により形成される直線上にある表面32上の点の座標を判断することが認識されるべきである。カメラ96とプロジェクタ94とがハウジング22の両側に設けられて3D測定精度を高めることも認識されるべきである。
The
別の実施形態において、第2座標獲得システムは、固定の線状光ばかりでなく掃引線状光、掃引点状光、(エリアを被覆する)符号化光パターン、または(エリアを被覆する)連続光パターンを含みうる様々なパターンを投影するように構成される。各タイプの投影パターンは、速度、精度、および多経路干渉に対する免除などのような異なる利点を有する。各特定測定についての性能要件を評価することにより、および/または、回収されたデータや(CADモデルから、または収集されたスキャンデータに基づく3D復元から)予想される物体形状の特性を検討することにより、性能を最適化する投影パターンのタイプを選択することが可能である。 In another embodiment, the second coordinate acquisition system is not only a fixed linear light but also a swept linear light, a swept point light, an encoded light pattern (covering the area), or a continuous (covering the area). It is configured to project various patterns that may include light patterns. Each type of projection pattern has different advantages such as speed, accuracy, and exemption from multipath interference. By evaluating the performance requirements for each specific measurement and / or examining the characteristics of the collected data and the expected object shape (from CAD models or from 3D reconstruction based on collected scan data) Thus, it is possible to select the type of projection pattern that optimizes the performance.
別の実施形態では、第2座標獲得システム78から物体表面32までの距離は、第1座標獲得システム76から物体表面32までの距離と異なっている。例えば、カメラ96はカメラ88よりも物体32の近くに位置しうる。このようにして、第2座標獲得システム78の解像度および精度は第1座標獲得システム76のものよりも向上しうる。多くの事例では、比較的大きく滑らかな物体を低解像度システム76により迅速にスキャンしてから、高解像度システム78によりエッジおよび孔を含む詳細をスキャンすると有益である。
In another embodiment, the distance from the second coordinate
スキャナ20は、手動モードまたは自動化モードで使用されうる。手動モードでは、使用されている獲得システムに従ってスキャナを物体表面から近くまたは遠くへ移動させるようにオペレータが促される。さらに、スキャナ20が移動される方向をオペレータに指示する光のビームまたはパターンをスキャナ20が投影しうる。代替的に、装置の表示灯は、スキャナが移動されるべき方向を指示しうる。自動モードでは、測定要件に従って、スキャナ20または物体34が自動的に相対移動されうる。
The
図1の実施形態と同様に、第1座標獲得システム76と第2座標獲得システム78とは、ハウジング22に載置された制御装置50に電気結合されている。制御装置50は、一つ以上のマイクロプロセッサとデジタル信号プロセッサとメモリと信号調節回路とを含みうる。スキャナ20はさらに、オペレータにより手で起動されてスキャナ20による操作およびデータ捕捉を開始するアクチュエータ(不図示)を含みうる。一実施形態において、物体34の表面32を表すポイントクラウドのX,Y,Z座標データを判断する像処理は、制御装置50により実施される。座標データは、例えば揮発性または不揮発性メモリ54などに局所的に記憶されうる。例えばフラッシュドライブまたはメモリカードなど、メモリはリムーバブルでありうる。他の実施形態において、スキャナ20は、スキャナ20に遠隔処理システム56へ座標データを送信させる通信回路52を有する。スキャナ20と遠隔処理システム56との間の通信媒体58は、有線(イーサネット(登録商標)など)であっても無線(ブルートゥース、IEEE802.11など)であってもよい。一実施形態では、遠隔処理システム56により座標データが判断され、獲得された像をスキャナ20が通信媒体58で送信する。
Similar to the embodiment of FIG. 1, the first coordinate
さて図4を参照して、図3のスキャナ20を操作する方法1400が説明される。ブロック1402では、スキャナ20の第1座標獲得システム76の第1プロジェクタ80が、物体34の表面32のエリア90へ構造化光パターンを放射する。プロジェクタ80からの光84が表面32から反射され、反射光85が第1カメラ82により受容される。上記のように、表面32の表面プロフィールの変化は、第1感光アレイ88により受容される光の像形成パターンに歪みを生じる。パターンは構造化光、直線や光、または点状光により形成されるので、いくつかの例では、制御装置50または遠隔処理システム56が、表面32上の点と感光アレイ88のピクセルとの間の一対一対応を判断することが可能である。こうして上記の三角法の原理がブロック1404で使用されてポイントクラウドデータを取得することができ、いわば表面32上の点のX,Y,Z座標を判断できる。スキャナ20を表面32に対して移動させることにより、ポイントクラウドが物体34全体から作成されうる。
Now referring to FIG. 4, a
ブロック1406で、制御装置50または遠隔処理システム56は、ポイントクラウドデータが所望のデータ品質属性を備えるか、潜在的問題を有するかどうかを判断する。発生しうる問題のタイプは図2を参照して上述されており、この記載はここでは繰り返さない。ブロック1406でポイントクラウドが所望のデータ品質属性を有すると制御装置が判断した場合、手順は終了する。さもなければ、スキャナが手動または自動モードで使用されるかどうかについて、ブロック1408で判断が行われる。モードが手動である場合に、オペレータはブロック1410でスキャナを所望の位置へ移動させるように誘導される。
At
図2を参照して上述したようにオペレータにより所望の移動を指示する手法はいくつかある。その記載はここでは繰り返さない。 As described above with reference to FIG. 2, there are several methods for instructing a desired movement by an operator. The description will not be repeated here.
所望の移動を行う際にオペレータを誘導するため、スキャナの概略位置を判断する方法が必要とされる。図2を参照して説明されたように、方法は、多関節アームCMMへのスキャナ20の装着、スキャナ20内での慣性センサの使用、写真計測ドットの照射、または表示像への特徴の整合を含みうる。
A method for determining the approximate position of the scanner is required to guide the operator in making the desired movement. As described with reference to FIG. 2, the method includes mounting the
オペレータがスキャナを定位置へ移動させた後、ブロック1412では第2座標獲得システム78により測定が行われる。第2座標獲得システムを使用することにより、解像度または精度が向上するか問題が解消される。ブロック1414では、すべての点が収集された場合に、手順はブロック1416で終わる。さもなければ継続する。
After the operator has moved the scanner to the home position, measurements are made at
ブロック1408からの操作モードが自動化される場合には、ブロック1418で自動化機構がスキャナを所望の位置へ移動させる。たいていの事例では、スキャナと検査対象物体との相対位置についての情報を自動化機構がセンサに提供させる。自動化機構がロボットである事例では、ロボットジョイント内の角度変換器が、スキャナを保持するのに使用されるロボット式エンドエフェクタの位置および配向についての情報を提供する。他のタイプの自動化機構については、線形エンコーダまたは様々な他のセンサが、物体およびスキャナの相対位置についての情報を提供しうる。
If the operating mode from
自動機構がスキャナまたは物体を定位置へ移動させた後、ブロック1420で、第2座標獲得システム78により三次元測定が行われる。このような測定は、すべての測定が完了するまでブロック1422によって反復される。手順はブロック1424で終了する。
After the automatic mechanism moves the scanner or object to a fixed position, a three-dimensional measurement is made by the second coordinate
図4のプロセスは線形または逐次プロセスとして示されているが、他の実施形態では、示されたステップの一つ以上が並列して実行されうることが認識されるべきである。図4に示された方法では、この方法は最初に物体全体を測定してから、獲得されたポイントクラウドデータの評価に従ってさらに詳細な測定を実行することを含む。代替的なスキャナ20の使用は、第2座標獲得システム78を使用して詳細または臨界領域を測定することにより始まる。
Although the process of FIG. 4 is illustrated as a linear or sequential process, it should be appreciated that in other embodiments, one or more of the illustrated steps may be performed in parallel. In the method shown in FIG. 4, the method includes first measuring the entire object and then performing a more detailed measurement according to an evaluation of the acquired point cloud data. Use of the
既存のスキャンシステムでカメラまたはプロジェクタのFOVを変更する手法としてカメラレンズまたはプロジェクタレンズを変更する手法を提供することは、既存のスキャンシステムによく見られる慣行であることも認識されるべきである。しかし、このような変更は時間を浪費し、ドットプレートなどの人工物がカメラまたはプロジェクタの前方に置かれてカメラまたはプロジェクタシステムについての収差補正パラメータを判断するという付加的な補償ステップを一般的に必要とする。ゆえに、図3のスキャンシステム20など異なる二つの座標獲得システムを設けるシステムは、完全自動モードについてはスキャナの測定速度と実行可能性において重大な利点を備える。
It should also be recognized that providing a technique for changing a camera lens or projector lens as a technique for changing a camera or projector FOV in an existing scanning system is a common practice in existing scanning systems. However, such changes are time consuming and typically involve an additional compensation step in which an artifact such as a dot plate is placed in front of the camera or projector to determine aberration correction parameters for the camera or projector system. I need. Thus, a system that provides two different coordinate acquisition systems, such as the
多経路干渉の結果としてスキャナ測定を行う際にはエラーが発生しうる。多経路干渉の発生源についてこれから論じ、多経路干渉を回避または低減するための第一の方法が説明される。 Errors may occur when performing scanner measurements as a result of multipath interference. The source of multipath interference will now be discussed and a first method for avoiding or reducing multipath interference will be described.
物体表面に衝突する光の一部がカメラへ戻る前に最初に物体の別の表面で散乱するときに、多経路干渉の事例が発生する。この散乱光を受容する物体上の点については、感光アレイへ送られる光は、プロジェクタから直接投影される光ばかりでなく、プロジェクタ上の異なる点へ送られて物体で散乱する光にも対応する。二次元(構造化)光を投影するスキャナの事例では特に、多経路干渉の結果は、プロジェクタからこの点での物体表面まで計算された距離を不正確にすることでありうる。 The case of multipath interference occurs when a portion of the light impinging on the object surface is first scattered on another surface of the object before returning to the camera. For points on the object that accept this scattered light, the light sent to the photosensitive array corresponds not only to the light directly projected from the projector, but also to the light sent to different points on the projector and scattered by the object. . Especially in the case of scanners that project two-dimensional (structured) light, the result of multipath interference may be an inaccurate calculated distance from the projector to the object surface at this point.
多経路干渉の例が図5Aを参照して例示される。この実施形態において、スキャナ4570は、線状光4525を物体の表面4510Aへ投影する。線状光4525は、紙の平面に対して垂直である。一実施形態では、感光アレイの横列は紙の平面に対して平行であり、縦列は紙の平面に対して垂直である。各横列は、紙の平面に対して垂直な方向での投影線4525上の点を表す。直線上のこの点でのプロジェクタから物体までの距離は、各横列の重心を最初に計算することにより判明する。表面点4526について、感光アレイ4541上の重心は点4546で表される。感光アレイ上の重心の位置4546は、カメラ投影中心4544から物体点4526までの距離を計算するのに使用されうる。この計算は、三角測距の原理による三角法関係に基づく。これらの計算を実施するには、カメラ投影中心4544からプロジェクタ投影中心4523までの基線距離Dが必要とされる。加えて、プロジェクタシステム4520からカメラシステム4540までの相対的な配向についての知識が必要とされる。
An example of multipath interference is illustrated with reference to FIG. 5A. In this embodiment,
多経路干渉により生じるエラーを理解するには、点4527について検討する。この点から反射または散乱した光は、レンズ4542により感光アレイ4541上の点4548に像形成される。しかし、プロジェクタから直接的に受容されて点4527で散乱される光に加えて、付加的な光が、感光アレイに像形成される前に点4526から点4527へ反射される。光は予想外の位置へ散乱されて所与の横列に二つの重心が形成される可能性が非常に高い。結果的に、所与の横列での二つの重心の観察は、多経路干渉の存在を良好に示すものである。
To understand the error caused by multipath interference, consider
物体表面のエリアへ投影される構造化光の事例では、4527などの点からの二次反射は、通常、直線へ投影される光ほど明白ではなく、ゆえに、測定による3D表面座標にエラーを生じやすい。 In the case of structured light projected onto an area of the object surface, the secondary reflection from a point such as 4527 is usually not as obvious as the light projected onto a straight line, thus causing errors in the measured 3D surface coordinates. Cheap.
調節可能な照射パターンを有するプロジェクタをディスプレイ要素4521に使用することにより、照射パターンを変化させることが可能である。ディスプレイ要素4521は、デジタル光プロジェクタ(DLP)などのデジタルマイクロメカニカルミラー(DMM)でありうる。このような装置は、電気信号によって迅速な調節が可能で照射パターンを迅速に調節する多数の小型ミラーを内含する。電気調節式ディスプレイパターンを生成できる他の装置は、LCD(液晶ディスプレイ)とLCOS(液晶オンシリコン)ディスプレイとを含む。
By using a projector with an adjustable illumination pattern for
エリア全体に構造化光を投影するシステムにおいて多経路干渉を検査する手法は、線状光を投影するようにディスプレイを変更することである。横列での多数の重心の存在は、多経路干渉が存在することを指示するものであろう。線状光を掃引することにより、オペレータによるプローブの移動を必要とせずに、エリアがカバーされうる。 An approach to inspecting multipath interference in a system that projects structured light over an area is to change the display to project linear light. The presence of multiple centroids in a row will indicate that multipath interference exists. By sweeping the linear light, the area can be covered without requiring the operator to move the probe.
電気調節式ディスプレイにより、線状光が所望の角度に設定されうる。投影される線状光の方向を変更することにより、多経路干渉が多くの事例で解消されうる。 With an electrically adjustable display, the linear light can be set at a desired angle. By changing the direction of the projected linear light, multipath interference can be eliminated in many cases.
反射の回避が困難である多くの折り目や急角度を有する表面については、電気調節式ディスプレイが使用されて点状光を掃引する。いくつかの事例では、単一の点状光から二次反射が発生されうるが、反射したスポット状の光のうちいずれが有効であるかを判断するのは、通常は比較的容易である。 For many creases and surfaces with steep angles where reflections are difficult to avoid, an electro-regulated display is used to sweep point light. In some cases, secondary reflections can be generated from a single point of light, but it is usually relatively easy to determine which of the reflected spot light is effective.
電気調節式ディスプレイは、符号化および非符号化パターンの間を迅速に切り換えるのにも使用されうる。大抵の事例では、単一のカメラフレーム情報に基づいて3D測定を行うには符号化パターンが使用される。他方、測定による3D座標値において高精度を得るには、多数のパターン(逐次または非符号化パターン)が使用されうる。 Electrically controlled displays can also be used to quickly switch between encoded and uncoded patterns. In most cases, coding patterns are used to make 3D measurements based on single camera frame information. On the other hand, a large number of patterns (sequential or uncoded patterns) can be used to obtain high accuracy in the measured 3D coordinate values.
過去には、例えば、一連のグレイスケール直線パターンの後に各々が異なる位相を有する連続の正弦波パターンが続くなど、逐次パターンの中に一連のパターンの各々を投影するのに、電気調節式ディスプレイが使用されている。 In the past, electrically controlled displays have been used to project each of a series of patterns into a sequential pattern, for example, a series of grayscale linear patterns followed by a series of sinusoidal patterns each having a different phase. It is used.
今回の進歩的方法は、多経路干渉などの問題を特定または解消するとともに、必要とされる精度を可能な限り迅速に得るのに単一ショットパターン(例えば符号化パターン)または多数ショットパターンが好適であるかどうかを指示するこれらの方法を選択する際に、以前の方法を超える利点を提供する。 This advanced method identifies or eliminates problems such as multi-path interference, and is suitable for single shot patterns (eg coding patterns) or multiple shot patterns to get the required accuracy as quickly as possible In choosing these methods of indicating whether or not, it offers advantages over previous methods.
ラインスキャナの事例では、多経路干渉の存在を判断する手法が存在することが多い。多経路干渉が存在しないときには、物体表面上の点により反射された光が連続ピクセルの領域へ単一の横列として像形成される。横列の二つ以上の領域が大量の光を受容する場合には、多経路干渉が指示される。このような多経路干渉条件の例と、その結果生じる感光アレイの余分な照射領域とが図5Aに示されている。表面4510Aはここで、交点4526の近くに大きな湾曲を有する。交点おける垂直表面は直線4528であり、入射角は4531である。反射した線状光4529の方向は、入射角と等しい反射角4532から判明する。上記のように線状光4529は実際には、角度範囲にわたって散乱する光の方向全体を表す。散乱光の中心は点4527で表面4510Aに衝突し、これがレンズ4544により感光アレイ上の点4548で像形成される。点4548の近傍で受容される予想外に大量の光は、多経路干渉がおそらくは存在することを示す。ラインスキャナでは、多経路干渉についての主な懸念は、二つのスポット4546および4527がかなりの距離だけ分離されて別々に解析されるという図5Aに示された事例ではなく、むしろ二つのスポットが重複するか一緒ににじむ事例である。この事例では、図15Eでは点4546に対応する所望の点に対応する重心を判断することが可能ではない。やはり図5Aを参照することで理解されうるように二次元エリアにわたって光を投影するスキャナの事例では、問題は悪化する。感光アレイ4541に像形成される光のすべてが二次元座標の判断に必要とされる場合には、点4527での光が、プロジェクタから直接投影される所望のパターンの光とともに、物体表面から点4527へ反射される不要の光にも対応することは明白である。その結果、この事例では、エリア全体に投影される光について、間違った三次元座標が点4527で計算される可能性がある。
In the case of line scanners, there are often methods for determining the presence of multipath interference. In the absence of multipath interference, the light reflected by points on the object surface is imaged as a single row into a region of consecutive pixels. If two or more regions in a row receive a large amount of light, multipath interference is indicated. An example of such a multipath interference condition and the resulting extra illumination area of the photosensitive array is shown in FIG. 5A.
投影される線状光については、多くの事例で、直線の方向を変更することにより多経路干渉を解消することが可能である。一つの可能性は、固有の二次元性能を有するプロジェクタを使用してラインスキャナを製作することで、ラインが掃引されるか、異なる方向に自動的に回転されることである。このようなプロジェクタの例は、上記のようにデジタルマイクロミラー(DMD)を使用するものである。例えば、構造化光により取得される特定のスキャンにおいて多経路干渉が疑われる場合には、掃引による線状光を使用する測定方法に切り換わるように測定システムが自動的に設定されうる。 With respect to the projected linear light, in many cases, it is possible to eliminate multipath interference by changing the direction of the straight line. One possibility is to make a line scanner using a projector with inherent two-dimensional performance so that the lines are swept or automatically rotated in different directions. An example of such a projector uses a digital micromirror (DMD) as described above. For example, if multipath interference is suspected in a specific scan acquired by structured light, the measurement system can be automatically set to switch to a measurement method that uses linear light by sweeping.
多経路干渉を軽減、最小化、または解消するための別の方法は、多経路干渉が指摘された領域にわたって線状光または光エリアではなく点状光を掃引することである。単一の点状光を照射することにより、二次反射で散乱した光は通常、容易に識別されうる。 Another way to reduce, minimize or eliminate multipath interference is to sweep point light rather than linear light or light areas over the area where multipath interference is indicated. By irradiating a single point of light, the light scattered by secondary reflection can usually be easily identified.
電気的調節可能ディスプレイにより投影される所望のパターンの判断は、以下で図12を参照して説明されるように、診断分析を利用して行われる。 The determination of the desired pattern projected by the electrically adjustable display is made using diagnostic analysis, as described below with reference to FIG.
多経路干渉を診断および補正する際の使用の他に、投影光のパターンの変更では、必要な精度および解像度を最小量の時間で得るという利点が得られる。一実施形態において、光の符号化パターンを物体へ単一ショットで投影することにより、測定が最初に実施される。表面の三次元座標は、収集データを使用して判断され、より詳細な解析を必要とする孔、エッジ、または特徴をいくつかの領域が有するかどうかを判断するため、結果が解析される。このような詳細な解析は、例えば図1の狭角FOVカメラ24、図3の高解像度スキャナシステム78を使用することにより実施されうる。
In addition to its use in diagnosing and correcting multipath interference, changing the pattern of projected light provides the advantage of obtaining the required accuracy and resolution in a minimum amount of time. In one embodiment, the measurement is first performed by projecting the light encoding pattern onto the object in a single shot. The three-dimensional coordinates of the surface are determined using the collected data, and the results are analyzed to determine whether some regions have holes, edges, or features that require more detailed analysis. Such a detailed analysis can be performed, for example, by using the narrow
座標は、ターゲットまでのおおよその距離を判断するために解析され、こうして後述するように、正弦波位相シフトした光のパターンを表面に連続的に投影する方法など、より正確な測定方法のために開始距離を提供する。符号化光パターンを使用して表面上の各点について開始距離を求めると、多数の正弦波位相シフトスキャンでピッチを変化させることでこの情報を得る必要が無くなり、こうしてかなりの時間を節約する。 The coordinates are analyzed to determine the approximate distance to the target and thus for more accurate measurement methods, such as a method of continuously projecting a sinusoidal phase-shifted light pattern onto the surface, as described below. Provides starting distance. Using the encoded light pattern to determine the starting distance for each point on the surface eliminates the need to obtain this information by changing the pitch with multiple sinusoidal phase shift scans, thus saving considerable time.
さて図5Bを参照すると、スキャナ20により獲得された座標データの異常を克服するか精度を向上させるための実施形態が示されている。物体34などの物体をスキャナ20でスキャンすることにより、プロセス211がブロック212で開始する。スキャナ20は、例えば少なくとも一つのプロジェクタとカメラとを有する、図1,3,5および図7の実施形態で説明されたようなスキャナでありうる。この実施形態において、ブロック212でスキャナ20は第1光パターンを物体へ投影する。一実施形態では、この第1光パターンは符号化および構造化された光パターンである。プロセス211は、ブロック214で三次元座標データを獲得および判断する。座標データは質問ブロック216で解析され、上述した多経路干渉、要素周囲の低解像度、または表面角度や表面反射率の変化によるデータの不在など、何らかの異常が存在するかどうかを判断する。異常が検出されると、プロセス211はブロック218へ進み、ここでプロジェクタにより放射される光パターンが第2光パターンに変更される。一実施形態では、第2光パターンは掃引による線状光である。
Referring now to FIG. 5B, an embodiment for overcoming or improving the accuracy of coordinate data acquired by the
第2光パターンを投影した後に、プロセス211はブロック220へ進み、ここで異常が検出されたエリアについて三次元座標データが獲得され判断が行われる。プロセス211は質問ブロック216へループバックし、ここで異常が解決されたかどうかが判断される。それでも質問ブロック216が異常または欠如や精度や解像度を検出する場合には、プロセスがブロック218へループバックし、第3光パターンに切り換わる。一実施形態において、第3光パターンは連続正弦波位相シフトパターンである。別の実施形態において、第3光パターンは掃引による点状光である。この反復手順は、異常が解決されるまで継続する。異常のエリアからの座標データが判断されると、プロセス211はブロック222へ進み、ここで放射パターンが切り換わって第1構造化光パターンに戻り、スキャンプロセスが継続する。物体の所望エリアをオペレータがスキャンしてしまうまで、プロセス211が継続する。図11の方法を使用して取得される情報のスキャンが十分でないという事象では、ここに記された触覚プローブによる測定の問題が使用されうる。
After projecting the second light pattern, the
さて図6を参照すると、スキャナ20の別の実施形態が、可動装置120に取り付けられた状態で示されている。表面32上の点の三次元座標を判断するのに三角法の原理が使用されうるように、一定の幾何学的関係で配置された少なくとも一つのプロジェクタ122と少なくとも一つのカメラ124とをスキャナ20が有する。スキャナ20は、例えば図1または図3を参照して説明されたのと同じスキャナでありうる。一実施形態において、スキャナは、触覚プローブを有する図10のスキャナと同じである。しかし、図6の実施形態に使用されるスキャナは、構造化光またはラインスキャナなどのスキャナ、例えば、「一体型ラインレーザスキャナを備える可搬座標測定機械」という名称で2006年1月18日に出願された、同じ所有者による米国特許第7,246,030号に開示されているスキャナでよい。別の実施形態では、図6の実施形態で使用されるスキャナは、物体のエリアにわたって光を投影する構造化光スキャナである。
Referring now to FIG. 6, another embodiment of the
例示的実施形態において、可動装置120は、旋回スイベルジョイント130により接続されたアームセグメント126,128による自動的移動を提供してアームセグメント126,128を移動させるロボット装置であり、結果的にスキャナ20が(図6の点線で記されるように)第1位置から第2位置へ移動する。可動装置120は、例えばアームセグメント126,128に結合されてアームセグメント126,128を第1位置から第2位置へ移動させる(不図示の)モータなどのアクチュエータを含みうる。多関節アームを有する可動装置120は例示を目的としたものであり、請求される発明はこのように制限されるべきではないことが認識されるべきである。他の実施形態では、例えばレール、ホイール、トラック、ベルト、ケーブル、または以上の組み合わせを介してスキャナ20を移動させる可動装置に、スキャナ20が取り付けられうる。他の実施形態では、ロボットは異なる数のアームセグメントを有する。
In the exemplary embodiment,
一実施形態において、可動装置は、2010年1月20日に出願された、同じ保有者による米国特許出願番号第13/491,176号に記載されているような、多関節アーム座標測定機械(AACMM)である。この実施形態では、第1位置から第2位置へのスキャナ20の移動は、アームセグメント126,128をオペレータが手で動かすことを必要とする。
In one embodiment, the mobile device is an articulated arm coordinate measuring machine (as described in US patent application Ser. No. 13 / 491,176, filed Jan. 20, 2010, by the same holder). AACMM). In this embodiment, movement of the
自動化装置を有する実施形態については、可動装置120はさらに、アクチュエータに通電してアームセグメント126,128を移動させるように構成された制御装置132を含む。一実施形態において、制御装置132は制御装置134と通信する。以下で詳述するように、この配置は、獲得されたデータの異常に応じて制御装置132によりスキャナ20を移動させることができる。制御装置132,134が単一の処理ユニットに組み込まれうるか、いくつかの処理ユニットの中で機能が分散されうることが認識されるべきである。
For embodiments having an automated device, the
図12を参照して解析を実行することにより、スキャナ20の位置および配向を決めて所望の測定結果を得ることが可能である。いくつかの実施形態では、測定される特徴は所望の方向のスキャナを利用しうる。例えば、孔の直径の測定は、孔に対して概ね垂直となるようにスキャナカメラ124を配向することにより向上しうる。他の実施形態では、多経路干渉の可能性を低下させるか最小化するように、スキャナが位置決めされうる。このような解析は、診断手順の一部として利用可能なCADモデルに基づくか、装置120によるスキャナ20の二次移動に先立って初期位置のスキャナにより収集されるデータに基づきうる。
By performing analysis with reference to FIG. 12, it is possible to determine the position and orientation of the
さて図7を参照して、スキャナ20および可動装置120の操作が説明される。プロセスは、第1位置のスキャナ20で物体34をスキャンするブロック134から始まる。ブロック138では、物体34の表面32上の点についての座標データを、スキャナ20が獲得および判断する。可動装置120がスキャナ20を移動させて所望のエリアの表面点についてのデータを獲得しうる。質問ブロック140では、例えば多経路干渉など、点142での座標データの異常が存在するかどうか、または解像度や測定精度の向上を得るため方向を変える必要性が存在するかどうかが判断される。図6の点142は、表面32上の単一の点、点による線、またはエリアを表しうる。異常または精度向上の必要性が検出された場合、プロセスはブロック144へ続き、ここで可動装置120は、第1位置から第2位置など、スキャナ20の位置を移動させ、ブロック146で関心エリアを再スキャンして三次元座標データを獲得する。プロセスは質問ブロック140へループバックし、ここで座標データにやはり異常が見られるかどうか、または測定精度の向上が望ましいかどうかが判断される。これらの事例では、スキャナ20が再び動かされ、測定結果が所望のレベルに達するまでプロセスが継続する。座標データが得られると、プロセスは質問ブロック140からブロック148へ進み、ここで所望のエリアがスキャンされるまでスキャンプロセスが継続する。
Now, the operation of the
スキャナ20が触覚プローブ(図10)を含む実施形態において、第1位置から第2位置へのスキャナの移動は、関心エリアを触覚プローブと接触させるように構成されうる。スキャナ、ゆえに触覚プローブの位置はアームセグメント126,128の位置および配向から判断されうるので、表面32上の点の三次元座標が判断されうる。
In embodiments where the
いくつかの実施形態では、図8A,8Bのスキャナ20により取得される測定結果が多経路干渉によって妨害されうる。他の事例では、測定結果は所望の解像度または精度を提供して表面32の特性、とりわけエッジ、孔、または複雑な特徴を正しく測定することができない。これらの事例では、オペレータが遠隔プローブ152を使用して表面32上の点またはエリアに問い合わせを行うことが望ましい。図8A,8Bに示された一実施形態において、スキャナ20は、プロジェクタ156により放射された光が表面32で反射されてカメラ154,155の一方または両方に受容されるように、プロジェクタ156と、プロジェクタ156に対して角度を持って配置されるカメラ154,155とを含む。表面32上の点の三次元座標を判断するのに三角法の原理が使用され得るように、プロジェクタ156とカメラ154,156とは一定の幾何学的関係で配置される。
In some embodiments, the measurement results obtained by the
一実施形態において、プロジェクタ156は、図8Aに示されているように物体34の表面32上の関心エリア159へ可視光157を放射するように構成される。照射された関心エリア159の三次元座標は、カメラ154,155の一方または両方で照射領域159の像を使用することによって確認されうる。
In one embodiment,
照射された関心領域159でオペレータがプローブ先端166を物体表面132と接触させうるように、スキャナ20は遠隔プローブ152と協働する構成を持つ。一実施形態において、遠隔プローブ152は少なくとも三つの非共線状の点状光168を含む。点状光168は、発光ダイオード(LED)により発生される光のスポット、またはプロジェクタ156や、図8Bに描かれていない別の光源からの赤外線または可視光源により照射される光の反射性輝点でありうる。この事例の赤外線または可視光源はスキャナ20に装着されうるか、スキャナ20の外部に設けられうる。スポット状の光168の三次元座標をスキャナで判断することにより、そしてプローブ152の幾何学形状についての情報を使用することにより、プローブ先端166の位置が判断され、こうして物体表面32の座標が判断されうる。このように使用される触覚プローブは、多経路干渉による潜在的な問題を解消し、また、孔、エッジ、および詳細な特徴の比較的正確な測定も可能にする。一実施形態において、プローブ166は、プローブのアクチュエータボタン(不図示)の押圧により起動されうる触覚プローブであるか、プローブ166は表面32との接触により起動されるタッチトリガプローブでありうる。アクチュエータボタンまたはタッチトリガプローブにより発生される信号に応じて、通信回路(不図示)はスキャナ20へ信号を送信する。一実施形態では、点状光168が幾何学的な光パターンで置き換えられ、これは直線または曲線を含みうる。
The
さて図9を参照すると、図8A,8Bの静止スキャナ20を遠隔プローブ152とともに使用して物体34の表面32上の点についての座標データを獲得するためのプロセスが示されている。プロセスはブロック170から始まり、物体34の表面32がスキャンされる。プロセスは、ブロック172で表面32の三次元座標データを獲得および判断する。プロセスは次に、エリア159の座標データに異常があるかどうか、またはエリア159の精度や解像度に問題があるかどうかを質問ブロック174で判断する。異常は、例えば多経路干渉のため廃棄される無効データでありうる。異常は、例えば開口や孔などの特徴の周囲での表面反射率または解像度の欠如による欠損データでありうる。多経路干渉および関連の問題を検出(特定)するための診断手順が、図12を参照して挙げられる。
Referring now to FIG. 9, a process for obtaining coordinate data for points on the
エリア159が特定されると、スキャナ20は、エリア159の座標データが遠隔プローブ152を介して獲得されうることをブロック176でオペレータに指示する。このエリア159は、可視光157を放射してエリア159へ照射することにより指示されうる。一実施形態において、光157はプロジェクタ156により放射される。異常または問題のタイプをオペレータに伝えるように、光157の色が変更されうる。例えば、多経路干渉が発生したところでは、光157は赤色であるのに対して、低解像度は緑色でありうる。エリアはさらに物体の図形表示(CADモデルなど)を有するディスプレイ上で指示されうる。
Once the
プロセスはそれからブロック178へ進み、センサ166が表面32に接触すると遠隔プローブ152の像を獲得する。LEDまたは反射性ターゲットでありうる点状光168は、例えばカメラ154,155の一つにより受容されうる。数学者には周知の最良適合技術を使用して、スキャナ20は、ブロック180で物体表面32の三次元座標が判断されるプローブ中心の三次元座標を、ブロック180で判断する。異常が検出されたエリア159内の点が獲得されると、プロセスが進んで、所望のエリアがスキャンされるまで物体34のスキャンをブロック182で継続する。
The process then proceeds to block 178 where an image of the
さて図10を参照すると、操作中にオペレータにより把持されるスキャナ20の別の実施形態が示されている。この実施形態において、ハウジング22は、操作中にオペレータがスキャナ20を保持できるようにするハンドル186を含みうる。ハウジング22は、プロジェクタにより放射された光192が表面32で反射してカメラ190により受容されるように、相互に対して角度を成して配置されたプロジェクタ188およびカメラ190を含む。図10のスキャナ20は、図1および図3の実施形態と実質的に類似した手法で作動し、三角法の原理を使用して表面32上の点の三次元座標データを獲得する。
Referring now to FIG. 10, another embodiment of a
スキャナ20はさらに、一体型プローブ部材184を含む。プローブ部材184は、一端部にセンサ194を含む。センサ194は、オペレータによるアクチュエータボタン(不図示)の押圧に反応しうる触覚プローブであるか、例えば表面32との接触に反応するタッチトリガプローブでありうる。後でより詳しく記されるように、プローブ部材184によりオペレータは、センサ194を表面32と接触させることで表面32上の点の座標を獲得できる。
The
プロジェクタ188とカメラ190とセンサ194用のアクチュエータ回路とは、ハウジング22内に載置された制御装置50に電気結合される。制御装置50は、一つ以上のマイクロプロセッサとデジタル信号プロセッサとメモリと信号調節回路とを含みうる。スキャナ20はさらに、例えば、オペレータにより手で起動されてスキャナ20による操作およびデータ捕捉を開始しうるハンドル186上などのアクチュエータ(不図示)を含みうる。一実施形態において、物体34の表面32を表すポイントクラウドのX,Y,Z座標データを判断する像処理は、制御装置50により実施される。座標データは、例えば揮発性または不揮発性メモリ54などに局所的に記憶されうる。例えばフラッシュドライブやメモリカードなど、メモリはリムーバブルでありうる。他の実施形態では、スキャナ20が座標データを遠隔処理システム56に送信するための通信回路52をスキャナ20が有する。スキャナ20と遠隔処理システム56との間の通信媒体58は、有線(イーサネット(登録商標)など)または無線(ブルートゥース、IEEE 802.11など)である。一実施形態において、座標データは遠隔処理システム56により判断され、スキャナ20は、獲得した像を通信媒体58で送信する。
さて図11を参照して、図10のスキャナ20の動作が説明される。プロセスはブロック196から始まり、オペレータは、スキャナ20を手で動かすことにより物体34の表面32をスキャンする。ブロック198で、三次元座標が判断および獲得される。質問ブロック200では、座標データに異常が存在するかどうか、または精度向上が必要とされるかどうかが判断される。上記のように、異常は、多経路干渉、表面反射率変化、または特徴の低解像度などいくつかの理由で発生しうる。異常が存在する場合に、プロセスはブロック202へ進み、ここでエリア204がオペレータに指示される。エリア204は、プロジェクタ188で可視光192を表面32へ投影することにより指示されうる。一実施形態では、検出された異常のタイプをオペレータに通知するため光192は有色である。
Now, the operation of the
それからオペレータは、ブロック206でスキャナを第1位置から第2位置(点線で指示)へ移動させる。第2位置では、センサ194が表面32と接触する。第2位置でのスキャナ20の位置および配向(6自由度)は、カメラ190により獲得される像に基づいて、周知の最良適合方法を使用して判断されうる。センサ194の寸法および配置はスキャナ20の機械的構造に関して周知であるので、エリア204の点の三次元座標データがブロック208で判断されうる。プロセスは次にブロック210へ進み、ここで物体のスキャンが継続する。スキャンプロセスは、所望のエリアがスキャンされてしまうまで継続する。
The operator then moves the scanner from the first position to the second position (indicated by the dotted line) at
多経路干渉ばかりでなく、解像度および材料のタイプ、表面の性質、および幾何学的形状の影響を含む品質全般も評価するのに、一般的アプローチが使用されうる。図12も参照すると、一実施形態において、方法4600はコンピュータ制御下で自動的に実行されうる。ステップ4602は、検査対象の物体の三次元座標についての情報が利用可能であるかどうかを判断するものである。第1タイプの三次元情報はCADデータである。CADデータは通常、検査対象物体の公称寸法を指す。第2タイプの三次元情報は、測定された三次元データ、例えばスキャナまたは他の装置により前に測定されたデータである。いくつかの事例では、ステップ4602は、座標測定装置、例えばレーザトラッカまたは6DOFスキャナ補助品の基準のフレームを物体の基準のフレームと整列させる、さらなるステップを含みうる。位置実施以形態において、物体の表面上の少なくとも3点をレーザトラッカで測定することにより、これが行われる。
A general approach can be used to evaluate not only multipath interference, but also overall quality including resolution and material type, surface properties, and geometric effects. Referring also to FIG. 12, in one embodiment, the
ステップ4602で提示される質問の答えが、三次元情報が利用可能であるということである場合には、ステップ4604で、多経路干渉に対する物体測定の被影響性を計算するのにコンピュータまたはプロセッサが使用される。一実施形態では、スキャナプロジェクタにより放射される各光線を投影することと、各事例について角度または反射率を計算することにより、これが行われる。コンピュータまたはソフトウェアは、多経路干渉の結果としてのエラーに対する被影響性を持つ物体表面の各領域を特定する。ステップ4604は、検査対象物体に対する6DOFプローブの様々な位置について多経路エラーに対する被影響性の解析も実行しうる。いくつかの事例では、上述したように、検査対象の物体に対する6DOFプローブの適当な位置および配向を選択することにより、多経路干渉が回避または最小化されうる。ステップ4602で提示される質問に対する答えが、三次元情報が利用可能でないということである場合に、ステップ4606は、所望または好適な測定方法を使用して物体表面の三次元座標を測定することである。多経路干渉の計算に続いて、予想されるスキャン品質の他の面を評価するのにステップ4608が実行されうる。このような品質係数の一つは、スキャンの解像度が検査対象物体の特徴に充分であるかどうかである。例えば、装置の解像度が3mmであって、有効スキャンデータが望ましいミリメートル未満の特徴が存在する場合には、これら物体の問題領域は後の補正動作のために注目されるべきである。解像度に一部関係する別の品質係数は、物体のエッジと孔のエッジとを測定する能力である。スキャナ性能についての知識は、スキャナ解像度が所与のエッジに充分なほど良好であるかどうかの判断を可能にする。別の品質係数は、所与の特徴から、戻ると予想される光の量である。小孔の内側から、例えば視斜角から、少量の光がスキャナへ戻ることが予想される。また、少量の光は、ある種および色の材料から予想される。ある種の材料はスキャナからの光については大きな浸透深さを有し、この事例では良好な測定結果は予想されない。いくつかの事例では、自動プログラムがユーザ追加情報を求める。例えば、コンピュータプログラムがCADデータに基づいてステップ4604,4608を実行している場合には、検査対象物体の表面特性について周知のタイプの材料が使用されない。これらの事例において、ステップ4608は、検査対象物体について材料特性を取得する別のステップを含みうる。
If the answer to the question presented in
ステップ4604,4608の解析に続いて、ステップ4610は、さらなる診断手順が実行されるべきであるかどうかを決定することである。可能な診断手順の第1例は、多経路干渉が観察されるかどうかに注目するためストライプを好適な角度で投影するステップ4612である。投影される直線ストライプについての多経路干渉の概略指示については、図5を参照して上で記した。診断ステップの別の例は、光のソースパターン、例えば図1のプロジェクタ36からの光30のソースパターンでのエピポーラ直線の方向に整列された直線の集合体を投影するステップ4614である。光のソースパターンでの線状光がエピポーラ直線と整列される事例については、感光アレイ上の像平面でこれらの直線がストレート線として現れる。エピポーララインの使用は、2012年4月11日に出願された同じ所有者による米国特許出願第13/443,946号に、さらに詳しく記されている。感光アレイのこれらのパターンがストレート線ではない場合、または直線が不鮮明であるかノイズを含む場合には、おそらくは多経路干渉の結果として問題が指摘される。
Following the analysis of
ステップ4616は、実施される解析および診断手順に基づいて、好適な動作の組み合わせを選択することである。測定速度が特に重要である場合に、符号化光の2D(構造化)パターンを使用して測定するステップ4618が好ましい。高精度がより重要である場合には、連続パターン、例えば位相およびピッチの異なる連続した正弦波パターンを使用して符号化光の2D(構造化)パターンを測定するステップ4620が好ましい。方法4618または4620が選択される場合、スキャナを再配置する、言い換えると、スキャナの位置および配向を、ステップ4604の解析により得られる多経路干渉と正反射〈グリント〉を最小化する位置へ調節するステップ4628を選択することも望ましい。このような指示は、スキャナプロジェクタからの光で問題領域を照射することにより、またはこのような領域をモニタディスプレイに表示することにより、ユーザに提供されうる。代替的に、測定手順の次のステップは、コンピュータまたはプロセッサにより自動的に選択されうる。好適なスキャナ位置が多経路干渉およびグリントを解消しない場合いは、いくつかのオプションが利用可能である。いくつかの事例では、スキャナが再配置され有効な測定結果が組み合わされて、測定が反復されうる。他の事例では、代替的な測定ステップが手順に追加されるか、構造化光を使用する代わりに実施される。上記のように、光のストライプをスキャンするステップ4622は、多経路干渉による問題を有する危険性を低下させる、エリア全体の情報を取得する便利な手法を提供する。関心領域にわたって小さいスポット状の光を掃引するステップ4624は、多経路干渉による問題の危険性を低下させる。触覚プローブにより物体表面の領域を測定するステップは、多経路干渉の可能性を無くす。触覚プローブは、プローブ先端の大きさに基づく周知の解像度を提供して、検査対象物体に見られる低反射率の光または大きな光透過深さの問題を解消する。
たいていの事例では、ステップ4618〜4628の組み合わせで収集されたデータの品質が、測定から得られて、前もって実行された解析結果と組み合わされたデータに基づいてステップ4630で評価されうる。ステップ4632で品質が受容可能であることが分かった場合、ステップ4634で測定が完了する。さもなければ、ステップ4604で解析が再開する。いくつかの事例では、3D情報は所望するほど正確ではなかった。この事例では、前のステップのいくつかを反復することが有益である。
In most cases, the quality of the data collected in the combination of steps 4618-4628 can be evaluated in
限定数の実施形態のみに関して発明が詳しく説明されたが、本発明がこのような開示実施形態に限定されないことが容易に理解されるべきである。むしろ、本発明は、上述していないが、発明の趣旨および範囲と適合するいくつかの変形、変更、代替例、または同等の構成を内含するように修正されてもよい。加えて、本発明の様々な実施形態が説明されたが、発明の態様は記載の実施形態のいくつかのみを含むことが理解されるはずである。したがって、本発明は上記の説明によって限定されると見なされるのではなく、添付の請求項の範囲のみにより制限される。 Although the invention has been described in detail with respect to only a limited number of embodiments, it should be readily understood that the invention is not limited to such disclosed embodiments. Rather, the invention may be modified to include a number of variations, alterations, alternatives or equivalent arrangements not heretofore described, but which are compatible with the spirit and scope of the invention. In addition, while various embodiments of the invention have been described, it should be understood that aspects of the invention include only some of the described embodiments. Accordingly, the invention is not to be seen as limited by the foregoing description, but is only limited by the scope of the appended claims.
Claims (22)
第1プロジェクタと第1カメラと第2プロジェクタと第2カメラとを含むアセンブリであって、前記第1プロジェクタと前記第1カメラと前記第2プロジェクタと前記第2カメラとが相互に対して固定関係にあり、前記第1プロジェクタが第1光源を有し、少なくとも一つのパターンを有する第1光を物体の表面に放射するように前記第1プロジェクタが構成され、前記第1カメラが第1レンズと第1感光アレイとを有し、前記表面で反射した前記第1光の第1部分を受容して相応の第1信号を生成するように前記第1カメラが構成され、前記第1カメラが第1視野を有して前記第1視野が前記第1カメラの第1視認角度領域であり、前記第2プロジェクタが第2光源を有して、前記物体の表面に第2光を放射するように前記第2プロジェクタが構成され、前記第2カメラが第2レンズと第2感光アレイとを有し、前記表面で反射した前記第2光の第2部分を受容して相応の第2信号を生成するように前記第2カメラが構成され、前記第2カメラが第2視野を有して前記第2視野が前記第2カメラの第2視認角度領域であり、前記第2視野が前記第1視野と異なる、アセンブリと、
前記第1プロジェクタと前記第2プロジェクタと前記第1カメラと前記第2カメラとに電気結合されて、前記プロセッサにより実行された時に、第1時点で前記第1信号を収集させるとともに前記第1時点と異なる第2時点で前記第2信号を収集させることと、前記第1信号に少なくとも部分的に基づいて前記表面上の第1点の三次元座標を判断することと、前記第2信号に少なくとも部分的に基づいて前記表面上の第2点の三次元座標を判断することとを含む操作を実施するコンピュータ実行可能プログラムコードを実行するプロセッサと、
を包含する、非接触型光学三次元測定装置。 A non-contact optical three-dimensional measuring device,
An assembly including a first projector, a first camera, a second projector, and a second camera, wherein the first projector, the first camera, the second projector, and the second camera are fixed to each other The first projector includes a first light source, and the first projector is configured to emit first light having at least one pattern to the surface of the object, and the first camera is connected to the first lens. And a first photosensitive array, wherein the first camera is configured to receive a first portion of the first light reflected from the surface and generate a corresponding first signal. The first field of view is a first viewing angle region of the first camera, and the second projector has a second light source to emit second light to the surface of the object. The second project And the second camera has a second lens and a second photosensitive array, and receives the second portion of the second light reflected from the surface and generates a corresponding second signal. An assembly in which a second camera is configured, the second camera has a second field of view, the second field of view is a second viewing angle region of the second camera, and the second field of view is different from the first field of view. When,
When the first projector, the second projector, the first camera, and the second camera are electrically coupled to each other and executed by the processor, the first signal is collected at a first time point and the first time point is collected. Collecting the second signal at a different second time point, determining a three-dimensional coordinate of the first point on the surface based at least in part on the first signal, and at least receiving the second signal A processor executing computer-executable program code for performing an operation comprising determining, based in part, a three-dimensional coordinate of a second point on the surface;
A non-contact type optical three-dimensional measuring apparatus.
第1プロジェクタと第1カメラと第2プロジェクタと第2カメラとを含むアセンブリを提供することであって、前記第1プロジェクタと前記第1カメラと前記第2プロジェクタと前記第2カメラとが相互に対して固定され、前記第1プロジェクタと前記第1カメラとの間に第1距離が設けられて、前記第2プロジェクタと前記第2カメラとの間に第2距離が設けられ、前記第1プロジェクタが第1光源を有し、前記第1プロジェクタが、少なくとも一つのパターンを有する第1光を前記表面へ放射するように構成され、前記第1カメラが第1レンズと第1感光アレイとを有して、前記表面で反射された前記第1光の第1部分を受容するように前記第1カメラが構成され、前記第1カメラが第1視野を有して、前記第1視野が前記第1カメラの第1視認角度領域であり、前記第2プロジェクタが第2光源を有し、第2光を前記表面へ放射するように前記第2プロジェクタが構成され、前記第2カメラが第2レンズと第2感光アレイとを有し、前記表面で反射された前記第2光の第2部分を受容するように前記第2カメラが構成され、前記第2カメラが第2視野を有し、前記第2視野が前記第2カメラの第2視認角度領域であり、前記第2視野が前記第1視野と異なることと、
前記第1プロジェクタと前記第1カメラと前記第2プロジェクタと前記第2カメラとに電気結合されるプロセッサを提供することと、
前記少なくとも一つのパターンを有する前記第1光を、第1例において、前記第1プロジェクタから前記表面へ放射することと、
前記第1例において前記表面の第1エリアの第1像を前記第1カメラで取得し、相応して第1信号を前記プロセッサへ送信することと、
前記第1エリアの第1点の三次元座標の第1集合を前記プロセッサにより判断することであって、前記第1集合が、前記少なくとも一つのパターンと前記第1信号と前記第1距離とに少なくとも部分的に基づくことと、
第2例において前記第2光を前記第2プロジェクタから前記表面へ放射することと、
前記第2例において前記表面の第2エリアの第2像を前記第2カメラで獲得し、相応して第2信号を前記プロセッサへ送信することと、
前記第2エリアの第2点の三次元座標の第2集合を前記プロセッサにより判断することであって、前記第2集合が前記第2光と前記第2信号と前記第2距離とに少なくとも部分的に基づくことと、
を包含する方法。 A method for determining three-dimensional coordinates on the surface of an object,
Providing an assembly including a first projector, a first camera, a second projector, and a second camera, wherein the first projector, the first camera, the second projector, and the second camera are mutually A first distance is provided between the first projector and the first camera, and a second distance is provided between the second projector and the second camera. Has a first light source, the first projector is configured to emit first light having at least one pattern to the surface, and the first camera has a first lens and a first photosensitive array. The first camera is configured to receive a first portion of the first light reflected from the surface, the first camera having a first field of view, and the first field of view being the first field. One camera The second projector has a second light source, and the second projector is configured to emit second light to the surface, and the second camera has a second lens and a second photosensitive region. And the second camera is configured to receive a second portion of the second light reflected from the surface, the second camera having a second field of view, the second field of view being A second viewing angle region of the second camera, wherein the second field of view is different from the first field of view;
Providing a processor electrically coupled to the first projector, the first camera, the second projector, and the second camera;
Emitting the first light having the at least one pattern from the first projector to the surface in the first example;
Acquiring a first image of a first area of the surface in the first example with the first camera and correspondingly sending a first signal to the processor;
Determining a first set of three-dimensional coordinates of a first point of the first area by the processor, wherein the first set comprises the at least one pattern, the first signal, and the first distance; Based at least in part,
Emitting the second light from the second projector to the surface in a second example;
Acquiring a second image of a second area of the surface in the second example with the second camera and correspondingly sending a second signal to the processor;
Determining, by the processor, a second set of three-dimensional coordinates of a second point of the second area, wherein the second set is at least partially in the second light, the second signal, and the second distance. Based on
Including the method.
第1位置から第2位置へ前記アセンブリを移動させること、
を包含し、
前記アセンブリが前記第1例では前記第1位置にあって、前記アセンブリが前記第2例では前記第2位置にあり、
前記第1エリアの一部分と前記第2エリアの一部分とが共通重複エリアを共有する、
請求項9に記載の方法。 further,
Moving the assembly from a first position to a second position;
Including
The assembly is in the first position in the first example, and the assembly is in the second position in the second example;
A portion of the first area and a portion of the second area share a common overlapping area;
The method of claim 9.
測定される前記物体のコンピュータ支援製図(CAD)モデルを提供することと、
前記CADモデルに基づいて、前記第1プロジェクタからの光線が前記物体の第3点から前記物体の第4点へ反射したと判断することにより多経路干渉の存在を検証することであって、前記第4点が前記第1カメラにより撮像される点であることと、
前記多経路干渉の存在に少なくとも部分的に基づいて前記第2位置を判断することと、
を包含する、請求項10に記載の方法。 further,
Providing a computer-aided drafting (CAD) model of the object to be measured;
Verifying the presence of multipath interference by determining, based on the CAD model, that light rays from the first projector are reflected from a third point of the object to a fourth point of the object, A fourth point is a point imaged by the first camera;
Determining the second position based at least in part on the presence of the multipath interference;
The method of claim 10, comprising:
前記表面の少なくとも一部分をスキャンすることにより、前記物体の前記表面の複数の三次元座標を取得することと、
取得された前記複数の三次元座標に基づいて、前記第1プロジェクタからの前記光線が前記物体の第3点から前記物体の第4点へ反射されたと判断することにより多経路干渉の存在を検証することであって、前記第4点が前記第1カメラにより撮像される点であることと、
前記多経路干渉の存在に少なくとも部分的に基づいて前記第2位置を判断することと、
を包含する、請求項10に記載の方法。 further,
Obtaining a plurality of three-dimensional coordinates of the surface of the object by scanning at least a portion of the surface;
Based on the acquired three-dimensional coordinates, the existence of multipath interference is verified by determining that the light beam from the first projector is reflected from the third point of the object to the fourth point of the object. The fourth point is a point imaged by the first camera;
Determining the second position based at least in part on the presence of the multipath interference;
The method of claim 10, comprising:
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201361791797P | 2013-03-15 | 2013-03-15 | |
US61/791,797 | 2013-03-15 | ||
US13/932,267 US9482529B2 (en) | 2011-04-15 | 2013-07-01 | Three-dimensional coordinate scanner and method of operation |
US13/932,267 | 2013-07-01 | ||
PCT/US2014/020481 WO2014149702A1 (en) | 2013-03-15 | 2014-03-05 | Three-dimensional coordinate scanner and method of operation |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016514271A true JP2016514271A (en) | 2016-05-19 |
JP6355710B2 JP6355710B2 (en) | 2018-07-11 |
Family
ID=50382644
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016500623A Expired - Fee Related JP6355710B2 (en) | 2013-03-15 | 2014-03-05 | Non-contact optical three-dimensional measuring device |
Country Status (5)
Country | Link |
---|---|
JP (1) | JP6355710B2 (en) |
CN (1) | CN105190232A (en) |
DE (1) | DE112014001483T5 (en) |
GB (1) | GB2527993B (en) |
WO (1) | WO2014149702A1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190051052A (en) * | 2016-10-19 | 2019-05-14 | 항저우 스캔테크 컴파니 리미티드 | A three-dimensional scanning method including a laser of a plurality of different wavelengths, |
WO2022169410A1 (en) * | 2021-02-05 | 2022-08-11 | Ams Sensors Singapore Pte. Ltd. | Distance measurement using field of view |
Families Citing this family (67)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9482755B2 (en) | 2008-11-17 | 2016-11-01 | Faro Technologies, Inc. | Measurement system having air temperature compensation between a target and a laser tracker |
US8908995B2 (en) | 2009-01-12 | 2014-12-09 | Intermec Ip Corp. | Semi-automatic dimensioning with imager on a portable device |
US9400170B2 (en) | 2010-04-21 | 2016-07-26 | Faro Technologies, Inc. | Automatic measurement of dimensional data within an acceptance region by a laser tracker |
US9377885B2 (en) | 2010-04-21 | 2016-06-28 | Faro Technologies, Inc. | Method and apparatus for locking onto a retroreflector with a laser tracker |
US9772394B2 (en) | 2010-04-21 | 2017-09-26 | Faro Technologies, Inc. | Method and apparatus for following an operator and locking onto a retroreflector with a laser tracker |
GB2518769A (en) | 2011-03-03 | 2015-04-01 | Faro Tech Inc | Target apparatus and method |
US9686532B2 (en) | 2011-04-15 | 2017-06-20 | Faro Technologies, Inc. | System and method of acquiring three-dimensional coordinates using multiple coordinate measurement devices |
JP2014516409A (en) | 2011-04-15 | 2014-07-10 | ファロ テクノロジーズ インコーポレーテッド | Improved position detector for laser trackers. |
US9482529B2 (en) | 2011-04-15 | 2016-11-01 | Faro Technologies, Inc. | Three-dimensional coordinate scanner and method of operation |
JP6099675B2 (en) | 2012-01-27 | 2017-03-22 | ファロ テクノロジーズ インコーポレーテッド | Inspection method by barcode identification |
US9779546B2 (en) | 2012-05-04 | 2017-10-03 | Intermec Ip Corp. | Volume dimensioning systems and methods |
US10007858B2 (en) | 2012-05-15 | 2018-06-26 | Honeywell International Inc. | Terminals and methods for dimensioning objects |
US10321127B2 (en) | 2012-08-20 | 2019-06-11 | Intermec Ip Corp. | Volume dimensioning system calibration systems and methods |
US9939259B2 (en) | 2012-10-04 | 2018-04-10 | Hand Held Products, Inc. | Measuring object dimensions using mobile computer |
US9841311B2 (en) | 2012-10-16 | 2017-12-12 | Hand Held Products, Inc. | Dimensioning system |
US9080856B2 (en) | 2013-03-13 | 2015-07-14 | Intermec Ip Corp. | Systems and methods for enhancing dimensioning, for example volume dimensioning |
US9041914B2 (en) | 2013-03-15 | 2015-05-26 | Faro Technologies, Inc. | Three-dimensional coordinate scanner and method of operation |
US10228452B2 (en) | 2013-06-07 | 2019-03-12 | Hand Held Products, Inc. | Method of error correction for 3D imaging device |
US9464885B2 (en) | 2013-08-30 | 2016-10-11 | Hand Held Products, Inc. | System and method for package dimensioning |
US9395174B2 (en) | 2014-06-27 | 2016-07-19 | Faro Technologies, Inc. | Determining retroreflector orientation by optimizing spatial fit |
US9823059B2 (en) | 2014-08-06 | 2017-11-21 | Hand Held Products, Inc. | Dimensioning system with guided alignment |
GB2531928B (en) * | 2014-10-10 | 2018-12-12 | Hand Held Prod Inc | Image-stitching for dimensioning |
US10775165B2 (en) | 2014-10-10 | 2020-09-15 | Hand Held Products, Inc. | Methods for improving the accuracy of dimensioning-system measurements |
US9779276B2 (en) | 2014-10-10 | 2017-10-03 | Hand Held Products, Inc. | Depth sensor based auto-focus system for an indicia scanner |
US10810715B2 (en) | 2014-10-10 | 2020-10-20 | Hand Held Products, Inc | System and method for picking validation |
US10060729B2 (en) | 2014-10-21 | 2018-08-28 | Hand Held Products, Inc. | Handheld dimensioner with data-quality indication |
US9762793B2 (en) | 2014-10-21 | 2017-09-12 | Hand Held Products, Inc. | System and method for dimensioning |
US9752864B2 (en) | 2014-10-21 | 2017-09-05 | Hand Held Products, Inc. | Handheld dimensioning system with feedback |
US9897434B2 (en) | 2014-10-21 | 2018-02-20 | Hand Held Products, Inc. | Handheld dimensioning system with measurement-conformance feedback |
US9557166B2 (en) | 2014-10-21 | 2017-01-31 | Hand Held Products, Inc. | Dimensioning system with multipath interference mitigation |
US9964402B2 (en) * | 2015-04-24 | 2018-05-08 | Faro Technologies, Inc. | Two-camera triangulation scanner with detachable coupling mechanism |
US9786101B2 (en) | 2015-05-19 | 2017-10-10 | Hand Held Products, Inc. | Evaluating image values |
US10066982B2 (en) | 2015-06-16 | 2018-09-04 | Hand Held Products, Inc. | Calibrating a volume dimensioner |
US20160377414A1 (en) | 2015-06-23 | 2016-12-29 | Hand Held Products, Inc. | Optical pattern projector |
US9857167B2 (en) | 2015-06-23 | 2018-01-02 | Hand Held Products, Inc. | Dual-projector three-dimensional scanner |
US9835486B2 (en) | 2015-07-07 | 2017-12-05 | Hand Held Products, Inc. | Mobile dimensioner apparatus for use in commerce |
EP3118576B1 (en) | 2015-07-15 | 2018-09-12 | Hand Held Products, Inc. | Mobile dimensioning device with dynamic accuracy compatible with nist standard |
US10094650B2 (en) | 2015-07-16 | 2018-10-09 | Hand Held Products, Inc. | Dimensioning and imaging items |
US20170017301A1 (en) | 2015-07-16 | 2017-01-19 | Hand Held Products, Inc. | Adjusting dimensioning results using augmented reality |
US10249030B2 (en) | 2015-10-30 | 2019-04-02 | Hand Held Products, Inc. | Image transformation for indicia reading |
US10225544B2 (en) | 2015-11-19 | 2019-03-05 | Hand Held Products, Inc. | High resolution dot pattern |
KR101973917B1 (en) | 2016-01-20 | 2019-04-29 | 미쓰비시덴키 가부시키가이샤 | Three-dimensional measuring device and its supporting method of measurement |
US10025314B2 (en) | 2016-01-27 | 2018-07-17 | Hand Held Products, Inc. | Vehicle positioning and object avoidance |
US10352689B2 (en) * | 2016-01-28 | 2019-07-16 | Symbol Technologies, Llc | Methods and systems for high precision locationing with depth values |
DE102016002398B4 (en) * | 2016-02-26 | 2019-04-25 | Gerd Häusler | Optical 3D sensor for fast and dense shape detection |
US20170299379A1 (en) * | 2016-04-15 | 2017-10-19 | Lockheed Martin Corporation | Precision Hand-Held Scanner |
US10339352B2 (en) | 2016-06-03 | 2019-07-02 | Hand Held Products, Inc. | Wearable metrological apparatus |
US9940721B2 (en) | 2016-06-10 | 2018-04-10 | Hand Held Products, Inc. | Scene change detection in a dimensioner |
US10163216B2 (en) | 2016-06-15 | 2018-12-25 | Hand Held Products, Inc. | Automatic mode switching in a volume dimensioner |
JP7063825B2 (en) * | 2016-06-24 | 2022-05-09 | 3シェイプ アー/エス | 3D scanner with a beam of structured probe light |
CN106500627B (en) * | 2016-10-19 | 2019-02-01 | 杭州思看科技有限公司 | 3-D scanning method and scanner containing multiple and different long wavelength lasers |
US10917626B2 (en) | 2016-11-23 | 2021-02-09 | Microsoft Technology Licensing, Llc | Active illumination 3D imaging system |
US10909708B2 (en) | 2016-12-09 | 2021-02-02 | Hand Held Products, Inc. | Calibrating a dimensioner using ratios of measurable parameters of optic ally-perceptible geometric elements |
EP3577415A4 (en) * | 2017-02-03 | 2020-12-30 | Modit3d, Inc. | Three-dimensional scanning device and methods |
US11047672B2 (en) | 2017-03-28 | 2021-06-29 | Hand Held Products, Inc. | System for optically dimensioning |
EP3415866B1 (en) | 2017-06-12 | 2020-06-03 | Hexagon Technology Center GmbH | Device, system, and method for displaying measurement gaps |
US10430958B2 (en) | 2017-07-11 | 2019-10-01 | Microsoft Technology Licensing, Llc | Active illumination 3D zonal imaging system |
US10901073B2 (en) | 2017-07-11 | 2021-01-26 | Microsoft Technology Licensing, Llc | Illumination for zoned time-of-flight imaging |
US10733748B2 (en) | 2017-07-24 | 2020-08-04 | Hand Held Products, Inc. | Dual-pattern optical 3D dimensioning |
US10935376B2 (en) * | 2018-03-30 | 2021-03-02 | Koninklijke Philips N.V. | System and method for 3D scanning |
US10584962B2 (en) | 2018-05-01 | 2020-03-10 | Hand Held Products, Inc | System and method for validating physical-item security |
JP6907277B2 (en) | 2018-08-30 | 2021-07-21 | コグネックス・コーポレイション | Methods and devices for generating 3D reconstructions of distorted objects |
DE102020001882A1 (en) * | 2019-04-26 | 2020-11-12 | Mitutoyo Corporation | Visualization device and program |
WO2020262389A1 (en) * | 2019-06-28 | 2020-12-30 | キヤノン株式会社 | Measurement apparatus, imaging apparatus, measurement system, control method, and program |
US11639846B2 (en) | 2019-09-27 | 2023-05-02 | Honeywell International Inc. | Dual-pattern optical 3D dimensioning |
CN113514008B (en) * | 2020-04-10 | 2022-08-23 | 杭州思看科技有限公司 | Three-dimensional scanning method, three-dimensional scanning system, and computer-readable storage medium |
CN112945142B (en) * | 2021-02-02 | 2022-12-06 | 江西应用科技学院 | Object three-dimensional measurement system and method based on structured light |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120062706A1 (en) * | 2010-09-15 | 2012-03-15 | Perceptron, Inc. | Non-contact sensing system having mems-based light source |
WO2012142074A2 (en) * | 2011-04-15 | 2012-10-18 | Faro Technologies, Inc. | Six degree-of-freedom laser tracker that cooperates with a remote projector to convey information |
JP2012215496A (en) * | 2011-04-01 | 2012-11-08 | Nikon Corp | Shape measuring device |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7246030B2 (en) | 2002-02-14 | 2007-07-17 | Faro Technologies, Inc. | Portable coordinate measurement machine with integrated line laser scanner |
DE10344922B4 (en) * | 2003-09-25 | 2008-06-26 | Siemens Audiologische Technik Gmbh | All-scanner |
US8786682B2 (en) * | 2009-03-05 | 2014-07-22 | Primesense Ltd. | Reference image techniques for three-dimensional sensing |
-
2014
- 2014-03-05 CN CN201480015935.5A patent/CN105190232A/en active Pending
- 2014-03-05 DE DE112014001483.4T patent/DE112014001483T5/en not_active Withdrawn
- 2014-03-05 WO PCT/US2014/020481 patent/WO2014149702A1/en active Application Filing
- 2014-03-05 JP JP2016500623A patent/JP6355710B2/en not_active Expired - Fee Related
- 2014-03-05 GB GB1518275.1A patent/GB2527993B/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120062706A1 (en) * | 2010-09-15 | 2012-03-15 | Perceptron, Inc. | Non-contact sensing system having mems-based light source |
JP2012215496A (en) * | 2011-04-01 | 2012-11-08 | Nikon Corp | Shape measuring device |
WO2012142074A2 (en) * | 2011-04-15 | 2012-10-18 | Faro Technologies, Inc. | Six degree-of-freedom laser tracker that cooperates with a remote projector to convey information |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190051052A (en) * | 2016-10-19 | 2019-05-14 | 항저우 스캔테크 컴파니 리미티드 | A three-dimensional scanning method including a laser of a plurality of different wavelengths, |
KR102073205B1 (en) * | 2016-10-19 | 2020-02-04 | 항저우 스캔테크 컴파니 리미티드 | 3D scanning method and scanner including multiple different wavelength lasers |
WO2022169410A1 (en) * | 2021-02-05 | 2022-08-11 | Ams Sensors Singapore Pte. Ltd. | Distance measurement using field of view |
CN115210528A (en) * | 2021-02-05 | 2022-10-18 | ams传感器新加坡私人有限公司 | Distance measurement using field of view |
Also Published As
Publication number | Publication date |
---|---|
GB2527993B (en) | 2018-06-27 |
JP6355710B2 (en) | 2018-07-11 |
GB2527993A (en) | 2016-01-06 |
CN105190232A (en) | 2015-12-23 |
WO2014149702A1 (en) | 2014-09-25 |
DE112014001483T5 (en) | 2015-12-10 |
GB201518275D0 (en) | 2015-12-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6355710B2 (en) | Non-contact optical three-dimensional measuring device | |
JP6291562B2 (en) | Diagnose and eliminate multipath interference in 3D scanners with directed probing | |
US10119805B2 (en) | Three-dimensional coordinate scanner and method of operation | |
US10089415B2 (en) | Three-dimensional coordinate scanner and method of operation | |
US20150015701A1 (en) | Triangulation scanner having motorized elements | |
EP3619498B1 (en) | Triangulation scanner having flat geometry and projecting uncoded spots | |
US9188430B2 (en) | Compensation of a structured light scanner that is tracked in six degrees-of-freedom | |
EP3992662A1 (en) | Three dimensional measurement device having a camera with a fisheye lens | |
JP7337637B2 (en) | Laser probe and optical adjustment method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20161206 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170919 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20171003 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171222 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180522 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180612 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6355710 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |