JP2017524944A - 6 DOF triangulation scanner and camera for augmented reality - Google Patents

6 DOF triangulation scanner and camera for augmented reality Download PDF

Info

Publication number
JP2017524944A
JP2017524944A JP2017508083A JP2017508083A JP2017524944A JP 2017524944 A JP2017524944 A JP 2017524944A JP 2017508083 A JP2017508083 A JP 2017508083A JP 2017508083 A JP2017508083 A JP 2017508083A JP 2017524944 A JP2017524944 A JP 2017524944A
Authority
JP
Japan
Prior art keywords
camera
light
image
coordinate
reference frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017508083A
Other languages
Japanese (ja)
Inventor
ロバート イー ブリッジス
ロバート イー ブリッジス
Original Assignee
ファロ テクノロジーズ インコーポレーテッド
ファロ テクノロジーズ インコーポレーテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US14/820,665 external-priority patent/US10021379B2/en
Application filed by ファロ テクノロジーズ インコーポレーテッド, ファロ テクノロジーズ インコーポレーテッド filed Critical ファロ テクノロジーズ インコーポレーテッド
Publication of JP2017524944A publication Critical patent/JP2017524944A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2513Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with several lines being projected in more than one direction, e.g. grids, patterns
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/46Indirect determination of position data
    • G01S17/48Active triangulation systems, i.e. using the transmission and reflection of electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/66Tracking systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/87Combinations of systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Electromagnetism (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Studio Devices (AREA)

Abstract

3D座標測定システムは、6自由度(6−DOF)ユニットを含み、これはユニット基準フレームを有し、構造体と、レトロリフレクタと、三角計測スキャナと、仮想現実(AR)カラーカメラと、を含む。レトロリフレクタ、スキャナ、およびARカメラは構造体に取り付けられる。スキャナは、プロジェクタにより物体に投影されたパターン光の第一の画像を形成するように構成された第一のカメラを含む。第一のカメラとプロジェクタは、ユニット基準フレーム内の物体上のある点の第一の3D座標を協働して判定するように構成され、この判定は、少なくとも一部に、投影されたパターン光と第一の画像に基づく。システムはまた、装置基準フレームを有し、装置基準フレーム内のレトロリフレクタの姿勢を測定するように構成された座標測定装置を含み、測定された姿勢は、レトロリフレクタの6自由度の測定値を含む。The 3D coordinate measurement system includes a 6 degrees of freedom (6-DOF) unit, which has a unit reference frame, and includes a structure, a retroreflector, a triangulation scanner, and a virtual reality (AR) color camera. Including. The retro reflector, scanner, and AR camera are attached to the structure. The scanner includes a first camera configured to form a first image of pattern light projected onto an object by a projector. The first camera and the projector are configured to cooperatively determine a first 3D coordinate of a point on the object in the unit reference frame, and this determination is at least partially related to the projected pattern light. And based on the first image. The system also includes a coordinate measuring device having a device reference frame and configured to measure the attitude of the retroreflector within the device reference frame, wherein the measured attitude is a measurement of the six degrees of freedom of the retroreflector. Including.

Description

関連出願との相互参照
本願は、2014年8月11日に出願された米国仮特許出願第62/035,587号の利益を主張するものであり、同仮出願の全体を参照によって本願に援用する。本願はまた、2014年6月12日に出願された米国仮特許出願第62/011,151号の利益を主張する、2015年6月8日に出願された米国特許出願14/733,130号の優先権も主張しており、両出願の全体を参照によって本願に援用する。
CROSS REFERENCE TO RELATED APPLICATION This application claims the benefit of US Provisional Patent Application No. 62 / 035,587 filed on August 11, 2014, which is incorporated herein by reference in its entirety. To do. This application also claims US Patent Application No. 14 / 733,130, filed June 8, 2015, which claims the benefit of US Provisional Application No. 62 / 011,151, filed June 12, 2014. And both applications are incorporated herein by reference in their entirety.

本開示は、拡張現実(augmented reality)(AR)を実現するように構成された6自由度(six−degree−of−freedom)(6−DOF)三角計測スキャナおよび一体カメラに関する。   The present disclosure relates to a six-degree-of-freedom (6-DOF) triangulation scanner and an integral camera configured to implement augmented reality (AR).

1つのグループの座標測定装置は、ある点の三次元(3D)座標を、その点にレーザビームを送ることによって測定する計器の分類に属する。レーザビームはその点に直接当たっても、またはその点と接触するレトロリフレクタ(retroreflector:再帰反射器)ターゲットに当たってもよい。何れの場合も、計器は点の座標を、ターゲットまでの距離と2つの角度を測定することによって判定する。距離は、絶対距離計測器または干渉計等の距離測定装置で測定される。角度は、角度エンコーダ等の角度測定装置で測定される。計器内のジンバル式ビームステアリング機構が、レーザビームを関心点へと案内する。   One group of coordinate measuring devices belongs to the class of instruments that measure the three-dimensional (3D) coordinates of a point by sending a laser beam to that point. The laser beam may hit the point directly or may hit a retroreflector target that contacts the point. In either case, the instrument determines the coordinates of the point by measuring the distance to the target and two angles. The distance is measured by a distance measuring device such as an absolute distance measuring device or an interferometer. The angle is measured by an angle measuring device such as an angle encoder. A gimbal beam steering mechanism in the instrument guides the laser beam to the point of interest.

レーザトラッカは、それが発する1つまたは複数のレーザビームでレトロリフレクタターゲットを追跡するという特定の種類の座標測定装置である。それゆえ、レーザトラッカは「飛行時間(タイム オブ フライト)」型の測定装置である。レーザトラッカと密接に関係する座標測定装置は、レーザスキャナとトータルステーションである。レーザスキャナは、1つまたは複数のレーザビームを物体表面上の点にステップ式に向ける。それはこの表面から散乱した光をピックアップし、この光から、各点までの距離と2つの角度を判定する。トータルステーションは、測量用として使用されることが最も多いが、発散的に散乱する、または鏡面反射するターゲットの座標を測定するために使われてもよい。以下、レーザトラッカという用語は、レーザスキャナとトータルステーションを含む広い意味で使用される。   A laser tracker is a specific type of coordinate measuring device that tracks a retroreflector target with one or more laser beams it emits. The laser tracker is therefore a “time of flight” type measuring device. Coordinate measuring devices closely related to the laser tracker are a laser scanner and a total station. A laser scanner directs one or more laser beams stepwise to a point on the object surface. It picks up the light scattered from this surface and from this light determines the distance to each point and the two angles. Total stations are most often used for surveying, but may also be used to measure the coordinates of targets that are divergently scattered or specularly reflected. Hereinafter, the term laser tracker is used in a broad sense including a laser scanner and a total station.

通常、レーザトラッカはレーザビームをレトロリフレクタターゲットに送る。一般的な種類のレトロリフレクタターゲットは球状マウントレトロリフレクタ(spherically mounted retroreflector)(SMR)であり、金属球の中に埋め込まれたコーナキューブレトロリフレクタを含む。コーナキューブレトロリフレクタは、相互に垂直な3つのミラーを含む。3つのミラーの共通の交点である頂点は、球の中心に位置する。このようにコーナキューブが球の中に配置されているため、頂点からSMRの載っている表面までの垂直距離は、SMRが回転しても一定のままである。その結果、レーザトラッカは、SMRの位置をそれが表面上で移動する間に追跡することによって物体面の3D座標を測定できる。別の言い方をすれば、レーザトラッカは3自由度(1つの半径方向の距離と2つの角度)を測定すれば、表面の3D座標を十分に特徴付けることができる。   Usually, a laser tracker sends a laser beam to a retro-reflector target. A common type of retroreflector target is a spherically mounted retroreflector (SMR), which includes a corner cube retroreflector embedded in a metal sphere. The corner cube retro-reflector includes three mirrors that are perpendicular to each other. The vertex that is the intersection of the three mirrors is located at the center of the sphere. Since the corner cubes are thus arranged in the sphere, the vertical distance from the apex to the surface on which the SMR is placed remains constant even when the SMR rotates. As a result, the laser tracker can measure the 3D coordinates of the object plane by tracking the position of the SMR as it moves over the surface. In other words, a laser tracker can fully characterize the 3D coordinates of a surface if it measures three degrees of freedom (one radial distance and two angles).

1つの種類のレーザトラッカは、干渉計(IFM)のみを含み、絶対距離計測器(absolute distance meter)(ADM)を持たない。物体によりこれらのトラッカのうちの1つからのレーザビームの経路がブロックされると、IFMはその距離基準を失う。すると、オペレータは、レトロリフレクタを既知の位置まで追跡して、基準距離をリセットしてから測定を続けなければならない。この欠点を回避する方法は、ADMをトラッカの中に含めることである。ADMは、後でより詳しく説明するように、point−and−shoot(オートフォーカス)方式で距離を測定できる。レーザトラッカの中には、干渉計を持たず、ADMしか含まないものがある。Bridges et al.の米国特許第7,352,446号(‘446号特許)には、移動するターゲットを正確にスキャンできるADMだけを有する(IFMを持たない)レーザトラッカが記載されており、同特許の内容を参照によって本願に援用する。‘446号特許より前は、絶対距離計測器は低速すぎて、移動するターゲットの位置を正確に特定することができなかった。   One type of laser tracker includes only an interferometer (IFM) and does not have an absolute distance meter (ADM). If the object blocks the path of the laser beam from one of these trackers, the IFM loses its distance criteria. The operator then has to track the retroreflector to a known position, reset the reference distance and continue the measurement. A way to avoid this drawback is to include the ADM in the tracker. The ADM can measure distance by a point-and-shot (autofocus) method, as will be described in more detail later. Some laser trackers do not have an interferometer and contain only ADMs. Bridges et al. U.S. Pat. No. 7,352,446 (the '446 patent) describes a laser tracker that has only an ADM (without an IFM) that can accurately scan a moving target. Which is incorporated herein by reference. Prior to the '446 patent, absolute distance measuring instruments were too slow to accurately locate the moving target.

レーザトラッカ内のジンバル機構は、レーザビームをトラッカからSMRに誘導するために使用されてもよい。SMRにより鏡面反射された光の一部はレーザトラッカに入射し、位置検出器へと透過する。レーザトラッカ内の制御システムは、位置検出器上の光の位置を利用して、レーザトラッカの機械軸の回転角度を調整することにより、レーザビームがSMR上の中心に保たれるようにする。このようにして、トラッカは関心物体の表面上で移動するSMRを追う(追跡する)ことができる。   A gimbal mechanism in the laser tracker may be used to direct the laser beam from the tracker to the SMR. Part of the light specularly reflected by the SMR is incident on the laser tracker and is transmitted to the position detector. The control system in the laser tracker uses the position of the light on the position detector to adjust the rotation angle of the mechanical axis of the laser tracker so that the laser beam is kept at the center on the SMR. In this way, the tracker can follow (track) SMR moving on the surface of the object of interest.

角度エンコーダ等の角度測定装置が、トラッカの機械軸に取り付けられる。レーザトラッカにより実行される1つの距離測定と2つの角度測定で、十分に、測定対象物体の表面上の何れの点におけるSMRの3次元位置も完全に特定できる。   An angle measuring device such as an angle encoder is attached to the mechanical shaft of the tracker. One distance measurement and two angle measurements performed by the laser tracker can fully identify the three-dimensional position of the SMR at any point on the surface of the object to be measured.

通常の3自由度ではなく6自由度を測定するためのいくつかのレーザトラッカが開示されている。このような6自由度には、後でより詳しく説明するように、3つの並進自由度と3つの方位自由度が含まれる。例示的な6自由度(degree-of-freedom)(6−DOFまたは6DOF)レーザトラッカシステムは、Bridges et al.の米国特許第7,800,758号(‘758号特許)、Bridges et al.の米国特許第8,525,983号(‘983号特許)、Cramer et al.の米国特許第8,467,072号(‘072号特許)に記載されており、その各々の内容を参照によって本願に援用する。   Several laser trackers have been disclosed for measuring 6 degrees of freedom rather than the usual 3 degrees of freedom. Such six degrees of freedom include three translational degrees of freedom and three azimuth degrees of freedom as will be described in more detail later. An exemplary degree-of-freedom (6-DOF or 6DOF) laser tracker system is described in Bridges et al. U.S. Pat. No. 7,800,758 (the '758 patent), Bridges et al. U.S. Pat. No. 8,525,983 (the '983 patent), Cramer et al. U.S. Pat. No. 8,467,072 (the '072 patent), the contents of each of which are incorporated herein by reference.

レーザトラッカ等の飛行時間測定装置の代替案は、物体表面の3D座標を三角測量の原理に基づいて測定するスキャニングシステムである。飛行時間距離計を利用するレーザトラッカ等のシステムは、場合によっては三角計測スキャナより比較的正確であるが、非接触の三角計測スキャナのほうが、これらが典型的に、一度に複数の光スポットを物体表面上に投影することから、比較的高速でありうる。   An alternative to a time-of-flight measuring device such as a laser tracker is a scanning system that measures the 3D coordinates of the object surface based on the principle of triangulation. Systems such as laser trackers that use time-of-flight rangefinders are sometimes more accurate than triangulation scanners, but non-contact triangulation scanners typically produce multiple light spots at a time. Projecting onto the object surface can be relatively fast.

典型的な三角計測スキャナは、線状の光(例えば、レーザラインプローブからの光)か、ある面積にわたる2次元(2D)パターンの光(例えば、構造化光)の何れかを物体表面に投影する。三角計測スキャナにおいて、カメラ(例えば、CCDまたはCMOS感光体アレイ)がプロジェクタ(例えば、レーザ光源)に固定の機械的関係で連結される。プロジェクタから発せられ、投影された光の線またはパターンは、物体表面で反射され、カメラによって画像化される。カメラとプロジェクタが相互に固定の関係で配置されているため、物体表面までの距離と角度は、投影された線またはパターン、撮影されたカメラ画像、およびプロジェクタとカメラを分離するベースライン距離から、三角測量の原理にしたがって判定されてもよい。三角計測システムは、大きな面積にわたって3D座標データを素早く取得するという利点を提供する。   A typical triangulation scanner projects either linear light (eg, light from a laser line probe) or a two-dimensional (2D) pattern of light over a certain area (eg, structured light) onto an object surface. To do. In a triangulation scanner, a camera (eg, CCD or CMOS photoreceptor array) is coupled to a projector (eg, a laser light source) in a fixed mechanical relationship. A line or pattern of light emitted and projected from the projector is reflected by the object surface and imaged by the camera. Because the camera and projector are placed in a fixed relationship to each other, the distance and angle to the object surface can be calculated from the projected line or pattern, the captured camera image, and the baseline distance separating the projector and camera. It may be determined according to the principle of triangulation. Triangulation systems offer the advantage of quickly acquiring 3D coordinate data over a large area.

いくつかのシステムでは、スキャニングプロセス中、三角計測スキャナが一連の3D画像を取得し、これらが相互に関して位置合わせされてもよく、それによって各3D画像の、他の3D画像に関する位置と方位がわかる。スキャナが静止していれば、このような画像位置合わせは不要である。同様に、三角計測スキャナが三角計測スキャナの位置と方位を測定できる機械的装置に取り付けられているか、またはそれと共に動作する場合も、このような画像位置合わせを提供する必要はない。このような機械的装置の例には、レーザトラッカ、関節アーム座標測定機(coordinate measurement machine)(CMM)およびデカルトCMMが含まれる。   In some systems, during the scanning process, a triangulation scanner acquires a series of 3D images, which may be aligned with respect to each other, thereby knowing the position and orientation of each 3D image with respect to the other 3D images. . If the scanner is stationary, such image alignment is not necessary. Similarly, it is not necessary to provide such image alignment if the triangulation scanner is attached to or operates in conjunction with a mechanical device that can measure the position and orientation of the triangulation scanner. Examples of such mechanical devices include laser trackers, coordinated measurement machine (CMM) and Cartesian CMM.

他方で、スキャナが手持ち式であり、したがって移動可能である場合には、様々な技術を使用して画像の位置合わせを行うことができる。1つの一般的な技術は、画像内にある特徴(例えば、主要点)を使って、隣接する画像フレームの重複エリアをマッチさせる。この技術は、測定対象物体にスキャナの視野に関する多くの特徴があるときには有効である。しかしながら、物体に比較的大きい平面または湾曲面が含まれていると、画像同士の位置合わせを適正に行えないかもしれない。   On the other hand, if the scanner is handheld and therefore movable, various techniques can be used to align the images. One common technique uses features (eg, key points) in an image to match overlapping areas of adjacent image frames. This technique is effective when the object to be measured has many features relating to the field of view of the scanner. However, if the object includes a relatively large plane or curved surface, the images may not be properly aligned.

したがって、既存の座標測定装置は、前述のような三角計測スキャナとの動作において、その所期の目的に適しているものの、特に三角計測スキャナ装置により取得された画像の位置合わせの改良において、依然として改良の必要がある。   Therefore, although the existing coordinate measuring apparatus is suitable for its intended purpose in operation with the triangulation scanner as described above, it is still in particular in improving the alignment of images acquired by the triangulation scanner apparatus. There is a need for improvement.

拡張現実(Augmented reality:AR)は、仮想現実から発展した比較的新しい種類の技術である。拡張現実は、実際の実世界の情報またはデータを、仮想情報またはデータと、その上に、その中に、またはそこに向かって融合させ、重ね、またはトランスプロジェクト(transprojects)する。すなわち、仮想情報またはデータが、ある物体またはシーンに関する実際の、感知され、測定され、捕捉され、または画像化された実世界の情報またはデータを、「拡張」し、補完し、または補足する。拡張現実の応用には、部品、構成要素または装置の製造と組立および/または修理とメンテナンス等の技術的または産業的分野や、施設、ビル、または構造物のレイアウトおよび建設が含まれる。多数の現代のAR応用が、http://en.wikipedia.org/wiki/Augmented_realityにおいて開示されている。   Augmented reality (AR) is a relatively new kind of technology developed from virtual reality. Augmented reality fuses, superimposes, or transprojects actual real-world information or data with virtual information or data on, in, or towards it. That is, virtual information or data “extends”, complements, or supplements real, sensed, measured, captured, or imaged real-world information or data about an object or scene. Augmented reality applications include technical or industrial fields such as the manufacture and assembly and / or repair and maintenance of parts, components or equipment, and the layout and construction of facilities, buildings, or structures. A number of modern AR applications are available at http: // en. wikipedia. org / wiki / Augmented_reality.

部品、構成要素、もしくは装置または領域に関する実際の情報またはデータは、各種の装置を使って様々な方法で取得できる。1つの種類の機器は、例えばCMMまたはレーザトラッカ等の座標測定装置を含む。カメラも、実際の部品、構成要素、または装置および/または所望の領域自体の、または部品、構成要素、もしくは装置を取り囲む、もしくはそれに関連する静止画像またはビデオ画像を撮影するために使用されてよい。   Actual information or data regarding a part, component, or device or area can be obtained in various ways using various devices. One type of equipment includes coordinate measuring devices such as CMMs or laser trackers, for example. The camera may also be used to capture still or video images of the actual part, component or device and / or the desired area itself, or surrounding or associated with the component, component or device. .

仮想情報またはデータは、部品、構成要素、または装置に関する保存された人工的な情報であってもよい。保存された仮想情報またはデータは、部品、構成要素、または装置の設計に関するものであってもよく、例えば単純なテキストまたは記号から、比較的より複雑なグラフィクスによる3D CAD設計データにわたる。視覚的情報のほかに、保存された仮想情報またはデータはまた、可聴、すなわち音声情報またはデータも含んでいてよい。保存された仮想情報またはデータはまた、テキストによる、または部品、構成要素、もしくは装置の修理またはメンテナンスの説明、または、例えばオフィスもしくは製造および/または修理施設の設計(例えば、建物または施設レイアウト)において使用されてもよい部品、構成要素、または装置を表す視覚的情報に関していてもよい。   The virtual information or data may be stored artificial information about a part, component, or device. The stored virtual information or data may relate to the design of a part, component or device, ranging from simple text or symbols to 3D CAD design data with relatively more complex graphics. In addition to visual information, the stored virtual information or data may also include audible, ie audio information or data. Stored virtual information or data may also be in text or in the repair or maintenance description of a part, component or device, or in the design of an office or manufacturing and / or repair facility (eg, building or facility layout) It may relate to visual information representing a part, component or device that may be used.

ARシステムの複合的な実際および仮想情報またはデータは通常、デジタルの性質を持ち、ユーザに対し、多様な種類または形態をとることのできる、例えばデスクトップもしくはラップトップコンピュータモニタ、タブレット、スマートフォン、または例えば眼鏡、帽子、もしくはヘルメットに関連する頭部装着用ディスプレイに関連付けられるような表示スクリーンの上に実時間で(すなわち、実際の情報が測定され、または感知されている時に)提供されてもよい。音声情報は、スピーカを通じて伝達されてもよい。   The complex actual and virtual information or data of an AR system is typically digital in nature and can take a variety of forms or forms to the user, such as a desktop or laptop computer monitor, tablet, smartphone, or It may be provided in real time (i.e., when actual information is being measured or sensed) on a display screen such as associated with glasses, a hat, or a head mounted display associated with a helmet. The audio information may be transmitted through a speaker.

各種の装置で使用される拡張現実の領域ですでにある程度の革新(イノベーション)がなされているが、拡張現実の新規な応用が、レーザトラッカに使用される手持ち式の6−DOF三角計測スキャナ(例えば、構造化(structured)光スキャナ、レーザラインプローブ)と共に求められている。   Although some innovation has already been made in the area of augmented reality used in various devices, a new application of augmented reality is a hand-held 6-DOF triangulation scanner (used for laser trackers). For example, there is a need with a structured light scanner, a laser line probe.

本発明のある実施形態によれば、3次元(3D)座標測定システムは、ユニット基準フレームを有する6自由度(6−DOF)ユニットを含み、このユニットは、構造体と、レトロリフレクタと、三角計測スキャナと、仮想現実(AR)カメラと、を含み、レトロリフレクタ、三角計測スキャナ、およびARカメラは構造体に取り付けられ、三角計測スキャナは、第一のカメラと、プロジェクタと、を含み、プロジェクタは、パターン光を物体に投影するように構成され、第一のカメラは、パターン光の第一の画像を物体上に形成するように構成され、プロジェクタと第一のカメラは、ユニット基準フレーム内の物体上のある点の第一の3D座標を協働して判定するように構成され、この判定は、少なくとも一部に、投影されたパターン光と第一の画像に基づいて行われ、ARカメラは、ユニット基準フレーム内のカラー画像を取得するように構成されたカラーカメラである。3D座標測定システムはまた、装置基準フレームを有する座標測定装置を含み、装置は、装置基準フレーム内のレトロリフレクタの姿勢を測定するように構成され、測定された姿勢は、レトロリフレクタの6自由度の測定値を含む。   According to an embodiment of the present invention, a three-dimensional (3D) coordinate measurement system includes a six degree of freedom (6-DOF) unit having a unit reference frame, the unit comprising a structure, a retroreflector, a triangle. A measurement scanner and a virtual reality (AR) camera, wherein the retroreflector, the triangulation measurement scanner, and the AR camera are attached to the structure; the triangulation measurement scanner includes a first camera and a projector; Is configured to project the pattern light onto the object, the first camera is configured to form a first image of the pattern light on the object, and the projector and the first camera are within the unit reference frame Are configured to cooperatively determine a first 3D coordinate of a point on the object, the determination including, at least in part, the projected pattern light and Be based on one image, AR camera is a color camera configured to acquire a color image in the unit reference frame. The 3D coordinate measurement system also includes a coordinate measurement device having a device reference frame, wherein the device is configured to measure the attitude of the retroreflector within the device reference frame, the measured posture being the six degrees of freedom of the retroreflector. Including measurements.

本発明の他の実施形態によれば、3次元(3D)測定方法は、座標測定装置からの第一の光の第一のビームを6自由度(6−DOF)ユニットの中のレトロリフレクタに送り、それに応答して反射された第一の光の反射された第一のビームを受け取るステップを含み、座標測定装置は装置基準フレームを有し、6−DOFユニットはユニット基準フレームを有し、6−DOFユニットは、構造体と、レトロリフレクタと、三角計測スキャナと、ARカメラと、を含み、レトロリフレクタ、三角計測スキャナ、およびARカメラは構造体に取り付けられ、三角計測スキャナは、第一のカメラと、プロジェクタと、を含み、ARカメラは、ユニット基準フレーム内のカラー画像を取得するように構成されたカラーカメラである。方法はまた、座標測定装置によって、少なくとも一部に、反射された第一のビームに基づいてレトロリフレクタの第一の姿勢を判定するステップをさらに含み、判定された第一の姿勢は、装置基準フレーム内のレトロリフレクタの6自由度の測定値である。方法は、プロジェクタから物体に第一のパターン光を投影するステップと、第一のカメラで、物体からの第一のパターン光の反射の第一の画像を形成するステップと、1つまたは複数のプロセッサで、装置基準フレーム内の物体上の第二の点の第二の3D座標を、少なくとも一部に、第二のパターン光、第二の画像、判定されたレトロリフレクタの第二の姿勢に基づいて判断するステップと、をさらに含む。方法はまた、ARカメラで、ユニット基準フレーム内の第一のカラー画像を補足するステップと、1つまたは複数のプロセッサで、共通の基準フレーム内の第一の3D座標と第一のカラー画像を、少なくとも一部に、レトロリフレクタの判定された第一の姿勢に基づいて組み合わせるステップと、を含む。   In accordance with another embodiment of the present invention, a three-dimensional (3D) measurement method includes a first beam of first light from a coordinate measurement device on a retro-reflector in a 6 degrees of freedom (6-DOF) unit. Sending and receiving a reflected first beam of reflected first light in response, the coordinate measuring device has a device reference frame, the 6-DOF unit has a unit reference frame, The 6-DOF unit includes a structure, a retroreflector, a triangulation scanner, and an AR camera. The retroreflector, the triangulation scanner, and the AR camera are attached to the structure. The AR camera is a color camera configured to acquire a color image in the unit reference frame. The method also includes determining, by the coordinate measurement device, a first attitude of the retroreflector based at least in part on the reflected first beam, the determined first attitude being an instrument reference 6 is a measurement of 6 degrees of freedom of the retro-reflector in the frame. The method projects a first pattern light from a projector onto an object, a first camera forms a first image of the reflection of the first pattern light from the object, and one or more In the processor, the second 3D coordinate of the second point on the object in the device reference frame is at least partially in the second pattern light, the second image, the determined second position of the retroreflector. And determining based on. The method also includes supplementing the first color image in the unit reference frame with the AR camera and the first 3D coordinates and the first color image in the common reference frame with one or more processors. Combining at least in part based on the determined first attitude of the retroreflector.

ここで、図面を参照すると、例示的な実施形態が示されているが、これらは本開示の全体的な範囲に関して限定的であると解釈すべきではなく、また、複数の図面を通じて、要素には同様の参照番号が付与されている。   Referring now to the drawings, illustrative embodiments are shown, which should not be construed as limiting with respect to the overall scope of the present disclosure, and are Are given similar reference numbers.

本発明のある実施形態による、レトロリフレクタターゲットを有するレーザトラッカシステムの斜視図である。1 is a perspective view of a laser tracker system having a retro-reflector target according to an embodiment of the invention. FIG. 本発明のある実施形態による、6−DOFターゲットを有するレーザトラッカシステムの斜視図である。1 is a perspective view of a laser tracker system having a 6-DOF target according to an embodiment of the present invention. FIG. 本発明のある実施形態による、レーザトラッカ光学系と電子装置の要素を説明するブロック図である。FIG. 2 is a block diagram illustrating elements of a laser tracker optical system and an electronic device according to an embodiment of the present invention. 図4Aおよび4Bを含み、2種類の先行技術の無限焦点ビームエキスパンダを示す図である。4A and 4B are diagrams illustrating two prior art afocal beam expanders, including FIGS. 4A and 4B. FIG. 先行技術の光ファイバビーム入射システムを示す図である。1 illustrates a prior art fiber optic beam injection system. FIG. 4種類の先行技術の位置検出器アセンブリを示す概略図である。FIG. 4 is a schematic diagram illustrating four types of prior art position detector assemblies. 4種類の先行技術の位置検出器アセンブリを示す概略図である。FIG. 4 is a schematic diagram illustrating four types of prior art position detector assemblies. 4種類の先行技術の位置検出器アセンブリを示す概略図である。FIG. 4 is a schematic diagram illustrating four types of prior art position detector assemblies. 4種類の先行技術の位置検出器アセンブリを示す概略図である。FIG. 4 is a schematic diagram illustrating four types of prior art position detector assemblies. 本発明のある実施形態による位置検出器アセンブリを示す概略図である。1 is a schematic diagram illustrating a position detector assembly according to an embodiment of the present invention. FIG. 本発明のある実施形態による位置検出器アセンブリを示す概略図である。1 is a schematic diagram illustrating a position detector assembly according to an embodiment of the present invention. FIG. 先行技術のADM内の電気および電気光学要素のブロック図である。1 is a block diagram of electro and electro-optic elements in a prior art ADM. FIG. 先行技術の光ファイバネットワーク内の光ファイバ要素を示す概略図である。1 is a schematic diagram showing optical fiber elements in a prior art optical fiber network. FIG. 先行技術の光ファイバネットワーク内の光ファイバ要素を示す概略図である。1 is a schematic diagram showing optical fiber elements in a prior art optical fiber network. FIG. 本発明のある実施形態による光ファイバネットワーク内の光ファイバ要素を示す概略図である。1 is a schematic diagram illustrating fiber optic elements in a fiber optic network according to an embodiment of the invention. FIG. 先行技術のレーザトラッカの分解図である。1 is an exploded view of a prior art laser tracker. FIG. 先行技術のレーザトラッカの断面図である。1 is a cross-sectional view of a prior art laser tracker. 本発明のある実施形態によるレーザトラッカの演算および通信要素のブロック図である。FIG. 3 is a block diagram of the operation and communication elements of a laser tracker according to an embodiment of the invention. 本発明のある実施形態による、1つの波長を使用するレーザトラッカの要素のブロック図である。FIG. 3 is a block diagram of elements of a laser tracker that uses one wavelength, in accordance with an embodiment of the present invention. 本発明のある実施形態による、1つの波長を使用するレーザトラッカの要素のブロック図である。FIG. 3 is a block diagram of elements of a laser tracker that uses one wavelength, in accordance with an embodiment of the present invention. 本発明のある実施形態による、6−DOF能力を持つレーザトラッカの要素のブロック図である。FIG. 3 is a block diagram of elements of a laser tracker with 6-DOF capability, in accordance with an embodiment of the present invention. 本発明のある実施形態による、6−DOF能力を有するレーザトラッカの要素のブロック図である。2 is a block diagram of elements of a laser tracker with 6-DOF capability, in accordance with an embodiment of the present invention. FIG. 本発明のある実施形態による、6−DOF能力を有するレーザトラッカの要素のブロック図である。2 is a block diagram of elements of a laser tracker with 6-DOF capability, in accordance with an embodiment of the present invention. FIG. 三角測量に基づくスキャニング測定システムの動作の原理を説明する概略図である。It is the schematic explaining the principle of operation of the scanning measurement system based on triangulation. 三角測量に基づくスキャニング測定システムの動作の原理を説明する概略図である。It is the schematic explaining the principle of operation of the scanning measurement system based on triangulation. 本発明のある実施形態による、6−DOF三角計測スキャナに取り付けられた拡張現実カメラを使用して表面の3次元表現を取得する方法の中のステップを含むフローチャートである。6 is a flowchart including steps in a method for obtaining a three-dimensional representation of a surface using an augmented reality camera attached to a 6-DOF triangulation scanner, according to an embodiment of the invention.

図1に示されている、ある例示的なレーザトラッカシステム5は、レーザトラッカ10と、レトロリフレクタターゲット26と、任意選択による補助ユニットプロセッサ50と、任意選択による補助コンピュータ60と、を含む。レーザトラッカ10のある例示的なジンバル式ビームステアリング機構12は、アジマスベース16に取り付けられ、アジマス軸20の周囲で回転するゼニスキャリッジ14を含む。ペイロード15は、ゼニスキャリッジ14に取り付けられて、ゼニス軸18の周囲で回転する。ゼニス軸18とアジマス軸20はトラッカ10の内部の、典型的には距離測定の原点となるジンバル点22において直交する。レーザビーム46は、事実上、ジンバル点22を通過し、ゼニス軸18に垂直に向けられる。換言すれば、レーザビーム46は、ゼニス軸18に略垂直であり、アジマス軸20を通過する平面内にある。射出するレーザビーム46は、ゼニス軸18の周囲でのペイロード15の回転と、アジマス軸20の周囲でのゼニスキャリッジ14の回転によって所望の方向に向けられる。ゼニス角度エンコーダは、トラッカの内部で、ゼニス軸18と一致するゼニス機械軸に取り付けられる。アジマス角度エンコーダは、トラッカの内部で、アジマス軸20と一致するアジマス機械軸に取り付けられる。ゼニスおよびアジマス角度エンコーダは、回転のゼニスおよびアジマス角度を比較的高精度で測定する。射出するレーザビーム46はレトロリフレクタ26へと進み、これは例えば、前述の球状マウントレトロリフレクタ(SMR)であってもよい。ジンバル点22とレトロリフレクタ26との間の半径方向の距離、ゼニス軸18の周囲の回転角度、およびアジマス軸20の周囲の回転角度を測定することによって、レトロリフレクタ26の位置がトラッカの極座標系の中で特定される。   One exemplary laser tracker system 5 shown in FIG. 1 includes a laser tracker 10, a retroreflector target 26, an optional auxiliary unit processor 50, and an optional auxiliary computer 60. One exemplary gimbal beam steering mechanism 12 of the laser tracker 10 includes a zenith carriage 14 that is attached to an azimuth base 16 and rotates about an azimuth axis 20. The payload 15 is attached to the zenith carriage 14 and rotates around the zenith shaft 18. The zenith axis 18 and the azimuth axis 20 are orthogonal to each other at the gimbal point 22 inside the tracker 10, typically the origin of distance measurement. The laser beam 46 effectively passes through the gimbal point 22 and is directed perpendicular to the zenith axis 18. In other words, the laser beam 46 is substantially perpendicular to the zenith axis 18 and in a plane that passes through the azimuth axis 20. The emitted laser beam 46 is directed in a desired direction by rotation of the payload 15 around the zenith axis 18 and rotation of the zenith carriage 14 around the azimuth axis 20. The zenith angle encoder is attached to the zenith machine shaft that coincides with the zenith shaft 18 within the tracker. The azimuth angle encoder is attached to the azimuth machine axis that coincides with the azimuth axis 20 inside the tracker. Zenith and azimuth angle encoders measure rotational zenith and azimuth angles with relatively high accuracy. The outgoing laser beam 46 travels to the retroreflector 26, which may be, for example, the spherical mount retroreflector (SMR) described above. By measuring the radial distance between the gimbal point 22 and the retroreflector 26, the rotational angle around the zenith axis 18, and the rotational angle around the azimuth axis 20, the position of the retroreflector 26 is determined by the polar coordinate system of the tracker. Specified in.

射出するレーザビーム46は、後述のように、1つまたは複数のレーザ波長を含んでいてもよい。明瞭と簡潔を期し、以下の説明においては、図1に示されている種類のステアリング機構を想定している。しかしながら、他の種類のステアリング機構も使用可能である。例えば、レーザビームをアジマスおよびゼニス軸の周囲で回転するミラーで反射させることができる。本明細書に記載されている技術は、ステアリング機構の種類に関係なく適用可能である。   The emitted laser beam 46 may include one or more laser wavelengths, as described below. For the sake of clarity and brevity, the following description assumes a steering mechanism of the type shown in FIG. However, other types of steering mechanisms can be used. For example, the laser beam can be reflected by a mirror that rotates about the azimuth and zenith axes. The technique described in this specification can be applied regardless of the type of the steering mechanism.

磁気ネスト17が、レーザトラッカを大きさの異なるSMR、例えば1.5、7/8、および1/2インチSMR等の「ホーム」位置にリセットするためにレーザトラッカに含められてもよい。トラッカ搭載レトロリフレクタ19が、トラッカを参照距離にリセットするために使用されてもよい。それに加えて、図1の図では見えないが、トラッカ搭載ミラーをトラッカ搭載レトロリフレクタと共に使用して、自己補償を実行できるようにしてもよく、これについては米国特許第7,327,446号(‘446号特許)に記載されており、その内容を参照によって本願に援用する。   A magnetic nest 17 may be included in the laser tracker to reset the laser tracker to a “home” position such as SMRs of different sizes, eg, 1.5, 7/8, and 1/2 inch SMR. A tracker-mounted retro-reflector 19 may be used to reset the tracker to a reference distance. In addition, although not visible in the diagram of FIG. 1, a tracker mounted mirror may be used with a tracker mounted retroreflector to allow self-compensation, which is described in US Pat. No. 7,327,446 ( '446 patent), the contents of which are incorporated herein by reference.

図2は、ある例示的なレーザトラッカシステム7を示しており、これは図1のレーザトラッカシステム5と同様であるが、レトロリフレクタターゲット26が6−DOFプローブ1000に置き換えられている。図1では、他の種類のレトロリフレクタターゲットが使用されてもよい。例えば、キャットアイレトロリフレクタが時々使用され、これは光がガラス構造の反射後面上の小さい光のスポットに合焦されるガラスレトロリフレクタである。   FIG. 2 shows an exemplary laser tracker system 7, which is similar to the laser tracker system 5 of FIG. 1 except that the retroreflector target 26 is replaced with a 6-DOF probe 1000. In FIG. 1, other types of retro reflector targets may be used. For example, a cat-eye retro-reflector is sometimes used, which is a glass retro-reflector where the light is focused on a small spot of light on the reflective back surface of the glass structure.

図3は、レーザトラッカの実施形態における光学および電気要素を示すブロック図である。これは、レーザトラッカの中の、2つの光の波長、すなわちADMのための第一の波長と可視ポインタおよびトラッキングのための第二の波長を発する要素を示している。可視ポインタにより、使用者はトラッカにより発せられるレーザビームスポットの位置が見える。2種類の波長は、フリースペースビームスプリッタを使って結合される。電気光学(electrooptic)(EO)システム100は、可視光源110と、アイソレータ115と、任意選択による第一のファイバ入射システム170と、任意選択による干渉計(IFM)120と、ビームエキスパンダ140と、第一のビームスプリッタ145と、位置検出器アセンブリ150と、第二のビームスプリッタ155と、ADM 160と、第二のファイバ入射システム170と、を含む。   FIG. 3 is a block diagram illustrating optical and electrical elements in an embodiment of a laser tracker. This shows the elements in the laser tracker emitting two wavelengths of light: a first wavelength for ADM and a visible pointer and a second wavelength for tracking. The visible pointer allows the user to see the position of the laser beam spot emitted by the tracker. The two types of wavelengths are combined using a free space beam splitter. An electro-optic (EO) system 100 includes a visible light source 110, an isolator 115, an optional first fiber injection system 170, an optional interferometer (IFM) 120, a beam expander 140, A first beam splitter 145, a position detector assembly 150, a second beam splitter 155, an ADM 160, and a second fiber injection system 170 are included.

可視光源110は、レーザ、スーパールミネッセントダイオード、または他の発光装置であってもよい。アイソレータ115は、ファラデアイソレータ、減衰器、または反射により光源に戻る光を減少させることのできるその他の装置であってもよい。任意選択によるIFMは、様々な方法で構成されてよい。実現可能な実施例のある具体的な例として、IFMはビームスプリッタ122と、レトロリフレクタ126と、4分の1波長板124、130と、位相アナライザ128と、を含む。可視光源110は光を自由空間へと射出してもよく、その後、この光は自由空間内でアイソレータ115および任意選択によるIFM 120を通って進む。あるいは、アイソレータ115は光ファイバケーブルによって可視光源110に連結されてもよい。この場合、アイソレータからの光は、第一の光ファイバ入射システム170を通じて自由空間へと射出されてもよく、このことについては図5を参照しながら以下に説明する。   Visible light source 110 may be a laser, a superluminescent diode, or other light emitting device. The isolator 115 may be a Faraday isolator, an attenuator, or other device that can reduce light returning to the light source by reflection. The optional IFM may be configured in various ways. As one specific example of possible implementations, the IFM includes a beam splitter 122, a retroreflector 126, quarter wave plates 124, 130, and a phase analyzer 128. The visible light source 110 may emit light into free space, which then travels through the isolator 115 and optional IFM 120 in free space. Alternatively, isolator 115 may be coupled to visible light source 110 by a fiber optic cable. In this case, the light from the isolator may be emitted into free space through the first optical fiber injection system 170, which will be described below with reference to FIG.

ビームエキスパンダ140は、様々なレンズ構成を使って組み立てられてもよいが、一般的に使用される2種類の先行技術の構成が図4Aおよび4Bに示されている。図4Aは、負のレンズ141Aと正のレンズ142Aの使用に基づく構成140Aを示す。負のレンズ141Aに入射するコリメート光ビーム220Aは正のレンズ142Aから、より大きいコリメート光ビーム230Aとして射出される。図4Bは、2つの正のレンズ141B、142Bの使用に基づく構成140Bを示す。第一の正のレンズ141Bに入射するコリメート光ビーム220Bは、第二の正のレンズ142Bから、より大きいコリメート光ビーム230Bとして射出する。ビームエキスパンダ140から出た光のうち少量が、トラッカから出る間にビームスプリッタ145、155で反射され、失われる。光のうち、ビームスプリッタ155を透過した部分は、ADM 160からの光と結合されて、複合光ビーム188を形成し、これはそのレーザトラッカから出てレトロリフレクタ90へと進む。   Although beam expander 140 may be assembled using a variety of lens configurations, two commonly used prior art configurations are shown in FIGS. 4A and 4B. FIG. 4A shows a configuration 140A based on the use of a negative lens 141A and a positive lens 142A. The collimated light beam 220A incident on the negative lens 141A is emitted from the positive lens 142A as a larger collimated light beam 230A. FIG. 4B shows a configuration 140B based on the use of two positive lenses 141B, 142B. The collimated light beam 220B incident on the first positive lens 141B exits from the second positive lens 142B as a larger collimated light beam 230B. A small amount of the light emitted from the beam expander 140 is reflected and lost by the beam splitters 145 and 155 while leaving the tracker. The portion of the light that has passed through beam splitter 155 is combined with the light from ADM 160 to form composite light beam 188 that exits the laser tracker and travels to retro-reflector 90.

ある実施形態において、ADM 160は、光源162と、ADM電子装置164と、ファイバネットワーク166と、相互接続用電気ケーブル165と、相互接続用光ファイバ168、169、184、186と、を含む。ADM電子装置は、電気変調およびバイアス電圧を光源162に送り、これは、例えば約1550nmの波長で動作する分布帰還形レーザであってもよい。ある実施形態において、ファイバネットワーク166は、図8Aに示される先行技術の光ファイバネットワーク420Aであってもよい。この実施形態において、図3の光源162からの光は、図8Aの光ファイバ432と同等の光ファイバ184に乗って進む。   In some embodiments, the ADM 160 includes a light source 162, ADM electronics 164, a fiber network 166, an interconnecting electrical cable 165, and interconnecting optical fibers 168, 169, 184, 186. The ADM electronics send electrical modulation and bias voltage to the light source 162, which may be a distributed feedback laser operating at a wavelength of about 1550 nm, for example. In some embodiments, the fiber network 166 may be the prior art fiber optic network 420A shown in FIG. 8A. In this embodiment, light from the light source 162 in FIG. 3 travels on an optical fiber 184 that is equivalent to the optical fiber 432 in FIG. 8A.

図8Aのファイバネットワークは、第一のファイバカプラ430と、第二のファイバカプラ436と、低透過率リフレクタ435、440と、を含む。光は第一のファイバカプラ430を通って進み、2つの経路、すなわち光ファイバ433を通って第二のファイバカプラ436に至る第一の経路と光ファイバ422とファイバ長イコライザ423を通る第二の経路に分かれる。ファイバ長イコライザ423は、ADM電子装置164の基準チャネルへと進む図3のファイバ168に接続される。ファイバ長イコライザ423の目的は、基準チャネル内の光が通る光ファイバの長さを測定チャネル内で光が通る光ファイバの長さとマッチさせることである。このようにファイバ長をマッチさせることによって、周囲温度の変化により生じるADMエラーが減少する。このようなエラーは、光ファイバの有効光路長が、光ファイバの平均屈折率にファイバの長さを乗じたものに等しいために起こりうる。光ファイバの屈折率はファイバの温度に依存するため、光ファイバの温度の変化によって測定および基準チャネルの有効光路長が変化する。測定チャネル内の光ファイバの有効光路長が基準チャネル内の光ファイバの有効光路長に関して変化すると、レトロリフレクタターゲット90が静止状態に保たれたとしても、レトロリフレクタターゲット90の位置の見掛けのシフトが起こる。この問題を回避するために、2つのステップが取られる。第一に、基準チャネル内のファイバ長を測定チャネル内のファイバ長とできるだけマッチさせる。第二に、測定用および基準用ファイバを可能なかぎり隣り合わせで配線することにより、2つのチャネル内の光ファイバの温度変化が略同じになるようにする。   The fiber network of FIG. 8A includes a first fiber coupler 430, a second fiber coupler 436, and low transmittance reflectors 435, 440. The light travels through the first fiber coupler 430, the first path through the two paths, the optical fiber 433 to the second fiber coupler 436, the second through the optical fiber 422 and the fiber length equalizer 423. Divide into routes. The fiber length equalizer 423 is connected to the fiber 168 of FIG. 3 going to the reference channel of the ADM electronics 164. The purpose of the fiber length equalizer 423 is to match the length of the optical fiber through which light in the reference channel passes with the length of the optical fiber through which light passes in the measurement channel. By matching the fiber length in this manner, ADM errors caused by changes in ambient temperature are reduced. Such an error can occur because the effective optical path length of the optical fiber is equal to the average refractive index of the optical fiber multiplied by the length of the fiber. Since the refractive index of the optical fiber depends on the temperature of the fiber, the effective optical path length of the measurement and reference channels changes with changes in the temperature of the optical fiber. If the effective optical path length of the optical fiber in the measurement channel changes with respect to the effective optical path length of the optical fiber in the reference channel, the apparent shift in the position of the retro-reflector target 90 will occur even if the retro-reflector target 90 remains stationary. Occur. To avoid this problem, two steps are taken. First, the fiber length in the reference channel is matched as much as possible with the fiber length in the measurement channel. Second, the measurement and reference fibers are wired as close as possible so that the temperature changes of the optical fibers in the two channels are substantially the same.

光は、第二の光ファイバカプラ436を通って進み、2つの経路、すなわち、低反射率ファイバターミネータ440に至る第一の経路と、光ファイバ438への第二の経路に分かれ、そこから図3の光ファイバ186へと進む。光ファイバ186上の光は第二のファイバ入射システム170へと進む。   The light travels through the second optical fiber coupler 436 and is split into two paths: a first path to the low reflectivity fiber terminator 440 and a second path to the optical fiber 438, from which Proceed to the third optical fiber 186. The light on the optical fiber 186 travels to the second fiber injection system 170.

ある実施形態において、ファイバ入射システム170が先行技術である図5に示されている。図3の光ファイバ186からの光は、図5のファイバ172へと進む。ファイバ入射システム170は、光ファイバ172と、フェルール(ferrule:継ぎ手)174と、レンズ176と、を含む。光ファイバ172はフェルール174に取り付けられ、これはレーザトラッカ10内の構造体に固定して取り付けられる。希望に応じて、光ファイバの端を斜めに研磨して、反射減衰を低減させてもよい。光250は、ファイバのコアから射出し、これは使用する光の波長と光ファイバの具体的な種類に応じて、直径4〜12マイクロメートルのシングルモード光ファイバであってもよい。光250は斜めに発散し、レンズ176を通り、これが光をコリメートする。ADMシステム内の1本の光ファイバを通る光信号を送信および受信する方法は、‘758号特許の図3に関して説明した。   In one embodiment, a fiber injection system 170 is shown in prior art FIG. Light from optical fiber 186 in FIG. 3 travels to fiber 172 in FIG. The fiber injection system 170 includes an optical fiber 172, a ferrule 174, and a lens 176. The optical fiber 172 is attached to the ferrule 174, which is fixedly attached to the structure within the laser tracker 10. If desired, the end of the optical fiber may be polished obliquely to reduce reflection attenuation. The light 250 emerges from the fiber core, which may be a 4-12 micrometer diameter single mode optical fiber, depending on the wavelength of light used and the specific type of optical fiber. Light 250 diverges diagonally and passes through lens 176, which collimates the light. A method for transmitting and receiving optical signals through a single optical fiber in an ADM system has been described with respect to FIG. 3 of the '758 patent.

図3を参照すると、ビームスプリッタ155はダイクロイックビームスプリッタであってもよく、これはそれが反射するものと異なる波長を透過させる。ある実施形態において、ADM 160からの光はダイクロイックビームスプリッタ155で反射され、ダイクロイックビームスプリッタ155を透過した可視レーザ110からの光と結合する。複合光ビーム188は、レーザトラッカからレトロリフレクタ90へと第一のビームとして進み、それがその光の一部を第二のビームとして戻す。第二のビームのうち、ADM波長の部分はダイクロイックビームスプリッタ155で反射され、第二のファイバ入射システム170に戻り、これは光を光ファイバ186へと再び結合させる。   Referring to FIG. 3, the beam splitter 155 may be a dichroic beam splitter, which transmits different wavelengths than it reflects. In one embodiment, light from ADM 160 is reflected by dichroic beam splitter 155 and combines with light from visible laser 110 that has passed through dichroic beam splitter 155. The composite light beam 188 travels from the laser tracker to the retroreflector 90 as a first beam, which returns a portion of the light as a second beam. Of the second beam, the ADM wavelength portion is reflected by the dichroic beam splitter 155 and returns to the second fiber injection system 170, which recombines the light into the optical fiber 186.

ある実施形態において、光ファイバ186は、図8Aの光ファイバ438に対応する。戻り光は、光ファイバ438から第二のファイバカプラ436を通って進み、2つの経路に分かれる。第一の経路は光ファイバ424につながり、これは、ある実施形態において、光ファイバ169に対応し、これは図3のADM電子装置の測定チャネルへとつながる。第二の経路は光ファイバ433につながり、次に第一のファイバカプラ430につながる。第一のファイバカプラ430を出た光は2つの経路、すなわち光ファイバ432への第一の経路と低反射率ターミネータ435への第二の経路に分かれる。ある実施形態において、光ファイバ432は光ファイバ184に対応し、これは図3の光源162につながる。ほとんどの場合、光源162は一体ファラデアイソレータを含み、これは光ファイバ432から光源に入る光の量を最小化する。過剰な光が反対方向にレーザに供給されると、レーザが不安定となる可能性がある。   In certain embodiments, the optical fiber 186 corresponds to the optical fiber 438 of FIG. 8A. Return light travels from the optical fiber 438 through the second fiber coupler 436 and is split into two paths. The first path leads to optical fiber 424, which in one embodiment corresponds to optical fiber 169, which leads to the measurement channel of the ADM electronic device of FIG. The second path leads to the optical fiber 433 and then to the first fiber coupler 430. The light exiting the first fiber coupler 430 is split into two paths: a first path to the optical fiber 432 and a second path to the low reflectivity terminator 435. In some embodiments, the optical fiber 432 corresponds to the optical fiber 184, which leads to the light source 162 of FIG. In most cases, the light source 162 includes an integral Faraday isolator, which minimizes the amount of light that enters the light source from the optical fiber 432. If excessive light is supplied to the laser in the opposite direction, the laser can become unstable.

ファイバネットワーク166からの光は、光ファイバ168、169を通じてADM電子装置164に入る。先行技術のADM電子装置のある実施形態が図7に示されている。図3の光ファイバ168は図7の光ファイバ3232に対応し、図3の光ファイバ169は図7の光ファイバ3230に対応する。ここで図7を参照すると、ADM電子装置3300は、周波数基準3302と、合成器3304と、測定検出器3306と、基準検出器3308と、測定ミキサ3310と、基準ミキサ3312と、コンディショニング電子装置3314、3316、3318、3320と、N分周プリスケーラ3324と、アナログ−デジタル変換器(ADC)3322と、を含む。周波数基準は、例えば恒温槽付水晶発振器(OCXO)であってもよく、例えば10MHzであってもよい基準周波数fREFを合成器に送り、これが2種類の電気信号、すなわち周波数fRFの1つの信号と周波数fLOの2つの信号を生成する。信号fRFは光源3102に進み、これは図3の光源162に対応する。周波数fLOの2つの信号は測定ミキサ3310と基準ミキサ3312に進む。図3の光ファイバ168、169からの光は、それぞれ図7のファイバ3232、3230に現れ、それぞれ基準および測定チャネルに入る。基準検出器3308と測定検出器3306は、光信号を電気信号に変換する。これらの信号は、それぞれ電気構成要素3316、3314により調整され、それぞれミキサ3312、3310に送られる。ミキサは周波数fIFを生成し、これはfLO−fRFの絶対値と等しい。信号fRFは比較的高い周波数で、例えば2GHzであってもよく、その一方で、信号fIFは比較的低い周波数、例えば10kHzであってもよい。 Light from the fiber network 166 enters the ADM electronics 164 through optical fibers 168 and 169. One embodiment of a prior art ADM electronic device is shown in FIG. The optical fiber 168 in FIG. 3 corresponds to the optical fiber 3232 in FIG. 7, and the optical fiber 169 in FIG. 3 corresponds to the optical fiber 3230 in FIG. Referring now to FIG. 7, the ADM electronics 3300 includes a frequency reference 3302, a synthesizer 3304, a measurement detector 3306, a reference detector 3308, a measurement mixer 3310, a reference mixer 3312, and a conditioning electronics 3314. 3316, 3318, 3320, an N-dividing prescaler 3324, and an analog-to-digital converter (ADC) 3322. The frequency reference may be, for example, a quartz crystal with a thermostatic oven (OCXO), and sends a reference frequency f REF, which may be 10 MHz, for example, to the synthesizer, which is one of two electrical signals, namely one of the frequencies f RF Two signals of a signal and a frequency f LO are generated. The signal f RF goes to the light source 3102, which corresponds to the light source 162 in FIG. The two signals of frequency f LO go to measurement mixer 3310 and reference mixer 3312. Light from optical fibers 168 and 169 of FIG. 3 appears in fibers 3232 and 3230 of FIG. 7, respectively, and enters the reference and measurement channels, respectively. The reference detector 3308 and the measurement detector 3306 convert the optical signal into an electrical signal. These signals are adjusted by electrical components 3316 and 3314, respectively, and sent to mixers 3312 and 3310, respectively. The mixer generates a frequency f IF , which is equal to the absolute value of f LO −f RF . The signal f RF may be a relatively high frequency, for example 2 GHz, while the signal f IF may be a relatively low frequency, for example 10 kHz.

基準周波数fREFは、プリスケーラ3324に送られ、それが周波数を整数で分周する。例えば、10MHzの周波数は40で分割されて出力周波数250kHzを得る。この例において、ADC 3322に入る10kHzの信号は250kHzでサンプリングされ、その結果、1サイクルあたり25のサンプルが生成される。ADC 3322からの信号はデータプロセッサ3400に送られ、これは例えば、図3のADM電子装置164の中にある1つまたは複数のデジタル信号プロセッサ(DSP)であってもよい。 The reference frequency f REF is sent to the prescaler 3324, which divides the frequency by an integer. For example, the frequency of 10 MHz is divided by 40 to obtain an output frequency of 250 kHz. In this example, the 10 kHz signal entering ADC 3322 is sampled at 250 kHz, resulting in 25 samples per cycle. The signal from the ADC 3322 is sent to the data processor 3400, which may be, for example, one or more digital signal processors (DSPs) in the ADM electronics 164 of FIG.

距離の抽出方法は、基準および測定チャネルのためのADC信号の位相の計算に基づく。この方法は、Bridges et al.の米国特許第7,701,559号(‘559号特許)に詳細に説明されており、その内容を参照によって本願に援用する。計算には、‘559号特許の等式(1)−(8)の使用が含まれる。これに加えて、ADMが最初にレトロリフレクタの測定を開始すると、合成器により生成される周波数は何回か(例えば3回)変更され、毎回、ありうるADM距離が計算される。選択された周波数の各々についてありうるADM距離を比較することにより、ADM測定の不明確さが排除される。‘559号特許の等式(1)−(8)を‘559号特許の図5に関して説明されている合成方法および‘559号特許に記載されているカルマンフィルタと組み合わせることによって、ADMは移動するターゲットを測定できることになる。他の実施形態において、例えば位相差ではなくパルス式飛行時間を利用する等、絶対距離測定値を取得する他の方法が使用されてもよい。   The distance extraction method is based on the calculation of the phase of the ADC signal for the reference and measurement channels. This method is described in Bridges et al. U.S. Pat. No. 7,701,559 (the '559 patent), the contents of which are incorporated herein by reference. The calculation includes the use of equations (1)-(8) of the '559 patent. In addition to this, when the ADM first starts measuring the retro-reflector, the frequency generated by the synthesizer is changed several times (eg, three times) and the possible ADM distance is calculated each time. By comparing possible ADM distances for each of the selected frequencies, ambiguity in ADM measurements is eliminated. By combining equations (1)-(8) of the '559 patent with the synthesis method described with respect to FIG. 5 of the' 559 patent and the Kalman filter described in the '559 patent, the ADM moves the target. Can be measured. In other embodiments, other methods of obtaining absolute distance measurements may be used, for example, using pulsed time of flight rather than phase difference.

ビームスプリッタ155を通過する戻り光ビーム190の一部はビームスプリッタ145に到達し、これはその光の一部をビームエキスパンダ140に、その光の別の部分を位置検出器アセンブリ150に送る。レーザトラッカ10またはEOシステム100から射出した光は第一のビームとして考えてもよく、その光のうち、レトロリフレクタ90または26で反射する部分は第二のビームと考えてもよい。反射ビームの一部は、EOシステム100の異なる機能的要素に送られる。例えば、第一の部分は、図3のADM 160等の距離計に送られてもよい。第二の部分は位置検出器アセンブリ150に送られてもよい。場合により、第三の部分が任意選択による干渉計120等の他の機能的ユニットに送られてもよい。図3の例においては、第二のビームの第一の部分と第二の部分がそれぞれビームスプリッタ155および145で反射された後に距離計と位置検出器に送られているが、光を反射させるのではなく、距離計または位置検出器へと透過させることが可能であったであろう点を理解することが重要である。   A portion of the return light beam 190 that passes through the beam splitter 155 reaches the beam splitter 145, which sends a portion of the light to the beam expander 140 and another portion of the light to the position detector assembly 150. The light emitted from the laser tracker 10 or the EO system 100 may be considered as a first beam, and the portion of the light reflected by the retroreflector 90 or 26 may be considered as a second beam. Some of the reflected beam is sent to different functional elements of the EO system 100. For example, the first portion may be sent to a distance meter such as ADM 160 of FIG. The second portion may be sent to the position detector assembly 150. In some cases, the third portion may be sent to other functional units, such as an optional interferometer 120. In the example of FIG. 3, the first and second portions of the second beam are reflected by beam splitters 155 and 145, respectively, and then sent to the distance meter and position detector, but reflect the light. Rather, it is important to understand that it would have been possible to transmit through a rangefinder or position detector.

先行技術の位置検出器アセンブリの4つの例である150A〜150Dが図6A〜Dに示されている。図6Aは最も単純な実施例を示しており、位置検出器アセンブリは位置センサ151を含み、これは電子装置ボックス350から電源を取り、そこに信号を戻す回路板152の上に取り付けられ、電子装置ボックス350は、レーザトラッカ10、補助ユニット50、または外部コンピュータ60の中の何れの位置における電子処理能力を表していてもよい。図6Bは光学フィルタ154を含み、これは不要な光波長が位置センサ151に到達しないように遮断する。不要な光波長はまた、例えばビームスプリッタ154または位置センサ151の表面を適当な膜で被覆することによって遮断してもよい。図6Cはレンズ153を含み、これは光ビームのサイズを縮小する。図6Dは、光学フィルタ154とレンズ153の両方を含む。   Four examples of prior art position detector assemblies, 150A-150D, are shown in FIGS. FIG. 6A shows the simplest embodiment, where the position detector assembly includes a position sensor 151, which is mounted on a circuit board 152 that takes power from the electronics box 350 and returns a signal thereto. The device box 350 may represent electronic processing capabilities at any location within the laser tracker 10, auxiliary unit 50, or external computer 60. FIG. 6B includes an optical filter 154 that blocks unwanted light wavelengths from reaching the position sensor 151. Unwanted light wavelengths may also be blocked, for example, by coating the surface of beam splitter 154 or position sensor 151 with a suitable film. FIG. 6C includes a lens 153 that reduces the size of the light beam. FIG. 6D includes both an optical filter 154 and a lens 153.

図6Eは、光学調整器149Eを含む新規な位置検出器アセンブリを示す。光学調整器はレンズ153を含み、また、任意選択による波長フィルタ154も含んでいてよい。それに加えて、これは拡散板156および空間フィルタ157の少なくとも一方を含む。前述のように、人気の高い種類のレトロリフレクタはコーナキューブレトロリフレクタである。1つの種類のコーナキューブレトロリフレクタは3つのミラーからなり、各々が他の2つのミラーと直角に接合される。これら3つのミラーが接合する交線は有限厚(finite thickness)を有していてもよく、そこでは光が完全に反射してトラッカに戻るとはかぎらない。有限厚の線は、それらが伝播する際に回折するため、位置検出器に到達した時に位置検出器におけるそれとまったく同じには見えないかもしれない。しかしながら、回折光パターンは一般に、完全な対称からずれる。その結果、位置検出器151に当たる光には、例えば回折線の付近で光学パワー(ホットスポット)の増減がありうる。レトロリフレクタからの光の均一性はレトロリフレクタによって異なるため、また、位置検出器上での光の分布が、リフレクタの回転または傾斜に伴って変化しうるため、拡散板156を含めることによって位置検出器151に当たる光の平滑さを改善することが有利であるかもしれない。理想的な位置検出器は質量中心に応答するはずであり、理想的な拡散板はスポットを対称に広げるはずであるため、位置検出器により得られた、結果としての位置には影響がないはずであるとの議論があるかもしれない。しかしながら、実際には、拡散板は位置検出器アセンブリの性能を改善することが観察されており、これはおそらく、位置検出器151とレンズ153の非線形性(不完全性)の効果であろう。ガラス製のコーナキューブレトロリフレクタもまた、位置検出器151において光の不均一なスポットを生成するかもしれない。位置検出器における光のスポットのばらつきは、6−DOFターゲットの中のコーナキューブからの反射光により特に顕著であるかもしれず、これは本願と共通の出願人によるBrown et al.の米国特許第8,740,396号(‘396号特許)および上述の、本願と共通の出願人によるCramer et al.の米国特許第4,467,072号(‘072号特許)からより明瞭に理解されると思われ、両特許の内容を参照によって本願に援用する。ある実施形態において、拡散板156はホログラフィックディフューザである。ホログラフィックディフューザは、特定の拡散角度にわたり制御された均一な光を提供する。他の実施形態においては、すりガラスまたは「オパール」拡散板等、他の種類の拡散板が使用される。   FIG. 6E shows a novel position detector assembly that includes an optical adjuster 149E. The optical adjuster includes a lens 153 and may also include an optional wavelength filter 154. In addition, this includes at least one of a diffuser plate 156 and a spatial filter 157. As mentioned above, a popular type of retro reflector is the corner cube retro reflector. One type of corner cube retroreflector consists of three mirrors, each joined at right angles to the other two mirrors. The intersection line where these three mirrors join may have a finite thickness where the light is not completely reflected back to the tracker. Lines of finite thickness diffract as they propagate so they may not look exactly the same as that in the position detector when they reach the position detector. However, the diffracted light pattern generally deviates from perfect symmetry. As a result, the light hitting the position detector 151 may increase or decrease in optical power (hot spot), for example, near the diffraction line. Because the uniformity of light from the retro-reflector varies from retro-reflector and the light distribution on the position detector can change with the rotation or tilt of the reflector, position detection is achieved by including a diffuser 156. It may be advantageous to improve the smoothness of the light striking the vessel 151. The ideal position detector should respond to the center of mass, and the ideal diffuser should broaden the spot symmetrically, so the resulting position obtained by the position detector should not be affected. There may be an argument that it is. In practice, however, the diffuser plate has been observed to improve the performance of the position detector assembly, which is probably due to the non-linearity (imperfection) of the position detector 151 and lens 153. A glass corner cube retro-reflector may also produce a non-uniform spot of light at the position detector 151. The variation in the spot of light in the position detector may be particularly noticeable due to the reflected light from the corner cube in the 6-DOF target, which is the same as that of Brown et al. U.S. Pat. No. 8,740,396 (the '396 patent) and the above-referenced Cramer et al. U.S. Pat. No. 4,467,072 (the '072 patent), the contents of both patents are hereby incorporated by reference. In some embodiments, the diffuser plate 156 is a holographic diffuser. A holographic diffuser provides a uniform light controlled over a specific diffusion angle. In other embodiments, other types of diffuser plates are used, such as ground glass or “opal” diffuser plates.

位置検出器アセンブリ150Eの空間フィルタ157の目的は、例えば光学面での不要な反射の結果でありうるゴーストビームが位置検出器151に当たらないように遮断することである。空間フィルタは、アパーチャを有する板157を含む。空間フィルタ157をレンズから、レンズの焦点距離と略等しい距離を空けて設置することにより、戻り光243Eはそれがその最も狭い部分の付近にある時、すなわちビームのウェストにおいて空間フィルタを通過する。例えば、光学素子の反射の結果として異なる角度で進むビームは、アパーチャから離れた位置で空間フィルタに当たり、位置検出器151に到達しないように遮断される。一例が図6Eに示されており、そこでは不要なゴーストビーム244Eがビームスプリッタ145の表面で反射されて空間フィルタ157へと進み、そこで遮断される。空間フィルタがなければ、ゴーストビーム244Eは位置検出器151を通り、それによって位置検出器151上のビーム243Eの位置の判定が不正確となる。弱いゴーストビームでも、そのゴーストビームが光の主要スポットから比較的長い距離だけ離れていれば、位置検出器151上の質量中心の位置を大きく変化させるかもしれない。   The purpose of the spatial filter 157 of the position detector assembly 150E is to block the ghost beam from hitting the position detector 151, which may be the result of unwanted reflections at the optical surface, for example. The spatial filter includes a plate 157 having an aperture. By placing the spatial filter 157 from the lens at a distance approximately equal to the focal length of the lens, the return light 243E passes through the spatial filter when it is near its narrowest portion, ie, at the waist of the beam. For example, a beam traveling at a different angle as a result of reflection of the optical element hits the spatial filter at a position away from the aperture and is blocked from reaching the position detector 151. An example is shown in FIG. 6E, where unwanted ghost beam 244E is reflected off the surface of beam splitter 145 and travels to spatial filter 157 where it is blocked. Without a spatial filter, the ghost beam 244E passes through the position detector 151, which makes the determination of the position of the beam 243E on the position detector 151 inaccurate. Even a weak ghost beam may greatly change the position of the center of mass on the position detector 151 if the ghost beam is a relatively long distance from the main spot of light.

ここに記載されているような種類のレトロリフレクタ、例えばコーナキューブまたはキャットアイレトロリフレクタは、レトロリフレクタに入射する光線を入射光線と平行な方向に反射させる特性を有する。それに加えて、入射および反射光線はレトロリフレクタの対称点の周囲に対称に配置される。例えば、オープンエアコーナキューブレトロリフレクタにおいて、レトロリフレクタの対称点はコーナキューブの頂点である。ガラスコーナキューブレトロリフレクタでは、対称点は同様に頂点であるが、この場合、ガラス−空気界面において光が曲がることを考慮しなければならない。屈折率2.0のキャットアイレトロリフレクタでは、対称点は球の中心である。共通平面上に対称に置かれた2つのガラスの半球からなるキャットアイレトロリフレクタの場合、対称点はその平面上の、各半球の球の中心にある点である。要点は、レーザトラッカに通常使用されるレトロリフレクタの種類については、レトロリフレクタによりトラッカへと戻される光が、入射レーザビームに関して頂点の反対側にシフトすることである。   Retroreflectors of the type as described herein, such as corner cubes or cat eye retroreflectors, have the property of reflecting light incident on the retroreflector in a direction parallel to the incident light. In addition, the incident and reflected rays are arranged symmetrically around the retroreflector symmetry point. For example, in an open air corner cube retroreflector, the symmetry point of the retroreflector is the vertex of the corner cube. In a glass corner cube retroreflector, the symmetry point is likewise the apex, but in this case it must be considered that the light bends at the glass-air interface. In a cat-eye retroreflector with a refractive index of 2.0, the symmetry point is the center of the sphere. In the case of a cat-eye retroreflector consisting of two glass hemispheres placed symmetrically on a common plane, the symmetry point is the point at the center of each hemispherical sphere on that plane. The point is that for the type of retro-reflector normally used in laser trackers, the light returned by the retro-reflector to the tracker is shifted to the opposite side of the apex with respect to the incident laser beam.

図3におけるレトロリフレクタ90のこのような挙動が、レーザトラッカによるレトロリフレクタの追跡の基礎となる。位置センサは、その表面上に理想回帰点を持つ。理想回帰点とは、レトロリフレクタの対称点(例えば、SMRにおけるコーナキューブレトロリフレクタの頂点)に送られたレーザビームが戻る点である。通常、回帰点は位置センサの中心付近にある。レーザビームがレトロリフレクタの片側に送られると、それは反射して反対側に戻り、位置センサ上の回帰点から外れて現れる。位置センサ上の戻り光ビームの位置を認識することによって、レーザトラッカ10の制御システムはモータに対し、光ビームがレトロリフレクタの対称点に向けて移動するようにさせることができる。   This behavior of the retroreflector 90 in FIG. 3 is the basis for tracking the retroreflector by the laser tracker. The position sensor has an ideal regression point on its surface. The ideal regression point is a point where the laser beam sent to the symmetry point of the retroreflector (for example, the vertex of the corner cube retroreflector in SMR) returns. Usually, the regression point is near the center of the position sensor. When the laser beam is sent to one side of the retroreflector, it reflects back to the other side and appears off the regression point on the position sensor. By recognizing the position of the return light beam on the position sensor, the control system of the laser tracker 10 can cause the motor to move the light beam toward the point of symmetry of the retroreflector.

レトロリフレクタが一定の速度でトラッカへと横方向に移動すると、レトロリフレクタにおける光ビームはレトロリフレクタに(過渡信号が落ち着いた後に)レトロリフレクタの対称点から一定のオフセット距離で当たる。レーザトラッカは、レトロリフレクタにおけるこのオフセット距離について、制御された測定から得られたスケール係数および位置センサ上の光ビームから理想回帰点までの距離に基づいて補正を行う。   As the retro-reflector moves laterally to the tracker at a constant speed, the light beam at the retro-reflector strikes the retro-reflector (after the transient signal settles) at a constant offset distance from the retro-reflector symmetry point. The laser tracker corrects for this offset distance in the retroreflector based on the scale factor obtained from the controlled measurement and the distance from the light beam on the position sensor to the ideal regression point.

前述のように、位置検出器は2つの重要な機能、すなわちトラッキングを可能にする機能と、レトロリフレクタの移動について測定値の補正を行う機能を果たす。位置検出器内の位置センサは、位置測定が可能な何れの種類の装置であってもよい。例えば、位置センサは、位置検出素子または感光体アレイであってもよい。位置検出素子は、例えばラテラル効果検出器または4分割検出器であってもよい。感光体アレイは、例えばCMOSまたはCCDアレイであってもよい。   As mentioned above, the position detector serves two important functions: a function that enables tracking, and a function that corrects the measured values for the movement of the retroreflector. The position sensor in the position detector may be any type of device capable of position measurement. For example, the position sensor may be a position detection element or a photoreceptor array. The position detection element may be, for example, a lateral effect detector or a quadrant detector. The photoreceptor array may be, for example, a CMOS or CCD array.

ある実施形態において、ビームスプリッタ145で反射しない戻り光はビームエキスパンダ140を透過し、それによってより小さくなる。他の実施形態において、位置検出器と距離計の位置は逆転されて、ビームスプリッタ145で反射した光は距離計へと進み、ビームスプリッタを透過した光は位置検出器へと進む。   In some embodiments, return light that is not reflected by the beam splitter 145 is transmitted through the beam expander 140, thereby making it smaller. In other embodiments, the positions of the position detector and rangefinder are reversed so that the light reflected by the beam splitter 145 travels to the rangefinder and the light transmitted through the beam splitter travels to the position detector.

光は任意選択によるIFMを通り、アイソレータを通り、可視光源110に入る。この段階で、光学パワーは、それが可視光源110を不安定にしないように十分に小さくあるべきである。   The light passes through the optional IFM, through the isolator, and enters the visible light source 110. At this stage, the optical power should be small enough so that it does not destabilize the visible light source 110.

ある実施形態において、可視光源110からの光は、図5のビーム入射システム170を通じて入射する。ファイバ入射システムは、光源110の出力またはアイソレータ115の光ファイバ出力に取り付けられてもよい。   In certain embodiments, light from visible light source 110 is incident through beam injection system 170 of FIG. The fiber injection system may be attached to the output of the light source 110 or the optical fiber output of the isolator 115.

ある実施形態において、図3のファイバネットワーク166は図8Bの先行技術のファイバネットワーク420Bである。ここで、図3の光ファイバ184、186、168、169は、図8の光ファイバ443、444、424、422に対応する。図8Bのファイバネットワークは図8Aのファイバネットワークと同様であるが、図8Bのファイバネットワークは2つのファイバカプラの代わりに1つのファイバカプラを有する。図8Bの図8Aに対する利点は単純さであるが、図8Bは不要な光学的後方反射が光ファイバ422および424に入る可能性がより高い。   In some embodiments, the fiber network 166 of FIG. 3 is the prior art fiber network 420B of FIG. 8B. Here, the optical fibers 184, 186, 168, and 169 in FIG. 3 correspond to the optical fibers 443, 444, 424, and 422 in FIG. The fiber network of FIG. 8B is similar to the fiber network of FIG. 8A, but the fiber network of FIG. 8B has one fiber coupler instead of two fiber couplers. Although the advantage of FIG. 8B over FIG. 8A is simplicity, FIG. 8B is more likely to cause unwanted optical back reflections into optical fibers 422 and 424.

ある実施形態において、図3のファイバネットワーク166は図8Cのファイバネットワーク420Cである。ここで、図3の光ファイバ184、186、168、169は図8Cの光ファイバ447、455、423、424に対応する。ファイバネットワーク420Cは、第一のファイバカプラ445と第二のファイバカプラ451を含む。第一のファイバカプラ445は、2つの入力ポートと2つの出力ポートを有する2×2カプラである。この種のカプラは通常、2つのファイバコアを近接させ、その後、ファイバを加熱しながら引き伸ばすことによって作られる。このようにして、ファイバ間のエバネッセントカプリングにより、光のうちの所望の部分を隣接するファイバへと分割することができる。第二のファイバカプラ451は、サーキュレータと呼ばれる種類のものである。これは3つのポートを有し、各々が光を透過させ、または受け取る能力を有するが、指定された方向に限定される。例えば、光ファイバ448上の光はポート453に入り、矢印に示されるように、ポート454に向かって運ばれる。ポート454では、光が光ファイバ455へと透過させられてもよい。同様に、ポート455上で進む光はポート454に入り、矢印の方向にポート456へと進んでもよく、ここで一部の光が光ファイバ424へと透過させられてもよい。3つのポートだけでよい場合、サーキュレータ451の光学パワーの損失は2×2カプラの場合より少なくなるかもしれない。他方で、サーキュレータ451は2×2カプラより高価であるかもしれず、また、偏波モード分散が発生するかもしれず、これは状況によって問題となりうる。   In some embodiments, the fiber network 166 of FIG. 3 is the fiber network 420C of FIG. 8C. Here, the optical fibers 184, 186, 168, and 169 in FIG. 3 correspond to the optical fibers 447, 455, 423, and 424 in FIG. 8C. The fiber network 420C includes a first fiber coupler 445 and a second fiber coupler 451. The first fiber coupler 445 is a 2 × 2 coupler having two input ports and two output ports. This type of coupler is usually made by bringing two fiber cores close together and then stretching the fiber while heating. In this way, a desired portion of light can be split into adjacent fibers by evanescent coupling between the fibers. The second fiber coupler 451 is of a type called a circulator. It has three ports, each with the ability to transmit or receive light, but is limited to a specified direction. For example, light on optical fiber 448 enters port 453 and is transported toward port 454 as indicated by the arrow. At port 454, light may be transmitted to optical fiber 455. Similarly, light traveling on port 455 may enter port 454 and travel in the direction of the arrow to port 456, where some light may be transmitted to optical fiber 424. If only three ports are needed, the optical power loss of the circulator 451 may be less than with a 2 × 2 coupler. On the other hand, the circulator 451 may be more expensive than a 2 × 2 coupler, and polarization mode dispersion may occur, which can be problematic in some circumstances.

図9および10は、前述の‘983号特許の図2および3に描かれている、先行技術のレーザトラッカ2100の、それぞれ分解図と断面図を示す。アジマスアセンブリ2110は支柱筐体2112と、アジマスエンコーダアセンブリ2120と、下側および上側アジマス軸受2114A、2114Bと、アジマスモータアセンブリ2125と、アジマススリップリングアセンブリ2130と、アジマス回路板2135と、を含む。   FIGS. 9 and 10 show an exploded view and a cross-sectional view, respectively, of the prior art laser tracker 2100 depicted in FIGS. 2 and 3 of the aforementioned '983 patent. The azimuth assembly 2110 includes a post housing 2112, an azimuth encoder assembly 2120, lower and upper azimuth bearings 2114 </ b> A, 2114 </ b> B, an azimuth motor assembly 2125, an azimuth slip ring assembly 2130, and an azimuth circuit board 2135.

アジマスエンコーダアセンブリ2120の目的は、支柱筐体2112に関するヨーク2142の回転角度を正確に測定することである。アジマスエンコーダアセンブリ2120は、エンコーダディスク2121と、読取りヘッドアセンブリ2122と、を含む。エンコーダディスク2121はヨーク筐体2142のシャフトに取り付けられ、読取りヘッドアセンブリ2122は支柱アセンブリ2110に取り付けられる。読取りヘッドアセンブリ2122は回路板を含み、その上に1つまたは複数の読取りヘッドが固定される。読取りヘッドから送られたレーザ光は、エンコーダディスク2121上の細かい格子の線で反射される。反射光はエンコーダ読取りヘッド上の検出器によりピックアップされ、処理されて、固定された読取りヘッドに関するエンコーダディスクの回転角度が特定される。   The purpose of the azimuth encoder assembly 2120 is to accurately measure the rotation angle of the yoke 2142 relative to the column housing 2112. The azimuth encoder assembly 2120 includes an encoder disk 2121 and a read head assembly 2122. The encoder disk 2121 is attached to the shaft of the yoke housing 2142, and the read head assembly 2122 is attached to the column assembly 2110. Read head assembly 2122 includes a circuit board on which one or more read heads are secured. Laser light transmitted from the read head is reflected by fine grating lines on the encoder disk 2121. The reflected light is picked up by a detector on the encoder read head and processed to determine the rotation angle of the encoder disk relative to the fixed read head.

アジマスモータアセンブリ2125は、アジマスモータロータ2126とアジマスモータステータ2127を含む。アジマスモータロータは、ヨーク筐体2142のシャフトに直接取り付けられた永久磁石を含む。アジマスモータステータ2127は、所定の磁界を生成する界磁巻線を含む。この磁界はアジマスモータロータ2126の磁石と相互作用して、所望の回転運動を発生させる。アジマスモータステータ2127は、支柱フレーム2112に取り付けられる。   The azimuth motor assembly 2125 includes an azimuth motor rotor 2126 and an azimuth motor stator 2127. The azimuth motor rotor includes a permanent magnet attached directly to the shaft of the yoke housing 2142. The azimuth motor stator 2127 includes a field winding that generates a predetermined magnetic field. This magnetic field interacts with the magnets of the azimuth motor rotor 2126 to produce the desired rotational motion. The azimuth motor stator 2127 is attached to the support frame 2112.

アジマス回路板2135は、エンコーダやモータ等のアジマス構成要素により必要な電気機能を提供する1つまたは複数の回路板を表す。アジマススリップリングアセンブリ2130は、外側部分2131と内側部分2132を含む。ある実施形態において、結束ワイヤ2138が補助ユニットプロセッサ50から出る。結束ワイヤ2138は、トラッカに電源を供給し、またはトラッカとの信号の送受信を行ってもよい。結束ワイヤ2138の一部は、回路板上のコネクタへと向けられてもよい。図10に示されている例において、ワイヤはアジマス回路板2135、エンコーダ読取りヘッドアセンブリ2122、およびアジマスモータアセンブリ2125へと配線される。他のワイヤは、スリップリングアセンブリ2130の内側部分2132へと配線される。内側部分2132は支柱アセンブリ2110に取り付けられ、その結果、静止したままである。外側部分2131はヨークアセンブリ2140に取り付けられ、その結果、内側部分2132に関して回転する。スリップリングアセンブリ2130は外側部分2131が内側部分2132に関して回転するときに低インピーダンスの電気接触が可能となるように設計される。   The azimuth circuit board 2135 represents one or more circuit boards that provide the electrical functions required by azimuth components such as encoders and motors. The azimuth slip ring assembly 2130 includes an outer portion 2131 and an inner portion 2132. In some embodiments, the tie wire 2138 exits the auxiliary unit processor 50. The bundling wire 2138 may supply power to the tracker or send / receive signals to / from the tracker. A portion of the tie wire 2138 may be directed to a connector on the circuit board. In the example shown in FIG. 10, the wires are routed to the azimuth circuit board 2135, the encoder read head assembly 2122, and the azimuth motor assembly 2125. The other wire is routed to the inner portion 2132 of the slip ring assembly 2130. Inner portion 2132 is attached to post assembly 2110 so that it remains stationary. Outer portion 2131 is attached to yoke assembly 2140 so that it rotates relative to inner portion 2132. Slip ring assembly 2130 is designed to allow low impedance electrical contact when outer portion 2131 rotates with respect to inner portion 2132.

セニスアセンブリ2140は、ヨーク筐体2142と、ゼニスエンコーダアセンブリ2150と、左右のゼニス軸受2144A、2144Bと、ゼニスモータアセンブリ2155と、ゼニススリップリングアセンブリ2160と、ゼニス回路板2165と、を含む。   The zenith assembly 2140 includes a yoke housing 2142, a zenith encoder assembly 2150, left and right zenith bearings 2144A, 2144B, a zenith motor assembly 2155, a zenith slip ring assembly 2160, and a zenith circuit board 2165.

ゼニスエンコーダアセンブリ2150の目的は、ヨーク筐体2142に関するペイロードフレーム2172の回転角度を正確に測定することである。ゼニスエンコーダアセンブリ2150は、ゼニスエンコーダディスク2151と、ゼニス読取りヘッドアセンブリ2152と、を含む。エンコーダディスク2151は、ペイロード筐体2142に取り付けられ、読取りヘッドアセンブリ2152はヨーク筐体2142に取り付けられる。ゼニス読取りヘッドアセンブリ2152は回路板を含み、その上に1つまたは複数の読取りヘッドが固定される。読取りヘッドから送られるレーザ光はエンコーダディスク2151上の細かい格子の線で反射される。反射光はエンコーダ読取りヘッド上の検出器によってピックアップされ、処理されて、固定された読取りヘッドに関するエンコーダディスクの回転角度が特定される。   The purpose of the Zenith encoder assembly 2150 is to accurately measure the rotation angle of the payload frame 2172 relative to the yoke housing 2142. Zenith encoder assembly 2150 includes a Zenith encoder disk 2151 and a Zenith readhead assembly 2152. The encoder disk 2151 is attached to the payload housing 2142 and the read head assembly 2152 is attached to the yoke housing 2142. Zenith readhead assembly 2152 includes a circuit board on which one or more readheads are secured. Laser light transmitted from the read head is reflected by fine grating lines on the encoder disk 2151. The reflected light is picked up and processed by a detector on the encoder read head to determine the angle of rotation of the encoder disk relative to the fixed read head.

ゼニスモータアセンブリ2155は、ゼニスモータロータ2156とゼニスモータステータ2157を含む。ゼニスモータロータ2156は、ペイロードフレーム2172のシャフトに直接取り付けられた永久磁石を含む。ゼニスモータステータ2157は、所定の磁界を生成する界磁巻線を含む。この磁界はロータ磁石と相互作用して、所望の回転運動を発生させる。ゼニスモータステータ2157は、ヨークフレーム2142に取り付けられる。   Zenith motor assembly 2155 includes a Zenith motor rotor 2156 and a Zenith motor stator 2157. Zenith motor rotor 2156 includes a permanent magnet attached directly to the shaft of payload frame 2172. Zenith motor stator 2157 includes a field winding that generates a predetermined magnetic field. This magnetic field interacts with the rotor magnet to produce the desired rotational motion. Zenith motor stator 2157 is attached to yoke frame 2142.

ゼニス回路板2165は、エンコーダやモータ等のゼニス構成要素により必要とされる電気機能を提供する1つまたは複数の回路板を表す。ゼニススリップリングアセンブリ2160は、外側部分2161と内側部分2162を含む。結束ワイヤ2168は、アジマス外側スリップリング2131から出て、電源または信号を運んでもよい。結束ワイヤ2168のワイヤのうちの一部は、回路板上のコネクタにつながってもよい。図10に示される例において、ワイヤはゼニス回路板2165、ゼニスモータアセンブリ2150、およびエンコーダ読取りヘッドアセンブリ2152へと配線される。他のワイヤは、スリップリングアセンブリ2160の内側部分2162へと配線される。内側部分2162はヨークフレーム2142に取り付けられ、その結果、アジマス角度にのみ回転するが、ゼニス角度には回転しない。外側部分2161はペイロードフレーム2162に取り付けられ、その結果、ゼニスおよびアジマス角度の両方に回転する。スリップリングアセンブリ2160は、外側部分2161が内側部分2162に関して回転する時に低インピーダンスの電気接触が可能となるように設計される。ペイロードアセンブリ2170は主要光学アセンブリ2180と第二の光学アセンブリ2190を含む。   Zenith circuit board 2165 represents one or more circuit boards that provide the electrical functions required by Zenith components such as encoders and motors. Zenith slip ring assembly 2160 includes an outer portion 2161 and an inner portion 2162. The tie wire 2168 may exit the azimuth outer slip ring 2131 and carry power or signals. A part of the wires of the binding wire 2168 may be connected to a connector on the circuit board. In the example shown in FIG. 10, the wires are routed to Zenith circuit board 2165, Zenith motor assembly 2150, and encoder readhead assembly 2152. The other wire is routed to the inner portion 2162 of the slip ring assembly 2160. Inner portion 2162 is attached to yoke frame 2142 so that it rotates only to the azimuth angle but not to the zenith angle. Outer portion 2161 is attached to payload frame 2162 so that it rotates to both zenith and azimuth angles. Slip ring assembly 2160 is designed to allow low impedance electrical contact when outer portion 2161 rotates relative to inner portion 2162. Payload assembly 2170 includes a main optical assembly 2180 and a second optical assembly 2190.

図11は、寸法測定電子装置処理システム1500を示すブロック図であり、これはレーザトラッカ電子装置処理システム1510と、周辺素子1582、1584、1586の処理システムと、コンピュータ1590と、ここでは雲(クラウド)として示されているネットワーク接続された他の構成要素1600と、を含む。例示的なレーザトラッカ電子装置処理システム1510は、マスタプロセッサ1520と、ペイロード機能電子装置1530と、アジマスエンコーダ電子装置1540と、ゼニスエンコーダ電子装置1550と、ディスプレイと、ユーザインタフェース(UI)電子装置1560と、リムーバブルストレージハードウェア1565と、RFID(無線識別)電子装置と、アンテナ1572と、を含む。ペイロード機能電子装置1530は、6−DOF電子装置1531、カメラ電子装置1532、ADM電子装置1533、位置検出器(PSD)電子装置1534、およびレベル電子装置1535を含む多数の副機能を含む。副機能のほとんどは少なくとも1つのプロセッサユニットを有し、これは例えばデジタル信号プロセッサ(DSP)またはフィールドプログラマブルゲートアレイ(FPGA)であってもよい。電子装置ユニット1530、1540、および1550は図のように分離されており、これは、レーザトラッカ内のそれらの位置による。ある実施形態において、ペイロード機能1530は図9および10のペイロード2170の中にあり、その一方で、アジマスエンコーダ電子装置1540はアジマスアセンブリ2110の中にあり、ゼニスエンコーダ電子装置1550はゼニスアセンブリ2140の中にある。   FIG. 11 is a block diagram illustrating a dimension measurement electronics processing system 1500, which includes a laser tracker electronics processing system 1510, a processing system for peripheral elements 1582, 1584, 1586, a computer 1590, and in this case a cloud (cloud). And other networked components 1600 shown as). The exemplary laser tracker electronics processing system 1510 includes a master processor 1520, payload function electronics 1530, azimuth encoder electronics 1540, zenith encoder electronics 1550, display, and user interface (UI) electronics 1560. , Removable storage hardware 1565, RFID (radio identification) electronic device, and antenna 1572. Payload function electronics 1530 includes a number of sub-functions including 6-DOF electronics 1531, camera electronics 1532, ADM electronics 1533, position detector (PSD) electronics 1534, and level electronics 1535. Most of the subfunctions have at least one processor unit, which may be, for example, a digital signal processor (DSP) or a field programmable gate array (FPGA). The electronics units 1530, 1540, and 1550 are separated as shown, depending on their location within the laser tracker. In some embodiments, payload function 1530 is in payload 2170 of FIGS. 9 and 10, while azimuth encoder electronics 1540 is in azimuth assembly 2110 and zenith encoder electronics 1550 is in zenith assembly 2140. It is in.

多くの種類の周辺装置が使用可能であるが、ここでは3つのそのような装置、すなわち、温度センサ1582、6−DOFプローブ1584および、例えばスマートフォン等の携帯情報端末1586が示されている。本発明の実施形態により後でより詳しく説明するように、図11に示されていない他の種類の周辺装置は、三角計測スキャナ、特に6−DOF三角計測スキャナ、例えばレーザラインプローブ(LLP)またはエリアストラクチャードライトスキャナである。レーザトラッカは周辺装置と様々な方法で通信してもよく、これにはアンテナ1572での無線通信による方法、カメラ等のビジョンシステムによる方法、および6−DOFプローブ1584または三角計測スキャナ等の協調ターゲットまでのレーザトラッカの距離および角度読取値によって行われる。周辺装置は、プロセッサを含んでいてもよい。一般に、6−DOFアクセサリは6−DOFプロービングシステム、6−DOFスキャナ、6−DOFプロジェクタ、6−DOFセンサ、および6−DOFインディケータを含んでいてもよい。これらの6−DOF装置のプロセッサは、レーザトラッカ内の処理装置のほか、外部コンピュータとクラウド処理資源と共に使用されてもよい。一般に、レーザトラッカプロセッサまたは測定装置プロセッサという用語が使用されるとき、これは使用可能な外部コンピュータとクラウドサポートを含むものとする。   Although many types of peripheral devices can be used, three such devices are shown here: a temperature sensor 1582, a 6-DOF probe 1584, and a personal digital assistant 1586 such as a smartphone. As will be described in more detail later with embodiments of the present invention, other types of peripheral devices not shown in FIG. 11 are triangulation scanners, particularly 6-DOF triangulation scanners, such as laser line probes (LLP) or This is an area structured light scanner. The laser tracker may communicate with peripheral devices in various ways, such as by wireless communication with antenna 1572, by a vision system such as a camera, and a collaborative target such as a 6-DOF probe 1584 or a triangulation scanner. By the distance and angle reading of the laser tracker. The peripheral device may include a processor. In general, the 6-DOF accessory may include a 6-DOF probing system, a 6-DOF scanner, a 6-DOF projector, a 6-DOF sensor, and a 6-DOF indicator. The processors of these 6-DOF devices may be used with external computers and cloud processing resources, as well as processing devices within the laser tracker. In general, when the term laser tracker processor or measurement device processor is used, this shall include available external computers and cloud support.

ある実施形態において、別の通信バスがマスタプロセッサ1520から電子装置ユニット1530、1540、1550、1560、1565、および1570の各々につながる。各通信ラインは、例えばデータライン、クロックライン、フレームラインを含む3つのシリアルラインを有していてもよい。フレームラインは、電子装置ユニットがクロックラインに注目すべきが否かを示す。それが、注目するべきであることを示すと、電子装置ユニットは各クロック信号でデータラインの現在の数値を読み取る。クロック信号は、例えばクロックパルスの立ち上がりエッジに対応してもよい。ある実施形態において、情報はデータライン上でパケットの形態で伝送される。ある実施形態において、各パケットはアドレス、数値、データメッセージ、およびチェックサムを含む。アドレスは、電子機器ユニット内のどこにテータメッセージを向けるかを示す。その場所は、例えば電子装置ユニット内のプロセッササブルーチンに対応してもよい。数値は、データメッセージの長さを示す。データメッセージは、電子装置ユニットが実行するデータまたは命令を含む。チェックサムは、通信ライン上でエラーが送信される機会を最小限にするために使用される数値である。   In one embodiment, another communication bus leads from the master processor 1520 to each of the electronic device units 1530, 1540, 1550, 1560, 1565, and 1570. Each communication line may have three serial lines including, for example, a data line, a clock line, and a frame line. The frame line indicates whether the electronic device unit should pay attention to the clock line. If it indicates that it should be noted, the electronics unit reads the current value of the data line with each clock signal. The clock signal may correspond to, for example, a rising edge of a clock pulse. In some embodiments, information is transmitted in the form of packets on the data line. In some embodiments, each packet includes an address, a numeric value, a data message, and a checksum. The address indicates where in the electronic device unit the data message is directed. The location may correspond to, for example, a processor subroutine in the electronic device unit. The numerical value indicates the length of the data message. The data message includes data or instructions executed by the electronic device unit. The checksum is a number that is used to minimize the chance that an error will be sent on the communication line.

ある実施形態において、マスタプロセッサ1520は情報パケットを、バス1610上でペイロード機能電子装置1530に、バス1611上でアジマスエンコーダ電子装置1540に、バス1612上でゼニスエンコーダ電子装置1550に、バス1613上でディスプレイおよびUI電子装置1560に、バス1614上でリムーバブルストレージハードウェア1565に、バス1616上でRFIDおよび無線電子装置1570に送信する。   In some embodiments, the master processor 1520 sends information packets on the bus 1610 to the payload functional electronics 1530, on the bus 1611 to the azimuth encoder electronics 1540, on the bus 1612 to the Zenith encoder electronics 1550, and on the bus 1613. Send to display and UI electronics 1560 to removable storage hardware 1565 over bus 1614 and to RFID and wireless electronics 1570 over bus 1616.

ある実施形態において、マスタプロセッサ1520はまた、synch(同期)パルスをsynchバス1630上で電子装置ユニットの各々に同時に送信する。synchパルスは、レーザトラッカの測定機能により収集される数値を同期させる方法を提供する。例えば、アジマスエンコーダ電子装置1540とゼニス電子装置1550は、synchパルスを受信するとすぐにそれらのエンコーダの数値をラッチする。同様に、ペイロード機能電子装置1530は、ペイロードの中に含まれる電子装置が収集するデータをラッチする。6−DOF、ADM、および位置検出器はすべて、synchパルスが供給されるとデータをラッチする。ほとんどの場合、カメラおよび傾斜計は、synchパルスより低速でデータを収集するが、synchパルス周期の倍数でデータをラッチしてもよい。   In some embodiments, the master processor 1520 also sends a sync pulse to each of the electronic device units simultaneously on the sync bus 1630. The sync pulse provides a way to synchronize the numerical values collected by the measurement function of the laser tracker. For example, azimuth encoder electronics 1540 and Zenith electronics 1550 latch their encoder values as soon as they receive a sync pulse. Similarly, the payload functional electronic device 1530 latches data collected by the electronic device contained within the payload. 6-DOF, ADM, and position detectors all latch data when a sync pulse is applied. In most cases, the camera and inclinometer collect data at a slower rate than the sync pulse, but may latch data at multiples of the sync pulse period.

アジマスエンコーダ電子機器1540およびゼニスエンコーダ電子装置1550は典型的に、例えばスリップリングによって相互に、およびペイロード電子装置1530から分離されている。そのために、図11では、バスライン1610、1611、および1612は別々のバスラインとして示されている。   Azimuth encoder electronics 1540 and Zenith encoder electronics 1550 are typically separated from each other and from payload electronics 1530 by, for example, slip rings. Therefore, in FIG. 11, bus lines 1610, 1611, and 1612 are shown as separate bus lines.

レーザトラッカ電子部品処理システム1510は、外部コンピュータ1590と通信してもよく、またはレーザトラッカ内の計算、表示、およびUI機能を提供してもよい。レーザトラッカは、例えばイーサネットラインまたは無線接続であってもよい通信リンク1606上でコンピュータ1590と通信する。レーザトラッカはまた、雲で表されているその他の要素1600と、イーサネットケーブル等の1本または複数の電気ケーブルおよび1つまたは複数の無線接続を含んでいてもよい通信リンク1602上で通信してもよい。要素1600の一例は、他の3次元試験機器、例えば関節アームCMMであり、これはレーザトラッカによって移動されてもよい。コンピュータ1590と要素1600との間の通信リンク1604は、有線(例えば、イーサネット)でも無線でもよい。リモートコンピュータ1590に向かって座っているオペレータは、雲1600で表されているインターネットに、それ自体はイーサネットまたは無線ラインでマスタプロセッサ1520に接続されているイーサネットまたは無線ラインで接続してもよい。このようにして、使用者はリモートレーザトラッカの動作を制御してもよい。   The laser tracker electronics processing system 1510 may communicate with an external computer 1590 or may provide calculation, display, and UI functions within the laser tracker. The laser tracker communicates with computer 1590 over a communication link 1606, which may be, for example, an Ethernet line or a wireless connection. The laser tracker also communicates with other elements 1600 represented in the cloud over a communication link 1602 that may include one or more electrical cables such as Ethernet cables and one or more wireless connections. Also good. An example of element 1600 is other three-dimensional test equipment, such as an articulated arm CMM, which may be moved by a laser tracker. Communication link 1604 between computer 1590 and element 1600 may be wired (eg, Ethernet) or wireless. An operator sitting toward the remote computer 1590 may connect to the Internet represented by the cloud 1600 via an Ethernet or wireless line that is itself connected to the master processor 1520 via an Ethernet or wireless line. In this way, the user may control the operation of the remote laser tracker.

今日のレーザトラッカは、ADMのために1つの可視波長(通常、赤)と1つの赤外波長を使用する。赤波長は、干渉計での使用および、赤色ポインタビームの提供に使用するのに適した周波数安定ヘリウムネオン(HeNe)レーザにより提供されてもよい。あるいは、赤波長は、ポインタビームのような機能を果たすダイオードレーザにより提供されてもよい。2つの光源を使用した場合の欠点は、追加の光源、ビームスプリッタ、アイソレータ、およびその他の構成要素に必要な追加のスペースとコストの増大である。2つの光源を使用した場合の他の欠点は、ビームが進む経路全体に沿って、2つの光ビームを完全に整合させることが困難であることである。これは様々な問題を引き起こすかもしれず、例えば、異なる波長で動作する異なるサブシステムから良好な性能を同時に得ることができない。1つの光源を使用することによってこれらの問題を排除するシステムが、図12Aの光電気システム500の中に示されている。   Today's laser trackers use one visible wavelength (usually red) and one infrared wavelength for ADM. The red wavelength may be provided by a frequency stable helium neon (HeNe) laser suitable for use in an interferometer and to provide a red pointer beam. Alternatively, the red wavelength may be provided by a diode laser that functions like a pointer beam. The disadvantage of using two light sources is the additional space and cost required for additional light sources, beam splitters, isolators, and other components. Another disadvantage of using two light sources is that it is difficult to perfectly align the two light beams along the entire path they travel. This may cause various problems, for example, good performance cannot be obtained simultaneously from different subsystems operating at different wavelengths. A system that eliminates these problems by using a single light source is shown in the optoelectric system 500 of FIG. 12A.

図12Aは、可視光源110と、アイソレータ115と、ファイバネットワーク420と、ADM電子装置530と、ファイバ入射システム170と、ビームスプリッタ145と、位置検出器150と、を含む。可視光源110は、例えば赤色または緑色ダイオードレーザまたは垂直共振器面発光レーザ(vertical cavity surface emitting laser)(VCSEL)であってもよい。アイソレータは、ファラデアイソレータ、減衰器、または光源にフィードバックされる光の量を十分に減少させることのできる他のあらゆる装置を含んでいてもよい。アイソレータ115からの光はファイバネットワーク420の中へと進み、これは、ある実施形態において、図8Aのファイバネットワーク420Aである。   FIG. 12A includes a visible light source 110, an isolator 115, a fiber network 420, an ADM electronics 530, a fiber injection system 170, a beam splitter 145, and a position detector 150. The visible light source 110 may be, for example, a red or green diode laser or a vertical cavity surface emitting laser (VCSEL). The isolator may include a Faraday isolator, an attenuator, or any other device that can sufficiently reduce the amount of light fed back to the light source. The light from the isolator 115 travels into the fiber network 420, which in one embodiment is the fiber network 420A of FIG. 8A.

図12Bはある実施形態の光電気システム400を示しており、その中では、光の1つの波長だけが使用されるが、変調は、光源の直接変調ではなく、光の電気光学変調によって実行される。光電気システム400は、可視光源110と、アイソレータ115と、電気光学モジュレータ410と、ADM電子装置475と、ファイバネットワーク420と、ファイバ入射システム170と、ビームスプリッタ145と、位置検出器150と、を含む。可視光源110は、例えば赤色または緑色レーザダイオードであってもよい。レーザ光はアイソレータ115を通じて送られ、これは例えばファラデアイソレータまたは減衰器であってもよい。アイソレータ115は、その入力および出力ポートにおいてファイバで連結されていてもよい。アイソレータ115は光を電気光学モジュレータ410に送り、これは光を、最高10GHzか希望に応じてそれより高くてもよい選択された周波数に変調する。ADM電子装置475からの電気信号476は、電気光学モジュレータ410の中の変調を駆動する。電気光学モジュレータ410からの変調された光はファイバネットワーク420へと進み、これは前述のファイバネットワーク420A、420B、420C、または420Dであってもよい。光の一部は光ファイバ422上でADM電子装置475の基準チャネルへと進む。光の別の部分は、トラッカから射出し、レトロリフレクタ90で反射され、トラッカに戻り、ビームスプリッタ145に到達する。光のうちの少量がビームスプリッタで反射され、位置検出器150に進み、これについては図6A〜Fに関して上で説明した。光の一部はビームスプリッタ145を通じてファイバ入射システム170に入り、ファイバネットワーク420を通じて光ファイバ424に、またADM電子装置475の測定チャネルへと入る。一般に、図12Aのシステム500は図12Bのシステム400より安価に製造できるが、電気光学モジュレータ410はより高い変調周波数を達成できるかもしれず、これは状況によって有利となりうる。   FIG. 12B shows an embodiment of an opto-electrical system 400 in which only one wavelength of light is used, but the modulation is performed by electro-optic modulation of light rather than direct modulation of the light source. The The optoelectric system 400 includes a visible light source 110, an isolator 115, an electro-optic modulator 410, an ADM electronic device 475, a fiber network 420, a fiber injection system 170, a beam splitter 145, and a position detector 150. Including. The visible light source 110 may be, for example, a red or green laser diode. The laser light is sent through an isolator 115, which may be, for example, a Faraday isolator or an attenuator. The isolator 115 may be coupled with a fiber at its input and output ports. The isolator 115 sends the light to the electro-optic modulator 410, which modulates the light to a selected frequency that may be up to 10 GHz or higher as desired. Electrical signal 476 from ADM electronics 475 drives the modulation in electro-optic modulator 410. The modulated light from electro-optic modulator 410 travels to fiber network 420, which may be a fiber network 420A, 420B, 420C, or 420D as described above. Some of the light travels over the optical fiber 422 to the reference channel of the ADM electronics 475. Another part of the light exits the tracker, is reflected by the retro-reflector 90, returns to the tracker and reaches the beam splitter 145. A small amount of the light is reflected by the beam splitter and proceeds to the position detector 150, which was described above with respect to FIGS. Some of the light enters the fiber injection system 170 through the beam splitter 145, enters the optical fiber 424 through the fiber network 420, and enters the measurement channel of the ADM electronics 475. In general, the system 500 of FIG. 12A can be manufactured less expensively than the system 400 of FIG. 12B, but the electro-optic modulator 410 may be able to achieve higher modulation frequencies, which may be advantageous in some circumstances.

図13は、ある実施形態のロケータカメラシステム950と光電気システム900を示しており、その中では方位カメラ910が3Dレーザトラッカの光電気機能と組み合わされて、装置の6自由度を測定する。光電気システム900は、可視光源905と、アイソレータ910と、任意選択による電気光学モジュレータ410と、ADM電子装置715と、ファイバネットワーク420と、ファイバ入射システム170と、ビームスプリッタ145と、位置検出器150と、ビームスプリッタ922と、方位カメラ910と、を含む。可視光源からの光は光ファイバ980内に発せられ、アイソレータ910を通って進み、その入力および出力ポートには光ファイバが連結されていてもよい。光は、ADM電子装置715からの電気信号716により変調される電気光学モジュレータ410を通って進んでもよい。あるいは、ADM電子装置715は、ケーブル717で電気信号を送信し、可視光源905を変調させてもよい。ファイバネットワークに入射する光の一部は、ファイバ長イコライザ423と光ファイバ422を通って進み、ADM電子装置715の基準チャネルに入る。電気信号469は任意選択により、ファイバネットワーク420に印加されて、ファイバネットワーク420内の光ファイバスイッチに切換え信号を供給してもよい。光の一部はファイバネットワークからファイバ入射システム170へと進み、これがその光を光ファイバ上で光ビーム982として自由空間に送る。光のうちの少量がビームスプリッタ145で反射され、失われる。光の一部はビームスプリッタ145を通り、ビームスプリッタ922を通り、レーザトラッカから出て6自由度(DOF)装置4000に至る。6−DOF装置4000は、プローブ、プロジェクタ、センサ、または他の何れの種類の6−DOF装置であってもよい。後でより詳しく説明する本発明の実施形態において、6−DOF装置4000は、例えばレーザラインプローブ(LLP)または構造化光エリアスキャナ等の6−DOF三角計測スキャナを含む。6−DOF三角計測スキャナは、そこに取り付けられたレトロリフレクタを有し、スキャナの6自由度の測定または判定が容易である。   FIG. 13 shows an embodiment of a locator camera system 950 and an optoelectric system 900 in which an orientation camera 910 is combined with the optoelectric function of a 3D laser tracker to measure the six degrees of freedom of the device. The optoelectric system 900 includes a visible light source 905, an isolator 910, an optional electro-optic modulator 410, an ADM electronics 715, a fiber network 420, a fiber injection system 170, a beam splitter 145, and a position detector 150. A beam splitter 922 and a direction camera 910. Light from the visible light source is emitted into the optical fiber 980 and travels through the isolator 910, which may be coupled to the input and output ports. The light may travel through an electro-optic modulator 410 that is modulated by an electrical signal 716 from the ADM electronics 715. Alternatively, the ADM electronic device 715 may modulate the visible light source 905 by transmitting an electrical signal over the cable 717. Some of the light incident on the fiber network travels through the fiber length equalizer 423 and the optical fiber 422 and enters the reference channel of the ADM electronics 715. Electrical signal 469 may optionally be applied to fiber network 420 to provide a switching signal to fiber optic switches in fiber network 420. Some of the light travels from the fiber network to the fiber injection system 170, which sends the light over the optical fiber as a light beam 982 to free space. A small amount of light is reflected by the beam splitter 145 and lost. Part of the light passes through the beam splitter 145, through the beam splitter 922, exits the laser tracker, and reaches the six degree of freedom (DOF) device 4000. The 6-DOF device 4000 may be a probe, projector, sensor, or any other type of 6-DOF device. In embodiments of the invention described in more detail below, the 6-DOF device 4000 includes a 6-DOF triangulation scanner, such as a laser line probe (LLP) or structured light area scanner, for example. The 6-DOF triangulation scanner has a retro-reflector attached to it, making it easy to measure or determine the scanner's six degrees of freedom.

レーザトラッカへのその戻り経路で、6−DOF装置4000からの光は光電気システム900に入射し、ビームスプリッタ922に到達する。光の一部はビームスプリッタ922で反射され、方位カメラ910に入射する。方位カメラ910はレトロリフレクタターゲット上に設けられたいくつかのマークの位置を記録する。これらのマークから、6−DOFプローブ装置の方位角(すなわち、3自由度)が特定される。方位カメラの原理は、本願の中で後述され、また前述の‘758号特許にも記載されている。ビームスプリッタ145では、光の一部がビームスプリッタを通過し、ファイバ入射システム170によって光ファイバへと送られる。光はファイバネットワーク420へと進む。この光の一部は光ファイバ424へと進み、そこからADM電子装置715の測定チャネルに入射する。   On its return path to the laser tracker, light from the 6-DOF device 4000 enters the opto-electric system 900 and reaches the beam splitter 922. Part of the light is reflected by the beam splitter 922 and enters the azimuth camera 910. The orientation camera 910 records the position of several marks provided on the retro-reflector target. From these marks, the azimuth angle (ie, three degrees of freedom) of the 6-DOF probe device is specified. The principle of the orientation camera is described later in this application and is also described in the aforementioned '758 patent. In the beam splitter 145, a portion of the light passes through the beam splitter and is sent to the optical fiber by the fiber injection system 170. Light travels to the fiber network 420. A portion of this light travels to the optical fiber 424, where it enters the measurement channel of the ADM electronic device 715.

ロケータカメラシステム950は、カメラ960と、1つまたは複数の光源970と、を含む。ロケータカメラシステムはまた、図1のレーザトラッカ10に関して示されており、カメラが要素52であり、光源が要素54である。カメラ960はレンズシステム962と、感光体アレイ964と、本体966と、を含む。ロケータカメラシステム950の1つの用途は、作業空間内のレトロリフレクタターゲットの位置を特定することである。これは、光源970を点滅させることによって行われ、これがカメラによって感光体アレイ964上の明るいスポットとしてピックアップされる。ロケータカメラシステム950の第二の用途は、6−DOF装置4000の大まかな方位を、6−DOF装置4000上のリフレクタスポットまたはLEDの観察された位置に基づいて判断することである。2つまたはそれ以上のロケータカメラシステム950をレーザトラッカ10上で使用できる場合、三角測量の原理に基づいて作業空間内の各レトロリフレクタターゲットへの方向を計算できる。1つのロケータカメラがレーザトラッカの光軸に沿って反射される光をピックアップするように位置付けられていれば、各レトロリフレクタターゲットへの方向を特定できる。1つのカメラがレーザトラッカの光軸からずらして配置されていれば、感光体アレイ上の画像からレトロリフレクタターゲットの大まかな方向を即座に得ることができる。この場合、ターゲットへのより正確な方向は、レーザの機械軸を複数の方向に回転させ、感光体アレイ上のスポット位置の変化を観察することによって特定できる。   Locator camera system 950 includes a camera 960 and one or more light sources 970. The locator camera system is also shown with respect to the laser tracker 10 of FIG. 1, where the camera is element 52 and the light source is element 54. Camera 960 includes a lens system 962, a photoreceptor array 964, and a body 966. One application of the locator camera system 950 is to locate the retro-reflector target in the workspace. This is done by blinking the light source 970 which is picked up as a bright spot on the photoreceptor array 964 by the camera. A second use of the locator camera system 950 is to determine the general orientation of the 6-DOF device 4000 based on the observed position of the reflector spot or LED on the 6-DOF device 4000. If two or more locator camera systems 950 can be used on the laser tracker 10, the direction to each retro-reflector target in the workspace can be calculated based on triangulation principles. If one locator camera is positioned to pick up the light reflected along the optical axis of the laser tracker, the direction to each retroreflector target can be identified. If one camera is arranged offset from the optical axis of the laser tracker, the rough direction of the retroreflector target can be obtained immediately from the image on the photoreceptor array. In this case, a more accurate direction to the target can be specified by rotating the mechanical axis of the laser in a plurality of directions and observing changes in the spot position on the photoreceptor array.

図14は、レーザトラッカの光電気システム900およびロケータカメラシステム950と共に使用される、ある実施形態の6−DOFプローブ2000を示す。本発明の実施形態において、レーザトラッカは、例えば図1のレーザトラッカ10等、本願で開示され、例示されているレーザトラッカのいずれであっても、または本願で開示されていない他の同様の装置であってもよい。光電気システム900とロケータカメラシステム950は、図13を参照しながら説明した。他の実施形態において、光電気システム900の代わりに、2つまたはそれ以上の波長の光を有する光電気システムが使用される。   FIG. 14 shows an embodiment of a 6-DOF probe 2000 for use with a laser tracker optoelectric system 900 and a locator camera system 950. In embodiments of the present invention, the laser tracker may be any of the laser trackers disclosed and exemplified herein, such as the laser tracker 10 of FIG. 1, or other similar device not disclosed herein. It may be. The optoelectric system 900 and the locator camera system 950 have been described with reference to FIG. In other embodiments, instead of the optoelectric system 900, an optoelectric system having two or more wavelengths of light is used.

6−DOFプローブ(または「ワンド(wand)」)2000は、本発明の実施形態では手持ち式であってもよく、本体2014と、レトロリフレクタ2010と、プローブ伸縮アセンブリ2050と、任意選択による電気ケーブル2046と、任意選択によるバッテリ2044と、インタフェース構成要素2012と、識別要素2049と、アクチュエータボタン2016と、アンテナ2048と、電子装置回路板2042と、を含む。レトロリフレクタ2010は、中空のコアまたはガラスコアを有するコーナキューブレトロリフレクタであってもよい。レトロリフレクタ2010には、光電気システム900内の方位カメラがレーザトラッカから物理的に分離された6−DOFプローブ2000の3方位自由度を判定できるようにマークが付けられていてもよい。このようなマーキングの一例は、前述の‘758号特許に記載されているように、レトロリフレクタ2010の3つの平坦なリフレクタ表面間の交線を暗色化することである。   The 6-DOF probe (or “wand”) 2000 may be handheld in embodiments of the present invention, and includes a body 2014, a retroreflector 2010, a probe telescopic assembly 2050, and an optional electrical cable. 2046, an optional battery 2044, an interface component 2012, an identification element 2049, an actuator button 2016, an antenna 2048, and an electronic device circuit board 2042. The retro reflector 2010 may be a corner cube retro reflector having a hollow core or a glass core. The retro reflector 2010 may be marked so that the orientation camera in the opto-electric system 900 can determine the three orientation degrees of freedom of the 6-DOF probe 2000 physically separated from the laser tracker. One example of such a marking is darkening the line of intersection between the three flat reflector surfaces of the retroreflector 2010, as described in the aforementioned '758 patent.

プローブ伸縮アセンブリ2050は、プローブ伸縮部2052と、プローブチップ2054と、を含む。プローブチップ2054は「ハード」コンタクト型プローブチップであってもよく、これは被験物体と物理的に接触して、プローブチップ2054の3D座標を判定することによって、物体表面の3座標測定を行う。図14の実施形態では、プローブチップ2054がレトロリフレクタ2010の本体2014に接続されてはいるものの、そこからある距離だけ分離され、離して位置付けられているが、6−DOFレーザトラッカはレーザトラッカから6−DOFプローブ2000に送られる光ビーム784の視線から隠れた点におけるプローブチップ2054の3D座標を容易に判定できることが知られている。そのため、6−DOFプローブは、隠蔽点探索プローブ(hidden−point probe)と呼ばれることがある。   The probe telescopic assembly 2050 includes a probe telescopic part 2052 and a probe tip 2054. The probe tip 2054 may be a “hard” contact type probe tip, which makes a 3-coordinate measurement of the object surface by physically contacting the test object and determining the 3D coordinates of the probe tip 2054. In the embodiment of FIG. 14, the probe tip 2054 is connected to the body 2014 of the retroreflector 2010, but is separated from it and positioned a distance away from it, but the 6-DOF laser tracker is separated from the laser tracker. It is known that the 3D coordinates of the probe tip 2054 at a point hidden from the line of sight of the light beam 784 sent to the 6-DOF probe 2000 can be easily determined. Therefore, the 6-DOF probe is sometimes referred to as a hidden-point probe.

電源は任意選択による電気ケーブル2046上で、または任意選択によるバッテリ2044によって供給されてもよい。電源は、電子装置用回路板2042に電力を供給する。電子装置用回路板2042は、レーザトラッカまたは外部コンピュータと通信していてもよいアンテナ2048と、使用者がレーザトラッカまたは外部コンピュータと従来の方法で通信できるようにするアクチュエータボタン2016に電力を供給する。電子装置用回路板2042はまた、LED、材料温度センサ(図示せず)、気温センサ(図示せず)、慣性センサ(図示せず)、または傾斜計(図示せず)にも電力を供給してよい。インタフェース構成要素2012は、例えば光源(LED等)、小型レトロリフレクタ、反射材料領域、または基準マークであってもよい。インタフェース構成要素2012は、レトロリフレクタ2010の大まかな方位を判断するために使用され、これは6−DOFプローブ2000の基準フレームを決定するための6−DOF角度の計算に必要である。識別要素2049は、レーザトラッカに6−DOFプローブ2000に関するパラメータまたは通し番号を提供するために使用される。識別要素は例えば、バーコードまたはRF識別タグであってもよい。   Power may be supplied on an optional electrical cable 2046 or by an optional battery 2044. The power supply supplies power to the electronic device circuit board 2042. The electronic device circuit board 2042 provides power to an antenna 2048 that may be in communication with the laser tracker or external computer and to an actuator button 2016 that allows the user to communicate with the laser tracker or external computer in a conventional manner. . The electronic device circuit board 2042 also provides power to LEDs, material temperature sensors (not shown), air temperature sensors (not shown), inertial sensors (not shown), or inclinometers (not shown). It's okay. The interface component 2012 may be, for example, a light source (such as an LED), a small retro-reflector, a reflective material region, or a fiducial mark. The interface component 2012 is used to determine the approximate orientation of the retro-reflector 2010, which is necessary for the 6-DOF angle calculation to determine the 6-DOF probe 2000 reference frame. The identification element 2049 is used to provide a parameter or serial number for the 6-DOF probe 2000 to the laser tracker. The identification element may be, for example, a barcode or an RF identification tag.

レーザトラッカは、あるいは、光ビーム784をレトロリフレクタ2011に供給してもよい。光ビーム784を複数のレトロリフレクタのうちの何れかに供給することによって、手持ち式の6−DOFプローブ、すなわちワンド2000は、物体の探査中、プローブ伸縮アセンブリ2050を用いて様々な方向に物理的に向き付けることができる。   The laser tracker may alternatively supply a light beam 784 to the retro-reflector 2011. By providing a light beam 784 to any of the plurality of retro-reflectors, a hand-held 6-DOF probe, or wand 2000, can be physically moved in various directions using the probe telescopic assembly 2050 during object exploration. Can be oriented.

レーザトラッカにより測定されるプローブ2000の6自由度は、3つの並進自由度と3つの方位自由度を含むと考えてもよい。3つの並進自由度は、レーザトラッカとレトロリフレクタとの間の半径方向距離測定、第一の角度測定、および第二の角度測定が含まれていてもよい。半径方向の距離測定は、レーザトラッカ内のIFMまたはADMで行われてもよい。第一の角度測定は、アジマス角度エンコーダ等のアジマス角度測定装置で行われてもよく、第二の角度測定は、ゼニス角度エンコーダ等のゼニス角度測定装置で行われてもよい。あるいは、第一の角度測定装置がゼニス角度測定装置であってもよく、第二の角度測定装置がアジマス角度測定装置であってもよい。半径方向距離、第一の角度測定、および第二の角度測定は、空間座標系の中の3つの座標を構成し、これをデカルト座標系または他の座標系内の3つの座標に変換できる。   The six degrees of freedom of the probe 2000 measured by the laser tracker may be considered to include three translational degrees of freedom and three azimuth degrees of freedom. The three translational degrees of freedom may include a radial distance measurement between the laser tracker and the retroreflector, a first angle measurement, and a second angle measurement. Radial distance measurements may be made with an IFM or ADM in the laser tracker. The first angle measurement may be performed by an azimuth angle measurement device such as an azimuth angle encoder, and the second angle measurement may be performed by a zenith angle measurement device such as a zenith angle encoder. Alternatively, the first angle measuring device may be a zenith angle measuring device, and the second angle measuring device may be an azimuth angle measuring device. The radial distance, the first angle measurement, and the second angle measurement constitute three coordinates in the spatial coordinate system, which can be converted to three coordinates in a Cartesian or other coordinate system.

プローブ2000の3つの方位自由度は、前述し、上で引用した‘758号特許に記載されているように、パターン付コーナキューブを使って判定されてもよい。あるいは、プローブ2000の3つの方位自由度を判定するその他の方法が使用されてもよい。例えば、使用可能な方法は、6−DOF触覚プローブ上の光の点の集合を画像化し、それと同時に光ビームを6−DOFプローブ上のレトロリフレクタに送り、レトロリフレクタまでの距離と2つの角度を判定するカメラを有する6−DOFレーザトラッカを提供することである。レーザトラッカ内のカメラ上に画像化される光の点は、3つの方位自由度を提供する。他の例において、使用可能な方法は、その頂点が部分的に移動されて、光がその頂点を通って位置検出器へと透過できるようにされたレトロリフレクタを有する6−DOFレーザトラッカを提供することである。位置検出器上の透過光の位置は、レトロリフレクタのピッチおよびヨーを判定するために使用できる。それに加えて、レトロリフレクタは、6−DOFセンサのロール角を測定するように構成された多軸傾斜計を含む構造体の中に取り付けられてもよい。測定されたロール角と測定されたピッチおよびヨー角の組合せにより、3つの方位自由度が提供される。それに加えて、レトロリフレクタに送られたレーザビームは、レトロリフレクタまでの距離と2つの角度を判定するために使用されてもよく、それによって3つの並進自由度が提供される。   The three orientational degrees of freedom of the probe 2000 may be determined using a patterned corner cube, as described in the '758 patent cited above and cited above. Alternatively, other methods for determining the three orientation degrees of freedom of the probe 2000 may be used. For example, a usable method is to image a set of points of light on a 6-DOF haptic probe and simultaneously send a light beam to a retro reflector on the 6-DOF probe to determine the distance to the retro reflector and two angles. It is to provide a 6-DOF laser tracker having a camera for judging. The point of light imaged on the camera in the laser tracker provides three orientation degrees of freedom. In another example, a usable method provides a 6-DOF laser tracker having a retro-reflector that has its vertex partially moved so that light can be transmitted through the vertex to the position detector. It is to be. The position of the transmitted light on the position detector can be used to determine the pitch and yaw of the retro reflector. In addition, the retroreflector may be mounted in a structure that includes a multi-axis inclinometer configured to measure the roll angle of the 6-DOF sensor. The combination of the measured roll angle and the measured pitch and yaw angle provides three orientation degrees of freedom. In addition, the laser beam sent to the retro-reflector may be used to determine the distance to the retro-reflector and two angles, thereby providing three translational degrees of freedom.

何れの方法が使用されても、3つの並進自由度と3つの方位自由度により、空間内での6−DOFプローブ2000等の6−DOFプローブ(およびそれゆえ、プローブチップ2054)の位置と方位が十分に定義される。これは、ここで検討されているシステムの場合である点に留意することが重要であるが、それは、6−自由度が独立しておらず、6自由度では空間内の装置の位置と方位を十分に定義できないようなシステムもありうるからである。「並進セット」という用語は、レーザトラッカの基準フレーム内の6−DOFアクセサリ(6−DOFプローブ2000等)の並進3自由度の短縮形である。「方位セット」という用語は、レーザトラッカの基準フレーム内の6−DOFアクセサリ(例えば、プローブ2000)の3つの方位自由度の短縮形である。「表面セット」とは、プローブチップ2054により測定されたレーザトラッカの基準フレーム内の物体表面上のある点の三次元座標の短縮形である。   Whichever method is used, the position and orientation of a 6-DOF probe (and hence probe tip 2054) in space, such as 6-DOF probe 2000, in space, with three translational degrees of freedom and three orientational degrees of freedom. Is well defined. It is important to note that this is the case for the system considered here, but it is not independent of 6 degrees of freedom, and in 6 degrees of freedom the position and orientation of the device in space. This is because there may be a system that cannot sufficiently define. The term “translation set” is an abbreviated version of a 3-DOF translation of a 6-DOF accessory (such as 6-DOF probe 2000) in the reference frame of the laser tracker. The term “orientation set” is a shortened form of the three orientation degrees of freedom of a 6-DOF accessory (eg, probe 2000) in the reference frame of the laser tracker. A “surface set” is a shortened form of a three-dimensional coordinate of a point on an object surface in a reference frame of a laser tracker measured by a probe tip 2054.

図15は、光電気システム900とロケータカメラシステム950と共に使用される6−DOFスキャナ2500のある実施形態を示す。6−DOFスキャナ2500はまた、「ターゲットスキャナ」と呼ばれてもよい。光電気システム900とロケータカメラシステム950は、図13に関して説明した。他の実施形態において、光電気システム900の代わりに、2つまたはそれ以上の波長の光を使用する光電気システムが使用される。6−DOFスキャナ2500は、本体2514と、1つまたは複数のレトロリフレクタ2510、2511と、スキャナカメラ2530と、スキャナ光プロジェクタ2520と、任意選択による電気ケーブル2546と、任意選択によるバッテリ2544と、インタフェース構成要素2512と、識別要素2549と、アクチュエータボタン2516と、アンテナ2548と、電子装置用回路板2542と、を含む。ある実施形態において、1つまたは複数のレトロリフレクタ2510、2511、スキャナカメラ2530、およびスキャナ光プロジェクタ2520は、本体2514に関して固定される。図15のレトロリフレクタ2510、任意選択による電気ケーブル2546、任意選択によるバッテリ2544、インタフェース構成要素2512、識別要素2549、アクチュエータボタン2516、アンテナ2548、および電子装置用回路板2542は、図14のそれぞれレトロリフレクタ2010、任意選択の電気ケーブル2046、任意選択によるバッテリ2044、インタフェース構成要素2012、識別要素2049、アクチュエータボタン2016、アンテナ2048、および電子装置用回路板2042に対応する。これらの対応する要素に関する説明は、図14に関して説明したものと同じである。スキャナプロジェクタ2520とスキャナカメラ2530は、協働して被加工物2528の三次元座標を測定するために使用される。   FIG. 15 shows an embodiment of a 6-DOF scanner 2500 used with the optoelectric system 900 and the locator camera system 950. The 6-DOF scanner 2500 may also be referred to as a “target scanner”. The optoelectric system 900 and the locator camera system 950 have been described with respect to FIG. In other embodiments, an optoelectric system that uses two or more wavelengths of light is used instead of the optoelectric system 900. The 6-DOF scanner 2500 includes a body 2514, one or more retro-reflectors 2510, 2511, a scanner camera 2530, a scanner light projector 2520, an optional electrical cable 2546, an optional battery 2544, and an interface. A component 2512, an identification element 2549, an actuator button 2516, an antenna 2548, and an electronic device circuit board 2542 are included. In certain embodiments, one or more retro-reflectors 2510, 2511, scanner camera 2530, and scanner light projector 2520 are fixed with respect to body 2514. The retroreflector 2510, the optional electrical cable 2546, the optional battery 2544, the interface component 2512, the identification element 2549, the actuator button 2516, the antenna 2548, and the electronic device circuit board 2542 of FIG. Corresponds to reflector 2010, optional electrical cable 2046, optional battery 2044, interface component 2012, identification element 2049, actuator button 2016, antenna 2048, and electronic device circuit board 2042. The description for these corresponding elements is the same as that described for FIG. The scanner projector 2520 and the scanner camera 2530 are used to measure the three-dimensional coordinates of the workpiece 2528 in cooperation.

カメラ2530は、カメラレンズシステム2532と感光体アレイ2534と、を含む。感光体アレイ2534は、例えばCCDまたはCMOSアレイであってもよい。スキャナプロジェクタ2520は、プロジェクタレンズシステム2523と、光源パターン2524と、を含む。光源パターンは、点状光、線状光、または符号化された、または符号化されていない二次元(2D)構造化光パターンを発してもよく、これについては後でより詳しく説明する。スキャナが線状光を発する場合、スキャナは「レーザラインプローブ」(LLP)と呼ばれてもよい。これに対して、スキャナが2D構造化光パターンを発する場合、スキャナは「構造化光スキャナ」と呼ばれてもよい。構造化光パターンは、例えばProceedings of SPIE、第7932巻で発表されたJason Gengによる雑誌記事、“DLP−Based Structured Light 3D Imaging Technologies and Applications”に記載されているものをはじめとする各種のパターンのうちの1つであってもよく、同文献を参照によって本願に援用する。   Camera 2530 includes a camera lens system 2532 and a photoreceptor array 2534. The photoreceptor array 2534 may be, for example, a CCD or CMOS array. Scanner projector 2520 includes a projector lens system 2523 and a light source pattern 2524. The light source pattern may emit point light, linear light, or an encoded or unencoded two-dimensional (2D) structured light pattern, which will be described in more detail later. If the scanner emits linear light, the scanner may be referred to as a “laser line probe” (LLP). In contrast, if the scanner emits a 2D structured light pattern, the scanner may be referred to as a “structured light scanner”. Structured light patterns are described in, for example, various patterns such as those described in Proceedings of SPIE, a magazine article by Jason Geng published in Volume 7932, “DLP-Based Structured Light 3D Imaging Technologies and Applications”. One of them may be used, which is incorporated herein by reference.

一般に、構造化光には2つの種類、すなわち符号化された構造化光と符号化されていない構造化光がある。符号化されていない構造化光の一般的な形態は、1つの次元に沿って周期的に変化する縞状パターンに依存する。これらの種類のパターンは通常、連続的に適用されて、物体までの大まかな距離を提供する。いくつかの符号化されていないパターンの実施形態、例えば正弦波パターンは、比較的高い精度の測定を提供できる。しかしながら、これらの種類の符号化されていないパターンを有効にするためには、通常、スキャナ装置と物体を相互に関して静止した状態に保つ必要がある。スキャナ装置または物体が(他方に関して)移動している場合は、符号化されたパターンを使用してもよい。符号化されたパターンにより、1つの取得された画像を使って画像を分析できる。いくつかの符号化されたパターンを、プロジェクタのパターンの上に特定の方位に(例えば、プロジェクタ平面上のエピポーラ線に垂直に)設置してもよく、それによって1つの画像に基づく三次元表面座標の分析が簡単になる。   In general, there are two types of structured light: encoded structured light and uncoded structured light. The general form of uncoded structured light depends on a striped pattern that varies periodically along one dimension. These types of patterns are usually applied continuously to provide a rough distance to the object. Some uncoded pattern embodiments, such as sinusoidal patterns, can provide relatively high accuracy measurements. However, to enable these types of uncoded patterns, it is usually necessary to keep the scanner device and the object stationary relative to each other. If the scanner device or object is moving (with respect to the other), an encoded pattern may be used. The encoded pattern allows an image to be analyzed using one acquired image. Several encoded patterns may be placed in a particular orientation on the projector pattern (eg, perpendicular to the epipolar line on the projector plane), thereby providing a three-dimensional surface coordinate based on one image Analysis becomes easier.

プロジェクタ2520からの光は被加工物2528の表面で反射され、反射光はカメラ2530によって受け取られる。理解すべき点として、被加工物表面内の変化または特徴、例えば1つまたは複数の突起は、パターンの画像がカメラ2530によって撮影された時に構造化パターンにおける歪みを生じさせる。パターンが構造化光により形成されるため、いくつかの例において、コントローラは発せられたパターン内の画素と画像化されたパターン内の画素との間の1対1の対応を判断できる。その結果、三角測量の原理を利用して、画像化されたパターン内の各画素の座標を判定できる。被加工物表面の3D座標の集合は、点群と呼ばれることがある。例えばスピンドル等により表面上で6−DOFスキャナ2500を移動させることによって、被加工物2528全体から点群を作ることができる。   Light from the projector 2520 is reflected by the surface of the workpiece 2528, and the reflected light is received by the camera 2530. It should be understood that changes or features in the workpiece surface, such as one or more protrusions, cause distortion in the structured pattern when an image of the pattern is taken by the camera 2530. Since the pattern is formed by structured light, in some examples, the controller can determine a one-to-one correspondence between the pixels in the emitted pattern and the pixels in the imaged pattern. As a result, the coordinates of each pixel in the imaged pattern can be determined using the principle of triangulation. A set of 3D coordinates on the workpiece surface is sometimes referred to as a point cloud. For example, a point cloud can be created from the entire workpiece 2528 by moving the 6-DOF scanner 2500 on the surface with a spindle or the like.

スキャナ光源が点状光を発する場合、この点は、例えば移動するミラーによってスキャンされてもよく、それによって線または線の配列が生成される。スキャナ光源が線状光を発する場合、この線は、例えば移動するミラーでスキャンされてもよく、それによって線の配列が生成される。ある実施形態において、光源パターンはLED、レーザ、またはTexas InstrumentsのDLP(digital light projector)等のDMD(digital micromirror device)、LDC(液晶装置)、またはLCOS(liquid crystal on silicon)装置で反射される他の光源であってもよく、あるいは反射モードではなく透過モードで使用される同様の装置であってもよい。光源パターンはまた、スライドパターン、例えばchrome−on−glassスライドであってもよく、これは単独のパターンまたは複数のパターンを有していてもよく、スライドは必要に応じて所定の位置へと移動され、またそこから外される。レトロリフレクタ2511等の追加のレトロリフレクタを第一のレトロリフレクタ2510に追加して、レーザトラッカが様々な方向から6−DOFスキャナを追跡できるようにしてもよく、それによって光を6−DOFプロジェクタ2500により投影できる方向という点での柔軟性が増大する。   If the scanner light source emits point light, this point may be scanned, for example by a moving mirror, thereby generating a line or an array of lines. If the scanner light source emits linear light, this line may be scanned, for example with a moving mirror, thereby generating an array of lines. In one embodiment, the light source pattern is an LED, a laser, or a DMD (digital micromirror device) such as Texas Instruments' digital light projector (DLP), a liquid crystal device (LDC), or a liquid crystal on LCOS (liquid crystal device). Other light sources may be used, or similar devices used in transmission mode rather than reflection mode. The light source pattern may also be a slide pattern, such as a chroma-on-glass slide, which may have a single pattern or multiple patterns, and the slide moves to a predetermined position as needed. Is removed from there. Additional retro-reflectors such as retro-reflector 2511 may be added to the first retro-reflector 2510 to allow the laser tracker to track the 6-DOF scanner from various directions, thereby directing light to the 6-DOF projector 2500. Increases the flexibility in terms of the direction in which it can be projected.

6−DOFスキャナ2500は、手で持っても、または例えば三脚、計器スタンド、電動キャリッジ、またはロボットエンドエフェクタに取り付けてもよい。被加工物2528の三次元座標は、スキャナカメラ2530により、三角測量の原理を利用して測定される。三角測量による測定方法には、スキャナ光源2520により発せられる光のパターンおよび感光体アレイ2534の種類に応じていくつかある。例えば、スキャナ光源2520により発せられるパターン光が線状光か、線の形状にスキャンされる点状光であり、感光体アレイ2534が2次元アレイである場合、2次元アレイ2534の一方の次元は被加工物2528の表面上の点2526の方向に対応する。2次元アレイ2534の他方の次元はスキャナ光源2520からの点2526の距離に対応する。したがって、スキャナ光源2520より発せられた線状光に沿った各点2526の、6−DOFスキャナ2500の三次元座標が、局所基準フレームに関してわかる。6−DOFスキャナの6自由度は、‘758号特許に記載されている方法を使って、6DOFレーザトラッカにより把握される。6自由度から、スキャンされた線状光の3次元座標をトラッカの基準フレーム内で特定でき、それは、レーザトラッカが例えば被加工物上の3つの点を測定することにより、被加工物2528の基準フレームに変換されてもよい。   The 6-DOF scanner 2500 may be held by hand or attached to a tripod, instrument stand, electric carriage, or robot end effector, for example. The three-dimensional coordinates of the workpiece 2528 are measured by the scanner camera 2530 using the principle of triangulation. There are several measurement methods by triangulation depending on the pattern of light emitted by the scanner light source 2520 and the type of the photoreceptor array 2534. For example, when the pattern light emitted from the scanner light source 2520 is linear light or dot light scanned in the shape of a line, and the photosensitive element array 2534 is a two-dimensional array, one dimension of the two-dimensional array 2534 is This corresponds to the direction of the point 2526 on the surface of the workpiece 2528. The other dimension of the two-dimensional array 2534 corresponds to the distance of the point 2526 from the scanner light source 2520. Therefore, the three-dimensional coordinates of the 6-DOF scanner 2500 at each point 2526 along the linear light emitted from the scanner light source 2520 are known with respect to the local reference frame. The six degrees of freedom of the 6-DOF scanner is grasped by the 6DOF laser tracker using the method described in the '758 patent. With six degrees of freedom, the three-dimensional coordinates of the scanned linear light can be identified within the tracker's reference frame, which means that the laser tracker measures, for example, three points on the workpiece, It may be converted into a reference frame.

6−DOFスキャナ2500を手で持った場合、スキャナ光源2520により発せられるレーザ光の線を、被加工物2528の表面を「塗る(ペイント)」ように移動させてもよく、それによって表面全体の3次元座標が得られる。また、構造化光パターンを発するスキャナ光源2520を使って、被加工物表面を「塗る」ことも可能である。あるいは、構造化光パターンを発するスキャナ2500を使用する場合、6−DOFスキャナを三脚または計器スタンドに取り付けることによって、より正確な測定を行うことができる。スキャナ光源2520により発せられる構造化光パターンは、例えば、フリンジパターンを含んでいてもよく、各フリンジの照度は被加工物2528の表面上で正弦波状に変化する。ある実施形態において、正弦波は3つまたはそれ以上の位相値だけシフトされる。3つまたはそれ以上の位相値の各々についてカメラ2530の各画素が記録する振幅レベルは、正弦波状の各画素の位置を提供するために使用される。この情報の使用は、各点2526の3次元座標を判定するのに役立つ。他の実施形態において、構造化光は、符号化されたパターンの形態であってもよく、これを評価して、カメラ2530により収集される、複数ではなく1つの画像フレームに基づいて3次元座標を判定できる。符号化されたパターンを使用することにより、6−DOFスキャナ2500を手で妥当な速度で移動させながら、比較的正確な測定を行うことが可能となりうる。   When the 6-DOF scanner 2500 is held by hand, the line of laser light emitted by the scanner light source 2520 may be moved to “paint” the surface of the workpiece 2528, thereby Three-dimensional coordinates are obtained. It is also possible to “paint” the surface of the workpiece using a scanner light source 2520 that emits a structured light pattern. Alternatively, when using a scanner 2500 that emits a structured light pattern, more accurate measurements can be made by attaching the 6-DOF scanner to a tripod or instrument stand. The structured light pattern emitted by the scanner light source 2520 may include, for example, a fringe pattern, and the illuminance of each fringe changes sinusoidally on the surface of the workpiece 2528. In some embodiments, the sine wave is shifted by three or more phase values. The amplitude level recorded by each pixel of camera 2530 for each of three or more phase values is used to provide the position of each pixel in a sinusoidal shape. The use of this information helps to determine the three-dimensional coordinates of each point 2526. In other embodiments, the structured light may be in the form of an encoded pattern that is evaluated and evaluated in three-dimensional coordinates based on a single image frame rather than a plurality collected by the camera 2530. Can be determined. By using the encoded pattern, it may be possible to make a relatively accurate measurement while moving the 6-DOF scanner 2500 by hand at a reasonable speed.

線状光に対して、構造化光パターンを投影することにはいくつかの利点がある。LLP等の手持ち式の6−DOFスキャナ2500から投影された線状光において、点の密度は線に沿って高く、線間ではずっと低くてもよい。構造化光パターンでは、点間の空間は通常、2つの直交する方向の各々において略同じである。それに加えて、いくつかの動作モードにおいて、構造化光パターンで計算された3次元の点は、他の手法より正確であるかもしれない。例えば、6−DOFスキャナ2500を、例えばそれを静止スタンドまたはマウントに取り付けることによって所定の位置に固定することにより、一連の構造化光パターンを発してもよく、それによって1つのパターンが捕捉される他の手法(すなわち、シングルショット方式)で可能なものより正確に計算できる。一連の構造化光パターンの一例は、第一の空間周波数を有するパターンが物体に投影されるものである。ある実施形態において、投影されたパターンは、光学パワーが正弦波状に変化する縞状パターンである。ある実施形態において、正弦波状に変化すパターンの位相がシフトされ、それによって縞が側方にシフトする。例えば、パターンは、前のパターンに関して毎回120度ずつシフトされる3つの位相角度で投影されてもよい。この投影シーケンスにより、背景光に関係なく、パターンの各点の位相を比較的正確に判定するのに十分な情報が提供される。これは、物体表面上の隣接点を考慮せずに、点ごとに行うことができる。   Projecting a structured light pattern to linear light has several advantages. In linear light projected from a handheld 6-DOF scanner 2500 such as LLP, the density of points may be high along the lines and much lower between the lines. In a structured light pattern, the space between points is usually substantially the same in each of two orthogonal directions. In addition, in some modes of operation, 3D points calculated with structured light patterns may be more accurate than other approaches. For example, a series of structured light patterns may be emitted by fixing the 6-DOF scanner 2500 in place, for example by attaching it to a stationary stand or mount, thereby capturing one pattern. It can be calculated more accurately than is possible with other methods (ie, single shot method). An example of a series of structured light patterns is one in which a pattern having a first spatial frequency is projected onto an object. In some embodiments, the projected pattern is a striped pattern in which the optical power varies sinusoidally. In some embodiments, the phase of the sinusoidally changing pattern is shifted, thereby shifting the fringes laterally. For example, the pattern may be projected at three phase angles that are shifted 120 degrees each time with respect to the previous pattern. This projection sequence provides sufficient information to determine the phase of each point of the pattern relatively accurately, regardless of background light. This can be done point by point without considering adjacent points on the object surface.

上述の手順は、2つの隣接する線間の位相範囲が0〜360度にわたる場合の各点の位相を判定するが、どの線がどれか、という点については依然として疑問があるかもしれない。線を特定する方法は、上述のように位相シーケンスを繰り返すが、異なる空間周波数(すなわち、異なるフランジピッチ)を持つ正弦波パターンを使用することである。場合により、3つまたは4つの異なるフリンジピッチについて同じ方法を繰り返す必要がある。この方法を使って不明瞭さを排除する方法は、当業界でよく知られており、ここではこれ以上説明しない。   The above procedure determines the phase of each point when the phase range between two adjacent lines extends from 0 to 360 degrees, but there may still be doubt as to which line is which. A way to identify the line is to use a sinusoidal pattern that repeats the phase sequence as described above, but with different spatial frequencies (ie, different flange pitches). In some cases, the same method needs to be repeated for three or four different fringe pitches. Methods for eliminating ambiguity using this method are well known in the art and will not be described further here.

上述の正弦波位相シフト方式等の連続的投影方法を使ってできるだけ高い精度を得るために、6−DOFスキャナの動きを最小限にすることが有利であるかもしれない。6−DOFスキャナの位置と方位は、レーザトラッカにより行われる6−DOF測定からわかり、また手持ち式の6−DOFスキャナの動きに関する補正を行うことは可能であるが、結果として生じるノイズは、スキャナがそれを静止したマウント、スタンド、または固定具に設置することによって静止した状態に保たれる場合より幾分大きくなるであろう。   In order to obtain as high accuracy as possible using a continuous projection method such as the sinusoidal phase shift method described above, it may be advantageous to minimize the movement of the 6-DOF scanner. The position and orientation of the 6-DOF scanner can be determined from the 6-DOF measurement performed by the laser tracker, and it is possible to correct for the movement of the hand-held 6-DOF scanner, but the resulting noise is Will be somewhat larger than if it were kept stationary by placing it on a stationary mount, stand, or fixture.

図15により表されるスキャニング方法は、三角測量の原理に基づいている。三角測量の原理を、図15Aのシステム2560および図15Bのシステム4760を参照しながらより詳しく説明する。まず図15Aを参照すると、システム2560は、プロジェクタ2562と、カメラ2564と、を含む。プロジェクタ2562は、光源平面内にある光源パターン2570と、プロジェクタレンズ2572と、を含む。プロジェクタレンズはいくつかのレンズエレメントを含んでいてもよい。プロジェクタレンズは、レンズ透視投影中心2575とプロジェクタ光軸2576を有する。光線2573は、光源パターン上の点2571からレンズ透視投影中心を通って物体2590へと進み、点2574においてそこに当たる。   The scanning method represented by FIG. 15 is based on the principle of triangulation. The principle of triangulation will be described in more detail with reference to system 2560 in FIG. 15A and system 4760 in FIG. 15B. Referring first to FIG. 15A, system 2560 includes a projector 2562 and a camera 2564. Projector 2562 includes light source pattern 2570 in the light source plane and projector lens 2572. The projector lens may include several lens elements. The projector lens has a lens perspective projection center 2575 and a projector optical axis 2576. Ray 2573 travels from point 2571 on the light source pattern through the lens perspective projection center to object 2590 and strikes it at point 2574.

カメラ2564は、カメラレンズ2582と、感光体アレイ2580と、を含む。カメラレンズ2582は、レンズ透視投影中心2585と光軸2586を有する。光線2583は、物体上の点2574からカメラ透視投影中心2585を通って感光体アレイ2580に点2581において当たる。   Camera 2564 includes a camera lens 2582 and a photoreceptor array 2580. The camera lens 2582 has a lens perspective projection center 2585 and an optical axis 2586. Ray 2583 strikes the photoreceptor array 2580 at point 2581 from point 2574 on the object, through the camera perspective projection center 2585.

透視投影中心をつなぐ線分は、図15Aにおいてベースライン2588と図15Bのベースライン4788である。ベースラインの長さはベースライン長(2592、4792)と呼ばれる。プロジェクタ光軸とベースラインとの間の角度は、ベースラインプロジェクタ角度(2594、4794)である。カメラ光軸(2586、4786)とベースラインとの間の角度は、ベースラインカメラ角度(2596、4796)である。光源パターン上のある点(2571、4771)が感光体アレイ上のある点(2581、4781)に対応することがわかっている場合、ベースライン長、ベースラインプロジェクタ角度、およびベースラインカメラ角度を使って、点2585、2574、および2575をつなぐ三角形の辺を判定し、したがって、物体2590の表面上の点の、測定システム2560の基準フレームに関する表面座標を判定することが可能となる。これを行うために、図15に関して説明したような三角測量方式が使用される。プロジェクタレンズ2572と光源パターン2570との間の小さい三角形の辺の角度は、レンズ2572と平面2570との間の既知の距離と、点2571と光軸2576が平面2570と交差する点との間の距離を使って特定される。これらの小さい角度は、必要に応じてより大きい角度2596と2594に加算し、またはそこから差し引くことにより、三角形の所望の角度が得られる。当業者にとっては、同等の数学的手法を使って三角形2574−2585−2575の辺の長さを特定できること、または他の関連する三角形を使って、物体2590の表面の所望の座標を得てもよいことは明らかであろう。   The line segment connecting the perspective projection centers is the base line 2588 in FIG. 15A and the base line 4788 in FIG. 15B. The length of the baseline is called the baseline length (2592, 4792). The angle between the projector optical axis and the baseline is the baseline projector angle (2594, 4794). The angle between the camera optical axis (2586, 4786) and the baseline is the baseline camera angle (2596, 4796). If it is known that a point (2571, 4771) on the light source pattern corresponds to a point (2581, 4781) on the photoreceptor array, the baseline length, baseline projector angle, and baseline camera angle are used. Thus, it is possible to determine the sides of the triangle connecting points 2585, 2574, and 2575 and thus determine the surface coordinates of the points on the surface of object 2590 relative to the reference frame of measurement system 2560. To do this, a triangulation scheme as described with respect to FIG. 15 is used. The angle of the small triangular side between the projector lens 2572 and the light source pattern 2570 is between the known distance between the lens 2572 and the plane 2570 and the point where the point 2571 and the optical axis 2576 intersect the plane 2570. Identified using distance. These small angles can be added to or subtracted from the larger angles 2596 and 2594 as necessary to obtain the desired angle of the triangle. For those skilled in the art, equivalent mathematical techniques can be used to determine the length of the sides of triangle 2574-2585-2575, or other related triangles can be used to obtain the desired coordinates of the surface of object 2590. It will be clear that it is good.

まず図15Bを参照すると、システム4760は図15Aのシステム2560と、システム4760がレンズを含まない点以外は同様である。システムは、プロジェクタ4762とカメラ4764を含んでいてもよい。図15Bに示される実施形態において、プロジェクタは光源4778と光モジュレータ4770を含む。光源4778は、レーザ光源であってもよく、これは、そのような光源が図15Bの形状を使用すれば長距離にわたって焦点の合った状態に保たれるからである。光源4778からの光線4773は、光モジュレータ4770に点4771において当たる。光源4778からの他の光線は、光モジュレータに、モジュレータ表面上の他の位置において当たる。ある実施形態において、光モジュレータ4770は発せられる光のパワーを変化させ、これはほとんどの場合、光パワーをある程度減衰させることによって行われる。この場合、光モジュレータは、光学パターンを光に付与し、これはここでは光源パターンと呼ばれ、それは光学モジュレータ4770の表面上にある。光モジュレータ4770は例えばDLPまたはLCOS装置であってもよい。いくつかの実施形態において、モジュレータ4770は反射型ではなく透過型である。光モジュレータ4770から発せられた光は、仮想光透視投影中心4775から発せられるように見える。光線は、仮想光透視投影中心4775から発せられ、点4771を通り、物体4790の表面の点4774へと進む。   Referring first to FIG. 15B, system 4760 is similar to system 2560 of FIG. 15A, except that system 4760 does not include a lens. The system may include a projector 4762 and a camera 4764. In the embodiment shown in FIG. 15B, the projector includes a light source 4778 and a light modulator 4770. The light source 4778 may be a laser light source because such a light source is kept in focus over a long distance using the shape of FIG. 15B. Light ray 4773 from light source 4778 strikes light modulator 4770 at point 4771. Other rays from light source 4778 strike the light modulator at other locations on the modulator surface. In some embodiments, the light modulator 4770 changes the power of the emitted light, which is most often done by a certain amount of attenuation of the light power. In this case, the light modulator imparts an optical pattern to the light, referred to herein as the light source pattern, which is on the surface of the optical modulator 4770. The optical modulator 4770 may be, for example, a DLP or LCOS device. In some embodiments, modulator 4770 is transmissive rather than reflective. The light emitted from the light modulator 4770 appears to be emitted from the virtual fluoroscopic projection center 4775. Rays are emitted from the virtual fluoroscopic projection center 4775 and travel through point 4771 to point 4774 on the surface of object 4790.

ベースラインは、カメラレンズ透視投影中心4785から仮想光透視投影中心4775まで延びる線分である。一般に、三角測量の方法には、三角形、例えば頂点4774、4785、および4775を有する三角形の辺の長さを特定することが含まれる。これを行うための1つの方法は、ベースライン長と、ベースラインとカメラ光軸4786との間の角度、およびベースラインとプロジェクタ基準軸4776との間の角度を特定することである。所望の角度を特定するために、追加の、より小さい角度が特定される。例えば、カメラ光軸4786と光線4783との間の小さい角度は、カメラレンズ4782と感光体アレイ4780との間の小さい三角形の角度を、レンズから感光体アレイまでの距離とカメラ光軸から画素までの距離に基づいて解くことにより特定できる。すると、小さい三角形の角度がベースラインとカメラ光軸との間の角度に加算されて、所望の角度が特定される。プロジェクタについても同様に、プロジェクタ基準軸4776と光線4773との間の角度は、これら2つの線間の小さい三角形の角度を、光源4777と光モジュレータの表面との既知の距離と、基準軸4776が光モジュレータ4770の表面と交差する点から4771におけるプロジェクタ画素の距離に基づいて解くことによって特定される。この角度をベースラインとプロジェクタ基準軸との間の角度から差し引くことにより、所望の角度が得られる。   The base line is a line segment extending from the camera lens perspective projection center 4785 to the virtual light perspective projection center 4775. In general, triangulation methods include identifying the length of the sides of a triangle, eg, a triangle having vertices 4774, 4785, and 4775. One way to do this is to identify the baseline length, the angle between the baseline and the camera optical axis 4786, and the angle between the baseline and the projector reference axis 4776. In order to identify the desired angle, additional, smaller angles are identified. For example, the small angle between the camera optical axis 4786 and the light beam 4783 is the small triangular angle between the camera lens 4784 and the photoreceptor array 4780, the distance from the lens to the photoreceptor array and the camera optical axis to the pixel. It can be specified by solving based on the distance. The small triangle angle is then added to the angle between the baseline and the camera optical axis to identify the desired angle. Similarly for projectors, the angle between projector reference axis 4776 and ray 4773 is the angle of the small triangle between these two lines, the known distance between light source 4777 and the surface of the light modulator, and reference axis 4776 is It is specified by solving based on the distance of the projector pixel at 4771 from the point intersecting the surface of the light modulator 4770. By subtracting this angle from the angle between the baseline and the projector reference axis, the desired angle is obtained.

カメラ4764は、カメラレンズ4782と感光体アレイ4780を含む。カメラレンズ4782は、カメラレンズ透視投影中心4785とカメラ光軸4786を有する。カメラ光軸は、カメラ基準軸の例である。数学的観点から、カメラレンズ透視投影中心を通過する軸はすべて、三角測量の計算においては同等に容易に使用できるが、レンズの対称軸であるカメラ光軸が慣例的に選択される。光線4783は、物体上の点4774からカメラ透視投影中心4785を通り、感光体アレイ4780に点4781で当たる。他の同等の数学的手法を使って、三角形4774−4785−4775の辺の長さを解いてもよく、これは当業者にとって明白であろう。   The camera 4764 includes a camera lens 4782 and a photoreceptor array 4780. The camera lens 4782 has a camera lens perspective projection center 4785 and a camera optical axis 4786. The camera optical axis is an example of a camera reference axis. From a mathematical point of view, any axis that passes through the camera lens perspective projection center can be used equally easily in triangulation calculations, but the camera optical axis, which is the lens's symmetry axis, is routinely selected. Ray 4783 passes from the point 4774 on the object through the camera perspective projection center 4785 and strikes the photoreceptor array 4780 at point 4781. Other equivalent mathematical techniques may be used to solve the side lengths of triangles 4774-4785-4775, as will be apparent to those skilled in the art.

ここで説明する三角測量法はよく知られているが、完全を期すために、以下に追加の技術的情報を提供する。各レンズシステムは入射瞳と射出瞳を有する。入射瞳は、一次光学系の観点から考えたときに、そこから光が現れるように見える点である。射出瞳は、光がレンズシステムから感光体アレイへと進む際に現れるように見える点である。マルチエレメントレンズシステムに関して、入射瞳と射出瞳は必ずしも一致するとはかぎらず、入射瞳と射出瞳に関する光線の角度は必ずしも同じとはかぎらない。しかしながら、モデルは、透視投影中心をレンズの入射瞳と考え、その後、レンズから光源または結像面までの距離を調整して、光線が引き続き直線に沿って進み、光源または結像面に入射するようにすることにより、単純化できる。このようにして、図15Aに示されるような、単純で広く使用されるモデルが得られる。理解すべき点として、この説明は光の挙動の良好な一次近似を提供するが、図15Aのモデルを使って計算された位置に関して光線を若干変位させる可能性のあるレンズ収差について、さらに細かい補正を行うことができる。ベースライン長、ベースラインプロジェクタ角度、およびベースラインカメラ角度が一般的に使用されているが、理解すべき点として、これらの数量が必要であると述べても、他の同様であるが若干異なる公式を適用できる可能性が排除されるわけではなく、その場合も、本明細書に記載されている説明における一般性は損なわれない。   The triangulation method described here is well known, but for completeness, additional technical information is provided below. Each lens system has an entrance pupil and an exit pupil. The entrance pupil is a point where light appears to appear from the viewpoint of the primary optical system. The exit pupil is the point at which light appears to appear as it travels from the lens system to the photoreceptor array. For a multi-element lens system, the entrance and exit pupils do not necessarily match, and the angle of the rays with respect to the entrance and exit pupils is not necessarily the same. However, the model considers the perspective projection center as the entrance pupil of the lens and then adjusts the distance from the lens to the light source or imaging plane so that the rays continue along a straight line and enter the light source or imaging plane By doing so, it can be simplified. In this way, a simple and widely used model is obtained as shown in FIG. 15A. It should be understood that this description provides a good first-order approximation of the light behavior, but a finer correction for lens aberrations that may slightly shift the ray with respect to the position calculated using the model of FIG. 15A. It can be performed. Baseline length, baseline projector angle, and baseline camera angle are commonly used, but it should be understood that saying these quantities are necessary is similar but slightly different The possibility of applying the formula is not excluded, and in that case the generality in the description provided herein is not impaired.

6−DOFスキャナを使用する際、数種類のスキャンパターンを使用してもよく、異なる種類を組み合わせて、最短時間で最良の性能を得ることができれば有利であるかもしれない。例えば、ある実施形態において、高速測定方法は2次元の符号化されたパターンを使用してもよく、この場合、3次元座標データはシングルショットで得られる。符号化されたパターンの使用方法において、例えば異なる文字、異なる形状、異なる厚さもしくは大きさ、または異なる色を使って、異なる要素を提供してもよく、これは符号化された要素または符号化された特徴とも呼ばれる。このような特徴は、点2571を点2581にマッチさせることができるようにするために使用されてもよい。光源パターン2570上の符号化された特徴は、感光体アレイ2580上で識別されてもよい。   When using a 6-DOF scanner, several types of scan patterns may be used, and it may be advantageous if different types can be combined to obtain the best performance in the shortest time. For example, in one embodiment, the fast measurement method may use a two-dimensional encoded pattern, in which case the three-dimensional coordinate data is obtained in a single shot. In the usage of the encoded pattern, different elements may be provided, for example using different letters, different shapes, different thicknesses or sizes, or different colors, which are encoded elements or encodings. Also called feature. Such a feature may be used to allow point 2571 to be matched to point 2581. Encoded features on the light source pattern 2570 may be identified on the photoreceptor array 2580.

符号化された特徴のマッチングを単純化するために使用可能な方式は、エピポーラ線の使用である。エピポーラ線は数学的な線であり、エピポーラ面と光源面2570または結像面2580との交差により形成される。エピポーラ面は、プロジェクタの透視投影中心とカメラの透視投影中心を通るあらゆる面である。光源面と結像面の上のエピポーラ線はある特殊な場合においては平行であってもよいが、一般には平行でない。エピポーラ線のある態様は、プロジェクタ面上のあるエピポーラ線が結像面上に対応するエピポーラ線を有する、というものである。したがって、プロジェクタ面内のエピポーラ線に関する何れの特定の既知のパターンでも、結像面内で直ちに観察され、評価されてもよい。例えば、符号化されたパターンがプロジェクタ面内のエピポーラ線に沿って配置されている場合、結像面内の符号化された要素間の間隔は、感光体アレイ2580の画素により読み取られる数値を使って判定されてもよく、この情報は、物体上の点2574の3次元座標を判定するために使用されてもよい。また、符号化されたパターンをエピポーラ線に関して既知の角度で傾けて、物体表面座標を効率的に抽出することもできる。   A scheme that can be used to simplify the matching of the encoded features is the use of epipolar lines. The epipolar line is a mathematical line, and is formed by the intersection of the epipolar surface and the light source surface 2570 or the imaging surface 2580. The epipolar plane is any plane that passes through the perspective projection center of the projector and the perspective projection center of the camera. Epipolar lines on the light source plane and the imaging plane may be parallel in some special cases, but are generally not parallel. One aspect of the epipolar line is that one epipolar line on the projector plane has a corresponding epipolar line on the imaging plane. Thus, any particular known pattern for epipolar lines in the projector plane may be immediately observed and evaluated in the imaging plane. For example, if the encoded pattern is arranged along an epipolar line in the projector plane, the spacing between the encoded elements in the imaging plane uses the numerical value read by the pixels of the photoreceptor array 2580. This information may be used to determine the three-dimensional coordinates of point 2574 on the object. It is also possible to efficiently extract the object surface coordinates by tilting the encoded pattern at a known angle with respect to the epipolar line.

符号化されたパターンを使用する利点は、物体表面上の点に関する3次元座標を素早く取得できることである。しかしながら、ほとんどの場合、前述のような正弦波位相シフト方式等の連続構造化光方式のほうが、より正確な結果を生む。したがって、使用者は、有利な点として、所望の精度に応じた異なる投影方法を使って特定の物体または特定の物体領域もしくは特徴を測定するように選択できる。プログラム可能な光源パターンを使用することにより、このような選択を容易に行うことができる。   The advantage of using an encoded pattern is that 3D coordinates for points on the object surface can be quickly obtained. However, in most cases, the continuous structured light method such as the sine wave phase shift method as described above produces more accurate results. Thus, the user can advantageously choose to measure a specific object or a specific object region or feature using different projection methods depending on the desired accuracy. Such a selection can be easily made by using a programmable light source pattern.

本発明のある実施形態によれば、図15の6−DOF三角計測スキャナ2500はまた、拡張現実(AR)カメラ2508を含む。ARカメラ2508は、「全視野」画像を撮影できるものと考えてよい。ARカメラ2508は、カメラレンズ2502と感光体アレイ2504を含む。感光体アレイ2504は、例えばCCDまたはCMOSアレイであってもよい。それゆえ、ARカメラ2508は性格上、デジタルであってもよく、静止画像またはビデオ画像を撮影してもよい。   According to one embodiment of the invention, the 6-DOF triangulation scanner 2500 of FIG. 15 also includes an augmented reality (AR) camera 2508. The AR camera 2508 may be considered to be able to capture “full field of view” images. The AR camera 2508 includes a camera lens 2502 and a photoreceptor array 2504. The photoreceptor array 2504 may be a CCD or CMOS array, for example. Therefore, the AR camera 2508 may be digital in nature and may capture still images or video images.

図15に示されるように、ARカメラ2508は6−DOF三角計測スキャナ2500の本体2514に破線2506で接続されている。しかしながら、これは例示を目的としているにすぎない。ARカメラ2508は、スキャナ本体2014の一体部分であってもよい。本明細書で使用されるかぎり、「一体」という用語は、ARカメラ2508がスキャナ本体2014に永久的または一時的に取り付けられて、ARカメラ2508がスキャナ本体2014に関して固定された空間関係にあることを意味する。いずれの方法でも、スキャナ2500の6自由度が前述のようにわかっているため、ARカメラ2508の6自由度(すなわち、「姿勢」)は、ARカメラ2508により撮影された各画像に関してわかる。そのため、レーザトラッカ、6−DOFスキャナ2500、およびARカメラ2508はすべて、共通の基準フレーム内に設置されてもよい。ある実施形態において、ARカメラは、三角測量においても使用されるカメラでもある。換言すれば、ある実施形態において、ARカメラは図15のカメラ2530である。   As shown in FIG. 15, the AR camera 2508 is connected to the main body 2514 of the 6-DOF triangular measurement scanner 2500 by a broken line 2506. However, this is for illustration purposes only. The AR camera 2508 may be an integral part of the scanner main body 2014. As used herein, the term “integral” means that the AR camera 2508 is permanently or temporarily attached to the scanner body 2014 and the AR camera 2508 is in a fixed spatial relationship with respect to the scanner body 2014. Means. In any method, since the six degrees of freedom of the scanner 2500 are known as described above, the six degrees of freedom (ie, “posture”) of the AR camera 2508 is known for each image taken by the AR camera 2508. Thus, the laser tracker, 6-DOF scanner 2500, and AR camera 2508 may all be installed in a common reference frame. In some embodiments, the AR camera is also a camera used in triangulation. In other words, in one embodiment, the AR camera is the camera 2530 of FIG.

レンズ2502(複数のレンズエレメントを含むレンズシステムであってもよい)は、レンズの透視投影中心である。レンズ2502を通過する光線は、透視投影中心を通過してから感光体アレイ2504に到達すると考えられてもよい。慎重に行われる分析において、レンズ2502は、感光体アレイ2504上での光線の交差位置が若干ずれる原因となるレンズ収差を生じさせることを特徴とするかもしれない。しかしながら、一般性を損なうことなく、光線は透視投影中心を通過し、画像の収差補正は画像処理の別のステップ内で提供される、ということができる。   The lens 2502 (which may be a lens system including a plurality of lens elements) is the perspective projection center of the lens. It may be considered that the light beam passing through the lens 2502 reaches the photoconductor array 2504 after passing through the perspective projection center. In careful analysis, the lens 2502 may be characterized by causing lens aberrations that cause the light beam intersection position on the photoreceptor array 2504 to be slightly misaligned. However, without loss of generality, it can be said that the rays pass through the perspective projection center and that aberration correction of the image is provided within another step of image processing.

調査対象物体の表面は、レンズ2502によって感光体アレイ2504上に結像され、感光体アレイ2504の一部である画素集合の上に画像が形成される。各画素に当たる光は、カメラのインテグレーション期間中に、電荷からデジタル信号に変換される。感光体アレイ2504の中にある(CMOSアレイの場合)またはアレイの外にある(CCDアレイの場合)アナログ−デジタル変換器は、アナログからデジタル信号への変換を実行する。各画素のための信号は典型的に、8〜12ビットの間のバイナリ表現で提供される。これらのビットの1と0はパラレルチャネルで運ばれ、バスライン上で伝送するために、シリアライザ/デシリアライザの機能を使ってシリアル形態に変換されてもよい。   The surface of the object to be investigated is imaged on the photoreceptor array 2504 by the lens 2502, and an image is formed on a pixel set that is a part of the photoreceptor array 2504. Light that strikes each pixel is converted from a charge to a digital signal during the integration period of the camera. An analog-to-digital converter that is either inside the photoreceptor array 2504 (in the case of a CMOS array) or outside the array (in the case of a CCD array) performs an analog to digital signal conversion. The signal for each pixel is typically provided in a binary representation between 8-12 bits. These bits 1 and 0 are carried in the parallel channel and may be converted to serial form using the serializer / deserializer function for transmission on the bus line.

前述のように、6−DOF三角計測スキャナ2500は、本発明の実施形態においては手持ち式である。しかしながら、他の実施形態では、スキャナ2500は、それを静止したマウント、スタンド、または固定具、例えば三脚に設置することによって静止状態に保持してもよい。さらに、6−DOF三角計測スキャナ2500の位置と方位は前述のようにレーザトラッカによる6−DOF測定からわかり、手に持たれた6−DOFスキャナ2500の動きについての補正を行うことができるものの、結果として生じるノイズは、スキャナ2500が静止状態に保たれた場合より幾分大きくなるかもしれない。6−DOF三角計測スキャナ2500をロボットまたは機械ツールに取り付けることも可能である。   As described above, the 6-DOF triangulation scanner 2500 is handheld in the embodiment of the present invention. However, in other embodiments, the scanner 2500 may be held stationary by placing it on a stationary mount, stand, or fixture, such as a tripod. Furthermore, although the position and orientation of the 6-DOF triangulation scanner 2500 can be known from the 6-DOF measurement by the laser tracker as described above, the movement of the 6-DOF scanner 2500 held by the hand can be corrected. The resulting noise may be somewhat greater than if the scanner 2500 was kept stationary. It is also possible to attach the 6-DOF triangulation scanner 2500 to a robot or machine tool.

本発明の実施形態において、6−DOF三角計測スキャナ2500(それ自体はレーザトラッカと共に使用される)の一部である拡張現実カメラ2508により撮影された複数の2次元(2D)カメラ画像は、以下に説明する方法に従って相互に結合または「位置合わせ」されて、例えば、ある物体の表面等の各種の実世界の特徴または何れかの実世界の光景(例えばビルの内部、車両事故の現場、または犯罪現場)の3次元(3D)画像表現を得る。この方法は、一体のARカメラ2508を有するスキャナ2500の姿勢または6自由度がARカメラ2508により撮影された各々の2D写真または画像についてわかるため、ARカメラ2508により撮影された複数の2D写真画像を相互に結合して、3D画像を形成してもよいという事実に基づいている。   In an embodiment of the present invention, a plurality of two-dimensional (2D) camera images taken by an augmented reality camera 2508 that is part of a 6-DOF triangulation scanner 2500 (which is itself used with a laser tracker) are: Coupled or “aligned” to each other in accordance with the methods described in, eg, various real-world features such as the surface of an object or any real-world scene (eg, the interior of a building, the scene of a vehicle accident, or Get a three-dimensional (3D) image representation of the crime scene. In this method, since the posture or 6 degrees of freedom of the scanner 2500 having an integrated AR camera 2508 is known for each 2D photograph or image captured by the AR camera 2508, a plurality of 2D photograph images captured by the AR camera 2508 are used. Based on the fact that they may be combined together to form a 3D image.

3D画像または複合3D画像という用語は、本明細書で使用されるかぎり、記録された光景の、様々な観点からの2次元で表示可能な表現を意味するものと解釈され、表示された2D画像は観点によって変化し、その光景の3D表現が観察者のために再形成される。それに加えて、3D画像内で観察される点に関する3D座標の数値が抽出されてもよい。   As used herein, the term 3D image or composite 3D image is taken to mean a two-dimensional displayable representation of the recorded scene from various perspectives, and a displayed 2D image. Changes from viewpoint to viewpoint, and a 3D representation of the scene is recreated for the viewer. In addition, 3D coordinate values for points observed in the 3D image may be extracted.

ここで、この実施形態による方法を、図16の方法1600を参照しながら説明する。ステップ1605で、6−DOF三角計測スキャナ2500と座標測定装置が提供される。6−DOFスキャナ2500はまた、図15に関して上で説明したように、レトロリフレクタ2510と、一体のARカメラ2508と、も含む。座標測定装置は、前述のレーザトラッカ5等のレーザトラッカを含んでいてもよく、装置基準フレームを有し、6−DOF三角計測スキャナ2500から分離されている。座標測定装置は、方位センサと、第一および第二のモータと、第一および第二の角度測定装置と、距離計と、位置検出器と、制御システムと、プロセッサと、を含む。レーザトラッカとARカメラ付の6−DOFスキャナは、上で説明し、例示したものと同じか同様であってもよい。   The method according to this embodiment will now be described with reference to the method 1600 of FIG. In step 1605, a 6-DOF triangulation scanner 2500 and a coordinate measurement device are provided. The 6-DOF scanner 2500 also includes a retro-reflector 2510 and an integral AR camera 2508 as described above with respect to FIG. The coordinate measuring device may include a laser tracker such as the laser tracker 5 described above, has a device reference frame, and is separated from the 6-DOF triangular measurement scanner 2500. The coordinate measuring device includes an orientation sensor, first and second motors, first and second angle measuring devices, a distance meter, a position detector, a control system, and a processor. The laser tracker and 6-DOF scanner with AR camera may be the same as or similar to those described and illustrated above.

ステップ1610は、第一の場合において、装置を使ってレトロリフレクタの2つの回転角度とそこまでの距離および6−DOF三角計測スキャナ2500の3つの方位自由度を測定するステップである。このステップでは、2D画像もARカメラ2508上に形成される。6−DOFスキャナ2500内の電子装置用回路板2542は、ARカメラ2508からの位置および方位情報を処理および/または送信してもよい。電子装置用回路板2542はまた、カメラレンズ2502を通じて感光体アレイ2504に送られる2D画像を表現する第一のデジタル信号も受信してよい。   Step 1610 is a step of measuring, in the first case, two rotational angles of the retroreflector and the distance to the retroreflector and three orientation degrees of freedom of the 6-DOF triangulation scanner 2500 using the apparatus. In this step, a 2D image is also formed on the AR camera 2508. The electronic device circuit board 2542 in the 6-DOF scanner 2500 may process and / or transmit position and orientation information from the AR camera 2508. The electronic device circuit board 2542 may also receive a first digital signal representing a 2D image sent to the photoreceptor array 2504 through the camera lens 2502.

ステップ1615で、6−DOF三角計測スキャナ2500は新たな位置に移動され、装置は6−DOFスキャナ2500の2つの角度とそこまでの距離および6−DOFスキャナ2500の方位を測定する。これはまた、新しい位置において2D画像を形成する。電子装置用回路板2542は、この第二の位置と方位におけるARカメラ2508からの位置および方位情報を処理し、および/またはレーザトラッカに送信してもよい。電子装置回路板2542はまた、カメラレンズ2502を通じて感光体アレイ2504へと送られる2D画像を表現する第二のデジタル信号も受信してよい。   In step 1615, the 6-DOF triangulation scanner 2500 is moved to a new position, and the apparatus measures the two angles and distance to the 6-DOF scanner 2500 and the orientation of the 6-DOF scanner 2500. This also forms a 2D image at the new location. The electronic device circuit board 2542 may process the position and orientation information from the AR camera 2508 at this second position and orientation and / or transmit it to the laser tracker. The electronics circuit board 2542 may also receive a second digital signal representing a 2D image that is sent through the camera lens 2502 to the photoreceptor array 2504.

ステップ1620で、第一の画像と第二に画像に共通の主要点が特定される。「主要点」という用語は、典型的には、画像中で特定され、画像を相互に接続し、または位置合わせするために使用できる点を指すために使用される。また、これらの点は、典型的には、誰かがその位置に意図的に設置したものではない。ステップは、第一および第二の場合において、感光体アレイ上の主要点の対応する位置を判定するステップを含む。第一の場合における主要点の位置を第一の位置と呼び、第二の場合における主要点の位置を第二の位置と呼ぶ。このような主要点を判定するために使用可能な多くの技術がさかんに開発されており、一般的には画像処理または特徴検出等と呼ばれる方法が用いられる。主要点を特定するための、通常使用されるが一般的なカテゴリは、関心点検出と呼ばれ、検出される点は関心点と呼ばれる。通常の定義によれば、関心点は、数学的に十分な根拠に基づく定義、十分に定義された空間内の位置、関心点の周囲の局所的情報の内容が豊富な画像構造、および時間がたっても比較的安定な照明レベルの変動を有する。関心点の具体的な例はコーナ点であり、これは例えば3つの平面の交点に対応する点であってもよい。使用可能な信号処理の他の例は、SIFT(Scale Invariant Feature Transform)であり、これは当業界でよく知られた方法で、Lowerの米国特許第6,711,293号に記載されている。ステップ1620で、プロセッサは第一および第二の画像に共通のこれらの主要点を特定し、少なくとも1つの主要点(ただし、通常は主要点の大きな集合)を得る。主要点を特定するためのその他の一般的な特徴検出方法には、エッジ検出、ブロブ検出、およびリッジ検出が含まれる。   At step 1620, common points common to the first image and second image are identified. The term “principal point” is typically used to refer to points that are identified in an image and that can be used to interconnect or align the images. Also, these points are typically not intentionally placed by someone at that location. The step includes determining a corresponding position of a principal point on the photoreceptor array in the first and second cases. The position of the main point in the first case is called a first position, and the position of the main point in the second case is called a second position. Many techniques that can be used to determine such a main point have been developed, and a method called image processing or feature detection is generally used. A commonly used but general category for identifying principal points is called interest point detection, and the detected points are called interest points. According to normal definitions, points of interest are mathematically well-founded definitions, well-defined locations in the space, image structures rich in local information around the points of interest, and time Even with relatively stable illumination level variations. A specific example of a point of interest is a corner point, which may be, for example, a point corresponding to the intersection of three planes. Another example of signal processing that can be used is the SIFT (Scale Invariant Feature Transform), which is well known in the art and is described in Lower US Pat. No. 6,711,293. At step 1620, the processor identifies these key points common to the first and second images and obtains at least one key point (although typically a large set of key points). Other common feature detection methods for identifying key points include edge detection, blob detection, and ridge detection.

ステップ1625は、第一の基準フレーム内の第一および第二の2D画像の中の対応する主要点の3D座標を判定するステップである。この判定は、まず、三角測量を使って6−DOFスキャナ2500の基準フレーム内の第一および第二の画像内の主要点の3D座標を判定し、次に、座標変換を使って、装置基準フレームであってもよい第一の基準フレーム内の主要点を得ることによって行われてもよい。これらの座標変換は、少なくとも一部に、装置により提供される2つの角度測定、1つの距離測定、および方位角測定に基づく。当然のことながら、この計算において、6−DOFスキャナ2500内の2Dカメラ2508の位置と方位は、例えば工場での測定に基づいてわかっている。測定値に基づき、ベースライン距離を有するベースラインが第一の例(第一の2D画像に対応する)と第二の例(第二の2D画像に対応する)のカメラの透視投影中心間に引かれてもよい。ベースライン距離は、トラッカによる6−DOF測定からわかっているため、各主要点は第一の基準フレーム内の3D空間内で判定される。一般に、第一の画像の主要点の3D座標と第二の画像の中の対応する主要点の3D座標は正確にはマッチしないであろう。しかしながら、3D座標の平均化または同様の方法を使って、第一および第二の2D画像内の対応する主要点に関する第一の基準フレーム内の代表的な3D画像を判定してもよい。この方法が使用された場合、3D座標は適正に拡大縮小され、すなわち、3D座標は第一の基準フレーム内で正しい長さ単位を有する。これは、2つの異なる位置に保持されたカメラで2つの画像を取得し、それに関して各々の場合でカメラ透視投影中心の位置と方位がわからない方法と対照的である。この方法では、3D画像を(長さ単位において)適正に拡大縮小するのに十分な情報が提供されない。   Step 1625 is a step of determining 3D coordinates of corresponding principal points in the first and second 2D images in the first reference frame. This determination first uses triangulation to determine the 3D coordinates of the main points in the first and second images in the reference frame of the 6-DOF scanner 2500, and then uses coordinate transformation to determine the device reference. This may be done by obtaining a key point in the first reference frame, which may be a frame. These coordinate transformations are based, at least in part, on two angle measurements, a distance measurement, and an azimuth measurement provided by the device. Of course, in this calculation, the position and orientation of the 2D camera 2508 in the 6-DOF scanner 2500 is known, for example, based on measurements at the factory. Based on the measured values, a baseline having a baseline distance is between the perspective projection centers of the cameras of the first example (corresponding to the first 2D image) and the second example (corresponding to the second 2D image). May be drawn. Since the baseline distance is known from the 6-DOF measurement by the tracker, each principal point is determined in 3D space within the first reference frame. In general, the 3D coordinates of the principal point of the first image and the 3D coordinates of the corresponding principal point in the second image will not match exactly. However, 3D coordinate averaging or similar methods may be used to determine a representative 3D image in the first reference frame for the corresponding principal point in the first and second 2D images. When this method is used, the 3D coordinates are properly scaled, i.e., the 3D coordinates have the correct length units in the first reference frame. This is in contrast to a method in which two images are acquired with cameras held at two different positions, in which the position and orientation of the camera perspective projection center is not known in each case. This method does not provide enough information to properly scale (in length units) the 3D image.

ステップ1630は、少なくとも一部に第一および第二の2D画像と第一の基準フレーム内の主要点の3D座標に基づいて、複合3D画像を形成するステップである。ほとんどの場合、第一および第二の2D画像は多くの主要点を共有しており、これらの各々について、3D座標を得ることができる。これらの主要点は3D表現のための枠組みを形成し、その上で、他の画像要素で2つの2D画像間または(より一般的なケースにおける)複数の2D画像間に補間してもよい。3D座標情報を提供するほかに、複合3D画像はまた、主要点からだけでなく、主要点間の可視領域から同じく補間法を使って取得されたテクスチャおよび色情報も提供できる。ステップ1625および1630で得られた3D座標は、第一および第二の画像の中の対応する主要点について同じであるが、複合3D画像は例えば主要点間の補間によって、また色およびテクスチャ情報を追加することによって、また別の3D情報を含んでいるかもしれない。   Step 1630 is a step of forming a composite 3D image based at least in part on the first and second 2D images and the 3D coordinates of principal points in the first reference frame. In most cases, the first and second 2D images share many principal points, and for each of these, 3D coordinates can be obtained. These principal points form a framework for 3D representation, on which other image elements may be interpolated between two 2D images or (in the more general case) between multiple 2D images. In addition to providing 3D coordinate information, the composite 3D image can also provide texture and color information obtained not only from the principal points, but also from the visible region between the principal points using the same interpolation method. The 3D coordinates obtained in steps 1625 and 1630 are the same for the corresponding principal points in the first and second images, but the composite 3D image is also subject to color and texture information, eg, by interpolation between the principal points. In addition, it may contain additional 3D information.

ステップ1635は、複合3D画像を保存するステップである。   Step 1635 is a step of storing the composite 3D image.

ある実施形態において、トラッカ内部のプロセッサは、複合3D画像を構築し、保存して、それを測定された3D座標と組み合わせるために使用される。このようなプロセッサは、マスタプロセッサ1520、6−DOFプロセッサ1531、およびカメラプロセッサ1532のうちの1つまたは複数を含んでいてもよい。それに加えて、コンピュータ1590はまた、複合3D画像を構築、保存し、それをマスタプロセッサから得られた3D座標と組み合わせるためにさらに使用されても、またはそのためだけに使用されてもよい。他の実施形態において、クラウドプロセッサは、生データをコンピュータネットワーク、おそらくはリモートコンピュータネットワークに送信して、複合3D画像を形成するために使用されてもよい。他の実施形態において、プロセッサの異なる組合せが使用されてもよい。このようなプロセッサの組合せをプロセッサシステムと呼んでもよい。   In some embodiments, a processor inside the tracker is used to build and store a composite 3D image and combine it with the measured 3D coordinates. Such a processor may include one or more of a master processor 1520, a 6-DOF processor 1531, and a camera processor 1532. In addition, the computer 1590 may also be used to build and store a composite 3D image and combine it with 3D coordinates obtained from the master processor, or just for that purpose. In other embodiments, the cloud processor may be used to send raw data to a computer network, possibly a remote computer network, to form a composite 3D image. In other embodiments, different combinations of processors may be used. Such a combination of processors may be called a processor system.

図16の手順1600に含まれていないが、上述の方法は任意選択による多数の感光体アレイ画像にも拡張できることは明らかであり、それによって主要点の集合を複数の画像から得てもよい。この場合、各主要点は、ARカメラ2508を異なる姿勢にして感光体アレイ2504で得られる画像のいくつかにおける主要点に対応してもよい。ある主要点に関して、感光体アレイ2504からカメラレンズ2502の透視投影中心を通じて投影される複数の線の交点は、当業界でよく知られている最適化方法による最良適合方式を使って、例えば最小二乗最小化方式を使って判定されてもよい。複数の画像の位置合わせは、希望に応じて、被験物体上に、またはその付近にターゲットを設けることによってさらに最適化されてもよい。追加のターゲットは、例えば反射性ターゲットでも、発光ダイオードでもよい。   Although not included in the procedure 1600 of FIG. 16, it will be apparent that the method described above can be extended to an optional number of photoreceptor array images, whereby a set of principal points may be obtained from multiple images. In this case, each principal point may correspond to a principal point in some of the images obtained with the photoreceptor array 2504 with the AR camera 2508 in a different posture. For a principal point, the intersection of multiple lines projected from the photoreceptor array 2504 through the perspective projection center of the camera lens 2502 can be determined using, for example, least squares, using a best-fit method by optimization methods well known in the art. It may be determined using a minimization scheme. The alignment of the multiple images may be further optimized by providing a target on or near the test object as desired. The additional target may be, for example, a reflective target or a light emitting diode.

ARカメラ2508がカラーカメラである場合、再構成された3D表面がカラーで表現されてもよく、または他のテクスチャ属性が引き出されてもよい。他の実施形態においては、この方法1600により、3D表面プロファイルに加えて、光パターンの各種の特徴が提供されてもよい。例えば、ある物体の表面上にマーキングされた「X」が、「X」の位置に対応する一般的座標のほかに引き出されてもよい。   If AR camera 2508 is a color camera, the reconstructed 3D surface may be represented in color, or other texture attributes may be derived. In other embodiments, the method 1600 may provide various features of the light pattern in addition to the 3D surface profile. For example, “X” marked on the surface of an object may be extracted in addition to the general coordinates corresponding to the position of “X”.

場合により、写真撮影されている表面の特定部分が比較的平滑であることが事前にわかっているかもしれない。換言すれば、これらの部分は画然とした不連続部または細かい特徴を持たない。このような場合、確立された主要点を使ってその表面の測定されていない部分を3次元で構成することが可能であるかもしれない。例えば、主要点は表面の一部にわたり円筒形に平滑に適合されてもよく、したがって、ソフトウェアで自動的に円筒形の形状を提供してもよい。   In some cases, it may be known in advance that a particular portion of the surface being photographed is relatively smooth. In other words, these parts do not have distinct discontinuities or fine features. In such cases, it may be possible to construct an unmeasured portion of the surface in three dimensions using established principal points. For example, the principal points may be smoothly fitted into a cylindrical shape over a portion of the surface, and therefore the software may automatically provide a cylindrical shape.

表面の一部の全体的な形状がわかっている場合、撮影された画像をその表面に投影することが可能であるかもしれない。例えば、表面にカラーのパターンがあり、それを、ある特定のケースにおいては平坦な表面であってもよい想定された表面に投影できるとする。この場合、このパターンは、異なる姿勢(「姿勢」は、3自由度の位置と3自由度の向きの組合せである)のARカメラ2508に関して取得された画像の各々から、想定された表面上に投影されてもよい。この例において、画像は表面上に重なると予想されるであろう。これに当てはまらなければ、想定された形状が正しくないことを意味しており、形状を変更するべきである。この例において、異なる姿勢のARカメラ2508により撮影された画像に基づいて、追加の主要点を得ることが良好な慣行であるかもしれない。すると、これらの追加の主要点を使って、表面プロファイルをより正確に判定できる。   If the overall shape of a portion of the surface is known, it may be possible to project the captured image onto the surface. For example, suppose there is a color pattern on the surface, which can be projected onto an assumed surface, which in certain cases may be a flat surface. In this case, this pattern is on the assumed surface from each of the images acquired for the AR camera 2508 in different poses (where “pose” is a combination of a 3 degree of freedom position and a 3 degree of freedom orientation). It may be projected. In this example, the image would be expected to overlay the surface. If this is not the case, it means that the assumed shape is not correct and the shape should be changed. In this example, it may be good practice to obtain additional principal points based on images taken by differently positioned AR cameras 2508. These additional key points can then be used to more accurately determine the surface profile.

ARカメラ2508は、例えば、比較的遠くの背景物体の背景画像を、比較的大きい視野で撮影するために使用されてもよく、これはまた、前景画像を撮影するために使用されてもよく、これは例えば、6−DOF三角計測スキャナ2500によりスキャンされる物体の画像であってもよい。   The AR camera 2508 may be used, for example, to capture a background image of a relatively far background object with a relatively large field of view, which may also be used to capture a foreground image, This may be, for example, an image of an object scanned by the 6-DOF triangulation scanner 2500.

図16に示されている上述の「ダイナミック三角計測」方法1600からわかるように、様々なカメラ位置と方位のARカメラ2508により撮影された画像は、一部に、レーザトラッカにより提供される6自由度の知識に基づいて相互に位置合わせされる。そのため、ARカメラ2508からの2D画像を、適正な寸法拡大縮小と、別の方法で可能な場合よりも少ないカメラ画像で位置合わせすることができる。   As can be seen from the above-described “dynamic triangulation” method 1600 shown in FIG. 16, images taken by the AR camera 2508 at various camera positions and orientations are partly free of six degrees provided by a laser tracker. Aligned to each other based on degree knowledge. Therefore, it is possible to align the 2D image from the AR camera 2508 with appropriate dimensional expansion and reduction and fewer camera images than possible by another method.

3D画像が本発明の実施形態により作られると、これらの画像の上に、データが重ねられ、または重畳されてもよい。例えば、3D画像が構築中または既に構築された物体のそれである場合、3D画像の上に重畳されたデータはその物体のCAD設計データを含んでいてもよい。CADデータは、レーザトラッカ5(図1)に関連するメモリの中に保存されてもよい。その他の種類のデータがカメラ画像の上に重畳されてもよく、これは例えば、各種の組立動作(穴明け、取付、等)をどこに行う予定であるかを示すためのマークである。   As 3D images are created according to embodiments of the present invention, data may be overlaid or overlaid on these images. For example, if the 3D image is being constructed or that of an already constructed object, the data superimposed on the 3D image may include CAD design data for that object. CAD data may be stored in a memory associated with the laser tracker 5 (FIG. 1). Other types of data may be superimposed on the camera image, for example, marks that indicate where various assembly operations (drilling, mounting, etc.) are to be performed.

6−DOF三角計測スキャナ2500の中のARカメラ2508は、スキャナ2500で測定される部品の代わりに(または、それに加えて)周囲を測定するために使用されてもよい。例えば、ARカメラ2508は比較的長い焦点距離を有していてもよく、それによって、三角計測カメラ2530より詳細にその周囲を捕捉する、より高解像度の画像を提供することが可能となる。他の実施形態において、ARカメラ2508は比較的短い焦点距離を有し、それによって三角計測カメラ2530より広い視野を見ることが可能となる。上述の再構成方法は、周囲の3D表現をARカメラ画像に基づいて得るために使用されてもよい。例えば、スキャナ2500により数マイクロメートルから数十マイクロメートルの精度で測定される1つまたは複数の部品を、ARカメラ画像に基づいて数ミリメートルの精度で測定された周囲の中に置かれてもよい。   The AR camera 2508 in the 6-DOF triangulation scanner 2500 may be used to measure the surroundings instead of (or in addition to) the parts measured by the scanner 2500. For example, AR camera 2508 may have a relatively long focal length, thereby providing a higher resolution image that captures its surroundings in greater detail than triangulation camera 2530. In other embodiments, the AR camera 2508 has a relatively short focal length, thereby allowing a wider field of view than the triangulation camera 2530. The reconstruction method described above may be used to obtain a surrounding 3D representation based on AR camera images. For example, one or more parts measured by scanner 2500 with an accuracy of a few micrometers to tens of micrometers may be placed in a perimeter measured with an accuracy of a few millimeters based on AR camera images. .

物体と周囲を異なる視点と異なる距離から観察するために、ソフトウェアが使用されてもよく、物体と周囲との間の視差が適正に表現される。場合により、背景情報が重要であるかもしれない。例えば、あるプロジェクトは、ARカメラ2508で得られる3D画像を有する3Dの周囲の中に適切な空間があることを確認しながら、構造体を測定対象物体に取り付けるステップを含んでいてもよい。このような構造体は、CADモデルとして、部品またはアセンブリのスキャン画像として、または複数のカメラ画像を使用することより得られた拡大縮小された3D表現として入手可能であってもよい。   Software may be used to observe the object and surroundings from different viewpoints and different distances, and the parallax between the object and the surroundings is properly represented. In some cases, background information may be important. For example, a project may include attaching the structure to the object to be measured while ensuring that there is a suitable space in the 3D perimeter with the 3D image obtained with the AR camera 2508. Such a structure may be available as a CAD model, as a scanned image of a part or assembly, or as a scaled 3D representation obtained by using multiple camera images.

場合により、ARカメラ2508は通常、見えない領域の表現を得るために使用されてもよい。例えば、ARカメラは、物体のすべての面を見て、スキャナ2500では容易に測定されない領域の3D画像を得るために使用されてもよい。このような全方向からの全面カバーは、画像が例えばプレゼンテーション、ウェブサイト、またはパンフレットで表示される時に有益である。ARカメラ2508からの色(テクスチャ)の追加もこの例では価値がある。ARカメラ2508から得られる3D表現は、他の3D表現により補足されてもよい。部品、アセンブリ、家具、その他のモデルは、場合により、ファイルやウェブサイトからダウンロードされて、複合3D表現に取り込まれてもよい。   In some cases, AR camera 2508 may typically be used to obtain a representation of an invisible area. For example, an AR camera may be used to view all surfaces of an object and obtain a 3D image of an area that is not easily measured by the scanner 2500. Such full coverage from all directions is useful when images are displayed, for example, in presentations, websites, or brochures. The addition of color (texture) from the AR camera 2508 is also valuable in this example. The 3D representation obtained from the AR camera 2508 may be supplemented by other 3D representations. Parts, assemblies, furniture, and other models may optionally be downloaded from a file or website and incorporated into a composite 3D representation.

ARカメラ2030および6−DOF三角計測スキャナ2500の別の重要な用途は、周囲を適正に拡大縮小することである。例えば、壁は左面、右面、上面、および下面を有していてもよい。上述の主要点をマッチングさせる方法は拡大縮小された3D画像を提供するが、寸法精度は、3D座標が6−DOFスキャナ2500で測定され場合の方が、カメラ画像だけの場合よりはるかによい。2D ARカメラ画像から得られた複合3D画像を6−DOF三角計測スキャナ2500によるいくつかの測定と組み合わせることによって、複合3D画像の拡大縮小精度は、多くの場合において、大幅に改善できる。例えば、スキャナ2500により左、右、上、および下面の各々の1つまたは複数の位置を測定することによって、ビルの拡大縮小を改善させることができる。   Another important application of AR camera 2030 and 6-DOF triangulation scanner 2500 is to properly scale the surroundings. For example, the wall may have a left surface, a right surface, an upper surface, and a lower surface. Although the method of matching principal points described above provides a scaled 3D image, the dimensional accuracy is much better when 3D coordinates are measured with a 6-DOF scanner 2500 than with a camera image alone. By combining the composite 3D image obtained from the 2D AR camera image with several measurements by the 6-DOF triangulation scanner 2500, the scaling accuracy of the composite 3D image can be greatly improved in many cases. For example, building scaling can be improved by measuring one or more positions of each of the left, right, top, and bottom surfaces with the scanner 2500.

ARカメラ2508は、周囲のみ、物体のみ、または周囲と物体の両方を測定するために使用されてもよい。ここで使用される用語として、「物体」という単語は、正確な寸法情報が望まれる品目を意味する。物体は典型的には、数十マイクロメートルのオーダの精度を有する6−DOF三角計測スキャナ2500により測定される。ARカメラ2508による測定は、画像を図面(例えば、CAD)に重畳することを可能にする。それに加えて、複数の方向から物体の2D画像を得ることによって、ある物体へのオーバレイをあらゆる方向から提供することが可能となる。   The AR camera 2508 may be used to measure ambient only, only objects, or both ambient and objects. As used herein, the term “object” means an item for which accurate dimensional information is desired. The object is typically measured by a 6-DOF triangulation scanner 2500 having an accuracy on the order of tens of micrometers. Measurement with the AR camera 2508 allows an image to be superimposed on a drawing (eg, CAD). In addition, by obtaining a 2D image of an object from multiple directions, it is possible to provide an overlay to an object from any direction.

ある物体はその周囲内に置かれてもよく、その3D座標はARカメラ2508の使用を通じて得られる。ARカメラと6−DOF三角計測スキャナ2500により提供される情報により、物体を周囲に関して様々な視点から見ることと、また、物体またはその周囲をあらゆる方向から見ることが可能となる。   An object may be placed within its perimeter, and its 3D coordinates are obtained through the use of AR camera 2508. The information provided by the AR camera and the 6-DOF triangulation scanner 2500 allows the object to be viewed from various viewpoints with respect to the surroundings and the object or surroundings to be viewed from all directions.

ある実施形態において、純粋にグラフィックによる要素(これは、例えば写真要素、描画要素、またはレンダリングされた要素とすることができる)が複合画像内に設置される。このようなグラフィック要素の第一の例は、工場フロアでの機械ツールへの追加である。このような追加は、CADモデルの上に重畳されてもよく、そこに複合カラー画像が重ねられる。追加は、新しく機械加工された部品であってもよい。このような追加の集合を工場環境に関して設置し、確実にすべての要素が適正にフィットするようにしてもよい。このようなグラフィック要素の第二の例は、同じ工場環境に置かれた機械または備品の新しい品目である。問題は、このような要素が新計画に適合するか否か、であってもよい。場合により、サービスプロバイダを通じてインターネット上で通常見つけられるネットワークのクラウドからこのような3D画像をダウンロードできるようにするウェブサイトが利用されてもよい。いくつかのユーザインタフェースにより、このような3D構成要素をコンピュータのマウスで適正な位置に移動させ、その後、異なる位置と方位から見てもよい。   In some embodiments, a purely graphical element (which can be, for example, a photographic element, a drawing element, or a rendered element) is placed in a composite image. A first example of such a graphic element is the addition to a machine tool on the factory floor. Such addition may be superimposed on the CAD model, on which the composite color image is superimposed. The addition may be a newly machined part. Such additional sets may be installed with respect to the factory environment to ensure that all elements fit properly. A second example of such a graphic element is a new item of machinery or equipment placed in the same factory environment. The question may be whether such factors fit into the new plan. In some cases, a website may be utilized that allows such 3D images to be downloaded from a cloud of a network normally found on the Internet through a service provider. With some user interfaces, such 3D components may be moved to the proper position with a computer mouse and then viewed from different positions and orientations.

本発明を例示的な実施形態に関して説明したが、当業者であれば、本発明の範囲から逸脱することなく、様々な変更を加え、またその要素を均等物に置き換えてもよいことがわかるであろう。それに加えて、特定の状況または材料を本発明の教示に適合させるために、その基本的な範囲から逸脱することなく、多くの改良を加えることができる。したがって、本発明は、本発明を実行するために企図される最善のモードとして開示されている特定の実施形態には限定されず、本発明は付属の特許請求の範囲に含まれるすべての実施形態を含むことが意図される。さらに、第一の、第二の、等の用語の使用は、いかなる順序または重要度も示しておらず、むしろ、第一の、第二の、等の用語は、1つの要素を他の要素から区別するために使用される。さらに、冠詞(a、an等)の使用は数量の限定ではなく、言及された品目が少なくとも1つ存在することを示す。   Although the present invention has been described in terms of exemplary embodiments, those skilled in the art will recognize that various changes can be made and equivalent elements may be substituted without departing from the scope of the invention. I will. In addition, many modifications may be made to adapt a particular situation or material to the teachings of the invention without departing from its basic scope. Accordingly, the invention is not limited to the specific embodiments disclosed as the best mode contemplated for carrying out the invention, and the invention is intended to be embraced by all embodiments that fall within the scope of the appended claims. It is intended to include. Furthermore, the use of terms such as first, second, etc. does not indicate any order or importance; rather, terms such as first, second, etc. Used to distinguish from. Further, the use of articles (a, an, etc.) is not a quantity limitation but indicates that there is at least one item mentioned.

Claims (9)

3次元(3D)座標測定システムにおいて、
ユニット基準フレームを有する6自由度(6−DOF)ユニットであって、構造体と、レトロリフレクタと、三角計測スキャナと、仮想現実(AR)カメラと、を含み、レトロリフレクタ、三角計測スキャナ、およびARカメラは構造体に取り付けられ、三角計測スキャナは、第一のカメラと、プロジェクタと、を含み、プロジェクタは、パターン光を物体に投影するように構成され、第一のカメラは、パターン光の第一の画像を物体上に形成するように構成され、プロジェクタと第一のカメラは、ユニット基準フレーム内の物体上のある点の第一の3D座標を協働して判定するように構成され、判定は、少なくとも一部に、投影されたパターン光と第一の画像に基づいて行われ、ARカメラは、ユニット基準フレーム内のカラー画像を取得するように構成されたカラーカメラであるようなユニットと、
装置基準フレームを有する座標測定装置であって、装置基準フレーム内のレトロリフレクタの姿勢を測定するように構成され、測定された姿勢は、レトロリフレクタの6自由度の測定値を含むような装置と、
を含むことを特徴とする3次元(3D)座標測定システム。
In a three-dimensional (3D) coordinate measurement system,
A six degree of freedom (6-DOF) unit having a unit reference frame, including a structure, a retroreflector, a triangulation scanner, and a virtual reality (AR) camera, the retroreflector, the triangulation scanner, and The AR camera is attached to the structure, the triangulation scanner includes a first camera and a projector, the projector is configured to project pattern light onto the object, and the first camera A first image is configured to form on the object, and the projector and the first camera are configured to cooperatively determine a first 3D coordinate of a point on the object in the unit reference frame. The determination is made based at least in part on the projected pattern light and the first image, and the AR camera acquires a color image within the unit reference frame A unit such that a color camera configured to so that,
A coordinate measuring device having a device reference frame, configured to measure the attitude of a retroreflector in the device reference frame, wherein the measured posture includes a six-degree-of-freedom measurement of the retroreflector. ,
A three-dimensional (3D) coordinate measurement system.
請求項1に記載の3D座標測定システムにおいて、
座標測定装置は、光源と、距離計と、を含み、光源は、光ビームをレトロリフレクタに送り、それに応答して反射された光ビームを受け取るように構成され、距離計は、レトロリフレクタまでの距離を、少なくとも一部に、反射された光ビームに基づいて測定するように構成されることを特徴とする3D座標測定システム。
The 3D coordinate measurement system according to claim 1,
The coordinate measuring device includes a light source and a distance meter, wherein the light source is configured to send a light beam to the retro-reflector and receive the reflected light beam in response, the distance meter to the retro-reflector A 3D coordinate measurement system configured to measure distance based at least in part on a reflected light beam.
請求項2に記載の3D座標測定システムにおいて、
ARカメラは第一のカメラより広い視野を有することを特徴とする3D座標測定システム。
The 3D coordinate measurement system according to claim 2,
A 3D coordinate measuring system, wherein the AR camera has a wider field of view than the first camera.
請求項1に記載の3D座標測定システムにおいて、
1つまたは複数のプロセッサをさらに含むことを特徴とする3D座標測定システム。
The 3D coordinate measurement system according to claim 1,
A 3D coordinate measurement system, further comprising one or more processors.
請求項4に記載の3D座標測定システムにおいて、
1つまたは複数のプロセッサは、第一の場合に、ARカメラから第一のAR画像を受け取り、装置から第一の測定された姿勢を受け取るように構成され、1つまたは複数のプロセッサはさらに、第二の場合に、ARカメラから第二のAR画像を受け取り、装置から第二の測定された姿勢を受け取るように構成され、1つまたは複数のプロセッサはさらに、第一のAR画像と第二のAR画像に共通の第一の主要点を判定するように構成され、1つまたは複数のプロセッサはさらに、装置基準フレーム内の第一の主要点の第二の3D座標を判定するように構成されることを特徴とする3D座標測定システム。
The 3D coordinate measurement system according to claim 4,
The one or more processors are configured to receive, in the first case, a first AR image from the AR camera and a first measured pose from the device, the one or more processors further comprising: In a second case, the second AR image is received from the AR camera and configured to receive a second measured pose from the device, the one or more processors further comprising the first AR image and the second AR image. Configured to determine a first principal point common to a plurality of AR images, and the one or more processors are further configured to determine a second 3D coordinate of the first principal point in the device reference frame. 3D coordinate measuring system, characterized in that
請求項5に記載の3D座標測定システムにおいて、
1つまたは複数のプロセッサはさらに、第一のAR画像と第二のAR画像を結合して複合3D画像にするように構成されることを特徴とする3D座標測定システム。
The 3D coordinate measurement system according to claim 5,
The 3D coordinate measurement system, wherein the one or more processors are further configured to combine the first AR image and the second AR image into a composite 3D image.
請求項5に記載の3D座標測定システムにおいて、
1つまたは複数のプロセッサはさらに、複合3D画像を、三角計測スキャナにより測定された点の第一の3D座標と組み合わせるように構成されることを特徴とする3D座標測定システム。
The 3D coordinate measurement system according to claim 5,
The 3D coordinate measurement system, wherein the one or more processors are further configured to combine the composite 3D image with the first 3D coordinates of the points measured by the triangulation scanner.
3次元(3D)測定方法において、
座標測定装置からの第一の光の第一のビームを6自由度(6−DOF)ユニットの中のレトロリフレクタに送り、それに応答して反射された第一の光の反射された第一のビームを受け取るステップであって、座標測定装置は装置基準フレームを有し、6−DOFユニットはユニット基準フレームを有し、6−DOFユニットは、構造体と、レトロリフレクタと、三角計測スキャナと、ARカメラと、を含み、レトロリフレクタ、三角計測スキャナ、およびARカメラは構造体に取り付けられ、三角計測スキャナは、第一のカメラと、プロジェクタと、を含み、ARカメラは、ユニット基準フレーム内のカラー画像を取得するように構成されたカラーカメラであるようなステップと、
座標測定装置によって、レトロリフレクタの第一の姿勢を、少なくとも一部に反射された第一のビームに基づいて判定するステップであって、判定された第一の姿勢は、装置基準フレーム内のレトロリフレクタの6自由度の測定値であるようなステップと、
プロジェクタから物体に第一のパターン光を投影するステップと、
第一のカメラで、物体からの第一のパターン光の反射の第一の画像を形成するステップと、
1つまたは複数のプロセッサで、装置基準フレーム内の物体上の第一の点の第一の3D座標を、少なくとも一部に、第一のパターン光、第一の画像、および判定されたレトロリフレクタの第一の姿勢に基づいて判定するステップと、
ARカメラで、ユニット基準フレーム内の第一のカラー画像を撮影するステップと、
1つまたは複数のプロセッサで、共通の基準フレーム内の第一の3D座標と第一のカラー画像を、少なくとも一部に、判定されたレトロリフレクタの第一の姿勢に基づいて組み合わせるステップと、を含むことを特徴とする方法。
In a three-dimensional (3D) measurement method,
A first beam of first light from the coordinate measuring device is sent to a retro-reflector in a 6-degree-of-freedom (6-DOF) unit and reflected in response to the reflected first first light. Receiving a beam, wherein the coordinate measuring device has a device reference frame, the 6-DOF unit has a unit reference frame, the 6-DOF unit includes a structure, a retroreflector, a triangulation scanner, An AR camera, wherein the retroreflector, the triangulation scanner, and the AR camera are attached to the structure, the triangulation scanner includes a first camera and a projector, the AR camera within the unit reference frame Steps such as being a color camera configured to acquire a color image;
Determining a first attitude of the retro-reflector by the coordinate measuring device based on at least a part of the first beam reflected from the retro-reflector; A step that is a measurement of 6 degrees of freedom of the reflector;
Projecting the first pattern light from the projector onto the object;
Forming, with a first camera, a first image of reflection of a first pattern light from an object;
In one or more processors, the first 3D coordinates of the first point on the object in the device reference frame, at least in part, the first pattern light, the first image, and the determined retro-reflector Determining based on the first posture of
Photographing a first color image in a unit reference frame with an AR camera;
Combining, with one or more processors, the first 3D coordinates and the first color image in a common reference frame, at least in part, based on the determined first attitude of the retroreflector; A method characterized by comprising.
請求項8に記載の3D測定方法において、
座標測定装置からの第一の光の第二のビームをレトロリフレクタに送り、それに応答して第二の反射されたビームを受け取るステップと、
座標測定装置によって、レトロリフレクタの第二の姿勢を、少なくとも一部に、反射された第二のビームに基づいて判定するステップと、
プロジェクタから物体に第二のパターン光を投影するステップと、
第一のカメラで、物体からの第二のパターン光の反射の第二の画像を形成するステップと、
1つまたは複数のプロセッサで、装置基準フレーム内の物体上の第二の点の第二の3D座標を、少なくとも一部に、第二のパターン光、第二の画像、および判定されたレトロリフレクタの第二の姿勢に基づいて判定するステップと、
ARカメラで、ユニット基準フレーム内の第二のカラー画像を撮影するステップと、
1つまたは複数のプロセッサで、共通の基準フレーム内の第一の3D座標、第二の3D座標、第一のカラー画像、および第二のカラー画像を、少なくとも一部に、判定されたレトロリフレクタの第一の姿勢と判定されたレトロリフレクタの第二の姿勢に基づいて組み合わせるステップと、
を含むことを特徴とする方法。
The 3D measurement method according to claim 8,
Sending a second beam of first light from the coordinate measuring device to the retro-reflector and receiving a second reflected beam in response;
Determining, by a coordinate measurement device, a second attitude of the retroreflector based at least in part on the reflected second beam;
Projecting the second pattern light from the projector onto the object;
Forming with a first camera a second image of the reflection of the second pattern light from the object;
In one or more processors, the second 3D coordinates of the second point on the object in the device reference frame, at least in part, the second pattern light, the second image, and the determined retro-reflector Determining based on the second posture of
Photographing a second color image in the unit reference frame with an AR camera;
In one or more processors, a retroreflector determined at least in part from a first 3D coordinate, a second 3D coordinate, a first color image, and a second color image in a common reference frame Combining based on the second posture of the retroreflector determined to be the first posture of
A method comprising the steps of:
JP2017508083A 2014-08-11 2015-08-10 6 DOF triangulation scanner and camera for augmented reality Pending JP2017524944A (en)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201462035587P 2014-08-11 2014-08-11
US62/035,587 2014-08-11
US14/820,665 US10021379B2 (en) 2014-06-12 2015-08-07 Six degree-of-freedom triangulation scanner and camera for augmented reality
US14/820,665 2015-08-07
PCT/US2015/044409 WO2016025358A1 (en) 2014-08-11 2015-08-10 A six degree-of-freedom triangulation scanner and camera for augmented reality

Publications (1)

Publication Number Publication Date
JP2017524944A true JP2017524944A (en) 2017-08-31

Family

ID=53836913

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017508083A Pending JP2017524944A (en) 2014-08-11 2015-08-10 6 DOF triangulation scanner and camera for augmented reality

Country Status (4)

Country Link
JP (1) JP2017524944A (en)
DE (1) DE112015003734T5 (en)
GB (1) GB2543459A (en)
WO (1) WO2016025358A1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020047575A1 (en) * 2018-09-04 2020-03-12 Fastbrick Ip Pty Ltd Vision system for a robotic machine
JP2020056746A (en) * 2018-10-04 2020-04-09 株式会社トプコン Angle detection system
JP2020056616A (en) * 2018-09-28 2020-04-09 株式会社トプコン Point group data display system
JP2021051031A (en) * 2019-09-26 2021-04-01 株式会社ミツトヨ Measurement support system

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017101580A1 (en) 2017-01-26 2018-07-26 Picofine GmbH Measuring head for a laser interferometer and related measuring method
DE102017212973A1 (en) * 2017-07-27 2019-01-31 Friedrich-Alexander-Universität Erlangen - Nürnberg Distance measuring device, measuring system and method for optical distance measurement
CN109238247B (en) * 2018-07-15 2021-07-02 天津大学 Six-degree-of-freedom measurement method for large-space complex site
CN110006339B (en) * 2019-03-25 2021-08-10 北京卫星制造厂有限公司 Antenna reflector composite material mold surface precision in-situ measurement method and system

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009058503A (en) * 2007-08-10 2009-03-19 Leica Geosystems Ag Method and system for noncontact coordinate measurement on object surface
WO2011134083A1 (en) * 2010-04-28 2011-11-03 Ryerson University System and methods for intraoperative guidance feedback
US20130027515A1 (en) * 2010-03-30 2013-01-31 Michael Vinther Scanning of cavities with restricted accessibility
US20140139639A1 (en) * 2013-01-30 2014-05-22 Qualcomm Incorporated Real-time 3d reconstruction with power efficient depth sensor usage
JP2014514563A (en) * 2011-04-15 2014-06-19 ファロ テクノロジーズ インコーポレーテッド 6 DOF laser tracker working with remote line scanner

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9020240B2 (en) * 2007-08-10 2015-04-28 Leica Geosystems Ag Method and surveying system for noncontact coordinate measurement on an object surface
US9222771B2 (en) * 2011-10-17 2015-12-29 Kla-Tencor Corp. Acquisition of information for a construction site

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009058503A (en) * 2007-08-10 2009-03-19 Leica Geosystems Ag Method and system for noncontact coordinate measurement on object surface
US20130027515A1 (en) * 2010-03-30 2013-01-31 Michael Vinther Scanning of cavities with restricted accessibility
WO2011134083A1 (en) * 2010-04-28 2011-11-03 Ryerson University System and methods for intraoperative guidance feedback
JP2014514563A (en) * 2011-04-15 2014-06-19 ファロ テクノロジーズ インコーポレーテッド 6 DOF laser tracker working with remote line scanner
US20140139639A1 (en) * 2013-01-30 2014-05-22 Qualcomm Incorporated Real-time 3d reconstruction with power efficient depth sensor usage

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020047575A1 (en) * 2018-09-04 2020-03-12 Fastbrick Ip Pty Ltd Vision system for a robotic machine
US20210192784A1 (en) * 2018-09-04 2021-06-24 Fastbrick Ip Pty Ltd. Vision system for a robotic machine
CN113508012A (en) * 2018-09-04 2021-10-15 快砖知识产权私人有限公司 Vision system for a robotic machine
US12002240B2 (en) * 2018-09-04 2024-06-04 Fastbrick Ip Pty Ltd. Vision system for a robotic machine
JP2020056616A (en) * 2018-09-28 2020-04-09 株式会社トプコン Point group data display system
JP7112929B2 (en) 2018-09-28 2022-08-04 株式会社トプコン Point cloud data display system
JP2020056746A (en) * 2018-10-04 2020-04-09 株式会社トプコン Angle detection system
JP7118845B2 (en) 2018-10-04 2022-08-16 株式会社トプコン Angle detection system
JP2021051031A (en) * 2019-09-26 2021-04-01 株式会社ミツトヨ Measurement support system

Also Published As

Publication number Publication date
DE112015003734T5 (en) 2017-06-14
WO2016025358A1 (en) 2016-02-18
GB2543459A (en) 2017-04-19
GB201701984D0 (en) 2017-03-22

Similar Documents

Publication Publication Date Title
US10574963B2 (en) Triangulation scanner and camera for augmented reality
US10021379B2 (en) Six degree-of-freedom triangulation scanner and camera for augmented reality
US10089789B2 (en) Coordinate measuring device with a six degree-of-freedom handheld probe and integrated camera for augmented reality
US9395174B2 (en) Determining retroreflector orientation by optimizing spatial fit
US10302413B2 (en) Six degree-of-freedom laser tracker that cooperates with a remote sensor
US9476695B2 (en) Laser tracker that cooperates with a remote camera bar and coordinate measurement device
US10126415B2 (en) Probe that cooperates with a laser tracker to measure six degrees of freedom
US8902408B2 (en) Laser tracker used with six degree-of-freedom probe having separable spherical retroreflector
JP2017524944A (en) 6 DOF triangulation scanner and camera for augmented reality
US20150331159A1 (en) Markings on glass cube-corner retroreflector and method of measuring retroreflector orientation
US20150377604A1 (en) Zoom camera assembly having integrated illuminator
WO2015200746A1 (en) Markings on glass cube-corner retroreflector and method of measuring retroreflector orientation

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170213

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170213

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180130

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180828