JP2017528714A - Method for optical measurement of three-dimensional coordinates and control of a three-dimensional measuring device - Google Patents

Method for optical measurement of three-dimensional coordinates and control of a three-dimensional measuring device Download PDF

Info

Publication number
JP2017528714A
JP2017528714A JP2017513511A JP2017513511A JP2017528714A JP 2017528714 A JP2017528714 A JP 2017528714A JP 2017513511 A JP2017513511 A JP 2017513511A JP 2017513511 A JP2017513511 A JP 2017513511A JP 2017528714 A JP2017528714 A JP 2017528714A
Authority
JP
Japan
Prior art keywords
measurement device
camera
image
projector
pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017513511A
Other languages
Japanese (ja)
Inventor
ゲリット ヒレブラント
ゲリット ヒレブラント
ロルフ ハイデマン
ロルフ ハイデマン
マルティン オシッヒ
マルティン オシッヒ
Original Assignee
ファロ テクノロジーズ インコーポレーテッド
ファロ テクノロジーズ インコーポレーテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from DE102014113015.4A external-priority patent/DE102014113015B4/en
Priority claimed from DE102014013678.7A external-priority patent/DE102014013678B3/en
Priority claimed from DE102014013677.9A external-priority patent/DE102014013677B4/en
Priority claimed from DE102015106838.9A external-priority patent/DE102015106838B4/en
Priority claimed from US14/826,859 external-priority patent/US9671221B2/en
Priority claimed from US14/844,700 external-priority patent/US9602811B2/en
Application filed by ファロ テクノロジーズ インコーポレーテッド, ファロ テクノロジーズ インコーポレーテッド filed Critical ファロ テクノロジーズ インコーポレーテッド
Publication of JP2017528714A publication Critical patent/JP2017528714A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/245Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures using a plurality of fixed, simultaneously operating transducers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/189Recording image signals; Reproducing recorded image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/002Diagnosis, testing or measuring for television systems or their details for television cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Abstract

3次元(3D)座標をスキャンし獲得するための方法が提供される。方法は、プロジェクタ、第1のカメラ、および第2のカメラを有する3D測定デバイスを提供することを含む。方法は、プロジェクタによって物体上に投射された光のパターンの画像を記録する。3D測定デバイスは、第1の位置および第2の位置から第2の経路に沿って移動される。第1の位置および第2の位置に少なくとも部分的に基づいて、動作および対応する制御機能が決定される。A method is provided for scanning and obtaining three-dimensional (3D) coordinates. The method includes providing a 3D measurement device having a projector, a first camera, and a second camera. The method records an image of a pattern of light projected onto an object by a projector. The 3D measurement device is moved along the second path from the first position and the second position. Operation and corresponding control functions are determined based at least in part on the first position and the second position.

Description

関連出願の相互参照(該当する場合)
本出願は、2015年5月2日に出願された独国特許出願第10 2015 106 836.2号、2015年5月2日に出願された独国特許出願第10 2015 106 837.0号、および2015年5月2日に出願された独国特許出願第10 2015 106 838.9号の利益を主張する。これらの全ての内容を、それらの全体を本願に引用して援用する。
Cross-reference of related applications (if applicable)
The present application is German Patent Application No. 10 2015 106 836.2 filed on May 2, 2015, German Patent Application No. 10 2015 106 837.0 filed on May 2, 2015, And claims the benefit of German Patent Application No. 10 2015 106 838.9 filed May 2, 2015. The contents of all of which are incorporated herein by reference in their entirety.

本出願はまた、2015年8月14日に出願された米国特許出願第14/826859号の一部継続出願でもある。US14/826859は、2014年9月10日に出願された独国特許出願第10 2014 113 015.4号の利益を主張し、また、2015年5月14日に出願された米国仮出願第62/161,461号の非仮出願である2015年5月15日に出願された米国特許出願第14/712,993号の、一部継続出願でもある。米国特許出願第14/712,993号は、2014年9月10日に出願された独国特許出願第10 2014 013 677.9号の利益をさらに主張する。これらの全ての内容を、それらの全体を本願に引用して援用する。   This application is also a continuation-in-part of US patent application Ser. No. 14/826859 filed Aug. 14, 2015. US14 / 82859 claims the benefit of German Patent Application No. 10 2014 113 015.4, filed on September 10, 2014, and US Provisional Application No. 62 filed on May 14, 2015. This is also a partially continuation application of US Patent Application No. 14 / 712,993, filed on May 15, 2015, which is a non-provisional application of / 161,461. US patent application No. 14 / 712,993 further claims the benefit of German Patent Application No. 10 2014 013 677.9, filed on September 10, 2014. The contents of all of which are incorporated herein by reference in their entirety.

本出願はさらに、上述の米国仮出願第62/161,461号の非仮出願である、2015年5月27日に出願された米国特許出願第14/722,219号の一部継続出願である。米国特許出願第14/722,219号は、2014年9月10日に出願された独国特許出願第10 2014 013 678.7号の利益を主張する。これらの全ての内容を、それらの全体を本願に引用して援用する。   This application is further a continuation-in-part of US patent application Ser. No. 14 / 722,219 filed on May 27, 2015, which is a non-provisional application of the aforementioned US provisional application No. 62 / 161,461. is there. US patent application No. 14 / 722,219 claims the benefit of German patent application No. 10 2014 013 678.7, filed on Sep. 10, 2014. The contents of all of which are incorporated herein by reference in their entirety.

本明細書において開示される主題は携帯型スキャナに、特にディスプレイを有する携帯型スキャナに関する。   The subject matter disclosed herein relates to portable scanners, and more particularly to portable scanners having a display.

携帯型スキャナは、スキャンされるべき物体の表面上に光のパターンを投影するプロジェクタを含む。プロジェクタの位置は、投影された符号化されたパターンによって判定される。相対位置および整列関係が既知であるか判定されている2つ(またはそれ以上)のカメラは、さらなるコード化されていないパターンを有する表面の画像を記録することができる。(パターンの点の)3次元座標を、エピ極幾何などの、それ自体知られている数学的方法によって決定することができる。   A portable scanner includes a projector that projects a pattern of light onto the surface of an object to be scanned. The position of the projector is determined by the projected encoded pattern. Two (or more) cameras whose relative position and alignment are known or have been determined can record an image of the surface with an additional uncoded pattern. The three-dimensional coordinates (of the pattern points) can be determined by mathematical methods known per se, such as epipolar geometry.

ビデオゲーム用途においては、スキャナは追跡デバイスとして知られており、この場合、プロジェクタが符号化された光のパターンを追われるべき標的、好ましくはプレイしている使用者上に投影して、次いでこの符号化された光のパターンをカメラで記録し、使用者の座標を判定する。このデータは、適切なディスプレイ上に表現される。   In video game applications, the scanner is known as a tracking device, in which the projector projects the encoded light pattern onto the target to be followed, preferably the user who is playing, and then this The encoded light pattern is recorded with a camera and the user's coordinates are determined. This data is represented on a suitable display.

距離測定を含んでシーンをスキャンするためのシステムは、その最も単純な形態では、2つのカメラを有するカメラユニットと、照射ユニットと、同期ユニットと、を含み得る。これらのカメラは、任意選択でフィルタを含んでよく、標的領域の立体的な重ね合わせのために用いられる。照射ユニットは、回折光学素子によってなどで、標的領域内にパターンを生成するために用いられる。同期ユニットは、照射ユニットとカメラユニットを同期させる。カメラユニットおよび照射ユニットを、選択可能な相対位置に設置することができる。任意選択で、2つのカメラユニットまたは2つの照射ユニットを用いることもできる。   In its simplest form, a system for scanning a scene including distance measurement may include a camera unit having two cameras, an illumination unit, and a synchronization unit. These cameras may optionally include a filter and are used for three-dimensional superposition of target areas. The illumination unit is used to generate a pattern in the target area, such as by a diffractive optical element. The synchronization unit synchronizes the irradiation unit and the camera unit. The camera unit and the irradiation unit can be installed at selectable relative positions. Optionally, two camera units or two illumination units can be used.

本発明の一態様によれば、環境を光学的にスキャンし測定するための方法が提供される。方法は、第1のカメラ、第2のカメラ、およびプロジェクタを有する3次元(3D)測定デバイスであって、メモリを有し少なくとも一方のカメラおよびプロジェクタに動作可能に結合された制御および評価デバイスをさらに有する、3D測定デバイスを提供することと、複数のコマンドの各々と複数の動作の各々との間の対応の規則を提供することであって、複数の動作の中からの各動作が3D測定デバイスによる経路に沿った移動を含み、対応の規則が第1の経路に沿った移動に少なくとも部分的に基づいており、対応の規則がメモリに保存される、提供することと、プロジェクタで物体上に光のパターンを投射することと、第1の時間に第1のカメラおよび第2のカメラで光のパターンの画像の第1の組を記録することと、第2の時間に第1のカメラおよび第2のカメラで光のパターンの画像の第2の組を記録することと、第1の画像および第2の画像に少なくとも部分的に基づいて、物体の3Dスキャンを作り出すことと、3D測定デバイスを第2の経路に沿って第1の位置から第2の位置へと移動させることと、第1の位置から第2の位置への移動に少なくとも部分的に基づいて動作を決定することと、動作および対応の規則に少なくとも部分的に基づいて第1の制御機能を決定することと、3D測定デバイスに対して第1の制御機能を実行することと、を含む。   According to one aspect of the invention, a method is provided for optically scanning and measuring an environment. A method includes a three-dimensional (3D) measurement device having a first camera, a second camera, and a projector, the control and evaluation device having a memory and operably coupled to at least one camera and projector. Furthermore, providing a 3D measurement device and providing a corresponding rule between each of the plurality of commands and each of the plurality of operations, wherein each operation from the plurality of operations is a 3D measurement. Including movement along the path by the device, wherein the corresponding rule is based at least in part on movement along the first path, the corresponding rule is stored in memory, and on the object at the projector Projecting a light pattern onto the first time, recording a first set of light pattern images with a first camera and a second camera at a first time, and a second time Recording a second set of images of a pattern of light with a first camera and a second camera and creating a 3D scan of the object based at least in part on the first image and the second image Moving the 3D measurement device along the second path from the first position to the second position and operating based at least in part on the movement from the first position to the second position. Determining, determining a first control function based at least in part on the operation and corresponding rules, and performing the first control function on the 3D measurement device.

これらのおよび他の利点および特徴は、図面と併せて解釈される続く説明から、より明らかとなるであろう。   These and other advantages and features will become more apparent from the following description taken in conjunction with the drawings.

本発明と見なされる主題は、本明細書の終結部に置く特許請求の範囲において具体的に指摘され、明確に特許請求される。本発明の前述のおよび他の特徴および利点は、添付の図面と併せて解釈される続く詳細な説明から明らかであろう。   The subject matter regarded as the invention is particularly pointed out and distinctly claimed in the claims that follow at the end of this specification. The foregoing and other features and advantages of the present invention will be apparent from the following detailed description taken in conjunction with the accompanying drawings.

ハンドヘルドスキャナのおよび環境内にある物体の、斜視図である。1 is a perspective view of an object in a handheld scanner and in an environment. FIG. ハンドヘルドスキャナの表側の図である。It is a figure of the front side of a handheld scanner. ハンドヘルドスキャナの裏側の図である。It is a figure of the back side of a handheld scanner. 上方からの、ハンドヘルドスキャナの上面図である。FIG. 2 is a top view of a handheld scanner from above. 右側からの、ハンドヘルドスキャナの図である。FIG. 3 is a view of a handheld scanner from the right side. ハウジングのない、図1に対応する斜視図である。FIG. 2 is a perspective view corresponding to FIG. 1 without a housing. ディスプレイを有する制御および評価デバイスを表したものである。Fig. 2 represents a control and evaluation device having a display. 右側から図7の制御および評価デバイスを表したものである。FIG. 8 illustrates the control and evaluation device of FIG. 7 from the right side. 重なりをシェーディングした、カメラの視界を示す図である。It is a figure which shows the visual field of a camera which shaded the overlap. 画像平面、プロジェクタ平面、およびエピ極線の幾何学的関係を示す図である。It is a figure which shows the geometrical relationship of an image plane, a projector plane, and an epipolar line. 環境を光学的にスキャンし測定するための例示の方法を示す図である。FIG. 3 illustrates an exemplary method for optically scanning and measuring an environment. 1本のエピ極線を有する例を示す図である。It is a figure which shows the example which has one epipolar line. 2本のエピ極線を有する例を示す図である。It is a figure which shows the example which has two epipolar lines. ばらつきを有する例を示す図である。It is a figure which shows the example which has dispersion | variation. 第3の工程ブロックのステップおよび移動により制御するための方法のステップを示す図である。It is a figure which shows the step of the method for controlling by the step and movement of a 3rd process block. 3D測定デバイスに関する移動の第1の群を示す図である。FIG. 3 shows a first group of movements for a 3D measurement device. 3D測定デバイスに関する移動の第2の群を示す図である。FIG. 3 shows a second group of movements for a 3D measuring device. 3D測定デバイスに関する移動の第3の群を示す図である。FIG. 6 shows a third group of movements for a 3D measuring device. ディスプレイ上で縮尺を修正した、図7からの制御および評価デバイスに対する上面図である。FIG. 8 is a top view of the control and evaluation device from FIG. 7 with the scale corrected on the display.

詳細な記載により、本発明の実施形態を、利点および特徴とともに、図面を参照して例として説明する。   The detailed description explains embodiments of the invention, together with advantages and features, by way of example with reference to the drawings.

1つの実施形態では、担持構造(キャリーイングストラクチャー:架台)は機械的および熱的に安定したものであり、カメラおよびプロジェクタの、相対距離および相対的な整列関係を規定する。環境(エンバイロンメント)に接する3D測定デバイスの面を表側に配置することは、これらの距離および整列関係がハウジングの形状の変化によって変化しないという点で、利点を提供する。   In one embodiment, the carrying structure is mechanically and thermally stable and defines the relative distance and relative alignment of the camera and projector. Placing the surface of the 3D measurement device in contact with the environment on the front side provides an advantage in that these distances and alignments do not change with changes in the shape of the housing.

「プロジェクタ」という用語は、パターンを作り出すデバイスを一般に指すように定義される。パターンの生成は、回折光学素子もしくはマイクロレンズ(もしくは単一レーザ)による生成などの偏向法によって、または遮光法、たとえばシャッタ、(オーバーヘッドプロジェクタにおいて用いられるような)透明材、および他のマスクによる作出によって、行うことができる。偏向法は、失われる光がより少なく結果としてより高い強度が利用できるという利点を有する。   The term “projector” is defined to generally refer to a device that creates a pattern. Pattern generation can be by deflection methods such as by diffractive optics or microlenses (or a single laser) or by shading methods such as shutters, transparency (as used in overhead projectors), and other masks Can be done. The deflection method has the advantage that less light is lost and consequently higher intensity is available.

距離測定のために提供される組立体(アッセンブリ)の数に応じて、対応する数の担持構造のアームが提供され、これらは、アームの交差箇所に位置する共通の中心部から突出する。組立体は、カメラおよびプロジェクタの組み合わせを含むことができ、割り当てられたアームの端部の領域に設けられる。組立体は担持構造の裏側に各々配置構成されてよい。これらのそれぞれの光学系は、担持構造の割り当てられた開口を通して導かれて、それぞれの組立体が表側から環境に対面するように、動作可能に配向される。ハウジングが裏側を覆い、ハンドル部を形成する。   Depending on the number of assemblies provided for the distance measurement, a corresponding number of arms of the carrier structure are provided, which protrude from a common center located at the intersection of the arms. The assembly can include a camera and projector combination and is provided in the area of the end of the assigned arm. The assemblies may each be arranged on the back side of the support structure. Each of these optics is guided through an assigned aperture in the support structure and is operatively oriented such that each assembly faces the environment from the front side. A housing covers the back side and forms a handle portion.

1つの実施形態では、担持構造は、炭素強化またはガラス繊維強化された、合成材料もしくはセラミックの(または別の材料の)母材(マトリクス)から成る。この材料は安定性および低重量を提供し、同時に、視界領域を有して構成できる。担持構造の表側の凹状(球状)の湾曲は、構造上の利点を有するだけでなく、3D測定デバイスの表側表面が作業表面上に置かれるとき、表側に配置された光学構成要素の保護も行う。   In one embodiment, the support structure comprises a carbon or glass fiber reinforced synthetic or ceramic (or another material) matrix. This material provides stability and low weight, and at the same time can be configured with a viewing area. The concave (spherical) curvature on the front side of the support structure not only has structural advantages, but also protects the optical components located on the front side when the front side surface of the 3D measuring device is placed on the work surface .

プロジェクタは、可視波長範囲内にあってもなくてもよい、投影されたパターンを作り出す。1つの実施形態では、投影されたパターンは、赤外範囲内の波長を有する。2つのカメラは、この波長範囲内の光から画像を取得し、同時に可視波長範囲内の散乱された光および他の干渉をフィルタリングして除去するように構成される。たとえば色などの追加の情報用の第3のカメラとして、カラーカメラまたは2Dカメラを設けることができる。そのようなカメラは、環境のおよびスキャン中の物体の、画像を記録する。カメラが色を取り込む実施形態では、スキャン工程(本明細書では「3Dスキャン」と呼ばれる)から生成されたポイントクラウド(点の集合)は、カラー画像に含まれる色情報から割り当てられた色値を有し得る。   The projector creates a projected pattern that may or may not be in the visible wavelength range. In one embodiment, the projected pattern has a wavelength in the infrared range. The two cameras are configured to acquire an image from light in this wavelength range and simultaneously filter out scattered light and other interference in the visible wavelength range. For example, a color camera or a 2D camera can be provided as a third camera for additional information such as color. Such cameras record images of the environment and the object being scanned. In an embodiment where the camera captures colors, a point cloud (a set of points) generated from a scanning process (referred to herein as a “3D scan”) uses a color value assigned from the color information contained in the color image. Can have.

動作中、3D測定デバイスは、異なる位置から、同じシーンの複数の3Dスキャンを生成する。3Dスキャンは、共同の座標系において重ね合わせられる。2つの重なる3Dスキャンを連結することに関して、3Dスキャン中の構造を認識可能であり得ることに利点が存在する。好ましくは、そのような認識可能な構造が探索され、連続的にまたは少なくとも記録工程の後で、表示される。ある決定された領域内で、密度が所望のレベルでなければ、この領域のさらなる3Dスキャンを生成することができる。ビデオ画像および(これに一部が隣接する)3次元ポイントクラウドを表現するために用いられるディスプレイを細分化することにより、どの領域でスキャンがさらに生成されるべきかを認識するのを助けることができる。   In operation, the 3D measurement device generates multiple 3D scans of the same scene from different locations. 3D scans are overlaid in a collaborative coordinate system. There are advantages to linking two overlapping 3D scans that the structure in the 3D scan may be recognizable. Preferably, such recognizable structures are searched and displayed continuously or at least after the recording process. Within a determined area, if the density is not the desired level, a further 3D scan of this area can be generated. By refining the video image and the display used to represent the 3D point cloud (which is partly adjacent to it), it helps to recognize in which region the scan should be further generated it can.

1つの実施形態では、3D測定デバイスは、携帯型スキャナとして設計される、すなわち、これは高速で動作し、一人の人間による運搬および使用に好適なサイズおよび重量のものである。ただし、この3D測定デバイスを三脚上に(もしくは別の台上に)、手で移動可能な台車(もしくは別のカート)上に、または自律移動するロボット上に装着すること、すなわち、この3D測定デバイスが−任意選択でさらに、たとえば運搬用ハンドルのない、別のハウジングを用いることにより−使用者によって運搬されないことが可能である。本明細書における実施形態は3D測定デバイスをハンドヘルド型であるとして記載しているが、これは例示を目的としており、特許請求される発明はこれに限定されるべきではないことを諒解されたい。他の実施形態では、3D測定デバイスを、固定式または移動式であり、適切な場合には他のデバイスと一緒に構築される、コンパクトなユニットとして構成することもできる。   In one embodiment, the 3D measurement device is designed as a portable scanner, i.e. it operates at high speed and is of a size and weight suitable for transportation and use by one person. However, this 3D measurement device is mounted on a tripod (or on another table), on a cart (or another cart) that can be moved by hand, or on an autonomously moving robot, that is, this 3D measurement. It is possible that the device—optionally further—for example by using a separate housing without a transport handle—is not transported by the user. While the embodiments herein describe the 3D measurement device as being handheld, it should be appreciated that this is for purposes of illustration and the claimed invention should not be limited thereto. In other embodiments, the 3D measurement device can also be configured as a compact unit that is fixed or mobile and, where appropriate, built with other devices.

図1〜図6を参照すると、物体Oを有する3D測定デバイス100の環境を光学的にスキャンし測定するためのデバイスの携帯可能な部分として、3D測定デバイス100が提供されている。本明細書で使用される場合、デバイス100の使用者に面する側を裏側、デバイス100の環境に面する側を表側と呼ぶものとする。この定義は、3D測定デバイス100の構成要素にも拡張される。3D測定デバイス100には、3つのアーム102a、102b、102cを有する担持構造102が、(その表側に)見えるように設けられる。これらのアームは、担持構造102に、T字形状またはY字形状、すなわち三角形の配置構成を付与する。3つのアーム102a、102b、102cが交差し互いと接続され、かつ3つのアーム102a、102b、102cが突出する起点となる領域は、3D測定デバイス100の中心を画定する。使用者の視点からは、担持構造102には、左アーム102a、右アーム102b、および下アーム102cが設けられている。1つの実施形態では、左アーム102aと右アーム102bとの間の角度はたとえば約150°+20°、左アーム102aと下アーム102cとの間はたとえば約105°+10°である。下アーム102cは、いくつかの実施形態では、他の2つのアーム102a、102bよりも、いくらか長い。   With reference to FIGS. 1-6, a 3D measurement device 100 is provided as a portable portion of the device for optically scanning and measuring the environment of the 3D measurement device 100 having an object O. As used herein, the side facing the user of the device 100 is referred to as the back side, and the side facing the environment of the device 100 is referred to as the front side. This definition extends to the components of the 3D measurement device 100. The 3D measurement device 100 is provided with a carrying structure 102 having three arms 102a, 102b, 102c so that it can be seen (on its front side). These arms give the support structure 102 a T-shaped or Y-shaped, i.e. triangular arrangement. The region from which the three arms 102a, 102b, 102c intersect and are connected to each other and from which the three arms 102a, 102b, 102c protrude defines the center of the 3D measurement device 100. From the user's viewpoint, the support structure 102 is provided with a left arm 102a, a right arm 102b, and a lower arm 102c. In one embodiment, the angle between the left arm 102a and the right arm 102b is, for example, about 150 ° + 20 °, and the distance between the left arm 102a and the lower arm 102c is, for example, about 105 ° + 10 °. The lower arm 102c is somewhat longer than the other two arms 102a, 102b in some embodiments.

担持構造102は、好ましくは、炭素繊維強化合成材料(CFC)などの、繊維強化合成材料から構成される。別の実施形態では、担持構造102は、炭素繊維強化セラミックからまたはガラス繊維強化合成材料から作成される。この材料は、担持構造102を機械的および熱的に安定したものにし、同時に低重量を提供する。担持構造102の厚さは、アーム102a、102b、102cの長さ(たとえば15から25cm)よりもかなり小さい(たとえば5から15mm)。担持構造102はしたがって、平坦な基本形状を有する。いくつかの実施形態では、アーム102a、102b、102cは、アームの中心近くに、強化された背骨部を含み得る。ただしこれは好ましくは、平面状ではなく湾曲するように構成される。担持構造102のそのような湾曲は、約1から3mの半径を有する球体の湾曲となるように適合される。担持構造102の(物体Oに面する)表側はこのことにより、凹状となるように構成され、裏側は凸状となるように構成される。担持構造102の湾曲した形状は、安定性を提供するのに有利である。担持構造102の表側(および1つの実施形態では裏側の見えている領域)は、視界領域となるように構成される、すなわち、そこには隠蔽物、カバー、クラッディング、または他の種類の包装材は設けられない。繊維強化された合成材料またはセラミックによる好ましい構成は、この目的のために特に好適である。   The support structure 102 is preferably composed of a fiber reinforced synthetic material, such as a carbon fiber reinforced synthetic material (CFC). In another embodiment, the support structure 102 is made from a carbon fiber reinforced ceramic or from a glass fiber reinforced synthetic material. This material makes the support structure 102 mechanically and thermally stable, while providing low weight. The thickness of the support structure 102 is much smaller (eg 5 to 15 mm) than the length of the arms 102a, 102b, 102c (eg 15 to 25 cm). The support structure 102 therefore has a flat basic shape. In some embodiments, the arms 102a, 102b, 102c may include a reinforced spine near the center of the arm. However, this is preferably configured to be curved rather than planar. Such curvature of the support structure 102 is adapted to be a sphere curvature having a radius of about 1 to 3 m. The front side (facing the object O) of the support structure 102 is thereby configured to be concave, and the back side is configured to be convex. The curved shape of the support structure 102 is advantageous to provide stability. The front side of the carrier structure 102 (and the visible area in one embodiment) is configured to be a viewing area, i.e., a concealment, cover, cladding, or other type of packaging. No material is provided. A preferred construction with fiber reinforced synthetic material or ceramic is particularly suitable for this purpose.

担持構造102の裏側にはハウジング104が配置され、これは3つアーム102a、102b、102cの端部の領域内で、適切な接続手段によって、たとえば僅かな隙間を有してゴムリングおよびねじによって、担持構造102と浮動する方式(フローティング方式)で接続される。本明細書で使用される場合、浮動式の接続とは、ハウジング104から担持構造102への振動の伝達を低減または排除するものである。1つの実施形態では、浮動式の接続は、ハウジング104と担持構造との間に配設された、ゴム製の隔離装着部によって形成される。1つの実施形態では、担持構造102の外周とハウジング104との間に、ゴムなどのエラストマー製の封止部が配設される。担持構造102およびハウジング104は次いで、エラストマー製のブッシングを用いて締め付けられる。封止部およびブッシングは協働して、担持構造102とハウジング104との間に浮動式の接続を形成する。左アーム102aのおよび右アーム102bの領域内で、ハウジング104の縁部は、担持構造102のすぐ近傍へと延び、同時にハウジング104は、3D測定デバイス100の中心から下アーム102cの領域内で、担持構造102まである距離をおいて延在してハンドル部104gを形成し、ハンドル部104gの端部において屈曲して下アーム102cに接近し、ここでハウジング104は、浮動する様式で下アーム102cと接続される。ハンドル104gの縁部は、担持構造102のすぐの近傍へと延びる。いくつかの実施形態では、担持構造102の一部は、強化された背骨部102rを含み得る。背骨部102rは、ハウジング104の内部へと突出する。ハウジング104は、担持構造102の裏側を覆い内部空間を画定するための、フードとして働く。   A housing 104 is arranged on the back side of the carrying structure 102, which in the region of the ends of the three arms 102a, 102b, 102c, by suitable connection means, for example by rubber rings and screws with a slight gap. The floating structure 102 is connected to the supporting structure 102 in a floating manner. As used herein, a floating connection is one that reduces or eliminates the transmission of vibrations from the housing 104 to the carrier structure 102. In one embodiment, the floating connection is formed by a rubber isolation mount disposed between the housing 104 and the carrier structure. In one embodiment, a sealing portion made of an elastomer such as rubber is disposed between the outer periphery of the support structure 102 and the housing 104. The carrier structure 102 and the housing 104 are then clamped using an elastomeric bushing. The seal and bushing cooperate to form a floating connection between the carrier structure 102 and the housing 104. Within the region of the left arm 102a and the right arm 102b, the edge of the housing 104 extends to the immediate vicinity of the carrying structure 102, while the housing 104 is within the region of the lower arm 102c from the center of the 3D measurement device 100, Extending a distance to the support structure 102 to form a handle portion 104g, bent at the end of the handle portion 104g to approach the lower arm 102c, where the housing 104 floats in a manner that floats. Connected. The edge of the handle 104g extends to the immediate vicinity of the carrier structure 102. In some embodiments, a portion of the support structure 102 can include a reinforced spine 102r. The spine 102r protrudes into the housing 104. The housing 104 serves as a hood for covering the back side of the support structure 102 and defining an internal space.

保護要素105を、ハウジング104にまたは担持構造102に取り付けることができる。1つの実施形態では、保護要素105は、アーム102a、102b、102cの端部に配置され、これらから外向きに延びて、3D測定デバイスを衝撃から、およびその結果生じる損傷から保護する。使用されていないとき、3D測定デバイス100は、その表側を底にして下に置くことができる。表側の凹状の湾曲のため、3D測定デバイスは、アーム102a、102b、102cの端部においてのみ、表面に接触することになる。保護要素105がアーム102a、102b、102cの端部に位置決めされる実施形態では、保護要素105が表面との追加の隙間を提供することになるので、利点が得られる。さらに、保護要素105が柔らかい材料、たとえばゴムから作成される場合、このことにより、使用者の手にとって望ましい触感が提供される。この柔らかい材料を、ハウジング104に、特にハンドル部104gに、任意選択で取り付けることができる。   The protective element 105 can be attached to the housing 104 or to the carrier structure 102. In one embodiment, the protective element 105 is located at the ends of the arms 102a, 102b, 102c and extends outwardly therefrom to protect the 3D measurement device from impact and resulting damage. When not in use, the 3D measurement device 100 can be placed with its front side down. Due to the concave curvature on the front side, the 3D measuring device will contact the surface only at the ends of the arms 102a, 102b, 102c. In embodiments where the protective element 105 is positioned at the ends of the arms 102a, 102b, 102c, an advantage is obtained because the protective element 105 will provide additional clearance with the surface. Furthermore, if the protective element 105 is made from a soft material, such as rubber, this provides the desired tactile feel for the user's hand. This soft material can optionally be attached to the housing 104, in particular to the handle 104g.

3D測定デバイス100の裏側では、ハウジング104上に制御作動装置または制御ノブ106が配置され、これによって、少なくとも光学的なスキャンおよび測定、すなわちスキャン工程を、開始および停止することができる。制御ノブ106は、ハンドルの一方の端部に隣接する、ハウジング104の中心に配置される。制御ノブ106は多機能であってよく、使用者による一連の操作に基づいて、様々な機能を提供してよい。これらの操作は、時間ベースのもの(たとえば複数のボタンが所定の時間内に押される)、または空間ベースのもの(たとえばボタンが方向の所定の組において移動される)、または両方の組み合わせであってよい。1つの実施形態では、制御ノブ106を、いくつかの方向(たとえば左、右、上、下)に傾けることができる。1つの実施形態では、制御ノブ106の周囲に、少なくとも1つの状態ランプ107が存在する。1つの実施形態では、複数の状態ランプ107が存在してよい。これらの状態ランプ107を用いて、3D測定デバイス100の実際の状態を示し、こうしてその操作を容易にすることができる。状態ランプ107は好ましくは、いくつかの状態を区別するために、異なる色(たとえば緑または赤)を示すことができる。状態ランプ107は、発光ダイオード(LED)であってよい。   On the back side of the 3D measuring device 100, a control actuator or control knob 106 is arranged on the housing 104, so that at least the optical scanning and measurement, ie the scanning process, can be started and stopped. The control knob 106 is located in the center of the housing 104 adjacent to one end of the handle. The control knob 106 may be multifunctional and may provide various functions based on a series of operations by the user. These operations can be time-based (eg, multiple buttons are pressed within a given time), space-based (eg, buttons are moved in a given set of directions), or a combination of both. It's okay. In one embodiment, the control knob 106 can be tilted in several directions (eg, left, right, up, down). In one embodiment, there is at least one status lamp 107 around the control knob 106. In one embodiment, multiple status lamps 107 may be present. These status lamps 107 can be used to indicate the actual state of the 3D measuring device 100 and thus facilitate its operation. The status lamp 107 is preferably capable of showing different colors (eg green or red) to distinguish several states. The status lamp 107 may be a light emitting diode (LED).

担持構造102上に、ある規定された距離だけ互いから離間されて、左アーム102a上(のその端部の領域)に第1のカメラ111が配置され、右アーム102b上(のその端部の領域)に第2のカメラ112が配置される。2つのカメラ111および112は、担持構造102の裏側に配置されてこれに固定され、この場合、担持構造102には、中を通してそれぞれのカメラ111、112が画像を取得できる開口が、担持構造102の表側を通して設けられる。2つのカメラ111、112は好ましくは、ハウジング104が担持構造102と浮動式に接続するための接続手段によって取り囲まれる。   A first camera 111 is placed on the left arm 102a (at its end region) on the carrier structure 102, spaced apart from each other by a defined distance, and on the right arm 102b (at its end portion). The second camera 112 is arranged in the area). The two cameras 111 and 112 are disposed on and fixed to the back side of the support structure 102, in which case the support structure 102 has openings through which the respective cameras 111, 112 can acquire images. It is provided through the front side. The two cameras 111, 112 are preferably surrounded by connecting means for the housing 104 to be floatingly connected to the carrying structure 102.

カメラ111、112の各々は、これらと関連付けられた視界を有する。第1のカメラ111のおよび第2のカメラ112の、互いに対する整列関係は、これらの視界が重なって物体Oの立体画像を可能とするような手法で調節されるか、または調節可能である。整列関係が固定される場合、3D測定デバイス100が用いられる用途に応じて、望まれる所定の重なり範囲が存在する。環境状況に応じて、数デシメートルまたは数メートルの範囲も望まれ得る。別の実施形態では、カメラ111、112の整列関係を、使用者が、たとえばカメラ111、112を反対方向に枢動させることによって、調節することができる。1つの実施形態では、カメラ111、112の整列関係が追跡され、この結果、3D測定デバイス100にとって既知となる。別の実施形態では、整列関係は最初は恣意的であり(および未知であり)、その後、たとえばカメラの位置を測定することによってなどで判定され、こうして3D測定デバイス100にとって既知となる。さらに別の実施形態では、整列関係は、3D測定デバイス100の製造または較正中に、設定され固定される。第1のカメラ111および第2のカメラ112が調節される実施形態では、3D測定デバイス100におけるカメラの角度および位置を判定するための較正を、実地で行ってよい。使用され得る較正の種類を、本明細書においてさらに検討する。   Each of the cameras 111 and 112 has a field of view associated with them. The alignment relationship of the first camera 111 and the second camera 112 with respect to each other can be adjusted or adjusted in such a way that these fields of view overlap to allow a stereoscopic image of the object O. If the alignment relationship is fixed, there is a desired predetermined overlap range depending on the application for which the 3D measurement device 100 is used. Depending on environmental conditions, ranges of a few decimeters or even a few meters may be desired. In another embodiment, the alignment relationship of the cameras 111, 112 can be adjusted by the user, for example, by pivoting the cameras 111, 112 in opposite directions. In one embodiment, the alignment relationship of the cameras 111, 112 is tracked and is thus known to the 3D measurement device 100. In another embodiment, the alignment relationship is initially arbitrary (and unknown) and then determined, for example, by measuring the position of the camera, and thus becomes known to the 3D measurement device 100. In yet another embodiment, the alignment relationship is set and fixed during manufacturing or calibration of the 3D measurement device 100. In embodiments where the first camera 111 and the second camera 112 are adjusted, calibration to determine the camera angle and position in the 3D measurement device 100 may be performed in the field. The types of calibration that can be used are further discussed herein.

第1のカメラ111および第2のカメラ112は、好ましくは単色型である、すなわち、たとえば対応するフィルタを設けられることによって、狭い波長範囲を感知可能であり、これらのフィルタはその場合、散乱された光を含め、他の波長範囲をフィルタリングして除去する。この狭い波長範囲は、赤外範囲内にあってもよい。物体Oに関する色情報を得るために、3D測定デバイス100は好ましくは、第1のカメラ111におよび第2のカメラ112に対して好ましくは対称に整列され、カメラ111、112の間で3D測定デバイス100の中心に配置される、カラーカメラ113などの、2Dカメラを含む。2Dカメラ113は、可視波長範囲内の光を感知可能な画像センサを含み得る。2Dカメラ113は、中に含まれる物体Oを含むシーン、すなわち3D測定デバイス100の環境の、2D画像を取り込む。   The first camera 111 and the second camera 112 are preferably monochromatic, i.e. they can sense a narrow wavelength range, for example by being provided with corresponding filters, which are then scattered. Filter out other wavelength ranges, including light. This narrow wavelength range may be in the infrared range. In order to obtain color information about the object O, the 3D measuring device 100 is preferably aligned symmetrically with respect to the first camera 111 and with respect to the second camera 112, and the 3D measuring device between the cameras 111, 112. It includes a 2D camera, such as a color camera 113, placed in the center of 100. The 2D camera 113 may include an image sensor that can sense light in the visible wavelength range. The 2D camera 113 captures a 2D image of a scene including the object O contained therein, that is, the environment of the 3D measurement device 100.

不利な照明条件である場合に2Dカメラのためにシーンを照射するために、例示した実施形態では光源が少なくとも1つ、たとえば4つの(強力な)発光ダイオード(LED)114が、提供される。1つの放射要素115は、LED114の各々と関連付けられる。発光ダイオード114から投射された光は、3D測定デバイス100の整列関係に対応して、対応するLED114から偏向される。そのような放射要素115はたとえば、レンズ、または光ガイドの適切に構成された端部であり得る。(例示した実施形態では4つの)放射要素115は、カラーカメラ113の周囲に均等に配置される。各LED114は、各々1つの光ガイドによって割り当てられた放射要素115と接続される。LED114はしたがって、3D測定デバイス100の制御ユニット118において、その基板上に固定されることによってなどで、構造的に配置され得る。   In order to illuminate the scene for a 2D camera in adverse lighting conditions, the illustrated embodiment provides at least one light source, for example, four (powerful) light emitting diodes (LEDs) 114. One radiating element 115 is associated with each of the LEDs 114. The light projected from the light emitting diode 114 is deflected from the corresponding LED 114 corresponding to the alignment relationship of the 3D measurement device 100. Such a radiating element 115 can be, for example, a lens or a suitably configured end of a light guide. The radiating elements 115 (four in the illustrated embodiment) are evenly arranged around the color camera 113. Each LED 114 is connected to a radiating element 115 each assigned by one light guide. The LED 114 can thus be structurally arranged, such as by being fixed on its substrate in the control unit 118 of the 3D measurement device 100.

カメラ111、112、113によって記録された画像を後から参照するために、傾斜計119などのセンサが提供される。1つの実施形態では、傾斜計119は、MEMS(微小電気機械システム)のような、それ自体知られている様式で製造される(1つまたはいくつかの受感軸を有する)加速度センサである。傾斜計119として、他の実施形態および組み合わせも可能である。3D測定デバイス100のデータは、(1つの成分として)傾斜計119によって提供される重力方向を各々有する。   A sensor such as an inclinometer 119 is provided for later reference to images recorded by the cameras 111, 112, 113. In one embodiment, the inclinometer 119 is an acceleration sensor (having one or several sensitive axes) manufactured in a manner known per se, such as a MEMS (microelectromechanical system). . Other embodiments and combinations of the inclinometer 119 are possible. The data of the 3D measurement device 100 each has a direction of gravity provided by the inclinometer 119 (as one component).

動作中、第1のカメラ111によっておよび第2のカメラ112によって、画像が記録される。これらの画像から3次元データを判定することができる、すなわち、たとえばフォトグラメトリによって、物体Oの3Dスキャンを作り出すことができる。ただし物体Oは、構造または特徴がほとんどなく、平滑な表面を多く有する場合がある。結果として、物体Oの散乱された光から3Dスキャンを生成するのは困難である。   During operation, images are recorded by the first camera 111 and by the second camera 112. Three-dimensional data can be determined from these images, ie a 3D scan of the object O can be created, for example by photogrammetry. However, the object O has almost no structure or features and may have many smooth surfaces. As a result, it is difficult to generate a 3D scan from the scattered light of the object O.

この困難を解決するために、下アーム102c(のその端部の領域)に配置される、プロジェクタ121を用いることができる。プロジェクタ121は、担持構造102の裏側で内部空間内に配置され、担持構造102に固定される。担持構造102には、中を通してプロジェクタ121が光のパターンを投影できる開口が、担持構造102の表側を通して設けられる。1つの実施形態では、プロジェクタ121は、ハウジング104と担持構造102との間で浮動式の接続をもたらすための接続手段によって取り囲まれる。プロジェクタ121、第1のカメラ111、および第2のカメラ112は、互いに関して三角形の配置構成で配置され、3D測定デバイス100の環境に合わせて整列される。プロジェクタ121は、2つのカメラ111、112に対応して整列される。カメラ111、112とプロジェクタ121との間の相対的な整列関係は、事前設定されるか、または使用者が設定することができる。   In order to solve this difficulty, the projector 121 arranged in the lower arm 102c (the region at the end thereof) can be used. The projector 121 is disposed in the internal space on the back side of the support structure 102 and is fixed to the support structure 102. The support structure 102 is provided with an opening through the front side of the support structure 102 through which the projector 121 can project a light pattern. In one embodiment, the projector 121 is surrounded by connecting means for providing a floating connection between the housing 104 and the carrying structure 102. The projector 121, the first camera 111, and the second camera 112 are arranged in a triangular arrangement with respect to each other and are aligned to the environment of the 3D measurement device 100. The projector 121 is aligned corresponding to the two cameras 111 and 112. The relative alignment relationship between the cameras 111 and 112 and the projector 121 can be preset or set by the user.

1つの実施形態では、カメラ111、112およびプロジェクタ121は正三角形を形成し、共通の傾斜角を有する。この様式で配置されるとき、およびカメラ111、112およびプロジェクタ121の視界が同様であるとき、視界の中心は、スキャナ100から特定の距離にある共通の点で交わることになる。この配置により、最大量の重なりを得ることができる。カメラ111、112およびプロジェクタ121の傾斜または角度を調節可能な実施形態では、視界の交点までの距離または範囲を変えることができる。   In one embodiment, the cameras 111 and 112 and the projector 121 form an equilateral triangle and have a common tilt angle. When arranged in this manner, and when the views of cameras 111, 112 and projector 121 are similar, the centers of view will meet at a common point at a specific distance from scanner 100. With this arrangement, a maximum amount of overlap can be obtained. In embodiments where the tilt or angle of the cameras 111, 112 and projector 121 can be adjusted, the distance or range to the intersection of the fields of view can be varied.

使用者が3D測定デバイス100をその表側を下にしてある表面上に、すなわち表側をこの表面に向けて置く場合、表側の凹状の湾曲が、カメラ111、112、113およびプロジェクタ121との間に表面からの間隙を創出し、このことにより、それぞれのレンズが損傷から保護される。   When the user places the 3D measuring device 100 on a surface with the front side down, i.e. the front side is facing this surface, the concave curvature on the front side is between the cameras 111, 112, 113 and the projector 121. Create a gap from the surface, which protects each lens from damage.

カメラ111、112、113、プロジェクタ121、制御ノブ106、状態ランプ107、発光ダイオード114、および傾斜計119は、ハウジング104内に配置される、共通の制御ユニット118と接続される。この制御ユニット118を、ハウジングに組み込まれる制御および評価デバイスの一部とすることができる。ある実施形態では、制御ユニット118は、ハウジング104のところで標準化された通信インターフェースと接続され、このインターフェースは、投射および受信ユニットとしてワイヤレス接続(たとえばブルートゥース(登録商標)、WLAN、DECT)されるように、または、内容を本願に引用して援用するDE10 2009 010 465 B3に記載されるもののように、適切であれば規定されたインターフェースでもあるものとしてケーブル接続(たとえばUSB、LAN)されるように、構成される。通信インターフェースは、前記ワイヤレス接続またはケーブルによる接続によって、(3D測定デバイス100の環境を光学的にスキャンし測定するためのデバイスのさらなる構成要素としての)外部の制御および評価デバイス122と接続される。この場合には、通信インターフェースは、ケーブルにより接続されるように構成され、この場合、ケーブル125は、たとえばハンドル部104gの下側端部において、ハウジング104内に差し込まれ、この結果、ケーブル125は、ハンドル部104gを延長するように延びる。   Cameras 111, 112, 113, projector 121, control knob 106, status lamp 107, light-emitting diode 114, and inclinometer 119 are connected to a common control unit 118 disposed in housing 104. This control unit 118 can be part of a control and evaluation device incorporated in the housing. In one embodiment, the control unit 118 is connected to a standardized communication interface at the housing 104, such that this interface is wirelessly connected as a projection and reception unit (eg Bluetooth®, WLAN, DECT). Or, as appropriate, as described in DE 10 2009 010 465 B3, the contents of which are incorporated herein by reference, to be cabled (eg USB, LAN) as also being a defined interface, Composed. The communication interface is connected to an external control and evaluation device 122 (as a further component of the device for optically scanning and measuring the environment of the 3D measurement device 100) by means of the wireless connection or cable connection. In this case, the communication interface is configured to be connected by a cable, in which case the cable 125 is plugged into the housing 104, for example at the lower end of the handle portion 104g, so that the cable 125 is The handle portion 104g extends.

制御および評価デバイス122は、メモリを有する1つ以上のプロセッサ122aを含み得る。プロセッサ122aは、3D測定デバイス100を操作および制御するならびに測定されたデータを評価および保存するための方法を実行するように構成される。制御および評価デバイス122は、図7および図8において示すもののような携帯型コンピュータ(ノートブック)またはタブレット(もしくはスマートフォン)、あるいは任意の外部のまたは遠位の(たとえばウェブ内の)コンピュータであってよい。制御および評価デバイス122を、3D測定デバイス100を制御するためのおよび測定されたデータを評価するためのソフトウェアにおいて構成してもよい。ただし、制御および評価デバイス122を、別個のハードウェアにおいて実現することができるか、またはこれを、3D測定デバイス100に組み込むことができる。制御および評価デバイス122は、少なくとも1つの構成要素が3D測定デバイス100に組み込まれ1つの構成要素が外部にある、分散された構成要素のシステムであってもよい。このようにして、前記の方法を行うためのプロセッサ122aを、3D測定デバイス100においておよび/または外部のコンピュータにおいて、実現することができる。   The control and evaluation device 122 may include one or more processors 122a having memory. The processor 122a is configured to operate and control the 3D measurement device 100 and to perform methods for evaluating and storing the measured data. The control and evaluation device 122 may be a portable computer (notebook) or tablet (or smartphone), such as that shown in FIGS. 7 and 8, or any external or distal (eg, in the web) computer. Good. The control and evaluation device 122 may be configured in software for controlling the 3D measurement device 100 and for evaluating the measured data. However, the control and evaluation device 122 can be implemented in separate hardware or it can be incorporated into the 3D measurement device 100. The control and evaluation device 122 may be a distributed component system in which at least one component is incorporated into the 3D measurement device 100 and one component is external. In this way, the processor 122a for performing the method can be implemented in the 3D measurement device 100 and / or in an external computer.

プロジェクタ121は、これがたとえば回折光学素子によって作り出すパターンXを、スキャンされるべき物体O上に投影する。パターンXをコード化(つまり一値化)する必要はなく、たとえば周期的にコード化されていなくて(すなわち多値であって)よい。この多値性は、2つのカメラ111、112を、パターンの形状および方向の利用可能な正確な知識と組み合わせて使用することによって解決される。コード化されていないパターンはたとえば、周期的に離間された同一のパターン要素(たとえば光のスポットまたは線)であってよい。プロジェクタ121から投影されたパターン要素とカメラ111、112の感光性アレイ上の画像中のパターン要素との間の対応は、本明細書においてさらに検討するように、連立のエピ極線拘束条件を通しておよび較正パラメータを用いて決定される。2つのカメラ111および112を、パターンの形状および方向の知識と組み合わせて使用することによって、点の対応の一意性が達成され、この組み合わされる知識は、3D測定デバイス100の較正から得られる。   The projector 121 projects the pattern X that it creates, for example, with a diffractive optical element onto the object O to be scanned. The pattern X does not need to be coded (ie, unary), for example, it may not be coded periodically (ie, multi-valued). This multi-value is solved by using two cameras 111, 112 in combination with accurate knowledge available of pattern shape and orientation. The uncoded pattern may be, for example, the same pattern elements (eg, light spots or lines) that are periodically spaced. The correspondence between the pattern elements projected from the projector 121 and the pattern elements in the image on the photosensitive array of the cameras 111, 112 is through simultaneous epipolar constraints and as discussed further herein. Determined using calibration parameters. By using the two cameras 111 and 112 in combination with knowledge of the shape and orientation of the pattern, point correspondence uniqueness is achieved, and this combined knowledge is obtained from calibration of the 3D measurement device 100.

本明細書で使用される場合、「パターン要素」という用語は、パターンXの要素の形状を意味するものとし、一方、「点」という用語は、(パターン要素のまたは他の何かの)3D座標中の位置を示すものとする。   As used herein, the term “pattern element” shall mean the shape of an element of pattern X, while the term “point” refers to 3D (of a pattern element or something else). It shall indicate the position in the coordinates.

コード化されていないパターンX(図1)は好ましくは、グリッド内に規則的に配置された点を備える、点パターンである。本発明では、たとえば、視界FOV(図9)にわたって、約50°の角度で約0.5mから5mの距離へと、100個の点が約100回(合計10,000個の点が)投影される。パターンXを、線パターンとすること、または点と線とを組み合わせたパターンとすることもでき、これらの各々は、密に配置された光点によって形成される。第1のカメラ111は第1の画像平面B111を備え、第2のカメラ112は第2の画像平面B112を備える。2つのカメラ111および112は、それぞれの画像平面B111およびB112においてパターンXの少なくとも一部を受信し、これらの画像平面中には、物体Oから反射されたパターンXの一部を取り込むための感光性アレイ(たとえばCMOSまたはCCDアレイ)が配置される。   The non-coded pattern X (FIG. 1) is preferably a point pattern with points regularly arranged in the grid. In the present invention, for example, 100 points are projected about 100 times (total of 10,000 points) over a field of view FOV (FIG. 9) at an angle of about 50 ° and a distance of about 0.5 m to 5 m. Is done. The pattern X can also be a line pattern or a combination of points and lines, each of which is formed by closely spaced light spots. The first camera 111 includes a first image plane B111, and the second camera 112 includes a second image plane B112. The two cameras 111 and 112 receive at least a part of the pattern X at their respective image planes B111 and B112, and are sensitive to capture a part of the pattern X reflected from the object O in these image planes. An array (eg, a CMOS or CCD array) is placed.

点密度と、プロジェクタ121と物体Oとの間の距離と、作り出されるパターンXに関して得られる解像度との間には、相関がある。回折によるパターン生成の場合、1つの光源の光がパターンにわたって分散される。この場合、光源の合計出力が限定されているとき、パターン要素の輝度は、パターン中の要素の数に依存する。物体から散乱される光の強度および背景光の強度に応じて、より少ないがより明るいパターン要素を有するのが望ましいかどうかが判定され得る。より少ないパターン要素は、取得された点の密度の減少を意味する。したがって、パターンX以外に少なくとも1つの他のパターンを生成できることが、役立つように思われる。現時点の状況にとって望まれるパターンを用いるために、パターンの生成に応じて、パターン同士の間の動的な移行および/または空間的な混合が可能である。ある実施形態では、プロジェクタ121は、時間に関して互いに対してずらされた、または別の波長範囲内にある、または異なる光強度を有する、2つのパターンを作り出すことができる。他方のパターンは、コード化されていないパターンなどの、パターンXから外れたパターンであってよい。例示した実施形態では、パターンは、互いへの別の距離(グリッド長さ)を有する点の規則的な配置を有する点パターンである。   There is a correlation between the point density, the distance between the projector 121 and the object O, and the resolution obtained for the created pattern X. In the case of pattern generation by diffraction, light from one light source is dispersed over the pattern. In this case, when the total output of the light source is limited, the brightness of the pattern element depends on the number of elements in the pattern. Depending on the intensity of light scattered from the object and the intensity of the background light, it can be determined whether it is desirable to have fewer but brighter pattern elements. Fewer pattern elements means a decrease in the density of acquired points. Thus, it seems useful to be able to generate at least one other pattern besides pattern X. In order to use the patterns desired for the current situation, dynamic transitions between patterns and / or spatial mixing are possible depending on the generation of the patterns. In some embodiments, the projector 121 can produce two patterns that are offset relative to each other with respect to time, are in different wavelength ranges, or have different light intensities. The other pattern may be a pattern deviating from the pattern X, such as an uncoded pattern. In the illustrated embodiment, the pattern is a point pattern with a regular arrangement of points having different distances (grid length) to each other.

1つの実施形態では、パターンXは、単色パターンである。パターンXを、プロジェクタ121中の回折光学素子124によって作り出すことができる。回折光学素子124は、図20における光源121aからの単一の光線を、この単一の光線よりも低い光強度を各々有する光線の集合に変換する。光線の集合の各々は、異なる方向に進んで、物体Oに衝突するときスポットを作り出す。光源121aはたとえば、レーザ、スーパールミネセントダイオード、またはLEDであってよい。ある実施形態では、光源121aの波長は、赤外範囲内にある。横方向の解像度はこの場合、投影されたパターンX中の光のスポットの直径および間隔によってのみ限定される。パターンXが赤外範囲内にある場合、2Dカメラ113を用いてパターンXから干渉を受けずに物体Oおよび周囲環境の画像を取り込むことが可能である。同様に、パターンXが紫外波長範囲内で作り出される場合、2Dカメラ113によって取得される画像は、パターンXからの干渉を受けないことになる。   In one embodiment, the pattern X is a single color pattern. The pattern X can be created by the diffractive optical element 124 in the projector 121. The diffractive optical element 124 converts a single light beam from the light source 121a in FIG. 20 into a set of light beams each having a light intensity lower than the single light beam. Each set of rays travels in a different direction and creates a spot when it strikes the object O. The light source 121a may be, for example, a laser, a super luminescent diode, or an LED. In some embodiments, the wavelength of the light source 121a is in the infrared range. The lateral resolution is in this case limited only by the diameter and spacing of the light spots in the projected pattern X. When the pattern X is in the infrared range, it is possible to capture an image of the object O and the surrounding environment without receiving interference from the pattern X using the 2D camera 113. Similarly, if the pattern X is created within the ultraviolet wavelength range, the image acquired by the 2D camera 113 will not receive interference from the pattern X.

1つの実施形態では、プロジェクタ121は、カメラ111、112(および利用可能であれば113)が物体Oの画像を記録している時間期間の間にのみ、物体O上にパターンXを作り出す。このことは、エネルギー効率および目の保護において利点をもたらす。2つのカメラ111、112およびプロジェクタ121は、時間および用いられるパターンXの両方に関して、互いと同期または連係される。各記録工程は、プロジェクタ121が、写真撮影におけるフラッシュと同様にパターンXを作り出すことによって始まり、これに続いて、カメラ111、112(および利用可能であれば113)が、画像の対を、言い換えれば2つのカメラ111、112の各々から各々1つの画像を、取得する。本明細書で使用される場合、実質的に同じ時間に取得されるこれらの画像の対は、「フレーム」と呼ばれる。記録工程は、1つの単独のフレーム(ショット)、または一連の複数のフレーム(ビデオ)を含み得る。そのようなショットまたはそのようなビデオは、制御ノブ106によってトリガされる。データの処理後、各フレームが次いで、3次元空間内にポイントクラウドから成る3Dスキャンを構成する。このポイントクラウドは、3D測定デバイス100の相対的な局所座標系内で規定される。   In one embodiment, the projector 121 creates a pattern X on the object O only during the time period in which the cameras 111, 112 (and 113 if available) are recording an image of the object O. This provides advantages in energy efficiency and eye protection. The two cameras 111, 112 and the projector 121 are synchronized or linked with each other in terms of both time and the pattern X used. Each recording process begins with the projector 121 creating a pattern X, similar to a flash in photography, followed by the cameras 111, 112 (and 113 if available), in other words, image pairs. For example, one image is acquired from each of the two cameras 111 and 112. As used herein, a pair of these images acquired at substantially the same time is called a “frame”. The recording process may include one single frame (shot) or a series of multiple frames (video). Such a shot or such video is triggered by the control knob 106. After processing the data, each frame then constitutes a 3D scan consisting of a point cloud in 3D space. This point cloud is defined within the relative local coordinate system of the 3D measurement device 100.

3D測定デバイス100によって供給されるデータは、制御および評価デバイス122において処理されて、フレームから3Dスキャンを生成する。3Dスキャンは次に、共同の座標系において連結されるかまたは重ね合わされる。重ね合わせのために、2つの3Dスキャンの重なる領域中の自然のまたは人工の標的(すなわち認識可能な構造)を識別することによってなど、知られている方法を用いることができる。これらの標的の識別を通して、対応する対によって2つの3Dスキャンの割り当てを決定することができる。シーン全体(複数の3Dスキャン)が、3D測定デバイス100によってこうして漸進的に重ね合わせられる。制御および評価デバイス122には、外部に組み込まれるか接続されるディスプレイ130(ディスプレイデバイス)が設けられる。   Data supplied by the 3D measurement device 100 is processed in the control and evaluation device 122 to generate a 3D scan from the frame. The 3D scans are then connected or overlaid in a joint coordinate system. For superposition, known methods can be used, such as by identifying natural or artificial targets (ie recognizable structures) in the overlapping region of two 3D scans. Through identification of these targets, the assignment of two 3D scans can be determined by corresponding pairs. The entire scene (multiple 3D scans) is thus progressively superimposed by the 3D measurement device 100. The control and evaluation device 122 is provided with a display 130 (display device) that is incorporated or connected externally.

この例示の実施形態では、プロジェクタ121は2つのカメラ111および112と同一直線上にあるのではなく、カメラ111、112は、三角形を形成するように配置される。図10に示すように、この三角形の構成により、光学の数学的方法に基づくエピ極幾何の使用が可能となる。エピ極幾何の拘束条件により、プロジェクタ121のプロジェクタ平面P121上の点は、第1の画像平面B111上の第1のエピ極線上、および第2の画像平面B112上の第2のエピ極線上に収まることになり、画像平面B111およびB112の各々に関するエピ極線は、プロジェクタ121ならびに2つのカメラ111および112の相対幾何によって決定される。さらに、第1の画像平面B111上の点は、プロジェクタ平面P121のエピ極線上、および第2の画像平面B112のエピ極線上に収まり、プロジェクタ平面および第2の画像平面内のエピ極線は、プロジェクタ121およびカメラ111、112の相対幾何によって決定される。またさらに、第2の画像平面B112上の点は、プロジェクタ平面P121のエピ極線上、および第1の画像平面B111のエピ極線上に収まり、プロジェクタ平面および第1の画像平面内のエピ極線は、プロジェクタ121およびカメラ111、112の相対幾何によって決定される。少なくとも2つのカメラおよび1つのプロジェクタの使用により、投影されたパターン要素が、たとえば同一の形状を有するなどの区別的な特徴を有さなくても(コード化されていないパターン)、画像平面B111およびB112ならびにプロジェクタ平面P121上の点に関して、パターンX中の点の間の対応を決定することを可能にするのに十分なエピ極線拘束条件が提供されることが分かる。 In this exemplary embodiment, the projector 121 is not collinear with the two cameras 111 and 112, but the cameras 111 and 112 are arranged to form a triangle. As shown in FIG. 10, this triangular configuration allows the use of epipolar geometry based on optical mathematical methods. Due to the epipolar geometry constraint, the point on projector plane P 121 of projector 121 is on the first epipolar line on first image plane B 111 and on the second epi plane on second image plane B 112. The epipolar line for each of the image planes B 111 and B 112 will be determined by the relative geometry of the projector 121 and the two cameras 111 and 112. Furthermore, the points on the first image plane B 111 fall on the epipolar line of the projector plane P 121 and on the epipolar line of the second image plane B 112, and are epipoles in the projector plane and the second image plane. The line is determined by the relative geometry of the projector 121 and the cameras 111 and 112. Still further, points on the second image plane B 112 fall on the epipolar line of the projector plane P 121 and on the epipolar line of the first image plane B 111 , and the epi planes in the projector plane and the first image plane The polar line is determined by the relative geometry of the projector 121 and the cameras 111 and 112. Through the use of at least two cameras and one projector, the image plane B 111 even if the projected pattern elements do not have distinctive features, for example having the same shape (uncoded pattern). It can be seen that, for B and B 112 and points on the projector plane P 121 , sufficient epipolar constraints are provided to allow the correspondence between the points in the pattern X to be determined.

1つの実施形態では、3Dシーンを生成するために、少なくとも3つのユニット(たとえばプロジェクタ121および2つのカメラ111、112)が用いられる。このことにより、2つの画像平面B111、B112中のパターン(X)の投影の対応を決定することができる元になる、点およびエピ極線の曖昧さのない三角形の関係が実現される。カメラの対に対する追加の立体幾何により、通常であれば区別できないパターンの点のかなり多くをさらに、エピ極線「e」上で識別することができる。物体O上の特徴の密度はしたがって同時に高くすることができ、パターンXの特徴(たとえばスポット)のサイズは非常に低く保つことができる。このことは、パターン中の特徴のサイズがプロジェクタの分解能に基づく下限を有するコード化されたパターンを利用し、コード化されたパターンにおけるこのサイズの限度が3Dスキャンの横方向の解像度を限定する他の方法とは、対照的である。プロジェクタ121およびカメラ111、112上の点X同士の間の対応が決定されると、3Dスキャンデータに関して、物体Oの表面上の点の3次元座標を、三角測量によって決定することができる。 In one embodiment, at least three units (eg, projector 121 and two cameras 111, 112) are used to generate a 3D scene. This realizes an unambiguous triangular relationship between points and epipolar lines, from which the correspondence of the projection of the pattern (X) in the two image planes B 111 and B 112 can be determined. . With the additional stereo geometry for the camera pair, a considerable number of otherwise indistinguishable pattern points can be further identified on the epipolar line “e”. The density of features on the object O can therefore be increased at the same time, and the size of the features of the pattern X (eg spots) can be kept very low. This utilizes a coded pattern in which the size of features in the pattern has a lower limit based on the resolution of the projector, and this size limit in the coded pattern limits the lateral resolution of the 3D scan. This is in contrast to this method. When the correspondence between the points X on the projector 121 and the cameras 111 and 112 is determined, the three-dimensional coordinates of the points on the surface of the object O can be determined by triangulation with respect to the 3D scan data.

三角測量の計算を、2つのカメラ111、112の間で、2つのカメラ111、112の間のベースライン距離および2つのカメラ111、112の傾斜の相対角度に基づいて行うことができる。三角測量の計算を、プロジェクタ121と第1のカメラ111との間で、およびプロジェクタ121と第2のカメラ112との間で、行うこともできる。これらの三角測量の計算を行うために、プロジェクタ121と第1のカメラ111との間でベースライン距離を決定する必要があり、またプロジェクタ121と第2のカメラ112との間で別のベースライン距離を決定する必要がある。加えて、プロジェクタ/第1のカメラおよびプロジェクタ/第2のカメラの間の、傾斜の相対角度が用いられる。   A triangulation calculation can be performed between the two cameras 111, 112 based on the baseline distance between the two cameras 111, 112 and the relative angle of the tilt of the two cameras 111, 112. Triangulation calculations can also be performed between the projector 121 and the first camera 111 and between the projector 121 and the second camera 112. In order to perform these triangulation calculations, it is necessary to determine a baseline distance between the projector 121 and the first camera 111, and another baseline between the projector 121 and the second camera 112. It is necessary to determine the distance. In addition, the relative angle of tilt between the projector / first camera and the projector / second camera is used.

原理的には、これらの3つの三角測量の計算のいずれの1つも、物体O上の点Xの3D座標を決定するのに十分であり、したがって余分な2つの三角測量関係は冗長な情報(冗長性)をもたらすが、これらは本明細書にさらに記載するように、測定結果の自己チェックを提供するためにおよび自己較正機能性を提供するために、有用に採用することができる。本明細書で使用される場合、「冗長性」という用語は、物体上の特定の点または点の組に関して、3D座標を複数回決定することを指す。   In principle, any one of these three triangulation calculations is sufficient to determine the 3D coordinates of the point X on the object O, so the extra two triangulation relationships are redundant information ( Redundancy), which can be usefully employed to provide self-checking of measurement results and to provide self-calibration functionality, as further described herein. As used herein, the term “redundancy” refers to determining 3D coordinates multiple times for a particular point or set of points on an object.

追加の3次元データを、たとえば2Dカメラ113からまたはカメラ111、112によって取得された画像の一部から、カメラ位置の異なるいくつかのフレームを用いることにより、フォトグラメトリ法によって得ることができる。フォトグラメトリの計算を行うために、カメラ111、112、113によって見られる物体は、照射されるべきである。そのような照射は、たとえば太陽または人工的な照明からなどの、背景照射であってよい。背景照射は、3D測定デバイス100によって、または別の外部光源によって提供されてよい。ある実施形態では、物体はLED114からの光で照射される。照射により、2次元カメラ111、112、113が、色、コントラスト、および陰影などの物体の特性を見分けることが可能になり、このことにより、物体の特徴の識別が容易になる。   Additional 3D data can be obtained by photogrammetry methods, for example from several parts of the image acquired from the 2D camera 113 or by the cameras 111, 112, by using several frames with different camera positions. In order to perform photogrammetry calculations, the object seen by the cameras 111, 112, 113 should be illuminated. Such illumination may be background illumination, such as from the sun or artificial lighting. Background illumination may be provided by the 3D measurement device 100 or by another external light source. In some embodiments, the object is illuminated with light from LED 114. Irradiation allows the two-dimensional cameras 111, 112, 113 to distinguish object characteristics such as color, contrast, and shadow, which facilitates identification of object features.

測定工程は、時間的な側面も有する。典型的には、コード化されていないパターンは、単一の3Dスキャンを決定するために一連のパターン全体を投影することおよび画像を取り込むことを可能とするために、静止しているデバイスとともに用いられた。この3Dスキャンを決定するために、スキャナと物体の両方が、互いに対して静止したままである必要があった。対照的に、本発明の実施形態は、カメラ111、112によって取得された画像の各組に対して、1つの3Dスキャンを生成する。別の実施形態(図示せず)では、本プロジェクタ121に隣接して第2のプロジェクタが配置されるか、またはさらなる回折光学素子が提供される。この第2のプロジェクタは、物体O上に、パターンXに加えて、少なくとも1つの第2のパターンを投射する。2つのプロジェクタを有する実施形態では、異なるパターンを有する画像の1つの組を連続的に取り込むために、パターンXと第2のパターンとの間で切り替えを行うことが可能である。したがって、3Dスキャンは、異なるパターンから得られる評価結果を組み合わせることによって、より高い解像度を有する。   The measurement process also has a temporal aspect. Typically, an uncoded pattern is used with a stationary device to allow a whole series of patterns to be projected and an image captured to determine a single 3D scan. It was. In order to determine this 3D scan, both the scanner and the object had to remain stationary relative to each other. In contrast, embodiments of the present invention generate one 3D scan for each set of images acquired by cameras 111, 112. In another embodiment (not shown), a second projector is placed adjacent to the projector 121 or additional diffractive optical elements are provided. This second projector projects on the object O at least one second pattern in addition to the pattern X. In an embodiment with two projectors, it is possible to switch between the pattern X and the second pattern in order to continuously capture one set of images having different patterns. Therefore, the 3D scan has a higher resolution by combining evaluation results obtained from different patterns.

物体全体の座標を決定するために、カメラ111、112によって取得された画像から作り出される3Dスキャンを重ね合わせる必要がある。言い換えれば、各フレームの3次元ポイントクラウドを、共通の座標系内に挿入せねばならない。たとえば「structure from motion」(SFM)または「simultaneous localization and mapping」(SLAM)法などのビデオグラメトリによって、重ね合わせが可能である。物体Oの自然のテクスチャも、共通の基準点として用いられる。1つの実施形態では、重ね合わせのために、静止したパターンが投影され用いられる。   In order to determine the coordinates of the entire object, the 3D scans created from the images acquired by the cameras 111, 112 need to be superimposed. In other words, the 3D point cloud of each frame must be inserted into a common coordinate system. For example, superposition is possible by videogrammetry such as “structure from motion” (SFM) or “simultaneous localization and mapping” (SLAM) method. The natural texture of the object O is also used as a common reference point. In one embodiment, a stationary pattern is projected and used for overlay.

3D測定デバイス100によって供給されるデータは、フレームから3Dスキャンを生成することによって、制御および評価デバイス122において処理される。3Dスキャンは次にその後、共同の座標系において連結されるかまたは重ね合わされる。上で検討したように、たとえば自然のまたは人工の標的(すなわち認識可能な構造)を用いることによってなどで、当技術分野で知られている重ね合わせ方法を用いることができる。対応する対によって2つの異なる3Dスキャンの互いに対する割り当てまたは整列関係を決定するために、これらの標的を局所化し識別することができる。3Dスキャン(口語的に「シーン」と呼ぶ場合もある)を次いで、3D測定デバイス100によって漸進的に重ね合わせることができる。この例示の実施形態では、制御および評価デバイス122には、使用者が3Dスキャンを点検できるように、ディスプレイ130(ディスプレイデバイス)が設けられる。   Data provided by the 3D measurement device 100 is processed in the control and evaluation device 122 by generating a 3D scan from the frame. The 3D scans are then subsequently connected or overlaid in a joint coordinate system. As discussed above, superposition methods known in the art can be used, such as by using natural or artificial targets (ie, recognizable structures). These targets can be localized and identified to determine the assignment or alignment of two different 3D scans relative to each other by corresponding pairs. A 3D scan (sometimes referred to colloquially as a “scene”) can then be progressively superimposed by the 3D measurement device 100. In this exemplary embodiment, the control and evaluation device 122 is provided with a display 130 (display device) so that the user can inspect the 3D scan.

図11には、3D測定デバイス100の環境の光学的なスキャンおよび測定の工程のための実施形態が示されている。第1の工程ブロック201では、1つのフレームに関する1対の画像の取り込みが行われ、測定された値が決定され記録される。この例示の実施形態では、各画像は、各画素のウェル中の電子の数に対応する電圧を表す値の2Dアレイである。   FIG. 11 shows an embodiment for an optical scanning and measuring process of the environment of the 3D measuring device 100. In a first process block 201, a pair of images for one frame is captured and the measured values are determined and recorded. In this exemplary embodiment, each image is a 2D array of values representing voltages corresponding to the number of electrons in each pixel well.

この工程は次いで、第2の工程ブロック202に進み、ここで測定された値が評価され、フレームから3Dスキャンデータが生成される。この第2の工程ブロックでは、プロジェクタから投影されたスポットの既知の位置と組み合わせてその数が評価されて、物体O上の点の3D座標が決定される。(エピ極幾何計算を含む)三角測量の計算を用いて、画素の各々に関する距離が得られ、各画素に関する2つの角度が、画素の場所およびカメラの幾何(レンズ焦点距離、画素サイズ、等)に基づいて決定される。   The process then proceeds to a second process block 202 where the measured value is evaluated and 3D scan data is generated from the frame. In this second process block, the number is evaluated in combination with the known positions of the spots projected from the projector, and the 3D coordinates of the points on the object O are determined. Using triangulation calculations (including epipolar geometry calculations), the distance for each of the pixels is obtained, and the two angles for each pixel are the pixel location and camera geometry (lens focal length, pixel size, etc.) To be determined.

工程は次いで第3の工程ブロック203に進み、ここで3Dスキャンデータの複数のフレームが、共通の座標系において重ね合わせられる。1つの実施形態では、重ね合わせを補助するために、中央のカラーカメラ113を用いてビデオグラメトリ情報が得られる。1つの実施形態では、3Dスキャンデータの表現が表示され保存される。最後に、工程は第4の工程ブロック204に進み、ここで自動較正が行われる。1つの実施形態では、第4の工程ブロック204で行われる自動較正は、第2の工程ブロック202と同時に行うことができるか、またはこれと連続して行うことができる。たとえば連続的に制御ノブ106を押すことによってなどで、追加のフレームが取得されるように操作者が操作を続ける限りは、この工程は第1の工程ブロック201に戻る。   The process then proceeds to a third process block 203 where multiple frames of 3D scan data are overlaid in a common coordinate system. In one embodiment, video grammetry information is obtained using a central color camera 113 to assist in the overlay. In one embodiment, a representation of 3D scan data is displayed and saved. Finally, the process proceeds to a fourth process block 204 where automatic calibration is performed. In one embodiment, the automatic calibration performed in the fourth process block 204 can be performed simultaneously with the second process block 202 or can be performed sequentially. As long as the operator continues to operate so that additional frames are acquired, such as by continuously pressing the control knob 106, the process returns to the first process block 201.

第2の工程ブロック202では、自動的に対応を決定するために、フレーム中で特定の点の画像が選択される。これらの選択された点は、物体O上の点に、特にパターンXのパターン要素(たとえばスポット)に対応する。第1の画像平面B111中の選択された点の各画像に関して、エピ極線「e」が、第2の画像平面B112中におよびプロジェクタ平面P121中に、連続的に位置付けられる。エピ極線「e」を位置付けるためのこの手順は、第2の画像平面B112中の点の画像に関して、およびプロジェクタ平面P121中の点の画像に関して、繰り返される。これらの複数のエピ極線拘束条件により、3つの平面の各々において、投影されたパターン要素と受信されたパターン要素との間の一対一の対応(たとえば同一のスポット)の決定が可能となる。図10に示すように、(物体O上のパターンXの)点Xは、3つの平面B111、B112、P121の全ての上に見ることができ、その画像は、各平面上の2つのエピ極線「e」上にある。点Xは、3つの直線、プロジェクタ121の光線および2つのカメラ111、112の各1つの光線の、交差点である。点Xはしたがって、パターンXの点の密度が十分に低い場合、曖昧さのない状態で示され得る。 In a second process block 202, an image of a particular point in the frame is selected to automatically determine the correspondence. These selected points correspond to points on the object O, in particular pattern elements of the pattern X (eg spots). For each image of a selected point in the first image plane B 111 , the epipolar line “e” is successively located in the second image plane B 112 and in the projector plane P 121 . This procedure for positioning the epipolar line “e” is repeated for the point image in the second image plane B 112 and for the point image in the projector plane P 121 . These multiple epipolar constraint conditions allow the determination of a one-to-one correspondence (eg, the same spot) between the projected pattern element and the received pattern element in each of the three planes. As shown in FIG. 10, the point X O (of the pattern X on the object O) can be seen on all three planes B 111 , B 112 , P 121 , and the image is on each plane On the two epipolar lines “e”. A point X O is an intersection of three straight lines, the light beam of the projector 121 and one light beam of each of the two cameras 111 and 112. The point X O can thus be shown unambiguous if the density of the points in the pattern X is sufficiently low.

ブロック204で行われる自動較正は自動的に行われ、外部の較正物体の使用を必要としない。始めに最初の較正を用い後で現時点で用いられている較正を用いて、適切である場合は較正を補正するために、空間の観点からばらつきがないか(幾何のばらつき)および時間の観点からばらつきがないか(経時的なパラメータの変化)、フレームが調査される。ばらつきは、たとえば動作温度の上昇に起因するものなど、熱的な原因を有する可能性がある。ばらつきは、たとえば表面または床に3D測定デバイス100が当たることによって引き起こされる機械的ショックなど、機械的な原因を有する可能性もある。これらのばらつきは、たとえば物体上のまたは平面B111、B112、P121中の点の、測定された位置、角度、および他の幾何学的特徴の偏移を通して顕現する。 The automatic calibration performed at block 204 is automatic and does not require the use of an external calibration object. There is no variation from a spatial perspective (geometric variation) and a temporal perspective to correct the calibration where appropriate, using the initial calibration first and then the calibration currently used The frame is examined for variations (parameter changes over time). The variation may have a thermal cause, for example, due to an increase in operating temperature. The variation may also have a mechanical cause, such as a mechanical shock caused by the 3D measurement device 100 hitting the surface or floor. These variations are manifested through shifts in measured positions, angles, and other geometric features of points on the object or in the planes B 111 , B 112 , P 121 , for example.

補正され得る較正パラメータは、外因性パラメータ、内因性パラメータ、または動作パラメータであってよい。各ユニット(カメラ111、112、113およびプロジェクタ121)に関する外因性パラメータは、剛体の6つの自由度、すなわち3つの位置および3つの角度を含む。特に関連があるのは、カメラ111、112、113およびプロジェクタ121の間の相対幾何、たとえばこれらの整列関係の相対距離および相対角度などである。内部パラメータは、限定するものではないが、焦点距離、主点の位置、歪みパラメータ、感光性アレイまたはMEMSプロジェクタアレイのセンタリング、各方向におけるアレイの縮尺、3D測定デバイス100の局所座標系に対するアレイの回転、およびカメラまたはプロジェクタのレンズ系に関する収差補正係数などの、カメラまたはプロジェクタデバイスの特徴に関連していてよい。動作パラメータは、光源121aの波長、空気の温度および湿度であってよい。   Calibration parameters that may be corrected may be extrinsic parameters, intrinsic parameters, or operating parameters. The extrinsic parameters for each unit (cameras 111, 112, 113 and projector 121) include six rigid degrees of freedom, namely three positions and three angles. Of particular relevance are the relative geometries between the cameras 111, 112, 113 and the projector 121, such as the relative distance and angle of their alignment. Internal parameters include, but are not limited to, focal length, principal point location, distortion parameters, centering of the photosensitive or MEMS projector array, scale of the array in each direction, and the array dimensions relative to the local coordinate system of the 3D measurement device 100. It may be related to camera or projector device characteristics such as rotation and aberration correction factors for the camera or projector lens system. The operating parameters may be the wavelength of the light source 121a, air temperature and humidity.

図10に関して、ばらつきは、3つの平面のうちの1つにおける、点Xのその予想される理論上の位置に対する実際の位置の偏移Δであってよい。 With respect to FIG. 10, the variation may be the actual position shift Δ of point X O relative to its expected theoretical position in one of the three planes.

本明細書において上で説明したように、2つのカメラ111、112およびプロジェクタ121上の投影され画像化されたパターン要素(すなわちこれらの画像)の対応を決定するために、エピ極線拘束条件が連立して解かれる。対応におけるばらつきを明らかにするために、これらの連立方程式からの何らかの冗長な情報(冗長性)を利用することができる。   As described hereinabove, epipolar constraints are used to determine the correspondence between the projected and imaged pattern elements (ie, these images) on the two cameras 111, 112 and projector 121. It is solved simultaneously. Some redundant information (redundancy) from these simultaneous equations can be used to account for variations in correspondence.

加えて、本明細書において上で説明したように、3D座標の3つの組を得るために、3つの別個の三角測量の計算を行ってよい。これらの3つの三角測量の計算は、1)第1のカメラ111と第2のカメラ112との間(立体カメラ)、2)プロジェクタ121と第1のカメラ111との間、および3)プロジェクタ121と第2のカメラ112との間のものである。これらの異なる三角測量の計算から得られた3D座標を比較することができ、ばらつきが見られる場合には、較正パラメータを変えることができる。   In addition, as described hereinabove, three separate triangulation calculations may be performed to obtain three sets of 3D coordinates. These three triangulation calculations are: 1) between the first camera 111 and the second camera 112 (stereoscopic camera), 2) between the projector 121 and the first camera 111, and 3) the projector 121. And the second camera 112. The 3D coordinates obtained from these different triangulation calculations can be compared and the calibration parameters can be changed if variations are seen.

図12は、2つのユニットU、Uに関するばらつきの単純化された状況を示す。ユニットU、Uはたとえば、2つのカメラ111、112の間、またはプロジェクタ121とカメラ111、112の一方との間の、いずれかにあってよい。各ユニットU、Uは、中で点を選択できる平面を備える。2つのエピ極線「e」は、両方の平面にとって共通である。ユニットUの平面中の選択された点236は、ユニットUの平面中の点216に対応している。両方の点216、236が、物体O上の本物の点の画像であることを諒解されたい。たとえば点216、236が物体O上のパターンXのスポットの画像であるときなどに、対応を検出することができる。1つの実施形態では、物体O上の「スポット」が照射され、隣接する領域は暗いか、または照射された箇所よりも暗い。ただし、エピ極線「e」に対して垂直な点216、236の距離が両方の平面において同じでないとき、偏移Δ、すなわち点216の位置と予想される位置218との間の偏移Δが生じる。 FIG. 12 shows a simplified situation of variation for the two units U 1 , U 2 . The units U 1 and U 2 may be located either between the two cameras 111 and 112 or between the projector 121 and one of the cameras 111 and 112, for example. Each unit U 1 , U 2 comprises a plane in which a point can be selected. The two epipolar lines “e” are common to both planes. A selected point 236 in the plane of unit U 1 corresponds to a point 216 in the plane of unit U 2 . It should be appreciated that both points 216, 236 are images of real points on the object O. For example, when the points 216 and 236 are images of the spot of the pattern X on the object O, the correspondence can be detected. In one embodiment, a “spot” on the object O is illuminated and the adjacent area is dark or darker than the illuminated spot. However, when the distance of the points 216, 236 perpendicular to the epipolar line “e” is not the same in both planes, the deviation Δ, ie the deviation Δ between the position of the point 216 and the expected position 218, Occurs.

一般に、偏移Δはベクトルである。たとえばプロジェクタ121およびカメラ111などの、2つのユニットU、Uを有する実施形態では、エピ極線「e」に対して垂直な偏移Δの成分だけが既知である。エピ極線「e」と平行な成分は、3D座標を決定するときに消失する。たとえばプロジェクタ121および両方のカメラ111、112などの、3つ以上のユニットを有する実施形態では、平面の両方の次元における偏移Δの成分を、冗長な測定値(偏移を検出する際のおよび3D座標を決定する際の冗長性)によって決定することができる。いくつかの選択された点に関して偏移Δを有する場合、全ての決定された偏移Δを、図13に示すマップに描き込むことができ、これは誤差フィールドと呼ばれる場合もある。2つだけのユニットの場合、各偏移Δのただ1つの成分しか、誤差フィールドに描き込めない。ばらつきが単一の原因または理由に起因する場合、誤差フィールドは、特定の種類のばらつきに関して典型的なものである。図13は、第1のカメラ111のロール角に関する較正パラメータが正確でないときなど、視線の方向を中心とした第1のカメラ111の回転によって生成される誤差フィールドの例を例示している。 In general, the deviation Δ is a vector. In an embodiment with two units U 1 , U 2 , such as projector 121 and camera 111, for example, only the component of the deviation Δ perpendicular to the epipolar line “e” is known. The component parallel to the epipolar line “e” disappears when determining the 3D coordinates. In an embodiment having more than two units, such as the projector 121 and both cameras 111, 112, the component of the deviation Δ in both dimensions of the plane is represented by redundant measurements (and in detecting the deviation). Redundancy in determining 3D coordinates). If we have a deviation Δ for several selected points, all the determined deviations Δ can be drawn in the map shown in FIG. 13, which is sometimes called the error field. In the case of only two units, only one component of each deviation Δ can be drawn in the error field. If the variation is due to a single cause or reason, the error field is typical for a particular type of variation. FIG. 13 illustrates an example of an error field generated by the rotation of the first camera 111 about the direction of the line of sight, such as when the calibration parameter relating to the roll angle of the first camera 111 is not accurate.

ここで図12〜図14を参照すると、偏移Δはここでは、エピ極線拘束条件に関して記載されている。一般に、関与するユニット(カメラおよびプロジェクタ)に関して、2つの可能性が存在する。一方の可能性では、ユニットU、Uの一方がカメラであり、他方がプロジェクタである。他方の可能性では、両方のユニットU、Uがカメラである。単一のプロジェクタおよび2つのカメラの使用は例示を目的としたものであり、特許請求される発明はこれに限定されるべきではないことを諒解されたい。他の実施形態では、追加のプロジェクタまたはカメラを用いてもよい。3つ以上のユニットを有する(たとえば2つのカメラおよび1つのプロジェクタを有する)ことは、本明細書においてより詳細に検討するように、較正パラメータの自動的な決定における追加の能力をもたらす。 Referring now to FIGS. 12-14, the shift Δ is now described with respect to epipolar constraint conditions. In general, there are two possibilities for the units involved (camera and projector). In one possibility, one of the units U 1 , U 2 is a camera and the other is a projector. In the other possibility, both units U 1 , U 2 are cameras. It should be appreciated that the use of a single projector and two cameras is for illustrative purposes and the claimed invention should not be limited thereto. In other embodiments, additional projectors or cameras may be used. Having more than two units (eg, having two cameras and one projector) provides additional capabilities in the automatic determination of calibration parameters, as discussed in more detail herein.

ユニットU、Uの各々は、透視中心点O、Oまたは投影の中心と呼ばれる場合もある、原点を有する。この点は、全ての光線がユニットから外へと(プロジェクタの場合)またはユニットの中へと(カメラの場合)移るときに通過する点を表す。実際のデバイスでは、全ての光線が透視中心点を通過する訳ではないが、ソフトウェアにおいてカメラシステムの較正パラメータの補正を行って、補正された光線にこれらの点を通過させることができることを諒解されたい。2つの透視中心点O、Oは、ユニットU、Uの間のベースライン距離208を規定する。 Each of the units U 1 , U 2 has an origin, sometimes referred to as the perspective center point O 1 , O 2 or the center of projection. This point represents the point through which all rays pass when moving out of the unit (in the case of a projector) or into the unit (in the case of a camera). In a real device, not all rays pass through the fluoroscopy center point, but it is understood that the software can calibrate the calibration parameters of the camera system and pass these points through the corrected ray. I want. The two perspective center points O 1 and O 2 define a baseline distance 208 between the units U 1 and U 2 .

ユニットU、Uの各々は、画像が形成される平面210、230も有する。プロジェクタにおいて、この平面は、プロジェクタ平面P121として知られており、カメラにおいては、これは画像平面B111、B112として知られている。典型的には、実際のプロジェクタまたはカメラにおいては、プロジェクタ平面P121または画像平面B111、B112は、図14に例示するような透視中心O、Oの前ではなく、これらよりも後ろにある。ほとんどの場合、(カメラにおける)感光性アレイまたは(プロジェクタにおける)パターン生成器などのハードウェアデバイスは、透視中心よりも後ろの平面の位置に置かれる。しかしながら、図14に示すように透視中心の前に平面が位置することは、平面が透視中心の他方側に位置決めされていることと数学的に等価であることを諒解されたい。 Each of the units U 1 and U 2 also has planes 210 and 230 on which images are formed. In the projector this plane is known as the projector plane P 121 and in the camera this is known as the image planes B 111 , B 112 . Typically, in an actual projector or camera, the projector plane P 121 or the image planes B 111 , B 112 are not behind the perspective centers O 1 , O 2 as illustrated in FIG. 14, but behind them. It is in. In most cases, a hardware device such as a photosensitive array (in a camera) or a pattern generator (in a projector) is placed in a plane position behind the perspective center. However, it should be appreciated that the presence of the plane in front of the perspective center as shown in FIG. 14 is mathematically equivalent to the plane being positioned on the other side of the perspective center.

透視中心O、Oは、ベースライン距離Bによって隔てられる。透視中心O、Oを接続するベースライン208は、点E、Eにおいて平面230、210と交わる。この交差の点は、エピ極点と呼ばれ、エピ極としても知られている。エピ極の一方を通って対応する平面上に引かれた線は、エピ極線と呼ばれる。平面210および対応するエピ極Eの場合、エピ極線は212である。平面230上の点Pは、エピ極線212上にある。 The perspective centers O 1 and O 2 are separated by a baseline distance B. A base line 208 connecting the perspective centers O 1 and O 2 intersects the planes 230 and 210 at points E 1 and E 2 . This point of intersection is called the epipole and is also known as the epipole. A line drawn on a corresponding plane through one of the epipoles is called an epipolar line. For the plane 210 and the corresponding epipolar E 2 , the epipolar line is 212. The point P 1 on the plane 230 is on the epipolar line 212.

上で説明したように、光線232などの各光線は、透視中心点Oを通過して230などの平面に到達し、そこに画像が形成される。平面230がプロジェクタ平面である場合は、点Pは、物体までの距離に応じて、P、P、P、またはPなどの点において、物体上に投影される。これらの点P、P、P、Pは、共通の光線232を共有しており、この例ではカメラであるユニットU上の対応する点Q、Q、Q、またはQにおいて、エピ極線212上に収まる。光線232およびエピ極線212はいずれも、点O、O、およびPを含む平面上にある。平面230がプロジェクタ平面ではなくカメラ平面である場合は、このカメラの画像平面によって受信された点Pは、エピ極線212上の任意の点から、たとえば点Q、Q、Q、またはQのいずれかから到達し得る。 As explained above, each ray such as ray 232 passes through the perspective center point O 1 and reaches a plane such as 230 where an image is formed. If the plane 230 is a projector plane, the point P 1 is projected onto the object at a point such as P A , P B , P C , or P D depending on the distance to the object. These points P A , P B , P C , P D share a common ray 232, and in this example the corresponding points Q A , Q B , Q C , or on unit U 2 , which is a camera, in Q D, it fits on epipolar 212. Both beam 232 and epipolar 212 is on a plane including the point O 1, O 2, and P D. If the plane 230 is a camera plane rather than a projector plane, the point P 1 received by this camera image plane is from any point on the epipolar line 212, eg, points Q A , Q B , Q C , or may be reached from any of the Q D.

図13は、ユニットUの平面210上のエピ極線212に加えて、ユニットUの平面230上のエピ極線234を示す。エピ極線212上の任意の点V(およびW、W、W)は、エピ極線234上に対応する点(画像または投影点)U、U、U、Uを有さねばならない。同様に、エピ極線234上の任意の点U、U、U、Uは、エピ極線212上に対応する点W、W、W、Vを有さねばならない。点の組240は、物体Oと交わり得る空間内の点、たとえばV、V、V、Vを表している。 FIG. 13 shows an epipolar line 234 on the plane 230 of the unit U 1 in addition to the epipolar line 212 on the plane 210 of the unit U 2 . Any point V 1 (and W A , W B , W C ) on the epipolar line 212 corresponds to a corresponding point (image or projection point) U A , U B , U C , U D on the epipolar line 234. Must have. Similarly, any point U A on the epipolar 234, U B, U C, U D is should have W A point corresponding on epipolar 212, W B, W C, the V 1 . The point set 240 represents points in the space that can intersect the object O, for example, V A , V B , V C , V D.

3D測定デバイス100による測定の通常の実行において、測定結果が補正された較正パラメータ(すなわち補正された較正)を得るためにも用いられる場合、この3D測定デバイス100は、自己較正または自動較正を行っている。本発明のある実施形態では、補正された新しい較正パラメータを得るための第1のステップは、エピ極線拘束条件に基づいて予想される位置との関係における、プロジェクタ平面または画像平面上の選択された点の画像の位置のばらつきを検出することである。   In the normal execution of measurements by the 3D measurement device 100, the 3D measurement device 100 performs self-calibration or automatic calibration if the measurement results are also used to obtain a corrected calibration parameter (ie corrected calibration). ing. In an embodiment of the invention, the first step to obtain a corrected new calibration parameter is selected on the projector plane or image plane in relation to the expected position based on epipolar constraints. It is to detect the variation in the position of the image of the point.

そのようなばらつきの例を、図14に示す。平面230上の点236は、点238において物体と交わる。エピ極線幾何拘束条件によれば、点238は、エピ極線212上に、詳細には点218において、現れるべきである。この場合、実際の点は、位置216において観察された。一般に、2つの平面210、230のみを用いる場合、知られているのは、エピ極線234上に収まる点236に関して、対応する点は、エピ極線212上に収まるべきである、ということだけである。点216がエピ極線212上に収まらないことは、較正パラメータに関して問題が存在することを示唆しているが、欠陥のある較正パラメータが、外因性パラメータであるのか内因性パラメータであるのかまたは動作パラメータであるのかを、単一の点216の観察に基づいて述べるのは、困難である。   An example of such variation is shown in FIG. Point 236 on plane 230 intersects the object at point 238. According to epipolar geometric constraints, point 238 should appear on epipolar line 212, specifically at point 218. In this case, the actual point was observed at position 216. In general, when using only two planes 210, 230, it is only known that for a point 236 that falls on the epipolar line 234, the corresponding point should fall on the epipolar line 212. It is. The fact that point 216 does not fit on epipolar line 212 suggests that there is a problem with the calibration parameter, but whether the defective calibration parameter is an extrinsic parameter or an intrinsic parameter or operation It is difficult to state whether it is a parameter based on the observation of a single point 216.

図14は、外因性較正パラメータにおいて見られる可能性のあるいくつかの誤差を示す。見られる可能性のある誤差の1つの種類は、ベースライン208における、ベースライン距離B、ならびに透視中心O、Oの特定の位置である。言い換えれば、公称のベースライン208の方向に沿った(誤差252)、および公称のベースライン208の方向に対して垂直な方向における(誤差254)、透視中心点の座標におけるものである。別の可能な外因性誤差は、ユニットUまたはユニットUの角度配向におけるものである。この配向を特徴付ける1つの方法は、軸255を中心とするピッチ角256および軸257を中心とするヨー角258に着目するものである。平面230および210のピッチ角およびヨー角に関する較正パラメータが正しくない場合、平面上の点は、エピ極線幾何拘束条件に基づいて予想される位置に対応しないことになる。ユニットUおよびユニットUは、カメラまたはプロジェクタのロール角に関して、正しくない較正パラメータを有する可能性もある。本明細書においてさらに検討するような自動較正手法において、そのような誤差を検出し補正することができる。ロール角較正パラメータは、外因性パラメータよりもむしろ内因性較正パラメータであると見なされる場合がある。 FIG. 14 shows some errors that may be seen in the extrinsic calibration parameters. One type of error that may be seen is the baseline distance B, as well as the particular location of the perspective centers O 1 , O 2 , at the baseline 208. In other words, in the coordinates of the perspective center point along the direction of the nominal baseline 208 (error 252) and in the direction perpendicular to the direction of the nominal baseline 208 (error 254). Another possible extrinsic error is in the angular orientation of unit U 1 or unit U 2 . One way to characterize this orientation is to focus on the pitch angle 256 about the axis 255 and the yaw angle 258 about the axis 257. If the calibration parameters for the pitch and yaw angles of the planes 230 and 210 are not correct, the points on the plane will not correspond to the positions expected based on the epipolar geometric constraints. Unit U 1 and unit U 2 may have incorrect calibration parameters with respect to the roll angle of the camera or projector. Such errors can be detected and corrected in an automatic calibration technique as discussed further herein. The roll angle calibration parameter may be considered an intrinsic calibration parameter rather than an extrinsic parameter.

偏移が大き過ぎる場合、エピ極線拘束条件を連立して解く際に、点Xの対応を見出すのに困難が生じる場合がある。ある実施形態では、パターンXは、光強度の低い多数(たとえば10,000個)のスポットおよび光強度の高いより少数(たとえば1,000個)のスポットから成る。この光強度の違いにより、3D測定デバイス100は、高いまたは低い反射率を有する表面を有する物体を認識することができる。対応を見出すのに困難が生じる場合、パターンX中に投影されるスポット同士をさらに遠く離間して、第4の工程ブロック中の対応の決定における曖昧さを低減することが可能である。光強度に違いがある実施形態では、強度のより低いスポットをフィルタリングして除去できるか、または、露出時間を減らすおよび/もしくはプロジェクタ121の合計出力を下げることによって、少なくとも減らすことができる。この例では、光強度の高い(より大きい間隔を有する)スポットのみが、カメラ111、112で見えている。このことにより、対応を決定する際の曖昧さが低減される。 If deviation is too large, when solved by simultaneous equations epipolar constraint, it may be difficult to find the correspondence of the point X O occurs. In some embodiments, pattern X consists of a large number (eg, 10,000) of low light intensity and a smaller number (eg, 1,000) of high light intensity. Due to this difference in light intensity, the 3D measurement device 100 can recognize an object having a surface with high or low reflectivity. If difficulty arises in finding the correspondence, the spots projected in the pattern X can be further spaced apart to reduce ambiguity in determining the correspondence in the fourth process block. In embodiments where the light intensity is different, the lower intensity spots can be filtered out or at least reduced by reducing the exposure time and / or lowering the total output of the projector 121. In this example, only the spots with high light intensity (with larger intervals) are visible with the cameras 111 and 112. This reduces ambiguity when determining the correspondence.

十分にかつ正しく較正パラメータを決定するために、3D測定デバイス100の周囲の全容積を測定のために用いるのが、特に外因性パラメータの決定のために深さ情報を用いるのが、有利である。例として、図19は、2つのカメラ111および112の相対幾何がどのように検証されるかを(概略的に)示す。この目的のために、3D測定デバイス100までの距離が異なる(すなわち深さの異なる)2つの点X、Xが選択される。点XまたはXの各々および以前の較正を用いて、カメラ111および112が依然として一貫した結果を提供するかどうかを検証できる。2つのカメラ111および112の相対距離のまたは相対的な整列関係の偏移に起因してばらつきが生じる場合、2つの異なる距離に関する2つの種類の誤差を区別することが可能である。担持構造102の高い機械的および熱的安定性により、3D測定デバイス100の熱による変形またはその機械的ショックにより引き起こされる変形は稀であると考えられるが、たとえばカメラ111、112、113のおよびプロジェクタ121の装着手段においては、生じる可能性がある。3D測定デバイス100の開始動作の切り替え後、および長い時間的な隔たりの後、たとえば20から100個のフレームの取得後などで、較正を検証すれば、ほとんどの場合は十分である。 In order to determine the calibration parameters sufficiently and correctly, it is advantageous to use the entire volume around the 3D measuring device 100 for the measurement, in particular using the depth information for the determination of the extrinsic parameters. . As an example, FIG. 19 shows (schematically) how the relative geometry of the two cameras 111 and 112 is verified. For this purpose, two points X 1 , X 2 with different distances to the 3D measuring device 100 (ie different depths) are selected. Each of the points X 1 or X 2 and the previous calibration can be used to verify whether the cameras 111 and 112 still provide consistent results. If the variation occurs due to the relative distance or relative alignment shift of the two cameras 111 and 112, it is possible to distinguish between the two types of errors for the two different distances. Due to the high mechanical and thermal stability of the carrier structure 102, deformation due to heat or its mechanical shock of the 3D measurement device 100 is considered rare, but for example in cameras 111, 112, 113 and projectors. In the mounting means 121, this may occur. It is sufficient in most cases to verify the calibration after switching the starting operation of the 3D measuring device 100 and after a long time interval, for example after acquiring 20 to 100 frames.

決定された偏移Δに従って較正パラメータを見直すことができ、たとえば、選択された点X、X、またはXによって検出された偏移を補償することができる。点の3D座標を測定する際の冗長性を用いて、新しい較正パラメータを決定することができる。たとえば、較正パラメータを、最適化方策に従い、偏移Δが最小化されるかまたは所定の閾値未満となるまで、変更(補正)することができる。新しい較正パラメータは、現時点で用いられている較正パラメータと比較され、適切である場合、すなわち、(補正された)新しい較正パラメータと現時点で用いられている較正パラメータとの間の逸脱が所定の閾値を超える場合、これらを置き換える。こうして、較正が補正される。機械的問題に起因する偏移の多くが単独の事象であり、較正パラメータ、特に外因性または内因性パラメータの永続的な補正によって修正され得ることを諒解されたい。 The calibration parameters can be reviewed according to the determined deviation Δ, for example, the deviation detected by the selected point X 0 , X 1 , or X 2 can be compensated. Using the redundancy in measuring the 3D coordinates of the points, new calibration parameters can be determined. For example, the calibration parameters can be changed (corrected) according to an optimization strategy until the deviation Δ is minimized or below a predetermined threshold. The new calibration parameter is compared with the currently used calibration parameter and if appropriate, ie the deviation between the (corrected) new calibration parameter and the currently used calibration parameter is a predetermined threshold. If it exceeds, replace them. Thus, the calibration is corrected. It should be appreciated that many of the deviations due to mechanical problems are single events and can be corrected by permanent correction of calibration parameters, particularly extrinsic or intrinsic parameters.

プロジェクタ121の動作パラメータの逸脱に関連する誤差は、外因性パラメータまたは内因性パラメータの逸脱よりもはるかに速く判定することができる。ある実施形態では、チェックされるべき動作パラメータは、光源121aの波長である。この波長は、たとえば光源121aの温度上昇またはポンプ電流の変化に起因して、変化する可能性がある。図20にある実施形態を(概略的に)示す。回折素子124によって生成されたパターンXは、波長の変化とともに縮尺が変わる。図21のエラーフィールド内に示すように、レーザ光線のゼロ次回折の位置など、パターンXの中心では、波長が変化する場合に中心パターン要素の位置の偏移は存在しない。偏移Δは、たとえばより周縁にあるパターン要素においてなど、回折次数のより高い場所に、位置のシフトとして現れる。単一のカメラ111または112を用いて、パターン要素の個々の回折の位置のそのようなシフトを認識することができる。   Errors associated with deviations in projector 121 operating parameters can be determined much faster than extrinsic parameters or intrinsic parameter deviations. In some embodiments, the operating parameter to be checked is the wavelength of the light source 121a. This wavelength may change due to, for example, a temperature rise of the light source 121a or a change in pump current. The embodiment in FIG. 20 is shown (schematically). The scale of the pattern X generated by the diffraction element 124 changes as the wavelength changes. As shown in the error field of FIG. 21, there is no shift in the position of the central pattern element when the wavelength changes at the center of the pattern X, such as the zero-order diffraction position of the laser beam. The shift Δ appears as a position shift at a higher diffraction order, for example in a pattern element at the periphery. A single camera 111 or 112 can be used to recognize such shifts in the individual diffraction positions of the pattern elements.

物体Oに対する3D測定デバイス100の(および結果的にプロジェクタ121の)位置および整列関係が不変のままである場合、物体O上の選択された点は、3Dスキャン中の理論上の座標X(すなわち直近に用いられた較正によって決定された座標)を有する点から、これと異なる実際の座標Xを有する点へと移動する。言い換えれば、予想される点Xが、実際の点Xになる。図19に関連して上記したように、深さ情報を用いて、各単一のショットのフレームから、選択された点Xの実際の3D座標を決定することができる。点Xの実際の座標の、選択された点の理論上の座標Xからの偏移Δが生じた場合、波長の変更が検出される。この新しい波長は、偏移Δのサイズから決定される。別の実施形態では、選択された点Xの実際の座標の、理論上の座標Xからの偏移を検出するために、異なる時間に取り込まれた2つのフレームが比較される。 If the position and alignment of the 3D measurement device 100 (and consequently the projector 121) with respect to the object O remain unchanged, the selected point on the object O is the theoretical coordinate X 1 ( That is, the point having the coordinate (determined by the most recently used calibration) is moved to a point having an actual coordinate X 2 different from this point. In other words, X 1 that is expected, the actual point X 2. As described above in connection with FIG. 19, using the depth information, from each single shot frame, it is possible to determine the actual 3D coordinates of a point selected X 2. If a deviation Δ of the actual coordinates of the point X 2 from the theoretical coordinates X 1 of the selected point occurs, a change in wavelength is detected. This new wavelength is determined from the size of the shift Δ. In another embodiment, the actual coordinates of X 2 selected points, in order to detect the deviation from the coordinate X 1 of the theoretical two frames captured at different times are compared.

波長の変化が観察される場合、適切である場合は、この変化に対抗するための処置をとることができるか、または較正を補正することができる。検出された新しい波長で較正の波長を置き換えることによって、較正の補正を行うことができる。言い換えれば、波長の較正パラメータが変更される。変化に対抗するための処置は、たとえば、レーザを冷却(光源121aがレーザである場合)またはポンプ電流を低減して、波長をその変化していない(すなわち元の)値に戻すことを含み得る。制御ループにおけるフィードバックをポンプ電流にまたはレーザ冷却に適用することによって、レーザの波長を安定させることができる。   If a change in wavelength is observed, action can be taken to counter this change, if appropriate, or the calibration can be corrected. Calibration correction can be performed by replacing the calibration wavelength with the detected new wavelength. In other words, the wavelength calibration parameter is changed. Treatment to counter the change may include, for example, cooling the laser (if the light source 121a is a laser) or reducing the pump current to return the wavelength to its unchanged (ie, original) value. . By applying feedback in the control loop to the pump current or to laser cooling, the laser wavelength can be stabilized.

制御システムが用いられないとき、光源121aによっては、波長がドリフトする場合がある。これらの実施形態では、あり得る波長の範囲をカバーするために、広帯域の光学バンドパスフィルタを用いてよい。ただし、広帯域の光学フィルタは、より多くの望まれない環境光を通過させる場合があり、このことは、屋外で作業するときに問題である場合がある。したがって、用途によっては、波長制御システムが望ましい。波長の変化を直接観察する本明細書に記載の実施形態は、通常であれば温度と電流の両方の安定化を必要とする波長制御システムの単純化において、利点を提供することを諒解されたい。   When the control system is not used, the wavelength may drift depending on the light source 121a. In these embodiments, a broadband optical bandpass filter may be used to cover a range of possible wavelengths. However, broadband optical filters may pass more unwanted ambient light, which can be a problem when working outdoors. Therefore, a wavelength control system is desirable depending on the application. It should be appreciated that the embodiments described herein for directly observing wavelength changes provide advantages in simplifying wavelength control systems that would normally require stabilization of both temperature and current. .

ファブリペロー(FP)レーザなどのいくつかの種類の半導体レーザは、シングル空間モードを投射するが、複数の縦モードにも対応してすることができ、この場合、各縦モードは僅かに異なる周波数を有する。場合によっては、電流を調節して、単一の縦モードでの動作と複数の縦モードでの動作との間で切り替えを行うことができる。レーザの縦モードの数は、プロジェクタ121の動作パラメータであり得る。通常は、1つの単独の波長が望まれるが、その理由は、これが単一の良好に規定されたパターンXを作り出すからである。レーザによって2つの波長が作り出される場合、2番目の波長は、所望のパターンXにおいてある種の影を作り出す。この結果は、図20を参照して説明することができる。複数の縦モードの波長の違いに応じて、円形の点が、楕円形またはバーベル形状または点の対X、Xとなる場合がある。これらの偏移を、受信されたパターンXに画像処理を適用することによって検出することができる。複数のモードが観察される場合、縦モードの数を1つに減らすように、ポンプ電流または冷却を調節することができる。 Some types of semiconductor lasers, such as Fabry-Perot (FP) lasers, project a single spatial mode, but can also support multiple longitudinal modes, where each longitudinal mode has a slightly different frequency. Have In some cases, the current can be adjusted to switch between operation in a single longitudinal mode and operations in multiple longitudinal modes. The number of longitudinal modes of the laser can be an operating parameter of the projector 121. Usually, one single wavelength is desired because it creates a single well-defined pattern X. If two wavelengths are created by the laser, the second wavelength creates some kind of shadow in the desired pattern X. This result can be described with reference to FIG. Depending on the difference in wavelength of the plurality of longitudinal modes, the circular point may be an ellipse or barbell shape or a pair of points X 1 and X 2 . These shifts can be detected by applying image processing to the received pattern X. If multiple modes are observed, the pump current or cooling can be adjusted to reduce the number of longitudinal modes to one.

カメラ111および112の内因性パラメータ、たとえば焦点距離の逸脱は、場合によっては自動的に認識され補償され得る。他の例では、内因性パラメータの逸脱は、熱的または機械的な原因からではなく、操作者による意図的な行為に起因してまたは3D測定デバイス100の操作を通して、生じる場合がある。これらの行為は、たとえば、カメラ111、112の光学的特性の変更、またはカメラ111、112のフォーカスもしくはズームによるものを含み得る。   Intrinsic parameters of cameras 111 and 112, such as deviations in focal length, can be automatically recognized and compensated in some cases. In other examples, intrinsic parameter deviations may occur due to intentional actions by the operator or through operation of the 3D measurement device 100 rather than from thermal or mechanical causes. These actions may include, for example, by changing the optical properties of the cameras 111, 112, or by focusing or zooming the cameras 111, 112.

較正結果を検証するさらなる可能性は、2Dカメラ113によって取り込まれた2D画像を用いた三角測量に基づいて、3Dスキャンデータを組み合わせることである。これらの2D画像は通常、物体Oの色および他の特徴を備える。1つの実施形態では、プロジェクタ121および2つのカメラ111および112は、物体Oのフレームを同期して取り込むために、カメラ113と同期される。この実施形態では、プロジェクタ121は、カメラ111、112によって受信される赤外光を赤外フィルタを通して投影し、一方、カメラ113は、赤外光波長およびしたがってパターンXを遮断するフィルタを通して、物体Oの画像を受信する。こうしてカメラ113は、物体Oの特徴の鮮明な画像を受信する。カメラ111、112によって観察された物体の特徴をカメラ113によって観察されたものと比較することによって、要素111、112および121を含む三角測量系の較正パラメータにおける誤差を決定することができる。較正パラメータにおける誤差を決定するために用いられる方法は、ユニットU、Uの一方と見なされている2Dカメラ113など、ここに記載するものと似ている。取り込まれたフレームにおいて対応が検出され、選択された物体の特徴の3D座標が決定される。3D座標を決定する際の冗長性により、新しい較正パラメータを決定することができ、これらが、現時点で用いられている較正パラメータと比較される。現時点の較正パラメータと新しい較正パラメータとの間の差異が閾値を超える場合、新しい較正パラメータが現時点で用いられているものに置き換わる。 A further possibility to verify the calibration result is to combine 3D scan data based on triangulation using 2D images captured by the 2D camera 113. These 2D images typically comprise the color of the object O and other features. In one embodiment, the projector 121 and the two cameras 111 and 112 are synchronized with the camera 113 to capture the frame of the object O synchronously. In this embodiment, the projector 121 projects the infrared light received by the cameras 111, 112 through an infrared filter, while the camera 113 passes the object O through a filter that blocks the infrared light wavelength and thus the pattern X. The image of is received. Thus, the camera 113 receives a clear image of the feature of the object O. By comparing the object features observed by the cameras 111, 112 with those observed by the camera 113, errors in the calibration parameters of the triangulation system including the elements 111, 112 and 121 can be determined. The method used to determine the error in the calibration parameters is similar to that described here, such as the 2D camera 113 that is considered one of the units U 1 , U 2 . Correspondence is detected in the captured frame and the 3D coordinates of the selected object features are determined. Due to the redundancy in determining the 3D coordinates, new calibration parameters can be determined and compared to the calibration parameters currently used. If the difference between the current calibration parameter and the new calibration parameter exceeds the threshold, the new calibration parameter replaces the one currently used.

別の実施形態では、カメラ113によって受信された光は、赤外光を排除するようにフィルタリングされない。そうではなく、この実施形態では、カメラ113は、物体O上に存在する場合、パターンXの画像を検出および取得することができる。カメラ113は次いで、2つのモードのいずれかで動作することができる。第1のモードでは、カメラ113は、プロジェクタ121によるパターンXのパルス状の投影の時間的な合間に画像を収集する。このモードでは、カメラ113は、較正パラメータにおける誤差を決定するために、111、112、および121を含む三角測量系によって計算された特徴と比較され得る特徴の画像を取り込む。第2のモードでは、カメラ113は、パターンXが物体O上に投影されているときに画像を取得する。この場合、三角測量の要素111、112、および121に対する、カメラ113の6つの自由度の相対的な整列関係における誤差が決定され得る。   In another embodiment, the light received by camera 113 is not filtered to exclude infrared light. Instead, in this embodiment, the camera 113 can detect and acquire an image of the pattern X when it is on the object O. The camera 113 can then operate in either of two modes. In the first mode, the camera 113 collects images in the time interval of the pulse-like projection of the pattern X by the projector 121. In this mode, camera 113 captures an image of features that can be compared to features calculated by a triangulation system including 111, 112, and 121 to determine errors in calibration parameters. In the second mode, the camera 113 acquires an image when the pattern X is projected on the object O. In this case, an error in the relative alignment of the six degrees of freedom of the camera 113 relative to the triangulation elements 111, 112, and 121 can be determined.

2Dカメラ113によって取得された画像がカメラ111、112の画像フレームの間で受信される事例では、画像のインターリーブの根拠を与えるために、3Dおよび2D座標データの補間を行うことができる。そのような補間は数学的なものであってよい。1つの実施形態では、補間は、カルマンフィルタ計算に少なくとも一部基づいていてよい。ある実施形態では、3D測定デバイス100には、慣性測定ユニット(または別の位置追跡デバイス)が設けられる。慣性測定ユニットは、3つのセンサ(加速度計)を用いて空間の3方向における加速度を、および、3つのさらなるセンサ(ジャイロスコープ)を用いて3つの座標軸の回りの角速度を、測定する。移動をこうして、短い時間尺度で測定することができる。これらの移動測定により、プロジェクタおよびカメラ111、112により測定された距離と2Dカメラ113により取得された画像との間で、時間に関する補償的な相殺が可能になる。この補償的な相殺により、データの組み合わせが可能になる。   In the case where the image acquired by the 2D camera 113 is received between the image frames of the cameras 111, 112, 3D and 2D coordinate data can be interpolated to provide a basis for image interleaving. Such interpolation may be mathematical. In one embodiment, the interpolation may be based at least in part on a Kalman filter calculation. In some embodiments, the 3D measurement device 100 is provided with an inertial measurement unit (or another position tracking device). The inertial measurement unit measures the acceleration in three directions of space using three sensors (accelerometer) and the angular velocity about three coordinate axes using three additional sensors (gyroscope). Movement can thus be measured on a short time scale. These movement measurements allow time-related compensation cancellation between the distances measured by the projector and cameras 111 and 112 and the image acquired by the 2D camera 113. This compensatory cancellation allows data combinations.

図7に示すディスプレイ130の1つの実施形態は、細分された画像または細分されたスクリーンを例示している。この実施形態では、ディスプレイ130は、第1のディスプレイ部130aおよび第2のディスプレイ部130bへと分割される。本実施形態では、第1のディスプレイ部130aは、(矩形の)ディスプレイ130の中央部であり、第2のディスプレイ部130bは、第1のディスプレイ部130aの周囲の周縁領域である。別の実施形態では、2つのディスプレイ部は縦の列であってよい。例示した実施形態では、第1のディスプレイ部130aは矩形の形状を有するものとして示されているが、これは例示を目的としており、特許請求される発明はこれに限定されるべきではない。他の実施形態では、第1のディスプレイ部130aは、限定するものではないが、円形、正方形、台形、不等辺四辺形、平行四辺形、卵形、三角形、または任意の数の辺を有する多角形を含む、他の形状を有し得る。1つの実施形態では、第1のディスプレイ部130aの形状は使用者定義のもの、または選択可能なものである。   One embodiment of the display 130 shown in FIG. 7 illustrates a subdivided image or a subdivided screen. In this embodiment, the display 130 is divided into a first display unit 130a and a second display unit 130b. In the present embodiment, the first display unit 130a is a central part of the (rectangular) display 130, and the second display unit 130b is a peripheral region around the first display unit 130a. In another embodiment, the two display units may be in a vertical column. In the illustrated embodiment, the first display portion 130a is shown as having a rectangular shape, but this is for illustrative purposes and the claimed invention should not be limited to this. In other embodiments, the first display unit 130a may be, but is not limited to, a circle, a square, a trapezoid, an unequal quadrilateral, a parallelogram, an oval, a triangle, or any number of sides having any number of sides. It can have other shapes, including squares. In one embodiment, the shape of the first display unit 130a is user-defined or selectable.

第1のディスプレイ部130aにおいて、ビデオライブ画像VL、たとえば2Dカメラ113によって取り込まれたものなどが表示される。第2のディスプレイ部130bにおいて、直近の3Dスキャンの画像(または重ね合わせられている複数の3Dスキャン)が、3次元ポイントクラウド3DPを少なくとも部分的に見たものとして表示される。第1のディスプレイ部130aのサイズは可変であり、第2のディスプレイ部130bは、第1のディスプレイ部130aとディスプレイ130の境界131との間の領域内に配置される。使用者がデバイス100を移動させるときなど、ビデオライブ画像VLが変化するにつれ、3次元ポイントクラウド3DPの画像はそれに応じて変化して、デバイス100の位置および配向の変化を反映する。   On the first display unit 130a, a video live image VL, for example, one captured by the 2D camera 113 is displayed. In the second display unit 130b, an image of the latest 3D scan (or a plurality of superimposed 3D scans) is displayed as at least a partial view of the 3D point cloud 3DP. The size of the first display unit 130 a is variable, and the second display unit 130 b is disposed in a region between the first display unit 130 a and the boundary 131 of the display 130. As the video live image VL changes, such as when the user moves the device 100, the image of the 3D point cloud 3DP changes accordingly to reflect changes in the position and orientation of the device 100.

ビデオライブ画像VLの周縁の周囲に3次元ポイントクラウド3DPの画像を置くことにより、どこで追加のスキャンが必要とされ得るかを、使用者が自身の目をディスプレイ130から離すことなく容易に見ることを可能にすることにおいて、利点が提供されることを諒解されたい。加えて、既に取得された3Dデータに対する現時点のカメラ位置のコンピュータによる位置合わせが、所望の仕様の範囲内にあるかを、使用者が判定するのが望ましい場合がある。この位置合わせが仕様の範囲外にある場合、画像と3次元ポイントクラウド3DPとの間の境界における不連続として、このことに気付くであろう。   By placing an image of the 3D point cloud 3DP around the periphery of the video live image VL, it is easy for the user to see where additional scanning may be required without taking his eyes off the display 130 It should be appreciated that an advantage is provided in enabling. In addition, it may be desirable for the user to determine if the computer alignment of the current camera position with respect to already acquired 3D data is within the desired specifications. If this alignment is out of specification, you will notice this as a discontinuity at the boundary between the image and the 3D point cloud 3DP.

カメラ113が取り込んだ画像は、シーンの2次元(2D)画像である。3次元視したものに変えられる2D画像は通常は、カメラにおいて用いられる光学レンズの種類に応じて、糸巻き形状のまたは樽形状の歪みを含むことになる。一般に、カメラ113の視界(FOV)が狭い(たとえば約40度)である場合、歪みは使用者には容易には見えない。同様に、3次元ポイントクラウドデータの画像は、画像がディスプレイに関してどのように処理されるかに応じて、歪んで見える場合がある。ポイントクラウドデータ3DPを平面視したものとして見ることができ、この場合、画像は、スキャナの本来の座標系(たとえば球面座標系)において得られ、平面上にマッピングされる。平面視すると、直線は湾曲して見える。さらに、中央頂縁部および中央底縁部(たとえば極)近くの画像が、画像の中点に沿って延在する線(たとえば赤道)に対して歪む場合がある。さらに、球体表面を矩形のグリッド上に表現しようとすることによって創出される歪みも存在し得る(メルカトル図法の問題と同様)。   The image captured by the camera 113 is a two-dimensional (2D) image of the scene. A 2D image that can be changed to a three-dimensional view usually includes a pincushion-shaped or barrel-shaped distortion, depending on the type of optical lens used in the camera. In general, when the field of view (FOV) of the camera 113 is narrow (for example, about 40 degrees), the distortion is not easily seen by the user. Similarly, an image of 3D point cloud data may appear distorted depending on how the image is processed with respect to the display. The point cloud data 3DP can be viewed as a plan view. In this case, an image is obtained in the original coordinate system (for example, a spherical coordinate system) of the scanner and mapped on the plane. When viewed in plan, the straight line appears curved. Further, images near the central top edge and the central bottom edge (eg, poles) may be distorted with respect to a line (eg, equator) that extends along the midpoint of the image. There may also be distortion created by trying to represent the sphere surface on a rectangular grid (similar to the Mercator projection problem).

使用者に連続的で継ぎ目のない画像体験を提供するために、第1のディスプレイ部130a内の画像を、第2のディスプレイ部130b内の画像と似た見た目にすることが望まれることを諒解されたい。3次元ポイントクラウド3DPの画像が著しく歪んでいる場合、このことにより、どの領域が追加のスキャンを用いることができるのかを使用者が判定することが、難しくなる場合がある。ポイントクラウドデータ3DPの平面画像は2Dカメラ画像に対して歪められている可能性があるので、ポイントクラウドデータ3DPから生成された像に対して1つ以上の処理ステップを行ってもよい。1つの実施形態では、第2のディスプレイ部130bの視界(FOV)は、平面画像の中央部分だけが示されるように限定される。言い換えれば、画像は、画像の歪みの大きい部分を除去するために、切り詰められるかまたはトリミングされる。FOVが小さい場合(たとえば120度未満)、歪みは限定的であり、ポイントクラウドデータ3DPを平面視したものは、使用者によって所望されるような見た目になることになる。1つの実施形態では、平面視したものは、第1のディスプレイ部130a内のカメラ113の画像に適合するように、提供すべき平面画像を縮尺しシフトさせるように処理される。   It is appreciated that in order to provide a continuous and seamless image experience to the user, it is desirable to have the image in the first display unit 130a look similar to the image in the second display unit 130b. I want to be. If the image of the 3D point cloud 3DP is significantly distorted, this can make it difficult for the user to determine which regions can use additional scans. Since the planar image of the point cloud data 3DP may be distorted with respect to the 2D camera image, one or more processing steps may be performed on the image generated from the point cloud data 3DP. In one embodiment, the field of view (FOV) of the second display unit 130b is limited so that only the central portion of the planar image is shown. In other words, the image is truncated or cropped to remove the highly distorted portion of the image. When the FOV is small (for example, less than 120 degrees), the distortion is limited, and the point cloud data 3DP viewed in plan will look as desired by the user. In one embodiment, the planar view is processed to scale and shift the planar image to be provided to match the image of the camera 113 in the first display unit 130a.

別の実施形態では、3次元ポイントクラウドデータ3DPは、パノラマ画像を生成するように処理される。本明細書で使用される場合、パノラマのという用語は、空間内の点(一般には使用者の場所)を中心にして角度に関する移動が可能である表示を指す。パノラマ視は、平面視の場合のように極において歪みを生じさせることがない。パノラマ視は、方位角方向において360度および天頂方向において+/−45度を含む、球形のパノラマであってよい。1つの実施形態では、球形のパノラマ視は、球体の一部分のみであってよい。   In another embodiment, the 3D point cloud data 3DP is processed to generate a panoramic image. As used herein, the term panoramic refers to a display that is capable of angular movement about a point in space (generally the user's location). The panoramic view does not cause distortion at the pole as in the plan view. The panoramic view may be a spherical panorama including 360 degrees in the azimuth direction and +/− 45 degrees in the zenith direction. In one embodiment, the spherical panoramic view may be only a portion of the sphere.

別の実施形態では、ポイントクラウドデータ3DPは、3D表示を生成するように処理することができる。3D表示とは、固定された点を中心にした回転だけでなく空間内の点から点への並進移動も可能にするように整備される表示を指す。これは、使用者が環境内を動き回ることにおいて利点を提供し、第1のディスプレイ部130aと第2のディスプレイ部130bとの間で連続的で継ぎ目のない表示を提供する。   In another embodiment, the point cloud data 3DP can be processed to generate a 3D display. 3D display refers to a display that is arranged to allow not only rotation about a fixed point, but also translational movement from point to point in space. This provides an advantage for the user to move around in the environment and provides a continuous and seamless display between the first display part 130a and the second display part 130b.

1つの実施形態では、第1のディスプレイ部130a内のビデオライブ画像VLおよび第2のディスプレイ部130b内の3次元ポイントクラウド3DPの画像は、(表示される内容に関して)継ぎ目なく連続的に1つに合わせられる。3次元ポイントクラウド3DPの一部が、これが2Dカメラ113の視点からまたは少なくとも2Dカメラ113と整列された位置から見られるような方法で、(制御および評価デバイス122によって)最初に選択される。次いで、3次元ポイントクラウド3DPの選択された一部が、これがビデオライブ画像VLに連続的に接合するような方法で選択される。言い換えれば、3次元ポイントクラウド3DPの表示された画像は、2Dカメラの視界に対して左側の、右側、頂部側および底部側の、2Dカメラ113の視界を越える領域に関して、ビデオライブ画像VLの連続体となる。上で検討したように、3次元ポイントクラウド3DPの選択された部分を、歪みを低減または排除するように処理することができる。他の実施形態では、この表現は魚眼レンズの表現に対応していてよいが、これは歪んでいないのが好ましい。第1のディスプレイ部130aが占める領域内に位置付けられる3次元ポイントクラウド3DPの一部、言い換えればビデオライブ画像VLの下にあるかまたはこれにより隠される部分は、表示されない。   In one embodiment, the video live image VL in the first display unit 130a and the image of the 3D point cloud 3DP in the second display unit 130b are continuously one (with respect to the displayed content). Adapted to. A portion of the 3D point cloud 3DP is initially selected (by the control and evaluation device 122) in such a way that it is viewed from the viewpoint of the 2D camera 113 or from a position aligned with at least the 2D camera 113. The selected part of the 3D point cloud 3DP is then selected in such a way that it is continuously joined to the video live image VL. In other words, the displayed image of the 3D point cloud 3DP is a series of video live images VL with respect to the region beyond the view of the 2D camera 113 on the left side, the right side, the top side, and the bottom side with respect to the view of the 2D camera. Become a body. As discussed above, selected portions of the three-dimensional point cloud 3DP can be processed to reduce or eliminate distortion. In other embodiments, this representation may correspond to a fisheye lens representation, but it is preferably undistorted. A part of the three-dimensional point cloud 3DP positioned in the area occupied by the first display unit 130a, in other words, a part under or hidden by the video live image VL is not displayed.

第1のディスプレイ部130aが位置付けられる領域内の3次元ポイントクラウド3DP中の点の密度は、使用者には見えることがないことを諒解されたい。通常は、ビデオライブ画像VLは、自然なカラーリングを用いて表示される。しかしながら、ビデオライブ画像VLによって覆われるかまたはこれの背後にある領域内の点の密度を示すために、ビデオライブ画像VLのカラーリングを、たとえばオーバーレイによってなどで、人工的に変えることができる。この実施形態では、人工的に着色されたビデオライブ画像VLを表現するために用いられる人工色(および適切である場合はその強度)は、点の密度に対応する。たとえば、ビデオライブ画像VLに対する緑色のカラーリングは、(十分に)高い密度を示すことができ、一方、中程度のまたは低い点密度(たとえばまだスキャンデータが改善され得る領域)を示すために、黄色のカラーリングを用いることができる。別の実施形態では、この色コード化を用いて、距離に依存するデータ点の精度を表示することができる。   It should be appreciated that the density of points in the three-dimensional point cloud 3DP in the region where the first display unit 130a is located is not visible to the user. Normally, the video live image VL is displayed using natural coloring. However, the coloring of the video live image VL can be artificially changed, for example by an overlay, in order to show the density of points in the area covered by or behind the video live image VL. In this embodiment, the artificial color (and its intensity, where appropriate) used to represent the artificially colored video live image VL corresponds to the density of the points. For example, a green coloring for a video live image VL can indicate a (sufficiently) high density, while indicating a medium or low point density (eg an area where scan data can still be improved) Yellow coloring can be used. In another embodiment, this color coding can be used to display the accuracy of data points that are distance dependent.

3Dスキャンの重ね合わせを補助するために、第1のディスプレイ部130a内に、制御および評価デバイス122によって認識された構造(すなわち可能な標的)を示すための、フラグまたはマーク133(図7)を挿入することができる。マーク133は、たとえば小さい「x」または「+」などのシンボルであってよい。認識可能な構造は、物体の点、隅角、縁部、またはテクスチャとすることができる。認識可能な構造を、重ね合わせ工程の開始部分に(すなわち標的の局所化に)かけられている直近の3Dスキャンまたはビデオライブ画像VLによって見つけることができる。直近のビデオライブ画像VLの使用は、重ね合わせ工程をそれほど頻繁に行う必要がないという点で、利点を提供する。マーク133が高い密度を有する場合、3Dスキャンの重ね合わせが成功であったと考えられる。しかしながら、マーク133のより低い密度が認識される場合、3D測定デバイス100の比較的遅い移動を用いて、追加の3Dスキャンを行ってよい。スキャン中の距離100の移動を遅くすることで、追加のまたはより高い密度の点を取得することができる。これに対応して、マーク133の密度を、重ね合わせの成功に関する品質尺度として用いてよい。同様に、スキャンの成功を示すために、3次元ポイントクラウド3DPの点の密度を用いてよい。上で検討したように、スキャン内の点の密度を、ビデオライブ画像VLの人工的なカラーリングによって表現してよい。   A flag or mark 133 (FIG. 7) is shown in the first display portion 130a to indicate the structure (ie, possible target) recognized by the control and evaluation device 122 to assist in the overlay of 3D scans. Can be inserted. The mark 133 may be a symbol such as a small “x” or “+”. The recognizable structure can be a point, corner, edge, or texture of the object. A recognizable structure can be found by the most recent 3D scan or video live image VL being applied to the beginning of the overlay process (i.e. for target localization). The use of the most recent video live image VL provides an advantage in that the overlay process does not need to be performed as often. If the mark 133 has a high density, it is considered that the 3D scan overlay was successful. However, if a lower density of the mark 133 is recognized, an additional 3D scan may be performed using a relatively slow movement of the 3D measurement device 100. By slowing the movement of the distance 100 during the scan, additional or higher density points can be acquired. Correspondingly, the density of the mark 133 may be used as a quality measure for the success of the overlay. Similarly, the point density of the 3D point cloud 3DP may be used to indicate the success of the scan. As discussed above, the density of points in the scan may be represented by artificial coloring of the video live image VL.

3D測定デバイス100の移動および取り込まれたフレームの処理を、追跡機能によって行うこともできる、すなわち、3D測定デバイス100は、その環境の相対移動を、追跡中に用いられる方法で追跡する。追跡を見失った場合、たとえば、3D測定デバイス100の移動が速すぎる場合、単に追跡を再び行うことができる。この実施形態では、2Dカメラ113によって提供されたそのままのビデオライブ画像VLおよびこれにより提供される追跡からの直近のビデオ静止画像を、使用者のために、ディスプレイ130上に横に並んだ配置で互いに隣接して表すことができる。使用者は次いで、2つのビデオ画像が一致するまで3D測定デバイス100を移動させることができる。   The movement of the 3D measurement device 100 and the processing of the captured frames can also be performed by a tracking function, i.e. the 3D measurement device 100 tracks the relative movement of its environment in the manner used during tracking. If the tracking is lost, for example if the 3D measuring device 100 moves too fast, the tracking can simply be performed again. In this embodiment, the raw video live image VL provided by the 2D camera 113 and the latest video still image from the tracking provided thereby are arranged side by side on the display 130 for the user. It can be expressed adjacent to each other. The user can then move the 3D measurement device 100 until the two video images match.

ここで図15〜図19を参照すると、デバイス100の移動または動作に基づいて3D測定デバイス100を制御するための実施形態が記載される。使用者によるこれらの移動または動作を用いて、ビデオ画像VLのまたは3次元ポイントクラウド3DPの表現を制御することもできる。ある実施形態では、これらのステップまたは動作を、図11を参照して記載される続くブロック203など、測定する方法に組み込むことができる。一般に、3つのステップ、すなわち移動認識ステップ311、移動評価ステップ312、および制御ステップ314が提供される。   Referring now to FIGS. 15-19, an embodiment for controlling the 3D measurement device 100 based on the movement or operation of the device 100 will be described. These movements or actions by the user can also be used to control the representation of the video image VL or the 3D point cloud 3DP. In certain embodiments, these steps or operations may be incorporated into a method of measurement, such as the subsequent block 203 described with reference to FIG. In general, three steps are provided: a movement recognition step 311, a movement evaluation step 312 and a control step 314.

移動認識ステップ311では、たとえば工程ブロック203において行われる認識中などに、3D測定デバイス100の移動が記録される。移動評価ステップ312は、移動の速度または加速度の量および方向を決定する。この決定には、移動の時間的側面、ならびに移動の質および量を組み入れることができる。質の評価において、移動は、メモリに保存された所定の移動と比較され得る。所定の閾値を超える(または超えない)場合は、規定された移動が識別される。制御ステップ313では、評価された移動に基づいて、3D測定デバイス100の動作が変更される。3つ全てのステップ311、312、313を、制御および評価デバイス122によってか、または(たとえばシリアル接続またはネットワーク接続を通して)通信するように制御および評価デバイス122に結合された外部のコンピュータを介してのいずれかで、行うことができることを諒解されたい。   In the movement recognition step 311, the movement of the 3D measurement device 100 is recorded, for example, during the recognition performed in the process block 203. The movement evaluation step 312 determines the amount and direction of speed or acceleration of movement. This determination can incorporate the temporal aspects of movement, as well as the quality and quantity of movement. In the quality assessment, the movement can be compared to a predetermined movement stored in memory. If the predetermined threshold is exceeded (or not exceeded), the defined movement is identified. In the control step 313, the operation of the 3D measurement device 100 is changed based on the evaluated movement. All three steps 311, 312, 313 are either controlled by the control and evaluation device 122 or via an external computer coupled to the control and evaluation device 122 to communicate (eg, via a serial connection or network connection). Please appreciate what you can do either.

3D測定デバイス100の制御は、制御の少なくとも3つの範疇、すなわち測定(たとえば測定されたデータの取得を伴う測定工程)、可視化(たとえば測定されたデータの予備評価およびその表現)、ならびに事後処理(たとえば測定されたデータの最終評価)に影響を及ぼし得る。3D測定デバイス100が、これらの範疇のうちの1つまたは範疇の組み合わせを制御するために、動作を用いてよいことを諒解されたい。さらに、動作に応じて行われる制御機能は、コンテクスト依存型であってよい。たとえば、事後処理の間、制御ステップ313は、移動評価ステップ312の結果の保存のみを提供してもよく、そうでなければこの結果の保存は、測定工程の終了後に実行されることになる。3つの制御範疇は、限定するものではないが、3D測定デバイス100、制御および評価デバイス122、ディスプレイ130、または(シリアル接続またはネットワーク接続を介してなど)ローカルでもしくは遠隔で接続されたコンピューティングデバイスなど、構成要素、下位構成要素、または補助構成要素のいずれとも相互作用できる。   Control of the 3D measurement device 100 includes at least three categories of control: measurement (eg, a measurement process involving acquisition of measured data), visualization (eg, preliminary evaluation of the measured data and its representation), and post processing ( For example the final evaluation of the measured data). It should be appreciated that the 3D measurement device 100 may use operations to control one or a combination of categories. Furthermore, the control function performed according to the operation may be context dependent. For example, during post processing, the control step 313 may only provide a storage of the result of the movement evaluation step 312 otherwise the storage of this result will be performed after the end of the measurement process. The three control categories include, but are not limited to, a 3D measurement device 100, a control and evaluation device 122, a display 130, or a computing device connected locally or remotely (such as via a serial or network connection). Can interact with any of the components, subcomponents, or auxiliary components.

動作、および移動の評価を、図16〜図18において表現されるような3つの群へと細分することができる。本明細書における実施形態は、移動を個別の動きであるとして記載しているが、これらの移動は、組み合わされてよいかまたは連続して行われてよいことを諒解されたい。1つの実施形態では、ユーザインターフェースを、制御ノブ106の構成を選択することなど、動きまたは動作に基づいて選択することができる。   Motion and movement assessments can be subdivided into three groups as represented in FIGS. Although the embodiments herein describe the movements as being individual movements, it should be appreciated that these movements may be combined or performed sequentially. In one embodiment, the user interface can be selected based on movement or movement, such as selecting a configuration of the control knob 106.

ここで図16を参照すると、動作または移動の第1の群が例示されている。動作のこのモードでは、3D測定デバイス100は方向Vに移動される。動きVは、速度および加速度の両方に関して測定される。動きの方向、速度、または加速度に応じて、様々な制御機能が、たとえば取得中の測定値またはディスプレイ130上のデータの可視化を変更する。測定機能が制御される場合、3D測定デバイス100の移動の静止を用いて、1つ以上のカメラ111、112、113の一連の画像を、低いダイナミックレンジで、ただしカメラ111、112、113の露出時間を異ならせて取り込むことができる。別の実施形態では、静止の動作により、様々な照射強度を光源121aまたはLED114から投射させることができる。さらに別の実施形態では、静止の動きにより、シークエンス中に光源121aから様々な照射時間(パルス長さ)をもたらすことができ、高いダイナミックレンジ(HDR)の技法を用いて画像を取得することができる。本明細書で使用される場合、「静止」という用語は、3D測定デバイス100を移動させるのを停止することを、言い換えればいずれの方向においてもゼロ速度を有することを意味する。ある実施形態では、「静止」という用語は、使用者が3D測定デバイス100の速度を閾値未満に下げるときを含む。 Referring now to FIG. 16, a first group of movements or movements is illustrated. In this mode of operation, 3D measurement device 100 is moved in the direction V 1. Motion V 1 was be measured both in terms of speed and acceleration. Depending on the direction of movement, speed, or acceleration, various control functions change, for example, the measurement being acquired or the visualization of data on the display 130. When the measurement function is controlled, a series of images of one or more cameras 111, 112, 113 is used with a low dynamic range, but with exposure of the cameras 111, 112, 113 using the stationary movement of the 3D measurement device 100. You can capture at different times. In another embodiment, various illumination intensities can be projected from the light source 121a or the LED 114 by a stationary operation. In yet another embodiment, stationary motion can result in various exposure times (pulse lengths) from the light source 121a during the sequence, and images can be acquired using high dynamic range (HDR) techniques. it can. As used herein, the term “stationary” means to stop moving the 3D measurement device 100, in other words, to have zero velocity in either direction. In certain embodiments, the term “stationary” includes when the user reduces the speed of the 3D measurement device 100 below a threshold.

1つの実施形態では、ディスプレイ130上のビデオ画像VLのおよび/または3次元ポイントクラウド3DPの表現の縮尺は、3D測定デバイス100の移動の速度および/または加速度に依存してよい。「縮尺」という用語は、第1のディスプレイ部130aのサイズ(線形寸法または面積のいずれか)と全体としてのディスプレイ130のサイズとの間の比として定義され、パーセンテージとして示される。   In one embodiment, the scale of the representation of the video image VL on the display 130 and / or the 3D point cloud 3DP may depend on the speed and / or acceleration of the movement of the 3D measurement device 100. The term “scale” is defined as the ratio between the size of the first display portion 130a (either linear dimension or area) and the size of the display 130 as a whole and is shown as a percentage.

2Dカメラ113の小さい視界は、小さい縮尺に割り当てられる。中央の第1のディスプレイ部130aがビデオライブ画像VLを示す、細分されたディスプレイ130を有する本実施形態では、この第1のディスプレイ部130aはしたがって、標準的な場合におけるよりも小さいサイズのものであってよく、また(第1のディスプレイ部130aの周縁の周りの)第2のディスプレイ部130bは、3次元ポイントクラウド3DPのより大きい部分を示す。より大きい視界は、大きい縮尺に割り当てられる。1つの実施形態では、ビデオライブ画像VLは、ディスプレイ130全体を埋めることができる。   The small field of view of the 2D camera 113 is assigned to a small scale. In this embodiment with a subdivided display 130 where the central first display portion 130a shows a video live image VL, this first display portion 130a is therefore of a smaller size than in the standard case. There may also be a second display part 130b (around the periphery of the first display part 130a) showing a larger part of the three-dimensional point cloud 3DP. A larger field of view is assigned to a larger scale. In one embodiment, the video live image VL can fill the entire display 130.

3D測定デバイス100の高速の移動が検出される場合、表現の縮尺を低速の場合よりも小さく構成してよく、逆の関係も成り立つ。同様に、このことは、3D測定デバイス100の移動の加速度にも当てはまり得る。たとえば、表示された画像の縮尺は、正の加速の場合には小さくされ、また負の加速の場合には、縮尺は大きくされる。縮尺はまた、3D測定デバイス100の移動の速度および/または加速度の成分、たとえば3D測定デバイス100の整列関係に対して垂直にまたはこれと平行に配置される成分にも依存する。整列関係と平行な(すなわち整列関係の方向における)移動の成分に基づいて縮尺が決定される場合、この縮尺は、3D測定デバイス100から物体Oまでの平均距離の変化にも依存させることができる。   When high-speed movement of the 3D measurement device 100 is detected, the scale of the expression may be configured smaller than the case of low speed, and the reverse relationship also holds. Similarly, this may be true for the acceleration of movement of the 3D measurement device 100. For example, the scale of the displayed image is reduced for positive acceleration, and the scale is increased for negative acceleration. The scale also depends on the speed and / or acceleration components of the movement of the 3D measurement device 100, for example, components that are arranged perpendicular or parallel to the alignment relationship of the 3D measurement device 100. If the scale is determined based on the component of movement parallel to the alignment relationship (ie in the direction of the alignment relationship), this scale can also depend on the change in the average distance from the 3D measurement device 100 to the object O. .

いくつかの実施形態では、移動に起因する縮尺の変化、3D測定デバイス100の移動の停止、または達成されていない移動の閾値速度の値を用いて、低いダイナミックレンジを有するカメラ113の一連の静止画像を記録することができる。これらの画像は、これらから高いダイナミックレンジの画像を生成するために、この一連の画像の中で、低いダイナミックレンジでただし異なる露出時間または照射強度で取り込むことができる。   In some embodiments, a change in scale due to movement, a stop of movement of the 3D measurement device 100, or a threshold speed value of movement that has not been achieved, using a series of stationary motions of the camera 113 having a low dynamic range. Images can be recorded. These images can be captured within this series of images with a low dynamic range but with different exposure times or illumination intensities to produce a high dynamic range image therefrom.

ここで図17を参照すると、移動の第2の群は、矢印Vによって示されるような動作または動きを含む。この実施形態では、使用者は、3D測定デバイス100を用いて、円形移動などの特定の小さい移動を実行する。この円形移動は、少なくともほぼ使用者の腕の長さの半径を有する空間の領域内にあってよい。図17は、3D測定デバイス100の前部に直交して延在する軸を中心とするものとして動きVを例示しているが、これは例示を目的としており、特許請求される発明はこれに限定されるべきではないことを諒解されたい。他の実施形態では、回転が行われる中心となる軸は、デバイス100の側部から延在する、またはデバイス100の中心を通って垂直に延在する軸など、異なっていることができる。動作Vの評価は、その移動を保存されている移動の種類と比較することによって、およびこうして動作Vを識別することによって、好ましくは質に関して、行われる。 Referring now to FIG. 17, a second group of mobile includes operation or movement as indicated by the arrow V 2. In this embodiment, the user uses the 3D measurement device 100 to perform certain small movements, such as circular movements. This circular movement may be at least in the region of the space having a radius of the length of the user's arm. FIG. 17 illustrates movement V 2 as centered on an axis extending orthogonal to the front of the 3D measurement device 100, but this is for illustration purposes and the claimed invention is Please understand that it should not be limited to. In other embodiments, the central axis on which the rotation takes place can be different, such as an axis extending from the side of the device 100 or extending vertically through the center of the device 100. Evaluation of operation V 2 by comparing the type of movement stored its movement, and by identifying an operation V 2 Thus, with respect to preferably quality is performed.

動作V単独により、または動作Vとの組み合わせにより、使用者は、データの取得および3D測定デバイス100またはディスプレイ130の操作など、制御の3つ全ての範疇を有効にすることができる。使用者は、個別の状態の間で切り替えを行うことができるか、または、値を1段ずつもしくは連続的に調節することができる。 By operation V 2 alone or in combination with operation V 1 , the user can enable all three categories of control, such as data acquisition and operation of 3D measurement device 100 or display 130. The user can switch between the individual states or can adjust the values step by step or continuously.

1つの実施形態では、3D測定デバイス100の機能を制御するために、動作Vを(単独でまたは動作Vと組み合わせて)用いることができる。これらの制御機能は、限定するものではないが、(たとえばフォトグラメトリとパターン検出と縞投影と組み合わされた方法との間で)測定方法を選択すること、取得の特性(たとえばプロジェクタ121の出力、露出時間、物体距離、パターンまたは点の密度)を選択すること、ならびに追加の測定特性のオンおよびオフを切り替えること(たとえば輪郭の3D認識またはフラッシュ)を含む。 In one embodiment, operation V 2 can be used (alone or in combination with operation V 1 ) to control the functionality of the 3D measurement device 100. These control functions include, but are not limited to, selecting a measurement method (eg, between photogrammetry, pattern detection and fringe projection combined), acquisition characteristics (eg, projector 121 output). , Exposure time, object distance, pattern or point density) and switching on and off additional measurement characteristics (eg, 3D recognition or flashing of contours).

ある実施形態では、ディスプレイ130または外部のコンピューティングデバイスの可視化機能を制御するために、動作Vを(単独でまたは動作Vと組み合わせて)用いることができる。これらの可視化機能は、限定するものではないが、ユーザインターフェースを選択すること(たとえばボタン配置、スキャン中の2Dと3Dと組み合わされたビューとの間の選択)、表現を選択すること(たとえば点サイズ、視野角、正投影または斜視などの投影の種類、またはマップビューなど)、案内法を選択すること(たとえば物体中心またはカメラ中心、ズームが許可されるかどうか)、3D測定デバイス100を、3次元ポイントクラウド3DPを有する共通の座標系を通って案内するための6自由度(x方向、y方向、z方向、ヨー角、ロール角、およびピッチ角)を有するマウスとして用いること、ならびにディスプレイ130上の表現とおよびさらなるユーザインターフェースと、マウスの様式で相互作用すること(たとえばディスプレイ130の中身を移動させて脇にシフトさせる)を含む。 In certain embodiments, in order to control the visualization of the display 130 or an external computing device, it is possible to use an operation V 2 (alone or in combination with operation V 1). These visualization functions include, but are not limited to, selecting a user interface (eg, button placement, selecting between 2D and 3D view being scanned), selecting a representation (eg, dot Size, field of view, type of projection such as orthographic or perspective, or map view), selecting a guidance method (eg, object or camera center, whether zooming is allowed), 3D measurement device 100, Use as a mouse with 6 degrees of freedom (x direction, y direction, z direction, yaw angle, roll angle, and pitch angle) to guide through a common coordinate system with a 3D point cloud 3DP, and display Interact with the representation on 130 and the further user interface in the manner of a mouse (e.g. Including moving the contents of the display 130 is shifted aside).

ある実施形態では、ディスプレイ130または外部のコンピューティングデバイスの事後処理機能を制御するために、動作Vを(単独でまたは動作Vと組み合わせて)用いることができる。これらの事後処理機能は、限定するものではないが、マークを設定すること(対象とする点を、その点を取り囲むことによってなどでマークすること)、視点または回転の点を、対象とする容積の中心に設定すること、3次元ポイントクラウド3DPを有する共通の座標系を通って案内するための場所を(たとえば、マウスキーのクリックに対応するピッチ角の変化を伴う動作によって)規定すること、および(おおよその)重力方向(z方向)を規定することを含む。 In certain embodiments, in order to control the post-processing function of the display 130 or an external computing device, it is possible to use an operation V 2 (alone or in combination with operation V 1). These post-processing functions include, but are not limited to, setting a mark (marking a point of interest by surrounding it, etc.), a point of view or a point of rotation Defining a location for guiding through a common coordinate system having a 3D point cloud 3DP (eg, by an action with a change in pitch angle corresponding to a mouse key click), And defining (approximate) gravity direction (z direction).

いくつかの実施形態では、重力の方向が、3D測定デバイス100の規定された移動によって、重ね合わせ工程の始めに規定され得る。この規定された移動は、使用者により、デバイス100を鉛直方向上向きおよび下向きの移動で、たとえば20cmなどの所定の距離にわたって移動させることによって実行される。他の実施形態では、重力の方向は、重ね合わせ工程中の全ての移動の統計値の組から決定され得る。記録工程の間にデバイス100が空間を通る移動の経路に沿ってとる位置の座標を平均して、平面を得ることができる。この平均により得られた平面は空間において水平に位置付けられると仮定され、このことは、これに対して重力の方向が垂直であることを意味する。結果として、重力の方向を決定するための傾斜計119の使用を、回避できる。   In some embodiments, the direction of gravity can be defined at the beginning of the overlay process by a defined movement of the 3D measurement device 100. This defined movement is performed by the user moving the device 100 in a vertical upward and downward movement over a predetermined distance, for example 20 cm. In other embodiments, the direction of gravity can be determined from a set of statistics for all movements during the overlay process. A plane can be obtained by averaging the coordinates of the position taken by the device 100 along the path of movement through space during the recording process. The plane obtained by this averaging is assumed to be positioned horizontally in space, which means that the direction of gravity is perpendicular to this. As a result, the use of inclinometer 119 to determine the direction of gravity can be avoided.

ここで図18を参照すると、移動の第3の群は、矢印Vによって示されるような動作または動きを含む。動きVが、空間を通る経路であることを諒解されたい。この動作の群は、測定工程中などに3D測定デバイス100の位置の座標を決定することによって評価され得る。動きVの経路の評価を用いて、シーンの種類を決定すること、および適切な場合は、様々な表現または動作機能を提供することができる。ある実施形態では、動きVの経路の、および3D測定デバイス100の整列関係の特性が評価され、所定の動きと比較される。この評価が統計に基づいていてよく、ある実施形態では、この比較により、所定の動きのどれが、動きVの経路に対応する最も高い可能性を有しているかが決定されることを諒解されたい。1つの実施形態では、動きVの評価から選択された機能は、動きVの経路が閾値よりも大きい可能性に基づいている。ある実施形態では、2つの静止動作の間の移動の最中の、空間における3D測定デバイス100の位置の変化によって、動作Vを区別することができる。 Referring now to FIG. 18, the third group of movements includes actions or movements as indicated by arrow V 3 . Motion V 3, it should be appreciated that a path through the space. This group of actions can be evaluated by determining the coordinates of the position of the 3D measurement device 100, such as during a measurement process. Using the evaluation of the path of motion V 3, when determining the type of scene, and appropriate, it is possible to provide various representations or operating functions. In one embodiment, the path characteristics of motion V 3 and the alignment characteristics of 3D measurement device 100 are evaluated and compared to a predetermined motion. Well this evaluation is based on statistical, in some embodiments, appreciated that this comparison, which of the predetermined motion, or has most likely corresponds to the path of motion V 3 is determined I want to be. In one embodiment, function selected from the evaluation of the motion V 3 is based on likely than the path of movement V 3 a threshold. In certain embodiments, the middle of the movement between the two stationary operation, by a change in position of the 3D measuring device 100 in the space, it is possible to distinguish an operation V 2.

1つの実施形態では、シーンの種類を決定するために、および、適切である場合には様々な表現または動作可能性を提供するために、動きVの経路を用いることもできる。(3D測定デバイス100の整列関係が内部に向かって配向されている)中心場所の周囲の移動の経路は、単一の物体Oの画像を示唆している(物体を中心とした画像)。同様に、デバイス100を外側に配向する移動の経路(およびこの移動の経路の、特により長い真っ直ぐな区間)は、余地の画像に関連している。したがって、余地をスキャン中であると判定される場合は、ディスプレイ130に床平面図(上面図)の画像を挿入することができる。 In one embodiment, the path of motion V 3 can also be used to determine the type of scene and to provide various representations or operational possibilities where appropriate. The path of movement around the central location (where the alignment relationship of the 3D measurement device 100 is oriented inward) suggests an image of a single object O (image centered on the object). Similarly, the path of movement that directs the device 100 outwardly (and particularly the longer straight section of this path of movement) is associated with the room image. Therefore, when it is determined that the room is being scanned, an image of a floor plan view (top view) can be inserted into the display 130.

1つの実施形態では、3D測定デバイス100の測定機能を制御するために、動作Vを(単独でまたは動作VおよびVと組み合わせて)用いることができる。これらの機能は、限定するものではないが、たとえば動きVの経路までの取り込まれた物体の距離に基づいて、(Vに関して示されたような)測定方法を選択すること、および追跡または重ね合わせのためのデータを選択することを含む。 In one embodiment, operation V 3 can be used (alone or in combination with operations V 1 and V 2 ) to control the measurement function of the 3D measurement device 100. These functions include, but are not limited to, selecting a tracking method (as shown for V 2 ) and tracking or based on, for example, the distance of the captured object to the path of motion V 3 Including selecting data for superposition.

1つの実施形態では、3D測定デバイス100の可視化機能を制御するために、動作Vを(単独でまたは動作VおよびVと組み合わせて)用いることができる。これらの機能は、限定するものではないが、特にズームおよび配向に関して、測定に基づいて表現を選択すること、背景に関して対象とする容積を規定すること、ディスプレイ130にマップとして床平面図(上面図)を表示すること、(たとえば床平面図が存在しないときに)対象とする容積内に余地の壁を規定すること、ならびにユーザインターフェースを選択することを含む。 In one embodiment, operation V 3 (alone or in combination with operations V 1 and V 2 ) can be used to control the visualization function of the 3D measurement device 100. These functions include, but are not limited to, selecting a representation based on measurements, particularly with respect to zoom and orientation, defining the volume of interest with respect to the background, and a floor plan view (top view) as a map on display 130. ), Defining an empty wall within the volume of interest (eg, when no floor plan is present), and selecting a user interface.

1つの実施形態では、3D測定デバイス100の事後処理機能を制御するために、動作Vを(単独でまたは動作VおよびVと組み合わせて)用いることができる。これらの機能は、限定するものではないが、対象とする容積を検出すること、対象とする容積の特徴同士の間で選択すること、事後処理の様々な選択肢の間で選択すること(たとえば対象とする容積のみ処理すること)、検出された対象とする容積内の物体表面上のギャップを充填すること(ビデオメッシング(video meshing)、ギャップ充填)ならびに補間に対応することおよび接合すること、動きVの経路のz座標からの床の位置を検出すること(たとえば、これらのz座標が平均して水平面上に位置付けられると規定すること、およびこの平面への案内を限定すること)、動きVの経路のz座標からの床の変化を検出すること、床の変化が検出されるときに床を分離すること、ならびに、(たとえば3D測定デバイスが高度測定器を含むときに)床の絶対位置を決定することを含む。 In one embodiment, operation V 3 can be used (alone or in combination with operations V 1 and V 2 ) to control the post-processing function of the 3D measurement device 100. These functions include, but are not limited to, detecting the volume of interest, selecting between features of the volume of interest, and choosing between various post-processing options (eg, , Filling gaps on the object surface within the detected volume of interest (video meshing, gap filling) and supporting and joining interpolation, motion Detecting the position of the floor from the z-coordinate of the path of V 3 (eg defining that these z-coordinates are located on the horizontal plane on average and limiting guidance to this plane), movement detecting a change in the bed from the z coordinate of the path of V 3, to separate the bed when a change in the bed is detected, and, (e.g. 3D measurement devices Includes to determine a) the absolute position of the floor when including advanced instrument.

使用者が3D測定デバイス100の機能性を制御するのを補助するために、動作同士を組み合わせてよいことを諒解されたい。たとえば、動きVの速度を評価することによって、ディスプレイ130上に特定のユーザインターフェース要素(たとえばボタン、スライダ、テキストボックス)が現れてよい。次いでこれらのユーザインターフェース要素は、動作Vの動きによって起動される。 It should be appreciated that the operations may be combined to assist the user in controlling the functionality of the 3D measurement device 100. For example, certain user interface elements (eg, buttons, sliders, text boxes) may appear on the display 130 by evaluating the speed of movement V 1 . Then these user interface elements is activated by movement of the operating V 2.

1つの実施形態では、本明細書に記載の動作および制御機能など、動作を制御機能と相関させる対応の規則を規定することができる。対応の規則は、たとえばルックアップテーブルまたはデータベースなどの、データを相関させるための任意の好適な手段であってよい。この例示の実施形態では、対応の規則はメモリに保存され、たとえば速度、加速度、動きの経路、動きの方向、または動きの種類に基づいて動作を決定するために、制御および評価デバイスによって取得可能である。   In one embodiment, corresponding rules can be defined that correlate operations with control functions, such as the operations and control functions described herein. Corresponding rules may be any suitable means for correlating data, such as a look-up table or a database. In this exemplary embodiment, the corresponding rules are stored in memory and can be obtained by a control and evaluation device to determine motion based on, for example, speed, acceleration, motion path, motion direction, or motion type. It is.

本発明がほんの限られた数の実施形態との関連において詳細に記載されたが、本発明がそのような開示された実施形態に限定されないことが、容易に理解されるであろう。むしろ、これまで記載していないが本発明の精神および範囲に相応する、任意の数の変更、改変、置換、または等価な構成を組み込むように、本発明を修正することができる。加えて、本発明の様々な実施形態を記載したが、本発明の態様は、記載した実施形態の一部しか含まない場合があることを理解されたい。したがって、本発明は、先述の記載によって限定されるものと見なされるべきではなく、付属の特許請求の範囲の範囲によってのみ限定される。   Although the invention has been described in detail in connection with only a limited number of embodiments, it will be readily understood that the invention is not limited to such disclosed embodiments. Rather, the invention can be modified to incorporate any number of alterations, modifications, substitutions or equivalent arrangements not heretofore described, but which are commensurate with the spirit and scope of the invention. In addition, while various embodiments of the invention have been described, it is to be understood that aspects of the invention may include only some of the described embodiments. Accordingly, the invention is not to be seen as limited by the foregoing description, but is only limited by the scope of the appended claims.

Claims (23)

第1のカメラ、第2のカメラ、およびプロジェクタを有する3次元(3D)測定デバイスであって、メモリを有し前記少なくとも一方のカメラおよび前記プロジェクタに動作可能に結合された制御および評価デバイスをさらに有する、3D測定デバイスを提供することと、
複数のコマンドの各々と複数の動作の各々との間の対応の規則を提供することであって、前記複数の動作の中からの各動作が前記3D測定デバイスによる経路に沿った移動を含み、前記対応の規則が第1の経路に沿った移動に少なくとも部分的に基づいており、前記対応の規則が前記メモリに保存される、提供することと、
前記プロジェクタで物体上に光のパターンを投射することと、第1の時間に前記第1のカメラおよび前記第2のカメラで前記光のパターンの画像の第1の組を記録することと、
第2の時間に前記第1のカメラおよび前記第2のカメラで前記光のパターンの画像の第2の組を記録することと、
前記第1の画像および前記第2の画像に少なくとも部分的に基づいて、前記物体の3Dスキャンを作り出すことと、
前記3D測定デバイスを第2の経路に沿って第1の位置から第2の位置へと移動させることと、
前記第1の位置から前記第2の位置への前記移動に少なくとも部分的に基づいて動作を決定することと、
前記動作および前記対応の規則に少なくとも部分的に基づいて第1の制御機能を決定することと、
前記3D測定デバイスに対して前記第1の制御機能を実行することと、
を含むことを特徴とする、環境を光学的にスキャンし測定するための方法。
A three-dimensional (3D) measurement device having a first camera, a second camera, and a projector, further comprising a control and evaluation device having a memory and operably coupled to the at least one camera and the projector Providing a 3D measurement device comprising:
Providing a corresponding rule between each of the plurality of commands and each of the plurality of actions, wherein each action from the plurality of actions includes movement along a path by the 3D measurement device; Providing the correspondence rule is based at least in part on movement along a first path, and wherein the correspondence rule is stored in the memory;
Projecting a pattern of light on an object with the projector; recording a first set of images of the light pattern with the first camera and the second camera at a first time;
Recording a second set of images of the light pattern with the first camera and the second camera at a second time;
Creating a 3D scan of the object based at least in part on the first image and the second image;
Moving the 3D measurement device from a first position to a second position along a second path;
Determining an action based at least in part on the movement from the first position to the second position;
Determining a first control function based at least in part on the actions and the corresponding rules;
Performing the first control function on the 3D measuring device;
A method for optically scanning and measuring an environment, comprising:
請求項1に記載の方法であって、前記動作を決定するステップがさらに、前記第1の画像および前記第2の画像に少なくとも部分的に基づくことを特徴とする方法。   The method of claim 1, wherein the step of determining the action is further based at least in part on the first image and the second image. 請求項2に記載の方法であって、前記動作を決定する前記ステップがさらに、前記3Dスキャンに基づくことを特徴とする方法。   The method of claim 2, wherein the step of determining the action is further based on the 3D scan. 請求項1に記載の方法であって、
前記3D測定デバイスが傾斜計をさらに含み、
前記動作を決定する前記ステップがさらに、前記傾斜計からの信号に少なくとも部分的に基づくことを特徴とする方法。
The method of claim 1, comprising:
The 3D measurement device further comprises an inclinometer;
The method of determining the action is further based at least in part on a signal from the inclinometer.
請求項4に記載の方法であって、前記傾斜計が加速度計であることを特徴とする方法。   5. A method according to claim 4, wherein the inclinometer is an accelerometer. 請求項1に記載の方法であって、前記3D測定デバイスが前記第2の経路に沿って前記第1の位置から前記第2の位置へと移動するときに、前記3D測定デバイスの速度を決定することをさらに含むことを特徴とする方法。   The method of claim 1, wherein the speed of the 3D measurement device is determined when the 3D measurement device moves from the first position to the second position along the second path. And further comprising: 請求項6に記載の方法であって、前記動作を決定する前記ステップがさらに、前記速度に少なくとも部分的に基づくことを特徴とする方法。   7. The method of claim 6, wherein the step of determining the movement is further based at least in part on the speed. 請求項7に記載の方法であって、前記3D測定デバイスが前記第2の経路に沿って前記第1の位置から前記第2の位置へと移動するときに、前記3D測定デバイスの加速度を決定することをさらに含むことを特徴とする方法。   8. The method of claim 7, wherein an acceleration of the 3D measurement device is determined when the 3D measurement device moves from the first position to the second position along the second path. And further comprising: 請求項8に記載の方法であって、前記動作を決定する前記ステップがさらに、前記加速度に少なくとも部分的に基づくことを特徴とする方法。   9. The method of claim 8, wherein the step of determining the motion is further based at least in part on the acceleration. 請求項1に記載の方法であって、前記3D測定デバイスがディスプレイをさらに含み、前記第1の制御機能が、前記ディスプレイに表示された第3の画像の縮尺を変更することを特徴とする方法。   The method of claim 1, wherein the 3D measurement device further comprises a display, and the first control function changes a scale of a third image displayed on the display. . 請求項10に記載の方法であって、前記第2の位置が前記第1の位置よりも使用者から遠いときに、前記第3の画像の前記縮尺が大きくされることを特徴とする方法。   11. The method according to claim 10, wherein the scale of the third image is increased when the second position is further from the user than the first position. 請求項11に記載の方法であって、前記第2の位置が前記第1の位置よりも近いときに、前記第3の画像の前記縮尺が小さくされることを特徴とする方法。   12. The method according to claim 11, wherein the scale of the third image is reduced when the second position is closer than the first position. 請求項10に記載の方法であって、前記第2の経路に沿って前記3D測定デバイスの前記加速度を測定することをさらに含み、前記第3の画像の前記縮尺の前記変更の大きさが、前記加速度に少なくとも部分的に基づくことを特徴とする方法。   11. The method of claim 10, further comprising measuring the acceleration of the 3D measurement device along the second path, wherein the magnitude of the change in the scale of the third image is: A method characterized in that it is based at least in part on the acceleration. 請求項11に記載の方法であって、前記第1の制御機能を実行する前記ステップが、前記ディスプレイに表示されたユーザインターフェース上の要素を選択することを含むことを特徴とする方法。   12. The method of claim 11, wherein the step of performing the first control function includes selecting an element on a user interface displayed on the display. 請求項1に記載の方法であって、前記3D測定デバイスを静止させることならびに前記第1のカメラおよび前記第2のカメラで画像の第3の組を記録することをさらに含み、前記画像の第3の組が低いダイナミックレンジで記録されることを特徴とする方法。   The method of claim 1, further comprising stationary the 3D measurement device and recording a third set of images with the first camera and the second camera. A method wherein 3 sets are recorded with a low dynamic range. 請求項15に記載の方法であって、前記画像の第3の組に基づいて高いダイナミックレンジを有する画像を生成することをさらに含むことを特徴とする方法。   The method of claim 15, further comprising generating an image having a high dynamic range based on the third set of images. 請求項1に記載の方法であって、前記第2の経路が、ほぼ使用者の腕の長さの半径に沿った移動を含むことを特徴とする方法。   2. The method of claim 1, wherein the second path includes movement along a radius of a user's arm length. 請求項1に記載の方法であって、前記第1の制御機能の前記実行により、測定方法または測定特性が選択されることを特徴とする方法。   The method according to claim 1, wherein a measurement method or a measurement characteristic is selected by the execution of the first control function. 請求項1に記載の方法であって、前記第1の制御機能の前記実行により、前記3D測定デバイスのユーザインターフェースが変更されることを特徴とする方法。   The method according to claim 1, wherein the execution of the first control function changes a user interface of the 3D measurement device. 請求項1に記載の方法であって、前記第1の制御機能の前記実行により、対象とする容積が規定されることを特徴とする方法。   2. The method according to claim 1, wherein a target volume is defined by the execution of the first control function. 請求項20に記載の方法であって、前記第1の制御機能の前記実行が、前記3D測定デバイスに動作可能に結合されたディスプレイ上で対象とする点をマークすることをさらに含むことを特徴とする方法。   21. The method of claim 20, wherein the execution of the first control function further comprises marking a point of interest on a display operably coupled to the 3D measurement device. And how to. 請求項1に記載の方法であって、前記動作を決定する前記ステップが、前記対応の規則において前記第2の経路が前記第1の制御機能に対応する可能性を決定することを含むことを特徴とする方法。   The method of claim 1, wherein the step of determining the action includes determining in the corresponding rule the likelihood that the second path corresponds to the first control function. Feature method. 請求項1に記載の方法であって、
前記画像の第1の組の中の物体を識別することと、
前記画像の第2の組の中の前記物体を識別することと、
前記物体の位置に少なくとも部分的に基づいて、前記3D測定デバイスを中心場所に位置合わせすることと、をさらに含むことを特徴とする方法。
The method of claim 1, comprising:
Identifying an object in the first set of images;
Identifying the object in the second set of images;
Aligning the 3D measurement device to a central location based at least in part on the position of the object.
JP2017513511A 2014-09-10 2015-09-08 Method for optical measurement of three-dimensional coordinates and control of a three-dimensional measuring device Pending JP2017528714A (en)

Applications Claiming Priority (23)

Application Number Priority Date Filing Date Title
DE102014113015.4A DE102014113015B4 (en) 2014-09-10 2014-09-10 An apparatus for optically scanning and surveying an environment, comprising a hand-held scanner with a support structure
DE102014013678.7A DE102014013678B3 (en) 2014-09-10 2014-09-10 Method for optically sensing and measuring an environment with a handheld scanner and gesture control
DE102014013678.7 2014-09-10
DE102014013677.9 2014-09-10
DE102014113015.4 2014-09-10
DE102014013677.9A DE102014013677B4 (en) 2014-09-10 2014-09-10 Method for optically scanning and measuring an environment with a handheld scanner and subdivided display
DE102015106838.9A DE102015106838B4 (en) 2014-09-10 2015-05-02 Method for controlling a 3D measuring device by means of the movement path and device for this purpose
DE102015106836.2 2015-05-02
DE102015106837.0A DE102015106837B4 (en) 2014-09-10 2015-05-02 Method for controlling a 3D measuring device by means of gestures and device for this purpose
DE102015106836.2A DE102015106836B4 (en) 2014-09-10 2015-05-02 Method for controlling a 3D measuring device by means of instantaneous movement and device for this purpose
DE102015106838.9 2015-05-02
DE102015106837.0 2015-05-02
US201562161461P 2015-05-14 2015-05-14
US62/161,461 2015-05-14
US14/712,993 2015-05-15
US14/712,993 US10070116B2 (en) 2014-09-10 2015-05-15 Device and method for optically scanning and measuring an environment
US14/722,219 2015-05-27
US14/722,219 US9769463B2 (en) 2014-09-10 2015-05-27 Device and method for optically scanning and measuring an environment and a method of control
US14/826,859 US9671221B2 (en) 2014-09-10 2015-08-14 Portable device for optically measuring three-dimensional coordinates
US14/826,859 2015-08-14
US14/844,700 US9602811B2 (en) 2014-09-10 2015-09-03 Method for optically measuring three-dimensional coordinates and controlling a three-dimensional measuring device
US14/844,700 2015-09-03
PCT/US2015/048857 WO2016040271A1 (en) 2014-09-10 2015-09-08 Method for optically measuring three-dimensional coordinates and controlling a three-dimensional measuring device

Publications (1)

Publication Number Publication Date
JP2017528714A true JP2017528714A (en) 2017-09-28

Family

ID=55459465

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017513511A Pending JP2017528714A (en) 2014-09-10 2015-09-08 Method for optical measurement of three-dimensional coordinates and control of a three-dimensional measuring device

Country Status (2)

Country Link
JP (1) JP2017528714A (en)
WO (1) WO2016040271A1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200016994A (en) * 2017-07-06 2020-02-17 항저우 스캔테크 컴파니 리미티드 Handheld Large 3D Measurement Scanner System with Photogrammetry and 3D Scan
WO2020175117A1 (en) * 2019-02-25 2020-09-03 ソニーセミコンダクタソリューションズ株式会社 Distance measurement device, distance measurement method, and program
WO2020175118A1 (en) * 2019-02-25 2020-09-03 ソニーセミコンダクタソリューションズ株式会社 Distance measurement device, distance measurement method, and program

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110446906A (en) * 2017-02-03 2019-11-12 莫迪特3D公司 Three-dimensional scanning device and method
CN107678552A (en) * 2017-10-27 2018-02-09 济南浪潮高新科技投资发展有限公司 A kind of method and device by gesture control 3D model editing softwares
CN109685891B (en) * 2018-12-28 2023-09-01 鸿视线科技(北京)有限公司 Building three-dimensional modeling and virtual scene generation method and system based on depth image

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06194137A (en) * 1992-12-22 1994-07-15 Nippon Telegr & Teleph Corp <Ntt> Three-dimensional information extracting device for object
JP2002222007A (en) * 2000-09-26 2002-08-09 Faro Technol Inc Method and medium for manufacture, measurement, and analysis for computer aid
JP2009063582A (en) * 2008-09-22 2009-03-26 Data Tec:Kk Sensor unit
US20110260033A1 (en) * 2010-04-21 2011-10-27 Faro Technologies, Inc. Method and apparatus for using gestures to control a laser tracker
JP2012088876A (en) * 2010-10-19 2012-05-10 Hitachi Ltd Spectral information extraction device
JP2012178854A (en) * 2005-01-07 2012-09-13 Qualcomm Inc Optical flow based tilt sensor
JP2013232208A (en) * 2007-08-20 2013-11-14 Qualcomm Inc Method, device, computer readable recording medium and apparatus for enhanced rejection of out-of-vocabulary words
JP2013254409A (en) * 2012-06-08 2013-12-19 Toyota Central R&D Labs Inc Careless driving detection device and program
JP2014081279A (en) * 2012-10-16 2014-05-08 Toyota Motor Corp Three-dimensional shape measuring apparatus and three-dimensional shape measuring method
JP2014134383A (en) * 2013-01-08 2014-07-24 Mitsutoyo Corp Three-dimensional measuring device, input method, and program

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005103863A2 (en) * 2004-03-23 2005-11-03 Fujitsu Limited Distinguishing tilt and translation motion components in handheld devices
US7908757B2 (en) * 2008-10-16 2011-03-22 Hexagon Metrology, Inc. Articulating measuring arm with laser scanner
US8082673B2 (en) * 2009-11-06 2011-12-27 Hexagon Metrology Ab Systems and methods for control and calibration of a CMM
KR101978967B1 (en) * 2012-08-01 2019-05-17 삼성전자주식회사 Device of recognizing predetermined gesture based on a direction of input gesture and method thereof

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06194137A (en) * 1992-12-22 1994-07-15 Nippon Telegr & Teleph Corp <Ntt> Three-dimensional information extracting device for object
JP2002222007A (en) * 2000-09-26 2002-08-09 Faro Technol Inc Method and medium for manufacture, measurement, and analysis for computer aid
JP2012178854A (en) * 2005-01-07 2012-09-13 Qualcomm Inc Optical flow based tilt sensor
JP2013232208A (en) * 2007-08-20 2013-11-14 Qualcomm Inc Method, device, computer readable recording medium and apparatus for enhanced rejection of out-of-vocabulary words
JP2009063582A (en) * 2008-09-22 2009-03-26 Data Tec:Kk Sensor unit
US20110260033A1 (en) * 2010-04-21 2011-10-27 Faro Technologies, Inc. Method and apparatus for using gestures to control a laser tracker
JP2012088876A (en) * 2010-10-19 2012-05-10 Hitachi Ltd Spectral information extraction device
JP2013254409A (en) * 2012-06-08 2013-12-19 Toyota Central R&D Labs Inc Careless driving detection device and program
JP2014081279A (en) * 2012-10-16 2014-05-08 Toyota Motor Corp Three-dimensional shape measuring apparatus and three-dimensional shape measuring method
JP2014134383A (en) * 2013-01-08 2014-07-24 Mitsutoyo Corp Three-dimensional measuring device, input method, and program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200016994A (en) * 2017-07-06 2020-02-17 항저우 스캔테크 컴파니 리미티드 Handheld Large 3D Measurement Scanner System with Photogrammetry and 3D Scan
KR102209255B1 (en) * 2017-07-06 2021-01-29 스캔테크(항저우) 컴파니 리미티드 Handheld large 3D measurement scanner system with simultaneous photogrammetry and 3D scanning functions
WO2020175117A1 (en) * 2019-02-25 2020-09-03 ソニーセミコンダクタソリューションズ株式会社 Distance measurement device, distance measurement method, and program
WO2020175118A1 (en) * 2019-02-25 2020-09-03 ソニーセミコンダクタソリューションズ株式会社 Distance measurement device, distance measurement method, and program

Also Published As

Publication number Publication date
WO2016040271A1 (en) 2016-03-17

Similar Documents

Publication Publication Date Title
US10088296B2 (en) Method for optically measuring three-dimensional coordinates and calibration of a three-dimensional measuring device
US10401143B2 (en) Method for optically measuring three-dimensional coordinates and controlling a three-dimensional measuring device
US10499040B2 (en) Device and method for optically scanning and measuring an environment and a method of control
US10070116B2 (en) Device and method for optically scanning and measuring an environment
US9671221B2 (en) Portable device for optically measuring three-dimensional coordinates
US10841562B2 (en) Calibration plate and method for calibrating a 3D measurement device
JP6347789B2 (en) System for optically scanning and measuring the surrounding environment
US9618620B2 (en) Using depth-camera images to speed registration of three-dimensional scans
US9217637B2 (en) Device for optically scanning and measuring an environment
JP2017527812A (en) Method for optical measurement of three-dimensional coordinates and calibration of a three-dimensional measuring device
JP2017528714A (en) Method for optical measurement of three-dimensional coordinates and control of a three-dimensional measuring device
EA031929B1 (en) Apparatus and method for three dimensional surface measurement
WO2009120073A2 (en) A dynamically calibrated self referenced three dimensional structured light scanner
Zhang et al. Development of an omni-directional 3D camera for robot navigation
US11350077B2 (en) Handheld three dimensional scanner with an autoaperture
JP2007033087A (en) Calibration device and method
WO2016039955A1 (en) A portable device for optically measuring three- dimensional coordinates
JP2017111118A (en) Registration calculation between three-dimensional(3d)scans based on two-dimensional (2d) scan data from 3d scanner
ITRM20090367A1 (en) SENSOR FOR THREE-DIMENSIONAL ENVIRONMENTAL RECONSTRUCTION AT HIGH PRECISION.

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180830

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190628

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190709

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200225