JP2017528714A - Method for optical measurement of three-dimensional coordinates and control of a three-dimensional measuring device - Google Patents
Method for optical measurement of three-dimensional coordinates and control of a three-dimensional measuring device Download PDFInfo
- Publication number
- JP2017528714A JP2017528714A JP2017513511A JP2017513511A JP2017528714A JP 2017528714 A JP2017528714 A JP 2017528714A JP 2017513511 A JP2017513511 A JP 2017513511A JP 2017513511 A JP2017513511 A JP 2017513511A JP 2017528714 A JP2017528714 A JP 2017528714A
- Authority
- JP
- Japan
- Prior art keywords
- measurement device
- camera
- image
- projector
- pattern
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/245—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures using a plurality of fixed, simultaneously operating transducers
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/25—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/189—Recording image signals; Reproducing recorded image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/296—Synchronisation thereof; Control thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N17/00—Diagnosis, testing or measuring for television systems or their details
- H04N17/002—Diagnosis, testing or measuring for television systems or their details for television cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
Abstract
3次元(3D)座標をスキャンし獲得するための方法が提供される。方法は、プロジェクタ、第1のカメラ、および第2のカメラを有する3D測定デバイスを提供することを含む。方法は、プロジェクタによって物体上に投射された光のパターンの画像を記録する。3D測定デバイスは、第1の位置および第2の位置から第2の経路に沿って移動される。第1の位置および第2の位置に少なくとも部分的に基づいて、動作および対応する制御機能が決定される。A method is provided for scanning and obtaining three-dimensional (3D) coordinates. The method includes providing a 3D measurement device having a projector, a first camera, and a second camera. The method records an image of a pattern of light projected onto an object by a projector. The 3D measurement device is moved along the second path from the first position and the second position. Operation and corresponding control functions are determined based at least in part on the first position and the second position.
Description
関連出願の相互参照(該当する場合)
本出願は、2015年5月2日に出願された独国特許出願第10 2015 106 836.2号、2015年5月2日に出願された独国特許出願第10 2015 106 837.0号、および2015年5月2日に出願された独国特許出願第10 2015 106 838.9号の利益を主張する。これらの全ての内容を、それらの全体を本願に引用して援用する。
Cross-reference of related applications (if applicable)
The present application is German Patent Application No. 10 2015 106 836.2 filed on May 2, 2015, German Patent Application No. 10 2015 106 837.0 filed on May 2, 2015, And claims the benefit of German Patent Application No. 10 2015 106 838.9 filed May 2, 2015. The contents of all of which are incorporated herein by reference in their entirety.
本出願はまた、2015年8月14日に出願された米国特許出願第14/826859号の一部継続出願でもある。US14/826859は、2014年9月10日に出願された独国特許出願第10 2014 113 015.4号の利益を主張し、また、2015年5月14日に出願された米国仮出願第62/161,461号の非仮出願である2015年5月15日に出願された米国特許出願第14/712,993号の、一部継続出願でもある。米国特許出願第14/712,993号は、2014年9月10日に出願された独国特許出願第10 2014 013 677.9号の利益をさらに主張する。これらの全ての内容を、それらの全体を本願に引用して援用する。 This application is also a continuation-in-part of US patent application Ser. No. 14/826859 filed Aug. 14, 2015. US14 / 82859 claims the benefit of German Patent Application No. 10 2014 113 015.4, filed on September 10, 2014, and US Provisional Application No. 62 filed on May 14, 2015. This is also a partially continuation application of US Patent Application No. 14 / 712,993, filed on May 15, 2015, which is a non-provisional application of / 161,461. US patent application No. 14 / 712,993 further claims the benefit of German Patent Application No. 10 2014 013 677.9, filed on September 10, 2014. The contents of all of which are incorporated herein by reference in their entirety.
本出願はさらに、上述の米国仮出願第62/161,461号の非仮出願である、2015年5月27日に出願された米国特許出願第14/722,219号の一部継続出願である。米国特許出願第14/722,219号は、2014年9月10日に出願された独国特許出願第10 2014 013 678.7号の利益を主張する。これらの全ての内容を、それらの全体を本願に引用して援用する。 This application is further a continuation-in-part of US patent application Ser. No. 14 / 722,219 filed on May 27, 2015, which is a non-provisional application of the aforementioned US provisional application No. 62 / 161,461. is there. US patent application No. 14 / 722,219 claims the benefit of German patent application No. 10 2014 013 678.7, filed on Sep. 10, 2014. The contents of all of which are incorporated herein by reference in their entirety.
本明細書において開示される主題は携帯型スキャナに、特にディスプレイを有する携帯型スキャナに関する。 The subject matter disclosed herein relates to portable scanners, and more particularly to portable scanners having a display.
携帯型スキャナは、スキャンされるべき物体の表面上に光のパターンを投影するプロジェクタを含む。プロジェクタの位置は、投影された符号化されたパターンによって判定される。相対位置および整列関係が既知であるか判定されている2つ(またはそれ以上)のカメラは、さらなるコード化されていないパターンを有する表面の画像を記録することができる。(パターンの点の)3次元座標を、エピ極幾何などの、それ自体知られている数学的方法によって決定することができる。 A portable scanner includes a projector that projects a pattern of light onto the surface of an object to be scanned. The position of the projector is determined by the projected encoded pattern. Two (or more) cameras whose relative position and alignment are known or have been determined can record an image of the surface with an additional uncoded pattern. The three-dimensional coordinates (of the pattern points) can be determined by mathematical methods known per se, such as epipolar geometry.
ビデオゲーム用途においては、スキャナは追跡デバイスとして知られており、この場合、プロジェクタが符号化された光のパターンを追われるべき標的、好ましくはプレイしている使用者上に投影して、次いでこの符号化された光のパターンをカメラで記録し、使用者の座標を判定する。このデータは、適切なディスプレイ上に表現される。 In video game applications, the scanner is known as a tracking device, in which the projector projects the encoded light pattern onto the target to be followed, preferably the user who is playing, and then this The encoded light pattern is recorded with a camera and the user's coordinates are determined. This data is represented on a suitable display.
距離測定を含んでシーンをスキャンするためのシステムは、その最も単純な形態では、2つのカメラを有するカメラユニットと、照射ユニットと、同期ユニットと、を含み得る。これらのカメラは、任意選択でフィルタを含んでよく、標的領域の立体的な重ね合わせのために用いられる。照射ユニットは、回折光学素子によってなどで、標的領域内にパターンを生成するために用いられる。同期ユニットは、照射ユニットとカメラユニットを同期させる。カメラユニットおよび照射ユニットを、選択可能な相対位置に設置することができる。任意選択で、2つのカメラユニットまたは2つの照射ユニットを用いることもできる。 In its simplest form, a system for scanning a scene including distance measurement may include a camera unit having two cameras, an illumination unit, and a synchronization unit. These cameras may optionally include a filter and are used for three-dimensional superposition of target areas. The illumination unit is used to generate a pattern in the target area, such as by a diffractive optical element. The synchronization unit synchronizes the irradiation unit and the camera unit. The camera unit and the irradiation unit can be installed at selectable relative positions. Optionally, two camera units or two illumination units can be used.
本発明の一態様によれば、環境を光学的にスキャンし測定するための方法が提供される。方法は、第1のカメラ、第2のカメラ、およびプロジェクタを有する3次元(3D)測定デバイスであって、メモリを有し少なくとも一方のカメラおよびプロジェクタに動作可能に結合された制御および評価デバイスをさらに有する、3D測定デバイスを提供することと、複数のコマンドの各々と複数の動作の各々との間の対応の規則を提供することであって、複数の動作の中からの各動作が3D測定デバイスによる経路に沿った移動を含み、対応の規則が第1の経路に沿った移動に少なくとも部分的に基づいており、対応の規則がメモリに保存される、提供することと、プロジェクタで物体上に光のパターンを投射することと、第1の時間に第1のカメラおよび第2のカメラで光のパターンの画像の第1の組を記録することと、第2の時間に第1のカメラおよび第2のカメラで光のパターンの画像の第2の組を記録することと、第1の画像および第2の画像に少なくとも部分的に基づいて、物体の3Dスキャンを作り出すことと、3D測定デバイスを第2の経路に沿って第1の位置から第2の位置へと移動させることと、第1の位置から第2の位置への移動に少なくとも部分的に基づいて動作を決定することと、動作および対応の規則に少なくとも部分的に基づいて第1の制御機能を決定することと、3D測定デバイスに対して第1の制御機能を実行することと、を含む。 According to one aspect of the invention, a method is provided for optically scanning and measuring an environment. A method includes a three-dimensional (3D) measurement device having a first camera, a second camera, and a projector, the control and evaluation device having a memory and operably coupled to at least one camera and projector. Furthermore, providing a 3D measurement device and providing a corresponding rule between each of the plurality of commands and each of the plurality of operations, wherein each operation from the plurality of operations is a 3D measurement. Including movement along the path by the device, wherein the corresponding rule is based at least in part on movement along the first path, the corresponding rule is stored in memory, and on the object at the projector Projecting a light pattern onto the first time, recording a first set of light pattern images with a first camera and a second camera at a first time, and a second time Recording a second set of images of a pattern of light with a first camera and a second camera and creating a 3D scan of the object based at least in part on the first image and the second image Moving the 3D measurement device along the second path from the first position to the second position and operating based at least in part on the movement from the first position to the second position. Determining, determining a first control function based at least in part on the operation and corresponding rules, and performing the first control function on the 3D measurement device.
これらのおよび他の利点および特徴は、図面と併せて解釈される続く説明から、より明らかとなるであろう。 These and other advantages and features will become more apparent from the following description taken in conjunction with the drawings.
本発明と見なされる主題は、本明細書の終結部に置く特許請求の範囲において具体的に指摘され、明確に特許請求される。本発明の前述のおよび他の特徴および利点は、添付の図面と併せて解釈される続く詳細な説明から明らかであろう。 The subject matter regarded as the invention is particularly pointed out and distinctly claimed in the claims that follow at the end of this specification. The foregoing and other features and advantages of the present invention will be apparent from the following detailed description taken in conjunction with the accompanying drawings.
詳細な記載により、本発明の実施形態を、利点および特徴とともに、図面を参照して例として説明する。 The detailed description explains embodiments of the invention, together with advantages and features, by way of example with reference to the drawings.
1つの実施形態では、担持構造(キャリーイングストラクチャー:架台)は機械的および熱的に安定したものであり、カメラおよびプロジェクタの、相対距離および相対的な整列関係を規定する。環境(エンバイロンメント)に接する3D測定デバイスの面を表側に配置することは、これらの距離および整列関係がハウジングの形状の変化によって変化しないという点で、利点を提供する。 In one embodiment, the carrying structure is mechanically and thermally stable and defines the relative distance and relative alignment of the camera and projector. Placing the surface of the 3D measurement device in contact with the environment on the front side provides an advantage in that these distances and alignments do not change with changes in the shape of the housing.
「プロジェクタ」という用語は、パターンを作り出すデバイスを一般に指すように定義される。パターンの生成は、回折光学素子もしくはマイクロレンズ(もしくは単一レーザ)による生成などの偏向法によって、または遮光法、たとえばシャッタ、(オーバーヘッドプロジェクタにおいて用いられるような)透明材、および他のマスクによる作出によって、行うことができる。偏向法は、失われる光がより少なく結果としてより高い強度が利用できるという利点を有する。 The term “projector” is defined to generally refer to a device that creates a pattern. Pattern generation can be by deflection methods such as by diffractive optics or microlenses (or a single laser) or by shading methods such as shutters, transparency (as used in overhead projectors), and other masks Can be done. The deflection method has the advantage that less light is lost and consequently higher intensity is available.
距離測定のために提供される組立体(アッセンブリ)の数に応じて、対応する数の担持構造のアームが提供され、これらは、アームの交差箇所に位置する共通の中心部から突出する。組立体は、カメラおよびプロジェクタの組み合わせを含むことができ、割り当てられたアームの端部の領域に設けられる。組立体は担持構造の裏側に各々配置構成されてよい。これらのそれぞれの光学系は、担持構造の割り当てられた開口を通して導かれて、それぞれの組立体が表側から環境に対面するように、動作可能に配向される。ハウジングが裏側を覆い、ハンドル部を形成する。 Depending on the number of assemblies provided for the distance measurement, a corresponding number of arms of the carrier structure are provided, which protrude from a common center located at the intersection of the arms. The assembly can include a camera and projector combination and is provided in the area of the end of the assigned arm. The assemblies may each be arranged on the back side of the support structure. Each of these optics is guided through an assigned aperture in the support structure and is operatively oriented such that each assembly faces the environment from the front side. A housing covers the back side and forms a handle portion.
1つの実施形態では、担持構造は、炭素強化またはガラス繊維強化された、合成材料もしくはセラミックの(または別の材料の)母材(マトリクス)から成る。この材料は安定性および低重量を提供し、同時に、視界領域を有して構成できる。担持構造の表側の凹状(球状)の湾曲は、構造上の利点を有するだけでなく、3D測定デバイスの表側表面が作業表面上に置かれるとき、表側に配置された光学構成要素の保護も行う。 In one embodiment, the support structure comprises a carbon or glass fiber reinforced synthetic or ceramic (or another material) matrix. This material provides stability and low weight, and at the same time can be configured with a viewing area. The concave (spherical) curvature on the front side of the support structure not only has structural advantages, but also protects the optical components located on the front side when the front side surface of the 3D measuring device is placed on the work surface .
プロジェクタは、可視波長範囲内にあってもなくてもよい、投影されたパターンを作り出す。1つの実施形態では、投影されたパターンは、赤外範囲内の波長を有する。2つのカメラは、この波長範囲内の光から画像を取得し、同時に可視波長範囲内の散乱された光および他の干渉をフィルタリングして除去するように構成される。たとえば色などの追加の情報用の第3のカメラとして、カラーカメラまたは2Dカメラを設けることができる。そのようなカメラは、環境のおよびスキャン中の物体の、画像を記録する。カメラが色を取り込む実施形態では、スキャン工程(本明細書では「3Dスキャン」と呼ばれる)から生成されたポイントクラウド(点の集合)は、カラー画像に含まれる色情報から割り当てられた色値を有し得る。 The projector creates a projected pattern that may or may not be in the visible wavelength range. In one embodiment, the projected pattern has a wavelength in the infrared range. The two cameras are configured to acquire an image from light in this wavelength range and simultaneously filter out scattered light and other interference in the visible wavelength range. For example, a color camera or a 2D camera can be provided as a third camera for additional information such as color. Such cameras record images of the environment and the object being scanned. In an embodiment where the camera captures colors, a point cloud (a set of points) generated from a scanning process (referred to herein as a “3D scan”) uses a color value assigned from the color information contained in the color image. Can have.
動作中、3D測定デバイスは、異なる位置から、同じシーンの複数の3Dスキャンを生成する。3Dスキャンは、共同の座標系において重ね合わせられる。2つの重なる3Dスキャンを連結することに関して、3Dスキャン中の構造を認識可能であり得ることに利点が存在する。好ましくは、そのような認識可能な構造が探索され、連続的にまたは少なくとも記録工程の後で、表示される。ある決定された領域内で、密度が所望のレベルでなければ、この領域のさらなる3Dスキャンを生成することができる。ビデオ画像および(これに一部が隣接する)3次元ポイントクラウドを表現するために用いられるディスプレイを細分化することにより、どの領域でスキャンがさらに生成されるべきかを認識するのを助けることができる。 In operation, the 3D measurement device generates multiple 3D scans of the same scene from different locations. 3D scans are overlaid in a collaborative coordinate system. There are advantages to linking two overlapping 3D scans that the structure in the 3D scan may be recognizable. Preferably, such recognizable structures are searched and displayed continuously or at least after the recording process. Within a determined area, if the density is not the desired level, a further 3D scan of this area can be generated. By refining the video image and the display used to represent the 3D point cloud (which is partly adjacent to it), it helps to recognize in which region the scan should be further generated it can.
1つの実施形態では、3D測定デバイスは、携帯型スキャナとして設計される、すなわち、これは高速で動作し、一人の人間による運搬および使用に好適なサイズおよび重量のものである。ただし、この3D測定デバイスを三脚上に(もしくは別の台上に)、手で移動可能な台車(もしくは別のカート)上に、または自律移動するロボット上に装着すること、すなわち、この3D測定デバイスが−任意選択でさらに、たとえば運搬用ハンドルのない、別のハウジングを用いることにより−使用者によって運搬されないことが可能である。本明細書における実施形態は3D測定デバイスをハンドヘルド型であるとして記載しているが、これは例示を目的としており、特許請求される発明はこれに限定されるべきではないことを諒解されたい。他の実施形態では、3D測定デバイスを、固定式または移動式であり、適切な場合には他のデバイスと一緒に構築される、コンパクトなユニットとして構成することもできる。 In one embodiment, the 3D measurement device is designed as a portable scanner, i.e. it operates at high speed and is of a size and weight suitable for transportation and use by one person. However, this 3D measurement device is mounted on a tripod (or on another table), on a cart (or another cart) that can be moved by hand, or on an autonomously moving robot, that is, this 3D measurement. It is possible that the device—optionally further—for example by using a separate housing without a transport handle—is not transported by the user. While the embodiments herein describe the 3D measurement device as being handheld, it should be appreciated that this is for purposes of illustration and the claimed invention should not be limited thereto. In other embodiments, the 3D measurement device can also be configured as a compact unit that is fixed or mobile and, where appropriate, built with other devices.
図1〜図6を参照すると、物体Oを有する3D測定デバイス100の環境を光学的にスキャンし測定するためのデバイスの携帯可能な部分として、3D測定デバイス100が提供されている。本明細書で使用される場合、デバイス100の使用者に面する側を裏側、デバイス100の環境に面する側を表側と呼ぶものとする。この定義は、3D測定デバイス100の構成要素にも拡張される。3D測定デバイス100には、3つのアーム102a、102b、102cを有する担持構造102が、(その表側に)見えるように設けられる。これらのアームは、担持構造102に、T字形状またはY字形状、すなわち三角形の配置構成を付与する。3つのアーム102a、102b、102cが交差し互いと接続され、かつ3つのアーム102a、102b、102cが突出する起点となる領域は、3D測定デバイス100の中心を画定する。使用者の視点からは、担持構造102には、左アーム102a、右アーム102b、および下アーム102cが設けられている。1つの実施形態では、左アーム102aと右アーム102bとの間の角度はたとえば約150°+20°、左アーム102aと下アーム102cとの間はたとえば約105°+10°である。下アーム102cは、いくつかの実施形態では、他の2つのアーム102a、102bよりも、いくらか長い。
With reference to FIGS. 1-6, a
担持構造102は、好ましくは、炭素繊維強化合成材料(CFC)などの、繊維強化合成材料から構成される。別の実施形態では、担持構造102は、炭素繊維強化セラミックからまたはガラス繊維強化合成材料から作成される。この材料は、担持構造102を機械的および熱的に安定したものにし、同時に低重量を提供する。担持構造102の厚さは、アーム102a、102b、102cの長さ(たとえば15から25cm)よりもかなり小さい(たとえば5から15mm)。担持構造102はしたがって、平坦な基本形状を有する。いくつかの実施形態では、アーム102a、102b、102cは、アームの中心近くに、強化された背骨部を含み得る。ただしこれは好ましくは、平面状ではなく湾曲するように構成される。担持構造102のそのような湾曲は、約1から3mの半径を有する球体の湾曲となるように適合される。担持構造102の(物体Oに面する)表側はこのことにより、凹状となるように構成され、裏側は凸状となるように構成される。担持構造102の湾曲した形状は、安定性を提供するのに有利である。担持構造102の表側(および1つの実施形態では裏側の見えている領域)は、視界領域となるように構成される、すなわち、そこには隠蔽物、カバー、クラッディング、または他の種類の包装材は設けられない。繊維強化された合成材料またはセラミックによる好ましい構成は、この目的のために特に好適である。
The
担持構造102の裏側にはハウジング104が配置され、これは3つアーム102a、102b、102cの端部の領域内で、適切な接続手段によって、たとえば僅かな隙間を有してゴムリングおよびねじによって、担持構造102と浮動する方式(フローティング方式)で接続される。本明細書で使用される場合、浮動式の接続とは、ハウジング104から担持構造102への振動の伝達を低減または排除するものである。1つの実施形態では、浮動式の接続は、ハウジング104と担持構造との間に配設された、ゴム製の隔離装着部によって形成される。1つの実施形態では、担持構造102の外周とハウジング104との間に、ゴムなどのエラストマー製の封止部が配設される。担持構造102およびハウジング104は次いで、エラストマー製のブッシングを用いて締め付けられる。封止部およびブッシングは協働して、担持構造102とハウジング104との間に浮動式の接続を形成する。左アーム102aのおよび右アーム102bの領域内で、ハウジング104の縁部は、担持構造102のすぐ近傍へと延び、同時にハウジング104は、3D測定デバイス100の中心から下アーム102cの領域内で、担持構造102まである距離をおいて延在してハンドル部104gを形成し、ハンドル部104gの端部において屈曲して下アーム102cに接近し、ここでハウジング104は、浮動する様式で下アーム102cと接続される。ハンドル104gの縁部は、担持構造102のすぐの近傍へと延びる。いくつかの実施形態では、担持構造102の一部は、強化された背骨部102rを含み得る。背骨部102rは、ハウジング104の内部へと突出する。ハウジング104は、担持構造102の裏側を覆い内部空間を画定するための、フードとして働く。
A
保護要素105を、ハウジング104にまたは担持構造102に取り付けることができる。1つの実施形態では、保護要素105は、アーム102a、102b、102cの端部に配置され、これらから外向きに延びて、3D測定デバイスを衝撃から、およびその結果生じる損傷から保護する。使用されていないとき、3D測定デバイス100は、その表側を底にして下に置くことができる。表側の凹状の湾曲のため、3D測定デバイスは、アーム102a、102b、102cの端部においてのみ、表面に接触することになる。保護要素105がアーム102a、102b、102cの端部に位置決めされる実施形態では、保護要素105が表面との追加の隙間を提供することになるので、利点が得られる。さらに、保護要素105が柔らかい材料、たとえばゴムから作成される場合、このことにより、使用者の手にとって望ましい触感が提供される。この柔らかい材料を、ハウジング104に、特にハンドル部104gに、任意選択で取り付けることができる。
The
3D測定デバイス100の裏側では、ハウジング104上に制御作動装置または制御ノブ106が配置され、これによって、少なくとも光学的なスキャンおよび測定、すなわちスキャン工程を、開始および停止することができる。制御ノブ106は、ハンドルの一方の端部に隣接する、ハウジング104の中心に配置される。制御ノブ106は多機能であってよく、使用者による一連の操作に基づいて、様々な機能を提供してよい。これらの操作は、時間ベースのもの(たとえば複数のボタンが所定の時間内に押される)、または空間ベースのもの(たとえばボタンが方向の所定の組において移動される)、または両方の組み合わせであってよい。1つの実施形態では、制御ノブ106を、いくつかの方向(たとえば左、右、上、下)に傾けることができる。1つの実施形態では、制御ノブ106の周囲に、少なくとも1つの状態ランプ107が存在する。1つの実施形態では、複数の状態ランプ107が存在してよい。これらの状態ランプ107を用いて、3D測定デバイス100の実際の状態を示し、こうしてその操作を容易にすることができる。状態ランプ107は好ましくは、いくつかの状態を区別するために、異なる色(たとえば緑または赤)を示すことができる。状態ランプ107は、発光ダイオード(LED)であってよい。
On the back side of the
担持構造102上に、ある規定された距離だけ互いから離間されて、左アーム102a上(のその端部の領域)に第1のカメラ111が配置され、右アーム102b上(のその端部の領域)に第2のカメラ112が配置される。2つのカメラ111および112は、担持構造102の裏側に配置されてこれに固定され、この場合、担持構造102には、中を通してそれぞれのカメラ111、112が画像を取得できる開口が、担持構造102の表側を通して設けられる。2つのカメラ111、112は好ましくは、ハウジング104が担持構造102と浮動式に接続するための接続手段によって取り囲まれる。
A
カメラ111、112の各々は、これらと関連付けられた視界を有する。第1のカメラ111のおよび第2のカメラ112の、互いに対する整列関係は、これらの視界が重なって物体Oの立体画像を可能とするような手法で調節されるか、または調節可能である。整列関係が固定される場合、3D測定デバイス100が用いられる用途に応じて、望まれる所定の重なり範囲が存在する。環境状況に応じて、数デシメートルまたは数メートルの範囲も望まれ得る。別の実施形態では、カメラ111、112の整列関係を、使用者が、たとえばカメラ111、112を反対方向に枢動させることによって、調節することができる。1つの実施形態では、カメラ111、112の整列関係が追跡され、この結果、3D測定デバイス100にとって既知となる。別の実施形態では、整列関係は最初は恣意的であり(および未知であり)、その後、たとえばカメラの位置を測定することによってなどで判定され、こうして3D測定デバイス100にとって既知となる。さらに別の実施形態では、整列関係は、3D測定デバイス100の製造または較正中に、設定され固定される。第1のカメラ111および第2のカメラ112が調節される実施形態では、3D測定デバイス100におけるカメラの角度および位置を判定するための較正を、実地で行ってよい。使用され得る較正の種類を、本明細書においてさらに検討する。
Each of the
第1のカメラ111および第2のカメラ112は、好ましくは単色型である、すなわち、たとえば対応するフィルタを設けられることによって、狭い波長範囲を感知可能であり、これらのフィルタはその場合、散乱された光を含め、他の波長範囲をフィルタリングして除去する。この狭い波長範囲は、赤外範囲内にあってもよい。物体Oに関する色情報を得るために、3D測定デバイス100は好ましくは、第1のカメラ111におよび第2のカメラ112に対して好ましくは対称に整列され、カメラ111、112の間で3D測定デバイス100の中心に配置される、カラーカメラ113などの、2Dカメラを含む。2Dカメラ113は、可視波長範囲内の光を感知可能な画像センサを含み得る。2Dカメラ113は、中に含まれる物体Oを含むシーン、すなわち3D測定デバイス100の環境の、2D画像を取り込む。
The
不利な照明条件である場合に2Dカメラのためにシーンを照射するために、例示した実施形態では光源が少なくとも1つ、たとえば4つの(強力な)発光ダイオード(LED)114が、提供される。1つの放射要素115は、LED114の各々と関連付けられる。発光ダイオード114から投射された光は、3D測定デバイス100の整列関係に対応して、対応するLED114から偏向される。そのような放射要素115はたとえば、レンズ、または光ガイドの適切に構成された端部であり得る。(例示した実施形態では4つの)放射要素115は、カラーカメラ113の周囲に均等に配置される。各LED114は、各々1つの光ガイドによって割り当てられた放射要素115と接続される。LED114はしたがって、3D測定デバイス100の制御ユニット118において、その基板上に固定されることによってなどで、構造的に配置され得る。
In order to illuminate the scene for a 2D camera in adverse lighting conditions, the illustrated embodiment provides at least one light source, for example, four (powerful) light emitting diodes (LEDs) 114. One
カメラ111、112、113によって記録された画像を後から参照するために、傾斜計119などのセンサが提供される。1つの実施形態では、傾斜計119は、MEMS(微小電気機械システム)のような、それ自体知られている様式で製造される(1つまたはいくつかの受感軸を有する)加速度センサである。傾斜計119として、他の実施形態および組み合わせも可能である。3D測定デバイス100のデータは、(1つの成分として)傾斜計119によって提供される重力方向を各々有する。
A sensor such as an
動作中、第1のカメラ111によっておよび第2のカメラ112によって、画像が記録される。これらの画像から3次元データを判定することができる、すなわち、たとえばフォトグラメトリによって、物体Oの3Dスキャンを作り出すことができる。ただし物体Oは、構造または特徴がほとんどなく、平滑な表面を多く有する場合がある。結果として、物体Oの散乱された光から3Dスキャンを生成するのは困難である。
During operation, images are recorded by the
この困難を解決するために、下アーム102c(のその端部の領域)に配置される、プロジェクタ121を用いることができる。プロジェクタ121は、担持構造102の裏側で内部空間内に配置され、担持構造102に固定される。担持構造102には、中を通してプロジェクタ121が光のパターンを投影できる開口が、担持構造102の表側を通して設けられる。1つの実施形態では、プロジェクタ121は、ハウジング104と担持構造102との間で浮動式の接続をもたらすための接続手段によって取り囲まれる。プロジェクタ121、第1のカメラ111、および第2のカメラ112は、互いに関して三角形の配置構成で配置され、3D測定デバイス100の環境に合わせて整列される。プロジェクタ121は、2つのカメラ111、112に対応して整列される。カメラ111、112とプロジェクタ121との間の相対的な整列関係は、事前設定されるか、または使用者が設定することができる。
In order to solve this difficulty, the
1つの実施形態では、カメラ111、112およびプロジェクタ121は正三角形を形成し、共通の傾斜角を有する。この様式で配置されるとき、およびカメラ111、112およびプロジェクタ121の視界が同様であるとき、視界の中心は、スキャナ100から特定の距離にある共通の点で交わることになる。この配置により、最大量の重なりを得ることができる。カメラ111、112およびプロジェクタ121の傾斜または角度を調節可能な実施形態では、視界の交点までの距離または範囲を変えることができる。
In one embodiment, the
使用者が3D測定デバイス100をその表側を下にしてある表面上に、すなわち表側をこの表面に向けて置く場合、表側の凹状の湾曲が、カメラ111、112、113およびプロジェクタ121との間に表面からの間隙を創出し、このことにより、それぞれのレンズが損傷から保護される。
When the user places the
カメラ111、112、113、プロジェクタ121、制御ノブ106、状態ランプ107、発光ダイオード114、および傾斜計119は、ハウジング104内に配置される、共通の制御ユニット118と接続される。この制御ユニット118を、ハウジングに組み込まれる制御および評価デバイスの一部とすることができる。ある実施形態では、制御ユニット118は、ハウジング104のところで標準化された通信インターフェースと接続され、このインターフェースは、投射および受信ユニットとしてワイヤレス接続(たとえばブルートゥース(登録商標)、WLAN、DECT)されるように、または、内容を本願に引用して援用するDE10 2009 010 465 B3に記載されるもののように、適切であれば規定されたインターフェースでもあるものとしてケーブル接続(たとえばUSB、LAN)されるように、構成される。通信インターフェースは、前記ワイヤレス接続またはケーブルによる接続によって、(3D測定デバイス100の環境を光学的にスキャンし測定するためのデバイスのさらなる構成要素としての)外部の制御および評価デバイス122と接続される。この場合には、通信インターフェースは、ケーブルにより接続されるように構成され、この場合、ケーブル125は、たとえばハンドル部104gの下側端部において、ハウジング104内に差し込まれ、この結果、ケーブル125は、ハンドル部104gを延長するように延びる。
制御および評価デバイス122は、メモリを有する1つ以上のプロセッサ122aを含み得る。プロセッサ122aは、3D測定デバイス100を操作および制御するならびに測定されたデータを評価および保存するための方法を実行するように構成される。制御および評価デバイス122は、図7および図8において示すもののような携帯型コンピュータ(ノートブック)またはタブレット(もしくはスマートフォン)、あるいは任意の外部のまたは遠位の(たとえばウェブ内の)コンピュータであってよい。制御および評価デバイス122を、3D測定デバイス100を制御するためのおよび測定されたデータを評価するためのソフトウェアにおいて構成してもよい。ただし、制御および評価デバイス122を、別個のハードウェアにおいて実現することができるか、またはこれを、3D測定デバイス100に組み込むことができる。制御および評価デバイス122は、少なくとも1つの構成要素が3D測定デバイス100に組み込まれ1つの構成要素が外部にある、分散された構成要素のシステムであってもよい。このようにして、前記の方法を行うためのプロセッサ122aを、3D測定デバイス100においておよび/または外部のコンピュータにおいて、実現することができる。
The control and
プロジェクタ121は、これがたとえば回折光学素子によって作り出すパターンXを、スキャンされるべき物体O上に投影する。パターンXをコード化(つまり一値化)する必要はなく、たとえば周期的にコード化されていなくて(すなわち多値であって)よい。この多値性は、2つのカメラ111、112を、パターンの形状および方向の利用可能な正確な知識と組み合わせて使用することによって解決される。コード化されていないパターンはたとえば、周期的に離間された同一のパターン要素(たとえば光のスポットまたは線)であってよい。プロジェクタ121から投影されたパターン要素とカメラ111、112の感光性アレイ上の画像中のパターン要素との間の対応は、本明細書においてさらに検討するように、連立のエピ極線拘束条件を通しておよび較正パラメータを用いて決定される。2つのカメラ111および112を、パターンの形状および方向の知識と組み合わせて使用することによって、点の対応の一意性が達成され、この組み合わされる知識は、3D測定デバイス100の較正から得られる。
The
本明細書で使用される場合、「パターン要素」という用語は、パターンXの要素の形状を意味するものとし、一方、「点」という用語は、(パターン要素のまたは他の何かの)3D座標中の位置を示すものとする。 As used herein, the term “pattern element” shall mean the shape of an element of pattern X, while the term “point” refers to 3D (of a pattern element or something else). It shall indicate the position in the coordinates.
コード化されていないパターンX(図1)は好ましくは、グリッド内に規則的に配置された点を備える、点パターンである。本発明では、たとえば、視界FOV(図9)にわたって、約50°の角度で約0.5mから5mの距離へと、100個の点が約100回(合計10,000個の点が)投影される。パターンXを、線パターンとすること、または点と線とを組み合わせたパターンとすることもでき、これらの各々は、密に配置された光点によって形成される。第1のカメラ111は第1の画像平面B111を備え、第2のカメラ112は第2の画像平面B112を備える。2つのカメラ111および112は、それぞれの画像平面B111およびB112においてパターンXの少なくとも一部を受信し、これらの画像平面中には、物体Oから反射されたパターンXの一部を取り込むための感光性アレイ(たとえばCMOSまたはCCDアレイ)が配置される。
The non-coded pattern X (FIG. 1) is preferably a point pattern with points regularly arranged in the grid. In the present invention, for example, 100 points are projected about 100 times (total of 10,000 points) over a field of view FOV (FIG. 9) at an angle of about 50 ° and a distance of about 0.5 m to 5 m. Is done. The pattern X can also be a line pattern or a combination of points and lines, each of which is formed by closely spaced light spots. The
点密度と、プロジェクタ121と物体Oとの間の距離と、作り出されるパターンXに関して得られる解像度との間には、相関がある。回折によるパターン生成の場合、1つの光源の光がパターンにわたって分散される。この場合、光源の合計出力が限定されているとき、パターン要素の輝度は、パターン中の要素の数に依存する。物体から散乱される光の強度および背景光の強度に応じて、より少ないがより明るいパターン要素を有するのが望ましいかどうかが判定され得る。より少ないパターン要素は、取得された点の密度の減少を意味する。したがって、パターンX以外に少なくとも1つの他のパターンを生成できることが、役立つように思われる。現時点の状況にとって望まれるパターンを用いるために、パターンの生成に応じて、パターン同士の間の動的な移行および/または空間的な混合が可能である。ある実施形態では、プロジェクタ121は、時間に関して互いに対してずらされた、または別の波長範囲内にある、または異なる光強度を有する、2つのパターンを作り出すことができる。他方のパターンは、コード化されていないパターンなどの、パターンXから外れたパターンであってよい。例示した実施形態では、パターンは、互いへの別の距離(グリッド長さ)を有する点の規則的な配置を有する点パターンである。
There is a correlation between the point density, the distance between the
1つの実施形態では、パターンXは、単色パターンである。パターンXを、プロジェクタ121中の回折光学素子124によって作り出すことができる。回折光学素子124は、図20における光源121aからの単一の光線を、この単一の光線よりも低い光強度を各々有する光線の集合に変換する。光線の集合の各々は、異なる方向に進んで、物体Oに衝突するときスポットを作り出す。光源121aはたとえば、レーザ、スーパールミネセントダイオード、またはLEDであってよい。ある実施形態では、光源121aの波長は、赤外範囲内にある。横方向の解像度はこの場合、投影されたパターンX中の光のスポットの直径および間隔によってのみ限定される。パターンXが赤外範囲内にある場合、2Dカメラ113を用いてパターンXから干渉を受けずに物体Oおよび周囲環境の画像を取り込むことが可能である。同様に、パターンXが紫外波長範囲内で作り出される場合、2Dカメラ113によって取得される画像は、パターンXからの干渉を受けないことになる。
In one embodiment, the pattern X is a single color pattern. The pattern X can be created by the diffractive optical element 124 in the
1つの実施形態では、プロジェクタ121は、カメラ111、112(および利用可能であれば113)が物体Oの画像を記録している時間期間の間にのみ、物体O上にパターンXを作り出す。このことは、エネルギー効率および目の保護において利点をもたらす。2つのカメラ111、112およびプロジェクタ121は、時間および用いられるパターンXの両方に関して、互いと同期または連係される。各記録工程は、プロジェクタ121が、写真撮影におけるフラッシュと同様にパターンXを作り出すことによって始まり、これに続いて、カメラ111、112(および利用可能であれば113)が、画像の対を、言い換えれば2つのカメラ111、112の各々から各々1つの画像を、取得する。本明細書で使用される場合、実質的に同じ時間に取得されるこれらの画像の対は、「フレーム」と呼ばれる。記録工程は、1つの単独のフレーム(ショット)、または一連の複数のフレーム(ビデオ)を含み得る。そのようなショットまたはそのようなビデオは、制御ノブ106によってトリガされる。データの処理後、各フレームが次いで、3次元空間内にポイントクラウドから成る3Dスキャンを構成する。このポイントクラウドは、3D測定デバイス100の相対的な局所座標系内で規定される。
In one embodiment, the
3D測定デバイス100によって供給されるデータは、制御および評価デバイス122において処理されて、フレームから3Dスキャンを生成する。3Dスキャンは次に、共同の座標系において連結されるかまたは重ね合わされる。重ね合わせのために、2つの3Dスキャンの重なる領域中の自然のまたは人工の標的(すなわち認識可能な構造)を識別することによってなど、知られている方法を用いることができる。これらの標的の識別を通して、対応する対によって2つの3Dスキャンの割り当てを決定することができる。シーン全体(複数の3Dスキャン)が、3D測定デバイス100によってこうして漸進的に重ね合わせられる。制御および評価デバイス122には、外部に組み込まれるか接続されるディスプレイ130(ディスプレイデバイス)が設けられる。
Data supplied by the
この例示の実施形態では、プロジェクタ121は2つのカメラ111および112と同一直線上にあるのではなく、カメラ111、112は、三角形を形成するように配置される。図10に示すように、この三角形の構成により、光学の数学的方法に基づくエピ極幾何の使用が可能となる。エピ極幾何の拘束条件により、プロジェクタ121のプロジェクタ平面P121上の点は、第1の画像平面B111上の第1のエピ極線上、および第2の画像平面B112上の第2のエピ極線上に収まることになり、画像平面B111およびB112の各々に関するエピ極線は、プロジェクタ121ならびに2つのカメラ111および112の相対幾何によって決定される。さらに、第1の画像平面B111上の点は、プロジェクタ平面P121のエピ極線上、および第2の画像平面B112のエピ極線上に収まり、プロジェクタ平面および第2の画像平面内のエピ極線は、プロジェクタ121およびカメラ111、112の相対幾何によって決定される。またさらに、第2の画像平面B112上の点は、プロジェクタ平面P121のエピ極線上、および第1の画像平面B111のエピ極線上に収まり、プロジェクタ平面および第1の画像平面内のエピ極線は、プロジェクタ121およびカメラ111、112の相対幾何によって決定される。少なくとも2つのカメラおよび1つのプロジェクタの使用により、投影されたパターン要素が、たとえば同一の形状を有するなどの区別的な特徴を有さなくても(コード化されていないパターン)、画像平面B111およびB112ならびにプロジェクタ平面P121上の点に関して、パターンX中の点の間の対応を決定することを可能にするのに十分なエピ極線拘束条件が提供されることが分かる。
In this exemplary embodiment, the
1つの実施形態では、3Dシーンを生成するために、少なくとも3つのユニット(たとえばプロジェクタ121および2つのカメラ111、112)が用いられる。このことにより、2つの画像平面B111、B112中のパターン(X)の投影の対応を決定することができる元になる、点およびエピ極線の曖昧さのない三角形の関係が実現される。カメラの対に対する追加の立体幾何により、通常であれば区別できないパターンの点のかなり多くをさらに、エピ極線「e」上で識別することができる。物体O上の特徴の密度はしたがって同時に高くすることができ、パターンXの特徴(たとえばスポット)のサイズは非常に低く保つことができる。このことは、パターン中の特徴のサイズがプロジェクタの分解能に基づく下限を有するコード化されたパターンを利用し、コード化されたパターンにおけるこのサイズの限度が3Dスキャンの横方向の解像度を限定する他の方法とは、対照的である。プロジェクタ121およびカメラ111、112上の点X同士の間の対応が決定されると、3Dスキャンデータに関して、物体Oの表面上の点の3次元座標を、三角測量によって決定することができる。
In one embodiment, at least three units (eg,
三角測量の計算を、2つのカメラ111、112の間で、2つのカメラ111、112の間のベースライン距離および2つのカメラ111、112の傾斜の相対角度に基づいて行うことができる。三角測量の計算を、プロジェクタ121と第1のカメラ111との間で、およびプロジェクタ121と第2のカメラ112との間で、行うこともできる。これらの三角測量の計算を行うために、プロジェクタ121と第1のカメラ111との間でベースライン距離を決定する必要があり、またプロジェクタ121と第2のカメラ112との間で別のベースライン距離を決定する必要がある。加えて、プロジェクタ/第1のカメラおよびプロジェクタ/第2のカメラの間の、傾斜の相対角度が用いられる。
A triangulation calculation can be performed between the two
原理的には、これらの3つの三角測量の計算のいずれの1つも、物体O上の点Xの3D座標を決定するのに十分であり、したがって余分な2つの三角測量関係は冗長な情報(冗長性)をもたらすが、これらは本明細書にさらに記載するように、測定結果の自己チェックを提供するためにおよび自己較正機能性を提供するために、有用に採用することができる。本明細書で使用される場合、「冗長性」という用語は、物体上の特定の点または点の組に関して、3D座標を複数回決定することを指す。 In principle, any one of these three triangulation calculations is sufficient to determine the 3D coordinates of the point X on the object O, so the extra two triangulation relationships are redundant information ( Redundancy), which can be usefully employed to provide self-checking of measurement results and to provide self-calibration functionality, as further described herein. As used herein, the term “redundancy” refers to determining 3D coordinates multiple times for a particular point or set of points on an object.
追加の3次元データを、たとえば2Dカメラ113からまたはカメラ111、112によって取得された画像の一部から、カメラ位置の異なるいくつかのフレームを用いることにより、フォトグラメトリ法によって得ることができる。フォトグラメトリの計算を行うために、カメラ111、112、113によって見られる物体は、照射されるべきである。そのような照射は、たとえば太陽または人工的な照明からなどの、背景照射であってよい。背景照射は、3D測定デバイス100によって、または別の外部光源によって提供されてよい。ある実施形態では、物体はLED114からの光で照射される。照射により、2次元カメラ111、112、113が、色、コントラスト、および陰影などの物体の特性を見分けることが可能になり、このことにより、物体の特徴の識別が容易になる。
Additional 3D data can be obtained by photogrammetry methods, for example from several parts of the image acquired from the
測定工程は、時間的な側面も有する。典型的には、コード化されていないパターンは、単一の3Dスキャンを決定するために一連のパターン全体を投影することおよび画像を取り込むことを可能とするために、静止しているデバイスとともに用いられた。この3Dスキャンを決定するために、スキャナと物体の両方が、互いに対して静止したままである必要があった。対照的に、本発明の実施形態は、カメラ111、112によって取得された画像の各組に対して、1つの3Dスキャンを生成する。別の実施形態(図示せず)では、本プロジェクタ121に隣接して第2のプロジェクタが配置されるか、またはさらなる回折光学素子が提供される。この第2のプロジェクタは、物体O上に、パターンXに加えて、少なくとも1つの第2のパターンを投射する。2つのプロジェクタを有する実施形態では、異なるパターンを有する画像の1つの組を連続的に取り込むために、パターンXと第2のパターンとの間で切り替えを行うことが可能である。したがって、3Dスキャンは、異なるパターンから得られる評価結果を組み合わせることによって、より高い解像度を有する。
The measurement process also has a temporal aspect. Typically, an uncoded pattern is used with a stationary device to allow a whole series of patterns to be projected and an image captured to determine a single 3D scan. It was. In order to determine this 3D scan, both the scanner and the object had to remain stationary relative to each other. In contrast, embodiments of the present invention generate one 3D scan for each set of images acquired by
物体全体の座標を決定するために、カメラ111、112によって取得された画像から作り出される3Dスキャンを重ね合わせる必要がある。言い換えれば、各フレームの3次元ポイントクラウドを、共通の座標系内に挿入せねばならない。たとえば「structure from motion」(SFM)または「simultaneous localization and mapping」(SLAM)法などのビデオグラメトリによって、重ね合わせが可能である。物体Oの自然のテクスチャも、共通の基準点として用いられる。1つの実施形態では、重ね合わせのために、静止したパターンが投影され用いられる。
In order to determine the coordinates of the entire object, the 3D scans created from the images acquired by the
3D測定デバイス100によって供給されるデータは、フレームから3Dスキャンを生成することによって、制御および評価デバイス122において処理される。3Dスキャンは次にその後、共同の座標系において連結されるかまたは重ね合わされる。上で検討したように、たとえば自然のまたは人工の標的(すなわち認識可能な構造)を用いることによってなどで、当技術分野で知られている重ね合わせ方法を用いることができる。対応する対によって2つの異なる3Dスキャンの互いに対する割り当てまたは整列関係を決定するために、これらの標的を局所化し識別することができる。3Dスキャン(口語的に「シーン」と呼ぶ場合もある)を次いで、3D測定デバイス100によって漸進的に重ね合わせることができる。この例示の実施形態では、制御および評価デバイス122には、使用者が3Dスキャンを点検できるように、ディスプレイ130(ディスプレイデバイス)が設けられる。
Data provided by the
図11には、3D測定デバイス100の環境の光学的なスキャンおよび測定の工程のための実施形態が示されている。第1の工程ブロック201では、1つのフレームに関する1対の画像の取り込みが行われ、測定された値が決定され記録される。この例示の実施形態では、各画像は、各画素のウェル中の電子の数に対応する電圧を表す値の2Dアレイである。
FIG. 11 shows an embodiment for an optical scanning and measuring process of the environment of the
この工程は次いで、第2の工程ブロック202に進み、ここで測定された値が評価され、フレームから3Dスキャンデータが生成される。この第2の工程ブロックでは、プロジェクタから投影されたスポットの既知の位置と組み合わせてその数が評価されて、物体O上の点の3D座標が決定される。(エピ極幾何計算を含む)三角測量の計算を用いて、画素の各々に関する距離が得られ、各画素に関する2つの角度が、画素の場所およびカメラの幾何(レンズ焦点距離、画素サイズ、等)に基づいて決定される。 The process then proceeds to a second process block 202 where the measured value is evaluated and 3D scan data is generated from the frame. In this second process block, the number is evaluated in combination with the known positions of the spots projected from the projector, and the 3D coordinates of the points on the object O are determined. Using triangulation calculations (including epipolar geometry calculations), the distance for each of the pixels is obtained, and the two angles for each pixel are the pixel location and camera geometry (lens focal length, pixel size, etc.) To be determined.
工程は次いで第3の工程ブロック203に進み、ここで3Dスキャンデータの複数のフレームが、共通の座標系において重ね合わせられる。1つの実施形態では、重ね合わせを補助するために、中央のカラーカメラ113を用いてビデオグラメトリ情報が得られる。1つの実施形態では、3Dスキャンデータの表現が表示され保存される。最後に、工程は第4の工程ブロック204に進み、ここで自動較正が行われる。1つの実施形態では、第4の工程ブロック204で行われる自動較正は、第2の工程ブロック202と同時に行うことができるか、またはこれと連続して行うことができる。たとえば連続的に制御ノブ106を押すことによってなどで、追加のフレームが取得されるように操作者が操作を続ける限りは、この工程は第1の工程ブロック201に戻る。
The process then proceeds to a
第2の工程ブロック202では、自動的に対応を決定するために、フレーム中で特定の点の画像が選択される。これらの選択された点は、物体O上の点に、特にパターンXのパターン要素(たとえばスポット)に対応する。第1の画像平面B111中の選択された点の各画像に関して、エピ極線「e」が、第2の画像平面B112中におよびプロジェクタ平面P121中に、連続的に位置付けられる。エピ極線「e」を位置付けるためのこの手順は、第2の画像平面B112中の点の画像に関して、およびプロジェクタ平面P121中の点の画像に関して、繰り返される。これらの複数のエピ極線拘束条件により、3つの平面の各々において、投影されたパターン要素と受信されたパターン要素との間の一対一の対応(たとえば同一のスポット)の決定が可能となる。図10に示すように、(物体O上のパターンXの)点XOは、3つの平面B111、B112、P121の全ての上に見ることができ、その画像は、各平面上の2つのエピ極線「e」上にある。点XOは、3つの直線、プロジェクタ121の光線および2つのカメラ111、112の各1つの光線の、交差点である。点XOはしたがって、パターンXの点の密度が十分に低い場合、曖昧さのない状態で示され得る。
In a
ブロック204で行われる自動較正は自動的に行われ、外部の較正物体の使用を必要としない。始めに最初の較正を用い後で現時点で用いられている較正を用いて、適切である場合は較正を補正するために、空間の観点からばらつきがないか(幾何のばらつき)および時間の観点からばらつきがないか(経時的なパラメータの変化)、フレームが調査される。ばらつきは、たとえば動作温度の上昇に起因するものなど、熱的な原因を有する可能性がある。ばらつきは、たとえば表面または床に3D測定デバイス100が当たることによって引き起こされる機械的ショックなど、機械的な原因を有する可能性もある。これらのばらつきは、たとえば物体上のまたは平面B111、B112、P121中の点の、測定された位置、角度、および他の幾何学的特徴の偏移を通して顕現する。
The automatic calibration performed at
補正され得る較正パラメータは、外因性パラメータ、内因性パラメータ、または動作パラメータであってよい。各ユニット(カメラ111、112、113およびプロジェクタ121)に関する外因性パラメータは、剛体の6つの自由度、すなわち3つの位置および3つの角度を含む。特に関連があるのは、カメラ111、112、113およびプロジェクタ121の間の相対幾何、たとえばこれらの整列関係の相対距離および相対角度などである。内部パラメータは、限定するものではないが、焦点距離、主点の位置、歪みパラメータ、感光性アレイまたはMEMSプロジェクタアレイのセンタリング、各方向におけるアレイの縮尺、3D測定デバイス100の局所座標系に対するアレイの回転、およびカメラまたはプロジェクタのレンズ系に関する収差補正係数などの、カメラまたはプロジェクタデバイスの特徴に関連していてよい。動作パラメータは、光源121aの波長、空気の温度および湿度であってよい。
Calibration parameters that may be corrected may be extrinsic parameters, intrinsic parameters, or operating parameters. The extrinsic parameters for each unit (
図10に関して、ばらつきは、3つの平面のうちの1つにおける、点XOのその予想される理論上の位置に対する実際の位置の偏移Δであってよい。 With respect to FIG. 10, the variation may be the actual position shift Δ of point X O relative to its expected theoretical position in one of the three planes.
本明細書において上で説明したように、2つのカメラ111、112およびプロジェクタ121上の投影され画像化されたパターン要素(すなわちこれらの画像)の対応を決定するために、エピ極線拘束条件が連立して解かれる。対応におけるばらつきを明らかにするために、これらの連立方程式からの何らかの冗長な情報(冗長性)を利用することができる。
As described hereinabove, epipolar constraints are used to determine the correspondence between the projected and imaged pattern elements (ie, these images) on the two
加えて、本明細書において上で説明したように、3D座標の3つの組を得るために、3つの別個の三角測量の計算を行ってよい。これらの3つの三角測量の計算は、1)第1のカメラ111と第2のカメラ112との間(立体カメラ)、2)プロジェクタ121と第1のカメラ111との間、および3)プロジェクタ121と第2のカメラ112との間のものである。これらの異なる三角測量の計算から得られた3D座標を比較することができ、ばらつきが見られる場合には、較正パラメータを変えることができる。
In addition, as described hereinabove, three separate triangulation calculations may be performed to obtain three sets of 3D coordinates. These three triangulation calculations are: 1) between the
図12は、2つのユニットU1、U2に関するばらつきの単純化された状況を示す。ユニットU1、U2はたとえば、2つのカメラ111、112の間、またはプロジェクタ121とカメラ111、112の一方との間の、いずれかにあってよい。各ユニットU1、U2は、中で点を選択できる平面を備える。2つのエピ極線「e」は、両方の平面にとって共通である。ユニットU1の平面中の選択された点236は、ユニットU2の平面中の点216に対応している。両方の点216、236が、物体O上の本物の点の画像であることを諒解されたい。たとえば点216、236が物体O上のパターンXのスポットの画像であるときなどに、対応を検出することができる。1つの実施形態では、物体O上の「スポット」が照射され、隣接する領域は暗いか、または照射された箇所よりも暗い。ただし、エピ極線「e」に対して垂直な点216、236の距離が両方の平面において同じでないとき、偏移Δ、すなわち点216の位置と予想される位置218との間の偏移Δが生じる。
FIG. 12 shows a simplified situation of variation for the two units U 1 , U 2 . The units U 1 and U 2 may be located either between the two
一般に、偏移Δはベクトルである。たとえばプロジェクタ121およびカメラ111などの、2つのユニットU1、U2を有する実施形態では、エピ極線「e」に対して垂直な偏移Δの成分だけが既知である。エピ極線「e」と平行な成分は、3D座標を決定するときに消失する。たとえばプロジェクタ121および両方のカメラ111、112などの、3つ以上のユニットを有する実施形態では、平面の両方の次元における偏移Δの成分を、冗長な測定値(偏移を検出する際のおよび3D座標を決定する際の冗長性)によって決定することができる。いくつかの選択された点に関して偏移Δを有する場合、全ての決定された偏移Δを、図13に示すマップに描き込むことができ、これは誤差フィールドと呼ばれる場合もある。2つだけのユニットの場合、各偏移Δのただ1つの成分しか、誤差フィールドに描き込めない。ばらつきが単一の原因または理由に起因する場合、誤差フィールドは、特定の種類のばらつきに関して典型的なものである。図13は、第1のカメラ111のロール角に関する較正パラメータが正確でないときなど、視線の方向を中心とした第1のカメラ111の回転によって生成される誤差フィールドの例を例示している。
In general, the deviation Δ is a vector. In an embodiment with two units U 1 , U 2 , such as
ここで図12〜図14を参照すると、偏移Δはここでは、エピ極線拘束条件に関して記載されている。一般に、関与するユニット(カメラおよびプロジェクタ)に関して、2つの可能性が存在する。一方の可能性では、ユニットU1、U2の一方がカメラであり、他方がプロジェクタである。他方の可能性では、両方のユニットU1、U2がカメラである。単一のプロジェクタおよび2つのカメラの使用は例示を目的としたものであり、特許請求される発明はこれに限定されるべきではないことを諒解されたい。他の実施形態では、追加のプロジェクタまたはカメラを用いてもよい。3つ以上のユニットを有する(たとえば2つのカメラおよび1つのプロジェクタを有する)ことは、本明細書においてより詳細に検討するように、較正パラメータの自動的な決定における追加の能力をもたらす。 Referring now to FIGS. 12-14, the shift Δ is now described with respect to epipolar constraint conditions. In general, there are two possibilities for the units involved (camera and projector). In one possibility, one of the units U 1 , U 2 is a camera and the other is a projector. In the other possibility, both units U 1 , U 2 are cameras. It should be appreciated that the use of a single projector and two cameras is for illustrative purposes and the claimed invention should not be limited thereto. In other embodiments, additional projectors or cameras may be used. Having more than two units (eg, having two cameras and one projector) provides additional capabilities in the automatic determination of calibration parameters, as discussed in more detail herein.
ユニットU1、U2の各々は、透視中心点O1、O2または投影の中心と呼ばれる場合もある、原点を有する。この点は、全ての光線がユニットから外へと(プロジェクタの場合)またはユニットの中へと(カメラの場合)移るときに通過する点を表す。実際のデバイスでは、全ての光線が透視中心点を通過する訳ではないが、ソフトウェアにおいてカメラシステムの較正パラメータの補正を行って、補正された光線にこれらの点を通過させることができることを諒解されたい。2つの透視中心点O1、O2は、ユニットU1、U2の間のベースライン距離208を規定する。
Each of the units U 1 , U 2 has an origin, sometimes referred to as the perspective center point O 1 , O 2 or the center of projection. This point represents the point through which all rays pass when moving out of the unit (in the case of a projector) or into the unit (in the case of a camera). In a real device, not all rays pass through the fluoroscopy center point, but it is understood that the software can calibrate the calibration parameters of the camera system and pass these points through the corrected ray. I want. The two perspective center points O 1 and O 2 define a
ユニットU1、U2の各々は、画像が形成される平面210、230も有する。プロジェクタにおいて、この平面は、プロジェクタ平面P121として知られており、カメラにおいては、これは画像平面B111、B112として知られている。典型的には、実際のプロジェクタまたはカメラにおいては、プロジェクタ平面P121または画像平面B111、B112は、図14に例示するような透視中心O1、O2の前ではなく、これらよりも後ろにある。ほとんどの場合、(カメラにおける)感光性アレイまたは(プロジェクタにおける)パターン生成器などのハードウェアデバイスは、透視中心よりも後ろの平面の位置に置かれる。しかしながら、図14に示すように透視中心の前に平面が位置することは、平面が透視中心の他方側に位置決めされていることと数学的に等価であることを諒解されたい。
Each of the units U 1 and U 2 also has
透視中心O1、O2は、ベースライン距離Bによって隔てられる。透視中心O1、O2を接続するベースライン208は、点E1、E2において平面230、210と交わる。この交差の点は、エピ極点と呼ばれ、エピ極としても知られている。エピ極の一方を通って対応する平面上に引かれた線は、エピ極線と呼ばれる。平面210および対応するエピ極E2の場合、エピ極線は212である。平面230上の点P1は、エピ極線212上にある。
The perspective centers O 1 and O 2 are separated by a baseline distance B.
上で説明したように、光線232などの各光線は、透視中心点O1を通過して230などの平面に到達し、そこに画像が形成される。平面230がプロジェクタ平面である場合は、点P1は、物体までの距離に応じて、PA、PB、PC、またはPDなどの点において、物体上に投影される。これらの点PA、PB、PC、PDは、共通の光線232を共有しており、この例ではカメラであるユニットU2上の対応する点QA、QB、QC、またはQDにおいて、エピ極線212上に収まる。光線232およびエピ極線212はいずれも、点O1、O2、およびPDを含む平面上にある。平面230がプロジェクタ平面ではなくカメラ平面である場合は、このカメラの画像平面によって受信された点P1は、エピ極線212上の任意の点から、たとえば点QA、QB、QC、またはQDのいずれかから到達し得る。
As explained above, each ray such as
図13は、ユニットU2の平面210上のエピ極線212に加えて、ユニットU1の平面230上のエピ極線234を示す。エピ極線212上の任意の点V1(およびWA、WB、WC)は、エピ極線234上に対応する点(画像または投影点)UA、UB、UC、UDを有さねばならない。同様に、エピ極線234上の任意の点UA、UB、UC、UDは、エピ極線212上に対応する点WA、WB、WC、V1を有さねばならない。点の組240は、物体Oと交わり得る空間内の点、たとえばVA、VB、VC、VDを表している。
FIG. 13 shows an
3D測定デバイス100による測定の通常の実行において、測定結果が補正された較正パラメータ(すなわち補正された較正)を得るためにも用いられる場合、この3D測定デバイス100は、自己較正または自動較正を行っている。本発明のある実施形態では、補正された新しい較正パラメータを得るための第1のステップは、エピ極線拘束条件に基づいて予想される位置との関係における、プロジェクタ平面または画像平面上の選択された点の画像の位置のばらつきを検出することである。
In the normal execution of measurements by the
そのようなばらつきの例を、図14に示す。平面230上の点236は、点238において物体と交わる。エピ極線幾何拘束条件によれば、点238は、エピ極線212上に、詳細には点218において、現れるべきである。この場合、実際の点は、位置216において観察された。一般に、2つの平面210、230のみを用いる場合、知られているのは、エピ極線234上に収まる点236に関して、対応する点は、エピ極線212上に収まるべきである、ということだけである。点216がエピ極線212上に収まらないことは、較正パラメータに関して問題が存在することを示唆しているが、欠陥のある較正パラメータが、外因性パラメータであるのか内因性パラメータであるのかまたは動作パラメータであるのかを、単一の点216の観察に基づいて述べるのは、困難である。
An example of such variation is shown in FIG.
図14は、外因性較正パラメータにおいて見られる可能性のあるいくつかの誤差を示す。見られる可能性のある誤差の1つの種類は、ベースライン208における、ベースライン距離B、ならびに透視中心O1、O2の特定の位置である。言い換えれば、公称のベースライン208の方向に沿った(誤差252)、および公称のベースライン208の方向に対して垂直な方向における(誤差254)、透視中心点の座標におけるものである。別の可能な外因性誤差は、ユニットU1またはユニットU2の角度配向におけるものである。この配向を特徴付ける1つの方法は、軸255を中心とするピッチ角256および軸257を中心とするヨー角258に着目するものである。平面230および210のピッチ角およびヨー角に関する較正パラメータが正しくない場合、平面上の点は、エピ極線幾何拘束条件に基づいて予想される位置に対応しないことになる。ユニットU1およびユニットU2は、カメラまたはプロジェクタのロール角に関して、正しくない較正パラメータを有する可能性もある。本明細書においてさらに検討するような自動較正手法において、そのような誤差を検出し補正することができる。ロール角較正パラメータは、外因性パラメータよりもむしろ内因性較正パラメータであると見なされる場合がある。
FIG. 14 shows some errors that may be seen in the extrinsic calibration parameters. One type of error that may be seen is the baseline distance B, as well as the particular location of the perspective centers O 1 , O 2 , at the
偏移が大き過ぎる場合、エピ極線拘束条件を連立して解く際に、点XOの対応を見出すのに困難が生じる場合がある。ある実施形態では、パターンXは、光強度の低い多数(たとえば10,000個)のスポットおよび光強度の高いより少数(たとえば1,000個)のスポットから成る。この光強度の違いにより、3D測定デバイス100は、高いまたは低い反射率を有する表面を有する物体を認識することができる。対応を見出すのに困難が生じる場合、パターンX中に投影されるスポット同士をさらに遠く離間して、第4の工程ブロック中の対応の決定における曖昧さを低減することが可能である。光強度に違いがある実施形態では、強度のより低いスポットをフィルタリングして除去できるか、または、露出時間を減らすおよび/もしくはプロジェクタ121の合計出力を下げることによって、少なくとも減らすことができる。この例では、光強度の高い(より大きい間隔を有する)スポットのみが、カメラ111、112で見えている。このことにより、対応を決定する際の曖昧さが低減される。
If deviation is too large, when solved by simultaneous equations epipolar constraint, it may be difficult to find the correspondence of the point X O occurs. In some embodiments, pattern X consists of a large number (eg, 10,000) of low light intensity and a smaller number (eg, 1,000) of high light intensity. Due to this difference in light intensity, the
十分にかつ正しく較正パラメータを決定するために、3D測定デバイス100の周囲の全容積を測定のために用いるのが、特に外因性パラメータの決定のために深さ情報を用いるのが、有利である。例として、図19は、2つのカメラ111および112の相対幾何がどのように検証されるかを(概略的に)示す。この目的のために、3D測定デバイス100までの距離が異なる(すなわち深さの異なる)2つの点X1、X2が選択される。点X1またはX2の各々および以前の較正を用いて、カメラ111および112が依然として一貫した結果を提供するかどうかを検証できる。2つのカメラ111および112の相対距離のまたは相対的な整列関係の偏移に起因してばらつきが生じる場合、2つの異なる距離に関する2つの種類の誤差を区別することが可能である。担持構造102の高い機械的および熱的安定性により、3D測定デバイス100の熱による変形またはその機械的ショックにより引き起こされる変形は稀であると考えられるが、たとえばカメラ111、112、113のおよびプロジェクタ121の装着手段においては、生じる可能性がある。3D測定デバイス100の開始動作の切り替え後、および長い時間的な隔たりの後、たとえば20から100個のフレームの取得後などで、較正を検証すれば、ほとんどの場合は十分である。
In order to determine the calibration parameters sufficiently and correctly, it is advantageous to use the entire volume around the
決定された偏移Δに従って較正パラメータを見直すことができ、たとえば、選択された点X0、X1、またはX2によって検出された偏移を補償することができる。点の3D座標を測定する際の冗長性を用いて、新しい較正パラメータを決定することができる。たとえば、較正パラメータを、最適化方策に従い、偏移Δが最小化されるかまたは所定の閾値未満となるまで、変更(補正)することができる。新しい較正パラメータは、現時点で用いられている較正パラメータと比較され、適切である場合、すなわち、(補正された)新しい較正パラメータと現時点で用いられている較正パラメータとの間の逸脱が所定の閾値を超える場合、これらを置き換える。こうして、較正が補正される。機械的問題に起因する偏移の多くが単独の事象であり、較正パラメータ、特に外因性または内因性パラメータの永続的な補正によって修正され得ることを諒解されたい。 The calibration parameters can be reviewed according to the determined deviation Δ, for example, the deviation detected by the selected point X 0 , X 1 , or X 2 can be compensated. Using the redundancy in measuring the 3D coordinates of the points, new calibration parameters can be determined. For example, the calibration parameters can be changed (corrected) according to an optimization strategy until the deviation Δ is minimized or below a predetermined threshold. The new calibration parameter is compared with the currently used calibration parameter and if appropriate, ie the deviation between the (corrected) new calibration parameter and the currently used calibration parameter is a predetermined threshold. If it exceeds, replace them. Thus, the calibration is corrected. It should be appreciated that many of the deviations due to mechanical problems are single events and can be corrected by permanent correction of calibration parameters, particularly extrinsic or intrinsic parameters.
プロジェクタ121の動作パラメータの逸脱に関連する誤差は、外因性パラメータまたは内因性パラメータの逸脱よりもはるかに速く判定することができる。ある実施形態では、チェックされるべき動作パラメータは、光源121aの波長である。この波長は、たとえば光源121aの温度上昇またはポンプ電流の変化に起因して、変化する可能性がある。図20にある実施形態を(概略的に)示す。回折素子124によって生成されたパターンXは、波長の変化とともに縮尺が変わる。図21のエラーフィールド内に示すように、レーザ光線のゼロ次回折の位置など、パターンXの中心では、波長が変化する場合に中心パターン要素の位置の偏移は存在しない。偏移Δは、たとえばより周縁にあるパターン要素においてなど、回折次数のより高い場所に、位置のシフトとして現れる。単一のカメラ111または112を用いて、パターン要素の個々の回折の位置のそのようなシフトを認識することができる。
Errors associated with deviations in
物体Oに対する3D測定デバイス100の(および結果的にプロジェクタ121の)位置および整列関係が不変のままである場合、物体O上の選択された点は、3Dスキャン中の理論上の座標X1(すなわち直近に用いられた較正によって決定された座標)を有する点から、これと異なる実際の座標X2を有する点へと移動する。言い換えれば、予想される点X1が、実際の点X2になる。図19に関連して上記したように、深さ情報を用いて、各単一のショットのフレームから、選択された点X2の実際の3D座標を決定することができる。点X2の実際の座標の、選択された点の理論上の座標X1からの偏移Δが生じた場合、波長の変更が検出される。この新しい波長は、偏移Δのサイズから決定される。別の実施形態では、選択された点X2の実際の座標の、理論上の座標X1からの偏移を検出するために、異なる時間に取り込まれた2つのフレームが比較される。 If the position and alignment of the 3D measurement device 100 (and consequently the projector 121) with respect to the object O remain unchanged, the selected point on the object O is the theoretical coordinate X 1 ( That is, the point having the coordinate (determined by the most recently used calibration) is moved to a point having an actual coordinate X 2 different from this point. In other words, X 1 that is expected, the actual point X 2. As described above in connection with FIG. 19, using the depth information, from each single shot frame, it is possible to determine the actual 3D coordinates of a point selected X 2. If a deviation Δ of the actual coordinates of the point X 2 from the theoretical coordinates X 1 of the selected point occurs, a change in wavelength is detected. This new wavelength is determined from the size of the shift Δ. In another embodiment, the actual coordinates of X 2 selected points, in order to detect the deviation from the coordinate X 1 of the theoretical two frames captured at different times are compared.
波長の変化が観察される場合、適切である場合は、この変化に対抗するための処置をとることができるか、または較正を補正することができる。検出された新しい波長で較正の波長を置き換えることによって、較正の補正を行うことができる。言い換えれば、波長の較正パラメータが変更される。変化に対抗するための処置は、たとえば、レーザを冷却(光源121aがレーザである場合)またはポンプ電流を低減して、波長をその変化していない(すなわち元の)値に戻すことを含み得る。制御ループにおけるフィードバックをポンプ電流にまたはレーザ冷却に適用することによって、レーザの波長を安定させることができる。
If a change in wavelength is observed, action can be taken to counter this change, if appropriate, or the calibration can be corrected. Calibration correction can be performed by replacing the calibration wavelength with the detected new wavelength. In other words, the wavelength calibration parameter is changed. Treatment to counter the change may include, for example, cooling the laser (if the
制御システムが用いられないとき、光源121aによっては、波長がドリフトする場合がある。これらの実施形態では、あり得る波長の範囲をカバーするために、広帯域の光学バンドパスフィルタを用いてよい。ただし、広帯域の光学フィルタは、より多くの望まれない環境光を通過させる場合があり、このことは、屋外で作業するときに問題である場合がある。したがって、用途によっては、波長制御システムが望ましい。波長の変化を直接観察する本明細書に記載の実施形態は、通常であれば温度と電流の両方の安定化を必要とする波長制御システムの単純化において、利点を提供することを諒解されたい。
When the control system is not used, the wavelength may drift depending on the
ファブリペロー(FP)レーザなどのいくつかの種類の半導体レーザは、シングル空間モードを投射するが、複数の縦モードにも対応してすることができ、この場合、各縦モードは僅かに異なる周波数を有する。場合によっては、電流を調節して、単一の縦モードでの動作と複数の縦モードでの動作との間で切り替えを行うことができる。レーザの縦モードの数は、プロジェクタ121の動作パラメータであり得る。通常は、1つの単独の波長が望まれるが、その理由は、これが単一の良好に規定されたパターンXを作り出すからである。レーザによって2つの波長が作り出される場合、2番目の波長は、所望のパターンXにおいてある種の影を作り出す。この結果は、図20を参照して説明することができる。複数の縦モードの波長の違いに応じて、円形の点が、楕円形またはバーベル形状または点の対X1、X2となる場合がある。これらの偏移を、受信されたパターンXに画像処理を適用することによって検出することができる。複数のモードが観察される場合、縦モードの数を1つに減らすように、ポンプ電流または冷却を調節することができる。
Some types of semiconductor lasers, such as Fabry-Perot (FP) lasers, project a single spatial mode, but can also support multiple longitudinal modes, where each longitudinal mode has a slightly different frequency. Have In some cases, the current can be adjusted to switch between operation in a single longitudinal mode and operations in multiple longitudinal modes. The number of longitudinal modes of the laser can be an operating parameter of the
カメラ111および112の内因性パラメータ、たとえば焦点距離の逸脱は、場合によっては自動的に認識され補償され得る。他の例では、内因性パラメータの逸脱は、熱的または機械的な原因からではなく、操作者による意図的な行為に起因してまたは3D測定デバイス100の操作を通して、生じる場合がある。これらの行為は、たとえば、カメラ111、112の光学的特性の変更、またはカメラ111、112のフォーカスもしくはズームによるものを含み得る。
Intrinsic parameters of
較正結果を検証するさらなる可能性は、2Dカメラ113によって取り込まれた2D画像を用いた三角測量に基づいて、3Dスキャンデータを組み合わせることである。これらの2D画像は通常、物体Oの色および他の特徴を備える。1つの実施形態では、プロジェクタ121および2つのカメラ111および112は、物体Oのフレームを同期して取り込むために、カメラ113と同期される。この実施形態では、プロジェクタ121は、カメラ111、112によって受信される赤外光を赤外フィルタを通して投影し、一方、カメラ113は、赤外光波長およびしたがってパターンXを遮断するフィルタを通して、物体Oの画像を受信する。こうしてカメラ113は、物体Oの特徴の鮮明な画像を受信する。カメラ111、112によって観察された物体の特徴をカメラ113によって観察されたものと比較することによって、要素111、112および121を含む三角測量系の較正パラメータにおける誤差を決定することができる。較正パラメータにおける誤差を決定するために用いられる方法は、ユニットU1、U2の一方と見なされている2Dカメラ113など、ここに記載するものと似ている。取り込まれたフレームにおいて対応が検出され、選択された物体の特徴の3D座標が決定される。3D座標を決定する際の冗長性により、新しい較正パラメータを決定することができ、これらが、現時点で用いられている較正パラメータと比較される。現時点の較正パラメータと新しい較正パラメータとの間の差異が閾値を超える場合、新しい較正パラメータが現時点で用いられているものに置き換わる。
A further possibility to verify the calibration result is to combine 3D scan data based on triangulation using 2D images captured by the
別の実施形態では、カメラ113によって受信された光は、赤外光を排除するようにフィルタリングされない。そうではなく、この実施形態では、カメラ113は、物体O上に存在する場合、パターンXの画像を検出および取得することができる。カメラ113は次いで、2つのモードのいずれかで動作することができる。第1のモードでは、カメラ113は、プロジェクタ121によるパターンXのパルス状の投影の時間的な合間に画像を収集する。このモードでは、カメラ113は、較正パラメータにおける誤差を決定するために、111、112、および121を含む三角測量系によって計算された特徴と比較され得る特徴の画像を取り込む。第2のモードでは、カメラ113は、パターンXが物体O上に投影されているときに画像を取得する。この場合、三角測量の要素111、112、および121に対する、カメラ113の6つの自由度の相対的な整列関係における誤差が決定され得る。
In another embodiment, the light received by
2Dカメラ113によって取得された画像がカメラ111、112の画像フレームの間で受信される事例では、画像のインターリーブの根拠を与えるために、3Dおよび2D座標データの補間を行うことができる。そのような補間は数学的なものであってよい。1つの実施形態では、補間は、カルマンフィルタ計算に少なくとも一部基づいていてよい。ある実施形態では、3D測定デバイス100には、慣性測定ユニット(または別の位置追跡デバイス)が設けられる。慣性測定ユニットは、3つのセンサ(加速度計)を用いて空間の3方向における加速度を、および、3つのさらなるセンサ(ジャイロスコープ)を用いて3つの座標軸の回りの角速度を、測定する。移動をこうして、短い時間尺度で測定することができる。これらの移動測定により、プロジェクタおよびカメラ111、112により測定された距離と2Dカメラ113により取得された画像との間で、時間に関する補償的な相殺が可能になる。この補償的な相殺により、データの組み合わせが可能になる。
In the case where the image acquired by the
図7に示すディスプレイ130の1つの実施形態は、細分された画像または細分されたスクリーンを例示している。この実施形態では、ディスプレイ130は、第1のディスプレイ部130aおよび第2のディスプレイ部130bへと分割される。本実施形態では、第1のディスプレイ部130aは、(矩形の)ディスプレイ130の中央部であり、第2のディスプレイ部130bは、第1のディスプレイ部130aの周囲の周縁領域である。別の実施形態では、2つのディスプレイ部は縦の列であってよい。例示した実施形態では、第1のディスプレイ部130aは矩形の形状を有するものとして示されているが、これは例示を目的としており、特許請求される発明はこれに限定されるべきではない。他の実施形態では、第1のディスプレイ部130aは、限定するものではないが、円形、正方形、台形、不等辺四辺形、平行四辺形、卵形、三角形、または任意の数の辺を有する多角形を含む、他の形状を有し得る。1つの実施形態では、第1のディスプレイ部130aの形状は使用者定義のもの、または選択可能なものである。
One embodiment of the
第1のディスプレイ部130aにおいて、ビデオライブ画像VL、たとえば2Dカメラ113によって取り込まれたものなどが表示される。第2のディスプレイ部130bにおいて、直近の3Dスキャンの画像(または重ね合わせられている複数の3Dスキャン)が、3次元ポイントクラウド3DPを少なくとも部分的に見たものとして表示される。第1のディスプレイ部130aのサイズは可変であり、第2のディスプレイ部130bは、第1のディスプレイ部130aとディスプレイ130の境界131との間の領域内に配置される。使用者がデバイス100を移動させるときなど、ビデオライブ画像VLが変化するにつれ、3次元ポイントクラウド3DPの画像はそれに応じて変化して、デバイス100の位置および配向の変化を反映する。
On the
ビデオライブ画像VLの周縁の周囲に3次元ポイントクラウド3DPの画像を置くことにより、どこで追加のスキャンが必要とされ得るかを、使用者が自身の目をディスプレイ130から離すことなく容易に見ることを可能にすることにおいて、利点が提供されることを諒解されたい。加えて、既に取得された3Dデータに対する現時点のカメラ位置のコンピュータによる位置合わせが、所望の仕様の範囲内にあるかを、使用者が判定するのが望ましい場合がある。この位置合わせが仕様の範囲外にある場合、画像と3次元ポイントクラウド3DPとの間の境界における不連続として、このことに気付くであろう。
By placing an image of the 3D point cloud 3DP around the periphery of the video live image VL, it is easy for the user to see where additional scanning may be required without taking his eyes off the
カメラ113が取り込んだ画像は、シーンの2次元(2D)画像である。3次元視したものに変えられる2D画像は通常は、カメラにおいて用いられる光学レンズの種類に応じて、糸巻き形状のまたは樽形状の歪みを含むことになる。一般に、カメラ113の視界(FOV)が狭い(たとえば約40度)である場合、歪みは使用者には容易には見えない。同様に、3次元ポイントクラウドデータの画像は、画像がディスプレイに関してどのように処理されるかに応じて、歪んで見える場合がある。ポイントクラウドデータ3DPを平面視したものとして見ることができ、この場合、画像は、スキャナの本来の座標系(たとえば球面座標系)において得られ、平面上にマッピングされる。平面視すると、直線は湾曲して見える。さらに、中央頂縁部および中央底縁部(たとえば極)近くの画像が、画像の中点に沿って延在する線(たとえば赤道)に対して歪む場合がある。さらに、球体表面を矩形のグリッド上に表現しようとすることによって創出される歪みも存在し得る(メルカトル図法の問題と同様)。
The image captured by the
使用者に連続的で継ぎ目のない画像体験を提供するために、第1のディスプレイ部130a内の画像を、第2のディスプレイ部130b内の画像と似た見た目にすることが望まれることを諒解されたい。3次元ポイントクラウド3DPの画像が著しく歪んでいる場合、このことにより、どの領域が追加のスキャンを用いることができるのかを使用者が判定することが、難しくなる場合がある。ポイントクラウドデータ3DPの平面画像は2Dカメラ画像に対して歪められている可能性があるので、ポイントクラウドデータ3DPから生成された像に対して1つ以上の処理ステップを行ってもよい。1つの実施形態では、第2のディスプレイ部130bの視界(FOV)は、平面画像の中央部分だけが示されるように限定される。言い換えれば、画像は、画像の歪みの大きい部分を除去するために、切り詰められるかまたはトリミングされる。FOVが小さい場合(たとえば120度未満)、歪みは限定的であり、ポイントクラウドデータ3DPを平面視したものは、使用者によって所望されるような見た目になることになる。1つの実施形態では、平面視したものは、第1のディスプレイ部130a内のカメラ113の画像に適合するように、提供すべき平面画像を縮尺しシフトさせるように処理される。
It is appreciated that in order to provide a continuous and seamless image experience to the user, it is desirable to have the image in the
別の実施形態では、3次元ポイントクラウドデータ3DPは、パノラマ画像を生成するように処理される。本明細書で使用される場合、パノラマのという用語は、空間内の点(一般には使用者の場所)を中心にして角度に関する移動が可能である表示を指す。パノラマ視は、平面視の場合のように極において歪みを生じさせることがない。パノラマ視は、方位角方向において360度および天頂方向において+/−45度を含む、球形のパノラマであってよい。1つの実施形態では、球形のパノラマ視は、球体の一部分のみであってよい。 In another embodiment, the 3D point cloud data 3DP is processed to generate a panoramic image. As used herein, the term panoramic refers to a display that is capable of angular movement about a point in space (generally the user's location). The panoramic view does not cause distortion at the pole as in the plan view. The panoramic view may be a spherical panorama including 360 degrees in the azimuth direction and +/− 45 degrees in the zenith direction. In one embodiment, the spherical panoramic view may be only a portion of the sphere.
別の実施形態では、ポイントクラウドデータ3DPは、3D表示を生成するように処理することができる。3D表示とは、固定された点を中心にした回転だけでなく空間内の点から点への並進移動も可能にするように整備される表示を指す。これは、使用者が環境内を動き回ることにおいて利点を提供し、第1のディスプレイ部130aと第2のディスプレイ部130bとの間で連続的で継ぎ目のない表示を提供する。
In another embodiment, the point cloud data 3DP can be processed to generate a 3D display. 3D display refers to a display that is arranged to allow not only rotation about a fixed point, but also translational movement from point to point in space. This provides an advantage for the user to move around in the environment and provides a continuous and seamless display between the
1つの実施形態では、第1のディスプレイ部130a内のビデオライブ画像VLおよび第2のディスプレイ部130b内の3次元ポイントクラウド3DPの画像は、(表示される内容に関して)継ぎ目なく連続的に1つに合わせられる。3次元ポイントクラウド3DPの一部が、これが2Dカメラ113の視点からまたは少なくとも2Dカメラ113と整列された位置から見られるような方法で、(制御および評価デバイス122によって)最初に選択される。次いで、3次元ポイントクラウド3DPの選択された一部が、これがビデオライブ画像VLに連続的に接合するような方法で選択される。言い換えれば、3次元ポイントクラウド3DPの表示された画像は、2Dカメラの視界に対して左側の、右側、頂部側および底部側の、2Dカメラ113の視界を越える領域に関して、ビデオライブ画像VLの連続体となる。上で検討したように、3次元ポイントクラウド3DPの選択された部分を、歪みを低減または排除するように処理することができる。他の実施形態では、この表現は魚眼レンズの表現に対応していてよいが、これは歪んでいないのが好ましい。第1のディスプレイ部130aが占める領域内に位置付けられる3次元ポイントクラウド3DPの一部、言い換えればビデオライブ画像VLの下にあるかまたはこれにより隠される部分は、表示されない。
In one embodiment, the video live image VL in the
第1のディスプレイ部130aが位置付けられる領域内の3次元ポイントクラウド3DP中の点の密度は、使用者には見えることがないことを諒解されたい。通常は、ビデオライブ画像VLは、自然なカラーリングを用いて表示される。しかしながら、ビデオライブ画像VLによって覆われるかまたはこれの背後にある領域内の点の密度を示すために、ビデオライブ画像VLのカラーリングを、たとえばオーバーレイによってなどで、人工的に変えることができる。この実施形態では、人工的に着色されたビデオライブ画像VLを表現するために用いられる人工色(および適切である場合はその強度)は、点の密度に対応する。たとえば、ビデオライブ画像VLに対する緑色のカラーリングは、(十分に)高い密度を示すことができ、一方、中程度のまたは低い点密度(たとえばまだスキャンデータが改善され得る領域)を示すために、黄色のカラーリングを用いることができる。別の実施形態では、この色コード化を用いて、距離に依存するデータ点の精度を表示することができる。
It should be appreciated that the density of points in the three-dimensional point cloud 3DP in the region where the
3Dスキャンの重ね合わせを補助するために、第1のディスプレイ部130a内に、制御および評価デバイス122によって認識された構造(すなわち可能な標的)を示すための、フラグまたはマーク133(図7)を挿入することができる。マーク133は、たとえば小さい「x」または「+」などのシンボルであってよい。認識可能な構造は、物体の点、隅角、縁部、またはテクスチャとすることができる。認識可能な構造を、重ね合わせ工程の開始部分に(すなわち標的の局所化に)かけられている直近の3Dスキャンまたはビデオライブ画像VLによって見つけることができる。直近のビデオライブ画像VLの使用は、重ね合わせ工程をそれほど頻繁に行う必要がないという点で、利点を提供する。マーク133が高い密度を有する場合、3Dスキャンの重ね合わせが成功であったと考えられる。しかしながら、マーク133のより低い密度が認識される場合、3D測定デバイス100の比較的遅い移動を用いて、追加の3Dスキャンを行ってよい。スキャン中の距離100の移動を遅くすることで、追加のまたはより高い密度の点を取得することができる。これに対応して、マーク133の密度を、重ね合わせの成功に関する品質尺度として用いてよい。同様に、スキャンの成功を示すために、3次元ポイントクラウド3DPの点の密度を用いてよい。上で検討したように、スキャン内の点の密度を、ビデオライブ画像VLの人工的なカラーリングによって表現してよい。
A flag or mark 133 (FIG. 7) is shown in the
3D測定デバイス100の移動および取り込まれたフレームの処理を、追跡機能によって行うこともできる、すなわち、3D測定デバイス100は、その環境の相対移動を、追跡中に用いられる方法で追跡する。追跡を見失った場合、たとえば、3D測定デバイス100の移動が速すぎる場合、単に追跡を再び行うことができる。この実施形態では、2Dカメラ113によって提供されたそのままのビデオライブ画像VLおよびこれにより提供される追跡からの直近のビデオ静止画像を、使用者のために、ディスプレイ130上に横に並んだ配置で互いに隣接して表すことができる。使用者は次いで、2つのビデオ画像が一致するまで3D測定デバイス100を移動させることができる。
The movement of the
ここで図15〜図19を参照すると、デバイス100の移動または動作に基づいて3D測定デバイス100を制御するための実施形態が記載される。使用者によるこれらの移動または動作を用いて、ビデオ画像VLのまたは3次元ポイントクラウド3DPの表現を制御することもできる。ある実施形態では、これらのステップまたは動作を、図11を参照して記載される続くブロック203など、測定する方法に組み込むことができる。一般に、3つのステップ、すなわち移動認識ステップ311、移動評価ステップ312、および制御ステップ314が提供される。
Referring now to FIGS. 15-19, an embodiment for controlling the
移動認識ステップ311では、たとえば工程ブロック203において行われる認識中などに、3D測定デバイス100の移動が記録される。移動評価ステップ312は、移動の速度または加速度の量および方向を決定する。この決定には、移動の時間的側面、ならびに移動の質および量を組み入れることができる。質の評価において、移動は、メモリに保存された所定の移動と比較され得る。所定の閾値を超える(または超えない)場合は、規定された移動が識別される。制御ステップ313では、評価された移動に基づいて、3D測定デバイス100の動作が変更される。3つ全てのステップ311、312、313を、制御および評価デバイス122によってか、または(たとえばシリアル接続またはネットワーク接続を通して)通信するように制御および評価デバイス122に結合された外部のコンピュータを介してのいずれかで、行うことができることを諒解されたい。
In the
3D測定デバイス100の制御は、制御の少なくとも3つの範疇、すなわち測定(たとえば測定されたデータの取得を伴う測定工程)、可視化(たとえば測定されたデータの予備評価およびその表現)、ならびに事後処理(たとえば測定されたデータの最終評価)に影響を及ぼし得る。3D測定デバイス100が、これらの範疇のうちの1つまたは範疇の組み合わせを制御するために、動作を用いてよいことを諒解されたい。さらに、動作に応じて行われる制御機能は、コンテクスト依存型であってよい。たとえば、事後処理の間、制御ステップ313は、移動評価ステップ312の結果の保存のみを提供してもよく、そうでなければこの結果の保存は、測定工程の終了後に実行されることになる。3つの制御範疇は、限定するものではないが、3D測定デバイス100、制御および評価デバイス122、ディスプレイ130、または(シリアル接続またはネットワーク接続を介してなど)ローカルでもしくは遠隔で接続されたコンピューティングデバイスなど、構成要素、下位構成要素、または補助構成要素のいずれとも相互作用できる。
Control of the
動作、および移動の評価を、図16〜図18において表現されるような3つの群へと細分することができる。本明細書における実施形態は、移動を個別の動きであるとして記載しているが、これらの移動は、組み合わされてよいかまたは連続して行われてよいことを諒解されたい。1つの実施形態では、ユーザインターフェースを、制御ノブ106の構成を選択することなど、動きまたは動作に基づいて選択することができる。
Motion and movement assessments can be subdivided into three groups as represented in FIGS. Although the embodiments herein describe the movements as being individual movements, it should be appreciated that these movements may be combined or performed sequentially. In one embodiment, the user interface can be selected based on movement or movement, such as selecting a configuration of the
ここで図16を参照すると、動作または移動の第1の群が例示されている。動作のこのモードでは、3D測定デバイス100は方向V1に移動される。動きV1は、速度および加速度の両方に関して測定される。動きの方向、速度、または加速度に応じて、様々な制御機能が、たとえば取得中の測定値またはディスプレイ130上のデータの可視化を変更する。測定機能が制御される場合、3D測定デバイス100の移動の静止を用いて、1つ以上のカメラ111、112、113の一連の画像を、低いダイナミックレンジで、ただしカメラ111、112、113の露出時間を異ならせて取り込むことができる。別の実施形態では、静止の動作により、様々な照射強度を光源121aまたはLED114から投射させることができる。さらに別の実施形態では、静止の動きにより、シークエンス中に光源121aから様々な照射時間(パルス長さ)をもたらすことができ、高いダイナミックレンジ(HDR)の技法を用いて画像を取得することができる。本明細書で使用される場合、「静止」という用語は、3D測定デバイス100を移動させるのを停止することを、言い換えればいずれの方向においてもゼロ速度を有することを意味する。ある実施形態では、「静止」という用語は、使用者が3D測定デバイス100の速度を閾値未満に下げるときを含む。
Referring now to FIG. 16, a first group of movements or movements is illustrated. In this mode of operation,
1つの実施形態では、ディスプレイ130上のビデオ画像VLのおよび/または3次元ポイントクラウド3DPの表現の縮尺は、3D測定デバイス100の移動の速度および/または加速度に依存してよい。「縮尺」という用語は、第1のディスプレイ部130aのサイズ(線形寸法または面積のいずれか)と全体としてのディスプレイ130のサイズとの間の比として定義され、パーセンテージとして示される。
In one embodiment, the scale of the representation of the video image VL on the
2Dカメラ113の小さい視界は、小さい縮尺に割り当てられる。中央の第1のディスプレイ部130aがビデオライブ画像VLを示す、細分されたディスプレイ130を有する本実施形態では、この第1のディスプレイ部130aはしたがって、標準的な場合におけるよりも小さいサイズのものであってよく、また(第1のディスプレイ部130aの周縁の周りの)第2のディスプレイ部130bは、3次元ポイントクラウド3DPのより大きい部分を示す。より大きい視界は、大きい縮尺に割り当てられる。1つの実施形態では、ビデオライブ画像VLは、ディスプレイ130全体を埋めることができる。
The small field of view of the
3D測定デバイス100の高速の移動が検出される場合、表現の縮尺を低速の場合よりも小さく構成してよく、逆の関係も成り立つ。同様に、このことは、3D測定デバイス100の移動の加速度にも当てはまり得る。たとえば、表示された画像の縮尺は、正の加速の場合には小さくされ、また負の加速の場合には、縮尺は大きくされる。縮尺はまた、3D測定デバイス100の移動の速度および/または加速度の成分、たとえば3D測定デバイス100の整列関係に対して垂直にまたはこれと平行に配置される成分にも依存する。整列関係と平行な(すなわち整列関係の方向における)移動の成分に基づいて縮尺が決定される場合、この縮尺は、3D測定デバイス100から物体Oまでの平均距離の変化にも依存させることができる。
When high-speed movement of the
いくつかの実施形態では、移動に起因する縮尺の変化、3D測定デバイス100の移動の停止、または達成されていない移動の閾値速度の値を用いて、低いダイナミックレンジを有するカメラ113の一連の静止画像を記録することができる。これらの画像は、これらから高いダイナミックレンジの画像を生成するために、この一連の画像の中で、低いダイナミックレンジでただし異なる露出時間または照射強度で取り込むことができる。
In some embodiments, a change in scale due to movement, a stop of movement of the
ここで図17を参照すると、移動の第2の群は、矢印V2によって示されるような動作または動きを含む。この実施形態では、使用者は、3D測定デバイス100を用いて、円形移動などの特定の小さい移動を実行する。この円形移動は、少なくともほぼ使用者の腕の長さの半径を有する空間の領域内にあってよい。図17は、3D測定デバイス100の前部に直交して延在する軸を中心とするものとして動きV2を例示しているが、これは例示を目的としており、特許請求される発明はこれに限定されるべきではないことを諒解されたい。他の実施形態では、回転が行われる中心となる軸は、デバイス100の側部から延在する、またはデバイス100の中心を通って垂直に延在する軸など、異なっていることができる。動作V2の評価は、その移動を保存されている移動の種類と比較することによって、およびこうして動作V2を識別することによって、好ましくは質に関して、行われる。
Referring now to FIG. 17, a second group of mobile includes operation or movement as indicated by the arrow V 2. In this embodiment, the user uses the
動作V2単独により、または動作V1との組み合わせにより、使用者は、データの取得および3D測定デバイス100またはディスプレイ130の操作など、制御の3つ全ての範疇を有効にすることができる。使用者は、個別の状態の間で切り替えを行うことができるか、または、値を1段ずつもしくは連続的に調節することができる。
By operation V 2 alone or in combination with operation V 1 , the user can enable all three categories of control, such as data acquisition and operation of
1つの実施形態では、3D測定デバイス100の機能を制御するために、動作V2を(単独でまたは動作V1と組み合わせて)用いることができる。これらの制御機能は、限定するものではないが、(たとえばフォトグラメトリとパターン検出と縞投影と組み合わされた方法との間で)測定方法を選択すること、取得の特性(たとえばプロジェクタ121の出力、露出時間、物体距離、パターンまたは点の密度)を選択すること、ならびに追加の測定特性のオンおよびオフを切り替えること(たとえば輪郭の3D認識またはフラッシュ)を含む。
In one embodiment, operation V 2 can be used (alone or in combination with operation V 1 ) to control the functionality of the
ある実施形態では、ディスプレイ130または外部のコンピューティングデバイスの可視化機能を制御するために、動作V2を(単独でまたは動作V1と組み合わせて)用いることができる。これらの可視化機能は、限定するものではないが、ユーザインターフェースを選択すること(たとえばボタン配置、スキャン中の2Dと3Dと組み合わされたビューとの間の選択)、表現を選択すること(たとえば点サイズ、視野角、正投影または斜視などの投影の種類、またはマップビューなど)、案内法を選択すること(たとえば物体中心またはカメラ中心、ズームが許可されるかどうか)、3D測定デバイス100を、3次元ポイントクラウド3DPを有する共通の座標系を通って案内するための6自由度(x方向、y方向、z方向、ヨー角、ロール角、およびピッチ角)を有するマウスとして用いること、ならびにディスプレイ130上の表現とおよびさらなるユーザインターフェースと、マウスの様式で相互作用すること(たとえばディスプレイ130の中身を移動させて脇にシフトさせる)を含む。
In certain embodiments, in order to control the visualization of the
ある実施形態では、ディスプレイ130または外部のコンピューティングデバイスの事後処理機能を制御するために、動作V2を(単独でまたは動作V1と組み合わせて)用いることができる。これらの事後処理機能は、限定するものではないが、マークを設定すること(対象とする点を、その点を取り囲むことによってなどでマークすること)、視点または回転の点を、対象とする容積の中心に設定すること、3次元ポイントクラウド3DPを有する共通の座標系を通って案内するための場所を(たとえば、マウスキーのクリックに対応するピッチ角の変化を伴う動作によって)規定すること、および(おおよその)重力方向(z方向)を規定することを含む。
In certain embodiments, in order to control the post-processing function of the
いくつかの実施形態では、重力の方向が、3D測定デバイス100の規定された移動によって、重ね合わせ工程の始めに規定され得る。この規定された移動は、使用者により、デバイス100を鉛直方向上向きおよび下向きの移動で、たとえば20cmなどの所定の距離にわたって移動させることによって実行される。他の実施形態では、重力の方向は、重ね合わせ工程中の全ての移動の統計値の組から決定され得る。記録工程の間にデバイス100が空間を通る移動の経路に沿ってとる位置の座標を平均して、平面を得ることができる。この平均により得られた平面は空間において水平に位置付けられると仮定され、このことは、これに対して重力の方向が垂直であることを意味する。結果として、重力の方向を決定するための傾斜計119の使用を、回避できる。
In some embodiments, the direction of gravity can be defined at the beginning of the overlay process by a defined movement of the
ここで図18を参照すると、移動の第3の群は、矢印V3によって示されるような動作または動きを含む。動きV3が、空間を通る経路であることを諒解されたい。この動作の群は、測定工程中などに3D測定デバイス100の位置の座標を決定することによって評価され得る。動きV3の経路の評価を用いて、シーンの種類を決定すること、および適切な場合は、様々な表現または動作機能を提供することができる。ある実施形態では、動きV3の経路の、および3D測定デバイス100の整列関係の特性が評価され、所定の動きと比較される。この評価が統計に基づいていてよく、ある実施形態では、この比較により、所定の動きのどれが、動きV3の経路に対応する最も高い可能性を有しているかが決定されることを諒解されたい。1つの実施形態では、動きV3の評価から選択された機能は、動きV3の経路が閾値よりも大きい可能性に基づいている。ある実施形態では、2つの静止動作の間の移動の最中の、空間における3D測定デバイス100の位置の変化によって、動作V2を区別することができる。
Referring now to FIG. 18, the third group of movements includes actions or movements as indicated by arrow V 3 . Motion V 3, it should be appreciated that a path through the space. This group of actions can be evaluated by determining the coordinates of the position of the
1つの実施形態では、シーンの種類を決定するために、および、適切である場合には様々な表現または動作可能性を提供するために、動きV3の経路を用いることもできる。(3D測定デバイス100の整列関係が内部に向かって配向されている)中心場所の周囲の移動の経路は、単一の物体Oの画像を示唆している(物体を中心とした画像)。同様に、デバイス100を外側に配向する移動の経路(およびこの移動の経路の、特により長い真っ直ぐな区間)は、余地の画像に関連している。したがって、余地をスキャン中であると判定される場合は、ディスプレイ130に床平面図(上面図)の画像を挿入することができる。
In one embodiment, the path of motion V 3 can also be used to determine the type of scene and to provide various representations or operational possibilities where appropriate. The path of movement around the central location (where the alignment relationship of the
1つの実施形態では、3D測定デバイス100の測定機能を制御するために、動作V3を(単独でまたは動作V1およびV2と組み合わせて)用いることができる。これらの機能は、限定するものではないが、たとえば動きV3の経路までの取り込まれた物体の距離に基づいて、(V2に関して示されたような)測定方法を選択すること、および追跡または重ね合わせのためのデータを選択することを含む。
In one embodiment, operation V 3 can be used (alone or in combination with operations V 1 and V 2 ) to control the measurement function of the
1つの実施形態では、3D測定デバイス100の可視化機能を制御するために、動作V3を(単独でまたは動作V1およびV2と組み合わせて)用いることができる。これらの機能は、限定するものではないが、特にズームおよび配向に関して、測定に基づいて表現を選択すること、背景に関して対象とする容積を規定すること、ディスプレイ130にマップとして床平面図(上面図)を表示すること、(たとえば床平面図が存在しないときに)対象とする容積内に余地の壁を規定すること、ならびにユーザインターフェースを選択することを含む。
In one embodiment, operation V 3 (alone or in combination with operations V 1 and V 2 ) can be used to control the visualization function of the
1つの実施形態では、3D測定デバイス100の事後処理機能を制御するために、動作V3を(単独でまたは動作V1およびV2と組み合わせて)用いることができる。これらの機能は、限定するものではないが、対象とする容積を検出すること、対象とする容積の特徴同士の間で選択すること、事後処理の様々な選択肢の間で選択すること(たとえば対象とする容積のみ処理すること)、検出された対象とする容積内の物体表面上のギャップを充填すること(ビデオメッシング(video meshing)、ギャップ充填)ならびに補間に対応することおよび接合すること、動きV3の経路のz座標からの床の位置を検出すること(たとえば、これらのz座標が平均して水平面上に位置付けられると規定すること、およびこの平面への案内を限定すること)、動きV3の経路のz座標からの床の変化を検出すること、床の変化が検出されるときに床を分離すること、ならびに、(たとえば3D測定デバイスが高度測定器を含むときに)床の絶対位置を決定することを含む。
In one embodiment, operation V 3 can be used (alone or in combination with operations V 1 and V 2 ) to control the post-processing function of the
使用者が3D測定デバイス100の機能性を制御するのを補助するために、動作同士を組み合わせてよいことを諒解されたい。たとえば、動きV1の速度を評価することによって、ディスプレイ130上に特定のユーザインターフェース要素(たとえばボタン、スライダ、テキストボックス)が現れてよい。次いでこれらのユーザインターフェース要素は、動作V2の動きによって起動される。
It should be appreciated that the operations may be combined to assist the user in controlling the functionality of the
1つの実施形態では、本明細書に記載の動作および制御機能など、動作を制御機能と相関させる対応の規則を規定することができる。対応の規則は、たとえばルックアップテーブルまたはデータベースなどの、データを相関させるための任意の好適な手段であってよい。この例示の実施形態では、対応の規則はメモリに保存され、たとえば速度、加速度、動きの経路、動きの方向、または動きの種類に基づいて動作を決定するために、制御および評価デバイスによって取得可能である。 In one embodiment, corresponding rules can be defined that correlate operations with control functions, such as the operations and control functions described herein. Corresponding rules may be any suitable means for correlating data, such as a look-up table or a database. In this exemplary embodiment, the corresponding rules are stored in memory and can be obtained by a control and evaluation device to determine motion based on, for example, speed, acceleration, motion path, motion direction, or motion type. It is.
本発明がほんの限られた数の実施形態との関連において詳細に記載されたが、本発明がそのような開示された実施形態に限定されないことが、容易に理解されるであろう。むしろ、これまで記載していないが本発明の精神および範囲に相応する、任意の数の変更、改変、置換、または等価な構成を組み込むように、本発明を修正することができる。加えて、本発明の様々な実施形態を記載したが、本発明の態様は、記載した実施形態の一部しか含まない場合があることを理解されたい。したがって、本発明は、先述の記載によって限定されるものと見なされるべきではなく、付属の特許請求の範囲の範囲によってのみ限定される。 Although the invention has been described in detail in connection with only a limited number of embodiments, it will be readily understood that the invention is not limited to such disclosed embodiments. Rather, the invention can be modified to incorporate any number of alterations, modifications, substitutions or equivalent arrangements not heretofore described, but which are commensurate with the spirit and scope of the invention. In addition, while various embodiments of the invention have been described, it is to be understood that aspects of the invention may include only some of the described embodiments. Accordingly, the invention is not to be seen as limited by the foregoing description, but is only limited by the scope of the appended claims.
Claims (23)
複数のコマンドの各々と複数の動作の各々との間の対応の規則を提供することであって、前記複数の動作の中からの各動作が前記3D測定デバイスによる経路に沿った移動を含み、前記対応の規則が第1の経路に沿った移動に少なくとも部分的に基づいており、前記対応の規則が前記メモリに保存される、提供することと、
前記プロジェクタで物体上に光のパターンを投射することと、第1の時間に前記第1のカメラおよび前記第2のカメラで前記光のパターンの画像の第1の組を記録することと、
第2の時間に前記第1のカメラおよび前記第2のカメラで前記光のパターンの画像の第2の組を記録することと、
前記第1の画像および前記第2の画像に少なくとも部分的に基づいて、前記物体の3Dスキャンを作り出すことと、
前記3D測定デバイスを第2の経路に沿って第1の位置から第2の位置へと移動させることと、
前記第1の位置から前記第2の位置への前記移動に少なくとも部分的に基づいて動作を決定することと、
前記動作および前記対応の規則に少なくとも部分的に基づいて第1の制御機能を決定することと、
前記3D測定デバイスに対して前記第1の制御機能を実行することと、
を含むことを特徴とする、環境を光学的にスキャンし測定するための方法。 A three-dimensional (3D) measurement device having a first camera, a second camera, and a projector, further comprising a control and evaluation device having a memory and operably coupled to the at least one camera and the projector Providing a 3D measurement device comprising:
Providing a corresponding rule between each of the plurality of commands and each of the plurality of actions, wherein each action from the plurality of actions includes movement along a path by the 3D measurement device; Providing the correspondence rule is based at least in part on movement along a first path, and wherein the correspondence rule is stored in the memory;
Projecting a pattern of light on an object with the projector; recording a first set of images of the light pattern with the first camera and the second camera at a first time;
Recording a second set of images of the light pattern with the first camera and the second camera at a second time;
Creating a 3D scan of the object based at least in part on the first image and the second image;
Moving the 3D measurement device from a first position to a second position along a second path;
Determining an action based at least in part on the movement from the first position to the second position;
Determining a first control function based at least in part on the actions and the corresponding rules;
Performing the first control function on the 3D measuring device;
A method for optically scanning and measuring an environment, comprising:
前記3D測定デバイスが傾斜計をさらに含み、
前記動作を決定する前記ステップがさらに、前記傾斜計からの信号に少なくとも部分的に基づくことを特徴とする方法。 The method of claim 1, comprising:
The 3D measurement device further comprises an inclinometer;
The method of determining the action is further based at least in part on a signal from the inclinometer.
前記画像の第1の組の中の物体を識別することと、
前記画像の第2の組の中の前記物体を識別することと、
前記物体の位置に少なくとも部分的に基づいて、前記3D測定デバイスを中心場所に位置合わせすることと、をさらに含むことを特徴とする方法。 The method of claim 1, comprising:
Identifying an object in the first set of images;
Identifying the object in the second set of images;
Aligning the 3D measurement device to a central location based at least in part on the position of the object.
Applications Claiming Priority (23)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102014113015.4A DE102014113015B4 (en) | 2014-09-10 | 2014-09-10 | An apparatus for optically scanning and surveying an environment, comprising a hand-held scanner with a support structure |
DE102014013678.7A DE102014013678B3 (en) | 2014-09-10 | 2014-09-10 | Method for optically sensing and measuring an environment with a handheld scanner and gesture control |
DE102014013678.7 | 2014-09-10 | ||
DE102014013677.9 | 2014-09-10 | ||
DE102014113015.4 | 2014-09-10 | ||
DE102014013677.9A DE102014013677B4 (en) | 2014-09-10 | 2014-09-10 | Method for optically scanning and measuring an environment with a handheld scanner and subdivided display |
DE102015106838.9A DE102015106838B4 (en) | 2014-09-10 | 2015-05-02 | Method for controlling a 3D measuring device by means of the movement path and device for this purpose |
DE102015106836.2 | 2015-05-02 | ||
DE102015106837.0A DE102015106837B4 (en) | 2014-09-10 | 2015-05-02 | Method for controlling a 3D measuring device by means of gestures and device for this purpose |
DE102015106836.2A DE102015106836B4 (en) | 2014-09-10 | 2015-05-02 | Method for controlling a 3D measuring device by means of instantaneous movement and device for this purpose |
DE102015106838.9 | 2015-05-02 | ||
DE102015106837.0 | 2015-05-02 | ||
US201562161461P | 2015-05-14 | 2015-05-14 | |
US62/161,461 | 2015-05-14 | ||
US14/712,993 | 2015-05-15 | ||
US14/712,993 US10070116B2 (en) | 2014-09-10 | 2015-05-15 | Device and method for optically scanning and measuring an environment |
US14/722,219 | 2015-05-27 | ||
US14/722,219 US9769463B2 (en) | 2014-09-10 | 2015-05-27 | Device and method for optically scanning and measuring an environment and a method of control |
US14/826,859 US9671221B2 (en) | 2014-09-10 | 2015-08-14 | Portable device for optically measuring three-dimensional coordinates |
US14/826,859 | 2015-08-14 | ||
US14/844,700 US9602811B2 (en) | 2014-09-10 | 2015-09-03 | Method for optically measuring three-dimensional coordinates and controlling a three-dimensional measuring device |
US14/844,700 | 2015-09-03 | ||
PCT/US2015/048857 WO2016040271A1 (en) | 2014-09-10 | 2015-09-08 | Method for optically measuring three-dimensional coordinates and controlling a three-dimensional measuring device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017528714A true JP2017528714A (en) | 2017-09-28 |
Family
ID=55459465
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017513511A Pending JP2017528714A (en) | 2014-09-10 | 2015-09-08 | Method for optical measurement of three-dimensional coordinates and control of a three-dimensional measuring device |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2017528714A (en) |
WO (1) | WO2016040271A1 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200016994A (en) * | 2017-07-06 | 2020-02-17 | 항저우 스캔테크 컴파니 리미티드 | Handheld Large 3D Measurement Scanner System with Photogrammetry and 3D Scan |
WO2020175117A1 (en) * | 2019-02-25 | 2020-09-03 | ソニーセミコンダクタソリューションズ株式会社 | Distance measurement device, distance measurement method, and program |
WO2020175118A1 (en) * | 2019-02-25 | 2020-09-03 | ソニーセミコンダクタソリューションズ株式会社 | Distance measurement device, distance measurement method, and program |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110446906A (en) * | 2017-02-03 | 2019-11-12 | 莫迪特3D公司 | Three-dimensional scanning device and method |
CN107678552A (en) * | 2017-10-27 | 2018-02-09 | 济南浪潮高新科技投资发展有限公司 | A kind of method and device by gesture control 3D model editing softwares |
CN109685891B (en) * | 2018-12-28 | 2023-09-01 | 鸿视线科技(北京)有限公司 | Building three-dimensional modeling and virtual scene generation method and system based on depth image |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06194137A (en) * | 1992-12-22 | 1994-07-15 | Nippon Telegr & Teleph Corp <Ntt> | Three-dimensional information extracting device for object |
JP2002222007A (en) * | 2000-09-26 | 2002-08-09 | Faro Technol Inc | Method and medium for manufacture, measurement, and analysis for computer aid |
JP2009063582A (en) * | 2008-09-22 | 2009-03-26 | Data Tec:Kk | Sensor unit |
US20110260033A1 (en) * | 2010-04-21 | 2011-10-27 | Faro Technologies, Inc. | Method and apparatus for using gestures to control a laser tracker |
JP2012088876A (en) * | 2010-10-19 | 2012-05-10 | Hitachi Ltd | Spectral information extraction device |
JP2012178854A (en) * | 2005-01-07 | 2012-09-13 | Qualcomm Inc | Optical flow based tilt sensor |
JP2013232208A (en) * | 2007-08-20 | 2013-11-14 | Qualcomm Inc | Method, device, computer readable recording medium and apparatus for enhanced rejection of out-of-vocabulary words |
JP2013254409A (en) * | 2012-06-08 | 2013-12-19 | Toyota Central R&D Labs Inc | Careless driving detection device and program |
JP2014081279A (en) * | 2012-10-16 | 2014-05-08 | Toyota Motor Corp | Three-dimensional shape measuring apparatus and three-dimensional shape measuring method |
JP2014134383A (en) * | 2013-01-08 | 2014-07-24 | Mitsutoyo Corp | Three-dimensional measuring device, input method, and program |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2005103863A2 (en) * | 2004-03-23 | 2005-11-03 | Fujitsu Limited | Distinguishing tilt and translation motion components in handheld devices |
US7908757B2 (en) * | 2008-10-16 | 2011-03-22 | Hexagon Metrology, Inc. | Articulating measuring arm with laser scanner |
US8082673B2 (en) * | 2009-11-06 | 2011-12-27 | Hexagon Metrology Ab | Systems and methods for control and calibration of a CMM |
KR101978967B1 (en) * | 2012-08-01 | 2019-05-17 | 삼성전자주식회사 | Device of recognizing predetermined gesture based on a direction of input gesture and method thereof |
-
2015
- 2015-09-08 WO PCT/US2015/048857 patent/WO2016040271A1/en active Application Filing
- 2015-09-08 JP JP2017513511A patent/JP2017528714A/en active Pending
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06194137A (en) * | 1992-12-22 | 1994-07-15 | Nippon Telegr & Teleph Corp <Ntt> | Three-dimensional information extracting device for object |
JP2002222007A (en) * | 2000-09-26 | 2002-08-09 | Faro Technol Inc | Method and medium for manufacture, measurement, and analysis for computer aid |
JP2012178854A (en) * | 2005-01-07 | 2012-09-13 | Qualcomm Inc | Optical flow based tilt sensor |
JP2013232208A (en) * | 2007-08-20 | 2013-11-14 | Qualcomm Inc | Method, device, computer readable recording medium and apparatus for enhanced rejection of out-of-vocabulary words |
JP2009063582A (en) * | 2008-09-22 | 2009-03-26 | Data Tec:Kk | Sensor unit |
US20110260033A1 (en) * | 2010-04-21 | 2011-10-27 | Faro Technologies, Inc. | Method and apparatus for using gestures to control a laser tracker |
JP2012088876A (en) * | 2010-10-19 | 2012-05-10 | Hitachi Ltd | Spectral information extraction device |
JP2013254409A (en) * | 2012-06-08 | 2013-12-19 | Toyota Central R&D Labs Inc | Careless driving detection device and program |
JP2014081279A (en) * | 2012-10-16 | 2014-05-08 | Toyota Motor Corp | Three-dimensional shape measuring apparatus and three-dimensional shape measuring method |
JP2014134383A (en) * | 2013-01-08 | 2014-07-24 | Mitsutoyo Corp | Three-dimensional measuring device, input method, and program |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200016994A (en) * | 2017-07-06 | 2020-02-17 | 항저우 스캔테크 컴파니 리미티드 | Handheld Large 3D Measurement Scanner System with Photogrammetry and 3D Scan |
KR102209255B1 (en) * | 2017-07-06 | 2021-01-29 | 스캔테크(항저우) 컴파니 리미티드 | Handheld large 3D measurement scanner system with simultaneous photogrammetry and 3D scanning functions |
WO2020175117A1 (en) * | 2019-02-25 | 2020-09-03 | ソニーセミコンダクタソリューションズ株式会社 | Distance measurement device, distance measurement method, and program |
WO2020175118A1 (en) * | 2019-02-25 | 2020-09-03 | ソニーセミコンダクタソリューションズ株式会社 | Distance measurement device, distance measurement method, and program |
Also Published As
Publication number | Publication date |
---|---|
WO2016040271A1 (en) | 2016-03-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10088296B2 (en) | Method for optically measuring three-dimensional coordinates and calibration of a three-dimensional measuring device | |
US10401143B2 (en) | Method for optically measuring three-dimensional coordinates and controlling a three-dimensional measuring device | |
US10499040B2 (en) | Device and method for optically scanning and measuring an environment and a method of control | |
US10070116B2 (en) | Device and method for optically scanning and measuring an environment | |
US9671221B2 (en) | Portable device for optically measuring three-dimensional coordinates | |
US10841562B2 (en) | Calibration plate and method for calibrating a 3D measurement device | |
JP6347789B2 (en) | System for optically scanning and measuring the surrounding environment | |
US9618620B2 (en) | Using depth-camera images to speed registration of three-dimensional scans | |
US9217637B2 (en) | Device for optically scanning and measuring an environment | |
JP2017527812A (en) | Method for optical measurement of three-dimensional coordinates and calibration of a three-dimensional measuring device | |
JP2017528714A (en) | Method for optical measurement of three-dimensional coordinates and control of a three-dimensional measuring device | |
EA031929B1 (en) | Apparatus and method for three dimensional surface measurement | |
WO2009120073A2 (en) | A dynamically calibrated self referenced three dimensional structured light scanner | |
Zhang et al. | Development of an omni-directional 3D camera for robot navigation | |
US11350077B2 (en) | Handheld three dimensional scanner with an autoaperture | |
JP2007033087A (en) | Calibration device and method | |
WO2016039955A1 (en) | A portable device for optically measuring three- dimensional coordinates | |
JP2017111118A (en) | Registration calculation between three-dimensional(3d)scans based on two-dimensional (2d) scan data from 3d scanner | |
ITRM20090367A1 (en) | SENSOR FOR THREE-DIMENSIONAL ENVIRONMENTAL RECONSTRUCTION AT HIGH PRECISION. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180830 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190628 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190709 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20200225 |