JP2017207477A - Precise hand-held scanner - Google Patents

Precise hand-held scanner Download PDF

Info

Publication number
JP2017207477A
JP2017207477A JP2017081124A JP2017081124A JP2017207477A JP 2017207477 A JP2017207477 A JP 2017207477A JP 2017081124 A JP2017081124 A JP 2017081124A JP 2017081124 A JP2017081124 A JP 2017081124A JP 2017207477 A JP2017207477 A JP 2017207477A
Authority
JP
Japan
Prior art keywords
camera
pattern
data
light pattern
dot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017081124A
Other languages
Japanese (ja)
Inventor
エイ リュプケ リチャード
A Luepke Richard
エイ リュプケ リチャード
アール マン アントニー
R Mann Anthony
アール マン アントニー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lockheed Martin Corp
Original Assignee
Lockheed Corp
Lockheed Martin Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lockheed Corp, Lockheed Martin Corp filed Critical Lockheed Corp
Publication of JP2017207477A publication Critical patent/JP2017207477A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2518Projection by scanning of the object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2513Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with several lines being projected in more than one direction, e.g. grids, patterns
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2545Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with one projection direction and several detection directions, e.g. stereo
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a precise hand-held scanner which can reduce or remove disadvantages and problems relating to measurement of a surface profile.SOLUTION: A device 100 includes: a lens 140 with an etching pattern; and a light emitting diode (LED) projector 130 for projecting, to a surface, the pattern of light which follows the etching pattern of a lens by making light pass through the lens. The device further includes: a first camera 110 for acquiring first data associated with the pattern of a projected light; and a second camera 120 for acquiring second data associated with the pattern of a projected light, the first data acquired by the first camera and the second data acquired by the second camera being used for measuring the profile of a surface.SELECTED DRAWING: Figure 1

Description

本開示は、一般にスキャニングに関し、具体的には、表面プロファイルを測定する精密ハンドヘルド(手持ち式)スキャナに関する。   The present disclosure relates generally to scanning, and more particularly to precision handheld scanners that measure surface profiles.

航空機及びその他の車両及び製品の表面は、製造中にスキャンされることがある。例えば、航空機の表面は、表面プロファイルの測定又は幾何学的データの取得のためにスキャンすることができる。しかしながら、航空機の表面などの表面をスキャンする典型的な解決策は、ハンドヘルド式の操作に適していない。   Aircraft and other vehicles and product surfaces may be scanned during manufacturing. For example, aircraft surfaces can be scanned for surface profile measurements or geometric data acquisition. However, typical solutions for scanning surfaces such as aircraft surfaces are not suitable for handheld operation.

本開示によれば、表面プロファイルの測定に関連する不利点及び問題点を低減又は排除することができる。   According to the present disclosure, disadvantages and problems associated with measuring surface profiles can be reduced or eliminated.

1つの実施形態では、装置が、レンズと、発光ダイオード(「LED」)プロジェクタと、第1のカメラと、第2のカメラと、1又は2以上のプロセッサとを含む。レンズは、エッチングパターンを有し、LEDプロジェクタは、レンズに光を透過することによってレンズのエッチングパターンに従う光のパターンを表面上に投影するように構成され、投影される光のパターンはドットパターンを含む。この実施形態の第1のカメラは、投影される光のパターンの各ドットに関連する第1の画素データを含む第1のデータを取得するように構成される。さらに、第2のカメラは、投影される光のパターンの各ドットに関連する第2の画素データを含む第2のデータを取得するように構成される。また、1又は2以上のプロセッサは、第1の画素データ及び第2の画素データを用いて、ドットパターンの各ドットの位置を特定するように構成される。1又は2以上のプロセッサは、3次元「3D」空間内の相対的なドット位置に基づいて表面のプロファイルを測定するようにさらに構成される。   In one embodiment, the apparatus includes a lens, a light emitting diode (“LED”) projector, a first camera, a second camera, and one or more processors. The lens has an etching pattern, and the LED projector is configured to project a light pattern on the surface according to the etching pattern of the lens by transmitting light to the lens, and the projected light pattern is a dot pattern Including. The first camera of this embodiment is configured to acquire first data including first pixel data associated with each dot of the projected light pattern. Further, the second camera is configured to acquire second data including second pixel data associated with each dot of the projected light pattern. The one or more processors are configured to specify the position of each dot of the dot pattern using the first pixel data and the second pixel data. The one or more processors are further configured to measure a surface profile based on relative dot positions in a three-dimensional “3D” space.

いくつかの実施形態では、方法が、LEDプロジェクタにより、レンズに光を透過することによってレンズ上のエッチングパターンに従う光のパターンを表面上に投影するステップを含む。この方法は、第1のカメラにより、投影される光のパターンに関連する第1のデータを取得し、第2のカメラにより、投影される光のパターンに関連する第2のデータを取得するステップをさらに含む。さらに、この方法は、1又は2以上のプロセッサにより、第1のカメラによって取得された第1のデータと、第2のカメラによって取得された第2のデータとを用いて表面のプロファイルを測定するステップを含む。   In some embodiments, the method includes projecting a pattern of light on a surface according to an etching pattern on the lens by transmitting light through the lens with an LED projector. The method includes obtaining first data associated with a projected light pattern with a first camera and obtaining second data associated with a projected light pattern with a second camera. Further included. Further, the method measures a surface profile by using one or more processors using first data acquired by a first camera and second data acquired by a second camera. Includes steps.

本開示の技術的利点は、制限されたアクセス領域において使用できるハンドヘルドスキャナを提供することを含む。いくつかの実施形態では、ハンドヘルドスキャナが、たとえスキャナ又はスキャン中の被写体が動いている場合でも正確なデータを収集するように構成される。また、いくつかの実施形態では、ハンドヘルドスキャナが、1/1,000未満の範囲の高解像度スキャニング能力を提供する。   Technical advantages of the present disclosure include providing a handheld scanner that can be used in limited access areas. In some embodiments, the handheld scanner is configured to collect accurate data even when the scanner or the subject being scanned is moving. In some embodiments, the handheld scanner also provides high resolution scanning capabilities in the range of less than 1/1000.

別の利点として、本開示のいくつかの実施形態は、工学的要件との適合性を判定するために特徴及び表面を測定して分析しなければならない様々な用途で使用することができる。例えば、いくつかの実施形態は、腐食解析、構造的補修確認、及びパネル間間隙/不整合分析に使用することができる。ハンドヘルドスキャナのいくつかの実施形態は、ステルス型航空機用途などにおいて、コーティングを測定して特定の高さ又は厚さ要件に合うように塗布されていることを確認するために使用することができる。例えば、いくつかの実施形態は、周囲の航空機表面プロファイルに対して締結具が埋められている、及び/又は埋められていない面積を正確に測定するために使用することができる。ハンドヘルド装置から取得されたスキャンデータは、先進のデータ分析ソフトウェアと協働して締結具を素早くスキャンし、埋められている、及び/又は埋められていないデータプロファイルを分析して、特定の設置公差への適合を確認することができる。   As another advantage, some embodiments of the present disclosure can be used in a variety of applications where features and surfaces must be measured and analyzed to determine compatibility with engineering requirements. For example, some embodiments can be used for corrosion analysis, structural repair verification, and inter-panel gap / mismatch analysis. Some embodiments of handheld scanners can be used, such as in stealth aircraft applications, to measure a coating to ensure it is applied to meet a particular height or thickness requirement. For example, some embodiments can be used to accurately measure the area where fasteners are buried and / or unfilled relative to the surrounding aircraft surface profile. Scan data acquired from handheld devices can be used with advanced data analysis software to quickly scan fasteners and analyze buried and / or unfilled data profiles for specific installation tolerances. The conformity to can be confirmed.

別の技術的利点は、医療分野におけるハンドヘルドスキャナの用途に関する。いくつかの実施形態では、ハンドヘルドスキャナを、外部身体部分及び/又は露出した内部身体部分をスキャンするために使用することができる。このスキャン能力を3D印刷技術と結び付けて、置換骨切片の形成、組織及び/又は器官の分析、並びに人工装具の3次元モデルの形成などを行うことができる。   Another technical advantage relates to the use of handheld scanners in the medical field. In some embodiments, a handheld scanner can be used to scan external body parts and / or exposed internal body parts. This scanning capability can be combined with 3D printing techniques to form replacement bone sections, analyze tissues and / or organs, and create 3D models of prostheses.

以下、本開示及びその利点をさらに完全に理解できるように、添付図面と併せて以下の説明を参照する。   For a more complete understanding of the present disclosure and the advantages thereof, reference is now made to the following description, taken in conjunction with the accompanying drawings, in which:

いくつかの実施形態による、ハンドヘルドスキャナの外観図である。1 is an external view of a handheld scanner according to some embodiments. FIG. いくつかの実施形態による、図1のハンドヘルドスキャナを含む表面プロファイル測定システムを示す図である。FIG. 2 illustrates a surface profile measurement system including the handheld scanner of FIG. 1 according to some embodiments. いくつかの実施形態による、表面プロファイル測定方法を示す図である。FIG. 6 illustrates a method for measuring a surface profile, according to some embodiments. いくつかの実施形態による、表面プロファイルの測定に使用するコンピュータシステムを示す図である。FIG. 2 illustrates a computer system used to measure a surface profile according to some embodiments.

本開示をより良く理解できるように、以下のいくつかの実施形態例を示す。以下の例は、本開示の範囲を限定又は規定するものと解釈すべきではない。本開示の実施形態及びその利点は、同じ数字を用いて同じ部分及び対応する部分を示す図1〜図4を参照することによって最も良く理解される。   In order that this disclosure may be better understood, several example embodiments are set forth below. The following examples should not be construed as limiting or defining the scope of the disclosure. Embodiments of the present disclosure and their advantages are best understood by referring to FIGS. 1-4, where the same numerals are used to indicate the same and corresponding parts.

民生用の赤色−緑色−青色−深度(「RGB−D」)ベースのスキャナは、製造用の計測精度よりもむしろ視覚化のために設計されている。通常、RGB−Dスキャナから生成される表面モデルは、製造用の計測スキャナに比べて解像度が非常に低い。これらのタイプのスキャナから取得されるデータは、被測定界内における寸法の解像に使用することができるが、このデータは、0.001インチ(0.00254cm)以下とすることができるいくつかのタイプの製造に必要な精度まで解像されない。   Consumer red-green-blue-depth ("RGB-D") based scanners are designed for visualization rather than manufacturing measurement accuracy. Usually, the surface model generated from the RGB-D scanner has a very low resolution as compared to the measurement scanner for manufacturing. Data obtained from these types of scanners can be used to resolve dimensions within the measured field, but this data can be 0.001 inches (0.00254 cm) or less. It is not resolved to the accuracy required for manufacturing this type.

さらに、立体照明計測用のスキャナは、カメラの露光時間によって制限される。カメラアパーチャの開きが大きいと、集められる光が増加して露光時間が短くなることによってスキャナの運動誤差は生じにくくなるが、被写界深度測定も制限される。アパーチャの開きが小さいと、集められる光が減少して露出時間が長くなることによってスキャナの運動誤差は生じやすくなるが、被写界深度測定は拡大する。   Furthermore, a scanner for measuring stereoscopic illumination is limited by the exposure time of the camera. When the opening of the camera aperture is large, the collected light increases and the exposure time is shortened, so that the scanner movement error is less likely to occur, but the depth of field measurement is also limited. A small aperture opening reduces the collected light and increases exposure time, which tends to cause scanner motion errors, but increases depth of field measurements.

上述したアパーチャの開きとの関係の例えに、画像の特徴全体にピントが合った標準的フィルム速度の写真がある。アパーチャの開きが小さく/速度が遅いほど、写真撮影中にカメラ又は被写体が動いた時に画像ブレが生じやすい。立体照明測定システムでは、このブレによってデータが使用不能になってしまう。従って、システムは、データ収集時には極度に安定(すなわち、動かないように)していなければならない。逆に、開きが大きく速度の速いアパーチャと併せて高速フィルムを使用すれば、動画がはっきりと取得されるようになる。しかしながら、被写界深度が浅くなり、ピントが被写体にしか合わなくなる。この浅い被写界深度により、高プロファイルの表面を正確に測定する能力が制限される。   An example of the relationship with aperture opening described above is a picture of a standard film speed that focuses on the overall image features. The smaller the aperture opening / slower, the more likely image blur occurs when the camera or subject moves during photo shooting. In the three-dimensional illumination measurement system, the data becomes unusable due to this blur. Therefore, the system must be extremely stable (ie, not moving) when collecting data. On the other hand, if a high-speed film is used in combination with an aperture having a large opening and a high speed, a moving image can be clearly obtained. However, the depth of field becomes shallow, and the focus is only on the subject. This shallow depth of field limits the ability to accurately measure high profile surfaces.

立体照明スキャナには、フーリエフリンジパターンの原理を使用するものもある。この方法は、測定対象の被写体上に構造化パターン(例えば、バー又はストライプ)を投影し、平面パターンに合わせて正確に較正された1又は2以上のカメラを用いて、プロジェクタと1又は2以上のカメラとの間の較正関係に基づいてカメラ視野内の各画素までの距離を三角測量することができる。この複数のカメラ画像を取得する位相シフトパターンは、スキャニングを行うためにさらなる時間を必要とし、スキャナ及び測定対象の被写体に高い安定性を要求する。また、このプロジェクタは、典型的にはデジタル光処理(「DLP」)プロジェクタ又は同様の大型プロジェクタであり、ハンドヘルド操作に適した構成ではない。   Some stereoscopic illumination scanners use the principle of Fourier fringe patterns. This method projects a structured pattern (eg, bar or stripe) onto the object to be measured and uses one or more cameras that are accurately calibrated to the planar pattern, and one or more projectors. The distance to each pixel in the camera field of view can be triangulated based on the calibration relationship with the other camera. This phase shift pattern for acquiring a plurality of camera images requires additional time for scanning, and requires high stability for the scanner and the subject to be measured. The projector is also typically a digital light processing (“DLP”) projector or similar large projector and is not configured for handheld operation.

これらの立体照明スキャニングシステムは、異なる用途に合わせて視野を変化させるように複数のレンズを受け入れるようにも構成される。この能力を実現するには、スキャナハウジングが、プロジェクタに対するカメラの幅広い配置に対応しなければならず、スキャナヘッドが、制限されたアクセス領域内では使用できないサイズになってしまう。また、スキャナハウジングの大型化及び重量化に起因して、スキャニングシステムが、支持スタンド、カウンタバランサ又は両手による操作を必要とし得る。さらに、視野が限られた用途では、この位相シフト方法によって過剰なデータが収集されることにより、処理時間及びデータ記憶要件が増加する。例えば、4メガピクセルのカメラを利用して、各カメラ画素(すなわち、4百万ポイント)からデータを収集して分析する立体照明スキャニングシステムは、4インチ×4インチ(10.16cm×10.16cm)の視野にとっては過剰と考えられる。   These stereoscopic illumination scanning systems are also configured to accept multiple lenses to change the field of view for different applications. To achieve this capability, the scanner housing must accommodate a wide range of camera placement relative to the projector, and the scanner head is sized to be unusable within a limited access area. Also, due to the increased size and weight of the scanner housing, the scanning system may require operation with a support stand, counter balancer or both hands. Furthermore, in applications with limited field of view, excessive data is collected by this phase shifting method, which increases processing time and data storage requirements. For example, a stereoscopic lighting scanning system that utilizes a 4 megapixel camera to collect and analyze data from each camera pixel (ie, 4 million points) is 4 inches by 4 inches (10.16 cm by 10.16 cm). ) Is considered excessive.

これらの及びその他の問題点を低減又は排除するために、本開示のいくつかの実施形態は、測定中の被写体に制限された至近距離でアクセスできるように浅い被写界深度を有するハンドヘルドスキャニング装置を含む。また、大きな/高速で開くアパーチャを利用して、データ取得中におけるスキャナ又は被写体の動きに起因する測定誤差を低減又は排除することができる。いくつかの実施形態は、ハンドヘルド能力を実現するために、LEDプロジェクタと共にエッチングレンズを使用して、測定中の被写体上にパターンを投影することにより、スキャニングシステムの物理的サイズの大幅な減少を可能にするとともに、航空機の内部構造などの制限された空間内での操作性を可能にする。   In order to reduce or eliminate these and other problems, some embodiments of the present disclosure provide a handheld scanning device having a shallow depth of field so that the subject being measured can be accessed at a limited close range. including. In addition, a large / high-speed aperture can be used to reduce or eliminate measurement errors due to scanner or subject movement during data acquisition. Some embodiments allow a significant reduction in the physical size of the scanning system by projecting a pattern onto the object under measurement using an etching lens with an LED projector to achieve handheld capabilities And enables operability in a limited space such as the internal structure of an aircraft.

別の利点として、100,000ドット以下の各投影パターンで重心データを収集すると、各カメラ画素におけるデータ収集に比べて収集されるデータの量が大幅に減少する。さらに、4インチ×4インチ(10.16cm×10.16cm)の最大視野内の100,000ヵ所の投影点から収集されたデータは、例えば測定中の被写体を0.001インチ(0.00254cm)以下の精度まで明確化するのに十分である。また、このLEDプロジェクタは、複数の方法で使用することができる。一例として、高反射性の被写体を測定する際には、LEDプロジェクタを連続して照射し、カメラレンズをパルス化して被写体表面のデータを取得することができる。別の例として、複合物又はコーティングに特有な暗い表面などの低反射性の被写体を測定する際には、LEDプロジェクタをカメラレンズと同期させて発射することができる。この結果、連続モード時よりもパルス(例えば、ストロボ)の光が明るくなり、データ取得のための被写体がより良好に照らされるようになる。   As another advantage, collecting the centroid data with each projection pattern of 100,000 dots or less significantly reduces the amount of data collected compared to the data collection at each camera pixel. Further, data collected from 100,000 projection points within a maximum field of view of 4 inches × 4 inches (10.16 cm × 10.16 cm) can be obtained by, for example, 0.001 inch (0.00254 cm) of the subject being measured. It is enough to clarify to the following accuracy. The LED projector can be used in a plurality of ways. As an example, when measuring a highly reflective subject, it is possible to continuously irradiate an LED projector and pulse the camera lens to obtain data on the subject surface. As another example, when measuring a low reflectivity object, such as a dark surface typical of composites or coatings, the LED projector can be fired in sync with the camera lens. As a result, the light of the pulse (eg, strobe) becomes brighter than in the continuous mode, and the subject for data acquisition is better illuminated.

光のパターンを表面上に連続投影するさらなる利点として、いくつかの実施形態は、スキャナの配置中に構造化パターンを分析することによって表面までの距離を自動検出し、表面までの距離が最適になった時にカメラシャッタをトリガさせることができる。一例として、トリガ機構を介してスキャナ装置をオンにした後に、スキャニング装置を測定対象の被写体の方に移動させることができる。最適な距離になると、カメラのシャッタが自動的にトリガし、シーン内のデータを取得することができる。例えば、カメラのシャッタは、視野内の所定数のドットの検出時に自動的にトリガすることができる。   As an additional advantage of continuously projecting a pattern of light onto a surface, some embodiments automatically detect the distance to the surface by analyzing the structured pattern during scanner placement, and the distance to the surface is optimal. When this happens, the camera shutter can be triggered. As an example, after the scanner device is turned on via the trigger mechanism, the scanning device can be moved toward the subject to be measured. When the optimum distance is reached, the camera shutter automatically triggers and data in the scene can be acquired. For example, the camera shutter can be automatically triggered upon detection of a predetermined number of dots in the field of view.

当業者には、以下の図、説明及び特許請求の範囲から他の技術的利点が容易に明らになるであろう。さらに、上記では特定の利点について列挙したが、様々な実施形態は、列挙した利点の全てを含むことも、一部を含むことも、又は全く含まないこともある。図1〜図4に、精密ハンドヘルドスキャナに関するさらなる詳細を示す。   Other technical advantages will be readily apparent to one skilled in the art from the following figures, descriptions, and claims. Furthermore, although specific advantages have been enumerated above, various embodiments may include all, some, or none of the enumerated advantages. 1-4 show further details regarding the precision handheld scanner.

図1に、いくつかの実施形態によるハンドヘルドスキャナ100を示す。図1の実施形態に示すように、ハンドヘルドスキャナ100は、第1のカメラ110、第2のカメラ120、LEDプロジェクタ130、エッチングレンズ140、コネクタ150、ハウジング160、ハンドル170、及び取り付けベース180を含む。いくつかの実施形態では、ハンドヘルドスキャナ100が、動き非依存性の手持ち式高解像度スキャナである。   FIG. 1 illustrates a handheld scanner 100 according to some embodiments. As shown in the embodiment of FIG. 1, the handheld scanner 100 includes a first camera 110, a second camera 120, an LED projector 130, an etching lens 140, a connector 150, a housing 160, a handle 170, and a mounting base 180. . In some embodiments, the handheld scanner 100 is a motion independent handheld high resolution scanner.

第1のカメラ110は、データを取得するように構成された任意のカメラである。いくつかの実施形態では、第1のカメラ110が、5メガピクセル(「MP」)のポイントグレイカメラである。他の実施形態では、第1のカメラ110が、5MPよりも高い又は低い解像度を有することができる。一例として、第1のカメラ110は、12MPカメラとすることもできる。別の例として、第1のカメラ110は、3.2MPカメラとすることもできる。いくつかの実施形態では、第1のカメラ110が、データ取得中のハンドヘルドスキャナ100の動き及び/又は被写体の動きに起因する測定誤差を低減又は排除するように構成されたアパーチャを含む。   The first camera 110 is any camera configured to acquire data. In some embodiments, the first camera 110 is a 5 megapixel (“MP”) point gray camera. In other embodiments, the first camera 110 can have a resolution higher or lower than 5MP. As an example, the first camera 110 may be a 12MP camera. As another example, the first camera 110 may be a 3.2 MP camera. In some embodiments, the first camera 110 includes an aperture configured to reduce or eliminate measurement errors due to movement of the handheld scanner 100 and / or subject movement during data acquisition.

同様に、第2のカメラ120も、データを取得するように構成された任意のカメラである。いくつかの実施形態では、第2のカメラ120が、5MPのポイントグレイカメラである。他の実施形態では、第2のカメラ120が、5MPよりも高い又は低い解像度を有することができる。一例として、第2のカメラ120は、12MPカメラとすることもできる。別の例として、第2のカメラ120は、3.2MPカメラとすることもできる。いくつかの実施形態では、第2のカメラ120が、データ取得中のハンドヘルドスキャナ100の動き及び/又は被写体の動きに起因する測定誤差を低減又は排除するように構成されたアパーチャを含む。いくつかの実施形態では、第1のカメラ110及び第2のカメラ120が同一のカメラである。   Similarly, the second camera 120 is also an arbitrary camera configured to acquire data. In some embodiments, the second camera 120 is a 5MP point gray camera. In other embodiments, the second camera 120 can have a resolution higher or lower than 5MP. As an example, the second camera 120 may be a 12MP camera. As another example, the second camera 120 may be a 3.2 MP camera. In some embodiments, the second camera 120 includes an aperture configured to reduce or eliminate measurement errors due to movement of the handheld scanner 100 and / or subject movement during data acquisition. In some embodiments, the first camera 110 and the second camera 120 are the same camera.

図1の例示的な実施形態に示すように、LEDプロジェクタ130は、光のパターンを表面上に投影するように構成された任意のプロジェクタである。例えば、LEDプロジェクタ130は、スキャン工程中に連続して光を投影することができる。別の例として、LEDプロジェクタは、ハンドヘルドスキャナ100の1又は2以上の機構(例えば、第1のカメラ110及び/又は第2のカメラ120)と同期して発射するように構成されたLEDストロボ光とすることができる。いくつかの実施形態では、LEDプロジェクタ130が、連続モード又はストロボモードで動作するように構成されたスマートビジョンライツSP30シリーズのLEDプロジェクタである。   As shown in the exemplary embodiment of FIG. 1, LED projector 130 is any projector configured to project a light pattern onto a surface. For example, the LED projector 130 can project light continuously during the scanning process. As another example, an LED projector is configured to emit LED strobe light in synchronization with one or more features of the handheld scanner 100 (eg, the first camera 110 and / or the second camera 120). It can be. In some embodiments, the LED projector 130 is a Smart Vision Lights SP30 series LED projector configured to operate in continuous mode or strobe mode.

図1の実施形態に示すように、エッチングレンズ140は、エッチングパターンを含む任意のレンズである。いくつかの実施形態では、エッチングレンズ140が、測定中の表面上に構造化パターンを形成するように構成される。いくつかの実施形態では、構造化パターンが、ドットのグリッドを含むことができる。例えば、エッチングレンズ140の構造化パターンは、100,000ドット以下のグリッドを含むことができる。別の例として、エッチングレンズ140の構造化パターンは、51×51のドットのグリッドを含むことができる。いくつかの実施形態では、エッチングレンズ140が、LEDプロジェクタ130に物理的に取り付けられる。   As shown in the embodiment of FIG. 1, the etching lens 140 is any lens that includes an etching pattern. In some embodiments, the etching lens 140 is configured to form a structured pattern on the surface being measured. In some embodiments, the structured pattern can include a grid of dots. For example, the structured pattern of the etching lens 140 can include a grid of 100,000 dots or less. As another example, the structured pattern of the etching lens 140 can include a grid of 51 × 51 dots. In some embodiments, the etching lens 140 is physically attached to the LED projector 130.

図1に示すように、コネクタ150は、ハンドヘルドスキャナ100をソース(例えば、電源及び/又はコンピュータシステム)に結合する任意のコネクタである。いくつかの実施形態では、コネクタ150が、後述するコンピュータシステム210などのコンピュータシステムにハンドヘルドスキャナ100を電気的に結合する同軸ケーブルコネクタである。また、コネクタ150は、ハンドヘルドスキャナ100をコンセントなどの電源に接続するように構成することができる。いくつかの実施形態では、ハンドヘルドスキャナ100が、複数のコネクタ150(例えば、電力コネクタ及びコンピュータシステムコネクタ)を含むことができる。いくつかの実施形態では、ハンドヘルドスキャナ100が、一体型バッテリを電源に利用することができる。いくつかの例では、ハンドヘルドスキャナ100が、BLUETOOTH(登録商標)又はWi−Fiネットワークを介したハンドヘルドスキャナとコンピュータシステム210との通信を可能にする無線データ転送技術を含むことができる。例えば、ハンドヘルドスキャナ100の無線データ転送技術は、ハンドヘルドスキャナ100とコンピュータシステム210との間のデータ転送を容易にすることができる。   As shown in FIG. 1, connector 150 is any connector that couples handheld scanner 100 to a source (eg, a power source and / or computer system). In some embodiments, connector 150 is a coaxial cable connector that electrically couples handheld scanner 100 to a computer system, such as computer system 210 described below. Further, the connector 150 can be configured to connect the handheld scanner 100 to a power source such as an outlet. In some embodiments, the handheld scanner 100 can include a plurality of connectors 150 (eg, a power connector and a computer system connector). In some embodiments, the handheld scanner 100 can utilize an integrated battery as a power source. In some examples, the handheld scanner 100 may include wireless data transfer technology that enables communication between the handheld scanner and the computer system 210 via a BLUETOOTH® or Wi-Fi network. For example, the wireless data transfer technology of the handheld scanner 100 can facilitate data transfer between the handheld scanner 100 and the computer system 210.

図1の例示的な実施形態では、ハウジング160は、第1のカメラ110、第2のカメラ120及びLEDプロジェクタ130を少なくとも部分的に取り囲むように構成された任意のハウジングである。ハウジング160は、第1のカメラ110、第2のカメラ120及びLEDプロジェクタ130を取り囲むのに適したあらゆる材料で構成することができる。一例として、ハウジング160は、プラスチックで構成することができる。いくつかの実施形態では、ハウジング160が、1又は2以上の開口部を含む。一例として、ハウジング160は、カメラ110、カメラ120及びLEDプロジェクタ130のための開口部を含むことができる。別の例として、ハウジング160は、熱を抑えるようにスキャナに空気を通す1又は2以上の通気孔を含むことができる。   In the exemplary embodiment of FIG. 1, the housing 160 is any housing configured to at least partially surround the first camera 110, the second camera 120, and the LED projector 130. The housing 160 can be constructed of any material suitable for enclosing the first camera 110, the second camera 120, and the LED projector 130. As an example, the housing 160 can be made of plastic. In some embodiments, the housing 160 includes one or more openings. As an example, the housing 160 may include openings for the camera 110, the camera 120, and the LED projector 130. As another example, the housing 160 may include one or more vents that allow air to pass through the scanner to reduce heat.

図1の例示的な実施形態に示すように、ハンドル170は、ユーザによるハンドヘルドスキャナ100の保持を支援する任意のハンドルである。一例として、ハンドル170は、プラスチック、ゴム及び金属製のピストルグリップハンドルとすることができる。いくつかの実施形態では、ハンドル170が、ハンドヘルドスキャナ100の1又は2以上の構成要素に取り付けられる。例えば、図1の例示的な実施形態に示すように、ハンドル170は、ハンドヘルドスキャナ100の取り付けベース180の下側に取り付けられ、第1のカメラ110、第2のカメラ120、LEDプロジェクタ130及びハウジング160は、取り付けベース180の上側に取り付けられる。いくつかの実施形態では、ハンドヘルドスキャナ100の取り付けベース180及びハンドル170が、単一の構成要素として製造される。或いは、ハンドヘルドスキャナ100の取り付けベース180及びハンドル170を2つの別個の構成要素として製造し、ハンドル170を取り付けベース180に物理的に接続することもできる。   As shown in the exemplary embodiment of FIG. 1, handle 170 is any handle that assists the user in holding handheld scanner 100. As an example, the handle 170 may be a pistol grip handle made of plastic, rubber and metal. In some embodiments, the handle 170 is attached to one or more components of the handheld scanner 100. For example, as shown in the exemplary embodiment of FIG. 1, the handle 170 is attached to the underside of the mounting base 180 of the handheld scanner 100, and includes a first camera 110, a second camera 120, an LED projector 130, and a housing. 160 is attached to the upper side of the attachment base 180. In some embodiments, the mounting base 180 and handle 170 of the handheld scanner 100 are manufactured as a single component. Alternatively, the mounting base 180 and handle 170 of the handheld scanner 100 can be manufactured as two separate components, and the handle 170 can be physically connected to the mounting base 180.

図1の例示的な実施形態に示すように、取り付けベース180は、ハンドヘルドスキャナ100の構成要素の取り付けを可能にする任意のベースである。一例として、取り付けベース180は、取り付けレールとすることができる。いくつかの実施形態では、取り付けベース180が、黒鉛複合材などの熱的に安定した材料で構成される。熱的に安定した取り付けベースは、周囲の要素の変化中に、第1のカメラ110と、第2のカメラ120と、LEDプロジェクタ130と、エッチングレンズ140との間の安定した一定の変化しない物理的関係を維持する。例えば、熱的に安定した取り付けベースは、ハンドヘルドスキャナ100内の構成要素の環境条件及び/又は加熱によって引き起こされる温度の変化中に、第1のカメラ110と第2のカメラ120との間の空間的関係を維持することができる。   As shown in the exemplary embodiment of FIG. 1, the mounting base 180 is any base that allows the mounting of the components of the handheld scanner 100. As an example, the mounting base 180 can be a mounting rail. In some embodiments, the mounting base 180 is comprised of a thermally stable material such as a graphite composite. The thermally stable mounting base is a stable and constant physics between the first camera 110, the second camera 120, the LED projector 130, and the etching lens 140 during changes in surrounding elements. Maintain a good relationship. For example, the thermally stable mounting base may provide a space between the first camera 110 and the second camera 120 during temperature changes caused by environmental conditions and / or heating of components within the handheld scanner 100. Maintain the relationship.

いくつかの実施形態では、取り付けベース180が、ハンドヘルドスキャナ100の1又は2以上の構成要素に取り付けられる。例えば、図1の例示的な実施形態に示すように、ハンドル170は、ハンドヘルドスキャナ100の取り付けベース180の下側に取り付けられ、第1のカメラ110、第2のカメラ120、LEDプロジェクタ130及びハウジング160は、取り付けベース180の上側に取り付けられる。いくつかの実施形態では、ハンドヘルドスキャナ100の取り付けベース180及びハンドル170が、単一の構成要素として製造される。或いは、ハンドヘルドスキャナ100の取り付けベース180及びハンドル170を2つの別個の構成要素として製造し、ハンドル170を取り付けベース180に物理的に接続することもできる。   In some embodiments, the mounting base 180 is attached to one or more components of the handheld scanner 100. For example, as shown in the exemplary embodiment of FIG. 1, the handle 170 is attached to the underside of the mounting base 180 of the handheld scanner 100, and includes a first camera 110, a second camera 120, an LED projector 130, and a housing. 160 is attached to the upper side of the attachment base 180. In some embodiments, the mounting base 180 and handle 170 of the handheld scanner 100 are manufactured as a single component. Alternatively, the mounting base 180 and handle 170 of the handheld scanner 100 can be manufactured as two separate components, and the handle 170 can be physically connected to the mounting base 180.

図2に、いくつかの実施形態による表面プロファイル測定システム200を示す。図2の例示的な実施形態では、システム200が、図1のハンドヘルドスキャナ100及びコンピュータシステム210を含む。コンピュータシステム210は、1又は2以上のプロセッサ212、1又は2以上の記憶装置214、及び/又は1又は2以上のインターフェイス216を含むことができる。コンピュータシステム210は、ハンドヘルドスキャナ100の外部に存在することができる。或いは、ハンドヘルドスキャナは、コンピュータシステム210、或いはその1又は2以上の構成要素を含むこともできる。さらに、ハンドヘルドスキャナ100の個々の構成要素(例えば、LEDプロジェクタ130、第1のカメラ110及び第2のカメラ120)が、それぞれ1又は2以上のコンピュータシステム210を含むこともできる。コンピュータシステム210のいくつかの実施形態については、以下で図4においてさらに詳細に説明する。   FIG. 2 illustrates a surface profile measurement system 200 according to some embodiments. In the exemplary embodiment of FIG. 2, system 200 includes handheld scanner 100 and computer system 210 of FIG. The computer system 210 can include one or more processors 212, one or more storage devices 214, and / or one or more interfaces 216. The computer system 210 can be external to the handheld scanner 100. Alternatively, the handheld scanner can include the computer system 210, or one or more components thereof. Further, individual components of handheld scanner 100 (eg, LED projector 130, first camera 110, and second camera 120) may each include one or more computer systems 210. Some embodiments of the computer system 210 are described in further detail below in FIG.

図2の実施形態に示すように、LEDプロジェクタ130は、表面220上に光のパターンを投影するように構成される。いくつかの実施形態では、LEDプロジェクタ130が、レンズ140に光を透過することによってレンズ140のエッチングパターンに従う光のパターンを投影するように構成される。投影される光のパターンは、4インチ×4インチ(10.16cm×10.16cm)の最大視野(例えば、視野220)内に100,000ドット以下のドットパターンを含むことができる。別の例として、投影される光のパターンは、3インチ×3インチ(7.62cm×7.62cm)の視野内に51×51のシャドウマスクグリッドの点を含むことができる。   As shown in the embodiment of FIG. 2, the LED projector 130 is configured to project a pattern of light onto the surface 220. In some embodiments, the LED projector 130 is configured to project a pattern of light that follows the etching pattern of the lens 140 by transmitting light through the lens 140. The projected light pattern can include a dot pattern of 100,000 dots or less within a maximum field of view (eg, field of view 220) of 4 inches × 4 inches (10.16 cm × 10.16 cm). As another example, the projected light pattern may include 51 × 51 shadow mask grid points within a 3 ″ × 3 ″ (7.62 cm × 7.62 cm) field of view.

いくつかの実施形態では、図2のシステム200が拡張可能である。例えば、投影される光のパターンは、1メートル×1メートルの視野内に51×51のシャドウマスクグリッドの点を含むことができる。別の例として、投影される光のパターンは、2インチ×2インチ(5.08cm×5.08cm)の視野内に51×51のシャドウマスクグリッドの点を含むこともできる。いくつかの実施形態では、測定されるプロファイルの精度が、視野に対するドットパターンに依存する。例えば、3インチ×3インチの視野上に投影される51×51のドットパターンは、1メートル×1メートルの視野上に投影される51×51のドットパターンよりも高い精度を有するようになる。   In some embodiments, the system 200 of FIG. 2 is expandable. For example, the projected light pattern may include 51 × 51 shadow mask grid points within a 1 meter × 1 meter field of view. As another example, the projected light pattern may include 51 × 51 shadow mask grid dots in a 2 ″ × 2 ″ field. In some embodiments, the accuracy of the profile being measured depends on the dot pattern relative to the field of view. For example, a 51 × 51 dot pattern projected onto a 3 inch × 3 inch field of view will have a higher accuracy than a 51 × 51 dot pattern projected onto a 1 meter × 1 meter field of view.

システム200は、第1のデータを取得するように構成された第1のカメラ110をさらに含む。いくつかの実施形態では、第1のデータが、投影される光のドットパターンの各ドットに関連する第1の画素データを含む。例えば、第1のデータは、投影される光のドットパターンの各ドットに関連する50個の画素を含み、50個の画素のうちの少なくとも6つがドットの直径を横切って位置することができる。同様に、システム200は、第2のデータを取得するように構成された第2のカメラ120を含む。いくつかの実施形態では、第2のデータが、投影される光のドットパターンの各ドットに関連する第2の画素データを含む。一例として、第2のデータは、投影される光のドットパターンの各ドットに関連する50個の画素を含み、50個の画素のうちの少なくとも6つがドットの直径を横切って位置することができる。図2の例示的な実施形態に示すように、第1のカメラ110及び第2のカメラ120は、同じ視野220にマッピングされる。   The system 200 further includes a first camera 110 configured to acquire the first data. In some embodiments, the first data includes first pixel data associated with each dot of the projected light dot pattern. For example, the first data may include 50 pixels associated with each dot of the projected light dot pattern, and at least 6 of the 50 pixels may be located across the dot diameter. Similarly, the system 200 includes a second camera 120 that is configured to acquire second data. In some embodiments, the second data includes second pixel data associated with each dot of the projected light dot pattern. As an example, the second data may include 50 pixels associated with each dot of the projected light dot pattern, and at least 6 of the 50 pixels may be located across the diameter of the dot. . As shown in the exemplary embodiment of FIG. 2, the first camera 110 and the second camera 120 are mapped to the same field of view 220.

いくつかの実施形態では、システム200のプロセッサ212が、第1のカメラ110によって取得された第1のデータを分析する。例えば、プロセッサ212は、第1のカメラ110によって取得された画素データを分析して、投影される光のドットパターンの各ドットの重心を求めることができる。同様に、いくつかの実施形態では、システム200のプロセッサ212が、第2のカメラ120によって取得された第2のデータを分析する。例えば、プロセッサ212は、第2のカメラ110によって取得された画素データを分析して、投影される光のドットパターンの各ドットの重心を求めることができる。いくつかの実施形態では、プロセッサ212が、ドットの重心をリアルタイムで求める。   In some embodiments, the processor 212 of the system 200 analyzes the first data acquired by the first camera 110. For example, the processor 212 can analyze the pixel data acquired by the first camera 110 to determine the center of gravity of each dot of the projected light dot pattern. Similarly, in some embodiments, the processor 212 of the system 200 analyzes the second data acquired by the second camera 120. For example, the processor 212 can analyze the pixel data acquired by the second camera 110 to determine the center of gravity of each dot of the projected light dot pattern. In some embodiments, the processor 212 determines the dot centroid in real time.

いくつかの実施形態では、プロセッサ212が、表面220上に投影された各ドットの周辺フリンジパターンを分析してドットの重心を求める。例えば、プロセッサ212は、周辺フリンジパターンを利用して特定のドットの境界を求め、特定のドットの重心を計算することができる。いくつかの実施形態では、プロセッサ212が、ドットの直径を横切る6又は7以上の画素を含む画素データを用いて特定のドットの重心を正確に矛盾なく定めることができる。いくつかの例では、プロセッサ212が、副画素を含む特定の画素の重心を計算するように構成される。別の例として、プロセッサ212は、特定の副画素の重心を計算するように構成することができる。   In some embodiments, the processor 212 analyzes the peripheral fringe pattern of each dot projected on the surface 220 to determine the dot centroid. For example, the processor 212 can determine the boundary of a specific dot using the peripheral fringe pattern and calculate the center of gravity of the specific dot. In some embodiments, the processor 212 can accurately and consistently determine the centroid of a particular dot using pixel data that includes six or more pixels across the diameter of the dot. In some examples, the processor 212 is configured to calculate the centroid of a particular pixel including subpixels. As another example, the processor 212 can be configured to calculate the centroid of a particular subpixel.

図2のシステム200では、コンピュータシステム210のプロセッサ212が、各カメラの原点と、第1のカメラ110と第2のカメラ120との間の一定関係とを確立するように平面ドットパターンを較正するよう構成される。いくつかの実施形態では、プロセッサ212が、第1のカメラ110によって取得された第1のデータと、第2のカメラ120によって取得された第2のデータとを用いて表面220のプロファイルを測定するようにさらに構成される。例えば、プロセッサ212は、第1のカメラ110によって取得された第1のデータの重心を第2のカメラ120によって取得された第2のデータの重心に位置合わせし、第1のカメラ110と第2のカメラ120との間の既知の一定関係に基づいて各重心までの距離を三角測量して、3D空間内に点集合を形成することができる。各点は、ドット位置を表す。   In the system 200 of FIG. 2, the processor 212 of the computer system 210 calibrates the planar dot pattern to establish the origin of each camera and a fixed relationship between the first camera 110 and the second camera 120. It is configured as follows. In some embodiments, the processor 212 measures the profile of the surface 220 using the first data acquired by the first camera 110 and the second data acquired by the second camera 120. Further configured as: For example, the processor 212 aligns the centroid of the first data acquired by the first camera 110 with the centroid of the second data acquired by the second camera 120, and the first camera 110 and the second data A point set can be formed in 3D space by triangulating the distance to each center of gravity based on a known constant relationship with the other camera 120. Each point represents a dot position.

いくつかの実施形態では、3D空間内の点集合(例えば、ドット位置)が互いにリンクされる。プロセッサ212は、相対的なドット位置に基づいて表面220のプロファイルを測定するようにさらに構成することができる。いくつかの実施形態では、プロセッサ212が、相対的なドット位置をリアルタイムで特定する。或いは、プロセッサ212は、投影パターンの各ドットに関連する重心データをリアルタイムで収集し、相対的なドット位置の特定をその後の時点に先送りすることもできる。   In some embodiments, point sets (eg, dot locations) in 3D space are linked together. The processor 212 can be further configured to measure the profile of the surface 220 based on relative dot positions. In some embodiments, the processor 212 identifies relative dot positions in real time. Alternatively, the processor 212 can collect centroid data associated with each dot of the projection pattern in real time and postpone the relative dot position identification to a subsequent point in time.

いくつかの実施形態では、プロセッサ212を、相対的なドット位置に基づいて表面220の多角形モデルを形成するように構成することができる。例えば、プロセッサは、一連の多角形を用いて特定された3Dドット位置を接続することによってメッシュを形成することができる。いくつかの実施形態では、この形成されたモデルに基づいて表面220のプロファイルを測定することができる。システム200は、システム200の表面プロファイルを0.001インチ(0.00254cm)以下の精度まで測定する。例えば、3インチ×3インチの視野内の51×51のドットパターンに関連するデータを用いたシステム200の測定プロファイルの精度は、0.0003インチ(0.000762cm)以内とすることができる。   In some embodiments, the processor 212 can be configured to form a polygonal model of the surface 220 based on relative dot positions. For example, the processor can form a mesh by connecting 3D dot positions identified using a series of polygons. In some embodiments, the profile of the surface 220 can be measured based on this formed model. System 200 measures the surface profile of system 200 to an accuracy of 0.001 inches (0.00254 cm) or less. For example, the accuracy of the measurement profile of the system 200 using data related to a 51 × 51 dot pattern in a 3 ″ × 3 ″ field of view can be within 0.0003 ″ (0.000762 cm).

いくつかの実施形態では、LEDプロジェクタ130が、連続モードで動作するように構成される。例えば、LEDプロジェクタ130は、第1のカメラ110が、連続投影される光のパターンに関連する第1のデータを取得するようにパルス化され、第2のカメラ120が、連続投影される光のパターンに関連する第2のデータを取得するようにパルス化されている間に、表面220上に光のパターンを連続投影するように構成することができる。LEDプロジェクタ130は、高反射性の物体を測定する際には連続モードで動作するように構成することができる。   In some embodiments, the LED projector 130 is configured to operate in a continuous mode. For example, the LED projector 130 is pulsed such that the first camera 110 acquires first data associated with a pattern of light that is continuously projected, and the second camera 120 is It can be configured to continuously project a pattern of light onto the surface 220 while being pulsed to acquire second data associated with the pattern. The LED projector 130 can be configured to operate in a continuous mode when measuring highly reflective objects.

いくつかの実施形態では、LEDプロジェクタ130が、パルス(例えば、ストロボ)モードで動作するように構成される。一例として、LEDプロジェクタ130は、投影される光のパターンに関連する第1のデータを取得するようにパルス化された第1のカメラ110のパルス、及び投影される光のパターンに関連する第2のデータを取得するようにパルス化された第2のカメラ120のパルスと同期して光をパルス化することによって表面220上に光のパターンを投影するように構成することができる。LEDプロジェクタ130は、複合物又はコーティングに特有な暗い表面などの低反射性の被写体をシステム200が測定する時にはパルスモードに構成することができる。光のパルスにより、LEDプロジェクタが連続モードである場合よりも光が明るくなり、データ取得のための被写体がより良好に照らされるようになる。   In some embodiments, LED projector 130 is configured to operate in a pulsed (eg, strobe) mode. As an example, the LED projector 130 may include a first camera 110 pulse pulsed to obtain first data associated with a projected light pattern, and a second associated with a projected light pattern. The light pattern can be projected onto the surface 220 by pulsing the light in synchronization with the pulses of the second camera 120 pulsed to acquire the data. The LED projector 130 can be configured in a pulsed mode when the system 200 measures a low reflectivity object, such as a dark surface typical of composites or coatings. The light pulse makes the light brighter than when the LED projector is in continuous mode, and the subject for data acquisition is better illuminated.

いくつかの実施形態では、プロセッサ212が、所望の視野を自動的に検出するように構成され、第1のカメラ110及び/又は第2のカメラ120が、所望の視野の自動検出に応答してデータを取得するように構成される。一例として、第1のカメラ110のプロセッサは、所望の3インチ×3インチの視野(例えば、視野220)を検出し、この検出に応答して第1のカメラ110のシャッタを自動的にトリガさせることによって第1のデータを取得することができる。   In some embodiments, the processor 212 is configured to automatically detect a desired field of view, and the first camera 110 and / or the second camera 120 are responsive to automatic detection of the desired field of view. Configured to retrieve data. As an example, the processor of the first camera 110 detects a desired 3 inch by 3 inch field of view (eg, field of view 220) and automatically triggers the shutter of the first camera 110 in response to this detection. Thus, the first data can be acquired.

図1及び図2の実施形態例の動作では、ハンドヘルドスキャナ100のLEDプロジェクタ130が、レンズ140に光を透過することにより、低被観測性の充填材料で埋められた締結具ヘッドなどの航空機の表面上に、レンズ140のエッチングパターンに従う光のドットパターンを投影する。その後、第1のカメラ110は、埋められた締結具ヘッド上に投影されたパターンの各ドットに関連する第1の画素データを含む第1のデータを取得する。同様に、第2のカメラは、投影パターンの各ドットに関連する第2の画素データを含む第2のデータを取得する。第1のカメラ110及び第2のカメラ120の画素データを、表面220上に投影された各ドットの周辺フリンジパターンについて分析して各ドットの重心を定め、第1のカメラ110からのドット重心と第2のカメラ120からのドット重心とを位置合わせする。第1のカメラ110と第2のカメラ120との間の既知の一定関係に基づき、各ドット重心までの距離を三角測量して、互いにリンクする点集合(例えば、相対的ドット位置)を3D空間内に形成する。このリンクする点集合は、多角形化された(モザイク状の)表面をもたらし、これを用いて埋められた締結具ヘッドの表面プロファイルを測定する。   In the operation of the example embodiment of FIGS. 1 and 2, the LED projector 130 of the handheld scanner 100 transmits light through the lens 140, thereby allowing an aircraft such as a fastener head embedded with a low observable filler material. A light dot pattern according to the etching pattern of the lens 140 is projected onto the surface. Thereafter, the first camera 110 acquires first data including first pixel data associated with each dot of the pattern projected onto the buried fastener head. Similarly, the second camera acquires second data including second pixel data related to each dot of the projection pattern. The pixel data of the first camera 110 and the second camera 120 are analyzed with respect to the peripheral fringe pattern of each dot projected on the surface 220 to determine the center of gravity of each dot, and the dot center of gravity from the first camera 110 and The dot centroid from the second camera 120 is aligned. Based on a known constant relationship between the first camera 110 and the second camera 120, the distance to each dot centroid is triangulated, and a set of points linked to each other (eg, relative dot positions) is represented in 3D space. Form in. This linking point set results in a polygonal (mosaic) surface that is used to measure the surface profile of the buried fastener head.

図3に、いくつかの実施形態による表面プロファイル測定方法300を示す。図3の方法300は、ステップ310において開始する。ステップ320において、LEDプロジェクタ(例えば、LEDプロジェクタ130)がレンズに光を透過することにより、レンズ(例えば、エッチングレンズ140)のエッチングパターンに従う光のパターンを表面(例えば、表面220)上に投影する。次にステップ330において、第1のカメラ(例えば、第1のカメラ110)が、投影される光のパターンに関連する第1のデータを取得する。いくつかの実施形態では、投影される光のパターンがドットパターンを含み、第1のデータは、投影されるドットパターンの各ドットに関連する第1の画素データを含む。ステップ340において、第2のカメラ(例えば、第2のカメラ120)が、投影される光のパターンに関連する第2のデータを取得する。いくつかの実施形態では、第2のデータが、投影されるドットパターンの各ドットに関連する第2の画素データを含むことができる。   FIG. 3 illustrates a surface profile measurement method 300 according to some embodiments. The method 300 of FIG. In step 320, an LED projector (eg, LED projector 130) transmits light through the lens, thereby projecting a light pattern on the surface (eg, surface 220) according to the etching pattern of the lens (eg, etching lens 140). . Next, in step 330, a first camera (eg, the first camera 110) obtains first data related to the projected light pattern. In some embodiments, the projected light pattern includes a dot pattern, and the first data includes first pixel data associated with each dot of the projected dot pattern. In step 340, a second camera (eg, second camera 120) obtains second data related to the projected light pattern. In some embodiments, the second data can include second pixel data associated with each dot of the projected dot pattern.

いくつかの実施形態では、第1のカメラ及び第2のカメラが同じ視野(例えば、視野220)にマッピングされる。例えば、第1のカメラは、3インチ×3インチの視野内の51×51の投影されるドットパターンに関連するデータを取得することができ、第2のカメラも、同じ3インチ×3インチの視野内に投影される51×51のドットパターンに関連するデータを取得することができる。   In some embodiments, the first camera and the second camera are mapped to the same field of view (eg, field of view 220). For example, a first camera can acquire data associated with a 51 × 51 projected dot pattern within a 3 ″ × 3 ″ field of view, and the second camera can also acquire the same 3 ″ × 3 ″ Data relating to a 51 × 51 dot pattern projected into the field of view can be acquired.

図3に示すように、方法300のステップ350において、プロセッサが、第1のカメラによって取得された第1のデータ及び第2のカメラによって取得された第2のデータを用いて表面プロファイルを測定する。一例として、プロセッサは、ドットパターンの各ドットの3D位置を特定し、相対的なドット位置に基づいて表面プロファイルを測定することができる。別の例として、プロセッサは、相対的なドット位置に基づいて3D多角形表面モデルを形成し、この多角形モデルに基づいて表面プロファイルを測定することができる。いくつかの実施形態では、測定される表面プロファイルが、0.001インチ(0.00254cm)以下の精度を有する。方法300は、ステップ360において終了する。   As shown in FIG. 3, in step 350 of the method 300, the processor measures a surface profile using the first data acquired by the first camera and the second data acquired by the second camera. . As an example, the processor can determine the 3D position of each dot in the dot pattern and measure the surface profile based on the relative dot position. As another example, the processor can form a 3D polygonal surface model based on relative dot positions and measure a surface profile based on the polygonal model. In some embodiments, the measured surface profile has an accuracy of 0.001 inch (0.00254 cm) or less. Method 300 ends at step 360.

図3に示す方法には、修正、追加又は省略を行うこともできる。この方法は、これよりも多いステップ、少ないステップ、又は他のステップを含むこともできる。例えば、LEDプロジェクタは、レンズに光を透過することによってレンズのエッチングパターンに従う次の光パターンを次の表面上に投影することができ、第1のカメラは、次の投影パターンに関連する第3のデータを取得することができ、第2のカメラは、次の投影パターンに関連する第4のデータを取得することができる。   Modifications, additions, or omissions may be made to the method shown in FIG. The method may include more steps, fewer steps, or other steps. For example, the LED projector can project a next light pattern on the next surface according to the etching pattern of the lens by transmitting light through the lens, and the first camera is associated with the third projection pattern associated with the next projection pattern. And the second camera can acquire the fourth data related to the next projection pattern.

別の例として、LEDプロジェクタは、第1のカメラが、連続投影される光のパターンに関連する第1のデータを取得するようにパルス化され、第2のカメラが、連続投影される光のパターンに関連する第2のデータを取得するようにパルス化されている間に、表面上に光のパターンを連続投影することができる。さらに別の例として、第1のカメラを、投影される光のパターンに関連する第1のデータを取得するようにパルス化し、第2のカメラを、投影される光のパターンに関連する第2のデータを取得するようにパルス化し、LEDプロジェクタを、第1のカメラのパルス及び第2のカメラのパルスと同期して光をパルス化することによって表面上に光のパターンを投影するように構成することもできる。方法300のステップは、同時に行うことも、又はいずれかの好適な順序で行うこともできる。さらに、方法300の1又は2以上のステップは、システム200のいずれかの好適な構成要素によって実行することができる。   As another example, an LED projector may be pulsed such that a first camera acquires first data related to a pattern of continuously projected light, and a second camera is configured to capture continuously projected light. While being pulsed to acquire second data associated with the pattern, a pattern of light can be continuously projected onto the surface. As yet another example, the first camera is pulsed to obtain first data associated with a projected light pattern, and the second camera is associated with a second light associated with the projected light pattern. The LED projector is configured to project a light pattern onto the surface by pulsing the light in synchronization with the first camera pulse and the second camera pulse. You can also The steps of method 300 may be performed simultaneously or in any suitable order. Further, one or more steps of method 300 may be performed by any suitable component of system 200.

図4に、いくつかの実施形態による、表面プロファイルの測定に使用するコンピュータシステムを示す。1又は2以上のコンピュータシステム400(例えば、コンピュータシステム210)は、本明細書で説明又は図示した1又は2以上の方法の1又は2以上のステップを実行する。特定の実施形態では、1又は2以上のコンピュータシステム400が、本明細書で説明又は図示した機能をもたらす。特定の実施形態では、1又は2以上のコンピュータシステム400上で実行されるソフトウェアが、本明細書で説明又は図示した1又は2以上の方法の1又は2以上のステップを実行し、又は本明細書で説明又は図示した機能をもたらす。特定の実施形態は、1又は2以上のコンピュータシステム400の1又は2以上の部分を含む。本明細書におけるコンピュータシステムについての言及は、コンピュータ装置を含むことができ、必要に応じて逆もまた同様である。さらに、コンピュータシステムについての言及は、必要に応じて1又は2以上のコンピュータシステムを含むこともできる。   FIG. 4 illustrates a computer system used to measure a surface profile, according to some embodiments. One or more computer systems 400 (eg, computer system 210) perform one or more steps of one or more methods described or illustrated herein. In certain embodiments, one or more computer systems 400 provide the functionality described or illustrated herein. In particular embodiments, software running on one or more computer systems 400 performs one or more steps of one or more methods described or illustrated herein, or Provides the functions described or illustrated in the document. Particular embodiments include one or more portions of one or more computer systems 400. References herein to a computer system can include computer devices, and vice versa, if necessary. Further, reference to a computer system may include one or more computer systems as appropriate.

本開示では、あらゆる好適な数のコンピュータシステム400が検討される。本開示では、あらゆる好適な物理的形態を取るコンピュータシステム400が検討される。限定ではなく一例として、コンピュータシステム400は、埋込型コンピュータシステム、システムオンチップ(SOC)、(例えば、コンピュータオンモジュール(COM)又はシステムオンモジュール(SOM)などの)シングルボードコンピュータシステム(SBC)、デスクトップコンピュータシステム、ラップトップ又はノートコンピュータシステム、対話型キオスク、メインフレーム、コンピュータシステムのメッシュ、携帯電話機、携帯情報端末(PDA)、サーバ、タブレットコンピュータシステム、又はこれらのうちの2つ又は3つ以上の組み合わせとすることができる。必要に応じて、コンピュータシステム400は、1又は2以上のコンピュータシステム400を含み、単体又は分散形とし、複数の場所に及び、複数の設備に及び、複数のデータセンタに及び、或いは1又は2以上のネットワーク内の1又2以上のクラウドコンポーネントを含むことができるクラウド内に常駐することができる。必要に応じて、1又は2以上のコンピュータシステム400は、本明細書で説明又は図示した1又は2以上の方法の1又は2以上のステップを、実質的な空間的又は時間的制限を伴わずに実行することができる。限定ではなく一例として、1又は2以上のコンピュータシステム400は、本明細書で説明又は図示した1又は2以上の方法の1又は2以上のステップをリアルタイムで又はバッチモードで実行することができる。必要に応じて、1又は2以上のコンピュータシステム400は、本明細書で説明又は図示した1又は2以上の方法の1又は2以上のステップを異なる時点に又は異なる場所で実行することができる。   In this disclosure, any suitable number of computer systems 400 are contemplated. In this disclosure, a computer system 400 that takes any suitable physical form is contemplated. By way of example, and not limitation, computer system 400 may be an embedded computer system, a system on chip (SOC), a single board computer system (SBC) (eg, a computer on module (COM) or a system on module (SOM)). Desktop computer system, laptop or notebook computer system, interactive kiosk, mainframe, computer system mesh, mobile phone, personal digital assistant (PDA), server, tablet computer system, or two or three of these It can be set as the above combination. As required, the computer system 400 includes one or more computer systems 400 and is single or distributed, spans multiple locations, spans multiple facilities, spans multiple data centers, or 1 or 2 It can reside in a cloud that can include one or more cloud components in these networks. If desired, one or more computer systems 400 may perform one or more steps of one or more methods described or illustrated herein without substantial spatial or temporal limitations. Can be executed. By way of example, and not limitation, one or more computer systems 400 may perform one or more steps of one or more methods described or illustrated herein in real time or in batch mode. If desired, one or more computer systems 400 may perform one or more steps of one or more methods described or illustrated herein at different times or at different locations.

特定の実施形態では、コンピュータシステム400が、プロセッサ402(例えば、プロセッサ212)メモリ404(例えば、メモリ214)、ストレージ406、入力/出力(I/O)インターフェイス408、通信インターフェイス410(例えば、インターフェイス216)、及びバス412を含む。本開示では、特定の構成の特定数の特定の構成要素を有する特定のコンピュータシステムの説明及び図示を行ったが、あらゆる好適な構成のあらゆる好適な数のあらゆる好適な構成要素を有するあらゆる好適なコンピュータシステムが検討される。   In certain embodiments, computer system 400 may include processor 402 (eg, processor 212) memory 404 (eg, memory 214), storage 406, input / output (I / O) interface 408, communication interface 410 (eg, interface 216). ), And a bus 412. Although this disclosure has described and illustrated a particular computer system having a particular number of particular components in a particular configuration, any suitable number having any suitable number of any suitable components in any suitable configuration. Computer systems are considered.

いくつかの実施形態では、プロセッサ402が、コンピュータプログラムを構成する命令などの命令を実行するハードウェアを含む。限定ではなく一例として、プロセッサ402は、命令を実行するために、内部レジスタ、内部キャッシュ、メモリ404又はストレージ406から命令を取り出し(又はフェッチし)、これらを復号して実行した後に、内部レジスタ、内部キャッシュ、メモリ404又はストレージ406に1又は2以上の結果を書き込むことができる。いくつかの実施形態では、プロセッサ402が、データ、命令又はアドレスのための1又は2以上の内部キャッシュを含むことができる。本開示では、必要に応じてあらゆる好適な数のあらゆる好適な内部キャッシュを含むプロセッサ402が検討される。限定ではなく一例として、プロセッサ402は、1又は2以上の命令キャッシュ、1又は2以上のデータキャッシュ、及び1又は2以上の変換索引バッファ(TLB)を含むことができる。命令キャッシュ内の命令は、メモリ404又はストレージ406内の命令のコピーとすることができ、命令キャッシュは、プロセッサ402によるこれらの命令の取り出しを高速化することができる。データキャッシュ内のデータは、プロセッサ402において実行された、プロセッサ402において実行されるその後の命令による以前のアクセス命令、或いはメモリ404又はストレージ406への以前の書き込み命令の結果、又は他の好適なデータに基づいて動作するようにプロセッサ402において実行される命令のための、メモリ404又はストレージ406内のデータのコピーとすることができる。データキャッシュは、プロセッサ402による読み込み又は書き込み動作を高速化することができる。TLBは、プロセッサ402の仮想アドレス変換を高速化することができる。特定の実施形態では、プロセッサ402が、データ、指示又はアドレスのための1又は2以上の内部レジスタを含むことができる。本開示では、必要に応じてあらゆる好適な数のあらゆる好適な内部レジスタを含むプロセッサ402が検討される。必要に応じて、プロセッサ402は、1又は2以上の算術論理演算ユニット(ALU)を含むことができ、マルチコアプロセッサとすることができ、或いは1又は2以上のプロセッサ402を含むことができる。本開示では、特定のプロセッサについての説明及び図示を行ったが、あらゆる好適なプロセッサが検討される。   In some embodiments, processor 402 includes hardware that executes instructions, such as those making up a computer program. By way of example and not limitation, processor 402 may retrieve (or fetch) instructions from internal registers, internal cache, memory 404 or storage 406 to execute the instructions, decode and execute them, One or more results can be written to the internal cache, memory 404 or storage 406. In some embodiments, the processor 402 may include one or more internal caches for data, instructions or addresses. This disclosure contemplates processor 402 including any suitable number of any suitable internal caches as required. By way of example, and not limitation, the processor 402 can include one or more instruction caches, one or more data caches, and one or more translation index buffers (TLBs). The instructions in the instruction cache can be copies of instructions in the memory 404 or storage 406, and the instruction cache can speed up the retrieval of these instructions by the processor 402. Data in the data cache is the result of a previous access instruction executed by processor 402, subsequent instructions executed by processor 402, or a previous write instruction to memory 404 or storage 406, or other suitable data. A copy of the data in memory 404 or storage 406 for instructions executed in processor 402 to operate on the basis of The data cache can speed up read or write operations by the processor 402. The TLB can speed up the virtual address translation of the processor 402. In particular embodiments, processor 402 may include one or more internal registers for data, instructions or addresses. This disclosure contemplates processor 402 including any suitable number of any suitable internal registers as appropriate. If desired, processor 402 can include one or more arithmetic logic units (ALUs), can be a multi-core processor, or can include one or more processors 402. Although this disclosure describes and illustrates particular processors, any suitable processor is contemplated.

いくつかの実施形態では、メモリ404が、プロセッサ402が実行するための命令、又はプロセッサ402が動作するためのデータを記憶するメインメモリを含む。限定ではなく一例として、コンピュータシステム400は、ストレージ406又は(例えば、別のコンピュータシステム400などの)別のソースからメモリ404に命令を取得することができる。その後、プロセッサ402は、これらの命令をメモリ404から内部レジスタ又は内部キャッシュに取得することができる。プロセッサ402は、命令を実行するために、内部レジスタ又は内部キャッシュから命令を取り出して復号することができる。プロセッサ402は、命令の実行中又は実行後に、(中間結果又は最終結果とすることができる)1又は2以上の結果を内部レジスタ又は内部キャッシュに書き込むことができる。その後、プロセッサ402は、これらの結果の1又は2以上をメモリ404に書き込むことができる。いくつかの実施形態では、プロセッサ402が、(ストレージ406又はその他の場所ではなく)1又は2以上の内部レジスタ、内部キャッシュ又はメモリ404内の命令のみを実行し、(ストレージ406又はその他の場所ではなく)1又は2以上の内部レジスタ、内部キャッシュ又はメモリ404内のデータのみに基づいて動作する。(それぞれがアドレスバス及びデータバスを含むことができる)1又は2以上のメモリバスは、プロセッサ402をメモリ404に結合することができる。後述するように、バス412は、1又は2以上のメモリバスを含むことができる。特定の実施形態では、プロセッサ402とメモリ404との間に1又は2以上のメモリ管理ユニット(MMU)が存在し、プロセッサ402によって要求されたメモリ404へのアクセスを容易にする。特定の実施形態では、メモリ404が、ランダムアクセスメモリ(RAM)を含む。このRAMは、必要に応じて揮発性メモリとすることができる。このRAMは、必要に応じてダイナミックRAM(DRAM)、又はスタティックRAM(SRAM)とすることができる。さらに、このRAMは、必要に応じてシングルポート又はマルチポートRAMとすることができる。本開示では、あらゆる好適なRAMが検討される。メモリ404は、必要に応じて1又は2以上のメモリユニット404を含むことができる。本開示では、特定のメモリについての説明及び図示を行ったが、あらゆる好適なメモリが検討される。   In some embodiments, memory 404 includes main memory that stores instructions for processor 402 to execute or data for processor 402 to operate. By way of example, and not limitation, computer system 400 may obtain instructions into memory 404 from storage 406 or from another source (eg, another computer system 400). The processor 402 can then obtain these instructions from the memory 404 into an internal register or internal cache. The processor 402 can retrieve and decode instructions from internal registers or internal caches to execute the instructions. The processor 402 may write one or more results (which may be intermediate or final results) during or after execution of the instruction to an internal register or internal cache. The processor 402 can then write one or more of these results to the memory 404. In some embodiments, the processor 402 executes only instructions in one or more internal registers, internal cache or memory 404 (rather than storage 406 or elsewhere) and (in storage 406 or elsewhere). (Not) operate on data in one or more internal registers, internal cache or memory 404 only. One or more memory buses (each of which can include an address bus and a data bus) can couple the processor 402 to the memory 404. As described below, the bus 412 may include one or more memory buses. In certain embodiments, one or more memory management units (MMUs) exist between processor 402 and memory 404 to facilitate access to memory 404 requested by processor 402. In particular embodiments, memory 404 includes random access memory (RAM). This RAM can be a volatile memory as required. This RAM can be a dynamic RAM (DRAM) or a static RAM (SRAM) as required. Further, this RAM may be a single port or multi-port RAM as required. Any suitable RAM is contemplated in this disclosure. The memory 404 can include one or more memory units 404 as needed. Although this disclosure describes and illustrates a particular memory, any suitable memory is contemplated.

特定の実施形態では、ストレージ406が、データ又は命令のための大容量記憶装置を含む。限定ではなく一例として、ストレージ406は、ハードディスクドライブ(HDD)、フロッピーディスクドライブ、フラッシュメモリ、光ディスク、光磁気ディスク、磁気テープ、又はユニバーサルシリアルバス(USB)ドライブ、或いはこれらのうちの2つ又は3つ以上の組み合わせを含むことができる。ストレージ406は、必要に応じて取り外し可能媒体又は取り外し不能(又は固定)媒体を含むことができる。ストレージ406は、必要に応じてコンピュータシステム400の内部又は外部に存在することができる。特定の実施形態では、ストレージ406が、不揮発性固体メモリである。特定の実施形態では、ストレージ406が、リードオンリメモリ(ROM)を含む。必要に応じて、このROMは、マスクプログラムROM、プログラマブルROM(PROM)、消去可能PROM(EPROM)、電気的消去可能PROM(EEPROM)、電気的消去再書き込みROM(EAROM)、又はフラッシュメモリ、或いはこれらのうちの2つ又は3つ以上の組み合わせとすることができる。本開示では、あらゆる好適な物理的形態を取る大容量記憶装置406が検討される。必要に応じて、ストレージ406は、プロセッサ402とストレージ406との間の通信を容易にする1又は2以上のストレージ制御ユニットを含むことができる。必要に応じて、ストレージ406は、1又は2以上のストレージ406を含むことができる。本開示では、特定のストレージについての説明及び図示を行ったが、あらゆる好適なストレージが検討される。   In particular embodiments, storage 406 includes mass storage for data or instructions. By way of example and not limitation, the storage 406 may be a hard disk drive (HDD), floppy disk drive, flash memory, optical disk, magneto-optical disk, magnetic tape, or universal serial bus (USB) drive, or two or three of these. More than one combination can be included. Storage 406 may include removable or non-removable (or fixed) media as required. The storage 406 can reside inside or outside the computer system 400 as needed. In certain embodiments, the storage 406 is a non-volatile solid state memory. In particular embodiments, storage 406 includes read only memory (ROM). This ROM may be a mask program ROM, a programmable ROM (PROM), an erasable PROM (EPROM), an electrically erasable PROM (EEPROM), an electrically erasable rewrite ROM (EAROM), or a flash memory, as required. It can be a combination of two or more of these. This disclosure contemplates mass storage devices 406 taking any suitable physical form. As desired, storage 406 may include one or more storage control units that facilitate communication between processor 402 and storage 406. The storage 406 can include one or more storages 406 as desired. Although this disclosure has described and illustrated specific storage, any suitable storage is contemplated.

いくつかの実施形態では、I/Oインターフェイス408が、ハードウェア、ソフトウェア、又はこれらの両方を含み、コンピュータシステム400と1又は2以上のI/O装置との間の1又は2以上の通信インターフェイスを提供する。コンピュータシステム400は、必要に応じてこれらのI/O装置のうちの1つ又は2つ以上を含むことができる。これらのI/O装置のうちの1つ又は2つ以上は、人間とコンピュータシステム400との間の通信を可能にすることができる。限定ではなく一例として、I/O装置は、キーボード、キーパッド、マイク、モニタ、マウス、プリンタ、スキャナ、スピーカ、スチルカメラ、スタイラス、タブレット、タッチ画面、トラックボール、ビデオカメラ、別の好適なI/O装置、或いはこれらのうちの2つ又は3つ以上の組み合わせを含むことができる。I/O装置は、1又は2以上のセンサを含むことができる。本開示では、あらゆる好適なI/O装置、及びこれらのI/O装置のためのあらゆる好適なI/Oインターフェイス408が検討される。必要に応じて、I/Oインターフェイス408は、プロセッサ402がこれらのI/O装置のうちの1つ又は2つ以上を駆動できるようにする1又は2以上の装置又はソフトウェアドライバを含むことができる。I/Oインターフェイス408は、必要に応じて1又は2以上のI/Oインターフェイス408を含むことができる。本開示では、特定のI/Oインターフェイスについての説明及び図示を行ったが、あらゆる好適なI/Oインターフェイスが検討される。   In some embodiments, the I / O interface 408 includes hardware, software, or both, and one or more communication interfaces between the computer system 400 and one or more I / O devices. I will provide a. The computer system 400 can include one or more of these I / O devices as desired. One or more of these I / O devices may allow communication between a human and the computer system 400. By way of example and not limitation, an I / O device may be a keyboard, keypad, microphone, monitor, mouse, printer, scanner, speaker, still camera, stylus, tablet, touch screen, trackball, video camera, another suitable I / O devices, or a combination of two or more of these. An I / O device can include one or more sensors. In this disclosure, any suitable I / O devices and any suitable I / O interfaces 408 for these I / O devices are contemplated. If desired, I / O interface 408 may include one or more devices or software drivers that allow processor 402 to drive one or more of these I / O devices. . The I / O interface 408 can include one or more I / O interfaces 408 as desired. Although this disclosure has described and illustrated specific I / O interfaces, any suitable I / O interface is contemplated.

いくつかの実施形態では、通信インターフェイス410が、コンピュータシステム400と、1又は2以上の他のコンピュータシステム400、或いは1又は2以上のネットワークとの間の(例えば、パケットベースの通信などの)通信のための1又は2以上のインターフェイスを提供するハードウェア、ソフトウェア、又はこれらの両方を含む。限定ではなく一例として、通信インターフェイス410は、イーサネット(登録商標)又は他の有線ネットワークと通信するためのネットワークインターフェイスコントローラ(NIC)又はネットワークアダプタ、或いはWi−Fiネットワークなどの無線ネットワークと通信するための無線NIC(WNIC)又は無線アダプタを含むことができる。本開示では、あらゆる好適なネットワーク、及びこのようなネットワークのためのあらゆる好適な通信インターフェイス410が検討される。限定ではなく一例として、コンピュータシステム400は、アドホックネットワーク、パーソナルエリアネットワーク(PAN)、ローカルエリアネットワーク(LAN)、広域ネットワーク(WAN)、メトロポリタンエリアネットワーク(MAN)、又はインターネットの1又は2以上の部分、或いはこれらのうちの2つ又は3つ以上の組み合わせと通信することができる。これらのネットワークのうちの1つ又は2つ以上のネットワークの1又は2以上の部分は、有線又は無線とすることができる。一例として、コンピュータシステム400は、(例えば、BLUETOOTH WPANなどの)無線PAN(WPAN)、Wi−Fiネットワーク、WI−MAXネットワーク、(例えば、グローバルシステムフォーモバイルコミュニケーションズ(GSM(登録商標))ネットワークなどの)携帯電話網、又は他の好適な無線ネットワーク、或いはこれらのうちの2つ又は3つ以上の組み合わせと通信することができる。必要に応じて、コンピュータシステム400は、これらのネットワークのいずれかのためのあらゆる好適な通信インターフェイス410を含むことができる。通信インターフェイス410は、必要に応じて1又は2以上の通信インターフェイス410を含むことができる。本開示では、特定の通信インターフェイスについての説明及び図示を行ったが、あらゆる好適な通信インターフェイスが検討される。   In some embodiments, the communication interface 410 communicates between the computer system 400 and one or more other computer systems 400 or one or more networks (eg, packet-based communication). Hardware, software, or both, that provide one or more interfaces for. By way of example and not limitation, the communication interface 410 is for communicating with a wireless network such as a network interface controller (NIC) or network adapter for communicating with an Ethernet or other wired network, or a Wi-Fi network. A wireless NIC (WNIC) or wireless adapter may be included. In this disclosure, any suitable network and any suitable communication interface 410 for such a network are contemplated. By way of example, and not limitation, computer system 400 is one or more parts of an ad hoc network, a personal area network (PAN), a local area network (LAN), a wide area network (WAN), a metropolitan area network (MAN), or the Internet. , Or a combination of two or more of these. One or more portions of one or more of these networks can be wired or wireless. As an example, the computer system 400 may include a wireless PAN (WPAN) (eg, BLUETOOTH WPAN), a Wi-Fi network, a WI-MAX network, (eg, Global System for Mobile Communications (GSM)) network, etc. ) It can communicate with a cellular network, or other suitable wireless network, or a combination of two or more of these. If desired, computer system 400 can include any suitable communication interface 410 for any of these networks. The communication interface 410 can include one or more communication interfaces 410 as needed. Although this disclosure has described and illustrated specific communication interfaces, any suitable communication interface is contemplated.

いくつかの実施形態では、バス412が、コンピュータシステム400の構成要素を互いに結合するハードウェア、ソフトウェア、又はこれらの両方を含む。限定ではなく一例として、バス412は、アクセラレィティッドグラフィックスポート(AGP)又はその他のグラフィックスバス、拡張インダストリスタンダードアーキテクチャ(EISA)バス、フロントサイドバス(FSB)、HYPERTRANSPORT(HT)相互接続、インダストリスタンダードアーキテクチャ(ISA)バス、INFINIBAND相互接続、ローピンカウント(LPC)バス、メモリバス、マイクロチャネルアーキテクチャ(MCA)バス、周辺装置相互接続(PCI)バス、PCIエクスプレス(PCI)バス、シリアルアドバンストテクノロジアタッチメント(SATA)バス、ビデオエレクトロニクススタンダーズアソシエーションローカルバス(VLB)、又は別の好適なバス、或いはこれらのうちの2つ又は3つ以上の組み合わせを含むことができる。バス412は、必要に応じて1又は2以上のバス412を含むことができる。本開示では、特定のバスについての説明及び図示を行ったが、あらゆる好適なバス又は相互接続が検討される。   In some embodiments, the bus 412 includes hardware, software, or both that couple the components of the computer system 400 together. By way of example and not limitation, bus 412 may be an accelerated graphics port (AGP) or other graphics bus, an extended industry standard architecture (EISA) bus, a front side bus (FSB), a HYPERTRANSPORT (HT) interconnect, Restandard architecture (ISA) bus, INFINIBAND interconnect, low pin count (LPC) bus, memory bus, microchannel architecture (MCA) bus, peripheral component interconnect (PCI) bus, PCI express (PCI) bus, serial advanced technology attachment (SATA) bus, Video Electronics Standards Association Local Bus (VLB), or another suitable bus, or any of these Chino can include two or more combinations. Bus 412 may include one or more buses 412 as desired. Although this disclosure describes and illustrates a particular bus, any suitable bus or interconnect is contemplated.

コンピュータシステム400の構成要素は、一体型又は分離型とすることができる。いくつかの実施形態では、コンピュータシステム400の構成要素を、それぞれ単一のシャーシに収容することができる。コンピュータシステム400の動作は、これよりも多い構成要素、少ない構成要素、又は他の構成要素によって実行することができる。また、コンピュータシステム400の動作は、ソフトウェア、ハードウェア、その他のロジック、又はこれらのあらゆる好適な組み合わせを含むことができるあらゆる好適なロジックを用いて実行することができる。   The components of the computer system 400 can be integrated or separated. In some embodiments, the components of computer system 400 may each be housed in a single chassis. The operation of computer system 400 may be performed by more components, fewer components, or other components. Also, the operations of computer system 400 may be performed using any suitable logic that may include software, hardware, other logic, or any suitable combination thereof.

本明細書における1又は複数の非一時的コンピュータ可読記憶媒体は、必要に応じて、(例えば、フィールドプログラマブルゲートアレイ(FPGA)、又は特定用途向け集積回路(ASIC)などの)1又は2以上の半導体ベースの又はその他の集積回路(IC)、ハードディスクドライブ(HDD)、ハイブリッドハードドライブ(HHD)、光ディスク、光ディスクドライブ(ODD)、光磁気ディスク、光磁気ドライブ、フロッピディスケット、フロッピーディスクドライブ(FDD)、磁気テープ、ソリッドステートドライブ(SSD)、RAMドライブ、セキュアデジタルカード又はドライブ、他のあらゆる好適なコンピュータ可読非一時的記憶媒体、或いはこれらのうちの2つ又は3つ以上のあらゆる好適な組み合わせを含むことができる。必要に応じて、非一時的コンピュータ可読記憶媒体は、揮発性、不揮発性、又は揮発性と不揮発性との組み合わせとすることができる。   One or more non-transitory computer readable storage media herein may include one or more, if desired, such as a field programmable gate array (FPGA) or application specific integrated circuit (ASIC). Semiconductor-based or other integrated circuit (IC), hard disk drive (HDD), hybrid hard drive (HHD), optical disk, optical disk drive (ODD), magneto-optical disk, magneto-optical drive, floppy diskette, floppy disk drive (FDD) , Magnetic tape, solid state drive (SSD), RAM drive, secure digital card or drive, any other suitable computer readable non-transitory storage medium, or any suitable combination of two or more of these Include Door can be. If desired, the non-transitory computer readable storage medium can be volatile, non-volatile, or a combination of volatile and non-volatile.

本明細書における「又は(or)」は、別途明確に示していない限り、又は文脈的に別途示していない限り包括的であって排他的ではない。従って、本明細書における「A又はB」は、別途明確に示していない限り、又は文脈的に別途示していない限り、A、B、又はこれらの両方を意味する。さらに、「及び(and)」は、別途明確に示していない限り、又は文脈的に別途示していない限り、連帯的かつ個別的である。従って、本明細書における「A及びB」は、別途明確に示していない限り、又は文脈的に別途示していない限り、「連帯的かつ個別的にA及びB」を意味する。   As used herein, “or” is inclusive and not exclusive unless explicitly stated otherwise or contextually. Accordingly, “A or B” in this specification means A, B, or both, unless expressly indicated otherwise or contextually. Further, “and” is solid and individual unless specifically indicated otherwise or contextually. Accordingly, “A and B” in this specification means “jointly and individually A and B” unless explicitly indicated otherwise or contextually.

本開示の範囲は、本明細書において説明又は図示した実施形態例に対する、当業者が理解する全ての変更、置換、変形、改変及び修正を含む。本開示は、本明細書において説明又は図示した実施形態例に限定されるものではない。さらに、本開示では、本明細書におけるそれぞれの実施形態を、特定の構成部品、要素、機能、動作又はステップを含むものとして説明し図示したが、これらの実施形態は、いずれも本明細書のあらゆる箇所で説明又は図示した構成部品、要素、機能、動作又はステップの、当業者が理解するあらゆる組み合わせ又は置換を含むことができる。さらに、添付の特許請求の範囲における、特定の機能を実行するように適合された(adapted to)、するように構成された(arranged to)、することができる(capable of)、するように構成された(configured to)、することができる(enabled to)、又はするように動作する(operative to)装置、システム、或いは装置又はシステムの構成部品という言及は、これらの装置、システム又は構成部品がそのように適合され、構成され、行うことができ、構成され、行うことができ、又は動作できる限り、これらの装置、システム又は構成部品、或いはその特定の機能が作動するか否か、オンになっているか否か、又はロック解除されているか否かに関わらず、これらの装置、システム又は構成部品を含む。   The scope of the present disclosure includes all changes, substitutions, variations, alterations and modifications that would be understood by one skilled in the art to the example embodiments described or illustrated herein. The present disclosure is not limited to the example embodiments described or illustrated herein. Further, although each embodiment herein has been described and illustrated as including specific components, elements, functions, operations or steps, each of these embodiments is described herein. Any combination or substitution of components, elements, functions, operations or steps described or illustrated everywhere understood by those skilled in the art may be included. Further, in the appended claims, adapted to perform specific functions, arranged to, and capable of being configured. Reference to a device, system, or apparatus or component of a device that is configured to, enabled to, or operates to do As long as it can be adapted, configured, performed, configured, performed, or operated, turn on whether these devices, systems or components, or certain functions thereof, operate. Whether or not they are unlocked or not Device includes a system or component.

Claims (20)

装置と1又は2以上のプロセッサとを備えたシステムであって、
前記装置は、
エッチングパターンを有するレンズと、
前記レンズに光を透過することにより、前記レンズの前記エッチングパターンに従う、光のパターンを表面上に投影するように構成され、投影される前記光のパターンがドットパターンを含む、発光ダイオード(LED)プロジェクタと、
投影される前記光のパターンの各ドットに関連する第1の画素データを含む第1のデータを取得するように構成された第1のカメラと、
投影される前記光のパターンの各ドットに関連する第2の画素データを含む第2のデータを取得するように構成された第2のカメラと、を含み、
前記1又は2以上のプロセッサは、
前記第1の画素データ及び前記第2の画素データを用いて、投影される前記光のパターンの各ドットの位置を特定し、
前記ドットの相対的な位置に基づいて前記表面のプロファイルを測定する、
ように構成されている、システム。
A system comprising a device and one or more processors,
The device is
A lens having an etching pattern;
A light emitting diode (LED) configured to project a light pattern onto a surface according to the etching pattern of the lens by transmitting light to the lens, the projected light pattern including a dot pattern A projector,
A first camera configured to obtain first data including first pixel data associated with each dot of the projected light pattern;
A second camera configured to obtain second data including second pixel data associated with each dot of the projected light pattern;
The one or more processors are
Using the first pixel data and the second pixel data, the position of each dot of the projected light pattern is specified,
Measuring the profile of the surface based on the relative position of the dots;
Configured as a system.
前記装置は、動き非依存性の手持ち式高解像度スキャナである、請求項1に記載のシステム。   The system of claim 1, wherein the device is a motion independent handheld high resolution scanner. 前記第1のカメラ及び前記第2のカメラは、同じ視野にマッピングされ、
投影される前記パターンは、4インチ×4インチ(10.16cm×10.16cm)の最大視野内に100,000ドット以下のドットパターンを含み、
測定される前記表面のプロファイルは、0.001インチ(0.00254cm)以下の精度を有する、請求項1に記載のシステム。
The first camera and the second camera are mapped to the same field of view;
The projected pattern includes a dot pattern of 100,000 dots or less within a maximum field of view of 4 inches x 4 inches (10.16 cm x 10.16 cm);
The system of claim 1, wherein the measured surface profile has an accuracy of 0.001 inch or less.
前記1又は2以上のプロセッサは、
前記第1の画素データに基づいて、投影される前記光のパターンの各ドットの重心を求め、
前記第2の画素データに基づいて、投影される前記光のパターンの各ドットの重心を求め、
前記第1のカメラと前記第2のカメラとの間の既知の一定関係に基づいて、各ドットに関連する求められた重心を三角測量することにより、投影される前記光のパターンの各ドットの位置を特定する、
ようにさらに構成されている、請求項1に記載のシステム。
The one or more processors are
Based on the first pixel data, find the center of gravity of each dot of the projected light pattern,
Based on the second pixel data, find the center of gravity of each dot of the projected light pattern,
Based on a known constant relationship between the first camera and the second camera, triangulation of the determined center of gravity associated with each dot allows each dot of the projected light pattern to be Locate,
The system of claim 1, further configured as follows.
前記LEDプロジェクタは、前記光のパターンを前記表面上に連続投影するようにさらに構成され、
前記第1のカメラは、連続投影される光のパターンに関連する第1のデータを取得するようにパルス化され、前記第2のカメラは、連続投影される光のパターンに関連する第2のデータを取得するようにパルス化される、請求項1に記載のシステム。
The LED projector is further configured to continuously project the light pattern onto the surface;
The first camera is pulsed to obtain first data associated with a continuously projected light pattern, and the second camera is second associated with a continuously projected light pattern. The system of claim 1, wherein the system is pulsed to acquire data.
前記第1のカメラは、投影される前記光のパターンに関連する第1のデータを取得するようにパルス化され、
前記第2のカメラは、投影される前記光のパターンに関連する第2のデータを取得するようにパルス化され、
前記LEDプロジェクタは、前記第1のカメラのパルス及び前記第2のカメラのパルスと同期して光をパルス化することによって、前記表面上に前記光のパターンを投影するように構成される、請求項1に記載のシステム。
The first camera is pulsed to obtain first data associated with the projected light pattern;
The second camera is pulsed to obtain second data associated with the projected light pattern;
The LED projector is configured to project the light pattern onto the surface by pulsing light in synchronization with the pulses of the first camera and the second camera. Item 4. The system according to Item 1.
前記1又は2以上のプロセッサは、所望の視野を自動検出するようにさらに構成され、
前記第1のカメラは、前記所望の視野の自動検出に応答して前記第1のデータを取得するようにさらに構成される、請求項1に記載のシステム。
The one or more processors are further configured to automatically detect a desired field of view;
The system of claim 1, wherein the first camera is further configured to acquire the first data in response to automatic detection of the desired field of view.
前記1又は2以上のプロセッサは、前記ドットの相対的な位置に基づいて前記表面の多角形モデルを形成するようにさらに構成される、請求項1に記載のシステム。   The system of claim 1, wherein the one or more processors are further configured to form a polygonal model of the surface based on the relative positions of the dots. エッチングパターンを有するレンズと、
前記レンズに光を透過することによって前記レンズの前記エッチングパターンに従う光のパターンを表面上に投影するように構成された発光ダイオード(LED)プロジェクタと、
投影される前記光のパターンに関連する第1のデータを取得するように構成された第1のカメラと、
投影される前記光のパターンに関連する第2のデータを取得するように構成された第2のカメラと、を備え、前記第1のカメラによって取得された第1のデータと、前記第2のカメラによって取得された第2のデータとを用いて前記表面のプロファイルを測定する、装置。
A lens having an etching pattern;
A light emitting diode (LED) projector configured to project a pattern of light on the surface according to the etching pattern of the lens by transmitting light to the lens;
A first camera configured to obtain first data associated with the projected light pattern;
A second camera configured to acquire second data related to the projected light pattern, the first data acquired by the first camera, and the second data An apparatus for measuring a profile of the surface using second data acquired by a camera.
前記装置は、動き非依存性の手持ち式高解像度スキャナである、請求項9に記載の装置。   The apparatus of claim 9, wherein the apparatus is a motion independent handheld high resolution scanner. 前記第1のカメラ及び前記第2のカメラは、同じ視野にマッピングされ、
投影される前記光のパターンは、4インチ×4インチ(10.16cm×10.16cm)の最大視野内に100,000ドット以下のドットパターンを含み、
前記第1のデータは、投影される前記光のパターンの各ドットに関連する第1の画素データを含み、
前記第2のデータは、投影される前記光のパターンの各ドットに関連する第2の画素データを含む、請求項9に記載の装置。
The first camera and the second camera are mapped to the same field of view;
The projected light pattern includes a dot pattern of 100,000 dots or less within a maximum field of view of 4 inches × 4 inches (10.16 cm × 10.16 cm);
The first data includes first pixel data associated with each dot of the projected light pattern;
The apparatus of claim 9, wherein the second data includes second pixel data associated with each dot of the projected light pattern.
測定される前記表面のプロファイルは、0.001インチ(0.00254cm)以下の精度を有する、請求項9に記載の装置。   The apparatus of claim 9, wherein the measured surface profile has an accuracy of 0.001 inch or less. 前記LEDプロジェクタは、前記光のパターンを前記表面上に連続投影するようにさらに構成され、
前記第1のカメラは、連続投影される光のパターンに関連する第1のデータを取得するようにパルス化され、前記第2のカメラは、連続投影される光のパターンに関連する第2のデータを取得するようにパルス化される、請求項9に記載の装置。
The LED projector is further configured to continuously project the light pattern onto the surface;
The first camera is pulsed to obtain first data associated with a continuously projected light pattern, and the second camera is second associated with a continuously projected light pattern. The apparatus of claim 9, wherein the apparatus is pulsed to acquire data.
前記第1のカメラは、投影される前記光のパターンに関連する第1のデータを取得するようにパルス化され、
前記第2のカメラは、投影される前記光のパターンに関連する第2のデータを取得するようにパルス化され、
前記LEDプロジェクタは、前記第1のカメラのパルス及び前記第2のカメラのパルスと同期して光をパルス化することによって、前記表面上に前記光のパターンを投影するように構成される、請求項9に記載の装置。
The first camera is pulsed to obtain first data associated with the projected light pattern;
The second camera is pulsed to obtain second data associated with the projected light pattern;
The LED projector is configured to project the light pattern onto the surface by pulsing light in synchronization with the pulses of the first camera and the second camera. Item 10. The apparatus according to Item 9.
前記1又は2以上のプロセッサは、所望の視野を自動検出するようにさらに構成され、
前記第1のカメラは、前記所望の視野の自動検出に応答して前記第1のデータを取得するようにさらに構成される、請求項9に記載の装置。
The one or more processors are further configured to automatically detect a desired field of view;
The apparatus of claim 9, wherein the first camera is further configured to acquire the first data in response to automatic detection of the desired field of view.
発光ダイオード(LED)プロジェクタにより、レンズに光を透過することによって前記レンズのエッチングパターンに従う光のパターンを表面上に投影するステップと、
第1のカメラにより、投影される前記光のパターンに関連する第1のデータを取得するステップと、
第2のカメラにより、投影される前記光のパターンに関連する第2のデータを取得するステップと、
1又は2以上のプロセッサにより、前記第1のカメラによって取得された第1のデータと、前記第2のカメラによって取得された第2のデータとを用いて前記表面のプロファイルを測定するステップと、を含む、方法。
Projecting a light pattern on the surface according to an etching pattern of the lens by transmitting light through the lens with a light emitting diode (LED) projector;
Obtaining, by a first camera, first data relating to the projected light pattern;
Obtaining, by a second camera, second data relating to the projected light pattern;
Measuring the surface profile with one or more processors using first data acquired by the first camera and second data acquired by the second camera; Including a method.
前記第1のカメラ及び前記第2のカメラは、同じ視野にマッピングされ、
投影される前記光のパターンは、4インチ×4インチ(10.16cm×10.16cm)の最大視野内に100,000ドット以下のドットパターンを含み、
前記第1のデータは、投影される前記光のパターンの各ドットに関連する第1の画素データを含み、
前記第2のデータは、投影される前記光のパターンの各ドットに関連する第2の画素データを含む、請求項16に記載の方法。
The first camera and the second camera are mapped to the same field of view;
The projected light pattern includes a dot pattern of 100,000 dots or less within a maximum field of view of 4 inches × 4 inches (10.16 cm × 10.16 cm);
The first data includes first pixel data associated with each dot of the projected light pattern;
The method of claim 16, wherein the second data includes second pixel data associated with each dot of the projected light pattern.
前記1又は2以上のプロセッサにより、前記第1の画素データ及び前記第2の画素データを用いて前記ドットパターンの各ドットの位置を特定するステップと、
前記1又は2以上のプロセッサにより、前記ドットの相対的な位置に基づいて前記表面のプロファイルを測定するステップと、をさらに含む、請求項17に記載の方法。
Identifying the position of each dot of the dot pattern using the first pixel data and the second pixel data by the one or more processors;
18. The method of claim 17, further comprising measuring the surface profile by the one or more processors based on the relative position of the dots.
前記測定される表面のプロファイルは、0.001インチ(0.00254cm)以下の精度を有する、請求項16に記載の方法。   The method of claim 16, wherein the measured surface profile has an accuracy of 0.001 inches or less. 前記第1のカメラが、連続投影される光のパターンに関連する第1のデータを取得するようにパルス化され、前記第2のカメラが、連続投影される光のパターンに関連する第2のデータを取得するようにパルス化されている間に、前記光のパターンを前記表面上に連続投影するステップをさらに含む、請求項16に記載の方法。   The first camera is pulsed to obtain first data associated with a continuously projected light pattern, and the second camera is second associated with a continuously projected light pattern. The method of claim 16, further comprising continuously projecting the pattern of light onto the surface while being pulsed to acquire data.
JP2017081124A 2016-04-15 2017-04-17 Precise hand-held scanner Pending JP2017207477A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/130,088 2016-04-15
US15/130,088 US20170299379A1 (en) 2016-04-15 2016-04-15 Precision Hand-Held Scanner

Publications (1)

Publication Number Publication Date
JP2017207477A true JP2017207477A (en) 2017-11-24

Family

ID=58709730

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017081124A Pending JP2017207477A (en) 2016-04-15 2017-04-17 Precise hand-held scanner

Country Status (3)

Country Link
US (1) US20170299379A1 (en)
EP (1) EP3232153B1 (en)
JP (1) JP2017207477A (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7124424B2 (en) * 2018-05-02 2022-08-24 オムロン株式会社 3D shape measurement system and measurement time setting method
US20200292297A1 (en) * 2019-03-15 2020-09-17 Faro Technologies, Inc. Three-dimensional measurement device
US20220412725A1 (en) * 2019-11-19 2022-12-29 Like A Glove Ltd. Photogrammetric measurement of body dimensions using patterned garments
CN112414301B (en) * 2020-10-22 2021-09-03 光华临港工程应用技术研发(上海)有限公司 Equipment for three-dimensional measurement of line structured light
CN113011206A (en) * 2021-02-25 2021-06-22 先临三维科技股份有限公司 Handheld scanner and scanning method thereof

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IT1313617B1 (en) * 1999-08-31 2002-09-09 Bracco Spa PROCESS FOR THE PREPARATION OF BILIARY ACID DERIVATIVES.
FR2950138B1 (en) * 2009-09-15 2011-11-18 Noomeo QUICK-RELEASE THREE-DIMENSIONAL SCANNING METHOD
US9506749B2 (en) * 2010-11-15 2016-11-29 Seikowave, Inc. Structured light 3-D measurement module and system for illuminating an area-under-test using a fixed-pattern optic
GB201107225D0 (en) * 2011-04-29 2011-06-15 Peira Bvba Stereo-vision system
US9444981B2 (en) * 2011-07-26 2016-09-13 Seikowave, Inc. Portable structured light measurement module/apparatus with pattern shifting device incorporating a fixed-pattern optic for illuminating a subject-under-test
DE202012102541U1 (en) * 2012-07-10 2013-10-18 Sick Ag 3D camera
WO2014149702A1 (en) * 2013-03-15 2014-09-25 Faro Technologies, Inc. Three-dimensional coordinate scanner and method of operation
US20150381972A1 (en) * 2014-06-30 2015-12-31 Microsoft Corporation Depth estimation using multi-view stereo and a calibrated projector
US9693040B2 (en) * 2014-09-10 2017-06-27 Faro Technologies, Inc. Method for optically measuring three-dimensional coordinates and calibration of a three-dimensional measuring device

Also Published As

Publication number Publication date
EP3232153A1 (en) 2017-10-18
EP3232153B1 (en) 2019-08-28
US20170299379A1 (en) 2017-10-19

Similar Documents

Publication Publication Date Title
US10907955B2 (en) Three-dimensional imager
JP2017207477A (en) Precise hand-held scanner
US10455216B2 (en) Three-dimensional imager
JP6291418B2 (en) Optical measurement arrangements and related methods
EP3371779B1 (en) Systems and methods for forming models of three dimensional objects
US20180240241A1 (en) Three-dimensional imager
US20200296249A1 (en) Registration of individual 3d frames
CN113884278B (en) System calibration method and device for line laser equipment
CN110910506A (en) Three-dimensional reconstruction method and device based on normal detection, detection device and system
GB2544263A (en) Systems and methods for imaging three-dimensional objects
JP2015197744A5 (en)
CN114051626A (en) Joint ambient reconstruction and camera calibration
Li et al. Monocular underwater measurement of structured light by scanning with vibrating mirrors
JP6486083B2 (en) Information processing apparatus, information processing method, and program
CN103559710B (en) A kind of scaling method for three-dimensional reconstruction system
MacDonald et al. Determining the coordinates of lamps in an illumination dome
JP5441752B2 (en) Method and apparatus for estimating a 3D pose of a 3D object in an environment
TWI480507B (en) Method and system for three-dimensional model reconstruction
Langmann Wide area 2D/3D imaging: development, analysis and applications
US20160349045A1 (en) A method of measurement of linear dimensions of three-dimensional objects
CN114241059B (en) Synchronous calibration method for camera and light source in photometric stereo vision system
JP2013096784A (en) Surface characteristic measuring device and computer program
RU125335U1 (en) DEVICE FOR MONITORING LINEAR SIZES OF THREE-DIMENSIONAL OBJECTS
RU153982U1 (en) DEVICE FOR MONITORING LINEAR SIZES OF THREE-DIMENSIONAL OBJECTS
Ma et al. Effect of light intensity on close-range photographic imaging quality and measurement precision