JP2016509199A - 3次元表面測定のための装置および方法 - Google Patents

3次元表面測定のための装置および方法 Download PDF

Info

Publication number
JP2016509199A
JP2016509199A JP2015548040A JP2015548040A JP2016509199A JP 2016509199 A JP2016509199 A JP 2016509199A JP 2015548040 A JP2015548040 A JP 2015548040A JP 2015548040 A JP2015548040 A JP 2015548040A JP 2016509199 A JP2016509199 A JP 2016509199A
Authority
JP
Japan
Prior art keywords
camera
laser
image
calibration
location
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015548040A
Other languages
English (en)
Other versions
JP6317760B2 (ja
Inventor
デュモン,アルノー
ジャロン,フレッド
レイモンド,パトリック
ケストナー,ジェイソン
パリミ,マダブ
Original Assignee
ビーピー・コーポレーション・ノース・アメリカ・インコーポレーテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ビーピー・コーポレーション・ノース・アメリカ・インコーポレーテッド filed Critical ビーピー・コーポレーション・ノース・アメリカ・インコーポレーテッド
Publication of JP2016509199A publication Critical patent/JP2016509199A/ja
Application granted granted Critical
Publication of JP6317760B2 publication Critical patent/JP6317760B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/246Calibration of cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/06Interpretation of pictures by comparison of two or more pictures of the same area
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/30Interpretation of pictures by triangulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/586Depth or shape recovery from multiple images from multiple light sources, e.g. photometric stereo
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Optics & Photonics (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

表面の3次元測定のためのシステムおよび方法。1つの実施形態では測定システムは、レーザプロジェクタと、第1のカメラと、プロセッサとを含む。レーザプロジェクタは、レーザ三角測量のために表面上にレーザ投射を放射するように構成される。第1のカメラは、表面の画像を提供するように構成され、レーザプロジェクタに対して斜めの角度で配設される。プロセッサは、写真測量処理を画像に適用し、レーザ三角測量に対する較正を写真測量処理の結果に基づいて計算し、較正に基づいて、レーザ投射により照射される表面の点の座標を、レーザ三角測量によって計算するように構成される。

Description

関連出願の相互参照
[0001]本出願は、その全体が参照により本明細書に組み込まれている、「Apparatus and Method for Measuring Subsea Structures(海中構造物を測定するための装置および方法)」という名称の、2012年12月14日に出願された米国仮特許出願第61/737,499号に対する優先権を主張するものである。
[0002]様々な光学的方法が、物体の測定および/またはモデリングに適用され得る。写真測量は、物体の写真から測定値を抽出する技法である。例えば写真測量は、写真から地図を生み出すために(例えば、航空写真測量)、および/または、産業施設のモデルを生み出すために(近距離写真測量)使用され得る。写真測量では、シーンの画像が、異なる角度から取り込まれ、物体の2次元測定値が、バンドル調整数値演算ルーチンによって3次元座標に変換される。写真測量は、画像を相関させるために標的の使用を必要とし、点および自然の特徴部(すなわち、角、縁、円柱)などの視覚的標識の測定に制限される。近距離写真測量は、良好な交差幾何形状および高い冗長性を生み出す異なる角度からの複数の画像が提供されるとき、良好な結果を提供し得る。立体写真測量は、表面上の点の測定を可能とするが、立体センサは、擬似平行である2つの見通し線のみを有するので、精度に関して限界を有する。
[0003]レーザ三角測量は、小さな表面の高密度測定のために使用され得る光学的技法である。レーザ三角測量では、例えば線、ドット、またはパターンを投射するレーザ源が、事前に決定された較正された幾何形状によって、光学センサ(例えば、カメラ)とともに取り付けられる。レーザ投射が、光学センサにより三角測量される。複数の測定を提供するために、回転鏡がレーザの前方に取り付けられ得るものであり、そのことによって光学センサが、高密度の点を伴う大きな表面を「スキャン」することが可能となる。
[0004]表面および物体の、3次元測定およびモデリングのための、システムおよび方法が本明細書で開示される。1つの実施形態では測定システムは、レーザプロジェクタと、第1のカメラと、プロセッサとを含む。レーザプロジェクタは、レーザ三角測量のために表面上にレーザ投射を放射するように構成される。第1のカメラは、表面の画像を提供するように構成され、レーザプロジェクタに対して斜めの角度で配設される。プロセッサは、写真測量処理を画像に適用し、レーザ三角測量に対する較正を写真測量処理の結果に基づいて計算し、較正に基づいて、レーザ投射により照射される表面の点の座標を、レーザ三角測量によって計算するように構成される。
[0005]別の実施形態では、レーザ三角測量のための方法は、表面の画像を、第1のカメラによって、第1のカメラが表面に沿って移動する際に取り込むステップを含む。表面は、第1のカメラと連関して表面に沿って移動するレーザ源により生み出されるレーザ投射により照射される。写真測量処理が画像に適用される。レーザ三角測量に対する較正が、写真測量処理の結果に基づいて計算される。レーザ三角測量によって、レーザ投射により照射される表面の点の座標が、較正に基づいて計算される。
[0006]さらなる実施形態では、非一時的なコンピュータ可読媒体が、実行されたときプロセッサに、第1のカメラから受信される画像ストリームから表面の画像を抽出させる命令によって符号化される。命令はさらに、プロセッサに、写真測量処理を画像に適用させ、レーザ三角測量に対する較正を写真測量処理の結果に基づいて計算させる。命令はさらにまた、プロセッサに、レーザ三角測量によって、較正に基づいて、画像内に取り込まれるレーザ投射により照射される表面の点の座標を計算させる。
[0007]例示的な実施形態の詳細な説明のために、言及が次に、付随する図面に対して行われる。
本明細書で開示される原理による、表面測定を提供する装置の概略表現図である。 本明細書で開示される原理による、写真測量システム軸の図解の表現図である。 本明細書で開示される原理による、レーザ面位置取りの図解の表現図である。 本明細書で開示される原理による、レーザ軸定義の図解の表現図である。 本明細書で開示される原理による、第2のカメラに対する第1のカメラの位置取りの図解の表現図である。 本明細書で開示される原理による、水中の使用のために適合される測定装置の図である。 本明細書で開示される原理による、水中の使用のために適合される測定装置の図である。 本明細書で開示される原理による、測定装置での使用のために適合されるカメラおよびレーザの図である。 本明細書で開示される原理による、測定装置での使用のために適合されるカメラおよびレーザの図である。 本明細書で開示される原理による、測定装置での使用のために適合されるカメラおよびレーザの図である。 本明細書で開示される原理による、測定装置での使用のために適合されるカメラおよびレーザの図である。 本明細書で開示される原理による、測定装置での使用のために適合されるカメラおよび発光ダイオード(LED)の図である。 本明細書で開示される原理による、測定装置での使用のために適合されるカメラおよび発光ダイオード(LED)の図である。 本明細書で開示される原理による、測定装置での使用のために前方ポート内に配設されるカメラおよびレーザの図である。 本明細書で開示される原理による、測定装置での使用のために前方ポート内に配設されるカメラおよびレーザの図である。 本明細書で開示される原理による、測定装置での使用のために前方ポート内に配設されるカメラおよびLEDの図である。 本明細書で開示される原理による、測定装置での使用のためにカメラおよびレーザ(またはLED)を取り付けるのに適したブラケットの図である。 本明細書で開示される原理による、測定装置での使用のためにカメラおよびレーザ(またはLED)を取り付けるのに適したブラケットの図である。 本明細書で開示される原理による、レーザ三角測量のための方法に対するフロー図である。
表記法および用語
[0020]以下の考察において、および特許請求の範囲において、術語「含む」および「備える」は、オープンエンドの様式で使用されるものであり、したがって、「…を含む、ただしそれらに限定されない」を意味すると解釈されるべきである。術語「接続する」、「係合する」、「結合する」、「付着する」、または、要素間の相互作用を説明する任意の他の術語のいかなる形式のいかなる使用も、相互作用を、要素間の直接の相互作用に限定するようには定められておらず、説明される要素間の間接の相互作用をさらに含み得る。術語「ソフトウェア」は、ソフトウェアを記憶するために使用される媒体に関係なく、プロセッサ上で動作することが可能な任意の実行可能なコードを含む。したがって、メモリ(例えば、不揮発性メモリ)に記憶され、時には「埋め込み型ファームウェア」と呼称されるコードは、ソフトウェアの定義の範囲内に含まれる。記載「に基づく」は、「に少なくとも部分的に基づく」を意味することが意図される。したがってXがYに基づく場合、Xは、Yおよび任意の数の追加的な因子に基づき得るものである。
[0021]以下の図面および説明では、類似する部分は典型的には、明細書および図面の全体を通して同じ参照番号を付けられる。図面の図は、必ずしも原寸に比例していない。本発明のある種の特徴が、縮尺において、またはいくらか概略的な形式で、誇張されて示される場合があり、従来の要素の一部の詳細は、明確性および簡潔性のために示されない場合がある。本開示は、異なる形式の実施形態の影響を受けやすいものである。特定の実施形態が、詳細に説明され図面に示されるが、そのことは本開示が、本開示の原理の例示とみなされるべきであり、本明細書で図解および説明されるものに本開示を限定することは意図されないという暗黙の了解によるものである。下記で考察される実施形態の異なる教示および構成要素が、所望される結果を生み出すために、別個に、または任意の適した組み合わせで用いられ得ることは十分に理解されよう。
[0022]写真測量およびレーザ三角測量などの光学的技法が、物体を測定するために適用され得るが、そのような技法は、特に海中などの過酷な環境で、それらの使用を問題があるものにする難点を提示する。例えば写真測量は、画像を相関させるためにシーンへの標的の追加を必要とし、点および自然の特徴部(すなわち、角、縁、円柱)などの視覚的標識の測定に制限される。さらに写真測量は、測定の前に、水中の較正のための手順が、写真測量測定が行われることになる条件に可能な限り近い条件の下で実施されることを必要とする場合がある。従来のレーザ三角測量もまた、海中および他の過酷な環境で使用される場合があるが、高度のセンサ安定性、および、レーザ三角測量が実施されることになる条件に可能な限り近い条件の下での測定の前のセンサの較正を必要とする。これらの制限によって、従来の写真測量およびレーザ三角測量の技法の使用が、海中および他の過酷な環境で履行することについて困難になる。
[0023]本開示の実施形態は、海中および他の危険な環境で、物体の3次元測定およびモデリングを提供するための、方法および装置を含む。本明細書で開示される測定装置は、例えば人間のオペレータ、無人航空機(UAV:unmanned aerial vehicle)、水中遠隔作業機(ROV:remotely operated vehicle)等により、運搬され得る、および/または動作させられ得る。実施形態は、事前較正なしで、様々な環境(例えば、海中および他の危険な環境)で、(点、線、縁、円柱等のような)実在物、および、表面上の高密度の点の両方の測定を可能にする。実施形態は、写真測量およびレーザ三角測量を組み合わせて新規の自己較正技法を提供することにより、事前較正なしでの動作を可能にする。
[0024]図1は、本明細書で開示される原理による、表面測定を提供する装置100の概略表現図を示す。測定装置100は、カメラ102とレーザプロジェクタ106とを含む。光源104が、カメラ102と連関した動作のために装置100に含まれ得る。加えて一部の実施形態は、レーザプロジェクタ106に近接する第2のカメラ108を含む。カメラ108の光軸は、レーザプロジェクタ106により生成されるレーザ投射に対して(例えば、平行の2°の範囲内で)実質的に平行であり得る。各々のカメラ102、108は、高精細度ビデオ(例えば、1,280×720画素、1,920×1,080画素、またはより高い)を取り込み可能であり得る。カメラ102および108の各々は、電荷結合素子(CCD)センサ、相補型金属酸化膜半導体(CMOS)センサ、または他の適した画像センサなどの画像センサを含む。レーザプロジェクタ106は、レーザダイオードまたは他のレーザ源、および、空間内の面を定義するレーザ画像を生み出す回転鏡または他の装置を含み得る。
[0025]カメラ102は、レーザプロジェクタ106からの事前に決定された距離および角度で配設される。カメラ102とレーザプロジェクタ106との間の距離(d)は、カメラ102の画像センサと、測定されることになる物体との間の距離(D)によって決まる。例えばdは、Dの3分の1から2分の1であり得る。同様にカメラ102は、レーザプロジェクタ106に対して、事前に決定された角度で配設される。例えばカメラ102は、おおよそ30°の角度で、レーザプロジェクタ106により投射されるレーザ面を観視するように配設され得る(すなわち、レーザ面とカメラ102の光軸との間の角度は、良好な交差幾何形状を生成するようにおおよそ30°(例えば、30°±3°)である)。したがって、レーザプロジェクタ106が取り付け構造体110と実質的に直角をなして配設されるならば、カメラ102は、取り付け構造体110に対しておおよそ60°の角度で配設され得る。装置100は、水中、原子力、熱真空、または他の過酷な環境での使用のために、キャニスタまたは他のハウジング内に配設され得る。
[0026]装置100は、カメラ102、108、およびレーザプロジェクタ106に結合される処理システム112もまた含む。処理システム112は、レーザプロジェクタ106によるレーザ投射の生成を制御し、カメラ102、108による画像の取り込みを制御することが可能である。処理システム112は、プロセッサ114および記憶装置116を含む。記憶装置116は、カメラ102、108により取り込まれる画像を記憶する、および/または、取り込まれる画像を処理するための命令を記憶する、半導体メモリまたは他の記憶デバイス(例えば、光学、磁気等)であり得る。例えば、写真測量処理、レーザ三角測量較正を写真測量処理の結果に基づいて計算すること、および、本明細書で開示されるような較正されたレーザ三角測量を実施することのための命令が、プロセッサ114による実行のために記憶装置116に記憶され得る。
[0027]プロセッサ114は、汎用マイクロプロセッサ、デジタル信号プロセッサ、または他の適した命令実行デバイスであり得る。処理システム112は、カメラ102およびレーザプロジェクタ106に近接して(例えば、共通のハウジング内に)配設され得るものであり、または、カメラ102およびレーザプロジェクタ106から遠く離れて配設され得る。例えば処理システム112は、ケーブル接続または他の通信媒体を介して(例えば、無線周波数通信を介して)カメラ102、108と遠く離れて結合され得る。一部の実施形態では、カメラ102、108、または、カメラ102、108に関連付けられるメモリは、処理システム112による後での処理のために、取り込まれる画像を記憶することが可能である。処理システム112により実施される処理は、レーザ三角測量を可能にするための光学センサの現場較正を含む。一部の実施形態では処理システム112は、デスクトップコンピュータ、ノートブックコンピュータ、ラックマウントコンピュータ、サーバコンピュータ、埋め込み型コンピュータ等のようなコンピュータであり得る。
[0028]現場較正によってレーザ三角測量を実施するために、(処理システム112によって)装置100は、最初に写真測量技法(すなわち、カメラ102、108により取り込まれるビデオからの画像の3D処理)を適用し、その写真測量技法は、点の(および他の実在物に対する)3D座標、ならびに、3D点のセットに対する空間内のカメラ102の3D場所および向きを提供する。写真測量計算の一部として処理システム112は、カメラ102の光学機械パラメータ、ならびに、カメラ102に対するレーザプロジェクタ106の精密な場所および向きを計算する較正ルーチンを実行する。カメラの光学機械パラメータは、c(主距離)、xp、yp(基準中心)、K1、K2、K3(放射状歪み)、P1、P2(偏心歪み)、および、AP1、AP2(画素の直交性)などの他のパラメータを含む。カメラ102に対するレーザプロジェクタ106の場所および向きを決定し終えると、処理システム112は、あらゆる画像に関して、任意の必要とされる分解能で測定されることになる表面上に投射されるレーザ線上の点を三角測量することが可能である。「レーザ三角測量される点」は、「写真測量点」と同じシステム軸にあることになる。選定されたレートでビデオから画像を選択することにより、装置100は、任意の表面上の高密度の3D点を取得することが可能である。
[0029]現場較正によるレーザ三角測量は、以下のようにさらに説明され得る。装置100が、測定シーンから適した距離に運ばれる。レーザプロジェクタ106は、測定されることになる物体/表面上にレーザ線を投射する。カメラ102は、物体上に投射されるレーザ線を含む高精細度ビデオを記録する。装置100は、ビデオを記録する間に、物体の周囲を、または、(パイプなどの線形の物体の事例では)物体に沿って移動する。装置100は、手動で移動させられ得る、または、任意のタイプの運送機もしくはロボット(UAV、ROV等)により移動させられ得る。処理システム112は、カメラ102により提供される画像から画像を抽出する。例えばカメラ102が高精細度ビデオストリームを提供するならば、処理システム7は、ビデオストリームから個々の画像またはピクチャを抽出することが可能である。一部の実施形態では画像は、手動で抽出され得る、または、異なるシステムにより抽出され、処理システム112に提供され得る。
[0030]処理システム112は、画像処理アルゴリズムによってすべての画像上で共通の「写真測量点」を識別する。これらの点が識別されると、処理システムは、写真測量計算を実施し、以下の出力を生み出す。
・写真測量点の3D座標
・カメラ場所の3D座標および向き
・センサの較正(すなわち、カメラの光学機械パラメータ、ならびに、カメラに対するレーザ面の位置および向き)
・「レーザ三角測量点」の3D座標
[0031]処理システム112は、以下のように写真測量処理を適用することが可能である。図2は、本明細書で開示される原理による、写真測量システム軸の図解の表現図を示す。カメラ102および108の各々は、カメラの画像センサに関してその中心に置かれ向きが定められる、それらのカメラ自体のシステム軸を有する。画像取り込みの間、カメラ102、108の位置および向きは、世界システム軸(World System Axis)で与えられる。「世界システム軸」は、(O X Y Z)と言及され、「カメラシステム軸」は、(o x y z)と言及される。
[0032]処理システム112により適用される写真測量共線条件式は、カメラ画像センサ上で測定される点(透視中心)、および、物体上でイメージングされる点が同じ線上にあるという事実を説明するものである。カメラ画像センサ上で測定される点は、光学歪みおよび製造欠陥に対して補償される。写真測量共線条件式は、次式のように表現され得る。
Figure 2016509199
ただし、
(x,y)は、カメラシステム軸での点mの座標であり、
(dx,dy)は、光学歪みの補正であり、
Rは、世界システム軸に対するカメラシステム軸の回転行列であり、
(X,Y,Zは、世界システム軸での点Mの座標であり、
(X,Y,Zは、(画像取り込みの間の)カメラの透視中心の座標であり、
kは、
Figure 2016509199
Figure 2016509199
との間のスケール因子である。
[0033]システム100には、補正されることになる3つのタイプの歪み、すなわち、放射状歪み、偏心歪み、および、画像センサの製造欠陥が存在する。処理システム112は、主点(CCD上の透視中心の投射)の偏心に対してあらかじめ補償された座標に補償を適用する。(xp,yp)が、カメラシステム軸での透視中心(または基準中心)の座標であるとすると、補償公式は、
Figure 2016509199
および
=x+y (3)
Figure 2016509199
を含み、ただし、
(rdx,rdy)は、放射状歪みベクトルであり、
(ddx,ddy)は、偏心歪みベクトルであり、
(pdx,O)は、画素歪みベクトルであり、
Figure 2016509199
Figure 2016509199
{pdx=APx+APy (7)
である。
[0034]処理システム112は、以下のようにレーザ三角測量に対する較正を計算することが可能である。空間に投射されるレーザは、面を形成する。処理システム112は、レーザ面を、カメラシステム軸でのその位置を計算することにより較正する。図3は、本明細書で開示される原理による、カメラ102に対するレーザ面位置取りの図解の表現図を示す。レーザ面は、カメラシステム軸の原点に対する(数学的な最小の)距離dl、および、カメラシステム軸での法線
Figure 2016509199
により定義される。
[0035]図4は、本明細書で開示される原理による、レーザ軸定義の図解の表現図を示す。レーザに対するシステム軸を定義する際に、レーザ軸の原点は、カメラシステム軸の原点のレーザ面上の投射であり、レーザ面のOZ軸はOZ軸と交差し、OX軸はレーザ面と直角をなす。この定義に従って、(OZ軸とレーザ面OZ軸との間の)コンバージェンス、ベース(カメラ原点とレーザ原点との間の距離)などの度量衡特性が生成され得る。(ol,xl,zl)が以下のように定義される:
o、および、レーザ面上のoの投射を通る(ol,xl)軸、ならびに、
カメラ光軸と一致する(ol,zl)軸。
[0036]点の座標は、カメラシステム軸またはレーザシステム軸のいずれかによって計算され得る。カメラシステム軸でのレーザ点は、以下のように計算され得る。
Figure 2016509199
ただし、
Figure 2016509199
は、カメラシステム軸でのものであり、
Figure 2016509199
は、レーザシステム軸でのものであり、
Figure 2016509199
となる。
さらに、Lはレーザ面に属し、したがって次式となる。
=O (10)
式(9)および(10)は、3つの独立式を生成し、そのことによって、レーザシステム軸でのレーザ点(xL,yL,zL)の座標の計算が可能となる。
[0037]システム100の一部の実施形態は、2つのカメラ102、108を含むので、処理システム112は、カメラ108に対するカメラ102の位置を計算することが可能である。図5は、本明細書で開示される原理による、第2のカメラ(カメラ108)に対する第1のカメラ(カメラ102)の位置取りの図解の表現図を示す。
Figure 2016509199
ただし、
Ti:カメラ2システム軸でのカメラ1位置、および、
Ri:カメラ2システム軸へのカメラ1システム軸の回転行列
である。
[0038]レーザカメラ102に対する共線条件式は、レーザカメラ102の場所を使用することなく定義され得る。代わりに、レーザカメラ102に対する共線条件式は、パイロットカメラ108に対するレーザカメラ102の位置および向きに基づいて定義され得るものであり、そのことによって、バンドル調整のためのパラメータの数が実質的に低減する。
[0039]レーザカメラ102に対する共線条件式は、以下のようなものである。
Figure 2016509199
ただし、
(Ti,Ri)は、パイロットカメラに対するレーザカメラの相対的な場所であり、
((X,Y,Z,R)は、世界システム軸へのパイロットカメラの場所であり、
およびCは、レーザカメラおよびパイロットカメラの主距離である。
[0040]図6A〜6Bは、本明細書で開示される原理による、水中の使用のために適合される測定システム100の少なくとも小部分の図を示す。レーザプロジェクタ106は、第1のキャニスタまたはハウジング602内に配設され、カメラ102は、第2のハウジング604内に配設される。
[0041]図7A〜7Dは、本明細書で開示される原理による、測定システム100での使用のために適合されるカメラ108およびレーザプロジェクタ106の図を示す。
[0042]図8A〜8Bは、本明細書で開示される原理による、システム100での使用のために適合されるカメラおよび発光ダイオード(LED)104の図を示す。
[0043]図9A〜9Bは、本明細書で開示される原理による、測定システム100での使用のためにハウジング602の前方ポート内に配設されるカメラ108およびレーザプロジェクタ106の図を示す。
[0044]図10は、本明細書で開示される原理による、測定システム10での使用のためにハウジング604の前方ポート内に配設されるカメラ102およびLED(光104)の図を示す。
[0045]図11A〜11Bは、本明細書で開示される原理による、測定システム100での使用のためにカメラ108およびレーザプロジェクタ106を取り付けるのに適したブラケット702の図を示す。
[0046]図12は、本明細書で開示される原理による、レーザ三角測量のための方法に対するフロー図を示す。好都合なように順次的に図示されるが、示される処置の少なくとも一部は、異なる順序で実施され得る、および/または、並列に実施され得る。加えて一部の実施形態は、示される処置の一部のみを実施する場合がある。一部の実施形態では、方法の動作の少なくとも一部は、コンピュータ可読記憶デバイス116に記憶されるソフトウェアプログラミングとしてプロセッサ114に提供される命令の形で符号化され得る。
[0047]ブロック1202では、レーザ源106およびカメラ102を含む、測定システム100またはその小部分は、測定されることになる表面に沿って移動させられる。移動は、手動、または輸送機の運搬によるものであり得る。例えば測定システム100、またはその関連性のある小部分が、圧力容器または他のハウジング内に収納され、遠隔作業機により測定されることになる表面に沿って運搬される場合がある。
[0048]ブロック1204ではレーザ源106は、測定されることになる表面を照射するレーザ投射を放射する。レーザ投射は、空間内に面を、および表面上に線を形成し得る。カメラ102は、レーザ投射により照射される表面の画像を取り込む。例えばカメラ102は、表面およびレーザ投射の高精細度ビデオを取り込むことが可能である。一部の実施形態では、表面の追加的な照射が、カメラ102に関連付けられる光源104により提供され得る。レーザ投射の生成、および画像の取り込みは、処理システム112により制御され得る。
[0049]ブロック1206では処理システム112は、画像処理技法を適用して、取り込まれる画像の全域で点および/または特徴部を識別する。画像の全域で共通の点を識別し終えると、処理システム112は、写真測量処理を画像に適用する。写真測量処理は、点の3D座標、ならびに、カメラ102の3D座標および向きを決定する。処理システム112は、カメラ102の光学パラメータを計算することもまた可能である。
[0050]ブロック1208では処理システム112は、レーザ三角測量に対する較正を写真測量処理の結果に基づいて計算する。処理システム112は、カメラ102に対するレーザ投射の場所を決定する。
[0051]ブロック1210では処理システム112は、レーザ三角測量によって、較正を適用して、レーザ投射により照射される表面上の点の3D座標を計算する。
[0052]一部の実施形態では、任意の環境での物体および表面の、3D測定およびモデリングのための方法は、
支持体上で組立てられる少なくとも1つのカメラおよび1つのレーザ線プロジェクタの組立体を用意するステップと、
測定シーンの周囲で移動し、物体上に投射されるレーザ線とともに測定シーンのビデオを撮影するステップと、
手動で、または自動的に、
ビデオから画像を抽出するステップと、
画像間の相関点を決定するステップと、
相関点の3D(xyz)座標を決定するステップと、
カメラの光学パラメータを決定するステップと、
カメラの場所を決定するステップと、
カメラに対するレーザ面の相対的な位置および向きを決定するステップと、
レーザ三角測量点の3d座標(xyz)を決定するステップと
を含む。
[0053]一部の実施形態では、任意の環境での物体および表面の、3D測定およびモデリングのための方法は、
カメラにより静止画像またはビデオ画像(高精細度またはそうでないもの)を提供するステップであって、
複数のカメラが取り付けられ使用され得るものであり、そのことによって、立体視および追加的な測定が可能となる、提供するステップと、
レーザ線などのパターン投射を提供するステップと
を含む。
[0054]一部の実施形態では、任意の環境での物体および表面の、3D測定およびモデリングのためのシステムは、
カメラと、
レーザと、
各々の測定で、カメラの光学機械パラメータ、ならびに、カメラに対するレーザの相対的な場所および向きのモデリングを統合する自己較正モジュールと、
媒体(空気、光学ガラス、水)に起因する光学偏差を考慮する自己較正モジュールと、
任意のズーム位置に拡張される自己較正モジュールと
を含む。
[0055]上記の考察は、本開示の様々な原理および実施形態の図解のものであるように定められるものである。ある種の実施形態が示され説明されたが、それらの修正は、本開示の趣旨および教示から逸脱することなく当業者により行われ得る。本明細書で説明される実施形態は、単に例示的であり、限定的ではない。したがって保護の範囲は、上記で述べられた説明により限定されるものではなく、以下の特許請求の範囲により限定されるのみであり、その範囲は、特許請求の範囲の主題のすべての等価物を含む。

Claims (21)

  1. レーザ三角測量のために表面上にレーザ投射をするように構成されるレーザプロジェクタと、
    前記表面の画像を提供するように構成され、前記レーザプロジェクタに対して斜めの角度で配設される第1のカメラと、
    プロセッサであって、
    写真測量処理を前記画像に適用し、
    レーザ三角測量に対する較正を前記写真測量処理の結果に基づいて計算し、
    前記較正に基づいて、前記レーザ投射により照らされる前記表面の点の座標を、レーザ三角測量によって計算する
    ように構成されるプロセッサと
    を備える測定システム。
  2. 請求項1に記載のシステムであって、前記第1のカメラが、前記第1のカメラの光軸がおおよそ30度の角度で前記レーザ投射と交差するように、前記レーザプロジェクタに対して取り付けられる、システム。
  3. 請求項1に記載のシステムであって、前記第1のカメラが、ビデオを取り込むように構成され、前記プロセッサが、前記画像として前記ビデオからピクチャを抽出するように構成される、システム。
  4. 請求項1に記載のシステムであって、前記プロセッサが、前記写真測量処理の一部として、
    前記画像の全域で前記表面の点を識別し、
    3次元での前記点の座標を計算し、
    前記座標に対して前記第1のカメラの場所および向きを決定する
    ように構成される、システム。
  5. 請求項4に記載のシステムであって、前記プロセッサが、レーザ三角測量に対する前記較正を計算することの一部として、
    前記第1のカメラの光学パラメータ、ならびに、
    前記第1のカメラに対する前記レーザ投射の場所および向き
    の少なくとも1つを決定するように構成される、システム。
  6. 請求項1に記載のシステムであって、前記表面の画像を取り込むように構成される第2のカメラであって、前記第2のカメラの光軸が前記レーザプロジェクタの発する光に対しておおよそ平行であるように配設される、第2のカメラをさらに備えるシステム。
  7. 請求項6に記載のシステムであって、前記プロセッサが、前記写真測量処理の一部として、前記第2のカメラの場所に対する前記第1のカメラの場所を決定するように構成される、システム。
  8. 請求項1に記載のシステムであって、前記レーザ投射が前記表面上に線を形成する、システム。
  9. 表面の画像を、第1のカメラによって、前記第1のカメラを前記表面に沿って移動させつつ取り込むステップと、
    前記表面を、前記第1のカメラと連関して前記表面に沿って移動するレーザ源により生み出されるレーザ投射によって照らすステップと、
    写真測量処理を前記画像に適用するステップと、
    レーザ三角測量に対する較正を前記写真測量処理の結果に基づいて計算するステップと、
    前記レーザ三角測量によって、前記レーザ投射により照らされる前記表面の点の座標を、前記較正に基づいて計算するステップと
    を含む、レーザ三角測量のための方法。
  10. 請求項9に記載の方法であって、前記第1のカメラが、前記第1のカメラの光軸がおおよそ30度の角度で前記レーザ投射と交差するように、前記レーザ源に対して取り付けられる、方法。
  11. 請求項9に記載の方法であって、前記第1のカメラによりビデオを取り込み、前記ビデオから前記画像を抽出するステップをさらに含む方法。
  12. 請求項9に記載の方法であって、写真測量処理を適用する前記ステップが、
    前記画像の全域で前記表面の点を識別するステップと、
    3次元での前記点の座標を計算するステップと、
    前記座標に対して前記第1のカメラの場所および向きを決定するステップと
    を含む、方法。
  13. 請求項12に記載の方法であって、較正を計算するステップが、
    前記第1のカメラの光学パラメータを決定するステップ、ならびに、
    前記カメラに対する前記レーザ投射の場所および向きを決定するステップ
    の少なくとも1つを含む、方法。
  14. 請求項9に記載の方法であって、
    前記表面の画像を、第2のカメラによって、前記第1のカメラを前記表面に沿って移動させつつ取り込むステップ
    をさらに含み、記第2のカメラが、前記第2のカメラの光軸が前記レーザ源の発する光に対しておおよそ平行であるように配設される、方法。
  15. 請求項14に記載の方法であって、写真測量処理を適用する前記ステップが、前記第2のカメラの場所に対する前記第1のカメラの場所を決定するステップを含む、方法。
  16. 請求項9に記載の方法であって、前記表面をレーザ投射によって照らすステップが、前記表面上にレーザ線を投射するステップを含む、方法。
  17. 実行されたときプロセッサに、
    第1のカメラから受ける画像ストリームから表面の画像を抽出することと、
    写真測量処理を前記画像に適用することと、
    レーザ三角測量に対する較正を前記写真測量処理の結果に基づいて計算することと、
    レーザ三角測量によって、前記較正に基づいて、前記画像内に取り込まれるレーザ投射により照らされる前記表面の点の座標を計算することと
    をさせる命令によって符号化される非一時的なコンピュータ可読媒体。
  18. 請求項17に記載のコンピュータ可読媒体であって、実行されたときプロセッサに、前記写真測量処理の一部として、
    前記画像の全域で前記表面の点を識別することと、
    3次元での前記点の座標を計算することと、
    前記座標に対して前記第1のカメラの場所および向きを決定することと
    をさせる命令によって符号化される、コンピュータ可読媒体。
  19. 請求項17に記載のコンピュータ可読媒体であって、実行されたときプロセッサに、レーザ三角測量に対する前記較正を計算することの一部として、
    前記第1のカメラの光学パラメータ、
    前記第1のカメラと前記表面との間の媒体により引き起こされる光学偏差、ならびに、
    前記第1のカメラに対する前記レーザ投射の場所および向き
    の少なくとも1つを決定することをさせる命令によって符号化される、コンピュータ可読媒体。
  20. 請求項17に記載のコンピュータ可読媒体であって、実行されたときプロセッサに、
    第2のカメラから受ける画像ストリームから前記表面の画像を抽出することと、
    前記第2のカメラの場所に対する前記第1のカメラの場所を決定することと
    をさせる命令によって符号化される、コンピュータ可読媒体。
  21. 請求項17に記載のコンピュータ可読媒体であって、実行されたときプロセッサに、前記レーザ投射を生成するようにレーザ源を駆動することをさせる命令によって符号化され、前記レーザ投射が前記表面上に線を形成する、コンピュータ可読媒体。
JP2015548040A 2012-12-14 2013-12-16 3次元表面測定のための装置および方法 Expired - Fee Related JP6317760B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201261737499P 2012-12-14 2012-12-14
US61/737,499 2012-12-14
PCT/US2013/075354 WO2014133646A2 (en) 2012-12-14 2013-12-16 Apparatus and method for three dimensional surface measurement

Publications (2)

Publication Number Publication Date
JP2016509199A true JP2016509199A (ja) 2016-03-24
JP6317760B2 JP6317760B2 (ja) 2018-04-25

Family

ID=50983096

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015548040A Expired - Fee Related JP6317760B2 (ja) 2012-12-14 2013-12-16 3次元表面測定のための装置および方法

Country Status (12)

Country Link
US (1) US10397550B2 (ja)
EP (1) EP2932191A2 (ja)
JP (1) JP6317760B2 (ja)
CN (1) CN105190234B (ja)
AU (1) AU2013379669B2 (ja)
BR (1) BR112015013804B1 (ja)
CA (1) CA2912859C (ja)
EA (1) EA031929B1 (ja)
MX (1) MX353350B (ja)
MY (1) MY181876A (ja)
PH (1) PH12015501343A1 (ja)
WO (1) WO2014133646A2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020056777A (ja) * 2018-10-01 2020-04-09 株式会社コムビック 非接触測定装置
JP7434008B2 (ja) 2019-04-01 2024-02-20 キヤノンメディカルシステムズ株式会社 医用画像処理装置およびプログラム

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6217227B2 (ja) * 2013-08-12 2017-10-25 株式会社リコー 校正装置、方法及びプログラム
DE102014019670B3 (de) * 2014-12-30 2016-06-30 Faro Technologies, Inc. Verfahren zum optischen Abtasten und Vermessen einer Umgebung mit einer 3D-Messvorrichtung und Autokalibrierung mittels Redundanzen
RU2655012C2 (ru) * 2015-09-22 2018-05-23 Общество с ограниченной ответственностью "Нординкрафт Санкт-Петербург" Способ измерения геометрических параметров электросварных труб различного диаметра и система для его осуществления
US9963246B2 (en) * 2016-03-28 2018-05-08 Amazon Technologies, Inc. Combining depth and thermal information for object detection and avoidance
DE102016221040A1 (de) * 2016-10-26 2018-04-26 Robert Bosch Gmbh Verfahren zur Lokalisierung einer Vorrichtung in einem System
CN108257182A (zh) * 2016-12-29 2018-07-06 深圳超多维光电子有限公司 一种立体摄像头模组的标定方法及装置
US11450148B2 (en) * 2017-07-06 2022-09-20 Wisconsin Alumni Research Foundation Movement monitoring system
CN107976148B (zh) * 2017-12-25 2024-05-03 自然资源部第二海洋研究所 一种深海生物测量装置及其生物特征的测量方法
US10928196B2 (en) 2017-12-28 2021-02-23 Topcon Positioning Systems, Inc. Vision laser receiver
CN110530885A (zh) * 2018-05-25 2019-12-03 上海翌视信息技术有限公司 一种适用于工业生产线的光学检测系统
CN109118577B (zh) * 2018-07-23 2023-03-10 国家深海基地管理中心 基于载人潜水器的水下激光扫描重构系统及其方法
US11145084B2 (en) 2018-08-30 2021-10-12 Hunter Engineering Company Method and apparatus for guiding placement of ADAS fixtures during vehicle inspection and service
US11763486B2 (en) 2018-08-30 2023-09-19 Hunter Engineering Company Method and apparatus for placement of ADAS fixtures during vehicle inspection and service
US11544870B2 (en) 2018-08-30 2023-01-03 Hunter Engineering Company System and method for verification of vehicle service target positioning
CN111354036B (zh) * 2018-12-20 2022-11-22 核动力运行研究所 一种应用于压力容器环境的水下光学定位方法
US11461906B2 (en) * 2018-12-31 2022-10-04 Numeric Engineering, Inc. Systems and methods for monitoring offshore structures
DE102019204613A1 (de) * 2019-04-01 2020-10-01 Micro-Epsilon Optronic Gmbh Messsystem zur optischen Messung
US11872965B2 (en) * 2020-05-11 2024-01-16 Hunter Engineering Company System and method for gyroscopic placement of vehicle ADAS targets
CN113310428B (zh) * 2021-06-11 2023-06-02 安徽工程大学 一种基于线结构光的同步传动表面轮廓测量系统及测量方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002267444A (ja) * 2001-03-09 2002-09-18 Nishimatsu Constr Co Ltd トンネル坑内の形状測定方法
JP2005340985A (ja) * 2004-05-25 2005-12-08 Aichi Gakuin 画像処理方法、画像処理装置、および画像処理プログラム
WO2006013635A1 (ja) * 2004-08-03 2006-02-09 Techno Dream 21 Co., Ltd. 3次元形状計測方法及びその装置
US20080201101A1 (en) * 2005-03-11 2008-08-21 Creaform Inc. Auto-Referenced System and Apparatus for Three-Dimensional Scanning
US20100238269A1 (en) * 2007-10-11 2010-09-23 Miralles Francois System and method for tridimensional cartography of a structural surface
JP2011530071A (ja) * 2008-08-06 2011-12-15 クリアフォーム インコーポレイティッド 表面特徴の適応型3次元走査システム

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4979815A (en) * 1989-02-17 1990-12-25 Tsikos Constantine J Laser range imaging system based on projective geometry
WO2000078055A1 (en) * 1999-06-11 2000-12-21 Emile Hendriks Acquisition of 3-d scenes with a single hand held camera
US6590640B1 (en) 2000-07-20 2003-07-08 Boards Of Regents, The University Of Texas System Method and apparatus for mapping three-dimensional features
US6757445B1 (en) * 2000-10-04 2004-06-29 Pixxures, Inc. Method and apparatus for producing digital orthophotos using sparse stereo configurations and external models
CN100360897C (zh) * 2001-06-15 2008-01-09 斯耐普昂技术有限公司 自校准位置确定系统
WO2004084139A2 (en) * 2003-03-14 2004-09-30 Applied Precision, Llc System and method of non-linear grid fitting and coordinate system mapping
US20040213463A1 (en) * 2003-04-22 2004-10-28 Morrison Rick Lee Multiplexed, spatially encoded illumination system for determining imaging and range estimation
EP1524494A1 (en) * 2003-10-17 2005-04-20 inos Automationssoftware GmbH Method for calibrating a camera-laser-unit in respect to a calibration-object
DE10359415A1 (de) * 2003-12-16 2005-07-14 Trimble Jena Gmbh Verfahren zur Kalibrierung eines Vermessungsgeräts
US7429999B2 (en) * 2004-05-24 2008-09-30 CENTRE DE RECHERCHE INDUSTRIELLE DU QUéBEC Camera calibrating apparatus and method
CN1238689C (zh) * 2004-11-11 2006-01-25 天津大学 视觉测量系统现场校准装置及校准方法
US8082120B2 (en) * 2005-03-11 2011-12-20 Creaform Inc. Hand-held self-referenced apparatus for three-dimensional scanning
US8625854B2 (en) * 2005-09-09 2014-01-07 Industrial Research Limited 3D scene scanner and a position and orientation system
CN103776392B (zh) * 2006-11-21 2017-03-01 曼蒂斯影像有限公司 三维几何建模和三维视频内容创建
US8427656B2 (en) * 2008-04-21 2013-04-23 Max-Planck-Gesellschaft Zur Foderung Der Wissenschaften E.V. Robust three-dimensional shape acquisition method and system
RU2011139320A (ru) * 2009-02-27 2013-04-20 Боди Серфейс Транслэйшнз, Инк. Оценка физичеких параметров при помощи трехмерных представлений
US11403739B2 (en) * 2010-04-12 2022-08-02 Adobe Inc. Methods and apparatus for retargeting and prioritized interpolation of lens profiles
US8430319B2 (en) * 2011-02-08 2013-04-30 Symbol Technologies, Inc. Imaging reader for electro-optically reading two-dimensional symbols with controller having limited internal memory
KR20140115062A (ko) * 2013-03-20 2014-09-30 한국전자통신연구원 수중물체 형상측정 장치 및 방법

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002267444A (ja) * 2001-03-09 2002-09-18 Nishimatsu Constr Co Ltd トンネル坑内の形状測定方法
JP2005340985A (ja) * 2004-05-25 2005-12-08 Aichi Gakuin 画像処理方法、画像処理装置、および画像処理プログラム
WO2006013635A1 (ja) * 2004-08-03 2006-02-09 Techno Dream 21 Co., Ltd. 3次元形状計測方法及びその装置
US20080201101A1 (en) * 2005-03-11 2008-08-21 Creaform Inc. Auto-Referenced System and Apparatus for Three-Dimensional Scanning
US20100238269A1 (en) * 2007-10-11 2010-09-23 Miralles Francois System and method for tridimensional cartography of a structural surface
JP2011530071A (ja) * 2008-08-06 2011-12-15 クリアフォーム インコーポレイティッド 表面特徴の適応型3次元走査システム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020056777A (ja) * 2018-10-01 2020-04-09 株式会社コムビック 非接触測定装置
JP7349702B2 (ja) 2018-10-01 2023-09-25 株式会社コムビック 非接触測定装置
JP7434008B2 (ja) 2019-04-01 2024-02-20 キヤノンメディカルシステムズ株式会社 医用画像処理装置およびプログラム

Also Published As

Publication number Publication date
EA031929B1 (ru) 2019-03-29
CA2912859A1 (en) 2014-09-04
CA2912859C (en) 2021-01-26
WO2014133646A2 (en) 2014-09-04
AU2013379669A1 (en) 2015-07-02
EP2932191A2 (en) 2015-10-21
PH12015501343B1 (en) 2015-09-07
CN105190234B (zh) 2018-05-18
EA201591144A1 (ru) 2016-01-29
BR112015013804B1 (pt) 2021-02-09
PH12015501343A1 (en) 2015-09-07
WO2014133646A3 (en) 2014-11-06
MY181876A (en) 2021-01-11
US20150317780A1 (en) 2015-11-05
US10397550B2 (en) 2019-08-27
MX2015007555A (es) 2015-10-20
CN105190234A (zh) 2015-12-23
AU2013379669B2 (en) 2017-08-17
MX353350B (es) 2018-01-10
JP6317760B2 (ja) 2018-04-25

Similar Documents

Publication Publication Date Title
JP6317760B2 (ja) 3次元表面測定のための装置および方法
CN108171733B (zh) 使两个或更多个三维3d点云配准的方法
US10041793B2 (en) Providing a point cloud using a surveying instrument and a camera device
EP3550513B1 (en) Method of generating panorama views on a mobile mapping system
US11544860B2 (en) Combined point cloud generation using a stationary laser scanner and a mobile scanner
US8699005B2 (en) Indoor surveying apparatus
JP6465789B2 (ja) デプスカメラの内部パラメータを算出するプログラム、装置及び方法
US20150116691A1 (en) Indoor surveying apparatus and method
JP4230525B2 (ja) 3次元形状計測方法およびその装置
US20150070468A1 (en) Use of a three-dimensional imager's point cloud data to set the scale for photogrammetry
JP6324025B2 (ja) 情報処理装置、情報処理方法
JP7300948B2 (ja) 測量データ処理装置、測量データ処理方法、測量データ処理用プログラム
KR20150112362A (ko) 깊이 센서의 깊이 보정을 위한 이미지 처리방법 및 그 장치
ES2894935T3 (es) Aparato de medición de distancias tridimensionales y procedimiento para el mismo
CN113538589A (zh) 利用远心线扫描相机对对象进行高效3d重建的系统和方法
US11927692B2 (en) Correcting positions after loop closure in simultaneous localization and mapping algorithm
Dolereit et al. Underwater stereo calibration utilizing virtual object points
US20230070281A1 (en) Methods and systems of generating camera models for camera calibration
Bleier et al. Towards an underwater 3D laser scanning system for mobile mapping
CN114413790A (zh) 固连摄影测量相机的大视场三维扫描装置及方法
Schneider et al. Bundle adjustment and system calibration with points at infinity for omnidirectional cameras
OA17428A (en) Apparatus and method for three dimensional surface measurement.
JP2017111118A (ja) 3dスキャナからの2次元(2d)スキャンデータに基づく3次元(3d)スキャン間の位置合せ計算
JP2017111117A (ja) 2次元スキャナによる測定値に基づいて各スキャン間で実行される3次元スキャナデータの位置合せ計算
Böhm Camera pan-tilt ego-motion tracking from point-based environment models

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20151222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20151224

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161129

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170802

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170809

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20171108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180109

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180301

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180330

R150 Certificate of patent or registration of utility model

Ref document number: 6317760

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees