JP2017510793A - 2つのカメラからの曲線の集合の構造化光整合 - Google Patents

2つのカメラからの曲線の集合の構造化光整合 Download PDF

Info

Publication number
JP2017510793A
JP2017510793A JP2016547542A JP2016547542A JP2017510793A JP 2017510793 A JP2017510793 A JP 2017510793A JP 2016547542 A JP2016547542 A JP 2016547542A JP 2016547542 A JP2016547542 A JP 2016547542A JP 2017510793 A JP2017510793 A JP 2017510793A
Authority
JP
Japan
Prior art keywords
epipolar
images
scene
valid
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016547542A
Other languages
English (en)
Other versions
JP6596433B2 (ja
Inventor
チュビック,ドラガン
ソーシー,マルタン
ジニャック,オリビエ
キャロン,アントワーヌ・トーマ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Creaform Inc
Original Assignee
Creaform Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=53777380&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=JP2017510793(A) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Creaform Inc filed Critical Creaform Inc
Publication of JP2017510793A publication Critical patent/JP2017510793A/ja
Application granted granted Critical
Publication of JP6596433B2 publication Critical patent/JP6596433B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/246Calibration of cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10152Varying illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20068Projection on vertical or horizontal image axis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Optics & Photonics (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Endoscopes (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Processing Or Creating Images (AREA)

Abstract

2つのカメラによって獲得された場面の2つの画像の間で点を整合させるための方法であって、画像の中の反射からブロブを抽出して、固有の識別子でブロブに個別にラベルをつけることと、選択されたエピポーラ面を選択して、画像の各々の上で共役エピポーラ線を画定することと、画像の各々の中のブロブから選択された妥当なブロブに関する、投影パターン及び固有の識別子の光シートラベルを含む妥当な組み合わせを特定することと、妥当な組み合わせの各々について整合誤差を算出することと、少なくともいくつかのエピポーラ面について、選択する工程、特定する工程、及び算出する工程を繰り返すことと、妥当な組み合わせのために性能指数を計算することによって、最も確実な組み合わせを判定することと、最も確実な組み合わせからフレーム中の整合点を特定することと、を含む、方法。

Description

本発明は概して、オブジェクトの表面幾何形状の3次元走査の分野に関し、より具体的には、構造化光立体視に関する。
オブジェクトの表面幾何形状の3次元走査及びデジタル化は、多くの産業及びサービスにおいて一般的に使用され、それらの用途は多数ある。そのような用途の少数の例は、工業生産システム、複雑幾何形状による既存部品のリバースエンジニアリング、生物測定等における形状一致の点検及び測定である。
オブジェクトの形状は、センサと表面上の点の集合との間の距離を測定する測距センサを使用して、走査及びデジタル化される。距離センサについて異なる原理が開発されている。中でも、三角測量ベースの距離センサは、概して、数メートルより下の距離等の近い距離測定に適切である。この種の装置を使用して、オブジェクト上の同じ特徴点に収束する少なくとも2つの光線は、基線距離によって分離された2つの異なる視点から得られる。基線及び2つの光線方向から、観察点の相対位置は回復され得る。両方の光線の交点は、三角形における一辺長と2つの角度についての知識を使用して判定され、それは実際に、立体視における三角測量の原理である。立体視における課題は、フレームを組み立てている双眼写真の各々の画像の中で、どのピクセルが互いに対応するかについて、効率的に特定することである。最も一般的な場合において、整合させるためのすべての必要な情報が単一のフレーム中に見出されることが強いられる携帯型または手持ち式の走査機にとって、この問題は特に重要である。
整合問題を単純化するために、光検出器のうちの1つを、既知の方向で光線の集合を出力する光プロジェクターと置き換えることができる。この場合、投影された光線、及びオブジェクト表面に反映された各々の検出された光線の配向を利用して、整合点を見出すことが可能である。次いで、三角形の基礎に対して各々の観察された特徴点の座標を算出することが可能である。
特殊光検出器が使用され得るが、デジタルCCDまたはCMOSカメラが典型的には使用される。
プロジェクターについては、光源は、スポット、光面、もしくは多くの他の可能なパターンを投影している、コヒーレント源(レーザー)または非コヒーレント源(例えば、白色光)であり得る。光プロジェクターの使用が、オブジェクト表面上の至る所で反映された点の検出を容易にするが、パターンがより複雑であるほど、対応するピクセル及び光線を効率的に特定することの課題が大きくなるだろう。
この理由で、射影幾何学の理論からの特性をさらに利用することになる。当該分野では少なくとも30年間、2つの視界の場合において、全画像中の検索とは対照的に、対応するピクセルの検索を単一の直線に制限するエピポーラ制約を利用し得ることが周知となっている。この原理は、受動的及び能動的(プロジェクターでの)立体視の両方で、広く利用される。この使用法の一例は、米国特許第8,032,327号に記載され、レーザープロジェクターは、表面上の反射が2つのカメラによって捕捉される十字カーソルパターンとして、2つの垂直な光面を投影する。細い単色のストライプを投影することは、良好な信号対雑音比を得て、画像処理を単純化して、各々の単一のフレームから3D点を得るために有利である。単一のストライプを各々のカメラによって観察可能にすることは、各々のエピポーラ線が、ストライプを1回交差することで、整合の曖昧性を回避することを確実にする。
オブジェクトの表面の形状を捕捉するのに必要である時間を減少させるためには、フレーム率を増加させるか、または同時に投影されるストライプの数を増加させるか、あるいは両方を必要とするだろう。提案された1つの手法は、ストライプのグリッドを投影することにある。投影パターンが、2つの方向からの正接曲線が表面法線を測定することを可能にするオブジェクト表面上で、曲線のネットワークを作り出すので、グリッドを投影することは、表面再構築のためにさらに興味深いことである。表面法線情報は、米国特許第7,487,063号に記載されるような3D測定からのリアルタイム表面再構築において、有利に利用され得る。ストライプの数を増加させることは、走査速度のために有利であるが、ストライプの数が増加されるにつれ、三角測量を応用する前に像点を整合させる複雑さは、指数的に増え、場合によっては解消され得ない曖昧性を導入する。
曖昧性を解決する1つの方法は、1つ以上のカメラを追加することにあるが、ハードウェアの複雑さは増加し、それは、所与の帯域幅についてフレーム率制限を減少させる。投影されたグリッドから点を整合させるための、1つまたは2つのカメラを利用する方法が提案された。反映された曲線の交点は、追加の整合制約を設定するように、曲線区分の連結されたネットワークをセグメント化して、特定することを可能にする。しかしながら、2つの曲線の交点の近くで抽出される点は、正確ではない。「近く」は、2つの曲線からのピクセル上の画像処理オペレータが干渉する距離の範囲内を意味する。正確さを維持するためには、これらの点を破棄することにより消失させる必要がある。
非交差曲線の2つの集合を交互に作り出し、単一のフレーム内でグリッドの投影を避ける一方で、表面接線から抽出された表面正規配向から利益を得ることは、有益であろう。しかしながら、整合課題は残るだろう。1つの解決策は、多色のストライプを投影することにあるだろう。しかしながら、いくつかの材料の上の色反射率は、整合の質を損ない、プロジェクターは、より複雑である必要があるだろう。別の手法は、各々のフレーム内で可視でなければならない平面の背景上にオブジェクトを位置付けることを強いる。環境に干渉することなく、現場でオブジェクトを測定することが要求されるときに特に、これは、システムの柔軟性を明らかに制限する。
2つのみのカメラ、変更し得る投影パターンを用いて、観察された場面への特定の制約を伴わずに、各々の単一のフレームについて独立して整合問題を解決する解決策への必要性が残る。
広い一態様に従って、画像の中で点を整合させるように、ブロブの連続性を利用する方法が提供される。
広い一態様に従って、2つのカメラによって獲得された場面の2つの画像の間で点を整合させるための方法であって、画像の中の反射からブロブを抽出して、固有の識別子でブロブに個別にラベルをつけることと、選択されたエピポーラ面を選択して、画像の各々の上で共役エピポーラ線を画定することと、画像の各々の中のブロブから選択された妥当なブロブに関する、投影パターン及び固有の識別子の光シートラベルを含む妥当な組み合わせを特定することと、妥当な組み合わせの各々について整合誤差を算出することと、少なくともいくつかのエピポーラ面について、選択する工程、特定する工程、及び算出する工程を繰り返すことと、妥当な組み合わせのために性能指数を計算することによって、最も確実な組み合わせを判定することと、最も確実な組み合わせからフレーム中の整合点を特定することと、を含む、方法が提供される。
別の広い態様に従って、2つのカメラによって同時に獲得された場面の2つの画像の間で点を整合させるための方法であって、それらの2つの画像が、フレームを形成し、それらの画像が各々、場面上の投影パターンの反射を含み、投影パターンが、光のシートを場面上に投影している光プロジェクターユニットによって提供され、カメラ及び光プロジェクターユニットが、共通座標系内で較正され、画像の中の反射からブロブを抽出して、固有の識別子でブロブに個別にラベルをつけることと、エピポーラ面の集合から選択されたエピポーラ面を選択して、画像の各々の上で共役エピポーラ線を画定することと、妥当な組み合わせを特定することであって、妥当な組み合わせが、画像の各々の中のブロブから選択された妥当なブロブに関する、投影パターン及び固有の識別子の光シートラベルを含み、妥当なブロブが、共役エピポーラ線を交差することと、妥当な組み合わせの各々について整合誤差を算出することと、エピポーラ面の集合の各々のエピポーラ面について、選択する工程、特定する工程、及び算出する工程を繰り返すことと、エピポーラ面の集合の各々のエピポーラ面についての整合誤差を使用して妥当な組み合わせのために性能指数を計算することによって、最も確実な組み合わせを判定することと、最も確実な組み合わせからフレーム中の整合点を特定することと、を含む、方法が提供される。
さらに別の広い態様に従って、場面の2つの画像の間で点を整合させるためのシステムであって、光のシートを場面上に投影し、それによって場面上の投影パターンを提供する光プロジェクターユニットと、場面の2つの画像を同時に獲得するための2つのカメラであって、2つの画像が、フレームを形成し、カメラ及び光プロジェクターユニットが、共通座標系内で較正され、画像が各々、場面上の投影パターンの反射を含む、2つのカメラと、プロセッサであって、画像の中の反射からブロブを抽出して、固有の識別子でブロブに個別にラベルをつけ、エピポーラ面の集合から選択されたエピポーラ面を選択して、画像の各々の上で共役エピポーラ線を画定し、妥当な組み合わせを特定し、妥当な組み合わせが、画像の各々の中のブロブから選択された妥当なブロブに関する、投影パターン及び固有の識別子の光シートラベルを含み、妥当なブロブが、共役エピポーラ線を交差し、妥当な組み合わせの各々について整合誤差を算出し、エピポーラ面の集合の各々のエピポーラ面について、選択する工程、特定する工程、及び算出する工程を繰り返し、エピポーラ面の集合の各々のエピポーラ面についての整合誤差を使用して妥当な組み合わせのために性能指数を計算することによって、最も確実な組み合わせを判定し、最も確実な組み合わせからフレーム中の整合点を特定するための、プロセッサと、を含む、システムが提供される。
別の広い態様に従って、場面の2つの画像の間で点を整合させるために少なくとも1つのコンピュータプロセッサによって実施される、コンピュータ実装方法であって、センサによって獲得された2つの画像を取り出すことであって、2つの画像が、場面とセンサとの間の単一の相対位置で捕捉されたフレームを形成し、画像が各々、場面上の投影パターンの反射を含むことと、画像の中の反射からブロブを抽出して、固有の識別子でブロブに個別にラベルをつけることと、エピポーラ面の集合から選択されたエピポーラ面を選択して、画像の各々の上で共役エピポーラ線を画定することと、妥当な組み合わせを特定することであって、妥当な組み合わせが、画像の各々の中のブロブから選択された妥当なブロブに関する、投影パターン及び固有の識別子の光シートラベルを含み、妥当なブロブが、共役エピポーラ線を交差することと、妥当な組み合わせの各々について整合誤差を算出することと、エピポーラ面の集合の各々のエピポーラ面について、選択する工程、特定する工程、及び算出する工程を繰り返すことと、エピポーラ面の集合の各々のエピポーラ面についての整合誤差を使用して妥当な組み合わせのために性能指数を計算することによって、最も確実な組み合わせを判定することと、最も確実な組み合わせからフレーム中の整合点を特定することと、フレーム中の整合点を特定している出力を生成することと、を含む、方法が提供される。
さらに別の広い態様に従って、少なくとも1つのコンピュータプロセッサによって実行されるとき、上記の方法の工程を実施する、コンピュータ実行可能命令を上に記憶しているコンピュータ可読メモリを備える、コンピュータプログラム製品が提供される。
一実施形態において、センサは、2つのカメラ及び光プロジェクターユニットを有し、投影パターンは、少なくとも1つの光のシートを場面上に投影している光プロジェクターユニットによって提供され、カメラ及び光プロジェクターユニットは、共通座標系内で較正される。
一実施形態において、本方法は、性能指数が整合閾値の質を満たすことができないならば整合点を破棄するように、整合点を検査することをさらに含む。
一実施形態において、本方法は、複数のフレームについてコンピュータ実装方法を繰り返すことをさらに含む。
一実施形態において、本方法は、フレーム内の整合点を使用して、3D点の集合を算出することをさらに含む。
一実施形態において、本方法は、センサの位置を各々のフレームにおいて推定して、3D点を共通座標系内で統合することをさらに含み、センサの位置を推定することは、場面、場面の幾何形状、及び場面のテクスチャに付加された標的のうちの少なくとも1つを使用することを含む。
一実施形態において、本方法は、3D点の集合を算出するために画像を利用して、3D曲線のセグメントを得ることをさらに含む。
別の広い態様に従って、場面の2つの画像の間で点を整合させるためのシステムであって、センサであって、少なくとも1つの光のシートを場面上に投影し、それによって場面上の投影パターンを提供する光プロジェクターユニットと、場面の2つの画像を獲得するための2つのカメラであって、2つの画像が、場面とセンサとの間の単一の相対位置で捕捉されたフレームを形成し、画像が各々、場面上の投影パターンの反射を含む、2つのカメラと、を含み、カメラ及び光プロジェクターユニットが、共通座標系内で較正される、センサと、センサと電子通信している、少なくとも1つのコンピュータプロセッサであって、カメラによって獲得された2つの画像を取り出し、画像の中の反射からブロブを抽出して、固有の識別子でブロブに個別にラベルをつけ、エピポーラ面の集合から選択されたエピポーラ面を選択して、画像の各々の上で共役エピポーラ線を画定し、妥当な組み合わせを特定し、妥当な組み合わせが、画像の各々の中のブロブから選択された妥当なブロブに関する、投影パターン及び固有の識別子の光シートラベルを含み、妥当なブロブが、共役エピポーラ線を交差し、妥当な組み合わせの各々について整合誤差を算出し、エピポーラ面の集合の各々のエピポーラ面について、選択する工程、特定する工程、及び算出する工程を繰り返し、エピポーラ面の集合の各々のエピポーラ面についての整合誤差を使用して妥当な組み合わせのために性能指数を計算することによって、最も確実な組み合わせを判定し、最も確実な組み合わせからフレーム中の整合点を特定するための、コンピュータプロセッサと、フレーム中の整合点を特定している出力を生成するための、プロセッサと電子通信している、少なくとも1つのコンピュータ出力と、を含む、システムが提供される。
一実施形態において、光プロジェクターユニットは、2つの光プロジェクターを含み、各々の光プロジェクターは少なくとも1つの光のシートを場面上に投影し、投影パターンは、各々のフレームにおいて2つの光プロジェクターのうちのいずれか1つによって提供され、投影パターンは、2つの光プロジェクターの各々について異なる。
一実施形態において、少なくとも1つの光のシートは光の面である。
また別の広い態様に従って、少なくとも1つのコンピュータプロセッサによる実行のために上に文及び命令を記録したコンピュータ可読メモリであって、文及び命令が、センサによって獲得された2つの画像を取り出すためのコード手段であって、2つの画像が、場面とセンサとの間の単一の相対位置で捕捉されたフレームを形成し、画像が各々、場面上の投影パターンの反射を含むための、コード手段と、画像の中の反射からブロブを抽出して、固有の識別子でブロブに個別にラベルをつけるためのコード手段と、エピポーラ面の集合から選択されたエピポーラ面を選択して、画像の各々の上で共役エピポーラ線を画定するためのコード手段と、妥当な組み合わせを特定することであって、妥当な組み合わせが、画像の各々の中のブロブから選択された妥当なブロブに関する、投影パターン及び固有の識別子の光シートラベルを含み、妥当なブロブが、共役エピポーラ線を交差するためのコード手段と、妥当な組み合わせの各々について整合誤差を算出するためのコード手段と、エピポーラ面の集合の各々のエピポーラ面について、選択する工程、特定する工程、及び算出する工程を繰り返すためのコード手段と、エピポーラ面の集合の各々のエピポーラ面についての整合誤差を使用して妥当な組み合わせのために性能指数を計算することによって、最も確実な組み合わせを判定するためのコード手段と、最も確実な組み合わせからフレーム中の整合点を特定するためのコード手段と、フレーム中の整合点を特定している出力を生成するためのコード手段と、を備える、コンピュータ可読メモリが提供される。
本開示の上記の特徴及び目的は、添付の図面と併せて解釈された以下の説明に関してより明確になり、図面中、同様の参照番号は同様の要素を表す。
図1A及び図1Bを含み、図1Aは、光プロジェクターユニットによる例示のシステム構成の図解であり、図1Bは、2つの光プロジェクターを含む光プロジェクターユニットによる例示のシステム構成の図解である。 光面の集合を投影している光プロジェクターユニットの図解である。 平面から反映された2つの組み合わされたパターンの図解である。 場面上にオーバーレイされたエピポーラ面の表示である。 画像、投影パターン、及びオブジェクト上のその反射の図を描写する。 2つのカメラ及び光プロジェクターユニットからの光線交差の表示である。 図7A及び図7Bを含み、図7Aは、整合の質を測定する一方法を描写し、図7Bは、整合の質を測定する別の方法を描写する。 ブロブの集合についての整合誤差のグラフを描写する。 3D点を整合させて、作り出すための例示の方法のフローチャートである。 3D点を整合させて、作り出すためのシステムの例示の主要構成要素のブロック図である。
2つのカメラを使用して、あらゆるフレーム内で整合を効率的に見出すために、システム及びコンピュータ実装方法が提案される。
図1は、センサ100の例示の実施形態を図解する。1つ以上の光プロジェクターユニット130は、2つのカメラ110の間に装着される。各々のカメラ110は視野120を有する。各々の光プロジェクターユニット130は、140a及び140bとラベルをつけられたそれぞれの範囲140内にパターンを投影する。図1Aにおいて、光プロジェクターユニット130は単一の光プロジェクターを含む。図1Bにおいて、センサ102は、2つの光プロジェクター130a、130bを含む光プロジェクターユニットについて、異なる実施形態を有する。光プロジェクターは、レーザ光プロジェクター、白色光プロジェクター等であり得る。
例示的な一実施形態において、カメラ110の間の基線150は、170mmで、カメラのレンズの焦点距離は5.7mmである。2つのカメラの光軸の輻輳は約30°である。図2に示される光プロジェクターユニット130について、光面の数は5であるが、変動し得、例えば、1〜15またはそれ以上でさえある。220a、220b、220c、220d、及び220eとラベルをつけられた5つの光面220を作り出す光プロジェクターユニット130の実施形態例200が、図2に図解される。
図1Bの実施形態において、2つの光プロジェクター130a、130bは、図3に示されるように表面上の交差曲線300を創出している異なるパターンを作り出すように配向される。システムは、各々のパターンを交互に投影することになる。曲線310及び320の2つの集合は、それぞれプロジェクター130a、130bによって投影される。それらは、310a、310b、310c、310d、及び310e、ならびに320a、320b、320c、320d、及び320eとラベルをつけられる。例えば、図1Bの実施形態例において、光プロジェクター130a及び130bは、それら自体、オブジェクトに対してある角度で、例えば+30°及び−30°で配向され、異なるパターンを作り出す。
容易に理解されるように、投影ユニット130は、光の2つ以上のパターンを投影し得るプログラム可能な光プロジェクターユニットを含み得る。例えば、投影ユニット130は、同時に、または代わりに、交差曲線300の2つの集合及び追加の光面を投影するようにプログラムされ得る。
カメラ110及び光プロジェクターユニット130は、共通座標系内で較正される。これは、両方のカメラ110について外部パラメータ同様に、歪みパラメータを含む内部パラメータが測定されることを意味する。投影される光のシートの各々は、同じ座標系内で較正される。この例では、光のシートは平面近似である。プロジェクターの波長を整合させるように、カメラレンズ上で帯域フィルタを付加することも可能である。これは、周辺光及び他の源から干渉を減少させることになる。
少なくとも1つのコンピュータプロセッサを用いてそのようなセンサ100を使用して、3D点は、以下のコンピュータ実装方法を応用した後に得られ得る。フレームの2つの画像は、2つのカメラ110を使用して捕捉される。2つの画像は同時に捕捉され、画像の獲得中に場面とセンサ100との間の相対変位が存在しないこと、あるいは、この相対変位が無視し得ることを意味する。カメラは、同時に、または長期間中に順次に、のどちらかで、画像を捕捉するように同期され、その期間中、センサ100の場面に対する相対位置は、同じままであるか、所定のごくわずかな範囲内で変動する捕捉。これらの場合の両方とも、センサによる画像の同時捕捉であると考えられる。
一旦フレームの2つの画像が捕捉されたならば、画像処理は応用される。2つの画像は、カメラ110の2つのそれぞれの視点からの、場面内の投影パターンの反射を含む。反映されたパターンは、各々の画像中の曲線区分の集合として現れる。これらの曲線区分は、画像の中の背景より明るく見えて、最先端技法を使用してセグメント化され得る。1つの技法は、画像信号を閾値化することにある。曲線の輪郭が典型的で、それが、頂上の輪郭として画像中に現れるので、セグメント化検査は応用され得る。幅も検査され得る。騒音の影響を減少させるために、曲線セグメントの長さは、例えば、2ピクセル等のピクセルの所定数に設定される最小限の閾値も上回ることになる。同じ連結された構成要素の部分であるピクセルは、ラベルを用いてインデックスをつけられるブロブを画定する。側面投影の中心の位置は、これらの中心を結合して、多角形を組み立てる前に、ブロブに沿って各々のピクセル線について最後に推定される。
一旦フレームの2つの画像がセグメント化されたならば、エピポーラ面が選択される。例示のエピポーラ面430は、場面420の上にオーバーレイされたエピポーラ面430の図解400である図4に示される。エピポーラ面は、2つのカメラC1及びC2の投影450ならびに460の中心の間で共通線分を共有する。線分C1―C2は、エピポーラ面を画定するための回転軸の働きをする。このように、エピポーラ面の集合は、パラメータ角度、あるいは、同等に画像中のピクセル座標を使用して、インデックスをつけられ得る。エピポーラ面は2つの画面を交差して、このように2つの共役エピポーラ線を画定する。一般性の喪失なく、画像の修正された双眼写真を仮定すると、各々の画像線は、エピポーラ面のインデックスである。図4で図解された場合には、場面420は平面である。プロジェクターPの投影470の中心から生じる光線440は、点線で示される。場面420から反映された曲線輪郭410は、はっきりしている。それらは、410a、410b、410c、410d、及び410eとラベルをつけられる。
図5は、画像、投影パターン、及びオブジェクト上のその反射の図500を描写する。各々のエピポーラ面について、または、画像中のピクセルの各々の線について同等に、両方の画像中で現在の線を交差しているセグメント化されたブロブは、各々の画像についてのブロブのインデックスの一覧を生成することが特定される。第1のカメラC1は、投影552のその中心及びその画像面540によって表示される。第2のカメラC2は、投影554のその中心及びその画像面542によって表示される。プロジェクターPは、投影470の中心及び画像面536によって図解される。図5の実施形態例において真実であるが、プロジェクターの投影470の中心が、カメラの投影552、554の中心間の基線上に置かれることが必要ではない。
画像面とエピポーラ面との間の交差点550は、点線を使用して示される。光線522、520、及び524は、同じエピポーラ面に属している。プロジェクターはオブジェクト544上に光面532を投影し、このように反映された曲線510を作り出す。この反映された曲線510は、次いで、第1のカメラC1(画像化された曲線530)によって捕捉された第1の画像中で画像化される一方で、それはまた、第2のカメラC2(画像化された曲線534)によって捕捉された第2の画像中で画像化される。反映された曲線510上の点546は、次いで、画像化された曲線530、534上に存在し、その3D座標を見出すことを許容するように、これらの画像中で適切に特定及び整合されなければならない。画像化された曲線530、534は、光線522及び520に沿って交点550上で図解されたエピポーラ面を交差し、オブジェクト544上で、反映された曲線510から生じている。
光プロジェクターユニット及びカメラが同じ座標系内で較正されるので、トリプレット(I1、I2、IP)が第1の画像I1中の曲線のインデックス、第2の画像I2中の候補対応曲線のインデックス、及びプロジェクターIP中の光シートのインデックスから成るインデックスのトリプレットにインデックスをつけることが可能である。可能な組み合わせの数は、投影パターン中の光シートの数であるNが増えるにつれての組み合わせの数の増加の位数であるO(N)である。組み合わせの数を制限するために、エピポーラ面内の線光線の交点610を分析して、誤差測定を所与の交点に起因し得る。図6は、2つのカメラ及びプロジェクターからの光線交差の表示600である。光線604及び606は、それぞれカメラC2及びC1によって捕捉される。光線602はプロジェクターPによって投影される。プロジェクターPについて、光線は角度630を使用してインデックスをつけられ得る。いくつかの交点610は、単一の点で交差するように見える交点610b等のより確実な整合である一方で、交点610a及び610c等の他の交差は、より大きな誤差を有する。
図7A及び7Bは、交点に起因し得る2つの例示の誤差測定を図解する。図7Aにおいて、誤差測定700は、点と3つの光線の各々との間の距離の最小の合計である。図7Bにおいて、誤差測定702は、2つのカメラ光線の交差とプロジェクター光線との間の距離である。他の変形も可能である。妥当な組み合わせの数は、閾値を得られた値に加えた後に、かなり減少させることができる。プロジェクターの光のシートが、角度によってインデックスをつけられた面によって近づけることができるとき、第2の誤差測定は、効率的に計算され得る一方で、最も近い面のみを保つことを可能にする。これは、O(N)への整合の複雑さを減少させることになる。
これらの動作を完了した後に、各々が誤差及びエピポーラ面のインデックスに起因される可能性がある整合のトリプレットの一覧を得る。この動作は、ブロブセグメントを交差しているすべてのエピポーラ面について、典型的には、修正された画像の中のピクセルのすべての行について(必然的にではないが)、繰り返される。
それらの関連付けられた誤差及びエピポーラインデックスと一緒のトリプレットは、次いで、エピポーラインデックスに対して追跡される。図8において、エピポーラインデックスに関する誤差のグラフ800は、曲線802、804、806、及び808と共に、4つのトリプレットの各々について描写される。グラフ800は、すべての妥当なトリプレットについての情報を組み合わせる。より重要なことに、それは、所与のトリプレットについて、エピポーラ面に沿ってブロブについてのすべての情報を統合する。このように、例えば、所与の曲線について平均誤差を算出した後に、対応するトリプレットを整合させるために、性能指数を得る。図8において、誤差が曲線806で描写されるトリプレットは、この例において最高の性能指数を作り出すであろう。平均誤差は、閾値を応用した後に、さらに検査され得る。また、曖昧性がないと確信することによって、さらに検査することもできる。実は、短い曲線区分について、2つ以上のトリプレットが低い平均誤差を示し得る。この場合、整合は拒絶されるだろう。曲線808に関して真実であるように、曲線が、最高の性能指数を有する曲線よりも、低い最小値に局所的に達し得ることが注目される。これは、例えば、投影された光シートが完全に較正されないとき、あるいは、より高い誤差が画像中の曲線のピーク検出において存在するとき、起こることになる。図8は、特定された曲線が必ずしも同じ長さであるというわけではないことをさらに示す。それは、両方の画像中の反射された曲線の可視性次第ということになる。
所与のフレームについての整合工程の完了後、3D点は、各々のトリプレットについて観察から算出される。そのために、空間で3D点と3つの光線の各々との間の距離を最小にし得る。次いで、投影された光シートが、パラメータ的に、あるいは、参照表(LUT)を使用して、非常によく較正され、より正確な測定を最終的に得ることが仮定される。現実的応用において、市販の光学構成要素を通して作り出された投影された光シートは、面に正確には対応しない場合がある。このため、LUTの使用は、より適切である場合がある。別の可能な手法は、3D点の最終的な算出のために2つのカメラからの画像を利用することにのみある。さもなければ、2D画像中で、3D点の再投影誤差を最小にし得る。次いで、投影面を正確に較正することは必要ではない。その上、この後者の場合において、3D測定は、オブジェクトの表面上のテクスチャ不連続性等の反射信号の輪郭によって、より影響を受けない。結果として生じる3D点は、より正確である。3D点の集合を算出した後に、3D曲線のセグメントを得る。
整合方法900のための例示の工程は、図9に示される。ブロブは、両方の画像の中で抽出される910。エピポーラ面は選択される920。選択されたエピポーラ面に沿ったすべての妥当なトリプレット組み合わせは、特定される930。性能指数は、トリプレット組み合わせの各々のために算出される940。すべての性能指数が算出されるとき、各々の画像ブロブは最も妥当なトリプレットと関連付けられる950。各々の整合は検査される960。3D点の集合は、次いで算出される970。
その方法は、エピポーラ面の各々に沿って独立した整合とは対照的に、いくつかのエピポーラ面の上に整合されるブロブの空間連続性から利益を得る。それでも、いくつかの整合誤差が残る可能性がまだある。例えば、ブロブは、特定の幾何形状の上の2つの曲線の付帯的な投影のために、1つの画像中に「Y」形構造として現れ得る。さらにその上、面の数が、例えば15を超えて増加するならば、曖昧性の数もまた増加し得る。しかしながら、米国特許第7,487,063号に記載のような表面再構築方法が入力として3D点を取るとき、それらの曖昧性は、表面に影響を及ぼすように、一方から他方のフレームまで持続的なままでなければならない。その表面が複数の観察が獲得された領域で再構築されるので、実は、この種の手法は、異常値観察を除くためによく適応される。
携帯型3Dセンサシステム内で統合されるとき、それは、共通座標系内で3D点を統合するために、オブジェクトとセンサとの間の相対運動が存在し、そのシステムが各々のフレームにおいてその位置を推定するときである。そのシステムは、例えば、再帰反射標的等の標的を使用して、あるいは、オブジェクトが剛性(または「準剛性」)であるとき、オブジェクトの幾何形状またはテクスチャを使用して、各々のフレームにおいてセンサの位置を推定し得る。そのシステムがテクスチャを捕捉するカメラをさらに統合するとき、センサのポーズはテクスチャ特性を整合させた後に算出され得る。
図3に示される実施形態例において、面上に投影されるとき、光シートの2つのそのような集合は、この場合平行線である曲線310及び320の2つの集合を作り出す。そのシステムは、次いで、異なる配向を用いて光シートの交互の集合を投影する。オブジェクトの表面上で捕捉されるであろう3D曲線区分は、観察されたオブジェクトの表面上で局所接ベクトルを推定することを可能にする。その上、光シート集合を交互にする一方、局所接ベクトルは、異なる方向に沿って、かつこれらの3D接ベクトルから算出され得、表面法線配向を算出することになる。表面法線情報は、3D表面再構築を向上するのを補助し得る。
図10は、システム980の例示の主要構成要素を示しているブロック図である。センサ982は、少なくとも1つの光プロジェクターを含む光プロジェクターユニット988だけでなく、第1のカメラ984及び少なくとも第2のカメラ986を含む。フレーム生成装置990は、単一のフレーム中でカメラによって捕捉された画像をアセンブルするのに使用され得る。センサ982は、フレームの画像間で点を整合させるための処理工程を実装するために、少なくとも1つのコンピュータプロセッサ992と通信している。コンピュータプロセッサ(複数可)992は、出力装置994と電子通信して、整合された点及び/または任意の追加のもしくは中間出力を出力する。容易に理解されるように、プロセッサ(複数可)992及び/またはセンサ982による使用のためにデータを入力する必要がある場合がある。したがって、入力装置(複数可)996は、このために提供され得る。
容易に理解されるように、本明細書に記載の方法が、2つの画像を用いて実行され、それによってトリプレットの組み合わせを形成するが、3つ以上の画像は、フレームにつき獲得され得、それらの組み合わせは、4つ以上の要素を含み得る。代わりに、または追加として、3つ以上の画像がフレームにつき獲得されるならば、これらの画像のうちの2つについてのトリプレットの組み合わせは、点を整合させるのに使用され得、追加の画像(複数可)は、整合を検査するのに使用され得る。
上述の技法は、例えば、ハードウェア、コンピュータ可読媒体上に有形に記憶されたソフトウェア、ファームウェア、またはそれらの任意の組み合わせで実装され得る。上述の技法は、プロセッサ、プロセッサによって読み取り可能な記憶媒体(例えば、揮発性及び不揮発性メモリならびに/または記憶要素を含む)、少なくとも1つの入力装置、ならびに少なくとも1つの出力装置を含むプログラム可能なコンピュータ上で実行している1つ以上のコンピュータプログラムに実装され得る。入力装置を使用して、記述された機能を実施して、出力を生成するように入力された入力に、プログラムコードは応用され得る。出力は、1つ以上の出力装置に提供され得る。
下記の特許請求の範囲内の各々のコンピュータプログラムは、アセンブラ言語、機械語、高水準手続き型プログラム言語、またはオブジェクト指向プログラム言語等の任意のプログラム言語で、実装され得る。プログラム言語は、例えば、編集または解釈されたプログラム言語であり得る。
各々のコンピュータプログラムは、コンピュータプロセッサによる実行のために機械可読記憶機器内に有形に具体化されたコンピュータプログラム製品に実装され得る。本発明の方法工程は、コンピュータ可読媒体上に有形に具体化されたプログラムを実行しているコンピュータプロセッサによって実施されて、入力を動作させて、出力を生成することによって本発明の機能を実施し得る。好適なプロセッサは、例えば、一般的な及び特別な目的のマイクロプロセッサーを含む。概して、プロセッサは、読取り専用メモリ及び/またはランダムアクセスメモリから命令ならびにデータを受信する。コンピュータプログラム命令を有形に具体化するのに好適な記憶装置は、例えば、EPROM、EEPROMを含む半導体メモリ、及びフラッシュメモリ装置等の不揮発性メモリ装置のすべての形態;内蔵ハードディスク及び取り外し可能ディスク等の磁気ディスク;光磁気ディスク;ならびにCD―ROMを含む。前述のいずれも、特殊設計のASIC(特定用途向け集積回路)またはFPGA(フィールドプログラマブルゲートアレイ)によって補遺をつけられるか、それによって組み込まれ得る。コンピュータは、概して、内蔵ディスク(図示せず)または取り外し可能ディスク等の記憶媒体から、プログラム及びデータを受信することもできる。これらの要素は、本明細書に記載された方法を実装しているコンピュータプログラムを実行するのに好適な、従来のデスクトップ、携帯コンピュータ、またはワークステーションコンピュータ、ならびに他のコンピュータでも見出されることになり、それらは、紙、フィルム、表示スクリーン、または他の出力媒体上にカラーまたはグレースケールのピクセルを作り出すことが可能な、任意のデジタル印刷エンジンもしくはマーキングエンジン、表示モニタ、または他のラスタ出力装置と併せて使用され得る。タブレット、ファブレット、スマートフォン、パーソナル携帯情報機器、携帯コンピュータ、ラップトップ、装着型コンピュータ等、本明細書に記載のコンピュータプログラムを実行するのに好適な他のモバイル装置も、使用することができる。
上記の説明が、本発明者らによって現在企図されるような実施形態例に関するものであるが、本発明が、その広い態様において、本明細書に記載の要素の均等物及び変形を含むことが理解されるだろう。上述の実施形態は、典型的であることのみが意図される。したがって、本発明の範囲は、添付の特許請求の範囲のみによって制限されることが意図される。

Claims (12)

  1. 場面の2つの画像の間で点を整合させるために少なくとも1つのコンピュータプロセッサによって実施される、コンピュータ実装方法であって、
    センサによって獲得された2つの画像を取り出すことであって、前記2つの画像が、前記場面と前記センサとの間の単一の相対位置で捕捉されたフレームを形成し、前記画像が各々、前記場面上の投影パターンの反射を含むことと、
    前記画像の中の前記反射からブロブを抽出して、固有の識別子で前記ブロブに個別にラベルをつけることと、
    エピポーラ面の集合から選択されたエピポーラ面を選択して、前記画像の各々の上で共役エピポーラ線を画定することと、
    妥当な組み合わせを特定することであって、前記妥当な組み合わせが、前記画像の各々の中の前記ブロブから選択された妥当なブロブに関する、前記投影パターン及び前記固有の識別子の光シートラベルを含み、前記妥当なブロブが、前記共役エピポーラ線を交差することと、
    前記妥当な組み合わせの各々について整合誤差を算出することと、
    前記エピポーラ面の集合の各々のエピポーラ面について、前記選択する工程、特定する工程、及び算出する工程を繰り返すことと、
    前記エピポーラ面の集合の各々のエピポーラ面についての前記整合誤差を使用して前記妥当な組み合わせのために性能指数を計算することによって、最も確実な組み合わせを判定することと、
    前記最も確実な組み合わせから前記フレーム中の整合点を特定することと、
    前記フレーム中の前記整合点を特定している出力を生成することと、を含む、前記方法。
  2. 前記センサが、2つのカメラ及び光プロジェクターユニットを有し、前記投影パターンが、少なくとも1つの光のシートを前記場面上に投影している前記光プロジェクターユニットによって提供され、前記カメラ及び前記光プロジェクターユニットが、共通座標系内で較正される、請求項1に記載の前記方法。
  3. 前記性能指数が整合閾値の質を満たすことができないならば前記整合点を破棄するように、前記整合点を検査することをさらに含む、請求項1及び2のいずれか一項に記載の前記方法。
  4. 複数のフレームについて前記コンピュータ実装方法を繰り返すことをさらに含む、請求項1〜3のいずれか一項に記載の前記方法。
  5. 前記フレーム内の前記整合点を使用して、3D点の集合を算出することをさらに含む、請求項1〜4のいずれか一項に記載の前記方法。
  6. 前記センサの位置を各々のフレームにおいて推定して、前記3D点を共通座標系内で統合することをさらに含み、前記センサの前記位置を前記推定することが、前記場面、前記場面の幾何形状、及び前記場面のテクスチャに付加された標的のうちの少なくとも1つを使用することを含む、請求項5に記載の前記方法。
  7. 前記3D点の集合を前記算出するために前記画像を利用して、3D曲線のセグメントを得ることをさらに含む、請求項5に記載の前記方法。
  8. 場面の2つの画像の間で点を整合させるためのシステムであって、
    センサであって、
    少なくとも1つの光のシートを前記場面上に投影し、それによって前記場面上の投影パターンを提供する光プロジェクターユニットと、
    前記場面の前記2つの画像を獲得するための2つのカメラであって、前記2つの画像が、前記場面と前記センサとの間の単一の相対位置で捕捉されたフレームを形成し、前記画像が各々、前記場面上の前記投影パターンの反射を含む、2つのカメラと、を含み、
    前記カメラ及び前記光プロジェクターユニットが、共通座標系内で較正される、センサと、
    前記センサと電子通信している、少なくとも1つのコンピュータプロセッサであって、
    前記カメラによって獲得された前記2つの画像を取り出し、
    前記画像の中の前記反射からブロブを抽出して、固有の識別子で前記ブロブに個別にラベルをつけ、
    エピポーラ面の集合から選択されたエピポーラ面を選択して、前記画像の各々の上で共役エピポーラ線を画定し、
    妥当な組み合わせを特定し、前記妥当な組み合わせが、前記画像の各々の中の前記ブロブから選択された妥当なブロブに関する、前記投影パターン及び前記固有の識別子の光シートラベルを含み、前記妥当なブロブが、前記共役エピポーラ線を交差し、
    前記妥当な組み合わせの各々について整合誤差を算出し、
    前記エピポーラ面の集合の各々のエピポーラ面について、前記選択する工程、特定する工程、及び算出する工程を繰り返し、
    前記エピポーラ面の集合の各々のエピポーラ面についての前記整合誤差を使用して前記妥当な組み合わせのために性能指数を計算することによって、最も確実な組み合わせを判定し、
    前記最も確実な組み合わせから前記フレーム中の整合点を特定するための、コンピュータプロセッサと、
    前記フレーム中の前記整合点を特定している出力を生成するための、前記プロセッサと電子通信している、少なくとも1つのコンピュータ出力と、を含む、前記システム。
  9. 前記光プロジェクターユニットが、2つの光プロジェクターを含み、各々の光プロジェクターが少なくとも1つの光のシートを前記場面上に投影し、前記投影パターンが、各々のフレームにおいて前記2つの光プロジェクターのうちのいずれか1つによって提供され、前記投影パターンが、前記2つの光プロジェクターの各々について異なる、請求項8に記載の前記システム。
  10. 前記少なくとも1つの光のシートが光の面である、請求項8及び9のいずれか一項に記載の前記システム。
  11. 少なくとも1つのコンピュータプロセッサによって実行されるとき、請求項1〜7のいずれか一項に記載の前記方法の工程を実施する、コンピュータ実行可能命令を上に記憶しているコンピュータ可読メモリを備える、コンピュータプログラム製品。
  12. 少なくとも1つのコンピュータプロセッサによる実行のために上に文及び命令を記録したコンピュータ可読メモリであって、前記文及び命令が、
    センサによって獲得された2つの画像を取り出すためのコード手段であって、前記2つの画像が、前記場面と前記センサとの間の単一の相対位置で捕捉されたフレームを形成し、前記画像が各々、前記場面上の投影パターンの反射を含むための、コード手段と、
    前記画像の中の前記反射からブロブを抽出して、固有の識別子で前記ブロブに個別にラベルをつけるためのコード手段と、
    エピポーラ面の集合から選択されたエピポーラ面を選択して、前記画像の各々の上で共役エピポーラ線を画定するためのコード手段と、
    妥当な組み合わせを特定することであって、前記妥当な組み合わせが、前記画像の各々の中の前記ブロブから選択された妥当なブロブに関する、前記投影パターン及び前記固有の識別子の光シートラベルを含み、前記妥当なブロブが、前記共役エピポーラ線を交差するためのコード手段と、
    前記妥当な組み合わせの各々について整合誤差を算出するためのコード手段と、
    前記エピポーラ面の集合の各々のエピポーラ面について、前記選択する工程、特定する工程、及び算出する工程を繰り返すためのコード手段と、
    前記エピポーラ面の集合の各々のエピポーラ面についての前記整合誤差を使用して前記妥当な組み合わせのために性能指数を計算することによって、最も確実な組み合わせを判定するためのコード手段と、
    前記最も確実な組み合わせから前記フレーム中の整合点を特定するためのコード手段と、
    前記フレーム中の前記整合点を特定している出力を生成するためのコード手段と、を備える、前記コンピュータ可読メモリ。
JP2016547542A 2014-02-05 2015-02-04 2つのカメラからの曲線の集合の構造化光整合 Active JP6596433B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201461936033P 2014-02-05 2014-02-05
US61/936,033 2014-02-05
PCT/IB2015/050856 WO2015118467A1 (en) 2014-02-05 2015-02-04 Structured light matching of a set of curves from two cameras

Publications (2)

Publication Number Publication Date
JP2017510793A true JP2017510793A (ja) 2017-04-13
JP6596433B2 JP6596433B2 (ja) 2019-10-23

Family

ID=53777380

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016547542A Active JP6596433B2 (ja) 2014-02-05 2015-02-04 2つのカメラからの曲線の集合の構造化光整合

Country Status (7)

Country Link
US (1) US10271039B2 (ja)
EP (1) EP3102908B1 (ja)
JP (1) JP6596433B2 (ja)
KR (1) KR102424135B1 (ja)
CN (1) CN105960570B (ja)
CA (1) CA2938104C (ja)
WO (1) WO2015118467A1 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10643343B2 (en) 2014-02-05 2020-05-05 Creaform Inc. Structured light matching of a set of curves from three cameras
GB201407270D0 (en) * 2014-04-24 2014-06-11 Cathx Res Ltd 3D data in underwater surveys
US9674504B1 (en) * 2015-12-22 2017-06-06 Aquifi, Inc. Depth perceptive trinocular camera system
US9992472B1 (en) * 2017-03-13 2018-06-05 Heptagon Micro Optics Pte. Ltd. Optoelectronic devices for collecting three-dimensional data
JP7005175B2 (ja) * 2017-05-30 2022-01-21 キヤノン株式会社 距離測定装置、距離測定方法及び撮像装置
US10606079B1 (en) * 2017-06-06 2020-03-31 Rockwell Collins, Inc. Image integrity monitoring systems and methods for light processing based head up displays
CN108269279B (zh) * 2017-07-17 2019-11-08 先临三维科技股份有限公司 基于单目三维扫描系统的三维重构方法和装置
US10818024B2 (en) * 2018-03-26 2020-10-27 Simmonds Precision Products, Inc. Ranging objects external to an aircraft using multi-camera triangulation
US20200292297A1 (en) 2019-03-15 2020-09-17 Faro Technologies, Inc. Three-dimensional measurement device
US11930155B2 (en) 2020-12-23 2024-03-12 Faro Technologies, Inc. Handheld scanner for measuring three-dimensional coordinates
US11908162B2 (en) 2020-12-23 2024-02-20 Faro Technologies, Inc. Line scanner having target-tracking and geometry-tracking modes
DE102021108232A1 (de) 2021-03-31 2022-10-06 Carl Zeiss Industrielle Messtechnik Gmbh Messgerät zur 3D-Erfassung einer Oberfläche

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011530071A (ja) * 2008-08-06 2011-12-15 クリアフォーム インコーポレイティッド 表面特徴の適応型3次元走査システム
US8538166B2 (en) * 2006-11-21 2013-09-17 Mantisvision Ltd. 3D geometric modeling and 3D video content creation
JP2013210254A (ja) * 2012-03-30 2013-10-10 Canon Inc 三次元計測装置、三次元計測方法及び三次元計測プログラム

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5589942A (en) * 1990-04-05 1996-12-31 Intelligent Automation Systems Real time three dimensional sensing system
EP0551274A1 (en) * 1990-05-29 1993-07-21 Axiom Bildverarbeitungssysteme Gmbh Determination of mutually corresponding features in associated two-dimensional partial images of a three-dimensional scene
US5383013A (en) * 1992-09-18 1995-01-17 Nec Research Institute, Inc. Stereoscopic computer vision system
JP3539788B2 (ja) * 1995-04-21 2004-07-07 パナソニック モバイルコミュニケーションズ株式会社 画像間対応付け方法
WO2004088245A1 (en) * 2003-03-27 2004-10-14 Zanen Pieter O Method of solving the correspondence problem in convergent stereophotogrammetry
KR100526817B1 (ko) * 2003-04-22 2005-11-08 학교법인 중앙대학교 스테레오 영상 구현 시 기본행렬을 구하는 방법
WO2004111927A2 (en) 2003-06-13 2004-12-23 UNIVERSITé LAVAL Three-dimensional modeling from arbitrary three-dimensional curves
WO2005010825A2 (en) 2003-07-24 2005-02-03 Cognitens Ltd. Method and sytem for the three-dimensional surface reconstruction of an object
WO2006094409A1 (en) 2005-03-11 2006-09-14 Creaform Inc. Auto-referenced system and apparatus for three-dimensional scanning
CN100554873C (zh) * 2007-07-11 2009-10-28 华中科技大学 一种基于二维编码的三维形貌测量方法
CN102042814B (zh) 2010-06-24 2012-03-07 中国人民解放军国防科学技术大学 大型堆场三维形貌的投影辅助摄像测量方法
CN102175182B (zh) * 2011-01-27 2012-10-10 浙江大学宁波理工学院 结构光三维测量装置及其完整点云数据的获取方法
JP5635218B1 (ja) * 2011-11-23 2014-12-03 クレアフォーム・インコーポレイテッドCreaform Inc. 空間コード化スライド画像に対するパターンのアライメント方法およびシステム
WO2013145655A1 (ja) 2012-03-26 2013-10-03 パナソニック株式会社 リモコン制御システム
CN106403845B (zh) 2016-09-14 2017-10-03 杭州思看科技有限公司 三维传感器系统及三维数据获取方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8538166B2 (en) * 2006-11-21 2013-09-17 Mantisvision Ltd. 3D geometric modeling and 3D video content creation
JP2011530071A (ja) * 2008-08-06 2011-12-15 クリアフォーム インコーポレイティッド 表面特徴の適応型3次元走査システム
JP2013210254A (ja) * 2012-03-30 2013-10-10 Canon Inc 三次元計測装置、三次元計測方法及び三次元計測プログラム

Also Published As

Publication number Publication date
US20160350929A1 (en) 2016-12-01
CA2938104A1 (en) 2015-08-13
EP3102908A4 (en) 2017-01-25
KR20160121509A (ko) 2016-10-19
EP3102908A1 (en) 2016-12-14
CN105960570B (zh) 2019-03-22
JP6596433B2 (ja) 2019-10-23
WO2015118467A1 (en) 2015-08-13
CA2938104C (en) 2019-12-17
KR102424135B1 (ko) 2022-07-25
EP3102908B1 (en) 2018-12-12
CN105960570A (zh) 2016-09-21
US10271039B2 (en) 2019-04-23

Similar Documents

Publication Publication Date Title
JP6596433B2 (ja) 2つのカメラからの曲線の集合の構造化光整合
US10643343B2 (en) Structured light matching of a set of curves from three cameras
Zennaro et al. Performance evaluation of the 1st and 2nd generation Kinect for multimedia applications
US8339616B2 (en) Method and apparatus for high-speed unconstrained three-dimensional digitalization
US7430312B2 (en) Creating 3D images of objects by illuminating with infrared patterns
JP5317169B2 (ja) 画像処理装置、画像処理方法およびプログラム
Wang et al. Robust active stereo vision using Kullback-Leibler divergence
JP5631025B2 (ja) 情報処理装置、その処理方法及びプログラム
JP6465682B2 (ja) 情報処理装置、情報処理方法及びプログラム
CN106595519B (zh) 一种基于激光mems投影的柔性三维轮廓测量方法及装置
US20180091798A1 (en) System and Method for Generating a Depth Map Using Differential Patterns
JP4379626B2 (ja) 3次元形状計測方法及びその装置
US20220092345A1 (en) Detecting displacements and/or defects in a point cloud using cluster-based cloud-to-cloud comparison
JP2008275366A (ja) ステレオ3次元計測システム
Harvent et al. Multi-view dense 3D modelling of untextured objects from a moving projector-cameras system
US20210156881A1 (en) Dynamic machine vision sensor (dmvs) that performs integrated 3d tracking
Brink et al. Indexing Uncoded Stripe Patterns in Structured Light Systems by Maximum Spanning Trees.
Rodrigues et al. Structured light techniques for 3D surface reconstruction in robotic tasks
Arold et al. Hand-guided 3D surface acquisition by combining simple light sectioning with real-time algorithms
Munaro et al. Fast 2.5 D model reconstruction of assembled parts with high occlusion for completeness inspection
JP6570321B2 (ja) 情報処理装置、情報処理方法及びプログラム
Yoshida et al. Three-dimensional measurement using multiple slits with a random dot pattern—multiple slits and camera calibration
Chan et al. On fusion of active range data and passive stereo data for 3d scene modelling
CA3223018A1 (en) 3d scanner with structured light pattern projector and method of using same for performing light pattern matching and 3d reconstruction
Senthilnathan et al. Non-metrical scene reconstruction using a quasi-calibrated prime lens based camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171114

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180906

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180911

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181211

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190122

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20190418

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190624

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190903

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190930

R150 Certificate of patent or registration of utility model

Ref document number: 6596433

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250