JP2017531258A - カメラ画像で投影構造パターンの構造要素を特定する方法および装置 - Google Patents

カメラ画像で投影構造パターンの構造要素を特定する方法および装置 Download PDF

Info

Publication number
JP2017531258A
JP2017531258A JP2017514599A JP2017514599A JP2017531258A JP 2017531258 A JP2017531258 A JP 2017531258A JP 2017514599 A JP2017514599 A JP 2017514599A JP 2017514599 A JP2017514599 A JP 2017514599A JP 2017531258 A JP2017531258 A JP 2017531258A
Authority
JP
Japan
Prior art keywords
camera
structural
projector
image
pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017514599A
Other languages
English (en)
Other versions
JP6625617B2 (ja
Inventor
ヴェンドラー,マルティン
Original Assignee
ピルツ ゲーエムベーハー アンド コー.カーゲー
ピルツ ゲーエムベーハー アンド コー.カーゲー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ピルツ ゲーエムベーハー アンド コー.カーゲー, ピルツ ゲーエムベーハー アンド コー.カーゲー filed Critical ピルツ ゲーエムベーハー アンド コー.カーゲー
Publication of JP2017531258A publication Critical patent/JP2017531258A/ja
Application granted granted Critical
Publication of JP6625617B2 publication Critical patent/JP6625617B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Optics & Photonics (AREA)
  • Electromagnetism (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

【課題】カメラ画像で、シーンに投影される構造パターンの個々の構造要素を特定する方法を提供する。【解決手段】シーン(14)に構造パターン(16)を投影するためにプロジェクタ(36)を使用し、前記構造パターン(16)を取り込むために第1カメラ(M)および少なくとも1つの第2カメラ(H,V)を使用する。第1カメラ(M)および第2カメラ(H,V)は互いから離して位置付けられており、プロジェクタ(36)は第1カメラおよび第2カメラ(M,H,V)を結ぶ線分(26,28)の外側に、第1カメラ(M)および第2カメラ(H,V)から離して位置付けられている。第1カメラ(M)のカメラ画像で特定されるべき構造要素(12)に関して、個々の構造要素(12)について、各構造要素(12)を第1カメラ(M)およびプロジェクタ(36)の位置および配向に相関させる第1パラメータと、各構造要素(12)を第2カメラ(H,V)およびプロジェクタ(36)の位置および配向に相関させる少なくとも第2パラメータとの組み合わせを有する校正データによって、第2カメラ(V,H)のカメラ画像において、第1カメラ(M)のカメラ画像で特定されるべき構造要素(12)と一対一対応で関連付けることのできる構造要素(12)を判別する。当該校正データは第1カメラおよび第2カメラ(M,H,V)を使用して、プロジェクタ(36)によって投影される構造パターン(16)の校正画像(76,78)を記録することによって取得される。【選択図】図7

Description

本発明は、カメラ画像で、シーンに投影される構造パターンの構造要素を特定する方法に関するものである。
本発明はさらに、特に前述の方法を実施するために、カメラ画像で、シーンに投影される構造パターンの構造要素を特定する装置に関するものである。
本発明はさらに、危険ゾーン、特にプレスやロボットなどの機械の危険ゾーンを監視する、特に安全確保をするための、前述の方法および/または前述の装置の使用に関するものである。
本発明の状況において、「シーン」とは、特にカメラが監視する三次元の危険ゾーンを意味すると理解される。人などの動く物体がシーンに存在することがある。特にその場合、カメラは人またはその体の部分が自動的に作動する機械に危険なほど近くに位置し、または接近するかどうかに関して、シーンを監視する。
危険ゾーン、特に機械および工業プラントの危険ゾーンを監視するために、特許文献1に記述されるように、カメラを使用することは周知である。ここでは、3Dセキュリティカメラが開示されており、これは第1および第2の画像センサを有し、それぞれ空間領域の画像データを生成することができる。3Dセキュリティカメラは、シーン、つまり空間領域に構造化された照明パターンを生成するプロジェクタと一緒に動作する。立体視の原理によると、評価ユニットが画像データから空間領域のデプスマップを生成し、空間領域に容認できない侵入がないか監視される。
立体カメラの画像ペアの立体視の評価中、低コントラストの物体または監視される空間領域内の繰り返し構造のために、計測誤差が生じるおそれがある。このため、前述の文書に記述されるように、カメラ画像のコントラストを向上させるために、構造パターンをカメラの視野に投影する。ここでは、同じく前述の文書ですでに開示されているように、構造パターンを規則的なドットパターンとして使用することが有利である。ドットパターンとしての構造パターンのほうが、くっきりと表されそれを投影するのに必要な照射エネルギが少ない点で、より複雑な構造パターンを用いるよりも有利である。
本発明の状況における投影構造パターンは、光学的な構造パターン、言い換えると、光の点(light spots)からなるパターンである。
しかし、構造パターンとして、ドットパターン、特に均質なドットパターンを使用する場合、カメラ画像のドットがシーンに投影されるドットに誤って割り当てられることが頻繁に発生するという問題が生じる。これはカメラ画像内のある投影構造要素の位置が一般にカメラからの投影構造要素の現在の距離に依存し、同様に、構造要素が投影される物体の幾何学形状にも依存するからである。言い換えると、カメラ画像内の構造要素の位置は距離および物体の幾何学形状に依存して変わり、一般にカメラ間で異なるおそれがある。
カメラ画像のドットをシーンに投影されるドットに誤って割り当てられると、シーン内の物体からの距離が誤って判断されることになる。誤った距離の計測はさらに、例えば、危険ゾーン内に位置する物体がカメラによって危険ゾーンの外側にあるように観測される場合には危険な状況が生じるという結果を発生させ、または、物体が危険ゾーンの外側にあるのに、誤った距離の計測のためにカメラによって危険ゾーン内にあるように観測され、そのため機械の電源が切られる。このため、危険ゾーン内の機械の有用性が不十分になるという結果になる。
特許文献2によるカメラ画像内の構造要素をシーンに投影される構造要素に誤って割り当てられる問題の解決策は、より複雑な構造パターンを、少なくとも部分領域において、非均質、不規則かつ非自己相似性のシーンに投影することである。しかし、このようなより複雑な構造パターンの生成は、装置の点で高額な出費、つまりプロジェクタの複雑さに鑑みて不利である。
特許文献3はプロジェクタから被加工物に光線を投影する三次元計測装置を開示しており、光線が投影される被加工物の像を立体カメラが取り込む。装置の制御装置は取り込まれた立体像の第1画像の輝線と光切断面との間の対応を一時的に特定して、光切断面に輝線を投影する。光切断面に投影される輝線は第2画像に投影される。制御装置は第2画像に投影される輝線と、第2画像内の輝線との類似度を計算して、投影された輝線と第2画像内の輝線との特定される対応関係の結果を判別する。
特許文献4は、アイテムの表面幾何形状をスキャンしてデジタル化するハンドヘルド三次元スキャナを開示している。
特許文献5は、空間領域を監視して安全確保をするための3Dセキュリティカメラを開示している。セキュリティカメラは少なくとも1つの半導体光源を有する照明ユニットを有する。半導体光源は少なくとも10Wの高い光出力を発生し、これが監視される空間領域の環境光の変動とは独立して、信頼性のある評価のための密なデプスマップの生成を可能にする。
特許文献6は、強く湾曲した反射面も計測する装置を開示している。ここでは面に反射されるパターンを観察して評価する。反射パターンは複数の方向から観察する。さまざまな観察方向について判別される面法線が互いに対して最も小さい偏差を有する計測空間内の部位を判断することにより評価を行う。
欧州特許出願公開第2 133 619 A1号明細書 欧州特許出願公開第2 019 281 A1号明細書 国際特許出願公開WO 2013/145665 A1号明細書 米国特許出願公開第2008/0201101 A1号明細書 独国実用新案出願公開第20 2008 017 729 U1号明細書 独国特許第10 2004 020 419 B3号明細書
本発明は、カメラ画像において、シーンに投影される構造パターンの構造要素を、複雑で不均質、不規則な、時間または空間コード化された構造パターンを必要とすることなく、確実に特定することのできる方法および装置を規定することを目的とする。
この目的を達成するために、カメラ画像において、シーンに投影される構造パターンの構造要素の信頼性のある特定の方法が提供される。前記方法において、前記構造パターンを前記シーンに投影するプロジェクタが使用され、第1カメラおよび少なくとも1つの第2カメラを使用して前記シーンに投影される前記構造パターンを取り込み、前記第1カメラおよび前記少なくとも1つの第2カメラを互いから離して位置付け、前記プロジェクタは前記第1カメラと少なくとも1つの第2カメラとを結ぶ線分の外側に、前記第1カメラおよび前記少なくとも1つの第2カメラから離して位置付け、前記第1カメラの前記カメラ画像で特定されるべき構造要素に関して、個々の構造要素の各場合において、前記各構造要素を前記第1カメラおよび前記プロジェクタの位置および配向に相関させる第1パラメータと、前記各構造要素を前記少なくとも1つの第2カメラおよび前記プロジェクタの位置および配向に関連付ける少なくとも第2パラメータとの組み合わせを有する校正データによって、前記少なくとも1つの第2カメラの前記カメラ画像において、前記第1カメラの前記カメラ画像で特定されるべき前記構造要素と一対一対応で関連付けることのできる構造要素を判別し、当該校正データは、前記第1カメラおよび少なくとも1つの第2カメラを使用して、前記プロジェクタが投影する前記構造パターンの校正画像を記録することによって取得する。
本発明によると、特に前述の方法を実施するために、カメラ画像において、シーンに投影される構造パターンの構造要素を確実に特定する装置がさらに提供される。この装置は、前記構造パターンを前記シーンに投影するプロジェクタを具備し、前記シーンに投影される前記構造パターンを取り込む第1カメラおよび少なくとも1つの第2カメラをさらに具備し、前記第1カメラおよび前記少なくとも1つの第2カメラは互いに離れて位置付けられており、前記プロジェクタは前記第1および少なくとも1つの第2カメラを結ぶ線分の外側に、前記第1カメラおよび前記少なくとも1つの第2カメラから離して位置付けられており、前記個々の構造要素について、それぞれの場合において前記各構造要素と前記第1カメラおよび前記プロジェクタの位置および配向とを相関させる第1パラメータと、前記各構造要素と前記少なくとも1つの第2カメラおよび前記プロジェクタの位置および配向とを相関させる少なくとも第2パラメータとの組み合わせを有する校正データが格納される記憶装置をさらに具備し、前記校正データを使用して、前記第1カメラの前記カメラ画像で特定されるべき構造要素に関して、前記少なくとも1つのカメラの前記カメラ画像において、前記第1カメラの前記カメラ画像で特定されるべき前記構造要素に一対一対応で関連付けることのできる構造要素を判別するようになされた計算ユニットをさらに具備する。
本発明の状況における「カメラ」という用語は、一般的な意味を有することが意図される。カメラとは、例えば、単に関連の光学系を備える画像センサを意味すると理解することができる。第1カメラも、少なくとも1つの第2カメラも、2つの画像センサが互いから側方に離れて共通のハウジングに収容されていることを意味することが意図され、前記画像センサはそれぞれの場合において共通の結像光学系または個別の結像光学系を割り当てることができる。しかし、第1カメラおよび少なくとも1つの第2カメラは、それ自体のハウジングおよびそれ自体の結像光学系を有する個別のスタンドアローン型のカメラとすることもできる。
本発明による方法および本発明による装置は、プロジェクタの位置および配向、例えばその射出瞳および各個々の構造要素の透過方向と、少なくとも2つのカメラの位置および配向、例えばその射出瞳の位置および配向ならびにそのビュー方向との正確な知識の原則に基づく。この正確な知識を得るために、本発明による方法は、例えば少なくとも2つのカメラおよびプロジェクタの設置時に、構造パターンの校正画像を記録して、それから校正データを取得する。校正データは、個々の構造要素について、それぞれの場合において各構造要素を第1カメラおよびプロジェクタの位置および配向に相関させる第1パラメータと、各構造要素を少なくとも1つの第2カメラおよびプロジェクタの位置および配向と相関させる第2パラメータとの組み合わせを有する。投影構造パターンの構造要素は、校正中に個々の構造要素、好ましくは各構造要素に割り当てられるこれらのパラメータの組み合わせのおかげで、一意に判別される。
本発明による装置において、取得されたこの校正データは記憶ユニットに格納される。本発明による方法において、少なくとも1つの第2カメラのカメラ画像内の構造要素と第1カメラのカメラ画像内の構造要素とを一対一対応で割り当てられるようにするために、校正データはさらに、少なくとも2つのカメラのカメラ画像内の構造パターンのうち、シーンに投影される構造要素の特定に使用する。
本発明による方法および本発明による装置は、第1および少なくとも1つの第2カメラのカメラ画像内の構造要素をシーンに投影される構造要素に確実に割り当てられるようにする。本発明による方法および本発明による装置を用いて、監視される空間領域内の物体からの距離の正確な計測基礎が確立される。これによって、カメラシステムは、例えば、物体が危険ゾーン内、またはその外に位置するかを確実に評価することができる。
少なくとも2つのカメラおよびプロジェクタの互いに対する位置および配向は、校正画像を記録することによってその校正から分かり、カメラエピポーラ線として知られる少なくとも2つのカメラの直線は、2つのカメラの互いに対する既知の位置および配向から判別可能である。プロジェクタの少なくとも2つのカメラに対する位置および配向も校正によって分かり、この知識に基づいて、第1カメラとプロジェクタおよび少なくとも1つの第2カメラとプロジェクタのペアリングの照明エピポーラ線として知られる別の直線が判別可能である。
少なくとも2つのカメラにおいて、構造要素の画像は必ず各カメラのエピポーラ線上に位置する。どのカメラエピポーラ線上に構造要素の画像がくるか、また、他のどの構造要素がそのカメラエピポーラ線に同じく位置するかは、構造パターンが投影される物体の幾何学形状および距離に依存する。少なくとも2つのカメラのそれぞれについて、多くのカメラエピポーラ線がある。
さらに、各投影構造要素およびカメラ内でのその画像は、各照明エピポーラ線上に位置する。第1カメラとプロジェクタ、および少なくとも第2カメラとプロジェクタとの各ペアリングについて、複数の照明エピポーラ線がある。上に述べたように、カメラに対してその線分外に位置付けられている2つのカメラおよびプロジェクタについては、互いに斜めに延びている照明エピポーラ線が2組あり、第1組は第1カメラとプロジェクタとの配置に割り当てられ、第2組は第2カメラとプロジェクタとの配置に割り当てられる。投影構造要素およびカメラ内でのその画像は、構造パターンが投影される物体の幾何学形状および距離とは独立して、必ず同じ各照明エピポーラ線上に位置する。しかし、照明エピポーラ線上のどの部位に構造要素がくるか、また、他のどの構造要素がその線に同じく位置するかは、物体の幾何学形状および距離に依存する。
構造パターンが投影される物体の幾何学形状および距離とは独立して、構造要素およびその画像が必ず同じ照明エピポーラ線上に位置するという前述の状況を使用して、好適な実施形態による個々の構造要素の第1パラメータは第1カメラに関係する第1照明エピポーラ線の勾配および第1基準軸との交点を含み、個々の構造要素の少なくとも第2パラメータは少なくとも1つの第2カメラに関係する照明エピポーラ線の勾配および第2基準軸との交点を含む。
本発明による装置において、前述の校正データは記憶ユニットに、例えば校正リストとして格納される。
前記パラメータを校正データとして利用することは、投影構造要素と前記パラメータとを一意に個々に割り当てられるという利点を有し、さらに、以下詳細に説明するように、この種のパラメータを用いて、投影構造要素への画像の割り当てを簡単に実行することが可能である。
そのため、少なくとも2つのカメラおよびプロジェクタの校正中、各カメラの各構造要素について、第1カメラに関してそれがどの照明エピポーラ線上に位置するのか、また、少なくとも1つの第2カメラに関してそれがどの照明エピポーラ線上に位置するのかの判別が行われる。数学的に言うと、直線はその勾配および1点で一意に判別されるため、ここで意図されるように、各構造要素について、勾配のみと、基準軸との照明エピポーラ線との交点のみとを格納すれば十分であり、記憶容量の消費の大幅な削減になる。
構造要素の密度がより高い構造パターンについては、通例、それぞれの場合において少なくとも2つのカメラのうちの1つに関して同じ照明エピポーラ線上に複数の構造要素が位置する。それでも、各構造要素は少なくとも2つの照明エピポーラ線の個々の組み合わせによって、つまり第1カメラに関係する照明エピポーラ線および少なくとも第2カメラに関係する照明エピポーラ線によって一意に記述される。
上記実施形態に関連して述べられ、第1カメラに関係する第1照明エピポーラ線が交差する第1基準軸は第1カメラの走査線であることが好ましく、少なくとも1つの第2カメラに関係する第2照明エピポーラ線が交差する第2基準軸は少なくとも1つの第2カメラの走査線であることが好ましい。
前記走査線は、例えば、各カメラの第1走査線とすることができる。
方法の別の好適な実施形態において、校正画像を記録するために構造パターンを第1面および第2面に順次投影させ、前記第1面および前記第2面はプロジェクタの透過方向に互いから離して配置されている。
この種の校正画像の記録、そのためこの種の少なくとも2つのカメラおよびプロジェクタの校正は特に簡単に行え、そのため、構造パターンの各構造要素について、第1カメラに対する照明エピポーラ線および少なくとも1つの第2カメラに対する照明エピポーラ線を簡単に求められる。
第1面および第2面は平面であることが好ましい。第1面および第2面として同じ面を使用する場合、校正は特に簡単になり、当該面は第1校正画像を記録するために最初にカメラおよびプロジェクタから第1の距離に位置付けられ、その後第2校正画像を記録するためにカメラおよびプロジェクタから第2の距離に位置付けられる。2つの校正画像を格納して評価し、校正データを得る。
本発明による方法は、装置のある好適な実施形態により、第1カメラの入射瞳、少なくとも1つの第2カメラの入射瞳およびプロジェクタの射出瞳が一平面に置かれている場合、特に容易に実現することができる。
この実施形態において、校正においても、構造要素の画像の特定においても、公比は単純化される。カメラの画像内における構造要素の互いの距離は、この配置では、カメラから投影される構造要素の距離とは独立している、つまり、必ず同じである。そのため、校正画像における構造要素の割り当てが容易に可能である。少なくとも2つの校正画像内の構造要素の2つの位置を走行する直線は、この構造要素の照明エピポーラ線にぴったり対応する。また、すべての第1照明エピポーラ線は互いに平行であり、すなわち、同じ勾配をもち、第1基準軸との交点だけが異なり、すべての第2照明エピポーラ線は互いに平行であり、すなわち、同じく同じ勾配をもち、第2基準軸との交点のみが異なる。校正データの範囲、そのため必要な記憶容量および計算能力はこれによりさらに低減されることが有利である。
本発明による方法を単純化するのに役立つ別の方法は、第1カメラの光学軸、少なくとも1つの第2カメラの光学軸およびプロジェクタの光学軸を互いに平行になるように配置することである。
この実施形態では、少なくとも2つのカメラのカメラエピポーラ線は互いに平行であるとともに、カメラの線分に平行である。これらの線はカメラ同士互いに整列することもできる。また、有利なことに、少なくとも2つのカメラの走査線をカメラエピポーラ線に平行または垂直になるような位置にすることができ、カメラレンズまたは共通カメラレンズのひずみを容易に補正することができる。
校正画像を記録するために構造パターンを第1面および第2面に順次投影し、当該面がプロジェクタの透過方向に互いに離れている前述の方法の構成に関連し、面が平面で、カメラおよびプロジェクタの光学軸に対して垂直になるように向けると好ましい。
面の垂直配向により、少なくとも2つのカメラにより取り込まれる構造パターンは実質的にひずみなしである。
前述の実施形態は校正だけでなく、少なくとも2つのカメラのカメラ画像内の構造パターンの、シーンに投影される構造要素の確実な特定も単純化する。
装置において、第1カメラと少なくとも1つの第2カメラとの距離は、プロジェクタと第1カメラとの間の距離と異なるとともに、プロジェクタと少なくとも1つの第2カメラとの間の距離とも異なることが好ましい。
カメラ画像内の構造要素の特定は、これによりさらに改善される。少なくとも2つのカメラおよびプロジェクタの配置における対称性の破れは、投影構造要素へのカメラ画像内の構造要素の割り当ての正確さを向上させる。
方法の別の好適な実施形態において、それぞれの場合において第1カメラのカメラ画像内に特定されるべき構造要素の画素座標が判別され、少なくとも第1パラメータは画素座標および校正データから計算され、おそらく許容範囲内で、同様に少なくとも1つの第1パラメータを満たすすべての構造要素が校正データから読み取られ、前記読み取られた構造要素のそれぞれについて、少なくとも第2パラメータのうちの少なくとも1つがさらに読み取られ、第1カメラのカメラ画像内で特定されるべき構造要素と一対一対応で関連付けることのできる構造要素が、少なくとも1つの第2カメラのカメラ画像内で判別される。
本発明による装置において、これに応じて計算ユニットは前述のステップを行うためにセットアップされる。
基本的に、格納または保存されている校正データにアクセスすることができるため、方法のこの実施形態における前述のステップの計算能力の消費は低いことが有利である。特定されるべき構造要素について、特定されるべき構造要素が位置する第1照明エピポーラ線のみが計算される。次いで、第1カメラの画像内で特定されるべき構造要素に対する少なくとも1つの第2カメラの画像内の構造要素間の一対一対応の割り当てを行うために、格納されている校正データにアクセスされる。
このために、正しいカメラエピポーラ線上にも位置する構造要素、つまり、第2照明エピポーラ線と前記カメラエピポーラ線との交点を、第2照明エピポーラ線上に位置する少なくとも1つの第2カメラの画像内の構造要素から選択する。これは、2つのカメラのカメラエピポーラ線が互いに平行で、かつ同じ高さに位置していると特に単純である。
方法の別の好適な実施形態において、第1カメラと第2カメラとの線分の外側、かつ第1カメラとプロジェクタとの線分の外側、かつ第2カメラとプロジェクタとの線分の外側に位置付けられている第3カメラを使用して、シーンに投影される構造パターンを追加で取り込み、校正データは、各構造要素を第3カメラおよびプロジェクタの位置および配向に相関させる第3パラメータを追加で有する。
したがって、本発明による装置は、シーンに投影される構造パターンを取り込むために第3カメラを有する。
構造パターンが投影されるシーンのトポロジーの複雑さによって、例えば縁部または肩部付近の障害物のために、少なくとも2つのカメラのうちの1つで特定の構造要素が見えない場合がある。この場合、それでも、この構造要素は、他の2つのカメラのうちの1つと合わせて、第3カメラで確実に特定することができる。第3カメラは、例えば、3つのカメラのうちの1つがシーン内の面を巡回して見る場合、構造要素の確実な特定に関しても便利である。
方法の別の好適な実施形態において、構造要素は、構造パターンに均一に、互いに直角であることが好ましい2本の主軸に分布しており、さらに好ましくは、構造パターンの2本の主軸は第1カメラと少なくとも1つの第2カメラとの線分および/またはプロジェクタと第1カメラおよび少なくとも1つの第2カメラとの線分に対して斜めに延びている。
均一な構造パターンは、プロジェクタが単純な構造をもつことができるという利点を有する。少なくとも2つのカメラの線分および/またはプロジェクタと第1カメラおよび少なくとも1つの第2カメラとの線分に対する斜めの構造パターンの主軸の配置は対称性の破れをもたらし、これは特定における曖昧さが減少するため、カメラ画像内の構造要素の確実な特定にとって有利である。
本発明による方法は、構造パターンがドットパターンである、特に均質なドットパターンであり、構造要素がドットである実施形態に特に適する。
装置においては、それに応じて、プロジェクタは特に均質なドットパターンとして構造パターンを生成するようにセットアップされる。
特に均質なまたは規則的なドットパターンまたはグリッドの使用は、当該構造パターンを容易に生成でき、高強度で投影することができるという利点を有する。
方法の別の好適な実施形態において、構造パターンは第1カメラおよび少なくとも1つの第2カメラの画像記録周波数の半分に対応するパルス周波数を有するパルス方式で透過され、それぞれの場合において第1カメラおよび少なくとも1つの第2カメラによって取り込まれる連続する2つの画像が互いから減算処理される。
装置においては、それに応じて、プロジェクタは第1カメラおよび少なくとも1つの第2カメラの画像周波数の半分に対応するパルス周波数を有するパルス方式で構造パターンを透過するようにセットアップされ、計算ユニットは、それぞれの場合において、第1カメラおよび少なくとも1つの第2カメラにより順次取り込まれる2つの画像を互いから減算処理するようにセットアップされる。
この実施形態において、第1カメラおよび少なくとも1つの第2カメラにより記録される連続する2つの画像の減算処理のため、差分カメラ画像には構造要素のみが残る。このように、カメラ画像内の構造要素をより容易に検出することができる。
コントラストをさらに高めるために、投影光の波長を除く環境光を、バンドパスフィルタ、例えばIRバンドパスフィルタを使用してブロックすることができる。バンドパスフィルタは少なくとも2つのカメラのうちの1つ以上の光学系に配置することができる。
前述の実施形態のうちの1つ以上に従う本発明による方法および/または本発明による装置は、危険ゾーン、特に機械の危険ゾーンを監視するため、特に安全確保をするために使用することが好ましい。
さらなる利点および特徴は、以下の説明および添付の図面から知ることができる。
前述の特徴およびこれから説明する特徴は、それぞれ述べる組み合わせだけでなく、本発明の範囲を逸脱することなく、異なる組み合わせまたは単独でも使用できることは理解されるべきである。
カメラ画像において、シーンに投影される構造パターンの構造要素を特定する装置を示す。 物体が存在するシーンの区画(section)を示す。 図1の装置の校正の過程で記録された第1校正画像を示す。 図1の装置の校正の過程で記録された第2校正画像を示す。 図3および図4からの2つの校正画像の重畳を示す。 図3および図4による校正画像を使用して校正データを取得する方法を図示するために、図5の拡大図を示す。 投影構造パターンの構造要素をカメラ画像で特定することのできる方法を例示するための手法を示す。
本発明の実施形態は、図面に図示しており、それを参照して詳しく説明する。
図1は、カメラ画像において、シーン14に投影される構造パターン16の構造要素12を特定するための装置を示しており、全体の参照記号10で示す。
本装置10は、危険ゾーン、特に機械(図示せず)の危険ゾーンを監視する、特に安全確保をするために使用される。シーン14はこの場合例えば三次元空間領域であり、そこに機械、例えばプレスまたはロボット(図示せず)など、特に自動的に作動する機械が置かれている。一般に、人などの動く物体がシーン14に存在することがあり、装置10は、自動的に作動する機械の危険ゾーンに物体が全体的もしくは部分的に位置し、または近づいているかどうかに関してシーン14を監視する。
装置10は、第1カメラMと、第2カメラHと、好ましいが任意で、第3カメラVとを有する。カメラM、HおよびVは、例えば、光電画像センサ(図示せず)をそれぞれ有するデジタルカメラである。画像センサはCCDまたはCMOSテクノロジーで構成することができる。当該画像センサは互いに平行に配置されている複数の走査線に配置されている複数の感光素子(画素ともいう)を有する。
カメラM、HおよびVは、それぞれの場合において、それぞれ入射瞳18、20および22を有し、すべて一平面に配置されている。図1では、参照系として図示する目的で、x軸、y軸およびz軸を有するデカルト座標24が示されている。カメラM、HおよびVの入射瞳18、20および22が配置されている前述の平面は、この場合z=0のxy平面である。参照系としての座標系24はここでは、カメラMの入射瞳18が座標x=0、y=0およびz=0に位置するように設計されている。
カメラMとカメラHとの間を結ぶ直線状の線分26は対応してx軸の方向に延びており、カメラMとカメラVとの間の線分28はy軸の方向に延びている。このように、第3カメラVはカメラMとカメラHとの間の線分26の外側に位置している。
カメラMとカメラHとの距離は、カメラVとカメラMとの距離とは異なる。
カメラM、HおよびVはさらに、それぞれの光学軸30(カメラM)、32(カメラH)および34(カメラV)が互いに平行に延びるような位置および配向にされている。
装置10は構造パターン16を生成してシーン14に投影するプロジェクタ36をさらに有する。プロジェクタ36は、例えば、回折光学素子を有するレーザーダイオード、結像光学系を有するLEDマトリックス、スライドプロジェクタ、ファセットミラーを有するスポットライト光源、またはデジタル・ライト・プロセッシング・プロジェクタ(DLPもしくはDMPプロジェクタ)の形態とすることができる。
プロジェクタ36の射出瞳38は、カメラM、HおよびVの入射瞳18、20および22と同じ平面に位置している。プロジェクタ36の光学軸40はカメラM、HおよびVの光学軸30、32および34と平行に延びている。
プロジェクタ36はカメラMとカメラHとの間の線分26の外側、かつカメラMとカメラVとの間の線分28の外側に位置している。
図1では、カメラM、HおよびVとプロジェクタ36との間の線分、具体的には、カメラMとプロジェクタ36との間の線分37、カメラHとプロジェクタ36との間の線分39、およびカメラVとプロジェクタ36との間の線分41が示されている。図1から分かるように、線分37、39および41は互いに斜めに延びるとともに、線分26および28に対しても斜めに延びている。
構造パターン16は均質なドットパターンである、すなわち、構造要素12は2本の主軸42、44に沿って規則的かつ均一に分布する個々のドットである。主軸42および44はここでは例示の目的で示しているにすぎず、実際に投影される構造パターン16には現れない。互いに垂直に延びている2本の主軸42、44は、ドット間の最小距離または構造パターン16の構造要素12の二方向を与える。
プロジェクタ36によって投影される構造パターン16は、投影構造パターン16の主軸42および44が線分26および28に対して斜めに、かつ線分37、39および41に対しても斜めに延びているように投影されるのが好ましい。
図1は、構造パターン16が区分状にのみ25個のドットまたは構造要素12を有するように示されている。実際には、構造パターン16は非常により多くの数の構造要素12を有し、ここでは連続破線46および48で示されている。
個々の構造要素またはドット12間の距離は、好ましくは、カメラM、HおよびVの画像センサの4画素から10画素の距離である。構造パターン16の個々の構造要素12間で選択される距離は、カメラM、HおよびVの画像で構造要素またはドット12の座標を判別できる精度に左右される。
構造要素12はカメラM、HおよびVに結像されるシーン14の部分領域のみを照射することができるが、通例、プロジェクタ36からくる照射の開き角は少なくともカメラM、HおよびVの全画角または視野と同程度あり、その結果カメラM、HおよびVの画像は全体が構造要素12に取り込まれる。
図1では、プロジェクタ36によって発せられて、構造パターン16を投影する照射光の例として個々の透過光線50が描かれている。同様に、図1では例として、カメラHの受光光線52、カメラMの受光光線54およびカメラVの受光光線56が示されており、個々の構造要素12から始まっている。その結果、シーン14に投影される構造パターン16はカメラM、HおよびVを使って取り込まれる。
装置10は記憶ユニット60および計算ユニット62を有する制御デバイス58をさらに有する。記憶ユニット60および計算ユニット62は、相互のデータ交換のために、カメラM、HおよびVならびにプロジェクタ36に接続されている(図示せず)。
プロジェクタ36の射出瞳38およびカメラM、HおよびVの入射瞳をカメラM、HおよびVの光学軸30、32および34に対して垂直な1つの共通平面に位置付けている、ここで好適に選択される配置のために、カメラM、HおよびVに結像される構造パターン16は、カメラM、HおよびVからの投影構造パターン16の距離とは独立して、必ず同じサイズになるように見える。より具体的には、カメラM、HおよびVからの投影構造パターン16の距離が変わっても、カメラM、HおよびVの画像の個々の構造要素12間の距離は変わらない。
図2は、図1に関してより大きな縮尺でシーン14のある区画を、そこに位置している物体64とともに示しており、物体64はここでは立方体として単純化した形態で図示している。図2では、構造要素12のうちの4つが参照記号66、68、70および72で示されており、これらの構造要素またはドットは残りの構造要素12よりもカメラM、HおよびVからの距離が短い。それにも関わらず、カメラM、HおよびVのカメラ画像内の構造要素66、68、70および72の相互の距離は、物体64がシーン14に存在しない状況に対して変化しないままである。
カメラM、HおよびVの校正画像内で、シーン14に投影される構造パターン16の個々の構造要素12を特定する方法の基本原理は、プロジェクタ36の位置および配向、つまり投影光の透過サイトおよび各個々の構造要素12の透過方向、ならびにカメラM、HおよびVの位置および配向、つまり、個々の構造要素12からくる光線の受光サイトおよび受光方向を正確に知ることにある。
このために、図3から図6を参照して以下説明するように、校正画像(calibration images)を記録する。
校正画像はプロジェクタ36のカメラM、HおよびVならびにプロジェクタ36の配置を変えないで記録される、すなわち、後にカメラM、HおよびVの画像においてシーン14に投影される構造要素12を特定する方法の場合と、カメラM、HおよびVならびにプロジェクタ36の位置および配向は同じである。
まず、カメラM、HおよびVを使用して第1校正画像を記録し、そこでカメラM、HおよびVならびにプロジェクタ36から第1の距離の平面にプロジェクタ36によって構造パターン16が投影される。
例として、図3は、カメラMについて、第1平面に投影される構造パターン16が校正画像76として記録されるカメラMの画像センサの画像面74を示している。
次に、カメラM、HおよびVを使用して少なくとも1つの第2校正画像が記録され、そこで、カメラM、HおよびVならびにプロジェクタ36から少なくとも1つの第2距離分離れた平面にプロジェクタ36によって構造パターン16が投影される。少なくとも1つの第2距離は第1距離よりも大きいまたは小さい。図4は、例として、カメラMを使用した第2校正画像78の記録を示す。
校正画像の記録時の平面は光学軸30、32および34に対して垂直に向いている。
投影構造パターン16のいくつかの異なる距離で、2つより多い校正画像を記録することも可能である。
カメラM、HおよびVで記録された校正画像は、例えば、記憶ユニット60に格納される。
図5は、図3および図4に従いカメラMで記録した2つの校正画像76、78の重畳を示す。すでに述べたように、投影構造パターン16のカメラM、HおよびVからの距離が異なるにも関わらず、個々の構造要素12の互いの距離はカメラ個々の構造要素12の互いの距離は、カメラM、HおよびVの校正画像においては必ず同じままである。
図5は、校正画像78の個々の構造要素12が校正画像76に対して移動したところを示す。図3および図4に従い、例えば記憶ユニット60に格納されている校正画像から、今度は、個々の構造要素12について、それぞれの場合において各構造要素12をカメラMおよびプロジェクタ36の位置および配向と相関させる第1パラメータと、各構造要素12をカメラHおよびプロジェクタ36の位置および配向と相関させる第2パラメータと、各構造要素12をカメラVおよびプロジェクタ36の位置および配向と相関させる第3パラメータとの組み合わせを有する校正データを、例えば計算ユニット62によって取得する。
校正(calibration)の詳しい説明のために、例として構造要素12のうちの4個を図3の校正画像76でA1、A2、B1およびB2として示し、構造要素A1、A2、B1、B2に関連付けられ、カメラ画像76に対してずれている構造要素を図4の校正画像78ではA1’、A2’、B1’およびB2’で示す。
それぞれの場合において、ここで関連付けられている構造要素のペアA1、A1’;A2、A2’;B1、B1’;およびB2、B2’に直線を引くと、これは図5によると直線76、78、80、82になるであろう。
図6は、単純化するためにより大きな縮尺で、カメラMの画像平面76で構造要素A1、A1’、A2、A2’、B1、B1’およびB2、B2’の画像のみを示す。同様に、図6には、直線76、78、80および82が示されている。直線76、78、80および82は、照明エピポーラ線として知られるものである。図6から分かるように、すべての照明エピポーラ線76、78、80、82は互いに平行であり、これは、ここでは好適なように、z軸の方向にカメラMと同じ高さのプロジェクタ36の位置によってもたらされる。そのため、照明エピポーラ線76、78、80および82は同じ勾配StMを有するが、カメラMの基準軸84とのそれぞれ交点SPMA1、SPMB1、SPMA2およびSPMB2が異なる。例えば、カメラMの画像センサの第1走査線は基準軸84として使用される。
図6から分かるように、結像された各構造要素A1、A2、B1、B2は必ず同じ照明エピポーラ線76、78、80または82に位置しているが、前記照明エピポーラ線上のそのサイトは、ずれた構造要素A1’、A2’、B1’およびB2’で図示されるように、各投影構造要素A1、A2、B1、B2のカメラMからの距離に依存する。また、各構造要素A1、A2、B1、B2に関係して各照明エピポーラ線上に位置するのは、カメラM内のその画像だけでなく、シーン(または校正中の平面)自体に投影される構造要素でもある。
また、z軸ならびにその平行な光学軸30および40(図1)の方向に同じ高さにあるカメラMおよびプロジェクタ36の位置および配向のために、照明エピポーラ線76、78、80および82はカメラMおよびプロジェクタ36の線分37(図1)に平行である。
図6は例として、構造要素A1、A2、B1、B2の4本の照明エピポーラ線76、78、80、82を示しているが、カメラMに関する照明エピポーラ線は構造パターン16の構造要素12それぞれに関連付けられることは理解されるべきである。
対応する状態がカメラHおよびカメラVに関する各構造要素12に適用される。カメラHに関係する1本の照明エピポーラ線およびカメラVに関係する1本の照明エピポーラ線は、投影構造パターン16の各構造要素12に関連付けられる。カメラHに関係する照明エピポーラ線はさらに、相互に平行かつ線分39(図1)に平行であり、カメラVに関係する照明エピポーラ線は同様に相互に平行かつ線分41(図1)に平行である。
また、カメラHに関係する照明エピポーラ線は、それぞれの場合において、基準軸、例えばカメラHの第1走査線との交点SPHを有し、カメラVに関係する照明エピポーラ線は同様に、それぞれの場合において、基準軸、例えばカメラVの第1走査線との交点を有する。
例として、図6によると、構造要素A1までの照明エピポーラ線76のカメラMの基準軸84との交点SPMA1には次の式が適用される。
SPMA1=x1−(y1(x2−x1)/(y2−y1))
構造要素A1までのこの照明エピポーラ線の勾配StMについては、次式が適用される。
StM=(y1−y2)/(x1−x2)
すでに述べたように、StMはすべての照明エピポーラ線について同一である。
同様に、カメラHに関係する照明エピポーラ線の交点SPHおよび勾配StHと、カメラVに関係する照明エピポーラ線の交点SPVおよび勾配StVとは、カメラHおよびVで記録した校正画像から計算することができる。
プロジェクタ36が図1のz軸の方向にカメラM、HおよびVからある距離を有する場合、各カメラM、HまたはVに関係する照明エピポーラ線は互いに平行ではなく異なる勾配を有するが、必ず同じ構造要素から始まるであろう。
投影構造パターン16の構造要素12のそれぞれについて、計算されたパラメータSPM、SPHおよびSPVは記憶ユニット60に格納される。同様に、勾配StM、StHおよびStVも記憶ユニット60に格納されて、それぞれの場合において、ここでは好適な実施形態において、勾配StM、StHおよびStVについて1つの値のみが取得される。
好ましくは、投影構造パターン16のすべての構造要素12は、関連パラメータSPM、SPHおよびSPVならびにパラメータStM、StHおよびStVとともに計算リストとして記憶ユニット60に格納される。ここでは、各構造要素12はSPM、SPHおよびSPVの個々の組み合わせにより一意に記述される。
ここで、図7を参照して、図1に従うシーンに投影される構造パターン16の個々の構造要素12を、前述した校正データを用いてカメラM、HおよびVのカメラ画像でどのように特定することができるかについて、言い換えると、カメラM、HおよびVに結像される構造要素12を投影構造要素12にどのように一意に関連付けることができるかについて以下説明する。
図7は、平面投影図で、投影構造パターン16と、同様に、カメラMの画像面74、カメラHの画像面84およびカメラVの画像面86を示す。
例として、カメラMの画像面74に結像される構造要素Mをどのように確実に特定することができるか、つまり、投影構造要素12の1つに一意に関連付けることができるかについて以下説明する。
まず、画像面74に結像される構造要素Mの画素座標MおよびMを判別する。実際には、これはある特定の精度までのみ可能なので、構造要素Mの真の位置は許容範囲内にある。
最初に、計算ユニット62を使用して、画素座標MおよびMから、構造要素Mxyが位置する照明エピポーラ線である直線を計算する。
SPMM1=M−(M/StM)
すでに上記説明したように、勾配StMはカメラMに属するすべての照明エピポーラ線について同じであり、そのため、記憶ユニット60に格納されており、そこから容易に読み取ることができる。そのため、SPMM1、つまり、構造要素Mが位置する照明エピポーラ線の交点を簡単に計算することができる。
画素座標MおよびMの判別は正確にはできないため、SPMM1は許容範囲内にある。
次に、記憶ユニット60に格納されている校正リストにおいて、SPMM1の値の許容範囲内に位置する各SPMが関連付けられる投影構造パターン16のすべての構造要素12を、ここで校正リストから読み取る。
図7から分かるように、結像構造要素Mが位置する照明エピポーラ線は、それぞれの場合において、計算値SPMM1の許容範囲内にあるSPMを有する2つ以上の照明エピポーラ線のごく近くにある。
パラメータSPMM1の許容範囲内で、結像構造要素Mとの関連付けについて、考えられる投影構造パターン16の構造要素の候補は構造要素C1、B2およびA3であり、これらはすべてSPMM1の許容範囲内のSPMを有する各照明エピポーラ線上に位置する。構造要素C1、B2およびA3は、すべて異なるその関連パラメータSPCC1、SPHB2、SPHA3、SPVC1、SPVB2、SPVA3を含む校正リストから読み取る。
構造要素C1、B2およびA3のそれぞれについて、これで計算ユニット62はカメラHの画像およびカメラVの画像内のどこに、どのカメラエピポーラ線上に位置するかを計算することができる。
ここでは好適な平行な光学軸と同じ高さのカメラMおよびHの位置および配向のため、例として破線90、91、92を使って図7に3本を示すカメラMおよびカメラHのカメラエピポーラ線は、整列し、互いに平行である。投影構造要素12のうち、この場合候補C1、B2またはA3のうち、カメラMの画像が結像構造要素Mである構造要素は、カメラMの画像に結像構造要素Mがあるカメラエピポーラ線と同じy値Hを持つ、つまりH=Mであるカメラエピポーラ線上のカメラHの画像に、位置する。
候補構造要素C1、B2またはA3のうちの1つを結像構造要素Mと一意に関連付けることができる場合、当該構造要素C1、B2、A3について、y値Hを有するカメラHのカメラエピポーラ線上にx値がなければならない。つまり以下の式
=SPHC1;B2;A3+M/StH
は当該構造要素C1、B2、A3についてHの解を有しなければならない。この計算は同様に計算ユニットによって行うことができる。
図7から分かるように、構造要素A3のHの解はあるが、前述の式は構造要素C1およびB2については満たさない。図7から分かるように、カメラHの画像内の構造要素C1の画像HC1は、特定されるべき構造要素Mとは異なるカメラエピポーラ線、具体的にはカメラエピポーラ線92上に位置し、投影構造要素B2の画像HB2も特定されるべき結像構造要素Mとは異なるカメラエピポーラ線、具体的にはカメラエピポーラ線91上のカメラHの画像に位置する。MおよびA3の画像HA3のみが同じカメラエピポーラ線90上のカメラMの画像に位置する。
その結果、カメラHの構造要素A3の画像HA3のみをカメラMの画像内の画像Mに一対一対応で関連付けることができ、これは次の式で検証することができる。
=SPMA3+M/StM
SPMA3はここでは校正リストから既知である。
このように、カメラMの画像内の画像Mに一意に関連付けることができるのは投影される構造要素A3である。カメラHの画像内の画像HA3について逆も真である。
カメラMの画像で特定されるべき別の構造要素をMで示す。画像Mに関して説明したのと同じ手順を使用すると、結果は、構造要素B1の画像HB1をカメラMの画像内の構造要素Mに一対一対応で関連付けることができる。
カメラVの構造要素A3の画像を図7ではVA3で示し、カメラVの構造要素B1の画像はVB1で示す。第3カメラVは説明した方法に必須ではないが、任意で存在する。第3カメラVはカメラMおよびHの画像内の構造要素の一対一対応の関連付けのさらなる検証のために使用することができる。構造要素12が、例えば肩部または縁部で遮られて、カメラM、Hの一方で見えない場合には特に有用であり、カメラMおよびHのうち当該構造要素を見ることができるカメラと合わせて、カメラVとのこの構造要素の一意の関連付けが可能である。第3カメラは、カメラのうちの1つがシーン14の面を巡回して見る場合にも役立つ。
カメラM、Hおよび/またはVの画像内で投影構造パターン16の個々の構造要素12を確実に特定した後、投影構造要素12の距離判別を行うことができ、その結果正確な距離になる。監視される機械のスイッチを誤って切ることや危険な状況を前述の方法で回避することができる。
カメラM、HおよびVの構造要素12の画像のコントラストを高めるために、プロジェクタ36がカメラM、HおよびVの画像記録周波数の半分に対応するパルス周波数を有するパルス方式で構造パターン16を透過する備えを追加で行ってもよく、それぞれの場合においてカメラM、HおよびVが取り込む連続する2つの画像を互いから減算処理する。これはカメラ画像M、HおよびVに構造要素12の画像のみを効果的に残すが、シーン14自体およびその中に位置する物体はカメラ画像では見ることができない。
本発明は上記説明した実施形態に制限されるものではないことは理解されるべきである。したがって、本発明による方法および本発明による装置の機能は、カメラM、HおよびVがその入射瞳が同じ高さに配置されていること、および/またはプロジェクタ36が同様にその射出瞳がこの平面に配置されていることに制限されない。カメラM、HおよびVの光学軸ならびにプロジェクタ36の光学軸が互いに平行である必要もない。さらに、規則的な構造パターンの代わりに、不規則な構造パターンまたはランダムな分布の構造パターンを使用することができる。

Claims (20)

  1. カメラ画像で、シーン(14)に投影される構造パターン(16)の個々の構造要素(12)を特定する方法であって、
    前記シーン(14)に前記構造パターン(16)を投影するためにプロジェクタ(36)を使用し、前記シーン(14)に投影される前記構造パターン(16)を取り込むために第1カメラ(M)および少なくとも1つの第2カメラ(H、V)を使用し、
    前記第1カメラ(M)および前記少なくとも1つの第2カメラ(H、V)は互いから離して位置付けられており、前記プロジェクタ(36)は前記第1カメラと少なくとも1つの第2カメラ(M、H、V)とを結ぶ線分(26、28)の外側に、前記第1カメラ(M)および前記少なくとも1つの第2カメラ(H、V)から離して位置付けられており、
    前記第1カメラ(M)の前記カメラ画像に特定されるべき構造要素(12)に関し、その構造要素(12)は、前記第1カメラ(M)の前記カメラ画像で特定されるべき前記構造要素(12)に一対一対応で関連付けることのできる前記少なくとも1つの第2カメラ(V、H)の前記カメラ画像において、前記個々の構造要素(12)のそれぞれの場合において、前記各構造要素(12)を前記第1カメラ(M)および前記プロジェクタ(36)の位置および配向と相関させる第1パラメータと、前記各構造要素(12)を前記少なくとも1つの第2カメラ(H、V)および前記プロジェクタ(36)の位置および配向と相関させる少なくとも第2パラメータとの組み合わせを有する校正データによって判別され、
    前記校正データは前記プロジェクタ(36)が投影する前記構造パターン(16)の校正画像(76、78)を記録することによって、前記第1カメラおよび少なくとも1つの第2カメラ(M、H、V)を使用して取得する、方法。
  2. 前記個々の構造要素(12)の前記第1パラメータは、前記第1カメラ(M)に関係する第1照明エピポーラ線の勾配(StM)および第1基準軸(84)との交点(SPM)を含み、前記個々の構造要素の前記少なくとも第2パラメータは、前記少なくとも1つの第2カメラ(H、V)に関係する照明エピポーラ線の勾配(StH、StV)および第2基準軸との交点(SPH、SPV)を含む、請求項1に記載の方法。
  3. 前記第1基準軸(84)は前記第1カメラ(M)の走査線であり、前記第2基準軸は前記少なくとも1つの第2カメラ(H、V)の走査線である、請求項2に記載の方法。
  4. 前記校正画像(76、78)を記録するために、前記構造パターン(16)を第1の好ましくは平らな面および第2の好ましくは平らな面に順次投影し、前記第1および第2の面は前記プロジェクタ(36)の透過方向に互いに離間している、請求項1から請求項3のいずれか1項に記載の方法。
  5. 前記第1カメラ(M)の前記カメラ画像で特定されるべき前記各構造要素(12)の画素座標を判別し、前記画素座標および前記校正データから少なくとも第1パラメータを計算し、前記校正データから、可能な許容範囲内で、同様に前記少なくとも1つの第1パラメータを満たすすべての構造要素(12)を読み取り、前記読み取った構造要素(12)のそれぞれについて前記少なくとも第2パラメータのうちの少なくとも1つをさらに読み取り、前記少なくとも1つの第2カメラ(H、V)の前記カメラ画像において、前記第1カメラ(M)の前記カメラ画像で特定されるべき前記構造要素(12)と一対一対応で関連付けることのできる前記構造要素(12)を判別する、請求項1から請求項4のいずれか1項に記載の方法。
  6. 前記第1カメラおよび第2カメラ(M、H)の前記線分(26)の外側、かつ、前記第1カメラ(M)と前記プロジェクタ(36)との前記線分(37)の外側、かつ、前記第2カメラ(H)と前記プロジェクタ(36)との前記線分(39)の外側に位置付けられている第3カメラ(V)を使用して、前記シーン(14)に投影される前記構造パターン(16)をさらに取り込み、前記校正データは、前記各構造要素(12)を前記第3カメラ(V)および前記プロジェクタ(36)の位置および配向に相関させる第3パラメータをさらに有する、請求項1から請求項5のいずれか1項に記載の方法。
  7. 前記構造要素(12)は、前記構造パターン(16)にわたり2本の、好ましくは互いに垂直な主軸(42、44)に均一に分布している、請求項1から請求項6のいずれか1項に記載の方法。
  8. 前記構造パターン(16)の前記2本の主軸(42、44)が前記第1カメラおよび少なくとも1つの第2カメラ(M、H、V)の前記線分(26、28)に対して斜めに、および/または前記プロジェクタ(36)と前記第1カメラおよび前記少なくとも1つの第2カメラ(M、H、V)との前記線分(37、39、41)に対して斜めに延びているように、前記構造パターン(16)は前記シーン(14)に投影される、請求項7に記載の方法。
  9. 前記構造パターン(16)はドットパターンであり、前記構造要素(12)はドットである、請求項1から請求項8のいずれか1項に記載の方法。
  10. 前記構造パターン(16)は、前記第1カメラおよび前記少なくとも1つの第2カメラ(M、H、V)の画像記録周波数の半分に対応するパルス周波数を有するパルス方式で透過され、それぞれの場合において前記第1カメラおよび少なくとも1つの第2カメラ(M、H、V)によって取り込まれる連続する2つの画像は互いから減算処理され、および/または前記投影パターン(16)が投影される投影光の波長範囲でのみ透過できる光学フィルタを使用して、カメラ画像内の環境光を遮る、請求項1から請求項9のいずれか1項に記載の方法。
  11. 特に請求項1から10のいずれか1項で請求される方法を実施するために、カメラ画像で、シーン(14)に投影される構造パターン(16)の構造要素(12)を特定する装置であって、
    前記シーン(14)に前記構造パターン(16)を投影するプロジェクタ(36)を具備し、前記シーン(14)に投影される前記構造パターン(16)を取り込む第1カメラ(M)および少なくとも1つの第2カメラ(H、V)をさらに具備し、
    前記第1カメラ(M)および前記少なくとも1つの第2カメラ(H、V)は互いから離して位置付けられており、前記プロジェクタ(36)は前記第1カメラと前記少なくとも1つの第2カメラ(M、H、V)とを結ぶ線分(26、28)の外側に前記第1カメラ(M)および前記少なくとも1つの第2カメラから離して配置されており、
    前記個々の構造要素(12)の、それぞれの場合において、前記各構造要素(12)を前記第1カメラ(M)および前記プロジェクタ(36)の位置および配向に相関させる第1パラメータと、前記各構造要素(12)を前記少なくとも1つの第2カメラ(H、V)および前記プロジェクタ(36)の位置および配向に相関させる少なくとも第2パラメータとの組み合わせを有する校正データを格納している記憶ユニット(60)をさらに具備し、
    前記校正データを使用して、前記第1カメラ(M)の前記カメラ画像に特定されるべき構造要素(12)に関して、前記少なくとも1つの第2カメラ(H、V)の前記カメラ画像において、前記第1カメラ(M)の前記カメラ画像で特定されるべき前記構造要素(12)と一対一対応で関連付けることのできる構造要素(12)を判別するようになされた計算ユニット(62)をさらに具備する、装置。
  12. 前記個々の構造要素(12)について前記記憶ユニット(60)に格納される前記第1パラメータは、前記第1カメラ(M)に関係する第1照明エピポーラ線の勾配(StM)および第1基準軸(84)との交点(SPM)を含み、前記個々の構造要素(12)の前記少なくとも第2パラメータは、前記少なくとも1つの第2カメラ(H、V)に関係する照明エピポーラ線の勾配(StH、StV)および第2基準線との交点(SPH、SPV)を含む、請求項11に記載の装置。
  13. 前記計算ユニット(62)は前記第1カメラ(M)の前記カメラ画像で特定されるべき前記構造要素(12)の画素座標を判別し、前記画素座標および前記校正データから少なくとも第1パラメータを計算し、おそらく許容範囲内で、同様に前記校正データから少なくとも第1パラメータを満たすすべての構造要素(12)を読み取り、前記読み取った構造要素(12)のそれぞれについて少なくとも第2パラメータのうちの少なくとも1つをさらに読み取り、前記少なくとも1つの第2カメラ(H、V)の前記カメラ画像で、前記第1カメラ(M)の前記カメラ画像で特定されるべき前記構造要素(12)と一対一対応で関連付けることのできる構造要素(12)を判別するようにセットアップされる、請求項11または請求項12に記載の装置。
  14. 前記第1カメラ(M)の入射瞳(18)、前記少なくとも1つの第2カメラ(H、V)の入射瞳(20、22)、および前記プロジェクタ(36)の射出瞳(38)が1つの共通面に位置する、請求項11から請求項13のいずれか1項に記載の装置。
  15. 前記第1カメラ(M)の光学軸(30)、前記少なくとも1つの第2カメラ(H、V)の光学軸(32、34)、前記プロジェクタ(36)の光学軸(40)は互いに平行である、請求項11から請求項14のいずれか1項に記載の装置。
  16. 前記第1カメラおよび少なくとも1つの第2カメラ(M、H、V)間の距離は、前記プロジェクタ(36)と前記第1カメラ(M)との距離、および前記プロジェクタ(36)と前記少なくとも1つの第2カメラ(H、V)との距離とは異なる、請求項11から請求項15のいずれか1項に記載の装置。
  17. 前記シーン(14)に投影される前記構造パターン(16)を取り込むための第3カメラ(V)をさらに具備し、前記第3カメラ(V)は前記第1カメラおよび第2カメラ(M、H)の前記線分(26)の外側、かつ前記第1カメラ(M)と前記プロジェクタ(36)との前記線分(37)の外側、かつ前記第2カメラ(H)と前記プロジェクタ(36)との前記線分(39)の外側に位置付けられており、前記記憶ユニット(62)に格納されている前記校正データは、前記各構造要素(12)を前記第3カメラ(V)および前記プロジェクタ(36)の位置および配向に相関させる第3パラメータを追加で有する、請求項11から請求項16のいずれか1項に記載の装置。
  18. 前記プロジェクタ(36)は、前記構造パターン(16)をドットパターンとして生成するようにセットアップされている、請求項11から請求項17のいずれか1項に記載の装置。
  19. 前記プロジェクタ(36)は、前記第1カメラおよび前記少なくとも1つの第2カメラ(M、H、V)の画像記録周波数の半分に対応するパルス周波数を有するパルス方式で構造パターン(16)を透過するようになされており、前記計算ユニット(62)は、それぞれの場合において、前記第1カメラおよび少なくとも1つの第2カメラ(M、H、V)によって取り込まれる2つの画像を互いから減算処理するようにセットアップされており、および/または前記カメラ画像内の環境光を遮るために、前記構造パターン(16)が投影される前記投影光の波長範囲でのみ透過できる光学フィルタを具備する、請求項11から請求項18のいずれか1項に記載の装置。
  20. 危険ゾーン、特に機械の危険ゾーンを監視するため、特に安全確保をするための、請求項1から10のいずれか1項の方法および/または請求項11から請求項19のいずれか1項に記載の装置(10)の使用。
JP2017514599A 2014-09-17 2015-08-10 カメラ画像で投影構造パターンの構造要素を特定する方法および装置 Active JP6625617B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102014113389.7A DE102014113389A1 (de) 2014-09-17 2014-09-17 Verfahren und Vorrichtung zum Identifizieren von Strukturelementen eines projizierten Strukturmusters in Kamerabildern
DE102014113389.7 2014-09-17
PCT/EP2015/068377 WO2016041695A1 (de) 2014-09-17 2015-08-10 Verfahren und vorrichtung zum identifizieren von strukturelementen eines projizierten strukturmusters in kamerabildern

Publications (2)

Publication Number Publication Date
JP2017531258A true JP2017531258A (ja) 2017-10-19
JP6625617B2 JP6625617B2 (ja) 2019-12-25

Family

ID=53879492

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017514599A Active JP6625617B2 (ja) 2014-09-17 2015-08-10 カメラ画像で投影構造パターンの構造要素を特定する方法および装置

Country Status (6)

Country Link
US (1) US10068348B2 (ja)
EP (1) EP3195256B1 (ja)
JP (1) JP6625617B2 (ja)
CN (1) CN107077729B (ja)
DE (1) DE102014113389A1 (ja)
WO (1) WO2016041695A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018032986A (ja) * 2016-08-24 2018-03-01 ソニー株式会社 情報処理装置および方法、車両、並びに情報処理システム

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10414048B2 (en) 2016-09-14 2019-09-17 Faro Technologies, Inc. Noncontact safety sensor and method of operation
US10841561B2 (en) * 2017-03-24 2020-11-17 Test Research, Inc. Apparatus and method for three-dimensional inspection
CN107464265B (zh) * 2017-06-14 2021-05-11 深圳市圆周率软件科技有限责任公司 一种双目全景相机的参数标定系统及方法
US11096765B2 (en) * 2018-06-22 2021-08-24 Align Technology, Inc. Light field intraoral 3D scanner with structured light illumination
US10901092B1 (en) * 2018-10-02 2021-01-26 Facebook Technologies, Llc Depth sensing using dynamic illumination with range extension
US10896516B1 (en) * 2018-10-02 2021-01-19 Facebook Technologies, Llc Low-power depth sensing using dynamic illumination
GB2584439B (en) * 2019-06-03 2023-02-22 Inspecvision Ltd Projector assembly system and method
US11398085B2 (en) * 2020-07-31 2022-07-26 Wisconsin Alumni Research Foundation Systems, methods, and media for directly recovering planar surfaces in a scene using structured light
WO2023094530A1 (en) 2021-11-25 2023-06-01 Trinamix Gmbh One shot calibration

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011158386A (ja) * 2010-02-02 2011-08-18 Kurabo Ind Ltd 非接触三次元計測装置及び非接触三次元計測方法
JP2011237296A (ja) * 2010-05-11 2011-11-24 Nippon Telegr & Teleph Corp <Ntt> 3次元形状計測方法、3次元形状計測装置、及びプログラム
WO2014091306A1 (en) * 2012-12-14 2014-06-19 Faro Technologies, Inc. Device for optically scanning and measuring an environment

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19502459A1 (de) * 1995-01-28 1996-08-01 Wolf Henning Verfahren zur dreidimensionalen optischen Vermessung der Oberfläche von Objekten
US6466305B1 (en) * 1999-05-24 2002-10-15 Lmi Technologies Inc. High speed laser triangulation measurements of shape and thickness
US6341016B1 (en) * 1999-08-06 2002-01-22 Michael Malione Method and apparatus for measuring three-dimensional shape of object
JP2006528770A (ja) * 2003-07-24 2006-12-21 コグニテンス リミテッド 対象物の3次元表面再構築の方法およびシステム
DE102004020419B3 (de) * 2004-04-23 2005-10-20 3D Shape Gmbh Verfahren und Vorrichtung zur Bestimmung der Form und der lokalen Oberflächennormalen spiegelnder Oberflächen
CA2600926C (en) * 2005-03-11 2009-06-09 Creaform Inc. Auto-referenced system and apparatus for three-dimensional scanning
US7454841B2 (en) * 2005-11-01 2008-11-25 Hunter Engineering Company Method and apparatus for wheel alignment system target projection and illumination
DE102006002602A1 (de) * 2006-01-13 2007-07-19 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Kalibrierungsverfahren und Kalibrierungssystem
EP2019281B1 (de) 2007-07-20 2009-09-09 Sick Ag Verfahren zum Betrieb eines 3D-Sensors
DE102007036129B3 (de) * 2007-08-01 2008-09-25 Sick Ag Vorrichtung und Verfahren zur dreidimensionalen Überwachung eines Raumbereichs mit mindestens zwei Bildsensoren
US8139110B2 (en) * 2007-11-01 2012-03-20 Northrop Grumman Systems Corporation Calibration of a gesture recognition interface system
EP2133619A1 (de) 2008-06-10 2009-12-16 Sick Ag Dreidimensionale Überwachung und Absicherung eines Raumbereichs
EP2568253B1 (en) * 2010-05-07 2021-03-10 Shenzhen Taishan Online Technology Co., Ltd. Structured-light measuring method and system
JP2013210254A (ja) * 2012-03-30 2013-10-10 Canon Inc 三次元計測装置、三次元計測方法及び三次元計測プログラム
JP6021533B2 (ja) * 2012-09-03 2016-11-09 キヤノン株式会社 情報処理システム、装置、方法及びプログラム
DE102012023623B4 (de) * 2012-11-28 2014-07-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren zum Zusammensetzen von Teilaufnahmen einer Oberfläche eines Objektes zu einer Gesamtaufnahme des Objektes und System zum Erstellen einer Gesamtaufnahme eines Objektes
US20140307055A1 (en) * 2013-04-15 2014-10-16 Microsoft Corporation Intensity-modulated light pattern for active stereo
US20140368614A1 (en) * 2013-06-13 2014-12-18 Edge Toy, Inc. Three dimensional scanning apparatuses and methods for adjusting three dimensional scanning apparatuses
US20150015701A1 (en) * 2013-07-10 2015-01-15 Faro Technologies, Inc. Triangulation scanner having motorized elements
US9562760B2 (en) * 2014-03-10 2017-02-07 Cognex Corporation Spatially self-similar patterned illumination for depth imaging
DE102014210672A1 (de) * 2014-06-05 2015-12-17 BSH Hausgeräte GmbH Gargerät mit Lichtmusterprojektor und Kamera
US10105186B2 (en) * 2014-06-09 2018-10-23 The Johns Hopkins University Virtual rigid body optical tracking system and method
US20150381972A1 (en) * 2014-06-30 2015-12-31 Microsoft Corporation Depth estimation using multi-view stereo and a calibrated projector

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011158386A (ja) * 2010-02-02 2011-08-18 Kurabo Ind Ltd 非接触三次元計測装置及び非接触三次元計測方法
JP2011237296A (ja) * 2010-05-11 2011-11-24 Nippon Telegr & Teleph Corp <Ntt> 3次元形状計測方法、3次元形状計測装置、及びプログラム
WO2014091306A1 (en) * 2012-12-14 2014-06-19 Faro Technologies, Inc. Device for optically scanning and measuring an environment

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
吉川 友樹、外2名: ""パターン投影と二眼視を統合したリアルタイム高精細ステレオ"", 第75回(平成25年)全国大会講演論文集(2) 人工知能と認知科学, JPN6019020133, 6 March 2013 (2013-03-06), JP, pages 555 - 556, ISSN: 0004147914 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018032986A (ja) * 2016-08-24 2018-03-01 ソニー株式会社 情報処理装置および方法、車両、並びに情報処理システム
US11195292B2 (en) 2016-08-24 2021-12-07 Sony Corporation Information processing apparatus and method, vehicle, and information processing system

Also Published As

Publication number Publication date
WO2016041695A1 (de) 2016-03-24
CN107077729B (zh) 2021-02-09
CN107077729A (zh) 2017-08-18
EP3195256A1 (de) 2017-07-26
JP6625617B2 (ja) 2019-12-25
EP3195256B1 (de) 2020-06-10
US20170178354A1 (en) 2017-06-22
DE102014113389A1 (de) 2016-03-17
US10068348B2 (en) 2018-09-04

Similar Documents

Publication Publication Date Title
JP6625617B2 (ja) カメラ画像で投影構造パターンの構造要素を特定する方法および装置
US10088296B2 (en) Method for optically measuring three-dimensional coordinates and calibration of a three-dimensional measuring device
US20180164090A1 (en) Method for optically measuring three-dimensional coordinates and controlling a three-dimensional measuring device
US9217637B2 (en) Device for optically scanning and measuring an environment
JP6347789B2 (ja) 周囲環境内を光学的に走査及び計測するシステム
KR101601331B1 (ko) 물체의 모양을 삼차원 측정하기 위한 시스템 및 방법
EP2475954B1 (en) Non-contact object inspection
US11398085B2 (en) Systems, methods, and media for directly recovering planar surfaces in a scene using structured light
US8649025B2 (en) Methods and apparatus for real-time digitization of three-dimensional scenes
US10648789B2 (en) Method for monitoring linear dimensions of three-dimensional objects
JP2010507079A (ja) 三次元輪郭の非接触検出のための装置および方法
JP2016166815A (ja) 物体検出装置
JP2008241643A (ja) 3次元形状測定装置
JP3677444B2 (ja) 三次元形状測定装置
JP2017527812A (ja) 3次元座標の光学測定のための方法および3次元測定デバイスの較正
CN105698707B (zh) 一种光栅三维形貌测量仪
JP7093915B2 (ja) 表面形状測定方法
JP2017528714A (ja) 3次元座標の光学測定のための方法および3次元測定デバイスの制御
JP2007093412A (ja) 3次元形状測定装置
Rodrigues et al. Structured light techniques for 3D surface reconstruction in robotic tasks
JP2019207152A (ja) 三次元計測装置、三次元計測装置の位置表示方法およびプログラム
US20160349045A1 (en) A method of measurement of linear dimensions of three-dimensional objects
US10060733B2 (en) Measuring apparatus
JP2008164338A (ja) 位置検出装置
JP6611872B2 (ja) 計測装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180501

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190527

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190606

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190905

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191127

R150 Certificate of patent or registration of utility model

Ref document number: 6625617

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250