JP3852285B2 - 3D shape measuring apparatus and 3D shape measuring method - Google Patents

3D shape measuring apparatus and 3D shape measuring method Download PDF

Info

Publication number
JP3852285B2
JP3852285B2 JP2001002216A JP2001002216A JP3852285B2 JP 3852285 B2 JP3852285 B2 JP 3852285B2 JP 2001002216 A JP2001002216 A JP 2001002216A JP 2001002216 A JP2001002216 A JP 2001002216A JP 3852285 B2 JP3852285 B2 JP 3852285B2
Authority
JP
Japan
Prior art keywords
camera
pattern
output value
dimensional shape
cameras
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2001002216A
Other languages
Japanese (ja)
Other versions
JP2002206919A (en
Inventor
研 東海
哲男 伊與田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Priority to JP2001002216A priority Critical patent/JP3852285B2/en
Publication of JP2002206919A publication Critical patent/JP2002206919A/en
Application granted granted Critical
Publication of JP3852285B2 publication Critical patent/JP3852285B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は測定対象に対してパターン光を照射することによって得られるパターン投影像を、複数の撮像手段で異なる方向から撮像し、パターンの変化に基づいて距離情報を得る三角測量法に基づく3次元形状計測装置および3次元形状計測方法に関する。
【0002】
【従来の技術】
3次元形状を取得する手法には、アクティブ手法(Active vision)とパッシブ手法(Passive vision)がある。アクティブ手法は、(1)レーザ光や超音波等を発して、対象物からの反射光量や到達時間を計測し、奥行き情報を抽出するレーザー手法や、(2)スリット光などの特殊なパターン光源を用いて、対象表面パターンの幾何学的変形等の画像情報より対象形状を推定するパターン投影方法や、(3)光学的処理によってモアレ縞により等高線を形成させて、3次元情報を得る方法などがある。一方、パッシブ手法は、対象物の見え方、光源、照明、影情報等に関する知識を利用して、一枚の画像から3次元情報を推定する単眼立体視、三角測量原理で各画素の奥行き情報を推定する二眼立体視等がある。
【0003】
一般的にアクティブ手法のほうが計測精度は高いが、投光手段の限界などにより、測定できるレンジが小さい場合が多い。一方、パッシブ手法は汎用的であり、対象に対する制約が少ない。本発明は、このアクティブ手法の3次元計測装置であるパターン投影法に関するものである。
【0004】
パターン投影法では、対象とする物体に基準となるパターン光を投影し、基準となるパターン光が投影された方向とは異なる方向から撮影を行う。撮影されたパターンは、物体の形状によって変形を受けたものとなる。観測された変形パターンと投影したパターンとの対応づけを行うことで、物体の3次元計測を行える。パターン投影法では、変形パターンと投影したパターンの対応づけにおいていかに誤対応を少なくし、かつ簡便に行うかが課題となる。そこで、様々なパターン投影の手法(空間パターンコード化、モアレ、色符号化)が提案されている。
【0005】
代表的な空間コード化の一例として、例えば特開平5−3327375号公報に開示されている構成がある。この例では、レーザ光源とレーザ光をスリット形に整形するレンズ系と、整形されたレーザ光を対象物に走査して照射するスキャンニング装置と対象物からの反射光を検出するカメラとこれらを制御する装置からなる。
【0006】
スキャンニング装置から走査されるレーザ光によって対象物上に、レーザ光が照射された部分と照射されていない部分とで縞模様が形成される。レーザ光の照射を異なる複数のパターンによって行うことで対象物上はN個の識別可能な部分に分割される。対象物を異なる位置からカメラで撮影した画像上の各画素が分割されたどの部分に含まれるかを判別することで対象物の形状を算出できる。
【0007】
解像度を高くする為には複数回のレーザによるスキャンを行い、複数回のカメラによる撮影が必要となる。例えば、画面を256の領域に分割する為には8回の撮影が必要となる。そのため動きの早い物体の撮影は困難となり、更にスキャンを行う間は撮影系を確実に固定しておく必要があるので装置自体は簡便となっても手軽に撮影を行う事は難しい。
【0008】
パターンの投光回数を減らす手段として特開平3−192474号公報に開示されている色符号化がある。色符号化においては、q、kを2以上の所定の自然数とした時、q色以上の色を用いて、隣接する2本のスリット光が同色にならず、隣接するk本のスリット光による色の並びが1度しか現れないように符号化されたパターンを投影し、観測された画像からスリットの色を検出し、該当スリットの色並びからスリット番号を取得する。スリット番号から、スリットの照射方向を算出し空間コード化の例と同様に距離を算出することができる。
【0009】
しかしながら、色符号化ではコード列の並びからコードを復元する為に、コードの復元の計算量が大きいという問題点がある。更に、R,G,Bの3色を用いて256の領域に分割したい場合には、コードを知りたいスリットの周囲8本のスリット光の並びを知る必要があり、連続してスリットが長く観測できるような形状の物体の計測にしか適さない。
【0010】
スリットの復元を容易に行い、更に1回でコード化されたパターンを投影する手段として特許第2565885号で公開されている空間パターンコード化法がある。この特許では、3値以上の濃淡、又は3色以上の色、又は濃淡と色の組み合わせによって3種類以上の階調領域を有し、該階調領域の境界線の交点において少なくとも3種類の階調領域が互いに接しているように配置した多値格子板パターンを具備し、該パターンを被測定対象物に投影して生じる投影像の交点に該交点で接する階調の種類と順序に応じた主コードを付与し、該主コードを、または交点の主コードとその周囲交点の主コードとを組み合わせた組み合わせコードを、交点の識別用の特徴コードとして付与したことを特徴とする。
【0011】
しかし、上述の方式では撮影対象によってはコード化が崩れてしまい正しくコードの対応づけができなくなる場合がある。例えば、投影パターン光源によって投光されたパターン列が"12345678"であるとき、撮影対象の構造によってはカメラで撮影されるパターン列が"1267"と欠落して認識されたり、パターン列"758"のように反転したパターン列が得られる場合がある。また、対象物の形状や反射率などによっても投光したパターンと撮影されたパターン列の変化により対応づけは困難となる。
【0012】
色符号化においては、復号化時にスリットのグループ化を行う際、スリットの欠落、反転の可能性があるパターンについては復号を行わない手法を用いてこの問題を回避している。空間パターンコード化法では2次元パターンを用いることで、前述の誤りの可能性を低減してはいるが、原理的には対象物によっては同じ誤りが生じる。従って、前述の方式では、実験室内の特殊な状況や対象物体を限定した状況での撮影では優れた精度が得られるものの、対象を限定しない一般的な撮影状況では精度の劣化は否めない。また、光源を用いた投光を行う手法では、広いレンジを有するものを対象とした時に、投光が届かない部位については3次元形状が得られない。また、投光されたパターンを対象物が遮ることで生じる影の領域も、距離の計測ができないため、実際に見えているのに距離が得られない領域が存在してしまう。
【0013】
そこで、本出願と同一出願人に係る特願平10−191063号、(特開2000−9442)、特願平10−247796(特開2000−65542)では投光されたパターンをフィードバックし新たなコードを生成することで対象物に依存しない3次元画像撮影装置を提案した。
【0014】
【発明が解決しようとする課題】
上記の特願平10−191063号、(特開2000−9442)、特願平10−247796(特開2000−65542)における3次元画像撮影装置は、投光パターンを複数の強度や複数の波長によって符号化されたものを投影して実現する。その際に、投光パターンが被写体の輝度情報、素材などの影響によって変化し、3次元形状を算出する際に、エラーとなって適切な3次元形状が計測できない。そのために、上記3次元撮像装置は、投光素子と同光軸に配置をし、被写体情報による投光パターンの変化分をモニタし、再符号化を実施し、3次元形状を計測している。
【0015】
しかしながら、上記構成は、一方のカメラで得られた新しい符号が全く同じ新しい符号として別のカメラでも発生していることを前提としている。これは、装置中のすべてのカメラが同じ出力特性を有しており、対象物体上でのある明度に対して同じ信号を出力することを必要とする。この条件を厳密に満たす複数のカメラを準備することはコスト的に難しい。また、仮に準備したとしても、計時変化あるいは使用時の動作環境の変動などによりばらつきが生じてしまうことは避け難い。
【0016】
さらに、対象物体上のテクスチャによって生じた新しい符号は、一意であるとは限らない。これは、対象物体上の別の点における別のテクスチャによって、同じ新しい符号が発生する可能性があるためである。すなわち、点p(x,y)における反射率をr(x,y)、投影された符号の輝度をi(x,y)としたときに、対象物体上の2つの異なる点P1(x1,y1)と点P2(x2,y2)の反射率と、投影された輝度との関係が、下記式(1)の関係にあるとする。
【数1】
r(x1,y1)/r(x2,y2)≒i(x2, y2)/i(x1,y1)…(1)
【0017】
対象物体上の2つの異なる点P1(x1,y1)と点P2(x2,y2)が上記式(1)の関係にあるとすると、下記式(2)の関係を満足することになる。
【数2】
r(x1,y1)×i(x1,y1)≒r(x2,y2)×i(x2,y2)…(2)
【0018】
この結果、カメラによって撮影された像の持つ輝度は、対象物体上の2つの異なる点P1(x1,y1)と点P2(x2,y2)において同じものとなってしまう。従って、各カメラの撮影像の輝度に基づいて対応付けを行なおうとした場合、一方のカメラで撮影された点と、他方のカメラで撮影された点の対応付けが困難になる。特に、複数のカメラを使用した撮影画像を用いて対応付け処理を実行する構成では、カメラ各々の特性によりカメラによって異なる出力値がカメラ毎に異なる場合がある、このようにカメラの特性により出力値が異なる場合、上述のような投光パターンを投影した画像を複数のカメラで撮影し、一方のカメラで撮影された点と、他方のカメラで撮影された点の対応付けを行なおうとしても対応付けが困難、あるいは不正確になることがある。
【0019】
本発明は、上記問題点を解決することを目的としてなされたものであり、出力特性にばらつきがあるようなカメラ群を使用した場合でも正確な対応付けのもとに再符号化を行うことができ、かつ、対象物体のテクスチャへの依存を少なくすることで誤対応が生じにくく、信頼性の高い3次元形状計測方法および装置を提供することにある。
【0020】
【課題を解決するための手段】
本発明は、上述の目的を解決するものであり、その第1の側面は、
光源を用いて与えられた符号化されたスリットパターンを投影する投光手段と、該投光手段によって投光されるパターンと光学的にほぼ同視点および同光軸を有する第1のカメラと、前記第1のカメラと異なる光軸上に配置された第2のカメラから構成される3次元形状計測装置において、
前記第1および第2のカメラにより撮像したパターン投影画像のエッジ間の出力値情報を記憶する出力値記憶手段であり、参照物体に対してパターンを投影した場合と、計測物体に対してパターンを投影した場合との前記第1のカメラおよび第2のカメラの出力値を記憶する出力値記憶手段と、
参照物体に対してパターンを投影した場合と、計測物体に対してパターンを投影した場合との前記第1のカメラの出力値に基づいて前記計測物体についての反射係数を演算する反射係数演算手段と、
前記反射係数と、前記記憶手段に記憶された参照物体に対してパターンを投影した場合の前記第2のカメラ出力値とを演算して前記第2のカメラの出力予測値を算出する出力値予測手段と、
計測物体に対してパターンを投影し、前記第2のカメラにより撮像したパターン投影画像のエッジ間出力値情報から、前記出力値予測手段が算出した第2のカメラの出力予測値にもっとも近い出力値を持つエッジを抽出して、前記第1のカメラの出力値に対する対応点として選択する対応づけ手段と、
を有することを特徴とする3次元形状計測装置にある。
【0021】
さらに、本発明の3次元形状計測装置の一実施態様において、計測物体に対してパターンを投影した場合の前記第2のカメラの出力値における類似パターンを検出するエッジ探索手段を有し、前記出力値予測手段は、前記エッジ探索手段によって類似パターンが検出された場合、前記出力値記憶手段に記憶された参照物体に対してパターンを投影した場合の前記第2のカメラの出力値と前記反射係数演算手段によって算出された反射係数に基づいて前記第2のカメラにおける各エッジの出力予測値を算出し、前記対応付け手段は、前記類似パターンとの比較に基づいて前記第2のカメラの対応エッジを選択する処理を実行する構成を有することを特徴とする。
【0022】
さらに、本発明の3次元形状計測装置の一実施態様において、前記投光手段の出射光と、前記第1のカメラへの入射光とは、ビームスプリッタによって分離される構成であり、前記投光手段と前記第1のカメラとは、それぞれが光学的に同軸となるように配置された構成であることを特徴とする。
【0023】
さらに、本発明の3次元形状計測装置の一実施態様において、前記投光手段は不可視領域の光を発生する光源を有し、第1のカメラは不可視領域の光を透過するフィルターおよび不可視領域の光を遮断するフィルターを有することを特徴とする。
【0024】
さらに、本発明の3次元形状計測装置の一実施態様において、前記第2のカメラは、前記計測物体を異なる角度で撮像する複数のカメラによって構成され、該複数の第2のカメラの各々の撮影した投影パターンに基づいて求められる距離情報を合成して3次元画像を得るよう構成したことを特徴とする。
【0025】
さらに、本発明の第2の側面は、
光源を用いて与えられた符号化されたスリットパターンを投影する投光ステップと、
該投光ステップによって投光されるパターンと光学的にほぼ同視点および同光軸を有する第1のカメラと、前記第1のカメラと異なる光軸上に配置された第2のカメラとにより、参照物体に対してパターンを投影した場合と、計測物体に対してパターンを投影した場合との撮像パターン画像におけるエッジ間の出力値情報を出力値記憶手段に記憶する出力値記憶ステップと、
参照物体に対してパターンを投影した場合と、計測物体に対してパターンを投影した場合との前記第1のカメラの出力値に基づいて前記計測物体についての反射係数を演算する反射係数演算ステップと、
前記反射係数と、前記記憶手段に記憶された参照物体に対してパターンを投影した場合の前記第2のカメラ出力値とを演算して前記第2のカメラの出力予測値を算出する出力値予測ステップと、
計測物体に対してパターンを投影し、前記第2のカメラにより撮像したパターン投影画像のエッジ間出力値情報から、前記出力値予測手段が算出した第2のカメラの出力予測値にもっとも近い出力値を持つエッジを抽出して、前記第1のカメラの出力値に対する対応点として選択する対応づけステップと、
を有することを特徴とする3次元形状計測方法にある。
【0026】
さらに、本発明の3次元形状計測方法の一実施態様において、計測物体に対してパターンを投影した場合の前記第2のカメラの出力値における類似パターンを検出するエッジ探索ステップを有し、前記出力値予測ステップは、前記エッジ探索ステップにおいて類似パターンが検出された場合、前記出力値記憶手段に記憶された参照物体に対してパターンを投影した場合の前記第2のカメラの出力値と前記反射係数演算手段によって算出された反射係数に基づいて前記第2のカメラにおける各エッジの出力予測値を算出し、前記対応付けステップは、前記類似パターンとの比較に基づいて第2のカメラの対応エッジを選択する処理を実行することを特徴とする。
【0027】
さらに、本発明の3次元形状計測方法の一実施態様において、前記第2のカメラは、前記計測物体を異なる角度で撮像する複数のカメラによって構成され、該複数の第2のカメラの各々の撮影した投影パターンに基づいて求められる距離情報を合成して3次元画像を取得するステップを有することを特徴とする。
【0028】
【発明の実施の形態】
以下、図を用いて本発明の3次元形状計測装置および3次元形状計測方法の実施の形態を詳しく説明する。
【0029】
まず、再コード化処理を用いた距離データの取得原理について説明する。再コード化処理を用いた距離データの取得を実行する3次元形状計測装置の一構成例を表すブロック図を図1に示す。図2に光源と撮像素子の位置関係を示す。
【0030】
図2に示す構成では、3次元形状測定装置は、3台のカメラ101〜103および投光器104を備える。各カメラの距離関係が揃うように、図示の距離I1、I2、I3は等しくされている。カメラ3,103と投光器104は、ビームスプリッタとしてのハーフミラー105を用いて光軸が一致するように配置される。カメラ1,101、カメラ2,102は、カメラ3,103と投光器104の両側に、それらと光軸が異なるように配置される。中央の光軸と両側の光軸との距離が基線長Lである。
【0031】
投光器104は、光源106と、マスクパターン107と、強度パターン108と、プリズム109とを有する。ここで光源106は、赤外もしくは紫外光を用いた不可視領域の光源を用いることができる。この場合、各カメラは図3に示すように構成される。すなわち、入射してきた光310は、プリズム301で2方向に分割され、一方は不可視領域(赤外あるいは紫外)透過フィルター302を通って撮像装置(例えばCCDカメラ)303に入射し、他方は不可視領域(赤外と紫外)遮断フィルター304を通って撮像装置305に入射する。
【0032】
また図2に示す光源106は、可視領域あるいは不可視領域に限定せず、撮像可能な波長帯の光源を用いてもよい。この場合、カメラ3,103においては、プログレッシブスキャンタイプのCCDカメラを用い、カメラ1,101、カメラ2,102に関しては、特に構成はこだわらない。ただし、カメラ3,103との対応を考慮すれば、同じ構成のCCDカメラが望ましい。光源106からパターンが投影され、3台のカメラ1〜3(101〜103)が同時に撮影を行う。そして各カメラは、フィルター304,305(図3参照)を通過した光を撮像装置303,305で得ることにより、画像の一括取得を行う。
【0033】
図1を用いて3次元形状測定装置の構成を説明する。図示のように、カメラ1,101は、撮影して得た輝度情報を輝度値メモリ121に記憶し、撮影パターンをパターン画像メモリ122に記憶する。カメラ2,102は、同様に、輝度情報を輝度値メモリ123に記憶し、撮影パターンをパターン画像メモリ124に記憶する。カメラ3,103は、輝度情報を輝度値メモリ125に記憶し、撮影パターンをパターン画像メモリ126に記憶する。投光器104は、事前に作成したコード化されたパターンを後に参照する為に、各スリットを正方格子上のセルに分割してフレームメモリ127に格納している。
【0034】
この記憶保持された撮影パターンおよび輝度情報を用いて、次のようにして3次元画像を得る。以下の操作は、カメラ1,101とカメラ3,103の組み合わせ、カメラ2,102とカメラ3,103の組み合わせの双方に共通なので、ここではカメラ1,101とカメラ3,103の組み合わせを例にとって説明する。
【0035】
図1において、領域分割部128は、カメラ3,103で撮影された撮影パターンの領域分割を行う。そして、隣り合うスリットパターン間の強度差が閾値以下である領域については投光器からの光が届いてない領域1として抽出し、スリットパターン間の強度差が閾値以上である領域については領域2として抽出する。再コード化部129は、抽出された領域2について、パターン画像メモリ126に記憶された撮影パターンとフレームメモリ127に格納された投影パターンを用いて再コード化を行う。
【0036】
図4は、再コード化を行う際のフローチャートである。まず、各スリットパターンをスリット幅毎に縦方向に分割し(ステップS11)、正方形のセルを生成する。生成された各セルについて強度の平均値をとり、平均値を各セルの強度とする(ステップS12)。画像の中心から順に、投影パターン及び撮影パターンの対応する各セル間の強度を比較し、対象物の反射率、対象物までの距離などの要因によってパターンが変化したためにセル間の強度が閾値以上異なるかどうかを判断する(ステップS13)。閾値以上異ならない場合は、撮影されたすべてのセルについて再コード化を終了する(ステップS17)。
【0037】
閾値以上異なる場合は、新たな強度のセルかどうか判断する(ステップS14)。そして、新たな強度のセルのときは、新たなコードの生成、割り付けを行う(ステップS15)。また、新たな強度のセルでないときは、他に出現している部位と識別可能とするスリットパターンの並びを用いてコード化する(ステップS16)。これで、再コード化を終了する(ステップS17)。
【0038】
図5はスリットパターンのコード化の例を示すもので、同図(a)はスリットの並びによってコード化された投影パターンであり、強度としてそれぞれ3(強)、2(中)、1(弱)が割り当てられている。同図(b)においては、左から3つめのセルで強度が変化して新たなコードが出現したので、新たに0というコードを割り当てている。同図(c)においては、左から3つめ上から2つめのセルに既存のコードが出現しているので、セルの並びから新たなコードとして、縦の並びを[232]、横の並びを[131]という具合に再コード化する。この再コード化は、対象の形状が変化に富む部位には2次元パターンなどの複雑なパターンを投光し、変化の少ない部位には簡単なパターンを投光しているのに等しい。この過程を繰り返し、全てのセルに対して一意なコードを割り付けることで再コード化を行う。
【0039】
図6は、カメラ601〜603および投光器604を用いて、壁605の前に配置された板606にコード化されたパターンを投光する例を示す。ここでコード化されたパターンは、図7に示すスリットパターンである。このとき、カメラ601、カメラ602で得られる画像は、図8及び図9に示すように、それぞれ板606の影となる領域801、901が生ずる。本例では、板606の表面には新たにコード化されたパターンとして、図10に示すようなスリットパターンが得られる。
【0040】
次に図1に戻って説明する。カメラ1,101側のコード復号部130は、パターン画像メモリ122から投影パターンを抽出し、上述と同様にしてセルに分割する。そして、先に再コード化部129で再コード化されたコードを用いて各セルのコードを検出し、この検出したコードに基づいて光源からのスリット角θを算出する。図11は空間コード化における距離の算出方法を示す図であり、各画素の属するセルのスリット角θとカメラ1で撮影された画像上のx座標とカメラパラメータである焦点距離Fと基線長Lとから、次の式(3)によって距離Zを算出する。
【0041】
【数3】
Z=(F×L)/(x+F×tanθ) …(3)
【0042】
この距離Zの算出は、カメラ2,102側のコード復号部131においても、同様に行われる。また、上述の領域1については次のようにして距離を算出する。領域1では、投光されたパターンによるパターン検出は行うことができないので、対応点探索部132において、カメラ1〜3の輝度値メモリ121、123、125から読み出された輝度情報を用いて視差を検出し、これに基づいて距離を算出する。領域1を除く領域に対しては、前述の操作により距離が算出されているので、領域1の距離の最小値が得られ、また対応づけ可能な画素も限定される。これらの制限を用いて、画素間の対応づけを行い視差dを検出し、カメラパラメータである画素サイズλを用いて、次の式(4)によって距離Zを算出する。
【0043】
【数4】
Z=(L×F)/(λ×d)…(4)
【0044】
前述の手法でカメラ3,103とカメラ1,101の組み合わせによって得られた距離情報では、図8に示す板の影となる領域801の距離情報が検出できない。一方、カメラ3,103とカメラ2,102の組み合わせによって得られた距離情報では、図9に示す板の影となる領域901の距離情報が検出できない。しかし、図8に示す板の影となる領域801の距離情報が算出可能である。従って、図1の距離情報統合部133において、カメラ3,103とカメラ1,101の組で算出された距離情報およびカメラ3,103とカメラ2,102で算出された距離情報から、カメラ3の画像(図12)のすべての画素に対する距離情報を取得する。以上の操作によって得られた距離情報を、例えばカメラ3の輝度画像に対応づけて3次元画像メモリに記憶することで3次元形状計測を行う。
【0045】
図13に測定対象1301に対してパターン光を照射するプロジェクタ1302、パターン光を投影した測定対象の撮影を実行する2つの撮像手段1303、1304の構成からなる3次元形状計測処理システム構成を示す。撮像手段1303は、投光プロジェクタ1302と同軸方向の像を撮影するために、ビームスプリッタとしてのハーフミラー1305を介した像を撮影する構成となっている。撮像手段1303、1304の撮影パターンに基づいて前述の手法により測定対象の距離データ。すなわち3次元形状を求める構成である。
【0046】
投光プロジェクタ1302によって測定対象に投影されるパターンは、例えば図14(a)に示すパターンであり、測定対象が図14(b)のような形状である場合、測定対象に照射されるパターン像、および2つの撮像手段によって撮影されるパターンは、図15に示すようなものとなる。図15(a)がパターン投影プロジェクタにより測定対象に投影されるパターン像であり、図15(b)がパターン投影プロジェクタと同光軸位置に配置されたカメラ1,1501により撮影されるパターン像であり、図15(c)がカメラ1と異なる方向からオブジェクトを撮らえるカメラ2,1502により撮影されるパターン像である。
【0047】
図15の構成において、カメラ1,1501およびカメラ2,1502により撮影されるパターン像に基づいて再符号化する際に、カメラの特性、出力を考慮した対応付け処理を実行して、正確な距離データを取得する本発明の3次元形状計測装置および3次元形状計測方法の処理について説明する。
【0048】
図16のフローチャートを参照して詳しく説明する。まず、図15の構成におけるカメラ1,1501、およびカメラ2,1502、各カメラの出力特性を計測するため、測定対象物ではない参照物体を配置し、参照物体上にパターンを投影(図16のS101)し、投影された投影パターンを各カメラで撮像(S111,S121)する。この状態を標準状態と呼ぶこととする。参照物体としては、均一な反射係数を有する平板を用いることが望ましい。
【0049】
参照物体上に投影された投影パターンを各カメラで撮影した画像から、エッジを抽出(S112,S122)し、各コードに対応する出力値を算出する。出力値の算出については、エッジ間に存在する複数画素について輝度値の平均値を算出(S113,S123)するなどによって行うことができる。各カメラ(図15ではカメラ1,1501、およびカメラ2,1502)ごとに各コードに対応する出力値を算出し、各コードと出力値の対応をメモリに記憶(S114,S124)しておく。
【0050】
具体的には、参照物体上に投影された投影パターンをカメラで撮影した画像におけるn番目のエッジ位置をEn、その左側および右側のコードをそれぞれCleft(n),Cright(n)とする。また、Cleft(n)およびCright(n)のコードに対するカメラ1,1501の出力値をOleft-1(n),Oright-1(n)とし、カメラ2,1502の出力値をOleft-2(n),Oright-2(n)として、各コードに対応付けて記憶する。
【0051】
メモリには、カメラ1,1501の出力値Oleft-1(n),Oright-1(n)と、カメラ2,1502の出力値Oleft-2(n),Oright-2(n)の値が、各コードに対応付けて記憶されることになる。具体的には、コード化された投影パターンが強度としてそれぞれ3(強)、2(中)、1(弱)が割り当てられている3コードを有する場合、各エッジ位置の左右のコード3,2,または1に対する各カメラの出力値の対応をメモリに格納する。
【0052】
以上の処理により、標準状態における各コードと各カメラの出力値との対応が測定されたことになる。なお、この参照物体を用いた標準状態における各カメラの出力値測定処理は計測前にあらかじめ行っておくことができ、計測ごとに繰り返す必要はない。
【0053】
次に実際の測定対象物に対してパターンを投影(S102)し、上述の出力値測定処理を実行した各カメラで撮像(S115,S125)を行う。次に、カメラ1,1501において撮像された画像からエッジ検出処理によりエッジを抽出(S116)する。カメラ1,1501はパターン投影装置と同光軸、同視点を有するので、前述した標準状態とほぼ同じ位置にエッジ位置を検出することができる。すなわち、測定対象物における撮像画像について、標準状態におけるエッジ位置:En,左右コード:Cleft(n),Cright(n)を対応させることができる。
【0054】
ただし、カメラの出力値は対象物体の形状、模様などテクスチャによって変化させられている。この変化により、エッジ位置:Enの左右のカメラ1,1501の実際の出力値は例えば、O'left-1(n),O'right-1(n)となる。O'left-1(n),O'right-1(n)の算出(S117)については、標準状態におけるカメラ出力値Oleft-1(n),Oright-1(n)を算出したときと同じ手順を踏めばよい。このとき、標準状態におけるカメラ出力値と、測定対象物の撮影データの持つカメラ出力値との比率O’/Oは、対象物体上での各ストライプにおける一種の反射率とみなすことができる。n番目のエッジ位置をEnの左側および右側の位置におけるカメラ出力値との比率は以下の式(5)によって示される。
【0055】
【数5】
left(n)=O'left-1(n)/Oleft-1(n) …(5)−L
right(n)=O'right-1(n)/Oright-1(n)…(5)−R
上記式において、Rleft(n),Rright(n)は対象物体上での各ストライプにおける反射率を示す反射係数と見なすことができる。
【0056】
上記式を用いて、カメラ1,1501の撮影画像の各エッジ位置における反射率を示す反射係数:Rnを算出(S118)する。また、カメラ2,1502の撮影画像においても、カメラ1,1501の場合と同様の処理を実行してエッジ位置を検出し、カメラ2,1502のエッジ位置をEnの左側および右側の位置における出力値としてのエッジ間輝度:O'left-2(n),O'right-2(n)を算出(S127)する。
【0057】
次に、ステップS117で算出したカメラ1での計測物体パターン投影画像におけるエッジ間輝度情報と、ステップS127で算出したカメラ2での計測物体パターン投影画像におけるエッジ間輝度情報、さらに、ステップS118で算出した反射係数:Rを用いて、エピポーララインに基づく対応付け処理(S103)を実行する。
【0058】
対応付け処理(S103)の詳細を図17に示す。カメラ2,1502の標準状態での出力値O2に基づいてカメラ2の計測状態での出力値の予測値O’2-preの算出処理(S201)を実行する。カメラ1,1501においてS118において算出された反射係数:Rleft(n),Rright(n)とカメラ2,1502の標準状態での出力値を用いれば、カメラ2,1502が測定状態で出力するであろう値、すなわちカメラ予測出力値を推定できる。n番目のエッジ位置をEnの左側および右側の位置におけるカメラ2,1502の予測出力値をO'left-2-pre(n),O'right-2-pre(n)とする。
【0059】
カメラ2,1502の出力が標準状態と計測状態とで異なる傾きを持ってはいるが出力の線形性を有していた場合、カメラ2,1502の予測出力値は、以下の式(6)で推定することができる。
【0060】
【数6】
O'left-2-pre(n)=Rleft(n)×Oleft-2(n)…(6)−L
O'right-2-pre(n)=Rright(n)×Oright-2(n)…(6)−R
【0061】
上記式によって、n番目のエッジ位置をEnの左側および右側の位置におけるカメラ2,1502の予測出力値O'left-2-pre(n),O'right-2-pre(n)を算出する。
【0062】
次に、ステップS202において上述の処理によって求めたカメラ2,1502の予測出力値O'left-2-pre(n),O'right-2-pre(n)にもっとも近い値を持つ、カメラ2,1502の計測状態における実際の出力値O'left-2(n),O'right-2(n)を探索し、この予測出力値に基づく探索エッジに基づいて、カメラ1の計測画像に対するエピポーラライン上の対応点とする対応付け処理を行なう。対応づけは、エピポーラライン上においてO'left-2-pre(n),O'right-2-pre(n)にほぼ等しいO'left-1(n),O'right-1(n)をもつようなエッジを探索すれば行うことができる。このように、カメラ1,1501とカメラ2,1502が同じ出力特性を持たない、すなわち、O'left(right)-1(n)とO'left(right)-2(n)が一致しない場合でもカメラ2,1502において確実に対応点を検出することができるようになる。対応点が決定された後は一般的な三角測量の原理により距離が測定できる。
【0063】
図16、図17の処理フローを実行する装置構成を図18に示す。図18の構成は、図1に示す構成中の対応点探索部と、2つのカメラに対応する2つの輝度値メモリを抽出した構成を示すブロック図である。対応点探索部1710は、反射係数演算手段1711、出力値予測手段1712、対応付け手段1713を有する、カメラ1の撮影画像に基づいて取得されるエッジ間の輝度情報は、出力値記憶手段1720に格納され、カメラ2の撮影画像に基づいて取得されるエッジ間の輝度情報は出力値記憶手段1730に記憶される。
【0064】
出力値記憶手段1720、出力値記憶手段1730は、標準状態、計測状態における各カメラの撮影画像の出力値を記憶する。
【0065】
まず、参照物体に対してパターンを投影した場合において算出手段が算出した第1のカメラおよび第2のカメラの出力値を出力値記憶手段1720、出力値記憶手段1730に記憶し、次に計測物体に対してパターンを投影して各カメラで撮影した画像の出力値を出力値記憶手段1720、出力値記憶手段1730に記憶する。
【0066】
対応点探索部1710の反射係数演算手段1711は、出力値記憶手段1720に記憶された各出力値を前述の式(5)を適用して演算し、反射係数を算出する。次に、出力値予測手段1712は、算出された反射係数と出力値記憶手段1730に記憶された出力値とに基づく演算、すなわち前述の式(6)を適用して第2のカメラの出力値を予測する出力値予測処理を実行する。
【0067】
次に、対応付け手段1713は、出力値予測手段1712によって算出されたカメラ2の予測出力値O'left-2-pre(n),O'right-2-pre(n)と、出力値記憶手段1720に記憶されたカメラ1,1501の計測状態における実際の出力値O'left-1(n),O'right-1(n)との対応付け処理を行なう。対応づけは、エピポーラ線上における対応付け処理が適用可能である。
【0068】
次に、反射係数Rnを符合化の際のパラメータの1つとして利用する構成例について説明する。これについて図19、図20のフローチャートを参照して説明する。図19は、エピポーラライン上に近似する輝度値パターンがあることを前提とした処理フローであり、図20は、エピポーラライン上に近似する輝度値パターンがある場合、ない場合の両者を想定した処理フローである。
【0069】
図19のフローから説明する。なお、反射係数Rnの算出までは図16における処理フローと同様の手順を実行し、カメラ1、カメラ2により、それぞれ標準状態、計測状態における各カメラの撮影画像の出力値を取得し、カメラ1の標準状態、計測状態画像に基づいて反射係数:Rが求められているものとする。
【0070】
まず、カメラ1,1501の画像とカメラ2,1502の画像を対応付けるためのカメラ2のエピポーラライン上において、近似する輝度値パターンを持つエッジ群αを探索(S301)する。
【0071】
たとえばカメラ2,1502のエピポーラライン上における2つの異なるエッジ位置a,bで近似した出力値を有する場合とは、エッジ位置aの左右の出力値:O'left-2(n,a),O'right-2(n,a)と、エッジ位置bの左右の出力値:O'left-2 (n,b),O'right-2(n,b)が下記式(7)のように近似する関係である場合である。
【0072】
【数7】
O'left-2 (n,a)≒O'left-2 (n,b) …(7)−L
O'right-2(n,a)≒O'right-2(n,b) …(7)−R
【0073】
このような近似した輝度パターンを持つエッジ群をカメラ2,1502のエピポーラライン上において探索する。なお、ここでは、エッジの左右(L,R)の2つの隣接輝度値のみを抽出して比較する処理として説明するが、さらに3以上の隣接輝度値を選択して、近似関係にあるパターンを検索してもよい。
【0074】
ステップS301において、カメラ2,1502のエピポーラライン上において近似する輝度値パターン[O'left-2(n,a),O'right-2(n,a)]、[O'left-2 (n,b),O'right-2(n,b)]…の複数のエッジ群α(a,b・・)が検出されると、次に、ステップS302において、エッジ群α(a,b・・)の輝度パターン[O'left-2(n,a),O'right-2(n,a)]または[O'left-2 (n,b),O'right-2(n,b)]と類似する輝度パターンを持つカメラ1,1501におけるエッジ群β(n1,n2・・)を検出する処理を実行する。
【0075】
カメラ2,1502のエピポーラライン上において近似する複数のエッジ群α(a,b・・)に対応するカメラ1,1501のエッジ位置は、前述の図17におけるステップS118で算出した反射係数:Rを用いて算出することができる。例えばエッジ位置:Enの位置における反射係数:Rnはカメラ1,1501の参照状態画像だけで決定できており、各エッジ位置における反射率R(n)を用いて下記式(8)を計算する。
【0076】
【数8】
pre-left=Rleft(n)×Oleft-2(n) …(8)−L
pre-right=Rright(n)×Oright-2(n) …(8)−R
【0077】
カメラ2,1502のエピポーラライン上における近似する複数のエッジ群α(a,b・・)に対応するカメラ1,1501のエッジ位置をn1,n2…とし、各エッジ位置n1、n2について以下の値を算出する。
【0078】
【数9】
pre-left-n1=Rleft(n1)×Oleft-2(n1) …(9)−Ln1
pre-right-n1=Rright(n1)×Oright-2(n1) …(9)−Rn1
pre-left-n2=Rleft(n2)×Oleft-2(n2) …(9)−Ln2
pre-right-n2=Rright(n2)×Oright-2(n2) …(9)−Rn2
【0079】
上記式によって求められる(Opre-left-n1,Opre-right-n1),(Opre-left-n2,Opre-right-n2)は、カメラ2,1502のエッジ位置aまたはbのいずれかの左右の出力値に対応する候補を示す出力の組となる。
【0080】
次に、カメラ1におけるエッジ群β (n1,n2・・)の各々と、カメラ2上のエピポーラライン上のエッジ群α(a,b・・)の近似パターンの各々の比較を実行し、より差異の小さい組合わせを対応エッジとする(S303)処理を実行する。
【0081】
具体的には、カメラ2,1502のエピポーラライン上において近似する複数のエッジ群α(a,b・・)の1つのエッジa:(O'left-2 (n,a),O'right-2(n,a))が(Opre-left-n1,Opre-right-n1),(Opre-left-n2,Opre-right-n2)のいずれにより近いかを比較すればカメラ2,1502のエピポーラライン上のエッジa:の対応点を決定できる。エッジbについても同様に(O'left-2 (n,b),O'right-2(n,b))が(Opre-left-n1,Opre-right-n1),(Opre-left-n2,Opre-right-n2)のいずれにより近いかを比較すればエッジb:の対応点を決定できる。比較方法としては例えば、以下の式(10)を計算する。
【0082】
【数10】
Σ1 = (Opre-left-n1 - O'left-2 (n,a)) 2+(Opre-right-n1 - O'right-2(n,a)) 2
+(Opre-left-n2 - O'left-2 (n,b)) 2+(Opre-right-n2 - O'right-2(n,b)) 2
Σ2 = (Opre-left-n2 - O'left-2 (n,a)) 2+(Opre-right-n2 - O'right-2(n,a)) 2
+(Opre-left-n1 - O'left-2 (n,b)) 2+(Opre-right-n1 - O'right-2(n,b)) 2…(10)
【0083】
上記式(10)を計算し、小さい方の対応を採用することにより、カメラ2,1502の出力(O'left-2 (n,a),O'right-2(n,a))に対応する出力としてカメラ1,1501の出力(Opre-left-n1,Opre-right-n1),(Opre-left-n2,Opre-right-n2)のいずれか一方が選択され、選択された出力を持つエッジ位置がエッジ位置aのカメラ1の撮影画像における対応点とされる。
【0084】
本実施例においては、符合化のパラメータとして反射率を付加しており、本構成により、カメラ2,1502の撮影画像に近似する輝度値パターンが出力された場合でも確実に対応づけ行うことができる。対応点が決定された後は一般的な三角測量の原理により距離が測定できる。
【0085】
次に、図20のフローについて説明する。図20は、エピポーラライン上に近似する輝度値パターンがある場合、ない場合の両者を想定した処理フローである。なお、反射係数Rnの算出までは図16における処理フローと同様の手順を実行し、カメラ1、カメラ2により、それぞれ標準状態、計測状態における各カメラの撮影画像の出力値を取得し、カメラ1の標準状態、計測状態画像に基づいて反射係数:Rが求められているものとする。
【0086】
まず、カメラ1,1501の画像とカメラ2,1502の画像を対応付けるためのカメラ2のエピポーラライン上において、近似する輝度値パターンを持つエッジ群αを探索(S401)する。
【0087】
ここで、近似する輝度値パターンを持つエッジ群αがない場合(S402でNo)は、ステップS406に進み、カメラ1の測定画像とカメラ2の測定画像とのエピポーラライン上での対応付け処理が実行される。エピポーララインには近似パターンがないので、問題なく対応付け処理が実行できる。
【0088】
一方、カメラ2のエピポーラライン上において、近似する輝度値パターンを持つエッジ群αがある場合(S402でYes)は、ステップS403〜S405の処理を実行する。ステップS403〜S405の処理は、図19におけるステップS301〜S303と同様の処理である。
【0089】
図20の処理は、エピポーラライン上に近似する輝度値パターンがない場合は、通常の対応付け処理を実行し、エピポーラライン上に近似する輝度値パターンがある場合にのみ、反射率を用いた予測値算出を実行して、複数の近似パターンの正確な対応付けを行なうものである。
【0090】
図19、図20の処理フローを実行する装置構成を図21に示す。図21の構成は、図1に示す構成中の対応点探索部と、2つのカメラに対応する2つの輝度値メモリを抽出した構成を示すブロック図である。対応点探索部1710は、反射係数演算手段1711、出力値予測手段1712、対応付け手段1713、エッジ探索手段1714を有する、カメラ1の撮影画像に基づいて取得されるエッジ間の輝度情報は、出力値記憶手段1720に格納され、カメラ2の撮影画像に基づいて取得されるエッジ間の輝度情報は出力値記憶手段1730に記憶される。
【0091】
出力値記憶手段1720、出力値記憶手段1730は、標準状態、計測状態における各カメラの撮影画像の出力値を記憶する。
【0092】
まず、参照物体に対してパターンを投影した場合において算出手段が算出した第1のカメラおよび第2のカメラの出力値を出力値記憶手段1720、出力値記憶手段1730に記憶し、次に計測物体に対してパターンを投影して各カメラで撮影した画像の出力値を出力値記憶手段1720、出力値記憶手段1730に記憶する。
【0093】
次に、エッジ探索手段1714は、出力値記憶手段1730に記憶された計測物体に対してパターンを投影してカメラ2で撮影された画像からエピポーラライン上において近似する複数のエッジ群α(a,b・・)を検出する。すなわち、前述の式(7)の関係を満たすエッジを検出する。類似パターンを持つエッジ群α(a,b・・)が検出された場合、エッジ群α(a,b・・)の輝度パターン[O'left-2(n,a),O'right-2(n,a)]または[O'left-2 (n,b),O'right-2(n,b)]と類似する輝度パターンを持つカメラ1の測定状態画像におけるエッジ群β(n1,n2・・)を検出する処理を実行する。
【0094】
カメラ1のエッジ群β(n1,n2・・)の検出処理において、まず、反射係数演算手段1711が出力値記憶手段1720に記憶された各出力値を前述の式(5)を適用して演算し反射係数を算出する。次に、出力値予測手段1712において、前述の式(8)、(9)に基づいて、エッジ群β(n1,n2・・)の各エッジ位置n1、n2についての出力値を算出する。
【0095】
次に、対応付け手段1713において、カメラ1におけるエッジ群β (n1,n2・・)の各々と、カメラ2上のエピポーラライン上のエッジ群α(a,b・・)の近似パターンの各々の比較を実行し、より差異の小さい組合わせを対応エッジとする処理を実行する。
【0096】
以上、説明したように本発明の装置、方法においては、参照物体にパターンを投影して複数のカメラで撮像した画像のエッジ間輝度を出力値として取得し、照射パターンを示すコードと各カメラの出力値との対応をメモリに格納し、その後、計測物体に対してパターン照射を実行して、エッジ抽出、エッジ間輝度算出を実行し、カメラ1によって取得された輝度情報に基づいて計測物体の反射係数を求め、求められた反射係数に基づいて、カメラ2の予測出力を算出し、算出したカメラ2の予測出力に基づいて、カメラ2の計測物体パターン照射画像からもっとも近い値を持つエッジを抽出してカメラ1の計測値との対応付けを実行して距離情報の取得を行なう構成としたので、測定対象物のテクスチャまたはカメラの出力特性に依存せず、各カメラで撮影した画像間の対応付け処理が正確に実行でき、正確な距離データを取得することが可能となる。
【0097】
なお、上述した実施例では第2のカメラは1つのみの構成を示したが第1のカメラと異なる光軸上に複数の第2のカメラ(第1のカメラに対して)を配置して計測物体を様々な異なる角度で第2のカメラで撮影し、複数の第2のカメラの各々の撮影した投影パターンに基づいて求められる距離情報を合成して3次元画像を得るよう構成してもよい。
【0098】
以上、特定の実施例を参照しながら、本発明について詳解してきた。しかしながら、本発明の要旨を逸脱しない範囲で当業者が該実施例の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、限定的に解釈されるべきではない。本発明の要旨を判断するためには、冒頭に記載した特許請求の範囲の欄を参酌すべきである。
【0099】
【発明の効果】
以上述べたように、本発明の3次元形状計測装置および3次元形状計測方法は、出力特性にばらつきがあるような、あるいは元々は出力特性がそろっていたにもかかわらず環境、経時変化などによりばらつきが生じたようなカメラ群を使用した場合でも再符号化を行うことができ、かつ、対象物体のテクスチャへの依存を少なくすることで誤対応が生じにくく、信頼性の高い3次元形状計測を行うことが可能になる。
【図面の簡単な説明】
【図1】本発明の3次元形状計測装置の構成例を示すブロック図である。
【図2】本発明の3次元形状計測装置のカメラ構成例を示すブロック図である。
【図3】本発明の3次元形状計測装置の撮像構成を説明する図である。
【図4】本発明の3次元形状計測装置の処理フローを示す図である。
【図5】本発明の3次元形状計測装置の投影パターンのコード化の例を示す図である。
【図6】本発明の3次元形状計測装置の撮影構成例を示す図である。
【図7】本発明の3次元形状計測装置の投影パターン例を示す図である。
【図8】本発明の3次元形状計測装置のカメラ1で撮影されるスリットパターンの例を示す図である。
【図9】本発明の3次元形状計測装置のカメラ2で撮影されるスリットパターンの例を示す図である。
【図10】本発明の3次元形状計測装置において新たにコード化されたスリットパターンの例を示す図である。
【図11】本発明の3次元形状計測装置の空間コード化法による距離算出法を示す図である。
【図12】本発明の3次元形状計測装置のカメラ3で撮影されるスリットパターンの例を示す図である。
【図13】本発明の3次元形状計測装置における2台の撮像手段を用いたパターン画像撮影構成を示す図である。
【図14】本発明の3次元形状計測装置におけるパターンおよび測定対象物の具体例を説明する図である。
【図15】本発明の3次元形状計測装置における投光パターン像、撮像パターン像の具体例を示す図である。
【図16】本発明の3次元形状計測装置におけるカメラの出力特性を考慮した対応付け処理を実行する処理フロー(その1)である。
【図17】本発明の3次元形状計測装置におけるカメラの出力特性を考慮した対応付け処理を実行する処理フロー(その2)である。
【図18】本発明の3次元形状計測装置におけるカメラの出力特性を考慮した対応付け処理を実行する装置構成(例1)を示すブロック図である。
【図19】本発明の3次元形状計測装置におけるカメラの出力特性を考慮し、反射係数を符号化の際のパラメータとして用いる処理を実行する処理フロー(その1)である。
【図20】本発明の3次元形状計測装置におけるカメラの出力特性を考慮し、反射係数を符号化の際のパラメータとして用いる処理を実行する処理フロー(その2)である。
【図21】本発明の3次元形状計測装置におけるカメラの出力特性を考慮した対応付け処理を実行する装置構成(例2)を示すブロック図である。
【符号の説明】
101 カメラ1
102 カメラ2
103 カメラ3
104 投光器
105 ハーフミラー
106 光源
107 マスクパターン
108 強度パターン
109 プリズム
121,123,125 輝度値メモリ
122,124,126 パターン画像メモリ
127 フレームメモリ
128 領域分割部
129 再コード化部
130,131 コード復号部
133 距離情報の統合部
134 3次元メモリ
301 プリズム
302,304 透過フィルタ
303,305 撮像装置
601,602,603 カメラ
604 投光器
605 壁
606 板
801,901 影領域
1301 測定対象
1302 プロジェクタ
1303,1304 撮像手段
1501 カメラ1
1502 カメラ2
1710 対応点探索部
1711 反射係数演算手段
1712 出力値予測手段
1713 対応付け手段
1714 エッジ探索手段
1720 出力値記憶手段
1730 出力値記憶手段
[0001]
BACKGROUND OF THE INVENTION
The present invention is a three-dimensional method based on a triangulation method in which a pattern projection image obtained by irradiating a measurement target with pattern light is imaged from different directions by a plurality of imaging means, and distance information is obtained based on a change in the pattern The present invention relates to a shape measuring apparatus and a three-dimensional shape measuring method.
[0002]
[Prior art]
As a method for acquiring a three-dimensional shape, there are an active method (Active vision) and a passive method (Passive vision). Active methods include (1) a laser method that emits laser light, ultrasonic waves, etc., measures the amount of reflected light and the arrival time from an object, and extracts depth information, and (2) a special pattern light source such as slit light. A pattern projection method for estimating the target shape from image information such as geometric deformation of the target surface pattern using (3), a method for obtaining three-dimensional information by forming contour lines with moire fringes by optical processing, etc. There is. On the other hand, the passive method uses knowledge about the appearance of an object, light source, illumination, shadow information, etc., and uses monocular stereoscopic vision to estimate 3D information from a single image, depth information of each pixel by triangulation principle And binocular stereopsis for estimating
[0003]
In general, the active method has higher measurement accuracy, but the measurable range is often small due to limitations of the light projecting means. On the other hand, the passive method is general-purpose and has few restrictions on objects. The present invention relates to a pattern projection method which is a three-dimensional measuring apparatus using this active method.
[0004]
In the pattern projection method, reference pattern light is projected onto a target object, and photographing is performed from a direction different from the direction in which the reference pattern light is projected. The photographed pattern is deformed depending on the shape of the object. By associating the observed deformation pattern with the projected pattern, three-dimensional measurement of the object can be performed. The problem with the pattern projection method is how to reduce the miscorrespondence and simplify the correspondence between the deformation pattern and the projected pattern. Accordingly, various pattern projection methods (spatial pattern coding, moire, color coding) have been proposed.
[0005]
As a typical example of spatial coding, there is a configuration disclosed in, for example, Japanese Patent Laid-Open No. 5-3327375. In this example, a laser light source and a lens system that shapes laser light into a slit shape, a scanning device that scans and irradiates the shaped laser light onto an object, a camera that detects reflected light from the object, and these It consists of a device to control.
[0006]
A striped pattern is formed on the object by the laser beam scanned from the scanning device between a portion irradiated with the laser beam and a portion not irradiated with the laser beam. By irradiating the laser beam with a plurality of different patterns, the object is divided into N identifiable portions. The shape of the object can be calculated by determining in which part the pixels on the image captured by the camera from different positions are included.
[0007]
In order to increase the resolution, it is necessary to perform scanning with a plurality of lasers and to perform imaging with a plurality of cameras. For example, in order to divide the screen into 256 areas, it is necessary to shoot 8 times. For this reason, it is difficult to capture a fast-moving object, and it is necessary to securely fix the imaging system during scanning. Therefore, even if the apparatus itself is simple, it is difficult to easily perform imaging.
[0008]
As a means for reducing the number of times the pattern is projected, there is color coding disclosed in Japanese Patent Laid-Open No. 3-192474. In color coding, when q and k are set to a predetermined natural number of 2 or more, using colors of q colors or more, two adjacent slit lights are not the same color, but by adjacent k slit lights. A pattern encoded so that the color sequence appears only once is projected, the color of the slit is detected from the observed image, and the slit number is obtained from the color sequence of the corresponding slit. From the slit number, the irradiation direction of the slit can be calculated, and the distance can be calculated in the same manner as in the spatial coding example.
[0009]
However, in color coding, there is a problem in that the amount of calculation for code restoration is large because codes are restored from the arrangement of code strings. Furthermore, when dividing into 256 areas using three colors of R, G, and B, it is necessary to know the arrangement of the eight slit lights around the slit where the code is to be known, and the slits are continuously long. It is only suitable for measuring objects that can be shaped.
[0010]
There is a spatial pattern coding method disclosed in Japanese Patent No. 2565885 as means for easily restoring a slit and projecting a pattern coded once. In this patent, there are three or more gradation regions by three or more shades, three or more colors, or a combination of shades and colors, and at least three types of floors at the intersection of the boundary of the gradation regions. According to the type and order of gradations that are in contact with the intersection of the projected images produced by projecting the pattern onto the object to be measured. A main code is assigned, and a combination code obtained by combining the main code or the main code of the intersection with the main code of the surrounding intersection is assigned as a feature code for identifying the intersection.
[0011]
However, in the above-described method, depending on the object to be photographed, the coding may be lost and correct code association may not be possible. For example, when the pattern sequence projected by the projection pattern light source is “12345678”, the pattern sequence captured by the camera may be recognized as “1267” depending on the structure to be imaged, or the pattern sequence “758” In some cases, an inverted pattern sequence is obtained. In addition, it is difficult to associate the projected pattern with the photographed pattern sequence due to the shape and reflectance of the object.
[0012]
In color coding, when slits are grouped at the time of decoding, this problem is avoided by using a method that does not perform decoding for patterns that may be missing or inverted. In the spatial pattern coding method, the possibility of the aforementioned error is reduced by using a two-dimensional pattern, but in principle, the same error occurs depending on the object. Therefore, in the above-described method, although excellent accuracy can be obtained in shooting in a special situation in a laboratory or a situation in which a target object is limited, deterioration in accuracy cannot be denied in a general imaging situation in which a target is not limited. Further, in the method of performing light projection using a light source, when a target having a wide range is targeted, a three-dimensional shape cannot be obtained for a portion where the light projection does not reach. In addition, since a shadow area generated by the object blocking the projected pattern cannot be measured, there is an area where the distance cannot be obtained even though it is actually visible.
[0013]
Therefore, in Japanese Patent Application No. 10-191063, (Japanese Patent Laid-Open No. 2000-9442), and Japanese Patent Application No. 10-247796 (Japanese Patent Laid-Open No. 2000-65542) related to the same applicant as this application, the projected pattern is fed back and a new one is added. We proposed a 3D image capturing device that does not depend on the object by generating code.
[0014]
[Problems to be solved by the invention]
The three-dimensional image photographing apparatus described in Japanese Patent Application No. 10-191063 (Japanese Patent Application Laid-Open No. 2000-9442) and Japanese Patent Application No. 10-247796 (Japanese Patent Application Laid-Open No. 2000-65542) uses a light projection pattern having a plurality of intensities and a plurality of wavelengths. This is realized by projecting what is encoded by At this time, the projection pattern changes due to the influence of the luminance information of the subject, the material, and the like, and when calculating the three-dimensional shape, an error occurs and an appropriate three-dimensional shape cannot be measured. Therefore, the three-dimensional imaging apparatus is arranged on the same optical axis as the light projecting element, monitors the amount of change in the light projection pattern according to the subject information, performs re-encoding, and measures the three-dimensional shape. .
[0015]
However, the above configuration is based on the premise that a new code obtained by one camera is generated in another camera as the same new code. This requires that all cameras in the device have the same output characteristics and output the same signal for a certain lightness on the target object. It is difficult in terms of cost to prepare a plurality of cameras that strictly satisfy this condition. Even if it is prepared, it is unavoidable that variations occur due to changes in timekeeping or fluctuations in the operating environment during use.
[0016]
Furthermore, the new code generated by the texture on the target object is not always unique. This is because the same new code can be generated by different textures at different points on the target object. That is, when the reflectance at the point p (x, y) is r (x, y) and the luminance of the projected code is i (x, y), two different points P1 (x1, y It is assumed that the relationship between the reflectance of y1) and the point P2 (x2, y2) and the projected luminance is the relationship of the following formula (1).
[Expression 1]
r (x1, y1) / r (x2, y2) ≒ i (x2, y2) / i (x1, y1) ... (1)
[0017]
If two different points P1 (x1, y1) and point P2 (x2, y2) on the target object are in the relationship of the above equation (1), the relationship of the following equation (2) is satisfied.
[Expression 2]
r (x1, y1) × i (x1, y1) ≒ r (x2, y2) × i (x2, y2) ... (2)
[0018]
As a result, the brightness of the image photographed by the camera is the same at two different points P1 (x1, y1) and P2 (x2, y2) on the target object. Therefore, when the association is attempted based on the brightness of the captured image of each camera, it is difficult to associate the point captured by one camera with the point captured by the other camera. In particular, in a configuration in which association processing is performed using captured images using a plurality of cameras, output values that differ from camera to camera may vary from camera to camera depending on the characteristics of each camera. If the images are different from each other, the image projected with the projection pattern as described above may be taken with a plurality of cameras, and the points taken with one camera may be associated with the points taken with the other camera. Matching may be difficult or inaccurate.
[0019]
The present invention has been made for the purpose of solving the above-described problems, and re-encoding can be performed based on accurate association even when using a group of cameras whose output characteristics vary. An object of the present invention is to provide a highly reliable three-dimensional shape measurement method and apparatus that can be made less susceptible to erroneous correspondence by reducing the dependence on the texture of the target object.
[0020]
[Means for Solving the Problems]
The present invention solves the above-mentioned object, and the first aspect thereof is
A light projecting means for projecting a coded slit pattern given by using a light source, and a first camera having substantially the same viewpoint and the same optical axis as the pattern projected by the light projecting means; In the three-dimensional shape measuring apparatus composed of a second camera arranged on an optical axis different from that of the first camera,
Output value storage means for storing output value information between edges of a pattern projection image captured by the first and second cameras, wherein a pattern is projected on a reference object and a pattern is measured on a measurement object. Output value storage means for storing output values of the first camera and the second camera when projected,
Reflection coefficient calculation means for calculating a reflection coefficient for the measurement object based on output values of the first camera when a pattern is projected onto a reference object and when a pattern is projected onto a measurement object ,
Output value prediction for calculating the output prediction value of the second camera by calculating the reflection coefficient and the second camera output value when a pattern is projected onto the reference object stored in the storage means Means,
An output value that is the closest to the predicted output value of the second camera calculated by the output value predicting means from the output value information between edges of the pattern projection image that is projected onto the measurement object and captured by the second camera And an associating means for selecting an edge having a selected point as a corresponding point for the output value of the first camera;
The three-dimensional shape measuring apparatus is characterized by having
[0021]
Furthermore, in one embodiment of the three-dimensional shape measuring apparatus of the present invention, the apparatus has edge search means for detecting a similar pattern in the output value of the second camera when a pattern is projected onto a measurement object, and the output When a similar pattern is detected by the edge search means, the value predicting means outputs the output value of the second camera and the reflection coefficient when a pattern is projected onto the reference object stored in the output value storage means An output predicted value of each edge in the second camera is calculated based on the reflection coefficient calculated by the calculation means, and the association means calculates the corresponding edge of the second camera based on the comparison with the similar pattern. It has the structure which performs the process which selects this.
[0022]
Furthermore, in one embodiment of the three-dimensional shape measurement apparatus of the present invention, the light emitted from the light projecting means and the light incident on the first camera are separated by a beam splitter, and the light projection The means and the first camera are arranged so as to be optically coaxial with each other.
[0023]
Furthermore, in one embodiment of the three-dimensional shape measuring apparatus of the present invention, the light projecting means has a light source that generates light in an invisible region, and the first camera has a filter that transmits light in the invisible region and an invisible region light. It has a filter that blocks light.
[0024]
Furthermore, in one embodiment of the three-dimensional shape measurement apparatus of the present invention, the second camera is configured by a plurality of cameras that capture the measurement object at different angles, and each of the plurality of second cameras is captured. The distance information obtained based on the projected pattern is synthesized to obtain a three-dimensional image.
[0025]
Furthermore, the second aspect of the present invention provides
A light projecting step of projecting a given slit pattern using a light source;
A first camera having substantially the same viewpoint and optical axis as the pattern projected by the projecting step, and a second camera disposed on an optical axis different from the first camera, An output value storage step of storing output value information between edges in the captured pattern image when the pattern is projected onto the reference object and when the pattern is projected onto the measurement object;
A reflection coefficient calculation step of calculating a reflection coefficient for the measurement object based on output values of the first camera when a pattern is projected onto a reference object and when a pattern is projected onto a measurement object; ,
Output value prediction for calculating the output prediction value of the second camera by calculating the reflection coefficient and the second camera output value when a pattern is projected onto the reference object stored in the storage means Steps,
An output value that is the closest to the predicted output value of the second camera calculated by the output value predicting means from the output value information between edges of the pattern projection image that is projected onto the measurement object and captured by the second camera And an associating step of extracting an edge having a selected point as a corresponding point for the output value of the first camera;
There is a three-dimensional shape measurement method characterized by comprising:
[0026]
Furthermore, in one embodiment of the three-dimensional shape measurement method of the present invention, the method includes an edge search step of detecting a similar pattern in the output value of the second camera when a pattern is projected onto a measurement object, and the output In the value prediction step, when a similar pattern is detected in the edge search step, the output value of the second camera and the reflection coefficient when a pattern is projected onto the reference object stored in the output value storage means An output predicted value of each edge in the second camera is calculated based on the reflection coefficient calculated by the computing means, and the association step calculates the corresponding edge of the second camera based on the comparison with the similar pattern. A process of selecting is executed.
[0027]
Furthermore, in one embodiment of the three-dimensional shape measurement method of the present invention, the second camera is configured by a plurality of cameras that capture images of the measurement object at different angles, and each of the plurality of second cameras is captured. And a step of obtaining a three-dimensional image by synthesizing distance information obtained based on the projected pattern.
[0028]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the three-dimensional shape measurement apparatus and the three-dimensional shape measurement method of the present invention will be described in detail with reference to the drawings.
[0029]
First, the principle of distance data acquisition using recoding processing will be described. FIG. 1 is a block diagram showing a configuration example of a three-dimensional shape measuring apparatus that executes distance data acquisition using recoding processing. FIG. 2 shows the positional relationship between the light source and the image sensor.
[0030]
In the configuration shown in FIG. 2, the three-dimensional shape measuring apparatus includes three cameras 101 to 103 and a projector 104. The illustrated distances I1, I2, and I3 are made equal so that the distance relations of the cameras are aligned. The cameras 3 and 103 and the projector 104 are arranged so that their optical axes coincide using a half mirror 105 as a beam splitter. The cameras 1 and 101 and the cameras 2 and 102 are arranged on both sides of the cameras 3 and 103 and the projector 104 so that their optical axes are different. The distance between the central optical axis and the optical axes on both sides is the baseline length L.
[0031]
The projector 104 includes a light source 106, a mask pattern 107, an intensity pattern 108, and a prism 109. Here, as the light source 106, a light source in an invisible region using infrared light or ultraviolet light can be used. In this case, each camera is configured as shown in FIG. That is, the incident light 310 is divided into two directions by the prism 301, one of which passes through the invisible region (infrared or ultraviolet) transmission filter 302 and enters the imaging device (for example, a CCD camera) 303, and the other enters the invisible region. The light enters the imaging device 305 through the (infrared and ultraviolet) cutoff filter 304.
[0032]
In addition, the light source 106 illustrated in FIG. 2 is not limited to the visible region or the invisible region, and a light source having a wavelength band that can be imaged may be used. In this case, the cameras 3 and 103 use progressive scan type CCD cameras, and the configuration of the cameras 1 and 101 and the cameras 2 and 102 is not particularly limited. However, considering the correspondence with the cameras 3 and 103, a CCD camera having the same configuration is desirable. A pattern is projected from the light source 106, and the three cameras 1 to 3 (101 to 103) take images simultaneously. Each camera obtains light that has passed through the filters 304 and 305 (see FIG. 3) by the imaging devices 303 and 305, thereby performing batch acquisition of images.
[0033]
The configuration of the three-dimensional shape measuring apparatus will be described with reference to FIG. As shown in the figure, the cameras 1 and 101 store the luminance information obtained by shooting in the luminance value memory 121 and store the shooting pattern in the pattern image memory 122. Similarly, the cameras 2 and 102 store the luminance information in the luminance value memory 123 and store the shooting pattern in the pattern image memory 124. The cameras 3 and 103 store the luminance information in the luminance value memory 125 and store the shooting pattern in the pattern image memory 126. The projector 104 divides each slit into cells on a square lattice and stores them in the frame memory 127 in order to refer to a coded pattern created in advance later.
[0034]
A three-dimensional image is obtained as follows using the stored photographing pattern and luminance information. The following operations are common to both the combination of the cameras 1, 101 and the cameras 3, 103, and the combination of the cameras 2, 102 and the cameras 3, 103. Here, the combination of the cameras 1, 101 and the cameras 3, 103 is taken as an example. explain.
[0035]
In FIG. 1, the area dividing unit 128 performs area division of the shooting pattern shot by the cameras 3 and 103. Then, a region where the intensity difference between adjacent slit patterns is equal to or smaller than the threshold is extracted as a region 1 where light from the projector does not reach, and a region where the intensity difference between the slit patterns is equal to or larger than the threshold is extracted as a region 2. To do. The re-encoding unit 129 re-encodes the extracted area 2 using the shooting pattern stored in the pattern image memory 126 and the projection pattern stored in the frame memory 127.
[0036]
FIG. 4 is a flowchart for performing re-encoding. First, each slit pattern is divided vertically for each slit width (step S11) to generate a square cell. The average value of the intensity is taken for each generated cell, and the average value is set as the intensity of each cell (step S12). Intensity between cells corresponding to the projection pattern and shooting pattern is compared in order from the center of the image, and the pattern changes due to factors such as the reflectance of the object and the distance to the object, so the intensity between the cells exceeds the threshold. It is determined whether they are different (step S13). If the difference is not more than the threshold value, the recoding is finished for all the photographed cells (step S17).
[0037]
If the difference is greater than the threshold, it is determined whether the cell has a new intensity (step S14). When the cell has a new strength, a new code is generated and assigned (step S15). If it is not a cell having a new intensity, it is coded using a sequence of slit patterns that can be distinguished from other appearing parts (step S16). This completes the recoding (step S17).
[0038]
FIG. 5 shows an example of the coding of the slit pattern. FIG. 5A shows a projection pattern coded by the arrangement of the slits, and the intensity is 3 (strong), 2 (medium), and 1 (weak), respectively. ) Is assigned. In FIG. 5B, since the strength changes in the third cell from the left and a new code appears, a code of 0 is newly assigned. In FIG. 8C, since the existing code appears in the third cell from the left and the second cell from the top, the vertical code is [232] and the horizontal code is set as a new code from the cell code. Recode as [131]. This re-encoding is equivalent to projecting a complex pattern such as a two-dimensional pattern at a site where the shape of the object is rich in change, and projecting a simple pattern at a site where there is little change. This process is repeated and recoding is performed by assigning unique codes to all cells.
[0039]
FIG. 6 shows an example in which the encoded pattern is projected onto the plate 606 disposed in front of the wall 605 using the cameras 601 to 603 and the projector 604. The pattern encoded here is the slit pattern shown in FIG. At this time, in the images obtained by the camera 601 and the camera 602, areas 801 and 901 which are shadows of the plate 606 are generated as shown in FIGS. In this example, a slit pattern as shown in FIG. 10 is obtained as a newly coded pattern on the surface of the plate 606.
[0040]
Next, referring back to FIG. The code decoding unit 130 on the camera 1, 101 side extracts the projection pattern from the pattern image memory 122 and divides it into cells in the same manner as described above. Then, the code of each cell is detected using the code re-encoded by the re-encoding unit 129, and the slit angle θ from the light source is calculated based on the detected code. FIG. 11 is a diagram showing a distance calculation method in spatial coding. The slit angle θ of the cell to which each pixel belongs, the x coordinate on the image taken by the camera 1, the focal length F which is a camera parameter, and the base length L. From the above, the distance Z is calculated by the following equation (3).
[0041]
[Equation 3]
Z = (F × L) / (x + F × tan θ) (3)
[0042]
The calculation of the distance Z is similarly performed in the code decoding unit 131 on the camera 2 and 102 side. For the above-described region 1, the distance is calculated as follows. In the area 1, since the pattern detection using the projected pattern cannot be performed, the corresponding point search unit 132 uses the luminance information read from the luminance value memories 121, 123, and 125 of the cameras 1 to 3 to perform the parallax. Is detected, and the distance is calculated based on this. Since the distance is calculated for the areas other than the area 1 by the above-described operation, the minimum distance of the area 1 can be obtained, and the pixels that can be associated are also limited. Using these restrictions, the pixels are correlated to detect the parallax d, and the distance Z is calculated by the following equation (4) using the pixel size λ which is a camera parameter.
[0043]
[Expression 4]
Z = (L × F) / (λ × d) (4)
[0044]
With the distance information obtained by the combination of the cameras 3 and 103 and the cameras 1 and 101 by the above-described method, the distance information of the area 801 that is a shadow of the plate shown in FIG. 8 cannot be detected. On the other hand, the distance information of the area 901 that is the shadow of the plate shown in FIG. 9 cannot be detected from the distance information obtained by the combination of the cameras 3 and 103 and the cameras 2 and 102. However, it is possible to calculate the distance information of the region 801 that is the shadow of the plate shown in FIG. Therefore, in the distance information integration unit 133 in FIG. 1, the distance information calculated by the pair of the cameras 3, 103 and the cameras 1, 101 and the distance information calculated by the cameras 3, 103 and the cameras 2, 102 are used. Distance information for all pixels of the image (FIG. 12) is acquired. The distance information obtained by the above operation is stored in a three-dimensional image memory in association with the luminance image of the camera 3, for example, thereby performing three-dimensional shape measurement.
[0045]
FIG. 13 shows a three-dimensional shape measurement processing system configuration including a projector 1302 that irradiates pattern light onto the measurement target 1301 and two imaging units 1303 and 1304 that execute imaging of the measurement target onto which the pattern light is projected. The imaging unit 1303 is configured to take an image through a half mirror 1305 as a beam splitter in order to take an image in the same direction as the projector 1302. Distance data to be measured by the above-described method based on the imaging patterns of the imaging units 1303 and 1304. That is, this is a configuration for obtaining a three-dimensional shape.
[0046]
The pattern projected onto the measurement target by the light projector 1302 is, for example, the pattern shown in FIG. 14A. When the measurement target has a shape as shown in FIG. 14B, the pattern image irradiated on the measurement target. The patterns photographed by the two imaging means are as shown in FIG. FIG. 15A is a pattern image projected onto a measurement object by the pattern projection projector, and FIG. 15B is a pattern image photographed by the cameras 1 and 1501 arranged at the same optical axis position as the pattern projection projector. FIG. 15C shows a pattern image captured by the camera 2 1502 that captures an object from a different direction from the camera 1.
[0047]
In the configuration of FIG. 15, when re-encoding based on the pattern images photographed by the cameras 1 and 1501 and the cameras 2 and 1502, an association process is performed in consideration of the characteristics and output of the camera, and an accurate distance is obtained. The processing of the 3D shape measuring apparatus and 3D shape measuring method of the present invention for acquiring data will be described.
[0048]
This will be described in detail with reference to the flowchart of FIG. First, in order to measure the output characteristics of the cameras 1 and 1501, the cameras 2 and 1502, and the respective cameras in the configuration of FIG. 15, a reference object that is not a measurement target is placed, and a pattern is projected onto the reference object (see FIG. 16). S101), and the projected projection pattern is imaged by each camera (S111, S121). This state is called a standard state. It is desirable to use a flat plate having a uniform reflection coefficient as the reference object.
[0049]
Edges are extracted (S112, S122) from an image obtained by photographing the projection pattern projected on the reference object with each camera, and an output value corresponding to each code is calculated. The output value can be calculated by calculating an average value of luminance values (S113, S123) for a plurality of pixels existing between edges. An output value corresponding to each code is calculated for each camera (camera 1, 1501, and camera 2, 1502 in FIG. 15), and the correspondence between each code and the output value is stored in a memory (S114, S124).
[0050]
Specifically, the n-th edge position in the image obtained by photographing the projection pattern projected on the reference object with the camera is En, and the left and right codes are C and C respectively.left(n), Cright(n). Cleft(n) and CrightThe output value of the camera 1,1501 for the code of (n) is Oleft-1(n), Oright-1(n) and the output value of the camera 2 1502 is Oleft-2(n), Oright-2(n) is stored in association with each code.
[0051]
In the memory, the output value O of the camera 1,1501left-1(n), Oright-1(n) and the output value O of the camera 2 1502left-2(n), Oright-2The value of (n) is stored in association with each code. Specifically, when the coded projection pattern has 3 codes assigned with 3 (strong), 2 (medium), and 1 (weak) as intensities, the left and right codes 3, 2 at each edge position , Or 1 corresponding to the output value of each camera is stored in the memory.
[0052]
With the above processing, the correspondence between each code and the output value of each camera in the standard state is measured. Note that the output value measurement processing of each camera in the standard state using the reference object can be performed in advance before measurement, and does not need to be repeated for each measurement.
[0053]
Next, a pattern is projected onto an actual measurement object (S102), and imaging (S115, S125) is performed with each camera that has performed the output value measurement process described above. Next, edges are extracted from the images captured by the cameras 1 and 1501 by edge detection processing (S116). Since the cameras 1 and 1501 have the same optical axis and the same viewpoint as the pattern projection apparatus, the edge position can be detected at substantially the same position as in the standard state described above. That is, for the captured image of the measurement object, the edge position in the standard state: En, the left and right code: Cleft(n), Cright(n) can be made to correspond.
[0054]
However, the output value of the camera is changed by the texture such as the shape and pattern of the target object. Due to this change, the actual output values of the left and right cameras 1, 1501 at the edge position: En are, for example, O ′left-1(n), O 'right-1(n). O 'left-1(n), O 'right-1Regarding the calculation of (n) (S117), the camera output value O in the standard stateleft-1(n), Oright-1The same procedure as when (n) was calculated may be taken. At this time, the ratio O ′ / O between the camera output value in the standard state and the camera output value of the photographing data of the measurement object can be regarded as a kind of reflectance in each stripe on the target object. The ratio of the nth edge position to the camera output values at the left and right positions of En is expressed by the following equation (5).
[0055]
[Equation 5]
Rleft(n) = O 'left-1(n) / Oleft-1(n) ... (5) -L
Rright(n) = O 'right-1(n) / Oright-1(n) ... (5) -R
In the above formula, Rleft(n), Rright(n) can be regarded as a reflection coefficient indicating the reflectance in each stripe on the target object.
[0056]
Using the above equation, the reflection coefficient Rn indicating the reflectance at each edge position of the captured images of the cameras 1 and 1501 is calculated (S118). Also, in the captured images of the cameras 2 and 1502, the same processing as in the case of the cameras 1 and 1501 is executed to detect the edge positions, and the edge positions of the cameras 2 and 1502 are output values at the left and right positions of En. Edge brightness as: O 'left-2(n), O 'right-2(n) is calculated (S127).
[0057]
Next, the inter-edge luminance information in the measured object pattern projection image of the camera 1 calculated in step S117, the inter-edge luminance information in the measured object pattern projection image of the camera 2 calculated in step S127, and further calculated in step S118. Using the reflection coefficient R, the association process based on the epipolar line (S103) is executed.
[0058]
Details of the association processing (S103) are shown in FIG. Output value O of camera 2,1502 in standard state2Based on the predicted value O ′ of the output value in the measurement state of the camera 22-preThe calculation process (S201) is executed. Reflection coefficient calculated in S118 in the camera 1,1501: Rleft(n), RrightBy using (n) and the output value in the standard state of the cameras 2 and 1502, the value that the camera 2 and 1502 will output in the measurement state, that is, the camera predicted output value can be estimated. The predicted output value of the camera 2, 1502 at the left and right positions of En is the nth edge position is O ′.left-2-pre(n), O 'right-2-pre(n).
[0059]
When the outputs of the cameras 2 and 1502 have different inclinations in the standard state and the measurement state but have the linearity of the output, the predicted output value of the cameras 2 and 1502 is expressed by the following equation (6). Can be estimated.
[0060]
[Formula 6]
O 'left-2-pre(n) = Rleft(n) × Oleft-2(n) ... (6) -L
O 'right-2-pre(n) = Rright(n) × Oright-2(n) ... (6) -R
[0061]
According to the above equation, the predicted output value O ′ of the camera 2, 1502 at the left and right positions of En is determined as the nth edge position.left-2-pre(n), O 'right-2-pre(n) is calculated.
[0062]
Next, the predicted output value O ′ of the camera 2, 1502 obtained by the above-described processing in step S202.left-2-pre(n), O 'right-2-preThe actual output value O ′ in the measurement state of the camera 2 1502 having the value closest to (n)left-2(n), O 'right-2(n) is searched, and based on the search edge based on the predicted output value, an association process is performed on the epipolar line corresponding to the measurement image of the camera 1. The correspondence is O 'on the epipolar line.left-2-pre(n), O 'right-2-preO 'approximately equal to (n)left-1(n), O 'right-1This can be done by searching for an edge having (n). Thus, the cameras 1 and 1501 and the cameras 2 and 1502 do not have the same output characteristics, that is, O ′.left (right) -1(n) and O 'left (right) -2Even when (n) does not match, the camera 2 1502 can reliably detect the corresponding point. After the corresponding points are determined, the distance can be measured by a general triangulation principle.
[0063]
FIG. 18 shows an apparatus configuration for executing the processing flows of FIGS. The configuration of FIG. 18 is a block diagram showing a configuration in which the corresponding point search unit in the configuration shown in FIG. 1 and two luminance value memories corresponding to two cameras are extracted. The corresponding point search unit 1710 includes a reflection coefficient calculation unit 1711, an output value prediction unit 1712, and an association unit 1713, and luminance information between edges acquired based on the captured image of the camera 1 is stored in the output value storage unit 1720. The luminance information between the edges stored and acquired based on the captured image of the camera 2 is stored in the output value storage unit 1730.
[0064]
The output value storage unit 1720 and the output value storage unit 1730 store the output value of the captured image of each camera in the standard state and the measurement state.
[0065]
First, when the pattern is projected onto the reference object, the output values of the first camera and the second camera calculated by the calculation means are stored in the output value storage means 1720 and the output value storage means 1730, and then the measurement object The output value of the image captured by each camera by projecting the pattern is stored in the output value storage means 1720 and the output value storage means 1730.
[0066]
The reflection coefficient calculation means 1711 of the corresponding point search unit 1710 calculates the reflection coefficient by calculating each output value stored in the output value storage means 1720 by applying the above equation (5). Next, the output value predicting unit 1712 applies a calculation based on the calculated reflection coefficient and the output value stored in the output value storage unit 1730, that is, the output value of the second camera by applying the above-described equation (6). The output value predicting process for predicting is executed.
[0067]
Next, the associating unit 1713 calculates the predicted output value O ′ of the camera 2 calculated by the output value predicting unit 1712.left-2-pre(n), O 'right-2-pre(n) and the actual output value O ′ in the measurement state of the camera 1,1501 stored in the output value storage means 1720.left-1(n), O 'right-1The association process with (n) is performed. For the association, an association process on the epipolar line can be applied.
[0068]
Next, a configuration example in which the reflection coefficient Rn is used as one of the parameters at the time of encoding will be described. This will be described with reference to the flowcharts of FIGS. FIG. 19 is a processing flow based on the premise that there is a luminance value pattern approximated on the epipolar line, and FIG. 20 is a processing assuming both cases where there is a luminance value pattern approximated on the epipolar line and not. It is a flow.
[0069]
This will be described from the flow of FIG. The procedure similar to the processing flow in FIG. 16 is executed until the reflection coefficient Rn is calculated, and the camera 1 and the camera 2 acquire output values of the captured images of the cameras in the standard state and the measurement state, respectively. It is assumed that the reflection coefficient R is obtained based on the standard state and measurement state images.
[0070]
First, an edge group α having an approximate luminance value pattern is searched for on the epipolar line of the camera 2 for associating the images of the cameras 1 and 1501 with the images of the cameras 2 and 1502 (S301).
[0071]
For example, in the case of having output values approximated at two different edge positions a and b on the epipolar line of the cameras 2 and 1502, the left and right output values of the edge position a: O ′left-2(n, a), O 'right-2(n, a) and left and right output values of edge position b: O ′left-2(n, b), O 'right-2This is a case where (n, b) is an approximate relationship as shown in the following formula (7).
[0072]
[Expression 7]
O 'left-2(n, a) ≒ O 'left-2(n, b) (7) -L
O 'right-2(n, a) ≒ O 'right-2(n, b) (7) -R
[0073]
An edge group having such an approximate luminance pattern is searched on the epipolar line of the camera 2 1502. Note that, here, a description will be given as a process of extracting and comparing only two adjacent luminance values on the left and right (L, R) of the edge, but by selecting three or more adjacent luminance values, a pattern having an approximate relationship is selected. You may search.
[0074]
In step S301, the luminance value pattern [O ′ approximated on the epipolar line of the cameras 2 and 1502 is displayed.left-2(n, a), O 'right-2(n, a)], [O 'left-2(n, b), O 'right-2When a plurality of edge groups α (a, b...) of (n, b)]... are detected, in step S302, the luminance pattern [O ′ of the edge group α (a, b.left-2(n, a), O 'right-2(n, a)] or [O 'left-2(n, b), O 'right-2(n, b)] is executed to detect the edge group β (n1, n2,...) in the camera 1,1501 having a luminance pattern similar to [n, b)].
[0075]
The edge positions of the cameras 1 and 1501 corresponding to the plurality of edge groups α (a, b...) Approximated on the epipolar line of the cameras 2 and 1502 are the reflection coefficients R calculated in step S118 in FIG. Can be used to calculate. For example, the reflection coefficient Rn at the edge position En can be determined only from the reference state image of the cameras 1 and 1501, and the following equation (8) is calculated using the reflectance R (n) at each edge position.
[0076]
[Equation 8]
Opre-left= Rleft(n) × Oleft-2(n) ... (8) -L
Opre-right= Rright(n) × Oright-2(n) (8) -R
[0077]
The edge positions of the cameras 1, 1501 corresponding to a plurality of approximate edge groups α (a, b,...) On the epipolar line of the cameras 2, 1502 are n1, n2,. Is calculated.
[0078]
[Equation 9]
Opre-left-n1= Rleft(n1) × Oleft-2(n1) (9) -Ln1
Opre-right-n1= Rright(n1) × Oright-2(n1) (9) -Rn1
Opre-left-n2= Rleft(n2) × Oleft-2(n2) (9) -Ln2
Opre-right-n2= Rright(n2) × Oright-2(n2) (9) -Rn2
[0079]
Calculated by the above formula (Opre-left-n1, Opre-right-n1), (Opre-left-n2, Opre-right-n2) Is a set of outputs indicating candidates corresponding to the left and right output values of either of the edge positions a or b of the cameras 2 and 1502.
[0080]
Next, each of the edge groups β (n1, n2,...) In the camera 1 and each of the approximate patterns of the edge groups α (a, b,...) On the epipolar line on the camera 2 are compared. The combination with a small difference is set as the corresponding edge (S303).
[0081]
Specifically, one edge a: (O ′) of a plurality of edge groups α (a, b...) Approximated on the epipolar line of the camera 2 1502left-2(n, a), O 'right-2(n, a)) is (Opre-left-n1, Opre-right-n1), (Opre-left-n2, Opre-right-n2), The corresponding point of the edge a: on the epipolar line of the camera 2 1502 can be determined. Similarly for edge b (O 'left-2(n, b), O 'right-2(n, b)) is (Opre-left-n1, Opre-right-n1), (Opre-left-n2, Opre-right-n2), The corresponding point of edge b: can be determined. As a comparison method, for example, the following equation (10) is calculated.
[0082]
[Expression 10]
Σ1 = (Opre-left-n1 -O 'left-2(n, a))2+ (Opre-right-n1 -O 'right-2(n, a))2
+ (Opre-left-n2 -O 'left-2(n, b))2+ (Opre-right-n2 -O 'right-2(n, b))2
Σ2 = (Opre-left-n2 -O 'left-2(n, a))2+ (Opre-right-n2 -O 'right-2(n, a))2
+ (Opre-left-n1 -O 'left-2(n, b))2+ (Opre-right-n1 -O 'right-2(n, b))2(10)
[0083]
By calculating the above equation (10) and adopting the smaller correspondence, the output of the camera 2, 1502 (O ′left-2(n, a), O 'right-2(n, a)) as an output corresponding to the output of the camera 1,1501 (Opre-left-n1, Opre-right-n1), (Opre-left-n2, Opre-right-n2) Is selected, and the edge position having the selected output is set as the corresponding point in the captured image of the camera 1 at the edge position a.
[0084]
In this embodiment, a reflectance is added as an encoding parameter, and with this configuration, even when a luminance value pattern that approximates the captured image of the camera 2 1502 is output, it can be reliably associated. . After the corresponding points are determined, the distance can be measured by a general triangulation principle.
[0085]
Next, the flow of FIG. 20 will be described. FIG. 20 is a processing flow assuming both cases where there is a luminance value pattern approximated on the epipolar line and where there is no luminance value pattern. The procedure similar to the processing flow in FIG. 16 is executed until the reflection coefficient Rn is calculated, and the camera 1 and the camera 2 acquire output values of the captured images of the cameras in the standard state and the measurement state, respectively. It is assumed that the reflection coefficient R is obtained based on the standard state and measurement state images.
[0086]
First, an edge group α having an approximate luminance value pattern is searched for on the epipolar line of the camera 2 for associating the images of the cameras 1 and 1501 with the images of the cameras 2 and 1502 (S401).
[0087]
If there is no edge group α having a luminance value pattern to be approximated (No in S402), the process proceeds to step S406, and the process of associating the measurement image of the camera 1 and the measurement image of the camera 2 on the epipolar line is performed. Executed. Since the epipolar line has no approximate pattern, the matching process can be executed without any problem.
[0088]
On the other hand, when there is an edge group α having an approximate luminance value pattern on the epipolar line of the camera 2 (Yes in S402), the processes of steps S403 to S405 are executed. The processes in steps S403 to S405 are the same as those in steps S301 to S303 in FIG.
[0089]
In the process of FIG. 20, when there is no luminance value pattern approximated on the epipolar line, normal association processing is executed, and prediction using the reflectance is performed only when there is a luminance value pattern approximated on the epipolar line. Value calculation is executed to accurately associate a plurality of approximate patterns.
[0090]
FIG. 21 shows an apparatus configuration for executing the processing flows of FIGS. 19 and 20. The configuration of FIG. 21 is a block diagram showing a configuration in which the corresponding point search unit in the configuration shown in FIG. 1 and two luminance value memories corresponding to two cameras are extracted. The corresponding point search unit 1710 includes a reflection coefficient calculation unit 1711, an output value prediction unit 1712, an association unit 1713, and an edge search unit 1714. The luminance information between edges acquired based on the captured image of the camera 1 is output. Luminance information between edges which is stored in the value storage unit 1720 and acquired based on the captured image of the camera 2 is stored in the output value storage unit 1730.
[0091]
The output value storage unit 1720 and the output value storage unit 1730 store the output value of the captured image of each camera in the standard state and the measurement state.
[0092]
First, when the pattern is projected onto the reference object, the output values of the first camera and the second camera calculated by the calculation means are stored in the output value storage means 1720 and the output value storage means 1730, and then the measurement object The output value of the image captured by each camera by projecting the pattern is stored in the output value storage means 1720 and the output value storage means 1730.
[0093]
Next, the edge search unit 1714 projects a pattern onto the measurement object stored in the output value storage unit 1730 and approximates a plurality of edge groups α (a, a on the epipolar line from the image captured by the camera 2. b ..) is detected. That is, an edge that satisfies the relationship of the above-described equation (7) is detected. When the edge group α (a, b,...) Having a similar pattern is detected, the luminance pattern [O ′ of the edge group α (a, b,.left-2(n, a), O 'right-2(n, a)] or [O 'left-2(n, b), O 'right-2(n, b)] is executed to detect the edge group β (n1, n2,...) in the measurement state image of the camera 1 having a luminance pattern similar to [n, b)].
[0094]
In the detection processing of the edge group β (n1, n2,...) Of the camera 1, first, the reflection coefficient calculation means 1711 calculates each output value stored in the output value storage means 1720 by applying the above-described equation (5). The reflection coefficient is calculated. Next, the output value predicting unit 1712 calculates output values for the edge positions n1 and n2 of the edge group β (n1, n2,...) Based on the above-described equations (8) and (9).
[0095]
Next, in the association unit 1713, each of the approximate patterns of each of the edge groups β (n1, n2,...) In the camera 1 and the edge groups α (a, b,...) On the epipolar line on the camera 2 is displayed. A comparison is executed, and a process using a combination having a smaller difference as a corresponding edge is executed.
[0096]
As described above, in the apparatus and method of the present invention, the inter-edge luminance of images captured by a plurality of cameras by projecting a pattern onto a reference object is obtained as an output value, and a code indicating an irradiation pattern and each camera The correspondence with the output value is stored in the memory, and then pattern irradiation is executed on the measurement object, edge extraction and edge-to-edge luminance calculation are executed, and the measurement object is measured based on the luminance information acquired by the camera 1. The reflection coefficient is obtained, the predicted output of the camera 2 is calculated based on the obtained reflection coefficient, and the edge having the closest value from the measured object pattern irradiation image of the camera 2 is calculated based on the calculated predicted output of the camera 2 Since the distance information is acquired by extracting and associating with the measurement value of the camera 1, it does not depend on the texture of the measurement object or the output characteristics of the camera, Correspondence processing between images taken by the camera can be performed accurately, it is possible to obtain an accurate distance data.
[0097]
In the above-described embodiment, only one second camera is shown. However, a plurality of second cameras (relative to the first camera) are arranged on an optical axis different from that of the first camera. The measurement object may be photographed by the second camera at various different angles, and the distance information obtained based on the projection pattern photographed by each of the plurality of second cameras may be combined to obtain a three-dimensional image. Good.
[0098]
The present invention has been described in detail above with reference to specific embodiments. However, it is obvious that those skilled in the art can make modifications and substitutions of the embodiments without departing from the gist of the present invention. In other words, the present invention has been disclosed in the form of exemplification, and should not be interpreted in a limited manner. In order to determine the gist of the present invention, the claims section described at the beginning should be considered.
[0099]
【The invention's effect】
As described above, the three-dimensional shape measurement apparatus and the three-dimensional shape measurement method of the present invention have variations in output characteristics, or the environment and time-dependent changes even though the output characteristics were originally gathered. Re-encoding can be performed even when a group of cameras with variations is used, and by reducing the dependence on the texture of the target object, erroneous correspondence is less likely to occur, and highly reliable three-dimensional shape measurement It becomes possible to do.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a configuration example of a three-dimensional shape measuring apparatus according to the present invention.
FIG. 2 is a block diagram illustrating a camera configuration example of the three-dimensional shape measurement apparatus according to the present invention.
FIG. 3 is a diagram illustrating an imaging configuration of a three-dimensional shape measuring apparatus according to the present invention.
FIG. 4 is a diagram showing a processing flow of the three-dimensional shape measuring apparatus of the present invention.
FIG. 5 is a diagram illustrating an example of encoding a projection pattern of the three-dimensional shape measuring apparatus according to the present invention.
FIG. 6 is a diagram showing an example of a photographing configuration of the three-dimensional shape measuring apparatus according to the present invention.
FIG. 7 is a diagram showing an example of a projection pattern of the three-dimensional shape measuring apparatus according to the present invention.
FIG. 8 is a diagram showing an example of a slit pattern photographed by the camera 1 of the three-dimensional shape measuring apparatus of the present invention.
FIG. 9 is a diagram showing an example of a slit pattern photographed by the camera 2 of the three-dimensional shape measuring apparatus of the present invention.
FIG. 10 is a diagram showing an example of a newly coded slit pattern in the three-dimensional shape measuring apparatus of the present invention.
FIG. 11 is a diagram showing a distance calculation method by a spatial encoding method of the three-dimensional shape measurement apparatus of the present invention.
FIG. 12 is a diagram showing an example of a slit pattern photographed by the camera 3 of the three-dimensional shape measuring apparatus of the present invention.
FIG. 13 is a diagram showing a pattern image photographing configuration using two imaging means in the three-dimensional shape measuring apparatus of the present invention.
FIG. 14 is a diagram for explaining a specific example of a pattern and a measurement object in the three-dimensional shape measurement apparatus of the present invention.
FIG. 15 is a diagram illustrating a specific example of a light projection pattern image and an imaging pattern image in the three-dimensional shape measurement apparatus of the present invention.
FIG. 16 is a process flow (part 1) for executing the association process in consideration of the output characteristics of the camera in the three-dimensional shape measurement apparatus of the present invention.
FIG. 17 is a process flow (part 2) for executing the association process in consideration of the output characteristics of the camera in the three-dimensional shape measurement apparatus of the present invention.
FIG. 18 is a block diagram showing an apparatus configuration (Example 1) for executing association processing in consideration of output characteristics of a camera in the three-dimensional shape measurement apparatus of the present invention.
FIG. 19 is a processing flow (part 1) for executing processing using a reflection coefficient as a parameter in encoding in consideration of the output characteristics of the camera in the three-dimensional shape measurement apparatus of the present invention.
FIG. 20 is a processing flow (part 2) for executing processing using a reflection coefficient as a parameter in encoding in consideration of the output characteristics of the camera in the three-dimensional shape measurement apparatus of the present invention.
FIG. 21 is a block diagram showing an apparatus configuration (example 2) for executing association processing in consideration of output characteristics of a camera in the three-dimensional shape measurement apparatus of the present invention.
[Explanation of symbols]
101 Camera 1
102 Camera 2
103 Camera 3
104 Floodlight
105 half mirror
106 Light source
107 Mask pattern
108 Strength pattern
109 prism
121, 123, 125 Luminance value memory
122, 124, 126 Pattern image memory
127 frame memory
128 area division
129 Recoding section
130,131 code decoding unit
133 Integration unit of distance information
134 3D memory
301 prism
302,304 Transmission filter
303,305 Imaging device
601 602 603 Camera
604 Floodlight
605 wall
606 board
801, 901 shadow area
1301 Measurement target
1302 Projector
1303, 1304 Imaging means
1501 Camera 1
1502 Camera 2
1710 Corresponding point search unit
1711 Reflection coefficient calculation means
1712 Output value prediction means
1713 Association means
1714 Edge search means
1720 Output value storage means
1730 Output value storage means

Claims (8)

光源を用いて与えられた符号化されたスリットパターンを投影する投光手段と、該投光手段によって投光されるパターンと光学的にほぼ同視点および同光軸を有する第1のカメラと、前記第1のカメラと異なる光軸上に配置された第2のカメラから構成される3次元形状計測装置において、
前記第1および第2のカメラにより撮像したパターン投影画像のエッジ間の出力値情報を記憶する出力値記憶手段であり、参照物体に対してパターンを投影した場合と、計測物体に対してパターンを投影した場合との前記第1のカメラおよび第2のカメラの出力値を記憶する出力値記憶手段と、
参照物体に対してパターンを投影した場合と、計測物体に対してパターンを投影した場合との前記第1のカメラの出力値に基づいて前記計測物体についての反射係数を演算する反射係数演算手段と、
前記反射係数と、前記記憶手段に記憶された参照物体に対してパターンを投影した場合の前記第2のカメラ出力値とを演算して前記第2のカメラの出力予測値を算出する出力値予測手段と、
計測物体に対してパターンを投影し、前記第2のカメラにより撮像したパターン投影画像のエッジ間出力値情報から、前記出力値予測手段が算出した第2のカメラの出力予測値にもっとも近い出力値を持つエッジを抽出して、前記第1のカメラの出力値に対する対応点として選択する対応づけ手段と、
を有することを特徴とする3次元形状計測装置。
A light projecting means for projecting a coded slit pattern given by using a light source, and a first camera having substantially the same viewpoint and the same optical axis as the pattern projected by the light projecting means; In the three-dimensional shape measuring apparatus composed of a second camera arranged on an optical axis different from that of the first camera,
Output value storage means for storing output value information between edges of a pattern projection image captured by the first and second cameras, wherein a pattern is projected on a reference object and a pattern is measured on a measurement object. Output value storage means for storing output values of the first camera and the second camera when projected,
Reflection coefficient calculation means for calculating a reflection coefficient for the measurement object based on output values of the first camera when a pattern is projected onto a reference object and when a pattern is projected onto a measurement object ,
Output value prediction for calculating the output prediction value of the second camera by calculating the reflection coefficient and the second camera output value when a pattern is projected onto the reference object stored in the storage means Means,
An output value that is the closest to the predicted output value of the second camera calculated by the output value predicting means from the output value information between edges of the pattern projection image that is projected onto the measurement object and captured by the second camera And an associating means for selecting an edge having a selected point as a corresponding point for the output value of the first camera;
A three-dimensional shape measuring apparatus comprising:
前記3次元形状計測装置は、さらに、
計測物体に対してパターンを投影した場合の前記第2のカメラの出力値における類似パターンを検出するエッジ探索手段を有し、
前記出力値予測手段は、
前記エッジ探索手段によって類似パターンが検出された場合、前記出力値記憶手段に記憶された参照物体に対してパターンを投影した場合の前記第2のカメラの出力値と前記反射係数演算手段によって算出された反射係数に基づいて前記第2のカメラにおける各エッジの出力予測値を算出し、
前記対応付け手段は、
前記類似パターンとの比較に基づいて前記第2のカメラの対応エッジを選択する処理を実行する構成を有することを特徴とする請求項1に記載の3次元形状計測装置。
The three-dimensional shape measurement apparatus further includes:
Edge search means for detecting a similar pattern in the output value of the second camera when a pattern is projected onto a measurement object;
The output value predicting means includes
When a similar pattern is detected by the edge search means, the output value of the second camera when the pattern is projected onto the reference object stored in the output value storage means and the reflection coefficient calculation means are calculated. Calculating an output predicted value of each edge in the second camera based on the reflection coefficient,
The association means includes
The three-dimensional shape measurement apparatus according to claim 1, further comprising: a process of selecting a corresponding edge of the second camera based on a comparison with the similar pattern.
前記投光手段の出射光と、前記第1のカメラへの入射光とは、ビームスプリッタによって分離される構成であり、前記投光手段と前記第1のカメラとは、それぞれが光学的に同軸となるように配置された構成であることを特徴とする請求項1に記載の3次元形状計測装置。The light emitted from the light projecting means and the light incident on the first camera are separated by a beam splitter, and the light projecting means and the first camera are optically coaxial with each other. The three-dimensional shape measuring apparatus according to claim 1, wherein the three-dimensional shape measuring apparatus is arranged to be 前記投光手段は不可視領域の光を発生する光源を有し、第1のカメラは不可視領域の光を透過するフィルターおよび不可視領域の光を遮断するフィルターを有することを特徴とする請求項1に記載の3次元形状計測装置。The light projecting unit includes a light source that generates light in an invisible region, and the first camera includes a filter that transmits light in the invisible region and a filter that blocks light in the invisible region. The three-dimensional shape measuring apparatus described. 前記第2のカメラは、前記計測物体を異なる角度で撮像する複数のカメラによって構成され、該複数の第2のカメラの各々の撮影した投影パターンに基づいて求められる距離情報を合成して3次元画像を得るよう構成したことを特徴とする請求項1に記載の3次元形状計測装置。The second camera is composed of a plurality of cameras that capture the measurement object at different angles, and combines the distance information obtained based on the projection pattern captured by each of the plurality of second cameras to obtain a three-dimensional image. The three-dimensional shape measuring apparatus according to claim 1, wherein the three-dimensional shape measuring apparatus is configured to obtain an image. 光源を用いて与えられた符号化されたスリットパターンを投影する投光ステップと、
該投光ステップによって投光されるパターンと光学的にほぼ同視点および同光軸を有する第1のカメラと、前記第1のカメラと異なる光軸上に配置された第2のカメラとにより、参照物体に対してパターンを投影した場合と、計測物体に対してパターンを投影した場合との撮像パターン画像におけるエッジ間の出力値情報を出力値記憶手段に記憶する出力値記憶ステップと、
参照物体に対してパターンを投影した場合と、計測物体に対してパターンを投影した場合との前記第1のカメラの出力値に基づいて前記計測物体についての反射係数を演算する反射係数演算ステップと、
前記反射係数と、前記記憶手段に記憶された参照物体に対してパターンを投影した場合の前記第2のカメラ出力値とを演算して前記第2のカメラの出力予測値を算出する出力値予測ステップと、
計測物体に対してパターンを投影し、前記第2のカメラにより撮像したパターン投影画像のエッジ間出力値情報から、前記出力値予測手段が算出した第2のカメラの出力予測値にもっとも近い出力値を持つエッジを抽出して、前記第1のカメラの出力値に対する対応点として選択する対応づけステップと、
を有することを特徴とする3次元形状計測方法。
A light projecting step of projecting a given slit pattern using a light source;
A first camera having substantially the same viewpoint and optical axis as the pattern projected by the projecting step, and a second camera disposed on an optical axis different from the first camera, An output value storage step of storing output value information between edges in the captured pattern image when the pattern is projected onto the reference object and when the pattern is projected onto the measurement object;
A reflection coefficient calculation step of calculating a reflection coefficient for the measurement object based on output values of the first camera when a pattern is projected onto a reference object and when a pattern is projected onto a measurement object; ,
Output value prediction for calculating the output prediction value of the second camera by calculating the reflection coefficient and the second camera output value when a pattern is projected onto the reference object stored in the storage means Steps,
An output value that is the closest to the predicted output value of the second camera calculated by the output value predicting means from the output value information between edges of the pattern projection image that is projected onto the measurement object and captured by the second camera And an associating step of extracting an edge having a selected point as a corresponding point for the output value of the first camera;
A three-dimensional shape measuring method characterized by comprising:
前記3次元形状計測方法は、さらに、
計測物体に対してパターンを投影した場合の前記第2のカメラの出力値における類似パターンを検出するエッジ探索ステップを有し、
前記出力値予測ステップは、
前記エッジ探索ステップにおいて類似パターンが検出された場合、前記出力値記憶手段に記憶された参照物体に対してパターンを投影した場合の前記第2のカメラの出力値と前記反射係数演算手段によって算出された反射係数に基づいて前記第2のカメラにおける各エッジの出力予測値を算出し、
前記対応付けステップは、前記類似パターンとの比較に基づいて第2のカメラの対応エッジを選択する処理を実行することを特徴とする請求項6に記載の3次元形状計測方法。
The three-dimensional shape measurement method further includes:
An edge search step of detecting a similar pattern in the output value of the second camera when a pattern is projected onto a measurement object;
The output value prediction step includes:
When a similar pattern is detected in the edge search step, the output value of the second camera when the pattern is projected onto the reference object stored in the output value storage means and the reflection coefficient calculation means are calculated. Calculating an output predicted value of each edge in the second camera based on the reflection coefficient,
The three-dimensional shape measurement method according to claim 6, wherein the associating step performs a process of selecting a corresponding edge of the second camera based on a comparison with the similar pattern.
前記3次元形状計測方法において、さらに、
前記第2のカメラは、前記計測物体を異なる角度で撮像する複数のカメラによって構成され、該複数の第2のカメラの各々の撮影した投影パターンに基づいて求められる距離情報を合成して3次元画像を取得するステップを有することを特徴とする請求項6に記載の3次元形状計測方法。
In the three-dimensional shape measurement method,
The second camera is composed of a plurality of cameras that capture the measurement object at different angles, and combines the distance information obtained based on the projection pattern captured by each of the plurality of second cameras to obtain a three-dimensional image. The three-dimensional shape measuring method according to claim 6, further comprising a step of acquiring an image.
JP2001002216A 2001-01-10 2001-01-10 3D shape measuring apparatus and 3D shape measuring method Expired - Lifetime JP3852285B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001002216A JP3852285B2 (en) 2001-01-10 2001-01-10 3D shape measuring apparatus and 3D shape measuring method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001002216A JP3852285B2 (en) 2001-01-10 2001-01-10 3D shape measuring apparatus and 3D shape measuring method

Publications (2)

Publication Number Publication Date
JP2002206919A JP2002206919A (en) 2002-07-26
JP3852285B2 true JP3852285B2 (en) 2006-11-29

Family

ID=18870762

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001002216A Expired - Lifetime JP3852285B2 (en) 2001-01-10 2001-01-10 3D shape measuring apparatus and 3D shape measuring method

Country Status (1)

Country Link
JP (1) JP3852285B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5633719B2 (en) * 2009-09-18 2014-12-03 学校法人福岡工業大学 3D information measuring apparatus and 3D information measuring method
KR101218566B1 (en) * 2011-03-16 2013-01-15 성균관대학교산학협력단 Apparatus and method for measuring 3-dimension distance
KR101327433B1 (en) 2011-12-08 2013-11-11 주식회사 엔티리서치 Apparatus for monitoring three-dimensional shape of target object
CN107907055B (en) * 2017-12-14 2024-01-26 北京驭光科技发展有限公司 Pattern projection module, three-dimensional information acquisition system, processing device and measuring method

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2565885B2 (en) * 1987-02-04 1996-12-18 日本電信電話株式会社 Spatial pattern coding method
JPH03192474A (en) * 1989-12-22 1991-08-22 Fujitsu Ltd Three-dimensional shape measuring system
JPH0816608B2 (en) * 1991-03-15 1996-02-21 幸男 佐藤 Shape measuring device
JP2733170B2 (en) * 1992-09-24 1998-03-30 株式会社クボタ 3D shape measuring device
JP3414624B2 (en) * 1997-09-16 2003-06-09 松下電器産業株式会社 Real-time range finder
JP3384329B2 (en) * 1998-06-22 2003-03-10 富士ゼロックス株式会社 3D image capturing device
JP3482990B2 (en) * 1998-08-18 2004-01-06 富士ゼロックス株式会社 3D image capturing device
JP2000346617A (en) * 1999-06-08 2000-12-15 Minolta Co Ltd Three-dimensional shape data processor

Also Published As

Publication number Publication date
JP2002206919A (en) 2002-07-26

Similar Documents

Publication Publication Date Title
US7075625B2 (en) Range finder and method
US10902668B2 (en) 3D geometric modeling and 3D video content creation
JP3714063B2 (en) 3D shape measuring device
JP6564537B1 (en) 3D reconstruction method and apparatus using monocular 3D scanning system
US8718326B2 (en) System and method for extracting three-dimensional coordinates
EP2568253B1 (en) Structured-light measuring method and system
JP2012504771A (en) Method and system for providing three-dimensional and distance inter-surface estimation
JP3482990B2 (en) 3D image capturing device
KR20190051052A (en) A three-dimensional scanning method including a laser of a plurality of different wavelengths,
JP2002213931A (en) Instrument and method for measuring three-dimensional shape
JP3384329B2 (en) 3D image capturing device
JP3818028B2 (en) 3D image capturing apparatus and 3D image capturing method
JP2004110804A (en) Three-dimensional image photographing equipment and method
JP3852285B2 (en) 3D shape measuring apparatus and 3D shape measuring method
JP6591332B2 (en) Radiation intensity distribution measuring system and method
JP2002117403A (en) Image processor and image processing method
JP3932776B2 (en) 3D image generation apparatus and 3D image generation method
US11195290B2 (en) Apparatus and method for encoding in structured depth camera system
JP3912666B2 (en) Optical shape measuring device
JP3729035B2 (en) 3D image capturing apparatus and 3D image capturing method
JP2002013918A (en) Three-dimensional image forming device and three- dimensional image forming method
JP2005003631A (en) Apparatus and method for measuring three-dimensional shape
JP3525712B2 (en) Three-dimensional image capturing method and three-dimensional image capturing device
JP4543821B2 (en) Three-dimensional shape measuring apparatus and method
JP2002107129A (en) Apparatus and method for imaging three-dimensional image

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040908

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060315

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060815

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060828

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100915

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110915

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120915

Year of fee payment: 6