JP2017003331A - 被計測物の形状を計測する計測装置、算出装置、算出方法及びプログラム - Google Patents
被計測物の形状を計測する計測装置、算出装置、算出方法及びプログラム Download PDFInfo
- Publication number
- JP2017003331A JP2017003331A JP2015115235A JP2015115235A JP2017003331A JP 2017003331 A JP2017003331 A JP 2017003331A JP 2015115235 A JP2015115235 A JP 2015115235A JP 2015115235 A JP2015115235 A JP 2015115235A JP 2017003331 A JP2017003331 A JP 2017003331A
- Authority
- JP
- Japan
- Prior art keywords
- line
- image
- lines
- measured
- luminance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/25—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
- G01B11/254—Projection of a pattern, viewing through a pattern, e.g. moiré
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/521—Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Optics & Photonics (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Geometry (AREA)
Abstract
【課題】互いの線を識別するための識別部が設けられた複数の線を含むパターン光を用いたパターン投影法で、より確実に識別部を検出する計測装置を提供する。【解決手段】被計測物5の形状を計測する計測装置1であって、互いの線を識別するための識別部が設けられた複数の線を含むパターン光を被計測物に投影する投影部2と、パターン光が投影された被計測物を撮像して画像を取得する撮像部3と、画像に基づいて被計測物の形状の情報を求める処理部4と、を有し、処理部は、線に交差する方向における画像の輝度分布から1つの線に複数の検出ラインを設定し、複数の検出ラインにおける画像の輝度分布から識別部の位置を検出し、検出された識別部の位置を用いて複数の線を識別して、被計測物の形状の情報を求める。【選択図】図1
Description
本発明は、被計測物の形状を計測する計測装置、算出装置、算出方法及びプログラムに関する。
被計測物の形状を計測する技術の1つとして、光学式の計測装置が知られている。光学式の計測装置には様々な方式が存在し、その方式の1つにパターン投影法と称される方式がある。パターン投影法では、所定のパターンを被計測物に投影して撮像し、撮像画像におけるパターンを検出して、三角測量の原理から各画素位置における距離情報を算出することで、被計測物の形状を求めている。
パターン投影法で用いられるパターンには様々な形態が存在し、代表的なパターンとして、明線と暗線とを交互に含むパターン上に切断点(ドット)を配するパターン(ドットラインパターン)がある(特許文献1参照)。検出されたドットの座標情報から、投影された各線がパターン生成部であるマスクのパターン上のどの線に対応するかの指標が与えられ、投影された各線の識別が可能となる。このように、ドットは各線を識別するための識別部となる。
ドットラインパターンを用いた計測において、予め設定されたパターン内におけるドット座標の設定情報と、検出されたドット座標の情報と、の対応付けのために十分な数のドット(識別部)が検出される必要がある。
識別部の位置の検出は、撮像画像の輝度分布(光強度分布)に基づいて行われる。一方、撮像画像の輝度分布は、被計測物の表面の各座標における光反射率分布あるいはテクスチャなどにより発生する光反射率変化によって大きく影響される。これらの影響により、識別部の位置検出精度が劣化するあるいは検出自体が不可能となる場合がある。
そこで、本発明は、互いの線を識別するための識別部が設けられた複数の線を含むパターン光を用いたパターン投影法で、より確実に識別部を検出することを目的とする。
上記課題を解決する本発明の一側面としての計測装置は、被計測物の形状を計測する計測装置であって、互いの線を識別するための識別部が設けられた複数の線を含むパターン光を前記被計測物に投影する投影部と、前記パターン光が投影された前記被計測物を撮像して画像を取得する撮像部と、前記画像に基づいて前記被計測物の形状の情報を求める処理部と、を有し、前記処理部は、前記線に交差する方向における前記画像の輝度分布から1つの前記線に複数の検出ラインを設定し、前記複数の検出ラインにおける前記画像の輝度分布から前記識別部の位置を検出し、該検出された前記識別部の位置を用いて前記複数の線を識別して、前記被計測物の形状の情報を求める、ことを特徴とする。
本発明によれば、互いの線を識別するための識別部が設けられた複数の線を含むパターン光を用いたパターン投影法で、より高い精度で識別部を検出することができる。
以下、添付図面を参照して、本発明の好適な実施の形態について説明する。
図1は、本発明の一側面としての計測装置1の構成を示す概略図である。計測装置1は、パターン投影法を用いて、被計測物5の形状(例えば、3次元形状、2次元形状、位置及び姿勢など)を計測する。図1に示すように、計測装置1は、投影部2と、撮像部3と、処理部4とを有する。
投影部2は、例えば、光源部21と、パターン生成部22と、投影光学系23とを含み、所定のパターンを被計測物5に投影する。光源部21は、光源から射出された光で、パターン生成部22を均一に、例えば、ケーラー照明する。パターン生成部22は、被計測物5に投影するためのパターン光を生成し、本実施例では、ガラス基板をクロムめっきすることによってパターンが形成されたマスクで構成されている。但し、パターン生成部22は、任意のパターンを生成可能なDLP(Digital Light Processing)プロジェクタ、液晶プロジェクタやDMDなどで構成してもよい。投影光学系23は、パターン生成部22で生成されたパターン光を被計測物5に投影する光学系である。
図2は、パターン生成部22によって生成され、被計測物5に投影されるパターンの一例であるドットラインパターンPTを示す図である。ドットラインパターンPTは、図2に示すように、明部(白色)とドット(暗部)DT(黒色)が1方向に連なった明線(ライン)BPと、1方向に延びる暗線(ライン)DP(黒色)とを交互に含む周期的なパターンを含む。ドットDTは、明線BP上において明部が延びる方向(x方向)において明部を切断するように明部と明部の間に不等間隔で設けられている。ドットは、互いの明線を識別するための識別部である。ドットの位置は各明線上において異なるため、検出されたドットの座標(位置)情報から、投影された各明線がパターン生成部22上のどのラインに対応するかの指標が与えられ、投影された各明線の識別が可能となる。ドットラインパターンPTの明線BPの幅(ライン幅)LWBPと暗線DPの幅LWDPとの比(以下、「デューティー比」と称する)は任意であるが、図2では1:1を示している。
撮像部3は、例えば、撮像光学系31と、撮像素子32とを含み、被計測物5を撮像して画像を取得する。撮像部3は、本実施例では、ドットラインパターンPTが投影された被計測物5を撮像して、ドットラインパターンPTに対応する部分を含む画像、所謂、距離画像を取得する。撮像光学系31は、被計測物5に投影されたドットラインパターンPTを撮像素子32に結像するためのレンズ等で構成される結像光学系である。撮像素子32は、パターンが投影された被計測物5を撮像するための複数の画素を含むイメージセンサであって、例えば、CMOSセンサやCCDセンサなどで構成されている。
処理部4(算出装置)は、撮像部3で取得された画像に基づいて、被計測物5の形状を求める。処理部4は、制御部41と、メモリ42と、パターン検出部43と、算出部44とを含む。制御部41、パターン検出部43や算出部44は、CPUやFPGAなどの演算装置やその他のIC、制御回路などで構成される。メモリ42はRAMなどの記憶装置で構成される。制御部41は、投影部2や撮像部3の動作、具体的には、被計測物5へのパターンの投影やパターンが投影された被計測物5の撮像などを制御する。メモリ42は、撮像部3で取得された画像を記憶する。パターン検出部43は、メモリ42に記憶された画像を用いて、かかる画像におけるパターン光のピーク、エッジやドット(検出対象とする位置)を検出してパターンの座標、即ち、画像におけるパターン光の位置を求める。算出部44は、検出対象とする位置(座標)の情報とドットから識別した各ラインの指標を用いて、三角測量の原理から、撮像素子32の各画素位置における被計測物5の距離情報(3次元情報)を算出する。
本実施例におけるドット検出方法を説明する。ドットラインパターンにおけるドットは、ドットラインパターンの各ライン番号を特定する為の符号である。ドットラインパターンの各ラインを対応付ける方法としては、撮像画像上のラインの切断位置(ドット)と投影パターンを対応付ける方法が知られており、単一のドットだけではなく周辺のドットとの整合性を検証する事で対応付けの検証性を高める。この様な原理からドット位置の検出精度も最終的な距離計測精度に影響を及ぼす。そこで、本実施例では、より確実にドットを検出し、検出できるドット数を増やすことで、計測精度を高める。以下、詳細を説明する。
図3に、計測フローを示す。まず、パターン光が投影された被計測物を撮像し、画像をメモリ42に記憶する(S100)。次に、処理部4のパターン検出部43は、メモリ42に記憶されている被計測物の画像を取得する(S101)。パターン検出部43は、画像に平滑化フィルタをかける。これは、以下の計測線検出プロセスにおいて、画像上の明線とドットとの画素値の差が影響して、ドットを境に計測線が分割された状態で検出されないように、計測線とドットとの画素値の差を少なくするための処理である。
次に、パターン検出部43は、上記の処理がなされた画像を用いて計測線(検出ライン)を検出する(S102)。まず、パターン検出部43は、上記の処理がなされた画像に対し、ソベルフィルタを適用した後、ドットラインパターンPTの明線に交差する方向、例えば、明線に垂直な方向(y方向)における断面の輝度分布(光強度分布)から、輝度勾配分布を算出する。輝度勾配分布は、輝度分布を明線に垂直な方向の座標で1階微分することにより求める。
図4に、明線(白色)を含む画像の一部拡大図を示す。さらに、図4に、計算上における、明線に垂直な方向(y方向)における評価断面を示す。評価断面1(実線)は3本の明線を横切る断面であり、評価断面2(破線)は明線、ドットおよび明線を横切る断面である。図5に、各評価断面における輝度分布と輝度勾配分布を示す。本実施例においては、これらの評価断面における輝度勾配分布において、極大値と極小値(極値)となる座標の検出を行う。検出された座標を検出点とする。図4、5において、検出された検出点を丸で示す。各明線および各ドットに対し、明線に対して垂直な方向における2つの検出点が存在することとなる。パターン検出部43は、このように検出点を求めることにおり、パターン光の各ラインの位置を検出することができる。なお、輝度勾配分布は、明線に平行な方向(x方向)における複数の座標(画素)のそれぞれについて算出され、各座標における検出点が検出される。図6に、明線に平行な方向における各座標について検出された検出点を丸で示す。
図6に例示する通り、明線に平行な方向の隣接する座標(画素)間において、それぞれの極大値の位置を同一の計測線上の候補点であるとし、ラベリングを行って繋げることで、極大値の位置を通る計測線の検出を行う。極小値の位置についても同様である。本実施例において、各々の明線に対し、計測線は2本検出される事となる。図6に、ある1つの計測線を破線で示す。このように、1つの明線に2本の計測線が設定される。
次に、パターン検出部43は、検出された複数の計測線上における輝度分布に基づき、ドット(識別部)の位置の検出を行う(S103)。図7に、計測線上(x方向)における輝度分布と、その輝度分布から得られる輝度勾配分布を示す。本実施例においては計測線上における輝度分布は谷部を持ち、谷部のピーク位置(極小値)を特徴点として座標検出を行う。具体的には、計測線上における輝度分布に微分フィルタを適用して輝度勾配分布を求め、ノイズ検出などを除去するために応答強度の閾値などを適用した上で、輝度勾配分布におけるゼロクロス点の検出を行う。図7にゼロクロス点の位置を三角記号で示す。また、図6と同様の図面上において、ゼロクロス点の位置を三角記号で示した図を図8に示す。1つの計測線において1つのドット付近で1点の特徴点(ゼロクロス点)を検出するが、前述の通り、各々の明線に対し計測線は2本検出されているので、各明線において1つのドット付近で2点の特徴点が検出されることとなる。したがって、2点の特徴点の位置情報を用いて、ドットの位置(座標)を決定することができる。
パターン検出部43は、このようにして検出された識別部の位置情報を基に、各識別部がどの明線(番号)に属するのかを識別する(S104)。識別に際しては各識別部に対して、パターンの座標系におけるエピポーラ線の位置及び傾きを計算する。なお、エピポーラ平面は、投影レンズの物体側主点と撮像レンズの像側主点と物点を含む平面であり、エピポーラ線とは、計測される画像上におけるエピポーラ平面との交線である。エピポーラ線の位置及び傾きは、選択した識別部の位置から撮像レンズの視線方向に伸ばした直線を、投影パターンの座標系に投影することによって計算される。投影パターンの座標系での選択した識別部の位置は、このエピポーラ線上にあるため、エピポーラ線上に識別部を持つ計測線をパターン上から探索することにより、選択した特徴点がどの明線に属するものなのかを識別する。探索に際しては、識別の整合性を表す評価関数の最小化を行うが、その際に、BP(Belief Propagation)やGC(Graph Cut)のアルゴリズムを用いることができる。
また、本実施例においては1つの識別部につき輝度勾配の極大値および極小値に対応した2つの特徴点の座標が検出されるが、個別の特徴点につき異なる識別部の対応点を対応付けて識別を行っても良い。また、前述の2つの特徴点の座標が同一の識別部に所属するという拘束条件を課して識別を行っても良い。
そして、算出部44は、パターン検出部43により検出された計測線の座標情報と、特徴点の位置情報から識別した各ドットを含む各ライン(明線)の指標(番号)を用いて、三角測量の原理から、撮像素子32の各画素位置における被計測物5の距離情報を算出する。そして、算出部44は、距離情報から被計測物5の形状の情報を求める(S105)。
従来技術では、1本の明線にある1つのドットに対して、1つの計測線上の1つの特徴点の位置情報が検出されて、1つのドットの位置を決定していた。しかし、本実施例においては、1つのドットに対し、2つの計測線上の2つの特徴点の位置情報が検出されており、ドットの位置を決定している。したがって、ドットの位置情報の検出密度が向上している事となる。例えば、被計測物の反射率分布やテクスチャなどの影響が存在した場合においても、その影響により、2つの特徴点のうち片方の特徴点の検出位置の誤差が大きかったり、検出エラーが生じたりする。その場合でも、テクスチャの影響を受けない片方の特徴点が正しく検出されていれば、ドットの位置を正しく検出することができる。つまり、検出される特徴点の存在確率を向上させることが可能となる。これにより、各ラインにおいて識別可能となる識別部の数の減少を抑える効果が得られ、画像から算出される距離の計測点の欠如や、精度が低い計測点の発生を軽減することができる。
本実施例においては、識別部として、明線上に不等間隔で配置されたドット状の暗部を例示したが、輝度勾配の極大又は極小を評価出来る識別部であれば、形状や色などを変えても良い。また、パターン生成部22によって生成され、被計測物5に投影されるパターンは、ドットラインパターンに限らない。パターンとしては、明部と暗部に限らず、階調パターンや多色パターンなど、複数の線を含むパターンであればよい。また、線は直線でも曲線でもよい。また、図2に示すドットラインパターンの明部と暗部を反転させたパターンで、ドット状の明部を有するパターンでもよい。
さらに、本実施例では、明線に対して垂直な方向の評価断面における輝度勾配分布の極大と極小を検出点としたが、さらに、輝度分布における極大及び極小のうち少なくとも一方(極値)を検出点に加えてもよい。これにより、例えば、輝度分布の極大点を検出点とすると、輝度分布の極大点を通る計測線(検出ライン)が1つ求められ、その計測線における輝度分布からドットに関する特徴点を検出することができる。つまり、3つの計測線上における3つの特徴点を検出することができ、ドットの位置の決定、各ラインの識別、距離計測をより高精度に行うことできる。
なお、極大又は極小の位置に関しては、輝度分布や輝度勾配分布がある領域(幅)をもって最大又は最小近傍となる場合がある。その場合には、最大又は最小近傍となる何れかの位置を選択したり、中心位置を選択したりして、極大又は極小の位置としてもよい。
以上のように、本実施例では、識別部の位置を検出するための特徴点の密度の増加により、識別部の位置の識別をより確実に行い、より高い精度で被計測物の形状の情報を求めることができる。また、検出点の密度の増加により、より小型な被計測物の形状も計測することが可能となる。
以下、実施例2に関して説明を行う。実施例2では、実施例1におけるS103の内容が異なる。その他の計測フローは実施例1と同様であるため、詳細説明を省略する。
実施例1では、S103において、検出された複数の計測線上における輝度分布の極小値の位置(輝度勾配分布のゼロクロス点)を、ドット位置を決定するための特徴点としていた。
一方、本実施例においては、検出された複数の計測線上における輝度勾配分布の極大点または極小点を特徴点として検出する。具体的には、パターン検出部43は、図9に破線で示す計測線を検出し、計測線の輝度分布に対し、微分フィルタを適用する事で得られる計測線の輝度勾配分布に対し、極大値及び極小値の位置を検出して、特徴点とする。図10に、計測線上における輝度分布および輝度勾配分布と、検出される特徴点の位置を三角で示す。図9にも、検出される特徴点の位置を三角で示す。
したがって、1本の計測線の輝度勾配分布において1つのドット部に対して、極大値と極小値の2つの特徴点が検出されることとなる。実施例1と同様に、1本の明部線に対し、2本の計測線が検出されるため、1つのドット部から検出される特徴部の位置情報は4つとなる。したがって、識別部の位置を検出するための特徴点の密度が、実施例1よりもさらに増加するため、識別部の位置の識別をより確実に行い、より高い精度で被計測物の形状の情報を求めることができる。
また、例えば、明線に垂直な方向の評価断面における輝度分布の極大点を含む計測線(検出ライン)を1本さらに求め、その計測線における輝度分布からドットに関する特徴点を検出することもできる。また、各計測線における輝度分布の極小値の位置を特徴点として検出してもよい。つまり、3つの計測線上において最大9つの特徴点を検出することができ、ドットの位置の決定、各ラインの識別、距離計測をより高精度に行うことできる。
以下、実施例3に関して説明を行う。上記実施例では、ドットラインパターンPTの明線と暗線のデューティー比を1:1としたが、必ずしも1:1でなくてもよい。ただし、1:1の方がエッジ位置の検出を行う上で好ましい。図11は、明線と暗線のデューティー比が、明線:暗線=1:4の設計上のパターン光と、計測画像の輝度分布を示す。横軸を、各線が延びる方向に対して垂直なx方向の位置とし、縦軸を輝度とする。計測画像として、撮像素子においてベストフォーカス状態(ピントが最適な位置)で撮像される場合の輝度分布と、ベストフォーカス位置から40mmずれたデフォーカス状態(ピントがずれた位置)で撮像される場合の輝度分布を示す。
図11によると、ピントが最適な位置で撮像された画像の輝度分布から得られる輝度勾配分布の極値の位置(エッジ位置(白抜き三角))に対して、ピントがずれた位置で撮像された画像の輝度分布から得られるエッジ位置(黒三角)がずれていることがわかる。このエッジ位置のずれ量を距離算出誤差に換算したところ267μmとなる。よって、デューティー比が1:4のパターン光においてはデフォーカスによりエッジ位置ずれに起因する距離算出誤差が発生していることがわかる。
一方、図12は、ドットラインパターンPTの明線と暗線のデューティー比が1:1のパターンに関し、図11と同条件の評価で得られた輝度分布を示すものである。図12によるとピントが最適な位置で撮像された画像の輝度分布から検出されるエッジ位置(白抜き三角)と、ピントがずれた位置で撮像された画像の輝度分布から検出されるエッジ位置(白抜き三角)に、ずれは発生しない。デューティー比が1:1のパターンを照射した際の画像の輝度分布は、デフォーカスによりコントラストは変化するものの、ピークやネガティブピーク位置およびその略中間点であるエッジ位置に関しては位置ずれが発生しない為であると考えられる。よって、検出点としてエッジ位置(輝度勾配の極値の位置)を用いる場合、デフォーカス時の検出位置ずれの影響の観点から、デューティー比は1:1に近い事が好ましい。
これは、明線に平行な方向における輝度分布から得られる輝度勾配分布の極値の位置を特徴点として検出する場合でも同様である。つまり、ドットラインパターンPTの明線と暗線のデューティー比を1:1とした場合、デフォーカス状態で撮影された画像において、明線に平行な方向における輝度勾配分布の極値を特徴点として検出すれば、検出精度は低下しない。したがって、これらの特徴点の検出位置を用いれば、識別部の位置をより高精度の決定することができる。
以下、実施例4に関して説明を行う。輝度分布の極値ならびに輝度勾配分布の極値の検出精度は、被計測物に投影されるパターンのプロファイル(分布)に影響される。ここで、パターンのプロファイルは、パターン生成部22によって生成されるパターンに加え、投影光学系のNA、デフォーカスなどの光学パラメータによって変化する。
図13に、明線に対して垂直な方向のパターンプロファイルを2種類(プロファイル1、プロファイル2)、例示する。この2種類のプロファイルに対し、被計測物の反射率分布の影響を考える。ここでは、反射率分布は画像上の1pixelの範囲に対して5%の勾配を持つ一次の分布を想定する。図13に、反射率分布を破線で示す。反射率分布は、座標0を100%とした相対値を示している。画像上の輝度分布としては、図13に示す、パターンプロファイルと反射率分布を乗算したもの(プロファイル×反射率分布)となる。
この輝度分布に対し、輝度勾配の分布を求めたものを図14に示す。図14より、各プロファイルにおいて反射率分布がある場合と無い場合とにおいて、輝度の極大値の位置と、輝度勾配の極値の位置と、のシフト量(ずれ)が明らかとなる。
上記位置のシフト量を図15に示す。プロファイル1では、輝度勾配の極値が0.5pixelシフトしているのに対して、輝度の極値は0.27pixelシフトしている。すなわち、反射率分布に対する位置のシフト量は、輝度勾配の極値の方が大きい。一方、プロファイル2では、輝度勾配の極値が0.12pixelシフトしているのに対して、輝度の極値は1.22pixelシフトしている。すなわち、反射率分布に対する輝度の極値と輝度勾配の極値の位置ずれ量は、被計測物に投影されるパターンプロファイルによって異なっている。
この結果を基に、パターンプロファイルあるいはその決定因子から、輝度の極値と輝度勾配の極値の検出結果(検出位置)に対して、重み付けを行うことで、実効的な位置検出精度を向上させることができる。例えば、PSF(点像分布関数)の拡がりが大きい光学条件(例えば、プロファイル1など)においては、輝度勾配の極値の位置検出精度が輝度の極値の位置検出精度より低くなることが予測される。このような場合、パターン検出部43は、識別部の識別を行う際に、輝度勾配の極値の検出位置に対する重みを、輝度の極値の検出位置に対する重みよりも小さいものとして重み付けを行う。それによって、実効的な位置検出精度を維持した上で、特徴点の検出数を増加させることが可能である。
以上、本発明の実施の形態を説明してきたが、本発明はこれらの実施の形態に限定されず、その要旨の範囲内において様々な変更が可能である。
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施例の計測や形状算出工程などの機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介して情報処理装置(システム)に供給する。そして、その装置(システム)のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
Claims (10)
- 被計測物の形状を計測する計測装置であって、
互いの線を識別するための識別部が設けられた複数の線を含むパターン光を前記被計測物に投影する投影部と、
前記パターン光が投影された前記被計測物を撮像して画像を取得する撮像部と、
前記画像に基づいて前記被計測物の形状の情報を求める処理部と、を有し、
前記処理部は、前記線に交差する方向における前記画像の輝度分布から1つの前記線に複数の検出ラインを設定し、前記複数の検出ラインにおける前記画像の輝度分布から前記識別部の位置を検出し、該検出された前記識別部の位置を用いて前記複数の線を識別して、前記被計測物の形状の情報を求める、ことを特徴とする計測装置。 - 前記複数の検出ラインは、前記線に交差する方向における前記画像の輝度分布から得られる輝度勾配が極大となる位置を通る検出ライン、および、前記輝度勾配が極小となる位置を通る検出ライン、を含むことを特徴とする請求項1に記載の計測装置。
- 前記複数の検出ラインは、前記線に交差する方向における前記画像の輝度分布から得られる輝度勾配が極値となる位置を通る検出ライン、および、前記線に交差する方向における前記画像の輝度分布において輝度が極値となる位置を通る検出ライン、を含むことを特徴とする請求項1又は2に記載の計測装置。
- 前記処理部は、前記複数の検出ラインにおける前記画像の輝度分布から得られる輝度勾配が極大となる位置、及び、前記複数の検出ラインにおける前記画像の輝度分布から得られる輝度勾配が極小となる位置を検出し、検出された位置に基づいて前記識別部の位置を検出する、ことを特徴とする請求項1乃至3の何れか1項に記載の計測装置。
- 前記処理部は、前記複数の検出ラインにおける前記画像の輝度分布から得られる輝度勾配が極値となる位置、及び、前記複数の検出ラインにおける前記画像の輝度分布において輝度が極値となる位置を検出し、検出された位置に基づいて前記識別部の位置を検出する、ことを特徴とする請求項1乃至4の何れか1項に記載の計測装置。
- 前記処理部は、前記複数の検出ラインにおいて検出された複数の位置に対して重み付けを行って、重み付けを行った結果に基づいて前記識別部の位置を検出する、ことを特徴とする請求項4又は5に記載の計測装置。
- 前記パターン光は、明線と暗線とを交互に含み、
前記識別部は、前記明線又は前記暗線を識別するための識別部である、ことを特徴とする請求項1乃至6の何れか1項に記載の計測装置。 - 被計測物の形状を算出する算出装置であって、
互いの線を識別するための識別部が設けられた複数の線を含むパターン光が投影された前記被計測物を撮像して得られる画像を取得し、前記画像に基づいて前記被計測物の形状の情報を求める処理部を有し、
前記処理部は、前記線に交差する方向における前記画像の輝度分布から1つの前記線に複数の検出ラインを設定し、前記複数の検出ラインにおける前記画像の輝度分布から前記識別部の位置を検出し、該検出された前記識別部の位置を用いて前記複数の線を識別して、前記被計測物の形状の情報を求める、ことを特徴とする算出装置。 - 被計測物の形状を算出する算出方法であって、
互いの線を識別するための識別部が設けられた複数の線を含むパターン光が投影された前記被計測物を撮像して得られる画像を取得する工程と、
前記画像に基づいて前記被計測物の形状の情報を求める工程と、を有し、
前記情報を求める工程において、前記線に交差する方向における前記画像の輝度分布から1つの前記線に複数の検出ラインを設定し、前記複数の検出ラインにおける前記画像の輝度分布から前記識別部の位置を検出し、該検出された前記識別部の位置を用いて前記複数の線を識別して、前記被計測物の形状の情報を求める、ことを特徴とする算出方法。 - 請求項9に記載の算出方法を情報処理装置に実行させるためのプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015115235A JP2017003331A (ja) | 2015-06-05 | 2015-06-05 | 被計測物の形状を計測する計測装置、算出装置、算出方法及びプログラム |
US15/171,916 US20160356596A1 (en) | 2015-06-05 | 2016-06-02 | Apparatus for measuring shape of object, and methods, system, and storage medium storing program related thereto |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015115235A JP2017003331A (ja) | 2015-06-05 | 2015-06-05 | 被計測物の形状を計測する計測装置、算出装置、算出方法及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017003331A true JP2017003331A (ja) | 2017-01-05 |
Family
ID=57452282
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015115235A Pending JP2017003331A (ja) | 2015-06-05 | 2015-06-05 | 被計測物の形状を計測する計測装置、算出装置、算出方法及びプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US20160356596A1 (ja) |
JP (1) | JP2017003331A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019155859A (ja) * | 2018-03-16 | 2019-09-19 | 住友ゴム工業株式会社 | トッピングシートの検査方法 |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6744709B2 (ja) * | 2015-11-30 | 2020-08-19 | キヤノン株式会社 | 情報処理装置、情報処理方法 |
US10542245B2 (en) * | 2017-05-24 | 2020-01-21 | Lg Electronics Inc. | Mobile terminal and method for controlling the same |
US20190310373A1 (en) * | 2018-04-10 | 2019-10-10 | Rosemount Aerospace Inc. | Object ranging by coordination of light projection with active pixel rows of multiple cameras |
CN109489583B (zh) * | 2018-11-19 | 2021-09-17 | 先临三维科技股份有限公司 | 投影装置、采集装置及具有其的三维扫描系统 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3884321B2 (ja) * | 2001-06-26 | 2007-02-21 | オリンパス株式会社 | 3次元情報取得装置、3次元情報取得における投影パターン、及び、3次元情報取得方法 |
US7088443B2 (en) * | 2002-02-11 | 2006-08-08 | Kla-Tencor Technologies Corporation | System for detecting anomalies and/or features of a surface |
US9182221B2 (en) * | 2011-06-13 | 2015-11-10 | Canon Kabushiki Kaisha | Information processing apparatus and information processing method |
US9389067B2 (en) * | 2012-09-05 | 2016-07-12 | Canon Kabushiki Kaisha | Three-dimensional shape measuring apparatus, three-dimensional shape measuring method, program, and storage medium |
JP5897532B2 (ja) * | 2013-11-05 | 2016-03-30 | ファナック株式会社 | 三次元空間に置かれた物品をロボットで取出す装置及び方法 |
-
2015
- 2015-06-05 JP JP2015115235A patent/JP2017003331A/ja active Pending
-
2016
- 2016-06-02 US US15/171,916 patent/US20160356596A1/en not_active Abandoned
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019155859A (ja) * | 2018-03-16 | 2019-09-19 | 住友ゴム工業株式会社 | トッピングシートの検査方法 |
JP7189666B2 (ja) | 2018-03-16 | 2022-12-14 | 住友ゴム工業株式会社 | トッピングシートの検査方法 |
Also Published As
Publication number | Publication date |
---|---|
US20160356596A1 (en) | 2016-12-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6512912B2 (ja) | 被計測物の形状を計測する計測装置 | |
JP5576726B2 (ja) | 三次元計測装置、三次元計測方法、及びプログラム | |
US8964189B2 (en) | Three-dimensional measurement apparatus, method for three-dimensional measurement, and computer program | |
US9418291B2 (en) | Information processing apparatus, information processing method, and computer-readable storage medium | |
US9007602B2 (en) | Three-dimensional measurement apparatus, three-dimensional measurement method, and computer-readable medium storing control program | |
JP6465682B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP6468802B2 (ja) | 三次元計測装置、三次元計測方法及びプログラム | |
JP2017003331A (ja) | 被計測物の形状を計測する計測装置、算出装置、算出方法及びプログラム | |
US10006762B2 (en) | Information processing apparatus, information processing method, and storage medium | |
JP6161276B2 (ja) | 測定装置、測定方法、及びプログラム | |
CN110906884B (zh) | 三维几何形状测量设备和三维几何形状测量方法 | |
WO2022254854A1 (ja) | 3次元計測装置 | |
JP7390239B2 (ja) | 三次元形状測定装置及び三次元形状測定方法 | |
JP6552230B2 (ja) | 計測装置 | |
JP5968370B2 (ja) | 三次元計測装置、三次元計測方法、及びプログラム | |
JP5371015B2 (ja) | クロスマーク検出装置及び方法、並びにプログラム | |
JP2017156197A (ja) | 計測装置および計測方法 | |
JP2019174216A (ja) | レンズマーカのパターン中心の決定方法、およびその装置、ならびに決定方法をコンピュータに実行させるプログラム、およびその記録媒体 | |
JP2017032449A (ja) | 計測装置および計測方法 | |
JP2011204195A (ja) | 凹凸検査装置、凹凸検査方法 | |
CN111829456A (zh) | 三维形状测定装置以及三维形状测定方法 |