JP5882631B2 - 三次元位置計測装置、三次元位置計測方法、及びコンピュータプログラム - Google Patents
三次元位置計測装置、三次元位置計測方法、及びコンピュータプログラム Download PDFInfo
- Publication number
- JP5882631B2 JP5882631B2 JP2011176946A JP2011176946A JP5882631B2 JP 5882631 B2 JP5882631 B2 JP 5882631B2 JP 2011176946 A JP2011176946 A JP 2011176946A JP 2011176946 A JP2011176946 A JP 2011176946A JP 5882631 B2 JP5882631 B2 JP 5882631B2
- Authority
- JP
- Japan
- Prior art keywords
- edge
- pattern
- subject
- value
- light
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 81
- 238000004590 computer program Methods 0.000 title claims description 5
- 238000005259 measurement Methods 0.000 claims description 55
- 238000012545 processing Methods 0.000 claims description 33
- 238000001514 detection method Methods 0.000 claims description 14
- 238000003384 imaging method Methods 0.000 claims description 10
- 238000000691 measurement method Methods 0.000 claims description 4
- 238000009795 derivation Methods 0.000 claims 1
- 238000004364 calculation method Methods 0.000 description 130
- 238000010586 diagram Methods 0.000 description 13
- 230000007423 decrease Effects 0.000 description 9
- 230000003287 optical effect Effects 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 2
- 230000002457 bidirectional effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000005315 distribution function Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 229920001897 terpolymer Polymers 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/25—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/25—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
- G01B11/2536—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object using several gratings with variable grating pitch, projected on the object with the same angle of incidence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/521—Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Optics & Photonics (AREA)
- Theoretical Computer Science (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Description
非接触での三次元形状の計測方法には、様々な方法があり、一長一短がある。例えば、レーザースリット光を用いた光切断法による三次元形状の計測方法では、スキャナ、ミラー、及び半導体レーザー等のコンパクトな部品で構成できるという長所がある。しかし、光切断法では、スキャンラインの数と同数の撮影枚数が必要となるので、光切断法は、物体の三次元形状を高速に計測するには、不利と言わざるを得ない。
この空間符号化法では、空間分割数をNとすると、撮影枚数は(log2N)枚で済む。よって、空間符号化法では、光切断法と比較すると、少ない撮影枚数で物体の三次元計測が可能となる。
そこで、ある程度の段階まで空間符号化法により空間分割測定を行い、空間分割された個々の領域の三次元形状を光切断法にて同時に計測するマルチスリット光による空間測定法が存在する(特許文献1を参照)。
この手法によって、光切断法と比較して、より少ない撮影枚数で物体の三次元計測を行うことが可能になると共に、空間符号化法のみによる測定よりも空間分解能が高い物体の三次元計測を行うことが可能になる。
三次元形状計測装置では、レーザースリット光やスリット光パターンの投影等を行うことで、形状の計測が行われるが、投影した光の反射光の撮影状態によって、計測値のベースとなる計測線の検出等に問題が生ずる。すなわち、被写体の光の反射特性である双方向反射率分布関数(BRDF(Bidirectional Reflectance Distribution Function)によって、計測線の検出が理想状態(拡散反射)とはならず、鏡面性を持つ。このこと等の理由により、三次元形状計測装置では、計測線の間接反射が計測される。
また、被写体の観測方向からの見た場合の傾斜の状態によっても問題が生じる。被写体面と、三次元計測装置のプロジェクタ装置及びカメラ装置の光軸とが垂直であれば、計測の状態としては良い条件と言える。しかし、この状態から、被写体面と、三次元計測装置のプロジェクタ装置及びカメラ装置の光軸とのなす角度に傾斜が発生すると、レーザースリット光やスリット光パターンの投影の反射光量が低下する。よって、観測信号に対してノイズが多くなり、信号雑音比が低下する問題が発生する。
また、計測線同士の間隔が狭くなり、カメラ装置の画素分解能を超えてしまう、つまり、スリット光パターンの計測が、カメラ分解能のナイキスト周波数を超えてしまうと、その画像の部分の周辺では、計測状態が不安定となる。
そこで、特許文献1では、スリット光パターンの一部の空間分割を示す符号値の符号化誤りを検出するためのパターンを物体に投影することで、符号化の誤りの検出を行っている。
本発明は、このような問題点に鑑みてなされたものであり、空間符号化法における被写体の三次元形状の計測を高速に且つ高精度に行うことを目的とする。
(第1の実施形態)
まず、第1の実施形態について説明する。
図1は、三次元位置計測システムの構成の一例を示す図である。
三次元位置計測システムは、プロジェクタ112と、カメラ113と、計算処理部100とを有する。
プロジェクタ112は、縞パターン光やマルチスリットパターン光を被写体117に投影する。カメラ113は、縞パターン光やマルチスリットパターン光が投影された被写体117(被写体117で反射された縞パターン光やマルチスリットパターン光)を撮像する。計算処理部100は、縞パターン光やマルチスリットパターン光の投影や撮像を指示したり、撮像された画像データを計算処理して被写体117の三次元位置計測を行ったりする。
コントローラ116は、メモリ115や画像メモリ114やフレームバッファ111等との通信や、演算の補助を行うハードウェアである。フレームバッファ111は、RAM等で構成されている。
CPU110は、不揮発性メモリを含むメモリ115に記録されるパターンを用いて投影パターンを構成し、フレームバッファ111に記録する。
不揮発性メモリを含むメモリ115には、縞パターン光やマルチスリット光のパターン形状プログラム、投影時間を設定するタイムアカウントプログラム等が記録されている。
また、コントローラ116は、CPU110からの指示に基づき、タイムアカウント信号を、プロジェクタ112及びカメラ113に送信する。これにより、縞パターン光やマルチスリットパターン光の投影及び撮像のタイミングが管理される。
カメラ113で撮像された複数枚の画像データは、画像メモリ114に一時的に格納され、コントローラ116を介してCPU110に入力される。CPU110は、入力した画像データに対して、二値化処理等の画像処理を行う。この二値化処理は、縞パターン光の明部と暗部との境界位置を決定する処理である。CPU110は、この二値化処理により、白黒の二値化画像データを生成する。この二値化画像データは、メモリ115に蓄積され、後の処理での距離値の算出に使用される。
CPU110は、二値化画像データ、及び各種パラメータを入力として、メモリ115に格納されている三次元位置計測プログラムに基づく処理を実行して、被写体117の三次元位置計測を行う。
CPU110による被写体117の三次元位置計測の結果は、距離画像データとして生成される。
距離画像データは、出力部(不図示)で画像化され、表示部(不図示)で距離画像として表示される。
以上の一連の処理は、全てCPU110からの指示に基づいて行われる。
図2は、被写体117に投影するスリット光パターンの一例を示す図である。
図2に示すように、スリット光パターン200〜202は、明暗のスリットを交互に配した縞パターンを有するパターン光である。
図2に示す例では、空間符号化法によるパターンのスリット光パターン200〜202は、3bitのグレイコードによる空間符号化のスリット縞パターン光である。本実施形態では、3bitの空間符号化を行う場合を例に挙げて説明するが、3bitの空間符号化を行う場合に限定されるものではない。Nbitの空間符号化を行う場合、スリット光パターンがN枚となる。
このような空間符号化法によるスリット光パターン200〜202をプロジェクタ112から被写体117に向けて投影し、被写体117に投影されたスリット光パターン200〜202をカメラ113で撮像する。このようにすることで、計算処理部100は、撮像範囲を8分割し、被写体117を認識することができる。
プロジェクタ112から被写体117に向けて、明部と暗部とが所定の周期で交互に配置された縞パターンからなるスリット光パターン200〜202を投射する。
スリット光パターン200〜202の縞パターン(形状及び大きさ)は、予め決められており、それらが各々被写体117に順次個別に投影される。そして、その投影の度に、被写体117に投影されたスリット光パターンをカメラ113で撮像して、計算処理部100が画像データとして取得する。
図4は、三次元位置計測システムの計算処理部100のソフトウェア構成の一例を示す図である。
計算処理部100は、402〜412までに示されるソフトウェア手段によって実現される。これらのソフトウェア手段は、図1に示したCPU110、フレームバッファ111、画像メモリ114、メモリ115、コントローラ116等のハードウェアを用いて実行されるプログラムの事を指している。尚、本実施形態では、これらの手段をソフトウェアとして説明を行うが、これらの一部又は全部を、ハードウェアを用いて演算処理しても構わない。最終的に、これらのソフトウェア手段を用いて、距離画像データ413の出力をすることが、ソフトウェア手段全体の目的である。
距離画像データ413は、カメラ113によって撮像される画像の画素それぞれに対して、距離値を算出することにより得られる二次元配列で構成されたデータである。距離画像データ413は、それぞれの画素の値としてカメラ113から被写体117までの距離の値を持つ三次元空間情報である。
システム管理部404は、スリット光パターンの投影のタイミングや、画像の撮像のタイミング等の管理や、演算の順序の管理や、出力データの管理等、三次元位置計測システム全体の様々なリソースの管理と時間の管理等を行っている。
このときの被写体117の像をカメラ113で撮像し、画像取り込み部403によって装置(計算処理部100)内に取り込む。
このスリット光パターンの投影処理と撮影処理は、例えば、図2に示したスリット光パターン200〜202の投影とその像の撮像とによって行われる。
このパターンの選択は、カメラ113とプロジェクタ112との空間的な配置の位置関係により決定される。
もし、カメラ113とプロジェクタ112とが、縦方向(図3に示す例ではY方向)において間隔を有して配置されているのであれば、スリット光パターンとして横パターンを用いる。逆に、カメラ113とプロジェクタ112とが、横方向(図3に示す例ではX方向)において間隔を有して配置されているのであれば、スリット光パターンとして縦パターンを用いる。
スリット光パターンとしては、図2に示されるように、グレイコードによるスリット光パターンを用い、且つ、空間を分解するのに適したBit数に応じて、低周波〜高周波までの複数のスリット光パターンを用いる。
二値化部405は、撮像された被写体117の画像を、スリット光パターンが投影されている場所と、スリット光パターンが投影されていない場所とに分ける。例えば、撮像された被写体117の画像の輝度の情報を、大津法等の閾値決定手法によって決定された閾値に応じて分けることにより、領域を分けることができる。このようにして二値化部405によって得られる二値化情報は、エッジ算出部407に送られる。
エッジ算出部407は、二値化部405から出力された二値化情報に基づいて、スリット光パターンの明暗の変わる部分の詳細な位置情報(以降、この情報を必要に応じて「エッジ位置情報」と称する)を算出する。
サブピクセル演算部409は、エッジ周辺の画素の輝度変化情報から、エッジ位置の情報として、更に詳細な座標データの算出を行う。この際、ここで算出されるエッジ位置の情報は、カメラ113の画素単位やプロジェクタ112の投影画素単位ではなく、1ピクセル以下の精度の座標値とすることが可能である。
また、エッジ算出部407は、エッジ位置情報をエッジ重なり算出部410に送る。
エッジ重なり算出部410は、前述の各スリット光パターンの周波数毎に、各撮像画素におけるスリット光パターンのエッジの重なりをカウントする。本実施形態では、エッジ重なり算出部410は、エッジ重なり算出部410は、複数のエッジ位置が撮像素子の1ピクセル内に存在する場合に、エッチ位置が重なっていると判定する。
バイナリー値算出部406は、低周波数から高周波数までの複数のスリット光パターンが個別に投影された被写体117の画像から生成された各周波数における二値化画像を統合する。これにより、バイナリー値算出部406は、プロジェクタ112の投影像での位置情報(以降、この情報を必要に応じて「ディスパリティマップデータ」と称する)が符号化された画像の生成を行う。
空間符号化法では、一般に、ディスパリティマップデータは、グレイコードと呼ばれるエンコードが行われている。そこで、投影面位置情報デコード部408は、ディスパリティマップデータのグレイコードの符号化情報を復号化し、復号化されていないディスパリティマップデータの算出を行う。
このディスパリティマップデータを用いることで、プロジェクタ112の投影面上での座標と、カメラ113で撮像された画像上での座標との対応関係を得ることができる。
空間符号化法では、プロジェクタ112の投影面上での座標と、カメラ113で撮像された画像上での座標との対応関係から、非特許文献1等に示される三角測量法を用いて、被写体117上(物体上)の各点の位置における距離画像データを得ることができる。特に、本実施形態の手法では、サブピクセル演算部409でサブピクセル処理を行うことによって、スリット光パターンのエッジ位置を、画像ピクセル単位以下の精度で算出する。このため、非常に高精度に被写体117の三次元空間上での位置を算出することが可能である。尚、三角測量法により距離画像データを算出する方法自体は公知の技術で実現できるので、ここでは、その詳細な説明を省略する。
高信頼度距離値算出部412は、エッジ重なり算出部410で算出されたエッジの重なりのカウント値の情報から、各スリット光パターンのエッジの位置に重なりが発生している箇所を特定する。次に、高信頼度距離値算出部412は、その部分の距離画像データは、不正確であると判断し、距離算出値をクリアする。
尚、エッジの位置に重なりが発生している箇所の情報から、その部分の距離画像データは、不正確であると判断し、距離算出値をクリアする際の詳細な処理に関しては、後述する。
最終的に、高信頼度距離値算出部412は、不正確ではないと判断した距離画像データのみで距離画像データ413を再構成し、出力する。
図6〜図10では、カメラ113とプロジェクタ112とが縦方向において間隔を有して配置を行っている場合を例に挙げて示している。このため、図6〜図10では、図5に示すように横方向のスリット光パターン(横パターン)を被写体601に投影することで、各スリット光パターンのエッジの位置の重なりのカウント値を算出している。尚、以下の説明では、このカウント値を必要に応じて「エッジ重なり値」と称する。
図6〜図10では、図2に示すのと同様に、低周波から高周波に至るパターンを有する複数のスリット光パターン500〜505を被写体601に順次投影し、その度に被写体601の撮像を行う。
図5に示す例でも、図2に示した例と同様に、3bitのグレイコードとして、投影面の位置情報をエンコードした状態で、各スリット光パターンの投影を行う。
高周波パターン(高周波のスリット光パターン)のbit数は、プロジェクタ112の投影画素の分解能によって決定される。例えば、プロジェクタ112の投影画素の分解能が、1024×768であり、横パターンを投影する場合、高周波パターンのビット数は、10bit分必要となる。
カメラ113によって撮像されるスリット光パターンの投影時の被写体601を、輝度が相対的に高い部分と、相対的に低い部分とに分けることができる。この処理は、前述の二値化部405によって行われる。
スリット光パターンの投影処理と撮像処理は、必要な分解能の分だけ繰り返し行われ、その度に、撮像画像から得られるエッジ位置が算出され、保持される。この処理は、前述のエッジ算出部407によって行われる。
図6に示す例では、撮像画像600の中に、測定物体である被写体601が存在する。図6は、その被写体601にスリット光パターンを投影した状態における撮像画像600を示している。図7〜図10に示すエッジ位置の算出例は、この被写体601に対して行われたものである。
エッジ算出値700は、低周波数のスリット光パターンの投影によるエッジ位置の算出値の全体を示している。このエッジ算出値700は、前述のストライプ投影パターン(ポジパターン)及びストライプ投影パターン(ネガパターン)から算出された結果である。
エッジ算出値700には、スリット光パターンの輝度変化のエッジ部分701が表示されている。
エッジ算出部407は、このエッジ部分701の値(エッジ位置情報)をメモリ115に保持する。この、エッジ部分701の値(エッジ位置情報)は、エッジ重なり算出部410によって使用される。
エッジ算出値800は、図7に示したエッジ算出値700と比較して、より高周波数のスリット光パターンの投影によるエッジ位置の算出値の全体を示している。中周波数のスリット光パターンを被写体601に投影すると、エッジ部分801に示される様に、図7に示したエッジ部分701と比較してより高周波数のエッジ位置の算出が可能になっている。
エッジ算出値900は、プロジェクタ112の画素の空間周波数を10bitに符号化した場合のエッジ位置の算出結果の一例を示している。高周波数のスリット光パターンを被写体601に投影すると、エッジ部分901に示されるように、図7及び図8に示したエッジ部分701、801と比較してより高周波数のエッジ位置の算出が可能になっている。
エッジ算出部407は、図7〜図9に示される様に、各周波数におけるスリット光パターンを被写体601に投影したときの撮像画像からエッジ位置情報を得る。エッジ重なり算出部410は、各周波数におけるスリット光パターンから得られたエッジ位置情報から、カメラ113の画素が同一の位置におけるエッジの存在をカウントすることで、エッジ重なり値を算出する。
図10(a)に示すエッジ重なり値の算出結果1000は、カメラ113の各画素位置におけるエッジ重なり値を示している。一方、図10(b)に示すエッジ重なり値1001は、エッジ重なり値の算出結果1000の各画素の値を高さ方向に示した三次元グラフを示している。
図10(a)に示す、エッジ重なり値がある画素位置(エリア)1002と、図10(b)に示す、エッジ重なり値がある画素位置(エリア)1003とは、同一の場所であり、且つ、エッジ重なり値が、2以上の場所である。また、図10(a)に示す、エッジ重なり値がある画素位置(エリア)1004と、図10(b)に示す、エッジ重なり値がある画素位置(エリア)1005とは、同一の場所であり、且つ、エッジ重なり値が、1の場所である。
高信頼度距離値算出部412は、エッジ重なり値が1のエリアを、距離画像データの同一の位置における距離算出値の信頼度が高いエリアであると判断する。一方、高信頼度距離値算出部412は、エッジ重なり値が2以上のエリアを、距離画像データの同一の位置における距離算出値の信頼度が基準よりも低いエリアであると判断する。
高信頼度距離値算出部412は、このようなエッジ重なり値の評価を行うことで、距離値算出部411によって得られた距離画像データの距離値の信頼度の低い部分を抽出して、距離画像データ413として出力しないようにすることが可能になる。
一般に、空間符号化法では、グレイコードを用いて、プロジェクタ装置の投影面上での座標位置を符号化して投影を行う。そのため、投影時においては、グレイコードでエンコードされた各スリット光パターンの投影面上でのエッジ位置は、完全に平行でありそれぞれのエッジ部分が重なることはない。グレイコードの低周波成分のエッジ位置は、それ以上のグレイコードの高周波成分のエッジ位置と重なることはないという性質があるからである。図2及び図5で示されるグレイコードのスリット光パターンの投影例でも、各周波数におけるスリット光パターンの明暗が入れ替わるエッジ位置は、低周波、中周波、高周波のいずれでも重なることはない。
そこで、エッジ重なり値が1である部分の距離画像データは、空間符号化法のアルゴリズムの条件を満たしていると判断することが可能であり、信頼度が高いと判断することができる。逆に、エッジ重なり値が2以上である部分の距離画像データは、空間符号化法のアルゴリズムの条件を満たしていると判断することが難しく、信頼度が低いと判断することができる。
本実施形態では、特許文献1の様に、間接光の反射による影響や信号雑音比の低下によるノイズの影響を計るための特別なスリット光パターンの投影等は必要とせず、非特許文献1で示される通常の空間符号化法と同一の撮像画像を用いて三次元形状を測定できる。そのため、特に、撮像回数の増加は発生せず、通常の空間符号化法と同様の撮像速度で、間接光の反射による影響や信号雑音比による影響等を排除することが可能である。
まず、ステップS1101において、エッジ重なり算出部410は、エッジ重なり値のクリア処理を行う。
次に、ステップS1102において、画像取り込み部403は、スリット光パターンのポジパターン投影時の撮像画像(p画像)と、スリット光パターンのネガパターン投影時の撮像画像(n画像)とのそれぞれを低周波数から高周波数まで入力する。尚、ステップS1103では、撮像画像を1つずつ入力するものとする。
次に、ステップS1103において、二値化部405は、ステップS1102で入力した撮像画像のそれぞれに対して二値化処理を行い、二値化情報を生成する。
次に、ステップS1104において、エッジ算出部407は、二値化情報に基づいて、エッジ部分を抽出し、エッジ位置情報を生成する。このステップS1104では、図7〜図9に示したようなエッジ算出値700、800、900が得られる。
そして、ステップS1106において、システム管理部404は、エッジ重なり値の加算処理をスリット光パターンの全ての周波数において行ったか否かを判定する。この判定の結果、エッジ重なり値の加算処理をスリット光パターンの全ての周波数において行っていない場合には、ステップS1102に戻り、次の周波数における撮像画像を入力する。そして、エッジ重なり値の加算処理をスリット光パターンの全ての周波数において行うまで、ステップS1102〜S1106の処理を繰り返し行う。
そして、エッジ重なり値の加算処理をスリット光パターンの全ての周波数において行うと、エッジ重なり値の算出が完了し、図11のフローチャートによる処理を終了し、処理の復帰を行う。
このようにして、エッジ重なり値の算出を行う。
ここで、本実施形態におけるオクルージョンによる影響について説明する。オクルージョンによる影響は、プロジェクタ112からの投影光がプロジェクタ112からの影(オクルージョン)に近い場合に発生する。図12を用いて、オクルージョンに関する説明を行う。図12は、オクルージョンの影響の一例を示す図である。
図12において、プロジェクタ112から投影されるパターン光は、被写体1201によって遮られる。この影になる部分のエリア1202については、カメラ113によってパターン光の撮影をすることが出来ない。しかし、被写体1201は、傾斜を持った物体であり、エリア1202のエッジ部分の光は、環境光と微弱なパターン光との合算値の輝度値となる。
このエリア1203に関しては、カメラ113は、被写体1201の表面を撮影することになる。尚、プロジェクタ112からのパターン光の投影も正当に行われる。
エリア1204もエリア1202、1203と同様に床面のエリアではあるが、パターン光が投影されているエリアであり、且つ、カメラ113による撮影が行われるエリアである。
エッジ重なり値が2以上である部分は、前述した通り、間接光による影響や、オクルージョンによる影響や、信号雑音比(SN比)の低下によるノイズなどの影響があると考えることが出来る。つまり、画像全体のエッジ重なり値マップデータは、パターン光によって検出されたスリット光パターンのエッジの信頼性を示すマップ、つまり信頼性マップデータと考えることが出来る。
尚、本実施形態における手法は、特開2000−337829公報で開示されている技術のような、間接光の反射による影響や信号雑音比(SN比)の低下によるノイズの影響を計るための特別なスリット光パターンの投影を必要としない。よって、通常の空間符号化法と同一の撮影画像を用いて演算することで、間接光の反射による影響やノイズによる影響を排除することが可能である。そのため、特に撮影回数の増加は発生せず、通常の空間符号化法と同様の撮影速度で、間接光の反射による影響やノイズによる影響を排除することが可能である。
ここで、本実施形態におけるエッジの算出方法の一例について説明する。図13は、エッジの算出方法の一例を説明する図である。
エッジの算出は、ポジパターンによる撮影画像と、ネガパターンによる撮影画像との2つによって算出が可能である。図13に示すグラフは、投影したパターン光を撮影した撮影画像の輝度分布を示すグラフである。撮影画像は、二次元のデータであるが、図13では、画像の縦軸方向のデータを一次元のデータとして示している。
図13において、グラフ1301は、ポジパターンの投影による撮影画像の輝度変化を示すグラフである。また、グラフ1302は、ネガパターンの投影による撮影画像の輝度変化を示すグラフである。
図13に示す輝度変化は、パターンの変化が発生している局所的な部分を拡大したものである。グラフ1301は、パターンの変化している点1304で、グラフ1302と輝度値が同一になる。この点1304を輝度変化のエッジの座標として算出することで、エッジ座標位置1303を決定する。同様の演算処理を、撮影画像全体に対して行うことで、各周波数パターンの撮影画像における各パターンのエッジ座標位置の算出を行う。
図14は、エッジ重なり値の算出方法の一例を説明する図である。
図14において、データ1401は、Nビット目の投影パターンを撮影した撮影画像から前述した方法によって算出されたエッジの位置を示すデータである。データ1402は、N+1ビット目の投影パターンを撮影した撮影画像から同様に算出されたエッジの位置を示すデータである。エッジの位置を示すデータは、撮影画面と同様の二次元の大きさを持つデータである。
もし、エッジが存在しないのであれば、エッジ重なり値を示すマップ1403の値は0を示す(画素1408等を参照)。もし、エッジが1個(エッジが重なっていない状態)であれば、エッジ重なり値を示すマップ1403の値は1を示す(画素1407等を参照)。もし、エッジが2個(エッジが重なっている状態)であれば、エッジ重なり値を示すマップ1403の値は2を示す(画素1406等を参照)。
高信頼度距離値算出部412は、エッジ重なり値が1であれば、その領域の距離画像データの値の信頼度が高いと判断し、その領域の距離画像データを有効にする。一方、エッジ重なり値が2以上であれば、その領域の距離画像データの値の信頼度が低いと判断し、その領域の距離画像データの値を無効にする。
この様にして、距離画像データの信頼度が低い部分に関しては、無効化処理を行い、結果として、信頼度の高い距離画像データ413を生成することができる。
次に、本発明の第2の実施形態について説明する。第1の実施形態では、エッジ重なり値が2以上の領域に対応する距離画像データを無効にする場合を例に挙げて説明した。これに対し、本実施形態では、エッジ重なり値が2以上の場合には、スリット光パターンの最高周波数のビット数からエッジ重なり値を減算したビット数までのスリット光パターンを用いてグレイコードを構成し、距離画像データを生成する。このように、本実施形態と第1の実施形態とは、距離画像データの算出(又は採用)方法の一部が主として異なる。よって、本実施形態の説明において、第1の実施形態と同一の部分については、図1〜図14に付した符号と同一の符号を付す等して詳細な説明を省略する。
まず、エッジ重なり値が1の場合には、全ての周波数のスリット光パターンを用いて、グレイコードを構成し、距離演算を行う。
一方、エッジ重なり値が2以上の場合は、(スリット光パターンの最高周波数のビット数−エッジ重なり値)のビット数までのスリット光パターンを用いてグレイコードを構成し、距離演算を行う。
低周波数のスリット光パターンの方が高周波数のスリット光パターンよりも光量が多く、エッジ位置の算出にとって、高周波数のスリット光パターンによる演算結果よりも信号雑音比(S/N比)が高いためである。すなわち、エッジ重なり値が2以上であっても、その値がある程度小さい場合には、低周波数のスリット光パターンによる演算結果を相対的に多く使用し、その値が大きい場合には、低周波数のスリット光パターンによる演算結果を相対的に少なく使用する。
このようにすることによって、第1の実施形態と比較して、より多くの場所での距離画像データの算出が可能になる。
尚、距離値算出部411で全ての距離画像データを求め、高信頼度距離値算出部412が、重なっているエッジ位置のサブピクセル値が一致しているか否かを判定し、判定結果に応じて、エッジ重なり値が2以上の距離算出値を求め直すようにしてもよい。
次に、第3の実施形態について説明する。本実施形態では、エッジ重なり値が2以上であっても、サブピクセル精度で求めたエッジの位置が完全に一致していない場合には、その位置の距離画像データを算出(又は採用)する。このように、本実施形態と第1、第2の実施形態とは、距離画像データの算出(又は採用)方法の一部が主として異なる。よって、本実施形態の説明において、第1、第2の実施形態と同一の部分については、図1〜図14に付した符号と同一の符号を付す等して詳細な説明を省略する。
エッジ重なり値が2以上のエリア(画素)は、低周波数のスリット光パターンのエッジ位置と高周波数のスリット光パターンのエッジ位置とが、カメラ113の同一画素内に存在する状態であると考えられる。つまり、エッジ重なり値が2以上のエリア(画素)は、エッジ位置の分解能が、カメラ113の画素分解能よりも高い場合にも発生する。
この場合は、各周波数におけるスリット光パターンの輝度を用いて、サブピクセル演算部409によって、エッジ位置をサブピクセル精度で算出が可能である。そのため、カメラ113の画素単位よりも細かなエッジ位置を演算することが可能になる。
つまり、エッジ重なり値が2以上の場合、距離値算出部411は、重なっているエッジ位置のサブピクセル値が一致しているか否かを判定する。この判定の結果、重なっているエッジ位置のサブピクセル値が一致していない場合、距離値算出部411は、当該エッジ位置に対応する被写体までの距離を算出する。このようにすることによって、第1、第2の実施形態よりも高精度な距離値の算出が可能になり、被写体の三次元形状をより高精度に求めることができる。
尚、距離値算出部411で全ての距離画像データを求め、高信頼度距離値算出部412が、重なっているエッジ位置のサブピクセル値が一致しているか否かを判定し、一致している場合、当該エッジ位置に対応する距離算出値をクリアしてもよい。
次に、本発明の第4の実施形態について説明する。本実施形態では、距離値算出部411の距離算出過程において、エッジ重なり算出部410のエッジ重なり値を用いることで、距離画像データ(距離値)を無効とするのではなく、第1の実施形態よりも精度的には落ちるものの距離画像データ(距離値)を算出する。このように本実施形態と第1〜第3の実施形態とは、距離画像データの算出方法の一部が主として異なる。よって、本実施形態の説明において、第1〜第3の実施形態と同一の部分については、図1〜図14に付した符号と同一の符号を付す等して詳細な説明を省略する。
(2)エッジ重なり値が2以上の場合には、(投影パターンの最高周波数のビット数−エッジ重なり値)のビット数までの結果の投影パターンを用いてグレイコードを構成し、距離演算を行う。
これは、低周波数のスリット光パターンの方が高周波数のスリット光パターンよりも光量が多く、エッジ位置の算出にとって、高周波数のスリット光パターンによる演算結果よりも信号雑音比(S/N比)がより高いためである。このような処理によって、第1の実施形態と比較して、より多くの場所での距離画像データの算出が可能になる。
次に、本発明の第5の実施形態について説明する。本実施形態では、距離値算出部411の距離算出過程において、エッジ重なり算出部410のエッジ重なり値及びサブピクセル演算部409のエッジのサブピクセル値を用いる。このようにすることで、他の実施形態では算出されなかった高周波のスリット光パターンの投影結果による距離画像データの算出を行うことができる。このように本実施形態と第1〜第4の実施形態とは、距離画像データの算出方法の一部が主として異なる。よって、本実施形態の説明において、第1〜第4の実施形態と同一の部分については、図1〜図14に付した符号と同一の符号を付す等して詳細な説明を省略する。
本発明は、以下の処理を実行することによっても実現される。即ち、まず、以上の実施形態の機能を実現するソフトウェア(コンピュータプログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給する。そして、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)が当該コンピュータプログラムを読み出して実行する。
Claims (10)
- グレイコードに基づいて生成された複数の明暗の縞パターンが順次投影された被写体の撮像画像を順次取得する取得手段と、
前記順次取得された撮像画像における前記縞パターンの明暗の境界を示すエッジ位置を検出するエッジ位置検出手段と、
前記エッジ位置検出手段による前記検出の結果に基づいて、前記順次取得された撮像画像の同じ位置の画素における、前記縞パターンの明暗の境界を示すエッジの数を取得するエッジ数取得手段と、
前記エッジ位置と、前記エッジの数とに基づき、前記被写体の位置を導出する位置導出手段と、を有することを特徴とする三次元位置計測装置。 - 前記位置導出手段は、前記エッジの数が1の前記撮像画像の中の画素の位置に基づき、前記被写体の位置を導出することを特徴とする請求項1に記載の三次元位置計測装置。
- 前記位置導出手段は、前記エッジの数が2以上の前記撮像画像の中の画素を、前記被写体の位置の導出には用いないことを特徴とする請求項1に記載の三次元位置計測装置。
- 前記エッジ位置検出手段は、前記エッジの数が2以上の場合、サブピクセル処理によって、前記明暗の縞パターンのエッジ位置を検出することを特徴とする請求項1に記載の三次元位置計測装置。
- 更に、前記エッジの数に基づき、前記位置導出手段によって導出された前記被写体の位置の導出の信頼度を導出する信頼度導出手段を有することを特徴とする請求項1〜4の何れか1項に記載の三次元位置計測装置。
- 前記信頼度導出手段は、前記信頼度が基準よりも低い前記位置を出力しないことを特徴とする請求項5に記載の三次元位置計測装置。
- 前記信頼度導出手段は、前記信頼度に基づき、前記明暗の縞パターンの周波数を決定することを特徴とする請求項5に記載の三次元位置計測装置。
- 更に、前記パターンを投影する投影手段と、
前記撮像画像を撮像する撮像手段とを備えることを特徴とする請求項1〜7の何れか1項に記載の三次元位置計測装置。 - 取得手段が、グレイコードに基づいて生成された複数の明暗の縞パターンが順次投影された被写体の撮像画像を順次取得する取得工程と、
エッジ位置検出手段が、前記順次取得された撮像画像における前記縞パターンの明暗の境界を示すエッジ位置を検出するエッジ位置検出工程と、
エッジ数取得手段が、前記エッジ位置検出工程による前記検出の結果に基づいて、前記順次取得された撮像画像の同じ位置の画素における、前記縞パターンの明暗の境界を示すエッジの数を取得するエッジ数取得工程と、
位置導出手段が、前記エッジ位置と、前記エッジの数とに基づき、前記被写体の位置を導出する位置導出工程と、を有することを特徴とする三次元位置計測方法。 - グレイコードに基づいて生成された複数の明暗の縞パターンが順次投影された被写体の撮像画像を順次取得する取得工程と、
前記順次取得された撮像画像における前記縞パターンの明暗の境界を示すエッジ位置を検出するエッジ位置検出工程と、
前記エッジ位置検出工程による前記検出の結果に基づいて、前記順次取得された撮像画像の同じ位置の画素における、前記縞パターンの明暗の境界を示すエッジの数を取得するエッジ数取得工程と、
前記エッジ位置と、前記エッジの数とに基づき、前記被写体の位置を導出する位置導出工程と、をコンピュータに実行させることを特徴とするコンピュータプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011176946A JP5882631B2 (ja) | 2010-08-19 | 2011-08-12 | 三次元位置計測装置、三次元位置計測方法、及びコンピュータプログラム |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010184195 | 2010-08-19 | ||
JP2010184195 | 2010-08-19 | ||
JP2011176946A JP5882631B2 (ja) | 2010-08-19 | 2011-08-12 | 三次元位置計測装置、三次元位置計測方法、及びコンピュータプログラム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016019752A Division JP6109357B2 (ja) | 2010-08-19 | 2016-02-04 | 情報処理装置、情報処理方法、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012063352A JP2012063352A (ja) | 2012-03-29 |
JP5882631B2 true JP5882631B2 (ja) | 2016-03-09 |
Family
ID=44675769
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011176946A Expired - Fee Related JP5882631B2 (ja) | 2010-08-19 | 2011-08-12 | 三次元位置計測装置、三次元位置計測方法、及びコンピュータプログラム |
JP2016019752A Expired - Fee Related JP6109357B2 (ja) | 2010-08-19 | 2016-02-04 | 情報処理装置、情報処理方法、及びプログラム |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016019752A Expired - Fee Related JP6109357B2 (ja) | 2010-08-19 | 2016-02-04 | 情報処理装置、情報処理方法、及びプログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US8964189B2 (ja) |
JP (2) | JP5882631B2 (ja) |
CN (1) | CN103069250B (ja) |
WO (1) | WO2012023256A2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016105108A (ja) * | 2010-08-19 | 2016-06-09 | キヤノン株式会社 | 情報処理装置、情報処理方法、及びプログラム |
Families Citing this family (41)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9772394B2 (en) | 2010-04-21 | 2017-09-26 | Faro Technologies, Inc. | Method and apparatus for following an operator and locking onto a retroreflector with a laser tracker |
US9482529B2 (en) | 2011-04-15 | 2016-11-01 | Faro Technologies, Inc. | Three-dimensional coordinate scanner and method of operation |
GB2504890A (en) | 2011-04-15 | 2014-02-12 | Faro Tech Inc | Enhanced position detector in laser tracker |
US9686532B2 (en) | 2011-04-15 | 2017-06-20 | Faro Technologies, Inc. | System and method of acquiring three-dimensional coordinates using multiple coordinate measurement devices |
TR201811449T4 (tr) * | 2012-11-07 | 2018-09-21 | Artec Europe S A R L | Üç boyutlu nesnelerin doğrusal boyutlarını gözetlemek için yöntem. |
JP6166539B2 (ja) * | 2013-01-24 | 2017-07-19 | キヤノン株式会社 | 三次元形状計測装置、三次元形状計測装置の制御方法、およびプログラム |
US9041914B2 (en) | 2013-03-15 | 2015-05-26 | Faro Technologies, Inc. | Three-dimensional coordinate scanner and method of operation |
CN115981000A (zh) * | 2013-03-15 | 2023-04-18 | 感知技术有限公司 | 增强光学和感知数字护目镜 |
JP6420572B2 (ja) * | 2014-06-13 | 2018-11-07 | キヤノン株式会社 | 計測装置およびその方法 |
US10032279B2 (en) * | 2015-02-23 | 2018-07-24 | Canon Kabushiki Kaisha | Information processing apparatus, information processing method, and storage medium |
AU2016222716B2 (en) * | 2015-02-25 | 2018-11-29 | Facebook Technologies, Llc | Identifying an object in a volume based on characteristics of light reflected by the object |
US10488192B2 (en) | 2015-05-10 | 2019-11-26 | Magik Eye Inc. | Distance sensor projecting parallel patterns |
CN104897082B (zh) * | 2015-06-08 | 2018-02-23 | 华东师范大学 | 一种基于智能移动平台的高速结构光产生与处理装置 |
KR102368597B1 (ko) * | 2015-11-11 | 2022-03-02 | 삼성전자주식회사 | 영상 촬영 장치 및 이의 제어 방법 |
JP6735615B2 (ja) * | 2016-06-29 | 2020-08-05 | キヤノン株式会社 | 情報処理装置、情報処理装置の制御方法およびプログラム |
WO2018106671A2 (en) | 2016-12-07 | 2018-06-14 | Magik Eye Inc. | Distance sensor including adjustable focus imaging sensor |
CN108732066A (zh) * | 2017-04-24 | 2018-11-02 | 河北工业大学 | 一种接触角测量系统 |
JP6942567B2 (ja) * | 2017-08-30 | 2021-09-29 | キヤノン株式会社 | 情報処理装置、情報処理方法及びコンピュータプログラム |
JP6918651B2 (ja) * | 2017-09-05 | 2021-08-11 | 東芝テック株式会社 | 荷物管理システム |
WO2019070806A1 (en) | 2017-10-08 | 2019-04-11 | Magik Eye Inc. | CALIBRATION OF A SENSOR SYSTEM COMPRISING MULTIPLE MOBILE SENSORS |
KR20200054326A (ko) | 2017-10-08 | 2020-05-19 | 매직 아이 인코포레이티드 | 경도 그리드 패턴을 사용한 거리 측정 |
US10679076B2 (en) | 2017-10-22 | 2020-06-09 | Magik Eye Inc. | Adjusting the projection system of a distance sensor to optimize a beam layout |
CN111512180A (zh) * | 2017-10-22 | 2020-08-07 | 魔眼公司 | 调整距离传感器的投影系统以优化光束布局 |
US11085761B2 (en) * | 2017-10-30 | 2021-08-10 | Hewlett-Packard Development Company, L.P. | Determining surface structures of objects |
JP2019087008A (ja) | 2017-11-07 | 2019-06-06 | 東芝テック株式会社 | 画像処理システム及び画像処理方法 |
AT521004B1 (de) * | 2017-11-30 | 2022-10-15 | Henn Gmbh & Co Kg | Verfahren zur Positionierung von Messstellen an einem bewegten Gegenstand |
JP7354133B2 (ja) | 2018-03-20 | 2023-10-02 | マジック アイ インコーポレイテッド | 三次元深度検知及び二次元撮像のためのカメラ露出調節 |
KR20200123849A (ko) | 2018-03-20 | 2020-10-30 | 매직 아이 인코포레이티드 | 가변 밀도들의 투영 패턴을 사용하는 거리 측정 |
EP3803266A4 (en) | 2018-06-06 | 2022-03-09 | Magik Eye Inc. | DISTANCE MEASUREMENT USING HIGH DENSITY PROJECTION PATTERNS |
DE102018211371A1 (de) * | 2018-07-10 | 2020-01-16 | Sirona Dental Systems Gmbh | Optisches Messverfahren sowie optische Messvorrichtung |
WO2020033169A1 (en) | 2018-08-07 | 2020-02-13 | Magik Eye Inc. | Baffles for three-dimensional sensors having spherical fields of view |
JP7111586B2 (ja) * | 2018-11-09 | 2022-08-02 | 株式会社Soken | 物体検出装置 |
US11483503B2 (en) | 2019-01-20 | 2022-10-25 | Magik Eye Inc. | Three-dimensional sensor including bandpass filter having multiple passbands |
EP3903061A1 (en) * | 2019-02-22 | 2021-11-03 | Prophesee | Three-dimensional imaging and sensing using a dynamic vision sensor and pattern projection |
US11474209B2 (en) | 2019-03-25 | 2022-10-18 | Magik Eye Inc. | Distance measurement using high density projection patterns |
CN114073075B (zh) | 2019-05-12 | 2024-06-18 | 魔眼公司 | 将三维深度图数据映射到二维图像上 |
EP4065929A4 (en) | 2019-12-01 | 2023-12-06 | Magik Eye Inc. | IMPROVEMENT OF TRIANGULATION-BASED THREE-DIMENSIONAL DISTANCE MEASUREMENTS WITH TIME OF FLIGHT INFORMATION |
JP2023508501A (ja) | 2019-12-29 | 2023-03-02 | マジック アイ インコーポレイテッド | 3次元座標と2次元特徴点との関連付け |
US11688088B2 (en) | 2020-01-05 | 2023-06-27 | Magik Eye Inc. | Transferring the coordinate system of a three-dimensional camera to the incident point of a two-dimensional camera |
CN113865503A (zh) * | 2020-06-30 | 2021-12-31 | 得力富企业股份有限公司 | 形心检测装置 |
CN113318410B (zh) * | 2021-05-31 | 2022-04-01 | 集美大学 | 一种跑步训练方法 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000337829A (ja) | 1999-05-26 | 2000-12-08 | Suzuki Motor Corp | 輝度計測方法及び輝度計測用プログラムを記憶した記憶媒体並びに三次元計測装置 |
US7065242B2 (en) * | 2000-03-28 | 2006-06-20 | Viewpoint Corporation | System and method of three-dimensional image capture and modeling |
JP2004191198A (ja) * | 2002-12-11 | 2004-07-08 | Fuji Xerox Co Ltd | 3次元形状計測装置および方法 |
JP2005293075A (ja) * | 2004-03-31 | 2005-10-20 | Brother Ind Ltd | 3次元形状検出装置、3次元形状検出方法、3次元形状検出プログラム |
JP4501551B2 (ja) * | 2004-06-23 | 2010-07-14 | 富士ゼロックス株式会社 | 3次元形状測定装置および方法 |
US20060017720A1 (en) * | 2004-07-15 | 2006-01-26 | Li You F | System and method for 3D measurement and surface reconstruction |
JP2006098252A (ja) * | 2004-09-30 | 2006-04-13 | Brother Ind Ltd | 3次元情報取得方法 |
JP4874657B2 (ja) * | 2006-01-18 | 2012-02-15 | ローランドディー.ジー.株式会社 | 三次元形状の測定方法およびその装置 |
JP4744610B2 (ja) | 2009-01-20 | 2011-08-10 | シーケーディ株式会社 | 三次元計測装置 |
JP5618569B2 (ja) * | 2010-02-25 | 2014-11-05 | キヤノン株式会社 | 位置姿勢推定装置及びその方法 |
WO2012023256A2 (en) * | 2010-08-19 | 2012-02-23 | Canon Kabushiki Kaisha | Three-dimensional measurement apparatus, method for three-dimensional measurement, and computer program |
JP5587137B2 (ja) * | 2010-10-29 | 2014-09-10 | キヤノン株式会社 | 測定装置及び測定方法 |
-
2011
- 2011-08-05 WO PCT/JP2011/004451 patent/WO2012023256A2/en active Application Filing
- 2011-08-05 CN CN201180040145.9A patent/CN103069250B/zh active Active
- 2011-08-05 US US13/817,410 patent/US8964189B2/en active Active
- 2011-08-12 JP JP2011176946A patent/JP5882631B2/ja not_active Expired - Fee Related
-
2016
- 2016-02-04 JP JP2016019752A patent/JP6109357B2/ja not_active Expired - Fee Related
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016105108A (ja) * | 2010-08-19 | 2016-06-09 | キヤノン株式会社 | 情報処理装置、情報処理方法、及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
WO2012023256A3 (en) | 2012-04-26 |
US20130155417A1 (en) | 2013-06-20 |
JP2012063352A (ja) | 2012-03-29 |
WO2012023256A4 (en) | 2012-06-14 |
CN103069250A (zh) | 2013-04-24 |
JP2016105108A (ja) | 2016-06-09 |
CN103069250B (zh) | 2016-02-24 |
US8964189B2 (en) | 2015-02-24 |
WO2012023256A2 (en) | 2012-02-23 |
JP6109357B2 (ja) | 2017-04-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6109357B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
KR101461068B1 (ko) | 삼차원 계측장치, 삼차원 계측방법 및 기억매체 | |
US10288418B2 (en) | Information processing apparatus, information processing method, and storage medium | |
US9007602B2 (en) | Three-dimensional measurement apparatus, three-dimensional measurement method, and computer-readable medium storing control program | |
US9621793B2 (en) | Information processing apparatus, method therefor, and measurement apparatus | |
US9835438B2 (en) | Distance measuring apparatus and method | |
US9546863B2 (en) | Three-dimensional measuring apparatus and control method therefor | |
JP2017146298A (ja) | 形状測定システム、形状測定装置及び形状測定方法 | |
US10078907B2 (en) | Distance measurement apparatus, distance measurement method, and storage medium | |
KR20140027468A (ko) | 깊이 측정치 품질 향상 | |
JP6161276B2 (ja) | 測定装置、測定方法、及びプログラム | |
KR20190104367A (ko) | 3차원 형상 계측 장치, 3차원 형상 계측 방법 및 프로그램 | |
US11210773B2 (en) | Information processing apparatus, information processing method, and storage medium for defect inspection and detection | |
CN104200456B (zh) | 一种用于线结构光三维测量的解码方法 | |
KR102370888B1 (ko) | 모델-기반 피크 선택을 이용하는 3 차원 프로파일 결정을 위한 시스템 및 방법 | |
JP6720358B2 (ja) | 3dスキャンシステム | |
CN112233139A (zh) | 用于在3d数据重建过程中检测运动的系统和方法 | |
JP5968370B2 (ja) | 三次元計測装置、三次元計測方法、及びプログラム | |
JP2021063700A (ja) | 三次元計測装置、コンピュータプログラム、制御システム及び物品の製造方法 | |
KR101087863B1 (ko) | 구조 광 패턴을 이용한 영상의 경계를 결정하는 방법, 이러한 방법이 기록된 기록매체 및 구조 광 패턴을 이용한 영상의 경계 인식 시스템 | |
US20240013420A1 (en) | Image processing apparatus, image processing method, and storage medium | |
JP2012098207A (ja) | 位置計測装置、位置計測方法及びマーカー | |
JP2024017075A (ja) | 外観検査装置、外観検査方法、および外観検査装置の制御プログラム | |
JP2000329520A (ja) | コイル位置検出装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140801 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150515 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150526 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150724 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150825 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20151015 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160105 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160204 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5882631 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |