JP5713624B2 - 三次元計測方法 - Google Patents

三次元計測方法 Download PDF

Info

Publication number
JP5713624B2
JP5713624B2 JP2010239980A JP2010239980A JP5713624B2 JP 5713624 B2 JP5713624 B2 JP 5713624B2 JP 2010239980 A JP2010239980 A JP 2010239980A JP 2010239980 A JP2010239980 A JP 2010239980A JP 5713624 B2 JP5713624 B2 JP 5713624B2
Authority
JP
Japan
Prior art keywords
camera
feature point
point
line
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010239980A
Other languages
English (en)
Other versions
JP2011123051A (ja
Inventor
林 禎
禎 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2010239980A priority Critical patent/JP5713624B2/ja
Priority to EP10795068.5A priority patent/EP2499616B1/en
Priority to PCT/JP2010/006595 priority patent/WO2011058742A1/en
Priority to US13/508,902 priority patent/US9418435B2/en
Priority to CN201080051728.7A priority patent/CN102667854B/zh
Publication of JP2011123051A publication Critical patent/JP2011123051A/ja
Application granted granted Critical
Publication of JP5713624B2 publication Critical patent/JP5713624B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

本発明はステレオカメラを使った三次元計測方法に関するものである。
従来、物品の角部などの特徴点の三次元座標を計測するための手法として、2つのカメラを用いたステレオ計測法と呼ばれる方法が用いられている。この方法では以下のフローチャートに示すように、ある物品の特徴点の三次元座標を計測するにあたって、
Step101(校正):あらかじめ精密な校正チャートを用いて、各カメラの画像歪を補正するとともに2つのカメラのそれぞれの焦点位置および各センサ面の相対位置を求める。
Step102(撮影):2つのカメラに共に特徴点が写るように撮影を行う。
Step103(対応点の探索):パターンマッチング等で各センサ面に写っている特徴点に対応する対応点の三次元座標を探索する。
Step104(三角測量):Step103でもとめた2つの対応点から三角測量法により三次元計測を行うことで特徴点の三次元座標を計測する。
の以上の4Stepで三次元計測が行われる。
Step102の撮影においては2つのカメラが共通視野を持つ必要がある。高い精度が必要な場合、画角が狭い狭角レンズを用いる方が計測分解能が高く有利であるが、共通視野が小さく、三次元計測範囲が狭くなってしまう。また広角レンズであっても、精度を上げるため接写する条件では共通視野は小さく、三次元計測範囲は狭くなってしまう。このように高い計測精度と広い計測範囲はトレードオフの関係にあった。
これに対して特許文献1では人間の眼球運動を模擬して、三次元計測範囲を広く取る方法が開示されている。この特許文献1では同公報の図3に示されたカメラのレンズの前方に楔形のプリズムを配置し、この楔形のプリズムを回転させることによって光軸を偏向させ各カメラの撮影位置を変えることができるようになっている。また楔型プリズムを2つ組み合わせることにより、偏向角の大きさφと偏向位置θを独立に駆動できるようにしてある。この装置を有する2つのカメラを用い、視野を同期して動かすことにより共通視野をスキャンして、結果として広い三次元計測範囲を確保することができる。このとき各カメラは十分な精度が得られるように狭角レンズを用いるか,接写にて撮影を行えば、高い計測精度と広い計測範囲を両立可能であることが開示されている。
またロボットアーム等に三次元計測装置を搭載した場合の様な、振動が常に生じるため撮影には悪条件であっても、偏向角の大きさと偏向位置を独立に制御することにより高精度の三次元計測が可能なようにする方法が開示されている。
特開平6−75149号公報
しかしながら上記特許文献1に記載された装置を用いて三次元計測を行う場合、各カメラの撮影位置を変えるため楔形プリズムを回転させる必要があった。このため通常の2台のカメラに加えて,モータや歯車、プリズムからなる機構およびその制御回路が必要となる。また二つのカメラで合計4つのプリズムを同期して駆動するためには高度な同期が可能なモータの制御駆動回路が4回路必要であり、カメラ制御の基板サイズが大きくなる。また計測する上でプリズムを駆動するための位置決め時間が必要であり、その分計測時間が余計にかかってしまう。
このため特許文献1記載のステレオ計測手法およびその装置をロボットアームなどに搭載する場合には、2台のカメラのほか上述の機構や制御回路が必要なため、重量やサイズが問題となり、ステレオカメラを搭載したロボットアームの小型化の障害となる。
本発明は以上の課題を鑑みなされたものであり、三次元計測方法において、特別な機構、回路の追加なく、高い精度と広い計測範囲を両立し、サイズ、重量や駆動計測時間の増加のないロボットハンドの搭載に好適な三次元計測方法を提供する。
上記目的を達成するための本発明の三次元計測方法は、少なくとも二つのカメラを用いてステレオ計測法にて物品の特徴点の三次元座標を計測する三次元計測方法であって、
第一のカメラにて特徴点を撮影し、第二のカメラは前記特徴点を撮影しないが、前記第二のカメラにて前記特徴点に連なる特徴点群を撮影する工程と、
前記特徴点に対応する第一のカメラのセンサ面上の対応点、及び前記第一のカメラの焦点位置、及び前記第二のカメラの焦点位置を含む平面を算出し、前記算出された平面と前記第二のカメラのセンサ面を含む平面との交差線である第一の線を算出する工程と、
前記特徴点に連なる前記特徴点群に対応する前記第二のカメラのセンサ面上の対応点群からなる第二の線を算出する工程と、
前記第一の線と前記第二の線の交点を求めて、前記特徴点に対応する前記第二のカメラのセンサ面を含む平面上の対応点を算出する工程と、
前記第一のカメラのセンサ面上の対応点と前記第一のカメラの焦点位置を通る直線と前記第二のカメラのセンサ面上の対応点と前記第二のカメラの焦点位置を通る直線を算出すると共に、算出された両直線の交点を前記特徴点の三次元座標として算出する工程と、
を有することを特徴とする。
上記のように構成された本発明の三次元計測方法によれば、より広い計測範囲を得ることが可能となる。
このとき2つのカメラが共通視野を持つことは必須でないので、カメラの共通視野以外の視野を活用することによって、従来例のように広い計測範囲を得るために広角レンズを用いる必要がなく、結果としてセンサの分解能を生かして高精度の計測が可能となる。
さらに、特許文献1に示された技術と比較して付加的な機構や制御回路を用いる必要がないため、カメラ部は小型軽量にでき、また機構の駆動が必要ないため高速に計測可能である。
本発明の第一の実施形態に係る三次元計測方法を説明するフローチャートである。 本発明の第一の実施形態に係るカメラ設定を説明する図である。 本発明の第一の実施形態に係る2つのカメラで撮影された画像を示す図である。 本発明の第一の実施形態に係るカメラ座標の座標軸を示す図である。 本発明の第一の実施形態に係る第一の直線の求め方を説明する図である。 本発明の第一の実施形態に係る第二の直線の求め方を説明する図である。 三角測量法の原理を説明する図である。 本発明の第一の実施形態に係る別の処理例を説明する図である。 本発明の第二の実施形態に係るカメラ設定を説明する図である。 本発明の第二の実施形態に係る2つのカメラで撮影された画像を示す図である。 撮影に伴う射影変換を説明する図である。 本発明の第二の実施形態に係る共通視野外の対応点を求める方法を説明する図である。 本発明の第三の実施形態に係るカメラ設定を示す図である。 本発明の第三の実施形態に係る計測する特徴点が写らないカメラで撮影された画像を示す図である。 本発明の第四の実施形態に係るカメラ設定を示す図である。 本発明の第四の実施形態に係る計測する特徴点が写らないカメラで撮影された画像を示す図である。 本発明の第四の実施形態に係る共通視野外の対応点を求める方法を説明する図である。 二直線の交点を求める時の精度を説明する図である。 本発明の第五の実施形態に係る共通視野外の対応点を求める方法を説明する図である。 本発明の第六の実施形態に係る三次元計測方法を説明するフローチャートである。 本発明の第六の実施形態に係る領域の属性を判定する方法を示す図である。 本発明の第七の実施形態に係るカメラ設定を示す図である。 本発明の第七の実施形態に係る3つのカメラで撮影された画像を示す図である。 本発明の第七の実施形態に係る三次元計測方法を説明するフローチャートである。 本発明の第八の実施形態に係る三次元計測方法を説明するフローチャートである。
(第一の実施形態)
本発明を実施するための最良の形態を図面に基づいて説明する。
図1は本発明の三次元計測法を表すフローチャートである。図2(a)はカメラと計測対象を示す図である。図3(a)は図2のカメラ1で撮影した画像、図3(b)は図2のカメラ2で撮影した画像を示す。
ここで図2(a)の点Xは計測対象(物品)3上の点で、計測対象3のコーナーや端点、交点など三次元物の特徴を表す点である。以下点Xのような三次元計測対象の特徴を表す点として特徴点という用語を用いる。また特徴点が複数ある場合は特徴点群と称する。xaはカメラ1で撮影した画像上の点で、図2(a)の点Xに対応するカメラ1のセンサ面に結像した点である。以下点xaのような三次元計測対象の点に対応するセンサ面の点に対して対応点という用語を用いる。対応点が複数ある場合は対応点群と称する場合がある。
図2(b)は、図1のフローチャートを実行する構成を示すブロック図である。カメラ1、カメラ2は図2(a)のカメラ1,2に対応し、それぞれ画像取得回路12,13に接続されている。画像取得回路13,14はCPU15により画像の取得タイミングを制御され、メモリ14に画像情報を保存する。取得した画像情報はメモリ14を介してCPU15に読み出される。CPU15では、読み出した画像情報を用いて図1のフローチャートで示される処理を実行し、特徴点の三次元座標を算出する。そして、算出結果は、メモリ14を介して外部インターフェース16により外部機器に出力される。なお、以下で詳述するStep2で計測された各種の値や特徴点や特徴点群の情報はメモリ14に記憶されている。
以下では図1に示したフローチャートに従い、各STEPを順を追って本発明の三次元計測法を説明する。なお以下のSTEP1およびSTEP2は、本発明の三次元計測方法を行なう際の事前準備にあたる。
(STEP1) 2つのカメラの配置
図2(a)は計測対象3上にある計測する特徴点Xおよび特徴点Xに連なる特徴点群Ynに対して2つのカメラ1,2を配置する条件を示した図である。
すなわち少なくとも一方のカメラ(図2(a)ではカメラ1)の視野に特徴点Xを含み、他方のカメラ(図2(a)ではカメラ2)の視野に特徴点群Ynを含む。このように配置することによってカメラ1,2の撮影画像はそれぞれ図3(a)、図3(b)のようになる。すなわちカメラ1の撮影画像である図3(a)は特徴点Xに対応する対応点xaを含み、カメラ2の撮影画像である図3(b)には特徴点Xに連なる特徴点群Ynに対応する対応点群ynが含まれる。「特徴点Xに連なる特徴点群」は、特徴点Xに連結したエッジ上の点を意味する。エッジ上の点群に対応するYnをたどれば特徴点Xに到達することができる。特徴点群Ynは点群からなる幾何学的な形状が、特徴点Xを含むように選ばれる。
なお本実施例では計測対象3は箱状の物体で計測対象3は直線状のエッジを有するため、特徴点Xに連なる特徴点群Ynに関して、Ynおよびynが直線となるという性質を活用する。つまりYnからなる直線上に特徴点Xが存在することを利用する。
産業用の大量生産する物品などは、形状が予め決定されていて、特徴点Xがどのエッジ上に存在するかは、既知であることが多く、カメラ1にて撮影する特徴点Xに対して、カメラ2で撮影する特徴点群Ynを選ぶことは容易である。またエッジに限らず特徴点Xと連結した物品の面に描かれた文字や図形などを利用してもよい。
(Step2) 校正
このStepでは、既知のステレオ計測法における校正法と同様の方法を用いて校正を行う。精密な二次元位置が分かっているパターンが印刷されている校正チャートを用いて、空間上で数回位置を変えて撮影したものから校正を行うことができる。
この校正工程において計測するものは各カメラのレンズ歪、センサピッチ、焦点距離、光軸とセンサ面との交わる点、2つのカメラの光軸同士の相対的な傾き、および代表点(基準とするカメラの光軸とセンサ面との交わる点とすることが多い)の絶対座標である。
ステレオ計測では図4のように基準とするカメラの光軸とセンサ面s1との交わる点をカメラ座標系の原点、センサの長辺方向をx軸、短辺方向をy軸、光軸方向をz軸とする場合が多い。
以上の校正で得られた値のうち、カメラ1およびカメラ2の”焦点距離“、”光軸とセンサ面との交わる点“から、カメラ座標での2つのカメラの焦点位置F1,F2を求めることができる。
また“光軸とセンサ面との交わる点”と“2つのカメラの光軸同士の相対的な傾き”から、カメラ座標での各カメラのセンサ面s1,s2を表す式を求めることができる。
なお2つのカメラの位置関係やフォーカス状態、画角などを固定する場合はStep1の配置に先駆けて代表点の絶対位置の計測以外の校正を行っておいても良い。
(Step3) 撮影
このStepではStep1で設置した条件で、すなわち少なくとも一方のカメラ(図2(a)ではカメラ1)の視野に特徴点Xを含み、他方のカメラ(図2(a)ではカメラ2)の視野に特徴点Xに連なる特徴点群Ynを含むように、2つのカメラで特徴点Xを撮影し、画像を取得する。
(Step4) 第一の対応点xaの位置取得
Step3で撮影した画像のうち特徴点Xが写っているほうのカメラからの画像から、既知の方法を用いて、特徴点Xに対する第一のカメラのセンサ面s1上の対応点xa(以下、第一の対応点と呼ぶ)の位置を求める作業を行うStepである。
特徴点Xに対する第一の対応点xaを求める方法としては、例えばあらかじめ特徴点に対応するテンプレートを用意していてテンプレートと撮影画像の局部的な相関演算を行い、最も相関度の高い位置から対応点を割り出すテンプレートマッチング法を用いることができる。
また図2(a)に示したように特徴点がコーナーである場合は、画像上で境界を表す輪郭線をもとめて、その交点を対応点とする方法も用いることができる。
(Step5) 第一の直線Eの式取得
このステップでは、Step2で求めた各カメラの焦点F1,F2の位置およびStep4で求めた、特徴点Xに対する第一の対応点xaの位置を用いて、図5に示したセンサ面s2を含む平面S2上の直線Eを求める。
まず焦点F1,F2および第一の対応点xaを含む平面eを求める。2つのカメラが通常の画角(画角180°未満)である場合、点F1,F2,xaは一直線上に並ぶことはない。したがって3点の位置から、それらを含む平面を一意に求めることができる。この平面が平面eである。
カメラ結像原理より、特徴点Xはそれぞれ焦点F1,F2を通ってセンサ面s1,s2に結像するため、線分F1〜xaの延長線上にある特徴点Xも平面e上にある。また同様にして線分X〜F2の延長線上にある、特徴点Xに対する第二の対応点xbも平面e上にある。
一方、特徴点Xに対する第二の対応点xbは2つの平面eと平面S2の交わる交線(本実施例の場合は直線)上の点である。この交線を直線Eとする。上記計算から平面eを示す式が求まっており、またStep2より平面S2の式が求まっているので、直線Eの式を決定することができる。
直線Eは平面S2に含まれるので、これ以降、平面S2上の二次元図形として扱う。
なお焦点F1,F2の2点を含む平面eをエピポーラ面と呼ぶ。この平面は一意に求まらない。しかし点F1,F2はStep2の段階で既知となり、以後の計測では変わらないので、あらかじめエピポーラ面の条件を求めておけば、毎回の計測時のStep5の計算量を減らすことが可能である。
(Step6) 特徴点群Ynの対応点の位置取得
Step3で撮影した画像のうち一直線上にある特徴点群Ynが写っているカメラ2により撮影した画像から、既知の方法を用いて、対応点群ynを求める作業を行うStepである。対応点群ynはstep4と同様に既知の方法で求めることができる。すなわち一例としてテンプレートマッチング法や画像上で境界を表す輪郭線をもとめて、その輪郭線上の点群を対応点群ynとする方法がある。
(Step7)第二の直線Gの式取得
Step6で求めたセンサ面s2上の対応点群yn(図6(a)ではy1〜y4)から図6(a)に示す直線Gを求めるStepである。
なお図5ではセンサ面s2に対して鏡像が写っているが、説明の簡便化のため図6(a)では正像を示している。
特徴点群Ynは一直線上にあるが、計測誤差により対応点群ynは一直線上になく曲線g上にある。このため最小二乗法を用いて誤差が最小となるように回帰計算を行いセンサ面s2上の直線Gを求める。
この直線を平面S2に外挿すると、特徴点群Ynおよび特徴点Xは一直線上にあるので第二の対応点xbは直線G上にある。
ここまでで、Step4,5,6,7の順番に説明したが、図1に示す通りStep4,5とStep6,7は並列して実行しても良い。またStep6,7の方を先に実行しても良い。
(Step8)第二の対応点xbの位置取得
Step5,Step7で求めた2つの直線E,Gから特徴点Xに対する第二の対応点xbを求める。特徴点Xに対する第二の対応点xbは直線E,Gいずれの直線上にも含まれるから、図6(b)に示したように直線Eと直線G交点を求めればその点を特徴点Xに対する第二の対応点xbとすることができる。
このようにして対応点xbはセンサ面s2上になく直接撮影はできないが、その位置を割り出すことができる。
(Step9)特徴点Xの位置取得
Step4、Step8でもとめた特徴点Xに対応する二つの対応点xa,xbから、特徴点Xの位置を求めるStepである。
ここで従来から知られた三角測量法を用いるが、その方法について図7で説明する。
このStepまでにStep2でF1,F2の位置が求まっておりStep4,8で特徴点Xに対応する二つの対応点xa,xbが求まっている。
一方カメラ撮影の原理から3つの点X,F1,xaは一直線上にあり、同様に3つの点X,F2,xbも一直線上にある。
またStep5の説明で示した通り、通常の画角を持つカメラでの計測では、3つの点X,F1,F2が一直線上に並ぶことはない。このことから点X,xa,xbは一意の三角形を形成する。このため特徴点Xの三次元位置を一意に求めることができる。
具体的にはxaからF1への空間ベクトル、xbからF2への空間ベクトルを求めて、それぞれを外挿し交点を求めればよい。
以上示したように図1に示すフローチャートにより、ステレオ計測法において、共通視野外にある特徴点の三次元位置を計測することが可能となる。
なお求める必要がある計測点が複数ある場合はStep4からStep9を繰り返せばよい。
またこの場合、必ずしも同じ側のカメラに特徴点が写っている必要はない。すなわち図8に示すような特徴点X1、X2の三次元位置を計測する場合が当てはまる。ここで図8(a)はカメラ1で撮影した画像、図8(b)はカメラ2で撮影した画像とする。
特徴点X1に対応する対応点x1はカメラ1側に写っており、特徴点X1に連なる特徴点群Y1nに対応する対応点群y1nはカメラ2側に写っている。また特徴点X2に対応する対応点x2はカメラ2側に写っており、特徴点X2に連なる特徴点群Y2nに対応する対応点群y2nはカメラ1側に写っている。
この場合でも本実施形態で順に2点X1,X2の三次元位置を求めることができる。
以上述べたように、本発明の三次元計測方法では、従来のステレオ計測法のように特徴点Xが二つのカメラの共通視野内にあることが必須ではないため、広い視野をカバーすることが可能とする。
また図22のように広角のレンズを用いる必要もないため、広角のレンズを用いた際に生じる精度の低下の問題は生じないといった効果がある。
なお共通視野外にある特徴点を計測するのに、共通視野部で三次元画像マップを作成した上で、図形の連続性から視野外の特徴点を割り出す方法がある。この場合三次元画像を計算するのに多くの計算が必要であるといった問題がある。またステレオ法においては奥行き方向の分解能はカメラ間の距離すなわち基線長に反比例する。このため二次元での計測と比べて分解能が落ち、測定精度が低くなるのが一般的である。従って上記方法は精度の面でも問題があった。
本発明の方法では共通視野部は必要では無い上、Step4からStep8までの主要な計算は平面上すなわち二次元で行うため、計算量が少なく、二次元計測の分解能が高いことから精度も上記方法より良いといった優れた効果を持つ。
(第二の実施形態)
第一の実施形態では、計測する特徴点に連なる特徴点群が直線上にある場合を示したが、これ以外(例えば曲線)にも特徴点Xに連なる特徴点群Ynに対応する画像上の線が既知の情報により外挿できる形態であれば、第一の実施形態に示した方法を実施することが可能である。
例えば図9に示すように円筒4上にある特徴点XXの三次元計測を行う場合を考える。カメラ1には特徴点XXが写るように設置され、カメラ2には少なくとも特徴点XXに連なる円弧上の特徴点群YYnが写るように設置される。
この設定でカメラ1,カメラ2で撮像される画像はそれぞれ図10(a)、図10(b)のようになる。ここでxxaは特徴点XXに対応するカメラ1に写った対応点である。yynは特徴点XXに連なる特徴点群YYnに対応するカメラ2に写った対応点群である。
図11に示すように円形は斜め方向から見ると、射影変換の原理により楕円に見えることが知られている。すなわち特徴点群YYnが円周上にあるという既知の情報を用いれば、それに対応する対応点群yynは必ず楕円上にある。
撮影によって円を含む楕円が二次元上に投影される場合、その図形はやはり楕円形状となる。すなわち直線の場合と同じく楕円の方程式などで定式化し、直線と同様に扱う事ができる。
楕円に関しては、ハフ変換などによって高速高精度にフィッティングを行う方法が知られていて、図12(a)のように対応点群yynからカメラ2のセンサ面s2を含む平面S2上にある楕円GGを求めることができる。また第一の実施形態と同様にして特徴点XXに対するカメラ1の画像上の対応点xxaと2つの焦点F1,F2の位置から直線EEを求めることができる。
平面S2上にある特徴点XXに対する第二の対応点xxbは楕円GGの円周上、直線EE上いずれにも含まれるためそれらの交点がxxbである。
図12(a)は楕円GGと直線EEが1点で接する特殊な場合を示したものであるが、実際には図12(b)のように2点で交わることがほとんどである。この場合は特徴点XXがあらかじめセンサ面s2からみて手前なのか奥なのか(撮影した画像で言えば図12(b)ではp1,p2)、遠近に関する情報を与えておけば容易に点xxbを特定することができる。
なお誤差により楕円GGと直線EEが交わらない時には直線EE上で楕円GGの円周に最も近接する点を求めて、その点をxxbとすればよい。
以上より特徴点Xに対応する2つの対応点xxa,xxbが求まるので、実施形態1の場合と同く、三角測量法を用いれば共通視野外にある特徴点XXの三次元位置を計測することができる。
撮影に伴う三次元から二次元への射影変換は非線形な変換であるので、一般の曲線に対して通常は距離情報がなければ変換後の曲線を求めることが出来ない。しかし直線や円を含む楕円などは変換後も直線や楕円となり図形の属性が変わらないので本実施形態が可能となる。また特徴点群をつなぐ線の法則性(例えば多項式上の点であることなど)があらかじめ分かっている時には、特徴点群をフィッティングすることによって本実施例と同様に共通視野外の特徴点の三次元位置を計測することができる。
(第三の実施形態)
図13は第三の実施形態を説明するための図である。自動車6に搭載された前方カメラ8と後方カメラ7を用いて壁5の切れ目Enの三次元位置を計測するシチュエーションを示している。前方カメラ8には計測する特徴点Enが写るようになっていて、後方カメラ7にはEnに連なる壁上の特徴点群Wnが写るようになっている。またこの例では前後のカメラ7,8の間に共通視野が全くない設定となっている。
この場合の後方カメラ7で撮影した画像は図14のセンサ面s7に示された画像のようになる。
第一の実施例と同様にして前方カメラ8で撮影した画像から計測する壁5の端点En(本実施例における特徴点)に対応する対応点Ena(不図示)が求まる。また点Enaと2つのカメラ7,8の焦点位置から後方カメラ7のセンサ面s7を含む平面S7上の直線E8が求まり、センサ面s7上のEnに連なる壁上の特徴点群Wnに対応する特徴点群wnから、センサ面s7を含む平面S7上の直線W7が求まる。さらに直線E8と直線W7の交点を求めることにより、特徴点Enに対応する平面S7上の対応点Enbを求めることができる。図14でEnbが後方カメラの視野に入っているように見えるが、見かけ上のことで実際に写るわけではない。すなわち特徴点Enは後方カメラの光軸方向から90°以上大きな角の方向にあるため、直線W7が90°の方向を境として折り返すためである。
以上2つのカメラ7,8の焦点位置、計測する特徴点に対応する対応点EnaとEnbより、第一の実施形態と同様にして特徴点Enの三次元位置を計測することができる。
従来の三次元計測の場合、共通視野が必要であったため、このような配置では三次元計測を行うことが難しく、例えば自動車の側方に前方後方カメラそれぞれと共通視野をもつカメラを追加する必要があった。
本実施形態によればカメラの追加なしに三次元計測が可能である。
なお実施形態は自動車に搭載することを限定しない。2つのカメラの共有視野がない場合にすべて適用できる。本実施形態では2つのカメラの共有視野が全くなくても三次元計測が可能となるため、カメラ配置の自由度が生じるといった効果を有する。
(第四の実施形態)
図15は本発明の第四の実施形態を適用する場合の説明図である。ここでXXXは計測する特徴点、Pnは特徴点XXXに連なる特徴点群、Qnは特徴点XXXに連なる別の特徴点群である。この設定でカメラ2で撮影した時の画像が図16のセンサ面s2上の画像である。
第一の実施形態の場合と同様にして、カメラ1の画像からXXXに対応する対応点xc(不図示)が求まる。またカメラ1,2の焦点位置、点xcより直線EEEが求まる。さらにセンサ面s2上の特徴点XXXに連なる特徴点群Pnに対応する対応点pnより直線Pが、同様にして特徴点XXXに連なる別の特徴点群Qnに対応する対応点qnより直線Qが求まる。
図17は図16上の3つの直線EEE、P、Qの交点付近を示した図である。ここでxp、θpはそれぞれ直線EEEと直線Pの交点、2つの直線のなす角を表している。またxq、θqは直線EEEと直線Qの交点、2つの直線のなす角を表している。
もし画像歪がなく、理想状態で画像計測ができ、直線EEE、直線P、直線Qが正しく求められているとすると、理論上3つの直線は1点で交わる。しかしながら計測誤差が存在すると、これら3つの直線は図17のように1点で交わらない。
この場合2つの直線のなす角が大きい方の交点を特徴点XXXに対応する対応点xdとするほうが誤差の影響を受けにくい。この理由を図18を使って説明する。
図18でL1、L2、L3は直線であり直線L1とL2、L1とL3のなす角を、それぞれθ1,θ2とする。このときθ1>θ2である。2つの交点を求める時に計測誤差としてL2,L3の方向が同じ角度θεだけずれていたとする。その誤差はそれぞれε1、ε2とすると、作図より明らかなようにε1<ε2となる。すなわち2つの直線の交点を求める時に交わる角が大きいほうが誤差の影響を受けにくいといえる。この実施形態ではθp>θqであるので、点xpを特徴点XXXに対応する対応点xd(不図示)とする。
以上より2つの焦点F1,F2、および計測する特徴点XXXに対応する2つの対応点xc,xdを求めることができるので第一の実施形態の場合と同様にして三角測量法により特徴点XXXの三次元位置を計測することができる。
特に第一の実施形態の場合と比較して共通視野外にある対応点xdの位置を、より正確に求めることができるので三次元計測の精度を向上させることができるといった効果がある。
なお説明では対応点xdを求めるのに2組の特徴点群を使う場合を説明したが、3組以上あってもこの実施形態を適用することが可能である。
また第一の実施形態では直線Eと直線Gが平行になった場合、交点を持たないため対応点が求まらないという特異点が存在する。本実施形態では複数の特徴点群が一直線上にないように選択されるので各特徴点群のなす直線は平行にならない。このため必ず2つの直線の交点である共通視野外にある対応点が求まり、特異点が存在しないという利点がある。
(第五の実施形態)
この実施形態は、視野外にある対応点の求め方のみ、第四の実施形態と異なる。これを図19を使って説明する。
図19は第四の実施形態の図17に対応し、記号の意味は同じである。ここで視野外の特徴点XXXに対応する点xdは直線EEE上にあり点xp,xqの重心位置に選択される。誤差原因がランダムなばらつきの場合、平均化効果があるので確率的にノイズの影響を減らすことができる。よってこの実施形態でも第四の実施形態と同様の第一の実施形態と比較して計測精度が向上する効果を有する。また第四の実施形態と同様に複数の特徴点群が一直線上にないように選択されるので特異点が存在しないという利点がある。
第四の実施形態との使い分けは以下のようである。例えば図19で直線Pを求める時の対応点群の数が少ない場合など、直線Pの誤差が大きいので本実施形態を使ったほうが有利である。また直線P,Qの計測精度が同等と予測される時でも、それぞれが直線EEEとなす角がほぼ等しければ本実施形態を用いたほうがランダム誤差の平均化効果が大きく有利となる。
(第六の実施形態)
図20は第六の実施形態を示すフローチャートである。ここでStep11からStep13は第一の実施形態のStep1からStep3に対応していて作用も同じなので説明を省略する。
Step14は、2つのカメラで撮影した画像内に計測する対応点が必ず含まれるかを判定するstepである。ここで矢印上に記された記号Nは対応点を必ず含む画像の数を示している。すなわちN=2は両方の画像に必ず対応点が含まれ、N=1は片方の画像のみに必ず対応点が含まれることを示している。またStep11の設定によりN≧1が保証されている。N=2の場合は2つのカメラ共に計測する特徴点が写っているので、一般的なステレオ計測法すなわちStep15からStep17の処理を行う。Step15,Step16では第一の実施形態のStep4と同様にして2つのカメラで撮影した画像上から、それぞれ直接、計測する特徴点に対する対応点を算出する。
2つの対応点を求めることができれば第一の実施形態のStep9と同じ処理であるstep17で特徴点の三次元位置を計測できる。
N=1の場合の処理は第一の実施形態のStep4からStep9に相当するStep24からStep29実施する。第一の実施形態と処理内容は同様なので説明は省略する。
以上により2つの画像とも計測する特徴点が必ず写っていると判定できる場合は直接、対応点を計測することにより、第一の実施例のみを用いる場合と比較して速度の向上を図ることができる。
次に計測する特徴点に対応する対応点が、各画像に必ず含まれるかを判定する判定主段の方法の一例を示す。
まずStep11で特徴点Xに連なる特徴点群Ynが写るように設定されたカメラで取得した画像に対して公知のエッジ処理により写っている図形(物品に対応する図形)の輪郭線を求める。つぎに図21のように特徴点群Ynに対応する対応点群ynを含む輪郭線を求め、この輪郭線が閉領域を形成しているかを判定する。図21(a)の場合は領域Aは閉領域であり、図21(b)の領域Aは閉領域でない。
領域Aが閉領域でない場合は特徴点Xに対応する対応点が必ず画面上にあるとは言えないのでN=1とする。
領域Aが閉領域である場合、領域Aが特徴点Xの属する図形がもつ属性を満たすかを判定する。属性とは面積、輝度、形状(n角形、楕円、… 。)等を少なくとも一つ以上組み合わせたものである。領域Aが特徴点Xの属する図形がもつ属性を満たすと判定される場合は、その画像内に必ず特徴点Xに対応する対応点が存在するのでN=2とする。
以上の手順を踏むことによって画像内に特徴点Xに対応する対応点がかならず存在するかどうかを判定することができる。
(第七の実施形態)
図22は第七の実施形態の構成を示す図である。3台のカメラ17,18,19で単一のワークを撮影する。点Xが三次元位置を計測する特徴点、点群Ynは特徴点Xに連なる特徴点群で、この場合は直線を構成する。図22の構成の場合カメラ17,18,19で取得される画像はそれぞれ図23(a),(b),(c)のようになる。ここでxa17は特徴点Xに対応するカメラ17で取得した画像上の点である。yn18、yn19はそれぞれ特徴点群Ynに対応するカメラ18,19で取得した画像上の点群である。この場合yn18,yn19は直線となる。図24は第七の実施形態を示すフローチャートである。ここでSTEP30からSTEP 34は第一の実施形態のSTEP1からSTEP 5に対応していて作用も同じなので説明を省略する。
STEP 35では、第一の実施形態のSTEP6で説明した処理をカメラ18、カメラ19に対して行う。この結果それぞれの画像から対応点群yn18,yn19を得る。その後STEP36によって各カメラで撮影した画像上の対応点群ynのそれぞれの線長を決定する。さらにSTEP37ではそれらのうち最も長いものを選択する。この実施例ではカメラ18で取得した画像上の直線となる。この直線の式は第一の実施形態のSTEP7と同様の方法で求められる。
STEP38ではSTEP34、STEP37で求めた2つの直線の式から第一の実施形態のSTEP8と同様の方法で、カメラ18のセンサ面を含む平面上に有る特徴点Xに対応する第二の対応点の二次元座標を求めることができる。STEP39では第一の実施形態のSTEP9と同様の方法で、特徴点Xに対応する2つの対応点および2つのカメラの位置関係から三角測量の原理で特徴点Xの三次元座標を求めることができる。
本実施形態によれば、特徴点Xを撮像する第一のカメラ(カメラ17)に対して、他の複数のカメラ(カメラ18、19)のうち最も多くの特徴点群Ynの情報を取得可能なカメラを自動で第二のカメラとして選択可能なので精度の向上が期待できる。また複数のカメラを用いるのでより広い範囲の三次元測定が可能となる。
以上の説明はカメラの台数が3台で平行に配置されている場合を説明したが、これに限定されるものではない。すなわち任意の位置に配置された3以上の複数台のカメラを用いて同様の実施形態をとることが可能である。
(第八の実施形態)
第八の実施形態についても、第七の実施形態と同様にして図22のような構成をとることが可能で、各カメラで取得される画像は図23のようになるため、以下これらの図、および図25を用いて説明する。なお第七の実施例と同じくカメラの台数や位置を限定するものではない。
図25は第八の実施例の処理フローを示すフローチャートである。ここでSTEP40からSTEP44は第一の実施形態のSTEP1からSTEP5に、STEP45,46は第七の実施形態のSTEP35,36に対応していて作用も同じなので説明を省略する。
STEP47ではSTEP46で求めた線長のうち規定の長さより長いものを1つ以上複数選択して、それぞれ画像平面上の2次元の直線式を求める。こうすることによって直線の長さが十分でなく式の確からしさが低いカメラからのデータを排除することができる。
STEP48ではSTEP44で求めた直線の式およびSTEP47で求めた直線の式より、第一の実施形態のSTEP8と同様の方法で第二の対応点の位置を取得する。STEP47で選択された直線の式および対応するカメラは複数あるので複数の第二の対応点が求まることになる。
STEP49ではSTEP43で求めた第一の対応点およびSTEP48で求めた第二の対応点から第一の実施形態のSTEP9と同様の方法で特徴点Xの3次元計測位置の候補点が求まる。この場合STEP48で求めた第二の対応点が複数あるので複数の候補点が取得される。
STEP50ではSTEP49で求めた複数の3次元計測位置候補から3次元の重心をとることによって特徴点Xの真の計測位置を導き出す。また重心を求める際、各点を重みを平等にして重心をもとめるだけでなく線長の長さに応じた重みをかけることも可能である。すなわちより確からしい画像から得られた情報に重みをかけることによって確実性を増すことができる。たとえば線長に応じて重みを掛けたりすることができる。
本実施形態では各カメラの視野が狭くても、特徴点群Ynを見つける際、多くの情報が得られるため等価的に広い視野を持つカメラと同様の効果が得られ、より確実な3次元計測が可能となる。
本発明による三次元計測方法は、産業ロボットハンド用のオンハンドカメラなど、高い測定精度と広い視野角を求められながらもカメラの重量にシビアな上限がある場合に好適に利用され得る。
1、2、7、8、101 カメラ
3、4 撮影物体
5 壁
6 自動車
102、106、107 レンズ
103、104、105、116、117 プリズム
108、109、110、111 モータ
112、113、114、115 歯車

Claims (10)

  1. 少なくとも二つのカメラを用いてステレオ計測法にて物品の特徴点の三次元座標を計測する三次元計測方法であって、
    第一のカメラにて特徴点を撮影し、第二のカメラ前記特徴点を撮影しないが、前記第二のカメラにて前記特徴点に連なる特徴点群を撮影する工程と、前記特徴点に対応する第一のカメラのセンサ面上の対応点、及び前記第一のカメラの焦点位置、及び前記第二のカメラの焦点位置を含む平面を算出し、前記算出された平面と前記第二のカメラのセンサ面を含む平面との交差線である第一の線を算出する工程と、
    前記特徴点に連なる前記特徴点群に対応する前記第二のカメラのセンサ面上の対応点群からなる第二の線を算出する工程と、
    前記第一の線と前記第二の線の交点を求めて、前記特徴点に対応する前記第二のカメラのセンサ面を含む平面上の対応点を算出する工程と、
    前記第一のカメラのセンサ面上の対応点と前記第一のカメラの焦点位置を通る直線と前記第二のカメラのセンサ面上の対応点と前記第二のカメラの焦点位置を通る直線を算出すると共に、算出された両直線の交点を前記特徴点の三次元座標として算出する工程を有することを特徴とする三次元計測方法。
  2. 前記特徴点に連なる特徴点群は複数有り、前記第二の線を算出する工程においては、前記複数の特徴点群に対応する前記第二のカメラのセンサ面上の複数の対応点群のそれぞれに対して前記第二の線を算出し、更に、前記第二のカメラのセンサ面を含む平面上の対応点を算出する工程においては、前記第一の線と複数の第二の線の交点から前記対応点を算出することを特徴とする請求項1に記載の三次元計測方法。
  3. 前記第一の線と前記第二の線とがなす角が最も大きいものとの交点を
    前記特徴点に対応する第二のカメラのセンサ面上の対応点とする請求項2記載の三次元計測方法。
  4. 前記第二のカメラのセンサ面を含む平面上の対応点を算出する工程では、前記第一の線と前記複数の第二の線それぞれの交点の重心位置を前記対応点として算出することを特徴とする請求項2記載の三次元計測方法。
  5. 前記第二の線は直線であることを特徴とする請求項1に記載の三次元計測方法。
  6. 前記第二の線は曲線であることを特徴とする請求項1に記載の三次元計測方法。
  7. 更に、前記特徴点に対応する対応点が、前記二つのカメラそれぞれで撮影された画像内に含まれるか判定する工程と、
    前記二つのカメラそれぞれで撮影された画像内とも計測する特徴点が写っていると判定できる場合は直接に、対応点を計測することにより特徴点の三次元位置を計測する工程、を有することを特徴とする請求項1に記載の三次元計測方法。
  8. 前記判定工程においては、前記カメラで撮影された画像内の前記物品に対応する図形の輪郭線であると共に前記特徴点群を含む輪郭線を算出し、算出された輪郭線が閉領域を形成しているか否かを判定することを特徴とする請求項7に記載の三次元計測方法。
  9. 前記特徴点に連なる特徴点群を撮影するカメラは複数あり、
    前記第二のカメラとして前記第二の線長が最も長い画像を取得可能なカメラが選択されることを特徴とする請求項1記載の三次元計測方法。
  10. 請求項1記載の三次元計測方法においてさらに、
    前記第二のカメラとして、前記対応点群からなる線の線長が予め定められた長さより長い画像を取得可能なカメラが複数選択され、複数の第二のカメラにより取得された前記第二の線にそれぞれ基づき、複数の特徴点の三次元座標候補の重みつき重心位置を前記特徴点の真の三次元座標として算出する工程を有することを特徴とする三次元計測方法。
JP2010239980A 2009-11-12 2010-10-26 三次元計測方法 Expired - Fee Related JP5713624B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2010239980A JP5713624B2 (ja) 2009-11-12 2010-10-26 三次元計測方法
EP10795068.5A EP2499616B1 (en) 2009-11-12 2010-11-10 Three-dimensional measurement method
PCT/JP2010/006595 WO2011058742A1 (en) 2009-11-12 2010-11-10 Three-dimensional measurement method
US13/508,902 US9418435B2 (en) 2009-11-12 2010-11-10 Three-dimensional measurement method
CN201080051728.7A CN102667854B (zh) 2009-11-12 2010-11-10 三维测量方法

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2009259025 2009-11-12
JP2009259025 2009-11-12
JP2010239980A JP5713624B2 (ja) 2009-11-12 2010-10-26 三次元計測方法

Publications (2)

Publication Number Publication Date
JP2011123051A JP2011123051A (ja) 2011-06-23
JP5713624B2 true JP5713624B2 (ja) 2015-05-07

Family

ID=43640223

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010239980A Expired - Fee Related JP5713624B2 (ja) 2009-11-12 2010-10-26 三次元計測方法

Country Status (5)

Country Link
US (1) US9418435B2 (ja)
EP (1) EP2499616B1 (ja)
JP (1) JP5713624B2 (ja)
CN (1) CN102667854B (ja)
WO (1) WO2011058742A1 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101739768B1 (ko) 2012-05-24 2017-05-26 한국전자통신연구원 스테레오 카메라와 협각 카메라를 이용한 원거리 시선 추적 시스템
JP6080407B2 (ja) * 2012-07-03 2017-02-15 キヤノン株式会社 3次元計測装置及びロボット装置
WO2015061387A1 (en) * 2013-10-23 2015-04-30 International Electronic Machines Corporation Enhanced stereo imaging-based metrology
CN105277132B (zh) * 2014-07-25 2018-02-16 香港理工大学 三维测量方法与仪器
JP5911934B2 (ja) 2014-09-18 2016-04-27 ファナック株式会社 輪郭線計測装置およびロボットシステム
US10027928B2 (en) * 2014-10-28 2018-07-17 Exnodes Inc. Multiple camera computational wafer inspection
US10122996B2 (en) * 2016-03-09 2018-11-06 Sony Corporation Method for 3D multiview reconstruction by feature tracking and model registration
JP6803745B2 (ja) * 2016-12-28 2020-12-23 日立Geニュークリア・エナジー株式会社 検査装置
CN107167092B (zh) * 2017-05-18 2019-12-13 上海晶电新能源有限公司 一种基于多目图像识别的定日镜面形检测系统及方法
CN108731644B (zh) * 2017-09-12 2020-08-11 武汉天际航信息科技股份有限公司 基于铅直辅助线的倾斜摄影测图方法及其系统
CN108961155B (zh) * 2018-07-13 2023-06-27 惠州市德赛西威汽车电子股份有限公司 一种高保真的鱼眼镜头畸变校正方法
US11232315B2 (en) 2020-04-28 2022-01-25 NextVPU (Shanghai) Co., Ltd. Image depth determining method and living body identification method, circuit, device, and medium
CN111563924B (zh) * 2020-04-28 2023-11-10 上海肇观电子科技有限公司 图像深度确定方法及活体识别方法、电路、设备和介质

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2941412B2 (ja) * 1990-11-26 1999-08-25 株式会社東芝 3次元計測方法
JP2714277B2 (ja) * 1991-07-25 1998-02-16 株式会社東芝 リード形状計測装置
JP2977383B2 (ja) * 1992-08-27 1999-11-15 三菱重工業株式会社 視覚装置
JP3486461B2 (ja) * 1994-06-24 2004-01-13 キヤノン株式会社 画像処理装置及び方法
US5768443A (en) 1995-12-19 1998-06-16 Cognex Corporation Method for coordinating multiple fields of view in multi-camera
JP3343583B2 (ja) * 2000-01-06 2002-11-11 独立行政法人産業技術総合研究所 焦点光源付ステレオカメラによる3次元面形状推定方法
US6539330B2 (en) * 2000-07-19 2003-03-25 Pentax Corporation Method and apparatus for measuring 3-D information
US6993179B1 (en) * 2000-08-07 2006-01-31 Koninklijke Philips Electronics N.V. Strapdown system for three-dimensional reconstruction
JP3895238B2 (ja) * 2002-08-28 2007-03-22 株式会社東芝 障害物検出装置及びその方法
JP4140399B2 (ja) * 2003-02-27 2008-08-27 トヨタ自動車株式会社 視線方向検出装置および視線方向検出方法
JP3977776B2 (ja) * 2003-03-13 2007-09-19 株式会社東芝 ステレオキャリブレーション装置とそれを用いたステレオ画像監視装置
JP3945430B2 (ja) 2003-03-19 2007-07-18 コニカミノルタホールディングス株式会社 画像による対象物の計測方法および撮像装置
JP2005037378A (ja) * 2003-06-30 2005-02-10 Sanyo Electric Co Ltd 奥行計測方法と奥行計測装置
US20050089213A1 (en) * 2003-10-23 2005-04-28 Geng Z. J. Method and apparatus for three-dimensional modeling via an image mosaic system
JP2005309782A (ja) * 2004-04-21 2005-11-04 Toyota Motor Corp 画像処理装置
EP1619623A1 (en) * 2004-07-22 2006-01-25 Icos Vision Systems N.V. Apparatus for three dimensional measuring on an electronic component
US7330584B2 (en) * 2004-10-14 2008-02-12 Sony Corporation Image processing apparatus and method
US8014588B2 (en) * 2005-11-04 2011-09-06 Cognitech, Inc. System and method for three-dimensional estimation based on image data
JP4835201B2 (ja) * 2006-02-27 2011-12-14 トヨタ自動車株式会社 立体形状検出装置
US8090194B2 (en) * 2006-11-21 2012-01-03 Mantis Vision Ltd. 3D geometric modeling and motion capture using both single and dual imaging
CN100592338C (zh) * 2008-02-03 2010-02-24 四川虹微技术有限公司 多视角视频图像深度搜索方法及深度估计方法
JP2009259025A (ja) 2008-04-17 2009-11-05 Panasonic Corp 自動販売機の制御装置
JP5002042B2 (ja) 2010-08-06 2012-08-15 株式会社クボタ コンバイン

Also Published As

Publication number Publication date
JP2011123051A (ja) 2011-06-23
EP2499616A1 (en) 2012-09-19
US20120224033A1 (en) 2012-09-06
EP2499616B1 (en) 2017-01-11
WO2011058742A1 (en) 2011-05-19
CN102667854A (zh) 2012-09-12
CN102667854B (zh) 2016-04-20
US9418435B2 (en) 2016-08-16

Similar Documents

Publication Publication Date Title
JP5713624B2 (ja) 三次元計測方法
JP6967715B2 (ja) カメラ校正方法、カメラ校正プログラム及びカメラ校正装置
JP6465789B2 (ja) デプスカメラの内部パラメータを算出するプログラム、装置及び方法
Moghadam et al. Line-based extrinsic calibration of range and image sensors
KR100927096B1 (ko) 기준 좌표상의 시각적 이미지를 이용한 객체 위치 측정방법
US20180066934A1 (en) Three-dimensional measurement apparatus, processing method, and non-transitory computer-readable storage medium
JP5029618B2 (ja) パターン投影法による3次元形状計測装置、方法およびプログラム
CN111243002A (zh) 应用于高精度三维测量的单目激光散斑投影系统标定及深度估计方法
JP3728900B2 (ja) キャリブレーション方法及び装置、並びにキャリブレーション用データ生成方法
CN113538589B (zh) 利用远心线扫描相机对对象进行高效3d重建的系统和方法
JP2008039767A (ja) 反射性物体の表面の形状を検知する方法及びシステム
CN109827521B (zh) 一种快速多线结构光视觉测量系统标定方法
Hirschmuller et al. Stereo matching in the presence of sub-pixel calibration errors
KR101926953B1 (ko) 4카메라 그룹 평면 어레이의 특징점의 매칭 방법 및 그에 기초한 측정 방법
JP6515650B2 (ja) 校正装置、距離計測装置及び校正方法
CN110140023B (zh) 标记器和使用了标记器的姿势推定方法及位置姿势推定方法
JP5875272B2 (ja) 3次元計測方法
KR101634283B1 (ko) 단일영상에서의 3차원 카메라교정을 통한 3차원 공간모델링 형성제어장치 및 방법
CN114952832B (zh) 基于单目六自由度物体姿态估计的机械臂拼装方法及装置
Mariottini et al. Catadioptric stereo with planar mirrors: multiple-view geometry and camera localization
KR102591844B1 (ko) 미러를 이용한 카메라 캘리브레이션 장치
Li et al. Accurate calibration of stereo cameras for machine vision
Ibrahim et al. Circular Calibration of Depth Extraction in Stereo Configuration
Bräuer-Burchardt et al. Calibration of stereo 3D scanners with minimal number of views using plane targets and vanishing points
Bai et al. A comparison of two different approaches to camera calibration in LSDM photogrammetric systems

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130909

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140522

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140527

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140728

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20141007

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150107

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20150116

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150210

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150310

R151 Written notification of patent or utility model registration

Ref document number: 5713624

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees