JP2014002033A - 画像処理装置、画像処理方法 - Google Patents

画像処理装置、画像処理方法 Download PDF

Info

Publication number
JP2014002033A
JP2014002033A JP2012137268A JP2012137268A JP2014002033A JP 2014002033 A JP2014002033 A JP 2014002033A JP 2012137268 A JP2012137268 A JP 2012137268A JP 2012137268 A JP2012137268 A JP 2012137268A JP 2014002033 A JP2014002033 A JP 2014002033A
Authority
JP
Japan
Prior art keywords
image
pattern light
orientation
area
virtual object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012137268A
Other languages
English (en)
Other versions
JP6092530B2 (ja
JP2014002033A5 (ja
Inventor
Yuichiro Hirota
祐一郎 廣田
Hisayoshi Furihata
久義 降籏
Yusuke Nakazato
祐介 中里
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012137268A priority Critical patent/JP6092530B2/ja
Priority to GB1310162.1A priority patent/GB2504822B/en
Priority to US13/914,890 priority patent/US10203197B2/en
Priority to DE102013211240.8A priority patent/DE102013211240B4/de
Priority to CN201310239490.6A priority patent/CN103512548B/zh
Publication of JP2014002033A publication Critical patent/JP2014002033A/ja
Publication of JP2014002033A5 publication Critical patent/JP2014002033A5/ja
Application granted granted Critical
Publication of JP6092530B2 publication Critical patent/JP6092530B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/14Measuring arrangements characterised by the use of optical techniques for measuring distance or clearance between spaced objects or spaced apertures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models

Abstract

【課題】 オブジェクト、特に画像奥行き方向に広がりを持って配置されたオブジェクト、の位置姿勢をより高精度に求めるための技術を提供すること。
【解決手段】 パターン光が投影された現実物体を含んだ画像を取得する。現実物体の形状を模した仮想物体を前記画像上に重畳し、該重畳された仮想物体の各箇所に対応する前記現実物体の箇所を、該画像において前記パターン光が写っている領域を拡大した拡大領域外から特定する。特定された箇所に基づいて、画像上に重畳された仮想物体と現実物体との位置ずれを算出する。位置ずれを極小化するように、仮想物体の位置姿勢を、現実物体の位置姿勢として求める。
【選択図】図1

Description

本発明は、3次元形状が既知であるオブジェクトの位置及び姿勢を計測する為の技術に関するものである。
近年、ロボット技術の発展とともに、これまで人間が行っていた複雑なタスクをロボットが代わりに行うようになりつつある。複雑なタスクの代表的な例として、工業製品の組立が挙げられる。ロボットが自律的に組立作業を行うためには、ハンドなどのエンドエフェクタによって部品を把持することが必要となる。ロボットハンドによって部品を把持するためには、把持の対象となる部品とロボットとの相対的な位置及び姿勢を計測し、計測結果に基づいて移動計画を策定して実際にアクチュエータを制御する必要がある。
また、ロボット以外の分野においても、環境やオブジェクトに対する位置及び姿勢を計測することが必要とされている。例えば、複合現実感技術(Mixed Reality、MR)においては、現実の画像にコンピュータによって生成された仮想のオブジェクトを合成するために、位置及び姿勢の計測が必要である。ロボットの位置姿勢計測は、これまでロボットに搭載されたカメラや距離センサを用いて行われており、2次元画像や距離画像を用いる方法が代表的である。またMRの分野では、ヘッドマウントディスプレイ(HMD)の位置姿勢計測をHMDに搭載されたカメラで撮影された画像を用いて行う技術の研究がなされている。
特許文献1では、高速に移動するオブジェクトの位置及び姿勢を高精度且つ高速に計測する方法が開示されている。この方法では、パターン光が投影されたオブジェクトを通常のカメラで撮影した1枚の観測画像をエッジ抽出に使用する領域と距離画像生成に使用する領域に分離し、それぞれエッジ抽出と距離画像生成を行う。こうして2次元のエッジに基づいた位置姿勢計測と距離画像に基づいた位置姿勢計測を相補的に利用することで位置姿勢計測の高精度化と高速化を実現している。
特願2009−150323号公報
しかしながら、特許文献1に開示されている方法では、3次元モデルを投影して得られるエッジモデルに基づいてパターン光投影領域の一部を取り除くため、画像のエッジは正確に検出できるが、パターン光から生成する距離画像の品質は荒くなる傾向が強い。このことは特に、対象オブジェクトが観測画像の奥行き方向の広い範囲に渡って置かれている時に顕著となり、位置姿勢計測の精度の低下を引き起こすことがある。
本発明はこのような上記の問題に鑑みてなされたものであり、オブジェクト、特に画像奥行き方向に広がりを持って配置されたオブジェクト、の位置姿勢をより高精度に求めるための技術を提供することを目的とする。
本発明の目的を達成するために、例えば、本発明の画像処理装置は、パターン光が投影された現実物体を含んだ画像を取得する手段と、前記現実物体の形状を模した仮想物体を前記画像上に重畳し、該重畳された仮想物体の各箇所に対応する前記現実物体の箇所を、該画像において前記パターン光が写っている領域を拡大した拡大領域外から特定する探索手段と、前記探索手段によって特定された箇所に基づいて、前記画像上に重畳された仮想物体と前記現実物体との位置ずれを算出する手段と、前記位置ずれを極小化するように、前記仮想物体の位置姿勢を、前記現実物体の位置姿勢として求める演算手段とを備えることを特徴とする。
本発明の構成により、オブジェクト、特に画像奥行き方向に広がりを持って配置されたオブジェクト、の位置姿勢をより高精度に求めることができる。
システムの構成例を示す図。 画像処理装置104の機能構成例を示すブロック図。 3次元幾何モデルについて説明する図。 画像処理装置104が行う処理のフローチャート。 ステップS403における処理の詳細を示すフローチャート。 撮像画像の一例を示す図。 2値画像の一例を示す図。 パターン光マスクの一例を示す図。 ステップS404における処理の詳細を示すフローチャート。 対応付け処理を説明する図。 線分の投影像と検出されたエッジの関係を説明する図。 ロボットシステムの構成例を示す図。
以下、添付図面を参照し、本発明の好適な実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載の構成の具体的な実施例の1つである。
[第1の実施形態]
先ず、本実施形態に係るシステムの構成について、図1を用いて説明する。オブジェクト101は、位置及び姿勢(位置姿勢)を計測する対象としての現実物体である。本実施形態では、説明を簡単にするために、位置姿勢計測対象としてのオブジェクト101は図1に示す如く1つのみがある位置に載置されているものとする。しかし、以下に説明する位置姿勢計測処理は、オブジェクトの形状や個数、載置形態、に大きく依存するものではない。例えば、複数の異形状のオブジェクトが混合されて山積みされているような状態において、あるオブジェクトの位置姿勢を計測する場合にも、本実施形態は適用可能である。
プロジェクタ102は、規定のパターン光を照射するものであり、本実施形態では、スリット光をオブジェクト101に対して照射するために使用する。プロジェクタ102について詳しくは後述する。
撮像装置103は、現実空間の静止画若しくは動画像を撮像するものであり、本実施形態では、プロジェクタ102によってスリット光が照射されたオブジェクト101を撮像するために使用する。そして撮像装置103は、撮像した画像(撮像画像、観察画像)を、画像処理装置104に対して送出する。撮像装置103について詳しくは後述する。
画像処理装置104は、プロジェクタ102及び撮像装置103の動作制御を行うと共に、撮像装置103から得られた撮像画像を用いて、オブジェクト101の位置姿勢を求める。
次に、画像処理装置104の機能構成例について、図2のブロック図を用いて説明する。
位置姿勢算出部201は、撮像装置103によって撮像された撮像画像に基づいてエッジ対応検出部205及び距離画像生成部206が行った処理結果を用いて、オブジェクト101の位置姿勢を計算する。そして位置姿勢算出部201は、計算したオブジェクト101の位置姿勢を、適当な出力先に対して出力する。
3次元モデル情報202は、3次元CADソフトで取り扱うことができるCADモデルそのもの、もしくは3次元CADモデルをComputer Graphics分野で使われる複数のポリゴン要素に変換したものである。本実施形態では、オブジェクト101の形状を模した3次元幾何モデルであって、ポリゴン要素で構成される3次元幾何モデルを用いる。ポリゴン要素で構成される3次元幾何モデルについて、図3を用いて説明する。
ポリゴン要素で構成される3次元幾何モデルは、図3に示すような点、線、面といった構成要素からなる。図3(a)〜(c)はいずれも同じ3次元幾何モデルを示している。
ポリゴン要素で構成される3次元幾何モデルのモデル情報では、図3(a)に例示している3次元幾何モデルの各頂点について、図3(d)に示す如く、該頂点のインデックスと、該頂点の3次元座標値と、を管理している。
また、このモデル情報では、図3(b)に例示している3次元幾何モデルの各辺について、図3(e)に示す如く、該辺のインデックスと、該辺の両端における頂点のインデックスと、を管理している。
また、このモデル情報では、図3(c)に例示している3次元幾何モデルの各面(ポリゴン)について、図3(f)に示す如く、該ポリゴンのインデックスと、該ポリゴンの各辺のインデックスと、該ポリゴンの法線ベクトルと、を管理している。
このような3次元モデル情報202は、画像処理装置104内の適当なメモリ、若しくは画像処理装置104がアクセス可能な外部メモリに格納されている。
初期概略位置姿勢情報203は、オブジェクト101の位置姿勢を求める為の繰り返し演算の初期値として与えられるものである。この初期概略位置姿勢情報203には予め適当な値が設定されており、画像処理装置104内の適当なメモリ、若しくは画像処理装置104がアクセス可能な外部メモリに格納されている。また、この初期概略位置姿勢情報203は、ユーザが不図示の操作部を用いて設定したものであってもよい。
以下の説明において特に断らない限りは、位置姿勢は、撮像装置103の位置姿勢(例えば、撮像装置103の焦点における位置姿勢)を基準とする座標系(カメラ座標系)におけるものであるとする。また、以下の説明で登場する「オブジェクトの座標系」とは、オブジェクトごとにローカルに設定されている座標系のことを指すものとする。
エッジ対応検出部205は、撮像装置103によって撮像された撮像画像上に投影された3次元幾何モデルと、該撮像画像中に写っているオブジェクト101と、で対応するエッジを検出する。
距離画像生成部206は、撮像装置103によって撮像された撮像画像から、撮像装置103からオブジェクト101上の各位置までの距離を画素ごとに表している距離画像を生成する。距離画像の生成に関し、本実施形態では、パターン光としてマルチスリット光を用いた三角測量によって距離を計算する。しかしながら、パターン光はこれに限るものではなく、複数回の撮影を必要としないものであれば他のものであってもよい。例えば、ランダムドットパターンでもよいし、局所的な平面パターンなどであってもよい。また、スポット光を投影してもよい。距離計測用の照明を投影しない領域については、環境光により十分な明るさが得られる場合には特別な光を投影しない。そうでない場合には、例えば均一な白色光が投影されるように照明パターンを変更する。またパターンの投影方法においても投影領域を反転してパターンを影で表現しても良い。
プロジェクタ102は、液晶プロジェクタであり、規定のパターン光としてのスリット光を投影する投影装置である。プロジェクタの内部パラメータ(焦点距離、主点位置、レンズ歪みパラメータ)は、例えば、下記の文献に開示される方法により事前に校正しておく。
Z. Zhang, “A flexible new technique for camera calibration,” IEEE Transactions on Pattern Analysis and Machine Intelligence, vol.22, no.11, pp.1330−1334, 2000
なお、スリット光の投影ができればプロジェクタ102以外の装置を用いても良く、例えば、DMD(デジタルミラーデバイス)やLCOSを用いたプロジェクタであってもよい。
撮像装置103の内部パラメータ(焦点距離、主点位置、レンズ歪みパラメータ)は、例えば、前述のZhangの方法により事前に校正しておく。さらに、撮像装置103とプロジェクタ102との間の相対的な位置及び姿勢についても、例えば前述のZhangの方法、または下記の文献に開示される方法により事前に校正しておくことにより、パターン光を用いた三角測量が可能になる。
井口征士, 佐藤宏介『3次元画像計測』(昭晃堂, 1990)
次に、画像処理装置104がオブジェクト101の位置姿勢を求めるために行う処理について、同処理のフローチャートを示す図4を用いて説明する。
ステップS401では、位置姿勢算出部201は、画像処理装置104内、若しくは画像処理装置104外のメモリから3次元モデル情報202を読み出す。なお、位置姿勢算出部201は、ユーザが不図示の操作部を操作することで入力した3次元モデル情報202を取得するようにしても良い。また、該メモリに複数個の3次元幾何モデルの3次元モデル情報202を格納しておき、撮像装置103により撮像された撮像画像中に写っているオブジェクトを認識し、該認識したオブジェクトに対応する3次元モデル情報202を読み出しても良い。
次に、ステップS402では、位置姿勢算出部201は、画像処理装置104内、若しくは画像処理装置104外のメモリから初期概略位置姿勢情報203を読み出す。なお、位置姿勢算出部201は、ユーザが不図示の操作部を操作することで入力した初期概略位置姿勢情報203を取得するようにしても良い。また、初期概略位置姿勢情報203は、オブジェクト上に配置されたマーカをシーンに固定されたカメラによって撮影することにより位置及び姿勢を計測する光学式センサで決定して取得してもよい。その他、6自由度の位置及び姿勢を計測するセンサであればいかなるセンサであってもよい。また、オブジェクトの置かれているおおよその位置や姿勢が予めわかっている場合には、その値を初期概略位置姿勢情報203として用いることも考えられる。
次に、ステップS403では、エッジ対応検出部205及び距離画像生成部206は、撮像装置103により撮像された撮像画像に基づいてそれぞれ、後述するパターン光マスク、距離画像、を生成する。ステップS403における処理の詳細については、図5のフローチャートを用いて後述する。
次にステップS404では、位置姿勢算出部201やエッジ対応検出部205や不図示の制御部は、ステップS401〜S403で得た各情報に基づいて、オブジェクト101の3次元幾何モデルの位置姿勢を確定させる。これにより、該位置姿勢をオブジェクト101の位置姿勢として求める。
次に、上記のステップS403における処理の詳細について、同処理のフローチャートを示す図5を用いて説明する。
ステップS501では、不図示の制御部は、プロジェクタ102を制御し、規定のパターン光としてのスリット光を、オブジェクト101に対して照射させる。
ステップS502では、不図示の制御部は、撮像装置103を制御し、規定のパターン光が照射されているオブジェクト101を撮像させる。撮像装置103による撮像画像の一例を図6に示す。以下では、説明をわかりやすくするために、撮像装置103によって撮像された撮像画像は、図6に例示した撮像画像であるものとして説明する。
ステップS503では、不図示の制御部は、プロジェクタ102を制御し、規定のパターン光としてのスリット光の照射を終了させる。
ステップS504でエッジ対応検出部205は、撮像画像においてパターン光が写っている領域をパターン光投影領域として検出し、撮像画像と縦横同サイズを有し、パターン光投影領域、非パターン光投影領域を異なる画素値で表す2値画像を生成する。該2値画像は次のようにして生成する。
即ち、撮像画像中の各画素位置における輝度値を参照し、参照した画素位置(x、y)における輝度値が閾値以上であれば、該画素位置はパターン光投影領域に属する画素位置と判断し、2値画像中の画素位置(x、y)における画素値を「1」とする。一方、撮像画像中の画素位置(x、y)における輝度値が閾値未満であれば、該画素位置はパターン光投影領域に属さない画素位置と判断し、2値画像中の画素位置(x、y)における画素値を「0」とする。なお、「1」や「0」が意味するものは逆であっても良いし、この値に限るものではない。即ち、2値画像において各画素位置における画素がパターン光投影領域に属する画素位置であるのか否かが画素値によって判別できればよい。
また、撮像画像中の各画素位置における画素がパターン光投影領域に属するか否かの判断は、上記のように輝度値と閾値との比較によって行う以外にも、様々な方法でもって実施することができる。例えば、スリット光の色の成分情報と撮像画像中の各画素の色の成分情報に基づいて判別する方法や、色情報の変化の仕方に基づいて判別する方法によっても、実施は可能である。
図6の撮像画像から生成した2値画像の一例を図7に示す。図6の撮像画像においてパターン光投影領域が写っている領域が図7において黒線で示されており、この黒線は画素値が「1」の画素で構成されている(黒線部分以外は画素値が「0」の画素で構成されている)。
次に、ステップS505では、距離画像生成部206は、ステップS504で生成された2値画像を用いて、距離画像を生成する。距離画像の各画素の画素値としての距離は、下記の文献に記されている方法に従って求めることができる。
R. Hartley and A. Zisserman “Multiple view geometry in computer vision Second Edition”(Cambridge University Press, 2003)
本実施形態では、プロジェクタ102が投影するパターン光中の画素位置、それに対応する撮像画像上の位置、プロジェクタ102と撮像装置103の内部パラメータ、プロジェクタ102と撮像装置103との相対的な位置及び姿勢、に基づいて求める。そして、撮像画像の各画素位置に対応する視線ベクトルに、距離画像において該画素位置の距離を乗じることで、撮像画像の各画素位置を通る視線ベクトルが指し示す先の位置(カメラ座標系における3次元位置)を点群データとして求める。
ステップS506では、エッジ対応検出部205は、上記の2値画像において画素値が「1」の領域を拡大させることで該2値画像を変更した画像を、パターン光マスク(2値画像と縦横同サイズ)として生成する。
先ず、2値画像のコピーとしてパターン光マスクを生成する。次に、パターン光マスク中の各画素位置を参照し、参照した画素位置(x、y)における画素の画素値が「1」であれば、該画素の近傍画素(例えば、該画素に隣接する画素)の画素値を「1」に更新する。
図7の2値画像から生成したパターン光マスクの一例を図8に示す。図7の2値画像においてパターン光投影領域(画素値「1」の画素で構成されている)が、図8においてより太い黒線に拡大されており、拡大された黒線は画素値「1」の画素で構成されている(拡大された黒線部分以外は画素値「0」の画素で構成されている)。
このパターン光マスクは、後の位置姿勢算出処理において、撮像画像上の3次元幾何モデルとオブジェクト101とのエッジのずれ(誤差)を算出する際に用いるものである。パターン光投影領域を太くしたのは、3次元幾何モデルのエッジがパターン光投影によってできるエッジと誤対応してしまうリスクを小さくするためである。この対応付けの詳細については後述する。
次に、ステップS404における処理の詳細について、同処理のフローチャートを示す図9を用いて説明する。本実施形態では、オブジェクト101の位置姿勢を確定させる為の繰り返し演算に、Gauss−Newton法を用いる。これにより、オブジェクト101の位置及び姿勢(以下、sで表す)の概略値を反復演算により繰り返し補正することによって位置及び姿勢を算出する。
本実施形態における位置及び姿勢の算出では、次のようにして推定位置姿勢を最適化する。即ち、撮像画像上のオブジェクト101のエッジと推定位置姿勢に基づいて該画像上に投影される3次元幾何モデルの線分との距離、上記点群データが示す各位置と推定位置姿勢の3次元幾何モデルとの距離の総和が極小化するように推定位置姿勢を最適化する。より具体的には、2次元画像上での点と直線の符号付距離、3次元空間中での点と平面との符号付距離を、1次のテイラー展開によってそれぞれオブジェクト101の位置及び姿勢の微小変化の1次関数として表現する。そして、符号付距離が0になるような位置及び姿勢の微小変化に関する線形の連立方程式を立式して解くことにより、オブジェクト101の位置及び姿勢の微小変化を求めて位置及び姿勢を補正することを繰り返す。
ステップS901では、位置姿勢算出部201は、上記の初期概略位置姿勢情報203を以下の繰り返し演算の初期値(初期位置姿勢s)に設定する。
ステップS902では、エッジ対応検出部205は、現在のsが示す位置姿勢を有する3次元幾何モデル(実際には辺のみ)を撮像画像上に投影する。更に位置姿勢算出部201は、3次元幾何モデルを構成する各面について、該面の各頂点の座標値をカメラ座標系における座標値に変換する。
そしてエッジ対応検出部205は、撮像画像中のオブジェクト101と、該撮像画像上に投影された3次元幾何モデルとで、エッジの対応付けを行う。この対応付け処理について、図10を用いて説明する。図10(a)では、パターン光マスクにおいて画素値が「1」の領域に対応する撮像画像中の領域をパターン光マスク1004として表している。
現在のsが示す位置姿勢を有する3次元幾何モデルの線分を撮像画像上に投影した線分が線分1001として示されている。線分の投影像は画像上でも線分となる。次に、画像上で等間隔になるように、投影された線分1001上に制御点1002を設定し、制御点1002ごとに、投影された線分1001の法線方向に探索ライン1003を設定する。そして制御点1002ごとに、該制御点について設定した探索ライン1003において該制御点から規定距離以内のライン上で且つパターン光マスク1004を含まないライン上で、1次元のエッジの検出を行う。そして、検出されたエッジの中で制御点1002に最も近い点を対応点1005として保持する。実際にはパターン光マスク1004内にはパターン光によるエッジがあるが、このように対応点を探索することでパターン光によるエッジに誤対応することを回避する。
図10(b)に、原点が制御点で、横軸に探索ライン、縦軸に輝度勾配の絶対値をとるグラフを示す。先の画像上において、エッジは画素値の輝度勾配の絶対値の極値として検出される。ここでは輝度勾配の絶対値の極値が所定の値よりも大きく、且つ最も制御点に近い点を対応点1006(図10(a)における対応点1005)とする。
なお、パターン光に起因しないエッジの検出をする際に、本実施形態ではパターン光マスク1004以外の領域においてエッジの検出を行った。しかし、この時の処理順序は先にエッジの検出を行った後に、検出されたエッジがマスク領域の中にあるか否かを判別し、中にある場合はそのエッジを採用、外にある場合は次のエッジを検出するといった順序で検出をしても同様の効果を得ることができる。
ステップS903では、位置姿勢算出部201は、位置姿勢を算出するため(線形連立方程式を解くため)の係数行列と誤差ベクトルの算出を行う。3次元幾何モデルの辺である線分と撮影画像のエッジとの対応付けを行い、オブジェクト101の位置姿勢を求めるには、位置姿勢を算出するための係数行列と誤差ベクトルの算出を行う必要がある。
ここで係数行列の各要素は、位置及び姿勢の概略値の微小変化に対する一次の偏微分係数である。エッジについては、画像座標の偏微分係数を算出し、点群については3次元座標の偏微分係数を算出する。誤差ベクトルは、エッジについては投影された線分と検出されたエッジの画像上での距離、点群データについてはモデルの面と点の3次元空間中での距離である。
図11は、線分の投影像と検出されたエッジの関係を説明する図である。図11では、画像の水平方向、垂直方向をそれぞれu軸、v軸としている。ある制御点(投影された各線分を画像上で等間隔に分割した点)の画像上での座標を(u0,v0)、該制御点が所属する線分の画像上での傾きをu軸に対する傾きθと表す。傾きθは、線分の両端の三次元座標をsに基づいて画像上に投影し、画像上での両端の座標を結んだ直線の傾きとして算出する。該線分の画像上での法線ベクトルは(sinθ,−cosθ)となる。また、該制御点の対応点の画像上での座標を(u’,v’)とする。ここで、対応点の座標(u’,v’)を通り、傾きがθである直線(図11の破線)上の点(u,v)は、以下の式で表すことが出来る。
制御点の画像上での位置はオブジェクト101の位置姿勢により変化する。また、オブジェクト101の位置姿勢の自由度は6自由度である。すなわち、sは6次元ベクトルであり、オブジェクト101の位置を表す3つの要素と、姿勢を表す3つの要素からなる。姿勢を表す3つの要素は、例えばオイラー角による表現や、方向が原点を通る回転軸を表してノルムが回転角を表す三次元ベクトルなどによって表現される。位置姿勢により変化する点の画像上での座標(u,v)は、座標(u0,v0)の近傍で1次のテイラー展開によって以下の式(2)のように近似できる。但し△si(i=1,2,・・・,6)はsの各成分の微小変化を表す。
正しいsによって得られる制御点の画像上での位置は式(1)が表す直線上にあると仮定できる。式(2)によって近似されるu、vを式(1)に代入することにより、以下の式(3)が得られる。
カメラ座標系における3次元座標は、オブジェクト101の位置姿勢sによってオブジェクト101の座標系における3次元座標(x,y,z)に変換することができる。概略の位置及び姿勢により、ある点がオブジェクト101の座標系の点(x0,y0,z0)に変換されるとする。(x,y,z)はオブジェクト101の位置及び姿勢により変化するものであり、(x0,y0,z0)の近傍で1次のテイラー展開によって以下の式(4)のように近似できる。
ステップS902において、点群データ中のあるデータが示す位置に対応付けられた3次元幾何モデルの面の、オブジェクト101の座標系における方程式をax+by+cz=e(a2+b2+c2=1、a,b,c,eは定数)とする。正しいsによって変換される(x,y,z)は、二次元平面の方程式ax+by+cz=e(a2+b2+c2=1)を満たすと仮定する。上記の式(4)を平面の方程式に代入すると以下の式(5)が得られる。
本実施形態では上記のように、三次元空間における誤差値を3次元幾何モデルの面と対応する計測点間の距離で表した(式5)。しかしながら誤差値の定義方法はこれに限らず、3次元幾何モデルと点群データとの距離(ずれ量)を定義できればなんでもよい。例えば、点群データが線情報や面情報を含むデータである場合は、エッジ間距離や面間距離を用いて誤差値を定義しても同様に位置姿勢を求めることができる。
式(3)は、対応付けが行われたすべてのエッジについて立式することができる。また、式(5)も、対応付けが行われたすべての点群データについて成り立つため、式(6)のようなΔsiに関する線形連立方程式が成り立つ。
ここで式(6)を式(7)のように表す。
式(6)の線形連立方程式の係数行列Jを算出するための偏微分係数の算出は、例えば以下の文献に開示されている方法に従って行う。
V. Lepetit and P. Fua, “Keypoint recognition using randomized trees,” IEEE Transactions on Pattern Analysis and Machine Intelligence, vol.28, no.9, 2006.
ステップS904では、位置姿勢算出部201は、線形連立方程式の係数行列Jを算出するため偏微分係数の算出を行う。式(7)をもとに、行列Jの一般化逆行列(J・J)−1・Jを用いて位置姿勢の補正値△sを求める。しかしながら、エッジや点群データには誤検出などによる外れ値が多いため、次に述べるようなロバスト推定手法を用いる。一般に、外れ値であるエッジ(点群データ)では、誤差d−r(e−q)が大きくなる。そのため、式(6)、式(7)の連立方程式に対する寄与度が大きくなり、その結果得られるΔsの精度が低下してしまう。
そこで、誤差d−r(e−q)が大きいデータには小さな重みを与え、誤差d−r(e−q)が小さいデータには大きな重みを与える。重みは例えば以下の式(8)に示すようなTukeyの関数により与える。
c1,c2は定数である。なお、重みを与える関数はTukeyの関数である必要はなく、例えばHuberの関数など、誤差が大きい情報には小さな重みを与え、誤差が小さい情報には大きな重みを与える関数であれば、如何なる関数であってもよい。各計測情報(エッジまたは点群データ)に対応する重みをwiとする。ここで式(9)のように重み行列Wを定義する。
重み行列Wは、対角成分以外はすべて0の正方行列であり、対角成分には重みwiが入る。この重み行列Wを用いて、式(7)を式(10)のように変形する。
式(10)を式(11)のように解くことにより補正値△sを求める。
ステップS905では、位置姿勢算出部201は、ステップS904で算出された位置姿勢の補正値△sを用いて以下の式を計算することで、位置姿勢の概略値sを補正(更新)する。
s←s+Δs
ステップS906では、位置姿勢算出部201は、sの収束判定を行い、収束していれば終了し、そうでなければ処理をステップS902に戻して繰り返し演算を行う。収束判定では、補正値△sがほぼ0である場合や、誤差ベクトルの二乗和が補正前と補正後でほとんど変わらない場合に収束したと判定する。このように、収束するまで繰り返すことで、位置姿勢を算出できる。
このように、本実施形態によれば、オブジェクトの表面性状や幾何形状に対して安定性が高く、特に画像奥行方向に広がりを持って配置されたオブジェクトに対して高精度に位置姿勢計測を行うことができる。
なお、本実施形態では、モデルフィッティングの一例としてGauss−Newton法で求める方法を説明したが、モデルフィッティングの方法はこれに限らない。例えば、より計算がロバストであるLevenberg−Marquardt法によって行ってもよいし、よりシンプルな方法である最急降下法によって行ってもよい。また、共役勾配法やICCG法など、他の非線形最適化計算手法を用いてもよい。
さらに、本実施形態では、ステップS403で得られた距離画像とパターン光マスクを用いて、ステップS404でオブジェクト101の位置姿勢を、反復を伴うモデルフィッティングによって求めた。しかし、ステップS404でモデルフィッティングを用いる代わりにパターンマッチングを用いて位置姿勢を直接求める方法も考えられる。
例えば、オブジェクトのCADデータをCADモデルの中心から頂点が等しい距離になるGeodesic Sphereを設定する。そして、Geodesic Sphereの頂点からCADモデルの中心を向いてみたときのエッジ画像を事前に用意しておき、これらの視点別エッジモデルをパターン光マスク処理済みの撮像画像に対してパターンマッチングを行う。これにより、パターン光ノイズの影響を抑えてオブジェクトのおおよその位置姿勢を求めることができる。さらに、ステップS403で得られた距離画像とパターン光マスクの使用用途はモデルフィッティング及びパターンマッチングへの利用に限定するものではない。例えば、パターン光マスクを利用してパターン光ノイズの影響を除去した照合処理全般に広く適用可能である。
なお、本実施形態では、画像処理装置104は、撮像画像を撮像装置103から直接取得しているが、これに限るものではなく、例えば、撮像装置103によって撮像された撮像画像を蓄積しているメモリから取得するようにしても良い。この場合、撮像装置103は必ずしも、画像処理装置104に接続されている必要はない。
即ち、第1の実施形態や以下の実施形態に係る画像処理装置104は、下記の構成の一例に過ぎず、以下の構成と同等の機能を有する構成であれば、様々な構成の変形例が適用可能である。
即ち、パターン光が投影された現実物体を含んだ画像を取得する。そして、現実物体の形状を模した仮想物体を画像上に重畳し、該重畳された仮想物体の各箇所に対応する現実物体の箇所を、該画像においてパターン光が写っている領域を拡大した拡大領域外から特定する。そして、特定された箇所に基づいて、画像上に重畳された仮想物体と現実物体との位置ずれを算出する。そして、位置ずれを極小化するように、仮想物体の位置姿勢を、現実物体の位置姿勢として求める。
また、上記の探索では、撮像画像においてパターン光が写っている領域をパターン光領域、撮像画像においてパターン光が写っていない領域を非パターン光領域とする。パターン光領域に対応するマスク画像内の領域と、非パターン光領域に対応する該マスク画像内の領域と、で異なる画素値を有するマスク画像を生成し、パターン光領域に対応するマスク画像内の領域を拡大した領域に対応する撮像画像中の領域を拡大領域とする。そして、該拡大領域外で上記探索した結果を「対応する現実物体の箇所」とする。若しくは探索結果から該拡大領域内にあるものを除外した結果を「対応する現実物体の箇所」とする。
また、上記の演算では、マスク画像から、撮像装置から現実物体上の各位置までの距離を画素値とする距離画像を生成する。そして、距離画像によって表される現実物体上の各位置と仮想物体において該位置に対応する位置との位置ずれ、上記距離、を極小化するように上記繰り返し演算を行う。
[第2の実施形態]
第1の実施形態では、撮像画像からパターン光投影領域を検出し、ステップS506でこの領域に基づいてパターン光マスクを作成する方法を説明した。この方法はパターン光の形状が未知であるときなどでも広く適用可能である。この他の実施方法として、パターン光の形状が既知であるならば、このパターン光形状とオブジェクトの概略位置姿勢及びオブジェクトの幾何形状よりパターン光の撮像画像内での投影領域を算出してパターン光マスクを作成することもできる。
プロジェクタがパターン光を投影している状態の光源情報と、概略位置姿勢で配置されているオブジェクトのモデル情報と、に基づいて、スリット光がカメラで撮影する撮像画像内のどのピクセルに映るかを算出する。具体的には、スリット光源から照射される各光線がオブジェクト表面での衝突を経てカメラの撮像センサのどの位置に到達するのかを追跡計算するレイトレーシング法の原理で求める。これにより、ステップS504で生成したパターン光投影領域を示すビットマップ(図7)と同等の情報を得ることができる。その後の処理は第1の実施形態で説明した方法と同様にオブジェクトの位置姿勢を計測することが可能である。
[第3の実施形態]
第1、2の実施形態で説明した方法は、すなわち、エッジ検出時にパターン光を避けて検出する方法である。上記の誤差算出方法(以降、距離優先誤差算出方法と呼ぶ)はパターン光検出優先であり、奥行き方向の誤差の検出精度が高い。これに対し、特許文献1で開示されている方法(以降、エッジ優先誤差算出方法と呼ぶ)はエッジ検出優先であり、撮像画像平面方向の誤差の検出精度が高いという特徴がある。
これらの特性を踏まえて、誤差算出に当たってオブジェクトの形状に基づいて距離優先誤差算出方法を採用するのか、それともエッジ優先誤差算出方法を採用するのかを判別する機構を備えることで、より精度の高い計測が可能となる。以下にその判別基準について具体的な例を挙げる。
第一の方法は、オブジェクトの形状に基づくものである。まずオブジェクトの3次元幾何モデルの体積内に均等にサンプル点を振る。それらのサンプル点の集合について主成分分析を行い、第1主成分、第2主成分、第3主成分の寄与率(三つの主成分の和におけるそれぞれの主成分の割合)を求める。さらにその寄与率の関係と特徴を以下のように分類する。
1) 第1主成分寄与率 >> 第2主成分寄与率
→ オブジェクトの体積は直線状に分布
2) 第1主成分寄与率 ≒ 第2主成分寄与率 且つ 第2主成分寄与率 >> 第3主成分寄与率
→ オブジェクトの体積は平面状に分布
3) 第1主成分寄与率 ≒ 第2主成分寄与率 ≒ 第3主成分寄与率
→ オブジェクトの体積は3次元空間に均等に分布
ただし、a>>bはaがbよりもはるかに大きい(bに対するaの比率が閾値よりも大きい)ことを示す。
主成分寄与率の関係が上記の1)または2)のときにオブジェクトを盤面の平らな計測台の上に置いた場合、オブジェクトは盤面に沿うように置かれ観測画像奥行き方向の分布は小さくなる傾向がある。一方、主成分寄与率の関係が上記の3)のとき、オブジェクトの観測画像奥行き方向の分布は大きくなる傾向がある。
以上を踏まえて、主成分寄与率が3)を満たし計測対象オブジェクトの体積分布が観測画像奥行き方向に広く分布している場合は距離優先誤差算出方法を採用し、そうでない場合はエッジ優先誤差算出方法を採用するよう切り替える。なお、誤差算出方法の切り替え基準はあくまで一例であり、オブジェクトの画像奥行き方向の広がりに着目した基準があれば代替して利用することが可能である。即ち、下記の2つの処理のうち、仮想物体の形状に応じて決まる一方の処理を実行する。
(処理1) 現実物体の形状を模した仮想物体を画像上に重畳し、該重畳された仮想物体の各箇所に対応する現実物体の箇所を、該画像においてパターン光が写っている領域を拡大した拡大領域外で探索する処理
(処理2) 仮想物体のエッジモデルを画像上に重畳し、該画像においてパターン光が写っている領域を、該画像に重畳された該エッジモデルに基づいて取り除いた後で、画像上に重畳された仮想物体の各箇所に対応する現実物体の箇所を、該画像においてパターン光が写っている領域外で探索する処理
第二の方法は、概略位置姿勢におけるオブジェクトの位置姿勢の奥行き方向のあいまい性に基いて算出する方法が考えられる。下記の文献によると、観測画像のピクセルのあいまい性がどのピクセルでも1であると仮定するとある概略位置姿勢における方向に対するあいまい性の共分散行列はJJであらわされる。
W. Hoff and T. Vincent “IEEE Trans. Visualization and Computer Graphics, Vol 6., No. 4, 2000.”
この共分散行列を固有値分解して求めた主方向単位ベクトルがuであるとすると、概略位置姿勢におけるオブジェクトの位置姿勢の奥行き方向のあいまい性はuと奥行き方向単位ベクトルの内積で表すことができる。この値は0から1の範囲をとりうる値で1に近いほど奥行き方向にあいまいであることを表す。この値の算出方法は第1の実施形態で既に説明したとおりである。上記で求めたあいまい性が所定の基準値以上のときは距離優先誤差算出方法を採用し、そうでない場合はエッジ優先誤差算出方法を採用するよう切り替える。
以上に例示したような切り替え基準を用いて、それぞれの特性を考慮した誤差算出方法を採用することで、より高精度な位置姿勢計測が可能になる。
[第4の実施形態]
第1〜3の実施形態の画像処理装置は、産業用ロボットアームでオブジェクトの把持、移動、解放といった動作を行うシステム(ロボットシステム)において、オブジェクトの位置姿勢計測を行う装置に利用することができる。この適用例について、図12を用いて説明する。
撮像装置103とプロジェクタ102とが一体化されたもの(別個でも良い)が、センサ1202であり、位置姿勢の計測対象であるオブジェクト1205に対してパターン光を投影すると共に、該パターン光が投影されたオブジェクト1205を撮像する。このセンサ1202は、ロボットアーム1203に取り付けられており、ロボットアーム1203が把持しようとするオブジェクト1205を撮像することができる。
ロボットアーム1203は、回転軸及び/または並進移動軸からなる可動軸を有し、ロボットコントローラ1204により制御される。
コンピュータ1201は、画像処理装置104として機能すると共に、ロボットコントローラ1204を制御する。ロボットコントローラ1204は、コンピュータ1201から受け取ったロボットアーム1203用の制御命令(オブジェクト1205の位置姿勢を含む)を具体的な制御命令に変換してロボットアーム1203を動かす。
本実施形態における画像処理装置104は上記に加えてさらに次の処理手順を包含する。まず、コンピュータ1201は、カメラ座標系とロボットアーム1203を基準とするロボット座標系との相対関係を保持する。コンピュータ1201はオブジェクト1205の位置姿勢を計測し、その結果をカメラ座標系からロボット座標系に変換する。次にコンピュータ1201は、変換されたオブジェクトのロボット座標系における位置姿勢を元に、ロボットコントローラ1204を介してロボットアーム1203がオブジェクト1205を把持できる位置・姿勢に移動させる。
これにより、本実施形態におけるロボットシステムは、オブジェクトの位置が不定でも、その位置姿勢の計測を行うことで、ロボットアームにオブジェクトを把持させることが可能となる。
なお、画像処理装置104の適用対象は、位置姿勢の計測対象となるオブジェクトの位置姿勢を計測する必要のあるシステムであれば、如何なるシステムであっても良い。換言すれば、画像処理装置104が求めた位置姿勢の利用目的は、特定の利用目的に限るものではない。
[第5の実施形態]
図1に示した画像処理装置104を構成する各部(位置姿勢算出部201、エッジ対応検出部205、距離画像生成部206)は、ハードウェアで構成しても良いが、ソフトウェア(コンピュータプログラム)で構成しても良い。後者の場合、コンピュータがアクセス可能なメモリに、3次元モデル情報202、初期概略位置姿勢情報203はデータとして、位置姿勢算出部201、エッジ対応検出部205、距離画像生成部206はコンピュータプログラムとして格納しておく。そしてこのコンピュータのCPUがこれらのコンピュータプログラムやデータを読み出して処理を実行することで、このコンピュータは、画像処理装置104として機能することができる。
<各実施形態の効果について>
第1の実施形態によれば、オブジェクトの表面性状や幾何形状に対して安定性が高く、特に画像奥行き方向に広がりを持って配置されたオブジェクトに対して高精度に位置姿勢計測を行うことができる。
第2の実施形態によれば、撮像画像内のパターン光を画像処理によって検出できない場合であっても、正しい対応付けを行うことができる。
第3の実施形態によれば、誤差算出方法をオブジェクトの形状またはオブジェクトの配置状態に基づいて選択することで計測精度を向上させることができる。
第4の実施形態によれば、置いてある場所が不定であるオブジェクトの把持を可能にする。
<定義>
上記の説明におけるパターン光は、撮像画像内での投影領域境界が特定できるものであればよく、そのため、パターン光を投影する装置には様々な投影装置を適用することができる。すなわち、システムに内包する装置で能動的に投影するものでもよいし、システムの制御の及ばない外部から受動的にもたらされるものであってもよい。また、パターン光の投影形状についてもその投影領域境界が特定できるものであればどのような形状であってもよい。スリット状でもよいしランダムドットパターンでもよいし、局所的な平面パターンなどであってもよい。また、スポット光を投影してもよい。
また、撮像画像内でのパターン光の投影領域の特定方法はどのような方法であってもよい。すなわち、第1の実施形態のように輝度値を閾値や、その他の色情報を閾値として用いて特定してもよい。また、第2の実施形態のようにパターン光の投影形状が既知であるのならばその形状とオブジェクトの概略位置姿勢及びオブジェクトの幾何形状より計算して特定してもよい。
また、上記の説明における位置及び姿勢の算出方法はパターン光が写りこんだ画像を用いて実施する方法であればなんでもよい。撮像画像内に写り込んだオブジェクトの3次元位置姿勢パラメータをあらかじめ保持するオブジェクト3次元モデルに基づいて決定するモデルフィッティングでもよい。また、撮像画像内に写り込んだ所定のテンプレートの位置をあらかじめ保持するテンプレート画像に基づいて決定するテンプレートマッチングでもよい。
(その他の実施例)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。

Claims (11)

  1. パターン光が投影された現実物体を含んだ画像を取得する手段と、
    前記現実物体の形状を模した仮想物体を前記画像上に重畳し、該重畳された仮想物体の各箇所に対応する前記現実物体の箇所を、該画像において前記パターン光が写っている領域を拡大した拡大領域外から特定する探索手段と、
    前記探索手段によって特定された箇所に基づいて、前記画像上に重畳された仮想物体と前記現実物体との位置ずれを算出する手段と、
    前記位置ずれを極小化するように、前記仮想物体の位置姿勢を、前記現実物体の位置姿勢として求める演算手段と
    を備えることを特徴とする画像処理装置。
  2. 前記探索手段は、
    前記現実物体の形状を模した仮想物体を前記画像上に重畳し、該重畳された仮想物体の各箇所に対応する前記現実物体の箇所を、該画像において前記パターン光が写っている領域を拡大した拡大領域外で探索することを特徴とする請求項1に記載の画像処理装置。
  3. 前記探索手段は、
    前記現実物体の形状を模した仮想物体を前記画像上に重畳し、該重畳された仮想物体の各箇所に対応する前記現実物体の箇所を該画像から探索し、該探索した箇所のうち、該画像において前記パターン光が写っている領域を拡大した拡大領域外の箇所を探索結果とすることを特徴とする請求項1に記載の画像処理装置。
  4. 前記探索手段は、
    前記画像において前記パターン光が写っている領域をパターン光領域、前記画像において前記パターン光が写っていない領域を非パターン光領域とし、
    前記パターン光領域に対応するマスク画像内の領域と、前記非パターン光領域に対応する該マスク画像内の領域と、で異なる画素値を有する前記マスク画像を生成し、
    前記パターン光領域に対応する前記マスク画像内の領域を拡大した領域に対応する前記画像中の領域を前記拡大領域とし、該拡大領域外で前記探索を行う
    ことを特徴とする請求項2に記載の画像処理装置。
  5. 前記探索手段は、
    前記画像において輝度値が閾値以上となる画素からなる領域を前記パターン光領域とすることを特徴とする請求項4に記載の画像処理装置。
  6. 前記探索手段は、
    前記パターン光領域を、前記現実物体の位置姿勢として与えられている位置姿勢と、前記現実物体の形状と、前記パターン光の形状と、から求めることを特徴とする請求項4に記載の画像処理装置。
  7. 前記演算手段は、
    前記パターン光領域から、前記画像を撮像する撮像装置から前記現実物体上の各位置までの距離を画素値とする距離画像を生成する手段と、
    前記距離画像によって表される前記現実物体上の各位置と、前記仮想物体において該位置に対応する位置と、から求まる三次元空間における距離と、前記画像上に重畳された仮想物体の各箇所と該箇所について探索された前記現実物体の箇所との二次元平面における距離と、を極小化するように、前記仮想物体の位置姿勢を、前記現実物体の位置姿勢として求める手段と
    を備えることを特徴とする請求項4乃至6の何れか1項に記載の画像処理装置。
  8. 前記探索手段は、
    前記現実物体の形状を模した仮想物体を前記画像上に重畳し、該重畳された仮想物体の各箇所に対応する前記現実物体の箇所を、該画像において前記パターン光が写っている領域を拡大した拡大領域外で探索する処理、
    前記仮想物体のエッジモデルを前記画像上に重畳し、該画像において前記パターン光が写っている領域を、該画像に重畳された該エッジモデルに基づいて取り除いた後で、前記画像上に重畳された仮想物体の各箇所に対応する前記現実物体の箇所を、該画像において前記パターン光が写っている領域外で探索する処理、
    のうち、前記仮想物体の形状、または前記仮想物体の形状と前記仮想物体の初期位置姿勢に応じて決まる一方の処理を実行する
    ことを特徴とする請求項4乃至7の何れか1項に記載の画像処理装置。
  9. 更に、
    前記演算手段が求めた位置姿勢を、前記現実物体を操作するロボットアームを制御するコントローラに対して出力する手段を備えることを特徴とする請求項1乃至8の何れか1項に記載の画像処理装置。
  10. 画像処理装置が行う画像処理方法であって、
    前記画像処理装置の取得手段が、パターン光が投影された現実物体を含んだ画像を取得する工程と、
    前記画像処理装置の探索手段が、前記現実物体の形状を模した仮想物体を前記画像上に重畳し、該重畳された仮想物体の各箇所に対応する前記現実物体の箇所を、該画像において前記パターン光が写っている領域を拡大した拡大領域外から特定する探索工程と、
    前記画像処理装置の算出手段が、前記探索工程で特定された箇所に基づいて、前記画像上に重畳された仮想物体と前記現実物体との位置ずれを算出する工程と、
    前記画像処理装置の演算手段が、前記位置ずれを極小化するように、前記仮想物体の位置姿勢を、前記現実物体の位置姿勢として求める演算工程と
    を備えることを特徴とする画像処理方法。
  11. コンピュータを、請求項1乃至9の何れか1項に記載の画像処理装置の各手段として機能させるためのコンピュータプログラム。
JP2012137268A 2012-06-18 2012-06-18 画像処理装置、画像処理方法 Active JP6092530B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2012137268A JP6092530B2 (ja) 2012-06-18 2012-06-18 画像処理装置、画像処理方法
GB1310162.1A GB2504822B (en) 2012-06-18 2013-06-07 Range measurement apparatus and range measurement method
US13/914,890 US10203197B2 (en) 2012-06-18 2013-06-11 Range measurement apparatus and range measurement method
DE102013211240.8A DE102013211240B4 (de) 2012-06-18 2013-06-17 Bereichsmessvorrichtung und Bereichsmessverfahren
CN201310239490.6A CN103512548B (zh) 2012-06-18 2013-06-17 距离测量装置及距离测量方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012137268A JP6092530B2 (ja) 2012-06-18 2012-06-18 画像処理装置、画像処理方法

Publications (3)

Publication Number Publication Date
JP2014002033A true JP2014002033A (ja) 2014-01-09
JP2014002033A5 JP2014002033A5 (ja) 2015-07-16
JP6092530B2 JP6092530B2 (ja) 2017-03-08

Family

ID=48875916

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012137268A Active JP6092530B2 (ja) 2012-06-18 2012-06-18 画像処理装置、画像処理方法

Country Status (5)

Country Link
US (1) US10203197B2 (ja)
JP (1) JP6092530B2 (ja)
CN (1) CN103512548B (ja)
DE (1) DE102013211240B4 (ja)
GB (1) GB2504822B (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015158430A (ja) * 2014-02-24 2015-09-03 株式会社島津製作所 動体画像処理装置
JP2016109671A (ja) * 2014-12-01 2016-06-20 キヤノン株式会社 三次元計測装置およびその制御方法
US9762872B2 (en) 2015-10-08 2017-09-12 Fujitsu Limited Apparatus, method and non-transitory computer-readable storage medium

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6004809B2 (ja) 2012-03-13 2016-10-12 キヤノン株式会社 位置姿勢推定装置、情報処理装置、情報処理方法
JP2015147256A (ja) * 2014-02-04 2015-08-20 セイコーエプソン株式会社 ロボット、ロボットシステム、制御装置、及び制御方法
CN105993041B (zh) * 2014-02-24 2017-10-31 日产自动车株式会社 自身位置计算装置以及自身位置计算方法
JP5829306B2 (ja) * 2014-05-12 2015-12-09 ファナック株式会社 レンジセンサの配置位置評価装置
CN104112687A (zh) * 2014-06-24 2014-10-22 京东方科技集团股份有限公司 膜边检测方法和膜边检测装置
US20160147408A1 (en) * 2014-11-25 2016-05-26 Johnathan Bevis Virtual measurement tool for a wearable visualization device
JP6736257B2 (ja) * 2015-04-02 2020-08-05 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
EP3396632A4 (en) * 2015-12-24 2019-01-09 Fujitsu Limited IMAGE PROCESSING DEVICE, IMAGE PROCESSING METHOD, AND IMAGE PROCESSING PROGRAM
GB201607639D0 (en) 2016-05-02 2016-06-15 Univ Leuven Kath Sensing method
JP2018084954A (ja) * 2016-11-24 2018-05-31 セイコーエプソン株式会社 プログラム、姿勢導出方法、姿勢導出装置
CN108152823B (zh) * 2017-12-14 2021-09-03 北京信息科技大学 一种基于视觉的无人驾驶叉车导航系统及其定位导航方法
US20240104865A1 (en) * 2022-09-22 2024-03-28 Faro Technologies, Inc. Feature extraction using a point of a collection of points

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10160464A (ja) * 1996-12-04 1998-06-19 Tokyo Electric Power Co Inc:The 認識対象物体の位置姿勢認識装置および位置姿勢認識方法
JP2003030776A (ja) * 2001-07-17 2003-01-31 Japan Radio Co Ltd 物体検知システムおよびその方法
JP2008046750A (ja) * 2006-08-11 2008-02-28 Canon Inc 画像処理装置および方法
JP2011027724A (ja) * 2009-06-24 2011-02-10 Canon Inc 3次元計測装置、その計測方法及びプログラム
JP2012042396A (ja) * 2010-08-20 2012-03-01 Canon Inc 位置姿勢計測装置、位置姿勢計測方法、およびプログラム
JP2012098087A (ja) * 2010-10-29 2012-05-24 Canon Inc 測定装置及び測定方法

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IT1179997B (it) * 1984-02-24 1987-09-23 Consiglio Nazionale Ricerche Procedimento ed apparecchiatura per il rilievo dell impronta lasciata in un provino nella misura della durezza alla penetrazione
US5471541A (en) * 1993-11-16 1995-11-28 National Research Council Of Canada System for determining the pose of an object which utilizes range profiles and synethic profiles derived from a model
US5721565A (en) * 1994-04-29 1998-02-24 Proxima Corporation Zooming protection display control system and method of using same
US5657047A (en) * 1995-01-12 1997-08-12 Accelgraphics, Inc. Method and apparatus for zooming images on a video display
JP3892838B2 (ja) * 2003-10-16 2007-03-14 ファナック株式会社 3次元測定装置
JP4737668B2 (ja) 2005-05-30 2011-08-03 コニカミノルタセンシング株式会社 3次元計測方法および3次元計測システム
FR2896441B1 (fr) 2006-01-23 2009-07-03 Jerome Grosbois Procede et systeme permettant la prehension automatisee de piece(s)
DE102006022104B4 (de) 2006-05-11 2012-09-06 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung zur dreidimensionalen Vermessung eines Festkörpers
US7844106B2 (en) 2007-04-23 2010-11-30 Mitsubishi Electric Research Laboratories, Inc Method and system for determining poses of objects from range images using adaptive sampling of pose spaces
US7844105B2 (en) 2007-04-23 2010-11-30 Mitsubishi Electric Research Laboratories, Inc. Method and system for determining objects poses from range images
ATE532031T1 (de) 2008-04-18 2011-11-15 3D Scanners Ltd Verfahren und computerprogramm zur verbesserung der dimensionalen erfassung eines objekts
US8520930B2 (en) 2008-04-18 2013-08-27 3D Scanners Ltd. Method and computer program for improving the dimensional acquisition of an object
JP2010137680A (ja) 2008-12-11 2010-06-24 Daimler Ag 車両のインスペクションカバーの構造
JP2011175477A (ja) * 2010-02-24 2011-09-08 Canon Inc 3次元計測装置、処理方法及びプログラム
JP5615055B2 (ja) 2010-06-18 2014-10-29 キヤノン株式会社 情報処理装置及びその処理方法
JP5630208B2 (ja) 2010-10-25 2014-11-26 株式会社安川電機 形状計測装置、ロボットシステムおよび形状計測方法
JP6004809B2 (ja) 2012-03-13 2016-10-12 キヤノン株式会社 位置姿勢推定装置、情報処理装置、情報処理方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10160464A (ja) * 1996-12-04 1998-06-19 Tokyo Electric Power Co Inc:The 認識対象物体の位置姿勢認識装置および位置姿勢認識方法
JP2003030776A (ja) * 2001-07-17 2003-01-31 Japan Radio Co Ltd 物体検知システムおよびその方法
JP2008046750A (ja) * 2006-08-11 2008-02-28 Canon Inc 画像処理装置および方法
JP2011027724A (ja) * 2009-06-24 2011-02-10 Canon Inc 3次元計測装置、その計測方法及びプログラム
JP2012042396A (ja) * 2010-08-20 2012-03-01 Canon Inc 位置姿勢計測装置、位置姿勢計測方法、およびプログラム
JP2012098087A (ja) * 2010-10-29 2012-05-24 Canon Inc 測定装置及び測定方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015158430A (ja) * 2014-02-24 2015-09-03 株式会社島津製作所 動体画像処理装置
JP2016109671A (ja) * 2014-12-01 2016-06-20 キヤノン株式会社 三次元計測装置およびその制御方法
US9762872B2 (en) 2015-10-08 2017-09-12 Fujitsu Limited Apparatus, method and non-transitory computer-readable storage medium

Also Published As

Publication number Publication date
GB2504822B (en) 2015-03-11
CN103512548B (zh) 2016-03-16
GB2504822A (en) 2014-02-12
JP6092530B2 (ja) 2017-03-08
CN103512548A (zh) 2014-01-15
US20130335751A1 (en) 2013-12-19
GB201310162D0 (en) 2013-07-24
US10203197B2 (en) 2019-02-12
DE102013211240A1 (de) 2013-12-19
DE102013211240B4 (de) 2017-06-29

Similar Documents

Publication Publication Date Title
JP6092530B2 (ja) 画像処理装置、画像処理方法
JP6271953B2 (ja) 画像処理装置、画像処理方法
JP6370038B2 (ja) 位置姿勢計測装置及び方法
JP5393318B2 (ja) 位置姿勢計測方法及び装置
JP5567908B2 (ja) 3次元計測装置、その計測方法及びプログラム
JP6465789B2 (ja) デプスカメラの内部パラメータを算出するプログラム、装置及び方法
JP5624394B2 (ja) 位置姿勢計測装置、その計測処理方法及びプログラム
JP5746477B2 (ja) モデル生成装置、3次元計測装置、それらの制御方法及びプログラム
JP6324025B2 (ja) 情報処理装置、情報処理方法
JP6594129B2 (ja) 情報処理装置、情報処理方法、プログラム
JP2011175477A (ja) 3次元計測装置、処理方法及びプログラム
JP6282098B2 (ja) キャリブレーション装置及び方法
JP2014063475A (ja) 情報処理装置、情報処理方法、及びコンピュータプログラム
JP2017144498A (ja) 情報処理装置、情報処理装置の制御方法およびプログラム
JP2016170050A (ja) 位置姿勢計測装置、位置姿勢計測方法及びコンピュータプログラム
JP6180158B2 (ja) 位置姿勢計測装置、位置姿勢計測装置の制御方法、およびプログラム
JP5698815B2 (ja) 情報処理装置、情報処理装置の制御方法及びプログラム
JP6040264B2 (ja) 情報処理装置、情報処理装置の制御方法、およびプログラム
JP5976089B2 (ja) 位置姿勢計測装置、位置姿勢計測方法、およびプログラム
JP6486083B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP6890422B2 (ja) 情報処理装置、情報処理装置の制御方法およびプログラム
JP6548789B2 (ja) 位置姿勢計測装置及び方法
JP5938201B2 (ja) 位置姿勢計測装置、その処理方法及びプログラム
JP6285765B2 (ja) 情報処理装置、情報処理方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150602

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150602

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160513

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160621

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160809

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170113

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170209

R151 Written notification of patent or utility model registration

Ref document number: 6092530

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151