JP2015132523A - 位置姿勢計測装置、位置姿勢計測方法及びプログラム - Google Patents
位置姿勢計測装置、位置姿勢計測方法及びプログラム Download PDFInfo
- Publication number
- JP2015132523A JP2015132523A JP2014003598A JP2014003598A JP2015132523A JP 2015132523 A JP2015132523 A JP 2015132523A JP 2014003598 A JP2014003598 A JP 2014003598A JP 2014003598 A JP2014003598 A JP 2014003598A JP 2015132523 A JP2015132523 A JP 2015132523A
- Authority
- JP
- Japan
- Prior art keywords
- image
- orientation
- pattern
- unit
- distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
【課題】2次元画像と距離画像とを利用して高速に位置姿勢を計測できるようにする。【解決手段】撮像部110は、通常照明下の濃淡画像を撮影するとともに、距離計測用のパターンが照射された状態の距離計測用画像の撮影も行う。そして、濃淡画像処理部150は、3次元形状モデルの線分が濃淡画像上の特徴(エッジ)に当てはまるように位置姿勢を推定するのに必要な処理を行い、距離画像処理部160は、3次元形状モデルの面が距離画像から生成される3次元点群に当てはまるように位置姿勢を推定するのに必要な処理を行い、位置姿勢算出部170は、その結果を基に物体の最終的な位置及び姿勢を算出する。このとき、濃淡画像処理部150の処理と並行して距離計測用画像の撮影を行うようにする。【選択図】図1
Description
本発明は、特に、2次元画像及び距離画像を用いて位置及び姿勢を計測するために用いて好適な位置姿勢計測装置、位置姿勢計測方法及びプログラムに関する。
近年のロボット技術の発展に伴い、これまで人間が行っていた工業製品の組み立てなどの複雑なタスクをロボットが代わりに行うようになりつつある。このようなロボットは、ロボットアームの先端に装着されたハンドなどのエンドエフェクタによって部品を把持して組立を行う。ロボットが部品を把持するためには、把持の対象となる部品とロボット(ハンド)との間の相対的な位置及び姿勢を高精度に計測する必要がある。このように高精度に位置及び姿勢を計測することは、ロボットが部品を把持するだけでなく、ロボットが自律移動するために自己位置を推定したり、拡張現実感における現実空間(現実物体)と仮想物体との位置を合わせたりするなど様々な場面で必要とされる。
位置及び姿勢を計測する方法としては、カメラから得られる2次元画像(濃淡画像またはカラー画像)や距離センサから得られる距離画像を用いて位置及び姿勢を計測する方法が広く利用されている。非特許文献1には、物体の3次元モデルを線分の集合で表し、2次元画像上のエッジに線分の投影像を当てはめて物体の位置及び姿勢を計測する方法が開示されている。また、非特許文献2には、距離画像から得られる物体表面上の3次元点群に物体の3次元モデル(ポリゴンモデル)を当てはめて物体の位置及び姿勢を計測する方法が開示されている。
前述した2次元画像を利用する位置姿勢推定方法は、特徴とモデルとの投影像の「2次元画像上での」距離を最小化する方法であるため、3次元空間における位置姿勢の計測精度は必ずしも高いわけではない。特に、カメラの奥行き方向の位置成分に関して精度が低い。一方、距離画像を利用する方法は、点群とモデルとの「3次元空間内での」距離を最小化する方法であるため、2次元画像を利用する方法に比べて位置姿勢の計測精度は高い。しかし、平面状の物体など対象物体の形状があまり特徴的でない場合には、一部の自由度を高精度に計測できないという課題がある。
これに対し、2次元画像と距離画像とを相補的に利用することによって位置姿勢を高精度に計測することが期待できる。背景と物体との境界や面の切り替わりなど濃淡変化が激しい部分においては2次元画像上で特徴(エッジ)が多く検出される。一方、画像特徴が検出されにくい平坦な部分では距離画像で安定的に計測できる。そのため、両者を相補的に組み合わせて情報量を増やすことにより位置姿勢の計測精度が向上することが期待される。
非特許文献3には、2次元画像上の特徴を奥行きが不定な3次元の点とみなし、すべての計測データを3次元空間中の点として扱うことにより、2次元画像と距離画像との双方を位置姿勢の計測に利用する方法が開示されている。一方、非特許文献4には、2次元画像から明示的に特徴検出を行わず、2次元濃淡画像と距離画像との勾配情報を利用して位置姿勢を推定する方法が開示されている。
T. Drummond and R. Cipolla, "Real-time visual tracking of complex structures," IEEE Transactions on Pattern Analysis and Machine Intelligence, vol.24, no.7, pp.932-946, 2002.
D. A. Simon, M. Hebert, and T. Kanade, "Real-time 3-D pose estimation using a high-speed range sensor," Proc. 1994 IEEE International Conference on Robotics and Automation (ICRA'94), pp.2235-2241, 1994.
Y. Hel-Or and M. Werman, "Pose estimation by fusing noisy data of different dimensions, " IEEE Transactions on Pattern Analysis and Machine Intelligence, vol.17, no.2, pp.195-201, 1995.
日浦,山口,佐藤,井口,"距離画像と濃淡画像の融合による任意形状物体の実時間追跡",電子情報通信学会論文誌D-II, vol.J80-DII, no.11, pp.2904-2911, 1997.
Z. Zhang, "A flexible new technique for camera calibration," IEEE Transactions on Pattern Analysis and Machine Intelligence, vol.22, no.11, pp.1330-1334, 2000.
井口征士、佐藤宏介「三次元画像計測」(昭晃堂,1990)
C. Harris and M. Stephens, "A combined corner and edge detector" Proc. the 4th Alvey Vision Conference, pp.147-151, 1988.
C. Wiedemann, et al., "Recognition and Tracking of 3D Objects; in: Pattern Recognition," G. Rigoll (Editor), Lecture Notes in Computer Science, Springer Verlag , Vol. 5096, pp.132-141, 2008
工業製品の組立をロボットが行う場合には、組立の繰り返し精度が向上するだけでなく、組立が高速化されることも期待されている。組立を高速に行うためには、ロボットの動作自体を高速にするだけでなく、動作を決定するのに必要な位置姿勢の計測も高速に行う必要がある。
前述したように2次元画像と距離画像とを相補的に利用して位置姿勢を計測する場合は、基本的に計測データの取得処理と位置姿勢の算出処理とが分離されている。距離画像を取得するために異なるパターンを計測対象の物体に投影し、複数の画像を取得する必要がある場合には、それらの画像がすべて撮影されるまで位置姿勢算出に係る処理を開始できず、多くの時間がかかってしまうという問題点がある。
本発明は前述の問題点に鑑み、2次元画像と距離画像とを利用して高速に位置姿勢を計測できるようにすることを目的としている。
本発明に係る位置姿勢計測装置は、距離を計測するためのパターンを物体に照射する照明手段と、前記物体の2次元画像を撮影するとともに、前記照明手段によって異なるパターンにより前記物体が照射された画像群を撮影する撮像手段と、前記物体の3次元形状を表すモデルを保持する保持手段と、前記撮像手段による前記パターンが照射された物体の撮影と並行して、前記撮像手段によって撮影された2次元画像から特徴を検出して、前記保持手段に保持されているモデルと対応付ける第1の処理手段と、前記パターンが照射された画像群から距離画像を生成し、前記生成した距離画像の画素と前記保持手段に保持されているモデルとを対応付ける第2の処理手段と、前記第1の処理手段及び前記第2の処理手段による対応付けに基づいて前記物体の位置及び姿勢を導出する導出手段とを有することを特徴とする。
本発明によれば、2次元画像と距離画像とを利用した位置姿勢計測を高速化することができる。これにより、ロボットによる組立やロボットの自律移動をより高速化することができる。
(第1の実施形態)
本実施形態では、濃淡画像を撮影した後に距離画像を生成するための画像を撮影し、距離画像を生成するための画像の撮影と並行して、濃淡画像上の特徴に3次元モデルを当てはめるのに必要な処理を行う。本実施形態では、物体の概略の位置及び姿勢は既に認識されているものとする。
本実施形態では、濃淡画像を撮影した後に距離画像を生成するための画像を撮影し、距離画像を生成するための画像の撮影と並行して、濃淡画像上の特徴に3次元モデルを当てはめるのに必要な処理を行う。本実施形態では、物体の概略の位置及び姿勢は既に認識されているものとする。
図1は、本実施形態における位置姿勢計測装置100の機能構成例を示すブロック図である。
図1に示すように位置姿勢計測装置100は、撮像部110、照明部120、モデル保存部130、概略位置姿勢入力部140、濃淡画像処理部150、距離画像処理部160、及び位置姿勢算出部170を備えている。以下、位置姿勢計測装置100を構成する各部について説明する。
図1に示すように位置姿勢計測装置100は、撮像部110、照明部120、モデル保存部130、概略位置姿勢入力部140、濃淡画像処理部150、距離画像処理部160、及び位置姿勢算出部170を備えている。以下、位置姿勢計測装置100を構成する各部について説明する。
撮像部110は、2次元画像を撮影するカメラである。本実施形態では、撮像部110は通常照明下の濃淡画像(2次元画像)を撮影するとともに、距離計測用のパターンが照射された状態の画像(以下、距離計測用画像)の撮影も行う。距離計測用画像は複数枚撮影され、これらの距離計測用画像群をもとに1枚の距離画像が生成される。後述するように、本実施形態では位置姿勢計測装置100における全体の処理を高速化するため、距離計測用画像の撮影と並行して濃淡画像処理部150の処理を行う。そのため、濃淡画像の撮影は距離計測用画像の撮影が完了する前に行う。すなわち、濃淡画像の撮影は、すべての距離計測用画像の撮影の前に行ってもよいし、一部の距離計測用画像の撮影の前に行ってもよい。距離計測用画像の撮影が完了する前に濃淡画像の撮影を終えることにより、距離計測用画像の撮影を行っている間に濃淡画像処理部150の処理を行う時間を生成する。なお、本実施形態では濃淡画像の撮影は、すべての距離計測用画像の撮影の前に行う。
撮像部110が撮影する濃淡画像は、濃淡画像処理部150に入力され、距離計測用画像は、距離画像処理部160に入力される。カメラの焦点距離や主点位置、レンズ歪みパラメータなどの内部パラメータは、例えば非特許文献5に記載の方法によって事前にキャリブレーションしておくものとする。
撮像部110が撮影する濃淡画像は、濃淡画像処理部150に入力され、距離計測用画像は、距離画像処理部160に入力される。カメラの焦点距離や主点位置、レンズ歪みパラメータなどの内部パラメータは、例えば非特許文献5に記載の方法によって事前にキャリブレーションしておくものとする。
照明部120は、距離計測用のパターンを計測対象となる物体に対して照射する。本実施形態では、照明部120として液晶プロジェクタを用いる。液晶プロジェクタでは、任意の2次元パターンを照射することが可能である。なお、距離計測に必要な、液晶プロジェクタの内部パラメータ及びカメラに対する外部パラメータは、例えば非特許文献6井口征士、佐藤宏介らの『三次元画像計測』(昭晃堂,1990)に開示される方法により事前に校正しておくものとする。なお、照明装置は液晶プロジェクタに限るものではなく、距離計測用パターンを照射する照明装置であればいかなる照明装置であってもよい。例えば、DMD(デジタルミラーデバイス)やLCOSを用いたプロジェクタであってもよい。
本実施形態では、空間コード化法によって距離計測を行う。空間コード化法では、図6に示すような複数のコードパターンを計測対象とする物体に投影し、撮影された画像の各画素と照射されたパターンとの対応付けを行い、画素単位で距離計測を行う。ただし、距離計測の方法はこれに限るものではなく、方向を変えたスリット光を時系列に投影することによって距離計測を行う光切断法であってもよい。
モデル保存部130は、位置及び姿勢を計測する対象となる物体の3次元形状モデルを保存する。本実施形態では、物体を線分と面とから構成される3次元形状モデルを用いる。位置姿勢算出部170は、3次元形状モデルの線分が濃淡画像上のエッジに当てはまり、距離画像から得られる3次元点群に3次元形状モデルの面が当てはまるように位置及び姿勢を推定する。
図2は、本実施形態における3次元形状モデルを説明するための図である。3次元形状モデルは、点の集合及び各点を結んで構成される線分の集合によって定義される。図2(a)に示すように、観察対象となる物体200の3次元形状モデルは、点P1〜点P14の14点から構成され、さらに図2(b)に示すように、線分L1〜L16により構成されている。また、図2(c)に示すように、点P1〜点P14は3次元座標値によって表され、図2(d)に示すように、線分L1〜L16は、線分を構成する点のIDによって表される。さらに3次元形状モデルは、面の情報を保持しており、各面は、各面を構成する点のIDによって表される。図2に示す3次元形状モデルでは、直方体を構成する6つの面の情報が記憶されている。
概略位置姿勢入力部140は、位置姿勢計測装置100に対する物体の位置及び姿勢の概略値を入力する。本実施形態では、位置姿勢計測装置100には、位置及び姿勢計測の基準となる3次元の座標系(基準座標系)が規定されているものとする。位置姿勢計測装置100に対する物体の位置及び姿勢とは、基準座標系における物体の位置及び姿勢を表す。本実施形態では、カメラの中心を原点とし、カメラの光軸をz軸とした座標系を基準座標系とする。
本実施形態では、位置姿勢計測装置100は時間軸方向に連続して計測を行うものとし、前回(前時刻)の計測値を位置及び姿勢の概略値として用いる。しかしながら、位置及び姿勢の概略値の入力方法はこれに限るものではない。例えば、過去の位置及び姿勢の計測結果をもとに位置及び姿勢の変化量を推定し、過去の位置及び姿勢と推定された変化量から現在の位置及び姿勢を予測してもよい。また、物体が置かれているおおよその位置や姿勢を予め認識している場合にはその値を概略値として用いる。
濃淡画像処理部150は、3次元形状モデルの線分が濃淡画像上の特徴(エッジ)に当てはまるように位置姿勢を推定するのに必要な処理を行う。濃淡画像処理部150は、距離画像を必要とせずに実行できる処理を濃淡画像に対して行う。具体的には、概略位置姿勢入力部140から入力される物体の位置及び姿勢の概略値に基づいて、3次元形状モデルの各線分を濃淡画像上に投影し、投影された線分の近傍で対応するエッジ探索を行い、位置姿勢を算出するために必要な観測方程式を立式する。なお、この処理の詳細については後述する。濃淡画像の撮影を先に行うことにより、濃淡画像処理部150の処理を距離計測用画像群の撮影中に並行して行い、全体的な処理を高速化している。
距離画像処理部160は、3次元形状モデルの面が距離画像から生成される3次元点群に当てはまるように位置姿勢を推定するのに必要な処理を行う。この処理は、距離計測用画像群から1枚の距離画像を得る処理と、距離画像を3次元点群に変換して各点と3次元モデルの面との対応付けを行って観測方程式を立式する処理との2段階に分けられる。この処理の詳細についても後述する。
位置姿勢算出部170は、濃淡画像処理部150、及び距離画像処理部160において立式された観測方程式からなる連立方程式を解くことにより、計測対象となる物体の位置及び姿勢を算出する。
図3は、本実施形態において、位置及び姿勢を計測する処理手順の一例を示すフローチャートである。
まず、ステップS301において、概略位置姿勢入力部140は、位置姿勢計測装置100(具体的にはカメラ)に対する物体の位置及び姿勢の概略値を入力する。前述したように本実施形態では、前の時刻において計測された位置及び姿勢を概略値として用いる。
まず、ステップS301において、概略位置姿勢入力部140は、位置姿勢計測装置100(具体的にはカメラ)に対する物体の位置及び姿勢の概略値を入力する。前述したように本実施形態では、前の時刻において計測された位置及び姿勢を概略値として用いる。
続いてステップS302において、撮像部110は、通常照明下で計測対象となる物体の濃淡画像を撮影する。ここで、通常照明とは、一般的な環境に配置されている蛍光灯などの照明であってもよいし、照明部120による同一色(例えば白色)の照明であってもよい。すなわち、距離計測などを目的とした特殊なパターンの照明以外の照明であれば、いかなる照明であってもよい。本ステップで撮影された濃淡画像は、濃淡画像処理部150に入力される。
次に、ステップS303において、濃淡画像処理部150は、ステップS302で入力された濃淡画像上において、画像特徴の検出、画像特徴とモデルとの対応付け、及び観測方程式の立式を行う。本実施形態では、画像特徴として濃度勾配の極値となる点であるエッジを検出する。本実施形態では、非特許文献1で開示される方法によりエッジを検出する。非特許文献1に開示されているエッジ検出方法はトップダウン型の方法であり、モデル側から対応するエッジを探索する方法であるため、エッジの検出と対応付けとが一度に行われる。
図4は、本実施形態において、エッジを検出する方法を説明するための図である。まず、ステップS301において入力された計測対象となる物体の位置及び姿勢の概略値と、校正済みのカメラの内部パラメータとを用いて、濃淡画像に投影する3次元形状モデルを構成する各線分の投影像を算出する。このとき、線分の投影像は濃淡画像上でも線分となる。
次に、図4(a)に示すように、濃淡画像上で等間隔になるように投影された線分402上に制御点401を設定し、制御点401ごとに、投影された線分402の法線方向の探索ライン403に一定範囲内で1次元のエッジ404を検出する。エッジ404は画素値の濃度勾配の極値として検出されるため、図4(b)に示すように、近傍にエッジが存在する場合には複数のエッジ405が検出されることがある。本実施形態では、検出されるエッジのうち、最も濃度勾配の大きいものを対応するエッジとする。
次に、3次元形状モデルの線分上の制御点と濃淡画像上のエッジとの対応をもとに、位置及び姿勢を算出するための観測方程式を立式する。ここで、計測対象とする物体の位置及び姿勢を6次元ベクトルsで表す。
図5は、線分の投影像と検出されたエッジとの関係を説明するための図である。図5に示す例では、画像の水平方向、垂直方向をそれぞれu軸、v軸としている。ある制御点501の濃淡画像上での位置を(u0,v0)とし、制御点501が所属する線分502の濃淡画像上の傾きをu軸に対する傾きθと表す。傾きθについては、線分の両端の3次元座標を6次元ベクトルsの概略値(s0)に基づいて濃淡画像上に投影し、濃淡画像上で両端の座標を結んだ直線の傾きとして算出する。該線分の濃淡画像上の法線ベクトルは(sinθ,−cosθ)となる。また、制御点501の対応点(エッジ)503の座標を(u',v')とする。ここで、座標(u',v')を通り、傾きがθである直線504上の座標(u,v)は、以下の式(1)の関係を満たす。
濃淡画像上の制御点の位置は、計測対象となる物体の位置及び姿勢により変化し、計測対象となる物体の位置及び姿勢の自由度は6自由度である。すなわち、6次元ベクトルsは、計測対象となる物体の位置を表す3つの要素と、姿勢を表す3つの要素とからなる。姿勢を表す3つの要素は、例えばオイラー角や、方向が原点を通る回転軸を表してノルムが回転角を表す3次元ベクトルなどによって表現される。位置及び姿勢により変化する制御点の座標(u,v)は座標(u0,v0)の近傍で1次のテイラー展開によって以下の式(2)を用いて近似することができる。但しΔsi(i=1,2,・・・,6)は6次元ベクトルsの各成分の微小変化を表す。
位置及び姿勢の概略値と実際の位置及び姿勢との差が僅かであると仮定すると、正しい6次元ベクトルsによって得られる濃淡画像上の制御点の位置は、式(1)が表す直線上にあると仮定できる。また、式(2)によって近似されるu、vを式(1)に代入することにより、以下の式(3)に示す観測方程式が得られる。
以上のように、濃淡画像処理部150により式(3)の観測方程式が、対応付けが行われたすべての制御点について立式される。
また、ステップS303においては、濃淡画像処理部150により濃淡画像への処理が行われている最中に、並行して距離計測用画像の撮影も行う。本実施形態では、空間コード化法により距離計測を行うことを想定しているため、異なるコードパターンを照射した複数の画像を撮影する必要がある。複数の画像を撮影するのは多くの時間がかかるため、濃淡画像への処理と並行して距離計測用の画像を撮影し、装置全体として高速化する。
距離計測用画像の撮影手順としては、まず、照明部120は、図6に示すコードパターンを計測対象となる物体に順次照射する。図6に示すコードパターンは、6ビットのグレイコードパターンを示している。照明部120はパターン1から順に各コードパターンを照射し、撮像部110は各コードパターンが照射されるごとに距離計測用画像を撮影する。撮影された距離計測用画像は距離画像処理部160に入力される。そして、すべてのコードパターンに関する距離計測用画像が撮影されるまで、コードパターンを変更して計測対象となる物体にコードパターンを照射して撮影を行う。
次に、ステップS304において、距離画像処理部160は、ステップS303において撮影された距離計測用画像群から距離画像を生成し、さらに距離画像の各画素と3次元形状モデルの面との対応付け、及び観測方程式の立式を行う。
まず、距離計測用画像群から距離画像を生成するために、各距離計測用画像に対して2値化処理を施して各画素を2値化する。2値化処理の結果より、各画素にはnビットのコードが割り当てられる。なお、ビット数は利用するコードパターンの数となり、本実施形態では6ビットであるものとする。このコードを2進コードに変換して照明パターンの画像座標と対応づけを行い、その対応関係と前述の構成パラメータとをもとに画素ごとの奥行き値を計算して距離画像を生成する。距離画像の各画素に対し画素位置に対応する視線ベクトルに奥行き値を乗算することにより、基準座標系における3次元座標を持つ3次元点群に変換する。
次に、3次元形状モデルの面と距離画像から得られた3次元点群との対応に基づいて位置及び姿勢を算出するための観測方程式を立式する処理について説明する。まず、3次元点群の各点と3次元形状モデルの面との対応付けを行う。この処理では、位置及び姿勢の概略値に基づいて3次元形状モデルもしくは3次元点群を座標変換し、3次元点群中の各点につき、3次元空間における距離が最小となる3次元形状モデルの面を対応付ける。
基準座標系における3次元点群の点の座標は、計測対象となる物体の位置及び姿勢を表す6次元ベクトルsによって計測対象となる物体の座標系における3次元座標(x,y,z)に変換される。ここで、位置及び姿勢の概略値によって、3次元点群中のある点が計測対象となる物体の座標(x0,y0,z0)に変換されるものとする。3次元座標(x,y,z)は計測対象となる物体の位置及び姿勢により変化するものであり、概略値から算出される3次元座標(x0,y0,z0)の近傍で1次のテイラー展開によって以下の式(4)により近似できる。
ここで、3次元点群中のある点に対応付けられた3次元形状モデルの面の、計測対象となる物体座標系における方程式をax+by+cz=e(a2+b2+c2=1、a,b,c,eは定数)とする。また、正しい6次元ベクトルsによって変換される3次元座標(x,y,z)は、平面の方程式ax+by+cz=eを満たすものと仮定する。これにより、前述の式(4)を平面の方程式に代入すると以下の式(5)が得られる。
以上のように、距離画像処理部160により式(5)に表される観測方程式が、対応付けが行われたすべての3次元点群について立式される。なお、ステップS303において、距離計測用画像の撮影が終了しているが、濃淡画像処理部150による処理が完了していない場合には、濃淡画像処理部150による処理の完了を待たずに、ステップS304の処理を開始するものとする。これにより、装置全体として高速化する。
ステップS303における濃淡画像処理部150による処理、及びステップS304における距離画像処理部160による処理が完了すると、次に、ステップS305において、位置姿勢算出部170は、計測対象となる物体の位置姿勢を算出する。この処理においては、ステップS303及びステップS304において立式された観測方程式をもとに、位置姿勢の補正値を算出し、位置姿勢の概略値を補正する。前述した式(3)及び式(5)は6次元ベクトルsの各成分の微小変化であるΔsi(i=1,2,・・・,6)についての方程式であるため、以下の式(6)のような補正値Δsiに関する線形連立方程式を立てることができる。
この連立方程式を解くことによって、個々の位置姿勢の補正値Δsiが得られる。この補正値Δsiを用いて位置及び姿勢の概略値を補正することによって最終的な物体の位置及び姿勢を算出する。
ここで、式(6)の右辺の値は、エッジ(di−ri)については画像上での符号付距離であり、3次元点群(ei−qi)については3次元空間中での符号付距離であるため、尺度が一致していない。そこで、画像上での誤差にエッジの奥行きを乗じることにより3次元空間中の誤差に近似する。具体的には、エッジについての方程式の両辺に、エッジの奥行きを乗じることによって尺度を3次元空間中の距離に統一する。2次元画像からは奥行き情報を得ることはできないため、エッジの奥行きは何らかの近似的な方法により求める必要がある。本実施形態では、位置及び姿勢の概略値によって算出された各制御点の奥行きを、画像上の誤差に乗じることによって3次元空間中の誤差に変換する。
そして、式(6)の両辺に対して行列Jの一般化逆行列(JT・J)-1・JTを乗じることにより位置及び姿勢の補正値Δsを求め、位置及び姿勢の概略値を補正する。なお、図3に示した手順によれば、位置及び姿勢の補正は一度しか行われないが、補正された位置及び姿勢の概略値をもとに、ステップS303及びS304において対応付け処理をやり直し、より精度を高めるために位置及び姿勢の補正を反復してもよい。
以上のように本実施形態によれば、まず濃淡画像を撮影し、その後、距離計測用画像を撮影しながら濃淡画像に対する処理を並行して行うようにしたので、位置及び姿勢の概略値が得られる場合の位置姿勢の計測をより高速に行うことができる。
なお、本実施形態では、濃淡画像上の特徴をエッジとし、3次元形状モデルの線分をエッジに当てはめることにより位置及び姿勢の計測を行った。しかし、濃淡画像上の特徴はエッジに限るものではなく、例えば2次元的な特徴である特徴点であってもよい。特徴点は、コーナー点など画像上で特徴的な点であり、例えば非特許文献7に記載の方法により検出することができる。この場合、3次元形状モデルを3次元点群によって表すことによって、各特徴点をモデル中の3次元点群の点と対応付けることができる。特徴点を用いる場合には、ステップS303において、まず、画像全体から検出器によって特徴点を検出する。次に、3次元モデル中の3次元点群の各点を位置及び姿勢の概略値に基づいて画像上に投影し、画像上で最も近い特徴点と対応付けを行う。
また、本実施形態では、距離計測用の画像を撮影している最中に、特徴検出や対応付け、観測方程式などの濃淡画像に対する処理を並行して行って位置姿勢の計測を高速化した。しかしながら、濃淡画像に対する処理はこれに限るものではなく、前述の濃淡画像上の特徴に対して立式された観測方程式を用いた位置及び姿勢の算出まで行ってもよい。このようにして算出された位置及び姿勢を概略値とすることにより、距離画像と3次元形状モデルとの対応付けの精度を向上させることができる。その結果、誤対応が減るため、濃淡画像の情報から得られた位置及び姿勢の精度を、距離画像を用いて向上させることができる。
(第2の実施形態)
第1の実施形態では、物体の位置及び姿勢の概略値が既知である場合に、濃淡画像上の特徴に3次元形状モデルを当てはめるのに必要な処理を、距離計測用画像の撮影と並行して行って計測の高速化を図った。本実施形態では、物体の位置及び姿勢の概略値が未知である場合に、濃淡画像をもとに位置及び姿勢の概略値を推定する例について説明する。位置及び姿勢が未知な状態から発見的に位置及び姿勢を推定する処理は一般的に時間が多くかかる処理であるため、距離計測用画像の撮影と並行して発見的な物体の位置及び姿勢の推定を行い、計測装置全体として高速化させる。
第1の実施形態では、物体の位置及び姿勢の概略値が既知である場合に、濃淡画像上の特徴に3次元形状モデルを当てはめるのに必要な処理を、距離計測用画像の撮影と並行して行って計測の高速化を図った。本実施形態では、物体の位置及び姿勢の概略値が未知である場合に、濃淡画像をもとに位置及び姿勢の概略値を推定する例について説明する。位置及び姿勢が未知な状態から発見的に位置及び姿勢を推定する処理は一般的に時間が多くかかる処理であるため、距離計測用画像の撮影と並行して発見的な物体の位置及び姿勢の推定を行い、計測装置全体として高速化させる。
図7は、本実施形態における位置姿勢計測装置700の機能構成例を示すブロック図である。
図7に示すように、位置姿勢計測装置700は、撮像部710、照明部720、モデル保存部730、濃淡画像処理部750、距離画像処理部760、及び位置姿勢算出部770を備えている。なお、濃淡画像処理部750以外の各部の機能は第1の実施形態の位置姿勢計測装置100と同一であるため、説明を省略する。
図7に示すように、位置姿勢計測装置700は、撮像部710、照明部720、モデル保存部730、濃淡画像処理部750、距離画像処理部760、及び位置姿勢算出部770を備えている。なお、濃淡画像処理部750以外の各部の機能は第1の実施形態の位置姿勢計測装置100と同一であるため、説明を省略する。
第1の実施形態では、濃淡画像処理部150は位置及び姿勢の概略値が既知であり、濃淡画像上の特徴(エッジ)に3次元形状モデルの線分を当てはめるのに必要な処理を行っていた。これに対して本実施形態では、濃淡画像処理部750は、濃淡画像をもとに位置及び姿勢が未知な状態から発見的な位置及び姿勢の推定を行う。
図8は、本実施形態において、位置及び姿勢を計測する処理手順の一例を示すフローチャートである。まず、ステップS801の処理は、図3のステップS302の処理と同じであるため説明を省略する。
次に、ステップS802においては、距離計測用画像の撮影を行う。距離計測用画像の撮影手順については第1の実施形態と同様である。また、距離計測用画像の撮影を行っている最中に並行して、濃淡画像処理部750は、濃淡画像に基づいて、計測対象となる物体の位置及び姿勢を発見的に推定する。推定方法は、濃淡画像に基づく方法であればいかなる方法であってもよい。例えば、非特許文献8に開示されているパターンマッチングによる方法を用いてもよい。
非特許文献8に記載の方法は、計測対象となる物体の3次元形状モデルをもとに様々な視点位置から見た画像のデータベースを予め生成し、入力画像に最も適合する画像を探索することによって発見的に位置及び姿勢を推定する。この手法は、多数の画像と入力画像とをマッチングする処理が必要であり多くの時間がかかる処理である。この処理を、距離計測用画像の撮影と並行して行うことにより全体としての処理が高速化される。
また、多数の画像をもとに物体の位置姿勢の識別器を事前に学習しておき、入力画像を識別器にかけることによって発見的に物体の位置及び姿勢を推定してもよい。その他、濃淡画像から得られる特徴に基づく仮説検証や投票などによって物体の位置及び姿勢を推定してもよい。この処理によって推定された物体の位置及び姿勢の情報は、ステップS803及びS804において、位置及び姿勢の概略値として利用される。
ステップS803においては、濃淡画像処理部750及び距離画像処理部760は、3次元形状モデルとの対応付けや観測方程式の立式など、それぞれ第1の実施形態で説明した濃淡画像及び距離画像に対する処理を行う。なお、濃淡画像に対する処理は、ステップS802において位置及び姿勢の概略値の推定が終了した段階で可能であるため、距離計測用画像の撮影が完了する前に開始してもよい。ステップS804においては、図3のステップS305と同様であるため、説明は省略する。
以上のように本実施形態によれば、物体の位置及び姿勢の概略値が未知である場合に、まず、濃淡画像を撮影し、距離計測用画像の撮影と並行して濃淡画像に基づいて発見的に物体の位置姿勢を推定するようにした。これにより、位置姿勢の概略値が未知であっても高速に位置姿勢を計測することができる。
(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
110 撮像部
120 照明部
130 モデル保存部
150 濃淡画像処理部
160 距離画像処理部
170 位置姿勢算出部
120 照明部
130 モデル保存部
150 濃淡画像処理部
160 距離画像処理部
170 位置姿勢算出部
Claims (13)
- 距離を計測するためのパターンを物体に照射する照明手段と、
前記物体の2次元画像を撮影するとともに、前記照明手段によって異なるパターンにより前記物体が照射された画像群を撮影する撮像手段と、
前記物体の3次元形状を表すモデルを保持する保持手段と、
前記撮像手段による前記パターンが照射された物体の撮影と並行して、前記撮像手段によって撮影された2次元画像から特徴を検出して、前記保持手段に保持されているモデルと対応付ける第1の処理手段と、
前記パターンが照射された画像群から距離画像を生成し、前記生成した距離画像の画素と前記保持手段に保持されているモデルとを対応付ける第2の処理手段と、
前記第1の処理手段及び前記第2の処理手段による対応付けに基づいて前記物体の位置及び姿勢を導出する導出手段とを有することを特徴とする位置姿勢計測装置。 - 前記第1の処理手段は、前記2次元画像から検出した特徴と前記モデルとを対応付けた方程式を生成することを特徴とする請求項1に記載の位置姿勢計測装置。
- 前記物体の位置及び姿勢の概略値の情報を入力する入力手段をさらに有し、
前記第1の処理手段は、前記入力手段によって入力された概略値に基づいて前記2次元画像から検出した特徴と前記モデルとを対応付けることを特徴とする請求項1又は2に記載の位置姿勢計測装置。 - 前記第1の処理手段による処理が終了する前に前記撮像手段により前記パターンが照射された画像群の撮影が終了した場合に、前記第1の処理手段による処理と並行して前記第2の処理手段による処理を開始することを特徴とする請求項1〜3の何れか1項に記載の位置姿勢計測装置。
- 前記特徴はエッジであることを特徴とする請求項1〜4の何れか1項に記載の位置姿勢計測装置。
- 前記特徴は特徴点であることを特徴とする請求項1〜4の何れか1項に記載の位置姿勢計測装置。
- 距離を計測するためのパターンを物体に照射する照明手段と、
前記物体の2次元画像を撮影するとともに、前記照明手段によって異なるパターンにより前記物体が照射された画像群を撮影する撮像手段と、
前記物体の3次元形状を表すモデルを保持する保持手段と、
前記撮像手段による前記パターンが照射された物体の撮影と並行して前記撮像手段によって撮影された2次元画像から前記物体の位置及び姿勢を推定し、さらに、前記2次元画像から特徴を検出して、前記保持手段に保持されているモデルと対応付ける第1の処理手段と、
前記パターンが照射された画像群から距離画像を生成し、前記生成した距離画像の画素と前記保持手段に保持されているモデルとを対応付ける第2の処理手段と、
前記第1の処理手段及び前記第2の処理手段による対応付けに基づいて前記物体の位置及び姿勢を導出する導出手段とを有することを特徴とする位置姿勢計測装置。 - 前記撮像手段は、前記パターンが照射された物体の画像群を撮影する前に前記2次元画像を撮影することを特徴とする請求項1〜7の何れか1項に記載の位置姿勢計測装置。
- 前記撮像手段は、前記パターンが照射された物体の画像群の撮影を完了する前に前記2次元画像を撮影することを特徴とする請求項1〜7の何れか1項に記載の位置姿勢計測装置。
- 距離を計測するためのパターンを物体に照射する照明手段と、前記物体の2次元画像を撮影するとともに、前記照明手段によって異なるパターンにより前記物体が照射された画像群を撮影する撮像手段と、前記物体の3次元形状を表すモデルを保持する保持手段とを備えた位置姿勢計測装置の位置姿勢計測方法であって、
前記撮像手段による前記パターンが照射された物体の撮影と並行して、前記撮像手段によって撮影された2次元画像から特徴を検出して、前記保持手段に保持されているモデルと対応付ける第1の処理工程と、
前記パターンが照射された画像群から距離画像を生成し、前記生成した距離画像の画素と前記保持手段に保持されているモデルとを対応付ける第2の処理工程と、
前記第1の処理工程及び前記第2の処理工程による対応付けに基づいて前記物体の位置及び姿勢を導出する導出工程とを有することを特徴とする位置姿勢計測方法。 - 距離を計測するためのパターンを物体に照射する照明手段と、前記物体の2次元画像を撮影するとともに、前記照明手段によって異なるパターンにより前記物体が照射された画像群を撮影する撮像手段と、前記物体の3次元形状を表すモデルを保持する保持手段とを備えた位置姿勢計測装置の位置姿勢計測方法であって、
前記撮像手段による前記パターンが照射された物体の撮影と並行して前記撮像手段によって撮影された2次元画像から前記物体の位置及び姿勢を推定し、さらに、前記2次元画像から特徴を検出して、前記保持手段に保持されているモデルと対応付ける第1の処理工程と、
前記パターンが照射された画像群から距離画像を生成し、前記生成した距離画像の画素と前記保持手段に保持されているモデルとを対応付ける第2の処理工程と、
前記第1の処理工程及び前記第2の処理工程による対応付けに基づいて前記物体の位置及び姿勢を導出する導出工程とを有することを特徴とする位置姿勢計測方法。 - 距離を計測するためのパターンを物体に照射する照明手段と、前記物体の2次元画像を撮影するとともに、前記照明手段によって異なるパターンにより前記物体が照射された画像群を撮影する撮像手段と、前記物体の3次元形状を表すモデルを保持する保持手段とを備えた位置姿勢計測装置を制御するためのプログラムであって、
前記撮像手段による前記パターンが照射された物体の撮影と並行して、前記撮像手段によって撮影された2次元画像から特徴を検出して、前記保持手段に保持されているモデルと対応付ける第1の処理工程と、
前記パターンが照射された画像群から距離画像を生成し、前記生成した距離画像の画素と前記保持手段に保持されているモデルとを対応付ける第2の処理工程と、
前記第1の処理工程及び前記第2の処理工程による対応付けに基づいて前記物体の位置及び姿勢を導出する導出工程とをコンピュータに実行させることを特徴とするプログラム。 - 距離を計測するためのパターンを物体に照射する照明手段と、前記物体の2次元画像を撮影するとともに、前記照明手段によって異なるパターンにより前記物体が照射された画像群を撮影する撮像手段と、前記物体の3次元形状を表すモデルを保持する保持手段とを備えた位置姿勢計測装置を制御するためのプログラムであって、
前記撮像手段による前記パターンが照射された物体の撮影と並行して前記撮像手段によって撮影された2次元画像から前記物体の位置及び姿勢を推定し、さらに、前記2次元画像から特徴を検出して、前記保持手段に保持されているモデルと対応付ける第1の処理工程と、
前記パターンが照射された画像群から距離画像を生成し、前記生成した距離画像の画素と前記保持手段に保持されているモデルとを対応付ける第2の処理工程と、
前記第1の処理工程及び前記第2の処理工程による対応付けに基づいて前記物体の位置及び姿勢を導出する導出工程とをコンピュータに実行させることを特徴とするプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014003598A JP2015132523A (ja) | 2014-01-10 | 2014-01-10 | 位置姿勢計測装置、位置姿勢計測方法及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014003598A JP2015132523A (ja) | 2014-01-10 | 2014-01-10 | 位置姿勢計測装置、位置姿勢計測方法及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015132523A true JP2015132523A (ja) | 2015-07-23 |
Family
ID=53899833
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014003598A Pending JP2015132523A (ja) | 2014-01-10 | 2014-01-10 | 位置姿勢計測装置、位置姿勢計測方法及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2015132523A (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106524909A (zh) * | 2016-10-20 | 2017-03-22 | 北京旷视科技有限公司 | 三维图像采集方法及装置 |
JP2020148625A (ja) * | 2019-03-13 | 2020-09-17 | 富士通株式会社 | 画像処理装置、画像処理方法、及び画像処理プログラム |
WO2020196513A1 (ja) * | 2019-03-28 | 2020-10-01 | 株式会社デンソー | 物体検出装置 |
-
2014
- 2014-01-10 JP JP2014003598A patent/JP2015132523A/ja active Pending
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106524909A (zh) * | 2016-10-20 | 2017-03-22 | 北京旷视科技有限公司 | 三维图像采集方法及装置 |
CN106524909B (zh) * | 2016-10-20 | 2020-10-16 | 北京旷视科技有限公司 | 三维图像采集方法及装置 |
JP2020148625A (ja) * | 2019-03-13 | 2020-09-17 | 富士通株式会社 | 画像処理装置、画像処理方法、及び画像処理プログラム |
JP7188201B2 (ja) | 2019-03-13 | 2022-12-13 | 富士通株式会社 | 画像処理装置、画像処理方法、及び画像処理プログラム |
WO2020196513A1 (ja) * | 2019-03-28 | 2020-10-01 | 株式会社デンソー | 物体検出装置 |
JP2020165679A (ja) * | 2019-03-28 | 2020-10-08 | 株式会社デンソー | 物体検出装置 |
JP7095640B2 (ja) | 2019-03-28 | 2022-07-05 | 株式会社デンソー | 物体検出装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11117262B2 (en) | Intelligent robots | |
US20200096317A1 (en) | Three-dimensional measurement apparatus, processing method, and non-transitory computer-readable storage medium | |
JP5839971B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP5567908B2 (ja) | 3次元計測装置、その計測方法及びプログラム | |
JP6180087B2 (ja) | 情報処理装置及び情報処理方法 | |
JP6324025B2 (ja) | 情報処理装置、情報処理方法 | |
JP6370038B2 (ja) | 位置姿勢計測装置及び方法 | |
JP6317618B2 (ja) | 情報処理装置およびその方法、計測装置、並びに、作業装置 | |
JP2011027623A (ja) | 位置姿勢計測方法及び装置 | |
JP6677522B2 (ja) | 情報処理装置、情報処理装置の制御方法およびプログラム | |
US9914222B2 (en) | Information processing apparatus, control method thereof, and computer readable storage medium that calculate an accuracy of correspondence between a model feature and a measurement data feature and collate, based on the accuracy, a geometric model and an object in an image | |
JP6626338B2 (ja) | 情報処理装置、情報処理装置の制御方法、およびプログラム | |
JP2016170050A (ja) | 位置姿勢計測装置、位置姿勢計測方法及びコンピュータプログラム | |
JP6180158B2 (ja) | 位置姿勢計測装置、位置姿勢計測装置の制御方法、およびプログラム | |
JP5698815B2 (ja) | 情報処理装置、情報処理装置の制御方法及びプログラム | |
JP6040264B2 (ja) | 情報処理装置、情報処理装置の制御方法、およびプログラム | |
JP2015132523A (ja) | 位置姿勢計測装置、位置姿勢計測方法及びプログラム | |
US20230123629A1 (en) | 3d computer-vision system with variable spatial resolution | |
US20240003675A1 (en) | Measurement system, measurement device, measurement method, and measurement program | |
JP2020071034A (ja) | 三次元計測方法、三次元計測装置、及び、ロボットシステム | |
JP2017162449A (ja) | 情報処理装置、情報処理装置の制御方法およびプログラム | |
JP6766229B2 (ja) | 位置姿勢計測装置及び方法 | |
JP6285765B2 (ja) | 情報処理装置、情報処理方法 | |
JP2021091070A (ja) | ロボット制御装置 |