JP6180086B2 - 情報処理装置及び情報処理方法 - Google Patents

情報処理装置及び情報処理方法 Download PDF

Info

Publication number
JP6180086B2
JP6180086B2 JP2012153754A JP2012153754A JP6180086B2 JP 6180086 B2 JP6180086 B2 JP 6180086B2 JP 2012153754 A JP2012153754 A JP 2012153754A JP 2012153754 A JP2012153754 A JP 2012153754A JP 6180086 B2 JP6180086 B2 JP 6180086B2
Authority
JP
Japan
Prior art keywords
orientation
image
robot
update
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012153754A
Other languages
English (en)
Other versions
JP2013036987A (ja
Inventor
圭祐 立野
圭祐 立野
小竹 大輔
大輔 小竹
内山 晋二
晋二 内山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012153754A priority Critical patent/JP6180086B2/ja
Publication of JP2013036987A publication Critical patent/JP2013036987A/ja
Application granted granted Critical
Publication of JP6180086B2 publication Critical patent/JP6180086B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/37425Distance, range
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40548Compare measured distances to obstacle with model of environment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は情報処理装置及び情報処理方法に関し、特に、3次元形状が既知である物体の位置及び姿勢を計測するために用いて好適な技術に関する。
近年、これまで人間が行っていた工業製品の組立のような複雑なタスクをロボットが代わりに行うようになりつつある。ロボットによる工業製品の組立では、ハンドなどのエンドエフェクタによって部品を把持するために、部品とロボット(ハンド)との間の相対的な位置及び姿勢を高精度に計測する必要がある。高精度に物体の位置姿勢を計測できる技術として、カメラから得られる2次元画像(濃淡画像・カラー画像)と距離センサから得られる距離画像を同時に利用して位置姿勢を推定する技術が、以下に示す文献で開示されている。
非特許文献1では、時系列的に入力される2次元画像と距離画像に対し、2次元画像上の特徴を奥行きが不定な3次元の点として扱う。そして、2次元画像上の特徴と3次元モデルとの誤差、距離画像中の3次元点と3次元モデルとの誤差が小さくなるように、カルマンフィルタを用いて物体の位置及び姿勢を更新する手法が開示されている。
特開2005−201824号公報
Y. Hel‐Or and M. Werman, "Pose estimation by fusing noisy data of different dimensions, " IEEE Transactions on Pattern Analysis and Machine Intelligence, vol.17,no.2, pp.195−201, 1995.
従来手法である2次元画像と距離画像を併用する物体位置姿勢推定技術は、撮像装置が自由運動することを想定した手法であるため、時系列的に入力される計測データ間の相対幾何関係は未知であるものとして推定を行っていた。そのため、撮像時刻間に撮像装置が大幅に移動するような場合には、安定性が損なわれる、または、推定精度が低下するなどの問題が発生していた。
一方、ロボットアーム上に撮像装置を設置して当該装置を移動させながら物体を計測する場合。あるいは、ロボットアームが把持して移動している物体を固定した撮像装置で計測するような場合には、撮像時刻間における撮像装置または計測対象物体の移動を観測する情報として、ロボットのモーション情報を参照することが可能である。
ロボットによるモーション情報は、ロボットの制御における繰り返し精度に基づく誤差やキャリブレーション精度に基づく誤差などの誤差要因を含みながらも、位置姿勢推定に利用する情報として確度の高い有用な情報である。しかし、従来手法では、ロボットのモーション情報が得られる場合においても、ロボットモーションを観測情報として有効に利用することはできなかった。
また、単純にモーション情報を利用する方策としては、現状の概略位置姿勢に、モーション情報より得られた位置姿勢差分を加えるなどして位置姿勢を推定する技術として、例えば特許文献1にて提案されているモーションステレオと呼ばれる技術が公知としてある。
しかし、前述したように、ロボットモーションの情報も一定のあいまい性を含んだ情報であるため、そのあいまい性を考慮した上で、位置姿勢の更新を行えることが望ましい。本発明は前述の問題点に鑑み、計測装置と計測対象物体との間の位置または/及び姿勢の関係があいまい性を含んだ場合であっても、高精度に物体の位置姿勢を計測できるようにすることを目的とする。
本発明の情報処理装置は、可動軸を有するロボットに搭載された撮像装置を用いて被測定物体の位置姿勢を推定する情報処理装置であって、前記被測定物体の幾何的特徴を表す3次元形状モデルのデータを保存する3次元形状モデル保存手段と、前記被測定物体を撮像した画像を取得する画像入力手段と、前記撮像装置と前記被測定物体との間の相対的な概略位置姿勢を入力する概略位置姿勢入力手段と、前記概略位置姿勢をもとにして、前記画像に対して前記3次元形状モデルを当てはめることで、前記概略位置姿勢を更新する第1の位置姿勢更新手段と、前記ロボットの前記可動軸の情報に基づいて、前記撮像装置が前記被測定物体を撮像した時刻、または前回の位置姿勢差分情報の取得時刻以降に前記撮像装置が移動した位置姿勢差分量を取得する位置姿勢差分情報入力手段と、前記第1の位置姿勢更新手段による更新後の位置姿勢を、前記位置姿勢差分量に基づいて更新する第2の位置姿勢更新手段と、を備えることを特徴とする。
本発明によれば、2次元画像または距離画像の撮像間において計測対象物体または計測装置の移動に伴うロボットのモーション情報が得られる場合、2次元画像と距離画像に加え、撮像時刻間におけるロボットのモーション情報も観測情報として併用するようにした。これにより、高精度な対象物体の位置姿勢推定を行うことが可能となる。
本発明の実施形態における情報処理装置の構成を示す図である。 ロボットアームと撮像装置、計測対象部品との関係を説明する図である。 位置姿勢推定方法の処理手順を示すフローチャートである。
以下、添付図面を参照して本発明の好適な実施形態について詳細に説明する。
[第1の実施形態:ハンドアイロボット系による実施形態]
本実施形態では、本発明の情報処理装置を、図2(a)に示すような撮像装置が先端に装着されたロボットアームが移動しながら、固定された計測対象物体50を撮像するシーンにおいて、物体位置姿勢推定手法に適用した場合について説明する。
本実施形態では、1回の計測は、濃淡画像撮像、距離画像撮像、ロボットモーションの取得という順番で行う。まず、画像(濃淡画像もしくは距離画像)の計測においては、取得される度に画像に対する3次元形状モデルの当てはめに基づく、計測対象物体(被測定物体)50の位置姿勢更新を行う。
そして、ロボットアームが移動することによって発生する、撮像間における撮像装置の位置姿勢差分量をロボットアームのモーション情報から取得し、モーション情報に基づいた計測対象物体50の位置姿勢更新を行う。濃淡画像・距離画像の情報に加え、ロボットのモーションに基づく情報も用いて、計測対象物体50の位置姿勢の更新処理を行うことで、計測対象物体50の位置姿勢の推定を高精度に行う。
図1は、本発明の実施形態に係わる情報処理装置1の構成の一例を示す図である。情報処理装置1は3次元形状モデル保存部110と、画像入力部120と、概略位置姿勢入力部130と、位置姿勢差分情報入力部140と、第1の位置姿勢更新部150、第2の位置姿勢更新部160とを具備して構成される。
また、3次元形状モデル保存部110は、計測対象物体の幾何的特徴を表す3次元形状モデルのデータを保存し、第1の位置姿勢更新部150に接続されている。2次元画像撮像装置20は、画像入力部120に接続されている。距離画像撮像装置30は、画像入力部120に接続されている。ロボット40は、位置姿勢差分情報入力部140に接続されている。なお、本実施形態では、3次元形状モデル保存部110に保存された3次元形状モデルデータ10が、現実に撮像される計測対象物体50の形状に即していることが情報処理装置1を適用できる条件となる。
次に、情報処理装置1を構成する各部について説明する。
3次元形状モデルデータ10(以下、3次元形状モデルと呼称する)は、計測対象となる物体(以下、計測対象物体50、又は単に物体と呼ぶ場合もある)の形状を表す3次元幾何情報である。3次元形状モデル10は、点の集合や各点を結んで構成される面の情報、面を構成する線分の情報によって定義される。3次元形状モデル10は、3次元形状モデル保存部110に保存され、第1の位置姿勢更新部150に入力される。
2次元画像撮像装置20は、通常の2次元画像を撮影するカメラである。撮影される2次元画像は濃淡画像であってもよいしカラー画像であってもよい。本実施形態では2次元画像撮像装置20は濃淡画像を出力する。2次元画像撮像装置20が撮影する画像は画像入力部120を介して情報処理装置1に入力される。
カメラの焦点距離や主点位置、レンズ歪みパラメータなどの内部パラメータは、使用する機器の仕様を参照するか、または、[R. Y. Tsai, "A versatile camera calibration technique for high−accuracy 3D machine vision metrology using off−the−shelf TV cameras and lenses, " IEEE Journal of Robotics and Automation, vol.RA−3, no.4, 1987.]で開示される方法によって事前にキャリブレーションしておく。
距離画像撮像装置30は、計測対象である物体表面上の点の3次元情報を計測する距離データ計測部として機能するものであり、本実施形態においては、距離画像撮像装置30として距離画像を出力する距離センサを用いる。距離画像は、各画素が奥行きの情報を持つ画像である。本実施形態では、距離センサとしては、波長の異なる色IDを付与したマルチスリットラインを対象に照射、その反射光をカメラで撮像して三角測量によって距離計測を行うワンショットアクティブ式のものを利用する。
しかしながら、距離センサはこれに限るものではなく、光の飛行時間を利用するTime−of−flight方式であってもよい。また、ステレオカメラが撮影する画像から三角測量によって各画素の奥行きを計算するパッシブ式であってもよい。その他、距離画像を計測するものであればいかなるものであっても本発明の本質を損なうものではない。
距離画像撮像装置30が計測した距離画像は、画像入力部120を介して情報処理装置1に入力される。また、距離画像撮像装置30と2次元画像撮像装置20の光軸は一致しており、2次元画像撮像装置20が出力する濃淡画像の各画素と、距離画像撮像装置30が出力する距離画像の各画素の対応は既知であるとする。
ロボット40は、回転または並進移動軸からなる可動軸を複数有し、2次元画像撮像装置20及び距離画像撮像装置30からなる撮像装置の位置姿勢を変更するための可動機器である。以下、2次元画像撮像装置20と距離画像撮像装置30を合わせた機器を撮像装置230と呼称する。本実施形態では、アーム先端に撮像装置を装着した、6軸の回転可動軸により構成される6自由度ロボットアームを用いる。
ロボット40の6軸可動軸の情報は、位置姿勢差分情報入力部140を介して、情報処理装置1に入力される。アーム先端に装着された撮像装置230の、アーム先端から撮像装置230までの位置姿勢は、撮像装置230のオフセット位置姿勢としてあらかじめ算出しておき、以後変化しないものとして保持する。撮像装置230の位置姿勢は、アーム先端の位置姿勢からオフセット位置姿勢をかけることで算出できる。
なお、ロボット40として用いる機器はこれに限るものではく、例えば、7軸回転軸を有する垂直多関節型ロボットであってもよいし、スカラ型ロボットやパラレルリンクロボットであってもよい。その他、回転または並進移動軸からなる可動軸を複数有し、モーション情報が取得できる限り、いかなる形式のロボットであってもよい。
概略位置姿勢入力部130は、撮像装置230に対する物体の位置及び姿勢の概略値を入力する。本実施形態では、情報処理装置1は時間軸方向に連続して計測を行うものとして、前回(前時刻)の計測値を概略の位置及び姿勢として用いる。しかしながら、位置及び姿勢の概略値の入力方法はこれに限るものではない。
例えば、様々な姿勢で撮像した対象物体の画像をテンプレートとして保持しておき、入力する画像に対してテンプレートマッチングを行うことによって、対象物体の大まかな位置と姿勢を推定してもよい。あるいは、他のセンサによる物体の位置及び姿勢の計測が可能である場合には、該センサによる出力値を位置及び姿勢の概略値として用いてもよい。
センサは、例えばトランスミッタが発する磁界を物体に装着するレシーバで検出することにより位置及び姿勢を計測する磁気式センサであってもよい。また、物体上に配置されたマーカをシーンに固定されたカメラによって撮影することにより位置及び姿勢を計測する光学式センサであってもよい。その他、6自由度の位置及び姿勢を計測するセンサであればいかなるセンサであってもよい。また、物体の置かれているおおよその位置や姿勢があらかじめわかっている場合にはその値を概略値として用いる。
位置姿勢差分情報入力部140は、2次元画像または距離画像の撮像時刻、または、ロボット40からの位置姿勢差分情報の取得時刻以降の間に、ロボット40が移動した位置姿勢差分量を入力する。本実施形態では、ロボット40内の制御モジュールからアーム先端の位置及び姿勢が直接取得できる場合を前提として、撮像時刻間のアーム先端位置姿勢の差分から位置姿勢差分量を算出する。
しかしながら、撮像時刻間の撮像装置230の移動量を算出する方法は、これに限るものでない。例えば、ロボット40の可動軸に合わせて装着されたロータリーエンコーダから各軸回転量を取得する。そして、各軸回転量とロボット40のリンク長さから、順運動学計算によりアーム先端位置の位置及び姿勢を算出することにより、アーム先端に設置された撮像装置230の位置姿勢差分量を計算してもよい。撮像時刻間に移動するアーム先端の位置姿勢差分量が算出できる限り、いずれの手法でもよい。
第1の位置姿勢更新部150では、2次元画像撮像装置20及び距離画像撮像装置30により撮像された濃淡画像または距離画像に対して、3次元形状モデル保存部110に保存された3次元形状モデル10を対応付ける。そして、得られた観測データを用いて、計測対象物体50の位置及び姿勢の概略値を基に、計測対象物体50の位置及び姿勢を更新する。第1の位置姿勢更新部150は、2次元画像による概略位置姿勢の更新と、距離画像による概略位置姿勢の更新とを交互に行う。処理の詳細については後述する。
第2の位置姿勢更新部160では、第1の位置姿勢更新部150により更新された計測対象物体50の位置及び姿勢を基に、位置姿勢差分情報入力部140により取得された位置姿勢差分情報を用いて、計測対象物体50の位置及び姿勢を更新する。処理の詳細については後述する。
以上が、情報処理装置1の構成の一例についての説明である。なお、情報処理装置1には、コンピュータが内蔵されている。コンピュータには、CPU等の主制御手段、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disk Drive)等の記憶手段が具備される。また、コンピュータにはその他、ボタンやディスプレイ又はタッチパネル等の入出力手段、ネットワークカード等の通信手段等も具備されていてもよい。なお、これら各構成部は、バス等により接続され、主制御手段が記憶手段に記憶されたプログラムを実行することで制御される。
次に、本実施形態における位置姿勢推定方法の処理手順について説明する。図3は、本実施形態における位置姿勢推定方法の処理手順を示すフローチャートである。
まず、S301では初期化を行う。初期化では、概略位置姿勢入力部130により、濃淡画像撮像時刻における撮像装置230と物体との相対的な位置姿勢の概略値を取得する。本実施形態では、前述したように、前の時刻において計測された位置及び姿勢を、計測対象物体50の概略位置姿勢として用いる。
次に、S302では濃淡画像の撮像を行う。2次元画像撮像装置20から濃淡画像を撮像する。濃淡画像の撮像が終了したら、S302の処理を終了し、S303に進む。
S303では、第1の位置姿勢更新部150により、S301で入力された計測対象物体50の概略位置姿勢を元に、S302において入力された濃淡画像に対して、3次元形状モデル10が当てはまるように、計測対象物体50の位置姿勢の更新処理を行う。以下、S303における濃淡画像による位置姿勢更新処理について詳細を述べる。
まず、計測対象物体50の概略位置姿勢に基づいて、S302において撮像された濃淡画像上のエッジと3次元形状モデル10との対応付けを行う。計測対象物体50の概略位置姿勢と校正済みの2次元画像撮像装置20の内部パラメータを用いて、3次元形状モデル10の各線分を画像へ投影し、画像上で検出されたエッジと、3次元形状モデル10とを対応付けする。エッジが、各制御点に対応して複数検出された場合には、複数検出されたエッジのうち、投影された線分に対して画像上で最も近いエッジを対応付ける。
次に、算出した対応データに基づき、3次元形状モデル10中の各線分と濃淡画像上のエッジとの濃淡画像上の誤差が小さくなるように、計測対象物体50の概略位置姿勢を元に、位置姿勢の更新処理を行う。本ステップでは、先に算出した対応データに基づき、濃淡画像上に検出されたエッジの座標を観測データとして用いた拡張カルマンフィルタによるフィルタリング処理により、位置姿勢の更新を行う。以下、拡張カルマンフィルタに基づく計測対象物体50の位置姿勢更新処理について詳細を述べる。
まず、カルマンフィルタの状態空間モデルは、次の状態の予測を行う状態遷移方程式と、状態と観測の関係を表す観測方程式からなる。ここで、本実施形態では、カルマンフィルタによる状態の推定を、フレーム内における対応データによる位置姿勢更新にのみ用いるものとし、フレーム間の時系列的フィルタリングは行わないものとして定式化を行う。計測対象物体50の状態には特定の運動モデルを仮定せず、静止モデルを適用し、状態ベクトルも位置及び姿勢の6自由度のみを保持する。まず、状態遷移方程式は以下の形で定義される。
Figure 0006180086
ここで、xiは状態ベクトル、Fは状態遷移行列、wはシステムノイズ、iはカルマンフィルタに入力する観測データ(濃淡画像上で検出されたエッジ)のインデックスを表す。システムノイズwの誤差共分散Σwは更新間において混入する想定外の誤差を表すパラメータであり、一般的にチューニングパラメータとなる。本実施形態では、システムノイズの共分散行列は、零行列として与えるものとする。次に、状態ベクトルは、以下の位置及び姿勢からなる6自由度で定義する。
Figure 0006180086
ここで、tx、ty、tzはそれぞれx軸、y軸、z軸方向の位置、wx、wy、wzはそれぞれx軸、y軸、z軸に沿った回転を表す。また、状態ベクトルは位置・姿勢のみを保持するため、状態遷移行列は単位行列になる。一方、観測方程式は、以下の形で定義される。
Figure 0006180086
ここで、yiは観測ベクトル(濃淡画像上で検出されたエッジの座標)、h(xi)は、xiの状態における画像による観測(すなわち、3次元形状モデル10の濃淡画像上への投影)を表す式、vは、観測ノイズを表す。観測ノイズの共分散行列Σvは観測ベクトルのあいまい性を定義するパラメータである。本ステップの場合、濃淡画像中に検出されたエッジ座標のあいまい性を表している。検出座標のあいまい性は、濃淡画像の撮像環境やエッジ検出方法に大きく影響されるパラメータである。本実施形態では、平均0、標準偏差0.5画素のノイズが乗るものとして観測ノイズの共分散行列Σvを定義する。
拡張カルマンフィルタの処理では、以上に定義した状態遷移方程式と観測方程式に基づいて予測と更新を繰り返すことで、状態ベクトル(すなわち、計測対象物体50の位置姿勢)の更新を行う。以下、予測ステップと更新ステップの処理の詳細について、述べる。まず、予測ステップでは、状態ベクトルとその誤差共分散Piの予測を行う。状態ベクトルの予測は、以下の式により処理を行う。
Figure 0006180086
状態遷移行列が単位ベクトルのため、予測ステップにおいて状態ベクトルの値は変化しない。状態ベクトルの誤差共分散Piの予測処理は、先に定義したシステムノイズの誤差共分散Σwを用いて、以下の式で行う。
Figure 0006180086
ここで、予測処理の最初期の段階では、誤差共分散行列Piの初期値を与える必要がある。状態ベクトルの誤差共分散Piは、現在の状態ベクトルがどれだけあいまい性を持つかを表すパラメータであるため、その初期値の設定により、以後の観測データによる更新量が大きく左右されることになる。
定性的には、誤差共分散が大きいと観測データによる更新が大きく、誤差共分散が小さいと観測データによる更新が小さく行われる。本実施形態では、誤差共分散の初期値P0の設定では、画像撮像間に発生する計測対象物体50の想定外のずれを考慮し、平均0、位置に関する標準偏差が計測対象物体50のサイズ10%、姿勢に関する標準偏差が10度の範囲であいまい性があるとして設定する。
次に、更新ステップでは、観測データに基づく状態ベクトルとその誤差行分散の更新を行う。状態ベクトルの更新は以下の式により処理が行われる。
Figure 0006180086
Kiは観測データから算出される誤差にかかるカルマンゲインである。カルマンゲインは、先に定義した観測ノイズの共分散行列Σvを用いて、以下の式により算出する。
Figure 0006180086
ここで、Hは、画像による観測を表す式h(x)をxiにより偏微分したものであり、一般的には画像ヤコビアンと呼ばれる。画像による観測を表す式h(x)とエッジによる誤差計量方法及びエッジに基づく画像ヤコビアンの導出に関しては、本発明の本質に関わるものではないため、詳細な説明は省略する。処理の詳細については、[立野、小竹、内山、"実部品のビンピッキングのための距離・濃淡画像を最尤に統合する高精度高安定なモデルフィッティング手法"、第13回画像の認識・理解シンポジウム(MIRU2010)、OS5−1、2010]を参照されたい。また、状態ベクトルの誤差共分散行列の更新は以下の式により処理が行われる。
Figure 0006180086
以上に示す予測ステップと更新ステップの処理を、得られた観測データ(濃淡画像上で検出されたエッジ)の分だけ繰り返すことで、計測対象物体50の位置姿勢の更新を行う。全ての観測データによる更新処理が終了したら、S303の処理を終了し、S304に進む。
S304では、距離画像撮像装置30からの距離画像の取得を行う。本実施形態では、距離画像は撮像装置230から計測対象物体50の表面までの距離が格納されているものとする。前述のように、2次元画像撮像装置20と距離画像撮像装置30の光軸は一致しているため、濃淡画像の各画素と距離画像の各画素の対応は既知である。
次に、S305では、第1の位置姿勢更新部150により、S303で更新された計測対象物体50の位置姿勢を元に、S304において入力された距離画像に対して、3次元形状モデル10が当てはまるように、計測対象物体50の位置姿勢の更新処理を行う。以下、S305における距離画像による位置姿勢更新処理について詳細を述べる。
まず、S303で更新された計測対象物体50の位置姿勢に基づいて、S304において計測された距離画像中の3次元点群と、3次元形状モデル10との対応付けを行う。計測対象物体50の位置姿勢と校正済みの距離画像撮像装置30の内部パラメータを用いて、3次元形状モデル10を構成する各面を、距離画像上に投影する。そして、投影した各面に対応する距離画像上の距離点群を、各面に対応する3次元点として保持する。
次に、検出した対応データに基づき、3次元形状モデル10中の各面に対応する距離画像中の3次元点との3次元空間中の誤差が小さくなるように、S303で更新された計測対象物体50の位置姿勢を元に、位置姿勢の更新処理を行う。本ステップでは、検出した対応データに基づき、3次元モデル中の各面に対応した距離画像上の距離点の座標を観測データとして用いた拡張カルマンフィルタによるフィルタリング処理を行うことにより、位置姿勢の更新を行う。本ステップで用いる、状態ベクトルxjは、S303において更新に用いた状態ベクトルxiを継続して用いるものとする。
一方、S304における位置姿勢推定後に計測対象物体50に未知のずれが発生することを考慮し、誤差共分散Pjに関しては、S303において記述した誤差共分散の初期化を行う。本処理に関する、処理の大枠は、S303と同様である。S303における処理との違いは、観測値の誤差共分散行列Σvと、観測を表す式h(x)、計測データの誤差計量方法及び計測データに基づく画像ヤコビアンの4点である。
まず、観測ノイズの誤差共分散Σvは、距離画像中の距離点群の観測におけるあいまい性を表す。距離点群のあいまい性は、距離画像撮像装置30の距離撮像方式や撮像環境に大きく影響するパラメータである。本実施形態では、距離点群の観測値の誤差共分散Σvは、平均0、標準偏差1mmのノイズが乗るものとして設定する。
また、h(x)は3次元空間中の観測を表す式に、観測データの誤差計量方法は、3次元点と3次元面に関する誤差計量に、画像ヤコビアンは、3次元面と点に基づく画像ヤコビアンに置き換えて処理を行う。
以上に示すh(x)と誤差計量方法及び画像ヤコビアンの導出に関しては、本発明の本質に関わるものではないため、詳細な説明は省略する。処理の詳細については、[立野、小竹、内山、"実部品のビンピッキングのための距離・濃淡画像を最尤に統合する高精度高安定なモデルフィッティング手法"、第13回画像の認識・理解シンポジウム(MIRU2010)、OS5−1、2010]を参照されたい。S303と同様に、得られた観測データ(3次元形状モデル10中の各面に対応した距離画像上の距離点群)の分、予測ステップと更新ステップの処理を繰り返すことで、計測対象物体50の位置姿勢の更新を行う。全ての観測データによる更新処理が終了したら、S305の処理を終了し、S306に進む。
S306では、位置姿勢差分情報入力部140から、S304における距離画像撮像以降に、撮像装置230が移動した位置姿勢差分量の算出を行う。まず、位置姿勢差分情報入力部140を介し、ロボット40内の制御モジュールからロボットアーム先端の位置姿勢を取得する。そして、ロボットアーム先端から撮像装置230までの位置姿勢オフセットをかけることで、S304における距離画像の撮像時刻と、現時刻(S306における時刻)の撮像装置230の位置姿勢を計算する。そして、両時刻における撮像装置230の位置姿勢の差分を求めることで、距離画像撮像時刻以降に撮像装置230が移動した位置姿勢差分量を算出する。
次に、S307では、第2の位置姿勢更新部160により、S305で更新された計測対象物体50の位置姿勢を元に、S306において算出された位置姿勢差分量に基づいて、計測対象物体50の位置姿勢の更新処理を行う。以下、位置姿勢差分量に基づく位置姿勢更新処理について詳細を述べる。
本ステップでは、S305で更新された計測対象物体50の位置姿勢を元に、S306において算出された位置姿勢差分量とそのあいまい性に基づいて、位置姿勢の更新処理を行う。まず、状態ベクトルxは、S303において更新に用いた状態ベクトルxjを継続して用いるものとする。
一方、S306における位置姿勢推定後に計測対象物体50に未知のずれが発生することを考慮し、誤差共分散Pに関しては、S303において記述した誤差共分散の初期化を行う。本処理に関する、処理の流れの大枠は、S303と同様である。大きく異なる点としては、観測方程式が線形方程式になるという点である。本ステップにおける観測方程式は、以下の形で定義される。
Figure 0006180086
ここで、yは観測ベクトル(位置姿勢差分行列による更新結果の位置及び姿勢)、Hは観測行列(単位行列)、vは、観測ノイズを表す。ここでの観測ノイズの共分散Σvは、観測ベクトル(すなわち、S306において算出された位置姿勢差分量)のあいまい性を定義するパラメータである。本実施形態においては、ロボットアームの先端位置姿勢の差分として位置姿勢差分量を求めているため、そのあいまい性は、ロボットアームの先端位置姿勢のあいまい性と同義となる。
ロボットアームの先端位置姿勢のあいまい性は、アーム剛性やギアのバックラッシュなどの機構的要因、モータの制御精度や機構的振動の抑制による影響などの制御的要因といった多様な要因によって発生する。定性的には、可動軸が多軸になるほど、可動軸の方向が同じ方向に重なるほど、そのあいまい性は高くなるといえる。
本実施形態では、位置及び姿勢の6自由度空間において等方誤差が乗ることを想定し、位置姿勢差分量のあいまい性は、平均0、標準偏差は、位置姿勢差分量の1%の範囲であいまい性があるものとして設定する。また、本ステップにおける更新式は、S303及びS305と同様である(式6)、(式7)、(式8)。ただし、(式7)及び(式8)におけるHに関しては、画像ヤコビアンではなく、(式9)における観測行列をそのまま用いる。
また、S303及びS305では、3次元形状モデル10に対応したエッジまたは距離点群の数だけ観測データがあったが、本ステップにおける観測データは、S306において算出された位置姿勢差分量のみである。そのため、1観測ベクトル分の予測ステップと更新ステップの処理を行って、計測対象物体50の位置姿勢の更新を行う。位置姿勢差分量に基づく更新処理が終了したら、S307の処理を終了し、S308に進む。
S308では、S307で推定された位置姿勢に基づいて、ロボット40に制御指令値を出力する。本実施形態では、S304において推定する前の計測対象物体50の位置姿勢と、S307における推定後の計測対象物体50の位置姿勢との差分を、ロボット座標系に変換することによって、ロボット40に出力する制御指令値を計算する。そして、制御指令値をロボット40の制御モジュールに出力することで、ロボット40のアーム先端を計測対象物体50へと移動させるべく、操作を行う。ロボット40への制御指令値を出力したら、S308の処理を終了し、S309に進む。
S309では、本位置姿勢推定処理の動作を終了する入力がなされたかどうかを判定する。入力された場合には終了し、入力されなかった場合にはS302に戻り、新たな画像を取得して再度位置姿勢算出を行う。
前述したように、本実施形態では、2次元画像または距離画像の撮像間において計測対象物体50または計測装置の移動に伴うロボット40のモーション情報が得られる場合において、次のようにした。すなわち、2次元画像と距離画像に加え、撮像時刻間におけるロボット40のモーション情報も観測情報として併用するようにした。これにより、高精度な対象物体の位置姿勢推定を行うことを可能とした。
[第1の変形例:観測データの取得順番は問わない例]
前述の実施形態では、観測データの取得順として、濃淡画像を撮影した後、距離画像を撮影し、その後、ロボット40のモーション情報を取得する事例について説明した。しかしながら、観測データの取得順は、特に制限があるものではなく、いずれの順に処理を行ってよい。
例えば、まずロボット40のモーション情報を取得・位置姿勢更新した後に、距離画像の撮像と位置姿勢更新処理を行ってもよい。また、濃淡画像を撮像・位置姿勢更新後に、ロボット40のモーション情報を取得・位置姿勢更新を行うなどの順番に処理を行っても特に問題はない。観測データの取得と位置姿勢更新の順番に関しては、特に制限はなく、いずれの順番で処理を行ってもよい。
[第2の変形例:濃淡画像または距離画像を用いた処理を省略してもよい例]
前述の実施形態では、濃淡画像と距離画像を両方撮像し、処理を行う場合について説明していた。しかし、本発明の情報処理装置は、濃淡画像と距離画像を両方撮影する場合に限るものではない。
例えば、距離画像のみが撮像される、あるいは、濃淡画像が撮像される場合でも、本発明の情報処理装置を適用できる。この場合、前述の実施形態から、濃淡画像または距離画像に関する処理が省略されるのみで、処理自体に変更はない。また、前述の第1の変形例で述べたとおり、画像の撮像とロボットモーション情報の取得との順番も、特に制限されるものではない。ロボットモーション情報の取得と、濃淡画像あるいは距離画像の撮像処理を行う限り、濃淡画像または距離画像の取得を省略することに特に制限は無く、いずれの方法をとってもよい。
[第3の変形例:撮像装置は固定、対象物体がロボットアームにより把持されて移動する場合の例]
前述の実施形態では、図2(a)に示したように、撮像装置230がロボットアーム先端に装着されて、ロボットアームの移動により撮像装置230の位置姿勢が変化する場面において、本発明の情報処理装置を適用する場合について説明した。しかし、本発明の情報処理装置の適用は、前述のケースに限るものでなく、例えば、図2(b)に示すように、撮像装置230は固定されており、ロボットアームによって把持された対象物体がアームの稼働に伴って移動する場合においても、同様に適用可能である。
この場合、S306において、位置姿勢差分情報入力部140から取得する位置姿勢移動差分情報は、前述の実施形態においては撮像時刻間の撮像装置230の位置姿勢移動差分情報であった。これに対し、本ケースでは、撮像時刻間の計測対象物体50の位置姿勢差分情報となる。ただし、本情報処理装置が算出する位置姿勢は、撮像装置230と計測対象物体50との相対的な位置姿勢であるため、処理自体は、前述の実施形態と変わりは無い。以上のように、本発明による情報処理装置は、撮像装置230が移動し計測対象物体50が固定される場合でも、撮像装置230が固定され計測対象物体50が移動する場合でも、いずれの場合においても適用することは可能であり、特に制限は無い。
[第4の変形例:位置姿勢推定処理は、カルマンフィルタに基づく手法に限らない例]
前述の実施形態では、観測データと概略位置姿勢に基づく位置姿勢の更新方法として、拡張カルマンフィルタ及びカルマンフィルタの枠組みに基づく処理を行っていた。しかし、位置姿勢更新処理の方法としてはこれに限るものではない。
例えば、非線形方程式に適用可能な非線形時系列フィルタとして、パーティクルフィルタを用いて更新処理を行ってもよい。この場合、拡張カルマンフィルタのような観測方程式の線形化を行わず、代わりに、ある一定範囲内でパーティクルと呼ばれる状態ベクトルの仮説に基づくランダムサンプリングを行うことで、尤もらしい状態ベクトルの更新処理を行う。以上に示すように、計測対象物体50の位置姿勢を更新する手法としては、観測データとそのあいまい性に基づいて位置姿勢の更新処理が行える手法である限り、手法の選択に特に制限はなく、いずれでもよい。
[第5の変形例(撮像装置移動量の取得はロボットのモーション情報に限らない例)]
前述の実施形態では、撮像時刻間に撮像装置230が移動した位置姿勢差分量を算出する方法として、撮像時刻間のロボット40のアーム先端位置姿勢の差分から位置姿勢差分量を算出する方法を述べた。しかし、撮像装置230の移動量を算出する手段はロボットのモーション情報を用いる方法に限るものでない。
例えば、撮像装置230に、磁気センサや超音波センサなど6自由度の位置及び姿勢を計測する物理センサを取り付け、それらより撮像時刻間の位置姿勢差分量を算出してもよい。また、撮像間における撮像装置230の移動が、回転運動のみに限定できる場面であれば、撮像装置230にジャイロセンサを取り付け、その回転差分量のみを計測してもよい。撮像時刻間の撮像装置230の位置姿勢差分量が算出できる限り、いずれの方法を用いてもよく、手段・機器の選択に特に制限はない。
[第6の変形例(ロボットによる対象物体操作を行う例)]
前述の実施形態では、ロボット40のアーム先端に装着された撮像装置により、固定された計測対象物体50の3次元位置姿勢の算出する方法について説明した。しかし、情報処理装置1は、対象物体の3次元位置姿勢の算出に限るものでなく、算出した位置姿勢を用いて、ロボット40により対象物体に対して作業を行ってもよい。
例えば、ロボット40のアーム先端に対象物体を把持することが可能なエンドエフェクタを装着し、対象物体に対して把持作業を行ってもよい。この場合、エンドエフェクタとしては、モータ駆動可能なハンドを用いてもよいし、空気圧で対象物体を吸着する吸着パッドを用いてもよく、対象物体に対する作業に応じて適切に選択する限り、選択に制限は特にない。ロボットアームとエンドエフェクタとの相対位置姿勢のキャリブレーション作業は本実施形態の実施に先立って公知の技術によって予め行われているものとする。
これによって、算出した計測対象物体の位置姿勢をパレットが置かれた空間に固定されたワークスペース座標系に変換することが可能になる。さらに、ワークスペース座標系で指定した位置姿勢にハンドが設定されるようにロボットを制御することが可能になる。エンドエフェクタによる対象物体に対する作業としては、先にあげた把持・吸着に限らず、計測対象物体50を他の物体へ組み付ける組付作業や対象物体の外観検査など、他の作業を行ってもよく、ロボット40による計測対象物体50への作業内容には、特に制限はない。
(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、前述した実施形態の機能を実現するソフトウェア(コンピュータプログラム)を、ネットワーク又は各種のコンピュータ読み取り可能な記憶媒体を介してシステム或いは装置に供給する。そして、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
1 情報処理装置、10 3次元形状モデルデータ、20 2次元画像撮像装置、30 距離画像撮像装置、40 ロボット、110 3次元形状モデル保存部、120 画像入力部、130 概略位置姿勢入力部、140 位置姿勢差分情報入力部、150 第1の位置姿勢更新部、160 第2の位置姿勢更新部

Claims (8)

  1. 可動軸を有するロボットに搭載された撮像装置を用いて被測定物体の位置姿勢を推定する情報処理装置であって、
    前記被測定物体の幾何的特徴を表す3次元形状モデルのデータを保存する3次元形状モデル保存手段と、
    前記被測定物体を撮像した画像を取得する画像入力手段と、
    前記撮像装置と前記被測定物体との間の相対的な概略位置姿勢を入力する概略位置姿勢入力手段と、
    前記概略位置姿勢をもとにして、前記画像に対して前記3次元形状モデルを当てはめることで、前記概略位置姿勢を更新する第1の位置姿勢更新手段と、
    前記ロボットの前記可動軸の情報に基づいて、前記撮像装置が前記被測定物体を撮像した時刻、または前回の位置姿勢差分情報の取得時刻以降に前記撮像装置が移動した位置姿勢差分量を取得する位置姿勢差分情報入力手段と、
    前記第1の位置姿勢更新手段による更新後の位置姿勢を、前記位置姿勢差分量に基づいて更新する第2の位置姿勢更新手段と、
    を備えることを特徴とする情報処理装置。
  2. 前記画像入力手段は、2次元画像及び/または距離画像を取得し、前記第1の位置姿勢更新手段は、前記2次元画像及び/または前記距離画像に対して、前記3次元形状モデルを当てはめることで、前記概略位置姿勢を更新することを特徴とする請求項1に記載の情報処理装置。
  3. 前記第1の位置姿勢更新手段は、前記2次元画像による概略位置姿勢の更新処理と、前記距離画像による概略位置姿勢の更新処理とを交互に行うことを特徴とする請求項2に記載の情報処理装置。
  4. 前記第1の位置姿勢更新手段における前記概略位置姿勢の更新処理は、非線形時系列フィルタを用い、前記第2の位置姿勢更新手段における前記概略位置姿勢の更新処理は、線形または非線形時系列フィルタを用いることを特徴とする請求項1〜3の何れか1項に記載の情報処理装置。
  5. 算出した被測定物体の位置姿勢に基づいて、回転及び/または並進移動軸からなる可動軸を有するロボットによって、被測定物体または撮像装置の位置及び/または姿勢を変更する位置姿勢操作手段をさらに有することを特徴とする請求項1〜の何れか1項に記載の情報処理装置。
  6. 可動軸を有するロボットに搭載された撮像装置を用いて被測定物体の位置姿勢を推定する情報処理方法であって、
    前記被測定物体の幾何的特徴を表す3次元形状モデルのデータを保存する3次元形状モデル保存工程と、
    前記被測定物体を撮像した画像を取得する画像入力工程と、
    前記撮像装置と前記被測定物体との間の相対的な概略位置姿勢を入力する概略位置姿勢入力工程と、
    前記概略位置姿勢をもとにして、前記画像に対して前記3次元形状モデルを当てはめることで、前記概略位置姿勢を更新する第1の位置姿勢更新工程と、
    前記ロボットの前記可動軸の情報に基づいて、前記撮像装置が前記被測定物体を撮像した時刻、または前回の位置姿勢差分情報の取得時刻以降に前記撮像装置が移動した位置姿勢差分量を取得する位置姿勢差分情報入力ステップと、
    前記第1の位置姿勢更新ステップにおける更新後の位置姿勢を、前記位置姿勢差分量に基づいて更新する第2の位置姿勢更新ステップと、
    を含むことを特徴とする情報処理方法。
  7. 可動軸を有するロボットに搭載された撮像装置を用いて被測定物体の位置姿勢を推定する情報処理方法の各工程をコンピュータに実行させるためのプログラムであって、
    前記被測定物体の幾何的特徴を表す3次元形状モデルのデータを保存する3次元形状モデル保存工程と、
    前記被測定物体を撮像した画像を取得する画像入力工程と、
    前記撮像装置と前記被測定物体との間の相対的な概略位置姿勢を入力する概略位置姿勢入力工程と、
    前記概略位置姿勢をもとにして、前記画像に対して前記3次元形状モデルを当てはめることで、前記概略位置姿勢を更新する第1の位置姿勢更新工程と、
    前記ロボットの前記可動軸の情報に基づいて、前記撮像装置が前記被測定物体を撮像した時刻、または前回の位置姿勢差分情報の取得時刻以降に前記撮像装置が移動した位置姿勢差分量を取得する位置姿勢差分情報入力工程と、
    前記第1の位置姿勢更新ステップにおける更新後の位置姿勢を、前記位置姿勢差分量に基づいて更新する第2の位置姿勢更新工程
    をコンピュータに実行させるためのプログラム。
  8. 請求項に記載のプログラムを記憶したことを特徴とするコンピュータ読み取り可能な記憶媒体。
JP2012153754A 2011-07-08 2012-07-09 情報処理装置及び情報処理方法 Active JP6180086B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012153754A JP6180086B2 (ja) 2011-07-08 2012-07-09 情報処理装置及び情報処理方法

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2011152158 2011-07-08
JP2011152158 2011-07-08
JP2012153754A JP6180086B2 (ja) 2011-07-08 2012-07-09 情報処理装置及び情報処理方法

Publications (2)

Publication Number Publication Date
JP2013036987A JP2013036987A (ja) 2013-02-21
JP6180086B2 true JP6180086B2 (ja) 2017-08-16

Family

ID=46851281

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012153754A Active JP6180086B2 (ja) 2011-07-08 2012-07-09 情報処理装置及び情報処理方法

Country Status (4)

Country Link
US (1) US9437005B2 (ja)
EP (1) EP2543482B1 (ja)
JP (1) JP6180086B2 (ja)
CN (1) CN102914293B (ja)

Families Citing this family (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5393318B2 (ja) * 2009-07-28 2014-01-22 キヤノン株式会社 位置姿勢計測方法及び装置
JP5839971B2 (ja) * 2010-12-14 2016-01-06 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
US9437005B2 (en) * 2011-07-08 2016-09-06 Canon Kabushiki Kaisha Information processing apparatus and information processing method
JP5469216B2 (ja) * 2012-07-31 2014-04-16 ファナック株式会社 バラ積みされた物品をロボットで取出す装置
EP2762831B1 (en) 2013-02-05 2020-04-29 Hexagon Technology Center GmbH Dynamical monitoring of a coordinate measuring machine using recursive filtering
JP6079333B2 (ja) * 2013-03-15 2017-02-15 株式会社リコー 校正装置、方法及びプログラム
JP6429466B2 (ja) * 2013-11-19 2018-11-28 キヤノン株式会社 画像処理装置およびその制御方法、撮像装置、プログラム
US10311595B2 (en) 2013-11-19 2019-06-04 Canon Kabushiki Kaisha Image processing device and its control method, imaging apparatus, and storage medium
JP6351243B2 (ja) * 2013-11-28 2018-07-04 キヤノン株式会社 画像処理装置、画像処理方法
JP6642968B2 (ja) * 2014-03-20 2020-02-12 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
JP6338421B2 (ja) 2014-03-31 2018-06-06 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、把持システムおよびプログラム
JP6363863B2 (ja) * 2014-04-15 2018-07-25 キヤノン株式会社 情報処理装置および情報処理方法
JP6317618B2 (ja) * 2014-05-01 2018-04-25 キヤノン株式会社 情報処理装置およびその方法、計測装置、並びに、作業装置
JP6415291B2 (ja) * 2014-12-09 2018-10-31 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
US9616569B2 (en) 2015-01-22 2017-04-11 GM Global Technology Operations LLC Method for calibrating an articulated end effector employing a remote digital camera
DE102015109612B4 (de) * 2015-06-16 2020-08-13 Carl Zeiss Industrielle Messtechnik Gmbh Koordinatenmessgerät und Verfahren zum Kalibrieren desselben mit einer Time-of-Flight-Kamera
CN106323213A (zh) * 2015-06-29 2017-01-11 上海宝钢工业技术服务有限公司 试样力学性能测试中试样长度的测量装置
SE1630035A1 (en) * 2016-02-26 2017-08-27 Katam Tech Ab Methods, devices and computer programs for positioning
JP6744747B2 (ja) * 2016-04-01 2020-08-19 キヤノン株式会社 情報処理装置およびその制御方法
JP6758903B2 (ja) * 2016-05-06 2020-09-23 キヤノン株式会社 情報処理装置、情報処理方法、プログラム、システム、および物品製造方法
CN109790723B (zh) 2016-07-15 2021-12-31 快砖知识产权私人有限公司 结合在交通工具中的砖块/砌块铺设机器
EP3485109B1 (en) 2016-07-15 2021-09-29 Fastbrick IP Pty Ltd Boom for material transport
NL2017599B1 (en) 2016-10-10 2018-04-16 Rijk Zwaan Zaadteelt En Zaadhandel Bv Method and system for picking up and collecting plant matter
JP6984130B2 (ja) * 2017-01-17 2021-12-17 オムロン株式会社 画像処理装置、制御システム、画像処理装置の制御方法、制御プログラム、および記録媒体
WO2018173178A1 (ja) * 2017-03-23 2018-09-27 株式会社Fuji ロボットシステム
NL2018630B9 (en) * 2017-03-31 2018-03-01 Pliant Holding B V Measuring attitude of constructions
JP6768155B2 (ja) * 2017-06-14 2020-10-14 三菱電機株式会社 状態推定装置
EP3649616A4 (en) 2017-07-05 2021-04-07 Fastbrick IP Pty Ltd POSITION AND ORIENTATION TRACKER IN REAL TIME
WO2019028075A1 (en) * 2017-08-01 2019-02-07 Enova Technology, Inc. INTELLIGENT ROBOTS
AU2018317941B2 (en) 2017-08-17 2023-11-09 Fastbrick Ip Pty Ltd Laser tracker with improved roll angle measurement
EP3669242A4 (en) 2017-08-17 2021-07-21 Fastbrick IP Pty Ltd COMMUNICATION SYSTEM FOR AN INTERACTION SYSTEM
WO2019071313A1 (en) 2017-10-11 2019-04-18 Fastbrick Ip Pty Ltd MACHINE FOR CARRYING OBJECTS AND CARROUSEL WITH SEVERAL COMPARTMENTS FOR USE WITH THE SAME
KR102075933B1 (ko) * 2017-10-30 2020-05-19 한국생산기술연구원 공구의 마모에 따라 가공부하를 조절하는 로봇 시스템 및 이를 이용한 가공부하 조절 방법
JP6936974B2 (ja) * 2017-12-19 2021-09-22 オムロン株式会社 位置姿勢推定装置、位置姿勢推定方法及びプログラム
JP7133926B2 (ja) 2018-01-15 2022-09-09 キヤノン株式会社 情報処理装置、システム、情報処理方法
JP7114907B2 (ja) * 2018-01-19 2022-08-09 コベルコ建機株式会社 先端アタッチメント判別装置
US10706505B2 (en) * 2018-01-24 2020-07-07 GM Global Technology Operations LLC Method and system for generating a range image using sparse depth data
JP7052564B2 (ja) * 2018-05-29 2022-04-12 オムロン株式会社 視覚センサシステム、制御方法およびプログラム
FI129250B (en) * 2018-07-12 2021-10-15 Novatron Oy Control system for controlling the machine tool
EP3910593A4 (en) * 2019-01-09 2022-01-19 Fuji Corporation IMAGE PROCESSING DEVICE, WORKING ROBOT, SUBSTRATE INSPECTION DEVICE AND SAMPLE INSPECTION DEVICE
DE102019100820A1 (de) 2019-01-14 2020-07-16 Lufthansa Technik Aktiengesellschaft Verfahren und Vorrichtung zur Inspektion schwer erreichbarer Komponenten
CN110017769A (zh) * 2019-03-12 2019-07-16 精诚工科汽车系统有限公司 基于工业机器人的零件检测方法及系统
JP7275759B2 (ja) * 2019-03-28 2023-05-18 セイコーエプソン株式会社 物体検出方法、物体検出装置およびロボットシステム
EP4013701B1 (en) * 2019-08-16 2024-06-05 Abb Schweiz Ag Method and apparatus for determining object location
WO2021131959A1 (ja) * 2019-12-27 2021-07-01 ソニーグループ株式会社 情報処理装置、情報処理方法及び情報処理プログラム
US20230032261A1 (en) * 2020-01-16 2023-02-02 Omron Corporation Program generation apparatus, program generation method, and computer-readable storage medium storing a generation program
JP2022138329A (ja) * 2021-03-10 2022-09-26 オムロン株式会社 認識装置、ロボット制御システム、認識方法、およびプログラム
JPWO2023062706A1 (ja) * 2021-10-12 2023-04-20

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5988862A (en) * 1996-04-24 1999-11-23 Cyra Technologies, Inc. Integrated system for quickly and accurately imaging and modeling three dimensional objects
US7003134B1 (en) * 1999-03-08 2006-02-21 Vulcan Patents Llc Three dimensional object pose estimation which employs dense depth information
GB2390792B (en) * 2002-07-08 2005-08-31 Vision Rt Ltd Image processing system for use with a patient positioning device
JP4532856B2 (ja) 2003-07-08 2010-08-25 キヤノン株式会社 位置姿勢計測方法及び装置
JP4401727B2 (ja) 2003-09-30 2010-01-20 キヤノン株式会社 画像表示装置及び方法
CA2540084A1 (en) * 2003-10-30 2005-05-12 Nec Corporation Estimation system, estimation method, and estimation program for estimating object state
JP4021413B2 (ja) 2004-01-16 2007-12-12 ファナック株式会社 計測装置
CN101522377B (zh) 2006-10-20 2011-09-14 株式会社日立制作所 机械手
DE102008001664B4 (de) * 2008-05-08 2015-07-30 Deutsches Zentrum für Luft- und Raumfahrt e.V. Medizinischer Roboter und Verfahren zur Erfüllung der Performanceanforderung eines medizinischen Roboters
JP5553493B2 (ja) * 2008-08-27 2014-07-16 住友重機械工業株式会社 形状変化測定装置及び方法
JP5290864B2 (ja) * 2009-05-18 2013-09-18 キヤノン株式会社 位置姿勢推定装置及び方法
EP2255930A1 (de) * 2009-05-27 2010-12-01 Leica Geosystems AG Verfahren und System zum hochpräzisen Positionieren mindestens eines Objekts in eine Endlage im Raum
JP5567908B2 (ja) * 2009-06-24 2014-08-06 キヤノン株式会社 3次元計測装置、その計測方法及びプログラム
JP5460341B2 (ja) 2010-01-06 2014-04-02 キヤノン株式会社 3次元計測装置及びその制御方法
JP2011175477A (ja) * 2010-02-24 2011-09-08 Canon Inc 3次元計測装置、処理方法及びプログラム
JP5618569B2 (ja) * 2010-02-25 2014-11-05 キヤノン株式会社 位置姿勢推定装置及びその方法
JP5496008B2 (ja) * 2010-08-06 2014-05-21 キヤノン株式会社 位置姿勢計測装置、位置姿勢計測方法、およびプログラム
US9279661B2 (en) * 2011-07-08 2016-03-08 Canon Kabushiki Kaisha Information processing apparatus and information processing method
US9437005B2 (en) * 2011-07-08 2016-09-06 Canon Kabushiki Kaisha Information processing apparatus and information processing method

Also Published As

Publication number Publication date
CN102914293B (zh) 2015-10-14
CN102914293A (zh) 2013-02-06
JP2013036987A (ja) 2013-02-21
EP2543482B1 (en) 2019-09-11
US20130010070A1 (en) 2013-01-10
EP2543482A1 (en) 2013-01-09
US9437005B2 (en) 2016-09-06

Similar Documents

Publication Publication Date Title
JP6180086B2 (ja) 情報処理装置及び情報処理方法
JP6180087B2 (ja) 情報処理装置及び情報処理方法
US20200096317A1 (en) Three-dimensional measurement apparatus, processing method, and non-transitory computer-readable storage medium
JP6324025B2 (ja) 情報処理装置、情報処理方法
US9630322B2 (en) Information processing apparatus, method therefor, measurement apparatus, and working apparatus for estimating a position/orientation of a three-dimensional object based on relative motion
JP7111114B2 (ja) 情報処理装置、情報処理方法及び情報処理システム
CN111801198A (zh) 一种手眼标定方法、系统及计算机存储介质
JP6364836B2 (ja) ロボット、ロボットシステム、及び制御装置
Melchiorre et al. Collison avoidance using point cloud data fusion from multiple depth sensors: a practical approach
CN113172659B (zh) 基于等效中心点识别的柔性机器人臂形测量方法及系统
US20220383547A1 (en) Hand-eye calibration of camera-guided apparatuses
JP6626338B2 (ja) 情報処理装置、情報処理装置の制御方法、およびプログラム
JP6410411B2 (ja) パターンマッチング装置及びパターンマッチング方法
JP5698815B2 (ja) 情報処理装置、情報処理装置の制御方法及びプログラム
Kuo et al. Pose determination of a robot manipulator based on monocular vision
JP6040264B2 (ja) 情報処理装置、情報処理装置の制御方法、およびプログラム
Mohebbi et al. An eye-in-hand stereo visual servoing for tracking and catching moving objects
JP2005186193A (ja) ロボットのキャリブレーション方法および三次元位置計測方法
Xu et al. A fast and straightforward hand-eye calibration method using stereo camera
US20220005226A1 (en) Camera calibration using measured motion
JP2016013610A (ja) ロボット、及び制御方法
Xie et al. Handheld device design for robotic teleoperation based on multi-sensor fusion
Alkkiomaki et al. Multi-modal force/vision sensor fusion in 6-DOF pose tracking
JP2021091070A (ja) ロボット制御装置
CN117813182A (zh) 机器人控制设备、机器人控制系统和机器人控制方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150618

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160520

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160531

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160719

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161213

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170131

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170620

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170718

R151 Written notification of patent or utility model registration

Ref document number: 6180086

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151