JP2014046433A - 情報処理システム、方法及びプログラム - Google Patents

情報処理システム、方法及びプログラム Download PDF

Info

Publication number
JP2014046433A
JP2014046433A JP2012193369A JP2012193369A JP2014046433A JP 2014046433 A JP2014046433 A JP 2014046433A JP 2012193369 A JP2012193369 A JP 2012193369A JP 2012193369 A JP2012193369 A JP 2012193369A JP 2014046433 A JP2014046433 A JP 2014046433A
Authority
JP
Japan
Prior art keywords
orientation
target object
information
dimensional
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012193369A
Other languages
English (en)
Other versions
JP6021533B2 (ja
JP2014046433A5 (ja
Inventor
Kazuhiko Kobayashi
一彦 小林
Masahiro Suzuki
雅博 鈴木
Shinji Uchiyama
晋二 内山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012193369A priority Critical patent/JP6021533B2/ja
Priority to US14/013,346 priority patent/US9746855B2/en
Publication of JP2014046433A publication Critical patent/JP2014046433A/ja
Publication of JP2014046433A5 publication Critical patent/JP2014046433A5/ja
Application granted granted Critical
Publication of JP6021533B2 publication Critical patent/JP6021533B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D3/00Control of position or direction
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/375673-D vision, stereo vision, with two cameras
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40604Two camera, global vision camera, end effector neighbourhood vision camera

Abstract

【課題】小型化、軽量化を図りつつ、位置姿勢が変更できる可動部を持つ可動手段を精度良く制御できるようにする。
【解決手段】第1の位置姿勢で、対象物体103の2次元情報又は3次元情報を取得する第1のセンサ部101と、ロボット100に装着され、対象物体103の2次元情報を取得する第2のセンサ部102と、第1のセンサ部101で取得した情報に基づいて、対象物体103の3次元位置姿勢を計測する3次元位置姿勢計測部113と、3次元位置姿勢計測部113による計測結果及び対象物体のモデル情報に基づいて、第2のセンサ部102が情報を取得する第2の位置姿勢を算出する第2センサ位置姿勢決定部114と、第2の位置姿勢で第2のセンサ部102が取得した情報と対象物体のモデル情報とに基づいて、対象物体103の3次元位置姿勢を計測する3次元位置姿勢計測部117とを備える。
【選択図】図1

Description

本発明は、位置姿勢が変更できる可動部を持つ可動手段を制御するための情報処理システム、方法、プログラム及びコンピュータ読み取り可能な記録媒体に関する。
近年のロボット技術の発展とともに、工業製品の組立のようなこれまで人間が行っていた複雑なタスクをロボットが代わりに行うようになりつつある。このようなロボットは、ハンド等のエンドエフェクタによって部品をピックして組立を行う。
従来より、ピックするための部品の供給は、パーツフィーダと呼ばれる部品1つ1つを並べて供給するための装置を利用したり、パレット(箱)に部品を様々な姿勢で山積みしたりすることによって行われている。パーツフィーダを利用する場合は、部品1つ1つの位置姿勢が予め決まった状態で供給されるため、ロボットによるピックは比較的容易に行われる。しかしながら、パーツフィーダ装置を用意するためのコストが余計にかかる。また、部品の形状に合わせて異なるパーツフィーダを用意しなければならないこともある。一方、部品を山積みにして供給する場合は、パレットに部品を置くだけでよいためコスト増を回避することができる。さらに、近年の少量多品種生産の傾向を受けて、様々な部品へ素早く対応することができる山積み供給に注目が集まっている。
ロボットと画像センサによる山積み部品のピッキングに関する技術として、例えば特許文献1では、複数のセンサとロボットの動作を組み合わせてピッキングを行う方法が提示されている。
特許第3556589号公報
山積み部品を正確にピッキングする際には、把持位置の手前で部品との相対位置関係を補正する必要がある。それは、多軸ロボットの絶対位置指定での動作精度が悪いことや、一つのセンサから観察ができないオクルージョンの発生等により、把持位置での精度が確保されていないときが発生するためである。そのため、ロボットの把持位置での部品の観察が必要となる。
特許文献1の構成では、3次元を取得するセンサは、ベースラインを確保するための筐体にパターンを照射する装置、撮像する装置を搭載するため、大型化し重量が重くなる。そのため、ロボットのアーム部に可搬重量に加算され、運動時の慣性も大きくなり、より剛性の高いロボットが必要になり、コストが増加する。
一方で、2次元画像カメラによる姿勢が不定な対象物体を撮像した画像には、パースによる見え方が変わるため、画像中の幾何特徴によるテンプレートマッチングだけでは十分な位置検出精度を得ることが難しい課題もある。
本発明は上記のような点に鑑みてなされたものであり、小型化、軽量化を図りつつ、位置姿勢が変更できる可動部を持つ可動手段を精度良く制御できるようにすることを目的とする。
本発明の情報処理システムは、位置姿勢が変更できる可動部を持つ可動手段を制御するための情報処理システムであって、前記可動手段とは別に配置され、第1の位置姿勢で、対象物体の2次元情報又は3次元情報を取得する第1のセンサ手段と、前記可動手段に装着され、前記対象物体の2次元情報を取得する第2のセンサ手段と、前記第1のセンサ手段で取得した情報に基づいて、前記対象物体の3次元位置姿勢を計測する第1の計測手段と、前記第1の計測手段による計測結果及び前記対象物体のモデル情報に基づいて、前記第2のセンサ手段が情報を取得する第2の位置姿勢を算出する第2センサ位置姿勢決定手段と、前記第2の位置姿勢で前記第2のセンサ手段が取得した情報と前記対象物体のモデル情報とに基づいて、前記対象物体の3次元位置姿勢を計測する第2の計測手段とを備えたことを特徴とする。
本発明によれば、小型化、軽量化を図りつつ、位置姿勢が変更できる可動部を持つ可動手段を精度良く制御することができる。
第1の実施形態に係るロボットの制御システムの構成を示す図である。 情報処理部の構成を示す図である。 3次元幾何モデルを説明するための図である。 情報処理部の処理手順を示すフローチャートである。 エッジ検出を説明する図である。 線分の投影像と検出されたエッジの関係を説明する図である。 ロボットと第2のセンサ部と対象物体との関係を説明するための図である。
以下、添付図面を参照して、本発明の好適な実施形態について説明する。
(第1の実施形態)
第1の実施形態では、対象物体に関する3次元情報を取得する第1のセンサ手段(プロジェクタ及びカメラ)と、ロボットに装着され対象物体の2次元情報を取得するための第2のセンサ手段(カメラ)とを用いて、対象物体の3次元位置姿勢計測を行う。
図1に、本実施形態に係るロボットの制御システムの構成を示す。同図に示すように、ロボット100と、第1のセンサ部101、第2のセンサ部102、情報処理部110、及びロボットコントローラ部120により構成される情報処理システムとを備える。これらの構成により、パレット104内に山積みした対象物体103の計測を行い、ロボット100によるピック作業を行う。
位置姿勢が変更できる可動部を持つ可動手段であるロボット100は、多関節ロボットであり、ロボットコントローラ部120からの制御命令を受けて稼働する。ロボット100の先端にはエンドエフェクタであるハンドが装着されており、対象物体103に対する作業を行うことが可能である。本実施形態では、エンドエフェクタとして、対象物体を把持することが可能なチャック機構を持つハンドを用いる。エンドエフェクタにはモータ駆動可能なハンドを用いてもよいし、空気圧で対象物体を吸着する吸着パッドを用いてもよい。センサ部101の位置姿勢、ロボット100やハンドの位置や軌道、ロボット100のアームとセンサ部102の相対位置姿勢のキャリブレーション作業は、本実施形態の実施に先立って公知の技術によって予め行われているものとする。これによって、情報処理部110で出力される位置姿勢の座標系を、ワークスペース座標系で指定した位置姿勢にハンドが設定されるようにロボット100を制御することが可能になる。
第1のセンサ部101は、プロジェクタと、2次元画像を撮影するカメラとから構成される。第1のセンサ部101は、パレット104の上方の第1の位置姿勢に固定的に配置され、山積みされた対象物体103の画像を撮影し、情報処理部110に距離画像と2次元画像を出力する。第1のセンサ部101のプロジェクタと、カメラとの相対的な位置関係は予めキャリブレーションにより求められているものとする。本実施形態では、第1のセンサ部101で撮影した画像は画像処理されて距離画像として出力されるが、情報処理部110に画像処理機構を持たせて距離画像に変換してもよい。
第1のセンサ部101のプロジェクタは、対象物体103に対してパターン光を照射し、そのパターンを第1のセンサ部101のカメラにより撮影し、照明したパターンと撮像したパターンとの対応から三角法により距離を算出する。パターンとしては、空間符号化法の幅の異なる複数の縞模様パターンや、複数の線パターン等を利用する。2次元的なパターンやランダムドットのようなパターンでもよい。
また、第1のセンサ部101は、回折格子と照明とカメラとから構成されてもよい。この場合は、回折格子と照明により対象物体にパターン光を投射し、カメラによりパターンを撮影する。パターン光の照射は、プロジェクタに限定されるものでなく、レーザースリット光を走査した画像を取得しても構わない。光の反射時間を計測して、距離画像を生成する機構を用いても構わない。パターン光を照射することで、工業部品等の表面の模様が少ない対象物体とする場合には有利である。模様が多い場合には、カメラを用いた2台のステレオカメラでも両方の撮像画像に対応する領域から距離画像を生成することができるので、それを用いても構わない。
第2のセンサ部102は、2次元画像を撮影する小型カメラから構成される。第2のセンサ部102は、ロボット100のハンド部分近くに固定的に装着されて、ロボット100の各関節の角度によって制御可能な第2の位置姿勢でエンドエフェクタ付近にあるものを計測する。第2のセンサ部102のカメラと、ロボット座標系であるエンドエフェクタとの相対的な位置関係は予めキャリブレーションにより求められているものとする。本実施形態では、第2のセンサ部102で撮影した画像は情報処理部110で処理するが、第2のセンサ部102内に画像処理機構を持たせて画像処理した結果を出力してもよい。
対象物体103は工業製品を構成する部品であり、ロボット100によりピックされて製品に組み付けられる。素材は、プラスチック、金属、ビニール等、様々なものを用いることができる。複数の対象物体103が様々な姿勢になるようにパレット104に山積みされている。
パレット104は、対象物体103を入れるための箱である。パレット104の素材に制約はないが、プラスチックや紙素材を用いることが多い。また、形状にも制約はないが、作りやすさの点から立方体或いは直方体にすることが多い。また、大きさにも制約はないが、通常はセンサ部101で計測可能な範囲内に収まるようにする。
次に、情報処理部110の構成について説明する。図2に、情報処理部110の構成を示す。
第1センサ情報取得部111は、第1のセンサ部101が撮影した距離画像及び2次元画像を取得して、その取得した画像を3次元位置姿勢計測部113に出力する。
モデル情報保持部115は、3次元位置姿勢計測部113の位置姿勢を計測するために利用される計測モデル情報を保持する。計測モデル情報の1つとして、3次元CADに基づく3次元幾何モデルが挙げられる。もう1つの計測モデル情報として、実際の対象物体もしくは対象物体を模した3次元幾何モデルを予め定められた複数の視点から見た参照画像モデルが挙げられる。
3次元幾何モデルは、3次元CADソフトで取り扱うことができるCADモデルそのもの、もしくは3次元CADモデルをコンピュータグラフィック分野で使われる複数のポリゴン要素に変換したものである。本実施形態では、ポリゴン要素を利用した場合について説明を行う。図3に示すように、モデルは点、線、面といった構成要素からなる。図3(a)〜(c)はいずれも同じモデルである。図3(a)及び(d)は、モデルの各頂点を示す図である。図3(b)及び(e)は、モデルの各辺となる線を示す図である。図3(c)及び(f)は、モデルの各面を示す図である。モデルには、図3(f)に示すようにモデルを構成する面の法線データが含まれている。
参照画像モデルは、複数の2次元画像からなるデータである。実写画像に基づく参照画像モデルは、対象物体を中心にして様々な方向からカメラで撮影を行って得た画像から作成する。撮影を行うためにやぐらを組んでカメラを複数配置してもよいし、人が手でカメラを持って撮影してもよいし、ロボットに装着したカメラでロボットを動かしながら撮影を行ってもよい。どの方法で撮影を行ってもよいが、撮影したときのカメラと対象物体との相対位置姿勢を求め、撮影画像と合わせて記憶しておく。相対位置姿勢は、やぐらに複数のカメラを配置した場合は、やぐらの形状から求めることができる。人が手でカメラを持つ場合は、カメラに位置姿勢センサを装着して求めることができる。ロボットに装着したカメラで撮影する場合は、ロボットの制御情報を利用して求めることができる。
対象物体を模した3次元幾何モデルに基づく参照画像モデルは、CADモデルの中心から、頂点が等しい距離になるGeodesic Sphereを設定して、Geodesic Sphereの頂点からCADモデルの中心を向いてみたときの画像を用いる。Geodesic Sphereの頂点は複数あり、隣り合ったそれぞれの頂点は同じ距離となる。ある頂点を基準位置として、他の頂点との相対的な関係を元にどの方向から見たかの観察方向を画像と共に、設定情報として記憶しておく。
対象物体が1種類と予め分かっているときは、その種類の計測モデル情報だけ保存する。複数種類の対象物体を扱うときは、複数の計測モデル情報を保存しておき、利用時に切り替える。
第1の計測手段である3次元位置姿勢計測部113は、第1センサ情報取得部111から出力された距離画像及び2次元画像と、モデル情報保持部115が保持している計測モデル情報とを利用して対象物体103の位置姿勢を求める。そして、その求めた位置姿勢情報を第2センサ位置姿勢決定部114に出力する。
計測モデル情報として3次元幾何モデルを利用する場合は、3次元幾何モデルの辺である線と、第1センサ情報取得部111から出力された2次元画像から抽出したエッジ成分との対応付けを行うことで、対象物体の位置姿勢を求める。本実施形態では、2次元画像に3次元幾何モデルが当てはまるように、計測対象物体の位置姿勢の概略値を反復演算によって繰り返し補正する。
本実施形態では、計測モデル情報を利用して画像中に含まれる対応する幾何特徴との関係から、モデルの位置姿勢を推定する方法を利用する。3次元幾何モデルの線分と、画像中のエッジとの対応から2次元画像を利用して位置合わせをする方法と、距離画像の含まれる対応する距離点群とモデル表面との距離を最小化するように位置姿勢を推定する方法を用いる方法を説明する。他に2次元画像を利用する場合には、テンプレートマッチングによる画素比較による方法や、幾何特徴としてテクスチャの勾配特徴を利用して対応を行う幾何特徴点対応による方法等を利用しても構わない。これらの方法は、対象物体を様々な方向したときのモデルを視点別に保持しておき、対応する観察視点のモデルを参照することで位置姿勢を行うことができる。
計測モデル情報として参照画像モデルを利用する場合は、参照画像モデルをテンプレートとしたテンプレートマッチングにより最も一致する参照画像を求め、その参照画像に対応付けられた対象物体との位置姿勢情報に基づいて、対象物体の位置姿勢を求める。
また、計測モデル情報として3次元幾何モデルを利用する場合は、3次元幾何モデルから抽出した表面の点群データと、第1センサ情報取得部111から出力された距離画像から抽出される距離点群との対応付けを行うことで対象物体の位置姿勢を求める。距離点群と計測モデル情報とを利用して対象物体の位置姿勢を求めるために、本実施形態ではICP(Iterative Closest Point)法を用いる。対象物体の位置姿勢を反復演算によって繰り返し補正する。なお、対象物体の位置姿勢を求めるための手法はICP法に限るものではない。
3次元位置姿勢計測部113で求めた位置姿勢は、第2センサ位置姿勢決定部114と位置姿勢調整部118に出力される。
第2センサ位置姿勢決定部114は、3次元位置姿勢計測部113で求めた対象物体103の位置姿勢に基づいて、第2のセンサ部102が対象物体103を計測する第2の位置姿勢を求める。その際、3次元位置姿勢計測部117の撮像座標系で利用する計測モデル情報に合わせた位置姿勢になるように第2のセンサ部102を移動する。該位置姿勢情報を位置姿勢出力部119に出力する。また、該位置姿勢は、3次元位置姿勢計測部117の初期値として利用される。第2のセンサ部102が対象物体103を計測する位置姿勢を求める方法については後述する。
第2センサ情報取得部112は、第2のセンサ部102が撮影した2次元画像を取得して、その取得した2次元画像を3次元位置姿勢計測部117に出力する。
第2の計測手段である3次元位置姿勢計測部117は、第2センサ情報取得部112から出力された2次元画像と、モデル情報保持部116が保持している計測モデル情報とを利用して対象物体103の位置姿勢を求める。そして、その求めた位置姿勢情報を位置姿勢調整部118に出力する。
位置姿勢調整部118は、3次元位置姿勢計測部113及び117の推定結果として、パラメータの推定精度を考慮して統合する。
計測モデル情報として参照画像モデルを利用する場合は、参照画像モデルをテンプレートとしたテンプレートマッチングにより最も一致する参照画像を求め、その参照画像に対応付けられた対象物体との位置姿勢情報に基づいて対象物体103の位置姿勢を求める。
計測モデル情報として3次元幾何モデルを利用する場合は、3次元位置姿勢計測部113と同様に3次元幾何モデルの辺である線と、第2センサ情報取得部112から出力された2次元画像から抽出したエッジ成分との対応付けを行うことで対象物体103の位置姿勢を求める。
位置姿勢出力部119は、第2のセンサ部102が対象物体103を計測する第2の位置姿勢の座標値をロボットコントローラ部120に出力する。
ロボットコントローラ部120は、第2のセンサ部102が対象物体103を計測する第2の位置姿勢の座標値を入力として、ロボット100を所定の位置まで移動する。第2の位置姿勢とは異なる位置姿勢への移動、或いは対象物体103を把持や吸着できる位置姿勢にハンドを移動させて把持や吸着を行うことを指示する方法は、ロボットコントローラ部120のプログラムでも構わないし、他のシーケンサが制御しても構わない。ロボットの作業は、移動、把持、吸着に限られるものではなく、対象物体103の外観検査等、他の作業も含むことは言うまでもない。さらに、ロボットも、多関節ロボットではなく、NC制御可能な可動式の機械でもよいことは言うまでもない。
図4は、第1の実施形態における情報処理部110の処理手順を示すフローチャートである。
ステップS401では、パレット104の上方の第1の位置姿勢に固定された第1のセンサ部101により対象物体103の画像を撮影する。撮影した画像データは、第1センサ情報取得部111に出力される。第1のセンサ部101の位置姿勢は予めキャリブレーションで求められているものとする。
ステップS402では、3次元位置姿勢計測部113が、第1センサ情報取得部111で取得した対象物体103の画像から、複数ある対象物体103のうち少なくとも1つの対象物体の位置姿勢を求める。選択した1つの対象物体を対象物体103'とする。対象物体103'の位置姿勢を求めるために、モデル情報保持部115は保持している計測モデル情報を出力して、3次元位置姿勢計測部113が対象物体103'の画像と計測モデル情報とのマッチングを行う。
計測モデル情報として3次元幾何モデルを利用する場合は、3次元幾何モデルの辺である線分と、第1センサ情報取得部111から出力された2次元画像から抽出したエッジ成分との対応付けを行うことで対象物体の位置姿勢を求める。本実施形態では、2次元画像に3次元幾何モデルが当てはまるように、非線形最適化手法の一つであるGauss−Newton法を用いて、対象物体の位置姿勢(6次元ベクトルsで表す)の概略値を反復演算によって繰り返し補正する。なお、対象物体の位置姿勢を求めるための最適化手法はGauss−Newton法に限るものではない。
図5は、エッジ検出を説明する図である。何らかの方法(例えばテンプレートマッチング)により得られた対象物体の概略位置姿勢とキャリブレーション済みのセンサ部101の内部パラメータを用いて、3次元幾何モデルを構成する各線分の画像上への投影像を算出する。線分の投影像は画像上でも線分となる。次に、画像上で等間隔になるように投影された線分501上に制御点502を設定し、制御点502ごとに、投影された線分501の法線方向503に1次元のエッジ504の検出を行う(図5(a))。エッジは画素値の濃度勾配の極値として検出されるので、図5(b)に示すように、複数のエッジ505が検出されることがある。本実施形態では、検出されるエッジをすべて仮説として保持する。
3次元幾何モデルの辺である線分と第1センサ情報取得部111から出力された2次元画像のエッジ成分との対応付けを行い、対象物体の位置姿勢を求めるには、位置姿勢を算出するための係数行列と誤差ベクトルの算出を行う。ここで、係数行列の各要素は、画像上での点と直線の距離を位置姿勢の関数としたときの、位置姿勢の各要素に関する1次の偏微分係数である。誤差ベクトルは、エッジについては投影された線分と検出されたエッジの画像上での符号付き距離である。
係数行列の導出について説明する。図6は、線分の投影像と検出されたエッジの関係を説明する図である。図6では、画像の水平方向、垂直方向をそれぞれu軸、v軸としている。ある制御点603(投影された各線分を画像上で等間隔に分割した点)の画像上での座標を(u0,v0)、該制御点603が所属する線分の画像上での傾きをu軸に対する傾きθと表す。傾きθは、線分606の両端の三次元座標をsに基づいて画像上に投影し、画像上での両端の座標を結んだ直線の傾きとして算出する。該線分606の画像上での法線ベクトルは(sinθ,−cosθ)となる。また、該制御点603の対応点607の画像上での座標を(u’,v’)とする。ここで、対応点607の座標(u’,v’)を通り、傾きがθである直線(図6の破線)上の点(u,v)は、式(1)と表される(θは定数とする)。ここで、dは、式(2)で表される定数である。
Figure 2014046433
制御点603の画像上での位置は、対象物体の位置姿勢により変化する。また、対象物体の位置姿勢の自由度は6自由度である。すなわち、sは6次元ベクトルであり、対象物体の位置を表す3つの要素と、姿勢を表す3つの要素からなる。姿勢を表す3つの要素は、例えばオイラー角による表現や、方向が原点を通る回転軸を表してノルムが回転角を表す三次元ベクトル等によって表現される。位置姿勢により変化する点の画像上での座標(u,v)は、座標(u0,v0)の近傍で1次のテイラー展開によって、式(3)、式(4)のように近似することができる。ただし、△si(i=1,2,・・・,6)はsの各成分の微小変化を表す。
Figure 2014046433
位置姿勢の概略値と実際の位置姿勢の差がそれほどないと仮定すると、正しいsによって得られる制御点の画像上での位置は、式(1)、式(2)が表す直線上にあると仮定できる。式(3)、式(4)によって近似されるu,vを式(1)、式(2)に代入することにより、式(5)が得られる。ここで、rは、式(6)で表される定数である。
Figure 2014046433
式(5)、式(6)は、対応付けが行われたすべてのエッジについて立式することができる。なお、すべてのエッジについて立式せずに一部のエッジについてだけ立式してもよい。
式(5)、式(6)は、sの各成分の微小変化△si(i=1,2,・・・,6)についての方程式であるため、式(7)のような△siに関する線形連立方程式を立てることができる。
Figure 2014046433
ここで、式(7)を式(8)のように表す。
JΔs=E・・・(8)
線形連立方程式の係数行列Jを算出するため偏微分係数の算出を行う。式(8)をもとに、行列Jの一般化逆行列(JT・J)-1・JTを用いて位置姿勢の補正値△sを最小二乗基準で求める。しかしながら、エッジには誤検出等による外れ値が多いため、次に述べるようなロバスト推定手法を用いる。一般に、外れ値であるエッジでは、式(7)の右辺の誤差ベクトルの値が大きくなる。そこで、誤差の絶対値が大きい情報には小さな重みを与え、誤差が小さい情報には大きな重みを与える。重みは、例えば式(9)に示すようなTukeyの関数により与える。
Figure 2014046433
1,c2は定数である。なお、重みを与える関数はTukeyの関数である必要はなく、例えばHuberの関数等、誤差が大きい情報には小さな重みを与え、誤差が小さい情報には大きな重みを与える関数であれば限定されるものではない。各計測情報(エッジ又は点群データ)に対応する重みをwiとする。ここで、式(10)のように重み行列Wを定義する。
Figure 2014046433
重み行列Wは、対角成分以外はすべて0の正方行列であり、対角成分には重みwiが入る。この重み行列Wを用いて、式(8)を式(11)のように変形する。
WJ△s=WE・・・(11)
式(11)を式(12)のように解くことにより補正値△sを求める。
Figure 2014046433
算出された位置姿勢の補正値△sにより、位置姿勢の概略値を補正する。
s←s+△s
sの収束判定を行い、収束していれば終了し、そうでなければ繰り返し算出を行う。収束判定では、補正値△sがほぼ0である場合や、誤差ベクトルの二乗和が補正前と補正後でほとんど変わらない場合に収束したと判定する。このように、収束するまで繰り返すことで、位置姿勢を算出できる。
なお、本実施形態では、最適化手法としてGauss−Newton法を用いる方法について説明したが、より計算がロバストであるLevenberg−Marquardt法によって行ってもよいし、よりシンプルな方法である最急降下法によって行ってもよい。また、共役勾配法やICCG法等、他の非線形最適化計算手法を用いてもよい。
計測モデル情報として参照画像モデルを利用する場合は、参照画像モデルをテンプレートとしたテンプレートマッチングにより最も一致する参照画像を求め、その参照画像に対応付けられた対象物体との位置姿勢情報に基づいて対象物体の位置姿勢を求める。参照画像の輝度をT(i,j)、2次元画像の輝度をI(i,j)として、参照画像をm×n画素の画像としたとき、一致度は式(13)で求めることができる。
Figure 2014046433
計測モデル情報として3次元幾何モデルを利用する場合は、3次元幾何モデルから抽出した表面の点群と、第1センサ情報取得部111から出力された距離画像点群との対応付けを行うことで対象物体の位置姿勢を求める。距離点群を求めるには、空間符号化法、光切断法等の公知技術を用いればよいため本実施形態では詳しく説明しない。3次元幾何モデルの点群と距離画像点群との対応付けを行うために、本実施形態ではICP(Iterative Closest Point)法を用いる。
3次元幾何モデルの表面点群を、式(14)に示すPとする。また、距離画像点群を、式(15)に示すAとする。
Figure 2014046433
3次元幾何モデルの表面点群Pを変換して距離点群Aに位置合わせする。点群Pの各点piに距離が最も近い点群Aの点をb∈Aとしたとき、式(16)の誤差関数を定義できる。Rとtはそれぞれ姿勢パラメータと移動ベクトルである。
Figure 2014046433
誤差関数Eを小さくするRとtを求め、式(17)による補正を行う。
Figure 2014046433
誤差関数Eを小さくするRとtを求める方法については、文献「K.S.Arun,T.S.Huang,and S.D.Blostein,“Least−Squares Fitting of Two 3−D Point Sets,”PAMI,vol.9,no.5,1987」に載っている。
Pの収束判定を行い、収束していれば終了し、そうでなければ繰り返し補正計算を行う。収束判定では、Pがほとんど変化しないことをもって収束したと判定する。このように収束するまで繰り返すことで、位置姿勢を算出することができる。
ステップS403では、第1の計測結果から第2のセンサ部102の位置姿勢を計算する。第2のセンサ部102の撮影するための位置姿勢を第2センサ位置姿勢決定部114にて計算する。
一般に多軸ロボットの場合、絶対位置精度を出すことは難しい。また、対象物体が傾いている場合には、把持する際のエンドエフェクタの向きと、第1のセンサ部101から観察される向きとが異なっている場合には、推定精度によりズレが生じている場合もある。
そのため、ロボット100は、対象物体103'を把持動作する直前に、それらの誤差を補正するために第2のセンサ部102で対象物体の位置姿勢を算出して、ロボットに補正位置を指示することで、確実に対象物体を把持することが可能となる。そこで、ロボット100が対象物体103'を把持位置より上空で第2のセンサ部102により位置姿勢を計測することとする。
図7(a)は、ロボット100が対象物体103'を把持する直前に対象物体の上空で第2のセンサ部102の撮影をしているときの配置を示す。ロボット100は、対象物体103'を所定の向きから把持するように設定されている。第2のセンサ部102は、2次元画像を取得するため、画像中のエッジから物体の位置姿勢を求めることができる。
図7(b)は、第2のセンサ部102が撮影した2次元画像の例である。ロボットのエンドエフェクタの把持方向とカメラの向きは異なっているため、撮影した画像中の対象物体103'にはパースが発生している場合がある。2次元画像のテンプレートマッチングでは、このようなパースが発生している場合には、平面のホモグラフィーを求めて補正することで画像を正射影に変換することでマッチングを行うことができる。
ここで、第2のセンサ部102の撮像する位置姿勢を計算する際の座標系表現について述べる。
図7(c)に、各座標系の原点を模式的に示す。基準となる世界座標系をMWとする。第1のセンサ部101の取り付けられた座標系をMGとする。ロボット座標系をMRとし、その相対座標系としてエンドエフェクタの座標系をMEとする。第2のセンサ部102の座標系をMCは、変換行列MLによるMEの相対座標系である。対象物体103'の上部の幾何特徴を有する平面の座標系をMPとする。第1のセンサ部101のMGのカメラ座標系基準で3次元位置姿勢計測部113により求められた位置姿勢をMP'とすると、式(18)となる。
P=MGP'・・・(18)
対象物体103'の上空での観察ポイントは、把持姿勢を考慮して事前に設定されているものとして、対象物体に対する相対的な座標変換をMTとする。求められた対象物体103'のMPから、エンドエフェクタの待機位置として設定される座標系をME'とすると、式(19)のようになる。
E'=MPT・・・(19)
第2のセンサ部102が撮影する位置姿勢は、エンドエフェクタの座標系MEが、ME'と同じになるように指定すればよいこととなる。座標系の逆変換をM-1と表現すると、MEはロボット座標系のMRより、式(20)のように表現できる。
E=MR -1E'・・・(20)
ここで求めた、MEが第2の位置姿勢としてロボット座標系での位置姿勢の値となる。
なお、第2のセンサ部102が対象物体103'を撮影する位置姿勢での座標系MC'は、対象物体MPから相対的座標系で表現すると、式(21)のように表現できる。
C'=MTL・・・(21)
この対象物体からの相対座標系MC'を用いることで、撮影時の対象物体の幾何特徴を有する平面との配置関係が設定でき、平面のパースの見え方を補正するためのホモグラフィー行列を求めることができる。
C'の成分のうち、姿勢成分をRCとして3x3行列とし、並進成分をTCとして3x1行列で表す。対象物体103'のMPの平面の法線をNCとし、平面と第2のセンサ部102までの距離をDCとすると、ホモグラフィー行列Hは式(22)となる。
Figure 2014046433
このホモグラフィー行列Hを用いることで、対象物体103'の撮像画像にパースが生じていても、正射影に変換して、2次元画像中の特徴から位置姿勢を推定することができる(ただし、対象物体103'の幾何特徴は、平面に配置されているものとする)。これにより、第2のセンサ部102の取り付け位置によらず、対象物体103'の平面上の幾何特徴を撮影画像に応じて補正できるので、モデル情報保持部116での幾何特徴情報の登録を簡便化することができる。具体的には、モデルを正射影したときの幾何特徴の画像位置を利用すればよい。
ステップS411では、ステップS403で求めた第2の位置姿勢がロボット100の可動範囲であるかどうかの判定を行う。ロボット100の可動範囲は、可動アームの構成により制限がある。そのため、ロボットのエンドエフェクタが到達不可能な向きで位置姿勢が設定されても、実際にはロボット100を動かすことができない。ここでは、エンドエフェクタの可動範囲内では無い場合には、ステップS402から選択されていない部品についての位置姿勢検出を再度行うようにする。これにより、ロボット100がピックできないことによるシステムの停止を抑制することができる。
3次元位置姿勢計測部113は、対象物体103’の位置姿勢を求めたら第2センサ位置姿勢決定部114と位置姿勢調整部118とに対象物体103’の位置姿勢情報を出力する。
ステップS404では、ステップS411でロボット100の可動手段範囲内で動作可能と判断した第2の位置姿勢で第2のセンサ部102が対象物体103'を撮影するようにロボット100を姿勢制御する。ステップS404では、まずステップS403で決定した位置姿勢情報をロボット座標系に変換する。変換方法は、式(19)を用いればよい。ロボット100に対して、位置姿勢を指定して移動するコマンドをロボットコントローラ部120に対して送出する。
ステップS405では、ロボット100に装着した第2のセンサ部102により第2の位置姿勢で対象物体103'の画像を撮影する。撮影した画像は第2センサ情報取得部112に出力される。
ステップS406では、3次元位置姿勢計測部117において第2センサ情報取得部112から得られる2次元画像から、モデル情報保持部116と、第2センサ位置姿勢決定部114の位置姿勢を用いて対象物体103'の位置姿勢を求める。
ここでは、ステップS403で求めたホモグラフィー行列Hに基づいて、モデル情報保持部116の幾何特徴の位置を投影変換し、その近傍の対応する画像幾何特徴の検出を行い、その座標値をホモグラフィーの逆変換を行って、パースの影響を除去する。検出特徴の位置とモデルの幾何特徴の位置との差を小さくするように、平面内での移動・回転成分を補正値として求める。その補正値を第2センサ位置姿勢決定部114から得られた位置姿勢の値を補正することができる。
平面上の2次元特徴に対する補正値を(u,v,θ)とする。uはX座標、vはY座標、θは平面内での回転とする。2次元特徴の座標をX,Yとすると、補正後の位置X',Y'は式(23)で示される。
Figure 2014046433
補正量が十分小さい場合には、cos(θ)≒1、sin(θ)≒θと近似することができるので、式(23)は、式(24)のように近似できる。
Figure 2014046433
この式を展開して、補正量のベクトルによる行列表現にすると、式(25)のようになる。
Figure 2014046433
この式を、検出された幾何特徴の各点のホモグラフィー行列補正後の座標値とモデルの位置に対して式(26)のように示し、疑似逆行列を用いて補正量を求める。ただし、式(24)の線形近似を行っているため反復計算を行い、残差の少ない補正量を求める。
Figure 2014046433
ここでは、幾何特徴の検出座標を用いた補正量の計算を示したが、平面内での対象物体の位置・回転が検出できれば方法は問わない。ハフ変換画像から対象の位置を検出する方法や、FFT等の空間画像変換を利用した検出方法等を使っても構わない。
ステップS407では、位置姿勢調整部118の処理として、ステップS403で得られた第1のセンサ部101の位置姿勢の推定値に対して、ステップS406で得られた位置姿勢の補正値を使って対象物体103'の位置姿勢を調整する。
第2のセンサ部102が取得する画像は2次元画像であるため、奥行き方向の情報が縮退している。そのため、奥行き方向の推定精度は、画像平面内の移動方向に比べて悪くなっている場合がある。そこで、ステップS406の補正値のうち、精度が良さそうな補正量に対して重みをつけて補正することとする。
第2のセンサ部102の座標系MCのうち、視軸方向の回転、視軸に対して垂直な平面でのX,Y方向の成分を抽出して、その値に他のパラメータより大きい重みをつけて、ステップS403で得られた位置姿勢の値を補正する。具体的には、第2のセンサ部102のカメラ座標系基準で求めた更新パラメータで、X,Y,Roll成分の値を更新する。これにより、2次元画像のみで位置姿勢を推定する結果に比べて、第1のセンサ部101による位置姿勢のパラメータで精度の良い要素と、第2のセンサ部102による位置姿勢のパラメータで精度の良い部分に基づいて、位置姿勢を調整することができる。それにより、全体の推定精度を向上することができる。なお、ここではX,Y,Roll成分について値を更新する例を示したが、対象物体の姿勢や、第1のセンサ部101の構成に応じてパラメータを調整すればよい。位置姿勢の推定中に計算される共分散行列や誤差値を参照して、各パラメータの推定精度として、それを重みとして第1のセンサ部101と第2のセンサ部102の推定値を調整することができる。
ステップS408では、位置姿勢調整部118の対象物体103’の位置姿勢情報に基づいてロボット100に対する作業指示を行う。ロボット100が対象物体103’を把持するハンドを備えていれば対象物体103’の把持を指示する。ロボット100が対象物体103’を吸着するパッドを備えていれば対象物体103’の吸着を指示する。
ステップS409では、ステップS408の指示内容を実行するようロボット100に対してピッキング、及びその後の把持部品の移動や、取り付け等の所定の動作シーケンスを実行させる。
ステップS410では、終了指示があったかどうかを判定する。終了指示がなければステップS401に戻る。終了指示があればフローを終了して全ての動作を停止する。なお、ステップS410での終了判定を待たずに、ユーザが図示しない緊急停止ボタンを押すことによりフローを終了して全ての動作を停止してもよい。
本実施形態において、ステップS405からステップS406での処理は、情報処理部110の構成の一部として説明したが、実際には情報処理部110と別の装置でも代替させてもよい。2次元画像を撮影して、事前に設定した画像のテンプレートマッチングを行い、平面内の移動量(u,v,θ)を出力する処理部を第2のセンサ部102と同じ筐体に配置しても構わない。このようなセンサは、画像処理カメラとして市販されているものを利用することができる。本実施形態では、2次元の画像テンプレートに合わせた向きにセンサの向きをロボットに指示するため、第2のセンサ部102で観測される対象部品の姿勢を同じようにすることができる。そのため、姿勢が不定な山積み部品に対しても、従来の2次元画像処理装置を併用することができるため、装置コストも低減することができる。
(第2の実施形態)
第2の実施形態では、第1のセンサ手段による対象物体の位置姿勢の推定値を、第2のセンサ手段による観測方向に変換することができる。そのため、第2のセンサ手段が様々な姿勢に適応する十分な計測モデル情報を保持している場合、第1のセンサ手段の位置姿勢の推定値を第2のセンサ手段の設定情報と関連させて、位置姿勢推定のための初期値として利用することができる。
第2のセンサ部102による3次元位置姿勢計測部117の処理にて、第1のセンサ部101の3次元幾何モデルによる位置姿勢推定を行うことができる。この場合、モデル情報保持部115と116を共有することができる。共有したものをモデル情報保持部115'と呼ぶこととする。
第2センサ位置姿勢決定部114は、モデル情報保持部115'の3次元幾何モデルを保持しているGeodesic Sphereの頂点から観測されるモデルの姿勢に合わせて、第2のセンサ部102の位置姿勢を決定すればよい。その際、その時点でのロボットの姿勢や、後工程での姿勢を考慮して、ロボットの移動量が少ない観測ポイントを選択するとタクトタイムが短くなってよい。
第2のセンサ部102を移動して撮影した撮像画像から、3次元位置姿勢計測部117では、第2センサ位置姿勢決定部114の位置姿勢を求める。その際に、第2センサ位置姿勢決定部114で算出されたロボットハンドの位置姿勢を第2のセンサ部102の座標系に変換したものを対象物体103'の位置姿勢の初期値としてする。初期位置姿勢から、Geodesic Sphereの頂点から観測される3次元幾何モデルと、第2のセンサ部102のカメラパラメータによるスケール変換が行われ、モデルと対応する幾何特徴の検出が容易になる。
(第3の実施形態)
第1の実施形態において、位置姿勢調整部118の処理として、第2のセンサ部102のカメラの視軸方向として推定精度が高いX,Y,Roll方向のパラメータ調整手段を述べた。実際には、対象物体をエンドエフェクタが把持する方向や対象部品の姿勢、第1のセンサ部101での位置姿勢のパラメータの推定精度を考慮することで、より高い精度を得ることができる。位置姿勢の推定では、位置の3自由度、姿勢の3自由度のパラメータごとにモデルの観測方程式を偏微分したものをヤコビ行列として、対応する幾何特徴とモデルとの距離を少なくするように反復計算をする。推定パラメータによる各幾何特徴とモデルとの残差から、パラメータのフィッティング具合の値として利用することができる。観測による残差を示す情報を利用して、第1と第2のそれぞれで推定された位置姿勢推定結果のパラメータ調整手段により精度を向上することができる。ノイズを多く含んで残差が大きい場合には、求めたパラメータの確からしさも低いので、重みを小さくし、残差が小さい場合には重みを大きくするような調整を行えばよい。
また、対象物体は様々な形状が考えられるので、長細い形状や平坦で薄い形状等観察方向によっては見えが大きく変化するものがある。第1の実施形態では、把持位置の上空にハンドを一次停止した場合の第2の位置姿勢を決定する例を示した。その際、対象物体の平面上の幾何特徴を利用してホモグラフィー行列による変換により対応を求めたが、変換が不要な位置姿勢に第2のセンサの位置姿勢を決めることもできる。また、位置決めの方法としてテンプレートマッチングを利用する場合には、特徴的な幾何特徴が観測できる方向を第2の位置姿勢としてもよい。例として、部品に添付されている文字やシール、QRコード(登録商標)等の機械読み取りマーカが観測できるように決定することができる。
(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。すなわち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。また、そのプログラムをコンピュータ読み取り可能な記録媒体に記録して提供してもよい。
<定義>
本発明の位置姿勢が変更できる可動部を持つ可動手段としては、ロボットを実施形態として述べたが、基本的に可動機構に第2のセンサが装着していれば、どのような構成であっても構わない。回転台座とX,Yステージに、パン・チルト機構を有する第2のセンサであっても構わない。また、対象部品の形状や、供給される形態によっては、対象部品の位置姿勢の範囲が決まっている場合がある。その場合には、第2のセンサの位置姿勢も範囲があるため、それに応じた可動装置を用いればよい。
第1のセンサ手段は、可動手段とは別に配置されていればよく、その構成や第1の計測手段で位置姿勢を推定するために必要な観察情報が得られれば何であっても構わない。実施形態では、対象物体の位置と姿勢の情報を推定するために、3次元の情報を取得する構成を述べた。そのように3次元情報を得る手段としては、ステレオカメラで構成されたプロジェクタとカメラ、複数台のカメラ、レーザースリット光の走査/レーザ光パターンとカメラ、ランダムドット照射とカメラ、Time of Flight等、奥行き情報を得るための装置を用いればよい。また、第2のセンサ手段を既定した位置に配置し、第1のセンサ手段をカメラとすれば、第1と第2のステレオカメラとして構成することも可能である。その場合、第1と第2のカメラのベースラインは事前にキャリブレーションしておけばよい。
第2のセンサ手段は、可動手段に装着できるようになっていれば、どのような構成であっても構わない。第2のセンサ手段で得られる観察情報は、第1の計測結果に基づいて可動部が動くことによって調整される。一般的には、2次元のカメラの撮像画像を用いた画像処理による位置姿勢検出を利用することができる。対象部品が第2のセンサ手段から観察したときの平面内の位置のみを検出できればよいので、所定箇所を近接センサ等の対象部品との反射を検出しても構わない。また、2次元の画像ではなく、ラインセンサを用いても、位置を検出することができる。
第1の計測手段及び第2の計測手段による対象部品の位置姿勢の算出方法は、実施形態以外にも、位置姿勢を求めることができる手法であれば何であっても構わない。カラー画像を利用する場合には、対象部品の色の情報を用いて、色の領域の重心と方向を検出した結果を利用することも可能である。また、対象部品の表面の局所領域で模様がある場合には、その模様の幾何特徴を用いて対応付けを行うことも可能である。位置姿勢を求めるには、対応が既知の3点以上があればよいため、計測モデルと対応付けられた画像の幾何特徴の位置を用いれば位置姿勢を推定することができる。
本発明は、工業製品の組立作業で山積みされた部品をピックするのに利用することができる。
100:ロボット、101:第1のセンサ部、102:第2のセンサ部、103:対象物体、104:パレット、110:情報処理部、120:ロボットコントローラ部、111:第1センサ情報取得部、112:第2センサ情報取得部、113:3次元位置姿勢計測部、114:第2センサ位置姿勢決定部、115:モデル情報保持部、116:モデル情報保持部、117:3次元位置姿勢計測部、118:位置姿勢調整部、119:位置姿勢出力部

Claims (8)

  1. 位置姿勢が変更できる可動部を持つ可動手段を制御するための情報処理システムであって、
    前記可動手段とは別に配置され、第1の位置姿勢で、対象物体の2次元情報又は3次元情報を取得する第1のセンサ手段と、
    前記可動手段に装着され、前記対象物体の2次元情報を取得する第2のセンサ手段と、
    前記第1のセンサ手段で取得した情報に基づいて、前記対象物体の3次元位置姿勢を計測する第1の計測手段と、
    前記第1の計測手段による計測結果及び前記対象物体のモデル情報に基づいて、前記第2のセンサ手段が情報を取得する第2の位置姿勢を算出する第2センサ位置姿勢決定手段と、
    前記第2の位置姿勢で前記第2のセンサ手段が取得した情報と前記対象物体のモデル情報とに基づいて、前記対象物体の3次元位置姿勢を計測する第2の計測手段とを備えたことを特徴とする情報処理システム。
  2. 前記第2センサ位置姿勢決定手段は、事前に登録されたモデル情報の観察位置として前記対象物体と第2センサとの相対的な位置姿勢を維持するように、前記第1の計測手段による前記対象物体の位置姿勢からの位置関係を算出することを特徴とする請求項1に記載の情報処理システム。
  3. 前記第2の計測手段で前記対象物体の3次元位置姿勢を計測する初期値として、前記第1の計測手段による計測結果と、前記第2センサ位置姿勢決定手段で算出した第2の位置姿勢とを利用することを特徴とする請求項1又は2に記載の情報処理システム。
  4. 前記第1の計測手段で計測した前記対象物体の3次元位置姿勢と、前記第2の計測手段で計測した前記対象物体の3次元位置姿勢とに基づいて、前記対象物体の3次元位置姿勢を算出する調整手段を備えることを特徴とする請求項1乃至3のいずれか1項に記載の情報処理システム。
  5. 前記第2センサ位置姿勢決定手段で第2の位置姿勢を算出する際に前記可動手段の可動範囲であるか否かの判定を行うことを特徴とする請求項1乃至4のいずれか1項に記載の情報処理システム。
  6. 位置姿勢が変更できる可動部を持つ可動手段を制御するための情報処理方法であって、
    前記可動手段とは別に、第1の位置姿勢で配置された第1のセンサ手段により、対象物体の2次元情報又は3次元情報を取得するステップと、
    前記第1のセンサ手段で取得した情報に基づいて、前記対象物体の3次元位置姿勢を計測する第1の計測ステップと、
    前記第1の計測ステップによる計測結果及び前記対象物体のモデル情報に基づいて、前記可動手段に装着された第2のセンサ手段が前記対象物体の2次元情報を取得する第2の位置姿勢を算出するステップと、
    前記第2の位置姿勢で前記第2のセンサ手段が取得した情報と前記対象物体のモデル情報とに基づいて、前記対象物体の3次元位置姿勢を計測する第2の計測ステップとを有することを特徴とする情報処理方法。
  7. 位置姿勢が変更できる可動部を持つ可動手段を制御するための処理をコンピュータに実行させるプログラムであって、
    前記可動手段とは別に、第1の位置姿勢で配置された第1のセンサ手段により、対象物体の2次元情報又は3次元情報を取得する処理と、
    前記第1のセンサ手段で取得した情報に基づいて、前記対象物体の3次元位置姿勢を計測する第1の計測処理と、
    前記第1の計測処理による計測結果及び前記対象物体のモデル情報に基づいて、前記可動手段に装着された第2のセンサ手段が前記対象物体の2次元情報を取得する第2の位置姿勢を算出する処理と、
    前記第2の位置姿勢で前記第2のセンサ手段が取得した情報と前記対象物体のモデル情報とに基づいて、前記対象物体の3次元位置姿勢を計測する第2の計測処理とをコンピュータに実行させるためのプログラム。
  8. 請求項7に記載のプログラムを記録したことを特徴とするコンピュータ読み取り可能な記録媒体。
JP2012193369A 2012-09-03 2012-09-03 情報処理システム、装置、方法及びプログラム Active JP6021533B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012193369A JP6021533B2 (ja) 2012-09-03 2012-09-03 情報処理システム、装置、方法及びプログラム
US14/013,346 US9746855B2 (en) 2012-09-03 2013-08-29 Information processing system, method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012193369A JP6021533B2 (ja) 2012-09-03 2012-09-03 情報処理システム、装置、方法及びプログラム

Publications (3)

Publication Number Publication Date
JP2014046433A true JP2014046433A (ja) 2014-03-17
JP2014046433A5 JP2014046433A5 (ja) 2015-10-15
JP6021533B2 JP6021533B2 (ja) 2016-11-09

Family

ID=50188628

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012193369A Active JP6021533B2 (ja) 2012-09-03 2012-09-03 情報処理システム、装置、方法及びプログラム

Country Status (2)

Country Link
US (1) US9746855B2 (ja)
JP (1) JP6021533B2 (ja)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016020888A (ja) * 2014-06-20 2016-02-04 株式会社リコー 計測システム、物体取出システム、計測方法およびプログラム
JP2016052695A (ja) * 2014-09-03 2016-04-14 キヤノン株式会社 ロボット装置、およびロボット装置の制御方法
JP2016170050A (ja) * 2015-03-12 2016-09-23 キヤノン株式会社 位置姿勢計測装置、位置姿勢計測方法及びコンピュータプログラム
JP2017010386A (ja) * 2015-06-24 2017-01-12 株式会社東芝 物品処理装置
JP2017061025A (ja) * 2015-09-25 2017-03-30 キヤノン株式会社 ロボット制御装置、ロボット制御方法及びコンピュータプログラム
JP2018122409A (ja) * 2017-02-02 2018-08-09 トヨタ車体株式会社 ロボットの制御装置
JP2018122370A (ja) * 2017-01-30 2018-08-09 ファナック株式会社 少なくとも1つのセンサを用いた物品搬送装置
JP2018202608A (ja) * 2018-09-28 2018-12-27 キヤノン株式会社 ロボット装置、ロボット装置の制御方法、プログラムおよび記録媒体
WO2019171822A1 (ja) * 2018-03-09 2019-09-12 ソニー株式会社 制御システム及び制御システムにおける方法
US10695912B2 (en) 2017-11-16 2020-06-30 Kabushiki Kaisha Toshiba Actuation system and computer program product utilizing visual servo control based on images from multiple cameras
KR102261498B1 (ko) * 2020-07-10 2021-06-07 주식회사 두산 픽킹 대상물의 자세 추정 장치 및 방법
US11396101B2 (en) 2018-11-08 2022-07-26 Kabushiki Kaisha Toshiba Operating system, control device, and computer program product
WO2023276238A1 (ja) * 2021-07-02 2023-01-05 ソニーグループ株式会社 ロボット制御装置、およびロボット制御方法

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5897532B2 (ja) * 2013-11-05 2016-03-30 ファナック株式会社 三次元空間に置かれた物品をロボットで取出す装置及び方法
JP2015147256A (ja) 2014-02-04 2015-08-20 セイコーエプソン株式会社 ロボット、ロボットシステム、制御装置、及び制御方法
CN104827480A (zh) * 2014-02-11 2015-08-12 泰科电子(上海)有限公司 机器人系统的自动标定方法
US9233469B2 (en) * 2014-02-13 2016-01-12 GM Global Technology Operations LLC Robotic system with 3D box location functionality
JP6331517B2 (ja) * 2014-03-13 2018-05-30 オムロン株式会社 画像処理装置、システム、画像処理方法、および画像処理プログラム
JP6364836B2 (ja) * 2014-03-14 2018-08-01 セイコーエプソン株式会社 ロボット、ロボットシステム、及び制御装置
JP6642968B2 (ja) * 2014-03-20 2020-02-12 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
JP5829306B2 (ja) * 2014-05-12 2015-12-09 ファナック株式会社 レンジセンサの配置位置評価装置
DE102014113389A1 (de) * 2014-09-17 2016-03-17 Pilz Gmbh & Co. Kg Verfahren und Vorrichtung zum Identifizieren von Strukturelementen eines projizierten Strukturmusters in Kamerabildern
WO2016120724A1 (en) * 2015-01-29 2016-08-04 Abb Technology Ag 3d segmentation for robotic applications
US9855658B2 (en) * 2015-03-19 2018-01-02 Rahul Babu Drone assisted adaptive robot control
US10547796B2 (en) 2015-07-14 2020-01-28 Industrial Technology Research Institute Calibration equipment and calibration method of a mechanical system
US10970877B2 (en) * 2015-09-30 2021-04-06 Sony Corporation Image processing apparatus, image processing method, and program
US10427305B2 (en) * 2016-07-21 2019-10-01 Autodesk, Inc. Robotic camera control via motion capture
US10055667B2 (en) 2016-08-03 2018-08-21 X Development Llc Generating a model for an object encountered by a robot
US10315866B2 (en) * 2016-10-20 2019-06-11 Intelligrated Headquarters, Llc 3D-2D vision system for robotic carton unloading
JP6450727B2 (ja) * 2016-10-28 2019-01-09 ファナック株式会社 ロボットが行う物品整列作業のシミュレーションのための装置、方法、プログラム及び記録媒体
CN106624709B (zh) * 2016-12-29 2019-01-11 南京天祥智能设备科技有限公司 基于双目视觉的装配系统及装配方法
JP6527178B2 (ja) * 2017-01-12 2019-06-05 ファナック株式会社 視覚センサのキャリブレーション装置、方法及びプログラム
JP6450788B2 (ja) * 2017-02-21 2019-01-09 ファナック株式会社 ワーク取出システム
DE102017005194C5 (de) * 2017-05-31 2022-05-19 Kuka Deutschland Gmbh Steuern einer Roboteranordnung
GB2566534B (en) * 2017-09-18 2022-04-13 Fieldwork Robotics Ltd Robotic arm
JP6880457B2 (ja) * 2017-11-14 2021-06-02 オムロン株式会社 把持方法、把持システム及びプログラム
CN108766894B (zh) * 2018-06-07 2019-11-05 湖南大学 一种机器人视觉引导的芯片贴装方法及系统
WO2020024909A1 (zh) * 2018-08-02 2020-02-06 广东虚拟现实科技有限公司 定位跟踪方法、终端设备及计算机可读取存储介质
US11312020B2 (en) * 2018-11-20 2022-04-26 Beijing Jingdong Shangke Information Technology Co System and method for fast object detection in robot picking
CN111267085A (zh) * 2018-12-04 2020-06-12 北京猎户星空科技有限公司 一种动作分子的执行方法及装置、设备和存储介质
CN111360810A (zh) * 2018-12-25 2020-07-03 深圳市优必选科技有限公司 机器人传感器的外参标定方法、装置、机器人及存储介质
WO2020189154A1 (ja) * 2019-03-19 2020-09-24 株式会社豊田自動織機 物品検出装置、物品検出方法、及び産業車両
US11845191B1 (en) * 2019-06-26 2023-12-19 Amazon Technologies, Inc. Robotic picking of cuboidal items from a pallet
JP7314871B2 (ja) * 2020-07-09 2023-07-26 新東工業株式会社 強度計測装置及び強度計測方法
CN113733100B (zh) * 2021-09-29 2022-10-28 珠海优特电力科技股份有限公司 巡检操作机器人的目标定位方法、装置、设备及存储介质
US20230137715A1 (en) * 2021-10-28 2023-05-04 Ubtech North America Research And Development Center Corp Vision-guided picking and placing method, mobile robot and computer-readable storage medium

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000288974A (ja) * 1999-04-08 2000-10-17 Fanuc Ltd 画像処理機能を持つロボット装置
JP2002090113A (ja) * 2000-09-20 2002-03-27 Fanuc Ltd 位置姿勢認識装置
JP2008002980A (ja) * 2006-06-23 2008-01-10 Canon Inc 情報処理方法および装置
JP2008087074A (ja) * 2006-09-29 2008-04-17 Fanuc Ltd ワーク取り出し装置
JP2011133313A (ja) * 2009-12-24 2011-07-07 Canon Inc センサ位置姿勢計測方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7423666B2 (en) * 2001-05-25 2008-09-09 Minolta Co., Ltd. Image pickup system employing a three-dimensional reference object
JP5854815B2 (ja) 2011-12-20 2016-02-09 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、およびプログラム
JP6000579B2 (ja) * 2012-03-09 2016-09-28 キヤノン株式会社 情報処理装置、情報処理方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000288974A (ja) * 1999-04-08 2000-10-17 Fanuc Ltd 画像処理機能を持つロボット装置
US7177459B1 (en) * 1999-04-08 2007-02-13 Fanuc Ltd Robot system having image processing function
JP2002090113A (ja) * 2000-09-20 2002-03-27 Fanuc Ltd 位置姿勢認識装置
JP2008002980A (ja) * 2006-06-23 2008-01-10 Canon Inc 情報処理方法および装置
JP2008087074A (ja) * 2006-09-29 2008-04-17 Fanuc Ltd ワーク取り出し装置
JP2011133313A (ja) * 2009-12-24 2011-07-07 Canon Inc センサ位置姿勢計測方法

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016020888A (ja) * 2014-06-20 2016-02-04 株式会社リコー 計測システム、物体取出システム、計測方法およびプログラム
JP2016052695A (ja) * 2014-09-03 2016-04-14 キヤノン株式会社 ロボット装置、およびロボット装置の制御方法
JP2016170050A (ja) * 2015-03-12 2016-09-23 キヤノン株式会社 位置姿勢計測装置、位置姿勢計測方法及びコンピュータプログラム
JP2017010386A (ja) * 2015-06-24 2017-01-12 株式会社東芝 物品処理装置
JP2017061025A (ja) * 2015-09-25 2017-03-30 キヤノン株式会社 ロボット制御装置、ロボット制御方法及びコンピュータプログラム
JP2018122370A (ja) * 2017-01-30 2018-08-09 ファナック株式会社 少なくとも1つのセンサを用いた物品搬送装置
US10377581B2 (en) 2017-01-30 2019-08-13 Fanuc Corporation Article conveying device using at least one sensor
JP2018122409A (ja) * 2017-02-02 2018-08-09 トヨタ車体株式会社 ロボットの制御装置
US10695912B2 (en) 2017-11-16 2020-06-30 Kabushiki Kaisha Toshiba Actuation system and computer program product utilizing visual servo control based on images from multiple cameras
WO2019171822A1 (ja) * 2018-03-09 2019-09-12 ソニー株式会社 制御システム及び制御システムにおける方法
JP2018202608A (ja) * 2018-09-28 2018-12-27 キヤノン株式会社 ロボット装置、ロボット装置の制御方法、プログラムおよび記録媒体
US11396101B2 (en) 2018-11-08 2022-07-26 Kabushiki Kaisha Toshiba Operating system, control device, and computer program product
KR102261498B1 (ko) * 2020-07-10 2021-06-07 주식회사 두산 픽킹 대상물의 자세 추정 장치 및 방법
WO2023276238A1 (ja) * 2021-07-02 2023-01-05 ソニーグループ株式会社 ロボット制御装置、およびロボット制御方法

Also Published As

Publication number Publication date
JP6021533B2 (ja) 2016-11-09
US20140067317A1 (en) 2014-03-06
US9746855B2 (en) 2017-08-29

Similar Documents

Publication Publication Date Title
JP6021533B2 (ja) 情報処理システム、装置、方法及びプログラム
JP6000579B2 (ja) 情報処理装置、情報処理方法
JP5854815B2 (ja) 情報処理装置、情報処理装置の制御方法、およびプログラム
JP5975685B2 (ja) 情報処理装置、情報処理方法
JP5977544B2 (ja) 情報処理装置、情報処理方法
JP7292829B2 (ja) 案内された組立環境におけるマシンビジョン座標空間を結合するためのシステム及び方法
JP6180087B2 (ja) 情報処理装置及び情報処理方法
JP6324025B2 (ja) 情報処理装置、情報処理方法
JP5567908B2 (ja) 3次元計測装置、その計測方法及びプログラム
JP2016099257A (ja) 情報処理装置及び情報処理方法
US9679385B2 (en) Three-dimensional measurement apparatus and robot system
JP6092530B2 (ja) 画像処理装置、画像処理方法
JP2005515910A (ja) シングルカメラ3dビジョンガイドロボティクスの方法および装置
JP6317618B2 (ja) 情報処理装置およびその方法、計測装置、並びに、作業装置
JP6677522B2 (ja) 情報処理装置、情報処理装置の制御方法およびプログラム
JP6885856B2 (ja) ロボットシステムおよびキャリブレーション方法
JPWO2019146201A1 (ja) 情報処理装置、情報処理方法及び情報処理システム
JP2016170050A (ja) 位置姿勢計測装置、位置姿勢計測方法及びコンピュータプログラム
JP2020121352A (ja) 物体把持システム
WO2018145025A1 (en) Calibration article for a 3d vision robotic system
CN112109072B (zh) 一种大型稀疏特征托盘精确6d位姿测量和抓取方法
JP7180783B2 (ja) コンピュータビジョンシステムのキャリブレーション方法及びこれに用いる基準立体物
TWI806761B (zh) 標誌檢測裝置以及機器人示教系統
JP6285765B2 (ja) 情報処理装置、情報処理方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150828

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150828

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160629

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160809

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160906

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161004

R151 Written notification of patent or utility model registration

Ref document number: 6021533

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151