JP2013186088A - 情報処理装置、情報処理方法 - Google Patents

情報処理装置、情報処理方法 Download PDF

Info

Publication number
JP2013186088A
JP2013186088A JP2012053679A JP2012053679A JP2013186088A JP 2013186088 A JP2013186088 A JP 2013186088A JP 2012053679 A JP2012053679 A JP 2012053679A JP 2012053679 A JP2012053679 A JP 2012053679A JP 2013186088 A JP2013186088 A JP 2013186088A
Authority
JP
Japan
Prior art keywords
orientation
target object
sensor
unit
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012053679A
Other languages
English (en)
Other versions
JP2013186088A5 (ja
JP6000579B2 (ja
Inventor
Masahiro Suzuki
雅博 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012053679A priority Critical patent/JP6000579B2/ja
Priority to US13/775,888 priority patent/US9026234B2/en
Priority to EP13158201.7A priority patent/EP2636493B1/en
Priority to CN201310075115.2A priority patent/CN103302666B/zh
Publication of JP2013186088A publication Critical patent/JP2013186088A/ja
Publication of JP2013186088A5 publication Critical patent/JP2013186088A5/ja
Application granted granted Critical
Publication of JP6000579B2 publication Critical patent/JP6000579B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B21/00Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant
    • G01B21/16Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring distance of clearance between spaced objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/1653Programme controls characterised by the control loop parameters identification, estimation, stiffness, accuracy, error analysis
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1669Programme controls characterised by programming, planning systems for manipulators characterised by special application, e.g. multi-arm co-operation, assembly, grasping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/37131Moire pattern, diffraction grating, fringe
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40053Pick 3-D object from pile of objects
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40607Fixed camera to observe workspace, object, workpiece, global
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40613Camera, laser scanner on end effector, hand eye manipulator, local
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/42Servomotor, servo controller kind till VSS
    • G05B2219/42318Using two, more, redundant measurements or scales to detect bad function
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/45Nc applications
    • G05B2219/45063Pick and place manipulator

Abstract

【課題】 対象物体の位置姿勢をより高精度に求めるための技術を提供すること。
【解決手段】 第1の位置姿勢を有する第1のセンサによる計測結果から、対象物体の位置姿勢を求める(第1の計算)。第1の位置姿勢とは異なる第2の位置姿勢に第2のセンサを移動させ、該第2のセンサによる計測結果から、対象物体の位置姿勢を求める(第2の計算)。第1の計算による位置姿勢と第2の計算による位置姿勢とが規定の条件を満たしている場合に、第2の計算による位置姿勢、若しくは第1の計算による位置姿勢及び第2の計算による位置姿勢から計算される位置姿勢、を出力する。
【選択図】図1

Description

本発明は、対象物体の位置姿勢を求める技術に関するものである。
近年のロボット技術の発展とともに、工業製品の組立のようなこれまで人間が行っていた複雑なタスクをロボットが代わりに行うようになりつつある。このようなロボットは、ハンドなどのエンドエフェクタによって部品をピックして組立を行う。従来より、ピックするための部品の供給は、パーツフィーダと呼ばれる部品1つ1つを並べて供給するための装置を利用したり、あるいはパレット(箱)に部品を様々な姿勢で山積みすることによって行われている。パーツフィーダを利用する場合は、部品1つ1つの位置姿勢が予め決まった状態で供給されるため、ロボットによるピックは比較的容易に行われる。しかしパーツフィーダ装置を用意するためのコストが余計にかかる。また、部品の形状に合わせて異なるパーツフィーダを用意しなければならないこともある。一方、部品を山積みにして供給する場合はパレットに部品を置くだけでよいためコスト増を回避することができる。さらに、近年の少量多品種生産の傾向を受けて、様々な部品へ素早く対応することができる山積み供給に注目が集まっている。
従来技術である特許文献1では、まずパレットの上方に設置されたカメラにより複数の対象物体全体を撮影し、対象物体を撮影した画像上での2次元位置を求める。次に、ロボットの手先部に搭載したセンサを1つの対象物体の近傍の上方に移動させる。そしてセンサによって対象物体の位置姿勢計測を行い、ロボットハンドで対象物体の把持を行う。全体を撮影するカメラと、計測範囲は狭いが精度よく位置姿勢を検出することができるセンサとを組み合わせて段階的に対象物体を計測する。ここで、位置姿勢計測に失敗したり、ロボットハンドで対象物体を把持することに失敗すると、対象としていた物体を次回の検出対象から外して再度位置姿勢計測を行う。このように次回も失敗する可能性が高い対象物体を検出対象から外すことで、処理の効率化を図ることができる。
特許第04226623号
特許文献1による方法では、位置姿勢計測に失敗したり、ロボットハンドで対象物体を把持することに失敗すると、対象としていた物体を次回の検出対象から外して再度位置姿勢計測を行う。ただし位置姿勢計測の失敗には2種類ある。1つ目は対象物体を検出することができずに位置姿勢の計測結果を出力できない場合である。2つ目は対象物体の位置姿勢とは異なる位置姿勢を誤って求めて計測結果として出力する場合である。いずれの場合も対象物体の位置姿勢を正しく計測できていないという意味で失敗と言える。しかし、特許文献1では前者の失敗についてのみ述べており、後者の失敗については触れていない。そのため、特許文献1において後者の失敗が起こった場合は、位置姿勢計測に失敗したと判定されず、誤った位置姿勢に対象物体があるものとしてロボットハンドによる把持を試みる。実際には対象物体が計測結果とは異なる位置姿勢で置かれているためロボットハンドによる把持は失敗する。このとき、把持〜把持失敗検知という無駄な処理が発生するため効率が悪い。
本発明は、以上の課題に鑑みてなされたものであり、対象物体の位置姿勢をより高精度に求めるための技術を提供することを目的とする。
本発明の目的を達成するために、例えば、本発明の情報処理装置は、第1の位置姿勢を有する第1のセンサによる計測結果から、対象物体の位置姿勢を求める第1の計算手段と、前記第1の位置姿勢とは異なる第2の位置姿勢に第2のセンサを移動させ、該第2のセンサによる計測結果から、前記対象物体の位置姿勢を求める第2の計算手段と、前記第1の計算手段が計算した位置姿勢と前記第2の計算手段が計算した位置姿勢とが規定の条件を満たしている場合に、前記第2の計算手段が計算した位置姿勢、若しくは前記第1の計算手段が計算した位置姿勢及び前記第2の計算手段が計算した位置姿勢から計算される位置姿勢、を出力する出力手段とを備えることを特徴とする。
本発明の構成によれば、対象物体の位置姿勢をより高精度に求めることができる。
システムの構成例を示す図。 3次元幾何モデルについて説明する図。 CADモデルとCADモデルを取り囲むGeodesic Sphereを示す図。 システムの動作を示すフローチャート。 エッジ検出を説明する図。 線分の投影像と検出されたエッジの関係を説明する図。
以下、添付図面を参照し、本発明の好適な実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載の構成の具体的な実施例の1つである。
[第1の実施形態]
本実施形態では、対象物体の2次元情報若しくは3次元情報を取得(計測)する第1のセンサと、ロボットに装着され該対象物体の2次元情報若しくは3次元情報を取得(計測)する第2のセンサと、を用いて、該対象物体の3次元位置姿勢計測を行う。その際、それぞれのセンサの計測結果の整合性を判断し、整合していると判断した場合は、この計測結果は正しいものと判断し、この計測結果を用いて対象物体に対してロボットによる作業を行う。整合していないと判断した場合は、ロボットハンドの位置を動かして再度計測を行う。このようにすることで、第2のセンサを用いて計測した結果が実際の対象物体の位置姿勢と異なっている場合に、誤った計測結果に基づいてロボットによる作業が行われることを防ぐことができる。また、これにより、把持〜把持失敗検知という無駄な処理が発生しないため、ロボットによる作業の効率化を行うことができる。
先ず、本実施形態に係るシステムの構成例について、図1を用いて説明する。
ロボット100は、多関節ロボットであり、ロボットコントローラ部120からの制御命令を受けて稼働する。ロボット100の先端にはエンドエフェクタであるハンド部が装着されており、対象物体に対する作業を行うことが可能である。本実施形態では、エンドエフェクタとして対象物体を把持することが可能なチャック機構を持つハンド部を用いる。エンドエフェクタにはモータ駆動可能なハンド部を用いてもよいし、空気圧で対象物体を吸着する吸着パッドを用いてもよい。
なお、センサ部101の位置姿勢、ロボット100やハンド部の位置や軌道、ロボット100のアームとセンサ部102の相対位置姿勢のキャリブレーション作業は、公知の技術によって予め行われているものとする。これによって、後述する3次元位置姿勢計測部113および3次元位置姿勢計測部116で計測する位置姿勢を、パレット104が置かれた空間に固定されたワークスペース座標系に変換することが可能になる。また、ワークスペース座標系で指定した位置姿勢にハンド部が移動するようにロボット100を制御することが可能になる。
センサ部101は、2次元情報としての2次元画像を撮影するカメラである。センサ部101は、パレット104の上方に第1の位置姿勢で固定的に配置されており、山積みされた対象物体103の画像を撮影し、撮影した画像をセンサ情報取得部111に対して出力する。本実施形態では、センサ部101で撮影した画像は画像処理部110で処理するが、センサ部101内に画像処理機構を持たせて画像処理した結果を出力してもよい。なお、センサ部101によって対象物体103を撮影する際には、対象物体103に対して図示しない照明による照明光を当てる。この照明はセンサ部101の周りに配置されており、センサ部101が対象物体103の2次元画像を撮影するときに均一の照明環境下で撮影可能な状態にする。
センサ部102は、小型のプロジェクタと、2次元画像を撮影する小型のカメラと、を有する。センサ部102は、ロボット100のハンド部分近くに固定的に装着されており、ロボット100の各関節の角度によって制御可能(変更可能)な位置姿勢でエンドエフェクタ付近にあるものを計測する。センサ部102のプロジェクタとカメラとの相対的な位置関係は予めキャリブレーションにより求まっているものとする。本実施形態では、センサ部102で撮影した画像は画像処理部110で処理するが、センサ部102内に画像処理機構を持たせて画像処理した結果を出力してもよい。
センサ部102のプロジェクタは、対象物体103に対して規定のパターン像(パターン光)を照射(投影)し、パターン像が投影された対象物体103をセンサ部102のカメラにより撮影し、撮影した画像をセンサ情報取得部115に出力する。規定のパターン像としては、空間符号化法の幅の異なる複数の縞模様パターンや、複数の線パターンなどの像を利用する。2次元的なパターンやランダムドットのようなパターンでもよい。また、センサ部102は、回折格子と照明とカメラとから構成されてもよい。この場合は回折格子と照明により対象物体にパターン光を投射し、カメラによりパターンを撮影する。撮影された画像は、センサ情報取得部115を経由して3次元位置姿勢計測部116にて三角測量の原理により距離を求めるために用いられる。
対象物体103は、工業製品を構成する部品である。ロボット100によりピックされて製品に組み付けられる。素材には、プラスチック、金属、ビニールなど、様々なものを用いることができる。対象物体103が様々な姿勢になるようにパレット104に山積みされている。
パレット104は、対象物体103を入れるための箱である。パレットの素材に制約はないが、プラスチックや紙素材を用いることが多い。また形状にも制約はないが、作りやすさの点から立方体あるいは直方体にすることが多い。大きさにも制約はないが、通常はセンサ部101で計測可能な範囲内に収まるようにする。
次に、情報処理装置として機能する画像処理部110について説明する。
センサ情報取得部111は、センサ部101が撮影した対象物体103の撮影画像を取得し、該取得した撮影画像を3次元位置姿勢計測部113に対して出力する。
モデル情報保持部112は、3次元位置姿勢計測部113および3次元位置姿勢計測部116で対象物体103の位置姿勢を計測するために利用されるモデル情報を保持する。モデル情報の1つとして、3次元CADに基づく対象物体103の3次元幾何モデルがあげられる。もう1つのモデル情報として、実際の対象物体103もしくは対象物体103を模した3次元幾何モデルを予め定められた複数の視点から見た参照画像の集合である参照画像モデルがあげられる。
3次元幾何モデルは、3次元CADソフトで取り扱うことができるCADモデルそのもの、もしくは3次元CADモデルをComputer Graphics分野で使われる複数のポリゴン要素に変換したものである。本実施形態では、ポリゴン要素で構成される3次元幾何モデルを用いる。ポリゴン要素で構成される3次元幾何モデルについて、図2を用いて説明する。
ポリゴン要素で構成される3次元幾何モデルは、図2に示すような点、線、面といった構成要素からなる。図2(a)〜(c)はいずれも同じ3次元幾何モデルを示している。
ポリゴン要素で構成される3次元幾何モデルのモデル情報では、図2(a)に例示している3次元幾何モデルの各頂点について、図2(d)に示す如く、該頂点のインデックスと、該頂点の3次元座標値と、を管理している。
また、このモデル情報では、図2(b)に例示している3次元幾何モデルの各辺について、図2(e)に示す如く、該辺のインデックスと、該辺の両端における頂点のインデックスと、を管理している。
また、このモデル情報では、図2(c)に例示している3次元幾何モデルの各面(ポリゴン)について、図2(f)に示す如く、該ポリゴンのインデックスと、該ポリゴンの各辺のインデックスと、該ポリゴンの法線ベクトルと、を管理している。
参照画像モデルは、複数の2次元画像からなるデータである。実写画像に基づく参照画像モデルは、対象物体103を中心にして様々な方向からカメラで撮影を行って得た画像から作成する。撮影を行うためにやぐらを組んでカメラを複数配置してもよいし、人が手でカメラを持って撮影してもよいし、ロボットに装着したカメラでロボットを動かしながら撮影を行ってもよい。どの方法で撮影を行ってもよいが、撮影したときのカメラと対象物体103との相対位置姿勢を求め、撮影画像と関連付けて記憶しておく。相対位置姿勢は、やぐらに複数のカメラを配置したときは、やぐらの形状から求めることができる。人が手でカメラを持つ場合は、カメラに位置姿勢センサを装着することで、該位置姿勢センサから求めることができる。ロボットに装着したカメラで撮影するときはロボットの制御情報を利用して求めることができる。
対象物体103を模した3次元幾何モデルに基づく参照画像モデルは、CADモデルの中心から頂点が等しい距離になるGeodesic Sphereを設定し、Geodesic Sphereの頂点からCADモデルの中心を向いたときの画像を用いる。Geodesic Sphereの頂点は複数あり、隣り合ったそれぞれの頂点は同じ距離となる。ある頂点を基準位置として、他の頂点との相対的な関係を元にどの方向から見たかを画像と共に記憶しておく。図3にCADモデルとCADモデルを取り囲むGeodesic Sphereとを示す。Geodesic Sphereの各頂点から中心をみたときの画像の集合を参照画像モデルとする。
対象物体103が1種類と予め分かっている場合は、その種類のモデル情報だけをモデル情報保持部112に格納しておく。複数種類の対象物体を扱うときは、複数のモデル情報をモデル情報保持部112に格納しておき、利用時に切り替える。
3次元位置姿勢計測部113は、センサ情報取得部111から出力された対象物体103の撮影画像と、モデル情報保持部112が保持しているモデル情報と、を用いて、対象物体103の位置姿勢を求める。そして3次元位置姿勢計測部113は、求めた位置姿勢を、センサ位置姿勢決定部114および位置姿勢整合判断部117に対して出力する。
モデル情報として3次元幾何モデルを利用する場合は、3次元幾何モデルの辺である線と、センサ情報取得部111から出力された撮影画像から抽出したエッジ成分と、の対応付けを行うことで対象物体103の位置姿勢を求める。本実施形態では撮影画像上で、対象物体103のエッジと、3次元幾何モデルにおいて該エッジに対応する部分と、が一致するように3次元幾何モデルの位置姿勢の概略値を反復演算により繰り返し補正する。これにより、該補正結果を、対象物体103の位置姿勢として求める。
モデル情報として参照画像モデルを利用する場合は、参照画像モデルをテンプレートとし、テンプレートマッチングにより撮影画像と最も一致する参照画像を求め、求めた参照画像に関連付けられている相対位置姿勢を元に対象物体103の位置姿勢を求める。
センサ位置姿勢決定部114は、3次元位置姿勢計測部113で求めた対象物体103の位置姿勢から、第2のセンサ部102が対象物体103を計測するための第2の位置姿勢を求める。そしてセンサ位置姿勢決定部114は、求めた第2の位置姿勢をロボット作業指示部121に対して出力する。第2の位置姿勢の求め方については後述する。
センサ情報取得部115は、センサ部102が撮影した対象物体103の撮影画像を取得し、取得した撮影画像を3次元位置姿勢計測部116に対して出力する。
3次元位置姿勢計測部116は、センサ情報取得部115から出力された撮影画像と、モデル情報保持部112が保持しているモデル情報と、を用いて対象物体103の詳細な位置姿勢を求める。そして3次元位置姿勢計測部116は、求めた位置姿勢を位置姿勢整合判断部117に出力する。
モデル情報として3次元幾何モデルを利用する場合は、3次元幾何モデルから抽出した表面の点群データと、センサ情報取得部115から出力された撮影画像から抽出した距離点群との対応付けを行うことで対象物体103の位置姿勢を求める。上記のパターン像が投影された対象物体103の撮影画像から距離点群を求めるためには、空間符号化法、光切断法などの公知技術を用いればよい。求めた距離点群とモデル情報とを利用して対象物体103の位置姿勢を求めるために、本実施形態ではICP(Iterative Closest Point)法を用いる。対象物体103の位置姿勢を反復演算によって繰り返し補正する。なお、対象物体103の位置姿勢を求めるための手法はICP法に限るものではない。
モデル情報として参照画像モデルを利用する場合は、参照画像モデルをテンプレートとしたテンプレートマッチングにより撮影画像と最も一致する参照画像を求め、その参照画像に関連付けられている相対位置姿勢を元に対象物体103の位置姿勢を求める。
位置姿勢整合判断部117は、3次元位置姿勢計測部113から出力された位置姿勢と、3次元位置姿勢計測部116から出力された位置姿勢と、が整合しているか否かを判断する。そして位置姿勢整合判断部117は、この判断の結果をロボット作業指示部121に対して送出する。即ち、整合していると判断した場合には、整合していることを示す情報と、3次元位置姿勢計測部116が求めた位置姿勢と、を判断の結果としてロボット作業指示部121に対して送出する。あるいは、整合していることを示す情報と、3次元位置姿勢計測部113が求めた位置姿勢と、3次元位置姿勢計測部116が求めた位置姿勢と、を判断の結果としてロボット作業指示部121に対して送出してもよい。一方、整合していないと判断した場合には、整合していないことを示す情報を、判断の結果としてロボット作業指示部121に対して送出する。位置姿勢整合判断部117による判断処理については後述する。
次にロボットコントローラ部120について説明する。
ロボット作業指示部121は、ハンド部を移動させる為の指示信号を生成する。例えば、ロボット作業指示部121は、センサ位置姿勢決定部114から第2の位置姿勢を受けると、ハンド部を第2の位置姿勢(移動先)に移動させるための指示信号を生成する。また、ロボット作業指示部121は、位置姿勢整合判断部117から出力された位置姿勢を受けると、該位置姿勢にある対象物体103を把持や吸着できる位置姿勢にハンド部を移動させて把持や吸着を行うことを指示するための指示信号を生成する。また、ロボット作業指示部121は、位置姿勢整合判断部117から整合していないことを示す情報を受けると、ハンド部を現在の位置姿勢とは異なる位置姿勢に移動させるための指示信号を生成する。
なお、ロボットの作業は移動、把持、吸着に限られるものではなく、対象物体103の外観検査など、他の作業も含むことは言うまでもない。さらに、ロボットも多関節ロボットではなくNC制御可能な可動式の機械でもよいことは言うまでもない。
ロボット制御部122は、ロボット作業指示部121から指示信号を受けると、この指示信号に従ってロボット100の動作制御を行う。これによりロボット100のハンド部の位置姿勢を指示信号に応じて移動させることが出来る。
次に、本実施形態に係るシステムの動作について、図4のフローチャートを用いて説明する。
ステップS401では、パレット104の上方に第1の位置姿勢で固定されたセンサ部101が対象物体103の画像を撮影し、撮影した画像をセンサ情報取得部111に出力する。センサ部101の位置姿勢は予めキャリブレーションで求まっているものとする。そしてセンサ情報取得部111は、センサ部101から受けた対象物体103の撮影画像を3次元位置姿勢計測部113に対して送出する。
ステップS402では、3次元位置姿勢計測部113は、センサ情報取得部111から受けた撮影画像中の複数の対象物体103のうち少なくとも1つの対象物体103’の位置姿勢を求める。対象物体103’の位置姿勢を求めるために、モデル情報保持部112は保持しているモデル情報を出力し、3次元位置姿勢計測部113が対象物体103の画像とモデル情報とのマッチングを行う。
モデル情報として3次元幾何モデルを利用する場合は、対象物体103’の3次元幾何モデルの辺である線分と、センサ情報取得部111から出力された撮影画像から抽出したエッジ成分との対応付けを行うことで対象物体103’の位置姿勢を求める。本実施形態では、撮影画像に3次元幾何モデルが当てはまるように、非線形最適化手法の一つであるGauss−Newton法を用いて計測対象物体の位置姿勢(6次元ベクトルsで表す)の概略値を反復演算によって繰り返し補正する。なお、対象物体の位置姿勢を求めるための最適化手法はGauss−Newton法に限るものではない。
図5はエッジ検出を説明する図である。何らかの方法(例えばテンプレートマッチング)により得られた対象物体の概略位置姿勢とキャリブレーション済みのセンサ部101の内部パラメータを用いて、3次元幾何モデルを構成する各線分の画像上への投影像を算出する。線分の投影像は画像上でも線分となる。次に、画像上で等間隔になるように、投影された線分501上に制御点502を設定し、制御点502ごとに、投影された線分501の法線方向503に1次元のエッジ504の検出を行う(図5(a))。エッジは画素値の濃度勾配505の極値として検出されるため、図5(b)に示すように、複数のエッジ506が検出されることがある。本実施形態では、検出されるエッジをすべて保持する。
3次元幾何モデルの辺である線分とセンサ情報取得部111から出力された撮影画像のエッジ成分との対応付けを行い、対象物体の位置姿勢を求めるには、位置姿勢を算出するための係数行列と誤差ベクトルの算出を行う。ここで係数行列の各要素は、画像上での点と直線の距離を位置姿勢の関数とした時の、位置姿勢の各要素に関する1次の偏微分係数である。誤差ベクトルは、エッジについては投影された線分と検出されたエッジの画像上での符号付き距離である。係数行列の導出について説明する。
図6は、線分の投影像と検出されたエッジの関係を説明する図である。図6では、画像の水平方向、垂直方向をそれぞれu軸601、v軸602としている。ある制御点603(投影された各線分を画像上で等間隔に分割した点)の画像上での座標604を(u0,v0)、該制御点が所属する線分の画像上での傾きをu軸601に対する傾きθ605と表す。傾きθ605は、線分606の両端の三次元座標をsに基づいて画像上に投影し、画像上での両端の座標を結んだ直線の傾きとして算出する。該線分606の画像上での法線ベクトルは(sinθ,−cosθ)となる。また、該制御点603の対応点607の画像上での座標608を(u’,v’)とする。ここで、対応点607の座標608(u’,v’)を通り、傾きがθ605である直線(図6の破線)上の点(u,v)は、以下の式で表すことが出来る。
Figure 2013186088
制御点603の画像上での位置は対象物体の位置姿勢により変化する。また、対象物体の位置姿勢の自由度は6自由度である。すなわち、sは6次元ベクトルであり、対象物体の位置を表す3つの要素と、姿勢を表す3つの要素からなる。姿勢を表す3つの要素は、例えばオイラー角による表現や、方向が原点を通る回転軸を表してノルムが回転角を表す三次元ベクトルなどによって表現される。位置姿勢により変化する点の画像上での座標(u,v)は、座標604(u0,v0)の近傍で1次のテイラー展開によって以下の式(2)のように近似できる。但し△si(i=1,2,・・・,6)はsの各成分の微小変化を表す。
Figure 2013186088
位置姿勢の概略値と実際の位置姿勢との差がそれほどないと仮定すると、正しいsによって得られる制御点の画像上での位置は(1)が表す直線上にあると仮定できる。(2)によって近似されるu、vを(1)に代入することにより、(3)が得られる。
Figure 2013186088
ただし、r=u0sinθ−v0cosθ(定数)である。(3)は対応付けが行われたすべてのエッジについて立式することができる。なお、すべてのエッジについて立式せずに一部のエッジについてだけ立式してもよい。(3)はsの各成分の微小変化△si(i=1,2,・・・,6)についての方程式であるため、(4)のような△siに関する線形連立方程式を立てることができる。
Figure 2013186088
ここで(4)を(5)のように表す。
Figure 2013186088
線形連立方程式の係数行列Jを算出するため偏微分係数の算出を行う。(5)をもとに、行列Jの一般化逆行列(J・J)−1・Jを用いて位置姿勢の補正値△sを最小二乗基準で求める。しかしながら、エッジには誤検出などによる外れ値が多いため、次に述べるようなロバスト推定手法を用いる。一般に、外れ値であるエッジでは、(4)の右辺の誤差ベクトルの値が大きくなる。そこで、誤差の絶対値が大きい情報には小さな重みを与え、誤差が小さい情報には大きな重みを与える。重みは例えば(6)に示すようなTukeyの関数により与える。
Figure 2013186088
c1,c2は定数である。なお、重みを与える関数はTukeyの関数である必要はなく、例えばHuberの関数など、誤差が大きい情報には小さな重みを与え、誤差が小さい情報には大きな重みを与える関数であれば、如何なる関数であってもよい。各計測情報(エッジまたは点群データ)に対応する重みをwiとする。ここで(7)のように重み行列Wを定義する。
Figure 2013186088
重み行列Wは、対角成分以外はすべて0の正方行列であり、対角成分には重みwiが入る。この重み行列Wを用いて、(5)を(8)のように変形する。
Figure 2013186088
(8)を(9)のように解くことにより補正値△sを求める。
Figure 2013186088
算出された位置姿勢の補正値△sを用いて以下の式を計算することで、位置姿勢の概略値を補正する。
Figure 2013186088
そして、sの収束判定を行い、収束していれば終了し、そうでなければ繰り返し算出を行う。収束判定では、補正値△sがほぼ0である場合や、誤差ベクトルの二乗和が補正前と補正後でほとんど変わらない場合に収束したと判定する。このように、収束するまで繰り返すことで、位置姿勢を算出できる。
本実施形態では最適化手法としてGauss−Newton法を用いる方法について説明したが、より計算がロバストであるLevenberg−Marquardt法によって行ってもよいし、よりシンプルな方法である最急降下法によって行ってもよい。また、共役勾配法やICCG法など、他の非線形最適化計算手法を用いてもよい。
モデル情報として参照画像モデルを利用する場合は、参照画像モデルをテンプレートとしたテンプレートマッチングにより撮影画像と最も一致する参照画像を求め、その参照画像に関連付けられている相対位置姿勢を元に対象物体の位置姿勢を求める。参照画像の輝度をT(i,j)、撮影画像の輝度をI(i,j)として、参照画像をm画素×n画素の画像としたとき、参照画像と撮影画像との一致度Rは(10)で求めることができる。
Figure 2013186088
3次元位置姿勢計測部113は、以上のようにして求めた対象物体103’の位置姿勢を、センサ位置姿勢決定部114と位置姿勢整合判断部117とに対して出力する。なお、ステップS402で求めた対象物体103’の位置姿勢は、ステップS407で整合があると判断されるまで画像処理部110内の不図示のメモリに保持しておく。あるいはステップS412でロボットのハンド部の位置姿勢がn回変更されたと判断されるなどしてステップS401に戻るまで画像処理部110内の不図示のメモリに保持しておく。
ステップS403では、センサ位置姿勢決定部114は、ステップS402で求めた対象物体103’の位置姿勢から、センサ部102が対象物体103’を撮影する為の位置姿勢である第2の位置姿勢を求める。そしてセンサ位置姿勢決定部114は、求めた第2の位置姿勢をロボット作業指示部121に対して出力する。
なお、ステップS402により少なくとも1つの対象物体103の位置姿勢が求まるので、ここでは説明上、1つの対象物体103’の位置姿勢が求まっているものとしている。もちろん複数の対象物体103の位置姿勢が求まっていて、そのうちの1つを対象物体103’として選択してもよいことは言うまでもない。
第2の位置姿勢は、センサ部102が対象物体103’を撮影することができるのであれば、如何なる位置姿勢であってもよい。ただ、センサ部101のカメラと対象物体103’とを結ぶ直線と、センサ部102のカメラ光軸と、の角度差が所定の角度以上となることが望ましい。センサ部101とセンサ部102はそれぞれ同じ対象物体103’を撮影するため、センサ部101からの対象物体103’の見え方と、センサ部102からの対象物体103’の見え方は異なるほうがよい。一般的に、カメラを利用した3次元位置姿勢計測では、奥行き方向の計測精度は撮影画像面方向での計測精度よりも低い。例えばセンサ部101と対象物体103’とを結ぶ直線上でセンサ部102による対象物体103’の撮影を行うと、それぞれ対象物体103’を同じ方向から見ていることになるため、奥行き方向の精度の悪さを補い合うことができない。一方、角度をずらして別々の方向から対象物体103’を計測することで、奥行き方向の精度の悪さを補い合うことができる。また、それぞれ(一部ではあるが)異なる特徴を利用して位置姿勢計測することになるため、整合判断の信頼度が増す。
このように、センサ部101とセンサ部102とで別々の方向から対象物体103’を計測する。即ち、センサ部102に、センサ部101のカメラの位置と対象物体103’の位置とを通る直線と規定の角度をなす直線上の位置から、対象物体103’を撮影させる。これは、例えば、次の方法で実現できる。
まず、対象物体103’を中心にしてセンサ部101のカメラと対象物体103’とを結ぶ直線と予め定めた角度をなす直線上であって、センサ部102のカメラの焦点が合う対象物体103’からの距離範囲の位置姿勢を第2の位置姿勢の候補位置姿勢とする。そして、現在のセンサ部102の位置姿勢に最も位置の近い候補位置姿勢を第2の位置姿勢とする。最も近い位置を選択することでセンサ部102の移動時間を短くすることができるので、部品ピックのタクトタイムを短くすることができる。なお、カメラの焦点が合う距離範囲は、カメラの最短撮影距離と被写界深度とによって決まる。
ステップS404では、ロボット作業指示部121は、センサ位置姿勢決定部114から受けた第2の位置姿勢にロボット100のハンド部を移動させるための指示信号を生成し、生成した指示信号をロボット制御部122に送出する。ロボット制御部122は、この指示信号に従ってロボット制御部122を制御し、ハンド部を第2の位置姿勢に移動させる。これにより、センサ部102は、第2の位置姿勢で対象物体103’を撮影することが出来る。
ステップS405では、ロボット100に装着されたセンサ部102は、第2の位置姿勢で対象物体103’を撮影し、撮影した画像をセンサ情報取得部115に対して出力する。そしてセンサ情報取得部115は、センサ部102から取得した撮影画像を3次元位置姿勢計測部116に対して送出する。
ステップS406では、3次元位置姿勢計測部116は、センサ情報取得部115から取得した対象物体103’の撮影画像から、対象物体103’の位置姿勢を精度よく求める。対象物体103’の位置姿勢を求めるために、モデル情報保持部112は保持しているモデル情報を出力し、3次元位置姿勢計測部116が対象物体103’の撮影画像とモデル情報とのマッチングを行う。
モデル情報として3次元幾何モデルを利用する場合は、3次元幾何モデルから抽出した表面の点群と、センサ情報取得部115から出力された撮影画像から求めた距離画像点群との対応付けを行うことで対象物体の位置姿勢を求める。3次元幾何モデルの表面点群をPとし、以下のように定義する。
Figure 2013186088
また、距離画像点群をAとし、以下のように定義する。
Figure 2013186088
3次元幾何モデルの表面点群Pを変換して距離点群Aに位置合わせする。点群Pの各点piに距離が最も近い点群Aの点をbi∈Aとしたとき、(13)の誤差関数を定義できる。Rとtはそれぞれ姿勢パラメータと移動ベクトルである。
Figure 2013186088
誤差関数Eを小さくするRとtを求め、(14)による補正を行う。
Figure 2013186088
誤差関数Eを小さくするRとtを求める方法については、以下の文献に載っている。
K.S.Arun,T.S.Huang,and S.D.Blostein,“Least−Squares Fitting of Two 3−D Point Sets,” PAMI,vol.9,no.5,1987
そして、Pの収束判定を行い、収束していれば終了し、そうでなければ繰り返し補正計算を行う。収束判定では、例えば、Pがほとんど変化しないことをもって収束したと判定する。このように収束するまで繰り返すことで、位置姿勢を算出できる。
モデル情報として参照画像モデルを利用する場合は、参照画像モデルをテンプレートとしたテンプレートマッチングにより撮影画像と最も一致する参照画像を求め、その参照画像に関連付けられている相対位置姿勢を元に対象物体の位置姿勢を求める。参照画像の距離値をT(i,j)、撮影画像から求めた距離画像の距離値をI(i,j)として、参照画像をm×n画素の画像としたとき、参照画像と撮影画像との一致度Rは(15)で求めることができる。
Figure 2013186088
3次元位置姿勢計測部116は、対象物体103’の位置姿勢を求めると、求めた位置姿勢を位置姿勢整合判断部117に対して出力する。
ステップS407では、位置姿勢整合判断部117は、3次元位置姿勢計測部113から出力された対象物体103’の位置姿勢と、3次元位置姿勢計測部116から出力された対象物体103’の位置姿勢と、の整合性を判断する。この整合性の判断では、3次元的な位置姿勢の差異がないかどうかを判断することで行う。位置姿勢の差異が所定未満であれば整合しているとする。位置姿勢の差異が所定以上であれば整合していないとみなす。
まず、センサ部101による計測とセンサ部102による計測が1回ずつ行われている場合について説明する。3次元位置姿勢計測部113から出力された対象物体103’の位置姿勢をs、3次元位置姿勢計測部116から出力された対象物体103’の位置姿勢をpとする。sをpに変換する同次変換行列をTとする。
Figure 2013186088
Figure 2013186088
Figure 2013186088
(16)〜(18)よりTの平行移動成分x,y,zと姿勢変換成分θx、θy、θzをそれぞれ求める。これらの値がいずれも所定の閾値未満であれば位置姿勢sと位置姿勢pとは位置姿勢の差異がほとんどないということで整合していると判断する。しかし、いずれかの値が所定の閾値以上であれば整合していないと判断する。
そして、位置姿勢整合判断部117は、整合していると判断した場合、整合していることを示す情報と、3次元位置姿勢計測部116から受けた位置姿勢と、をロボット作業指示部121に対して送出する。なお、3次元位置姿勢計測部116から受けた位置姿勢の代わりに、3次元位置姿勢計測部113から受けた位置姿勢と、3次元位置姿勢計測部116から受けた位置姿勢と、の平均位置姿勢を出力しても良い。この平均位置姿勢は、それぞれの位置姿勢に重み値を乗じた平均であっても良い。そして処理はステップS408に進む。
一方、位置姿勢整合判断部117は、整合していないと判断した場合には、整合していないことを示す情報を、ロボット作業指示部121に対して送出する。そして処理はステップS411に進む。
次に、センサ部101による計測が1回とセンサ部102による計測が2回以上行われてる場合について説明する。センサ部102による計測が2回以上行われるのは、ステップS407で整合していないと判断した場合はステップS411に進んでロボットハンドの位置姿勢を変更して再度ステップS405及びステップS406で対象物体103’の計測を行うためである。3次元位置姿勢計測部113から出力された対象物体103’の位置姿勢をs、3次元位置姿勢計測部116から出力された対象物体103’の位置姿勢をp(1)、p(2)・・・p(i)(それぞれ1回目、2回目・・・i回目)とする。なお、ここでは、センサ部102による計測がi回行われたとしている。
整合性の判定は、(s,p(1))、(s,p(2))・・・(s,p(i))のうち少なくとも1つが整合しているか否かを判定することで行う。(s、p(k))(k=1…i)の整合性を判断する方法についてはセンサ部101による計測とセンサ部102による計測が1回ずつ行われている場合と同様である。即ち、同次変換行列Tの平行移動成分、姿勢変換成分のそれぞれが所定値未満かどうかで判断する。
そして、位置姿勢整合判断部117は、整合していると判断した場合、整合していることを示す情報と、位置姿勢(s,p(1))、…、(s,p(i))のうち整合している位置姿勢の1つもしくは平均と、をロボット作業指示部121に対して送出する。そして処理はステップS408に進む。
あるいは、(s,p(1),p(2)・・・p(i))のうちの少なくとも2つの位置姿勢の差異が所定未満である組があるか求め、組があれば整合しているとして、そのうちの1つあるいは平均を対象物体の位置姿勢としてもよい。この場合も求めた位置姿勢をロボット作業指示部121に対して送出する。位置姿勢の組を求めることができなければ整合していないとみなす。
一方、位置姿勢整合判断部117は、整合していないと判断した場合には、整合していないことを示す情報を、ロボット作業指示部121に対して送出する。そして処理はステップS411に進む。
ステップS408ではロボット作業指示部121は、位置姿勢整合判断部117から整合していることを示す情報を受けると、この情報と共に位置姿勢整合判断部117から受けた位置姿勢に基づいてロボット100に作業を行わせるための指示信号を生成する。ロボット100が対象物体103’を把持するハンドを備えていれば、この位置姿勢を有する対象物体103’の把持を指示する。ロボット100が対象物体103’を吸着するパッドを備えていれば、この位置姿勢を有する対象物体103’の吸着を指示する。
ステップS409では、ステップS408で生成された指示信号が示す指示内容を実行するようロボット制御部122がロボット100を制御する。ロボット100が対象物体103’を把持する場合は、ロボット制御部122がロボット100に対して対象物体103’を把持させるための制御を行う。ロボット100が対象物体103’を吸着する場合は、ロボット制御部122がロボット100に対して対象物体103’を吸着させるための制御を行う。
ステップS410では、画像処理部110の不図示の制御部は、不図示の指示部などから終了指示が入力されたか否かを判断する。この判断の結果、終了指示が入力された場合には、処理は終了する。一方、終了指示が入力されていない場合は、処理はステップS401に戻る。なお、ステップS410での終了判定を待たずに、ユーザが図示しない緊急停止ボタンを押すことによりフローを終了して全ての動作を停止してもよい。また、処理の終了条件は特定の条件に限ったものではない。
ステップS411では、ロボット作業指示部121は、整合していないことを示す情報を受けると、現在の位置姿勢とは異なる新たな位置姿勢を求める。そしてロボット作業指示部121は、この求めた位置姿勢にロボット100のハンド部を移動させるための指示信号を生成し、生成した指示信号をロボット制御部122に送出する。然るにロボット制御部122は、この指示信号に従ってロボット100を制御することで、ハンド部をこの新たな位置姿勢に移動させる。これにより、センサ部102は、この新たな位置姿勢で対象物体103’を撮影することが出来る。
あるいは、ロボット作業指示部121ではなくセンサ位置姿勢決定部114が新たな位置姿勢を求め、求めた位置姿勢をロボット作業指示部121に対して出力し、ロボット100のハンド部を移動させてもよい。
ステップS411の処理は、具体的には以下の(1)〜(3)のいずれかの方法によって実現する。
(1) 対象物体103’を中心にして、センサ部101と対象物体103’とを結ぶ直線と、センサ部102のカメラの光軸と、で形成する面に対して垂直な方向に予め定めた角度だけセンサ部102を回転移動させる。センサ部102の光軸を、該面から外すことで、これまでセンサ部101及びセンサ部102で観察できていなかった対象物体103’の特徴(エッジなど)を観察することができる。そのため次回の整合判断時の判断材料が増える。
(2) センサ部101と対象物体103’とを結ぶ直線と、センサ部102のカメラの光軸と、がなす角度を一定に保つようにセンサ部102の位置姿勢を変更する。センサ部101と対象物体103’とを結ぶ直線を中心軸と考えると、センサ部102が移動するときのカメラの光軸の軌跡は円錐の側面をなす曲面(の少なくとも一部)となる。このようにすることでセンサ部102はパレット104から見て高さが大きく変化しない。そのためセンサ部102がパレット104やパレット104が置いてある面に衝突することがない。
(3) 3次元幾何モデルや参照画像モデルに予め計測するのに適切なセンサ部102の位置姿勢を登録しておいてもよい。位置姿勢は複数登録してもよいし、範囲で登録してもよい。その場合、現在のセンサ部102の位置姿勢から最も近い登録済みの位置姿勢を新たな位置姿勢として採用する。
あるいは、対象物体103’を中心にして、センサ部101と対象物体103’とを結ぶ直線と、センサ部102のカメラの光軸と、で形成する面に沿ってセンサ部102を回転移動させてもよい。あるいはセンサ部102のカメラ光軸に沿って近づけたり遠ざけたりしてもよい。あるいはセンサ部102の位置姿勢をランダムに変更してもよい。
ステップS412では、画像処理部110の不図示の制御部は、ステップS411で新たな位置姿勢を計算した回数(ハンド部の位置姿勢を変更した回数)c(制御部によりカウントしている)が、規定回数であるn回に達したか否かを判断する。この判断の結果、n回に達した場合には、対象物体103’以外の位置姿勢を計測対象とすべく処理はステップS401に戻り、まだ達していない場合は、処理はステップS405に戻る。
ステップS401で再度対象物体を撮影する前に図示しない揺動部によりパレット104を揺動させて対象物体103の山積み状態を変化させてもよい。もしくはステップS402で位置姿勢を求めた対象物体103’以外の対象物体を対象としてステップS405に戻りセンサ部102で計測を行うようにしてもよい。ステップS401に戻る際に回数cは0にリセットする。
以上の説明により、本実施形態によれば、センサ部102を用いて計測した結果が実際の対象物体の位置姿勢と異なっている場合に、誤った計測結果に基づいてロボットによる作業が行われることを防ぐことができる。また、これにより、把持〜把持失敗検知という無駄な処理が発生しないため、ロボットによる作業の効率化を行うことができる。
<変形例>
第1の実施形態の変形例として、センサ部101は対象物体に関する3次元情報を取得するセンサであっても良く、例えば、対象物体に対する距離を示す距離データを測定する距離センサであっても良い。
また、センサ部102も対象物体に関する3次元情報を取得するセンサであっても良く、例えば、対象物体に対する距離を示す距離データを測定する距離センサであっても良い。
この場合、センサ情報取得部111およびセンサ情報取得部115はそれぞれセンサ部101、センサ部102から距離データを取得し、3次元位置姿勢計測部113、116に出力する。3次元位置姿勢計測部113は、センサ情報取得部111から出力された距離データとモデル情報保持部112から出力される3次元幾何モデルの表面の点群データとの対応付けを行うことで対象物体の位置姿勢を求める。3次元位置姿勢計測部116は、センサ情報取得部115から出力された距離データとモデル情報保持部112から出力される3次元幾何モデルの表面の点群データとの対応付けを行うことで対象物体の位置姿勢を求める。距離データとモデル情報とを利用して対象物体の位置姿勢を求めるために、ICP(Iterative Closest Point)法を用いる。対象物体の位置姿勢を反復演算によって繰り返し補正する。なお、対象物体の位置姿勢を求めるための最適化手法はICP法に限るものではない。
また、第1の実施形態の変形例として、センサ部101は対象物体に関する2次元情報(2次元画像)と3次元情報(距離データ)とを取得するセンサ(カメラと距離センサとの組み合わせ)であってもよい。また、センサ部102も対象物体に関する2次元情報(2次元画像)と3次元情報(距離データ)とを取得するセンサ(カメラと距離センサとの組み合わせ)であってもよい。2次元画像とモデル情報との対応付け、および距離データとモデル情報との対応付けを同時に解く方法は周知であり、例えば、特開2011−27623号公報に開示されている方法を適用することができる。
また、第1の実施形態の変形例として、センサ部102のプロジェクタはパターン光以外に全面を均一の輝度で照射することもできる。均一の輝度で照射することで通常の照明のように扱うことができる。この場合は、センサ部102のプロジェクタで均一輝度の光を対象物体に対して照明し、センサ部102のカメラにより2次元情報(2次元画像)を取得し、センサ情報取得部115に対して出力を行う。また、センサ部102は対象物体を均一の明るさで照らす照明と2次元画像を撮影するカメラでもよい。センサ情報取得部115は2次元画像を取得し、3次元位置姿勢計測部116に出力する。3次元位置姿勢計測部116は、2次元画像とモデル情報保持部112から出力されたモデル情報とを利用して対象物体の位置姿勢を計測する。位置姿勢を計測する方法は第1の実施形態における3次元位置姿勢計測部113(ステップS402)と同様でよい。
[第2の実施形態]
第1の実施形態では、3次元位置姿勢計測部113が求めた位置姿勢と、3次元位置姿勢計測部116が求めた位置姿勢と、の整合性を、3次元的な位置姿勢の差異に基づいて判断した。本実施形態では、整合性を3次元幾何モデルから抽出した幾何特徴群同士の対応付け誤差に基づいて判断する。
本実施形態に係るシステムの構成は第1の実施形態と同様であるが、位置姿勢整合判断部117の動作のみが第1の実施形態と異なる。そのため、本実施形態では、図4のフローチャートにおいてステップS407における処理のみが、第1の実施形態と異なる。以下では、第1の実施形態と異なる点のみについて説明し、それ以外については第1の実施形態と同様であるため、説明を省略する。
ステップS407では、位置姿勢整合判断部117は、以下に列挙する(a)〜(d)の何れかを実行することで、位置姿勢の整合性を判断する。なお、(a)〜(d)では幾何特徴としてエッジ、点、面を用いているが、幾何特徴はこれらに限られるものではない。
(a) エッジ対応付けで誤差を求める場合
3次元位置姿勢計測部113で求めた対象物体103’の位置姿勢と、3次元位置姿勢計測部116で求めた対象物体103’の位置姿勢とに基づいて、例えばセンサ部102の位置姿勢から見た対象物体の3次元幾何モデルをそれぞれ2次元画像に投影する。3次元位置姿勢計測部113で求めた対象物体103’の位置姿勢に基づくモデル投影像をMA、3次元位置姿勢計測部116で求めた対象物体103’の位置姿勢に基づくモデル投影像をMBとする。
モデル投影像MAのエッジ成分上に複数の制御点を設け、2次元画面内でエッジに対して垂直な方向にモデル投影像MBのエッジ成分を探索する。モデル投影像MBの対応点が見つかったら、制御点から対応点までの画素数(誤差)を求める。モデル投影像MAの複数の制御点について同様にモデル投影像MBの対応点を探索し、制御点から対応点までの画素数(誤差)の平均値を求める。平均値が予め定めた値未満であれば、誤差が少ないと判断でき、3次元位置姿勢計測部113で求めた対象物体103’の位置姿勢と、3次元位置姿勢計測部116で求めた対象物体103’の位置姿勢とは整合していると判断できる。平均値が予め定めた値以上であれば、誤差が多いため整合していないと判断できる。
(b) 点群対応付けで誤差を求める場合
3次元位置姿勢計測部113で求めた位置姿勢と、3次元位置姿勢計測部116で求めた位置姿勢とに基づいて、それぞれ3次元幾何モデルから抽出した表面の点群データをパレットが置かれた空間に固定されたワークスペース座標系内に配置する。3次元位置姿勢計測部113で求めた対象物体103’の位置姿勢に基づく点群をMA’、3次元位置姿勢計測部116で求めた対象物体103’の位置姿勢に基づく点群モデルをMB’とする。
点群MA’のある1つの点から最も近い点群MB’の点までの距離(誤差)を求める。点群MA’の複数の点について同様に点群MB’の再近傍点を探索し、点間距離(誤差)の平均値を求める。平均値が予め定めた値未満であれば、誤差が少ないと判断できる。よって、3次元位置姿勢計測部113で求めた対象物体103’の位置姿勢と、3次元位置姿勢計測部116で求めた対象物体103’の位置姿勢とは整合していると判断できる。平均値が予め定めた値以上であれば、誤差が多いため整合していないと判断できる。
(c) 点群とモデルとの対応付けで誤差を求める場合
3次元位置姿勢計測部113で求めた対象物体103’の位置姿勢に基づく3次元幾何モデルから抽出した表面の点群データと、3次元位置姿勢計測部116で求めた対象物体103’の位置姿勢に基づく3次元幾何モデルとの誤差を求める。3次元位置姿勢計測部113で求めた対象物体103’の位置姿勢に基づく点群をMA’、3次元位置姿勢計測部116で求めた対象物体103’の位置姿勢に基づく3次元幾何モデルをMB”とする。
点群MA’のある1つの点から最も近いモデルMB”の面までの距離(誤差)を求める。点群MA’の複数の点について同様にモデルMB”の面までの距離(誤差)の平均値を求める。平均値が予め定めた値未満であれば、誤差が少ないと判断できる。よって、3次元位置姿勢計測部113で求めた対象物体103’の位置姿勢と、3次元位置姿勢計測部116で求めた対象物体103’の位置姿勢とは整合していると判断できる。平均値が予め定めた値以上であれば、誤差が多いため整合していないと判断できる。
点群データと3次元幾何モデルとは逆の関係にしてもよいことは言うまでもない。即ち、3次元位置姿勢計測部113で求めた対象物体103’の位置姿勢に基づく3次元幾何モデルと、3次元位置姿勢計測部116で求めた対象物体103’の位置姿勢に基づく3次元幾何モデルから抽出した表面の点群データとの誤差を求めてもよい。
(d) モデル対応付けで誤差を求める場合
3次元位置姿勢計測部113で求めた対象物体103’の位置姿勢と、3次元位置姿勢計測部116で求めた対象物体103’の位置姿勢とに基づいて、それぞれ3次元幾何モデルをパレットが置かれた空間に固定されたワークスペース座標系内に配置する。3次元位置姿勢計測部113で求めた対象物体103’の位置姿勢に基づくモデルをMA”、3次元位置姿勢計測部116で求めた対象物体103’の位置姿勢に基づくモデルをMB”とする。
モデルMA”のある面の中心点から対応するモデルMB”の面の中心点までの距離(誤差)を求める。モデルMA”の複数の面の中心点について同様にモデルMB”の対応点を探索し、点間距離(誤差)の平均値を求める。平均値が予め定めた値未満であれば、誤差が少ないと判断できる。よって、3次元位置姿勢計測部113で求めた対象物体103’の位置姿勢と、3次元位置姿勢計測部116で求めた対象物体103’の位置姿勢とは整合していると判断できる。平均値が予め定めた値以上であれば、誤差が多いため整合していないと判断できる。
[第3の実施形態]
第1の実施形態の変形例として、センサ部101とセンサ部102とを同じセンサ部で構成してもよい。具体的には、ロボットに装着したセンサ部102にセンサ部101の役割も持たせることで実現する。
まず、センサ部102がパレット104の上方で第1の位置姿勢で対象物体を撮影することができるようにロボットを制御する。センサ部102が第1の位置姿勢で対象物体を撮影して3次元位置姿勢計測部113で位置姿勢を計測すると、次に第2の位置姿勢を決定する。第2の位置姿勢は、第1の実施形態で説明したとおりに求める。そして、ロボットを制御することでセンサ部102を第2の位置姿勢に移動させると、対象物体の位置姿勢を3次元位置姿勢計測部116で計測する。そしてセンサ部102を第1の位置姿勢に移動させて求めた対象物体の位置姿勢と、第2の位置姿勢に移動させて求めた対象物体の位置姿勢との整合性を判断する。整合性の判断方法および判断した後の処理については第1,2の実施形態で説明したとおりである。
また、ステップS407で整合性の判断を行い、整合していないと判断したとき、センサ部102を移動させる前に、3次元位置姿勢計測部113もしくは3次元位置姿勢計測部116での画像処理パラメータを変更して再度対象物体の位置姿勢を求めてもよい。変更する画像処理パラメータとしては、エッジ検出の閾値、図5に示す制御点の密度、3次元幾何モデルから抽出する表面の点群密度などがあげられる。なお、変更するパラメータはこれらに限られないことは言うまでもない。画像処理パラメータを変更して整合性があると判断した場合はセンサ部102を移動させずにステップS408に進む。こうすることでセンサ部102を動かす手間を省くことができる。画像処理パラメータを変更しても整合性がないと判断した場合はセンサ部102の移動を行うべくステップS411に進む。
また、ステップS407で整合性の判断を行い、整合していないと判断したとき、ユーザが状況を把握しやすいようにロボットの表示器やランプなどを用いて警告してもよい。さらに、ステップS412でn回変更したと判断されたとき、ステップS401に戻らずにユーザにうまくいかない原因を調べさせるため、警告すると同時にロボットシステムを停止してもよい。
また、ステップS407での整合性の判断では、モデル投影像の一致度によって判断してもよい。3次元位置姿勢計測部113で求めた対象物体103’の位置姿勢と3次元位置姿勢計測部116で求めた対象物体103’の位置姿勢とに基づいて、例えばセンサ部102から第2の位置姿勢で見た対象物体の3次元幾何モデルをそれぞれ2次元画像に投影する。3次元位置姿勢計測部113で求めた対象物体103’の位置姿勢に基づくモデル投影像をMA、3次元位置姿勢計測部116で求めた対象物体103’の位置姿勢に基づくモデル投影像をMBとする。一致度は投影像MAおよびMBの各画素の輝度差から求めることができる。一致度と予め用意した閾値との比較を行い、整合しているか整合していないかの判断を行う。
また、上記ではモデル情報保持部112に保持されたモデルを利用した位置姿勢計測について説明を行った。しかし、位置姿勢計測方法は他の方法も考え得る。例えば、センサ部101およびセンサ部102をそれぞれステレオカメラで構成し、スレテオカメラによる撮影画像からステレオ計測技術を用いて対象物体の位置姿勢計測を行ってもよい。
また、上記の説明ではセンサ部102の位置姿勢を変更する為の構成としてロボットを用いたが、これに限らず、例えば、直動ステージと回転ステージを組み合わせた機構部にセンサ部102を搭載し、ステージの制御によって位置姿勢を変更しても良い。対象物体を操作するロボットとは別に、位置姿勢変更の為の構成を設けても良い。
なお、第1〜3の実施形態(変形例を含む)では様々な構成、様々な変形例について説明したが、何れも下記の構成の一例であり、下記の構成に沿ったものであれば、上記で説明した構成以外の構成を採用しても良い。
第1の位置姿勢を有する第1のセンサによる計測結果から対象物体の位置姿勢を求め(第1の計算)、第1の位置姿勢とは異なる第2の位置姿勢に第2のセンサを移動させ、該第2のセンサによる計測結果から対象物体の位置姿勢を求める(第2の計算)。
そして、第1の計算による位置姿勢と第2の計算による位置姿勢とが規定の条件を満たしている場合に、第2の計算による位置姿勢、若しくは第1の計算による位置姿勢及び第2の計算による位置姿勢から計算される位置姿勢、を出力する。
ここで、第1の計算、第2の計算について、第1の実施形態では、次のような処理を行う。第1の計算では、第1のセンサから、対象物体の撮影画像および/または該対象物体までの距離を表す距離データを、第1の測定データとして取得する。そして、対象物体又は該対象物体を模した仮想物体を複数の視点から見た画像群、若しくは該仮想物体を対象物体情報とし、該対象物体情報と、第1の測定データと、を用いて対象物体の位置姿勢を求める。第2の計算では、第2の位置姿勢に第2のセンサを移動させ、該第2のセンサから、対象物体の撮影画像および/または該対象物体までの距離を表す距離データを第2の測定データとして取得する。そして、対象物体情報と、第2の測定データと、を用いて対象物体の位置姿勢を求める。
第3の実施形態では、第1の計算、第2の計算ではそれぞれ、スレテオカメラとしての第1,2のセンサによる対象物体の撮影画像を用いたステレオ計測技術を用いて対象物体の位置姿勢を求める。
また、「規定の条件」は、第1の実施形態では、「第1の計算による位置姿勢と第2の計算による位置姿勢との差異が規定量よりも小さいこと」、である。第2の実施形態では、「第1の計算による位置姿勢を有する仮想物体を画面上に投影した投影像と、第2の計算による位置姿勢を有する仮想物体を画面上に投影した投影像と、の差異が規定量よりも小さいこと」、である。
[第4の実施形態]
図1に示した各部は適宜統合/分割しても良い。例えば、画像処理部110内の各部を1つの装置としても良いし、いくつかの構成要件を1つの装置としても良い。また、画像処理部110とロボットコントローラ部120とを統合して1つ装置とするようにしても良い。
また、画像処理部110を構成する各部はハードウェアで構成しても良いが、ソフトウェア(コンピュータプログラム)で構成しても良い。この場合、画像処理部110内のRAM等のメモリにこのコンピュータプログラムをインストールし、画像処理部110内のCPUがこのコンピュータプログラムを実行することで、CPUは図1に示した画像処理部110内の各部の機能を実現することが出来る。
また、第1〜3の実施形態(変形例も含む)で説明した各技術は適宜組み合わせて用いてもかまわないし、ある実施形態で説明した部分的な技術を他の実施形態に組み込んで使用してもかまわない。
(その他の実施例)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。

Claims (13)

  1. 第1の位置姿勢を有する第1のセンサによる計測結果から、対象物体の位置姿勢を求める第1の計算手段と、
    前記第1の位置姿勢とは異なる第2の位置姿勢に第2のセンサを移動させ、該第2のセンサによる計測結果から、前記対象物体の位置姿勢を求める第2の計算手段と、
    前記第1の計算手段が計算した位置姿勢と前記第2の計算手段が計算した位置姿勢とが規定の条件を満たしている場合に、前記第2の計算手段が計算した位置姿勢、若しくは前記第1の計算手段が計算した位置姿勢及び前記第2の計算手段が計算した位置姿勢から計算される位置姿勢、を出力する出力手段と
    を備えることを特徴とする情報処理装置。
  2. 前記第1の計算手段は、
    前記第1のセンサから、前記対象物体の撮影画像および/または該対象物体までの距離を表す距離データを、第1の測定データとして取得し、
    前記対象物体又は該対象物体を模した仮想物体を複数の視点から見た画像群、若しくは該仮想物体を対象物体情報とし、該対象物体情報と、前記第1の測定データと、を用いて前記対象物体の位置姿勢を求める
    ことを特徴とする請求項1に記載の情報処理装置。
  3. 前記第2の計算手段は、
    前記第2の位置姿勢に前記第2のセンサを移動させ、該第2のセンサから、前記対象物体の撮影画像および/または該対象物体までの距離を表す距離データを第2の測定データとして取得し、
    前記対象物体情報と、前記第2の測定データと、を用いて前記対象物体の位置姿勢を求める
    ことを特徴とする請求項2に記載の情報処理装置。
  4. 前記第2の計算手段は、
    前記第1の計算手段が求めた位置と前記第1のセンサの位置とを通る直線と規定の角度以上をなす直線上の位置に前記第2のセンサを移動させ、該第2のセンサから前記第2の測定データを取得する
    ことを特徴とする請求項3に記載の情報処理装置。
  5. 前記第2の計算手段は、
    前記第2のセンサの位置姿勢を制御可能なコントローラに対して前記第2の位置姿勢を前記第2のセンサの移動先として指示することで、前記コントローラに、前記第2のセンサを前記第2の位置姿勢に移動させることを特徴とする請求項2乃至4の何れか1項に記載の情報処理装置。
  6. 前記出力手段は、
    前記第1の計算手段が計算した位置姿勢と前記第2の計算手段が計算した位置姿勢とが規定の条件を満たさなかったたびに、現在の前記第2のセンサの位置姿勢とは異なる位置姿勢を求め、該求めた位置姿勢に前記第2のセンサを移動させることを特徴とする請求項5に記載の情報処理装置。
  7. 前記第2の計算手段は、
    前記第2のセンサが移動するたびに、該第2のセンサから取得した前記第2の測定データと、前記対象物体情報と、を用いて前記対象物体の位置姿勢を求め、
    前記出力手段は、
    前記第2の計算手段がこれまでに計算したそれぞれの位置姿勢のうち、前記第1の計算手段が計算した位置姿勢との差異が規定量よりも小さい位置姿勢もしくはその平均を対象物体の位置姿勢とする
    ことを特徴とする請求項6に記載の情報処理装置。
  8. 前記第2の計算手段は、
    前記第2のセンサが移動するたびに、該第2のセンサから取得した前記第2の測定データと、前記対象物体情報と、を用いて前記対象物体の位置姿勢を求め、
    前記出力手段は、
    前記第2の計算手段がこれまでに計算したそれぞれの位置姿勢と前記第1の計算手段が計算した位置姿勢との中で差異が規定量よりも小さい少なくとも2つの位置姿勢の組を求め、その1つもしくは平均を対象物体の位置姿勢とする
    ことを特徴とする請求項6に記載の情報処理装置。
  9. 前記規定の条件は、前記第1の計算手段が計算した位置姿勢と前記第2の計算手段が計算した位置姿勢との差異が規定量よりも小さいこと、であることを特徴とする請求項1乃至8の何れか1項に記載の情報処理装置。
  10. 前記規定の条件は、前記第1の計算手段が計算した位置姿勢に基づく幾何特徴群と、前記第2の計算手段が計算した位置姿勢に基づく幾何特徴群と、の差異が規定量よりも小さいこと、であることを特徴とする請求項1乃至8の何れか1項に記載の情報処理装置。
  11. 前記第2のセンサは、ロボットに装着され、
    前記コントローラは、前記ロボットの位置姿勢を制御することを特徴とする請求項5に記載の情報処理装置。
  12. 情報処理装置が行う情報処理方法であって、
    前記情報処理装置の第1の計算手段が、第1の位置姿勢を有する第1のセンサによる計測結果から、対象物体の位置姿勢を求める第1の計算工程と、
    前記情報処理装置の第2の計算手段が、前記第1の位置姿勢とは異なる第2の位置姿勢に第2のセンサを移動させ、該第2のセンサによる計測結果から、前記対象物体の位置姿勢を求める第2の計算工程と、
    前記情報処理装置の出力手段が、前記第1の計算工程で計算した位置姿勢と前記第2の計算工程で計算した位置姿勢とが規定の条件を満たしている場合に、前記第2の計算工程で計算した位置姿勢、若しくは前記第1の計算工程で計算した位置姿勢及び前記第2の計算工程で計算した位置姿勢から計算される位置姿勢、を出力する出力工程と
    を備えることを特徴とする情報処理方法。
  13. コンピュータを、請求項1乃至11の何れか1項に記載の情報処理装置の各手段として機能させるためのコンピュータプログラム。
JP2012053679A 2012-03-09 2012-03-09 情報処理装置、情報処理方法 Active JP6000579B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2012053679A JP6000579B2 (ja) 2012-03-09 2012-03-09 情報処理装置、情報処理方法
US13/775,888 US9026234B2 (en) 2012-03-09 2013-02-25 Information processing apparatus and information processing method
EP13158201.7A EP2636493B1 (en) 2012-03-09 2013-03-07 Information processing apparatus and information processing method
CN201310075115.2A CN103302666B (zh) 2012-03-09 2013-03-08 信息处理设备和信息处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012053679A JP6000579B2 (ja) 2012-03-09 2012-03-09 情報処理装置、情報処理方法

Publications (3)

Publication Number Publication Date
JP2013186088A true JP2013186088A (ja) 2013-09-19
JP2013186088A5 JP2013186088A5 (ja) 2015-04-02
JP6000579B2 JP6000579B2 (ja) 2016-09-28

Family

ID=47900668

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012053679A Active JP6000579B2 (ja) 2012-03-09 2012-03-09 情報処理装置、情報処理方法

Country Status (4)

Country Link
US (1) US9026234B2 (ja)
EP (1) EP2636493B1 (ja)
JP (1) JP6000579B2 (ja)
CN (1) CN103302666B (ja)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015085475A (ja) * 2013-10-31 2015-05-07 キヤノン株式会社 情報処理装置、情報処理方法
JP2015171745A (ja) * 2014-03-12 2015-10-01 ファナック株式会社 ワークの取出工程をシミュレーションするロボットシミュレーション装置
JP2016052695A (ja) * 2014-09-03 2016-04-14 キヤノン株式会社 ロボット装置、およびロボット装置の制御方法
JP2016109630A (ja) * 2014-12-09 2016-06-20 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
JP2016176723A (ja) * 2015-03-18 2016-10-06 キヤノン株式会社 計測装置
JP2017010327A (ja) * 2015-06-23 2017-01-12 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP2017077609A (ja) * 2015-10-21 2017-04-27 ファナック株式会社 ロボットの手首部の機構パラメータを校正する校正装置および校正方法
JP2018089728A (ja) * 2016-12-01 2018-06-14 ファナック株式会社 ロボットの干渉領域を自動で設定するロボット制御装置
CN108351336A (zh) * 2015-11-12 2018-07-31 标致雪铁龙汽车股份有限公司 通过聚合不同源的测量来确定空气质量图型的方法和装置
JP2018202608A (ja) * 2018-09-28 2018-12-27 キヤノン株式会社 ロボット装置、ロボット装置の制御方法、プログラムおよび記録媒体
JP2019089188A (ja) * 2017-11-16 2019-06-13 株式会社東芝 作動システムおよびプログラム
US10339668B2 (en) 2017-04-26 2019-07-02 Fanuc Corporation Object recognition apparatus
US11138684B2 (en) 2019-04-25 2021-10-05 Fanuc Corporation Image processing apparatus, image processing method, and robot system
WO2022153374A1 (ja) * 2021-01-12 2022-07-21 川崎重工業株式会社 経路生成装置、経路生成方法及び経路生成プログラム

Families Citing this family (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5665333B2 (ja) * 2010-03-10 2015-02-04 キヤノン株式会社 情報処理装置および情報処理装置の制御方法
US8918209B2 (en) * 2010-05-20 2014-12-23 Irobot Corporation Mobile human interface robot
JP5561260B2 (ja) * 2011-09-15 2014-07-30 株式会社安川電機 ロボットシステム及び撮像方法
JP5977544B2 (ja) * 2012-03-09 2016-08-24 キヤノン株式会社 情報処理装置、情報処理方法
JP5975685B2 (ja) 2012-03-09 2016-08-23 キヤノン株式会社 情報処理装置、情報処理方法
JP6021533B2 (ja) * 2012-09-03 2016-11-09 キヤノン株式会社 情報処理システム、装置、方法及びプログラム
US9586320B2 (en) * 2013-10-04 2017-03-07 GM Global Technology Operations LLC System and method for controlling a vision guided robot assembly
CN108081268A (zh) * 2013-10-10 2018-05-29 精工爱普生株式会社 机器人控制系统、机器人、程序以及机器人控制方法
JP5897532B2 (ja) * 2013-11-05 2016-03-30 ファナック株式会社 三次元空間に置かれた物品をロボットで取出す装置及び方法
JP6444027B2 (ja) 2013-12-09 2018-12-26 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、情報処理システムおよびプログラム
JP2015147256A (ja) * 2014-02-04 2015-08-20 セイコーエプソン株式会社 ロボット、ロボットシステム、制御装置、及び制御方法
JP6380828B2 (ja) * 2014-03-07 2018-08-29 セイコーエプソン株式会社 ロボット、ロボットシステム、制御装置、及び制御方法
JP6642968B2 (ja) * 2014-03-20 2020-02-12 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
JP2015199155A (ja) * 2014-04-07 2015-11-12 キヤノン株式会社 情報処理装置および情報処理方法、プログラム
JP2015215651A (ja) * 2014-05-08 2015-12-03 株式会社日立製作所 ロボットおよび自己位置推定方法
JP6413648B2 (ja) * 2014-06-20 2018-10-31 株式会社リコー 計測システム、物体取出システム、計測方法およびプログラム
US10506947B2 (en) * 2014-12-11 2019-12-17 Koninklijke Philips N.V. Automated selection of optimal calibration in tracked interventional procedures
JP6486679B2 (ja) * 2014-12-25 2019-03-20 株式会社キーエンス 画像処理装置、画像処理システム、画像処理方法及びコンピュータプログラム
US11185985B2 (en) * 2015-01-05 2021-11-30 Bell Helicopter Textron Inc. Inspecting components using mobile robotic inspection systems
JP6088563B2 (ja) * 2015-02-10 2017-03-01 ファナック株式会社 位置及び姿勢の変換演算機能を備えたワーク取出しロボットシステム、及びワーク取出し方法
FR3032366B1 (fr) * 2015-02-10 2017-02-03 Veolia Environnement-VE Procede de tri selectif
US9857786B2 (en) * 2015-03-31 2018-01-02 Recognition Robotics, Inc. System and method for aligning a coordinated movement machine reference frame with a measurement system reference frame
JP6348097B2 (ja) 2015-11-30 2018-06-27 ファナック株式会社 ワーク位置姿勢算出装置およびハンドリングシステム
CN105665304A (zh) * 2016-02-01 2016-06-15 先驱智能机械(深圳)有限公司 物体的抓取与分拣系统及分拣盘
EP3421172B1 (en) * 2016-02-26 2020-02-19 Fuji Corporation Robot arm control system
US9990685B2 (en) * 2016-03-21 2018-06-05 Recognition Robotics, Inc. Automated guidance system and method for a coordinated movement machine
JP6484196B2 (ja) * 2016-04-21 2019-03-13 ファナック株式会社 厚さ測定装置および厚さ測定方法
JP2017196705A (ja) * 2016-04-28 2017-11-02 セイコーエプソン株式会社 ロボット、及びロボットシステム
JP6450788B2 (ja) * 2017-02-21 2019-01-09 ファナック株式会社 ワーク取出システム
JP6438512B2 (ja) * 2017-03-13 2018-12-12 ファナック株式会社 機械学習により補正した計測データでワークの取り出しを行うロボットシステム、計測データ処理装置および計測データ処理方法
US11366450B2 (en) * 2017-03-23 2022-06-21 Abb Schweiz Ag Robot localization in a workspace via detection of a datum
JP2018176334A (ja) * 2017-04-10 2018-11-15 キヤノン株式会社 情報処理装置、計測装置、システム、干渉判定方法および物品の製造方法
CN106985140B (zh) * 2017-04-19 2019-05-07 广州视源电子科技股份有限公司 机器人点到点运动控制方法和系统
DE102017005194C5 (de) * 2017-05-31 2022-05-19 Kuka Deutschland Gmbh Steuern einer Roboteranordnung
US11263779B2 (en) 2017-06-20 2022-03-01 Hewlett-Packard Development Company, L.P. Sensors positions determinations
JP6496361B2 (ja) * 2017-07-20 2019-04-03 ファナック株式会社 ワークを取出し装置に供給する供給装置および供給装置を備える搬送装置
TWI672207B (zh) * 2017-11-03 2019-09-21 財團法人工業技術研究院 機械設備之定位系統及其方法
US11084171B2 (en) * 2017-11-22 2021-08-10 Fanuc Corporation Tool posture control apparatus
JP6879238B2 (ja) * 2018-03-13 2021-06-02 オムロン株式会社 ワークピッキング装置及びワークピッキング方法
JP7135495B2 (ja) 2018-06-26 2022-09-13 セイコーエプソン株式会社 三次元計測装置、制御装置およびロボットシステム
TWI692727B (zh) * 2018-08-27 2020-05-01 台達電子工業股份有限公司 物件定位指引系統及其方法
CN110866950B (zh) * 2018-08-27 2022-08-09 台达电子工业股份有限公司 物件定位指引系统及其方法
US11312581B2 (en) * 2019-04-16 2022-04-26 Abb Schweiz Ag Object grasp system and method
CN110253575B (zh) * 2019-06-17 2021-12-24 达闼机器人有限公司 一种机器人抓取的方法、终端及计算机可读存储介质
JP7314871B2 (ja) * 2020-07-09 2023-07-26 新東工業株式会社 強度計測装置及び強度計測方法
JP7395451B2 (ja) * 2020-09-16 2023-12-11 株式会社東芝 ハンドリング装置、処理装置、コントローラ及びプログラム
CN116348257A (zh) * 2020-10-30 2023-06-27 松下知识产权经营株式会社 机器人控制方法
WO2022262917A1 (en) * 2021-06-17 2022-12-22 Vestas Wind Systems A/S Control of a tool mounted on a robotic arm
TWI775525B (zh) * 2021-07-09 2022-08-21 群邁通訊股份有限公司 零部件識別方法及系統
CN114446030B (zh) * 2022-01-25 2024-04-09 惠州Tcl移动通信有限公司 姿势识别方法、装置、存储介质及电子设备
CN115847488B (zh) * 2023-02-07 2023-05-02 成都秦川物联网科技股份有限公司 用于协作机器人监测的工业物联网系统及控制方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000094374A (ja) * 1998-09-25 2000-04-04 Matsushita Electric Works Ltd ピッキング装置
JP2009174974A (ja) * 2008-01-24 2009-08-06 Panasonic Corp 3dセンサ
JP2011133313A (ja) * 2009-12-24 2011-07-07 Canon Inc センサ位置姿勢計測方法

Family Cites Families (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4402053A (en) * 1980-09-25 1983-08-30 Board Of Regents For Education For The State Of Rhode Island Estimating workpiece pose using the feature points method
US4412293A (en) * 1981-03-30 1983-10-25 Kelley Robert B Robot system which acquires cylindrical workpieces from bins
JPS60200385A (ja) * 1984-03-26 1985-10-09 Hitachi Ltd 姿勢判定方式
US4639878A (en) * 1985-06-04 1987-01-27 Gmf Robotics Corporation Method and system for automatically determining the position and attitude of an object
US4831549A (en) * 1987-07-28 1989-05-16 Brigham Young University Device and method for correction of robot inaccuracy
US5501498A (en) 1988-08-31 1996-03-26 The Trustees Of The University Of Pennsylvania Methods and apparatus for mechanically intelligent grasping
US4942539A (en) * 1988-12-21 1990-07-17 Gmf Robotics Corporation Method and system for automatically determining the position and orientation of an object in 3-D space
JP2637546B2 (ja) 1989-03-22 1997-08-06 キヤノン株式会社 X線露光装置
US4985846A (en) * 1989-05-11 1991-01-15 Fallon Patrick J Acoustical/optical bin picking system
US5325468A (en) 1990-10-31 1994-06-28 Sanyo Electric Co., Ltd. Operation planning system for robot
US5499306A (en) * 1993-03-08 1996-03-12 Nippondenso Co., Ltd. Position-and-attitude recognition method and apparatus by use of image pickup means
JPH0970780A (ja) 1995-09-06 1997-03-18 Fanuc Ltd ロボットのツール形状補正方式
US5943476A (en) * 1996-06-13 1999-08-24 August Design, Inc. Method and apparatus for remotely sensing orientation and position of objects
US6101455A (en) * 1998-05-14 2000-08-08 Davis; Michael S. Automatic calibration of cameras and structured light sources
US6757422B1 (en) 1998-11-12 2004-06-29 Canon Kabushiki Kaisha Viewpoint position detection apparatus and method, and stereoscopic image display system
JP3428920B2 (ja) 1999-03-25 2003-07-22 キヤノン株式会社 視点位置検出装置、方法及び立体画像表示システム
JP3377465B2 (ja) * 1999-04-08 2003-02-17 ファナック株式会社 画像処理装置
JP3300682B2 (ja) * 1999-04-08 2002-07-08 ファナック株式会社 画像処理機能を持つロボット装置
JP3556589B2 (ja) * 2000-09-20 2004-08-18 ファナック株式会社 位置姿勢認識装置
JP3647376B2 (ja) 2001-01-31 2005-05-11 キヤノン株式会社 視点位置検出装置、視点位置検出方法及び立体画像表示システム
US6730926B2 (en) * 2001-09-05 2004-05-04 Servo-Robot Inc. Sensing head and apparatus for determining the position and orientation of a target object
JP2003098215A (ja) 2001-09-26 2003-04-03 Canon Inc 電力変換システムにおける地絡検出のための装置及び方法
US6658962B1 (en) 2001-10-31 2003-12-09 Ross-Hime Designs, Incorporated Robotic manipulator
JP4130780B2 (ja) 2002-04-15 2008-08-06 松下電器産業株式会社 画像符号化方法および画像復号化方法
WO2004028753A2 (en) 2002-09-26 2004-04-08 Barrett Technology, Inc. Intelligent, self-contained robotic hand
JP3834297B2 (ja) * 2003-05-12 2006-10-18 ファナック株式会社 画像処理装置
JP4401728B2 (ja) 2003-09-30 2010-01-20 キヤノン株式会社 複合現実空間画像生成方法及び複合現実感システム
JP4522129B2 (ja) 2004-03-31 2010-08-11 キヤノン株式会社 画像処理方法および画像処理装置
US7739306B2 (en) 2004-04-14 2010-06-15 Verisign, Inc. Method and apparatus for creating, assembling, and organizing compound media objects
DE102004021892B4 (de) 2004-05-04 2010-02-04 Amatec Robotics Gmbh Robotergeführte optische Messanordnung sowie Verfahren und Hilfsvorrichtung zum Einmessen dieser Messanordnung
US7868904B2 (en) 2005-04-01 2011-01-11 Canon Kabushiki Kaisha Image processing method and image processing apparatus
JP4958497B2 (ja) 2006-08-07 2012-06-20 キヤノン株式会社 位置姿勢測定装置及び位置姿勢測定方法、複合現実感提示システム、コンピュータプログラム及び記憶媒体
US7313464B1 (en) 2006-09-05 2007-12-25 Adept Technology Inc. Bin-picking system for randomly positioned objects
JP4226623B2 (ja) * 2006-09-29 2009-02-18 ファナック株式会社 ワーク取り出し装置
US20080181485A1 (en) * 2006-12-15 2008-07-31 Beis Jeffrey S System and method of identifying objects
US7957583B2 (en) * 2007-08-02 2011-06-07 Roboticvisiontech Llc System and method of three-dimensional pose estimation
JP5153468B2 (ja) 2008-06-12 2013-02-27 キヤノン株式会社 無線通信装置及びその通信方法
JP4565023B2 (ja) 2008-07-04 2010-10-20 ファナック株式会社 物品取り出し装置
JP5393318B2 (ja) 2009-07-28 2014-01-22 キヤノン株式会社 位置姿勢計測方法及び装置
JP5395615B2 (ja) 2009-10-27 2014-01-22 キヤノン株式会社 無線通信装置、無線通信装置の制御方法及びプログラム
JP5460341B2 (ja) 2010-01-06 2014-04-02 キヤノン株式会社 3次元計測装置及びその制御方法
JP5229253B2 (ja) 2010-03-11 2013-07-03 株式会社安川電機 ロボットシステム及びロボット装置並びにワーク取り出し方法
FI20105732A0 (fi) 2010-06-24 2010-06-24 Zenrobotics Oy Menetelmä fyysisten kappaleiden valitsemiseksi robottijärjestelmässä
JP5787642B2 (ja) 2011-06-28 2015-09-30 キヤノン株式会社 対象物保持装置、対象物保持装置の制御方法、およびプログラム
US9014857B2 (en) 2012-01-13 2015-04-21 Toyota Motor Engineering & Manufacturing North America, Inc. Methods and computer-program products for generating grasp patterns for use by a robot

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000094374A (ja) * 1998-09-25 2000-04-04 Matsushita Electric Works Ltd ピッキング装置
JP2009174974A (ja) * 2008-01-24 2009-08-06 Panasonic Corp 3dセンサ
JP2011133313A (ja) * 2009-12-24 2011-07-07 Canon Inc センサ位置姿勢計測方法

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015085475A (ja) * 2013-10-31 2015-05-07 キヤノン株式会社 情報処理装置、情報処理方法
JP2015171745A (ja) * 2014-03-12 2015-10-01 ファナック株式会社 ワークの取出工程をシミュレーションするロボットシミュレーション装置
US9529945B2 (en) 2014-03-12 2016-12-27 Fanuc Corporation Robot simulation system which simulates takeout process of workpieces
JP2016052695A (ja) * 2014-09-03 2016-04-14 キヤノン株式会社 ロボット装置、およびロボット装置の制御方法
JP2016109630A (ja) * 2014-12-09 2016-06-20 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
JP2016176723A (ja) * 2015-03-18 2016-10-06 キヤノン株式会社 計測装置
JP2017010327A (ja) * 2015-06-23 2017-01-12 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
US10189161B2 (en) 2015-10-21 2019-01-29 Fanuc Corporation Calibration system and calibration method calibrating mechanical parameters of wrist part of robot
JP2017077609A (ja) * 2015-10-21 2017-04-27 ファナック株式会社 ロボットの手首部の機構パラメータを校正する校正装置および校正方法
CN108351336A (zh) * 2015-11-12 2018-07-31 标致雪铁龙汽车股份有限公司 通过聚合不同源的测量来确定空气质量图型的方法和装置
JP2018089728A (ja) * 2016-12-01 2018-06-14 ファナック株式会社 ロボットの干渉領域を自動で設定するロボット制御装置
US10481571B2 (en) 2016-12-01 2019-11-19 Fanuc Corporation Robot controller which automatically sets interference region for robot
US10339668B2 (en) 2017-04-26 2019-07-02 Fanuc Corporation Object recognition apparatus
JP2019089188A (ja) * 2017-11-16 2019-06-13 株式会社東芝 作動システムおよびプログラム
US10695912B2 (en) 2017-11-16 2020-06-30 Kabushiki Kaisha Toshiba Actuation system and computer program product utilizing visual servo control based on images from multiple cameras
JP2018202608A (ja) * 2018-09-28 2018-12-27 キヤノン株式会社 ロボット装置、ロボット装置の制御方法、プログラムおよび記録媒体
US11138684B2 (en) 2019-04-25 2021-10-05 Fanuc Corporation Image processing apparatus, image processing method, and robot system
WO2022153374A1 (ja) * 2021-01-12 2022-07-21 川崎重工業株式会社 経路生成装置、経路生成方法及び経路生成プログラム
JP7429807B2 (ja) 2021-01-12 2024-02-08 川崎重工業株式会社 経路生成装置、経路生成方法及び経路生成プログラム

Also Published As

Publication number Publication date
CN103302666A (zh) 2013-09-18
EP2636493B1 (en) 2020-10-21
CN103302666B (zh) 2016-03-02
JP6000579B2 (ja) 2016-09-28
EP2636493A2 (en) 2013-09-11
EP2636493A3 (en) 2017-12-20
US20130238128A1 (en) 2013-09-12
US9026234B2 (en) 2015-05-05

Similar Documents

Publication Publication Date Title
JP6000579B2 (ja) 情報処理装置、情報処理方法
JP5854815B2 (ja) 情報処理装置、情報処理装置の制御方法、およびプログラム
JP6021533B2 (ja) 情報処理システム、装置、方法及びプログラム
JP5975685B2 (ja) 情報処理装置、情報処理方法
JP5977544B2 (ja) 情報処理装置、情報処理方法
JP6180087B2 (ja) 情報処理装置及び情報処理方法
JP2016099257A (ja) 情報処理装置及び情報処理方法
JP6324025B2 (ja) 情報処理装置、情報処理方法
JP6317618B2 (ja) 情報処理装置およびその方法、計測装置、並びに、作業装置
JP2011175477A (ja) 3次元計測装置、処理方法及びプログラム
JP6677522B2 (ja) 情報処理装置、情報処理装置の制御方法およびプログラム
JP2014169990A (ja) 位置姿勢計測装置及び方法
JP6885856B2 (ja) ロボットシステムおよびキャリブレーション方法
JPWO2018043525A1 (ja) ロボットシステム、ロボットシステム制御装置、およびロボットシステム制御方法
JP2016170050A (ja) 位置姿勢計測装置、位置姿勢計測方法及びコンピュータプログラム
WO2018043524A1 (ja) ロボットシステム、ロボットシステム制御装置、およびロボットシステム制御方法
KR20110095700A (ko) 작업대상물 픽업을 위한 산업용 로봇 제어방법
JP5698815B2 (ja) 情報処理装置、情報処理装置の制御方法及びプログラム
JP7180783B2 (ja) コンピュータビジョンシステムのキャリブレーション方法及びこれに用いる基準立体物
JP7454132B2 (ja) ロボットシステムの制御装置、ロボットシステムの制御方法、コンピュータ制御プログラム、及びロボットシステム
JP2015135333A (ja) 情報処理装置、情報処理装置の制御方法、およびプログラム
JP6766229B2 (ja) 位置姿勢計測装置及び方法
JP6285765B2 (ja) 情報処理装置、情報処理方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150209

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150209

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151203

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160204

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160801

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160831

R151 Written notification of patent or utility model registration

Ref document number: 6000579

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151