JP5852364B2 - 情報処理装置、情報処理装置の制御方法、およびプログラム - Google Patents

情報処理装置、情報処理装置の制御方法、およびプログラム Download PDF

Info

Publication number
JP5852364B2
JP5852364B2 JP2011185257A JP2011185257A JP5852364B2 JP 5852364 B2 JP5852364 B2 JP 5852364B2 JP 2011185257 A JP2011185257 A JP 2011185257A JP 2011185257 A JP2011185257 A JP 2011185257A JP 5852364 B2 JP5852364 B2 JP 5852364B2
Authority
JP
Japan
Prior art keywords
candidate
gripping
component
assembly
posture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011185257A
Other languages
English (en)
Other versions
JP2013043271A5 (ja
JP2013043271A (ja
Inventor
伊藤 嘉則
嘉則 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2011185257A priority Critical patent/JP5852364B2/ja
Priority to US13/568,595 priority patent/US9727053B2/en
Publication of JP2013043271A publication Critical patent/JP2013043271A/ja
Publication of JP2013043271A5 publication Critical patent/JP2013043271A5/ja
Application granted granted Critical
Publication of JP5852364B2 publication Critical patent/JP5852364B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/42Recording and playback systems, i.e. in which the programme is recorded from a cycle of operations, e.g. the cycle of operations being manually controlled, after which this record is played back on the same machine
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/36Nc in input of data, input key till input tape
    • G05B2219/36492Record position and orientation, posture of probe, tool
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/37555Camera detects orientation, position workpiece, points of workpiece
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39094Interference checking between robot and fixture
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39484Locate, reach and grasp, visual guided grasping
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39536Planning of hand motion, grasping
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39542Plan grasp points, grip matrix and initial grasp force
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/45Nc applications
    • G05B2219/45064Assembly robot

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)

Description

本発明は、情報処理装置、情報処理装置の制御方法、およびプログラムに関し、特に、対象部品を把持して被組付け部品の所定位置へ組付ける動作を行う組立ロボットのための教示データを生成する情報処理装置、情報処理装置の制御方法、およびプログラムに関する。
カメラや測距センサのようなセンシング機能を用いて、対象物の輝度画像や対象物までの距離情報等のセンシングデータを取得し、取得したデータに基づき対象物をハンド機構で把持して、組付け位置等の目標位置まで移動させるロボットシステムが存在する。
このようなロボットシステムにおいては、作業環境中における移動目標位置や対象物或いはハンド機構の目標姿勢、ハンド機構が対象物を把持する際の相対的な把持姿勢、目標位置までの移動経路等の情報を、如何に容易に教示できるかが、使いやすさを左右する一つの鍵となる。
特許文献1に開示される技術は、手先カメラで撮影した画像上に、教示操作を行うユーザが目標点を指定する。そして、その位置情報に基づき当該手先カメラを移動させ、新たに撮影した画像上で再びユーザが同一の目標点を指定することで、目標点の空間的な位置を特定している。
特許文献2に開示される技術は、第1部品の組付部へ組み付けられる第2部品の組付部を模した模擬部品が目標位置に対応する位置に設けられているマスタ部品を、パレットに固定し、パレットに固定したカメラで撮影する。次に、マスタ部品が固定されていない状態のパレットに対して第2部品がロボットによって保持された状態で撮影する。これら2枚の画像から模擬部品の位置と第2部品の位置との間の偏差を計算している。
特許文献3に開示される技術は、鋳物の鋳造工程において主型内への中子納めを中子納めロボットを用いて行なう場合に、中子納め位置のティーチングを実際の主型と中子とを用いて行っている。まず、所定の中子納め位置に位置させた主型内へ中子を納め、この中子の上方位置へハンド部を移動させ、このハンド部を下降させて中子を把持する。この中子を把持した際のハンド部の揺動を揺動検出部により検出し、その揺動を解消する位置へアームを位置補正し、この位置補正後のアームの位置を中子納めのティーチング位置として記憶部へ記憶させる。
特許第04167954号公報 特開2009−279719号公報 特許第03312808号公報
しかしながら、上述の従来技術には以下に示すような課題がある。すなわち、特許文献1に開示される技術では、教示操作を行うユーザが2回の目標位置指定を行う必要がある。また、対象物に対する把持姿勢や移動後の目標姿勢については、これだけでは教示することができない。
特許文献2に開示される技術では、第2部品の組付け部を模した模擬部品が目標位置に対応する位置に設けられた実工程では不要な部材を含むマスタ部品を、教示のためだけに用意する必要がある。また、組付け時の偏差を計算して修正するためのものであり、第2部品の把持位置を教示することはできない。
特許文献3に開示される技術は、中子の把持はステレオカメラを用いたマッチングにより行っている。つまり中子に対する把持部位や把持姿勢は予めなんらかの方法で決めておく必要があり、当該技術を用いて教示するものではない。
上記の課題に鑑み、本発明は、組立ロボットに対する組付け動作の教示を、特別な治具等を必要とせず、またユーザによる煩雑な指定操作を必要とせずに、容易に行うことを目的とする。
上記の目的を達成する本発明に係る情報処理装置は、
被組付け部品の所定位置に組付けられた状態の組付け対象部品を含む領域のセンシングデータを取得する取得手段と、
前記センシングデータと前記組付け対象部品の形状データとに基づいて、ハンド機構により把持される前記組付け対象部品の把持部位候補を設定する設定手段と、
前記把持部位候補を把持可能な前記ハンド機構の位置または姿勢の少なくとも一方を、ハンド位置姿勢候補として算出する算出手段と、
前記把持部位候補と前記ハンド位置姿勢候補とを対応付けて、前記ハンド機構による把持動作のための教示データ候補として生成する生成手段と、
を備えることを特徴とする。
本発明によれば、組立ロボットに対する組付け動作の教示を、特別な治具等を必要とせず、またユーザによる煩雑な指定操作を必要とせずに、容易に行うことができる。
第1実施形態に係る組立ロボットシステムの構成を示す図。 姿勢検出のための正二十面体を基本とする測地ドームの例を説明する図。 組付け対象部品の代表姿勢の例と、被組付けを部品の例を示す図。 テンプレート・マッチングによる組付け対象部品の位置姿勢検出処理を説明する図。 第1実施形態に係る教示処理の手順を示すフローチャート。 第1実施形態に係る組付け処理の手順を示すフローチャート。 フィッティング処理の様子の一例を示す図。 組付け対象部品に対する可能な把持姿勢の探索の一例を示す図。 第2実施形態に係る干渉を起こす可能性を低減した教示処理の手順を示すフローチャート。 仮想空間の一例を示す図。 オンハンドカメラと、当該オンハンドカメラにより撮影された組付け状態の対象部品とを含む領域の画像の一例を示す図。 第4実施形態に係る組付け動作の途中経路を教示する教示処理の手順を示すフローチャート。 部品を戻す動作を行う途中の状態の一例を示す図。
(第1実施形態)
図1は、第1実施形態に係る組立ロボットシステムの構成を示す図である。組立ロボットシステム10は、ロボットアーム101と、ハンド機構102と、カメラ装置103と、コントローラ106とを備える。ハンド機構102は、ロボットアーム101のエンドエフェクタであり、組付け対象部品104を把持するために用いられる。部品供給トレイ105には、組付け対象部品104が山積み状態で積載されている。なお、図1のように山積み状態で部品供給されなくてもよい。例えばパレット等の上に一定の向きに整列された状態で部品供給されてもよく、部品供給の方法は本発明において限定されるものではない。被組付け部品116は、組付け対象部品104が組み付けられる対象となる部品である。図1の例では、既に組付け対象部品104が所定位置に組付けられた状態が示されている。
カメラ装置103は、部品供給トレイ105や被組付け部品116、ハンド機構102を含む作業環境の状態を取得するセンシング機能を有する。カメラ装置103は、作業環境内の非可動部に固定的に設置された固定センシング部の一例であり、作業環境を撮影し画像データ等をセンシングデータとして取得する。なお、カメラ装置103は、二次元輝度画像情報を得るための単眼カメラであってもよいし、距離情報を得るためのステレオカメラやTOFセンサ、レーザーレンジファインダのような測距センサであってもよく、本発明において限定されるものではない。コントローラ106は、組立ロボットシステムが備える、ロボットアーム101やハンド機構102、カメラ装置103の動作を制御する。また、組付け動作を教示するための情報処理装置として機能する。なお、本発明においける組み立てロボットシステムにおいてカメラ装置103はシステムに含まれずシステムの外部に存在してもよい。
コントローラ106は、カメラ制御部107と、部品位置姿勢検出処理部108と、部品データ格納部109と、組付け対象部品設定部110と、ロボット制御部111と、ハンド位置姿勢候補算出部112と、教示データ生成部113と、教示データ格納部114と、干渉検知部115とを備える。
カメラ制御部107は、カメラ装置103の撮影制御を行う。また、カメラ制御部107は、センシングデータを入力する機能も有し、カメラ装置103が撮影した画像データ等をセンシングデータとしてコントローラ106内に入力する。
部品位置姿勢検出処理部108は、入力されたセンシングデータをスキャンして、組付け対象部品104が存在する位置姿勢を検出する。カメラ装置103は、作業環境内における位置関係と合致するように予めキャリブレーションされているので、センシングデータから検出された部品の位置姿勢は、実作業空間上の位置姿勢情報へと変換可能である。
部品データ格納部109は、検出処理のために用いられる組付け対象部品104の形状特徴や寸法等のデータを格納する。
なお、ロボットシステムによっては、例えば、組付け対象部品104は常に一定の姿勢で供給され、ハンド機構102による把持後は3次元的な平行移動のみで被組付け部品116の所定位置へと組付けられるような場合、組付け対象部品104の位置のみを検出するようにすることもできる。或いは、部品供給位置や組付け位置は一定であるが姿勢のみが不明であるような場合は、姿勢のみを検出するようにすることも可能であり、ロボットシステムに応じて位置と姿勢のどちらか一方のみ検出すればよい場合もあり得る。
また、部品位置姿勢検出処理部108は、教示動作時にも用いられる。カメラ装置103から入力されるセンシングデータには被組付け部品116に組付けられた状態の組付け対象部品104の情報が含まれる。このセンシングデータに対して同様の処理を行い、組付けられた状態にある組付け対象部品104の位置姿勢を検出する。さらに、検出された位置姿勢情報と部品データ格納部109に保持されている部品の形状情報とに基づき、当該部品の把持位置の候補を設定する。
組付け対象部品設定部110は、カメラ装置103により撮影された部品供給トレイ105を含む領域のセンシングデータを、部品位置姿勢検出処理部108で処理した結果に基づいて、組付け対象として把持する候補の部品を選択し、その把持位置とハンドの把持姿勢とを設定する。このとき教示データ格納部114に格納されている、組付け対象部品104の把持位置情報と対応する把持姿勢を参照する。組付け対象とする部品の選択方法は特に問わないが、本実施形態のように山積みで供給される場合は、例えば最も上部にあって把持位置が隠されていない部品や、部品位置姿勢検出処理部108による検出信頼度が高い部品を選択する方法が考えられる。
ロボット制御部111は、設定された把持位置とハンドの把持姿勢の情報に基づき、ロボットアーム101およびハンド機構102を制御して、選択された組付け対象部品104の把持動作を行わせる。そして把持後に、教示データ格納部114に保持されている組付け動作教示データを参照し、組付け対象部品104を被組付け部品116の所定位置へと組付ける動作を行わせる。なお、この組付け動作教示データには、組付け目標位置と組付け完了時のハンド位置姿勢情報を含んでおり、ロボット制御部111はハンド機構102がこの位置姿勢状態となるように動作計画を立ててロボットアーム101を駆動する。
ハンド位置姿勢候補算出部112は、教示動作時に、部品位置姿勢検出処理部108により設定された把持位置の候補各々に対し、これを把持することのできるハンド機構102の位置姿勢(すなわち組付け完了状態)の候補を算出する。
教示データ生成部113は、ハンド位置姿勢候補算出部112により算出されたハンド機構の位置姿勢の候補を、目標状態として、ロボット制御部111に設定する。ロボット制御部111は当該目標状態となるようにロボットアーム101とハンド機構102とを駆動制御する。駆動した結果、干渉等が発生せず目標状態となったら、当該目標状態は、組付け教示データの一つとして、教示データを保持する教示データ格納部114に格納される。
ロボットアーム101或いはハンド機構102の駆動時に、被組付け部品116や作業環境等に、ロボットアーム101、ハンド機構102、あるいは組付け対象部品104が衝突すると、ロボットアーム101およびハンド機構102に備えられた不図示の力覚センサは異常値を出力する。干渉検知部115は、ロボット制御部111を介してこれらの力覚センサの出力値を監視しており、異常値を検知すると干渉が発生したもの判断して教示データ生成部113へ通知する。
ここで、部品位置姿勢検出処理部108は、対象物の位置を検出すると共に姿勢をクラス分けするクラス分類器である。各クラスに対応する姿勢を代表姿勢と称し、測地ドームと面内回転を組み合わせて定義する。ここで測地ドームとは、正多面体の各頂点や面素の中心点、或いは、各三角形面素を再帰的に同一面積の三角形に分割してそれらの頂点を用いることで、球面を均一に離散化表現する公知の手法である。
図2は、正二十面体を基本とする測地ドームの例を示している。正二十面体の中心点に、所定姿勢の対象物の重心点が一致するように配置し、例えば、各頂点と各三角形面素の中心点を視点として見た対象物の見え方を代表姿勢の定義とする。各視点からの視線は、対象物の中心点すなわち正二十面体の重心点で交差する。正二十面体においては頂点の数は16、面素の数は20であるので、正二十面体をそのまま用いた測地ドームでは、計36の視点からの代表姿勢が定義可能である。
しかしながら、通常これだけの粒度では、把持を行うのに十分な精度とはならないため、本実施形態では、各面素の辺をさらに2分割している。すると正二十面体の各正三角形面素は、正三角形面素203に示すように4つの同一面積の小正三角形で構成されることになる。ここで視点201は、元の正二十面体の頂点と面素中央点とで定義された計4点の視点を表し、視点202は、小三角形に分割することにより増えた6点の視点を表している。面中心点の数は分割前の元の三角形面素の数(20面)の4倍、頂点の数は元の正二十面体の辺の数分(=34本)増えることになるので、この分割により16+34+20×4=130通りの視点からの代表姿勢を定義することができる。
画像群206は、面内回転の例を示している。画像205は、視点204から取得した部品の画像であって、これを所定角度ずつ回転させることにより、画像群206示すような複数の代表姿勢を得ることができる。本実施形態においては、面内回転を10度ずつで定義するものとする。すなわち上述の130の各視点に対し36通りの面内回転パターンが存在することになるので、130×36=4680通りの代表姿勢が定義される。
ここで視点とは、すなわちカメラ装置103であるので、代表姿勢とはカメラ装置103により取得される個々の対象物の画像のバリエーションに対応する。部品データ格納部109は、予め、部品の姿勢を変化させて撮影した全ての代表姿勢の画像データに基づく照合データを保持している。図3(a)−(e)は、各代表姿勢の画像データの例を示す。
図3(f)は、所定位置に配置された被組付け部品116をカメラ装置103で撮影して取得した画像データの一例を示している。そして図3(g)は、この被組付け部品116に、組付け対象部品104を組み付けた状態の画像データの一例を示している。カメラ装置103から観察した組付けられた状態の組付け対象部品104の姿勢は、図3(c)に示される例と一致するが、一部分が被組付け部品116に隠され見えなくなっている。
本実施形態においては、部品位置姿勢検出処理部108は、所謂テンプレート・マッチング処理に基づいて、カメラ装置103を基準とする座標系であるカメラ座標系における各組付け対象部品104の位置姿勢を検出する。
従って、部品データ格納部109は、4680通りの代表姿勢クラスに対応する照合データ(テンプレート)を全て保持している。しかしながら、テンプレート全てを保持せずに、各視点から0°回転の130通りのテンプレートのみを保持しておき、面内回転分については照合の都度、回転処理により生成するようにすることで、保持するデータ量を削減するように構成してもよい。
ここで、カメラ座標系における組付け対象部品104の基準点(物体中心等)の位置を、カメラ座標系の原点からの平行移動ベクトルPとして表す。これが検出された組付け対象部品104の位置情報に相当する。カメラから見た奥行き方向の位置は、検出された部品の画像中の大きさに基づいて推定するか、若しくは、別途レンジファインダのような測距センサを用いてより正確に推定するようにしてもよい。
そして、いずれの代表姿勢クラスのテンプレートに最も合致するかを判定し、対象物の姿勢を推定する。ここで対象物の姿勢は、カメラ座標系における部品座標系3軸の方向ベクトルの組による姿勢行列E=[eWX、eWY、eWZ]で表すことができる。eWX、eWY、eWZは、組付け対象部品に基準位置からそれぞれ3方向に直交して固定された、長さ1の単位列ベクトルである。すなわち、各代表姿勢には、それぞれ固有の姿勢行列Eが対応付けられている。
また、ハンド機構102により把持すべき部品の位置(把持部位)は、組付けに適した位置である必要がある。つまり組付け完了状態となったときに把持可能である部位である必要があるので、図3(g)の組付け完了状態において被組付け部品116に隠されずに見えている部位が候補となる。把持部位の具体的な設定方法に関しては後述する。
組付け対象部品104の把持部位を把持した状態は、ハンド機構102を基準とするハンド座標系における組付け対象部品の中心位置Pおよび姿勢行列Eにより定義できる。これがハンドと部品との相対的な把持姿勢を表すパラメータとなる。なお、ハンド座標系の原点は把持を行う二指の把持点の中心すなわち把持中心であり、3軸の方向は所定方向に固定されているものとする。ロボット制御部111は、把持しようとする組付け対象部品104のカメラ座標系における中心位置Pおよび姿勢Eが、ハンド座標系における中心位置Pおよび姿勢Eと一致するように、ロボットアーム101の各関節やハンド機構102に対する把持動作計画および制御を行う。
ロボットアームの可動関節によって区切られる軸(リンク)の各々には、それぞれ個別の座標系3軸が固定されており、ハンド座標系を含めて連結する2つのリンクは互いの座標系で相互に位置と姿勢を表すことができる。すなわちハンドからリンクを順次辿って座標変換していくと、最終的に作業環境に固定された3軸の座標系で位置姿勢を表すことができる。本実施形態では、この座標系をロボットの固定位置を基準とするロボット座標系とする。なお、連結する2つのリンクの可能な回転方向は、関節によって決まっている。ロボット制御部111はリンク間の回転自由度等の連結関係を表すロボットモデルを保持しており、動作計画を立てて制御を行う。
ここで、図4および図5を参照して、本実施形態に係る部品位置姿勢検出処理部108で行われるテンプレート・マッチング処理による位置姿勢検出手法を説明する。 図4(a)はテンプレートの一例を示している。このテンプレートは、カメラ装置103から見て、図3(c)に一致する姿勢の組付け対象部品104を検出するためのテンプレートである。他の姿勢のテンプレートについてはここでは図示しないが、以下同様に処理を行う。
図4(b)は、画像400をスキャン処理して、テンプレート・マッチングによる位置姿勢検出処理を行う様子を示している。画像400は、組付け対象部品104が所定位置に組付けられた状態の被組付け部品116を含む領域を、カメラ装置103で撮影した画像データの一例である。切り出しウィンドウ401は、画像400上に設定されたテンプレートと同サイズのウィンドウを示す。切り出しウィンドウ401は、画像全域(若しくは、部品の存在することが予め分かっている範囲)を、隈なくスキャンする。
切り出しウィンドウ401により切り出された矩形領域の部分画像は、テンプレートと相関演算され、最も相関の高くなる位置にテンプレートに対応する代表姿勢の部品が有るものと判別する。本処理を行う際に組付け状態のカメラ装置103視点での姿勢が分かっていない場合は、複数の代表姿勢に対応するテンプレートを順次用いて、同様の処理を行う。そして、各位置において所定閾値以上の相関を示すテンプレートが複数ある場合は、最も相関の高いテンプレートに対応する代表姿勢を部品の姿勢であるものとして判別する。
また、検出された部品の大きさに基づき部品までの距離を推定する場合は、テンプレートを所定範囲で変倍し、最も合致した大きさのテンプレートに対応する距離に部品があるものとして判別する。その他の例として、カメラ装置103をステレオカメラとし、撮影したステレオ画像を用いて2枚の画像から検出された部品の位置を対応付けて三角測量の原理により距離を推定してもよいし、別途レンジファインダ等を併用してもよい。
さらに、用いるテンプレートを輝度画像そのままとするのではなく、所定のエッジ抽出等の前処理を行い、画像400に対しても同様の処理を行ってからスキャンを行うようにしてもよい。これにより不要なノイズ等の情報が除去され、検出精度の向上が期待できる。
なお、図4(b)から明らかなように、所定位置に組付けられた状態では、組付け対象部品104は、全体が画像データに写っている訳ではない。従って部品供給位置等にある全体が写った組付け対象部品104を検出する場合に比べ、テンプレートとの一致度を測る閾値を下げて検出処理を行う必要がある。
本実施形態では以上のテンプレート・マッチングに基づく部品位置姿勢検出処理を適用しているが、本発明はこれに限定されるものではない。例えば局所マッチング結果を投票して位置姿勢検出するようなハフ変換をベースとする検出処理であっても、本発明を適用可能である。
次に、図5のフローチャートを参照して、本実施形態の組立ロボットシステムで行われる組付け動作を教示するための教示処理の手順を説明する。本教示処理では、組付けに適したハンド把持姿勢を、組付け対象部品104の把持部位と対応付けた教示データとして生成し、組付け動作時に使用できるように保持する。本教示処理は、ユーザが予め組付け対象部品を被組付け部品に組付け、所定位置に配置した状態で開始する。この所定位置は、ロボットが組付け動作を行う際に、被組付け部品を配置する位置と同位置である。
ステップS501において、カメラ装置103は、被組付け部品116に組付けられた状態の組付け対象部品104を含む領域を撮影して画像データを取得する。ステップS502において、部品位置姿勢検出処理部108は、取得された画像データにおける組付け対象部品104の位置姿勢を検出する。この処理では、前述したようにテンプレート・マッチング処理に基づいてカメラ視点からの各姿勢クラスの部品の検出を行う。
ステップS503において、部品位置姿勢検出処理部108は、検出結果と部品データ格納部109に格納されている部品の形状モデルデータとのフィッティング処理を行う。図7を参照してこのフィッティング処理の様子を説明する。ステップS502で取得された代表姿勢と画像データ中の位置情報とに基づいて、形状モデルデータから計算されるカメラ視点での部品の理想的なフレームデータ(図7(a)の点線701)を初期状態として画像中に配置する。また、画像データには前処理として予めエッジ抽出処理をかけておく。そして、フレームデータの各エッジが、画像中のエッジと最も一致する位置を探索し、探索した位置をカメラ座標系における正確な部品の位置として算出する(図7(b)において点線701と部品とのずれが解消)。なお、センシングデータが距離画像である場合は、同様の探索をエッジではなく面に対して行うことができる。
フィッティング処理により得られる部品の位置情報は、上述したカメラ座標系における組付け対象部品の基準点の原点からの位置ベクトルPであり、姿勢情報は姿勢行列Eとして表される。カメラ装置は作業空間に対してキャリブレーションされているので、これを作業空間に固定された座標系(本実施形態ではロボット座標系)に変換するのは容易である。
ステップS504において、部品位置姿勢検出処理部108は、組付け対象部品104の見えている部分を、組み付け動作を行う際に使用可能な部品の把持部位の候補として判別する処理を行う。図7(b)から明らかなように、組付け対象部品104の見えていない部分のエッジは、画像データのエッジと一致していない。従って、画像データのエッジとの一致度が高いフレームデータのエッジに対応する部品の位置(センシングデータから抽出可能な位置)を、見えている部分として判定することができる。
このため、ステップS503では予め、部品位置姿勢検出処理部108は、部品の形状モデルデータからフレームデータを生成する際に、フレームデータを構成するエッジを所定の微小長に分割し、分割エッジ毎にインデックスを付けて部品の位置情報と対応付けられるようにしておく。このときの部品の位置情報は、部品座標系における位置座標として表される。そしてステップS504において、部品位置姿勢検出処理部108は、分割エッジ毎に画像データのエッジとの一致度を計算し、閾値処理して2値化する。次に、一致しているものとして残った分割エッジに対し、隣接する分割エッジが残っているかを調べ、残っていないものはたまたまエッジが一致しただけのアウトライヤであるものと判断して除外する。最終的に残った分割エッジの位置情報を統合することにより、部品の見えている範囲を判別することが可能となる。
これを部品の形状データと照らし合わせることにより、見えている各部分の幅や重心までの近さ、把持した際のハンドとの接触面積の大きさ等を考慮して、安定的に把持するのに適した部位を選択する。ここでは複数の部位が候補として選択され得る。各把持部位の候補は、部品座標系における原点からの位置ベクトルで表される。
或いは、事前に部品の形状データに基づき把持部位の候補を定めて、部品データ格納部109にこの情報を保持する把持部位情報保持部を備えるようにすることもできる。この場合、ステップS504において、部品位置姿勢検出処理部108は、把持部位情報保持部に保持されている把持部位の候補情報を参照するのみでよい。
なお、ステップS503のフィッティング処理で確定した部品の位置姿勢を、部品の形状情報に対応付けることにより、各把持部位の候補を実作業空間中における位置に変換することは公知の技術を用いて行われる。
ステップS505において、ハンド位置姿勢候補算出部112は、1つの組付け用把持部位候補を選び、この部位を把持することが可能なハンド機構102の組付け対象部品104に対する相対的な把持姿勢を、候補としていくつか算出する。このときハンドの把持姿勢の候補は、部品座標系でハンド座標系の3軸の姿勢と原点位置を表すものとするが、ハンド座標系で部品の位置姿勢を表した前述の位置Pおよび姿勢行列Eへの変換は容易である。同一部位を把持することの可能なハンド姿勢は1つに定まるとは限らず、通常は、図8(a)および(b)に示されるように、把持部位を中心として回転させたある範囲の姿勢が把持可能姿勢となる。この範囲の中から所定角度ずつをサンプリングして定めた複数の姿勢を、ハンド把持姿勢候補として抽出する。
なお、図8(a)および(b)では、把持される組付け対象部品104の面が異なっている。図8(b)の面804は曲面形状であり、被組付け部品116と干渉せずに把持できる回転角度範囲は広いが、被組付け部品116の形状から狭いハンドとの接触面積しか得られないため、図8(a)の面803の方が安定的に把持可能である。図8(a)において、姿勢802よりも姿勢801の方が組付け対象部品104と被組付け部品116との接触面積は大きく、安定的に把持可能である。これらを加味して、複数の姿勢候補に対して優先順位を付けることができる。
さらに、ステップS506において、ハンド位置姿勢候補算出部112は、抽出されたハンド把持姿勢候補の各々について、作業空間内に配置されて、被組付け部品116に組付けられた状態の組付け対象部品104の把持部位の候補を実際に把持するための、ハンド機構102の位置姿勢を算出する。ここでは部品座標系をS503で抽出されたロボット座標系における組付け対象部品の位置姿勢に合致させることにより、ハンド把持位置姿勢をロボット座標系へ変換する。
以上、算出された組付け対象部品104の把持部位候補と、各把持部位候補を把持するのに適したハンド機構102の相対的な把持姿勢と、組付けられた状態の組付け対象部品104の把持位置を把持する作業空間中のハンド機構102の位置姿勢候補とは、セットで教示データ候補として管理される。
ステップS507において、ロボット制御部111は、S506で算出されたたハンド把持位置姿勢となるように、ロボットアーム101の各リンク間角度の目標状態を計算し、把持動作を行わせる。ここではS506で計算したハンド把持位置姿勢を目標として、ロボットの固定軸のリンクから順に、連結するリンクが目標位置に近づく方向に回転させて、最終的にハンドが目標位置姿勢に一致するときの全リンク間の角度を計算する。目標位置姿勢と一致させることができなかった場合は、当該ハンド把持位置姿勢は本ロボットシステムでは実行不可能な姿勢であるものと判断し、把持動作は行わない。
ステップS508において、干渉検知部115は、計画した把持動作が成功したか否かを判定する。動作中に干渉検知部115により干渉が検知された場合は、把持動作は失敗したものと判定される。把持動作が成功したと判定された場合(S508;YES)、S509へ進む。一方、把持動作が失敗したと判定された場合(S508;NO)、S510へ進む。
ステップS509において、教示データ格納部114は、当該組付け用ハンド把持姿勢と、部品の把持部位と、追加的に組付け後の目標位置姿勢とを対応付けて、組付け目標状態を教示する教示データの一つとして決定して格納する。
ステップS510において、ハンド位置姿勢候補算出部112は、処理中の把持部位候補に対するハンド把持姿勢候補の処理が一通り完了したか否かを判定する。ハンド把持姿勢候補の処理が一通り完了したと判定された場合(S510;YES)、S512へ進む。一方、まだ完了していないハンド姿勢候補があると判定された場合(S510;NO)、S511へ進む。
ステップS511において、ハンド位置姿勢候補算出部112は、次の組付け用ハンド姿勢候補を選択する。その後、S506へ戻る。ステップS512において、部品位置姿勢検出処理部108は、部品の把持部位候補の処理が一通り完了したか否かを判定する。部品の把持部位候補の処理が一通り完了したと判定された場合(S512;YES)、処理を終了する。一方、まだ完了していない把持部位候補があると判定された場合(S512;NO)、S513へ進む。ステップS513において、部品位置姿勢検出処理部108は、次の組付け用把持部位候補を選択する。その後、S504へ戻る。
以上の教示処理フローにより、組付け用ハンド把持姿勢、部品の把持部位のセットが、通常は複数通り教示データとして生成されて保存される。さらには、センシングデータを組付け後の目標位置姿勢情報として教示データに含めてもよい。
次に図6のフローチャートを参照して、図5の処理で生成された教示データを用いた、部品の把持および組付け動作の処理の手順を説明する。
ステップS601において、カメラ装置103は、組付け対象部品104が積載された部品供給トレイ105を撮影して、画像データを取得する。本実施形態では、図1に示すように山積み状態の部品供給トレイを想定しているが、前述のとおり本発明において供給形態は限定されるものではない。
ステップS602において、部品位置姿勢検出処理部108は、撮影された画像データに基づいて、組付け対象部品104の位置姿勢を検出する。この処理は図5の教示処理フローのステップS502の処理と同様であり、必要に応じて閾値等のパラメータは調整される。ステップS502の処理とは異なり、ここでは複数の部品の位置姿勢が検出される可能性があるが、以下の処理は1つの部品を選択した上で行う。
ステップS603において、部品位置姿勢検出処理部108は、ステップS503の処理と同様に部品形状データとのフィッティング処理を行い、まずはカメラ座標系における選択した部品の正確な位置姿勢を算出し、その後、これを作業空間中のロボット座標系へ変換する。
ステップS604において、ロボット制御部111は、教示データ格納部114に格納されている組付け用ハンド把持姿勢、部品の把持部位、さらには追加的に組付け後の目標位置姿勢、のセットである教示データを1つ選択して読み出す。
そしてステップS605において、ロボット制御部111は、検出された組み付け対象部品104が、当該教示データの組付け用ハンド把持姿勢で把持可能であるか否かを判定する。把持可能であると判定された場合(S605;YES)、S607へ進む。一方、把持可能でないと判定された場合(S605;NO)、S606へ進む。具体的には、教示データの部品座標系で表されたハンド機構102の位置姿勢を、選択された組付け対象部品104の位置姿勢に基づいて、作業空間中のロボット座標系で表される位置姿勢へ変換する。その上で、当該ハンド機構102の位置姿勢をロボットアーム101の駆動で取ることが可能であり、かつハンド機構102やロボットアーム101が部品供給トレイ105その他の作業環境と干渉しない場合は、把持可能であると判定される。
ステップS606において、ロボット制御部111は、今回用いた教示データが最後の教示データであるか否かを判定する。最後の教示データであると判定された場合(S606;YES)、検出された組付け対象部品104は把持不可能であるとして、次の組付け対象部品104若しくは次の部品供給トレイ105に対する処理へ移る。一方、他の教示データが残っていると判定された場合(S606;NO)、SS604へ戻る。
ステップS607において、ロボット制御部111は、ステップS605で計算されたロボット座標系でのハンド把持位置姿勢となるように、ロボットアーム101およびハンド機構102の各リンク間角度を計算し、組付け対象部品104を把持する動作を実行する。
ステップS608において、ロボット制御部111は、組付け対象部品104を把持した状態のまま、教示データの組付け後のハンド機構102の目標位置姿勢のデータに基づいて、ロボットアーム101を駆動して、組付け動作を行う。
ステップS609において、ロボット制御部111は、把持状態を解除してハンド機構102を所定位置に戻し、組付け動作を終了する。
本実施形態によれば、ユーザは被組付け部品の所定位置に組付けられた状態の組付け対象部品を作業環境中の所定位置へ配置した情報のみで、組立ロボットに対する組付け動作の教示を容易に行うことが可能となる。
本実施形態によれば、組立ロボットに対する組付け動作の教示を、特別な治具等を必要とせず、またユーザによる煩雑な指定操作を必要とせずに、容易に行うことができる。
(第2実施形態)
第1実施形態において、ステップS507では計算したハンド位置姿勢となるようにロボットを駆動し、ステップS508で当該動作中に干渉が生じたか否かを判別している。干渉は、ロボットのアームやハンド、把持した組付け対象部品等の可動部分が、被組付け部品や部品供給トレイ、作業台等の作業環境中の固定部分と衝突することにより生ずるものであるから、その頻度をできるだけ少なくすることが、耐故障性の観点で求められる。
本実施形態では、組付け状態の組付け対象部品の把持動作を、干渉可能性の低い場合に限って実行することで、故障する可能性を低減した教示処理フローを実現している。以下、図9のフローチャートを参照して、本実施形態における教示処理の手順を説明する。
図9において、ステップS901乃至ステップS906までの各処理は、図5のステップS501乃至ステップS506までの各処理と同様であるため、詳細な説明は省略する。またステップS908乃至ステップS914までの各処理は、ステップS507乃至ステップS513まで各の処理と同様である。
ステップS907において、ハンド位置姿勢候補算出部112は、ステップS906で計算された組付けられた状態の組付け対象部品104を把持するハンド把持位置姿勢に対し、ステップS507で行われる計算と同等の計算を行い、最終的にハンドが目標位置姿勢に一致するときの全リンク間の角度を計算する。そしてこれらのリンクを、作業空間を簡易にモデル化した仮想空間中に配置する。
図10は、仮想空間の例を示している。ロボットアーム101およびハンド機構102は、各関節から次の関節までの軸をリンク1001として、これらを接続したものをベースに、各リンクに固定された直方体によりモデル化されている。接続されたリンク同志は、それぞれ角度に機械的な拘束条件があり、取り得る回転方向および角度は所定範囲内となっている。リンクに固定された直方体は実空間中ではロボットアーム101またはハンド機構102の一部であり、拘束条件の範囲内では干渉しないようになっているため、仮想空間中で接続する2つのリンクの直方体同志の重なりが生じても、干渉は無いものとして無視する。
また、組付けられた状態の組付け対象部品1002、所定位置に配置された被組付け部品1003、部品供給トレイ1004、作業台1005等の作業環境データは、仮想空間中に固定された直方体の組み合わせでモデル化される。
ステップS907において、ハンド位置姿勢候補算出部112は、この仮想空間中において、前述の接続した2つのリンクの直方体以外のいずれかの直方体が、他の直方体の存在する空間に重なって存在していないかを確認する計算を行う。重なりが生じていなければ、実際に把持動作をさせた際に干渉が発生する可能性は低いものと判断できる。すなわちハンド位置姿勢候補算出部112は、算出した位置姿勢への移動に際して干渉可能性が低いか否かを判定する。干渉可能性が低いと判定された場合(S907;YES)、S908へ進む。ステップS908以降の処理において、第1実施形態と同様に、実際に干渉が発生しないことを確認して教示データとする。一方、干渉可能性が高いと判定された場合(S907;NO)、ロボットアーム101の駆動は行わずに、S911へ進む。
本実施形態によれば、ロボットアームを動作させた場合に干渉が発生する確率を低減することができ、ロボットシステムの耐故障性が向上する。
(第3実施形態)
本発明は、作業環境中に固定して配置されたカメラ装置103等のセンシング部に限らず、例えばロボットのハンドやアームに取り付けたセンシング部を用いて、センシング方向を可変とすることも可能である。
図11(a)は、図1で説明したロボットアーム101のハンド機構102に、オンハンドカメラ117を装備した状態を示している。オンハンドカメラ117を用いる場合においても、図5或いは図9で説明した教示フローを用いることが可能で、図6の組付け動作フローにより組付け動作を行うことができる。但し、本実施形態では、オンハンドカメラ座標系はロボット座標系に対して固定されているわけではなくハンドのリンク座標系に固定される。従って、撮影画像から検出した部品の位置姿勢をロボット座標系に変換する際には、リンクを順に辿って計算する必要がある。尚、オンハンドカメラ117を、把持組付け動作を行うロボットとは別のロボットに取り付けた構成とすることも、もちろん可能である。
また、ステップS509或いはステップS910で把持が成功して教示データを保存する際に、改めてセンシング部により、組付け完了状態のセンシングデータを取得するようにすることも可能である。図11(b)は、オンハンドカメラ117により撮影した組付け完了状態の画像データの例を示している。これを教示データに加えて保持しておくことで、組付け動作を行う際の目標状態を表すデータとして利用することができる。
さらに撮影した組付け完了状態の画像データに対し、前述した部品位置姿勢検出処理を行うようにしてもよい。組付け完了した把持状態では、対象部品にハンドが接触しているので、把持する前の組付け状態よりも対象部品は見えにくくなっている可能性が高い。撮影した画像データに対し部品位置姿勢検出処理を行うことで、検出されやすい画像に対応する把持姿勢が、組付け時に対象部品が見えやすい、すなわち組付け動作に適した把持姿勢であるものと判断できる。
なお、もちろん組付け完了状態のセンシングデータの取得は、オンハンドカメラに限らず第1実施形態で説明した固定のカメラ装置103により行うようにしても構わない。さらには、固定カメラとオンハンドカメラとを併用する構成としてもよい。さらに、カメラに限らず、測距センサ等の他のセンシング部をオンハンドあるいは固定のセンシング部として用いることも可能である。
(第4実施形態)
組付け完了状態の教示データを取得するだけでなく、組付け動作の途中経路の各状態を示す教示データを生成するようにすることも可能である。図12のフローチャートを参照して、本実施形態における途中経路状態教示データの生成処理の手順を説明する。
図12において、ステップS1201乃至ステップS1209までの各処理は、図5のステップS501乃至ステップS509までの各処理と同様であるので、詳細な説明は省略する。またステップS1216乃至ステップS1219までの各処理は、ステップS510乃至ステップS513までの処理と同様である。本実施形態に係る教示フローでは、ステップS1210乃至ステップS1215までの各処理が新たに追加された処理となっている。
ステップS1208で組付け状態の対象部品の把持が成功し、ステップS1209で組付け目標状態を教示する教示データが保存されたら、ステップS1210において、ロボット制御部111は、組付け状態の対象部品を引き抜き、部品供給トレイへと戻す動作の経路の候補を計算する。通常、この経路の候補は複数通りあり得る。図13(a)−(c)は、経路候補の一例により部品を戻す動作を行った際の途中状態を示しており、図13(a)の組付け完了状態から、図13(b)、図13(c)の順にロボットの状態が変化していく様子を示している。経路候補を算出する上では、図13(c)の部品供給トレイ105付近の状態は実際には把持する部品の位置姿勢に応じて変化するものであるので、例えば部品トレイの中心付近の位置を目標位置とするだけでよく、厳密な目標姿勢は定義しない。
次にステップS1211において、ロボット制御部111は、一つの経路候補を選んで、把持している組付け状態の対象部品を供給トレイへと戻す動作を実行する。
そしてステップS1212において、干渉検知部115は、部品供給トレイ105へ戻す動作が成功したか否かを判定する。ここではステップS1208と同様に、干渉検知部115は、動作中に干渉が生じたか否かを判定する。干渉が生じていた場合は、続く処理をスキップして、ステップS1214へ進む。
干渉が生じなかった場合は、実際の組付け時に用いることのできる経路であるものと判断し、ステップS1213において、教示データ格納部114は、図13に示したような時系列変化の途中状態を逆順に並べて、組付け動作の途中経路を教示する教示データとして格納する。
そしてステップS1214において、ロボット制御部111は、戻す動作の経路候補がまだ残っているかを確認し、残っていればステップS1215へ進み、次の経路を選択して、ステップS1211へ戻る。一方、残っていなければ、ステップS1216へ進む。
以降の処理は図5のステップS510以降の処理と同様である。
なお、ステップS1210およびステップS1211の各処理は、ユーザが不図示のロボット操作受付部を用いて手動の操作により行うようにしてもよい。精度を要求される組付け完了状態は既にステップS1209までの処理で完了しており、組付け状態から対象部品を供給トレイに戻す動作は、通常それほど高い精度は要求されないため、手動の操作でも容易に実行可能である。ユーザが作業環境を見ながら手動で操作することにより、不必要な干渉の発生を抑えられシステムを故障させる可能性を低減できる。
以上により、組立ロボットシステムで対象部品の組付け動作を行う際の、組付け目標状態だけでなく経路情報も併せて教示することが可能となる。
以上、本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。例えば、生産用ロボットシステムに限らず、家庭用ロボット等の種々のロボットシステムにおける教示方法としても適用可能であることは言うまでもない。
本発明によれば、組立ロボットに対する組付け動作の教示を、特別な治具等を必要とせず、またユーザによる煩雑な指定操作を必要とせずに、容易に行うことを目的とする。
(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。

Claims (14)

  1. 被組付け部品の所定位置に組付けられた状態の組付け対象部品を含む領域のセンシングデータを取得する取得手段と、
    前記センシングデータと前記組付け対象部品の形状データとに基づいて、ハンド機構により把持される前記組付け対象部品の把持部位候補を設定する設定手段と、
    前記把持部位候補を把持可能な前記ハンド機構の位置または姿勢の少なくとも一方を、ハンド位置姿勢候補として算出する算出手段と、
    前記把持部位候補と前記ハンド位置姿勢候補とを対応付けて、前記ハンド機構による把持動作のための教示データ候補として生成する生成手段と、
    を備えることを特徴とする情報処理装置。
  2. 更に、前記センシングデータに基づいて、前記組付け対象部品の位置または姿勢の少なくとも一方を部品位置姿勢として検出する検出手段を備え、
    前記設定手段は、前記部品位置姿勢と前記組付け対象部品の形状データとに基づいて、ハンド機構により把持される前記組付け対象部品の把持部位候補を設定することを特徴とする請求項1に記載の情報処理装置。
  3. 前記設定手段は、前記センシングデータから抽出可能な部分を、前記把持部位候補として設定することを特徴とする請求項1または2に記載の情報処理装置。
  4. 前記組付け対象部品の形状データに対応付けて予め定められた把持部位の候補情報を保持する把持部位情報保持手段をさらに備え、
    前記設定手段は、前記検出手段により検出された前記部品位置姿勢と、前記把持部位情報保持手段に保持されている前記候補情報とに基づいて、前記把持部位候補を設定することを特徴とする請求項2に記載の情報処理装置。
  5. 前記算出手段は、前記把持部位候補を把持可能な前記ハンド機構と前記組付け対象部品との相対的な把持姿勢を算出し、
    前記教示データ候補は、前記相対的な把持姿勢の情報をさらに含むことを特徴とする請求項1乃至4の何れか1項に記載の情報処理装置。
  6. 前記教示データ候補は、前記センシングデータを、組み付け目標状態を教示するためのデータとしてさらに含むことを特徴とする請求項1乃至5の何れか1項に記載の情報処理装置。
  7. 前記ハンド機構および当該ハンド機構と接続されたロボットアームの駆動を制御する制御手段と、
    前記ハンド機構および前記ロボットアームの駆動時に、前記被組付け部品または作業環境との間で干渉が発生したことを検知する干渉検知手段と、
    前記制御手段が前記教示データ候補に基づいて前記ハンド機構および前記ロボットアームの駆動を制御して、前記被組付け部品の所定位置へ組付けられた状態の前記組付け対象部品を把持させる際に、前記干渉検知手段により前記干渉の発生が検知されなかった場合の前記教示データ候補を、教示データとして決定する決定手段と、
    をさらに備えることを特徴とする請求項1乃至6の何れか1項に記載の情報処理装置。
  8. 前記算出手段は、前記ロボットアームおよび前記ハンド機構の形状データ、前記被組付け部品の形状データ、前記組付け対象部品の形状データに基づいて、各形状データに重なりが生じるか否かを判定することにより、組付け時に干渉が生じないハンド位置姿勢候補を算出することを特徴とする請求項7に記載の情報処理装置。
  9. 前記制御手段は、前記算出手段により算出された前記ハンド位置姿勢候補と合致するように、前記ロボットアームおよび前記ハンド機構を駆動して前記被組付け部品の所定位置へ組付けられた状態の前記組付け対象部品を把持させた後に、前記組付け対象部品を部品供給トレイへ戻すように動作させ、
    前記教示データ候補は、前記組付け対象部品を前記部品供給トレイへ戻す動作における、前記ロボットアームおよび前記ハンド機構の位置姿勢の時系列変化を示す情報をさらに含むことを特徴とする請求項7または8に記載の情報処理装置。
  10. ユーザの操作を受け付ける操作受付手段をさらに備え、
    前記制御手段により前記組付け対象部品を前記部品供給トレイへ戻す動作は、前記ユーザの操作により実行されることを特徴とする請求項9に記載の情報処理装置。
  11. 前記センシングデータは、被組付け部品の所定位置に組付けられた状態の組付け対象部品を含む領域の画像データであることを特徴とする請求項1乃至10の何れか1項に記載の情報処理装置。
  12. 前記センシングデータは、被組付け部品の所定位置に組付けられた状態の組付け対象部品を含む領域の距離情報であることを特徴とする請求項1乃至10の何れか1項に記載の情報処理装置。
  13. 取得手段と、設定手段と、算出手段と、生成手段とを備える情報処理装置の制御方法であって、
    前記取得手段が、被組付け部品の所定位置に組付けられた状態の組付け対象部品を含む領域のセンシングデータを取得する取得工程と、
    前記設定手段が、前記センシングデータと前記組付け対象部品の形状データとに基づいて、ハンド機構により把持される前記組付け対象部品の把持部位候補を設定する設定工程と、
    前記算出手段が、前記把持部位候補を把持可能な前記ハンド機構の位置または姿勢の少なくとも一方を、ハンド位置姿勢候補として算出する算出工程と、
    前記生成手段が、前記把持部位候補と前記ハンド位置姿勢候補とを対応付けて、前記ハンド機構による把持動作のための教示データ候補として生成する生成工程と、
    を有することを特徴とする情報処理装置の制御方法。
  14. 請求項13に記載の情報処理装置の制御方法の各工程をコンピュータに実行させるためのプログラム。
JP2011185257A 2011-08-26 2011-08-26 情報処理装置、情報処理装置の制御方法、およびプログラム Active JP5852364B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2011185257A JP5852364B2 (ja) 2011-08-26 2011-08-26 情報処理装置、情報処理装置の制御方法、およびプログラム
US13/568,595 US9727053B2 (en) 2011-08-26 2012-08-07 Information processing apparatus, control method for information processing apparatus, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011185257A JP5852364B2 (ja) 2011-08-26 2011-08-26 情報処理装置、情報処理装置の制御方法、およびプログラム

Publications (3)

Publication Number Publication Date
JP2013043271A JP2013043271A (ja) 2013-03-04
JP2013043271A5 JP2013043271A5 (ja) 2014-10-02
JP5852364B2 true JP5852364B2 (ja) 2016-02-03

Family

ID=47744808

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011185257A Active JP5852364B2 (ja) 2011-08-26 2011-08-26 情報処理装置、情報処理装置の制御方法、およびプログラム

Country Status (2)

Country Link
US (1) US9727053B2 (ja)
JP (1) JP5852364B2 (ja)

Families Citing this family (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9400503B2 (en) 2010-05-20 2016-07-26 Irobot Corporation Mobile human interface robot
JP5641084B2 (ja) * 2013-03-18 2014-12-17 株式会社安川電機 ロボットシステムおよび被加工物の製造方法
JP5616478B1 (ja) * 2013-04-18 2014-10-29 ファナック株式会社 ワークを搬送するロボットを備えるロボットシステム
JP2014238687A (ja) * 2013-06-07 2014-12-18 セイコーエプソン株式会社 画像処理装置、ロボット制御システム、ロボット、画像処理方法及び画像処理プログラム
JP6429450B2 (ja) * 2013-10-31 2018-11-28 キヤノン株式会社 情報処理装置、情報処理方法
WO2015079740A1 (ja) * 2013-11-28 2015-06-04 三菱電機株式会社 ロボットシステムおよびロボットシステムの制御方法
US9778650B2 (en) * 2013-12-11 2017-10-03 Honda Motor Co., Ltd. Apparatus, system and method for kitting and automation assembly
JP5785284B2 (ja) * 2014-02-17 2015-09-24 ファナック株式会社 搬送対象物の落下事故を防止するロボットシステム
JP5897624B2 (ja) * 2014-03-12 2016-03-30 ファナック株式会社 ワークの取出工程をシミュレーションするロボットシミュレーション装置
JP6338421B2 (ja) * 2014-03-31 2018-06-06 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、把持システムおよびプログラム
JP6660102B2 (ja) * 2014-08-27 2020-03-04 キヤノン株式会社 ロボット教示装置およびその制御方法、ロボットシステム、プログラム
AT516417B1 (de) * 2014-10-29 2018-10-15 Zkw Group Gmbh Begrenzung für das Ablegen von elektronischen Bauteilen auf eine Unterlage
JP6335806B2 (ja) * 2015-01-22 2018-05-30 三菱電機株式会社 ワーク供給装置およびワーク把持姿勢計算方法
JP6378143B2 (ja) * 2015-07-16 2018-08-22 ファナック株式会社 エンドエフェクタの位置および姿勢を定めるガイド部を備えるロボットの教示装置
US10335951B2 (en) * 2015-07-29 2019-07-02 Canon Kabushiki Kaisha Information processing apparatus, information processing method, robot control apparatus, and robot system
JP6363589B2 (ja) 2015-12-24 2018-07-25 ファナック株式会社 ロボットを備えたワイヤ放電加工システム
US10221015B2 (en) * 2016-06-27 2019-03-05 Amazon Technologies, Inc. Automated item singulation
CN106041935A (zh) * 2016-07-27 2016-10-26 重庆峰创科技有限公司 一种工业机器人高可靠容错控制装置
JP6850639B2 (ja) * 2017-03-09 2021-03-31 本田技研工業株式会社 ロボット
JP6438512B2 (ja) 2017-03-13 2018-12-12 ファナック株式会社 機械学習により補正した計測データでワークの取り出しを行うロボットシステム、計測データ処理装置および計測データ処理方法
CN110461550B (zh) * 2017-03-24 2022-11-15 三菱电机株式会社 机器人程序的生成装置及生成方法
JP2018167334A (ja) * 2017-03-29 2018-11-01 セイコーエプソン株式会社 教示装置および教示方法
JP6598814B2 (ja) * 2017-04-05 2019-10-30 キヤノン株式会社 情報処理装置、情報処理方法、プログラム、システム、および物品製造方法
JP2018176334A (ja) * 2017-04-10 2018-11-15 キヤノン株式会社 情報処理装置、計測装置、システム、干渉判定方法および物品の製造方法
JP6608890B2 (ja) 2017-09-12 2019-11-20 ファナック株式会社 機械学習装置、ロボットシステム及び機械学習方法
JP6806036B2 (ja) * 2017-11-08 2021-01-06 新東工業株式会社 主型と中子の嵌合装置、及び、主型と中子の嵌合方法
JP2019155549A (ja) * 2018-03-14 2019-09-19 株式会社東芝 ピッキングシステムおよびロボットアームのエンドエフェクタ
JP7021620B2 (ja) * 2018-09-07 2022-02-17 オムロン株式会社 マニピュレータおよび移動ロボット
EP3646995A1 (de) * 2018-10-29 2020-05-06 Siemens Aktiengesellschaft Vollautomatisierte montage und kontaktierung elektrischer bauteile
JP6904327B2 (ja) * 2018-11-30 2021-07-14 オムロン株式会社 制御装置、制御方法、及び制御プログラム
JP7306908B2 (ja) * 2019-07-23 2023-07-11 ファナック株式会社 ロボットハンド制御装置、ロボットシステムおよびロボットハンド制御方法
JP6908908B2 (ja) * 2019-10-10 2021-07-28 株式会社トキワシステムテクノロジーズ ロボットアームの経路生成装置および経路生成プログラム
KR102244337B1 (ko) * 2020-01-31 2021-04-23 주식회사 타이탄 조립 감지 시스템 및 방법
US11945123B2 (en) 2020-04-28 2024-04-02 Altec Industries, Inc. Head mounted display for remote operation of machinery
DE112020006594B4 (de) 2020-04-28 2024-02-29 Yamaha Hatsudoki Kabushiki Kaisha Maschinenlernverfahren und Robotersystem
DE112021003175T5 (de) 2020-08-05 2023-04-13 Fanuc Corporation Robotervorrichtung zur erkennung der störungen eines roboterbauteils
US11660750B1 (en) * 2022-07-28 2023-05-30 Altec Industries, Inc. Autonomous and semi-autonomous control of aerial robotic systems

Family Cites Families (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3888362A (en) * 1973-05-31 1975-06-10 Nasa Cooperative multiaxis sensor for teleoperation of article manipulating apparatus
US4412293A (en) * 1981-03-30 1983-10-25 Kelley Robert B Robot system which acquires cylindrical workpieces from bins
JPS5997862A (ja) * 1982-11-24 1984-06-05 株式会社日立製作所 部品供給装置
JPS61280548A (ja) 1985-06-05 1986-12-11 Canon Inc 粒子解析装置
JPS62277290A (ja) * 1986-05-26 1987-12-02 株式会社東芝 マニプレ−タの制御装置
US4999513A (en) 1988-09-09 1991-03-12 Canon Kabushiki Kaisha Particle measuring apparatus
US4985846A (en) * 1989-05-11 1991-01-15 Fallon Patrick J Acoustical/optical bin picking system
JPH05150835A (ja) * 1991-11-29 1993-06-18 Sanyo Electric Co Ltd ロボツトによる組み立て装置
JP3312808B2 (ja) 1994-02-28 2002-08-12 石川島芝浦機械株式会社 中子納めロボットのティーチング装置及びその方法
DE69618606T2 (de) * 1995-09-19 2002-09-12 Kabushiki Kaisha Yaskawa Denki, Kitakyushu Prozessor für robotersprache
JPH10111701A (ja) * 1996-10-05 1998-04-28 Ricoh Co Ltd 学習型自動セル装置と学習方法
JP4233620B2 (ja) * 1997-08-22 2009-03-04 株式会社明電舎 把持位置姿勢教示装置
US6721444B1 (en) * 1999-03-19 2004-04-13 Matsushita Electric Works, Ltd. 3-dimensional object recognition method and bin-picking system using the method
JP3421608B2 (ja) * 1999-04-08 2003-06-30 ファナック株式会社 教示モデル生成装置
JP3300682B2 (ja) * 1999-04-08 2002-07-08 ファナック株式会社 画像処理機能を持つロボット装置
JP3715537B2 (ja) * 2001-02-19 2005-11-09 本田技研工業株式会社 多関節ロボットの干渉回避方法およびプログラム
JP3881940B2 (ja) * 2002-08-07 2007-02-14 ファナック株式会社 干渉回避制御装置
JP3859571B2 (ja) * 2002-10-17 2006-12-20 ファナック株式会社 3次元視覚センサ
JP3805310B2 (ja) * 2003-01-30 2006-08-02 ファナック株式会社 ワーク取出し装置
US7127101B2 (en) * 2003-03-10 2006-10-24 Cranul Technologies, Inc. Automatic selection of cranial remodeling device trim lines
JP4167954B2 (ja) 2003-09-02 2008-10-22 ファナック株式会社 ロボット及びロボット移動方法
JP3930490B2 (ja) * 2004-04-23 2007-06-13 ファナック株式会社 物品取出し装置
JP2006099474A (ja) * 2004-09-29 2006-04-13 Fanuc Ltd ロボットの軌跡制御方法
JP4087874B2 (ja) * 2006-02-01 2008-05-21 ファナック株式会社 ワーク取り出し装置
US7313464B1 (en) * 2006-09-05 2007-12-25 Adept Technology Inc. Bin-picking system for randomly positioned objects
JP4226623B2 (ja) * 2006-09-29 2009-02-18 ファナック株式会社 ワーク取り出し装置
US7627083B2 (en) * 2007-03-13 2009-12-01 VJ Technologies Method and apparatus for automated, digital, radiographic inspection of aerospace parts
DE102007026956A1 (de) * 2007-06-12 2008-12-18 Kuka Innotec Gmbh Verfahren und System zum Roboter geführten Depalettieren von Reifen
JP5184824B2 (ja) 2007-06-15 2013-04-17 キヤノン株式会社 演算処理装置及び方法
US7957583B2 (en) * 2007-08-02 2011-06-07 Roboticvisiontech Llc System and method of three-dimensional pose estimation
JP5448326B2 (ja) * 2007-10-29 2014-03-19 キヤノン株式会社 把持装置および把持装置制御方法
DE102007060653A1 (de) * 2007-12-15 2009-06-18 Abb Ag Positionsermittlung eines Objektes
JP4835616B2 (ja) 2008-03-10 2011-12-14 トヨタ自動車株式会社 動作教示システム及び動作教示方法
JP2009279719A (ja) 2008-05-23 2009-12-03 Toyota Motor Corp ロボットへのティーチング装置とティーチング方法
US9079308B2 (en) * 2008-08-29 2015-07-14 Abb Research Ltd. Robotic picking of parts from a bin
US8862269B2 (en) * 2008-08-29 2014-10-14 Abb Research Ltd. Robotic picking of parts from a bin
JP5265296B2 (ja) * 2008-10-10 2013-08-14 本田技研工業株式会社 ワーク取り出し方法
JP5458274B2 (ja) * 2009-02-09 2014-04-02 本田技研工業株式会社 把持位置計算装置及び把持位置計算方法
CN102448683B (zh) * 2009-07-02 2014-08-27 松下电器产业株式会社 机器人、机器人手臂的控制装置及机器人手臂的控制程序
WO2011031523A2 (en) * 2009-08-27 2011-03-17 Abb Research Ltd. Robotic picking of parts from a parts holding bin
JP5402697B2 (ja) * 2009-10-26 2014-01-29 株式会社安川電機 ロボット装置及びワーク取り出しシステム並びにワーク取り出し方法
JP5345046B2 (ja) * 2009-11-30 2013-11-20 三菱電機株式会社 ロボットの教示装置、及びロボットの制御装置
JP5528095B2 (ja) * 2009-12-22 2014-06-25 キヤノン株式会社 ロボットシステム、その制御装置及び方法
JP5382621B2 (ja) * 2010-06-03 2014-01-08 株式会社安川電機 移載装置

Also Published As

Publication number Publication date
US9727053B2 (en) 2017-08-08
US20130054025A1 (en) 2013-02-28
JP2013043271A (ja) 2013-03-04

Similar Documents

Publication Publication Date Title
JP5852364B2 (ja) 情報処理装置、情報処理装置の制御方法、およびプログラム
CN106873550B (zh) 模拟装置以及模拟方法
US11338435B2 (en) Gripping system with machine learning
CN110268358B (zh) 位置控制装置及位置控制方法
US9089971B2 (en) Information processing apparatus, control method thereof and storage medium
JP6180087B2 (ja) 情報処理装置及び情報処理方法
JP5743499B2 (ja) 画像生成装置、画像生成方法、およびプログラム
US8265791B2 (en) System and method for motion control of humanoid robot
US11813749B2 (en) Robot teaching by human demonstration
JP6444027B2 (ja) 情報処理装置、情報処理装置の制御方法、情報処理システムおよびプログラム
JP6370038B2 (ja) 位置姿勢計測装置及び方法
JP2016000442A (ja) ロボット、ロボットシステム及び制御装置
JP6885856B2 (ja) ロボットシステムおよびキャリブレーション方法
Gratal et al. Visual servoing on unknown objects
JP2016170050A (ja) 位置姿勢計測装置、位置姿勢計測方法及びコンピュータプログラム
WO2018043524A1 (ja) ロボットシステム、ロボットシステム制御装置、およびロボットシステム制御方法
CN115205371A (zh) 用于根据对象的摄像机图像定位对象的部位的设备和方法
US20240144532A1 (en) CALIBRATION METHOD FOR CAMERA, and CAMERA CALIBRATION SYSTEM
US12036663B2 (en) Method and control arrangement for determining a relation between a robot coordinate system and a movable apparatus coordinate system
CN110900606B (zh) 一种基于小型机械臂手眼联动系统及其控制方法
JP7533265B2 (ja) 支援システム、画像処理装置、支援方法およびプログラム
JP6766229B2 (ja) 位置姿勢計測装置及び方法
Mendiburu et al. Visual feedback trajectory planning for object handling and obstacle avoidance
JP2023011319A (ja) 調整支援システムおよび調整支援方法
Park et al. Robot-based Object Pose Auto-annotation System for Dexterous Manipulation

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140820

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140820

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150529

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150601

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150723

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151106

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151204

R151 Written notification of patent or utility model registration

Ref document number: 5852364

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151