JPWO2019069361A1 - 把持位置姿勢教示装置、把持位置姿勢教示方法及びロボットシステム - Google Patents

把持位置姿勢教示装置、把持位置姿勢教示方法及びロボットシステム Download PDF

Info

Publication number
JPWO2019069361A1
JPWO2019069361A1 JP2018519496A JP2018519496A JPWO2019069361A1 JP WO2019069361 A1 JPWO2019069361 A1 JP WO2019069361A1 JP 2018519496 A JP2018519496 A JP 2018519496A JP 2018519496 A JP2018519496 A JP 2018519496A JP WO2019069361 A1 JPWO2019069361 A1 JP WO2019069361A1
Authority
JP
Japan
Prior art keywords
posture
gripping
hand
gripping position
component
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018519496A
Other languages
English (en)
Other versions
JP6456557B1 (ja
Inventor
達也 永谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Application granted granted Critical
Publication of JP6456557B1 publication Critical patent/JP6456557B1/ja
Publication of JPWO2019069361A1 publication Critical patent/JPWO2019069361A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1612Programme controls characterised by the hand, wrist, grip control
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39543Recognize object and plan hand shapes in grasping movements
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40395Compose movement with primitive movement segments from database

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)
  • Numerical Control (AREA)

Abstract

部品が取り得る姿勢毎にロボットの把持位置姿勢を生成することが可能な把持位置姿勢教示装置を提供する。把持位置姿勢教示装置は、部品が取り得る投入姿勢を算出する部品投入姿勢算出部と、部品の投入姿勢に対するハンドの把持姿勢を選定する把持姿勢選定部と、同一の把持種別となる位置を纏めた領域を把持位置領域として抽出する把持位置領域抽出部と、把持位置領域抽出部が抽出した把持位置領域内の把持位置を決定して投入姿勢毎に把持位置姿勢として出力する把持位置姿勢出力部とを備える。

Description

本発明は、部品を把持する産業用ロボットの把持位置姿勢教示装置、把持位置姿勢教示方法及びロボットシステムに関する。
従来から、部品を把持して所定の位置及び姿勢に整列させるハンドを備えた産業用ロボットが知られている。このようなロボットには、所定の動作を実行させるために予め把持動作が教示されるが、この教示作業には多大な時間がかかるため、教示作業の自動化や短縮が求められている。この方法として、予めロボットに登録された部品の形状データと、各部品に対するハンドの把持位置及び把持姿勢(以下、纏めて把持位置姿勢と表記する)のデータとに基づいて、ロボットに把持動作を実行させる技術が開発されている。
特許文献1では、複数の部品の形状データと、各部品に対するハンドの把持位置姿勢とが登録されたデータベースを備え、把持対象の部品と類似形状の部品の形状データをデータベースから検索し、類似形状の部品に対する把持位置姿勢をロボットに実行させている。また、特許文献2では、複数の素形状モデルと、各素形状モデルに対するハンドの把持位置姿勢とが登録されたデータベースを備え、把持対象の部品を素形状モデルに当てはめて、ハンドの把持位置姿勢を決定している。ここで素形状とは、例えば、円柱、四角柱、円筒等の3次元幾何要素のモデルである。
特開2008−15683号公報 国際公開第2009/113339号公報
しかしながら、部品が乱雑に積み重なったバラ積み状態で投入される場合、部品が取り得る各姿勢に対して適用可能なハンドの把持位置姿勢を予めデータベースに登録しておくことは困難であり、把持位置姿勢がデータベースに登録されていない場合には、ロボットが把持動作を実行できないという問題があった。例えば、ロボットに把持されることを想定した取手部分を備えた部品が傾いた状態で投入され、当該取手部分が平面に接触している場合には、予めデータベースに登録されている当該取手部分を把持するための把持位置姿勢では把持動作を実行することができない。
本発明は、上述のような問題を解決するためになされたもので、投入される部品が取り得る各姿勢に対して適用可能なハンドの把持位置姿勢を生成することが可能な把持位置姿勢教示装置を提供することを目的とする。また、把持位置姿勢教示方法を提供することを目的とする。更に、把持位置姿勢教示装置を適用したロボットシステムを提供することを目的とする。
本発明に係る把持位置姿勢教示装置は、部品の形状を示す部品形状データから部品の投入姿勢を算出する部品投入姿勢算出部と、ハンドの形状を示すハンドデータから投入姿勢に対するハンドの把持姿勢を選定する把持姿勢選定部と、把持姿勢で部品を把持するハンドの把持部及びハンドに把持される部品の被把持部がそれぞれ一致する位置を纏めた領域を把持位置領域として抽出する把持位置領域抽出部と、把持位置領域内で部品をハンドで把持する把持位置を選定し、把持姿勢での把持位置をハンドの把持位置姿勢として投入姿勢毎に少なくとも1つ出力する把持位置姿勢出力部とを備えることを特徴とする。
また、本発明に係る把持位置姿勢教示方法は、部品の形状を示す部品形状データから部品の投入姿勢を算出する部品投入姿勢算出ステップと、ハンドの形状を示すハンドデータから投入姿勢に対するハンドの把持姿勢を選定する把持姿勢選定ステップと、把持姿勢で部品を把持するハンドの把持部及びハンドに把持される部品の被把持部がそれぞれ一致する位置を纏めた領域を把持位置領域として抽出する把持位置領域抽出ステップと、把持位置領域内で部品をハンドで把持する把持位置を選定し、把持姿勢での把持位置をハンドの把持位置姿勢として投入姿勢毎に少なくとも1つ出力する把持位置姿勢出力ステップとを備えることを特徴とする。
また、本発明に係るロボットシステムは、部品形状データ及びハンドデータから、ハンドの把持位置姿勢を生成する把持位置姿勢教示装置と、投入される部品の位置及び姿勢に関する情報を認識するセンサと、センサからの情報及び把持位置姿勢教示装置で生成された把持位置姿勢に基づいて部品を把持するロボットとを備えることを特徴とする。
本発明によれば、部品が取り得る各姿勢に対して適用可能な把持位置姿勢を生成することができ、把持位置姿勢がデータベースに登録されていない場合でも、ロボットに把持位置姿勢を教示することが可能となる。
本発明の実施の形態1に係る把持位置姿勢教示装置を備えたロボットシステムの概略構成図である。 本発明の実施の形態1に係る把持位置姿勢教示装置の概略構成図である。 本発明の実施の形態1に係る部品の把持位置姿勢の一例を示す模式図である。 本発明の実施の形態1に係る部品の把持位置姿勢の一例を示す模式図である。 本発明の実施の形態1に係る部品の把持位置姿勢の一例を示す模式図である。 本発明の実施の形態1に係る部品の把持位置姿勢の一例を示す模式図である。 本発明の実施の形態1に係るハンドと部品の一例を示す模式図である。 本発明の実施の形態1に係る部品の把持位置姿勢の一例を示す模式図である。 本発明の実施の形態1に係る部品の把持位置姿勢の一例を示す模式図である。 本発明の実施の形態1に係る部品の把持位置姿勢の一例を示す模式図である。 本発明の実施の形態1に係る把持位置姿勢教示装置の処理工程の一例を示す工程図である。 本発明の実施の形態1に係る把持位置姿勢教示装置の処理工程の一例を示す模式図である。 本発明の実施の形態1に係るハンドの一例を示す模式図である。 本発明の実施の形態1に係る部品の把持位置姿勢の一例を示す模式図である。 本発明の実施の形態2に係る把持位置姿勢教示装置を適用するロボットシステムの一例を示す模式図である。 本発明の実施の形態3に係る把持位置姿勢教示装置の概略構成図である。 本発明の実施の形態4に係る把持位置姿勢教示装置の概略構成図である。 本発明の実施の形態5に係る把持位置姿勢教示装置の概略構成図である。 本発明の実施の形態に係る吸着ハンドの一例を示す模式図である。
本発明の実施の形態に係る把持位置姿勢教示装置、把持位置姿勢教示方法及び把持位置姿勢教示装置を備えたロボットシステムについて図面を用いて具体的に説明する。
実施の形態1.
図1は、本発明の実施の形態1に係る把持位置姿勢教示装置を備えたロボットシステムの概略構成図である。図1に示すように、ロボットシステム100は、ロボット200、把持位置姿勢教示装置300、センサ50を含んで構成され、互いに通信可能に接続されている。ロボットシステム100は、把持位置姿勢教示装置300によって生成された把持位置姿勢をロボット200に動作させる。
ロボット200は、例えば垂直多関節型ロボットで、ロボット本体201と、ロボット制御部202を有する。ロボット本体201は、部品10(図示せず)を把持する把持面を有する任意の形状のハンド20を備える。ハンド20は、例えば、開閉可能な指部21を備え、本体201の回転駆動する手首部22の回転軸方向に向けて取り付けられる。ロボット制御部202は、ロボット200の動作が記述された制御プログラムを備え、センサ50、把持位置姿勢教示装置300等から取得された情報を基にロボット200の駆動の制御を行う。
センサ50は、把持する部品10の2次元画像や、3次元データを計測し、部品10の位置及び姿勢を認識する。部品10の認識結果は、センサ50又はロボット制御部202において、ロボット200の位置姿勢を表現する座標系のデータに変換される。把持位置姿勢教示装置300で生成されたハンド20の把持位置姿勢及びセンサ50からの認識結果を基に、センサ50で認識された部品10の位置姿勢が算出される。
次に、把持位置姿勢をロボット200に教示する把持位置姿勢教示装置300の構成について説明する。把持位置姿勢教示装置300は、例えば、記憶部31、処理部32等を備える演算処理装置である。把持位置姿勢教示装置300には、その他にも、部品10及びハンド20を表示する3D表示画面や入力ボタン等を備えたGUI(Graphical User Interface)を設けると更に好ましい。
記憶部31には、例えば、部品形状データ301、ハンドデータ302、把持位置姿勢を生成するプログラム等が格納されている。処理部32は、記憶部31に格納された部品形状データ301及びハンドデータ302に基づいてプログラムの演算処理を行う。部品形状データ301は、部品10に関する3次元形状データである。また、ハンドデータ302は、例えば、ハンド20に関する3次元形状データである。ハンドデータ302には、3次元形状データ以外に、部品10との接触を許可するハンド20の把持面、指部21の動作方向、ハンド20のロボット200への取付け部からハンド20の先端に向かう方向(以下、単に取付け方向と表記する)等のハンド20に関する付加情報が含まれると好ましい。
以下に記載する把持位置姿勢教示装置300の説明では、部品10及びハンド20は、特に記載のない限り、3次元形状データで規定された仮想的な空間上での部品モデル及びハンドモデルを示す。また把持位置姿勢は、仮想的な空間上での部品10に対するハンド20の相対的な位置及び姿勢を示す。位置は、任意の3次元座標系で表現できるものであり、姿勢は、例えば、各軸まわりの回転量のパラメータとして表現できるものである。
次に、把持位置姿勢教示装置300の機能を実行する構成について説明する。図2は、把持位置姿勢教示装置300を示す概略構成図である。
部品投入姿勢算出部310は、記憶部31に格納された部品形状データ301を取得し、ロボットシステム100に投入される部品10の姿勢を分類し、分類された投入姿勢を各々算出する。投入姿勢を分類及び算出する方法は、部品10がバラ積み状態で投入される場合と、姿勢を整列させずに平面上に部品10同士が重ならないように投入される場合とで異なる方法をとる。
部品10がバラ積み状態で投入される場合には、例えば、部品10にハンド20がアプローチする方向に対して逆方向を部品10の方向として投入姿勢を分類する。例えば、図3に示すように、部品10に固定された直交座標系Pの座標軸を(Px,Py,Pz)とし、ロボットシステム100の直交座標系Wの座標軸を(Wx,Wy,Wz)とする。このとき、ハンド20のアプローチ方向がWzの負方向であった場合、部品10に固定された直交座標系PでWzの正方向を表すベクトルAが部品10の方向である。このように、バラ積み状態で投入される場合には、アプローチ方向に対する部品10の方向によって投入姿勢を分類する。
姿勢を整列させずに、平面上に部品10同士が重ならないように投入される場合には、部品10の安定姿勢によって部品10の投入姿勢を分類する。ここで安定姿勢とは、部品10が平面上で安定して静止する姿勢のことである。それぞれの場合において分類された投入姿勢毎に部品10の姿勢を算出する。
把持姿勢選定部320は、記憶部31に格納されたハンドデータ302を取得し、部品投入姿勢算出部310が算出した投入姿勢毎にハンド20の把持姿勢を選定する。
ここで、選定される把持姿勢は、実際に部品10を把持する際のロボット200の機械的な制約を考慮する必要がある。例えば、図4に示すように、直交座標系Wのロボットシステム100に投入された部品10を、部品10よりWxの負方向に設置されたロボット200(図示せず)がベクトルBの方向から把持する場合を想定する。図5に示すように、図4の状態からWz軸周りに部品10が回転した場合、図4と同じ部品10の把持位置に対するハンド20の把持姿勢を適用すると、ハンド20の取付け部をWxの正方向に大きく移動させる必要があり、ロボット200が部品10に届かないために把持動作を実行できない。図6に示すように、部品10が回転する軸方向Wzとハンドデータ302で規定されるハンド20の取付け方向(ベクトルBと)の角度が小さい把持姿勢が適用されると、部品10が回転しても、手首部22を回転させることにより、ハンド20の位置を大きく変えずに、ロボット200が把持動作を実行できる。ここで、部品10に対するハンド20のアプローチ方向は、多くの場合、部品10が回転する軸方向Wzである。そこで、把持姿勢選定部320では、部品10に対するハンド20のアプローチ方向と、ハンド20の取付け部から先端までの方向を示す取付け方向とが所定の角度以内のハンド20の姿勢を把持姿勢として選定する。
把持位置領域抽出部330は、把持姿勢選定部320が選定した把持姿勢毎に、同一の把持種別となる位置を纏めた領域を把持位置領域として抽出する。ここで同一の把持種別とは、部品10の投入姿勢に対するハンド20の把持姿勢が同一であり、かつハンド20の把持部に対する部品10の被把持部が一致する場合と定義する。例えば、図7に示すように、指部21を有するハンド20を用いて部品10を把持する場合、ハンド20の把持部は、指部21の内側の側面20a、20bであり、部品10の被把持部は、部品10の各側面10a〜10dである。このとき図8と図9は、部品10の投入姿勢に対する把持姿勢が同一であり、ハンド20の把持部20a、20bに対する部品10の被把持部10a、10bがそれぞれ一致しているため、同一の把持種別である。一方、図10は、図8と同一の把持姿勢であるが、ハンド20の把持部20a、20bに対する部品10の被把持部は10c、10dであり、図8と一致しないため異なる把持種別である。
把持位置姿勢出力部340は、把持位置領域抽出部330が抽出した把持位置領域における把持位置を決定して、部品10の投入姿勢毎に把持位置姿勢として出力する。
上述の構成により、本実施の形態に係る把持位置姿勢教示装置300は、部品形状データ301とハンドデータ302から、部品10の投入姿勢毎の把持位置姿勢を少なくとも1つ生成することができる。
次に、図11を参照し、上述した構成を用いて機能を実行する処理工程の一例について説明する。図11は、処理工程の一例であるステップS1からS4を示す工程図である。
ステップS1では、部品投入姿勢算出部310において、部品形状データ301を取得し、部品10の投入姿勢を分類及び算出する。投入姿勢の分類及び算出方法は、部品10がバラ積みされた状態で投入される場合と、姿勢を整列させずに平面上に部品10同士が重ならないように投入される場合とで異なる方法を取る。
部品10がバラ積み状態で投入される場合には、例えば、極座標空間で表現し、投入姿勢を分類する方法がある。図3に示すように、ハンド20のアプローチ方向がWzの負方向である場合に、部品10に固定された直交座標系Pでアプローチ方向と逆方向であるベクトルAを部品10の方向とする。このとき、ベクトルAを部品10に固定された極座標空間で表現し、その角度成分(θ、φ)の範囲で分類する。例えば、θとφを30°刻みで分類した場合には、12×12通りの144通りに分類できる。部品10を認識して、その部品10の姿勢におけるベクトルAの向きを極座標空間で表現し、予め分類した144通りの中のどの範囲になるかを判断して、部品10の投入姿勢として算出する。
姿勢を整列させずに、平面上に部品10同士が重ならないように投入される場合、部品10は安定姿勢毎に分類される。安定姿勢の算出方法としては、例えば、まず部品投入姿勢算出部310は、部品10の部品形状データ301を取得し、部品10を囲む最小体積の凸多面体を算出する。そして、部品10の重心を部品10が設置される平面上に射影した時に、射影した点が凸多面体の表面内に位置するか否かを判断し、表面内に位置するものを部品10の安定姿勢として算出する。このときのハンド20のアプローチ方向は、例えば部品10の設置平面の法線方向である。安定姿勢の算出方法は、これに限らず、平面上で部品10が安定して静止する姿勢が算出されればその方法は問わない。このようにして、ステップS1では、部品10の投入姿勢を少なくとも1つ算出する。
次に、ステップS2では、把持姿勢選定部320において、ハンドデータ302を取得し、ステップS1で導出した投入姿勢毎の把持姿勢を選定する。把持姿勢の選定方法の一例を、図12を用いて説明する。図12に示すように、まず、ハンド20のアプローチ方向をWz軸とするロボットシステム100の直交座標系W(Wx、Wy、Wz)、及び、ハンド20の取付け方向をQz軸とするハンド20に固定される座標系Q(Qx、Qy、Qz)の基で、Wz軸及びQz軸を一致させる。そして、ハンド20の把持面の法線(ベクトルV)と、部品10の各面の法線(ベクトルW)とが成す角度が、許容角度以内となる部品10の面を被把持面として抽出する。更に、抽出した部品10の被把持面と、ハンド20の把持面とが平行に対向するように、ハンド20の把持面の法線と部品10の被把持面の法線を合わせ、このときのハンド20の姿勢を、部品10の投入姿勢に対する把持姿勢として選定する。このような選定方法により、把持姿勢選定部320は、実際に部品10を把持する際のロボット200の機械的な制約を考慮した把持姿勢を選定することができる。このとき、部品10がバラ積み状態で投入される場合には、任意の投入姿勢に対して許容角度以内の把持姿勢が導出できるように、許容角度又は投入姿勢を分類する刻み幅、もしくはその両方を適切に設定することが望まれる。
ここで、ハンド20の取付け方向は、例えば、ハンドデータ302で指定されてもよい。また、ハンド20の把持面は、ハンドデータ302で指定されてもよいし、指部21の開閉方向の面を把持面としてもよい。また、ハンド20の把持面の法線と部品10の被把持面の法線との許容角度は、ハンドデータ302や、その他の入力データで指定されていてもよいし、例えば5°といった固定値として設定されていてもよい。
また、ハンド20の把持面が複数存在する場合には、各々のハンド20の把持面で部品10の被把持面を抽出する。また、部品10の被把持面が抽出されない場合には、例えば、図12において、ハンド20のアプローチ方向であるWz軸とハンド20の取付け方向であるQz軸とを合わせた場合のハンド20の姿勢のうちの1つを把持姿勢として選定する。このとき把持姿勢は、ハンド20のQz軸周りの回転方向が不定となるが、この回転方向は、ロボットシステム100の座標系WのWx軸又はWy軸と、ハンド20の3次元形状データで規定される座標系QのQx軸又はQy軸方向とが一致する方向とする。その他、適当な座標軸や基準を用いて決めてもよい。このようにして、ステップS2では、部品10の投入姿勢毎に把持姿勢を少なくとも1つ選定する。
次に、ステップS3では、把持位置領域抽出部330において、把持姿勢選定部320で選定された把持姿勢におけるハンド20の把持部と部品10の被把持部とがそれぞれ一致する、即ち同一の把持種別となる位置を纏めた領域を把持位置領域として抽出する。把持位置領域の抽出方法としては、例えば、ハンド20の指部21を開閉して部品10を把持する動きをシミュレーションする方法がある。ここで、把持のシミュレーションは、様々な既知の方法を用いることができる。一例として、まず、所定の把持姿勢で、部品10に対するハンド20の相対的な位置を変更させながら指部21を開閉させ、部品10を把持可能な範囲を探索する。そして、把持可能とされた範囲内で部品10とハンド20の面を接触させた場合に、同一の把持種別となる位置を1つの把持位置領域として纏めて抽出する。
同一の把持種別となる把持位置領域は、その他にも、部品形状データ301を基に、把持種別が変更される位置を境界条件から算出してもよい。このようにして、ステップS3では、部品10の投入姿勢毎に把持位置領域を少なくとも1つ抽出する。
次に、ステップS4では、把持位置姿勢出力部340において、ステップS3で抽出された把持位置領域から把持位置を選定する。把持位置の選定方法としては、例えば、まず把持位置領域抽出部330で抽出された複数の把持位置領域から、各々の領域の範囲を算出し、最も範囲が広い把持位置領域を投入姿勢毎に1つ選定する。そして、選定された把持位置領域の重心を把持位置として算出する。算出された把持位置を部品10の投入姿勢毎の把持位置姿勢として出力する。
把持位置姿勢は、例えば、ロボット制御部202の制御プログラムを編集するツールに、部品10とハンド20との相対的な位置及び姿勢のデータとして出力される。また、GUIの表示部等を用いて、ユーザに可視化するように出力してもよいし、これらを組合せてもよい。また、基準とする部品10の位置と、部品10を把持する時点でのロボット200の位置姿勢との関係を示すデータを記憶しておいてもよい。ここで、基準とする部品10の位置とロボット200の位置姿勢との関係を示すデータは、センサ50等から取得された基準とする部品10の位置のデータを利用してもよいし、入力部等を設け、ユーザが適宜入力してもよいし、ロボットシステム100のシミュレーションによって得られたデータを入力してもよい。また、ロボット制御部202の制御プログラムを編集するツールから入力されてもよいし、これらを組み合わせてもよい。
以上のとおり、ステップS1からステップS4の処理を実行することにより、部品形状データ301とハンドデータ302から、部品10の投入姿勢毎に把持位置姿勢を少なくとも1つ出力することができる。
なお、ここでは説明を簡単にするために、各機能の処理を限定して説明したが、本発明による処理はこれに限定されるものではない。
例えば、把持位置姿勢出力部340において、範囲が最も広い把持位置領域を選定するとしたが、把持位置領域として部品10とハンド20との接触面の数が多い領域を選定してもよい。図13に示すように、指部21に切り欠け部23があるハンド20や、複数の指を有するハンド20の場合では、接触面の数が多い方が好ましい。これは、部品10を把持して移動する場合に落とし難くなるという理由と、複数の接触面による部品10の引き込みによって、把持後の部品10の位置姿勢が収束し易いという理由からである。
また、把持位置姿勢出力部340において、把持位置領域の重心を把持位置とする例を示したが、部品10の重心に近い把持位置領域内の位置を把持位置として選定してもよい。他にも、部品10を把持した際の安定性を判断することによって、把持位置を選定してもよい。この安定性の判断方法としては、例えば、選定した把持姿勢及び把持位置領域で部品10を把持し、部品10に外力を与えた場合の部品10の変位を算出し、変位が小さい位置を把持位置として選定してもよい。このような把持位置の選定方法とすることで、ハンド20が部品10を安定して把持することができる。
更に、把持位置姿勢出力部340において、部品10の投入姿勢毎に把持位置姿勢を1つ出力する例を示したが、複数出力してもよい。例えば、把持位置領域抽出部330で導出される複数の把持位置領域毎に把持位置を導出し、全て把持位置姿勢として出力してもよい。
また、把持位置姿勢として全て出力するのではなく、優先度に基づいて一部を選定してもよい。例えば、把持位置姿勢について評価を施し、上位3件を出力する方法、一定以上の評価を得られたものを出力する方法及びそれらを組み合わせる方法がある。評価方法としては、部品10とハンド20の接触面の数、把持位置領域の広さ、部品10の重心と把持位置までの距離等の個別の評価基準でもよいし、これらを組合せてもよい。
更に、把持位置姿勢出力部340で出力された複数の把持位置姿勢から、ロボット200に動作させる把持位置姿勢を1つ選定する方法としては、把持位置姿勢教示装置300に表示部を設け、表示部に全ての把持位置姿勢を出力し、ユーザに選択を促すようにする方法や、ロボット制御部202の制御プログラム内で選択できるように出力する方法がある。
更に、ハンド20のアプローチ方向を部品10が投入される位置によって変更してもよい。例えば、部品10が壁を有する箱形状のものに投入される場合、アプローチ方向はハンド20のサイズ等を考慮し、壁に干渉しないように設定されることが望まれる。例えば、図14に示すように、センサ50で認識された部品10が、箱の壁の近くに位置する場合、ハンド20のアプローチ方向を壁の位置と逆方向に傾ける。その場合、部品投入姿勢算出部310では、アプローチ方向と逆方向のベクトルAをそれに対応させて、部品10の投入姿勢が分類される。複数の壁が近い場合には、両方の壁の位置と逆方向となるように傾ける。更に部品10が壁と接近し壁際に位置している場合には、更にアプローチ方向を狭めて設定し、把持位置姿勢を算出してもよい。
上述したように、本発明の把持位置姿勢教示装置300によれば、部品10の投入姿勢を分類及び算出する部品投入姿勢算出部310と、投入姿勢毎のハンド20の把持姿勢を選定する把持姿勢選定部320と、把持姿勢毎に同一の把持種別となる把持位置領域を抽出する把持位置領域抽出部330と、把持位置領域抽出部330から把持位置を選定し、選定された把持姿勢における把持位置を、ハンド20の把持位置姿勢として出力する把持位置姿勢出力部340を備えることにより、投入姿勢毎にハンド20の把持位置姿勢を少なくとも1つ生成することができる。
実施の形態2.
本発明を実施するための実施の形態2に係るロボットシステムについて、図15を参照して説明する。図15は、本発明の実施の形態2に係るバラ積み部品を整列させるロボットシステムの一例を示す模式図である。図15中、図1及び図2と同一符号は同一又は相当部分を示す。本実施の形態におけるロボットシステムは、実施の形態1に係る把持位置姿勢教示装置をバラ積みされた部品を整列させるシステムに適用したものである。
図15に示すように、ロボットシステム100は、3次元ビジョンセンサ150、2次元ビジョンセンサ160、ロボット200、把持位置姿勢教示装置300を備える。把持位置姿勢教示装置300は、ロボット200が把持動作を行う前に予め、実施の形態1に示した方法で部品10の把持位置姿勢を生成し、ロボット200に教示する。
部品10は、バラ積みされた状態で、部品投入台110に投入されている。部品10を部品投入台110に投入する方法としては、部品投入台110に固定されたパレットに部品10が順次投入される方法の他に、部品10が詰め込まれたパレットごと交換する方法及びそれらを組合せた方法がある。
3次元ビジョンセンサ150は、部品投入台110にバラ積みされた部品10の位置を認識するためのセンサである。3次元ビジョンセンサ150の認識結果を利用して、部品投入台110から部品10を1つ取り出し、直接整列台140に整列させるか、直接整列できない場合には、部品10同士が接触しないように、仮置台120に設置する。
ここで、直接整列できない場合とは、部品10の認識結果の精度が低く、整列させるための正確な把持を行うことができない場合である。例えば、部品10の特徴点が隠れており、認識された部品10の位置姿勢に疑義が生じている場合である。また、選択された把持位置姿勢が不安定な方法であり、ハンド20で把持する際に部品10が動く場合である。その他、部品10の位置姿勢が認識されずに、把持可能な空間を認識して把持した場合である。把持可能な空間とは、挟みこみ型のハンド20であれば、ハンド20の指部21が入り、かつ指部21の間に把持対象の部品10がある空間であり、吸着型のハンド20であれば、物体の一定面積以上の平面である。また、把持位置姿勢の関係で、ハンド20及びロボット200が周りの設備に干渉する場合や、ロボット200が機械的な制約から位置姿勢を実現できない場合である。
上述のような場合、直接整列台140に移動ができないと判断され、部品10は仮置台120に安定姿勢となるように設置される。2次元ビジョンセンサ160は、仮置台120上に設置された部品10の位置姿勢を高精度に認識する。ロボット200は、把持位置姿勢教示装置300によって生成された把持位置姿勢を用いて、部品10を把持する。ロボット200は、部品10が整列台140に予め決められた最終姿勢で整列されるように動作を実行する。
把持位置姿勢教示装置300によって教示された把持位置姿勢では部品10を整列台140に移動させることができない場合には、持ち替え治具130を利用して、ロボット200が部品10を持ち替えてから、最終姿勢となるように整列台140に移動させる。移動させることができない場合とは、ハンド20やロボット200が周りの設備に干渉する場合や、ロボット200が位置姿勢を実現できない場合等である。持ち替え治具130だけでなく、仮置台120に部品10を再度置き直して持ち替えてもよい。
上述のような構成により、ロボットシステム100は、バラ積みされた部品10を、把持位置姿勢教示装置300によって生成された把持位置姿勢で把持して、決められた位置姿勢に整列させることができる。
なお、本実施の形態では、把持位置姿勢教示装置300を、バラ積みされた部品10が投入されるシステムに適用する例を説明したが、それ以外のシステム、例えば、部品10の姿勢が整列されずに、部品10同士が重ならないように投入されるシステム、部品10の姿勢が整列して投入されるシステム等にも適用することができる。
実施の形態3.
本発明を実施するための実施の形態3に係る把持位置姿勢教示装置について、図16を参照して説明する。図16は本実施の形態における把持位置姿勢教示装置300の概略構成図である。図16中、図1及び図2と同一符号は同一又は相当部分を示す。把持位置姿勢データ303及びデータベース検索部311が追加された以外は、実施の形態1と同様である。
本実施の形態では、主要な部品10に対するハンド20の相対的な位置及び姿勢が記述された把持位置姿勢データ303を記憶部31に格納し、記憶部31のデータベースを検索可能なデータベース検索部311を備えた構成とした。
データベース検索部311は、部品投入姿勢算出部310が算出した部品10の投入姿勢のデータを取得する。そして、主要な部品10の把持位置姿勢データ303が格納されたデータベースを検索する。算出した部品10の投入姿勢に対して適用可能と判断される把持位置姿勢データ303が抽出された場合には、投入姿勢におけるハンド20のアプローチ方向と、把持位置姿勢データ303のハンド20の取付け方向との角度が、許容角度以内となるかを判定する。把持位置姿勢データ303の把持位置姿勢が許容角度以内と判定された場合には、それを把持位置姿勢として把持位置姿勢出力部340が出力する。
このような構成においても、実施の形態1と同様に、部品10の投入姿勢毎に把持位置姿勢を少なくとも1つ生成することができる。更に本実施の形態では、把持位置姿勢データ303を記憶部31に格納し、記憶部31のデータベースを検索するデータベース検索部311を備えたので、部品10に適用可能な把持位置姿勢データ303がデータベースに登録されている場合には、その把持位置姿勢データ303を部品10の把持位置姿勢として出力することができる。
処理工程としては、部品投入姿勢算出部310で投入姿勢を算出し(ステップS1)、データベース検索部311で、把持位置姿勢データ303を含むデータベースを検索する(ステップS2)。適用可能な把持位置姿勢データ303が抽出された場合には、把持姿勢選定部320、把持位置領域抽出部330及び把持位置姿勢出力部340の処理を省略し、把持位置姿勢出力部340で出力される(ステップS3)。適用可能な把持位置姿勢データ303が抽出されなかった場合は、実施の形態1と同様の処理を行う。
以上の処理工程を実行することにより、実施の形態1と同様に部品形状データ301とハンドデータ302から、部品10の投入姿勢毎に把持位置姿勢を1つ生成することができる。更に、部品10に適用可能な把持位置姿勢データ303が登録されている場合には、把持姿勢選定部320、把持位置領域抽出部330及び把持位置姿勢出力部340での処理を省略して、その把持位置姿勢データ303を把持位置姿勢出力部340から出力することができる。
実施の形態4.
本発明を実施するための実施の形態4に係る把持位置姿勢教示装置について、図17を参照して説明する。図17は本実施の形態における概略構成図である。図17中、図1及び図2と同一符号は同一又は相当部分を示す。把持位置姿勢教示装置300は、把持姿勢データ304と把持姿勢入力部321が追加された以外は、実施の形態1と同様である。
本実施の形態では、図17に示すように、把持姿勢データ304が入力される把持姿勢入力部321備える構成とした。
把持姿勢データ304は、部品10に対するハンド20の把持姿勢が記述されているデータである。把持姿勢データ304のデータ形式は、把持姿勢選定部320が出力する姿勢と同じであってもよいし、独自の形式であってもよい。独自の形式の場合には、把持姿勢入力部321で把持姿勢選定部320と同じデータ形式に変更される。
把持姿勢入力部321は、把持姿勢データ304を取り込んでもよいし、GUIを用いてユーザに入力を行わせてもよい。GUIは、例えば、部品10やハンド20の3D表示画面、把持姿勢の入力を行う入力ボタン等を備えたものである。
このような構成においても、実施の形態1と同様に、部品10の投入姿勢毎に把持位置姿勢を少なくとも1つ生成することができる。更に、本実施の形態によれば、把持姿勢入力部321を備えたことで、取扱う部品10やハンド20の特徴から、把持姿勢をユーザが直接指定できる。
処理工程としては、部品投入姿勢算出部310で投入姿勢を算出し(ステップS1)、投入姿勢毎に把持姿勢入力部321で、把持姿勢データ304を入力する(ステップS2)。把持姿勢データ304が入力された場合は、把持姿勢選定部320を省略し、把持位置領域抽出部330、把持位置姿勢出力部340で実施の形態1で記載した方法で処理され、把持位置姿勢出力部で出力される(ステップS3)。把持姿勢データ304が入力されなかった場合は、実施の形態1と同様の処理を行う。
以上の処理工程を実行することにより、実施の形態1と同様に部品形状データ301とハンドデータ302から、部品10の投入姿勢毎に把持位置姿勢を1つ生成して出力することができる。更に、把持姿勢入力部321で把持姿勢データ304が入力された場合には、把持姿勢選定部320の処理を省略して、把持位置姿勢を生成することができる。
実施の形態5.
本発明を実施するための実施の形態5に係る把持位置姿勢教示装置について、図18を参照して説明する。図18は本実施の形態における概略構成図である。図18中、図1及び図2と同一符号は同一又は相当部分を示す。把持位置姿勢調整部341が追加された以外は、実施の形態1と同様である。
本実施の形態では、図18に示すように、把持位置姿勢を調整する把持位置姿勢調整部341を備えた構成とした。把持位置姿勢調整部341は、把持位置姿勢をユーザに提示すると共に、ユーザは提示された情報を基に把持位置姿勢を調整する。
把持位置姿勢を掲示及び調整させる方法としては、GUIを用いてもよい。GUIは、例えば、部品10やハンド20の3D表示画面、ハンド20の位置姿勢の変更及び把持位置姿勢の入力を行う入力ボタン等を備える。把持位置姿勢調整部341では、特定の把持位置領域をユーザに提示し、その範囲内でのみ位置を調整できるようにしてもよい。
このような構成においても、実施の形態1と同様に、部品10の投入姿勢毎に把持位置姿勢を少なくとも1つ生成することができる。更に、本実施の形態によれば、把持位置姿勢調整部341を備えたので、出力された把持位置姿勢をユーザが調整できる。
なお、実施の形態1から5では、ハンド20は、部品10を挟んで把持する複数指の指部21を有する場合について説明していたが、部品10を吸着して把持する吸着ハンドとしてもよい。図19に吸着ハンドの一例を示す。吸着ハンド20の上部は、ロボット200の手首部22に取り付けられる。吸着ハンド20の下部には、部品10を吸着する円状の吸着部24を有し、吸着部24で部品10を吸着して把持する。把持姿勢選定部320では、ハンド20の把持面を吸着部24として把持姿勢を選定する。把持位置領域抽出部330及び把持位置姿勢出力部340においても、上述した指部21を有するハンド20と同様に処理される。
また、実施の形態1から5では、ロボット200と把持位置姿勢教示装置300が別体として設けられる例を示したが、把持位置姿勢教示装置300と同等の機能を有する教示部をロボット制御部202に組み込んだ構成としてもよい。
100 ロボットシステム、200 ロボット、300 把持位置姿勢教示装置、10 部品、20 ハンド、310 部品投入姿勢算出部、320 把持姿勢選定部、330 把持位置領域抽出部、340 把持位置姿勢出力部。
本発明に係る把持位置姿勢教示装置は、部品の形状を示す部品形状データから部品の姿勢を分類し、複数の投入姿勢として生成する部品投入姿勢算出部と、ハンドの形状を示すハンドデータから投入姿勢毎にハンドの把持姿勢を選定する把持姿勢選定部と、把持姿勢で部品を把持するハンドの把持部及びハンドに把持される部品の被把持部がそれぞれ一致する位置を纏めた領域を把持位置領域として抽出する把持位置領域抽出部と、把持位置領域内で部品をハンドで把持する把持位置を選定し、把持姿勢での把持位置をハンドの把持位置姿勢として投入姿勢毎に少なくとも1つ出力する把持位置姿勢出力部とを備えることを特徴とする。
また、本発明に係る把持位置姿勢教示方法は、部品の形状を示す部品形状データから部品の姿勢を分類し、複数の投入姿勢として生成する部品投入姿勢算出ステップと、ハンドの形状を示すハンドデータから投入姿勢毎にハンドの把持姿勢を選定する把持姿勢選定ステップと、把持姿勢で部品を把持するハンドの把持部及びハンドに把持される部品の被把持部がそれぞれ一致する位置を纏めた領域を把持位置領域として抽出する把持位置領域抽出ステップと、把持位置領域内で部品をハンドで把持する把持位置を選定し、把持姿勢での把持位置をハンドの把持位置姿勢として投入姿勢毎に少なくとも1つ出力する把持位置姿勢出力ステップとを備えることを特徴とする。

本発明に係る把持位置姿勢教示装置は、部品の形状を示す部品形状データから部品の姿勢を分類し、複数の投入姿勢として生成する部品投入姿勢算出部と、ハンドの形状を示すハンドデータから投入姿勢毎にハンドの把持姿勢を選定する把持姿勢選定部と、把持姿勢で部品を把持するハンドの把持及びハンドに把持される部品の被把持がそれぞれ一致する位置を纏めた領域を把持位置領域として抽出する把持位置領域抽出部と、把持位置領域内で部品をハンドで把持する把持位置を選定し、把持姿勢での把持位置をハンドの把持位置姿勢として投入姿勢毎に少なくとも1つ出力する把持位置姿勢出力部とを備え、把持姿勢選定部は、部品の投入姿勢毎にハンドのアプローチ方向及びハンドの取付け部からハンドの先端に向かう方向を一致させたとき、ハンドの把持面の法線と部品の各面の法線とが成す角度が、所定の許容角度以内となる部品の面を被把持面として抽出し、ハンドの把持面の法線と部品の被把持面の法線を合わせたときのハンドの姿勢を把持姿勢として投入姿勢毎に選定することを特徴とする。
また、本発明に係る把持位置姿勢教示方法は、部品の形状を示す部品形状データから部品の姿勢を分類し、複数の投入姿勢として生成する部品投入姿勢算出ステップと、ハンドの形状を示すハンドデータから投入姿勢毎にハンドの把持姿勢を選定する把持姿勢選定ステップと、把持姿勢で部品を把持するハンドの把持及びハンドに把持される部品の被把持がそれぞれ一致する位置を纏めた領域を把持位置領域として抽出する把持位置領域抽出ステップと、把持位置領域内で部品をハンドで把持する把持位置を選定し、把持姿勢での把持位置をハンドの把持位置姿勢として投入姿勢毎に少なくとも1つ出力する把持位置姿勢出力ステップとを備え、把持姿勢選定ステップは、部品の投入姿勢毎にハンドのアプローチ方向及びハンドの取付け部からハンドの先端に向かう方向を一致させたとき、ハンドの把持面の法線と部品の各面の法線とが成す角度が、所定の許容角度以内となる部品の面を被把持面として抽出し、ハンドの把持面の法線と部品の被把持面の法線を合わせたときのハンドの姿勢を把持姿勢として投入姿勢毎に選定することを特徴とする。

Claims (9)

  1. 部品の形状を示す部品形状データから前記部品の投入姿勢を算出する部品投入姿勢算出部と、
    ハンドの形状を示すハンドデータから前記投入姿勢に対する前記ハンドの把持姿勢を選定する把持姿勢選定部と、
    前記把持姿勢で前記部品を把持する前記ハンドの把持部及び前記ハンドに把持される前記部品の被把持部がそれぞれ一致する位置を纏めた領域を把持位置領域として抽出する把持位置領域抽出部と、
    前記把持位置領域内で前記部品を前記ハンドで把持する把持位置を選定し、前記把持姿勢での前記把持位置を前記ハンドの把持位置姿勢として前記投入姿勢毎に少なくとも1つ出力する把持位置姿勢出力部と
    を備えることを特徴とする把持位置姿勢教示装置。
  2. 前記把持姿勢選定部は、前記投入姿勢毎の前記ハンドのアプローチ方向及び前記ハンドの取付け部から前記ハンドの先端に向かう方向が成す角度が許容角度以内となる前記ハンドの姿勢を前記把持姿勢として選定することを特徴とする請求項1に記載の把持位置姿勢教示装置。
  3. 前記把持位置姿勢出力部は、前記把持位置領域抽出部から抽出された複数の前記把持位置領域から最も広いもの又は前記ハンドとの接触面の数が多いものを前記把持位置領域として選定することを特徴とする請求項1又は2に記載の把持位置姿勢教示装置。
  4. 前記把持位置姿勢出力部は、前記把持位置領域の重心又は前記部品の重心に近い前記把持位置領域内の位置を前記把持位置として選定することを特徴とする請求項1から3のいずれか一項に記載の把持位置姿勢教示装置。
  5. 前記部品に対する前記ハンドの位置姿勢を示す把持位置姿勢データを備えたデータベースを検索し、前記部品投入姿勢算出部が算出した前記投入姿勢に対して適用可能な前記把持位置姿勢データが抽出された場合は、前記把持位置姿勢データを前記ハンドの前記把持位置姿勢として出力するデータベース検索部を備えることを特徴とする請求項1から4のいずれか一項に記載の把持位置姿勢教示装置。
  6. 前記部品に対する前記ハンドの姿勢を示す把持姿勢データが入力される把持姿勢入力部を備えることを特徴とする請求項1から5のいずれか一項に記載の把持位置姿勢教示装置。
  7. 前記把持位置姿勢出力部が出力した前記ハンドの前記把持位置姿勢を調整する把持位置姿勢調整部を備えることを特徴とする請求項1から6のいずれか一項に記載の把持位置姿勢教示装置。
  8. 部品の形状を示す部品形状データから前記部品の投入姿勢を算出する部品投入姿勢算出ステップと、
    ハンドの形状を示すハンドデータから前記投入姿勢に対する前記ハンドの把持姿勢を選定する把持姿勢選定ステップと、
    前記把持姿勢で前記部品を把持する前記ハンドの把持部及び前記ハンドに把持される前記部品の被把持部がそれぞれ一致する位置を纏めた領域を把持位置領域として抽出する把持位置領域抽出ステップと、
    前記把持位置領域内で前記部品を前記ハンドで把持する把持位置を選定し、前記把持姿勢での前記把持位置を前記ハンドの把持位置姿勢として前記投入姿勢毎に少なくとも1つ出力する把持位置姿勢出力ステップと
    を備えることを特徴とする把持位置姿勢教示方法。
  9. 部品形状データ及びハンドデータから、ハンドの把持位置姿勢を生成する請求項1から7のいずれか一項に記載の把持位置姿勢教示装置と、
    投入される部品の位置及び姿勢に関する情報を認識するセンサと、
    前記センサからの情報及び前記把持位置姿勢教示装置で生成された前記把持位置姿勢に基づいて前記部品を把持するロボットと
    を備えることを特徴とするロボットシステム。
JP2018519496A 2017-10-03 2017-10-03 把持位置姿勢教示装置、把持位置姿勢教示方法及びロボットシステム Active JP6456557B1 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/035937 WO2019069361A1 (ja) 2017-10-03 2017-10-03 把持位置姿勢教示装置、把持位置姿勢教示方法及びロボットシステム

Publications (2)

Publication Number Publication Date
JP6456557B1 JP6456557B1 (ja) 2019-01-23
JPWO2019069361A1 true JPWO2019069361A1 (ja) 2019-11-14

Family

ID=65037057

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018519496A Active JP6456557B1 (ja) 2017-10-03 2017-10-03 把持位置姿勢教示装置、把持位置姿勢教示方法及びロボットシステム

Country Status (5)

Country Link
JP (1) JP6456557B1 (ja)
CN (1) CN111163907B (ja)
DE (1) DE112017007903B4 (ja)
TW (1) TWI649169B (ja)
WO (1) WO2019069361A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7481427B2 (ja) * 2020-03-05 2024-05-10 ファナック株式会社 取り出しシステム及び方法
US20220405439A1 (en) * 2021-06-16 2022-12-22 Dexterity, Inc. Physics engine based evaluation of pallet stability
DE102022203410A1 (de) 2022-04-06 2023-10-12 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Steuern einer Robotervorrichtung

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3782679B2 (ja) 2001-05-09 2006-06-07 ファナック株式会社 干渉回避装置
JP4235214B2 (ja) * 2006-07-04 2009-03-11 ファナック株式会社 ロボットプログラムを作成するための装置、プログラム、記録媒体及び方法
JP4226623B2 (ja) 2006-09-29 2009-02-18 ファナック株式会社 ワーク取り出し装置
JP2009078310A (ja) * 2007-09-25 2009-04-16 Seiko Epson Corp ロボット用ハンド及びロボット用ハンドの制御方法並びにロボット用ハンドの制御システム
JP4835616B2 (ja) 2008-03-10 2011-12-14 トヨタ自動車株式会社 動作教示システム及び動作教示方法
CN102317044B (zh) * 2009-02-12 2014-03-26 三菱电机株式会社 产业用机器人系统
JP5685027B2 (ja) 2010-09-07 2015-03-18 キヤノン株式会社 情報処理装置、物体把持システム、ロボットシステム、情報処理方法、物体把持方法およびプログラム
JP5879704B2 (ja) * 2011-03-10 2016-03-08 富士電機株式会社 ロボット制御装置、物品取り出しシステム、プログラムおよびロボットの制御方法
WO2013161242A1 (ja) * 2012-04-25 2013-10-31 パナソニック株式会社 多関節ロボットの機構誤差の補正方法
JP5620445B2 (ja) * 2012-09-13 2014-11-05 ファナック株式会社 選択条件に基づいてロボットの保持位置姿勢を決定する物品取出装置
JP2016093879A (ja) * 2014-11-17 2016-05-26 富士通株式会社 把持計画決定プログラム、把持計画決定方法および設計支援装置
CN105598965B (zh) * 2015-11-26 2018-03-16 哈尔滨工业大学 基于立体视觉的机器人欠驱动手自主抓取方法

Also Published As

Publication number Publication date
WO2019069361A1 (ja) 2019-04-11
TWI649169B (zh) 2019-02-01
CN111163907A (zh) 2020-05-15
DE112017007903T5 (de) 2020-05-14
TW201914782A (zh) 2019-04-16
DE112017007903B4 (de) 2022-04-14
CN111163907B (zh) 2022-11-25
JP6456557B1 (ja) 2019-01-23

Similar Documents

Publication Publication Date Title
JP6807949B2 (ja) 干渉回避装置
Morales et al. Integrated grasp planning and visual object localization for a humanoid robot with five-fingered hands
Ekvall et al. Learning and evaluation of the approach vector for automatic grasp generation and planning
Saut et al. Efficient models for grasp planning with a multi-fingered hand
JP6640060B2 (ja) ロボットシステム
Alonso et al. Current research trends in robot grasping and bin picking
Lambrecht et al. Spatial programming for industrial robots based on gestures and augmented reality
Suzuki et al. Grasping of unknown objects on a planar surface using a single depth image
Sanz et al. Vision-guided grasping of unknown objects for service robots
WO2020190166A1 (ru) Способ и система захвата объекта с помощью роботизированного устройства
JP6456557B1 (ja) 把持位置姿勢教示装置、把持位置姿勢教示方法及びロボットシステム
Ullmann et al. Intuitive virtual grasping for non haptic environments
JP2019018272A (ja) モーション生成方法、モーション生成装置、システム及びコンピュータプログラム
JP2019084601A (ja) 情報処理装置、把持システムおよび情報処理方法
Tian et al. Realtime hand-object interaction using learned grasp space for virtual environments
Wada et al. Reorientbot: Learning object reorientation for specific-posed placement
Jiang et al. Learning hardware agnostic grasps for a universal jamming gripper
Ottenhaus et al. Visuo-haptic grasping of unknown objects based on gaussian process implicit surfaces and deep learning
Huang et al. Synthesizing robot manipulation programs from a single observed human demonstration
Liang et al. Learning preconditions of hybrid force-velocity controllers for contact-rich manipulation
JP4649554B1 (ja) ロボット制御装置
WO2018135326A1 (ja) 画像処理装置、画像処理システム、画像処理プログラム、及び画像処理方法
Adjigble et al. Spectgrasp: Robotic grasping by spectral correlation
Haschke et al. Geometry-based grasping pipeline for bi-modal pick and place
Aleotti et al. Robot grasp synthesis from virtual demonstration and topology-preserving environment reconstruction

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180413

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180413

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180413

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20180619

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180710

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180831

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181120

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181218

R150 Certificate of patent or registration of utility model

Ref document number: 6456557

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250