JP6771744B2 - Handling system and controller - Google Patents
Handling system and controller Download PDFInfo
- Publication number
- JP6771744B2 JP6771744B2 JP2017011017A JP2017011017A JP6771744B2 JP 6771744 B2 JP6771744 B2 JP 6771744B2 JP 2017011017 A JP2017011017 A JP 2017011017A JP 2017011017 A JP2017011017 A JP 2017011017A JP 6771744 B2 JP6771744 B2 JP 6771744B2
- Authority
- JP
- Japan
- Prior art keywords
- handling
- end effector
- machine learning
- learning process
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
開示の実施形態は、ハンドリングシステム及びコントローラに関する。 Disclosure embodiments relate to handling systems and controllers.
特許文献1には、部品の3次元モデルに基づいてロボットハンドが当該部品を把持する把持面の抽出と把持位置の算出を行う手法が記載されている。 Patent Document 1 describes a method of extracting a gripping surface on which a robot hand grips a part and calculating a gripping position based on a three-dimensional model of the part.
しかしながら、上記従来技術では把持面と把持位置をユーザが人為的に設計していたため、多様な形状と姿勢にある部品に対しては確実な把持計画が困難となり、把持性能が低かった。 However, in the above-mentioned conventional technique, since the gripping surface and the gripping position are artificially designed by the user, it is difficult to perform a reliable gripping plan for parts having various shapes and postures, and the gripping performance is low.
本発明はこのような問題点に鑑みてなされたものであり、機械によるハンドリング性能を向上できるハンドリングシステム及びコントローラを提供することを目的とする。 The present invention has been made in view of such problems, and an object of the present invention is to provide a handling system and a controller capable of improving the handling performance by a machine.
上記課題を解決するため、本発明の一の観点によれば、対象物の形状情報を取得する形状取得部と、前記対象物に直接接触してハンドリング動作を行う複数種類のエンドエフェクタと、機械学習プロセスでの学習内容に基づき、前記形状情報に対応して、前記対象物側の接触位置であるハンドリング位置の推定と、前記対象物に対してハンドリング動作させるエンドエフェクタの選択を行うハンドリング設定部と、を有するハンドリングシステムが適用される。 In order to solve the above problems, according to one viewpoint of the present invention, a shape acquisition unit that acquires shape information of an object, a plurality of types of end effectors that directly contact the object and perform a handling operation, and a machine. A handling setting unit that estimates the handling position, which is the contact position on the object side, and selects the end effector to be operated with respect to the object, based on the learning content in the learning process. A handling system with and is applied.
また、本発明の別の観点によれば、機械学習プロセスでの学習内容に基づき、対象物の形状に対応して、前記対象物側の接触位置であるハンドリング位置の推定と、前記対象物に対してハンドリング動作させるエンドエフェクタの選択を行うハンドリング設定部、を有するコントローラが適用される。 Further, according to another aspect of the present invention, based on the learning content in the machine learning process, the handling position, which is the contact position on the object side, is estimated according to the shape of the object, and the object is subjected to the estimation. On the other hand, a controller having a handling setting unit for selecting an end effector to be operated is applied.
本発明によれば、機械によるハンドリング性能を向上できる。 According to the present invention, the handling performance by a machine can be improved.
以下、実施の形態について図面を参照しつつ説明する。 Hereinafter, embodiments will be described with reference to the drawings.
<ハンドリングシステムの概略構成>
図1は、本実施形態のハンドリングシステムの概略的なシステムブロック構成の一例を表している。このハンドリングシステムは、コンテナ7内に乱雑に配置された複数種類で多数個の工業部品を対象物とし、これらを種類別に分類して複数の目標容器に取り分けるようハンドリングして移送するシステムである。図1においてハンドリングシステム1は、カメラ2と、ロボットコントローラ3と、サーボアンプ4と、ハンドリングロボット5と、エンドエフェクタ交換部6とを有している。なお、本実施形態の例では、工業部品10をハンドリングの対象物とした場合を示しているが、生産ラインで取り扱われるものであれば、工業部品10の代わりに食品や化粧品、文房具などであってもよい。
<Outline configuration of handling system>
FIG. 1 shows an example of a schematic system block configuration of the handling system of the present embodiment. This handling system is a system for handling and transporting a large number of industrial parts of a plurality of types randomly arranged in a
カメラ2は、この例では光学的に2次元ピクセル列の画像データを撮像する撮像機器である。このカメラ2は、コンテナ7の上方に配置されており、そのコンテナ7の内部にそれぞれ乱雑な姿勢で配置されている複数種類で多数個の工業部品10の全体を撮像可能となっている。
In this example, the
ロボットコントローラ3(コントローラ)は、上記カメラ2で撮像した画像データに基づいて、ハンドリングロボット5のハンドリング作業と移送作業に関する処理を行いサーボアンプ4に駆動指令を出力する。このロボットコントローラ3は、画像認識部11と、ハンドリング設定部12と、作業計画部13と、逆キネマティクス演算部14とを有している。
The robot controller 3 (controller) performs processing related to the handling work and the transfer work of the handling robot 5 based on the image data captured by the
画像認識部11は、上記のカメラ2で撮像した画像データを画像認識することで、その時点でコンテナ7内に配置されている複数個の工業部品10それぞれの個体を認識し、当該画像データ中における各個体単独の外観部分画像(後述の図3〜6参照)をそれぞれ形状情報として抽出し出力する。なお画像認識部11は、各形状情報(外観部分画像)それぞれの画像データ全体における配置位置情報も検出して、後述の作業計画部13に別途出力しているが、図中では略記している。このような画像認識部11の内部処理は、ニューラルネットワークなどでの機械学習を利用した公知の画像認識手法を用いればよく、ここでは詳細な説明を省略する。なお、上記カメラ2とこの画像認識部11が、各請求項記載の形状取得部に相当する。
The
ハンドリング設定部12は、上記画像認識部11から入力された形状情報に基づいて、当該形状情報に対応する工業部品10の個体を適切にハンドリングするための情報、すなわちハンドリング位置情報(図中では「HDL位置情報」と略記)及びエンドエフェクタ選択情報(図中では「EE選択情報」と略記)を設定し、出力する。ここで本実施形態におけるハンドリングとは、対象となる工業部品10の個体を安定的に移送できるよう、ハンドリングロボット5に装着した後述のエンドエフェクタで当該工業部品10に接触し、固定させる動作そのものを意味している。本実施形態の例では、具体的に、後述する多指ハンド又はグリッパによる把持動作と、後述する吸着ノズルによる吸着動作がハンドリング動作に含まれる。このハンドリング設定部12は、ハンドリング位置推定部21と、エンドエフェクタ選択部22とを有している。
The
ハンドリング位置推定部21は、上記画像認識部11から入力された形状情報に基づいて、当該形状情報に対応する工業部品10の個体に対してハンドリング動作を行う際に適切と推定される工業部品10側の接触位置をハンドリング位置情報として出力する。
The handling
エンドエフェクタ選択部22は、上記ハンドリング位置推定部21から入力されたハンドリング位置情報に基づいて、当該ハンドリング位置情報で示される接触位置で工業部品10をハンドリングする際に適切なエンドエフェクタの種類を選択し、この種類をエンドエフェクタ選択情報として出力する。
The end
なお本実施形態の例におけるこのハンドリング設定部12の内部処理は、機械学習プロセスで学習したニューラルネットワークによって行うものであり、その処理内容や手法については後に詳述する。
The internal processing of the
作業計画部13は、上記ハンドリング設定部12から入力されたハンドリング位置情報とエンドエフェクタ選択情報、及び特に図示しない上記画像認識部11から入力された配置位置情報に基づいて、ハンドリングロボット5に行わせる具体的なハンドリング動作及び移送動作の作業内容(後述するエンドエフェクタの軌道や動作など)を計画し、それにより生成した作業指令を逆キネマティクス演算部14に出力する。
The
逆キネマティクス演算部14は、上記作業計画部13から入力された作業指令に基づいて、当該作業指令の作業内容(計画した軌道上でのエンドエフェクタの移動や動作など)を実現するために必要となるハンドリングロボット5の各駆動軸モータ(図示省略)の目標回転角度やエンドエフェクタ駆動用補器(図示省略)の動作値を演算し、対応する駆動指令を出力する。なお、上記作業計画部13とこの逆キネマティクス演算部14が、各請求項記載のハンドリング制御部に相当する。
The inverse
なお、上述した画像認識部11、ハンドリング設定部12(ハンドリング位置推定部21、エンドエフェクタ選択部22)、作業計画部13、逆キネマティクス演算部14等における処理等は、これらの処理の分担の例に限定されるものではなく、例えば、更に少ない数の処理部(例えば1つの処理部)で処理されてもよく、また、更に細分化された処理部により処理されてもよい。また、ロボットコントローラ3は、後述するCPU901(図15参照)が実行するプログラムによりソフトウェア的に実装されてもよいし、その一部又は全部がASICやFPGA、その他の電気回路等(ニューロモーフィックチップ等)の実際の装置によりハードウェア的に実装されてもよい。
The processing and the like in the
サーボアンプ4は、上記ロボットコントローラ3の逆キネマティクス演算部14から入力された駆動指令に基づいて、ハンドリングロボット5の各駆動軸モータ(図示省略)やエンドエフェクタ駆動用補器(図示省略)を駆動制御する駆動電力の給電制御を行う。
The servo amplifier 4 uses each drive shaft motor (not shown) and end effector drive auxiliary device (not shown) of the handling robot 5 based on the drive command input from the inverse
ハンドリングロボット5は、図示する本実施形態の例では6つの関節軸を備えたマニプレータアーム(6軸ロボット)である。そのアーム先端部5aは、工業部品10をハンドリング可能な各種のエンドエフェクタ8が着脱交換可能となっており、装着したエンドエフェクタ8によってコンテナ7内の工業部品10を1つずつハンドリングし、近傍の目標容器9へ移送できる機能を有している。また図示する例では、各種のエンドエフェクタ8を個別に保持可能なホルダとして機能するエンドエフェクタ交換部6がテーブルの一端に設けられており、ハンドリングロボット5はこのエンドエフェクタ交換部6で所望のエンドエフェクタ8をアーム先端部5aに着脱交換可能となっている。
The handling robot 5 is a manipulator arm (six-axis robot) having six joint axes in the illustrated example of the present embodiment.
本実施形態のハンドリングシステム1の例では、図2に示すような多指ハンド8A、グリッパ8B、及び吸着ノズル8Cの3種類のエンドエフェクタが使用可能となっている。なお、この図2中に示すハンドリング基準点Pと把持方向ベクトルVについては、後に詳述する。
In the example of the handling system 1 of the present embodiment, three types of end effectors, a
図2(a)に示す例の多指ハンド8Aは、上記アーム先端部5aに直接装着可能な基部8Aaにおいて、平行に配置された2本の指部8Ab,8Acと、これら2本に対向するよう配置された1本の指部8Adの合計3本の指部8Ab〜8Adが設けられている。各指部8Ab〜8Adは、それぞれの基部8Aaに対する根元位置、及び長手方向の中間位置に関節を有しており、これらの関節が指間中央方向への屈曲動作と伸長動作を切り替えることで、その指間中央に位置する対象物(本実施形態の例の工業部品10)に対して把持とリリースを切り替えて行うことが可能となっている。
The
図2(b)に示す例のグリッパ8Bは、上記アーム先端部5aに直接装着可能な基部8Baにおいて、平行に配置された2つの爪部8Bb,8Bcが設けられている。これら2つの爪部8Bb,8Bcが相互に対向する方向での近接動作と離間動作を切り替えることで、爪部間中央に位置する対象物に対して把持とリリースを切り替えて行うことが可能となっている。なお、図示する2爪型以外にも、3つ以上の爪部を上記爪部間中央の中心軸周りに等間隔な配置で設けた構成としてもよい(図示省略)。
The
図2(c)に示す吸着ノズル8Cは、上記アーム先端部5aに直接装着可能な基部8Caから中空管8Cbが突設しており、この中空管8Cbの先端に樹脂などの弾性材料で構成される吸着口8Ccが設けられている。図示しない吸引ポンプによる空気吸引力が、基部8Ca及び中空管8Cbを介して吸着口8Ccの開口部に付加されることで、当該吸着口8Ccは対象物の表面を吸着して固定できる。
In the
<本実施形態の特徴>
例えば規定の形状と大きさにある対象物(本実施形態の例の工業部品10)が規定の位置と姿勢で配置されている場合には、接触するハンドリング位置や使用するエンドエフェクタ8についてユーザが人為的に設定、選択することでも機械による適切なハンドリング動作は容易に行える。
<Characteristics of this embodiment>
For example, when an object having a specified shape and size (
しかし、形状が異なる複数種類の対象物が混在している場合には、それら種類ごとにユーザが人為的にハンドリング位置の設定とエンドエフェクタ8の選択を行う必要があるためそれらの設定作業が増大してしまう。そして、そのような人為的な設定と選択の作業はユーザの経験や技量に依存するところが大きく、またそれが必ずしも最適である保証がないため、ハンドリング動作の確実性を確保できない。さらに、規定の形状にある対象物であっても配置される姿勢が不定である場合には、その姿勢に対応して確実にハンドリング動作を行うために設定すべきハンドリング位置と選択すべきエンドエフェクタ8が多様に変化するため、それらの組み合わせを逐一人為的に設定することは困難であった。そして以上により、不定形状、不定姿勢にある対象物をカメラ2で撮像しても、その撮像画像に基づいて機械が対象物を確実にハンドリング動作することはさらに困難とされていた。
However, when a plurality of types of objects having different shapes are mixed, the user needs to artificially set the handling position and select the
これに対し本実施形態のハンドリングシステム1では、機械学習プロセスでの学習内容に基づき、対象物の形状情報に対応して、対象物側の接触位置であるハンドリング位置の推定と、対象物に対してハンドリング動作させるエンドエフェクタ8の選択を行うハンドリング設定部12を有している。そして機械学習プロセスにおいて、形状と配置姿勢が多様に異なる対象物の形状情報に対し、それぞれ多様なハンドリング位置とエンドエフェクタ8の組み合わせで繰り返しハンドリング動作を試行した結果を学習する。この機械学習プロセスは、機械自身によって自動的に行うことができ、その試行回数(成否データ)が多いほどハンドリング動作の精度や確度が向上する。これにより人為的な設定作業によらず、ハンドリング設定部12は対象物の形状と姿勢の組み合わせを表す形状情報に対応して、その対象物に対するハンドリング動作に最適なハンドリング位置の推定とエンドエフェクタ8の選択が可能となる。
On the other hand, in the handling system 1 of the present embodiment, based on the learning content in the machine learning process, the handling position, which is the contact position on the object side, is estimated according to the shape information of the object, and the object is It has a
<ハンドリング動作の機械学習プロセスについて>
図3〜図6には、多様な配置姿勢にある多様な形状の工業部品10の外観形状を示す形状情報の例が示されている。これらの形状情報は、ハンドリングロボット5の作業空間中に設定された作業座標(図中のXYZ座標)を基準として一律に同じ方向からの定点撮影により取得されている(なお、図示の理解が容易なように図1中に示すカメラ2の撮像方向とは相違している)。つまり、外観部分画像であるこの形状情報には、1つの工業部品10の個体についてその配置姿勢と当該配置姿勢に対応する当該工業部品10の外観形状の2つの情報が含まれている。また、上記コンテナ7中に乱雑に配置(又はバラ積み)された状態の多数の工業部品10は、図示する以外にも多様な配置姿勢で形状情報が取得される。
<About the machine learning process of handling operation>
3 to 6 show examples of shape information showing the appearance shapes of
そして上記ハンドリング設定部12の機械学習プロセスでは、ある形状情報に含まれる外観形状と配置姿勢に対して、多様なハンドリング位置とエンドエフェクタ8の組み合わせでハンドリング動作を繰り返し試行する。例えば、図3(a)に示すように全体形状が卵型形状であってその長軸がY軸方向に略平行な配置姿勢にある工業部品10Aの形状情報に対し、多指ハンド8Aにより多様な把持位置で把持したり、グリッパ8Bにより多様な把持位置で把持したり、吸着ノズル8Cにより多様な吸着位置で吸着するなどによりハンドリング動作を繰り返し試行する。
Then, in the machine learning process of the
そして本実施形態の例における機械学習プロセスでは、これらのハンドリング動作の試行に基づくデータ学習によって、形状情報に対応する適切なハンドリング位置とエンドエフェクタ8を学習する。例えば、ある形状情報に対応して行われたハンドリング動作の試行においてそのハンドリングの成否(例えば工業部品10を持ち上げることができたか否か)や確度(例えば安定性や信頼性)を試行結果として検出し、これらを元の形状情報及び試行したハンドリング位置とエンドエフェクタ8に対応付けてハンドリング成否データとして記録、保存する。そしてこのようなハンドリング成否データを大量に用いて機械学習(後述の図9参照)することにより、ハンドリング設定部12は形状情報に対応した適切なハンドリング位置の推定とエンドエフェクタ8の選択が可能となる。
Then, in the machine learning process in the example of the present embodiment, the appropriate handling position and the
例えば、上記構成の多指ハンド8Aの場合には、特に全体が略球体形状にある対象物に対してその外周側面を各指部8Ab〜8Adで包むような把持に有効である。このため上記機械学習プロセスによりハンドリング設定部12は、図3に示すように略卵型の外観形状にある工業部品10Aに対しては、その短軸方向を挟む3点をハンドリング位置(接触位置;図中の破線部分の位置)として多指ハンド8Aで把持することが適切であると学習することが想定される。
For example, in the case of the
また例えば、上記構成の2爪グリッパ8Bの場合には、特に略平行に対向する配置の2つの平面(又は曲面)を有する対象物に対してその対向方向に各爪部8Bb,8Bcで挟持するような把持に有効である。このため、上記機械学習プロセスによりハンドリング設定部12は、図4に示すようにボルト型の外観形状にある工業部品10Bに対しては、その配置姿勢に応じてボルト軸やボルト頭の軸径方向(対向側面)を挟む2点をハンドリング位置(接触位置;図中の破線部分の位置)として2爪グリッパ8Bで把持することが適切であると学習することが想定される。
Further, for example, in the case of the two-
また例えば、上記構成の吸着ノズル8Cの場合には、特に上方に平面を有する対象物に対してその平面を吸着口8Ccで吸着して引き上げるのに有効である。このため上記機械学習プロセスによりハンドリング設定部12は、図5に示すように略平板型の外観形状にある工業部品10Cに対しては、その平面上の1点をハンドリング位置(吸着位置;図中の破線部分の位置)として吸着ノズル8Cで吸着することが適切であると学習することが想定される。
Further, for example, in the case of the
また同じ形状の対象物であっても、その配置姿勢によっては有効なハンドリング位置やエンドエフェクタ8が変化する場合がある。例えば、図6に示すように2つの円錐形状の各頂点部分を結合した形状の工業部品10Dに対して、上記機械学習プロセスによりハンドリング設定部12は、工業部品10Dの軸方向が略水平方向にある配置姿勢(図6(a)、図6(b)参照)では、結合部分を軸径方向に挟む2点をハンドリング位置(接触位置;図中の破線部分の位置)として2爪グリッパ8Bで把持することが適切であると学習することが想定される。また、同じ工業部品10Dの軸方向が略垂直方向にある配置姿勢(図6(c)参照)では、上方に位置する円錐部分の底面(上方に位置する平面)上の1点をハンドリング位置(吸着位置;図中の破線部分の位置)として吸着ノズル8Cで吸着することが適切であると学習することが想定される。
Further, even if the objects have the same shape, the effective handling position and the
なお上記のいずれの場合もハンドリング動作の確度を考慮すると、上記機械学習プロセスによりハンドリング設定部12は、各工業部品10の重心に近い位置にハンドリング位置を設定することが適切であると学習することが期待される。また上述した各学習例におけるハンドリング位置とエンドエフェクタ8の組み合わせは、あくまで想定される例示であり、工業部品10やエンドエフェクタ8等の詳細な構成や他の要因によっては、他のハンドリング位置とエンドエフェクタ8の組み合わせが適切であると学習する可能性もある。
In any of the above cases, considering the accuracy of the handling operation, the
<ハンドリング設定部におけるニューラルネットワークの構成について>
ハンドリング設定部12は、上述したように、ニューラルネットワークを用いた深層学習の機械学習によってハンドリング位置の推定とエンドエフェクタ8の選択を行う。そして本実施形態の例では、まず先にハンドリング位置推定部21が形状情報に基づいて先にハンドリング位置の推定し、次にエンドエフェクタ選択部22がハンドリング位置情報に基づいてエンドエフェクタ8を選択する。以上から、ハンドリング設定部12は、例えば図7のニューラルネットワークモデル概略図で示すようなハンドリング位置推定部21と、図8のニューラルネットワークモデル概略図で示すようなエンドエフェクタ選択部22とを組み合わせることで構成できる。
<About the configuration of the neural network in the handling setting section>
As described above, the
図7に示すハンドリング位置推定部21のモデル概略図では、画像認識部11から入力された2次元ピクセル列の画像データである形状情報に対して、推定したハンドリング位置を示すマーキング(図中の破線部分)を当該画像データ中に記入するよう画像の加工処理を行い、これをハンドリング位置情報として出力するよう設計されている。そのマーキングの記入位置は、上述した機械学習プロセスでの学習内容に基づくものであり、当該形状情報の画像データ中に含まれている工業部品10の外観(形状、姿勢)に対応して適切にハンドリングできると推定した工業部品10側の接触位置である。すなわち、このハンドリング位置推定部21のニューラルネットワークは、形状情報に含まれる工業部品10の外観形状パターンとハンドリング位置との相関を表す特徴量を学習している。
In the model schematic diagram of the handling
また図8に示すエンドエフェクタ選択部22のモデル概要図では、ハンドリング位置推定部21から入力された2次元ピクセル列の画像データであるハンドリング位置情報に基づいて、選択したエンドエフェクタ8の種類をクラスタリングして出力するよう設計されている。その選択したエンドエフェクタ8の種類は、上述した機械学習プロセスでの学習内容に基づくものであり、当該ハンドリング位置情報の画像データ中に含まれるマーキングの数や工業部品10との配置関係に対応して適切にハンドリングできるよう選択したエンドエフェクタ8の種類である。すなわち、このエンドエフェクタ選択部22のニューラルネットワークは、ハンドリング位置情報に含まれる工業部品10の外観形状パターン及びマーキングの配置パターンと、エンドエフェクタ8の種類との相関を表す特徴量を学習している。
Further, in the model schematic diagram of the end
以上それぞれの基本仕様にあるニューラルネットワークにおいては、例えば入力層の直近をいわゆる畳み込み層とプーリング層の組み合わせである畳み込みニューラルネットワーク(特に図示せず)で構成することで柔軟なパターンの認識が可能となる。また例えば、出力層の直近をいわゆるパターン認識や最適値演算に適した全結合層(特に図示せず)で構成することも好適である。 In the neural networks in each of the above basic specifications, for example, flexible pattern recognition is possible by configuring the nearest input layer with a convolutional neural network (not shown in particular), which is a combination of a so-called convolutional layer and a pooling layer. Become. Further, for example, it is also preferable to configure the immediate vicinity of the output layer with a fully connected layer (not particularly shown) suitable for so-called pattern recognition and optimum value calculation.
<機械学習プロセスのデータ学習について>
上記ハンドリング位置推定部21及びエンドエフェクタ選択部22のそれぞれのニューラルネットワークに対する機械学習プロセスの具体的な手順について、以下に説明する。図9は、ロボットコントローラ3のCPU901(後述の図15参照)が、本実施形態の例におけるデータ学習により機械学習プロセスを実行する場合の処理手順のフローチャートを示している。このフローに示すデータ学習処理は、例えば図示しない操作部から機械学習プロセスを実行するよう指令入力されることで開始する。
<About data learning of machine learning process>
The specific procedure of the machine learning process for each neural network of the handling
まずステップS5で、CPU901は、カメラ2から画像データを取得する。
First, in step S5, the
次にステップS10へ移り、CPU901は、上記ステップS5で取得した画像データに基づく上記画像認識部11の画像認識処理により、独立した個々の工業部品10の個体を認識し、その外観部分画像を形状情報として抽出し取得する。
Next, the process proceeds to step S10, and the
次にステップS15へ移り、CPU901は、上記ステップS10で取得した形状情報に含まれる所定の工業部品10の個体の外観パターンに対して接触位置であるハンドリング位置をランダムに設定し、対応するハンドリング位置情報(マーキングが記入された画像情報)を生成する。
Next, in step S15, the
次にステップS20へ移り、CPU901は、上記ステップS15で設定したハンドリング位置に対してハンドリングさせるエンドエフェクタ8の種類をランダムに選択する。このとき、ハンドリングロボット5は、選択したエンドエフェクタ8を実際にアーム先端部5aに装着するようエンドエフェクタ交換部6での着脱交換作業を行う。
Next, the process proceeds to step S20, and the
次にステップS25へ移り、CPU901は、上記ステップS15で設定したハンドリング位置と、上記ステップS20で選択したエンドエフェクタ8の種類の組み合わせで、上記所定の工業部品10の個体に対するハンドリング動作と移送動作(目標容器への取り分け)をハンドリングロボット5に行わせる。このハンドリング動作は、上記作業計画部13及び逆キネマティクス演算部14での処理により制御する。
Next, the process proceeds to step S25, in which the
次にステップS30へ移り、CPU901は、特に図示しない別途の検出装置によって、上記ステップS25でのハンドリング動作が成功したか否か、つまり工業部品10の把持や吸着の試行結果としての成否を判定する。なお上記検出装置としては、例えばカメラやレーザースキャナなどの光学機器を用いた画像認識装置や、工業部品10の重量を計測する重量センサ等を別途用いればよい。またここで、単にハンドリング動作の成否を判定するだけでなく、ハンドリングした後での高速な移送動作や、特定駆動軸での回転動作や、特定のアーム節の揺動動作などを実行し、その前後でのエンドエフェクタ8における工業部品10のハンドリング状態の変化を検出することで、当該ハンドリングの確度(安定性、信頼性)を検出してもよい。
Next, the process proceeds to step S30, and the
次にステップS35へ移り、CPU901は、上記ステップS10で取得した形状情報と、上記ステップS15で設定したハンドリング位置情報と、上記ステップS20で選択したエンドエフェクタ8の種類と、上記ステップS30で判定したハンドリング動作の試行結果とを対応付けて1つのハンドリング成否データを生成し、記録する。
Next, the process proceeds to step S35, and the
次にステップS40へ移り、CPU901は、例えば上記コンテナ7内に配置された全ての工業部品10の個体についてハンドリング動作の試行を行ったか否かを判定する。まだコンテナ7内にハンドリング(目標容器への取り分け)されていない工業部品10がある場合には、判定は満たされず、上記ステップS5に戻って同様の手順を繰り返す。
Next, the process proceeds to step S40, and the
一方、コンテナ7内の全ての工業部品10がハンドリングされていた場合、判定が満たされ、ステップS45へ移る。
On the other hand, when all the
ステップS45では、CPU901は、上記ステップS5〜ステップS35の試行で生成されたハンドリング成否データに基づいて、ハンドリング位置推定部21及びエンドエフェクタ選択部22のそれぞれのニューラルネットワークに対するデータ学習を行う。例えばこのデータ学習では、取得した形状情報を入力データとし、設定したハンドリング位置情報や選択したエンドエフェクタ8を出力データとした組み合わせの教師データを用いて、各ニューラルネットワークの入力層と出力層の間の関係性が成立するよう各ノードどうしをつなぐ各エッジの重み係数を調整するいわゆるバックプロパゲーション処理により学習を行う。このバックプロパゲーション処理では、多数のハンドリング成否データのうち特にハンドリング動作が成功して確度の高いデータのみを抽出し、これだけを教師データに用いて各エッジの重み係数を強めるよう調整してもよい。または、全てのハンドリング成否データを教師データとし、それぞれの成否や確度に応じて各エッジの重み係数を強めたり弱めたりするよう調整してもよい。なお、このようなバックプロパゲーションの他にも、いわゆるオートエンコーダ、ドロップアウト、ノイズ付加、及びスパース正則化などの公知の多様な学習手法を併用して処理精度を向上させてもよい。その後、このフローを終了する。
In step S45, the
なお、以上のデータ学習処理による機械学習プロセスは、当該ハンドリングシステム1の稼働開始前にハンドリング対象の工業部品10に対して行ってもよいし、または工業部品10の変更時や動作精度の向上を目的として稼働中の必要時に行ってもよい。
The machine learning process by the above data learning process may be performed on the
<本実施形態による効果>
以上説明したように、本実施形態のハンドリングシステム1は、機械学習プロセスでの学習内容に基づき、工業部品10の個体の形状情報に対応して、ハンドリング位置を推定するハンドリング位置推定部21と、ハンドリング動作させるエンドエフェクタ8の選択を行うエンドエフェクタ選択部22とを備えたハンドリング設定部12を有している。そして機械学習プロセスにおいて、形状と配置姿勢が多様に異なる工業部品10の個体の形状情報に対し、それぞれ多様なハンドリング位置とエンドエフェクタ8の組み合わせで繰り返しハンドリング動作を試行した結果を学習する。この機械学習プロセスは、機械自身によって自動的に行うことができ、その試行回数(ハンドリング成否データ)が多いほどハンドリング動作の精度や確度が向上する。これにより人為的な設定作業によらず、ハンドリング設定部12は工業部品10の個体の形状と姿勢の組み合わせを表す形状情報に対応して、その工業部品10に対するハンドリング動作に最適なハンドリング位置の推定とエンドエフェクタ8の選択が可能となる。この結果、機械によるハンドリング性能を向上できる。
<Effect of this embodiment>
As described above, the handling system 1 of the present embodiment includes a handling
また、本実施形態では特に、ハンドリングロボット5と、当該ハンドリングロボット5のハンドリング動作を制御する作業計画部13及び逆キネマティクス演算部14とを有している。これにより、多様な位置と姿勢に配置された工業部品10に対してハンドリングロボット5を利用した確実なハンドリング動作と移送動作を実現できる。なお、本実施形態の例のように、1台のハンドリングロボット5に複数種類のエンドエフェクタ8を着脱交換可能とする構成に限られない。他にも、1台のハンドリングロボットに1種類のエンドエフェクタ8を装着してエンドエフェクタ8の種類と同数のハンドリングロボットを併設してもよいし、又は1台のハンドリングロボットに複数種類のエンドエフェクタ8を装着してそれらを切り替えて利用してもよい(以上、図示省略)。また、使用するハンドリングロボット自体についても、本実施形態の例の6軸ロボットのマニプレータアームに限られない。他にも、いわゆるスカラロボット、パラレルロボット、又は直交軸ロボット等(以上、図示省略)を適用してもよい。
Further, in the present embodiment, in particular, it has a handling robot 5, a
また、本実施形態では特に、ハンドリング設定部12は、ハンドリング位置を推定してから、当該ハンドリング位置に対応するエンドエフェクタ8を選択する。これにより、ハンドリング位置を基準としたエンドエフェクタ8の選択が可能となり、特に工業部品10の姿勢に対応した柔軟なハンドリング動作が可能となる。
Further, in the present embodiment, in particular, the
また、本実施形態では特に、機械学習プロセスでは、ハンドリング動作を繰り返した際に得られたハンドリング成否データに基づくデータ学習により実行される。これにより、機械学習プロセスにおいて、多様な形状と姿勢にある工業部品10に対応した汎用性の高いハンドリング動作を学習できる。
Further, in the present embodiment, particularly in the machine learning process, the machine learning process is executed by data learning based on the handling success / failure data obtained when the handling operation is repeated. As a result, in the machine learning process, it is possible to learn highly versatile handling operations corresponding to the
また、本実施形態では特に、機械学習プロセスは、コンテナ7内に配置された限られた所定形状の工業部品10に対して実行される。これにより、機械学習プロセスにおいて、所定の形状にある工業部品10に限定した確度の高いハンドリング動作を迅速に学習できる。なお、このように限られた所定形状の工業部品10だけでなく、多種多様な大きさと形状にある多くの工業部品10に対して機械学習プロセスを実行してもよい。その場合には、同一のニューラルネットワークで学習した内容が、多様な形状の対象物に対して柔軟に対応可能な汎用性を向上することができ、それまでに学習対象としていなかった未知の形状(不定形状)にある対象物に対しても汎用性の高いハンドリング動作を学習できる。
Further, in this embodiment, in particular, the machine learning process is executed for the limited
また、本実施形態では特に、エンドエフェクタ8の種類は、多指ハンド8A、グリッパ8B、及び吸着ノズル8Cのうち少なくとも1つを含んでいる。上述したように、多指ハンド8Aでは特に工業部品10の外周側面を包むような把持に有効であり、グリッパ8Bでは特に対向する2方向(又は3方向以上)で挟持する把持に有効であり、吸着ノズル8Cでは特に平面の引き上げに有効である。本実施形態では、これらのうちから選択可能としていることで多様な形状と姿勢にある国行部品に対応して汎用性の高いハンドリング動作が可能となる。なお、ハンドリングシステム1で用いるエンドエフェクタ8はこれら3種に限られず、特に図示しない他の種類のエンドエフェクタを適用してもよい。
Further, in the present embodiment, in particular, the type of the
<変形例>
なお、以上説明した実施形態は、その趣旨及び技術的思想を逸脱しない範囲内で種々の変形が可能である。
<Modification example>
It should be noted that the embodiments described above can be variously modified within a range that does not deviate from the purpose and technical idea.
<変形例1:機械学習プロセスを強化学習で行う場合>
上記実施形態では、形状情報に対応する適切なハンドリング位置とエンドエフェクタ8の機械学習プロセスをデータ学習により行っていたが、これに限られない。他にも、図10に例示するような強化学習処理の機械学習プロセスにより、ハンドリング位置推定部21及びエンドエフェクタ選択部22のそれぞれのニューラルネットワークの学習を行ってもよい。なお、図示する本変形例の強化学習処理では、いわゆるQ学習の手法に基づいて行う。
<Transformation example 1: When the machine learning process is performed by reinforcement learning>
In the above embodiment, the appropriate handling position corresponding to the shape information and the machine learning process of the
まずステップS105で、CPU901は、カメラ2から画像データを取得する。
First, in step S105, the
次にステップS110へ移り、CPU901は、上記ステップS105で取得した画像データに基づく上記画像認識部11の画像認識処理により、独立した個々の工業部品10の個体を認識し、その外観部分画像を形状情報として抽出し取得する。
Next, the process proceeds to step S110, and the
次にステップS115へ移り、CPU901は、上記ステップS10で取得した形状情報に含まれる所定の工業部品10の個体の外観パターンに対して新たな接触位置を探索する。この新たな接触位置の探索については、その時点まで適切(後述のいわゆるQ値が最大)であるとして設定される接触位置から、小さな確率でランダムな方向に修正した接触位置を設定するか、もしくはそれ以外のほとんどの確率ではその適切であるとされる接触位置そのままとする。このように新たに探索した接触位置を今回のハンドリング位置として設定し、対応するハンドリング位置情報(マーキングが記入された画像情報)を生成する。
Next, the process proceeds to step S115, and the
次にステップS120へ移り、CPU901は、上記ステップS115で設定したハンドリング位置に対して新たなエンドエフェクタ8を探索する。この新たなエンドエフェクタ8の探索については、その時点まで適切(後述のいわゆるQ値が最大)であるとして選択されたエンドエフェクタ8から、小さな確率でランダムに変更したエンドエフェクタ8を選択するか、もしくはそれ以外のほとんどの確率ではその適切であるとされるエンドエフェクタ8そのままとする。このように新たに探索したエンドエフェクタ8を今回使用するエンドエフェクタ8として選択し、対応するエンドエフェクタ選択情報を生成する。このとき、ハンドリングロボット5は、選択したエンドエフェクタ8を実際にアーム先端部5aに装着するようエンドエフェクタ交換部6での着脱交換作業を行う。
Next, the process proceeds to step S120, and the
次にステップS125へ移り、CPU901は、上記ステップS115で探索設定したハンドリング位置と、上記ステップS120で探索選択したエンドエフェクタ8の種類の組み合わせで、上記所定の工業部品10の個体に対するハンドリング動作と移送動作(目標容器への取り分け)をハンドリングロボット5に行わせる。このハンドリング動作は、上記作業計画部13及び逆キネマティクス演算部14での処理により制御する。
Next, the process proceeds to step S125, and the
次にステップS130へ移り、CPU901は、特に図示しない別途の検出装置によって、上記ステップS25でのハンドリング動作が成功したか否か、つまり工業部品10の把持や吸着の試行結果としての成否を判定する。なお上記検出装置としては、例えばカメラやレーザースキャナなどの光学機器を用いた画像認識装置や、工業部品10の重量を計測する重量センサ等を別途用いればよい。またここで、単にハンドリング動作の成否を判定するだけでなく、ハンドリングした後での高速な移送動作や、特定駆動軸での回転動作や、特定のアーム節の揺動動作などを実行し、その前後でのエンドエフェクタ8における工業部品10のハンドリング状態の変化を検出することで、当該ハンドリングの確度(安定性、信頼性)を検出してもよい。以上のような成否判定及び確度の検出によって今回のハンドリング動作に対する評価を行い、この評価に応じた報酬を算出する。
Next, the process proceeds to step S130, and the
次にステップS135へ移り、CPU901は、上記ステップS110で取得した形状情報と、上記ステップS115で探索設定したハンドリング位置情報と、上記ステップS120で探索選択したエンドエフェクタ8の種類と、上記ステップS130で算出したハンドリング動作の報酬に基づくいわゆるQ学習により、ハンドリング位置推定部21及びエンドエフェクタ選択部22のそれぞれのニューラルネットワークに対する強化学習を行う。上記ステップS105〜ステップS135でのハンドリング動作の試行に対してその有効性を示すQ値がより最大化するようハンドリング位置とエンドエフェクタ8を学習する。このQ学習による強化学習については、公知の手法を用いればよくここでは詳細な説明を省略する。
Next, the process proceeds to step S135, where the
次にステップS140へ移り、CPU901は、ハンドリング位置推定部21及びエンドエフェクタ選択部22のそれぞれのニューラルネットワークに対し、十分な試行回数で機械学習が行われたか否かを判定する。機械学習が不十分であって当該強化学習処理を終了しない場合には、判定は満たされず、上記ステップS105に戻って同様の手順を繰り返す。
Next, the process proceeds to step S140, and the
一方、機械学習が十分であって当該強化学習処理を終了する場合には、判定が満たされ、このフローを終了する。 On the other hand, when the machine learning is sufficient and the reinforcement learning process is terminated, the determination is satisfied and this flow is terminated.
以上説明したように、本変形例のハンドリングシステム1は、機械学習プロセスが、ハンドリング動作を繰り返した際のそれぞれのハンドリング結果に基づく強化学習により実行される。これにより、機械学習プロセスにおいて、特定の形状にある工業部品10に限定した精度の高いハンドリング動作を迅速に学習できる。
As described above, the handling system 1 of this modified example is executed by reinforcement learning based on the respective handling results when the machine learning process is repeated. As a result, in the machine learning process, it is possible to quickly learn a highly accurate handling operation limited to the
<変形例2:エンドエフェクタを選択してからハンドリング位置を推定する場合>
上記実施形態では、ハンドリング設定部12において、ハンドリング位置推定部21が形状情報に対応したハンドリング位置情報を推定してから、エンドエフェクタ選択部22がそのハンドリング位置情報に基づいてエンドエフェクタ8を選択していたが、これに限られない。他にも、図11に示すようにロボットコントローラ3A内のハンドリング設定部12Aにおいて、エンドエフェクタ選択部22Aが形状情報に対応したエンドエフェクタ8を選択してから、ハンドリング位置推定部21Aがそのエンドエフェクタ選択情報と形状情報に対応したハンドリング位置情報を推定してもよい。
<Modification example 2: When estimating the handling position after selecting the end effector>
In the above embodiment, in the
この場合には、エンドエフェクタ選択部22Aのニューラルネットワークが、形状情報に含まれる工業部品10の外観形状パターンと、それに対応してハンドリング動作に適切なエンドエフェクタ8の種類との相関を表す特徴量を学習する。またハンドリング位置推定部21Aのニューラルネットワークは、形状情報に含まれる工業部品10の外観形状パターン及びエンドエフェクタ選択情報と、それらに対応してハンドリング動作に適切なハンドリング位置との相関を表す特徴量を学習する。
In this case, the neural network of the end
以上説明したように、本変形例のハンドリングシステム1は、ハンドリング設定部12が、エンドエフェクタ8を選択してから、当該エンドエフェクタ8に対応するハンドリング位置を推定する。これにより、エンドエフェクタ8を基準としたハンドリング位置の推定が可能となり、特に工業部品10の形状に対応した柔軟なハンドリング動作が可能となる。
As described above, in the handling system 1 of the present modification, after the
また、ハンドリング位置推定部21とエンドエフェクタ選択部22は個別に構成せずに、図12に示すように同一のニューラルネットワークで並列に処理するよう構成してもよい。この図示する構成では、選択するエンドエフェクタ8の種類をクラスタリングしてエンドエフェクタ選択情報を出力するとともに、ハンドリング基準目標点P′(Xp′,Yp′,Zp′)と把持方向目標ベクトルV′をハンドリング位置情報として出力するよう設計されている。なおハンドリング位置情報の出力は、いわゆる回帰問題により整数値の座標位置やベクトル値を出力するようニューラルネットワークを設計する。
Further, the handling
ここでハンドリング基準目標点P′とは、各エンドエフェクタ8上に設定されたハンドリング基準点Pをハンドリング動作時に位置させる目標位置である。また把持方向目標ベクトルV′とは、各エンドエフェクタ8(多指ハンド8A及びグリッパ8Bのみ)に設定された把持方向ベクトルVをハンドリング動作時に一致させる目標方向である(以上、図3〜図6参照)。各エンドエフェクタ8のハンドリング基準点Pは、図2に示すように、例えば多指ハンド8Aやグリッパ8Bの場合には各指部8Ab〜8Ad間又は各爪部8Bb,8Bc間の中央位置に設定され、吸着ノズル8Cの場合には吸着口8Ccの端部中央位置に設定される。また、把持方向ベクトルVは、多指ハンド8A及びグリッパ8Bの場合における各指部8Ab〜8Ad又は各爪部8Bb,8Bcの把持方向を示す方向ベクトルである。このように、ハンドリング動作時において適切と推定されるエンドエフェクタ8の位置と姿勢をハンドリング基準目標点P′及び把持方向目標ベクトルV′で示し、これらの数値情報をハンドリング位置情報として生成してもよい。
Here, the handling reference target point P'is a target position for positioning the handling reference point P set on each
<変形例3:複数のカメラで撮像した複数の画像データで個体認識する場合>
図13に示す例では、それぞれの撮像領域が重複する2台のカメラ41,42で構成されたいわゆる3次元カメラ43を用いて1つの食品F(図示する例では鳥唐揚げ)をそれぞれ異なる撮像方向から撮像している。これにより、図14の左側に示すように、1つの食品Fに対して相互に視差を有する2つの画像データ(2つの形状情報;それぞれ2次元ピクセル列)を取得することができる。
<Modification 3: When recognizing an individual with multiple image data captured by multiple cameras>
In the example shown in FIG. 13, one food F (fried chicken in the illustrated example) is imaged differently by using a so-called three-
図14に示す例では、同一のニューラルネットワークで並列に構成されたハンドリング位置推定部21とエンドエフェクタ選択部22が上記2つの形状情報をそのまま個別に入力され、それら2つの形状方向に基づいてエンドエフェクタ選択情報とハンドリング位置情報を出力するよう設計されている。このように3次元の画像データを用いることで、特に形状や大きさが不定である食品Fに対して立体形状の空間認識精度が向上する。なお、カメラは撮像領域が重複すれば3つ以上用いてもよいし、ニューラルネットワークにおいてそれぞれの形状情報の画像データを個別の畳み込みニューラルネットワークで処理してから同一の全結合層でパターン認識してもよい。
In the example shown in FIG. 14, the handling
<その他の変形例>
また特に図示しないが、対象物の画像データを取得する光学的センシング手段としてレーザースキャナ等をカメラ2(および3次元センサ8)の代わりに用いてもよい。この場合には、例えばレーザースキャナから投光された走査線で対象物の表面上における各点との距離を計測し、これらの距離データの集合で画像データを取得する。また、画像認識部11は、外観部分画像の画像データではなく、例えば3D立体モデルを形状情報として取得してもよい。
<Other variants>
Further, although not particularly shown, a laser scanner or the like may be used instead of the camera 2 (and the three-dimensional sensor 8) as an optical sensing means for acquiring image data of an object. In this case, for example, the distance to each point on the surface of the object is measured by a scanning line projected from a laser scanner, and image data is acquired as a set of these distance data. Further, the
また、カメラ2は固定的に配置される以外にも、例えばハンドリングロボット5のアーム先端部5aやエンドエフェクタ8にカメラを設置してもよい。
In addition to the fixed arrangement of the
また、ハンドリング位置推定部21やエンドエフェクタ選択部22の処理アルゴリズムは、図示したニューラルネットワークを用いた深層学習(ディープラーニング)によるもの以外にも、例えばサポートベクトルマシンやベイジアンネットワーク等を利用した他の処理アルゴリズム(特に図示せず)を適用してもよい。
Further, the processing algorithms of the handling
また、ハンドリングロボット5がエンドエフェクタ8を切り換えずに単一のものだけを装着してハンドリングする場合には、エンドエフェクタ選択部22を省略してハンドリング位置推定部21が当該エンドエフェクタ8に対応するハンドリング位置情報だけを学習し、出力させてもよい。また、装着するエンドエフェクタ8の種類は、上記図2に例示した3種類以外の他の種類のエンドエフェクタ(特に図示せず)を装着してもよく、それらのハンドリング態様に対応してハンドリング位置推定部21がハンドリング位置情報を学習すればよい。
Further, when the handling robot 5 mounts and handles only a single robot without switching the
<ロボットコントローラのハードウェア構成例>
次に、図15を参照しつつ、上記で説明したCPU901が実行するプログラムによりソフトウェア的に実装された画像認識部11、ハンドリング設定部12(ハンドリング位置推定部21、エンドエフェクタ選択部22)、作業計画部13、逆キネマティクス演算部14等による処理を実現するロボットコントローラ3のハードウェア構成例について説明する。
<Hardware configuration example of robot controller>
Next, with reference to FIG. 15, the
図15に示すように、ロボットコントローラ3は、例えば、CPU901と、ROM903と、RAM905と、ASIC又はFPGA等の特定の用途向けに構築された専用集積回路907と、入力装置913と、出力装置915と、記録装置917と、ドライブ919と、接続ポート921と、通信装置923とを有する。これらの構成は、バス909や入出力インターフェース911を介し相互に信号を伝達可能に接続されている。
As shown in FIG. 15, the
プログラムは、例えば、ROM903やRAM905、記録装置917等に記録しておくことができる。
The program can be recorded in, for example, a
また、プログラムは、例えば、フレキシブルディスクなどの磁気ディスク、各種のCD・MOディスク・DVD等の光ディスク、半導体メモリ等のリムーバブルな記録媒体925に、一時的又は永続的に記録しておくこともできる。このような記録媒体925は、いわゆるパッケージソフトウエアとして提供することもできる。この場合、これらの記録媒体925に記録されたプログラムは、ドライブ919により読み出されて、入出力インターフェース911やバス909等を介し上記記録装置917に記録されてもよい。
Further, the program can be temporarily or permanently recorded on, for example, a magnetic disk such as a flexible disk, an optical disk such as various CDs, MO disks, or DVDs, or a
また、プログラムは、例えば、ダウンロードサイト・他のコンピュータ・他の記録装置等(図示せず)に記録しておくこともできる。この場合、プログラムは、LANやインターネット等のネットワークNWを介し転送され、通信装置923がこのプログラムを受信する。そして、通信装置923が受信したプログラムは、入出力インターフェース911やバス909等を介し上記記録装置917に記録されてもよい。
The program can also be recorded on, for example, a download site, another computer, another recording device, or the like (not shown). In this case, the program is transferred via a network NW such as LAN or the Internet, and the
また、プログラムは、例えば、適宜の外部接続機器927に記録しておくこともできる。この場合、プログラムは、適宜の接続ポート921を介し転送され、入出力インターフェース911やバス909等を介し上記記録装置917に記録されてもよい。
Further, the program can be recorded in an appropriate externally
そして、CPU901が、上記記録装置917に記録されたプログラムに従い各種の処理を実行することにより、上記の画像認識部11、ハンドリング設定部12(ハンドリング位置推定部21、エンドエフェクタ選択部22)、作業計画部13、及び逆キネマティクス演算部14等による処理が実現される。この際、CPU901は、例えば、上記記録装置917からプログラムを直接読み出して実行してもよいし、RAM905に一旦ロードした上で実行してもよい。更にCPU901は、例えば、プログラムを通信装置923やドライブ919、接続ポート921を介し受信する場合、受信したプログラムを記録装置917に記録せずに直接実行してもよい。
Then, the
また、CPU901は、必要に応じて、例えばマウス・キーボード・マイク(図示せず)等の入力装置913から入力する信号や情報に基づいて各種の処理を行ってもよい。
Further, the
そして、CPU901は、上記の処理を実行した結果を、例えば表示装置や音声出力装置等の出力装置915から出力してもよく、さらにCPU901は、必要に応じてこの処理結果を通信装置923や接続ポート921を介し送信してもよく、上記記録装置917や記録媒体925に記録させてもよい。
Then, the
なお、以上の説明において、「垂直」「平行」「平面」等の記載がある場合には、当該記載は厳密な意味ではない。すなわち、それら「垂直」「平行」「平面」とは、設計上、製造上の公差、誤差が許容され、「実質的に垂直」「実質的に平行」「実質的に平面」という意味である。 In the above description, when there is a description such as "vertical", "parallel", "plane", etc., the description does not have a strict meaning. That is, these "vertical", "parallel", and "planar" mean "substantially vertical", "substantially parallel", and "substantially flat", with design and manufacturing tolerances and errors allowed. ..
また、以上の説明において、外観上の寸法や大きさ、形状、位置等が「同一」「同じ」「等しい」「異なる」等の記載がある場合は、当該記載は厳密な意味ではない。すなわち、それら「同一」「等しい」「異なる」とは、設計上、製造上の公差、誤差が許容され、「実質的に同一」「実質的に同じ」「実質的に等しい」「実質的に異なる」という意味である。 Further, in the above description, when there is a description such as "same", "same", "equal", "different", etc. in the external dimensions, size, shape, position, etc., the description is not a strict meaning. That is, those "same", "equal", and "different" are allowed for design and manufacturing tolerances and errors, and are "substantially the same", "substantially the same", "substantially equal", and "substantially equal". It means "different".
また、以上既に述べた以外にも、上記実施形態や各変形例による手法を適宜組み合わせて利用しても良い。その他、一々例示はしないが、上記実施形態や各変形例は、その趣旨を逸脱しない範囲内において、種々の変更が加えられて実施されるものである。 In addition to the above, the methods according to the above-described embodiment and each modification may be appropriately combined and used. In addition, although not illustrated one by one, the above-described embodiment and each modification are implemented with various modifications within a range that does not deviate from the purpose.
1 ハンドリングシステム
2 カメラ(形状取得部)
3,3A ロボットコントローラ(コントローラ)
4 サーボアンプ
5 ハンドリングロボット
6 エンドエフェクタ交換部
8 エンドエフェクタ
8A 多指ハンド
8B グリッパ
8C 吸着ノズル
10 工業部品(対象物)
11 画像認識部(形状取得部)
12,12A ハンドリング設定部
13 作業計画部(ハンドリング制御部)
14 逆キネマティクス演算部(ハンドリング制御部)
21,21A ハンドリング位置推定部
22,22A エンドエフェクタ選択部
1
3,3A robot controller (controller)
4 Servo amplifier 5 Handling robot 6 End
11 Image recognition unit (shape acquisition unit)
12, 12A
14 Inverse kinematics calculation unit (handling control unit)
21,21A Handling
Claims (8)
前記対象物に直接接触してハンドリング動作を行う複数種類のエンドエフェクタと、
機械学習プロセスでの学習内容に基づき、前記形状情報に対応して前記対象物側の接触位置であるハンドリング位置を推定してから、前記対象物に対してハンドリング動作させるエンドエフェクタを前記ハンドリング位置に対応して選択するハンドリング設定部と、
を有することを特徴とするハンドリングシステム。 A shape acquisition unit that acquires shape information of an object,
Multiple types of end effectors that perform handling operations in direct contact with the object,
Based on the learning content in the machine learning process, the handling position, which is the contact position on the object side, is estimated in response to the shape information, and then the end effector that performs the handling operation on the object is set to the handling position. The handling setting unit to be selected correspondingly,
A handling system characterized by having.
推定されたハンドリング位置に選択されたエンドエフェクタを接触させるよう前記ハンドリングロボットのハンドリング動作を制御するハンドリング制御部と、
を有することを特徴とする請求項1記載のハンドリングシステム。 A handling robot that mounts the end effector and transfers the end effector and the object,
A handling control unit that controls the handling operation of the handling robot so that the selected end effector is brought into contact with the estimated handling position.
The handling system according to claim 1, wherein the handling system comprises.
を有することを特徴とするコントローラ。 Based on the learning content in the machine learning process, the handling position, which is the contact position on the object side, is estimated according to the shape of the object, and then the end effector that handles the object is moved to the handling position. Handling setting section to select according to
A controller characterized by having.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017011017A JP6771744B2 (en) | 2017-01-25 | 2017-01-25 | Handling system and controller |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017011017A JP6771744B2 (en) | 2017-01-25 | 2017-01-25 | Handling system and controller |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018118343A JP2018118343A (en) | 2018-08-02 |
JP6771744B2 true JP6771744B2 (en) | 2020-10-21 |
Family
ID=63044214
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017011017A Active JP6771744B2 (en) | 2017-01-25 | 2017-01-25 | Handling system and controller |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6771744B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP4094906A1 (en) * | 2021-05-26 | 2022-11-30 | AyTec Automation GmbH | Gripping arrangement |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7163116B2 (en) * | 2018-09-14 | 2022-10-31 | 株式会社東芝 | Information processing equipment and picking system |
WO2020075423A1 (en) * | 2018-10-10 | 2020-04-16 | ソニー株式会社 | Robot control device, robot control method and robot control program |
JP7205752B2 (en) * | 2018-11-09 | 2023-01-17 | オムロン株式会社 | ROBOT CONTROL DEVICE, ROBOT CONTROL METHOD, AND ROBOT CONTROL PROGRAM |
JP7047726B2 (en) * | 2018-11-27 | 2022-04-05 | トヨタ自動車株式会社 | Gripping robot and control program for gripping robot |
JP6671694B1 (en) * | 2018-11-30 | 2020-03-25 | 株式会社クロスコンパス | Machine learning device, machine learning system, data processing system, and machine learning method |
KR102619004B1 (en) * | 2018-12-14 | 2023-12-29 | 삼성전자 주식회사 | Robot control apparatus and method for learning task skill of the robot |
JP7044047B2 (en) * | 2018-12-14 | 2022-03-30 | トヨタ自動車株式会社 | robot |
JP7342676B2 (en) * | 2019-12-13 | 2023-09-12 | トヨタ自動車株式会社 | Remote control system and remote control method |
JP2021146452A (en) * | 2020-03-19 | 2021-09-27 | 株式会社東芝 | Handling device, control device, and control program |
DE112020007557T5 (en) | 2020-10-28 | 2023-08-10 | Yamaha Hatsudoki Kabushiki Kaisha | Apparatus for searching a workpiece holding shape for a robot hand and method therefor |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1015865A (en) * | 1996-07-06 | 1998-01-20 | Ricoh Co Ltd | Feeding device of assembly parts |
JP4646943B2 (en) * | 2004-07-13 | 2011-03-09 | パナソニック株式会社 | robot |
JP2007245326A (en) * | 2006-02-17 | 2007-09-27 | Toyota Motor Corp | Robot, and robot control method |
JP2016093879A (en) * | 2014-11-17 | 2016-05-26 | 富士通株式会社 | Gripping plan decision program, gripping plan determination method, and engineering support device |
JP6522488B2 (en) * | 2015-07-31 | 2019-05-29 | ファナック株式会社 | Machine learning apparatus, robot system and machine learning method for learning work taking-out operation |
-
2017
- 2017-01-25 JP JP2017011017A patent/JP6771744B2/en active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP4094906A1 (en) * | 2021-05-26 | 2022-11-30 | AyTec Automation GmbH | Gripping arrangement |
Also Published As
Publication number | Publication date |
---|---|
JP2018118343A (en) | 2018-08-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6771744B2 (en) | Handling system and controller | |
EP3284563B1 (en) | Picking system | |
US10870204B2 (en) | Robotic system control method and controller | |
JP6983524B2 (en) | Information processing equipment, information processing methods and programs | |
JP5685027B2 (en) | Information processing apparatus, object gripping system, robot system, information processing method, object gripping method, and program | |
JP6931457B2 (en) | Motion generation method, motion generator, system and computer program | |
JP7191569B2 (en) | gripping device | |
JP2019084601A (en) | Information processor, gripping system and information processing method | |
JP6697204B1 (en) | Robot system control method, non-transitory computer-readable recording medium, and robot system control device | |
CN110909644A (en) | Method and system for adjusting grabbing posture of mechanical arm end effector based on reinforcement learning | |
CN113858188A (en) | Industrial robot gripping method and apparatus, computer storage medium, and industrial robot | |
CN114025928A (en) | End effector control system and end effector control method | |
WO2019239563A1 (en) | Robot system | |
Zhu et al. | Robot performing peg-in-hole operations by learning from human demonstration | |
JP2022187983A (en) | Network modularization to learn high dimensional robot tasks | |
JP7353948B2 (en) | Robot system and robot system control method | |
JP7051751B2 (en) | Learning device, learning method, learning model, detection device and gripping system | |
JP2015182212A (en) | Robot system, robot, control device, and control method | |
CN116175542B (en) | Method, device, electronic equipment and storage medium for determining clamp grabbing sequence | |
JP4715296B2 (en) | Robot hand holding and gripping control method. | |
CN111470244B (en) | Control method and control device for robot system | |
JP2021061014A (en) | Learning device, learning method, learning model, detector, and gripping system | |
US20230098284A1 (en) | Method for generating training data for supervised learning for training a neural network | |
US20230415349A1 (en) | Method for controlling a robot for manipulating, in particular picking up, an object | |
JP7415013B2 (en) | Robotic device that detects interference between robot components |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190613 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20200227 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20200227 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200421 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200501 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200522 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200624 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200720 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200831 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200913 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6771744 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |