JP2021088019A - Robot system and method for controlling robot system - Google Patents
Robot system and method for controlling robot system Download PDFInfo
- Publication number
- JP2021088019A JP2021088019A JP2019218696A JP2019218696A JP2021088019A JP 2021088019 A JP2021088019 A JP 2021088019A JP 2019218696 A JP2019218696 A JP 2019218696A JP 2019218696 A JP2019218696 A JP 2019218696A JP 2021088019 A JP2021088019 A JP 2021088019A
- Authority
- JP
- Japan
- Prior art keywords
- gripping
- coordinates
- robot
- posture
- point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 30
- 238000004364 calculation method Methods 0.000 claims description 24
- 230000007246 mechanism Effects 0.000 claims description 18
- 238000003384 imaging method Methods 0.000 claims description 9
- 230000004044 response Effects 0.000 claims description 2
- 230000036544 posture Effects 0.000 description 36
- 230000008569 process Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 238000009826 distribution Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000010191 image analysis Methods 0.000 description 3
- 238000003860 storage Methods 0.000 description 3
- 238000007405 data analysis Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000010276 construction Methods 0.000 description 1
- 239000002537 cosmetic Substances 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 235000013305 food Nutrition 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 229940127554 medical product Drugs 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 230000002250 progressing effect Effects 0.000 description 1
- 239000011347 resin Substances 0.000 description 1
- 229920005989 resin Polymers 0.000 description 1
- 238000003466 welding Methods 0.000 description 1
Images
Landscapes
- Manipulator (AREA)
Abstract
Description
本発明は、ロボットシステム及びロボットシステムの制御方法に関する。 The present invention relates to a robot system and a control method for the robot system.
労働力不足を背景に、ロボット導入による人手作業の自動化が進んでいる。これまでも、工場における部品切削や溶接作業など定型的な作業の自動化が進んできた。今後さらに拡大し、建設現場、物流倉庫、食品、化粧品、医療品など多種の産業分野への応用が期待されている。 Against the background of labor shortage, automation of manual work is progressing by introducing robots. Until now, automation of routine work such as parts cutting and welding work in factories has progressed. It is expected to expand further in the future and be applied to various industrial fields such as construction sites, distribution warehouses, foods, cosmetics, and medical products.
一例として、物流倉庫における物品のピッキング作業自動化があげられる。ピッキング作業自動化ロボットでは、3次元カメラにより物品棚の3次元画像を取得し、目標商品の有無を画像認識により検出し、画像認識や予め登録された物品の3次元モデルデータと比較しながら把持座標を算出する。得られた把持座標に対して軌道を計算し、ピッキングを実行する。 One example is the automation of picking work of goods in a distribution warehouse. The picking work automation robot acquires a 3D image of the article shelf with a 3D camera, detects the presence or absence of the target product by image recognition, and grasps the coordinates while comparing with the image recognition and the 3D model data of the article registered in advance. Is calculated. The trajectory is calculated for the obtained gripping coordinates, and picking is executed.
ピッキング作業自動化における課題は、ロボットによるピッキング作業スループットが遅いことである。例えば、最先端の物流倉庫向けピッキングロボットにおいても、スループットは人間の熟練作業者に比べ半分程度に留まる。 The problem in picking work automation is that the picking work throughput by the robot is slow. For example, even in a state-of-the-art picking robot for a distribution warehouse, the throughput is only about half that of a skilled human worker.
ロボットの動作スループットが遅い要因の1つに、ロボット自体の動作速度が遅いことが挙げられる。3次元にばら積みされた任意姿勢の物品を把持するため、これまで垂直多関節型のロボットが多く用いられてきた。 One of the reasons why the operating throughput of the robot is slow is that the operating speed of the robot itself is slow. Up to now, vertical articulated robots have been often used to grip articles in arbitrary postures that are piled up in three dimensions.
垂直多関節型ロボットは多数の関節を備え、3次元空間で任意の姿勢になることが可能であり、3次元バラ積みピッキング用途で垂直多関節型のロボットが広く採用されてきた。一方、垂直多関節型ロボットは直列に接続された関節及び関節を制御するモータを1つずつ駆動し、最終的な座標に到達するように制御を行うため、関節数が多いほど制御に時間を要する。 A vertical articulated robot has a large number of joints and can be in an arbitrary posture in a three-dimensional space, and a vertical articulated robot has been widely adopted for three-dimensional bulk picking applications. On the other hand, the vertical articulated robot drives the joints connected in series and the motors that control the joints one by one, and controls so that the final coordinates are reached. Therefore, the larger the number of joints, the longer the control time. It takes.
また、垂直多関節ロボットでは、各関節が直列に接続されるため相互に作用するため、各関節の相互作用も含めて各関節モータの制御値を計算する必要があった。一般にこれらのモータ制御計算では解が複数存在し、それらの中から最もロボットにとって安全な姿勢になる解を選択する必要がある。こうした複数解の計算及び複数解を評価し最も安全姿勢の解を選択する計算に時間を要するため、ロボットの動作スループットは遅かった。 Further, in the vertical articulated robot, since each joint is connected in series and interacts with each other, it is necessary to calculate the control value of each joint motor including the interaction of each joint. Generally, there are multiple solutions in these motor control calculations, and it is necessary to select the solution that gives the safest posture for the robot from among them. The operating throughput of the robot was slow because it took time to calculate these multiple solutions and to evaluate the multiple solutions and select the solution with the safest posture.
垂直多関節ロボットに代わり、特許文献1のように、ロボットの腕を1本から複数の並列接続型に増やし、代わりに関節数を腕1本当たり1関節に減らしたリンク構造による高速ピッキング作業自動化技術が開発されている。
Instead of the vertical articulated robot, as in
こうした複数腕のロボットをリンクして並列に動作させるパラレルリンク型ロボットでは関節が並列に並ぶため、関節を並列に制御でき、各関節モータの制御を独立に行うことが出来る。関節間の相互作用の計算することなく計算できるため、ロボット単体の動作速度を垂直多関節型ロボットと比較して数倍高速化することができる。 In a parallel link type robot in which such robots with multiple arms are linked and operated in parallel, the joints are lined up in parallel, so that the joints can be controlled in parallel and each joint motor can be controlled independently. Since it can be calculated without calculating the interaction between joints, the operating speed of the robot alone can be increased several times faster than that of a vertical articulated robot.
特許文献1に記載されている複数腕を有するリンク構造ロボットによるピッキング作業自動化の課題は、動作可能な姿勢が限定されている点にある。垂直多関節型ロボットは3次元位置X、Y、Zの3方向と、3軸それぞれについての回転姿勢RX、RY、RZに動くことが出来る。
The problem of automating the picking work by the link structure robot having a plurality of arms described in
一方パラレルリンク型ロボットは並列に関節モータが接続されている機構上の制約により、X、Y、Zの3方向と、Z軸を中心とした回転姿勢であるRZしか動くことができない。そのため、3次元空間上で任意にばら積みされた物品を把持することができず、平積みされた箱形状の物品といったように応用範囲が限定されていた。 On the other hand, the parallel link type robot can move only in three directions of X, Y, and Z and RZ, which is a rotational posture about the Z axis, due to a mechanical restriction in which joint motors are connected in parallel. Therefore, it is not possible to grip the articles that are arbitrarily piled up in three-dimensional space, and the range of application is limited to the box-shaped articles that are stacked flat.
特許文献1の手法では、物体を把持する把持座標は動的に抽出されるものの、物体を解除する配置座標は固定的であった。このため、比較的大きな物体が斜めに配置された場合を想定して配置座標を固定的に設定した場合、平置きされた薄い物体に対しては、上空から物体の把持を解除してしまうことになる。この結果、物体を配置側の作業台に対してぶつけてしまうことになり、物体を破損してしまう恐れがあった。
In the method of
本発明の目的は、パラレルリンク型ロボットにおいて、物体を破損させないで3次元空間上で任意にばら積みされた物体を把持することが可能なロボットシステム及びロボットシステムの制御方法を提供することにある。 An object of the present invention is to provide a robot system in a parallel link type robot, and a robot system capable of grasping arbitrarily loosely stacked objects in a three-dimensional space without damaging the objects, and a control method for the robot system.
本発明の一態様のロボットシステムは、撮像部と制御部とを有するパラレルリンクロボットを用いたロボットシステムであって、前記パラレルリンクロボットは、回転可能なジョイント機構を備えたロボットハンドにより3次元的にばら積みされた物体を把持して把持側から配置側に移動させ、前記把持側では把持点において前記物体を把持し、前記配置側では配置点において前記物体を解除し、前記撮像部は、ばら積みされた前記物体の3次元画像を取得し、前記制御部は、前記3次元画像に基づいて、前記物体の姿勢と大きさを推定し、前記物体の前記姿勢と前記大きさの推定結果に基づき、前記把持点の把持座標から前記配置点の配置座標に向かう前記物体の軌道を動的に制御することを特徴とする。 The robot system of one aspect of the present invention is a robot system using a parallel link robot having an imaging unit and a control unit, and the parallel link robot is three-dimensional by a robot hand provided with a rotatable joint mechanism. The objects stacked in bulk are gripped and moved from the gripping side to the arrangement side, the object is gripped at the gripping point on the gripping side, the object is released at the arrangement point on the arrangement side, and the imaging unit is stacked in bulk. The three-dimensional image of the object is acquired, and the control unit estimates the posture and size of the object based on the three-dimensional image, and based on the estimation result of the posture and the size of the object. It is characterized in that the trajectory of the object from the gripping coordinates of the gripping point to the placement coordinates of the placement point is dynamically controlled.
本発明の一態様のロボットシステムの制御方法は、回転可能なジョイント機構を備えたロボットハンドにより3次元的にばら積みされた物体を把持して把持側から配置側に移動させるパラレルリンクロボットを用いたロボットシステムの制御方法であって、ばら積みされた前記物体の3次元画像を取得し、前記3次元画像に基づいて、前記物体の姿勢と大きさを推定し、前記把持側では、把持点において前記物体を把持し、前記配置側では、配置点において前記物体を解除し、前記物体の姿勢と大きさの推定結果に基づき、前記把持点の把持座標から前記配置点の配置座標に向かう前記物体の軌道を動的に制御することを特徴とする。 The control method of the robot system according to one aspect of the present invention uses a parallel link robot that grips three-dimensionally stacked objects by a robot hand provided with a rotatable joint mechanism and moves them from the gripping side to the placement side. It is a control method of a robot system, in which a three-dimensional image of the objects stacked in bulk is acquired, the posture and size of the object are estimated based on the three-dimensional image, and on the gripping side, the said at a gripping point. The object is gripped, and on the placement side, the object is released at the placement point, and the object moves from the gripping coordinates of the gripping point to the placement coordinates of the placement point based on the estimation result of the posture and size of the object. It is characterized by dynamically controlling the orbit.
本発明の一態様によれば、パラレルリンク型ロボットにおいて、物体を破損させないで3次元空間上で任意にばら積みされた物体を把持することができる。 According to one aspect of the present invention, in the parallel link type robot, it is possible to grip an object that is arbitrarily piled up in a three-dimensional space without damaging the object.
最初に、図1を参照して、関連技術のロボットシステムの制御方法について説明する。
図1は、関連技術の固定配置座標によるパラレルリンクロボットの3次元バラ積み物体の自律把持・配置システムの動作を示した図である。
図1に示すように、関連技術のパラレルリンクロボット101によるピッキング作業自動化システムは、パラレルリンクロボット本体101、ジョイント機構102を備えたロボットハンド103、3次元カメラ部109、3次元カメラデータに基づきロボット動作を計画し制御する把持座標推定部110を有する。
First, a method of controlling a robot system of a related technique will be described with reference to FIG.
FIG. 1 is a diagram showing the operation of an autonomous grasping / arranging system for three-dimensional bulk objects of a parallel link robot using fixed arrangement coordinates of related technologies.
As shown in FIG. 1, the picking work automation system by the
パラレルリンクロボット101のような動作方向が限定されたロボットにおいて、3次元的にばら積みされた物体111、112を把持及び整列配置可能にする。このため、3次元的に回転可能なジョイント機構102を備えたロボットハンド103を導入する。
In a robot having a limited operating direction such as the
パラレルリンクロボット101は、架台106に取り付けられ、自律移動することが出来ない。そのため、物体111、112は把持側コンベア107により配置側作業台108に搬送される。
The
しかし、関連技術の認識・制御方法では、把持座標104は把持座標推定部110において動的に抽出されるものの、配置座標105は固定的であった。従って、図1(a)に示すように、比較的大きな物体112が斜めに配置された場合を想定し配置座標105を固定的に設定した場合、平置きされた薄い物体111に対しては、図1(b)のように上空から把持を解除してしまうことになる。この結果、物体111を配置側作業台108に対してぶつけてしまうことになり、物体11が破損してしまう恐れがあった。
However, in the recognition / control method of the related technique, the
そこで、実施形態では、パラレルリンク型ロボットにおいて、物体を破損させないで3次元空間上で任意にばら積みされた物体を把持することが可能なロボットシステム及びロボットシステムの制御方法を提供する。 Therefore, in the embodiment, in the parallel link type robot, a robot system capable of grasping arbitrarily loosely stacked objects in a three-dimensional space without damaging the objects and a control method of the robot system are provided.
このため、実施形態は、自律制御機能及び回転可能なジョイント機構を備えたパラレルリンク型ロボットにおいて、3次元カメラによって撮像された3次元画像に基づき、物体把持位置及び配置位置の推定を行い、推定された把持位置に基づきロボット動作を制御する。 Therefore, in the embodiment, in the parallel link type robot provided with the autonomous control function and the rotatable joint mechanism, the object gripping position and the arrangement position are estimated and estimated based on the three-dimensional image captured by the three-dimensional camera. The robot operation is controlled based on the gripped position.
以下、図面を用いて実施例について説明する。 Hereinafter, examples will be described with reference to the drawings.
図2を参照して、実施例1のロボットシステムについて説明する。
図2に示すように、実施例1のパラレルリンクロボット101によるピッキング作業自動化システムは、パラレルリンクロボット本体101、ジョイント機構102を備えたロボットハンド103、撮像部を構成する3次元カメラ部109、3次元カメラデータに基づきロボット動作を計画し制御する認識制御部204を有する。
The robot system of the first embodiment will be described with reference to FIG.
As shown in FIG. 2, the picking work automation system by the
ジョイント機構102は、例えば、モータが内蔵され認識制御部204の指示により能動的に動作するモータ式ジョイント機構で構成される。尚、ジョイント機構102は、ゴムなどの柔軟性を有する機構や金属や樹脂製のボールを備え、外力に応じて受動的に変形するジョイント機構で構成しても良い。
The
パラレルリンクロボット101は、架台106に取り付けられ、自律移動することが出来ない。そのため、物体209は把持側コンベア107により配置側作業台108に搬送される。
The
認識制御部204は、3次元物体姿勢推定部205、3次元物体大きさ推定部206、把持点/配置点座標算出部207及び中間座標/動作速度算出部208を有する。
The
3次元物体姿勢推定部205は、3次元カメラ109から取得した3次元画像に基づいて、物体の姿勢を推定する。3次元物体大きさ推定部206は、物体の大きさを推定する。把持点/配置点座標算出部207は、推定された物体の姿勢と大きさに基づいて、物体の把持点の把持座標201と配置点の配置座標202を算出する。
The three-dimensional object
把持点/配置点座標算出部207は、把持側では、予め規定された複数の物体把持候補点の内、最も上面にありかつ把持可能領域が最も広い候補点を把持点の把持座標201として算出する。配置側では、物体209の姿勢と大きさに基づいて、物体209が破損しないような配置点の配置座標202を算出する。
On the gripping side, the gripping point / arrangement point coordinate
中間座標/動作速度算出部208は、中間座標算出部として機能し、物体209の姿勢と大きさに基づいて、把持点の把持座標201と配置点の配置座標202とを結ぶ中継点である中間座標203を動的に制御する。
The intermediate coordinate / operation
また、中間座標/動作速度算出部208は、動作速度算出部として機能し、推定された物体209の姿勢と大きさに基づいて、物体209を把持して把持側から配置側に移動させる移動速度を動的に制御する。
Further, the intermediate coordinate / operation
このように、認識制御部204は、把持するべき物体209を認識し、物体姿勢を推定することで、ロボットハンド(吸着パッド)103の把持座標201、吸着を解除し物体を整列配置する配置座標202及び把持座標201から配置座標202に到達するまでのロボット軌道210と動作速度を動的に制御する。
In this way, the
上述のように、実施例1のロボットシステムは、3次元カメラ109(撮像部)と認識制御部204(制御部)とを有するパラレルリンクロボット101を用いたロボットシステムである。パラレルリンクロボット101は、回転可能なジョイント機構102を備えたロボットハンド103により3次元的にばら積みされた物体209を把持して把持側から配置側に移動させる。
As described above, the robot system of the first embodiment is a robot system using a
把持側では把持点の把持座標201において物体209を把持し、配置側では配置点の配置座標202において物体209を解除する。
On the gripping side, the
3次元カメラ109(撮像部)は、ばら積みされた物体209の3次元画像を取得する。認識制御部204(制御部)は、3次元画像に基づいて、物体209の姿勢と大きさを推定し、物体209の姿勢と大きさの推定結果に基づき、把持点の把持座標201から配置点の配置座標202に向かう物体209の軌道210を動的に制御する。
The three-dimensional camera 109 (imaging unit) acquires a three-dimensional image of the bulk objects 209. The recognition control unit 204 (control unit) estimates the posture and size of the
ここで、認識制御部204(制御部)は、物体209の姿勢と大きさの推定結果に基づき、配置点の配置座標を可変に制御することにより、物体209の軌道210を動的に制御する。
Here, the recognition control unit 204 (control unit) dynamically controls the
認識制御部204は、3次元カメラ109から3次元画像データを取得し、3次元物体姿勢推定部205に伝送する。3次元カメラ109には、カラーカメラ2台で視差から深度を推定するステレオカメラ、赤外光などの特定波長の信号を照射し、物体表面で反射してセンサまで帰ってくる往復時間を計測し深度を推定するTime of Flightカメラあるいは深層学習などの手法により深度推定する単眼カメラ方式が挙げられる。
The
3次元カメラ109の出力である3次元画像データは2つのデータから成り、1つは画角内に写った物体表面とセンサ間の深度を集計した深度画像及びもう1つは特定波長で取得された画像データ(通常は可視広域で取得されたRGB画像)である。
The three-dimensional image data output from the three-
パラレルリンクロボット101は、架台106に取り付けられ、自律移動することが出来ない。そのため、物体209は把持側コンベア107により配置側作業台108に搬送される。従って、把持座標決定時には、3次元画像データを撮影したタイミングを取得し、認識及び制御処理による経過時間内にコンベア107による物体移動距離を加味したうえで目標座標を決定している。
The
例えば、認識制御部204から3次元カメラ109に向かって撮影タイミングを規定するトリガ信号を送信する。あるいは、3次元カメラ109から常に3次元画像データを認識制御部204に伝送し続け、認識制御部204で既定されたタイミングと同じタイミングで撮影された3次元画像データを選択し取得する。このようにして、撮像されたタイミングと認識処理終了時の時間差を推定し、搬送後の座標を推定することが出来る。
For example, the
このように、実施例1のロボットシステムでは、3次元カメラ109によりばら積み物体209の3次元データを取得し、認識制御部204にデータ伝送する。認識制御部204では、把持座標201のみを推定するだけに留まらず、物体の大きさを推定し配置座標202、中間座標203及び動作速度を算出する。
As described above, in the robot system of the first embodiment, the three-
そして、3次元カメラ109から得られた3次元画像データに基づき、まず対象物体の3次元位置・姿勢を推定する。同時に、3次元物体モデルを記憶領域から呼び出し、3次元物体の大きさを推定する。そして、3次元物体モデルに予め規定された複数の物体把持候補点の内、最も上面にあり把持可能領域が広い候補点を把持座標201として算出する。
Then, based on the 3D image data obtained from the
次に、3次元物体の大きさ情報と、3次元位置及び姿勢情報から、物体が配置面に対して緩やかに接触するような配置座標202の高さを算出する。そして、把持座標201と配置座標202を結ぶ中間座標203を算出し、物体の大きさ情報と属性情報から、把持物体を壊さない最上限のロボットの動作速度を算出して出力する。 Next, the height of the arrangement coordinates 202 such that the object gently contacts the arrangement surface is calculated from the size information of the three-dimensional object and the three-dimensional position and attitude information. Then, the intermediate coordinate 203 connecting the gripping coordinate 201 and the arrangement coordinate 202 is calculated, and the operating speed of the upper limit robot that does not break the gripping object is calculated and output from the size information and the attribute information of the object.
図3を参照して、認識制御部204の認識及び制御処理について説明する。
3次元カメラ109から3次元画像データの内、2次元画像のみが入力され、2次元画像解析により物体識別を行う(ステップ301)。取得した画像内の把持物体を認識し、それぞれの物体の種別を推定する。
The recognition and control processing of the
Of the 3D image data, only the 2D image is input from the
複数の物体が存在する場合は、ベルトコンベア107の最も進行方向に対して下流に存在する物体を把持対象として選定する。把持対象として選別されたワークの種別情報から、物体の3次元物体モデルを記憶領域から呼び出し、3次元位置姿勢推定を行う(ステップ302)。これにより、把持対象物体がベルトコンベア107上でどのような位置姿勢で存在するかを推定する。
When a plurality of objects exist, the object existing downstream of the most traveling direction of the
把持点算出部ステップ303では、複数候補の把持座標の内、把持候補点と把持可能領域を比較し、最も把持しやすい候補点では把持可能領域が広い候補点を把持点の把持座標201として算出する。
In the gripping point
図4に示すように、画角内401の把持対象物体に対して、複数の把持候補点402〜405が算出され、最も下流の物体の把持点である402、403同士を最終的な候補点選定のために比較する。
As shown in FIG. 4, a plurality of gripping candidate points 402 to 405 are calculated for the gripping target object within the angle of
図4に示したように、把持点402と把持点403とでは、把持点402の方がより把持可能領域が広くフラットであるため、最終的な把持点の把持座標201として把持点402の座標を出力する。把持可能領域は、予め物体の3次元モデルに情報として入れ込んでおく。もしくは、2次元画像を用いた機械学習により帰納的に求めてもよい。
As shown in FIG. 4, at the
把持点の把持座標201に対してさらに、3次元位置姿勢推定ステップ302にて物体の回転姿勢が求まっているので、Z軸の回転姿勢(RZ)も付与してパラレルリンクロボット101に出力する。
Since the rotational posture of the object is obtained in the three-dimensional position
物体配置座標推定ステップ304では、物体識別ステップ301で得られた物体識別情報、3次元位置姿勢推定ステップ302及び把持点算出ステップ303で得られた物体の把持座標201と物体の回転姿勢を用いて、配置座標202を計算する。
In the object placement coordinate
例として、図5に示すように、物体識別情報により、物体209の大きさL1(503)、物体の大きさL2(502)と把持した把持座標(501:点A)とを用いることで、剛体であれば物体209のうち最もコンベアに近い点である点C(507)を計算することが出来る。
As an example, as shown in FIG. 5, by using the size L1 (503) of the
把持座標点A(501)は事前に物体209の3次元モデルに対して既定された点であることから、物体209の把持からの距離L3(504)を求めることができる。通常は、物体209の重心になるように、L3=L1/2となるように設定される。物体209の把持の座標点である点B(506)の座標は、L3(504)及び3次元回転角θ(505)を用いることで、(X+L3cosθ,Y,Z−L3sinθ)として計算できる(510)。
Since the grip coordinate point A (501) is a point predetermined for the three-dimensional model of the
物体209の中で最もコンベア面に近い点C(507)の座標も同様に計算することができ、(X+L3cosθ−L2sinθ,Y,Z−L3sinθ−L2cosθ)として算出できる。
The coordinates of the point C (507) closest to the conveyor surface in the
よって、物体209のコンベア面までの高さH(508)はH=Z−L3sinθ−L2cosθである。従って配置座標(点D:509)は基準座標(X’、Y’、Z’)に対して、算出した高さH(508)を用いることで、配置座標(509)は(X’、Y’、Z’−H)として求めることができる。
Therefore, the height H (508) of the
このようにすることで、物体の姿勢や大きさに合わせて配置座標が動的に制御されるため、物体を壊すことなく安全に配置することが出来る。なお、配置座標の算出方法は特に上述の手法に限定されるものではなく、深層学習等の機能的な機械学習手法と組み合わせて計算しても良い。 By doing so, the arrangement coordinates are dynamically controlled according to the posture and size of the object, so that the object can be arranged safely without being damaged. The method of calculating the arrangement coordinates is not particularly limited to the above-mentioned method, and may be calculated in combination with a functional machine learning method such as deep learning.
中継点算出ステップ305では、把持座標201と配置座標202を入力として、中間座標203を計算する。図6に示すように、中間座標203は把持座標201と配置座標202の中間になるように設定される。
In the relay
図6(b)に示すように、低い把持座標601及び配置座標603に対しては、低い中間座標602が設定される。また、中間座標203、602は常にパラレルリンクロボット101が3次元カメラ109の視界を遮らないように設定される。
As shown in FIG. 6B, the low
また、障害物と干渉を避ける目的で座標の最大値及び最小値の範囲を予め制限する。また、中間座標203、602は1点とは限らず複数の座標点が存在しても良い。
In addition, the range of the maximum value and the minimum value of the coordinates is limited in advance for the purpose of avoiding interference with obstacles. Further, the
このように、中継点算出ステップ305では、推定された物体の姿勢と大きさに基づいて、把持座標201、601と配置座標202、603とを結ぶ中継点である中間座標203、602を動的に制御する。
As described above, in the relay
ロボット動作速度算出ステップ306では、パラレルリンクロボット101の搬送速度を制御する。物体識別結果及び姿勢推定結果を入力とし、予め登録された吸着し辛いものや重いもの、あるいは姿勢が急こう配な物体や、中間座標203がコンベア面に対して高い位置にある点については、搬送速度を遅くすることで搬送精度を高める処理を行う。
In the robot operation
このように、ロボット動作速度算出ステップ306は、推定された物体の姿勢と大きさに基づいて、物体を把持して把持側のコンベア107から配置側作業台108に移動させる移動速度を動的に制御する。
In this way, the robot operation
ロボット制御ステップ307では、これまで計算された把持座標201と姿勢(RZ)、配置座標202、中間座標203、602及び搬送速度を入力変数として受け取り、予め規定されたロボット制御プログラム内の各種変数に代入することでロボット制御プログラムを完成させて処理を実行する。
In the
図7を参照して、実施例1のロボットシステムの制御方法について説明する。
最初に、3次元カメラ109によりばら積み物体を撮像して3次元データを取得する(S1)。
次に、CNNなどの2次元画像解析を行う(S2)。そして、物体の種別を出力する(S3)。このように、2次元画像解析(S2)では物体の種別を認識し、物体種別を出力しバッファに記憶する(S3)。画像認識技術としては、Convolutional Neural Network(CNN)やテンプレートマッチングなどの手法が一般的である。
The control method of the robot system of the first embodiment will be described with reference to FIG. 7.
First, the bulk objects are imaged by the three-
Next, two-dimensional image analysis such as CNN is performed (S2). Then, the type of the object is output (S3). In this way, the two-dimensional image analysis (S2) recognizes the type of the object, outputs the object type, and stores it in the buffer (S3). As an image recognition technique, methods such as Convolutional Neural Network (CNN) and template matching are common.
次に、最も下流の物体を把持対象物体として選定する(S4)。そして、3次元物体モデルを取得する(S5)。そして、3次元データ解析(例:ICP法)を行う(S6)。このように、予め作成され記憶領域に保存されたモデルデータを呼び出し(S5)、3次元データ解析(S6)を実施する。 Next, the most downstream object is selected as the object to be gripped (S4). Then, a three-dimensional object model is acquired (S5). Then, three-dimensional data analysis (example: ICP method) is performed (S6). In this way, the model data created in advance and stored in the storage area is called (S5), and the three-dimensional data analysis (S6) is performed.
モデルデータを移動及び回転させながら3次元画像データ内との相関度を繰り返し求め、最も相関度の高い位置座標・回転姿勢を求めるIterative Closest Point(ICP)法や、最近では3次元データから把持候補座標点を深層学習により直接算出する方式により、把持対象物体の回転姿勢を求める。 The Italian Closet Point (ICP) method, which repeatedly obtains the degree of correlation with the 3D image data while moving and rotating the model data to obtain the position coordinates and rotation posture with the highest degree of correlation, and recently, candidates for grasping from the 3D data. The rotational posture of the object to be gripped is obtained by a method of directly calculating the coordinate points by deep learning.
次に、物体の姿勢を出力する(S7)。そして、把持候補点を出力する(S8)。次に、把持領域の最も広い把持点を選択する(S9)。そして、把持点の座標201を出力する(S10)。この時、物体に予め規定された把持候補点も出力(S8)し、把持可能領域を比較し(S9)、最も把持領域の広い把持点を出力する(S10)。そして、配置点の配置座標202を算出する(S11)
次に、中継点203を算出(S12)。そして、ロボット動作速度を算出する(S13)。そして、算出した座標とロボット指令を出力する(S14)。次に、ロボット動作と物体の把持及び配置を行う(S15)。
Next, the posture of the object is output (S7). Then, the gripping candidate point is output (S8). Next, the widest gripping point in the gripping area is selected (S9). Then, the
Next, the
最後に、物体の把持及び配置が完了したかどうかを判定する(S16)。判定の結果、物体の把持及び配置が完了した場合は終了となる。一方、判定の結果、物体の把持及び配置が完了していない場合は、S1に戻る。 Finally, it is determined whether or not the gripping and placement of the object is completed (S16). As a result of the determination, when the grasping and arranging of the object is completed, the process ends. On the other hand, as a result of the determination, if the gripping and arranging of the object is not completed, the process returns to S1.
図8を参照して、実施例2のロボットシステムについて説明する。
実施例2のロボットシステムは、図2に示す実施例1のロボットシステムの認識制御部204を、認識演算処理装置801とロボット制御コントローラ802とに分離したシステムである。その他の構成は、図2に示す実施例1のロボットシステムの構成と同じなのでその説明は省略する。
The robot system of the second embodiment will be described with reference to FIG.
The robot system of the second embodiment is a system in which the
ロボット制御コントローラ802として分離した場合、3次元カメラ109の撮像タイミングはパラレルリンクロボット101からインタフェース(図示せず)を介して認識演算処理装置801に送信される。インタフェースのリアルタイム性が保証されない場合、トリガ信号到達時間のバラつきも見込んで把持座標201を決定する必要がある。
When separated as the
上記実施例によれば、パラレルリンクロボットにおいても3次元的にバラ積みされた物品を把持及び整列配置出来るようになる。この結果、従来困難であったパラレルリンクロボットによるばら積みピッキングを実現可能とすることができる。さらに、垂直多関節型ロボットによる自動化と比較し、作業スループットを高速化することができる。 According to the above embodiment, the parallel link robot can also grasp and align the articles piled up three-dimensionally in bulk. As a result, it is possible to realize bulk picking by a parallel link robot, which has been difficult in the past. Furthermore, the work throughput can be increased as compared with the automation by the vertical articulated robot.
101 パラレルリンクロボット
102 回転ジョイント
103 ロボットハンド
109 3次元カメラ
107 把持側ベルトコンベア
108 配置側作業台
204 認識制御部
205 3次元物体姿勢推定部
206 3次元物体大きさ推定部
207 把持点/配置点座標算出部
208 中間座標/動作速度算出部
209 物体
801 認識演算処理装置
802 ロボット制御コントローラ
101
Claims (13)
前記パラレルリンクロボットは、
回転可能なジョイント機構を備えたロボットハンドにより3次元的にばら積みされた物体を把持して把持側から配置側に移動させ、
前記把持側では把持点において前記物体を把持し、前記配置側では配置点において前記物体を解除し、
前記撮像部は、
ばら積みされた前記物体の3次元画像を取得し、
前記制御部は、
前記3次元画像に基づいて、前記物体の姿勢と大きさを推定し、
前記物体の前記姿勢と前記大きさの推定結果に基づき、前記把持点の把持座標から前記配置点の配置座標に向かう前記物体の軌道を動的に制御することを特徴とするロボットシステム。 A robot system that uses a parallel link robot that has an imaging unit and a control unit.
The parallel link robot
A robot hand equipped with a rotatable joint mechanism grips three-dimensionally bulked objects and moves them from the grip side to the placement side.
On the gripping side, the object is gripped at the gripping point, and on the placement side, the object is released at the placement point.
The imaging unit
Acquire a three-dimensional image of the object piled up in bulk,
The control unit
Based on the three-dimensional image, the posture and size of the object are estimated, and
A robot system characterized in that the trajectory of the object from the gripping coordinates of the gripping point to the placement coordinates of the placement point is dynamically controlled based on the estimation result of the posture and the size of the object.
前記物体の前記姿勢と前記大きさの推定結果に基づき、前記配置座標を可変に制御することにより、前記物体の軌道を動的に制御することを特徴とする請求項1に記載のロボットシステム。 The control unit
The robot system according to claim 1, wherein the trajectory of the object is dynamically controlled by variably controlling the arrangement coordinates based on the estimation result of the posture and the size of the object.
前記制御部は、
前記3次元カメラから取得した前記3次元画像に基づいて、前記物体の前記姿勢を推定する3次元物体姿勢推定部と、
前記物体の前記大きさを推定する3次元物体大きさ推定部と、
推定された前記物体の前記姿勢と前記大きさに基づいて、前記物体の前記把持座標と前記配置座標を算出する把持点/配置点座標算出部と、
を有することを特徴とする請求項1に記載のロボットシステム。 The imaging unit is composed of a three-dimensional camera.
The control unit
A three-dimensional object posture estimation unit that estimates the posture of the object based on the three-dimensional image acquired from the three-dimensional camera, and a three-dimensional object posture estimation unit.
A three-dimensional object size estimation unit that estimates the size of the object,
A gripping point / placement point coordinate calculation unit that calculates the gripping coordinates and the placement coordinates of the object based on the estimated posture and size of the object.
The robot system according to claim 1, wherein the robot system comprises.
前記把持側では、予め規定された複数の物体把持候補点の内、最も上面にありかつ把持可能領域が最も広い候補点を前記把持座標として算出し、
前記配置側では、推定された前記物体の前記姿勢と前記大きさに基づいて、前記物体が破損しないような前記配置座標を算出することを特徴とする請求項3に記載のロボットシステム。 The gripping point / arrangement point coordinate calculation unit
On the gripping side, among a plurality of predetermined object gripping candidate points, the candidate point on the uppermost surface and the widest gripping area is calculated as the gripping coordinates.
The robot system according to claim 3, wherein on the arrangement side, the arrangement coordinates so as not to damage the object are calculated based on the estimated posture and size of the object.
推定された前記物体の前記姿勢と前記大きさに基づいて、前記把持座標と前記配置座標とを結ぶ中継点である中間座標を動的に制御する中間座標算出部を更に有することを特徴とする請求項1に記載のロボットシステム。 The control unit
It is characterized by further having an intermediate coordinate calculation unit that dynamically controls intermediate coordinates, which are relay points connecting the gripped coordinates and the arranged coordinates, based on the estimated posture and the size of the object. The robot system according to claim 1.
推定された前記物体の前記姿勢と前記大きさに基づいて、前記物体を把持して前記把持側から前記配置側に移動させる移動速度を動的に制御する動作速度算出部を更に有することを特徴とする請求項1に記載のロボットシステム。 The control unit
It is further characterized by further having an operation speed calculation unit that dynamically controls the movement speed of grasping the object and moving it from the gripping side to the arrangement side based on the estimated posture and the size of the object. The robot system according to claim 1.
前記制御部の指示により能動的に動作するモータ式ジョイント機構で構成されることを特徴とする請求項1に記載のロボットシステム。 The joint mechanism is
The robot system according to claim 1, further comprising a motor-type joint mechanism that actively operates according to an instruction from the control unit.
外力に応じて受動的に変形するソフトジョイント機構で構成されることを特徴とする請求項1に記載のロボットシステム。 The joint mechanism is
The robot system according to claim 1, further comprising a soft joint mechanism that passively deforms in response to an external force.
前記物体はコンベアにより搬送されることを特徴とする請求項1に記載のロボットシステム。 The parallel link robot is mounted on a gantry and
The robot system according to claim 1, wherein the object is conveyed by a conveyor.
ばら積みされた前記物体の3次元画像を取得し、
前記3次元画像に基づいて、前記物体の姿勢と大きさを推定し、
前記把持側では、把持点において前記物体を把持し、
前記配置側では、配置点において前記物体を解除し、
前記物体の姿勢と大きさの推定結果に基づき、前記把持点から把持座標から前記配置点の配置座標に向かう前記物体の軌道を動的に制御することを特徴とするロボットシステムの制御方法。 It is a control method of a robot system using a parallel link robot that grips three-dimensionally bulked objects by a robot hand equipped with a rotatable joint mechanism and moves them from the gripping side to the placement side.
Acquire a three-dimensional image of the object piled up in bulk,
Based on the three-dimensional image, the posture and size of the object are estimated, and
On the gripping side, the object is gripped at the gripping point.
On the placement side, the object is released at the placement point,
A control method for a robot system, which dynamically controls the trajectory of the object from the gripping point to the placement coordinates of the placement point based on the estimation result of the posture and size of the object.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019218696A JP7353948B2 (en) | 2019-12-03 | 2019-12-03 | Robot system and robot system control method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019218696A JP7353948B2 (en) | 2019-12-03 | 2019-12-03 | Robot system and robot system control method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021088019A true JP2021088019A (en) | 2021-06-10 |
JP7353948B2 JP7353948B2 (en) | 2023-10-02 |
Family
ID=76218888
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019218696A Active JP7353948B2 (en) | 2019-12-03 | 2019-12-03 | Robot system and robot system control method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7353948B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102022001851A1 (en) | 2021-05-25 | 2022-12-01 | Mitutoyo Corporation | microscope unit |
WO2023209827A1 (en) * | 2022-04-26 | 2023-11-02 | ファナック株式会社 | Robot, robot control device, and work robot system |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012171039A (en) * | 2011-02-21 | 2012-09-10 | Fanuc Ltd | Conveying device for rod |
-
2019
- 2019-12-03 JP JP2019218696A patent/JP7353948B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012171039A (en) * | 2011-02-21 | 2012-09-10 | Fanuc Ltd | Conveying device for rod |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102022001851A1 (en) | 2021-05-25 | 2022-12-01 | Mitutoyo Corporation | microscope unit |
WO2023209827A1 (en) * | 2022-04-26 | 2023-11-02 | ファナック株式会社 | Robot, robot control device, and work robot system |
Also Published As
Publication number | Publication date |
---|---|
JP7353948B2 (en) | 2023-10-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5778311B1 (en) | Picking apparatus and picking method | |
EP3222393B1 (en) | Automated guidance system and method for a coordinated movement machine | |
US11396101B2 (en) | Operating system, control device, and computer program product | |
US11701777B2 (en) | Adaptive grasp planning for bin picking | |
WO2018092860A1 (en) | Interference avoidance device | |
Rolley-Parnell et al. | Bi-manual articulated robot teleoperation using an external RGB-D range sensor | |
US20210031373A1 (en) | Robotic manipulators | |
US10759051B2 (en) | Architecture and methods for robotic mobile manipulation system | |
KR101743926B1 (en) | Robot and control method thereof | |
CN114728412A (en) | Optimization of motion path of robot using visual data | |
WO2018185861A1 (en) | Control device, picking system, distribution system, program, and control method | |
JP2021003801A (en) | Robot system control method and control device | |
JP5618067B2 (en) | Bulk picking apparatus and method | |
JP7353948B2 (en) | Robot system and robot system control method | |
Tsarouchi et al. | Vision system for robotic handling of randomly placed objects | |
TW202321847A (en) | Robotic system to control multiple robots to perform a task cooperatively | |
JP2021024002A (en) | Article conveyance system having plurality of movable parts | |
JP2012135820A (en) | Automatic picking device and automatic picking method | |
D’Avella et al. | Supervised stowing as enabling technology for the integration of impaired operators in the industry | |
CN109641706B (en) | Goods picking method and system, and holding and placing system and robot applied to goods picking method and system | |
JP7034971B2 (en) | Actuation systems, controls, and programs | |
KR101197125B1 (en) | Object picking system and object picking method | |
WO2022014133A1 (en) | Mobile manipulator, method for controlling same, program | |
US20240051134A1 (en) | Controller, robot system and learning device | |
Rastegarpanah et al. | Autonomous vision-guided bi-manual grasping and manipulation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220420 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230228 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230404 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230512 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230905 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230920 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7353948 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |