JP2021088019A - Robot system and method for controlling robot system - Google Patents

Robot system and method for controlling robot system Download PDF

Info

Publication number
JP2021088019A
JP2021088019A JP2019218696A JP2019218696A JP2021088019A JP 2021088019 A JP2021088019 A JP 2021088019A JP 2019218696 A JP2019218696 A JP 2019218696A JP 2019218696 A JP2019218696 A JP 2019218696A JP 2021088019 A JP2021088019 A JP 2021088019A
Authority
JP
Japan
Prior art keywords
gripping
coordinates
robot
posture
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019218696A
Other languages
Japanese (ja)
Other versions
JP7353948B2 (en
Inventor
敦丈 小菅
Atsutake Kosuge
敦丈 小菅
俊 大島
Takashi Oshima
俊 大島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2019218696A priority Critical patent/JP7353948B2/en
Publication of JP2021088019A publication Critical patent/JP2021088019A/en
Application granted granted Critical
Publication of JP7353948B2 publication Critical patent/JP7353948B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

To provide a parallel link type robot that can grip an object piled in bulk arbitrarily on a three-dimensional space without damaging the object.SOLUTION: A robot system estimates a posture and a size of an object on the basis of a three-dimensional image, and dynamically controls a trajectory of the object from a gripping coordinate of a gripping point toward a disposing coordinate of a disposing point on the basis of an estimated result of the posture and the size of the object.SELECTED DRAWING: Figure 2

Description

本発明は、ロボットシステム及びロボットシステムの制御方法に関する。 The present invention relates to a robot system and a control method for the robot system.

労働力不足を背景に、ロボット導入による人手作業の自動化が進んでいる。これまでも、工場における部品切削や溶接作業など定型的な作業の自動化が進んできた。今後さらに拡大し、建設現場、物流倉庫、食品、化粧品、医療品など多種の産業分野への応用が期待されている。 Against the background of labor shortage, automation of manual work is progressing by introducing robots. Until now, automation of routine work such as parts cutting and welding work in factories has progressed. It is expected to expand further in the future and be applied to various industrial fields such as construction sites, distribution warehouses, foods, cosmetics, and medical products.

一例として、物流倉庫における物品のピッキング作業自動化があげられる。ピッキング作業自動化ロボットでは、3次元カメラにより物品棚の3次元画像を取得し、目標商品の有無を画像認識により検出し、画像認識や予め登録された物品の3次元モデルデータと比較しながら把持座標を算出する。得られた把持座標に対して軌道を計算し、ピッキングを実行する。 One example is the automation of picking work of goods in a distribution warehouse. The picking work automation robot acquires a 3D image of the article shelf with a 3D camera, detects the presence or absence of the target product by image recognition, and grasps the coordinates while comparing with the image recognition and the 3D model data of the article registered in advance. Is calculated. The trajectory is calculated for the obtained gripping coordinates, and picking is executed.

ピッキング作業自動化における課題は、ロボットによるピッキング作業スループットが遅いことである。例えば、最先端の物流倉庫向けピッキングロボットにおいても、スループットは人間の熟練作業者に比べ半分程度に留まる。 The problem in picking work automation is that the picking work throughput by the robot is slow. For example, even in a state-of-the-art picking robot for a distribution warehouse, the throughput is only about half that of a skilled human worker.

ロボットの動作スループットが遅い要因の1つに、ロボット自体の動作速度が遅いことが挙げられる。3次元にばら積みされた任意姿勢の物品を把持するため、これまで垂直多関節型のロボットが多く用いられてきた。 One of the reasons why the operating throughput of the robot is slow is that the operating speed of the robot itself is slow. Up to now, vertical articulated robots have been often used to grip articles in arbitrary postures that are piled up in three dimensions.

垂直多関節型ロボットは多数の関節を備え、3次元空間で任意の姿勢になることが可能であり、3次元バラ積みピッキング用途で垂直多関節型のロボットが広く採用されてきた。一方、垂直多関節型ロボットは直列に接続された関節及び関節を制御するモータを1つずつ駆動し、最終的な座標に到達するように制御を行うため、関節数が多いほど制御に時間を要する。 A vertical articulated robot has a large number of joints and can be in an arbitrary posture in a three-dimensional space, and a vertical articulated robot has been widely adopted for three-dimensional bulk picking applications. On the other hand, the vertical articulated robot drives the joints connected in series and the motors that control the joints one by one, and controls so that the final coordinates are reached. Therefore, the larger the number of joints, the longer the control time. It takes.

また、垂直多関節ロボットでは、各関節が直列に接続されるため相互に作用するため、各関節の相互作用も含めて各関節モータの制御値を計算する必要があった。一般にこれらのモータ制御計算では解が複数存在し、それらの中から最もロボットにとって安全な姿勢になる解を選択する必要がある。こうした複数解の計算及び複数解を評価し最も安全姿勢の解を選択する計算に時間を要するため、ロボットの動作スループットは遅かった。 Further, in the vertical articulated robot, since each joint is connected in series and interacts with each other, it is necessary to calculate the control value of each joint motor including the interaction of each joint. Generally, there are multiple solutions in these motor control calculations, and it is necessary to select the solution that gives the safest posture for the robot from among them. The operating throughput of the robot was slow because it took time to calculate these multiple solutions and to evaluate the multiple solutions and select the solution with the safest posture.

垂直多関節ロボットに代わり、特許文献1のように、ロボットの腕を1本から複数の並列接続型に増やし、代わりに関節数を腕1本当たり1関節に減らしたリンク構造による高速ピッキング作業自動化技術が開発されている。 Instead of the vertical articulated robot, as in Patent Document 1, the robot's arms are increased from one to a plurality of parallel connection types, and instead the number of joints is reduced to one joint per arm to automate high-speed picking work. Technology is being developed.

こうした複数腕のロボットをリンクして並列に動作させるパラレルリンク型ロボットでは関節が並列に並ぶため、関節を並列に制御でき、各関節モータの制御を独立に行うことが出来る。関節間の相互作用の計算することなく計算できるため、ロボット単体の動作速度を垂直多関節型ロボットと比較して数倍高速化することができる。 In a parallel link type robot in which such robots with multiple arms are linked and operated in parallel, the joints are lined up in parallel, so that the joints can be controlled in parallel and each joint motor can be controlled independently. Since it can be calculated without calculating the interaction between joints, the operating speed of the robot alone can be increased several times faster than that of a vertical articulated robot.

特開2019−058979号公報Japanese Unexamined Patent Publication No. 2019-058979

特許文献1に記載されている複数腕を有するリンク構造ロボットによるピッキング作業自動化の課題は、動作可能な姿勢が限定されている点にある。垂直多関節型ロボットは3次元位置X、Y、Zの3方向と、3軸それぞれについての回転姿勢RX、RY、RZに動くことが出来る。 The problem of automating the picking work by the link structure robot having a plurality of arms described in Patent Document 1 is that the movable posture is limited. The vertical articulated robot can move in three directions of three-dimensional positions X, Y, and Z, and in rotational postures RX, RY, and RZ for each of the three axes.

一方パラレルリンク型ロボットは並列に関節モータが接続されている機構上の制約により、X、Y、Zの3方向と、Z軸を中心とした回転姿勢であるRZしか動くことができない。そのため、3次元空間上で任意にばら積みされた物品を把持することができず、平積みされた箱形状の物品といったように応用範囲が限定されていた。 On the other hand, the parallel link type robot can move only in three directions of X, Y, and Z and RZ, which is a rotational posture about the Z axis, due to a mechanical restriction in which joint motors are connected in parallel. Therefore, it is not possible to grip the articles that are arbitrarily piled up in three-dimensional space, and the range of application is limited to the box-shaped articles that are stacked flat.

特許文献1の手法では、物体を把持する把持座標は動的に抽出されるものの、物体を解除する配置座標は固定的であった。このため、比較的大きな物体が斜めに配置された場合を想定して配置座標を固定的に設定した場合、平置きされた薄い物体に対しては、上空から物体の把持を解除してしまうことになる。この結果、物体を配置側の作業台に対してぶつけてしまうことになり、物体を破損してしまう恐れがあった。 In the method of Patent Document 1, the gripping coordinates for gripping the object are dynamically extracted, but the arrangement coordinates for releasing the object are fixed. For this reason, if the placement coordinates are fixedly set assuming that a relatively large object is placed diagonally, the holding of the object will be released from the sky for a thin object placed flat. become. As a result, the object is hit against the work table on the placement side, and there is a risk of damaging the object.

本発明の目的は、パラレルリンク型ロボットにおいて、物体を破損させないで3次元空間上で任意にばら積みされた物体を把持することが可能なロボットシステム及びロボットシステムの制御方法を提供することにある。 An object of the present invention is to provide a robot system in a parallel link type robot, and a robot system capable of grasping arbitrarily loosely stacked objects in a three-dimensional space without damaging the objects, and a control method for the robot system.

本発明の一態様のロボットシステムは、撮像部と制御部とを有するパラレルリンクロボットを用いたロボットシステムであって、前記パラレルリンクロボットは、回転可能なジョイント機構を備えたロボットハンドにより3次元的にばら積みされた物体を把持して把持側から配置側に移動させ、前記把持側では把持点において前記物体を把持し、前記配置側では配置点において前記物体を解除し、前記撮像部は、ばら積みされた前記物体の3次元画像を取得し、前記制御部は、前記3次元画像に基づいて、前記物体の姿勢と大きさを推定し、前記物体の前記姿勢と前記大きさの推定結果に基づき、前記把持点の把持座標から前記配置点の配置座標に向かう前記物体の軌道を動的に制御することを特徴とする。 The robot system of one aspect of the present invention is a robot system using a parallel link robot having an imaging unit and a control unit, and the parallel link robot is three-dimensional by a robot hand provided with a rotatable joint mechanism. The objects stacked in bulk are gripped and moved from the gripping side to the arrangement side, the object is gripped at the gripping point on the gripping side, the object is released at the arrangement point on the arrangement side, and the imaging unit is stacked in bulk. The three-dimensional image of the object is acquired, and the control unit estimates the posture and size of the object based on the three-dimensional image, and based on the estimation result of the posture and the size of the object. It is characterized in that the trajectory of the object from the gripping coordinates of the gripping point to the placement coordinates of the placement point is dynamically controlled.

本発明の一態様のロボットシステムの制御方法は、回転可能なジョイント機構を備えたロボットハンドにより3次元的にばら積みされた物体を把持して把持側から配置側に移動させるパラレルリンクロボットを用いたロボットシステムの制御方法であって、ばら積みされた前記物体の3次元画像を取得し、前記3次元画像に基づいて、前記物体の姿勢と大きさを推定し、前記把持側では、把持点において前記物体を把持し、前記配置側では、配置点において前記物体を解除し、前記物体の姿勢と大きさの推定結果に基づき、前記把持点の把持座標から前記配置点の配置座標に向かう前記物体の軌道を動的に制御することを特徴とする。 The control method of the robot system according to one aspect of the present invention uses a parallel link robot that grips three-dimensionally stacked objects by a robot hand provided with a rotatable joint mechanism and moves them from the gripping side to the placement side. It is a control method of a robot system, in which a three-dimensional image of the objects stacked in bulk is acquired, the posture and size of the object are estimated based on the three-dimensional image, and on the gripping side, the said at a gripping point. The object is gripped, and on the placement side, the object is released at the placement point, and the object moves from the gripping coordinates of the gripping point to the placement coordinates of the placement point based on the estimation result of the posture and size of the object. It is characterized by dynamically controlling the orbit.

本発明の一態様によれば、パラレルリンク型ロボットにおいて、物体を破損させないで3次元空間上で任意にばら積みされた物体を把持することができる。 According to one aspect of the present invention, in the parallel link type robot, it is possible to grip an object that is arbitrarily piled up in a three-dimensional space without damaging the object.

関連技術のロボットシステムを示す図である。It is a figure which shows the robot system of the related technology. 実施例1のロボットシステムを示す図である。It is a figure which shows the robot system of Example 1. FIG. 認識制御部の認識及び制御処理を示す図である。It is a figure which shows the recognition and control processing of a recognition control part. 3次元カメラの画角と物体把持座標候補点を示した図である。It is a figure which showed the angle of view of a 3D camera and the candidate point of the object gripping coordinate. パラレルリンクロボットの目標座標及び動作軌道を示した図である。It is a figure which showed the target coordinates and the motion trajectory of a parallel link robot. パラレルリンクロボットの中間座標及び動作軌道を示した図である。It is a figure which showed the intermediate coordinates and the motion trajectory of a parallel link robot. 実施例1のロボットシステムの制御方法を示すフローチャート図である。It is a flowchart which shows the control method of the robot system of Example 1. FIG. 実施例2のロボットシステムを示す図である。It is a figure which shows the robot system of Example 2.

最初に、図1を参照して、関連技術のロボットシステムの制御方法について説明する。
図1は、関連技術の固定配置座標によるパラレルリンクロボットの3次元バラ積み物体の自律把持・配置システムの動作を示した図である。
図1に示すように、関連技術のパラレルリンクロボット101によるピッキング作業自動化システムは、パラレルリンクロボット本体101、ジョイント機構102を備えたロボットハンド103、3次元カメラ部109、3次元カメラデータに基づきロボット動作を計画し制御する把持座標推定部110を有する。
First, a method of controlling a robot system of a related technique will be described with reference to FIG.
FIG. 1 is a diagram showing the operation of an autonomous grasping / arranging system for three-dimensional bulk objects of a parallel link robot using fixed arrangement coordinates of related technologies.
As shown in FIG. 1, the picking work automation system by the parallel link robot 101 of the related technology is a robot based on the robot hand 103 including the parallel link robot main body 101 and the joint mechanism 102, the three-dimensional camera unit 109, and the three-dimensional camera data. It has a gripping coordinate estimation unit 110 that plans and controls the operation.

パラレルリンクロボット101のような動作方向が限定されたロボットにおいて、3次元的にばら積みされた物体111、112を把持及び整列配置可能にする。このため、3次元的に回転可能なジョイント機構102を備えたロボットハンド103を導入する。 In a robot having a limited operating direction such as the parallel link robot 101, objects 111 and 112 stacked in three dimensions can be gripped and aligned. Therefore, a robot hand 103 provided with a joint mechanism 102 that can rotate three-dimensionally is introduced.

パラレルリンクロボット101は、架台106に取り付けられ、自律移動することが出来ない。そのため、物体111、112は把持側コンベア107により配置側作業台108に搬送される。 The parallel link robot 101 is attached to the gantry 106 and cannot move autonomously. Therefore, the objects 111 and 112 are conveyed to the arrangement side work table 108 by the grip side conveyor 107.

しかし、関連技術の認識・制御方法では、把持座標104は把持座標推定部110において動的に抽出されるものの、配置座標105は固定的であった。従って、図1(a)に示すように、比較的大きな物体112が斜めに配置された場合を想定し配置座標105を固定的に設定した場合、平置きされた薄い物体111に対しては、図1(b)のように上空から把持を解除してしまうことになる。この結果、物体111を配置側作業台108に対してぶつけてしまうことになり、物体11が破損してしまう恐れがあった。 However, in the recognition / control method of the related technique, the gripping coordinates 104 are dynamically extracted by the gripping coordinate estimation unit 110, but the arrangement coordinates 105 are fixed. Therefore, as shown in FIG. 1A, when the arrangement coordinates 105 are fixedly set assuming the case where the relatively large object 112 is arranged diagonally, the thin object 111 placed flat is not subjected to. As shown in FIG. 1 (b), the grip is released from the sky. As a result, the object 111 is hit against the work table 108 on the arrangement side, and the object 11 may be damaged.

そこで、実施形態では、パラレルリンク型ロボットにおいて、物体を破損させないで3次元空間上で任意にばら積みされた物体を把持することが可能なロボットシステム及びロボットシステムの制御方法を提供する。 Therefore, in the embodiment, in the parallel link type robot, a robot system capable of grasping arbitrarily loosely stacked objects in a three-dimensional space without damaging the objects and a control method of the robot system are provided.

このため、実施形態は、自律制御機能及び回転可能なジョイント機構を備えたパラレルリンク型ロボットにおいて、3次元カメラによって撮像された3次元画像に基づき、物体把持位置及び配置位置の推定を行い、推定された把持位置に基づきロボット動作を制御する。 Therefore, in the embodiment, in the parallel link type robot provided with the autonomous control function and the rotatable joint mechanism, the object gripping position and the arrangement position are estimated and estimated based on the three-dimensional image captured by the three-dimensional camera. The robot operation is controlled based on the gripped position.

以下、図面を用いて実施例について説明する。 Hereinafter, examples will be described with reference to the drawings.

図2を参照して、実施例1のロボットシステムについて説明する。
図2に示すように、実施例1のパラレルリンクロボット101によるピッキング作業自動化システムは、パラレルリンクロボット本体101、ジョイント機構102を備えたロボットハンド103、撮像部を構成する3次元カメラ部109、3次元カメラデータに基づきロボット動作を計画し制御する認識制御部204を有する。
The robot system of the first embodiment will be described with reference to FIG.
As shown in FIG. 2, the picking work automation system by the parallel link robot 101 of the first embodiment includes a parallel link robot main body 101, a robot hand 103 provided with a joint mechanism 102, and a three-dimensional camera unit 109, 3 that constitutes an imaging unit. It has a recognition control unit 204 that plans and controls robot movements based on 3D camera data.

ジョイント機構102は、例えば、モータが内蔵され認識制御部204の指示により能動的に動作するモータ式ジョイント機構で構成される。尚、ジョイント機構102は、ゴムなどの柔軟性を有する機構や金属や樹脂製のボールを備え、外力に応じて受動的に変形するジョイント機構で構成しても良い。 The joint mechanism 102 is composed of, for example, a motor type joint mechanism in which a motor is built and actively operates according to an instruction from the recognition control unit 204. The joint mechanism 102 may include a flexible mechanism such as rubber or a ball made of metal or resin, and may be configured by a joint mechanism that passively deforms in response to an external force.

パラレルリンクロボット101は、架台106に取り付けられ、自律移動することが出来ない。そのため、物体209は把持側コンベア107により配置側作業台108に搬送される。 The parallel link robot 101 is attached to the gantry 106 and cannot move autonomously. Therefore, the object 209 is conveyed to the arrangement side work table 108 by the grip side conveyor 107.

認識制御部204は、3次元物体姿勢推定部205、3次元物体大きさ推定部206、把持点/配置点座標算出部207及び中間座標/動作速度算出部208を有する。 The recognition control unit 204 has a three-dimensional object posture estimation unit 205, a three-dimensional object size estimation unit 206, a grip point / arrangement point coordinate calculation unit 207, and an intermediate coordinate / operation speed calculation unit 208.

3次元物体姿勢推定部205は、3次元カメラ109から取得した3次元画像に基づいて、物体の姿勢を推定する。3次元物体大きさ推定部206は、物体の大きさを推定する。把持点/配置点座標算出部207は、推定された物体の姿勢と大きさに基づいて、物体の把持点の把持座標201と配置点の配置座標202を算出する。 The three-dimensional object posture estimation unit 205 estimates the posture of the object based on the three-dimensional image acquired from the three-dimensional camera 109. The three-dimensional object size estimation unit 206 estimates the size of the object. The gripping point / placement point coordinate calculation unit 207 calculates the gripping coordinates 201 of the gripping point of the object and the placement coordinates 202 of the placement point based on the estimated posture and size of the object.

把持点/配置点座標算出部207は、把持側では、予め規定された複数の物体把持候補点の内、最も上面にありかつ把持可能領域が最も広い候補点を把持点の把持座標201として算出する。配置側では、物体209の姿勢と大きさに基づいて、物体209が破損しないような配置点の配置座標202を算出する。 On the gripping side, the gripping point / arrangement point coordinate calculation unit 207 calculates the candidate point on the uppermost surface and the widest gripping area among the plurality of predetermined object gripping candidate points as the gripping coordinate 201 of the gripping point. To do. On the placement side, the placement coordinates 202 of the placement points so that the object 209 is not damaged are calculated based on the posture and size of the object 209.

中間座標/動作速度算出部208は、中間座標算出部として機能し、物体209の姿勢と大きさに基づいて、把持点の把持座標201と配置点の配置座標202とを結ぶ中継点である中間座標203を動的に制御する。 The intermediate coordinate / operation speed calculation unit 208 functions as an intermediate coordinate calculation unit, and is an intermediate point that is a relay point connecting the grip coordinate 201 of the grip point and the placement coordinate 202 of the placement point based on the posture and size of the object 209. Coordinate 203 is dynamically controlled.

また、中間座標/動作速度算出部208は、動作速度算出部として機能し、推定された物体209の姿勢と大きさに基づいて、物体209を把持して把持側から配置側に移動させる移動速度を動的に制御する。 Further, the intermediate coordinate / operation speed calculation unit 208 functions as an operation speed calculation unit, and the movement speed of gripping the object 209 and moving it from the gripping side to the arrangement side based on the estimated posture and size of the object 209. Is dynamically controlled.

このように、認識制御部204は、把持するべき物体209を認識し、物体姿勢を推定することで、ロボットハンド(吸着パッド)103の把持座標201、吸着を解除し物体を整列配置する配置座標202及び把持座標201から配置座標202に到達するまでのロボット軌道210と動作速度を動的に制御する。 In this way, the recognition control unit 204 recognizes the object 209 to be gripped and estimates the object posture, thereby releasing the gripping coordinates 201 of the robot hand (suction pad) 103 and the placement coordinates for releasing the suction and arranging the objects in alignment. The robot trajectory 210 and the operating speed from 202 and the gripping coordinate 201 to the arrangement coordinate 202 are dynamically controlled.

上述のように、実施例1のロボットシステムは、3次元カメラ109(撮像部)と認識制御部204(制御部)とを有するパラレルリンクロボット101を用いたロボットシステムである。パラレルリンクロボット101は、回転可能なジョイント機構102を備えたロボットハンド103により3次元的にばら積みされた物体209を把持して把持側から配置側に移動させる。 As described above, the robot system of the first embodiment is a robot system using a parallel link robot 101 having a three-dimensional camera 109 (imaging unit) and a recognition control unit 204 (control unit). The parallel link robot 101 grips the three-dimensionally bulked objects 209 by the robot hand 103 provided with the rotatable joint mechanism 102 and moves them from the gripping side to the placement side.

把持側では把持点の把持座標201において物体209を把持し、配置側では配置点の配置座標202において物体209を解除する。 On the gripping side, the object 209 is gripped at the gripping coordinates 201 of the gripping point, and on the placement side, the object 209 is released at the placement coordinates 202 of the placement point.

3次元カメラ109(撮像部)は、ばら積みされた物体209の3次元画像を取得する。認識制御部204(制御部)は、3次元画像に基づいて、物体209の姿勢と大きさを推定し、物体209の姿勢と大きさの推定結果に基づき、把持点の把持座標201から配置点の配置座標202に向かう物体209の軌道210を動的に制御する。 The three-dimensional camera 109 (imaging unit) acquires a three-dimensional image of the bulk objects 209. The recognition control unit 204 (control unit) estimates the posture and size of the object 209 based on the three-dimensional image, and based on the estimation result of the posture and size of the object 209, the placement point is arranged from the grip coordinates 201 of the grip point. Dynamically controls the orbit 210 of the object 209 toward the arrangement coordinates 202 of.

ここで、認識制御部204(制御部)は、物体209の姿勢と大きさの推定結果に基づき、配置点の配置座標を可変に制御することにより、物体209の軌道210を動的に制御する。 Here, the recognition control unit 204 (control unit) dynamically controls the trajectory 210 of the object 209 by variably controlling the arrangement coordinates of the arrangement points based on the estimation result of the posture and the size of the object 209. ..

認識制御部204は、3次元カメラ109から3次元画像データを取得し、3次元物体姿勢推定部205に伝送する。3次元カメラ109には、カラーカメラ2台で視差から深度を推定するステレオカメラ、赤外光などの特定波長の信号を照射し、物体表面で反射してセンサまで帰ってくる往復時間を計測し深度を推定するTime of Flightカメラあるいは深層学習などの手法により深度推定する単眼カメラ方式が挙げられる。 The recognition control unit 204 acquires 3D image data from the 3D camera 109 and transmits it to the 3D object posture estimation unit 205. The 3D camera 109 is irradiated with a signal of a specific wavelength such as a stereo camera that estimates the depth from the parallax with two color cameras and infrared light, and measures the round-trip time that is reflected on the surface of the object and returned to the sensor. Examples include a Time of Flight camera that estimates the depth and a monocular camera method that estimates the depth by a method such as deep learning.

3次元カメラ109の出力である3次元画像データは2つのデータから成り、1つは画角内に写った物体表面とセンサ間の深度を集計した深度画像及びもう1つは特定波長で取得された画像データ(通常は可視広域で取得されたRGB画像)である。 The three-dimensional image data output from the three-dimensional camera 109 consists of two data, one is a depth image that aggregates the depth between the object surface and the sensor captured within the angle of view, and the other is acquired at a specific wavelength. Image data (usually an RGB image acquired over a wide visible area).

パラレルリンクロボット101は、架台106に取り付けられ、自律移動することが出来ない。そのため、物体209は把持側コンベア107により配置側作業台108に搬送される。従って、把持座標決定時には、3次元画像データを撮影したタイミングを取得し、認識及び制御処理による経過時間内にコンベア107による物体移動距離を加味したうえで目標座標を決定している。 The parallel link robot 101 is attached to the gantry 106 and cannot move autonomously. Therefore, the object 209 is conveyed to the arrangement side work table 108 by the grip side conveyor 107. Therefore, at the time of determining the gripping coordinates, the timing at which the three-dimensional image data is taken is acquired, and the target coordinates are determined after taking into account the moving distance of the object by the conveyor 107 within the elapsed time by the recognition and control processing.

例えば、認識制御部204から3次元カメラ109に向かって撮影タイミングを規定するトリガ信号を送信する。あるいは、3次元カメラ109から常に3次元画像データを認識制御部204に伝送し続け、認識制御部204で既定されたタイミングと同じタイミングで撮影された3次元画像データを選択し取得する。このようにして、撮像されたタイミングと認識処理終了時の時間差を推定し、搬送後の座標を推定することが出来る。 For example, the recognition control unit 204 transmits a trigger signal that defines the shooting timing to the three-dimensional camera 109. Alternatively, the 3D image data is constantly transmitted from the 3D camera 109 to the recognition control unit 204, and the 3D image data captured at the same timing as the timing defined by the recognition control unit 204 is selected and acquired. In this way, the time difference between the imaged timing and the end of the recognition process can be estimated, and the coordinates after transportation can be estimated.

このように、実施例1のロボットシステムでは、3次元カメラ109によりばら積み物体209の3次元データを取得し、認識制御部204にデータ伝送する。認識制御部204では、把持座標201のみを推定するだけに留まらず、物体の大きさを推定し配置座標202、中間座標203及び動作速度を算出する。 As described above, in the robot system of the first embodiment, the three-dimensional camera 109 acquires the three-dimensional data of the loosely stacked objects 209 and transmits the data to the recognition control unit 204. The recognition control unit 204 not only estimates the gripping coordinates 201, but also estimates the size of the object and calculates the arrangement coordinates 202, the intermediate coordinates 203, and the operating speed.

そして、3次元カメラ109から得られた3次元画像データに基づき、まず対象物体の3次元位置・姿勢を推定する。同時に、3次元物体モデルを記憶領域から呼び出し、3次元物体の大きさを推定する。そして、3次元物体モデルに予め規定された複数の物体把持候補点の内、最も上面にあり把持可能領域が広い候補点を把持座標201として算出する。 Then, based on the 3D image data obtained from the 3D camera 109, the 3D position / orientation of the target object is first estimated. At the same time, the 3D object model is called from the storage area and the size of the 3D object is estimated. Then, among the plurality of object gripping candidate points defined in advance in the three-dimensional object model, the candidate point on the uppermost surface and having a wide gripping area is calculated as the gripping coordinates 201.

次に、3次元物体の大きさ情報と、3次元位置及び姿勢情報から、物体が配置面に対して緩やかに接触するような配置座標202の高さを算出する。そして、把持座標201と配置座標202を結ぶ中間座標203を算出し、物体の大きさ情報と属性情報から、把持物体を壊さない最上限のロボットの動作速度を算出して出力する。 Next, the height of the arrangement coordinates 202 such that the object gently contacts the arrangement surface is calculated from the size information of the three-dimensional object and the three-dimensional position and attitude information. Then, the intermediate coordinate 203 connecting the gripping coordinate 201 and the arrangement coordinate 202 is calculated, and the operating speed of the upper limit robot that does not break the gripping object is calculated and output from the size information and the attribute information of the object.

図3を参照して、認識制御部204の認識及び制御処理について説明する。
3次元カメラ109から3次元画像データの内、2次元画像のみが入力され、2次元画像解析により物体識別を行う(ステップ301)。取得した画像内の把持物体を認識し、それぞれの物体の種別を推定する。
The recognition and control processing of the recognition control unit 204 will be described with reference to FIG.
Of the 3D image data, only the 2D image is input from the 3D camera 109, and the object is identified by the 2D image analysis (step 301). The gripped object in the acquired image is recognized, and the type of each object is estimated.

複数の物体が存在する場合は、ベルトコンベア107の最も進行方向に対して下流に存在する物体を把持対象として選定する。把持対象として選別されたワークの種別情報から、物体の3次元物体モデルを記憶領域から呼び出し、3次元位置姿勢推定を行う(ステップ302)。これにより、把持対象物体がベルトコンベア107上でどのような位置姿勢で存在するかを推定する。 When a plurality of objects exist, the object existing downstream of the most traveling direction of the belt conveyor 107 is selected as the gripping target. From the type information of the work selected as the gripping target, the three-dimensional object model of the object is called from the storage area, and the three-dimensional position / orientation estimation is performed (step 302). As a result, it is estimated in what position and posture the object to be gripped exists on the belt conveyor 107.

把持点算出部ステップ303では、複数候補の把持座標の内、把持候補点と把持可能領域を比較し、最も把持しやすい候補点では把持可能領域が広い候補点を把持点の把持座標201として算出する。 In the gripping point calculation unit step 303, among the gripping coordinates of a plurality of candidates, the gripping candidate point and the gripping area are compared, and the candidate point having the widest gripping area at the candidate point that is the easiest to grip is calculated as the gripping coordinate 201 of the gripping point. To do.

図4に示すように、画角内401の把持対象物体に対して、複数の把持候補点402〜405が算出され、最も下流の物体の把持点である402、403同士を最終的な候補点選定のために比較する。 As shown in FIG. 4, a plurality of gripping candidate points 402 to 405 are calculated for the gripping target object within the angle of view 401, and 402 and 403, which are the gripping points of the most downstream object, are the final candidate points. Compare for selection.

図4に示したように、把持点402と把持点403とでは、把持点402の方がより把持可能領域が広くフラットであるため、最終的な把持点の把持座標201として把持点402の座標を出力する。把持可能領域は、予め物体の3次元モデルに情報として入れ込んでおく。もしくは、2次元画像を用いた機械学習により帰納的に求めてもよい。 As shown in FIG. 4, at the gripping point 402 and the gripping point 403, since the gripping point 402 has a wider and flatter gripping area, the coordinates of the gripping point 402 are used as the gripping coordinates 201 of the final gripping point. Is output. The grippable area is previously input into the three-dimensional model of the object as information. Alternatively, it may be obtained inductively by machine learning using a two-dimensional image.

把持点の把持座標201に対してさらに、3次元位置姿勢推定ステップ302にて物体の回転姿勢が求まっているので、Z軸の回転姿勢(RZ)も付与してパラレルリンクロボット101に出力する。 Since the rotational posture of the object is obtained in the three-dimensional position posture estimation step 302 with respect to the grip coordinates 201 of the grip point, the rotation posture (RZ) of the Z axis is also given and output to the parallel link robot 101.

物体配置座標推定ステップ304では、物体識別ステップ301で得られた物体識別情報、3次元位置姿勢推定ステップ302及び把持点算出ステップ303で得られた物体の把持座標201と物体の回転姿勢を用いて、配置座標202を計算する。 In the object placement coordinate estimation step 304, the object identification information obtained in the object identification step 301, the gripping coordinates 201 of the object obtained in the three-dimensional position / orientation estimation step 302 and the gripping point calculation step 303, and the rotational posture of the object are used. , Calculate the placement coordinates 202.

例として、図5に示すように、物体識別情報により、物体209の大きさL1(503)、物体の大きさL2(502)と把持した把持座標(501:点A)とを用いることで、剛体であれば物体209のうち最もコンベアに近い点である点C(507)を計算することが出来る。 As an example, as shown in FIG. 5, by using the size L1 (503) of the object 209, the size L2 (502) of the object, and the gripped coordinates (501: point A) based on the object identification information, If it is a rigid body, the point C (507), which is the point closest to the conveyor among the objects 209, can be calculated.

把持座標点A(501)は事前に物体209の3次元モデルに対して既定された点であることから、物体209の把持からの距離L3(504)を求めることができる。通常は、物体209の重心になるように、L3=L1/2となるように設定される。物体209の把持の座標点である点B(506)の座標は、L3(504)及び3次元回転角θ(505)を用いることで、(X+L3cosθ,Y,Z−L3sinθ)として計算できる(510)。 Since the grip coordinate point A (501) is a point predetermined for the three-dimensional model of the object 209 in advance, the distance L3 (504) from the grip of the object 209 can be obtained. Normally, it is set so that L3 = L1 / 2 so as to be the center of gravity of the object 209. The coordinates of the point B (506), which is the coordinate point for gripping the object 209, can be calculated as (X + L3cosθ, Y, Z-L3sinθ) by using L3 (504) and the three-dimensional rotation angle θ (505) (510). ).

物体209の中で最もコンベア面に近い点C(507)の座標も同様に計算することができ、(X+L3cosθ−L2sinθ,Y,Z−L3sinθ−L2cosθ)として算出できる。 The coordinates of the point C (507) closest to the conveyor surface in the object 209 can be calculated in the same manner, and can be calculated as (X + L3cosθ-L2sinθ, Y, Z-L3sinθ-L2cosθ).

よって、物体209のコンベア面までの高さH(508)はH=Z−L3sinθ−L2cosθである。従って配置座標(点D:509)は基準座標(X’、Y’、Z’)に対して、算出した高さH(508)を用いることで、配置座標(509)は(X’、Y’、Z’−H)として求めることができる。 Therefore, the height H (508) of the object 209 to the conveyor surface is H = Z-L3sinθ-L2cosθ. Therefore, by using the calculated height H (508) with respect to the reference coordinates (X', Y', Z') for the arrangement coordinates (point D: 509), the arrangement coordinates (509) are (X', Y). It can be obtained as', Z'-H).

このようにすることで、物体の姿勢や大きさに合わせて配置座標が動的に制御されるため、物体を壊すことなく安全に配置することが出来る。なお、配置座標の算出方法は特に上述の手法に限定されるものではなく、深層学習等の機能的な機械学習手法と組み合わせて計算しても良い。 By doing so, the arrangement coordinates are dynamically controlled according to the posture and size of the object, so that the object can be arranged safely without being damaged. The method of calculating the arrangement coordinates is not particularly limited to the above-mentioned method, and may be calculated in combination with a functional machine learning method such as deep learning.

中継点算出ステップ305では、把持座標201と配置座標202を入力として、中間座標203を計算する。図6に示すように、中間座標203は把持座標201と配置座標202の中間になるように設定される。 In the relay point calculation step 305, the intermediate coordinates 203 are calculated by inputting the gripping coordinates 201 and the arrangement coordinates 202. As shown in FIG. 6, the intermediate coordinate 203 is set so as to be between the gripping coordinate 201 and the arrangement coordinate 202.

図6(b)に示すように、低い把持座標601及び配置座標603に対しては、低い中間座標602が設定される。また、中間座標203、602は常にパラレルリンクロボット101が3次元カメラ109の視界を遮らないように設定される。 As shown in FIG. 6B, the low intermediate coordinates 602 are set for the low gripping coordinates 601 and the arrangement coordinates 603. Further, the intermediate coordinates 203 and 602 are always set so that the parallel link robot 101 does not block the field of view of the three-dimensional camera 109.

また、障害物と干渉を避ける目的で座標の最大値及び最小値の範囲を予め制限する。また、中間座標203、602は1点とは限らず複数の座標点が存在しても良い。 In addition, the range of the maximum value and the minimum value of the coordinates is limited in advance for the purpose of avoiding interference with obstacles. Further, the intermediate coordinates 203 and 602 are not limited to one point, and a plurality of coordinate points may exist.

このように、中継点算出ステップ305では、推定された物体の姿勢と大きさに基づいて、把持座標201、601と配置座標202、603とを結ぶ中継点である中間座標203、602を動的に制御する。 As described above, in the relay point calculation step 305, the intermediate coordinates 203 and 602, which are relay points connecting the gripping coordinates 201 and 601 and the arrangement coordinates 202 and 603, are dynamically set based on the estimated posture and size of the object. To control.

ロボット動作速度算出ステップ306では、パラレルリンクロボット101の搬送速度を制御する。物体識別結果及び姿勢推定結果を入力とし、予め登録された吸着し辛いものや重いもの、あるいは姿勢が急こう配な物体や、中間座標203がコンベア面に対して高い位置にある点については、搬送速度を遅くすることで搬送精度を高める処理を行う。 In the robot operation speed calculation step 306, the transfer speed of the parallel link robot 101 is controlled. By inputting the object identification result and the attitude estimation result, the object that is registered in advance and is difficult to adsorb or heavy, the object with a steep attitude, or the point where the intermediate coordinates 203 are at a high position with respect to the conveyor surface is conveyed. A process is performed to improve the transfer accuracy by slowing down the speed.

このように、ロボット動作速度算出ステップ306は、推定された物体の姿勢と大きさに基づいて、物体を把持して把持側のコンベア107から配置側作業台108に移動させる移動速度を動的に制御する。 In this way, the robot operation speed calculation step 306 dynamically adjusts the moving speed of gripping the object and moving it from the conveyor 107 on the gripping side to the workbench 108 on the placement side based on the estimated posture and size of the object. Control.

ロボット制御ステップ307では、これまで計算された把持座標201と姿勢(RZ)、配置座標202、中間座標203、602及び搬送速度を入力変数として受け取り、予め規定されたロボット制御プログラム内の各種変数に代入することでロボット制御プログラムを完成させて処理を実行する。 In the robot control step 307, the gripping coordinates 201, the posture (RZ), the arrangement coordinates 202, the intermediate coordinates 203, 602, and the transport speed calculated so far are received as input variables, and are set as various variables in the robot control program defined in advance. By substituting, the robot control program is completed and the process is executed.

図7を参照して、実施例1のロボットシステムの制御方法について説明する。
最初に、3次元カメラ109によりばら積み物体を撮像して3次元データを取得する(S1)。
次に、CNNなどの2次元画像解析を行う(S2)。そして、物体の種別を出力する(S3)。このように、2次元画像解析(S2)では物体の種別を認識し、物体種別を出力しバッファに記憶する(S3)。画像認識技術としては、Convolutional Neural Network(CNN)やテンプレートマッチングなどの手法が一般的である。
The control method of the robot system of the first embodiment will be described with reference to FIG. 7.
First, the bulk objects are imaged by the three-dimensional camera 109 to acquire the three-dimensional data (S1).
Next, two-dimensional image analysis such as CNN is performed (S2). Then, the type of the object is output (S3). In this way, the two-dimensional image analysis (S2) recognizes the type of the object, outputs the object type, and stores it in the buffer (S3). As an image recognition technique, methods such as Convolutional Neural Network (CNN) and template matching are common.

次に、最も下流の物体を把持対象物体として選定する(S4)。そして、3次元物体モデルを取得する(S5)。そして、3次元データ解析(例:ICP法)を行う(S6)。このように、予め作成され記憶領域に保存されたモデルデータを呼び出し(S5)、3次元データ解析(S6)を実施する。 Next, the most downstream object is selected as the object to be gripped (S4). Then, a three-dimensional object model is acquired (S5). Then, three-dimensional data analysis (example: ICP method) is performed (S6). In this way, the model data created in advance and stored in the storage area is called (S5), and the three-dimensional data analysis (S6) is performed.

モデルデータを移動及び回転させながら3次元画像データ内との相関度を繰り返し求め、最も相関度の高い位置座標・回転姿勢を求めるIterative Closest Point(ICP)法や、最近では3次元データから把持候補座標点を深層学習により直接算出する方式により、把持対象物体の回転姿勢を求める。 The Italian Closet Point (ICP) method, which repeatedly obtains the degree of correlation with the 3D image data while moving and rotating the model data to obtain the position coordinates and rotation posture with the highest degree of correlation, and recently, candidates for grasping from the 3D data. The rotational posture of the object to be gripped is obtained by a method of directly calculating the coordinate points by deep learning.

次に、物体の姿勢を出力する(S7)。そして、把持候補点を出力する(S8)。次に、把持領域の最も広い把持点を選択する(S9)。そして、把持点の座標201を出力する(S10)。この時、物体に予め規定された把持候補点も出力(S8)し、把持可能領域を比較し(S9)、最も把持領域の広い把持点を出力する(S10)。そして、配置点の配置座標202を算出する(S11)
次に、中継点203を算出(S12)。そして、ロボット動作速度を算出する(S13)。そして、算出した座標とロボット指令を出力する(S14)。次に、ロボット動作と物体の把持及び配置を行う(S15)。
Next, the posture of the object is output (S7). Then, the gripping candidate point is output (S8). Next, the widest gripping point in the gripping area is selected (S9). Then, the coordinates 201 of the gripping point are output (S10). At this time, a gripping candidate point defined in advance for the object is also output (S8), the grippable areas are compared (S9), and the gripping point having the widest gripping area is output (S10). Then, the placement coordinates 202 of the placement points are calculated (S11).
Next, the relay point 203 is calculated (S12). Then, the robot operating speed is calculated (S13). Then, the calculated coordinates and the robot command are output (S14). Next, the robot moves and the object is grasped and arranged (S15).

最後に、物体の把持及び配置が完了したかどうかを判定する(S16)。判定の結果、物体の把持及び配置が完了した場合は終了となる。一方、判定の結果、物体の把持及び配置が完了していない場合は、S1に戻る。 Finally, it is determined whether or not the gripping and placement of the object is completed (S16). As a result of the determination, when the grasping and arranging of the object is completed, the process ends. On the other hand, as a result of the determination, if the gripping and arranging of the object is not completed, the process returns to S1.

図8を参照して、実施例2のロボットシステムについて説明する。
実施例2のロボットシステムは、図2に示す実施例1のロボットシステムの認識制御部204を、認識演算処理装置801とロボット制御コントローラ802とに分離したシステムである。その他の構成は、図2に示す実施例1のロボットシステムの構成と同じなのでその説明は省略する。
The robot system of the second embodiment will be described with reference to FIG.
The robot system of the second embodiment is a system in which the recognition control unit 204 of the robot system of the first embodiment shown in FIG. 2 is separated into a recognition calculation processing device 801 and a robot control controller 802. Since the other configurations are the same as the configurations of the robot system of the first embodiment shown in FIG. 2, the description thereof will be omitted.

ロボット制御コントローラ802として分離した場合、3次元カメラ109の撮像タイミングはパラレルリンクロボット101からインタフェース(図示せず)を介して認識演算処理装置801に送信される。インタフェースのリアルタイム性が保証されない場合、トリガ信号到達時間のバラつきも見込んで把持座標201を決定する必要がある。 When separated as the robot control controller 802, the imaging timing of the three-dimensional camera 109 is transmitted from the parallel link robot 101 to the recognition calculation processing device 801 via an interface (not shown). When the real-time property of the interface is not guaranteed, it is necessary to determine the gripping coordinates 201 in consideration of the variation in the arrival time of the trigger signal.

上記実施例によれば、パラレルリンクロボットにおいても3次元的にバラ積みされた物品を把持及び整列配置出来るようになる。この結果、従来困難であったパラレルリンクロボットによるばら積みピッキングを実現可能とすることができる。さらに、垂直多関節型ロボットによる自動化と比較し、作業スループットを高速化することができる。 According to the above embodiment, the parallel link robot can also grasp and align the articles piled up three-dimensionally in bulk. As a result, it is possible to realize bulk picking by a parallel link robot, which has been difficult in the past. Furthermore, the work throughput can be increased as compared with the automation by the vertical articulated robot.

101 パラレルリンクロボット
102 回転ジョイント
103 ロボットハンド
109 3次元カメラ
107 把持側ベルトコンベア
108 配置側作業台
204 認識制御部
205 3次元物体姿勢推定部
206 3次元物体大きさ推定部
207 把持点/配置点座標算出部
208 中間座標/動作速度算出部
209 物体
801 認識演算処理装置
802 ロボット制御コントローラ
101 Parallel link robot 102 Rotating joint 103 Robot hand 109 3D camera 107 Grip side belt conveyor 108 Placement side workbench 204 Recognition control unit 205 3D object posture estimation unit 206 3D object size estimation unit 207 Grip point / placement point coordinates Calculation unit 208 Intermediate coordinates / operation speed calculation unit 209 Object 801 Recognition calculation processing device 802 Robot control controller

Claims (13)

撮像部と制御部とを有するパラレルリンクロボットを用いたロボットシステムであって、
前記パラレルリンクロボットは、
回転可能なジョイント機構を備えたロボットハンドにより3次元的にばら積みされた物体を把持して把持側から配置側に移動させ、
前記把持側では把持点において前記物体を把持し、前記配置側では配置点において前記物体を解除し、
前記撮像部は、
ばら積みされた前記物体の3次元画像を取得し、
前記制御部は、
前記3次元画像に基づいて、前記物体の姿勢と大きさを推定し、
前記物体の前記姿勢と前記大きさの推定結果に基づき、前記把持点の把持座標から前記配置点の配置座標に向かう前記物体の軌道を動的に制御することを特徴とするロボットシステム。
A robot system that uses a parallel link robot that has an imaging unit and a control unit.
The parallel link robot
A robot hand equipped with a rotatable joint mechanism grips three-dimensionally bulked objects and moves them from the grip side to the placement side.
On the gripping side, the object is gripped at the gripping point, and on the placement side, the object is released at the placement point.
The imaging unit
Acquire a three-dimensional image of the object piled up in bulk,
The control unit
Based on the three-dimensional image, the posture and size of the object are estimated, and
A robot system characterized in that the trajectory of the object from the gripping coordinates of the gripping point to the placement coordinates of the placement point is dynamically controlled based on the estimation result of the posture and the size of the object.
前記制御部は、
前記物体の前記姿勢と前記大きさの推定結果に基づき、前記配置座標を可変に制御することにより、前記物体の軌道を動的に制御することを特徴とする請求項1に記載のロボットシステム。
The control unit
The robot system according to claim 1, wherein the trajectory of the object is dynamically controlled by variably controlling the arrangement coordinates based on the estimation result of the posture and the size of the object.
前記撮像部は、3次元カメラで構成され、
前記制御部は、
前記3次元カメラから取得した前記3次元画像に基づいて、前記物体の前記姿勢を推定する3次元物体姿勢推定部と、
前記物体の前記大きさを推定する3次元物体大きさ推定部と、
推定された前記物体の前記姿勢と前記大きさに基づいて、前記物体の前記把持座標と前記配置座標を算出する把持点/配置点座標算出部と、
を有することを特徴とする請求項1に記載のロボットシステム。
The imaging unit is composed of a three-dimensional camera.
The control unit
A three-dimensional object posture estimation unit that estimates the posture of the object based on the three-dimensional image acquired from the three-dimensional camera, and a three-dimensional object posture estimation unit.
A three-dimensional object size estimation unit that estimates the size of the object,
A gripping point / placement point coordinate calculation unit that calculates the gripping coordinates and the placement coordinates of the object based on the estimated posture and size of the object.
The robot system according to claim 1, wherein the robot system comprises.
前記把持点/配置点座標算出部は、
前記把持側では、予め規定された複数の物体把持候補点の内、最も上面にありかつ把持可能領域が最も広い候補点を前記把持座標として算出し、
前記配置側では、推定された前記物体の前記姿勢と前記大きさに基づいて、前記物体が破損しないような前記配置座標を算出することを特徴とする請求項3に記載のロボットシステム。
The gripping point / arrangement point coordinate calculation unit
On the gripping side, among a plurality of predetermined object gripping candidate points, the candidate point on the uppermost surface and the widest gripping area is calculated as the gripping coordinates.
The robot system according to claim 3, wherein on the arrangement side, the arrangement coordinates so as not to damage the object are calculated based on the estimated posture and size of the object.
前記制御部は、
推定された前記物体の前記姿勢と前記大きさに基づいて、前記把持座標と前記配置座標とを結ぶ中継点である中間座標を動的に制御する中間座標算出部を更に有することを特徴とする請求項1に記載のロボットシステム。
The control unit
It is characterized by further having an intermediate coordinate calculation unit that dynamically controls intermediate coordinates, which are relay points connecting the gripped coordinates and the arranged coordinates, based on the estimated posture and the size of the object. The robot system according to claim 1.
前記制御部は、
推定された前記物体の前記姿勢と前記大きさに基づいて、前記物体を把持して前記把持側から前記配置側に移動させる移動速度を動的に制御する動作速度算出部を更に有することを特徴とする請求項1に記載のロボットシステム。
The control unit
It is further characterized by further having an operation speed calculation unit that dynamically controls the movement speed of grasping the object and moving it from the gripping side to the arrangement side based on the estimated posture and the size of the object. The robot system according to claim 1.
前記ジョイント機構は、
前記制御部の指示により能動的に動作するモータ式ジョイント機構で構成されることを特徴とする請求項1に記載のロボットシステム。
The joint mechanism is
The robot system according to claim 1, further comprising a motor-type joint mechanism that actively operates according to an instruction from the control unit.
前記ジョイント機構は、
外力に応じて受動的に変形するソフトジョイント機構で構成されることを特徴とする請求項1に記載のロボットシステム。
The joint mechanism is
The robot system according to claim 1, further comprising a soft joint mechanism that passively deforms in response to an external force.
前記パラレルリンクロボットは、架台に取り付けられ、
前記物体はコンベアにより搬送されることを特徴とする請求項1に記載のロボットシステム。
The parallel link robot is mounted on a gantry and
The robot system according to claim 1, wherein the object is conveyed by a conveyor.
回転可能なジョイント機構を備えたロボットハンドにより3次元的にばら積みされた物体を把持して把持側から配置側に移動させるパラレルリンクロボットを用いたロボットシステムの制御方法であって、
ばら積みされた前記物体の3次元画像を取得し、
前記3次元画像に基づいて、前記物体の姿勢と大きさを推定し、
前記把持側では、把持点において前記物体を把持し、
前記配置側では、配置点において前記物体を解除し、
前記物体の姿勢と大きさの推定結果に基づき、前記把持点から把持座標から前記配置点の配置座標に向かう前記物体の軌道を動的に制御することを特徴とするロボットシステムの制御方法。
It is a control method of a robot system using a parallel link robot that grips three-dimensionally bulked objects by a robot hand equipped with a rotatable joint mechanism and moves them from the gripping side to the placement side.
Acquire a three-dimensional image of the object piled up in bulk,
Based on the three-dimensional image, the posture and size of the object are estimated, and
On the gripping side, the object is gripped at the gripping point.
On the placement side, the object is released at the placement point,
A control method for a robot system, which dynamically controls the trajectory of the object from the gripping point to the placement coordinates of the placement point based on the estimation result of the posture and size of the object.
前記物体の前記姿勢と前記大きさの推定結果に基づき、前記配置座標を可変に制御することにより、前記物体の軌道を動的に制御することを特徴とする請求項10に記載のロボットシステムの制御方法。 The robot system according to claim 10, wherein the trajectory of the object is dynamically controlled by variably controlling the arrangement coordinates based on the estimation result of the posture and the size of the object. Control method. 推定された前記物体の前記姿勢と前記大きさに基づいて、前記把持座標と前記配置座標とを結ぶ中継点である中間座標を動的に制御することを特徴とする請求項10に記載のロボットシステムの制御方法。 The robot according to claim 10, wherein the intermediate coordinates, which are relay points connecting the gripping coordinates and the arrangement coordinates, are dynamically controlled based on the estimated posture and the size of the object. How to control the system. 推定された前記物体の前記姿勢と前記大きさに基づいて、前記物体を把持して前記把持側から前記配置側に移動させる移動速度を動的に制御することを特徴とする請求項10に記載のロボットシステムの制御方法。 10. The aspect of claim 10, wherein the moving speed of gripping the object and moving it from the gripping side to the arrangement side is dynamically controlled based on the estimated posture and the size of the object. How to control the robot system.
JP2019218696A 2019-12-03 2019-12-03 Robot system and robot system control method Active JP7353948B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019218696A JP7353948B2 (en) 2019-12-03 2019-12-03 Robot system and robot system control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019218696A JP7353948B2 (en) 2019-12-03 2019-12-03 Robot system and robot system control method

Publications (2)

Publication Number Publication Date
JP2021088019A true JP2021088019A (en) 2021-06-10
JP7353948B2 JP7353948B2 (en) 2023-10-02

Family

ID=76218888

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019218696A Active JP7353948B2 (en) 2019-12-03 2019-12-03 Robot system and robot system control method

Country Status (1)

Country Link
JP (1) JP7353948B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022001851A1 (en) 2021-05-25 2022-12-01 Mitutoyo Corporation microscope unit
WO2023209827A1 (en) * 2022-04-26 2023-11-02 ファナック株式会社 Robot, robot control device, and work robot system

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012171039A (en) * 2011-02-21 2012-09-10 Fanuc Ltd Conveying device for rod

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012171039A (en) * 2011-02-21 2012-09-10 Fanuc Ltd Conveying device for rod

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022001851A1 (en) 2021-05-25 2022-12-01 Mitutoyo Corporation microscope unit
WO2023209827A1 (en) * 2022-04-26 2023-11-02 ファナック株式会社 Robot, robot control device, and work robot system

Also Published As

Publication number Publication date
JP7353948B2 (en) 2023-10-02

Similar Documents

Publication Publication Date Title
JP5778311B1 (en) Picking apparatus and picking method
EP3222393B1 (en) Automated guidance system and method for a coordinated movement machine
US11396101B2 (en) Operating system, control device, and computer program product
US11701777B2 (en) Adaptive grasp planning for bin picking
WO2018092860A1 (en) Interference avoidance device
Rolley-Parnell et al. Bi-manual articulated robot teleoperation using an external RGB-D range sensor
US20210031373A1 (en) Robotic manipulators
US10759051B2 (en) Architecture and methods for robotic mobile manipulation system
KR101743926B1 (en) Robot and control method thereof
CN114728412A (en) Optimization of motion path of robot using visual data
WO2018185861A1 (en) Control device, picking system, distribution system, program, and control method
JP2021003801A (en) Robot system control method and control device
JP5618067B2 (en) Bulk picking apparatus and method
JP7353948B2 (en) Robot system and robot system control method
Tsarouchi et al. Vision system for robotic handling of randomly placed objects
TW202321847A (en) Robotic system to control multiple robots to perform a task cooperatively
JP2021024002A (en) Article conveyance system having plurality of movable parts
JP2012135820A (en) Automatic picking device and automatic picking method
D’Avella et al. Supervised stowing as enabling technology for the integration of impaired operators in the industry
CN109641706B (en) Goods picking method and system, and holding and placing system and robot applied to goods picking method and system
JP7034971B2 (en) Actuation systems, controls, and programs
KR101197125B1 (en) Object picking system and object picking method
WO2022014133A1 (en) Mobile manipulator, method for controlling same, program
US20240051134A1 (en) Controller, robot system and learning device
Rastegarpanah et al. Autonomous vision-guided bi-manual grasping and manipulation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220420

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230512

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230905

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230920

R150 Certificate of patent or registration of utility model

Ref document number: 7353948

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150