JP2023003109A - Robot system and control method of robot system - Google Patents
Robot system and control method of robot system Download PDFInfo
- Publication number
- JP2023003109A JP2023003109A JP2021104082A JP2021104082A JP2023003109A JP 2023003109 A JP2023003109 A JP 2023003109A JP 2021104082 A JP2021104082 A JP 2021104082A JP 2021104082 A JP2021104082 A JP 2021104082A JP 2023003109 A JP2023003109 A JP 2023003109A
- Authority
- JP
- Japan
- Prior art keywords
- space
- unit
- robot system
- finger
- gripping
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 36
- 238000012546 transfer Methods 0.000 claims abstract description 11
- 230000007246 mechanism Effects 0.000 claims abstract description 6
- 230000008569 process Effects 0.000 claims description 32
- 239000012636 effector Substances 0.000 description 72
- 238000010586 diagram Methods 0.000 description 17
- 238000012545 processing Methods 0.000 description 17
- 102220517925 Humanin_S14P_mutation Human genes 0.000 description 6
- 238000012986 modification Methods 0.000 description 6
- 230000004048 modification Effects 0.000 description 6
- 238000001514 detection method Methods 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 102220308767 rs1466840832 Human genes 0.000 description 2
- 102220251157 rs1555197885 Human genes 0.000 description 2
- 102200159387 rs62636495 Human genes 0.000 description 2
- 210000000078 claw Anatomy 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Landscapes
- Manipulator (AREA)
Abstract
Description
本発明は、ロボットシステム及びロボットシステムの制御方法に関する。 The present invention relates to a robot system and a control method for the robot system.
近年、物流倉庫等における物品のピッキング作業の人材不足を補うために、ピッキング作業を行うロボットシステムが導入されるようになってきている。このようなロボットシステムは、対象物を把持部にて適切に把持するために、例えば「第1指部を物体に接触させ、力検出部から出力される出力値が所定の第1閾値以上となるまで第1指部を物体に付勢させる第1動作を行わせ、第1動作の後、力検出部から出力される出力値が第1閾値以上である状態を維持し、第1指部とアームとを移動させ、物体に第1指部と第2指部とを接触させる第2動作を行わせ、第2動作において、力検出部から出力される出力値が第1閾値よりも小さい所定の第2閾値よりも小さくなったとき、第1位置検出部から出力される出力値に応じた値と、予め決められた第1値と、の差異が所定の範囲内である場合、物体が所定の状態で第1指部と第2指部とによって把持されていると判定する」(特許文献1参照)ように構成される。 2. Description of the Related Art In recent years, in order to make up for the shortage of personnel for picking work in distribution warehouses and the like, robot systems that perform picking work have been introduced. In such a robot system, in order to properly grip an object with the gripping part, for example, "the first finger is brought into contact with the object, and the output value output from the force detection part is equal to or greater than a predetermined first threshold value. After the first action, a state in which the output value output from the force detection unit is equal to or greater than the first threshold is maintained, and the first finger and the arm to cause the object to perform a second action of contacting the first finger and the second finger, and in the second action, an output value output from the force detection unit is smaller than the first threshold When the value is smaller than the predetermined second threshold, the difference between the value corresponding to the output value output from the first position detection unit and the predetermined first value is within a predetermined range. is gripped by the first finger and the second finger in a predetermined state" (see Patent Document 1).
また多様な物品を高い成功率で自律的にピッキングするために、ロボットシステムは、対象物及び対象物の周辺物品を高精度に認識するためのカメラ等を含む高価な認識装置を含んで構成されることが一般的である。これによりロボットシステムは、周辺物品と干渉しないように対象物を適切な把持位置で把持部で把持し、より高いピッキング成功率を達成できる。 In addition, in order to autonomously pick various items with a high success rate, the robot system is configured to include an expensive recognition device including a camera or the like for highly accurate recognition of the target and peripheral items of the target. It is common to As a result, the robot system can grip the object at an appropriate gripping position with the gripper so as not to interfere with surrounding items, and achieve a higher picking success rate.
しかしながら上述の従来技術では、対象物及び周辺物品を高精度に認識するためのカメラ等を含む認識装置が高価であることから、ロボットシステムの導入コストを高め、導入を阻害する要因の一つとなっている。 However, in the above-described conventional technology, the recognition device including the camera for highly accurately recognizing the target object and surrounding items is expensive, which increases the introduction cost of the robot system and is one of the factors that hinder the introduction. ing.
一方、ロボットシステムの導入コストの抑制のために安価な認識装置を用いてロボットシステムを構成すると、対象物及び周辺物品の位置及び姿勢の計測誤差が大きくなる。このため、対象物を把持部で把持しようとする際に、周辺物品に把持部が干渉したり、対象物の適切な把持部位を把持できなかったりして、ピッキング成功率が低下するという問題がある。 On the other hand, if a robot system is configured using an inexpensive recognition device in order to reduce the introduction cost of the robot system, measurement errors in the positions and orientations of the target object and peripheral objects will increase. Therefore, when trying to grip an object with the gripping part, the gripping part interferes with surrounding objects, or an appropriate gripping part of the object cannot be gripped, resulting in a decrease in the picking success rate. be.
本発明は、上記の問題に鑑みてなされたものであり、ピッキング成功率がより高いロボットシステムを低コストで導入可能にすることを1つの目的とする。 SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and one object of the present invention is to enable introduction of a robot system with a higher picking success rate at low cost.
上述した課題を解決するため、本発明の一態様では、把持部の複数の指で対象物を把持して移載する移載機構を有するロボットシステムであって、移載前の前記対象物の周囲において、前記把持部の少なくとも一部を挿入可能な空間、並びに、前記対象物の位置及び姿勢を認識する認識部と、前記認識部によって認識された前記空間のうちの第1の空間へ前記把持部の少なくとも一部を挿入しつつ前記第1の空間以外の空間へは前記把持部を挿入しない状態で、前記把持部を前記対象物の方向へ移動させて前記把持部を前記対象物に接触させることで、前記対象物の位置を前記認識部よりも高精度に把握する位置姿勢把握部と、前記対象物の形状に関する情報、並びに、前記位置姿勢把握部によって把握された前記対象物の位置に基づいて、前記対象物を把持可能な位置を特定し、該位置において前記対象物を前記把持部で把持する把持制御部とを有することを特徴とする。 In order to solve the above-described problems, according to one aspect of the present invention, there is provided a robot system having a transfer mechanism for grasping and transferring an object with a plurality of fingers of a grasping part, wherein the object before transfer is a space into which at least a part of the gripping part can be inserted; a recognition part that recognizes the position and orientation of the object; In a state in which at least a portion of the gripping portion is inserted and the gripping portion is not inserted into a space other than the first space, the gripping portion is moved toward the object to move the gripping portion toward the object. A position/orientation grasping unit that grasps the position of the object with higher accuracy than the recognition unit by contacting the object, information about the shape of the object, and information about the object grasped by the position/orientation grasping unit. and a gripping control unit that identifies a position where the object can be gripped based on the position and grips the object at the specified position with the gripping unit.
本発明によれば、例えば、ピッキング成功率がより高いロボットシステムを低コストで導入できる。 According to the present invention, for example, a robot system with a higher picking success rate can be introduced at low cost.
以下、図面を参照して本発明の実施形態を説明する。実施形態は、本発明を説明するための例示に過ぎず、本発明を限定するものではなく、説明の明確化のため、適宜、省略及び簡略化がなされている。本発明は、他の種々の形態や各形態の一部又は全部を組合せた形態でも実施することが可能である。特に限定しない限り、各構成要素は単数でも複数でもよい。 Embodiments of the present invention will be described below with reference to the drawings. The embodiments are merely examples for explaining the present invention, and do not limit the present invention, and are appropriately omitted and simplified for clarity of explanation. The present invention can also be implemented in various other forms and in forms in which part or all of each form is combined. Unless otherwise specified, each component may be singular or plural.
同一あるいは同様の機能を有する構成要素が複数ある場合には、同一の符号に異なる添字を付して説明する場合がある。また、これらの複数の構成要素を区別する必要がない場合には、添字を省略して説明する場合がある。 When there are a plurality of components having the same or similar functions, they may be described with the same reference numerals and different suffixes. Further, when there is no need to distinguish between these constituent elements, the subscripts may be omitted in the description.
後出の実施形態の説明では、既出の実施形態との差分を中心に説明し、重複部分の説明は適宜省略する。 In the description of the embodiments to be described later, the differences from the previous embodiments will be mainly described, and the description of overlapping parts will be omitted as appropriate.
[実施形態1]
(実施形態1のロボットシステムSの構成)
図1は、実施形態1のロボットシステムSの構成例を示す図である。ロボットシステムSは、物流倉庫等の作業現場において、載置スペースに載置された対象物を把持して移載するピッキング作業を行うシステムである。ロボットシステムSは、システム全体の制御を実行する制御装置1、認識部20、及びアーム30を含んで構成される。
[Embodiment 1]
(Configuration of Robot System S of Embodiment 1)
FIG. 1 is a diagram showing a configuration example of a robot system S according to
認識部20は、壁60a、60bで仕切られた載置スペース6をカメラ等の画像センサで撮影した画像を処理することで、載置スペース6に載置されている把持及び移載の対象物50の位置P1、姿勢A1、高さH1、及び対象物50の周辺の空間S1を検出する。
The
位置P1、姿勢A1、及び高さH1は、載置スペース6内に仮想的に定めた例えば正系の三次元座標系(以下XYZ座標系という)の座標で表される。姿勢A1は、載置スペース6内において上方から平面視した場合の対象物50の向きであり、対象物50を平面視した場合の長手方向である。
The position P1, the orientation A1, and the height H1 are represented by coordinates of, for example, a normal three-dimensional coordinate system (hereinafter referred to as an XYZ coordinate system) virtually defined in the
対象物50の周辺の空間S1は、対象物50の一方の側面に接する空間であって後述のエンドエフェクタ40の第1指40aの少なくとも一部を挿入可能な空間である。空間がエンドエフェクタ40の第1指40aの少なくとも一部を挿入可能である空間S1であるか否かは、予め与えられた空間S1の条件に基づいて判断される。認識部20は、検出した対象物50の位置P1、姿勢A1、高さH1、及び空間S1の情報を制御装置1へ入力する。
A space S1 around the
アーム30は、載置スペース6に載置されている対象物50を把持して移載する移載機構の一例である。アーム30は、基台31に備え付けられ、基台31を中心に回転し、曲伸又は伸縮するマニピュレータである。アーム30は、基台31から延びたその先端に、エンドエフェクタ40を備える。エンドエフェクタは、ハンドともいう。なお載置スペース6に載置された対象物50を把持して移載する機能を有するならば、アーム30に限らず、どのような移載機構でもよい。
The
エンドエフェクタ40は、対象物50を把持するための複数の指(或いは爪)を備える。本実施形態では、エンドエフェクタ40は、対象物50を把持可能に向い合う第1指40a及び第2指40bの少なくとも2本の指を備える。エンドエフェクタ40は、アーム30への取り付け軸又は鉛直軸を中心に回転すると共に、第1指40a及び第2指40bで対象物50をチャック又はクランプする。本実施形態での把持とは、チャック及びクランプを含む。エンドエフェクタ40は、第1指40aと第2指40bとで対象物50を把持するものであってもよいし、第1指40aと第2指40bを含む複数の指とで対象物50を把持するものであってもよい。
The
制御装置1は、記憶部2及び制御部3を含んで構成される。記憶部2は、揮発性又は不揮発性の記憶デバイスであり、対象物形状情報2a及び誤差情報2bを記憶する。対象物形状情報2aは、対象物50の形状を表す情報であり、頂点及び面の定義座標を含む情報である。例えば対象物50が直方体状である場合には、対象物形状情報2aは、直方体の8個の頂点の三次元座標、及び6つの各面をなすそれぞれ4個の頂点の三次元座標の定義情報を含む。対象物形状情報2aにおける座標は、各対象物50に沿って仮想的に定められた例えば正系の三次元座標系の座標で表される。
The
誤差情報2bは、認識部20が認識した対象物50の位置P1の認識誤差の最大値(以下認識誤差Eという)である。認識誤差Eは、シミュレーション又は実測結果の統計処理によって求められる。認識誤差Eは、XYZ座標系のX軸方向の認識誤差である。なお誤差情報2bは、後述の実施形態2のように、認識誤差Eが、エンドエフェクタ40の一部を空間S1へ挿入する際の挿入位置のマージン確保、及び、エンドエフェクタ40を対象物50の方向へ移動させる際の移動距離として用いられる。本実施形態では、誤差情報2bは省略可能である。
The error information 2b is the maximum value of the recognition error of the position P1 of the
制御部3は、マイクロプロセッサ等のCPU(Central Processing Unit)、ASIC(Application Specific Integrated Circuit)、あるいはFPGA(Field Programmable Gate Array)といったPLD(Programmable Logic Device)等の処理装置である。制御部3は、プログラム実行によって実現される位置姿勢把握部3a及び把持制御部3bを含んで構成される。
The
位置姿勢把握部3aは、認識部20によって検出された対象物50の位置P1と比較してより高精度な対象物50の位置P2を把握する。位置姿勢把握部3aは、空間S1へエンドエフェクタ40の第1指40aの一部を挿入し空間S1を除く対象物50の周囲の空間S0へエンドエフェクタ40の他の部分を挿入していない状態で、エンドエフェクタ40を対象物50の方向へ移動させる。例えば対象物50の姿勢A1に対する垂直方向へエンドエフェクタ40を移動させる。そして位置姿勢把握部3aは、第1指40aを対象物50の側面に接触させる。位置姿勢把握部3aは、このようにアーム30に行わせる動作を計算し、動作指令を出力し、アーム30は、動作指令に従って動作する。
The position/
位置姿勢把握部3aは、エンドエフェクタ40と対象物50が接触した(または接触したと見なし得る)際のエンドエフェクタ40の対象物50の側面との接触部分の位置を対象物50の位置P2とする。エンドエフェクタ40の対象物50の側面との接触部分は、例えば第1指40aの先端部分である。位置P2は、XYZ座標系の座標で表される。
The position/
把持制御部3bは、対象物形状情報2aと、位置姿勢把握部3aによって把握された対象物50の位置P2及び認識部20によって検出された姿勢A1とに基づいて、対象物50の把持可能な部位を決定する。把持可能な部位は、対象物50の形状を考慮して予め定義されている把持可能な部位の候補から、対象物50の位置P2及び姿勢A1を考慮して最適な部位が選択される。把持制御部3bは、対象物50の把持可能な部位をエンドエフェクタ40で把持するためのアーム30及びエンドエフェクタ40の動作を計算し、動作指令を出力する。アーム30及びエンドエフェクタ40は、動作指令に従って動作し、第1指40aと第2指40bとで対象物50を把持する。
The gripping control unit 3b determines whether the
(実施形態1のロボットシステムSの動作)
図2は、実施形態1のロボットシステムSの動作例の説明図である。図2では、XYZ座標系のX軸正方向を壁60aから壁60bへ向かう方向とし、Z軸正方向を壁60a及び60bが立ち上がる方向とする。以下、図4、図5、図7、図8、図10、及び図13においても、座標軸の取り方は同様である。
(Operation of Robot System S of Embodiment 1)
FIG. 2 is an explanatory diagram of an operation example of the robot system S of the first embodiment. In FIG. 2, the X-axis positive direction of the XYZ coordinate system is the direction from the
先ず図2の1-(1)に示すように、認識部20は、対象物50の位置P1及び姿勢A1と共に、第1指40aの少なくとも一部を挿入可能な対象物50の周囲の空間S1を検出する。第1指40aの少なくとも一部は、第1指40aの先端を含む。
First, as shown in 1-(1) of FIG. 2, the
次に図2の1-(2)に示すように、位置姿勢把握部3aは、空間S1へ第1指40aを挿入し、第2指40bを含むエンドエフェクタ40の他の部分を対象物50よりもZ軸正方向の高い位置を維持した(空間S1を除く対象物50の周囲の空間S0にエンドエフェクタ40の他の部分を挿入していない)状態で、第1指40aを対象物50の方向へ移動させる。第1指40aを対象物50の方向へ移動させると、第1指40aが対象物50に接触するが、この接触により、対象物50の高精度な位置P2が把握される。
Next, as shown in 1-(2) of FIG. 2, the position/
次に図2の1-(3)に示すように、把持制御部3bは、位置姿勢把握部3aによって把握された対象物50の位置P2及び認識部20によって検出された姿勢A1と、対象物形状情報2aとに基づいて、第1指40aと第2指40bとで対象物50を把持する。
Next, as shown in 1-(3) of FIG. 2, the grasping control unit 3b controls the position P2 of the
(実施形態1のロボットシステムSの把持処理)
図3は、実施形態1のロボットシステムSの把持処理例を示すフローチャートである。
(Gripping process of robot system S of embodiment 1)
FIG. 3 is a flowchart showing an example of gripping processing of the robot system S of the first embodiment.
先ずステップS11では、認識部20は、対象物50の位置P1及び姿勢A1を検出する。次にステップS12では、認識部20は、空間S1を検出する。次にステップS13では、位置姿勢把握部3aは、空間S1へエンドエフェクタ40の第1指40aの少なくとも一部を挿入する。
First, in step S<b>11 , the
次にステップS14では、位置姿勢把握部3aは、エンドエフェクタ40を対象物50へ向けて移動させる。次にステップS15では、位置姿勢把握部3aは、エンドエフェクタ40の移動を停止させる。次にステップS16では、位置姿勢把握部3aは、エンドエフェクタ40の現在位置を位置P2として、位置P1よりも高精度に対象物50の位置を把握する。次にステップS17では、把持制御部3bは、対象物形状情報2aと、位置姿勢把握部3aによって把握された位置P2と、認識部20によって検出された姿勢A1とに基づいて、対象物50の把持可能な部位を決定する。そして、把持制御部3bは、決定した部位を、エンドエフェクタ40の第1指40a及び第2指40bで把持する。
Next, in step S<b>14 , the position/
本実施形態では、エンドエフェクタ40を対象物50に接近させて接触させることで、対象物50の位置、姿勢、及び高さの認識が低精度の安価な認識部20を採用しても高精度で対象物50の位置を把握でき、ピッキング成功率を高めることができる。このため、高額な3Dロボットビジョンを採用する必要がなく、自動ピッキングシステムの構築費用が下がり、倉庫や工場を運営する顧客が、低額の初期導入費用で、自動ピッキングシステムや物流自動化ソリューションを導入できる。
In this embodiment, by bringing the
[実施形態2]
(実施形態2のロボットシステムSの動作)
図4は、実施形態2のロボットシステムSの動作例の説明図である。本実施形態では、図4の2-(2)-1に示すように、位置姿勢把握部3aは、空間S1に第1指40aを含むエンドエフェクタ40の一部を挿入する際(図3のステップS13)、対象物50の側面から認識誤差E相当の距離だけ離れた位置へ挿入する。対象物50から認識誤差E相当の距離を確保してエンドエフェクタ40の一部を空間S1へ挿入することで、エンドエフェクタ40の挿入の際の認識部20の認識誤差に起因するエンドエフェクタ40と対象物50の干渉を回避できる。
[Embodiment 2]
(Operation of Robot System S of Embodiment 2)
FIG. 4 is an explanatory diagram of an operation example of the robot system S of the second embodiment. In the present embodiment, as shown in 2-(2)-1 in FIG. 4, the position/
さらに図4の2-(2)-2に示すように、位置姿勢把握部3aは、エンドエフェクタ40を対象物50へ向けて移動させる際(図3のステップS14)、認識誤差E相当の距離だけ移動させる。認識誤差E相当の距離だけ移動させることで、エンドエフェクタ40の対象物50の方向への移動の際に、第1指40aの先端を対象物50の側面に確実に接触させることができる。
Furthermore, as shown in 2-(2)-2 in FIG. 4, the position/
なお空間S1に対する対象物50の反対側には、認識誤差E以上の大きさの空間が存在することが望ましい。これは、エンドエフェクタ40を対象物50へ向けて認識誤差E相当の距離だけ移動させる際に、対象物50を押し動かして第1指40aと壁60bで挟んで押し潰してしまうことを防止するためである。
It is desirable that a space having a size equal to or larger than the recognition error E exists on the opposite side of the
[実施形態3]
実施形態2では、エンドエフェクタ40を対象物50へ向けて認識誤差E相当の距離だけ移動させるが、実際の認識誤差は、認識誤差Eよりも小さい値の場合がある。このため、エンドエフェクタ40を対象物50へ向けて認識誤差E相当の距離だけ移動させると、移動量が過大になり、エンドエフェクタ40で対象物50を押し潰してしまうおそれがある。本実施形態では、この不都合を解消する。
[Embodiment 3]
In the second embodiment, the
(実施形態3のロボットシステムSの動作)
図5は、実施形態3のロボットシステムSの動作例の説明図である。先ず図5の3-(1)に示すように、認識部20は、空間S1と共に、対象物50aに関して、第1指40aを挿入可能な対象物50aの周囲の空間S1のX軸正方向の反対側の壁60bまでの間に、認識誤差E相当の距離だけ対象物50aを移動可能な空間S2が存在するか否かを判定する。空間が対象物50aを移動可能な空間S2であるか否かは、予め与えられた空間S2の条件に基づいて判断される。
(Operation of Robot System S of Embodiment 3)
FIG. 5 is an explanatory diagram of an operation example of the robot system S of the third embodiment. First, as shown in 3-(1) of FIG. 5, the recognizing
位置姿勢把握部3aは、空間S2が存在した場合には、図5の3-(2)に示すように、エンドエフェクタ40を制御して、認識誤差E相当の距離だけ対象物50aを第1指40aで押し動かすことで対象物50aを把持する際の位置決めをする。そして図5の3-(3)に示すように、実施形態1~2と同様に、把持制御部3bは、エンドエフェクタ40を制御して対象物50aを把持する。
When the space S2 exists, the position/
一方、位置姿勢把握部3aは、空間S2が存在しない場合には、エンドエフェクタ40の移動を行わず対象物50aの把持処理を中止する。
On the other hand, if the space S2 does not exist, the position/
なお図5では、対象物50aと空間S2との間に対象物50bが存在する場合を示すが、1又は複数の対象物50bの有無に関わらず、空間S2の存在の有無に応じて、エンドエフェクタ40を移動するか、又は把持処理中止とする。これは、本実施形態では、エンドエフェクタ40の移動によって、エンドエフェクタ40と壁60bとの間の全ての対象物50の押し潰しを防止することが目的であるからである。
Note that FIG. 5 shows a case where the
(実施形態3のロボットシステムSの把持処理)
図6は、実施形態3のロボットシステムSの把持処理例を示すフローチャートである。図3に示す実施形態1の把持処理と比較して、実施形態3の把持処理は、ステップS12の次にステップS12C1が挿入され、ステップS12C1の判定がNoの場合に実行されるステップS12C2が追加され、ステップS14に代えてステップS14Cが実行される点が異なる。その他は実施形態1の把持処理と同様である。
(Gripping process of robot system S of embodiment 3)
FIG. 6 is a flowchart showing an example of gripping processing of the robot system S of the third embodiment. Compared to the gripping process of the first embodiment shown in FIG. 3, the gripping process of the third embodiment includes step S12C1 after step S12, and adds step S12C2 that is executed when the determination in step S12C1 is No. and step S14C is executed instead of step S14. Others are the same as the gripping process of the first embodiment.
ステップS12に続くステップS12C1では、認識部20は、空間S2を検出したか否かを判定する。認識部20は、空間S2を検出した場合(ステップS12C1Yes)にステップS13へ処理を移す。一方認識部20は、空間S2を検出しなかった場合(ステップS12C1No)にステップS12C2へ処理を移し、把持処理を中止する(ステップS12C2)。
In step S12C1 following step S12, the
またステップS14Cでは、位置姿勢把握部3aは、エンドエフェクタ40を対象物50へ向けて認識誤差E相当の距離だけ移動させる。
In step S14C, the position/
本実施形態では、空間S2が存在する場合にのみエンドエフェクタ40を移動させることで、エンドエフェクタ40が力センサを備えなくても移動した際に対象物50を押し潰すことを防止できる。
In this embodiment, by moving the
[実施形態4]
上述の実施形態1~3では、エンドエフェクタ40が対象物50を第1指40a及び第2指40bで把持する動作の詳細については言及していない。実施形態4では、エンドエフェクタ40が第1指40aと第2指40bを用いて対象物50を拘束する順序について説明する。
[Embodiment 4]
In the first to third embodiments described above, details of the operation of the
(実施形態4のロボットシステムSの動作)
図7は、実施形態4のロボットシステムSの動作例の説明図である。図7の4-(2)に示すように、位置姿勢把握部3aは、実施形態1~3と同様に、エンドエフェクタ40の第1指40aを空間S1へ挿入し移動させて対象物50aと接触させる。そして図7の4-(3)-1に示すように、把持制御部3bは、エンドエフェクタ40の第1指40aが対象物50の空間S1側の面と接触した後、第1指40aの対象物50への接触を一旦解除し、空間S1とX軸正方向の反対側の対象物50の面に第2指40bを接触させる。その後把持制御部3bは、図7の4-(3)-2に示すように、第1指40aを動かして第2指40bと共に空間S1の対象物50を拘束する。
(Operation of Robot System S of Embodiment 4)
FIG. 7 is an explanatory diagram of an operation example of the robot system S of the fourth embodiment. As shown in 4-(2) of FIG. 7, the position/
このように、位置姿勢把握部3aによる位置決めの後、認識誤差の許容範囲が小さい空間から先に指を挿入し、その後認識誤差の許容範囲が大きい空間S1に指を挿入して把持することで、把持の失敗を防止することができる。
In this way, after positioning by the position/
[実施形態5]
実施形態5では、空間S1に挿入されたエンドエフェクタ40の第1指40aが、対象物50の空間S1側の面に接触したことを検知する力センサ9を備える。
[Embodiment 5]
In the fifth embodiment, the
(実施形態5のロボットシステムSの動作)
図8は、実施形態5のロボットシステムSの動作例の説明図である。先ず図8の5-(1)に示すように、認識部20は、実施形態1~4と同様に、対象物50と空間S1を検出する。次に図8の5-(2)に示すように、位置姿勢把握部3aは、認識誤差E相当の距離を対象物50から確保して空間S1へ第1指40aを挿入し、エンドエフェクタ40を対象物50の方向へ移動させる。位置姿勢把握部3aは、力センサ9によって第1指40aが対象物50から受ける反力を検出すると、エンドエフェクタ40の移動を停止する。そして把持制御部3bは、実施形態1~4と同様に、エンドエフェクタ40に対して、第2指40bを対象物50の空間S1とはX軸正方向の反対側の面に接触させて、第1指40aと共に対象物50を把持するよう指示する。
(Operation of Robot System S of Embodiment 5)
FIG. 8 is an explanatory diagram of an operation example of the robot system S of the fifth embodiment. First, as shown in 5-(1) of FIG. 8, the
(実施形態5のロボットシステムSの把持処理)
図9は、実施形態5のロボットシステムSの把持処理例を示すフローチャートである。図3のフローチャートで示す実施形態1の把持処理と比較して、実施形態5の把持処理では、ステップS14の次にステップS14Eが挿入され、ステップS14Eの判定がYesとなるまでステップS14Eが繰り返される。その他は実施形態1の把持処理と同様である。
(Gripping process of robot system S of embodiment 5)
FIG. 9 is a flowchart showing an example of gripping processing of the robot system S of the fifth embodiment. Compared to the gripping process of the first embodiment shown in the flowchart of FIG. 3, in the gripping process of the fifth embodiment, step S14E is inserted after step S14, and step S14E is repeated until the determination in step S14E becomes Yes. . Others are the same as the gripping process of the first embodiment.
ステップS14Eでは、位置姿勢把握部3aは、力センサ9の出力値が所定閾値以上か、つまり対象物50の面との接触に相当する対象物50の面からの反力を検知したか否かを判定する。位置姿勢把握部3aは、反力を検知していない場合(ステップS14ENo)にステップS14Eを繰り返し、反力を検知した場合(ステップS14EYes)にステップS15へ処理を移す。
In step S14E, the position/
本実施形態によれば、力センサ9によって、第1指40aが必要以上に大きな力を対象物50へ付加することを防止できる。
According to the present embodiment, the
[実施形態6]
実施形態6では、エンドエフェクタ40は、複数の第1指40a(第1指40a1及び40a2の2つ)を備える。複数の第1指40aのそれぞれは、対象物50の空間S1側の面に接触したことを検知する力センサ9を備える。なお複数の第1指40aは、2つに限らず、3つ以上であってもよい。
[Embodiment 6]
In
(実施形態6のロボットシステムSの動作)
図10は、実施形態6のロボットシステムSの動作例の説明図である。図10の6-(3)-1に示すように、位置姿勢把握部3aは、第1指40a1及び40a2を空間S1へ挿入した後、エンドエフェクタ40を対象物50の方向へ移動させる。すると何れかの第1指40a(図10の6-(3)-1では第1指40a1)の力センサ9が先に対象物50の空間S1側の面との接触を検出すると、図10の6-(3)-2に示すように、接触が検出されていないもう一方の第1指40a2を、第1指40a1を回転中心として回転させることで、第1指40a2も対象物50へ接触させる。例えばエンドエフェクタ40の回転方向は式(1)の外積rが表す方向で与えられる。式(1)では、ベクトルdはエンドエフェクタ40の対象物50の方向へ向けた移動方向、ベクトルpは先に対象物50と接触した第1指40a1から第1指40a2へ向かうベクトルである。
r=p×d・・・(1)
(Operation of Robot System S of Embodiment 6)
FIG. 10 is an explanatory diagram of an operation example of the robot system S of the sixth embodiment. As shown in 6-(3)-1 of FIG. 10, the position/
r=p×d (1)
式(1)に基づくエンドエフェクタ40の回転量は、対象物50の姿勢A1の認識誤差の最大値であり、誤差情報2bに含まれる情報である。なお姿勢A1の認識誤差の最大値を回転量としてエンドエフェクタ40を回転させるのではなく、第1指40a2の力センサ9が対象物50の反力を検出するまで回転させてもよい。
The amount of rotation of the
または、エンドエフェクタ40を鉛直軸周りに旋回することでも、先に対象物50の空間S1側の面との接触が検出された一方の第1指40a1と共に、接触が検出されていないもう他方の第1指40a2を対象物50の空間S1側の面と接触させることができる。
Alternatively, by rotating the
(実施形態6のロボットシステムSの把持処理)
図11は、実施形態6のロボットシステムSの把持処理例を示すフローチャートである。図3のフローチャートで示す実施形態1の把持処理と比較して、実施形態6の把持処理では、ステップS13の代わりにステップS13Fが実行され、ステップS14の代わりにステップS14F1が実行され、ステップS14F1の次にステップS14F2の判定処理が追加される。またステップS15の次にステップS15Fが追加される。その他は実施形態1の把持処理と同様である。
(Gripping process of robot system S of embodiment 6)
FIG. 11 is a flowchart showing an example of gripping processing of the robot system S of the sixth embodiment. Compared to the gripping process of the first embodiment shown in the flowchart of FIG. 3, in the gripping process of the sixth embodiment, step S13F is executed instead of step S13, step S14F1 is executed instead of step S14, and step S14F1 is executed instead of step S14. Next, determination processing in step S14F2 is added. Step S15F is added after step S15. Others are the same as the gripping process of the first embodiment.
ステップS13Fでは、位置姿勢把握部3aは、空間S1へ複数の第1指40aを挿入する。次にステップS14F1では、位置姿勢把握部3aは、複数の第1指40aを対象物50へ向けて移動させる。次にステップS14F2では、位置姿勢把握部3aは、少なくとも1つの第1指40aが対象物50の空間S1側の面に接触したことを示す反力を検出したか否かを判定する。位置姿勢把握部3aは、少なくとも1つの第1指40aが対象物50の空間S1側の面に接触したことを示す反力を検出した(ステップS14F2Yes)場合にステップS15へ処理を移し、反力を検出しない場合に(ステップS14F2No)場合にステップS14F2を繰り返す。
In step S13F, the position/
ステップS15Fでは、位置姿勢把握部3aは、全ての第1指40aが対象物50の空間S1側の面と接触するまでエンドエフェクタ40を回転させる。
In step S15F, the position/
(実施形態6の変形例)
なお本実施形態では、総ての第1指40aが力センサ9を備えるとしたが、第1指40aは総て力センサ9を備えない構成でもよい。この場合、図10の6-(3)-1に示すエンドエフェクタ40の対象物50の方向への移動量mは、認識部20の認識誤差E相当の距離とすればよい。
(Modification of Embodiment 6)
In this embodiment, all the
(実施形態6の変形例のロボットシステムSの把持処理)
図12は、実施形態6の変形例のロボットシステムSの把持処理例を示すフローチャートである。図11のフローチャートで示す実施形態6の把持処理と比較して、実施形態6の変形例の把持処理では、ステップS14F1の代わりにステップS14F11が実行され、ステップS14F2が省略される。その他は、実施形態6の把持処理と同様である。ステップS14F11では、位置姿勢把握部3aは、複数の第1指を対象物50に向けて認識誤差E相当の距離だけ移動させる。
(Gripping process of robot system S according to modification of embodiment 6)
FIG. 12 is a flowchart showing an example of gripping processing of the robot system S according to the modification of the sixth embodiment. Compared with the gripping process of the sixth embodiment shown in the flowchart of FIG. 11, in the gripping process of the modification of the sixth embodiment, step S14F11 is executed instead of step S14F1, and step S14F2 is omitted. Others are the same as the gripping process of the sixth embodiment. In step S<b>14</b>F<b>11 , the position/
本実施形態及びその変形例によれば、姿勢A1の認識誤差をエンドエフェクタ40の旋回により補正することで、把持成功率を高めることができる。
According to the present embodiment and its modified example, by correcting the recognition error of the orientation A1 by turning the
[実施形態7]
実施形態7では、エンドエフェクタ40は、少なくとも第1指40aが力センサ9を備え、第1指40aを垂直降下させた際の力センサ9による反力の検知によって、対象物50が配置されている面の高さを認識する。
[Embodiment 7]
In the seventh embodiment, the
(実施形態7のロボットシステムSの動作)
図13は、実施形態7のロボットシステムSの動作例の説明図である。先ず図13の7-(1)に示すように、認識部20は、対象物50bの位置P1、姿勢A1、及び少なくとも第1指40aを挿入可能な対象物50の周囲の空間S1を検出する。次に図13の7-(2)-1に示すように、位置姿勢把握部3aは、認識誤差E相当の距離を対象物50から確保して空間S1へ第1指40aを挿入し、第1指40aが反力を検出するまでエンドエフェクタ40を下へ(Z軸負方向へ)移動させる。第1指40aが反力を検出するとは、対象物50が配置されている高さの面を検出したということである。
(Operation of Robot System S of Embodiment 7)
FIG. 13 is an explanatory diagram of an operation example of the robot system S of the seventh embodiment. First, as shown in 7-(1) of FIG. 13, the
その後図13の7-(2)-2に示すように、位置姿勢把握部3aは、エンドエフェクタ40を、対象物形状情報2aから定められる対象物50の適切な把持位置の高さまでZ軸正方向へ上昇させ、この高さを維持しながら、対象物50の方向へ認識誤差E相当の距離だけ移動させて第2指40bを対象物50に接触させる。これにより対象物50の位置P2が把握される。そして図13の7-(2)-3に示すように、対象物形状情報2aと、位置姿勢把握部3aで把握した対象物の位置P2と、認識部20で把握した姿勢A1とに基づいて対象物50の把持可能な部位をエンドエフェクタ40で把持する。
After that, as shown in 7-(2)-2 of FIG. 13, the position/
(実施形態7のロボットシステムSの把持処理)
図14は、実施形態7のロボットシステムSの把持処理例を示すフローチャートである。図9のフローチャートで示す実施形態5の把持処理と比較して、実施形態7の把持処理では、ステップS13の代わりにステップS13Gが実行され、ステップS14Eの代わりにステップS14G1、S14G2、及びS14G3が実行される。その他は、実施形態7の把持処理と同様である。
(Gripping process of robot system S of embodiment 7)
FIG. 14 is a flowchart showing an example of gripping processing of the robot system S of the seventh embodiment. Compared to the gripping process of the fifth embodiment shown in the flowchart of FIG. 9, in the gripping process of the seventh embodiment, step S13G is executed instead of step S13, and steps S14G1, S14G2, and S14G3 are executed instead of step S14E. be done. Others are the same as the gripping process of the seventh embodiment.
ステップS13Gでは、位置姿勢把握部3aは、空間S1に少なくとも第1指40aを対象物50から認識誤差Eを確保して挿入し、下方へ移動させる。次にステップS14G1では、位置姿勢把握部3aは、力センサ9の出力値が所定閾値以上か、つまり載置スペース6における対象物50の配置面との接触に相当する配置面からの反力を検知したか否かを判定する。位置姿勢把握部3aは、反力を検知していない場合(ステップS14G2No)にステップS14G2を繰り返し、反力を検知した場合(ステップS14G2Yes)にステップS14G3へ処理を移す。
In step S13G, the position/
ステップS14G3では、位置姿勢把握部3aは、エンドエフェクタ40を所定高さで対象物50に向けて認識誤差Eだけ移動させる。
In step S14G3, the position/
なお本実施形態において、エンドエフェクタ40を対象物50の方向へ認識誤差E相当の距離だけ移動させる際に、エンドエフェクタ40が配置面の高さを維持した状態で移動させてもよい。
In this embodiment, when the
本実施形態では、乱雑に何層にも積み上げられた対象物50を最上層からピッキングする際、または高さ方向の形状が高さ位置で異なる対象物50をピッキングする際、高精度に検出した配置面を基準に対象物50の適切な把持位置の高さを割り出し、この高さで対象物50を把持する。よって、低精度の高さ認識に基づく不適切な位置を把持することによる把持失敗を防止し、ピッキング成功率を高めることができる。
In this embodiment, when picking the
(ロボットシステムSの制御装置1を実現するコンピュータ500の構成)
図15は、ロボットシステムSの制御装置1を実現するコンピュータ500の構成例を示す図である。コンピュータ500では、プロセッサ510、RAM(Random Access Memory)などのメモリ520、SSD(Solid State Drive)やHDD(Hard Disk Drive)などのストレージ530、及びネットワークI/F(Inter/Face)540が、バスを介して接続されている。
(Configuration of
FIG. 15 is a diagram showing a configuration example of a
コンピュータ500において、制御装置1を実現するためのプログラムがストレージ530から読み出されプロセッサ510及びメモリ520の協働により実行されることで制御装置1が実現される。あるいは、制御装置1を実現するためのプログラムによって、FPGAといったPLDであるプロセッサ510がコンフィギュレーションされることで制御装置1が実現される。または、制御装置1を実現するためのプログラムは、ネットワークI/F540を介した通信により非一時的な記憶装置を備えた外部のコンピュータから取得されてもよい。あるいは制御装置1は、非一時的記録媒体に記録され、媒体読み取り装置によって読み出されることで取得されてもよい。
In
本発明は上述の実施形態に限定されるものではなく、様々な変形例を含む。例えば、上記した実施形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、矛盾しない限りにおいて、ある実施形態の構成の一部を他の実施形態の構成で置き換え、ある実施形態の構成に他の実施形態の構成を加えることも可能である。また、各実施形態の構成の一部について、構成の追加、削除、置換、統合、又は分散をすることが可能である。また、実施形態で示した構成及び処理は、処理効率又は実装効率に基づいて適宜分散、統合、または入れ替えることが可能である。 The present invention is not limited to the above-described embodiments, but includes various modifications. For example, the above-described embodiments have been described in detail in order to explain the present invention in an easy-to-understand manner, and are not necessarily limited to those having all the configurations described. Also, as long as there is no contradiction, it is possible to replace part of the configuration of one embodiment with the configuration of another embodiment, and to add the configuration of another embodiment to the configuration of one embodiment. Moreover, it is possible to add, delete, replace, integrate, or distribute a part of the configuration of each embodiment. Also, the configurations and processes shown in the embodiments can be appropriately distributed, integrated, or replaced based on processing efficiency or implementation efficiency.
S:ロボットシステム、1:制御装置、2:記憶部、2a:対象物形状情報、2b:誤差情報、3:制御部、3a:位置姿勢把握部、3b:把持制御部、9:力センサ、20:認識部、30:アーム、40:エンドエフェクタ(把持部)、50,50a,50b:対象物、500:コンピュータ、510:プロセッサ
S: robot system, 1: control device, 2: storage unit, 2a: object shape information, 2b: error information, 3: control unit, 3a: position and orientation grasping unit, 3b: gripping control unit, 9: force sensor, 20: recognition unit, 30: arm, 40: end effector (grasping unit), 50, 50a, 50b: object, 500: computer, 510: processor
Claims (13)
移載前の前記対象物の周囲において、前記把持部の少なくとも一部を挿入可能な空間、並びに、前記対象物の位置及び姿勢を認識する認識部と、
前記認識部によって認識された前記空間のうちの第1の空間へ前記把持部の少なくとも一部を挿入しつつ前記第1の空間以外の空間へは前記把持部を挿入しない状態で、前記把持部を前記対象物の方向へ移動させて前記把持部を前記対象物に接触させることで、前記対象物の位置を前記認識部よりも高精度に把握する位置姿勢把握部と、
前記対象物の形状に関する情報、並びに、前記位置姿勢把握部によって把握された前記対象物の位置に基づいて、前記対象物を把持可能な位置を特定し、該位置において前記対象物を前記把持部で把持する把持制御部と
を有することを特徴とするロボットシステム。 A robot system having a transfer mechanism for holding and transferring an object with a plurality of fingers of a holding part,
a recognition unit that recognizes a space in which at least part of the gripping unit can be inserted, and the position and orientation of the object, around the object before transfer;
the grasping unit in a state in which at least part of the grasping unit is inserted into a first space among the spaces recognized by the recognition unit and the grasping unit is not inserted into a space other than the first space; a position and orientation grasping unit that grasps the position of the target object with higher accuracy than the recognition unit by moving the gripping unit toward the target object and bringing the grasping unit into contact with the target object;
A position where the object can be grasped is specified based on information about the shape of the object and the position of the object grasped by the position/orientation grasping unit, and the grasping unit grasps the object at the position. A robot system comprising: a grasping control unit for grasping with and
前記位置姿勢把握部は、
前記第1の空間へ前記複数の指のうちの第1の指を挿入しつつ前記第1の指以外の指を前記対象物よりも高い位置を維持した状態で、前記把持部を前記対象物の方向へ移動させる
ことを特徴とするロボットシステム。 The robot system according to claim 1,
The position/orientation grasping unit
While inserting a first finger of the plurality of fingers into the first space and maintaining a position higher than the object with fingers other than the first finger, the grip portion is moved to the object. A robot system characterized by moving in the direction of
前記位置姿勢把握部は、
前記対象物に対して前記認識部が前記対象物の位置を認識する際の認識誤差相当の距離を確保して前記第1の空間へ前記把持部の少なくとも一部を挿入し、前記認識誤差相当の距離だけ前記把持部を前記対象物の方向へ移動させる
ことを特徴とするロボットシステム。 The robot system according to claim 1,
The position/orientation grasping unit
inserting at least part of the gripping unit into the first space while securing a distance corresponding to a recognition error when the recognition unit recognizes the position of the object with respect to the object; A robot system characterized by moving the gripper toward the object by a distance of .
前記第1の空間に対する前記対象物の反対側には、前記認識誤差相当の距離以上の大きさの空間が存在する
ことを特徴とするロボットシステム。 The robot system according to claim 3,
A robot system, wherein a space having a size equal to or greater than the distance corresponding to the recognition error exists on the opposite side of the object with respect to the first space.
前記認識部は、
前記第1の空間に対する前記対象物の反対側に、前記認識部が前記対象物の位置を認識する際の認識誤差相当の距離だけ前記対象物を移動可能な大きさの第2の空間が存在するか否かを判定し、
前記位置姿勢把握部は、
前記認識部によって前記第2の空間が存在すると判定された場合に、前記第1の空間へ前記把持部の少なくとも一部を挿入しつつ前記第1の空間以外の空間へは前記把持部を挿入しない状態で、前記認識誤差相当の距離だけ前記把持部を前記対象物の方向へ移動させる
ことを特徴とするロボットシステム。 The robot system according to claim 1,
The recognition unit
On the opposite side of the object to the first space, there is a second space having a size that allows the object to be moved by a distance corresponding to a recognition error when the recognition unit recognizes the position of the object. determine whether to
The position/orientation grasping unit
When the recognizing unit determines that the second space exists, inserting at least part of the gripping unit into the first space and inserting the gripping unit into a space other than the first space. The robot system moves the gripping part in the direction of the object by a distance corresponding to the recognition error in a state in which the gripping part is not moved.
前記把持部は、第1の指及び前記第1の指と向かい合う第2の指を有し、
前記把持制御部は、
前記位置姿勢把握部によって、前記第1の空間へ前記第1の指を挿入しつつ前記第1の空間以外の空間へは何れの指も挿入しない状態で、前記把持部を前記対象物の方向へ移動させて前記第1の指が前記対象物に接触させ、
前記把持制御部は、
前記把持制御部によって前記第1の指が前記対象物に接触すると、前記第1の指と前記対象物との接触を一旦解除し、前記第1の空間に対する前記対象物の反対側の第3の空間へ前記第2の指を挿入し、前記第3の空間へ前記第2の指を挿入した状態で、前記第1の指と前記第2の指とで前記対象物を把持する
ことを特徴とするロボットシステム。 The robot system according to claim 1,
The grip portion has a first finger and a second finger facing the first finger,
The grip control unit
The position/orientation grasping unit moves the grasping unit in the direction of the object while inserting the first finger into the first space and not inserting any fingers into spaces other than the first space. to bring the first finger into contact with the object,
The grip control unit
When the grip control unit causes the first finger to contact the object, the contact between the first finger and the object is temporarily released, and a third grip on the opposite side of the object with respect to the first space is held. inserting the second finger into the space of the third space, and grasping the object with the first finger and the second finger in a state in which the second finger is inserted into the third space; A robot system characterized by:
前記第1の指は、前記対象物との接触の際に前記対象物から受ける反力を検出するセンサを有し、
前記位置姿勢把握部は、
前記第1の空間へ前記把持部の少なくとも一部を挿入しつつ前記第1の空間以外の空間へは前記把持部を挿入しない状態で、前記センサによって前記反力が検出されるまで、前記把持部を前記対象物の方向へ移動させる
ことを特徴とするロボットシステム。 The robot system according to claim 6,
the first finger has a sensor that detects a reaction force received from the object when it contacts the object;
The position/orientation grasping unit
In a state in which at least part of the grip portion is inserted into the first space and the grip portion is not inserted into a space other than the first space, the grip is continued until the reaction force is detected by the sensor. A robot system characterized by moving a part in the direction of the object.
前記把持部は、複数の第1の指、及び、前記複数の第1の指と向かい合う第2の指を有し、
前記位置姿勢把握部は、
前記第1の空間へ前記複数の第1の指の少なくとも何れかの一部を挿入しつつ前記第1の空間以外の空間へは前記第2の指を挿入しない状態で、前記把持部を前記対象物の方向へ移動させ、
前記把持制御部は、
前記位置姿勢把握部によって前記複数の第1の指のうちの何れかが前記対象物と接触した後、前記複数の第1の指のうちの前記対象物と接触した指を始点とし前記対象物と接触していない指を終点とする第1ベクトルと、前記把持部の前記対象物の方向への移動を表す第2ベクトルとの外積が示す方向へ、前記把持部を所定軸を中心に回転させて、前記複数の第1の指を前記対象物と接触させる
ことを特徴とするロボットシステム。 The robot system according to claim 1,
The grip portion has a plurality of first fingers and a second finger facing the plurality of first fingers,
The position/orientation grasping unit
In a state in which at least a part of the plurality of first fingers is inserted into the first space and the second finger is not inserted into a space other than the first space, the grip portion is moved to the Move in the direction of the object,
The grip control unit
After any one of the plurality of first fingers contacts the object by the position/orientation grasping unit, the finger of the plurality of first fingers that has come into contact with the object is taken as a starting point and the object is detected. Rotating the gripping portion about a predetermined axis in a direction indicated by a cross product of a first vector whose end point is a finger that is not in contact with the gripping portion and a second vector representing movement of the gripping portion toward the object. to bring the plurality of first fingers into contact with the object.
前記把持制御部は、
前記認識部が前記対象物の姿勢を認識する際の認識誤差相当の角度だけ、前記把持部を前記所定軸を中心に回転させる
ことを特徴とするロボットシステム。 The robot system according to claim 8,
The grip control unit
A robot system, wherein the grasping section is rotated about the predetermined axis by an angle corresponding to a recognition error when the recognition section recognizes the posture of the object.
前記複数の第1の指は、前記対象物との接触の際に前記対象物から受ける反力を検出するセンサを有し、
前記位置姿勢把握部は、
前記第1の空間へ前記複数の第1の指の少なくとも一部を挿入しつつ前記第1の空間以外の空間へは前記第2の指を挿入しない状態で、何れかの前記第1の指の前記センサによって前記反力が検出されるまで、前記把持部を前記対象物の方向へ移動させる
ことを特徴とするロボットシステム。 The robot system according to claim 8,
The plurality of first fingers have sensors for detecting a reaction force received from the object upon contact with the object,
The position/orientation grasping unit
any one of the first fingers while inserting at least part of the plurality of first fingers into the first space and not inserting the second finger into a space other than the first space; until the reaction force is detected by the sensor of the robot system.
前記位置姿勢把握部は、
前記第1の空間へ前記複数の第1の指の少なくとも一部を挿入しつつ前記第1の空間以外の空間へは前記第2の指を挿入しない状態で、前記認識部が前記対象物の位置を認識する際の認識誤差相当の距離だけ、前記把持部を前記対象物の方向へ移動させる
ことを特徴とするロボットシステム。 The robot system according to claim 8,
The position/orientation grasping unit
In a state in which at least part of the plurality of first fingers are inserted into the first space and the second finger is not inserted into a space other than the first space, the recognition unit recognizes the target object. A robot system that moves the gripper toward the object by a distance corresponding to a recognition error in recognizing the position.
前記複数の指のうちの第1の指は、鉛直下方向へ移動させた際に鉛直方向へ受ける反力を検出するセンサを有し、
前記位置姿勢把握部は、
前記第1の空間へ前記第1の指を挿入し、前記反力を受けるまで鉛直下方向へ移動させ、前記反力を受けた際の鉛直方向の第1の高さ位置又は該第1の高さ位置から所定の高さだけ鉛直上方向へ移動させた第2の高さ位置を維持した状態で、前記第1の指を前記対象物の方向へ移動させて前記第1の指を前記対象物に接触させることで、前記対象物の位置及び姿勢を前記認識部よりも高い精度で把握する
ことを特徴とするロボットシステム。 The robot system according to claim 1,
A first finger of the plurality of fingers has a sensor for detecting a reaction force received in the vertical direction when moved vertically downward,
The position/orientation grasping unit
The first finger is inserted into the first space, moved vertically downward until receiving the reaction force, and is positioned at the first vertical height position or the first height position when receiving the reaction force. While maintaining a second height position that is vertically upwardly moved from the height position by a predetermined height, the first finger is moved in the direction of the object, and the first finger is moved to the above-mentioned position. A robot system that grasps the position and orientation of an object with higher accuracy than the recognition unit by bringing the object into contact with the object.
前記ロボットシステムの認識部が、移載前の前記対象物の周囲において、前記把持部の少なくとも一部を挿入可能な空間、並びに、前記対象物の位置及び姿勢を認識し、
前記ロボットシステムの位置姿勢把握部が、前記認識部によって認識された前記空間のうちの第1の空間へ前記把持部の少なくとも一部を挿入しつつ前記第1の空間以外の空間へは前記把持部を挿入しない状態で、前記把持部を前記対象物の方向へ移動させて前記把持部を前記対象物に接触させることで、前記対象物の位置を前記認識部よりも高精度に把握し、
前記ロボットシステムの把持制御部が、前記対象物の形状に関する情報、並びに、前記位置姿勢把握部によって把握された前記対象物の位置に基づいて、前記対象物を把持可能な位置を特定し、該位置において前記対象物を前記把持部で把持する
各処理を有することを特徴とするロボットシステムの制御方法。
A control method for a robot system having a transfer mechanism for grasping and transferring an object with a plurality of fingers of a grasping part, comprising:
The recognition unit of the robot system recognizes a space in which at least part of the gripping unit can be inserted and the position and orientation of the object around the object before transfer,
A position/orientation grasping unit of the robot system inserts at least part of the grasping unit into a first space among the spaces recognized by the recognition unit, and grasps the grasping unit into a space other than the first space. The position of the target object is grasped with higher accuracy than the recognition unit by moving the gripping unit in the direction of the target object and bringing the gripping unit into contact with the target object without inserting the unit,
A gripping control unit of the robot system identifies a position where the object can be gripped based on information about the shape of the object and the position of the object grasped by the position/orientation grasping unit. A control method for a robot system, comprising: each process of gripping the object at a position with the gripping unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021104082A JP2023003109A (en) | 2021-06-23 | 2021-06-23 | Robot system and control method of robot system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021104082A JP2023003109A (en) | 2021-06-23 | 2021-06-23 | Robot system and control method of robot system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023003109A true JP2023003109A (en) | 2023-01-11 |
Family
ID=84817330
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021104082A Pending JP2023003109A (en) | 2021-06-23 | 2021-06-23 | Robot system and control method of robot system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023003109A (en) |
-
2021
- 2021-06-23 JP JP2021104082A patent/JP2023003109A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9604364B2 (en) | Picking apparatus and picking method | |
US20210347051A1 (en) | Method and computing system for performing motion planning based on image information generated by a camera | |
CN101152720B (en) | Workpiece picking apparatus | |
US10532461B2 (en) | Robot and robot system | |
JP6140204B2 (en) | Transport robot system with 3D sensor | |
JP6771744B2 (en) | Handling system and controller | |
US11701777B2 (en) | Adaptive grasp planning for bin picking | |
JP2020168710A (en) | Robot system, method for robot system and non-temporal computer readable medium | |
JP6088563B2 (en) | Work picking robot system having position and orientation conversion operation function, and work picking method | |
JP2020116726A (en) | Operation method of transfer robot, system for operating transfer robot, and tangible non-transitory computer readable medium | |
JP6487495B2 (en) | Work removal system | |
EP1862270A2 (en) | Workpiece picking device and method | |
JP2020203342A (en) | Object handling control device, object handling device, object handling method and object handling program | |
US20170277167A1 (en) | Robot system, robot control device, and robot | |
JP2012024903A (en) | Workpiece removing device and workpiece removing method | |
JP2012135820A (en) | Automatic picking device and automatic picking method | |
CN113858188A (en) | Industrial robot gripping method and apparatus, computer storage medium, and industrial robot | |
CN115703232A (en) | Robot system with image-based sizing mechanism and method of operating the same | |
CN112154048A (en) | Robot-based workpiece insertion | |
CN112338922B (en) | Five-axis mechanical arm grabbing and placing method and related device | |
JP2023003109A (en) | Robot system and control method of robot system | |
JP7467984B2 (en) | Mobile manipulator, control method and control program for mobile manipulator | |
Thormann et al. | Localization and efficient grasping of objects by a manipulator using RFID technique | |
WO2021149429A1 (en) | Robot system control device, robot system control method, computer control program, and robot system | |
JP2013129005A (en) | Gripping robot device, gripping operation control method and gripping operation control device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240214 |