JP2023003109A - Robot system and control method of robot system - Google Patents

Robot system and control method of robot system Download PDF

Info

Publication number
JP2023003109A
JP2023003109A JP2021104082A JP2021104082A JP2023003109A JP 2023003109 A JP2023003109 A JP 2023003109A JP 2021104082 A JP2021104082 A JP 2021104082A JP 2021104082 A JP2021104082 A JP 2021104082A JP 2023003109 A JP2023003109 A JP 2023003109A
Authority
JP
Japan
Prior art keywords
space
unit
robot system
finger
gripping
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021104082A
Other languages
Japanese (ja)
Inventor
遼 小山
Ryo Koyama
宣隆 木村
Nobutaka Kimura
宰誠 梁
Jae Sung Yang
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2021104082A priority Critical patent/JP2023003109A/en
Publication of JP2023003109A publication Critical patent/JP2023003109A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

To enable introduction of a robot system having a higher picking success rate at low cost.SOLUTION: A robot system, which has a transfer mechanism that transfers an object while gripping the object with a plurality of fingers of a gripping part, comprises: a recognizing part that recognizes a space into which at least a portion of the gripping part can be inserted as well as the position and the posture of the object, around the object not yet transferred; a position and posture grasping part that moves the gripping part in a direction of the object to bring the gripping part into contact with the object, while inserting at least a portion of the gripping part into a first space in the space recognized by the recognizing part and not inserting the gripping part into spaces other than the first space, thereby grasping the position of the object more accurately than the recognizing part, and a gripping control part that identifies a position where the object can be gripped on the basis of information concerning the shape of the object as well as the position of the object grasped by the position and posture grasping part, and makes the gripping part grip the object at the identified position.SELECTED DRAWING: Figure 2

Description

本発明は、ロボットシステム及びロボットシステムの制御方法に関する。 The present invention relates to a robot system and a control method for the robot system.

近年、物流倉庫等における物品のピッキング作業の人材不足を補うために、ピッキング作業を行うロボットシステムが導入されるようになってきている。このようなロボットシステムは、対象物を把持部にて適切に把持するために、例えば「第1指部を物体に接触させ、力検出部から出力される出力値が所定の第1閾値以上となるまで第1指部を物体に付勢させる第1動作を行わせ、第1動作の後、力検出部から出力される出力値が第1閾値以上である状態を維持し、第1指部とアームとを移動させ、物体に第1指部と第2指部とを接触させる第2動作を行わせ、第2動作において、力検出部から出力される出力値が第1閾値よりも小さい所定の第2閾値よりも小さくなったとき、第1位置検出部から出力される出力値に応じた値と、予め決められた第1値と、の差異が所定の範囲内である場合、物体が所定の状態で第1指部と第2指部とによって把持されていると判定する」(特許文献1参照)ように構成される。 2. Description of the Related Art In recent years, in order to make up for the shortage of personnel for picking work in distribution warehouses and the like, robot systems that perform picking work have been introduced. In such a robot system, in order to properly grip an object with the gripping part, for example, "the first finger is brought into contact with the object, and the output value output from the force detection part is equal to or greater than a predetermined first threshold value. After the first action, a state in which the output value output from the force detection unit is equal to or greater than the first threshold is maintained, and the first finger and the arm to cause the object to perform a second action of contacting the first finger and the second finger, and in the second action, an output value output from the force detection unit is smaller than the first threshold When the value is smaller than the predetermined second threshold, the difference between the value corresponding to the output value output from the first position detection unit and the predetermined first value is within a predetermined range. is gripped by the first finger and the second finger in a predetermined state" (see Patent Document 1).

また多様な物品を高い成功率で自律的にピッキングするために、ロボットシステムは、対象物及び対象物の周辺物品を高精度に認識するためのカメラ等を含む高価な認識装置を含んで構成されることが一般的である。これによりロボットシステムは、周辺物品と干渉しないように対象物を適切な把持位置で把持部で把持し、より高いピッキング成功率を達成できる。 In addition, in order to autonomously pick various items with a high success rate, the robot system is configured to include an expensive recognition device including a camera or the like for highly accurate recognition of the target and peripheral items of the target. It is common to As a result, the robot system can grip the object at an appropriate gripping position with the gripper so as not to interfere with surrounding items, and achieve a higher picking success rate.

特開2019-202360号公報JP 2019-202360 A

しかしながら上述の従来技術では、対象物及び周辺物品を高精度に認識するためのカメラ等を含む認識装置が高価であることから、ロボットシステムの導入コストを高め、導入を阻害する要因の一つとなっている。 However, in the above-described conventional technology, the recognition device including the camera for highly accurately recognizing the target object and surrounding items is expensive, which increases the introduction cost of the robot system and is one of the factors that hinder the introduction. ing.

一方、ロボットシステムの導入コストの抑制のために安価な認識装置を用いてロボットシステムを構成すると、対象物及び周辺物品の位置及び姿勢の計測誤差が大きくなる。このため、対象物を把持部で把持しようとする際に、周辺物品に把持部が干渉したり、対象物の適切な把持部位を把持できなかったりして、ピッキング成功率が低下するという問題がある。 On the other hand, if a robot system is configured using an inexpensive recognition device in order to reduce the introduction cost of the robot system, measurement errors in the positions and orientations of the target object and peripheral objects will increase. Therefore, when trying to grip an object with the gripping part, the gripping part interferes with surrounding objects, or an appropriate gripping part of the object cannot be gripped, resulting in a decrease in the picking success rate. be.

本発明は、上記の問題に鑑みてなされたものであり、ピッキング成功率がより高いロボットシステムを低コストで導入可能にすることを1つの目的とする。 SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and one object of the present invention is to enable introduction of a robot system with a higher picking success rate at low cost.

上述した課題を解決するため、本発明の一態様では、把持部の複数の指で対象物を把持して移載する移載機構を有するロボットシステムであって、移載前の前記対象物の周囲において、前記把持部の少なくとも一部を挿入可能な空間、並びに、前記対象物の位置及び姿勢を認識する認識部と、前記認識部によって認識された前記空間のうちの第1の空間へ前記把持部の少なくとも一部を挿入しつつ前記第1の空間以外の空間へは前記把持部を挿入しない状態で、前記把持部を前記対象物の方向へ移動させて前記把持部を前記対象物に接触させることで、前記対象物の位置を前記認識部よりも高精度に把握する位置姿勢把握部と、前記対象物の形状に関する情報、並びに、前記位置姿勢把握部によって把握された前記対象物の位置に基づいて、前記対象物を把持可能な位置を特定し、該位置において前記対象物を前記把持部で把持する把持制御部とを有することを特徴とする。 In order to solve the above-described problems, according to one aspect of the present invention, there is provided a robot system having a transfer mechanism for grasping and transferring an object with a plurality of fingers of a grasping part, wherein the object before transfer is a space into which at least a part of the gripping part can be inserted; a recognition part that recognizes the position and orientation of the object; In a state in which at least a portion of the gripping portion is inserted and the gripping portion is not inserted into a space other than the first space, the gripping portion is moved toward the object to move the gripping portion toward the object. A position/orientation grasping unit that grasps the position of the object with higher accuracy than the recognition unit by contacting the object, information about the shape of the object, and information about the object grasped by the position/orientation grasping unit. and a gripping control unit that identifies a position where the object can be gripped based on the position and grips the object at the specified position with the gripping unit.

本発明によれば、例えば、ピッキング成功率がより高いロボットシステムを低コストで導入できる。 According to the present invention, for example, a robot system with a higher picking success rate can be introduced at low cost.

実施形態1のロボットシステムの構成例を示す図。1 is a diagram showing a configuration example of a robot system according to Embodiment 1; FIG. 実施形態1のロボットシステムの動作例の説明図。FIG. 4 is an explanatory diagram of an operation example of the robot system according to the first embodiment; 実施形態1のロボットシステムの把持処理例を示すフローチャート。4 is a flowchart showing an example of gripping processing of the robot system of the first embodiment; 実施形態2のロボットシステムの動作例の説明図。FIG. 9 is an explanatory diagram of an operation example of the robot system according to the second embodiment; 実施形態3のロボットシステムの動作例の説明図。FIG. 11 is an explanatory diagram of an operation example of the robot system of Embodiment 3; 実施形態3のロボットシステムの把持処理例を示すフローチャート。11 is a flowchart showing an example of gripping processing of the robot system of the third embodiment; 実施形態4のロボットシステムの動作例の説明図。FIG. 11 is an explanatory diagram of an operation example of the robot system of Embodiment 4; 実施形態5のロボットシステムの動作例の説明図。FIG. 11 is an explanatory diagram of an operation example of the robot system of Embodiment 5; 実施形態5のロボットシステムの把持処理例を示すフローチャート。14 is a flowchart showing an example of gripping processing of the robot system of Embodiment 5; 実施形態6のロボットシステムの動作例の説明図。FIG. 11 is an explanatory diagram of an operation example of the robot system of Embodiment 6; 実施形態6のロボットシステムの把持処理例を示すフローチャート。14 is a flowchart showing an example of gripping processing of the robot system of the sixth embodiment; 実施形態6の変形例のロボットシステムの把持処理例を示すフローチャート。14 is a flowchart showing an example of gripping processing of a robot system according to a modification of the sixth embodiment; 実施形態7のロボットシステムの動作例の説明図。FIG. 12 is an explanatory diagram of an operation example of the robot system of Embodiment 7; 実施形態7のロボットシステムの把持処理例を示すフローチャート。14 is a flowchart showing an example of gripping processing of the robot system of Embodiment 7; ロボットシステムの制御装置を実現するコンピュータの構成例を示す図。The figure which shows the structural example of the computer which implement|achieves the control apparatus of a robot system.

以下、図面を参照して本発明の実施形態を説明する。実施形態は、本発明を説明するための例示に過ぎず、本発明を限定するものではなく、説明の明確化のため、適宜、省略及び簡略化がなされている。本発明は、他の種々の形態や各形態の一部又は全部を組合せた形態でも実施することが可能である。特に限定しない限り、各構成要素は単数でも複数でもよい。 Embodiments of the present invention will be described below with reference to the drawings. The embodiments are merely examples for explaining the present invention, and do not limit the present invention, and are appropriately omitted and simplified for clarity of explanation. The present invention can also be implemented in various other forms and in forms in which part or all of each form is combined. Unless otherwise specified, each component may be singular or plural.

同一あるいは同様の機能を有する構成要素が複数ある場合には、同一の符号に異なる添字を付して説明する場合がある。また、これらの複数の構成要素を区別する必要がない場合には、添字を省略して説明する場合がある。 When there are a plurality of components having the same or similar functions, they may be described with the same reference numerals and different suffixes. Further, when there is no need to distinguish between these constituent elements, the subscripts may be omitted in the description.

後出の実施形態の説明では、既出の実施形態との差分を中心に説明し、重複部分の説明は適宜省略する。 In the description of the embodiments to be described later, the differences from the previous embodiments will be mainly described, and the description of overlapping parts will be omitted as appropriate.

[実施形態1]
(実施形態1のロボットシステムSの構成)
図1は、実施形態1のロボットシステムSの構成例を示す図である。ロボットシステムSは、物流倉庫等の作業現場において、載置スペースに載置された対象物を把持して移載するピッキング作業を行うシステムである。ロボットシステムSは、システム全体の制御を実行する制御装置1、認識部20、及びアーム30を含んで構成される。
[Embodiment 1]
(Configuration of Robot System S of Embodiment 1)
FIG. 1 is a diagram showing a configuration example of a robot system S according to Embodiment 1. As shown in FIG. The robot system S is a system that performs a picking operation of gripping and transferring an object placed in a placement space at a work site such as a distribution warehouse. The robot system S includes a control device 1 that controls the entire system, a recognition section 20 and an arm 30 .

認識部20は、壁60a、60bで仕切られた載置スペース6をカメラ等の画像センサで撮影した画像を処理することで、載置スペース6に載置されている把持及び移載の対象物50の位置P1、姿勢A1、高さH1、及び対象物50の周辺の空間S1を検出する。 The recognition unit 20 processes an image of the placement space 6 partitioned by the walls 60a and 60b, which is captured by an image sensor such as a camera. Position P1, pose A1, height H1 of 50, and space S1 around object 50 are detected.

位置P1、姿勢A1、及び高さH1は、載置スペース6内に仮想的に定めた例えば正系の三次元座標系(以下XYZ座標系という)の座標で表される。姿勢A1は、載置スペース6内において上方から平面視した場合の対象物50の向きであり、対象物50を平面視した場合の長手方向である。 The position P1, the orientation A1, and the height H1 are represented by coordinates of, for example, a normal three-dimensional coordinate system (hereinafter referred to as an XYZ coordinate system) virtually defined in the mounting space 6. FIG. The posture A1 is the orientation of the object 50 in the mounting space 6 when viewed from above, and is the longitudinal direction of the object 50 when viewed in plan.

対象物50の周辺の空間S1は、対象物50の一方の側面に接する空間であって後述のエンドエフェクタ40の第1指40aの少なくとも一部を挿入可能な空間である。空間がエンドエフェクタ40の第1指40aの少なくとも一部を挿入可能である空間S1であるか否かは、予め与えられた空間S1の条件に基づいて判断される。認識部20は、検出した対象物50の位置P1、姿勢A1、高さH1、及び空間S1の情報を制御装置1へ入力する。 A space S1 around the object 50 is a space in contact with one side surface of the object 50 and a space into which at least a portion of a first finger 40a of an end effector 40, which will be described later, can be inserted. Whether or not the space is the space S1 into which at least part of the first finger 40a of the end effector 40 can be inserted is determined based on the conditions of the space S1 given in advance. The recognition unit 20 inputs information on the detected position P<b>1 , orientation A<b>1 , height H<b>1 and space S<b>1 of the target object 50 to the control device 1 .

アーム30は、載置スペース6に載置されている対象物50を把持して移載する移載機構の一例である。アーム30は、基台31に備え付けられ、基台31を中心に回転し、曲伸又は伸縮するマニピュレータである。アーム30は、基台31から延びたその先端に、エンドエフェクタ40を備える。エンドエフェクタは、ハンドともいう。なお載置スペース6に載置された対象物50を把持して移載する機能を有するならば、アーム30に限らず、どのような移載機構でもよい。 The arm 30 is an example of a transfer mechanism that grips and transfers the object 50 placed in the placement space 6 . The arm 30 is a manipulator that is mounted on a base 31, rotates around the base 31, and bends and stretches or contracts. The arm 30 has an end effector 40 at its tip extending from the base 31 . An end effector is also called a hand. Any transfer mechanism other than the arm 30 may be used as long as it has a function of gripping and transferring the object 50 placed in the placement space 6 .

エンドエフェクタ40は、対象物50を把持するための複数の指(或いは爪)を備える。本実施形態では、エンドエフェクタ40は、対象物50を把持可能に向い合う第1指40a及び第2指40bの少なくとも2本の指を備える。エンドエフェクタ40は、アーム30への取り付け軸又は鉛直軸を中心に回転すると共に、第1指40a及び第2指40bで対象物50をチャック又はクランプする。本実施形態での把持とは、チャック及びクランプを含む。エンドエフェクタ40は、第1指40aと第2指40bとで対象物50を把持するものであってもよいし、第1指40aと第2指40bを含む複数の指とで対象物50を把持するものであってもよい。 The end effector 40 has multiple fingers (or claws) for gripping the object 50 . In this embodiment, the end effector 40 has at least two fingers, a first finger 40a and a second finger 40b, facing each other so as to be able to grip the object 50. As shown in FIG. The end effector 40 rotates around the axis of attachment to the arm 30 or the vertical axis, and chucks or clamps the object 50 with the first finger 40a and the second finger 40b. Gripping in this embodiment includes chucking and clamping. The end effector 40 may grip the object 50 with the first finger 40a and the second finger 40b, or may grip the object 50 with a plurality of fingers including the first finger 40a and the second finger 40b. It may be something to hold.

制御装置1は、記憶部2及び制御部3を含んで構成される。記憶部2は、揮発性又は不揮発性の記憶デバイスであり、対象物形状情報2a及び誤差情報2bを記憶する。対象物形状情報2aは、対象物50の形状を表す情報であり、頂点及び面の定義座標を含む情報である。例えば対象物50が直方体状である場合には、対象物形状情報2aは、直方体の8個の頂点の三次元座標、及び6つの各面をなすそれぞれ4個の頂点の三次元座標の定義情報を含む。対象物形状情報2aにおける座標は、各対象物50に沿って仮想的に定められた例えば正系の三次元座標系の座標で表される。 The control device 1 includes a storage section 2 and a control section 3 . The storage unit 2 is a volatile or nonvolatile storage device, and stores object shape information 2a and error information 2b. The object shape information 2a is information representing the shape of the object 50, and is information including defining coordinates of vertices and faces. For example, when the object 50 has a rectangular parallelepiped shape, the object shape information 2a includes three-dimensional coordinates of eight vertices of the rectangular parallelepiped and definition information of three-dimensional coordinates of four vertices forming six faces. including. The coordinates in the object shape information 2a are represented by, for example, the coordinates of a normal three-dimensional coordinate system virtually defined along each object 50 .

誤差情報2bは、認識部20が認識した対象物50の位置P1の認識誤差の最大値(以下認識誤差Eという)である。認識誤差Eは、シミュレーション又は実測結果の統計処理によって求められる。認識誤差Eは、XYZ座標系のX軸方向の認識誤差である。なお誤差情報2bは、後述の実施形態2のように、認識誤差Eが、エンドエフェクタ40の一部を空間S1へ挿入する際の挿入位置のマージン確保、及び、エンドエフェクタ40を対象物50の方向へ移動させる際の移動距離として用いられる。本実施形態では、誤差情報2bは省略可能である。 The error information 2b is the maximum value of the recognition error of the position P1 of the object 50 recognized by the recognition unit 20 (hereinafter referred to as recognition error E). The recognition error E is obtained by statistical processing of simulation or actual measurement results. A recognition error E is a recognition error in the X-axis direction of the XYZ coordinate system. Note that the error information 2b is, as in Embodiment 2 described later, the recognition error E to secure a margin for the insertion position when a part of the end effector 40 is inserted into the space S1, and to move the end effector 40 from the object 50. It is used as the movement distance when moving in a direction. In this embodiment, the error information 2b can be omitted.

制御部3は、マイクロプロセッサ等のCPU(Central Processing Unit)、ASIC(Application Specific Integrated Circuit)、あるいはFPGA(Field Programmable Gate Array)といったPLD(Programmable Logic Device)等の処理装置である。制御部3は、プログラム実行によって実現される位置姿勢把握部3a及び把持制御部3bを含んで構成される。 The control unit 3 is a processing device such as a CPU (Central Processing Unit) such as a microprocessor, an ASIC (Application Specific Integrated Circuit), or a PLD (Programmable Logic Device) such as an FPGA (Field Programmable Gate Array). The control unit 3 includes a position/orientation grasping unit 3a and a grasping control unit 3b realized by executing a program.

位置姿勢把握部3aは、認識部20によって検出された対象物50の位置P1と比較してより高精度な対象物50の位置P2を把握する。位置姿勢把握部3aは、空間S1へエンドエフェクタ40の第1指40aの一部を挿入し空間S1を除く対象物50の周囲の空間S0へエンドエフェクタ40の他の部分を挿入していない状態で、エンドエフェクタ40を対象物50の方向へ移動させる。例えば対象物50の姿勢A1に対する垂直方向へエンドエフェクタ40を移動させる。そして位置姿勢把握部3aは、第1指40aを対象物50の側面に接触させる。位置姿勢把握部3aは、このようにアーム30に行わせる動作を計算し、動作指令を出力し、アーム30は、動作指令に従って動作する。 The position/orientation grasping unit 3a grasps the position P2 of the target object 50 with higher accuracy than the position P1 of the target object 50 detected by the recognition unit 20. FIG. The position/orientation grasping unit 3a inserts part of the first finger 40a of the end effector 40 into the space S1 and does not insert the other part of the end effector 40 into the space S0 around the object 50 excluding the space S1. , the end effector 40 is moved toward the object 50 . For example, the end effector 40 is moved in the direction perpendicular to the posture A1 of the object 50 . Then, the position/orientation grasping unit 3 a contacts the side surface of the object 50 with the first finger 40 a. The position/orientation grasping unit 3a thus calculates the motion to be performed by the arm 30, outputs a motion command, and the arm 30 moves according to the motion command.

位置姿勢把握部3aは、エンドエフェクタ40と対象物50が接触した(または接触したと見なし得る)際のエンドエフェクタ40の対象物50の側面との接触部分の位置を対象物50の位置P2とする。エンドエフェクタ40の対象物50の側面との接触部分は、例えば第1指40aの先端部分である。位置P2は、XYZ座標系の座標で表される。 The position/orientation grasping unit 3a regards the position of the contact portion of the end effector 40 with the side surface of the object 50 when the end effector 40 and the object 50 contact (or can be regarded as having contacted) as the position P2 of the object 50. do. The contact portion of the end effector 40 with the side surface of the object 50 is, for example, the tip portion of the first finger 40a. The position P2 is represented by coordinates in the XYZ coordinate system.

把持制御部3bは、対象物形状情報2aと、位置姿勢把握部3aによって把握された対象物50の位置P2及び認識部20によって検出された姿勢A1とに基づいて、対象物50の把持可能な部位を決定する。把持可能な部位は、対象物50の形状を考慮して予め定義されている把持可能な部位の候補から、対象物50の位置P2及び姿勢A1を考慮して最適な部位が選択される。把持制御部3bは、対象物50の把持可能な部位をエンドエフェクタ40で把持するためのアーム30及びエンドエフェクタ40の動作を計算し、動作指令を出力する。アーム30及びエンドエフェクタ40は、動作指令に従って動作し、第1指40aと第2指40bとで対象物50を把持する。 The gripping control unit 3b determines whether the target object 50 can be gripped based on the target object shape information 2a, the position P2 of the target object 50 grasped by the position/orientation grasping unit 3a, and the orientation A1 detected by the recognition unit 20. Determine the parts. As the grippable part, an optimum part is selected from grippable part candidates defined in advance in consideration of the shape of the object 50, taking into account the position P2 and the orientation A1 of the object 50. FIG. The grip control unit 3b calculates the motion of the arm 30 and the end effector 40 for gripping a grippable portion of the object 50 with the end effector 40, and outputs a motion command. The arm 30 and the end effector 40 operate according to the operation command, and grip the object 50 with the first finger 40a and the second finger 40b.

(実施形態1のロボットシステムSの動作)
図2は、実施形態1のロボットシステムSの動作例の説明図である。図2では、XYZ座標系のX軸正方向を壁60aから壁60bへ向かう方向とし、Z軸正方向を壁60a及び60bが立ち上がる方向とする。以下、図4、図5、図7、図8、図10、及び図13においても、座標軸の取り方は同様である。
(Operation of Robot System S of Embodiment 1)
FIG. 2 is an explanatory diagram of an operation example of the robot system S of the first embodiment. In FIG. 2, the X-axis positive direction of the XYZ coordinate system is the direction from the wall 60a to the wall 60b, and the Z-axis positive direction is the direction in which the walls 60a and 60b rise. 4, 5, 7, 8, 10, and 13, the same way of setting coordinate axes is used.

先ず図2の1-(1)に示すように、認識部20は、対象物50の位置P1及び姿勢A1と共に、第1指40aの少なくとも一部を挿入可能な対象物50の周囲の空間S1を検出する。第1指40aの少なくとも一部は、第1指40aの先端を含む。 First, as shown in 1-(1) of FIG. 2, the recognition unit 20 detects the position P1 and the posture A1 of the object 50, as well as the space S1 around the object 50 into which at least part of the first finger 40a can be inserted. to detect At least part of the first finger 40a includes the tip of the first finger 40a.

次に図2の1-(2)に示すように、位置姿勢把握部3aは、空間S1へ第1指40aを挿入し、第2指40bを含むエンドエフェクタ40の他の部分を対象物50よりもZ軸正方向の高い位置を維持した(空間S1を除く対象物50の周囲の空間S0にエンドエフェクタ40の他の部分を挿入していない)状態で、第1指40aを対象物50の方向へ移動させる。第1指40aを対象物50の方向へ移動させると、第1指40aが対象物50に接触するが、この接触により、対象物50の高精度な位置P2が把握される。 Next, as shown in 1-(2) of FIG. 2, the position/orientation grasping unit 3a inserts the first finger 40a into the space S1, and moves the other part of the end effector 40 including the second finger 40b to the object 50. (no other part of the end effector 40 is inserted into the space S0 surrounding the object 50 except for the space S1), the first finger 40a is placed on the object 50 move in the direction of When the first finger 40a is moved in the direction of the object 50, the first finger 40a contacts the object 50, and by this contact, the position P2 of the object 50 is grasped with high accuracy.

次に図2の1-(3)に示すように、把持制御部3bは、位置姿勢把握部3aによって把握された対象物50の位置P2及び認識部20によって検出された姿勢A1と、対象物形状情報2aとに基づいて、第1指40aと第2指40bとで対象物50を把持する。 Next, as shown in 1-(3) of FIG. 2, the grasping control unit 3b controls the position P2 of the object 50 grasped by the position/orientation grasping unit 3a, the orientation A1 detected by the recognition unit 20, and the object The object 50 is gripped with the first finger 40a and the second finger 40b based on the shape information 2a.

(実施形態1のロボットシステムSの把持処理)
図3は、実施形態1のロボットシステムSの把持処理例を示すフローチャートである。
(Gripping process of robot system S of embodiment 1)
FIG. 3 is a flowchart showing an example of gripping processing of the robot system S of the first embodiment.

先ずステップS11では、認識部20は、対象物50の位置P1及び姿勢A1を検出する。次にステップS12では、認識部20は、空間S1を検出する。次にステップS13では、位置姿勢把握部3aは、空間S1へエンドエフェクタ40の第1指40aの少なくとも一部を挿入する。 First, in step S<b>11 , the recognition unit 20 detects the position P<b>1 and orientation A<b>1 of the object 50 . Next, in step S12, the recognition unit 20 detects the space S1. Next, in step S13, the position/orientation grasping unit 3a inserts at least part of the first finger 40a of the end effector 40 into the space S1.

次にステップS14では、位置姿勢把握部3aは、エンドエフェクタ40を対象物50へ向けて移動させる。次にステップS15では、位置姿勢把握部3aは、エンドエフェクタ40の移動を停止させる。次にステップS16では、位置姿勢把握部3aは、エンドエフェクタ40の現在位置を位置P2として、位置P1よりも高精度に対象物50の位置を把握する。次にステップS17では、把持制御部3bは、対象物形状情報2aと、位置姿勢把握部3aによって把握された位置P2と、認識部20によって検出された姿勢A1とに基づいて、対象物50の把持可能な部位を決定する。そして、把持制御部3bは、決定した部位を、エンドエフェクタ40の第1指40a及び第2指40bで把持する。 Next, in step S<b>14 , the position/orientation grasping section 3 a moves the end effector 40 toward the object 50 . Next, in step S<b>15 , the position/orientation grasping section 3 a stops the movement of the end effector 40 . Next, in step S16, the position/orientation grasping unit 3a grasps the position of the object 50 with higher accuracy than the position P1, with the current position of the end effector 40 being the position P2. Next, in step S17, the grasping control unit 3b controls the object 50 based on the object shape information 2a, the position P2 grasped by the position/orientation grasping unit 3a, and the orientation A1 detected by the recognition unit 20. Determine the grippable part. Then, the grip control unit 3b grips the determined part with the first finger 40a and the second finger 40b of the end effector 40. FIG.

本実施形態では、エンドエフェクタ40を対象物50に接近させて接触させることで、対象物50の位置、姿勢、及び高さの認識が低精度の安価な認識部20を採用しても高精度で対象物50の位置を把握でき、ピッキング成功率を高めることができる。このため、高額な3Dロボットビジョンを採用する必要がなく、自動ピッキングシステムの構築費用が下がり、倉庫や工場を運営する顧客が、低額の初期導入費用で、自動ピッキングシステムや物流自動化ソリューションを導入できる。 In this embodiment, by bringing the end effector 40 closer to and contacting the target object 50, the position, orientation, and height of the target object 50 can be recognized with high accuracy even if the low-accuracy recognition unit 20 is employed. , the position of the object 50 can be grasped, and the picking success rate can be increased. This eliminates the need to adopt expensive 3D robot vision, lowers the cost of building an automatic picking system, and allows customers who operate warehouses and factories to introduce automatic picking systems and logistics automation solutions at low initial introduction costs. .

[実施形態2]
(実施形態2のロボットシステムSの動作)
図4は、実施形態2のロボットシステムSの動作例の説明図である。本実施形態では、図4の2-(2)-1に示すように、位置姿勢把握部3aは、空間S1に第1指40aを含むエンドエフェクタ40の一部を挿入する際(図3のステップS13)、対象物50の側面から認識誤差E相当の距離だけ離れた位置へ挿入する。対象物50から認識誤差E相当の距離を確保してエンドエフェクタ40の一部を空間S1へ挿入することで、エンドエフェクタ40の挿入の際の認識部20の認識誤差に起因するエンドエフェクタ40と対象物50の干渉を回避できる。
[Embodiment 2]
(Operation of Robot System S of Embodiment 2)
FIG. 4 is an explanatory diagram of an operation example of the robot system S of the second embodiment. In the present embodiment, as shown in 2-(2)-1 in FIG. 4, the position/orientation grasping unit 3a inserts a part of the end effector 40 including the first finger 40a into the space S1 (see 2-(2)-1 in FIG. 3). Step S13), the object 50 is inserted at a distance corresponding to the recognition error E from the side surface of the object 50 . By inserting a part of the end effector 40 into the space S1 while securing a distance corresponding to the recognition error E from the object 50, the end effector 40 caused by the recognition error of the recognition unit 20 when the end effector 40 is inserted. Interference of the object 50 can be avoided.

さらに図4の2-(2)-2に示すように、位置姿勢把握部3aは、エンドエフェクタ40を対象物50へ向けて移動させる際(図3のステップS14)、認識誤差E相当の距離だけ移動させる。認識誤差E相当の距離だけ移動させることで、エンドエフェクタ40の対象物50の方向への移動の際に、第1指40aの先端を対象物50の側面に確実に接触させることができる。 Furthermore, as shown in 2-(2)-2 in FIG. 4, the position/orientation grasping unit 3a moves the end effector 40 toward the target object 50 (step S14 in FIG. 3). only move. By moving the end effector 40 by a distance corresponding to the recognition error E, the tip of the first finger 40 a can be reliably brought into contact with the side surface of the object 50 when the end effector 40 moves toward the object 50 .

なお空間S1に対する対象物50の反対側には、認識誤差E以上の大きさの空間が存在することが望ましい。これは、エンドエフェクタ40を対象物50へ向けて認識誤差E相当の距離だけ移動させる際に、対象物50を押し動かして第1指40aと壁60bで挟んで押し潰してしまうことを防止するためである。 It is desirable that a space having a size equal to or larger than the recognition error E exists on the opposite side of the object 50 to the space S1. This prevents the object 50 from being pushed and pinched between the first finger 40a and the wall 60b and crushed when the end effector 40 is moved toward the object 50 by a distance corresponding to the recognition error E. It's for.

[実施形態3]
実施形態2では、エンドエフェクタ40を対象物50へ向けて認識誤差E相当の距離だけ移動させるが、実際の認識誤差は、認識誤差Eよりも小さい値の場合がある。このため、エンドエフェクタ40を対象物50へ向けて認識誤差E相当の距離だけ移動させると、移動量が過大になり、エンドエフェクタ40で対象物50を押し潰してしまうおそれがある。本実施形態では、この不都合を解消する。
[Embodiment 3]
In the second embodiment, the end effector 40 is moved toward the object 50 by a distance corresponding to the recognition error E, but the actual recognition error may be smaller than the recognition error E in some cases. Therefore, if the end effector 40 is moved toward the object 50 by a distance corresponding to the recognition error E, the amount of movement becomes excessive, and the end effector 40 may crush the object 50 . This embodiment solves this problem.

(実施形態3のロボットシステムSの動作)
図5は、実施形態3のロボットシステムSの動作例の説明図である。先ず図5の3-(1)に示すように、認識部20は、空間S1と共に、対象物50aに関して、第1指40aを挿入可能な対象物50aの周囲の空間S1のX軸正方向の反対側の壁60bまでの間に、認識誤差E相当の距離だけ対象物50aを移動可能な空間S2が存在するか否かを判定する。空間が対象物50aを移動可能な空間S2であるか否かは、予め与えられた空間S2の条件に基づいて判断される。
(Operation of Robot System S of Embodiment 3)
FIG. 5 is an explanatory diagram of an operation example of the robot system S of the third embodiment. First, as shown in 3-(1) of FIG. 5, the recognizing unit 20 scans the space S1 and the space S1 around the object 50a into which the first finger 40a can be inserted in the positive direction of the X axis. It is determined whether or not there is a space S2 in which the object 50a can be moved by a distance corresponding to the recognition error E between the wall 60b on the opposite side. Whether or not the space is the space S2 in which the object 50a can be moved is determined based on the conditions of the space S2 given in advance.

位置姿勢把握部3aは、空間S2が存在した場合には、図5の3-(2)に示すように、エンドエフェクタ40を制御して、認識誤差E相当の距離だけ対象物50aを第1指40aで押し動かすことで対象物50aを把持する際の位置決めをする。そして図5の3-(3)に示すように、実施形態1~2と同様に、把持制御部3bは、エンドエフェクタ40を制御して対象物50aを把持する。 When the space S2 exists, the position/orientation grasping unit 3a controls the end effector 40 to move the object 50a to the first position by a distance corresponding to the recognition error E, as shown in 3-(2) of FIG. Positioning when gripping the object 50a is performed by pushing and moving with the finger 40a. Then, as shown in 3-(3) of FIG. 5, the grip control unit 3b controls the end effector 40 to grip the object 50a, as in the first and second embodiments.

一方、位置姿勢把握部3aは、空間S2が存在しない場合には、エンドエフェクタ40の移動を行わず対象物50aの把持処理を中止する。 On the other hand, if the space S2 does not exist, the position/orientation grasping unit 3a does not move the end effector 40 and stops the grasping process of the object 50a.

なお図5では、対象物50aと空間S2との間に対象物50bが存在する場合を示すが、1又は複数の対象物50bの有無に関わらず、空間S2の存在の有無に応じて、エンドエフェクタ40を移動するか、又は把持処理中止とする。これは、本実施形態では、エンドエフェクタ40の移動によって、エンドエフェクタ40と壁60bとの間の全ての対象物50の押し潰しを防止することが目的であるからである。 Note that FIG. 5 shows a case where the target object 50b exists between the target object 50a and the space S2. Either move the effector 40 or stop the gripping process. This is because the purpose of this embodiment is to prevent the movement of the end effector 40 from crushing all the objects 50 between the end effector 40 and the wall 60b.

(実施形態3のロボットシステムSの把持処理)
図6は、実施形態3のロボットシステムSの把持処理例を示すフローチャートである。図3に示す実施形態1の把持処理と比較して、実施形態3の把持処理は、ステップS12の次にステップS12C1が挿入され、ステップS12C1の判定がNoの場合に実行されるステップS12C2が追加され、ステップS14に代えてステップS14Cが実行される点が異なる。その他は実施形態1の把持処理と同様である。
(Gripping process of robot system S of embodiment 3)
FIG. 6 is a flowchart showing an example of gripping processing of the robot system S of the third embodiment. Compared to the gripping process of the first embodiment shown in FIG. 3, the gripping process of the third embodiment includes step S12C1 after step S12, and adds step S12C2 that is executed when the determination in step S12C1 is No. and step S14C is executed instead of step S14. Others are the same as the gripping process of the first embodiment.

ステップS12に続くステップS12C1では、認識部20は、空間S2を検出したか否かを判定する。認識部20は、空間S2を検出した場合(ステップS12C1Yes)にステップS13へ処理を移す。一方認識部20は、空間S2を検出しなかった場合(ステップS12C1No)にステップS12C2へ処理を移し、把持処理を中止する(ステップS12C2)。 In step S12C1 following step S12, the recognition unit 20 determines whether or not the space S2 has been detected. The recognition unit 20 shifts the process to step S13 when the space S2 is detected (step S12C1 Yes). On the other hand, when the space S2 is not detected (step S12C1No), the recognition unit 20 shifts the process to step S12C2 and stops the gripping process (step S12C2).

またステップS14Cでは、位置姿勢把握部3aは、エンドエフェクタ40を対象物50へ向けて認識誤差E相当の距離だけ移動させる。 In step S14C, the position/orientation grasping unit 3a moves the end effector 40 toward the object 50 by a distance corresponding to the recognition error E. FIG.

本実施形態では、空間S2が存在する場合にのみエンドエフェクタ40を移動させることで、エンドエフェクタ40が力センサを備えなくても移動した際に対象物50を押し潰すことを防止できる。 In this embodiment, by moving the end effector 40 only when the space S2 exists, it is possible to prevent the object 50 from being crushed when the end effector 40 is moved without a force sensor.

[実施形態4]
上述の実施形態1~3では、エンドエフェクタ40が対象物50を第1指40a及び第2指40bで把持する動作の詳細については言及していない。実施形態4では、エンドエフェクタ40が第1指40aと第2指40bを用いて対象物50を拘束する順序について説明する。
[Embodiment 4]
In the first to third embodiments described above, details of the operation of the end effector 40 gripping the object 50 with the first finger 40a and the second finger 40b are not mentioned. In the fourth embodiment, the order in which the end effector 40 restrains the object 50 using the first finger 40a and the second finger 40b will be described.

(実施形態4のロボットシステムSの動作)
図7は、実施形態4のロボットシステムSの動作例の説明図である。図7の4-(2)に示すように、位置姿勢把握部3aは、実施形態1~3と同様に、エンドエフェクタ40の第1指40aを空間S1へ挿入し移動させて対象物50aと接触させる。そして図7の4-(3)-1に示すように、把持制御部3bは、エンドエフェクタ40の第1指40aが対象物50の空間S1側の面と接触した後、第1指40aの対象物50への接触を一旦解除し、空間S1とX軸正方向の反対側の対象物50の面に第2指40bを接触させる。その後把持制御部3bは、図7の4-(3)-2に示すように、第1指40aを動かして第2指40bと共に空間S1の対象物50を拘束する。
(Operation of Robot System S of Embodiment 4)
FIG. 7 is an explanatory diagram of an operation example of the robot system S of the fourth embodiment. As shown in 4-(2) of FIG. 7, the position/orientation grasping unit 3a inserts the first finger 40a of the end effector 40 into the space S1 and moves it with the object 50a, as in the first to third embodiments. make contact. After the first finger 40a of the end effector 40 contacts the surface of the object 50 on the side of the space S1, the grip control unit 3b moves the first finger 40a to The contact with the object 50 is temporarily released, and the second finger 40b is brought into contact with the surface of the object 50 opposite to the space S1 in the positive direction of the X axis. After that, as shown in 4-(3)-2 of FIG. 7, the grip control unit 3b moves the first finger 40a to constrain the object 50 in the space S1 together with the second finger 40b.

このように、位置姿勢把握部3aによる位置決めの後、認識誤差の許容範囲が小さい空間から先に指を挿入し、その後認識誤差の許容範囲が大きい空間S1に指を挿入して把持することで、把持の失敗を防止することができる。 In this way, after positioning by the position/orientation grasping unit 3a, the finger is first inserted into the space where the allowable range of recognition error is small, and then the finger is inserted into the space S1 where the allowable range of recognition error is large. , grasping failure can be prevented.

[実施形態5]
実施形態5では、空間S1に挿入されたエンドエフェクタ40の第1指40aが、対象物50の空間S1側の面に接触したことを検知する力センサ9を備える。
[Embodiment 5]
In the fifth embodiment, the force sensor 9 is provided to detect that the first finger 40a of the end effector 40 inserted into the space S1 has come into contact with the surface of the object 50 on the space S1 side.

(実施形態5のロボットシステムSの動作)
図8は、実施形態5のロボットシステムSの動作例の説明図である。先ず図8の5-(1)に示すように、認識部20は、実施形態1~4と同様に、対象物50と空間S1を検出する。次に図8の5-(2)に示すように、位置姿勢把握部3aは、認識誤差E相当の距離を対象物50から確保して空間S1へ第1指40aを挿入し、エンドエフェクタ40を対象物50の方向へ移動させる。位置姿勢把握部3aは、力センサ9によって第1指40aが対象物50から受ける反力を検出すると、エンドエフェクタ40の移動を停止する。そして把持制御部3bは、実施形態1~4と同様に、エンドエフェクタ40に対して、第2指40bを対象物50の空間S1とはX軸正方向の反対側の面に接触させて、第1指40aと共に対象物50を把持するよう指示する。
(Operation of Robot System S of Embodiment 5)
FIG. 8 is an explanatory diagram of an operation example of the robot system S of the fifth embodiment. First, as shown in 5-(1) of FIG. 8, the recognition unit 20 detects the object 50 and the space S1 as in the first to fourth embodiments. Next, as shown in 5-(2) of FIG. 8, the position/orientation grasping unit 3a secures a distance corresponding to the recognition error E from the object 50, inserts the first finger 40a into the space S1, and is moved in the direction of the object 50 . When the force sensor 9 detects the reaction force that the first finger 40a receives from the object 50, the position/orientation grasping unit 3a stops the end effector 40 from moving. Then, as in the first to fourth embodiments, the grip control unit 3b brings the second finger 40b into contact with the surface of the object 50 on the side opposite to the space S1 of the object 50 in the positive direction of the X axis, An instruction is given to grip the object 50 together with the first finger 40a.

(実施形態5のロボットシステムSの把持処理)
図9は、実施形態5のロボットシステムSの把持処理例を示すフローチャートである。図3のフローチャートで示す実施形態1の把持処理と比較して、実施形態5の把持処理では、ステップS14の次にステップS14Eが挿入され、ステップS14Eの判定がYesとなるまでステップS14Eが繰り返される。その他は実施形態1の把持処理と同様である。
(Gripping process of robot system S of embodiment 5)
FIG. 9 is a flowchart showing an example of gripping processing of the robot system S of the fifth embodiment. Compared to the gripping process of the first embodiment shown in the flowchart of FIG. 3, in the gripping process of the fifth embodiment, step S14E is inserted after step S14, and step S14E is repeated until the determination in step S14E becomes Yes. . Others are the same as the gripping process of the first embodiment.

ステップS14Eでは、位置姿勢把握部3aは、力センサ9の出力値が所定閾値以上か、つまり対象物50の面との接触に相当する対象物50の面からの反力を検知したか否かを判定する。位置姿勢把握部3aは、反力を検知していない場合(ステップS14ENo)にステップS14Eを繰り返し、反力を検知した場合(ステップS14EYes)にステップS15へ処理を移す。 In step S14E, the position/orientation grasping unit 3a determines whether the output value of the force sensor 9 is equal to or greater than a predetermined threshold value, that is, whether or not a reaction force from the surface of the object 50 corresponding to contact with the surface of the object 50 has been detected. judge. If the reaction force is not detected (step S14ENo), the position/orientation grasping unit 3a repeats step S14E, and if the reaction force is detected (step S14EYes), the process proceeds to step S15.

本実施形態によれば、力センサ9によって、第1指40aが必要以上に大きな力を対象物50へ付加することを防止できる。 According to the present embodiment, the force sensor 9 can prevent the first finger 40 a from applying an unnecessarily large force to the object 50 .

[実施形態6]
実施形態6では、エンドエフェクタ40は、複数の第1指40a(第1指40a1及び40a2の2つ)を備える。複数の第1指40aのそれぞれは、対象物50の空間S1側の面に接触したことを検知する力センサ9を備える。なお複数の第1指40aは、2つに限らず、3つ以上であってもよい。
[Embodiment 6]
In Embodiment 6, the end effector 40 includes a plurality of first fingers 40a (two first fingers 40a1 and 40a2). Each of the plurality of first fingers 40a includes a force sensor 9 that detects contact with the surface of the object 50 on the space S1 side. The number of first fingers 40a is not limited to two, and may be three or more.

(実施形態6のロボットシステムSの動作)
図10は、実施形態6のロボットシステムSの動作例の説明図である。図10の6-(3)-1に示すように、位置姿勢把握部3aは、第1指40a1及び40a2を空間S1へ挿入した後、エンドエフェクタ40を対象物50の方向へ移動させる。すると何れかの第1指40a(図10の6-(3)-1では第1指40a1)の力センサ9が先に対象物50の空間S1側の面との接触を検出すると、図10の6-(3)-2に示すように、接触が検出されていないもう一方の第1指40a2を、第1指40a1を回転中心として回転させることで、第1指40a2も対象物50へ接触させる。例えばエンドエフェクタ40の回転方向は式(1)の外積rが表す方向で与えられる。式(1)では、ベクトルdはエンドエフェクタ40の対象物50の方向へ向けた移動方向、ベクトルpは先に対象物50と接触した第1指40a1から第1指40a2へ向かうベクトルである。
r=p×d・・・(1)
(Operation of Robot System S of Embodiment 6)
FIG. 10 is an explanatory diagram of an operation example of the robot system S of the sixth embodiment. As shown in 6-(3)-1 of FIG. 10, the position/orientation grasping unit 3a moves the end effector 40 in the direction of the object 50 after inserting the first fingers 40a1 and 40a2 into the space S1. Then, if the force sensor 9 of one of the first fingers 40a (the first finger 40a1 in 6-(3)-1 in FIG. 10) first detects contact with the surface of the object 50 on the side of the space S1, FIG. 6-(3)-2, by rotating the other first finger 40a2 for which contact is not detected around the first finger 40a1 as the center of rotation, the first finger 40a2 also moves toward the object 50. make contact. For example, the direction of rotation of the end effector 40 is given by the direction represented by the outer product r of Equation (1). In equation (1), vector d is the moving direction of end effector 40 toward object 50, and vector p is the vector from first finger 40a1 that has previously contacted object 50 to first finger 40a2.
r=p×d (1)

式(1)に基づくエンドエフェクタ40の回転量は、対象物50の姿勢A1の認識誤差の最大値であり、誤差情報2bに含まれる情報である。なお姿勢A1の認識誤差の最大値を回転量としてエンドエフェクタ40を回転させるのではなく、第1指40a2の力センサ9が対象物50の反力を検出するまで回転させてもよい。 The amount of rotation of the end effector 40 based on Expression (1) is the maximum value of the recognition error of the orientation A1 of the object 50, and is information included in the error information 2b. The end effector 40 may be rotated until the force sensor 9 of the first finger 40a2 detects the reaction force of the object 50 instead of using the maximum value of the recognition error of the orientation A1 as the amount of rotation.

または、エンドエフェクタ40を鉛直軸周りに旋回することでも、先に対象物50の空間S1側の面との接触が検出された一方の第1指40a1と共に、接触が検出されていないもう他方の第1指40a2を対象物50の空間S1側の面と接触させることができる。 Alternatively, by rotating the end effector 40 around the vertical axis, the first finger 40a1 for which contact with the surface of the object 50 on the space S1 side has been previously detected, and the other finger for which contact has not been detected. The first finger 40a2 can be brought into contact with the surface of the object 50 on the space S1 side.

(実施形態6のロボットシステムSの把持処理)
図11は、実施形態6のロボットシステムSの把持処理例を示すフローチャートである。図3のフローチャートで示す実施形態1の把持処理と比較して、実施形態6の把持処理では、ステップS13の代わりにステップS13Fが実行され、ステップS14の代わりにステップS14F1が実行され、ステップS14F1の次にステップS14F2の判定処理が追加される。またステップS15の次にステップS15Fが追加される。その他は実施形態1の把持処理と同様である。
(Gripping process of robot system S of embodiment 6)
FIG. 11 is a flowchart showing an example of gripping processing of the robot system S of the sixth embodiment. Compared to the gripping process of the first embodiment shown in the flowchart of FIG. 3, in the gripping process of the sixth embodiment, step S13F is executed instead of step S13, step S14F1 is executed instead of step S14, and step S14F1 is executed instead of step S14. Next, determination processing in step S14F2 is added. Step S15F is added after step S15. Others are the same as the gripping process of the first embodiment.

ステップS13Fでは、位置姿勢把握部3aは、空間S1へ複数の第1指40aを挿入する。次にステップS14F1では、位置姿勢把握部3aは、複数の第1指40aを対象物50へ向けて移動させる。次にステップS14F2では、位置姿勢把握部3aは、少なくとも1つの第1指40aが対象物50の空間S1側の面に接触したことを示す反力を検出したか否かを判定する。位置姿勢把握部3aは、少なくとも1つの第1指40aが対象物50の空間S1側の面に接触したことを示す反力を検出した(ステップS14F2Yes)場合にステップS15へ処理を移し、反力を検出しない場合に(ステップS14F2No)場合にステップS14F2を繰り返す。 In step S13F, the position/orientation grasping unit 3a inserts the plurality of first fingers 40a into the space S1. Next, in step S<b>14</b>F<b>1 , the position/orientation grasping unit 3 a moves the plurality of first fingers 40 a toward the object 50 . Next, in step S14F2, the position/orientation grasping unit 3a determines whether or not a reaction force indicating that at least one first finger 40a is in contact with the surface of the object 50 on the space S1 side is detected. If the position/orientation grasping unit 3a detects a reaction force indicating that at least one first finger 40a is in contact with the surface of the object 50 on the space S1 side (step S14F2 Yes), the process proceeds to step S15, and the reaction force is detected. is not detected (step S14F2 No), step S14F2 is repeated.

ステップS15Fでは、位置姿勢把握部3aは、全ての第1指40aが対象物50の空間S1側の面と接触するまでエンドエフェクタ40を回転させる。 In step S15F, the position/orientation grasping unit 3a rotates the end effector 40 until all the first fingers 40a contact the surface of the object 50 on the space S1 side.

(実施形態6の変形例)
なお本実施形態では、総ての第1指40aが力センサ9を備えるとしたが、第1指40aは総て力センサ9を備えない構成でもよい。この場合、図10の6-(3)-1に示すエンドエフェクタ40の対象物50の方向への移動量mは、認識部20の認識誤差E相当の距離とすればよい。
(Modification of Embodiment 6)
In this embodiment, all the first fingers 40a are provided with the force sensors 9, but the first fingers 40a may not be provided with the force sensors 9 at all. In this case, the movement amount m of the end effector 40 in the direction of the object 50 shown in 6-(3)-1 of FIG.

(実施形態6の変形例のロボットシステムSの把持処理)
図12は、実施形態6の変形例のロボットシステムSの把持処理例を示すフローチャートである。図11のフローチャートで示す実施形態6の把持処理と比較して、実施形態6の変形例の把持処理では、ステップS14F1の代わりにステップS14F11が実行され、ステップS14F2が省略される。その他は、実施形態6の把持処理と同様である。ステップS14F11では、位置姿勢把握部3aは、複数の第1指を対象物50に向けて認識誤差E相当の距離だけ移動させる。
(Gripping process of robot system S according to modification of embodiment 6)
FIG. 12 is a flowchart showing an example of gripping processing of the robot system S according to the modification of the sixth embodiment. Compared with the gripping process of the sixth embodiment shown in the flowchart of FIG. 11, in the gripping process of the modification of the sixth embodiment, step S14F11 is executed instead of step S14F1, and step S14F2 is omitted. Others are the same as the gripping process of the sixth embodiment. In step S<b>14</b>F<b>11 , the position/orientation grasping unit 3 a moves the plurality of first fingers toward the object 50 by a distance corresponding to the recognition error E.

本実施形態及びその変形例によれば、姿勢A1の認識誤差をエンドエフェクタ40の旋回により補正することで、把持成功率を高めることができる。 According to the present embodiment and its modified example, by correcting the recognition error of the orientation A1 by turning the end effector 40, the gripping success rate can be increased.

[実施形態7]
実施形態7では、エンドエフェクタ40は、少なくとも第1指40aが力センサ9を備え、第1指40aを垂直降下させた際の力センサ9による反力の検知によって、対象物50が配置されている面の高さを認識する。
[Embodiment 7]
In the seventh embodiment, the end effector 40 includes the force sensor 9 for at least the first finger 40a, and the reaction force detected by the force sensor 9 when the first finger 40a is vertically lowered. Recognize the height of the surface you are on.

(実施形態7のロボットシステムSの動作)
図13は、実施形態7のロボットシステムSの動作例の説明図である。先ず図13の7-(1)に示すように、認識部20は、対象物50bの位置P1、姿勢A1、及び少なくとも第1指40aを挿入可能な対象物50の周囲の空間S1を検出する。次に図13の7-(2)-1に示すように、位置姿勢把握部3aは、認識誤差E相当の距離を対象物50から確保して空間S1へ第1指40aを挿入し、第1指40aが反力を検出するまでエンドエフェクタ40を下へ(Z軸負方向へ)移動させる。第1指40aが反力を検出するとは、対象物50が配置されている高さの面を検出したということである。
(Operation of Robot System S of Embodiment 7)
FIG. 13 is an explanatory diagram of an operation example of the robot system S of the seventh embodiment. First, as shown in 7-(1) of FIG. 13, the recognition unit 20 detects the position P1 and posture A1 of the object 50b, and the space S1 around the object 50 into which at least the first finger 40a can be inserted. . Next, as shown in 7-(2)-1 of FIG. 13, the position/orientation grasping unit 3a secures a distance equivalent to the recognition error E from the object 50, inserts the first finger 40a into the space S1, and The end effector 40 is moved downward (in the Z-axis negative direction) until the first finger 40a detects the reaction force. When the first finger 40a detects the reaction force, it means that the surface of the height where the object 50 is arranged is detected.

その後図13の7-(2)-2に示すように、位置姿勢把握部3aは、エンドエフェクタ40を、対象物形状情報2aから定められる対象物50の適切な把持位置の高さまでZ軸正方向へ上昇させ、この高さを維持しながら、対象物50の方向へ認識誤差E相当の距離だけ移動させて第2指40bを対象物50に接触させる。これにより対象物50の位置P2が把握される。そして図13の7-(2)-3に示すように、対象物形状情報2aと、位置姿勢把握部3aで把握した対象物の位置P2と、認識部20で把握した姿勢A1とに基づいて対象物50の把持可能な部位をエンドエフェクタ40で把持する。 After that, as shown in 7-(2)-2 of FIG. 13, the position/orientation grasping unit 3a moves the end effector 40 to the height of the appropriate gripping position of the object 50 determined from the object shape information 2a. While maintaining this height, move the second finger 40 b toward the object 50 by a distance corresponding to the recognition error E to bring the second finger 40 b into contact with the object 50 . Thereby, the position P2 of the object 50 is grasped. Then, as shown in 7-(2)-3 of FIG. 13, based on the object shape information 2a, the position P2 of the object grasped by the position/orientation grasping unit 3a, and the orientation A1 grasped by the recognition unit 20, A grippable portion of the object 50 is gripped by the end effector 40 .

(実施形態7のロボットシステムSの把持処理)
図14は、実施形態7のロボットシステムSの把持処理例を示すフローチャートである。図9のフローチャートで示す実施形態5の把持処理と比較して、実施形態7の把持処理では、ステップS13の代わりにステップS13Gが実行され、ステップS14Eの代わりにステップS14G1、S14G2、及びS14G3が実行される。その他は、実施形態7の把持処理と同様である。
(Gripping process of robot system S of embodiment 7)
FIG. 14 is a flowchart showing an example of gripping processing of the robot system S of the seventh embodiment. Compared to the gripping process of the fifth embodiment shown in the flowchart of FIG. 9, in the gripping process of the seventh embodiment, step S13G is executed instead of step S13, and steps S14G1, S14G2, and S14G3 are executed instead of step S14E. be done. Others are the same as the gripping process of the seventh embodiment.

ステップS13Gでは、位置姿勢把握部3aは、空間S1に少なくとも第1指40aを対象物50から認識誤差Eを確保して挿入し、下方へ移動させる。次にステップS14G1では、位置姿勢把握部3aは、力センサ9の出力値が所定閾値以上か、つまり載置スペース6における対象物50の配置面との接触に相当する配置面からの反力を検知したか否かを判定する。位置姿勢把握部3aは、反力を検知していない場合(ステップS14G2No)にステップS14G2を繰り返し、反力を検知した場合(ステップS14G2Yes)にステップS14G3へ処理を移す。 In step S13G, the position/orientation grasping unit 3a inserts at least the first finger 40a into the space S1 while securing the recognition error E from the object 50, and moves it downward. Next, in step S14G1, the position/orientation grasping unit 3a detects whether the output value of the force sensor 9 is equal to or greater than a predetermined threshold value, that is, the reaction force from the placement surface corresponding to contact with the placement surface of the object 50 in the placement space 6. It is determined whether or not it has been detected. If the reaction force is not detected (step S14G2No), the position/orientation grasping unit 3a repeats step S14G2, and if the reaction force is detected (step S14G2Yes), the process proceeds to step S14G3.

ステップS14G3では、位置姿勢把握部3aは、エンドエフェクタ40を所定高さで対象物50に向けて認識誤差Eだけ移動させる。 In step S14G3, the position/orientation grasping unit 3a moves the end effector 40 by the recognition error E toward the target object 50 at a predetermined height.

なお本実施形態において、エンドエフェクタ40を対象物50の方向へ認識誤差E相当の距離だけ移動させる際に、エンドエフェクタ40が配置面の高さを維持した状態で移動させてもよい。 In this embodiment, when the end effector 40 is moved toward the object 50 by a distance corresponding to the recognition error E, the end effector 40 may be moved while maintaining the height of the placement surface.

本実施形態では、乱雑に何層にも積み上げられた対象物50を最上層からピッキングする際、または高さ方向の形状が高さ位置で異なる対象物50をピッキングする際、高精度に検出した配置面を基準に対象物50の適切な把持位置の高さを割り出し、この高さで対象物50を把持する。よって、低精度の高さ認識に基づく不適切な位置を把持することによる把持失敗を防止し、ピッキング成功率を高めることができる。 In this embodiment, when picking the objects 50 that are randomly piled up in many layers from the top layer, or when picking the objects 50 whose shapes in the height direction differ at different height positions, it is possible to detect with high accuracy. An appropriate gripping position height of the object 50 is determined based on the placement surface, and the object 50 is gripped at this height. Therefore, it is possible to prevent gripping failure due to gripping an inappropriate position based on low-accuracy height recognition, and increase the picking success rate.

(ロボットシステムSの制御装置1を実現するコンピュータ500の構成)
図15は、ロボットシステムSの制御装置1を実現するコンピュータ500の構成例を示す図である。コンピュータ500では、プロセッサ510、RAM(Random Access Memory)などのメモリ520、SSD(Solid State Drive)やHDD(Hard Disk Drive)などのストレージ530、及びネットワークI/F(Inter/Face)540が、バスを介して接続されている。
(Configuration of computer 500 realizing controller 1 of robot system S)
FIG. 15 is a diagram showing a configuration example of a computer 500 that implements the controller 1 of the robot system S. As shown in FIG. In computer 500, processor 510, memory 520 such as RAM (Random Access Memory), storage 530 such as SSD (Solid State Drive) and HDD (Hard Disk Drive), and network I/F (Inter/Face) 540 are connected to a bus. connected through

コンピュータ500において、制御装置1を実現するためのプログラムがストレージ530から読み出されプロセッサ510及びメモリ520の協働により実行されることで制御装置1が実現される。あるいは、制御装置1を実現するためのプログラムによって、FPGAといったPLDであるプロセッサ510がコンフィギュレーションされることで制御装置1が実現される。または、制御装置1を実現するためのプログラムは、ネットワークI/F540を介した通信により非一時的な記憶装置を備えた外部のコンピュータから取得されてもよい。あるいは制御装置1は、非一時的記録媒体に記録され、媒体読み取り装置によって読み出されることで取得されてもよい。 In computer 500 , control device 1 is realized by reading a program for realizing control device 1 from storage 530 and executing it by cooperation of processor 510 and memory 520 . Alternatively, the control device 1 is realized by configuring the processor 510 , which is a PLD such as FPGA, by a program for realizing the control device 1 . Alternatively, the program for realizing the control device 1 may be acquired from an external computer having a non-temporary storage device through communication via the network I/F 540 . Alternatively, the control device 1 may be acquired by being recorded on a non-temporary recording medium and read by a medium reading device.

本発明は上述の実施形態に限定されるものではなく、様々な変形例を含む。例えば、上記した実施形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、矛盾しない限りにおいて、ある実施形態の構成の一部を他の実施形態の構成で置き換え、ある実施形態の構成に他の実施形態の構成を加えることも可能である。また、各実施形態の構成の一部について、構成の追加、削除、置換、統合、又は分散をすることが可能である。また、実施形態で示した構成及び処理は、処理効率又は実装効率に基づいて適宜分散、統合、または入れ替えることが可能である。 The present invention is not limited to the above-described embodiments, but includes various modifications. For example, the above-described embodiments have been described in detail in order to explain the present invention in an easy-to-understand manner, and are not necessarily limited to those having all the configurations described. Also, as long as there is no contradiction, it is possible to replace part of the configuration of one embodiment with the configuration of another embodiment, and to add the configuration of another embodiment to the configuration of one embodiment. Moreover, it is possible to add, delete, replace, integrate, or distribute a part of the configuration of each embodiment. Also, the configurations and processes shown in the embodiments can be appropriately distributed, integrated, or replaced based on processing efficiency or implementation efficiency.

S:ロボットシステム、1:制御装置、2:記憶部、2a:対象物形状情報、2b:誤差情報、3:制御部、3a:位置姿勢把握部、3b:把持制御部、9:力センサ、20:認識部、30:アーム、40:エンドエフェクタ(把持部)、50,50a,50b:対象物、500:コンピュータ、510:プロセッサ
S: robot system, 1: control device, 2: storage unit, 2a: object shape information, 2b: error information, 3: control unit, 3a: position and orientation grasping unit, 3b: gripping control unit, 9: force sensor, 20: recognition unit, 30: arm, 40: end effector (grasping unit), 50, 50a, 50b: object, 500: computer, 510: processor

Claims (13)

把持部の複数の指で対象物を把持して移載する移載機構を有するロボットシステムであって、
移載前の前記対象物の周囲において、前記把持部の少なくとも一部を挿入可能な空間、並びに、前記対象物の位置及び姿勢を認識する認識部と、
前記認識部によって認識された前記空間のうちの第1の空間へ前記把持部の少なくとも一部を挿入しつつ前記第1の空間以外の空間へは前記把持部を挿入しない状態で、前記把持部を前記対象物の方向へ移動させて前記把持部を前記対象物に接触させることで、前記対象物の位置を前記認識部よりも高精度に把握する位置姿勢把握部と、
前記対象物の形状に関する情報、並びに、前記位置姿勢把握部によって把握された前記対象物の位置に基づいて、前記対象物を把持可能な位置を特定し、該位置において前記対象物を前記把持部で把持する把持制御部と
を有することを特徴とするロボットシステム。
A robot system having a transfer mechanism for holding and transferring an object with a plurality of fingers of a holding part,
a recognition unit that recognizes a space in which at least part of the gripping unit can be inserted, and the position and orientation of the object, around the object before transfer;
the grasping unit in a state in which at least part of the grasping unit is inserted into a first space among the spaces recognized by the recognition unit and the grasping unit is not inserted into a space other than the first space; a position and orientation grasping unit that grasps the position of the target object with higher accuracy than the recognition unit by moving the gripping unit toward the target object and bringing the grasping unit into contact with the target object;
A position where the object can be grasped is specified based on information about the shape of the object and the position of the object grasped by the position/orientation grasping unit, and the grasping unit grasps the object at the position. A robot system comprising: a grasping control unit for grasping with and
請求項1に記載のロボットシステムであって、
前記位置姿勢把握部は、
前記第1の空間へ前記複数の指のうちの第1の指を挿入しつつ前記第1の指以外の指を前記対象物よりも高い位置を維持した状態で、前記把持部を前記対象物の方向へ移動させる
ことを特徴とするロボットシステム。
The robot system according to claim 1,
The position/orientation grasping unit
While inserting a first finger of the plurality of fingers into the first space and maintaining a position higher than the object with fingers other than the first finger, the grip portion is moved to the object. A robot system characterized by moving in the direction of
請求項1に記載のロボットシステムであって、
前記位置姿勢把握部は、
前記対象物に対して前記認識部が前記対象物の位置を認識する際の認識誤差相当の距離を確保して前記第1の空間へ前記把持部の少なくとも一部を挿入し、前記認識誤差相当の距離だけ前記把持部を前記対象物の方向へ移動させる
ことを特徴とするロボットシステム。
The robot system according to claim 1,
The position/orientation grasping unit
inserting at least part of the gripping unit into the first space while securing a distance corresponding to a recognition error when the recognition unit recognizes the position of the object with respect to the object; A robot system characterized by moving the gripper toward the object by a distance of .
請求項3に記載のロボットシステムであって、
前記第1の空間に対する前記対象物の反対側には、前記認識誤差相当の距離以上の大きさの空間が存在する
ことを特徴とするロボットシステム。
The robot system according to claim 3,
A robot system, wherein a space having a size equal to or greater than the distance corresponding to the recognition error exists on the opposite side of the object with respect to the first space.
請求項1に記載のロボットシステムであって、
前記認識部は、
前記第1の空間に対する前記対象物の反対側に、前記認識部が前記対象物の位置を認識する際の認識誤差相当の距離だけ前記対象物を移動可能な大きさの第2の空間が存在するか否かを判定し、
前記位置姿勢把握部は、
前記認識部によって前記第2の空間が存在すると判定された場合に、前記第1の空間へ前記把持部の少なくとも一部を挿入しつつ前記第1の空間以外の空間へは前記把持部を挿入しない状態で、前記認識誤差相当の距離だけ前記把持部を前記対象物の方向へ移動させる
ことを特徴とするロボットシステム。
The robot system according to claim 1,
The recognition unit
On the opposite side of the object to the first space, there is a second space having a size that allows the object to be moved by a distance corresponding to a recognition error when the recognition unit recognizes the position of the object. determine whether to
The position/orientation grasping unit
When the recognizing unit determines that the second space exists, inserting at least part of the gripping unit into the first space and inserting the gripping unit into a space other than the first space. The robot system moves the gripping part in the direction of the object by a distance corresponding to the recognition error in a state in which the gripping part is not moved.
請求項1に記載のロボットシステムであって、
前記把持部は、第1の指及び前記第1の指と向かい合う第2の指を有し、
前記把持制御部は、
前記位置姿勢把握部によって、前記第1の空間へ前記第1の指を挿入しつつ前記第1の空間以外の空間へは何れの指も挿入しない状態で、前記把持部を前記対象物の方向へ移動させて前記第1の指が前記対象物に接触させ、
前記把持制御部は、
前記把持制御部によって前記第1の指が前記対象物に接触すると、前記第1の指と前記対象物との接触を一旦解除し、前記第1の空間に対する前記対象物の反対側の第3の空間へ前記第2の指を挿入し、前記第3の空間へ前記第2の指を挿入した状態で、前記第1の指と前記第2の指とで前記対象物を把持する
ことを特徴とするロボットシステム。
The robot system according to claim 1,
The grip portion has a first finger and a second finger facing the first finger,
The grip control unit
The position/orientation grasping unit moves the grasping unit in the direction of the object while inserting the first finger into the first space and not inserting any fingers into spaces other than the first space. to bring the first finger into contact with the object,
The grip control unit
When the grip control unit causes the first finger to contact the object, the contact between the first finger and the object is temporarily released, and a third grip on the opposite side of the object with respect to the first space is held. inserting the second finger into the space of the third space, and grasping the object with the first finger and the second finger in a state in which the second finger is inserted into the third space; A robot system characterized by:
請求項6に記載のロボットシステムであって、
前記第1の指は、前記対象物との接触の際に前記対象物から受ける反力を検出するセンサを有し、
前記位置姿勢把握部は、
前記第1の空間へ前記把持部の少なくとも一部を挿入しつつ前記第1の空間以外の空間へは前記把持部を挿入しない状態で、前記センサによって前記反力が検出されるまで、前記把持部を前記対象物の方向へ移動させる
ことを特徴とするロボットシステム。
The robot system according to claim 6,
the first finger has a sensor that detects a reaction force received from the object when it contacts the object;
The position/orientation grasping unit
In a state in which at least part of the grip portion is inserted into the first space and the grip portion is not inserted into a space other than the first space, the grip is continued until the reaction force is detected by the sensor. A robot system characterized by moving a part in the direction of the object.
請求項1に記載のロボットシステムであって、
前記把持部は、複数の第1の指、及び、前記複数の第1の指と向かい合う第2の指を有し、
前記位置姿勢把握部は、
前記第1の空間へ前記複数の第1の指の少なくとも何れかの一部を挿入しつつ前記第1の空間以外の空間へは前記第2の指を挿入しない状態で、前記把持部を前記対象物の方向へ移動させ、
前記把持制御部は、
前記位置姿勢把握部によって前記複数の第1の指のうちの何れかが前記対象物と接触した後、前記複数の第1の指のうちの前記対象物と接触した指を始点とし前記対象物と接触していない指を終点とする第1ベクトルと、前記把持部の前記対象物の方向への移動を表す第2ベクトルとの外積が示す方向へ、前記把持部を所定軸を中心に回転させて、前記複数の第1の指を前記対象物と接触させる
ことを特徴とするロボットシステム。
The robot system according to claim 1,
The grip portion has a plurality of first fingers and a second finger facing the plurality of first fingers,
The position/orientation grasping unit
In a state in which at least a part of the plurality of first fingers is inserted into the first space and the second finger is not inserted into a space other than the first space, the grip portion is moved to the Move in the direction of the object,
The grip control unit
After any one of the plurality of first fingers contacts the object by the position/orientation grasping unit, the finger of the plurality of first fingers that has come into contact with the object is taken as a starting point and the object is detected. Rotating the gripping portion about a predetermined axis in a direction indicated by a cross product of a first vector whose end point is a finger that is not in contact with the gripping portion and a second vector representing movement of the gripping portion toward the object. to bring the plurality of first fingers into contact with the object.
請求項8に記載のロボットシステムであって、
前記把持制御部は、
前記認識部が前記対象物の姿勢を認識する際の認識誤差相当の角度だけ、前記把持部を前記所定軸を中心に回転させる
ことを特徴とするロボットシステム。
The robot system according to claim 8,
The grip control unit
A robot system, wherein the grasping section is rotated about the predetermined axis by an angle corresponding to a recognition error when the recognition section recognizes the posture of the object.
請求項8に記載のロボットシステムであって、
前記複数の第1の指は、前記対象物との接触の際に前記対象物から受ける反力を検出するセンサを有し、
前記位置姿勢把握部は、
前記第1の空間へ前記複数の第1の指の少なくとも一部を挿入しつつ前記第1の空間以外の空間へは前記第2の指を挿入しない状態で、何れかの前記第1の指の前記センサによって前記反力が検出されるまで、前記把持部を前記対象物の方向へ移動させる
ことを特徴とするロボットシステム。
The robot system according to claim 8,
The plurality of first fingers have sensors for detecting a reaction force received from the object upon contact with the object,
The position/orientation grasping unit
any one of the first fingers while inserting at least part of the plurality of first fingers into the first space and not inserting the second finger into a space other than the first space; until the reaction force is detected by the sensor of the robot system.
請求項8に記載のロボットシステムであって、
前記位置姿勢把握部は、
前記第1の空間へ前記複数の第1の指の少なくとも一部を挿入しつつ前記第1の空間以外の空間へは前記第2の指を挿入しない状態で、前記認識部が前記対象物の位置を認識する際の認識誤差相当の距離だけ、前記把持部を前記対象物の方向へ移動させる
ことを特徴とするロボットシステム。
The robot system according to claim 8,
The position/orientation grasping unit
In a state in which at least part of the plurality of first fingers are inserted into the first space and the second finger is not inserted into a space other than the first space, the recognition unit recognizes the target object. A robot system that moves the gripper toward the object by a distance corresponding to a recognition error in recognizing the position.
請求項1に記載のロボットシステムであって、
前記複数の指のうちの第1の指は、鉛直下方向へ移動させた際に鉛直方向へ受ける反力を検出するセンサを有し、
前記位置姿勢把握部は、
前記第1の空間へ前記第1の指を挿入し、前記反力を受けるまで鉛直下方向へ移動させ、前記反力を受けた際の鉛直方向の第1の高さ位置又は該第1の高さ位置から所定の高さだけ鉛直上方向へ移動させた第2の高さ位置を維持した状態で、前記第1の指を前記対象物の方向へ移動させて前記第1の指を前記対象物に接触させることで、前記対象物の位置及び姿勢を前記認識部よりも高い精度で把握する
ことを特徴とするロボットシステム。
The robot system according to claim 1,
A first finger of the plurality of fingers has a sensor for detecting a reaction force received in the vertical direction when moved vertically downward,
The position/orientation grasping unit
The first finger is inserted into the first space, moved vertically downward until receiving the reaction force, and is positioned at the first vertical height position or the first height position when receiving the reaction force. While maintaining a second height position that is vertically upwardly moved from the height position by a predetermined height, the first finger is moved in the direction of the object, and the first finger is moved to the above-mentioned position. A robot system that grasps the position and orientation of an object with higher accuracy than the recognition unit by bringing the object into contact with the object.
把持部の複数の指で対象物を把持して移載する移載機構を有するロボットシステムの制御方法であって、
前記ロボットシステムの認識部が、移載前の前記対象物の周囲において、前記把持部の少なくとも一部を挿入可能な空間、並びに、前記対象物の位置及び姿勢を認識し、
前記ロボットシステムの位置姿勢把握部が、前記認識部によって認識された前記空間のうちの第1の空間へ前記把持部の少なくとも一部を挿入しつつ前記第1の空間以外の空間へは前記把持部を挿入しない状態で、前記把持部を前記対象物の方向へ移動させて前記把持部を前記対象物に接触させることで、前記対象物の位置を前記認識部よりも高精度に把握し、
前記ロボットシステムの把持制御部が、前記対象物の形状に関する情報、並びに、前記位置姿勢把握部によって把握された前記対象物の位置に基づいて、前記対象物を把持可能な位置を特定し、該位置において前記対象物を前記把持部で把持する
各処理を有することを特徴とするロボットシステムの制御方法。
A control method for a robot system having a transfer mechanism for grasping and transferring an object with a plurality of fingers of a grasping part, comprising:
The recognition unit of the robot system recognizes a space in which at least part of the gripping unit can be inserted and the position and orientation of the object around the object before transfer,
A position/orientation grasping unit of the robot system inserts at least part of the grasping unit into a first space among the spaces recognized by the recognition unit, and grasps the grasping unit into a space other than the first space. The position of the target object is grasped with higher accuracy than the recognition unit by moving the gripping unit in the direction of the target object and bringing the gripping unit into contact with the target object without inserting the unit,
A gripping control unit of the robot system identifies a position where the object can be gripped based on information about the shape of the object and the position of the object grasped by the position/orientation grasping unit. A control method for a robot system, comprising: each process of gripping the object at a position with the gripping unit.
JP2021104082A 2021-06-23 2021-06-23 Robot system and control method of robot system Pending JP2023003109A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021104082A JP2023003109A (en) 2021-06-23 2021-06-23 Robot system and control method of robot system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021104082A JP2023003109A (en) 2021-06-23 2021-06-23 Robot system and control method of robot system

Publications (1)

Publication Number Publication Date
JP2023003109A true JP2023003109A (en) 2023-01-11

Family

ID=84817330

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021104082A Pending JP2023003109A (en) 2021-06-23 2021-06-23 Robot system and control method of robot system

Country Status (1)

Country Link
JP (1) JP2023003109A (en)

Similar Documents

Publication Publication Date Title
US9604364B2 (en) Picking apparatus and picking method
US20210347051A1 (en) Method and computing system for performing motion planning based on image information generated by a camera
CN101152720B (en) Workpiece picking apparatus
US10532461B2 (en) Robot and robot system
JP6140204B2 (en) Transport robot system with 3D sensor
JP6771744B2 (en) Handling system and controller
US11701777B2 (en) Adaptive grasp planning for bin picking
JP2020168710A (en) Robot system, method for robot system and non-temporal computer readable medium
JP6088563B2 (en) Work picking robot system having position and orientation conversion operation function, and work picking method
JP2020116726A (en) Operation method of transfer robot, system for operating transfer robot, and tangible non-transitory computer readable medium
JP6487495B2 (en) Work removal system
EP1862270A2 (en) Workpiece picking device and method
JP2020203342A (en) Object handling control device, object handling device, object handling method and object handling program
US20170277167A1 (en) Robot system, robot control device, and robot
JP2012024903A (en) Workpiece removing device and workpiece removing method
JP2012135820A (en) Automatic picking device and automatic picking method
CN113858188A (en) Industrial robot gripping method and apparatus, computer storage medium, and industrial robot
CN115703232A (en) Robot system with image-based sizing mechanism and method of operating the same
CN112154048A (en) Robot-based workpiece insertion
CN112338922B (en) Five-axis mechanical arm grabbing and placing method and related device
JP2023003109A (en) Robot system and control method of robot system
JP7467984B2 (en) Mobile manipulator, control method and control program for mobile manipulator
Thormann et al. Localization and efficient grasping of objects by a manipulator using RFID technique
WO2021149429A1 (en) Robot system control device, robot system control method, computer control program, and robot system
JP2013129005A (en) Gripping robot device, gripping operation control method and gripping operation control device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240214