JP2017047505A - Gripping possibility determination method - Google Patents

Gripping possibility determination method Download PDF

Info

Publication number
JP2017047505A
JP2017047505A JP2015172824A JP2015172824A JP2017047505A JP 2017047505 A JP2017047505 A JP 2017047505A JP 2015172824 A JP2015172824 A JP 2015172824A JP 2015172824 A JP2015172824 A JP 2015172824A JP 2017047505 A JP2017047505 A JP 2017047505A
Authority
JP
Japan
Prior art keywords
gripping
hand
point
control device
discriminator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015172824A
Other languages
Japanese (ja)
Other versions
JP6572687B2 (en
Inventor
宏平 菊地
Kohei Kikuchi
宏平 菊地
原田 研介
Kensuke Harada
研介 原田
偉偉 万
Weiwei Wan
偉偉 万
徳生 辻
Norio Tsuji
徳生 辻
弘 音田
Hiroshi Onda
弘 音田
和之 永田
Kazuyuki Nagata
和之 永田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Advanced Industrial Science and Technology AIST
Toyota Motor Corp
Original Assignee
National Institute of Advanced Industrial Science and Technology AIST
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Institute of Advanced Industrial Science and Technology AIST, Toyota Motor Corp filed Critical National Institute of Advanced Industrial Science and Technology AIST
Priority to JP2015172824A priority Critical patent/JP6572687B2/en
Publication of JP2017047505A publication Critical patent/JP2017047505A/en
Application granted granted Critical
Publication of JP6572687B2 publication Critical patent/JP6572687B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a gripping possibility determination method in which a gripping success rate is enhanced while increasing the number of components capable of being gripped.SOLUTION: A gripping possibility determination method includes: moving a hand from an approach point to a gripping point, and acquiring sample data in which a 3-dimensional point group in a hand passage area before gripping a gripping object is associated with the gripping success of the gripping object; defining the i-th point of the 3-dimensional point group in the hand passage area as p; defining a distance with the farthest point from the point pas h(p) among intersections of a straight line formed by extending the point pin the approach direction and the boundary of the hand passage area, defining a distance with the closest point from the point pas d(p) among the intersections of the straight line extended from the point pin the grip direction of the hand and the boundary of the hand passage area, assuming a gripping success rate to be high with respect to one having the smaller values of h(p), d(p) and n, and generating a discriminator from a feature vector calculated on the basis of the sample data and the distances h(p) and d(p); and determining the gripping possibility of the gripping object using this discriminator.SELECTED DRAWING: Figure 4

Description

本発明は、箱の中にバラ積みされた複数の把持対象物をロボットアームのハンドによって把持する際に、把持対象物がハンドにより把持可能か否かを判定する把持可否判定方法に関するものである。   The present invention relates to a gripping possibility determination method for determining whether or not a gripping object can be gripped by a hand when gripping a plurality of gripping objects stacked in a box by a hand of a robot arm. .

バラ積みされた把持対象物をロボットアームのハンドによって把持する際に、ロボットアームが他の物体と干渉する場合、当該ロボットアームの動作を停止させ、あるいは、その物体を回避する装置が知られている(特許文献1参照)。   When gripping a stacked object to be gripped with a robot arm hand, if the robot arm interferes with another object, a device that stops the operation of the robot arm or avoids the object is known. (See Patent Document 1).

特開2002−331480号公報JP 2002-331480 A

上記装置においては、ロボットアームが他の物体と干渉する場合、当該ロボットアームの動作停止などさせるため、把持可能な部品数が少なくなる虞がある。一方で、仮に、その他の物体を無視して把持を実行すれば、把持可能と判断する部品数は多くなるが、例えば、他の物体と強く衝突し把持成功率が低下する虞がある。
本発明は、このような問題点に鑑みてなされたものであり、把持可能な部品数を増加させつつ、把持成功率は高めることができる把持可否判定方法を提供することを主たる目的とする。
In the apparatus described above, when the robot arm interferes with another object, the operation of the robot arm is stopped, so that the number of parts that can be gripped may be reduced. On the other hand, if gripping is executed while ignoring other objects, the number of parts that are determined to be grippable increases. For example, there is a possibility that the gripping success will be reduced due to strong collision with other objects.
The present invention has been made in view of such problems, and a main object of the present invention is to provide a gripping possibility determination method capable of increasing the gripping success rate while increasing the number of grippable parts.

上記目的を達成するための本発明の一態様は、バラ積みされた複数の把持対象物をロボットアームのハンドによって把持する際に、前記ハンドが前記把持対象物を把持可能か否かを判定する把持可否判定方法であって、前記把持対象物から所定距離離れたアプローチ点から該把持対象物を前記ハンドにより把持する把持点まで前記ハンドを移動させ、該把持点で前記把持対象物を前記ハンドにより把持するまでに、前記ハンドが通過する領域をハンド通過領域とし、該ハンド通過領域内に含まれる3次元点群データと、前記ハンドによる前記把持対象物の把持の成否と、を対応付けた複数のサンプルデータを取得するステップと、前記ハンド通過領域内に含まる3次元点群のi番目の点をp(i=1、2、・・・n)とし、前記点pをアプローチ方向に伸ばした直線が前記ハンド通過領域の境界と交わる点の内、前記点pから最も遠い点との距離をh(p)とし、前記点pから前記ハンドの把持方向に伸ばした直線が前記ハンド通過領域の境界と交わる点の内、前記点pから最も近い点との距離をd(p)とし、前記h(p)、d(p)及びnの値が小さい方が把持成功率が高いと仮定し、前記サンプルデータと前記距離h(p)及びd(p)とに基づき算出した特徴ベクトルから、前記把持対象物の把持可否を判定するための識別器を生成するステップと、前記生成した識別器を用いて前記ハンドによる前記把持対象物の把持可否を判定するステップと、を含む、ことを特徴とする把持可否判定方法である。
この一態様によれば、ハンド通過領域に障害物が存在する場合でも、直ちに、その把持対象物を把持不可能と判断するのではなく、識別器を用いて把持可否の判定を行う。このため、把持可能な部品数を増加させることができる。この把持可否の判定を行う際に、ハンドと障害物との強干渉点が少なく、把持成功率が高いハンドの把持パターンを学習した識別器を用いることで、把持成功率は高めることができる。すなわち、把持可能な部品数を増加させつつ、把持成功率は高めることができる。
この一態様において、前記識別器はランダムフォレストで構成されており、前記特徴ベクトルは、下記式を用いて算出してもよい。この一態様によれば、ランダムフォレストで構成された識別器を用いて、把持可能な部品数を増加させつつ、把持成功率は高めることができる。
この一態様において、前記識別器は、線形SVM(support vector machine)で構成されており、前記特徴ベクトルfは、下記式を用いて算出してもよい。この一態様によれば、線形SVMで構成された識別器を用いて、把持可能な部品数を増加させつつ、把持成功率は高めることができる。
One aspect of the present invention for achieving the above object is to determine whether or not the hand can grip the gripping object when gripping a plurality of stacked gripping objects with a hand of a robot arm. A method for determining whether or not a grip is possible, wherein the hand is moved from an approach point that is a predetermined distance away from the gripping object to a gripping point that grips the gripping object by the hand, and the gripping object is moved to the hand at the gripping point. The area through which the hand passes is defined as a hand passage area, and the three-dimensional point cloud data included in the hand passage area is associated with success or failure of gripping the object to be grasped by the hand. obtaining a plurality of sample data, the hand passing the three-dimensional point cloud Fukumaru in the region i-th point of the p i (i = 1,2, ··· n) and, the points p i Among straight line extending in the approach direction of the point of intersection with the boundary of the hand passing area, the distance between the point farthest from the point p i and h (p i), extend from the points p i in the gripping direction of the hand Among the points where the straight line intersects the boundary of the hand passing area, the distance from the point p i to the closest point is d (p i ), and the values of the h (p i ), d (p i ), and n assuming that that there is a high gripping success rate smaller, from the calculated feature vectors on the basis of said sample data and the distance h (p i) and d (p i), for determining the grasping whether the grasped object And a step of determining whether or not the hand can be gripped by the hand using the generated discriminator.
According to this aspect, even when an obstacle is present in the hand passage area, it is not immediately determined that the object to be grasped cannot be grasped, but a determination as to whether or not the object can be grasped is performed using the classifier. For this reason, the number of parts that can be gripped can be increased. When determining whether or not the grip is possible, the grip success rate can be increased by using a discriminator that learns the grip pattern of the hand that has few strong interference points between the hand and the obstacle and has a high grip success rate. That is, the gripping success rate can be increased while increasing the number of parts that can be gripped.
In this aspect, the discriminator may be composed of a random forest, and the feature vector may be calculated using the following equation. According to this aspect, it is possible to increase the gripping success rate while increasing the number of parts that can be gripped using the discriminator configured by a random forest.
In this aspect, the discriminator may be composed of a linear SVM (support vector machine), and the feature vector f s may be calculated using the following equation. According to this aspect, it is possible to increase the gripping success rate while increasing the number of parts that can be gripped by using the discriminator configured by the linear SVM.

本発明によれば、把持可能な部品数を増加させつつ、把持成功率は高めることができる把持可否判定方法を提供することができる。   According to the present invention, it is possible to provide a gripping possibility determination method capable of increasing the gripping success rate while increasing the number of grippable parts.

本発明の一実施形態に係る搬送ロボットの概略的なシステム構成を示すブロック図である。1 is a block diagram illustrating a schematic system configuration of a transfer robot according to an embodiment of the present invention. ロボットアームのハンドのピッキング動作を示す図である。It is a figure which shows the picking operation | movement of the hand of a robot arm. ハンド通過領域を示す図である。It is a figure which shows a hand passage area. 距離h(p)およびd(p)を示す図である。Distance is a diagram illustrating a h (p i) and d (p i). 学習フェーズ及び実行フェーズを示す図である。It is a figure which shows a learning phase and an execution phase. 学習フェーズにおける把持動作軌道の生成方法のフローを示すフローチャートである。It is a flowchart which shows the flow of the production | generation method of the holding | grip movement trajectory in a learning phase. 実行フェーズにおける把持動作軌道の生成方法のフローを示すフローチャートである。It is a flowchart which shows the flow of the production | generation method of the holding | grip movement track | orbit in an execution phase.

以下、図面を参照して本発明の実施の形態について説明する。
本実施の形態の搬送ロボットは、複数の箱内に収容されたピッキング対象物(把持対象物)である部品を当該箱から夫々ピッキング(把持)して搬送する。
Embodiments of the present invention will be described below with reference to the drawings.
The transfer robot according to the present embodiment picks up (holds) parts, which are picking objects (gripping objects) housed in a plurality of boxes, and conveys them.

図1は、本発明の一実施形態に係る搬送ロボットの概略的なシステム構成を示すブロック図である。本実施形態に係る搬送ロボット1は、ロボットアーム2と移動台車3と、ロボットアーム2及び移動台車3を制御する制御装置4と、周辺の環境情報を検出する検出部5と、を備えている。   FIG. 1 is a block diagram showing a schematic system configuration of a transfer robot according to an embodiment of the present invention. The transfer robot 1 according to the present embodiment includes a robot arm 2, a movable carriage 3, a control device 4 that controls the robot arm 2 and the movable carriage 3, and a detection unit 5 that detects surrounding environmental information. .

ロボットアーム2は、移動台車3に固定されている。ロボットアーム2は、例えば、手首関節、肘関節、肩関節などの複数の関節部を有する多関節型アームとして構成されている。ロボットアーム2の先端部には、一対の指部(グリッパ)を有するハンド(以下、単にハンドと称す)が設けられている。各関節部に各関節部を駆動するモータなどのアクチュエータが設けられている。各関節部には各関節部の回転角を検出するエンコーダ、ポテンショメータ、レゾルバーなどの回転センサが設けられている。制御装置4は、各関節部のアクチュエータに制御信号を送信することで各関節部のアクチュエータを制御する。また、制御装置4は、一対の指部のアクチュエータを制御することで、指部の開閉動作を制御する。これにより、ハンドの指部は部品を把持する。なお、上記ロボットアーム2の構成は一例であり、これに限定されず、任意の構成が適用可能である。   The robot arm 2 is fixed to the moving carriage 3. The robot arm 2 is configured as an articulated arm having a plurality of joint portions such as a wrist joint, an elbow joint, and a shoulder joint, for example. A hand having a pair of finger parts (grippers) (hereinafter simply referred to as a hand) is provided at the tip of the robot arm 2. Each joint is provided with an actuator such as a motor for driving each joint. Each joint is provided with a rotation sensor such as an encoder, a potentiometer, and a resolver that detects the rotation angle of each joint. The control device 4 controls the actuator of each joint by transmitting a control signal to the actuator of each joint. Moreover, the control apparatus 4 controls the opening / closing operation | movement of a finger part by controlling the actuator of a pair of finger part. Thereby, the finger part of the hand grips the component. The configuration of the robot arm 2 is merely an example, and is not limited to this, and any configuration can be applied.

移動台車3は、例えば、左右の駆動輪、駆動輪を駆動するモータ、減速機及びエンコーダなどを備えている。また、移動台車3は、部品を載置する通箱が設けられている。搬送ロボット1は、ロボットアーム2により把持した部品を通箱に載置し、搬送を行う。エンコーダは、検出したモータの回転情報を制御装置4に出力する。制御装置4は、エンコーダから出力される回転情報に基づいて、各モータに制御信号を送信することで移動台車3の駆動輪を制御する。   The movable carriage 3 includes, for example, left and right drive wheels, a motor that drives the drive wheels, a speed reducer, an encoder, and the like. In addition, the moving carriage 3 is provided with a box for placing components. The transport robot 1 places the parts gripped by the robot arm 2 on a box and transports them. The encoder outputs the detected rotation information of the motor to the control device 4. The control device 4 controls the drive wheels of the movable carriage 3 by transmitting a control signal to each motor based on the rotation information output from the encoder.

制御装置4は、検出部5から出力される周辺の環境情報(以下、周辺環境情報)に基づいて、ロボットアーム2及び移動台車3の駆動を制御する。
制御装置4は、例えば、制御演算、演算処理等を行うCPU(Central Processing Unit)4a、CPU4aによって実行される制御プログラム、演算プログラム等が記憶されたROM(Read Only Memory)やRAM(Random Access Memory)からなるメモリ4b、外部と信号の入出力を行う複数のインターフェイス部(I/F)4cなどからなるマイクロコンピュータを中心にして、ハードウェア構成されている。CPU4a、メモリ4b及びインターフェイス部4cは、データバスなどを介して相互に接続されている。
The control device 4 controls the driving of the robot arm 2 and the movable carriage 3 based on the surrounding environment information (hereinafter referred to as surrounding environment information) output from the detection unit 5.
The control device 4 includes, for example, a CPU (Central Processing Unit) 4a that performs control calculation, calculation processing, and the like, a ROM (Read Only Memory) or a RAM (Random Access Memory) that stores a control program executed by the CPU 4a, a calculation program, and the like. ), And a microcomputer composed of a plurality of interface units (I / F) 4c for inputting / outputting signals to / from the outside. The CPU 4a, the memory 4b, and the interface unit 4c are connected to each other via a data bus or the like.

検出部5は、搬送ロボット1の周辺の環境情報を検出する。検出部5は視覚センサ51を有している。視覚センサ51としては、例えば、Kinect(登録商標)センサなどを用いることができる。但し、検出部5は、搬送ロボット1の周辺の環境情報を検出することができるセンサであれば、特に限定されない。検出部5は、検出した周辺の環境情報を制御装置4に出力する。   The detection unit 5 detects environmental information around the transfer robot 1. The detection unit 5 has a visual sensor 51. As the visual sensor 51, for example, a Kinect (registered trademark) sensor can be used. However, the detection unit 5 is not particularly limited as long as it is a sensor that can detect environmental information around the transfer robot 1. The detection unit 5 outputs the detected surrounding environment information to the control device 4.

搬送ロボット1は、例えば、ロボットアーム2を用いて複数の箱内に収容された把持対象物の部品を当該箱から夫々把持し、移動台車3の通箱に載置して搬送を行う。ここで、特定の箱の中にバラ積みされた複数の部品をロボットアーム2のハンドによって把持する際に、その部品がハンドにより把持可能(ピッキング可能)か否かを判定する必要がある。   For example, the transfer robot 1 uses the robot arm 2 to hold the parts of the object to be held housed in a plurality of boxes from the boxes, and places them on the passing box of the movable carriage 3 for transfer. Here, when a plurality of parts stacked in a specific box are gripped by the hand of the robot arm 2, it is necessary to determine whether or not the part can be gripped (pickable) by the hand.

図2は、ロボットアームのハンドのピッキング動作を示す図である。ロボットアーム2が各部品を把持する際に、まず、制御装置4はロボットアーム2の各関節部のアクチュエータを制御して、ハンド21を部品から一定距離離れたアプローチ点に移動させる(a)。その後、制御装置4は、ロボットアーム2の各関節部のアクチュエータを制御して、ハンド21を、そのアプローチ点から把持点に移動させる(b)。そして、制御装置4は、その把持点でハンド21の指部22が部品を把持するように、ハンド21のアクチュエータを制御する(c)。   FIG. 2 is a diagram illustrating a picking operation of the hand of the robot arm. When the robot arm 2 grips each component, first, the control device 4 controls the actuator of each joint portion of the robot arm 2 to move the hand 21 to an approach point away from the component by a certain distance (a). Then, the control apparatus 4 controls the actuator of each joint part of the robot arm 2, and moves the hand 21 from the approach point to a gripping point (b). And the control apparatus 4 controls the actuator of the hand 21 so that the finger | toe part 22 of the hand 21 may hold | grip components at the holding point (c).

ところで、上述したハンドがアプローチ点から把持点まで移動する際にハンドが通過する第1通過領域、および、ハンドが把持点で把持を完了するまでに通過する第2通過領域(第1及び第2通過領域をSweeping Volumeとし、以下、ハンド通過領域(斜線部分)Sと称す)内に障害物が存在することがある(図3)。   By the way, a first passing region through which the hand passes when the hand moves from the approach point to the gripping point, and a second passing region through which the hand passes by the gripping point to complete gripping (first and second). An obstacle may exist in the hand passing area (hatched portion) (hereinafter referred to as “Sweeping Volume”) (FIG. 3).

このようにハンド通過領域Sに障害物が存在する場合(ハンド21が障害物と干渉する場合)、単に、その部品を把持不可能と判断すれば、実際に把持を実行した際の把持成功率は高まるが把持可能な部品数は少なくなる虞がある。
一方で、そのハンド通過領域Sの障害物を無視して把持を実行すれば、把持可能と判断する部品数は多くなる。しかし、例えば、ハンド21が障害物と強く衝突し、実際に把持を実行した際の把持成功率が低下する虞がある。
In this way, when there is an obstacle in the hand passing area S (when the hand 21 interferes with the obstacle), if it is simply determined that the part cannot be gripped, the gripping success rate when actually gripping is performed. However, the number of parts that can be gripped may decrease.
On the other hand, if the grip is executed while ignoring the obstacle in the hand passing area S, the number of parts that are determined to be grippable increases. However, for example, there is a possibility that the success rate of gripping when the hand 21 strongly collides with an obstacle and actually grips is lowered.

これに対し、本実施形態に係る把持可否判定方法においては、ハンド通過領域Sのどの位置に障害物があると、ハンド21による部品の把持が失敗(あるいは成功)するかを学習した識別器を生成し、この識別器を用いて、ハンド21による部品の把持可否を判定する。これにより、ハンド通過領域Sに障害物が存在する場合でも、直ちに、その部品を把持不可能と判断するのではなく、識別器を用いて把持可否の判定を行う。このため、把持可能な部品数を増加させることができる。この把持可否の判定を行う際に、ハンド通過領域Sのどの位置に障害物があると、ハンド21による部品の把持が失敗(あるいは成功)するかを学習した識別器を用いる。このため、たとえハンド通過領域S内に障害物がある場合でも、その把持成功率を高めることができる。すなわち、把持可能な部品数を増加させつつ、把持成功率は高めることができる。   On the other hand, in the grasping possibility determination method according to the present embodiment, the discriminator that learns which position in the hand passing area S has failed (or succeeded) when the hand 21 grasps the component. And using this discriminator, it is determined whether or not the hand 21 can hold the component. As a result, even when an obstacle exists in the hand passing area S, it is not immediately determined that the part cannot be gripped, but a determination as to whether or not the part can be gripped is performed using a discriminator. For this reason, the number of parts that can be gripped can be increased. When determining whether or not gripping is possible, a discriminator is used which learns at which position in the hand passage area S there is an obstacle (or success) when gripping a part by the hand 21 fails. For this reason, even if there is an obstacle in the hand passing area S, the success rate of gripping can be increased. That is, the gripping success rate can be increased while increasing the number of parts that can be gripped.

例えば、ハンド21がバラ積みされた他の部品に掠るあるいは軽く押す程度に接触するのであれば(このような場合は把持成功率が高いと推定される)、その部品を押しのけて把持対象の部品を把持できる場合がある。したがって、このような、従来、ハンド21が他の部品と干渉し把持不可能と判断されていた部品が把持可能となる。
本実施形態に係る把持可否判定方法は、上述の如く、ロボットアーム2によるバラ積みされた部品の把持作業において、ハンド21と、把持対象部品と隣接する部品と、の接触を適度に許容することで、把持可能な部品数を増加させつつ、把持成功率は高めるものである。
For example, if the hand 21 comes into contact with other parts that are stacked or lightly pressed (in such a case, it is estimated that the gripping success rate is high), the part 21 is pushed and the gripping target is In some cases, a part can be gripped. Therefore, it is possible to grip such a component that has been determined to be impossible to grip because the hand 21 interferes with other components.
The gripping possibility determination method according to the present embodiment appropriately allows contact between the hand 21 and a component adjacent to the gripping target component in the gripping operation of the parts stacked by the robot arm 2 as described above. Thus, the gripping success rate is increased while increasing the number of grippable parts.

本実施形態に係る把持可否判定方法においては、ハンド通過領域S内に障害物がある場合の把持成功条件(ハンド通過領域Sのどの位置に障害物があると、ハンド21による部品の把持が成功かの条件)を、以下の学習によって導出した識別器を生成する。すなわち、把持成功率の高い把持パターンを学習した識別器を生成する。   In the gripping possibility determination method according to the present embodiment, a gripping success condition when there is an obstacle in the hand passing area S (the position of the obstacle in the hand passing area S is successful in gripping the part by the hand 21). Is generated by the following learning. That is, a discriminator learning a grip pattern having a high grip success rate is generated.

制御装置4は、過去のハンドの把持動作におけるハンド通過領域S内に含まれる障害物を表すポイントクラウド(3次元点群データ)と、ハンド21による把持対象の部品の把持成否と、を対応付けたサンプルデータを学習データとして取得する。そして、制御装置4は、取得した学習データを用いて、把持成否を判定するための識別器を生成する。なお、上記ポイントクラウドは、把持対象の部品付近の点を除いたものである。   The control device 4 associates the point cloud (three-dimensional point cloud data) representing the obstacle included in the hand passing area S in the past hand gripping operation with the gripping success / failure of the part to be gripped by the hand 21. Sample data obtained as learning data. And the control apparatus 4 produces | generates the discriminator for determining a holding | gripping success or failure using the acquired learning data. The point cloud is obtained by excluding points near the part to be grasped.

本実施形態において、障害物(ポイントクラウド)がハンド21からどれ位離れているか、換言すると、障害物がハンド21にどれ位干渉するかを、特徴ベクトルで表現した識別器を生成する。 ここで、ハンド通過領域内に含まれるi番目の点をp(i=1、2、・・・、n)とし、下記変数を定義する(図4)。 In the present embodiment, a discriminator is generated in which a feature vector represents how far an obstacle (point cloud) is from the hand 21, in other words, how much the obstacle interferes with the hand 21. Here, the i-th point included in the hand passage area is defined as p i (i = 1, 2,..., N), and the following variables are defined (FIG. 4).

h(p):点pからアプローチ点方向に伸ばした直線がハンド通過領域境界と交わる点の内、pから最も遠い点との距離。その点pをアプローチ方向に押しのける距離。
d(p):点pから指部の開閉方向(把持方向)に伸ばした直線がハンド通過領域境界と交わる点の内、pから最も近い点との距離。その点pがハンド通過領域の内側(指部22の閉方向)に入り込んだ距離。
h (p i): Among the straight line extended from the point p i in the approach point direction of the point of intersection between the hand passing area boundary distance of a point farthest from p i. The distance by which the point p i is pushed in the approach direction.
d (p i): Of the point p i straight line extending in the closing direction (gripping direction) of the finger portion of the point of intersection between the hand passing area boundary distance of a point closest from p i. The distance at which the point p i enters the inside of the hand passing area (the closing direction of the finger portion 22).

上記h(p)及びd(p)が大きい場合、障害物がハンド21に強干渉することを示している。
ここで、ハンド21と障害物との強干渉する点を少なくすると、ハンド21による部品把持の成功率が高まると仮定する。すなわち、h(p)、d(p)及びnの全ての値が小さい方が把持成功率が高いと仮定する。そして、この仮定の基で把持成功率が高いときに生成された特徴ベクトルを用いて識別器を生成している。
When h (p i ) and d (p i ) are large, this indicates that the obstacle strongly interferes with the hand 21.
Here, it is assumed that if the number of points of strong interference between the hand 21 and the obstacle is reduced, the success rate of gripping parts by the hand 21 is increased. That is, it is assumed that the gripping success rate is higher when the values of h (p i ), d (p i ), and n are smaller. Based on this assumption, the classifier is generated using the feature vector generated when the grasping success rate is high.

以上のように、本実施形態においては、上述したように、点piの距離h(p)および距離d(p)を定義し、h(p)、d(p)及びnの値が小さい方が把持成功率が高いと仮定し、サンプルデータおよび距離をh(p)およびd(p)に基づいて算出した特徴ベクトルから、把持可能か否かを判定するための識別器を生成する。この識別器を用いることで、ハンド通過領域Sに障害物が存在する場合(ハンド21が障害物と接触する場合)でも、ハンド21と障害物との強干渉点が少なく、把持成功率が高いハンド21の把持パターンを選択できるため、把持成功率は高めることができる。 As described above, in the present embodiment, as described above, the distance h (p i ) and the distance d (p i ) of the point pi are defined, and h (p i ), d (p i ), and n Assuming that the smaller the value is, the higher the success rate of gripping, and the identification for determining whether or not gripping is possible from the feature vector calculated based on the sample data and the distance h ( pi ) and d ( pi ) Create a container. By using this discriminator, even when an obstacle is present in the hand passage area S (when the hand 21 is in contact with the obstacle), there are few strong interference points between the hand 21 and the obstacle, and the gripping success rate is high. Since the grip pattern of the hand 21 can be selected, the gripping success rate can be increased.

識別器は、例えば、線形SVM(support vector machine)又はランダムフォレスト(Random Forest)で構成されている。なお、識別器は、上記一例に限定されず、任意の学習アルゴリズムで構成できる。   The discriminator is composed of, for example, a linear SVM (support vector machine) or a random forest. The discriminator is not limited to the above example, and can be configured by an arbitrary learning algorithm.

まず、上記ランダムフォレストの特徴ベクトルの定義方法について説明する。
特徴ベクトルとして、ハンド通過領域内のポイント分布を用いる。このため、h(p)、d(p)を用いた2次元ヒストグラムを下記のように定義する。なお、下記定義において、binwidthはbin幅であり、bin_h及びbin_dは各軸のbin上限値(無条件で把持失敗と判定する閾値)である。
特徴ベクトル=(底面からの距離:min((h(pi)/binwidth),bin_h),
側面からの距離:min((d(pi)/binwidth),bin_d))
First, a method for defining the feature vector of the random forest will be described.
A point distribution in the hand passing area is used as the feature vector. For this reason, a two-dimensional histogram using h (p i ) and d (p i ) is defined as follows. In the definition below, binwidth is the bin width, and bin_h and bin_d are bin upper limit values (threshold values for determining unsuccessful grasping failure) of each axis.
Distance from the feature vector = (bottom: min ((h (p i ) / binwidth), bin_h),
Distance from side: min ((d (p i ) / binwidth), bin_d))

目的変数を列挙型(把持成功、把持失敗)する。制御装置4は、サンプルデータから各葉ノード到達時の把持成功率を算出することで、任意の特徴ベクトルに対して把持成功率を算出する。なお、識別器が、ランダムフォレストで構成されている場合、上記サンプルデータは領域の偏りのないランダムなデータを用いるのが好ましい。制御装置4は、状況に応じて、把持成功率の閾値を設定することで、把持可否判定を行ってもよい。把持成功率を高めたい場合は、この閾値を大きく設定する。   Enumerate objective variables (successful gripping, gripping failure). The control device 4 calculates a gripping success rate for an arbitrary feature vector by calculating a gripping success rate when reaching each leaf node from the sample data. When the discriminator is composed of a random forest, it is preferable to use random data with no region bias as the sample data. The control device 4 may determine whether or not gripping is possible by setting a threshold for the gripping success rate according to the situation. When it is desired to increase the gripping success rate, this threshold value is set large.

続いて線形SVMの特徴ベクトルの定義方法について説明する。
特徴ベクトルを、下記2次元ベクトルfとして定義する。

Figure 2017047505
Next, a method for defining a feature vector of linear SVM will be described.
The feature vector is defined as following a two-dimensional vector f s.
Figure 2017047505

制御装置4は、サンプルデータに基づいて各領域での把持成功率を算出する。制御装置4は、任意の特徴ベクトルに対して属する領域の識別を行うことで、把持成功率を算出する。また、制御装置4は、状況に応じて、閾値を設定することで、把持可否判定を行う。把持成功率を高めたい場合は、この閾値を大きく設定する。   The control device 4 calculates a gripping success rate in each region based on the sample data. The control device 4 calculates a gripping success rate by identifying a region belonging to an arbitrary feature vector. In addition, the control device 4 determines whether or not it can be gripped by setting a threshold value according to the situation. When it is desired to increase the gripping success rate, this threshold value is set large.

本実施形態に係る制御装置4は、図5に示す如く、上述した識別器を生成する学習フェーズと、学習フェーズで生成した識別器を用いて、実際の把持動作を行う実行フェーズと、を実行する。   As shown in FIG. 5, the control device 4 according to the present embodiment executes a learning phase for generating the discriminator described above and an execution phase for performing an actual gripping operation using the discriminator generated in the learning phase. To do.

学習フェーズにおいて、制御装置4は、部品情報、搬送ロボット1の幾何情報などの前提条件の取得を行う(1)。次に、制御装置4は、部品毎の把持可能位置・姿勢を導出して、把持位置姿勢データベースの構築を行う(2)。その後、検出部5は部品の位置・姿勢を検出する(3)。さらに、制御装置4は、把持位置姿勢データベースおよび検出された部品の位置・姿勢に基づいて、実際に部品をピッキングするようにロボットアーム2を制御する(4)。このとき、制御装置4は、上述したように、ハンド通過領域内に含まれるポイントクラウドと、ハンド21による把持対象の部品の把持成否と、を対応付けたサンプリングデータを学習データとして、把持成否を学習し識別器を生成する(5)。   In the learning phase, the control device 4 acquires preconditions such as component information and geometric information of the transfer robot 1 (1). Next, the control device 4 derives a grippable position / posture for each part and constructs a gripping position / posture database (2). Thereafter, the detection unit 5 detects the position and orientation of the component (3). Further, the control device 4 controls the robot arm 2 so as to actually pick the part based on the gripping position / posture database and the detected position / posture of the part (4). At this time, as described above, the control device 4 uses the sampling data associating the point cloud included in the hand passing area and the gripping success / failure of the gripping target part by the hand 21 as learning data to determine the gripping success / failure. Learning and generating a classifier (5).

続いて、実行フェーズにおいて、検出部5は部品の位置・姿勢を検出する(1)。次に、制御装置4は、上記識別器を用いて把持成功率の高い把持位置姿勢を選択し、検出した部品の位置・姿勢に基づいて、部品をピッキングするようにロボットアーム2を制御する(2)。以下、上述した学習フェーズ及び実行フェーズについて、詳細に説明する。   Subsequently, in the execution phase, the detection unit 5 detects the position and orientation of the component (1). Next, the control device 4 selects a gripping position / posture with a high gripping success rate using the discriminator, and controls the robot arm 2 to pick a component based on the detected position / posture of the component ( 2). Hereinafter, the learning phase and the execution phase described above will be described in detail.

<<学習フェーズ>>
(1)前提条件の取得
まず、上述した学習フェーズの前提条件について説明する。
(前提1)ロボットアーム2が把持する部品、ロボットアーム2自体の幾何モデル、ならびに、部品の重量は予め与えられているものとする。
(前提2)各箱の中に入っている部品の種類は既知であるが、部品の箱中での位置及び部品の数は未知とする。
例えば、メモリ4bには、上述した、ロボットアーム2が把持する部品の幾何モデル、ロボットアーム2自体の幾何モデル、部品の重量、各箱の中に入っている部品の種類、などの情報が予め記憶されている。
<< Learning Phase >>
(1) Acquisition of precondition First, the precondition of the learning phase mentioned above is demonstrated.
(Premise 1) It is assumed that the parts held by the robot arm 2, the geometric model of the robot arm 2 itself, and the weights of the parts are given in advance.
(Assumption 2) The types of parts contained in each box are known, but the position of the parts in the box and the number of parts are unknown.
For example, the memory 4b stores in advance information such as the above-described geometric model of the part gripped by the robot arm 2, the geometric model of the robot arm 2 itself, the weight of the part, and the type of part contained in each box. It is remembered.

(2)把持位置姿勢のデータベースの構築
続いて、ロボットアーム2が把持動作を開始する前に、ハンド21が各部品を把持可能な位置及び姿勢(以下、把持位置姿勢)のデータベースを構築する。制御装置4は、部品毎の把持位置姿勢のデータベースを、例えば、下記<フェーズ1〜6>に従って構築する。
(2) Construction of a database of gripping positions and orientations Subsequently, before the robot arm 2 starts a gripping operation, a database of positions and postures (hereinafter referred to as gripping positions and postures) at which the hand 21 can grip each component is constructed. The control device 4 constructs a gripping position and orientation database for each component, for example, according to the following <Phases 1 to 6>.

<フェーズ1>
先ず、制御装置4は、部品の形状(幾何モデル)に対して最適な分割数を決めるための評価指標を導き出す。詳細には、制御装置4は、領域分割数決定方法によって、以下の条件1を満たすまでクラスタをマージする。
<Phase 1>
First, the control device 4 derives an evaluation index for determining the optimum number of divisions for the part shape (geometric model). More specifically, the control device 4 merges clusters until the following condition 1 is satisfied by the area division number determination method.

<条件1>
誤差(error)>0.01、且つ、クラスタの重なり度<0.2であって、クラスタの重なり度は、下記式により導き出す。

Figure 2017047505
但し、volmaxは最大クラスタ領域のバウンディングボックスの体積、overlapvoliは最大クラスタ領域とクラスタiのバウンディングボックスが重なった領域の体積である。 <Condition 1>
Error> 0.01 and cluster overlap degree <0.2, and the cluster overlap degree is derived from the following equation.
Figure 2017047505
Where vol max is the volume of the bounding box of the maximum cluster region, and overlap voli is the volume of the region where the maximum cluster region and the bounding box of cluster i overlap.

<フェーズ2>
制御装置4は、<フェーズ1>で導き出した評価指標を最小化するように、部品の幾何モデルを一般的な方法(例えば、非特許文献:辻、原田、山野辺、永田、中村、長谷川、”一般物体把持のための把持姿勢変換”、ロボティクスシンポジア講演稿集、pp.219-224、2013)に基づいて分割(クラスタリング)する。これにより、部品の幾何モデルに複数の2次曲面が割り当てられる。
<Phase 2>
The control device 4 uses a general method (for example, non-patent literature: Sakai, Harada, Yamanobe, Nagata, Nakamura, Hasegawa, etc.) so as to minimize the evaluation index derived in <Phase 1>. Dividing (clustering) based on "Grip posture conversion for general object gripping", Robotics Symposia Lectures, pp.219-224, 2013). As a result, a plurality of quadric surfaces are assigned to the geometric model of the part.

<フェーズ3>
制御装置4は、2次曲面として楕円や円が割り当てられたものに対しては、これらのバウンディングボックスを導き出す。なお、バウンディングボックスの3辺長が部品全体のバウンディングボックスの3辺長の0.15倍(但し、倍数は適宜変更することができる。)より小さいクラスタ領域は、把持点探索の対象外とする。
<Phase 3>
The control device 4 derives these bounding boxes for those to which an ellipse or a circle is assigned as a quadric surface. Note that cluster regions whose three side lengths of the bounding box are smaller than 0.15 times the whole side bounding box length (however, the multiple can be changed as appropriate) are excluded from the gripping point search target. .

<フェーズ4>
制御装置4は、<フェーズ3>で導き出したバウンディングボックスを、例えば、非特許文献:原田、辻、金子、金広、丸山、”直方体モデルに基づく多指ハンドの把握計画”、日本機械学会誌(C編)、vol.76、no.762、pp.331-339、2010で定義したGRC(Grasping Rectangular Convex)とみなし、GRCの曲面に離散化した点を仮定し、この点にアプローチするように仮想的にハンド21を動かす。
<Phase 4>
The control device 4 uses the bounding box derived in <Phase 3> as, for example, non-patent literature: Harada, Kaoru, Kaneko, Kanehiro, Maruyama, "Multi-fingered hand grasp plan based on a rectangular parallelepiped model", Journal of the Japan Society of Mechanical Engineers. (Part C), vol.76, no.762, pp.331-339, GRC (Grasping Rectangular Convex) defined in 2010, assuming discrete points on the GRC surface and approaching this point The hand 21 is virtually moved.

<フェーズ5>
制御装置4は、<フェーズ4>におけるハンド21の姿勢から当該ハンド21の指部22が部品と接触するまで仮想的に当該指部22を閉じる。
<Phase 5>
The control device 4 virtually closes the finger portion 22 from the posture of the hand 21 in <Phase 4> until the finger portion 22 of the hand 21 comes into contact with a component.

<フェーズ6>
制御装置4は、仮想的に全ての指部22が部品と接触した時点で、例えば、非特許文献:原田、辻、宇都、山野辺、永田、”ソフトフィンガ型把持の安定性解析”、計測自動制御学会システムインテグレーション部門講演会予稿集、2013に開示された手法で把持安定性をチェックする。制御装置4は、各把持位置姿勢のチェックを行って、把持安定性の条件を満たさないと判断した把持位置姿勢を対象外とする。
<Phase 6>
When all the finger parts 22 are virtually in contact with the parts, the control device 4 is, for example, a non-patent document: Harada, Sakai, Utsu, Yamanobe, Nagata, “soft finger type gripping stability analysis”, automatic measurement Grip stability is checked by the method disclosed in Proceedings of the Society of Control Engineers System Integration Division, 2013. The control device 4 checks each gripping position / posture, and excludes the gripping position / posture determined to not satisfy the gripping stability condition.

制御装置4は、上述の離散化した点に対して<フェーズ5>及び<フェーズ6>を繰り返すことで、各部品に対して把持位置姿勢のデータベースを構築することができる。なお、把持位置姿勢のデータベースにおける各データは、部品の座標系からみたロボットアーム2の手首関節の位置データ、部品の座標系からみたロボットアーム2の手首関節の姿勢行列データ、及びハンド21の指部22の関節の関節角度ベクトルデータを含む。   The control device 4 can construct a gripping position / posture database for each component by repeating <Phase 5> and <Phase 6> on the discrete points described above. Each data in the gripping position / posture database includes the position data of the wrist joint of the robot arm 2 as viewed from the component coordinate system, the posture matrix data of the wrist joint of the robot arm 2 as viewed from the component coordinate system, and the finger of the hand 21 The joint angle vector data of the joint of the unit 22 is included.

制御装置4は、上述の<フェーズ1>〜<フェーズ6>を部品とハンド21との全てのペアに対して行って、部品とハンド21との全てのペアに対して当該ハンド21の把持位置姿勢のデータベースを構築し、当該データベースをメモリ4bに格納する。なお、ハンド21の把持位置姿勢のデータベースは、予めメモリ4bに格納されていてもよい。   The control device 4 performs the above-described <Phase 1> to <Phase 6> for all the pairs of the component and the hand 21 and holds the gripping position of the hand 21 with respect to all the pairs of the component and the hand 21. A posture database is constructed and stored in the memory 4b. Note that the database of the grip position / posture of the hand 21 may be stored in the memory 4b in advance.

(3)部品の位置姿勢の計測
把持対象物である箱内の部品の位置及び姿勢(以下、位置姿勢)の計測を行う。
搬送ロボット1が動作を開始し、制御装置4は、モータを制御して上記構築したデータベースの把持位置姿勢に含まれるロボットアーム2の位置に移動台車3を移動させる。そして、検出部5は、その位置で、視覚センサ51を用いて、部品の位置姿勢を計測する。
(3) Measurement of position and orientation of part The position and orientation (hereinafter referred to as position and orientation) of the part in the box that is the gripping object are measured.
The transfer robot 1 starts its operation, and the control device 4 controls the motor to move the moving carriage 3 to the position of the robot arm 2 included in the gripping position / posture of the database constructed as described above. And the detection part 5 measures the position and orientation of components using the visual sensor 51 in the position.

なお、箱中には複数の部品が入っているが、このうちの1つの部品の位置姿勢を計測するものとする。検出部5は、例えば、PCL(Point Cloud Library)のアルゴリズムを用いて部品の位置姿勢を取得する。なお、PCLのアルゴリズムは、例えば、非特許文献:A.Aldoma,F.Tombari,R.B.Rusu,and M.Vincze,”OUR-CVFH-Oriented, Unique and Repeatable Clustered Viewpoint Feature Histogram for Object Recognition and 6DOF Pose Estimation”,A.Pinz et al.(Eds.):DAGM/OAGM 2012, LNCS,pp.113-122,2012に詳細に記載されておりこれを援用できるものとする。   A plurality of parts are contained in the box, and the position and orientation of one of these parts is measured. The detection unit 5 acquires the position and orientation of a part using, for example, a PCL (Point Cloud Library) algorithm. The PCL algorithm is, for example, non-patent literature: A. Aldoma, F. Tombari, RBRusu, and M. Vincze, “OUR-CVFH-Oriented, Unique and Repeatable Clustered Viewpoint Feature Histogram for Object Recognition and 6DOF Pose Estimation. "A. Pinz et al. (Eds.): DAGM / OAGM 2012, LNCS, pp. 113-122, 2012, which is described in detail.

検出部5は、視覚センサ51を用いて、箱中の部品のポイントクラウド(3次元点群データ)を検出する。検出部5は、PCLのアルゴリズを用いて、検出したポイントクラウドに対して部品の幾何モデルをマッチングさせることで、ポイントクラウドの中から部品の位置姿勢を検出する。なお、箱内の部品の位置姿勢は、予めメモリ4bに記憶されていてもよい。   The detection unit 5 uses the visual sensor 51 to detect a point cloud (three-dimensional point cloud data) of the components in the box. The detection unit 5 detects the position and orientation of the component from the point cloud by matching the geometric model of the component with the detected point cloud using a PCL algorithm. Note that the position and orientation of the components in the box may be stored in advance in the memory 4b.

(4)把持動作(ピッキング動作)
制御装置4は、実際にロボットアーム2を動作させ、そのときのロボットアーム2の把持動作軌道を、下記のように生成する。
上記の如く、視覚センサ51は、箱に入っている部品の位置姿勢を計測する。このとき、絶対座標系から見た部品の位置を示す3次元位置ベクトルをPoとし、部品の位置姿勢を示す3×3の回転行列をRoとし、認識された部品のうち第i把持対象物を夫々Po、Roと定義する。
(4) Grasping operation (Picking operation)
The control device 4 actually operates the robot arm 2 and generates a gripping motion trajectory of the robot arm 2 at that time as follows.
As described above, the visual sensor 51 measures the position and orientation of the components contained in the box. At this time, the three-dimensional position vector indicating the position of the part viewed from the absolute coordinate system is set as Po, the 3 × 3 rotation matrix indicating the position and orientation of the part is set as Ro, and the i-th gripping object among the recognized parts is set. They are defined as Po i and Ro i , respectively.

なお、上述の如く、部品毎のハンド21の把持位置姿勢のデータベースがメモリ4bに格納されている。認識された部品のうち、第i把持対象物の、第j番目の把持位置姿勢データに含まれる対象物座標系から見た手首関節の位置をoPwij、姿勢を表す行列をoRwijとする。このとき、絶対座標系から見た手首関節の目標位置姿勢は以下の式により定義できる。
Pwij=Po+Ro*oPwij
Rwij=Ro*oRwij
As described above, the database of the gripping position and orientation of the hand 21 for each component is stored in the memory 4b. Of the recognized component, of the i-th object to be held, the position of the OPW ij wrist joint as viewed from the object coordinate system included in the j-th gripping position and orientation data, a matrix representing the posture to ORW ij. At this time, the target position and orientation of the wrist joint viewed from the absolute coordinate system can be defined by the following expression.
Pw ij = Po i + Ro i * oPw ij
Rw ij = Ro i * oRw ij

制御装置4は、上記式に示す手首関節の位置姿勢に対して逆運動学演算を行うことにより、ロボットアーム2の把持姿勢における目標関節角度を算出する。制御装置4は、上述した逆運動学演算を、ハンド21の把持位置姿勢のデータベースの各部品に対して順次行い、各部品に対する目標関節角度を算出する。   The control device 4 calculates a target joint angle in the gripping posture of the robot arm 2 by performing inverse kinematics calculation on the position and posture of the wrist joint shown in the above formula. The control device 4 sequentially performs the inverse kinematics operation described above for each component in the grip position / posture database of the hand 21 and calculates a target joint angle for each component.

制御装置4は、算出した各部品に対する目標関節角度に基づいて、各部品に対する初期姿勢から把持位置姿勢、さらに把持位置姿勢から各部品を通箱に置く姿勢までのハンド21が障害物を回避しながら移動する把持動作軌道を生成する。なお、この軌道の生成方法は、例えば、非特許文献:G. Sanchez and J.-C. Latombe,”A Single-Query Bi-Directional Probabilistic Roadmap Planner with Lazy Collision Checking”, Robotics Research, Springer Tracts in Advanced Robotics, vol.6,pp.403-417,2003に詳細に開示されており、これにを援用できる。   Based on the calculated target joint angle for each component, the control device 4 avoids an obstacle by the hand 21 from the initial posture with respect to each component to the gripping position posture and further from the gripping position posture to a posture in which each component is placed in the box. A gripping motion trajectory that moves while moving is generated. This trajectory generation method is described in, for example, non-patent literature: G. Sanchez and J.-C. Latombe, “A Single-Query Bi-Directional Probabilistic Roadmap Planner with Lazy Collision Checking”, Robotics Research, Springer Tracts in Advanced It is disclosed in detail in Robotics, vol.6, pp.403-417, 2003, and can be used for this.

図6は、学習フェーズにおける、上記把持動作軌道の生成方法のフローを示すフローチャートである。
制御装置4は、検出部5から、把持対象の部品の位置Po、及び姿勢Roを取得する(ステップS101)。
FIG. 6 is a flowchart showing the flow of the method for generating the gripping motion trajectory in the learning phase.
The control device 4 acquires the position Po i and the posture Ro i of the part to be gripped from the detection unit 5 (step S101).

制御装置4は、部品のポイントクラウドをセグメント化し、各セグメントのバウンディングボックスを計算する。制御装置4は、計算したバウンディングボックスの形状が把持対象の部品のバウンディングボックスの形状に近いものに対し部品の位置姿勢を当てはめる。   The control device 4 segments the part point cloud and calculates the bounding box of each segment. The control device 4 assigns the position and orientation of the component to the calculated bounding box whose shape is close to the shape of the bounding box of the component to be grasped.

制御装置4は、パラメータi=1、j=1、k=1と設定し初期化を行う(ステップS102)。
制御装置4は、検出部5により検出された部品の位置姿勢に対して、把持位置姿勢のデータベースを用いることで、把持対象の部品の目標位置姿勢の候補Pwij、Rwijを算出する(ステップS103)。
The control device 4 performs initialization by setting parameters i = 1, j = 1, and k = 1 (step S102).
The control device 4 calculates the target position and orientation candidates Pw ij and Rw ij of the gripped component by using the gripping position and orientation database with respect to the position and orientation of the component detected by the detection unit 5 (step) S103).

制御装置4は、算出した把持対象の部品の目標位置姿勢の候補Pwij、Rwijの逆運動学問題が解を有するか否かを判定する(ステップS104)。
制御装置4は、算出した把持対象の部品の目標位置姿勢の候補Pwij、Rwijの逆運動学問題が解を有すると判定すると(ステップS104のYES)、その目標把持位置姿勢の候補において、ロボットアーム2が障害物に干渉していないか否かを判定する(ステップS105)。一方、制御装置4は、算出した把持対象の部品の目標位置姿勢の候補Pwij、Rwijの逆運動学問題が解を有しないと判定すると(ステップS104のNO)、後述の(ステップS110)の処理に移行する。
The control device 4 determines whether or not the inverse kinematic problem of the calculated target position and orientation candidates Pw ij and Rw ij of the part to be gripped has a solution (step S104).
When the control device 4 determines that the inverse kinematics problem of the calculated target position / posture candidates Pw ij and Rw ij of the component to be gripped has a solution (YES in step S104), It is determined whether or not the robot arm 2 does not interfere with the obstacle (step S105). On the other hand, if the control device 4 determines that the inverse kinematics problem of the calculated target position and orientation candidates Pw ij and Rw ij of the part to be gripped has no solution (NO in step S104), it will be described later (step S110). Move on to processing.

制御装置4は、その目標位置姿勢の候補において、ロボットアーム2が障害物に干渉していないと判定すると(ステップS105のYES)、各部品に対する初期姿勢から把持位置姿勢、および把持位置姿勢から各部品を通箱に置く姿勢までの軌道を生成できるか否かを判定する(ステップS106)。一方、制御装置4は、その目標位置姿勢の候補において、ロボットアーム2が障害物に干渉していると判定すると(ステップS105のNO)、後述の(ステップS110)の処理に移行する。   When the control device 4 determines that the robot arm 2 does not interfere with the obstacle in the target position / posture candidates (YES in step S105), the control device 4 determines the gripping position / posture from the initial posture and the gripping position / posture for each component. It is determined whether or not a trajectory up to the posture of placing the part in the box can be generated (step S106). On the other hand, when the control device 4 determines that the robot arm 2 is interfering with an obstacle in the target position / posture candidates (NO in step S105), the control device 4 proceeds to the processing in (step S110) described later.

制御装置4は、各部品に対する初期姿勢から把持位置姿勢、および把持位置姿勢から各部品を通箱に置く姿勢までの軌道を生成できると判定すると(ステップS106のYES)、第k把持動作軌道としてメモリ4bに記憶し(ステップS107)、後述の(ステップS110)の処理に移行する。一方、制御装置4は、各部品に対する初期姿勢から把持位置姿勢、および把持位置姿勢から各部品を通箱に置く姿勢までの軌道を生成できないと判定すると(ステップS106のNO)、後述の(ステップS110)の処理に移行する。   If the control device 4 determines that it is possible to generate a trajectory from the initial posture with respect to each part to the gripping position posture, and from the gripping position posture to a posture in which each component is placed in the box (YES in step S106), the control device 4 sets the kth gripping motion trajectory. It memorize | stores in the memory 4b (step S107), and transfers to the process of below-mentioned (step S110). On the other hand, when the control device 4 determines that the trajectory from the initial posture to each component to the gripping position posture and from the gripping position posture to the posture in which each component is placed on the box cannot be generated (NO in step S106), the control device 4 will be described later (step The process proceeds to S110).

制御装置4は、全把持対象、全把持位置姿勢の判定が完了したか(i、jが最大値か)否かを判定する(ステップS108)。
制御装置は、全把持対象、全把持位置姿勢の判定が完了したと判定すると(ステップS 108のYES)、本処理を終了する。一方、制御装置は、全把持対象、全把持位置姿勢の判定が完了していないと判定すると(ステップS108のNO)、kをインクリメントし(k=k+1(但し、第i把持対象物のデータベースの数を超えると、i=i+1、j=1とする))(ステップS109)、後述の(ステップS110)の処理に移行する。
The control device 4 determines whether or not determination of all gripping objects and all gripping position / postures has been completed (i and j are maximum values) (step S108).
If the control device determines that the determination of all gripping objects and all gripping positions and orientations has been completed (YES in step S108), the control process ends. On the other hand, if the control device determines that the determination of all gripping objects and all gripping positions and postures has not been completed (NO in step S108), k is incremented (k = k + 1 (provided that the database of the i-th gripping target object). If the number is exceeded, i = i + 1 and j = 1 are set.) (Step S109), the process proceeds to (Step S110) described later.

制御装置は、パラメータjをインクリメントし(但し、第i把持対象物のデータベースの数を超えると、i=i+1、j=1とする)(ステップS110)、上記(ステップS 103)処理に戻る。
制御装置4は、上記生成した把持動作軌道を用いて、下記(5)で識別器を生成する。
(5)識別器の生成
上記説明した通りであり、説明が重複するので省略する。
The control device increments the parameter j (however, if the number of databases of the i-th gripping object is exceeded, i = i + 1, j = 1 is set) (step S110), and the process returns to the above (step S103).
The control device 4 generates a discriminator in the following (5) using the generated gripping motion trajectory.
(5) Generation of discriminator As described above, the description is duplicated and will be omitted.

<<実行フェーズ>>
(1)部品の位置姿勢の計測
上記学習フェーズの部品の位置姿勢の計測と同一であるため、説明を省略する。
(2)把持動作(ピッキング動作)
図7は、実行フェーズにおける把持動作軌道の生成方法のフローを示すフローチャートである。
<< Execution Phase >>
(1) Measurement of the position and orientation of a component Since this is the same as the measurement of the position and orientation of a component in the learning phase, description thereof is omitted.
(2) Grasping operation (Picking operation)
FIG. 7 is a flowchart showing a flow of a method for generating a gripping motion trajectory in the execution phase.

制御装置4は、検出部5から把持対象の部品の位置Po、及び姿勢Roを取得する(ステップS201)。
制御装置4は、部品のポイントクラウドをセグメント化し、各セグメントのバウンディングボックスを計算する。制御装置4は、計算したバウンディングボックスの形状が把持対象の部品のバウンディングボックスの形状に近いものに対し部品の位置姿勢を当てはめる。
The control device 4 acquires the position Po i and the posture Ro i of the part to be gripped from the detection unit 5 (step S201).
The control device 4 segments the part point cloud and calculates the bounding box of each segment. The control device 4 assigns the position and orientation of the component to the calculated bounding box whose shape is close to the shape of the bounding box of the component to be grasped.

制御装置4は、パラメータi=1、j=1、k=1と設定し初期化を行う(ステップS202)。
制御装置4は、検出部5により検出された部品の位置姿勢に対して、把持位置姿勢のデータベースを用いることで、把持対象の部品の目標位置姿勢の候補Pwij、Rwijを算出する(ステップS203)。
The control device 4 performs initialization by setting parameters i = 1, j = 1, and k = 1 (step S202).
The control device 4 calculates the target position and orientation candidates Pw ij and Rw ij of the gripped component by using the gripping position and orientation database with respect to the position and orientation of the component detected by the detection unit 5 (step) S203).

制御装置4は、目標位置姿勢の候補Pwij、Rwijに対して識別器を用いて把持可能か否かを判定する(ステップS204)。
制御装置4は、目標位置姿勢の候補Pwij、Rwijに対して識別器を用いて把持可能と判定したとき(ステップS204のYES)、算出した把持対象の部品の目標位置姿勢の候補Pwij、Rwijの逆運動学問題が解を有するか否かを判定する(ステップS205)。一方、制御装置4は、目標位置姿勢の候補Pwij、Rwijに対して識別器を用いて把持可能でない判定したとき(ステップS204のNO)、後述の(ステップS211)の処理に移行する。
The control device 4 determines whether or not the target position / posture candidates Pw ij and Rw ij can be gripped by using the discriminator (step S204).
When the control device 4 determines that the target position / orientation candidates Pw ij and Rw ij can be gripped by using the discriminator (YES in step S204), the calculated target position / posture candidate Pw ij of the part to be gripped is determined. , Rw ij determines whether or not the inverse kinematics problem has a solution (step S205). On the other hand, when the control device 4 determines that the target position / posture candidates Pw ij and Rw ij cannot be gripped by using the discriminator (NO in step S204), the control device 4 proceeds to the processing of (step S211) described later.

制御装置4は、算出した把持対象の部品の目標位置姿勢の候補Pwij、Rwijの逆運動学問題が解を有すると判定すると(ステップS205のYSE)、その目標把持位置姿勢の候補において、ロボットアーム2が障害物に干渉していないか否かを判定する(ステップS206)。一方、制御装置4は、算出した把持対象の部品の目標位置姿勢の候補Pwij、Rwijの逆運動学問題が解を有しないと判定すると(ステップS205のNO)、後述の(ステップS211)の処理に移行する。 When the control device 4 determines that the inverse kinematics problem of the calculated target position / posture candidates Pw ij and Rw ij of the component to be gripped has a solution (YSE in step S205), It is determined whether or not the robot arm 2 is not interfering with an obstacle (step S206). On the other hand, when the control device 4 determines that the inverse kinematic problem of the calculated target position and orientation candidates Pw ij and Rw ij of the part to be gripped has no solution (NO in step S205), it will be described later (step S211). Move on to processing.

制御装置4は、その目標位置姿勢の候補において、ロボットアーム2が障害物に干渉していないと判定すると(ステップS206のYES)、各部品に対する初期姿勢から把持位置姿勢、および把持位置姿勢から各部品を通箱に置く姿勢までの軌道を生成できるか否かを判定する(ステップS207)。一方、制御装置4は、その目標位置姿勢の候補において、ロボットアーム2が障害物に干渉していると判定すると(ステップS206のNO)、後述の(ステップS211)の処理に移行する。   When the control device 4 determines that the robot arm 2 does not interfere with the obstacle in the target position / posture candidates (YES in step S206), the control device 4 determines the gripping position / posture from the initial posture and the gripping position / posture for each component. It is determined whether or not a trajectory up to the posture of placing the part in the box can be generated (step S207). On the other hand, when the control device 4 determines that the robot arm 2 is interfering with an obstacle in the target position / posture candidate (NO in step S206), the control device 4 proceeds to the processing in (step S211) described later.

制御装置4は、各部品に対する初期姿勢から把持位置姿勢、および把持位置姿勢から各部品を通箱に置く姿勢までの軌道を生成できると判定すると(ステップS207のYES)、第k把持動作軌道としてメモリ4bに記憶し(ステップS208)、後述の(ステップS211)の処理に移行する。一方、制御装置4は、各部品に対する初期姿勢から把持位置姿勢、および把持位置姿勢から各部品を通箱に置く姿勢までの軌道を生成できないと判定すると(ステップS207のNO)、後述の(ステップS211)の処理に移行する。   When the control device 4 determines that a trajectory from the initial posture to each component to the gripping position posture and from the gripping position posture to the posture in which each component is placed in the box can be generated (YES in step S207), the k-th gripping motion trajectory is determined. It memorize | stores in the memory 4b (step S208), and transfers to the process of below-mentioned (step S211). On the other hand, if the control device 4 determines that the trajectory from the initial posture to each component to the gripping position posture and from the gripping position posture to the posture in which each component is placed on the box cannot be generated (NO in step S207), the control device 4 will be described later (step The process proceeds to S211).

制御装置4は、全把持対象、全把持位置姿勢の判定が完了したか(i、jが最大値か)否かを判定する(ステップS209)。
制御装置4は、全把持対象、全把持位置姿勢の判定が完了したと判定すると(ステップS209のYES)、後述の(ステップS211)の処理に移行する。一方、制御装置4は、全把持対象、全把持位置姿勢の判定が完了していないと判定すると(ステップS209のNO)、kをインクリメントし(k=k+1(但し、第i把持対象物のデータベースの数を超えると、i=i+1、j=1とする))(ステップS210)、後述の(ステップS211)の処理に移行する。
The control device 4 determines whether determination of all gripping objects and all gripping position / postures has been completed (i and j are maximum values) (step S209).
If the control device 4 determines that the determination of all gripping objects and all gripping position / postures has been completed (YES in step S209), the control device 4 proceeds to the processing in (step S211) described later. On the other hand, if the control device 4 determines that the determination of all gripping objects and all gripping positions and orientations has not been completed (NO in step S209), k is incremented (k = k + 1 (however, the database of the i-th gripping object). (I = i + 1, j = 1))) (step S210), the process proceeds to (step S211) described later.

制御装置4は、パラメータjをインクリメントし(但し、第i把持対象物のデータベースの数を超えると、i=i+1、j=1とする)(ステップS211)、上記(ステップS 203)処理に戻る。
制御装置4は、複数の把持動作軌道が得られた場合に、各把持動作軌道の評価指標Iを算出する。上述の如く、ハンド21の把持動作軌道と障害物との強干渉する点を少なくすると、ハンド21による部品把持の成功率が高まると仮定する。すなわち、h(p)、d(p)及びnの全ての値が小さい方が把持成功率が高いと仮定する。
The control device 4 increments the parameter j (however, if the number of databases of the i-th gripping object is exceeded, i = i + 1, j = 1 is set) (step S211), and the process returns to the above (step S203). .
When a plurality of gripping motion trajectories are obtained, the control device 4 calculates an evaluation index I for each gripping motion trajectory. As described above, it is assumed that the success rate of component gripping by the hand 21 is increased if the number of points of strong interference between the gripping motion trajectory of the hand 21 and the obstacle is reduced. That is, it is assumed that the gripping success rate is higher when the values of h (p i ), d (p i ), and n are smaller.

制御装置4は、下記式を用いて、把持動作軌道の評価指標Iを算出する。下記式において、α、β、γは正値をとる重み係数であり、Iは与えられた把持位置姿勢に対する把持安定性の指標値である。なお、この把持安定性の指標値Iは、例えば、非特許文献:原田、辻、宇都、山野辺、永田、“ソフトフィンガ型把持の安定性解析”、計測自動制御学会システムインテグレーション部門講演会予稿集、2013.に開示されており、これを援用できるものとする。

Figure 2017047505
The control device 4 calculates the evaluation index I of the gripping motion trajectory using the following formula. In the following formulas, alpha, beta, is γ is a weighting factor that takes positive values, an index value of the gripping stability for gripping position and orientation I g was given. Incidentally, the index value I g of this gripping stability, for example, Non-Patent Document: Harada, Tsuji, Uto, Yamanobe, Nagata, "Stability Analysis of soft finger-type grasping", Instrument and Control Engineers System Integration Division Annual Conference Proceedings Shu, 2013. It is disclosed in this document and can be used.
Figure 2017047505

制御装置4は、得られた複数の把持動作軌道のうち、評価指標Iが最小となる把持動作軌道を選択する(ステップS212)。上述の如く、把持動作軌道のハンド通過領域内に障害物が存在する場合に、ハンド21が障害物に衝突、あるいは僅かに掠る程度の接触など様々な状況が存在する。したがって、複数の把持動作軌道が得られた場合に、最終的に、障害物が把持動作軌道にどれ位干渉するかを示す評価指標が最小(干渉が最小)の把持動作軌道を選択することで、把持成功率をさらに高めることができる。
以上、本実施形態に係る把持可否判定方法おいて、ハンド通過領域内に含まれる3次元点群データと、ハンド21による把持対象物の把持の成否と、を対応付けた複数のサンプルデータを取得し、距離h(p)、距離d(p)及びnの値が小さい方が把持成功率が高いと仮定し、サンプルデータおよび距離h(p)およびd(p)に基づいて算出した特徴ベクトルから、把持対象物の把持可否を判定するための識別器を生成し、生成した識別器を用いてハンドによる把持対象物の把持可否を判定する。
これにより、ハンド通過領域Sに障害物が存在する場合でも、直ちに、その部品を把持不可能と判断するのではなく、識別器を用いて把持可否の判定を行う。このため、把持可能な部品数を増加させることができる。この把持可否の判定を行う際に、ハンド21と障害物との強干渉点が少なく、把持成功率が高いハンド21の把持パターンを学習した識別器を用いることで、把持成功率は高めることができる。すなわち、把持可能な部品数を増加させつつ、把持成功率は高めることができる。
The control device 4 selects a gripping motion trajectory that minimizes the evaluation index I from the plurality of gripping motion trajectories obtained (step S212). As described above, when there is an obstacle in the hand passing region of the gripping motion trajectory, there are various situations such as the hand 21 colliding with the obstacle or slightly touching. Therefore, when multiple gripping motion trajectories are obtained, finally, the gripping motion trajectory with the smallest evaluation index indicating how much the obstacle interferes with the gripping motion trajectory (minimum interference) is selected. Further, the gripping success rate can be further increased.
As described above, in the grasping possibility determination method according to the present embodiment, a plurality of sample data in which the three-dimensional point cloud data included in the hand passage area and the success / failure of the grasping of the grasped object by the hand 21 are acquired. Assuming that the smaller the values of distance h (p i ), distance d (p i ), and n, the higher the success rate of gripping, and based on the sample data and distances h (p i ) and d (p i ) A discriminator for determining whether or not the gripping target object can be gripped is generated from the calculated feature vector, and whether or not the gripping target object can be gripped by the hand is determined using the generated classifier.
As a result, even when an obstacle exists in the hand passing area S, it is not immediately determined that the part cannot be gripped, but a determination as to whether or not the part can be gripped is performed using a discriminator. For this reason, the number of parts that can be gripped can be increased. When determining whether or not the gripping is possible, the gripping success rate can be increased by using a discriminator that learns the gripping pattern of the hand 21 that has few strong interference points between the hand 21 and the obstacle and has a high gripping success rate. it can. That is, the gripping success rate can be increased while increasing the number of parts that can be gripped.

なお、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。   Note that the present invention is not limited to the above-described embodiment, and can be changed as appropriate without departing from the spirit of the present invention.

また、本発明は、例えば、図6及び図7に示す処理を、CPU4aにコンピュータプログラムを実行させることにより実現することも可能である。
プログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD−ROM(Read Only Memory)、CD−R、CD−R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(random access memory))を含む。
In addition, the present invention can be realized by causing the CPU 4a to execute a computer program, for example, the processes shown in FIGS.
The program may be stored using various types of non-transitory computer readable media and supplied to a computer. Non-transitory computer readable media include various types of tangible storage media. Examples of non-transitory computer-readable media include magnetic recording media (for example, flexible disks, magnetic tapes, hard disk drives), magneto-optical recording media (for example, magneto-optical disks), CD-ROMs (Read Only Memory), CD-Rs, CD-R / W and semiconductor memory (for example, mask ROM, PROM (Programmable ROM), EPROM (Erasable PROM), flash ROM, RAM (random access memory)) are included.

また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。   The program may also be supplied to the computer by various types of transitory computer readable media. Examples of transitory computer readable media include electrical signals, optical signals, and electromagnetic waves. The temporary computer-readable medium can supply the program to the computer via a wired communication path such as an electric wire and an optical fiber, or a wireless communication path.

1 搬送ロボット、2 ロボットアーム、3 移動台車、4 制御装置、5 検出部、21 ハンド、22 指部、51 視覚センサ   DESCRIPTION OF SYMBOLS 1 Transfer robot, 2 Robot arm, 3 Moving trolley, 4 Control apparatus, 5 Detection part, 21 Hand, 22 Finger part, 51 Visual sensor

Claims (3)

バラ積みされた複数の把持対象物をロボットアームのハンドによって把持する際に、前記ハンドが前記把持対象物を把持可能か否かを判定する把持可否判定方法であって、
前記把持対象物から所定距離離れたアプローチ点から該把持対象物を前記ハンドにより把持する把持点まで前記ハンドを移動させ、該把持点で前記把持対象物を前記ハンドにより把持するまでに、前記ハンドが通過する領域をハンド通過領域とし、該ハンド通過領域内に含まれる3次元点群データと、前記ハンドによる前記把持対象物の把持の成否と、を対応付けた複数のサンプルデータを取得するステップと、
前記ハンド通過領域内に含まる3次元点群のi番目の点をp(i=1、2、・・・n)とし、前記点pをアプローチ方向に伸ばした直線が前記ハンド通過領域の境界と交わる点の内、前記点pから最も遠い点との距離をh(p)とし、前記点pから前記ハンドの把持方向に伸ばした直線が前記ハンド通過領域の境界と交わる点の内、前記点pから最も近い点との距離をd(p)とし、前記h(p)、d(p)及びnの値が小さい方が把持成功率が高いと仮定し、前記サンプルデータと前記距離h(p)及びd(p)とに基づき算出した特徴ベクトルから、前記把持対象物の把持可否を判定するための識別器を生成するステップと、
前記生成した識別器を用いて前記ハンドによる前記把持対象物の把持可否を判定するステップと、
を含む、ことを特徴とする把持可否判定方法。
A gripping possibility determination method for determining whether or not the hand can grip the gripping object when gripping a plurality of gripping objects stacked by the robot arm,
The hand is moved from an approach point that is a predetermined distance away from the gripping object to a gripping point for gripping the gripping object by the hand, and until the gripping object is gripped by the hand at the gripping point. A step of acquiring a plurality of sample data in which a region through which the hand passes is set as a hand passage region, and three-dimensional point cloud data included in the hand passage region is associated with success / failure of gripping the gripping object by the hand When,
The i-th point of the three-dimensional point group included in the hand passing area is defined as p i (i = 1, 2,... N), and a straight line obtained by extending the point p i in the approach direction is the hand passing area. of the point of intersection with the boundary, the distance of a point farthest from the point p i and h (p i), a straight line extending in the gripping direction of the hand from the point p i intersects with the boundary of the hand passing area It is assumed that the distance from the point p i to the point closest to the point p i is d (p i ), and that the smaller the values of h (p i ), d (p i ) and n, the higher the gripping success rate. Generating a discriminator for determining whether or not the object to be grasped is grasped from a feature vector calculated based on the sample data and the distances h (p i ) and d (p i );
Determining whether or not the hand can be gripped by the hand using the generated discriminator;
A gripping availability determination method characterized by comprising:
請求項1記載の把持可否判定方法であって、
前記識別器はランダムフォレストで構成されており、
前記特徴ベクトルは、下記式を用いて算出する、ことを特徴とする把持可否判定方法。
前記特徴ベクトル=(min((h(pi)/binwidth),bin_h),
min((d(pi)/binwidth),bin_d))
但し、上記式、binwidthはbin幅であり、bin_h及びbin_dは各軸のbin上限値である。
A method for determining whether or not gripping is possible according to claim 1,
The classifier is composed of a random forest,
The method of determining whether or not the gripping is possible, wherein the feature vector is calculated using the following equation.
The feature vector = (min ((h (p i) / binwidth), bin_h),
min ((d (p i) / binwidth), bin_d))
However, the above formula, binwidth is a bin width, and bin_h and bin_d are bin upper limit values of each axis.
請求項1記載の把持可否判定方法であって、
前記識別器は、線形SVM(support vector machine)で構成されており、
前記特徴ベクトルfは、下記式を用いて算出する、ことを特徴とする把持可否判定方法。
Figure 2017047505
A method for determining whether or not gripping is possible according to claim 1,
The discriminator is composed of a linear SVM (support vector machine),
The feature vector f s is calculated by using the following equation, and a gripping possibility determination method is characterized.
Figure 2017047505
JP2015172824A 2015-09-02 2015-09-02 Grasping determination method Active JP6572687B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015172824A JP6572687B2 (en) 2015-09-02 2015-09-02 Grasping determination method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015172824A JP6572687B2 (en) 2015-09-02 2015-09-02 Grasping determination method

Publications (2)

Publication Number Publication Date
JP2017047505A true JP2017047505A (en) 2017-03-09
JP6572687B2 JP6572687B2 (en) 2019-09-11

Family

ID=58278493

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015172824A Active JP6572687B2 (en) 2015-09-02 2015-09-02 Grasping determination method

Country Status (1)

Country Link
JP (1) JP6572687B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018161692A (en) * 2017-03-24 2018-10-18 キヤノン株式会社 Information processing system, information processing method and program
JP2019058960A (en) * 2017-09-25 2019-04-18 ファナック株式会社 Robot system and workpiece take-out method
WO2019098074A1 (en) * 2017-11-16 2019-05-23 倉敷紡績株式会社 Linear-object gripping method and control device
JP2020163502A (en) * 2019-03-28 2020-10-08 セイコーエプソン株式会社 Object detection method, object detection device, and robot system
JP2021528259A (en) * 2018-06-26 2021-10-21 テラダイン、 インコーポレイテッド Systems and methods for robot bin picking
WO2022162769A1 (en) * 2021-01-27 2022-08-04 川崎重工業株式会社 Robot system, movement path generating device, and movement path generating method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012140770A1 (en) * 2011-04-14 2012-10-18 三菱電機株式会社 Robot control apparatus
JP2014161965A (en) * 2013-02-26 2014-09-08 Toyota Industries Corp Article takeout device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012140770A1 (en) * 2011-04-14 2012-10-18 三菱電機株式会社 Robot control apparatus
JP2014161965A (en) * 2013-02-26 2014-09-08 Toyota Industries Corp Article takeout device

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018161692A (en) * 2017-03-24 2018-10-18 キヤノン株式会社 Information processing system, information processing method and program
JP2019058960A (en) * 2017-09-25 2019-04-18 ファナック株式会社 Robot system and workpiece take-out method
DE102018215826B4 (en) 2017-09-25 2023-07-13 Fanuc Corporation Robot system and workpiece gripping method
US11845194B2 (en) 2017-09-25 2023-12-19 Fanuc Corporation Robot system and workpiece picking method
WO2019098074A1 (en) * 2017-11-16 2019-05-23 倉敷紡績株式会社 Linear-object gripping method and control device
JPWO2019098074A1 (en) * 2017-11-16 2020-11-19 倉敷紡績株式会社 Linear object gripping method and control device
JP2021528259A (en) * 2018-06-26 2021-10-21 テラダイン、 インコーポレイテッド Systems and methods for robot bin picking
JP7437326B2 (en) 2018-06-26 2024-02-22 テラダイン、 インコーポレイテッド Robot bin picking method
JP2020163502A (en) * 2019-03-28 2020-10-08 セイコーエプソン株式会社 Object detection method, object detection device, and robot system
JP7275759B2 (en) 2019-03-28 2023-05-18 セイコーエプソン株式会社 OBJECT DETECTION METHOD, OBJECT DETECTION DEVICE, AND ROBOT SYSTEM
WO2022162769A1 (en) * 2021-01-27 2022-08-04 川崎重工業株式会社 Robot system, movement path generating device, and movement path generating method
WO2022162969A1 (en) * 2021-01-27 2022-08-04 川崎重工業株式会社 Robot system, movement path generation device and movement path generation method

Also Published As

Publication number Publication date
JP6572687B2 (en) 2019-09-11

Similar Documents

Publication Publication Date Title
JP6572687B2 (en) Grasping determination method
Xu et al. Compare contact model-based control and contact model-free learning: A survey of robotic peg-in-hole assembly strategies
CN111684474B (en) Arithmetic device, arithmetic method, and recording medium
US11945114B2 (en) Method and system for grasping an object
Brook et al. Collaborative grasp planning with multiple object representations
JP5724919B2 (en) Orbit generation device, moving body, orbit generation method and program
JP6240595B2 (en) Self-position estimation apparatus and mobile body equipped with self-position estimation apparatus
Vonásek et al. RRT-path–a guided rapidly exploring random tree
JP7275759B2 (en) OBJECT DETECTION METHOD, OBJECT DETECTION DEVICE, AND ROBOT SYSTEM
CN114147708B (en) Mechanical arm obstacle avoidance path planning method based on improved longhorn beetle whisker search algorithm
Park et al. Development of robotic bin picking platform with cluttered objects using human guidance and convolutional neural network (CNN)
Farag et al. Real-time robotic grasping and localization using deep learning-based object detection technique
Harada et al. Initial experiments on learning-based randomized bin-picking allowing finger contact with neighboring objects
Mishani et al. Real-time non-visual shape estimation and robotic dual-arm manipulation control of an elastic wire
JP5983506B2 (en) Gripping pattern detection method and robot for gripping object
Caporali et al. Combining vision and tactile data for cable grasping
Militaru et al. Object handling in cluttered indoor environment with a mobile manipulator
US10933526B2 (en) Method and robotic system for manipulating instruments
Hyttinen et al. Estimating tactile data for adaptive grasping of novel objects
JP6641804B2 (en) How to set the moving route of the carrier
Kim et al. Improvement of Door Recognition Algorithm using Lidar and RGB-D camera for Mobile Manipulator
CN108638060A (en) Nuisance parameter analyzes elimination method in multi-freedom robot parameter calibration
JP7074447B2 (en) Model estimator
Meng et al. Spring-IMU Fusion-Based Proprioception for Feedback Control of Soft Manipulators
JP7299097B2 (en) Trajectory generator

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180808

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20180824

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20180824

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190716

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190718

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190729

R151 Written notification of patent or utility model registration

Ref document number: 6572687

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151