JPH10249765A - Handling method of moving body - Google Patents

Handling method of moving body

Info

Publication number
JPH10249765A
JPH10249765A JP5346697A JP5346697A JPH10249765A JP H10249765 A JPH10249765 A JP H10249765A JP 5346697 A JP5346697 A JP 5346697A JP 5346697 A JP5346697 A JP 5346697A JP H10249765 A JPH10249765 A JP H10249765A
Authority
JP
Japan
Prior art keywords
robot
handling
objects
order
gravity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP5346697A
Other languages
Japanese (ja)
Other versions
JP3956063B2 (en
Inventor
Ryuichi Morita
隆一 守田
Katsuaki Hara
勝明 原
Seiichiro Fukushima
誠一郎 福島
Yoko Morita
陽子 森田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yaskawa Electric Corp
Original Assignee
Yaskawa Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yaskawa Electric Corp filed Critical Yaskawa Electric Corp
Priority to JP05346697A priority Critical patent/JP3956063B2/en
Publication of JPH10249765A publication Critical patent/JPH10249765A/en
Application granted granted Critical
Publication of JP3956063B2 publication Critical patent/JP3956063B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Manipulator (AREA)

Abstract

PROBLEM TO BE SOLVED: To minimize the working time of a robot by calculating the handling order to minimize the working distance of the robot device by using the genetic argorithm, and executing the operation of each object on the basis of the calculated handling order. SOLUTION: An image of an object on a conveyor is picked up by a visual device 4, and the obtained image is transferred to an image processing unit 5 to determine a coordinate of a center of gravity of each object. Then the image processing unit 5 transmits the coordinate of the center of gravity of each object to a robot controller 6, and the robot controller 6 determines the distance between a current position of the robot 1 and the center of gravity of each object, and the distance between the centers of the gravity of the objects, as the preprocessing for executing the operation by the genetic argorithm. Then the robot controller 6 determines the optimum handling order for minimizing the moving distance of the robot by the genetic argorithm, and the operation of each object is executed on the basis of the determined handling order.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、コンベア等によっ
て搬送される複数の移動物体(対象物)をロボット装置
によってハンドリングする方法に関し、特に、工業用テ
レビカメラなどからなる視覚装置を用いて移動物体の位
置を検出し、検出された位置に応じてハンドリングを行
う方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for handling a plurality of moving objects (objects) conveyed by a conveyor or the like by a robot device, and more particularly to a method for moving objects using a visual device such as an industrial television camera. The present invention relates to a method for detecting the position of the object and performing handling according to the detected position.

【0002】[0002]

【従来の技術】コンベアなど搬送装置上に置かれて搬送
される対象物をロボットによってハンドリングする方法
としては、例えば、特開昭60−217085号公報に
あるように、工業用テレビカメラ(ITV)などの視覚
装置によって対象物を撮像し、搬送装置とロボットとの
同期制御を行い、対象物である移動物体をハンドリング
する方法がある。具体的には、ロボット座標上での各対
象物の例えば重心の位置を撮像した画像から画像処理に
よって検出し、検出した座標に基づいてロボットの制御
を行っている。
2. Description of the Related Art As a method of handling an object placed on a transfer device such as a conveyor by a robot, for example, as disclosed in Japanese Patent Application Laid-Open No. Sho 60-217085, an industrial television camera (ITV) is used. For example, there is a method in which an image of an object is captured by a visual device such as a camera, the transfer device and the robot are synchronized, and a moving object as the object is handled. Specifically, the position of, for example, the center of gravity of each object on the robot coordinates is detected from the captured image by image processing, and the robot is controlled based on the detected coordinates.

【0003】[0003]

【発明が解決しようとする課題】コンベアなどの上に不
規則に置かれた複数個の対象物をハンドリングする場
合、対象物をどういう順番でハンドリングするかによっ
てロボットの移動距離が異なるため、この順序によって
作業時間が大きく左右されるという問題点がある。本発
明の目的は、複数個の対象物のハンドリングする際に、
ロボットの作業時間を最小にすることができるハンドリ
ング方法を提供することを目的とする。
When handling a plurality of objects placed irregularly on a conveyor or the like, the moving distance of the robot differs depending on the order in which the objects are handled. There is a problem that the working time greatly depends on the operation time. An object of the present invention is to handle a plurality of objects,
It is an object of the present invention to provide a handling method capable of minimizing the operation time of a robot.

【0004】[0004]

【課題を解決するための手段】本発明の移動物体のハン
ドリング方法は、視覚装置を備えたロボット装置を用
い、2次元平面上に不規則に置かれた複数個の対象物を
操作する移動物体のハンドリング方法において、前記対
象物の形状の基準となる点の座標を判別するとともに、
前記各対象物の位置を検出し、遺伝的アルゴリズムを用
いて、前記ロボット装置の作業距離が最小となるハンド
リング順序を算出し、算出された前記ハンドリング順序
に基づいて前記対象物の操作を行う。本発明では、遺伝
的アルゴリズムを用いることによってハンドリング順序
の最適解を短時間で求めることができるので、複数の対
象物に対するハンドリング操作を最小の時間で行うこと
が可能になり、作業時間を短縮することができる。
SUMMARY OF THE INVENTION A moving object handling method according to the present invention uses a robot apparatus equipped with a visual device to operate a plurality of objects placed irregularly on a two-dimensional plane. In the handling method, while determining the coordinates of a reference point of the shape of the object,
The position of each object is detected, a handling order that minimizes the working distance of the robot device is calculated using a genetic algorithm, and the object is operated based on the calculated handling order. According to the present invention, the optimal solution of the handling order can be obtained in a short time by using the genetic algorithm, so that it is possible to perform the handling operation on a plurality of objects in a minimum time, and to shorten the working time. be able to.

【0005】本発明においては、遺伝的アルゴリズムで
使用する遺伝子として、その要素がそれぞれ対象物に対
応し、各要素の値がランダムに生成され、要素の値の大
小の順が対象物に対するハンドリング順序に対応するも
のを用いることが好ましい。また、突然変異の操作とし
て、同一遺伝子内で要素の値を相互に交換するものを採
用することが好ましい。このような遺伝子を採用するこ
とにより、より短時間で最適解に到達することが可能に
なる。
In the present invention, as a gene used in a genetic algorithm, each element corresponds to an object, the value of each element is randomly generated, and the order of the element values is the order of handling for the object. It is preferable to use one corresponding to In addition, it is preferable to employ, as a mutation operation, one that exchanges element values within the same gene. By adopting such a gene, it is possible to reach the optimal solution in a shorter time.

【0006】[0006]

【発明の実施の形態】次に、本発明の実施の形態につい
て、図面を参照して説明する。図1は、本発明の実施の
一形態の移動物体のハンドリング方法が適用される装置
の構成を示し、図2は、この移動物体のハンドリング方
法での処理の流れを示している。図1に示すように、コ
ンベア2上の対象物をハンドリングできる位置にロボッ
ト1が設置されている。対象物の形状は同一ではなく、
また、複数の対象物が不規則にコンベア2上に置かれて
いるものとする。ここでは、5個の対象物A〜Eが、コ
ンベア2上にあって、コンベア2により、図示F方向に
移動するものとする。コンベア2の上方には、工業用テ
レビカメラなどからなる視覚装置4が、コンベア2に向
けて設けられている。また、視覚装置4で取得した画像
を処理するための画像処理装置5が設けられており、画
像処理装置5での処理結果は、ロボット1を制御するロ
ボットコントローラ6に伝送される。
Next, an embodiment of the present invention will be described with reference to the drawings. FIG. 1 shows a configuration of an apparatus to which a moving object handling method according to an embodiment of the present invention is applied, and FIG. 2 shows a processing flow in the moving object handling method. As shown in FIG. 1, a robot 1 is installed at a position on an conveyor 2 at which an object can be handled. The shape of the object is not the same,
Further, it is assumed that a plurality of objects are placed on the conveyor 2 at random. Here, it is assumed that five objects A to E are on the conveyor 2 and are moved by the conveyor 2 in the illustrated F direction. Above the conveyor 2, a visual device 4 such as an industrial television camera is provided facing the conveyor 2. Further, an image processing device 5 for processing an image acquired by the visual device 4 is provided, and a processing result of the image processing device 5 is transmitted to a robot controller 6 that controls the robot 1.

【0007】次に、本実施の形態でのハンドリングの処
理手順について、図2を用いて説明する。視覚装置4に
より、コンベア2上の対象物を撮像し(ステップ10
1)、取得した画像を画像処理装置5に転送する。画像
処理装置5では、対象物の画像に対して例えばパターン
マッチングなどの処理を行い、各対象物の重心Gの座標
を求める(ステップ102)。この際、ロボット1の現
在の位置を座標計測のための基準位置とする。そして、
画像処理装置5は、各対象物の重心Gの座標をロボット
コントローラ6に伝送する(ステップ103)。ロボッ
トコントローラ6は、遺伝的アルゴリズムによる演算を
実施するための前処理として、ロボット1の現在の位置
と各対象物の重心までの距離、各対象物間での重心Gの
距離を求める。
Next, a processing procedure of handling in the present embodiment will be described with reference to FIG. The visual device 4 images the object on the conveyor 2 (step 10).
1) Transfer the acquired image to the image processing device 5. The image processing device 5 performs processing such as pattern matching on the image of the target object, and obtains the coordinates of the center of gravity G of each target object (step 102). At this time, the current position of the robot 1 is set as a reference position for coordinate measurement. And
The image processing device 5 transmits the coordinates of the center of gravity G of each object to the robot controller 6 (Step 103). The robot controller 6 calculates the distance between the current position of the robot 1 and the center of gravity of each object, and the distance of the center of gravity G between each object as preprocessing for performing the calculation by the genetic algorithm.

【0008】次に、ロボットコントローラ6は、遺伝的
アルゴリズムにより、対象物をハンドリングするため
に、ロボットが移動する距離を最小にするような最適な
ハンドリング順序を求める(ステップ104)。ロボッ
トコントローラ6は、このようにして求めた最適なハン
ドリング順序にしたがって、ロボット1にハンドリング
を実行させる(ステップ105)。以上により、ハンド
リングが完了する。図3は、5個の対象物A〜Eの位置
(重心位置)とロボット1の位置との相対的な関係を示
したものである。ロボット1の現在位置Oの座標値を
(x0,y0)とし、対象物A〜Eの重心の座標値を、それ
ぞれ、(xa,ya),(xb,yb),(xc,yc),(xd,yd),
(xe,ye)とする。図4は、ステップ104(図2)に
おける遺伝的アルゴリズムの詳細な処理手順を示したも
のである。ここでは、コンベア2上の対象物が5個(対
象物A〜E)であり、各対象物A〜Eの重心の座標が図
3のように定まっているとする。
Next, the robot controller 6 obtains an optimal handling order by a genetic algorithm so as to minimize the moving distance of the robot in order to handle the object (step 104). The robot controller 6 causes the robot 1 to execute the handling in accordance with the optimal handling order thus obtained (step 105). Thus, the handling is completed. FIG. 3 shows the relative relationship between the positions of the five objects A to E (center of gravity positions) and the position of the robot 1. The coordinate value of the current position O of the robot 1 is
(x 0, y 0) and then, the coordinates of the center of gravity of the object A-E, respectively, (x a, y a) , (x b, y b), (x c, y c), (x d , y d ),
(x e , y e ). FIG. 4 shows a detailed processing procedure of the genetic algorithm in step 104 (FIG. 2). Here, it is assumed that there are five objects (objects A to E) on the conveyor 2 and the coordinates of the center of gravity of each of the objects A to E are determined as shown in FIG.

【0009】まず、事象のモデル化として、各遺伝子を
構成する要素の数(1本の遺伝子(個体)に含まれる遺
伝子座の数)を対象物の数(ここでは5)とする(ステ
ップ110)。図5は、本実施の形態で使用する遺伝子
の1例を示している。この遺伝子11では、5個の要素
(遺伝子座)がそれぞれ対象物A〜Eに対応しており、
要素の値として、対応する対象物に対する得点(スコ
ア)が用いられる。ここで得点とは、ハンドリング経路
を設定するためのものであり、得点の小さい方から順に
ハンドリングを行うものとする。図5に示した例では、
対象物Aに対して155、対象物に対してBは23、以
下同様に、対象物C,D,Eに対して、それぞれ、10
0,20,200が得点として与えられており、したがっ
て、ハンドリングは、まず対象物Dに対して行われ、D
→B→C→A→Eの順で行われることになる。
First, as a model of an event, the number of elements constituting each gene (the number of loci contained in one gene (individual)) is set as the number of objects (here, 5) (step 110). FIG. 5 shows an example of a gene used in the present embodiment. In this gene 11, five elements (loci) correspond to the objects A to E, respectively.
As an element value, a score (score) for the corresponding object is used. Here, the score is for setting a handling route, and it is assumed that handling is performed in ascending order of the score. In the example shown in FIG.
155 for the object A, 23 for the object B, and similarly, 10 for each of the objects C, D, and E
0, 20, 200 are given as points, so that handling is first performed on the object D,
→ B → C → A → E are performed in this order.

【0010】ステップ110での事象のモデル化が行わ
れたら、今述べたような遺伝子(個体)を集団発生させ
る(ステップ111)。集団発生では、各要素に対する
値を乱数で発生させることにより、予め定めた個数の遺
伝子を生成する。図6(a)〜(f)は、それぞれ、集団発生
で生成する遺伝子の例を示している。次に、各遺伝子
(個体)の評価を行う(ステップ112)。本実施の形
態は、ハンドリング時のロボットの移動距離を最小にす
ることを目的としているから、各遺伝子ごとに、その遺
伝子が表わすハンドリング順序でのロボットの移動距離
を算出する。図5に示す遺伝子の場合、ハンドリング順
序がD→B→C→A→Eであるから、ロボットの移動距
離をLとすると、
After the event is modeled in step 110, genes (individuals) as described above are generated in a group (step 111). In the group generation, a predetermined number of genes are generated by generating values for each element by random numbers. FIGS. 6A to 6F show examples of genes generated during outbreaks. Next, each gene (individual) is evaluated (step 112). Since the present embodiment aims at minimizing the moving distance of the robot during handling, the moving distance of the robot in the handling order represented by the gene is calculated for each gene. In the case of the gene shown in FIG. 5, the handling order is D → B → C → A → E.

【0011】[0011]

【数1】 となる。各遺伝子についてロボットの移動距離を算出し
たら、全遺伝子についての距離の平均値を算出し、この
平均値よりも距離が大きな個体を削除、すなわち淘汰す
る(ステップ113)。このとき、距離の2乗L2に基
づいて淘汰を行ってもよい。淘汰の結果、遺伝子の数が
減らされたことになるから、ステップ111での遺伝子
生成と同様の手順によって、減らされたのと同数の遺伝
子を生成し、遺伝子の増殖を行う(ステップ114)。
(Equation 1) Becomes After calculating the movement distance of the robot for each gene, an average value of the distances for all genes is calculated, and individuals having a distance larger than this average value are deleted, that is, eliminated (step 113). At this time, it may be carried out selection based on the square L 2 of the distance. As a result of the selection, the number of genes is reduced, so that the same number of genes as the reduced numbers are generated and the genes are propagated by the same procedure as the gene generation in step 111 (step 114).

【0012】次に、遺伝子の集団に対して交差を行う
(ステップ115)。交差は、全個体数の中から予め定
めた割合(N%)で2個ずつ遺伝子を抽出し、図7に示
すように、抽出された2つの遺伝子12,13に対し、
その4番目の要素(対象物Dに対応)の値と5番目の要
素(対象物Eに対応)の値を遺伝子12,13間で入れ
替える操作である。この交差が終了したら、次に、遺伝
子の集団に対して突然変異の操作を実行する(ステップ
116)。突然変異では、全個体数の中から予め定めた
割合(M%)で遺伝子を抽出し、その遺伝子内で1番目
の要素(対象物Aに対応)の値と5番目の要素の値とを
入れ替える操作である。ステップ112の評価からステ
ップ116の突然変異までの一連の処理が、遺伝的アル
ゴリズムでいうところの1世代である。ステップ116
の突然変異の実施後、この世代の遺伝子の中でロボット
の移動距離を最小とするハンドリング順序を記憶する
(ステップ117)。
Next, crossover is performed on the gene population (step 115). The intersection extracts two genes at a predetermined ratio (N%) from the total number of individuals, and as shown in FIG.
In this operation, the value of the fourth element (corresponding to the object D) and the value of the fifth element (corresponding to the object E) are exchanged between the genes 12 and 13. When this intersection is completed, next, a mutation operation is performed on the gene population (step 116). In the mutation, a gene is extracted at a predetermined ratio (M%) from the total number of individuals, and the value of the first element (corresponding to the object A) and the value of the fifth element are extracted from the gene. It is an operation to exchange. A series of processes from the evaluation in step 112 to the mutation in step 116 is one generation in the genetic algorithm. Step 116
After performing the mutation, the handling order that minimizes the moving distance of the robot among the genes of this generation is stored (step 117).

【0013】次に、予め定めた世代数Lだけ上述のステ
ップ112からステップ117までをループしたかを判
断し(ステップ118)、L回ループしていない場合に
は次の世代の処理のためにステップ112に戻り、L回
ループしている場合には、それまでのL世代間の遺伝子
の中で最もロボットの移動距離の小さいハンドリング順
序を取得し(ステップ119)、処理を終了する。遺伝
的アルゴリズムによれば厳密な意味での最適解ではない
かもしれないがこの最適解に十分近い解を少ない演算量
で得られることが知られているから、本実施の形態によ
れば、ロボットの移動距離を実質的に最小にするハンド
リング順序を求めることができ、ロボットの作業時間を
最小にすることができる。以上説明した実施の形態にお
いては、対象物の重心の座標を抽出してハンドリング時
の移動距離の算出に用いているが、本発明では、重心の
代りに、対象物の他の特徴点を抽出してその座標を求め
るようにしてもよい。
Next, it is determined whether the above steps 112 to 117 have been looped for a predetermined number of generations L (step 118). If the loop has not been performed L times, processing for the next generation is performed. Returning to step 112, if the loop has been performed L times, the handling order in which the robot has the smallest moving distance among the genes between the L generations so far is acquired (step 119), and the process ends. According to the present embodiment, it is known that a genetic algorithm may not be an optimal solution in a strict sense, but a solution sufficiently close to the optimal solution can be obtained with a small amount of computation. Can be determined to substantially minimize the moving distance of the robot, and the working time of the robot can be minimized. In the embodiment described above, the coordinates of the center of gravity of the object are extracted and used for calculating the moving distance during handling. However, in the present invention, other characteristic points of the object are extracted instead of the center of gravity. Then, the coordinates may be obtained.

【0014】[0014]

【発明の効果】以上説明したように本発明は、ハンドリ
ング順序の決定に遺伝的アルゴリズムを採用することに
より、ロボットの移動距離が最短となるハンドリング順
序を定めることができ、ロボットの作業時間を最小にす
ることができるという効果がある。
As described above, according to the present invention, by adopting the genetic algorithm for determining the handling order, the handling order that minimizes the moving distance of the robot can be determined, and the working time of the robot can be minimized. There is an effect that can be.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施の一形態の移動物体のハンドリン
グ方法が適用される装置の構成を示す図である。
FIG. 1 is a diagram showing a configuration of an apparatus to which a moving object handling method according to an embodiment of the present invention is applied.

【図2】本発明の実施の一形態の移動物体のハンドリン
グ方法での処理の流れを示すフローチャートである。
FIG. 2 is a flowchart illustrating a flow of processing in a moving object handling method according to an embodiment of the present invention.

【図3】ロボットと対象物との位置関係の一例を示す図
である。
FIG. 3 is a diagram illustrating an example of a positional relationship between a robot and an object.

【図4】図2に示す移動物体のハンドリング方法におけ
る遺伝的アルゴリズムの詳細を示すフローチャートであ
る。
FIG. 4 is a flowchart showing details of a genetic algorithm in the moving object handling method shown in FIG. 2;

【図5】遺伝子モデルの一例を示す図である。FIG. 5 is a diagram showing an example of a gene model.

【図6】(a)〜(f)は、遺伝子の集団発生により生成する
遺伝子の例を示す図である。
FIGS. 6A to 6F are diagrams showing examples of genes generated by gene outbreaks.

【図7】遺伝子の交差の一例を説明する図である。FIG. 7 is a diagram illustrating an example of gene crossover.

【図8】遺伝子の突然変異の一例を説明する図である。FIG. 8 is a diagram illustrating an example of a gene mutation.

【符号の説明】[Explanation of symbols]

1 ロボット 2 コンベア 4 視覚装置 5 画像処理装置 6 ロボットコントローラ 11〜17 遺伝子 101〜105,110〜118 ステップ A,B,C,D,E 対象物 DESCRIPTION OF SYMBOLS 1 Robot 2 Conveyor 4 Visual device 5 Image processing device 6 Robot controller 11-17 Gene 101-105, 110-118 Step A, B, C, D, E Target object

───────────────────────────────────────────────────── フロントページの続き (72)発明者 森田 陽子 福岡県北九州市八幡西区黒崎城石2番1号 株式会社安川電機内 ──────────────────────────────────────────────────続 き Continued on the front page (72) Inventor Yoko Morita 2-1 Kurosaki Castle Stone, Yawatanishi-ku, Kitakyushu-shi, Fukuoka

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 視覚装置を備えたロボット装置を用い、
2次元平面上に不規則に置かれた複数個の対象物を操作
する移動物体のハンドリング方法において、 前記対象物の形状の基準となる点の座標を判別するとと
もに、前記各対象物の位置を検出し、 遺伝的アルゴリズムを用いて、前記ロボット装置の作業
距離が最小となるハンドリング順序を算出し、 算出された前記ハンドリング順序に基づいて前記対象物
の操作を行うことを特徴とする移動物体のハンドリング
方法。
1. A robot device having a visual device,
In a moving object handling method for operating a plurality of objects placed irregularly on a two-dimensional plane, a coordinate of a point serving as a reference of a shape of the object is determined, and a position of each of the objects is determined. Detecting, by using a genetic algorithm, a handling order in which the working distance of the robot apparatus is minimized, and operating the object based on the calculated handling order. Handling method.
【請求項2】 前記遺伝的アルゴリズムによってハンド
リング順序を算出する際に、前記各対象物をそれぞれ遺
伝子の各要素に対応させ、前記各要素の値をランダムに
生成し、前記要素の値の大小の順を前記対象物に対する
ハンドリング順序に対応させる、請求項1に記載の移動
物体のハンドリング方法。
2. When the handling order is calculated by the genetic algorithm, each of the objects is made to correspond to each element of the gene, the value of each element is randomly generated, and the magnitude of the value of the element is smaller or larger. The moving object handling method according to claim 1, wherein the order corresponds to a handling order for the object.
【請求項3】 前記2次元平面がコンベアである請求項
1または2に記載の移動物体のハンドリング方法。
3. The method for handling a moving object according to claim 1, wherein the two-dimensional plane is a conveyor.
JP05346697A 1997-03-07 1997-03-07 How to handle moving objects Expired - Fee Related JP3956063B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP05346697A JP3956063B2 (en) 1997-03-07 1997-03-07 How to handle moving objects

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP05346697A JP3956063B2 (en) 1997-03-07 1997-03-07 How to handle moving objects

Publications (2)

Publication Number Publication Date
JPH10249765A true JPH10249765A (en) 1998-09-22
JP3956063B2 JP3956063B2 (en) 2007-08-08

Family

ID=12943651

Family Applications (1)

Application Number Title Priority Date Filing Date
JP05346697A Expired - Fee Related JP3956063B2 (en) 1997-03-07 1997-03-07 How to handle moving objects

Country Status (1)

Country Link
JP (1) JP3956063B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002113678A (en) * 2000-10-06 2002-04-16 Seiko Instruments Inc Tracking method and tracking system
JP2010240838A (en) * 2010-08-05 2010-10-28 Seiko Epson Corp Position management method for moving object, and robot controller applying the method
JP2012055999A (en) * 2010-09-07 2012-03-22 Canon Inc System and method for gripping object, program and robot system
JP2013000855A (en) * 2011-06-20 2013-01-07 Yaskawa Electric Corp Picking system
JP2016219472A (en) * 2015-05-15 2016-12-22 パナソニックIpマネジメント株式会社 Component extracting device, component extracting method and component mounting device
JP2016219473A (en) * 2015-05-15 2016-12-22 パナソニックIpマネジメント株式会社 Component extracting device, component extracting method and component mounting device
JP2016219474A (en) * 2015-05-15 2016-12-22 パナソニックIpマネジメント株式会社 Component extracting device, component extracting method and component mounting device
CN107866809A (en) * 2016-09-27 2018-04-03 发那科株式会社 Learn the machine learning device and machine learning method in optimal Article gripping path
JP2019076972A (en) * 2017-10-20 2019-05-23 株式会社安川電機 Automation apparatus
JP2021011001A (en) * 2019-07-09 2021-02-04 トヨタ自動車株式会社 Arithmetic device, machine learning method and control program

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002113678A (en) * 2000-10-06 2002-04-16 Seiko Instruments Inc Tracking method and tracking system
JP2010240838A (en) * 2010-08-05 2010-10-28 Seiko Epson Corp Position management method for moving object, and robot controller applying the method
JP2012055999A (en) * 2010-09-07 2012-03-22 Canon Inc System and method for gripping object, program and robot system
US9266237B2 (en) 2010-09-07 2016-02-23 Canon Kabushiki Kaisha Object gripping system, object gripping method, storage medium and robot system
US10131054B2 (en) 2010-09-07 2018-11-20 Canon Kabushiki Kaisha Object gripping system, object gripping method, storage medium and robot system
JP2013000855A (en) * 2011-06-20 2013-01-07 Yaskawa Electric Corp Picking system
JP2016219473A (en) * 2015-05-15 2016-12-22 パナソニックIpマネジメント株式会社 Component extracting device, component extracting method and component mounting device
JP2016219474A (en) * 2015-05-15 2016-12-22 パナソニックIpマネジメント株式会社 Component extracting device, component extracting method and component mounting device
JP2016219472A (en) * 2015-05-15 2016-12-22 パナソニックIpマネジメント株式会社 Component extracting device, component extracting method and component mounting device
CN107866809A (en) * 2016-09-27 2018-04-03 发那科株式会社 Learn the machine learning device and machine learning method in optimal Article gripping path
JP2018051664A (en) * 2016-09-27 2018-04-05 ファナック株式会社 Machine learning device learning optimal object holding path, and machine learning method
US10692018B2 (en) 2016-09-27 2020-06-23 Fanuc Corporation Machine learning device and machine learning method for learning optimal object grasp route
JP2019076972A (en) * 2017-10-20 2019-05-23 株式会社安川電機 Automation apparatus
US10974393B2 (en) 2017-10-20 2021-04-13 Kabushiki Kaisha Yaskawa Denki Automation apparatus
JP2021011001A (en) * 2019-07-09 2021-02-04 トヨタ自動車株式会社 Arithmetic device, machine learning method and control program

Also Published As

Publication number Publication date
JP3956063B2 (en) 2007-08-08

Similar Documents

Publication Publication Date Title
CN109483573B (en) Machine learning device, robot system, and machine learning method
JP2022145915A (en) Inference method, inference program, inference device, learning method, learning program, learning device, and model generation method
JP6376296B1 (en) Position control device and position control method
CN109986560B (en) Mechanical arm self-adaptive grabbing method for multiple target types
JP6671694B1 (en) Machine learning device, machine learning system, data processing system, and machine learning method
US20230015796A1 (en) Robot Base Position Planning
Kiatos et al. Robust object grasping in clutter via singulation
CN110576449B (en) Robot system and control method for robot system
Kasaei et al. Mvgrasp: Real-time multi-view 3d object grasping in highly cluttered environments
JPH10249765A (en) Handling method of moving body
TW201932257A (en) Position control device and position control method
CN111958604A (en) Efficient special-shaped brush monocular vision teaching grabbing method based on CAD model
CN114029951B (en) Robot autonomous recognition intelligent grabbing method based on depth camera
CN110295728A (en) Handling system and its control method, floor tile paving system
Al-Shanoon et al. Robotic manipulation based on 3-D visual servoing and deep neural networks
JP4303411B2 (en) Tracking method and tracking system
JP2021070122A (en) Learning data generation method
KR20230119159A (en) Pixel-by-pixel prediction for phage generation
EP4094904B1 (en) Robot system control device, robot system control method, computer control program, and robot system
EP4245480A1 (en) Measuring system, measuring device, measuring method, and measuring program
CN114859940A (en) Robot movement control method, device, equipment and storage medium
CN111470244B (en) Control method and control device for robot system
CN116075795A (en) Environment change proposal system and environment change proposal program
KR20170101754A (en) Apparatus for motion estimation of object using gripper and method thereof
Al-Shanoon et al. DeepNet‐Based 3D Visual Servoing Robotic Manipulation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040109

A977 Report on retrieval

Effective date: 20060323

Free format text: JAPANESE INTERMEDIATE CODE: A971007

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060329

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060522

A131 Notification of reasons for refusal

Effective date: 20060830

Free format text: JAPANESE INTERMEDIATE CODE: A131

A521 Written amendment

Effective date: 20061018

Free format text: JAPANESE INTERMEDIATE CODE: A523

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070411

A61 First payment of annual fees (during grant procedure)

Effective date: 20070424

Free format text: JAPANESE INTERMEDIATE CODE: A61

R150 Certificate of patent (=grant) or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

A521 Written amendment

Effective date: 20061018

Free format text: JAPANESE INTERMEDIATE CODE: A523

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100518

Year of fee payment: 3

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110518

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees