JP7191569B2 - gripping device - Google Patents

gripping device Download PDF

Info

Publication number
JP7191569B2
JP7191569B2 JP2018140356A JP2018140356A JP7191569B2 JP 7191569 B2 JP7191569 B2 JP 7191569B2 JP 2018140356 A JP2018140356 A JP 2018140356A JP 2018140356 A JP2018140356 A JP 2018140356A JP 7191569 B2 JP7191569 B2 JP 7191569B2
Authority
JP
Japan
Prior art keywords
gripping
workpiece
gripping position
hand
success rate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018140356A
Other languages
Japanese (ja)
Other versions
JP2020015141A (en
Inventor
博明 大庭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTN Corp
Original Assignee
NTN Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTN Corp filed Critical NTN Corp
Priority to JP2018140356A priority Critical patent/JP7191569B2/en
Priority to PCT/JP2019/028757 priority patent/WO2020022302A1/en
Publication of JP2020015141A publication Critical patent/JP2020015141A/en
Application granted granted Critical
Publication of JP7191569B2 publication Critical patent/JP7191569B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Manipulator (AREA)

Description

この発明は、ワークをピックアップする把持装置に関する。 The present invention relates to a gripping device for picking up workpieces.

機械加工または組立作業において、対象物であるワークは、ロボットまたは組立装置等によって自動的にピックアップされ加工装置または組立物の筐体などにセットされることが多い。ピックアップ時には、ワークの形状や姿勢を認識してピックアップアームを制御する必要がある。たとえば、ロボットや組立装置等によるワークの取り出し作業で必要なワークの姿勢検出や形状認識などにワーク情報処理装置が利用される。 2. Description of the Related Art In machining or assembly work, a workpiece, which is a target object, is often automatically picked up by a robot, an assembly device, or the like and set in a processing device or assembly housing or the like. When picking up, it is necessary to recognize the shape and posture of the workpiece and control the pickup arm. For example, the workpiece information processing apparatus is used for posture detection, shape recognition, and the like of workpieces required for picking up workpieces by robots, assembling apparatuses, and the like.

従来、ワークの姿勢検出や形状認識などに画像処理が用いられている。ワーク情報処理装置では、カメラでワークを撮影し、パターンマッチング等でワークの姿勢を検出し、検出結果に基づいてピックアップアームを制御して把持可能な姿勢にハンドを位置決めする。 Conventionally, image processing is used for posture detection and shape recognition of workpieces. In a work information processing apparatus, a camera photographs a work, the posture of the work is detected by pattern matching or the like, and the pickup arm is controlled based on the detection result to position the hand in a grippable posture.

特開2015-213973号公報、特開2017-047505号公報、特開2016-221647号公報、特開平10-332333号公報および特開平11-066321公報には、ワークをピックアップする把持装置が開示されている。 Japanese Patent Laying-Open Nos. 2015-213973, 2017-047505, 2016-221647, 10-332333 and 11-066321 disclose a gripping device for picking up a workpiece. ing.

特開2015-213973号公報JP 2015-213973 A 特開2017-047505号公報JP 2017-047505 A 特開2016-221647号公報JP 2016-221647 A 特開平10-332333号公報JP-A-10-332333 特開平11-066321号公報JP-A-11-066321

ハンドの姿勢制御に関しては、特開2015-213973号公報(特許文献1)において、ハンドおよびハンドの位置決め機構とワークが格納されている容器との干渉を把持動作前にチェックし、検出されたワークがピッキング可能か否かを判定する方法が提案されている。機械的な干渉を把持動作前にチェックするものであり、ワークの取り出し作業において必要な機能である。 Regarding the attitude control of the hand, in Japanese Patent Application Laid-Open No. 2015-213973 (Patent Document 1), interference between the hand, the positioning mechanism of the hand, and a container in which the work is stored is checked before the gripping operation, and the detected work is detected. A method has been proposed for determining whether or not an item can be picked. It checks for mechanical interference before the gripping operation, and is a function necessary for picking up work.

また、特開2017-047505号公報(特許文献2)に開示された把持装置は、ハンドのアプローチ点から把持点まで間にハンドが通過する過程で障害物があった場合でも把持不可を判定せず、過去の把持成否情報と把持動作時のハンドの通過領域内の障害物の存在状態を機械学習(サポートベクタマシン)で学習し、把持動作前に学習結果を用いて把持の成否を判定し、判定結果に基づいて把持動作を行なう。この装置も特開2015-213973号公報(特許文献1)と同様、機械的な干渉による把持動作の可否を把持動作前に判定するものである。 In addition, the gripping device disclosed in Japanese Patent Laying-Open No. 2017-047505 (Patent Document 2) can determine whether gripping is impossible even if there is an obstacle in the process of the hand passing from the approach point of the hand to the gripping point. First, it learns past gripping success/failure information and the state of existence of obstacles in the hand passage area during the gripping motion by machine learning (support vector machine), and determines whether the gripping success or failure using the learning results before the gripping motion. , the grasping motion is performed based on the determination result. This device also determines whether or not a gripping operation due to mechanical interference can be performed before the gripping operation, as in Japanese Patent Application Laid-Open No. 2015-213973 (Patent Document 1).

特開2016-221647号公報(特許文献3)は、装置内に保持されている複数の把持形態情報の中から、把持位置における周囲ワークの状態を考慮して把持形態を選択する方法を提案している。把持形態を選択する評価値として、把持対象と周囲ワークとの接触点の数や、接触点に対象ワークの滑りやすさ、壊れやすさ、絡まりやすさの情報に基づいて評価値を算出し、評価値が最大になる把持形態を選択する方法を提案している。 Japanese Patent Laying-Open No. 2016-221647 (Patent Document 3) proposes a method of selecting a gripping form from a plurality of pieces of gripping form information held in an apparatus in consideration of the state of surrounding workpieces at a gripping position. ing. As the evaluation value for selecting the gripping form, the evaluation value is calculated based on the number of contact points between the gripping target and surrounding workpieces, and information on the slipperiness, breakage, and tangling of the target workpiece at the contact points. We propose a method of selecting the grasping form that maximizes the evaluation value.

特開2017-047505号公報(特許文献2)は、過去の把持動作の成否情報に基づいた学習で成否判定の精度を向上できる点で特開2015-213973号公報(特許文献1)よりも優れているが、学習には動作の試行が必要であり、学習に時間がかかるという課題がある。また、特開2016-221647号公報(特許文献3)のように、事前に特徴を定める必要があり、学習の準備に時間がかかる場合もある。 Japanese Patent Application Laid-Open No. 2017-047505 (Patent Document 2) is superior to Japanese Patent Application Laid-Open No. 2015-213973 (Patent Document 1) in that the accuracy of success/failure determination can be improved by learning based on the success/failure information of past gripping motions. However, there is a problem that learning requires trial of motions and it takes time to learn. In addition, as in Japanese Patent Application Laid-Open No. 2016-221647 (Patent Document 3), it is necessary to determine the characteristics in advance, and it may take time to prepare for learning.

本発明は、このような課題を解決するためのものであって、その目的は、バラ積みワークの取り出し作業において、適切な把持位置を選択するための学習を比較的短時間で終了することが可能な把持装置を提供することである。 The present invention is intended to solve such problems, and its object is to complete the learning for selecting an appropriate gripping position in a relatively short period of time in the work of picking up bulk workpieces. The object is to provide a gripping device that is possible.

本開示に係る把持装置は、ワークの表面を観察するための撮影装置と、ワークの表面上の点の座標データを計測する三次元センサと、ワークを把持するためのハンドと、把持可能な姿勢にハンドを位置決めする位置決め機構と、撮影装置および三次元センサを用いてワークの最適把持位置を検出し、位置決め機構およびハンドを制御するワーク情報処理装置とを備える。ワーク情報処理装置は、三次元センサから取得した座標データまたは撮影装置から取得した画像データに基づいてワークの把持位置を決定し、把持位置に基づいてハンドがワークを把持するように位置決め機構およびハンドを作動させ、ハンドを撮影装置によって撮影させ、取得した画像データに基づいて実際にワークを把持できているか否かを判定し、判定結果と把持位置との関係を蓄積して把持位置における把持成功率を算出し、把持成功率に基づいて次回以降の把持動作時に採用する把持位置を決定する。 A gripping device according to the present disclosure includes an imaging device for observing the surface of a workpiece, a three-dimensional sensor for measuring coordinate data of points on the surface of the workpiece, a hand for gripping the workpiece, and a grippable posture. and a workpiece information processing device that detects the optimum gripping position of a workpiece using an imaging device and a three-dimensional sensor and controls the positioning mechanism and the hand. The workpiece information processing device determines a workpiece gripping position based on coordinate data acquired from a three-dimensional sensor or image data acquired from an imaging device, and includes a positioning mechanism and a hand so that the hand grips the workpiece based on the gripping position. is operated, the hand is photographed by the imaging device, and based on the obtained image data, it is determined whether or not the workpiece is actually gripped, and the relationship between the determination result and the gripping position is accumulated to determine whether gripping is successful at the gripping position. Then, based on the success rate of gripping, the gripping position to be adopted in subsequent gripping operations is determined.

好ましくは、ワーク情報処理装置は、三次元センサから取得した座標データまたは撮影装置から取得した画像データを用いて把持対象とするワークの位置を検出するワーク検出部と、ワーク検出部で検出されたワークの位置に基づいてワークの周囲物とハンドとの干渉を判定し、単数または複数の把持位置候補を検出する把持位置候補検出部と、把持位置候補検出部で抽出された把持位置候補の中から最適把持位置を選択する把持位置選択部と、最適把持位置に基づいて位置決め機構またはハンドに位置決め指令または把持・開放指令を出力する指令出力部と、撮影装置から取得した画像データに基づいて実際にワークを把持できているか否かを画像処理で判定する把持動作成否判定部とを含む。把持位置候補検出部は、把持位置候補について、三次元センサまたは撮影装置から取得したデータと把持動作成否判定部の判定結果とを用いた機械学習結果により把持成功率を求める。把持位置選択部は、把持成功率が最大になる候補を最適把持位置として選択する。 Preferably, the workpiece information processing device includes a workpiece detection unit that detects the position of the workpiece to be gripped using coordinate data acquired from the three-dimensional sensor or image data acquired from the photographing device, and the position of the workpiece detected by the workpiece detection unit. A gripping position candidate detection unit that determines interference between objects surrounding the workpiece and the hand based on the position of the workpiece and detects one or more gripping position candidates, and among the gripping position candidates extracted by the gripping position candidate detection unit a gripping position selection unit that selects the optimum gripping position from the optimal gripping position, a command output unit that outputs a positioning command or a gripping/releasing command to the positioning mechanism or hand based on the optimal gripping position, and an actual and a gripping motion creation failure determination unit that determines whether or not the workpiece can be gripped by image processing. The gripping position candidate detection unit obtains a gripping success rate for the gripping position candidates based on machine learning results using data obtained from the three-dimensional sensor or the imaging device and determination results of the gripping motion creation failure determination unit. The gripping position selection unit selects the candidate with the highest gripping success rate as the optimum gripping position.

より好ましくは、把持位置候補検出部は、機械学習の学習データとして三次元センサから取得した座標データまたは撮影装置から取得した画像データ、把持動作を実行したときの把持位置、および把持動作成否判定部の判定結果とを用いて把持成功率を求める。 More preferably, the gripping position candidate detection unit uses coordinate data acquired from a three-dimensional sensor or image data acquired from an imaging device as learning data for machine learning, a gripping position when a gripping motion is executed, and a gripping motion creation failure determination unit. The grasping success rate is obtained using the determination result of .

より好ましくは、予め定められたNを自然数とすると、前記把持位置候補検出部が、前記把持成功率の算出に学習結果を利用しない把持動作回数はN回である。把持位置選択部は、N回目までの把持では把持位置候補のうち、前記ワークの画像上の重心位置に最も近い点を選択し、N回を超過してから機械学習結果を用いて得られた把持成功率が最大になる候補を最適把持位置として選択する。 More preferably, when a predetermined N is a natural number, the number of gripping motions for which the gripping position candidate detection unit does not use the learning result for calculating the gripping success rate is N times. The gripping position selection unit selects the point closest to the center of gravity position on the image of the workpiece from the gripping position candidates up to the Nth gripping, and after the Nth gripping is exceeded, the gripping position selection unit selects The candidate with the highest gripping success rate is selected as the optimum gripping position.

より好ましくは、把持位置候補検出部は、把持装置の稼働中に三次元センサから取得した座標データまたは撮影装置から取得した画像データと把持動作成否判定部の判定結果を用い、逐次機械学習結果を更新する。 More preferably, the gripping position candidate detection unit uses the coordinate data acquired from the three-dimensional sensor or the image data acquired from the photographing device while the gripping device is in operation, and the determination result of the gripping movement creation/non-creation determination unit, and sequentially calculates the results of machine learning. Update.

より好ましくは、把持位置候補検出部は、一定回数の把持動作毎に機械学習結果の少なくとも一部をリセットする。 More preferably, the gripping position candidate detection unit resets at least a portion of the machine learning result every predetermined number of gripping motions.

好ましくは、ワークを収容する容器を載置する振動台をさらに備え、ワーク情報処理装置は、次回の把持動作において、ハンドで把持を行なう前に容器内のワークを撮影装置で撮影した画像に基づいて決定した把持位置に対応する把持成功率が判定値よりも低い場合には、振動台によってワークの位置を変更する。 Preferably, the workpiece information processing apparatus further includes a vibration table on which the container containing the workpiece is placed, and the workpiece information processing apparatus, in the next gripping operation, prior to gripping by the hand, based on the image of the workpiece in the container captured by the imaging device. If the gripping success rate corresponding to the gripping position determined by the above is lower than the judgment value, the position of the workpiece is changed by the shaking table.

好ましくは、撮影装置は、ハンドで把持される前にワークが置いてある載置場所を撮影する第1カメラと、ハンドで把持された後にワークが配置されるべき配置場所を撮影する第2カメラとを含む。ワーク情報処理装置は、第2カメラから取得した画像データに基づいてワークの配置位置を決定し、配置位置が基準位置と一致するか否かを判定し判定結果に基づいて配置成功率を算出する。ワーク情報処理装置は、次回の把持動作において、ハンドで把持を行なう前に載置場所に置かれているワークを第1カメラで撮影し、撮影した画像に基づいて決定した把持位置に対応する把持成功率および配置成功率に基づいて、把持位置の採否を決定する。 Preferably, the photographing device includes a first camera for photographing the placement location where the work is placed before it is gripped by the hand, and a second camera for photographing the placement location where the work is to be placed after it is gripped by the hand. including. The workpiece information processing device determines the placement position of the workpiece based on the image data acquired from the second camera, determines whether the placement position matches the reference position, and calculates the placement success rate based on the determination result. . In the next gripping operation, the workpiece information processing apparatus captures an image of the workpiece placed on the placement location with the first camera before gripping with the hand, and grips the workpiece corresponding to the gripping position determined based on the captured image. Based on the success rate and placement success rate, it is determined whether or not to adopt the gripping position.

本発明によれば、バラ積みワークの取り出し作業において、適切な把持位置を選択するための学習を比較的短時間で終了することが可能となる。 According to the present invention, it is possible to complete the learning for selecting an appropriate gripping position in a relatively short period of time in the work of picking up bulk workpieces.

実施の形態1の把持装置の構成を示す図である。1 is a diagram showing a configuration of a grasping device according to Embodiment 1; FIG. ハンドの形状を示す正面図である。4 is a front view showing the shape of a hand; FIG. ハンドの形状を示す側面図である。FIG. 4 is a side view showing the shape of a hand; ワーク情報処理装置6の内部構成を示す図である。2 is a diagram showing an internal configuration of a work information processing device 6; FIG. パターンマッチングの様子を説明するための図である。FIG. 4 is a diagram for explaining how pattern matching is performed; パターンマッチング時に検出される情報を説明するための図である。FIG. 4 is a diagram for explaining information detected during pattern matching; FIG. 図6のZ軸の+方向からワークWを見たときの図である。FIG. 7 is a view of the workpiece W viewed from the + direction of the Z axis in FIG. 6; 把持位置候補検出部63が実行する処理を説明するための図である。FIG. 7 is a diagram for explaining a process executed by a gripping position candidate detection unit 63; ワークWの把持可能位置の指示の第1例である。This is a first example of indicating the grippable position of the workpiece W. FIG. ワークWの把持可能位置の指示の第2例である。This is a second example of indicating the grippable position of the workpiece W. FIG. 把持可能箇所が複数となるワークWと周囲ワークとの状況の配置例を示した図である。FIG. 4 is a diagram showing an arrangement example of a situation of a workpiece W having a plurality of grippable positions and surrounding workpieces. 把持成功時に検出された画像を示す図である。FIG. 10 is a diagram showing an image detected when gripping is successful; 把持失敗時に検出された画像を示す図である。FIG. 10 is a diagram showing an image detected when gripping fails; ワーク情報処理装置が行なう処理を示したフローチャートである。4 is a flow chart showing processing performed by the work information processing apparatus; 実施の形態2の把持装置の構成を示す図である。FIG. 10 is a diagram showing the configuration of a gripping device according to Embodiment 2; 実施の形態2のワーク情報処理装置が実行する処理を説明するためのフローチャートである。9 is a flowchart for explaining processing executed by the work information processing apparatus according to the second embodiment; 実施の形態3の把持装置の構成を示す図である。FIG. 12 is a diagram showing the configuration of a gripping device according to Embodiment 3; 実施の形態3のワーク情報処理装置が実行する処理を説明するためのフローチャートである。10 is a flowchart for explaining processing executed by the work information processing apparatus according to the third embodiment; 設置成功時に検出された画像を示す図である。It is a figure which shows the image detected at the time of installation success. 設置失敗時に検出された画像を示す図である。It is a figure which shows the image detected at the time of installation failure.

以下、本発明の実施の形態について図面を参照しつつ説明する。なお、以下の図面において同一または相当する部分には同一の参照番号を付し、その説明は繰り返さない。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the drawings below, the same reference numbers are given to the same or corresponding parts, and the description thereof will not be repeated.

[実施の形態1]
以下の実施の形態では、バラ積み状態の円柱状ワークを把持する場合について説明する。本実施の形態の把持装置は、バラ積み状態のワークの把持位置検出において、周囲のワークとの干渉を避けてハンドを挿入するための最適把持位置を選択する。
[Embodiment 1]
In the following embodiments, a case of gripping cylindrical workpieces in a bulk state will be described. The gripping device of the present embodiment selects the optimum gripping position for inserting the hand while avoiding interference with the surrounding workpieces when detecting the gripping position of a randomly stacked workpiece.

(把持装置の構成)
図1は、実施の形態1の把持装置の構成を示す図である。図1を参照して、把持装置1は、ワークWの表面を観察するためのカメラ2と、ワーク表面の各点のXYZ座標データを計測する三次元センサ3と、ワークWを把持するためのハンド4と、ワークWを把持可能な姿勢にハンド4を位置決めする位置決め機構5と、カメラ2からの画像データR,G,Bおよび三次元センサ3からのXYZ座標データDを用いて最適把持位置を検出し、位置決め機構5およびハンド4を制御するワーク情報処理装置6とを備える。
(Configuration of gripping device)
FIG. 1 is a diagram showing the configuration of a grasping device according to Embodiment 1. FIG. Referring to FIG. 1, a gripping device 1 includes a camera 2 for observing the surface of a workpiece W, a three-dimensional sensor 3 for measuring XYZ coordinate data of each point on the workpiece surface, and a An optimum gripping position is determined using the hand 4, a positioning mechanism 5 that positions the hand 4 in a posture capable of gripping the workpiece W, image data R, G, B from the camera 2, and XYZ coordinate data D from the three-dimensional sensor 3. and a work information processing device 6 for controlling the positioning mechanism 5 and the hand 4 .

ワーク情報処理装置6は、三次元センサ3から取得した座標データまたは撮影装置2から取得した画像データに基づいてワークの把持位置を決定し、把持位置に基づいてハンド4がワークを把持するように位置決め機構5およびハンド4を作動させ、ハンド4を撮影装置2によって撮影させ、取得した画像データに基づいて実際にワークを把持できているか否かを判定し、判定結果と把持位置との関係を蓄積して把持位置における把持成功率を算出し、把持成功率に基づいて次回以降の把持動作時に採用する把持位置を決定する。 The workpiece information processing device 6 determines the gripping position of the workpiece based on the coordinate data acquired from the three-dimensional sensor 3 or the image data acquired from the imaging device 2 so that the hand 4 grips the workpiece based on the gripping position. The positioning mechanism 5 and the hand 4 are operated, the hand 4 is photographed by the photographing device 2, it is determined whether or not the workpiece is actually gripped based on the acquired image data, and the relationship between the determination result and the gripping position is determined. By accumulating, the gripping success rate at the gripping position is calculated, and based on the gripping success rate, the gripping position to be adopted in subsequent gripping operations is determined.

本実施の形態では、位置決め機構5として多関節ロボットを用いた例を示す。この他にも、水平方向にアームが移動する水平多関節型や、直交する3つのスライド軸により構成された直交型のロボットなどを位置決め機構5として選択することができる。 In this embodiment, an example using an articulated robot as the positioning mechanism 5 is shown. In addition, a horizontal multi-joint type in which an arm moves in the horizontal direction, an orthogonal type robot configured by three orthogonal slide axes, or the like can be selected as the positioning mechanism 5 .

図2は、ハンドの形状を示す正面図である。図3は、ハンドの形状を示す側面図である。ハンド4は、2本の指41および42でワーク挟み込むことでワークを把持する。 FIG. 2 is a front view showing the shape of the hand. FIG. 3 is a side view showing the shape of the hand. The hand 4 grips the work by sandwiching the work with two fingers 41 and 42 .

再び図1を参照して、三次元センサ3の内部には、図示しない2台のカメラが搭載されており、三角測量により物体表面の三次元座標を計測する。ワークWの表面に計測の目印となる模様がない場合、2台のカメラの画像上の点を対応付けできないため、光源からスリット状の光やドット状の光がワークWに向けて照射される。この光源は、三次元センサ3の内部に搭載されていても良いし、カメラ2の上方に配置しても良い。また、三次元センサ3は、特にステレオ方式の三次元センサに限定する必要はなく、光切断法や位相シフト法などの三次元座標データを計測するセンサであれば特に限定されない。 Referring to FIG. 1 again, two cameras (not shown) are mounted inside the three-dimensional sensor 3 to measure the three-dimensional coordinates of the surface of the object by triangulation. If the surface of the workpiece W does not have a pattern that serves as a measurement mark, the points on the images of the two cameras cannot be associated, so the workpiece W is irradiated with slit-shaped light or dot-shaped light from the light source. . This light source may be mounted inside the three-dimensional sensor 3 or may be arranged above the camera 2 . Moreover, the three-dimensional sensor 3 is not particularly limited to a stereo three-dimensional sensor, and is not particularly limited as long as it is a sensor that measures three-dimensional coordinate data by a light section method, a phase shift method, or the like.

(ワーク情報処理装置の内部構成)
図4は、ワーク情報処理装置6の内部構成を示す図である。ワーク情報処理装置6は、画像入力部61と、ワーク検出部62と、把持位置候補検出部63と、把持位置選択部64と、把持動作成否判定部65と、データ保存部67と、指令出力部66とを備える。
(Internal configuration of workpiece information processing device)
FIG. 4 is a diagram showing the internal configuration of the work information processing device 6. As shown in FIG. The workpiece information processing device 6 includes an image input unit 61, a workpiece detection unit 62, a gripping position candidate detection unit 63, a gripping position selection unit 64, a gripping motion creation failure determination unit 65, a data storage unit 67, and a command output. a portion 66;

画像入力部61は、三次元センサ3からのXYZ座標データおよびカメラ2からの画像データを入力する。ワーク検出部62は、三次元センサ3から取得したXYZ座標データまたはカメラ2から取得した画像データを用いて把持対象とするワークの位置を検出する。把持位置候補検出部63は、ワーク検出部62で検出されたワークの位置に基づいてワークの周囲物とハンド4との干渉を判定し、単数または複数の把持位置候補を検出する。把持位置選択部64は、把持位置候補検出部63で抽出された把持位置候補の中から、予測された成功率が最大になる最適把持位置を選択する。把持動作成否判定部65は、カメラ2から取得した画像データに基づいて実際にワークを把持できているか否かを画像処理で判定する。 The image input unit 61 inputs XYZ coordinate data from the three-dimensional sensor 3 and image data from the camera 2 . The workpiece detection unit 62 uses the XYZ coordinate data acquired from the three-dimensional sensor 3 or the image data acquired from the camera 2 to detect the position of the workpiece to be gripped. The gripping position candidate detection unit 63 determines interference between the surrounding objects of the workpiece and the hand 4 based on the position of the workpiece detected by the workpiece detecting unit 62, and detects one or more gripping position candidates. The gripping position selection unit 64 selects the optimum gripping position that maximizes the predicted success rate from the gripping position candidates extracted by the gripping position candidate detection unit 63 . The grip motion creation failure determination unit 65 determines whether or not the work is actually gripped based on the image data acquired from the camera 2 by image processing.

データ保存部67は、三次元センサ3からのXYZ座標データおよびカメラ2から取得した画像データおよび把持位置候補の座標値、把持動作の成否判定結果等を保存する。指令出力部66は、最適把持位置に基づいて位置決め機構5またはハンド4に位置決め指令または把持・開放指令を出力する。 The data storage unit 67 stores the XYZ coordinate data from the three-dimensional sensor 3, the image data acquired from the camera 2, the coordinate values of the gripping position candidates, the result of determining the success or failure of the gripping motion, and the like. The command output unit 66 outputs a positioning command or a gripping/releasing command to the positioning mechanism 5 or the hand 4 based on the optimum gripping position.

把持位置候補検出部63は、把持位置候補について、三次元センサ3または撮影装置2から取得したデータと把持動作成否判定部65の判定結果とを用いた機械学習結果により把持成功率を求め、把持成功率が最大になる候補を最適把持位置として選択する。
(ワーク情報処理装置における処理手順)
以下に、ワーク情報処理装置6の各部の処理を詳細に説明する。
The gripping position candidate detection unit 63 obtains a gripping success rate from the result of machine learning using the data acquired from the three-dimensional sensor 3 or the imaging device 2 and the determination result of the gripping movement creation failure determination unit 65 for the gripping position candidate. The candidate with the highest success rate is selected as the optimal gripping position.
(Processing procedure in workpiece information processing device)
The processing of each part of the work information processing device 6 will be described in detail below.

ワーク検出部62は、三次元センサ3から取得したXYZ座標データDを用いて把持対象を検出する。本実施の形態では、把持対象の検出にパターンマッチングを用いる例を示す。 The workpiece detection unit 62 detects a gripping target using the XYZ coordinate data D acquired from the three-dimensional sensor 3 . In this embodiment, an example in which pattern matching is used to detect a grasped target is shown.

図5は、パターンマッチングの様子を説明するための図である。あらかじめワークWの画像がテンプレートTとしてデータ保存部67に保存されている。ワーク検出部62は、把持対象の検出時にテンプレートTを読み出してカメラ2からの画像データや三次元センサ3からのXYZ座標データに重ね合わせ、最も一致する姿勢を有するワークを探索するパターンマッチングを行なう。 FIG. 5 is a diagram for explaining how pattern matching is performed. An image of the workpiece W is stored as a template T in the data storage unit 67 in advance. The work detection unit 62 reads out the template T when detecting a gripping target, superimposes it on the image data from the camera 2 and the XYZ coordinate data from the three-dimensional sensor 3, and performs pattern matching to search for a work having the most matching posture. .

図6は、パターンマッチング時に検出される情報を説明するための図である。パターンマッチングでは、ワークWの中心座標(ox,oy,oz)と各軸周りの回転角度(α,β,γ)が検出される。 FIG. 6 is a diagram for explaining information detected during pattern matching. In pattern matching, the center coordinates (ox, oy, oz) of the workpiece W and the rotation angles (α, β, γ) around each axis are detected.

次に、把持位置候補検出部63が実行する処理を説明する。図7は、図6のZ軸の+方向からワークWを見たときの図である。図7には、把持対象のワークWと、周囲の4つのワークと、ハンド4の2本の指41、42との位置関係が示されている。また、図7では、ハンド4の2指41,42の座標の中点がワークWの重心Oと一致するようにハンド4が位置決めされている。図7の例では、ワークWとハンド4の2指41,42は干渉しない。図7に示したようなワークWとハンド4の2指41,42が干渉しない箇所を、把持位置候補検出部63は把持可能と判断する。 Next, processing executed by the grip position candidate detection unit 63 will be described. FIG. 7 is a view of the workpiece W viewed from the + direction of the Z axis in FIG. FIG. 7 shows the positional relationship between the workpiece W to be gripped, four surrounding workpieces, and two fingers 41 and 42 of the hand 4 . 7, the hand 4 is positioned such that the midpoint of the coordinates of the two fingers 41 and 42 of the hand 4 coincides with the center of gravity O of the workpiece W. As shown in FIG. In the example of FIG. 7, the workpiece W and the two fingers 41 and 42 of the hand 4 do not interfere. The gripping position candidate detection unit 63 determines that the workpiece W and the two fingers 41 and 42 of the hand 4 do not interfere with each other as shown in FIG. 7 as grippable.

図8は、把持位置候補検出部63が実行する処理を説明するための図である。把持位置候補検出部63は、図8のニューラルネットワークで、図7に示す把持位置候補と把持動作の成功率を予測する。ニューラルネットワークは、三次元センサ3から取得したXYZ座標データDおよびカメラ2から取得した画像R,G,Bを入力とし、把持位置候補のXYZ座標値と把持成功率を予測する。 FIG. 8 is a diagram for explaining the processing executed by the gripping position candidate detection unit 63. As shown in FIG. The gripping position candidate detection unit 63 predicts the gripping position candidates shown in FIG. 7 and the success rate of the gripping motion using the neural network shown in FIG. The neural network receives the XYZ coordinate data D acquired from the three-dimensional sensor 3 and the images R, G, and B acquired from the camera 2 as inputs, and predicts the XYZ coordinate values of gripping position candidates and the gripping success rate.

把持位置候補検出部63は、ニューラルネットワークの学習処理も行なう。学習にはバックプロバケーション(誤差逆伝播法)を用いる。学習のために、以下の教師データを準備する。 The gripping position candidate detection unit 63 also performs learning processing for a neural network. Back propagation (backpropagation method) is used for learning. Prepare the following teacher data for learning.

ワークWをカメラ2で図6のZ軸の+方向から撮影する。ワークWについて、ハンド4が干渉しない位置を人間が指示する。図9は、ワークWの把持可能位置の指示の第1例である。図10は、ワークWの把持可能位置の指示の第2例である。図9および図10に示すような矩形を人間が指示して把持可能位置の教師データとする。 The workpiece W is photographed by the camera 2 from the + direction of the Z axis in FIG. A person indicates a position of the work W where the hand 4 does not interfere. FIG. 9 shows a first example of indication of the grippable position of the workpiece W. FIG. FIG. 10 shows a second example of indicating the grippable position of the workpiece W. FIG. A rectangle as shown in FIGS. 9 and 10 is designated by a human and used as training data of grippable positions.

図9、図10に示した矩形の中心座標X,Yと奥行方向の座標Zを、三次元センサ3から取得した座標データDから求める。また、指示した把持位置の成功率の初期値として、最大値100を与える。成功率は0~100の範囲の値とする。 The central coordinates X, Y and the depth direction coordinate Z of the rectangle shown in FIGS. Also, the maximum value of 100 is given as the initial value of the success rate of the instructed gripping position. The success rate is a value in the range of 0-100.

把持を試行して学習を行なうと時間がかかる。この課題に対処するために、本実施の形態では、動作を試行する前にある程度の学習を済ませておく。 It takes time to try grasping and learning. To address this issue, in the present embodiment, a certain amount of learning is done before the motion is attempted.

たとえば、あらかじめワークを撮影し、撮影した画像の中で把持可能な箇所を人間が判断して指示し、撮影した画像と人間が指示した箇所を教師データとして事前に学習を行う。この学習結果を用いることで、実際の動作の試行回数を減らすことができる。 For example, a workpiece is photographed in advance, a human judges and designates a grippable part in the photographed image, and learning is performed in advance using the photographed image and the part indicated by the human as teacher data. By using this learning result, it is possible to reduce the number of actual motion trials.

また、以上のような方法をとることで、特開2016-221647号公報(特許文献3)のように、事前に特徴を定める必要はなくなり、把持の可否判断に必要な特徴情報を学習で取得することができる。 In addition, by adopting the above method, it is no longer necessary to determine the characteristics in advance as in Japanese Patent Application Laid-Open No. 2016-221647 (Patent Document 3), and the characteristic information necessary for determining whether or not the grip can be grasped is acquired by learning. can do.

図11は、把持可能箇所が複数となるワークWと周囲ワークとの状況の配置例を示した図である。図11のような状況を想定し、把持位置には把持の優先度を示すラベルを割り当てる。ここでは、たとえば、Aを優先度最大とし、順番にB,Cと3段階の優先度を設ける。優先度は矩形の指示者が判断して割り当てる。 FIG. 11 is a diagram showing an arrangement example of a situation of a workpiece W having a plurality of grippable positions and surrounding workpieces. Assuming a situation such as that shown in FIG. 11, a label indicating the priority of gripping is assigned to the gripping position. Here, for example, A has the highest priority, and three levels of priority, B and C, are provided in order. The priority is determined and assigned by the rectangle designator.

以上より、各矩形に対し、中心座標(X,Y)、奥行座標Z、矩形の縦横サイズ、成功率の初期値、ラベルが割り当てられる。これらの情報とワークWの画像R,G,B、三次元センサ3から取得したXYZ座標データDを教師データとしニューラルネットワークの学習を行なう。把持位置候補検出部63は、この学習結果を初期値として把持位置候補を検出する。 As described above, the central coordinates (X, Y), the depth coordinate Z, the vertical and horizontal size of the rectangle, the initial value of the success rate, and the label are assigned to each rectangle. These pieces of information, the images R, G, and B of the workpiece W, and the XYZ coordinate data D obtained from the three-dimensional sensor 3 are used as training data for neural network learning. The gripping position candidate detection unit 63 detects gripping position candidates using this learning result as an initial value.

次に把持位置選択部64および把持動作成否判定部65が実行する処理について説明する。把持位置選択部64は、把持位置候補検出部63が検出した把持位置候補の内、優先度が高く、把持動作の予測成功率が最大の候補を選択する。 Next, processing executed by the gripping position selection unit 64 and the gripping motion creation failure determination unit 65 will be described. The gripping position selection unit 64 selects a candidate having a high priority and a maximum prediction success rate of gripping motion among the gripping position candidates detected by the gripping position candidate detection unit 63 .

把持動作の成否は、把持動作成否判定部65が判定する。実際の把持動作後、カメラ2でハンド4を撮影し、ハンド4内のワークを画像処理で検出し、検出できた場合は成功、未検出の場合は失敗と判定する。 The success or failure of the gripping motion is determined by the gripping motion creation/failure determining unit 65 . After the actual gripping operation, the hand 4 is photographed by the camera 2, and the work in the hand 4 is detected by image processing.

図12は、把持成功時に検出された画像を示す図である。ワークを把持していないハンド4の画像とワークWの把持に成功したハンド4との画像を比較すると、不一致の部分が生じる。このように不一致の部分がある場合には把持成功と判定される。 FIG. 12 is a diagram showing an image detected when gripping is successful. Comparing the image of the hand 4 that has not gripped the workpiece and the image of the hand 4 that has successfully gripped the workpiece W results in a mismatch. If there is such a mismatching portion, it is determined that the grip has been successful.

図13は、把持失敗時に検出された画像を示す図である。ワークを把持していないハンド4の画像とワークWの把持に失敗したハンド4との画像を比較すると、一致するので差分の画像が生じない。このように不一致の部分が無い場合には把持失敗と判定される。 FIG. 13 is a diagram showing an image detected when gripping fails. When the image of the hand 4 not gripping the workpiece and the image of the hand 4 failing to grip the workpiece W are compared, the two images match each other, so no difference image is generated. When there is no inconsistent part in this way, it is determined that gripping has failed.

把持動作成否判定部65は、図12、図13に示したように、あらかじめ撮影されデータ保存部67に保存されていた把持していない状態のハンド4の画像を、把持動作後の画像と比較して、2つの画像が一致していれば未検出、不一致ならば検出と判定する。 As shown in FIGS. 12 and 13 , the grip motion creation failure determination unit 65 compares an image of the hand 4 in a non-gripping state captured in advance and stored in the data storage unit 67 with an image after the grip motion. Then, if the two images match, it is determined as undetected, and if they do not match, it is determined as detected.

把持位置候補検出部63は、把持動作の試行中も学習を行ない、学習結果を更新する。把持位置候補検出部63は、機械学習の学習データとして三次元センサ3から取得した座標データまたは撮影装置から取得した画像データ、把持動作を実行したときの把持位置、および把持動作成否判定部65の判定結果とを用いる。 The gripping position candidate detection unit 63 performs learning even during the trial of the gripping motion, and updates the learning result. The gripping position candidate detection unit 63 detects the coordinate data acquired from the three-dimensional sensor 3 or the image data acquired from the imaging device as learning data for machine learning, the gripping position when the gripping motion is performed, and the gripping motion creation failure determination unit 65. The judgment result is used.

把持動作成否判定部65において、未検出の場合、ニューラルネットワークが予測した把持動作の成功率Sを下記式に代入して更新された成功率S’を得る。
S’=α×S+β
ここでは、(α、β)を更新係数と呼ぶ。それぞれの値は任意だが、ここでは(α,β)=(0.99,-0.1)とした。なお、学習を試行し経験的に定めた最適値を用いてもよい。
In the case of non-detection in the grasping movement creation failure determination unit 65, the success rate S of the grasping movement predicted by the neural network is substituted into the following equation to obtain the updated success rate S'.
S'=α×S+β
Here, (α, β) are called update coefficients. Each value is arbitrary, but here (α, β)=(0.99, −0.1). An optimum value determined empirically by trial learning may be used.

把持動作試行中は、以上のように更新された成功率S’と、ニューラルネットワークが予測した中心座標(X,Y)、奥行座標Z、矩形の縦横サイズおよびラベルと、把持位置候補検出部63が検出に利用した画像R,G,Bとデータ、三次元センサ3の画像データDを用いて学習が行なわれる。 During the gripping motion trial, the success rate S′ updated as described above, the central coordinates (X, Y) predicted by the neural network, the depth coordinate Z, the vertical and horizontal size and label of the rectangle, and the gripping position candidate detection unit 63 Learning is performed using the images R, G, B and data used for detection, and the image data D of the three-dimensional sensor 3 .

把持位置候補検出部63は、把持装置1の稼働中に三次元センサ3から取得した座標データまたは撮影装置2から取得した画像データと把持動作成否判定部65の判定結果を用い、逐次機械学習結果を更新する。 The gripping position candidate detection unit 63 uses the coordinate data acquired from the three-dimensional sensor 3 or the image data acquired from the photographing device 2 while the gripping device 1 is in operation, and the determination result of the gripping motion creation/non-creation determination unit 65, and sequentially obtains the results of machine learning. to update.

以上のように、把持動作のたびに、把持動作結果に基づいた学習を行なうことで、成功率の低い把持位置は除外され、成功率の高い把持位置のみが選択されるようになる。これにより、把持の失敗が低減され、取り出し作業を効率化することができる。 As described above, by performing learning based on the gripping motion results for each gripping motion, gripped positions with a low success rate are excluded, and only gripped positions with a high success rate are selected. As a result, gripping failures can be reduced, and the efficiency of the take-out operation can be improved.

また、本実施の形態では、把持装置が稼働している間、逐次学習を行なう例を示したが、周囲の環境変化やハンド4の形状変化、ワークの加工品位の変化等によっては、逐次学習よりも一定間隔で学習結果をリセットした方が好ましい場合も考えられる。 Further, in the present embodiment, an example is shown in which the sequential learning is performed while the gripping device is in operation. In some cases, it may be preferable to reset the learning results at regular intervals.

このようなときは、あらかじめ設定した回数Mの把持動作毎に学習結果をリセットしてもよい。把持位置候補検出部63は、一定回数の把持動作毎に機械学習結果をリセットする。リセット後は、再度、把持動作のたびに同様の学習を行ない、学習回数がMに達したとき学習結果をリセットする。また、Mは特に固定の値にする必要はなく、周囲の環境やハンド4、ワーク等の変化に応じてリセットのたびに変化させてもよい。 In such a case, the learning result may be reset every M gripping motions set in advance. The gripping position candidate detection unit 63 resets the machine learning result for each predetermined number of gripping operations. After resetting, the same learning is performed again each time the grasping motion is performed, and when the number of times of learning reaches M, the learning result is reset. Also, M does not have to be a fixed value, and may be changed at each reset according to changes in the surrounding environment, the hand 4, the workpiece, and the like.

また、把持動作中の自動学習では、定期的に人間が認識結果を確認し、教師データを作成してもよい。 Also, in the automatic learning during the gripping motion, a human may periodically check the recognition result and create teacher data.

この場合、データ保存部67に保存された画像を参照し、たとえば図9、図10に示すような矩形を人間が指示する。また、更新された成功率S’を人間が直接指定してもよい。これにより、学習時間のさらなる短縮化を図ることができる。 In this case, an image stored in the data storage unit 67 is referred to, and a person designates a rectangle as shown in FIGS. 9 and 10, for example. Alternatively, a human may directly specify the updated success rate S'. This makes it possible to further shorten the learning time.

以上説明した一連の処理をフローチャートで説明する。図14は、ワーク情報処理装置が行なう処理を示したフローチャートである。図14に示す処理は、図9、図10で説明した人間が把持位置の教師データを与えてニューラルネットワークにある程度の学習をさせた後に行なわれる処理である。ワーク情報処理装置6は、カメラ2および三次元センサ3から画像を取得する(S1)。続いて、ワーク情報処理装置6は、取得した画像から把持対象を検出し(S2)、把持位置候補を検出し、把持位置候補の把持成功率を予測する(S3)。 A series of processes described above will be described with reference to a flowchart. FIG. 14 is a flow chart showing processing performed by the work information processing apparatus. The process shown in FIG. 14 is carried out after the human gives the training data of the gripping positions described in FIGS. 9 and 10 and causes the neural network to learn to some extent. The work information processing device 6 acquires images from the camera 2 and the three-dimensional sensor 3 (S1). Subsequently, the workpiece information processing device 6 detects a gripping target from the acquired image (S2), detects gripping position candidates, and predicts a gripping success rate of the gripping position candidates (S3).

そして、ワーク情報処理装置6は、把持位置候補のうち、優先度最大、かつ把持成功率最大の把持位置候補を選択し(S4)、位置決め機構5およびハンド4を用いて把持動作を行なう(S5)。 Then, the workpiece information processing device 6 selects a gripping position candidate with the highest priority and the highest gripping success rate from among the gripping position candidates (S4), and performs a gripping operation using the positioning mechanism 5 and the hand 4 (S5). ).

好ましくは、Nを自然数とすると、ステップS3における把持成功率の算出に学習結果を利用しない把持動作回数であるNをあらかじめ設定し、N回目までの把持では把持位置候補のうち、ワークの画像上の重心位置に最も近い点を選択し、N回を超過してからステップS3において機械学習結果を用いて把持成功率を算出し、ステップS4において把持成功率が最大になる候補を最適把持位置として選択してもよい。 Preferably, when N is a natural number, N is set in advance as the number of gripping motions in which the learning result is not used for the calculation of the gripping success rate in step S3. After the number of times exceeds N, the gripping success rate is calculated using machine learning results in step S3, and the candidate with the maximum gripping success rate is set as the optimum gripping position in step S4. You may choose.

把持動作を実行した後、ワーク情報処理装置6は、カメラ2でハンド4の画像を撮影し(S6)、把持動作の成否を確認する(S7)。そして、ワーク情報処理装置6は、画像および把持位置座標、把持動作成否を保存し(S8)、ニューラルネットワークの学習処理を実行する(S9)。 After executing the gripping motion, the work information processing device 6 captures an image of the hand 4 with the camera 2 (S6), and confirms whether the gripping motion was successful or not (S7). Then, the workpiece information processing device 6 saves the image, the gripping position coordinates, and whether or not the gripping motion is to be created (S8), and executes the neural network learning process (S9).

また、学習処理の負荷が高い場合、把持成功率の算出に時間を要する場合も考えられる。本実施の形態では、ワーク情報処理装置6の把持位置候補検出部63で学習を行なう例を示したが、特にこれに限定する必要はなく、把持位置候補検出部63の学習処理をワーク情報処理装置6の専用の学習装置で行ってもよい。この場合、たとえば、ワーク情報処理装置6と学習装置をシリアル通信やI/O等で接続し、学習に用いる把持位置候補の座標値および三次元センサのXYZ座標データD、カメラの画像データR,G,B、把持動作の成否判定結果を、ワーク情報処理装置6から学習装置に送信する。学習装置は受信したデータに基づいて学習を行ない、学習結果をワーク情報処理装置6に送信する。ワーク情報処理装置6は学習装置から受信した新たな学習結果を用いて把持成功率を算出する。 Further, when the load of the learning process is high, it may take time to calculate the gripping success rate. In the present embodiment, an example in which learning is performed by the gripping position candidate detection unit 63 of the work information processing device 6 has been described, but there is no particular need to limit it to this, and the learning process of the gripping position candidate detection unit 63 can be performed by the work information processing. A dedicated learning device for the device 6 may be used. In this case, for example, the workpiece information processing device 6 and the learning device are connected by serial communication, I/O, etc., and the coordinate values of gripping position candidates used for learning, the XYZ coordinate data D of the three-dimensional sensor, the image data R of the camera, The work information processing device 6 transmits the success/failure determination result of G, B, and the gripping motion to the learning device. The learning device performs learning based on the received data and transmits the learning result to the work information processing device 6 . The workpiece information processing device 6 calculates the gripping success rate using the new learning result received from the learning device.

なお、本実施の形態では、学習にバックプロバケーション(誤差逆伝播法)を用いることとしたが、これ以外にもサポートベクタマシン等の教師あり学習法や、オートエンコーダ(自己符号化器)やk平均法、主成分分析などの教師なし学習法、およびそれらを複合した機械学習法を用いてもよい。 In this embodiment, back propagation (error backpropagation method) is used for learning, but other than this, supervised learning methods such as support vector machines, autoencoders (self-encoders), Unsupervised learning methods such as the k-means method, principal component analysis, and machine learning methods combining them may also be used.

以上説明したように、実施の形態1に係る把持装置によれば、三次元センサまたはカメラで実際に撮影したワーク画像と実際の把持動作結果を学習に用いることにより、ワークの寸法や表面性状のバラツキ、ハンドの現在の状態等を学習に反映させることができ、把持成功率の低下を軽減することができる。また、把持成功率の低下を軽減することができるため、作業のタクトタイムを短縮できる。 As described above, according to the gripping apparatus according to the first embodiment, by using the workpiece image actually photographed by the three-dimensional sensor or camera and the actual gripping operation result for learning, it is possible to determine the dimensions and surface texture of the workpiece. Variation, the current state of the hand, etc. can be reflected in the learning, and a drop in the gripping success rate can be reduced. In addition, since it is possible to reduce the decrease in gripping success rate, it is possible to shorten the tact time of the work.

[実施の形態2]
実施の形態1では現状の配置のワークのうち一番把持成功率の高いワークを選択した。しかし、隣接ワークとの位置関係によっては、ハンド4が挿入できないことがある。実施の形態2では、このような場合に把持作業を補助する。
[Embodiment 2]
In the first embodiment, the work with the highest gripping success rate is selected from among the works in the current arrangement. However, the hand 4 may not be inserted depending on the positional relationship with the adjacent work. In the second embodiment, the grasping work is assisted in such a case.

図15は、実施の形態2の把持装置の構成を示す図である。図15を参照して、把持装置1Aは、図1の把持装置1の構成に加えて、さらに、ワークを収容する容器(ワークトレー7)を載置する振動台8を備える。振動台8には、振動体が設けられている。また、把持装置1Aは、ワーク情報処理装置6に代えてワーク情報処理装置6Aを備える。カメラ2と、三次元センサ3と、ハンド4と、位置決め機構5については、図1の場合と同様であるので説明は繰り返さない。 FIG. 15 is a diagram showing a configuration of a grasping device according to Embodiment 2. FIG. Referring to FIG. 15, gripping apparatus 1A includes, in addition to the structure of gripping apparatus 1 of FIG. 1, a vibration table 8 on which a container (work tray 7) containing a workpiece is placed. The vibrating table 8 is provided with a vibrating body. Further, the gripping device 1A includes a work information processing device 6A instead of the work information processing device 6. As shown in FIG. The camera 2, the three-dimensional sensor 3, the hand 4, and the positioning mechanism 5 are the same as in the case of FIG. 1, so the description will not be repeated.

ワーク情報処理装置6Aは、把持位置候補の把持成功率が閾値よりも低い場合に振動台8を振動させて把持成功率を向上させるように試行する。 When the gripping success rate of the gripping position candidate is lower than the threshold value, the workpiece information processing device 6A vibrates the shaking table 8 to try to improve the gripping success rate.

ワーク情報処理装置6Aは、次回の把持動作において、ハンドで把持を行なう前に容器内のワークを撮影装置で撮影した画像に基づいて決定した把持位置に対応する把持成功率が判定値よりも低い場合には、振動台8によってワークの位置を変更する。 In the next gripping operation of the workpiece information processing device 6A, the gripping success rate corresponding to the gripping position determined based on the image of the workpiece in the container photographed by the photographing device before gripping by the hand is lower than the judgment value. In this case, the position of the work is changed by the vibration table 8 .

図16は、実施の形態2のワーク情報処理装置が実行する処理を説明するためのフローチャートである。図16のフローチャートの処理は、ステップS4の次にステップS51およびS52の処理を実行する点が図14で説明した処理と相違する。 FIG. 16 is a flowchart for explaining processing executed by the work information processing apparatus according to the second embodiment. The processing of the flowchart of FIG. 16 differs from the processing described with reference to FIG. 14 in that steps S51 and S52 are executed after step S4.

ワーク情報処理装置6Aは、画像を取得(S1)、把持対象の検出(S2)、把持位置候補の把持成功率を予測(S3)、優先度最大、かつ把持成功率最大の把持位置候補の選択(S4)という各処理を図14の場合と同様に順次行なう。 The workpiece information processing device 6A acquires an image (S1), detects a gripping target (S2), predicts the gripping success rate of gripping position candidates (S3), and selects a gripping position candidate with the highest priority and highest gripping success rate. Each process (S4) is sequentially performed in the same manner as in FIG.

そして、ワーク情報処理装置6Aは、ステップS51において、把持位置候補の予測された成功率Sがある閾値Tよりも高いか否かを判定する。 Then, the work information processing device 6A determines whether or not the predicted success rate S of the gripping position candidate is higher than a certain threshold value T in step S51.

把持位置候補の予測された成功率Sが閾値Tに到達しない場合(S51でNO)、振動台8を矢印の方向に一定時間振動させた後(S52)、再度ステップS1~S4の処理を実行し、閾値Tを超える成功率Sを与える把持位置候補の検出を試みる。 If the predicted success rate S of the gripping position candidate does not reach the threshold value T (NO in S51), vibrate the shaking table 8 in the direction of the arrow for a certain period of time (S52), and then execute steps S1 to S4 again. , and attempt to detect gripping position candidates that give a success rate S that exceeds the threshold T.

把持位置候補の予測された成功率Sが閾値Tより高くなった場合(S51でYES)、実施の形態1と同様に、ステップS5~S9の処理を実行する。 If the predicted success rate S of the gripping position candidate is higher than the threshold value T (YES in S51), steps S5 to S9 are executed as in the first embodiment.

なお、ステップS52の処理を数回繰り返しても成功率が向上した把持位置候補が検出されなかった場合、たとえば、ハンド4でワークをずらす動作をさせてもよい。 If a gripping position candidate with an improved success rate is not detected even after repeating the process of step S52 several times, for example, the hand 4 may be caused to shift the workpiece.

実施の形態2の把持装置は、実施の形態1の把持装置と同様な効果を奏するとともに、さらに、ワークの配置が悪いため把持成功率が高くない場合に把持成功率を向上させることができる。 The gripping device according to the second embodiment has the same effect as the gripping device according to the first embodiment, and can improve the gripping success rate when the gripping success rate is not high due to poor placement of the workpiece.

[実施の形態3]
実施の形態1では、学習は、把持成功率が高くなるように行なわれた。しかし、把持装置は、把持するだけでなく把持後のワークを次工程の加工等のために、作業台等に設置する必要もある。ハンド4の把持位置によっては、ワークが次工程の作業に最適な位置に配置されない場合も考えられる。実施の形態3では、把持動作に加えて配置動作も考慮して学習を実行する。
[Embodiment 3]
In Embodiment 1, learning was performed so as to increase the gripping success rate. However, it is necessary for the gripping device to not only grip the workpiece, but also to place the gripped workpiece on a workbench or the like for processing in the next process. Depending on the gripping position of the hand 4, the work may not be placed at the optimum position for the work in the next process. In the third embodiment, learning is performed in consideration of the placement motion as well as the gripping motion.

図17は、実施の形態3の把持装置の構成を示す図である。図17を参照して、把持装置1Bは、図1の把持装置1の構成において、撮像装置としてカメラ2Aとカメラ2Bを備える。カメラ2Aは、図1のカメラ2と同様なカメラである。カメラ2Bは、次工程のワーク作業台10に設置されたワークの位置を撮影する。把持装置1Bは、また、ワーク情報処理装置6に代えてワーク情報処理装置6Bを備える。カメラ2と、三次元センサ3と、ハンド4と、位置決め機構5については、図1の場合と同様である。 FIG. 17 is a diagram showing a configuration of a grasping device according to Embodiment 3. FIG. Referring to FIG. 17, a gripping device 1B has a camera 2A and a camera 2B as imaging devices in the configuration of the gripping device 1 of FIG. Camera 2A is a camera similar to camera 2 in FIG. The camera 2B photographs the position of the work placed on the work table 10 for the next process. The gripping device 1B also includes a work information processing device 6B in place of the work information processing device 6. As shown in FIG. The camera 2, three-dimensional sensor 3, hand 4, and positioning mechanism 5 are the same as in FIG.

すなわち、図17に示すように、撮影装置2は、ハンドで把持される前にワークが置いてある載置場所を撮影する第1カメラ2Aと、ハンドで把持された後にワークが配置される部材を撮影する第2カメラ2Bとを含む。ワーク情報処理装置6Bは、第2カメラ2Bから取得した画像データに基づいてワークの配置位置を決定し、配置位置が基準位置と一致するか否かを判定し判定結果に基づいて配置成功率を算出し、次回の把持動作において、ハンド4で把持を行なう前に載置場所に置かれているワークを第1カメラ2Aで撮影した画像に基づいて決定した把持位置に対応する把持成功率および配置成功率に基づいて、把持位置の採否を決定する。 That is, as shown in FIG. 17, the photographing device 2 includes a first camera 2A for photographing the placing place where the work is placed before being gripped by the hand, and a member on which the work is placed after being gripped by the hand. and a second camera 2B that captures the . The workpiece information processing device 6B determines the placement position of the workpiece based on the image data acquired from the second camera 2B, determines whether or not the placement position matches the reference position, and calculates the placement success rate based on the determination result. In the next gripping operation, the gripping success rate and placement corresponding to the gripping position determined based on the image of the workpiece placed on the placement location before gripping by the hand 4, which is captured by the first camera 2A. Adoption or rejection of the gripping position is determined based on the success rate.

図18は、実施の形態3のワーク情報処理装置が実行する処理を説明するためのフローチャートである。図18のフローチャートの処理は、ステップS7の次にステップS101~S103の処理を実行する点が図14で説明した処理と相違する。 FIG. 18 is a flowchart for explaining processing executed by the work information processing apparatus according to the third embodiment. The processing of the flowchart of FIG. 18 differs from the processing described with reference to FIG. 14 in that steps S101 to S103 are executed after step S7.

ワーク情報処理装置6Bは、ステップS1~S7の処理を図14の場合と同様に順次行なう。そして、ワーク情報処理装置6Bは、ステップS101において、把持したワークの設置動作を実行し、ステップS102においてカメラ2Bで設置位置の画像を撮影し、ステップS103において設置動作の成否を確認する。 Work information processing device 6B sequentially performs the processes of steps S1 to S7 in the same manner as in FIG. Then, in step S101, the workpiece information processing apparatus 6B executes the operation of setting the gripped workpiece, takes an image of the installation position with the camera 2B in step S102, and confirms the success or failure of the installation operation in step S103.

そして実施の形態1と同様に、ステップS8~S9の処理を実行する。ステップS9の学習処理では、把持成功率に加えて、設置成功率が考慮される。 Then, as in the first embodiment, the processes of steps S8 and S9 are executed. In the learning process of step S9, the installation success rate is considered in addition to the grasping success rate.

図19は、設置成功時に検出された画像を示す図である。目標位置にワークを配置した画像と、実際にハンド4で把持した後にワークをワーク作業台10に設置した画像とを比較すると、一致する。このように不一致の部分が無い場合には設置成功と判定される。 FIG. 19 is a diagram showing an image detected when installation is successful. Comparing the image in which the work is placed at the target position and the image in which the work is placed on the work table 10 after being actually gripped by the hand 4, they match. If there is no inconsistent part in this way, it is determined that the installation has been successful.

図20は、設置失敗時に検出された画像を示す図である。目標位置にワークを配置した画像と、実際にハンド4で把持した後にワークをワーク作業台10に設置した画像とを比較すると、不一致が生じる。このように不一致の部分がある場合には設置失敗と判定される。 FIG. 20 is a diagram showing an image detected when installation fails. When comparing the image of the work placed at the target position and the image of the work actually held by the hand 4 and placed on the work table 10, a discrepancy occurs. If there is such a mismatch, it is determined that the installation has failed.

ワーク情報処理装置6Bは、図19、図20に示したように、あらかじめ撮影されデータ保存部67に保存されていた目標位置に配置したワークの画像を、設置動作後のワークの画像と比較して、2つの画像が一致していれば成功、不一致ならば失敗と判定する。 As shown in FIGS. 19 and 20, the work information processing device 6B compares the image of the work placed at the target position that has been photographed in advance and stored in the data storage unit 67 with the image of the work after the setting operation. If the two images match, it is determined to be successful, and if they do not match, it is determined to be a failure.

実施の形態3の把持装置は、実施の形態1の把持装置と同様な効果を奏するとともに、さらに、ワークの把持位置が悪いため設置成功率が高くない場合に設置成功率を向上させることができる。 The gripping device according to the third embodiment has the same effects as the gripping device according to the first embodiment, and can improve the installation success rate even when the installation success rate is not high due to poor workpiece gripping positions. .

なお、実施の形態2と3を組み合わせた把持装置を用いても良い。
今回開示された実施の形態は、すべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した実施の形態の説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
It should be noted that a gripping device obtained by combining Embodiments 2 and 3 may be used.
The embodiments disclosed this time should be considered as examples and not restrictive in all respects. The scope of the present invention is indicated by the scope of the claims rather than the description of the above-described embodiments, and is intended to include all modifications within the scope and meaning equivalent to the scope of the claims.

1,1A,1B 把持装置、2,2A,2B カメラ、3 三次元センサ、4 ハンド、5 位置決め機構、6,6A,6B ワーク情報処理装置、7 ワークトレー、8 振動台、10 ワーク作業台、41,42 指、61 画像入力部、62 ワーク検出部、63 把持位置候補検出部、64 把持位置選択部、65 把持動作成否判定部、66 指令出力部、67 データ保存部。 1, 1A, 1B gripping device, 2, 2A, 2B camera, 3 three-dimensional sensor, 4 hand, 5 positioning mechanism, 6, 6A, 6B work information processing device, 7 work tray, 8 shaking table, 10 work workbench, 41, 42 fingers, 61 image input unit, 62 workpiece detection unit, 63 gripping position candidate detection unit, 64 gripping position selection unit, 65 gripping movement creation/non-creation determination unit, 66 command output unit, 67 data storage unit.

Claims (6)

ワークの表面を観察するための撮影装置と、
前記ワークの表面上の点の座標データを計測する三次元センサと、
前記ワークを把持するためのハンドと、
把持可能な姿勢に前記ハンドを位置決めする位置決め機構と、
前記撮影装置および前記三次元センサを用いて前記ワークの最適把持位置を検出し、前記位置決め機構および前記ハンドを制御するワーク情報処理装置とを備え、
前記ワーク情報処理装置は、前記三次元センサから取得した座標データまたは前記撮影装置から取得した画像データに基づいて前記ワークの把持位置を決定し、前記把持位置に基づいて前記ハンドが前記ワークを把持するように前記位置決め機構および前記ハンドを作動させ、前記ハンドを前記撮影装置によって撮影させ、取得した画像データに基づいて実際に前記ワークを把持できているか否かを判定し、判定結果と前記把持位置との関係を蓄積して前記把持位置における把持成功率を算出し、前記把持成功率に基づいて次回以降の把持動作時に採用する把持位置を決定し、
前記ワーク情報処理装置は、
前記三次元センサから取得した座標データまたは前記撮影装置から取得した画像データを用いて把持対象とする前記ワークの位置を検出するワーク検出部と、
前記ワーク検出部で検出された前記ワークの位置に基づいて前記ワークの周囲物と前記ハンドとの干渉を判定し、単数または複数の把持位置候補を検出する把持位置候補検出部と、
前記把持位置候補検出部で抽出された前記把持位置候補の中から前記最適把持位置を選択する把持位置選択部と、
前記最適把持位置に基づいて前記位置決め機構または前記ハンドに位置決め指令または把持・開放指令を出力する指令出力部と、
前記撮影装置から取得した画像データに基づいて実際に前記ワークを把持できているか否かを画像処理で判定する把持動作成否判定部とを含み、
前記把持位置候補検出部は、前記把持位置候補について、前記三次元センサまたは前記撮影装置から取得したデータと前記把持動作成否判定部の判定結果とを用いた機械学習結果により前記把持成功率を求め、
前記把持位置選択部は、前記把持成功率が最大になる候補を前記最適把持位置として選択し、
前記把持位置候補検出部は、一定回数の把持動作毎に前記機械学習結果の少なくとも一部をリセットする、把持装置。
an imaging device for observing the surface of the workpiece;
a three-dimensional sensor that measures coordinate data of points on the surface of the workpiece;
a hand for gripping the workpiece;
a positioning mechanism that positions the hand in a graspable posture;
a work information processing device that detects an optimum gripping position of the work using the photographing device and the three-dimensional sensor, and controls the positioning mechanism and the hand;
The workpiece information processing device determines a gripping position of the workpiece based on coordinate data acquired from the three-dimensional sensor or image data acquired from the imaging device, and the hand grips the workpiece based on the gripping position. The positioning mechanism and the hand are operated so that the hand is photographed by the photographing device, and it is determined whether or not the workpiece is actually gripped based on the acquired image data, and the determination result and the grip calculating a gripping success rate at the gripping position by accumulating the relationship with the position, determining a gripping position to be adopted in subsequent gripping operations based on the gripping success rate ;
The work information processing device includes:
a workpiece detection unit that detects the position of the workpiece to be gripped using the coordinate data acquired from the three-dimensional sensor or the image data acquired from the imaging device;
a gripping position candidate detection unit that determines interference between an object surrounding the workpiece and the hand based on the position of the workpiece detected by the workpiece detection unit, and detects one or more gripping position candidates;
a gripping position selection unit that selects the optimum gripping position from among the gripping position candidates extracted by the gripping position candidate detection unit;
a command output unit that outputs a positioning command or a gripping/releasing command to the positioning mechanism or the hand based on the optimum gripping position;
a grasping motion creation failure determination unit that determines whether or not the workpiece is actually grasped based on image data acquired from the photographing device by image processing;
The gripping position candidate detection unit obtains the gripping success rate for the gripping position candidates based on machine learning results using data acquired from the three-dimensional sensor or the imaging device and determination results of the gripping movement creation failure determination unit. ,
The gripping position selection unit selects a candidate that maximizes the gripping success rate as the optimal gripping position,
The gripping position candidate detection unit resets at least a part of the machine learning result every predetermined number of gripping operations .
前記把持位置候補検出部は、機械学習の学習データとして前記三次元センサから取得した座標データまたは前記撮影装置から取得した画像データ、把持動作を実行したときの把持位置、および前記把持動作成否判定部の判定結果とを用いて前記把持成功率を求める、請求項に記載の把持装置。 The gripping position candidate detection unit includes, as learning data for machine learning, coordinate data acquired from the three-dimensional sensor or image data acquired from the photographing device, a gripping position when a gripping motion is executed, and the gripping motion creation failure determination unit. 2. The grasping device according to claim 1 , wherein the grasping success rate is obtained using the determination result of . 予め定められたNを自然数とすると、前記把持位置候補検出部が、前記把持成功率の算出に学習結果を利用しない把持動作回数は、N回であり、
前記把持位置選択部は、N回目までの把持では前記把持位置候補のうち、前記ワークの画像上の重心位置に最も近い点を選択し、N回を超過してから前記機械学習結果を用いて得られた前記把持成功率が最大になる候補を前記最適把持位置として選択する、請求項に記載の把持装置。
When a predetermined N is a natural number, the number of gripping motions for which the gripping position candidate detecting unit does not use the learning result for calculating the gripping success rate is N times,
The gripping position selection unit selects a point closest to the center of gravity position on the image of the workpiece from among the gripping position candidates up to the Nth gripping, and after the Nth gripping is exceeded, the gripping position selection unit uses the machine learning result. 2. The gripping device according to claim 1 , wherein the obtained candidate with the highest gripping success rate is selected as the optimum gripping position.
前記把持位置候補検出部は、前記把持装置の稼働中に前記三次元センサから取得した座標データまたは前記撮影装置から取得した画像データと前記把持動作成否判定部の判定結果を用い、逐次前記機械学習結果を更新する、請求項に記載の把持装置。 The gripping position candidate detection unit sequentially performs the machine learning using the coordinate data acquired from the three-dimensional sensor or the image data acquired from the photographing device during the operation of the gripping device and the determination result of the gripping movement creation/non-creation determination unit. 2. The gripping device of claim 1 , wherein the results are updated. 前記ワークを収容する容器を載置する振動台をさらに備え、
前記ワーク情報処理装置は、次回の把持動作において、前記ハンドで把持を行なう前に前記容器内のワークを前記撮影装置で撮影した画像に基づいて決定した把持位置に対応する前記把持成功率が判定値よりも低い場合には、前記振動台によって前記ワークの位置を変更する、請求項1に記載の把持装置。
further comprising a vibrating table on which a container containing the work is placed,
In the next gripping operation, the workpiece information processing device determines the gripping success rate corresponding to the gripping position determined based on the image of the workpiece in the container captured by the photographing device before gripping by the hand. 2. The gripping device according to claim 1, wherein the shaking table changes the position of the workpiece when the value is lower than the value.
前記撮影装置は、
前記ハンドで把持される前に前記ワークが置いてある載置場所を撮影する第1カメラと、
前記ハンドで把持された後に前記ワークが配置されるべき配置場所を撮影する第2カメラとを含み、
前記ワーク情報処理装置は、前記第2カメラから取得した画像データに基づいて前記ワークの前記配置場所における配置位置を決定し、前記配置位置が基準位置と一致するか否かを判定し判定結果に基づいて配置成功率を算出し、
前記ワーク情報処理装置は、次回の把持動作において、前記ハンドで把持を行なう前に前記載置場所に置かれているワークを前記第1カメラで撮影し、撮影した画像に基づいて決定した把持位置に対応する前記把持成功率および前記配置成功率に基づいて、前記把持位置の採否を決定する、請求項1に記載の把持装置。
The imaging device is
a first camera that captures a place where the workpiece is placed before being gripped by the hand;
a second camera that captures an arrangement location where the work is to be arranged after being gripped by the hand;
The work information processing device determines a placement position of the work in the placement location based on the image data acquired from the second camera, determines whether the placement position matches a reference position, and determines whether or not the placement position matches a reference position. Calculate the placement success rate based on
In the next gripping operation, the workpiece information processing apparatus captures an image of the workpiece placed on the placement location with the first camera before gripping with the hand, and determines a gripping position based on the captured image. 2. The gripping device according to claim 1, wherein adoption or rejection of said gripping position is determined based on said gripping success rate and said placement success rate corresponding to .
JP2018140356A 2018-07-26 2018-07-26 gripping device Active JP7191569B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018140356A JP7191569B2 (en) 2018-07-26 2018-07-26 gripping device
PCT/JP2019/028757 WO2020022302A1 (en) 2018-07-26 2019-07-23 Grasping device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018140356A JP7191569B2 (en) 2018-07-26 2018-07-26 gripping device

Publications (2)

Publication Number Publication Date
JP2020015141A JP2020015141A (en) 2020-01-30
JP7191569B2 true JP7191569B2 (en) 2022-12-19

Family

ID=69181536

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018140356A Active JP7191569B2 (en) 2018-07-26 2018-07-26 gripping device

Country Status (2)

Country Link
JP (1) JP7191569B2 (en)
WO (1) WO2020022302A1 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7481427B2 (en) 2020-03-05 2024-05-10 ファナック株式会社 Removal system and method
JP6786136B1 (en) * 2020-04-17 2020-11-18 リンクウィズ株式会社 Information processing method, information processing system, program
WO2022239878A1 (en) * 2021-05-10 2022-11-17 코가플렉스 주식회사 Method for robot gripping and training method for robot gripping
JPWO2022250152A1 (en) * 2021-05-28 2022-12-01
JPWO2023042306A1 (en) * 2021-09-15 2023-03-23
WO2023042307A1 (en) * 2021-09-15 2023-03-23 ヤマハ発動機株式会社 Image processing device, tool gripping system, image processing method, and tool gripping method
DE102021210903A1 (en) 2021-09-29 2023-03-30 Robert Bosch Gesellschaft mit beschränkter Haftung Method for picking up an object using a robotic device
KR20230092293A (en) * 2021-12-17 2023-06-26 한국전자기술연구원 System and method for additive manufacturing process optimization of Data-based Powder Bed Fusion method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010207989A (en) 2009-03-11 2010-09-24 Honda Motor Co Ltd Holding system of object and method of detecting interference in the same system
JP2014210310A (en) 2013-04-18 2014-11-13 ファナック株式会社 Robot system equipped with robot for carrying work
JP2017030135A (en) 2015-07-31 2017-02-09 ファナック株式会社 Machine learning apparatus, robot system, and machine learning method for learning workpiece take-out motion
JP2017185577A (en) 2016-04-04 2017-10-12 ファナック株式会社 Machine learning device for performing learning by use of simulation result, mechanical system, manufacturing system and machine learning method
WO2018116589A1 (en) 2016-12-19 2018-06-28 株式会社安川電機 Industrial device image recognition processor and controller

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4142155A1 (en) * 1991-12-20 1993-06-24 Bosch Gmbh Robert DIGITAL ADAPTIVE CONTROL SYSTEM AND METHOD, ESPECIALLY FOR A COMBUSTION ENGINE
US5566273A (en) * 1993-12-30 1996-10-15 Caterpillar Inc. Supervised training of a neural network
JP6890422B2 (en) * 2016-03-02 2021-06-18 キヤノン株式会社 Information processing equipment, control methods and programs for information processing equipment

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010207989A (en) 2009-03-11 2010-09-24 Honda Motor Co Ltd Holding system of object and method of detecting interference in the same system
JP2014210310A (en) 2013-04-18 2014-11-13 ファナック株式会社 Robot system equipped with robot for carrying work
JP2017030135A (en) 2015-07-31 2017-02-09 ファナック株式会社 Machine learning apparatus, robot system, and machine learning method for learning workpiece take-out motion
JP2017185577A (en) 2016-04-04 2017-10-12 ファナック株式会社 Machine learning device for performing learning by use of simulation result, mechanical system, manufacturing system and machine learning method
WO2018116589A1 (en) 2016-12-19 2018-06-28 株式会社安川電機 Industrial device image recognition processor and controller

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
進藤 智則、中田 敦,ファナック/PFNは能動学習、グーグルらはシミュ レータピッキングや把持の機械学習でラベル収集が焦点,NIKKEI Robotics 第7号 ,日本,日経BP社,2016年01月10日,第3頁第20-73行

Also Published As

Publication number Publication date
JP2020015141A (en) 2020-01-30
WO2020022302A1 (en) 2020-01-30

Similar Documents

Publication Publication Date Title
JP7191569B2 (en) gripping device
JP7491971B2 (en) OBJECT GRASPING METHOD, OBJECT GRASPING PROGRAM, OBJECT GRASPING DEVICE, LEARNING METHOD, LEARNING PROGRAM, AND LEARNING DEVICE
US10894324B2 (en) Information processing apparatus, measuring apparatus, system, interference determination method, and article manufacturing method
JP4938115B2 (en) Work take-out device and work take-out method
JP6983524B2 (en) Information processing equipment, information processing methods and programs
JP5685027B2 (en) Information processing apparatus, object gripping system, robot system, information processing method, object gripping method, and program
US7966094B2 (en) Workpiece picking apparatus
JP6771744B2 (en) Handling system and controller
JP6931457B2 (en) Motion generation method, motion generator, system and computer program
US11285603B2 (en) Information processing apparatus, control method, robot system, and storage medium
US20040122552A1 (en) Workpiece taking-out apparatus
US11213954B2 (en) Workpiece identification method
JP2020055096A (en) Information processing device, information processing method and system
CN111745640B (en) Object detection method, object detection device, and robot system
JP2016196077A (en) Information processor, information processing method, and program
JP6322949B2 (en) Robot control apparatus, robot system, robot, robot control method, and robot control program
KR20220139254A (en) Workpiece identification method
JP2022160363A (en) Robot system, control method, image processing apparatus, image processing method, method of manufacturing products, program, and recording medium
JP2021115693A (en) Control device of robot system, control method of robot system, computer control program and robot system
WO2021149429A1 (en) Robot system control device, robot system control method, computer control program, and robot system
JP2021146403A (en) Control device and program
JP7388970B2 (en) robot system
JP2019214112A (en) Machine learning device, and robot system equipped with the same
KR102479343B1 (en) Apparatus and method for tracking food material and cooking robot system using the same
US20230264352A1 (en) Robot device for detecting interference of constituent member of robot

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210310

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220510

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220704

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221207

R150 Certificate of patent or registration of utility model

Ref document number: 7191569

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150