WO2023047574A1 - 作業教示方法、作業教示装置及びロボット - Google Patents
作業教示方法、作業教示装置及びロボット Download PDFInfo
- Publication number
- WO2023047574A1 WO2023047574A1 PCT/JP2021/035348 JP2021035348W WO2023047574A1 WO 2023047574 A1 WO2023047574 A1 WO 2023047574A1 JP 2021035348 W JP2021035348 W JP 2021035348W WO 2023047574 A1 WO2023047574 A1 WO 2023047574A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- work
- robot
- teaching
- grasped
- data
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 32
- 238000012937 correction Methods 0.000 claims abstract description 57
- 238000003384 imaging method Methods 0.000 claims description 8
- 239000003550 marker Substances 0.000 description 70
- 238000012360 testing method Methods 0.000 description 25
- 238000010586 diagram Methods 0.000 description 24
- 238000005259 measurement Methods 0.000 description 19
- 239000011159 matrix material Substances 0.000 description 7
- 238000005070 sampling Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 240000007594 Oryza sativa Species 0.000 description 1
- 235000007164 Oryza sativa Nutrition 0.000 description 1
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 239000003153 chemical reaction reagent Substances 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 235000009566 rice Nutrition 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/42—Recording and playback systems, i.e. in which the programme is recorded from a cycle of operations, e.g. the cycle of operations being manually controlled, after which this record is played back on the same machine
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/36—Nc in input of data, input key till input tape
- G05B2219/36442—Automatically teaching, teach by showing
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40116—Learn by operator observation, symbiosis, show, watch
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40391—Human to robot skill transfer
Definitions
- the present invention is a robot work teaching method that enables a robot to perform actual work with a simple configuration, and also enables a robot that performs high-speed work to teach a work motion of a teacher with high accuracy. and to provide a work teaching device.
- the hand of the robot 12 is an example of the gripping section of the present invention. Details of the left hand of the robot 12 that grips the test tube 320 will now be described with reference to FIGS.
- FIG. 13 (Method of Calculating Teaching Data 106 and Corrected Teaching Data 106) Details of the method of calculating the teaching data 106 and the corrected teaching data 106 will be described with reference to FIGS. 13 and 14.
- FIG. Although the reference path 104, the motion path 105, and the teaching data 106 all include data for both arms of the robot 12, the left arm will be described as an example for simplicity.
- correction step The procedure of the correction step will be explained along the flow chart of FIG.
- the teacher 11 leaves the workbench 10 and instead moves the robot 12 to a predetermined position in front of the workbench 10 by means of an automatic guided vehicle.
- the robot 12 does not hold anything, and the marker plate 321 is placed on the finger 620e of the left hand 620 as shown in FIG.
- the fingers 620d and 620e are spread apart so that the positional relationship between the marker plate coordinate system 3200 ( ⁇ LM ) and the left gripping unit coordinate system 6200 ( ⁇ LT ) matches that when the left hand 620 grips the test tube 320. Adjust width.
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Numerical Control (AREA)
Abstract
Description
上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。
<実施例1>
実施例1では、教示者が行う作業を高精度にロボットに教示することが可能な作業教示方法及び作業教示装置の例について、図1~図14を用いて説明する。
図1は、実施例1の作業教示装置の構成図である。実施例1では、教示者11が教示する作業の例として、作業台10において、右手で把持したマイクロピペット310を使って、左手で把持した試験管320に試薬を分注する作業を、ロボット12に教示する。作業教示装置1は、作業台10に設置されたモーションキャプチャシステム用のカメラ201~204と、マイクロピペット310に取り付けられたマーカープレート311と、試験管320に取り付けられたマーカープレート321と、制御装置100と、を備える。カメラ201~204は、本発明の撮像手段の一例である。ロボット12は、被把持物(実施例1では、マイクロピペット310及び試験管320)の把持、及び、把持した被把持物の移動を行う。ロボット12は、マイクロピペット310及び試験管320を把持及び移動する双腕を有し、可動範囲内で任意の位置に被把持物を移動させることが可能であり、且つ、把持物を任意の姿勢で把持することが可能である。ロボット12の動作は、制御装置100によって制御される。なお、実施例1では、ロボット12とは別体の制御装置100がロボット12に作業を教示するが、ロボット12に制御装置100を組み込んでも良い。また、制御装置100は、オンプレミスであっても良いし、クラウドであっても良い。
ロボット12は、頭部の目にあたる部分に設置されたステレオカメラ12cを備える。ロボット12は、首に1又は複数の関節軸を備え、ステレオカメラ12cを作業台10の任意の方向に向けることが可能である。ロボット12は、図示しない無人搬送車上に設置されており、予め作成した部屋の地図を用いて、部屋内を移動して作業台10の前に自律移動する。
制御装置100は、ポーズ計測部101、教示データ生成・修正部102及び教示データ実行部103を含む。ポーズ計測部101は、カメラ201~204が撮像した複数の画像から、マーカープレート311及び321の各々の三次元位置及び姿勢の時系列データを出力する。ポーズ計測部101は、本発明の出力手段の一例である。以下、マーカープレート311及び321の三次元位置及び姿勢をポーズと称する。ポーズ計測部101が出力するポーズの時系列データは、参照経路104又は動作経路105として、記録される。
図2は、制御装置のハードウェア構成を示すブロック図である。図2に示すように、制御装置100は、プロセッサ120と、通信インターフェース(以下、インターフェースをI/Fと略する)121と、主記憶装置122と、補助記憶装置123と、入出力I/F124と、上記した各ユニットを通信可能に接続するバス125と、を有する。
次に、被把持物を把持するロボット12のハンドの詳細について説明する。ロボット12のハンドは、本発明の把持部の一例である。ここでは、試験管320を把持するロボット12の左ハンドの詳細を、図5及び6を用いて説明する。
図7は、制御装置の動作を示したフローチャートである。図7に示すように、実施例1の制御装置100は、ロボット12に作業を教示する教示段階と、ロボット12に実作業を実行させる実行段階と、を実行する。ロボット12に作業を教示する教示段階は、教示者11が作業を実演して教示データ106を生成する生成ステップ(図9参照)と、教示データ106を修正する修正ステップ(図11参照)と、の2つの工程を有している。生成ステップでは、教示者11が被把持物を把持して移動させた際の被把持物の位置及び姿勢の時系列データを参照経路104として出力し、この参照経路104に対応するロボット12の教示データを生成する。そして、修正ステップでは、ロボット12による実作業の実行前に、教示データ106によりロボット12を動作させた際の被把持物の位置及び姿勢の時系列データを動作経路105として出力する。そして、修正ステップでは、この動作経路105を参照経路104と一致させるように教示データ106を修正する。その後、実行段階において、制御装置100は、教示データ106又は修正ステップで修正した教示データ106を用いて、ロボット12に実作業を実行させる。
まず、教示データ106を生成する生成ステップについて、図8及び9を用いて説明する。図8は、生成ステップにおける作業教示装置1の構成図であり、図9は、生成ステップの詳細を示すフローチャートである。生成ステップでは、まず、教示者11が作業台10に向かう。教示者11は、マーカープレート311及び321が取り付けられたマイクロピペット310及び試験管320を把持して移動する作業を実演する。ポーズ計測部101は、マーカープレート311及び321のポーズを所定のサンプリング周期(例えば10Hz)で計測し、マーカープレート座標系3100及び3200(ΣRM、ΣLM)のポーズの時系列データを参照経路104として出力し、記録する(S901)。このマーカープレート311及び321のポーズの時系列データが、本発明の参照経路(被把持物の位置及び姿勢の時系列データ)の一例である。続いて、教示データ生成・修正部102は、参照経路104に対応するロボット12の教示データ106を生成する。具体的には、教示データ生成・修正部102は、記録した参照経路104からロボット12の両腕の把持部座標系6200(ΣLT、ΣRT)のポーズの時系列データを生成し、これを教示データ106とする(S902)。また、教示データ生成・修正部102は、生成した教示データ106の実行が可能かどうかについて確認する(S903)。具体的には、教示データ生成・修正部102は、ロボット12が作業台10の前の所定の位置に設置されているものとして教示データ106に対する逆運動学計算を実施する。そして、ロボット12の関節角の解が得られるかどうか、得られた関節角の解が非連続でないかどうか、得られた関節角の解においてロボット12自身やロボット12と周囲環境との干渉が生じないかどうか、を確認する。いずれも問題が無く、教示データ106の実行が可能である場合、ロボット12での実行が可能なデータとして教示データ106を記録する(S904)。これにより、生成ステップは完了となる。なお、S903において、教示データ106の実行が不可能であると判断した場合は、教示者11にその旨を提示し、改めて参照経路104の計測(S901)を、やり直す。
次に、教示データ106を修正する修正ステップについて、図10及び11を用いて説明する。必要な計算の詳細については、後述するものとし、ここでは手順の流れについて説明する。図10は、修正ステップにおける作業教示装置1の構成図であり、図11は、修正ステップの詳細を示すフローチャートである。修正ステップでは、教示者11は作業台10から離れ、替わりに無人搬送車によりロボット12が作業台10の前の位置に移動する。ロボット12は、マーカープレート311及び321を取り付けたマイクロピペット310及び試験管320を把持する。ロボット12は、ステレオカメラ12cにより作業台10上のマーカー12mを計測し、作業台座標系2100(ΣW)を認識する(S1101)。作業台10に対するロボット12の立ち位置の誤差は、これにより把握される。次に、教示データ実行部103は、生成ステップで記録した教示データ106を用いてロボット12を動作させ、マーカープレート311及び321が取り付けられたマイクロピペット310及び試験管320を把持して、移動させる。このとき、ポーズ計測部101は、マーカープレート311及び321のポーズの時系列データを動作経路105として計測し、記録する(S1102)。このマーカープレート311及び321のポーズの時系列データは、本発明の動作経路(被把持物の位置及び姿勢の時系列データ)の一例である。マーカープレート311及び321のポーズの時系列データは、本発明の被把持物の位置及び姿勢の時系列データである。
次に、教示データ106又は修正した教示データ106を用いてロボット12が行う実作業について、図12を用いて説明する。図12は、教示段階が終了したロボット12に実作業を実行させる作業教示装置1の構成図である。教示段階の終了後、マーカープレート311及び321をマイクロピペット310及び試験管320から取り外す。また、カメラ201~204を作業台10から取り外す。ロボット12は、作業台10の前の位置に移動する。ロボット12は、ステレオカメラ12cにより作業台10上のマーカー12mを計測し、作業台座標系2100(ΣW)を認識する。作業台10に対するロボット12の立ち位置の誤差は、これにより把握される。次に、教示データ実行部103は、教示データ106又は修正した教示データ106を用いてロボット12に実作業を実行させる。ロボット12は、教示データ106又は修正した教示データ106に従って動作し、マイクロピペット310及び試験管320を把持し、移動させる。
教示データ106及び修正した教示データ106を算出する方法の詳細について、図13及び14を用いて説明する。なお、参照経路104、動作経路105及び教示データ106は、いずれもロボット12の両腕分のデータを含んでいるが、簡単のためここでは左腕を例として説明する。
S902では、次式により参照経路104から教示データ106を生成する。
実施例1では、ロボット12による実作業の実行前に、修正ステップS702を実行する。これにより、ロボット12による実作業中には、マーカープレート311及び321及び当該マーカープレート311及び321を撮像するカメラ201~204を設ける必要が無いので、簡単な構成でロボットに実作業を実行させることができる。
実施例2では、実施例1より作業の教示が簡単なロボットの作業教示装置について、図15及び16を用いて説明する。図15は、実施例2におけるロボット12の左ハンド620に設定された座標系を示す図であり、図16は、左ハンド620に設定された座標系とマーカープレート321に設定された座標系との関係を示す図である。図15及び16において、図5及び6と同じもの又は同一機能のものは同一の符号を付して重複する説明を省略する。実施例2におけるロボット12の左ハンド620は、開閉する2本の指620d及び620eを有し、これらの指620d及び620eの先端の凹部で試験管320を挟んで把持する。指620eの側面には、マーカープレート321を設置することが可能なマーカープレート設置部620fが形成されている。
生成ステップの手順については、実施例1と同様である。なお、実施例2の生成ステップで生成されるマーカープレート311及び321のポーズの時系列データは、本発明の参照経路(把持部の位置及び姿勢の時系列データ)の一例である。
修正ステップの手順について、図11のフローチャートに沿って説明する。修正ステップでは、教示者11は作業台10から離れ、替わりに無人搬送車によりロボット12を作業台10の前の所定の位置に移動させる。実施例1とは異なり、ロボット12には何も持たせず、図16のように左ハンド620の指620eにマーカープレート321を設置する。マーカープレート座標系3200(ΣLM)と左把持部座標系6200(ΣLT)との位置関係が、左ハンド620で試験管320を把持した時と一致するように、指620dと620eとの開き幅を調整する。右ハンドも同様に、マーカープレート311を設置し、右ハンドの指の開き幅を調整する。ロボット12は、ステレオカメラ12cにより作業台10上のマーカー12mを計測し、作業台座標系2100(ΣW)を認識する(S1101)。作業台10に対するロボット12の立ち位置の誤差は、これにより把握される。次に、教示データ実行部103は、生成ステップで記録した教示データ106を用いてロボット12を動作させ、マーカープレート311及び321が取り付けられた両ハンドを動作させる。このとき、ポーズ計測部101は、マーカープレート311及び321のポーズの時系列データを動作経路105として計測し、記録する(S1102)。マーカープレート311及び321のポーズの時系列データは、本発明の動作経路(把持部の位置及び姿勢の時系列データ)の一例である。
次に、教示データ106又は修正した教示データ106を用いてロボット12が行う実作業について、説明する。教示段階の終了後、マーカープレート311及び321をロボット12の両ハンドから取り外す。また、カメラ201~204を作業台10から取り外す。ロボット12は、作業台10の前の位置に配置される。ロボット12は、ステレオカメラ12cにより作業台10上のマーカー12mを計測し、作業台座標系2100(ΣW)を認識する。作業台10に対するロボット12の立ち位置の誤差は、これにより把握される。次に、教示データ実行部103は、教示データ106又は修正した教示データ106を用いてロボット12を動作し、マイクロピペット310及び試験管320を把持し、移動させる。教示されたロボット12による実作業中に試験管320を左ハンドで把持する様子は、図15に示す通りである。
実施例2では、修正ステップにおいてロボット12に被把持物を把持させる必要がないため、扱う被把持物の種類が多い場合に、作業教示の工数を低減することができる。
その他の効果については、実施例1と同様である。
本開示は、上述した実施形態に限定されるものでなく、様々な変形例を含んでいる。例えば、上述した実施形態は、本開示を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備える必要はない。また、ある実施形態の一部を他の実施形態の構成に置き換えることができる。また、ある実施形態の構成に他の実施形態の構成を加えることもできる。また、各実施形態の構成の一部について、他の実施形態の構成の一部を追加、削除又は置換することもできる。
Claims (15)
- 被把持物を把持する把持部を有し、前記把持部に把持された前記被把持物を移動させるロボットに作業を教示する作業教示装置により実行される作業教示方法であって、
前記作業教示方法は、
教示者が前記被把持物を把持して移動させた際の前記被把持物の位置及び姿勢の時系列データを参照経路として出力し、前記参照経路に対応する前記ロボットの教示データを生成する生成ステップと、
前記ロボットによる実作業の実行前に、前記教示データを用いて前記ロボットを動作させた際の前記被把持物又は前記把持部の位置及び姿勢の時系列データを動作経路として出力し、前記動作経路を前記参照経路と一致させるように前記教示データを修正する修正ステップと、
を有することを特徴とする作業教示方法。 - 前記参照経路、前記動作経路及び前記教示データは、前記ロボットが前記作業を行う作業環境を表す作業環境座標系を基準とし、
前記修正ステップは、前記ロボットに前記作業環境座標系を認識させること、及び、前記作業環境座標系を基準とした前記教示データを用いて前記ロボットを動作させること、を含む、
ことを特徴とする請求項1に記載の作業教示方法。 - 前記生成ステップは、前記ロボットが前記作業を行う作業環境に設置された複数の撮像手段によって撮像された複数の画像であって、前記教示者が把持して移動させる前記被把持物の複数の画像から前記参照経路を出力することを含み、
前記修正ステップは、前記複数の撮像手段によって撮像された複数の画像であって、前記ロボットが把持して移動させる前記被把持物の複数の画像から前記動作経路を出力することを含む、
ことを特徴とする請求項1に記載の作業教示方法。 - 前記複数の撮像手段は、前記被把持物に取り付けられた3個以上のマーカー又は前記把持部に取り付けられた3つ以上のマーカーを撮像する、
ことを特徴とする請求項3に記載の作業教示方法。 - 前記参照経路及び前記動作経路は、前記被把持物の位置及び姿勢の時系列データである、
ことを特徴とする請求項1に記載の作業教示方法。 - 前記教示データの修正は、前記参照経路と前記動作経路との誤差が規定値より大きい場合に、実行される、
ことを特徴とする請求項1に記載の作業教示方法。 - 前記修正ステップでは、前記参照経路と前記動作経路との誤差を用いて、前記教示データを修正する、
ことを特徴とする請求項1に記載の作業教示方法。 - 被把持物を把持する把持部を有し、前記把持部に把持された前記被把持物を移動させるロボットに作業を教示する作業教示装置であって、
教示者が前記被把持物を把持して移動させた際の前記被把持物の位置及び姿勢の時系列データを参照経路として出力する出力手段と、
前記出力手段によって出力された前記参照経路に対応する前記ロボットの教示データを生成する生成手段と、を備え、
前記出力手段は、前記教示データを用いて前記ロボットを動作させた際の前記被把持物又は前記把持部の位置及び姿勢の時系列データを動作経路として出力し、
前記生成手段は、前記ロボットによる実作業の実行前に、前記動作経路を前記参照経路と一致させるように前記教示データを修正する、
ことを特徴とする作業教示装置。 - 前記参照経路、前記動作経路及び前記教示データは、前記ロボットが前記作業を行う作業環境を表す作業環境座標系を基準とし、
前記ロボットは、前記作業環境座標系を認識してから、前記作業環境座標系を基準とした前記教示データにより動作する、
ことを特徴とする請求項8に記載の作業教示装置。 - 前記ロボットが前記作業を行う作業環境に設置された複数の撮像手段をさらに備え、
前記出力手段は、前記撮像手段によって撮像された前記被把持物の複数の画像から前記参照経路及び前記動作経路を出力する、
ことを特徴とする請求項8に記載の作業教示装置。 - 前記撮像手段は、前記被把持物に取り付けられた3個以上のマーカー又は前記把持部に取り付けられた3つ以上のマーカーを撮像する、
ことを特徴とする請求項10に記載の作業教示装置。 - 前記参照経路及び動作経路は、前記被把持物の位置及び姿勢の時系列データである、
ことを特徴とする請求項8に記載の作業教示装置。 - 前記生成手段は、前記参照経路と前記動作経路との誤差が規定値より大きい場合に、前記教示データを修正する、
ことを特徴とする請求項8に記載の作業教示装置。 - 前記生成手段は、前記参照経路と前記動作経路との誤差を用いて、前記教示データを修正する、
ことを特徴とする請求項8に記載の作業教示装置。 - 請求項8に記載の作業教示装置を備えるロボット。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE112021007731.7T DE112021007731T5 (de) | 2021-09-27 | 2021-09-27 | Aufgabenlehrverfahren und aufgabenlehrsystem |
JP2023549292A JPWO2023047574A5 (ja) | 2021-09-27 | 作業教示方法、及び作業教示システム | |
PCT/JP2021/035348 WO2023047574A1 (ja) | 2021-09-27 | 2021-09-27 | 作業教示方法、作業教示装置及びロボット |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2021/035348 WO2023047574A1 (ja) | 2021-09-27 | 2021-09-27 | 作業教示方法、作業教示装置及びロボット |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2023047574A1 true WO2023047574A1 (ja) | 2023-03-30 |
Family
ID=85720282
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2021/035348 WO2023047574A1 (ja) | 2021-09-27 | 2021-09-27 | 作業教示方法、作業教示装置及びロボット |
Country Status (2)
Country | Link |
---|---|
DE (1) | DE112021007731T5 (ja) |
WO (1) | WO2023047574A1 (ja) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06250730A (ja) * | 1993-03-01 | 1994-09-09 | Nissan Motor Co Ltd | 産業用ロボットの教示装置 |
JPH06324732A (ja) * | 1993-05-12 | 1994-11-25 | Toyoda Mach Works Ltd | 動作プログラム修正機構付教示点追従型装置 |
JP2011062793A (ja) * | 2009-09-18 | 2011-03-31 | Denso Wave Inc | ロボットの制御装置 |
JP2015054378A (ja) * | 2013-09-13 | 2015-03-23 | セイコーエプソン株式会社 | 情報処理装置、ロボット、シナリオ情報生成方法及びプログラム |
WO2015153739A1 (en) * | 2014-04-01 | 2015-10-08 | University Of South Florida | Systems and methods for planning a robot grasp based upon a demonstrated grasp |
JP2018051652A (ja) * | 2016-09-27 | 2018-04-05 | 株式会社日立製作所 | ロボットシステム |
JP2019119027A (ja) * | 2018-01-10 | 2019-07-22 | キヤノン株式会社 | ロボットシステムの制御方法、およびロボットシステム |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6821961B2 (ja) | 2016-06-09 | 2021-01-27 | いすゞ自動車株式会社 | ロボット作業教示方法 |
-
2021
- 2021-09-27 WO PCT/JP2021/035348 patent/WO2023047574A1/ja active Application Filing
- 2021-09-27 DE DE112021007731.7T patent/DE112021007731T5/de active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06250730A (ja) * | 1993-03-01 | 1994-09-09 | Nissan Motor Co Ltd | 産業用ロボットの教示装置 |
JPH06324732A (ja) * | 1993-05-12 | 1994-11-25 | Toyoda Mach Works Ltd | 動作プログラム修正機構付教示点追従型装置 |
JP2011062793A (ja) * | 2009-09-18 | 2011-03-31 | Denso Wave Inc | ロボットの制御装置 |
JP2015054378A (ja) * | 2013-09-13 | 2015-03-23 | セイコーエプソン株式会社 | 情報処理装置、ロボット、シナリオ情報生成方法及びプログラム |
WO2015153739A1 (en) * | 2014-04-01 | 2015-10-08 | University Of South Florida | Systems and methods for planning a robot grasp based upon a demonstrated grasp |
JP2018051652A (ja) * | 2016-09-27 | 2018-04-05 | 株式会社日立製作所 | ロボットシステム |
JP2019119027A (ja) * | 2018-01-10 | 2019-07-22 | キヤノン株式会社 | ロボットシステムの制御方法、およびロボットシステム |
Also Published As
Publication number | Publication date |
---|---|
DE112021007731T5 (de) | 2024-03-07 |
JPWO2023047574A1 (ja) | 2023-03-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9517563B2 (en) | Robot system using visual feedback | |
JP6966582B2 (ja) | ロボットモーション用のビジョンシステムの自動ハンドアイ校正のためのシステム及び方法 | |
JP6429473B2 (ja) | ロボットシステム、ロボットシステムの校正方法、プログラム、およびコンピュータ読み取り可能な記録媒体 | |
JP6430986B2 (ja) | ロボットを用いた位置決め装置 | |
JP5744587B2 (ja) | ロボット制御装置、ロボット制御方法、プログラム及び記録媒体 | |
US10618166B2 (en) | Teaching position correction device and teaching position correction method | |
EP3221095B1 (en) | Robot and robot system | |
JP4021413B2 (ja) | 計測装置 | |
JP4191080B2 (ja) | 計測装置 | |
JP5371927B2 (ja) | 座標系校正方法及びロボットシステム | |
WO2018043525A1 (ja) | ロボットシステム、ロボットシステム制御装置、およびロボットシステム制御方法 | |
JP7035657B2 (ja) | ロボットの制御装置、ロボット、ロボットシステム、並びに、カメラの校正方法 | |
JP2015042437A (ja) | ロボットシステム及びロボットシステムの校正方法 | |
JP2014151427A (ja) | ロボットシステム及びロボットシステムの制御方法 | |
JP2013036988A (ja) | 情報処理装置及び情報処理方法 | |
JP6897396B2 (ja) | 制御装置、ロボットシステムおよび制御方法 | |
JP5450242B2 (ja) | マニピュレータのキャリブレーション方法及びロボット制御システム | |
JP2022183032A (ja) | カメラガイド装置のハンドアイ較正 | |
JP2024512827A (ja) | 適応コンプライアンスに基づいたロボット組立のためのシステムおよび方法 | |
CN115519536A (zh) | 用于3d眼手协调的误差校正和补偿的系统和方法 | |
JP5574805B2 (ja) | 視覚センサを有するマニピュレータのセンサキャリブレーション方法及びロボット制御システム | |
WO2023047574A1 (ja) | 作業教示方法、作業教示装置及びロボット | |
WO2023013740A1 (ja) | ロボット制御装置、ロボット制御システム、及びロボット制御方法 | |
JP2021045810A (ja) | モーション情報生成装置、エンドエフェクタ、ロボット及びロボットシステム | |
JPH0727408B2 (ja) | 固定3次元視覚併用ロボットハンドリング装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 21957728 Country of ref document: EP Kind code of ref document: A1 |
|
WWE | Wipo information: entry into national phase |
Ref document number: 2023549292 Country of ref document: JP |
|
WWE | Wipo information: entry into national phase |
Ref document number: 112021007731 Country of ref document: DE |
|
WWE | Wipo information: entry into national phase |
Ref document number: 18291339 Country of ref document: US |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 21957728 Country of ref document: EP Kind code of ref document: A1 |