JPH05150835A - ロボツトによる組み立て装置 - Google Patents

ロボツトによる組み立て装置

Info

Publication number
JPH05150835A
JPH05150835A JP31684491A JP31684491A JPH05150835A JP H05150835 A JPH05150835 A JP H05150835A JP 31684491 A JP31684491 A JP 31684491A JP 31684491 A JP31684491 A JP 31684491A JP H05150835 A JPH05150835 A JP H05150835A
Authority
JP
Japan
Prior art keywords
robot
posture
camera
hand
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP31684491A
Other languages
English (en)
Inventor
Tadashi Asaoka
忠 朝岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP31684491A priority Critical patent/JPH05150835A/ja
Publication of JPH05150835A publication Critical patent/JPH05150835A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Automatic Assembly (AREA)
  • Manipulator (AREA)
  • Control Of Position Or Direction (AREA)

Abstract

(57)【要約】 【目的】 本発明は、組み立てられる部品の状態及びロ
ボットの動作結果を逐次監視しつつ組み立て作業を実行
する際、高精度の誤差補正を行うための画像認識情報の
選択手段を備えたロボットによる組み立て装置を提供す
る。 【構成】 組み立てられる部品の状態及びロボットの動
作結果を逐次監視しつつ組み立て作業を実行するロボッ
トによる組み立て装置であって、ロボットの位置及び/
又は姿勢の補正及び制御のための画像情報を撮像する手
段と、画像情報を記憶する手段と、ロボットの取り得る
全ての把持位置及び/又は姿勢の中で、ロボットの把持
位置及び/又は姿勢の認識に適した把持位置及び/又は
姿勢を選択する手段と、選択されたロボットの把持位置
及び/又は姿勢に対する画像認識情報を基にロボットの
位置及び/又は姿勢を補正する手段と、を備えたことを
特徴とする。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、認識部を利用したロボ
ットによる組み立て装置に関するものであって、特にロ
ボットの移動の際に生じる誤差の補正手段の改善に向け
られる。
【0002】
【従来の技術】近年、ロボットによる組み立て作業に
は、特に製造業等における自動化及び効率化の発展とと
もに、多くの注目と期待が寄せられている。また、より
知的な作業が実行できる装置が要求されている。ロボッ
トに組み立て作業を行わせる場合、ロボットの誤差補正
が重要な技術の一つとなる。ロボットの誤差のために計
画部により計画された通りにロボットが正確に部品を把
持できなくなる事態が生じる。
【0003】従来技術では、ロボットによる組み立て作
業における誤差補正は、ロボットが部品を把持する直前
に、1台もしくは複数台のカメラより入力され、コンピ
ュータにより認識される画像情報から求められる誤差を
もとに行われる。詳しくは、ロボットのハンドが部品に
接近した時に認識部がカメラからの画像情報を認識して
ハンドの現在の位置及び/又は姿勢を求める。現在の位
置及び/又は姿勢と目標とする位置及び/又は姿勢との
間に誤差が存在する場合は、ハンドの現在の位置及び/
又は姿勢が目標とする位置及び/又は姿勢になるように
ハンドの現在の位置及び/又は姿勢を補正するものであ
る。
【0004】このような従来技術の場合、部品に対する
ロボットの把持位置及び/又は姿勢が考慮されていない
ため、ある把持位置及び/又は姿勢によってはロボット
自身、把持する部品、その他の物体等によりハンドが隠
されてしまい、カメラの視点から認識対象であるハンド
の一部あるいは全体が見えなくなる場合が生じる。
【0005】そのため、認識部がカメラからの誤差補正
のための画像情報を認識してハンドの正確な位置及び/
又は姿勢を求めることが困難となり、高い精度と安定性
を得ることができなくなる場合が生じることになる。
【0006】
【発明が解決しようとする課題】このように、ロボット
による組み立て作業において、ロボットの移動時の誤差
補正は、認識部へ入力されるカメラにて捉えられた画像
情報に基づいて行われるため、充分な情報量が入力され
ていないと精度良い誤差補正が行えない。
【0007】本発明は、組み立てられる部品の状態及び
ロボットの動作結果を逐次監視しつつ組み立て作業を実
行する際、高精度の誤差補正を行うための画像情報認識
手段を具備したロボットによる組み立て装置を提供する
ものである。
【0008】
【課題を解決するための手段】組み立てられる部品の状
態及びロボットの動作結果を逐次監視しつつ組み立て作
業を実行するロボットによる組み立て装置であって、ロ
ボットの位置及び/又は姿勢の補正及び制御のための画
像情報を撮像する手段と、画像情報を記憶する手段と、
ロボットの取り得る全ての把持位置及び/又は姿勢の中
から、ロボットの位置及び/又は姿勢の認識に適したロ
ボットの把持位置及び/又は姿勢を選択する手段と、選
択されたロボットの把持位置及び/又は姿勢に対応する
画像認識情報を基にロボットの位置及び/又は姿勢を補
正する手段と、を備えたことを特徴とする。
【0009】
【作用】本発明によれば、ロボットの位置及び/又は姿
勢の補正は、カメラにより撮像され認識される画像認識
情報が基となり決定されるため、ロボットの取り得る全
ての把持位置及び/又は姿勢の中から、ロボットの位置
及び/又は姿勢の補正のための最も良好な画像認識情報
が得られるようにな把持位置及び/又は姿勢が選択され
ることで、高精度の誤差補正を実行することができる。
【0010】
【実施例】図に基づいて本発明の実施例を説明する。
【0011】図2に本発明におけるロボットによる組み
立て装置の概念図を示す。
【0012】組み立てられる部品の状態及びロボットの
動作結果を監視しつつ組み立て作業を実行するロボット
による組み立て装置は、図2に示す如く、組み立てられ
る部品を移動することが可能なロボット21と、ロボッ
ト及び/又は前記部品の位置及び/又は姿勢を組み立て
作業中の各静止時点における画像を基に認識する認識部
23と、前記画像を入力するカメラ22と、ロボットの
動作を計画する計画部24と、外部から組み立て作業に
必要な情報を入力するための入力部25と、各部品の配
置の初期状態、組み立て後の目標状態、初期状態及び目
標状態における各部品間の支持関係、組み立て作業中の
所定時点における各部品のあるべき配置を示す中間状
態、ロボット及び各部品の形状であるモデルに係わる情
報を記憶する記憶部26と、ロボットの位置及び/又は
姿勢を補正又は制御する制御部27から構成される。
【0013】ここで記憶部26には、下記の情報が記憶
される。 a)初期状態情報:組み立て作業開始前の各部品の位置
及び/又は姿勢の情報、 b)目標状態情報:組み立て作業終了(組み立て完成)
後の各部品の位置及び姿勢の情報、 c)認識モデル情報:認識対象物のモデルとして、各部
品及びロボットの境界表面(B−rep)モデルの情
報、 d)作業知識:ロボットの動作範囲、作業台、障害物な
ど作業の対象とはならないが、計画部24がロボットの
動作を計画するのに必要な上記a)、b)、c)以外の
情報、 が、a)及びb)は認識部23あるいは入力部25か
ら、c)及びd)は入力部25から入力され記憶され
る。
【0014】先ず、入力部25から記憶部26に必要な
情報が入力される。この時、初期状態及び目標状態の情
報をカメラ22を通じて認識部23から入力する場合
は、記憶部26の初期状態及び目標状態の情報が蓄積さ
れるべきところには未入力状態にしておく。入力が終了
すると、入力部25は計画部24に信号を送る。
【0015】計画部24は、入力部25から信号を受け
ると、記憶部26にロボット21の動作を計画するのに
必要な情報を問い合わせる。ここで、記憶部26の初期
状態及び目標状態の情報が未蓄積の場合、記憶部26
は、認識部23を起動させる。それを受けた認識部23
は記憶部26に記憶されている各部品のモデルを利用し
てカメラ22からの画像情報を認識し、初期状態及び目
標状態を記憶部26の初期状態及び目標状態の情報が蓄
積されるべきところに入力する。
【0016】計画部24は、記憶部26に記憶されてい
る情報に基づき各部品の組み立て手順、各部品に対する
ロボット21の把持位置及び/又は姿勢、ロボット21
の動作軌道を計画する。続いて、計画部24は、計画し
たロボット21の動作に関する情報を制御部27に送
る。
【0017】制御部27は、計画部24から送られてき
た動作をロボット21に実行させ、部品の組み立て作業
を行う。
【0018】次に、本発明の特徴の一つであるロボット
が把持位置及び/又は姿勢へ移動する際の計画法につい
て説明する。
【0019】ロボット21が部品を把持する場合、ロボ
ット21が移動する際の位置及び/又は姿勢の誤差が生
じる。そのためロボット21が部品を正確に把持できな
くなる場合が生じる。従って、ロボット21が部品を把
持する直前にそのハンドの位置及び/又は姿勢の誤差を
補正しなければならない。
【0020】ハンドの位置及び/又は姿勢の誤差の補正
は、カメラ22から得られる画像情報に基づき行われ
る。即ち、ハンドが部品に接近した時、認識部23は予
め記憶部26に記憶されているロボット21のハンドの
モデル情報を利用し、カメラ22からの画像情報を認識
してハンドの現在の位置及び/又は姿勢を求める。この
ようにして求められた位置及び/又は姿勢と、目標とす
る位置及び/又は姿勢との間に誤差が生じている場合、
制御部27はそれを認識部23から受け、ハンドの位置
及び/又は姿勢を補正する。
【0021】この時、ロボット21の把持位置及び/又
は姿勢が問題となる。ロボット21のハンドは、ロボッ
ト21の把持位置及び/又は姿勢により、ロボット21
自身、把持する部品あるいはその他の物体等により隠さ
れてしまい、カメラ22の視点からハンドの一部あるい
は全体が死角に入る場合が生じる。認識部23がカメラ
22からの画像情報を認識してハンドの現在の位置及び
/又は姿勢を求める場合、高い精度と安定性を得るに
は、認識対象であるハンドがカメラ22の視点から最も
見えやすい状態になるようにロボットの把持位置及び/
又は姿勢を計画しなければならない。
【0022】次に、ロボット21の取り得る全ての把持
位置及び/又は姿勢の中からカメラ22の視点から認識
対象であるハンドが最も見えやすい状態になるためのロ
ボット21の把持位置及び/又は姿勢を計画部24が選
択する方法を説明する。
【0023】本発明におけるロボット21の把持位置及
び/又は姿勢を計画部24が選択する方法の特徴は、ロ
ボット21の取り得る全ての把持位置及び/又は姿勢に
対して予測される画像情報を定量的に評価する方法を採
用したところにある。
【0024】先ず、ロボット21のモデルをある把持位
置及び/又は姿勢に移動させた場合のロボット21のモ
デルの各部分の位置及び/又は姿勢を計算する。続いて
ロボット21及び各部品のモデルをその位置及び/又は
姿勢とカメラ・パラメータを用いてカメラ22の画面に
投影した場合についてコンピュータ・グラフィックス
(CG)を用いてシミュレーションする。CGのロボッ
ト21のハンドのモデルにおける稜線について、CGの
ロボット21のハンド以外の部分のモデル及び各部品の
モデルにおけるそれぞれの面によって隠されずに見えて
いる部分を求めてその部分の長さを3次元空間中での長
さに換算した値の総和をSとする。ここで多眼視の場合
は、それぞれの画面の少なくとも一方の画面で見えてい
るロボット21のハンドのモデルの稜線についてSを計
算する。ロボット21のハンドのモデルにおける全ての
稜線の長さを3次元空間中での長さに換算した値の総和
をMとする。すると評価値Pは次式で表される。
【0025】P=S/M ・・・・・・(1) これを全ての可能な把持位置及び/又は姿勢に対して行
い、それぞれの評価値Pを比較する。評価値Pが最大と
なる把持位置及び/又は姿勢を選択する。このようにし
て、カメラ22の視点から最もハンドが見えやすいロボ
ット21の把持位置及び/又は姿勢が決定される。
【0026】次に本実施例において、誤差補正に適した
ロボットの把持位置及び/又は姿勢を計画する手順につ
いて説明する。図1に本実施例のロボットがその把持位
置及び/又は姿勢を決定するまでのフローチャートを示
す。図3は本実施例で使用するロボットのアームを示
し、その先端には部品を把持するためのハンドHが装着
している。また、図4は、組み立てられるL字型の部品
Oと、ロボット及び部品Oの画像情報を撮像する2台の
カメラA及びBの配置を示す。
【0027】(1)先ず、入力されたロボットの取り得
る把持位置及び/又は姿勢に、ロボットのモデルを移動
させ、ロボット及び部品OのモデルをカメラA及びBの
画面に投影した場合についてシミュレーションする。
【0028】本実施例では、ロボットのハンドHのこの
部品Oに対し可能な3形態の把持位置及び/又は姿勢
(図5(a)〜(c))を想定し、カメラA及びBが撮
像するであろうと予測される画像情報を基にロボットの
把持位置及び/又は姿勢の決定を行う場合を考える。
【0029】図6は、これらの把持位置及び/又は姿勢
に対しロボット及び部品OをカメラA及びBが撮像する
であろうと予測される画面を、それぞれのモデルを使っ
てシミュレーションしたCGを示す。図6における
(a)、(b)、(c)は、それぞれ図5に示す3形態
(a)、(b)、(c)に対応するCGを示す。また、
図6におけるカメラA及びカメラBは、カメラA及びB
がそれぞれ撮像するであろうと予測されるCGを示す。
図7は、一方向から見たハンドHの全稜線を示し、図5
の3形態((a)、(b)、(c))の把持位置及び/
又は姿勢について、カメラA及びBの視点から見えるで
あろうと予測される稜線をそれぞれ太線で示している。
【0030】図6及び図7から、カメラの配置によりロ
ボットの見え方がそれぞれ異なり、また、ロボットの把
持位置及び/又は姿勢により、部品またはロボット自身
が障害となりロボットのハンドの見える領域が制限され
ることがわかる。
【0031】(2)図7において、カメラA、カメラ
B、または、カメラAとカメラBの両方の視点から見え
るであろうと予測されるハンドHのモデルの稜線の長さ
の総和を図5の3形態((a)、(b)、(c))につ
いてそれぞれ求め、S(a)、S(b)、S(c)とす
る。続いて、式(1)より、これらの評価値P(a)、
P(b)、P(c)をそれぞれ求める。
【0032】実際には、ロボットのハンドHのこの部品
Oに対し可能な全ての把持位置及び/又は姿勢について
評価値Pを求める。
【0033】表1は、本実施例のそれぞれの把持位置及
び/又は姿勢(図5(a)、(b)、(c))における
カメラA及びカメラBが捉えるであろうと予測されるハ
ンドHのモデルの稜線から求めた評価値Pを示す。
【0034】
【表1】
【0035】(3)可能な全ての把持位置及び/又は姿
勢について評価値Pを求めた後、次に、これらの評価値
Pを比較する。この場合、表1から、ロボットの把持位
置及び/又は姿勢が、単眼視のカメラAに対しては図5
(a)、カメラBに対しては図5(c)、また、多眼視
(カメラAとカメラB)に対しては図5(c)の時に、
評価値Pがそれぞれ最大値となることがわかる。即ち、
それぞれのカメラ視点に対して、それぞれのロボットの
把持位置及び/又は姿勢が、ハンドの最も見えやすい把
持位置及び/又は姿勢にあることを示す。
【0036】(4)このようにして求められたロボット
のハンドHの部品Oに対し可能な全ての把持位置及び/
又は姿勢についての評価値Pのうち、最大となる評価値
Pに対応する把持位置及び/又は姿勢を選択し、この把
持位置及び/又は姿勢にて得られる画像情報を基にロボ
ットの誤差補正が実行される。
【0037】このようにして選択されたロボットの把持
位置及び/又は姿勢で誤差補正を実行した場合、従来技
術に比べ補正処理のために入力される画像認識情報が多
くなるため、高精度の補正処理を実行することができ
る。これらの操作((1)〜(4))を基に計画したロ
ボットの把持位置及び/又は姿勢に対して誤差を補正す
るため、安定性の良好な組み立て作業を行うことができ
る。
【0038】
【発明の効果】本発明によれば、ロボットによる組み立
て作業において、ロボットの部品に対する把持位置及び
/又は姿勢の補正は、ロボットの取り得る全ての位置及
び/又は姿勢の中で、ロボットの位置及び/又は姿勢の
補正のための最も良好な画像認識情報が得られる把持位
置及び/又は姿勢が選択されることで、高精度の誤差補
正を実行でき、安定性の良い組み立て作業を行うことが
できる。
【図面の簡単な説明】
【図1】本発明一実施例のロボットの把持位置及び/又
は姿勢決定までの過程を示すフローチャートである。
【図2】本発明におけるロボットによる組み立て装置の
概念図である。
【図3】本発明一実施例におけるロボットのアームを示
す図である。
【図4】本発明一実施例のロボットによる組み立て作業
におけるカメラ及び部品の配置を示す図である。
【図5】本発明一実施例におけるロボットの部品に対す
る把持位置及び/又は姿勢の形態例を示す図である。
【図6】本発明一実施例におけるロボットの部品に対す
る把持位置及び/又は姿勢についてカメラから見えるで
あろうと予測される画面をシミュレーションしたCGを
示す図である。
【図7】本発明一実施例におけるカメラから見えるであ
ろうと予測されるロボットのハンドのモデルの稜線を示
す図である。
─────────────────────────────────────────────────────
【手続補正書】
【提出日】平成4年9月3日
【手続補正1】
【補正対象書類名】明細書
【補正対象項目名】0012
【補正方法】変更
【補正内容】
【0012】組み立てられる部品の状態及びロボットの
動作結果を監視しつつ組み立て作業を実行するロボット
による組み立て装置は、図2に示す如く、組み立てられ
る部品を移動することが可能なロボット21と、ロボッ
ト及び/又は前記部品の位置及び/又は姿勢を組み立て
作業中の各静止時点における画像を基に認識する認識部
23と、前記画像を入力するカメラ22と、ロボットの
動作を計画する計画部24と、外部から組み立て作業に
必要な情報を入力するための入力部25と、各部品の配
置の初期状態、組み立て後の目標状態、初期状態及び目
標状態における各部品間の支持関係、組み立て作業中の
所定時点におけるロボットと各部品のあるべき配置を示
す中間状態、ロボット及び各部品の形状であるモデルに
係わる情報を記憶する記憶部26と、ロボットの位置及
び/又は姿勢を補正又は制御する制御部27から構成さ
れる。
【手続補正2】
【補正対象書類名】明細書
【補正対象項目名】0018
【補正方法】削除
【手続補正3】
【補正対象書類名】明細書
【補正対象項目名】0038
【補正方法】変更
【補正内容】
【0038】
【発明の効果】本発明によれば、ロボットによる組み立
て作業において、ロボットの部品に対する位置及び/又
は姿勢の補正は、ロボットの取り得る全ての把持位置及
び/又は姿勢の中で、ロボットの位置及び/又は姿勢の
補正のための最も良好な画像認識情報が得られる把持位
置及び/又は姿勢が選択されることで、高精度の誤差補
正を実行でき、安定性の良い組み立て作業を行うことが
できる。
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.5 識別記号 庁内整理番号 FI 技術表示箇所 G05D 3/12 W 9179−3H

Claims (1)

    【特許請求の範囲】
  1. 【請求項1】組み立てられる部品の状態及びロボットの
    動作結果を逐次監視しつつ組み立て作業を実行するロボ
    ットによる組み立て装置であって、 前記ロボットの位置及び/又は姿勢の補正及び制御のた
    めの画像情報を撮像する手段と、 前記画像情報を記憶する手段と、 前記ロボットの取り得る全ての把持位置及び/又は姿勢
    の中から、該ロボットの位置及び/又は姿勢の認識に適
    した把持位置及び/又は姿勢を選択する手段と、 前記選択されたロボットの把持位置及び/又は姿勢に対
    応する画像認識情報を基に該ロボットの位置及び/又は
    姿勢を補正する手段と、を備えたことを特徴とするロボ
    ットによる組み立て装置。
JP31684491A 1991-11-29 1991-11-29 ロボツトによる組み立て装置 Pending JPH05150835A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP31684491A JPH05150835A (ja) 1991-11-29 1991-11-29 ロボツトによる組み立て装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP31684491A JPH05150835A (ja) 1991-11-29 1991-11-29 ロボツトによる組み立て装置

Publications (1)

Publication Number Publication Date
JPH05150835A true JPH05150835A (ja) 1993-06-18

Family

ID=18081550

Family Applications (1)

Application Number Title Priority Date Filing Date
JP31684491A Pending JPH05150835A (ja) 1991-11-29 1991-11-29 ロボツトによる組み立て装置

Country Status (1)

Country Link
JP (1) JPH05150835A (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011000703A (ja) * 2009-05-19 2011-01-06 Canon Inc カメラ付きマニピュレータ
JP2013043271A (ja) * 2011-08-26 2013-03-04 Canon Inc 情報処理装置、情報処理装置の制御方法、およびプログラム
JP2013052496A (ja) * 2011-09-06 2013-03-21 Toyota Motor Corp ロボットアーム制御装置、制御方法及びプログラム
JP2014184542A (ja) * 2013-03-25 2014-10-02 Seiko Epson Corp ロボット制御方法、ロボット制御装置、ロボット、ロボットシステム、及びプログラム
JP2016132086A (ja) * 2015-01-22 2016-07-25 三菱電機株式会社 ワーク供給装置およびワーク把持姿勢計算方法
WO2022119652A1 (en) * 2020-12-01 2022-06-09 Intrinsic Innovation Llc Generating robotic control plans
WO2022162769A1 (ja) * 2021-01-27 2022-08-04 川崎重工業株式会社 ロボットシステム、移動経路生成装置および移動経路生成方法

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011000703A (ja) * 2009-05-19 2011-01-06 Canon Inc カメラ付きマニピュレータ
JP2013043271A (ja) * 2011-08-26 2013-03-04 Canon Inc 情報処理装置、情報処理装置の制御方法、およびプログラム
US9727053B2 (en) 2011-08-26 2017-08-08 Canon Kabushiki Kaisha Information processing apparatus, control method for information processing apparatus, and recording medium
JP2013052496A (ja) * 2011-09-06 2013-03-21 Toyota Motor Corp ロボットアーム制御装置、制御方法及びプログラム
JP2014184542A (ja) * 2013-03-25 2014-10-02 Seiko Epson Corp ロボット制御方法、ロボット制御装置、ロボット、ロボットシステム、及びプログラム
JP2016132086A (ja) * 2015-01-22 2016-07-25 三菱電機株式会社 ワーク供給装置およびワーク把持姿勢計算方法
WO2022119652A1 (en) * 2020-12-01 2022-06-09 Intrinsic Innovation Llc Generating robotic control plans
WO2022162769A1 (ja) * 2021-01-27 2022-08-04 川崎重工業株式会社 ロボットシステム、移動経路生成装置および移動経路生成方法

Similar Documents

Publication Publication Date Title
US11338435B2 (en) Gripping system with machine learning
JP5852364B2 (ja) 情報処理装置、情報処理装置の制御方法、およびプログラム
CN104936748B (zh) 徒手机器人路径教导
JP3300682B2 (ja) 画像処理機能を持つロボット装置
JP2019018272A (ja) モーション生成方法、モーション生成装置、システム及びコンピュータプログラム
JP2001105359A (ja) ロボットシステム用グラフィック表示装置
CN113492393A (zh) 一种由人演示的机器人示教
US20130111731A1 (en) Assembling apparatus and method, and assembling operation program
CN104802186A (zh) 制作用于拍摄工件的机器人程序的机器人程序设计装置
US11833697B2 (en) Method of programming an industrial robot
CN113269085B (zh) 一种直线传送带跟踪控制方法、系统、装置及存储介质
US20220080581A1 (en) Dual arm robot teaching from dual hand human demonstration
CN112947458B (zh) 基于多模态信息的机器人准确抓取方法及计算机可读介质
CN114355953A (zh) 一种基于机器视觉的多轴伺服系统的高精度控制方法及系统
CN210361314U (zh) 一种基于增强现实技术的机器人示教装置
CN112809668A (zh) 一种机械臂自动手眼标定的方法及系统、终端
JP7259860B2 (ja) ロボットの経路決定装置、ロボットの経路決定方法、プログラム
JPH05150835A (ja) ロボツトによる組み立て装置
WO2021117479A1 (ja) 情報処理装置、方法およびプログラム
JPH10124130A (ja) 組立装置
JP2019077026A (ja) 制御装置、ロボットシステム、制御装置の動作方法及びプログラム
JPWO2019069361A1 (ja) 把持位置姿勢教示装置、把持位置姿勢教示方法及びロボットシステム
JP7190552B1 (ja) ロボット教示システム
CN112643718B (zh) 图像处理设备及其控制方法和存储其控制程序的存储介质
JPH02110788A (ja) 3次元物体の形状認識方法