JPS60151711A - ロボツト手先視覚座標系較正方式 - Google Patents
ロボツト手先視覚座標系較正方式Info
- Publication number
- JPS60151711A JPS60151711A JP636484A JP636484A JPS60151711A JP S60151711 A JPS60151711 A JP S60151711A JP 636484 A JP636484 A JP 636484A JP 636484 A JP636484 A JP 636484A JP S60151711 A JPS60151711 A JP S60151711A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- hand
- coordinate system
- posture
- robot hand
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/33—Director till display
- G05B2219/33263—Conversion, transformation of coordinates, cartesian or polar
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/37—Measurements
- G05B2219/37572—Camera, tv, vision
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/45—Nc applications
- G05B2219/45083—Manipulators, robot
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Numerical Control (AREA)
- Manipulator (AREA)
Abstract
(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
め要約のデータは記録されません。
Description
【発明の詳細な説明】
〔発明の利用分野〕
本発明は、手先視覚を有するロボットにおいて、手先視
覚をロボツ)・に取り付ける際の取り付け1誤差を計算
して較正することにより、特にロボット手先視覚を用い
て位置・姿勢が任意な物体のノ・ンドリングを正確に行
なわせるのに好適なロボット視覚座標系較正方式に関す
るものである。
覚をロボツ)・に取り付ける際の取り付け1誤差を計算
して較正することにより、特にロボット手先視覚を用い
て位置・姿勢が任意な物体のノ・ンドリングを正確に行
なわせるのに好適なロボット視覚座標系較正方式に関す
るものである。
従来、視覚を利用してロボツ)・11こ作業を行なわぜ
る場合、視覚としては平面的な2値−または多値画像を
認識して、それに基づいてハンドリ/グを行なっていた
。したがって、ノ・ントリングがi、+J能なものは姿
勢が一定な平面的なものに11(られていた。このとき
には、ロボットの)坐4票系と視覚の+1144票系と
の間の、誤差としてe↓−゛1′面上の平行移動フ1↓
及びコ1′−面内での回転のみを考J低ずればよく、j
Y2標系の較正は比較的容易である。現在実用化されて
いる平面視覚装置においては、この神の較正が行なわれ
て勉る。しかし、ロボットによるハントリノグ作業が増
大し、複雑な物体をつかむ必要が生じるにつれ、平面的
な物体だけではなく、位置・姿勢が定1つていない3次
元的な物体を認識することが必要になってきた。このだ
めの方法として、両眼視や距離画像を用いた3次元物体
認識方法が知られている。このような3次元視覚の場合
には、ロボット座標系と視覚座標系との間の空間的な誤
差を較正する必要があるが、そのような技術は、い捷だ
6(m立されていない。
る場合、視覚としては平面的な2値−または多値画像を
認識して、それに基づいてハンドリ/グを行なっていた
。したがって、ノ・ントリングがi、+J能なものは姿
勢が一定な平面的なものに11(られていた。このとき
には、ロボットの)坐4票系と視覚の+1144票系と
の間の、誤差としてe↓−゛1′面上の平行移動フ1↓
及びコ1′−面内での回転のみを考J低ずればよく、j
Y2標系の較正は比較的容易である。現在実用化されて
いる平面視覚装置においては、この神の較正が行なわれ
て勉る。しかし、ロボットによるハントリノグ作業が増
大し、複雑な物体をつかむ必要が生じるにつれ、平面的
な物体だけではなく、位置・姿勢が定1つていない3次
元的な物体を認識することが必要になってきた。このだ
めの方法として、両眼視や距離画像を用いた3次元物体
認識方法が知られている。このような3次元視覚の場合
には、ロボット座標系と視覚座標系との間の空間的な誤
差を較正する必要があるが、そのような技術は、い捷だ
6(m立されていない。
本発明の目的は、手先視覚をロボットに取り付ける際の
空間的な誤差を計算することにより、手先視覚座標系と
ロボット座標系とのずれを較正し、手先視覚を利用して
ロボットに作業をさせる際に正確な作業を可能とするロ
ボット手先視覚座標系較正方式を提供することにある。
空間的な誤差を計算することにより、手先視覚座標系と
ロボット座標系とのずれを較正し、手先視覚を利用して
ロボットに作業をさせる際に正確な作業を可能とするロ
ボット手先視覚座標系較正方式を提供することにある。
本発明に係るロボット手先視覚座標系較正方式は、ロボ
ットと、そのロボット手先に取り伺けられたロボット手
先視覚と、その画像データの処理をする画像処理装置と
、据え付は誤差測定装置と、上記各部についての制御・
処理をするロボット制御装置とからなり、上記ロボット
制側1装置の:lil]l卸により、上記ロボットを一
定の位置・姿勢で固定された測定物体の定点の近傍の指
定点へ移動さぜるとともに、上記ロボット手先の位置・
姿勢を計算し、まだ、上記のロボット手先視覚及び画像
処理装置により、上記定点の位置・姿勢をl]ボット手
先視覚座標系で測定し、更に、」二記据えイτ]け1.
!′j差割算装置により、上記測定結果と」−記lJホ
ット手先の位置・姿勢の上記計39結果とから上1.市
jポット手先視覚の取り付は誤差を1.1算し、ロボッ
ト手先座標系・ロボット手先視覚座標系間のす71.全
較正するようにしたものである。
ットと、そのロボット手先に取り伺けられたロボット手
先視覚と、その画像データの処理をする画像処理装置と
、据え付は誤差測定装置と、上記各部についての制御・
処理をするロボット制御装置とからなり、上記ロボット
制側1装置の:lil]l卸により、上記ロボットを一
定の位置・姿勢で固定された測定物体の定点の近傍の指
定点へ移動さぜるとともに、上記ロボット手先の位置・
姿勢を計算し、まだ、上記のロボット手先視覚及び画像
処理装置により、上記定点の位置・姿勢をl]ボット手
先視覚座標系で測定し、更に、」二記据えイτ]け1.
!′j差割算装置により、上記測定結果と」−記lJホ
ット手先の位置・姿勢の上記計39結果とから上1.市
jポット手先視覚の取り付は誤差を1.1算し、ロボッ
ト手先座標系・ロボット手先視覚座標系間のす71.全
較正するようにしたものである。
なお、これを補足すると次のと分りである。
位置・姿勢が任意の物体をハンドリングさせるには、物
体の位置・姿勢を測定し、その姿勢方向にロボットハン
ドを向ける必要がある。その/Cめには、位置・姿勢を
測定する手先視覚座標系と、ロボットハンドのロボット
手先14(q I:’i系とが正確に較正されていなけ
ればならない。これらの座標系間にずれがあれば、手先
視覚で測定した位置・姿勢情報をもとにロボットを動か
しても、ロボットは物体の位置・姿勢からずれだ位置・
姿勢へと動く。そこ−C1このことを逆に利用し、ロボ
ット手先座標系において、あらかじめ位置・姿勢がわか
・つ−Cいる物日、の位置・姿勢を手先視覚で測定し、
測定値と計算値との誤差から、ロボット手先視覚ヲロボ
ツト手先に取り・1月ける際の誤差をめることが+iJ
能となる。この誤差を用いることにより、ロボット手先
座標系と手先視覚座標系との較正を行なうようにしだも
のである。
体の位置・姿勢を測定し、その姿勢方向にロボットハン
ドを向ける必要がある。その/Cめには、位置・姿勢を
測定する手先視覚座標系と、ロボットハンドのロボット
手先14(q I:’i系とが正確に較正されていなけ
ればならない。これらの座標系間にずれがあれば、手先
視覚で測定した位置・姿勢情報をもとにロボットを動か
しても、ロボットは物体の位置・姿勢からずれだ位置・
姿勢へと動く。そこ−C1このことを逆に利用し、ロボ
ット手先座標系において、あらかじめ位置・姿勢がわか
・つ−Cいる物日、の位置・姿勢を手先視覚で測定し、
測定値と計算値との誤差から、ロボット手先視覚ヲロボ
ツト手先に取り・1月ける際の誤差をめることが+iJ
能となる。この誤差を用いることにより、ロボット手先
座標系と手先視覚座標系との較正を行なうようにしだも
のである。
以1・、本発明の実施例を図に基づいて説明する。
第1図C↓、ロボット手先座標系とロボット視覚外、1
〕−“;糸との相対関係の概念図、第2図は、ロボット
手先t3,1覚による物体の位置・姿勢測定の概念図、
第;1図は、本冗明に係るロボット手先視覚座標系較市
b一式の一実施例の説明図、第4図は、その様1正ブ[
」ツク図である。
〕−“;糸との相対関係の概念図、第2図は、ロボット
手先t3,1覚による物体の位置・姿勢測定の概念図、
第;1図は、本冗明に係るロボット手先視覚座標系較市
b一式の一実施例の説明図、第4図は、その様1正ブ[
」ツク図である。
ここで、1はロボット、2はロボット制(財)装置、3
はロボット手先視覚、4は画像処理装置、5は据え利は
誤差計算装置、6は測定物体である。
はロボット手先視覚、4は画像処理装置、5は据え利は
誤差計算装置、6は測定物体である。
捷ず、ロボット手先視覚3をロボット手先2に取り付け
る際のパラメータとしては、例えば第1図に示すように
、ロボット手先座標系、同手先視覚座像系の各原点Oh
、Ov間の変位を表わすベクトルL= (L、、’L
、、L、)と当該各座標系間の回転変位を表わず回転角
α、β、rの6周がある。このとき、ロボット手先座標
系の原点Ohおよび座標軸ロ与耐ホ該Xh、Yh、Zh
と、手先視覚座標系の原点Ovおよび座標軸αが1無湊
・・・・・・・・・・・・(2) ここで、M、、M、、M、は、XN I Y @ +Z
6軸、まわりの回転を表わす3行3列の行列で、・・・
・・・・・・(3) て人わデ(l[る。
る際のパラメータとしては、例えば第1図に示すように
、ロボット手先座標系、同手先視覚座像系の各原点Oh
、Ov間の変位を表わすベクトルL= (L、、’L
、、L、)と当該各座標系間の回転変位を表わず回転角
α、β、rの6周がある。このとき、ロボット手先座標
系の原点Ohおよび座標軸ロ与耐ホ該Xh、Yh、Zh
と、手先視覚座標系の原点Ovおよび座標軸αが1無湊
・・・・・・・・・・・・(2) ここで、M、、M、、M、は、XN I Y @ +Z
6軸、まわりの回転を表わす3行3列の行列で、・・・
・・・・・・(3) て人わデ(l[る。
第2図に小すように、ロボッI・丁先視覚座標系から+
、J i’t−it!II ′)jノ吻1本フッ7・太
線ヘクl−ルi f = (f +t’〔、、v、(、
v)とすると、 r−1−xX′Xv−t〔y”’3’、i、、VZv
−−−=・(4)と/(る。il fl−<UτJホッ
ト」−先F1′・漂系から兄たとき(1)111′1と
してめるに&−,l: 、式(2)、 (3)を用いて
xv。
、J i’t−it!II ′)jノ吻1本フッ7・太
線ヘクl−ルi f = (f +t’〔、、v、(、
v)とすると、 r−1−xX′Xv−t〔y”’3’、i、、VZv
−−−=・(4)と/(る。il fl−<UτJホッ
ト」−先F1′・漂系から兄たとき(1)111′1と
してめるに&−,l: 、式(2)、 (3)を用いて
xv。
yv + /V ’LL Xh + 3’ h + ”
hで表わし、f二fつ10λh −1−f y” y
h A−fz’ゞZh ・・・・・・・・・(5)と変
換す、hばよい。このとき、ロボッ(・手先alV+系
から見た法線ベクトルはf−(1−1” + f y
” +fz1層である。
hで表わし、f二fつ10λh −1−f y” y
h A−fz’ゞZh ・・・・・・・・・(5)と変
換す、hばよい。このとき、ロボッ(・手先alV+系
から見た法線ベクトルはf−(1−1” + f y
” +fz1層である。
1だ、1111定物体7上の点を視覚座標系からpg
、r。
、r。
と@ X ” (xv r yv + /、v ) (
!: 尾、;3 だトj−’己、である。ここで、ロボ
ット手先祝冗3のテレビ力方向につbてsXy ”FI
SEとすると、X −4) 。
!: 尾、;3 だトj−’己、である。ここで、ロボ
ット手先祝冗3のテレビ力方向につbてsXy ”FI
SEとすると、X −4) 。
ホット十人座標系から児で、弐(1)から−EsKzv
zV ・旧・・・(7) 人し、式(7)を と変換すれば、ロボット手先座標系から見た定点の位置
はX;(X11.X61.Zl、)となる。
zV ・旧・・・(7) 人し、式(7)を と変換すれば、ロボット手先座標系から見た定点の位置
はX;(X11.X61.Zl、)となる。
ロボット手先視覚3をロボット手先2に取りイ\Jける
瞑に生じる誤差としては、し、g L y) −L L
Hα、β、rの誤差ΔLXI ΔLy+ ΔLtl
Δα。
瞑に生じる誤差としては、し、g L y) −L L
Hα、β、rの誤差ΔLXI ΔLy+ ΔLtl
Δα。
」β、Δン′が考えられる。これらのd呉差があるとさ
にし】j−1式(1)〜(3)中のり、等のパラメータ
を(IJニー+JIJ工)等に置き換えれv」:よい。
にし】j−1式(1)〜(3)中のり、等のパラメータ
を(IJニー+JIJ工)等に置き換えれv」:よい。
このとき式(IL (2)公り
と11:<ことかできる。子−j列Gの要素getは、
誤差J l、、11′iを、ry、−んでおり、5h4
がわかれは】内当な数毎1.11−紗夕行うことにより
、Δ111.ΔIJ y+ΔLア。
誤差J l、、11′iを、ry、−んでおり、5h4
がわかれは】内当な数毎1.11−紗夕行うことにより
、Δ111.ΔIJ y+ΔLア。
Jα、Jβ、JTをめることができる。
、J、!:l差がなし)ときには、式(4)〜(8)の
」、うに、ロボ:’ h 丁”AL i′、17.覚3
テI’ = (1’Xvl yv+ 「R”)!X=l
λv、yv+”7)と兄えた測定物体7は、x」ボッl
−手尤厘標てはf= (f、a il、f、R)X=
(Xh 、Yh 、Zb )にあるはずであるが、実際
は誤、Ω」4−78等の7こめに、1illl定物体7
はr′=(r、n、ry 、rおIセ′)、マ’ −(
X h′。
」、うに、ロボ:’ h 丁”AL i′、17.覚3
テI’ = (1’Xvl yv+ 「R”)!X=l
λv、yv+”7)と兄えた測定物体7は、x」ボッl
−手尤厘標てはf= (f、a il、f、R)X=
(Xh 、Yh 、Zb )にあるはずであるが、実際
は誤、Ω」4−78等の7こめに、1illl定物体7
はr′=(r、n、ry 、rおIセ′)、マ’ −(
X h′。
′R′
)・量、′、zh′)にあると測定される。これらの1
☆置・姿勢のずれによって、式(1)および式(2)は
式(9)に変形されでいるので、位i45・姿勢のずれ
を測定−J−ることによつで、行列Oの′D:素gij
を決定することか田゛能である。gijがわかれば、i
呉差jLx等をめることもできる。
☆置・姿勢のずれによって、式(1)および式(2)は
式(9)に変形されでいるので、位i45・姿勢のずれ
を測定−J−ることによつで、行列Oの′D:素gij
を決定することか田゛能である。gijがわかれば、i
呉差jLx等をめることもできる。
次に、第3図、第4図に状ついて(11)成、動(’1
1説明をする。
1説明をする。
ロボット1は、Ljホツ1−間御装置−6からび)f1
′L置・姿勢の指令1直に基づいて、(測定物体71−
1の定点の近傍へ動く。その後、ロボット手先視覚3を
用いて当1A画像を入力し、ぞtl−を画像処理装置4
へ送る。画像処理装置4では物体の位11″″1′・i
セ勢X′。
′L置・姿勢の指令1直に基づいて、(測定物体71−
1の定点の近傍へ動く。その後、ロボット手先視覚3を
用いて当1A画像を入力し、ぞtl−を画像処理装置4
へ送る。画像処理装置4では物体の位11″″1′・i
セ勢X′。
r′をd用足する。
一方、据え伺は誤差ゴ1算装置ぺ5にケJ11、Δ)ら
乃・しめ物体」二の定点の位置・姿勢を人扛ておき、「
Jホット!Ijll仰装置2からの手先位置・ン勢情報
をもとに、式(1)、 (2)、 (3)を用すてロボ
ット手先視覚jべ旧41j系から兄だ定点の位置・姿勢
X、fを計l!F′Iさせる。
乃・しめ物体」二の定点の位置・姿勢を人扛ておき、「
Jホット!Ijll仰装置2からの手先位置・ン勢情報
をもとに、式(1)、 (2)、 (3)を用すてロボ
ット手先視覚jべ旧41j系から兄だ定点の位置・姿勢
X、fを計l!F′Iさせる。
父、r’の計算の際にはパラメータには誤差がないもの
としているのに対し、ロボット手先視覚3で測定しだx
/、r/ にはパラメータ誤差が含まれるので、XとX
′と、rとf′とは、それぞれ異なる。そこで x /
、r / u−もとに式(9)のマトリックスGをめ
ると、Gの各成分に含寸れるパラメータには誤差が含ま
れることになる。よって、式(1)、 (2)中のパラ
メータとGのパラメータとを比較することにより、パラ
メータ誤差をめることができる。
としているのに対し、ロボット手先視覚3で測定しだx
/、r/ にはパラメータ誤差が含まれるので、XとX
′と、rとf′とは、それぞれ異なる。そこで x /
、r / u−もとに式(9)のマトリックスGをめ
ると、Gの各成分に含寸れるパラメータには誤差が含ま
れることになる。よって、式(1)、 (2)中のパラ
メータとGのパラメータとを比較することにより、パラ
メータ誤差をめることができる。
以上、;il 、:、tllに説明したように、本発明
によれば、ロボット手先視覚をロボット手先に取り付け
る際の3次元的な取り付は誤差を、ロボットを動かずこ
とによってめることができるので、(1)3次元的な取
りイ・」け誤差をめ、この誤差を補正することにより、
平面的な物体たけてなく、位置・姿勢がil意である:
3次元的な物体を、手先視覚を用いて市確にハンドリン
グすることができ 、ロボットを月1いたrμ)イ(な
作業が用油となり、1だ、(2)ロボットを動かして測
定するたけて取り付は誤差が1す、測定器を用いて直接
に取り付は誤差の測定をするよりも、はるかに較正作業
が簡略化され、ロボット作業の精度向上、効率向上、顕
著な効果が得られる。
によれば、ロボット手先視覚をロボット手先に取り付け
る際の3次元的な取り付は誤差を、ロボットを動かずこ
とによってめることができるので、(1)3次元的な取
りイ・」け誤差をめ、この誤差を補正することにより、
平面的な物体たけてなく、位置・姿勢がil意である:
3次元的な物体を、手先視覚を用いて市確にハンドリン
グすることができ 、ロボットを月1いたrμ)イ(な
作業が用油となり、1だ、(2)ロボットを動かして測
定するたけて取り付は誤差が1す、測定器を用いて直接
に取り付は誤差の測定をするよりも、はるかに較正作業
が簡略化され、ロボット作業の精度向上、効率向上、顕
著な効果が得られる。
第1図は、ロボット手先座標系とロボット手先′視覚座
標系との相対関係の概念図、第2図は、ロボット手先視
覚による物体の位置・姿勢測定の概念図、第3図は、本
発明に係るロボット手先視覚座標系較正方沁−実施例の
851.明図、第4図(Lま、そ−の機能ブロック図で
ある。 1・・・ロボット、2・・・ロボツ14’lJ、3・・
・ロボット手先視覚、4・・・画像処理装置、5・・・
据え伺は誤差計算装置、6・・・ロボット制御装置、7
・・・測定物体。1)茅 I 固 τ 茅 2 口 第 3 固 / \ 茅4− 目
標系との相対関係の概念図、第2図は、ロボット手先視
覚による物体の位置・姿勢測定の概念図、第3図は、本
発明に係るロボット手先視覚座標系較正方沁−実施例の
851.明図、第4図(Lま、そ−の機能ブロック図で
ある。 1・・・ロボット、2・・・ロボツ14’lJ、3・・
・ロボット手先視覚、4・・・画像処理装置、5・・・
据え伺は誤差計算装置、6・・・ロボット制御装置、7
・・・測定物体。1)茅 I 固 τ 茅 2 口 第 3 固 / \ 茅4− 目
Claims (1)
- 1、ロボットと、そのロボット手先に取り付けられたロ
ボット手先祝覚と、その画像データの処理をするll!
II像処JJI装置と、据え伺は誤差測定装置と、」二
記各部についての割面4j・処理をするロボット制側1
装置とからなり、上記ロボット制御装置の制御により、
上記ロボットを一定の位置・姿勢で固定された測定物体
の定点の近傍の指定点へ移動させるとともに、−]二記
ロボツI・手先の位置・姿勢を計5)礼7、−1/c、
上記のロボット手先視覚及び画像処理装置1′Lにより
、−j−記定点の位置・姿勢をロボット手先視覚座標系
で測定し、更に、」二記据え伺は誤、X、旧算装置によ
り、上記測定結果と上記ロボットJ昌(じのLシ、置・
姿勢の上記111算結果とから上記ロボット手ツし視覚
の取り伺け1具差を計算し、ロボット手先1′11仁゛
;系・1ノボツト手先祝覚座標系間のずれを較1にずゐ
Lうにしだロホット手先視覚座標系較正力式。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP636484A JPS60151711A (ja) | 1984-01-19 | 1984-01-19 | ロボツト手先視覚座標系較正方式 |
EP85100512A EP0151417A1 (en) | 1984-01-19 | 1985-01-18 | Method for correcting systems of coordinates in a robot having visual sensor device and apparatus therefor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP636484A JPS60151711A (ja) | 1984-01-19 | 1984-01-19 | ロボツト手先視覚座標系較正方式 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPS60151711A true JPS60151711A (ja) | 1985-08-09 |
Family
ID=11636302
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP636484A Pending JPS60151711A (ja) | 1984-01-19 | 1984-01-19 | ロボツト手先視覚座標系較正方式 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPS60151711A (ja) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS62156701A (ja) * | 1985-12-27 | 1987-07-11 | Yaskawa Electric Mfg Co Ltd | ロボットシステムによる組立部品の座標キャリブレーション方法 |
WO1988001764A1 (en) * | 1986-08-29 | 1988-03-10 | Fanuc Ltd | Robot controller |
JPS6362003A (ja) * | 1986-09-03 | 1988-03-18 | Nissan Motor Co Ltd | 三次元座標変換装置 |
JPS63162189A (ja) * | 1986-09-19 | 1988-07-05 | テキサス インスツルメンツ インコーポレイテツド | 視覚案内形ロボット装置 |
WO1989001849A1 (en) * | 1987-08-22 | 1989-03-09 | Fanuc Ltd | Calibration system for visual sensor system |
WO1995008143A1 (fr) * | 1993-09-14 | 1995-03-23 | Tomoyuki Terada | Procede de correction de programmes d'apprentissage pour robots |
KR100482562B1 (ko) * | 2002-06-26 | 2005-04-14 | 현대자동차주식회사 | 로봇 캘리브레이션 방법 |
KR100587572B1 (ko) | 2004-10-15 | 2006-06-08 | 삼성전자주식회사 | 카메라 픽셀 정보를 이용하여 공간상의 코너 포인트를추출하는 시스템 및 방법, 상기 시스템을 포함하는 이동로봇 |
JP2010112731A (ja) * | 2008-11-04 | 2010-05-20 | Denso Wave Inc | ロボットの座標の結合方法 |
CN103878773A (zh) * | 2014-02-25 | 2014-06-25 | 西安航天精密机电研究所 | 一种基于全自动换电机器人的调试方法 |
CN109202802A (zh) * | 2018-11-14 | 2019-01-15 | 山东大学 | 一种用于卡合装配的视觉引导系统及方法 |
JP2019014030A (ja) * | 2017-07-11 | 2019-01-31 | セイコーエプソン株式会社 | ロボットの制御装置、ロボット、ロボットシステム、並びに、カメラの校正方法 |
-
1984
- 1984-01-19 JP JP636484A patent/JPS60151711A/ja active Pending
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS62156701A (ja) * | 1985-12-27 | 1987-07-11 | Yaskawa Electric Mfg Co Ltd | ロボットシステムによる組立部品の座標キャリブレーション方法 |
WO1988001764A1 (en) * | 1986-08-29 | 1988-03-10 | Fanuc Ltd | Robot controller |
JPS6362003A (ja) * | 1986-09-03 | 1988-03-18 | Nissan Motor Co Ltd | 三次元座標変換装置 |
JPS63162189A (ja) * | 1986-09-19 | 1988-07-05 | テキサス インスツルメンツ インコーポレイテツド | 視覚案内形ロボット装置 |
WO1989001849A1 (en) * | 1987-08-22 | 1989-03-09 | Fanuc Ltd | Calibration system for visual sensor system |
US5572103A (en) * | 1993-09-14 | 1996-11-05 | Fanuc, Ltd. | Robot teaching program correction method |
WO1995008143A1 (fr) * | 1993-09-14 | 1995-03-23 | Tomoyuki Terada | Procede de correction de programmes d'apprentissage pour robots |
KR100482562B1 (ko) * | 2002-06-26 | 2005-04-14 | 현대자동차주식회사 | 로봇 캘리브레이션 방법 |
KR100587572B1 (ko) | 2004-10-15 | 2006-06-08 | 삼성전자주식회사 | 카메라 픽셀 정보를 이용하여 공간상의 코너 포인트를추출하는 시스템 및 방법, 상기 시스템을 포함하는 이동로봇 |
JP2010112731A (ja) * | 2008-11-04 | 2010-05-20 | Denso Wave Inc | ロボットの座標の結合方法 |
CN103878773A (zh) * | 2014-02-25 | 2014-06-25 | 西安航天精密机电研究所 | 一种基于全自动换电机器人的调试方法 |
JP2019014030A (ja) * | 2017-07-11 | 2019-01-31 | セイコーエプソン株式会社 | ロボットの制御装置、ロボット、ロボットシステム、並びに、カメラの校正方法 |
CN109202802A (zh) * | 2018-11-14 | 2019-01-15 | 山东大学 | 一种用于卡合装配的视觉引导系统及方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9517563B2 (en) | Robot system using visual feedback | |
US9833897B2 (en) | Calibration and programming of robots | |
US8918210B2 (en) | Method of detecting an inter-axis offset of 6-axis robot | |
JP5618066B2 (ja) | 力制御ロボットのキャリブレーション装置と方法 | |
Chaumette et al. | Visual servo control. I. Basic approaches | |
US7558689B2 (en) | Information processing method and system | |
EP0151417A1 (en) | Method for correcting systems of coordinates in a robot having visual sensor device and apparatus therefor | |
JP6430986B2 (ja) | ロボットを用いた位置決め装置 | |
US20080027580A1 (en) | Robot programming method and apparatus with both vision and force | |
CN110116407A (zh) | 柔性机器人位姿测量方法及装置 | |
EP0528054A1 (en) | Detected position correcting method | |
JP2008522836A (ja) | 運動学的ロボット・モデル・パラメータ決定によって多関節ロボットにおいて改善された精度を提供する方法及びシステム | |
JPS60151711A (ja) | ロボツト手先視覚座標系較正方式 | |
CN103170979B (zh) | 基于惯性测量仪的在线机器人参数辨识方法 | |
US20210260759A1 (en) | Estimation of payload attached to a robot arm | |
CN112123341B (zh) | 机器人双臂协调运动控制方法、装置和电子设备 | |
JPH07237158A (ja) | 位置・姿勢検出方法及びその装置並びにフレキシブル生産システム | |
JPH052168B2 (ja) | ||
JP2640339B2 (ja) | ロボット定数の自動補正方法 | |
CN112476435A (zh) | 重力加速度方向的标定方法、标定装置及存储介质 | |
US6584379B1 (en) | Robot device and method of adjusting origin of robot | |
Lee et al. | An active sensing strategy for contact location without tactile sensors using robot geometry and kinematics | |
JP3188130B2 (ja) | マニピュレーターの曲面なぞり制御方法 | |
Guo et al. | Dynamic Parameter Identification and Collision Detection of Robot | |
JPH012104A (ja) | ロボットの位置決め誤差補正方法 |