JPH0830977B2 - Robot copy control device - Google Patents
Robot copy control deviceInfo
- Publication number
- JPH0830977B2 JPH0830977B2 JP62194639A JP19463987A JPH0830977B2 JP H0830977 B2 JPH0830977 B2 JP H0830977B2 JP 62194639 A JP62194639 A JP 62194639A JP 19463987 A JP19463987 A JP 19463987A JP H0830977 B2 JPH0830977 B2 JP H0830977B2
- Authority
- JP
- Japan
- Prior art keywords
- robot
- image
- slit
- pair
- workpiece
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Machine Tool Copy Controls (AREA)
- Numerical Control (AREA)
- Manipulator (AREA)
Description
【発明の詳細な説明】 A.産業上の利用分野 本発明はロボット制御装置に係り、特にロボットの手
先部を被加工物の表面形状に倣わせるようにしたロボッ
トの倣い制御装置に関する。DETAILED DESCRIPTION OF THE INVENTION A. Field of Industrial Application The present invention relates to a robot control device, and more particularly to a robot control device for a robot in which a hand portion of the robot is made to follow the surface shape of a workpiece.
B.発明の概要 本発明は、被加工物の教示点へロボットの加工ヘッド
部を移動させて前記教示点に対して前記手先ヘッド部を
動作させる装置において、 前記加工ヘッド部近傍にワーク表面までの高さおよび
この表面の傾斜角度を計測する三次元計測センサを取り
付け、ワーク表面と加工ヘッドとの三次元的な相対位置
と姿勢を自動計測することにより、ヘッドの位置および
姿勢角を所望の値に自動制御するものである。B. SUMMARY OF THE INVENTION The present invention is an apparatus for moving a machining head part of a robot to a teaching point of a workpiece to operate the hand head part with respect to the teaching point. By mounting a three-dimensional measurement sensor that measures the height of the workpiece and the inclination angle of this surface, and automatically measuring the three-dimensional relative position and orientation between the workpiece surface and the machining head, the position and orientation angle of the head can be set to the desired value. The value is automatically controlled.
C.従来の技術 例えば材料の研摩,溶断,溶接等の加工又は解体工程に
設置されたロボットや遠隔操作のマニピュレータにおい
ては、実際に稼動させる前に、ロボットやマニピュレー
タ等に対して加工ヘッドの移動順序および動作順序を三
次元的な被加工物の形状に則して計測する必要がある。
加工ヘッドの三次元動作軌跡を決定する装置を三次元倣
い装置とも呼んでいるが、例えばプラズマ溶断用ロボッ
トにおいては、加工ヘッドの近傍位置に磁気センサを設
置して鉄板等の被切断材としてのワークに生じた渦電流
の大きさを検出して、その電流値によって加工ヘッドと
ワーク表面との距離を算出していた。したがって、実際
のティーチング作業は、作業者がティーチングペンダン
トを操作しながら、目視で加工ヘッドをワーク表面の所
望の教示点へ接近させる作業と、やはり目視で加工ヘッ
ドの姿勢角を、教示点における表面に対して直角になる
ように加工ヘッドの姿勢を合わせる作業と、前述のセン
サでもって加工ヘッドとワーク表面上の教示点との間に
距離を一定値に設定する作業との三つの作業を施行錯誤
で実施する必要があった。C. Conventional technology For example, in the case of robots or remote-controlled manipulators installed in processing or dismantling processes such as material polishing, fusing, welding, etc., move the processing head with respect to the robot or manipulator before actually operating it. It is necessary to measure the sequence and operation sequence according to the three-dimensional shape of the workpiece.
A device that determines the three-dimensional movement locus of the processing head is also called a three-dimensional copying device.For example, in a plasma fusing robot, a magnetic sensor is installed near the processing head and used as a material to be cut such as an iron plate. The magnitude of the eddy current generated in the work is detected, and the distance between the machining head and the work surface is calculated from the current value. Therefore, in the actual teaching work, while the operator operates the teaching pendant, the operator visually approaches the machining head to a desired teaching point on the work surface, and also visually observes the attitude angle of the machining head at the teaching point surface. Performs three tasks: aligning the posture of the machining head so that it is at a right angle to the machine, and setting the distance between the machining head and the teaching point on the workpiece surface to a constant value using the sensor described above. It was necessary to make a mistake.
しかし、上記のように作業者が各教示点毎に目視で三
つの作業からなるティーチング作業を実施すると、各教
示点間において加工ヘッドまでの距離や加工ヘッドの姿
勢角等の設定値にばらつきが生じるという問題点があっ
た。その結果、ワークの切断面が不揃いになったり、一
部切断できない場所が生じたりする欠点となった。However, when the operator visually performs the teaching work consisting of three works for each teaching point as described above, there is a variation in the set values such as the distance to the working head and the posture angle of the working head between each teaching point. There was a problem that it would occur. As a result, the cut surfaces of the work become uneven, and there are some places where some cuts cannot be made.
D.発明が解決しようとする問題点 上述の問題点を回避するために前述のティーチング作
業を丁寧かつ正確に実施すると、ティーチング作業時間
が増大し、ロボットが実際に切断作業を実行している時
間の割合を示す加工ヘッド稼動率が低下する問題があっ
た。さらに、ロボット操作に熟達した作業者を必要とし
た。D. Problems to be solved by the invention If the above teaching work is performed carefully and accurately in order to avoid the above problems, the teaching work time increases and the time during which the robot actually performs the cutting work There was a problem that the operating rate of the processing head, which indicates the ratio Furthermore, a worker who is skilled in robot operation is required.
上記問題に対処するため、熟達した作業者を必要とせ
ず、しかも短時間にロボットのヘッドを所望の教示点へ
移動させる動作と、移動後のヘッドワーク表面に対する
姿勢角を一定に制御する作業を、ヘッドワーク表面との
間の距離を一定に制御する作業とを自動的にロボットに
ティーチングでき、ロボットに対するティーチング作業
を正確かつ能率的に実施でき、ロボットの稼動率を大幅
に向上できる二次元位置計測を主体としたロボットの三
次元ティーチング装置が特開昭61−100808号公報および
特開昭61−100809号公報に紹介されている。In order to deal with the above problem, an operation for moving the robot head to a desired teaching point in a short time without the need for a skilled worker and a work for controlling the posture angle with respect to the headwork surface after the movement to be constant. Two-dimensional position that can automatically teach the robot and work to control the distance to the headwork surface to a constant level, can perform the teaching work to the robot accurately and efficiently, and can greatly improve the operation rate of the robot. A three-dimensional teaching device for a robot mainly for measurement is introduced in JP-A-61-100808 and JP-A-61-100809.
しかしながら、上記各公開特許公報の方法では、3箇
以上のセンサを必ず必要とし、ワーク表面の端部,突
起,おう部等にこれらのセンサが一つでも遭遇すると、
位置補正計算,姿勢補正計算ができなくなるという欠点
があった。また、補正計算が二次元データを元にした近
似計算であるので、求めた補正値に誤差が多いという問
題点もあった。さらにまた、カメラの光軸に対するセン
サの取付角αを固定しているので、平坦な所では粗く計
測し、おう突角部では細かく計測したい場合にも簡単に
対応できないという欠点があった。However, in the method of each of the above-mentioned published patent publications, three or more sensors are indispensable, and if any one of these sensors encounters the end portion, the protrusion, the cap portion, etc. of the work surface,
There was a drawback that position correction calculation and posture correction calculation could not be performed. Further, since the correction calculation is an approximate calculation based on two-dimensional data, there is a problem that the calculated correction value has many errors. Furthermore, since the mounting angle α of the sensor with respect to the optical axis of the camera is fixed, there is a drawback that it is not possible to easily deal with rough measurement at a flat place and fine measurement at a convex angle portion.
E.問題点を解決するための手段 本発明は、上述の点に鑑みてなされたものであって、
ロボットの手先部を三次元的に位置姿勢制御可能にして
高性能なロボットの倣い制御装置の提供を目的とし、被
加工物上の教示点へロボットの手先ヘッド部を移動させ
て前記教示点に対して前記手先ヘッド部を動作させる制
御装置において、前記手先ヘッド部近傍に配設され前記
被加工物に一対のスリット光を投射する投影器と該投影
器の一対のスリット光による一対のスリット像を撮像す
る撮像手段と、該撮像手段より前記一対のスリット像の
状態を検出する像検出手段と、該像検出手段による検出
データに基づいて前記撮像手段のセンサと前記被加工物
間の位置および姿勢を演算する演算手段とからなり、該
演算手段が前記像検出手段により検出された一対のスリ
ット像の三次元座標系における点を前記撮像手段の画像
上の点に変換した値に基づいて位置補正データと姿勢デ
ータを算出し、該演算手段による位置補正データと姿勢
補正データに基づいて前記ロボット手先ヘッド部を前記
被加工物の表面に対して倣わせるようにしたものであ
る。E. Means for Solving Problems The present invention has been made in view of the above points,
Aiming to provide a high-performance robot copying control device capable of three-dimensionally controlling the position and orientation of the robot's hand part, the robot's hand head part is moved to the teaching point on the workpiece and the robot is moved to the teaching point. On the other hand, in the control device for operating the hand head part, a projector disposed near the hand head part and projecting a pair of slit lights on the workpiece, and a pair of slit images by a pair of slit lights of the projector. An image pickup means for picking up an image, an image detection means for detecting the state of the pair of slit images by the image pickup means, a position between the sensor of the image pickup means and the workpiece based on detection data by the image detection means, and And a calculation means for calculating the posture, the calculation means converting points in the three-dimensional coordinate system of the pair of slit images detected by the image detection means into points on the image of the image pickup means. The position correction data and the posture data are calculated based on the above, and the robot hand head portion is made to follow the surface of the workpiece based on the position correction data and the posture correction data by the calculation means. is there.
F.作用 被加工物に一対のスリット光を投射し、この投射され
た一対のスリット光を一対のスリット像に変換するとと
もに変換された一対のスリット像の状態を検出する。こ
の一対の像の状態検出データに基づいて被加工物に対す
るセンサの位置と姿勢を演算するとともに、検出された
一対のスリット像の三次元座標系における点を画像上の
点に変換した値に基づいて位置補正データと姿勢データ
を算出し、これらの算出データに基づいてロボットの手
先ヘッド部を被加工物の表面に対して倣わせる。F. Action A pair of slit light is projected on the workpiece, the projected pair of slit light is converted into a pair of slit images, and the state of the converted pair of slit images is detected. The position and orientation of the sensor with respect to the workpiece is calculated based on the state detection data of the pair of images, and based on the value obtained by converting the detected point in the three-dimensional coordinate system of the slit image into a point on the image. The position correction data and the posture data are calculated in accordance with the calculated data, and the hand head portion of the robot is made to follow the surface of the workpiece based on these calculated data.
G.実施例 以下に本発明の実施例を図面を用いて説明する。第8
図は本発明を適用するロボットを示す。このロボット本
体1は操作駆動部2,この操作駆動部2に連設されたリン
ク部3,このリンク部3のリンク6aにより連結されたアー
ム4およびアーム4に連結された手先部5からなり、さ
らにロボット本体1は、リンク部3のリンク6aは操作駆
動部2に回動可能に連結された第1回動軸7aと、該第1
回動軸7aを操作駆動部2に回動可能に連結する第2回動
軸7bと、リンク6bとアーム4を回動可能に連結する第3
回動軸7cと、アーム4を回動可能に連結する第4回動軸
7dと、手先部5をアーム4に回動自在に連結する第5回
動軸7e及び回転可能に連結する第6回動軸7fを備えてい
る。8は手先部5に取り付けたプラズマトーチ、9は加
工台10に配設された被加工物たるワークである。G. Examples Examples of the present invention will be described below with reference to the drawings. 8th
The figure shows a robot to which the present invention is applied. The robot body 1 comprises an operation drive unit 2, a link unit 3 connected to the operation drive unit 2, an arm 4 connected by a link 6a of the link unit 3 and a hand unit 5 connected to the arm 4. Further, in the robot body 1, the link 6a of the link unit 3 has a first rotation shaft 7a rotatably connected to the operation drive unit 2 and the first rotation shaft 7a.
A second rotary shaft 7b that rotatably connects the rotary shaft 7a to the operation drive unit 2, and a third rotary shaft 7b that rotatably connects the link 6b and the arm 4.
A fourth rotation shaft that rotatably connects the rotation shaft 7c to the arm 4.
7d, a fifth rotation shaft 7e that rotatably connects the hand portion 5 to the arm 4, and a sixth rotation shaft 7f that rotatably connects the hand portion 5 to the arm 4. Reference numeral 8 is a plasma torch attached to the hand portion 5, and 9 is a workpiece as a workpiece arranged on the processing table 10.
第1図は本発明の実施例に係るロボット制御装置のブ
ロック図であって、11は制御部で、信号変換回路12,演
算処理部(CPU)13,ドライバ回路14によって構成されて
いる。制御部11の信号変換回路12はンサ15の検出信号S1
を識別してディジタル化した識別信号S2を出力する。演
算処理部13はマイクロコンピュータ等からなり、識別信
号S2とロボット本体1の情報信号S3を入力としこれらを
もとに演算処理する。ドライバ回路13は演算処理部13の
演算信号S4をもとに駆動制御信号S5を出力する。ロボッ
ト本体1は駆動制御信号S5にもとづいてセンサ15と加工
部16を制御する。FIG. 1 is a block diagram of a robot controller according to an embodiment of the present invention, in which 11 is a control unit, which includes a signal conversion circuit 12, an arithmetic processing unit (CPU) 13, and a driver circuit 14. The signal conversion circuit 12 of the controller 11 detects the detection signal S 1 of the sensor 15.
And outputs the digitized identification signal S 2 . The arithmetic processing unit 13 is composed of a microcomputer or the like, and receives the identification signal S 2 and the information signal S 3 of the robot body 1 and performs arithmetic processing based on these. The driver circuit 13 outputs a drive control signal S 5 based on the arithmetic signal S 4 of the arithmetic processing unit 13. The robot body 1 controls the sensor 15 and the processing unit 16 based on the drive control signal S 5 .
第2図は第1図の制御装置をさらに具体的に示したも
ので、センサ15として光学センサであるカメラ17とスリ
ット光投影器18を用いると共に、信号変換部として画像
識別回路19を用いたものである。ロボット本体1の手先
部5にはプラズマトーチ8とスリット光投影器18が取り
付けられていると共に、カメラ17が回動可能に取り付け
られている。すなわち、センサ15はスリット光投影型三
次元センサであり、図示のようにプラズマトーチ8と並
設され、それぞれ独立して上下方向に移動できるように
なっている。第3図は溶断加工ヘッド部の座標系を示す
もので、スリット光投影型センサは幅1mm,長さ10mm位の
スリット光をワーク9に照射し、ワーク表面の形状に応
じて変形したスリット像20a,20bを固体カメラ17に取り
込み画像信号S1を画像識別回路19に入力する。画像識別
回路19は画像信号S1を解析処理してスリット像20a,20b
の変形具合を解析してワーク9の変形具合を解析し、解
析データS2をCPU13に入力する。CPU13はワーク表面とカ
メラ間の位置および姿勢計測し、ロボット本体1に制御
指令S3を送信すると共にドライバ回路14に制御信号S4を
供給する。ロボット本体1はCPU13からの指令信号S3と
駆動信号S5に応じて所定の動作を行う。第2図の例で
は、プラズマ溶断のアーク作動点とスリット−カメラ計
測点とは物理的に異なっているが、制御部11においてハ
ンドパラメータを適宜変更することにより、容易のスリ
ット−カメラ計測点へプラズマ溶断の作動点を移動する
ことができる。FIG. 2 shows the control device of FIG. 1 more concretely, in which a camera 17, which is an optical sensor, and a slit light projector 18 are used as the sensor 15, and an image identification circuit 19 is used as a signal conversion unit. It is a thing. A plasma torch 8 and a slit light projector 18 are attached to the hand portion 5 of the robot body 1, and a camera 17 is rotatably attached. That is, the sensor 15 is a slit light projection type three-dimensional sensor, and is arranged in parallel with the plasma torch 8 as shown in the figure, and can be moved independently in the vertical direction. Fig. 3 shows the coordinate system of the fusing cutting head part. The slit light projection sensor irradiates the work 9 with slit light having a width of about 1 mm and a length of about 10 mm, and the slit image is deformed according to the shape of the work surface. 20a and 20b are captured by the solid-state camera 17 and the image signal S 1 is input to the image identification circuit 19. The image discrimination circuit 19 analyzes the image signal S 1 to perform slit images 20a, 20b.
Is analyzed to analyze the deformation of the work 9, and the analysis data S 2 is input to the CPU 13. The CPU 13 measures the position and orientation between the surface of the work and the camera, sends a control command S 3 to the robot body 1 and supplies a control signal S 4 to the driver circuit 14. The robot body 1 performs a predetermined operation according to the command signal S 3 and the drive signal S 5 from the CPU 13. In the example of FIG. 2, the arc operating point for plasma fusing and the slit-camera measuring point are physically different, but by appropriately changing the hand parameter in the control unit 11, it becomes an easy slit-camera measuring point. The operating point of plasma fusing can be moved.
第4図はスリット−カメラ座標系を示すもので、カメ
ラはZ軸上のzc点にあり、焦点距離f,X軸とφをなす角
度で、X軸の正方向を観測するようになっている。ま
た、スリット像20a,20bはX軸に平行にZ=0およびZ
=zkを中心に2本の平行光線としてX軸方向に照射され
るようになっている。第4図において各点の座標として
は、点O(xo,0,0),P(xp,yp,0),Q(xQ,yQ,0)であ
り、対象表面上の点かつスリット平面上の点である。第
5図は第4図におけるスリット−カメラ系で計測するワ
ーク表面までの距離(高さL,姿勢角Δα(Z軸回りの傾
斜角))の関係を示し、第6図は平行線スリットを用い
た三次元計測を説明するための図である。Fig. 4 shows the slit-camera coordinate system. The camera is located at the point z c on the Z axis, and the focal length f and the angle forming φ with the X axis can be observed in the positive direction of the X axis. ing. The slit images 20a and 20b are arranged in parallel with the X axis at Z = 0 and Z.
The light is emitted in the X-axis direction as two parallel rays centered at = z k . In FIG. 4, the coordinates of each point are points O (x o , 0,0), P (x p , y p , 0), Q (x Q , y Q , 0) on the target surface. Points and points on the slit plane. FIG. 5 shows the relationship between the slit-distance to the work surface (height L, posture angle Δα (tilt angle around the Z axis)) measured by the camera system in FIG. 4, and FIG. 6 shows parallel line slits. It is a figure for explaining the three-dimensional measurement used.
第4図に示すように、スリット像のカメライメージ面
上の座標を(x′,y′)とし、カメラの1画素の横の長
さをs、縦の長さをtとすると、zc,φ,f,s,tは既知と
し、点Pの位置(xp,yp,zp)を、カメラ画像上の点
P′(x′p,y′p)から求める。点Pは下側スリット平
面上の点であるから、 zp=φ …(1) となる。また、第4図の幾何光学系より、 tan(A12)=y′p・t/f ∴A12=tan-1(y′p・t/f) γ12=90°−φ−A12であるから、 xp=zctan(γ12)=zctan(90°−φ−A12) …(2) また、 であり、 式(1)〜(3)より、点Pの位置が計測される。As shown in FIG. 4, if the coordinates of the slit image on the camera image plane are (x ′, y ′), the horizontal length of one pixel of the camera is s, and the vertical length is t, then z c , Φ, f, s, t are known, and the position (x p , y p , z p ) of the point P is obtained from the point P ′ (x ′ p , y ′ p ) on the camera image. Since the point P is a point on the lower slit plane, z p = φ (1) From the geometrical optical system shown in FIG. 4, tan (A 12 ) = y ′ p · t / f ∴A 12 = tan −1 (y ′ p · t / f) γ 12 = 90 ° −φ−A 12 Therefore, x p = z c tan (γ 12 ) = z c tan (90 ° −φ−A 12 ) ... (2) And The position of the point P is measured from the equations (1) to (3).
第5図において、点Oを測定平面上の点であり、かつ
X軸上の点とすると、スリット像から測定面までの距離
LはL=xo、姿勢は図示のようになる。第6図に示すよ
うな2本のスリット光20a,20b(Z=0およびZ=zt)
を用いた時の距離L,姿勢α,γは次式のように求まる。In FIG. 5, when the point O is a point on the measurement plane and a point on the X axis, the distance L from the slit image to the measurement surface is L = x o , and the posture is as illustrated. Two slit lights 20a and 20b (Z = 0 and Z = z t ) as shown in FIG.
When L is used, the distance L and the postures α and γ are calculated as follows.
距離:L=xo …(4) 姿勢:Δα=tan-1{(xQ−xp)/(yQ−yp)} …
(5) Δγ=tan-1{(xR−xO)/zt} …(6) 上記式(1)〜(6)は、第1図,第2図に示す制御
部1のCPU13によって演算処理される。この演算処理結
果に基づいて、第7図の処理フローを遂行しながら例え
ば第8図に示すワーク9を自動的、すなわち、ロボット
手先部5におけるセンサ位置および姿勢をジョイスティ
ック等にて制御し、第7図のステップQ1に示すようにセ
ンサ先端を計測点付近へ誘導する。なお、計測用カメラ
の映像信号をモニタテレビ等でスリットパターンと共に
観察すると、この操作が非常に容易となる。続いて、ス
リット−カメラ系の映像信号を取り込み、画像処理によ
りカメラ17とワーク9の表面間の相対位置Lおよび姿勢
(Δα,Δγ)を式(4)〜(6)により自動計測する
(ステップQ2)。次にL=ho(目標値)+(Δx,Δα,
Δγ)の補正用計測データをドライバ回路14に転送し、
センサヘッド部を補正位置と補正姿勢へ移動せしめる
(ステップQ3)。最後に移動後のロボット位置および姿
勢をCPU13内のブレイバック用の記憶部に格納し(ステ
ップQ4)、倣い付ティーチング処理が終了する。Distance: L = x o (4) Posture: Δα = tan -1 {(x Q −x p ) / (y Q −y p )}…
(5) Δγ = tan −1 {(x R −x O ) / z t } (6) The above equations (1) to (6) are calculated by the CPU 13 of the control unit 1 shown in FIGS. 1 and 2. It is processed. Based on the calculation processing result, while performing the processing flow of FIG. 7, for example, the work 9 shown in FIG. 8 is automatically controlled, that is, the sensor position and posture in the robot hand portion 5 are controlled by a joystick or the like. As shown in step Q 1 in Fig. 7, guide the sensor tip to the vicinity of the measurement point. If the video signal of the measuring camera is observed together with the slit pattern on a monitor TV or the like, this operation becomes very easy. Then, the video signal of the slit-camera system is taken in, and the relative position L and the posture (Δα, Δγ) between the camera 17 and the surface of the work 9 are automatically measured by the equations (4) to (6) by image processing (step). Q 2 ). Next, L = ho (target value) + (Δx, Δα,
Δγ) correction measurement data is transferred to the driver circuit 14,
Allowed to move the sensor head to the correction position and the correction posture (Step Q 3). Finally, the robot position and posture after movement are stored in the storage unit for breakback in the CPU 13 (step Q 4 ), and the copying teaching process is completed.
H.発明の効果 本発明は、以上の如くであって、三次元の位置,姿勢
計測を1回の映像信号の取り込みで実行できるのでセン
サヘッド部を局所変位させることなく高速に計測でき、
高速計測が可能にしてロボットの稼動率を大幅に向上さ
せることができる。また、三次元データを用いて位置姿
勢の計算を行っているので、補正結果が正確であり、不
連続な一次微係数を持つ曲面に対しても安定してかつ高
速な自動倣い動作を実現できる等の効果を有する。H. Effect of the Invention The present invention is as described above, and since three-dimensional position / orientation measurement can be performed by one time capturing of a video signal, high-speed measurement can be performed without locally displacing the sensor head unit.
High-speed measurement is possible and the operating rate of the robot can be greatly improved. Further, since the position and orientation are calculated using three-dimensional data, the correction result is accurate, and stable and high-speed automatic copying operation can be realized even on a curved surface having a discontinuous linear differential coefficient. And so on.
第1図は本発明の実施例に係るロボットの倣い制御装置
のブロック結線図、第2図は第1図の装置をより具体的
に示した説明図、第3図はロボットの手先部の座標系
図、第4図はスリットとカメラの座標系図、第5図はス
リットから測定面までの座標系図、第6図はスリットに
よる三次元計測図、第7図は第1図の装置の処理フロー
図、第8図はワークの形状と加工ヘッドの移動状態を示
す説明図である。 1…ロボット本体、5…手先部、8…プラズマトーチ、
9…被加工部であるワーク、11…制御部、12…信号変換
回路、13…演算処理部、14…ドライバ回路、15…セン
サ、16…加工部、17…カメラ、18…スリット光投影器、
20a,20b…スリット像。FIG. 1 is a block connection diagram of a copying control device for a robot according to an embodiment of the present invention, FIG. 2 is an explanatory diagram showing the device of FIG. 1 more specifically, and FIG. 3 is coordinates of a hand portion of the robot. System diagram, FIG. 4 is a coordinate system diagram of the slit and the camera, FIG. 5 is a coordinate system diagram from the slit to the measurement surface, FIG. 6 is a three-dimensional measurement diagram by the slit, and FIG. 7 is a processing flow diagram of the apparatus of FIG. , FIG. 8 is an explanatory view showing the shape of the work and the moving state of the processing head. 1 ... Robot body, 5 ... Hand part, 8 ... Plasma torch,
Reference numeral 9 ... Work piece to be processed, 11 ... Control section, 12 ... Signal conversion circuit, 13 ... Arithmetic processing section, 14 ... Driver circuit, 15 ... Sensor, 16 ... Processing section, 17 ... Camera, 18 ... Slit light projector ,
20a, 20b ... Slit image.
───────────────────────────────────────────────────── フロントページの続き (72)発明者 塩月 正雄 茨城県東茨城郡大洗町成田町4002 動力 炉・核燃料開発事業団大洗工学センター内 (72)発明者 遠藤 昇 茨城県東茨城郡大洗町成田町4002 動力 炉・核燃料開発事業団大洗工学センター内 (72)発明者 岩田 耕一 東京都品川区大崎2丁目1番17号 株式会 社明電舎内 (72)発明者 井倉 浩司 東京都品川区大崎2丁目1番17号 株式会 社明電舎内 (72)発明者 高橋 常悦 東京都品川区大崎2丁目1番17号 株式会 社明電舎内 (72)発明者 根本 友文 東京都品川区大崎2丁目1番17号 株式会 社明電舎内 (56)参考文献 特開 昭61−203285(JP,A) 特開 昭60−118907(JP,A) ─────────────────────────────────────────────────── ─── Continuation of the front page (72) Masao Shiotsuki, Narita-cho, Oarai-cho, Higashi-Ibaraki-gun, Ibaraki 4002 Narita-cho, Oarai Engineering Center (72) Inventor Noboru Endo Oarai-cho, Higashi-Ibaraki-gun, Ibaraki Narita-cho 4002 Power Reactor / Nuclear Fuel Development Corporation Oarai Engineering Center (72) Inventor Koichi Iwata 2-1-1-17 Osaki, Shinagawa-ku, Tokyo Incorporated company Meidensha (72) Inventor Koji Ikura 2 Osaki, Shinagawa-ku, Tokyo 1-17 No. 17 inside the company Meidensha (72) Inventor Tsuneetsu Takahashi 2 1-117 Osaki, Shinagawa-ku, Tokyo Inside the company Meidensha (72) Tomonbun Nemoto 2-chome Osaki, Shinagawa-ku, Tokyo No. 17 Stock Company Shameidensha (56) Reference JP 61-203285 (JP, A) JP 60-118907 (JP, A)
Claims (1)
ド部を移動させて前記教示点に対して前記手先ヘッド部
を動作させる制御装置において、前記手先ヘッド部近傍
に配設され前記被加工物に一対のスリット光を投射する
投影器と該投影器の一対スリット光による一対のスリッ
ト像を撮像する撮像手段と、該撮像手段より前記一対の
スリット像の状態を検出する像検出手段と、該像検出手
段による検出データに基づいて前記撮像手段のセンサと
前記被加工物間の位置および姿勢を演算する演算手段と
からなり、該演算手段が前記像検出手段により検出され
た一対のスリット像の三次元座標系における点を前記撮
像手段の画像上の点に変換した値に基づいて位置補正デ
ータと姿勢データを算出し、該演算手段による位置補正
データと姿勢補正データに基づいて前記ロボット手先ヘ
ッド部を前記被加工物の表面に対して倣わせるようにし
たことを特徴とするロボットの倣い制御装置。1. A control device for moving a hand head part of a robot to a teaching point on a workpiece to operate the hand head part with respect to the teaching point, the control device being disposed in the vicinity of the hand head part. A projector for projecting a pair of slit light beams on a workpiece, an image pickup means for picking up a pair of slit images by the pair of slit light beams of the projector, and an image detection means for detecting a state of the pair of slit images by the image pickup means. A pair of slits detected by the image detection means, the calculation means calculating the position and orientation between the sensor of the image pickup means and the workpiece based on the detection data by the image detection means. Position correction data and posture data are calculated based on values obtained by converting points in the three-dimensional coordinate system of the image into points on the image of the image pickup means, and the position correction data and posture correction by the calculation means are performed. Scanning control apparatus for a robot, characterized in that the robot hand head portion and so as to modeled after with respect to the surface of the workpiece based on the over data.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP62194639A JPH0830977B2 (en) | 1987-08-04 | 1987-08-04 | Robot copy control device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP62194639A JPH0830977B2 (en) | 1987-08-04 | 1987-08-04 | Robot copy control device |
Publications (2)
Publication Number | Publication Date |
---|---|
JPS6437605A JPS6437605A (en) | 1989-02-08 |
JPH0830977B2 true JPH0830977B2 (en) | 1996-03-27 |
Family
ID=16327860
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP62194639A Expired - Fee Related JPH0830977B2 (en) | 1987-08-04 | 1987-08-04 | Robot copy control device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH0830977B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2781078B2 (en) * | 1990-10-15 | 1998-07-30 | 日立化成工業株式会社 | Insert / insert body removing method, insert / insert body attaching method and apparatus thereof, and insert / insert body attaching / detaching robot |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS60118907A (en) * | 1983-12-01 | 1985-06-26 | Tokico Ltd | Industrial robot |
JPS61203285A (en) * | 1985-03-04 | 1986-09-09 | 株式会社日立製作所 | Method of controlling operation of robot |
-
1987
- 1987-08-04 JP JP62194639A patent/JPH0830977B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPS6437605A (en) | 1989-02-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US4907169A (en) | Adaptive tracking vision and guidance system | |
US4761596A (en) | Method of detecting and controlling work start point of robot | |
US4575304A (en) | Robot system for recognizing three dimensional shapes | |
JP5715809B2 (en) | Robot work program creation method, robot work program creation device, and robot control system | |
JP6900290B2 (en) | Robot system | |
JP6869159B2 (en) | Robot system | |
JP2006048244A (en) | Working program generating device | |
GB2087107A (en) | Manipulator welding apparatus with vision correction for workpiece sensing | |
JPS6389277A (en) | Industrial robot device | |
JP3317101B2 (en) | Welding robot | |
EP3895855A1 (en) | Robot control system and robot control method | |
JP3517529B2 (en) | Image input type robot system | |
JPH09183087A (en) | Working robot device | |
JP2773917B2 (en) | Work positioning device for bending equipment | |
JP2543091B2 (en) | Robot copy control device | |
JPH0830977B2 (en) | Robot copy control device | |
JP2678202B2 (en) | Welding position detection device and welding robot equipped with the device | |
JPH05318280A (en) | Grinding attitude producing device of grinding robot | |
JPH079603B2 (en) | Robot copy control device | |
JP2895289B2 (en) | Automatic welding copying machine | |
JPH05345255A (en) | Grinding route generating device for grinding robot | |
JPH0418601B2 (en) | ||
JP2654206B2 (en) | Touch-up method | |
JP2899642B2 (en) | Processing position detection device and processing position detection method | |
JPH05337785A (en) | Grinding path correcting device of grinder robot |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
LAPS | Cancellation because of no payment of annual fees |