JPH09174468A - Robot teaching device - Google Patents

Robot teaching device

Info

Publication number
JPH09174468A
JPH09174468A JP35136495A JP35136495A JPH09174468A JP H09174468 A JPH09174468 A JP H09174468A JP 35136495 A JP35136495 A JP 35136495A JP 35136495 A JP35136495 A JP 35136495A JP H09174468 A JPH09174468 A JP H09174468A
Authority
JP
Japan
Prior art keywords
robot
unit
camera
instruction data
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP35136495A
Other languages
Japanese (ja)
Other versions
JP2708032B2 (en
Inventor
Kazuyoshi Takei
和義 武井
Yoshitake Izumi
良武 泉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP7351364A priority Critical patent/JP2708032B2/en
Publication of JPH09174468A publication Critical patent/JPH09174468A/en
Application granted granted Critical
Publication of JP2708032B2 publication Critical patent/JP2708032B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To obviate the need to determine a corresponding relation between a position on a screen and a position at a robot coordinate system each time a camera is moved, in a robot teaching device to teach a robot operation point by using a work image photographed by a camera. SOLUTION: A camera 2 is fixed at an arm 1, and offset amounts of a camera 2 and a hand 3 are stored at an offset amount containing part 15. The position of the hand 3 detected by a position detector 5 is stored in a robot position storing part 13. A work photographed by the camera 2 is displayed at a display part 7 and a robot operation point is indicated by a user by means of a touch panel 8. An indication data calculating part 9 determined a distance to a robot operation point, indicated by the camera 2, based on the position of a point indicated by a touch panel. A computing part 16 determines robot operation point data based on the contents of the robot position containing part 13, an indication data containing part 14, and the offset amount containing part 15.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、平面動作型ロボッ
トに於けるロボット動作点の教示を容易に行えるように
したロボット教示装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a robot teaching device capable of easily teaching a robot operating point in a planar motion robot.

【0002】[0002]

【従来の技術】従来、ロボット動作点の教示を行う場
合、ティーチングボックスからの指示によってロボット
のアームをロボット動作点に移動させるか、或いはアー
ムを直接人間の手によってロボット動作点に移動させ、
その位置をロボット動作点として記憶させる方法が一般
に採用されていた。しかし、この方法では、操作が面倒
であり、作業に極めて多くの手数及び時間を要し、しか
も危険が伴うという欠点があった。
2. Description of the Related Art Conventionally, when teaching a robot operating point, a robot arm is moved to a robot operating point by an instruction from a teaching box, or an arm is directly moved to a robot operating point by a human hand.
A method of storing the position as a robot operating point has been generally adopted. However, this method has the drawbacks that the operation is troublesome, the operation requires a great deal of trouble and time, and that it involves danger.

【0003】そこで、TVカメラを所定の位置に配置し
てワークを撮像し、撮像されたワーク図形をCRTモニ
タに表示し、ライトペン等を使用してCRTモニタ上で
教示すべき点を指示し、この指示された点に基づいて計
算機でロボット動作点データを算出するという方法が提
案された(例えば、特開昭61−279480号公
報)。
[0003] Therefore, a TV camera is arranged at a predetermined position to capture an image of a workpiece, the captured workpiece graphic is displayed on a CRT monitor, and a point to be taught on the CRT monitor is indicated using a light pen or the like. A method has been proposed in which a computer calculates robot operating point data based on the designated points (for example, Japanese Patent Application Laid-Open No. 61-279480).

【0004】[0004]

【発明が解決しようとする課題】ところで、ワークをT
Vカメラで撮像する場合、ワークが大きければ、TVカ
メラをワークから遠ざけなければ、ワーク全体を画面に
表示することができない。しかし、そのようにすると、
画面上でロボット動作点を指示する際の精度が悪くなる
ため、そのようにすることはできない。
By the way, the work is
When the image is picked up by the V camera, if the work is large, the entire work cannot be displayed on the screen unless the TV camera is moved away from the work. But if you do so,
This is not possible because the accuracy when indicating the robot operating point on the screen is poor.

【0005】従って、ワークが大きい場合には、ワーク
を幾つかの部分に分けて撮像し、各部分毎に教示を行う
ことが必要になる。つまり、ワークの或る部分について
の教示が終了したら、TVカメラを移動させて次の部分
を撮像し、その部分について教示を行うという作業を繰
り返し行うことが必要になる。また、画面上の指示され
た点に基づいて、計算機でロボット動作点データを算出
するには、画面上の位置とロボット座標系に於ける位置
との対応関係を計算機に与えておく必要があるが、その
対応関係はTVカメラを移動させる毎に変わるものであ
るので、TVカメラを移動させる毎に、TVカメラの位
置等に基づいて新たな対応関係を求めて計算機に与える
必要がある。しかし、上述した従来の技術には、TVカ
メラの位置等を求めるような手段がないため、人手でT
Vカメラの位置等を測定し、画面上の位置とロボット座
標系に於ける位置との対応関係を求めなければならず、
利用者に負担がかかるという問題があった。
[0005] Therefore, when the work is large, it is necessary to take an image of the work divided into several parts and to teach each part. In other words, when the teaching of a certain part of the work is completed, it is necessary to repeat the operation of moving the TV camera to capture an image of the next part and teaching the part. Further, in order to calculate the robot operating point data by the computer based on the designated point on the screen, it is necessary to give the computer a correspondence between the position on the screen and the position in the robot coordinate system. However, since the correspondence changes every time the TV camera is moved, it is necessary to obtain a new correspondence based on the position of the TV camera or the like every time the TV camera is moved and to provide the new correspondence to the computer. However, in the above-described conventional technology, there is no means for obtaining the position of the TV camera or the like.
It is necessary to measure the position of the V camera, etc., and find the correspondence between the position on the screen and the position in the robot coordinate system.
There was a problem that the user was burdened.

【0006】そこで、本発明の目的は、ワークを幾つか
の部分に分けて撮像し、各部分毎にロボット動作点デー
タの教示を行うことが必要になる場合に於いても、撮像
手段を移動させる毎に、画面上の位置とロボット座標系
に於ける位置との対応関係を求めることが必要のないロ
ボット教示装置を提供することにある。
Accordingly, an object of the present invention is to move the image pickup means even when it is necessary to take an image of the work in several parts and to teach the robot operating point data for each part. It is an object of the present invention to provide a robot teaching device that does not need to find the correspondence between the position on the screen and the position in the robot coordinate system each time the operation is performed.

【0007】[0007]

【課題を解決するための手段】本発明は上記目的を達成
するため、平面動作型ロボットのアームに固定された撮
像手段と、該撮像手段で撮像されたワークを表示する表
示部と、前記ワークが表示された前記表示部上でロボッ
ト動作点とする点を指示するポインティング手段と、該
ポインティング手段によって指示された点の位置に基づ
いて、ロボット座標系に於けるロボット動作点から前記
撮像手段までの距離を示す指示データを算出する指示デ
ータ算出部と、前記アームのハンド位置を検出する位置
検出器と、前記平面動作型ロボットのハンドと前記撮像
手段とのオフセット量が格納されるオフセット量格納部
と、前記オフセット量格納部に格納されたオフセット量
と、前記位置検出器の位置検出結果と、前記指示データ
算出部で算出された指示データとに基づいてロボット動
作点データを演算する演算部とを備えたものである。
In order to achieve the above object, the present invention has an image pickup means fixed to an arm of a planar motion type robot, a display section for displaying a work imaged by the image pickup means, and the work piece. From the robot operating point in the robot coordinate system to the image capturing means based on the pointing means for pointing a point to be the robot operating point on the display part where is displayed, and the position of the point designated by the pointing means. An instruction data calculation unit that calculates instruction data indicating the distance, a position detector that detects the hand position of the arm, an offset amount storage that stores an offset amount between the hand of the planar motion robot and the imaging unit. Unit, the offset amount stored in the offset amount storage unit, the position detection result of the position detector, and the instruction data calculation unit. It is obtained by an arithmetic unit for calculating a robot operating point data based on the instruction data.

【0008】上記した構成に於いては、撮像手段の位置
は、常に表示部上の特定の点と対応する。従って、撮像
手段を移動させても、ポインティング手段によって指示
された、表示部上のロボット動作点とすべき点の位置に
基づいて、ロボット動作点から撮像手段までの距離を示
す指示データを算出することができる。また、撮像手
段,ハンドが平面動作型ロボットのアームに固定されて
いるので、ハンドと撮像手段とのオフセット量は、アー
ムを動かして撮像手段の位置を移動させても常に一定で
ある。従って、撮像手段をどのような位置に移動させて
も、アームと撮像手段とのオフセット量と、位置検出器
の位置検出結果と、指示データ算出部で算出された指示
データとに基づいて、演算部でロボット動作点データを
求めることができる。
In the above arrangement, the position of the imaging means always corresponds to a specific point on the display. Therefore, even if the imaging means is moved, the instruction data indicating the distance from the robot operating point to the imaging means is calculated based on the position of the point that should be the robot operating point on the display unit, which is instructed by the pointing means. be able to. Further, since the imaging unit and the hand are fixed to the arm of the planar motion robot, the offset amount between the hand and the imaging unit is always constant even if the position of the imaging unit is moved by moving the arm. Therefore, no matter what position the imaging unit is moved, the calculation is performed based on the offset amount between the arm and the imaging unit, the position detection result of the position detector, and the instruction data calculated by the instruction data calculation unit. Section can obtain the robot operating point data.

【0009】[0009]

【発明の実施の形態】次に本発明の実施の形態について
図面を参照して詳細に説明する。
Embodiments of the present invention will now be described in detail with reference to the drawings.

【0010】図1は本発明の実施例のブロック図であ
り、平面動作型ロボットのアーム1と、カメラ2と、ハ
ンド3と、ワーク4と、位置検出器5と、教示器6と、
格納制御部10と、キーボード11と、データ格納部1
2と、演算部16と、ロボット動作点データ格納部17
とから構成されている。
FIG. 1 is a block diagram of an embodiment of the present invention. The arm 1, a camera 2, a hand 3, a work 4, a position detector 5, a teaching device 6,
Storage control unit 10, keyboard 11, data storage unit 1
2, a calculation unit 16, and a robot operating point data storage unit 17
It is composed of

【0011】平面動作型ロボットのアーム1の先端近傍
にはワーク4を撮像するカメラ2が固定されている。ア
ーム1は、図示を省略したモータ等の駆動手段によって
X,Y平面内で移動可能になっている。また、アーム1
にはハンド3が取り付けられている。
A camera 2 for picking up an image of a workpiece 4 is fixed near the tip of the arm 1 of the planar motion robot. The arm 1 can be moved in the X and Y planes by driving means such as a motor (not shown). Also, arm 1
Has a hand 3 attached thereto.

【0012】位置検出器5は、ハンド3のロボット座標
系に於けるX,Y座標値を検出する機能を有する。
The position detector 5 has a function of detecting X and Y coordinate values of the hand 3 in the robot coordinate system.

【0013】教示器6は、カメラ2によって撮像された
ワーク4を表示する表示部7と、表示部7上の点を指示
するためのタッチパネル8と、タッチパネル8によって
指示された点に基づいて、ロボット座標系に於けるカメ
ラ2とロボット動作点との間のX,Y軸方向の距離を示
す指示データを算出する指示データ算出部9とを備えて
いる。
The teaching device 6 includes a display unit 7 for displaying the work 4 imaged by the camera 2, a touch panel 8 for indicating a point on the display unit 7, and a point indicated by the touch panel 8. An instruction data calculation unit 9 is provided for calculating instruction data indicating the distance between the camera 2 and the robot operating point in the X and Y axes in the robot coordinate system.

【0014】格納制御部10は、キーボード11からロ
ボット位置格納指示が入力された時点に於いて位置検出
器5が検出しているハンド3のロボット座標系に於ける
X,Y座標値をロボット位置データとしてロボット位置
格納部13に格納する機能,指示データ算出部9で算出
された指示データを指示データ格納部14に格納する機
能,キーボード11から入力されたカメラ2とハンド3
とのロボット座標系に於けるX,Y軸方向のオフセット
量をオフセット量格納部15に格納する機能を有する。
The storage control unit 10 converts the X and Y coordinate values in the robot coordinate system of the hand 3 detected by the position detector 5 when the robot position storage instruction is input from the keyboard 11 into the robot position. A function of storing the instruction data calculated by the instruction data calculation unit 9 in the instruction data storage unit 14; a function of storing the camera 2 and the hand 3 input from the keyboard 11;
And a function of storing the offset amounts in the X and Y axis directions in the robot coordinate system in the offset amount storage unit 15.

【0015】演算部16は、ロボット位置格納部13に
格納されている位置検出器5の検出結果と、指示データ
格納部14に格納されている指示データと、オフセット
量格納部15に格納されているオフセット量とに基づい
てロボット動作点データを演算し、演算結果であるロボ
ット動作点データをロボット動作点データ格納部17に
格納する機能を有する。
The calculation unit 16 stores the detection result of the position detector 5 stored in the robot position storage unit 13, the instruction data stored in the instruction data storage unit 14, and the offset amount storage unit 15. The robot operation point data is calculated based on the offset amount and the robot operation point data that is the calculation result is stored in the robot operation point data storage unit 17.

【0016】図2は本実施例の動作の一例を示す流れ
図、図3はロボット位置データと、指示データと、ロボ
ット動作点データとの関係を示す図であり、以下各図を
参照して本実施例の動作を説明する。
FIG. 2 is a flowchart showing an example of the operation of the present embodiment, and FIG. 3 is a diagram showing the relationship among robot position data, instruction data, and robot operating point data. The operation of the embodiment will be described.

【0017】図2を参照すると、先ず、利用者は、平面
動作型ロボットのアーム1の先端近傍にワーク4を撮像
するカメラ2を取り付ける(S1)。
Referring to FIG. 2, first, a user mounts a camera 2 for picking up an image of a work 4 near a tip of an arm 1 of a planar motion robot (S1).

【0018】その後、利用者は、平面動作型ロボットの
ハンド3とカメラ2とのロボット座標系に於けるX,Y
軸方向のオフセット量(Xoff,Yoff)を測定に
より求め、求めたオフセット量(Xoff,Yoff)
をキーボード11から入力する(S2)。これにより、
格納制御部10は、入力されたオフセット量(Xof
f,Yoff)をオフセット量格納部15に格納する。
Thereafter, the user makes an X, Y motion in the robot coordinate system between the hand 3 and the camera 2 of the planar motion type robot.
The offset amount (Xoff, Yoff) in the axial direction is obtained by measurement, and the obtained offset amount (Xoff, Yoff) is obtained.
Is input from the keyboard 11 (S2). This allows
The storage control unit 10 determines whether the input offset amount (Xof
f, Yoff) is stored in the offset amount storage unit 15.

【0019】その後、利用者は、表示部7の表示を見な
がら動作点平面動作型ロボットのアーム1を移動させる
ことによりカメラ2を移動させ、表示部7にワーク4が
表示されるようにする(S3)。その際、ワーク4が大
きく、ワーク全体を表示部7に表示できない場合は、ワ
ーク4の一部であって、ワーク4上の最初のロボット動
作点とすべき点を含む部分が表示部7に表示されるよう
な位置にカメラ2を移動させる。
Thereafter, the user moves the camera 2 by moving the arm 1 of the operating point plane operation type robot while watching the display on the display unit 7 so that the work 4 is displayed on the display unit 7. (S3). At this time, when the work 4 is large and the entire work cannot be displayed on the display unit 7, a part of the work 4 including a point to be the first robot operating point on the work 4 is displayed on the display unit 7. The camera 2 is moved to a position as displayed.

【0020】その後、利用者は、キーボード11からロ
ボット位置格納指示を入力する(S4)。これにより、
格納制御部10は、その時点で位置検出器5が検出して
いる、ハンド3のロボット座標系に於けるX,Y座標値
(Xrcp,Yrcp)をロボット位置データとしてロ
ボット位置格納部13に格納する。
Thereafter, the user inputs a robot position storage instruction from the keyboard 11 (S4). This allows
The storage control unit 10 stores the X and Y coordinate values (Xrcp, Yrcp) in the robot coordinate system of the hand 3 detected by the position detector 5 at that time in the robot position storage unit 13 as robot position data. I do.

【0021】その後、利用者は、表示部7に表示された
ワーク画像を見て、最初のロボット動作点とする点をタ
ッチパネル8から指示する(S5)。
Thereafter, the user looks at the work image displayed on the display unit 7 and designates a point to be the first robot operating point from the touch panel 8 (S5).

【0022】タッチパネル8からロボット動作点とすべ
き点が指示されると、指示データ算出部9は、ロボット
座標系に於けるカメラ2からロボット動作点までのX,
Y軸方向の距離(Xci,Yci)を算出し、それを指
示データとして格納制御部10に渡す。格納制御部10
は、指示データ算出部9から渡された指示データ(Xc
i,Yci)を指示データ格納部14に格納する(S
6)。ここで、表示部7に於いては、カメラ2の位置
は、常に特定の点(例えば、表示部7の中心)と対応す
るので、指示データ算出部9で表示部7上の上記点の座
標値とタッチパネル8から指示された点の座標値との
X,Y軸方向の差分を求め、求めた差分に、表示部7に
於ける単位長とロボット座標系に於ける単位長との比率
(倍率)を乗じることにより、ロボット座標系に於ける
カメラ2からロボット動作点までのX,Y軸方向の距離
(Xci,Yci)を算出することができる。
When a point to be set as a robot operating point is indicated from the touch panel 8, the instruction data calculating unit 9 determines X, the distance from the camera 2 to the robot operating point in the robot coordinate system.
The distance (Xci, Yci) in the Y-axis direction is calculated and passed to the storage control unit 10 as instruction data. Storage control unit 10
Is the instruction data (Xc) passed from the instruction data calculation unit 9.
i, Yci) in the instruction data storage unit 14 (S
6). Here, in the display unit 7, the position of the camera 2 always corresponds to a specific point (for example, the center of the display unit 7). The difference between the value and the coordinate value of the point designated from the touch panel 8 in the X and Y axis directions is calculated, and the ratio of the unit length in the display unit 7 and the unit length in the robot coordinate system ( By multiplying by (magnification), the distance (Xci, Yci) in the X and Y-axis directions from the camera 2 to the robot operating point in the robot coordinate system can be calculated.

【0023】格納制御部10によってカメラ2とロボッ
ト動作点との間のX,Y軸方向の距離を示す指示データ
(Xci,Yci)が指示データ格納部14に格納され
ると、演算部16は、ロボット位置データ,指示デー
タ,ロボット動作点データの関係が図3に示すものであ
ることから、ロボット位置格納部13に格納されてい
る、ハンド3のロボット座標系に於けるX,Y座標値
(Xrcp,Yrcp)と、指示データ格納部14に格
納された今回の指示データ(Xci,Yci)と、オフ
セット量格納部15に格納されているオフセット量(X
off,Yoff)とに基づいて、次式(1),(2)
に示す演算を行うことにより、ロボット動作点データ
(Xi,Yi)を求め、求めたロボット動作点データ
(Xi,Yi)をロボット動作点データ格納部17に格
納する(S8)。
When instruction data (Xci, Yci) indicating the distance between the camera 2 and the robot operating point in the X and Y axes directions is stored in the instruction data storage unit 14 by the storage control unit 10, the arithmetic unit 16 Since the relationship among the robot position data, the instruction data, and the robot operating point data is as shown in FIG. 3, the X and Y coordinate values in the robot coordinate system of the hand 3 stored in the robot position storage unit 13 are shown. (Xrcp, Yrcp), the current instruction data (Xci, Yci) stored in the instruction data storage unit 14, and the offset amount (X
off, Yoff), the following equations (1), (2)
The robot operation point data (Xi, Yi) is obtained by performing the calculation shown in (1), and the obtained robot operation point data (Xi, Yi) is stored in the robot operation point data storage unit 17 (S8).

【0024】 Xi=Xrcp+Xoff+Xci … (1) Yi=Yrcp+Yoff+Yci … (2)Xi = Xrcp + Xoff + Xci (1) Yi = Yrcp + Yoff + Yci (2)

【0025】その後、利用者は、表示部7に次のロボッ
ト動作点とするワーク4上の点が表示されている場合
(S9,S10が共にNO)には、ロボット動作点をタ
ッチパネル8から指示する操作を再び行う(S5)。
Thereafter, when a point on the workpiece 4 to be the next robot operating point is displayed on the display unit 7 (NO in S9 and S10), the user indicates the robot operating point from the touch panel 8. (S5).

【0026】また、表示部7に次のロボット動作点とす
るワーク4上の点が表示されておらず、ワークの別の部
分をカメラ2によって撮像することが必要になった場合
(S9がYES)は、カメラ2を移動させ、次のロボッ
ト動作点とするワーク4上の点が表示部7に表示される
ようにする(S3)。その後、利用者は、前述したと同
様に、キーボード11からロボット位置格納指示を入力
して、その時のハンド3のロボット座標系に於けるX,
Y座標値をロボット位置格納部13に格納する(S
4)。その後、利用者がタッチパネル8を使用してロボ
ット動作点を指示すると、指示データ算出部9は前述し
たと同様にして指示データを算出し、演算部16も前述
したと同様に式(1),(2)に示す演算を行うことに
より、ロボット動作点データを求める。
In the case where a point on the work 4 to be the next robot operating point is not displayed on the display unit 7 and another part of the work needs to be imaged by the camera 2 (YES at S9). In step (3), the camera 2 is moved so that a point on the workpiece 4 which is the next robot operating point is displayed on the display unit 7 (S3). Thereafter, the user inputs a robot position storage instruction from the keyboard 11 in the same manner as described above, and the X, X in the robot coordinate system of the hand 3 at that time.
The Y coordinate value is stored in the robot position storage unit 13 (S
4). Thereafter, when the user designates the robot operating point using the touch panel 8, the instruction data calculation unit 9 calculates the instruction data in the same manner as described above, and the calculation unit 16 also calculates the equation (1), The operation shown in (2) is performed to obtain the robot operating point data.

【0027】[0027]

【発明の効果】以上説明したように本発明は撮像手段を
平面動作型ロボットのアームに固定すると共に、アーム
のハンド位置を検出する位置検出器と、タッチパネル等
のポインティング手段によって指示された点の位置に基
づいてカメラとロボット動作点との間の距離を示す指示
データを算出する指示データ算出部と、ハンドと撮像手
段とのオフセット量が格納されるオフセット量格納部
と、オフセット量,指示データ及び位置検出器の検出結
果とに基づいてロボット動作データを演算する演算部を
備えているので、ワークが大きい場合のように、ワーク
を幾つかの部分に分けて撮像し、各部分毎にロボット動
作データの教示を行うことが必要になる場合に於いて
も、撮像手段を移動させる毎に、画面上の位置とロボッ
ト座標系に於ける位置との対応関係を求めることが必要
なく、従ってワークが大きい場合であっても、ロボット
動作点データの教示を容易に行うことができる。
As described above, according to the present invention, the image pickup means is fixed to the arm of the plane motion type robot, and the position detector for detecting the hand position of the arm and the point indicated by the pointing means such as the touch panel are provided. An instruction data calculation unit that calculates instruction data that indicates the distance between the camera and the robot operating point based on the position, an offset amount storage unit that stores the offset amount between the hand and the imaging unit, the offset amount, and the instruction data. Also, since the robot is provided with a computing unit that computes the robot operation data based on the detection result of the position detector, the workpiece is divided into several parts to be imaged as in the case of a large work, and the robot is divided into parts. Even when it is necessary to teach motion data, the position on the screen and the position in the robot coordinate system are changed each time the imaging means is moved. Correspondence without be obtained, thus even if the workpiece is large, it is possible to easily teach the robot operating point data.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施例のブロック図である。FIG. 1 is a block diagram of an embodiment of the present invention.

【図2】本実施例の動作の一例を示す流れ図である。FIG. 2 is a flowchart illustrating an example of the operation of the present embodiment.

【図3】ロボット位置データと、指示データと、ロボッ
ト動作点データとの関係を示す図である。
FIG. 3 is a diagram showing a relationship among robot position data, instruction data, and robot operating point data.

【符号の説明】[Explanation of symbols]

1…アーム 2…カメラ 3…ハンド 4…ワーク 5…位置検出器 6…教示器 7…表示部 8…タッチパネル 9…指示データ算出部 10…格納制御部 11…キーボード 12…データ格納部 13…ロボット位置格納部 14…指示データ格納部 15…オフセット量格納部 16…演算部 17…ロボット動作点データ格納部 DESCRIPTION OF SYMBOLS 1 ... Arm 2 ... Camera 3 ... Hand 4 ... Work 5 ... Position detector 6 ... Teaching device 7 ... Display part 8 ... Touch panel 9 ... Instruction data calculation part 10 ... Storage control part 11 ... Keyboard 12 ... Data storage part 13 ... Robot Position storage unit 14 ... Instruction data storage unit 15 ... Offset amount storage unit 16 ... Calculation unit 17 ... Robot operating point data storage unit

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 平面動作型ロボットのアームに固定され
た撮像手段と、 該撮像手段で撮像されたワークを表示する表示部と、 前記ワークが表示された前記表示部上でロボット動作点
とする点を指示するポインティング手段と、 該ポインティング手段によって指示された点の位置に基
づいて、ロボット座標系に於けるロボット動作点から前
記撮像手段までの距離を示す指示データを算出する指示
データ算出部と、 前記アームのハンド位置を検出する位置検出器と、 前記平面動作型ロボットのハンドと前記撮像手段とのオ
フセット量が格納されるオフセット量格納部と、 前記オフセット量格納部に格納されたオフセット量と、
前記位置検出器の位置検出結果と、前記指示データ算出
部で算出された指示データとに基づいてロボット動作点
データを演算する演算部とを備えたことを特徴とするロ
ボット教示装置。
1. An imaging means fixed to an arm of a planar motion type robot, a display section for displaying a work imaged by the imaging means, and a robot operating point on the display section on which the work is displayed. A pointing means for indicating a point, and an instruction data calculation section for calculating instruction data indicating a distance from the robot operating point in the robot coordinate system to the image pickup means based on the position of the point indicated by the pointing means. A position detector that detects a hand position of the arm, an offset amount storage unit that stores an offset amount between the hand of the planar motion robot and the imaging unit, and an offset amount stored in the offset amount storage unit When,
A robot teaching device comprising: a calculation unit that calculates robot operating point data based on the position detection result of the position detector and the instruction data calculated by the instruction data calculation unit.
【請求項2】 前記指示データ算出部は、前記表示部上
の前記ポインティング手段によって指示された点から前
記表示部上の前記撮像手段の位置に対応する予め定めら
れた点までの距離に基づいて前記指示データを算出する
構成を備えたことを特徴とする請求項1記載のロボット
教示装置。
2. The instruction data calculation unit is based on a distance from a point indicated by the pointing unit on the display unit to a predetermined point corresponding to the position of the image pickup unit on the display unit. The robot teaching apparatus according to claim 1, further comprising a configuration for calculating the instruction data.
【請求項3】 前記ポインティング手段はタッチパネル
であることを特徴とする請求項2記載のロボット教示装
置。
3. The robot teaching device according to claim 2, wherein said pointing means is a touch panel.
JP7351364A 1995-12-26 1995-12-26 Robot teaching device Expired - Fee Related JP2708032B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7351364A JP2708032B2 (en) 1995-12-26 1995-12-26 Robot teaching device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7351364A JP2708032B2 (en) 1995-12-26 1995-12-26 Robot teaching device

Publications (2)

Publication Number Publication Date
JPH09174468A true JPH09174468A (en) 1997-07-08
JP2708032B2 JP2708032B2 (en) 1998-02-04

Family

ID=18416800

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7351364A Expired - Fee Related JP2708032B2 (en) 1995-12-26 1995-12-26 Robot teaching device

Country Status (1)

Country Link
JP (1) JP2708032B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002283258A (en) * 2001-03-22 2002-10-03 Fujie:Kk Program list display system
JP2011095996A (en) * 2009-10-29 2011-05-12 Mitsubishi Electric Engineering Co Ltd Robot teaching device
JP2012165217A (en) * 2011-02-08 2012-08-30 Naoyuki Murakami Relational operation method for television camera monitor screen of numerical control apparatus
JP2014083610A (en) * 2012-10-19 2014-05-12 Yaskawa Electric Corp Robot system, and method for manufacturing processed goods
WO2017037931A1 (en) * 2015-09-03 2017-03-09 株式会社安川電機 Processing-trajectory editing device, robot, article processing system, and article production method
WO2018173178A1 (en) * 2017-03-23 2018-09-27 株式会社Fuji Robot system
JP2019076972A (en) * 2017-10-20 2019-05-23 株式会社安川電機 Automation apparatus
CN111941392A (en) * 2019-05-14 2020-11-17 发那科株式会社 Robot operating device, robot, and robot operating method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0174083U (en) * 1987-11-06 1989-05-18
JPH07308878A (en) * 1994-03-16 1995-11-28 Tokico Ltd Teaching device for robot

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0174083U (en) * 1987-11-06 1989-05-18
JPH07308878A (en) * 1994-03-16 1995-11-28 Tokico Ltd Teaching device for robot

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002283258A (en) * 2001-03-22 2002-10-03 Fujie:Kk Program list display system
JP2011095996A (en) * 2009-10-29 2011-05-12 Mitsubishi Electric Engineering Co Ltd Robot teaching device
JP2012165217A (en) * 2011-02-08 2012-08-30 Naoyuki Murakami Relational operation method for television camera monitor screen of numerical control apparatus
JP2014083610A (en) * 2012-10-19 2014-05-12 Yaskawa Electric Corp Robot system, and method for manufacturing processed goods
WO2017037931A1 (en) * 2015-09-03 2017-03-09 株式会社安川電機 Processing-trajectory editing device, robot, article processing system, and article production method
JPWO2017037931A1 (en) * 2015-09-03 2018-04-26 株式会社安川電機 Processing locus editing apparatus, robot, article processing system, and article manufacturing method
WO2018173178A1 (en) * 2017-03-23 2018-09-27 株式会社Fuji Robot system
CN110402190A (en) * 2017-03-23 2019-11-01 株式会社富士 Robot system
CN110402190B (en) * 2017-03-23 2022-12-06 株式会社富士 Robot system
JP2019076972A (en) * 2017-10-20 2019-05-23 株式会社安川電機 Automation apparatus
CN111941392A (en) * 2019-05-14 2020-11-17 发那科株式会社 Robot operating device, robot, and robot operating method
JP2020185639A (en) * 2019-05-14 2020-11-19 ファナック株式会社 Robot operation device, robot and robot operation method
US11618166B2 (en) 2019-05-14 2023-04-04 Fanuc Corporation Robot operating device, robot, and robot operating method

Also Published As

Publication number Publication date
JP2708032B2 (en) 1998-02-04

Similar Documents

Publication Publication Date Title
US7256772B2 (en) Auto-aligning touch system and method
US20040246229A1 (en) Information display system, information processing apparatus, pointing apparatus, and pointer cursor display method in information display system
JPS6029833A (en) Image display device
WO2005088250A1 (en) Method and system of measuring an object in a digital image
US20020136455A1 (en) System and method for robust foreground and background image data separation for location of objects in front of a controllable display within a camera view
JP2708032B2 (en) Robot teaching device
US6763283B1 (en) Visual control robot system
JP2011200997A (en) Teaching device and method for robot
JPH06249615A (en) Position detecting method
JP2835167B2 (en) CRT display device
JPH03189683A (en) Information processor
JPH07160412A (en) Pointed position detecting method
JP2000155268A (en) Enlarging observation device
JP2978808B2 (en) Image measuring device
JPH04205617A (en) Input/output interface device
JP2937918B2 (en) Image measuring device
JPH11202928A (en) Work supporting device
JP2522787Y2 (en) Image processing device
JP3853500B2 (en) Edge detection method and image measuring apparatus
JP2001209694A (en) Work analysis supporting system
JP3068325B2 (en) 3D position measuring device
JP2888368B2 (en) Position measuring device
JPH05301195A (en) Camera position slippage detecting method in visual sensor
US20220375138A1 (en) Visualized image display device
JPH01306894A (en) Display processor

Legal Events

Date Code Title Description
S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071017

Year of fee payment: 10

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

FPAY Renewal fee payment (prs date is renewal date of database)

Year of fee payment: 10

Free format text: PAYMENT UNTIL: 20071017

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081017

Year of fee payment: 11

FPAY Renewal fee payment (prs date is renewal date of database)

Year of fee payment: 11

Free format text: PAYMENT UNTIL: 20081017

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091017

Year of fee payment: 12

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091017

Year of fee payment: 12

FPAY Renewal fee payment (prs date is renewal date of database)

Year of fee payment: 13

Free format text: PAYMENT UNTIL: 20101017

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101017

Year of fee payment: 13

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111017

Year of fee payment: 14

FPAY Renewal fee payment (prs date is renewal date of database)

Year of fee payment: 15

Free format text: PAYMENT UNTIL: 20121017

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131017

Year of fee payment: 16

LAPS Cancellation because of no payment of annual fees