JP2925072B2 - Movement control method for robot position teaching - Google Patents

Movement control method for robot position teaching

Info

Publication number
JP2925072B2
JP2925072B2 JP8223250A JP22325096A JP2925072B2 JP 2925072 B2 JP2925072 B2 JP 2925072B2 JP 8223250 A JP8223250 A JP 8223250A JP 22325096 A JP22325096 A JP 22325096A JP 2925072 B2 JP2925072 B2 JP 2925072B2
Authority
JP
Japan
Prior art keywords
teaching
robot
mark
state
visual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP8223250A
Other languages
Japanese (ja)
Other versions
JPH1049218A (en
Inventor
淳 渡辺
哲朗 加藤
敦朗 永山
英俊 組谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
FUANATSUKU KK
Original Assignee
FUANATSUKU KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by FUANATSUKU KK filed Critical FUANATSUKU KK
Priority to JP8223250A priority Critical patent/JP2925072B2/en
Priority to PCT/JP1997/002766 priority patent/WO1998006015A1/en
Publication of JPH1049218A publication Critical patent/JPH1049218A/en
Application granted granted Critical
Publication of JP2925072B2 publication Critical patent/JP2925072B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/408Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by data handling or data format, e.g. reading, buffering or conversion of data
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/36Nc in input of data, input key till input tape
    • G05B2219/36404Adapt teached position as function of deviation 3-D, 2-D position workpiece
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/36Nc in input of data, input key till input tape
    • G05B2219/36412Fine, autonomous movement of end effector by using camera
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/36Nc in input of data, input key till input tape
    • G05B2219/36414Compare image detected path with stored reference, difference corrects position
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/50Machine tool, machine tool null till machine tool work handling
    • G05B2219/50138During setup display is red, after setup display is green colour

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明はロボットの位置教示
のための移動制御方式に関し、更に詳しく言えば、視覚
ターゲットとこれを認識する視覚センサを用いてロボッ
トを教示希望位置に素早く移動させるための移動制御方
式に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a movement control method for teaching a position of a robot, and more particularly, to a method for quickly moving a robot to a desired teaching position using a visual target and a visual sensor for recognizing the target. It relates to a movement control method.

【0002】[0002]

【従来の技術】ロボットの位置教示方法として最も一般
的に利用されているのは、ジョグ送り(マニュアル入力
によるロボット動作)による方法である。この教示方法
によれば、オペレータは教示操作盤のジョグ送りボタン
を操作してロボットを教示希望位置へ移動させ、その時
の位置をロボットに教示するという作業が行なわれる。
オフライン教示がなされている場合、粗い位置教示が済
んでいる場合あるいは教示位置の修正を行なう場合など
には、ジョグ送りによる教示位置の微調整が行なわれ
る。
2. Description of the Related Art The most commonly used position teaching method for a robot is a method using jog feed (a robot operation by manual input). According to this teaching method, the operator operates the jog feed button on the teaching operation panel to move the robot to the desired teaching position, and teach the robot the position at that time.
When the offline teaching is performed, when the rough position teaching is completed, or when the teaching position is corrected, the teaching position is finely adjusted by jog feed.

【0003】いずれにしろ、希望する位置へロボットを
移動させる作業は、ロボット手先(あるいはエンドエフ
ェクタ)と教示希望点との相対的な位置・姿勢関係を目
視により確かめながら行なわれるから、オペレータに熟
練を要する。また、教示が必要な点(位置・姿勢)の数
は多数に及ぶことが通例であるから、教示作業に多大な
時間を費やすことも珍しくない。また、オペレータの目
視に頼る教示作業は教示精度にバラツキが生じ易く、信
頼性の点でも問題があった。
In any case, the operation of moving the robot to a desired position is performed while visually confirming the relative position / posture relationship between the robot hand (or end effector) and the desired teaching point. Cost. In addition, since the number of points (positions / postures) requiring teaching is generally large, it is not uncommon to spend a great deal of time on teaching work. In addition, in the teaching operation relying on the visual observation of the operator, the teaching accuracy tends to vary, and there is also a problem in reliability.

【0004】[0004]

【発明が解決しようとする課題】本発明はこのような状
況を克服するためになされたものである。即ち、本発明
の目的は、教示作業時にオペレータにかかる負担を軽減
し、教示作業の効率と信頼性の向上を可能にしたロボッ
トの位置教示のための移動制御方式を提供することにあ
る。
SUMMARY OF THE INVENTION The present invention has been made to overcome such a situation. That is, an object of the present invention is to provide a movement control method for teaching a position of a robot, which can reduce a burden on an operator during a teaching operation and improve the efficiency and reliability of the teaching operation.

【0005】[0005]

【課題を解決するための手段】本発明は上記従来技術の
問題点に鑑みてなされたもので、視覚センサと適当な視
覚ターゲット手段を組み合わせて用いることにより、ロ
ボットを自律的に教示希望位置へ移動出来るようにして
上記課題を解決したものである。本発明の方式に含まれ
る諸段階には、ロボットの教示希望位置到達状態を表現
する教示希望位置到達状態表現データをロボットと視覚
センサを含むシステムの制御手段に記憶させる教示希望
位置到達状態記憶段階と、該制御手段によるロボットの
移動制御によってロボットを教示希望位置へ移動させる
教示希望位置移動段階と、ロボットが教示希望位置へ到
達した際に当該教示希望位置に対応する位置データを制
御手段に記憶させる教示位置記憶段階が含まれる。
SUMMARY OF THE INVENTION The present invention has been made in view of the above-mentioned problems of the prior art, and has a visual sensor and an appropriate visual sensor.
By using a combination of visual target means,
This has solved the above problem by enabling the bot to move to the desired teaching position autonomously . Included in the scheme of the present invention
The various steps include a desired teaching position reaching state storing step of storing desired teaching position reaching state expression data representing a desired teaching position reaching state of the robot in a control means of a system including the robot and the visual sensor. Moving the robot to the desired teaching position by controlling the movement of the robot; and moving the robot to the desired teaching position.
When it reaches, the position data corresponding to the desired teaching position is controlled.
And a teaching position storing step of storing the teaching position in the control means .

【0006】そして、この教示希望位置移動段階に、
示希望位置到達状態記憶段階で記憶された教示希望位置
到達状態表現データを利用した自律移動段階が含まれて
いることが、本発明の重要な特徴である。
[0006] At this stage of moving the desired teaching position, the teaching is performed.
Desired teaching position stored in the indicated desired position reaching state storage stage
Includes autonomous movement stage using arrival state expression data
It is an important feature of the present invention which are.

【0007】この自律移動を可能にするために、教示希
望位置到達状態表現データが、視覚センサから見て教示
希望位置到達状態と等価な状態にある視覚ターゲット手
段を、視覚センサで認識することを通して取得される
[0007] To make this autonomous movement possible, the teaching
Desired position reaching state expression data is taught as seen from the visual sensor
Visual target hand in a state equivalent to the desired position arrival state
The steps are obtained through recognition with a visual sensor .

【0008】また、視覚ターゲット手段は、自律移動段
階の実行時にロボットを前記教示希望位置へ案内するた
めの視覚的案内指標を提供する。
The visual target means is an autonomous moving stage.
When the floor is executed, the robot is guided to the desired teaching position.
Provide visual guidance indicators for

【0009】自律移動のために制御手段内で実行される
ソフトウェア処理は、教示希望位置到達状態記憶段階で
記憶された教示希望位置到達状態表現データが表わす状
態と一致する認識を視覚センサが視覚的案内指標に関し
て行なう位置に到達するまでロボットを誘導するように
実行される。視覚ターゲット手段は、視覚センサによっ
て認識可能なマーク座標系を含むマーク手段の形態をと
ることが出来る。その場合、教示希望位置到達状態記憶
段階で記憶される教示希望位置到達状態表現データに
は、視覚センサのカメラで取得される画像上におけるマ
ーク座標系の位置・姿勢を表わすデータが含まれること
になる。一方このマーク手段は、ロボットの自律移動の
ための視覚的案内指標を提供するために、教示希望位置
と一定の相対関係を持つ位置にマーク座標系を配置する
ために使用される。そして、制御手段内で実行されるソ
フトウェア処理に基づく移動制御により、視覚センサに
よるマーク座標系の認識状態が教示希望位置到達状態表
現データに対応する認識状態と一致するような位置にロ
ボットが到達するようにロボットが誘導される。
The software processing executed in the control means for the autonomous movement is performed in a storage state of a desired position to be taught.
State represented by stored desired teaching position reaching state expression data
The visual sensor uses the visual guidance index
The robot is guided so as to guide the robot until it reaches the position where the robot is to be moved. The visual target means may take the form of a mark means including a mark coordinate system recognizable by a visual sensor. In that case, the desired teaching position reaching state expression data stored in the desired teaching position reaching state storage stage includes data representing the position and orientation of the mark coordinate system on the image acquired by the camera of the visual sensor. Become. On the other hand, the marking means is used to provide a visual guidance index for the autonomous movement of the robot, and to provide a desired teaching position.
The mark coordinate system at a position with a certain relative relationship to
It is used for. And, by movement control based on software processing executed in the control means ,
Recognition state of mark coordinate system by
Log to a position that matches the recognition status corresponding to the current data.
The robot is guided to reach the bot.

【0010】マーク手段には、教示作業の対象とされる
代表ワークの面上に固定可能なマーク部材を用いること
が出来る。このマーク部材上には、マーク座標系がドッ
トパターンなどで描かれる。
As the mark means, a mark member which can be fixed on the surface of the representative work to be taught is used. On this mark member, a mark coordinate system is drawn in a dot pattern or the like.

【0011】別の利用可能な視覚ターゲット手段の形態
として、ロボットに支持された光ビーム投光手段によっ
て投光面上に形成される光スポットと教示希望位置を投
光面上で表わすマークを組み合わせたものがある。これ
を視覚ターゲット手段として使用する場合、教示希望位
置到達状態記憶段階において、教示希望位置到達等価状
態を視覚センサに対して用意するために、光スポットを
ロボットの教示対象点(教示希望位置に一致させようと
する点のこと。通常は、ツール先端点;TCPであ
る。)に一致する位置に形成するための参照投光面が配
置される。
As another form of usable visual target means, a light spot formed on a light projecting surface by a light beam projecting means supported by a robot and a desired teaching position are projected.
There is a combination of marks represented on the light surface. this
Is used as the visual target means, in the teaching desired position reaching state storing stage, in order to prepare the teaching desired position reaching equivalent state for the visual sensor, the light spot is set to the robot's teaching target point (corresponding to the teaching desired position). A reference light projecting surface to be formed at a position that coincides with the point to be attempted, which is usually a tool tip point; TCP).

【0012】光ビーム投光方向を調整し、該参照投光面
上の教示対象点位置に光スポットを形成する。この状態
は、視覚センサにとっての教示位置到達等価状態に相当
している。そこで、視覚センサによって光スポットが認
識され、光スポットの画像上の位置を表わすデータを含
むように教示希望位置到達状態表現データが取得され
る。
The light beam projection direction is adjusted to form a light spot at the position of the teaching target point on the reference light projection surface. This state corresponds to a teaching position reaching equivalent state for the visual sensor. Accordingly, the light spot is recognized by the visual sensor, and the desired teaching position reaching state expression data is acquired so as to include data representing the position of the light spot on the image.

【0013】自律移動段階は、参照投光面が除去され、
且つ、教示対象点に光スポットが形成された際の光ビー
ム投光方向を維持した状態で実行される。自律移動段階
におけるロボットの移動制御は、教示希望位置の存在す
る面上に光ビームを投光して形成される光スポットと、
教示希望位置を投光面上で表わすマークを視覚的案内指
標として利用するものである。そして、ロボットの移動
制御のためのソフトウェア処理は、視覚センサが、教示
希望位置到達状態記憶段階で記憶された教示希望位置到
達状態表現データが表わす状態と一致する認識を視覚的
案内指標に関して行なうような位置にロボットが到達す
るまでロボットを誘導するように実行される
In the autonomous movement stage, the reference light projecting surface is removed,
And a light beam when a light spot is formed at the teaching target point.
This is executed while maintaining the light projection direction . Autonomous movement stage
The robot movement control in
A light spot formed by projecting a light beam on a surface
The mark indicating the desired teaching position on the light emitting surface
It is used as a mark. And the movement of the robot
Software processing for control is performed by the visual sensor
The desired teaching position reached in the desired position reaching state storage stage
Visual recognition that matches the state represented by the reached state expression data
The robot reaches a position that it does with the guidance index
Until the robot is guided .

【0014】教示希望位置への自律移動に先だって、教
示希望位置への予備的なアプローチを行なうためにジョ
グ送りを行なうようにしても良い。その際、ジョグ送り
段階から自律移動段階への移行は、視覚センサの出力に
基づく制御手段内の処理によって自動的に行なわれるこ
とが好ましい。
Prior to the autonomous movement to the desired teaching position, jog feed may be performed to perform a preliminary approach to the desired teaching position. At that time, it is preferable that the transition from the jog feed stage to the autonomous movement stage is automatically performed by a process in the control means based on the output of the visual sensor.

【0015】また、教示希望位置への自律移動実行段階
におけるソフトウェア処理は、視覚センサによる視覚的
案内指標の認識時に得られるカメラによる画像上の現在
位置を表わすデータと教示希望位置到達状態記憶段階で
記憶された希望位置到達状態表現データとを比較する処
理と、その比較結果に基づいてロボットの各軸を移動制
御する処理と、ロボットが教示希望位置に到達したか否
かを判定する処理を、教示希望位置到達の判定がなされ
るまで逐次的に繰り返すものであって良い。この場合、
教示位置記憶段階は教示希望位置到達の判定がなされた
後に実行される。
The software processing at the stage of executing the autonomous movement to the desired teaching position is performed by a visual sensor.
Present on the camera image obtained when recognizing the guidance index
At the stage of storing the data representing the position and the desired teaching position reached state
Processing for comparing with the stored desired position reaching state expression data
Control each axis of the robot based on the
And whether the robot has reached the desired teaching position
The process of determining whether to reach the desired teaching position is performed.
May be repeated successively until it is completed. in this case,
In the teaching position storage stage, it is determined that the desired teaching position has been reached.
Will be executed later.

【0016】本発明においては、ロボットが教示希望位
置に到達した際に観測されるところの視覚ターゲット手
段の画像上の位置のデータが予め入力され、教示希望位
置への自律移動時には、視覚ターゲット手段を視覚セン
サで観測されるナビゲート指標として利用して、ロボッ
トを教示希望位置に誘導する。
In the present invention, data of the position on the image of the visual target means which is observed when the robot reaches the desired teaching position is input in advance, and when the robot autonomously moves to the desired teaching position, the visual target means is used. The visual sen
Using the robot as a navigation index
To the desired teaching position.

【0017】この特徴により、オペレータに負担をかけ
ることなくロボットを教示希望位置に速やかに到達させ
て位置教示(教示希望位置到達時のロボットの位置デー
タの記憶)を行なうことが出来る。また、ジョグ送りか
ら自律移動への移行をシステム内の自動切換で行えば、
位置教示作業時のロボットの至便性を更に向上させるこ
とも出来る。従って、教示希望位置が多数存在するよう
な場合でも、教示作業の負担が少なくてすむ。
This feature imposes a burden on the operator.
The robot to reach the desired teaching position quickly without
Position teaching (robot position data when reaching the desired teaching position)
Data storage). In addition, if the transition from jog feed to autonomous movement is performed by automatic switching in the system ,
The convenience of the robot during the position teaching operation can be further improved. Therefore, there are many teaching desired positions.
In such a case, the burden of teaching work can be reduced.

【0018】[0018]

【発明の実施の形態】図1は、本発明に従ったロボット
の位置教示のための移動制御方式の全体像を概念的に説
明する図である。符号1aは教示希望位置到達状態を表
現するデータを入力する教示希望位置到達状態表現デー
タ入力手段を表わしている。この教示希望位置到達状態
表現データ入力手段1aは、視覚ターゲットB1 他に対
するロボット2の教示希望位置への移動が完了した状態
における視覚ターゲットB1 とロボット手先2aの相対
的な位置関係を表現するデータ(以下、「教示希望位置
到達状態表現データ」と言う。)を予めメモリ4に入力
しておく機能を有している。
FIG. 1 is a diagram conceptually illustrating an overall image of a movement control system for teaching a position of a robot according to the present invention. Reference numeral 1a denotes a desired teaching position reaching state expression data input means for inputting data representing the desired teaching position reaching state. The desired teaching position reaching state expression data input means 1a is a data (for representing the relative positional relationship between the visual target B1 and the robot hand 2a in a state where the movement of the robot 2 with respect to the visual target B1 and others is completed. Hereinafter, the data will be referred to as “taught desired position reaching state expression data”) in the memory 4 in advance.

【0019】教示希望位置は、代表ワーク3の面3a上
の4個の符号A1 〜A4 で例示されている。A1 〜A4
の各近傍に描かれたB1 〜B4 は、A1 〜A4 の表わす
位置を代表する視覚ターゲット手段であり、各対応する
教示希望位置A1 〜A4 と一定の関係を以て与えられ
る。視覚ターゲット手段の具体例については後述する。
通常の形態においては、各視覚ターゲット位置B1 〜B
4 と各教示希望位置A1〜A4 とは近接してはいるが一
致はしないように与えられるが、場合によっては両者を
一致させることも可能である。
The desired teaching position is exemplified by four symbols A1 to A4 on the surface 3a of the representative work 3. A1 to A4
B1 to B4 drawn in the vicinity of the above are visual target means representing the positions represented by A1 to A4, and are given in a certain relationship with the corresponding desired teaching positions A1 to A4. Specific examples of the visual target means will be described later.
In a normal form, each visual target position B1 -B
4 and the desired teaching positions A1 to A4 are provided so as to be close to each other but do not coincide with each other. In some cases, however, it is also possible to make them coincide with each other.

【0020】符号2a,2bは各々ロボットの手先位置
と教示対象点(通常はツール先端点;TCP)を表わし
ている。以下の説明において、ロボットの手先位置2a
は最終アーム先端のフランジ上に設定された座標系の原
点で代表させるものとする。
Reference numerals 2a and 2b represent a hand position of the robot and a point to be taught (usually a tool tip point; TCP). In the following description, the robot hand position 2a
Is represented by the origin of the coordinate system set on the flange at the end of the final arm.

【0021】実際の作業時にあたっては、オペレータが
ジョグ送りボタン等のロボットマニュアル操作手段(ロ
ボット動作指令マニュアル入力手段;教示操作盤など)
5を操作し、軸移動制御手段6にロボット2の各軸を制
御させ、教示希望位置への移動を開始させる。この移動
開始時から、あるいは移動開始後のある時点から、教示
希望位置への自律的な移動のための移動制御が行なわれ
る。この自律的移動のための移動制御は、教示希望位置
到達状態表現データ入力手段1aによって入力された教
示希望位置到達状態表現データと、各時点におけるロボ
ット手先(これに固定されたカメラ等)と視覚ターゲッ
ト手段との間の相対的な位置関係を表わす相対位置認識
データに基づいて行われる。
At the time of actual work, the operator manually operates a robot manual operating means such as a jog feed button (robot operation manual input means; teaching operation panel, etc.).
5, the axis movement control means 6 controls each axis of the robot 2 to start the movement to the desired teaching position. The movement control for autonomous movement to the desired teaching position is performed from the start of the movement or from a certain point after the start of the movement. The movement control for the autonomous movement includes a desired teaching position reaching state expression data input by the desired teaching position reaching state expression data input means 1a, a robot hand (a camera fixed thereto) at each time point, and visual information. This is performed based on relative position recognition data indicating a relative position relationship with the target means.

【0022】後者のデータは、移動制御の過程におい
て、ロボット手先視覚ターゲット間相対位置認識手段1
bによって少なくとも1回与えられる。教示希望位置到
達状態においては、当然、TCP2bは教示希望位置の
一つA1 (またはA2 〜A4 内の一つ)と一致する(符
号2b’で例示)。
In the movement control process, the latter data is used as a means for recognizing the relative position between the visual targets of the robot's hand.
given at least once by b. In the desired teaching position reaching state, the TCP 2b naturally coincides with one of the desired teaching positions A1 (or one of A2 to A4) (exemplified by reference numeral 2b ').

【0023】後述するように、教示希望位置到達状態表
現データ入力手段1a及び相対位置認識手段1bは、視
覚センサを利用する形で具体化される。また、視覚ター
ゲット手段B1 〜B4 は、視覚センサによって認識可能
なマーク座標系あるいはレーザビームによって形成され
る光スポットの形で具体化される。以下の説明では、視
覚ターゲット手段をマーク座標系の形で具体化する形態
を「方式1」と呼び、レーザビームによって形成される
光スポットの形で具体化する形態を「方式2」と呼ぶ。
As will be described later, the teaching desired position reaching state expression data input means 1a and the relative position recognizing means 1b are embodied using a visual sensor. The visual target means B1 to B4 are embodied in a mark coordinate system recognizable by a visual sensor or in the form of a light spot formed by a laser beam. In the following description, a form in which the visual target means is embodied in the form of a mark coordinate system is referred to as "scheme 1", and a form in which the visual target means is embodied in the form of a light spot formed by a laser beam is referred to as "scheme 2".

【0024】図2は、本実施形態で使用されるシステム
のハードウェア構成の概略をロボット制御装置を中心と
した要部ブロック図で示したものある。符号30で全体
を指示されたロボット制御装置にはプロセッサボード3
1が装備され、このプロセッサボード31はマイクロプ
ロセッサからなる中央演算処理装置(以下、CPUと言
う。)31a、ROM31b並びにRAM31cを備え
ている。
FIG. 2 is a schematic block diagram showing a hardware configuration of a system used in the present embodiment, mainly showing a robot controller. A processor board 3 is provided in the robot controller designated by reference numeral 30 as a whole.
The processor board 31 includes a central processing unit (hereinafter, referred to as a CPU) 31a including a microprocessor, a ROM 31b, and a RAM 31c.

【0025】CPU31aは、ROM31bに格納され
たシステムプログラムに従ってロボット制御装置全体を
制御する。RAM31cには、作成済みの動作プログラ
ムや各種設定値等の他に、教示希望位置への自律移動を
方式1あるいは方式2に従って実行するに必要なロボッ
ト側の処理を定めたプログラムと関連設定値等が格納さ
れる。また、RAM31cの一部はCPU31aが実行
する計算処理等の為の一時的なデータ記憶に使用され
る。なお、プログラムデータや設定値の保存には、適宜
外部装置として用意されたハードディスク装置などが利
用される。
The CPU 31a controls the entire robot controller according to a system program stored in the ROM 31b. In the RAM 31c, in addition to the created operation programs and various set values, a program defining the robot-side processing necessary to execute the autonomous movement to the desired teaching position in accordance with the method 1 or the method 2, and related set values, etc. Is stored. A part of the RAM 31c is used for temporary data storage for calculation processing executed by the CPU 31a. Note that a hard disk device or the like prepared as an external device is appropriately used for storing the program data and the set values.

【0026】プロセッサボード31はバス37に結合さ
れ、このバス結合を介してロボット制御装置30内の他
の部分との間で、指令やデータの授受が行なわれるよう
になっている。先ず、ディジタルサーボ制御回路32が
プロセッサボード31に接続されており、CPU31a
からの指令を受けて、サーボアンプ33を経由してサー
ボモータ51〜56を駆動する。各軸を動作させるサー
ボモータ51〜56は、ロボット2の各軸の機構部に内
蔵されている。
The processor board 31 is connected to a bus 37, and commands and data are exchanged with other parts in the robot controller 30 via the bus connection. First, the digital servo control circuit 32 is connected to the processor board 31, and the CPU 31a
, And drives the servomotors 51 to 56 via the servo amplifier 33. The servo motors 51 to 56 for operating the respective axes are built in the mechanism of each axis of the robot 2.

【0027】通信用インターフェイスを内蔵したシリア
ルポート34は、バス37に結合される一方、液晶表示
部付の教示操作盤40、画像処理装置20並びにレーザ
発振器60に接続されている。但し、レーザ発振器60
は方式2で使用されるもので、方式1では不要である。
A serial port 34 having a built-in communication interface is connected to a bus 37 and connected to a teaching operation panel 40 having a liquid crystal display, an image processing device 20, and a laser oscillator 60. However, the laser oscillator 60
Are used in scheme 2 and are not required in scheme 1.

【0028】教示操作盤40は、オペレータにより持ち
運びができる程度の大きさと重さを有し、そのパネル上
にはロボットマニュアル操作手段として使用されるジョ
グ送りボタン等が設けられている。この他、バス37に
は、ディジタル信号用の入出力装置(ディジタルI/
O)35、アナログ信号用の入出力装置(アナログI/
O)36が結合されている。エンドエフェクタとの信号
授受が必要な場合、エンドエフェクタの制御部は、ディ
ジタルI/O35あるいはアナログI/O36に接続さ
れる。後述する例では、アーク溶接ロボットのアプリケ
ーションを考えているので、ディジタルI/O35には
アーク溶接トーチの電源装置が接続される。
The teaching operation panel 40 has a size and weight that can be carried by an operator, and a jog feed button or the like used as a robot manual operation means is provided on a panel thereof. In addition, a bus 37 has an input / output device (digital I / O) for digital signals.
O) 35, an input / output device for analog signals (analog I / O)
O) 36 are bonded. When it is necessary to exchange signals with the end effector, the control unit of the end effector is connected to the digital I / O 35 or the analog I / O 36. In an example described later, an application of an arc welding robot is considered, so that a power supply device of an arc welding torch is connected to the digital I / O 35.

【0029】画像処理装置20は、CPUにプログラム
メモリ、フレームメモリ、画像処理プロセッサ、データ
メモリ、カメラインターフェイス等をバス結合させた通
常のものである。画像処理装置20は、カメラインター
フェイスを介してカメラ21が接続されている。このカ
メラは、後述する態様で視覚ターゲット手段の画像を取
得するための撮影に使用される。プログラムメモリに
は、方式1あるいは方式2で必要とされる画像解析用の
プログラムデータが格納される。
The image processing apparatus 20 is an ordinary one in which a CPU is connected to a program memory, a frame memory, an image processor, a data memory, a camera interface, and the like via a bus. The image processing device 20 is connected to a camera 21 via a camera interface. This camera is used for photographing for acquiring an image of the visual target means in a manner described later. The program memory stores program data for image analysis required in the method 1 or the method 2.

【0030】図3は、教示操作盤40のパネル面の概略
構成を示す図である。表示画面41は例えば液晶画面で
あり、移動指令プログラムの詳細データ等が切替え表示
される。ファンクションキー42は、表示画面41の下
端部に表示されるメニューを選択するキーである。教示
操作盤有効スイッチ43は、教示操作盤40の操作が有
効か無効かを切り換えるスイッチである。
FIG. 3 is a diagram showing a schematic configuration of a panel surface of the teaching operation panel 40. The display screen 41 is, for example, a liquid crystal screen, and switches and displays detailed data of the movement instruction program. The function key 42 is a key for selecting a menu displayed at the lower end of the display screen 41. The teaching operation panel valid switch 43 is a switch for switching whether the operation of the teaching operation panel 40 is valid or invalid.

【0031】非常停止ボタン44は、ロボット2の動作
を非常停止させるボタンである。カーソルキー45は、
表示画面41上で表示されるカーソルの移動を行うキー
である。テンキー部46には、数字キーやその他のキー
が設けられており、数値および文字の入力、削除等を行
うことができる。
The emergency stop button 44 is a button for stopping the operation of the robot 2 in an emergency. Cursor keys 45
These keys are used to move a cursor displayed on the display screen 41. The numeric keypad 46 is provided with numeric keys and other keys, and can input and delete numerical values and characters.

【0032】一連のジョグ送りボタン47(J1〜J
6)は、従来方式のジョグ送りを行なう通常モードで
は、並進/回転方向及び+−方向を指定して移動指令の
入力を行うボタンであるが、本実施形態(自律移動モー
ド)では、後述するように、教示希望位置への自律移動
指令入力手段として使用する。以上の事項を前提に、方
式1と方式2について実施形態の詳細を以下に説明す
る。
A series of jog feed buttons 47 (J1 to J
6) is a button for inputting a movement command by designating the translation / rotation direction and the + -direction in the normal mode in which the conventional jog feed is performed. In the present embodiment (autonomous movement mode), the button is described later. In this way, it is used as an autonomous movement command input means to a desired teaching position. On the premise of the above, details of the embodiments of the method 1 and the method 2 will be described below.

【0033】[方式1] [1]概要 図4は、方式1による実施形態における自律移動の動作
を説明する図である。図1と同じく符号3で指示された
代表ワークの面3a上には、希望する教示点A1 〜A4
の数に見合った数(ここでは4個)のマーク部材MK1
〜MK4が貼付されている。各マーク部材上には、後述
するように、同一のマーク座標系がドットパターンで描
かれている。マーク部材MK1は、教示希望点A1 の位
置・姿勢に正確に対応するような位置・姿勢を以て貼付
されている。同様に、マーク部材MK2〜MK4は、教
示希望点A2 〜A4 の位置・姿勢に各々正確に対応する
ような位置・姿勢を以て貼付されている。
[Method 1] [1] Outline FIG. 4 is a diagram illustrating the operation of autonomous movement in an embodiment according to method 1. As shown in FIG. 1, desired teaching points A1 to A4 are placed on the surface 3a of the representative work designated by reference numeral 3.
(In this case, four) mark members MK1 corresponding to the number of
To MK4 are attached. On each mark member, the same mark coordinate system is drawn in a dot pattern as described later. The mark member MK1 is affixed with a position / posture that exactly corresponds to the position / posture of the desired teaching point A1. Similarly, the mark members MK2 to MK4 are affixed with positions and postures that exactly correspond to the positions and postures of the desired teaching points A2 to A4, respectively.

【0034】手先部周辺のみを描示したロボットは、手
先部に溶接トーチ2cとカメラ21を搭載しており、T
CP2bは溶接トーチ2c先端に設定されている。本実
施形態では、ロボットを移動開始位置Psから出発し
て、溶接トーチ2cの先端に設定されたTCP2bを教
示希望点A1 〜A4 に順次自律移動させ、各教示希望位
置で位置教示を行なうケースを考える。なお、自律移動
の開始位置Psは最初のマークMK1がカメラ21の視
野に入る位置であれば、一般には任意である。
The robot showing only the vicinity of the hand has the welding torch 2c and the camera 21 mounted on the hand,
CP2b is set at the tip of welding torch 2c. In the present embodiment, a case is described in which the robot starts from the movement start position Ps, autonomously moves the TCP 2b set at the tip of the welding torch 2c to the desired teaching points A1 to A4, and teaches the position at each desired teaching position. Think. Note that the start position Ps of the autonomous movement is generally arbitrary as long as the first mark MK1 is within the field of view of the camera 21.

【0035】図5は、方式1による実施形態で使用され
るマーク部材の構成を説明する図である。同図を参照す
ると、マーク座標系ΣM は、マーク部材MK上に間隔a
を以て格子状に配列された5個の円形ドットD0 ,D1
,D-1,D2 ,D-2で構成されている。ドット間隔a
は正の一定値である。従って、各ドットの中心位置は、
D0 (0,0,0),D1 (a,0,0),D-1(−
a,0,0),D2 (a,a,0),D-2(−a,a,
0)となる。なお、3次元直交座標系を表現出来るもの
であれば、他のパターンでマーク座標系を構成しても良
い。
FIG. 5 is a view for explaining the configuration of the mark member used in the embodiment according to the method 1. Referring to the figure, the mark coordinate system ΣM has a distance a on the mark member MK.
, Five circular dots D0, D1 arranged in a grid pattern
, D-1, D2, and D-2. Dot interval a
Is a positive constant value. Therefore, the center position of each dot is
D0 (0,0,0), D1 (a, 0,0), D-1 (-
a, 0, 0), D2 (a, a, 0), D-2 (-a, a,
0). Note that the mark coordinate system may be configured with another pattern as long as it can express a three-dimensional orthogonal coordinate system.

【0036】マーク部材MKの適当な定位置には穴MH
が設けられている。この穴MHは教示希望位置を指し示
すもので、代表ワーク3の面3a上に貼付する際には、
その代表点(例えば、中心)が教示希望位置と一致する
ように貼付位置が選ばれる。貼付姿勢はマーク座標系Σ
M の向きを参照して選ぶ。即ち、貼付姿勢が異なると、
後に教示される姿勢も異なって来る。例えば、図4にお
けるMK1とMK4の貼付姿勢は90度違うため、後に
教示される姿勢も90度異なったものとなる。
A hole MH is provided at an appropriate fixed position of the mark member MK.
Is provided. The hole MH indicates a desired teaching position. When the hole MH is attached on the surface 3a of the representative work 3,
The sticking position is selected such that the representative point (for example, the center) matches the desired teaching position. Attachment posture is mark coordinate systemΣ
Select by referring to the direction of M. That is, if the sticking posture is different,
The attitude taught later will also be different. For example, since the sticking postures of MK1 and MK4 in FIG. 4 are different by 90 degrees, the postures taught later are also different by 90 degrees.

【0037】[2]準備(カメラのキャリブレーション
と教示希望位置到達状態表現データの取得) 1.作業開始に先だって、適当なキャリブレーション法
を適用してカメラのキャリブレーションを行なってお
く。カメラのキャリブレーションには種々の手法が知ら
れているが、ここに示したマーク部材を利用することも
出来る。その概略については、説明の都合上、後で述べ
る。
[2] Preparation (Calibration of Camera and Acquisition of Expression Data of State of Attainment of Desired Desired Position) Before starting the work, the camera is calibrated by applying an appropriate calibration method. Various methods are known for camera calibration, but the mark members shown here can also be used. The outline will be described later for convenience of explanation.

【0038】2.教示希望位置到達状態表現データの取
得作業を行なう。先ず、マーク部材MKを適当な位置に
固定する。勿論、代表ワーク3に貼付されたマーク部材
の一つをそのまま使用することも出来る。先ず、通常モ
ード(従来方式)のジョグ操作によってロボットを移動
させ、ツール先端点2bをマーク部材MKの穴MHの代
表点MAに一致させ、教示希望姿勢をとらせる。これに
より、マーク部材MKに関して教示希望位置到達状態が
実現されたことになる。
2. Acquisition of teaching desired position reaching state expression data is performed. First, the mark member MK is fixed at an appropriate position. Of course, one of the mark members attached to the representative work 3 can be used as it is. First, the robot is moved by the jog operation in the normal mode (conventional method), the tool tip 2b is made to coincide with the representative point MA of the hole MH of the mark member MK, and the desired teaching posture is set. Thus, the state of reaching the desired teaching position with respect to the mark member MK is realized.

【0039】3.マーク部材MKに関して教示希望位置
到達状態を実現したら、ロボット制御装置30を介して
カメラ21による撮影を行なわせ、教示希望位置到達状
態表現データを作成するための画像を取得する。 4.取得された画像は画像処理装置20内で画像処理さ
れ、カメラ21のカメラ座標系に対するマーク座標系Σ
M の相対的な位置姿勢を表わすデータが作成される(詳
細は後述)。
3. When the desired teaching position reached state is realized for the mark member MK, the camera 21 is caused to take an image via the robot control device 30 to obtain an image for creating the desired teaching position reaching state representation data. 4. The acquired image is subjected to image processing in the image processing device 20, and the mark coordinate system に 対 す る with respect to the camera coordinate system of the camera 21.
Data representing the relative position and orientation of M is created (details will be described later).

【0040】[3]方式1における教示希望位置自律移
動時の処理 図4に示したアプローチ開始位置Ps(フランジ位置で
表現)から自律教示希望位置への移動を開始して、教示
希望位置Pt(フランジ位置で表現)への移動を達成す
るための処理のアルゴリズムを説明する。なお、以下の
説明において、記号<>はベクトルを表わすために使用
する。 1.アルゴリズムの骨格 図7は、自律的な教示希望位置への移動に必要なアルゴ
リズムの骨格を記したものである。フランジの現在位置
(教示希望位置への移動中の各時点における位置)T0
、カメラ座標系とマーク座標系の現在相対位置(教示
希望位置への移動過程における各時点における相対位
置)M0 と、教示希望位置到達状態におけるフランジ位
置Tg 、教示希望位置到達状態におけるカメラ座標系と
マーク座標系の相対位置(目標相対位置)Mg との幾何
学的な関係は、図4中に記されているようなものであ
る。
[3] Processing for autonomous movement of desired teaching position in method 1 Movement from the approach start position Ps (expressed as a flange position) shown in FIG. 4 to the desired autonomous teaching position is started, and the desired teaching position Pt ( (Represented by the flange position) will be described. In the following description, the symbol <> is used to represent a vector. 1. Algorithm Skeleton FIG. 7 shows an algorithm skeleton necessary for autonomous movement to a desired teaching position. Current position of flange (position at each time during movement to desired teaching position) T0
, The current relative position of the camera coordinate system and the mark coordinate system (relative position at each point in the process of moving to the desired teaching position) M0, the flange position Tg in the reaching desired teaching position, and the camera coordinate system in the reaching desired teaching position. The geometric relationship with the relative position (target relative position) Mg in the mark coordinate system is as shown in FIG.

【0041】そして、Mg は上記準備作業で取得される
教示希望位置到達状態表現データに相当するものであ
る。また、Cはカメラキャリブレーションで教示され
る。これらT0 ,M0 ,Tg ,Mg の間の関係を規定す
る基本方程式は下記のようになる。 T0 CM0 =Tg CMg ・・・(1) 従って、これをTg について解いた次式(2)がロボッ
トの直交座標系上での移動目標位置を表わす基本式とな
る。 Tg =T0 CM0 Mg-1-1 ・・・(2) このTg を最終的な移動目標点とする位置指令をサーボ
に与えれば、ロボットを教示希望位置へ向けて自律的に
移動させることが出来る。故に、教示希望位置への自律
移動のアルゴリズムを定めることは、(2)式の右辺を
具体的に求める問題に帰着する。
Mg is equivalent to the desired position reaching state expression data acquired in the preparation operation. C is taught by camera calibration. The basic equation defining the relationship between T0, M0, Tg, and Mg is as follows. T0 CM0 = Tg CMg (1) Accordingly, the following equation (2) obtained by solving this for Tg is a basic equation representing the movement target position of the robot on the orthogonal coordinate system. Tg = T0 CM0 Mg -1 C -1 (2) If a position command with this Tg as the final movement target point is given to the servo, the robot can autonomously move to the desired teaching position. I can do it. Therefore, determining the algorithm of the autonomous movement to the desired teaching position results in a problem of specifically obtaining the right side of Expression (2).

【0042】(2)式の右辺中、T0 はロボットの現在
位置データを表わしており、随時ロボット制御装置内で
得られる性質のデータである。Cのデータは適当なカメ
ラキャリブレーションによって別途獲得されるものであ
る(キャリブレーションの例は後述)。そこで、M0 及
びMg の求め方から説明する。
In the right side of the equation (2), T0 represents the current position data of the robot, and is data of a property that can be obtained in the robot controller as needed. The data of C is separately acquired by appropriate camera calibration (an example of calibration will be described later). Therefore, the method of obtaining M0 and Mg will be described.

【0043】2.M0 及びMg の方程式 M0 ,Mg は、いずれもカメラ座標系から見たマーク座
標系ΣM の位置・姿勢(現在及びアプローチ完了時)を
表わしている。
2. The equations M0 and Mg of M0 and Mg both represent the position and orientation of the mark coordinate system ΣM as viewed from the camera coordinate system (current and when the approach is completed).

【0044】本実施形態で用いられるマーク座標系ΣM
(図5参照)を構成する円形ドットD0 ,D1 ,D-1,
D2 ,D-2の配列間隔aは正の一定値であるから、 a>0 ・・・(3) である。M0 とMg は、3次元直交座標系間の位置・姿
勢の関係を表現する4×4の同次変換行列であり、次式
(4)のように置くことが出来る。
The mark coordinate system ΣM used in this embodiment
(See FIG. 5), the circular dots D0, D1, D-1,.
Since the arrangement interval a of D2 and D-2 is a constant positive value, a> 0 (3). M0 and Mg are 4 × 4 homogeneous transformation matrices expressing the relationship between the position and orientation between the three-dimensional orthogonal coordinate systems, and can be placed as in the following equation (4).

【0045】[0045]

【数1】 ここで、RM は回転を表わす3×3行列、lM は位置を
表わす3×1行列(ベクトル)である。以下、M0 とM
g が満たす方程式として、RM とlM が満たす方程式を
求めることを考える。先ず、次式(5),(6)でベク
トル<e1 >,<e2 >を定義する。
(Equation 1) Here, RM is a 3 × 3 matrix representing rotation, and 1M is a 3 × 1 matrix (vector) representing position. Hereinafter, M0 and M
As an equation satisfied by g, consider finding an equation satisfied by RM and 1M. First, vectors <e1> and <e2> are defined by the following equations (5) and (6).

【0046】[0046]

【数2】 マーク座標系ΣM に関して視覚センサから得られる情報
は、各円形ドットD0,D1 ,D-1,D2 ,D-2の中心
がカメラ座標系の原点から見える方向(視線方向)であ
る。これらの方向は、図6に示したように、5個の単位
ベクトル<d0>,<d1 >,<d-1>,<d2 >,<
d-2>で表わすことが出来る。
(Equation 2) The information obtained from the visual sensor with respect to the mark coordinate system ΣM is the direction in which the center of each of the circular dots D0, D1, D-1, D2, and D-2 can be seen from the origin of the camera coordinate system (viewing direction). These directions are, as shown in FIG. 6, the five unit vectors <d0>, <d1>, <d-1>, <d2>, <
d-2>.

【0047】これらベクトルの内積について、次式
(7)で定義されるδijを導入する。 δij=<di>・<dj> (i,j=-2,-1,0,1,2) ・・・(7) ここで、<d0 >,<d1 >,<d-1 >,<d2 >,
<d-2>の長さはすべて1であるから、δijの絶対値は
1を越えることはない。 |δij|≦1 (等号成立の必要十分条件はi=j) ・・・(8) また、カメラ座標系原点から各ドット中心までの距離は
不明であるが、これをti (i=-2,-1,0,1,2)と置く。
当然これらは正の値をとる。
For the inner product of these vectors, δij defined by the following equation (7) is introduced. δij = <di>. <dj> (i, j = -2, -1,0,1,2) (7) where <d0>, <d1>, <d-1>, <d2>,
Since the lengths of <d-2> are all 1, the absolute value of δij does not exceed 1. | Δij | ≦ 1 (the necessary and sufficient condition for establishing the equal sign is i = j) (8) Further, the distance from the origin of the camera coordinate system to the center of each dot is unknown, but this is represented by ti (i = − 2, -1,0,1,2).
Of course, these take positive values.

【0048】 ti >0 (i=-2,-1,0,1,2) ・・・(9) すると、次の方程式(10)〜(12)が得られる。 t0 <d0 >=lM ・・・(10) t1 <d1 >=lM +aRM <e1 > ・・・(11a) t-1<d-1>=lM −aRM <e1 > ・・・(11b) t2 <d2 >=t1 <d1 >+aRM <e2 > ・・・(12a) t-2<d-2>=t-1<d-1>+aRM <e2 > ・・・(12b) 従って、ti を求めながらこれらの方程式をRM とlM
に関して解いて行けば、M0 ,Mg を定めることが出来
る。具体的な解法については、4.M0 及びMg の求め
方の項で説明することにし、カメラ座標系の位置・姿勢
を表わすCについて簡単に触れておく。
Ti> 0 (i = -2, -1,0,1,2) (9) Then, the following equations (10) to (12) are obtained. t0 <d0> = lM (10) t1 <d1> = lM + aRM <e1> ... (11a) t-1 <d-1> = lM-aRM <e1> ... (11b) t2 <D2> = t1 <d1> + aRM <e2> (12a) t-2 <d-2> = t-1 <d-1> + aRM <e2> (12b) Accordingly, ti is obtained. While these equations are expressed as RM and 1M
By solving for, M0 and Mg can be determined. For the specific solution, see 4. A description will be given in the section on how to determine M0 and Mg, and a brief description will be given of C representing the position and orientation of the camera coordinate system.

【0049】3.Cの方程式 Cはフランジから見たカメラ座標系の位置・姿勢を表現
する行列であり、そのデータはカメラ21のキャリブレ
ーションによって得られる。キャリブレーションについ
ては種々の手法が公知になっており、それらを利用する
ことが出来るが、マーク座標系ΣM を用いてもカメラ2
1のキャリブレーションを行なうことも出来る。ここで
は、その要点のみを簡単に記しておく。
3. Equation C is a matrix representing the position and orientation of the camera coordinate system viewed from the flange, and its data is obtained by calibration of the camera 21. Various methods are known for calibration and can be used. However, even if the mark coordinate system ΣM is used, the camera 2
1 can also be performed. Here, only the main points are briefly described.

【0050】図4中に符号CB1〜CB3で示したよう
な異なる3点において、カメラ21による撮影を各々実
行し、画像処理を行なってマーク座標系ΣM とカメラ座
標系の原点の間の相対位置に関するデータPi (i=1,2,
3 )を得る。それらと各撮影時のロボット位置のデータ
Ti (i=1,2,3 )を組み合わせると、次の3組の方程式
が得られる。なお、Pi (i=1,2,3 )を求める要領はM
0 やMg と同様である。 T1 CP1 =T2 CP2 =T3 CP3 ・・・(13) 3点CB1〜CB3のロボットの姿勢が互いに異なる条
件下では、この方程式をCに関して解くことが可能であ
る。この条件を(14)とする。 条件:T1 ,T2 ,T3 の各姿勢成分は互いに異なる ・・・(14) 求められたCのデータは、ロボット制御装置あるいは画
像処理装置に記憶される。なお、方程式の解法について
は、5.Cの求め方で補足説明を行なう。
At three different points indicated by reference numerals CB1 to CB3 in FIG. 4, photographing by the camera 21 is executed, image processing is performed, and a relative position between the mark coordinate system ΔM and the origin of the camera coordinate system is obtained. Data Pi (i = 1,2,
3) get. When these are combined with the data Ti (i = 1, 2, 3) of the robot position at the time of each photographing, the following three sets of equations are obtained. The way to find Pi (i = 1,2,3) is M
Same as 0 or Mg. T1 CP1 = T2 CP2 = T3 CP3 (13) This equation can be solved for C under conditions where the robot postures at the three points CB1 to CB3 are different from each other. This condition is defined as (14). Condition: Each posture component of T1, T2, and T3 is different from each other (14) The obtained data of C is stored in the robot control device or the image processing device. The method of solving the equation is described in 5. Supplementary explanation will be given on how to find C.

【0051】4.M0 及びMg の求め方 方程式(10)〜(12)を解いてRM ,lM を求めるにあ
たって、先ずti (i=-2,-1,0,1,2 )を求めることを考
える。そのために、次式(15)の置き換えを行う。
4. Determination of M0 and Mg In solving equations (10) to (12) to obtain RM and 1M, first consider obtaining ti (i = -2, -1,0,1,2). For this purpose, the following equation (15) is replaced.

【0052】[0052]

【数3】 そして、これを用いて方程式(10)〜(11)を次式(1
6)〜(18)のように変形する。 <rM >=t0 RM-1 <d0 > ・・・(16) <rM >+a<e1 >=t1 RM-1 <d1 > ・・・(17) <rM >−a<e1 >=t-1RM-1 <d-1> ・・・(18) ここで、RM-1 が回転を表わす行列であることに注意す
ると、次式(19)が成立する。 (RM-1 <di >)・(RM-1 <dj >)=<di >・<dj > (i,j=-2,-1,0,1,2) ・・・(19) この(19)式と、(5)〜(8)式及び(16)〜(18)
式を用いると、次の関係式(20)〜(23)が得られる。
(Equation 3) Then, the equations (10) to (11) are converted into the following equation (1)
Deforms as shown in 6) to (18). <RM> = t0 RM -1 <d0> (16) <rM> + a <e1> = t1 RM -1 <d1> (17) <rM> -a <e1> = t-1RM -1 <d-1> (18) Here, note that RM -1 is a matrix representing rotation, and the following equation (19) is established. (RM- 1 <di>). (RM- 1 <dj>) = <di>. <Dj> (i, j = -2, -1,0,1,2) (19) Expression (19), Expressions (5) to (8) and Expressions (16) to (18)
Using the equations, the following relational expressions (20) to (23) are obtained.

【0053】 ‖<rM >‖2 =t02 ・・・(20) ‖<rM >‖2 +2arMx+a2 =t12 ・・・(21a) ‖<rM >‖2 −2arMx+a2 =t-12 ・・・(21b) ‖<rM >‖2 +arMx=t0 t1 δ0,1 ・・・(22a) ‖<rM >‖2 −arMx=t0 t-1δ0,-1 ・・・(22b) δ0,12<1,δ0,-12 <1 ・・・(23) これらの式から条件(3),(9)と式(22a),(22
b)から、‖<rM >‖2 +arMxとaδ0,1、‖<rM
>‖2 −arMxとaδ0,-1 とが各々同符号になる事に
注意して整理すれば、次式(24a)〜(25b)が得られ
る。
[0053] || <rM> || 2 = t0 2 ··· (20) || <rM> || 2 + 2arMx + a 2 = t1 2 ··· (21a) || <rM> || 2 -2arMx + a 2 = t1 2 · · · (21b) || <rM> ‖ 2 + arMx = t0 t1 δ0,1 ··· (22a) || <rM> ‖ 2 -arMx = t0 t-1δ0, -1 ··· (22b) δ0,1 2 <1, δ0, −1 2 <1 (23) From these equations, the conditions (3) and (9) and the equations (22a) and (22)
From b), ‖ <rM> ‖ 2 + arMx and aδ0,1, ‖ <rM
> ‖ 2 -ArMx and Eideruta0, if organize note that where the -1 becomes each same sign, the following equation (24a) ~ (25b) is obtained.

【0054】[0054]

【数4】 式(24a),(24b)は更に変形すると、次式(26),
(27)が得られる。 ‖<rM >‖2 =(a2β+2)/(1+β-2) ・・・(26) rMx=(aβ+ β- )/(1+β-2) ・・・(27) 但し、β+ ,β- は次式(28a),(28b)で定義され
るものとする。 β+ =(α+ +α- )/2 ・・・(28a) β- =(α+ −α- )/2 ・・・(28b) そして、式(20)(21a),(21b)に式(26)(27)
を代入して条件(3),(9)を用いれば、t0 ,t1
及びt-1が次式(29)(30a),(30b)で求まる。
(Equation 4) Equations (24a) and (24b) are further transformed into the following equations (26),
(27) is obtained. ‖ <RM> ‖ 2 = (a 2 β + 2 ) / (1 + β− 2 ) (26) rMx = (aβ + β −) / (1 + β− 2 ) (27) where β + , Β- are defined by the following equations (28a) and (28b). β + = (α ++ α −) / 2 (28a) β − = (α + −α −) / 2 (28b) Then, the equations (20), (21a) and (21b) are used. (26) (27)
Is substituted and the conditions (3) and (9) are used, t0, t1
And t-1 are obtained by the following equations (29), (30a), and (30b).

【0055】[0055]

【数5】 これらを用いて更に、t2 ,t-2,<lM >及びRM
が次のように求められる。
(Equation 5) Using these, t2, t-2, <1M> and RM
Is required as follows.

【0056】[0056]

【数6】 5.Cの求め方 前述の条件(14)の下で、前述の方程式(13)を解く。
方程式(13)を変形すると、次の(31),(32)が得ら
れる。 C-1T1-1T3 C=P1 P3-1 ・・・(31) C-1T2-1T3 C=P2 P3-1 ・・・(32) ここで次式(33)〜(37)に従った置き換えを行なう。
(Equation 6) 5. How to determine C Under the above-mentioned condition (14), the above-mentioned equation (13) is solved.
By transforming equation (13), the following equations (31) and (32) are obtained. C -1 T1 -1 T3 C = P1 P3 -1 ... (31) C -1 T2 -1 T3 C = P2 P3 -1 ... (32) Here, the following equations (33) to (37) are used. Replace according to

【0057】[0057]

【数7】 すると、方程式(31),(32)は次の式(38)〜(41)
に分解される。 RC-1 R1 RC =R2 ・・・(38) RC-1 R3 RC =R4 ・・・(39) (I−R1 )<lC >=<l1 >−RC <l2 > ・・・(40) (I−R3 )<lC >=<l3 >−RC <l4 > ・・・(41) 従って、RC 及び<lC >を求めることが目標となる。
ここで、方程式(38),(39)の形から、回転行列間の
相似R1 〜R2 ,R3 〜R4 及びそれらの相似関係を表
現する相似変換行列がともにRC であることが判る。そ
こで、Ri (i=1,2,3,4 )の回転方向を表わすベクトル
を<vi >(i=1,2,3,4 )として、次式(42),(43)
が得られる。ここで、<vi >(i=1,2,3,4)は、条件
(14)と定義式(34),(36)から一意的に定めること
が出来る。 <v1 >=RC <v2 > ・・・(42) <v3 >=RC <v4 > ・・・(43) 更に、次式(44)の関係を用いれば、RC を求めること
が出来る。 (<v1 >,<v3 >,<v1 >×<v3 >) =RC (<v2 >,<v4 >,<v2 >×<v4 >) ・・・(44) 方程式(40),(41)に関しては、次式(45)の形にひ
とまとめにして、最小2乗法を適用すれば<lC >が求
められる。
(Equation 7) Then, the equations (31) and (32) are converted into the following equations (38) to (41).
Is decomposed into RC- 1 R1 RC = R2 (38) RC- 1 R3 RC = R4 (39) (I-R1) <lc> = <l1> -RC <l2> (40) ( I-R3) <lC> = <l3> -RC <l4> (41) Accordingly, the goal is to determine RC and <lC>.
Here, from the forms of equations (38) and (39), it can be seen that the similarities R1 to R2 and R3 to R4 between the rotation matrices and the similarity transformation matrices expressing the similarities between them are RC. Therefore, a vector representing the rotation direction of Ri (i = 1, 2, 3, 4) is defined as <vi> (i = 1, 2, 3, 4), and the following equations (42), (43)
Is obtained. Here, <vi> (i = 1, 2, 3, 4) can be uniquely determined from the condition (14) and the definition expressions (34) and (36). <V1> = RC <v2> (42) <v3> = RC <v4> (43) Furthermore, RC can be obtained by using the following equation (44). (<V1>, <v3>, <v1> × <v3>) = RC (<v2>, <v4>, <v2> × <v4>) (44) Equations (40), (41) <LC> can be obtained by applying the least squares method to the form of the following equation (45).

【0058】[0058]

【数8】 6.方式1による移動制御の処理フローの概略以上1.
〜5.の説明事項を前提として、方式1における準備作
業と自律教示希望位置への移動のための処理フローの概
略を説明する。先ず、準備作業について補足すれば、次
のようになる。 (1)作業開始に先だって、上記3,で説明したよう
に、3つの位置CB1〜CB3にロボットを順次移動さ
せる。 (2)各位置CB1〜CB3で、代表ワーク3上のマー
ク部材MK1のマーク座標系ΣM (1個)の画像を取得
し、画像処理装置20内の画像処理によって各ドット中
心の視線方向を表わすデータを取得する。 (3)上記5.で説明したアルゴリズムに従った処理を
画像処理装置20内で行い、カメラ座標系Cのデータ
(RC ,<lC >のデータ)を算出・記憶する。
(Equation 8) 6. Outline of processing flow of movement control by method 1
~ 5. Based on the description items described above, an outline of a processing flow for preparation work and movement to a desired autonomous teaching position in the method 1 will be described. First, the supplementary work is as follows. (1) Prior to the start of the work, the robot is sequentially moved to the three positions CB1 to CB3 as described in 3 above. (2) At each of the positions CB1 to CB3, an image of the mark coordinate system ΣM (one) of the mark member MK1 on the representative work 3 is acquired, and the line-of-sight direction of each dot center is represented by image processing in the image processing device 20. Get the data. (3) The above 5. The processing according to the algorithm described in (1) is performed in the image processing apparatus 20, and data (RC, <lC> data) of the camera coordinate system C is calculated and stored.

【0059】(4)カメラキャリブレーションが完了し
たら、ロボットを図4に示した位置Ptに移動させ、マ
ークMK1に対する教示希望位置到達状態を現出させ
る。
(4) When the camera calibration is completed, the robot is moved to the position Pt shown in FIG. 4, and the state of reaching the desired teaching position with respect to the mark MK1 appears.

【0060】(5)マーク座標系ΣM の画像を取得し、
画像処理装置20内の画像処理によって各ドット中心の
視線方向を表わすデータを取得する。 (6)上記1.2.4.で説明したアルゴリズムに従っ
た処理を画像処理装置20内で行い、教示希望位置到達
状態表現データ(Mg のデータ)を算出・記憶する。
(5) Obtain an image in the mark coordinate system ΣM,
Data representing the line-of-sight direction of each dot center is acquired by image processing in the image processing device 20. (6) The above 1.2.4. The processing according to the algorithm described in (1) is performed in the image processing device 20 to calculate and store the desired position attainment state representation data (Mg data).

【0061】教示希望位置への自律的な移動は、図8の
フローチャートに示したように、次の諸ステップを含む
処理サイクルによって実行される。 〔K1〕<d0 >,<d1 >,<d-1>,<d2 >,<
d-2>を画像処理で求め、M0 を計算する。 〔K2〕記憶されているMg のデータとステップK1で
求めた<d0 >,<d1 >,<d-1>,<d2 >,<d
-2>から計算されるM0 とを比較し、両者の一致/不一
致を判定する。一致していれば教示希望位置への到達状
態を意味するから、ステップK6へ進む。不一致であれ
ば、教示希望位置に到達していないことを意味するか
ら、ステップK3〜K5を経由してステップK1へ戻
る。Mg とM0 の一致度の評価には種々のアルゴリズム
が利用出来る。例えば、次式(46)で判定指標Δを算出
し、Δ<ε(εは十分小なる正値)であればアプローチ
完了、Δ≧εであればアプローチ未完了とすれば良い。
The autonomous movement to the desired teaching position is executed by a processing cycle including the following steps as shown in the flowchart of FIG. [K1] <d0>, <d1>, <d-1>, <d2>, <
d-2> is obtained by image processing, and M0 is calculated. [K2] The stored Mg data and <d0>, <d1>, <d-1>, <d2>, <d
-2> is compared with M0 to determine the match / mismatch between the two. If they match, this means that the robot has reached the desired teaching position, and the process proceeds to step K6. If they do not match, it means that the desired position has not been reached, and the process returns to step K1 via steps K3 to K5. Various algorithms can be used to evaluate the coincidence between Mg and M0. For example, the determination index Δ is calculated by the following equation (46), and if Δ <ε (ε is a sufficiently small positive value), the approach is completed, and if Δ ≧ ε, the approach is not completed.

【0062】[0062]

【数9】 〔K3〕ロボットの手先(フランジ上に設定された座標
系の原点)の位置・姿勢を表わす4行4列の行列T0 を
計算・記憶する。 〔K4〕準備作業で取得したデータ(C,Mg のデー
タ)と上記説明したアルゴリズムを用いて、(2)式の
右辺を計算し、直交移動目標位置Tg を求める。
(Equation 9) [K3] A matrix T0 of 4 rows and 4 columns representing the position and orientation of the robot's hand (the origin of the coordinate system set on the flange) is calculated and stored. [K4] The right side of equation (2) is calculated using the data (C and Mg data) acquired in the preparatory work and the above-described algorithm to determine the orthogonal movement target position Tg.

【0063】〔K5〕直交移動目標位置Tg へ向かうた
めの移動指令を作成してサーボへ渡し、ロボットを移動
させる。システムが無誤差の完璧なものであれば、以上
のステップK1〜K5の1サイクルで教示希望位置到達
状態に至る筈であるが、実際には視覚センサの誤差、計
算の誤差等のために、教示希望位置到達状態は、逐次近
似的に達成される。〔K6〕ロボットを停止させて処理を終了する。
[K5] A movement command for moving to the orthogonal movement target position Tg is created and passed to the servo to move the robot. If the system is perfect with no error, it should reach the desired teaching position in one cycle of the above steps K1 to K5. However, due to errors in the visual sensor, calculation errors, etc. The teaching desired position reaching state is successively and approximately achieved. [K6] The robot is stopped, and the process ends.

【0064】[方式2] [1]概要 方式2による実施形態においては、視覚ターゲット手段
として、レーザビームによって形成される光スポットが
利用される。先ず、準備作業と教示作業の概略を、図9
〜図14を参照図に加えて説明する。図9は準備作業の
諸段階の内PR1〜PR3を説明するための図であり、
図10は残りの段階PR4〜PR6を説明するための図
である。また、図11は、教示作業の諸段階の内TH1
〜TH3を説明するための図、図12は段階TH4,P
R5を説明するための図である。
[Method 2] [1] Outline In the embodiment according to the method 2, a light spot formed by a laser beam is used as a visual target means. First, an outline of the preparation work and the teaching work is shown in FIG.
14 to 14 will be described in addition to the reference drawings. FIG. 9 is a diagram for explaining PR1 to PR3 among various stages of the preparation work,
FIG. 10 is a diagram for explaining the remaining steps PR4 to PR6. FIG. 11 shows TH1 of various stages of the teaching operation.
FIG. 12 is a diagram for explaining steps TH4 and P3.
It is a figure for explaining R5.

【0065】[2]準備作業(教示希望位置到達状態表
現データの取得とカメラのキャリブレーション) (PR1)先ずフランジ位置2aで代表されるロボット
の手先に、カメラ21に加えて、レーザヘッド22(図
2中に示したレーザ発振器60の照射ヘッド)と参照ツ
ール25を取り付ける。レーザヘッド22は適当な調整
機構23を介して取り付けられており、レーザビーム2
4の投光方向を調整出来るようになっている。参照ツー
ル25の先端付近の矢印27で示した部分には、TCP
(2b)を表わすマーク26が設けられている。但し、
このマーク26は目視用のものであることに注意する必
要がある。図示されているように、レーザヘッド22を
取り付けただけの状態では、一般に、レーザビーム24
が参照ツール25上のマーク26には入射しない。
[2] Preparatory work (acquisition of teaching desired position reaching state expression data and camera calibration) (PR1) First, in addition to the camera 21, the laser head 22 ( The irradiation head of the laser oscillator 60 shown in FIG. 2) and the reference tool 25 are attached. The laser head 22 is mounted via an appropriate adjusting mechanism 23, and the laser beam 2
4 can be adjusted. The portion indicated by the arrow 27 near the tip of the reference tool 25 has a TCP
A mark 26 representing (2b) is provided. However,
It should be noted that this mark 26 is for visual observation. As shown in the figure, when only the laser head 22 is mounted, the laser beam 24
Does not enter the mark 26 on the reference tool 25.

【0066】(PR2)レーザヘッド22の向きを調整
して、レーザビーム24が参照ツール25上のマーク2
6に入射するようにする。これにより、マーク26の位
置、即ち、TCPの位置2bに光スポットが形成され
る。レーザヘッド22は、以後、この状態で固定され
る。
(PR2) Adjust the direction of the laser head 22 so that the laser beam 24
6. Thus, a light spot is formed at the position of the mark 26, that is, at the position 2b of the TCP. Thereafter, the laser head 22 is fixed in this state.

【0067】(PR3)この状態で、ロボット制御装置
30を介してカメラ21による撮影を行なわせ、教示希
望位置到達状態表現データを作成するための画像を取得
する。取得された光スポットの画像は画像処理装置20
内で画像処理され、カメラ21のカメラ座標系(原点O
c )から見た光スポット(TCP位置2bにある。)の
方向を表わすベクトル<et >のデータが作成・記憶さ
れる。このデータが、教示希望位置到達状態表現データ
として後に利用される。
(PR3) In this state, the camera 21 is caused to take a picture via the robot control device 30 to obtain an image for creating the desired teaching position reaching state expression data. The image of the acquired light spot is stored in the image processing device 20.
The image is processed in the camera coordinate system of the camera 21 (the origin O
Data of a vector <et> representing the direction of the light spot (located at the TCP position 2b) viewed from c) is created and stored. This data will be used later as the desired teaching position reaching state expression data.

【0068】(PR4)<et >のデータを取得した
ら、参照ツール25を取り外す。レーザヘッド22は固
定されたままなので、図示されているように、レーザビ
ーム24は空中でTCP(2b)を通ることになる。
(PR4) When the data of <et> is obtained, the reference tool 25 is removed. Since the laser head 22 remains fixed, the laser beam 24 passes through the TCP (2b) in the air as shown.

【0069】(PR5)カメラ座標系の原点Oc から見
たレーザビーム24の存在方向を表わすベクトルとし
て、ベクトル<eh >のデータを作成・記憶する。<e
h >は、次の2条件を満たすベクトルである。 条件1;ベクトル<et >とレーザビーム24が張る平
面内にある。 条件2;<eh >⊥<et >を満たす<eh >の内、カ
メラ21からレーザヘッド22を見た方向に近い方のベ
クトルである。<eh >は、例えば図13に示した方法
で求めることが出来る。
(PR5) Data of a vector <eh> is created and stored as a vector representing the direction in which the laser beam 24 exists as viewed from the origin Oc of the camera coordinate system. <E
h> is a vector satisfying the following two conditions. Condition 1: the plane <et> and the laser beam 24 extend within a plane. Condition 2: A vector closer to the direction in which the laser head 22 is viewed from the camera 21 among <eh> satisfying <eh> ⊥ <et>. <Eh> can be obtained, for example, by the method shown in FIG.

【0070】即ち、ロボットをジョグ送りで適当な平面
(ここでは代表ワーク面3aを利用する。)の上方に移
動させ、レーザビーム24のスポットFを形成する。そ
して、(1)に示したようにTCP位置2bが面3aの
上方にある状態から、ロボットの面3aへの接近によ
り、(2)に示したようにTCP位置2bが面3aの下
方に来る状態を作る。換言すれば、スポットFの位置が
TCP位置(2b)を見るカメラ21の視線21aと面
3aの交点Nを越えて(1)の状態から反対側に来るよ
うにする。
That is, the robot is moved above a suitable plane (here, the representative work surface 3a is used) by jog feed to form a spot F of the laser beam 24. Then, from the state where the TCP position 2b is above the surface 3a as shown in (1), when the robot approaches the surface 3a, the TCP position 2b comes below the surface 3a as shown in (2). Make a state. In other words, the position of the spot F is made to come to the opposite side from the state of (1) beyond the intersection N of the line of sight 21a of the camera 21 and the surface 3a viewing the TCP position (2b).

【0071】この状態で、カメラ21による撮影を行な
い、スポットFの画像を取得する。そして、画像処理装
置20内で画像処理を行い、カメラ座標系から見たスポ
ットFの方向を表わすベクトル<es >のデータを求め
る。ベクトル<eh >は、この<es >を用いて次式
(47)で算出される。
In this state, photographing is performed by the camera 21 to obtain an image of the spot F. Then, image processing is performed in the image processing device 20 to obtain data of a vector <es> representing the direction of the spot F viewed from the camera coordinate system. The vector <eh> is calculated by the following equation (47) using this <es>.

【0072】[0072]

【数10】 (PR6)カメラ21のキャリブレーションを行なう。
これは、ロボット手先のフランジ面上に設定されている
フランジ座標系(2aが原点)とカメラ座標系の関係を
求めるためのものである。カメラのキキャリブレーショ
ンの手法については方式1の説明で述べた通り種々のも
のが利用可能である(マーク部材による手法を利用して
も良い)。
(Equation 10) (PR6) The camera 21 is calibrated.
This is for obtaining the relationship between the flange coordinate system (2a is the origin) set on the flange surface of the robot hand and the camera coordinate system. As the camera calibration method, various methods can be used as described in the description of the method 1 (a method using a mark member may be used).

【0073】[3]方式2による教示作業 (TH1)先ず、ロボットをジョグ送りで最初の教示希
望位置が存在する代表ワーク面3aの上方に移動させ、
レーザビーム24のスポットFを代表ワーク面3a上に
形成する。教示希望位置Aは、視覚センサで認識可能な
適当な教示点マークAで予めマーキングしておくものと
する。図示した状態のフランジ位置2aをPsとし、位
置Psから自律移動を開始するものとする。なお、後述
するように、ジョグ送りから自律移動への移行は、例え
ば視覚センサ出力を利用した自動切換とすることが出来
る。
[3] Teaching work by method 2 (TH1) First, the robot is moved by jog feed above the representative work surface 3a where the first desired teaching position is located.
A spot F of the laser beam 24 is formed on the representative work surface 3a. The desired teaching position A is preliminarily marked with an appropriate teaching point mark A recognizable by the visual sensor. It is assumed that the flange position 2a in the illustrated state is Ps, and the autonomous movement starts from the position Ps. Note that, as described later, the transition from the jog feed to the autonomous movement can be, for example, automatic switching using a visual sensor output.

【0074】図示されているように、TCP位置2bは
面3aの上方にあり、レーザビーム24はこの点を経て
面3a上にスポットFを形成する。この段階TH1で
は、一般に、教示点マークA、スポット位置F及びTC
P(2b)の3点は互いに別の位置にある。また、カメ
ラ21から教示点マークAを見た視線21aはTCP
(2b)を通らない。
As shown, the TCP position 2b is above the surface 3a, and the laser beam 24 forms a spot F on the surface 3a via this point. In this stage TH1, generally, the teaching point mark A, the spot position F and the TC
The three points P (2b) are at different positions. The line of sight 21a viewing the teaching point mark A from the camera 21 is TCP
(2b) does not pass.

【0075】(TH2)自律移動の処理によってロボッ
トを動作させ、カメラ21から教示点マークAを見た視
線21aがTCP(2b)を通るようにする。ロボット
の動作としては、カメラ座標系の原点Oc 周りの回転が
合理的である。
(TH2) The robot is operated by the autonomous movement process so that the line of sight 21a viewing the teaching point mark A from the camera 21 passes through the TCP (2b). As the operation of the robot, rotation around the origin Oc of the camera coordinate system is reasonable.

【0076】(TH3)自律移動の処理によってロボッ
トを動作させ、視線21aがTCP(2b)を通る条件
を出来るだけ守りながら、スポットFの形成位置を教示
点マークAに接近させる。ロボットの動作としては、視
線21a方向の前進に適宜Oc 周りの回転を組み合わせ
たものとする。
(TH3) The robot is operated by the autonomous movement process, and the spot F is formed close to the teaching point mark A while observing as much as possible the condition that the line of sight 21a passes through the TCP (2b). As the operation of the robot, it is assumed that the rotation in the direction of the line of sight 21a is appropriately combined with the rotation around Oc.

【0077】(TH4)視線21a方向の前進が過剰に
なったら、視線21aがTCP(2b)を通る条件を出
来るだけ守りながら、適宜視線21a方向に沿って後退
し、適宜Oc 周りの回転を組み合わせる。
(TH4) When the forward movement in the direction of the line of sight 21a becomes excessive, the line of sight 21a retreats along the direction of the line of sight 21a as appropriate while observing the conditions for passing the TCP (2b) as much as possible, and appropriately combines rotations around Oc. .

【0078】(TH5)以下、TH3の動作(前進)と
TH4(後退)の動作を繰り返して、スポットFの形成
位置を教示点マークAに収束させる。この収束点は、T
CP(2b)を通り、且つ、教示点マークAを見る視線
21aとTCP(2b)を通るレーザビームの交点に他
ならないから、従って、結局は教示点マークA、スポッ
ト位置F及びTCP(2b)の3点が同じ位置に来るこ
とになる。これはとりもなおさず、教示対象点たるTC
P(2b)が教示希望位置に到達したことを意味する。
この時のフランジ位置2bの位置を、方式1の場合と同
じく、Ptで表わす。
(TH5) Thereafter, the operation of TH3 (forward) and the operation of TH4 (retreat) are repeated to converge the spot F formation position to the teaching point mark A. This convergence point is T
Since it is the intersection of the laser beam passing through the TCP (2b) and the line of sight 21a passing through the CP (2b) and looking at the teaching point mark A, the teaching point mark A, the spot position F and the TCP (2b) are ultimately obtained. Will come to the same position. This is the TC to be taught.
This means that P (2b) has reached the desired teaching position.
The position of the flange position 2b at this time is represented by Pt as in the case of the method 1.

【0079】そこで、この状態におけるロボット位置を
制御手段(ロボット制御装置内の不揮発性メモリ)に記
憶すれば、位置Aの位置教示が完了する。教示希望位置
(教示点マーク)が複数ある場合(図示は省略するが、
例えば図1中の代表ワーク3上の点A1〜A4を参
照)、2番目以降の各教示点マークに関して上記プロセ
スTH1〜TH5を適用すれば良い。
Then, if the robot position in this state is stored in the control means (non-volatile memory in the robot controller), the position teaching of the position A is completed. When there are a plurality of desired teaching positions (teaching point marks) (not shown,
For example, see the points A1 to A4 on the representative work 3 in FIG. 1). The above processes TH1 to TH5 may be applied to the second and subsequent teaching point marks.

【0080】[4]方式2における教示希望位置自律移
動時の処理 上記[2]で説明したプロセスに従って、自律移動開始
位置Ps(フランジ位置で表現)から教示希望位置Pt
(同じく、フランジ位置で表現)への移動を達成するた
めの処理のアルゴリズムを説明する。記号<>は方式1
の場合と同じくベクトルを表わすが、ベクトルの定義内
容等は方式1とは別個である。自律的な移動は、図15
(L1〜L12)及び図16(L13〜L19)のフロ
ーチャートに概略を記したアルゴリズムに従った処理サ
イクルに基づいて実行される。以下、各ステップに分け
てアルゴリズムを中心に説明する。説明中の諸記号の意
味は次の通りである。
[4] Processing at Autonomous Movement of Teaching Desired Position in Method 2 According to the process described in the above [2], the autonomous movement start position Ps (expressed as a flange position) is changed to the desired teaching position Pt.
(Similarly, expressed by the flange position) The processing algorithm for achieving the movement will be described. Symbol <> indicates method 1.
A vector is represented as in the case of (1), but the definition contents of the vector are different from those of the method 1. Autonomous movement is shown in FIG.
(L1 to L12) and a processing cycle according to the algorithm outlined in the flowchart of FIG. 16 (L13 to L19). Hereinafter, the algorithm will be mainly described for each step. The meanings of the symbols in the description are as follows.

【0081】σ0 ,σ1 ;いずれもロボットの前進/後
退を表わすフラグで±1の値をとる。+1は前進を意味
し、−1は後退を意味する。 l;ロボットの前進/後退の刻み量を表わすレジスタ値 <dm >;図14に示したように、カメラ座標系の原点
Oc から教示点マークAを見た視線方向を表わす単位ベ
クトル(長さ1)で、画像データから求められる。 <ds >;同じく図14に示したように、カメラ座標系
の原点Oc からスポット位置F(レーザビーム24の入
射位置)を見た視線方向を表わす単位ベクトル(長さ
1)で、<dm >と同様、画像データから求められる。
Σ 0, σ 1; both are flags indicating forward / backward movement of the robot and take a value of ± 1. +1 means forward and -1 means backward. l; a register value <dm> indicating the increment of forward / backward movement of the robot; as shown in FIG. 14, a unit vector (length 1) indicating the line of sight of the teaching point mark A from the origin Oc of the camera coordinate system. ) Is obtained from the image data. <Ds>; as also shown in FIG. 14, a unit vector (length 1) representing the line-of-sight direction of the spot position F (the incident position of the laser beam 24) from the origin Oc of the camera coordinate system, and <dm> Similarly to the above, it is obtained from the image data.

【0082】T;ロボット座標系上で、ロボットの位置
・姿勢を表わす行列 δr ,δl ;いずれも適当なしきい値で、0に近い正の
定数。 R;<dm >と<et >の方向の関係を記述する回転行
列で、R<et >=<dm >となる3×3行列の内、最
小の回転を表わすもの。 sgn;符号関数で、次のように定義される。 sgn(x)=+1 (x>0) sgn(x)=0 (x=0) sgn(x)=−1 (x<0) 〔L1〕フラグσ0 を1に初期設定する。また、lを適
当な初期値(例えば3cm)に初期設定する。 〔L2〕行列Tのデータを表わすレジスタ値をロボット
の現在位置に基づいて更新する。 〔L3〕カメラ21を用いて撮影を行い、画像処理装置
20を用いてベクトル<dm >を求めることを試みる。 〔L4〕もし、ベクトル<dm >が求められなければ、
教示点マークAがカメラ視野で捉えられていないことが
考えられるので、処理を終了する(オペレータは、ジョ
グ送りでロボット位置を調整し、教示点マークAが確実
にカメラ視野で捉えられる状態とする)。ベクトル<d
m >が求められた場合には、ステップL5へ進む。
T: matrices δr, δl representing the position and orientation of the robot on the robot coordinate system; both are appropriate thresholds and are positive constants close to 0. R: a rotation matrix that describes the relationship between the directions of <dm> and <et>, and represents the minimum rotation of a 3 × 3 matrix in which R <et> = <dm>. sgn: a sign function defined as follows. sgn (x) = + 1 (x> 0) sgn (x) = 0 (x = 0) sgn (x) = − 1 (x <0) [L1] The flag σ0 is initialized to 1. Also, 1 is initially set to an appropriate initial value (for example, 3 cm). [L2] The register value representing the data of the matrix T is updated based on the current position of the robot. [L3] Shooting is performed using the camera 21, and an attempt is made to obtain the vector <dm> using the image processing device 20. [L4] If the vector <dm> is not obtained,
Since it is considered that the teaching point mark A is not captured in the camera view, the processing is terminated (the operator adjusts the robot position by jog feed to ensure that the teaching point mark A is captured in the camera view. ). Vector <d
If m> is obtained, the process proceeds to step L5.

【0083】〔L5〕ベクトル<et >とベクトル<d
m >の外積、<dr >=<et >×<dm >を求める。 〔L6〕ベクトル<dr >の絶対値をしきい値δr と比
較し、小さくなければステップL7へ進む。小さければ
ステップL10へ進む。
[L5] Vector <et> and Vector <d
The outer product of <m>, <dr> = <et> × <dm> is determined. [L6] The absolute value of the vector <dr> is compared with the threshold value δr. If smaller, the process proceeds to step L10.

【0084】〔L7〕<dm >と<et >の方向の関係
を記述する回転行列Rを表記の式で算出する。なお、表
記の算出式は、下記の連立方程式をRについて解いて得
られるものである。 R<et >=<dm > ・・・(48) R<dr >=<dr > ・・・(49) 〔L8〕行列Tのデータを表わすレジスタ値を、新しい
部分行列Rを含む表記の行列に対するものに更新する。
この行列は、下記の方程式(50)をTg について解き、
Tg →Tとしたものである。
[L7] A rotation matrix R describing the relationship between the directions of <dm> and <et> is calculated by the expression shown. Note that the notation calculation formula is obtained by solving the following simultaneous equations for R. R <et> = <dm> (48) R <dr> = <dr> (49) [L8] A register notation including a new sub-matrix R representing a register value representing data of the matrix T Update to that for.
This matrix solves the following equation (50) for Tg,
Tg → T.

【0085】[0085]

【数11】 〔L9〕ロボットを動作させ、ステップL8で計算され
た行列Tの表わす位置・姿勢に移動させるための処理を
行い、ステップL2へ戻る。 〔L10〕ステップL6で、ベクトル<dr >の絶対値
がしきい値δr より小さいと判断されたら、初めてこの
ステップL10が実行される。本ステップでは、カメラ
座標系の原点Oc からスポット位置Fを見た視線方向を
表わす単位ベクトル<ds >を、画像データから求める
ことを試みる。
[Equation 11] [L9] The robot is operated to perform processing for moving to the position and orientation represented by the matrix T calculated in step L8, and the process returns to step L2. [L10] If it is determined in step L6 that the absolute value of the vector <dr> is smaller than the threshold value δr, this step L10 is executed for the first time. In this step, an attempt is made to obtain a unit vector <ds> representing the line-of-sight direction in which the spot position F is viewed from the origin Oc of the camera coordinate system from the image data.

【0086】〔L11〕ベクトル<dr >の絶対値がほ
ぼ0となっているこの時点(TCPを見る視線と教示点
マークを見る視線が実質一致)でスポットFがカメラ視
野に収まらないことは、システム異常や設計ミス等がな
い限り起こり得ないと考えられる。従って、殆どのケー
スでは、ベクトル<ds >が求められ、ステップL12
へ進む。しかし、万一<ds >が求められない場合には
処理を終了する(別途、原因究明等を行なう)。
[L11] At this point in time when the absolute value of the vector <dr> is almost 0 (the line of sight looking at the TCP and the line of sight looking at the teaching point mark substantially match), the fact that the spot F does not fit in the camera's field of view is as follows. It is considered that it cannot occur unless there is a system abnormality or a design error. Therefore, in most cases, the vector <ds> is determined and the step L12
Proceed to. However, if <ds> cannot be obtained, the processing is terminated (the cause is separately investigated).

【0087】〔L12〕<ds >と<et >が実質同じ
向きで、且つ、内積1になっているかをチェックする
(δl は非常に小さい正値であることに注意)。 〔L13〕ロボットの前進/後退を表わすフラグσ1
を、<ds >と<eh >の内積が正ならばσ1 =−1、
負ならばσ1 =1、実質的に0ならばσ1 =0とする。 〔L14〕σ1 =0であればステップL15に進む。σ
1 =0でなければステップL16へ進む。 〔L15〕σ1 をσ0 に更新し、ステップL18へ進
む。 〔L16〕σ1 とσ0 の積が正であればステップL18
へ進む。負であればステップL17へ進む。
[L12] It is checked whether <ds> and <et> are in substantially the same direction and have an inner product of 1 (note that δl is a very small positive value). [L13] Flag σ1 indicating forward / backward movement of robot
Σ1 = −1 if the inner product of <ds> and <eh> is positive,
If it is negative, .sigma.1 = 1, and if substantially zero, .sigma.1 = 0. [L14] If .sigma.1 = 0, the process proceeds to step L15. σ
If 1 = 0, the process proceeds to step L16. [L15] σ1 is updated to σ0, and the flow advances to step L18. [L16] If the product of σ1 and σ0 is positive, step L18
Proceed to. If negative, the process proceeds to step L17.

【0088】〔L17〕σ0 をσ1 に更新するととも
に、lの値を半減する。 〔L18〕行列Tのデータを表わすレジスタ値を、表記
の行列に対するものに更新する。この行列は、下記の方
程式(51)をTg について解き、Tg →Tとしたもので
ある。
[L17] Update σ0 to σ1 and halve the value of l. [L18] The register value representing the data of the matrix T is updated to the value for the notation matrix. This matrix is obtained by solving the following equation (51) for Tg, and setting Tg → T.

【0089】[0089]

【数12】 〔L19〕ロボットを動作させ、ステップL18で計算
された行列Tの表わす位置・姿勢に移動させるための処
理を行い、ステップL2へ戻る。 以上説明したアルゴリズムに従った処理サイクルの中
で、いずれかの時点でステップL12でイエスの判断出
力が得られたなら、図12の(TH5)に示したような
教示希望位置到達状態が実現したと解し、ロボットを停
止させて処理を終了する。
(Equation 12) [L19] The robot is operated to perform processing for moving to the position and orientation represented by the matrix T calculated in step L18, and the process returns to step L2. If a determination result of YES is obtained in step L12 at any point in the processing cycle according to the algorithm described above, the state of reaching the desired teaching position as shown in (TH5) of FIG. 12 is realized. And stop the robot to end the processing.

【0090】以上、方式1、方式2の実施形態について
の説明から理解されるように、本発明に従えば、予め入
力された教示希望位置到達状態の位置および姿勢となる
ように自律的にロボットの教示希望位置への移動が行な
われるので、作業効率が向上する。
As will be understood from the description of the embodiments of the method 1 and the method 2, according to the present invention, the robot is autonomously controlled so as to attain the position and posture of the pre-input desired teaching position. Is moved to the desired teaching position, thereby improving work efficiency.

【0091】更に、方式1、方式2いずれの実施形態に
おいても、マニュアル指令入力によるジョグ送りのモー
ドから、自律的に教示希望位置へ向かう自律移動のモー
ドの切換を制御手段(ロボット制御装置30及び画像処
理装置20)の内部の処理で自動化することが好まし
い。
Further, in both the first and second embodiments, the control means (the robot controller 30 and the robot controller 30) switches the mode of the autonomous movement toward the desired teaching position from the jog feed mode by manual command input. It is preferable to automate the processing in the image processing apparatus 20).

【0092】図17は、ジョグ送りのモードから自律移
動のモードへの切換をシステム内部で行なう場合につい
て、教示操作盤の操作手順と処理の大要をフローチャー
トで示したものである。各ステップの処理を簡単に記す
と次のようになる。本例ではモード切換のタイミングの
決定に、視覚センサの出力を利用している。 〔S1〕ジョグ送りボタン47(いずれか1つ)が押さ
れてジョグ送りの指令がなされたか否かを判断し、なさ
れればステップS2に進み、なされなければステップS
1を繰り返す。 〔S2〕ジョグ送りボタン47で指定された移動内容
(方向、軸等)に応じて、所定の軸を制御して、ロボッ
ト10のジョグ送り移動を開始する。例えば、J6軸+
方向の移動が指定されていれば、J6軸を+方向へ進め
る移動指令を作成してサーボに渡す。 〔S3〕ジョグ送りボタン47がオフにされたか否かを
判断し、オフにされればステップS8に進み、されなけ
ればステップS4に進む。 〔S4〕画像処理装置20から、カメラ13の視野内に
教示点マークA(方式2の場合、及びスポットF)が入
ったことを知らせる信号の受信の有無を確認し、受信し
ていればステップS5に進み、受信していなければステ
ップS3に戻る。 〔S5〕自律移動の処理を開始する。具体的な処理内容
の例については、方式1、方式2に分けて前述した通り
である。 〔S6〕ジョグ送りボタン47がオフにされたか否かを
判断し、オフにされていればステップS8に進み、され
ていなければステップS7に進む。 〔S7〕教示希望位置へ到達したか否かを判断し、到達
していればステップS8に進み、未到達であればステッ
プS6に戻る。なお、教示希望位置到達/未到達の判断
方式についても、方式1及び方式2の説明の中で述べた
通りである。 〔S8〕ロボット2の各軸の動作を停止させる。
FIG. 17 is a flowchart showing the operation procedure of the teaching operation panel and the outline of processing when switching from the jog feed mode to the autonomous movement mode is performed inside the system. The processing of each step is briefly described as follows. In this example, the output of the visual sensor is used to determine the timing of mode switching. [S1] It is determined whether or not the jog feed button 47 (any one) has been pressed and a jog feed command has been issued. If so, the process proceeds to step S2.
Repeat 1. [S2] A predetermined axis is controlled in accordance with the movement content (direction, axis, etc.) specified by the jog feed button 47, and the robot 10 starts jog feed movement. For example, J6 axis +
If the movement in the direction is designated, a movement command for moving the J6 axis in the + direction is created and passed to the servo. [S3] It is determined whether or not the jog feed button 47 has been turned off. If the jog feed button 47 has been turned off, the process proceeds to step S8. If not, the process proceeds to step S4. [S4] The presence or absence of a signal indicating that the teaching point mark A (in the case of the method 2 and the spot F) has entered the field of view of the camera 13 from the image processing device 20 is checked. The process proceeds to S5, and if not received, returns to step S3. [S5] Autonomous movement processing is started. Specific examples of the processing contents are as described above, divided into method 1 and method 2. [S6] It is determined whether or not the jog feed button 47 has been turned off. If the jog feed button 47 has been turned off, the process proceeds to step S8, and if not, the process proceeds to step S7. [S7] It is determined whether or not it has reached the desired teaching position. If it has reached, the process proceeds to step S8. If it has not reached, the process returns to step S6. The method of determining whether or not the desired teaching position has been reached is the same as that described in the description of the methods 1 and 2. [S8] The operation of each axis of the robot 2 is stopped.

【0093】[0093]

【発明の効果】本発明によれば、教示希望位置に到達し
た際に観測されるところの視覚ターゲット手段の画像上
の位置のデータが予め入力されているので、視覚ターゲ
ット手段をナビゲート指標のように用い、ロボットを教
示希望位置へ向けて自律的に移動させることが出来る。
従って、ロボットの位置教示作業に要するオペレータの
負担が大幅に軽減される。特に、ジョグ送りから自律移
動への移行をシステム内の自動切換で行うことで、位置
教示作業時のロボットの至便性を更に向上させることも
出来る。
According to the present invention, the data of the position on the image of the visual target means, which is to be observed when reaching the desired teaching position, is input in advance, so that the visual target means can be used as a navigation index. In this manner, the robot can be autonomously moved to the desired teaching position.
Therefore, the burden on the operator required for the position teaching operation of the robot is greatly reduced. In particular, by performing the transition from jog feed to autonomous movement by automatic switching in the system, the convenience of the robot during the position teaching operation can be further improved.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明に従ったロボットの位置教示のための移
動制御方式の全体像を概念的に説明する図である。
FIG. 1 is a diagram conceptually illustrating an overall image of a movement control method for teaching a position of a robot according to the present invention.

【図2】本実施形態で使用されるシステムのハードウェ
ア構成の概略をロボット制御装置を中心とした要部ブロ
ック図で示したものある。
FIG. 2 is a schematic block diagram showing a hardware configuration of a system used in the present embodiment, which is mainly a robot controller.

【図3】教示操作盤40のパネル面の概略構成を示す図
である。
FIG. 3 is a diagram showing a schematic configuration of a panel surface of a teaching operation panel 40;

【図4】方式1による実施形態における自律移動の動作
を説明する図である。
FIG. 4 is a diagram illustrating the operation of autonomous movement in an embodiment according to method 1.

【図5】方式1による実施形態で使用されるマーク部材
の構成を説明する図である。
FIG. 5 is a diagram illustrating a configuration of a mark member used in an embodiment according to a method 1.

【図6】方式1による実施形態において、カメラがマー
ク座標系を見る視線方向を記述するベクトルについて説
明する図である。
FIG. 6 is a diagram illustrating a vector describing a line-of-sight direction in which a camera looks at a mark coordinate system in an embodiment according to scheme 1.

【図7】方式1による実施形態における教示希望位置自
律移動に必要なアルゴリズムの大要を説明する図であ
る。
FIG. 7 is a diagram for explaining an outline of an algorithm required for an autonomous movement of a desired teaching position in the embodiment according to the method 1;

【図8】方式1による実施形態における教示希望位置自
律移動の処理の概要を記したフローチャートである。
FIG. 8 is a flowchart illustrating an outline of processing of a desired teaching position autonomous movement in the embodiment according to the method 1.

【図9】方式2による実施形態における準備作業の諸段
階の内PR1〜PR3を説明するための図である。
FIG. 9 is a diagram for explaining PR1 to PR3 among various stages of preparation work in the embodiment according to scheme 2.

【図10】方式2による実施形態における準備作業の諸
段階の内PR4〜PR6を説明するための図である。
FIG. 10 is a diagram for explaining PR4 to PR6 of various stages of the preparation work in the embodiment according to the method 2;

【図11】方式2による実施形態における教示作業の諸
段階の内TH1〜TH3を説明するための図である。
FIG. 11 is a diagram for explaining TH1 to TH3 among various stages of a teaching operation in the embodiment according to the method 2;

【図12】方式2による実施形態における教示作業の諸
段階の内TH4,TH5を説明するための図である。
FIG. 12 is a diagram for explaining TH4 and TH5 among various stages of the teaching operation in the embodiment according to the method 2;

【図13】方式2による実施形態において、ベクトル<
eh >を求める方法を説明する図である。
FIG. 13: In the embodiment according to scheme 2, the vector <
FIG. 9 is a diagram for explaining a method for obtaining eh>.

【図14】方式2による実施形態に関して、ベクトル<
dm >,<ds >について説明する図である。
FIG. 14: For the embodiment according to scheme 2, the vector <
dm> and <ds>. FIG.

【図15】方式2による実施形態における自律移動の制
御のための処理のアルゴリズムの概要を記したフローチ
ャートの前半部分(L1〜L12)である。
FIG. 15 is a first half (L1 to L12) of a flowchart describing an outline of an algorithm of a process for controlling autonomous movement in an embodiment according to scheme 2;

【図16】方式2による実施形態における自律移動の制
御のための処理のアルゴリズムの概要を記したフローチ
ャートの後半部分(L13〜L19)である。
FIG. 16 is a second half part (L13 to L19) of a flowchart describing an outline of an algorithm of a process for controlling autonomous movement in the embodiment according to the method 2;

【図17】方式1あるいは方式2による実施形態におい
て、ジョグ送りのモードから自律移動のモードへの切換
をシステム内部で行なう場合について、教示操作盤の操
作手順と処理の大要をフローチャートで示したものであ
る。
FIG. 17 is a flowchart showing an operation procedure of the teaching operation panel and an outline of processing when switching from the jog feed mode to the autonomous movement mode is performed inside the system in the embodiment according to the method 1 or the method 2; Things.

【符号の説明】[Explanation of symbols]

1a 教示希望位置到達状態入力手段 1b ロボット手先視覚ターゲット間相対位置認識手段 2 ロボット 2a フランジ代表点(フランジ座標系原点) 2b 教示対象点(TCP;ツール先端点) 2b’ 教示希望位置に到達した教示対象点(TCP) 3 代表ワーク 4 メモリ 5 ロボットマニュアル操作手段 6 軸移動制御手段 20 画像処理装置 21 カメラ 22 レーザヘッド(レーザ発振器の照射部) 23 レーザヘッドの投光方向調整機能 24 レーザビーム 30 ロボット制御装置 31 プロセッサボード 31a プロセッサ 31b ROM 31c RAM 35 ディジタルI/O 36 アナログI/O 37 バス 40 教示操作盤 41 表示画面 42 ファンクションキー 44 非常停止ボタン 45 カーソルキー 46 テンキー部 47(J1〜J6) ジョグ送りボタン 51〜56 サーボモータ 60 レーザ発振器 A 教示点マーク(教示希望位置) A1 〜A4 教示希望位置 B1 〜B4 視覚ターゲット手段 CB1〜3 カメラのキャリブレーションを行なう位置 D0 ,D1 ,D-1 ,D2 ,D-2 マーク座標系のドッ
ト F スポット MK1〜MK4 マーク部材 ΣM マーク座標系
1a Teaching desired position arrival state input means 1b Robot hand tip visual target relative position recognition means 2 Robot 2a Flange representative point (flange coordinate system origin) 2b Teaching target point (TCP; tool tip point) 2b 'Teaching reaching desired teaching position Target point (TCP) 3 Representative work 4 Memory 5 Robot manual operation means 6 Axis movement control means 20 Image processing device 21 Camera 22 Laser head (irradiation part of laser oscillator) 23 Laser head projection direction adjustment function 24 Laser beam 30 Robot Control device 31 Processor board 31a Processor 31b ROM 31c RAM 35 Digital I / O 36 Analog I / O 37 Bus 40 Teaching operation panel 41 Display screen 42 Function key 44 Emergency stop button 45 Cursor key 46 Numeric keypad 47 (J1 J6) Jog feed button 51 to 56 Servo motor 60 Laser oscillator A Teaching point mark (Teaching desired position) A1 to A4 Teaching desired position B1 to B4 Visual target means CB1-3 Calibration position of camera D0, D1, D- 1, D2, D-2 Mark coordinate system dot F spot MK1 to MK4 Mark member ΣM mark coordinate system

───────────────────────────────────────────────────── フロントページの続き (72)発明者 組谷 英俊 山梨県南都留郡忍野村忍草字古馬場3580 番地 ファナック株式会社 内 (56)参考文献 特開 平5−233055(JP,A) 特開 昭60−262215(JP,A) 特開 平4−211807(JP,A) 特開 昭60−161627(JP,A) 特開 昭62−20339(JP,A) (58)調査した分野(Int.Cl.6,DB名) G05B 19/427 B25J 9/10 B25J 9/22 B25J 19/04 G05B 19/19 ──────────────────────────────────────────────────続 き Continuation of front page (72) Inventor Hidetoshi Kumiya 3580 Kobaba, Oshino-son, Oshino-mura, Minamitsuru-gun, Yamanashi Inside FANUC CORPORATION (56) References JP-A-5-233055 (JP, A) 60-262215 (JP, A) JP-A-4-211807 (JP, A) JP-A-60-161627 (JP, A) JP-A-62-20339 (JP, A) (58) Fields investigated (Int. Cl. 6, DB name) G05B 19/427 B25J 9/10 B25J 9/22 B25J 19/04 G05B 19/19

Claims (6)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 ロボットと、該ロボットの手先部に取り
付けられたカメラ手段並びに該カメラ手段を通して取得
された画像を処理する画像処理手段を備えた視覚センサ
と、それらの制御手段とを含むシステムを用いた、ロボ
ットの位置教示のためのロボットの移動制御方式におい
て、 少なくとも一つの教示希望位置に関して教示希望位置到
達状態を表現する教示希望位置到達状態表現データを前
記制御手段に記憶させる教示希望位置到達状態記憶段階
と、 前記制御手段による前記ロボットの移動制御によって前
記ロボットを前記教示希望位置へ移動させる教示希望位
置移動段階と、前記ロボットが前記教示希望位置へ到達した際に、当該
教示希望位置に対応する位置データを前記制御手段に記
憶させる教示位置記憶段階とを含み 、 前記教示希望位置移動段階は、該教示希望位置への移動
を前記教示希望位置到達状態表現データに基づいて自律
的に行なう自律移動段階を含んでおり、 前記教示希望位置到達状態表現データは、前記視覚セン
サから見て教示希望位置到達状態と等価な状態にある視
覚ターゲット手段を、前記視覚センサで認識することを
通して取得されるものであり、 前記視覚ターゲット手段は、前記自律移動段階におい
て、前記ロボットを前記教示希望位置へ案内するための
視覚的案内指標を提供するものであり、 前記自律移動段階における前記ロボットの移動制御は前
記制御手段内のソフトウェア処理によって行なわれ、 前記ソフトウェア処理は、前記視覚センサが、前記教示
希望位置到達状態記憶段階で記憶された教示希望位置到
達状態表現データが表わす状態と一致する認識を視覚的
案内指標に関して行なうような位置に前記ロボットが到
達するまで前記ロボットを誘導するための処理を含んで
いる、前記方式。
1. A robot having a hand and a robot
Camera means attached and obtained through said camera means
Sensor provided with image processing means for processing a selected image
Robot using a system including
Of robot movement control method for teaching robot position
Te, the teachings desired position reaches a state storage step of storing in the control means of the teachings desired position reached state representation data representing the teaching desired position arrival status with respect to at least one of the teachings desired position, the movement control of the robot by the control unit Moving the robot to the desired teaching position; and moving the robot to the desired teaching position.
The position data corresponding to the desired teaching position is recorded in the control means.
And a teaching position storage step of憶, the teaching Willing position moving step, the autonomous based movement to the teachings desired position above teachings desired position reached state representation data
It contains an autonomous moving step to perform the teaching desired position reached state representation data, the visual sensor
In the state equivalent to the state of reaching the desired teaching position
That the visual target means is recognized by the visual sensor.
The visual target means, for guiding the robot to the desired teaching position in the autonomous movement stage.
There is provided a visual guide indicators, movement control of the robot in the autonomous mobile phase is performed by software processing in the control unit, the software processing, the visual sensor, the teaching
The desired teaching position reached in the desired position reaching state storage stage
Visual recognition that matches the state represented by the reached state expression data
The robot arrives at a position to perform with respect to the guidance index.
The above method, further comprising a process for guiding the robot until reaching .
【請求項2】 前記視覚ターゲット手段が、前記視覚セ
ンサによって認識可能なマーク座標系が描かれたマーク
手段であり、前記教示希望位置到達状態表現データが、前記カメラで
取得される画像上における前記マーク座標系の位置・姿
勢を表わすデータを含んでおり、 前記マーク手段は、前記自律移動段階において、前記教
示希望位置と一定の相対位置関係を持つように前記マー
ク座標系を配置して前記視覚的案内指標を提供するもの
である、請求項1に記載された、ロボットの位置教示の
ための移動制御方式。
2. The visual target means is a mark means on which a mark coordinate system recognizable by the visual sensor is drawn , and the teaching desired position reaching state expression data is obtained by the camera.
Position and appearance of the mark coordinate system on the acquired image
It includes data representing the energization, the mark means, in the autonomous moving step, the teaching
Mark so that it has a certain relative positional relationship with the desired position.
The movement control method for teaching a position of a robot according to claim 1, wherein the visual guidance index is provided by arranging a robot coordinate system.
【請求項3】 前記マーク手段が、教示作業の対象とさ
れる代表ワークの面上に固定可能なマーク部材であり、
該マーク部材上に前記マーク座標系が描かれている、請
求項2に記載されたロボットの位置教示のための移動制
御方式。
3. The mark means is a mark member which can be fixed on a surface of a representative work to be taught,
3. The movement control method for position teaching of a robot according to claim 2, wherein the mark coordinate system is drawn on the mark member.
【請求項4】 前記視覚ターゲット手段が、前記ロボッ
トに支持された光ビーム投光手段によって投光面上に形
成される光スポットと前記教示希望位置を前記投光面上
で表わすマークを含み前記教示希望位置到達状態記憶段階においては、前記教
示希望位置到達等価状態を用意するために、前記光スポ
ットを前記ロボットの教示対象点に形成するための参照
投光面が配置され、該参照投光面上の前記教示対象点に
形成された光スポットの前記カメラによる画像上の位置
を表わすデータを含むように前記教示希望位置到達状態
表現データが取得され、 前記自律移動段階は、前記参照投光面が除去され、且
つ、前記教示対象点に光スポットが形成された際の前記
光ビーム投光方向を維持した状態で実行されるものであ
り、前記自律移動段階における前記ロボットの移動制御は、
前記教示希望位置の存在する面上に前記光ビームを投光
して形成される光スポットと前記教示希望位置を前記投
光面上で表わすマークを前記案内指標として利用するも
のであり、 且つ、前記ロボットの移動制御のための前記ソフトウェ
ア処理は、前記視覚センサが、前記教示希望位置到達状
態記憶段階で記憶された教示希望位置到達状態表現デー
タが表わす状態と一致する認識を前記案内指標に関して
得るような位置に前記ロボットが到達するまで前記ロボ
ットを誘導するための処理を含んでいる、前記方式。
4. The visual target means includes a light spot formed on a light projecting surface by a light beam projecting means supported by the robot and a desired teaching position on the light projecting surface.
In the storing of the desired teaching position reaching state, the teaching
In order to prepare the desired position arrival equivalent state,
Reference for forming a robot at a point to be taught by the robot
A light projecting surface is arranged, and is provided at the teaching target point on the reference light projecting surface.
Position of the formed light spot on the image by the camera
To reach the desired teaching position so as to include data representing
Expression data is obtained, and the autonomous movement step is performed when the reference light projecting surface is removed and a light spot is formed at the teaching target point.
It is executed while maintaining the light beam projection direction, the movement control of the robot in the autonomous movement stage,
Emits the light beam on the surface where the desired teaching position exists
The light spot formed by
The mark shown on the light surface is used as the guide index.
And the software processing for the movement control of the robot is such that the visual sensor detects that the desired teaching position has been reached.
Attainment desired position reaching state expression data stored in state memory stage
Recognition corresponding to the state represented by the
Robot until the robot reaches a position where
Said method including a process for inducing a cut .
【請求項5】 前記教示希望位置移動段階には、前記自
律移動段階に先立つジョグ送りの段階が含まれており、 前記ジョグ送り段階から前記自律移動段階への移行は、
前記視覚センサの出力に基づいて前記制御手段によって
自動的に行なわれる、請求項1〜請求項4のいずれか1
項に記載されたロボットの位置教示のための移動制御方
式。
5. The method according to claim 1 , wherein the step of moving the desired teaching position includes the step of
The step of jog feed prior to the step of moving the law is included, and the transition from the jog feed step to the autonomous movement step includes:
The method according to claim 1, wherein the control is automatically performed by the control unit based on an output of the visual sensor.
The movement control method for teaching the position of the robot described in the section.
【請求項6】 前記自律移動段階におけるソフトウェア
処理が、前記視覚センサによる前記視覚的案内指標の認
識毎に得られる前記カメラによる画像上の現在位置を表
わすデータと、前記教示希望位置到達状態記憶段階で記
憶された前記希望位置到達状態表現データとを比較する
処理と、前記比較結果に基づいてロボットの各軸を移動
制御するための処理と、前記ロボットが前記教示希望位
置に到達したか否かを判定する処理を、前記教示希望位
置到達の判定がなされるまで逐次的に繰り返すものであ
り、 該教示希望位置到達の判定がなされた後に、前記教示位
置記憶段階が実行される、 請求項1〜請求項5のいずれ
か1項に記載されたロボットの位置教示のための移動制
御方式。
6. Software in the autonomous movement stage
The processing includes recognition of the visual guidance index by the visual sensor.
Displays the current position on the image obtained by the camera for each
The data to be transmitted and the desired position to be taught position storage state.
Compare with the stored desired position reaching state expression data
Processing and moving each axis of the robot based on the comparison result
Processing for controlling, and the robot
The process of determining whether the position has been reached
Iteratively repeats until the position is determined.
Ri, after the determination of the teachings desired position reached is made, the teaching position
The movement control method for teaching a position of a robot according to any one of claims 1 to 5, wherein a storage step is performed .
JP8223250A 1996-08-07 1996-08-07 Movement control method for robot position teaching Expired - Fee Related JP2925072B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP8223250A JP2925072B2 (en) 1996-08-07 1996-08-07 Movement control method for robot position teaching
PCT/JP1997/002766 WO1998006015A1 (en) 1996-08-07 1997-08-07 Movement control method for teaching position of robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8223250A JP2925072B2 (en) 1996-08-07 1996-08-07 Movement control method for robot position teaching

Publications (2)

Publication Number Publication Date
JPH1049218A JPH1049218A (en) 1998-02-20
JP2925072B2 true JP2925072B2 (en) 1999-07-26

Family

ID=16795159

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8223250A Expired - Fee Related JP2925072B2 (en) 1996-08-07 1996-08-07 Movement control method for robot position teaching

Country Status (2)

Country Link
JP (1) JP2925072B2 (en)
WO (1) WO1998006015A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009279677A (en) * 2008-05-20 2009-12-03 Fanuc Ltd Robot control apparatus which carries out position teaching of robot using measuring device

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3805317B2 (en) * 2003-03-17 2006-08-02 ファナック株式会社 Teaching position correction method and teaching position correction apparatus
JP4167940B2 (en) 2003-05-29 2008-10-22 ファナック株式会社 Robot system
JP4021413B2 (en) 2004-01-16 2007-12-12 ファナック株式会社 Measuring device
JP2006346790A (en) * 2005-06-15 2006-12-28 Toyota Motor Corp Robot, and interference discriminating method and interference discriminating device
JP4982903B2 (en) * 2008-09-11 2012-07-25 コグネックス・コーポレイション Control system, control method and program
US8559699B2 (en) 2008-10-10 2013-10-15 Roboticvisiontech Llc Methods and apparatus to facilitate operations in image based systems
WO2010147064A1 (en) 2009-06-15 2010-12-23 国立大学法人大阪大学 Magnetic stimulator
DE102011005513A1 (en) * 2011-03-14 2012-09-20 Kuka Laboratories Gmbh Robot and method for operating a robot
ES2718661T3 (en) * 2011-10-24 2019-07-03 Teijin Pharma Ltd Transcranial magnetic stimulation system
JP5850962B2 (en) 2014-02-13 2016-02-03 ファナック株式会社 Robot system using visual feedback
JP2017077609A (en) * 2015-10-21 2017-04-27 ファナック株式会社 Calibration device and calibration method for calibrating mechanism parameter of wrist part of robot
CN106736816A (en) * 2016-11-28 2017-05-31 山东汇川汽车部件有限公司 Double card pawl truss manipulator feeding control method
JP6572262B2 (en) 2017-06-06 2019-09-04 ファナック株式会社 Teaching position correcting device and teaching position correcting method
TWI700166B (en) * 2017-09-20 2020-08-01 達明機器人股份有限公司 Teaching system and method of robot arm
CN110170995B (en) * 2019-05-09 2022-09-23 广西安博特智能科技有限公司 Robot rapid teaching method based on stereoscopic vision

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6295606A (en) * 1985-10-22 1987-05-02 Toshiba Corp Setting device for 3-dimensional position
JPH0716900B2 (en) * 1986-10-23 1995-03-01 株式会社日立製作所 Automatic teaching method for robot
JPS6446804A (en) * 1987-08-18 1989-02-21 Shin Meiwa Ind Co Ltd Teaching method for automatic machine tool
JPH0588741A (en) * 1991-09-26 1993-04-09 Shin Meiwa Ind Co Ltd Teaching device for industrial robot and controlling method for its position

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009279677A (en) * 2008-05-20 2009-12-03 Fanuc Ltd Robot control apparatus which carries out position teaching of robot using measuring device

Also Published As

Publication number Publication date
JPH1049218A (en) 1998-02-20
WO1998006015A1 (en) 1998-02-12

Similar Documents

Publication Publication Date Title
JP2925072B2 (en) Movement control method for robot position teaching
TWI673148B (en) Remote operation robot system and operation method thereof
EP0549805B1 (en) Automatic calibration method
US11045954B2 (en) Robot system and method of controlling the same
EP1462224B1 (en) Taught position modification device
EP1481772A2 (en) Robot system for controlling the movements of a robot utilizing a visual sensor
KR20180069031A (en) Direct teaching method of robot
JP2000024968A (en) Robot controller
EP4005745A1 (en) Autonomous robot tooling system, control system, control method, and storage medium
JP3998741B2 (en) Robot movement control method
CN110722533A (en) External parameter calibration-free visual servo tracking of wheeled mobile robot
US20190314992A1 (en) Method of operating robot, computer program, and robot system
JPH05261682A (en) Industrial robot calibration method
JPH10124130A (en) Assembling device
US11964391B2 (en) Robot system
US11878423B2 (en) Robot system
US20180354124A1 (en) Robot teaching device that sets teaching point based on motion image of workpiece
US5276777A (en) Locus correcting method for industrial robots
JPH1190868A (en) Robot control device
JPH0699377A (en) Method for teaching robot track
WO2014091897A1 (en) Robot control system
JPH07117403B2 (en) Robot visual coordinate calibration method and system
JP2577003B2 (en) Robot control method
EP0414919A1 (en) Robot capable of forming operating path pattern
JPH09128024A (en) Method for optimizing operation program of robot having redundant axis

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 19990323

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080507

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090507

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100507

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110507

Year of fee payment: 12

LAPS Cancellation because of no payment of annual fees