JPH0699381A - Control method for robot provided with visual sensor - Google Patents

Control method for robot provided with visual sensor

Info

Publication number
JPH0699381A
JPH0699381A JP25235492A JP25235492A JPH0699381A JP H0699381 A JPH0699381 A JP H0699381A JP 25235492 A JP25235492 A JP 25235492A JP 25235492 A JP25235492 A JP 25235492A JP H0699381 A JPH0699381 A JP H0699381A
Authority
JP
Japan
Prior art keywords
work
visual sensor
robot
data
work tool
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP25235492A
Other languages
Japanese (ja)
Inventor
Hidetaka Osawa
秀隆 大澤
Masahiro Inaba
雅裕 稲庭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koki Holdings Co Ltd
Original Assignee
Hitachi Koki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Koki Co Ltd filed Critical Hitachi Koki Co Ltd
Priority to JP25235492A priority Critical patent/JPH0699381A/en
Publication of JPH0699381A publication Critical patent/JPH0699381A/en
Withdrawn legal-status Critical Current

Links

Abstract

PURPOSE:To improve work efficiency of a robot provided with a visual sensor, relating to a control method for the robot provided with the visual sensor. CONSTITUTION:By a visual sensor-provided robot 5 provided with a work tool 2, and a visual sensor 1, which can be rotated with an axis of the work tool 2 serving as the center in a robot head part, the visual sensor 1 passes to go ahead of the work tool 2 above a work position on a workpiece 3. A peripheral part of the work position is photographed without stopping the robot during moving, to obtain the actual work position by detecting a position of the recognized object from a picture data, and the work tool 2 is moved to the actual work position so as to perform work.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は例えば視覚センサ付きね
じ締めロボット等の視覚センサ付きロボットの制御方法
に関するものである。以下ロボットをねじ締めロボット
として説明する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for controlling a robot with a visual sensor, such as a screw fastening robot with a visual sensor. Hereinafter, the robot will be described as a screw tightening robot.

【0002】[0002]

【従来の技術】従来のねじ締めロボットは、ヘッド部に
設けられた電動ドライバ等の作業ツールをワーク上のね
じ下穴等の作業位置に移動させて作業ツールの作業位置
データを教示し、運転時はこの教示作業位置データに従
って位置決め制御装置で作業ツールを位置決めし、ねじ
締め作業を実行している。しかしこの方法では、例えば
成形寸法が成形条件や気温等の外的要因に左右され易い
プラスチック成形品または外形寸法が大きい板金加工品
のワークの場合、作業ツールを教示作業位置へ精度良く
位置決めしても、ワーク上のねじ下穴の実際の位置は教
示作業位置からずれる場合があり確実なねじ締め作業が
行えず、ねじ締め作業の自動化が困難となっていた。
2. Description of the Related Art A conventional screw tightening robot moves a work tool such as an electric screwdriver provided in a head portion to a work position such as a screw pilot hole on a work to teach work position data of the work tool and operate the work tool. At this time, the work tool is positioned by the positioning control device according to the teaching work position data, and the screw tightening work is executed. However, in this method, for example, in the case of a plastic molded product or a work of a sheet metal processed product having a large outer dimension, in which the molding dimension is easily influenced by external factors such as molding conditions and temperature, the work tool is accurately positioned at the teaching work position. However, since the actual position of the screw pilot hole on the workpiece may be displaced from the teaching work position, reliable screw tightening work cannot be performed, making automation of the screw tightening work difficult.

【0003】そこで、上記した問題点を解決するため、
前記ヘッド部に視覚センサを取り付け、該視覚センサを
ワーク上のねじ下穴位置に移動させて位置を教示し、運
転時はこの教示位置に視覚センサを一旦位置決め停止さ
せた後、視覚センサで認識対象物であるねじ下穴の重心
位置等を検出して実際の作業位置を求め、該検出作業位
置データと、作業ツールと視覚センサの取り付け位置関
係データから作業ツールが移動すべき補正移動量を求
め、該補正移動量に従って作業ツールを移動させ、ねじ
締め作業を行っている。
Therefore, in order to solve the above problems,
A visual sensor is attached to the head part, the visual sensor is moved to the screw hole position on the work to teach the position, and during operation, the visual sensor is temporarily positioned and stopped at the taught position, and then recognized by the visual sensor. The actual work position is obtained by detecting the position of the center of gravity of the screw hole that is the object, and the corrected movement amount to which the work tool should move is calculated from the detected work position data and the mounting position relationship data of the work tool and the visual sensor. Then, the work tool is moved according to the corrected movement amount, and the screw tightening work is performed.

【0004】[0004]

【発明が解決しようとする課題】しかし、ワーク上の作
業位置毎に視覚センサを一旦停止させて作業位置を補正
するようにすると、作業位置の補正移動量を算出する時
間と補正のための移動時間との和すなわち補正時間が作
業時間に加わるため、作業能率が上がらないという欠点
があった。本発明の目的は、上記した従来技術の欠点を
なくし、視覚センサ付きロボットの作業能率を向上させ
ると共に教示等の取扱を容易にすることができる視覚セ
ンサ付きロボットの制御方法を提供することである。
However, if the visual sensor is temporarily stopped for each work position on the work to correct the work position, the time for calculating the correction movement amount of the work position and the movement for the correction are required. Since the sum of the time and the correction time is added to the working time, the working efficiency cannot be improved. An object of the present invention is to provide a control method for a robot with a visual sensor, which eliminates the above-mentioned drawbacks of the prior art, improves the work efficiency of the robot with a visual sensor, and facilitates the handling of teaching and the like. .

【0005】[0005]

【課題を解決するための手段】上記目的を達成するため
に本発明は、ワーク上の作業位置の上空を視覚センサが
作業ツールより先行して通過するような位置に誘導し、
またロボットヘッド部の移動経路を制御し、作業位置の
上空を視覚センサが通過移動中停止せずに作業位置周囲
部を撮影し、その画像データより算出したねじ下穴重心
位置と撮影位置データと作業ツールと視覚センサの取り
付け位置関係データから実際の作業位置を求め、その実
際の作業位置へ作業ツールを移動させて作業するように
したものである。更に、本発明によれば、ワーク上の作
業位置の上空を視覚センサが作業ツールより先行して通
過するような位置に誘導するための教示作業を省き、ロ
ボットヘッド部の現在位置と次の作業位置の位置関係か
らヘッド部の移動経路を生成する際に自動的に視覚セン
サの旋回配置経路も生成するようにしたものである。
In order to achieve the above object, the present invention guides a work position on a work to a position where a visual sensor passes ahead of a work tool,
In addition, by controlling the movement path of the robot head, the visual sensor passes over the work position, the peripheral part of the work position is photographed without stopping while moving, and the gravity center position of the screw hole and the photographing position data calculated from the image data The actual work position is obtained from the attachment position relationship data of the work tool and the visual sensor, and the work tool is moved to the actual work position for work. Further, according to the present invention, teaching work for guiding the sky above the work position on the work to a position where the visual sensor passes ahead of the work tool is omitted, and the current position of the robot head and the next work are eliminated. When the moving path of the head portion is generated from the positional relationship of the positions, the turning arrangement path of the visual sensor is automatically generated.

【0006】[0006]

【作用】上記した制御方法によれば、作業ツールの移動
時間内で実際の作業位置の位置補正を行い従来の補正時
間を省くことができるので、作業能率を向上させること
ができる。また、視覚センサを作業ツールより先行させ
るための教示手間を省き取扱いを極めて容易にすること
ができる。
According to the control method described above, the position of the actual work position is corrected within the movement time of the work tool, and the conventional correction time can be omitted. Therefore, the work efficiency can be improved. Further, it is possible to save the teaching work for causing the visual sensor to precede the work tool and to make the handling extremely easy.

【0007】[0007]

【実施例】本発明を実施例図面を参照して説明する。図
1は、機械原点Oに戻った時の視覚センサ付きねじ締め
ロボット(以下単にロボットという)の平面図で、X軸
とY軸を有するロボット5は、ロボット5のヘッド部に
ねじ締め等の作業を行う作業ツール2と、該作業ツール
2の軸を中心として半径Rの位置に取り付けられワーク
3上の作業位置周囲部を撮影する視覚センサ1と、該視
覚センサ1を回転位置決めする視覚センサ用モータ4
と、視覚センサ用モータ4に直結された視覚センサ用エ
ンコーダ10を備えている。ワーク3はねじ締め作業位
置が2個所有り、P1、P2は教示作業位置を表し、P
1’、P2’は実際の作業位置を表すとする。
DESCRIPTION OF THE PREFERRED EMBODIMENTS The present invention will be described with reference to the accompanying drawings. FIG. 1 is a plan view of a screw-fastening robot with a visual sensor (hereinafter simply referred to as a robot) when returning to the machine origin O. A work tool 2 for performing work, a visual sensor 1 attached to a position of a radius R around the axis of the work tool 2 for photographing the work position peripheral portion on the work 3, and a visual sensor for rotationally positioning the visual sensor 1. Motor 4
And a visual sensor encoder 10 directly connected to the visual sensor motor 4. Work 3 has two screw tightening work positions, P1 and P2 represent teaching work positions, and P
It is assumed that 1'and P2 'represent actual work positions.

【0008】図2にロボット5を制御する視覚補正位置
決め装置11のブロック図を示す。視覚補正位置決め装
置11は、視覚補正位置決め装置11全体の制御を行う
CPU12と、制御プログラムを記憶しているROM1
4と、作業者がロボット5の位置教示等を行う時に操作
するキーボード16と、キーボード16から入力された
教示データ等を記憶するRAM15と、撮影指令信号2
3を出力する撮影指令出力部17と、撮影指令信号23
を受けると瞬時に撮影する視覚センサ1から出力される
アナログ映像信号をデジタル値に変換するA/D変換回
路18と、A/D変換されたデジタル画像データを記憶
する画像メモリ13と、前記視覚センサ用モータ4を駆
動させると共に視覚センサ用エンコーダ10から出力さ
れるパルスをフィードバックして視覚センサ1の回転位
置決め制御を行う視覚センサ回転位置決め制御部19
と、X軸用モータ6、Y軸用モータ7を駆動させロボッ
トヘッド部を現在の位置から次の作業位置まで例えば最
短経路すなわち直線経路で移動させて位置決め制御を行
うXYテーブル位置決め制御部20と、X軸用モータ6
に直結されたエンコーダ8、Y軸用モータ7に直結され
たエンコーダ9から出力されるパルスの数をカウントす
るアップダウンカウンタ(以下単にカウンタという)2
1と、撮影指令信号23を受けた瞬間の視覚センサ1の
現在位置と視覚センサ1の回転角度データを記憶保持す
る撮影位置データ保持部22と、CPU12へ割込み信
号を与える割込み信号発生部27と、作業ツール2の作
業を制御する作業ツール制御部28等から構成される。
FIG. 2 shows a block diagram of the visual correction positioning device 11 for controlling the robot 5. The visual correction positioning device 11 includes a CPU 12 that controls the entire visual correction positioning device 11 and a ROM 1 that stores a control program.
4, a keyboard 16 operated by an operator when teaching the position of the robot 5, etc., a RAM 15 for storing teaching data etc. inputted from the keyboard 16, and a photographing command signal 2
3 and a shooting command output unit 17, and a shooting command signal 23
The A / D conversion circuit 18 for converting the analog video signal output from the visual sensor 1 which receives the image upon receiving the digital image into a digital value, the image memory 13 for storing the A / D converted digital image data, and the visual The visual sensor rotational positioning control unit 19 that drives the sensor motor 4 and feeds back the pulse output from the visual sensor encoder 10 to control the rotational positioning of the visual sensor 1.
And an XY table positioning control unit 20 that drives the X-axis motor 6 and the Y-axis motor 7 to move the robot head unit from the current position to the next work position, for example, on the shortest path, that is, a linear path to perform positioning control. , X-axis motor 6
An up / down counter (hereinafter simply referred to as a counter) 2 that counts the number of pulses output from an encoder 8 directly connected to the encoder 8 and an encoder 9 directly connected to the Y-axis motor 7.
1, a shooting position data holding unit 22 that stores and holds the current position of the visual sensor 1 at the moment of receiving the shooting command signal 23 and rotation angle data of the visual sensor 1, and an interrupt signal generation unit 27 that gives an interrupt signal to the CPU 12. , A work tool control unit 28 for controlling the work of the work tool 2, and the like.

【0009】図4は撮影画像と撮影位置を示し、24は
視覚センサ1の撮影視野、25は認識対象物であるねじ
下穴、26は撮影位置許容範囲を表す。図3に示した動
作フローチャートを参照して説明する。作業者は、所定
の作業方法に従ってキーボード16を操作し、ロボット
5を機械原点Oに戻し、作業ツール2をワーク3上の作
業位置に移動させて位置の教示、ねじ締め作業等のプロ
グラムを入力する。図1に示すようにロボット5が機械
原点Oに戻る時視覚センサ1は、例えばX軸と平行をな
す位置に原点戻り動作を行う。
FIG. 4 shows a photographed image and a photographing position. 24 is a photographing field of view of the visual sensor 1, 25 is a screw hole which is an object to be recognized, and 26 is a photographing position allowable range. This will be described with reference to the operation flowchart shown in FIG. The operator operates the keyboard 16 according to a predetermined work method, returns the robot 5 to the machine origin O, moves the work tool 2 to a work position on the work 3, and inputs a program such as position teaching and screw tightening work. To do. As shown in FIG. 1, when the robot 5 returns to the mechanical origin O, the visual sensor 1 performs an origin return operation to a position parallel to the X axis, for example.

【0010】プログラム入力作業終了後CPU12は、
教示作業位置P1、P2をRAM15に記憶し、視覚セ
ンサ1を教示作業位置P1の方向へ向けるための回転角
θ1を計算し、視覚センサ回転位置決め制御部19へ回
転角度データθ1を出力する。視覚センサ回転位置決め
制御部19は、視覚センサ1が教示作業位置P1の上空
を作業ツール2より先行して通過するような配置つまり
X軸とθ1角をなすように視覚センサ用モータ4を駆動
して視覚センサ1の回転位置決めを行う。またCPU1
2は、視覚センサ1が教示作業位置P1の上空に来た時
の撮影位置SP1を教示作業位置P1と回転角度データ
θ1と半径Rから計算しRAM15に記憶する。
After completing the program input work, the CPU 12
The teaching work positions P1 and P2 are stored in the RAM 15, the rotation angle θ1 for orienting the visual sensor 1 toward the teaching work position P1 is calculated, and the rotation angle data θ1 is output to the visual sensor rotational positioning control unit 19. The visual sensor rotation positioning control unit 19 drives the visual sensor motor 4 so that the visual sensor 1 passes over the teaching work position P1 in advance of the work tool 2, that is, forms a θ1 angle with the X axis. The visual sensor 1 is rotationally positioned. Also CPU1
2 calculates the photographing position SP1 when the visual sensor 1 comes above the teaching work position P1 from the teaching work position P1, the rotation angle data θ1 and the radius R and stores it in the RAM 15.

【0011】続いて作業者は、ロボット5へ作業開始命
令をキーボード16より入力する。視覚補正位置決め装
置11は、作業開始命令を受けるとロボットヘッド部を
機械原点位置Oから教示作業位置P1へ向けてX軸用モ
ータ6、Y軸用モータ7を駆動させて移動を開始する
(100)。XYテーブル位置決め制御部20は、ロボ
ットヘッド部の現在位置データをフィードバックしなが
ら直線経路で移動するように制御する。CPU12は、
前記撮影位置SP1とX軸用エンコーダ8、Y軸用エン
コーダ9からフィードバックされた視覚センサ1の現在
位置データが予め設定された撮影位置許容範囲26内に
入る時すなわちワーク3上の作業位置上空に視覚センサ
1が来た時(101)、撮影指令出力部17へ撮影指令
を送る。撮影指令出力部17は、撮影指令信号23を撮
影位置データ保持部22と視覚センサ1へ出力する。撮
影位置データ保持部22は瞬時に視覚センサ1の現在位
置(XP1、YP1)及び視覚センサ1の回転角度デー
タθ1を保持し(102)、視覚センサ1は作業位置の
ねじ下穴25周囲部の撮影を実行し(103)、視覚セ
ンサ1から出力される映像情報はA/D変換回路18を
介して画像メモリ13に記憶される。この時ロボットヘ
ッド部は作業ツール2を教示作業位置P1に位置決めし
ようと移動を続ける。CPU12は、画像メモリ13の
画像データより図4に示すようにXY座標系におけるね
じ下穴重心位置(X1、Y1)を算出し、このねじ下穴
重心位置 (X1、Y1)、撮影位置データ保持部22
の撮影位置データ(XP1、YP1)と視覚センサ1の
回転角度データθ1からXY座標系でのねじ締め作業目
標位置すなわち補正位置P1’を計算し(104)、補
正位置P1’をXYテーブル位置決め制御部20へ送
る。XYテーブル位置決め制御部20は位置決め目標位
置をP1からP1’に変え作業ツール2を位置決めし
(105)、作業ツール制御部28が作業ツール2を制
御してねじ締め作業を実行する(106)。
Subsequently, the worker inputs a work start command to the robot 5 from the keyboard 16. Upon receiving the work start command, the visual correction positioning device 11 drives the X-axis motor 6 and the Y-axis motor 7 to move the robot head unit from the machine origin position O to the teaching work position P1 (100). ). The XY table positioning control unit 20 controls the robot head unit so that the robot head unit moves along a straight path while feeding back the current position data of the robot head unit. CPU 12
When the current position data of the visual sensor 1 fed back from the photographing position SP1 and the X-axis encoder 8 and the Y-axis encoder 9 falls within a preset photographing position allowable range 26, that is, above the work position on the work 3. When the visual sensor 1 arrives (101), a shooting command is sent to the shooting command output unit 17. The shooting command output unit 17 outputs the shooting command signal 23 to the shooting position data holding unit 22 and the visual sensor 1. The photographing position data holding unit 22 instantly holds the current position (XP1, YP1) of the visual sensor 1 and the rotation angle data θ1 of the visual sensor 1 (102), and the visual sensor 1 is located at the periphery of the screw pilot hole 25 at the working position. Shooting is performed (103), and the video information output from the visual sensor 1 is stored in the image memory 13 via the A / D conversion circuit 18. At this time, the robot head unit continues to move to position the work tool 2 at the teaching work position P1. The CPU 12 calculates the screw hole hole center of gravity position (X1, Y1) in the XY coordinate system from the image data of the image memory 13 as shown in FIG. 4, and stores this screw hole hole center of gravity position (X1, Y1) and photographing position data. Part 22
From the photographing position data (XP1, YP1) and the rotation angle data θ1 of the visual sensor 1, the screw tightening work target position in the XY coordinate system, that is, the corrected position P1 ′ is calculated (104), and the corrected position P1 ′ is controlled by the XY table positioning control. Send to department 20. The XY table positioning control unit 20 changes the positioning target position from P1 to P1 ′ to position the work tool 2 (105), and the work tool control unit 28 controls the work tool 2 to execute the screw tightening work (106).

【0012】一方CPU12は、上記作業と並行して視
覚センサ1の撮影終了後、割込み信号発生部27の割込
み信号より時分割制御を行い、視覚センサ1を次の教示
作業位置P2の方向へ向けるため、補正位置P1’と教
示作業位置P2から視覚センサ1の回転角度データθ2
を計算し(107)、視覚センサ回転位置決め制御部1
9へ回転角度データθ2を出力する。視覚センサ回転位
置決め制御部19はX軸とθ2角をなすように視覚セン
サ用モータ4を駆動して視覚センサ1の回転位置決めを
行う(108)。またCPU12は、視覚センサ1がワ
ーク3上の教示作業位置P2の上空へ来た時の撮影位置
SP2を補正位置P1’と教示作業位置P2と回転角度
データθ2と半径Rから計算しRAM15に記憶する
(109)。以上の視覚センサ1の回転角θ2、視覚セ
ンサ1のθ2角回転位置決め、撮影位置SP2の計算は
補正位置P1’のねじ締め作業終了時までに行う。
On the other hand, the CPU 12 performs time-division control from the interrupt signal of the interrupt signal generator 27 after the photographing of the visual sensor 1 is completed in parallel with the above work, and directs the visual sensor 1 to the next teaching work position P2. Therefore, the rotation angle data θ2 of the visual sensor 1 is calculated from the corrected position P1 ′ and the teaching work position P2.
(107), and the visual sensor rotation positioning control unit 1 is calculated.
The rotation angle data θ2 is output to 9. The visual sensor rotational positioning control unit 19 drives the visual sensor motor 4 so as to form a θ2 angle with the X axis to perform rotational positioning of the visual sensor 1 (108). Further, the CPU 12 calculates the photographing position SP2 when the visual sensor 1 comes above the teaching work position P2 on the work 3 from the correction position P1 ′, the teaching work position P2, the rotation angle data θ2 and the radius R and stores it in the RAM 15. (109). The above calculation of the rotation angle θ2 of the visual sensor 1, the rotational angle θ2 of the visual sensor 1, and the photographing position SP2 is performed by the end of the screwing operation of the correction position P1 ′.

【0013】補正位置P1’のねじ締め作業が終了する
と視覚補正位置決め装置11は、ロボットヘッド部をね
じ締め作業位置P1’から次の教示作業位置P2へ向け
てX軸用モータ6、Y軸用モータ7を駆動し移動を開始
する。上記したようにロボットヘッド部は直線経路で移
動し、視覚センサ1がワーク3上の教示作業位置P2の
上空へ来た時撮影を行う。CPU12は、撮影した画像
データよりねじ下穴重心位置を求め、XY座標系で表現
した補正位置P2’を計算し、補正位置P2’をXYテ
ーブル位置決め制御部20へ送る。XYテーブル位置決
め制御部20は、作業ツール2の位置決め目標位置をP
2からP2’に変え作業ツール2を位置決めし、作業ツ
ール制御部28で制御される作業ツール2でねじ締め作
業を実行する。
When the screw tightening work at the correction position P1 'is completed, the visual correction positioning device 11 moves the robot head portion from the screw tightening work position P1' to the next teaching work position P2 for the X-axis motor 6 and the Y-axis. The motor 7 is driven to start the movement. As described above, the robot head unit moves along a straight path, and an image is taken when the visual sensor 1 comes above the teaching work position P2 on the work 3. The CPU 12 obtains the screw hole hole center of gravity position from the photographed image data, calculates the correction position P2 ′ expressed in the XY coordinate system, and sends the correction position P2 ′ to the XY table positioning control unit 20. The XY table positioning control unit 20 sets the positioning target position of the work tool 2 to P
2 is changed to P2 ′, the work tool 2 is positioned, and the work tool 2 controlled by the work tool control unit 28 performs the screw tightening work.

【0014】なお、上記実施例においてはロボット5を
直交形ロボットとしたが、水平多関節形、その他の構造
のロボットにも本発明の思想が適用されることは明らか
である。また、上記実施例においては視覚センサ1の回
転角θ2の計算、視覚センサ1のθ2角回転位置決め、
撮影位置SP2の計算は補正位置P1’のねじ締め作業
終了時までに行っているが、図5の動作フローチャート
に示すように次の教示作業位置P2へ向かう途中で実行
させることも可能である。
Although the robot 5 is an orthogonal robot in the above embodiment, it is obvious that the idea of the present invention can be applied to a horizontal articulated robot and other structures. In the above embodiment, the rotation angle θ2 of the visual sensor 1 is calculated, the rotation angle θ2 of the visual sensor 1 is rotationally positioned,
The calculation of the photographing position SP2 is performed by the time when the screw tightening work of the correction position P1 ′ is completed, but it is also possible to perform the calculation on the way to the next teaching work position P2 as shown in the operation flowchart of FIG.

【0015】[0015]

【発明の効果】以上のように本発明によれば、ワーク上
の作業位置の上空を視覚センサが作業ツールより先行し
て通過するような配置とロボットヘッド部の移動経路を
制御し、移動中停止せずに作業位置周囲部を撮影し、そ
の画像データと撮影位置データとから実際の作業位置を
求め、その実際の作業位置へ作業ツールを移動させる位
置補正方法なので、作業能率を向上させることができ
る。また、視覚センサの配置に関する教示は必要ないの
で、取扱いが容易になるという効果がある。
As described above, according to the present invention, the position where the visual sensor passes over the work position on the work ahead of the work tool and the movement path of the robot head are controlled to move the work. It is a position correction method that takes a picture around the work position without stopping, finds the actual work position from the image data and the shooting position data, and moves the work tool to the actual work position, so it improves the work efficiency. You can Further, since there is no need to teach the arrangement of the visual sensor, there is an effect that the handling becomes easy.

【図面の簡単な説明】[Brief description of drawings]

【図1】視覚センサ付きねじ締めロボットの平面図。FIG. 1 is a plan view of a screw tightening robot with a visual sensor.

【図2】視覚補正位置決め装置のブロック図。FIG. 2 is a block diagram of a visual correction positioning device.

【図3】動作説明用フローチャート。FIG. 3 is a flowchart for explaining the operation.

【図4】撮影画像と撮影位置を示す平面図。FIG. 4 is a plan view showing a photographed image and a photographing position.

【図5】動作説明用フローチャート。FIG. 5 is a flowchart for explaining the operation.

【符号の説明】[Explanation of symbols]

1は視覚センサ、2は作業ツール、3はワーク、4は視
覚センサ用モータ、5は視覚センサ付きねじ締めロボッ
ト、11は視覚補正位置決め装置、12はCPU、17
は撮影指令出力部、19は視覚センサ回転位置決め制御
部、22は撮影位置データ保持部、23は撮影指令信
号、25はねじ下穴である。
1 is a visual sensor, 2 is a work tool, 3 is a work, 4 is a motor for a visual sensor, 5 is a screw fastening robot with a visual sensor, 11 is a visual correction positioning device, 12 is a CPU, 17
Is a photographing command output unit, 19 is a visual sensor rotational positioning control unit, 22 is a photographing position data holding unit, 23 is a photographing command signal, and 25 is a screw pilot hole.

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 ヘッド部に作業ツールと視覚センサを備
え、少なくとも1個所の作業位置を有するワーク上の作
業位置周囲部内にある認識対象物の位置を前記視覚セン
サで検出して実際の作業位置データを求め、該作業位置
データに従って前記作業ツールを移動させて作業する視
覚センサ付きロボットにおいて、 前記ワーク上の作業位置の上空を前記視覚センサが前記
作業ツールより先行して通過するような位置に視覚セン
サ用モータを駆動して前記視覚センサを配置し、移動中
停止せずに作業位置周囲部を撮影し、該画像データより
検出した認識対象物の位置と撮影位置データと視覚セン
サの回転角度データから実際の作業位置を求め、該実際
の作業位置へ作業ツールを移動させるようにしたことを
特徴とする視覚センサ付きロボットの制御方法。
1. An actual work position, in which a head includes a work tool and a visual sensor, and the visual sensor detects a position of a recognition target object in a work position peripheral portion on a work having at least one work position. In a robot with a visual sensor that obtains data and moves the work tool according to the work position data to perform work, at a position where the visual sensor passes above the work position on the work ahead of the work tool. The visual sensor motor is driven to dispose the visual sensor, and the periphery of the work position is photographed without stopping while moving, the position of the recognition target detected from the image data, the photographing position data, and the rotation angle of the visual sensor. The control of a robot with a visual sensor is characterized in that an actual work position is obtained from data and a work tool is moved to the actual work position. Method.
【請求項2】 前記ヘッド部の現在位置と次の作業位置
の位置関係から前記視覚センサの前記回転角度データを
計算し、該回転角度データに従って視覚センサ用モータ
を駆動して前記視覚センサを配置させ、前記視覚センサ
の回転角度の教示作業を省いたことを特徴とする請求項
1記載の視覚センサ付きロボットの制御方法。
2. The rotation angle data of the visual sensor is calculated from the positional relationship between the current position of the head portion and the next working position, and the visual sensor motor is driven according to the rotation angle data to arrange the visual sensor. The method for controlling a robot with a visual sensor according to claim 1, wherein the teaching operation of the rotation angle of the visual sensor is omitted.
JP25235492A 1992-09-22 1992-09-22 Control method for robot provided with visual sensor Withdrawn JPH0699381A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP25235492A JPH0699381A (en) 1992-09-22 1992-09-22 Control method for robot provided with visual sensor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP25235492A JPH0699381A (en) 1992-09-22 1992-09-22 Control method for robot provided with visual sensor

Publications (1)

Publication Number Publication Date
JPH0699381A true JPH0699381A (en) 1994-04-12

Family

ID=17236127

Family Applications (1)

Application Number Title Priority Date Filing Date
JP25235492A Withdrawn JPH0699381A (en) 1992-09-22 1992-09-22 Control method for robot provided with visual sensor

Country Status (1)

Country Link
JP (1) JPH0699381A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6123837A (en) * 1998-01-21 2000-09-26 The Clorox Company Faucet mounted water filter
JP2014124765A (en) * 2012-12-27 2014-07-07 Nitto Seiko Co Ltd Automatic thread fastening device
JP2015000454A (en) * 2013-06-17 2015-01-05 キヤノン株式会社 Robot device and robot control method
WO2021149429A1 (en) * 2020-01-23 2021-07-29 オムロン株式会社 Robot system control device, robot system control method, computer control program, and robot system

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6123837A (en) * 1998-01-21 2000-09-26 The Clorox Company Faucet mounted water filter
JP2014124765A (en) * 2012-12-27 2014-07-07 Nitto Seiko Co Ltd Automatic thread fastening device
JP2015000454A (en) * 2013-06-17 2015-01-05 キヤノン株式会社 Robot device and robot control method
WO2021149429A1 (en) * 2020-01-23 2021-07-29 オムロン株式会社 Robot system control device, robot system control method, computer control program, and robot system

Similar Documents

Publication Publication Date Title
US4659971A (en) Robot controlling system
US4899095A (en) Robot control system
US20040037689A1 (en) Object handling apparatus
US4969108A (en) Vision seam tracking method and apparatus for a manipulator
US4558424A (en) Robot control apparatus
US20160257002A1 (en) Robot system having robot operated in synchronization with bending machine
US4700118A (en) System for setting workpiece Cartesian coordinate system of robot
JPH10264080A (en) Robot controller
KR20160043883A (en) Robot
KR101658417B1 (en) Robot, robot control method and robot control program
JP2004001122A (en) Picking device
WO1990011166A1 (en) Manual intervention method for industrial robot
US4580085A (en) Feed control system with a safety device
JPH0699381A (en) Control method for robot provided with visual sensor
JPS625408A (en) Method for controlling joint-type robot
EP0460227B1 (en) Additional shaft follow-up control system of robot
JPH1190868A (en) Robot control device
JP2922617B2 (en) Designation method of pressing force direction in force control robot
JP2547999B2 (en) Teaching device for program data
JPH05134737A (en) Teaching device of robot
JPS6340908A (en) Robot controller
JP2663575B2 (en) Control device for playback robot
JP2778285B2 (en) Copying sensor robot system
JPH10244482A (en) Robot control device
JP2802117B2 (en) Processing machine with teaching function

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 19991130