JP2010149225A - Robot system, device and method for controlling robot system - Google Patents

Robot system, device and method for controlling robot system Download PDF

Info

Publication number
JP2010149225A
JP2010149225A JP2008329812A JP2008329812A JP2010149225A JP 2010149225 A JP2010149225 A JP 2010149225A JP 2008329812 A JP2008329812 A JP 2008329812A JP 2008329812 A JP2008329812 A JP 2008329812A JP 2010149225 A JP2010149225 A JP 2010149225A
Authority
JP
Japan
Prior art keywords
robot
control point
visual sensor
control
workpiece
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008329812A
Other languages
Japanese (ja)
Inventor
Yasuo Samejima
泰郎 鮫島
Nobuyoshi Yamanaka
伸好 山中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Komatsu Ltd
Original Assignee
Komatsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Komatsu Ltd filed Critical Komatsu Ltd
Priority to JP2008329812A priority Critical patent/JP2010149225A/en
Publication of JP2010149225A publication Critical patent/JP2010149225A/en
Pending legal-status Critical Current

Links

Landscapes

  • Manipulator (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a robot system, and a device and method for controlling the robot system, which accurately and efficiently performs teaching. <P>SOLUTION: In the robot system, a visual sensor moves together with a control point of a robot, and obtains image information of a workpiece that is an objective to work for the robot. A memory part stores position relation data R indicating position relation between the control point of the robot and a specific position within a visual field of the visual sensor. A control part detects a current position P of the control point of the robot. The control part computes a target position PP of the control point of the robot to position a characteristic point at the specific position within the visual field of the visual sensor based on the position relation data R considering a detected current position P of the control point as a position of the characteristic point of the workpiece. Besides, the control part controls the robot to move the robot control point to the target position PP. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、ロボットシステム、ロボットシステムの制御装置および制御方法に関する。   The present invention relates to a robot system, a control apparatus for the robot system, and a control method.

ロボットシステムでは、ロボットに対して予めワークの位置を教示しておき、ロボットは、この教示位置をワークの位置として作業を行う。近年、視覚センサによってワークの位置を検出し、教示位置とのずれ量を求めることにより、ワーク位置が教示位置からずれていてもロボットが所望の作業を行えるようなロボットシステムが利用されている。このような従来のロボットシステムでは、視覚センサによって、ワークの画像情報が取得される。そして、画像処理装置が、取得された画像情報を分析してワークの位置を検出する。ロボットコントローラは、事前に教示されたワークの位置と、生産時に画像処理装置によって検出されたワークの位置とのずれ量を求めて、ロボットの動作の目標位置を補正する。   In the robot system, the position of the workpiece is taught to the robot in advance, and the robot performs work with the taught position as the position of the workpiece. In recent years, a robot system has been used in which a robot can perform a desired operation even if the work position is deviated from the teaching position by detecting the position of the work with a visual sensor and obtaining a deviation amount from the teaching position. In such a conventional robot system, image information of a workpiece is acquired by a visual sensor. Then, the image processing apparatus analyzes the acquired image information and detects the position of the workpiece. The robot controller corrects the target position of the operation of the robot by obtaining the amount of deviation between the position of the work taught in advance and the position of the work detected by the image processing apparatus during production.

上記のような従来のロボットシステムでは、教示作業の際に、ワークの特徴点を視覚センサの視野内の特定位置(例えば中央位置)に移動させる必要がある。この場合、オペレータは、画像処理装置のモニタによって視覚センサが取得したワークの画像を確認しながら教示装置を操作する必要がある。しかし、モニタと教示装置とを一緒に携帯することができないため、この両者を見ながら教示作業を行うことは困難である。   In the conventional robot system as described above, it is necessary to move the feature point of the workpiece to a specific position (for example, the center position) in the visual field of the visual sensor during teaching work. In this case, the operator needs to operate the teaching device while checking the workpiece image acquired by the visual sensor on the monitor of the image processing device. However, since the monitor and the teaching device cannot be carried together, it is difficult to perform the teaching work while looking at both.

そこで、特許文献1に記載のロボットシステムでは、教示装置の表示器に視覚センサが取得した画像を表示できるようにしている。このロボットシステムでは、オペレータは、視覚センサが取得した画像を、教示装置の表示器に表示される画像よって確認することができる。
特開平9−183088号公報
Therefore, in the robot system described in Patent Document 1, an image acquired by the visual sensor can be displayed on the display of the teaching device. In this robot system, the operator can confirm the image acquired by the visual sensor by the image displayed on the display of the teaching device.
JP-A-9-183088

しかし、上記のような特許文献1に記載のロボットシステムでは、教示作業において、ワークが視覚センサの視野内の特定位置に位置するように、オペレータが教示装置を操作する必要がある。この場合、生産時のワークの位置ずれを精度よく修正するためには、ワークを特定位置に精度よく合わせる必要がある。このため、ロボットを低速にして動かすことになり、ワークを特定位置に移動させるまでに時間がかかる。   However, in the robot system described in Patent Document 1 as described above, in teaching work, the operator needs to operate the teaching device so that the workpiece is positioned at a specific position within the visual field of the visual sensor. In this case, in order to correct the positional deviation of the workpiece during production with high accuracy, it is necessary to accurately align the workpiece with a specific position. For this reason, the robot is moved at a low speed, and it takes time to move the workpiece to a specific position.

また、教示作業の開始時において、ワークが視覚センサの視野内に位置していない場合には、オペレータは、ワークが視野内に入るように教示装置を操作する。しかし、ワークが視覚センサの視野内に入っていない状態では、オペレータはモニタや表示器によってワークの位置を確認することはできない。このため、オペレータは、ワークが視野内に入るまで試行錯誤的に教示装置を操作しなければならない。   Further, when the work is not located within the visual field of the visual sensor at the start of the teaching work, the operator operates the teaching device so that the work is within the visual field. However, when the work is not within the visual field of the visual sensor, the operator cannot confirm the position of the work with a monitor or a display. For this reason, the operator has to operate the teaching device by trial and error until the workpiece enters the field of view.

以上のように、特許文献1に記載のロボットシステムでは、依然として教示作業に時間がかかり、効率が悪い。   As described above, the robot system described in Patent Document 1 still takes time for teaching work and is inefficient.

本発明の課題は、教示作業を精度よく且つ効率よく行うことができるロボットシステム、ロボットシステムの制御装置および制御方法を提供することにある。   An object of the present invention is to provide a robot system, a robot system control device, and a control method capable of performing teaching work with high accuracy and efficiency.

第1発明に係るロボットシステムは、ロボットと、教示装置と、視覚センサと、記憶部と、制御部とを備える。教示装置は、ロボットの動作を指示するためにオペレータによって操作される装置である。視覚センサは、ロボットの制御点と共に移動し、ロボットの作業対象であるワークの画像情報を取得する。記憶部は、ロボットの制御点と視覚センサの視野内の特定位置との位置関係を示す位置関係データを格納する。制御部は、ロボットの制御点の現在位置を検出する。制御部は、検出された制御点の現在位置をワークの特徴点の位置とみなして上記の位置関係データに基づいて、特徴点が視覚センサの視野内の特定位置に位置するようなロボットの制御点の目標位置を演算する。そして、制御部は、ロボットの制御点が目標位置に移動するようにロボットを制御する。   A robot system according to a first invention includes a robot, a teaching device, a visual sensor, a storage unit, and a control unit. The teaching device is a device operated by an operator to instruct the operation of the robot. The visual sensor moves together with the control point of the robot and acquires image information of a work that is a work target of the robot. The storage unit stores positional relationship data indicating a positional relationship between a control point of the robot and a specific position in the visual field of the visual sensor. The control unit detects the current position of the control point of the robot. The control unit regards the current position of the detected control point as the position of the feature point of the workpiece, and controls the robot such that the feature point is located at a specific position in the visual field of the visual sensor based on the positional relationship data. Calculate the target position of the point. Then, the control unit controls the robot so that the control point of the robot moves to the target position.

第2発明に係るロボットシステムの制御装置は、ロボットと、ロボットの動作を指示するためにオペレータによって操作される教示装置と、ロボットの制御点と共に移動しロボットの作業対象であるワークの画像情報を取得する視覚センサと、を備えるロボットシステムの制御装置である。この制御装置は、記憶部と、制御部と、を備える。記憶部は、ロボットの制御点と視覚センサの視野内の特定位置との位置関係を示す位置関係データを格納する。制御部は、ロボットの制御点の現在位置を検出する。制御部は、検出された制御点の現在位置をワークの特徴点の位置とみなして上記の位置関係データに基づいて、特徴点が視覚センサの視野内の特定位置に位置するようなロボットの制御点の目標位置を演算する。そして、制御部は、ロボットの制御点が目標位置に移動するようにロボットを制御する。   A control device for a robot system according to a second aspect of the present invention provides a robot, a teaching device operated by an operator for instructing the operation of the robot, and image information of a work that is moved along with the control point of the robot and is a work target of the robot. A robot system control device comprising: a visual sensor to acquire. The control device includes a storage unit and a control unit. The storage unit stores positional relationship data indicating a positional relationship between a control point of the robot and a specific position in the visual field of the visual sensor. The control unit detects the current position of the control point of the robot. The control unit regards the current position of the detected control point as the position of the feature point of the workpiece, and controls the robot such that the feature point is located at a specific position in the visual field of the visual sensor based on the positional relationship data. Calculate the target position of the point. Then, the control unit controls the robot so that the control point of the robot moves to the target position.

第3発明に係るロボットシステムの制御方法は、ロボットと、ロボットの動作を指示するためにオペレータによって操作される教示装置と、ロボットの制御点と共に移動し、ロボットの作業対象であるワークの画像情報を取得する視覚センサと、ロボットの制御点と視覚センサの視野内の特定位置との位置関係を示す位置関係データを格納した記憶部と、を備えるロボットシステムの制御方法である。この制御方法は、ロボットの制御点の現在位置を検出するステップと、検出された制御点の現在位置をワークの特徴点の位置とみなして上記の位置関係データに基づいて、特徴点が視覚センサの視野内の特定位置に位置するようなロボットの制御点の目標位置を演算するステップと、ロボットの制御点が目標位置に移動するようにロボットを制御するステップと、を備える。   According to a third aspect of the present invention, there is provided a robot system control method comprising: a robot; a teaching device operated by an operator to instruct the operation of the robot; and image information of a work that is moved along with the control point of the robot and is a work target of the robot And a storage unit storing positional relationship data indicating a positional relationship between a control point of the robot and a specific position within the visual field of the visual sensor. This control method includes a step of detecting the current position of the control point of the robot, and the feature point is detected by the visual sensor on the basis of the positional relationship data by regarding the detected current position of the control point as the position of the feature point of the workpiece. And calculating a target position of the control point of the robot such that the robot is positioned at a specific position in the field of view, and controlling the robot such that the control point of the robot moves to the target position.

上記のロボットシステム、ロボットシステムの制御装置および制御方法では、まずオペレータは、教示装置を操作してロボットの制御点をワークの特徴点に移動させる。そして、ロボットの制御点がワークの特徴点に位置している状態で、ロボットの制御点の現在位置が検出される。すなわち、ロボットの制御点の現在位置を検出することによって、ワークの特徴点の位置が検出される。ここで、視覚センサはロボットに固定されているため、ロボットの制御点と視覚センサとの位置関係は、ロボットがどのような姿勢をとろうとも一定である。このため、検出された制御点の現在位置と、記憶部に格納された位置関係データとに基づいて、特徴点が視覚センサの視野内の特定位置に位置するようなロボットの制御点の目標位置を演算することができる。そして、ロボットの制御点が、算出された目標位置に移動するようにロボットが制御されることにより、ワークの特徴点が視覚センサの視野内の特定位置に移動する。   In the robot system, the robot system control device and the control method described above, the operator first operates the teaching device to move the robot control point to the workpiece feature point. Then, the current position of the control point of the robot is detected in a state where the control point of the robot is located at the feature point of the workpiece. That is, the position of the feature point of the workpiece is detected by detecting the current position of the control point of the robot. Here, since the visual sensor is fixed to the robot, the positional relationship between the control point of the robot and the visual sensor is constant regardless of the posture of the robot. Therefore, based on the current position of the detected control point and the positional relationship data stored in the storage unit, the target position of the robot control point where the feature point is located at a specific position within the visual sensor field of view Can be calculated. Then, when the robot is controlled so that the control point of the robot moves to the calculated target position, the feature point of the workpiece moves to a specific position within the visual field of the visual sensor.

以上のように、オペレータは、教示作業において、教示装置を操作してロボットの制御点をワークの特徴点に移動させればよい。ここで、ロボットの制御点は、例えば溶接ロボットでは溶接トーチの先端に設定されるため、オペレータが視認することができる。また、ワークの特徴点も視認可能である。このため、オペレータが、教示装置を操作して、ロボットの制御点をワークの特徴点に移動させることは容易である。よって、このロボットシステム、ロボットシステムの制御装置および制御方法では、教示作業を精度よく且つ効率よく行うことができる。   As described above, in the teaching work, the operator may operate the teaching device and move the control point of the robot to the feature point of the workpiece. Here, since the control point of the robot is set at the tip of the welding torch in, for example, a welding robot, the operator can visually recognize it. Also, the feature points of the workpiece can be visually recognized. Therefore, it is easy for the operator to operate the teaching device and move the control point of the robot to the feature point of the workpiece. Therefore, in this robot system, the robot system control device and the control method, the teaching work can be performed with high accuracy and efficiency.

第4発明に係るロボットシステムは、ロボットと、視覚センサと、画像分析装置と、記憶部と、制御部と、を備える。視覚センサは、ロボットの制御点と共に移動し、ロボットの作業対象であるワークの画像情報を取得する。画像分析装置は、視覚センサが取得した画像情報を分析して視覚センサの視野内におけるワークの特徴点の位置を検出する。記憶部は、ロボットの制御点と視覚センサの視野内の特定位置との位置関係を示す位置関係データを格納する。制御部は、ロボットの制御点の現在位置を検出する。制御部は、上記の位置関係データと、画像分析装置によって検出されたワークの特徴点の位置と、検出されたロボットの制御点の現在位置とに基づいて、特徴点が視覚センサの視野内の特定位置に位置するようなロボットの制御点の目標位置を演算する。そして、制御部は、ロボットの制御点が目標位置に移動するようにロボットを制御する。   A robot system according to a fourth invention includes a robot, a visual sensor, an image analysis device, a storage unit, and a control unit. The visual sensor moves together with the control point of the robot and acquires image information of a work that is a work target of the robot. The image analysis device analyzes the image information acquired by the visual sensor and detects the position of the feature point of the work within the visual field of the visual sensor. The storage unit stores positional relationship data indicating a positional relationship between a control point of the robot and a specific position in the visual field of the visual sensor. The control unit detects the current position of the control point of the robot. Based on the positional relationship data, the position of the feature point of the workpiece detected by the image analysis device, and the detected current position of the control point of the robot, the control unit detects the feature point within the visual sensor field of view. The target position of the control point of the robot that is located at a specific position is calculated. Then, the control unit controls the robot so that the control point of the robot moves to the target position.

第5発明に係るロボットシステムの制御装置は、ロボットと、ロボットの制御点と共に移動しロボットの作業対象であるワークの画像情報を取得する視覚センサと、視覚センサが取得した画像情報を分析して視覚センサの視野内におけるワークの特徴点の位置を検出する画像分析装置と、を備えるロボットシステムの制御装置である。この制御装置は、記憶部と、制御部と、を備える。記憶部は、ロボットの制御点と視覚センサの視野内の特定位置との位置関係を示す位置関係データを格納する。制御部は、ロボットの制御点の現在位置を検出する。制御部は、上記の位置関係データと、画像分析装置によって検出されたワークの特徴点の位置と、検出されたロボットの制御点の現在位置とに基づいて、特徴点が視覚センサの視野内の特定位置に位置するようなロボットの制御点の目標位置を演算する。そして、制御部は、ロボットの制御点が目標位置に移動するようにロボットを制御する
第6発明に係るロボットシステムの制御方法は、ロボットと、ロボットの制御点と共に移動しロボットの作業対象であるワークの画像情報を取得する視覚センサと、視覚センサが取得した画像情報を分析して視覚センサの視野内におけるワークの特徴点の位置を検出する画像分析装置と、ロボットの制御点と視覚センサの視野内の特定位置との位置関係を示す位置関係データを格納した記憶部と、を備えるロボットシステムの制御方法である。この制御方法は、視覚センサによって、ワークの画像情報を取得するステップと、画像分析装置によって、視覚センサが取得した画像情報を分析して視覚センサの視野内におけるワークの特徴点の位置を検出するステップと、ロボットの制御点の現在位置を検出するステップと、上記の位置関係データと、画像分析装置によって検出されたワークの特徴点の位置と、現在位置検出部によって検出されたロボットの制御点の現在位置とに基づいて、特徴点が視覚センサの視野内の特定位置に位置するようなロボットの制御点の目標位置を演算するステップと、ロボットの制御点が目標位置に移動するようにロボットを制御するステップと、を備える。
According to a fifth aspect of the present invention, there is provided a robot system control device, comprising: a robot; a visual sensor that moves together with a robot control point and acquires image information of a workpiece that is a work target of the robot; An image analysis device that detects a position of a feature point of a work within a visual field of a visual sensor. The control device includes a storage unit and a control unit. The storage unit stores positional relationship data indicating a positional relationship between a control point of the robot and a specific position in the visual field of the visual sensor. The control unit detects the current position of the control point of the robot. Based on the positional relationship data, the position of the feature point of the workpiece detected by the image analysis device, and the detected current position of the control point of the robot, the control unit detects the feature point within the visual sensor field of view. The target position of the control point of the robot that is located at a specific position is calculated. Then, the control unit controls the robot so that the control point of the robot moves to the target position. The control method of the robot system according to the sixth aspect of the invention moves with the robot and the control point of the robot and is a work target of the robot. A visual sensor for acquiring image information of the workpiece, an image analysis device for analyzing the image information acquired by the visual sensor to detect the position of the feature point of the workpiece in the visual field of the visual sensor, a control point of the robot, and a visual sensor And a storage unit that stores positional relationship data indicating a positional relationship with a specific position in the field of view. In this control method, a step of acquiring image information of a workpiece by a visual sensor and an image analysis device analyzing the image information acquired by the visual sensor to detect a position of a feature point of the workpiece in the visual field of the visual sensor. A step, a step of detecting a current position of a control point of the robot, the positional relationship data, a position of a feature point of the workpiece detected by the image analyzer, and a control point of the robot detected by the current position detector And calculating the target position of the robot control point such that the feature point is located at a specific position within the visual sensor field of view, and the robot so that the robot control point moves to the target position. Controlling.

上記のロボットシステム、ロボットシステムの制御装置および制御方法では、まず、視覚センサによってワークの画像情報が取得される。次に、画像分析装置が取得された画像情報を分析することによって、ワークの特徴点の位置が検出される。また、ロボットの制御点の現在位置が検出される。ここで、視覚センサはロボットの制御点と共に移動するため、ロボットの制御点と視覚センサとの位置は相対的に固定されている。このため、記憶部に格納された位置関係データと、ワークの特徴点の位置と、ロボットの制御点の現在位置とに基づいて、ワークの特徴点が視覚センサの視野内の特定位置に位置するようなロボットの制御点の目標位置を演算することができる。そして、ロボットの制御点が、算出された目標位置に移動するようにロボットが制御されることにより、ワークの特徴点が視覚センサの視野内の特定位置に移動する。   In the robot system, the robot system control apparatus, and the control method described above, first, image information of a workpiece is acquired by a visual sensor. Next, the position of the feature point of the workpiece is detected by analyzing the acquired image information. Also, the current position of the robot control point is detected. Here, since the visual sensor moves together with the control point of the robot, the positions of the control point of the robot and the visual sensor are relatively fixed. Therefore, based on the positional relationship data stored in the storage unit, the position of the feature point of the workpiece, and the current position of the control point of the robot, the feature point of the workpiece is positioned at a specific position in the visual field of the visual sensor. The target position of the robot control point can be calculated. Then, when the robot is controlled so that the control point of the robot moves to the calculated target position, the feature point of the workpiece moves to a specific position within the visual field of the visual sensor.

以上のように、ワークの特徴点が視覚センサの視野内の特定位置に位置するようにロボットが自動的に制御される。よって、このロボットシステム、ロボットシステムの制御装置および制御方法では、教示作業を精度よく且つ効率よく行うことができる。   As described above, the robot is automatically controlled so that the feature point of the workpiece is located at a specific position within the visual field of the visual sensor. Therefore, in this robot system, the robot system control device and the control method, the teaching work can be performed with high accuracy and efficiency.

本発明に係るロボットシステム、ロボットシステムの制御装置および制御方法では、教示作業を精度よく且つ効率よく行うことができる。   With the robot system, the robot system control apparatus, and the control method according to the present invention, teaching work can be performed with high accuracy and efficiency.

<第1実施形態>
〔構成〕
本発明の第1実施形態に係るロボットシステムの構成を図1および図2に示す。このロボットシステムは、ロボット1と、視覚センサ2と、画像処理装置3と、ロボットコントローラ4と、教示装置5とを備える。
<First Embodiment>
〔Constitution〕
The configuration of the robot system according to the first embodiment of the present invention is shown in FIG. 1 and FIG. This robot system includes a robot 1, a visual sensor 2, an image processing device 3, a robot controller 4, and a teaching device 5.

ロボット1は、溶接ロボットであり、図3に示すように、互いに回転可能に連結された複数のアーム部材11〜13からなる多関節のロボットアーム14と、ロボットアーム14を駆動する複数のモータ61〜66(図2参照)と、ロボットアーム14の先端に設けられた溶接トーチ15とを有する。ロボットアーム14は、台座16に固定されている。ロボット1は、複数のモータ61〜66によってロボットアーム14を駆動することにより、溶接トーチ15を移動させる。これによりロボット1はワークWの溶接を行う。また、図2に示すように、複数のモータ61〜66には、それぞれエンコーダ71〜76が付設されている。エンコーダ71〜76は、各モータ61〜66の回転角度を検出してロボットコントローラ4に送る。   The robot 1 is a welding robot, and as shown in FIG. 3, an articulated robot arm 14 composed of a plurality of arm members 11 to 13 rotatably connected to each other, and a plurality of motors 61 that drive the robot arm 14. ˜66 (see FIG. 2) and a welding torch 15 provided at the tip of the robot arm 14. The robot arm 14 is fixed to the pedestal 16. The robot 1 moves the welding torch 15 by driving the robot arm 14 with a plurality of motors 61 to 66. As a result, the robot 1 welds the workpiece W. Further, as shown in FIG. 2, encoders 71 to 76 are attached to the plurality of motors 61 to 66, respectively. The encoders 71 to 76 detect the rotation angles of the motors 61 to 66 and send them to the robot controller 4.

視覚センサ2は、ワークWの画像情報を取得する。図4に示すように、視覚センサ2は、溶接トーチ15と共にロボットアーム14の先端に固定されており、溶接トーチ15と共に移動する。図5(a)に示すように、視覚センサ2は、半導体レーザーなどのスリット光源(図示せず)と、CCDカメラ又はCMOSカメラなどのカメラ21と、フィルタ22とを有している。スリット光源は、ワークWWにレーザー光を斜めから照射する。フィルタ22は、レーザー光と同じ波長の光のみを透過させる。カメラ21は、ワークWにおいて反射したレーザー光を検出する。視覚センサ2は、例えば、図5(a)のワークWに対して図5(b)のような画像を検出する。視覚センサ2が取得した画像では、ワークWの表面の変化点が画像上の特徴点P0として現れる。また、ワークWの実際の位置が上下左右にずれると、視覚センサ2が検出した画像上においてもワークWの位置が上下左右にずれる。   The visual sensor 2 acquires image information of the workpiece W. As shown in FIG. 4, the visual sensor 2 is fixed to the tip of the robot arm 14 together with the welding torch 15 and moves together with the welding torch 15. As illustrated in FIG. 5A, the visual sensor 2 includes a slit light source (not shown) such as a semiconductor laser, a camera 21 such as a CCD camera or a CMOS camera, and a filter 22. The slit light source irradiates the workpiece WW with laser light obliquely. The filter 22 transmits only light having the same wavelength as the laser light. The camera 21 detects the laser light reflected from the workpiece W. The visual sensor 2 detects, for example, an image as shown in FIG. 5B with respect to the workpiece W shown in FIG. In the image acquired by the visual sensor 2, a change point on the surface of the workpiece W appears as a feature point P0 on the image. Further, when the actual position of the workpiece W is shifted vertically and horizontally, the position of the workpiece W is also shifted vertically and horizontally on the image detected by the visual sensor 2.

画像処理装置3は、視覚センサ2によって取得された画像情報を分析することにより、ワークWの特徴点を検出する。画像処理装置3にはモニタが付設されており、取得された画像情報はモニタに表示される。画像処理装置3は、図2に示すように、画像処理部31と記憶部32とを有する。   The image processing device 3 detects the feature point of the workpiece W by analyzing the image information acquired by the visual sensor 2. The image processing apparatus 3 is provided with a monitor, and the acquired image information is displayed on the monitor. As illustrated in FIG. 2, the image processing apparatus 3 includes an image processing unit 31 and a storage unit 32.

画像処理部31は、例えば、視覚センサ2によって図6(a)に示すような原画像が取得されると、これを画像処理して演算することにより図6(b)に示すような特徴点P0を求める。なお、この例では、特徴点P0として折点が求められている。   For example, when the original image as shown in FIG. 6A is acquired by the visual sensor 2, the image processing unit 31 performs image processing on the original image and calculates the characteristic points as shown in FIG. 6B. Find P0. In this example, a break point is obtained as the feature point P0.

記憶部32は、位置関係データを格納している。位置関係データは、ロボット1の制御点と視覚センサ2の視野内の中央位置との位置関係を示すデータである。位置関係データは、後述する位置合わせ制御において用いられる。   The storage unit 32 stores positional relationship data. The positional relationship data is data indicating the positional relationship between the control point of the robot 1 and the central position in the visual field of the visual sensor 2. The positional relationship data is used in alignment control described later.

ロボットコントローラ4は、制御部41を有する。制御部41は、予め設定された生産プログラムに従ってロボット1を制御する。例えば、生産プログラムにはワークWに対して溶接する箇所が設定されており、制御部は、予め教示されたワークWの特徴点の位置を基準として、生産プログラムに設定された箇所を溶接するようにロボットを制御する。なお、ロボットコントローラ4は、溶接トーチ15の先端を制御点Pc(図4参照)として定義し、図3に示すロボット座標Xr−Yr−Zrから見た制御点Pcの位置を制御することにより、ロボット1の動作を制御する。ここで、ロボット座標Xr−Yr−Zrとは、ロボット1の台座16に対して固定された座標系である。また、ロボットコントローラ4は、図4に示すツール座標Xt−Yt−Ztと、図5(b)に示すセンサ座標Xs−Ysとを定義する。ツール座標Xt−Yt−Ztは、制御点Pcを原点として、溶接トーチ15に固定された座標系である。センサ座標Xs−Ysは、視覚センサ2の視野Vwに固定された座標系である。なお、図4では、オペレータが目視できない視覚センサ2の視野Vwを仮想的に二点鎖線で示している。ここで、視覚センサ2の視野Vwは、ロボット1の手首軸であるアーム部材11が鉛直下向きの姿勢をとった時、所定のZr座標におけるXr−Yr平面に投影されたエリアを示す。   The robot controller 4 has a control unit 41. The control unit 41 controls the robot 1 in accordance with a preset production program. For example, a location to be welded to the workpiece W is set in the production program, and the control unit is configured to weld the location set in the production program based on the position of the feature point of the workpiece W taught in advance. To control the robot. The robot controller 4 defines the tip of the welding torch 15 as a control point Pc (see FIG. 4), and controls the position of the control point Pc viewed from the robot coordinates Xr-Yr-Zr shown in FIG. The operation of the robot 1 is controlled. Here, the robot coordinates Xr-Yr-Zr is a coordinate system fixed to the base 16 of the robot 1. Further, the robot controller 4 defines tool coordinates Xt-Yt-Zt shown in FIG. 4 and sensor coordinates Xs-Ys shown in FIG. The tool coordinates Xt-Yt-Zt is a coordinate system fixed to the welding torch 15 with the control point Pc as the origin. The sensor coordinates Xs-Ys is a coordinate system fixed to the visual field Vw of the visual sensor 2. In FIG. 4, the visual field Vw of the visual sensor 2 that cannot be seen by the operator is virtually indicated by a two-dot chain line. Here, the visual field Vw of the visual sensor 2 indicates an area projected on the Xr-Yr plane at a predetermined Zr coordinate when the arm member 11 that is the wrist axis of the robot 1 takes a vertically downward posture.

また、制御部41は、生産時において、画像処理装置3が検出したワークWの位置に基づいてロボット1の動作を補正する。例えば、制御部41は、画像処理装置3から、図7(a)に示す教示時のワークWの特徴点P0の位置(Xm、Xm)と、図7(b)に示す生産時のワークWの特徴点P0の位置(Xp,Yp)とを取得する。制御部は、教示時の位置(Xm、Xm)と生産時の位置(Xp,Yp)との差(ΔX,ΔY)を算出する。また、(ΔX,ΔY)はセンサ座標であるため、これをロボット座標における位置の差(ΔXR,ΔYR)に変換する。そして、制御部41は、生産時において、ロボット1の移動位置を生産プログラムによって設定された位置から(ΔXR,ΔYR)シフトさせる。これにより、ロボット1は、ワークWが教示位置からずれていても正しい位置で溶接を行うことができる。   Further, the control unit 41 corrects the operation of the robot 1 based on the position of the workpiece W detected by the image processing device 3 during production. For example, the control unit 41 receives the position (Xm, Xm) of the feature point P0 of the workpiece W at the time of teaching shown in FIG. 7A and the workpiece W at the time of production shown in FIG. The position (Xp, Yp) of the feature point P0 is acquired. The control unit calculates a difference (ΔX, ΔY) between the teaching position (Xm, Xm) and the production position (Xp, Yp). Since (ΔX, ΔY) is sensor coordinates, it is converted into a position difference (ΔXR, ΔYR) in robot coordinates. Then, the controller 41 shifts the movement position of the robot 1 (ΔXR, ΔYR) from the position set by the production program during production. Thereby, the robot 1 can perform welding at a correct position even if the workpiece W is deviated from the teaching position.

教示装置5は、モニタと操作ボタンとを有しており、オペレータが操作することによってロボット1を動作させることができる。具体的には、教示作業において、オペレータは、教示装置5を操作することにより、ロボット1の制御点Pcを任意に移動させることができる。また、教示装置5には、後述する位置合わせ制御の実行を指示するための設定ボタンが設けられている。教示装置5は、ロボットコントローラ4と接続されており、教示装置5による操作内容はロボットコントローラ4に送信される。また、オペレータは、教示装置5によって生産プログラムの設定を行うこともできる。   The teaching device 5 has a monitor and operation buttons, and the robot 1 can be operated by an operator. Specifically, in the teaching work, the operator can arbitrarily move the control point Pc of the robot 1 by operating the teaching device 5. The teaching device 5 is provided with a setting button for instructing execution of alignment control described later. The teaching device 5 is connected to the robot controller 4, and the operation content by the teaching device 5 is transmitted to the robot controller 4. The operator can also set a production program using the teaching device 5.

〔位置合わせ制御〕
以下、本発明において特徴的な位置合わせ制御について図8に示すフローチャートに基づいて説明する。
(Positioning control)
Hereinafter, the characteristic alignment control in the present invention will be described based on the flowchart shown in FIG.

まず、ステップS1では、オペレータは、教示のためにワークWを所定の作業位置にセットし、教示装置5を操作して、制御点PcをワークWの特徴点P0に合わせる。すなわち、図9に示すように、オペレータは、溶接トーチ15の先端がワークWの特徴点P0に合うように溶接トーチ15を移動させる。   First, in step S1, the operator sets the workpiece W at a predetermined work position for teaching, and operates the teaching device 5 to adjust the control point Pc to the feature point P0 of the workpiece W. That is, as shown in FIG. 9, the operator moves the welding torch 15 so that the tip of the welding torch 15 matches the feature point P0 of the workpiece W.

ステップS2では、オペレータは、教示装置5に設けられた設定ボタンを押す。   In step S <b> 2, the operator presses a setting button provided on the teaching device 5.

すると、ステップS3において、予め記憶部32に格納されている位置関係データRを読み出す(以下の数1参照)。ここで、位置関係データRは、ツール座標における視野Vwの中央位置とツール座標原点すなわち制御点Pcとの関係を表すベクトルである。溶接トーチ15と視覚センサ2とは互いの位置関係が固定されるように設けられているため、位置関係データRは、ロボットシステムの設計時又は製造時に求めることができる。   Then, in step S3, the positional relationship data R stored in advance in the storage unit 32 is read (see the following formula 1). Here, the positional relationship data R is a vector representing the relationship between the center position of the visual field Vw in the tool coordinates and the tool coordinate origin, that is, the control point Pc. Since the welding torch 15 and the visual sensor 2 are provided so that their positional relationship is fixed, the positional relationship data R can be obtained at the time of designing or manufacturing the robot system.

ステップS4では、制御部41は、ロボット1の各モータ61〜66の現在の角度からツール座標・ロボット座標変換マトリクスMTを算出する(以下の数2参照)。   In step S4, the control unit 41 calculates a tool coordinate / robot coordinate conversion matrix MT from the current angles of the motors 61 to 66 of the robot 1 (see the following formula 2).

なお、要素 mtij (ij=1~3) は各モータ61〜66の現在の角度Θの関数であり、θ1〜θ6は、上述したエンコーダ71〜76が検出した各モータ61〜66の角度である。 The element mtij (ij = 1 to 3) is a function of the current angle Θ of each of the motors 61 to 66, and θ1 to θ6 are the angles of the motors 61 to 66 detected by the encoders 71 to 76 described above. .

ステップS5では、制御部41は、マトリクスMTと位置関係データRとに基づいて、ロボット座標における視覚センサ2の視野Vwの中央位置からワークWの特徴点P0へのベクトルRRを算出する(以下の数3参照)。すなわち、ツール座標における制御点Pcと視野Vwの中央位置との位置関係を示すベクトルである位置関係データRをロボット座標に変換する。   In step S5, the control unit 41 calculates a vector RR from the center position of the visual field Vw of the visual sensor 2 in the robot coordinates to the feature point P0 of the workpiece W based on the matrix MT and the positional relationship data R (hereinafter described as follows). (See Equation 3). That is, the positional relationship data R, which is a vector indicating the positional relationship between the control point Pc in the tool coordinates and the center position of the visual field Vw, is converted into robot coordinates.

ステップS6では、制御部41は、制御点Pcの現在位置Pを検出する。ここで、制御部41は、エンコーダ71〜76が検出した各モータ61〜66の現在の角度Θから制御点Pcの現在位置Pを算出する。すなわち、制御点Pcの現在位置Pは、各モータ61〜66の現在の角度Θの関数で表される。   In step S6, the control unit 41 detects the current position P of the control point Pc. Here, the control unit 41 calculates the current position P of the control point Pc from the current angle Θ of each of the motors 61 to 66 detected by the encoders 71 to 76. That is, the current position P of the control point Pc is expressed as a function of the current angle Θ of each motor 61-66.

ステップS7では、制御部41は、制御点Pcの現在位置Pと、ベクトルRRとに基づいて、ロボット座標での制御点Pcの目標位置PPを算出する(以下の数4参照)。   In step S7, the control unit 41 calculates a target position PP of the control point Pc in the robot coordinates based on the current position P of the control point Pc and the vector RR (see the following formula 4).

ステップS8では、制御部41は、制御点Pcを目標位置PPに移動させるようにロボット1に指令を送る。   In step S8, the control unit 41 sends a command to the robot 1 to move the control point Pc to the target position PP.

ステップS9において、制御点Pcが目標位置PPに到達したか否かが判断される。制御点Pcが目標位置PPに到達した場合には、位置合わせ制御が終了する。このとき、図10に示すように、ワークWの特徴点P0は視覚センサ2の視野Vwの中央位置に移動しており、ワークWの特徴点P0は視覚センサ2の視野Vw内に位置している。また、図7(a)に示すように、視覚センサ2の視野の中央位置にワークWの特徴点P0が位置する画像が視覚センサ2によって取得される。   In step S9, it is determined whether or not the control point Pc has reached the target position PP. When the control point Pc reaches the target position PP, the alignment control is finished. At this time, as shown in FIG. 10, the feature point P0 of the work W has moved to the center position of the visual field Vw of the visual sensor 2, and the feature point P0 of the work W is located within the visual field Vw of the visual sensor 2. Yes. Further, as shown in FIG. 7A, an image in which the feature point P0 of the workpiece W is located at the center position of the visual field of the visual sensor 2 is acquired by the visual sensor 2.

〔特徴〕
このロボットシステムでは、教示作業の開始時において、上述した位置合わせ制御を行うことで容易に教示作業を行うことができる。この際、オペレータは、ロボット1の制御点PcをワークWの特徴点P0に合わせる作業を行えばよい。そして、オペレータが設定ボタンを押すことにより、ワークWの特徴点P0が視覚センサ2の視野の中央位置に移動するようにロボット1が自動的に制御される。ここで、ロボット1の制御点PcとワークWの特徴点P0とはオペレータが直接的に視認することができるため、ワークWの特徴点P0が視覚センサ2の視野外に位置している場合であっても、オペレータは上記の作業を容易に行うことができる。これにより、このロボットシステムでは、教示作業を精度よく且つ効率よく行うことができる。
〔Characteristic〕
In this robot system, the teaching operation can be easily performed by performing the above-described alignment control at the start of the teaching operation. At this time, the operator may perform an operation of matching the control point Pc of the robot 1 with the feature point P0 of the workpiece W. Then, when the operator presses the setting button, the robot 1 is automatically controlled so that the feature point P0 of the workpiece W moves to the center position of the visual field of the visual sensor 2. Here, since the operator can directly recognize the control point Pc of the robot 1 and the feature point P0 of the workpiece W, the feature point P0 of the workpiece W is located outside the visual field of the visual sensor 2. Even so, the operator can easily perform the above-described operation. Thereby, in this robot system, teaching work can be performed accurately and efficiently.

<第2実施形態>
本発明の第2実施形態に係るロボットシステムにおける位置合わせ制御を図11のフローチャートに基づいて説明する。なお、ロボットシステムの構成については第1実施形態と同様である。なお、本実施形態では、事前に、ワークWの特徴点P0が視覚センサ2の視野Vw内に位置しているものとする。
<Second Embodiment>
Positioning control in the robot system according to the second embodiment of the present invention will be described based on the flowchart of FIG. The configuration of the robot system is the same as that of the first embodiment. In the present embodiment, it is assumed that the feature point P0 of the workpiece W is located in the visual field Vw of the visual sensor 2 in advance.

まず、ステップS11では、オペレータは、教示装置5に設けられた設定ボタンを押す。   First, in step S <b> 11, the operator presses a setting button provided on the teaching device 5.

すると、ステップS12において、予め記憶部32に格納されている位置関係データM(以下の数5参照)を読み出す。位置関係データMは、ツール座標とセンサ座標との姿勢関係を表すマトリクスである。溶接トーチ15と視覚センサ2とは互いに固定的に設けられているため、位置関係データMは、ロボットシステムの設計時又は製造時に求めることができる。   Then, in step S12, the positional relationship data M (see the following formula 5) stored in advance in the storage unit 32 is read. The positional relationship data M is a matrix that represents the posture relationship between tool coordinates and sensor coordinates. Since the welding torch 15 and the visual sensor 2 are fixed to each other, the positional relationship data M can be obtained at the time of designing or manufacturing the robot system.

ステップS13では、制御部41は、ワークWの特徴点P0の視野Vwの中央位置からの位置Vs=(Xw,Yw,0)を取得する。ここでは、制御部41は、画像処理装置3が検出したセンサ座標におけるワークWの特徴点P0の位置(Xw,Yw)から上記Vsを算出する。   In step S13, the control unit 41 acquires a position Vs = (Xw, Yw, 0) from the center position of the visual field Vw of the feature point P0 of the workpiece W. Here, the control unit 41 calculates the above Vs from the position (Xw, Yw) of the feature point P0 of the workpiece W at the sensor coordinates detected by the image processing device 3.

ステップS14では、制御部41は、視覚センサ2の視野Vwの中央位置からのワークWの特徴点P0の位置Vsと、位置関係データMとに基づいて、ツール座標における視覚センサ2の視野Vwの中央位置からワークWの特徴点P0へのベクトルRSを算出する(以下の数参照)   In step S14, the control unit 41 determines the visual field Vw of the visual sensor 2 in the tool coordinates based on the position Vs of the feature point P0 of the workpiece W from the central position of the visual field Vw of the visual sensor 2 and the positional relationship data M. A vector RS from the center position to the feature point P0 of the workpiece W is calculated (see the following number).

ステップS15では、制御部41は、ロボット1の各モータ61〜66の現在の角度からツール座標・ロボット座標変換マトリクスMTを算出する(以下の数7参照)。   In step S15, the control unit 41 calculates a tool coordinate / robot coordinate conversion matrix MT from the current angles of the motors 61 to 66 of the robot 1 (see the following Expression 7).

なお、要素 mtij (ij=1~3) は各モータ61〜66の現在の角度Θの関数であり、θ1〜θ6は、上述したエンコーダ71〜76が検出した各モータ61〜66の角度である。 The element mtij (ij = 1 to 3) is a function of the current angle Θ of each of the motors 61 to 66, and θ1 to θ6 are the angles of the motors 61 to 66 detected by the encoders 71 to 76 described above. .

ステップS16では、制御部41は、ツール座標における視覚センサ2の視野Vwの中央位置からワークWの特徴点P0へのベクトルRSとツール座標・ロボット座標変換マトリクスMTとに基づいて、ロボット座標における視覚センサ2の視野Vwの中央位置からワークWの特徴点P0へのベクトルRRを算出する(以下の数8参照)。すなわち、視覚センサ2の視野Vwの中央位置からワークWの特徴点P0へのベクトルをツール座標からロボット座標に変換する。   In step S16, the control unit 41 visually determines the robot coordinates based on the vector RS from the center position of the visual field Vw of the visual sensor 2 in the tool coordinates to the feature point P0 of the workpiece W and the tool coordinates / robot coordinate transformation matrix MT. A vector RR from the center position of the field of view Vw of the sensor 2 to the feature point P0 of the workpiece W is calculated (see the following formula 8). That is, the vector from the center position of the visual field Vw of the visual sensor 2 to the feature point P0 of the workpiece W is converted from tool coordinates to robot coordinates.

ステップS17では、制御部41は、制御点Pcの現在位置Pを検出する。ここで、制御部41は、エンコーダ71〜76が検出した各モータ61〜66の現在の角度Θから制御点Pcの現在位置Pを算出する。すなわち、制御点Pcの現在位置Pは、各モータ61〜66の現在の角度Θの関数で表される。   In step S17, the control unit 41 detects the current position P of the control point Pc. Here, the control unit 41 calculates the current position P of the control point Pc from the current angle Θ of each of the motors 61 to 66 detected by the encoders 71 to 76. That is, the current position P of the control point Pc is expressed as a function of the current angle Θ of each motor 61-66.

ステップS18では、制御部41は、制御点Pcの現在位置Pと、ベクトルRRとに基づいて、ロボット座標での制御点Pcの目標位置PPを算出する(以下の数9および図12参照)。   In step S18, the control unit 41 calculates a target position PP of the control point Pc in the robot coordinates based on the current position P of the control point Pc and the vector RR (see Equation 9 below and FIG. 12).

ステップS19では、制御部41は、制御点Pcを目標位置PPに移動させるようにロボット1に指令を送る。   In step S19, the control unit 41 sends a command to the robot 1 to move the control point Pc to the target position PP.

ステップS20において、制御点Pcが目標位置PPに到達したか否かが判断される。制御点Pcが目標位置PPに到達した場合には、位置合わせ制御が終了する。このとき、上記の第1実施形態と同様に、図10に示すように、ワークWの特徴点P0は視覚センサの視野Vwの中央位置に移動しており、ワークWは視覚センサ2の視野Vw内に位置している。これにより、図7(a)に示すように、視野Vwの中央位置にワークWの特徴点P0が位置する画像が視覚センサ2によって取得される。   In step S20, it is determined whether or not the control point Pc has reached the target position PP. When the control point Pc reaches the target position PP, the alignment control is finished. At this time, as in the first embodiment, as shown in FIG. 10, the feature point P0 of the workpiece W has moved to the center position of the visual field Vw of the visual sensor, and the workpiece W is the visual field Vw of the visual sensor 2. Located in. Thereby, as shown in FIG. 7A, an image in which the feature point P0 of the workpiece W is located at the center position of the visual field Vw is acquired by the visual sensor 2.

〔特徴〕
このロボットシステムでは、ワークWが視覚センサ2の視野Vw内に位置している状態においてオペレータが設定ボタンを押すと、ワークWの特徴点P0が視覚センサ2の視野Vw内の中央位置に移動するようにロボット1が自動的に制御される。よって、このロボットシステムでは、教示作業を精度よく且つ効率よく行うことができる。
〔Characteristic〕
In this robot system, when the operator presses the setting button in a state where the workpiece W is positioned in the visual field Vw of the visual sensor 2, the feature point P0 of the workpiece W moves to the center position in the visual field Vw of the visual sensor 2. Thus, the robot 1 is automatically controlled. Therefore, in this robot system, teaching work can be performed accurately and efficiently.

<第3実施形態>
本発明の第3実施形態に係るロボットシステムにおける位置合わせ制御では、第1実施形態における位置合わせ制御と、第2実施形態における位置合わせ制御とが連続して行われる。すなわち、図8のフローチャートのステップS9の後に、図11のフローチャートのステップS12以降の処理が行われる。なお、ロボットシステムの構成については第1実施形態と同様である。
<Third Embodiment>
In the alignment control in the robot system according to the third embodiment of the present invention, the alignment control in the first embodiment and the alignment control in the second embodiment are continuously performed. In other words, after step S9 of the flowchart of FIG. 8, the processing after step S12 of the flowchart of FIG. 11 is performed. The configuration of the robot system is the same as that of the first embodiment.

本実施形態におけるロボットシステムでは、ワークWの特徴点P0が視覚センサ2の視野外に位置している場合であっても、ワークWの特徴点P0を視覚センサ2の視野Vw内に容易に移動させることができる。また、ステップS9の実行後に、ワークWの特徴点P0の位置が視覚センサ2の中央位置からずれていたとしても、ステップS12以降の処理によって、ワークWの特徴点P0の位置を修正して、視覚センサ2の中央位置に精度よく移動させることができる。このため、このロボットシステムでは、教示作業をさらに精度よく行うことができる。   In the robot system according to the present embodiment, the feature point P0 of the workpiece W is easily moved within the field of view Vw of the visual sensor 2 even when the feature point P0 of the workpiece W is located outside the visual field of the visual sensor 2. Can be made. Moreover, even if the position of the feature point P0 of the workpiece W is shifted from the center position of the visual sensor 2 after the execution of step S9, the position of the feature point P0 of the workpiece W is corrected by the processing after step S12. The visual sensor 2 can be accurately moved to the center position. For this reason, in this robot system, the teaching work can be performed with higher accuracy.

<他の実施形態>
(a)ロボットシステムの構成および制御方法は、上記のものに限られず本発明の要旨を逸脱しない範囲で変更可能である。例えば、ロボット1の構造は上記のものに限られず、例えばワークWを掴んで移動させるハンドリングロボットなどの別種のロボットが用いられてもよい。また、視覚センサ2の構成および画像処理装置3による画像処理方法は上記のものに限られない。例えば明るさ情報を処理する二次元的な視覚センサと画像処理装置でも良いし、複数のパターン光を投影して三次元座標を求めるような視覚センサに対しても適用可能である。
<Other embodiments>
(A) The configuration and control method of the robot system are not limited to those described above, and can be changed without departing from the gist of the present invention. For example, the structure of the robot 1 is not limited to that described above, and another type of robot such as a handling robot that holds and moves the workpiece W may be used. Further, the configuration of the visual sensor 2 and the image processing method by the image processing device 3 are not limited to those described above. For example, a two-dimensional visual sensor and an image processing apparatus that process brightness information may be used, and the present invention is applicable to a visual sensor that projects a plurality of pattern lights to obtain three-dimensional coordinates.

(b)上記の実施形態では、記憶部32は、画像処理装置3に設けられているが、ロボットコントローラ4などの他の装置に設けられてもよい。   (B) In the above embodiment, the storage unit 32 is provided in the image processing device 3, but may be provided in another device such as the robot controller 4.

(c)上記の実施形態では、教示装置5に設けられた設定ボタンが押されることによって、位置合わせ制御が開始されているが、設定ボタンに代えて別の操作部材が設けられてもよい。   (C) In the above embodiment, the alignment control is started by pressing the setting button provided on the teaching device 5, but another operation member may be provided instead of the setting button.

(d)視覚センサ2の視野Vw内の特定位置は、中央位置に限らず視野Vw内の別の位置であってもよい。   (D) The specific position in the visual field Vw of the visual sensor 2 is not limited to the center position, and may be another position in the visual field Vw.

(e)ロボット1の制御点Pcは、溶接トーチ15の先端ではなく、視覚センサ2に対する位置関係が変化しない他の位置であってもよい。   (E) The control point Pc of the robot 1 may not be the tip of the welding torch 15 but may be another position where the positional relationship with respect to the visual sensor 2 does not change.

本発明は、教示作業を精度よく且つ効率よく行うことができる効果を有し、ロボットシステム、ロボットシステムの制御装置および制御方法として有用である。   INDUSTRIAL APPLICABILITY The present invention has an effect that teaching work can be performed accurately and efficiently, and is useful as a robot system, a robot system control device, and a control method.

ロボットシステムの構成を示す概略図。Schematic which shows the structure of a robot system. ロボットシステムの構成を示すブロック図。The block diagram which shows the structure of a robot system. ロボットの構成およびロボット座標を示す図。The figure which shows the structure and robot coordinate of a robot. 溶接トーチおよび視覚センサを示す図。The figure which shows a welding torch and a visual sensor. 視覚センサの構成および取得される画像の一例を示す図。The figure which shows an example of a structure of a visual sensor, and the image acquired. 画像処理装置による画像処理の一例を示す図。The figure which shows an example of the image processing by an image processing apparatus. 画像処理装置によるワークWの特徴点の検出例を示す図。The figure which shows the example of detection of the feature point of the workpiece | work W by an image processing apparatus. 第1実施形態に係る位置合わせ制御を示すフローチャート。The flowchart which shows the alignment control which concerns on 1st Embodiment. 位置合わせ制御の開始時における溶接トーチとワークWの特徴点の位置を示す図。The figure which shows the position of the feature point of the welding torch and the workpiece | work W at the time of the start of alignment control. 位置合わせ制御の完了時におけるワークWの特徴点と視覚センサの視野を示す図。The figure which shows the feature point of the workpiece | work W at the time of completion of alignment control, and the visual field of a visual sensor. 第2実施形態に係る位置合わせ制御を示すフローチャート。The flowchart which shows the alignment control which concerns on 2nd Embodiment. ロボット座標における、制御点Pcの現在位置Pと、視野Vwの中央位置からワークWの特徴点P0へのベクトルRRと、制御点Pcの目標位置PPと、の関係を示す図。The figure which shows the relationship between the present position P of the control point Pc in the robot coordinate, the vector RR from the center position of the visual field Vw to the feature point P0 of the workpiece W, and the target position PP of the control point Pc.

符号の説明Explanation of symbols

1 ロボット
2 視覚センサ
5 教示装置
32 記憶部
41 制御部
DESCRIPTION OF SYMBOLS 1 Robot 2 Visual sensor 5 Teaching apparatus 32 Memory | storage part 41 Control part

Claims (6)

ロボットと、
前記ロボットの動作を指示するためにオペレータによって操作される教示装置と、
前記ロボットの制御点と共に移動し、前記ロボットの作業対象であるワークの画像情報を取得する視覚センサと、
前記ロボットの制御点と前記視覚センサの視野内の特定位置との位置関係を示す位置関係データを格納する記憶部と、
前記ロボットの制御点の現在位置を検出し、検出された前記制御点の現在位置を前記ワークの特徴点の位置とみなして前記位置関係データに基づいて、前記特徴点が前記視覚センサの視野内の特定位置に位置するような前記ロボットの制御点の目標位置を演算し、前記ロボットの制御点が前記目標位置に移動するように前記ロボットを制御する制御部と、
を備えるロボットシステム。
With robots,
A teaching device operated by an operator to instruct the operation of the robot;
A visual sensor that moves together with the control point of the robot and acquires image information of a work that is a work target of the robot;
A storage unit that stores positional relationship data indicating a positional relationship between a control point of the robot and a specific position in the visual field of the visual sensor;
The current position of the control point of the robot is detected, the current position of the detected control point is regarded as the position of the feature point of the workpiece, and the feature point is within the visual field of the visual sensor based on the positional relationship data. A control unit that calculates a target position of the control point of the robot so as to be located at the specific position, and controls the robot so that the control point of the robot moves to the target position;
A robot system comprising:
ロボットと、前記ロボットの動作を指示するためにオペレータによって操作される教示装置と、前記ロボットの制御点と共に移動し、前記ロボットの作業対象であるワークの画像情報を取得する視覚センサと、を備えるロボットシステムの制御装置であって、
前記ロボットの制御点と前記視覚センサの視野内の特定位置との位置関係を示す位置関係データを格納する記憶部と、
前記ロボットの制御点の現在位置を検出し、検出された前記制御点の現在位置を前記ワークの特徴点の位置とみなして前記位置関係データに基づいて、前記特徴点が前記視覚センサの視野内の特定位置に位置するような前記ロボットの制御点の目標位置を演算し、前記ロボットの制御点が前記目標位置に移動するように前記ロボットを制御する制御部と、
を備えるロボットシステムの制御装置。
A robot, a teaching device operated by an operator to instruct the operation of the robot, and a visual sensor that moves together with a control point of the robot and acquires image information of a work that is a work target of the robot A control device for a robot system,
A storage unit that stores positional relationship data indicating a positional relationship between a control point of the robot and a specific position in the visual field of the visual sensor;
The current position of the control point of the robot is detected, the current position of the detected control point is regarded as the position of the feature point of the workpiece, and the feature point is within the visual field of the visual sensor based on the positional relationship data. A control unit that calculates a target position of the control point of the robot so as to be located at the specific position, and controls the robot so that the control point of the robot moves to the target position;
A control device for a robot system comprising:
ロボットと、前記ロボットの動作を指示するためにオペレータによって操作される教示装置と、前記ロボットの制御点と共に移動し、前記ロボットの作業対象であるワークの画像情報を取得する視覚センサと、前記ロボットの制御点と前記視覚センサの視野内の特定位置との位置関係を示す位置関係データを格納する記憶部と、を備えるロボットシステムの制御方法であって、
前記ロボットの制御点の現在位置を検出するステップと、
前記位置検出部によって検出された前記制御点の現在位置を前記ワークの特徴点の位置とみなして前記位置関係データに基づいて、前記特徴点が前記視覚センサの視野内の特定位置に位置するような前記ロボットの制御点の目標位置を演算するステップと、
前記ロボットの制御点が前記目標位置に移動するように前記ロボットを制御するステップと、
を備えるロボットシステムの制御方法。
A robot, a teaching device operated by an operator to instruct the operation of the robot, a visual sensor that moves together with a control point of the robot and acquires image information of a work that is a work target of the robot, and the robot A storage unit that stores positional relationship data indicating a positional relationship between the control point of the visual sensor and a specific position within the visual field of the visual sensor,
Detecting a current position of a control point of the robot;
The current position of the control point detected by the position detection unit is regarded as the position of the feature point of the workpiece, and based on the positional relationship data, the feature point is positioned at a specific position in the visual field of the visual sensor. Calculating a target position of the control point of the robot;
Controlling the robot such that a control point of the robot moves to the target position;
A method for controlling a robot system comprising:
ロボットと、
前記ロボットの制御点と共に移動し、前記ロボットの作業対象であるワークの画像情報を取得する視覚センサと、
前記視覚センサが取得した画像情報を分析して前記視覚センサの視野内における前記ワークの特徴点の位置を検出する画像分析装置と、
前記ロボットの制御点と前記視覚センサの視野内の特定位置との位置関係を示す位置関係データを格納する記憶部と、
前記ロボットの制御点の現在位置を検出し、前記位置関係データと、前記画像分析装置によって検出された前記ワークの特徴点の位置と、検出された前記ロボットの制御点の現在位置とに基づいて、前記特徴点が前記視覚センサの視野内の特定位置に位置するような前記ロボットの制御点の目標位置を演算し、前記ロボットの制御点が前記目標位置に移動するように前記ロボットを制御する制御部と、
を備えるロボットシステム。
With robots,
A visual sensor that moves together with the control point of the robot and acquires image information of a work that is a work target of the robot;
An image analyzer for analyzing the image information acquired by the visual sensor and detecting the position of the feature point of the workpiece in the visual field of the visual sensor;
A storage unit that stores positional relationship data indicating a positional relationship between a control point of the robot and a specific position in the visual field of the visual sensor;
Detecting the current position of the control point of the robot, and based on the positional relationship data, the position of the feature point of the workpiece detected by the image analyzer, and the detected current position of the control point of the robot Calculating a target position of the control point of the robot such that the feature point is located at a specific position in the visual field of the visual sensor, and controlling the robot so that the control point of the robot moves to the target position A control unit;
A robot system comprising:
ロボットと、前記ロボットの制御点と共に移動し、前記ロボットの作業対象であるワークの画像情報を取得する視覚センサと、前記視覚センサが取得した画像情報を分析して前記視覚センサの視野内における前記ワークの特徴点の位置を検出する画像分析装置と、を備えるロボットシステムの制御装置であって、
前記ロボットの制御点と前記視覚センサの視野内の特定位置との位置関係を示す位置関係データを格納する記憶部と、
前記ロボットの制御点の現在位置を検出し、前記位置関係データと、前記画像分析装置によって検出された前記ワークの特徴点の位置と、検出された前記ロボットの制御点の現在位置とに基づいて、前記特徴点が前記視覚センサの視野内の特定位置に位置するような前記ロボットの制御点の目標位置を演算し、前記ロボットの制御点が前記目標位置に移動するように前記ロボットを制御する制御部と、
を備えるロボットシステムの制御装置。
A robot, a visual sensor that moves with a control point of the robot, acquires image information of a work that is a work target of the robot, and analyzes the image information acquired by the visual sensor, and the visual sensor in the visual field of the visual sensor A control device of a robot system comprising an image analysis device for detecting a position of a feature point of a workpiece,
A storage unit that stores positional relationship data indicating a positional relationship between a control point of the robot and a specific position in the visual field of the visual sensor;
Detecting the current position of the control point of the robot, and based on the positional relationship data, the position of the feature point of the workpiece detected by the image analyzer, and the detected current position of the control point of the robot Calculating a target position of the control point of the robot such that the feature point is located at a specific position in the visual field of the visual sensor, and controlling the robot so that the control point of the robot moves to the target position A control unit;
A control device for a robot system comprising:
ロボットと、前記ロボットの制御点と共に移動し、前記ロボットの作業対象であるワークの画像情報を取得する視覚センサと、前記視覚センサが取得した画像情報を分析して前記視覚センサの視野内における前記ワークの特徴点の位置を検出する画像分析装置と、前記ロボットの制御点と前記視覚センサの視野内の特定位置との位置関係を示す位置関係データを格納する記憶部と、を備えるロボットシステムの制御方法であって、
前記視覚センサによって、前記ワークの画像情報を取得するステップと、
前記画像分析装置によって、前記視覚センサが取得した画像情報を分析して前記視覚センサの視野内における前記ワークの特徴点の位置を検出するステップと、
前記ロボットの制御点の現在位置を検出するステップと、
前記位置関係データと、前記画像分析装置によって検出された前記ワークの特徴点の位置と、前記現在位置検出部によって検出された前記ロボットの制御点の現在位置とに基づいて、前記特徴点が前記視覚センサの視野内の特定位置に位置するような前記ロボットの制御点の目標位置を演算するステップと、
前記ロボットの制御点が前記目標位置に移動するように前記ロボットを制御するステップと、
を備えるロボットシステムの制御方法。
A robot, a visual sensor that moves with a control point of the robot, acquires image information of a work that is a work target of the robot, and analyzes the image information acquired by the visual sensor, and the visual sensor in the visual field of the visual sensor An image analysis device that detects the position of a feature point of a workpiece, and a storage unit that stores positional relationship data indicating a positional relationship between a control point of the robot and a specific position in the visual field of the visual sensor. A control method,
Obtaining image information of the workpiece by the visual sensor;
Analyzing the image information acquired by the visual sensor by the image analysis device to detect the position of the feature point of the workpiece in the visual field of the visual sensor;
Detecting a current position of a control point of the robot;
Based on the positional relationship data, the position of the feature point of the workpiece detected by the image analysis device, and the current position of the control point of the robot detected by the current position detection unit, the feature point is Calculating a target position of the control point of the robot such that it is located at a specific position in the visual field of the visual sensor;
Controlling the robot such that a control point of the robot moves to the target position;
A method for controlling a robot system comprising:
JP2008329812A 2008-12-25 2008-12-25 Robot system, device and method for controlling robot system Pending JP2010149225A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008329812A JP2010149225A (en) 2008-12-25 2008-12-25 Robot system, device and method for controlling robot system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008329812A JP2010149225A (en) 2008-12-25 2008-12-25 Robot system, device and method for controlling robot system

Publications (1)

Publication Number Publication Date
JP2010149225A true JP2010149225A (en) 2010-07-08

Family

ID=42568897

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008329812A Pending JP2010149225A (en) 2008-12-25 2008-12-25 Robot system, device and method for controlling robot system

Country Status (1)

Country Link
JP (1) JP2010149225A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104400279A (en) * 2014-10-11 2015-03-11 南京航空航天大学 CCD-based method and system for automatic identification and track planning of pipeline space weld seams
CN105983802A (en) * 2015-03-06 2016-10-05 扬州中集通华专用车有限公司 Control system and method for welding robot
CN113601075A (en) * 2021-07-29 2021-11-05 上海发那科机器人有限公司 Four-robot coordinated tracking standard welding system
CN115091094A (en) * 2022-08-24 2022-09-23 山西锦荣智能技术有限公司 Robot self-adaptive welding system capable of being guided in real time on line

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104400279A (en) * 2014-10-11 2015-03-11 南京航空航天大学 CCD-based method and system for automatic identification and track planning of pipeline space weld seams
CN105983802A (en) * 2015-03-06 2016-10-05 扬州中集通华专用车有限公司 Control system and method for welding robot
CN105983802B (en) * 2015-03-06 2018-01-05 扬州中集通华专用车有限公司 A kind of welding robot control system and method
CN113601075A (en) * 2021-07-29 2021-11-05 上海发那科机器人有限公司 Four-robot coordinated tracking standard welding system
CN113601075B (en) * 2021-07-29 2023-02-24 上海发那科机器人有限公司 Four-robot coordinated tracking standard welding system
CN115091094A (en) * 2022-08-24 2022-09-23 山西锦荣智能技术有限公司 Robot self-adaptive welding system capable of being guided in real time on line
CN115091094B (en) * 2022-08-24 2022-11-18 山西锦荣智能技术有限公司 Robot self-adaptive welding system capable of being guided in real time on line

Similar Documents

Publication Publication Date Title
JP6490037B2 (en) Robot system comprising a robot supported by a movable carriage
JP4776034B2 (en) Automatic cutting device and manufacturing method of groove processed product
US10675759B2 (en) Interference region setting apparatus for mobile robot
JP5981143B2 (en) Robot tool control method
US20160158937A1 (en) Robot system having augmented reality-compatible display
JP2008021092A (en) Simulation apparatus of robot system
JP5272617B2 (en) Robot apparatus and control method of robot apparatus
JP2011031346A (en) Apparatus and method for measuring position of tool end point of robot
JP2005108144A (en) Device for confirming correction data of robot
JP2015163407A (en) Welding torch detection device, and welding robot system
JP2011045898A (en) Welding robot
JP2015136770A (en) Data creation system of visual sensor, and detection simulation system
JP2006175532A (en) Robot control device
JP2018059830A (en) Exterior appearance inspection method
JP2019063954A (en) Robot system, calibration method and calibration program
CN109862989B (en) Image-based technique selection during laser welding
JP2010149225A (en) Robot system, device and method for controlling robot system
JP7502003B2 (en) Apparatus and method for acquiring deviation of moving trajectory of moving machine
US11247288B2 (en) Welding position detection device, welding position detection method, and welding robot system
TWI806761B (en) Mark detection device and robot teaching system
JP7176148B1 (en) Weld line detection system
EP3895855A1 (en) Robot control system and robot control method
US12011827B2 (en) Robot teaching with scans in and out of robot workspace
JP2017170552A (en) Position control system
JP2016187851A (en) Calibration device