JP2023108410A - Robot control device - Google Patents

Robot control device Download PDF

Info

Publication number
JP2023108410A
JP2023108410A JP2022009527A JP2022009527A JP2023108410A JP 2023108410 A JP2023108410 A JP 2023108410A JP 2022009527 A JP2022009527 A JP 2022009527A JP 2022009527 A JP2022009527 A JP 2022009527A JP 2023108410 A JP2023108410 A JP 2023108410A
Authority
JP
Japan
Prior art keywords
error
point cloud
cloud data
workpiece
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022009527A
Other languages
Japanese (ja)
Inventor
祥 藤澤
Sho Fujisawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Daihen Corp
Original Assignee
Daihen Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daihen Corp filed Critical Daihen Corp
Priority to JP2022009527A priority Critical patent/JP2023108410A/en
Publication of JP2023108410A publication Critical patent/JP2023108410A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide a robot control device that allows reduction in tact time while keeping cost low.SOLUTION: A robot control device includes: a point cloud data detection unit for detecting coordinate data corresponding to a workpiece W on which a manipulator 2 works as workpiece point cloud data from three-dimensional image data containing the workpiece W; an error calculation unit for calculating an error by comparing the detected workpiece point cloud data with a prestored reference point cloud data serving as a reference; and a sensor control unit for starting sensing by a laser sensor 3 from a sensing start position corresponding to the calculated error in a direction of approaching the workpiece W.SELECTED DRAWING: Figure 1

Description

本発明は、ロボット制御装置に関する。 The present invention relates to a robot controller.

産業用ロボットにより作業を行う場合、対象物の設置誤差やロボットの加工誤差により生ずる狙いずれを防止するために、対象物の位置を測定して正しい位置に補正することが行われている。対象物の位置を測定する方法には、例えば、2Dカメラとレーザセンサを用いて測定する方法や、3Dカメラを用いて測定する方法がある。下記特許文献1には、2次元のCCDカメラとレーザセンサを用いて対象物の位置や姿勢を測定する方法が開示され、下記特許文献2には、3次元測定器で測定した3次元データを用いて対象物の位置を測定する方法が開示されている。 2. Description of the Related Art When an industrial robot performs work, the position of an object is measured and corrected to the correct position in order to prevent misalignment of the target caused by an installation error of the object or a machining error of the robot. Methods for measuring the position of an object include, for example, a method using a 2D camera and a laser sensor and a method using a 3D camera. Patent Document 1 below discloses a method for measuring the position and orientation of an object using a two-dimensional CCD camera and a laser sensor. Patent Document 2 below discloses three-dimensional data measured by a three-dimensional measuring instrument. Disclosed is a method for determining the position of an object using

特許第3556589号公報Japanese Patent No. 3556589 特開2009-222568号公報JP 2009-222568 A

ところで、2Dカメラとレーザセンサを用いる方法には、2Dカメラでは対象物までの距離が正確に測定できないという問題と、レーザセンサでは対象物を検出できる範囲が狭いという問題がある。そして、3Dカメラを用いる方法には、検出精度が高い3Dカメラは高価であり、コストが嵩むという問題がある。これらの問題を回避するために、2Dカメラとレーザセンサを用いる場合に、レーザセンサが対象物に干渉しないように離れた位置から手探りでセンシングしていくこともできるが、タクトタイムが長くなってしまう。また、3Dカメラを用いる場合に、コストを抑えるために安価な三次元カメラを用いることもできるが、検出精度が低くなり、レーザセンサが対象物に干渉する可能性が高くなる。 By the way, the method using a 2D camera and a laser sensor has the problem that the 2D camera cannot accurately measure the distance to the object, and the laser sensor has a narrow range in which the object can be detected. The method using a 3D camera has a problem that a 3D camera with high detection accuracy is expensive and the cost increases. In order to avoid these problems, when using a 2D camera and laser sensor, it is possible to grope for sensing from a distant position so that the laser sensor does not interfere with the target object, but this increases the takt time. put away. Also, when using a 3D camera, an inexpensive three-dimensional camera can be used in order to keep costs down.

そこで、本発明は、コストを抑えつつタクトタイムを短縮することができるロボット制御装置を提供することを目的とする。 SUMMARY OF THE INVENTION Accordingly, it is an object of the present invention to provide a robot controller capable of reducing the tact time while suppressing the cost.

本発明の一態様に係るロボット制御装置は、産業用ロボットが作業する対象物を含む三次元の画像データから、対象物に対応する三次元の座標データを対象物点群データとして検出する点群データ検出部と、検出された対象物点群データと予め記憶された基準となる基準点群データとを比較して誤差を算出する誤差算出部と、算出された誤差に対応するセンシング開始位置から対象物に近づく方向にセンサにセンシングを開始させるセンサ制御部と、を備える。 A robot control device according to an aspect of the present invention detects, as target object point cloud data, three-dimensional coordinate data corresponding to an object from three-dimensional image data including an object to be worked by an industrial robot. A data detection unit, an error calculation unit that compares the detected object point cloud data with reference point cloud data that is stored in advance to calculate an error, and a sensing start position corresponding to the calculated error. a sensor control unit that causes the sensor to start sensing in a direction approaching the object.

この態様によれば、対象物を含む三次元の画像データから検出された対象物に対応する三次元の対象物点群データと、基準点群データとを比較して、基準位置からのずれを表す誤差を算出し、その誤差に対応するセンシング開始位置からセンサにセンシングを開始させることができる。これにより、対象物が基準位置から誤差の分だけずれていても、センサのセンシング開始位置もその誤差に合わせてずらすことが可能となるため、センシング作業の効率を高めることができる。また、三次元の画像データを撮影できればよいため、高価な3Dカメラを用いる必要もない。 According to this aspect, the three-dimensional object point cloud data corresponding to the object detected from the three-dimensional image data including the object and the reference point cloud data are compared to determine the deviation from the reference position. A representative error can be calculated and the sensor can start sensing from a sensing start position corresponding to the error. As a result, even if the object is deviated from the reference position by the amount of the error, the sensing start position of the sensor can also be shifted according to the error, so that the efficiency of the sensing work can be improved. In addition, it is not necessary to use an expensive 3D camera because it is sufficient to capture three-dimensional image data.

上記態様において、誤差算出部は、対象物点群データと基準点群データとの間の距離に基づいて、誤差を算出してもよい。 In the above aspect, the error calculator may calculate the error based on the distance between the object point cloud data and the reference point cloud data.

この態様によれば、対象物点群データが基準点群データから離れている距離を誤差としてセンサの開始位置を制御することが可能となる。 According to this aspect, it is possible to control the starting position of the sensor using the distance by which the object point cloud data is separated from the reference point cloud data as an error.

上記態様において、誤差算出部は、対象物点群データに含まれる各点と基準点群データに対応する近似平面との間の距離をそれぞれ算出し、当該算出した距離の平均値を、誤差として算出してもよい。 In the above aspect, the error calculation unit calculates the distance between each point included in the object point cloud data and the approximate plane corresponding to the reference point cloud data, and uses the average value of the calculated distances as the error. can be calculated.

この態様によれば、誤差を算出する際の計算量を低減させることが可能になる。 According to this aspect, it is possible to reduce the amount of calculation when calculating the error.

上記態様において、誤差算出部は、対象物点群データと基準点群データとにおいて対応する位置関係にある点同士の距離を算出し、当該算出した距離の平均値を、誤差として算出してもよい。 In the above aspect, the error calculation unit may calculate the distance between points having a corresponding positional relationship in the object point cloud data and the reference point cloud data, and calculate the average value of the calculated distances as the error. good.

この態様によれば、誤差の算出精度を高めることが可能になる。 According to this aspect, it is possible to improve the calculation accuracy of the error.

上記態様において、センシング開始位置は、センシング開始位置から対象物に向かってセンサが誤差に対応する距離を移動した場合であっても、センサを含む産業用ロボットが対象物に干渉しないことを基準にして設定されてもよい。 In the above aspect, the sensing start position is based on the fact that the industrial robot including the sensor does not interfere with the object even if the sensor moves a distance corresponding to the error from the sensing start position toward the object. may be set as

この態様によれば、対象物が基準位置から誤差の分だけずれていても、センシング開始位置をその誤差に合わせてずらすことができるため、センサが誤差に対応する距離を移動したとしても、対象物に干渉することなく移動することが可能となる。 According to this aspect, even if the object deviates from the reference position by the amount of the error, the sensing start position can be shifted according to the error. It is possible to move without interfering with objects.

本発明によれば、コストを抑えつつタクトタイムを短縮することができるロボット制御装置を提供することができる。 ADVANTAGE OF THE INVENTION According to this invention, the robot control apparatus which can shorten a tact time while holding down cost can be provided.

実施形態に係るロボット制御装置を含むロボットシステムの構成を例示する図である。It is a figure which illustrates the structure of the robot system containing the robot control apparatus which concerns on embodiment. ロボット制御装置の機能的な構成を例示する図である。It is a figure which illustrates the functional structure of a robot control apparatus. レーザセンサの視野範囲を説明するための模式図である。FIG. 4 is a schematic diagram for explaining a visual field range of a laser sensor; 誤差とセンシング開始位置との対応関係の一例を説明するための図である。FIG. 5 is a diagram for explaining an example of a correspondence relationship between an error and a sensing start position; 誤差に基づいて設定するセンシング開始位置を説明するための模式図である。FIG. 5 is a schematic diagram for explaining a sensing start position set based on an error; 誤差に基づいて設定するセンシング開始位置を説明するための模式図である。FIG. 5 is a schematic diagram for explaining a sensing start position set based on an error; 誤差に基づいて設定するセンシング開始位置を説明するための模式図である。FIG. 5 is a schematic diagram for explaining a sensing start position set based on an error;

添付図面を参照して、本発明の好適な実施形態について説明する。なお、各図において、同一の符号を付したものは、同一又は同様の構成を有する。また、図面は模式的なものであるため、各構成要素の寸法や比率は実際のものとは相違する。 Preferred embodiments of the present invention will be described with reference to the accompanying drawings. It should be noted that, in each figure, the same reference numerals have the same or similar configurations. Also, since the drawings are schematic, the dimensions and proportions of each component are different from the actual ones.

図1は、実施形態に係るロボット制御装置1を含むロボットシステム100の構成を例示する図である。ロボットシステム100は、例えば、ロボット制御装置1と、マニピュレータ2と、レーザセンサ3と、撮影端末4と、を備える。各装置は、例えば、通信ケーブル等の有線や無線を含むネットワークを介して接続可能である。なお、ロボットシステム100に、ティーチングペンダントを含めてもよい。ティーチングペンダントは、作業者がマニピュレータ2の動作を教示する操作端末である。 FIG. 1 is a diagram illustrating the configuration of a robot system 100 including a robot control device 1 according to an embodiment. The robot system 100 includes, for example, a robot control device 1, a manipulator 2, a laser sensor 3, and an imaging terminal 4. Each device can be connected, for example, via a wired or wireless network such as a communication cable. Note that the robot system 100 may include a teaching pendant. A teaching pendant is an operation terminal for an operator to teach the operation of the manipulator 2 .

マニピュレータ2は、ロボット制御装置1において設定される施工条件に従ってアーク溶接を行う溶接ロボットである。マニピュレータ2は、例えば、工場の床面等に固定されるベース部材上に設けられる多関節アーム21と、多関節アーム21の先端に連結される溶接トーチ22とを有する。 The manipulator 2 is a welding robot that performs arc welding according to construction conditions set by the robot controller 1 . The manipulator 2 has, for example, an articulated arm 21 provided on a base member fixed to the floor of a factory or the like, and a welding torch 22 connected to the tip of the articulated arm 21 .

ロボット制御装置1は、マニピュレータ2の動作を制御する制御ユニットであり、例えば、制御部11、記憶部12、通信部13及び溶接電源部14を含む。 The robot control device 1 is a control unit that controls the operation of the manipulator 2, and includes, for example, a control section 11, a storage section 12, a communication section 13, and a welding power source section .

制御部11は、例えば、記憶部12に記憶されている作業プログラムをプロセッサが実行することで、マニピュレータ2及び溶接電源部14を制御する。通信部13は、ネットワークを介して接続される各装置との通信を制御する。 The control unit 11 controls the manipulator 2 and the welding power source unit 14 by causing the processor to execute a work program stored in the storage unit 12, for example. The communication unit 13 controls communication with each device connected via the network.

溶接電源部14は、例えば、溶接ワイヤの先端とワーク(対象物)Wとの間にアークを発生させるために、予め定められた溶接の施工条件に従って、溶接電流及び溶接電圧等をマニピュレータ2に供給する。溶接の施工条件には、例えば、溶接条件、溶接開始位置、溶接終了位置、溶接距離、溶接トーチの姿勢及び等のデータ項目が含まれる。溶接条件には、例えば、溶接電流、溶接電圧、溶接速度、ワイヤ送給速度及びワークの厚さ等のデータ項目が含まれる。溶接電源部14は、ロボット制御装置1と別個に備えることとしてもよい。 The welding power supply unit 14, for example, in order to generate an arc between the tip of the welding wire and the work (object) W, according to predetermined welding execution conditions, the welding current and welding voltage, etc. to the manipulator 2. supply. The welding execution conditions include, for example, data items such as welding conditions, welding start position, welding end position, welding distance, welding torch posture, and the like. Welding conditions include data items such as welding current, welding voltage, welding speed, wire feed speed, and work thickness. The welding power source section 14 may be provided separately from the robot control device 1 .

レーザセンサ3は、マニピュレータ2の多関節アーム21の先端部に取り付けられ、ワークWまでの距離を測定する。レーザセンサ3は、例えば、走査型のレーザセンサであり、レーザをワークWに向けて発光する発光部と、ワークWで反射したレーザを受光する受光部とを備える。発光部により発光されたレーザは、ワークWで乱反射され、受光部で受光される。受光部は、例えば、CCDセンサにより構成され、視野範囲におけるレーザセンサ3からワークWまでの距離を測定する。 The laser sensor 3 is attached to the tip of the articulated arm 21 of the manipulator 2 and measures the distance to the workpiece W. As shown in FIG. The laser sensor 3 is, for example, a scanning laser sensor, and includes a light-emitting portion that emits laser light toward the work W and a light-receiving portion that receives the laser beam reflected by the work W. A laser beam emitted by the light-emitting portion is diffusely reflected by the work W and received by the light-receiving portion. The light-receiving part is composed of, for example, a CCD sensor, and measures the distance from the laser sensor 3 to the workpiece W within the visual field range.

センサ制御部31は、レーザセンサ3を制御するとともに、レーザセンサ3の測定値を含む情報をロボット制御装置1に送信するコントローラである。センサ制御部31は、例えば、溶接トーチ22の目標位置(目標座標)を求める過程で測定される測距データ(距離情報)に基づいて、ワークWの断面形状等を含む開先情報を算出する。センサ制御部31は、目標位置及び開先情報をロボット制御装置1に送信する。なお、センサ制御部31の機能は、ロボット制御装置1の制御部11の機能に含めることとしてもよい。 The sensor control unit 31 is a controller that controls the laser sensor 3 and transmits information including measured values of the laser sensor 3 to the robot control device 1 . The sensor control unit 31 calculates groove information including the cross-sectional shape of the workpiece W, for example, based on distance measurement data (distance information) measured in the process of determining the target position (target coordinates) of the welding torch 22. . The sensor control unit 31 transmits the target position and groove information to the robot control device 1 . Note that the function of the sensor control unit 31 may be included in the function of the control unit 11 of the robot control device 1 .

撮影端末4は、例えば、3Dレーザスキャナ機能を有する3Dカメラであるが、3Dカメラ付きの可搬型端末であってもよい。可搬型端末には、例えば、タブレット端末、スマートフォン、携帯情報端末(PDA)、ノートPC(パーソナルコンピュータ)等の持ち運び可能な端末が含まれる。撮影端末4は、撮影対象となるワークWとの位置関係を固定するために、所定の位置、向き及び姿勢に固定して配置することが好ましい。 The photographing terminal 4 is, for example, a 3D camera having a 3D laser scanner function, but may be a portable terminal with a 3D camera. Portable terminals include, for example, portable terminals such as tablet terminals, smart phones, personal digital assistants (PDAs), and notebook PCs (personal computers). In order to fix the positional relationship with the workpiece W to be photographed, the photographing terminal 4 is preferably fixed at a predetermined position, orientation, and posture.

3Dレーザスキャナ機能を実現するために、例えば、LiDAR(Light Detection and Ranging)センサ、ミリ波センサ、超音波センサ等を装備することができる。 In order to implement the 3D laser scanner function, for example, a LiDAR (Light Detection and Ranging) sensor, a millimeter wave sensor, an ultrasonic sensor, etc. can be equipped.

撮影端末制御部41は、撮影端末4を制御するとともに、撮影端末4の撮影画像データを含む情報をロボット制御装置1に送信するコントローラである。撮影端末制御部41は、例えば、撮影端末4により撮影されたワークWを含む三次元の画像データをロボット制御装置1に送信する。なお、撮影端末制御部41の機能は、ロボット制御装置1の制御部11の機能に含めることとしてもよい。 The photographing terminal control unit 41 is a controller that controls the photographing terminal 4 and transmits information including photographed image data of the photographing terminal 4 to the robot control device 1 . The photographing terminal control unit 41 transmits, for example, three-dimensional image data including the work W photographed by the photographing terminal 4 to the robot control device 1 . Note that the functions of the imaging terminal control unit 41 may be included in the functions of the control unit 11 of the robot control device 1 .

図2は、本発明に係るロボット制御装置1の機能的な構成を例示する図である。ロボット制御装置1は、機能的な構成として、例えば、点群データ検出部111と、誤差算出部112と、センサ制御部113とを有する。 FIG. 2 is a diagram illustrating the functional configuration of the robot control device 1 according to the present invention. The robot control device 1 has, for example, a point cloud data detection unit 111, an error calculation unit 112, and a sensor control unit 113 as functional configurations.

点群データ検出部111は、撮影端末4により撮影されたワークWを含む三次元の画像データから、ワークWに対応する点群データを検出する。具体的に、点群データ検出部111は、三次元のカメラ座標系に基づいて、画像データに含まれるワークWに対応する三次元の座標データを検出し、この座標データをワーク点群データとする。三次元のカメラ座標系は、例えば、撮影端末4のレンズの中心を原点にして設定することができる。 The point cloud data detection unit 111 detects point cloud data corresponding to the work W from three-dimensional image data including the work W photographed by the photographing terminal 4 . Specifically, the point cloud data detection unit 111 detects three-dimensional coordinate data corresponding to the workpiece W included in the image data based on the three-dimensional camera coordinate system, and uses this coordinate data as workpiece point cloud data. do. A three-dimensional camera coordinate system can be set, for example, with the center of the lens of the photographing terminal 4 as the origin.

誤差算出部112は、点群データ検出部111により検出されたワーク点群データと、基準点群データとを比較して誤差を算出する。基準点群データは、基準となる位置、向き及び姿勢により配置された基準となるワークWに対応する点群データである。基準点群データは、基準となるワークWを用いて予め検出させ、記憶部12に記憶させておくことが好ましい。誤差の算出方法について、その一例を、以下(a)及び(b)に記載する。 The error calculator 112 compares the workpiece point cloud data detected by the point cloud data detector 111 and the reference point cloud data to calculate an error. The reference point cloud data is point cloud data corresponding to the reference work W arranged according to the reference position, orientation, and orientation. It is preferable that the reference point cloud data is detected in advance using the workpiece W as a reference and stored in the storage unit 12 . An example of the error calculation method will be described in (a) and (b) below.

(a)基準点群データに基づいて近似平面を作成し、その近似平面とワーク点群データに含まれる各点との間の距離をそれぞれ算出し、その算出した距離の平均値を、誤差として算出する。近似平面とワーク点群データの各点との間の距離は、各点から近似平面に下した垂線の長さとして求めることができ、近似平面の方程式とワーク点群データの各点の座標とを用いて算出することができる。この方法は、下記(b)の方法に比べ、誤差を算出する際の計算量を減らすことができる。 (a) Create an approximation plane based on the reference point cloud data, calculate the distance between the approximation plane and each point included in the workpiece point cloud data, and use the average value of the calculated distances as an error. calculate. The distance between the approximation plane and each point of the workpiece point cloud data can be obtained as the length of the perpendicular drawn from each point to the approximation plane. can be calculated using This method can reduce the amount of calculation when calculating the error compared to the method (b) below.

(b)ワーク点群データと基準点群データとにおいて対応する位置関係にある点同士の距離をそれぞれ算出し、その算出した距離の平均値を、誤差として算出する。この方法は、上記(a)の方法に比べて、計算量が増えるが、誤差の算出精度を高めることができる。 (b) Calculate the distances between points having corresponding positional relationships in the workpiece point cloud data and the reference point cloud data, and calculate the average value of the calculated distances as an error. Although this method requires more calculation than the above method (a), it can improve the accuracy of error calculation.

上記(a)及び(b)で距離の平均値を算出する際に、距離の絶対値を用いることが好ましい。これにより、点群データの各点にばらつきが生じていても、そのばらつきを相殺することが可能となるため、誤差の算出精度を高めることが可能となる。 When calculating the average value of the distances in (a) and (b) above, it is preferable to use the absolute value of the distances. As a result, even if there is variation in each point of the point cloud data, it is possible to cancel out the variation, so it is possible to improve the accuracy of error calculation.

なお、誤差の算出方法は、上記(a)及び(b)の方法に限られず、例えば、基準内の距離のうち、最大の距離を誤差として抽出してもよい。 The error calculation method is not limited to the above methods (a) and (b), and for example, the maximum distance among the distances within the reference may be extracted as the error.

センサ制御部113は、ワークWに対するセンシングをレーザセンサ3に開始させるときに、誤差算出部112により算出された誤差に対応するセンシング開始位置から開始させる。 When the sensor control unit 113 causes the laser sensor 3 to start sensing the workpiece W, the sensor control unit 113 causes the sensing start position corresponding to the error calculated by the error calculation unit 112 to start.

センシング開始位置は、その開始位置からワークWに向かってレーザセンサ3が誤差に対応する距離を移動した場合であっても、レーザセンサ3を含むマニピュレータ2がワークWに干渉(接触)しないことを基準にして設定することが好ましい。これにより、ワークWが基準位置から誤差の分だけずれていても、センシング開始位置をその誤差に合わせてずらすことができるため、レーザセンサ3が誤差に対応する距離を移動したとしても、ワークWに干渉することなく移動することが可能となる。 The sensing start position indicates that the manipulator 2 including the laser sensor 3 does not interfere (contact) the work W even when the laser sensor 3 moves from the start position toward the work W by a distance corresponding to the error. It is preferable to set it as a standard. As a result, even if the workpiece W deviates from the reference position by the amount corresponding to the error, the sensing start position can be shifted according to the error. It is possible to move without interfering with

誤差とセンシング開始位置との対応関係は、レーザセンサ3の視野範囲に応じて設定することになる。例えば、図3に示すように、レーザセンサ3の視野範囲Vが、40~60[mm]である場合について説明する。この場合、レーザセンサ3とワークWとの間の距離が、視野範囲Vである40~60[mm]の範囲におさまっているときに、レーザセンサ3がワークWを検出できるようになる。 The correspondence relationship between the error and the sensing start position is set according to the visual field range of the laser sensor 3 . For example, as shown in FIG. 3, the case where the visual field range V of the laser sensor 3 is 40 to 60 [mm] will be described. In this case, the laser sensor 3 can detect the workpiece W when the distance between the laser sensor 3 and the workpiece W is within the visual field range V of 40 to 60 [mm].

図4を参照して、レーザセンサ3の視野範囲Vが、40~60[mm]である場合に、設定可能な誤差とセンシング開始位置との対応関係について説明する。同図に示すように、例えば、(1)誤差算出部112により算出された誤差が、0~5[mm]である場合には、センシング開始位置を、ワークWから50[mm]離れた位置に設定し、(2)誤差が、5~10[mm]である場合には、センシング開始位置を、ワークWから60[mm]離れた位置に設定し、(3)誤差が、10~20[mm]である場合には、センシング開始位置を、ワークWから70[mm]離れた位置に設定することができる。(1)から(3)について、図5から図7を参照して説明する。 With reference to FIG. 4, the correspondence relationship between the settable error and the sensing start position when the visual field range V of the laser sensor 3 is 40 to 60 [mm] will be described. As shown in the figure, for example, (1) when the error calculated by the error calculator 112 is 0 to 5 [mm], the sensing start position is set to a position 50 [mm] away from the workpiece W. (2) If the error is 5 to 10 [mm], set the sensing start position to a position 60 [mm] away from the work W, (3) If the error is 10 to 20 [mm], the sensing start position can be set at a position 70 [mm] away from the workpiece W. (1) to (3) will be described with reference to FIGS. 5 to 7. FIG.

(1)誤差算出部112により算出された誤差が、0~5[mm]である場合
図5に示すように、レーザセンサ3のセンシング開始位置Sを、ワークWから50[mm]離れた位置に設定する。この場合、センシング開始位置Sに設定した50[mm]に対し、最大の誤差である5[mm]のずれが生じたとしても、実際のセンシング開始位置は、ワークWから45~55[mm]離れた位置におさまることになる。したがって、50[mm]に設定したセンシング開始位置Sからセンシングを開始すれば、最大の誤差である5[mm]のずれが生じても、レーザセンサ3の視野範囲Vである40~60[mm]の範囲内でワークWを検出することが可能となる。これにより、ワークWを検出できずに、レーザセンサ3を含むマニピュレータ2がワークWに干渉してしまうことを防止することが可能となる。
(1) When the error calculated by the error calculator 112 is 0 to 5 [mm] As shown in FIG. set to In this case, even if there is a deviation of 5 [mm], which is the maximum error, from the 50 [mm] set for the sensing start position S, the actual sensing start position is 45 to 55 [mm] from the workpiece W. You will be placed in a distant position. Therefore, if sensing is started from the sensing start position S set to 50 [mm], even if a deviation of 5 [mm], which is the maximum error, occurs, the visual field range V of the laser sensor 3 is 40 to 60 [mm]. ], the workpiece W can be detected. This makes it possible to prevent the manipulator 2 including the laser sensor 3 from interfering with the work W because the work W cannot be detected.

(2)誤差算出部112により算出された誤差が、5~10[mm]である場合
図6に示すように、レーザセンサ3のセンシング開始位置を、ワークWから60[mm]離れた位置に設定する。この場合、センシング開始位置Sに設定した60[mm]に対し、最大の誤差である10[mm]のずれが生じたとしても、実際のセンシング開始位置は、ワークWから50~70[mm]離れた位置におさまることになる。したがって、60[mm]に設定したセンシング開始位置Sからセンシングを開始させ、ワークWに近づく方向に移動させながらセンシングを繰り返すことで、レーザセンサ3の視野範囲Vである40~60[mm]の範囲内でワークWを検出することが可能となる。
(2) When the error calculated by the error calculator 112 is 5 to 10 [mm] As shown in FIG. set. In this case, even if there is a deviation of 10 [mm], which is the maximum error, from the set sensing start position S of 60 [mm], the actual sensing start position is 50 to 70 [mm] from the workpiece W. You will be placed in a distant position. Therefore, by starting sensing from the sensing start position S set to 60 [mm] and repeating sensing while moving in a direction approaching the work W, the visual field range V of the laser sensor 3, 40 to 60 [mm], is obtained. It becomes possible to detect the workpiece W within the range.

(3)誤差算出部112により算出された誤差が、10~20[mm]である場合
図7に示すように、センシング開始位置を、ワークWから70[mm]離れた位置に設定する。この場合、センシング開始位置Sに設定した70[mm]に対し、最大の誤差である20[mm]のずれが生じたとしても、実際のセンシング開始位置は、ワークWから50~90[mm]離れた位置におさまることになる。したがって、70[mm]に設定したセンシング開始位置Sからセンシングを開始させ、ワークWに近づく方向に移動させながらセンシングを繰り返すことで、レーザセンサ3の視野範囲Vである40~60[mm]の範囲内でワークWを検出することが可能となる。
(3) When the error calculated by the error calculator 112 is 10 to 20 [mm] As shown in FIG. In this case, even if there is a deviation of 20 [mm], which is the maximum error, from the set sensing start position S of 70 [mm], the actual sensing start position is 50 to 90 [mm] from the workpiece W. You will be placed in a distant position. Therefore, by starting sensing from the sensing start position S set to 70 [mm] and repeating sensing while moving in a direction approaching the work W, the visual field range V of the laser sensor 3, 40 to 60 [mm], is obtained. It becomes possible to detect the workpiece W within the range.

誤差算出部112により算出された誤差が20[mm]を超える範囲でも、上記(1)から(3)と同様に、最大誤差のずれが生じたときであっても、実際のセンシング開始位置の最小値が、視野範囲Vにおさまるように、センシング開始位置Sを設定すればよい。これにより、ワークWを検出できずに、レーザセンサ3を含むマニピュレータ2がワークWに干渉してしまうことを防止することが可能となる。 Even when the error calculated by the error calculating unit 112 exceeds 20 [mm], as in (1) to (3) above, even when the deviation of the maximum error occurs, the actual sensing start position The sensing start position S may be set such that the minimum value falls within the visual field range V. FIG. This makes it possible to prevent the manipulator 2 including the laser sensor 3 from interfering with the work W because the work W cannot be detected.

図2の説明に戻る。センサ制御部113は、ワークWに近づく方向にレーザセンサ3を移動させながらセンシングさせ、ワークWが検出された場合に、レーザセンサ3の移動を停止させる。これにより、センシングの目的が達成した場合に、レーザセンサ3を止めることができるため、ワークWへの干渉を確実に回避させることが可能になる。 Returning to the description of FIG. The sensor control unit 113 performs sensing while moving the laser sensor 3 in a direction approaching the work W, and stops the movement of the laser sensor 3 when the work W is detected. As a result, the laser sensor 3 can be stopped when the purpose of sensing is achieved, so interference with the workpiece W can be reliably avoided.

センサ制御部113は、レーザセンサ3がセンシング開始位置からワークWに向かって所定の距離を移動した場合に、レーザセンサ3の移動を停止させ、ワークWが検出できなかったことを示すエラーメッセージを出力する。エラーメッセージの出力先は、例えば、ディスプレイ等の表示装置であってもよいし、スピーカ等の拡声装置であってもよい。 When the laser sensor 3 moves a predetermined distance from the sensing start position toward the work W, the sensor control unit 113 stops the movement of the laser sensor 3 and displays an error message indicating that the work W could not be detected. Output. The output destination of the error message may be, for example, a display device such as a display, or a loudspeaker device such as a speaker.

所定の距離は、例えば、誤差、センシング開始位置S及び視野範囲Vを勘案し、レーザセンサ3が視野範囲V内を移動することができ、かつ、レーザセンサ3を含むマニピュレータ2がワークWに干渉することがない範囲に設定することが好ましい。これにより、仮にセンシングを正常に行えない状況になったとしても、レーザセンサ3が所定の距離を移動したときに、レーザセンサ3を止めることができるため、ワークWへの干渉を確実に回避させることが可能になる。 The predetermined distance is determined, for example, by taking into account the error, the sensing start position S, and the visual field range V. It is preferable to set it within a range in which it does not occur. As a result, even if sensing cannot be performed normally, the laser sensor 3 can be stopped when the laser sensor 3 moves a predetermined distance, so that interference with the workpiece W can be reliably avoided. becomes possible.

上述したように、実施形態に係るロボット制御装置1によれば、ワークWを含む三次元の画像データから検出されたワークWに対応する三次元のワーク点群データと、基準点群データとを比較して、基準位置からのずれを表す誤差を算出し、その誤差に対応するセンシング開始位置Sからレーザセンサ3にセンシングを開始させることができる。これにより、ワークWが基準位置から誤差の分だけずれていても、レーザセンサ3のセンシング開始位置Sもその誤差に合わせてずらすことが可能となるため、センシング作業の効率を高めることができる。また、撮影端末4は、三次元の画像データを撮影できるカメラであればよいため、高価な3Dカメラを用いる必要もない。 As described above, according to the robot control device 1 according to the embodiment, the three-dimensional workpiece point cloud data corresponding to the workpiece W detected from the three-dimensional image data including the workpiece W and the reference point cloud data are generated. By comparison, an error representing the deviation from the reference position is calculated, and the laser sensor 3 can start sensing from the sensing start position S corresponding to the error. As a result, even if the workpiece W is displaced from the reference position by the amount of the error, the sensing start position S of the laser sensor 3 can also be displaced according to the error, thereby improving the efficiency of the sensing work. Moreover, since the photographing terminal 4 may be a camera capable of photographing three-dimensional image data, there is no need to use an expensive 3D camera.

それゆえ、実施形態に係るロボット制御装置1によれば、コストを抑えつつタクトタイムを短縮することが可能となる。 Therefore, according to the robot control device 1 according to the embodiment, it is possible to shorten the tact time while suppressing the cost.

[変形例]
なお、本発明は、上述した実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内において、他の様々な形で実施することができる。このため、上記実施形態はあらゆる点で単なる例示にすぎず、限定的に解釈されるものではない。
[Modification]
It should be noted that the present invention is not limited to the above-described embodiments, and can be implemented in various other forms without departing from the gist of the present invention. Therefore, the above-described embodiment is merely an example in all respects, and should not be construed as limiting.

例えば、上述した実施形態では、撮影端末4を所定の位置、向き及び姿勢に固定して配置しているが、作業者が撮影端末4を所持し、任意の位置からワークWを撮影してもよい。この場合、撮影する位置に対応付けて基準点群データを予め記憶させておくことが好ましい。 For example, in the above-described embodiment, the photographing terminal 4 is fixed at a predetermined position, orientation, and posture. good. In this case, it is preferable to store the reference point cloud data in advance in association with the photographing position.

また、上述した実施形態では、本発明を溶接ロボットに適用する場合について説明したが、これに限定されない。例えば、ピッキング等を行うハンドリングロボットを含む産業用ロボットに本発明を適用することができる。 Moreover, in the above-described embodiment, the case where the present invention is applied to a welding robot has been described, but the present invention is not limited to this. For example, the present invention can be applied to industrial robots including handling robots that perform picking and the like.

さらに、上述した実施形態では、レーザセンサを用いて説明しているが、レーザセンサ以外のセンサにも、本発明を適用することができる。例えば、タッチセンサを用いてもよい。タッチセンサを用いた場合でも、誤差に応じてタッチセンサのセンシング開始位置を変更させることができる。 Furthermore, in the above-described embodiments, the laser sensor is used for explanation, but the present invention can also be applied to sensors other than the laser sensor. For example, a touch sensor may be used. Even when a touch sensor is used, the sensing start position of the touch sensor can be changed according to the error.

1…ロボット制御装置、2…マニピュレータ、3…レーザセンサ、4…撮影端末、11…制御部、12…記憶部、13…通信部、14…溶接電源部、21…多関節アーム、22…溶接トーチ、31…センサ制御部、41…撮影端末制御部、100…ロボットシステム、111…点群データ検出部、112…誤差算出部、113…センサ制御部、S…センシング開始位置、V…視野範囲、W…ワーク DESCRIPTION OF SYMBOLS 1... Robot control apparatus, 2... Manipulator, 3... Laser sensor, 4... Imaging terminal, 11... Control part, 12... Storage part, 13... Communication part, 14... Welding power supply part, 21... Articulated arm, 22... Welding Torch 31 Sensor control unit 41 Shooting terminal control unit 100 Robot system 111 Point cloud data detection unit 112 Error calculation unit 113 Sensor control unit S Sensing start position V Visual field range , W... work

Claims (5)

産業用ロボットが作業する対象物を含む三次元の画像データから、前記対象物に対応する三次元の座標データを対象物点群データとして検出する点群データ検出部と、
検出された前記対象物点群データと予め記憶された基準となる基準点群データとを比較して誤差を算出する誤差算出部と、
算出された前記誤差に対応するセンシング開始位置から前記対象物に近づく方向にセンサにセンシングを開始させるセンサ制御部と、
を備えるロボット制御装置。
a point cloud data detection unit that detects, as object point cloud data, three-dimensional coordinate data corresponding to the object from three-dimensional image data including the object that the industrial robot is working on;
an error calculation unit that compares the detected object point cloud data with reference point cloud data that is stored in advance and calculates an error;
a sensor control unit that causes the sensor to start sensing in a direction approaching the object from a sensing start position corresponding to the calculated error;
A robot controller comprising:
前記誤差算出部は、前記対象物点群データと前記基準点群データとの間の距離に基づいて、前記誤差を算出する、
請求項1記載のロボット制御装置。
The error calculation unit calculates the error based on the distance between the object point cloud data and the reference point cloud data.
The robot controller according to claim 1.
前記誤差算出部は、前記対象物点群データに含まれる各点と前記基準点群データに対応する近似平面との間の距離をそれぞれ算出し、当該算出した距離の平均値を、前記誤差として算出する、
請求項2記載のロボット制御装置。
The error calculation unit calculates a distance between each point included in the object point cloud data and an approximate plane corresponding to the reference point cloud data, and uses an average value of the calculated distances as the error. calculate,
3. The robot controller according to claim 2.
前記誤差算出部は、前記対象物点群データと前記基準点群データとにおいて対応する位置関係にある点同士の距離を算出し、当該算出した距離の平均値を、前記誤差として算出する、
請求項2記載のロボット制御装置。
The error calculation unit calculates a distance between points having a corresponding positional relationship in the object point cloud data and the reference point cloud data, and calculates an average value of the calculated distances as the error.
3. The robot controller according to claim 2.
前記センシング開始位置は、前記センシング開始位置から前記対象物に向かって前記センサが前記誤差に対応する距離を移動した場合であっても、前記センサを含む前記産業用ロボットが前記対象物に干渉しないことを基準にして設定される、
請求項1から4のいずれか一項に記載のロボット制御装置。
The sensing start position is such that the industrial robot including the sensor does not interfere with the object even when the sensor moves a distance corresponding to the error from the sensing start position toward the object. is set on the basis of
The robot controller according to any one of claims 1 to 4.
JP2022009527A 2022-01-25 2022-01-25 Robot control device Pending JP2023108410A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022009527A JP2023108410A (en) 2022-01-25 2022-01-25 Robot control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022009527A JP2023108410A (en) 2022-01-25 2022-01-25 Robot control device

Publications (1)

Publication Number Publication Date
JP2023108410A true JP2023108410A (en) 2023-08-04

Family

ID=87475279

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022009527A Pending JP2023108410A (en) 2022-01-25 2022-01-25 Robot control device

Country Status (1)

Country Link
JP (1) JP2023108410A (en)

Similar Documents

Publication Publication Date Title
CN107186714B (en) A kind of accurate positioning method, positioning system and robot device
US20180161985A1 (en) Control device, robot, and robot system
CN110621447B (en) Robot conveyor calibration method, robot system and control system
CN114714029B (en) Automatic arc welding method and device for aluminum alloy
JP2020028957A (en) Interference avoidance device and robot system
US11247288B2 (en) Welding position detection device, welding position detection method, and welding robot system
US11543240B2 (en) Six DOF measurement aid module for determining 3D coordinates of points to be measured of an object surface
US20210107160A1 (en) Robot, measurement fixture, and tool-tip-position determining method
JP2023108410A (en) Robot control device
US20210146551A1 (en) Measurement system and method for positioning accuracy of a robotic arm
JP2023047279A (en) Weld line detection system
CN116079750A (en) Robot teaching system
CN109641349B (en) Calibration system and calibration method for robot, robot system, and storage medium
TWI806761B (en) Mark detection device and robot teaching system
US20230098696A1 (en) Work Program Production System and Work Program Production Method
TWI822314B (en) Welding line detection system
JP2023069274A (en) Coordinate system conversion system and coordinate system conversion method
JP7201764B1 (en) Welding program creation system and welding program creation method
JP7195476B1 (en) WORK PROGRAM CREATION SYSTEM AND WORK PROGRAM CREATION METHOD
JP7433501B1 (en) Interference determination device
WO2022009645A1 (en) Information processing device and information processing method
TW202319196A (en) Mark detection device and robot teaching system
JP2023087928A (en) Welding position detection device and robot teaching system
JP2009008533A (en) Optical measuring system
JPH07111714A (en) Insulator coupler