JP2023108410A - Robot control device - Google Patents
Robot control device Download PDFInfo
- Publication number
- JP2023108410A JP2023108410A JP2022009527A JP2022009527A JP2023108410A JP 2023108410 A JP2023108410 A JP 2023108410A JP 2022009527 A JP2022009527 A JP 2022009527A JP 2022009527 A JP2022009527 A JP 2022009527A JP 2023108410 A JP2023108410 A JP 2023108410A
- Authority
- JP
- Japan
- Prior art keywords
- error
- point cloud
- cloud data
- workpiece
- sensor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000004364 calculation method Methods 0.000 claims abstract description 19
- 238000001514 detection method Methods 0.000 claims abstract description 9
- 238000003466 welding Methods 0.000 description 25
- 238000000034 method Methods 0.000 description 13
- 230000000007 visual effect Effects 0.000 description 12
- 238000010586 diagram Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 5
- 230000002452 interceptive effect Effects 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 3
- 238000010276 construction Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000003754 machining Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
Images
Abstract
Description
本発明は、ロボット制御装置に関する。 The present invention relates to a robot controller.
産業用ロボットにより作業を行う場合、対象物の設置誤差やロボットの加工誤差により生ずる狙いずれを防止するために、対象物の位置を測定して正しい位置に補正することが行われている。対象物の位置を測定する方法には、例えば、2Dカメラとレーザセンサを用いて測定する方法や、3Dカメラを用いて測定する方法がある。下記特許文献1には、2次元のCCDカメラとレーザセンサを用いて対象物の位置や姿勢を測定する方法が開示され、下記特許文献2には、3次元測定器で測定した3次元データを用いて対象物の位置を測定する方法が開示されている。
2. Description of the Related Art When an industrial robot performs work, the position of an object is measured and corrected to the correct position in order to prevent misalignment of the target caused by an installation error of the object or a machining error of the robot. Methods for measuring the position of an object include, for example, a method using a 2D camera and a laser sensor and a method using a 3D camera.
ところで、2Dカメラとレーザセンサを用いる方法には、2Dカメラでは対象物までの距離が正確に測定できないという問題と、レーザセンサでは対象物を検出できる範囲が狭いという問題がある。そして、3Dカメラを用いる方法には、検出精度が高い3Dカメラは高価であり、コストが嵩むという問題がある。これらの問題を回避するために、2Dカメラとレーザセンサを用いる場合に、レーザセンサが対象物に干渉しないように離れた位置から手探りでセンシングしていくこともできるが、タクトタイムが長くなってしまう。また、3Dカメラを用いる場合に、コストを抑えるために安価な三次元カメラを用いることもできるが、検出精度が低くなり、レーザセンサが対象物に干渉する可能性が高くなる。 By the way, the method using a 2D camera and a laser sensor has the problem that the 2D camera cannot accurately measure the distance to the object, and the laser sensor has a narrow range in which the object can be detected. The method using a 3D camera has a problem that a 3D camera with high detection accuracy is expensive and the cost increases. In order to avoid these problems, when using a 2D camera and laser sensor, it is possible to grope for sensing from a distant position so that the laser sensor does not interfere with the target object, but this increases the takt time. put away. Also, when using a 3D camera, an inexpensive three-dimensional camera can be used in order to keep costs down.
そこで、本発明は、コストを抑えつつタクトタイムを短縮することができるロボット制御装置を提供することを目的とする。 SUMMARY OF THE INVENTION Accordingly, it is an object of the present invention to provide a robot controller capable of reducing the tact time while suppressing the cost.
本発明の一態様に係るロボット制御装置は、産業用ロボットが作業する対象物を含む三次元の画像データから、対象物に対応する三次元の座標データを対象物点群データとして検出する点群データ検出部と、検出された対象物点群データと予め記憶された基準となる基準点群データとを比較して誤差を算出する誤差算出部と、算出された誤差に対応するセンシング開始位置から対象物に近づく方向にセンサにセンシングを開始させるセンサ制御部と、を備える。 A robot control device according to an aspect of the present invention detects, as target object point cloud data, three-dimensional coordinate data corresponding to an object from three-dimensional image data including an object to be worked by an industrial robot. A data detection unit, an error calculation unit that compares the detected object point cloud data with reference point cloud data that is stored in advance to calculate an error, and a sensing start position corresponding to the calculated error. a sensor control unit that causes the sensor to start sensing in a direction approaching the object.
この態様によれば、対象物を含む三次元の画像データから検出された対象物に対応する三次元の対象物点群データと、基準点群データとを比較して、基準位置からのずれを表す誤差を算出し、その誤差に対応するセンシング開始位置からセンサにセンシングを開始させることができる。これにより、対象物が基準位置から誤差の分だけずれていても、センサのセンシング開始位置もその誤差に合わせてずらすことが可能となるため、センシング作業の効率を高めることができる。また、三次元の画像データを撮影できればよいため、高価な3Dカメラを用いる必要もない。 According to this aspect, the three-dimensional object point cloud data corresponding to the object detected from the three-dimensional image data including the object and the reference point cloud data are compared to determine the deviation from the reference position. A representative error can be calculated and the sensor can start sensing from a sensing start position corresponding to the error. As a result, even if the object is deviated from the reference position by the amount of the error, the sensing start position of the sensor can also be shifted according to the error, so that the efficiency of the sensing work can be improved. In addition, it is not necessary to use an expensive 3D camera because it is sufficient to capture three-dimensional image data.
上記態様において、誤差算出部は、対象物点群データと基準点群データとの間の距離に基づいて、誤差を算出してもよい。 In the above aspect, the error calculator may calculate the error based on the distance between the object point cloud data and the reference point cloud data.
この態様によれば、対象物点群データが基準点群データから離れている距離を誤差としてセンサの開始位置を制御することが可能となる。 According to this aspect, it is possible to control the starting position of the sensor using the distance by which the object point cloud data is separated from the reference point cloud data as an error.
上記態様において、誤差算出部は、対象物点群データに含まれる各点と基準点群データに対応する近似平面との間の距離をそれぞれ算出し、当該算出した距離の平均値を、誤差として算出してもよい。 In the above aspect, the error calculation unit calculates the distance between each point included in the object point cloud data and the approximate plane corresponding to the reference point cloud data, and uses the average value of the calculated distances as the error. can be calculated.
この態様によれば、誤差を算出する際の計算量を低減させることが可能になる。 According to this aspect, it is possible to reduce the amount of calculation when calculating the error.
上記態様において、誤差算出部は、対象物点群データと基準点群データとにおいて対応する位置関係にある点同士の距離を算出し、当該算出した距離の平均値を、誤差として算出してもよい。 In the above aspect, the error calculation unit may calculate the distance between points having a corresponding positional relationship in the object point cloud data and the reference point cloud data, and calculate the average value of the calculated distances as the error. good.
この態様によれば、誤差の算出精度を高めることが可能になる。 According to this aspect, it is possible to improve the calculation accuracy of the error.
上記態様において、センシング開始位置は、センシング開始位置から対象物に向かってセンサが誤差に対応する距離を移動した場合であっても、センサを含む産業用ロボットが対象物に干渉しないことを基準にして設定されてもよい。 In the above aspect, the sensing start position is based on the fact that the industrial robot including the sensor does not interfere with the object even if the sensor moves a distance corresponding to the error from the sensing start position toward the object. may be set as
この態様によれば、対象物が基準位置から誤差の分だけずれていても、センシング開始位置をその誤差に合わせてずらすことができるため、センサが誤差に対応する距離を移動したとしても、対象物に干渉することなく移動することが可能となる。 According to this aspect, even if the object deviates from the reference position by the amount of the error, the sensing start position can be shifted according to the error. It is possible to move without interfering with objects.
本発明によれば、コストを抑えつつタクトタイムを短縮することができるロボット制御装置を提供することができる。 ADVANTAGE OF THE INVENTION According to this invention, the robot control apparatus which can shorten a tact time while holding down cost can be provided.
添付図面を参照して、本発明の好適な実施形態について説明する。なお、各図において、同一の符号を付したものは、同一又は同様の構成を有する。また、図面は模式的なものであるため、各構成要素の寸法や比率は実際のものとは相違する。 Preferred embodiments of the present invention will be described with reference to the accompanying drawings. It should be noted that, in each figure, the same reference numerals have the same or similar configurations. Also, since the drawings are schematic, the dimensions and proportions of each component are different from the actual ones.
図1は、実施形態に係るロボット制御装置1を含むロボットシステム100の構成を例示する図である。ロボットシステム100は、例えば、ロボット制御装置1と、マニピュレータ2と、レーザセンサ3と、撮影端末4と、を備える。各装置は、例えば、通信ケーブル等の有線や無線を含むネットワークを介して接続可能である。なお、ロボットシステム100に、ティーチングペンダントを含めてもよい。ティーチングペンダントは、作業者がマニピュレータ2の動作を教示する操作端末である。
FIG. 1 is a diagram illustrating the configuration of a robot system 100 including a
マニピュレータ2は、ロボット制御装置1において設定される施工条件に従ってアーク溶接を行う溶接ロボットである。マニピュレータ2は、例えば、工場の床面等に固定されるベース部材上に設けられる多関節アーム21と、多関節アーム21の先端に連結される溶接トーチ22とを有する。
The manipulator 2 is a welding robot that performs arc welding according to construction conditions set by the
ロボット制御装置1は、マニピュレータ2の動作を制御する制御ユニットであり、例えば、制御部11、記憶部12、通信部13及び溶接電源部14を含む。
The
制御部11は、例えば、記憶部12に記憶されている作業プログラムをプロセッサが実行することで、マニピュレータ2及び溶接電源部14を制御する。通信部13は、ネットワークを介して接続される各装置との通信を制御する。
The control unit 11 controls the manipulator 2 and the welding power source unit 14 by causing the processor to execute a work program stored in the storage unit 12, for example. The
溶接電源部14は、例えば、溶接ワイヤの先端とワーク(対象物)Wとの間にアークを発生させるために、予め定められた溶接の施工条件に従って、溶接電流及び溶接電圧等をマニピュレータ2に供給する。溶接の施工条件には、例えば、溶接条件、溶接開始位置、溶接終了位置、溶接距離、溶接トーチの姿勢及び等のデータ項目が含まれる。溶接条件には、例えば、溶接電流、溶接電圧、溶接速度、ワイヤ送給速度及びワークの厚さ等のデータ項目が含まれる。溶接電源部14は、ロボット制御装置1と別個に備えることとしてもよい。
The welding power supply unit 14, for example, in order to generate an arc between the tip of the welding wire and the work (object) W, according to predetermined welding execution conditions, the welding current and welding voltage, etc. to the manipulator 2. supply. The welding execution conditions include, for example, data items such as welding conditions, welding start position, welding end position, welding distance, welding torch posture, and the like. Welding conditions include data items such as welding current, welding voltage, welding speed, wire feed speed, and work thickness. The welding power source section 14 may be provided separately from the
レーザセンサ3は、マニピュレータ2の多関節アーム21の先端部に取り付けられ、ワークWまでの距離を測定する。レーザセンサ3は、例えば、走査型のレーザセンサであり、レーザをワークWに向けて発光する発光部と、ワークWで反射したレーザを受光する受光部とを備える。発光部により発光されたレーザは、ワークWで乱反射され、受光部で受光される。受光部は、例えば、CCDセンサにより構成され、視野範囲におけるレーザセンサ3からワークWまでの距離を測定する。 The laser sensor 3 is attached to the tip of the articulated arm 21 of the manipulator 2 and measures the distance to the workpiece W. As shown in FIG. The laser sensor 3 is, for example, a scanning laser sensor, and includes a light-emitting portion that emits laser light toward the work W and a light-receiving portion that receives the laser beam reflected by the work W. A laser beam emitted by the light-emitting portion is diffusely reflected by the work W and received by the light-receiving portion. The light-receiving part is composed of, for example, a CCD sensor, and measures the distance from the laser sensor 3 to the workpiece W within the visual field range.
センサ制御部31は、レーザセンサ3を制御するとともに、レーザセンサ3の測定値を含む情報をロボット制御装置1に送信するコントローラである。センサ制御部31は、例えば、溶接トーチ22の目標位置(目標座標)を求める過程で測定される測距データ(距離情報)に基づいて、ワークWの断面形状等を含む開先情報を算出する。センサ制御部31は、目標位置及び開先情報をロボット制御装置1に送信する。なお、センサ制御部31の機能は、ロボット制御装置1の制御部11の機能に含めることとしてもよい。
The sensor control unit 31 is a controller that controls the laser sensor 3 and transmits information including measured values of the laser sensor 3 to the
撮影端末4は、例えば、3Dレーザスキャナ機能を有する3Dカメラであるが、3Dカメラ付きの可搬型端末であってもよい。可搬型端末には、例えば、タブレット端末、スマートフォン、携帯情報端末(PDA)、ノートPC(パーソナルコンピュータ)等の持ち運び可能な端末が含まれる。撮影端末4は、撮影対象となるワークWとの位置関係を固定するために、所定の位置、向き及び姿勢に固定して配置することが好ましい。 The photographing terminal 4 is, for example, a 3D camera having a 3D laser scanner function, but may be a portable terminal with a 3D camera. Portable terminals include, for example, portable terminals such as tablet terminals, smart phones, personal digital assistants (PDAs), and notebook PCs (personal computers). In order to fix the positional relationship with the workpiece W to be photographed, the photographing terminal 4 is preferably fixed at a predetermined position, orientation, and posture.
3Dレーザスキャナ機能を実現するために、例えば、LiDAR(Light Detection and Ranging)センサ、ミリ波センサ、超音波センサ等を装備することができる。 In order to implement the 3D laser scanner function, for example, a LiDAR (Light Detection and Ranging) sensor, a millimeter wave sensor, an ultrasonic sensor, etc. can be equipped.
撮影端末制御部41は、撮影端末4を制御するとともに、撮影端末4の撮影画像データを含む情報をロボット制御装置1に送信するコントローラである。撮影端末制御部41は、例えば、撮影端末4により撮影されたワークWを含む三次元の画像データをロボット制御装置1に送信する。なお、撮影端末制御部41の機能は、ロボット制御装置1の制御部11の機能に含めることとしてもよい。
The photographing terminal control unit 41 is a controller that controls the photographing terminal 4 and transmits information including photographed image data of the photographing terminal 4 to the
図2は、本発明に係るロボット制御装置1の機能的な構成を例示する図である。ロボット制御装置1は、機能的な構成として、例えば、点群データ検出部111と、誤差算出部112と、センサ制御部113とを有する。
FIG. 2 is a diagram illustrating the functional configuration of the
点群データ検出部111は、撮影端末4により撮影されたワークWを含む三次元の画像データから、ワークWに対応する点群データを検出する。具体的に、点群データ検出部111は、三次元のカメラ座標系に基づいて、画像データに含まれるワークWに対応する三次元の座標データを検出し、この座標データをワーク点群データとする。三次元のカメラ座標系は、例えば、撮影端末4のレンズの中心を原点にして設定することができる。
The point cloud
誤差算出部112は、点群データ検出部111により検出されたワーク点群データと、基準点群データとを比較して誤差を算出する。基準点群データは、基準となる位置、向き及び姿勢により配置された基準となるワークWに対応する点群データである。基準点群データは、基準となるワークWを用いて予め検出させ、記憶部12に記憶させておくことが好ましい。誤差の算出方法について、その一例を、以下(a)及び(b)に記載する。
The
(a)基準点群データに基づいて近似平面を作成し、その近似平面とワーク点群データに含まれる各点との間の距離をそれぞれ算出し、その算出した距離の平均値を、誤差として算出する。近似平面とワーク点群データの各点との間の距離は、各点から近似平面に下した垂線の長さとして求めることができ、近似平面の方程式とワーク点群データの各点の座標とを用いて算出することができる。この方法は、下記(b)の方法に比べ、誤差を算出する際の計算量を減らすことができる。 (a) Create an approximation plane based on the reference point cloud data, calculate the distance between the approximation plane and each point included in the workpiece point cloud data, and use the average value of the calculated distances as an error. calculate. The distance between the approximation plane and each point of the workpiece point cloud data can be obtained as the length of the perpendicular drawn from each point to the approximation plane. can be calculated using This method can reduce the amount of calculation when calculating the error compared to the method (b) below.
(b)ワーク点群データと基準点群データとにおいて対応する位置関係にある点同士の距離をそれぞれ算出し、その算出した距離の平均値を、誤差として算出する。この方法は、上記(a)の方法に比べて、計算量が増えるが、誤差の算出精度を高めることができる。 (b) Calculate the distances between points having corresponding positional relationships in the workpiece point cloud data and the reference point cloud data, and calculate the average value of the calculated distances as an error. Although this method requires more calculation than the above method (a), it can improve the accuracy of error calculation.
上記(a)及び(b)で距離の平均値を算出する際に、距離の絶対値を用いることが好ましい。これにより、点群データの各点にばらつきが生じていても、そのばらつきを相殺することが可能となるため、誤差の算出精度を高めることが可能となる。 When calculating the average value of the distances in (a) and (b) above, it is preferable to use the absolute value of the distances. As a result, even if there is variation in each point of the point cloud data, it is possible to cancel out the variation, so it is possible to improve the accuracy of error calculation.
なお、誤差の算出方法は、上記(a)及び(b)の方法に限られず、例えば、基準内の距離のうち、最大の距離を誤差として抽出してもよい。 The error calculation method is not limited to the above methods (a) and (b), and for example, the maximum distance among the distances within the reference may be extracted as the error.
センサ制御部113は、ワークWに対するセンシングをレーザセンサ3に開始させるときに、誤差算出部112により算出された誤差に対応するセンシング開始位置から開始させる。
When the
センシング開始位置は、その開始位置からワークWに向かってレーザセンサ3が誤差に対応する距離を移動した場合であっても、レーザセンサ3を含むマニピュレータ2がワークWに干渉(接触)しないことを基準にして設定することが好ましい。これにより、ワークWが基準位置から誤差の分だけずれていても、センシング開始位置をその誤差に合わせてずらすことができるため、レーザセンサ3が誤差に対応する距離を移動したとしても、ワークWに干渉することなく移動することが可能となる。 The sensing start position indicates that the manipulator 2 including the laser sensor 3 does not interfere (contact) the work W even when the laser sensor 3 moves from the start position toward the work W by a distance corresponding to the error. It is preferable to set it as a standard. As a result, even if the workpiece W deviates from the reference position by the amount corresponding to the error, the sensing start position can be shifted according to the error. It is possible to move without interfering with
誤差とセンシング開始位置との対応関係は、レーザセンサ3の視野範囲に応じて設定することになる。例えば、図3に示すように、レーザセンサ3の視野範囲Vが、40~60[mm]である場合について説明する。この場合、レーザセンサ3とワークWとの間の距離が、視野範囲Vである40~60[mm]の範囲におさまっているときに、レーザセンサ3がワークWを検出できるようになる。 The correspondence relationship between the error and the sensing start position is set according to the visual field range of the laser sensor 3 . For example, as shown in FIG. 3, the case where the visual field range V of the laser sensor 3 is 40 to 60 [mm] will be described. In this case, the laser sensor 3 can detect the workpiece W when the distance between the laser sensor 3 and the workpiece W is within the visual field range V of 40 to 60 [mm].
図4を参照して、レーザセンサ3の視野範囲Vが、40~60[mm]である場合に、設定可能な誤差とセンシング開始位置との対応関係について説明する。同図に示すように、例えば、(1)誤差算出部112により算出された誤差が、0~5[mm]である場合には、センシング開始位置を、ワークWから50[mm]離れた位置に設定し、(2)誤差が、5~10[mm]である場合には、センシング開始位置を、ワークWから60[mm]離れた位置に設定し、(3)誤差が、10~20[mm]である場合には、センシング開始位置を、ワークWから70[mm]離れた位置に設定することができる。(1)から(3)について、図5から図7を参照して説明する。
With reference to FIG. 4, the correspondence relationship between the settable error and the sensing start position when the visual field range V of the laser sensor 3 is 40 to 60 [mm] will be described. As shown in the figure, for example, (1) when the error calculated by the
(1)誤差算出部112により算出された誤差が、0~5[mm]である場合
図5に示すように、レーザセンサ3のセンシング開始位置Sを、ワークWから50[mm]離れた位置に設定する。この場合、センシング開始位置Sに設定した50[mm]に対し、最大の誤差である5[mm]のずれが生じたとしても、実際のセンシング開始位置は、ワークWから45~55[mm]離れた位置におさまることになる。したがって、50[mm]に設定したセンシング開始位置Sからセンシングを開始すれば、最大の誤差である5[mm]のずれが生じても、レーザセンサ3の視野範囲Vである40~60[mm]の範囲内でワークWを検出することが可能となる。これにより、ワークWを検出できずに、レーザセンサ3を含むマニピュレータ2がワークWに干渉してしまうことを防止することが可能となる。
(1) When the error calculated by the
(2)誤差算出部112により算出された誤差が、5~10[mm]である場合
図6に示すように、レーザセンサ3のセンシング開始位置を、ワークWから60[mm]離れた位置に設定する。この場合、センシング開始位置Sに設定した60[mm]に対し、最大の誤差である10[mm]のずれが生じたとしても、実際のセンシング開始位置は、ワークWから50~70[mm]離れた位置におさまることになる。したがって、60[mm]に設定したセンシング開始位置Sからセンシングを開始させ、ワークWに近づく方向に移動させながらセンシングを繰り返すことで、レーザセンサ3の視野範囲Vである40~60[mm]の範囲内でワークWを検出することが可能となる。
(2) When the error calculated by the
(3)誤差算出部112により算出された誤差が、10~20[mm]である場合
図7に示すように、センシング開始位置を、ワークWから70[mm]離れた位置に設定する。この場合、センシング開始位置Sに設定した70[mm]に対し、最大の誤差である20[mm]のずれが生じたとしても、実際のセンシング開始位置は、ワークWから50~90[mm]離れた位置におさまることになる。したがって、70[mm]に設定したセンシング開始位置Sからセンシングを開始させ、ワークWに近づく方向に移動させながらセンシングを繰り返すことで、レーザセンサ3の視野範囲Vである40~60[mm]の範囲内でワークWを検出することが可能となる。
(3) When the error calculated by the
誤差算出部112により算出された誤差が20[mm]を超える範囲でも、上記(1)から(3)と同様に、最大誤差のずれが生じたときであっても、実際のセンシング開始位置の最小値が、視野範囲Vにおさまるように、センシング開始位置Sを設定すればよい。これにより、ワークWを検出できずに、レーザセンサ3を含むマニピュレータ2がワークWに干渉してしまうことを防止することが可能となる。
Even when the error calculated by the
図2の説明に戻る。センサ制御部113は、ワークWに近づく方向にレーザセンサ3を移動させながらセンシングさせ、ワークWが検出された場合に、レーザセンサ3の移動を停止させる。これにより、センシングの目的が達成した場合に、レーザセンサ3を止めることができるため、ワークWへの干渉を確実に回避させることが可能になる。
Returning to the description of FIG. The
センサ制御部113は、レーザセンサ3がセンシング開始位置からワークWに向かって所定の距離を移動した場合に、レーザセンサ3の移動を停止させ、ワークWが検出できなかったことを示すエラーメッセージを出力する。エラーメッセージの出力先は、例えば、ディスプレイ等の表示装置であってもよいし、スピーカ等の拡声装置であってもよい。
When the laser sensor 3 moves a predetermined distance from the sensing start position toward the work W, the
所定の距離は、例えば、誤差、センシング開始位置S及び視野範囲Vを勘案し、レーザセンサ3が視野範囲V内を移動することができ、かつ、レーザセンサ3を含むマニピュレータ2がワークWに干渉することがない範囲に設定することが好ましい。これにより、仮にセンシングを正常に行えない状況になったとしても、レーザセンサ3が所定の距離を移動したときに、レーザセンサ3を止めることができるため、ワークWへの干渉を確実に回避させることが可能になる。 The predetermined distance is determined, for example, by taking into account the error, the sensing start position S, and the visual field range V. It is preferable to set it within a range in which it does not occur. As a result, even if sensing cannot be performed normally, the laser sensor 3 can be stopped when the laser sensor 3 moves a predetermined distance, so that interference with the workpiece W can be reliably avoided. becomes possible.
上述したように、実施形態に係るロボット制御装置1によれば、ワークWを含む三次元の画像データから検出されたワークWに対応する三次元のワーク点群データと、基準点群データとを比較して、基準位置からのずれを表す誤差を算出し、その誤差に対応するセンシング開始位置Sからレーザセンサ3にセンシングを開始させることができる。これにより、ワークWが基準位置から誤差の分だけずれていても、レーザセンサ3のセンシング開始位置Sもその誤差に合わせてずらすことが可能となるため、センシング作業の効率を高めることができる。また、撮影端末4は、三次元の画像データを撮影できるカメラであればよいため、高価な3Dカメラを用いる必要もない。
As described above, according to the
それゆえ、実施形態に係るロボット制御装置1によれば、コストを抑えつつタクトタイムを短縮することが可能となる。
Therefore, according to the
[変形例]
なお、本発明は、上述した実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内において、他の様々な形で実施することができる。このため、上記実施形態はあらゆる点で単なる例示にすぎず、限定的に解釈されるものではない。
[Modification]
It should be noted that the present invention is not limited to the above-described embodiments, and can be implemented in various other forms without departing from the gist of the present invention. Therefore, the above-described embodiment is merely an example in all respects, and should not be construed as limiting.
例えば、上述した実施形態では、撮影端末4を所定の位置、向き及び姿勢に固定して配置しているが、作業者が撮影端末4を所持し、任意の位置からワークWを撮影してもよい。この場合、撮影する位置に対応付けて基準点群データを予め記憶させておくことが好ましい。 For example, in the above-described embodiment, the photographing terminal 4 is fixed at a predetermined position, orientation, and posture. good. In this case, it is preferable to store the reference point cloud data in advance in association with the photographing position.
また、上述した実施形態では、本発明を溶接ロボットに適用する場合について説明したが、これに限定されない。例えば、ピッキング等を行うハンドリングロボットを含む産業用ロボットに本発明を適用することができる。 Moreover, in the above-described embodiment, the case where the present invention is applied to a welding robot has been described, but the present invention is not limited to this. For example, the present invention can be applied to industrial robots including handling robots that perform picking and the like.
さらに、上述した実施形態では、レーザセンサを用いて説明しているが、レーザセンサ以外のセンサにも、本発明を適用することができる。例えば、タッチセンサを用いてもよい。タッチセンサを用いた場合でも、誤差に応じてタッチセンサのセンシング開始位置を変更させることができる。 Furthermore, in the above-described embodiments, the laser sensor is used for explanation, but the present invention can also be applied to sensors other than the laser sensor. For example, a touch sensor may be used. Even when a touch sensor is used, the sensing start position of the touch sensor can be changed according to the error.
1…ロボット制御装置、2…マニピュレータ、3…レーザセンサ、4…撮影端末、11…制御部、12…記憶部、13…通信部、14…溶接電源部、21…多関節アーム、22…溶接トーチ、31…センサ制御部、41…撮影端末制御部、100…ロボットシステム、111…点群データ検出部、112…誤差算出部、113…センサ制御部、S…センシング開始位置、V…視野範囲、W…ワーク
DESCRIPTION OF
Claims (5)
検出された前記対象物点群データと予め記憶された基準となる基準点群データとを比較して誤差を算出する誤差算出部と、
算出された前記誤差に対応するセンシング開始位置から前記対象物に近づく方向にセンサにセンシングを開始させるセンサ制御部と、
を備えるロボット制御装置。 a point cloud data detection unit that detects, as object point cloud data, three-dimensional coordinate data corresponding to the object from three-dimensional image data including the object that the industrial robot is working on;
an error calculation unit that compares the detected object point cloud data with reference point cloud data that is stored in advance and calculates an error;
a sensor control unit that causes the sensor to start sensing in a direction approaching the object from a sensing start position corresponding to the calculated error;
A robot controller comprising:
請求項1記載のロボット制御装置。 The error calculation unit calculates the error based on the distance between the object point cloud data and the reference point cloud data.
The robot controller according to claim 1.
請求項2記載のロボット制御装置。 The error calculation unit calculates a distance between each point included in the object point cloud data and an approximate plane corresponding to the reference point cloud data, and uses an average value of the calculated distances as the error. calculate,
3. The robot controller according to claim 2.
請求項2記載のロボット制御装置。 The error calculation unit calculates a distance between points having a corresponding positional relationship in the object point cloud data and the reference point cloud data, and calculates an average value of the calculated distances as the error.
3. The robot controller according to claim 2.
請求項1から4のいずれか一項に記載のロボット制御装置。 The sensing start position is such that the industrial robot including the sensor does not interfere with the object even when the sensor moves a distance corresponding to the error from the sensing start position toward the object. is set on the basis of
The robot controller according to any one of claims 1 to 4.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022009527A JP2023108410A (en) | 2022-01-25 | 2022-01-25 | Robot control device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022009527A JP2023108410A (en) | 2022-01-25 | 2022-01-25 | Robot control device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023108410A true JP2023108410A (en) | 2023-08-04 |
Family
ID=87475279
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022009527A Pending JP2023108410A (en) | 2022-01-25 | 2022-01-25 | Robot control device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023108410A (en) |
-
2022
- 2022-01-25 JP JP2022009527A patent/JP2023108410A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107186714B (en) | A kind of accurate positioning method, positioning system and robot device | |
US20180161985A1 (en) | Control device, robot, and robot system | |
CN110621447B (en) | Robot conveyor calibration method, robot system and control system | |
CN114714029B (en) | Automatic arc welding method and device for aluminum alloy | |
JP2020028957A (en) | Interference avoidance device and robot system | |
US11247288B2 (en) | Welding position detection device, welding position detection method, and welding robot system | |
US11543240B2 (en) | Six DOF measurement aid module for determining 3D coordinates of points to be measured of an object surface | |
US20210107160A1 (en) | Robot, measurement fixture, and tool-tip-position determining method | |
JP2023108410A (en) | Robot control device | |
US20210146551A1 (en) | Measurement system and method for positioning accuracy of a robotic arm | |
JP2023047279A (en) | Weld line detection system | |
CN116079750A (en) | Robot teaching system | |
CN109641349B (en) | Calibration system and calibration method for robot, robot system, and storage medium | |
TWI806761B (en) | Mark detection device and robot teaching system | |
US20230098696A1 (en) | Work Program Production System and Work Program Production Method | |
TWI822314B (en) | Welding line detection system | |
JP2023069274A (en) | Coordinate system conversion system and coordinate system conversion method | |
JP7201764B1 (en) | Welding program creation system and welding program creation method | |
JP7195476B1 (en) | WORK PROGRAM CREATION SYSTEM AND WORK PROGRAM CREATION METHOD | |
JP7433501B1 (en) | Interference determination device | |
WO2022009645A1 (en) | Information processing device and information processing method | |
TW202319196A (en) | Mark detection device and robot teaching system | |
JP2023087928A (en) | Welding position detection device and robot teaching system | |
JP2009008533A (en) | Optical measuring system | |
JPH07111714A (en) | Insulator coupler |