JP2024006251A - Welding robot system and determination method - Google Patents

Welding robot system and determination method Download PDF

Info

Publication number
JP2024006251A
JP2024006251A JP2022106965A JP2022106965A JP2024006251A JP 2024006251 A JP2024006251 A JP 2024006251A JP 2022106965 A JP2022106965 A JP 2022106965A JP 2022106965 A JP2022106965 A JP 2022106965A JP 2024006251 A JP2024006251 A JP 2024006251A
Authority
JP
Japan
Prior art keywords
welding robot
predetermined direction
sensor
opposite side
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022106965A
Other languages
Japanese (ja)
Other versions
JP7263602B1 (en
Inventor
望 榎本
Nozomi Enomoto
翼 片山
Tsubasa Katayama
聡史 三木
Satoshi Miki
直弥 脇田
Naoya Wakita
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Steel Engineering Co Ltd
Original Assignee
Nippon Steel Engineering Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Steel Engineering Co Ltd filed Critical Nippon Steel Engineering Co Ltd
Priority to JP2022106965A priority Critical patent/JP7263602B1/en
Application granted granted Critical
Publication of JP7263602B1 publication Critical patent/JP7263602B1/en
Publication of JP2024006251A publication Critical patent/JP2024006251A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a welding robot system and a determination method, each enabling determination of correctness of a sensor position where the sensor is fitted to a welding robot.
SOLUTION: A welding robot system comprises a welding robot welding a steel material while moving the steel material in a prescribed direction. The welding robot system comprises: a prescribed direction side sensor which is fitted to the welding robot and is fitted to a prescribed direction side of the welding robot; an opposite side sensor which is fitted to the welding robot and is fitted to the opposite side to the prescribed direction side of the welding robot; and a determination portion which determines whether each of the prescribed direction side sensor and the opposite side sensor is fitted to the prescribed direction side or to the other side.
SELECTED DRAWING: Figure 2
COPYRIGHT: (C)2024,JPO&INPIT

Description

本発明は、溶接ロボットシステムおよび判定方法に関する。 The present invention relates to a welding robot system and a determination method.

鋼材の接合に溶接ロボットを用いた自動溶接が行われている。自動溶接の際には、溶接部分に沿って自走式の溶接ロボットを配置し、予め溶接部分に形成しておいた開先に対して連続的に溶接を行う。溶接ロボットの制御装置においては、溶接ロボットのトーチの開先に対する位置を適切にするために、画像処理による位置制御が利用されている。 Automatic welding using welding robots is used to join steel materials. During automatic welding, a self-propelled welding robot is placed along the welding part and continuously welds into a groove that has been previously formed in the welding part. In a control device for a welding robot, position control based on image processing is utilized in order to appropriately position the torch of the welding robot with respect to the bevel.

また、アーク溶接に関して、溶接部位の溶融状態を観察する技術が知られている(例えば、特許文献1参照)。この技術によれば、溶接観察装置は、アーク溶接における溶融部位を観察する溶接観察装置であって、溶融部位に形成される溶融池の画像を撮像する第1の撮像手段と、第1の撮像手段によって撮像された溶融池の画像から、溶融池に発生した気泡を検出する第1検出部とを備える。 Furthermore, regarding arc welding, a technique for observing the molten state of a welded region is known (see, for example, Patent Document 1). According to this technique, the welding observation device is a welding observation device for observing a molten part in arc welding, and includes a first imaging means for taking an image of a molten pool formed in the molten part; and a first detection unit that detects air bubbles generated in the molten pool from an image of the molten pool captured by the means.

特開2021-167010号公報Japanese Patent Application Publication No. 2021-167010

溶接品質の向上、建築現場における人手不足を解消するために、建築現場にレール自走式の溶接ロボットが導入されている。レール自走式の溶接ロボットを使用して、溶接対象となる母材の形状測定をカメラによる画像処理で実施しようとした場合に、以下の点が懸念される。
(1)溶接ワイヤの先端と開先形状とを撮像するカメラが溶接ロボットに対して1台しかない場合、治具、付帯機器との干渉により撮像できない箇所が発生するおそれがある点。
(2)日照条件など光学的な理由より1台のカメラで撮像した場合には、画像処理精度、処理自体の実行完結できないおそれがある点。
Self-propelled rail-propelled welding robots are being introduced to construction sites to improve welding quality and resolve the labor shortage at construction sites. When attempting to measure the shape of a base material to be welded using image processing using a camera using a rail self-propelled welding robot, the following points may arise.
(1) If there is only one camera for a welding robot that images the tip of the welding wire and the groove shape, there is a risk that there will be areas where images cannot be captured due to interference with jigs and incidental equipment.
(2) Due to optical reasons such as sunlight conditions, if images are taken with a single camera, the accuracy of image processing and the execution of the processing itself may not be complete.

以上の懸念に対し、2台のカメラを溶接トーチに対し対象の位置に設置する機構とした場合について説明する。建築現場に溶接ロボットを導入した場合、作業者が溶接個所までロボットを運搬し、組み立て、据え付けをしなければならない。この過程で作業者が、ロボットに設定し、登録されている2台のカメラの取り付け台座を誤るとカメラ2台を適切に使い分けることが不可能となる。
例えば、特許文献1では溶接ロボットにおいて、トーチを挟んで進行方向の前後にカメラなどのセンサを設置し、双方から得られた画像に対して画像処理を実施し、溶接状況の監視を行っている。しかし、特許文献1には、カメラなどのセンサの設置ミスによって発生するおそれがある画像が取り違えられることを防止することについては言及されていない。
In response to the above concerns, a case will be described in which a mechanism is adopted in which two cameras are installed at target positions with respect to the welding torch. When a welding robot is introduced at a construction site, workers must transport the robot to the welding location, assemble it, and install it. During this process, if the worker sets the two registered cameras on the robot incorrectly, it becomes impossible to properly use the two cameras.
For example, in Patent Document 1, in a welding robot, sensors such as cameras are installed on both sides of the torch in the forward and backward directions, and images obtained from both are subjected to image processing to monitor the welding status. . However, Patent Document 1 does not mention how to prevent images from being mixed up, which may occur due to incorrect installation of a sensor such as a camera.

本発明の目的は、溶接ロボットに取り付けられるセンサ位置の正誤を判定できる溶接ロボットシステムおよび判定方法を提供することを目的とする。 An object of the present invention is to provide a welding robot system and a determination method that can determine whether the position of a sensor attached to a welding robot is correct or incorrect.

(1)本発明の一態様に係る溶接ロボットシステムは、鋼材を所定方向に移動しながら前記鋼材を溶接する溶接ロボットを備える溶接ロボットシステムであって、前記溶接ロボットに取り付けられるセンサであって、前記溶接ロボットの所定方向側に取り付けられた所定方向側センサと、前記溶接ロボットに取り付けられるセンサであって、前記溶接ロボットの前記所定方向側とは反対側に取り付けられた反対側センサと、前記所定方向側センサおよび前記反対側センサのそれぞれが前記所定方向側および前記反対側のいずれに取り付けられているのかを判定する判定部と、を備える。 (1) A welding robot system according to one aspect of the present invention includes a welding robot that welds steel materials while moving the steel materials in a predetermined direction, and a sensor attached to the welding robot, a predetermined direction side sensor attached to the predetermined direction side of the welding robot; a sensor attached to the welding robot and an opposite side sensor attached to a side opposite to the predetermined direction side of the welding robot; and a determination unit that determines whether each of the predetermined direction side sensor and the opposite side sensor is attached to the predetermined direction side or the opposite side.

この発明によれば、溶接ロボットシステムは、鋼材を所定方向に移動しながら鋼材を溶接する溶接ロボットを備える。溶接ロボットシステムは、溶接ロボットに取り付けられるセンサであって、溶接ロボットの所定方向側に取り付けられた所定方向側センサと、溶接ロボットの所定方向側とは反対側に取り付けられた反対側センサとを備える。溶接ロボットシステムは、所定方向側センサおよび反対側センサのそれぞれが所定方向側および反対側のいずれに取り付けられているのかを判定する判定部を備える。このように構成することによって、溶接ロボットシステムは、所定方向側センサおよび反対側センサのそれぞれが所定方向側および反対側のいずれに取り付けられているのかを判定する判定部を備えるため、センサの取り付け位置の正誤を判定できる。 According to this invention, a welding robot system includes a welding robot that welds steel materials while moving the steel materials in a predetermined direction. A welding robot system is a sensor that is attached to a welding robot, and includes a predetermined direction side sensor attached to a predetermined direction side of the welding robot and an opposite side sensor attached to a side of the welding robot opposite to the predetermined direction side. Be prepared. The welding robot system includes a determination unit that determines whether each of the predetermined direction side sensor and the opposite side sensor is attached to the predetermined direction side or the opposite side. With this configuration, the welding robot system includes a determination unit that determines whether each of the predetermined direction side sensor and the opposite side sensor is attached to the predetermined direction side or the opposite side. It is possible to determine whether the position is correct or incorrect.

(2)本発明の一態様に係る溶接ロボットシステムは、上記(1)に係る溶接ロボットシステムであって、前記センサは、カメラを含み、前記溶接ロボットシステムは、前記所定方向側センサと前記反対側センサとに、前記所定方向側センサと前記反対側センサとの間に設置された被写体を撮像させる制御を行う制御部をさらに備え、前記判定部は、前記所定方向側センサと前記反対側センサとが前記被写体を撮像して出力した画像を用いて、前記所定方向側センサおよび前記反対側センサが前記所定方向側および前記反対側のいずれに取り付けられているのかを判定する。 (2) A welding robot system according to one aspect of the present invention is the welding robot system according to (1) above, wherein the sensor includes a camera, and the welding robot system is arranged such that the predetermined direction side sensor and the opposite The side sensor further includes a control unit that performs control to image a subject installed between the predetermined direction side sensor and the opposite side sensor, and the determination unit is configured to control the predetermined direction side sensor and the opposite side sensor. It is determined whether the predetermined direction side sensor and the opposite side sensor are attached to the predetermined direction side or the opposite side, using an image outputted by capturing the subject.

溶接ロボットシステムにおいて、センサは、カメラを含む。溶接ロボットシステムは、所定方向側センサと反対側センサとに、所定方向側センサと反対側センサとの間に設置された被写体を撮像させる制御を行う制御部をさらに備える。このように構成することによって、判定部は、所定方向側センサと反対側センサとが被写体を撮像して出力した画像を用いて、所定方向側センサおよび反対側センサが所定方向側および反対側のいずれに取り付けられているのかを判定できるため、カメラの取り付け位置の正誤を判定できる。 In welding robot systems, the sensors include cameras. The welding robot system further includes a control unit that controls the predetermined direction sensor and the opposite sensor to image a subject installed between the predetermined direction sensor and the opposite sensor. By configuring in this way, the determination unit uses the images output by the predetermined direction side sensor and the opposite side sensor to capture and output images of the subject, and the predetermined direction side sensor and the opposite side sensor determine the predetermined direction side and the opposite side sensor. Since it can be determined where the camera is installed, it is possible to determine whether the camera is installed in the correct or incorrect position.

(3)本発明の一態様に係る溶接ロボットシステムは、上記(2)に記載の溶接ロボットシステムであって、前記被写体は、前記所定方向側センサと前記反対側センサとのそれぞれの撮像範囲における所定範囲内に位置する。 (3) The welding robot system according to one aspect of the present invention is the welding robot system described in (2) above, in which the subject is located in each imaging range of the predetermined direction side sensor and the opposite side sensor. Located within a predetermined range.

溶接ロボットシステムにおいて、被写体は、所定方向側センサと反対側センサとのそれぞれの撮像範囲における所定範囲内に位置する。このように構成することによって、判定部は、所定方向側センサと反対側センサとが、それぞれの撮像範囲における所定範囲内に位置する被写体を撮像して出力した画像を用いて、所定方向側センサおよび反対側センサが所定方向側および反対側のいずれに取り付けられているのかを判定できるため、カメラの取り付け位置の正誤を判定できる。 In the welding robot system, the subject is located within a predetermined range in the respective imaging ranges of a sensor on the predetermined direction and a sensor on the opposite side. With this configuration, the determination unit uses the images output by the predetermined direction side sensor and the opposite side sensor of a subject located within a predetermined range in their respective imaging ranges, to determine the predetermined direction side sensor. Since it can be determined whether the opposite side sensor is attached to the predetermined direction side or the opposite side, it is possible to determine whether the mounting position of the camera is correct or incorrect.

(4)本発明の一態様に係る溶接ロボットシステムは、上記(2)又は上記(3)に記載の溶接ロボットシステムであって、前記被写体の形状は、矩形である。 (4) A welding robot system according to one aspect of the present invention is the welding robot system described in (2) or (3) above, in which the shape of the subject is rectangular.

溶接ロボットシステムにおいて、被写体の形状は、矩形とすることができる。このように構成することによって、判定部は、所定方向側センサと反対側センサとが、矩形の被写体を撮像して出力した画像を用いて、所定方向側センサおよび反対側センサが所定方向側および反対側のいずれに取り付けられているのかを判定できるため、カメラの取り付け位置の正誤を判定できる。 In the welding robot system, the shape of the object can be rectangular. With this configuration, the determination unit uses an image outputted by the predetermined direction side sensor and the opposite side sensor to capture and output a rectangular subject, and the predetermined direction side sensor and the opposite side sensor Since it is possible to determine which side the camera is attached to on the opposite side, it is possible to determine whether the camera is attached correctly or incorrectly.

(5)本発明の一態様に係る溶接ロボットシステムは、上記(2)から上記(4)のいずれか一項に記載の溶接ロボットシステムであって、前記被写体の形状は、長方形であり、前記被写体の長辺と、前記所定方向側センサおよび前記反対側センサのそれぞれの撮像範囲の長辺とがなす角が不変である。 (5) A welding robot system according to one aspect of the present invention is the welding robot system according to any one of (2) to (4) above, in which the shape of the subject is a rectangle, and the The angle formed by the long side of the subject and the long side of each imaging range of the sensor on the predetermined direction and the sensor on the opposite side remains unchanged.

溶接ロボットシステムにおいて、被写体の形状は、長方形であり、被写体の長辺と、所定方向側センサおよび反対側センサのそれぞれの撮像範囲の長辺とがなす角を不変とすることができる。所定方向側センサおよび反対側センサのそれぞれが撮像するタイミングで、被写体の長辺と、撮像範囲の長辺とがなす角が不変であればよい。このように構成することによって、判定部は、所定方向側センサと反対側センサとが、長方形の被写体を撮像して出力した画像を用いて、所定方向側センサおよび反対側センサのそれぞれが所定方向側および反対側のいずれに取り付けられているのかを判定できるため、カメラの取り付け位置の正誤を判定できる。 In the welding robot system, the shape of the object is rectangular, and the angle formed by the long side of the object and the long side of each imaging range of the sensor on the predetermined direction and the sensor on the opposite side can be kept unchanged. It is only necessary that the angle formed by the long side of the subject and the long side of the imaging range remains unchanged at the timing when the predetermined direction side sensor and the opposite side sensor take images. By configuring in this way, the determination unit uses the images output by the predetermined direction side sensor and the opposite side sensor to capture and output images of a rectangular subject, so that the predetermined direction side sensor and the opposite side sensor each take a predetermined direction. Since it is possible to determine whether the camera is attached to the side or the opposite side, it is possible to determine whether the camera is attached correctly or incorrectly.

(6)本発明の一態様に係る溶接ロボットシステムは、上記(2)から上記(5)のいずれか一項に記載の溶接ロボットシステムであって、前記判定部は、前記画像に含まれる前記被写体の少なくとも2つの頂点の座標を用い、前記所定方向側センサと前記反対側センサとが、前記所定方向側および前記反対側のいずれに取り付けられているのかを判定する。 (6) The welding robot system according to one aspect of the present invention is the welding robot system according to any one of (2) to (5) above, in which the determination unit Using the coordinates of at least two vertices of the subject, it is determined whether the predetermined direction side sensor and the opposite side sensor are attached to the predetermined direction side or the opposite side.

溶接ロボットシステムにおいて、判定部は、画像に含まれる被写体の少なくとも2つの頂点の座標を用いることができる。このように構成することによって、判定部は、画像に含まれる被写体の少なくとも2つの頂点の座標を用い、所定方向側センサと反対側センサとが所定方向側および反対側のいずれに取り付けられているのかを判定できるため、カメラの取り付け位置の正誤を判定できる。 In the welding robot system, the determination unit can use the coordinates of at least two vertices of the subject included in the image. With this configuration, the determination unit uses the coordinates of at least two vertices of the subject included in the image, and determines whether the predetermined direction side sensor and the opposite side sensor are attached to the predetermined direction side or the opposite side. Since it can be determined whether the camera is installed correctly or incorrectly.

(7)本発明の一態様に係る溶接ロボットシステムは、上記(2)から上記(6)のいずれか一項に記載の溶接ロボットシステムであって、前記被写体は、前記所定方向側センサおよび前記反対側センサの座標系と前記溶接ロボットの座標系とを対応付けるためのキャリブレーションであって、前記所定方向側センサと前記反対側センサとのキャリブレーションに用いられるキャリブレーションプレートである。 (7) A welding robot system according to an aspect of the present invention is the welding robot system according to any one of (2) to (6) above, wherein the subject is the predetermined direction side sensor and the This is a calibration plate for associating the coordinate system of the opposite side sensor with the coordinate system of the welding robot, and is used for calibrating the predetermined direction side sensor and the opposite side sensor.

溶接ロボットシステムにおいて、被写体は、所定方向側センサおよび反対側センサの座標系と溶接ロボットの座標系とを対応付けるためのキャリブレーションであって、所定方向側センサと反対側センサとのキャリブレーションに用いられるキャリブレーションプレートとすることができる。このように構成することによって、判定部は、所定方向側センサと反対側センサとがキャリブレーションプレートを撮像して出力した画像を用いて、所定方向側センサおよび反対側センサが所定方向側および反対側のいずれに取り付けられているのかを判定できるため、カメラの取り付け位置の正誤を判定できる。 In the welding robot system, the subject is calibration for associating the coordinate systems of the sensor on the predetermined direction and the opposite side with the coordinate system of the welding robot, and is used for calibration between the sensor on the predetermined direction and the sensor on the opposite side. It can be used as a calibration plate. With this configuration, the determination unit uses images output by the predetermined direction side sensor and the opposite side sensor to capture and output images of the calibration plate, and determine whether the predetermined direction side sensor and the opposite side sensor Since it is possible to determine which side the camera is attached to, it is possible to determine whether the camera is attached in the correct or incorrect position.

(8)本発明の一態様に係る溶接ロボットシステムは、上記(7)に記載の溶接ロボットシステムであって、前記キャリブレーションプレートは、開先の断面形状の測定にも用いられる。 (8) A welding robot system according to one aspect of the present invention is the welding robot system described in (7) above, in which the calibration plate is also used to measure the cross-sectional shape of the groove.

溶接ロボットシステムにおいて、キャリブレーションプレートは、開先の断面形状の測定にも用いられる。このように構成することによって、判定部は、所定方向側センサと反対側センサとが開先の断面形状の測定にも用いられるキャリブレーションプレートを撮像して出力した画像を用いて、所定方向側センサおよび反対側センサが所定方向側および反対側のいずれに取り付けられているのかを判定できるため、カメラの取り付け位置の正誤を判定できる。 In the welding robot system, the calibration plate is also used to measure the cross-sectional shape of the groove. With this configuration, the determination unit uses the image outputted by the sensor on the predetermined direction and the sensor on the opposite side to capture and output the calibration plate, which is also used to measure the cross-sectional shape of the groove, and determines the side in the predetermined direction. Since it can be determined whether the sensor and the opposite side sensor are attached to the predetermined direction side or the opposite side, it is possible to determine whether the mounting position of the camera is correct or incorrect.

(9)本発明の一態様に係る溶接ロボットシステムは、上記(7)又は上記(8)に記載の溶接ロボットシステムであって、前記キャリブレーションプレートは、ワールド座標系に対するロボットの座標系の傾きを求めるためにも用いられる。 (9) A welding robot system according to one aspect of the present invention is the welding robot system described in (7) or (8) above, in which the calibration plate is configured to adjust the inclination of the coordinate system of the robot with respect to the world coordinate system. It is also used to find

溶接ロボットシステムにおいて、キャリブレーションプレートは、ワールド座標系に対するロボットの座標系の傾きを求めるためにも用いられる。このように構成することによって、判定部は、所定方向側センサと反対側センサとが、ワールド座標系に対するロボットの座標系の傾きを求めるためにも用いられるキャリブレーションプレートを撮像して出力した画像を用いて、所定方向側センサおよび反対側センサが所定方向側および反対側のいずれに取り付けられているのかを判定できるため、カメラの取り付け位置の正誤を判定できる。 In welding robot systems, the calibration plate is also used to determine the inclination of the robot's coordinate system with respect to the world coordinate system. With this configuration, the determination unit outputs an image that the predetermined direction side sensor and the opposite side sensor image and output of the calibration plate, which is also used to find the inclination of the robot's coordinate system with respect to the world coordinate system. Since it can be determined whether the predetermined direction side sensor and the opposite side sensor are attached to the predetermined direction side or the opposite side using , it is possible to determine whether the mounting position of the camera is correct or incorrect.

(10)本発明の一態様に係る溶接ロボットシステムは、上記(7)から上記(9)のいずれか一項に記載の溶接ロボットシステムであって、前記画像は、前記所定方向側センサと前記反対側センサとが前記キャリブレーションのために前記被写体を撮像して出力した画像である。 (10) A welding robot system according to one aspect of the present invention is the welding robot system according to any one of (7) to (9) above, in which the image includes the predetermined direction side sensor and the The opposite sensor is an image captured and output of the subject for the calibration.

溶接ロボットシステムにおいて、画像は、所定方向側センサと反対側センサとがキャリブレーションのために被写体を撮像して出力した画像とすることができる。このように構成することによって、判定部は、所定方向側センサと反対側センサとが、キャリブレーションのために被写体を撮像して出力した画像を用いて、所定方向側センサおよび反対側センサが所定方向側および反対側のいずれに取り付けられているのかを判定できるため、カメラの取り付け位置の正誤を判定できる。 In the welding robot system, the image may be an image output by a sensor on a predetermined direction and a sensor on the opposite side capturing and outputting a subject for calibration. With this configuration, the determination unit allows the predetermined direction side sensor and the opposite side sensor to perform the predetermined direction using the image captured and outputted from the subject for calibration. Since it is possible to determine whether the camera is attached on the opposite side or on the opposite side, it is possible to determine whether the camera is attached correctly or incorrectly.

(11)本発明の一態様に係る溶接ロボットシステムは、上記(7)から上記(10)のいずれか一項に記載の溶接ロボットシステムであって、前記画像は、前記所定方向側センサと前記反対側センサとのそれぞれが撮像する画像の歪補正のために前記所定方向側センサと前記反対側センサとのそれぞれが前記被写体を撮像して出力した画像である。 (11) A welding robot system according to one aspect of the present invention is the welding robot system according to any one of (7) to (10) above, in which the image includes the predetermined direction side sensor and the The image is an image captured and outputted of the subject by the sensor on the predetermined direction and the sensor on the opposite side, respectively, in order to correct distortion of the image captured by the sensor on the opposite side.

溶接ロボットシステムにおいて、画像は、所定方向側センサと反対側センサとのそれぞれが撮像する画像の歪補正のために所定方向側センサと反対側センサとのそれぞれが被写体を撮像して出力した画像とすることができる。このように構成することによって、判定部は、所定方向側センサと反対側センサとのそれぞれが撮像する画像の歪補正のために被写体を撮像して出力した画像を用いて、所定方向側センサおよび反対側センサが所定方向側および反対側のいずれに取り付けられているのかを判定できるため、カメラの取り付け位置の正誤を判定できる。 In a welding robot system, an image is an image output by a sensor on a predetermined direction and a sensor on the opposite side capturing a subject, respectively, in order to correct distortion of the image captured by the sensor on the predetermined direction and the sensor on the opposite side, respectively. can do. With this configuration, the determination unit uses the image captured and output of the subject in order to correct the distortion of the image captured by the predetermined direction sensor and the opposite sensor, respectively. Since it can be determined whether the opposite side sensor is attached to the predetermined direction side or the opposite side, it is possible to determine whether the mounting position of the camera is correct or incorrect.

(12)本発明の一態様に係る溶接ロボットシステムは、上記(1)から上記(11)のいずれか一項に記載の溶接ロボットシステムであって、前記所定方向側センサと前記反対側センサとが取り付つけられる位置に対応する情報をユーザに入力させる入力部と、前記入力部により入力される前記情報が対応する位置と、前記判定部により判定される前記所定方向側センサと前記反対側センサとが取り付けられている位置と、が異なる場合に、前記ユーザに通知する通知部と、を備える。 (12) A welding robot system according to one aspect of the present invention is the welding robot system according to any one of (1) to (11) above, in which the predetermined direction side sensor and the opposite side sensor an input unit that allows a user to input information corresponding to a position where the sensor is attached; a position to which the information inputted by the input unit corresponds; and a side opposite to the predetermined direction side sensor determined by the determination unit. and a notification unit that notifies the user when the position where the sensor is attached is different from the position where the sensor is attached.

溶接ロボットシステムにおいて、溶接ロボットシステムは、所定方向側センサと反対側センサとが取り付けられる位置に対応する情報をユーザに入力させる入力部を備える。位置に対応する情報の一例は、IPアドレスである。溶接ロボットシステムは、入力部により入力される情報に対応する位置と、判定部により判定される前記所定方向側センサと反対側センサとが取り付けられている位置とが異なる場合に、ユーザに通知する通知部を備える。このように構成することによって、溶接ロボットシステムは、所定方向側センサと反対側センサとが取り付けられる位置に対応する情報に基づいて、溶接ロボットに、鋼材を所定方向に移動させながら鋼材を溶接させることができる。溶接ロボットシステムは、カメラの取り付け位置が誤っている場合に、ユーザに通知できる。 The welding robot system includes an input unit that allows a user to input information corresponding to a position where a sensor on a predetermined direction and a sensor on the opposite side are attached. An example of information corresponding to a location is an IP address. The welding robot system notifies the user when the position corresponding to the information input by the input unit is different from the position where the predetermined direction side sensor and the opposite side sensor are attached, which is determined by the determination unit. Equipped with a notification section. With this configuration, the welding robot system causes the welding robot to weld the steel material while moving the steel material in a predetermined direction based on information corresponding to the positions where the sensor on the predetermined direction side and the sensor on the opposite side are attached. be able to. The welding robot system can notify the user if the camera is incorrectly mounted.

(13)本発明の一態様に係る判定方法は、鋼材を所定方向に移動しながら前記鋼材を溶接する溶接ロボットを備える判定方法であって、前記溶接ロボットの所定方向側に取り付けられた所定方向側センサと、前記溶接ロボットの前記所定方向側とは反対側に取り付けられた反対側センサとのそれぞれが前記所定方向側および前記反対側のいずれに取り付けられているのかを判定するステップとを有する。 (13) A determination method according to an aspect of the present invention includes a welding robot that welds a steel material while moving the steel material in a predetermined direction, the welding robot being attached to a predetermined direction side of the welding robot. a step of determining whether each of a side sensor and an opposite side sensor attached to a side opposite to the predetermined direction side of the welding robot is attached to the predetermined direction side or the opposite side. .

この発明によれば、判定方法は、鋼材を所定方向に移動しながら鋼材を溶接する溶接ロボットを備える溶接ロボットシステムが実行する。判定方法は、溶接ロボットの所定方向側に取り付けられた所定方向側センサと、溶接ロボットの所定方向側とは反対側に取り付けられた反対側センサとのそれぞれが所定方向側および反対側のいずれに取り付けられているのかを判定するステップを有する。このように構成することによって、溶接ロボットシステムは、所定方向側センサおよび反対側センサのそれぞれが所定方向側および反対側のいずれに取り付けられているのかを判定できるため、カメラの取り付け位置の正誤を判定できる。 According to this invention, the determination method is executed by a welding robot system that includes a welding robot that welds steel materials while moving the steel materials in a predetermined direction. The determination method is to determine whether the predetermined direction side sensor attached to the predetermined direction side of the welding robot and the opposite side sensor attached to the opposite side of the welding robot from the predetermined direction side are on the predetermined direction side or the opposite side. It has a step of determining whether it is attached. With this configuration, the welding robot system can determine whether the predetermined direction side sensor and the opposite side sensor are attached to the predetermined direction side or the opposite side, so it is possible to determine whether the camera is installed correctly or incorrectly. Can be judged.

本発明の実施形態によれば、溶接ロボットに取り付けられるセンサ位置の正誤を判定できる。 According to the embodiment of the present invention, it is possible to determine whether the position of the sensor attached to the welding robot is correct or incorrect.

本発明の実施形態に係る溶接ロボットシステムの一例を示す図である。1 is a diagram showing an example of a welding robot system according to an embodiment of the present invention. 本実施形態に係る溶接ロボットシステムの一例を示す図である。FIG. 1 is a diagram showing an example of a welding robot system according to the present embodiment. 本実施形態に係る溶接ロボットシステムの動作の一例を示す図である。It is a figure showing an example of operation of the welding robot system concerning this embodiment. 本実施形態に係る溶接ロボットシステムの動作の一例を示す図である。It is a figure showing an example of operation of the welding robot system concerning this embodiment. 本実施形態に係る溶接ロボットシステムの動作の一例を示す図である。It is a figure showing an example of operation of the welding robot system concerning this embodiment. 本実施形態に係る溶接ロボットシステムの動作の一例を示す図である。It is a figure showing an example of operation of the welding robot system concerning this embodiment. 本実施形態に係る溶接ロボットシステムの動作の一例を示す図である。It is a figure showing an example of operation of the welding robot system concerning this embodiment. 本実施形態に係る溶接ロボットシステムの動作の一例を示すフローチャートである。It is a flowchart which shows an example of operation of the welding robot system concerning this embodiment. 本実施形態に係る溶接ロボットシステムの動作の一例を示すフローチャートである。It is a flowchart which shows an example of operation of the welding robot system concerning this embodiment. 本実施形態に係る溶接ロボットシステムの動作の一例を示すフローチャートである。It is a flowchart which shows an example of operation of the welding robot system concerning this embodiment. 本実施形態に係る溶接ロボットシステムの動作の一例を示すフローチャートである。It is a flowchart which shows an example of operation of the welding robot system concerning this embodiment.

次に、本実施形態の溶接ロボットシステムおよび判定方法を、図面を参照しつつ説明する。以下で説明する実施形態は一例に過ぎず、本発明が適用される実施形態は、以下の実施形態に限られない。
なお、実施形態を説明するための全図において、同一の機能を有するものは同一符号を用い、繰り返しの説明は省略する。
また、本願でいう「XXに基づいて」とは、「少なくともXXに基づく」ことを意味し、XXに加えて別の要素に基づく場合も含む。また、「XXに基づいて」とは、XXを直接に用いる場合に限定されず、XXに対して演算や加工が行われたものに基づく場合も含む。「XX」は、任意の要素(例えば、任意の情報)である。
Next, the welding robot system and determination method of this embodiment will be explained with reference to the drawings. The embodiments described below are merely examples, and the embodiments to which the present invention is applied are not limited to the following embodiments.
In addition, in all the figures for explaining the embodiment, parts having the same functions are denoted by the same reference numerals, and repeated explanations will be omitted.
Furthermore, "based on XX" as used herein means "based on at least XX", and includes cases where it is based on another element in addition to XX. Moreover, "based on XX" is not limited to the case where XX is used directly, but also includes the case where it is based on calculations or processing performed on XX. "XX" is an arbitrary element (for example, arbitrary information).

(実施形態)
(溶接ロボットシステム)
図1は、本発明の実施形態に係る溶接ロボットシステムの一例を示す図である。
本実施形態に係る溶接ロボットシステム1は、溶接ロボット10を用いて溶接対象物2の自動溶接を行うものである。溶接対象物2の一例は、鋼材である。
溶接ロボットシステム1は、溶接ロボット10と制御装置9とを備える。
溶接対象物2には、溶接すべき一対の辺縁に溝状の開先3が形成されている。溶接対象物2には、開先3に沿って走行レール11が設置され、溶接ロボット10は走行レール11に沿って移動可能である。
溶接ロボット10においては、溶接対象物2の表面との交差方向がZ軸、開先3および走行レール11の延伸方向がY軸、開先3を横断する方向(Z軸およびY軸とそれぞれ直交する方向)がX軸とされる。
溶接ロボット10は、走行レール11に沿って移動するサドル12を有し、サドル12には矩形箱状のケース13が支持されている。
ケース13の内部には図示しない移動機構が設置され、ケース13は走行レール11に対して近接離隔する方向(Z軸方向)、および開先3を横断する方向(X軸方向)へ、それぞれ移動可能である。
(Embodiment)
(welding robot system)
FIG. 1 is a diagram showing an example of a welding robot system according to an embodiment of the present invention.
A welding robot system 1 according to the present embodiment automatically welds a welding object 2 using a welding robot 10. An example of the welding object 2 is steel.
The welding robot system 1 includes a welding robot 10 and a control device 9.
A groove-shaped groove 3 is formed in the welding object 2 at a pair of edges to be welded. A traveling rail 11 is installed along the groove 3 on the welding object 2, and the welding robot 10 is movable along the traveling rail 11.
In the welding robot 10, the direction intersecting the surface of the welding object 2 is the Z-axis, the extending direction of the groove 3 and the running rail 11 is the Y-axis, and the direction crossing the groove 3 (perpendicular to the Z-axis and the Y-axis, respectively) is the Y-axis. direction) is defined as the X-axis.
The welding robot 10 has a saddle 12 that moves along a traveling rail 11, and a rectangular box-shaped case 13 is supported on the saddle 12.
A moving mechanism (not shown) is installed inside the case 13, and the case 13 moves in a direction toward and away from the running rail 11 (Z-axis direction) and in a direction across the groove 3 (X-axis direction). It is possible.

ケース13の開先3に臨む側にはブラケット14が設置され、ブラケット14の先端にはホルダ15が支持され、ホルダ15には溶接トーチ16が保持されている。溶接トーチ16の先端には溶接ワイヤ161が支持されている。
ホルダ15は、ブラケット14に回動可能かつ回動軸Sまわりの任意の角度位置で固定可能であり、ホルダ15の角度により溶接トーチ16のねらい角Atを調整可能である。
溶接ロボット10には、制御装置9が接続されている。
A bracket 14 is installed on the side of the case 13 facing the groove 3, a holder 15 is supported at the tip of the bracket 14, and a welding torch 16 is held in the holder 15. A welding wire 161 is supported at the tip of the welding torch 16.
The holder 15 is rotatable to the bracket 14 and can be fixed at any angular position around the rotation axis S, and the aiming angle At of the welding torch 16 can be adjusted by adjusting the angle of the holder 15.
A control device 9 is connected to the welding robot 10.

溶接ロボット10は、照明装置21と、カメラ22-1と、カメラ22-2とが取り付けられている。カメラ22-1と、カメラ22―2とは、溶接ロボット10から取り外し可能である。カメラ22-1と、カメラ22-2とのうち、任意のカメラをカメラ22と記載する。
照明装置21の一例は、ラインレーザ照射装置であり、開先3の横断方向(X軸方向)に拡がるレーザ光束を開先3の測定部位31に照射する。このように構成することで、測定部位31を開先3の横断方向へ連続して線状に照明できるため、断面形状32を周囲よりも明るく浮かび上がらせることができる。
カメラ22-1とカメラ22-2とは、溶接トーチ16を挟んで両側に一対設置され、それぞれ照明装置21で線状に照明された断面形状32を含む測定部位31を撮像し、画像データとして制御装置9に送信する。
The welding robot 10 is equipped with a lighting device 21, a camera 22-1, and a camera 22-2. Camera 22-1 and camera 22-2 are removable from welding robot 10. An arbitrary camera among the camera 22-1 and the camera 22-2 will be referred to as a camera 22.
An example of the illumination device 21 is a line laser irradiation device, which irradiates the measurement site 31 of the groove 3 with a laser beam that spreads in the transverse direction of the groove 3 (X-axis direction). With this configuration, the measurement site 31 can be continuously illuminated linearly in the transverse direction of the groove 3, so the cross-sectional shape 32 can be made to stand out brighter than the surrounding area.
A pair of cameras 22-1 and 22-2 are installed on both sides of the welding torch 16, and each captures an image of a measurement site 31 including a cross-sectional shape 32 illuminated linearly by an illumination device 21, and converts the images into image data. It is transmitted to the control device 9.

一対のカメラ22の一例は、それぞれCCD(Charge Coupled Device、電荷結合素子)などの固体撮像素子を含んで構成され、支持パネル221および支持アーム222を介して、ケース13の側面に設置された支持レール223に支持されている。
各カメラ22は、支持パネル221に対して向きを調整可能であり、さらに支持レール223に沿ってX軸方向へ移動可能であり、各カメラ22の位置、向きや傾きを調整することで、撮像する際の視野つまり測定部位31を含む溶接対象物2上の撮像領域220を自由に調整できる。
An example of the pair of cameras 22 each includes a solid-state imaging device such as a CCD (Charge Coupled Device), and is connected to a support installed on the side surface of the case 13 via a support panel 221 and a support arm 222. It is supported by rails 223.
Each camera 22 can adjust its orientation with respect to the support panel 221, and can also move in the X-axis direction along the support rail 223. By adjusting the position, orientation, and inclination of each camera 22, imaging The field of view, that is, the imaging area 220 on the welding object 2 including the measurement site 31 can be freely adjusted.

溶接ロボットシステム1は、溶接ロボット10に支持されたパネル23を備える。
パネル23の形状は、長方形などの矩形であり、パネル23の表面には、直交配置された複数本の線232および線233による二次元のゲージ230が描かれている。
パネル23は、キャリブレーションプレートであってもよい。キャリブレーションプレートは、カメラ22-1およびカメラ22-2のそれぞれの座標系と溶接ロボット10の座標系とを対応付けるためのキャリブレーションを行うために使用される。溶接ロボット10の座標系とは、溶接ロボット10の位置を表すための座標系である。
キャリブレーションプレートは、カメラ22-1およびカメラ22-2のそれぞれのキャリブレーションに使用される。キャリブレーションプレートは、開先3の断面形状の測定にも使用される。キャリブレーションプレートは、ワールド座標系に対するロボット座標系の傾きを求めるためにも使用される。
ゲージ230の形状情報、具体的にはパネル23における直交配置された複数本の線232および線233の基端位置、数、長さ、先端位置の情報は、予め制御装置9に記憶されている。
パネル23は、アーム231を介してブラケット14に支持され、少なくとも下半分が開先3内に入り込むように配置され、パネル23の表面が開先3の連続方向と交差する状態とされている。
アーム231は、ブラケット14に対して回動自在に接続され、パネル23は開先3に入り込んだ状態からカメラ22の視野外まで退避可能である。パネル23をカメラ22の視野外へ退避させるために、アーム231およびパネル23をブラケット14から取り外し可能としてもよい。
このような溶接ロボットシステム1においては、溶接対象物2に対する自動溶接作業に先立って、カメラ位置の正誤を判定し、開先3に対するセンシングを行う。
The welding robot system 1 includes a panel 23 supported by the welding robot 10.
The shape of the panel 23 is a rectangle such as a rectangle, and a two-dimensional gauge 230 is drawn on the surface of the panel 23 by a plurality of lines 232 and 233 arranged orthogonally.
Panel 23 may be a calibration plate. The calibration plate is used to perform calibration to associate the coordinate systems of cameras 22-1 and 22-2 with the coordinate system of welding robot 10. The coordinate system of the welding robot 10 is a coordinate system for expressing the position of the welding robot 10.
The calibration plate is used to calibrate each of the cameras 22-1 and 22-2. The calibration plate is also used to measure the cross-sectional shape of the groove 3. The calibration plate is also used to determine the tilt of the robot coordinate system with respect to the world coordinate system.
Information on the shape of the gauge 230, specifically, information on the base end position, number, length, and tip position of the plurality of lines 232 and 233 arranged orthogonally on the panel 23 is stored in advance in the control device 9. .
The panel 23 is supported by the bracket 14 via an arm 231, and is arranged so that at least the lower half thereof enters the groove 3, so that the surface of the panel 23 intersects the continuous direction of the groove 3.
The arm 231 is rotatably connected to the bracket 14, and the panel 23 can be retracted from the state of entering the groove 3 to outside the field of view of the camera 22. In order to retract the panel 23 out of the field of view of the camera 22, the arm 231 and the panel 23 may be removable from the bracket 14.
In such a welding robot system 1, prior to automatic welding work on the welding object 2, it is determined whether the camera position is correct or not, and sensing is performed on the groove 3.

図2は、本実施形態に係る溶接ロボットシステムの一例を示す図である。溶接ロボットシステム1は、図2に示すように、制御装置9と、走行レール11と、サドル12と、溶接トーチ16と、照明装置21と、カメラ22-1と、カメラ22-2とを備える。
制御装置9は、溶接動作制御部91と、サドル移動制御部92と、入力部93と、処理部94と、記憶部95と、カメラ制御部96と、判定部97と、通知部98とを備える。
制御装置9は、既存のコンピュータシステムに専用のドライバを組み合わせて構成され、記憶部95に格納されたプログラムを実行することで、カメラの位置の正誤の判定、開先形状の測定、走行レール11に沿ったサドル12およびケース13の走行、溶接トーチ16の姿勢調整、溶接トーチ16に供給する電圧および電流の調整、溶接ワイヤの送り速度の調整など、溶接ロボット10の各部動作の制御を行う。
制御装置9は、溶接対象物2の開先3に対して、複数の測定部位31で断面形状32を測定することで開先3の全体的な形状を測定し、得られた開先形状に基づいて溶接ロボット10を制御する。
FIG. 2 is a diagram showing an example of a welding robot system according to this embodiment. As shown in FIG. 2, the welding robot system 1 includes a control device 9, a traveling rail 11, a saddle 12, a welding torch 16, a lighting device 21, a camera 22-1, and a camera 22-2. .
The control device 9 includes a welding operation control section 91, a saddle movement control section 92, an input section 93, a processing section 94, a storage section 95, a camera control section 96, a determination section 97, and a notification section 98. Be prepared.
The control device 9 is configured by combining an existing computer system with a dedicated driver, and by executing a program stored in the storage section 95, determines whether the camera position is correct or incorrect, measures the groove shape, and performs the following operations on the running rail 11. It controls the operations of each part of the welding robot 10, such as running the saddle 12 and case 13 along the welding robot 10, adjusting the attitude of the welding torch 16, adjusting the voltage and current supplied to the welding torch 16, and adjusting the feed rate of the welding wire.
The control device 9 measures the overall shape of the groove 3 of the welding object 2 by measuring the cross-sectional shape 32 at a plurality of measurement sites 31, and adjusts the overall shape of the groove 3 to the obtained groove shape. The welding robot 10 is controlled based on this.

溶接動作制御部91は、溶接トーチ16を制御する。例えば、溶接動作制御部91は、溶接トーチ16の姿勢調整、溶接トーチ16に供給する電圧および電流の調整、溶接ワイヤの送り速度の調整などを行う。
サドル移動制御部92は、サドル12を制御する。例えば、サドル移動制御部92は、走行レール11に沿ったサドル12の走行の制御を行う。
入力部93は、情報を入力する。一例として、入力部93は、キーボードおよびマウスなどの操作部を有してもよい。この場合、入力部93は、ユーザによって当該操作部に対して行われる操作に応じた情報を入力する。他の例として、入力部93は、外部の装置から情報を入力してもよい。当該外部の装置は、例えば、可搬な記憶媒体であってもよい。
入力部93には、ユーザによって、カメラ22-1およびカメラ22-2のそれぞれが取り付けられる位置に対応する情報が入力される。カメラ22-1およびカメラ22-2のそれぞれが取り付けられる位置に対応する情報の一例は、カメラ22-1およびカメラ22-2のIPアドレスなどのカメラ22-1およびカメラ22-2がネットワーク通信を行う場合に使用する識別情報である。
以下、カメラ22-1およびカメラ22-2のそれぞれが取り付けられる位置に対応する情報の一例として、カメラ22-1およびカメラ22-2のIPアドレスを適用した場合について説明を続ける。
Welding operation control section 91 controls welding torch 16 . For example, the welding operation control unit 91 adjusts the attitude of the welding torch 16, adjusts the voltage and current supplied to the welding torch 16, adjusts the feed rate of the welding wire, and the like.
Saddle movement control section 92 controls saddle 12 . For example, the saddle movement control unit 92 controls the movement of the saddle 12 along the running rail 11.
The input unit 93 inputs information. As an example, the input unit 93 may include an operation unit such as a keyboard and a mouse. In this case, the input section 93 inputs information according to the operation performed on the operation section by the user. As another example, the input unit 93 may input information from an external device. The external device may be, for example, a portable storage medium.
The user inputs information corresponding to the positions at which the cameras 22-1 and 22-2 are attached to the input unit 93. An example of information corresponding to the positions where the cameras 22-1 and 22-2 are installed is the IP address of the cameras 22-1 and 22-2, etc. This is the identification information used when
Hereinafter, a case will be continued in which the IP addresses of the cameras 22-1 and 22-2 are applied as an example of information corresponding to the positions where the cameras 22-1 and 22-2 are installed.

例えば、カメラ22-1およびカメラ22-2は、溶接ロボット10に対して、所定方向側と所定方向側とは反対側とに取り付けられる。所定方向の一例は左側(Y軸のマイナス側)であり、反対側の一例は右側(Y軸のプラス側)である。以下、一例として、所定方向側が左側であり、反対側が右側であり、左側にカメラ22-1が取り付けられ、右側にカメラ22-2が取り付けられる場合について説明を続ける。
表示部(図示なし)には、左側のカメラ22-1に対応するIPアドレスを入力する欄と、右側のカメラ22-2に対応するIPアドレスを入力する欄とが表示される。ユーザは、入力部93に左側のカメラ22-1に対応するIPアドレスと、右側のカメラ22-2に対応するIPアドレスとを入力する。
For example, camera 22-1 and camera 22-2 are attached to welding robot 10 on a predetermined direction side and on a side opposite to the predetermined direction side. An example of the predetermined direction is the left side (minus side of the Y axis), and an example of the opposite side is the right side (plus side of the Y axis). Hereinafter, as an example, a case will be continued in which the predetermined direction side is the left side, the opposite side is the right side, the camera 22-1 is attached to the left side, and the camera 22-2 is attached to the right side.
A display section (not shown) displays a column for inputting an IP address corresponding to the left camera 22-1 and a column for inputting an IP address corresponding to the right camera 22-2. The user inputs into the input section 93 the IP address corresponding to the left camera 22-1 and the IP address corresponding to the right camera 22-2.

処理部94は、入力部93から左側のカメラ22-1に対応するIPアドレスと、右側のカメラ22-2に対応するIPアドレスとを取得する。処理部94は、取得した左側のカメラ22-1に対応するIPアドレスと、右側のカメラ22-2に対応するIPアドレスとを記憶部95に記憶させる。
カメラ制御部96は、カメラ22-1と、カメラ22-2とを制御する。カメラ制御部96は、カメラ22-1と、カメラ22-2とに接続し、カメラ22-1と、カメラ22-2とから、識別情報を取得する。識別情報の一例は、MACアドレス(Media Access Control address)などのカメラ22に固有の識別番号である。以下、カメラ22-1およびカメラ22-2のそれぞれの識別情報の一例として、MACアドレスを適用した場合について説明を続ける。
カメラ制御部96は、カメラ22-1から取得したMACアドレスを、カメラ22-1のIPアドレスと関連付けて、記憶部95に記憶させる。カメラ制御部96は、カメラ22-2から取得したMACアドレスを、カメラ22-2のIPアドレスと関連付けて、記憶部95に記憶させる。
The processing unit 94 obtains the IP address corresponding to the left camera 22-1 and the IP address corresponding to the right camera 22-2 from the input unit 93. The processing unit 94 causes the storage unit 95 to store the obtained IP address corresponding to the left camera 22-1 and the IP address corresponding to the right camera 22-2.
Camera control section 96 controls camera 22-1 and camera 22-2. The camera control unit 96 is connected to the camera 22-1 and the camera 22-2, and obtains identification information from the camera 22-1 and the camera 22-2. An example of the identification information is an identification number unique to the camera 22, such as a MAC address (Media Access Control address). Hereinafter, a case will be continued in which a MAC address is used as an example of the identification information of the camera 22-1 and the camera 22-2.
The camera control unit 96 stores the MAC address acquired from the camera 22-1 in the storage unit 95 in association with the IP address of the camera 22-1. The camera control unit 96 stores the MAC address acquired from the camera 22-2 in the storage unit 95 in association with the IP address of the camera 22-2.

溶接ロボット10が、溶接対象物2に設置される。照明装置21により開先3の測定部位31を横断方向へ線状に照明する。カメラ制御部96は、カメラ22-1とカメラ22-2とを開先3に向けて撮像領域を調整する。カメラ22-1とカメラ22-2とは、開先3を撮像する。
処理部94は、カメラ22-1とカメラ22-2とのそれぞれから、画像データを取得し、取得した画像データを処理する。処理部94は、画像データを処理することによって得られる画像に基づいて、カメラ22-1とカメラ22-2からの画像データをワールド座標系に対応させる校正関数を準備する。
処理部94は、カメラ22のレンズの歪を補正する。カメラ制御部96は、カメラ22-1と、カメラ22-2とに、被写体を撮像させる制御を行う。被写体の一例は、Y軸方向において、カメラ22-1と、カメラ22-2との間に設置されたパネル23である。カメラ制御部96は、カメラ22-1およびカメラ22-2のそれぞれに、パネル23に描かれているゲージ230を撮像領域に配置させ、ゲージ230を撮像させる制御を行う。
ゲージ230の基準点(例えば直交配置された複数本の線232および線233の交差する基点のいずれか)に対して、カメラ22-1およびカメラ22-2のそれぞれの向きを調整し、カメラ22-1およびカメラ22-2のそれぞれの光軸を基準点に向けて固定しておく。
Welding robot 10 is installed on object 2 to be welded. The measurement site 31 of the groove 3 is linearly illuminated in the transverse direction by the illumination device 21 . The camera control unit 96 adjusts the imaging areas of the cameras 22-1 and 22-2 to face the groove 3. The camera 22-1 and the camera 22-2 take images of the groove 3.
The processing unit 94 acquires image data from each of the cameras 22-1 and 22-2, and processes the acquired image data. The processing unit 94 prepares a calibration function that makes the image data from the cameras 22-1 and 22-2 correspond to the world coordinate system, based on images obtained by processing the image data.
The processing unit 94 corrects distortion of the lens of the camera 22. The camera control unit 96 controls the cameras 22-1 and 22-2 to take images of a subject. An example of the subject is the panel 23 installed between the camera 22-1 and the camera 22-2 in the Y-axis direction. The camera control unit 96 controls each of the cameras 22-1 and 22-2 to place the gauge 230 drawn on the panel 23 in the imaging area and to take an image of the gauge 230.
The orientations of the cameras 22-1 and 22-2 are adjusted with respect to the reference point of the gauge 230 (for example, one of the base points where the plurality of lines 232 and lines 233 arranged orthogonally intersect), and the camera 22 -1 and camera 22-2 are fixed so that their respective optical axes are directed toward a reference point.

溶接ロボット10により支持されたカメラ22-1およびカメラ22-2のそれぞれの位置は通常開先3からそれた位置にあり、パネル23の正面(開先3の連続方向であるY軸方向)から見ると、カメラ22-1およびカメラ22-2のそれぞれがX軸方向に変位Dx、Z軸方向に変位Dzで配置されている。さらに、カメラ22-1およびカメラ22-2のそれぞれの傾きがあり、光軸まわりのカメラ22-1およびカメラ22-2のそれぞれの傾き角Rとする。
カメラ22-1およびカメラ22-2のそれぞれは、パネル23に描かれているゲージ230を撮像する。処理部94は、カメラ22-1およびカメラ22-2のそれぞれから、画像データを取得し、取得した画像データを処理する。
処理部94は、画像データを処理することによって得られるゲージ230の画像に基づいて、カメラ22-1およびカメラ22-2のそれぞれによって撮像された画像にワールド座標系を設定する。例えば、処理部94は、撮像したゲージ230の画像から割り出した画像上の座標をもとにワールド座標系での座標を割り出すことによってワールド座標系を設定する。処理部94は、画像のゆがみ、焦点距離などのカメラ22-1およびカメラ22-2に固有の特性(内部パラメータ)に基づいて、画像座標系からカメラ座標系に変換する。処理部94は、外部パラメータに基づいて、カメラ座標系からワールド座標系に変換する。
撮像された画像では、カメラ22-1およびカメラ22-2のそれぞれがX軸方向に変位Dx、Z軸方向に変位Dzおよび傾き角Rによりそれた位置にあるため、パネル23に描かれたゲージ230の形状(例えば直交配置された複数本の線232および線233の長さ、なす角度)が元の形状に対して変形して表れる。
The respective positions of the cameras 22-1 and 22-2 supported by the welding robot 10 are normally located away from the groove 3, and from the front of the panel 23 (the Y-axis direction that is the continuous direction of the groove 3). As seen, the cameras 22-1 and 22-2 are each disposed at a displacement Dx in the X-axis direction and a displacement Dz in the Z-axis direction. Further, each of the cameras 22-1 and 22-2 has a tilt, and the tilt angle of each of the cameras 22-1 and 22-2 around the optical axis is R.
Each of the cameras 22-1 and 22-2 images the gauge 230 depicted on the panel 23. The processing unit 94 acquires image data from each of the cameras 22-1 and 22-2, and processes the acquired image data.
The processing unit 94 sets a world coordinate system to the images captured by the cameras 22-1 and 22-2, respectively, based on the image of the gauge 230 obtained by processing the image data. For example, the processing unit 94 sets the world coordinate system by determining coordinates in the world coordinate system based on coordinates on the image determined from the captured image of the gauge 230. The processing unit 94 converts the image coordinate system to the camera coordinate system based on characteristics (internal parameters) unique to the cameras 22-1 and 22-2, such as image distortion and focal length. The processing unit 94 converts the camera coordinate system to the world coordinate system based on external parameters.
In the captured image, since each of the cameras 22-1 and 22-2 is at a deviated position due to the displacement Dx in the X-axis direction, the displacement Dz in the Z-axis direction, and the tilt angle R, the gauge drawn on the panel 23 The shape of 230 (for example, the lengths and angles of the orthogonally arranged lines 232 and 233) appears deformed with respect to the original shape.

処理部94は、記憶部95に記憶されているゲージ230(例えば直交配置された複数本の線232および線233の長さ、なす角度)を参照し、画像データを処理することによって得られるゲージ230の画像に表れたゲージ230との比較演算を行うことで、カメラ22-1およびカメラ22-2のそれぞれの変位Dx,変位Dzおよび傾き角Rを計算する。
処理部94は、カメラ22-1およびカメラ22-2のそれぞれの変位Dx,変位Dzおよび傾き角Rの計算結果に対して、例えばホモグラフィ変換などの演算処理などを行うことにより、カメラ22-1およびカメラ22-2のそれぞれの外部パラメータとして開先3の断面形状を正面つまり開先3の連続方向から見た状態に校正する情報を取得する。
処理部94は、取得したカメラ22-1およびカメラ22-2のそれぞれの外部パラメータを、カメラ22-1およびカメラ22-2のそれぞれのIPアドレスと関連付けて記憶部95に記憶させる。このように構成することによって、カメラ22-1およびカメラ22-2のそれぞれで撮像された被写体の画像上に、ワールド座標系に対応したカメラ座標系を設定できる。なお、カメラ22-1およびカメラ22-2のそれぞれの内部パラメータは、それぞれのMACアドレスと関連付けて記憶部95に記憶させる。
The processing unit 94 refers to the gauge 230 (for example, the lengths and angles of a plurality of lines 232 and 233 arranged orthogonally arranged) stored in the storage unit 95, and generates a gauge obtained by processing the image data. By performing a comparison calculation with the gauge 230 appearing in the image 230, the displacement Dx, the displacement Dz, and the tilt angle R of the camera 22-1 and the camera 22-2 are calculated.
The processing unit 94 performs arithmetic processing such as homography conversion on the calculation results of the displacement Dx, displacement Dz, and tilt angle R of the camera 22-1 and the camera 22-2, so that the camera 22- Information for calibrating the cross-sectional shape of the groove 3 as viewed from the front, that is, from the continuous direction of the groove 3, is acquired as an external parameter for each of the groove 1 and the camera 22-2.
The processing unit 94 causes the storage unit 95 to store the acquired external parameters of the camera 22-1 and the camera 22-2 in association with the respective IP addresses of the camera 22-1 and the camera 22-2. With this configuration, a camera coordinate system corresponding to the world coordinate system can be set on the image of the subject captured by each of the cameras 22-1 and 22-2. Note that the internal parameters of the cameras 22-1 and 22-2 are stored in the storage unit 95 in association with their respective MAC addresses.

カメラ制御部96は、カメラ22-1およびカメラ22-2のそれぞれに、被写体を撮像させる制御を行う。被写体の一例は、Y軸方向において、カメラ22-1と、カメラ22-2との間に設置されたパネル23である。カメラ22-1と、カメラ22-2とは、被写体を撮像する。
図3は、本実施形態に係る溶接ロボットシステムの動作の一例を示す図である。図3において、左図はカメラ22-1によって被写体(パネル23)が撮像される様子を示す画像の一例であり、右図はカメラ22-2によって被写体が撮像される様子を示す画像の一例である。
ここで、カメラ22-1のIPアドレスは、192.168.***.**1であり、MACアドレスは、LL:LL:LL:LL:LL:LLである。カメラ22-2のIPアドレスは、192.168.***.**2であり、MACアドレスは、RR:RR:RR:RR:RR:RRである。
判定部97は、カメラ22-1およびカメラ22-2のそれぞれから、画像データを取得し、取得した画像データを処理する。判定部97は、画像データを処理することによって得られる画像に基づいて、カメラ22-1およびカメラ22-2のそれぞれが、溶接ロボット10の左側および右側のいずれに取り付けられているのかを判定する。
The camera control unit 96 controls each of the cameras 22-1 and 22-2 to take images of a subject. An example of the subject is the panel 23 installed between the camera 22-1 and the camera 22-2 in the Y-axis direction. The camera 22-1 and the camera 22-2 take images of a subject.
FIG. 3 is a diagram showing an example of the operation of the welding robot system according to this embodiment. In FIG. 3, the left figure is an example of an image showing how the subject (panel 23) is imaged by the camera 22-1, and the right figure is an example of an image showing how the subject is imaged by the camera 22-2. be.
Here, the IP address of camera 22-1 is 192.168. ***. **1, and the MAC address is LL:LL:LL:LL:LL:LL. The IP address of camera 22-2 is 192.168. ***. **2, and the MAC address is RR:RR:RR:RR:RR:RR.
The determination unit 97 acquires image data from each of the cameras 22-1 and 22-2, and processes the acquired image data. The determining unit 97 determines whether each of the cameras 22-1 and 22-2 is attached to the left or right side of the welding robot 10, based on the image obtained by processing the image data. .

図4は、本実施形態に係る溶接ロボットシステムの動作の一例を示す図である。図4において、左図はカメラ22-1によって撮像される被写体(パネル23)の歪補正前の画像(以下「左側被写体画像」という)の一例であり、右図はカメラ22-2によって撮像される被写体(パネル23)の歪補正前の画像(以下「右側被写体画像」という)の一例である。
図4に示すように、被写体(パネル23)の形状は、長方形である。
図4によれば、カメラ22-1によって撮像される被写体(パネル23)の画像の一例から、被写体はカメラ22-1の撮像範囲における所定範囲に位置し、カメラ22-2によって撮像される被写体(パネル23)の画像の一例から、被写体はカメラ22-2の撮像範囲における所定範囲に位置していることが分かる。
判定部97は、左側被写体画像に含まれる被写体(パネル23)の少なくとも2つの頂点の画像座標系での座標と、右側被写体画像に含まれる被写体(パネル23)の少なくとも2つの頂点の画像座標系での座標とを取得する。例えば、判定部97は、左側被写体画像に含まれる被写体(パネル23)の対向する頂点の画像座標系での座標を取得し、右側被写体画像に含まれる被写体(パネル23)の対向する頂点の画像座標系での座標を取得する。
FIG. 4 is a diagram showing an example of the operation of the welding robot system according to this embodiment. In FIG. 4, the left figure is an example of an image before distortion correction (hereinafter referred to as "left side subject image") of the subject (panel 23) imaged by the camera 22-1, and the right figure is an example of the image captured by the camera 22-2. This is an example of an image (hereinafter referred to as "right-side subject image") before distortion correction of the subject (panel 23).
As shown in FIG. 4, the object (panel 23) has a rectangular shape.
According to FIG. 4, an example of the image of the subject (panel 23) captured by the camera 22-1 shows that the subject is located within a predetermined range in the imaging range of the camera 22-1, and the subject is captured by the camera 22-2. It can be seen from the example of the image (panel 23) that the subject is located within a predetermined range in the imaging range of the camera 22-2.
The determination unit 97 determines the coordinates in the image coordinate system of at least two vertices of the subject (panel 23) included in the left subject image and the image coordinate system of at least two vertices of the subject (panel 23) included in the right subject image. Get the coordinates at. For example, the determination unit 97 acquires the coordinates of opposing vertices of the subject (panel 23) included in the left subject image in the image coordinate system, and obtains the image of the opposing vertices of the subject (panel 23) included in the right subject image. Get the coordinates in the coordinate system.

図5は、本実施形態に係る溶接ロボットシステムの動作の一例を示す図である。図5において、左図は歪補正後の左側被写体画像の一例であり、右図は歪補正後の右側被写体画像の一例である。破線で示すように、被写体の長辺と、カメラ22-1およびカメラ22-2のそれぞれの撮像範囲の長辺とがなす角(θL、θR)が、少なくとも撮像のタイミングで不変である。
判定部97は、左側被写体画像と右側被写体画像との各々に含まれる被写体(パネル23)から二次元ゲージの対向する頂点のカメラ座標系での座標を取得する。例えば、判定部97は、画像のゆがみ、焦点距離などのカメラ22-1およびカメラ22-2に固有の特性(内部パラメータ)に基づいて、画像座標系からカメラ座標系に変換する。
判定部97は、左側被写体画像において、被写体(パネル23)から二次元ゲージのカメラ座標系での原点(VL1)の座標と、原点(VL1)に対向する頂点(VL2)の座標とを取得する。判定部97は、右側被写体画像において、被写体(パネル23)から二次元ゲージのカメラ座標系での原点(VR1)の座標と原点(VR1)に対向する頂点(VR2)の座標とを取得する。
判定部97は、左側被写体画像および右側被写体画像のそれぞれから取得した二次元ゲージの対向する頂点のカメラ座標系での座標を、ワールド座標系の座標に変換する。例えば、判定部97は、左側被写体画像において、外部パラメータに基づいて、カメラ座標系での原点(VL1)の座標をワールド座標系での座標(XiL(0),YiL(0))に変換し、カメラ座標系での原点に対向する頂点(VL2)の座標をワールド座標系での座標(XiL(max),YiLR(max))に変換する。
判定部97は、右側被写体画像において、外部パラメータに基づいて、カメラ座標系での原点(VR1)の座標をワールド座標系での座標(XiR(0),YiR(0))に変換し、カメラ座標系での原点に対向する頂点(VR2)の座標をワールド座標系での座標(XiR(max),YiR(max))に変換する。
FIG. 5 is a diagram showing an example of the operation of the welding robot system according to this embodiment. In FIG. 5, the left diagram is an example of a left subject image after distortion correction, and the right diagram is an example of a right subject image after distortion correction. As shown by the broken line, the angles (θL, θR) formed by the long sides of the subject and the long sides of the imaging ranges of the cameras 22-1 and 22-2 remain unchanged at least at the timing of imaging.
The determination unit 97 acquires the coordinates of opposing vertices of the two-dimensional gauge in the camera coordinate system from the subject (panel 23) included in each of the left subject image and the right subject image. For example, the determination unit 97 converts the image coordinate system to the camera coordinate system based on characteristics (internal parameters) unique to the cameras 22-1 and 22-2, such as image distortion and focal length.
The determination unit 97 obtains the coordinates of the origin (VL1) in the camera coordinate system of the two-dimensional gauge and the coordinates of the vertex (VL2) facing the origin (VL1) from the subject (panel 23) in the left subject image. . The determination unit 97 acquires the coordinates of the origin (VR1) in the camera coordinate system of the two-dimensional gauge and the coordinates of the vertex (VR2) facing the origin (VR1) from the subject (panel 23) in the right subject image.
The determination unit 97 converts the coordinates in the camera coordinate system of the opposing vertices of the two-dimensional gauge acquired from each of the left-side subject image and the right-side subject image into coordinates in the world coordinate system. For example, in the left subject image, the determination unit 97 converts the coordinates of the origin (VL1) in the camera coordinate system to coordinates (XiL(0), YiL(0)) in the world coordinate system based on external parameters. , converts the coordinates of the vertex (VL2) facing the origin in the camera coordinate system to coordinates (XiL(max), YiLR(max)) in the world coordinate system.
In the right subject image, the determination unit 97 converts the coordinates of the origin (VR1) in the camera coordinate system to coordinates (XiR(0), YiR(0)) in the world coordinate system based on the external parameters, and The coordinates of the vertex (VR2) facing the origin in the coordinate system are converted to coordinates (XiR(max), YiR(max)) in the world coordinate system.

判定部97は、左側被写体画像において、カメラ座標系での原点(VR1)の座標をワールド座標系での座標に変換した結果と、カメラ座標系での原点に対向する頂点(VL2)の座標をワールド座標系での座標に変換した結果とに基づいて、左側に取り付けられたカメラ22-1および右側に取り付けられたカメラ22-2のそれぞれが正しいか否かを判定する。
具体的には、判定部97は、ワールド座標系での頂点(VL2)のX座標(XiL(max))が、ワールド座標系での原点(VL1)のX座標(XiL(0))よりも大きい値であり、且つワールド座標系での頂点(VR2)のX座標(XiR(max))が、ワールド座標系での原点(VR1)のX座標(XiR(0))よりも小さい値である場合には、カメラ22-1とカメラ22-2とが正しく設置されていると判定する。
判定部97は、ワールド座標系での頂点(VL2)のX座標(XiL(max))が、ワールド座標系での原点(VL1)のX座標(XiL(0))以下の値であり、又はワールド座標系での頂点(VR2)のX座標(XiR(max))が、ワールド座標系での原点(VR1)のX座標(XiR(0))以上の値である場合には、カメラ22-1とカメラ22-2とが正しく設置されていないと判定する。
The determination unit 97 calculates the result of converting the coordinates of the origin (VR1) in the camera coordinate system into the coordinates in the world coordinate system and the coordinates of the vertex (VL2) opposite the origin in the camera coordinate system in the left subject image. Based on the results of the conversion into coordinates in the world coordinate system, it is determined whether the camera 22-1 attached to the left side and the camera 22-2 attached to the right side are correct.
Specifically, the determination unit 97 determines that the X coordinate (XiL(max)) of the vertex (VL2) in the world coordinate system is greater than the X coordinate (XiL(0)) of the origin (VL1) in the world coordinate system. It is a large value, and the X coordinate (XiR (max)) of the vertex (VR2) in the world coordinate system is a smaller value than the X coordinate (XiR (0)) of the origin (VR1) in the world coordinate system. In this case, it is determined that the camera 22-1 and the camera 22-2 are correctly installed.
The determination unit 97 determines that the X coordinate (XiL(max)) of the vertex (VL2) in the world coordinate system is less than or equal to the X coordinate (XiL(0)) of the origin (VL1) in the world coordinate system, or If the X coordinate (XiR(max)) of the vertex (VR2) in the world coordinate system is greater than or equal to the X coordinate (XiR(0)) of the origin (VR1) in the world coordinate system, the camera 22- 1 and camera 22-2 are determined to be incorrectly installed.

判定部97は、ワールド座標系での頂点(VL2)のX座標(XiL(max))が、ワールド座標系での原点(VL1)のX座標(XiL(0))以下の値であり、且つワールド座標系での頂点(VR2)のX座標(XiR(max))が、ワールド座標系での原点(VR1)のX座標(XiR(0))以上の値である場合には、カメラ22-1とカメラ22-2とが正しく設置されていないと判定する。図2に戻り説明を続ける。
判定部97は、カメラ22-1およびカメラ22-2のそれぞれが正しく設置されていないと判定した場合に、通知部98に通知する。
通知部98は、判定部97から通知された場合に、ユーザにカメラ22-1およびカメラ22-2のそれぞれが正しい位置に設置されていないことを通知する。このように構成することによって、入力部93に入力されるカメラ22-1およびカメラ22-2のそれぞれのIPアドレスに対応する位置と、判定部97により判定されるカメラ22-1およびカメラ22-2のそれぞれが取り付けられている位置とが異なることをユーザに知らせることができる。
処理部94は、画像データを処理することによって得られるゲージ230の画像に基づいて、カメラ22-1およびカメラ22-2のそれぞれで撮像された画像におけるカメラ座標系を設定する。
The determination unit 97 determines that the X coordinate (XiL(max)) of the vertex (VL2) in the world coordinate system is less than or equal to the X coordinate (XiL(0)) of the origin (VL1) in the world coordinate system, and If the X coordinate (XiR(max)) of the vertex (VR2) in the world coordinate system is greater than or equal to the X coordinate (XiR(0)) of the origin (VR1) in the world coordinate system, the camera 22- 1 and camera 22-2 are determined to be incorrectly installed. Returning to FIG. 2, the explanation will be continued.
If the determination unit 97 determines that each of the cameras 22-1 and 22-2 is not installed correctly, it notifies the notification unit 98.
When notified by the determining unit 97, the notification unit 98 notifies the user that each of the cameras 22-1 and 22-2 is not installed at the correct position. With this configuration, the positions corresponding to the respective IP addresses of the camera 22-1 and the camera 22-2 input to the input unit 93 and the positions of the camera 22-1 and the camera 22-2 determined by the determination unit 97 can be It is possible to inform the user that the positions where each of the two parts are attached are different from each other.
The processing unit 94 sets the camera coordinate system in the images captured by the cameras 22-1 and 22-2, respectively, based on the image of the gauge 230 obtained by processing the image data.

アーム231を回動させることによって、パネル23をカメラ22-1およびカメラ22-2のそれぞれの視野外まで退避させる。処理部94は、カメラ座標系の原点を校正する。例えば、溶接ロボット10の溶接トーチ16の先端から溶接ワイヤを出した状態にする。
図1において、断面形状32の任意位置(例えば予め設定される校正ポイントに用いた開先3の折曲点)をトーチねらい位置として選択しておき、溶接ロボット10をX軸方向およびZ軸方向に移動させ、溶接トーチ16から延びる溶接ワイヤ161の先端をトーチねらい位置に接触させる。これにより、ワールド座標系の原点と、ロボット座標系の原点と、を対応付ける。
By rotating the arm 231, the panel 23 is retracted out of the field of view of each of the cameras 22-1 and 22-2. The processing unit 94 calibrates the origin of the camera coordinate system. For example, a welding wire is brought out from the tip of the welding torch 16 of the welding robot 10.
In FIG. 1, an arbitrary position of the cross-sectional shape 32 (for example, the bending point of the groove 3 used as a preset calibration point) is selected as the torch aiming position, and the welding robot 10 is moved in the X-axis direction and the Z-axis direction. to bring the tip of the welding wire 161 extending from the welding torch 16 into contact with the torch's target position. This associates the origin of the world coordinate system with the origin of the robot coordinate system.

カメラ制御部96は、カメラ22-1およびカメラ22-2のそれぞれに、溶接ワイヤの先端を含む溶接ワイヤを撮像させる制御を行う。カメラ22-1およびカメラ22-2のそれぞれは、溶接ワイヤの先端を含む溶接ワイヤを撮像する。処理部94は、カメラ22-1およびカメラ22-2のそれぞれから画像データを取得し、取得した画像データを処理する。
溶接ロボット10の溶接トーチ16の先端から溶接ワイヤが出ない状態にする。カメラ制御部96は、カメラ22-1およびカメラ22-2のそれぞれに、溶接トーチ16の先端を撮像させる制御を行う。カメラ22-1およびカメラ22-2のそれぞれは、溶接トーチ16の先端を撮像する。処理部94は、カメラ22-1およびカメラ22-2のそれぞれから画像データを取得し、取得した画像データを処理する。
The camera control unit 96 controls each of the cameras 22-1 and 22-2 to take images of the welding wire including the tip of the welding wire. Each of the cameras 22-1 and 22-2 images the welding wire including the tip of the welding wire. The processing unit 94 acquires image data from each of the cameras 22-1 and 22-2, and processes the acquired image data.
The state is such that no welding wire comes out from the tip of the welding torch 16 of the welding robot 10. Camera control unit 96 controls each of camera 22-1 and camera 22-2 to take an image of the tip of welding torch 16. Each of the cameras 22-1 and 22-2 images the tip of the welding torch 16. The processing unit 94 acquires image data from each of the cameras 22-1 and 22-2, and processes the acquired image data.

処理部94は、画像データを処理することによって得られるワイヤ先端を含むワイヤの画像と溶接トーチ16の先端の画像とに基づいて、ワイヤ先端を含むワイヤの画像を取得する。処理部94は、取得したワイヤ先端を含むワイヤの画像に基づいて、ロボット座標系での溶接ワイヤ先端(トーチねらい位置)の座標を取得する。
処理部94は、取得したロボット座標系でのワイヤ先端の座標を、ワールド座標系の原点に設定する。溶接ワイヤ先端(トーチねらい位置)は、ロボット座標系での現在位置として検出されているので、ワールド座標系での原点位置をロボット座標系に変換できる。
The processing unit 94 acquires an image of the wire including the wire tip based on an image of the wire including the wire tip obtained by processing the image data and an image of the tip of the welding torch 16. The processing unit 94 acquires the coordinates of the welding wire tip (torch aiming position) in the robot coordinate system based on the obtained image of the wire including the wire tip.
The processing unit 94 sets the obtained coordinates of the tip of the wire in the robot coordinate system to the origin of the world coordinate system. Since the welding wire tip (torch aiming position) is detected as the current position in the robot coordinate system, the origin position in the world coordinate system can be converted to the robot coordinate system.

サドル移動制御部92は、開先3の測定部位31の近傍に溶接ロボット10を移動させる。処理部94は、照明装置21に測定部位31を横断方向へ線状に照明させる。処理部94は、開先3の測定部位31からセンシングポイントを決定する。カメラ制御部96は、カメラ22-1およびカメラ22-2のそれぞれに、開先3の測定部位31に含まれるセンシングポイントを撮像させる制御を行う。
カメラ22-1およびカメラ22-2のそれぞれは、開先3の測定部位31に含まれるセンシングポイントを撮像する。処理部94は、カメラ22-1およびカメラ22-2のそれぞれから画像データを取得し、取得した画像データを処理する。
処理部94は、予め準備された準備データを用いて、画像データを処理することによって得られる開先3の測定部位31に含まれるセンシングポイントの画像から、センシングポイントを挟む溶接対象物2の特徴に基づいて、左側のカメラ22-1でエリアの算出が可能か、右側のカメラ22-2でエリアの算出が可能か、左側のカメラ22-1および右側のカメラ22-2の両方でエリアの算出が可能かを判定する。なお、後述のステップS3―1の処理は、左側のカメラ22-1および右側のカメラ22-2の両方でエリアの算出が可能と処理部94により判定されたエリアで実行される。
The saddle movement control unit 92 moves the welding robot 10 near the measurement site 31 of the groove 3. The processing unit 94 causes the illumination device 21 to linearly illuminate the measurement site 31 in the transverse direction. The processing unit 94 determines sensing points from the measurement site 31 of the groove 3. The camera control unit 96 controls each of the cameras 22-1 and 22-2 to take images of sensing points included in the measurement site 31 of the groove 3.
Each of the cameras 22-1 and 22-2 images sensing points included in the measurement site 31 of the groove 3. The processing unit 94 acquires image data from each of the cameras 22-1 and 22-2, and processes the acquired image data.
The processing unit 94 uses prepared data prepared in advance to determine the characteristics of the welding object 2 that sandwich the sensing point from an image of the sensing point included in the measurement site 31 of the groove 3 obtained by processing the image data. Based on this, it is possible to calculate the area with the left camera 22-1, whether the area can be calculated with the right camera 22-2, or whether the area can be calculated with both the left camera 22-1 and the right camera 22-2. Determine whether calculation is possible. Note that the process of step S3-1, which will be described later, is executed in an area where the processing unit 94 determines that area calculation is possible using both the left camera 22-1 and the right camera 22-2.

図6は、本実施形態に係る溶接ロボットシステムの動作の一例を示す図である。図6には、溶接対象物2おいて、建方治具中間点に、センシングポイント(1)からセンシングポイント(5)が示されている。
処理部94は、建方治具の位置情報を取得し、取得した建方治具の位置情報に基づき、センシングポイント(1)からセンシングポイント(5)のそれぞれにおいて、左側のカメラ22-1でエリアの算出が可能か、右側のカメラ22-2でエリアの算出が可能か、左側のカメラ22-1および右側のカメラ22-2の両方でエリアの算出が可能かを判定する。ここで、処理部94は、センシング手段によって建方治具の位置情報を取得しても良いし、ユーザに入力させることによって建方治具の位置情報を取得しても良い。
処理部94は、センシングポイント(1)は、右側のカメラ22-2で撮像できるため、右側のカメラ22-2でエリアの算出が可能であると判定する。処理部94は、センシングポイント(2)からセンシングポイント(4)は、左側のカメラ22-1および右側のカメラ22-2の両方で撮像できるため、左側のカメラ22-1および右側のカメラ22-2の両方でエリアの算出が可能であると判定する。処理部94は、センシングポイント(5)は、左側のカメラ22-1で撮像できるため、左側のカメラ22-1でエリアの算出が可能であると判定する。
図7は、本実施形態に係る溶接ロボットシステムの動作の一例を示す図である。図7において、左図は、左側のカメラ22-1で、センシングポイント(5)を撮像した画像の一例である。センシングポイント(5)は、左側のカメラ22-1で撮像できるため、左側のカメラ22-1でエリアの算出が可能であることが分かる。
右上図は、右側のカメラ22-2で、センシングポイント(1)を撮像した画像の一例である。センシングポイント(1)は、右側のカメラ22-2で撮像できるため、右側のカメラ22-2でエリアの算出が可能であることが分かる。右下図は、右上図において、左右を反転させた画像である。図2に戻り説明を続ける。
FIG. 6 is a diagram showing an example of the operation of the welding robot system according to this embodiment. In FIG. 6, sensing points (1) to (5) are shown at the intermediate point of the erection jig in the welding object 2.
The processing unit 94 acquires the position information of the erection jig, and based on the acquired position information of the erection jig, the left camera 22-1 at each of the sensing points (1) to (5). It is determined whether the area can be calculated, whether the area can be calculated by the right camera 22-2, or whether the area can be calculated by both the left camera 22-1 and the right camera 22-2. Here, the processing unit 94 may acquire the position information of the erection jig by sensing means, or may acquire the position information of the erection jig by inputting it from the user.
Since the sensing point (1) can be imaged by the right camera 22-2, the processing unit 94 determines that the area can be calculated by the right camera 22-2. Since sensing points (2) to (4) can be imaged by both the left camera 22-1 and the right camera 22-2, the processing unit 94 uses the left camera 22-1 and the right camera 22-2 to capture images of the sensing points (2) to (4). It is determined that the area can be calculated in both cases. Since the sensing point (5) can be imaged by the left camera 22-1, the processing unit 94 determines that the area can be calculated by the left camera 22-1.
FIG. 7 is a diagram showing an example of the operation of the welding robot system according to this embodiment. In FIG. 7, the left diagram is an example of an image captured by the left camera 22-1 at the sensing point (5). It can be seen that since the sensing point (5) can be imaged by the left camera 22-1, the area can be calculated by the left camera 22-1.
The upper right diagram is an example of an image captured by the right camera 22-2 at the sensing point (1). Since the sensing point (1) can be imaged by the right camera 22-2, it can be seen that the area can be calculated by the right camera 22-2. The lower right figure is an image obtained by inverting the left and right sides of the upper right figure. Returning to FIG. 2, the explanation will be continued.

カメラ制御部96は、エリアの算出が可能であると判定した左側のカメラ22-1および右側のカメラ22-2のいずれか一方又は両方に、センシングポイントを撮像させる制御を行う。処理部94は、カメラ22-1およびカメラ22-2のそれぞれから、画像データを取得し、取得した画像データを処理する。処理部94は、取得した画像データを処理することによって得られる開先3の断面形状を検出する。
例えば、処理部94は、カメラ22-1およびカメラ22-2のそれぞれから取得した画像データを処理することによって得られる開先3の測定部位31の画像のうちの一方に反転処理を行う。処理部94は、反転処理を行った開先3の測定部位31の画像と、反転処理を行わなかった開先3の測定部位31の画像とに基づいて、開先3の長さ、角度、板厚などを算出することによってエッジ検出処理を行う。
処理部94は、開先3の断面形状のエッジ検出結果に基づいて、開先3の形状とロボット座標系における基準点とを導出する。処理部94は、導出した開先3の形状を特定する情報と基準点の値とにエラーがない場合に、開先3の形状を特定する情報と基準点の値とを確定する。処理部94は、確定した開先3の形状とロボット座標系における基準点とを記憶部95に記憶させる。
開先3の測定部位31に含まれるセンシングポイントを変更しつつ、開先3の全長あるいは一部区間にわたって、複数回繰り返される。このように構成することによって開先3の連続方向に沿った断面形状32を得ること(センシング)ができる。
溶接動作制御部91、サドル移動制御部92、処理部94、カメラ制御部96および判定部97は、例えば、CPU(Central Processing Unit)などのハードウェアプロセッサが記憶部95に格納されたコンピュータプログラム(ソフトウェア)を実行することにより実現される。
また、これらの機能部のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)などのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアとの協働によって実現されてもよい。
The camera control unit 96 controls one or both of the left camera 22-1 and the right camera 22-2, which have been determined to be capable of area calculation, to image sensing points. The processing unit 94 acquires image data from each of the cameras 22-1 and 22-2, and processes the acquired image data. The processing unit 94 detects the cross-sectional shape of the groove 3 obtained by processing the acquired image data.
For example, the processing unit 94 performs inversion processing on one of the images of the measurement site 31 of the groove 3 obtained by processing the image data obtained from each of the cameras 22-1 and 22-2. The processing unit 94 calculates the length, angle, Edge detection processing is performed by calculating plate thickness, etc.
The processing unit 94 derives the shape of the groove 3 and a reference point in the robot coordinate system based on the edge detection result of the cross-sectional shape of the groove 3. The processing unit 94 determines the information specifying the shape of the groove 3 and the value of the reference point when there is no error in the derived information specifying the shape of the groove 3 and the value of the reference point. The processing unit 94 causes the storage unit 95 to store the determined shape of the groove 3 and the reference point in the robot coordinate system.
This is repeated multiple times over the entire length or a partial section of the groove 3 while changing the sensing points included in the measurement site 31 of the groove 3. With this configuration, the cross-sectional shape 32 along the continuous direction of the groove 3 can be obtained (sensing).
The welding operation control section 91, the saddle movement control section 92, the processing section 94, the camera control section 96, and the determination section 97 are configured by a computer program (for example, a hardware processor such as a CPU (Central Processing Unit) stored in the storage section 95). software).
Some or all of these functional units may be implemented using LSI (Large Scale Integration), ASIC (Application Specific Integrated Circuit), FPGA (Field-Programmable Gate Array), G Hardware (circuits) such as PU (Graphics Processing Unit) (including circuitry), or may be realized by cooperation between software and hardware.

(溶接ロボットシステムの動作)
図8から図11は、本実施形態に係る溶接ロボットシステムの動作の一例を示すフローチャートである。ここでは、パネル23の一例としてキャリブレーションプレートを使用した場合について説明する。
(ステップS1-1)
制御装置9において、入力部93には、ユーザによって、カメラ22-1およびカメラ22-2のそれぞれが取り付けられる位置に対応するIPアドレスが入力される。処理部94は、入力部93から左側のカメラ22-1に対応するIPアドレスと、右側のカメラ22-2に対応するIPアドレスとを取得する。処理部94は、取得した左側のカメラ22-1に対応するIPアドレスと、右側のカメラ22-2に対応するIPアドレスとを記憶部95に記憶させる。
(ステップS2-1)
制御装置9において、カメラ制御部96は、カメラ22-1およびカメラ22-2のそれぞれを制御する。カメラ制御部96は、カメラ22-1およびカメラ22-2のそれぞれに接続し、カメラ22-1およびカメラ22-2のそれぞれから、MACアドレスを取得する。
カメラ制御部96は、カメラ22-1から取得したMACアドレスを、カメラ22-1のIPアドレスと関連付けて、記憶部95に記憶させる。カメラ制御部96は、カメラ22-2から取得したMACアドレスを、カメラ22-2のIPアドレスと関連付けて、記憶部95に記憶させる。
(Operation of welding robot system)
8 to 11 are flowcharts showing an example of the operation of the welding robot system according to this embodiment. Here, a case will be described in which a calibration plate is used as an example of the panel 23.
(Step S1-1)
In the control device 9, the user inputs into the input unit 93 the IP addresses corresponding to the positions where the cameras 22-1 and 22-2 are installed. The processing unit 94 obtains the IP address corresponding to the left camera 22-1 and the IP address corresponding to the right camera 22-2 from the input unit 93. The processing unit 94 causes the storage unit 95 to store the obtained IP address corresponding to the left camera 22-1 and the IP address corresponding to the right camera 22-2.
(Step S2-1)
In the control device 9, a camera control section 96 controls each of the cameras 22-1 and 22-2. The camera control unit 96 connects to each of the cameras 22-1 and 22-2, and obtains MAC addresses from each of the cameras 22-1 and 22-2.
The camera control unit 96 stores the MAC address acquired from the camera 22-1 in the storage unit 95 in association with the IP address of the camera 22-1. The camera control unit 96 stores the MAC address acquired from the camera 22-2 in the storage unit 95 in association with the IP address of the camera 22-2.

(ステップS3-1)
制御装置9において、カメラ制御部96は、カメラ22-1およびカメラ22-2のそれぞれに、キャリブレーションプレート(パネル23)に描かれているゲージ230を撮像領域に配置させ、ゲージ230を撮像させる制御を行う。
ゲージ230の基準点に対して、カメラ22-1およびカメラ22-2のそれぞれの向きを調整し、カメラ22-1およびカメラ22-2のそれぞれの光軸を基準点に向けて固定しておく。
カメラ22-1およびカメラ22-2のそれぞれは、キャリブレーションプレート(パネル23)に描かれているゲージ230を撮像する。
(ステップS4-1)
制御装置9において、処理部94は、カメラ22-1およびカメラ22-2のそれぞれから、画像データを取得し、取得した画像データを処理する。処理部94は、画像データを処理することによって、画像のゆがみ、焦点距離などのカメラ22-1およびカメラ22-2に固有の特性(内部パラメータ)を算出する。
処理部94は、カメラ22-1およびカメラ22-2のそれぞれから、画像データを取得し、取得した画像データを処理する。処理部94は、画像データを処理することによって得られるゲージ230の画像に、画像のゆがみ、焦点距離などのカメラ22-1およびカメラ22-2に固有の特性(内部パラメータ)に基づいて、歪補正を行う。
処理部94は、画像データを処理することによって得られるゲージ230の画像に基づいて、カメラ22-1およびカメラ22-2のそれぞれで撮像された画像にワールド座標系を設定する。
処理部94は、記憶部95に記憶されているゲージ230を参照し、画像データを処理することによって得られるゲージ230の画像に表れたゲージ230との比較演算を行うことで、カメラ22-1およびカメラ22-2のそれぞれにおいて、変位Dx,変位Dzおよび傾き角Rを計算する。
処理部94は、得られたカメラ22-1およびカメラ22-2のそれぞれの変位Dx,変位Dzおよび傾き角Rに対して、例えばホモグラフィ変換などの演算処理により、カメラ22-1およびカメラ22-2のそれぞれの外部パラメータとして開先3の断面形状を正面つまり開先の連続方向から見た状態に校正する情報を取得する。ホモグラフィ変換は、「(同じものを写した)二枚の画像の間の変換」を表す。つまり、ホモグラフィ変換は、歪んだ画像から内部パラメータを使って歪んでいない画像を作成する。内部パラメータを算出することもホモグラフィ変換を用いていると表現してもよい。ホモグラフィ変換の内容は、行列計算であり、ワールド座標系に仮想画面を想定すれば、後述するステップS6-1で、ホモグラフィ変換が行われてもよい。
(Step S3-1)
In the control device 9, the camera control unit 96 causes each of the cameras 22-1 and 22-2 to place the gauge 230 drawn on the calibration plate (panel 23) in the imaging area and to image the gauge 230. Take control.
Adjust the orientation of each of the cameras 22-1 and 22-2 with respect to the reference point of the gauge 230, and fix the respective optical axes of the cameras 22-1 and 22-2 toward the reference point. .
Each of the cameras 22-1 and 22-2 images the gauge 230 drawn on the calibration plate (panel 23).
(Step S4-1)
In the control device 9, the processing unit 94 acquires image data from each of the cameras 22-1 and 22-2, and processes the acquired image data. The processing unit 94 calculates characteristics (internal parameters) unique to the cameras 22-1 and 22-2, such as image distortion and focal length, by processing the image data.
The processing unit 94 acquires image data from each of the cameras 22-1 and 22-2, and processes the acquired image data. The processing unit 94 applies distortion to the image of the gauge 230 obtained by processing the image data, based on characteristics (internal parameters) unique to the cameras 22-1 and 22-2, such as image distortion and focal length. Make corrections.
The processing unit 94 sets a world coordinate system to the images captured by the cameras 22-1 and 22-2, respectively, based on the image of the gauge 230 obtained by processing the image data.
The processing unit 94 refers to the gauge 230 stored in the storage unit 95, and performs a comparison calculation between the gauge 230 obtained by processing the image data and the gauge 230 that appears in the image, so that the camera 22-1 The displacement Dx, the displacement Dz, and the tilt angle R are calculated for each of the cameras 22-2 and 22-2.
The processing unit 94 performs arithmetic processing such as homography conversion on the obtained displacement Dx, displacement Dz, and tilt angle R of the camera 22-1 and the camera 22-2, so that the camera 22-1 and the camera 22 Information for calibrating the cross-sectional shape of the groove 3 as viewed from the front, that is, from the continuous direction of the groove, is obtained as each external parameter of −2. Homography transformation refers to "transformation between two images (of the same thing)". In other words, homography transform creates an undistorted image from a distorted image using internal parameters. Calculating internal parameters may also be expressed as using homography transformation. The content of the homography transformation is matrix calculation, and if a virtual screen is assumed in the world coordinate system, the homography transformation may be performed in step S6-1, which will be described later.

(ステップS5-1)
制御装置9において、処理部94は、カメラ22-1およびカメラ22-2のそれぞれの内部パラメータを、カメラ22-1のMACアドレスおよびカメラ22-2のMACアドレスと関連付けて、記憶部95に記憶させる。
(ステップS6-1)
制御装置9において、カメラ制御部96は、カメラ22-1およびカメラ22-2のそれぞれに、キャリブレーションプレート(パネル23)を撮像させる制御を行う。カメラ22-1およびカメラ22-2のそれぞれは、キャリブレーションプレート(パネル23)を撮像する。
(ステップS7-1)
制御装置9において、判定部97は、カメラ22-1およびカメラ22-2のそれぞれから、画像データを取得し、取得した画像データを処理する。判定部97は、画像データを処理することによって得られる画像に基づいて、カメラ22-1およびカメラ22-2のそれぞれが、溶接ロボット10の左側および右側のいずれに取り付けられているのかを判定する。
判定部97は、カメラ22-1およびカメラ22-2のそれぞれが正しく取り付けられていないと判定した場合に、通知部98に通知する。通知部98は、判定部97から通知された場合に、ユーザにカメラ22-1およびカメラ22-2のそれぞれが正しく取り付けられてないことを通知する。ここでは、判定部97が、カメラ22-1およびカメラ22-2のそれぞれが正しく取り付けられていると判定した場合について説明を続ける。
(Step S5-1)
In the control device 9, the processing unit 94 stores the internal parameters of the camera 22-1 and the camera 22-2 in the storage unit 95 in association with the MAC address of the camera 22-1 and the MAC address of the camera 22-2. let
(Step S6-1)
In the control device 9, a camera control unit 96 controls each of the cameras 22-1 and 22-2 to take images of the calibration plate (panel 23). Each of the cameras 22-1 and 22-2 images the calibration plate (panel 23).
(Step S7-1)
In the control device 9, the determination unit 97 acquires image data from each of the cameras 22-1 and 22-2, and processes the acquired image data. The determining unit 97 determines whether each of the cameras 22-1 and 22-2 is attached to the left or right side of the welding robot 10, based on the image obtained by processing the image data. .
If the determining unit 97 determines that each of the cameras 22-1 and 22-2 is not correctly attached, it notifies the notifying unit 98. When notified by the determination unit 97, the notification unit 98 notifies the user that the camera 22-1 and the camera 22-2 are not installed correctly. Here, we will continue to explain the case where the determining unit 97 determines that each of the cameras 22-1 and 22-2 is correctly attached.

(ステップS8-1)
制御装置9において、処理部94は、画像データを処理することによって得られるゲージ230の画像に基づいて、カメラ22-1およびカメラ22-2のそれぞれで撮像された画像におけるワールド座標系を設定する。図9を参照して、引き続き説明を続ける。
(ステップS1-2)
アーム231を回動させることによって、キャリブレーションプレート(パネル23)をカメラ22-1およびカメラ22-2のそれぞれの視野外まで退避させる。
制御装置9において、処理部94は、カメラ座標系の原点を校正する。例えば、溶接ロボット10の溶接トーチ16の先端から溶接ワイヤを出した状態にする。断面形状32の任意位置(例えば予め設定される校正ポイントに用いた開先3の折曲点)をトーチねらい位置として選択しておき、溶接ロボット10をX軸方向およびZ軸方向に移動させ、溶接トーチ16から延びる溶接ワイヤ161の先端をトーチねらい位置に接触させる。
カメラ制御部96は、カメラ22-1およびカメラ22-2のそれぞれに、溶接ワイヤの先端を含む溶接ワイヤを撮像させる制御を行う。カメラ22-1およびカメラ22-2のそれぞれは、溶接ワイヤの先端を含む溶接ワイヤを撮像する。処理部94は、カメラ22-1およびカメラ22-2のそれぞれから、画像データを取得し、取得した画像データを処理する。
(Step S8-1)
In the control device 9, the processing unit 94 sets the world coordinate system in the images captured by each of the cameras 22-1 and 22-2, based on the image of the gauge 230 obtained by processing the image data. . The description will be continued with reference to FIG.
(Step S1-2)
By rotating the arm 231, the calibration plate (panel 23) is retracted out of the field of view of each of the cameras 22-1 and 22-2.
In the control device 9, the processing unit 94 calibrates the origin of the camera coordinate system. For example, a welding wire is brought out from the tip of the welding torch 16 of the welding robot 10. An arbitrary position of the cross-sectional shape 32 (for example, the bending point of the groove 3 used as a preset calibration point) is selected as the torch aiming position, and the welding robot 10 is moved in the X-axis direction and the Z-axis direction, The tip of a welding wire 161 extending from the welding torch 16 is brought into contact with the torch's target position.
The camera control unit 96 controls each of the cameras 22-1 and 22-2 to take images of the welding wire including the tip of the welding wire. Each of the cameras 22-1 and 22-2 images the welding wire including the tip of the welding wire. The processing unit 94 acquires image data from each of the cameras 22-1 and 22-2, and processes the acquired image data.

(ステップS2-2)
溶接ロボット10の溶接トーチ16の先端から溶接ワイヤが出ない状態にする。
制御装置9において、カメラ制御部96は、カメラ22-1およびカメラ22-2のそれぞれに、溶接トーチ16の先端を撮像させる制御を行う。カメラ22-1およびカメラ22-2のそれぞれは、溶接トーチ16の先端を撮像する。処理部94は、カメラ22-1およびカメラ22-2のそれぞれから、画像データを取得し、取得した画像データを処理する。
(ステップS3-2)
制御装置9において、処理部94は、画像データを処理することによって得られるワイヤ先端を含むワイヤの画像と溶接トーチ16の先端の画像とに基づいて、ワイヤ先端を含むワイヤの画像を取得する。処理部94は、取得したワイヤ先端を含むワイヤの画像に基づいて、ロボット座標系での溶接ワイヤ先端(トーチねらい位置)の座標を取得する。
(ステップS4-2)
制御装置9において、処理部94は、取得したロボット座標系でのワイヤ先端の座標を、ワールド座標系の原点に設定する。図10を参照して、引き続き説明を続ける。
(Step S2-2)
The state is such that no welding wire comes out from the tip of the welding torch 16 of the welding robot 10.
In the control device 9, a camera control unit 96 controls each of the cameras 22-1 and 22-2 to take an image of the tip of the welding torch 16. Each of the cameras 22-1 and 22-2 images the tip of the welding torch 16. The processing unit 94 acquires image data from each of the cameras 22-1 and 22-2, and processes the acquired image data.
(Step S3-2)
In the control device 9, the processing unit 94 acquires an image of the wire including the wire tip based on an image of the wire including the wire tip obtained by processing the image data and an image of the tip of the welding torch 16. The processing unit 94 acquires the coordinates of the welding wire tip (torch aiming position) in the robot coordinate system based on the obtained image of the wire including the wire tip.
(Step S4-2)
In the control device 9, the processing unit 94 sets the acquired coordinates of the tip of the wire in the robot coordinate system to the origin of the world coordinate system. The description will be continued with reference to FIG.

(ステップS1-3)
サドル移動制御部92は、開先3の測定部位31に溶接ロボット10を移動させる。
制御装置9において、処理部94は、照明装置21に測定部位31を横断方向へ線状に照明させる。処理部94は、センシングポイントを決定する。
(ステップS2-3)
制御装置9において、処理部94は、決定したセンシングポイントを挟む溶接対象の特徴に基づいて、左側のカメラ22-1でエリアの算出が可能か、右側のカメラ22-2でエリアの算出が可能か、左側のカメラ22-1および右側のカメラ22-2の両方でエリアの算出が可能かを判定する。
(ステップS3-3)
制御装置9において、カメラ制御部96は、エリアの算出が可能であると判定した左側のカメラ22-1および右側のカメラ22-2のいずれか一方又は両方に、センシングポイントを撮像させる制御を行う。
カメラ制御部96は、記憶部95に記憶されたIPアドレスにアクセスすることによって、カメラ22-1およびカメラ22-2のそれぞれに、開先3の測定部位31を撮像させる制御を行う。カメラ22-1およびカメラ22-2のそれぞれは、開先3の測定部位31を撮像する。
(Step S1-3)
The saddle movement control unit 92 moves the welding robot 10 to the measurement site 31 of the groove 3.
In the control device 9, the processing unit 94 causes the illumination device 21 to linearly illuminate the measurement site 31 in the transverse direction. The processing unit 94 determines sensing points.
(Step S2-3)
In the control device 9, the processing unit 94 determines whether the left camera 22-1 can calculate the area or the right camera 22-2 can calculate the area based on the characteristics of the welding target sandwiching the determined sensing point. Or, it is determined whether the area can be calculated using both the left camera 22-1 and the right camera 22-2.
(Step S3-3)
In the control device 9, the camera control unit 96 controls one or both of the left camera 22-1 and the right camera 22-2, which have been determined to be capable of area calculation, to image sensing points. .
The camera control unit 96 controls each of the cameras 22-1 and 22-2 to image the measurement site 31 of the groove 3 by accessing the IP address stored in the storage unit 95. Each of the cameras 22-1 and 22-2 images the measurement site 31 of the groove 3.

(ステップS4-3)
制御装置9において、処理部94は、カメラ22-1およびカメラ22-2のそれぞれから、画像データを取得し、取得した画像データを処理する。処理部94は、カメラ22-1およびカメラ22-2のそれぞれから取得した画像データを処理することによって得られる開先3の測定部位31の画像のうちの一方に反転処理を行う。
(ステップS5-3)
制御装置9において、処理部94は、反転処理を行った開先3の測定部位31の画像と、反転処理を行わなかった開先3の測定部位31の画像とに基づいて、開先3の長さ、角度、板厚などを算出することによってエッジ検出処理を行う。図11を参照して、引き続き説明を続ける。
(Step S4-3)
In the control device 9, the processing unit 94 acquires image data from each of the cameras 22-1 and 22-2, and processes the acquired image data. The processing unit 94 performs inversion processing on one of the images of the measurement site 31 of the groove 3 obtained by processing the image data obtained from each of the cameras 22-1 and 22-2.
(Step S5-3)
In the control device 9, the processing unit 94 determines the measurement area of the groove 3 based on the image of the measurement area 31 of the groove 3 that has undergone the reversal process and the image of the measurement area 31 of the groove 3 that has not undergone the reversal process. Edge detection processing is performed by calculating length, angle, plate thickness, etc. The description will be continued with reference to FIG.

(ステップS1-4)
制御装置9において、処理部94は、右側のセンシングポイントのみが使用エリア内(エリアの算出が可能)であるか否かを判定する。
(ステップS2-4)
制御装置9において、処理部94は、右側のセンシングポイントのみが使用エリア内(エリアの算出が可能)であると判定した場合に、右側のセンシングポイントを使用して開先3の形状とロボット座標系における基準点とを導出し、導出した開先3の形状を特定する情報と基準点の値とを出力する。
(ステップS3-4)
制御装置9において、処理部94は、右側のセンシングポイントのみが使用エリア内(エリアの算出が可能)でないと判定した場合に、エッジ検出処理の結果に基づいて、左側のセンシングポイントのみが使用エリア内(エリアの算出が可能)であるか否かを判定する。
(Step S1-4)
In the control device 9, the processing unit 94 determines whether only the sensing point on the right side is within the use area (the area can be calculated).
(Step S2-4)
In the control device 9, when it is determined that only the sensing point on the right side is within the use area (the area can be calculated), the processing unit 94 uses the sensing point on the right side to calculate the shape of the groove 3 and the robot coordinates. A reference point in the system is derived, and information specifying the derived shape of the groove 3 and the value of the reference point are output.
(Step S3-4)
In the control device 9, when it is determined that only the sensing point on the right side is not within the usage area (area calculation is possible), the processing unit 94 determines that only the sensing point on the left side is in the usage area based on the result of the edge detection process. (area calculation is possible).

(ステップS4-4)
制御装置9において、処理部94は、左側のセンシングポイントのみが使用エリア内(エリアの算出が可能)であると判定した場合に、左側のセンシングポイントを使用して開先3の形状とロボット座標系における基準点とを導出し、導出した開先3の形状を特定する情報と基準点の値とを出力する。
(ステップS5-4)
制御装置9において、処理部94は、右側のセンシングポイントのみが使用エリア内(エリアの算出が可能)でないと判定した場合に、設定パラメータの平均処理を行うか否かを判定する。
(ステップS6-4)
制御装置9において、処理部94は、設定パラメータの平均処理を行うと判定した場合に、右側のセンシングポイントを使用して開先3の形状とロボット座標系における基準点とを導出するとともに、左側のセンシングポイントを使用して開先3の形状とロボット座標系における基準点を導出する。
処理部94は、右側のセンシングポイントを使用して導出した開先3の形状と、左側のセンシングポイントを使用して導出した開先3の形状とを平均化する。処理部94は、右側のセンシングポイントを使用して導出したロボット座標系における基準点と、左側のセンシングポイントを使用して導出したロボット座標系における基準点とを平均化する。
処理部94は、右側のセンシングポイントを使用して導出した開先3の形状と左側のセンシングポイントを使用して導出した開先3の形状とを平均化した結果と、右側のセンシングポイントを使用して導出したロボット座標系における基準点と左側のセンシングポイントを使用して導出したロボット座標系における基準点とを平均化した結果とを出力する。
(Step S4-4)
In the control device 9, when it is determined that only the left sensing point is within the use area (the area can be calculated), the processing unit 94 uses the left sensing point to determine the shape of the groove 3 and the robot coordinates. A reference point in the system is derived, and information specifying the derived shape of the groove 3 and the value of the reference point are output.
(Step S5-4)
In the control device 9, when it is determined that only the sensing point on the right side is not within the use area (the area can be calculated), the processing unit 94 determines whether or not to perform averaging processing of the setting parameters.
(Step S6-4)
In the control device 9, when it is determined that the setting parameter averaging process is to be performed, the processing unit 94 uses the right sensing point to derive the shape of the groove 3 and the reference point in the robot coordinate system, and also uses the left sensing point to derive the shape of the groove 3 and the reference point in the robot coordinate system. The shape of the groove 3 and the reference point in the robot coordinate system are derived using the sensing points.
The processing unit 94 averages the shape of the groove 3 derived using the sensing point on the right side and the shape of the groove 3 derived using the sensing point on the left side. The processing unit 94 averages the reference point in the robot coordinate system derived using the right sensing point and the reference point in the robot coordinate system derived using the left sensing point.
The processing unit 94 uses the result of averaging the shape of the groove 3 derived using the sensing point on the right side and the shape of the groove 3 derived using the sensing point on the left side, and the sensing point on the right side. The result of averaging the reference point in the robot coordinate system derived using the left sensing point and the reference point in the robot coordinate system derived using the left sensing point is output.

(ステップS7-4)
制御装置9において、処理部94は、設定パラメータの平均処理を行わないと判定した場合に、設定パラメータを都度確認するように設定する。
(ステップS8-4)
制御装置9において、処理部94は、ステップS2-4とS4-4とS6-4とのいずれかで出力した値にエラーがあるか否かを判定する。
(ステップS9-4)
制御装置9において、処理部94は、ステップS2-4とS4-4とS6-4とのいずれかで出力した値にエラーがあると判定した場合又はステップS7-4で設定パラメータを都度確認するとした場合に、表示部(図示なし)に処理画面を表示させる。
処理画面において、ユーザは、右側のセンシングポイントを使用して導出した開先3の形状とロボット座標系における基準点と、左側のセンシングポイントを使用して導出した開先3の形状とロボット座標系における基準点とのいずれかを選択できる。処理画面において、ユーザは、データを修正できる。
(ステップS10-4)
制御装置9において、処理部94は、ステップS8-4でエラー値がないと判定した場合に、開先3の形状とロボット座標系における基準点とを確定する。処理部94は、確定した開先3の形状とロボット座標系における基準点とを記憶部95に記憶させる。
図8のステップS3-1では、カメラ22-1およびカメラ22-2のそれぞれは、キャリブレーションプレート(パネル23)に描かれているゲージ230を撮像する場合について説明したが、この例に限られない。例えば、予めキャリブレーションプレート(パネル23)をオフラインで撮像した画像を取得するようにしてもよい。
図8において、ステップS3-1からS5-1は、内部パラメータを算出し、保存した後に、省略されてもよい。
(Step S7-4)
In the control device 9, the processing unit 94 sets the setting parameters to be checked every time when it is determined that the setting parameters are not averaged.
(Step S8-4)
In the control device 9, the processing unit 94 determines whether there is an error in the value output in any of steps S2-4, S4-4, and S6-4.
(Step S9-4)
In the control device 9, the processing unit 94 determines that there is an error in the output value in any of steps S2-4, S4-4, and S6-4, or if the setting parameters are checked each time in step S7-4. In this case, a processing screen is displayed on a display unit (not shown).
On the processing screen, the user can select the shape of the groove 3 derived using the sensing points on the right side and the reference point in the robot coordinate system, and the shape of the groove 3 derived using the sensing points on the left side and the reference point in the robot coordinate system. You can select either the reference point at On the processing screen, the user can modify the data.
(Step S10-4)
In the control device 9, when it is determined in step S8-4 that there is no error value, the processing unit 94 determines the shape of the groove 3 and the reference point in the robot coordinate system. The processing unit 94 causes the storage unit 95 to store the determined shape of the groove 3 and the reference point in the robot coordinate system.
In step S3-1 of FIG. 8, a case has been described in which each of the cameras 22-1 and 22-2 images the gauge 230 drawn on the calibration plate (panel 23), but this is not limited to this example. do not have. For example, an off-line image of the calibration plate (panel 23) may be obtained in advance.
In FIG. 8, steps S3-1 to S5-1 may be omitted after calculating and storing the internal parameters.

前述した実施形態では、溶接ロボット10に、カメラ22-1およびカメラ22-2のそれぞれが取り付けられる場合について説明したが、この例に限られない。例えば、カメラ22-1およびカメラ22-2のそれぞれとともに、又はカメラ22-1およびカメラ22-2の代わりに輝度情報を取得できるセンサが取り付けられてもよい。
前述した実施形態において、図9のステップS1-2からS4-2と、図10のステップS1-3からS5-3とは、順次実行してもよいし、並行して実行してもよいし、個別に実行してもよい。
前述した実施形態においては、パネル23の表面には、直交配置された複数本の線232および線233による二次元のゲージ230が描かれている場合について説明したが、この例に限られない。
例えば、パネル23の表面に、直交配置された2本の矢印が描かれていてもよいし、カメラ22-1およびカメラ22-2のそれぞれで撮像した画像においてカメラ22-1およびカメラ22-2のそれぞれの方位や傾きが検出可能な図形が描かれていてもよいし、形が異なる複数の点の配列パターンなどが描かれていてもよい。ゲージ230は、パネル23に印刷などで描かれたものに限らず、発光するものなどでもよい。
In the embodiment described above, a case has been described in which the camera 22-1 and the camera 22-2 are each attached to the welding robot 10, but the present invention is not limited to this example. For example, a sensor capable of acquiring luminance information may be attached together with each of the cameras 22-1 and 22-2, or instead of the cameras 22-1 and 22-2.
In the embodiment described above, steps S1-2 to S4-2 in FIG. 9 and steps S1-3 to S5-3 in FIG. 10 may be executed sequentially or in parallel. , may be executed individually.
In the embodiment described above, a case has been described in which the two-dimensional gauge 230 is drawn on the surface of the panel 23 by a plurality of lines 232 and 233 arranged orthogonally, but the present invention is not limited to this example.
For example, two arrows arranged orthogonally may be drawn on the surface of the panel 23, or two arrows may be drawn on the surface of the panel 23, or two arrows may be drawn on the surface of the panel 23. A figure whose orientation and inclination can be detected may be drawn, or an arrangement pattern of a plurality of points having different shapes may be drawn. The gauge 230 is not limited to one drawn on the panel 23 by printing or the like, but may be one that emits light.

前述した実施形態では、判定部97は、左側被写体画像において、被写体(パネル23)から二次元ゲージのカメラ座標系での原点(VL1)の座標と原点(VL1)に対向する頂点(VL2)の座標とを取得し、右側被写体画像において、被写体(パネル23)から二次元ゲージのカメラ座標系での原点(VR1)の座標と原点(VR1)に対向する頂点(VR2)の座標とを取得する場合について説明したが、この例に限られない。
例えば、判定部97は、左側被写体画像において、被写体(パネル23)から二次元ゲージのカメラ座標系での原点(VL1)以外の座標と原点(VL1)以外に対向する頂点の座標とを取得し、右側被写体画像において、被写体(パネル23)から二次元ゲージのカメラ座標系での原点(VR1)以外の座標と原点(VR1)以外に対向する頂点(VR2)の座標とを取得してもよい。
前述した実施形態では、ゲージ230が表示されたパネル23は、可動式のアーム231により退避可能なものである場合について説明したが、この例に限られない。例えば、パネル23を溶接ロボット10に対して着脱自在とされたものであってもよい。
前述した実施形態では、照明装置21としてラインレーザ照明装置を使用した場合について説明したが、この例限られない。
例えば、照明装置21は、レーザ光に限らず他の光源でもよく、開先3をその横断方向へ線状に連続して、または線状に並ぶ多点で照明できればよく、断面形状32となる画像を一括して取り込むことができればよい。
In the embodiment described above, the determining unit 97 determines the coordinates of the origin (VL1) in the camera coordinate system of the two-dimensional gauge from the subject (panel 23) and the vertex (VL2) opposite to the origin (VL1) in the left subject image. In the right subject image, obtain the coordinates of the origin (VR1) in the camera coordinate system of the two-dimensional gauge from the subject (panel 23) and the coordinates of the vertex (VR2) facing the origin (VR1). Although the case has been described, the present invention is not limited to this example.
For example, the determination unit 97 obtains coordinates other than the origin (VL1) in the camera coordinate system of the two-dimensional gauge from the subject (panel 23) and coordinates of a vertex opposite to the origin (VL1) in the left subject image. , in the right subject image, the coordinates other than the origin (VR1) in the camera coordinate system of the two-dimensional gauge and the coordinates of the vertex (VR2) facing other than the origin (VR1) may be obtained from the subject (panel 23). .
In the embodiment described above, the panel 23 on which the gauge 230 is displayed is retractable by the movable arm 231, but the present invention is not limited to this example. For example, the panel 23 may be detachably attached to the welding robot 10.
In the embodiment described above, a case has been described in which a line laser illumination device is used as the illumination device 21, but the present invention is not limited to this example.
For example, the illumination device 21 is not limited to a laser beam, and may be any other light source, as long as it can illuminate the groove 3 in a transverse direction in a continuous line or at multiple points lined up in a line, resulting in a cross-sectional shape 32. It is sufficient if images can be imported all at once.

本実施形態に係る溶接ロボットシステム1によれば、鋼材を所定方向に移動しながら鋼材を溶接する溶接ロボット10を備える。溶接ロボットシステム1は、溶接ロボット10に取り付けられるセンサであって、溶接ロボット10の所定方向側に取り付けられた所定方向側センサと、溶接ロボット10に取り付けられるセンサであって、溶接ロボットの所定方向側とは反対側に取り付けられた反対側センサと、所定方向側センサおよび反対側センサのそれぞれが所定方向側および反対側のいずれに取り付けられているのかを判定する判定部97とを備える。
このように構成することによって、溶接ロボットシステム1は、所定方向側センサおよび反対側センサのそれぞれが所定方向側および反対側のいずれに取り付けられているのかを判定する判定部97を備えるため、センサの取り付け位置の正誤を判定できる。
The welding robot system 1 according to this embodiment includes the welding robot 10 that welds steel materials while moving the steel materials in a predetermined direction. The welding robot system 1 includes a sensor attached to the welding robot 10 and a predetermined direction side sensor attached to the welding robot 10 in a predetermined direction; It includes an opposite side sensor attached to the opposite side, and a determination unit 97 that determines whether each of the predetermined direction side sensor and the opposite side sensor is attached to the predetermined direction side or the opposite side.
With this configuration, the welding robot system 1 includes the determination unit 97 that determines whether each of the predetermined direction side sensor and the opposite side sensor is attached to the predetermined direction side or the opposite side. It is possible to determine whether the installation position is correct or incorrect.

溶接ロボットシステム1であって、センサは、カメラ22を含み、溶接ロボットシステム1は、所定方向側センサと反対側センサとに、所定方向側センサと反対側センサとの間に設置された被写体を撮像させる制御を行うカメラ制御部96としての制御部をさらに備える。判定部97は、所定方向側センサと反対側センサとが被写体を撮像して出力した画像を用いて、所定方向側センサおよび反対側センサが所定方向側および反対側のいずれに取り付けられているのかを判定する。
このように構成することによって、判定部97は、所定方向側センサと反対側センサとが被写体を撮像して出力した画像とを用いて、所定方向側センサおよび反対側センサのそれぞれが所定方向側および反対側のいずれに取り付けられているのかを判定できるため、カメラ22の取り付け位置の正誤を判定できる。
In the welding robot system 1, the sensor includes a camera 22, and the welding robot system 1 has a sensor on a predetermined direction and a sensor on the opposite side. It further includes a control section as a camera control section 96 that controls imaging. The determination unit 97 determines whether the predetermined direction sensor and the opposite sensor are attached to the predetermined direction side or the opposite side, using the images output by the predetermined direction sensor and the opposite sensor. Determine.
With this configuration, the determining unit 97 determines whether each of the predetermined direction side sensor and the opposite side sensor is on the predetermined direction side using the image outputted by the predetermined direction side sensor and the opposite side sensor. Since it is possible to determine whether the camera 22 is attached to the opposite side, it is possible to determine whether the attachment position of the camera 22 is correct or incorrect.

溶接ロボットシステム1であって、被写体は、所定方向側センサと反対側センサとのそれぞれの撮像範囲における所定範囲内に位置する。
このように構成することによって、判定部97は、所定方向側センサと反対側センサとが、それぞれの撮像範囲における所定範囲内に位置する被写体を撮像して出力した画像を用いて、所定方向側センサおよび反対側センサのそれぞれが所定方向側および反対側のいずれに取り付けられているのかを判定できるため、カメラ22の取り付け位置の正誤を判定できる。
In the welding robot system 1, the subject is located within a predetermined range of the respective imaging ranges of the sensor on the predetermined direction and the sensor on the opposite side.
With this configuration, the determination unit 97 uses images output by the predetermined direction side sensor and the opposite side sensor of a subject located within a predetermined range in their respective imaging ranges. Since it can be determined whether each of the sensor and the opposite side sensor is attached to the predetermined direction side or the opposite side, it is possible to determine whether the attachment position of the camera 22 is correct or incorrect.

溶接ロボットシステム1であって、被写体の形状は、矩形である。このように構成することによって、判定部97は、所定方向側センサと反対側センサとが、矩形の被写体を撮像して出力した画像を用いて、所定方向側センサおよび反対側センサのそれぞれが所定方向側および反対側のいずれに取り付けられているのかを判定できるため、カメラ22の取り付け位置の正誤を判定できる。
溶接ロボットシステム1であって、被写体の形状は、長方形であり、被写体の長辺と、所定方向側センサおよび反対側センサのそれぞれの撮像範囲の長辺とがなす角が不変である。
このように構成することによって、判定部97は、所定方向側センサと反対側センサとが、長方形の被写体を撮像して出力した画像を用いて、所定方向側センサおよび反対側センサのそれぞれが所定方向側および反対側のいずれに取り付けられているのかを判定できるため、カメラ22の取り付け位置の正誤を判定できる。
In the welding robot system 1, the shape of the subject is rectangular. With this configuration, the determination unit 97 uses the images output by the predetermined direction sensor and the opposite sensor to capture and output images of a rectangular subject, so that the predetermined direction sensor and the opposite sensor each detect a predetermined value. Since it can be determined whether the camera 22 is attached to the direction side or the opposite side, it is possible to determine whether the attachment position of the camera 22 is correct or incorrect.
In the welding robot system 1, the object has a rectangular shape, and the angles formed by the long sides of the object and the long sides of the respective imaging ranges of the sensor on the predetermined direction and the sensor on the opposite side remain unchanged.
With this configuration, the determination unit 97 uses the image outputted by the predetermined direction sensor and the opposite sensor to capture and output a rectangular subject, and allows the predetermined direction sensor and the opposite sensor to each output a predetermined image. Since it can be determined whether the camera 22 is attached to the direction side or the opposite side, it is possible to determine whether the attachment position of the camera 22 is correct or incorrect.

溶接ロボットシステム1であって、判定部97は、画像に含まれる被写体の少なくとも2つの頂点の座標を用い、所定方向側センサと反対側センサとが、所定方向側および反対側のいずれに取り付けられているのかを判定する。
このように構成することによって、判定部97は、画像に含まれる被写体の少なくとも2つの頂点の座標を用い、所定方向側センサと反対側センサとが所定方向側および反対側のいずれに取り付けられているのかを判定できるため、カメラ22の取り付け位置の正誤を判定できる。
In the welding robot system 1, the determining unit 97 uses the coordinates of at least two vertices of the object included in the image to determine whether the predetermined direction side sensor and the opposite side sensor are attached to the predetermined direction side or the opposite side. Determine whether the
With this configuration, the determination unit 97 uses the coordinates of at least two vertices of the subject included in the image to determine whether the predetermined direction sensor and the opposite sensor are attached to the predetermined direction side or the opposite side. Since it can be determined whether the camera 22 is installed correctly or incorrectly, it is possible to determine whether the mounting position of the camera 22 is correct or incorrect.

溶接ロボットシステム1であって、被写体は、所定方向側センサおよび反対側センサの座標系と溶接ロボットの座標系とを対応付けるためのキャリブレーションであって、所定方向側センサと反対側センサとのキャリブレーションに用いられるキャリブレーションプレートである。
このように構成することによって、判定部97は、所定方向側センサと反対側センサとがキャリブレーションプレートを撮像して出力した画像を用いて、所定方向側センサおよび反対側センサのそれぞれが所定方向側および反対側のいずれに取り付けられているのかを判定できるため、カメラ22の取り付け位置の正誤を判定できる。
In the welding robot system 1, the subject is calibration for associating the coordinate systems of the sensor on the predetermined direction and the opposite side with the coordinate system of the welding robot, the calibration between the sensor on the predetermined direction and the sensor on the opposite side. This is a calibration plate used for the
With this configuration, the determination unit 97 uses images output by the predetermined direction side sensor and the opposite side sensor to image the calibration plate, so that each of the predetermined direction side sensor and the opposite side sensor can move in the predetermined direction. Since it is possible to determine whether the camera 22 is attached to the side or the opposite side, it is possible to determine whether the attachment position of the camera 22 is correct or incorrect.

溶接ロボットシステムであって、キャリブレーションプレートは、開先の断面形状の測定にも用いられる。
このように構成することによって、判定部97は、所定方向側センサと反対側センサとが開先の断面形状の測定にも用いられるキャリブレーションプレートを撮像して出力した画像を用いて、所定方向側センサおよび反対側センサのそれぞれが所定方向側および反対側のいずれに取り付けられているのかを判定できるため、カメラ22の取り付け位置の正誤を判定できる。
In the welding robot system, the calibration plate is also used to measure the cross-sectional shape of the groove.
With this configuration, the determination unit 97 uses the image outputted by the sensor on the predetermined direction and the sensor on the opposite side to take an image of the calibration plate which is also used to measure the cross-sectional shape of the groove. Since it can be determined whether the side sensor and the opposite side sensor are attached to the predetermined direction side or the opposite side, it is possible to determine whether the mounting position of the camera 22 is correct or incorrect.

溶接ロボットシステムであって、キャリブレーションプレートは、ワールド座標系に対するロボットの座標系の傾きを求めるためにも用いられる。
このように構成することによって、判定部97は、所定方向側センサと反対側センサとがワールド座標系に対するロボットの座標系の傾きを求めるためにも用いられるキャリブレーションプレートを撮像して出力した画像を用いて、所定方向側センサおよび反対側センサのそれぞれが所定方向側および反対側のいずれに取り付けられているのかを判定できるため、カメラ22の取り付け位置の正誤を判定できる。
In a welding robot system, the calibration plate is also used to determine the inclination of the robot's coordinate system with respect to the world coordinate system.
With this configuration, the determination unit 97 outputs an image obtained by capturing and outputting the calibration plate, which is also used for determining the inclination of the robot's coordinate system with respect to the world coordinate system, by the sensor on the predetermined direction and the sensor on the opposite side. Since it can be determined whether the predetermined direction side sensor and the opposite side sensor are attached to the predetermined direction side or the opposite side using , it is possible to determine whether the mounting position of the camera 22 is correct or incorrect.

溶接ロボットシステムであって、画像は、所定方向側センサと反対側センサとがキャリブレーションのために被写体を撮像して出力した画像である。このように構成することによって、判定部97は、所定方向側センサと反対側センサとがキャリブレーションのために被写体を撮像して出力した画像を用いて、所定方向側センサおよび反対側センサのそれぞれが所定方向側および反対側のいずれに取り付けられているのかを判定できるため、カメラの取り付け位置の正誤を判定できる。 In the welding robot system, the image is an image output by a sensor on a predetermined direction and a sensor on the opposite side capturing and outputting a subject for calibration. With this configuration, the determination unit 97 uses the images outputted by the predetermined direction sensor and the opposite sensor for calibration, respectively. Since it can be determined whether the camera is attached to the predetermined direction side or the opposite side, it is possible to determine whether the camera is attached to the correct or incorrect position.

溶接ロボットシステム1であって、画像は、所定方向側センサと反対側センサとのそれぞれが撮像する画像の歪補正のために所定方向側センサと反対側センサとのそれぞれが被写体を撮像して出力した画像である。
このように構成することによって、判定部97は、所定方向側センサと反対側センサとのそれぞれが撮像する画像の歪補正のために所定方向側センサと反対側センサとのそれぞれが被写体を撮像して出力した画像を用いて、所定方向側センサおよび反対側センサのそれぞれが所定方向側および反対側のいずれに取り付けられているのかを判定できるため、カメラの取り付け位置の正誤を判定できる。
In the welding robot system 1, an image is output by each of the sensor on the predetermined direction and the sensor on the opposite side capturing and outputting an image of a subject in order to correct the distortion of the image captured by the sensor on the predetermined direction and the sensor on the opposite side, respectively. This is an image.
With this configuration, the determination unit 97 determines whether the predetermined direction sensor and the opposite sensor each image a subject in order to correct the distortion of the image captured by the predetermined direction sensor and the opposite sensor. Since it is possible to determine whether the predetermined direction side sensor and the opposite side sensor are attached to the predetermined direction side or the opposite side using the output images, it is possible to determine whether the mounting position of the camera is correct or incorrect.

溶接ロボットシステム1であって、所定方向側センサと反対側センサとが取り付けられる位置に対応する情報をユーザに入力させる入力部93と、入力部93により入力される情報が対応する位置と、判定部97により判定される所定方向側センサと反対側センサとが取り付けられている位置とが異なる場合に、ユーザに通知する通知部98とを備える。
このように構成することによって、溶接ロボットシステム1は、所定方向側センサと反対側センサとが取り付けられる位置に対応する情報に基づいて、溶接ロボット10に、鋼材を所定方向に移動させながら鋼材を溶接させることができる。溶接ロボットシステム1は、カメラ22の取り付け位置が誤っている場合に、ユーザに通知できる。
In the welding robot system 1, there is an input unit 93 that allows a user to input information corresponding to a position where a predetermined direction side sensor and an opposite side sensor are attached, a position to which the information input by the input unit 93 corresponds, and a determination. A notification section 98 is provided to notify the user when the positions where the predetermined direction side sensor and the opposite side sensor are attached, which is determined by the section 97, are different.
With this configuration, the welding robot system 1 allows the welding robot 10 to move the steel material in a predetermined direction based on information corresponding to the positions where the predetermined direction side sensor and the opposite side sensor are attached. Can be welded. Welding robot system 1 can notify the user if the mounting position of camera 22 is incorrect.

以上、実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更、組合せを行うことができる。これら実施形態は、発明の範囲や要旨に含まれると同時に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
なお、上述した制御装置9は、コンピュータで実現するようにしてもよい。その場合、各機能ブロックの機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録する。この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、CPUが実行することで実現してもよい。ここでいう「コンピュータシステム」とは、OS(Operating System)や周辺機器などのハードウェアを含むものとする。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROMなどの可搬媒体のことをいう。また、「コンピュータ読み取り可能な記録媒体」は、コンピュータシステムに内蔵されるハードディスクなどの記憶装置を含む。
Although the embodiments have been described above, these embodiments are presented as examples and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, substitutions, changes, and combinations can be made without departing from the gist of the invention. These embodiments are included within the scope and gist of the invention, and at the same time are included within the scope of the invention described in the claims and its equivalents.
Note that the above-described control device 9 may be realized by a computer. In that case, a program for realizing the functions of each functional block is recorded on a computer-readable recording medium. The program recorded on this recording medium may be read into a computer system and executed by a CPU. The "computer system" herein includes hardware such as an OS (Operating System) and peripheral devices.
Furthermore, the term "computer-readable recording medium" refers to portable media such as flexible disks, magneto-optical disks, ROMs, and CD-ROMs. Furthermore, a "computer-readable recording medium" includes a storage device such as a hard disk built into a computer system.

さらに「コンピュータ読み取り可能な記録媒体」とは、短時間の間、動的にプログラムを保持するものを含んでいてもよい。短時間の間、動的にプログラムを保持するものは、例えば、インターネットなどのネットワークや電話回線などの通信回線を介してプログラムを送信する場合の通信線である。
また、「コンピュータ読み取り可能な記録媒体」には、サーバーやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであってもよい。また、上記プログラムは、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよい。また、上記プログラムは、プログラマブルロジックデバイスを用いて実現されるものであってもよい。プログラマブルロジックデバイスは、例えば、FPGAである。
Furthermore, a "computer-readable recording medium" may include one that dynamically stores a program for a short period of time. An example of a device that dynamically stores a program for a short period of time is a communication line used to transmit a program via a network such as the Internet or a communication line such as a telephone line.
Further, the "computer-readable recording medium" may also include a medium that retains a program for a certain period of time, such as a volatile memory inside a computer system that is a server or a client. Further, the above program may be for realizing some of the functions described above. Moreover, the above program may be one that can realize the above-described functions in combination with a program already recorded in the computer system. Moreover, the above program may be realized using a programmable logic device. The programmable logic device is, for example, an FPGA.

なお、上述の制御装置9は内部にコンピュータを有している。そして、上述した制御装置9の各処理の過程は、プログラムの形式でコンピュータ読み取り可能な記録媒体に記憶されており、このプログラムをコンピュータが読み出して実行することによって、上記処理が行われる。
ここでコンピュータ読み取り可能な記録媒体とは、磁気ディスク、光磁気ディスク、CD-ROM、DVD-ROM、半導体メモリなどをいう。また、このコンピュータプログラムを通信回線によってコンピュータに配信し、この配信を受けたコンピュータが当該プログラムを実行するようにしてもよい。
また、上記プログラムは、前述した機能の一部を実現するためのものであってもよい。
さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
Note that the above-mentioned control device 9 has a computer inside. Each process of the control device 9 described above is stored in a computer-readable recording medium in the form of a program, and the above-mentioned processes are performed by the computer reading and executing this program.
Here, the computer-readable recording medium refers to a magnetic disk, a magneto-optical disk, a CD-ROM, a DVD-ROM, a semiconductor memory, and the like. Alternatively, this computer program may be distributed to a computer via a communication line, and the computer receiving the distribution may execute the program.
Moreover, the above-mentioned program may be for realizing a part of the above-mentioned functions.
Furthermore, it may be a so-called difference file (difference program) that can realize the above-described functions in combination with a program already recorded in the computer system.

1 溶接ロボットシステム
10 溶接ロボット
11 走行レール
12 サドル
13ケース
14 ブラケット
15 ホルダ
16 溶接トーチ
161 溶接ワイヤ
2 溶接対象物
21 照明装置
22、22-1、22-2 カメラ
220 撮像領域
221 支持パネル
222 支持アーム
223 支持レール
23 パネル
230 ゲージ
231 アーム
232、233 線
3 開先
31 測定部位
32 断面形状
9 制御装置
91 溶接動作制御部
92 サドル移動制御部
93 入力部
94 処理部
95 記憶部
96 カメラ制御部
97 判定部
98 通知部
1 Welding robot system 10 Welding robot 11 Traveling rail 12 Saddle 13 Case 14 Bracket 15 Holder 16 Welding torch 161 Welding wire 2 Welding object 21 Lighting device 22, 22-1, 22-2 Camera 220 Imaging area 221 Support panel 222 Support arm 223 Support rail 23 Panel 230 Gauge 231 Arm 232, 233 Line 3 Bevel 31 Measurement site 32 Cross-sectional shape 9 Control device 91 Welding operation control section 92 Saddle movement control section 93 Input section 94 Processing section 95 Storage section 96 Camera control section 97 Judgment Section 98 Notification Section

Claims (13)

鋼材を所定方向に移動しながら前記鋼材を溶接する溶接ロボットを備える溶接ロボットシステムであって、
前記溶接ロボットに取り付けられるセンサであって、前記溶接ロボットの所定方向側に取り付けられた所定方向側センサと、
前記溶接ロボットに取り付けられるセンサであって、前記溶接ロボットの前記所定方向側とは反対側に取り付けられた反対側センサと、
前記所定方向側センサおよび前記反対側センサのそれぞれが前記所定方向側および前記反対側のいずれに取り付けられているのかを判定する判定部と、
を備える、溶接ロボットシステム。
A welding robot system comprising a welding robot that welds steel materials while moving the steel materials in a predetermined direction,
a sensor attached to the welding robot, a predetermined direction side sensor attached to the predetermined direction side of the welding robot;
a sensor attached to the welding robot, an opposite side sensor attached to a side opposite to the predetermined direction side of the welding robot;
a determination unit that determines whether each of the predetermined direction side sensor and the opposite side sensor is attached to the predetermined direction side or the opposite side;
A welding robot system equipped with
前記センサは、カメラを含み、
前記溶接ロボットシステムは、前記所定方向側センサと前記反対側センサとに、前記所定方向側センサと前記反対側センサとの間に設置された被写体を撮像させる制御を行う制御部
をさらに備え、
前記判定部は、前記所定方向側センサと前記反対側センサとが前記被写体を撮像して出力した画像を用いて、前記所定方向側センサおよび前記反対側センサが前記所定方向側および前記反対側のいずれに取り付けられているのかを判定する、請求項1に記載の溶接ロボットシステム。
The sensor includes a camera;
The welding robot system further includes a control unit that controls the predetermined direction side sensor and the opposite side sensor to image a subject installed between the predetermined direction side sensor and the opposite side sensor,
The determination unit is configured to determine whether the predetermined direction side sensor and the opposite side sensor are on the predetermined direction side and the opposite side using images outputted by the predetermined direction side sensor and the opposite side sensor. The welding robot system according to claim 1, wherein the welding robot system determines where it is attached.
前記被写体は、前記所定方向側センサと前記反対側センサとのそれぞれの撮像範囲における所定範囲内に位置する、請求項2に記載の溶接ロボットシステム。 The welding robot system according to claim 2, wherein the subject is located within a predetermined range of imaging ranges of the predetermined direction side sensor and the opposite side sensor. 前記被写体の形状は、矩形である、請求項3に記載の溶接ロボットシステム。 The welding robot system according to claim 3, wherein the object has a rectangular shape. 前記被写体の形状は、長方形であり、
前記被写体の長辺と、前記所定方向側センサおよび前記反対側センサのそれぞれの撮像範囲の長辺とがなす角が不変である、
請求項4に記載の溶接ロボットシステム。
The shape of the subject is a rectangle,
An angle formed by a long side of the subject and a long side of each imaging range of the sensor on the predetermined direction and the sensor on the opposite side is unchanged;
The welding robot system according to claim 4.
前記判定部は、前記画像に含まれる前記被写体の少なくとも2つの頂点の座標を用い、前記所定方向側センサと前記反対側センサとが、前記所定方向側および前記反対側のいずれに取り付けられているのかを判定する、請求項5に記載の溶接ロボットシステム。 The determination unit uses coordinates of at least two vertices of the subject included in the image, and determines whether the predetermined direction side sensor and the opposite side sensor are attached to either the predetermined direction side or the opposite side. The welding robot system according to claim 5, wherein the welding robot system determines whether the 前記被写体は、前記所定方向側センサおよび前記反対側センサの座標系と前記溶接ロボットの座標系とを対応付けるためのキャリブレーションであって、前記所定方向側センサと前記反対側センサとのキャリブレーションに用いられるキャリブレーションプレートである、請求項6に記載の溶接ロボットシステム。 The subject is calibration for associating the coordinate systems of the predetermined direction side sensor and the opposite side sensor with the coordinate system of the welding robot, and the subject is calibration for associating the coordinate systems of the predetermined direction side sensor and the opposite side sensor with the coordinate system of the welding robot, and the calibration of the predetermined direction side sensor and the opposite side sensor. The welding robot system according to claim 6, which is a calibration plate used. 前記キャリブレーションプレートは、開先の断面形状の測定にも用いられる、請求項7に記載の溶接ロボットシステム。 The welding robot system according to claim 7, wherein the calibration plate is also used to measure the cross-sectional shape of the groove. 前記キャリブレーションプレートは、ワールド座標系に対するロボットの座標系の傾きを求めるためにも用いられる、請求項8に記載の溶接ロボットシステム。 The welding robot system according to claim 8, wherein the calibration plate is also used to determine the inclination of the robot's coordinate system with respect to the world coordinate system. 前記画像は、前記所定方向側センサと前記反対側センサとが前記キャリブレーションのために前記被写体を撮像して出力した画像である、請求項9に記載の溶接ロボットシステム。 10. The welding robot system according to claim 9, wherein the image is an image output by the predetermined direction side sensor and the opposite side sensor capturing and outputting images of the subject for the calibration. 前記画像は、前記所定方向側センサと前記反対側センサとのそれぞれが撮像する画像の歪み補正のために前記所定方向側センサと前記反対側センサとのそれぞれが前記被写体を撮像して出力した画像である、請求項9に記載の溶接ロボットシステム。 The image is an image output by each of the predetermined direction side sensor and the opposite side sensor capturing and outputting an image of the subject in order to correct distortion of the image captured by each of the predetermined direction side sensor and the opposite side sensor. The welding robot system according to claim 9. 前記所定方向側センサと前記反対側センサとが取り付けられる位置に対応する情報をユーザに入力させる入力部と、
前記入力部により入力される前記情報に対応する位置と、前記判定部により判定される前記所定方向側センサと前記反対側センサとが取り付けられている位置と、が異なる場合に、前記ユーザに通知する通知部と、
を備える、請求項1から請求項11のいずれか1項に記載の溶接ロボットシステム。
an input unit that allows a user to input information corresponding to a position where the predetermined direction side sensor and the opposite side sensor are attached;
Notifying the user when a position corresponding to the information input by the input unit is different from a position where the predetermined direction side sensor and the opposite side sensor are installed, which is determined by the determination unit. A notification section to
The welding robot system according to any one of claims 1 to 11, comprising:
鋼材を所定方向に移動しながら前記鋼材を溶接する溶接ロボットを備える溶接ロボットシステムが実行する判定方法であって、
前記溶接ロボットの所定方向側に取り付けられた所定方向側センサと、前記溶接ロボットの前記所定方向側とは反対側に取り付けられた反対側センサとのそれぞれが前記所定方向側および前記反対側のいずれに取り付けられているのかを判定するステップ
を有する、判定方法。
A determination method performed by a welding robot system including a welding robot that welds steel materials while moving the steel materials in a predetermined direction, the method comprising:
A predetermined direction side sensor attached to the predetermined direction side of the welding robot and an opposite side sensor attached to the opposite side of the welding robot to the predetermined direction side are each attached to either the predetermined direction side or the opposite side. A determination method comprising the step of determining whether or not the vehicle is attached to the vehicle.
JP2022106965A 2022-07-01 2022-07-01 Welding robot system and judgment method Active JP7263602B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022106965A JP7263602B1 (en) 2022-07-01 2022-07-01 Welding robot system and judgment method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022106965A JP7263602B1 (en) 2022-07-01 2022-07-01 Welding robot system and judgment method

Publications (2)

Publication Number Publication Date
JP7263602B1 JP7263602B1 (en) 2023-04-24
JP2024006251A true JP2024006251A (en) 2024-01-17

Family

ID=86054457

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022106965A Active JP7263602B1 (en) 2022-07-01 2022-07-01 Welding robot system and judgment method

Country Status (1)

Country Link
JP (1) JP7263602B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009274100A (en) * 2008-05-15 2009-11-26 Disco Abrasive Syst Ltd Laser beam machining apparatus
US20150298260A1 (en) * 2012-11-26 2015-10-22 Akeo Plus Method and system for marking a surface by laser treatment
JP2021167010A (en) * 2020-04-10 2021-10-21 住友重機械工業株式会社 Welding observation device and welding system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009274100A (en) * 2008-05-15 2009-11-26 Disco Abrasive Syst Ltd Laser beam machining apparatus
US20150298260A1 (en) * 2012-11-26 2015-10-22 Akeo Plus Method and system for marking a surface by laser treatment
JP2021167010A (en) * 2020-04-10 2021-10-21 住友重機械工業株式会社 Welding observation device and welding system

Also Published As

Publication number Publication date
JP7263602B1 (en) 2023-04-24

Similar Documents

Publication Publication Date Title
CN107860331B (en) Shape measuring device, shape measuring method, and structure manufacturing method
US11951564B2 (en) Method and computer program product for OCT measurement beam adjustment
TWI623724B (en) Shape measuring device, structure manufacturing system, stage system, shape measuring method, structure manufacturing method, shape measuring program, and computer readable recording medium
JP5648831B2 (en) Inner surface shape measuring apparatus and inner surface shape measuring method
JP3690581B2 (en) POSITION DETECTION DEVICE AND METHOD THEREFOR, PLAIN POSITION DETECTION DEVICE AND METHOD THEREOF
JP2019063954A (en) Robot system, calibration method and calibration program
JP2008085710A (en) Driving support system
JPH03213251A (en) Workpiece position detecting device
JP6450530B2 (en) In-vehicle camera mounting angle adjustment processing, mounting angle detection device
JP4463162B2 (en) Reference coordinate capture method for 3D shape measurement equipment
JP2007089042A (en) Imaging apparatus
JP2009058459A (en) Profile measuring system
JP7263602B1 (en) Welding robot system and judgment method
JPH09175457A (en) Distortion inspection method and distortion inspection device
JP7349542B1 (en) Welding robot system, welding method and program
JP2000326082A (en) Laser beam machine
JP2022085454A (en) Control method of work support system, and control program of work support system
JP2012093258A (en) Shape measurement device
JP5512563B2 (en) Three-dimensional shape measuring apparatus and three-dimensional shape measuring method
JP2012026816A (en) Dimension measuring method and device
JP7292344B2 (en) Welding system, welding method and program
JPH10221018A (en) Three-dimensional measuring method
JP7333488B1 (en) welding system
JP6922507B2 (en) Line sensor optical axis adjustment device and line sensor optical axis adjustment method
US20240066701A1 (en) Simulation device using three-dimensional position information obtained from output from vision sensor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220707

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20220707

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221004

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20221122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230221

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230315

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230412

R150 Certificate of patent or registration of utility model

Ref document number: 7263602

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150