JP7263602B1 - Welding robot system and judgment method - Google Patents

Welding robot system and judgment method Download PDF

Info

Publication number
JP7263602B1
JP7263602B1 JP2022106965A JP2022106965A JP7263602B1 JP 7263602 B1 JP7263602 B1 JP 7263602B1 JP 2022106965 A JP2022106965 A JP 2022106965A JP 2022106965 A JP2022106965 A JP 2022106965A JP 7263602 B1 JP7263602 B1 JP 7263602B1
Authority
JP
Japan
Prior art keywords
predetermined direction
welding robot
sensor
opposite side
side sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022106965A
Other languages
Japanese (ja)
Other versions
JP2024006251A (en
Inventor
望 榎本
翼 片山
聡史 三木
直弥 脇田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Steel Engineering Co Ltd
Original Assignee
Nippon Steel Engineering Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Steel Engineering Co Ltd filed Critical Nippon Steel Engineering Co Ltd
Priority to JP2022106965A priority Critical patent/JP7263602B1/en
Application granted granted Critical
Publication of JP7263602B1 publication Critical patent/JP7263602B1/en
Publication of JP2024006251A publication Critical patent/JP2024006251A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Abstract

【課題】溶接ロボットに取り付けられるセンサ位置の正誤を判定できる溶接ロボットシステムおよび判定方法を提供する。【解決手段】溶接ロボットシステムは、鋼材を所定方向に移動しながら鋼材を溶接する溶接ロボットを備える。溶接ロボットシステムは、溶接ロボットに取り付けられるセンサであって、溶接ロボットの所定方向側に取り付けられた所定方向側センサと、溶接ロボットに取り付けられるセンサであって、溶接ロボットの所定方向側とは反対側に取り付けられた反対側センサと、所定方向側センサおよび反対側センサのそれぞれが所定方向側および反対側のいずれに取り付けられているのかを判定する判定部とを備える。【選択図】図2A welding robot system and a determination method capable of determining whether the position of a sensor attached to the welding robot is correct or not. A welding robot system includes a welding robot that welds steel materials while moving the steel materials in a predetermined direction. The welding robot system includes a sensor attached to the welding robot, the predetermined direction side sensor attached to the welding robot on the predetermined direction side, and a sensor attached to the welding robot, the sensor attached to the welding robot on the side opposite to the predetermined direction side. an opposite side sensor attached to the opposite side; and a determination unit that determines whether each of the predetermined direction side sensor and the opposite side sensor is attached to the predetermined direction side or the opposite side. [Selection drawing] Fig. 2

Description

本発明は、溶接ロボットシステムおよび判定方法に関する。 The present invention relates to a welding robot system and determination method.

鋼材の接合に溶接ロボットを用いた自動溶接が行われている。自動溶接の際には、溶接部分に沿って自走式の溶接ロボットを配置し、予め溶接部分に形成しておいた開先に対して連続的に溶接を行う。溶接ロボットの制御装置においては、溶接ロボットのトーチの開先に対する位置を適切にするために、画像処理による位置制御が利用されている。 Automatic welding using a welding robot is performed to join steel materials. During automatic welding, a self-propelled welding robot is arranged along the welded portion and continuously welds the groove formed in the welded portion in advance. 2. Description of the Related Art Position control by image processing is used in a welding robot controller to appropriately position a torch of a welding robot with respect to a groove.

また、アーク溶接に関して、溶接部位の溶融状態を観察する技術が知られている(例えば、特許文献1参照)。この技術によれば、溶接観察装置は、アーク溶接における溶融部位を観察する溶接観察装置であって、溶融部位に形成される溶融池の画像を撮像する第1の撮像手段と、第1の撮像手段によって撮像された溶融池の画像から、溶融池に発生した気泡を検出する第1検出部とを備える。 Also, regarding arc welding, there is known a technique for observing the molten state of a welded portion (see, for example, Patent Document 1). According to this technique, the welding observation device is a welding observation device for observing a molten portion in arc welding, and includes first imaging means for imaging an image of a molten pool formed in the molten portion; and a first detection unit that detects bubbles generated in the molten pool from an image of the molten pool captured by the means.

特開2021-167010号公報Japanese Patent Application Laid-Open No. 2021-167010

溶接品質の向上、建築現場における人手不足を解消するために、建築現場にレール自走式の溶接ロボットが導入されている。レール自走式の溶接ロボットを使用して、溶接対象となる母材の形状測定をカメラによる画像処理で実施しようとした場合に、以下の点が懸念される。
(1)溶接ワイヤの先端と開先形状とを撮像するカメラが溶接ロボットに対して1台しかない場合、治具、付帯機器との干渉により撮像できない箇所が発生するおそれがある点。
(2)日照条件など光学的な理由より1台のカメラで撮像した場合には、画像処理精度、処理自体の実行完結できないおそれがある点。
Rail self-propelled welding robots have been introduced to construction sites in order to improve welding quality and solve labor shortages at construction sites. When using a self-propelled rail welding robot to measure the shape of the base material to be welded by image processing using a camera, the following points are of concern.
(1) If there is only one camera for the welding robot that captures the tip of the welding wire and the shape of the groove, there is a risk that there will be areas that cannot be captured due to interference with jigs and auxiliary equipment.
(2) When images are captured with a single camera due to optical reasons such as sunshine conditions, the accuracy of image processing and the execution of the processing itself may not be completed.

以上の懸念に対し、2台のカメラを溶接トーチに対し対象の位置に設置する機構とした場合について説明する。建築現場に溶接ロボットを導入した場合、作業者が溶接個所までロボットを運搬し、組み立て、据え付けをしなければならない。この過程で作業者が、ロボットに設定し、登録されている2台のカメラの取り付け台座を誤るとカメラ2台を適切に使い分けることが不可能となる。
例えば、特許文献1では溶接ロボットにおいて、トーチを挟んで進行方向の前後にカメラなどのセンサを設置し、双方から得られた画像に対して画像処理を実施し、溶接状況の監視を行っている。しかし、特許文献1には、カメラなどのセンサの設置ミスによって発生するおそれがある画像が取り違えられることを防止することについては言及されていない。
In order to address the above concerns, a case will be described in which two cameras are installed at symmetrical positions with respect to the welding torch. When a welding robot is introduced to a construction site, workers must carry the robot to the welding location, assemble it, and install it. In this process, if the operator sets the robot to the wrong mounting pedestal for the two registered cameras, it becomes impossible to properly use the two cameras properly.
For example, in Patent Document 1, in a welding robot, sensors such as cameras are installed at the front and rear of the torch in the direction of travel, image processing is performed on images obtained from both sides, and the welding situation is monitored. . However, Japanese Patent Laid-Open No. 2002-200002 does not mention preventing misidentification of images that may occur due to incorrect installation of a sensor such as a camera.

本発明の目的は、溶接ロボットに取り付けられるセンサ位置の正誤を判定できる溶接ロボットシステムおよび判定方法を提供することを目的とする。 SUMMARY OF THE INVENTION An object of the present invention is to provide a welding robot system and a determination method capable of determining whether the position of a sensor attached to a welding robot is correct.

(1)本発明の一態様に係る溶接ロボットシステムは、鋼材を所定方向に移動しながら前記鋼材を溶接する溶接ロボットを備える溶接ロボットシステムであって、前記溶接ロボットに取り付けられるセンサであって、前記溶接ロボットの所定方向側に取り付けられた所定方向側センサと、前記溶接ロボットに取り付けられるセンサであって、前記溶接ロボットの前記所定方向側とは反対側に取り付けられた反対側センサと、前記所定方向側センサおよび前記反対側センサのそれぞれが前記所定方向側および前記反対側のいずれに取り付けられているのかを判定する判定部と、を備える。 (1) A welding robot system according to an aspect of the present invention is a welding robot system that includes a welding robot that welds steel materials while moving the steel materials in a predetermined direction, the welding robot system comprising: a sensor attached to the welding robot, a predetermined direction side sensor attached to a predetermined direction side of the welding robot; a sensor attached to the welding robot, an opposite side sensor attached to a side opposite to the predetermined direction side of the welding robot; a determination unit that determines on which of the predetermined direction side and the opposite side each of the predetermined direction side sensor and the opposite side sensor is attached.

この発明によれば、溶接ロボットシステムは、鋼材を所定方向に移動しながら鋼材を溶接する溶接ロボットを備える。溶接ロボットシステムは、溶接ロボットに取り付けられるセンサであって、溶接ロボットの所定方向側に取り付けられた所定方向側センサと、溶接ロボットの所定方向側とは反対側に取り付けられた反対側センサとを備える。溶接ロボットシステムは、所定方向側センサおよび反対側センサのそれぞれが所定方向側および反対側のいずれに取り付けられているのかを判定する判定部を備える。このように構成することによって、溶接ロボットシステムは、所定方向側センサおよび反対側センサのそれぞれが所定方向側および反対側のいずれに取り付けられているのかを判定する判定部を備えるため、センサの取り付け位置の正誤を判定できる。 According to the present invention, a welding robot system includes a welding robot that welds steel materials while moving the steel materials in a predetermined direction. The welding robot system is a sensor attached to the welding robot, and includes a predetermined direction side sensor attached to the welding robot on the predetermined direction side and an opposite side sensor attached to the welding robot on the side opposite to the predetermined direction side. Prepare. The welding robot system includes a determination unit that determines whether each of the predetermined direction side sensor and the opposite side sensor is attached to the predetermined direction side or the opposite side. With this configuration, the welding robot system includes a determination unit that determines whether the predetermined direction side sensor and the opposite side sensor are mounted on the predetermined direction side or the opposite side, respectively. It is possible to judge whether the position is correct or not.

(2)本発明の一態様に係る溶接ロボットシステムは、上記(1)に係る溶接ロボットシステムであって、前記センサは、カメラを含み、前記溶接ロボットシステムは、前記所定方向側センサと前記反対側センサとに、前記所定方向側センサと前記反対側センサとの間に設置された被写体を撮像させる制御を行う制御部をさらに備え、前記判定部は、前記所定方向側センサと前記反対側センサとが前記被写体を撮像して出力した画像を用いて、前記所定方向側センサおよび前記反対側センサが前記所定方向側および前記反対側のいずれに取り付けられているのかを判定する。 (2) A welding robot system according to an aspect of the present invention is the welding robot system according to (1) above, wherein the sensor includes a camera, and the welding robot system includes the predetermined direction side sensor and the opposite side sensor. and a control unit that performs control to image a subject installed between the predetermined direction side sensor and the opposite side sensor, and the determination unit controls the predetermined direction side sensor and the opposite side sensor. It is determined on which of the predetermined direction side and the opposite side the predetermined direction side sensor and the opposite side sensor are attached, using the image output by capturing the subject.

溶接ロボットシステムにおいて、センサは、カメラを含む。溶接ロボットシステムは、所定方向側センサと反対側センサとに、所定方向側センサと反対側センサとの間に設置された被写体を撮像させる制御を行う制御部をさらに備える。このように構成することによって、判定部は、所定方向側センサと反対側センサとが被写体を撮像して出力した画像を用いて、所定方向側センサおよび反対側センサが所定方向側および反対側のいずれに取り付けられているのかを判定できるため、カメラの取り付け位置の正誤を判定できる。 In welding robot systems, sensors include cameras. The welding robot system further includes a control unit that controls the predetermined direction sensor and the opposite side sensor to image an object placed between the predetermined direction sensor and the opposite side sensor. With this configuration, the determining section uses the images output by the predetermined direction sensor and the opposite side sensor to pick up and output the subject, and the predetermined direction side sensor and the opposite side sensor determine the image of the subject in the predetermined direction side and the opposite side. Since it can be determined in which direction the camera is attached, it is possible to determine whether the camera is attached in a correct or incorrect position.

(3)本発明の一態様に係る溶接ロボットシステムは、上記(2)に記載の溶接ロボットシステムであって、前記被写体は、前記所定方向側センサと前記反対側センサとのそれぞれの撮像範囲における所定範囲内に位置する。 (3) A welding robot system according to an aspect of the present invention is the welding robot system according to (2) above, wherein the subject is in the imaging range of each of the predetermined direction side sensor and the opposite side sensor. Located within a predetermined range.

溶接ロボットシステムにおいて、被写体は、所定方向側センサと反対側センサとのそれぞれの撮像範囲における所定範囲内に位置する。このように構成することによって、判定部は、所定方向側センサと反対側センサとが、それぞれの撮像範囲における所定範囲内に位置する被写体を撮像して出力した画像を用いて、所定方向側センサおよび反対側センサが所定方向側および反対側のいずれに取り付けられているのかを判定できるため、カメラの取り付け位置の正誤を判定できる。 In the welding robot system, the subject is positioned within a predetermined range of the imaging ranges of the predetermined direction side sensor and the opposite side sensor. With this configuration, the determination unit uses the images output by the predetermined direction sensor and the opposite side sensor to pick up and output a subject located within the predetermined range of the respective imaging ranges, and uses the predetermined direction sensor Since it is possible to determine whether the sensor on the predetermined direction or the opposite side is attached, it is possible to determine whether the mounting position of the camera is correct or not.

(4)本発明の一態様に係る溶接ロボットシステムは、上記(2)又は上記(3)に記載の溶接ロボットシステムであって、前記被写体の形状は、矩形である。 (4) A welding robot system according to an aspect of the present invention is the welding robot system according to (2) or (3) above, wherein the subject has a rectangular shape.

溶接ロボットシステムにおいて、被写体の形状は、矩形とすることができる。このように構成することによって、判定部は、所定方向側センサと反対側センサとが、矩形の被写体を撮像して出力した画像を用いて、所定方向側センサおよび反対側センサが所定方向側および反対側のいずれに取り付けられているのかを判定できるため、カメラの取り付け位置の正誤を判定できる。 In the welding robot system, the shape of the object can be rectangular. With this configuration, the determination unit uses the images output by the predetermined direction sensor and the opposite side sensor to pick up and output a rectangular subject, and the predetermined direction side sensor and the opposite side sensor Since it is possible to determine on which side the camera is attached, it is possible to determine whether the camera is attached in a correct or incorrect position.

(5)本発明の一態様に係る溶接ロボットシステムは、上記(2)から上記(4)のいずれか一項に記載の溶接ロボットシステムであって、前記被写体の形状は、長方形であり、前記被写体の長辺と、前記所定方向側センサおよび前記反対側センサのそれぞれの撮像範囲の長辺とがなす角が不変である。 (5) A welding robot system according to an aspect of the present invention is the welding robot system according to any one of (2) to (4) above, wherein the subject has a rectangular shape, and The angle formed by the long side of the object and the long side of the imaging ranges of the predetermined direction side sensor and the opposite side sensor is unchanged.

溶接ロボットシステムにおいて、被写体の形状は、長方形であり、被写体の長辺と、所定方向側センサおよび反対側センサのそれぞれの撮像範囲の長辺とがなす角を不変とすることができる。所定方向側センサおよび反対側センサのそれぞれが撮像するタイミングで、被写体の長辺と、撮像範囲の長辺とがなす角が不変であればよい。このように構成することによって、判定部は、所定方向側センサと反対側センサとが、長方形の被写体を撮像して出力した画像を用いて、所定方向側センサおよび反対側センサのそれぞれが所定方向側および反対側のいずれに取り付けられているのかを判定できるため、カメラの取り付け位置の正誤を判定できる。 In the welding robot system, the object has a rectangular shape, and the angle formed by the long side of the object and the long sides of the imaging ranges of the predetermined direction side sensor and the opposite side sensor can be made constant. It is sufficient if the angle formed by the long side of the subject and the long side of the imaging range does not change at the timing when the sensor on the predetermined direction side and the sensor on the opposite side pick up images. With this configuration, the determination unit uses the images output by the predetermined direction sensor and the opposite side sensor to capture and output a rectangular subject, and the predetermined direction side sensor and the opposite side sensor determine the predetermined direction. Since it can be determined whether the camera is installed on the side or the opposite side, it is possible to determine whether the camera is installed in a correct or incorrect position.

(6)本発明の一態様に係る溶接ロボットシステムは、上記(2)から上記(5)のいずれか一項に記載の溶接ロボットシステムであって、前記判定部は、前記画像に含まれる前記被写体の少なくとも2つの頂点の座標を用い、前記所定方向側センサと前記反対側センサとが、前記所定方向側および前記反対側のいずれに取り付けられているのかを判定する。 (6) A welding robot system according to an aspect of the present invention is the welding robot system according to any one of (2) to (5) above, wherein the determining unit includes the Using the coordinates of at least two vertices of the subject, it is determined whether the predetermined direction side sensor and the opposite side sensor are attached to the predetermined direction side or the opposite side.

溶接ロボットシステムにおいて、判定部は、画像に含まれる被写体の少なくとも2つの頂点の座標を用いることができる。このように構成することによって、判定部は、画像に含まれる被写体の少なくとも2つの頂点の座標を用い、所定方向側センサと反対側センサとが所定方向側および反対側のいずれに取り付けられているのかを判定できるため、カメラの取り付け位置の正誤を判定できる。 In the welding robot system, the determination unit can use the coordinates of at least two vertices of the subject included in the image. With this configuration, the determination unit uses the coordinates of at least two vertices of the subject included in the image, and determines whether the predetermined direction side sensor and the opposite side sensor are attached to either the predetermined direction side or the opposite side. Therefore, it is possible to determine whether the mounting position of the camera is correct or not.

(7)本発明の一態様に係る溶接ロボットシステムは、上記(2)から上記(6)のいずれか一項に記載の溶接ロボットシステムであって、前記被写体は、前記所定方向側センサおよび前記反対側センサの座標系と前記溶接ロボットの座標系とを対応付けるためのキャリブレーションであって、前記所定方向側センサと前記反対側センサとのキャリブレーションに用いられるキャリブレーションプレートである。 (7) A welding robot system according to an aspect of the present invention is the welding robot system according to any one of (2) to (6) above, wherein the subject is the predetermined direction sensor and the A calibration plate used for calibration for matching the coordinate system of the opposite side sensor and the coordinate system of the welding robot, and used for the calibration of the predetermined direction side sensor and the opposite side sensor.

溶接ロボットシステムにおいて、被写体は、所定方向側センサおよび反対側センサの座標系と溶接ロボットの座標系とを対応付けるためのキャリブレーションであって、所定方向側センサと反対側センサとのキャリブレーションに用いられるキャリブレーションプレートとすることができる。このように構成することによって、判定部は、所定方向側センサと反対側センサとがキャリブレーションプレートを撮像して出力した画像を用いて、所定方向側センサおよび反対側センサが所定方向側および反対側のいずれに取り付けられているのかを判定できるため、カメラの取り付け位置の正誤を判定できる。 In the welding robot system, the object is calibration for associating the coordinate system of the predetermined direction side sensor and the opposite side sensor with the coordinate system of the welding robot, and is used for the calibration of the predetermined direction side sensor and the opposite side sensor. can be a calibration plate. With this configuration, the determination unit uses images output by the predetermined direction sensor and the opposite side sensor to capture images of the calibration plate, and the predetermined direction sensor and the opposite side sensor determine the predetermined direction side and the opposite side sensor. Since it is possible to determine which side the camera is attached to, it is possible to determine whether the camera is attached in a correct or incorrect position.

(8)本発明の一態様に係る溶接ロボットシステムは、上記(7)に記載の溶接ロボットシステムであって、前記キャリブレーションプレートは、開先の断面形状の測定にも用いられる。 (8) A welding robot system according to an aspect of the present invention is the welding robot system according to (7) above, wherein the calibration plate is also used for measuring the cross-sectional shape of the groove.

溶接ロボットシステムにおいて、キャリブレーションプレートは、開先の断面形状の測定にも用いられる。このように構成することによって、判定部は、所定方向側センサと反対側センサとが開先の断面形状の測定にも用いられるキャリブレーションプレートを撮像して出力した画像を用いて、所定方向側センサおよび反対側センサが所定方向側および反対側のいずれに取り付けられているのかを判定できるため、カメラの取り付け位置の正誤を判定できる。 In the welding robot system, the calibration plate is also used to measure the cross-sectional shape of the groove. With this configuration, the determining unit uses an image output by the predetermined direction sensor and the opposite side sensor to capture and output the calibration plate, which is also used for measuring the cross-sectional shape of the groove, to determine the predetermined direction side. Since it is possible to determine whether the sensor and the opposite side sensor are attached to the predetermined direction side or the opposite side, it is possible to determine whether the mounting position of the camera is correct.

(9)本発明の一態様に係る溶接ロボットシステムは、上記(7)又は上記(8)に記載の溶接ロボットシステムであって、前記キャリブレーションプレートは、ワールド座標系に対するロボットの座標系の傾きを求めるためにも用いられる。 (9) A welding robot system according to an aspect of the present invention is the welding robot system according to (7) or (8) above, wherein the calibration plate is an inclination of the robot coordinate system with respect to the world coordinate system. It is also used to find

溶接ロボットシステムにおいて、キャリブレーションプレートは、ワールド座標系に対するロボットの座標系の傾きを求めるためにも用いられる。このように構成することによって、判定部は、所定方向側センサと反対側センサとが、ワールド座標系に対するロボットの座標系の傾きを求めるためにも用いられるキャリブレーションプレートを撮像して出力した画像を用いて、所定方向側センサおよび反対側センサが所定方向側および反対側のいずれに取り付けられているのかを判定できるため、カメラの取り付け位置の正誤を判定できる。 In welding robot systems, the calibration plate is also used to determine the tilt of the robot's coordinate system with respect to the world coordinate system. With this configuration, the determination unit outputs an image obtained by imaging the calibration plate, which is also used for determining the inclination of the coordinate system of the robot with respect to the world coordinate system, by the sensor on the predetermined direction side and the sensor on the opposite side. can be used to determine whether the predetermined direction side sensor and the opposite side sensor are attached to the predetermined direction side or the opposite side, so it is possible to determine whether the mounting position of the camera is correct.

(10)本発明の一態様に係る溶接ロボットシステムは、上記(7)から上記(9)のいずれか一項に記載の溶接ロボットシステムであって、前記画像は、前記所定方向側センサと前記反対側センサとが前記キャリブレーションのために前記被写体を撮像して出力した画像である。 (10) A welding robot system according to an aspect of the present invention is the welding robot system according to any one of (7) to (9) above, wherein the image includes the predetermined direction sensor and the The opposite side sensor is an image captured and output from the subject for the calibration.

溶接ロボットシステムにおいて、画像は、所定方向側センサと反対側センサとがキャリブレーションのために被写体を撮像して出力した画像とすることができる。このように構成することによって、判定部は、所定方向側センサと反対側センサとが、キャリブレーションのために被写体を撮像して出力した画像を用いて、所定方向側センサおよび反対側センサが所定方向側および反対側のいずれに取り付けられているのかを判定できるため、カメラの取り付け位置の正誤を判定できる。 In the welding robot system, the image can be an image output by imaging a subject for calibration by the sensor on the predetermined direction and the sensor on the opposite side. With this configuration, the determination unit uses an image output by the predetermined direction sensor and the opposite side sensor to pick up an image of the subject for calibration, and determines whether the predetermined direction sensor and the opposite side sensor Since it is possible to determine whether the camera is installed on the direction side or the opposite side, it is possible to determine whether the camera is installed in the correct or incorrect position.

(11)本発明の一態様に係る溶接ロボットシステムは、上記(7)から上記(10)のいずれか一項に記載の溶接ロボットシステムであって、前記画像は、前記所定方向側センサと前記反対側センサとのそれぞれが撮像する画像の歪補正のために前記所定方向側センサと前記反対側センサとのそれぞれが前記被写体を撮像して出力した画像である。 (11) A welding robot system according to an aspect of the present invention is the welding robot system according to any one of (7) to (10) above, wherein the image includes the predetermined direction sensor and the Each of the predetermined direction side sensor and the opposite side sensor picks up and outputs an image of the object for distortion correction of the image picked up by each of the opposite side sensor.

溶接ロボットシステムにおいて、画像は、所定方向側センサと反対側センサとのそれぞれが撮像する画像の歪補正のために所定方向側センサと反対側センサとのそれぞれが被写体を撮像して出力した画像とすることができる。このように構成することによって、判定部は、所定方向側センサと反対側センサとのそれぞれが撮像する画像の歪補正のために被写体を撮像して出力した画像を用いて、所定方向側センサおよび反対側センサが所定方向側および反対側のいずれに取り付けられているのかを判定できるため、カメラの取り付け位置の正誤を判定できる。 In the welding robot system, an image is an image output from an object captured by each of the predetermined direction sensor and the opposite side sensor for distortion correction of the image captured by each of the predetermined direction sensor and the opposite side sensor. can do. With this configuration, the determination unit uses the image captured by the subject and output for distortion correction of the images captured by the predetermined direction sensor and the opposite side sensor, respectively. Since it can be determined whether the opposite side sensor is attached to the predetermined direction side or the opposite side, it is possible to determine whether the mounting position of the camera is correct.

(12)本発明の一態様に係る溶接ロボットシステムは、上記(1)から上記(11)のいずれか一項に記載の溶接ロボットシステムであって、前記所定方向側センサと前記反対側センサとが取り付つけられる位置に対応する情報をユーザに入力させる入力部と、前記入力部により入力される前記情報が対応する位置と、前記判定部により判定される前記所定方向側センサと前記反対側センサとが取り付けられている位置と、が異なる場合に、前記ユーザに通知する通知部と、を備える。 (12) A welding robot system according to an aspect of the present invention is the welding robot system according to any one of (1) to (11) above, wherein the predetermined direction side sensor and the opposite side sensor an input unit for allowing a user to input information corresponding to a position where the is attached, a position corresponding to the information input by the input unit, and the predetermined direction side sensor determined by the determination unit and the opposite side and a notification unit that notifies the user when the position where the sensor is attached is different.

溶接ロボットシステムにおいて、溶接ロボットシステムは、所定方向側センサと反対側センサとが取り付けられる位置に対応する情報をユーザに入力させる入力部を備える。位置に対応する情報の一例は、IPアドレスである。溶接ロボットシステムは、入力部により入力される情報に対応する位置と、判定部により判定される前記所定方向側センサと反対側センサとが取り付けられている位置とが異なる場合に、ユーザに通知する通知部を備える。このように構成することによって、溶接ロボットシステムは、所定方向側センサと反対側センサとが取り付けられる位置に対応する情報に基づいて、溶接ロボットに、鋼材を所定方向に移動させながら鋼材を溶接させることができる。溶接ロボットシステムは、カメラの取り付け位置が誤っている場合に、ユーザに通知できる。 In the welding robot system, the welding robot system includes an input unit that allows a user to input information corresponding to the positions where the predetermined direction side sensor and the opposite side sensor are attached. An example of information corresponding to location is an IP address. The welding robot system notifies the user when the position corresponding to the information input by the input unit is different from the position where the sensor on the predetermined direction side and the sensor on the opposite side determined by the determination unit are attached. A notification part is provided. With this configuration, the welding robot system causes the welding robot to weld the steel material while moving the steel material in the predetermined direction based on the information corresponding to the positions where the predetermined direction sensor and the opposite side sensor are attached. be able to. The welding robot system can notify the user if the mounting position of the camera is incorrect.

(13)本発明の一態様に係る判定方法は、鋼材を所定方向に移動しながら前記鋼材を溶接する溶接ロボットを備える判定方法であって、前記溶接ロボットの所定方向側に取り付けられた所定方向側センサと、前記溶接ロボットの前記所定方向側とは反対側に取り付けられた反対側センサとのそれぞれが前記所定方向側および前記反対側のいずれに取り付けられているのかを判定するステップとを有する。 (13) A determination method according to an aspect of the present invention is a determination method including a welding robot that welds a steel material while moving the steel material in a predetermined direction, wherein the welding robot is attached to the predetermined direction side of the welding robot and the welding robot is attached to the predetermined direction side of the welding robot. determining whether each of a side sensor and an opposite side sensor attached to the side opposite to the predetermined direction side of the welding robot is attached to the predetermined direction side or the opposite side. .

この発明によれば、判定方法は、鋼材を所定方向に移動しながら鋼材を溶接する溶接ロボットを備える溶接ロボットシステムが実行する。判定方法は、溶接ロボットの所定方向側に取り付けられた所定方向側センサと、溶接ロボットの所定方向側とは反対側に取り付けられた反対側センサとのそれぞれが所定方向側および反対側のいずれに取り付けられているのかを判定するステップを有する。このように構成することによって、溶接ロボットシステムは、所定方向側センサおよび反対側センサのそれぞれが所定方向側および反対側のいずれに取り付けられているのかを判定できるため、カメラの取り付け位置の正誤を判定できる。 According to this invention, the determination method is executed by a welding robot system that includes a welding robot that welds steel materials while moving the steel materials in a predetermined direction. The determination method is based on whether the predetermined direction side sensor attached to the predetermined direction side of the welding robot and the opposite side sensor attached to the side opposite to the predetermined direction side of the welding robot are on the predetermined direction side or the opposite side. It has a step of determining whether it is attached. With this configuration, the welding robot system can determine whether the predetermined direction side sensor and the opposite side sensor are mounted on the predetermined direction side or the opposite side, respectively, so that the correctness of the mounting position of the camera can be determined. I can judge.

本発明の実施形態によれば、溶接ロボットに取り付けられるセンサ位置の正誤を判定できる。 According to the embodiment of the present invention, it is possible to determine whether the position of the sensor attached to the welding robot is correct.

本発明の実施形態に係る溶接ロボットシステムの一例を示す図である。BRIEF DESCRIPTION OF THE DRAWINGS It is a figure which shows an example of the welding robot system which concerns on embodiment of this invention. 本実施形態に係る溶接ロボットシステムの一例を示す図である。BRIEF DESCRIPTION OF THE DRAWINGS It is a figure which shows an example of the welding robot system which concerns on this embodiment. 本実施形態に係る溶接ロボットシステムの動作の一例を示す図である。It is a figure which shows an example of operation|movement of the welding robot system which concerns on this embodiment. 本実施形態に係る溶接ロボットシステムの動作の一例を示す図である。It is a figure which shows an example of operation|movement of the welding robot system which concerns on this embodiment. 本実施形態に係る溶接ロボットシステムの動作の一例を示す図である。It is a figure which shows an example of operation|movement of the welding robot system which concerns on this embodiment. 本実施形態に係る溶接ロボットシステムの動作の一例を示す図である。It is a figure which shows an example of operation|movement of the welding robot system which concerns on this embodiment. 本実施形態に係る溶接ロボットシステムの動作の一例を示す図である。It is a figure which shows an example of operation|movement of the welding robot system which concerns on this embodiment. 本実施形態に係る溶接ロボットシステムの動作の一例を示すフローチャートである。4 is a flow chart showing an example of the operation of the welding robot system according to the embodiment; 本実施形態に係る溶接ロボットシステムの動作の一例を示すフローチャートである。4 is a flow chart showing an example of the operation of the welding robot system according to the embodiment; 本実施形態に係る溶接ロボットシステムの動作の一例を示すフローチャートである。4 is a flow chart showing an example of the operation of the welding robot system according to the embodiment; 本実施形態に係る溶接ロボットシステムの動作の一例を示すフローチャートである。4 is a flow chart showing an example of the operation of the welding robot system according to the embodiment;

次に、本実施形態の溶接ロボットシステムおよび判定方法を、図面を参照しつつ説明する。以下で説明する実施形態は一例に過ぎず、本発明が適用される実施形態は、以下の実施形態に限られない。
なお、実施形態を説明するための全図において、同一の機能を有するものは同一符号を用い、繰り返しの説明は省略する。
また、本願でいう「XXに基づいて」とは、「少なくともXXに基づく」ことを意味し、XXに加えて別の要素に基づく場合も含む。また、「XXに基づいて」とは、XXを直接に用いる場合に限定されず、XXに対して演算や加工が行われたものに基づく場合も含む。「XX」は、任意の要素(例えば、任意の情報)である。
Next, the welding robot system and determination method of this embodiment will be described with reference to the drawings. The embodiments described below are merely examples, and embodiments to which the present invention is applied are not limited to the following embodiments.
In addition, in all the drawings for explaining the embodiments, the same reference numerals are used for the parts having the same functions, and repeated explanations are omitted.
In addition, "based on XX" in the present application means "based on at least XX", and includes cases based on other elements in addition to XX. Moreover, "based on XX" is not limited to the case of using XX directly, but also includes the case of being based on what has been calculated or processed with respect to XX. "XX" is an arbitrary element (for example, arbitrary information).

(実施形態)
(溶接ロボットシステム)
図1は、本発明の実施形態に係る溶接ロボットシステムの一例を示す図である。
本実施形態に係る溶接ロボットシステム1は、溶接ロボット10を用いて溶接対象物2の自動溶接を行うものである。溶接対象物2の一例は、鋼材である。
溶接ロボットシステム1は、溶接ロボット10と制御装置9とを備える。
溶接対象物2には、溶接すべき一対の辺縁に溝状の開先3が形成されている。溶接対象物2には、開先3に沿って走行レール11が設置され、溶接ロボット10は走行レール11に沿って移動可能である。
溶接ロボット10においては、溶接対象物2の表面との交差方向がZ軸、開先3および走行レール11の延伸方向がY軸、開先3を横断する方向(Z軸およびY軸とそれぞれ直交する方向)がX軸とされる。
溶接ロボット10は、走行レール11に沿って移動するサドル12を有し、サドル12には矩形箱状のケース13が支持されている。
ケース13の内部には図示しない移動機構が設置され、ケース13は走行レール11に対して近接離隔する方向(Z軸方向)、および開先3を横断する方向(X軸方向)へ、それぞれ移動可能である。
(embodiment)
(welding robot system)
FIG. 1 is a diagram showing an example of a welding robot system according to an embodiment of the invention.
A welding robot system 1 according to the present embodiment uses a welding robot 10 to automatically weld an object 2 to be welded. An example of the object to be welded 2 is steel.
A welding robot system 1 includes a welding robot 10 and a control device 9 .
The object to be welded 2 is formed with a groove-like groove 3 on a pair of edges to be welded. A travel rail 11 is installed along the groove 3 on the object 2 to be welded, and the welding robot 10 can move along the travel rail 11 .
In the welding robot 10, the direction intersecting with the surface of the object 2 to be welded is the Z-axis, the extending direction of the groove 3 and the running rail 11 is the Y-axis, and the direction across the groove 3 (perpendicular to the Z-axis and the Y-axis, respectively). direction) is the X-axis.
A welding robot 10 has a saddle 12 that moves along a travel rail 11. The saddle 12 supports a rectangular box-shaped case 13. As shown in FIG.
A moving mechanism (not shown) is installed inside the case 13, and the case 13 moves in a direction (Z-axis direction) toward and away from the running rail 11 and in a direction (X-axis direction) across the groove 3. It is possible.

ケース13の開先3に臨む側にはブラケット14が設置され、ブラケット14の先端にはホルダ15が支持され、ホルダ15には溶接トーチ16が保持されている。溶接トーチ16の先端には溶接ワイヤ161が支持されている。
ホルダ15は、ブラケット14に回動可能かつ回動軸Sまわりの任意の角度位置で固定可能であり、ホルダ15の角度により溶接トーチ16のねらい角Atを調整可能である。
溶接ロボット10には、制御装置9が接続されている。
A bracket 14 is installed on the side facing the groove 3 of the case 13 , a holder 15 is supported at the tip of the bracket 14 , and a welding torch 16 is held by the holder 15 . A welding wire 161 is supported at the tip of the welding torch 16 .
The holder 15 is rotatable on the bracket 14 and can be fixed at an arbitrary angular position around the rotation axis S, and the aiming angle At of the welding torch 16 can be adjusted by the angle of the holder 15 .
A controller 9 is connected to the welding robot 10 .

溶接ロボット10は、照明装置21と、カメラ22-1と、カメラ22-2とが取り付けられている。カメラ22-1と、カメラ22―2とは、溶接ロボット10から取り外し可能である。カメラ22-1と、カメラ22-2とのうち、任意のカメラをカメラ22と記載する。
照明装置21の一例は、ラインレーザ照射装置であり、開先3の横断方向(X軸方向)に拡がるレーザ光束を開先3の測定部位31に照射する。このように構成することで、測定部位31を開先3の横断方向へ連続して線状に照明できるため、断面形状32を周囲よりも明るく浮かび上がらせることができる。
カメラ22-1とカメラ22-2とは、溶接トーチ16を挟んで両側に一対設置され、それぞれ照明装置21で線状に照明された断面形状32を含む測定部位31を撮像し、画像データとして制御装置9に送信する。
The welding robot 10 is equipped with an illumination device 21, a camera 22-1, and a camera 22-2. The cameras 22-1 and 22-2 are removable from the welding robot 10. FIG. An arbitrary camera out of the cameras 22-1 and 22-2 is referred to as a camera 22. FIG.
An example of the illumination device 21 is a line laser irradiation device, which irradiates the measurement site 31 of the groove 3 with a laser beam that spreads in the transverse direction (X-axis direction) of the groove 3 . By configuring in this way, the measurement site 31 can be continuously illuminated linearly in the transverse direction of the groove 3, so that the cross-sectional shape 32 can be highlighted brighter than the surroundings.
A camera 22-1 and a camera 22-2 are installed on both sides of the welding torch 16 as a pair. Send to the control device 9 .

一対のカメラ22の一例は、それぞれCCD(Charge Coupled Device、電荷結合素子)などの固体撮像素子を含んで構成され、支持パネル221および支持アーム222を介して、ケース13の側面に設置された支持レール223に支持されている。
各カメラ22は、支持パネル221に対して向きを調整可能であり、さらに支持レール223に沿ってX軸方向へ移動可能であり、各カメラ22の位置、向きや傾きを調整することで、撮像する際の視野つまり測定部位31を含む溶接対象物2上の撮像領域220を自由に調整できる。
An example of the pair of cameras 22 includes a solid-state imaging device such as a CCD (Charge Coupled Device), and is mounted on the side surface of the case 13 via a support panel 221 and a support arm 222 . It is supported by rails 223 .
Each camera 22 can be oriented with respect to the support panel 221 and can be moved along the support rail 223 in the X-axis direction. The field of view at the time of measurement, that is, the imaging area 220 on the welding object 2 including the measurement site 31 can be freely adjusted.

溶接ロボットシステム1は、溶接ロボット10に支持されたパネル23を備える。
パネル23の形状は、長方形などの矩形であり、パネル23の表面には、直交配置された複数本の線232および線233による二次元のゲージ230が描かれている。
パネル23は、キャリブレーションプレートであってもよい。キャリブレーションプレートは、カメラ22-1およびカメラ22-2のそれぞれの座標系と溶接ロボット10の座標系とを対応付けるためのキャリブレーションを行うために使用される。溶接ロボット10の座標系とは、溶接ロボット10の位置を表すための座標系である。
キャリブレーションプレートは、カメラ22-1およびカメラ22-2のそれぞれのキャリブレーションに使用される。キャリブレーションプレートは、開先3の断面形状の測定にも使用される。キャリブレーションプレートは、ワールド座標系に対するロボット座標系の傾きを求めるためにも使用される。
ゲージ230の形状情報、具体的にはパネル23における直交配置された複数本の線232および線233の基端位置、数、長さ、先端位置の情報は、予め制御装置9に記憶されている。
パネル23は、アーム231を介してブラケット14に支持され、少なくとも下半分が開先3内に入り込むように配置され、パネル23の表面が開先3の連続方向と交差する状態とされている。
アーム231は、ブラケット14に対して回動自在に接続され、パネル23は開先3に入り込んだ状態からカメラ22の視野外まで退避可能である。パネル23をカメラ22の視野外へ退避させるために、アーム231およびパネル23をブラケット14から取り外し可能としてもよい。
このような溶接ロボットシステム1においては、溶接対象物2に対する自動溶接作業に先立って、カメラ位置の正誤を判定し、開先3に対するセンシングを行う。
The welding robot system 1 has a panel 23 supported by the welding robot 10 .
The shape of the panel 23 is a rectangle such as a rectangle, and a two-dimensional gauge 230 is drawn on the surface of the panel 23 by a plurality of lines 232 and 233 arranged orthogonally.
Panel 23 may be a calibration plate. The calibration plate is used to perform calibration for associating the coordinate systems of the cameras 22-1 and 22-2 with the coordinate system of the welding robot . The coordinate system of welding robot 10 is a coordinate system for representing the position of welding robot 10 .
The calibration plate is used for calibration of each of camera 22-1 and camera 22-2. The calibration plate is also used for measuring the cross-sectional shape of the groove 3 . The calibration plate is also used to determine the tilt of the robot coordinate system with respect to the world coordinate system.
Information on the shape of the gauge 230, specifically information on the base end position, number, length, and tip position of the plurality of lines 232 and 233 arranged orthogonally on the panel 23 is stored in the control device 9 in advance. .
The panel 23 is supported by the bracket 14 via the arm 231, and is arranged so that at least the lower half thereof is inserted into the groove 3, and the surface of the panel 23 intersects the continuous direction of the groove 3.
The arm 231 is rotatably connected to the bracket 14 , and the panel 23 can be retracted out of the field of view of the camera 22 from the state of entering the groove 3 . Arm 231 and panel 23 may be removable from bracket 14 in order to retract panel 23 out of the field of view of camera 22 .
In the welding robot system 1 as described above, prior to the automatic welding operation on the object 2 to be welded, it is determined whether the camera position is correct or not, and the groove 3 is sensed.

図2は、本実施形態に係る溶接ロボットシステムの一例を示す図である。溶接ロボットシステム1は、図2に示すように、制御装置9と、走行レール11と、サドル12と、溶接トーチ16と、照明装置21と、カメラ22-1と、カメラ22-2とを備える。
制御装置9は、溶接動作制御部91と、サドル移動制御部92と、入力部93と、処理部94と、記憶部95と、カメラ制御部96と、判定部97と、通知部98とを備える。
制御装置9は、既存のコンピュータシステムに専用のドライバを組み合わせて構成され、記憶部95に格納されたプログラムを実行することで、カメラの位置の正誤の判定、開先形状の測定、走行レール11に沿ったサドル12およびケース13の走行、溶接トーチ16の姿勢調整、溶接トーチ16に供給する電圧および電流の調整、溶接ワイヤの送り速度の調整など、溶接ロボット10の各部動作の制御を行う。
制御装置9は、溶接対象物2の開先3に対して、複数の測定部位31で断面形状32を測定することで開先3の全体的な形状を測定し、得られた開先形状に基づいて溶接ロボット10を制御する。
FIG. 2 is a diagram showing an example of a welding robot system according to this embodiment. As shown in FIG. 2, the welding robot system 1 includes a control device 9, a travel rail 11, a saddle 12, a welding torch 16, an illumination device 21, a camera 22-1, and a camera 22-2. .
The control device 9 includes a welding operation control section 91, a saddle movement control section 92, an input section 93, a processing section 94, a storage section 95, a camera control section 96, a determination section 97, and a notification section 98. Prepare.
The control device 9 is configured by combining an existing computer system with a dedicated driver, and executes a program stored in the storage unit 95 to determine whether the position of the camera is correct, measure the groove shape, and perform the operation of the running rail 11 . It controls the operation of each part of the welding robot 10, such as traveling of the saddle 12 and the case 13 along the path, adjusting the attitude of the welding torch 16, adjusting the voltage and current supplied to the welding torch 16, and adjusting the feed speed of the welding wire.
The control device 9 measures the overall shape of the groove 3 by measuring the cross-sectional shape 32 at a plurality of measurement sites 31 for the groove 3 of the welding target 2, and measures the obtained groove shape. Based on this, the welding robot 10 is controlled.

溶接動作制御部91は、溶接トーチ16を制御する。例えば、溶接動作制御部91は、溶接トーチ16の姿勢調整、溶接トーチ16に供給する電圧および電流の調整、溶接ワイヤの送り速度の調整などを行う。
サドル移動制御部92は、サドル12を制御する。例えば、サドル移動制御部92は、走行レール11に沿ったサドル12の走行の制御を行う。
入力部93は、情報を入力する。一例として、入力部93は、キーボードおよびマウスなどの操作部を有してもよい。この場合、入力部93は、ユーザによって当該操作部に対して行われる操作に応じた情報を入力する。他の例として、入力部93は、外部の装置から情報を入力してもよい。当該外部の装置は、例えば、可搬な記憶媒体であってもよい。
入力部93には、ユーザによって、カメラ22-1およびカメラ22-2のそれぞれが取り付けられる位置に対応する情報が入力される。カメラ22-1およびカメラ22-2のそれぞれが取り付けられる位置に対応する情報の一例は、カメラ22-1およびカメラ22-2のIPアドレスなどのカメラ22-1およびカメラ22-2がネットワーク通信を行う場合に使用する識別情報である。
以下、カメラ22-1およびカメラ22-2のそれぞれが取り付けられる位置に対応する情報の一例として、カメラ22-1およびカメラ22-2のIPアドレスを適用した場合について説明を続ける。
The welding operation control section 91 controls the welding torch 16 . For example, the welding operation control unit 91 adjusts the attitude of the welding torch 16, adjusts the voltage and current supplied to the welding torch 16, and adjusts the feed speed of the welding wire.
A saddle movement control section 92 controls the saddle 12 . For example, the saddle movement control unit 92 controls traveling of the saddle 12 along the travel rail 11 .
The input unit 93 inputs information. As an example, the input unit 93 may have operation units such as a keyboard and a mouse. In this case, the input unit 93 inputs information according to the operation performed by the user on the operation unit. As another example, the input unit 93 may input information from an external device. The external device may be, for example, a portable storage medium.
Information corresponding to the positions at which the cameras 22-1 and 22-2 are attached is input to the input unit 93 by the user. An example of the information corresponding to the positions where the cameras 22-1 and 22-2 are attached is the IP addresses of the cameras 22-1 and 22-2, etc. This is the identification information used when doing so.
A case where the IP addresses of the cameras 22-1 and 22-2 are applied as an example of the information corresponding to the positions where the cameras 22-1 and 22-2 are attached will be described below.

例えば、カメラ22-1およびカメラ22-2は、溶接ロボット10に対して、所定方向側と所定方向側とは反対側とに取り付けられる。所定方向の一例は左側(Y軸のマイナス側)であり、反対側の一例は右側(Y軸のプラス側)である。以下、一例として、所定方向側が左側であり、反対側が右側であり、左側にカメラ22-1が取り付けられ、右側にカメラ22-2が取り付けられる場合について説明を続ける。
表示部(図示なし)には、左側のカメラ22-1に対応するIPアドレスを入力する欄と、右側のカメラ22-2に対応するIPアドレスを入力する欄とが表示される。ユーザは、入力部93に左側のカメラ22-1に対応するIPアドレスと、右側のカメラ22-2に対応するIPアドレスとを入力する。
For example, the cameras 22-1 and 22-2 are attached to the welding robot 10 on the predetermined direction side and the side opposite to the predetermined direction side. An example of the predetermined direction is the left side (negative side of the Y-axis), and an example of the opposite side is the right side (positive side of the Y-axis). As an example, the case where the predetermined direction side is the left side, the opposite side is the right side, and the camera 22-1 is mounted on the left side and the camera 22-2 is mounted on the right side will be described below.
The display section (not shown) displays a field for inputting the IP address corresponding to the camera 22-1 on the left side and a field for inputting the IP address corresponding to the camera 22-2 on the right side. The user inputs the IP address corresponding to the camera 22-1 on the left side and the IP address corresponding to the camera 22-2 on the right side to the input unit 93. FIG.

処理部94は、入力部93から左側のカメラ22-1に対応するIPアドレスと、右側のカメラ22-2に対応するIPアドレスとを取得する。処理部94は、取得した左側のカメラ22-1に対応するIPアドレスと、右側のカメラ22-2に対応するIPアドレスとを記憶部95に記憶させる。
カメラ制御部96は、カメラ22-1と、カメラ22-2とを制御する。カメラ制御部96は、カメラ22-1と、カメラ22-2とに接続し、カメラ22-1と、カメラ22-2とから、識別情報を取得する。識別情報の一例は、MACアドレス(Media Access Control address)などのカメラ22に固有の識別番号である。以下、カメラ22-1およびカメラ22-2のそれぞれの識別情報の一例として、MACアドレスを適用した場合について説明を続ける。
カメラ制御部96は、カメラ22-1から取得したMACアドレスを、カメラ22-1のIPアドレスと関連付けて、記憶部95に記憶させる。カメラ制御部96は、カメラ22-2から取得したMACアドレスを、カメラ22-2のIPアドレスと関連付けて、記憶部95に記憶させる。
The processing unit 94 acquires from the input unit 93 the IP address corresponding to the left camera 22-1 and the IP address corresponding to the right camera 22-2. The processing unit 94 causes the storage unit 95 to store the acquired IP address corresponding to the left camera 22-1 and the acquired IP address corresponding to the right camera 22-2.
A camera control unit 96 controls the cameras 22-1 and 22-2. The camera control unit 96 is connected to the cameras 22-1 and 22-2 and acquires identification information from the cameras 22-1 and 22-2. An example of identification information is an identification number unique to the camera 22, such as a MAC address (Media Access Control address). The case where the MAC address is applied as an example of identification information for each of the cameras 22-1 and 22-2 will be described below.
The camera control unit 96 associates the MAC address obtained from the camera 22-1 with the IP address of the camera 22-1, and causes the storage unit 95 to store them. The camera control unit 96 associates the MAC address obtained from the camera 22-2 with the IP address of the camera 22-2 and stores it in the storage unit 95. FIG.

溶接ロボット10が、溶接対象物2に設置される。照明装置21により開先3の測定部位31を横断方向へ線状に照明する。カメラ制御部96は、カメラ22-1とカメラ22-2とを開先3に向けて撮像領域を調整する。カメラ22-1とカメラ22-2とは、開先3を撮像する。
処理部94は、カメラ22-1とカメラ22-2とのそれぞれから、画像データを取得し、取得した画像データを処理する。処理部94は、画像データを処理することによって得られる画像に基づいて、カメラ22-1とカメラ22-2からの画像データをワールド座標系に対応させる校正関数を準備する。
処理部94は、カメラ22のレンズの歪を補正する。カメラ制御部96は、カメラ22-1と、カメラ22-2とに、被写体を撮像させる制御を行う。被写体の一例は、Y軸方向において、カメラ22-1と、カメラ22-2との間に設置されたパネル23である。カメラ制御部96は、カメラ22-1およびカメラ22-2のそれぞれに、パネル23に描かれているゲージ230を撮像領域に配置させ、ゲージ230を撮像させる制御を行う。
ゲージ230の基準点(例えば直交配置された複数本の線232および線233の交差する基点のいずれか)に対して、カメラ22-1およびカメラ22-2のそれぞれの向きを調整し、カメラ22-1およびカメラ22-2のそれぞれの光軸を基準点に向けて固定しておく。
A welding robot 10 is installed on an object 2 to be welded. The illumination device 21 linearly illuminates the measurement site 31 of the bevel 3 in the transverse direction. The camera control unit 96 adjusts the imaging areas of the cameras 22-1 and 22-2 toward the bevel 3. As shown in FIG. The camera 22-1 and the camera 22-2 image the groove 3. As shown in FIG.
The processing unit 94 acquires image data from each of the cameras 22-1 and 22-2, and processes the acquired image data. The processing unit 94 prepares a calibration function for making the image data from the cameras 22-1 and 22-2 correspond to the world coordinate system based on the image obtained by processing the image data.
The processing unit 94 corrects distortion of the lens of the camera 22 . The camera control unit 96 controls the camera 22-1 and the camera 22-2 to image an object. An example of the subject is the panel 23 placed between the cameras 22-1 and 22-2 in the Y-axis direction. The camera control unit 96 controls each of the camera 22-1 and the camera 22-2 to arrange the gauge 230 drawn on the panel 23 in the imaging area and to image the gauge 230. FIG.
The orientations of the cameras 22-1 and 22-2 are adjusted with respect to the reference point of the gauge 230 (for example, one of the intersection points of the plurality of orthogonally arranged lines 232 and 233), and the camera 22 -1 and the optical axis of camera 22-2 are directed toward the reference point and fixed.

溶接ロボット10により支持されたカメラ22-1およびカメラ22-2のそれぞれの位置は通常開先3からそれた位置にあり、パネル23の正面(開先3の連続方向であるY軸方向)から見ると、カメラ22-1およびカメラ22-2のそれぞれがX軸方向に変位Dx、Z軸方向に変位Dzで配置されている。さらに、カメラ22-1およびカメラ22-2のそれぞれの傾きがあり、光軸まわりのカメラ22-1およびカメラ22-2のそれぞれの傾き角Rとする。
カメラ22-1およびカメラ22-2のそれぞれは、パネル23に描かれているゲージ230を撮像する。処理部94は、カメラ22-1およびカメラ22-2のそれぞれから、画像データを取得し、取得した画像データを処理する。
処理部94は、画像データを処理することによって得られるゲージ230の画像に基づいて、カメラ22-1およびカメラ22-2のそれぞれによって撮像された画像にワールド座標系を設定する。例えば、処理部94は、撮像したゲージ230の画像から割り出した画像上の座標をもとにワールド座標系での座標を割り出すことによってワールド座標系を設定する。処理部94は、画像のゆがみ、焦点距離などのカメラ22-1およびカメラ22-2に固有の特性(内部パラメータ)に基づいて、画像座標系からカメラ座標系に変換する。処理部94は、外部パラメータに基づいて、カメラ座標系からワールド座標系に変換する。
撮像された画像では、カメラ22-1およびカメラ22-2のそれぞれがX軸方向に変位Dx、Z軸方向に変位Dzおよび傾き角Rによりそれた位置にあるため、パネル23に描かれたゲージ230の形状(例えば直交配置された複数本の線232および線233の長さ、なす角度)が元の形状に対して変形して表れる。
The positions of the cameras 22-1 and 22-2 supported by the welding robot 10 are usually at positions away from the groove 3, and from the front of the panel 23 (the Y-axis direction, which is the continuous direction of the groove 3) As can be seen, each of camera 22-1 and camera 22-2 is positioned with a displacement Dx in the X-axis direction and a displacement Dz in the Z-axis direction. Furthermore, there are respective tilts of the camera 22-1 and the camera 22-2, which are defined as respective tilt angles R of the cameras 22-1 and 22-2 about the optical axis.
Each of camera 22 - 1 and camera 22 - 2 images gauge 230 drawn on panel 23 . The processing unit 94 acquires image data from each of the cameras 22-1 and 22-2, and processes the acquired image data.
Based on the image of gauge 230 obtained by processing the image data, processing unit 94 sets the world coordinate system for the images captured by cameras 22-1 and 22-2. For example, the processing unit 94 sets the world coordinate system by determining the coordinates in the world coordinate system based on the coordinates on the image determined from the captured image of the gauge 230 . The processing unit 94 converts the image coordinate system to the camera coordinate system based on characteristics (internal parameters) unique to the cameras 22-1 and 22-2, such as image distortion and focal length. The processing unit 94 transforms from the camera coordinate system to the world coordinate system based on the external parameters.
In the captured image, the camera 22-1 and the camera 22-2 are at positions deviated by the displacement Dx in the X-axis direction, the displacement Dz in the Z-axis direction, and the tilt angle R, so the gauge drawn on the panel 23 The shape of 230 (for example, the lengths and angles formed by a plurality of lines 232 and 233 arranged orthogonally) appears deformed with respect to the original shape.

処理部94は、記憶部95に記憶されているゲージ230(例えば直交配置された複数本の線232および線233の長さ、なす角度)を参照し、画像データを処理することによって得られるゲージ230の画像に表れたゲージ230との比較演算を行うことで、カメラ22-1およびカメラ22-2のそれぞれの変位Dx,変位Dzおよび傾き角Rを計算する。
処理部94は、カメラ22-1およびカメラ22-2のそれぞれの変位Dx,変位Dzおよび傾き角Rの計算結果に対して、例えばホモグラフィ変換などの演算処理などを行うことにより、カメラ22-1およびカメラ22-2のそれぞれの外部パラメータとして開先3の断面形状を正面つまり開先3の連続方向から見た状態に校正する情報を取得する。
処理部94は、取得したカメラ22-1およびカメラ22-2のそれぞれの外部パラメータを、カメラ22-1およびカメラ22-2のそれぞれのIPアドレスと関連付けて記憶部95に記憶させる。このように構成することによって、カメラ22-1およびカメラ22-2のそれぞれで撮像された被写体の画像上に、ワールド座標系に対応したカメラ座標系を設定できる。なお、カメラ22-1およびカメラ22-2のそれぞれの内部パラメータは、それぞれのMACアドレスと関連付けて記憶部95に記憶させる。
The processing unit 94 refers to the gauge 230 stored in the storage unit 95 (for example, the lengths and angles formed by the plurality of lines 232 and 233 arranged orthogonally), and processes the image data to obtain gauges. By performing a comparison operation with the gauge 230 appearing in the image of 230, the displacement Dx, the displacement Dz and the tilt angle R of each of the cameras 22-1 and 22-2 are calculated.
The processing unit 94 performs arithmetic processing such as homography transformation on the calculation results of the displacement Dx, the displacement Dz, and the tilt angle R of the camera 22-1 and the camera 22-2, respectively. 1 and camera 22-2, information for calibrating the cross-sectional shape of the groove 3 as viewed from the front, that is, from the continuous direction of the groove 3 is acquired.
The processing unit 94 causes the storage unit 95 to store the obtained external parameters of the cameras 22-1 and 22-2 in association with the IP addresses of the cameras 22-1 and 22-2. By configuring in this manner, a camera coordinate system corresponding to the world coordinate system can be set on the image of the subject captured by each of the cameras 22-1 and 22-2. The internal parameters of the cameras 22-1 and 22-2 are stored in the storage unit 95 in association with their respective MAC addresses.

カメラ制御部96は、カメラ22-1およびカメラ22-2のそれぞれに、被写体を撮像させる制御を行う。被写体の一例は、Y軸方向において、カメラ22-1と、カメラ22-2との間に設置されたパネル23である。カメラ22-1と、カメラ22-2とは、被写体を撮像する。
図3は、本実施形態に係る溶接ロボットシステムの動作の一例を示す図である。図3において、左図はカメラ22-1によって被写体(パネル23)が撮像される様子を示す画像の一例であり、右図はカメラ22-2によって被写体が撮像される様子を示す画像の一例である。
ここで、カメラ22-1のIPアドレスは、192.168.***.**1であり、MACアドレスは、LL:LL:LL:LL:LL:LLである。カメラ22-2のIPアドレスは、192.168.***.**2であり、MACアドレスは、RR:RR:RR:RR:RR:RRである。
判定部97は、カメラ22-1およびカメラ22-2のそれぞれから、画像データを取得し、取得した画像データを処理する。判定部97は、画像データを処理することによって得られる画像に基づいて、カメラ22-1およびカメラ22-2のそれぞれが、溶接ロボット10の左側および右側のいずれに取り付けられているのかを判定する。
The camera control unit 96 controls each of the cameras 22-1 and 22-2 to capture an image of a subject. An example of the subject is the panel 23 placed between the cameras 22-1 and 22-2 in the Y-axis direction. The cameras 22-1 and 22-2 capture images of subjects.
FIG. 3 is a diagram showing an example of the operation of the welding robot system according to this embodiment. In FIG. 3, the left diagram is an example of an image showing how the subject (panel 23) is imaged by the camera 22-1, and the right diagram is an example of an image showing how the subject is imaged by the camera 22-2. be.
Here, the IP address of camera 22-1 is 192.168. ***. **1 and the MAC address is LL:LL:LL:LL:LL:LL. The IP address of camera 22-2 is 192.168. ***. **2 and the MAC address is RR:RR:RR:RR:RR:RR.
The determination unit 97 acquires image data from each of the cameras 22-1 and 22-2, and processes the acquired image data. Determination unit 97 determines whether each of camera 22-1 and camera 22-2 is attached to the left or right side of welding robot 10 based on the image obtained by processing the image data. .

図4は、本実施形態に係る溶接ロボットシステムの動作の一例を示す図である。図4において、左図はカメラ22-1によって撮像される被写体(パネル23)の歪補正前の画像(以下「左側被写体画像」という)の一例であり、右図はカメラ22-2によって撮像される被写体(パネル23)の歪補正前の画像(以下「右側被写体画像」という)の一例である。
図4に示すように、被写体(パネル23)の形状は、長方形である。
図4によれば、カメラ22-1によって撮像される被写体(パネル23)の画像の一例から、被写体はカメラ22-1の撮像範囲における所定範囲に位置し、カメラ22-2によって撮像される被写体(パネル23)の画像の一例から、被写体はカメラ22-2の撮像範囲における所定範囲に位置していることが分かる。
判定部97は、左側被写体画像に含まれる被写体(パネル23)の少なくとも2つの頂点の画像座標系での座標と、右側被写体画像に含まれる被写体(パネル23)の少なくとも2つの頂点の画像座標系での座標とを取得する。例えば、判定部97は、左側被写体画像に含まれる被写体(パネル23)の対向する頂点の画像座標系での座標を取得し、右側被写体画像に含まれる被写体(パネル23)の対向する頂点の画像座標系での座標を取得する。
FIG. 4 is a diagram showing an example of the operation of the welding robot system according to this embodiment. In FIG. 4, the left diagram is an example of an image before distortion correction of the subject (panel 23) captured by the camera 22-1 (hereinafter referred to as "left subject image"), and the right diagram is an example captured by the camera 22-2. 1 is an example of an image of a subject (panel 23) before distortion correction (hereinafter referred to as a "right subject image").
As shown in FIG. 4, the subject (panel 23) has a rectangular shape.
According to FIG. 4, from an example of the image of the subject (panel 23) imaged by the camera 22-1, the subject is located in a predetermined range in the imaging range of the camera 22-1, and the subject imaged by the camera 22-2 From the example of the image (panel 23), it can be seen that the subject is located in a predetermined range within the imaging range of the camera 22-2.
The determination unit 97 determines the coordinates in the image coordinate system of at least two vertices of the subject (panel 23) included in the left subject image and the image coordinate system of at least two vertices of the subject (panel 23) included in the right subject image. Get the coordinates at . For example, the determination unit 97 acquires the coordinates in the image coordinate system of the facing vertices of the subject (panel 23) included in the left subject image, and obtains the image of the facing vertices of the subject (panel 23) included in the right subject image. Get coordinates in a coordinate system.

図5は、本実施形態に係る溶接ロボットシステムの動作の一例を示す図である。図5において、左図は歪補正後の左側被写体画像の一例であり、右図は歪補正後の右側被写体画像の一例である。破線で示すように、被写体の長辺と、カメラ22-1およびカメラ22-2のそれぞれの撮像範囲の長辺とがなす角(θL、θR)が、少なくとも撮像のタイミングで不変である。
判定部97は、左側被写体画像と右側被写体画像との各々に含まれる被写体(パネル23)から二次元ゲージの対向する頂点のカメラ座標系での座標を取得する。例えば、判定部97は、画像のゆがみ、焦点距離などのカメラ22-1およびカメラ22-2に固有の特性(内部パラメータ)に基づいて、画像座標系からカメラ座標系に変換する。
判定部97は、左側被写体画像において、被写体(パネル23)から二次元ゲージのカメラ座標系での原点(VL1)の座標と、原点(VL1)に対向する頂点(VL2)の座標とを取得する。判定部97は、右側被写体画像において、被写体(パネル23)から二次元ゲージのカメラ座標系での原点(VR1)の座標と原点(VR1)に対向する頂点(VR2)の座標とを取得する。
判定部97は、左側被写体画像および右側被写体画像のそれぞれから取得した二次元ゲージの対向する頂点のカメラ座標系での座標を、ワールド座標系の座標に変換する。例えば、判定部97は、左側被写体画像において、外部パラメータに基づいて、カメラ座標系での原点(VL1)の座標をワールド座標系での座標(XiL(0),YiL(0))に変換し、カメラ座標系での原点に対向する頂点(VL2)の座標をワールド座標系での座標(XiL(max),YiLR(max))に変換する。
判定部97は、右側被写体画像において、外部パラメータに基づいて、カメラ座標系での原点(VR1)の座標をワールド座標系での座標(XiR(0),YiR(0))に変換し、カメラ座標系での原点に対向する頂点(VR2)の座標をワールド座標系での座標(XiR(max),YiR(max))に変換する。
FIG. 5 is a diagram showing an example of the operation of the welding robot system according to this embodiment. In FIG. 5, the left diagram is an example of the left subject image after distortion correction, and the right diagram is an example of the right subject image after distortion correction. As indicated by the dashed lines, the angles (θL, θR) formed by the long sides of the subject and the long sides of the imaging ranges of the cameras 22-1 and 22-2 are constant at least at the timing of imaging.
The determination unit 97 acquires the coordinates of the opposing vertices of the two-dimensional gauge in the camera coordinate system from the subject (panel 23) included in each of the left subject image and the right subject image. For example, the determination unit 97 converts the image coordinate system to the camera coordinate system based on characteristics (internal parameters) unique to the cameras 22-1 and 22-2, such as image distortion and focal length.
The determination unit 97 acquires the coordinates of the origin (VL1) in the camera coordinate system of the two-dimensional gauge from the subject (panel 23) and the coordinates of the vertex (VL2) opposite the origin (VL1) from the subject (panel 23) in the left subject image. . The determination unit 97 acquires the coordinates of the origin (VR1) and the coordinates of the vertex (VR2) opposite the origin (VR1) in the camera coordinate system of the two-dimensional gauge from the subject (panel 23) in the right subject image.
The determination unit 97 converts the coordinates in the camera coordinate system of the facing vertices of the two-dimensional gauge obtained from the left subject image and the right subject image into coordinates in the world coordinate system. For example, in the left subject image, the determination unit 97 converts the coordinates of the origin (VL1) in the camera coordinate system to the coordinates (XiL(0), YiL(0)) in the world coordinate system based on the external parameters. , the coordinates of the vertex (VL2) facing the origin in the camera coordinate system are transformed into coordinates (XiL(max), YiLR(max)) in the world coordinate system.
The determination unit 97 converts the coordinates of the origin (VR1) in the camera coordinate system into the coordinates (XiR(0), YiR(0)) in the world coordinate system based on the external parameters in the right subject image, and converts the camera The coordinates of the vertex (VR2) opposite the origin in the coordinate system are transformed into the coordinates (XiR(max), YiR(max)) in the world coordinate system.

判定部97は、左側被写体画像において、カメラ座標系での原点(VR1)の座標をワールド座標系での座標に変換した結果と、カメラ座標系での原点に対向する頂点(VL2)の座標をワールド座標系での座標に変換した結果とに基づいて、左側に取り付けられたカメラ22-1および右側に取り付けられたカメラ22-2のそれぞれが正しいか否かを判定する。
具体的には、判定部97は、ワールド座標系での頂点(VL2)のX座標(XiL(max))が、ワールド座標系での原点(VL1)のX座標(XiL(0))よりも大きい値であり、且つワールド座標系での頂点(VR2)のX座標(XiR(max))が、ワールド座標系での原点(VR1)のX座標(XiR(0))よりも小さい値である場合には、カメラ22-1とカメラ22-2とが正しく設置されていると判定する。
判定部97は、ワールド座標系での頂点(VL2)のX座標(XiL(max))が、ワールド座標系での原点(VL1)のX座標(XiL(0))以下の値であり、又はワールド座標系での頂点(VR2)のX座標(XiR(max))が、ワールド座標系での原点(VR1)のX座標(XiR(0))以上の値である場合には、カメラ22-1とカメラ22-2とが正しく設置されていないと判定する。
The determination unit 97 converts the coordinates of the origin (VR1) in the camera coordinate system into the coordinates in the world coordinate system and the coordinates of the vertex (VL2) opposite the origin in the camera coordinate system in the left subject image. Based on the results of conversion into coordinates in the world coordinate system, it is determined whether or not each of the camera 22-1 attached to the left and the camera 22-2 attached to the right is correct.
Specifically, the determination unit 97 determines that the X coordinate (XiL(max)) of the vertex (VL2) in the world coordinate system is higher than the X coordinate (XiL(0)) of the origin (VL1) in the world coordinate system. A large value, and the X coordinate (XiR(max)) of the vertex (VR2) in the world coordinate system is smaller than the X coordinate (XiR(0)) of the origin (VR1) in the world coordinate system If so, it is determined that the cameras 22-1 and 22-2 are installed correctly.
The determining unit 97 determines that the X coordinate (XiL(max)) of the vertex (VL2) in the world coordinate system is equal to or less than the X coordinate (XiL(0)) of the origin (VL1) in the world coordinate system, or When the X coordinate (XiR (max)) of the vertex (VR2) in the world coordinate system is equal to or greater than the X coordinate (XiR (0)) of the origin (VR1) in the world coordinate system, the camera 22- 1 and the camera 22-2 are not installed correctly.

判定部97は、ワールド座標系での頂点(VL2)のX座標(XiL(max))が、ワールド座標系での原点(VL1)のX座標(XiL(0))以下の値であり、且つワールド座標系での頂点(VR2)のX座標(XiR(max))が、ワールド座標系での原点(VR1)のX座標(XiR(0))以上の値である場合には、カメラ22-1とカメラ22-2とが正しく設置されていないと判定する。図2に戻り説明を続ける。
判定部97は、カメラ22-1およびカメラ22-2のそれぞれが正しく設置されていないと判定した場合に、通知部98に通知する。
通知部98は、判定部97から通知された場合に、ユーザにカメラ22-1およびカメラ22-2のそれぞれが正しい位置に設置されていないことを通知する。このように構成することによって、入力部93に入力されるカメラ22-1およびカメラ22-2のそれぞれのIPアドレスに対応する位置と、判定部97により判定されるカメラ22-1およびカメラ22-2のそれぞれが取り付けられている位置とが異なることをユーザに知らせることができる。
処理部94は、画像データを処理することによって得られるゲージ230の画像に基づいて、カメラ22-1およびカメラ22-2のそれぞれで撮像された画像におけるカメラ座標系を設定する。
The determining unit 97 determines that the X coordinate (XiL(max)) of the vertex (VL2) in the world coordinate system is equal to or less than the X coordinate (XiL(0)) of the origin (VL1) in the world coordinate system, and When the X coordinate (XiR (max)) of the vertex (VR2) in the world coordinate system is equal to or greater than the X coordinate (XiR (0)) of the origin (VR1) in the world coordinate system, the camera 22- 1 and the camera 22-2 are not installed correctly. Returning to FIG. 2, the description is continued.
When determining that the cameras 22-1 and 22-2 are not properly installed, the determination unit 97 notifies the notification unit 98 of this.
When notified by the determination unit 97, the notification unit 98 notifies the user that the cameras 22-1 and 22-2 are not installed at the correct positions. With this configuration, the positions corresponding to the IP addresses of the cameras 22-1 and 22-2 input to the input unit 93 and the positions of the cameras 22-1 and 22-2 determined by the determination unit 97 2 are installed in different positions.
Based on the image of gauge 230 obtained by processing the image data, processing unit 94 sets the camera coordinate system for the images captured by cameras 22-1 and 22-2.

アーム231を回動させることによって、パネル23をカメラ22-1およびカメラ22-2のそれぞれの視野外まで退避させる。処理部94は、カメラ座標系の原点を校正する。例えば、溶接ロボット10の溶接トーチ16の先端から溶接ワイヤを出した状態にする。
図1において、断面形状32の任意位置(例えば予め設定される校正ポイントに用いた開先3の折曲点)をトーチねらい位置として選択しておき、溶接ロボット10をX軸方向およびZ軸方向に移動させ、溶接トーチ16から延びる溶接ワイヤ161の先端をトーチねらい位置に接触させる。これにより、ワールド座標系の原点と、ロボット座標系の原点と、を対応付ける。
By rotating the arm 231, the panel 23 is retracted out of the fields of view of the cameras 22-1 and 22-2. The processing unit 94 calibrates the origin of the camera coordinate system. For example, the welding wire is put out from the tip of the welding torch 16 of the welding robot 10 .
In FIG. 1, an arbitrary position of the cross-sectional shape 32 (for example, a bending point of the groove 3 used as a preset calibration point) is selected as a torch target position, and the welding robot 10 is moved in the X-axis direction and the Z-axis direction. to bring the tip of the welding wire 161 extending from the welding torch 16 into contact with the torch target position. As a result, the origin of the world coordinate system and the origin of the robot coordinate system are associated with each other.

カメラ制御部96は、カメラ22-1およびカメラ22-2のそれぞれに、溶接ワイヤの先端を含む溶接ワイヤを撮像させる制御を行う。カメラ22-1およびカメラ22-2のそれぞれは、溶接ワイヤの先端を含む溶接ワイヤを撮像する。処理部94は、カメラ22-1およびカメラ22-2のそれぞれから画像データを取得し、取得した画像データを処理する。
溶接ロボット10の溶接トーチ16の先端から溶接ワイヤが出ない状態にする。カメラ制御部96は、カメラ22-1およびカメラ22-2のそれぞれに、溶接トーチ16の先端を撮像させる制御を行う。カメラ22-1およびカメラ22-2のそれぞれは、溶接トーチ16の先端を撮像する。処理部94は、カメラ22-1およびカメラ22-2のそれぞれから画像データを取得し、取得した画像データを処理する。
The camera control unit 96 controls each of the cameras 22-1 and 22-2 to image the welding wire including the tip of the welding wire. Each of camera 22-1 and camera 22-2 images the welding wire including the tip of the welding wire. The processing unit 94 acquires image data from each of the cameras 22-1 and 22-2, and processes the acquired image data.
The welding wire is kept from coming out from the tip of the welding torch 16 of the welding robot 10.例文帳に追加The camera control unit 96 controls each of the cameras 22-1 and 22-2 to image the tip of the welding torch 16. FIG. Cameras 22 - 1 and 22 - 2 each capture an image of the tip of welding torch 16 . The processing unit 94 acquires image data from each of the cameras 22-1 and 22-2, and processes the acquired image data.

処理部94は、画像データを処理することによって得られるワイヤ先端を含むワイヤの画像と溶接トーチ16の先端の画像とに基づいて、ワイヤ先端を含むワイヤの画像を取得する。処理部94は、取得したワイヤ先端を含むワイヤの画像に基づいて、ロボット座標系での溶接ワイヤ先端(トーチねらい位置)の座標を取得する。
処理部94は、取得したロボット座標系でのワイヤ先端の座標を、ワールド座標系の原点に設定する。溶接ワイヤ先端(トーチねらい位置)は、ロボット座標系での現在位置として検出されているので、ワールド座標系での原点位置をロボット座標系に変換できる。
The processing unit 94 obtains an image of the wire including the wire tip based on the image of the wire including the wire tip obtained by processing the image data and the image of the tip of the welding torch 16 . The processing unit 94 acquires the coordinates of the welding wire tip (torch aim position) in the robot coordinate system based on the acquired image of the wire including the wire tip.
The processing unit 94 sets the acquired coordinates of the wire tip in the robot coordinate system as the origin of the world coordinate system. Since the welding wire tip (torch aim position) is detected as the current position in the robot coordinate system, the origin position in the world coordinate system can be transformed into the robot coordinate system.

サドル移動制御部92は、開先3の測定部位31の近傍に溶接ロボット10を移動させる。処理部94は、照明装置21に測定部位31を横断方向へ線状に照明させる。処理部94は、開先3の測定部位31からセンシングポイントを決定する。カメラ制御部96は、カメラ22-1およびカメラ22-2のそれぞれに、開先3の測定部位31に含まれるセンシングポイントを撮像させる制御を行う。
カメラ22-1およびカメラ22-2のそれぞれは、開先3の測定部位31に含まれるセンシングポイントを撮像する。処理部94は、カメラ22-1およびカメラ22-2のそれぞれから画像データを取得し、取得した画像データを処理する。
処理部94は、予め準備された準備データを用いて、画像データを処理することによって得られる開先3の測定部位31に含まれるセンシングポイントの画像から、センシングポイントを挟む溶接対象物2の特徴に基づいて、左側のカメラ22-1でエリアの算出が可能か、右側のカメラ22-2でエリアの算出が可能か、左側のカメラ22-1および右側のカメラ22-2の両方でエリアの算出が可能かを判定する。なお、後述のステップS3―1の処理は、左側のカメラ22-1および右側のカメラ22-2の両方でエリアの算出が可能と処理部94により判定されたエリアで実行される。
The saddle movement control section 92 moves the welding robot 10 to the vicinity of the measurement site 31 of the groove 3 . The processing unit 94 causes the illumination device 21 to linearly illuminate the measurement site 31 in the transverse direction. The processing unit 94 determines a sensing point from the measurement site 31 of the groove 3 . The camera control unit 96 controls each of the camera 22-1 and the camera 22-2 to image sensing points included in the measurement site 31 of the groove 3. FIG.
Each of the camera 22-1 and the camera 22-2 captures an image of a sensing point included in the measurement site 31 of the groove 3. The processing unit 94 acquires image data from each of the cameras 22-1 and 22-2, and processes the acquired image data.
Using preparation data prepared in advance, the processing unit 94 uses the image of the sensing point included in the measurement site 31 of the groove 3 obtained by processing the image data to determine the characteristics of the welding target 2 sandwiching the sensing point. based on whether the left camera 22-1 can calculate the area, whether the right camera 22-2 can calculate the area, and whether both the left camera 22-1 and the right camera 22-2 can calculate the area. Determine if calculation is possible. Note that the process of step S3-1, which will be described later, is executed in an area determined by the processing unit 94 to be capable of area calculation by both the left camera 22-1 and the right camera 22-2.

図6は、本実施形態に係る溶接ロボットシステムの動作の一例を示す図である。図6には、溶接対象物2おいて、建方治具中間点に、センシングポイント(1)からセンシングポイント(5)が示されている。
処理部94は、建方治具の位置情報を取得し、取得した建方治具の位置情報に基づき、センシングポイント(1)からセンシングポイント(5)のそれぞれにおいて、左側のカメラ22-1でエリアの算出が可能か、右側のカメラ22-2でエリアの算出が可能か、左側のカメラ22-1および右側のカメラ22-2の両方でエリアの算出が可能かを判定する。ここで、処理部94は、センシング手段によって建方治具の位置情報を取得しても良いし、ユーザに入力させることによって建方治具の位置情報を取得しても良い。
処理部94は、センシングポイント(1)は、右側のカメラ22-2で撮像できるため、右側のカメラ22-2でエリアの算出が可能であると判定する。処理部94は、センシングポイント(2)からセンシングポイント(4)は、左側のカメラ22-1および右側のカメラ22-2の両方で撮像できるため、左側のカメラ22-1および右側のカメラ22-2の両方でエリアの算出が可能であると判定する。処理部94は、センシングポイント(5)は、左側のカメラ22-1で撮像できるため、左側のカメラ22-1でエリアの算出が可能であると判定する。
図7は、本実施形態に係る溶接ロボットシステムの動作の一例を示す図である。図7において、左図は、左側のカメラ22-1で、センシングポイント(5)を撮像した画像の一例である。センシングポイント(5)は、左側のカメラ22-1で撮像できるため、左側のカメラ22-1でエリアの算出が可能であることが分かる。
右上図は、右側のカメラ22-2で、センシングポイント(1)を撮像した画像の一例である。センシングポイント(1)は、右側のカメラ22-2で撮像できるため、右側のカメラ22-2でエリアの算出が可能であることが分かる。右下図は、右上図において、左右を反転させた画像である。図2に戻り説明を続ける。
FIG. 6 is a diagram showing an example of the operation of the welding robot system according to this embodiment. FIG. 6 shows the sensing point (1) to the sensing point (5) at the intermediate point of the construction jig in the object 2 to be welded.
The processing unit 94 acquires the position information of the erection jig, and based on the acquired position information of the erection jig, the left camera 22-1 at each of the sensing points (1) to (5). It is determined whether the area can be calculated, whether the area can be calculated with the right camera 22-2, or whether the area can be calculated with both the left camera 22-1 and the right camera 22-2. Here, the processing unit 94 may acquire the position information of the erection jig by sensing means, or may acquire the position information of the erection jig by prompting the user to input.
Since the sensing point (1) can be imaged by the right camera 22-2, the processing unit 94 determines that the area can be calculated by the right camera 22-2. Since sensing point (2) to sensing point (4) can be captured by both the left camera 22-1 and the right camera 22-2, the processing unit 94 captures the left camera 22-1 and the right camera 22- 2, it is determined that area calculation is possible. Since the sensing point (5) can be imaged by the left camera 22-1, the processing unit 94 determines that the area can be calculated by the left camera 22-1.
FIG. 7 is a diagram showing an example of the operation of the welding robot system according to this embodiment. In FIG. 7, the left figure is an example of an image of the sensing point (5) captured by the camera 22-1 on the left side. Since the sensing point (5) can be imaged by the left camera 22-1, it can be seen that the area can be calculated by the left camera 22-1.
The upper right figure is an example of an image of the sensing point (1) captured by the camera 22-2 on the right side. Since the sensing point (1) can be imaged by the right camera 22-2, it can be seen that the area can be calculated by the right camera 22-2. The lower right figure is an image obtained by horizontally reversing the upper right figure. Returning to FIG. 2, the description is continued.

カメラ制御部96は、エリアの算出が可能であると判定した左側のカメラ22-1および右側のカメラ22-2のいずれか一方又は両方に、センシングポイントを撮像させる制御を行う。処理部94は、カメラ22-1およびカメラ22-2のそれぞれから、画像データを取得し、取得した画像データを処理する。処理部94は、取得した画像データを処理することによって得られる開先3の断面形状を検出する。
例えば、処理部94は、カメラ22-1およびカメラ22-2のそれぞれから取得した画像データを処理することによって得られる開先3の測定部位31の画像のうちの一方に反転処理を行う。処理部94は、反転処理を行った開先3の測定部位31の画像と、反転処理を行わなかった開先3の測定部位31の画像とに基づいて、開先3の長さ、角度、板厚などを算出することによってエッジ検出処理を行う。
処理部94は、開先3の断面形状のエッジ検出結果に基づいて、開先3の形状とロボット座標系における基準点とを導出する。処理部94は、導出した開先3の形状を特定する情報と基準点の値とにエラーがない場合に、開先3の形状を特定する情報と基準点の値とを確定する。処理部94は、確定した開先3の形状とロボット座標系における基準点とを記憶部95に記憶させる。
開先3の測定部位31に含まれるセンシングポイントを変更しつつ、開先3の全長あるいは一部区間にわたって、複数回繰り返される。このように構成することによって開先3の連続方向に沿った断面形状32を得ること(センシング)ができる。
溶接動作制御部91、サドル移動制御部92、処理部94、カメラ制御部96および判定部97は、例えば、CPU(Central Processing Unit)などのハードウェアプロセッサが記憶部95に格納されたコンピュータプログラム(ソフトウェア)を実行することにより実現される。
また、これらの機能部のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)などのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアとの協働によって実現されてもよい。
The camera control unit 96 controls one or both of the left camera 22-1 and the right camera 22-2 determined to be capable of calculating the area to capture an image of the sensing point. The processing unit 94 acquires image data from each of the cameras 22-1 and 22-2, and processes the acquired image data. The processing unit 94 detects the cross-sectional shape of the groove 3 obtained by processing the acquired image data.
For example, the processing unit 94 performs inversion processing on one of the images of the measurement site 31 of the groove 3 obtained by processing the image data acquired from each of the cameras 22-1 and 22-2. The processing unit 94 calculates the length, angle, and Edge detection processing is performed by calculating plate thickness and the like.
The processing unit 94 derives the shape of the groove 3 and the reference point in the robot coordinate system based on the edge detection result of the cross-sectional shape of the groove 3 . If there is no error between the derived information specifying the shape of the groove 3 and the value of the reference point, the processing unit 94 determines the information specifying the shape of the groove 3 and the value of the reference point. The processing unit 94 causes the storage unit 95 to store the determined shape of the groove 3 and the reference point in the robot coordinate system.
While changing the sensing point included in the measurement site 31 of the groove 3 , this is repeated multiple times over the entire length or a partial section of the groove 3 . With this configuration, it is possible to obtain (sensing) the cross-sectional shape 32 along the continuous direction of the groove 3 .
The welding operation control unit 91, the saddle movement control unit 92, the processing unit 94, the camera control unit 96, and the determination unit 97 are computer programs stored in the storage unit 95 by a hardware processor such as a CPU (Central Processing Unit). software).
Some or all of these functional units are hardware (circuits) such as LSI (Large Scale Integration), ASIC (Application Specific Integrated Circuit), FPGA (Field-Programmable Gate Array), and GPU (Graphics Processing Unit). (including circuit), or by cooperation between software and hardware.

(溶接ロボットシステムの動作)
図8から図11は、本実施形態に係る溶接ロボットシステムの動作の一例を示すフローチャートである。ここでは、パネル23の一例としてキャリブレーションプレートを使用した場合について説明する。
(ステップS1-1)
制御装置9において、入力部93には、ユーザによって、カメラ22-1およびカメラ22-2のそれぞれが取り付けられる位置に対応するIPアドレスが入力される。処理部94は、入力部93から左側のカメラ22-1に対応するIPアドレスと、右側のカメラ22-2に対応するIPアドレスとを取得する。処理部94は、取得した左側のカメラ22-1に対応するIPアドレスと、右側のカメラ22-2に対応するIPアドレスとを記憶部95に記憶させる。
(ステップS2-1)
制御装置9において、カメラ制御部96は、カメラ22-1およびカメラ22-2のそれぞれを制御する。カメラ制御部96は、カメラ22-1およびカメラ22-2のそれぞれに接続し、カメラ22-1およびカメラ22-2のそれぞれから、MACアドレスを取得する。
カメラ制御部96は、カメラ22-1から取得したMACアドレスを、カメラ22-1のIPアドレスと関連付けて、記憶部95に記憶させる。カメラ制御部96は、カメラ22-2から取得したMACアドレスを、カメラ22-2のIPアドレスと関連付けて、記憶部95に記憶させる。
(Operation of welding robot system)
8 to 11 are flowcharts showing an example of the operation of the welding robot system according to this embodiment. Here, a case where a calibration plate is used as an example of the panel 23 will be described.
(Step S1-1)
In the control device 9, the user inputs IP addresses corresponding to the positions at which the cameras 22-1 and 22-2 are attached to the input unit 93. FIG. The processing unit 94 acquires from the input unit 93 the IP address corresponding to the left camera 22-1 and the IP address corresponding to the right camera 22-2. The processing unit 94 causes the storage unit 95 to store the acquired IP address corresponding to the left camera 22-1 and the acquired IP address corresponding to the right camera 22-2.
(Step S2-1)
In the control device 9, a camera control section 96 controls each of the cameras 22-1 and 22-2. The camera control unit 96 connects to each of the cameras 22-1 and 22-2 and acquires MAC addresses from each of the cameras 22-1 and 22-2.
The camera control unit 96 associates the MAC address obtained from the camera 22-1 with the IP address of the camera 22-1, and causes the storage unit 95 to store them. The camera control unit 96 associates the MAC address obtained from the camera 22-2 with the IP address of the camera 22-2 and stores it in the storage unit 95. FIG.

(ステップS3-1)
制御装置9において、カメラ制御部96は、カメラ22-1およびカメラ22-2のそれぞれに、キャリブレーションプレート(パネル23)に描かれているゲージ230を撮像領域に配置させ、ゲージ230を撮像させる制御を行う。
ゲージ230の基準点に対して、カメラ22-1およびカメラ22-2のそれぞれの向きを調整し、カメラ22-1およびカメラ22-2のそれぞれの光軸を基準点に向けて固定しておく。
カメラ22-1およびカメラ22-2のそれぞれは、キャリブレーションプレート(パネル23)に描かれているゲージ230を撮像する。
(ステップS4-1)
制御装置9において、処理部94は、カメラ22-1およびカメラ22-2のそれぞれから、画像データを取得し、取得した画像データを処理する。処理部94は、画像データを処理することによって、画像のゆがみ、焦点距離などのカメラ22-1およびカメラ22-2に固有の特性(内部パラメータ)を算出する。
処理部94は、カメラ22-1およびカメラ22-2のそれぞれから、画像データを取得し、取得した画像データを処理する。処理部94は、画像データを処理することによって得られるゲージ230の画像に、画像のゆがみ、焦点距離などのカメラ22-1およびカメラ22-2に固有の特性(内部パラメータ)に基づいて、歪補正を行う。
処理部94は、画像データを処理することによって得られるゲージ230の画像に基づいて、カメラ22-1およびカメラ22-2のそれぞれで撮像された画像にワールド座標系を設定する。
処理部94は、記憶部95に記憶されているゲージ230を参照し、画像データを処理することによって得られるゲージ230の画像に表れたゲージ230との比較演算を行うことで、カメラ22-1およびカメラ22-2のそれぞれにおいて、変位Dx,変位Dzおよび傾き角Rを計算する。
処理部94は、得られたカメラ22-1およびカメラ22-2のそれぞれの変位Dx,変位Dzおよび傾き角Rに対して、例えばホモグラフィ変換などの演算処理により、カメラ22-1およびカメラ22-2のそれぞれの外部パラメータとして開先3の断面形状を正面つまり開先の連続方向から見た状態に校正する情報を取得する。ホモグラフィ変換は、「(同じものを写した)二枚の画像の間の変換」を表す。つまり、ホモグラフィ変換は、歪んだ画像から内部パラメータを使って歪んでいない画像を作成する。内部パラメータを算出することもホモグラフィ変換を用いていると表現してもよい。ホモグラフィ変換の内容は、行列計算であり、ワールド座標系に仮想画面を想定すれば、後述するステップS6-1で、ホモグラフィ変換が行われてもよい。
(Step S3-1)
In the control device 9, the camera control unit 96 causes each of the camera 22-1 and the camera 22-2 to place the gauge 230 drawn on the calibration plate (panel 23) in the imaging area and to image the gauge 230. control.
The orientations of the cameras 22-1 and 22-2 are adjusted with respect to the reference point of the gauge 230, and the optical axes of the cameras 22-1 and 22-2 are fixed toward the reference point. .
Each of camera 22-1 and camera 22-2 images gauge 230 drawn on the calibration plate (panel 23).
(Step S4-1)
In the control device 9, the processing section 94 acquires image data from each of the cameras 22-1 and 22-2, and processes the acquired image data. The processing unit 94 calculates characteristics (intrinsic parameters) unique to the cameras 22-1 and 22-2, such as image distortion and focal length, by processing the image data.
The processing unit 94 acquires image data from each of the cameras 22-1 and 22-2, and processes the acquired image data. The processing unit 94 applies distortion to the image of the gauge 230 obtained by processing the image data based on characteristics (internal parameters) unique to the cameras 22-1 and 22-2 such as image distortion and focal length. Make corrections.
Based on the image of gauge 230 obtained by processing the image data, processing unit 94 sets the world coordinate system for the images captured by cameras 22-1 and 22-2.
The processing unit 94 refers to the gauge 230 stored in the storage unit 95, and performs a comparison operation with the gauge 230 appearing in the image of the gauge 230 obtained by processing the image data. and the camera 22-2, the displacement Dx, the displacement Dz and the tilt angle R are calculated.
The processing unit 94 performs arithmetic processing such as homography transformation on the obtained displacement Dx, displacement Dz, and tilt angle R of the cameras 22-1 and 22-2. -2, information for calibrating the cross-sectional shape of the groove 3 as viewed from the front, that is, from the continuous direction of the groove is acquired. A homography transformation represents a "transformation between two images (of the same thing)". That is, the homography transform creates an undistorted image from the distorted image using the intrinsic parameters. Calculating the internal parameters may also be expressed as using homography transformation. The content of homography transformation is matrix calculation, and if a virtual screen is assumed in the world coordinate system, homography transformation may be performed in step S6-1, which will be described later.

(ステップS5-1)
制御装置9において、処理部94は、カメラ22-1およびカメラ22-2のそれぞれの内部パラメータを、カメラ22-1のMACアドレスおよびカメラ22-2のMACアドレスと関連付けて、記憶部95に記憶させる。
(ステップS6-1)
制御装置9において、カメラ制御部96は、カメラ22-1およびカメラ22-2のそれぞれに、キャリブレーションプレート(パネル23)を撮像させる制御を行う。カメラ22-1およびカメラ22-2のそれぞれは、キャリブレーションプレート(パネル23)を撮像する。
(ステップS7-1)
制御装置9において、判定部97は、カメラ22-1およびカメラ22-2のそれぞれから、画像データを取得し、取得した画像データを処理する。判定部97は、画像データを処理することによって得られる画像に基づいて、カメラ22-1およびカメラ22-2のそれぞれが、溶接ロボット10の左側および右側のいずれに取り付けられているのかを判定する。
判定部97は、カメラ22-1およびカメラ22-2のそれぞれが正しく取り付けられていないと判定した場合に、通知部98に通知する。通知部98は、判定部97から通知された場合に、ユーザにカメラ22-1およびカメラ22-2のそれぞれが正しく取り付けられてないことを通知する。ここでは、判定部97が、カメラ22-1およびカメラ22-2のそれぞれが正しく取り付けられていると判定した場合について説明を続ける。
(Step S5-1)
In the control device 9, the processing unit 94 associates the internal parameters of the cameras 22-1 and 22-2 with the MAC address of the camera 22-1 and the MAC address of the camera 22-2, and stores them in the storage unit 95. Let
(Step S6-1)
In the control device 9, the camera control section 96 controls each of the cameras 22-1 and 22-2 to capture an image of the calibration plate (panel 23). Each of camera 22-1 and camera 22-2 images the calibration plate (panel 23).
(Step S7-1)
In the control device 9, the determination section 97 acquires image data from each of the cameras 22-1 and 22-2, and processes the acquired image data. Determination unit 97 determines whether each of camera 22-1 and camera 22-2 is attached to the left or right side of welding robot 10 based on the image obtained by processing the image data. .
When determining that the cameras 22-1 and 22-2 are not properly attached, the determination unit 97 notifies the notification unit 98 of this. When notified by the determination unit 97, the notification unit 98 notifies the user that the cameras 22-1 and 22-2 are not properly attached. Here, the case where the determination unit 97 determines that each of the cameras 22-1 and 22-2 is properly attached will be described.

(ステップS8-1)
制御装置9において、処理部94は、画像データを処理することによって得られるゲージ230の画像に基づいて、カメラ22-1およびカメラ22-2のそれぞれで撮像された画像におけるワールド座標系を設定する。図9を参照して、引き続き説明を続ける。
(ステップS1-2)
アーム231を回動させることによって、キャリブレーションプレート(パネル23)をカメラ22-1およびカメラ22-2のそれぞれの視野外まで退避させる。
制御装置9において、処理部94は、カメラ座標系の原点を校正する。例えば、溶接ロボット10の溶接トーチ16の先端から溶接ワイヤを出した状態にする。断面形状32の任意位置(例えば予め設定される校正ポイントに用いた開先3の折曲点)をトーチねらい位置として選択しておき、溶接ロボット10をX軸方向およびZ軸方向に移動させ、溶接トーチ16から延びる溶接ワイヤ161の先端をトーチねらい位置に接触させる。
カメラ制御部96は、カメラ22-1およびカメラ22-2のそれぞれに、溶接ワイヤの先端を含む溶接ワイヤを撮像させる制御を行う。カメラ22-1およびカメラ22-2のそれぞれは、溶接ワイヤの先端を含む溶接ワイヤを撮像する。処理部94は、カメラ22-1およびカメラ22-2のそれぞれから、画像データを取得し、取得した画像データを処理する。
(Step S8-1)
In the control device 9, the processing unit 94 sets the world coordinate system in the images captured by the cameras 22-1 and 22-2 based on the image of the gauge 230 obtained by processing the image data. . The description continues with reference to FIG.
(Step S1-2)
By rotating the arm 231, the calibration plate (panel 23) is retracted out of the fields of view of the cameras 22-1 and 22-2.
In the control device 9, the processing section 94 calibrates the origin of the camera coordinate system. For example, the welding wire is put out from the tip of the welding torch 16 of the welding robot 10 . An arbitrary position of the cross-sectional shape 32 (for example, a bending point of the groove 3 used as a preset calibration point) is selected as a torch target position, and the welding robot 10 is moved in the X-axis direction and the Z-axis direction, The tip of the welding wire 161 extending from the welding torch 16 is brought into contact with the torch target position.
The camera control unit 96 controls each of the cameras 22-1 and 22-2 to image the welding wire including the tip of the welding wire. Each of camera 22-1 and camera 22-2 images the welding wire including the tip of the welding wire. The processing unit 94 acquires image data from each of the cameras 22-1 and 22-2, and processes the acquired image data.

(ステップS2-2)
溶接ロボット10の溶接トーチ16の先端から溶接ワイヤが出ない状態にする。
制御装置9において、カメラ制御部96は、カメラ22-1およびカメラ22-2のそれぞれに、溶接トーチ16の先端を撮像させる制御を行う。カメラ22-1およびカメラ22-2のそれぞれは、溶接トーチ16の先端を撮像する。処理部94は、カメラ22-1およびカメラ22-2のそれぞれから、画像データを取得し、取得した画像データを処理する。
(ステップS3-2)
制御装置9において、処理部94は、画像データを処理することによって得られるワイヤ先端を含むワイヤの画像と溶接トーチ16の先端の画像とに基づいて、ワイヤ先端を含むワイヤの画像を取得する。処理部94は、取得したワイヤ先端を含むワイヤの画像に基づいて、ロボット座標系での溶接ワイヤ先端(トーチねらい位置)の座標を取得する。
(ステップS4-2)
制御装置9において、処理部94は、取得したロボット座標系でのワイヤ先端の座標を、ワールド座標系の原点に設定する。図10を参照して、引き続き説明を続ける。
(Step S2-2)
The welding wire is kept from coming out from the tip of the welding torch 16 of the welding robot 10.例文帳に追加
In the control device 9, the camera control section 96 controls the cameras 22-1 and 22-2 to image the tip of the welding torch 16 respectively. Cameras 22 - 1 and 22 - 2 each capture an image of the tip of welding torch 16 . The processing unit 94 acquires image data from each of the cameras 22-1 and 22-2, and processes the acquired image data.
(Step S3-2)
In the control device 9 , the processing section 94 acquires an image of the wire including the wire tip based on the image of the wire including the wire tip obtained by processing the image data and the image of the tip of the welding torch 16 . The processing unit 94 acquires the coordinates of the welding wire tip (torch aim position) in the robot coordinate system based on the acquired image of the wire including the wire tip.
(Step S4-2)
In the control device 9, the processing unit 94 sets the acquired coordinates of the wire tip in the robot coordinate system as the origin of the world coordinate system. The description continues with reference to FIG.

(ステップS1-3)
サドル移動制御部92は、開先3の測定部位31に溶接ロボット10を移動させる。
制御装置9において、処理部94は、照明装置21に測定部位31を横断方向へ線状に照明させる。処理部94は、センシングポイントを決定する。
(ステップS2-3)
制御装置9において、処理部94は、決定したセンシングポイントを挟む溶接対象の特徴に基づいて、左側のカメラ22-1でエリアの算出が可能か、右側のカメラ22-2でエリアの算出が可能か、左側のカメラ22-1および右側のカメラ22-2の両方でエリアの算出が可能かを判定する。
(ステップS3-3)
制御装置9において、カメラ制御部96は、エリアの算出が可能であると判定した左側のカメラ22-1および右側のカメラ22-2のいずれか一方又は両方に、センシングポイントを撮像させる制御を行う。
カメラ制御部96は、記憶部95に記憶されたIPアドレスにアクセスすることによって、カメラ22-1およびカメラ22-2のそれぞれに、開先3の測定部位31を撮像させる制御を行う。カメラ22-1およびカメラ22-2のそれぞれは、開先3の測定部位31を撮像する。
(Step S1-3)
The saddle movement control section 92 moves the welding robot 10 to the measurement site 31 of the groove 3 .
In the control device 9, the processing section 94 causes the illumination device 21 to linearly illuminate the measurement site 31 in the transverse direction. The processing unit 94 determines sensing points.
(Step S2-3)
In the control device 9, the processing unit 94 can calculate the area with the left camera 22-1 or with the right camera 22-2 based on the characteristics of the object to be welded sandwiching the determined sensing point. Alternatively, it is determined whether area calculation is possible with both the left camera 22-1 and the right camera 22-2.
(Step S3-3)
In the control device 9, the camera control unit 96 controls one or both of the left camera 22-1 and the right camera 22-2, which have been determined to be capable of area calculation, to image the sensing point. .
The camera control unit 96 accesses the IP address stored in the storage unit 95 to control the camera 22-1 and the camera 22-2 to image the measurement site 31 of the bevel 3 respectively. Each of the camera 22-1 and the camera 22-2 takes an image of the measurement site 31 of the bevel 3. As shown in FIG.

(ステップS4-3)
制御装置9において、処理部94は、カメラ22-1およびカメラ22-2のそれぞれから、画像データを取得し、取得した画像データを処理する。処理部94は、カメラ22-1およびカメラ22-2のそれぞれから取得した画像データを処理することによって得られる開先3の測定部位31の画像のうちの一方に反転処理を行う。
(ステップS5-3)
制御装置9において、処理部94は、反転処理を行った開先3の測定部位31の画像と、反転処理を行わなかった開先3の測定部位31の画像とに基づいて、開先3の長さ、角度、板厚などを算出することによってエッジ検出処理を行う。図11を参照して、引き続き説明を続ける。
(Step S4-3)
In the control device 9, the processing section 94 acquires image data from each of the cameras 22-1 and 22-2, and processes the acquired image data. The processing unit 94 performs inversion processing on one of the images of the measurement site 31 of the groove 3 obtained by processing the image data obtained from each of the cameras 22-1 and 22-2.
(Step S5-3)
In the control device 9, the processing unit 94 performs the reversal process on the measurement site 31 of the groove 3 and the image of the measurement site 31 on the groove 3 without the reversal process. Edge detection processing is performed by calculating the length, angle, plate thickness, and the like. The description continues with reference to FIG.

(ステップS1-4)
制御装置9において、処理部94は、右側のセンシングポイントのみが使用エリア内(エリアの算出が可能)であるか否かを判定する。
(ステップS2-4)
制御装置9において、処理部94は、右側のセンシングポイントのみが使用エリア内(エリアの算出が可能)であると判定した場合に、右側のセンシングポイントを使用して開先3の形状とロボット座標系における基準点とを導出し、導出した開先3の形状を特定する情報と基準点の値とを出力する。
(ステップS3-4)
制御装置9において、処理部94は、右側のセンシングポイントのみが使用エリア内(エリアの算出が可能)でないと判定した場合に、エッジ検出処理の結果に基づいて、左側のセンシングポイントのみが使用エリア内(エリアの算出が可能)であるか否かを判定する。
(Step S1-4)
In the control device 9, the processing unit 94 determines whether or not only the right sensing point is within the use area (the area can be calculated).
(Step S2-4)
In the control device 9, when the processing unit 94 determines that only the right sensing point is within the use area (the area can be calculated), the processing unit 94 uses the right sensing point to determine the shape of the bevel 3 and the robot coordinates. A reference point in the system is derived, and information specifying the derived shape of the groove 3 and the value of the reference point are output.
(Step S3-4)
In the control device 9, when the processing unit 94 determines that only the right sensing point is not within the use area (the area can be calculated), the processing unit 94 determines that only the left sensing point is within the use area based on the result of the edge detection processing. It is determined whether or not it is inside (the area can be calculated).

(ステップS4-4)
制御装置9において、処理部94は、左側のセンシングポイントのみが使用エリア内(エリアの算出が可能)であると判定した場合に、左側のセンシングポイントを使用して開先3の形状とロボット座標系における基準点とを導出し、導出した開先3の形状を特定する情報と基準点の値とを出力する。
(ステップS5-4)
制御装置9において、処理部94は、右側のセンシングポイントのみが使用エリア内(エリアの算出が可能)でないと判定した場合に、設定パラメータの平均処理を行うか否かを判定する。
(ステップS6-4)
制御装置9において、処理部94は、設定パラメータの平均処理を行うと判定した場合に、右側のセンシングポイントを使用して開先3の形状とロボット座標系における基準点とを導出するとともに、左側のセンシングポイントを使用して開先3の形状とロボット座標系における基準点を導出する。
処理部94は、右側のセンシングポイントを使用して導出した開先3の形状と、左側のセンシングポイントを使用して導出した開先3の形状とを平均化する。処理部94は、右側のセンシングポイントを使用して導出したロボット座標系における基準点と、左側のセンシングポイントを使用して導出したロボット座標系における基準点とを平均化する。
処理部94は、右側のセンシングポイントを使用して導出した開先3の形状と左側のセンシングポイントを使用して導出した開先3の形状とを平均化した結果と、右側のセンシングポイントを使用して導出したロボット座標系における基準点と左側のセンシングポイントを使用して導出したロボット座標系における基準点とを平均化した結果とを出力する。
(Step S4-4)
In the control device 9, when the processing unit 94 determines that only the left sensing point is within the use area (the area can be calculated), the processing unit 94 uses the left sensing point to determine the shape of the bevel 3 and the robot coordinates. A reference point in the system is derived, and information specifying the derived shape of the groove 3 and the value of the reference point are output.
(Step S5-4)
In the control device 9, when the processing unit 94 determines that only the right sensing point is not within the use area (the area can be calculated), it determines whether or not to perform the averaging process of the set parameters.
(Step S6-4)
In the control device 9, the processing unit 94 derives the shape of the groove 3 and the reference point in the robot coordinate system using the right sensing point when determining to perform the averaging of the setting parameters, are used to derive the shape of the groove 3 and the reference point in the robot coordinate system.
The processing unit 94 averages the shape of the groove 3 derived using the right sensing point and the shape of the groove 3 derived using the left sensing point. The processing unit 94 averages the reference point in the robot coordinate system derived using the right sensing point and the reference point in the robot coordinate system derived using the left sensing point.
The processing unit 94 uses the result of averaging the shape of the groove 3 derived using the right sensing point and the shape of the groove 3 derived using the left sensing point, and the right sensing point. and the result of averaging the reference points in the robot coordinate system derived using the left sensing point.

(ステップS7-4)
制御装置9において、処理部94は、設定パラメータの平均処理を行わないと判定した場合に、設定パラメータを都度確認するように設定する。
(ステップS8-4)
制御装置9において、処理部94は、ステップS2-4とS4-4とS6-4とのいずれかで出力した値にエラーがあるか否かを判定する。
(ステップS9-4)
制御装置9において、処理部94は、ステップS2-4とS4-4とS6-4とのいずれかで出力した値にエラーがあると判定した場合又はステップS7-4で設定パラメータを都度確認するとした場合に、表示部(図示なし)に処理画面を表示させる。
処理画面において、ユーザは、右側のセンシングポイントを使用して導出した開先3の形状とロボット座標系における基準点と、左側のセンシングポイントを使用して導出した開先3の形状とロボット座標系における基準点とのいずれかを選択できる。処理画面において、ユーザは、データを修正できる。
(ステップS10-4)
制御装置9において、処理部94は、ステップS8-4でエラー値がないと判定した場合に、開先3の形状とロボット座標系における基準点とを確定する。処理部94は、確定した開先3の形状とロボット座標系における基準点とを記憶部95に記憶させる。
図8のステップS3-1では、カメラ22-1およびカメラ22-2のそれぞれは、キャリブレーションプレート(パネル23)に描かれているゲージ230を撮像する場合について説明したが、この例に限られない。例えば、予めキャリブレーションプレート(パネル23)をオフラインで撮像した画像を取得するようにしてもよい。
図8において、ステップS3-1からS5-1は、内部パラメータを算出し、保存した後に、省略されてもよい。
(Step S7-4)
In the control device 9, the processing unit 94 is set to check the setting parameters each time when it is determined that the setting parameters are not averaged.
(Step S8-4)
In the control device 9, the processing section 94 determines whether or not there is an error in the value output in any one of steps S2-4, S4-4 and S6-4.
(Step S9-4)
In the control device 9, if the processing unit 94 determines that there is an error in the output value in any of steps S2-4, S4-4, and S6-4, or checks the setting parameters each time in step S7-4, If so, a processing screen is displayed on the display unit (not shown).
On the processing screen, the user can see the shape of the groove 3 derived using the sensing points on the right side and the reference point in the robot coordinate system, and the shape of the groove 3 derived using the sensing points on the left side and the robot coordinate system. You can choose either the reference point in In the processing screen, the user can modify the data.
(Step S10-4)
In the control device 9, the processing section 94 determines the shape of the groove 3 and the reference point in the robot coordinate system when it is determined in step S8-4 that there is no error value. The processing unit 94 causes the storage unit 95 to store the determined shape of the groove 3 and the reference point in the robot coordinate system.
In step S3-1 of FIG. 8, the case where each of the camera 22-1 and the camera 22-2 captures an image of the gauge 230 drawn on the calibration plate (panel 23) has been described, but it is limited to this example. do not have. For example, an off-line image of the calibration plate (panel 23) may be acquired in advance.
In FIG. 8, steps S3-1 to S5-1 may be omitted after calculating and storing the internal parameters.

前述した実施形態では、溶接ロボット10に、カメラ22-1およびカメラ22-2のそれぞれが取り付けられる場合について説明したが、この例に限られない。例えば、カメラ22-1およびカメラ22-2のそれぞれとともに、又はカメラ22-1およびカメラ22-2の代わりに輝度情報を取得できるセンサが取り付けられてもよい。
前述した実施形態において、図9のステップS1-2からS4-2と、図10のステップS1-3からS5-3とは、順次実行してもよいし、並行して実行してもよいし、個別に実行してもよい。
前述した実施形態においては、パネル23の表面には、直交配置された複数本の線232および線233による二次元のゲージ230が描かれている場合について説明したが、この例に限られない。
例えば、パネル23の表面に、直交配置された2本の矢印が描かれていてもよいし、カメラ22-1およびカメラ22-2のそれぞれで撮像した画像においてカメラ22-1およびカメラ22-2のそれぞれの方位や傾きが検出可能な図形が描かれていてもよいし、形が異なる複数の点の配列パターンなどが描かれていてもよい。ゲージ230は、パネル23に印刷などで描かれたものに限らず、発光するものなどでもよい。
In the above-described embodiment, the case where the camera 22-1 and the camera 22-2 are attached to the welding robot 10 has been described, but the present invention is not limited to this example. For example, sensors capable of obtaining luminance information may be attached with each of camera 22-1 and camera 22-2, or instead of camera 22-1 and camera 22-2.
In the above-described embodiment, steps S1-2 to S4-2 in FIG. 9 and steps S1-3 to S5-3 in FIG. 10 may be executed sequentially or in parallel. , may be run separately.
In the above-described embodiment, the case where the two-dimensional gauge 230 is drawn on the surface of the panel 23 with a plurality of orthogonally arranged lines 232 and 233 has been described, but the present invention is not limited to this example.
For example, two arrows arranged orthogonally may be drawn on the surface of the panel 23, and the images captured by the cameras 22-1 and 22-2 may be drawn by the cameras 22-1 and 22-2, respectively. A figure whose orientation and inclination can be detected may be drawn, or an arrangement pattern of a plurality of points having different shapes may be drawn. The gauge 230 is not limited to being drawn on the panel 23 by printing or the like, and may be one that emits light.

前述した実施形態では、判定部97は、左側被写体画像において、被写体(パネル23)から二次元ゲージのカメラ座標系での原点(VL1)の座標と原点(VL1)に対向する頂点(VL2)の座標とを取得し、右側被写体画像において、被写体(パネル23)から二次元ゲージのカメラ座標系での原点(VR1)の座標と原点(VR1)に対向する頂点(VR2)の座標とを取得する場合について説明したが、この例に限られない。
例えば、判定部97は、左側被写体画像において、被写体(パネル23)から二次元ゲージのカメラ座標系での原点(VL1)以外の座標と原点(VL1)以外に対向する頂点の座標とを取得し、右側被写体画像において、被写体(パネル23)から二次元ゲージのカメラ座標系での原点(VR1)以外の座標と原点(VR1)以外に対向する頂点(VR2)の座標とを取得してもよい。
前述した実施形態では、ゲージ230が表示されたパネル23は、可動式のアーム231により退避可能なものである場合について説明したが、この例に限られない。例えば、パネル23を溶接ロボット10に対して着脱自在とされたものであってもよい。
前述した実施形態では、照明装置21としてラインレーザ照明装置を使用した場合について説明したが、この例限られない。
例えば、照明装置21は、レーザ光に限らず他の光源でもよく、開先3をその横断方向へ線状に連続して、または線状に並ぶ多点で照明できればよく、断面形状32となる画像を一括して取り込むことができればよい。
In the above-described embodiment, the determination unit 97 determines the coordinates of the origin (VL1) in the camera coordinate system of the two-dimensional gauge from the subject (panel 23) and the vertex (VL2) opposite the origin (VL1) in the left subject image. In the right subject image, the coordinates of the origin (VR1) in the camera coordinate system of the two-dimensional gauge from the subject (panel 23) and the coordinates of the vertex (VR2) opposite the origin (VR1) are obtained. Although the case has been described, it is not limited to this example.
For example, in the left subject image, the determination unit 97 acquires the coordinates of the subject (panel 23) other than the origin (VL1) in the camera coordinate system of the two-dimensional gauge and the coordinates of the opposing apex other than the origin (VL1). , in the right subject image, coordinates other than the origin (VR1) in the camera coordinate system of the two-dimensional gauge from the subject (panel 23) and the coordinates of the vertex (VR2) facing other than the origin (VR1) may be obtained. .
In the above-described embodiment, the panel 23 on which the gauge 230 is displayed is retractable by the movable arm 231, but the present invention is not limited to this example. For example, the panel 23 may be detachable from the welding robot 10 .
In the above-described embodiment, a case where a line laser lighting device is used as the lighting device 21 has been described, but the present invention is not limited to this example.
For example, the illumination device 21 is not limited to a laser beam, and may be another light source, as long as it can illuminate the groove 3 continuously linearly in its transverse direction, or at multiple points aligned linearly, and the cross-sectional shape 32 is obtained. It suffices if the images can be imported collectively.

本実施形態に係る溶接ロボットシステム1によれば、鋼材を所定方向に移動しながら鋼材を溶接する溶接ロボット10を備える。溶接ロボットシステム1は、溶接ロボット10に取り付けられるセンサであって、溶接ロボット10の所定方向側に取り付けられた所定方向側センサと、溶接ロボット10に取り付けられるセンサであって、溶接ロボットの所定方向側とは反対側に取り付けられた反対側センサと、所定方向側センサおよび反対側センサのそれぞれが所定方向側および反対側のいずれに取り付けられているのかを判定する判定部97とを備える。
このように構成することによって、溶接ロボットシステム1は、所定方向側センサおよび反対側センサのそれぞれが所定方向側および反対側のいずれに取り付けられているのかを判定する判定部97を備えるため、センサの取り付け位置の正誤を判定できる。
The welding robot system 1 according to this embodiment includes the welding robot 10 that welds steel materials while moving the steel materials in a predetermined direction. The welding robot system 1 includes a sensor attached to the welding robot 10, a predetermined direction side sensor attached to a predetermined direction side of the welding robot 10, and a sensor attached to the welding robot 10, a sensor attached to the welding robot 10 in a predetermined direction. An opposite side sensor attached to the side opposite to the side, and a determination unit 97 for determining whether the predetermined direction side sensor and the opposite side sensor are attached to the predetermined direction side or the opposite side.
With this configuration, the welding robot system 1 includes the determination unit 97 that determines whether the predetermined direction side sensor and the opposite side sensor are attached to the predetermined direction side or the opposite side. It is possible to judge whether the mounting position of the

溶接ロボットシステム1であって、センサは、カメラ22を含み、溶接ロボットシステム1は、所定方向側センサと反対側センサとに、所定方向側センサと反対側センサとの間に設置された被写体を撮像させる制御を行うカメラ制御部96としての制御部をさらに備える。判定部97は、所定方向側センサと反対側センサとが被写体を撮像して出力した画像を用いて、所定方向側センサおよび反対側センサが所定方向側および反対側のいずれに取り付けられているのかを判定する。
このように構成することによって、判定部97は、所定方向側センサと反対側センサとが被写体を撮像して出力した画像とを用いて、所定方向側センサおよび反対側センサのそれぞれが所定方向側および反対側のいずれに取り付けられているのかを判定できるため、カメラ22の取り付け位置の正誤を判定できる。
In the welding robot system 1, the sensor includes a camera 22, and the welding robot system 1 detects an object installed between the predetermined direction side sensor and the opposite side sensor with the predetermined direction side sensor and the opposite side sensor. A control unit as a camera control unit 96 that controls imaging is further provided. The determining unit 97 determines whether the predetermined direction sensor and the opposite side sensor are mounted on the predetermined direction side or the opposite side by using the images output by the predetermined direction side sensor and the opposite side sensor. judge.
With this configuration, the determination unit 97 uses the images output by the predetermined direction sensor and the opposite side sensor to pick up the subject and determine whether the predetermined direction side sensor and the opposite side sensor are in the predetermined direction. and the opposite side, it is possible to determine whether the mounting position of the camera 22 is correct or not.

溶接ロボットシステム1であって、被写体は、所定方向側センサと反対側センサとのそれぞれの撮像範囲における所定範囲内に位置する。
このように構成することによって、判定部97は、所定方向側センサと反対側センサとが、それぞれの撮像範囲における所定範囲内に位置する被写体を撮像して出力した画像を用いて、所定方向側センサおよび反対側センサのそれぞれが所定方向側および反対側のいずれに取り付けられているのかを判定できるため、カメラ22の取り付け位置の正誤を判定できる。
In the welding robot system 1, the subject is positioned within a predetermined range of the imaging ranges of the predetermined direction side sensor and the opposite side sensor.
With this configuration, the determination unit 97 uses the images output by the predetermined direction sensor and the opposite side sensor to pick up and output a subject located within a predetermined range of the respective imaging ranges, and determine the predetermined direction side sensor. Since it is possible to determine whether each of the sensor and the opposite side sensor is attached to the predetermined direction side or the opposite side, it is possible to determine whether the mounting position of the camera 22 is correct.

溶接ロボットシステム1であって、被写体の形状は、矩形である。このように構成することによって、判定部97は、所定方向側センサと反対側センサとが、矩形の被写体を撮像して出力した画像を用いて、所定方向側センサおよび反対側センサのそれぞれが所定方向側および反対側のいずれに取り付けられているのかを判定できるため、カメラ22の取り付け位置の正誤を判定できる。
溶接ロボットシステム1であって、被写体の形状は、長方形であり、被写体の長辺と、所定方向側センサおよび反対側センサのそれぞれの撮像範囲の長辺とがなす角が不変である。
このように構成することによって、判定部97は、所定方向側センサと反対側センサとが、長方形の被写体を撮像して出力した画像を用いて、所定方向側センサおよび反対側センサのそれぞれが所定方向側および反対側のいずれに取り付けられているのかを判定できるため、カメラ22の取り付け位置の正誤を判定できる。
In the welding robot system 1, the subject has a rectangular shape. With this configuration, the determination unit 97 uses an image output by the predetermined direction sensor and the opposite side sensor to pick up and output a rectangular subject, and determines whether the predetermined direction side sensor and the opposite side sensor Since it can be determined whether the camera 22 is installed on the direction side or the opposite side, it is possible to determine whether the installation position of the camera 22 is correct or incorrect.
In the welding robot system 1, the object has a rectangular shape, and the angle formed by the long side of the object and the long sides of the imaging ranges of the predetermined direction side sensor and the opposite side sensor is constant.
With this configuration, the determining unit 97 uses an image output by the predetermined direction sensor and the opposite side sensor to pick up and output a rectangular subject, and determines whether the predetermined direction side sensor and the opposite side sensor Since it can be determined whether the camera 22 is installed on the direction side or the opposite side, it is possible to determine whether the installation position of the camera 22 is correct or incorrect.

溶接ロボットシステム1であって、判定部97は、画像に含まれる被写体の少なくとも2つの頂点の座標を用い、所定方向側センサと反対側センサとが、所定方向側および反対側のいずれに取り付けられているのかを判定する。
このように構成することによって、判定部97は、画像に含まれる被写体の少なくとも2つの頂点の座標を用い、所定方向側センサと反対側センサとが所定方向側および反対側のいずれに取り付けられているのかを判定できるため、カメラ22の取り付け位置の正誤を判定できる。
In the welding robot system 1, the determination unit 97 uses the coordinates of at least two vertices of the subject included in the image to determine whether the predetermined direction side sensor and the opposite side sensor are attached to the predetermined direction side or the opposite side. determine whether the
With this configuration, the determination unit 97 uses the coordinates of at least two vertices of the subject included in the image to determine whether the predetermined direction side sensor and the opposite side sensor are attached to the predetermined direction side or the opposite side. Therefore, it is possible to determine whether the mounting position of the camera 22 is correct or not.

溶接ロボットシステム1であって、被写体は、所定方向側センサおよび反対側センサの座標系と溶接ロボットの座標系とを対応付けるためのキャリブレーションであって、所定方向側センサと反対側センサとのキャリブレーションに用いられるキャリブレーションプレートである。
このように構成することによって、判定部97は、所定方向側センサと反対側センサとがキャリブレーションプレートを撮像して出力した画像を用いて、所定方向側センサおよび反対側センサのそれぞれが所定方向側および反対側のいずれに取り付けられているのかを判定できるため、カメラ22の取り付け位置の正誤を判定できる。
In the welding robot system 1, the object is calibration for associating the coordinate system of the predetermined direction side sensor and the opposite side sensor with the coordinate system of the welding robot, and the calibration of the predetermined direction side sensor and the opposite side sensor. This is a calibration plate used for calibration.
With this configuration, the determination unit 97 uses the images output by the predetermined direction sensor and the opposite side sensor to capture images of the calibration plate, and determines whether the predetermined direction sensor and the opposite side sensor are in the predetermined direction. Since it is possible to determine whether the camera 22 is installed on the side or the opposite side, it is possible to determine whether the installation position of the camera 22 is correct or incorrect.

溶接ロボットシステムであって、キャリブレーションプレートは、開先の断面形状の測定にも用いられる。
このように構成することによって、判定部97は、所定方向側センサと反対側センサとが開先の断面形状の測定にも用いられるキャリブレーションプレートを撮像して出力した画像を用いて、所定方向側センサおよび反対側センサのそれぞれが所定方向側および反対側のいずれに取り付けられているのかを判定できるため、カメラ22の取り付け位置の正誤を判定できる。
In the welding robot system, the calibration plate is also used to measure the cross-sectional shape of the groove.
With this configuration, the determination unit 97 uses the image output by the predetermined direction side sensor and the opposite side sensor to capture and output the calibration plate, which is also used for measuring the cross-sectional shape of the groove, to determine the predetermined direction. Since it is possible to determine whether each of the side sensor and the opposite side sensor is attached to the predetermined direction side or the opposite side, it is possible to determine whether the mounting position of the camera 22 is correct.

溶接ロボットシステムであって、キャリブレーションプレートは、ワールド座標系に対するロボットの座標系の傾きを求めるためにも用いられる。
このように構成することによって、判定部97は、所定方向側センサと反対側センサとがワールド座標系に対するロボットの座標系の傾きを求めるためにも用いられるキャリブレーションプレートを撮像して出力した画像を用いて、所定方向側センサおよび反対側センサのそれぞれが所定方向側および反対側のいずれに取り付けられているのかを判定できるため、カメラ22の取り付け位置の正誤を判定できる。
In a welding robot system, the calibration plate is also used to determine the tilt of the robot's coordinate system with respect to the world coordinate system.
With this configuration, the determination unit 97 captures and outputs an image of the calibration plate that is also used by the predetermined direction side sensor and the opposite side sensor to determine the inclination of the robot coordinate system with respect to the world coordinate system. can be used to determine whether the predetermined direction side sensor and the opposite side sensor are mounted on the predetermined direction side or the opposite side, respectively.

溶接ロボットシステムであって、画像は、所定方向側センサと反対側センサとがキャリブレーションのために被写体を撮像して出力した画像である。このように構成することによって、判定部97は、所定方向側センサと反対側センサとがキャリブレーションのために被写体を撮像して出力した画像を用いて、所定方向側センサおよび反対側センサのそれぞれが所定方向側および反対側のいずれに取り付けられているのかを判定できるため、カメラの取り付け位置の正誤を判定できる。 In the welding robot system, the image is an image output by imaging a subject for calibration by a sensor on the predetermined direction side and a sensor on the opposite side. With this configuration, the determination unit 97 uses the images output by the predetermined direction sensor and the opposite side sensor to pick up the subject for calibration, and obtain the respective images of the predetermined direction side sensor and the opposite side sensor. Since it is possible to determine whether the camera is mounted on the predetermined direction side or the opposite side, it is possible to determine whether the mounting position of the camera is correct.

溶接ロボットシステム1であって、画像は、所定方向側センサと反対側センサとのそれぞれが撮像する画像の歪補正のために所定方向側センサと反対側センサとのそれぞれが被写体を撮像して出力した画像である。
このように構成することによって、判定部97は、所定方向側センサと反対側センサとのそれぞれが撮像する画像の歪補正のために所定方向側センサと反対側センサとのそれぞれが被写体を撮像して出力した画像を用いて、所定方向側センサおよび反対側センサのそれぞれが所定方向側および反対側のいずれに取り付けられているのかを判定できるため、カメラの取り付け位置の正誤を判定できる。
In the welding robot system 1, an image is output by capturing an object by each of the predetermined direction sensor and the opposite side sensor in order to correct the distortion of the image captured by each of the predetermined direction sensor and the opposite side sensor. This is an image with
With this configuration, the determination unit 97 allows the predetermined direction sensor and the opposite side sensor to image the subject in order to correct the distortion of the images captured by the predetermined direction sensor and the opposite side sensor. It is possible to determine whether the predetermined direction side sensor and the opposite side sensor are mounted on the predetermined direction side or the opposite side, respectively, using the image output by the camera.

溶接ロボットシステム1であって、所定方向側センサと反対側センサとが取り付けられる位置に対応する情報をユーザに入力させる入力部93と、入力部93により入力される情報が対応する位置と、判定部97により判定される所定方向側センサと反対側センサとが取り付けられている位置とが異なる場合に、ユーザに通知する通知部98とを備える。
このように構成することによって、溶接ロボットシステム1は、所定方向側センサと反対側センサとが取り付けられる位置に対応する情報に基づいて、溶接ロボット10に、鋼材を所定方向に移動させながら鋼材を溶接させることができる。溶接ロボットシステム1は、カメラ22の取り付け位置が誤っている場合に、ユーザに通知できる。
In the welding robot system 1, an input unit 93 for allowing the user to input information corresponding to positions where the predetermined direction side sensor and the opposite side sensor are attached, a position corresponding to the information input by the input unit 93, and determination and a notification unit 98 for notifying a user when the predetermined direction side sensor and the opposite side sensor determined by the unit 97 are installed at different positions.
With this configuration, the welding robot system 1 causes the welding robot 10 to move the steel material in a predetermined direction based on the information corresponding to the positions where the predetermined direction sensor and the opposite side sensor are attached. can be welded. The welding robot system 1 can notify the user when the mounting position of the camera 22 is incorrect.

以上、実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更、組合せを行うことができる。これら実施形態は、発明の範囲や要旨に含まれると同時に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
なお、上述した制御装置9は、コンピュータで実現するようにしてもよい。その場合、各機能ブロックの機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録する。この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、CPUが実行することで実現してもよい。ここでいう「コンピュータシステム」とは、OS(Operating System)や周辺機器などのハードウェアを含むものとする。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROMなどの可搬媒体のことをいう。また、「コンピュータ読み取り可能な記録媒体」は、コンピュータシステムに内蔵されるハードディスクなどの記憶装置を含む。
Although the embodiments have been described above, these embodiments are presented as examples and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, replacements, changes, and combinations can be made without departing from the scope of the invention. These embodiments are included in the scope and gist of the invention, and at the same time, are included in the scope of the invention described in the claims and equivalents thereof.
Note that the control device 9 described above may be realized by a computer. In that case, a program for realizing the function of each functional block is recorded in a computer-readable recording medium. The program recorded on this recording medium may be loaded into the computer system and executed by the CPU. The "computer system" here includes hardware such as an OS (Operating System) and peripheral devices.
A "computer-readable recording medium" refers to a portable medium such as a flexible disk, a magneto-optical disk, a ROM, and a CD-ROM. A "computer-readable recording medium" includes a storage device such as a hard disk built into a computer system.

さらに「コンピュータ読み取り可能な記録媒体」とは、短時間の間、動的にプログラムを保持するものを含んでいてもよい。短時間の間、動的にプログラムを保持するものは、例えば、インターネットなどのネットワークや電話回線などの通信回線を介してプログラムを送信する場合の通信線である。
また、「コンピュータ読み取り可能な記録媒体」には、サーバーやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであってもよい。また、上記プログラムは、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよい。また、上記プログラムは、プログラマブルロジックデバイスを用いて実現されるものであってもよい。プログラマブルロジックデバイスは、例えば、FPGAである。
Furthermore, the "computer-readable recording medium" may include those that dynamically retain the program for a short period of time. For a short period of time, a program is dynamically stored in a communication line for transmitting a program via a network such as the Internet or a communication line such as a telephone line.
In addition, the "computer-readable recording medium" may also include a medium that retains the program for a certain period of time, such as a volatile memory inside a computer system that serves as a server or client. Further, the program may be for realizing part of the functions described above. Moreover, the above program may be one capable of realizing the functions described above in combination with a program already recorded in a computer system. Moreover, the program may be implemented using a programmable logic device. A programmable logic device is, for example, an FPGA.

なお、上述の制御装置9は内部にコンピュータを有している。そして、上述した制御装置9の各処理の過程は、プログラムの形式でコンピュータ読み取り可能な記録媒体に記憶されており、このプログラムをコンピュータが読み出して実行することによって、上記処理が行われる。
ここでコンピュータ読み取り可能な記録媒体とは、磁気ディスク、光磁気ディスク、CD-ROM、DVD-ROM、半導体メモリなどをいう。また、このコンピュータプログラムを通信回線によってコンピュータに配信し、この配信を受けたコンピュータが当該プログラムを実行するようにしてもよい。
また、上記プログラムは、前述した機能の一部を実現するためのものであってもよい。
さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
The control device 9 described above has a computer therein. Each process of the control device 9 described above is stored in a computer-readable recording medium in the form of a program, and the above process is performed by reading and executing this program by a computer.
Here, the computer-readable recording medium includes a magnetic disk, a magneto-optical disk, a CD-ROM, a DVD-ROM, a semiconductor memory, and the like. Alternatively, the computer program may be distributed to a computer via a communication line, and the computer receiving the distribution may execute the program.
Further, the program may be for realizing part of the functions described above.
Further, it may be a so-called difference file (difference program) that can realize the above-described functions in combination with a program already recorded in the computer system.

1 溶接ロボットシステム
10 溶接ロボット
11 走行レール
12 サドル
13ケース
14 ブラケット
15 ホルダ
16 溶接トーチ
161 溶接ワイヤ
2 溶接対象物
21 照明装置
22、22-1、22-2 カメラ
220 撮像領域
221 支持パネル
222 支持アーム
223 支持レール
23 パネル
230 ゲージ
231 アーム
232、233 線
3 開先
31 測定部位
32 断面形状
9 制御装置
91 溶接動作制御部
92 サドル移動制御部
93 入力部
94 処理部
95 記憶部
96 カメラ制御部
97 判定部
98 通知部
1 Welding Robot System 10 Welding Robot 11 Traveling Rail 12 Saddle 13 Case 14 Bracket 15 Holder 16 Welding Torch 161 Welding Wire 2 Welding Object 21 Lighting Device 22, 22-1, 22-2 Camera 220 Imaging Area 221 Support Panel 222 Support Arm 223 support rail 23 panel 230 gauge 231 arm 232, 233 line 3 groove 31 measurement site 32 cross-sectional shape 9 control device 91 welding operation control section 92 saddle movement control section 93 input section 94 processing section 95 storage section 96 camera control section 97 determination Part 98 Notification part

Claims (13)

鋼材を所定方向に移動しながら前記鋼材を溶接する溶接ロボットを備える溶接ロボットシステムであって、
前記溶接ロボットに取り付けられるセンサであって、前記溶接ロボットの所定方向側に取り付けられた所定方向側センサと、
前記溶接ロボットに取り付けられるセンサであって、前記溶接ロボットの前記所定方向側とは反対側に取り付けられた反対側センサと、
前記所定方向側センサおよび前記反対側センサのそれぞれが前記所定方向側および前記反対側のいずれに取り付けられているのかを判定する判定部と、
を備え、
前記センサは、輝度情報を取得できるセンサ又はカメラである、溶接ロボットシステム。
A welding robot system comprising a welding robot that welds steel materials while moving the steel materials in a predetermined direction,
a sensor attached to the welding robot, the predetermined direction side sensor attached to the predetermined direction side of the welding robot;
a sensor attached to the welding robot, the opposite side sensor attached to the side of the welding robot opposite to the predetermined direction;
a determination unit that determines on which of the predetermined direction side and the opposite side each of the predetermined direction side sensor and the opposite side sensor is attached;
with
The welding robot system , wherein the sensor is a sensor or a camera capable of acquiring luminance information .
記所定方向側センサと前記反対側センサとに、前記所定方向側センサと前記反対側センサとの間に設置された被写体を撮像させる制御を行う制御部
をさらに備え、
前記センサは、カメラを含み、
前記判定部は、前記所定方向側センサと前記反対側センサとが前記被写体を撮像して出力した画像を用いて、前記所定方向側センサおよび前記反対側センサが前記所定方向側および前記反対側のいずれに取り付けられているのかを判定する、請求項1に記載の溶接ロボットシステム。
a control unit that controls the predetermined direction side sensor and the opposite side sensor to image an object placed between the predetermined direction side sensor and the opposite side sensor,
the sensor includes a camera;
The determination unit uses the images output by the predetermined direction sensor and the opposite side sensor to pick up and output the subject, and the predetermined direction side sensor and the opposite side sensor determine the predetermined direction side and the opposite side sensor. The welding robot system of claim 1 that determines where it is attached.
前記被写体は、前記所定方向側センサと前記反対側センサとのそれぞれの撮像範囲における所定範囲内に位置する、請求項2に記載の溶接ロボットシステム。 3. The welding robot system according to claim 2, wherein the subject is located within a predetermined range of the imaging range of each of the predetermined direction side sensor and the opposite side sensor. 前記被写体の形状は、矩形である、請求項に記載の溶接ロボットシステム。 3. The welding robot system according to claim 2 , wherein said object has a rectangular shape. 記被写体の長辺と、前記所定方向側センサおよび前記反対側センサのそれぞれの撮像範囲の長辺とがなす角が不変である、
請求項4に記載の溶接ロボットシステム。
The angle formed by the long side of the subject and the long side of the imaging range of each of the predetermined direction side sensor and the opposite side sensor is constant.
The welding robot system according to claim 4.
前記判定部は、前記画像に含まれる前記被写体の少なくとも2つの頂点の座標を用い、前記所定方向側センサと前記反対側センサとが、前記所定方向側および前記反対側のいずれに取り付けられているのかを判定する、請求項に記載の溶接ロボットシステム。 The determination unit uses the coordinates of at least two vertices of the subject included in the image, and the predetermined direction side sensor and the opposite side sensor are attached to either the predetermined direction side or the opposite side. The welding robot system according to claim 2 , which determines whether 前記被写体は、前記所定方向側センサおよび前記反対側センサの座標系と前記溶接ロボットの座標系とを対応付けるためのキャリブレーションであって、前記所定方向側センサと前記反対側センサとのキャリブレーションに用いられるキャリブレーションプレートである、請求項に記載の溶接ロボットシステム。 The subject is calibration for associating the coordinate system of the predetermined direction side sensor and the opposite side sensor with the coordinate system of the welding robot, and is used for calibration of the predetermined direction side sensor and the opposite side sensor. Welding robot system according to claim 2 , which is a calibration plate used. 前記キャリブレーションプレートは、開先の断面形状の測定にも用いられる、請求項7に記載の溶接ロボットシステム。 The welding robot system according to claim 7, wherein the calibration plate is also used for measuring the cross-sectional shape of the groove. 前記キャリブレーションプレートは、ワールド座標系に対する前記溶接ロボットの座標系の傾きを求めるためにも用いられる、請求項に記載の溶接ロボットシステム。 8. The welding robot system of claim 7 , wherein the calibration plate is also used to determine the tilt of the welding robot's coordinate system with respect to the world coordinate system. 前記画像は、前記所定方向側センサと前記反対側センサとが前記キャリブレーションのために前記被写体を撮像して出力した画像である、請求項に記載の溶接ロボットシステム。 8. The welding robot system according to claim 7 , wherein said image is an image output by capturing images of said subject for said calibration by said predetermined direction side sensor and said opposite side sensor. 前記画像は、前記所定方向側センサと前記反対側センサとのそれぞれが撮像する画像の歪み補正のために前記所定方向側センサと前記反対側センサとのそれぞれが前記被写体を撮像して出力した画像である、請求項に記載の溶接ロボットシステム。 The image is an image output from the subject captured by each of the predetermined direction sensor and the opposite side sensor in order to correct distortion of the image captured by each of the predetermined direction side sensor and the opposite side sensor. The welding robot system according to claim 2 , wherein: 前記所定方向側センサと前記反対側センサとが取り付けられる位置に対応する位置情報をユーザに入力させる入力部と、
前記入力部により入力される前記位置情報に対応する位置と、前記判定部により判定される前記所定方向側センサと前記反対側センサとが取り付けられている位置と、が異なる場合に、前記ユーザに通知する通知部と、
を備える、請求項1から請求項11のいずれか1項に記載の溶接ロボットシステム。
an input unit for allowing a user to input positional information corresponding to positions where the predetermined direction side sensor and the opposite side sensor are attached;
When the position corresponding to the positional information input by the input unit is different from the position where the predetermined direction sensor and the opposite side sensor are installed, which is determined by the determination unit, the user a notification unit that notifies,
The welding robot system according to any one of claims 1 to 11, comprising:
鋼材を所定方向に移動しながら前記鋼材を溶接する溶接ロボットを備える溶接ロボットシステムが実行する判定方法であって、
前記溶接ロボットの所定方向側に取り付けられた所定方向側センサと、前記溶接ロボットの前記所定方向側とは反対側に取り付けられた反対側センサとのそれぞれが前記所定方向側および前記反対側のいずれに取り付けられているのかを判定するステップ
を有
前記所定方向側センサ及び前記反対側センサは、輝度情報を取得できるセンサ又はカメラである、判定方法。
A determination method executed by a welding robot system including a welding robot that welds a steel material while moving the steel material in a predetermined direction, comprising:
A predetermined direction side sensor mounted on the predetermined direction side of the welding robot and an opposite side sensor mounted on the side opposite to the predetermined direction side of the welding robot are respectively connected to either the predetermined direction side or the opposite side. determining whether it is attached to
The determination method , wherein the predetermined direction side sensor and the opposite side sensor are sensors or cameras capable of acquiring luminance information .
JP2022106965A 2022-07-01 2022-07-01 Welding robot system and judgment method Active JP7263602B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022106965A JP7263602B1 (en) 2022-07-01 2022-07-01 Welding robot system and judgment method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022106965A JP7263602B1 (en) 2022-07-01 2022-07-01 Welding robot system and judgment method

Publications (2)

Publication Number Publication Date
JP7263602B1 true JP7263602B1 (en) 2023-04-24
JP2024006251A JP2024006251A (en) 2024-01-17

Family

ID=86054457

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022106965A Active JP7263602B1 (en) 2022-07-01 2022-07-01 Welding robot system and judgment method

Country Status (1)

Country Link
JP (1) JP7263602B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009274100A (en) 2008-05-15 2009-11-26 Disco Abrasive Syst Ltd Laser beam machining apparatus
US20150298260A1 (en) 2012-11-26 2015-10-22 Akeo Plus Method and system for marking a surface by laser treatment
JP2021167010A (en) 2020-04-10 2021-10-21 住友重機械工業株式会社 Welding observation device and welding system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009274100A (en) 2008-05-15 2009-11-26 Disco Abrasive Syst Ltd Laser beam machining apparatus
US20150298260A1 (en) 2012-11-26 2015-10-22 Akeo Plus Method and system for marking a surface by laser treatment
JP2021167010A (en) 2020-04-10 2021-10-21 住友重機械工業株式会社 Welding observation device and welding system

Also Published As

Publication number Publication date
JP2024006251A (en) 2024-01-17

Similar Documents

Publication Publication Date Title
US11951564B2 (en) Method and computer program product for OCT measurement beam adjustment
JP2017015723A (en) Shape measurement device, shape measurement method, structure manufacturing method, and shape measurement program
TWI623724B (en) Shape measuring device, structure manufacturing system, stage system, shape measuring method, structure manufacturing method, shape measuring program, and computer readable recording medium
JP2008107194A (en) Wheel alignment measuring device for vehicle
JP6869159B2 (en) Robot system
US10186398B2 (en) Sample positioning method and charged particle beam apparatus
US20120194651A1 (en) Shape measuring apparatus
JP2013064644A (en) Shape-measuring device, shape-measuring method, system for manufacturing structures, and method for manufacturing structures
JPH03213251A (en) Workpiece position detecting device
JP7263602B1 (en) Welding robot system and judgment method
JP2009058459A (en) Profile measuring system
JP3941631B2 (en) Three-dimensional imaging apparatus and method
JP2000263273A (en) Teaching method and its device for yag laser beam machine
JPH09175457A (en) Distortion inspection method and distortion inspection device
JP7349542B1 (en) Welding robot system, welding method and program
JP2000326082A (en) Laser beam machine
JP2014163892A (en) Laser measurement system
JP2902608B2 (en) 3D measurement method
JP2012093258A (en) Shape measurement device
JP2012026816A (en) Dimension measuring method and device
JP2003148926A (en) Portable three-dimensional shape measuring apparatus
JP7292344B2 (en) Welding system, welding method and program
JPH05337785A (en) Grinding path correcting device of grinder robot
JP7333488B1 (en) welding system
JP7183372B1 (en) Marker detection device and robot teaching system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220707

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20220707

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221004

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20221122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230221

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230315

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230412

R150 Certificate of patent or registration of utility model

Ref document number: 7263602

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150