JP2022014138A - Automatic operation-generation method and automatic operation-generation system for welding robot - Google Patents

Automatic operation-generation method and automatic operation-generation system for welding robot Download PDF

Info

Publication number
JP2022014138A
JP2022014138A JP2020116322A JP2020116322A JP2022014138A JP 2022014138 A JP2022014138 A JP 2022014138A JP 2020116322 A JP2020116322 A JP 2020116322A JP 2020116322 A JP2020116322 A JP 2020116322A JP 2022014138 A JP2022014138 A JP 2022014138A
Authority
JP
Japan
Prior art keywords
welding
welding robot
measurement
dimensional model
point cloud
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020116322A
Other languages
Japanese (ja)
Other versions
JP6985464B1 (en
Inventor
幸男 齊藤
Yukio Saito
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Marine United Corp
Original Assignee
Japan Marine United Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Marine United Corp filed Critical Japan Marine United Corp
Priority to JP2020116322A priority Critical patent/JP6985464B1/en
Priority to CN202180047652.9A priority patent/CN115768581A/en
Priority to KR1020237003745A priority patent/KR20230033716A/en
Priority to PCT/JP2021/024263 priority patent/WO2022009710A1/en
Application granted granted Critical
Publication of JP6985464B1 publication Critical patent/JP6985464B1/en
Publication of JP2022014138A publication Critical patent/JP2022014138A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23KSOLDERING OR UNSOLDERING; WELDING; CLADDING OR PLATING BY SOLDERING OR WELDING; CUTTING BY APPLYING HEAT LOCALLY, e.g. FLAME CUTTING; WORKING BY LASER BEAM
    • B23K9/00Arc welding or cutting
    • B23K9/12Automatic feeding or moving of electrodes or work for spot or seam welding or cutting
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/4093Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by part programming, e.g. entry of geometrical information as taken from a technical drawing, combining this with machining and material information to obtain control information, named part programme, for the NC machine

Abstract

To provide an automatic operation-generation method and automatic operation-generation system for a welding robot which can reduce the pre-work of the welding robot and automatically generate operation of the welding robot on site.SOLUTION: An automatic operation-generation method for a welding robot 1 according to the present embodiment comprises: a setting Step 1 of arranging a three-dimensional measurement sensor 4 at a predetermined location; a measurement Step 2 of dividing a weld location into a plurality of measurement regions and measuring the plurality of measurement regions with the three-dimensional measurement sensor 4; a point cloud processing Step3 of generating extracted surfaces from point cloud data that can be recognized as a plane among measured point cloud data, and generating assumed surfaces from an unrecognizable invalid regions where the point cloud data cannot be obtained; a measurement confirmation Step 4 of confirming whether or not all measurements at the weld location have been completed; and a three-dimensional model generation Step 5 of generating a three-dimensional model of the weld location from the extracted surfaces and the assumed surfaces.SELECTED DRAWING: Figure 2

Description

本発明は、溶接ロボットの動作自動生成方法及び動作自動生成システムに関し、特に、溶接場所に持ち込んだ溶接ロボットの溶接動作を現場で自動的に生成することができる溶接ロボットの動作自動生成方法及び動作自動生成システムに関する。 The present invention relates to an automatic motion generation method and an automatic motion generation system for a welding robot, and in particular, an automatic motion generation method and an operation of a welding robot capable of automatically generating a welding motion of a welding robot brought to a welding place on site. Regarding the automatic generation system.

例えば、船舶の建造では、ロンジ、カラープレート、スティフナ等、多数の部材から構成された船殻構造が溶接作業の対象となる。船舶建造工程の初期は、パネルに補強材を溶接するといった比較的簡単な構造の溶接作業であり、その自動化も進められている。後工程に進むに従い、立体的で大型の構造となっていくため、工場ラインに固定された自動溶接装置ではその装置も大型化せざるを得ず、初期費用も増大化するため、設備導入が難しい状況となる。かかる事情から小型化・軽量化された溶接ロボットを溶接場所に持ち込んで自動溶接することが長年研究されている。 For example, in the construction of a ship, a hull structure composed of a large number of members such as a longi, a color plate, and a stiffener is the target of welding work. In the early stages of the ship construction process, welding work with a relatively simple structure, such as welding a reinforcing material to a panel, is being promoted, and its automation is also being promoted. As the post-process progresses, the structure becomes three-dimensional and large, so the automatic welding equipment fixed to the factory line has to be increased in size, and the initial cost also increases, so equipment is introduced. It will be a difficult situation. Under these circumstances, it has been studied for many years to bring a welding robot that has been made smaller and lighter to a welding site for automatic welding.

例えば、特許文献1には、CADデータのワーク形状情報からワークモデルを生成し、取付部材の取付線からなる基本溶接線の溶接モデルを生成し、更に溶接ロボットの動作範囲を定める領域分割線でワークを分割したセルモデルを生成し、基本溶接線ごとにワークと溶接ロボットの干渉の有無をチェックし、干渉が生じた場合には干渉が生じない範囲に短縮した溶接線を生成し、領域ごとに溶接線の溶接方向・順序・経路を決定し、更に溶接設計情報を指定して動作プログラムを生成する方法が開示されている。 For example, in Patent Document 1, a work model is generated from the work shape information of CAD data, a welding model of a basic welding line consisting of mounting lines of mounting members is generated, and a region dividing line that defines an operating range of a welding robot is used. A cell model that divides the work is generated, the presence or absence of interference between the work and the welding robot is checked for each basic welding line, and if interference occurs, a shortened welding line is generated to the extent that interference does not occur, and each area is generated. Discloses a method of determining the welding direction, order, and path of a welding line, and further specifying welding design information to generate an operation program.

特開2004-1226号公報Japanese Unexamined Patent Publication No. 2004-1226

しかしながら、特許文献1に記載された発明のように、CADデータを用いる場合には事前に溶接対象物のCADデータを用意しなければならず、事前作業に時間を要するという問題がある。また、CADデータの修正があった際に動作プログラムへの反映が遅れたり、CADデータに反映されない構造物が取り付けられていたり、CADデータと実際の溶接対象物及びその周辺部の形状が異なっていることも少なくない。その場合、溶接箇所でない場所を溶接してしまったり、溶接対象物やその周辺部と溶接ロボットとが衝突したりしてしまうという問題がある。 However, as in the invention described in Patent Document 1, when CAD data is used, the CAD data of the welding object must be prepared in advance, and there is a problem that the preliminary work takes time. In addition, when the CAD data is modified, the reflection in the operation program is delayed, a structure that is not reflected in the CAD data is attached, or the CAD data and the actual welding object and its peripheral parts are different in shape. It is not uncommon to be there. In that case, there is a problem that a place other than the welding point is welded, or the welding object or its peripheral portion collides with the welding robot.

本発明はかかる問題点に鑑み創案されたものであり、溶接ロボットの事前作業を削減し、現場で溶接ロボットの動作を自動生成することができる、溶接ロボットの動作自動生成方法及び動作自動生成システムを提供することを目的とする。 The present invention has been devised in view of the above problems, and is capable of reducing the pre-work of the welding robot and automatically generating the motion of the welding robot at the site. The purpose is to provide.

本発明によれば、所定の溶接場所に配置された溶接ロボットの溶接動作を自動的に生成する溶接ロボットの動作自動生成方法であって、3D計測センサを所定の場所に配置するセッティング工程と、前記溶接場所を複数の計測領域に分割して前記3D計測センサで計測する計測工程と、計測された点群データのうち平面として認識可能な点群データから抽出面を生成し、点群データが得られない認識不能な無効領域から想定面を生成する点群処理工程と、前記抽出面及び前記想定面から前記溶接場所の三次元モデルを生成する三次元モデル生成工程と、前記三次元モデルを用いて溶接ロボットの溶接動作を生成する溶接動作生成工程と、を含むことを特徴とする溶接ロボットの動作自動生成方法が提供される。 According to the present invention, there is a method for automatically generating a welding motion of a welding robot placed at a predetermined welding place, which is a setting step of arranging a 3D measurement sensor at a predetermined place. The welding site is divided into a plurality of measurement areas and measured by the 3D measurement sensor, and an extraction surface is generated from the point group data that can be recognized as a plane among the measured point group data, and the point group data is generated. A point group processing step for generating an assumed surface from an unrecognizable invalid region that cannot be obtained, a three-dimensional model generation step for generating a three-dimensional model of the welding location from the extracted surface and the assumed surface, and the three-dimensional model. Provided is a method for automatically generating a welding robot motion, which comprises a welding motion generating step of generating a welding motion of the welding robot using the welding robot.

前記点群処理工程は、前記計測工程ごとに処理されてもよい。 The point cloud processing step may be processed for each measurement step.

前記セッティング工程は、前記複数の計測領域が隣接する計測領域と重複した領域を有するように処理されてもよい。 In the setting step, the plurality of measurement regions may be processed so as to have a region overlapping with an adjacent measurement region.

前記点群処理工程は、前記無効領域が前記抽出面に対して垂直な平面により形成されていると認識して前記想定面を生成するようにしてもよい。 The point cloud processing step may recognize that the invalid region is formed by a plane perpendicular to the extraction surface and generate the assumed surface.

前記三次元モデル生成工程は、前記抽出面をロボット座標系に変換して合成する抽出面合成工程と、前記想定面をロボット座標系に変換して合成する想定面合成工程と、を含んでいてもよい。 The three-dimensional model generation step includes an extraction surface synthesis step of converting the extraction surface into a robot coordinate system and synthesizing it, and a hypothetical surface synthesis step of converting the assumption surface into a robot coordinate system and synthesizing the surface. May be good.

前記三次元モデル生成工程は、鋼板の板厚に相当する幅の平面を鋼板の端面として処理する板厚形状確認工程を含んでいてもよい。 The three-dimensional model generation step may include a plate thickness shape confirmation step of processing a flat surface having a width corresponding to the plate thickness of the steel plate as an end face of the steel plate.

前記三次元モデル生成工程は、前記抽出面及び前記想定面が形成されない影部を抽出し復元する影部形状復元工程を含んでいてもよい。 The three-dimensional model generation step may include a shadow portion shape restoration step of extracting and restoring a shadow portion on which the extraction surface and the assumed surface are not formed.

前記溶接動作生成工程は、前記溶接ロボットが配置された場所の傾きを考慮して前記溶接動作を生成することを含んでいてもよい。 The welding motion generation step may include generating the welding motion in consideration of the inclination of the place where the welding robot is arranged.

また、本発明によれば、所定の溶接場所に配置された溶接ロボットの溶接動作を自動的に生成する溶接ロボットの動作自動生成システムであって、前記溶接場所を複数の計測領域に分割して計測する3D計測センサと、前記3D計測センサのデータに基づいて前記溶接場所の三次元モデルを生成する演算装置と、を備え、前記演算装置は、計測された点群データのうち平面として認識可能な点群データから抽出面を生成し、点群データが得られない認識不能な無効領域から想定面を生成し、前記抽出面及び前記想定面から前記溶接場所の三次元モデルを生成し、前記三次元モデルを用いて溶接ロボットの溶接動作を生成するように構成されている、ことを特徴とする溶接ロボットの動作自動生成システムが提供される。 Further, according to the present invention, it is an motion automatic generation system of a welding robot that automatically generates a welding motion of a welding robot arranged at a predetermined welding place, and the welding place is divided into a plurality of measurement areas. A 3D measurement sensor for measurement and a calculation device for generating a three-dimensional model of the welding location based on the data of the 3D measurement sensor are provided, and the calculation device can recognize the measured point group data as a plane. An extracted surface is generated from various point group data, an assumed surface is generated from an unrecognizable invalid region where point group data cannot be obtained, and a three-dimensional model of the welding location is generated from the extracted surface and the assumed surface. An automatic motion generation system for a welding robot is provided, which is configured to generate a welding motion of a welding robot using a three-dimensional model.

上述した本発明に係る溶接ロボットの動作自動生成方法及び動作自動生成システムによれば、3D計測センサを用いて溶接場所の三次元モデルを生成するようにしたことから、事前にCADデータを用いて溶接ロボットの溶接動作を生成する必要がない。したがって、本発明によれば、溶接ロボットの事前作業を削減し、現場で溶接ロボットの動作を自動生成することができる。 According to the above-mentioned method for automatically generating motions of a welding robot and the system for automatically generating motions according to the present invention, a three-dimensional model of a welding location is generated using a 3D measurement sensor. Therefore, CAD data is used in advance. There is no need to generate the welding motion of the welding robot. Therefore, according to the present invention, it is possible to reduce the pre-work of the welding robot and automatically generate the operation of the welding robot in the field.

本発明の一実施形態に係る溶接ロボットの動作自動生成システムで使用する溶接ロボットの一例を示す斜視図である。It is a perspective view which shows an example of the welding robot used in the motion automatic generation system of the welding robot which concerns on one Embodiment of this invention. 本発明の一実施形態に係る溶接ロボットの動作自動生成方法を示す全体フロー図である。It is an overall flow diagram which shows the motion automatic generation method of the welding robot which concerns on one Embodiment of this invention. 点群処理工程を示すフロー図である。It is a flow chart which shows the point cloud processing process. 三次元モデル生成工程を示すフロー図である。It is a flow chart which shows the 3D model generation process. 点群処理工程後の平面形状の一例を示す図であり、(A)は第一計測領域、(B)は第二計測領域、(C)は第三計測領域、(D)は第四計測領域、(E)は第五計測領域、(F)は第六計測領域、を示している。It is a figure which shows an example of the plane shape after a point cloud processing process, (A) is a 1st measurement area, (B) is a 2nd measurement area, (C) is a 3rd measurement area, (D) is a 4th measurement area. A region, (E) indicates a fifth measurement region, and (F) indicates a sixth measurement region. 点群処理工程後の平面形状の一例を示す図であり、(A)は第七計測領域、(B)は第八計測領域、(C)は第九計測領域、を示している。It is a figure which shows an example of the plane shape after a point cloud processing process, (A) shows the 7th measurement area, (B) shows 8th measurement area, (C) shows 9th measurement area. 抽出面合成工程を示すイメージ図であり、(A)は合成方法、(B)は合成結果、を示している。It is an image diagram which shows the extraction surface synthesis process, (A) shows the synthesis method, (B) shows the synthesis result. 想定面合成工程を示すイメージ図である。It is an image diagram which shows the assumption surface synthesis process. 板厚形状確認工程を示すイメージ図である。It is an image diagram which shows the plate thickness shape confirmation process. 影部形状復元工程を示すイメージ図である。It is an image diagram which shows the shadow part shape restoration process.

以下、本発明の実施形態について図1~図10を用いて説明する。ここで、図1は、本発明の一実施形態に係る溶接ロボットの動作自動生成システムで使用する溶接ロボットの一例を示す斜視図である。 Hereinafter, embodiments of the present invention will be described with reference to FIGS. 1 to 10. Here, FIG. 1 is a perspective view showing an example of a welding robot used in the motion automatic generation system of the welding robot according to the embodiment of the present invention.

図1に示した溶接ロボット1は、折り畳み可能な多関節アーム2を備えた可搬式の溶接ロボットである。多関節アーム2は、例えば、回転台2t上に配置されるベース21と、ベース21の先端に回動可能に接続された上腕22と、上腕22の先端に回動可能に接続された下腕23と、下腕23の先端に回動可能に接続された手首部24と、手首部24の先端に回転可能に接続されたツール部25と、を備えている。 The welding robot 1 shown in FIG. 1 is a portable welding robot provided with a foldable articulated arm 2. The articulated arm 2 includes, for example, a base 21 arranged on a rotary table 2t, an upper arm 22 rotatably connected to the tip of the base 21, and a lower arm rotatably connected to the tip of the upper arm 22. 23, a wrist portion 24 rotatably connected to the tip of the lower arm 23, and a tool portion 25 rotatably connected to the tip of the wrist portion 24.

上腕22、下腕23、手首部24及びツール部25は、ベース21上に折り畳んで配置することができるように構成されている。回転台2tは、台座3上に配置されており、多関節アーム2をZ軸中心に回転させるように構成されている。ツール部25の先端には溶接トーチ2wが配置される。 The upper arm 22, lower arm 23, wrist portion 24, and tool portion 25 are configured to be folded and arranged on the base 21. The rotary table 2t is arranged on the pedestal 3 and is configured to rotate the articulated arm 2 about the center of the Z axis. A welding torch 2w is arranged at the tip of the tool portion 25.

また、上腕22の前面には、三次元形状を点群データとして取得可能な3D計測センサ4が配置されている。3D計測センサ4は、例えば、溶接対象物までの距離画像を取得可能な距離画像センサである。ただし、3D計測センサ4は、距離画像センサに限定されるものではなく、三次元の点群データを得られるセンサであればよい。3D計測センサ4を溶接ロボット1に配置することにより、溶接ロボット1と一緒に3D計測センサ4を溶接場所に搬入することができる。また、上腕22に3D計測センサ4を配置することにより、ツール部25付近にセンサを設置する場合と比較して、溶接スパッタやヒュームによる影響を低減することができる。 Further, on the front surface of the upper arm 22, a 3D measurement sensor 4 capable of acquiring a three-dimensional shape as point cloud data is arranged. The 3D measurement sensor 4 is, for example, a distance image sensor capable of acquiring a distance image to a welding object. However, the 3D measurement sensor 4 is not limited to the distance image sensor, and may be any sensor that can obtain three-dimensional point group data. By arranging the 3D measurement sensor 4 in the welding robot 1, the 3D measurement sensor 4 can be carried into the welding place together with the welding robot 1. Further, by arranging the 3D measurement sensor 4 on the upper arm 22, the influence of welding spatter and fume can be reduced as compared with the case where the sensor is installed near the tool portion 25.

上述した多関節アーム2は、図1に示した状態において、XYZの三軸直交座標で表現すれば、ベース21のZ軸周り、上腕22のX軸周り、下腕23のX軸周り、手首部24のX軸周り、ツール部25のY軸周りの合計5自由度を有している。なお、上述した多関節アーム2の構成は単なる一例であり、図示した構成に限定されるものではない。 In the state shown in FIG. 1, the above-mentioned articulated arm 2 is expressed in XYZ three-axis Cartesian coordinates, around the Z axis of the base 21, around the X axis of the upper arm 22, around the X axis of the lower arm 23, and the wrist. It has a total of 5 degrees of freedom around the X-axis of the portion 24 and around the Y-axis of the tool portion 25. The above-mentioned configuration of the articulated arm 2 is merely an example, and is not limited to the configuration shown in the figure.

台座3上には、溶接ロボット1の動作自動生成システムの演算装置及び溶接ロボット1の制御装置を収容する制御ボックス5が配置されている。また、台座3には、溶接ロボット1を搬送するためのハンドル6が配置されている。ハンドル6は、搬送時には折り畳んだ多関節アーム2の上方に回動され、設置時には図示したように台座3の前方に回動される。 On the pedestal 3, a control box 5 for accommodating the arithmetic unit of the automatic motion generation system of the welding robot 1 and the control device of the welding robot 1 is arranged. Further, a handle 6 for transporting the welding robot 1 is arranged on the pedestal 3. The handle 6 is rotated above the folded articulated arm 2 during transportation, and is rotated forward of the pedestal 3 as shown at the time of installation.

また、台座3の両側部には床面に載置された溶接ロボット装置1を持ち上げるための把手31が配置されていてもよい。また、台座3の前方には、溶接ロボット装置1の位置決めを行うためのレーザーポインタ32が配置されていてもよい。また、台座3の底部には、永久磁石又は電磁石によって構成される固定用磁石(図示せず)及び脚部33が配置されていてもよい。また、図示しないが、台座3には加速度計や傾斜計等、溶接ロボット1が配置された場所の傾きを計測するためのセンサが配置されてもよい。 Further, handles 31 for lifting the welding robot device 1 mounted on the floor may be arranged on both sides of the pedestal 3. Further, a laser pointer 32 for positioning the welding robot device 1 may be arranged in front of the pedestal 3. Further, a fixing magnet (not shown) composed of a permanent magnet or an electromagnet and a leg portion 33 may be arranged on the bottom of the pedestal 3. Further, although not shown, a sensor for measuring the inclination of the place where the welding robot 1 is arranged, such as an accelerometer or an inclinometer, may be arranged on the pedestal 3.

本実施形態に係る溶接ロボット1の動作自動生成システムは、所定の溶接場所に配置された溶接ロボット1の溶接動作を自動的に生成する動作自動生成システムであって、溶接場所を複数の計測領域に分割して計測する3D計測センサ4と、3D計測センサ4のデータに基づいて溶接場所の三次元モデルを生成する演算装置と、を備えており、演算装置は後述するフローに基づいて溶接ロボット1の溶接動作を自動的に生成するように構成されている。 The motion automatic generation system of the welding robot 1 according to the present embodiment is a motion automatic generation system that automatically generates the welding motion of the welding robot 1 arranged at a predetermined welding place, and has a plurality of measurement areas of the welding place. It is equipped with a 3D measurement sensor 4 that measures separately and a calculation device that generates a three-dimensional model of the welding location based on the data of the 3D measurement sensor 4, and the calculation device is a welding robot based on the flow described later. It is configured to automatically generate the welding motion of 1.

次に、本発明の一実施形態に係る溶接ロボット1の動作自動生成方法について、図2~図10を参照しつつ説明する。図2は、本発明の一実施形態に係る溶接ロボットの動作自動生成方法を示す全体フロー図である。図3は、点群処理工程を示すフロー図である。図4は、三次元モデル生成工程を示すフロー図である。 Next, a method for automatically generating an operation of the welding robot 1 according to an embodiment of the present invention will be described with reference to FIGS. 2 to 10. FIG. 2 is an overall flow chart showing a method for automatically generating an operation of a welding robot according to an embodiment of the present invention. FIG. 3 is a flow chart showing a point cloud processing process. FIG. 4 is a flow chart showing a three-dimensional model generation process.

本実施形態に係る溶接ロボット1の動作自動生成方法は、所定の溶接場所に配置された溶接ロボット1の溶接動作を自動的に生成する動作自動生成方法であって、3D計測センサ4を所定の場所に配置するセッティング工程Step1と、溶接場所を複数の計測領域に分割して3D計測センサ4で計測する計測工程Step2と、計測された点群データのうち平面として認識可能な点群データから抽出面を生成し、点群データが得られない認識不能な無効領域から想定面を生成する点群処理工程Step3と、溶接場所における全ての計測を終了したか否か確認する計測確認工程Step4と、抽出面及び想定面から溶接場所の三次元モデルを生成する三次元モデル生成工程Step5と、溶接箇所や脚長等の溶接に関するデータを入力する作業設定工程Step6と、三次元モデルを用いて溶接ロボットの溶接動作を生成する溶接動作生成工程Step7と、三次元モデルに含まれる溶接箇所の施工順序を設定する施工順序設定工程Step8と、自動生成した溶接動作及び施工順序に基づいて溶接ロボット1により所定の溶接作業を実行する溶接作業工程Step9と、を備えている。 The method for automatically generating the motion of the welding robot 1 according to the present embodiment is a method for automatically generating the welding motion of the welding robot 1 arranged at a predetermined welding place, and the 3D measurement sensor 4 is designated. The setting process Step 1 to be placed in the place, the measurement process Step 2 to divide the welding place into a plurality of measurement areas and measure with the 3D measurement sensor 4, and the point group data that can be recognized as a plane among the measured point group data are extracted. A point group processing step Step 3 that generates a surface and generates an assumed surface from an unrecognizable invalid area where point group data cannot be obtained, and a measurement confirmation step Step 4 that confirms whether or not all measurements at the welding site have been completed. A three-dimensional model generation step Step 5 that generates a three-dimensional model of the welding location from the extracted surface and the assumed surface, a work setting process Step 6 that inputs data related to welding such as the welding location and leg length, and a welding robot using the three-dimensional model. A predetermined welding operation generation step Step 7 for generating a welding motion, a construction order setting step Step 8 for setting the construction order of welding points included in the three-dimensional model, and a predetermined welding robot 1 based on the automatically generated welding motion and the construction order. It includes a welding work step Step 9 for executing welding work.

セッティング工程Step1は、溶接場所の所定の領域を計測するために3D計測センサ4を配置する工程である。本実施形態では、溶接ロボット1を所定の場所に配置し、その向きを調整することによって、3D計測センサ4がセッティングされる。 The setting step Step 1 is a step of arranging the 3D measurement sensor 4 in order to measure a predetermined area of the welding place. In the present embodiment, the 3D measurement sensor 4 is set by arranging the welding robot 1 at a predetermined place and adjusting the direction thereof.

計測工程Step2は、例えば、3D計測センサ4からランダムドット等のパターン光(赤外線)を照射し、それを1つ又は複数の赤外線カメラで撮影することによって距離画像を得ることができるセンサを使用し、その距離画像から計測領域の点群データを取得する工程である。 The measurement step Step 2 uses, for example, a sensor capable of obtaining a distance image by irradiating a pattern light (infrared ray) such as a random dot from a 3D measurement sensor 4 and photographing it with one or a plurality of infrared cameras. , Is a process of acquiring point group data of a measurement area from the distance image.

点群処理工程Step3は、点群データから平面形状を抽出又は生成する工程である。床面に対して垂直に配置され3D計測センサ4に相対する位置にある平面(例えば、ロンジのウェブ面等)からは規則正しく配列した点群データが取得される。一方、ロンジのウェブ面に垂直に配置されたスティフナ等の水平面等では、3D計測センサ4からの照射光の入射角が浅くなり、その平面では点群を計測することができず、3D計測センサ4からの視点で点群データが抜けた領域が形成される。 The point cloud processing step Step 3 is a step of extracting or generating a planar shape from the point cloud data. Regularly arranged point cloud data is acquired from a plane (for example, the web surface of Longi) which is arranged perpendicular to the floor surface and is located at a position facing the 3D measurement sensor 4. On the other hand, in a horizontal plane such as a stiffener arranged perpendicular to the web surface of Longi, the incident angle of the irradiation light from the 3D measurement sensor 4 becomes shallow, and the point cloud cannot be measured on that plane, and the 3D measurement sensor cannot be measured. A region where the point cloud data is missing is formed from the viewpoint from 4.

本実施形態では、点群データのうち平面として認識可能な点群データから抽出される平面を「抽出面」と定義し、3D計測センサ4の視点で点群データが得られない認識不能な領域を「無効領域」と定義する。また、無効領域から生成される平面を「想定面」と定義する。 In the present embodiment, a plane extracted from the point cloud data that can be recognized as a plane among the point cloud data is defined as an "extracted surface", and an unrecognizable region where the point cloud data cannot be obtained from the viewpoint of the 3D measurement sensor 4. Is defined as an "invalid area". In addition, the plane generated from the invalid area is defined as the "assumed plane".

点群処理工程Step3は、点群データから抽出面を生成する処理を含み、無効領域が抽出面に対して垂直な平面により形成されていると認識して想定面を生成する処理を含んでいる。具体的には、点群処理工程Step3は、図3に示したフローに基づいて処理される。 The point cloud processing step Step 3 includes a process of generating an extraction surface from the point cloud data, and includes a process of recognizing that the invalid region is formed by a plane perpendicular to the extraction surface and generating an assumed surface. .. Specifically, the point cloud processing step Step 3 is processed based on the flow shown in FIG.

図3に示したように、点群処理工程Step3は、距離画像データを取得するデータ取得工程Step31と、距離画像データをセンサ座標系の三次元座標に変換する座標変換工程Step32と、座標変換したデータから局所平面を計算する局所平面計算工程Step33と、局所平面をラベリングするラベリング工程Step34と、平面形状(抽出面)を抽出する形状抽出工程Step35と、3D計測センサ4の視点による距離画像データから無効領域を抽出する無効領域抽出工程Step36と、無効領域から想定面を生成する想定面生成工程Step37と、を含んでいる。 As shown in FIG. 3, the point group processing step Step 3 is coordinate-converted by a data acquisition step Step 31 for acquiring distance image data and a coordinate conversion step Step 32 for converting distance image data into three-dimensional coordinates of the sensor coordinate system. From the local plane calculation step Step 33 that calculates the local plane from the data, the labeling step Step 34 that labels the local plane, the shape extraction step Step 35 that extracts the plane shape (extraction surface), and the distance image data from the viewpoint of the 3D measurement sensor 4. It includes an invalid area extraction step Step 36 for extracting an invalid area and an assumed surface generation step Step 37 for generating an assumed surface from the invalid area.

座標変換工程Step32から形状抽出工程Step35の工程は、3D計測センサ4で取得したデータをダウンサイジング等の処理をした後、微小領域の法線方向計算や距離による判断等、一般的な手法を用いることができ、ここでは詳細な説明を省略する。なお、ラベリング工程Step34では、例えば、面法線のなす角度や面の距離等から、データを平面ごとに区分けしてラベリングする。また、3D計測センサ4が点群データを直接的に取得することができる3Dセンサである場合には、データ取得工程Step31及び座標変換工程Step32は同一工程となる。 In the process from the coordinate conversion step Step 32 to the shape extraction step Step 35, after processing the data acquired by the 3D measurement sensor 4 such as downsizing, a general method such as normal direction calculation of a minute region and judgment by distance is used. It is possible, and detailed description is omitted here. In the labeling step Step 34, for example, data is divided and labeled for each plane based on the angle formed by the surface normal, the distance between the surfaces, and the like. Further, when the 3D measurement sensor 4 is a 3D sensor capable of directly acquiring point cloud data, the data acquisition step Step 31 and the coordinate conversion step Step 32 are the same process.

無効領域は、レーザ光の入射角が浅い面又は3D計測センサ4の計測可能範囲に対象物がない領域によって構成される。したがって、無効領域抽出工程Step36では、微小領域は無視し、細長い領域(大型鋼構造物のように比較的細長い部材が計測対象となる場合)を切り出すことにより、データ処理量を削減しつつ無効領域を選別する。なお、無効領域抽出工程Step36において、3D計測センサ4が点群データを直接的に取得することができる3Dセンサである場合には、3D計測センサ4の視点による距離画像相当のデータ作成工程を先に行うようにしてもよい。 The invalid region is composed of a surface where the incident angle of the laser beam is shallow or a region where there is no object in the measurable range of the 3D measurement sensor 4. Therefore, in the invalid region extraction step Step 36, a minute region is ignored and an elongated region (when a relatively elongated member such as a large steel structure is a measurement target) is cut out to reduce the amount of data processing and the invalid region. To sort out. In the invalid area extraction step Step 36, when the 3D measurement sensor 4 is a 3D sensor capable of directly acquiring point cloud data, the data creation step corresponding to the distance image from the viewpoint of the 3D measurement sensor 4 is performed first. You may do it in.

想定面生成工程Step37では、3D計測センサ4の位置を基準にして無効領域の周囲面に直交する面形状の候補を作成し、無効領域が影となる面形状を生成する。例えば、面が3D計測センサ4の視点よりも高い場合には、無効領域は上底よりも下底が長い台形形状となり、面が3D計測センサ4の視点よりも低い場合には、無効領域は下底よりも上底が長い台形形状となる。 In the assumed surface generation step Step 37, a surface shape candidate orthogonal to the peripheral surface of the invalid region is created with reference to the position of the 3D measurement sensor 4, and a surface shape in which the invalid region is a shadow is generated. For example, when the surface is higher than the viewpoint of the 3D measurement sensor 4, the invalid area has a trapezoidal shape in which the lower base is longer than the upper base, and when the surface is lower than the viewpoint of the 3D measurement sensor 4, the invalid area is. It has a trapezoidal shape with an upper base longer than the lower base.

計測確認工程Step4は、溶接場所の全体の計測を終了したか否か(所定回数の計測を終了したか否か)を確認工程である。全ての計測を終了していない場合(N)には、セッティング工程Step1に戻り、全ての計測を終了した場合(Y)には、次工程に移行する。 The measurement confirmation step Step 4 is a step of confirming whether or not the measurement of the entire welding location has been completed (whether or not the measurement of a predetermined number of times has been completed). If all the measurements have not been completed (N), the process returns to Step 1, and if all the measurements have been completed (Y), the process proceeds to the next process.

セッティング工程Step1では、溶接ロボット1を所定の場所に配置し直したり、多関節アーム2を移動させて3D計測センサ4の向きや姿勢を変更したりして3D計測センサ4をセッティングする。このとき、複数の計測領域が隣接する計測領域と重複した領域を有するように3D計測センサ4をセッティングする。かかる処理により、複数の計測領域で同一面の点群データを取得することができ、同一面の認識を容易に行うことができ、平面の合成を容易に処理することができる。 In the setting step Step 1, the welding robot 1 is rearranged in a predetermined place, or the articulated arm 2 is moved to change the direction and posture of the 3D measurement sensor 4 to set the 3D measurement sensor 4. At this time, the 3D measurement sensor 4 is set so that the plurality of measurement areas have an area overlapping with the adjacent measurement area. By such processing, point cloud data of the same surface can be acquired in a plurality of measurement regions, recognition of the same surface can be easily performed, and plane composition can be easily processed.

ここで、図5は、点群処理工程後の平面形状の一例を示す図であり、(A)は第一計測領域、(B)は第二計測領域、(C)は第三計測領域、(D)は第四計測領域、(E)は第五計測領域、(F)は第六計測領域、を示している。図6は、点群処理工程後の平面形状の一例を示す図であり、(A)は第七計測領域、(B)は第八計測領域、(C)は第九計測領域、を示している。 Here, FIG. 5 is a diagram showing an example of the planar shape after the point cloud processing step, where (A) is the first measurement region, (B) is the second measurement region, and (C) is the third measurement region. (D) shows the fourth measurement area, (E) shows the fifth measurement area, and (F) shows the sixth measurement area. 6A and 6B are views showing an example of a planar shape after the point cloud processing step, in which FIG. 6A shows a seventh measurement area, FIG. 6B shows an eighth measurement area, and FIG. 6C shows a ninth measurement area. There is.

図5(A)~図6(C)に示した平面形状は、N回目(Nは1~9の整数)に計測した計測領域の点群データに基づいて抽出又は生成された平面形状を示している。図5(A)~図5(F)に示した第一計測領域~第六計測領域の平面形状では、無効領域は抽出されず、抽出面のみによって構成されている。また、図6(A)~図6(C)の右図に示した平面形状は、各図の左図に示した無効領域(空白部分)から生成された想定面S1~S3を含んでいる。 The planar shapes shown in FIGS. 5 (A) to 6 (C) indicate the planar shapes extracted or generated based on the point cloud data of the measurement area measured at the Nth time (N is an integer of 1 to 9). ing. In the planar shapes of the first measurement region to the sixth measurement region shown in FIGS. 5A to 5F, the invalid region is not extracted and is composed only of the extraction surface. Further, the planar shape shown in the right figure of FIGS. 6 (A) to 6 (C) includes the assumed surfaces S1 to S3 generated from the invalid region (blank portion) shown in the left figure of each figure. ..

本実施形態では、計測された全ての点群データを座標変換したうえで合成してから平面形状を抽出又は生成せずに、計測領域ごとに点群データを処理している。すなわち、点群処理工程Step3は、計測工程Step2ごとに処理される。したがって、点群処理工程Step3で処理される一回のデータ量を低減することができ、平面形状の抽出又は生成の処理時間を短縮することができる。 In the present embodiment, the point cloud data is processed for each measurement area without extracting or generating the planar shape after all the measured point cloud data are coordinate-converted and then combined. That is, the point cloud processing step Step 3 is processed for each measurement step Step 2. Therefore, the amount of data processed once in the point cloud processing step Step 3 can be reduced, and the processing time for extracting or generating a planar shape can be shortened.

三次元モデル生成工程Step5は、例えば、図5(A)~図6(C)に示した平面形状から三次元モデルを生成する工程である。具体的には、図4に示したフローに基づいて処理される。 The three-dimensional model generation step Step 5 is, for example, a step of generating a three-dimensional model from the planar shapes shown in FIGS. 5A to 6C. Specifically, the process is performed based on the flow shown in FIG.

図4に示したように、三次元モデル生成工程Step5は、例えば、抽出面をロボット座標系に変換して合成する抽出面合成工程Step51と、想定面をロボット座標系に変換して合成する想定面合成工程Step52と、鋼板の板厚に相当する幅の平面を鋼板の端面として処理する板厚形状確認工程Step53と、抽出面及び想定面が形成されない影部を抽出し復元する影部形状復元工程Step54と、を備えている。 As shown in FIG. 4, the three-dimensional model generation step Step 5 includes, for example, the extraction surface synthesis step Step 51 in which the extraction surface is converted into the robot coordinate system and synthesized, and the assumption that the assumed surface is converted into the robot coordinate system and synthesized. The surface synthesis step Step 52, the plate thickness shape confirmation step Step 53 that processes a flat surface having a width corresponding to the plate thickness of the steel plate as the end face of the steel plate, and the shadow portion shape restoration that extracts and restores the shadow portion where the extraction surface and the assumed surface are not formed. The process Step 54 is provided.

抽出面合成工程Step51は、点群処理工程Step3により抽出された抽出面を合成する工程である。具体的には、抽出面合成工程Step51は、全ての抽出面形状を取得する第一工程Step511と、抽出面形状をロボット座標系に変換する第二工程Step512と、抽出面が登録済み面と同一面領域か否か確認する第三工程Step513と、抽出面が登録済み面と同一面領域ではない場合(N)に当該抽出面を新規面として登録する第四工程Step514と、抽出面が登録済み面と同一面領域である場合(Y)に重ね合わせて平面・形状を再計算する第五工程Step515と、全ての抽出面を処理したか否か確認する第六工程Step516と、を備えている。 The extraction surface synthesis step Step 51 is a step of synthesizing the extraction surface extracted by the point cloud processing step Step 3. Specifically, the extraction surface synthesis step Step 51 includes the first step Step 511 for acquiring all the extraction surface shapes, the second step Step 512 for converting the extraction surface shape into a robot coordinate system, and the extraction surface being the same as the registered surface. The third step Step 513 for confirming whether or not it is a surface area, the fourth step Step 514 for registering the extracted surface as a new surface when the extracted surface is not the same surface area as the registered surface, and the extracted surface have been registered. It is provided with a fifth step Step 515 for recalculating the plane / shape by superimposing the same surface region as the surface (Y), and a sixth step Step 516 for confirming whether or not all the extracted surfaces have been processed. ..

例えば、図5(A)~図6(C)に示した第一計測領域~第九計測領域の平面形状は、センサ座標系であるため、視点が各計測領域によって異なっている。そこで、センサ座標系の座標をロボット座標系の座標に変換することによって座標系を統一している。ここで、図7は、抽出面合成工程を示すイメージ図であり、(A)は合成方法、(B)は合成結果、を示している。 For example, since the planar shapes of the first measurement area to the ninth measurement area shown in FIGS. 5A to 6C are sensor coordinate systems, the viewpoint differs depending on each measurement area. Therefore, the coordinate system is unified by converting the coordinates of the sensor coordinate system into the coordinates of the robot coordinate system. Here, FIG. 7 is an image diagram showing the extraction surface synthesis step, (A) shows the synthesis method, and (B) shows the synthesis result.

図7(A)の上段に示した二つの平面形状は、図5(A)及び図5(B)に示した第一計測領域及び第二計測領域の平面形状である。抽出面合成工程Step51において、第一計測領域から順番に処理する場合について説明する。第一計測領域A1に含まれる平面形状をロボット座標系に座標変換し、そこに含まれる平面の全てを新規面として動作自動生成システムに登録する。例えば、図7(A)に示したように、面M1~M4が新規面として登録される。 The two planar shapes shown in the upper part of FIG. 7 (A) are the planar shapes of the first measurement region and the second measurement region shown in FIGS. 5 (A) and 5 (B). In the extraction surface synthesis step Step 51, a case where processing is performed in order from the first measurement region will be described. The plane shape included in the first measurement area A1 is coordinate-converted into the robot coordinate system, and all the planes included therein are registered in the motion automatic generation system as new planes. For example, as shown in FIG. 7A, the surfaces M1 to M4 are registered as new surfaces.

次に、第二計測領域A2の平面形状をロボット座標系に座標変換し、動作自動生成システムに登録された登録済み面M1~M4と同一面領域を有するか否かを確認する。いま、図7(A)に示したように、第二計測領域A2に含まれる面が登録済み面M1と同一面領域を有しているとすれば、その座標を用いて図7(A)の下段に示したように、第一計測領域A1に含まれる平面形状と第二計測領域A2に含まれる平面形状を合成する。なお、登録済み面M1~M4と同一面領域を構成しない面は、新規面として動作自動生成システムに登録される。 Next, the plane shape of the second measurement area A2 is coordinate-converted to the robot coordinate system, and it is confirmed whether or not the plane has the same surface area as the registered surfaces M1 to M4 registered in the motion automatic generation system. Now, as shown in FIG. 7 (A), if the plane included in the second measurement region A2 has the same plane region as the registered plane M1, the coordinates thereof are used in FIG. 7 (A). As shown in the lower part, the planar shape included in the first measurement area A1 and the planar shape included in the second measurement area A2 are combined. The surfaces that do not form the same surface area as the registered surfaces M1 to M4 are registered in the automatic motion generation system as new surfaces.

以下、かかる処理を全ての計測領域について繰り返し行うことにより、図7(B)に示したように、全ての抽出面を合成したプレ三次元モデルを生成することができる。ここでは、図5(A)~図6(C)に示した第一計測領域~第九計測領域に含まれる平面形状の抽出面からプレ三次元モデルを生成した場合を図示してある。 Hereinafter, by repeating this process for all the measurement regions, a pre-three-dimensional model in which all the extraction surfaces are synthesized can be generated as shown in FIG. 7 (B). Here, the case where the pre-three-dimensional model is generated from the plane-shaped extraction planes included in the first measurement region to the ninth measurement region shown in FIGS. 5 (A) to 6 (C) is illustrated.

想定面合成工程Step52は、点群処理工程Step3により生成された想定面を合成する工程である。具体的には、想定面合成工程Step52は、全ての想定面形状を取得する第一工程Step521と、想定面形状をロボット座標系に変換する第二工程Step522と、想定面の有効性を確認する第三工程Step523と、想定面を合成する第四工程Step524と、全ての想定面を処理したか否か確認する第五工程Step525と、を備えている。 The assumed surface synthesis step Step 52 is a step of synthesizing the assumed surface generated by the point cloud processing step Step 3. Specifically, the assumed surface synthesis step Step 52 confirms the effectiveness of the first step Step 521 that acquires all the assumed surface shapes, the second step Step 522 that converts the assumed surface shape into the robot coordinate system, and the assumed surface. It includes a third step Step 523, a fourth step Step 524 for synthesizing assumed surfaces, and a fifth step Step 525 for confirming whether or not all assumed surfaces have been processed.

第三工程Step523は、他の計測領域で想定面が通常の平面として認識されていないかを確認する工程である。例えば、他の計測領域のセンサ原点と抽出面外形線とで作る視野エリアに想定面がある場合には、当該想定面を無効とし、合成対象から除外する。なお、第四工程Step524は、上述した抽出面合成工程Step51と実質的に同様の処理によって処理される。 The third step Step 523 is a step of confirming whether or not the assumed surface is recognized as a normal plane in another measurement area. For example, if there is an assumed surface in the visual field area created by the sensor origin of another measurement area and the outline of the extraction surface, the assumed surface is invalidated and excluded from the synthesis target. The fourth step Step 524 is processed by substantially the same process as the above-mentioned extraction surface synthesis step Step 51.

ここで、図8は、想定面合成工程を示すイメージ図である。図8の上段に示した想定面S1′は、第七計測領域に含まれる想定面S1を座標変換して拡大したものである。また、図8の中段に示した想定面S2′は、第八計測領域に含まれる想定面S2を座標変換して想定面S1と合成したものである。また、図8の下段に示した想定面S3′は、第九計測領域に含まれる想定面S3を座標変換し想定面S2′と合成したものである。 Here, FIG. 8 is an image diagram showing the assumed surface synthesis process. The assumed surface S1'shown in the upper part of FIG. 8 is an enlarged view of the assumed surface S1 included in the seventh measurement region after coordinate conversion. Further, the assumed surface S2'shown in the middle of FIG. 8 is obtained by converting the coordinates of the assumed surface S2 included in the eighth measurement region and synthesizing it with the assumed surface S1. Further, the assumed surface S3'shown in the lower part of FIG. 8 is obtained by converting the coordinates of the assumed surface S3 included in the ninth measurement region and synthesizing it with the assumed surface S2'.

板厚形状確認工程Step53は、板厚形状から平面を推定する処理を行う工程である。鋼板の板厚形状とみなせる部分は平面の端面を形成しているものと考えられることから、当該端面を形成する平面を推定することができる。例えば、板厚分とみなせる細長い形状面(平行に近い長手方向の外形状を持つ面)に対し、同一面法線方向かつ構造状あり得る範囲の部材幅の距離の平面まで、垂直2面(板厚の両側)を長手方向外形線から作成する。かかる板厚形状確認工程Step53の処理により、三次元モデル上で浮いた面を消去することができる。 The plate thickness shape confirmation step Step 53 is a step of performing a process of estimating a plane from the plate thickness shape. Since it is considered that the portion of the steel plate that can be regarded as the plate thickness shape forms the end face of the plane, the plane forming the end face can be estimated. For example, two vertical planes (a plane having an outer shape in the longitudinal direction close to parallel) that can be regarded as a plate thickness, up to a plane having a member width within the same plane normal direction and a possible structural range (a plane having an outer shape in the longitudinal direction). (Both sides of the plate thickness) are created from the longitudinal outline. By the process of the plate thickness shape confirmation step Step53, the floating surface on the three-dimensional model can be erased.

ここで、図9は、板厚形状確認工程を示すイメージ図である。図9の上段に示した図は、抽出面合成工程Step51及び想定面合成工程Step52を処理した後の三次元モデルである。なお、図中の仮想面L1は上方計測境界面を示し、仮想面L2,L3は側方計測境界面を示している。図9の上段に示した図は、上段の図から板厚形状部Dを抽出し、平面形状を推定して追加した三次元モデルである。 Here, FIG. 9 is an image diagram showing a plate thickness shape confirmation process. The figure shown in the upper part of FIG. 9 is a three-dimensional model after processing the extraction surface synthesis step Step 51 and the assumed surface synthesis step Step 52. The virtual surface L1 in the figure indicates an upper measurement boundary surface, and the virtual surfaces L2 and L3 indicate a side measurement boundary surface. The figure shown in the upper part of FIG. 9 is a three-dimensional model in which the plate thickness shape portion D is extracted from the upper part and the planar shape is estimated and added.

影部形状復元工程Step54は、部材の影になって面が接していない部分の形状を復元する工程である。例えば、近傍の平面で想定される角度で交差する側の形状を延長することによって復元する。かかる影部形状復元工程Step54の処理により、三次元モデル上で不自然に離隔した面を消去することができる。 The shadow portion shape restoration step Step 54 is a step of restoring the shape of the portion that is in the shadow of the member and is not in contact with the surface. For example, it is restored by extending the shape of the intersecting side at an angle assumed in a nearby plane. By the process of the shadow portion shape restoration step Step 54, the unnaturally separated surfaces on the three-dimensional model can be erased.

ここで、図10は、影部形状復元工程を示すイメージ図である。図10の上段に示した図は、抽出面合成工程Step51及び想定面合成工程Step52を処理した後の三次元モデルである。図中、点線で囲んだ部分に面が生成されていない部分、すなわち、影部Hが形成されている。この部分を上述した処理により図10の下段に示した図のように影部Hを復元させる。 Here, FIG. 10 is an image diagram showing a shadow portion shape restoration process. The figure shown in the upper part of FIG. 10 is a three-dimensional model after processing the extraction surface synthesis step Step 51 and the assumed surface synthesis step Step 52. In the figure, a portion where no surface is generated, that is, a shadow portion H is formed in the portion surrounded by the dotted line. The shadow portion H is restored as shown in the lower part of FIG. 10 by the above-mentioned processing of this portion.

作業設定工程Step6は、溶接箇所や脚長等の溶接に必要なデータを入力する工程である。例えば、既に溶接済みの場所と同じ構造の溶接場所を溶接するような場合には、溶接箇所や脚長等の溶接に必要なデータは既知であることから、かかる作業設定工程Step6は、セッティング工程Step1の前に処理するようにしてもよい。 The work setting step Step 6 is a step of inputting data necessary for welding such as a welded portion and a leg length. For example, in the case of welding a welding place having the same structure as an already welded place, since the data necessary for welding such as the welding place and the leg length are known, the work setting step Step 6 is the setting step Step 1. It may be processed before.

溶接動作生成工程Step7は、上述した処理によって生成された三次元モデルに基づいて溶接ロボット1(多関節アーム2)の溶接動作を生成する工程である。かかる溶接動作生成工程Step7では、台座3に配置した加速度センサや傾斜センサ等のデータを用いて溶接ロボット1の傾きを算出し、重力方向を考慮した溶接継手の溶接条件を用いて動作を生成するようにしてもよい。 The welding motion generation step Step 7 is a step of generating a welding motion of the welding robot 1 (articulated arm 2) based on the three-dimensional model generated by the above-mentioned process. In the welding operation generation step Step 7, the inclination of the welding robot 1 is calculated using the data of the acceleration sensor, the inclination sensor, etc. arranged on the pedestal 3, and the operation is generated using the welding conditions of the welded joint in consideration of the direction of gravity. You may do so.

また、溶接動作生成工程Step7は、例えば、溶接ロボット1の姿勢の決定、多関節アーム2の動作・干渉の確認等の処理を行い、溶接開始位置までの移動、センシング動作、ギャップごとの溶接動作、退避位置までの移動等の動作データを作成する。なお、かかる溶接動作生成工程Step7は、多関節アームを備えた一般的なロボットの動作生成処理と実質的に同じであることから、ここでは詳細な説明を省略する。 Further, the welding operation generation step Step 7 performs processing such as determining the posture of the welding robot 1, confirming the operation / interference of the articulated arm 2, moving to the welding start position, sensing operation, and welding operation for each gap. , Create operation data such as movement to the retracted position. Since the welding motion generation step Step 7 is substantially the same as the motion generation process of a general robot provided with an articulated arm, detailed description thereof will be omitted here.

施工順序設定工程Step8は、溶接スラグの落下等を考慮して、例えば、縦方向の溶接を横方向の溶接よりも優先させたり、上方の溶接よりも下方の溶接を優先させたりすることによって、溶接する順序を設定する工程である。 In the construction order setting step Step8, in consideration of the drop of the welding slag, for example, the vertical welding is prioritized over the horizontal welding, or the lower welding is prioritized over the upper welding. This is the process of setting the welding order.

溶接作業工程Step9は、生成された溶接動作及び施工順序に基づいて溶接ロボット1により溶接する工程である。例えば、溶接ロボット1を所定の位置に配置し、溶接トーチ2wを開始位置まで移動させ、継手のセンシングをした後、ギャップ長に応じた溶接を行う。 The welding work step Step 9 is a step of welding by the welding robot 1 based on the generated welding operation and construction order. For example, the welding robot 1 is placed at a predetermined position, the welding torch 2w is moved to the start position, the joint is sensed, and then welding is performed according to the gap length.

上述した本実施形態に係る溶接ロボット1の動作自動生成方法によれば、3D計測センサ4を用いて溶接場所の三次元モデルを生成するようにしたことから、事前にCADデータを用いて溶接ロボット1の溶接動作を生成する必要がない。したがって、本実施形態によれば、溶接ロボット1の事前作業を削減し、現場で溶接ロボット1の動作を自動生成することができる。 According to the above-described method for automatically generating the operation of the welding robot 1 according to the present embodiment, since the 3D measurement sensor 4 is used to generate a three-dimensional model of the welding location, the welding robot uses CAD data in advance. It is not necessary to generate the welding operation of 1. Therefore, according to the present embodiment, the preliminary work of the welding robot 1 can be reduced, and the operation of the welding robot 1 can be automatically generated at the site.

また、本実施形態に係る溶接ロボット1の動作自動生成方法をコンピュータ等の演算装置に実行させるためのプログラムは、制御ボックス5内のSSD(Solid State Drive)やHDD(Hard disk drive)等の記憶装置に記憶されていてもよいし、制御ボックス5に配置された読取装置で読み取り可能な記録媒体に記録されていてもよいし、制御ボックス5とケーブルによって接続される外部制御ボックス側に記憶されていてもよいし、外部制御ボックス側の演算装置で実行されてもよい。また、プログラムは、インターネット等のネットワークを介して演算装置にインストール可能に構成されていてもよい。 Further, the program for causing an arithmetic unit such as a computer to execute the operation automatic generation method of the welding robot 1 according to the present embodiment is a storage of SSD (Solid State Drive), HDD (Hard disk drive), etc. in the control box 5. It may be stored in the device, may be recorded on a recording medium readable by the reader arranged in the control box 5, or may be stored in the external control box side connected to the control box 5 by a cable. It may be executed by the arithmetic unit on the external control box side. Further, the program may be configured to be installable in the arithmetic unit via a network such as the Internet.

記録媒体は、例えば、フラッシュメモリ等の半導体メモリが搭載されたUSB(Universal Serial Bus)メモリである。記録媒体は、磁気ディスク及び光学ディスクであってもよい。光学ディスクは、例えば、CD(Compact Disc)及びDVD(Digital Versatile Disc)である。 The recording medium is, for example, a USB (Universal Serial Bus) memory equipped with a semiconductor memory such as a flash memory. The recording medium may be a magnetic disk or an optical disk. Optical discs are, for example, CDs (Compact Discs) and DVDs (Digital Versailles Discs).

本発明は上述した実施形態に限定されず、本発明の趣旨を逸脱しない範囲で種々変更が可能であることは勿論である。 It goes without saying that the present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the spirit of the present invention.

1 溶接ロボット
2 多関節アーム
2t 回転台
2w 溶接トーチ
3 台座
4 3D計測センサ
5 制御ボックス
6 ハンドル
21 ベース
22 上腕
23 下腕
24 手首部
25 ツール部
31 把手
32 レーザーポインタ
33 脚部
Step1 セッティング工程
Step2 計測工程
Step3 点群処理工程
Step31 データ取得工程
Step32 座標変換工程
Step33 局所平面計算工程
Step34 ラベリング工程
Step35 形状抽出工程
Step36 無効領域抽出工程
Step37 想定面生成工程
Step4 計測確認工程
Step5 三次元モデル生成工程
Step51 抽出面合成工程
Step511 第一工程
Step512 第二工程
Step513 第三工程
Step514 第四工程
Step515 第五工程
Step516 第六工程
Step52 想定面合成工程
Step521 第一工程
Step522 第二工程
Step523 第三工程
Step524 第四工程
Step525 第五工程
Step53 板厚形状確認工程
Step54 影部形状復元工程
Step6 作業設定工程
Step7 溶接動作生成工程
Step8 施工順序設定工程
Step9 溶接作業工程

1 Welding robot 2 Articulated arm 2t Rotating table 2w Welding torch 3 Pedestal 4 3D measurement sensor 5 Control box 6 Handle 21 Base 22 Upper arm 23 Lower arm 24 Wrist 25 Tool part 31 Handle 32 Laser pointer 33 Leg part Step1 Setting process Step2 Measurement Process Step3 Point group processing process Step31 Data acquisition process Step32 Coordinate conversion process Step33 Local plane calculation process Step34 Labeling process Step35 Shape extraction process Step36 Invalid region extraction process Step37 Assumed surface generation process Step4 Measurement confirmation process Step5 Three-dimensional model generation process Step51 Extraction surface synthesis Step 511 1st step Step 512 2nd step Step 513 3rd step Step 514 4th step Step 515 5th step Step 516 6th step Step 52 Assumed surface synthesis step Step 521 1st step Step 522 2nd step Step 523 3rd step Step 524 4th step Step 525 Step53 Plate thickness shape confirmation process Step54 Shadow part shape restoration process Step6 Work setting process Step7 Welding operation generation process Step8 Construction order setting process Step9 Welding work process

本発明によれば、所定の溶接場所に配置された溶接ロボットの溶接動作を自動的に生成する溶接ロボットの動作自動生成方法であって、3D計測センサを所定の場所に配置するセッティング工程と、前記溶接場所を複数の計測領域に分割して前記3D計測センサで計測する計測工程と、計測された点群データのうち平面として認識可能な点群データから抽出面を生成し、点群データが得られない認識不能な無効領域から想定面を生成する点群処理工程と、前記抽出面及び前記想定面から前記溶接場所の三次元モデルを生成する三次元モデル生成工程と、前記三次元モデルを用いて溶接ロボットの溶接動作を生成する溶接動作生成工程と、を含み、前記点群処理工程は、前記計測工程ごとに処理される、ことを特徴とする溶接ロボットの動作自動生成方法が提供される。
According to the present invention, there is a method for automatically generating a welding motion of a welding robot placed at a predetermined welding place, which is a setting process for arranging a 3D measurement sensor at a predetermined place. The welding site is divided into a plurality of measurement areas and measured by the 3D measurement sensor, and an extraction surface is generated from the point group data that can be recognized as a plane among the measured point group data, and the point group data is generated. A point group processing step for generating an assumed surface from an unrecognizable invalid region that cannot be obtained, a three-dimensional model generation step for generating a three-dimensional model of the welding location from the extracted surface and the assumed surface, and the three-dimensional model. Provided is an automatic motion generation method for a welding robot, comprising a welding motion generation step of generating a welding motion of a welding robot using the welding robot , wherein the point group processing step is processed for each measurement step. Will be done.

また、本発明によれば、所定の溶接場所に配置された溶接ロボットの溶接動作を自動的に生成する溶接ロボットの動作自動生成方法であって、3D計測センサを所定の場所に配置するセッティング工程と、前記溶接場所を前記3D計測センサで計測する計測工程と、計測された点群データのうち平面として認識可能な点群データから抽出面を生成し、点群データが得られない認識不能な無効領域から想定面を生成する点群処理工程と、前記抽出面及び前記想定面から前記溶接場所の三次元モデルを生成する三次元モデル生成工程と、前記三次元モデルを用いて溶接ロボットの溶接動作を生成する溶接動作生成工程と、を含み、前記点群処理工程は、前記無効領域が前記抽出面に対して垂直な平面により形成されていると認識して前記想定面を生成する、ことを特徴とする溶接ロボットの動作自動生成方法が提供される。Further, according to the present invention, it is a method of automatically generating a welding motion of a welding robot placed at a predetermined welding place, and is a setting step of arranging a 3D measurement sensor at a predetermined place. And, the measurement process of measuring the welding place with the 3D measurement sensor and the point group data that can be recognized as a plane among the measured point group data are generated to generate an extracted surface, and the point group data cannot be obtained and cannot be recognized. A point group processing step that generates an assumed surface from an invalid region, a three-dimensional model generation step that generates a three-dimensional model of the welding location from the extracted surface and the assumed surface, and welding of a welding robot using the three-dimensional model. The point group processing step includes a welding operation generation step for generating an motion, and the point group processing step recognizes that the invalid region is formed by a plane perpendicular to the extraction surface and generates the assumed surface. A method for automatically generating an operation of a welding robot is provided.

前記三次元モデル生成工程は、前記抽出面をロボット座標系に変換して合成する抽出面合成工程と、前記想定面をロボット座標系に変換して合成する想定面合成工程と、を含んでいてもよい。The three-dimensional model generation step includes an extraction surface synthesis step of converting the extraction surface into a robot coordinate system and synthesizing it, and a hypothetical surface synthesis step of converting the assumption surface into a robot coordinate system and synthesizing the surface. May be good.

前記三次元モデル生成工程は、鋼板の板厚に相当する幅の平面を鋼板の端面として処理する板厚形状確認工程を含んでいてもよい。The three-dimensional model generation step may include a plate thickness shape confirmation step of processing a flat surface having a width corresponding to the plate thickness of the steel plate as an end face of the steel plate.

前記三次元モデル生成工程は、前記抽出面及び前記想定面が形成されない影部を抽出し復元する影部形状復元工程を含んでいてもよい。The three-dimensional model generation step may include a shadow portion shape restoration step of extracting and restoring a shadow portion on which the extraction surface and the assumed surface are not formed.

前記溶接動作生成工程は、前記溶接ロボットが配置された場所の傾きを考慮して前記溶接動作を生成することを含んでいてもよい。The welding motion generation step may include generating the welding motion in consideration of the inclination of the place where the welding robot is arranged.

また、本発明によれば、所定の溶接場所に配置された溶接ロボットの溶接動作を自動的に生成する溶接ロボットの動作自動生成システムであって、前記溶接場所を複数の計測領域に分割して計測する3D計測センサと、前記3D計測センサのデータに基づいて前記溶接場所の三次元モデルを生成する演算装置と、を備え、前記演算装置は、前記3D計測センサの計測処理ごとに、計測された点群データのうち平面として認識可能な点群データから抽出面を生成し、点群データが得られない認識不能な無効領域から想定面を生成し、前記抽出面及び前記想定面から前記溶接場所の三次元モデルを生成し、前記三次元モデルを用いて溶接ロボットの溶接動作を生成するように構成されている、ことを特徴とする溶接ロボットの動作自動生成システムが提供される。Further, according to the present invention, it is an motion automatic generation system of a welding robot that automatically generates a welding motion of a welding robot arranged at a predetermined welding place, and the welding place is divided into a plurality of measurement areas. A 3D measurement sensor for measurement and a calculation device for generating a three-dimensional model of the welding location based on the data of the 3D measurement sensor are provided, and the calculation device is measured for each measurement process of the 3D measurement sensor. An extracted surface is generated from the point group data that can be recognized as a plane among the point group data, an assumed surface is generated from an unrecognizable invalid region where the point group data cannot be obtained, and the welding is performed from the extracted surface and the assumed surface. Provided is an automatic motion generation system for a welding robot, which is configured to generate a three-dimensional model of a place and to generate a welding motion of the welding robot using the three-dimensional model.

また、本発明によれば、所定の溶接場所に配置された溶接ロボットの溶接動作を自動的に生成する溶接ロボットの動作自動生成システムであって、前記溶接場所を計測する3D計測センサと、前記3D計測センサのデータに基づいて前記溶接場所の三次元モデルを生成する演算装置と、を備え、前記演算装置は、計測された点群データのうち平面として認識可能な点群データから抽出面を生成し、点群データが得られない認識不能な無効領域から想定面を前記抽出面に対して垂直な平面により形成されていると認識して生成し、前記抽出面及び前記想定面から前記溶接場所の三次元モデルを生成し、前記三次元モデルを用いて溶接ロボットの溶接動作を生成するように構成されている、ことを特徴とする溶接ロボットの動作自動生成システムが提供される。

Further, according to the present invention, it is a motion automatic generation system of a welding robot that automatically generates a welding motion of a welding robot placed at a predetermined welding place, and is a 3D measurement sensor for measuring the welding place. A calculation device that generates a three-dimensional model of the welding location based on the data of the 3D measurement sensor is provided, and the calculation device is an extraction surface from the point group data that can be recognized as a plane among the measured point group data. Is generated by recognizing that the assumed surface is formed by a plane perpendicular to the extraction surface from the unrecognizable invalid region where the point group data cannot be obtained, and the above is generated from the extraction surface and the assumption surface. Provided is an automatic motion generation system for a welding robot, which is configured to generate a three-dimensional model of a welding location and generate a welding motion of the welding robot using the three-dimensional model.

Claims (9)

所定の溶接場所に配置された溶接ロボットの溶接動作を自動的に生成する溶接ロボットの動作自動生成方法であって、
3D計測センサを所定の場所に配置するセッティング工程と、
前記溶接場所を複数の計測領域に分割して前記3D計測センサで計測する計測工程と、
計測された点群データのうち平面として認識可能な点群データから抽出面を生成し、点群データが得られない認識不能な無効領域から想定面を生成する点群処理工程と、
前記抽出面及び前記想定面から前記溶接場所の三次元モデルを生成する三次元モデル生成工程と、
前記三次元モデルを用いて溶接ロボットの溶接動作を生成する溶接動作生成工程と、
を含むことを特徴とする溶接ロボットの動作自動生成方法。
It is a method of automatically generating the welding motion of a welding robot that automatically generates the welding motion of the welding robot placed at a predetermined welding place.
The setting process to place the 3D measurement sensor in place, and
A measurement process in which the welding location is divided into a plurality of measurement areas and measured by the 3D measurement sensor, and
A point cloud processing step that generates an extracted surface from the point cloud data that can be recognized as a plane from the measured point cloud data, and generates an assumed surface from an unrecognizable invalid area where the point cloud data cannot be obtained.
A three-dimensional model generation step of generating a three-dimensional model of the welding location from the extracted surface and the assumed surface, and
A welding motion generation process for generating a welding motion of a welding robot using the three-dimensional model, and a welding motion generation process.
A method for automatically generating motions of a welding robot, which comprises.
前記点群処理工程は、前記計測工程ごとに処理される、請求項1に記載の溶接ロボットの動作自動生成方法。 The method for automatically generating an operation of a welding robot according to claim 1, wherein the point cloud processing step is processed for each measurement step. 前記セッティング工程は、前記複数の計測領域が隣接する計測領域と重複した領域を有するように処理される、請求項1に記載の溶接ロボットの動作自動生成方法。 The method for automatically generating an operation of a welding robot according to claim 1, wherein the setting step is processed so that the plurality of measurement areas have an area overlapping with an adjacent measurement area. 前記点群処理工程は、前記無効領域が前記抽出面に対して垂直な平面により形成されていると認識して前記想定面を生成する、請求項1に記載の溶接ロボットの動作自動生成方法。 The method for automatically generating an operation of a welding robot according to claim 1, wherein the point cloud processing step recognizes that the invalid region is formed by a plane perpendicular to the extraction surface and generates the assumed surface. 前記三次元モデル生成工程は、前記抽出面をロボット座標系に変換して合成する抽出面合成工程と、前記想定面をロボット座標系に変換して合成する想定面合成工程と、を含む、請求項1に記載の溶接ロボットの動作自動生成方法。 The three-dimensional model generation step includes a claim surface synthesis step of converting the extracted surface into a robot coordinate system and synthesizing it, and a hypothetical surface synthesis step of converting the assumed surface into a robot coordinate system and synthesizing the surface. Item 1. The method for automatically generating an operation of a welding robot according to Item 1. 前記三次元モデル生成工程は、鋼板の板厚に相当する幅の平面を鋼板の端面として処理する板厚形状確認工程を含む、請求項1に記載の溶接ロボットの動作自動生成方法。 The method for automatically generating an operation of a welding robot according to claim 1, wherein the three-dimensional model generation step includes a plate thickness shape confirmation step of processing a flat surface having a width corresponding to the plate thickness of the steel plate as an end face of the steel plate. 前記三次元モデル生成工程は、前記抽出面及び前記想定面が形成されない影部を抽出し復元する影部形状復元工程を含む、請求項1に記載の溶接ロボットの動作自動生成方法。 The method for automatically generating an operation of a welding robot according to claim 1, wherein the three-dimensional model generation step includes a shadow portion shape restoration step of extracting and restoring a shadow portion on which the extraction surface and the assumed surface are not formed. 前記溶接動作生成工程は、前記溶接ロボットが配置された場所の傾きを考慮して前記溶接動作を生成することを含む、請求項1に記載の溶接ロボットの動作自動生成方法。 The method for automatically generating an operation of a welding robot according to claim 1, wherein the welding operation generating step includes generating the welding operation in consideration of an inclination of a place where the welding robot is arranged. 所定の溶接場所に配置された溶接ロボットの溶接動作を自動的に生成する溶接ロボットの動作自動生成システムであって、
前記溶接場所を複数の計測領域に分割して計測する3D計測センサと、
前記3D計測センサのデータに基づいて前記溶接場所の三次元モデルを生成する演算装置と、を備え、
前記演算装置は、計測された点群データのうち平面として認識可能な点群データから抽出面を生成し、点群データが得られない認識不能な無効領域から想定面を生成し、前記抽出面及び前記想定面から前記溶接場所の三次元モデルを生成し、前記三次元モデルを用いて溶接ロボットの溶接動作を生成するように構成されている、
ことを特徴とする溶接ロボットの動作自動生成システム。

It is a welding robot motion automatic generation system that automatically generates the welding motion of a welding robot placed at a predetermined welding location.
A 3D measurement sensor that divides the welding location into a plurality of measurement areas and measures them.
It is equipped with an arithmetic unit that generates a three-dimensional model of the welding location based on the data of the 3D measurement sensor.
The arithmetic unit generates an extraction surface from the point cloud data that can be recognized as a plane among the measured point cloud data, and generates an assumed surface from an unrecognizable invalid area where the point cloud data cannot be obtained, and the extraction surface. And, a three-dimensional model of the welding place is generated from the assumed surface, and the welding motion of the welding robot is generated by using the three-dimensional model.
An automatic motion generation system for welding robots.

JP2020116322A 2020-07-06 2020-07-06 Welding robot motion automatic generation method and motion automatic generation system Active JP6985464B1 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2020116322A JP6985464B1 (en) 2020-07-06 2020-07-06 Welding robot motion automatic generation method and motion automatic generation system
CN202180047652.9A CN115768581A (en) 2020-07-06 2021-06-28 Automatic action generation method and automatic action generation system for welding robot
KR1020237003745A KR20230033716A (en) 2020-07-06 2021-06-28 Welding robot motion automatic generation method and motion automatic generation system
PCT/JP2021/024263 WO2022009710A1 (en) 2020-07-06 2021-06-28 Operation automatic generation method and operation automatic generation system for welding robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020116322A JP6985464B1 (en) 2020-07-06 2020-07-06 Welding robot motion automatic generation method and motion automatic generation system

Publications (2)

Publication Number Publication Date
JP6985464B1 JP6985464B1 (en) 2021-12-22
JP2022014138A true JP2022014138A (en) 2022-01-19

Family

ID=79193297

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020116322A Active JP6985464B1 (en) 2020-07-06 2020-07-06 Welding robot motion automatic generation method and motion automatic generation system

Country Status (4)

Country Link
JP (1) JP6985464B1 (en)
KR (1) KR20230033716A (en)
CN (1) CN115768581A (en)
WO (1) WO2022009710A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023176951A (en) * 2022-06-01 2023-12-13 リンクウィズ株式会社 Work route generation system and work route generation method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004001226A (en) * 2003-07-18 2004-01-08 Jfe Engineering Kk Automatic preparation system for welding robot operation program
JP2005271103A (en) * 2004-03-23 2005-10-06 Tookin:Kk Working robot and calibration method thereof
JP2008020993A (en) * 2006-07-11 2008-01-31 Tookin:Kk Teaching data preparation device for working robot
JP2010519056A (en) * 2007-02-19 2010-06-03 フラウンホッファー−ゲゼルシャフト ツァー フェーデルング デア アンゲバンテン フォルシュング エー ファー Method and apparatus for controlling a robot for welding a workpiece
JP2012232370A (en) * 2011-04-28 2012-11-29 Seiko Epson Corp Robot controller, simplified installation type robot, and method of controlling simplified installation type robot

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004001226A (en) * 2003-07-18 2004-01-08 Jfe Engineering Kk Automatic preparation system for welding robot operation program
JP2005271103A (en) * 2004-03-23 2005-10-06 Tookin:Kk Working robot and calibration method thereof
JP2008020993A (en) * 2006-07-11 2008-01-31 Tookin:Kk Teaching data preparation device for working robot
JP2010519056A (en) * 2007-02-19 2010-06-03 フラウンホッファー−ゲゼルシャフト ツァー フェーデルング デア アンゲバンテン フォルシュング エー ファー Method and apparatus for controlling a robot for welding a workpiece
JP2012232370A (en) * 2011-04-28 2012-11-29 Seiko Epson Corp Robot controller, simplified installation type robot, and method of controlling simplified installation type robot

Also Published As

Publication number Publication date
JP6985464B1 (en) 2021-12-22
WO2022009710A1 (en) 2022-01-13
KR20230033716A (en) 2023-03-08
CN115768581A (en) 2023-03-07

Similar Documents

Publication Publication Date Title
JP7439073B2 (en) System and method for welding path generation
Yin et al. Development and calibration of an integrated 3D scanning system for high-accuracy large-scale metrology
JP4533659B2 (en) Apparatus and method for generating map image by laser measurement
US20130060369A1 (en) Method and system for generating instructions for an automated machine
JP6380667B2 (en) Shape measuring apparatus and shape measuring method
US20130054025A1 (en) Information processing apparatus, control method for information processing apparatus, and recording medium
JP2004508954A (en) Positioning device and system
JP2014240837A (en) Automatic measurement method for dimensional data with laser tracker
KR20190055777A (en) Robot control method and apparatus
CN110831718A (en) Apparatus and method for automatic seam welding of workpieces comprising a base plate with a pattern of upright profiles
CN107234634B (en) Collision protection in a robot manufacturing environment
JP6985464B1 (en) Welding robot motion automatic generation method and motion automatic generation system
Kinnell et al. Autonomous metrology for robot mounted 3D vision systems
JP7215056B2 (en) Construction work device and construction work method
CN109983299A (en) The measuring system and method for industrial robot
JP5629883B2 (en) Shape measuring apparatus, shape measuring method, and shape measuring program
JP7332015B2 (en) Construction work device and construction work method
WO2023205209A1 (en) Autonomous assembly robots
JP7328437B2 (en) Three-dimensional measuring device that generates positional information of three-dimensional points
JP7365567B2 (en) Measurement system, measurement device, measurement method and measurement program
Yu et al. Multiseam tracking with a portable robotic welding system in unstructured environments
WO2023248353A1 (en) Device for acquiring position data pertaining to workpiece, control device, robot system, method, and computer program
WO2023188407A1 (en) Robot system
Na et al. Robotic Path Planning for Inspection of Complex-Shaped Objects
KR101925857B1 (en) Method for measuring 3-dimensional point coordinates indicated by laser beam for robot welding machine

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210913

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211105

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211125

R150 Certificate of patent or registration of utility model

Ref document number: 6985464

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150