JPH09183087A - Working robot device - Google Patents

Working robot device

Info

Publication number
JPH09183087A
JPH09183087A JP34239595A JP34239595A JPH09183087A JP H09183087 A JPH09183087 A JP H09183087A JP 34239595 A JP34239595 A JP 34239595A JP 34239595 A JP34239595 A JP 34239595A JP H09183087 A JPH09183087 A JP H09183087A
Authority
JP
Japan
Prior art keywords
work
robot
job
welding
search
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP34239595A
Other languages
Japanese (ja)
Inventor
Tatsu Okabe
達 岡部
Matsuo Nose
松男 野瀬
Makoto Nomura
真 野村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Komatsu Ltd
Original Assignee
Komatsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Komatsu Ltd filed Critical Komatsu Ltd
Priority to JP34239595A priority Critical patent/JPH09183087A/en
Publication of JPH09183087A publication Critical patent/JPH09183087A/en
Pending legal-status Critical Current

Links

Landscapes

  • Numerical Control (AREA)
  • Manipulator (AREA)
  • Butt Welding And Welding Of Specific Article (AREA)

Abstract

PROBLEM TO BE SOLVED: To perform welding operation at low cost and high accuracy without teaching by inputting work data into an online teach program so as to prepare a robot welding line search job and a welding job. SOLUTION: First work data is acquired (S110). Next a sensor controller prepares an operational job based on the positional data on a diaphragm (S120), and performs a search operation (S130). Then it specifies the original position of the diaphragm in Y-direction (S140). In addition, it prepares a search job to search and measure the position and shape of welding lines by a sensor unit (S150). A robot controller executes the search job so as to detect the position and shape of the welding lines (S160). The sensor controller prepares a welding job based on the welding information (S170). The robot controller performs welding operation (S180).

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】この発明はワーク表面各点の
位置を検出するためのセンサを溶接ロボット等の作業ロ
ボットに搭載し、このセンサを用いて前記ワークをセン
シングする作業ロボット装置に関し、特に前記センサに
よるセンシングから得たワークデータに基づいてセンシ
ング作業の際のサーチジョブおよび実作業の際の作業ジ
ョブを自動作成することによりティーチング作業を完全
に省略できるようにした作業ロボット装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a work robot apparatus in which a sensor for detecting the position of each point on the surface of a work is mounted on a work robot such as a welding robot, and the sensor is used to sense the work. The present invention relates to a work robot apparatus capable of completely omitting teaching work by automatically creating a search job for sensing work and a work job for actual work based on work data obtained from sensing by a sensor.

【0002】[0002]

【従来の技術および発明が解決しようとする課題】溶接
ロボットにおいては、ロボットのアーム先端に取り付け
られた溶接トーチを溶接線に沿って移動させることによ
って溶接作業が実行される。
2. Description of the Related Art In a welding robot, welding work is performed by moving a welding torch attached to the arm tip of the robot along a welding line.

【0003】この溶接の際の教示方式としては、ティー
チングプレイバック方式とオフライン教示方式がある
が、最近では、作業効率、コスト的な面で有利なオフラ
イン教示方式が主流となっている。
As a teaching method for this welding, there are a teaching playback method and an off-line teaching method, but recently, an off-line teaching method which is advantageous in terms of work efficiency and cost has become mainstream.

【0004】上記のオフライン教示方式では、ワークの
位置、形状データはその標準的な値がオペレータによっ
て入力されるために、個々のワークの設置誤差やワーク
自体が持つ寸法ばらつきに対処すべく、実際の溶接に先
だって、溶接線の位置や開先形状を溶接ロボットに装着
したレーザ変位センサなどのセンサを用いてセンシング
し、このセンシングデータに基づいてオフライン教示に
よって得られた溶接トーチの位置、軌跡データを補正し
て実際の溶接を行うといった手法がとられている。
In the above-mentioned off-line teaching method, since the standard values of the work position and shape data are input by the operator, in order to cope with the setting error of each work and the dimensional variation of the work itself, Prior to welding, the welding line position and groove shape are sensed using a sensor such as a laser displacement sensor attached to the welding robot, and the welding torch position and trajectory data obtained by offline teaching based on this sensing data. A method is adopted in which the welding is corrected to perform actual welding.

【0005】この種のティーチングが行われる溶接ロボ
ットに関する従来技術として、特開平6−285636
号公報がある。
Japanese Patent Laid-Open No. 6-285636 discloses a conventional technique relating to a welding robot that performs this type of teaching.
There is an official gazette.

【0006】この従来技術は鉄骨仕口の自動溶接に関す
るもので、メーカでの出荷前に鉄骨仕口の基本形状及び
サイズについてのロボット動作と、実際の溶接前に行わ
れる鉄骨仕口の位置及び開先形状のセンシングに関する
ロボットの動作とが予めティーチングされている。ユー
ザ側では、溶接の作業の前に溶接の対象となる鉄骨仕口
の形状、開先の形状に関する数値データを人手入力し、
この入力された数値データを用いて先に記憶されている
センシング時のティーチングデータを修正してセンシン
グ時の動作ジョブをコンピュータ上で自動作成する。そ
して、この動作ジョブに従って溶接ロボットを駆動して
鉄骨仕口の位置および開先形状をセンシングする。そし
て、このセンシングデータに基づいて溶接ロボットの溶
接ジョブをコンピュータ上で自動作成する。
This prior art relates to automatic welding of a steel frame joint, and the robot operation regarding the basic shape and size of the steel frame joint before shipment by the manufacturer and the position and position of the steel frame joint performed before actual welding The operation of the robot regarding the sensing of the groove shape is taught in advance. On the user side, before the welding work, manually input the numerical data on the shape of the steel frame joint to be welded and the shape of the groove,
Using the input numerical data, the previously stored teaching data for sensing is corrected to automatically create an operation job for sensing on the computer. Then, the welding robot is driven according to this operation job to sense the position and groove shape of the steel frame joint. Then, a welding job of the welding robot is automatically created on a computer based on this sensing data.

【0007】このようにこの従来技術においては、鉄骨
仕口に関する数値データの入力を人手で行うようにすれ
ば、後はコンピュータによって実際に溶接作業を行う為
のジョブが自動作成される。
As described above, according to this conventional technique, if the numerical data regarding the steel frame joint is manually input, a job for actual welding work is automatically created by a computer.

【0008】しかし、この従来技術では、依然ワーク形
状に関する数値データは人手による入力を行っているの
で、次のような欠点がある。
However, in this conventional technique, since the numerical data regarding the work shape is still manually input, it has the following drawbacks.

【0009】(1)完全なティーチレスによる溶接作業を
なし得ない。
(1) Welding work cannot be completed without a complete teach.

【0010】(2)コンピュータ操作を知らない未熟なオ
ペレータにはデータ入力をなし得ない。
(2) Data cannot be input to an inexperienced operator who does not know computer operation.

【0011】(3)ワークの実寸測定作業が必要となる。(3) Work for measuring the actual size of the work is required.

【0012】(4)データ入力ミスによるロボットの作業
ミスが発生する。
(4) A work error of the robot occurs due to a data input error.

【0013】そこで、特開平7−230310号公報に
おいては、鉄鋼構造物等のワークを溶接する溶接ロボッ
トにおいて、オフラインプログラマがCADで作成した
図面データから必要なワークデータを取得し、該取得し
たワークデータに基づいて溶接を行わせるためのロボッ
トプログラムを自動作成するようにしている。
Therefore, in Japanese Patent Laid-Open No. 7-230310, a welding robot for welding a work such as a steel structure acquires necessary work data from drawing data created by CAD by an off-line programmer, and the acquired work is acquired. A robot program for welding is automatically created based on the data.

【0014】しかしこの従来技術では、ユーザはワーク
データを出力できる高価なCADを持つ必要があり、コ
スト面で多大な負担をユーザに強いることになり、また
実際のワークに対するセンシング作業を行っていないの
で、ワーク設置ミスやワークの寸法誤差によるロボット
とワークとの干渉や溶接ミスが発生するという問題があ
る。
However, in this conventional technique, the user needs to have an expensive CAD capable of outputting work data, which imposes a heavy burden on the user in terms of cost, and does not perform sensing work for an actual work. Therefore, there is a problem that interference between the robot and the work or welding error occurs due to a work installation error or a work size error.

【0015】この発明はこのような実情に鑑みてなされ
たもので、低コストで高精度の溶接作業を完全なティー
チレスでなし得る溶接ロボット装置を提供することを目
的とする。
The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a welding robot apparatus which can perform a highly accurate welding operation at a low cost without a complete teach.

【0016】[0016]

【課題を解決するための手段】この発明では、ワーク表
面各点の位置を検出するためのセンサを作業ロボットに
搭載し、このセンサを用いて前記ワークをセンシングす
る作業ロボット装置において、前記センサによる前記ワ
ークのセンシング結果に基づき、前記ワークの形状デー
タを決定するための作業ロボットの動きを指令するサー
チ用ロボット動作ジョブを順次自動生成するワークサー
チジョブ作成手段と、このワークサーチジョブ作成手段
によって順次作成されるサーチ用ロボット動作ジョブに
従って前記作業ロボットを駆動することにより前記セン
サによる前記ワークのセンシング動作を実行して当該ワ
ークの形状データを取得する第1の制御手段と、該取得
したワーク形状データに基づいて前記ワークの作業線の
位置、形状をサーチするためのサーチ用ロボット動作ジ
ョブを自動生成する作業線サーチジョブ作成手段と、こ
のサーチジョブ作成手段によって作成されたサーチ用ロ
ボット動作ジョブに従って前記作業ロボットを駆動する
ことにより前記距離センサによる作業線のサーチ動作を
行う第2の制御手段と、この作業線のサーチ結果および
前記ワーク形状データに基づいて当該ワークに対する作
業時のロボット動作ジョブを自動作成する作業ジョブ作
成手段と、この作業ジョブ作成手段によって作成された
ロボット動作ジョブに従って前記作業ロボットを駆動す
ることにより所定の作業を実行する第3の制御手段とを
具えるようにしている。
According to the present invention, a work robot is provided with a sensor for detecting the position of each point on the surface of a work, and the work robot uses this sensor to sense the work. Based on the result of sensing the work, a work search job creating unit that sequentially automatically creates a search robot operation job for instructing the movement of the work robot for determining the shape data of the work, and the work search job creating unit sequentially. First control means for executing the sensing operation of the work by the sensor to obtain the shape data of the work by driving the work robot according to the created search robot operation job, and the acquired work shape data The position and shape of the work line of the work is Work line search job creating means for automatically generating a search robot operation job for performing the operation, and driving the work robot according to the search robot operation job created by the search job creating means The second control means for performing a search operation, the work job creating means for automatically creating a robot operation job for the work on the basis of the work line search result and the work shape data, and the work job creating means Third control means for executing a predetermined work by driving the work robot according to the created robot operation job.

【0017】かかる発明によれば、まず初期ワークサー
チジョブに基づくワークのセンシングによって当該ワー
クの形状データを一部取得する。そして、この取得した
ワーク形状データに基づいて次のワークサーチ動作のた
めのワークサーチジョブを自動作成する。次に、この作
成されたワークサーチジョブに従ってワークをセンシン
グすることにより当該ワークの形状データをさらに取得
する。つぎに、これら取得したワーク形状データに基づ
いて次のワークサーチ動作のためのワークサーチジョブ
をさらに自動作成する。このような処理を繰り返すこと
により、必要なワーク形状データを全て取得する。
According to this invention, first, part of the shape data of the work is acquired by sensing the work based on the initial work search job. Then, a work search job for the next work search operation is automatically created based on the acquired work shape data. Next, the shape data of the work is further acquired by sensing the work according to the created work search job. Next, a work search job for the next work search operation is further automatically created based on these acquired work shape data. By repeating such processing, all necessary work shape data is acquired.

【0018】つぎに、このようにして取得したワーク形
状データに基づいて前記ワークの作業線の位置、形状を
サーチするためのロボット動作ジョブを自動生成する。
そして、この生成されたサーチジョブに従ってロボット
を駆動することにより前記センサによる作業線のサーチ
動作を行い、この作業線のサーチ結果および前記取得し
たワーク形状データに基づいて当該ワークに対する作業
時のロボット動作ジョブを自動作成する。そして、該作
成されたロボット動作ジョブに従って前記作業ロボット
を駆動することにより所定の作業を実行する
Next, a robot operation job for searching the position and shape of the work line of the work is automatically generated based on the work shape data thus obtained.
Then, by driving the robot in accordance with the generated search job, the work line is searched by the sensor, and the robot motion during work on the work is performed based on the search result of the work line and the acquired work shape data. Create a job automatically. Then, a predetermined work is performed by driving the work robot according to the created robot operation job.

【0019】[0019]

【発明の実施の形態】以下この発明の実施例を添付図面
に従って詳細に説明する。
Embodiments of the present invention will be described below in detail with reference to the accompanying drawings.

【0020】図2はこの発明が適用される溶接ロボット
システムの概略構成例を示すもので、図3はそのロボッ
ト近傍を拡大して示したものである。
FIG. 2 shows an example of a schematic configuration of a welding robot system to which the present invention is applied, and FIG. 3 is an enlarged view showing the vicinity of the robot.

【0021】これら図2、図3において、溶接ロボット
1(この場合は6軸多関節ロボット)の先端には溶接ト
ーチ10が取り付けられ、さらにこの溶接トーチ10の
近傍には、ワーク(この場合は鉄骨仕口)20のワーク
データ(形状、寸法)と、溶接線の位置及び形状を検出
するセンサユニット30が装着されている。
2 and 3, a welding torch 10 is attached to the tip of the welding robot 1 (in this case, a 6-axis articulated robot), and a work (in this case, a workpiece) is provided near the welding torch 10. The work data (shape, size) of the steel frame joint 20 and the sensor unit 30 for detecting the position and shape of the welding line are mounted.

【0022】ポジショナ70はワーク20を所定の位置
に支持固定するものであり、必要に応じてワーク20を
回転する機能をもっている。なお、センサユニット30
は溶接トーチ10に対し着脱自在となっており、センシ
ング時のみ溶接ロボット1に装着される。
The positioner 70 supports and fixes the work 20 at a predetermined position, and has a function of rotating the work 20 as needed. The sensor unit 30
Is attachable to and detachable from the welding torch 10 and is attached to the welding robot 1 only during sensing.

【0023】センサユニット30は、ワーク表面各点の
位置を検出するためのセンサ31と、このセンサ31に
連結されて溶接トーチ10を把持する把持機構32とで
構成されている。
The sensor unit 30 comprises a sensor 31 for detecting the position of each point on the surface of the work, and a gripping mechanism 32 connected to the sensor 31 for gripping the welding torch 10.

【0024】この場合センサ31としては、ワーク表面
までの距離を計測する非接触式の距離センサ、またはこ
の距離センサと超音波センサの切替えによるもの、また
は接触式の距離センサ(タッチセンサ)等が考えられ、
センサ31によって検出された距離データはセンサコン
トローラ50に出力される。
In this case, the sensor 31 is a non-contact type distance sensor for measuring the distance to the surface of the work, or a switch of the distance sensor and the ultrasonic sensor, or a contact type distance sensor (touch sensor). Thought,
The distance data detected by the sensor 31 is output to the sensor controller 50.

【0025】センサコントローラ50では、センサ31
の出力を基に、ワークサーチジョブ(ワークの形状、位
置をセンシングする際のロボットの動作を制御するプロ
グラム)、溶接線サーチジョブ(溶接線の位置、形状を
センシングする際のロボットの動作を制御するプログラ
ム)、および溶接ジョブ(実際の溶接時のロボットの動
作を制御するためのプログラム)を作成し、これらのジ
ョブをロボットコントローラ60に転送する。
In the sensor controller 50, the sensor 31
Based on the output of, the work search job (a program that controls the robot operation when sensing the shape and position of the work), the welding line search job (the robot operation when sensing the position and shape of the welding line) Program) and a welding job (a program for controlling the operation of the robot during actual welding) are created, and these jobs are transferred to the robot controller 60.

【0026】ロボットコントローラ60は、センサコン
トローラ50から転送されたジョブに従って溶接ロボッ
ト1を駆動制御する。
The robot controller 60 drives and controls the welding robot 1 according to the job transferred from the sensor controller 50.

【0027】この実施例では、ワーク20として鉄骨仕
口を対象としており、この鉄骨仕口は、図4に示すよう
に、コラム(中央のボックス部)21に対し梁22(4
方に延びるH鋼部)を溶接接合することによって作成さ
れる。この鉄骨仕口の形状としては、梁の数によって4
方(図4(a))、3方(図4(b))、2方(図4(c))が
存在し、またそのほかに梁22とコラム21に段差があ
るもの(図4(d))などが存在する。仕口形状が4方で
ある場合、溶接線は、図4(a)に示すように、水平方向
に延びる計8本のフランジ溶接線23と、上下方向に延
びる計8本のウェブ溶接線24とで構成される。
In this embodiment, a steel frame joint is used as the work 20, and this steel frame joint is provided with a beam 22 (4) for a column (center box portion) 21 as shown in FIG.
It is created by welding and joining the H steel portion extending in one direction. Depending on the number of beams, the shape of this steel connection is 4
(Fig. 4 (a)), 3 (Fig. 4 (b)), 2 (Fig. 4 (c)), and the beam 22 and column 21 have a step (Fig. 4 (d)). )) And so on. In the case where the shape of the joint is four, as shown in FIG. 4 (a), the welding lines are a total of eight flange welding lines 23 extending in the horizontal direction and eight web welding lines 24 extending in the vertical direction. Composed of and.

【0028】また、この鉄骨仕口ワークは、コラム(ダ
イアフラム)21及び梁22毎に、その大きさ、寸法が
様々に異なるが、図4(d)に示した以下の寸法パラメー
タ等をワークデータとして測定することにより、溶接線
のサーチ動作および溶接作業を実行させるために必要な
ワークの形状、寸法を規定することができる。なお、ダ
イアフラムとはコラムの上下の板材の名称である。
In this steel frame joint work, the size and dimensions of the column (diaphragm) 21 and the beam 22 are variously different, but the following dimension parameters shown in FIG. By measuring as, it is possible to define the shape and dimensions of the work necessary for executing the welding line search operation and the welding operation. The diaphragm is the name of the plate material above and below the column.

【0029】(a)コラム高さ(Ch) (b)ダイアフラム幅(Dw) (c)段差量(Dh) (d)フランジ幅(Fw) (e)梁高さ(Fh) (f)梁オフセット(Of) したがって、これらのワークデータが判れば、これらワ
ークデータに基づいて前記センサユニット30を用いて
溶接線をサーチする際のロボットの動作を規定するサー
チジョブを作成することができる。またサーチ動作によ
って得られた溶接線の位置及び形状データと先のワーク
データを用いることにより、実際に溶接作業を行わせる
ための溶接ジョブを作成することもできる。
(A) Column height (Ch) (b) Diaphragm width (Dw) (c) Step amount (Dh) (d) Flange width (Fw) (e) Beam height (Fh) (f) Beam offset (Of) Therefore, if these work data are known, it is possible to create a search job that defines the operation of the robot when searching for a welding line using the sensor unit 30 based on these work data. Further, by using the position and shape data of the welding line obtained by the search operation and the above work data, it is possible to create a welding job for actually performing the welding work.

【0030】以下、図1に示すフローチャートに従って
上記システムによる溶接の際の動作手順を説明する。
The operation procedure for welding by the above system will be described below with reference to the flow chart shown in FIG.

【0031】まず、作業者によって溶接すべきワーク2
0がポジショナ70の所定の位置に設置される(ステッ
プ100)。
First, the work 2 to be welded by the worker
0 is set at a predetermined position of the positioner 70 (step 100).

【0032】これ以降の手順は、ロボット1による自動
作業となる。
The procedure thereafter is an automatic work by the robot 1.

【0033】[実施例1] 〈小刻みセンシング方式〉この実施例1では、ロボット
1の溶接トーチ付近に装着された距離センサとしてレー
ザセンサを用いた例について説明する。
[First Embodiment] <Small-Sensing Sensing Method> In this first embodiment, an example using a laser sensor as a distance sensor mounted near the welding torch of the robot 1 will be described.

【0034】レーザセンサは、レーザスポット光を投光
する投光器と、ワークで拡散反射した光をレンズを通し
て受光するPSD(光位置検出器)などで構成され、P
SDの変位出力を基に三角測量法によりワークまでの距
離を演算してこれをに出力する。
The laser sensor is composed of a projector for projecting a laser spot light and a PSD (optical position detector) for receiving the light diffusely reflected by the work through a lens.
Based on the displacement output of SD, the distance to the work is calculated by the triangulation method, and this is output to.

【0035】レーザセンサの利点としては、検出精度が
高くかつ指向性が良いために表面の局所的な形状検出に
適することがあり、その反面一般的に検出距離及び検出
範囲が短いという欠点がある。
The advantage of the laser sensor is that it is suitable for local shape detection on the surface because of its high detection accuracy and good directivity, but on the other hand, it has a drawback that the detection distance and detection range are generally short. .

【0036】まず、このセンサユニットによってワーク
20を走査センシングすることにより、ワーク20の寸
法や形状データ、即ちワークデータを取得する(ステッ
プ110)。
First, the workpiece 20 is scanned and sensed by the sensor unit to obtain the dimension and shape data of the workpiece 20, that is, the workpiece data (step 110).

【0037】この際の動作を図5〜図7を参照して説明
する。
The operation at this time will be described with reference to FIGS.

【0038】まず、図5(a)に示すように、ロボット1
を駆動することによりセンサユニット30でワーク20
を矢印Xで示すように走査する。すなわち、ワーク20
を把持しているポジショナ70の近傍からコラム21方
向に向かって梁22に沿って平行に走査する。
First, as shown in FIG. 5 (a), the robot 1
By driving the sensor unit 30
Are scanned as indicated by arrow X. That is, the work 20
The scanning is performed in parallel along the beam 22 from the vicinity of the positioner 70 holding the to the direction of the column 21.

【0039】この走査の際、ワークとロボットとの干渉
を考慮して次のような小刻みセンシングを実行する。特
に、ポジショナ70によって把持している梁とダイアフ
ラムに段差がある場合や、図8(a)に示すような斜め梁
25の場合は、ワークにロボットが干渉する可能性が高
い。
At the time of this scanning, the following small step sensing is executed in consideration of the interference between the work and the robot. In particular, when there is a step between the beam held by the positioner 70 and the diaphragm, or in the case of the oblique beam 25 as shown in FIG. 8A, the robot is likely to interfere with the work.

【0040】すなわち、図8(b)〜(d)に示すように、ま
ず走査の際にロボットがワークと干渉することのない高
さ位置(Z1)でセンシングを行い、この後順次走査パス
をワークに近づけていき(Z2、Z3)、ワークを検出で
きたときに、当該走査を終了する。
That is, as shown in FIGS. 8 (b) to 8 (d), sensing is first performed at a height position (Z1) where the robot does not interfere with the work during scanning, and then the sequential scanning path is performed. When the work can be detected by approaching the work (Z2, Z3), the scanning ends.

【0041】センサコントローラ50は、この走査によ
って得られたセンシングデータをデータ処理することに
よりポジショナ70で把持している梁の長さD1、ダイ
アフラムの幅Dwを検出すると共に、ロボットの座標系
における梁およびダイアフラムのX位置を検出する。す
なわち、図5(b)は、この走査によって得られるセンシ
ングデータの一例であるが、このセンシングデータに表
れているダイアフラム21と梁22との間の段差51、
走査速度、ロボットの走査開始点位置、終了点位置など
の情報を用いて上記梁の長さD1およびダイアフラムの
幅Dw、ダイアフラムのロボット座標系におけるX位置
が得られる。さらに、図5(b)のセンシングデータの縦
軸は、センサユニットからワークまでのZ方向の距離を
示すから、このセンシングデータからダイアフラム21
のZ方向位置を演算し、特定することができる。
The sensor controller 50 processes the sensing data obtained by this scanning to detect the length D1 of the beam held by the positioner 70 and the width Dw of the diaphragm, and at the same time, to detect the beam in the coordinate system of the robot. And the X position of the diaphragm is detected. That is, FIG. 5B is an example of the sensing data obtained by this scanning, and the step 51 between the diaphragm 21 and the beam 22 shown in this sensing data,
The beam length D1, the diaphragm width Dw, and the X position of the diaphragm in the robot coordinate system are obtained by using the information such as the scanning speed, the position where the robot starts scanning, and the position where the robot ends. Furthermore, since the vertical axis of the sensing data in FIG. 5 (b) indicates the distance in the Z direction from the sensor unit to the work, the diaphragm 21 is calculated from this sensing data.
The position in the Z direction can be calculated and specified.

【0042】次に、センサコントローラ50は上記走査
によって得られたダイアフラム21の位置データを基
に、図6(a)の矢印Yに示すようなサーチ動作のための
動作ジョブを作成し(図1ステップ120)、該作成し
た動作ジョブをロボットコントローラ60に転送するこ
とによりロボット1に図6(a)に示すようなサーチ動作
を実行させる(図1ステップ130)。すなわち、図6
(a)のサーチ動作では、ダイアフラム21上を通り先の
図5に示したセンシングパスXと直交するようなセンシ
ングパスYに沿ってセンサユニット30を走査する。な
お、このY方向の走査の際には、既にダイアフラムのZ
方向位置を先の走査及びデータ処理によって求めてある
ので、先の走査のような小刻みセンシングは実行しな
い。
Next, the sensor controller 50 creates an operation job for the search operation as shown by the arrow Y in FIG. 6A based on the position data of the diaphragm 21 obtained by the above scanning (see FIG. 1). In step 120), the created operation job is transferred to the robot controller 60 to cause the robot 1 to execute the search operation as shown in FIG. 6A (step 130 in FIG. 1). That is, FIG.
In the search operation of (a), the sensor unit 30 is scanned along the sensing path Y passing over the diaphragm 21 and orthogonal to the sensing path X shown in FIG. When scanning in the Y direction, the Z of the diaphragm has already been
Since the directional position has been obtained by the previous scan and data processing, the wiggle sensing as in the previous scan is not executed.

【0043】次に、センサコントローラ50は上記サー
チ動作によって得られたセンシングデータをデータ処理
することによって、ダイアフラム21のロボットの座標
系におけるY方向元位置を特定する(図1ステップ14
0)。
Next, the sensor controller 50 specifies the Y direction original position of the diaphragm 21 in the robot coordinate system by data processing the sensing data obtained by the search operation (step 14 in FIG. 1).
0).

【0044】すなわち、図6(b)は、図6(a)に示したY
方向の走査によって得られたセンシングデータを示すも
のであるが、このセンシングデータに対して先のX方向
の走査データに対して行ったデータ処理と同様の処理を
行うことによってY方向の座標を求めることができる。
これで、先に求めたX方向位置、Z方向位置と併せてダ
イアフラムのロボット座標系における3次元位置を特定
することができる。
That is, FIG. 6 (b) shows Y shown in FIG. 6 (a).
It shows the sensing data obtained by the scanning in the direction, and the Y-direction coordinate is obtained by performing the same processing as the data processing performed on the scanning data in the X-direction on the sensing data. be able to.
With this, it is possible to specify the three-dimensional position of the diaphragm in the robot coordinate system together with the X-direction position and the Z-direction position that have been obtained previously.

【0045】このようにして、ダイアフラム21の位置
及びダイアフラム幅Dwを特定することができたので、
センサコントローラ50はこれらのデータを用いて、図
7(a)に示すように、ダイアフラム21の四方をセンシ
ングするための動作ジョブを作成し(図1ステップ12
0)、該作成した動作ジョブをロボットコントローラ6
0に転送することによりロボット1に図6(a)に示すよ
うなサーチ動作を実行させる(図1ステップ130)。
In this way, since the position of the diaphragm 21 and the diaphragm width Dw can be specified,
The sensor controller 50 uses these data to create an operation job for sensing the four sides of the diaphragm 21 as shown in FIG.
0), the robot controller 6 executes the created operation job.
By transferring to 0, the robot 1 is caused to execute the search operation as shown in FIG. 6 (a) (step 130 in FIG. 1).

【0046】このダイアフラム周りの走査の際には、図
4に示したように、ワークが2方、3方、4方仕口の何
れであるかと、段差Dh、梁のフランジ幅Fw、梁のオフ
セットOfを計測して求める必要があり、この走査の際
にもワークとロボットとの干渉の可能性がある。このた
め、この走査の際にも、前述した小刻みセンシング動作
を実行する。
When scanning around the diaphragm, as shown in FIG. 4, whether the work is a two-way, three-way, or four-way joint, the step Dh, the beam flange width Fw, and the beam It is necessary to measure and obtain the offset Of, and there is a possibility of interference between the work and the robot during this scanning. Therefore, even during this scanning, the above-described small step sensing operation is executed.

【0047】このようなサーチ動作によってセンシング
データが得られると、センサコントローラ50では、上
記サーチ動作によって得られたセンシングデータをデー
タ処理することによって、仕口が2方仕口、3方仕口、
4方仕口の何れであるのかと、段差Dhと、梁のフラン
ジ幅Fwと、梁のオフセットOfを求める(図1ステップ
140)。
When the sensing data is obtained by such a search operation, the sensor controller 50 performs data processing on the sensing data obtained by the search operation so that the joint is a two-way joint, a three-way joint,
Which one of the four-way joints, the step Dh, the beam flange width Fw, and the beam offset Of are determined (step 140 in FIG. 1).

【0048】すなわち、図7(b)は、図7(a)に示した走
査のうちの1方向への走査によって得られたセンシング
データを示すものであるが、このセンシングデータによ
って梁の幅Fwを求める。また、このセンシングデータ
によって梁の高さ方向の位置も検出できるので、これと
先に求めたダイヤフラムの高さ方向の位置に基づいて段
差Dhを算出することができる。また、走査開始点、走
査終了点、走査速度等の情報に基づき梁オフセットOf
を求めることができる。
That is, FIG. 7B shows sensing data obtained by scanning in one direction among the scanning shown in FIG. 7A. The beam width Fw of the beam is obtained by this sensing data. Ask for. Further, since the position of the beam in the height direction can be detected by this sensing data, the step Dh can be calculated based on this and the position of the diaphragm in the height direction previously obtained. Further, the beam offset Of is calculated based on the information such as the scanning start point, the scanning end point, and the scanning speed.
Can be requested.

【0049】つぎに、ポジショナ70によってワークを
180゜表裏反転し、前記同様のサーチジョブ作成、サ
ーチ実行、サーチデータ処理を実行して、コラム及び各
梁の表面の位置と、同コラム及び各梁の裏面の位置と、
ポジショナ70の回転中心位置に基づいてコラム高さC
hおよび梁の高さFhを求める。
Next, the work is turned upside down by 180 ° by the positioner 70, and the same search job creation, search execution, and search data processing as described above are executed to determine the position of the surface of the column and each beam and the column and each beam. The position of the back side of
Column height C based on the position of the center of rotation of positioner 70
Find h and beam height Fh.

【0050】以上のようにして、ワーク20の形状およ
び寸法に関するワークデータを取得する。
Work data relating to the shape and size of the work 20 is acquired as described above.

【0051】次に、センサコントローラ50は、前記セ
ンサユニット30によるセンシングによって得られたワ
ークデータをオフライン教示プログラムに入力すること
により、溶接線の数、溶接の種類、溶接線のおおよその
位置、サーチ時のロボット姿勢を決定し、この決定結果
に基づいて溶接線の位置、形状をセンサユニット30で
サーチ測定するためのサーチジョブを作成する(図1ス
テップ150)。なお、オフライン教示プログラムは、
ロボットの動作プログラムを作成するためのプログラム
であり、ワークデータおよびサーチデータに基づいてロ
ボットの動作ジョブを作成するものである。
Next, the sensor controller 50 inputs the work data obtained by the sensing by the sensor unit 30 into the off-line teaching program, thereby the number of welding lines, the type of welding, the approximate position of the welding line, and the search. The robot posture at that time is determined, and a search job for searching and measuring the position and shape of the welding line with the sensor unit 30 is created based on the determination result (step 150 in FIG. 1). The offline teaching program is
A program for creating a robot motion program, which creates a robot motion job based on work data and search data.

【0052】センサコントローラ50は前記作成したサ
ーチジョブをロボットコントローラ60に転送する。ロ
ボットコントローラ60は、転送されたサーチジョブを
実行してロボットを駆動することにより、例えば図9に
示すような溶接線のサーチ動作を実行する(ステップ1
60)。すなわち、図9においては、最初溶接線に対し
て平行にセンサユニット30を走査することでセンシン
グの始端検出を行う(走査線(ア))。次に溶接線に対し
て直角な方向にセンサユニット30を走査する(走査線
(イ))。以下同様にして、溶接線に対して直角に走査を
繰り返す(走査線(ウ))。図10(a)は、上記走査線
(イ)、(ウ)を走査する際のセンサユニット30および溶
接線付近を示すものである。
The sensor controller 50 transfers the created search job to the robot controller 60. The robot controller 60 executes the transferred search job to drive the robot, thereby executing a welding line search operation as shown in FIG. 9 (step 1).
60). That is, in FIG. 9, the sensor unit 30 is first scanned in parallel to the welding line to detect the sensing start end (scanning line (a)). Next, the sensor unit 30 is scanned in a direction perpendicular to the welding line (scan line
(I)). In the same manner, scanning is repeated at right angles to the welding line (scanning line (c)). FIG. 10 (a) shows the scanning line
(A) and (c) show the vicinity of the sensor unit 30 and the welding line when scanning.

【0053】センサコントローラ50は、かかる溶接線
のサーチ動作によって得られたデータ(図10(b)参
照)を処理し、溶接線の正確な位置及び溶接線の形状、
即ち溶接線情報を検出する(ステップ160)。
The sensor controller 50 processes the data (see FIG. 10 (b)) obtained by the search operation of the welding line, the accurate position of the welding line and the shape of the welding line,
That is, the welding line information is detected (step 160).

【0054】センサコントローラ50は、得られた溶接
線情報を基に溶接条件を、オフライン教示プログラムに
設定し、さらに先に求めたワークデータも用いて溶接ジ
ョブを作成する(ステップ170)。
The sensor controller 50 sets the welding conditions in the offline teaching program based on the obtained welding line information, and creates a welding job using the work data obtained earlier (step 170).

【0055】このようにして生成された溶接ジョブは、
ロボットコントローラ60に転送される。ロボットコン
トローラ60は、転送された溶接ジョブを実行してロボ
ットを駆動することにより、溶接作業を実行する(ステ
ップ180)。
The welding job generated in this way is
It is transferred to the robot controller 60. The robot controller 60 executes the transferred welding job and drives the robot to execute the welding operation (step 180).

【0056】以上が、本実施例システムの実施例1にお
ける溶接時の作業手順である。
The above is the work procedure during welding in the first embodiment of the system of the present embodiment.

【0057】[実施例2] 〈2段階センシング方式〉実施例1においては、センサ
31としてレーザセンサを用いた場合について説明した
が、レーザセンサの特徴である、指向性がよいこと、検
出距離、検出範囲が短いということはワークのセンシン
グの際に干渉の危険性を持つことを意味し、これを避け
るためには例えば実施例1のような小刻みセンシングを
行わなければならないなどの不利な面もある。
[Second Embodiment] <Two-step Sensing Method> In the first embodiment, the case where the laser sensor is used as the sensor 31 has been described. However, the characteristics of the laser sensor are that the directivity is good, the detection distance, The fact that the detection range is short means that there is a risk of interference when sensing the work, and in order to avoid this, there are disadvantages such as having to perform small-step sensing as in the first embodiment. is there.

【0058】そこで、この第2の実施例では、ロボット
溶接トーチ付近に、レーザセンサと超音波センサを併設
し、これら2種類のセンサを切替え使用するようにして
いる。すなわち、ワークの概形のセンシング用に超音波
センサを用い、ワーク形状の詳細なセンシング用にレー
ザセンサを用いるようにする。
Therefore, in the second embodiment, a laser sensor and an ultrasonic sensor are provided near the robot welding torch, and these two types of sensors are switched and used. That is, an ultrasonic sensor is used for sensing the approximate shape of the work, and a laser sensor is used for sensing the detailed shape of the work.

【0059】なお、超音波センサは、検出距離及び検出
範囲ともに長い反面、指向性はそれほどよくないという
特徴をもっている。このため、超音波センサは、ワーク
の局所的な形状を精度よく把握することはできないが、
ワークの存在の有無やおおよその位置を把握するため
に、ロボットがワークとは干渉することのない離れた位
置からセンシングするのには向いている。
The ultrasonic sensor has a long detection distance and a long detection range, but has a characteristic that the directivity is not so good. Therefore, the ultrasonic sensor cannot accurately grasp the local shape of the work,
It is suitable for sensing from a remote position where the robot does not interfere with the work in order to grasp the presence or absence of the work and its approximate position.

【0060】以下、この実施例2の動作を説明する。The operation of the second embodiment will be described below.

【0061】まず、図11(a)に示すように、ロボット
1を駆動することにより超音波センサ80でワーク20
を矢印Xで示すように走査する。すなわち、ワーク20
を把持しているポジショナ70の近傍からコラム21方
向に向かって梁22に沿って平行に走査する。
First, as shown in FIG. 11 (a), the ultrasonic sensor 80 drives the work 20 by driving the robot 1.
Are scanned as indicated by arrow X. That is, the work 20
The scanning is performed in parallel along the beam 22 from the vicinity of the positioner 70 holding the to the direction of the column 21.

【0062】この走査の際、ポジショナ70によって把
持している梁とダイアフラムに段差がある場合や、先の
図8に示すような斜め梁25の場合等を考えて、ワーク
にロボットが干渉しないように走査する必要があるが、
超音波センサは前述したように検出距離及び検出範囲と
も長いために、ワークとの干渉の可能性のないワークか
ら離れた位置での走査で、把持している梁やダイアフラ
ムのおおよその位置を検出することができる。
At the time of this scanning, in consideration of the case where there is a step between the beam held by the positioner 70 and the diaphragm, the case of the oblique beam 25 as shown in FIG. 8 and the like, the robot should not interfere with the work. Need to scan to
Since the ultrasonic sensor has a long detection distance and detection range as described above, it detects the approximate position of the beam or diaphragm being gripped by scanning at a position away from the work that has no possibility of interference with the work. can do.

【0063】図12は、超音波センサによるセンシング
データを示すものであるが、この図からも判るように、
超音波センサは指向性があまり良くないために、ワーク
の詳細な形状までは捉えることはできない。しかし、図
12のセンシングデータをデータ処理することにより、
ワークが存在するおおよそのZ方向位置を特定すること
はできる。
FIG. 12 shows the sensing data by the ultrasonic sensor. As can be seen from this figure,
Since the ultrasonic sensor has poor directivity, it is not possible to capture the detailed shape of the work. However, by processing the sensing data of FIG. 12,
It is possible to specify the approximate Z-direction position where the work exists.

【0064】したがって、センサコントローラ50で
は、超音波センサ80のセンシングデータをデータ処理
してワークが存在するおおよそのZ方向位置を特定し、
この特定したZ方向位置データに基づいて、ワークと干
渉することがなくかつレーザセンサ30で適正な測定が
行えるようなZ座標位置を求め、このZ座標位置を用い
てレーザセンサ30で行うサーチ動作のためのサーチジ
ョブを作成し、これをロボットコントローラ60に転送
することによりロボット1に先の図5(a)にしたような
レーザセンサ30でのサーチ動作を実行させる。ただ
し、この場合には、レーザセンサ30をワーク形状の適
正な測定が行えるZ方向位置に位置させて走査が行われ
るので、1度の走査によって所望する梁やダイアフラム
の形状をセンシングすることができる。すなわち、先の
実施例1のような小刻みセンシングは行わない。
Therefore, the sensor controller 50 processes the sensing data of the ultrasonic sensor 80 to specify the approximate Z-direction position where the work is present,
Based on the specified Z-direction position data, a Z coordinate position that does not interfere with the work and allows the laser sensor 30 to perform appropriate measurement is obtained, and a search operation performed by the laser sensor 30 using this Z coordinate position. A search job is created and transferred to the robot controller 60 to cause the robot 1 to execute the search operation with the laser sensor 30 as shown in FIG. 5A. However, in this case, the laser sensor 30 is positioned at the position in the Z direction where the shape of the workpiece can be appropriately measured, and therefore scanning is performed, so that the shape of the desired beam or diaphragm can be sensed by one scanning. . That is, the small step sensing as in the first embodiment is not performed.

【0065】センサコントローラ50は、この走査によ
って得られたセンシングデータを前記実施例1と同様に
データ処理することにより梁の長さD1、ダイアフラム
の幅Dwを検出すると共に、ロボットの座標系における
梁およびダイアフラムの位置を検出し、さらに該検出し
たダイアフラム21の位置データを基に先の図6(a)の
矢印Yに示すようなレーザセンサ30でのサーチ動作の
ための動作ジョブを作成し、該作成した動作ジョブをロ
ボットコントローラ60に転送することによりロボット
1に図6(a)に示したようなサーチ動作を実行させる。
The sensor controller 50 detects the beam length D1 and the diaphragm width Dw by processing the sensing data obtained by this scanning in the same manner as in the first embodiment, and at the same time, detects the beam in the robot coordinate system. And the position of the diaphragm is detected, and based on the detected position data of the diaphragm 21, an operation job for the search operation by the laser sensor 30 as shown by the arrow Y in FIG. 6A is created. By transferring the created operation job to the robot controller 60, the robot 1 is caused to execute the search operation as shown in FIG.

【0066】なお、このY方向の走査の際には、既にダ
イアフラムのZ方向位置を先の走査及びデータ処理によ
って求めてあるので、超音波センサ80によるセンシン
グは行わない。
During the scanning in the Y direction, the ultrasonic sensor 80 does not perform sensing because the Z direction position of the diaphragm has already been obtained by the previous scanning and data processing.

【0067】次に、センサコントローラ50は上記Y方
向のサーチ動作によって得られたセンシングデータを先
の実施例1と同様にデータ処理することによって、ダイ
アフラム21のロボット座標系におけるY方向位置を特
定する。
Next, the sensor controller 50 processes the sensing data obtained by the search operation in the Y direction in the same manner as in the first embodiment to specify the Y direction position of the diaphragm 21 in the robot coordinate system. .

【0068】このようにして、ダイアフラム21の位置
及びダイアフラム幅Dwを特定すると、次に、センサコ
ントローラ50はこれらのデータを用いて、図13に示
すように、超音波センサ80でダイアフラム21の四方
をセンシングするための動作ジョブを作成し、該作成し
た動作ジョブをロボットコントローラ60に転送するこ
とによりロボット1に図13に示すような超音波センサ
80によるサーチ動作を実行させる。
When the position of the diaphragm 21 and the diaphragm width Dw are specified in this way, the sensor controller 50 then uses these data to determine the four directions of the diaphragm 21 by the ultrasonic sensor 80, as shown in FIG. Is created, and the created operation job is transferred to the robot controller 60 to cause the robot 1 to perform a search operation by the ultrasonic sensor 80 as shown in FIG.

【0069】すなわち、ダイアフラム21の四方をセン
シングする際にも、超音波センサ80によるサーチ動作
によって梁の有無、梁のおおよそのZ方向位置(すなわ
ち段差のおおよその値)を特定し、この特定したZ方向
位置データに基づいて、レーザセンサ30によるダイア
フラム四方の走査の際のZ座標位置を求めるようにして
いる。センサコントローラ50では、このようにして求
めたZ座標位置を用いてレーザセンサ30で行うダイア
フラム四方のサーチ動作のためのサーチジョブを作成
し、これをロボットコントローラ60に転送することに
よりロボット1に先の図7(a)にしたようなレーザセン
サ30でのサーチ動作を実行させる。
That is, also when sensing the four sides of the diaphragm 21, the presence / absence of the beam and the approximate position of the beam in the Z direction (that is, the approximate value of the step) are specified by the search operation by the ultrasonic sensor 80, and this is specified. The Z coordinate position when the laser sensor 30 scans the four sides of the diaphragm is obtained based on the Z direction position data. The sensor controller 50 creates a search job for the search operation of the four sides of the diaphragm performed by the laser sensor 30 by using the Z coordinate position thus obtained, and transfers the search job to the robot controller 60 so that the robot 1 can be forwarded to the robot 1. The search operation by the laser sensor 30 as shown in FIG. 7A is executed.

【0070】このようなレーザセンサ3Oによるサーチ
動作によってセンシングデータが得られると、センサコ
ントローラ50では、先の実施例1と同様にして、仕口
形状、段差Dh、梁のフランジ幅Fw、梁のオフセットO
fを求める つぎに、ポジショナ70によってワークを180゜表裏
反転し、前記同様のサーチジョブ作成、サーチ実行、サ
ーチデータ処理を実行して、コラム及び各梁の表面の位
置と、同コラム及び各梁の裏面の位置と、ポジショナ7
0の回転中心位置に基づいてコラム高さChおよび梁の
高さFhを求める。
When the sensing data is obtained by such a search operation by the laser sensor 3O, the sensor controller 50 performs the same operation as the first embodiment, the shape of the joint, the step Dh, the flange width Fw of the beam, and the beam. Offset O
Next, the work is turned upside down 180 degrees by the positioner 70, and the same search job creation, search execution, and search data processing as described above are executed to determine the position of the surface of the column and each beam and the column and each beam. Position on the back of the and positioner 7
The column height Ch and the beam height Fh are calculated based on the zero rotation center position.

【0071】以上のようにして、ワーク20の形状およ
び寸法に関するワークデータを取得する。
Work data concerning the shape and dimensions of the work 20 is acquired as described above.

【0072】以上が、実施例2におけるワーク形状サー
チの際の動作手順である。
The above is the operation procedure for the work shape search in the second embodiment.

【0073】なお、上記各実施例では、センサ31とし
て非接触式のレーザセンサや超音波センサを用いるよう
にしたが、接触式の距離センサを用いる様にしてもよ
い。
In each of the above embodiments, a non-contact type laser sensor or ultrasonic sensor is used as the sensor 31, but a contact type distance sensor may be used.

【0074】ここで、接触式の距離センサとは、接触点
を検出するセンサをロボット先端に装備し、図14に示
すように、A点からロボットを動作させ、接触と同時に
ロボットを停止させてB点におけるロボットの位置を取
得することにより、ワークまでの距離を算出する。した
がって、この接触式の距離センサを、図14に示すよう
に、複数のX(またはY)方向位置で基準高さZCから
ワークとの間を離散的に往復することにより、基準高さ
Zcからワーク表面の各点までの距離を計測することが
できる。
Here, the contact type distance sensor is equipped with a sensor for detecting a contact point at the tip of the robot. As shown in FIG. 14, the robot is operated from the point A and the robot is stopped at the same time as the contact. The distance to the work is calculated by acquiring the position of the robot at the point B. Therefore, as shown in FIG. 14, the contact-type distance sensor discretely reciprocates between the reference height ZC and the work at a plurality of X (or Y) direction positions, thereby changing the reference height Zc from the reference height Zc. The distance to each point on the work surface can be measured.

【0075】この接触式の距離センサとしては、溶接線
ワイヤに電圧をかけ、この電圧の変化により接触点検出
を行うワイヤタッチセンサ、あるいは図15に示すよう
なタッチプローブ85を設けたタッチセンサなどがあ
る。
As the contact type distance sensor, a wire touch sensor for applying a voltage to a welding wire and detecting a contact point by the change of the voltage, or a touch sensor provided with a touch probe 85 as shown in FIG. There is.

【0076】すなわち、上記の接触式の距離センサを用
いて、鉄骨仕口の形状をサーチしてワークデータを取得
するとともに、溶接線のサーチを行うようにすることも
できる。
That is, it is possible to use the above contact type distance sensor to search the shape of the steel frame joint to obtain the work data, and also to search the welding line.

【0077】また、仕口形状サーチにはレーザセンサな
どの非接触タイプを用い、溶接線サーチにタッチセンサ
を用いるというように、異なるタイプのセンサを複合し
て利用するようにしてもよい。
Further, a non-contact type such as a laser sensor may be used for the joint shape search and a touch sensor may be used for the welding line search, so that different types of sensors may be used in combination.

【0078】また、上記実施例では、溶接線のサーチの
際には、レーザセンサ30を用いるようにしたが、溶接
線ワイヤに電圧をかけ、この電圧の変化により接触を検
出するとともに、この接触の検出時点でロボットを停止
させ、その停止位置によりワーク位置をサーチする溶接
線ワイヤによるタッチセンサを溶接線サーチの際に用い
るようにしてもよい。
Further, in the above embodiment, the laser sensor 30 is used when searching for the welding line, but a voltage is applied to the welding line wire to detect the contact by the change of this voltage, and the contact is detected. It is also possible to stop the robot at the time of detection and to use a touch sensor with a welding line wire for searching the work position according to the stop position in the welding line search.

【0079】さらに、図15に示すように、溶接トーチ
にタッチプローブ85を配設し、このタッチプローブ8
5を用いて、ワーク形状のサーチまたは溶接線のサーチ
を行うようにしてもよい。
Further, as shown in FIG. 15, a touch probe 85 is provided on the welding torch, and the touch probe 8 is provided.
5 may be used to perform a work shape search or a welding line search.

【0080】また、上記実施例では本発明を溶接ロボッ
トに適用するようにしたが、他の作業ロボットに本発明
を適用するようにしてもよい。例えば、溶接トーチの代
わりにグラインダーを装填し、溶接した部分の凹凸をグ
ラインダーによってグラインド加工するような作業ロボ
ットに本発明を適用するようにしてもよい。
Further, although the present invention is applied to the welding robot in the above-mentioned embodiment, the present invention may be applied to other work robots. For example, the present invention may be applied to a work robot in which a grinder is loaded instead of the welding torch and the unevenness of the welded portion is grinded by the grinder.

【0081】また、本発明を適用するワークは鉄骨仕口
に限るわけではなく、他の鉄骨コラム、柱大組のワーク
などに本発明を適用するようにしてもよい。要は、ワー
クデータを数値データを用いてパラメトリックに表現で
きるワークであればどのようなワークに本発明を適用す
るようにしてもよい。
Further, the work to which the present invention is applied is not limited to the steel frame joint, and the present invention may be applied to other steel column, a work of a large column, and the like. In short, the present invention may be applied to any work as long as the work data can be expressed parametrically using numerical data.

【0082】[0082]

【発明の効果】以上説明したようにこの発明によれば、
距離センサによりワーク全体をセンシングすることによ
りワークデータを得、このワークデータをオフライン教
示プログラムに自動で入力することによりロボットの溶
接線サーチジョブ及び溶接ジョブを作成するようにした
ので、完全なティーチレスでの溶接作業を低コストで実
現するとともに、ワークのセッティングミスおよびデー
タ入力ミスなどによるロボットの作業ミスをなくすこと
ができる。
As described above, according to the present invention,
Work data is obtained by sensing the entire work with a distance sensor, and the work line search job and welding job of the robot are created by automatically inputting this work data to the offline teaching program, so complete teaching-less Welding work can be realized at low cost, and robot work errors due to work setting errors and data input errors can be eliminated.

【図面の簡単な説明】[Brief description of the drawings]

【図1】この発明の実施例を示すフローチャート。FIG. 1 is a flowchart showing an embodiment of the present invention.

【図2】この発明の実施例のシステム構成を示す図。FIG. 2 is a diagram showing a system configuration of an embodiment of the present invention.

【図3】この発明の実施例の溶接ロボット付近を示す斜
視図。
FIG. 3 is a perspective view showing the vicinity of the welding robot according to the embodiment of the present invention.

【図4】この発明に使用されるワークの各種タイプを示
す図。
FIG. 4 is a diagram showing various types of works used in the present invention.

【図5】レーザセンサによるサーチジョブ作成のための
ワーク形状のセンシング動作の一工程を示す図。
FIG. 5 is a diagram showing one step of a work shape sensing operation for creating a search job by a laser sensor.

【図6】レーザセンサによるサーチジョブ作成のための
ワーク形状のセンシング動作の一工程を示す図。
FIG. 6 is a diagram showing one process of a work shape sensing operation for creating a search job by a laser sensor.

【図7】レーザセンサによるサーチジョブ作成のための
ワーク形状のセンシング動作の一工程を示す図。
FIG. 7 is a diagram showing one step of a work shape sensing operation for creating a search job by a laser sensor.

【図8】小刻みセンシングの動作の説明図。FIG. 8 is an explanatory diagram of a wiggle sensing operation.

【図9】溶接線のサーチ動作の一例を示す斜視図。FIG. 9 is a perspective view showing an example of a welding line search operation.

【図10】溶接線のサーチ動作および該サーチ動作によ
って得られたセンシングデータを示す図。
FIG. 10 is a diagram showing a welding line search operation and sensing data obtained by the search operation.

【図11】超音波センサによるサーチジョブ作成のため
のワーク形状のセンシング動作の一工程を示す図。
FIG. 11 is a diagram showing one step of a work shape sensing operation for creating a search job using an ultrasonic sensor.

【図12】超音波センサによるセンシングデータを示す
図。
FIG. 12 is a diagram showing sensing data obtained by an ultrasonic sensor.

【図13】超音波センサによるサーチジョブ作成のため
のワーク形状のセンシング動作の一工程を示す図。
FIG. 13 is a diagram showing one step of a work shape sensing operation for creating a search job by an ultrasonic sensor.

【図14】タッチセンサによるワーク形状のセンシング
動作の一工程を示す概略図。
FIG. 14 is a schematic view showing one process of a work shape sensing operation by a touch sensor.

【図15】タッチセンサの一例を示す図。FIG. 15 illustrates an example of a touch sensor.

【符号の説明】[Explanation of symbols]

1…溶接ロボット 10…溶接トーチ 20…ワーク 21…コラム(ダイアフラム) 22…梁 30…センサユニット 31…光距離(変位)センサ 50…センサコントローラ 60…ロボットコントローラ 80…超音波センサ 1 ... Welding robot 10 ... Welding torch 20 ... Work 21 ... Column (diaphragm) 22 ... Beam 30 ... Sensor unit 31 ... Optical distance (displacement) sensor 50 ... Sensor controller 60 ... Robot controller 80 ... Ultrasonic sensor

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 // B23K 9/00 501 G05B 19/403 C ─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 6 Identification code Office reference number FI technical display location // B23K 9/00 501 G05B 19/403 C

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】ワーク表面各点の位置を検出するためのセ
ンサを作業ロボットに搭載し、このセンサを用いて前記
ワークをセンシングする作業ロボット装置において、 前記センサによる前記ワークのセンシング結果に基づ
き、前記ワークの形状データを決定するための作業ロボ
ットの動きを指令するサーチ用ロボット動作ジョブを順
次自動生成するワークサーチジョブ作成手段と、 このワークサーチジョブ作成手段によって順次作成され
るサーチ用ロボット動作ジョブに従って前記作業ロボッ
トを駆動することにより前記センサによる前記ワークの
センシング動作を実行して当該ワークの形状データを取
得する第1の制御手段と、 該取得したワーク形状データに基づいて前記ワークの作
業線の位置、形状をサーチするためのサーチ用ロボット
動作ジョブを自動生成する作業線サーチジョブ作成手段
と、 このサーチジョブ作成手段によって作成されたサーチ用
ロボット動作ジョブに従って前記作業ロボットを駆動す
ることにより前記距離センサによる作業線のサーチ動作
を行う第2の制御手段と、 この作業線のサーチ結果および前記ワーク形状データに
基づいて当該ワークに対する作業時のロボット動作ジョ
ブを自動作成する作業ジョブ作成手段と、 この作業ジョブ作成手段によって作成されたロボット動
作ジョブに従って前記作業ロボットを駆動することによ
り所定の作業を実行する第3の制御手段と、 を具えることを特徴とする作業ロボット装置。
1. A work robot apparatus, comprising a work robot equipped with a sensor for detecting the position of each point on the surface of a work, and sensing the work using the sensor, based on a sensing result of the work by the sensor, Work search job creation means for automatically automatically creating a search robot operation job for instructing the movement of the work robot for determining the shape data of the work, and a search robot operation job sequentially created by the work search job creation means First control means for performing the sensing operation of the work by the sensor to obtain the shape data of the work by driving the work robot according to the above, and the work line of the work based on the obtained work shape data. Robot for searching the position and shape of the A work line search job creating means for automatically creating a work job, and a work line searching operation by the distance sensor by driving the work robot according to the search robot operation job created by the search job creating means. Control means, a work job creating means for automatically creating a robot operation job for the work based on the work line search result and the work shape data, and a robot operation job created by the work job creating means A work robot apparatus comprising: a third control means for executing a predetermined work by driving the work robot according to the above.
【請求項2】前記作業ロボットは溶接ロボットであり、
前記作業線は溶接線である請求項1記載の作業ロボット
装置。
2. The work robot is a welding robot,
The work robot apparatus according to claim 1, wherein the work line is a welding line.
JP34239595A 1995-12-28 1995-12-28 Working robot device Pending JPH09183087A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP34239595A JPH09183087A (en) 1995-12-28 1995-12-28 Working robot device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP34239595A JPH09183087A (en) 1995-12-28 1995-12-28 Working robot device

Publications (1)

Publication Number Publication Date
JPH09183087A true JPH09183087A (en) 1997-07-15

Family

ID=18353399

Family Applications (1)

Application Number Title Priority Date Filing Date
JP34239595A Pending JPH09183087A (en) 1995-12-28 1995-12-28 Working robot device

Country Status (1)

Country Link
JP (1) JPH09183087A (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006110570A (en) * 2004-10-12 2006-04-27 Kobe Steel Ltd Work arranging method in automatic welding equipment
JP2008080360A (en) * 2006-09-27 2008-04-10 Daihen Corp Position detection system for automatic welding machine
JP2008221281A (en) * 2007-03-13 2008-09-25 Daihen Corp Position detection system for automatic welding machine
JP2009028768A (en) * 2007-07-30 2009-02-12 Caterpillar Japan Ltd Robot welding apparatus for revolving frame
JP2009028767A (en) * 2007-07-30 2009-02-12 Caterpillar Japan Ltd Robot welding method for revolving frame
JP2009274204A (en) * 2008-05-13 2009-11-26 Samsung Electronics Co Ltd Robot, robot hand, and control method of robot hand
JPWO2009025271A1 (en) * 2007-08-22 2010-11-25 株式会社安川電機 Robot control apparatus and control method
JP2011224769A (en) * 2010-03-29 2011-11-10 Daihen Corp Method for creating work program of robot, apparatus for creating work program of robot, and robot control system
JP2012051051A (en) * 2010-08-31 2012-03-15 Daihen Corp Welding method in automatic welding system, and automatic welding system
CN107457793A (en) * 2016-06-03 2017-12-12 发纳科美国公司 Dynamic laser touch-sensing is carried out using multirobot dynamic subscriber frame
JP2018176333A (en) * 2017-04-10 2018-11-15 ファナック株式会社 Offline programming apparatus and method having workpiece position detection program generation function using contact sensor
JP2020534887A (en) * 2017-09-27 2020-12-03 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Systems and methods for deploying mobile medical imaging systems
WO2023170764A1 (en) * 2022-03-07 2023-09-14 ファナック株式会社 Device for generating search program for robot

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4535830B2 (en) * 2004-10-12 2010-09-01 株式会社神戸製鋼所 Welding method with automatic welding equipment
JP2006110570A (en) * 2004-10-12 2006-04-27 Kobe Steel Ltd Work arranging method in automatic welding equipment
JP2008080360A (en) * 2006-09-27 2008-04-10 Daihen Corp Position detection system for automatic welding machine
JP2008221281A (en) * 2007-03-13 2008-09-25 Daihen Corp Position detection system for automatic welding machine
JP2009028768A (en) * 2007-07-30 2009-02-12 Caterpillar Japan Ltd Robot welding apparatus for revolving frame
JP2009028767A (en) * 2007-07-30 2009-02-12 Caterpillar Japan Ltd Robot welding method for revolving frame
JP5549223B2 (en) * 2007-08-22 2014-07-16 株式会社安川電機 Robot control device, control method, and robot system
JPWO2009025271A1 (en) * 2007-08-22 2010-11-25 株式会社安川電機 Robot control apparatus and control method
JP2009274204A (en) * 2008-05-13 2009-11-26 Samsung Electronics Co Ltd Robot, robot hand, and control method of robot hand
JP2011224769A (en) * 2010-03-29 2011-11-10 Daihen Corp Method for creating work program of robot, apparatus for creating work program of robot, and robot control system
US9110466B2 (en) 2010-03-29 2015-08-18 Daihen Corporation Programming method for a robot, programming apparatus for a robot, and robot control system
JP2012051051A (en) * 2010-08-31 2012-03-15 Daihen Corp Welding method in automatic welding system, and automatic welding system
CN107457793A (en) * 2016-06-03 2017-12-12 发纳科美国公司 Dynamic laser touch-sensing is carried out using multirobot dynamic subscriber frame
JP2018012188A (en) * 2016-06-03 2018-01-25 ファナック アメリカ コーポレイション Dynamic laser touch sensing by multiple robots, and dynamic user coordinate system
JP2018176333A (en) * 2017-04-10 2018-11-15 ファナック株式会社 Offline programming apparatus and method having workpiece position detection program generation function using contact sensor
US10406688B2 (en) 2017-04-10 2019-09-10 Fanuc Corporation Offline programming apparatus and method having workpiece position detection program generation function using contact sensor
JP2020534887A (en) * 2017-09-27 2020-12-03 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Systems and methods for deploying mobile medical imaging systems
WO2023170764A1 (en) * 2022-03-07 2023-09-14 ファナック株式会社 Device for generating search program for robot

Similar Documents

Publication Publication Date Title
JP3904605B2 (en) Compound sensor robot system
US9110466B2 (en) Programming method for a robot, programming apparatus for a robot, and robot control system
US4568816A (en) Method and apparatus for manipulator welding apparatus with improved weld path definition
US4831232A (en) Industrial robot equipment capable of automatically terminating operation at a desired sensed location
JPH08166813A (en) Tracking control method for robot accompanied by weaving operation
JPH09183087A (en) Working robot device
JPH0810949A (en) Method for controlling welding robot system in multi-layer over laying
JP5636148B2 (en) Automatic welding machine position detection system
JP3550191B2 (en) Welding robot
JP2654206B2 (en) Touch-up method
JP2517581B2 (en) Machining line teaching method
JP2542615B2 (en) Machining line teaching method
JP3285694B2 (en) Automatic welding apparatus and welding method using the automatic welding apparatus
JP2726658B2 (en) Processing line teaching method
JPH09267282A (en) Work object position detector of multiarticulated robot
JPH0651224B2 (en) Welding robot with sensor
JPH0415420Y2 (en)
JP2507412B2 (en) Machining line teaching method
JPH08215847A (en) Control method of welding robot
JPS63278686A (en) Work machining equipped with plane squareness detecting function
JP2542598B2 (en) Work processing equipment
TW202306720A (en) Teaching point generation device that generates teaching points on basis of output of sensor, and teaching point generation method
JPS63204407A (en) Teaching method for processing line
TW202317292A (en) Device for measuring wear amount of welding tip, control device, robot system, method, and computer program
JP2004009278A (en) Method for controlling welding robot device