JP2007025991A - Automatic working method for work and automatic working system for work - Google Patents
Automatic working method for work and automatic working system for work Download PDFInfo
- Publication number
- JP2007025991A JP2007025991A JP2005206061A JP2005206061A JP2007025991A JP 2007025991 A JP2007025991 A JP 2007025991A JP 2005206061 A JP2005206061 A JP 2005206061A JP 2005206061 A JP2005206061 A JP 2005206061A JP 2007025991 A JP2007025991 A JP 2007025991A
- Authority
- JP
- Japan
- Prior art keywords
- workpiece
- machining
- work
- robot
- processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Manipulator (AREA)
- Numerical Control (AREA)
Abstract
Description
本発明は、ワークの自動加工方法およびワークの自動加工システムに関する。 The present invention relates to a workpiece automatic machining method and a workpiece automatic machining system.
板金加工されたワークには、その加工の種類によりバリ、ノロ(スラグ)、あるいはスパッタ等を生じる場合があり、従来では、これらを手作業によるグラインダ仕上げにより取り除いていた。
これに対して最近では、そのようなワークのバリ取り作業を簡便に行うバリ取りシステムが提案されている(例えば、特許文献1)。このバリ取りシステムでは、オペレータがワークの図形データを作成し、この図形データに基づいて制御装置がバリ取り用の加工プログラムを作成し、この加工プログラムにより多軸型のバリ取りロボットがバリ取り作業を自動的に行うようになっている。
Depending on the type of processing, there are cases where burrs, noro (slag), spatter, and the like are generated on the workpiece processed by sheet metal, and these have been removed by manual grinder finishing.
On the other hand, recently, a deburring system for easily performing such deburring work on a workpiece has been proposed (for example, Patent Document 1). In this deburring system, the operator creates graphic data for the workpiece, and the control device creates a machining program for deburring based on this graphic data. This machining program allows the multi-axis type deburring robot to perform deburring work. Is to be done automatically.
しかしながら、前記特許文献に記載のバリ取りシステムでは、NC装置のキーボードおよびCRTディスプレイを使用して、オペレータがワークの立体姿図や展開図などの図形データを予め作成する必要があるため、そのデータ作成に手間がかかってしまい、必ずしもバリ取り作業を簡便に行えるとはいえなかった。 However, in the deburring system described in the above-mentioned patent document, it is necessary for an operator to create graphic data such as a three-dimensional figure of a work and a development drawing in advance using a keyboard and a CRT display of an NC device. It took a lot of time to create, and it could not be said that deburring work could be performed easily.
本発明の目的は、バリ取りや溶断等の作業を一層容易にできるワークの自動加工方法およびワークの自動加工システムを提供することにある。 An object of the present invention is to provide an automatic workpiece processing method and an automatic workpiece processing system that can further facilitate operations such as deburring and fusing.
本発明の請求項1に係るワークの自動加工方法は、ワークを撮像する手順と、撮像された画像に基づいて前記ワークの形状パターンを検出する手順と、複数の形状パターンおよび加工パスを関連付けるテーブルから、検出された前記形状パターンに基づく加工パスを選定する手順と、選定された加工パスに基づいて加工用の指令を生成する手順と、この加工用の指令に基づいてロボットおよびこのロボットに取り付けられた加工ツールを作動させて前記ワークを加工する手順とを備えていることを特徴とする。 A workpiece automatic machining method according to claim 1 of the present invention is a table that associates a plurality of shape patterns and machining paths with a procedure for imaging a workpiece, a procedure for detecting a shape pattern of the workpiece based on the captured image. From the above, a procedure for selecting a machining path based on the detected shape pattern, a procedure for generating a machining command based on the selected machining path, and a robot and attachment to the robot based on the machining command And a procedure for machining the workpiece by operating a machining tool provided.
本発明の請求項2に係るワークの自動加工システムは、ワークを撮像する視覚センサと、視覚センサでの画像に基づいて前記ワークの形状パターンを検出する形状検出手段と、複数の形状パターンおよび加工パスを関連付けるテーブルが記憶されたテーブル記憶手段と、前記形状検出手段で検出された形状パターンに基づく加工パスを前記テーブルから選定する加工パス選定手段と、選定された加工パスに基づいて加工用の指令を生成する加工指令生成手段と、この加工用の指令に基づいて作動するロボットと、このロボットに取り付けられて前記加工用の指令に基づき作動する加工ツールとを備えていることを特徴とする。 A workpiece automatic machining system according to a second aspect of the present invention includes a visual sensor that images a workpiece, shape detection means that detects a shape pattern of the workpiece based on an image of the visual sensor, a plurality of shape patterns, and machining. A table storage unit storing a table for associating a path; a processing path selecting unit for selecting a processing path based on the shape pattern detected by the shape detection unit from the table; and a processing path based on the selected processing path. A processing command generating means for generating a command, a robot that operates based on the processing command, and a processing tool that is attached to the robot and operates based on the processing command. .
請求項1および請求項2の発明によれば、ワークを撮像してその形状パターンを検出し、その形状パターンに応じた加工用の指令、例えばグラインダ仕上げにおいては、グラインダでなぞる軌跡(加工パス)を自動的に生成するので、従来のように移送や加工に先立ってワークの図形データを作成する必要がなく、従来に比して作業を一層容易にできる。 According to the first and second aspects of the present invention, a workpiece is imaged, its shape pattern is detected, and a machining command corresponding to the shape pattern, for example, in a grinder finishing, a trace (machining path) traced by the grinder. Is automatically generated, it is not necessary to create graphic data of a work prior to transfer or processing as in the conventional case, and the work can be further facilitated as compared with the conventional case.
以下、本発明の一実施形態を図面に基づいて説明する。
図1は、本実施形態に係る加工システム1の概略構成を模式的に示す平面図、図2は、その側面図である。図3は、加工システム1で用いられるロボット10を示す斜視図、図4は、加工システム1を示すブロック図である。
Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
FIG. 1 is a plan view schematically showing a schematic configuration of a processing system 1 according to the present embodiment, and FIG. 2 is a side view thereof. FIG. 3 is a perspective view showing the
図1、図2において、加工システム1は、溶断等で得られた板状金属のワークWにグラインダ仕上げを施すシステムであって、溶断時に生じたスパッタやノロを自動的に取り除くように構成されている。具体的に加工システム1は、中央に配置されたロボット10と、このロボット10の周囲に配置されたワークW搬入用の搬入ステーション20と、ワークWにグラインダ仕上げを施す加工ステーション30と、作業が終了したワークWを載置しておく搬出ステーション40と、加工システム1全体を制御する制御装置50とを備えている。
1 and 2, the processing system 1 is a system for applying a grinder finish to a plate-like metal workpiece W obtained by fusing, etc., and is configured to automatically remove spatter and nose generated during fusing. ing. Specifically, the machining system 1 includes a
ロボット10は、図3に示すように、6つの回動軸R1〜R6を備えた多軸型であり、専用のジョブ指令によって作動する。このようなジョブ指令は、制御盤および操作盤からなるロボットコントローラ10Aで読み込まれ、ジョブ指令に従って各軸用のサーボモータが駆動される。つまり、各サーボモータの駆動により、図3に示した旋回部11、第1アーム12、第2アーム13、アタッチメント14がロボット固有の3次元座標系で回動するとともに、他のジョブ指令によってはアタッチメント14が作動する。
As shown in FIG. 3, the
このロボット10の特にアタッチメント14は、4つの電磁石で構成された磁着部15と、磁着部15のワーク磁着側とは反対側に設けられたグラインダ(加工ツール)16とを備えており、第2アーム13の先端に取り付けられて回動軸R6回りに回動する。すなわち、図3に示した状態は、ワークWを磁着部15によって上方から取りに行く姿勢であり、ワークWにグラインダ仕上げを施す場合には、アタッチメント14を180度回動させ、グラインダ16を下側にして作業を行う。また、作業時の制御として、アタッチメント14を回動軸R5回りに所定角度傾斜させることで、グラインダ16をワークWに対して適切な角度で当接できるようになっている。グラインダ16の回転方向は、正逆切換可能である。
Particularly, the
搬入ステーション20は、金属フレーム等で枠組みされた搬入基台21を備え、搬入基台21の上面にはワークWを載せたパレット22がフォークリフト等で平置きされる。搬入基台21の上面は、高さH=0「ゼロ」の基準面とされており、搬入基台21には当該基準面内の1点を0点とした3次元座標系が設定されている。従って、搬入基台21の基準面に載置されるパレット22の基準高さがH0として既知であり、ワークWの板厚も既知である場合、パレット22に載せられた1枚のワークWの上面は、前記3次元座標系ではH0+板厚の高さにあるといえる。
The carry-in
また、搬入ステーション20の上方には、パレット22上を撮像するためのCCDカメラ等からなる一対の第1視覚センサ23が設置されている。第1視覚センサ23が一対設けられているのは、撮像されたワークWまでの距離をステレオ処理によって演算するためであり、より具体的には、基準面からワークW上面までの高さを演算するためである。つまり、第1視覚センサ23からの画像情報は、パレット22上にあるワークWをロボット10で取りに行くために用いられるのであり、第1原画像として制御装置50に出力される。このような第1視覚センサ23にも、固有の3次元座標系が設定されている。
In addition, a pair of first
ここで、ワークWは通常、パレット22上の複数の任意な位置に任意な向きで載置され、各位置において、複数枚重ねられていることが多い。本実施形態では、ワークWが図7に示す向きで2箇所に複数枚積まれている。このようなワークWは、例えば建設機械のフレームの一部を構成する大型で大重量の部材であり、ハンドリング性が良好とはいえないうえ、パレット22上の決められた位置に位置決めして載置するのが困難とされている。
Here, the workpiece W is usually placed in a plurality of arbitrary positions on the
加工ステーション30は、上面がワークWとは対照的な色合いの加工基台31を備え、この加工基台31上にワークWが置かれた状態でグラインダ仕上げが行われる。この加工基台31上面の中央位置C2(図10)は、前述したロボット10の3次元座標系での位置座標として予めわかっている。このため、中央位置C2の位置座標の情報を含むジョブ指令をロボット10に与えることで、ロボット10は搬入ステーション20で磁着したワークWを加工基台31上の中央に即座に移動させることが可能である。
The
このような加工ステーション30の上方にも、加工基台31上を撮像するための同様な一対の第2視覚センサ32が設置されている。第2視覚センサ32からの画像情報は、第2原画像として制御装置50に出力され、ワークWの輪郭を抽出して加工パスを選定するために用いられる。第2視覚センサ32にも、固有の3次元座標系が設定されている。
A pair of similar second
さらに、加工ステーション30近傍には、ワーク反転ステーション33が設置されている。グラインダ仕上げは、ワークWの表裏両面について実施されるため、表面側の作業が終了した後には、ワークWを一旦ワーク反転ステーション33に移動し、そこに設けられた横架台34に上方から架け渡して置き、このワークWを今度は下方(裏面側)から取りに行くのである。下方から磁着されたワークWは、反転されて再度加工ステーションに30に戻され、裏面側が表になってグラインダ仕上げされることになる。
Further, a
搬出ステーション40は、搬入ステーション20と同様な搬出基台41を備え、搬出基台41上にはパレット42が載せられている。パレット42の位置は、搬入ステーション20でのパレット22の位置に対して所定量だけシフトした位置として与えられており、グラインダ仕上げが終了したワークWは、搬入ステーション20へ搬入された位置をそのまま搬出ステーション40に移行した格好でパレット42上に置かれる。
The carry-out
制御装置50は、パーソナルコンピュータ等で構成されており、図4に示すように、それぞれ適宜なハードウェアあるいはソフトウェア(画像処理プログラム)からなる計測部51、加工前パレット処理部52、加工ステーション処理部53、ハンドリングジョブ指令生成部54、ロボット通信部55、複数の記憶部56、キーボード等の入力手段57、および図示しないディスプレイ装置を備えている。以下に制御装置50の各部について詳説する。
The
計測部51は、第1、第2視覚センサ23,32に撮像指令を出力するシャッタトリガ手段510と、第1、第2視覚センサ23,32で撮像された被撮像物の画像を取得する画像取得手段511と、取得した画像のステレオ処理を行って距離画像を生成するステレオ処理手段512とを備えている。画像取得手段511で取得された被撮像物の画像は、第1、第2視覚センサ23,32毎にわけられ、第1原画像(左右)および第2原画像(左右)として第1、第2原画像記憶手段56A,56Bに記憶される。ステレオ処理手段512で生成された距離画像も、第1、第2視覚センサ23,32からの第1、第2距離画像として距離画像記憶手段56Cに記憶される。
The measuring
加工前パレット処理部52は、前記第1距離画像のデータに基づいて距離分布を作成する距離分布作成手段520と、第1視覚センサ23の3次元座標系と搬入ステーション20の搬入基台21側の3次元座標系との傾きに関するずれを補正する第1センサ傾斜量補正手段521と、第1視覚センサ23の3次元座標系でのデータである第1距離画像の画像データを搬入基台21側の3次元座標系のデータに変換するとともに、変換したデータに基づいて搬入基台21の基準面から被撮像物上面までの高さを演算する高さ演算手段522と、前記データに基づいて被撮像物の所定高さでの面積を演算する面積演算手段523と、面積を演算した結果、その被撮像物がワークWであるか否かを判定し、ワークWではない場合に作業を終了させる終了判定手段524と備えている。
The pre-processing
さらに、加工前パレット処理部52は、被撮像物がワークWである場合に、ワークWの輪郭のデータを抽出する輪郭抽出手段525と、ワークW自身の傾斜量を演算するワーク傾斜量演算手段526と、演算された傾斜量に基づき、ワークWが異常に傾斜していないかを判定する傾斜異常判定手段527と、ワークWの重心位置C1(図9)を演算する重心位置演算手段528と、演算された重心位置をロボット10の3次元座標系の位置に変換する第1ロボット座標変換手段529とを備えている。
Furthermore, when the object to be imaged is the workpiece W, the pre-processing
ここで、基準高さ記憶手段56Dには、基準高さH0として、パレット22の高さが記憶され、基準傾斜量記憶手段56Eには、ワークWの基準傾斜量が記憶され、板厚記憶手段56Fには、ワークWの厚さが記憶されている。基準傾斜量とは、ワークWをロボット10のアタッチメント14で取りに行くことのできる傾斜量であり、この基準傾斜量を超えてワークWが積み重ねられている場合には、アタッチメント14でワークを良好に保持できない可能性があると判断される。また、以上のうち、高さ演算手段522および重心位置演算手段528により、本発明に係る位置検出手段が構成されている。
Here, the reference to the
一方、加工ステーション処理部53は、加工基台31上のワークWを第2視覚センサ32で撮像することで得られる第2距離画像に基づき(距離画像記憶手段56Cに記憶されている)、ワークWの輪郭画像を抽出する第1輪郭抽出手段530と、第2視覚センサ32の3次元座標系とロボット10の3次元座標系との傾きに関するずれを補正する第2センサ傾斜量補正手段531と、抽出された輪郭画像から点状のノイズを除去する点ノイズ除去手段532と、点ノイズが除去された輪郭画像からベクトル化処理により直線部分のデータを抽出するとともに、スプライン化処理により曲線部分のデータを抽出する第2輪郭抽出手段533と、これら抽出されたデータから図形ノイズを除去する図形ノイズ除去手段534とを備えている。第1輪郭抽出手段530で抽出された輪郭画像は輪郭画像記憶手段56Gに記憶される。
On the other hand, the processing
加えて、加工ステーション処理部53は、抽出された輪郭のデータをロボット10の座標系のデータに変換する第2ロボット座標変換手段535と、輪郭パターンテーブル記憶手段(テーブル記憶手段)56Hに記憶されたテーブルを参照して該当する輪郭画像の加工パス(加工を施すためのグラインダ16の軌跡)を選定する加工パス選定手段536と、選定された加工パスに応じた加工指令を汎用的なNCプログラム用Gコードとして生成するGコード変換手段(加工指令生成手段)537と、ワークWの仕上げ部分に対するグラインダ16の当接角度を付加するツール角度付加手段538と、当接角度が付加されたNCプログラムをロボット10専用のジョブ指令に変換するロボットジョブ変換手段539とを備えている。
In addition, the processing
ここで、前記輪郭パターンテーブル記憶手段56Hには、複数種類の代表的なワークWの形状パターンとしての輪郭パターン、および各輪郭パターンに対応した加工パスが記憶されている。また、加工パス選定手段536では、パターンマッチング等の技術により、抽出した輪郭画像に最も近い輪郭パターンを検索し、これに対応した加工パスを選定する。また、以上のうち、第1、第2輪郭抽出手段530,533により、本発明の形状検出手段が構成される。 Here, the contour pattern table storage means 56H stores contour patterns as shape patterns of a plurality of types of representative workpieces W and machining paths corresponding to the respective contour patterns. The processing path selection means 536 searches for the contour pattern closest to the extracted contour image by a technique such as pattern matching, and selects a processing path corresponding to the contour pattern. Of the above, the first and second contour extracting means 530 and 533 constitute the shape detecting means of the present invention.
ハンドリングジョブ指令生成手段54は、ワークWの移送に関するジョブ指令を生成する機能を有しており(加工に関するジョブ指令は前記加工ステーション処理部53で生成される)、計測部51および加工前パレット処理部52を起動させてワークWを搬入基台21から加工基台31へ搬入する搬入ジョブ指令生成手段540と、片面の仕上げが終了した後にワーク反転ステーション33を利用してワークWを反転させる反転ジョブ指令生成手段541と、グラインダ仕上げが終了した後にワークWを搬出基台41のパレット42上に搬出する搬出ジョブ指令生成手段542とを備えている。この際、反転ジョブ指令や搬出ジョブ指令は、ロボット10を予め設定された座標位置に移動させるだけであり、加工前パレット処理部52での3次元座標軸の補正処理のような複雑な処理は不要である。
The handling job
ロボット通信部55は、生成されたジョブ指令をロボットコントローラ10Aに送信するジョブ指令送信手段550と、処理済みのジョブ指令を削除するための指令を送信するジョブ指令削除手段551とを備えている。
The
続いて以下には、図5、図6のフローチャートを参照し、加工システム1によるグラインダ仕上げの流れについて説明する。
先ず、図5に示すワークW搬入時のフローチャートにおいて、作業者は予め、パレット22の基準高さH0、ワークWの基準傾斜量、および板厚を入力手段57から入力し、各記憶手段56D,56E,56Fに記憶させる(S1)。そして、図7にも示すように、搬入基台21上にパレット22毎ワークWが運ばれてきたのを確認し、作業者は加工システム1のスタートスイッチ等をオンにし、システムを稼働させる。
Subsequently, the grinder finishing flow by the processing system 1 will be described with reference to the flowcharts of FIGS. 5 and 6.
First, in the flowchart when the work W is carried in as shown in FIG. 5, the operator inputs in advance the reference height H 0 of the
すると、計測部51のシャッタトリガ手段510が起動して、第1視覚センサ23がパレット22上を撮像し(S2)、画像取得手段511が画像を取得し、この画像を第1原画像として第1原画像記憶手段56Aに記憶する。また、記憶された第1原画像をステレオ処理手段512がステレオ処理し(S3)、処理後の画像を第1距離画像として距離画像記憶手段56Cに記憶する。図8には、各第1視覚センサ23での原画像を合わせた状態が示されている。第1視覚センサ23が異なる位置の2台で構成されていることから、各第1視覚センサ23での原画像を合わせると、被撮像物(ここではワークW)の輪郭は一見2重にぼやけて撮像されたようになるが、このステレオ処理により第1視覚センサ23から被撮像物までの距離データ、すなわち距離画像を正確に生成できるのである。
Then, the
続いて、加工前パレット処理部52の距離分布作成手段520は、被撮像物の最上面までの距離分布を生成する(S4)。この後、第1センサ傾斜量補正手段521は、搬入基台21に設定された3次元座標軸の各軸に対する第1視覚センサ23の3次元座標軸の傾斜分の補正を行う(S5)。第1視覚センサ23の3次元座標軸が搬入基台21の3次元座表軸と一致するように、当該第1視覚センサ23を設置することが好ましいが、そのような設置は実質的に困難であるため、予めそのずれ具合を補正量として調べておき、この補正量に基づいて座標軸のずれを補正するのである。これにより、後の第1視覚センサ23の3次元座標系から搬入基台21の3次元座標系へのデータ変換が正確かつ容易になる。
Subsequently, the distance distribution creating means 520 of the pre-processing
この後、高さ演算手段522は、被撮像物の上面の最高高さを演算する(S6)。これは、ワークWが2箇所に積まれている場合、ロボット10でより多く積まれている山から先にワークWを取りに行くようにするためである。この最高高さは、搬入基台21の3次元座標系での値である。つまり、この高さ演算手段522では、第1視覚センサ23の3次元座標系から搬入基台21の3次元座標系への距離データの変換が行われるようになっている。次いで、面積演算手段523は、基準面からパレット22の基準高さH0+例えば5mmの高さ部分での被撮像物の面積S0を演算する(S7)。この面積S0はいわば、基準面に対して平行な平断面部分の面積となる。
Thereafter, the height calculating means 522 calculates the maximum height of the upper surface of the object to be imaged (S6). This is because when the workpieces W are stacked in two places, the workpieces W are picked up first from the mountain where the
本実施形態でのワークWとしては、板厚が9mmを想定している。従って、パレット22上にワークWが置かれている場合、S7においては当然、パレット22の直上にあるワークWの断面積が演算されることになる。そして、終了判定手段524は、その演算された面積S0が予め設定された最小面積よりも小さいか否かを判定する(S8)。面積S0が最小面積(本実施形態では、100cm2)よりも小さい場合、終了判定手段524は、その面積S0を有した被撮像物をワークWではなく、何らかの小さな異物であると判断し、パレット22上にはワークWが存在しないと判断して作業を終了する(S9)。
The workpiece W in this embodiment is assumed to have a plate thickness of 9 mm. Therefore, when the work W is placed on the
加えて、ワークWの他、何ら異物がパレット22上に存在しない場合、あるいは異物の高さが5mmよりも低い場合、距離分布を構成するデータ上においては、基準面からパレット22の基準高さH0+5mmの高さ部分での被撮像物が何ら存在しないことになるから、面積S0は0「ゼロ」となり、S8での終了判定手段524はやはり、面積S0が最小面積よりも小さいと判断し、S9に進んで作業を終了させ、移送作業を行わない。すなわち終了判定手段524によれば、パレット22上にワークWが存在しない場合を適格に判断できるのである。
In addition, when no foreign matter is present on the
これに対し、S8にて面積S0が最小面積よりも大きい場合には、面積S0がワークWの面積であると判断し、パレット22上にはワークWが存在していると判断する。この場合、輪郭抽出手段525は、最上段に積まれたワークW、すなわち前述の最高高さの上面を有する被撮像物の輪郭を抽出する(S10)。また、輪郭抽出手段525は、輪郭以外の2次元(2D)の画像データおよび3次元(3D)の距離分布データを画像処理対象から削除する(S11,S12)。
In contrast, when the area S 0 is larger than the minimum area in the S8, it determines the area S 0 is the area of the workpiece W, on the
次に、ワーク傾斜量演算手段526は、ワークW自身の傾斜量を演算し(S13)、傾斜異常判定手段527は、その傾斜状態がロボット10によるハンドリングが可能であるかを判定する(S14)。すなわち、S13において、演算によって求められたワークWの傾斜量が予め設定された基準傾斜量を超えている場合には、最上段のワークWが著しく傾斜して積まれており、ロボット10によって取りに行くことができないと判断し、作業を終了する(S15)。
Next, the workpiece inclination amount calculation means 526 calculates the inclination amount of the workpiece W itself (S13), and the inclination abnormality determination means 527 determines whether the inclination state can be handled by the robot 10 (S14). . That is, in S13, when the amount of inclination of the workpiece W obtained by the calculation exceeds a preset reference amount of inclination, the uppermost workpiece W is loaded with a significant inclination and is taken by the
S13において、ワークWの傾斜が基準傾斜量以内である場合、重心位置演算手段528は、図9に示すように、ワークWの重心位置C1を演算する(S16)。この後、第1ロボット座標変換手段529は、搬入基台21の3次元座標系で演算されたワークWの傾きおよび重心位置C1をそれぞれ、ロボット10が有する3次元座標系での傾きおよび重心位置C1に変換し(S17,S18)、このデータを搬入ジョブ指令生成手段540およびジョブ指令送信手段550を介してロボット10のロボットコントローラ10Aに送信する(S19)。
In S13, when the inclination of the workpiece W is within the reference inclination amount, the gravity center position calculation means 528 calculates the gravity center position C1 of the workpiece W as shown in FIG. 9 (S16). Thereafter, the first robot coordinate conversion means 529 uses the inclination and the center of gravity position in the three-dimensional coordinate system of the
このことにより、搬入ジョブ指令生成手段540では、変換されたデータに基づいて搬入用のジョブ指令を生成し、このジョブ指令によってロボット10にワークWを正しい位置に正しい姿勢で取りに行かせ、図10に示すように、加工ステーション30の中央位置C2に重心位置C1を一致させるようにワークWを移送する。なお、搬入基台21の3次元座標軸とロボット10の3次元座標軸とでは各軸の傾きが存在せず、座標系の変換は軸の傾斜補正無しに容易に行われる。また、中央位置C2の位置座標は、ロボット10の3次元座標系の位置座表として予め与えられている。
As a result, the carry-in job command generation means 540 generates a carry-in job command based on the converted data, and this job command causes the
加工ステーション30では、図6に示すフローチャートに示すように、先ず、搬入時と同様、計測部51のシャッタトリガ手段510が起動して、第2視覚センサ32が加工基台31上を撮像し(S21)、画像取得手段511が画像を取得し、この画像を第2原画像として第2原画像記憶手段56Bに記憶する。また、記憶された第2原画像をステレオ処理手段512がステレオ処理し(S22)、処理後の画像を第2距離画像として距離画像記憶手段56Cに記憶する。
In the
続いて、加工ステーション処理部53の第1輪郭抽出手段530は、ワークWの輪郭画像(点群のデータ)を抽出し、輪郭画像記憶手段56Gに記憶する(S23)。そして、第2センサ傾斜量補正手段531により、ロボット10に設定された3次元座標軸の各軸に対する第2視覚センサ32の3次元座標軸の傾斜分の補正を行う(S24)。第2視覚センサ32の3次元座標軸がロボット10の3次元座表軸と一致するように、当該第2視覚センサ32を設置することがやはり好ましいが、そのような設置も実質的に困難であるため、予めそのずれ具合を補正量として調べておき、この補正量に基づいて座標軸のずれを補正するのである。これにより、後の第2視覚センサ32の3次元座標系からロボット10の3次元座標系へのデータ変換が正確かつ容易になる。
Subsequently, the first
この後、点ノイズ除去手段532は、抽出された輪郭画像から点状のノイズを除去し(S25)、第2輪郭抽出手段533は、点ノイズが除去された輪郭画像からベクトル化処理により直線部分のデータを抽出するとともに(S26)、スプライン化処理により曲線部分のデータを抽出する(S27)。さらに、図形ノイズ除去手段534により、図形ノイズを除去する(S28)。そして、第2ロボット座標変換手段535は、第2視覚センサ32の3次元座標系で演算されたワークWの輪郭に係るデータを、ロボット10が有する3次元座標系でのデータに変換する(S29)。
Thereafter, the point
次いで、加工パス選定手段536は、輪郭画像に基づいてワークWの加工パスを選定する(S30)。加工パスは、グラインダ16をワークWに対してどのような軌跡でなぞらせるかを決めたものであり、輪郭パターンテーブル記憶手段56Hに記憶されている。より具体的には、この輪郭パターンテーブル記憶手段56Hには、グラインダ仕上げに供される様々なワークの輪郭パターンと、これに対応した加工パスのテーブルが記憶されている。
Next, the machining path selection means 536 selects a machining path for the workpiece W based on the contour image (S30). The machining path determines what path the
本実施形態でのワークWは、図11に示すように、互いに平行な長尺側の辺縁61,62と、辺縁61,62に対して直交する互いに平行な短尺側の辺縁63,64と、辺縁62,64間の傾斜した1辺縁65とを備えた5角形状の輪郭パターンをしており、この輪郭パターンにおいては、辺縁62→辺縁65→辺縁64に沿ってグラインダ16を連続して移動させる第1加工パスP1と、この第1加工パスP1に引き続いて、辺縁63→辺縁61に沿ってグラインダ16を移動させる第2加工パスP2とが予め決められてテーブル化されている。S30では、これらの加工パスP1,P2が選定される。なお、グラインダ16の回転方向は、第1、第2加工パスP1,P2で逆転している。いずれの加工パスP1,P2での加工中にも、火花がワークWの内部側に飛ぶようにグラインダ16を回転させるようになっている。
As shown in FIG. 11, the workpiece W in the present embodiment includes long side edges 61 and 62 that are parallel to each other, and short side edges 63 that are parallel to each other and orthogonal to the side edges 61 and 62. 64 and a pentagonal contour pattern having one
さらに、Gコード変換手段537は、選定された加工パスP1,P2に応じたNCプログラム用のGコードを生成し(S31)、ツール角度付加手段538は、そのGコードの一つとして、ワークWの仕上げ部分に対するグラインダ16の当接角度のデータを付加する(S32)。この後、ロボットジョブ変換手段539は、当接角度が付加されたNCプログラムをロボット10専用のジョブ指令に変換してロボット通信部55のジョブ指令送信手段550に出力し(S33)、ここを介してジョブ指令をロボットコントローラ10Aに送信する(S34)。この送信が完了すると、ロボット10が起動し、実際にグラインダ仕上げが実施される。
Further, the G code conversion means 537 generates a G code for the NC program corresponding to the selected machining paths P1 and P2 (S31), and the tool angle addition means 538 uses the workpiece W as one of the G codes. The data of the contact angle of the
また、ワークWの一方の面側のグラインダ仕上げが終了すると、反転ステーションを利用してワークWを反転させ、S21〜S34のステップを同様に繰り返し、他方の面側のグラインダ仕上げを施す。そして、両面の仕上げ加工が終了すると、ワークWを搬出ステーション40に移送する。搬出ステーション40のパレット42上でのワークWの位置は、図1に示すように、搬入ステーション20でのパレット22での位置をそのまま所定量だけ全体的にシフトした位置である。
When the grinder finishing on one surface side of the workpiece W is completed, the workpiece W is reversed using the reversing station, and the steps of S21 to S34 are repeated in the same manner to perform the grinder finishing on the other surface side. Then, when the finishing process on both sides is completed, the workpiece W is transferred to the unloading
以上に説明したように、本実施形態の自動加工システム1では、ワークWを第1、第2視覚センサ23,32で撮像するとともに、加工前パレット処理部52や加工ステーション処理部53によってワークWの位置や輪郭を検出する。従って、検出した位置に基づいてロボット10がワークWを自動的に取りに行ったり、輪郭に応じた加工パスP1,P2を自動的に選定して加工指令を生成したりするので、従来のように移送や加工に先立ってワークの図形データを作成する必要がなく、従来に比して作業を一層容易にできるのである。
しかも、第1原画像等に基づき、ワークWの重心位置C1を自動的に判断してロボット10がワークWを取りに行くので、ロボット10の煩わしいティーチング作業も不要である。
As described above, in the automatic machining system 1 of the present embodiment, the workpiece W is imaged by the first and second
Moreover, since the
なお、本発明は、前記実施形態に限定されるものではなく、本発明の目的を達成できる他の構成等を含み、以下に示すような変形等も本発明に含まれる。
例えば、前記実施形態では、1台のロボット10により、ワークWの移送および加工を行っていたが、搬入ステーション20から加工ステーション30へのワークWの移送、および加工ステーション30から搬出ステーション40へのワークWの移送を、専用の移送ロボットで行わせ、ワークWのグラインダ仕上げを、別の専用の加工ロボットで行わせてもよい。
In addition, this invention is not limited to the said embodiment, Including other structures etc. which can achieve the objective of this invention, the deformation | transformation etc. which are shown below are also contained in this invention.
For example, in the above embodiment, the workpiece W is transferred and processed by one
前記実施形態では、グラインダ16によるグラインダ仕上げについて説明したが、本発明は、ワークをガス、プラズマ、レーザ等により切断する場合にも適用できる。このような場合、切断後に得られるワークの形状を予めサンプル等を用いて視覚センサで撮像しておき、その形状にならって母材を切断すればよい。
In the above embodiment, grinder finishing by the
その他、本発明を実施するための最良の構成、方法などは、以上の記載で開示されているが、本発明は、これに限定されるものではない。すなわち、本発明は、主に特定の実施形態に関して特に図示され、かつ、説明されているが、本発明の技術的思想および目的の範囲から逸脱することなく、以上述べた実施形態に対し、形状、数量、その他の詳細な構成において、当業者が様々な変形を加えることができるものである。
従って、上記に開示した形状、数量などを限定した記載は、本発明の理解を容易にするために例示的に記載したものであり、本発明を限定するものではないから、それらの形状、数量などの限定の一部もしくは全部の限定を外した部材の名称での記載は、本発明に含まれるものである。
In addition, the best configuration, method and the like for carrying out the present invention have been disclosed in the above description, but the present invention is not limited to this. That is, the invention has been illustrated and described primarily with respect to particular embodiments, but may be configured for the above-described embodiments without departing from the scope and spirit of the invention. Various modifications can be made by those skilled in the art in terms of quantity, other details, and the like.
Therefore, the description limited to the shape, quantity and the like disclosed above is an example for easy understanding of the present invention, and does not limit the present invention. The description by the name of the member which remove | excluded the limitation of one part or all of such restrictions is included in this invention.
本発明は、例えばワークの輪郭等に沿って加工を行う場合に良好に適用できる。 The present invention can be favorably applied when machining is performed along the contour of a workpiece, for example.
1…自動加工システム、10…ロボット、16…加工ツールであるグラインダ、23…視覚センサである第1視覚センサ、56H…テーブル記憶手段である輪郭パターンテーブル記憶手段、530…形状検出手段を構成する第1輪郭抽出手段、533…形状検出手段を構成する第2輪郭抽出手段、536…加工パス選定手段、537…加工指令生成手段であるGコード変換手段、W…ワーク。 DESCRIPTION OF SYMBOLS 1 ... Automatic processing system, 10 ... Robot, 16 ... Grinder which is a processing tool, 23 ... 1st visual sensor which is a visual sensor, 56H ... Contour pattern table storage means which is table storage means, 530 ... Shape detection means is comprised First contour extraction means, 533... Second contour extraction means constituting the shape detection means, 536... Machining path selection means, 537... G code conversion means as machining command generation means, W.
Claims (2)
ワークを撮像する手順と、
撮像された画像に基づいて前記ワークの形状パターンを検出する手順と、
複数の形状パターンおよび加工パスを関連付けるテーブルから、検出された前記形状パターンに基づく加工パスを選定する手順と、
選定された加工パスに基づいて加工用の指令を生成する手順と、
この加工用の指令に基づいてロボットおよびこのロボットに取り付けられた加工ツールを作動させて前記ワークを加工する手順とを備えている
ことを特徴とするワークの自動加工方法。 In the automatic machining method for workpieces,
A procedure for imaging the workpiece;
A procedure for detecting the shape pattern of the workpiece based on the captured image;
A procedure for selecting a machining path based on the detected shape pattern from a table associating a plurality of shape patterns and machining paths;
A procedure for generating a machining command based on the selected machining path;
An automatic workpiece machining method comprising: operating a robot and a machining tool attached to the robot based on the machining command to machine the workpiece.
ワークを撮像する視覚センサと、
視覚センサでの画像に基づいて前記ワークの形状パターンを検出する形状検出手段と、 複数の形状パターンおよび加工パスを関連付けるテーブルが記憶されたテーブル記憶手段と、
前記形状検出手段で検出された形状パターンに基づく加工パスを前記テーブルから選定する加工パス選定手段と、
選定された加工パスに基づいて加工用の指令を生成する加工指令生成手段と、
この加工用の指令に基づいて作動するロボットと、
このロボットに取り付けられて前記加工用の指令に基づき作動する加工ツールとを備えている
ことを特徴とするワークの自動加工システム。 In automatic workpiece machining system,
A visual sensor for imaging the workpiece;
Shape detection means for detecting the shape pattern of the workpiece based on an image of a visual sensor; table storage means for storing a table for associating a plurality of shape patterns and machining paths;
Machining path selection means for selecting a machining path based on the shape pattern detected by the shape detection means from the table;
Machining command generation means for generating a machining command based on the selected machining path;
A robot that operates based on this processing command;
An automatic workpiece machining system comprising: a machining tool attached to the robot and operating based on the machining command.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005206061A JP2007025991A (en) | 2005-07-14 | 2005-07-14 | Automatic working method for work and automatic working system for work |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005206061A JP2007025991A (en) | 2005-07-14 | 2005-07-14 | Automatic working method for work and automatic working system for work |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007025991A true JP2007025991A (en) | 2007-02-01 |
Family
ID=37786672
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005206061A Withdrawn JP2007025991A (en) | 2005-07-14 | 2005-07-14 | Automatic working method for work and automatic working system for work |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007025991A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010094777A (en) * | 2008-10-16 | 2010-04-30 | Fuji Electric Systems Co Ltd | Remote control support device |
JP2011045898A (en) * | 2009-08-26 | 2011-03-10 | Amada Co Ltd | Welding robot |
JP2015139790A (en) * | 2014-01-27 | 2015-08-03 | 日産自動車株式会社 | Method for manufacturing component to be welded |
JP2017013147A (en) * | 2015-06-29 | 2017-01-19 | 東芝機械株式会社 | Work-piece processing method and work-piece processing device |
-
2005
- 2005-07-14 JP JP2005206061A patent/JP2007025991A/en not_active Withdrawn
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010094777A (en) * | 2008-10-16 | 2010-04-30 | Fuji Electric Systems Co Ltd | Remote control support device |
JP2011045898A (en) * | 2009-08-26 | 2011-03-10 | Amada Co Ltd | Welding robot |
JP2015139790A (en) * | 2014-01-27 | 2015-08-03 | 日産自動車株式会社 | Method for manufacturing component to be welded |
JP2017013147A (en) * | 2015-06-29 | 2017-01-19 | 東芝機械株式会社 | Work-piece processing method and work-piece processing device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2007021634A (en) | Automatic machining method for workpiece and automatic machining system for workpiece | |
US11173601B2 (en) | Teaching device for performing robot teaching operations and teaching method | |
EP3863791B1 (en) | System and method for weld path generation | |
JP3300682B2 (en) | Robot device with image processing function | |
JP4235214B2 (en) | Apparatus, program, recording medium, and method for creating robot program | |
US7966094B2 (en) | Workpiece picking apparatus | |
JP3930490B2 (en) | Article take-out device | |
JP5860021B2 (en) | Fastening device, robot system, and fastening method for fastening a plurality of fastening members | |
JP6785931B1 (en) | Production system | |
JP5815761B2 (en) | Visual sensor data creation system and detection simulation system | |
CN113305849B (en) | Intelligent flat groove cutting system and method based on composite vision | |
US9718189B2 (en) | Robot teaching device for teaching robot offline | |
JP2006048244A (en) | Working program generating device | |
WO2011140646A1 (en) | Method and system for generating instructions for an automated machine | |
JP2006004128A (en) | Interference confirmation device | |
EP3630404B1 (en) | An apparatus and a method for automated seam welding of a work piece comprising a base plate with a pattern of upstanding profiles | |
CN112549052A (en) | Control device for a robot device for adjusting the position of a component supported by the robot | |
CN101653939A (en) | Off-line teaching data consummating method and robot system | |
JP2007025991A (en) | Automatic working method for work and automatic working system for work | |
CN113379704A (en) | Component weld joint surface defect identification positioning and polishing method, controller and system | |
JP2007021635A (en) | Automatic handing method for workpiece and automatic handling system for workpiece | |
KR20180076966A (en) | Method for detecting workpiece welding line by welding robot | |
CN108857130A (en) | A kind of ship universal structural member 3-D positioning method based on the processing of image framing bit | |
JPH1063324A (en) | Picture input-type robot system | |
CN116542914A (en) | Weld joint extraction and fitting method based on 3D point cloud |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20070820 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070821 |
|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20081007 |