JP2007025991A - Automatic working method for work and automatic working system for work - Google Patents

Automatic working method for work and automatic working system for work Download PDF

Info

Publication number
JP2007025991A
JP2007025991A JP2005206061A JP2005206061A JP2007025991A JP 2007025991 A JP2007025991 A JP 2007025991A JP 2005206061 A JP2005206061 A JP 2005206061A JP 2005206061 A JP2005206061 A JP 2005206061A JP 2007025991 A JP2007025991 A JP 2007025991A
Authority
JP
Japan
Prior art keywords
workpiece
machining
work
robot
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2005206061A
Other languages
Japanese (ja)
Inventor
Yoshihiro Nishinaga
嘉浩 西永
Nobumasa Baba
宣雅 馬場
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Komatsu Engineering Corp
Original Assignee
Komatsu Engineering Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Komatsu Engineering Corp filed Critical Komatsu Engineering Corp
Priority to JP2005206061A priority Critical patent/JP2007025991A/en
Publication of JP2007025991A publication Critical patent/JP2007025991A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)
  • Numerical Control (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide the automatic working method and system of a work for further facilitating an operation such as burr removal or fusion cutting. <P>SOLUTION: In this automatic working system 1, the image of a work is picked up by first and second visual sensors 23 and 32, and the outline of the work is detected by a working station processing part 53, and a working command is generated by automatically selecting a working path corresponding to the detected outline so that it is not necessary to prepare the graphic data of a work prior to the transport or working in a conventional manner, and it is possible to further facilitate an operation than a conventional manner. Furthermore, a robot 10 goes to pick up the work by automatically judging the position of the center of gravity of the work based on a first original image or the like, so that it is not necessary to perform the troublesome teaching operation of a robot 10. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、ワークの自動加工方法およびワークの自動加工システムに関する。   The present invention relates to a workpiece automatic machining method and a workpiece automatic machining system.

板金加工されたワークには、その加工の種類によりバリ、ノロ(スラグ)、あるいはスパッタ等を生じる場合があり、従来では、これらを手作業によるグラインダ仕上げにより取り除いていた。
これに対して最近では、そのようなワークのバリ取り作業を簡便に行うバリ取りシステムが提案されている(例えば、特許文献1)。このバリ取りシステムでは、オペレータがワークの図形データを作成し、この図形データに基づいて制御装置がバリ取り用の加工プログラムを作成し、この加工プログラムにより多軸型のバリ取りロボットがバリ取り作業を自動的に行うようになっている。
Depending on the type of processing, there are cases where burrs, noro (slag), spatter, and the like are generated on the workpiece processed by sheet metal, and these have been removed by manual grinder finishing.
On the other hand, recently, a deburring system for easily performing such deburring work on a workpiece has been proposed (for example, Patent Document 1). In this deburring system, the operator creates graphic data for the workpiece, and the control device creates a machining program for deburring based on this graphic data. This machining program allows the multi-axis type deburring robot to perform deburring work. Is to be done automatically.

特開2002−126928号公報JP 2002-126828 A

しかしながら、前記特許文献に記載のバリ取りシステムでは、NC装置のキーボードおよびCRTディスプレイを使用して、オペレータがワークの立体姿図や展開図などの図形データを予め作成する必要があるため、そのデータ作成に手間がかかってしまい、必ずしもバリ取り作業を簡便に行えるとはいえなかった。   However, in the deburring system described in the above-mentioned patent document, it is necessary for an operator to create graphic data such as a three-dimensional figure of a work and a development drawing in advance using a keyboard and a CRT display of an NC device. It took a lot of time to create, and it could not be said that deburring work could be performed easily.

本発明の目的は、バリ取りや溶断等の作業を一層容易にできるワークの自動加工方法およびワークの自動加工システムを提供することにある。   An object of the present invention is to provide an automatic workpiece processing method and an automatic workpiece processing system that can further facilitate operations such as deburring and fusing.

本発明の請求項1に係るワークの自動加工方法は、ワークを撮像する手順と、撮像された画像に基づいて前記ワークの形状パターンを検出する手順と、複数の形状パターンおよび加工パスを関連付けるテーブルから、検出された前記形状パターンに基づく加工パスを選定する手順と、選定された加工パスに基づいて加工用の指令を生成する手順と、この加工用の指令に基づいてロボットおよびこのロボットに取り付けられた加工ツールを作動させて前記ワークを加工する手順とを備えていることを特徴とする。   A workpiece automatic machining method according to claim 1 of the present invention is a table that associates a plurality of shape patterns and machining paths with a procedure for imaging a workpiece, a procedure for detecting a shape pattern of the workpiece based on the captured image. From the above, a procedure for selecting a machining path based on the detected shape pattern, a procedure for generating a machining command based on the selected machining path, and a robot and attachment to the robot based on the machining command And a procedure for machining the workpiece by operating a machining tool provided.

本発明の請求項2に係るワークの自動加工システムは、ワークを撮像する視覚センサと、視覚センサでの画像に基づいて前記ワークの形状パターンを検出する形状検出手段と、複数の形状パターンおよび加工パスを関連付けるテーブルが記憶されたテーブル記憶手段と、前記形状検出手段で検出された形状パターンに基づく加工パスを前記テーブルから選定する加工パス選定手段と、選定された加工パスに基づいて加工用の指令を生成する加工指令生成手段と、この加工用の指令に基づいて作動するロボットと、このロボットに取り付けられて前記加工用の指令に基づき作動する加工ツールとを備えていることを特徴とする。   A workpiece automatic machining system according to a second aspect of the present invention includes a visual sensor that images a workpiece, shape detection means that detects a shape pattern of the workpiece based on an image of the visual sensor, a plurality of shape patterns, and machining. A table storage unit storing a table for associating a path; a processing path selecting unit for selecting a processing path based on the shape pattern detected by the shape detection unit from the table; and a processing path based on the selected processing path. A processing command generating means for generating a command, a robot that operates based on the processing command, and a processing tool that is attached to the robot and operates based on the processing command. .

請求項1および請求項2の発明によれば、ワークを撮像してその形状パターンを検出し、その形状パターンに応じた加工用の指令、例えばグラインダ仕上げにおいては、グラインダでなぞる軌跡(加工パス)を自動的に生成するので、従来のように移送や加工に先立ってワークの図形データを作成する必要がなく、従来に比して作業を一層容易にできる。   According to the first and second aspects of the present invention, a workpiece is imaged, its shape pattern is detected, and a machining command corresponding to the shape pattern, for example, in a grinder finishing, a trace (machining path) traced by the grinder. Is automatically generated, it is not necessary to create graphic data of a work prior to transfer or processing as in the conventional case, and the work can be further facilitated as compared with the conventional case.

以下、本発明の一実施形態を図面に基づいて説明する。
図1は、本実施形態に係る加工システム1の概略構成を模式的に示す平面図、図2は、その側面図である。図3は、加工システム1で用いられるロボット10を示す斜視図、図4は、加工システム1を示すブロック図である。
Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
FIG. 1 is a plan view schematically showing a schematic configuration of a processing system 1 according to the present embodiment, and FIG. 2 is a side view thereof. FIG. 3 is a perspective view showing the robot 10 used in the processing system 1, and FIG. 4 is a block diagram showing the processing system 1.

図1、図2において、加工システム1は、溶断等で得られた板状金属のワークWにグラインダ仕上げを施すシステムであって、溶断時に生じたスパッタやノロを自動的に取り除くように構成されている。具体的に加工システム1は、中央に配置されたロボット10と、このロボット10の周囲に配置されたワークW搬入用の搬入ステーション20と、ワークWにグラインダ仕上げを施す加工ステーション30と、作業が終了したワークWを載置しておく搬出ステーション40と、加工システム1全体を制御する制御装置50とを備えている。   1 and 2, the processing system 1 is a system for applying a grinder finish to a plate-like metal workpiece W obtained by fusing, etc., and is configured to automatically remove spatter and nose generated during fusing. ing. Specifically, the machining system 1 includes a robot 10 arranged in the center, a carry-in station 20 for carrying a workpiece W arranged around the robot 10, a machining station 30 for applying a grinder finish to the workpiece W, and a work An unloading station 40 on which the finished work W is placed and a control device 50 for controlling the entire processing system 1 are provided.

ロボット10は、図3に示すように、6つの回動軸R1〜R6を備えた多軸型であり、専用のジョブ指令によって作動する。このようなジョブ指令は、制御盤および操作盤からなるロボットコントローラ10Aで読み込まれ、ジョブ指令に従って各軸用のサーボモータが駆動される。つまり、各サーボモータの駆動により、図3に示した旋回部11、第1アーム12、第2アーム13、アタッチメント14がロボット固有の3次元座標系で回動するとともに、他のジョブ指令によってはアタッチメント14が作動する。   As shown in FIG. 3, the robot 10 is a multi-axis type having six rotation axes R1 to R6, and operates according to a dedicated job command. Such a job command is read by the robot controller 10A including a control panel and an operation panel, and the servo motor for each axis is driven according to the job command. That is, by driving each servo motor, the turning unit 11, the first arm 12, the second arm 13, and the attachment 14 shown in FIG. 3 are rotated in a robot-specific three-dimensional coordinate system, and depending on other job commands. Attachment 14 is activated.

このロボット10の特にアタッチメント14は、4つの電磁石で構成された磁着部15と、磁着部15のワーク磁着側とは反対側に設けられたグラインダ(加工ツール)16とを備えており、第2アーム13の先端に取り付けられて回動軸R6回りに回動する。すなわち、図3に示した状態は、ワークWを磁着部15によって上方から取りに行く姿勢であり、ワークWにグラインダ仕上げを施す場合には、アタッチメント14を180度回動させ、グラインダ16を下側にして作業を行う。また、作業時の制御として、アタッチメント14を回動軸R5回りに所定角度傾斜させることで、グラインダ16をワークWに対して適切な角度で当接できるようになっている。グラインダ16の回転方向は、正逆切換可能である。   Particularly, the attachment 14 of the robot 10 includes a magnetized part 15 constituted by four electromagnets, and a grinder (processing tool) 16 provided on the opposite side of the magnetized part 15 from the workpiece magnetized side. , Attached to the tip of the second arm 13 and rotated around the rotation axis R6. That is, the state shown in FIG. 3 is a posture in which the workpiece W is taken from above by the magnetized portion 15, and when the workpiece W is subjected to a grinder finish, the attachment 14 is rotated 180 degrees, and the grinder 16 is moved. Work down. Further, as a control during work, the grinder 16 can be brought into contact with the workpiece W at an appropriate angle by inclining the attachment 14 around the rotation axis R5 by a predetermined angle. The rotation direction of the grinder 16 can be switched between forward and reverse.

搬入ステーション20は、金属フレーム等で枠組みされた搬入基台21を備え、搬入基台21の上面にはワークWを載せたパレット22がフォークリフト等で平置きされる。搬入基台21の上面は、高さH=0「ゼロ」の基準面とされており、搬入基台21には当該基準面内の1点を0点とした3次元座標系が設定されている。従って、搬入基台21の基準面に載置されるパレット22の基準高さがHとして既知であり、ワークWの板厚も既知である場合、パレット22に載せられた1枚のワークWの上面は、前記3次元座標系ではH+板厚の高さにあるといえる。 The carry-in station 20 includes a carry-in base 21 framed by a metal frame or the like, and a pallet 22 on which a workpiece W is placed is placed flat on the top surface of the carry-in base 21 by a forklift or the like. The upper surface of the carry-in base 21 is a reference plane having a height H = 0 “zero”, and a three-dimensional coordinate system is set on the carry-in base 21 with one point in the reference plane as 0 point. Yes. Therefore, when the reference height of the pallet 22 placed on the reference surface of the carry-in base 21 is known as H 0 and the plate thickness of the work W is also known, one work W placed on the pallet 22 is known. Can be said to be at the height of H 0 + plate thickness in the three-dimensional coordinate system.

また、搬入ステーション20の上方には、パレット22上を撮像するためのCCDカメラ等からなる一対の第1視覚センサ23が設置されている。第1視覚センサ23が一対設けられているのは、撮像されたワークWまでの距離をステレオ処理によって演算するためであり、より具体的には、基準面からワークW上面までの高さを演算するためである。つまり、第1視覚センサ23からの画像情報は、パレット22上にあるワークWをロボット10で取りに行くために用いられるのであり、第1原画像として制御装置50に出力される。このような第1視覚センサ23にも、固有の3次元座標系が設定されている。   In addition, a pair of first visual sensors 23 composed of a CCD camera or the like for imaging the pallet 22 is installed above the carry-in station 20. The pair of first visual sensors 23 is provided to calculate the distance to the imaged work W by stereo processing. More specifically, the height from the reference surface to the upper surface of the work W is calculated. It is to do. That is, the image information from the first visual sensor 23 is used for picking up the workpiece W on the pallet 22 by the robot 10, and is output to the control device 50 as the first original image. A unique three-dimensional coordinate system is also set for the first visual sensor 23.

ここで、ワークWは通常、パレット22上の複数の任意な位置に任意な向きで載置され、各位置において、複数枚重ねられていることが多い。本実施形態では、ワークWが図7に示す向きで2箇所に複数枚積まれている。このようなワークWは、例えば建設機械のフレームの一部を構成する大型で大重量の部材であり、ハンドリング性が良好とはいえないうえ、パレット22上の決められた位置に位置決めして載置するのが困難とされている。   Here, the workpiece W is usually placed in a plurality of arbitrary positions on the pallet 22 in an arbitrary direction, and in many cases, a plurality of sheets are stacked at each position. In the present embodiment, a plurality of workpieces W are stacked in two locations in the direction shown in FIG. Such a workpiece W is a large and heavy member that constitutes a part of the frame of a construction machine, for example, and it cannot be said that the handling property is good, and is positioned and placed at a predetermined position on the pallet 22. It is difficult to place.

加工ステーション30は、上面がワークWとは対照的な色合いの加工基台31を備え、この加工基台31上にワークWが置かれた状態でグラインダ仕上げが行われる。この加工基台31上面の中央位置C2(図10)は、前述したロボット10の3次元座標系での位置座標として予めわかっている。このため、中央位置C2の位置座標の情報を含むジョブ指令をロボット10に与えることで、ロボット10は搬入ステーション20で磁着したワークWを加工基台31上の中央に即座に移動させることが可能である。   The processing station 30 includes a processing base 31 whose upper surface is in contrast to the work W, and grinder finishing is performed with the work W placed on the processing base 31. The center position C2 (FIG. 10) on the upper surface of the processing base 31 is known in advance as the position coordinates in the three-dimensional coordinate system of the robot 10 described above. For this reason, by giving the robot 10 a job command including information on the position coordinates of the center position C2, the robot 10 can immediately move the workpiece W magnetically attached at the loading station 20 to the center on the processing base 31. Is possible.

このような加工ステーション30の上方にも、加工基台31上を撮像するための同様な一対の第2視覚センサ32が設置されている。第2視覚センサ32からの画像情報は、第2原画像として制御装置50に出力され、ワークWの輪郭を抽出して加工パスを選定するために用いられる。第2視覚センサ32にも、固有の3次元座標系が設定されている。   A pair of similar second visual sensors 32 for imaging the processing base 31 is also installed above the processing station 30. The image information from the second visual sensor 32 is output to the control device 50 as a second original image, and is used for extracting the contour of the workpiece W and selecting a machining path. A unique three-dimensional coordinate system is also set for the second visual sensor 32.

さらに、加工ステーション30近傍には、ワーク反転ステーション33が設置されている。グラインダ仕上げは、ワークWの表裏両面について実施されるため、表面側の作業が終了した後には、ワークWを一旦ワーク反転ステーション33に移動し、そこに設けられた横架台34に上方から架け渡して置き、このワークWを今度は下方(裏面側)から取りに行くのである。下方から磁着されたワークWは、反転されて再度加工ステーションに30に戻され、裏面側が表になってグラインダ仕上げされることになる。   Further, a work reversing station 33 is installed in the vicinity of the processing station 30. Since the grinder finish is performed on both the front and back surfaces of the workpiece W, after the work on the front surface side is finished, the workpiece W is temporarily moved to the workpiece reversing station 33 and is transferred from above to the horizontal platform 34 provided there. This work W is now picked up from below (back side). The workpiece W magnetically attached from below is reversed and returned to the processing station 30 again, and the back side is turned upside down and is grinder finished.

搬出ステーション40は、搬入ステーション20と同様な搬出基台41を備え、搬出基台41上にはパレット42が載せられている。パレット42の位置は、搬入ステーション20でのパレット22の位置に対して所定量だけシフトした位置として与えられており、グラインダ仕上げが終了したワークWは、搬入ステーション20へ搬入された位置をそのまま搬出ステーション40に移行した格好でパレット42上に置かれる。   The carry-out station 40 includes a carry-out base 41 similar to the carry-in station 20, and a pallet 42 is placed on the carry-out base 41. The position of the pallet 42 is given as a position shifted by a predetermined amount with respect to the position of the pallet 22 at the carry-in station 20, and the workpiece W that has been finished with the grinder finishes the position carried into the carry-in station 20 as it is. It is placed on the pallet 42 with the appearance of shifting to the station 40.

制御装置50は、パーソナルコンピュータ等で構成されており、図4に示すように、それぞれ適宜なハードウェアあるいはソフトウェア(画像処理プログラム)からなる計測部51、加工前パレット処理部52、加工ステーション処理部53、ハンドリングジョブ指令生成部54、ロボット通信部55、複数の記憶部56、キーボード等の入力手段57、および図示しないディスプレイ装置を備えている。以下に制御装置50の各部について詳説する。   The control device 50 is composed of a personal computer or the like, and as shown in FIG. 4, a measuring unit 51, a pre-processing pallet processing unit 52, and a processing station processing unit each consisting of appropriate hardware or software (image processing program). 53, a handling job command generation unit 54, a robot communication unit 55, a plurality of storage units 56, an input means 57 such as a keyboard, and a display device (not shown). Below, each part of the control apparatus 50 is explained in full detail.

計測部51は、第1、第2視覚センサ23,32に撮像指令を出力するシャッタトリガ手段510と、第1、第2視覚センサ23,32で撮像された被撮像物の画像を取得する画像取得手段511と、取得した画像のステレオ処理を行って距離画像を生成するステレオ処理手段512とを備えている。画像取得手段511で取得された被撮像物の画像は、第1、第2視覚センサ23,32毎にわけられ、第1原画像(左右)および第2原画像(左右)として第1、第2原画像記憶手段56A,56Bに記憶される。ステレオ処理手段512で生成された距離画像も、第1、第2視覚センサ23,32からの第1、第2距離画像として距離画像記憶手段56Cに記憶される。   The measuring unit 51 obtains an image of the object to be imaged captured by the shutter trigger unit 510 that outputs an imaging command to the first and second visual sensors 23 and 32 and the first and second visual sensors 23 and 32. An acquisition unit 511 and a stereo processing unit 512 that performs stereo processing of the acquired image to generate a distance image are provided. The image of the object to be captured acquired by the image acquisition means 511 is divided for each of the first and second visual sensors 23 and 32, and the first and second original images (left and right) and second original images (left and right) are the first and second. Two original image storage means 56A and 56B are stored. The distance image generated by the stereo processing means 512 is also stored in the distance image storage means 56C as the first and second distance images from the first and second visual sensors 23 and 32.

加工前パレット処理部52は、前記第1距離画像のデータに基づいて距離分布を作成する距離分布作成手段520と、第1視覚センサ23の3次元座標系と搬入ステーション20の搬入基台21側の3次元座標系との傾きに関するずれを補正する第1センサ傾斜量補正手段521と、第1視覚センサ23の3次元座標系でのデータである第1距離画像の画像データを搬入基台21側の3次元座標系のデータに変換するとともに、変換したデータに基づいて搬入基台21の基準面から被撮像物上面までの高さを演算する高さ演算手段522と、前記データに基づいて被撮像物の所定高さでの面積を演算する面積演算手段523と、面積を演算した結果、その被撮像物がワークWであるか否かを判定し、ワークWではない場合に作業を終了させる終了判定手段524と備えている。   The pre-processing pallet processing unit 52 includes a distance distribution creating unit 520 that creates a distance distribution based on the data of the first distance image, a three-dimensional coordinate system of the first visual sensor 23, and the loading base 21 side of the loading station 20. The first sensor inclination amount correcting means 521 for correcting a deviation regarding the inclination with respect to the three-dimensional coordinate system, and the image data of the first distance image, which is the data in the three-dimensional coordinate system of the first visual sensor 23, are carried in the base 21. And calculating the height from the reference surface of the carry-in base 21 to the upper surface of the object to be imaged based on the converted data, Area calculation means 523 for calculating the area of the object to be imaged at a predetermined height, and as a result of calculating the area, it is determined whether or not the object to be imaged is a workpiece W. Make It includes a completion determining means 524.

さらに、加工前パレット処理部52は、被撮像物がワークWである場合に、ワークWの輪郭のデータを抽出する輪郭抽出手段525と、ワークW自身の傾斜量を演算するワーク傾斜量演算手段526と、演算された傾斜量に基づき、ワークWが異常に傾斜していないかを判定する傾斜異常判定手段527と、ワークWの重心位置C1(図9)を演算する重心位置演算手段528と、演算された重心位置をロボット10の3次元座標系の位置に変換する第1ロボット座標変換手段529とを備えている。   Furthermore, when the object to be imaged is the workpiece W, the pre-processing pallet processing unit 52 includes a contour extracting unit 525 that extracts data on the contour of the workpiece W, and a workpiece tilt amount calculating unit that calculates the tilt amount of the workpiece W itself. 526, an inclination abnormality determining means 527 for determining whether or not the workpiece W is abnormally inclined based on the calculated inclination amount, and a gravity center position calculating means 528 for calculating the gravity center position C1 (FIG. 9) of the workpiece W. And a first robot coordinate conversion means 529 for converting the calculated center-of-gravity position into a position in the three-dimensional coordinate system of the robot 10.

ここで、基準高さ記憶手段56Dには、基準高さHとして、パレット22の高さが記憶され、基準傾斜量記憶手段56Eには、ワークWの基準傾斜量が記憶され、板厚記憶手段56Fには、ワークWの厚さが記憶されている。基準傾斜量とは、ワークWをロボット10のアタッチメント14で取りに行くことのできる傾斜量であり、この基準傾斜量を超えてワークWが積み重ねられている場合には、アタッチメント14でワークを良好に保持できない可能性があると判断される。また、以上のうち、高さ演算手段522および重心位置演算手段528により、本発明に係る位置検出手段が構成されている。 Here, the reference to the height storage unit 56D, the reference as the height H 0, the height of the pallet 22 is stored, the reference tilt value memory 56E, reference tilt of the workpiece W is stored, thickness storage The means 56F stores the thickness of the workpiece W. The reference inclination amount is an inclination amount with which the workpiece W can be picked up by the attachment 14 of the robot 10. When the workpieces W are stacked exceeding the reference inclination amount, the workpiece 14 is good with the attachment 14. It is judged that there is a possibility that it cannot be retained. Of the above, the height detecting means 522 and the gravity center position calculating means 528 constitute a position detecting means according to the present invention.

一方、加工ステーション処理部53は、加工基台31上のワークWを第2視覚センサ32で撮像することで得られる第2距離画像に基づき(距離画像記憶手段56Cに記憶されている)、ワークWの輪郭画像を抽出する第1輪郭抽出手段530と、第2視覚センサ32の3次元座標系とロボット10の3次元座標系との傾きに関するずれを補正する第2センサ傾斜量補正手段531と、抽出された輪郭画像から点状のノイズを除去する点ノイズ除去手段532と、点ノイズが除去された輪郭画像からベクトル化処理により直線部分のデータを抽出するとともに、スプライン化処理により曲線部分のデータを抽出する第2輪郭抽出手段533と、これら抽出されたデータから図形ノイズを除去する図形ノイズ除去手段534とを備えている。第1輪郭抽出手段530で抽出された輪郭画像は輪郭画像記憶手段56Gに記憶される。   On the other hand, the processing station processing unit 53 is based on the second distance image obtained by imaging the work W on the processing base 31 with the second visual sensor 32 (stored in the distance image storage unit 56C). A first contour extraction unit 530 that extracts a contour image of W; a second sensor tilt amount correction unit 531 that corrects a shift related to a tilt between the three-dimensional coordinate system of the second visual sensor 32 and the three-dimensional coordinate system of the robot 10; , Point noise removing means 532 for removing point-like noise from the extracted contour image, and extracting the data of the straight line portion from the contour image from which the point noise has been removed by vectorization processing, and of the curved portion by spline processing. A second contour extracting unit 533 for extracting data and a graphic noise removing unit 534 for removing graphic noise from the extracted data are provided. The contour image extracted by the first contour extraction means 530 is stored in the contour image storage means 56G.

加えて、加工ステーション処理部53は、抽出された輪郭のデータをロボット10の座標系のデータに変換する第2ロボット座標変換手段535と、輪郭パターンテーブル記憶手段(テーブル記憶手段)56Hに記憶されたテーブルを参照して該当する輪郭画像の加工パス(加工を施すためのグラインダ16の軌跡)を選定する加工パス選定手段536と、選定された加工パスに応じた加工指令を汎用的なNCプログラム用Gコードとして生成するGコード変換手段(加工指令生成手段)537と、ワークWの仕上げ部分に対するグラインダ16の当接角度を付加するツール角度付加手段538と、当接角度が付加されたNCプログラムをロボット10専用のジョブ指令に変換するロボットジョブ変換手段539とを備えている。   In addition, the processing station processing unit 53 is stored in the second robot coordinate conversion means 535 that converts the extracted contour data into the coordinate system data of the robot 10 and the contour pattern table storage means (table storage means) 56H. The processing path selection means 536 for selecting the processing path of the corresponding contour image (the locus of the grinder 16 for performing processing) with reference to the table, and a general NC program for processing commands corresponding to the selected processing path G code conversion means (machining command generation means) 537 for generating a G code, tool angle adding means 538 for adding the contact angle of the grinder 16 to the finished portion of the workpiece W, and an NC program to which the contact angle is added Is converted to a job command dedicated to the robot 10.

ここで、前記輪郭パターンテーブル記憶手段56Hには、複数種類の代表的なワークWの形状パターンとしての輪郭パターン、および各輪郭パターンに対応した加工パスが記憶されている。また、加工パス選定手段536では、パターンマッチング等の技術により、抽出した輪郭画像に最も近い輪郭パターンを検索し、これに対応した加工パスを選定する。また、以上のうち、第1、第2輪郭抽出手段530,533により、本発明の形状検出手段が構成される。   Here, the contour pattern table storage means 56H stores contour patterns as shape patterns of a plurality of types of representative workpieces W and machining paths corresponding to the respective contour patterns. The processing path selection means 536 searches for the contour pattern closest to the extracted contour image by a technique such as pattern matching, and selects a processing path corresponding to the contour pattern. Of the above, the first and second contour extracting means 530 and 533 constitute the shape detecting means of the present invention.

ハンドリングジョブ指令生成手段54は、ワークWの移送に関するジョブ指令を生成する機能を有しており(加工に関するジョブ指令は前記加工ステーション処理部53で生成される)、計測部51および加工前パレット処理部52を起動させてワークWを搬入基台21から加工基台31へ搬入する搬入ジョブ指令生成手段540と、片面の仕上げが終了した後にワーク反転ステーション33を利用してワークWを反転させる反転ジョブ指令生成手段541と、グラインダ仕上げが終了した後にワークWを搬出基台41のパレット42上に搬出する搬出ジョブ指令生成手段542とを備えている。この際、反転ジョブ指令や搬出ジョブ指令は、ロボット10を予め設定された座標位置に移動させるだけであり、加工前パレット処理部52での3次元座標軸の補正処理のような複雑な処理は不要である。   The handling job command generation unit 54 has a function of generating a job command related to the transfer of the workpiece W (a job command related to processing is generated by the processing station processing unit 53), and the measurement unit 51 and pallet processing before processing. Inverting the workpiece W by using the workpiece reversing station 33 after finishing the one-side finishing and the loading job command generating means 540 that loads the workpiece W from the loading platform 21 to the machining platform 31 by starting the section 52 Job command generating means 541 and unloading job command generating means 542 for unloading the workpiece W onto the pallet 42 of the unloading base 41 after the grinder finishing is completed. At this time, the reverse job command and the carry-out job command only move the robot 10 to a preset coordinate position, and complicated processing such as correction processing of the three-dimensional coordinate axes in the pre-processing pallet processing unit 52 is unnecessary. It is.

ロボット通信部55は、生成されたジョブ指令をロボットコントローラ10Aに送信するジョブ指令送信手段550と、処理済みのジョブ指令を削除するための指令を送信するジョブ指令削除手段551とを備えている。   The robot communication unit 55 includes a job command transmission unit 550 that transmits the generated job command to the robot controller 10A, and a job command deletion unit 551 that transmits a command for deleting the processed job command.

続いて以下には、図5、図6のフローチャートを参照し、加工システム1によるグラインダ仕上げの流れについて説明する。
先ず、図5に示すワークW搬入時のフローチャートにおいて、作業者は予め、パレット22の基準高さH、ワークWの基準傾斜量、および板厚を入力手段57から入力し、各記憶手段56D,56E,56Fに記憶させる(S1)。そして、図7にも示すように、搬入基台21上にパレット22毎ワークWが運ばれてきたのを確認し、作業者は加工システム1のスタートスイッチ等をオンにし、システムを稼働させる。
Subsequently, the grinder finishing flow by the processing system 1 will be described with reference to the flowcharts of FIGS. 5 and 6.
First, in the flowchart when the work W is carried in as shown in FIG. 5, the operator inputs in advance the reference height H 0 of the pallet 22, the reference inclination amount of the work W, and the plate thickness from the input means 57, and each storage means 56D. , 56E, 56F (S1). Then, as shown in FIG. 7, it is confirmed that the work W for each pallet 22 has been carried on the carry-in base 21, and the operator turns on the start switch and the like of the processing system 1 to operate the system.

すると、計測部51のシャッタトリガ手段510が起動して、第1視覚センサ23がパレット22上を撮像し(S2)、画像取得手段511が画像を取得し、この画像を第1原画像として第1原画像記憶手段56Aに記憶する。また、記憶された第1原画像をステレオ処理手段512がステレオ処理し(S3)、処理後の画像を第1距離画像として距離画像記憶手段56Cに記憶する。図8には、各第1視覚センサ23での原画像を合わせた状態が示されている。第1視覚センサ23が異なる位置の2台で構成されていることから、各第1視覚センサ23での原画像を合わせると、被撮像物(ここではワークW)の輪郭は一見2重にぼやけて撮像されたようになるが、このステレオ処理により第1視覚センサ23から被撮像物までの距離データ、すなわち距離画像を正確に生成できるのである。   Then, the shutter trigger unit 510 of the measurement unit 51 is activated, the first visual sensor 23 images the pallet 22 (S2), the image acquisition unit 511 acquires an image, and this image is used as the first original image. The original image storage means 56A stores it. Further, the stereo processing means 512 performs stereo processing on the stored first original image (S3), and the processed image is stored in the distance image storage means 56C as the first distance image. FIG. 8 shows a state in which the original images of the first visual sensors 23 are combined. Since the first visual sensor 23 is composed of two units at different positions, the outline of the object to be imaged (work W in this case) is blurred at first glance when the original images from the first visual sensors 23 are combined. In this stereo process, distance data from the first visual sensor 23 to the object to be imaged, that is, a distance image can be accurately generated.

続いて、加工前パレット処理部52の距離分布作成手段520は、被撮像物の最上面までの距離分布を生成する(S4)。この後、第1センサ傾斜量補正手段521は、搬入基台21に設定された3次元座標軸の各軸に対する第1視覚センサ23の3次元座標軸の傾斜分の補正を行う(S5)。第1視覚センサ23の3次元座標軸が搬入基台21の3次元座表軸と一致するように、当該第1視覚センサ23を設置することが好ましいが、そのような設置は実質的に困難であるため、予めそのずれ具合を補正量として調べておき、この補正量に基づいて座標軸のずれを補正するのである。これにより、後の第1視覚センサ23の3次元座標系から搬入基台21の3次元座標系へのデータ変換が正確かつ容易になる。   Subsequently, the distance distribution creating means 520 of the pre-processing pallet processing unit 52 generates a distance distribution to the top surface of the object to be imaged (S4). Thereafter, the first sensor tilt amount correcting means 521 corrects the tilt of the three-dimensional coordinate axis of the first visual sensor 23 with respect to each axis of the three-dimensional coordinate axis set on the carry-in base 21 (S5). Although it is preferable to install the first visual sensor 23 so that the three-dimensional coordinate axis of the first visual sensor 23 coincides with the three-dimensional seat axis of the carry-in base 21, such installation is substantially difficult. Therefore, the degree of deviation is checked in advance as a correction amount, and the deviation of the coordinate axes is corrected based on this correction amount. Thereby, data conversion from the three-dimensional coordinate system of the first visual sensor 23 to the three-dimensional coordinate system of the carry-in base 21 becomes accurate and easy.

この後、高さ演算手段522は、被撮像物の上面の最高高さを演算する(S6)。これは、ワークWが2箇所に積まれている場合、ロボット10でより多く積まれている山から先にワークWを取りに行くようにするためである。この最高高さは、搬入基台21の3次元座標系での値である。つまり、この高さ演算手段522では、第1視覚センサ23の3次元座標系から搬入基台21の3次元座標系への距離データの変換が行われるようになっている。次いで、面積演算手段523は、基準面からパレット22の基準高さH+例えば5mmの高さ部分での被撮像物の面積Sを演算する(S7)。この面積Sはいわば、基準面に対して平行な平断面部分の面積となる。 Thereafter, the height calculating means 522 calculates the maximum height of the upper surface of the object to be imaged (S6). This is because when the workpieces W are stacked in two places, the workpieces W are picked up first from the mountain where the robot 10 is stacked more. This maximum height is a value in the three-dimensional coordinate system of the carry-in base 21. That is, the height calculating means 522 converts distance data from the three-dimensional coordinate system of the first visual sensor 23 to the three-dimensional coordinate system of the carry-in base 21. Next, the area calculating means 523 calculates the reference height H 0 of the pallet 22 from the reference plane + the area S 0 of the object to be imaged at a height portion of, for example, 5 mm (S7). In other words, the area S 0 is an area of a flat cross section parallel to the reference plane.

本実施形態でのワークWとしては、板厚が9mmを想定している。従って、パレット22上にワークWが置かれている場合、S7においては当然、パレット22の直上にあるワークWの断面積が演算されることになる。そして、終了判定手段524は、その演算された面積Sが予め設定された最小面積よりも小さいか否かを判定する(S8)。面積Sが最小面積(本実施形態では、100cm)よりも小さい場合、終了判定手段524は、その面積Sを有した被撮像物をワークWではなく、何らかの小さな異物であると判断し、パレット22上にはワークWが存在しないと判断して作業を終了する(S9)。 The workpiece W in this embodiment is assumed to have a plate thickness of 9 mm. Therefore, when the work W is placed on the pallet 22, the cross-sectional area of the work W immediately above the pallet 22 is naturally calculated in S7. The end determining unit 524 determines whether or not the computed area S 0 is smaller than the minimum area that is set in advance (S8). When the area S 0 is smaller than the minimum area (100 cm 2 in the present embodiment), the end determination means 524 determines that the object to be imaged having the area S 0 is not a work W but a small foreign object. Then, it is determined that there is no work W on the pallet 22 and the work is finished (S9).

加えて、ワークWの他、何ら異物がパレット22上に存在しない場合、あるいは異物の高さが5mmよりも低い場合、距離分布を構成するデータ上においては、基準面からパレット22の基準高さH+5mmの高さ部分での被撮像物が何ら存在しないことになるから、面積Sは0「ゼロ」となり、S8での終了判定手段524はやはり、面積Sが最小面積よりも小さいと判断し、S9に進んで作業を終了させ、移送作業を行わない。すなわち終了判定手段524によれば、パレット22上にワークWが存在しない場合を適格に判断できるのである。 In addition, when no foreign matter is present on the pallet 22 in addition to the workpiece W, or when the height of the foreign matter is lower than 5 mm, the reference height of the pallet 22 from the reference plane in the data constituting the distance distribution. Since there is no object to be picked up at the height portion of H 0 +5 mm, the area S 0 is 0 “zero”, and the end determination means 524 in S 8 is still smaller than the minimum area. In step S9, the operation is terminated and the transfer operation is not performed. That is, according to the end determination means 524, it is possible to appropriately determine the case where the workpiece W does not exist on the pallet 22.

これに対し、S8にて面積Sが最小面積よりも大きい場合には、面積SがワークWの面積であると判断し、パレット22上にはワークWが存在していると判断する。この場合、輪郭抽出手段525は、最上段に積まれたワークW、すなわち前述の最高高さの上面を有する被撮像物の輪郭を抽出する(S10)。また、輪郭抽出手段525は、輪郭以外の2次元(2D)の画像データおよび3次元(3D)の距離分布データを画像処理対象から削除する(S11,S12)。 In contrast, when the area S 0 is larger than the minimum area in the S8, it determines the area S 0 is the area of the workpiece W, on the pallet 22, it is determined that the work W exists. In this case, the contour extracting means 525 extracts the contour of the workpiece W having the uppermost surface, that is, the workpiece W stacked on the top (S10). In addition, the contour extraction unit 525 deletes two-dimensional (2D) image data and three-dimensional (3D) distance distribution data other than the contour from the image processing target (S11, S12).

次に、ワーク傾斜量演算手段526は、ワークW自身の傾斜量を演算し(S13)、傾斜異常判定手段527は、その傾斜状態がロボット10によるハンドリングが可能であるかを判定する(S14)。すなわち、S13において、演算によって求められたワークWの傾斜量が予め設定された基準傾斜量を超えている場合には、最上段のワークWが著しく傾斜して積まれており、ロボット10によって取りに行くことができないと判断し、作業を終了する(S15)。   Next, the workpiece inclination amount calculation means 526 calculates the inclination amount of the workpiece W itself (S13), and the inclination abnormality determination means 527 determines whether the inclination state can be handled by the robot 10 (S14). . That is, in S13, when the amount of inclination of the workpiece W obtained by the calculation exceeds a preset reference amount of inclination, the uppermost workpiece W is loaded with a significant inclination and is taken by the robot 10. It is determined that the operation cannot be performed, and the operation is terminated (S15).

S13において、ワークWの傾斜が基準傾斜量以内である場合、重心位置演算手段528は、図9に示すように、ワークWの重心位置C1を演算する(S16)。この後、第1ロボット座標変換手段529は、搬入基台21の3次元座標系で演算されたワークWの傾きおよび重心位置C1をそれぞれ、ロボット10が有する3次元座標系での傾きおよび重心位置C1に変換し(S17,S18)、このデータを搬入ジョブ指令生成手段540およびジョブ指令送信手段550を介してロボット10のロボットコントローラ10Aに送信する(S19)。   In S13, when the inclination of the workpiece W is within the reference inclination amount, the gravity center position calculation means 528 calculates the gravity center position C1 of the workpiece W as shown in FIG. 9 (S16). Thereafter, the first robot coordinate conversion means 529 uses the inclination and the center of gravity position in the three-dimensional coordinate system of the robot 10 respectively for the inclination and the center of gravity position C1 of the workpiece W calculated in the three-dimensional coordinate system of the carry-in base 21. The data is converted into C1 (S17, S18), and this data is transmitted to the robot controller 10A of the robot 10 via the carry-in job command generation means 540 and the job command transmission means 550 (S19).

このことにより、搬入ジョブ指令生成手段540では、変換されたデータに基づいて搬入用のジョブ指令を生成し、このジョブ指令によってロボット10にワークWを正しい位置に正しい姿勢で取りに行かせ、図10に示すように、加工ステーション30の中央位置C2に重心位置C1を一致させるようにワークWを移送する。なお、搬入基台21の3次元座標軸とロボット10の3次元座標軸とでは各軸の傾きが存在せず、座標系の変換は軸の傾斜補正無しに容易に行われる。また、中央位置C2の位置座標は、ロボット10の3次元座標系の位置座表として予め与えられている。   As a result, the carry-in job command generation means 540 generates a carry-in job command based on the converted data, and this job command causes the robot 10 to pick up the workpiece W at the correct position in the correct posture. As shown in FIG. 10, the workpiece W is transferred so that the center of gravity position C1 coincides with the center position C2 of the processing station 30. In addition, there is no inclination of each axis between the three-dimensional coordinate axis of the carry-in base 21 and the three-dimensional coordinate axis of the robot 10, and the conversion of the coordinate system is easily performed without correcting the inclination of the axis. Further, the position coordinates of the center position C2 are given in advance as a position map of the three-dimensional coordinate system of the robot 10.

加工ステーション30では、図6に示すフローチャートに示すように、先ず、搬入時と同様、計測部51のシャッタトリガ手段510が起動して、第2視覚センサ32が加工基台31上を撮像し(S21)、画像取得手段511が画像を取得し、この画像を第2原画像として第2原画像記憶手段56Bに記憶する。また、記憶された第2原画像をステレオ処理手段512がステレオ処理し(S22)、処理後の画像を第2距離画像として距離画像記憶手段56Cに記憶する。   In the processing station 30, as shown in the flowchart of FIG. 6, first, the shutter trigger means 510 of the measuring unit 51 is activated, and the second visual sensor 32 images the processing base 31 as in the case of carrying in ( S21), the image acquisition unit 511 acquires an image, and stores this image as the second original image in the second original image storage unit 56B. The stored second original image is stereo-processed by the stereo processing means 512 (S22), and the processed image is stored in the distance image storage means 56C as the second distance image.

続いて、加工ステーション処理部53の第1輪郭抽出手段530は、ワークWの輪郭画像(点群のデータ)を抽出し、輪郭画像記憶手段56Gに記憶する(S23)。そして、第2センサ傾斜量補正手段531により、ロボット10に設定された3次元座標軸の各軸に対する第2視覚センサ32の3次元座標軸の傾斜分の補正を行う(S24)。第2視覚センサ32の3次元座標軸がロボット10の3次元座表軸と一致するように、当該第2視覚センサ32を設置することがやはり好ましいが、そのような設置も実質的に困難であるため、予めそのずれ具合を補正量として調べておき、この補正量に基づいて座標軸のずれを補正するのである。これにより、後の第2視覚センサ32の3次元座標系からロボット10の3次元座標系へのデータ変換が正確かつ容易になる。   Subsequently, the first contour extraction unit 530 of the processing station processing unit 53 extracts a contour image (point group data) of the workpiece W and stores it in the contour image storage unit 56G (S23). Then, the second sensor inclination correction means 531 corrects the inclination of the three-dimensional coordinate axis of the second visual sensor 32 with respect to each axis of the three-dimensional coordinate axis set in the robot 10 (S24). It is still preferable to install the second visual sensor 32 so that the three-dimensional coordinate axis of the second visual sensor 32 coincides with the three-dimensional coordinate axis of the robot 10, but such installation is substantially difficult. Therefore, the degree of deviation is examined in advance as a correction amount, and the deviation of the coordinate axes is corrected based on this correction amount. Thereby, data conversion from the three-dimensional coordinate system of the second visual sensor 32 to the three-dimensional coordinate system of the robot 10 later becomes accurate and easy.

この後、点ノイズ除去手段532は、抽出された輪郭画像から点状のノイズを除去し(S25)、第2輪郭抽出手段533は、点ノイズが除去された輪郭画像からベクトル化処理により直線部分のデータを抽出するとともに(S26)、スプライン化処理により曲線部分のデータを抽出する(S27)。さらに、図形ノイズ除去手段534により、図形ノイズを除去する(S28)。そして、第2ロボット座標変換手段535は、第2視覚センサ32の3次元座標系で演算されたワークWの輪郭に係るデータを、ロボット10が有する3次元座標系でのデータに変換する(S29)。   Thereafter, the point noise removing unit 532 removes the point-like noise from the extracted contour image (S25), and the second contour extracting unit 533 performs a straight line portion by vectorization processing from the contour image from which the point noise has been removed. Are extracted (S26), and the data of the curve portion is extracted by the spline processing (S27). Further, the graphic noise is removed by the graphic noise removing means 534 (S28). Then, the second robot coordinate conversion means 535 converts the data related to the contour of the workpiece W calculated in the three-dimensional coordinate system of the second visual sensor 32 into data in the three-dimensional coordinate system of the robot 10 (S29). ).

次いで、加工パス選定手段536は、輪郭画像に基づいてワークWの加工パスを選定する(S30)。加工パスは、グラインダ16をワークWに対してどのような軌跡でなぞらせるかを決めたものであり、輪郭パターンテーブル記憶手段56Hに記憶されている。より具体的には、この輪郭パターンテーブル記憶手段56Hには、グラインダ仕上げに供される様々なワークの輪郭パターンと、これに対応した加工パスのテーブルが記憶されている。   Next, the machining path selection means 536 selects a machining path for the workpiece W based on the contour image (S30). The machining path determines what path the grinder 16 is traced with respect to the workpiece W, and is stored in the contour pattern table storage unit 56H. More specifically, the contour pattern table storage means 56H stores contour patterns of various workpieces used for grinder finishing and a table of machining paths corresponding thereto.

本実施形態でのワークWは、図11に示すように、互いに平行な長尺側の辺縁61,62と、辺縁61,62に対して直交する互いに平行な短尺側の辺縁63,64と、辺縁62,64間の傾斜した1辺縁65とを備えた5角形状の輪郭パターンをしており、この輪郭パターンにおいては、辺縁62→辺縁65→辺縁64に沿ってグラインダ16を連続して移動させる第1加工パスP1と、この第1加工パスP1に引き続いて、辺縁63→辺縁61に沿ってグラインダ16を移動させる第2加工パスP2とが予め決められてテーブル化されている。S30では、これらの加工パスP1,P2が選定される。なお、グラインダ16の回転方向は、第1、第2加工パスP1,P2で逆転している。いずれの加工パスP1,P2での加工中にも、火花がワークWの内部側に飛ぶようにグラインダ16を回転させるようになっている。   As shown in FIG. 11, the workpiece W in the present embodiment includes long side edges 61 and 62 that are parallel to each other, and short side edges 63 that are parallel to each other and orthogonal to the side edges 61 and 62. 64 and a pentagonal contour pattern having one inclined edge 65 between the edges 62, 64. In this outline pattern, along the edge 62 → the edge 65 → the edge 64. Thus, the first machining path P1 for continuously moving the grinder 16 and the second machining path P2 for moving the grinder 16 along the edge 63 → the edge 61 following the first machining path P1 are determined in advance. And is tabulated. In S30, these processing paths P1 and P2 are selected. The rotation direction of the grinder 16 is reversed in the first and second machining passes P1 and P2. During the machining in any of the machining paths P1, P2, the grinder 16 is rotated so that the sparks fly to the inside of the workpiece W.

さらに、Gコード変換手段537は、選定された加工パスP1,P2に応じたNCプログラム用のGコードを生成し(S31)、ツール角度付加手段538は、そのGコードの一つとして、ワークWの仕上げ部分に対するグラインダ16の当接角度のデータを付加する(S32)。この後、ロボットジョブ変換手段539は、当接角度が付加されたNCプログラムをロボット10専用のジョブ指令に変換してロボット通信部55のジョブ指令送信手段550に出力し(S33)、ここを介してジョブ指令をロボットコントローラ10Aに送信する(S34)。この送信が完了すると、ロボット10が起動し、実際にグラインダ仕上げが実施される。   Further, the G code conversion means 537 generates a G code for the NC program corresponding to the selected machining paths P1 and P2 (S31), and the tool angle addition means 538 uses the workpiece W as one of the G codes. The data of the contact angle of the grinder 16 with respect to the finished portion is added (S32). Thereafter, the robot job conversion unit 539 converts the NC program with the contact angle added into a job command dedicated to the robot 10 and outputs the job command to the job command transmission unit 550 of the robot communication unit 55 (S33). The job command is transmitted to the robot controller 10A (S34). When this transmission is completed, the robot 10 is activated and grinder finishing is actually performed.

また、ワークWの一方の面側のグラインダ仕上げが終了すると、反転ステーションを利用してワークWを反転させ、S21〜S34のステップを同様に繰り返し、他方の面側のグラインダ仕上げを施す。そして、両面の仕上げ加工が終了すると、ワークWを搬出ステーション40に移送する。搬出ステーション40のパレット42上でのワークWの位置は、図1に示すように、搬入ステーション20でのパレット22での位置をそのまま所定量だけ全体的にシフトした位置である。   When the grinder finishing on one surface side of the workpiece W is completed, the workpiece W is reversed using the reversing station, and the steps of S21 to S34 are repeated in the same manner to perform the grinder finishing on the other surface side. Then, when the finishing process on both sides is completed, the workpiece W is transferred to the unloading station 40. As shown in FIG. 1, the position of the workpiece W on the pallet 42 of the carry-out station 40 is a position where the position on the pallet 22 at the carry-in station 20 is entirely shifted by a predetermined amount.

以上に説明したように、本実施形態の自動加工システム1では、ワークWを第1、第2視覚センサ23,32で撮像するとともに、加工前パレット処理部52や加工ステーション処理部53によってワークWの位置や輪郭を検出する。従って、検出した位置に基づいてロボット10がワークWを自動的に取りに行ったり、輪郭に応じた加工パスP1,P2を自動的に選定して加工指令を生成したりするので、従来のように移送や加工に先立ってワークの図形データを作成する必要がなく、従来に比して作業を一層容易にできるのである。
しかも、第1原画像等に基づき、ワークWの重心位置C1を自動的に判断してロボット10がワークWを取りに行くので、ロボット10の煩わしいティーチング作業も不要である。
As described above, in the automatic machining system 1 of the present embodiment, the workpiece W is imaged by the first and second visual sensors 23 and 32, and the workpiece W is processed by the pre-processing pallet processing unit 52 and the processing station processing unit 53. Detect the position and contour of the. Accordingly, the robot 10 automatically picks up the workpiece W based on the detected position, or automatically selects the processing paths P1 and P2 corresponding to the contour and generates a processing command. In addition, it is not necessary to prepare the graphic data of the work prior to transfer or machining, and the work can be further facilitated as compared with the conventional case.
Moreover, since the robot 10 automatically determines the center of gravity position C1 of the workpiece W based on the first original image and the like and picks up the workpiece W, the troublesome teaching work of the robot 10 is also unnecessary.

なお、本発明は、前記実施形態に限定されるものではなく、本発明の目的を達成できる他の構成等を含み、以下に示すような変形等も本発明に含まれる。
例えば、前記実施形態では、1台のロボット10により、ワークWの移送および加工を行っていたが、搬入ステーション20から加工ステーション30へのワークWの移送、および加工ステーション30から搬出ステーション40へのワークWの移送を、専用の移送ロボットで行わせ、ワークWのグラインダ仕上げを、別の専用の加工ロボットで行わせてもよい。
In addition, this invention is not limited to the said embodiment, Including other structures etc. which can achieve the objective of this invention, the deformation | transformation etc. which are shown below are also contained in this invention.
For example, in the above embodiment, the workpiece W is transferred and processed by one robot 10, but the workpiece W is transferred from the loading station 20 to the processing station 30 and from the processing station 30 to the unloading station 40. The workpiece W may be transferred by a dedicated transfer robot, and the grinder finish of the workpiece W may be performed by another dedicated processing robot.

前記実施形態では、グラインダ16によるグラインダ仕上げについて説明したが、本発明は、ワークをガス、プラズマ、レーザ等により切断する場合にも適用できる。このような場合、切断後に得られるワークの形状を予めサンプル等を用いて視覚センサで撮像しておき、その形状にならって母材を切断すればよい。   In the above embodiment, grinder finishing by the grinder 16 has been described. However, the present invention can also be applied to a case where a workpiece is cut by gas, plasma, laser, or the like. In such a case, the shape of the workpiece obtained after cutting may be previously imaged with a visual sensor using a sample or the like, and the base material may be cut according to the shape.

その他、本発明を実施するための最良の構成、方法などは、以上の記載で開示されているが、本発明は、これに限定されるものではない。すなわち、本発明は、主に特定の実施形態に関して特に図示され、かつ、説明されているが、本発明の技術的思想および目的の範囲から逸脱することなく、以上述べた実施形態に対し、形状、数量、その他の詳細な構成において、当業者が様々な変形を加えることができるものである。
従って、上記に開示した形状、数量などを限定した記載は、本発明の理解を容易にするために例示的に記載したものであり、本発明を限定するものではないから、それらの形状、数量などの限定の一部もしくは全部の限定を外した部材の名称での記載は、本発明に含まれるものである。
In addition, the best configuration, method and the like for carrying out the present invention have been disclosed in the above description, but the present invention is not limited to this. That is, the invention has been illustrated and described primarily with respect to particular embodiments, but may be configured for the above-described embodiments without departing from the scope and spirit of the invention. Various modifications can be made by those skilled in the art in terms of quantity, other details, and the like.
Therefore, the description limited to the shape, quantity and the like disclosed above is an example for easy understanding of the present invention, and does not limit the present invention. The description by the name of the member which remove | excluded the limitation of one part or all of such restrictions is included in this invention.

本発明は、例えばワークの輪郭等に沿って加工を行う場合に良好に適用できる。   The present invention can be favorably applied when machining is performed along the contour of a workpiece, for example.

一実施形態に係る加工システムの概略構成を模式的に示す平面図。The top view which shows typically schematic structure of the processing system which concerns on one Embodiment. 前記加工システムを模式的に示す側面図。The side view which shows the said processing system typically. 前記加工システムで用いられる加工ロボットを示す斜視図。The perspective view which shows the processing robot used with the said processing system. 前記加工システムを示すブロック図。The block diagram which shows the said processing system. ワークの搬入時の処理を示すフローチャート。The flowchart which shows the process at the time of carrying in of a workpiece | work. ワークの加工時の処理を示すフローチャート。The flowchart which shows the process at the time of a process of a workpiece | work. 搬入ステーションでのワークの載置状態を示す平面図。The top view which shows the mounting state of the workpiece | work in a carrying-in station. 2台の視覚センサでの画像を合成して示す図。The figure which synthesize | combines and shows the image by two visual sensors. 演算して得られたワークの重心位置を示す画像の図。The figure of the image which shows the gravity center position of the workpiece | work obtained by calculating. ワークを加工基台に移送させた状態を示す画像の図。The figure of the image which shows the state which moved the workpiece | work to the process base. 加工パスを説明するための図。The figure for demonstrating a process path | pass.

符号の説明Explanation of symbols

1…自動加工システム、10…ロボット、16…加工ツールであるグラインダ、23…視覚センサである第1視覚センサ、56H…テーブル記憶手段である輪郭パターンテーブル記憶手段、530…形状検出手段を構成する第1輪郭抽出手段、533…形状検出手段を構成する第2輪郭抽出手段、536…加工パス選定手段、537…加工指令生成手段であるGコード変換手段、W…ワーク。   DESCRIPTION OF SYMBOLS 1 ... Automatic processing system, 10 ... Robot, 16 ... Grinder which is a processing tool, 23 ... 1st visual sensor which is a visual sensor, 56H ... Contour pattern table storage means which is table storage means, 530 ... Shape detection means is comprised First contour extraction means, 533... Second contour extraction means constituting the shape detection means, 536... Machining path selection means, 537... G code conversion means as machining command generation means, W.

Claims (2)

ワークの自動加工方法において、
ワークを撮像する手順と、
撮像された画像に基づいて前記ワークの形状パターンを検出する手順と、
複数の形状パターンおよび加工パスを関連付けるテーブルから、検出された前記形状パターンに基づく加工パスを選定する手順と、
選定された加工パスに基づいて加工用の指令を生成する手順と、
この加工用の指令に基づいてロボットおよびこのロボットに取り付けられた加工ツールを作動させて前記ワークを加工する手順とを備えている
ことを特徴とするワークの自動加工方法。
In the automatic machining method for workpieces,
A procedure for imaging the workpiece;
A procedure for detecting the shape pattern of the workpiece based on the captured image;
A procedure for selecting a machining path based on the detected shape pattern from a table associating a plurality of shape patterns and machining paths;
A procedure for generating a machining command based on the selected machining path;
An automatic workpiece machining method comprising: operating a robot and a machining tool attached to the robot based on the machining command to machine the workpiece.
ワークの自動加工システムにおいて、
ワークを撮像する視覚センサと、
視覚センサでの画像に基づいて前記ワークの形状パターンを検出する形状検出手段と、 複数の形状パターンおよび加工パスを関連付けるテーブルが記憶されたテーブル記憶手段と、
前記形状検出手段で検出された形状パターンに基づく加工パスを前記テーブルから選定する加工パス選定手段と、
選定された加工パスに基づいて加工用の指令を生成する加工指令生成手段と、
この加工用の指令に基づいて作動するロボットと、
このロボットに取り付けられて前記加工用の指令に基づき作動する加工ツールとを備えている
ことを特徴とするワークの自動加工システム。
In automatic workpiece machining system,
A visual sensor for imaging the workpiece;
Shape detection means for detecting the shape pattern of the workpiece based on an image of a visual sensor; table storage means for storing a table for associating a plurality of shape patterns and machining paths;
Machining path selection means for selecting a machining path based on the shape pattern detected by the shape detection means from the table;
Machining command generation means for generating a machining command based on the selected machining path;
A robot that operates based on this processing command;
An automatic workpiece machining system comprising: a machining tool attached to the robot and operating based on the machining command.
JP2005206061A 2005-07-14 2005-07-14 Automatic working method for work and automatic working system for work Withdrawn JP2007025991A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005206061A JP2007025991A (en) 2005-07-14 2005-07-14 Automatic working method for work and automatic working system for work

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005206061A JP2007025991A (en) 2005-07-14 2005-07-14 Automatic working method for work and automatic working system for work

Publications (1)

Publication Number Publication Date
JP2007025991A true JP2007025991A (en) 2007-02-01

Family

ID=37786672

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005206061A Withdrawn JP2007025991A (en) 2005-07-14 2005-07-14 Automatic working method for work and automatic working system for work

Country Status (1)

Country Link
JP (1) JP2007025991A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010094777A (en) * 2008-10-16 2010-04-30 Fuji Electric Systems Co Ltd Remote control support device
JP2011045898A (en) * 2009-08-26 2011-03-10 Amada Co Ltd Welding robot
JP2015139790A (en) * 2014-01-27 2015-08-03 日産自動車株式会社 Method for manufacturing component to be welded
JP2017013147A (en) * 2015-06-29 2017-01-19 東芝機械株式会社 Work-piece processing method and work-piece processing device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010094777A (en) * 2008-10-16 2010-04-30 Fuji Electric Systems Co Ltd Remote control support device
JP2011045898A (en) * 2009-08-26 2011-03-10 Amada Co Ltd Welding robot
JP2015139790A (en) * 2014-01-27 2015-08-03 日産自動車株式会社 Method for manufacturing component to be welded
JP2017013147A (en) * 2015-06-29 2017-01-19 東芝機械株式会社 Work-piece processing method and work-piece processing device

Similar Documents

Publication Publication Date Title
JP2007021634A (en) Automatic machining method for workpiece and automatic machining system for workpiece
US11173601B2 (en) Teaching device for performing robot teaching operations and teaching method
EP3863791B1 (en) System and method for weld path generation
JP3300682B2 (en) Robot device with image processing function
JP4235214B2 (en) Apparatus, program, recording medium, and method for creating robot program
US7966094B2 (en) Workpiece picking apparatus
JP3930490B2 (en) Article take-out device
JP5860021B2 (en) Fastening device, robot system, and fastening method for fastening a plurality of fastening members
JP6785931B1 (en) Production system
JP5815761B2 (en) Visual sensor data creation system and detection simulation system
CN113305849B (en) Intelligent flat groove cutting system and method based on composite vision
US9718189B2 (en) Robot teaching device for teaching robot offline
JP2006048244A (en) Working program generating device
WO2011140646A1 (en) Method and system for generating instructions for an automated machine
JP2006004128A (en) Interference confirmation device
EP3630404B1 (en) An apparatus and a method for automated seam welding of a work piece comprising a base plate with a pattern of upstanding profiles
CN112549052A (en) Control device for a robot device for adjusting the position of a component supported by the robot
CN101653939A (en) Off-line teaching data consummating method and robot system
JP2007025991A (en) Automatic working method for work and automatic working system for work
CN113379704A (en) Component weld joint surface defect identification positioning and polishing method, controller and system
JP2007021635A (en) Automatic handing method for workpiece and automatic handling system for workpiece
KR20180076966A (en) Method for detecting workpiece welding line by welding robot
CN108857130A (en) A kind of ship universal structural member 3-D positioning method based on the processing of image framing bit
JPH1063324A (en) Picture input-type robot system
CN116542914A (en) Weld joint extraction and fitting method based on 3D point cloud

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20070820

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070821

A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20081007