JPH04250972A - Control method for robot - Google Patents

Control method for robot

Info

Publication number
JPH04250972A
JPH04250972A JP2416207A JP41620790A JPH04250972A JP H04250972 A JPH04250972 A JP H04250972A JP 2416207 A JP2416207 A JP 2416207A JP 41620790 A JP41620790 A JP 41620790A JP H04250972 A JPH04250972 A JP H04250972A
Authority
JP
Japan
Prior art keywords
detection
mark
polishing
robot
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2416207A
Other languages
Japanese (ja)
Other versions
JP3155017B2 (en
Inventor
Yoshimi Niihara
良美 新原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mazda Motor Corp
Original Assignee
Mazda Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mazda Motor Corp filed Critical Mazda Motor Corp
Priority to JP41620790A priority Critical patent/JP3155017B2/en
Priority to KR1019910024843A priority patent/KR950011757B1/en
Publication of JPH04250972A publication Critical patent/JPH04250972A/en
Priority to US08/198,397 priority patent/US5394654A/en
Application granted granted Critical
Publication of JP3155017B2 publication Critical patent/JP3155017B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Manipulator (AREA)
  • Finish Polishing, Edge Sharpening, And Grinding By Specific Grinding Devices (AREA)

Abstract

PURPOSE:To simplify data for control of transferring working means by memorizing divided detecting points in the control part of a transferring means of the working means, and transferring the working means to the position of the detecting point of a part position to be worked detected through the detecting means. CONSTITUTION:Mark detecting robots R1,R2,R3 and grinding robots R4,R5,R6 are formed into a corresponding same sort of machine. Further, non-contact type detecting means such as mark detecting cameras are arranged, respective faces to be worked are divided into a plurality of detecting points based on the detected positions of the detecting means, and these detecting points are memorized in the grinding robots controlling part of a transferring means of a working means. Hereafter, a part position to be worked is detected by the detecting means at every detecting point, after detecting the part position to be worked the position of the detecting point of which the part position to be worked is detected based on the memory data is discriminated, and the working means is moved to the detecting point.

Description

【発明の詳細な説明】[Detailed description of the invention]

【0001】0001

【産業上の利用分野】本発明は、自動車ボディ等の複数
の加工面を有するワークに対し、上流側でワークの各加
工面の加工部位を検知し、下流側で上記検知された加工
部位に移動して加工するロボットの制御方法に関するも
のである。
[Industrial Application Field] The present invention detects the machining area of each machining surface of the workpiece on the upstream side for a workpiece having multiple machining surfaces such as an automobile body, and the detected machining area on the downstream side. This invention relates to a method of controlling a robot that moves and processes.

【0002】0002

【従来の技術】通常、ワークを加工するロボットはティ
ーチングデータに基づいてティーチング通りに動作する
ように制御されている。また、上記ロボットによって正
確に加工部位を加工するため、ワークの搬送路の上流に
設けられたカメラでワークのずれ量を検知してロボット
の動作を補正するものが知られている。
2. Description of the Related Art Usually, a robot that processes a workpiece is controlled to operate according to teaching based on teaching data. Furthermore, in order to accurately process the processing area using the above-mentioned robot, it is known that a camera installed upstream of the workpiece conveyance path detects the amount of shift of the workpiece and corrects the movement of the robot.

【0003】一方、下塗りや中塗りされた自動車ボディ
等の被塗装物(ワーク)の各塗装面に発生した塗装不良
を水研するため、作業者が搬送されてきたワークを目視
検査し、発見した不良部位と不良状態とを指示装置によ
ってそれぞれ入力することにより、下流側のロボットが
自動的に水研する自動水研方法が提案されている(特開
昭58−64517号公報)。
[0003] On the other hand, in order to remove paint defects that have occurred on each painted surface of an object to be painted (workpiece) such as an automobile body that has been undercoated or intermediate coated, a worker visually inspects the transported workpiece and detects any defects. An automatic water grinding method has been proposed in which a robot on the downstream side automatically grinds water by inputting a defective part and a defective state through an indicating device (Japanese Patent Laid-Open No. 58-64517).

【0004】0004

【発明が解決しようとする課題】ところで、搬送路の上
流でカメラを取り付けたロボットを用いて加工部位を検
知して下流のロボットへデータを転送し、この転送デー
タに基づいて下流のロボットにより上記検知した加工部
位を加工させるものが考えられるが、この場合、例えば
、上記上流のロボットと下流のロボットとの機種が異な
れば、上流のロボットから下流のロボットへ転送する座
標データ等のデータ処理は非常に複雑なものとなる。 更に上流のロボットからのデータに基づいて下流のロボ
ットを加工部位に移動させるように構成すると、下流の
ロボットのアームの姿勢が上流のロボットと異なる場合
に、ワークとロボットのアームとが干渉することがある
。このため、ロボットのアームの姿勢を制御するデータ
も必要となるが、データ変換が複雑になる。
[Problems to be Solved by the Invention] By the way, a robot equipped with a camera is used upstream of the conveyance path to detect the processing area and transfer the data to the downstream robot, and based on this transferred data, the downstream robot One possibility is to process the detected machining part, but in this case, for example, if the upstream robot and downstream robot are of different models, data processing such as coordinate data transferred from the upstream robot to the downstream robot may be difficult. It becomes very complicated. Furthermore, if the downstream robot is configured to move to the processing area based on data from the upstream robot, the workpiece and the robot arm may interfere if the downstream robot's arm posture is different from that of the upstream robot. There is. For this reason, data for controlling the posture of the robot's arm is also required, but data conversion becomes complicated.

【0005】また、上流のロボットのカメラで加工部位
を検知し、その加工部位の位置をx,y,z座標として
とらえるには、カメラと加工部位との距離を考慮する必
要があるが、この操作を行うには、カメラの位置精度上
の困難があるとともに、データ処理が複雑となる。更に
適正な加工を行うためには、加工部の加工姿勢も考慮し
てデータを求める必要がある。
[0005] Furthermore, in order to detect the machined part with the camera of the upstream robot and capture the position of the machined part as x, y, z coordinates, it is necessary to consider the distance between the camera and the machined part. In order to perform the operation, there are difficulties in terms of camera position accuracy, and data processing is complicated. Furthermore, in order to perform proper machining, it is necessary to obtain data while also considering the machining posture of the machining section.

【0006】このため、上流のロボットと下流のロボッ
トのデータ内容をどのようにし、更に下流のロボットを
どのように制御するかが問題となる。
[0006] Therefore, the problem is how to handle the data contents of upstream robots and downstream robots, and how to control the downstream robots.

【0007】一方、特開昭58−64517号公報の自
動水研方法にあっては、作業者が不良部位を発見する毎
に指示装置に不良部位の位置と不良状態とをそれぞれ入
力するが、通常、上記不良部位の位置は座標データで指
示するようになっており、水研装置としてのロボットは
上記座標データに基づいて制御されるため、データ処理
に時間が掛かり、水研加工の時間短縮の障害になる。
On the other hand, in the automatic water grinding method disclosed in Japanese Patent Application Laid-Open No. 58-64517, each time an operator discovers a defective part, the operator inputs the position and condition of the defective part into an indicating device. Normally, the location of the above-mentioned defective part is indicated by coordinate data, and the robot serving as the water-sharpening device is controlled based on the above-mentioned coordinate data, so data processing takes time, reducing the time for water-sharpening. becomes a hindrance.

【0008】本発明は、上記問題を解決するもので、加
工のためのデータ処理を簡略化することができ、加工時
間を短縮することができるロボットの制御方法を提供す
ることを目的とする。
SUMMARY OF THE INVENTION The present invention solves the above problems, and aims to provide a robot control method that can simplify data processing for machining and shorten machining time.

【0009】[0009]

【課題を解決するための手段】上記目的を達成するため
に、本発明は、上流から搬送されてきたワークの加工部
位を加工手段により加工する加工方法において、各加工
面を複数の検知ポイントに区画し、これらの検知ポイン
トを前記加工手段の移動手段の制御部に記憶し、非接触
型の検知手段により上記検知ポイント毎に加工部位を検
知するとともに、加工部位が検知された検知ポイントの
位置を判別したのち、当該検知ポイントに上記加工手段
を移動させるように上記移動手段を制御するものである
[Means for Solving the Problems] In order to achieve the above object, the present invention provides a processing method in which a processing section of a workpiece transported from upstream is processed by processing means, in which each processing surface is set at a plurality of detection points. These detection points are stored in the control unit of the moving means of the processing means, and the non-contact detection means detects the processing region for each detection point, and the position of the detection point where the processing region is detected. After determining this, the moving means is controlled to move the processing means to the detection point.

【0010】また、請求項2では、検知ポイントの範囲
は検知手段の検知範囲に一致させるようにした。
[0010] Furthermore, in claim 2, the range of the detection point is made to coincide with the detection range of the detection means.

【0011】さらに、請求項3では、移動手段の制御部
は検知ポイントと共に加工姿勢を記憶するようにした。
Furthermore, in the third aspect of the present invention, the control section of the moving means stores the processing posture together with the detection point.

【0012】0012

【作用】上記請求項1のロボットの制御方法によれば、
各加工面が複数の検知ポイントに区画され、カメラ等の
非接触型の検知手段により検知ポイント毎の加工部位が
検知され、加工部位が検知された検知ポイントの位置が
判別され、当該検知ポイントに加工手段を移動させるよ
うに移動手段が制御され、上記加工部位が加工される。
[Operation] According to the method for controlling a robot according to claim 1,
Each machined surface is divided into multiple detection points, the machined part is detected at each detection point by a non-contact detection means such as a camera, the position of the detection point where the machined part is detected is determined, and the machined part is detected at the detection point. The moving means is controlled to move the processing means, and the processing portion is processed.

【0013】また、上記請求項2の加工方法によれば、
検知ポイントの範囲は検知手段の検知範囲に一致させて
もよい。
[0013] Furthermore, according to the processing method of claim 2,
The range of the detection points may match the detection range of the detection means.

【0014】さらに、上記請求項3のロボットの制御方
法によれば、ワークの各加工面の形態に対応して各検知
ポイントでの加工姿勢が変わる。
Furthermore, according to the robot control method of the third aspect, the machining posture at each detection point changes depending on the shape of each machining surface of the workpiece.

【0015】[0015]

【実施例】図1は自動車の製造ラインにおける本発明の
一実施例を示すものである。
DESCRIPTION OF THE PREFERRED EMBODIMENTS FIG. 1 shows an embodiment of the present invention in an automobile manufacturing line.

【0016】加工ラインLは搬送ライン2に沿って上流
から検査マーキング工程L1とマーク検知工程L2と研
磨工程L3と水洗工程L4とからなり、加工ラインLの
上流で下塗りや中塗り等の塗装加工を行われ、搬送ライ
ン2により搬送されてきた自動車ボディ1の塗装不良部
位を検知して水研することで修正するようにしている。
Processing line L consists of an inspection marking process L1, a mark detection process L2, a polishing process L3, and a water washing process L4 along the conveyance line 2 from upstream. The paint defects on the automobile body 1 transported by the transport line 2 are detected and corrected by water polishing.

【0017】上記検査マーキング工程L1に相当する位
置には複数の検査員M1,M2が配置され、自動車ボデ
ィ1の塗装面を目視検査するようにしている。そして、
検査員M1,M2は塗装面のピンホールや異物付着等の
塗装不良部位を発見すると、加工(研磨)度合に対応さ
せて予め設定した複数パターンのスタンプ等の内から、
当該加工部位の加工度合に応じたパターンのマークを選
択して当該不良部位に付するようにしている。すなわち
、表1に示すように、例えば不良度合が大きく重研磨が
必要な部位には丸形のマークを、中研磨の必要な部位に
は三角形のマークを、軽研磨の必要な部位には四角形の
マークを付するようにしている。
A plurality of inspectors M1 and M2 are placed at positions corresponding to the inspection marking step L1, and visually inspect the painted surface of the automobile body 1. and,
When the inspectors M1 and M2 find a defective part of the paint such as a pinhole or foreign matter on the painted surface, they select one of several patterns of stamps, etc. that are preset according to the degree of processing (polishing).
A mark with a pattern corresponding to the degree of processing of the processed part is selected and attached to the defective part. In other words, as shown in Table 1, for example, a round mark is placed on an area that is highly defective and requires heavy polishing, a triangular mark is placed on an area that requires medium polishing, and a square mark is placed on an area that requires light polishing. I am trying to add a mark.

【0018】[0018]

【表1】[Table 1]

【0019】なお、加工度合に応じてマークの色を、例
えば赤、緑、青のように変えてもよい。また、マークの
形状自体は同一であって加工度合に応じて大きさを変え
るようにしてもよい。
Note that the color of the mark may be changed, for example, to red, green, or blue, depending on the degree of processing. Further, the shape of the mark itself may be the same, but the size may be changed depending on the degree of processing.

【0020】また、加工度合は4段階以上であっても2
段階以下であってもよい。この場合、段階数に応じて形
状等の種類を増減させることになる。
[0020]Also, even if the processing degree is 4 or more stages, 2
It may be below the stage. In this case, the types of shapes etc. will be increased or decreased depending on the number of stages.

【0021】上記マーク検知工程L2に相当する位置に
は上流に車種検知センサP1,P2,P3が設けられ、
下流にマーク検知ロボットR1,R2,R3が自動車ボ
ディ1の左右面及び上面にそれぞれ臨むように配設され
ている。各マーク検知ロボットR1,R2,R3には非
接触型のセンサであるマーク検知カメラS1,S2,S
3がそれぞれ備えられ、自動車ボディ1に付されたマー
クの位置及び形状等を検知して画像信号として出力する
ようにしている。
Vehicle type detection sensors P1, P2, and P3 are provided upstream at a position corresponding to the mark detection step L2, and
Mark detection robots R1, R2, and R3 are arranged downstream so as to face the left, right, and top surfaces of the automobile body 1, respectively. Each mark detection robot R1, R2, R3 has a mark detection camera S1, S2, S, which is a non-contact type sensor.
3 are respectively provided to detect the position, shape, etc. of the mark attached to the automobile body 1 and output it as an image signal.

【0022】上記研磨工程L3に相当する位置には研磨
ロボットR4,R5,R6が自動車ボディ1の左右面及
び上面にそれぞれ臨むように配設され、上記各研磨ロボ
ットR4,R5,R6には研磨ツールT1,T2,T3
がそれぞれ備えられている。そして、マーク検知工程L
2からのデータに基づいて各研磨ロボットR4,R5,
R6がそれぞれ研磨ツールT1,T2,T3をマークの
位置へ導いて水研加工させるようにしている。
Polishing robots R4, R5, and R6 are arranged at positions corresponding to the polishing process L3 so as to face the left and right surfaces and the top surface of the automobile body 1, respectively. Tools T1, T2, T3
are provided for each. Then, mark detection step L
Each polishing robot R4, R5,
R6 guides the polishing tools T1, T2, and T3 to the position of the mark and performs water polishing.

【0023】水洗工程L4に相当する位置には水洗制御
盤7により制御される複数の水洗シャワ3と水洗ブラシ
4が設けられ、水研加工後の自動車ボディ1を水洗いす
るようにしている。
A plurality of flushing showers 3 and flushing brushes 4, which are controlled by a flushing control panel 7, are provided at a position corresponding to the flushing step L4, and are used to rinse the automobile body 1 after water polishing.

【0024】続いて、上記加工ラインLの制御系につい
て図2を用いて説明する。
Next, the control system of the processing line L will be explained using FIG. 2.

【0025】マーク検知工程L2にはマーク検知部51
,52,53と車種検知部54と検知ロボット制御部5
5,56,57とを有する検知制御盤5が設けられてい
る。上記各マーク検知部51,52,53はそれぞれマ
ーク検知カメラS1,S2,S3からの画像信号から自
動車ボディ1に付されたマークを検出するものである。 すなわち、自動車ボディ1の各塗装面にはそれぞれマー
ク検知カメラS1,S2,S3の検知範囲に基づいて範
囲が求められた複数の検知ポイントが設定されており、
マーク検知部51,52,53は上記検出されたマーク
の検知ポイントの番号と該検知ポイント内でのマークの
座標とのデータを記憶するようにしている。また、マー
ク検知部51,52,53はマークの形状等から加工度
合を判別して研磨グレードデータとして記憶し、検知作
業が終了すると、これらのデータを後述する研磨制御盤
6に転送するようにしている。
The mark detection step L2 includes a mark detection section 51.
, 52, 53, the vehicle type detection section 54, and the detection robot control section 5.
A detection control panel 5 having 5, 56 and 57 is provided. The mark detection sections 51, 52, and 53 detect marks attached to the automobile body 1 from image signals from the mark detection cameras S1, S2, and S3, respectively. That is, a plurality of detection points whose ranges are determined based on the detection ranges of mark detection cameras S1, S2, and S3 are set on each painted surface of the automobile body 1, respectively.
The mark detection units 51, 52, and 53 are configured to store data including the number of the detection point of the detected mark and the coordinates of the mark within the detection point. Further, the mark detection units 51, 52, and 53 determine the degree of machining from the shape of the mark, etc., and store it as polishing grade data, and when the detection work is completed, these data are transferred to the polishing control panel 6, which will be described later. ing.

【0026】車種検知部54は車種検知センサP1,P
2,P3からの検知信号に基づいて自動車ボディ1の車
種を検知して検知ロボット制御部55,56,57に車
種データとして出力するものである。検知ロボット制御
部55,56,57は車種検知部54からの車種データ
に基づいてマーク検知ロボットR1,R2,R3を自動
車ボディ1の車体サイズや形状等に応じるようにそれぞ
れ制御するものである。
The vehicle type detection section 54 includes vehicle type detection sensors P1 and P.
2, the vehicle type of the automobile body 1 is detected based on the detection signal from P3, and outputted to the detection robot control sections 55, 56, and 57 as vehicle type data. The detection robot control sections 55, 56, and 57 control the mark detection robots R1, R2, and R3 based on the vehicle type data from the vehicle type detection section 54, respectively, in accordance with the size, shape, etc. of the automobile body 1.

【0027】研磨工程L3には研磨ロボット制御部61
,62,63と研磨ツール制御部64,65,66とを
有する研磨制御盤6が設けられている。上記研磨ロボッ
ト制御部61,62,63は検知制御盤5からの検知ポ
イントの番号等のデータに基づいて研磨ロボットR4,
R5,R6をそれぞれ制御するものである。すなわち、
研磨ロボット制御部61,62,63はそれぞれ上記検
知ポイントが自動車ボディ1の各塗装面に対応して記憶
されており、上記マーク検知部51,52,53からの
データに応じて該当する検知ポイントへ移動するように
している。また、自動車ボディ1の各塗装面の形状は平
面でないため、研磨ロボット制御部61,62,63は
上記検知ポイントと共に各検知ポイントでの加工姿勢を
記憶するようにしている。
In the polishing step L3, the polishing robot controller 61
, 62, 63 and polishing tool control sections 64, 65, 66. The polishing robot control units 61, 62, and 63 control the polishing robot R4,
This is to control R5 and R6 respectively. That is,
The polishing robot control units 61, 62, and 63 store the detection points corresponding to each painted surface of the automobile body 1, and select the corresponding detection points according to the data from the mark detection units 51, 52, and 53. I'm trying to move to. Furthermore, since the shape of each painted surface of the automobile body 1 is not flat, the polishing robot control sections 61, 62, and 63 are configured to memorize the processing posture at each detection point along with the detection points described above.

【0028】研磨ツール制御部64,65,66は検知
制御盤5からの研磨グレードデータに基づいて研磨ツー
ルT1,T2,T3をそれぞれ制御するものである。す
なわち、研磨ツールT1,T2,T3はそれぞれ自動車
ボディ1の塗装不良部位をその加工度合に応じた研磨時
間や研磨強度等で加工部位を水研することになる。
The polishing tool control units 64, 65, and 66 control the polishing tools T1, T2, and T3, respectively, based on the polishing grade data from the detection control panel 5. That is, each of the polishing tools T1, T2, and T3 wet-polishes the paint defective portion of the automobile body 1 with polishing time and polishing intensity depending on the degree of polishing.

【0029】なお、生産情報ネット端末器8は図示しな
い生産管理用のコンピュータからのデータを検知制御盤
5及び研磨制御盤6に出力するものである。
The production information network terminal 8 outputs data from a production management computer (not shown) to the detection control panel 5 and polishing control panel 6.

【0030】また、上記マーク検知ロボットR1,R2
,R3と上記研磨ロボットR4,R5,R6とは、デー
タ処理を簡単にするため、例えば図3に示すような同機
種のロボットを用いている。すなわち、同機種であれば
制御データが同一の場合、同一の動作を行う。従って、
上記マーク検知ロボットR1,R2,R3をそれぞれ自
動車ボディ1の塗装面の起伏に合わせてティーチングを
行って、このティーチングデータをそのまま研磨ロボッ
ト制御部61,62,63の動作制御データとして用い
ることにより、マーク検知カメラS1,S2,S3によ
り検知された加工部位の検知ポイントへ研磨ロボットR
4,R5,R6を移動させることができる。
[0030] Furthermore, the mark detection robots R1 and R2
, R3 and the polishing robots R4, R5, and R6 are of the same type as shown in FIG. 3, for example, in order to simplify data processing. That is, if the models are of the same type and have the same control data, they will perform the same operation. Therefore,
By teaching the mark detection robots R1, R2, and R3 according to the undulations of the painted surface of the automobile body 1, and using this teaching data as is as operation control data for the polishing robot control units 61, 62, and 63, The polishing robot R moves to the detection point of the processing area detected by the mark detection cameras S1, S2, and S3.
4, R5, and R6 can be moved.

【0031】ここで、マーク検知ロボットR1,R2,
R3と研磨ロボットR4,R5,R6間のデータ処理動
作の一例について説明する。
Here, mark detection robots R1, R2,
An example of data processing operations between R3 and polishing robots R4, R5, and R6 will be described.

【0032】すなわち、例えばマーク検知ロボットR1
のティーチング作業の際には、表2に示すように、各検
知ポイント毎の座標データ(x,y,z)やマーク検知
カメラS1の姿勢データ(α,β,γ)や各アーム軸R
11,R12,R13(図3)の角度データ(θ1,θ
2,…,θ4)を検知ロボット制御部55に記憶し、更
にこれらのデータをフロッピーに登録するようにしてい
る。この後、当該フロッピーを研磨ロボット制御部61
に読み込ませる。そして、検知作業開始後は検知ロボッ
ト制御部55から加工すべき検知ポイントの番号データ
のみを研磨ロボット制御部61に転送すると、当該検知
ポイントに研磨ロボットR4が移動するようになってい
る。
That is, for example, mark detection robot R1
During the teaching work, as shown in Table 2, coordinate data (x, y, z) for each detection point, posture data (α, β, γ) of mark detection camera S1, and each arm axis R
11, R12, R13 (Fig. 3) angle data (θ1, θ
2, . After that, the floppy is transferred to the polishing robot controller 61.
Load it into After starting the detection work, only the number data of the detection point to be processed is transferred from the detection robot control section 55 to the polishing robot control section 61, and the polishing robot R4 moves to the detection point.

【0033】[0033]

【表2】[Table 2]

【0034】一方、マーク検知ロボットR1,R2,R
3と研磨ロボットR4,R5,R6間のデータ処理動作
の他の実施例として、水研作業開始後に検知ロボット制
御部55から加工すべき検知ポイントの座標データ(x
,y,z)やマーク検知カメラS1の姿勢データ(α,
β,γ)や各アーム軸R11,R12,R13の角度デ
ータ(θ1,θ2,…,θ4)を転送するようにしても
よい。この場合、転送データの量は増えるが、予め検知
ポイントのデータを登録する必要が無くなる。
On the other hand, mark detection robots R1, R2, R
3 and the polishing robots R4, R5, and R6, coordinate data (x
, y, z) and the posture data of mark detection camera S1 (α,
β, γ) and the angle data (θ1, θ2, . . . , θ4) of each arm axis R11, R12, R13 may be transferred. In this case, although the amount of transferred data increases, there is no need to register detection point data in advance.

【0035】また、上述したマーク検知ロボットR1,
R2,R3のティーチングデータは二次元の検知ポイン
トのデータであり、研磨ロボットR4,R5,R6はマ
ーク検知ロボットR1,R2,R3の作動範囲の中で、
平面的にどこの検知ポイントにあるかだけで制御される
。従って、研磨ロボットR4,R5,R6は非常に簡単
で、且つ正確な作動を行うことができる。
[0035] Furthermore, the above-mentioned mark detection robot R1,
The teaching data of R2 and R3 is data of two-dimensional detection points, and the polishing robots R4, R5, and R6 are within the operating range of the mark detection robots R1, R2, and R3.
It is controlled only by where the detection point is located on a plane. Therefore, the polishing robots R4, R5, and R6 can operate very easily and accurately.

【0036】なお、マーク検知工程L2と研磨工程L3
とには、それぞれ自動車ボディ1の加工位置決め用の絶
対基準位置が設けられており、マーク検知ロボットR1
,R2,R3及び研磨ロボットR4,R5,R6は上記
絶対基準位置を基準に座標を設定しており、従って、同
一座標であればマーク検知ロボットR1,R2,R3及
び研磨ロボットR4,R5,R6は同一の部位に移動す
るようになっている。
Note that the mark detection process L2 and the polishing process L3
are respectively provided with absolute reference positions for processing positioning of the automobile body 1, and the mark detection robot R1
, R2, R3 and the polishing robots R4, R5, R6 have their coordinates set based on the above absolute reference position. Therefore, if the coordinates are the same, the mark detection robots R1, R2, R3 and the polishing robots R4, R5, R6 are designed to move to the same location.

【0037】次に、上記マーク検知工程L2及び研磨工
程L3の動作について図4及び図5のフローチャートを
用いて説明する。なお、図4のフローチャートはマーク
検知工程L2の動作を示し、図5のフローチャートは研
磨工程L3の動作を示している。
Next, the operations of the mark detection step L2 and polishing step L3 will be explained using the flowcharts of FIGS. 4 and 5. Note that the flowchart in FIG. 4 shows the operation of the mark detection step L2, and the flowchart in FIG. 5 shows the operation of the polishing step L3.

【0038】マーキング工程L1で検査員M1,M2に
より塗装不良が発見されてマーキングされた後、搬送ラ
イン2に沿ってマーク検知工程L2に搬送されてきた自
動車ボディ1は車種検知センサP1,P2,P3により
車種を検知され(ステップS1)、車種に応じたマーク
検知ロボットR1,R2,R3の制御プログラムが設定
される(ステップS2)。
After a paint defect is found and marked by the inspectors M1 and M2 in the marking process L1, the automobile body 1 is conveyed along the conveyance line 2 to the mark detection process L2 and is detected by vehicle type detection sensors P1, P2, The vehicle type is detected by P3 (step S1), and a control program for mark detection robots R1, R2, and R3 is set according to the vehicle type (step S2).

【0039】続いて、自動車ボディ1が検知作業位置に
セットされたかどうかが判別され(ステップS3)、自
動車ボディ1が検知作業位置に有れば(ステップS3で
YES)、マーク検知ロボットR1,R2,R3が起動
されてマーク検知カメラS1,S2,S3によりマーク
検知が開始される(ステップS4)。すなわち、マーク
検知ロボットR3であればマーク検知カメラS3により
ボンネット面、ルーフ面、トランク面の順にマーク検知
が行われる。また、例えばボンネット面11には、図6
に示すように、ボンネット面11を区画するように複数
の検知ポイント1a,1b,…,1c,…が設定されて
おり、マーク検知ロボットR3はマーク検知カメラS3
により上記検知ポイント1a,1b,…,1c,…の順
にボンネット面11に沿ってマーク検知を行うようにし
ている。なお、上記ルーフ面及びトランク面にもそれぞ
れ検知ポイントが設定され、マーク検知ロボットR3は
上記ルーフ面及びトランク面に沿ってマーク検知を行う
ようにしている。
Next, it is determined whether the car body 1 is set at the detection work position (step S3), and if the car body 1 is at the detection work position (YES at step S3), the mark detection robots R1, R2 , R3 are activated, and mark detection is started by mark detection cameras S1, S2, and S3 (step S4). That is, in the case of the mark detection robot R3, the mark detection camera S3 detects marks in the order of the hood surface, the roof surface, and the trunk surface. Further, for example, on the bonnet surface 11,
As shown in , a plurality of detection points 1a, 1b, ..., 1c, ... are set so as to partition the bonnet surface 11, and the mark detection robot R3 uses a mark detection camera S3.
Accordingly, mark detection is performed along the bonnet surface 11 in the order of the detection points 1a, 1b, . . . , 1c, . Note that detection points are also set on the roof surface and the trunk surface, respectively, and the mark detection robot R3 detects marks along the roof surface and the trunk surface.

【0040】そして、研磨部位を表示するマークが検知
されると(ステップS5でYES)、当該マークの検知
ポイント番号と座標と研磨グレードとのデータが記憶さ
れる(ステップS6)。上記マーク検知は全検知ポイン
ト終了まで続けられ、全検知ポイントでマーク検知が終
了すると(ステップS7でYES)、マーク検知ロボッ
トR1,R2,R3が原位置に復帰し(ステップS8)
、図7に示すように、上記検知ポイントの番号と座標と
研磨グレードとのデータが関係付けられて研磨制御盤6
に転送される(ステップS9)。
[0040] When a mark indicating a polished area is detected (YES in step S5), the data of the detection point number, coordinates, and polishing grade of the mark are stored (step S6). The mark detection described above continues until all detection points are completed, and when mark detection is completed at all detection points (YES in step S7), mark detection robots R1, R2, and R3 return to their original positions (step S8).
As shown in FIG.
(step S9).

【0041】この後、上記自動車ボディ1が研磨工程L
3に搬送され(図5のステップS11でYES)、研磨
作業位置にセットされると(ステップS12でYES)
、研磨ロボットR4,R5,R6がそれぞれ起動する(
ステップS13)。各研磨ロボットR4,R5,R6は
マーク検知工程L2で検出されたマークの検知ポイント
の内、最も番号の小さい検知ポイントの中心にそれぞれ
移動し(ステップS14)、更に当該マークの座標まで
移動する(ステップS15)。すなわち、図6に示すよ
うに、マークMがボンネット面11の検知ポイント1c
に付されていると、研磨ロボットR6は検知ポイント1
cの中心Oに移動し、更に図8に示すマークMの座標(
x1,y1)まで移動する。
After this, the automobile body 1 undergoes a polishing process L.
3 (YES in step S11 of FIG. 5) and set at the polishing work position (YES in step S12).
, polishing robots R4, R5, and R6 start up (
Step S13). Each of the polishing robots R4, R5, and R6 moves to the center of the detection point with the smallest number among the detection points of the mark detected in the mark detection step L2 (step S14), and further moves to the coordinates of the mark ( Step S15). That is, as shown in FIG. 6, the mark M is located at the detection point 1c on the bonnet surface 11.
When the polishing robot R6 is attached to the detection point 1
Move to the center O of c, and further move to the coordinates of mark M shown in Fig. 8 (
x1, y1).

【0042】続いて、研磨グレードデータに基づいて研
磨時間や研磨強度等の加工度合を制御する研磨制御プロ
グラムが設定され(ステップS16)、研磨ツールT1
,T2,T3により加工度合に応じて水研される(ステ
ップS17)。
Next, a polishing control program for controlling the degree of polishing such as polishing time and polishing intensity is set based on the polishing grade data (step S16), and the polishing tool T1
, T2, and T3 according to the processing degree (step S17).

【0043】そして、全検知ポイントでの水研加工が終
了すると(ステップS18でYES)、研磨ロボットR
4,R5,R6がそれぞれ原位置に復帰する(ステップ
S19)。
[0043] When the water polishing process at all detection points is completed (YES in step S18), the polishing robot R
4, R5, and R6 return to their original positions (step S19).

【0044】次に、上記研磨ロボットR4,R5,R6
の研磨動作について図9及び図10を用いて説明する。
Next, the polishing robots R4, R5, R6
The polishing operation will be explained using FIGS. 9 and 10.

【0045】研磨ロボットR4,R5はそれぞれ自動車
ボディ1の左右に配設されており、図9に示すフロント
フェンダ面、フロントドア面、リアドア面、リアフェン
ダ面の順に水研加工を行うようにしている。一方、研磨
ロボットR6は上述したようにボンネット面11、ルー
フ面12、トランク面13の順に水研加工を行う。
The polishing robots R4 and R5 are arranged on the left and right sides of the automobile body 1, respectively, and perform hydro-polishing in the order of the front fender surface, front door surface, rear door surface, and rear fender surface as shown in FIG. . On the other hand, the polishing robot R6 performs water polishing on the bonnet surface 11, the roof surface 12, and the trunk surface 13 in this order, as described above.

【0046】上記フロントフェンダ面、フロントドア面
、リアドア面、リアフェンダ面は各面間の起伏が小さい
ため、ほぼ同一の2次元面として取り扱うことができる
。すなわち、研磨ロボットR4,R5が一つの面から他
の面へ平行移動しても自動車ボディ1との接触は生じな
い。
The front fender surface, front door surface, rear door surface, and rear fender surface have small undulations between each surface, so they can be treated as substantially the same two-dimensional surface. That is, even if the polishing robots R4 and R5 move in parallel from one surface to the other, contact with the automobile body 1 does not occur.

【0047】一方、上記ボンネット面11、ルーフ面1
2、トランク面13は、図9に示すように、各面間の高
低差がかなり大きいため、研磨ロボットR6が、例えば
ボンネット面11の水研加工終了後にルーフ面12の検
出されたマークの検知ポイントまで直接移動しようとす
ると、自動車ボディ1と接触する虞れがある。一方、ボ
ンネット面11の水研加工終了後に自動車ボディ1のピ
ラの起伏に沿ってボンネット面11からルーフ面12に
移動することも考えられるが、移動時間が長くなる。
On the other hand, the bonnet surface 11 and the roof surface 1
2. As shown in FIG. 9, the trunk surface 13 has a fairly large difference in height between the surfaces, so the polishing robot R6 detects the mark detected on the roof surface 12, for example, after finishing the water polishing process on the bonnet surface 11. If you try to move directly to the point, there is a risk of contact with the car body 1. On the other hand, it is conceivable to move from the bonnet surface 11 to the roof surface 12 along the undulations of the pillars of the automobile body 1 after finishing the hydro-polishing process of the bonnet surface 11, but this would take a long time to move.

【0048】このため、図10に示すように、自動車ボ
ディ1の上方に複数の干渉回避ポイント14,15を設
け、研磨ロボットR6がボンネット面11からルーフ面
12に移動する場合には、ボンネット面11から一旦干
渉回避ポイント14に移動した後にルーフ面12に移動
し、ルーフ面12からトランク面13に移動する場合に
は、ルーフ面12から干渉回避ポイント15に移動した
後にトランク面13に移動するようにする。
For this reason, as shown in FIG. 10, a plurality of interference avoidance points 14 and 15 are provided above the automobile body 1, and when the polishing robot R6 moves from the bonnet surface 11 to the roof surface 12, the bonnet surface 11 to the interference avoidance point 14 and then to the roof surface 12, and when moving from the roof surface 12 to the trunk surface 13, the vehicle moves from the roof surface 12 to the interference avoidance point 15 and then moves to the trunk surface 13. do it like this.

【0049】以下、上記研磨ロボットR6の干渉回避ポ
イントへの移動動作の一例について図11及び図12の
フローチャートを用いて説明する。なお、ボンネット面
11の各検知ポイントは1〜49の番号が、ルーフ面1
2の各検知ポイントは50〜99の番号が、トランク面
13の各検知ポイントは100〜149の番号が設定さ
れているものとする。
An example of the operation of moving the polishing robot R6 to the interference avoidance point will be described below with reference to the flowcharts of FIGS. 11 and 12. Note that each detection point on the bonnet surface 11 is numbered 1 to 49 on the roof surface 1.
It is assumed that each detection point on the trunk surface 13 is numbered from 50 to 99, and each detection point on the trunk surface 13 is numbered from 100 to 149.

【0050】自動車ボディ1がマーク検知工程L2から
研磨工程L3に搬送され(ステップS21でYES)、
研磨作業位置にセットされると(ステップS22でYE
S)、研磨ロボットR6が起動し(ステップS23)、
干渉回避フラグFF1,FF2がそれぞれリセットされ
る(ステップS24)。続いて、マーク検知工程L2か
らのデータからマークの検知された検知ポイントが番号
順に読み出され、更に当該検知ポイントに係るマークの
座標データと研磨グレードデータとが読み出される(ス
テップS25)。
The automobile body 1 is transported from the mark detection process L2 to the polishing process L3 (YES in step S21),
When set to the polishing work position (YES in step S22)
S), the polishing robot R6 starts (step S23),
The interference avoidance flags FF1 and FF2 are each reset (step S24). Subsequently, the detection points at which marks are detected are read out in numerical order from the data from the mark detection step L2, and the mark coordinate data and polishing grade data related to the detection points are read out (step S25).

【0051】次に、上記検知ポイントの番号がボンネッ
ト面11の検知ポイントの番号、すなわち1〜49間の
番号かどうかが判別され(ステップS26)、上記検知
ポイントの番号が1〜49間であれば(ステップS26
でYES)、研磨ロボットR6は当該検知ポイントの中
心O(図8)に移動し(ステップS27)、更にマーク
M(図8)の座標まで移動した後(ステップS28)、
研磨ツールT3により加工度合に応じるように水研加工
が行われる(ステップS29)。そして、ボンネット面
11の全検知ポイントでの水研加工が終了するまで続け
られ(ステップS30でNO)、ボンネット面11以外
の検知ポイントにマークが無ければ(ステップS30で
YES)、研磨ロボットR6は原位置に復帰する(ステ
ップS31)。一方、ボンネット面11での水研加工終
了後、更にマークがルーフ面12あるいはトランク面1
3に有る場合、これらの検知ポイントの番号は50以上
となるため、ステップS26でNOとなって図12のス
テップS32に移行する。 そして、上記検知ポイントの番号がルーフ面12の検知
ポイントの番号、すなわち50〜99間の番号かどうか
が判別され(ステップS32)、上記50〜99間の番
号であれば(ステップS32でYES)、干渉回避フラ
グFF1がセットされているかどうかが判別される(ス
テップS33)。このとき、干渉回避フラグFF1はセ
ットされていないので(ステップS33でNO)、干渉
回避ポイント14が研磨ロボット制御部63に設定され
(ステップS34)、研磨ロボットR6が干渉回避ポイ
ント14に移動した後(ステップS35)、干渉回避フ
ラグFF1がセットされる(ステップS36)。続いて
、ステップS27に戻って研磨ロボットR6がルーフ面
12の当該マーク部位に移動し、水研加工が行われる(
ステップS27〜S29)。
Next, it is determined whether the number of the detection point is the number of the detection point on the bonnet surface 11, that is, a number between 1 and 49 (step S26). (Step S26
(YES), the polishing robot R6 moves to the center O (FIG. 8) of the detection point (step S27), further moves to the coordinates of the mark M (FIG. 8) (step S28),
Water polishing is performed using the polishing tool T3 according to the degree of polishing (step S29). The water polishing process continues until the water polishing process is completed at all detection points on the bonnet surface 11 (NO in step S30), and if there is no mark on any detection point other than the bonnet surface 11 (YES in step S30), the polishing robot R6 It returns to its original position (step S31). On the other hand, after the water grinding process is completed on the bonnet surface 11, a mark is added on the roof surface 12 or the trunk surface 1.
3, the number of these detection points is 50 or more, so the answer in step S26 is NO and the process moves to step S32 in FIG. Then, it is determined whether the number of the detection point is the number of the detection point on the roof surface 12, that is, a number between 50 and 99 (step S32), and if the number is between 50 and 99 (YES at step S32). , it is determined whether the interference avoidance flag FF1 is set (step S33). At this time, since the interference avoidance flag FF1 is not set (NO in step S33), the interference avoidance point 14 is set in the polishing robot control unit 63 (step S34), and after the polishing robot R6 moves to the interference avoidance point 14. (Step S35), and the interference avoidance flag FF1 is set (Step S36). Next, the process returns to step S27, where the polishing robot R6 moves to the corresponding mark on the roof surface 12, and water polishing is performed (
Steps S27 to S29).

【0052】そして、上記ルーフ面12の水研加工後、
更にルーフ面12にマークが有れば、ステップS36で
干渉回避フラグFF1はすでにセットされているので(
ステップS33でYES)、研磨ロボットR6はそのま
まルーフ面12の当該マーク部位に移動し、水研加工が
行われる(ステップS27〜S29)。
[0052] After the water polishing of the roof surface 12,
Furthermore, if there is a mark on the roof surface 12, the interference avoidance flag FF1 has already been set in step S36 (
If YES in step S33), the polishing robot R6 moves directly to the corresponding mark portion on the roof surface 12, and water polishing is performed (steps S27 to S29).

【0053】一方、トランク面13のみにマークが有れ
ば、あるいは上記ルーフ面12の水研加工の終了後にト
ランク面13にマークが有れば、当該マークの検知ポイ
ントは100〜149間の番号になるため(ステップS
37でYES)、干渉回避フラグFF1がセットされて
いるかどうかが判別される(ステップS38)。すなわ
ち、例えば、ルーフ面12にマークが無かった場合(ス
テップS32でNO)、ステップS36で干渉回避フラ
グFF1はセットされていないため(ステップS38で
NO)。干渉回避ポイント14が研磨ロボット制御部6
3に設定され(ステップS39)、研磨ロボットR6が
ボンネット面11から干渉回避ポイント14に移動し(
ステップS40)、干渉回避フラグFF1がセットされ
る(ステップS41)。
On the other hand, if there is a mark only on the trunk surface 13, or if there is a mark on the trunk surface 13 after the water polishing of the roof surface 12 is completed, the detection point of the mark will be a number between 100 and 149. (Step S
37: YES), it is determined whether the interference avoidance flag FF1 is set (step S38). That is, for example, if there is no mark on the roof surface 12 (NO in step S32), the interference avoidance flag FF1 is not set in step S36 (NO in step S38). The interference avoidance point 14 is the polishing robot control unit 6
3 (step S39), and the polishing robot R6 moves from the bonnet surface 11 to the interference avoidance point 14 (
Step S40), and the interference avoidance flag FF1 is set (Step S41).

【0054】次に、干渉回避フラグFF2がセットされ
ているかどうかが判別される(ステップS42)。干渉
回避フラグFF2はステップS24でリセットされたま
まなのでステップS42でNOとなり、干渉回避ポイン
ト15が研磨ロボット制御部63に設定され(ステップ
S43)、研磨ロボットR6が干渉回避ポイント15に
移動し(ステップS44)、干渉回避フラグFF2がセ
ットされた後(ステップS45)、ステップS27に戻
ってトランク面13の当該マーク部位に移動し、水研加
工が行われる(ステップS27〜S29)。
Next, it is determined whether the interference avoidance flag FF2 is set (step S42). Since the interference avoidance flag FF2 remains reset in step S24, the result is NO in step S42, the interference avoidance point 15 is set in the polishing robot control unit 63 (step S43), and the polishing robot R6 moves to the interference avoidance point 15 (step S42). S44), after the interference avoidance flag FF2 is set (step S45), the process returns to step S27 to move to the corresponding marked part on the trunk surface 13, and water polishing is performed (steps S27 to S29).

【0055】そして、上記トランク面13の水研加工後
、更にトランク面13にマークが有れば、このとき干渉
回避フラグFF1,FF2はそれぞれセットされている
のでステップS38,S42で共にYESとなり、ステ
ップS39〜ステップS41及びステップS43〜ステ
ップS45の処理を行うことなく、ステップS27に戻
って当該マーク部位に移動し、水研加工が行われる(ス
テップS27〜S29)。
If there is a mark on the trunk surface 13 after the water polishing of the trunk surface 13, the interference avoidance flags FF1 and FF2 are set at this time, so YES is determined in steps S38 and S42. Without performing the processes of steps S39 to S41 and steps S43 to S45, the process returns to step S27 and moves to the mark site, where water polishing is performed (steps S27 to S29).

【0056】このように、図10の二点鎖線に示すよう
に、研磨ロボットR6はボンネット面11の水研加工後
に干渉回避ポイント14に直ちに移動した後、ルーフ面
12に移動し、一方、ルーフ面12の水研加工終了後は
干渉回避ポイント15に直ちに移動した後、トランク面
13に移動するようにしている。すなわち、研磨ロボッ
トR6は干渉回避ポイント14,15を介することによ
り、自動車ボディ1と接触することなくボンネット面1
1あるいはルーフ面12の任意の検知ポイントからルー
フ面12あるいはトランク面13へ直接移動することが
できる。従って、マーク検知ロボットR1,R2,R3
と同様に各加工面の全域を通った後に次の加工面に移動
するように構成した場合に比べ、研磨ロボットR6の移
動時間を短縮することができる。
In this way, as shown by the two-dot chain line in FIG. 10, the polishing robot R6 immediately moves to the interference avoidance point 14 after the water grinding process on the bonnet surface 11, and then moves to the roof surface 12. After the surface 12 is polished, it immediately moves to the interference avoidance point 15 and then moves to the trunk surface 13. That is, by passing through the interference avoidance points 14 and 15, the polishing robot R6 can polish the bonnet surface 1 without contacting the automobile body 1.
1 or roof surface 12 directly to roof surface 12 or trunk surface 13. Therefore, mark detection robots R1, R2, R3
Similarly, compared to the case where the polishing robot R6 is configured to move to the next processing surface after passing through the entire area of each processing surface, the moving time of the polishing robot R6 can be shortened.

【0057】なお、研磨ロボットR4,R5は上述した
ようにフロントフェンダ面、フロントドア面、リアドア
面、リアフェンダ面の各面間の起伏が小さいので、干渉
ポイントは必要でなく、各面間を直接移動することがで
きる。
As mentioned above, the polishing robots R4 and R5 have small undulations between the front fender surface, front door surface, rear door surface, and rear fender surface, so there is no need for interference points, and each surface can be directly connected between the surfaces. Can be moved.

【0058】次に、マーク検知工程L2でのマーク検知
カメラS1,S2,S3のマーク検知の動作について説
明する。
Next, the mark detection operations of the mark detection cameras S1, S2, and S3 in the mark detection step L2 will be explained.

【0059】検知ポイントの境界付近でのマークの検知
漏れを防ぐため、マーク検知カメラS1,S2,S3は
上下左右の隣接検知ポイントをそれぞれオーバーラップ
して検知するようになっている。このため、上記オーバ
ーラップ部分のマークが重複して検知されることになる
In order to prevent marks from being omitted from being detected near the boundaries of the detection points, the mark detection cameras S1, S2, and S3 are configured to detect adjacent detection points on the upper, lower, left, and right sides, respectively, in an overlapping manner. For this reason, the marks in the overlapping portion are detected in duplicate.

【0060】この重複検知の処理のため、図13に示す
ように、上記オーバーラップ部分を複数の検知ウィンド
に区画してこれらに番号W1〜W8を付す。そして、こ
れらの周辺検知ウィンドW1〜W8にマークが有る場合
には、当該検知ポイントと隣接検知ポイントとのいずれ
か一方のみにマークが存在するものとして検知処理を行
うようにする。
For this overlap detection process, as shown in FIG. 13, the overlap portion is divided into a plurality of detection windows and numbers W1 to W8 are assigned to these windows. If a mark exists in these surrounding detection windows W1 to W8, the detection process is performed assuming that a mark exists only in either one of the detection point or the adjacent detection point.

【0061】以下、上記マーク検知の動作について図1
4のフローチャートを用いて説明する。
The operation of the above mark detection will be explained below with reference to FIG.
This will be explained using the flowchart of No. 4.

【0062】マーキング工程L1から搬送された自動車
ボディ1が検知作業位置にセットされると、マーク検知
カメラS1,S2,S3によりマーク検知が開始される
(ステップS51)。そして、マークが検知されると(
ステップS52でYES)、当該マークの検知ポイント
の番号と座標と研磨グレードとのデータが記憶され、上
記マークが周辺検知ウィンドW1〜W8内に有れば、該
検知ウィンドの番号が記憶される(ステップS53)。
When the automobile body 1 transported from the marking step L1 is set at the detection work position, mark detection is started by the mark detection cameras S1, S2, and S3 (step S51). Then, when the mark is detected (
YES in step S52), the data of the detection point number, coordinates, and polishing grade of the mark are stored, and if the mark is within the peripheral detection windows W1 to W8, the number of the detection window is stored ( Step S53).

【0063】一方、マークが無ければ(ステップS52
でNO)、ステップS53の処理を行うことなくステッ
プS54に移行し、全検知ポイントでのマーク検知が終
了するまで(ステップS54でNO)マーク検知が続け
られる。 そして、全検知ポイントでのマーク検知が終了すると(
ステップS54でYES)、上記記憶された各データが
読み出され(ステップS55)、各記憶データに対応す
る出力フラグがそれぞれ“1”にセットされる(ステッ
プS56)。続いて、上記記憶データから周辺検知ウィ
ンドW1〜W8内に有るマークが検知ポイントの番号順
に検索され(ステップS57)、該当するマークが有れ
ば(ステップS58でYES)、表3に基づいて当該検
知ポイントにオーバーラップしている隣接検知ポイント
が抽出され、表4に示すように、当該隣接検知ポイント
に対応する記憶データの出力フラグが“0”にリセット
される(ステップS59)。
On the other hand, if there is no mark (step S52
(NO in step S54), the process moves to step S54 without performing the process in step S53, and mark detection is continued until mark detection at all detection points is completed (NO in step S54). Then, when mark detection is completed at all detection points (
(YES in step S54), each of the stored data is read out (step S55), and the output flag corresponding to each stored data is set to "1" (step S56). Next, marks in the surrounding detection windows W1 to W8 are searched from the above stored data in the order of detection point numbers (step S57), and if a corresponding mark is found (YES in step S58), the corresponding mark is searched based on Table 3. An adjacent detection point that overlaps the detection point is extracted, and as shown in Table 4, the output flag of the stored data corresponding to the adjacent detection point is reset to "0" (step S59).

【0064】[0064]

【表3】[Table 3]

【0065】[0065]

【表4】[Table 4]

【0066】そして、全記憶データの検索が終了すると
(ステップS60,61が共にYES)、上記記憶デー
タの内から出力フラグがセットされているデータのみ研
磨制御盤6に転送される(ステップS62)。この後、
上記転送されたデータに基づいて研磨ロボットR4,R
5,R6が移動され、水研加工が行われる。
When the search for all stored data is completed (YES in both steps S60 and 61), only the data for which the output flag is set from among the stored data is transferred to the polishing control panel 6 (step S62). . After this,
Based on the above transferred data, polishing robot R4,R
5, R6 is moved and water polishing is performed.

【0067】次に、上記フローチャートのステップS5
7〜ステップS59の動作についてマークA〜Eを例に
図15及び表3,表4を用いて説明する。なお、検知ポ
イントは「1」〜「9」のみとする。また、マークAの
座標(80,50),マークBの座標(250,120
),マークCの座標(200,235),マークDの座
標(250,235)はそれぞれ検知ポイント「1」に
おける値を示し、マークEの座標(200,235)は
検知ポイント「2」における値を示している。
Next, step S5 of the above flowchart
The operations from step S7 to step S59 will be explained using FIG. 15 and Tables 3 and 4 using marks A to E as examples. Note that the detection points are only "1" to "9". Also, the coordinates of mark A (80, 50) and the coordinates of mark B (250, 120)
), the coordinates of mark C (200, 235), and the coordinates of mark D (250, 235) each indicate the value at detection point "1", and the coordinates of mark E (200, 235) indicate the value at detection point "2". It shows.

【0068】また、参照ウィンド番号は該当する周辺検
知ウィンドとオーバーラップする隣接検知ポイントの周
辺検知ウィンドの番号を示している。すなわち、例えば
検知ポイント「1」の周辺検知ウィンドW2であれば、
隣接検知ポイントは「2」となり、更にオーバーラップ
する周辺検知ウィンドの番号はW4となる。さらに、検
知ウィンドW0はいずれの隣接検知ポイントともオーバ
ーラップしていない領域を示している。
Further, the reference window number indicates the number of the peripheral detection window of the adjacent detection point that overlaps with the corresponding peripheral detection window. That is, for example, if it is the surrounding detection window W2 of detection point "1",
The adjacent detection point is "2", and the number of the overlapping peripheral detection window is W4. Furthermore, the detection window W0 indicates an area that does not overlap with any adjacent detection points.

【0069】図15に示すように、マークAは検知ポイ
ント「1」の検知ウィンドW0に位置するため、検知ポ
イント「1」のみで検知される。一方、マークBは検知
ポイント「1」の周辺検知ウィンドW2に位置し、検知
ポイント「1」と検知ポイント「2」とで重複して検知
される。マークCは検知ポイント「1」の周辺検知ウィ
ンドW3に位置し、検知ポイント「1」と検知ポイント
「4」とで重複して検知される。また、マークDは検知
ポイント「1」の周辺検知ウィンドW7に位置し、検知
ポイント「1」と検知ポイント「2」と検知ポイント「
4」と検知ポイント「5」とで重複して検知される。さ
らに、マークEは検知ポイント「2」の周辺検知ウィン
ドW3に位置し、検知ポイント「2」と検知ポイント「
5」とで重複して検知される(ステップS51〜ステッ
プS54)。
As shown in FIG. 15, since mark A is located in the detection window W0 of detection point "1", it is detected only at detection point "1". On the other hand, mark B is located in the peripheral detection window W2 of detection point "1" and is detected redundantly at detection point "1" and detection point "2". The mark C is located in the peripheral detection window W3 of the detection point "1", and is detected redundantly at the detection point "1" and the detection point "4". In addition, mark D is located in the surrounding detection window W7 of detection point "1", and detection point "1", detection point "2", and detection point "
4" and detection point "5" are detected redundantly. Furthermore, mark E is located in the surrounding detection window W3 of detection point "2", and detection point "2" and detection point "
5'' is detected redundantly (steps S51 to S54).

【0070】そして、上記マークA〜Eの各データは検
知ポイントの番号等と関係付けられて読み出された後(
ステップS55)、これらのデータの出力フラグが全て
セットされる(ステップS56)。
[0070] Then, each data of the marks A to E is read out in relation to the number of the detection point, etc. (
Step S55), all output flags of these data are set (Step S56).

【0071】マークAは上述したように検知ポイント「
1」のみで検知され、オーバーラップしていないので、
ステップS58でNOとなってマークAの記憶データA
1の出力フラグはセット状態のままになる。
As mentioned above, mark A is the detection point "
1" is detected and there is no overlap, so
If NO is determined in step S58, the stored data A of mark A is
The output flag of 1 remains set.

【0072】一方、マークBに対しては表2から検知ポ
イント「1」の周辺検知ウィンドW2の隣接検知ポイン
ト番号である「2」及び参照ウィンド番号W4が抽出さ
れる。すなわち、マークBは検知ポイント「2」の周辺
ウィンド番号W4と検知ポイント「1」の周辺検知ウィ
ンドW2とで重複しているので、検知ポイント「2」の
マークBの記憶データB2の出力フラグがリセットされ
、マークBが検知ポイント「1」のみに存在するように
処理される(ステップS59)。
On the other hand, for mark B, the adjacent detection point number "2" of the peripheral detection window W2 of the detection point "1" and the reference window number W4 are extracted from Table 2. That is, since mark B overlaps in the surrounding window number W4 of detection point "2" and the surrounding detection window W2 of detection point "1", the output flag of the stored data B2 of mark B of detection point "2" is The mark B is reset and processed so that it exists only at the detection point "1" (step S59).

【0073】同様に、マークCに対しては表2から隣接
検知ポイント番号「4」及び参照ウィンド番号W1が抽
出され、検知ポイント「4」のマークCの記憶データC
4の出力フラグがリセットされ、マークCが検知ポイン
ト「1」のみに存在するように処理される(ステップS
59)。また、マークEに対しては表2から隣接検知ポ
イント番号「5」及び参照ウィンド番号W1が抽出され
、検知ポイント「5」のマークEの記憶データE5の出
力フラグがリセットされ、マークEが検知ポイント「2
」のみに存在するように処理される(ステップS59)
Similarly, for mark C, the adjacent detection point number "4" and reference window number W1 are extracted from Table 2, and the stored data C of mark C at detection point "4" is extracted.
The output flag of No. 4 is reset, and the mark C is processed so that it exists only at the detection point "1" (step S
59). Furthermore, for mark E, the adjacent detection point number "5" and reference window number W1 are extracted from Table 2, the output flag of the memory data E5 of mark E at detection point "5" is reset, and mark E is detected. Point "2"
” (step S59)
.

【0074】一方、マークDに対しては表2から検知ポ
イント「1」の周辺検知ウィンドW7の隣接検知ポイン
ト番号である「2」と「4」と「5」とがそれぞれ抽出
され、更にこれらの参照ウィンド番号W8とW6とW5
とがそれぞれ抽出される。そして、この抽出結果に基づ
いて検知ポイント「2」と「4」と「5」とのマークD
の各記憶データD2,D4,D5の出力フラグがそれぞ
れリセットされ、マークDが検知ポイント「1」のみに
存在するように処理される(ステップS59)。
On the other hand, for mark D, the adjacent detection point numbers "2", "4", and "5" of the surrounding detection window W7 of the detection point "1" are extracted from Table 2, and these Reference window numbers W8, W6 and W5
are extracted respectively. Then, based on this extraction result, the detection points "2", "4", and "5" are marked D.
The output flags of the stored data D2, D4, and D5 are reset, respectively, and the mark D is processed so that it exists only at the detection point "1" (step S59).

【0075】この後、表3の記憶データの内、出力フラ
グのセットされているデータA1,B1,C1,D1,
E2が研磨制御盤6に転送される(ステップS62)。
After this, among the stored data in Table 3, the data A1, B1, C1, D1, whose output flags are set are
E2 is transferred to the polishing control panel 6 (step S62).

【0076】このように、マークが重複して検知されて
も研磨制御盤6には、各マークに対して1のデータしか
転送しないため、同一のマーク部位が重複して水研され
ることを防ぐことができる。
In this way, even if duplicate marks are detected, only one piece of data for each mark is transferred to the polishing control panel 6, so that it is possible to prevent the same mark from being wet-polished twice. It can be prevented.

【0077】次に、複数のマークを一度に研磨可能にす
るためのマーク検知部55,56,57でのデータ処理
の第1実施例について図16及び図17のフローチャー
トを用いて説明する。
Next, a first embodiment of data processing in the mark detection sections 55, 56, and 57 to enable polishing of a plurality of marks at once will be described with reference to flowcharts shown in FIGS. 16 and 17.

【0078】この実施例では、画像処理により研磨ツー
ルT1,T2,T3の1回の研磨範囲に包含される複数
のマークを抽出するようにしている。なお、研磨範囲の
形状は研磨ツールT1,T2,T3の形状等に応じて、
例えば丸形、四角形あるいは楕円形に設定され、更に研
磨範囲の大きさは加工度合に応じて変わるようになって
いる。また、画像メモリは加工度合に対応させてメモリ
領域を区画している。さらに、マーク検知部55,56
,57は画像メモリ上に、例えば白く塗りつぶされた領
域を抽出するようにしている。また、上記塗りつぶされ
た領域はピンホール等の加工部位を示している。
In this embodiment, a plurality of marks included in one polishing range of polishing tools T1, T2, and T3 are extracted by image processing. Note that the shape of the polishing range varies depending on the shape of the polishing tools T1, T2, T3, etc.
For example, the shape is set to be round, square, or oval, and the size of the polishing range changes depending on the degree of processing. Furthermore, the memory area of the image memory is divided according to the degree of processing. Furthermore, mark detection sections 55 and 56
, 57 extracts, for example, a white-painted area on the image memory. Further, the filled-in area indicates a processed portion such as a pinhole.

【0079】自動車ボディ1が検知作業位置にセットさ
れると、マーク検知ロボットR1,R2,R3が起動さ
れ、マーク検知カメラS1,S2,S3によりマーク検
知が開始される(ステップS71)。そして、マークが
検知されると(ステップS72でYES)、該マークの
形状等から加工度合が判別され、加工度合に応じた画像
メモリが選択される。続いて、上記選択された画像メモ
リにおいて上記マークの座標を中心に上記研磨範囲及び
加工度合に対応する形状及び大きさの領域(以下、マー
ク部という)が白で塗りつぶされる(ステップS73)
When the automobile body 1 is set at the detection work position, the mark detection robots R1, R2, and R3 are activated, and mark detection is started by the mark detection cameras S1, S2, and S3 (step S71). When a mark is detected (YES in step S72), the degree of processing is determined from the shape of the mark, etc., and an image memory corresponding to the degree of processing is selected. Subsequently, in the selected image memory, an area having a shape and size corresponding to the polishing range and degree of processing (hereinafter referred to as the mark section) centered around the coordinates of the mark is filled with white (step S73).
.

【0080】一方、マークが無ければ(ステップS72
でNO)、ステップS73の処理を行うことなくステッ
プS74に移行し、全検知ポイントでのマーク検知が終
了したかどうかが判別され(ステップS74)、終了し
ていなければ(ステップS74でNO)、ステップS7
1に戻ってマーク検知が続けられる。そして、全検知ポ
イントでのマーク検知が終了すると(ステップS74で
YES)、上記各画像メモリ領域の各マーク部にラベリ
ング(番号付け)が行われる(ステップS75)。ここ
で、複数のマーク部が互いに繋がっている場合、これら
のマーク部は1つのマーク部として1のラベル(番号)
が付されるようになっている。
On the other hand, if there is no mark (step S72
(NO in step S74), the process moves to step S74 without performing the process in step S73, and it is determined whether mark detection has been completed at all detection points (step S74), and if it has not been completed (NO in step S74), Step S7
1 and mark detection continues. When mark detection at all detection points is completed (YES in step S74), each mark portion in each image memory area is labeled (numbered) (step S75). Here, if multiple mark parts are connected to each other, these mark parts are treated as one mark part with a single label (number).
is now attached.

【0081】続いて、上記ラべリングされたマーク部が
有れば(ステップS76でYES)、番号順に抽出され
(ステップS77)、抽出されたマーク部のx方向及び
y方向の幅がそれぞれ抽出される(ステップS78,S
79)。次に、上記マーク部のx方向及びy方向の各幅
がそれぞれ研磨範囲のx方向及びy方向の幅の2倍以内
かどうかが判別される(ステップS80)。すなわち、
上記塗りつぶされた領域は上述したようにピンホール等
の加工部位を中心に設定されているため、この加工部位
が研磨範囲内に入れば複数の加工部位であっても一度に
水研加工することができる。従って、上記研磨範囲の2
倍以内であれば(ステップS80でYES)、当該マー
ク部の重心を上記研磨範囲の中心にあわせることにより
、上記マーク部内の複数の加工部位を一度に水研加工す
ることができるため、上記マーク部の重心座標が画像メ
モリ上で求められた後(ステップS81)、上記重心座
標が記憶される(ステップS82)。そして、更にマー
ク部が有れば(ステップS83でYES)、ステップS
76に戻る。
[0081] Subsequently, if the labeled mark part is present (YES in step S76), it is extracted in numerical order (step S77), and the widths of the extracted mark part in the x direction and the y direction are respectively extracted. (step S78, S
79). Next, it is determined whether the widths of the mark portions in the x and y directions are within twice the widths of the polishing range in the x and y directions (step S80). That is,
As mentioned above, the filled-in area is set around machining parts such as pinholes, so if this machining part falls within the polishing range, even if multiple machining parts are processed, water polishing can be performed at once. Can be done. Therefore, 2 of the above polishing range
If it is within the same time (YES in step S80), by aligning the center of gravity of the mark to the center of the polishing range, it is possible to water-grind multiple parts within the mark at once. After the barycenter coordinates of the part are determined on the image memory (step S81), the barycenter coordinates are stored (step S82). Then, if there is another mark part (YES in step S83), step S
Return to 76.

【0082】一方、ステップS80で上記マーク部のx
方向及びy方向の幅が研磨範囲の2倍以上であれば(ス
テップS80でNO)、当該マーク部を画像メモリ上で
上記研磨範囲の2倍以内の領域に分割する(図17のス
テップS84)。続いて、上記分割された各マーク部の
重心座標をそれぞれ抽出して記憶する(ステップS85
〜ステップS87及びステップS88でYESのループ
)。そして、上記分割したマーク部の処理が終わると(
ステップS88でNO)、ステップS76に戻る。
On the other hand, in step S80, the mark part x
If the width in the direction and y direction is twice or more the polishing range (NO in step S80), the mark portion is divided into areas within twice the polishing range on the image memory (step S84 in FIG. 17). . Subsequently, the barycenter coordinates of each of the divided mark portions are extracted and stored (step S85).
- Loop of YES in step S87 and step S88). Then, when the processing of the divided mark parts described above is completed (
(NO in step S88), the process returns to step S76.

【0083】そして、全てのマーク部について処理が終
了すると(ステップS76でNO)、上記重心座標のデ
ータが研磨制御盤6に転送され、上記転送データに基づ
いて研磨ロボットR4,R5,R6が駆動され、水研加
工が行われる。
[0083] When the processing for all mark portions is completed (NO in step S76), the data of the center of gravity coordinates is transferred to the polishing control panel 6, and the polishing robots R4, R5, and R6 are driven based on the transferred data. Then, water polishing is performed.

【0084】次に、複数のマークを一度に研磨可能にす
るためのマーク検知部55,56,57でのデータ処理
の第2実施例について図18のフローチャートを用いて
説明する。
Next, a second embodiment of data processing in the mark detection sections 55, 56, and 57 to enable polishing of a plurality of marks at once will be described using the flowchart of FIG.

【0085】この実施例では、各マークの座標から研磨
ツールT1,T2,T3の1の研磨範囲に包含される複
数のマークの重心を演算するようにしている。
In this embodiment, the center of gravity of a plurality of marks included in one polishing range of polishing tools T1, T2, T3 is calculated from the coordinates of each mark.

【0086】自動車ボディ1が検知作業位置にセットさ
れると、マーク検知ロボットR1,R2,R3が起動さ
れ、マーク検知カメラS1,S2,S3によりマーク検
知が開始される(ステップS91)。そして、マークが
検知されると(ステップS92でYES)、当該マーク
のx,y座標がそれぞれ抽出され(ステップS93)、
x座標の小さい順に記憶される(ステップS94)。
When the automobile body 1 is set at the detection work position, the mark detection robots R1, R2, and R3 are activated, and mark detection is started by the mark detection cameras S1, S2, and S3 (step S91). Then, when a mark is detected (YES in step S92), the x and y coordinates of the mark are extracted (step S93),
The x coordinates are stored in ascending order (step S94).

【0087】一方、マークが検知されなければ(ステッ
プS92でNO)、ステップS93,S94の処理を行
うことなく、全検知ポイントでのマーク検知が終了した
かどうかが判別され(ステップS95)、終了していな
ければ(ステップS95でNO)、ステップS91に戻
ってマーク検知が続けられる。そして、全検知ポイント
でのマーク検知が終了し(ステップS95でYES)、
このときマークが無ければ(ステップS96でNO)、
本フローチャートの処理を終了する。
On the other hand, if no mark is detected (NO in step S92), it is determined whether or not mark detection has been completed at all detection points (step S95), without performing the processing in steps S93 and S94, and the process ends. If not (NO in step S95), the process returns to step S91 and mark detection is continued. Then, mark detection at all detection points is completed (YES in step S95),
If there is no mark at this time (NO in step S96),
The processing of this flowchart ends.

【0088】一方、マークが有れば(ステップS96で
YES)、検知されたマークの内、x座標の小さいもの
から順次読み出され、当該読み出された1のマークの座
標に対して研磨範囲のx方向の幅以内、且つy方向の幅
以内の他のマークが検索される(ステップS97)。そ
して、研磨範囲内に他のマークが無ければ(ステップS
98でNO)、上記1のマークの座標がそのまま記憶さ
れる(ステップS99)。一方、上記研磨範囲内に他の
マークが有れば(ステップS98でYES)、これらの
マークは一度に研磨することができるので、これらのマ
ークの重心となるx,y座標が数1と数2によってそれ
ぞれ演算され(ステップS100)、演算された重心の
座標データが記憶される(ステップS101)。
On the other hand, if there is a mark (YES in step S96), the detected marks are read out in order from the one with the smallest x coordinate, and the polishing range is determined with respect to the coordinates of the one read mark. Other marks within the width in the x direction and within the width in the y direction are searched for (step S97). Then, if there are no other marks within the polishing range (step S
98: NO), the coordinates of the mark 1 are stored as they are (step S99). On the other hand, if there are other marks within the polishing range (YES in step S98), these marks can be polished at once, so the x and y coordinates of the centers of gravity of these marks are 2 (step S100), and the calculated coordinate data of the center of gravity is stored (step S101).

【0089】[0089]

【数1】[Math 1]

【0090】[0090]

【数2】[Math 2]

【0091】ここで、nは上記ステップS97で検索さ
れたマークの個数を示すものである。
[0091] Here, n indicates the number of marks searched in step S97.

【0092】そして、全マークについてのx座標の読み
出し及び検索が終了するまで上記ステップS97〜ステ
ップS101の処理が繰り返され、上記処理が終了する
と(ステップS102でYES)、上記記憶されたデー
タが研磨制御盤6に転送され、上記転送データに基づい
て研磨ロボットR4,R5,R6が駆動され、水研が行
われる。
[0092] The processes of steps S97 to S101 are repeated until the reading and searching of the x-coordinates for all marks is completed, and when the above processes are completed (YES in step S102), the stored data is polished. The data is transferred to the control panel 6, and polishing robots R4, R5, and R6 are driven based on the transferred data to perform water polishing.

【0093】なお、上記説明では、塗装後の自動車ボデ
ィ1の水研修正加工について説明したが、ワークは自動
車ボディ1以外であってもよく、被塗装物以外の加工物
であってもよい。また、水研加工に限るものではなく、
例えばマークした位置を吹き付け塗装するものであって
もよい。
[0093] In the above description, the water training process of the automobile body 1 after painting has been described, but the workpiece may be other than the automobile body 1, or may be a workpiece other than the object to be painted. In addition, it is not limited to water grinding,
For example, the marked positions may be spray painted.

【0094】このように、マーク検知ロボットR1,R
2,R3と研磨ロボットR4,R5,R6とを同一機種
のロボットを用いたので、マーク検知ロボットR1,R
2,R3と研磨ロボットR4,R5,R6とのデータを
共通化することができ、データ処理が簡単になる。
In this way, the mark detection robots R1, R
2. Since the same model robots were used for R3 and the polishing robots R4, R5, and R6, the mark detection robots R1, R
2. Data can be shared between R3 and polishing robots R4, R5, and R6, making data processing easier.

【0095】上記図5及び図8に示すように、自動車ボ
ディ1の各塗装面はマーク検知工程L2のマーク検知カ
メラS1,S2,S3の検知範囲に基づいて範囲が設定
された検知ポイントにより区画される。そして、上記図
3のフローチャートに示すように、マーク検知工程L2
によりマーク部位が検知され、当該マークの検知ポイン
トが研磨工程L3の研磨ロボット制御部61,62,6
3に転送されると、上記図4のフローチャートに示すよ
うに、研磨ロボットR4,R5,R6が上記マーク部位
の検知された検知ポイントに移動したのち、研磨部位に
移動して研磨ツールT1,T2,T3により水研加工す
るので、自動車ボディ1の塗装面上の位置を座標データ
で指示して研磨ロボットR4,R5,R6を制御する場
合に比べ、データを簡略化することができる。
As shown in FIGS. 5 and 8, each painted surface of the automobile body 1 is divided by detection points whose ranges are set based on the detection ranges of the mark detection cameras S1, S2, and S3 in the mark detection step L2. be done. Then, as shown in the flowchart of FIG. 3 above, mark detection step L2
The mark part is detected, and the detection point of the mark is detected by the polishing robot controllers 61, 62, 6 in the polishing process L3.
3, as shown in the flowchart of FIG. 4, the polishing robots R4, R5, and R6 move to the detection point where the mark area is detected, and then move to the polishing area and remove the polishing tools T1, T2. , T3, the data can be simplified compared to the case where the polishing robots R4, R5, and R6 are controlled by specifying the position on the painted surface of the automobile body 1 using coordinate data.

【0096】なお、研磨ツールT1,T2,T3の研磨
範囲をマーク検知カメラS1,S2,S3の検知範囲に
ほぼ一致するように構成すると、加工部位が検知された
検知ポイントの中心Oに研磨ツールT1,T2,T3の
中心を合わせるだけで、当該検知ポイント内の加工部位
を加工することができる。この場合、図4のステップS
15に示すマーク座標まで移動する処理を行う必要がな
くなる。
Note that if the polishing ranges of the polishing tools T1, T2, and T3 are configured to almost match the detection ranges of the mark detection cameras S1, S2, and S3, the polishing tools will be placed at the center O of the detection point where the machined part is detected. By simply aligning the centers of T1, T2, and T3, the part to be processed within the detection point can be processed. In this case, step S in FIG.
There is no need to perform the process of moving to the mark coordinates shown in 15.

【0097】また、研磨ロボット制御部61,62,6
3は上記検知ポイントと共に各検知ポイントでの加工姿
勢、例えばアーム軸R11,R12,R13の角度デー
タ(θ1,θ2,…,θ4)を記憶するようにしている
ので、加工部位に研磨ツールT1,T2,T3が確実に
当接し、適正な加工を行うことができる。
[0097] Furthermore, the polishing robot controllers 61, 62, 6
3 stores the machining posture at each detection point along with the above detection points, for example, the angle data (θ1, θ2, ..., θ4) of the arm axes R11, R12, R13, so that the polishing tool T1, T2 and T3 are in reliable contact and proper processing can be performed.

【0098】[0098]

【発明の効果】本発明は、区画された複数の検知ポイン
トを加工手段の移動手段の制御部に記憶させ、加工手段
を検知手段により検知された加工部位の検知ポイントの
位置に移動させるので、加工手段の移動制御用のデータ
を簡略化することができる。従って、データ処理を短時
間で行え、加工時間を短縮することができる。また、移
動手段としてのロボットのティーチングを簡単に行うこ
とができる。さらに、加工手段を検知手段に対応させた
ので、検知手段と加工手段とのデータを共通化すること
ができ、データ処理の簡略化が図れる。
According to the present invention, a plurality of divided detection points are stored in the control section of the moving means of the processing means, and the processing means is moved to the position of the detection point of the processing part detected by the detection means. Data for controlling movement of the processing means can be simplified. Therefore, data processing can be performed in a short time, and processing time can be shortened. Furthermore, teaching of the robot as a means of transportation can be easily performed. Furthermore, since the processing means corresponds to the detection means, data can be shared between the detection means and the processing means, and data processing can be simplified.

【0099】また、検知ポイントの範囲は検知手段の検
知範囲に基づいて設定されているため、検知手段の検知
能力を効率よく使うことができる。
Furthermore, since the range of the detection point is set based on the detection range of the detection means, the detection ability of the detection means can be used efficiently.

【0100】さらに、検知ポイントと共に加工姿勢も記
憶するので、適正な加工を行うことができる。
Furthermore, since the machining posture is also memorized along with the detection points, proper machining can be performed.

【図面の簡単な説明】[Brief explanation of the drawing]

【図1】本発明に係る加工ラインの一例を示すレイアウ
ト図である。
FIG. 1 is a layout diagram showing an example of a processing line according to the present invention.

【図2】加工ラインの制御系の一例を示すブロック構成
図である。
FIG. 2 is a block configuration diagram showing an example of a control system of a processing line.

【図3】本発明に係るロボットを示す外観図である。FIG. 3 is an external view showing a robot according to the present invention.

【図4】マーク検知工程の動作の一例を示すフローチャ
ートである。
FIG. 4 is a flowchart showing an example of the operation of a mark detection step.

【図5】研磨工程の動作の一例を示すフローチャートで
ある。
FIG. 5 is a flowchart showing an example of the operation of a polishing process.

【図6】検知ポイントの設定例を示す説明図である。FIG. 6 is an explanatory diagram showing an example of setting detection points.

【図7】転送データの一例を示す説明図である。FIG. 7 is an explanatory diagram showing an example of transfer data.

【図8】検知ポイント内のマークの座標の一例を示す説
明図である。
FIG. 8 is an explanatory diagram showing an example of coordinates of marks within a detection point.

【図9】自動車ボディに対する検知ポイントの設定例を
示す説明図である。
FIG. 9 is an explanatory diagram showing an example of setting detection points on an automobile body.

【図10】自動車ボディに対する検知ポイントの設定例
を示す説明図である。
FIG. 10 is an explanatory diagram showing an example of setting detection points on an automobile body.

【図11】研磨ロボットの動作の一例を示すフローチャ
ートである。
FIG. 11 is a flowchart showing an example of the operation of the polishing robot.

【図12】研磨ロボットの動作の一例を示すフローチャ
ートである。
FIG. 12 is a flowchart showing an example of the operation of the polishing robot.

【図13】検知ポイントと検知ウィンドとの関係を示す
説明図である。
FIG. 13 is an explanatory diagram showing the relationship between detection points and detection windows.

【図14】マーク検知の動作の一例を示すフローチャー
トである。
FIG. 14 is a flowchart showing an example of mark detection operation.

【図15】検知ポイントと隣接ポイントとの関係の一例
を示す説明図である。
FIG. 15 is an explanatory diagram showing an example of the relationship between a detection point and an adjacent point.

【図16】複数のマークを一度に研磨可能にするための
動作の第1実施例を示すフローチャートである。
FIG. 16 is a flowchart showing a first example of an operation for polishing a plurality of marks at once.

【図17】複数のマークを一度に研磨可能にするための
動作の第1実施例を示すフローチャートである。
FIG. 17 is a flowchart showing a first example of an operation for polishing a plurality of marks at once.

【図18】複数のマークを一度に研磨可能にするための
動作の第2実施例を示すフローチャートである。
FIG. 18 is a flowchart showing a second embodiment of the operation for polishing a plurality of marks at once.

【符号の説明】[Explanation of symbols]

1  自動車ボディ 2  搬送ライン 5  検知制御盤 6  研磨制御盤 11  ボンネット面 12  ルーフ面 13  トランク面 14,15  干渉回避ポイント 51〜53  マーク検知部 54  車種検知部 55〜57  検知ロボット制御部 61〜63  研磨ロボット制御部 64〜66  研磨ツール制御部 1a,1b,…,1c,…  検知ポイントP1〜P3
  車種検知センサ R1〜R3  マーク検知ロボット R4〜R6  研磨ロボット S1〜S3  マーク検知カメラ T1〜T3  研磨ツール
1 Automobile body 2 Transport line 5 Detection control panel 6 Polishing control panel 11 Bonnet surface 12 Roof surface 13 Trunk surface 14, 15 Interference avoidance points 51-53 Mark detection section 54 Vehicle type detection section 55-57 Detection robot control section 61-63 Polishing Robot controllers 64-66 Polishing tool controllers 1a, 1b,..., 1c,... Detection points P1-P3
Vehicle type detection sensor R1-R3 Mark detection robot R4-R6 Polishing robot S1-S3 Mark detection camera T1-T3 Polishing tool

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】  上流から搬送されてきたワークの加工
部位を加工手段により加工するロボットの制御方法にお
いて、各加工面を複数の検知ポイントに区画し、これら
の検知ポイントを上記加工手段の移動手段の制御部に記
憶し、上記加工手段に対応する非接触型の検知手段を配
設し、この検知手段により上記検知ポイント毎に加工部
位を検知するとともに、加工部位が検知された検知ポイ
ントの位置を判別したのち、当該検知ポイントに上記加
工手段を移動させるように上記移動手段を制御すること
を特徴とするロボットの制御方法。
1. A control method for a robot that processes a processing part of a workpiece transported from upstream by a processing means, wherein each processing surface is divided into a plurality of detection points, and these detection points are connected to a moving means of the processing means. A non-contact detection means corresponding to the processing means is provided, and the detection means detects the processing part at each of the detection points, and the position of the detection point where the processing part is detected. 1. A method for controlling a robot, comprising: determining the detection point, and then controlling the moving means to move the processing means to the detection point.
【請求項2】  請求項1のロボットの制御方法におい
て、前記検知ポイントの範囲は前記検知手段の検知範囲
に一致させたことを特徴とするロボットの制御方法。
2. The method of controlling a robot according to claim 1, wherein the range of the detection point is made to coincide with the detection range of the detection means.
【請求項3】  請求項1のロボットの制御方法におい
て、前記移動手段の制御部は前記検知ポイントと共に加
工姿勢を記憶することを特徴とするロボットの制御方法
3. The method of controlling a robot according to claim 1, wherein the control unit of the moving means stores the processing posture together with the detection point.
JP41620790A 1990-12-28 1990-12-29 Robot control method Expired - Fee Related JP3155017B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP41620790A JP3155017B2 (en) 1990-12-29 1990-12-29 Robot control method
KR1019910024843A KR950011757B1 (en) 1990-12-28 1991-12-28 Grinding method and apparatus of automobil badness painting
US08/198,397 US5394654A (en) 1990-12-28 1994-02-18 Method of wet-sanding defective parts of coating on vehicle body and system for carrying out the method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP41620790A JP3155017B2 (en) 1990-12-29 1990-12-29 Robot control method

Publications (2)

Publication Number Publication Date
JPH04250972A true JPH04250972A (en) 1992-09-07
JP3155017B2 JP3155017B2 (en) 2001-04-09

Family

ID=18524448

Family Applications (1)

Application Number Title Priority Date Filing Date
JP41620790A Expired - Fee Related JP3155017B2 (en) 1990-12-28 1990-12-29 Robot control method

Country Status (1)

Country Link
JP (1) JP3155017B2 (en)

Also Published As

Publication number Publication date
JP3155017B2 (en) 2001-04-09

Similar Documents

Publication Publication Date Title
KR950011757B1 (en) Grinding method and apparatus of automobil badness painting
US6714831B2 (en) Paint defect automated seek and repair assembly and method
US4409718A (en) Electro-optical and robotic casting quality assurance
US4774751A (en) Electro-optical and robotic casting quality assurance
EP3630404B1 (en) An apparatus and a method for automated seam welding of a work piece comprising a base plate with a pattern of upstanding profiles
CN111123853A (en) Control method of robot for detecting and remedying spraying on inner surface of automobile
JPS61288997A (en) Method and device for cutting leather, etc.
JP3583450B2 (en) Automatic three-dimensional object inspection apparatus and method
Zych Programming of welding robots in shipbuilding
JP3174073B2 (en) Work processing method
JPH04250972A (en) Control method for robot
JPH04250971A (en) Control method for robot
JPH04250968A (en) Working method for work and device thereof
JPH04250970A (en) Working method for work
JPH1063324A (en) Picture input-type robot system
JPH0872764A (en) Production line controller
JP3092962B2 (en) Robot control method
JPH0580836A (en) Method for generating teaching data for image pickup device
JP3199320B2 (en) Work processing method
JPH07205014A (en) Grinding robot
JP2562047B2 (en) Position and orientation recognition method of target object
JPH0666732A (en) Inspecting and finishing method for painting
Connolly Vision enabled robotics
JPS59156638A (en) Locating device
JPH0557570A (en) Work checking and machining method and device

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees