JPH0592345A - Control device for polishing tool - Google Patents

Control device for polishing tool

Info

Publication number
JPH0592345A
JPH0592345A JP3249379A JP24937991A JPH0592345A JP H0592345 A JPH0592345 A JP H0592345A JP 3249379 A JP3249379 A JP 3249379A JP 24937991 A JP24937991 A JP 24937991A JP H0592345 A JPH0592345 A JP H0592345A
Authority
JP
Japan
Prior art keywords
polishing
work
image
polishing tool
workpiece
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP3249379A
Other languages
Japanese (ja)
Other versions
JP3340143B2 (en
Inventor
Yoshimi Niihara
良美 新原
Hitoshi Sasaki
均 佐々木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mazda Motor Corp
Original Assignee
Mazda Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mazda Motor Corp filed Critical Mazda Motor Corp
Priority to JP24937991A priority Critical patent/JP3340143B2/en
Publication of JPH0592345A publication Critical patent/JPH0592345A/en
Application granted granted Critical
Publication of JP3340143B2 publication Critical patent/JP3340143B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Numerical Control (AREA)
  • Grinding And Polishing Of Tertiary Curved Surfaces And Surfaces With Complex Shapes (AREA)

Abstract

PURPOSE:To simply execute the control of a polishing tool including its working direction on a photographing screen by analizing the photographed picture image of a workpiece through a three dimensional picture image processing device, and polishing the fixed portion of the workpiece by means of a polishing tool on the analized positional data. CONSTITUTION:The three dimensional data of the shape of a workpiece are previously stored, and the surface of the workpiece is divided and set into picture image frames corresponding to one photographing screen. A control device for a polishing tool comprises a model memory means 2 to set up the direction of the normal on a workpiece surface in each of the picture image frames and to store it, a photographing means 3 to photograph the workpiece through the picture image frame coinciding with each picture image frame set for a carried workpiece B, an analizing means 4 to analize the picture image of the workpiece for obtaining the positional data of a polished portion, and a posture control means 5 to control the posture of a polishing tool 50 relative to the surface of the workpiece based on the positional data of the polished portion and the stored normal data of the polished portion.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、研磨ツールの制御装置
に関し、特に自動車ボディ等のワークの塗装面の欠陥部
分等を研磨除去するについての研磨ツールの制御装置に
関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a polishing tool control device, and more particularly to a polishing tool control device for polishing and removing defective portions of a coating surface of a work such as an automobile body.

【0002】[0002]

【従来の技術】従来より、下塗りや中塗りされた自動車
ボディ等のワークの塗装面を、上塗塗装前にその全面を
研磨して塗装面のレベリングおよび上塗塗料の密着性を
向上するについて、この研磨を研磨ツールをハンドまた
はアーム先端に備えたロボットによって行う場合に、研
磨ツールをワークの湾曲面に沿って移動させるために、
実際のワークを搬入して上記研磨ツールをワーク塗装面
に沿ってティーチングし、このティーチングに基づいて
作動させるようにした技術が、例えば、特開昭60−2084
9 号公報に見られるように公知である。
2. Description of the Related Art Conventionally, for the purpose of improving the leveling of the painted surface and the adhesion of the overcoat paint, the entire painted surface of a work such as an undercoated or middle-coated automobile body is polished before overcoating. In order to move the polishing tool along the curved surface of the workpiece when polishing is performed by a robot equipped with a hand or an arm tip,
A technique in which an actual work is carried in and the above-mentioned polishing tool is taught along the work coating surface and operated based on this teaching is disclosed in, for example, JP-A-60-2084.
It is known as seen in Japanese Patent Publication No. 9.

【0003】また、上記ワークの塗装面を検査し、塗装
不良部分を研磨ツールによって研磨除去するために、こ
の塗装面を検査する技術として塗装面に光を照射してそ
の反射光をスクリーン上に投影させ、その投影像の鮮映
度から表面の欠陥を自動的に検出する技術が提案されて
いる。
Further, in order to inspect the coated surface of the above work and polish and remove the defective coating portion with a polishing tool, as a technique for inspecting this coated surface, the coated surface is irradiated with light and the reflected light is reflected on the screen. A technique has been proposed in which a surface defect is projected and the surface defect is automatically detected from the sharpness of the projected image.

【0004】一方、特開昭58−64517 号公報には、前記
ワークの塗装面に発生した塗装不良を研磨して修正する
ため、作業者が搬送されてきたワークを目視検査し、発
見した不良部位と不良状態とを指示装置によってそれぞ
れ入力することにより、下流側でロボット等からなる水
研装置で自動的に研磨する技術が提案されている。
On the other hand, in Japanese Patent Laid-Open No. 58-64517, in order to correct a coating defect that has occurred on the coated surface of the work by polishing, the worker visually inspects the conveyed work and finds out the detected defect. A technique has been proposed in which, by inputting a part and a defective state, respectively, with an indicating device, a water-polishing device including a robot or the like automatically polishes on the downstream side.

【0005】[0005]

【発明が解決しようとする課題】しかして、上記のよう
な研磨ツールによりワークの所定部位の研磨を行うにつ
いて、研磨ツールの作動パターンをティーチングで記憶
させたり、または、位置データによる指令で所定部位を
研磨する制御では、正確で質の良い研磨が行えなかった
り、ティーチング処理が煩雑となる問題を有している。
However, in the case of polishing a predetermined portion of a work with the above-mentioned polishing tool, the operation pattern of the polishing tool is stored by teaching, or a predetermined portion is instructed by position data. In the control of polishing, there is a problem that accurate and high-quality polishing cannot be performed, and the teaching process becomes complicated.

【0006】すなわち、研磨ツールによってワークを研
磨する際には、該研磨ツールはワーク表面に対して垂直
方向から作業を行わないと良好な研磨面が得られないも
のであり、ティーチングによってその作動方向を記憶さ
せる作業は煩雑であるとともに、部分的に研磨を行う場
合には、該当部分の作業方向を多数のティーチングから
呼び出してそれに基づいて行う必要がある。
That is, when polishing a work with a polishing tool, a good polishing surface cannot be obtained unless work is performed in a direction perpendicular to the surface of the work. In addition to the complicated work of memorizing the data, it is necessary to call the working direction of the relevant portion from a large number of teachings and to perform the polishing based on the working direction.

【0007】また、位置データに基づいて行う場合に、
撮像手段によって撮像した平面画像での位置と3次元形
状のワーク表面の位置とは一致せず各種のずれを有し、
しかもそのワーク表面に対して垂直な法線方向から研磨
ツールを作動させることを設定することは困難な処理を
伴うものである。
Further, when performing based on the position data,
The position in the planar image picked up by the image pick-up means does not match the position of the surface of the three-dimensional work, and there are various deviations,
Moreover, it is difficult to set the operation of the polishing tool from the direction normal to the surface of the work.

【0008】そこで、本発明は上記事情に鑑み、撮影画
面上で簡易に研磨ツールの作動方向を含めた制御が行え
るようにした研磨ツールの制御装置を提供することを目
的とするものである。
In view of the above-mentioned circumstances, an object of the present invention is to provide a polishing tool control device capable of easily performing control including the operating direction of the polishing tool on a photographing screen.

【0009】[0009]

【課題を解決するための手段】上記目的を達成するため
本発明の研磨ツールの制御装置は、図1に基本構成を示
すように、自動車ボディなどのワークBに塗装などを施
した後に、このワークBの撮影画像を3次元画像処理装
置1で解析し、その位置データに基づいて研磨ツール50
によってワークBの所定部位の研磨を行うものであっ
て、予めワークBの表面形状の3次元データを記憶する
とともに、そのワークBの表面を1撮影画面に対応した
大きさの複数の画像枠に分割設定し、各画像枠の部分で
ワーク面の法線方向を設定して記憶するモデル記憶手段
2と、搬入され実際に研磨を行うワークBに対し、上記
モデル記憶手段2に設定されている各画像枠に一致した
画像枠でワークBの表面像を撮影する撮像手段3と、上
記撮像手段3で撮影したワークBの画像を解析し研磨を
行う研磨部位の位置データを求める解析手段4と、上記
解析手段4による研磨部位の位置データおよび前記モデ
ル記憶手段2に記憶されている研磨部位の法線データに
基づいて研磨ツール50のワーク面に対する姿勢を制御す
る姿勢制御手段5とを備えて構成したものである。
In order to achieve the above-mentioned object, a polishing tool control apparatus of the present invention has a basic structure shown in FIG. The photographed image of the work B is analyzed by the three-dimensional image processing apparatus 1, and the polishing tool 50 is analyzed based on the position data.
The three-dimensional data of the surface shape of the work B is stored in advance, and the surface of the work B is divided into a plurality of image frames having a size corresponding to one photographing screen. The model storage means 2 is divided and set, and the normal direction of the work surface is set and stored in each image frame portion, and the model storage means 2 is set in the model storage means 2 for the work B that is carried in and is actually polished. An image pickup means 3 for picking up a surface image of the work B in an image frame corresponding to each image frame, and an analysis means 4 for analyzing the image of the work B picked up by the image pickup means 3 to obtain position data of a polishing portion for polishing. An attitude control means 5 for controlling the attitude of the polishing tool 50 with respect to the work surface based on the position data of the polishing part by the analyzing means 4 and the normal line data of the polishing part stored in the model storage means 2. Provided by those configured.

【0010】また、前記解析手段4は、研磨部位におけ
る撮像手段3による撮影角度に応じてモデル記憶手段2
での座標軸と平行面の位置データに変換補正を行うのが
好適である。
Further, the analyzing means 4 has a model storage means 2 according to a photographing angle of the polishing portion by the image pickup means 3.
It is preferable to perform conversion correction on the position data of the plane parallel to the coordinate axes in.

【0011】[0011]

【作用および効果】上記のような研磨ツールの制御装置
では、3次元画像処理装置のモデル記憶手段に予めワー
クの表面形状の3次元データを記憶し、この3次元デー
タにおけるワークの表面を1撮影画面に対応した大きさ
の複数の画像枠に分割設定し、撮影順のティーチング等
を行い、さらに、各画像枠の部分で上記3次元データの
表面に垂直な法線方向を設定して記憶しておくものであ
り、実ラインで研磨処理を施すワークに対しては、撮像
手段によって前記モデル記憶手段の画像枠に対応してワ
ークの表面像を順次撮影し、この撮像手段で撮影したワ
ークの画像は解析手段によって表面の塗装状態などが解
析され、研磨ツールによって研磨を行うべき研磨部位の
位置データが求められ、この研磨部位の位置データが解
析手段から姿勢制御手段に入力され、さらに、前記記憶
手段から該研磨部位の法線データが姿勢制御手段に呼び
出され、姿勢制御手段は研磨ツールを研磨部位に対して
その法線方向基づく適正な研磨方向から研磨ツールがワ
ーク表面に作用するように姿勢制御して所定の研磨処理
を行うものであって、この研磨ツールの研磨方向の設定
が実際のワーク各面に対するティーチング作業を行うこ
となくワークの表面形状の3次元データによる法線方向
の設定に基づく処理により容易に行え、正確かつ良好な
研磨精度を得ることができるものである。
In the polishing tool control apparatus as described above, three-dimensional data of the surface shape of the work is stored in advance in the model storage means of the three-dimensional image processing apparatus, and the surface of the work in this three-dimensional data is photographed once. Divide and set into multiple image frames of a size corresponding to the screen, teach the shooting order, and set and store the normal direction perpendicular to the surface of the three-dimensional data in each image frame portion. For the work to be polished on the actual line, the surface image of the work is sequentially photographed by the image pickup means in correspondence with the image frame of the model storage means, and the work image photographed by the image pickup means is taken. In the image, the coating state of the surface is analyzed by the analyzing means, the position data of the polishing portion to be polished is obtained by the polishing tool, and the position data of the polishing portion is determined by the analyzing means. The normal data of the polishing portion is input from the storage means to the posture control means, and the posture control means causes the polishing tool to move the polishing tool from the proper polishing direction based on the normal direction to the polishing portion. Position control is performed so as to act on the surface of the work, and a predetermined polishing process is performed. It is possible to easily perform the processing based on the setting of the normal direction based on the dimensional data, and to obtain accurate and good polishing accuracy.

【0012】また、撮像手段によってワークを撮影した
際に、撮影方向とワーク面形状との関係から撮影した画
像の平面上での該研磨部位の位置データと、モデル記憶
手段での3次元データの対応研磨部位の位置データとに
ずれが生じる場合があるが、その撮影角度とワーク形状
に応じてモデル記憶手段での座標軸と平行面の位置デー
タに変換補正を行うと、より正確な位置データを得るこ
とができ、研磨精度を向上することができるものであ
る。
Further, when the work is photographed by the image pickup means, the position data of the polished portion on the plane of the photographed image and the three-dimensional data in the model storage means are taken from the relationship between the image pickup direction and the work surface shape. There may be a deviation from the position data of the corresponding polishing area, but if the conversion data is corrected to the position data of the coordinate axis in the model storage means and the parallel surface according to the imaging angle and the work shape, more accurate position data will be obtained. Therefore, the polishing accuracy can be improved.

【0013】[0013]

【実施例】以下、図面に沿って本発明の実施例を説明す
る。図2は一実施例の研磨ツールの制御装置を備えた自
動車製造工場の水研加工ラインの概略平面構成を示して
いる。なお、ワークBとしての車体の前後左右方向を基
準に説明する。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 2 shows a schematic plan configuration of a water polishing processing line of an automobile manufacturing plant equipped with a polishing tool control device according to one embodiment. The front, rear, left, and right directions of the vehicle body as the work B will be described as a reference.

【0014】自動車の水研加工ラインLは中塗塗装ライ
ン(図示省略)の下流側に設けられ、上流側から撮像ス
テーションL1、研磨ステーションL2、補修ステーション
L3および水洗ステーションL4が設けられている。
The water-polishing processing line L for automobiles is provided on the downstream side of the intermediate coating line (not shown). From the upstream side, the imaging station L1, the polishing station L2, and the repair station.
L3 and flush station L4 are provided.

【0015】まず、撮像ステーションL1にはワークBの
表面を撮影するための前後一対の撮像ロボットR1,R2 が
設けられ、中塗りされたワークBはこの撮像ステーショ
ンL1に搬送され、例えば、前方の撮像ロボットR1でワー
クBの前半部を撮影し、後方の撮像ロボットR2でワーク
Bの後半部を撮影するようになっている。この撮像ロボ
ットR1,R2 の後述のカメラ43で撮影された画像は、3次
元画像処理装置1に入力されて、塗装の欠陥部位が検出
される。3次元画像処理装置1は、詳細構造は図示しな
いが、演算処理および記憶を行う本体部分と、画像表示
を行うCRTディスプレイと、入力操作用のキーホード
およびタブレット等から構成されている。
First, the imaging station L1 is provided with a pair of front and rear imaging robots R1 and R2 for photographing the surface of the work B, and the work B coated with the intermediate coating is conveyed to the imaging station L1 and, for example, the front side. The imaging robot R1 images the front half of the work B, and the imaging robot R2 behind the image captures the second half of the work B. An image captured by a camera 43 of the imaging robots R1 and R2, which will be described later, is input to the three-dimensional image processing apparatus 1 and a defective portion of coating is detected. Although the detailed structure is not shown, the three-dimensional image processing apparatus 1 is composed of a main body portion for performing arithmetic processing and storage, a CRT display for displaying an image, a keyboard for input operation, a tablet, and the like.

【0016】研磨ステーションL2には撮像ロボットR1,R
2 と同型の研磨ロボットR3が設けられ、この研磨ロボッ
トR3は撮像ステーションL1からの撮影画像の解析結果に
よる位置データに基づいて塗装欠陥部位すなわち研磨部
位を研磨する。また、前記補修ステーションL3は研磨部
位の数が多く所定のラインタクト内で研磨ロボットR3が
全ての塗装欠陥部分の研磨ができない場合に、作業者に
より残った研磨部位の研磨を行うために設けられてい
る。さらに、水洗ステーションL4には、複数の水洗シャ
ワー27と水洗ブラシ28,29 が設けられ、研磨後のワーク
Bの水洗いをするようになっている。
Imaging robots R1 and R are installed in the polishing station L2.
A polishing robot R3 of the same type as that of 2 is provided, and the polishing robot R3 polishes a coating defect portion, that is, a polishing portion, based on position data based on the analysis result of the captured image from the imaging station L1. Further, the repair station L3 is provided in order to polish the remaining polishing site by the operator when the polishing robot R3 cannot polish all the coating defect parts within a predetermined line tact due to the large number of polishing sites. ing. Further, the washing station L4 is provided with a plurality of washing showers 27 and washing brushes 28, 29 for washing the work B after polishing.

【0017】次に、撮像ロボットR1,R2 および研磨ロボ
ットR3の機械的構造の一例について説明する。各ロボッ
トは基本的に同型のロボットであり、それらの構造も同
様なので、前方の撮像ロボットR1について図3に説明す
る。なお、各ロボットの同様の部材には同一の符号を付
してある。
Next, an example of mechanical structures of the imaging robots R1 and R2 and the polishing robot R3 will be described. Since each robot is basically the same type of robot and has the same structure, the front imaging robot R1 will be described with reference to FIG. The same members of each robot are designated by the same reference numerals.

【0018】撮像ステーションL1の前後左右の4隅には
コラム10が立設され、左右の各2本のコラム10の上端に
はそれぞれ前後方向に延びるビーム11が固着され、左右
の各ビーム11の上端にはガイドレール12が前後方向に設
けられ、両側のビーム11に渡って左右方向に延びる可動
フレーム13が架設されるもので、該可動フレーム13の両
端のベアリング付係合部13a が上記ガイドレール12上に
係合されて前後方向に移動可能に設けられている。そし
て、右側のビーム11の上端には、サーボモータ(図示せ
ず)で回転駆動されるボールネジシャフト14が前後方向
に延びて設けられ、可動フレーム13の右端部にはボール
ネジシャフト14に螺合するナットが設けられ、サーボモ
ータで該シャフト14を回転駆動することにより可動フレ
ーム13はナットを介して前後方向に移動される。
Columns 10 are erected at four corners in the front, rear, left and right of the imaging station L1, and beams 11 extending in the front and rear direction are fixed to the upper ends of the two columns 10 on the left and right, respectively. A guide rail 12 is provided at the upper end in the front-rear direction, and a movable frame 13 extending in the left-right direction across the beams 11 on both sides is erected, and the engaging portions 13a with bearings at both ends of the movable frame 13 have the above-mentioned guides. The rail 12 is engaged with the rail 12 and is movable in the front-rear direction. A ball screw shaft 14 that is rotationally driven by a servo motor (not shown) is provided at the upper end of the right beam 11 so as to extend in the front-rear direction, and the right end portion of the movable frame 13 is screwed onto the ball screw shaft 14. A nut is provided, and the movable frame 13 is moved in the front-rear direction via the nut by rotationally driving the shaft 14 with a servomotor.

【0019】一方、前記可動フレーム13にはサーボモー
タ15で回転駆動される左右方向のボールネジシャフト16
と、その上下にガイドレール17とが設けられ、このガイ
ドレール17に摺動自在に係合した係合部(図示せず)と
ボールネジシャフト16に螺合したナットとを有する可動
台18が左右方向に移動自在に設けられ、サーボモータ15
でシャフト16を回転駆動することにより可動台18はナッ
トを介して左右方向に移動される。
On the other hand, the movable frame 13 has a left and right ball screw shaft 16 which is driven to rotate by a servomotor 15.
And a guide rail 17 provided above and below the movable rail 18 having an engaging portion (not shown) slidably engaged with the guide rail 17 and a nut screwed with the ball screw shaft 16 Servo motor 15
By rotating the shaft 16 by means of, the movable table 18 is moved in the left-right direction via the nut.

【0020】さらに、上記可動台18には、縦向きのサー
ボモータで回転駆動されるボールネジナット19と一対の
ロッドガイド18a が設けられ、ボールネジナット19に挿
通螺合したボールネジシャフト20とロッドガイド18a に
挿通したガイドロッド21の下端部にはハンド保持部材22
が固着され、ボールネジナット19を回転駆動することに
よりハンド保持部材22が昇降移動される。このハンド保
持部材22には、サーボモータにより鉛直軸回りに回転す
るための駆動連結部23と、サーボモータにより水平軸回
りに回転駆動するための駆動連結部24と、サーボモータ
によりハンド軸回りに回転駆動するための駆動連結部25
とを介してハンド26が装着されている。さらに、上記ハ
ンド26の先端には、撮像用CCDカメラ43と照明用の投
光器42とが支持部材41によって取り付けられている。
Further, the movable table 18 is provided with a ball screw nut 19 and a pair of rod guides 18a which are rotatably driven by a vertically oriented servo motor, and a ball screw shaft 20 and a rod guide 18a which are screwed through the ball screw nut 19 are provided. At the lower end of the guide rod 21 inserted in the
Is fixed, and the hand holding member 22 is moved up and down by rotating the ball screw nut 19. The hand holding member 22 includes a drive connecting portion 23 for rotating around a vertical axis by a servo motor, a drive connecting portion 24 for rotating around a horizontal axis by a servo motor, and a hand connecting portion around a hand axis by a servo motor. Drive connection 25 for rotational drive
The hand 26 is attached via and. Further, an image pickup CCD camera 43 and an illumination projector 42 are attached to the tip of the hand 26 by a support member 41.

【0021】なお、研磨ロボットR3の場合には、前記ハ
ンド26の先端に対して、図4に示すような研磨ツール50
が取り付けられている。該研磨ツール50は、先端の砥石
51と、該砥石51を横方向に振動駆動するアクチュエータ
52とを有している。
In the case of the polishing robot R3, the polishing tool 50 as shown in FIG.
Is attached. The polishing tool 50 is a grindstone at the tip.
51 and an actuator for laterally driving the whetstone 51 in an oscillating manner
52 and.

【0022】上記のように構成された撮像ロボットR1,R
2 と研磨ロボットR3は、x軸(前後方向)、y軸(左右
方向)、z軸(上下方向)、鉛直軸、水平軸およびハン
ド軸の6軸の自由度を備えている。
The imaging robots R1 and R configured as described above
2 and the polishing robot R3 have six degrees of freedom: x-axis (front-back direction), y-axis (horizontal direction), z-axis (vertical direction), vertical axis, horizontal axis, and hand axis.

【0023】次に、前記撮像ロボットR1,R2 と研磨ロボ
ットR3の制御装置について説明する。撮像ステーション
L1には撮像ロボットR1,R2 の位置制御を行うロボット制
御装置32が設けられるとともに、撮像ステーションL1の
CCDカメラ43による撮影像を処理する3次元画像処理
装置1が設置されている。また、研磨ステーションL2に
は研磨ロボットR3の位置制御を行うとともに研磨ツール
50の研磨条件を制御する研磨制御装置34が設けられ、こ
の研磨制御装置34には、前記3次元画像処理装置1から
の位置データが入力される。
Next, a control device for the imaging robots R1 and R2 and the polishing robot R3 will be described. Imaging station
A robot control device 32 for controlling the positions of the imaging robots R1, R2 is provided in L1, and a three-dimensional image processing device 1 for processing an image taken by the CCD camera 43 of the imaging station L1 is installed. In addition, the polishing station L2 controls the position of the polishing robot R3 and
A polishing control device 34 for controlling 50 polishing conditions is provided, and the position data from the three-dimensional image processing device 1 is input to the polishing control device 34.

【0024】ここで、上記水研加工ラインLに搬入され
たワークBの塗装面の欠陥部位を検出して研磨部位を求
めるについて、ワーク表面を順次CCDカメラ43で撮影
して画像を取り込むにあたり、ロボットCADシミュレ
ーションを用いて撮像ロボットR1,R2 のティーチングを
行うものであるが、このティーチングは画像枠と撮影方
向ベクトル(カメラ原点とワークB上の点の距離と方向
を示す)をCRTディスプレイ上に出力しつつ順次撮影
点を設定する。そして、このティーチングを行う前に、
画像処理装置1には予めワークBの表面形状の3次元デ
ータを記憶させておき、上記撮像ロボットR1,R2 のティ
ーチング時に、1回の撮影で得られる画像幅(取込枠)
の大きさより小さい範囲の有効な画像が得られる範囲す
なわち画像枠を設定し、前記3次元データによるワーク
モデル画像の全体をこの画像枠で順次並べるように区画
し、しかも、各画像枠に撮影方向ベクトルを設定してテ
ィーチングを行うものである。加えて、上記各画像枠の
複数の部分、例えば枠線上の複数の点でのモデル画像の
表面に垂直な法線方向を求めて記憶しておく。
Here, in order to detect a defective portion on the painted surface of the work B carried into the water-cutting processing line L to obtain a polished portion, when the surface of the work is sequentially photographed by the CCD camera 43 and an image is captured, The robot CAD simulation is used to teach the imaging robots R1 and R2. In this teaching, the image frame and the shooting direction vector (indicating the distance and direction between the camera origin and the point on the work B) are displayed on the CRT display. Shooting points are set sequentially while outputting. And before doing this teaching,
The image processing apparatus 1 stores three-dimensional data of the surface shape of the work B in advance, and an image width (capture frame) obtained by one shooting when teaching the imaging robots R1 and R2.
Is set to a range in which an effective image is obtained in a range smaller than the size, that is, an image frame is set, and the entire work model image based on the three-dimensional data is partitioned so as to be sequentially arranged in the image frame. Teaching is performed by setting a vector. In addition, a normal direction perpendicular to the surface of the model image at a plurality of portions of each image frame, for example, a plurality of points on the frame line, is obtained and stored.

【0025】続いて、自動水研ラインLに実際の中塗塗
装後のワークBが搬入されたのに応じ、前記ティーチン
グに基づいて撮像ステーションL1の撮像ロボットR1,R2
を作動制御して、前記モデル画像上に設定した画像枠と
同一の画像枠の撮影となるように、その画像枠の位置と
撮影方向ベクトルで設定されている距離と撮影方向で順
次ワークBの撮影を行い、その画像を取り込むものであ
る。そして、この入力画像から目視観察もしくは鮮映度
等によって塗装欠陥部分を検出し、この部分を研磨ステ
ーションL2の研磨ツール50によって研磨を行う研磨部位
に指定し、この研磨を行うためのデータを出力するもの
である。この研磨ステーションL2の研磨ロボットR3に対
する指令データとしては、研磨部位の3次元位置データ
とその部分の法線方向データであり、これに基づき研磨
ステーションL2に移動したワークBに対して所定の研磨
部位に移動するとともに、その表面に法線方向から研磨
ツール50の砥石51を押圧して研磨するものである。
Then, in response to the actual work B after the intermediate coating being applied to the automatic water research line L, the imaging robots R1 and R2 of the imaging station L1 are operated based on the teaching.
Is controlled so that the same image frame as the image frame set on the model image is photographed, the position of the image frame, the distance set by the photographing direction vector, and the photographing direction are sequentially set on the work B. The image is taken and the image is captured. Then, a coating defect portion is detected from this input image by visual observation or sharpness, and this portion is designated as a polishing portion to be polished by the polishing tool 50 of the polishing station L2, and data for performing this polishing is output. To do. The command data for the polishing robot R3 of the polishing station L2 is the three-dimensional position data of the polishing site and the normal direction data of that region, and based on this, the predetermined polishing site for the work B moved to the polishing station L2. While moving to, the grindstone 51 of the polishing tool 50 is pressed against the surface from the normal direction to polish.

【0026】ここで、上記シミュレーションにおける処
理を図5ないし図9に沿って説明する。図5はワーク形
状の3次元データを記憶する際に、該3次元データをサ
ーフェスモデルBMで作成する例を示すもので、ここで用
いるサーフェスモデルBMは3次元のパッチ状であり、ワ
ークBを各面状部分に分けて格子状の交点aを座標点に
設定して、この座標点のx,y,z値をそれぞれインプ
ットしてサーフェスデータを記憶するものであり、座標
点間の空間部分は3次元の面補間式により近似的な座標
を求めるものである。なお、実際の自動車車体等のワー
クBでは、サーフェスモデルBMは、その性質上複雑な形
状の全体を表現するのが困難であり、そのため表現すべ
き形状を分割して、グループ単位のサーフェスデータを
作成しモデル形状を表現して記憶する。
Here, the processing in the simulation will be described with reference to FIGS. FIG. 5 shows an example of creating the three-dimensional data by the surface model BM when storing the three-dimensional data of the work shape. The surface model BM used here is a three-dimensional patch shape and the work B is A grid-like intersection a is set as a coordinate point separately for each planar portion, and the x, y, and z values of this coordinate point are input respectively to store the surface data. Is for obtaining approximate coordinates by a three-dimensional surface interpolation formula. In a work B such as an actual car body, it is difficult for the surface model BM to represent the entire complex shape due to its nature. Therefore, the shape to be expressed is divided and surface data in groups is used. Create and express the model shape and memorize it.

【0027】上記のようにして作成したワークサーフェ
スモデルBMを、撮像ロボットR1,R2のティーチング箇所
に応じてx−y、y−z、z−x平面のいずれかでCR
Tディスプレイに写し出す。例えば、図6に示すよう
に、ワーク側面のティーチングならばz−x平面のサー
フェスモデルBMを表示する。なお、このサーフェスモデ
ルBMは、座標原点Oを基準にしてデータが設定されてい
る。さらに、ワークBのティーチング箇所、グループ単
位にサーフェスデータが設定されているものでは、対象
となるデータのグループを選択する。
The work surface model BM created as described above is CR in any of the xy, yz, and zx planes depending on the teaching points of the imaging robots R1 and R2.
Display on the T display. For example, as shown in FIG. 6, in the case of teaching the side surface of the work, the surface model BM of the zx plane is displayed. In this surface model BM, data is set based on the coordinate origin O. Further, in the case where the teaching data of the work B and the surface data are set for each group, the target data group is selected.

【0028】次に、CRTディスプレイに写し出された
ワークBのサーフェスモデルBMに対して、カメラ43の取
込み画像枠F(フレーム)をCRTディスプレイに写し
出す。この画像枠Fは、前述のように、CCDカメラ43
により1撮影画像として撮影する範囲に相当し、画像入
力範囲内に有効画像範囲として設定される。そして、こ
の画像枠Fに対応して前記ワークBのサーフェスモデル
BMを区画し、ティーチングポイントの自動生成を行う。
Next, the captured image frame F (frame) of the camera 43 is displayed on the CRT display for the surface model BM of the work B displayed on the CRT display. This image frame F is, as described above, the CCD camera 43.
Thus, the effective image range is set within the image input range, which corresponds to the range of one captured image. The surface model of the work B corresponding to the image frame F
The BM is divided and teaching points are automatically generated.

【0029】上記ティーチングポイントの自動生成は、
まず、その開始にあたり、画像枠Fを適切な位置、例え
ば座標原点Oに最も近い位置にもっていき、最初のティ
ーチングのみ設定する。ただし、この時点ではx、z成
分のみが設定され、y成分は後に自動設定される。ま
た、ティーチングポイントを自動生成するための走査方
向を決定し、図6の例では、xおよびzは+方向に走査
する。ティーチングポイントのy成分は、ワークBに対
して+方向か−方向か(図6の例では−方向)を設定す
る。さらに、サーフェスモデルBMの大きさに応じてティ
ーチングを行うx方向とz方向の範囲を、モデルBMの外
側を囲むようにそれぞれの座標値で設定する。続いてカ
メラ43の画像枠Fを、x方向とz方向に設定するもので
あるが、この画像枠Fは隣接する画像枠Fの枠線が重な
るように順次、自動的にもしくはマニュアル操作で設定
する。最終的には、上記操作範囲の全体に画像枠Fが設
定されたものについて、サーフェスモデルBMと重なって
いない部分の画像枠Fについてはティーチング不要であ
り、ティーチングを行う画像枠Fを選択するものである
が、この選択は上記画像枠Fを順次設定する際にマニュ
アル操作の場合には同時に行ってもよく、また、自動設
定された場合には、写し出された画像枠Fをピックした
り、画像枠Fに番号を付けて選択するなどの方法によっ
て行うものである。
The above automatic generation of teaching points
First, at the start, the image frame F is brought to an appropriate position, for example, the position closest to the coordinate origin O, and only the first teaching is set. However, at this point, only the x and z components are set, and the y component is automatically set later. Further, the scanning direction for automatically generating the teaching point is determined, and in the example of FIG. 6, x and z are scanned in the + direction. The y component of the teaching point is set to the + direction or − direction (− direction in the example of FIG. 6) with respect to the work B. Further, the ranges in the x direction and the z direction in which the teaching is performed according to the size of the surface model BM are set by respective coordinate values so as to surround the outside of the model BM. Next, the image frame F of the camera 43 is set in the x direction and the z direction. The image frames F are set sequentially, automatically or manually so that the frame lines of the adjacent image frames F overlap. To do. Finally, for the image frame F set in the entire operation range, it is not necessary to teach the image frame F that does not overlap the surface model BM, and the image frame F to be taught is selected. However, this selection may be performed at the same time when the image frames F are sequentially set in the case of manual operation, and when the image frames F are automatically set, the projected image frame F may be picked, This is performed by a method such as assigning a number to the image frame F to select it.

【0030】上記画像枠Fの設定により、その枠Fの中
心点T(図7参照)が位置するワークB上のx,z値
が、前記CCDカメラ43が位置するx,z点であり、こ
のワークB上の点からy軸と平行に所定距離(例えば30
cm)離れた点が実際にカメラ43が位置するx,y,z
点になり、この点がティーチングポイントとなり、上記
画像枠Fの中心点Tに(撮影方向と距離を示す撮影方向
ベクトルを)設定してなる。
By setting the image frame F, the x and z values on the work B where the center point T of the frame F (see FIG. 7) is located are the x and z points where the CCD camera 43 is located, A predetermined distance (eg 30
cm) points x, y, z where the camera 43 is actually located
It becomes a point, and this point becomes a teaching point, and the center point T of the image frame F is set (a shooting direction vector indicating a shooting direction and a distance).

【0031】続いて、ティーチングポイントおよび画像
を取り込むべきワークBの表面の法線ベクトルを自動設
定するものであるが、この設定は画像枠Fごとに以下の
ような処理を行って求める。
Subsequently, the teaching point and the normal vector of the surface of the work B from which the image is to be captured are automatically set. This setting is obtained by performing the following processing for each image frame F.

【0032】まず、図7に示すように、画像枠Fの枠に
沿って一定距離間隔、例えば1cm間隔の点bを通り、
y軸に平行な線分cでマイナス方向にワークBの3次元
サーフェスモデルBMと接する交点dを求める。なお、設
定された間隔で端部に端数が生じる場合には枠の4隅の
データは必ず求める。また、サーフェスモデルBMがグル
ープ単位に設定されていて、求める部分のサーフェスモ
デルBMが複数重なっている場合は、すべてのグループの
データに対して交点dを求め、後でその点の平均値を演
算する。一方、枠がサーフェスモデルBMから外れている
部分では、サーフェスモデルBMとの交点dは存在せず、
カウントはしない。
First, as shown in FIG. 7, the points b at a constant distance, for example, 1 cm, are passed along the frame of the image frame F,
An intersection point d that contacts the three-dimensional surface model BM of the work B in the negative direction is obtained by the line segment c parallel to the y axis. In addition, when a fraction occurs at the end at the set interval, the data at the four corners of the frame is always obtained. In addition, when the surface model BM is set in group units and the surface model BM of the part to be obtained overlaps, the intersection d is calculated for the data of all the groups, and the average value of that point is calculated later. To do. On the other hand, in the part where the frame is out of the surface model BM, the intersection point d with the surface model BM does not exist,
I don't count.

【0033】上記のように交点dが求まった線分cにつ
き、図8のように、サーフェスモデルBM上のy座標の平
均値を求めて、基準面Gを設定しておく。さらに、上記
線分cとサーフェスモデルBMとの交点dにおける法線ベ
クトルVを求める。
For the line segment c for which the intersection point d is obtained as described above, the average value of y coordinates on the surface model BM is obtained and the reference plane G is set as shown in FIG. Further, the normal vector V at the intersection point d between the line segment c and the surface model BM is obtained.

【0034】上記法線ベクトルVは単位ベクトルとし、
この法線ベクトルVの求め方としては種々の方法が考え
られるが、例えば、図9に示すように、前記パッチ状の
サーフェスモデルBMを利用して求める。すなわち、前記
図5のパッチ状のサーフェスモデルBMに対応し、交点d
が位置する部分の近傍における4隅のパッチaを一つの
平面pとし、その平面pに垂直な方向を求めて法線ベク
トルVに設定するものである。なお、前記サーフェスモ
デルBM上の交点dは、面補間によって求めるものであ
る。上記法線ベクトルVのデータは、決められたファイ
ル書式に従い保存される。
The normal vector V is a unit vector,
Although various methods can be considered for obtaining the normal vector V, for example, as shown in FIG. 9, it is obtained by using the patch-like surface model BM. That is, the intersection point d corresponds to the patch-shaped surface model BM of FIG.
The patches a at the four corners in the vicinity of the portion where is located are defined as one plane p, and the direction perpendicular to the plane p is determined and set as the normal vector V. The intersection point d on the surface model BM is obtained by surface interpolation. The data of the normal vector V is stored according to a predetermined file format.

【0035】上記法線ベクトルVを求める箇所は、画像
枠Fの枠の上の部分でなくてもよく、例えば、画像枠F
の中の画像中心T、n分割中心等の決められた箇所で求
めるようにしてもよい。
The portion for obtaining the normal vector V does not have to be a portion above the frame of the image frame F. For example, the image frame F
It may be obtained at a predetermined position such as the image center T or the n-divided center.

【0036】上記のようにして設定された画像枠Fに対
して、ティーチングの順序を設定するものであって、そ
の設定は、例えば、CRTディスプレイ上に写し出され
た画像をピックすることなどによって行われる。また、
ティーチングプログラムは、モジュールごとに作成する
のが一般的であり、例えば、図6の例ではフロントフェ
ンダー部分(8画像枠)を第1のモジュールに設定して
順に撮影するようにティーチングし、同様に中間のドア
部分(8画像枠)を第2のモジュールに設定して順に撮
影するようにティーチングし、リヤフェンダー部分(6
画像枠)を第3のモジュールに設定して順に撮影するよ
うにティーチングしてもよい。
The order of teaching is set for the image frame F set as described above. The setting is performed by, for example, picking an image displayed on the CRT display. Be seen. Also,
The teaching program is generally created for each module. For example, in the example of FIG. 6, teaching is performed so that the front fender portion (8 image frames) is set to the first module and shooting is performed in order. The middle door part (8 image frames) is set to the second module, and teaching is performed so that images are taken in order, and the rear fender part (6
Teaching may be performed such that the image frame) is set in the third module and the images are sequentially shot.

【0037】図10は、カメラ43によって撮影された画
像の位置データの精度を高めるための補正を示すもので
あって、この補正を行う前提として、前記画像枠Fとワ
ークサーフェスモデルBM上のオフセットを求める。この
オフセット値tは、前記線分cとの交点dにおける平均
y座標値(基準面G)から、サーフェスデータのy−z
断面上の交点dまでの距離を求めて記録するものであ
る。そして、研磨を行う研磨部位の位置データを計測す
るワーク面BMが基準面Gよりカメラ43に対してオフセッ
トしている場合には、撮影画面上の位置は正確な位置か
らずれることになり、この補正を行う。
FIG. 10 shows a correction for improving the accuracy of the position data of the image taken by the camera 43. As a premise of this correction, the offset on the image frame F and the work surface model BM is shown. Ask for. This offset value t is calculated from the average y-coordinate value (reference plane G) at the intersection point d with the line segment c, and the yz value of the surface data
The distance to the intersection point d on the cross section is obtained and recorded. Then, when the work surface BM for measuring the position data of the polishing portion to be polished is offset from the reference plane G with respect to the camera 43, the position on the photographing screen is displaced from the accurate position. Make a correction.

【0038】すなわち、カメラ43が画像を撮影する時
は、スケールファクタがSF0 となる基準面Gでの平面
的に行うことから、ワーク面が曲面形状をしていて基準
面Gからずれた位置にtだけオフセットしているとき
の、カメラ43で撮影した位置データ(y0 ,z0 )と実
際の位置(y,z)とが一致せず、これを一致修正する
ためのスケールファクタSF(mm/画素)の相似変換補
正式は、Lをカメラ43と基準面Gとの距離とすると、次
のようになる。 SF=SF0 ・L/(L+t) この変換により、研磨部位の正確な位置が求まり、この
位置データを研磨ステーションL2の制御装置に送って研
磨ツール50を移動させることにより、正確に研磨が行え
るものである。なお、上記変換補正は、前記法線ベクト
ルVを各区画を細分化した領域ごとに求めたのに応じ
て、この領域ごとにスケール変換を行っておく。x方向
についても同様な補正が行われる。
That is, when the camera 43 captures an image, since it is performed in a plane on the reference plane G with a scale factor of SF 0 , the work surface has a curved shape and is displaced from the reference plane G. The position data (y 0 , z 0 ) photographed by the camera 43 does not match the actual position (y, z) when the position is offset by t, and the scale factor SF ( The mm / pixel) similarity conversion correction formula is as follows, where L is the distance between the camera 43 and the reference plane G. SF = SF 0 · L / (L + t) By this conversion, the accurate position of the polishing portion is obtained, and by sending this position data to the control device of the polishing station L2 and moving the polishing tool 50, accurate polishing can be performed. It is a thing. In the conversion correction, scale conversion is performed for each area in accordance with the normal vector V obtained for each area obtained by subdividing each section. Similar correction is performed in the x direction.

【0039】そして、上記のようにして求めた法線ベク
トルVとスケール変換は、前述のように研磨ツール50の
姿勢制御に使用される。すなわち、ティーチングされた
画像枠Fに沿ってカメラ43で撮影したワークBの画像を
取り込み、その画像の解析により塗装欠陥部分を検出
し、研磨部位をその画像内での位置(x0 ,y0
0 )を求め、各領域での法線ベクトルVおよびスケー
ル変換により補正した位置データ(x,y,z)に基づ
き研磨ツール50を姿勢制御して、該研磨位置に研磨ツー
ル50を所定の研磨方向で押し付けて研磨を実行するもの
である。
Then, the normal vector V and scale conversion obtained as described above are used for controlling the attitude of the polishing tool 50 as described above. That is, an image of the work B taken by the camera 43 is taken in along the taught image frame F, the coating defect portion is detected by analyzing the image, and the polishing portion is located at the position (x 0 , y 0) in the image.
z 0 ), the posture of the polishing tool 50 is controlled based on the normal vector V in each region and the position data (x, y, z) corrected by scale conversion, and the polishing tool 50 is set at the predetermined polishing position. The polishing is performed by pressing in the polishing direction.

【0040】なお、上記実施例においては、撮像ロボッ
トR1,R2 および研磨ロボットR3はステーションに設置さ
れたコラム10に設置して移動する方式の構造を有してい
るが、本体部分から間接を有するアームが延設されたロ
ボットの先端にカメラ43または研磨ツール50を設置する
ように構成してもよく、さらに、他の形式のロボットが
適宜採用可能である。
In the above embodiment, the imaging robots R1 and R2 and the polishing robot R3 have a structure in which they are moved by being installed in the column 10 installed in the station, but they are indirect from the main body. The camera 43 or the polishing tool 50 may be installed at the tip of a robot having an extended arm, and other types of robots can be appropriately adopted.

【0041】また、塗装欠陥の検出については、カメラ
43によって撮影した画像から検出するほかに、検査員に
よってワークB表面の目視検査を行って、塗装欠陥部分
に所定の欠陥マークをつけ、この欠陥マークをカメラ43
で撮影した画像で検出し、その位置データを研磨ステー
ションL2側に送るように構成してもよい。
Further, the camera is used to detect the coating defects.
In addition to the detection by the image captured by 43, the inspector visually inspects the surface of the work B to put a predetermined defect mark on the coating defect portion, and the defect mark is detected by the camera 43.
Alternatively, the position data may be detected by the image captured in step S3 and sent to the polishing station L2 side.

【0042】さらに、ワーク表面像を撮影するカメラ43
の撮影位置すなわち撮影方向は、前記実施例のように座
標軸と平行な方向から撮影するほか、画像枠F内のワー
ク表面に可及的に直角な方向から撮影するようにティー
チングポイントを設定するようにしてもよい。
Further, a camera 43 for photographing the surface image of the work
The shooting position, that is, the shooting direction, is set from the direction parallel to the coordinate axes as in the above-described embodiment, and the teaching point is set so that the shooting is performed from the direction perpendicular to the work surface in the image frame F as much as possible. You can

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の研磨ツールの制御装置の基本構成を示
すブロック図
FIG. 1 is a block diagram showing a basic configuration of a polishing tool control device of the present invention.

【図2】本発明の一実施例における研磨ツールの制御装
置を備えた水研加工ラインの概略平面図
FIG. 2 is a schematic plan view of a water polishing processing line equipped with a polishing tool control device according to an embodiment of the present invention.

【図3】図2の撮像ステーションにおける断面正面図3 is a sectional front view of the imaging station of FIG.

【図4】研磨ツールの斜視図FIG. 4 is a perspective view of a polishing tool.

【図5】ワーク形状の3次元サーフェスモデルの設定例
を示す説明図
FIG. 5 is an explanatory diagram showing a setting example of a three-dimensional surface model of a work shape.

【図6】サーフェスモデルの表示と画像枠のティーチン
グ設定例を示す説明図
FIG. 6 is an explanatory diagram showing a display example of a surface model and an image frame teaching setting example.

【図7および図8】法線ベクトルの設定例を示す説明図7 and 8 are explanatory diagrams showing an example of setting a normal vector.

【図9】法線ベクトルの演算例を示す説明図FIG. 9 is an explanatory diagram showing an example of calculating a normal vector.

【図10】位置データの補正を示す説明図FIG. 10 is an explanatory diagram showing correction of position data.

【符号の説明】[Explanation of symbols]

1 画像処理装置 B ワーク 2 モデル記憶手段 3 撮像手段 4 解析手段 5 姿勢制御手段 R1,R2 撮像ロボット R3 研磨ロボット 43 カメラ 50 研磨ツール 1 Image Processing Device B Work 2 Model Storage Means 3 Imaging Means 4 Analyzing Means 5 Attitude Control Means R1, R2 Imaging Robot R3 Polishing Robot 43 Camera 50 Polishing Tool

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 ワークの撮影画像を3次元画像処理装置
で解析し、その位置データに基づいて研磨ツールによっ
てワークの所定部位の研磨を行う研磨ツールの制御装置
であって、予めワークの表面形状の3次元データを記憶
するとともに、そのワークの表面を1撮影画面に対応し
た大きさの複数の画像枠に分割設定し、各画像枠の部分
でワーク面の法線方向を設定して記憶するモデル記憶手
段と、搬入されたワークに対し、上記モデル記憶手段に
設定されている各画像枠に一致する画像枠でワークの表
面像を撮影する撮像手段と、上記撮像手段で撮影したワ
ークの画像を解析し研磨を行う研磨部位の位置データを
求める解析手段と、上記解析手段による研磨部位の位置
データおよび前記モデル記憶手段に記憶されている研磨
部位の法線データに基づいて研磨ツールのワーク面に対
する姿勢を制御する姿勢制御手段とを備えたことを特徴
とする研磨ツールの制御装置。
1. A polishing tool control device that analyzes a photographed image of a work by a three-dimensional image processing device, and polishes a predetermined portion of the work by the polishing tool based on the position data, and a surface shape of the work in advance. 3D data is stored, and the surface of the work is divided and set into a plurality of image frames of a size corresponding to one shooting screen, and the normal direction of the work surface is set and stored in each image frame portion. Model storage means, image pickup means for picking up a surface image of the work in an image frame corresponding to each image frame set in the model storage means, and image of the work taken by the image pickup means. Analyzing means for obtaining position data of a polishing portion for polishing and polishing, position data of the polishing portion by the analyzing means and normal line data of the polishing portion stored in the model storing means. A polishing tool control device, comprising: a posture control means for controlling a posture of the polishing tool with respect to a work surface.
【請求項2】 前記解析手段は、研磨部位における撮像
手段による撮影角度に応じてモデル記憶手段での座標軸
と平行面の位置データに変換補正を行うことを特徴とす
る請求項1記載の研磨ツールの制御装置。
2. The polishing tool according to claim 1, wherein the analysis unit performs conversion correction on the position data of the plane parallel to the coordinate axis in the model storage unit according to the imaging angle of the polishing site by the imaging unit. Control device.
JP24937991A 1991-09-27 1991-09-27 Polishing tool control device Expired - Fee Related JP3340143B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP24937991A JP3340143B2 (en) 1991-09-27 1991-09-27 Polishing tool control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP24937991A JP3340143B2 (en) 1991-09-27 1991-09-27 Polishing tool control device

Publications (2)

Publication Number Publication Date
JPH0592345A true JPH0592345A (en) 1993-04-16
JP3340143B2 JP3340143B2 (en) 2002-11-05

Family

ID=17192142

Family Applications (1)

Application Number Title Priority Date Filing Date
JP24937991A Expired - Fee Related JP3340143B2 (en) 1991-09-27 1991-09-27 Polishing tool control device

Country Status (1)

Country Link
JP (1) JP3340143B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06312343A (en) * 1993-04-28 1994-11-08 Toshiba Corp Control method for grinder working robot
JPH0816225A (en) * 1994-04-27 1996-01-19 Hitachi Ltd Method and device for controlling robot mechanism
JPH11267992A (en) * 1998-03-23 1999-10-05 Nissan Motor Co Ltd Teaching method of painting robot
JP2005031085A (en) * 2003-07-09 2005-02-03 General Electric Co <Ge> System and method for analyzing and identifying flaws in manufactured component
WO2019198313A1 (en) * 2018-04-13 2019-10-17 株式会社大気社 Automatic polishing system
WO2021149295A1 (en) * 2020-01-24 2021-07-29 株式会社大気社 Automatic teaching system
US11717937B2 (en) * 2017-06-21 2023-08-08 Taikisha Ltd. Automatic polishing system

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06312343A (en) * 1993-04-28 1994-11-08 Toshiba Corp Control method for grinder working robot
JPH0816225A (en) * 1994-04-27 1996-01-19 Hitachi Ltd Method and device for controlling robot mechanism
JPH11267992A (en) * 1998-03-23 1999-10-05 Nissan Motor Co Ltd Teaching method of painting robot
JP2005031085A (en) * 2003-07-09 2005-02-03 General Electric Co <Ge> System and method for analyzing and identifying flaws in manufactured component
US11717937B2 (en) * 2017-06-21 2023-08-08 Taikisha Ltd. Automatic polishing system
CN110612178A (en) * 2018-04-13 2019-12-24 株式会社大气社 Automatic grinding system
JP2019181636A (en) * 2018-04-13 2019-10-24 株式会社大気社 Automatic polishing system
EP3593944A4 (en) * 2018-04-13 2020-05-06 Taikisha Ltd. Automatic polishing system
CN110612178B (en) * 2018-04-13 2021-09-03 株式会社大气社 Automatic grinding system
US11660723B2 (en) * 2018-04-13 2023-05-30 Taikisha Ltd. Automatic polishing system
WO2019198313A1 (en) * 2018-04-13 2019-10-17 株式会社大気社 Automatic polishing system
WO2021149295A1 (en) * 2020-01-24 2021-07-29 株式会社大気社 Automatic teaching system
JP2021115656A (en) * 2020-01-24 2021-08-10 株式会社大気社 Automatic teaching system

Also Published As

Publication number Publication date
JP3340143B2 (en) 2002-11-05

Similar Documents

Publication Publication Date Title
US7321841B2 (en) Three-dimensional shape measuring method and measuring apparatus thereof
JP5664629B2 (en) Robot system and method of manufacturing processed product
CN112122840A (en) Visual positioning welding system and welding method based on robot welding
JP4171488B2 (en) Offline programming device
EP1043126A2 (en) Teaching model generating device
US20060025890A1 (en) Processing program generating device
US20090234502A1 (en) Apparatus for determining pickup pose of robot arm with camera
JP6740288B2 (en) Object inspection apparatus, object inspection system, and method for adjusting inspection position
JP2007021634A (en) Automatic machining method for workpiece and automatic machining system for workpiece
US20190255706A1 (en) Simulation device that simulates operation of robot
JP6998183B2 (en) Robot system and robot control method
JP3340143B2 (en) Polishing tool control device
JPH0790494B2 (en) Calibration method of visual sensor
JP2001353651A (en) Propeller manufacturing device, and propeller manufacturing method
JP3248695B2 (en) Work processing method and processing device
JP3605832B2 (en) Polishing tool control device
JP6937444B1 (en) Robot system positioning accuracy measurement method
CN116124802A (en) Automatic X-ray flaw detection method and device with autonomous decision function
CN115326844A (en) Automatic ray detection system and method for welding seam
JPH0299802A (en) Setting method of coordinate system in visual sensor using hand eye
CN114926531A (en) Binocular vision based method and system for autonomously positioning welding line of workpiece under large visual field
JPH05134737A (en) Teaching device of robot
JP2022530589A (en) Robot-mounted mobile devices, systems and machine tools
WO2022163580A1 (en) Processing method and processing device for generating cross-sectional image from three-dimensional position information acquired by visual sensor
JP2009214289A (en) Copy grinding method and apparatus for the same

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees