JP3340143B2 - Polishing tool control device - Google Patents

Polishing tool control device

Info

Publication number
JP3340143B2
JP3340143B2 JP24937991A JP24937991A JP3340143B2 JP 3340143 B2 JP3340143 B2 JP 3340143B2 JP 24937991 A JP24937991 A JP 24937991A JP 24937991 A JP24937991 A JP 24937991A JP 3340143 B2 JP3340143 B2 JP 3340143B2
Authority
JP
Japan
Prior art keywords
image
polishing
work
polishing tool
position data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP24937991A
Other languages
Japanese (ja)
Other versions
JPH0592345A (en
Inventor
良美 新原
均 佐々木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mazda Motor Corp
Original Assignee
Mazda Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mazda Motor Corp filed Critical Mazda Motor Corp
Priority to JP24937991A priority Critical patent/JP3340143B2/en
Publication of JPH0592345A publication Critical patent/JPH0592345A/en
Application granted granted Critical
Publication of JP3340143B2 publication Critical patent/JP3340143B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Grinding And Polishing Of Tertiary Curved Surfaces And Surfaces With Complex Shapes (AREA)
  • Numerical Control (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、研磨ツールの制御装置
に関し、特に自動車ボディ等のワークの塗装面の欠陥部
分等を研磨除去するについての研磨ツールの制御装置に
関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a control apparatus for a polishing tool, and more particularly to a control apparatus for a polishing tool for polishing and removing a defective portion on a painted surface of a work such as an automobile body.

【0002】[0002]

【従来の技術】従来より、下塗りや中塗りされた自動車
ボディ等のワークの塗装面を、上塗塗装前にその全面を
研磨して塗装面のレベリングおよび上塗塗料の密着性を
向上するについて、この研磨を研磨ツールをハンドまた
はアーム先端に備えたロボットによって行う場合に、研
磨ツールをワークの湾曲面に沿って移動させるために、
実際のワークを搬入して上記研磨ツールをワーク塗装面
に沿ってティーチングし、このティーチングに基づいて
作動させるようにした技術が、例えば、特開昭60−2084
9号公報に見られるように公知である。
2. Description of the Related Art Conventionally, a coated surface of a work, such as an undercoated or intermediate-coated automobile body, is polished over its entire surface before overcoating to improve the leveling of the coated surface and the adhesion of the overcoating paint. When the polishing is performed by a robot equipped with a hand or an arm tip of the polishing tool, in order to move the polishing tool along the curved surface of the workpiece,
A technique in which an actual work is carried in, the above-mentioned polishing tool is taught along a work-painted surface, and the polishing tool is operated based on the teaching is disclosed in, for example, Japanese Patent Application Laid-Open No. 60-2084.
It is publicly known as seen in Japanese Patent Publication No.

【0003】また、上記ワークの塗装面を検査し、塗装
不良部分を研磨ツールによって研磨除去するために、こ
の塗装面を検査する技術として塗装面に光を照射してそ
の反射光をスクリーン上に投影させ、その投影像の鮮映
度から表面の欠陥を自動的に検出する技術が提案されて
いる。
Further, in order to inspect the painted surface of the above-mentioned work and to polish and remove the defective painting portion with a polishing tool, a technique for inspecting the painted surface is to irradiate the painted surface with light and reflect the reflected light on a screen. There has been proposed a technique of projecting and automatically detecting a surface defect from the sharpness of the projected image.

【0004】一方、特開昭58−64517号公報には、前記
ワークの塗装面に発生した塗装不良を研磨して修正する
ため、作業者が搬送されてきたワークを目視検査し、発
見した不良部位と不良状態とを指示装置によってそれぞ
れ入力することにより、下流側でロボット等からなる水
研装置で自動的に研磨する技術が提案されている。
On the other hand, Japanese Patent Application Laid-Open No. 58-64517 discloses that in order to polish and correct a coating defect generated on a painted surface of the work, an operator visually inspects the conveyed work and finds out any defects found. A technique has been proposed in which a part and a defective state are input by an indicating device, respectively, and the polishing is automatically performed by a water research apparatus including a robot or the like on the downstream side.

【0005】[0005]

【発明が解決しようとする課題】しかして、上記のよう
な研磨ツールによりワークの塗装欠陥部位の研磨を行う
について、研磨ツールの作動パターンをティーチングで
記憶させたり、または、位置データによる指令で塗装欠
部位を研磨する制御では、正確で質の良い研磨が行え
なかったり、ティーチング処理が煩雑となる問題を有し
ている。
[SUMMARY OF THE INVENTION] Thus, in performing the polishing paint defect site of the work by the above-described polishing tools, or to store the operation pattern of the grinding tool in teaching or painted with the command by the position data Lack of
The control for polishing the recessed portion has a problem that accurate and high-quality polishing cannot be performed, and the teaching process becomes complicated.

【0006】すなわち、研磨ツールによってワークを研
磨する際には、該研磨ツールはワーク表面に対して垂直
方向から作業を行わないと良好な研磨面が得られないも
のであり、ティーチングによってその作動方向を記憶さ
せる作業は煩雑であるとともに、部分的に研磨を行う場
合には、該当部分の作業方向を多数のティーチングから
呼び出してそれに基づいて行う必要がある。
That is, when a work is polished by a polishing tool, a good polished surface cannot be obtained unless the polishing tool is operated from a direction perpendicular to the surface of the work. Is complicated, and in the case of performing partial polishing, it is necessary to call the operation direction of the corresponding portion from a large number of teachings and perform the operation based on the operation direction.

【0007】また、位置データに基づいて行う場合に、
撮像手段によって撮像した平面画像での位置と3次元形
状のワーク表面の位置とは一致せず各種のずれを有し、
しかもそのワーク表面に対して垂直な法線方向から研磨
ツールを作動させることを設定することは困難な処理を
伴うものである。
Further, when performing based on position data,
The position in the two-dimensional image picked up by the image pickup means does not match the position of the three-dimensional work surface, and has various shifts.
Moreover, setting operation of the polishing tool from a normal direction perpendicular to the surface of the work involves a difficult process.

【0008】そこで、本発明は上記事情に鑑み、撮影画
面上で簡易に研磨ツールの作動方向を含めた制御が行え
るようにした研磨ツールの制御装置を提供することを目
的とするものである。
In view of the above circumstances, an object of the present invention is to provide a control apparatus for a polishing tool that can easily perform control including the operation direction of the polishing tool on a photographing screen.

【0009】[0009]

【課題を解決するための手段】上記目的を達成するため
本発明の研磨ツールの制御装置は、図1に基本構成を示
すように、自動車ボディなどのワークBに塗装などを施
した後に、このワークBの撮影画像を3次元画像処理装
置1で解析し、その位置データに基づいて研磨ツール50
によってワークBの塗装欠陥部位の研磨を行うものであ
って、予めワークBの表面形状の3次元データを記憶す
るとともに、そのワークBの表面を有効画像範囲として
設定された1撮影画面に対応した大きさの複数の画像枠
に分割設定し、各画像枠の部分でワーク面の法線方向を
設定して記憶するモデル記憶手段2と、搬入され実際に
研磨を行うワークBに対し、上記モデル記憶手段2に設
定されている各画像枠に一致した画像枠でワークBの表
面像を撮影する撮像手段3と、上記撮像手段3で撮影し
たワークBの画像を解析し研磨を行う研磨部位の位置デ
ータを求める解析手段4と、上記解析手段4による研磨
部位の位置データおよび前記モデル記憶手段2に記憶さ
れている研磨部位の法線データに基づいて研磨ツール50
のワーク面に対する研磨位置および姿勢を制御する姿勢
制御手段5とを備えて構成したものである。
In order to achieve the above object, a polishing tool control device according to the present invention, as shown in FIG. The photographed image of the work B is analyzed by the three-dimensional image processing apparatus 1, and the polishing tool 50 is analyzed based on the position data.
Is used to polish a paint defect portion of the work B. The three-dimensional data of the surface shape of the work B is stored in advance, and the surface of the work B is used as an effective image range.
A model storage unit 2 for dividing and setting a plurality of image frames of a size corresponding to one set photographing screen, setting and storing a normal direction of a work surface in each image frame portion, and carrying and actually polishing Image capturing means 3 for capturing a surface image of the work B in an image frame corresponding to each image frame set in the model storage means 2 for the work B to be performed, and an image of the workpiece B captured by the image capturing means 3 Analyzing means 4 for obtaining position data of a polished portion to analyze and polish, and a polishing tool based on position data of the polished portion by the analyzing means 4 and normal data of the polished portion stored in the model storage means 2. 50
And a posture control means 5 for controlling the polishing position and posture with respect to the work surface.

【0010】また、前記解析手段4は、研磨部位におけ
る撮像手段3の撮影において、上記 画像枠における3次
元データのワークB表面と撮影手段3が位置する平面と
の距離の平均値に位置する平面を基準面とし、この基準
面に対して上記ワークBの表面がオフセットしているオ
フセット値に基づいて位置データに変換補正を行うのが
好適である。
[0010] In the photographing of the image pickup means 3 at the polished portion, the analysis means 4 performs the third order in the image frame.
The surface of the work B of the original data and the plane where the photographing means 3 is located
The plane located at the average value of the distances
The surface of the work B is offset from the surface
It is preferable to perform conversion correction on the position data based on the offset value .

【0011】[0011]

【作用および効果】上記のような研磨ツールの制御装置
では、3次元画像処理装置のモデル記憶手段に予めワー
クの表面形状の3次元データを記憶し、この3次元デー
タにおけるワークの表面を有効画像範囲として設定され
1撮影画面に対応した大きさの複数の画像枠に分割設
定し、撮影順のティーチング等を行い、さらに、各画像
枠の部分で上記3次元データの表面に垂直な法線方向を
設定して記憶しておくものであり、実ラインで研磨処理
を施すワークに対しては、撮像手段によって前記モデル
記憶手段の画像枠に対応してワークの表面像を順次撮影
し、この撮像手段で撮影したワークの画像は解析手段に
よって表面の塗装状態などが解析され、研磨ツールによ
って研磨を行うべき研磨部位の位置データが求められ、
この研磨部位の位置データが解析手段から姿勢制御手段
に入力され、さらに、前記記憶手段から該研磨部位の法
線データが姿勢制御手段に呼び出され、姿勢制御手段は
研磨ツールを研磨部位に対してその法線方向基づく適正
な研磨方向から研磨ツールがワーク表面に作用するよう
研磨位置および姿勢制御して、ワークの塗装欠陥部
の研磨処理を行うものであって、この研磨ツールの研
磨方向の設定が実際のワーク各面に対するティーチング
作業を行うことなくワークの表面形状の3次元データに
よる法線方向の設定に基づく処理により容易に行え、正
確かつ良好な研磨精度を得ることができるものである。
In the polishing tool control device as described above, three-dimensional data of the surface shape of the work is stored in advance in the model storage means of the three-dimensional image processing device, and the surface of the work in the three-dimensional data is used as an effective image. Set as a range
Was 1 divided set into a plurality of image frames of a size corresponding to the shooting screen, performs shooting order of teaching or the like, sets the perpendicular direction normal to the surface of the three-dimensional data in a portion of each image frame For a workpiece to be polished on a real line, a surface image of the workpiece is sequentially photographed by an imaging unit corresponding to the image frame of the model storage unit. The image of the work is analyzed by the analysis means, such as the surface painting state, and the position data of the polished part to be polished by the polishing tool is obtained.
The position data of the polished part is input from the analyzing means to the attitude control means, and the normal data of the polished part is called from the storage means to the attitude control means, and the attitude control means moves the polishing tool to the polished part. The polishing position and posture are controlled so that the polishing tool acts on the work surface from the appropriate polishing direction based on the normal direction, and the paint defect on the work is controlled.
A performs the position of the polishing process, the process based on the normal direction of the setting by the 3-dimensional data of the surface shape of the workpiece without performing the teaching operation for the polishing direction of setting the actual work surfaces of the grinding tool It is easy to perform and can obtain accurate and good polishing accuracy.

【0012】また、撮像手段によってワークを撮影した
際に、撮影方向とワーク面形状との関係から撮影した画
像の平面上での該研磨部位の位置データと、モデル記憶
手段での3次元データの対応研磨部位の位置データとに
ずれが生じる場合があるが、3次元データのワーク表面
と撮影手段が位置する平面との距離の平均値に位置する
平面を基準面とし、この基準面に対して上記ワークの表
面がオフセットしてい るオフセット値に基づいて位置デ
ータに変換補正を行うと、より正確な位置データを得る
ことができ、研磨精度を向上することができるものであ
る。
When the workpiece is photographed by the imaging means, the position data of the polished portion on the plane of the photographed image based on the relationship between the photographing direction and the workpiece surface shape, and the three-dimensional data of the model storage means are stored. There may be a deviation from the position data of the corresponding polishing part, but the work surface of 3D data
Is located at the average value of the distance between the
The plane is used as the reference plane, and the table
When the surface is to convert corrected position data based on the offset value you are offset, in which more accurate position data can be obtained, it is possible to improve the polishing precision.

【0013】[0013]

【実施例】以下、図面に沿って本発明の実施例を説明す
る。図2は一実施例の研磨ツールの制御装置を備えた自
動車製造工場の水研加工ラインの概略平面構成を示して
いる。なお、ワークBとしての車体の前後左右方向を基
準に説明する。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 2 shows a schematic plan configuration of a hydroprocessing line of an automobile manufacturing plant equipped with a polishing tool control device according to one embodiment. The description will be made with reference to the front, rear, left and right directions of the vehicle body as the work B.

【0014】自動車の水研加工ラインLは中塗塗装ライ
ン(図示省略)の下流側に設けられ、上流側から撮像ス
テーションL1、研磨ステーションL2、補修ステーション
L3および水洗ステーションL4が設けられている。
An automotive water processing line L is provided downstream of an intermediate coating line (not shown), and an imaging station L1, a polishing station L2, and a repair station are provided from the upstream side.
L3 and a washing station L4 are provided.

【0015】まず、撮像ステーションL1にはワークBの
表面を撮影するための前後一対の撮像ロボットR1,R2 が
設けられ、中塗りされたワークBはこの撮像ステーショ
ンL1に搬送され、例えば、前方の撮像ロボットR1でワー
クBの前半部を撮影し、後方の撮像ロボットR2でワーク
Bの後半部を撮影するようになっている。この撮像ロボ
ットR1,R2 の後述のカメラ43で撮影された画像は、3次
元画像処理装置1に入力されて、塗装の欠陥部位が検出
される。3次元画像処理装置1は、詳細構造は図示しな
いが、演算処理および記憶を行う本体部分と、画像表示
を行うCRTディスプレイと、入力操作用のキーホード
およびタブレット等から構成されている。
First, the imaging station L1 is provided with a pair of front and rear imaging robots R1 and R2 for photographing the surface of the work B, and the medium-painted work B is conveyed to the imaging station L1 and, for example, is moved forward. The first half of the work B is photographed by the imaging robot R1, and the second half of the work B is photographed by the imaging robot R2 behind. An image captured by a camera 43 of the imaging robots R1 and R2, which will be described later, is input to the three-dimensional image processing apparatus 1 and a defective portion of the paint is detected. Although not shown in detail, the three-dimensional image processing apparatus 1 includes a main body for performing arithmetic processing and storage, a CRT display for displaying an image, a keypad and a tablet for input operation, and the like.

【0016】研磨ステーションL2には撮像ロボットR1,R
2 と同型の研磨ロボットR3が設けられ、この研磨ロボッ
トR3は撮像ステーションL1からの撮影画像の解析結果に
よる位置データに基づいて塗装欠陥部位すなわち研磨部
位を研磨する。また、前記補修ステーションL3は研磨部
位の数が多く所定のラインタクト内で研磨ロボットR3が
全ての塗装欠陥部分の研磨ができない場合に、作業者に
より残った研磨部位の研磨を行うために設けられてい
る。さらに、水洗ステーションL4には、複数の水洗シャ
ワー27と水洗ブラシ28,29 が設けられ、研磨後のワーク
Bの水洗いをするようになっている。
In the polishing station L2, imaging robots R1, R
A polishing robot R3 of the same type as 2 is provided, and the polishing robot R3 polishes a coating defect portion, that is, a polishing portion, based on position data based on an analysis result of a captured image from the imaging station L1. In addition, the repair station L3 is provided for polishing the remaining polishing portion by the operator when the polishing robot R3 cannot polish all the coating defect portions within a predetermined line tact because the number of polishing portions is large. ing. Further, the washing station L4 is provided with a plurality of washing showers 27 and washing brushes 28 and 29, so that the work B after polishing is washed with water.

【0017】次に、撮像ロボットR1,R2 および研磨ロボ
ットR3の機械的構造の一例について説明する。各ロボッ
トは基本的に同型のロボットであり、それらの構造も同
様なので、前方の撮像ロボットR1について図3に説明す
る。なお、各ロボットの同様の部材には同一の符号を付
してある。
Next, an example of the mechanical structure of the imaging robots R1 and R2 and the polishing robot R3 will be described. Since each robot is basically the same type of robot and has the same structure, the imaging robot R1 in the front will be described with reference to FIG. The same reference numerals are given to the same members of each robot.

【0018】撮像ステーションL1の前後左右の4隅には
コラム10が立設され、左右の各2本のコラム10の上端に
はそれぞれ前後方向に延びるビーム11が固着され、左右
の各ビーム11の上端にはガイドレール12が前後方向に設
けられ、両側のビーム11に渡って左右方向に延びる可動
フレーム13が架設されるもので、該可動フレーム13の両
端のベアリング付係合部13a が上記ガイドレール12上に
係合されて前後方向に移動可能に設けられている。そし
て、右側のビーム11の上端には、サーボモータ(図示せ
ず)で回転駆動されるボールネジシャフト14が前後方向
に延びて設けられ、可動フレーム13の右端部にはボール
ネジシャフト14に螺合するナットが設けられ、サーボモ
ータで該シャフト14を回転駆動することにより可動フレ
ーム13はナットを介して前後方向に移動される。
Columns 10 are erected at four front, rear, left and right corners of the imaging station L1, and beams 11 extending in the front and rear direction are fixed to the upper ends of the two left and right columns 10, respectively. At the upper end, a guide rail 12 is provided in the front-rear direction, and a movable frame 13 extending in the left-right direction across the beams 11 on both sides is provided. The engagement portions 13a with bearings at both ends of the movable frame 13 are provided with the guides. It is provided on the rail 12 so as to be movable in the front-rear direction. A ball screw shaft 14, which is driven to rotate by a servomotor (not shown), extends in the front-rear direction at the upper end of the right beam 11, and is screwed to the ball screw shaft 14 at the right end of the movable frame 13. A nut is provided, and the movable frame 13 is moved in the front-rear direction via the nut by rotating the shaft 14 with a servomotor.

【0019】一方、前記可動フレーム13にはサーボモー
タ15で回転駆動される左右方向のボールネジシャフト16
と、その上下にガイドレール17とが設けられ、このガイ
ドレール17に摺動自在に係合した係合部(図示せず)と
ボールネジシャフト16に螺合したナットとを有する可動
台18が左右方向に移動自在に設けられ、サーボモータ15
でシャフト16を回転駆動することにより可動台18はナッ
トを介して左右方向に移動される。
On the other hand, a ball screw shaft 16 in the left-right direction, which is rotationally driven by a servo motor 15, is provided on the movable frame 13.
And a movable rail 18 having an engaging portion (not shown) slidably engaged with the guide rail 17 and a nut screwed to the ball screw shaft 16. The servo motor 15
The movable base 18 is moved in the left-right direction via the nut by rotating the shaft 16.

【0020】さらに、上記可動台18には、縦向きのサー
ボモータで回転駆動されるボールネジナット19と一対の
ロッドガイド18a が設けられ、ボールネジナット19に挿
通螺合したボールネジシャフト20とロッドガイド18a に
挿通したガイドロッド21の下端部にはハンド保持部材22
が固着され、ボールネジナット19を回転駆動することに
よりハンド保持部材22が昇降移動される。このハンド保
持部材22には、サーボモータにより鉛直軸回りに回転す
るための駆動連結部23と、サーボモータにより水平軸回
りに回転駆動するための駆動連結部24と、サーボモータ
によりハンド軸回りに回転駆動するための駆動連結部25
とを介してハンド26が装着されている。さらに、上記ハ
ンド26の先端には、撮像用CCDカメラ43と照明用の投
光器42とが支持部材41によって取り付けられている。
Further, the movable table 18 is provided with a ball screw nut 19 and a pair of rod guides 18a which are driven to rotate by a vertical servomotor. The hand holding member 22 is attached to the lower end of the guide rod 21
The hand holding member 22 is moved up and down by rotating and driving the ball screw nut 19. The hand holding member 22 includes a drive connecting portion 23 for rotating around a vertical axis by a servo motor, a driving connecting portion 24 for rotating around a horizontal axis by a servo motor, and a hand connecting portion 24 around a hand axis by a servo motor. Drive coupling 25 for rotational drive
And the hand 26 is mounted via. Further, a CCD camera 43 for imaging and a projector 42 for illumination are attached to a tip of the hand 26 by a support member 41.

【0021】なお、研磨ロボットR3の場合には、前記ハ
ンド26の先端に対して、図4に示すような研磨ツール50
が取り付けられている。該研磨ツール50は、先端の砥石
51と、該砥石51を横方向に振動駆動するアクチュエータ
52とを有している。
In the case of the polishing robot R3, a polishing tool 50 as shown in FIG.
Is attached. The polishing tool 50 has a whetstone at the tip.
51 and an actuator for driving the grindstone 51 to vibrate in the lateral direction
52.

【0022】上記のように構成された撮像ロボットR1,R
2 と研磨ロボットR3は、x軸(前後方向)、y軸(左右
方向)、z軸(上下方向)、鉛直軸、水平軸およびハン
ド軸の6軸の自由度を備えている。
The imaging robots R1, R configured as described above
2 and the polishing robot R3 have six degrees of freedom of an x-axis (front-back direction), a y-axis (left-right direction), a z-axis (vertical direction), a vertical axis, a horizontal axis, and a hand axis.

【0023】次に、前記撮像ロボットR1,R2 と研磨ロボ
ットR3の制御装置について説明する。撮像ステーション
L1には撮像ロボットR1,R2 の位置制御を行うロボット制
御装置32が設けられるとともに、撮像ステーションL1の
CCDカメラ43による撮影像を処理する3次元画像処理
装置1が設置されている。また、研磨ステーションL2に
は研磨ロボットR3の位置制御を行うとともに研磨ツール
50の研磨条件を制御する研磨制御装置34が設けられ、こ
の研磨制御装置34には、前記3次元画像処理装置1から
の位置データが入力される。
Next, a control device for the imaging robots R1 and R2 and the polishing robot R3 will be described. Imaging station
A robot controller 32 for controlling the position of the imaging robots R1 and R2 is provided in L1, and a three-dimensional image processing apparatus 1 for processing an image captured by the CCD camera 43 of the imaging station L1 is provided. In addition, the polishing station L2 controls the position of the polishing robot R3 and the polishing tool.
A polishing control device 34 for controlling 50 polishing conditions is provided. The polishing control device 34 receives position data from the three-dimensional image processing apparatus 1.

【0024】ここで、上記水研加工ラインLに搬入され
たワークBの塗装面の欠陥部位を検出して研磨部位を求
めるについて、ワーク表面を順次CCDカメラ43で撮影
して画像を取り込むにあたり、ロボットCADシミュレ
ーションを用いて撮像ロボットR1,R2 のティーチングを
行うものであるが、このティーチングは画像枠と撮影方
向ベクトル(カメラ原点とワークB上の点の距離と方向
を示す)をCRTディスプレイ上に出力しつつ順次撮影
点を設定する。そして、このティーチングを行う前に、
画像処理装置1には予めワークBの表面形状の3次元デ
ータを記憶させておき、上記撮像ロボットR1,R2 のティ
ーチング時に、1回の撮影で得られる画像幅(取込枠)
の大きさより小さい範囲の有効な画像が得られる範囲す
なわち画像枠を設定し、前記3次元データによるワーク
モデル画像の全体をこの画像枠で順次並べるように区画
し、しかも、各画像枠に撮影方向ベクトルを設定してテ
ィーチングを行うものである。加えて、上記各画像枠の
複数の部分、例えば枠線上の複数の点でのモデル画像の
表面に垂直な法線方向を求めて記憶しておく。
Here, in order to detect a defective portion on the painted surface of the work B carried into the water laboratory line L and to obtain a polished portion, the work surface is sequentially photographed by the CCD camera 43 and an image is taken in. The teaching of the imaging robots R1 and R2 is performed using a robot CAD simulation. This teaching displays the image frame and the shooting direction vector (showing the distance and direction between the camera origin and the point on the work B) on the CRT display. Shooting points are set sequentially while outputting. And before doing this teaching,
The image processing apparatus 1 stores three-dimensional data of the surface shape of the work B in advance, and obtains an image width (capture frame) obtained by one photographing at the time of teaching by the imaging robots R1 and R2.
Of the work model image based on the three-dimensional data is sectioned so as to be sequentially arranged in the image frame, and a photographing direction is set in each image frame. Teaching is performed by setting a vector. In addition, a normal direction perpendicular to the surface of the model image at a plurality of portions of each image frame, for example, at a plurality of points on the frame line, is obtained and stored.

【0025】続いて、自動水研ラインLに実際の中塗塗
装後のワークBが搬入されたのに応じ、前記ティーチン
グに基づいて撮像ステーションL1の撮像ロボットR1,R2
を作動制御して、前記モデル画像上に設定した画像枠と
同一の画像枠の撮影となるように、その画像枠の位置と
撮影方向ベクトルで設定されている距離と撮影方向で順
次ワークBの撮影を行い、その画像を取り込むものであ
る。そして、この入力画像から目視観察もしくは鮮映度
等によって塗装欠陥部分を検出し、この部分を研磨ステ
ーションL2の研磨ツール50によって研磨を行う研磨部位
に指定し、この研磨を行うためのデータを出力するもの
である。この研磨ステーションL2の研磨ロボットR3に対
する指令データとしては、研磨部位の3次元位置データ
とその部分の法線方向データであり、これに基づき研磨
ステーションL2に移動したワークBに対して所定の研磨
部位に移動するとともに、その表面に法線方向から研磨
ツール50の砥石51を押圧して研磨するものである。
Subsequently, in response to the actual work B after the intermediate coating being carried into the automatic water research line L, the imaging robots R1, R2 of the imaging station L1 based on the teaching.
The operation of the workpiece B is sequentially controlled by the position of the image frame, the distance set by the shooting direction vector, and the shooting direction so that the same image frame as the image frame set on the model image is shot. This is to take a picture and capture the image. Then, a coating defect portion is detected from the input image by visual observation or sharpness, etc., and this portion is designated as a portion to be polished by the polishing tool 50 of the polishing station L2, and data for performing this polishing is output. Is what you do. The command data for the polishing robot R3 of the polishing station L2 is the three-dimensional position data of the polishing part and the normal direction data of the part. Based on this data, a predetermined polishing part is determined for the workpiece B moved to the polishing station L2. The polishing is performed by pressing the grindstone 51 of the polishing tool 50 against the surface of the polishing tool 50 from the normal direction.

【0026】ここで、上記シミュレーションにおける処
理を図5ないし図9に沿って説明する。図5はワーク形
状の3次元データを記憶する際に、該3次元データをサ
ーフェスモデルBMで作成する例を示すもので、ここで用
いるサーフェスモデルBMは3次元のパッチ状であり、ワ
ークBを各面状部分に分けて格子状の交点aを座標点に
設定して、この座標点のx,y,z値をそれぞれインプ
ットしてサーフェスデータを記憶するものであり、座標
点間の空間部分は3次元の面補間式により近似的な座標
を求めるものである。なお、実際の自動車車体等のワー
クBでは、サーフェスモデルBMは、その性質上複雑な形
状の全体を表現するのが困難であり、そのため表現すべ
き形状を分割して、グループ単位のサーフェスデータを
作成しモデル形状を表現して記憶する。
Here, the processing in the simulation will be described with reference to FIGS. FIG. 5 shows an example in which three-dimensional data of a workpiece shape is created by a surface model BM when storing the three-dimensional data. The surface model BM used here is a three-dimensional patch. A grid-like intersection point a is set as a coordinate point in each planar portion, and the x, y, and z values of the coordinate point are input and surface data is stored. Is for obtaining approximate coordinates by a three-dimensional surface interpolation formula. In the case of an actual work B such as an automobile body, the surface model BM is difficult to represent the entire complex shape due to its nature. Create and represent and store model shapes.

【0027】上記のようにして作成したワークサーフェ
スモデルBMを、撮像ロボットR1,R2のティーチング箇所
に応じてx−y、y−z、z−x平面のいずれかでCR
Tディスプレイに写し出す。例えば、図6に示すよう
に、ワーク側面のティーチングならばz−x平面のサー
フェスモデルBMを表示する。なお、このサーフェスモデ
ルBMは、座標原点Oを基準にしてデータが設定されてい
る。さらに、ワークBのティーチング箇所、グループ単
位にサーフェスデータが設定されているものでは、対象
となるデータのグループを選択する。
The work surface model BM created as described above is converted into a CR on any of the xy, yz, and zx planes according to the teaching position of the imaging robots R1 and R2.
Show on the T display. For example, as shown in FIG. 6, in the case of teaching the side surface of the work, a surface model BM on the zx plane is displayed. In this surface model BM, data is set based on the coordinate origin O. Further, in the case where the surface data is set for each teaching location of the work B and for each group, a target data group is selected.

【0028】次に、CRTディスプレイに写し出された
ワークBのサーフェスモデルBMに対して、カメラ43の取
込み画像枠F(フレーム)をCRTディスプレイに写し
出す。この画像枠Fは、前述のように、CCDカメラ43
により1撮影画像として撮影する範囲に相当し、画像入
力範囲内に有効画像範囲として設定される。そして、こ
の画像枠Fに対応して前記ワークBのサーフェスモデル
BMを区画し、ティーチングポイントの自動生成を行う。
Next, an image frame F (frame) captured by the camera 43 is displayed on the CRT display with respect to the surface model BM of the work B displayed on the CRT display. This image frame F is, as described above, a CCD camera 43.
Corresponds to a range to be photographed as one photographed image, and is set as an effective image range within the image input range. Then, the surface model of the work B corresponding to the image frame F
Partition the BM and automatically generate teaching points.

【0029】上記ティーチングポイントの自動生成は、
まず、その開始にあたり、画像枠Fを適切な位置、例え
ば座標原点Oに最も近い位置にもっていき、最初のティ
ーチングのみ設定する。ただし、この時点ではx、z成
分のみが設定され、y成分は後に自動設定される。ま
た、ティーチングポイントを自動生成するための走査方
向を決定し、図6の例では、xおよびzは+方向に走査
する。ティーチングポイントのy成分は、ワークBに対
して+方向か−方向か(図6の例では−方向)を設定す
る。さらに、サーフェスモデルBMの大きさに応じてティ
ーチングを行うx方向とz方向の範囲を、モデルBMの外
側を囲むようにそれぞれの座標値で設定する。続いてカ
メラ43の画像枠Fを、x方向とz方向に設定するもので
あるが、この画像枠Fは隣接する画像枠Fの枠線が重な
るように順次、自動的にもしくはマニュアル操作で設定
する。最終的には、上記操作範囲の全体に画像枠Fが設
定されたものについて、サーフェスモデルBMと重なって
いない部分の画像枠Fについてはティーチング不要であ
り、ティーチングを行う画像枠Fを選択するものである
が、この選択は上記画像枠Fを順次設定する際にマニュ
アル操作の場合には同時に行ってもよく、また、自動設
定された場合には、写し出された画像枠Fをピックした
り、画像枠Fに番号を付けて選択するなどの方法によっ
て行うものである。
The automatic generation of the teaching points is as follows.
First, at the start, the image frame F is moved to an appropriate position, for example, a position closest to the coordinate origin O, and only the first teaching is set. However, at this point, only the x and z components are set, and the y component is automatically set later. Further, a scanning direction for automatically generating a teaching point is determined. In the example of FIG. 6, x and z are scanned in the + direction. The y component of the teaching point sets a positive direction or a negative direction with respect to the work B (the negative direction in the example of FIG. 6). Further, the range in the x direction and the z direction in which teaching is performed in accordance with the size of the surface model BM is set with respective coordinate values so as to surround the outside of the model BM. Subsequently, the image frame F of the camera 43 is set in the x direction and the z direction. The image frame F is set automatically or manually by a manual operation so that the frame lines of the adjacent image frames F overlap. I do. Eventually, for those in which the image frame F is set over the entire operation range, teaching is unnecessary for the image frame F in a portion not overlapping with the surface model BM, and the image frame F to be taught is selected. However, this selection may be performed at the same time in the case of manual operation when sequentially setting the image frames F. In addition, when the image frames F are automatically set, the projected image frame F is picked, This is performed by a method such as assigning a number to the image frame F and selecting it.

【0030】上記画像枠Fの設定により、その枠Fの中
心点T(図7参照)が位置するワークB上のx,z値
が、前記CCDカメラ43が位置するx,z点であり、こ
のワークB上の点からy軸と平行に所定距離(例えば30
cm)離れた点が実際にカメラ43が位置するx,y,z
点になり、この点がティーチングポイントとなり、上記
画像枠Fの中心点Tに(撮影方向と距離を示す撮影方向
ベクトルを)設定してなる。
By setting the image frame F, the x and z values on the work B where the center point T (see FIG. 7) of the frame F is located are the x and z points where the CCD camera 43 is located. A predetermined distance parallel to the y-axis (for example, 30
cm) x, y, z where the camera 43 is actually located
This point becomes a teaching point, and is set at the center point T of the image frame F (a shooting direction vector indicating a shooting direction and a distance).

【0031】続いて、ティーチングポイントおよび画像
を取り込むべきワークBの表面の法線ベクトルを自動設
定するものであるが、この設定は画像枠Fごとに以下の
ような処理を行って求める。
Subsequently, the teaching point and the normal vector of the surface of the work B to which the image is to be captured are automatically set. This setting is obtained by performing the following processing for each image frame F.

【0032】まず、図7に示すように、画像枠Fの枠に
沿って一定距離間隔、例えば1cm間隔の点bを通り、
y軸に平行な線分cでマイナス方向にワークBの3次元
サーフェスモデルBMと接する交点dを求める。なお、設
定された間隔で端部に端数が生じる場合には枠の4隅の
データは必ず求める。また、サーフェスモデルBMがグル
ープ単位に設定されていて、求める部分のサーフェスモ
デルBMが複数重なっている場合は、すべてのグループの
データに対して交点dを求め、後でその点の平均値を演
算する。一方、枠がサーフェスモデルBMから外れている
部分では、サーフェスモデルBMとの交点dは存在せず、
カウントはしない。
First, as shown in FIG. 7, the light passes through a point b at a constant distance, for example, 1 cm, along the frame of the image frame F.
An intersection d that comes into contact with the three-dimensional surface model BM of the work B in the minus direction is determined by a line segment c parallel to the y-axis. When a fraction occurs at an end portion at a set interval, data at the four corners of the frame must be obtained. If the surface model BM is set for each group and there are multiple overlapping surface models BM, the intersection d is found for all group data, and the average value of that point is calculated later. I do. On the other hand, in the part where the frame deviates from the surface model BM, there is no intersection d with the surface model BM,
Do not count.

【0033】上記のように交点dが求まった線分cにつ
き、図8のように、サーフェスモデルBM上のy座標の平
均値を求めて、基準面Gを設定しておく。さらに、上記
線分cとサーフェスモデルBMとの交点dにおける法線ベ
クトルVを求める。
As shown in FIG. 8, the average value of the y-coordinates on the surface model BM is determined for the line segment c for which the intersection d has been determined as described above, and the reference plane G is set. Further, a normal vector V at an intersection d between the line segment c and the surface model BM is obtained.

【0034】上記法線ベクトルVは単位ベクトルとし、
この法線ベクトルVの求め方としては種々の方法が考え
られるが、例えば、図9に示すように、前記パッチ状の
サーフェスモデルBMを利用して求める。すなわち、前記
図5のパッチ状のサーフェスモデルBMに対応し、交点d
が位置する部分の近傍における4隅のパッチaを一つの
平面pとし、その平面pに垂直な方向を求めて法線ベク
トルVに設定するものである。なお、前記サーフェスモ
デルBM上の交点dは、面補間によって求めるものであ
る。上記法線ベクトルVのデータは、決められたファイ
ル書式に従い保存される。
The normal vector V is a unit vector,
Various methods are available for obtaining the normal vector V. For example, as shown in FIG. 9, the normal vector V is obtained using the patch-like surface model BM. That is, it corresponds to the patch-like surface model BM in FIG.
Is defined as one plane p, and a direction perpendicular to the plane p is determined and set as a normal vector V. The intersection d on the surface model BM is obtained by surface interpolation. The data of the normal vector V is stored according to a determined file format.

【0035】上記法線ベクトルVを求める箇所は、画像
枠Fの枠の上の部分でなくてもよく、例えば、画像枠F
の中の画像中心T、n分割中心等の決められた箇所で求
めるようにしてもよい。
The location where the normal vector V is obtained may not be the portion above the frame of the image frame F.
May be determined at a predetermined location such as the image center T or the n-divided center.

【0036】上記のようにして設定された画像枠Fに対
して、ティーチングの順序を設定するものであって、そ
の設定は、例えば、CRTディスプレイ上に写し出され
た画像をピックすることなどによって行われる。また、
ティーチングプログラムは、モジュールごとに作成する
のが一般的であり、例えば、図6の例ではフロントフェ
ンダー部分(8画像枠)を第1のモジュールに設定して
順に撮影するようにティーチングし、同様に中間のドア
部分(8画像枠)を第2のモジュールに設定して順に撮
影するようにティーチングし、リヤフェンダー部分(6
画像枠)を第3のモジュールに設定して順に撮影するよ
うにティーチングしてもよい。
The order of teaching is set for the image frame F set as described above. The setting is performed by picking an image displayed on a CRT display, for example. Will be Also,
In general, the teaching program is created for each module. For example, in the example of FIG. 6, the front fender portion (eight image frames) is set to the first module, and teaching is performed so as to sequentially shoot images. The middle door part (eight image frames) is set as the second module, and teaching is performed so as to take pictures in order, and the rear fender part (6
The image frame may be set in the third module and teaching may be performed so as to sequentially capture images.

【0037】図10は、カメラ43によって撮影された画
像の位置データの精度を高めるための補正を示すもので
あって、この補正を行う前提として、前記画像枠Fとワ
ークサーフェスモデルBM上のオフセットを求める。この
オフセット値tは、前記線分cとの交点dにおける平均
y座標値(基準面G)から、サーフェスデータのy−z
断面上の交点dまでの距離を求めて記録するものであ
る。そして、研磨を行う研磨部位の位置データを計測す
るワーク面BMが基準面Gよりカメラ43に対してオフセッ
トしている場合には、撮影画面上の位置は正確な位置か
らずれることになり、この補正を行う。
FIG. 10 shows a correction for improving the accuracy of the position data of the image taken by the camera 43. The correction is performed on the assumption that the image frame F and the offset on the work surface model BM are used. Ask for. The offset value t is calculated from the average y-coordinate value (reference plane G) at the intersection d with the line segment c by the yz of the surface data.
The distance to the intersection d on the cross section is obtained and recorded. Then, when the work surface BM for measuring the position data of the polished portion to be polished is offset from the reference surface G with respect to the camera 43, the position on the photographing screen is shifted from the accurate position. Make corrections.

【0038】すなわち、カメラ43が画像を撮影する時
は、スケールファクタがSF0 となる基準面Gでの平面
的に行うことから、ワーク面が曲面形状をしていて基準
面Gからずれた位置にtだけオフセットしているとき
の、カメラ43で撮影した位置データ(y0 ,z0 )と実
際の位置(y,z)とが一致せず、これを一致修正する
ためのスケールファクタSF(mm/画素)の相似変換補
正式は、Lをカメラ43と基準面Gとの距離とすると、次
のようになる。
That is, when the camera 43 captures an image, the image is formed in a plane on the reference plane G where the scale factor is SF0, so that the work surface has a curved shape and is shifted from the reference plane G. When offset by t, the position data (y0, z0) photographed by the camera 43 does not match the actual position (y, z), and the scale factor SF (mm / pixel) for correcting the coincidence is corrected. The similarity conversion correction formula in ()) is as follows, where L is the distance between the camera 43 and the reference plane G.

【0039】SF=SF0 ・L/(L+t) この変換により、研磨部位の正確な位置が求まり、この
位置データを研磨ステーションL2の制御装置に送って研
磨ツール50を移動させることにより、正確に研磨が行え
るものである。なお、上記変換補正は、前記法線ベクト
ルVを各区画を細分化した領域ごとに求めたのに応じ
て、この領域ごとにスケール変換を行っておく。x方向
についても同様な補正が行われる。
SF = SF0 · L / (L + t) By this conversion, the exact position of the polishing portion is obtained, and this position data is sent to the control device of the polishing station L2 to move the polishing tool 50, so that accurate polishing is performed. Can be performed. In the conversion correction, scale conversion is performed for each area in accordance with the normal vector V obtained for each area obtained by subdividing each section. Similar correction is performed in the x direction.

【0040】そして、上記のようにして求めた法線ベク
トルVとスケール変換は、前述のように研磨ツール50の
姿勢制御に使用される。すなわち、ティーチングされた
画像枠Fに沿ってカメラ43で撮影したワークBの画像を
取り込み、その画像の解析により塗装欠陥部分を検出
し、研磨部位をその画像内での位置(x0 ,y0 ,z
0)を求め、各領域での法線ベクトルVおよびスケール
変換により補正した位置データ(x,y,z)に基づき
研磨ツール50を姿勢制御して、該研磨位置に研磨ツール
50を所定の研磨方向で押し付けて研磨を実行するもので
ある。
The normal vector V and the scale conversion obtained as described above are used for controlling the attitude of the polishing tool 50 as described above. That is, an image of the work B taken by the camera 43 is taken along the taught image frame F, a coating defect portion is detected by analyzing the image, and the polished portion is positioned (x0, y0, z) in the image.
0) is obtained, and the posture of the polishing tool 50 is controlled based on the normal vector V in each region and the position data (x, y, z) corrected by the scale conversion.
Polishing is performed by pressing 50 in a predetermined polishing direction.

【0041】なお、上記実施例においては、撮像ロボッ
トR1,R2 および研磨ロボットR3はステーションに設置さ
れたコラム10に設置して移動する方式の構造を有してい
るが、本体部分から間接を有するアームが延設されたロ
ボットの先端にカメラ43または研磨ツール50を設置する
ように構成してもよく、さらに、他の形式のロボットが
適宜採用可能である。
In the above-described embodiment, the imaging robots R1 and R2 and the polishing robot R3 have a structure in which the robots are installed and moved on the column 10 installed in the station. The camera 43 or the polishing tool 50 may be installed at the tip of the robot having the arm extended, and other types of robots can be used as appropriate.

【0042】また、塗装欠陥の検出については、カメラ
43によって撮影した画像から検出するほかに、検査員に
よってワークB表面の目視検査を行って、塗装欠陥部分
に所定の欠陥マークをつけ、この欠陥マークをカメラ43
で撮影した画像で検出し、その位置データを研磨ステー
ションL2側に送るように構成してもよい。
Further, regarding the detection of a coating defect, a camera
In addition to the detection from the image taken by 43, a visual inspection of the surface of the work B is performed by an inspector, and a predetermined defect mark is placed on a paint defect portion.
The position data may be detected by the image captured in the above step, and the position data may be sent to the polishing station L2.

【0043】さらに、ワーク表面像を撮影するカメラ43
の撮影位置すなわち撮影方向は、前記実施例のように座
標軸と平行な方向から撮影するほか、画像枠F内のワー
ク表面に可及的に直角な方向から撮影するようにティー
チングポイントを設定するようにしてもよい。
Further, a camera 43 for photographing a work surface image.
The photographing position, that is, the photographing direction is such that, in addition to photographing from the direction parallel to the coordinate axes as in the above-described embodiment, the teaching point is set so that photographing is performed from a direction as perpendicular to the work surface in the image frame F as possible. It may be.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の研磨ツールの制御装置の基本構成を示
すブロック図
FIG. 1 is a block diagram showing a basic configuration of a polishing tool control device of the present invention.

【図2】本発明の一実施例における研磨ツールの制御装
置を備えた水研加工ラインの概略平面図
FIG. 2 is a schematic plan view of a water polishing processing line provided with a polishing tool control device according to an embodiment of the present invention.

【図3】図2の撮像ステーションにおける断面正面図FIG. 3 is a sectional front view of the imaging station in FIG. 2;

【図4】研磨ツールの斜視図FIG. 4 is a perspective view of a polishing tool.

【図5】ワーク形状の3次元サーフェスモデルの設定例
を示す説明図
FIG. 5 is an explanatory diagram showing a setting example of a three-dimensional surface model of a work shape;

【図6】サーフェスモデルの表示と画像枠のティーチン
グ設定例を示す説明図
FIG. 6 is an explanatory diagram showing an example of display of a surface model and teaching setting of an image frame.

【図7および図8】法線ベクトルの設定例を示す説明図FIG. 7 and FIG. 8 are explanatory diagrams showing examples of setting normal vectors.

【図9】法線ベクトルの演算例を示す説明図FIG. 9 is an explanatory diagram showing an example of normal vector calculation.

【図10】位置データの補正を示す説明図FIG. 10 is an explanatory diagram showing correction of position data.

【符号の説明】[Explanation of symbols]

1 画像処理装置 B ワーク 2 モデル記憶手段 3 撮像手段 4 解析手段 5 姿勢制御手段 R1,R2 撮像ロボット R3 研磨ロボット 43 カメラ 50 研磨ツール DESCRIPTION OF SYMBOLS 1 Image processing apparatus B Work 2 Model storage means 3 Imaging means 4 Analysis means 5 Attitude control means R1, R2 Imaging robot R3 Polishing robot 43 Camera 50 Polishing tool

───────────────────────────────────────────────────── フロントページの続き (58)調査した分野(Int.Cl.7,DB名) B23Q 15/00 - 15/28 B24B 17/04 G05B 19/18 - 19/46 ────────────────────────────────────────────────── ─── Continued on the front page (58) Fields surveyed (Int. Cl. 7 , DB name) B23Q 15/00-15/28 B24B 17/04 G05B 19/18-19/46

Claims (2)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 ワークの撮影画像を3次元画像処理装置
で解析し、その位置データに基づいて研磨ツールによっ
てワークの塗装欠陥部位の研磨を行う研磨ツールの制御
装置であって、 予めワークの表面形状の3次元データを記憶するととも
に、そのワークの表面を有効画像範囲として設定された
1撮影画面に対応した大きさの複数の画像枠に分割設定
し、各画像枠の部分でワーク面の法線方向を設定して記
憶するモデル記憶手段と、 搬入されたワークに対し、上記モデル記憶手段に設定さ
れている各画像枠に一致する画像枠でワークの表面像を
撮影する撮像手段と、 上記撮像手段で撮影したワークの画像を解析し研磨を行
う研磨部位の位置データを求める解析手段と、 上記解析手段による研磨部位の位置データおよび前記モ
デル記憶手段に記憶されている研磨部位の法線データに
基づいて研磨ツールのワーク面に対する研磨位置および
姿勢を制御する姿勢制御手段とを備えたことを特徴とす
る研磨ツールの制御装置。
1. A polishing tool control device for analyzing a photographed image of a work by a three-dimensional image processing device and polishing a paint defect portion of the work by the polishing tool based on the position data, wherein In addition to storing the three-dimensional data of the shape, the surface of the work is divided and set into a plurality of image frames of a size corresponding to one shooting screen set as an effective image range, and the method of the work surface is determined at each image frame portion. A model storage means for setting and storing a line direction; and an imaging means for taking a surface image of the workpiece in an image frame corresponding to each image frame set in the model storage means for the loaded workpiece; Analyzing means for analyzing the image of the workpiece photographed by the imaging means to obtain position data of a polished part to be polished, and position data of the polished part by the analyzing means and the model storage means Control apparatus for polishing tool, characterized in that a posture control means for controlling the polishing position and <br/> orientation relative to the workpiece surface of the polishing tool on the basis of the normal line data of the polishing site being憶.
【請求項2】 前記解析手段は、研磨部位における撮像
手段の撮影において、上記画像枠における3次元データ
のワーク表面と撮影手段が位置する平面との距離の平均
値に位置する平面を基準面とし、この基準面に対して上
記ワークの表面がオフセットしているオフセット値に基
づいて位置データに変換補正を行うことを特徴とする請
求項1記載の研磨ツールの制御装置。
2. The image processing apparatus according to claim 1, wherein the analyzing unit is configured to detect three-dimensional data in the image frame when the image capturing unit captures the polished part.
Of the distance between the surface of the workpiece and the plane where the photographing means is located
The plane located at the value is the reference plane, and
Based on the offset value where the work surface is offset
2. The control device for a polishing tool according to claim 1, wherein the conversion correction is performed on the position data based on the position data.
JP24937991A 1991-09-27 1991-09-27 Polishing tool control device Expired - Fee Related JP3340143B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP24937991A JP3340143B2 (en) 1991-09-27 1991-09-27 Polishing tool control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP24937991A JP3340143B2 (en) 1991-09-27 1991-09-27 Polishing tool control device

Publications (2)

Publication Number Publication Date
JPH0592345A JPH0592345A (en) 1993-04-16
JP3340143B2 true JP3340143B2 (en) 2002-11-05

Family

ID=17192142

Family Applications (1)

Application Number Title Priority Date Filing Date
JP24937991A Expired - Fee Related JP3340143B2 (en) 1991-09-27 1991-09-27 Polishing tool control device

Country Status (1)

Country Link
JP (1) JP3340143B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06312343A (en) * 1993-04-28 1994-11-08 Toshiba Corp Control method for grinder working robot
JP3670700B2 (en) * 1994-04-27 2005-07-13 株式会社日立製作所 Robot mechanism control method
JPH11267992A (en) * 1998-03-23 1999-10-05 Nissan Motor Co Ltd Teaching method of painting robot
US7272254B2 (en) * 2003-07-09 2007-09-18 General Electric Company System and method for analyzing and identifying flaws in a manufactured part
JP6637928B2 (en) * 2017-06-21 2020-01-29 株式会社大気社 Automatic polishing system
JP6713015B2 (en) * 2018-04-13 2020-06-24 株式会社大気社 Automatic polishing system
JP6903777B1 (en) * 2020-01-24 2021-07-14 株式会社大気社 Automatic teaching system

Also Published As

Publication number Publication date
JPH0592345A (en) 1993-04-16

Similar Documents

Publication Publication Date Title
JP4021413B2 (en) Measuring device
EP1043126B1 (en) Teaching model generating method
JP5815761B2 (en) Visual sensor data creation system and detection simulation system
US20130060369A1 (en) Method and system for generating instructions for an automated machine
US20050273199A1 (en) Robot system
US20130278725A1 (en) Integrated Structured Light 3D Scanner
US7321841B2 (en) Three-dimensional shape measuring method and measuring apparatus thereof
JP6869159B2 (en) Robot system
JP2007021634A (en) Automatic machining method for workpiece and automatic machining system for workpiece
CN110039520B (en) Teaching and processing system based on image contrast
KR102096897B1 (en) The auto teaching system for controlling a robot using a 3D file and teaching method thereof
US20190255706A1 (en) Simulation device that simulates operation of robot
JP3340143B2 (en) Polishing tool control device
CN109773589B (en) Method, device and equipment for online measurement and machining guidance of workpiece surface
CN109732601B (en) Method and device for automatically calibrating pose of robot to be perpendicular to optical axis of camera
US20020120359A1 (en) System and method for planning a tool path along a contoured surface
JP3095463B2 (en) 3D measurement method
JP3605832B2 (en) Polishing tool control device
CN116297501A (en) Moving part detection system and method adopting monocular vision and galvanometer synergistic effect
Secil et al. A robotic system for autonomous 3-D surface reconstruction of objects
Seçil et al. 3-d visualization system for geometric parts using a laser profile sensor and an industrial robot
CN114888501A (en) Teaching-free programming building component welding device and method based on three-dimensional reconstruction
JPH05318280A (en) Grinding attitude producing device of grinding robot
CN211915840U (en) Three-dimensional five-axis laser cutting machine tool based on monocular vision
JP2022530589A (en) Robot-mounted mobile devices, systems and machine tools

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees