JP5291482B2 - Robot teaching program correction device - Google Patents

Robot teaching program correction device Download PDF

Info

Publication number
JP5291482B2
JP5291482B2 JP2009026750A JP2009026750A JP5291482B2 JP 5291482 B2 JP5291482 B2 JP 5291482B2 JP 2009026750 A JP2009026750 A JP 2009026750A JP 2009026750 A JP2009026750 A JP 2009026750A JP 5291482 B2 JP5291482 B2 JP 5291482B2
Authority
JP
Japan
Prior art keywords
teaching
workpiece
robot
unit
program
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009026750A
Other languages
Japanese (ja)
Other versions
JP2010182210A (en
Inventor
嘉治 長塚
幸三 井上
寛之 後平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
FANUC Corp
Original Assignee
FANUC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by FANUC Corp filed Critical FANUC Corp
Priority to JP2009026750A priority Critical patent/JP5291482B2/en
Publication of JP2010182210A publication Critical patent/JP2010182210A/en
Application granted granted Critical
Publication of JP5291482B2 publication Critical patent/JP5291482B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To considerably reduce the time and the like required for teaching and correcting a robot teaching program. <P>SOLUTION: A robot teaching program correction apparatus includes: an imaging part (6) which acquires an image of a work (20); a two-dimensional position calculation part (11a) which calculates a two-dimensional position of each teaching point on the image of the work on the basis of a three-dimensional position of each teaching point of a program (13) and the image of the work acquired by the imaging part; a display part (5a) which displays the image of the work and two-dimensional positions of the teaching points on the image of the work; an extraction part (11b) which automatically extracts deburring parts of the work on the basis of brightness difference in the image of the work; a teaching point position changing part (11c) which changes two-dimensional positions of teaching points so that they coincide with the deburring parts; and a program changing part (11g) which changes three-dimensional positions of respective teaching points of the robot teaching program on the basis of two-dimensional positions of the teaching positions on the post-change image of the work and each of the teaching points of the robot teaching program. <P>COPYRIGHT: (C)2010,JPO&amp;INPIT

Description

本発明は、ロボット教示プログラム、特にバリ取り加工用のロボット教示プログラムを修正するロボット教示プログラム修正装置に関する。   The present invention relates to a robot teaching program, and more particularly to a robot teaching program correcting device for correcting a robot teaching program for deburring.

工場の製造ラインなどにおいては、ロボットが加工対象ワークのバリを除去することが広く知られている。具体的には、ロボットにバリ取り用の加工ツールを取付けると共に、加工対象ワークを所定位置に固定する。そして、加工ツールを所定圧力で加工対象ワークのバリ取り面に押圧しながらバリ取り面に沿って移動させてバリを除去している。   In factory production lines and the like, it is widely known that robots remove burrs from workpieces to be machined. Specifically, a machining tool for deburring is attached to the robot, and the workpiece to be machined is fixed at a predetermined position. Then, the deburring is removed by moving the machining tool along the deburring surface while pressing the deburring surface of the workpiece to be machined with a predetermined pressure.

このようなロボットの動作は通常はコンピュータ制御されている。そして、ロボットのプログラムは、ワーク形状などに応じて事前に生成されている。例えば特許文献1においては、視覚センサにより得られた除去対象物の形状データ、CAD情報からの仕上げ部分の状態データを利用して、最適な仕上加工パラメータを導出することが開示されている。   Such robot operations are usually computer controlled. The robot program is generated in advance according to the workpiece shape and the like. For example, Patent Document 1 discloses that optimum finishing parameters are derived using shape data of an object to be removed obtained by a visual sensor and state data of a finished part from CAD information.

さらに、特許文献2は、ワークの画像を表示するモニタ上の複数の位置をポインティングデバイスにより指定し、ポインティングデバイスにより指示された順番に従ってワークを加工するプログラムを作成することを開示している。   Furthermore, Patent Document 2 discloses that a plurality of positions on a monitor on which an image of a workpiece is displayed is designated by a pointing device, and a program for machining the workpiece according to the order instructed by the pointing device is disclosed.

また、特許文献3は、ワークの画像からワーク形状を表す形状データを演算してワーク形状を検出し、ワーク形状の種類に応じて予め定めたロボットの作業工程に関する登録データと検出されたワーク形状とを参照し、所望の作業をロボットに指示するためのプログラムを生成することを開示している。   Patent Document 3 calculates the shape data representing the workpiece shape from the workpiece image to detect the workpiece shape, and the registered data regarding the robot work process determined in advance according to the type of workpiece shape and the detected workpiece shape. And generating a program for instructing a robot to perform a desired work.

さらに、特許文献4は、ワーク画像より加工軌跡の位置座標を検出し、検出された加工軌跡の位置座標より教示点の位置座標を算出し、算出された教示点の連続性を基に姿勢ベクトルを算出するロボットの教示装置を開示している。   Further, Patent Document 4 detects a position coordinate of a machining locus from a workpiece image, calculates a position coordinate of a teaching point from the detected position coordinate of the machining locus, and a posture vector based on the calculated continuity of the teaching point. Discloses a robot teaching apparatus for calculating the value.

特許第3427389号明細書Japanese Patent No. 3427389 特許第3450609号明細書Japanese Patent No. 3450609 特許第3517529号明細書Japanese Patent No. 3517529 特許第3543329号明細書Japanese Patent No. 3543329

しかしながら、ワークのバリ取り箇所は、ワークのロットに応じて、またはワークの供給元に応じて異なる場合がある。また、操作者がワークの三次元モデルにおける加工線を指定した場合であっても、同様な理由によりバリ取り箇所が異なる場合もある。このような場合には、バリ取り作業を正確に行うためにロボットの教示プログラムを手動で修正する必要がある。   However, the deburring part of the workpiece may differ depending on the workpiece lot or the workpiece supplier. Even when the operator designates a machining line in the three-dimensional model of the workpiece, the deburring location may be different for the same reason. In such a case, it is necessary to manually correct the robot teaching program in order to accurately perform the deburring operation.

さらに、教示プログラムを修正した後においては、ロボットを実際に動作させて動作確認する必要がある。そして、修正後の教示プログラムでワークのバリ取り加工が良好に行えない場合、例えばバリ取り工具とワークとが干渉して加工できない場合には、バリ取りが正確に行えるのを確認できるまで、教示プログラムを繰返し修正していた。このため、教示プログラムの修正作業とその確認作業には多大な時間を必要としていた。   Furthermore, after correcting the teaching program, it is necessary to confirm the operation by actually operating the robot. If the corrected teaching program cannot perform deburring of the workpiece satisfactorily, for example if the deburring tool and the workpiece interfere with each other, machining is not possible until it can be confirmed that deburring can be performed accurately. The program was modified repeatedly. For this reason, a great amount of time is required for the correction work of the teaching program and the confirmation work thereof.

さらに、ロボットに取付けられた撮像部、例えばカメラによりワークを撮像する場合には、ワークを撮像する位置を決定するために、ロボットの位置姿勢をジョグ送りなどで微調整して教示する必要がある。このようなことは操作者にとって煩雑であり、また時間を多大に消費することとなる。   Furthermore, when a workpiece is imaged by an imaging unit attached to the robot, for example, a camera, it is necessary to finely adjust the position and orientation of the robot by jog feed or the like in order to determine the position at which the workpiece is imaged. . Such a thing is troublesome for an operator and consumes a lot of time.

本発明はこのような事情に鑑みてなされたものであり、ロボット教示プログラムを教示修正するのに必要とされる時間および工数を大幅に削減することのできるロボット教示プログラム修正装置を提供することを目的とする。   The present invention has been made in view of the above circumstances, and provides a robot teaching program correction apparatus that can significantly reduce the time and man-hours required to correct a robot teaching program. Objective.

前述した目的を達成するために1番目の発明によれば、加工対象ワークをツールによりバリ取り加工するロボットのためのロボット教示プログラムを修正するロボット教示プログラム修正装置において、前記加工対象ワークの画像を取得する撮像部と、バリ取り加工用の前記ロボット教示プログラムに含まれる各教示点の三次元位置と前記撮像部により取得された前記加工対象ワークの画像とに基づいて、前記加工対象ワークの画像上における前記各教示点の二次元位置を計算する二次元位置計算部と、前記加工対象ワークの画像と、前記二次元位置計算部により計算された前記加工対象ワークの画像上における前記各教示点の二次元位置とを表示する表示部と、前記加工対象ワークの画像における明暗差に基づいて前記加工対象ワークのバリ取り箇所を自動的に抽出する抽出部と、前記加工対象ワークの画像上に表示された前記教示点の二次元位置が、前記抽出部により抽出された前記バリ取り箇所に一致するように変更する教示点位置変更部と、該教示点位置変更部により変更された前記加工対象ワークの画像上における前記各教示点の二次元位置と前記撮像部により取得された前記加工対象ワークの画像とから計算された、前記ロボット教示プログラムに含まれる前記各教示点の変更後における三次元位置に基づいて、前記ロボット教示プログラムに含まれる前記各教示点の三次元位置を変更するプログラム変更部とを具備する、ロボット教示プログラム修正装置が提供される。 In order to achieve the above-described object, according to a first invention, in a robot teaching program correction device for correcting a robot teaching program for a robot that deburrs a processing target workpiece with a tool, an image of the processing target workpiece is obtained. Based on the imaging unit to be acquired, the three-dimensional position of each teaching point included in the robot teaching program for deburring processing, and the image of the processing target workpiece acquired by the imaging unit, the image of the processing target workpiece A two-dimensional position calculation unit that calculates a two-dimensional position of each teaching point above, an image of the workpiece to be processed, and each teaching point on the image of the workpiece to be processed calculated by the two-dimensional position calculation unit A display unit for displaying the two-dimensional position of the workpiece, and a bar of the workpiece to be machined based on a difference in brightness in the image of the workpiece to be machined. An extraction unit that automatically extracts a removal location, and a two-dimensional position of the teaching point displayed on the image of the workpiece to be processed is changed to match the deburring location extracted by the extraction unit. Calculation from the teaching point position changing unit, the two-dimensional position of each teaching point on the image of the workpiece to be processed changed by the teaching point position changing unit, and the image of the workpiece to be processed acquired by the imaging unit And a program changing unit for changing the three-dimensional position of each teaching point included in the robot teaching program based on the three-dimensional position after the changing of each teaching point included in the robot teaching program. A robot teaching program correction device is provided.

すなわち1番目の発明においては、各教示点の位置が加工対象ワークの画像におけるバリ取り箇所に一致するように自動的に変更され、変更後における各教示点の位置がロボット教示プログラムに保存される。このため、ロボット教示プログラムを教示修正するのに必要とされる時間および工数を大幅に削減することができる。   That is, in the first invention, the position of each teaching point is automatically changed so as to coincide with the deburring position in the image of the workpiece to be machined, and the position of each teaching point after the change is stored in the robot teaching program. . For this reason, the time and man-hour required for teaching correction of the robot teaching program can be greatly reduced.

2番目の発明によれば、1番目の発明において、さらに、少なくとも一つの前記教示点が前記バリ取り箇所に一致するように変更されるように前記教示点の変更後の位置を指定する位置指定部を含む。
すなわち2番目の発明においては、各教示点の位置が加工対象ワークの画像におけるバリ取り箇所に一致するように操作者が手動により容易に変更できる。これにより、ロボット教示プログラムを教示修正するのに必要とされる時間および工数をさらに削減できる。なお、入力部は、キーボードまたはマウス、もしくは教示操作盤である。
According to the second invention, in the first invention, a position designation for designating a position after the change of the teaching point such that at least one of the teaching points is changed so as to coincide with the deburring portion. Part.
That is, in the second invention, the operator can easily manually change the position of each teaching point so that the position of each teaching point coincides with the deburring position in the image of the workpiece to be processed. Thereby, the time and man-hours required for teaching correction of the robot teaching program can be further reduced. The input unit is a keyboard, a mouse, or a teaching operation panel.

3番目の発明によれば、1番目または2番目の発明において、さらに、前記表示部に表示された前記教示点のうちの隣接する二つの教示点を指定する指定部と、該指定部により指定された二つの教示点の間に少なくとも一つの追加教示点を配置する教示点追加部と、を具備し、前記プログラム変更部は前記追加教示点の三次元位置を計算して前記ロボット教示プログラムに前記追加教示点を追加する。
すなわち3番目の発明においては、教示点の数が不足する場合に追加教示点を容易に配置できる。その結果、ワークの形状に応じて、より適切なバリ取り加工が可能となる。なお、追加教示点の数は、操作者が選択できるものとする。また、指定部は、例えばマウスである。
According to the third invention, in the first or second invention, a designating unit for designating two adjacent teaching points among the teaching points displayed on the display unit, and designating by the designating unit A teaching point adding unit that arranges at least one additional teaching point between the two taught points, and the program changing unit calculates a three-dimensional position of the additional teaching point to the robot teaching program. The additional teaching point is added.
That is, in the third invention, additional teaching points can be easily arranged when the number of teaching points is insufficient. As a result, a more appropriate deburring process can be performed according to the shape of the workpiece. The number of additional teaching points can be selected by the operator. The designation unit is, for example, a mouse.

4番目の発明によれば、1番目から3番目のいずれかの発明において、さらに、前記ロボット教示プログラムをシミュレーションするシミュレーション部を具備し、前記表示部は、前記シミュレーション部により得られたロボットの軌跡を表示する。
すなわち4番目の発明においては、シミュレーションにより得られたバリ取り加工の軌跡を表示するので、加工対象ワークのバリ取り箇所を適切にバリ取り加工できるか否かを事前に確認することができる。
According to a fourth invention, in any one of the first to third inventions, further comprising a simulation unit for simulating the robot teaching program, wherein the display unit is a robot trajectory obtained by the simulation unit. Is displayed.
That is, in the fourth aspect, since the deburring locus obtained by the simulation is displayed, it is possible to confirm in advance whether or not the deburring portion of the workpiece to be machined can be appropriately deburred.

5番目の発明によれば、1番目から4番目のいずれかの発明において、前記表示部は、前記ロボットの前記ツールの三次元モデルを前記加工対象ワークの画像上に表示し、前記ロボット教示プログラム修正装置はさらに、前記ロボットの前記ツールの先端が前記加工対象ワークに干渉しないように、前記ツールの三次元モデルのツール姿勢を変更するツールモデル姿勢変更部と、該ツールモデル姿勢変更部により変更された前記ツールの三次元モデルのツール姿勢に基づいて前記ツールの三次元姿勢を計算するツール姿勢計算部と、該ツール姿勢計算部により計算された前記ツールの三次元姿勢に基づいて、前記ロボット教示プログラムに含まれる前記ツールの三次元姿勢を変更するツール姿勢変更部とを具備する。
すなわち5番目の発明においては、ツールの三次元モデルのツール姿勢を変更した後で、プログラムに含まれるツールの三次元姿勢を変更している。このため、実際の動作においてもツールの先端が加工対象ワークに干渉しないようにできる。従って、ロボット教示プログラムを教示修正するのに必要とされる時間および工数をさらに削減できる。
According to a fifth invention, in any one of the first to fourth inventions, the display unit displays a three-dimensional model of the tool of the robot on an image of the workpiece to be processed, and the robot teaching program The correction device further includes a tool model posture changing unit that changes the tool posture of the three-dimensional model of the tool and the tool model posture changing unit so that the tip of the tool of the robot does not interfere with the workpiece to be processed. A tool posture calculation unit that calculates a three-dimensional posture of the tool based on the tool posture of the three-dimensional model of the tool, and the robot based on the three-dimensional posture of the tool calculated by the tool posture calculation unit A tool posture changing unit that changes the three-dimensional posture of the tool included in the teaching program.
That is, in the fifth aspect, after changing the tool posture of the three-dimensional model of the tool, the three-dimensional posture of the tool included in the program is changed. For this reason, the tip of the tool can be prevented from interfering with the workpiece to be machined even in actual operation. Accordingly, it is possible to further reduce the time and man-hours required for teaching correction of the robot teaching program.

6番目の発明によれば、1番目から4番目のいずれかの発明において、前記表示部は、前記加工対象ワークの三次元モデルを表示し、前記ロボット教示プログラム修正装置はさらに、前記加工対象ワークの三次元モデルにおいて撮像されるべきバリ取り箇所を指定する指定部と、該指定部により指定された前記バリ取り箇所を前記撮像部により撮像するための前記ロボット教示プログラムを自動的に作成するプログラム作成部とを具備する。
すなわち6番目の発明においては、実際の現場でロボットを撮像位置まで移動させて教示を行うことなしに、オフラインで撮像用のプログラムを作成できる。このため、バリ取り箇所の撮像工程を教示するのに必要とされる時間および工数を削減できる。
According to a sixth invention, in any one of the first to fourth inventions, the display unit displays a three-dimensional model of the workpiece to be machined, and the robot teaching program correction device further includes the workpiece to be machined. A designation unit for designating a deburring location to be imaged in the three-dimensional model, and a program for automatically creating the robot teaching program for imaging by the imaging unit the deburring site designated by the designation unit And a creation unit.
That is, in the sixth invention, an imaging program can be created offline without moving the robot to the imaging position at the actual site and teaching. For this reason, the time and man-hour required for teaching the imaging process of the deburring location can be reduced.

7番目の発明によれば、4番目の発明において、前記表示部は、前記加工対象ワークの六面体から構成される三次元モデルを表示し、前記撮像部は前記加工対象ワークの少なくとも一つの面を撮像し、前記シミュレーション部は、前記撮像部により撮像された前記加工対象ワークの前記面の画像を前記加工対象ワークの三次元モデルの対応する面に貼付けるようにした。
すなわち7番目の発明においては、三次元空間に実際の加工対象ワークの擬似的なモデルを配置できる。従って、シミュレーションによるバリ取り加工の事前確認をより正確に行うことができる。
According to a seventh aspect, in the fourth aspect, the display unit displays a three-dimensional model composed of hexahedrons of the workpiece to be machined, and the imaging unit displays at least one surface of the workpiece to be machined. The simulation unit is configured to paste the image of the surface of the workpiece to be machined imaged by the imaging unit on a corresponding surface of the three-dimensional model of the workpiece to be machined.
That is, in the seventh aspect, a pseudo model of the actual workpiece to be machined can be arranged in the three-dimensional space. Therefore, prior confirmation of deburring by simulation can be performed more accurately.

(a)本発明に基づくロボット教示プログラム修正装置のブロック図である。(b)本発明に基づく他のロボット教示プログラム修正装置のブロック図である。(A) It is a block diagram of the robot teaching program correction apparatus based on this invention. (B) It is a block diagram of the other robot teaching program correction apparatus based on this invention. コントローラのブロック図である。It is a block diagram of a controller. 本発明の第一の実施形態に基づくロボット教示プログラム修正装置の動作を説明するためのフローチャートである。It is a flowchart for demonstrating operation | movement of the robot teaching program correction apparatus based on 1st embodiment of this invention. (a)上方から撮像されたワークの画像が表示された表示部を示す図である。(b)側方から撮像されたワークの画像が表示された表示部を示す図である。(A) It is a figure which shows the display part on which the image of the workpiece | work imaged from upper direction was displayed. (B) It is a figure which shows the display part on which the image of the workpiece | work imaged from the side was displayed. (a)教示点が表示されている、図4(a)と同様な図である。(b)教示点が表示されている、図4(b)と同様な図である。(A) It is a figure similar to Fig.4 (a) by which the teaching point is displayed. (B) It is a figure similar to FIG.4 (b) with which the teaching point is displayed. (a)バリ取り箇所がエッジ情報として表示された、図4(a)と同様な図である。(b)さらに教示点が表示された図6(a)と同様な図である。(c)教示点の位置を変更した後における図6(b)と同様の図である。(A) It is a figure similar to Fig.4 (a) by which the deburring location was displayed as edge information. (B) It is the same figure as Drawing 6 (a) where a teaching point was further displayed. (C) It is a figure similar to FIG.6 (b) after changing the position of a teaching point. (a)教示点位置を変更するのを説明するための図4(a)と同様な図である。(b)教示点位置を変更するのを説明するための図4(b)と同様な図である。(A) It is a figure similar to Fig.4 (a) for demonstrating changing a teaching point position. (B) It is a figure similar to FIG.4 (b) for demonstrating changing a teaching point position. 追加教示点を追加するのを説明するためのフローチャートである。It is a flowchart for demonstrating adding an additional teaching point. (a)追加教示点を説明するための、図4(a)と同様な図である。(b)追加教示点を説明するための、図4(a)と同様な他の図である。(A) It is a figure similar to Fig.4 (a) for demonstrating an additional teaching point. (B) It is another figure similar to FIG. 4 (a) for demonstrating an additional teaching point. シミュレーション軌跡の表示を説明するためのフローチャートである。It is a flowchart for demonstrating the display of a simulation locus | trajectory. ツールモデルの姿勢の変更を説明するためのフローチャートである。It is a flowchart for demonstrating the change of the attitude | position of a tool model. (a)ツールモデルが表示された、図4(b)と同様な図である。(b)ツールモデルの姿勢の修正を説明するための、図4(b)と同様な図である。(c)ツールモデルの姿勢を操作者が修正するのを説明するための、図4(b)と同様な図である。(A) It is a figure similar to FIG.4 (b) by which the tool model was displayed. (B) It is a figure similar to FIG.4 (b) for demonstrating correction | amendment of the attitude | position of a tool model. (C) It is a figure similar to FIG.4 (b) for demonstrating that an operator corrects the attitude | position of a tool model. ロボット教示プログラムの作成を説明するためのフローチャートである。It is a flowchart for demonstrating creation of a robot teaching program. (a)加工線が表示された、図4(a)と同様の図である。(b)バリ取り箇所と加工線とが表示された、図4(a)と同様の図である。(c)加工線が変更された状態を示す、図4(a)と同様の図である。(A) It is a figure similar to Fig.4 (a) by which the process line was displayed. (B) It is the same figure as Fig.4 (a) by which the deburring location and the process line were displayed. (C) It is a figure similar to Fig.4 (a) which shows the state by which the process line was changed. ワークを撮像するためのプログラムの作成を説明するためのフローチャートである。It is a flowchart for demonstrating preparation of the program for imaging a workpiece | work. (a)表示部と、表示部に表示される内容とを示す図である。(b)表示部と、表示部に表示される内容とを示す他の図である。(A) It is a figure which shows a display part and the content displayed on a display part. (B) It is another figure which shows the display part and the content displayed on a display part. 三次元モデルの作成を説明するためのフローチャートである。It is a flowchart for demonstrating creation of a three-dimensional model. 三次元モデルの作成を説明するための斜視図である。It is a perspective view for demonstrating creation of a three-dimensional model.

以下、添付図面を参照して本発明の実施形態を説明する。以下の図面において同様の部材には同様の参照符号が付けられている。理解を容易にするために、これら図面は縮尺を適宜変更している。
図1(a)は本発明に基づくロボット教示プログラム修正装置1のブロック図である。図1(a)においては、バリ取り工具3が先端に取付けられた多関節ロボット2がコントローラ10に接続されている。図示されるように、撮像部6、例えばCCDカメラがバリ取り工具3近傍においてロボット2のアームに取付けられている。図1(a)から分かるように、撮像部6は、台座19に載置された加工対象ワーク20を撮像するのに使用される。
Embodiments of the present invention will be described below with reference to the accompanying drawings. In the following drawings, the same members are denoted by the same reference numerals. In order to facilitate understanding, the scales of these drawings are appropriately changed.
FIG. 1A is a block diagram of a robot teaching program correction apparatus 1 according to the present invention. In FIG. 1A, an articulated robot 2 having a deburring tool 3 attached to the tip is connected to the controller 10. As shown in the figure, an imaging unit 6, for example, a CCD camera, is attached to the arm of the robot 2 in the vicinity of the deburring tool 3. As can be seen from FIG. 1A, the imaging unit 6 is used to image the workpiece 20 that is placed on the pedestal 19.

コントローラ10には、教示操作盤4およびコンピュータ5が接続されている。撮像部6により撮像されたワーク20の画像は、教示操作盤4の表示部4aおよび/またはコンピュータ5の表示部5aに表示できるようになっている。また、コンピュータ5には、入力部7および指定部8が接続されている。入力部7はキーボードまたはマウスであってよく、指定部8はマウスであるのが好ましい。   A teaching operation panel 4 and a computer 5 are connected to the controller 10. The image of the workpiece 20 imaged by the imaging unit 6 can be displayed on the display unit 4 a of the teaching operation panel 4 and / or the display unit 5 a of the computer 5. An input unit 7 and a designation unit 8 are connected to the computer 5. The input unit 7 may be a keyboard or a mouse, and the designation unit 8 is preferably a mouse.

ところで、図1(b)は本発明に基づく他のロボット教示プログラム修正装置1のブロック図である。図1(b)においては、撮像部6は多関節ロボット2に取付けられてはおらず、撮像部6は、スタンド6aによってワーク20を撮像可能な位置に固定されている。スタンド6aはワーク20を側方から撮像するのに使用される。また、図面には示さないものの、他のスタンドはワーク20を他の位置、例えば上方から撮像するときに使用される。以下の説明においては、図1(a)に示される実施形態について説明するが、本発明の内容は図1(b)に示される実施形態についても概ね同様である。   FIG. 1B is a block diagram of another robot teaching program correction apparatus 1 based on the present invention. In FIG. 1B, the imaging unit 6 is not attached to the articulated robot 2, and the imaging unit 6 is fixed to a position where the workpiece 20 can be imaged by the stand 6a. The stand 6a is used to image the workpiece 20 from the side. Although not shown in the drawings, another stand is used when the workpiece 20 is imaged from another position, for example, from above. In the following description, the embodiment shown in FIG. 1 (a) will be described. However, the contents of the present invention are generally the same for the embodiment shown in FIG. 1 (b).

図2はコントローラのブロック図である。コントローラ10は、CPU11と記憶部12とを主に含んでいる。なお、図2は一つの実施例を示しているにすぎず、コンピュータ5の表示部5aに基づいて操作する場合には、コントローラ10の代わりに、コンピュータ5が図2に示されるCPU11および記憶部12を含んでいるのが好ましい。さらに、教示操作盤4の表示部4aに基づいて操作する場合には、教示操作盤4が、図2に示されるCPU11および記憶部12を含むものとする。ここで、記憶部12は、バリ取り加工を行うための複数の教示点P1〜Pnを含むロボット教示プログラム13を記憶している。ロボット教示プログラム13に含まれる教示点P1〜Pnのそれぞれは三次元位置として定義されている。また、ロボット教示プログラム13は、教示点P1〜Pnにおけるバリ取り工具3の三次元姿勢を含んでいる。   FIG. 2 is a block diagram of the controller. The controller 10 mainly includes a CPU 11 and a storage unit 12. FIG. 2 shows only one embodiment. When the operation is performed based on the display unit 5a of the computer 5, the computer 5 is replaced with the CPU 11 and the storage unit shown in FIG. 12 is preferably included. Furthermore, when operating based on the display unit 4a of the teaching operation panel 4, the teaching operation panel 4 includes the CPU 11 and the storage unit 12 shown in FIG. Here, the storage unit 12 stores a robot teaching program 13 including a plurality of teaching points P1 to Pn for performing deburring. Each of the teaching points P1 to Pn included in the robot teaching program 13 is defined as a three-dimensional position. The robot teaching program 13 includes the three-dimensional posture of the deburring tool 3 at the teaching points P1 to Pn.

さらに、記憶部12に記憶されるモデルデータ14は、バリ取り工具3の三次元モデルであるツールモデル15と、ワーク20の三次元モデルであるワークモデル16と、多関節ロボット2の三次元モデルであるロボットデータ17とを含んでいる。なお、ロボットデータ17は、ロボット2自体のモデルに加えて、撮像部6の三次元モデルも含むものとする。   Further, the model data 14 stored in the storage unit 12 includes a tool model 15 that is a three-dimensional model of the deburring tool 3, a work model 16 that is a three-dimensional model of the workpiece 20, and a three-dimensional model of the articulated robot 2. The robot data 17 is included. Note that the robot data 17 includes a three-dimensional model of the imaging unit 6 in addition to the model of the robot 2 itself.

また、図2から分かるように、CPU11は、ロボット教示プログラム13の教示点P1〜Pnのそれぞれの三次元位置とワーク20の画像とに基づいて、ワーク20の画像上における教示点P1〜Pnのそれぞれの二次元位置を計算する二次元位置計算部11aと、ワーク20の画像における明暗差に基づいてワーク20のバリ取り箇所を自動的に抽出する抽出部11bと、教示点P1〜Pnのそれぞれがバリ取り箇所に一致するように変更する教示点位置変更部11cと、変更された教示点P1〜Pnのそれぞれの二次元位置とロボット教示プログラム13に含まれる教示点とに基づいて、ロボット教示プログラム13の教示点P1〜Pnの三次元位置を変更するプログラム変更部11dとしての役目を果たす。また、プログラム変更部11dは、後述する追加教示点の三次元位置を計算してロボット教示プログラムに追加教示点を追加する役目も果たす。   As can be seen from FIG. 2, the CPU 11 determines the teaching points P1 to Pn on the image of the workpiece 20 based on the three-dimensional positions of the teaching points P1 to Pn of the robot teaching program 13 and the image of the workpiece 20. Each of the two-dimensional position calculation unit 11a that calculates each two-dimensional position, the extraction unit 11b that automatically extracts the deburring part of the workpiece 20 based on the contrast of the image of the workpiece 20, and the teaching points P1 to Pn. Based on the teaching point position changing unit 11c that changes to match the deburring location, the two-dimensional positions of the changed teaching points P1 to Pn, and the teaching points included in the robot teaching program 13. It serves as a program changing unit 11d that changes the three-dimensional positions of the teaching points P1 to Pn of the program 13. Further, the program changing unit 11d also serves to calculate a three-dimensional position of an additional teaching point described later and add the additional teaching point to the robot teaching program.

さらに、CPU11は、指定部8により指定された二つの教示点の間に少なくとも一つの追加教示点を配置する教示点追加部11eと、ロボット教示プログラム13をシミュレーションするシミュレーション部11gとを含んでいる。   Further, the CPU 11 includes a teaching point adding unit 11 e that arranges at least one additional teaching point between two teaching points specified by the specifying unit 8 and a simulation unit 11 g that simulates the robot teaching program 13. .

さらに、CPU11は、バリ取り工具3のツールモデル15がワーク20の画像に干渉しないようにツールモデル15のツール姿勢を変更するツールモデル姿勢変更部11hと、変更後のツール姿勢に基づいてバリ取り工具3の三次元姿勢を計算するツール姿勢計算部11iと、計算された三次元姿勢に基づいてロボット教示プログラム13内のバリ取り工具3の三次元姿勢を変更するツール姿勢変更部11jとしての役目を果たす。   Further, the CPU 11 performs deburring based on the tool model posture changing unit 11h that changes the tool posture of the tool model 15 so that the tool model 15 of the deburring tool 3 does not interfere with the image of the workpiece 20, and the deburred tool posture. Functions as a tool posture calculation unit 11i that calculates the three-dimensional posture of the tool 3 and a tool posture change unit 11j that changes the three-dimensional posture of the deburring tool 3 in the robot teaching program 13 based on the calculated three-dimensional posture. Fulfill.

さらに、CPU11は、ワークモデル16のうちの指定された加工線がバリ取り箇所に一致するように変更する加工線変更部11kと、変更後の加工線の二次元位置からその三次元位置を計算して加工線の三次元位置を変更する加工線位置計算部11lと、変更後の加工線に基づいてバリ取り加工されるべき教示点を生成する教示点生成部11mとを含む。さらに、CPU11は、ワークモデル16において指定されたバリ取り箇所を撮像部6によって撮像するためにロボット教示プログラム13を自動的に作成するプログラム作成部11nを含んでいる。   Further, the CPU 11 calculates the three-dimensional position from the processing line changing unit 11k that changes the specified processing line in the work model 16 so as to match the deburring position and the two-dimensional position of the changed processing line. Then, a processing line position calculation unit 11l that changes the three-dimensional position of the processing line and a teaching point generation unit 11m that generates a teaching point to be deburred based on the changed processing line. Further, the CPU 11 includes a program creation unit 11n that automatically creates the robot teaching program 13 in order to image the deburring portion designated in the work model 16 by the imaging unit 6.

図3は、本発明の第一の実施形態に基づくロボット教示プログラム修正装置の動作を説明するためのフローチャートである。以下、図3を参照しつつ、ロボット教示プログラム修正装置の動作を説明する。   FIG. 3 is a flowchart for explaining the operation of the robot teaching program correcting device according to the first embodiment of the present invention. Hereinafter, the operation of the robot teaching program correction apparatus will be described with reference to FIG.

はじめに、図3のステップ101において、撮像部6が台座19上のワーク20を撮像する。このとき、多関節ロボット2がワーク20の撮像位置まで移動し、それにより、ワーク20は、少なくともその上方および/または側方から撮像される。当然のことながら、他の方向からワーク20を撮像することも可能である。   First, in step 101 of FIG. 3, the imaging unit 6 images the workpiece 20 on the pedestal 19. At this time, the articulated robot 2 moves to the imaging position of the workpiece 20, whereby the workpiece 20 is imaged at least from above and / or from the side. Naturally, it is also possible to image the workpiece 20 from other directions.

次いで、ステップ102において、教示操作盤4またはコンピュータ5を操作して、ワーク20の画像を記憶部12に記憶させる。このとき、予め設定された撮像部6のキャリブレーションデータ、およびロボット2の撮像位置も取得する。なお、図1(b)に示される実施形態においては、ロボット2の撮像位置の代わりに、スタンド6a等の寸法データが取得されるものとする。   Next, in step 102, the teaching operation panel 4 or the computer 5 is operated to store the image of the workpiece 20 in the storage unit 12. At this time, preset calibration data of the imaging unit 6 and the imaging position of the robot 2 are also acquired. In the embodiment shown in FIG. 1B, dimensional data such as the stand 6a is acquired instead of the imaging position of the robot 2.

次いで、ステップ103において、ワーク20の画像を教示操作盤4の表示部4aおよび/またはコンピュータ5の表示部5aに表示する。図4(a)および図4(b)は、上方および側方から撮像されたワーク20の画像が表示された表示部5aを例として示す図である。簡潔にする目的で、以下においては、コンピュータ5の表示部5aに表示された画像について説明するが、教示操作盤4の表示部4aに表示される場合も同様である。   Next, in step 103, the image of the workpiece 20 is displayed on the display unit 4 a of the teaching operation panel 4 and / or the display unit 5 a of the computer 5. FIG. 4A and FIG. 4B are diagrams illustrating an example of the display unit 5a on which an image of the workpiece 20 captured from above and from the side is displayed. For the sake of brevity, an image displayed on the display unit 5a of the computer 5 will be described below, but the same applies to the case where the image is displayed on the display unit 4a of the teaching operation panel 4.

図4(a)および図4(b)を参照して分かるように、本実施形態で使用されるワーク20は、ベース21と、ベース21から隆起する隆起部22とを備えていて、隆起部22の上面には二つの開口部23が形成されている。ただし、他の形状のワーク20であっても本発明を適用できるものとする。   As can be seen with reference to FIGS. 4A and 4B, the workpiece 20 used in this embodiment includes a base 21 and a raised portion 22 raised from the base 21. Two openings 23 are formed on the upper surface of 22. However, the present invention can also be applied to workpieces 20 having other shapes.

再び図3を参照すると、ステップ104において、二次元位置計算部11aは、撮像部6のキャリブレーションデータ、撮像時におけるロボット2の位置を用いて、ロボット教示プログラム13における教示点P1〜Pnの三次元位置からワーク20の画像上における教示点P1〜Pnの二次元位置を計算する。   Referring again to FIG. 3, in step 104, the two-dimensional position calculation unit 11 a uses the calibration data of the imaging unit 6 and the position of the robot 2 at the time of imaging to obtain the tertiary of teaching points P 1 to Pn in the robot teaching program 13. The two-dimensional positions of the teaching points P1 to Pn on the image of the workpiece 20 are calculated from the original position.

具体的には、はじめに、撮像時におけるロボット2の位置から見たキャリブレーション時のロボット2の位置を計算して、教示点P1〜Pnの三次元位置を補正する。また、撮像部6のキャリブレーションデータには、台座19の設置位置のデータも含まれているので、このデータも教示点P1〜Pnの三次元位置を補正するのに使用される。   Specifically, first, the position of the robot 2 at the time of calibration viewed from the position of the robot 2 at the time of imaging is calculated, and the three-dimensional positions of the teaching points P1 to Pn are corrected. In addition, since the calibration data of the imaging unit 6 includes data of the installation position of the pedestal 19, this data is also used to correct the three-dimensional positions of the teaching points P1 to Pn.

次いで、キャリブレーションデータに含まれる撮像部6の位置、撮像部6のレンズの焦点距離、1ピクセルあたりの長さ、レンズの中心位置などのパラメータを使用して、教示点P1〜Pnの三次元位置をワーク20の画像上に投影して、教示点P1〜Pnの二次元位置を計算する。   Next, using parameters such as the position of the imaging unit 6, the focal length of the lens of the imaging unit 6, the length per pixel, and the center position of the lens included in the calibration data, the three-dimensional teaching points P1 to Pn are used. The position is projected onto the image of the workpiece 20, and the two-dimensional positions of the teaching points P1 to Pn are calculated.

次いで、ステップ103において、これら教示点P1〜Pnの二次元位置をワーク20の画像上に表示する。図5(a)および図5(b)のそれぞれは、ワークの画像と教示点とが表示された表示部を示す図である。これら図面および後述する図面においては、教示点Pは黒色楕円で表されており、明確にする目的で、一つまたは複数の教示点Pは破線により囲まれている。図5(a)においては、上方から見たワーク20の画像上に教示点Pが表示されており、図5(b)においては、側方から見たワーク20の画像上に教示点Pが表示されている。   Next, in step 103, the two-dimensional positions of these teaching points P1 to Pn are displayed on the image of the workpiece 20. Each of FIG. 5A and FIG. 5B is a diagram showing a display unit on which an image of a workpiece and a teaching point are displayed. In these drawings and the drawings described later, the teaching point P is represented by a black ellipse, and for the purpose of clarity, one or more teaching points P are surrounded by a broken line. 5A, the teaching point P is displayed on the image of the work 20 viewed from above, and in FIG. 5B, the teaching point P is displayed on the image of the work 20 viewed from the side. It is displayed.

このように複数の教示点P1〜Pnをワーク20の画像上に表示することによって、操作者は、これら教示点P1〜Pnが実際のワーク20からどの程度ズレているのかを視覚的に確認することができる。これに対し、従来技術においては、教示点とワーク20との間のズレを確認するためには、ロボットを教示点P1〜Pnのそれぞれにまで移動させる必要があった。このため、複数の教示点P1〜Pnをワーク20の画像上に表示する本発明においては、教示点とワーク20との間のズレを確認するのに必要とされる時間を大幅に短縮することが可能である。   Thus, by displaying the plurality of teaching points P1 to Pn on the image of the workpiece 20, the operator visually confirms how much these teaching points P1 to Pn are deviated from the actual workpiece 20. be able to. On the other hand, in the prior art, in order to confirm the deviation between the teaching point and the workpiece 20, it is necessary to move the robot to each of the teaching points P1 to Pn. For this reason, in the present invention in which a plurality of teaching points P1 to Pn are displayed on the image of the workpiece 20, the time required for confirming the deviation between the teaching points and the workpiece 20 is greatly reduced. Is possible.

次いで、図3のステップ106においては、抽出部11bが、ワーク20の画像からワーク20のバリ取り箇所を自動的に抽出する。この点に関し、ワーク20の画像においては、ワーク20のベース21と隆起部22との間の高低差、およびワーク20と背景との間の明るさの差によってコントラスト差が生じている。抽出部11bは、互いに隣接する画素のコントラスト差を全ての画素に対して算出する。そして、コントラスト差が所定値よりも大きい箇所のみを抽出する。そして、そのような箇所を接続することにより、ワーク20のバリ取り箇所をエッジ情報として出力することができる。   Next, in step 106 in FIG. 3, the extraction unit 11 b automatically extracts a deburring portion of the workpiece 20 from the image of the workpiece 20. In this regard, in the image of the work 20, there is a contrast difference due to the height difference between the base 21 and the raised portion 22 of the work 20 and the brightness difference between the work 20 and the background. The extraction unit 11b calculates the contrast difference between adjacent pixels for all the pixels. Then, only portions where the contrast difference is larger than a predetermined value are extracted. And by connecting such a location, the deburring location of the workpiece 20 can be output as edge information.

図6(a)は、バリ取り箇所がエッジ情報として表示された、図4(a)と同様な図である。図6(a)においては、バリ取り箇所Bは、隆起部22の外周に沿って表示されている。これら図面を比較して分かるように、教示点P1〜Pnの位置がバリ取り箇所Bに合致しているとは限らず、教示点P1〜Pnがバリ取り箇所Bからズレている場合もある。   FIG. 6A is a view similar to FIG. 4A in which a deburring location is displayed as edge information. In FIG. 6A, the deburring portion B is displayed along the outer periphery of the raised portion 22. As can be seen by comparing these drawings, the positions of the teaching points P1 to Pn do not always coincide with the deburring location B, and the teaching points P1 to Pn may deviate from the deburring location B.

このような場合には、図3のステップ107において、教示点位置変更部11cが、複数の教示点P1〜Pnをバリ取り箇所Bに向かって一体的に移動させる。具体的には、教示点P1〜Pnの位置とバリ取り箇所Bの位置との間の差がゼロになるように、教示点P1〜Pnの位置に補正量を加える。これにより、教示点P1〜Pnの位置とバリ取り箇所Bとが一致するようになる(図6(c)を参照されたい)。   In such a case, in step 107 in FIG. 3, the teaching point position changing unit 11 c moves the plurality of teaching points P <b> 1 to Pn toward the deburring location B integrally. Specifically, the correction amount is added to the positions of the teaching points P1 to Pn so that the difference between the positions of the teaching points P1 to Pn and the position of the deburring point B becomes zero. As a result, the positions of the teaching points P1 to Pn coincide with the deburring point B (see FIG. 6C).

次いで、図3のステップ108、109において、プログラム変更部11dは、変更された教示点P1〜Pnのそれぞれの二次元位置とロボット教示プログラム13に含まれる教示点とに基づいて、ロボット教示プログラム13の教示点P1〜Pnの三次元位置を変更する。   Next, in steps 108 and 109 of FIG. 3, the program changing unit 11 d determines the robot teaching program 13 based on the two-dimensional positions of the changed teaching points P1 to Pn and the teaching points included in the robot teaching program 13. The three-dimensional positions of the teaching points P1 to Pn are changed.

具体的には、キャリブレーションデータに含まれる画像中心、縦方向の画素サイズ、画素の縦横比、レンズの歪みなどに基づいて教示点P1〜Pnの二次元位置を補正して、三次元空間における直線に変換する。次いで、キャリブレーション時におけるロボット位置から見た撮像時におけるロボット位置と台座19の設置位置とを補正量として、直線に加える。さらに、ワーク20の画像と直線との交点を求め、それにより、二次元位置を三次元位置に変換する。その後、変更後における各教示点P1〜Pnの位置がロボット教示プログラム13に保存される。   Specifically, the two-dimensional positions of the teaching points P1 to Pn are corrected based on the image center included in the calibration data, the vertical pixel size, the pixel aspect ratio, the lens distortion, and the like in the three-dimensional space. Convert to a straight line. Next, the robot position at the time of imaging viewed from the robot position at the time of calibration and the installation position of the pedestal 19 are added to the straight line as correction amounts. Further, the intersection of the image of the workpiece 20 and the straight line is obtained, thereby converting the two-dimensional position into the three-dimensional position. Thereafter, the positions of the teaching points P1 to Pn after the change are stored in the robot teaching program 13.

このような構成であるので、本発明においては、ロボット2を実際に各教示点の位置まで移動させることなしに、ロボット教示プログラム13を修正することができる。ロットの相違によりまたはワーク20の供給元が異なるためにワーク20のバリ取り箇所Bが異なる場合であっても、ロボット2の教示作用をその都度行う必要はない。このため、本発明においては、ロボット教示プログラム13を教示修正するのに必要とされる時間および工数を大幅に削減できることが分かるであろう。   With this configuration, in the present invention, the robot teaching program 13 can be corrected without actually moving the robot 2 to the position of each teaching point. Even if the deburring part B of the workpiece 20 is different due to the difference in lots or because the supply source of the workpiece 20 is different, it is not necessary to perform the teaching action of the robot 2 each time. For this reason, it will be understood that in the present invention, the time and man-hours required for teaching correction of the robot teaching program 13 can be greatly reduced.

ところで、図3のステップ107において教示点P1〜Pnの位置を変更する変更作用については、操作者が手動で行うようにしてもよい。図7(a)および図7(b)は、教示点位置を変更するのを説明するための図である。これら図面においては、操作者は複数の教示点P1〜Pnのうちの一つの教示点PAを矢印方向に教示点PA’まで移動させている。   Incidentally, the changing action of changing the positions of the teaching points P1 to Pn in step 107 of FIG. 3 may be manually performed by the operator. FIG. 7A and FIG. 7B are diagrams for explaining the change of the teaching point position. In these drawings, the operator moves one teaching point PA among the plurality of teaching points P1 to Pn to the teaching point PA 'in the direction of the arrow.

このような教示点PAの移動は、マウスなどの指定部8によって教示点PAを画像上で指定し、バリ取り箇所Bに一致するまでドラッグ操作によって移動させる。あるいは、入力部7または教示操作盤4の方向キーおよび移動量を示す数値キーを操作して、教示点PAを移動させるようにしてもよい。このような場合には、操作者が教示点PAを手動により容易に所望の位置まで移動させられる。また、この場合には、特定の教示点、例えば教示点PAのみを移動させられるので、最小限の数の教示点の移動で済むという利点もある。   Such movement of the teaching point PA is performed by designating the teaching point PA on the image by the designation unit 8 such as a mouse and moving it by a drag operation until it coincides with the deburring point B. Alternatively, the teaching point PA may be moved by operating the direction key of the input unit 7 or the teaching operation panel 4 and the numerical key indicating the movement amount. In such a case, the operator can easily move the teaching point PA to a desired position manually. In this case, since only a specific teaching point, for example, the teaching point PA can be moved, there is an advantage that a minimum number of teaching points can be moved.

さらに、図8は追加教示点を追加するのを説明するためのフローチャートである。また、図9(a)および図9(b)は追加教示点を追加するのを説明する図4(a)と同様な図である。以下、これら図面を参照して、教示点の追加動作について説明する。なお、図8に示される動作は、図3の動作の終了後に行われるものとする。あるいは、図8に示される動作を、図3におけるステップ105とステップ106との間で必要とされる場合に適宜行ってもよい。   FIG. 8 is a flowchart for explaining the addition of additional teaching points. FIGS. 9A and 9B are views similar to FIG. 4A for explaining the addition of additional teaching points. Hereinafter, the teaching point adding operation will be described with reference to these drawings. Note that the operation shown in FIG. 8 is performed after the operation of FIG. Alternatively, the operation shown in FIG. 8 may be appropriately performed when required between step 105 and step 106 in FIG.

はじめに、図8のステップ111において、操作者は、ワーク20の画像に表示された複数の教示点P1〜Pnのうちの隣接する二つの教示点を指定部8により指定する。図9(a)においては、隆起部22の一側に沿って位置する二つの教示点PBが指定されているものとする。   First, in step 111 in FIG. 8, the operator designates two adjacent teaching points among the plurality of teaching points P <b> 1 to Pn displayed in the image of the workpiece 20 by the designation unit 8. In FIG. 9A, it is assumed that two teaching points PB located along one side of the raised portion 22 are designated.

次いで、ステップ112においては、追加されるべき追加教示点PCの数を指定する。追加教示点PCの数を指定するときには、マウスボタンを押下げることにより表示部5aにボックスを表示し、追加教示点PCの数を入力する。追加教示点PCの数を入力するときには教示操作盤4または入力部7の数字キーを使用してもよい。   Next, in step 112, the number of additional teaching points PC to be added is designated. When designating the number of additional teaching points PC, a box is displayed on the display unit 5a by depressing the mouse button, and the number of additional teaching points PC is input. When inputting the number of additional teaching points PC, the teaching operation panel 4 or the numeric keys of the input unit 7 may be used.

次いで、ステップ113においては、指定された数の追加教示点PCが、指定された教示点PBの間の中間点に配置される。図9(b)においては、一つの追加教示点PCが二つの教示点PBの間に配置されている。また、二つ以上の追加教示点PCを配置する場合には、それら追加教示点PCは二つの教示点PBの間に等間隔で配置される。なお、追加教示点PCの位置が適切でないと判断される場合には、操作者は指定部8により追加教示点PCを指定してドラッグ操作することにより、追加教示点PCの位置を変更するようにしてもよい。   Next, in step 113, the designated number of additional teaching points PC are arranged at intermediate points between the designated teaching points PB. In FIG. 9B, one additional teaching point PC is arranged between two teaching points PB. When two or more additional teaching points PC are arranged, these additional teaching points PC are arranged at equal intervals between the two teaching points PB. If it is determined that the position of the additional teaching point PC is not appropriate, the operator designates the additional teaching point PC by the designation unit 8 and performs a drag operation to change the position of the additional teaching point PC. It may be.

次いで、ステップ114において、追加教示点PCの三次元位置を計算する。この操作は、前述した図3のステップ108と同様であるので、詳細な説明を省略する。その後、プログラム変更部11dは、追加教示点PCの三次元位置をロボット教示プログラム13に追加する。このように、図8に示される実施形態においては、教示点の数が不足する場合に追加教示点PCを容易に配置できるので、ワーク20の形状に応じたより適切なバリ取り加工が可能となるのが分かるであろう。   Next, in step 114, the three-dimensional position of the additional teaching point PC is calculated. Since this operation is the same as step 108 in FIG. 3 described above, detailed description thereof is omitted. Thereafter, the program changing unit 11 d adds the three-dimensional position of the additional teaching point PC to the robot teaching program 13. As described above, in the embodiment shown in FIG. 8, the additional teaching point PC can be easily arranged when the number of teaching points is insufficient, so that more appropriate deburring processing according to the shape of the workpiece 20 can be performed. You will understand.

さらに、図10はシミュレーション軌跡の表示を説明するためのフローチャートである。以下、図10を参照して、シミュレーション軌跡の表示について説明する。なお、図10に示される動作は、図3におけるステップ109の後で必要とされる場合に行うことができる。また図10に示される動作および後述するフローチャートの動作は図3の動作とは独立して行うようにしてもよい。   Further, FIG. 10 is a flowchart for explaining the display of the simulation trajectory. Hereinafter, the display of the simulation trajectory will be described with reference to FIG. The operation shown in FIG. 10 can be performed when necessary after step 109 in FIG. Further, the operation shown in FIG. 10 and the operation of the flowchart described later may be performed independently of the operation of FIG.

図10のステップ121においては、シミュレーション部11gがロボット教示プログラム13をシミュレーションする。これにより、ロボット2が移動するときの三次元の軌跡(シミュレーション軌跡)が得られる。次いで、ステップ122においては、撮像部6のキャリブレーションデータおよび撮像時におけるロボット2の位置を用いて、シミュレーション軌跡の二次元位置が前述したのと同様に計算される。   In step 121 of FIG. 10, the simulation unit 11 g simulates the robot teaching program 13. Thereby, a three-dimensional trajectory (simulation trajectory) when the robot 2 moves is obtained. Next, in step 122, the two-dimensional position of the simulation trajectory is calculated in the same manner as described above using the calibration data of the imaging unit 6 and the position of the robot 2 at the time of imaging.

その後、ステップ123において、シミュレーション軌跡をワーク20の画像上に表示する。これにより、シミュレーション軌跡をワーク20の画像上に表示することにより、ワーク20のバリ取り箇所を適切にバリ取り加工できるか否かを事前に確認することが可能となる。なお、修正前のロボット教示プログラム13に基づいてシミュレーションを行うようにしてもよい。この場合にも同様な効果が得られるのが分かるであろう。   Thereafter, in step 123, the simulation trajectory is displayed on the image of the workpiece 20. Thus, by displaying the simulation trajectory on the image of the workpiece 20, it is possible to confirm in advance whether or not the deburring portion of the workpiece 20 can be appropriately deburred. A simulation may be performed based on the robot teaching program 13 before correction. It will be understood that a similar effect can be obtained in this case.

さらに、図11はツールモデルの姿勢の変更を説明するためのフローチャートである。図12(a)は、ツールモデルが表示された、図4(b)と同様な図であり、図12(b)はツールモデルの姿勢の修正を説明するための、図4(b)と同様な図であり、図12(c)は、ツールモデルの姿勢を操作者が修正するのを説明するための、図4(b)と同様な図である。以下、これら図面を参照して、ツールモデルの姿勢の変更について説明する。なお、図11に示される動作は、図3におけるステップ105とステップ106との間で必要とされる場合に適宜行われるものとする。   Further, FIG. 11 is a flowchart for explaining the change of the posture of the tool model. FIG. 12A is a view similar to FIG. 4B in which the tool model is displayed, and FIG. 12B is a view similar to FIG. 4B for explaining the correction of the posture of the tool model. FIG. 12C is a diagram similar to FIG. 4B for explaining that the operator corrects the posture of the tool model. Hereinafter, with reference to these drawings, a change in the posture of the tool model will be described. It is assumed that the operation shown in FIG. 11 is appropriately performed when required between step 105 and step 106 in FIG.

はじめに、図11のステップ131において、バリ取り工具3のツールモデル15をワーク20の画像上に表示する。このようにツールモデル15を表示すると、図12(a)に示されるように二つのツールモデル15のそれぞれの先端がワーク20の一部分、例えばベース21に重なる場合がある。そのような状態においてロボット2を実際に動作させる場合には、バリ取り工具3の先端がワーク20に干渉するので、バリ取り加工を良好に行うことができない。   First, in step 131 of FIG. 11, the tool model 15 of the deburring tool 3 is displayed on the image of the workpiece 20. When the tool model 15 is displayed in this manner, the tips of the two tool models 15 may overlap a part of the workpiece 20, for example, the base 21, as shown in FIG. When the robot 2 is actually operated in such a state, the tip of the deburring tool 3 interferes with the workpiece 20, and therefore deburring cannot be performed satisfactorily.

従って、ステップ132においては、ツールモデル15のツール姿勢を変更し、それにより、バリ取り工具3とワーク20とが実際に干渉するのを避けるようにする。具体的には、前述したのと同様な手法によりワーク20の画像におけるコントラスト差からワーク20の外形を自動的に抽出する。ワーク20の外形を抽出するときには、抽出部11bが使用される。そして、ワーク20の外形とツールモデル15とを比較して、ツールモデル15がワーク20に干渉しないような位置姿勢を計算する。その後、ツールモデル姿勢変更部11hが、ツールモデル15の姿勢を計算された位置姿勢に変更する(図12(b)を参照されたい)。これにより、ワーク20の画像においては、ツールモデル15がワーク20に重ならないようになる。   Therefore, in step 132, the tool posture of the tool model 15 is changed so that the deburring tool 3 and the workpiece 20 do not actually interfere with each other. Specifically, the outer shape of the workpiece 20 is automatically extracted from the contrast difference in the image of the workpiece 20 by the same method as described above. When extracting the outer shape of the workpiece 20, the extraction unit 11b is used. Then, the outer shape of the workpiece 20 is compared with the tool model 15 to calculate a position and orientation so that the tool model 15 does not interfere with the workpiece 20. Thereafter, the tool model posture changing unit 11h changes the posture of the tool model 15 to the calculated position and posture (see FIG. 12B). As a result, the tool model 15 does not overlap the workpiece 20 in the image of the workpiece 20.

次いで、ステップ133において、ツール姿勢計算部11iは、撮像部6のキャリブレーションデータ、撮像時におけるロボット2の位置、変更後のツールモデル15の姿勢に基づいて、バリ取り工具3の三次元姿勢を計算する。前述したのと同様に、この場合にも、キャリブレーション時のロボット2の位置、撮像時におけるロボット2の位置、台座19の設置位置、ワーク20の画像の法線ベクトルなどが使用される。その後、ステップ134においては、ツール姿勢変更部11jは、バリ取り工具3の三次元姿勢に基づいて、ロボット教示プログラム13に含まれるバリ取り工具3の三次元姿勢を変更する。   Next, in step 133, the tool posture calculation unit 11i determines the three-dimensional posture of the deburring tool 3 based on the calibration data of the imaging unit 6, the position of the robot 2 at the time of imaging, and the posture of the tool model 15 after the change. calculate. As described above, in this case as well, the position of the robot 2 at the time of calibration, the position of the robot 2 at the time of imaging, the installation position of the pedestal 19, the normal vector of the image of the workpiece 20 and the like are used. Thereafter, in step 134, the tool posture changing unit 11 j changes the three-dimensional posture of the deburring tool 3 included in the robot teaching program 13 based on the three-dimensional posture of the deburring tool 3.

つまり、図11に示される実施形態においては、バリ取り工具3のツールモデル15のツール姿勢をワーク20の画像上で変更した後で、ロボット教示プログラム13に含まれるバリ取り工具3の三次元姿勢を変更している。バリ取り工具3の三次元姿勢の変更は、ツールモデル15がワーク20に干渉しないように行われるので、実際の動作においてもバリ取り工具3がワーク20に干渉しないようになる。これにより、ロボット教示プログラム13を教示修正するのに必要とされる時間および工数をさらに削減することが可能となる。   That is, in the embodiment shown in FIG. 11, after changing the tool posture of the tool model 15 of the deburring tool 3 on the image of the workpiece 20, the three-dimensional posture of the deburring tool 3 included in the robot teaching program 13. Has changed. The change of the three-dimensional posture of the deburring tool 3 is performed so that the tool model 15 does not interfere with the workpiece 20, so that the deburring tool 3 does not interfere with the workpiece 20 even in actual operation. As a result, it is possible to further reduce the time and man-hours required for correcting the teaching of the robot teaching program 13.

なお、ツールモデル15の姿勢変更は、指定部8、例えばマウスを用いて操作者が手動で行うようにしてもよい。図12(c)には、操作者が一方のツールモデル15の姿勢を回転させると共に、ツールモデル15の位置を右方に移動させている状態が示されている。このように操作者がツールモデル15の姿勢などを変更する場合には、所望のツールモデル15のみの姿勢を変更するので、必要最小限の変更で足りる。   Note that the posture of the tool model 15 may be changed manually by the operator using the designation unit 8, for example, a mouse. FIG. 12C shows a state where the operator rotates the posture of one tool model 15 and moves the position of the tool model 15 to the right. In this way, when the operator changes the posture of the tool model 15 or the like, the posture of only the desired tool model 15 is changed, so that the minimum necessary change is sufficient.

さらに、図13はロボット教示プログラムの作成を説明するためのフローチャートである。また、図14(a)は加工線が表示された、図4(a)と同様の図であり、図14(b)はバリ取り箇所と加工線とが表示された、図4(a)と同様の図であり、図14(c)は加工線が変更された状態を示す、図4(a)と同様の図である。以下、これら図面を参照して、ロボット教示プログラムの作成について説明する。   FIG. 13 is a flowchart for explaining the creation of the robot teaching program. FIG. 14A is a view similar to FIG. 4A in which a machining line is displayed, and FIG. 14B is a view in which a deburring portion and a machining line are displayed. 14 (c) is a view similar to FIG. 4 (a), showing a state in which the machining line has been changed. Hereinafter, creation of a robot teaching program will be described with reference to these drawings.

はじめに、図13のステップ141において、ワーク20のワークモデル16を表示部5aに表示する。そして、ステップ142において、操作者はワークモデル16のうちのバリ取り加工されるべき部分を指定部8により加工線として指定する。或る実施形態においては、ワークモデル16における隆起部22の稜線が加工線Lとして指定される。ワークモデル16が三次元データであるので、加工線Lも三次元データである。参考のために、図14(a)には、ワークモデル16のうちの加工線Lのみが表示部5aに表示されている。なお、加工線L内の黒三角印は、加工方向を表すものとする。   First, in step 141 of FIG. 13, the work model 16 of the work 20 is displayed on the display unit 5a. In step 142, the operator designates a part of the work model 16 to be deburred as a machining line by the designation unit 8. In an embodiment, the ridge line of the raised portion 22 in the work model 16 is designated as the processing line L. Since the work model 16 is three-dimensional data, the processing line L is also three-dimensional data. For reference, in FIG. 14A, only the machining line L of the workpiece model 16 is displayed on the display unit 5a. The black triangle mark in the processing line L represents the processing direction.

図13のステップ143からステップ145は、図3のステップ101からステップ103と同一であるので説明を省略する。なお、教示操作盤4においてはその画面が適宜分割されるとともに、コンピュータ5においては別のウィンドウが適宜表示されるものとする。   Steps 143 to 145 in FIG. 13 are the same as steps 101 to 103 in FIG. It is assumed that the screen is appropriately divided on the teaching operation panel 4 and another window is appropriately displayed on the computer 5.

その後、ステップ146において撮像部6のキャリブレーションデータ、撮像時におけるロボット2の位置を用いて加工線Lの三次元位置からワーク20の画像上における加工線Lの二次元位置を計算する。次いで、ステップ147において、加工線Lがワーク20の画像上に表示される(図14(b)を参照されたい)。   Thereafter, in step 146, the two-dimensional position of the processing line L on the image of the workpiece 20 is calculated from the three-dimensional position of the processing line L using the calibration data of the imaging unit 6 and the position of the robot 2 at the time of imaging. Next, in step 147, the processing line L is displayed on the image of the workpiece 20 (see FIG. 14B).

さらに、ステップ148において、抽出部11bが前述したようにバリ取り箇所Bを抽出する。図14(b)には、加工線Lとバリ取り箇所Bとがワーク20の画像上に表示されている。しかしながら、図14(b)に示されるように、加工線Lがバリ取り箇所Bからズレている場合および/または加工線Lの形状がバリ取り箇所Bの形状とは異なる場合がある。このような場合には、加工線Lに沿ってバリ取り加工したとしても、良好なバリ取り加工を行うことができない。   In step 148, the extraction unit 11b extracts the deburring portion B as described above. In FIG. 14B, the processing line L and the deburring portion B are displayed on the image of the workpiece 20. However, as shown in FIG. 14B, there is a case where the processing line L is deviated from the deburring location B and / or the shape of the processing line L is different from the shape of the deburring location B. In such a case, even if deburring is performed along the processing line L, good deburring cannot be performed.

従って、ステップ149においては、加工線変更部11kは、加工線Lがバリ取り箇所Bに一致するように加工線Lの二次元位置を変更する。図14(b)および図14(c)を比較して分かるように、ステップ149の処理によって、加工線Lの形状および寸法が変化しているのが分かるであろう。   Therefore, in step 149, the machining line changing unit 11k changes the two-dimensional position of the machining line L so that the machining line L matches the deburring location B. As can be seen by comparing FIG. 14B and FIG. 14C, it can be seen that the shape and dimensions of the processing line L have been changed by the processing in step 149.

次いで、ステップ150において、加工線位置計算部11lが、変更後の加工線Lの二次元位置からその三次元位置を計算して加工線Lの三次元位置を変更する。これら加工線Lの変更および三次元位置の計算などは、教示点位置変更部11cおよびプログラム変更部11dの動作と概ね同様であるので詳細な説明を省略する。   Next, in step 150, the processing line position calculation unit 11l calculates the three-dimensional position from the two-dimensional position of the changed processing line L, and changes the three-dimensional position of the processing line L. Since the change of the machining line L and the calculation of the three-dimensional position are substantially the same as the operation of the teaching point position changing unit 11c and the program changing unit 11d, detailed description thereof will be omitted.

その後、ステップ152において、教示点生成部11mは、三次元位置が変更された加工線Lに基づいて複数の教示点を作成する。最終的に、プログラム作成部11nは、そのような教示点を含んでいて加工線Lに沿った動作を行うロボット教示プログラム13を自動的に作成して、処理を終了する。   Thereafter, in step 152, the teaching point generator 11m creates a plurality of teaching points based on the machining line L whose three-dimensional position has been changed. Finally, the program creation unit 11n automatically creates a robot teaching program 13 that includes such teaching points and performs an operation along the processing line L, and ends the processing.

このように図13に示される実施形態においては、加工線Lはワーク20のバリ取り箇所Bに一致するように変更され、変更後の加工線に基づいて教示点およびロボット教示プログラム13が生成される。従って、ワーク20のバリ取り箇所Bの形状に合致したロボット教示プログラム13が得られるのが分かるであろう。   As described above, in the embodiment shown in FIG. 13, the machining line L is changed to coincide with the deburring portion B of the workpiece 20, and the teaching point and the robot teaching program 13 are generated based on the changed machining line. The Therefore, it will be understood that the robot teaching program 13 that matches the shape of the deburring portion B of the workpiece 20 is obtained.

さらに、図15はワークを撮像するためのプログラムの作成を説明するためのフローチャートである。さらに、図16(a)および図16(b)は、表示部5aと、表示部5aに表示される内容とを示す図である。以下、これら図面を参照して、ワークを撮像するためのプログラムの作成について説明する。なお、図15に示される動作は、図3におけるステップ101の前に実施するのが好ましいものとする。   FIG. 15 is a flowchart for explaining the creation of a program for imaging a workpiece. Further, FIGS. 16A and 16B are diagrams showing the display unit 5a and contents displayed on the display unit 5a. Hereinafter, creation of a program for imaging a workpiece will be described with reference to these drawings. The operation shown in FIG. 15 is preferably performed before step 101 in FIG.

はじめに図15のステップ161において、ワーク20のワークモデル16を表示部5aに表示する。図16(a)から分かるように、このときには、ツールモデル15およびロボットデータ17も一緒に表示される。そして、図16(a)の右方に示されるように、表示部5aの表示内容を、上方から見たワークモデル16に切り替える。   First, in step 161 of FIG. 15, the work model 16 of the work 20 is displayed on the display unit 5a. As can be seen from FIG. 16A, at this time, the tool model 15 and the robot data 17 are also displayed together. Then, as shown on the right side of FIG. 16A, the display content of the display unit 5a is switched to the work model 16 viewed from above.

次いで、ステップ162において、操作者は、ワークモデル16におけるバリ取り箇所Bを指定部8により指定する。その後、ステップ163において、操作者は、バリ取り箇所Bと撮像部6との間の距離および角度ならびに撮像時の条件などのパラメータを入力部7または指定部8により指定する。   Next, in step 162, the operator designates the deburring part B in the work model 16 by the designation unit 8. Thereafter, in step 163, the operator designates parameters such as a distance and an angle between the deburring point B and the imaging unit 6 and conditions at the time of imaging using the input unit 7 or the designation unit 8.

次いで、ステップ164においては、指定したパラメータを用いて、バリ取り箇所Bを撮像するためのロボット2の位置を計算する。計算されたロボット位置においては、図16(b)の右方において実線で示されるように、撮像部6のモデルはワークモデル16の真上に位置している。従って、このロボット位置においては、ワーク20の頂面図が撮像される。当然のことながら、図4(b)に示されるようなワーク20の側面図が撮像可能な位置も必要に応じて計算される。   Next, in step 164, the position of the robot 2 for imaging the deburring point B is calculated using the designated parameters. At the calculated robot position, the model of the imaging unit 6 is located immediately above the work model 16 as indicated by a solid line on the right side of FIG. Therefore, the top view of the workpiece 20 is imaged at this robot position. As a matter of course, the position where the side view of the workpiece 20 as shown in FIG. 4B can be imaged is also calculated as necessary.

その後、ステップ165においては、プログラム作成部11nは、ロボット2の位置を教示点として含んでいてワーク20を撮像するためのプログラムを作成する。あるいは、プログラム作成部11nは、ワーク20のそのような撮像指令をロボット教示プログラム13に追加するようにしてもよい。   Thereafter, in step 165, the program creation unit 11n creates a program for imaging the workpiece 20 including the position of the robot 2 as a teaching point. Alternatively, the program creation unit 11n may add such an imaging command for the workpiece 20 to the robot teaching program 13.

このようなプログラムを実行すると、これにより、実際の現場でロボット2を撮像位置に移動させて教示を行うことなしに、オフラインで撮像用のプログラムを作成できる。従って、バリ取り箇所Bの撮像工程を教示するのに必要とされる時間および工数を削減することが可能である。   When such a program is executed, an offline imaging program can be created without moving the robot 2 to the imaging position and teaching the actual site. Therefore, it is possible to reduce the time and man-hours required for teaching the imaging process of the deburring portion B.

さらに、図17および図18はそれぞれ三次元モデルの作成を説明するためのフローチャートおよび斜視図である。図17に示される動作は、図15に示されるステップ161の前に行うのが好ましい。   Further, FIGS. 17 and 18 are a flowchart and a perspective view for explaining creation of a three-dimensional model, respectively. The operation shown in FIG. 17 is preferably performed before step 161 shown in FIG.

図17のステップ171においては、ワーク20のワークモデル16を表示部5aに表示する。ここで、ワークモデル16は六面体であるものとする。そして、ステップ172においては、撮像部6が所定の撮像位置まで移動して、ワーク20を少なくとも一方向から実際に撮像する。好ましくは、ワーク20は、ワーク20の上下方向、左右方向、前後方向の合計六方向から行われる。なお、ワーク20の各撮像方向は、ワーク20の対応する面に対して垂直であるものとする。   In step 171 of FIG. 17, the work model 16 of the work 20 is displayed on the display unit 5a. Here, the work model 16 is assumed to be a hexahedron. In step 172, the imaging unit 6 moves to a predetermined imaging position and actually images the workpiece 20 from at least one direction. Preferably, the workpiece 20 is performed from a total of six directions including the vertical direction, the horizontal direction, and the front-rear direction of the workpiece 20. Note that each imaging direction of the workpiece 20 is perpendicular to the corresponding surface of the workpiece 20.

次いで、ステップ173においては、撮像されたワーク20の画像をワークモデル16の対応する面に貼付ける。図18に示されるように、ワーク20の正面画像、側面画像、背面画像などが、六面体のワークモデル16の対応する面に貼付けられる。このような画像が貼付けられたワークモデル16は、実際のワーク20と概ね同様の概観を有することになる。   Next, in step 173, the captured image of the workpiece 20 is pasted on the corresponding surface of the workpiece model 16. As shown in FIG. 18, a front image, a side image, a back image, and the like of the workpiece 20 are pasted on the corresponding surfaces of the hexahedral workpiece model 16. The work model 16 to which such an image is pasted has an appearance generally similar to that of the actual work 20.

その後、ステップ174においては、画像が貼付けられたワークモデル16が表示部5aに表示される。そして、シミュレーション部11gがロボット教示プログラム13のシミュレーションを実行する。この場合には、実際のワーク20の擬似的なモデルが使用されるので、シミュレーションによるバリ取り加工の事前確認をより正確に行うことが可能となる。当然のことながら、前述した実施形態のいくつかを適宜組合せることは本発明の範囲に含まれるのは明らかであろう。   Thereafter, in step 174, the work model 16 to which the image is pasted is displayed on the display unit 5a. Then, the simulation unit 11g executes a simulation of the robot teaching program 13. In this case, since a pseudo model of the actual workpiece 20 is used, it is possible to perform more accurate prior confirmation of the deburring process by simulation. Of course, it will be apparent that any suitable combination of some of the embodiments described above is within the scope of the present invention.

1 ロボット教示プログラム修正装置
2 ロボット
3 バリ取り工具(ツール)
4 教示操作盤
4a 表示部
5 コンピュータ
5a 表示部
6 撮像部
6a スタンド
7 入力部
8 指定部(位置指定部)
10 コントローラ
11 CPU
11a 二次元位置計算部
11b 抽出部
11c 教示点位置変更部
11d プログラム変更部
11e 教示点追加部
11g シミュレーション部
11h ツールモデル姿勢変更部
11i ツール姿勢計算部
11j ツール姿勢変更部
11k 加工線変更部
11l 加工線位置計算部
11m 教示点生成部
11n プログラム作成部
12 記憶部
13 ロボット教示プログラム
14 モデルデータ
15 ツールモデル
16 ワークモデル
17 ロボットモデル
19 台座
20 ワーク
21 ベース
22 隆起部
23 開口部
B バリ取り箇所
L 加工線
P1〜Pn 教示点
PC 追加教示点
1 Robot teaching program correction device 2 Robot 3 Deburring tool (tool)
4 Teaching operation panel 4a Display unit 5 Computer 5a Display unit 6 Imaging unit 6a Stand 7 Input unit 8 Designation unit (position designation unit)
10 Controller 11 CPU
11a Two-dimensional position calculation unit 11b Extraction unit 11c Teaching point position changing unit 11d Program changing unit 11e Teaching point adding unit 11g Simulation unit 11h Tool model posture changing unit 11i Tool posture changing unit 11j Tool posture changing unit 11k Processing line changing unit 11l Processing Line position calculation unit 11m Teaching point generation unit 11n Program creation unit 12 Storage unit 13 Robot teaching program 14 Model data 15 Tool model 16 Work model 17 Robot model 19 Pedestal 20 Work 21 Base 22 Raised part 23 Opening B Deburring part L Machining Line P1-Pn Teaching point PC Additional teaching point

Claims (7)

加工対象ワークをツールによりバリ取り加工するロボットのためのロボット教示プログラムを修正するロボット教示プログラム修正装置において、
前記加工対象ワークの画像を取得する撮像部と、
バリ取り加工用の前記ロボット教示プログラムに含まれる各教示点の三次元位置と前記撮像部により取得された前記加工対象ワークの画像とに基づいて、前記加工対象ワークの画像上における前記各教示点の二次元位置を計算する二次元位置計算部と、
前記加工対象ワークの画像と、前記二次元位置計算部により計算された前記加工対象ワークの画像上における前記各教示点の二次元位置とを表示する表示部と、
前記加工対象ワークの画像における明暗差に基づいて前記加工対象ワークのバリ取り箇所を自動的に抽出する抽出部と、
前記加工対象ワークの画像上に表示された前記教示点の二次元位置が、前記抽出部により抽出された前記バリ取り箇所に一致するように変更する教示点位置変更部と、
該教示点位置変更部により変更された前記加工対象ワークの画像上における前記各教示点の二次元位置と前記撮像部により取得された前記加工対象ワークの画像とから計算された、前記ロボット教示プログラムに含まれる前記各教示点の変更後における三次元位置に基づいて、前記ロボット教示プログラムに含まれる前記各教示点の三次元位置を変更するプログラム変更部とを具備する、ロボット教示プログラム修正装置。
In a robot teaching program correction device for correcting a robot teaching program for a robot that deburrs a workpiece to be machined with a tool,
An imaging unit for acquiring an image of the workpiece to be processed;
Based on the three-dimensional position of each teaching point included in the robot teaching program for deburring and the image of the processing target workpiece acquired by the imaging unit, each teaching point on the processing target workpiece image A two-dimensional position calculation unit for calculating the two-dimensional position of
A display unit for displaying an image of the workpiece to be processed and a two-dimensional position of each teaching point on the image of the workpiece to be processed calculated by the two-dimensional position calculator;
An extraction unit that automatically extracts a deburring portion of the workpiece to be processed based on a difference in brightness in the image of the workpiece to be processed;
A teaching point position changing unit that changes the two-dimensional position of the teaching point displayed on the image of the workpiece to be processed to match the deburring location extracted by the extracting unit;
The robot teaching program calculated from the two-dimensional position of each teaching point on the image of the workpiece to be processed changed by the teaching point position changing unit and the image of the workpiece to be processed acquired by the imaging unit A robot teaching program correction apparatus comprising: a program changing unit that changes a three-dimensional position of each teaching point included in the robot teaching program based on a three-dimensional position after changing each teaching point included in the robot.
さらに、少なくとも一つの前記教示点が前記バリ取り箇所に一致するように変更されるように前記教示点の変更後の位置を指定する位置指定部を含む請求項1に記載のロボット教示プログラム修正装置。   The robot teaching program correction device according to claim 1, further comprising a position specifying unit that specifies a position after the teaching point is changed so that at least one of the teaching point is changed so as to coincide with the deburring portion. . さらに、前記表示部に表示された前記教示点のうちの隣接する二つの教示点を指定する指定部と、
該指定部により指定された二つの教示点の間に少なくとも一つの追加教示点を配置する教示点追加部と、を具備し、
前記プログラム変更部は前記追加教示点の三次元位置を計算して前記ロボット教示プログラムに前記追加教示点を追加する請求項1または2に記載のロボット教示プログラム修正装置。
Further, a designation unit for designating two adjacent teaching points among the teaching points displayed on the display unit;
A teaching point addition unit that arranges at least one additional teaching point between two teaching points designated by the designation unit,
The robot teaching program correction device according to claim 1, wherein the program changing unit calculates a three-dimensional position of the additional teaching point and adds the additional teaching point to the robot teaching program.
さらに、前記ロボット教示プログラムをシミュレーションするシミュレーション部を具備し、
前記表示部は、前記シミュレーション部により得られたロボットの軌跡を表示する請求項1から3のいずれか一項に記載のロボット教示プログラム修正装置。
And a simulation unit for simulating the robot teaching program,
The robot teaching program correction device according to claim 1, wherein the display unit displays a robot trajectory obtained by the simulation unit.
前記表示部は、前記ロボットの前記ツールの三次元モデルを前記加工対象ワークの画像上に表示し、
前記ロボット教示プログラム修正装置はさらに、
前記ロボットの前記ツールの先端が前記加工対象ワークに干渉しないように、前記ツールの三次元モデルのツール姿勢を変更するツールモデル姿勢変更部と、
該ツールモデル姿勢変更部により変更された前記ツールの三次元モデルのツール姿勢に基づいて前記ツールの三次元姿勢を計算するツール姿勢計算部と、
該ツール姿勢計算部により計算された前記ツールの三次元姿勢に基づいて、前記ロボット教示プログラムに含まれる前記ツールの三次元姿勢を変更するツール姿勢変更部とを具備する請求項1から4のいずれか一項に記載のロボット教示プログラム修正装置。
The display unit displays a three-dimensional model of the tool of the robot on an image of the workpiece to be processed,
The robot teaching program correction device further includes:
A tool model posture changing unit that changes the tool posture of the three-dimensional model of the tool so that the tip of the tool of the robot does not interfere with the workpiece to be machined;
A tool posture calculation unit that calculates the three-dimensional posture of the tool based on the tool posture of the three-dimensional model of the tool changed by the tool model posture changing unit;
5. A tool posture changing unit that changes the three-dimensional posture of the tool included in the robot teaching program based on the three-dimensional posture of the tool calculated by the tool posture calculation unit. The robot teaching program correction device according to claim 1.
前記表示部は、前記加工対象ワークの三次元モデルを表示し、
前記ロボット教示プログラム修正装置はさらに、
前記加工対象ワークの三次元モデルにおいて撮像されるべきバリ取り箇所を指定する指定部と、
該指定部により指定された前記バリ取り箇所を前記撮像部により撮像するための前記ロボット教示プログラムを自動的に作成するプログラム作成部とを具備する、請求項1から4のいずれか一項に記載のロボット教示プログラム修正装置。
The display unit displays a three-dimensional model of the workpiece to be machined,
The robot teaching program correction device further includes:
A designation unit for designating a deburring portion to be imaged in the three-dimensional model of the workpiece to be machined;
5. A program creation unit that automatically creates the robot teaching program for imaging the deburring location designated by the designation unit by the imaging unit. 6. Robot teaching program correction device.
前記表示部は、前記加工対象ワークの六面体から構成される三次元モデルを表示し、
前記撮像部は前記加工対象ワークの少なくとも一つの面を撮像し、
前記シミュレーション部は、前記撮像部により撮像された前記加工対象ワークの前記面の画像を前記加工対象ワークの三次元モデルの対応する面に貼付けるようにした、請求項4に記載のロボット教示プログラム修正装置。
The display unit displays a three-dimensional model composed of hexahedrons of the workpiece to be machined,
The imaging unit images at least one surface of the workpiece to be machined,
The robot teaching program according to claim 4, wherein the simulation unit pastes an image of the surface of the workpiece to be machined imaged by the imaging unit to a corresponding surface of a three-dimensional model of the workpiece to be machined. Correction device.
JP2009026750A 2009-02-06 2009-02-06 Robot teaching program correction device Active JP5291482B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009026750A JP5291482B2 (en) 2009-02-06 2009-02-06 Robot teaching program correction device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009026750A JP5291482B2 (en) 2009-02-06 2009-02-06 Robot teaching program correction device

Publications (2)

Publication Number Publication Date
JP2010182210A JP2010182210A (en) 2010-08-19
JP5291482B2 true JP5291482B2 (en) 2013-09-18

Family

ID=42763756

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009026750A Active JP5291482B2 (en) 2009-02-06 2009-02-06 Robot teaching program correction device

Country Status (1)

Country Link
JP (1) JP5291482B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6457468B2 (en) 2016-12-08 2019-01-23 ファナック株式会社 Deburring device
DE112017007302B4 (en) 2017-04-27 2024-02-01 Mitsubishi Electric Corporation Machining control device, machine tool and machining control method
JP6763846B2 (en) 2017-11-24 2020-09-30 ファナック株式会社 Teaching device and teaching method for teaching robots
JPWO2022254551A1 (en) * 2021-05-31 2022-12-08
JP2023022775A (en) * 2021-08-03 2023-02-15 川崎重工業株式会社 Robot system, method for processing robot and processing program

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05345260A (en) * 1992-06-17 1993-12-27 Fanuc Ltd Ridge line shape tracking method
JPH06102919A (en) * 1992-09-22 1994-04-15 Nippon Telegr & Teleph Corp <Ntt> Method for teaching robot orbit
JP3171509B2 (en) * 1993-06-03 2001-05-28 日本電信電話株式会社 Teaching method to robot
JPH07104829A (en) * 1993-09-30 1995-04-21 Fanuc Ltd Deburring robot work automating method with visual sensor
JPH08286726A (en) * 1995-04-12 1996-11-01 Hitachi Ltd Robot teaching correction device
JP2006289580A (en) * 2005-04-13 2006-10-26 Fanuc Ltd Teaching point correcting method of program and teaching point correcting device of program

Also Published As

Publication number Publication date
JP2010182210A (en) 2010-08-19

Similar Documents

Publication Publication Date Title
JP4347386B2 (en) Processing robot program creation device
JP3732494B2 (en) Simulation device
JP4492654B2 (en) 3D measuring method and 3D measuring apparatus
JP5257335B2 (en) Method for displaying measurement effective area in three-dimensional visual sensor and three-dimensional visual sensor
JP6497953B2 (en) Offline teaching apparatus, offline teaching method, and robot system
EP3863791B1 (en) System and method for weld path generation
JP5578791B2 (en) Welding line selection method
JP4836458B2 (en) How to create an operation program
JP3673749B2 (en) Simulation device
CN104802186B (en) Make the robot programming device being used for shooting the robot program of workpiece
JP4266946B2 (en) Offline teaching device
JP2007090481A (en) Robot simulation device
JP5291482B2 (en) Robot teaching program correction device
US10406688B2 (en) Offline programming apparatus and method having workpiece position detection program generation function using contact sensor
US11446822B2 (en) Simulation device that simulates operation of robot
JP2010042466A (en) Robot teaching system and method for displaying simulation result of operation of robot
KR20170016436A (en) Teaching data-generating device and teaching data-generating method for work robot
JP2021059012A (en) Information processing device, information processing method and robot system
JP4024117B2 (en) Measurement support device
JP2019089201A (en) Teaching data creation device, method for controlling teaching data creation device, and robot system
JP2018176185A (en) Deformation processing support system and deformation processing support method
JP2020086759A (en) Three-dimensional model creation system, processing simulation system, and tool path automatic production system
JP3593456B2 (en) Sheet metal figure data generation method and automatic programming device, and storage medium storing sheet metal figure data generation program
WO2022181500A1 (en) Simulation device using three-dimensional position information obtained from output from vision sensor
WO2023073959A1 (en) Work assistance device and work assistance method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110926

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121211

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130514

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130607

R150 Certificate of patent or registration of utility model

Ref document number: 5291482

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150