JP2008020993A - Teaching data preparation device for working robot - Google Patents
Teaching data preparation device for working robot Download PDFInfo
- Publication number
- JP2008020993A JP2008020993A JP2006190357A JP2006190357A JP2008020993A JP 2008020993 A JP2008020993 A JP 2008020993A JP 2006190357 A JP2006190357 A JP 2006190357A JP 2006190357 A JP2006190357 A JP 2006190357A JP 2008020993 A JP2008020993 A JP 2008020993A
- Authority
- JP
- Japan
- Prior art keywords
- data
- robot
- teaching
- point cloud
- work
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Numerical Control (AREA)
- Manipulator (AREA)
Abstract
Description
本発明は、作業用ロボットによりワークを施工する際に必要となる教示データの作成を自動的に行うことが可能な作業用ロボットの教示データ作成装置に関する。 The present invention relates to a teaching data creation device for a working robot capable of automatically creating teaching data necessary for constructing a workpiece by the working robot.
従来、作業用ロボットの教示(ティーチング)方法としては、作業者がロボットのアームやハンドルを手で動かして教示するダイレクトティーチング、ティーチペンダントによりロボットを操作して教示するティーチングプレイバック、実際のロボットは使用せずコンピュータを利用したシュミレーションで教示するオフラインティーチングが行われている。なお、このような先行技術は、文献公知に係るものでないため、記載すべき先行技術文献情報はない。 Conventionally, teaching robot teaching methods include direct teaching in which an operator moves the robot arm and handle by hand, teaching playback in which the robot is taught by teaching pendant, and the actual robot is Off-line teaching that teaches by simulation using a computer is not used. In addition, since such prior art is not related to literature public knowledge, there is no prior art literature information to be described.
しかしながら、前記ダイレクトティーチングにあっては、作業用ロボットのアームをワークの表面に正確に当接させつつ移動させることが困難で、慎重に作業を行わざるをえず、教示データを取得するのに時間が掛かると共に、ワークが複雑な形状の場合等に、ワークの各部にアームを正確に移動させることが困難で、教示データの精度を高めることが難しい。 However, in the direct teaching, it is difficult to move the arm of the work robot while accurately contacting the surface of the work, and the work must be carefully performed to acquire teaching data. It takes time, and when the work has a complicated shape, it is difficult to accurately move the arm to each part of the work, and it is difficult to improve the accuracy of the teaching data.
また、前記ティーチングプレイバックにあっては、実際のワークとロボットを使用して教示するため、各ロボット個体間の機械的バラツキ、周囲温度変動に伴う伸縮、ワーク重量によるたわみやツールの取り付け誤差、ロボットとワークの位置関係等の影響を排除できて、精度良く教示できるという利点が得られるものの、次のような問題点を有している。すなわち、ティーチング作業をしている間、工場ラインを停止させる必要があると共に、ティーチング作業に熟練を要し、未熟練の作業者の場合にティーチング作業が長時間化し易い。また、誤操作によって教示中にロボットやツール、あるいはワーク等を破損する可能性があり、さらに、工場ラインの立ち上げ時に、ロボットを設置した後でないとティーチング作業を実施することができず、ライン立ち上げの長期化の要因ともなり易い。 Further, in the teaching playback, since teaching is performed using an actual work and a robot, mechanical variation among individual robots, expansion and contraction due to ambient temperature fluctuation, deflection due to work weight, tool installation error, Although it is possible to eliminate the influence of the positional relationship between the robot and the workpiece and to provide accurate teaching, it has the following problems. That is, it is necessary to stop the factory line during teaching work, and skill is required for teaching work, and the teaching work tends to take a long time for an unskilled worker. In addition, robots, tools, workpieces, etc. may be damaged during teaching due to incorrect operation.In addition, when starting up the factory line, the teaching work cannot be performed unless the robot is installed. It is easy to become a factor of prolonged increase.
さらに、前記オフラインティーチングにあっては、三次元CADで作成されるロボットやワーク及び設置スペース等のモデルを仮想空間上に設置し、ロボット操作のシュミレーションを実施して教示データを作成するため、前記ティーチングプレイバックの問題点はある程度解決できるものの、工場の現場で実際にティーチング作業に従事し、専用の操作器具であるティーチペンダントを用いた操作に熟練している作業者にとっては、取り扱いが不便かつ煩雑で、作業効率の低下を招くことになり易い。また、オフラインティーチングを行っても、作成したプログラムを現場で実際に動かすと位置ズレが生じ、実機で実作業を行う前に必ず位置修正作業を行う必要が生じる等、その作業に時間が掛かることになる。 Furthermore, in the off-line teaching, in order to create a teaching data by installing a model such as a robot, a workpiece, and an installation space created in 3D CAD in a virtual space, and performing a simulation of robot operation. Although the problem of teaching playback can be solved to some extent, it is inconvenient for workers who are actually engaged in teaching work at the factory site and who are skilled in operation using the teaching pendant, which is a dedicated operating instrument. It is complicated and tends to cause a reduction in work efficiency. In addition, even if offline teaching is performed, if the created program is actually moved at the site, position misalignment will occur, and it will be necessary to perform position correction work before actual work on the actual machine. become.
本発明は、このような事情に鑑みてなされたもので、ロボットに搭載した三次元スキャナのデータに基づいて教示データを短時間かつ高精度に自動的に作成し得る作業用ロボットの教示データ作成装置を提供することにある。 The present invention has been made in view of such circumstances, and it is possible to create teaching data for a working robot that can automatically create teaching data in a short time and with high accuracy based on data of a three-dimensional scanner mounted on the robot. To provide an apparatus.
本発明の請求項1に記載の作業用ロボットは、作業用ロボットに付帯して設置された三次元スキャナと、該三次元スキャナで読み取ったデータを処理する演算装置を備え、前記演算装置は、前記三次元スキャナのスキャンにより得られるワーク平面の点群データと、該スキャン時の前記作業用ロボットのアームの位置情報とを取得し、これら両情報を演算処理して教示データを作成することを特徴とする。 The working robot according to claim 1 of the present invention includes a three-dimensional scanner installed along with the working robot, and an arithmetic device that processes data read by the three-dimensional scanner, Obtaining point cloud data of the work plane obtained by scanning of the three-dimensional scanner and position information of the arm of the working robot at the time of the scanning, and processing both of them to create teaching data Features.
また、請求項2に記載の発明は、前記制御装置が、一回のスキャンで取得しきれない大きさのワークに対して、ワーク平面の点群データを複数回取得し、これら複数の点群データを合成処理して1つの点群データとすることを特徴とする。さらに、請求項3に記載の発明は、前記制御装置が、前記点群データに重複部分がある場合に、予め設定した条件により間引き合成処理することを特徴とし、また、請求項4に記載の発明は、前記制御装置が、作成した教示データが連続しない場合に、取得した画像に基づき複数の運行データを作成し、そのデータ同士を接続処理することを特徴とする。 In the invention according to claim 2, the control device acquires point cloud data of a work plane a plurality of times for a workpiece having a size that cannot be acquired by one scan, and the plurality of point clouds. It is characterized by combining the data into one point cloud data. Furthermore, the invention described in claim 3 is characterized in that the control device performs a thinning-out synthesis process according to a preset condition when there is an overlapping portion in the point cloud data. The invention is characterized in that when the created teaching data is not continuous, the control device creates a plurality of operation data based on the acquired image and performs a connection process between the data.
本発明の請求項1に記載の発明によれば、演算装置が、三次元スキャナを用いて、ワーク平面の点群データとスキャン時のアームの位置情報を取得し、これら両情報を合成処理して教示データを作成するため、三次元スキャナでワークの施工前にスキャンするだけで、教示データを短時間かつ高精度に自動的に作成することができて、作業用ロボットによるワークの施工作業を極めて能率的に行うことができる。 According to the first aspect of the present invention, the arithmetic device uses a three-dimensional scanner to acquire the point cloud data of the work plane and the position information of the arm at the time of scanning, and combines these two pieces of information. Therefore, teaching data can be automatically created in a short time and with high accuracy simply by scanning the workpiece before construction with a 3D scanner. It can be done very efficiently.
また、請求項2の発明によれば、請求項1に記載の発明の効果に加え、制御装置が所定大きさのワーク対してワーク平面の点群データを複数回取得し、これら複数の点群データを合成処理して1つの点群データとするため、大きなワークであってもその教示データを簡単かつ短時間に作成することができる。 According to the invention of claim 2, in addition to the effect of the invention of claim 1, the control device acquires point cloud data of a work plane for a work of a predetermined size a plurality of times, and the plurality of point clouds Since the data is combined into one point cloud data, the teaching data can be created easily and in a short time even for a large workpiece.
さらに、請求項3に記載の発明によれば、請求項1または2に記載の発明の効果に加え、制御装置が点群データに重複部分がある場合に、予め設定した条件により間引き合成処理するため、処理時間を短縮化させると共に一層高精度な教示データを作成することができる。 Further, according to the invention described in claim 3, in addition to the effect of the invention described in claim 1 or 2, when the control device has an overlapping portion in the point cloud data, the thinning and combining process is performed according to preset conditions. Therefore, the processing time can be shortened and more highly accurate teaching data can be created.
また、請求項4に記載の発明によれば、請求項1ないし3に記載の発明の効果に加え、作成した教示データが連続しない場合に、演算装置が取得した画像に基づき複数の運行データを作成し、そのデータ同士を接続処理するため、作業用ロボットによるワークの施工時に該ロボットを停止させることなく連続的に動作させることができて、施工の一層の能率化を図ることができる。 According to the invention described in claim 4, in addition to the effects of the invention described in claims 1 to 3, when the created teaching data is not continuous, a plurality of operation data is obtained based on the image acquired by the arithmetic device. Since the data are created and the data are connected to each other, the robot can be operated continuously without stopping the work when the work is performed by the working robot, thereby further improving the efficiency of the construction.
以下、本発明の最良の形態を図面に基づいて詳細に説明する。
図1〜図12は、本発明に係わる教示データ自動作装置の一実施形態を示し、図1がそのシステム構成図、図2が制御系のブロック図、図3が動作の一例を示すフローチャート、図4〜図12がその説明図である。
Hereinafter, the best mode of the present invention will be described in detail with reference to the drawings.
1 to 12 show an embodiment of a teaching data automatic operation apparatus according to the present invention, FIG. 1 is a system configuration diagram thereof, FIG. 2 is a block diagram of a control system, and FIG. 4 to 12 are explanatory diagrams thereof.
図1に示すように、教示データ作成装置1(以下、作成装置1という)は、作業用ロボット2(以下、ロボット2という)を有し、このロボット2は、工業製品の溶接や組み立て、塗装等を行う作業用ロボットであって、三次元的に駆動されるアーム3の例えば先端部分には三次元スキャナ4(以下、スキャナ4という)が搭載されている。なお、本実施形態では、ロボット2がアーム3の先端に溶接用のツールとしてのトーチ5を備える作業用ロボットである場合を例にして説明する。 As shown in FIG. 1, a teaching data creation device 1 (hereinafter referred to as a creation device 1) has a work robot 2 (hereinafter referred to as a robot 2). The robot 2 welds, assembles and paints industrial products. A three-dimensional scanner 4 (hereinafter referred to as a scanner 4) is mounted on, for example, the tip of the arm 3 that is three-dimensionally driven. In the present embodiment, the case where the robot 2 is a working robot provided with a torch 5 as a welding tool at the tip of the arm 3 will be described as an example.
このロボット2に搭載される前記スキャナ4は、トーチ5での溶接位置を認識するものでありロボット2の目に相当するものである。また、前記ロボット2は、その作動を制御するロボット制御装置6に接続され、このロボット制御装置6には、例えばパソコン等からなる演算装置7が接続されている。さらに、演算装置7には、スキャナ4を作動させたり該スキャナ4でスキャンしたデータを演算装置7に取り込むためのコントローラ8が接続されている。 The scanner 4 mounted on the robot 2 recognizes the welding position on the torch 5 and corresponds to the eyes of the robot 2. The robot 2 is connected to a robot control device 6 that controls the operation of the robot 2, and the robot control device 6 is connected to an arithmetic device 7 such as a personal computer. Further, a controller 8 for operating the scanner 4 and taking in data scanned by the scanner 4 to the arithmetic device 7 is connected to the arithmetic device 7.
そして、前記演算装置7は、図2に示すように、CPU9と、点群データ記憶部10及び運行データ記憶部11と、入出力制御部12等を有すると共に、入出力制御部12には、液晶ディスプレイ等の表示器13(モニター)とマウスやキーボード等の入力装置14が接続されている。また、入出力制御部12には、前記ロボット制御装置6及びコントローラ8が接続され、ロボット制御装置6にはロボット2が接続され、コントローラ8には前記スキャナ4が接続されている。 The arithmetic unit 7 includes a CPU 9, a point cloud data storage unit 10, an operation data storage unit 11, an input / output control unit 12, and the like, as shown in FIG. A display device 13 (monitor) such as a liquid crystal display and an input device 14 such as a mouse and a keyboard are connected. The input / output control unit 12 is connected to the robot control device 6 and the controller 8, the robot control device 6 is connected to the robot 2, and the controller 8 is connected to the scanner 4.
なお、前記ロボット2は、アーム3やトーチ5の位置を自ら把握するロボット座標系を有し、また、同様にスキャナ4もスキャナ座標系を備えている。そして、両者の座標系の情報を取り込んで、実際に溶接作業を制御するためのツール座標系を備えて、ロボット2の制御を行うのが、アーム3及びスキャナ4に接続された前記演算装置7である。また、図1に示すように、ロボット2のアーム3の作業範囲には、ワーク16がセットされた作業台17が設置されている。 The robot 2 has a robot coordinate system for grasping the positions of the arm 3 and the torch 5, and the scanner 4 also has a scanner coordinate system. The arithmetic unit 7 connected to the arm 3 and the scanner 4 controls the robot 2 by taking in the information of both coordinate systems and providing a tool coordinate system for actually controlling the welding operation. It is. As shown in FIG. 1, a work table 17 on which a work 16 is set is installed in the work range of the arm 3 of the robot 2.
次に、前記ロボット2の教示方法の一例を図3のフローチャート等に基づいて説明する。なお、図3のフローチャートは、演算装置7の記憶部内に予め記憶されているプログラムに従って自動的に実行される。プログラムがスタート(S100)すると、スキャナ4が作動して点群データとスキャナ4のスキャン位置データが読み込まれ、読み込みが完了したか否かが判断(S102)される。この点群データ等の読み込みに当たっては、先ず、演算装置7の表示器13に表示される図4に示すような「点群操作パラメータ」入力画面と、図5に示すような「LOOPパラメータ」入力画面に基づいて、所定のパラメータが入力される。 Next, an example of the teaching method of the robot 2 will be described based on the flowchart of FIG. The flowchart of FIG. 3 is automatically executed according to a program stored in advance in the storage unit of the arithmetic device 7. When the program starts (S100), the scanner 4 operates to read the point cloud data and the scan position data of the scanner 4, and it is determined whether or not the reading is completed (S102). In reading the point cloud data and the like, first, a “point cloud operation parameter” input screen as shown in FIG. 4 displayed on the display 13 of the arithmetic unit 7 and a “LOOP parameter” input as shown in FIG. Based on the screen, predetermined parameters are input.
この時、図4の「点群操作パラメータ」入力画面の点群の間引きパラメータP1の入力により、間引き処理が実行され、また、図5の「LOOPパラメータ」画面の各パラメータの入力により、例えば次のような設定が可能となる。すなわち、アーム方向パラメータP2への入力によりトーチ5の制御点調整が、アーム前進後退角パラメータP3への入力によりワーク16に対するトーチ5の向きが、アーム傾き角度パラメータP4への入力によりトーチ5の角度が、アーム回転角度パラメータP6への入力によりロボット手首軸の回転方向が、また、アーム臨界角度パラメータP5への入力により臨界角度が画面上で直接数値が入力されてこれが演算装置7に記憶されることになる。このうち、臨界角度の設定機能は、ソフト上ではワーク16に対し面直角で作業ツール指示を出力できるものの、実際の加工時にロボット2の動作範囲外の座標となる場合があり、このような場合に強制的に臨界角度を変更して、ロボット2が動作限界を超えるのを防止する、すなわちロボット2が実働できるデータとするためである。 At this time, the thinning-out process is executed by inputting the point cloud thinning parameter P1 on the “point cloud operation parameter” input screen in FIG. 4, and each of the parameters on the “LOOP parameter” screen in FIG. The following settings are possible. That is, the control point of the torch 5 is adjusted by inputting the arm direction parameter P2, the direction of the torch 5 with respect to the workpiece 16 is input by inputting the arm advance / retreat angle parameter P3, and the angle of the torch 5 is input by inputting the arm inclination angle parameter P4. However, the rotation direction of the robot wrist axis is input by inputting the arm rotation angle parameter P6, and the critical angle is directly input on the screen by the input to the arm critical angle parameter P5, and this is stored in the arithmetic unit 7. It will be. Of these, the critical angle setting function can output work tool instructions at right angles to the workpiece 16 on the software, but may be out of the range of motion of the robot 2 during actual machining. This is because the critical angle is forcibly changed to prevent the robot 2 from exceeding the operation limit, that is, the robot 2 can be used as data that can be actually operated.
各種パラメータP1〜P6が入力設定された状態で、スキャナ4が作動して点群データとスキャン位置データが読み込まれ、これらのデータの演算装置7への読み込みが完了すると、図3の判断S102で「YES」となり、演算装置7において読み込んだ点群データとスキャナ位置データとがデータ合成(S103)されて表示器13に表示され、この表示された画面上でマウスにより後述する基準線等の教示基準が入力(S104)される。教示基準が入力されると解析パラメータが入力(S105)され、この入力された解析パラメータにより解析処理(S106)が実行される。そして、解析結果の良否が判断(S107)されて、この判断で「NG」の場合は、ステップS105に戻り解析パラメータが再度入力される。 With the various parameters P1 to P6 being input and set, the scanner 4 operates to read the point cloud data and the scan position data, and when the reading of these data into the arithmetic unit 7 is completed, the decision S102 in FIG. The answer is “YES”, and the point cloud data and the scanner position data read by the arithmetic unit 7 are combined (S103) and displayed on the display unit 13. On the displayed screen, teaching of a reference line or the like to be described later is performed with the mouse. A reference is input (S104). When the teaching standard is input, an analysis parameter is input (S105), and an analysis process (S106) is executed based on the input analysis parameter. Then, the quality of the analysis result is judged (S107). If the judgment is “NG”, the process returns to step S105 and the analysis parameters are input again.
一方、判断S107で「OK」の場合は、解析したデータ(教示データ)を演算装置7内の記憶部に記憶(S108)させる。このステップS103からステップS108までが演算装置7内で実行(処理)され、その後、演算装置7内に記憶されたデータがロボット制御装置6にデータ伝送(S109)されて、データ伝送が完了したか否かが判断(S110)され、この判断S110で「YES」の場合に、ロボット2が実際に動作(S111)して、一連のプログラムがストップ(S112)する。 On the other hand, if “OK” is determined in the determination S107, the analyzed data (teaching data) is stored in the storage unit in the arithmetic unit 7 (S108). Whether step S103 to step S108 are executed (processed) in the arithmetic unit 7, and then the data stored in the arithmetic unit 7 is transmitted to the robot controller 6 (S109), and the data transmission is completed. It is determined whether or not (S110). If “YES” in this determination S110, the robot 2 actually operates (S111), and the series of programs stops (S112).
ここで、前記演算装置7における具体的な教示データの作成方法を、各種ワークの形態に基づき説明する。先ず、ワーク16が図6に示すような渦巻き型の場合は、演算装置7の表示器13の画面上に表示された点群データ上で入力装置としてのマウスで指示した図の白の太線で示す線を基準線とし、この基準線の内側と外側に一定ピッチで渦を巻くように凹凸に沿った状態で教示点を作成する。この時、ピッチ及び内側、外側の範囲等については、前出したステップS105における解析パラメータの値を変更することにより任意に変更でき、渦巻きの方向も右か左かを設定することで簡単に行うことができる。また、開始点と終了点もマウスの指示により行うことができる。 Here, a specific method of creating teaching data in the arithmetic unit 7 will be described based on various work forms. First, when the workpiece 16 is a spiral type as shown in FIG. 6, the white thick line in the figure indicated by the mouse as the input device on the point cloud data displayed on the screen of the display unit 13 of the arithmetic unit 7. Using the indicated line as a reference line, teaching points are created in a state along the irregularities so that vortices are wound at a constant pitch inside and outside the reference line. At this time, the pitch, the inner and outer ranges, and the like can be arbitrarily changed by changing the value of the analysis parameter in step S105, and can be easily performed by setting the direction of the spiral to the right or left. be able to. Moreover, the start point and the end point can also be performed by a mouse instruction.
また、このデータ合成時に、前記基準線が図7に示すように複雑に曲がっている場合は、マウスで指示した線を基準にして、左右に一定ピッチで凹凸に沿って行ったり来たりした状態で教示点が作成される。この時も、ピッチ及び右側、左側の対称範囲については、図8に示す専用パラロータの入力画面を用いて解析時のパラメータを変更することにより任意に変更され、マウスの指示により開始点を決めたり、終了点は開始点と同一方向でも反対方向でも自由に指示することができるようになっている。 In addition, if the reference line is bent in a complicated manner as shown in FIG. 7 at the time of this data synthesis, it is a state in which the reference line with the mouse is used as a reference, and it has moved back and forth along the unevenness at a constant pitch from side to side. A teaching point is created by. At this time as well, the pitch and the right and left symmetry ranges are arbitrarily changed by changing the parameters at the time of analysis using the input screen of the dedicated pararotor shown in FIG. The end point can be freely designated either in the same direction as the start point or in the opposite direction.
さらに、図9に示すように、ワーク16の形状全体を対象とする場合は、点群データの中心部にマウスで直線と実ワークの点群位置を把握するために点群の縁を囲む線を引き、点群データの縁の点を用いて対象形状を忠実に延長することにより、ワーク16の形状を崩さずに解析時に必要なエリアを確保する処理を行う。そして、その後、最初に囲んだワーク16の縁の線より二回り大きい囲み線を教示し、この線の内側に階段状の一定ピッチで凹凸に沿った状態で教示点が作成されることにより、実ワークより大きな範囲で移動させるティーチングデータが作成できる。この場合も、図10に示す専用のパラメータ画面等を用いてピッチ及び解析時のパラメータの値を変更することにより任意に変更でき、また、マウスの指示により、開始点を決めることができ、終了点も開始点と同一方向または反対方向に自由に指示することができる。 Furthermore, as shown in FIG. 9, when the entire shape of the workpiece 16 is targeted, a line that surrounds the edge of the point group in order to grasp the position of the point group of the straight line and the actual workpiece with the mouse at the center of the point cloud data. And the target shape is faithfully extended using the edge points of the point cloud data, thereby performing a process of securing an area necessary for analysis without destroying the shape of the workpiece 16. Then, a surrounding line that is twice larger than the edge line of the workpiece 16 that is initially enclosed is taught, and a teaching point is created in a state along the irregularities at a constant stepwise pitch inside this line, Teaching data to be moved within a larger range than actual work can be created. In this case as well, the pitch and the parameter value at the time of analysis can be changed arbitrarily using the dedicated parameter screen shown in FIG. 10, and the start point can be determined by the instruction of the mouse. The point can also be freely indicated in the same direction as the starting point or in the opposite direction.
また、図11に示すように、一つのワーク中で運行させたい経路が連続的に作成できないワーク16の場合は、取得したデータでそれぞれの解析パラメータ条件により運行経路データを作成し、その運行経路データ同士を、図12の「運行経路データの接続」画面で設定することにより、ロボット2を連続的に動作させることができる。 In addition, as shown in FIG. 11, in the case of a work 16 in which a route to be operated in one work cannot be created continuously, operation route data is created from the acquired data according to each analysis parameter condition, and the operation route is obtained. The robot 2 can be operated continuously by setting the data on the “connection of operation route data” screen of FIG.
このように、本発明に係わる作成装置1で教示データを作成できるワーク16の種類等は、上記した各例に限定されず、これ以外にも、スキャナ4を用いてワーク16をデータ化できてしまえば、三次元CADデータに頼ることなく各種ワーク形状に対応することができる。 As described above, the types of the workpieces 16 that can create the teaching data by the creating apparatus 1 according to the present invention are not limited to the above examples, but other than this, the workpieces 16 can be converted into data using the scanner 4. If this is the case, it is possible to deal with various workpiece shapes without relying on three-dimensional CAD data.
つまり、上記実施形態の作成装置1によれば、ロボット2のアーム3にスキャナ4を搭載し、このスキャナ4で読み込まれた点群データと、スキャナ4(アーム3)の位置データとを合成処理して模擬的に一回でスキャンしたデータとして取り扱うと共に、複数回に分けて点群を取得するうえで重なった箇所が存在する場合は、これをデータ処理により重なった点群部分がなくなるようにしている。 That is, according to the creation apparatus 1 of the above-described embodiment, the scanner 4 is mounted on the arm 3 of the robot 2, and the point cloud data read by the scanner 4 and the position data of the scanner 4 (arm 3) are combined. As a result, the data is processed as a single scanned data, and if there are overlapping points when acquiring point clouds in multiple times, this is done so that the overlapping point groups are eliminated by data processing. ing.
また、ロボット2に教示させる場合は、演算装置7内の表示器13に表示された点群データ上をマウスでクリックし連続した点として指示し、点群データからポリゴン処理を施すことにより面法線を導き出し、法線情報を基にロボット2の手首角度情報を付加してロボット2が動く場合にのみ必要な教示データが作成される。そして、作成された教示データは、ロボット制御装置6に通信にて伝送し、実際にロボット2が作業を開始することになる。 When the robot 2 is to be taught, the surface method is performed by clicking on the point cloud data displayed on the display unit 13 in the arithmetic unit 7 with the mouse to indicate as a continuous point and performing polygon processing from the point cloud data. The teaching data required only when the robot 2 moves by deriving the line and adding the wrist angle information of the robot 2 based on the normal information is created. Then, the created teaching data is transmitted to the robot control device 6 by communication, and the robot 2 actually starts work.
これにより、例えば1万ポイントの教示データを作成する場合でも、従来の作業者が教示ポイントを入力するという方法の場合には2〜3日必要であった作業を、点群合成処理等が完了してしまえば演算装置7内において1分程度で作成することができる。また、スキャナ4の1スキャン時間は、ロボット2の移動時間を合わせても約20秒程度で、必要回数に合わせてスキャンすることになり、また、演算装置7からロボット制御装置6への座標伝送速度は約80ポイント/秒とした場合、1万ポイントを伝送する場合125秒程度必要となるが、従来の方法に比較すれば格段の時間短縮となる。 As a result, for example, even when 10,000 points of teaching data are created, the point cloud composition processing and the like are completed for the work that required 2 to 3 days in the case of a method in which a conventional worker inputs teaching points. Then, it can be created in about one minute in the arithmetic unit 7. The scanning time of the scanner 4 is about 20 seconds even when the movement time of the robot 2 is combined, and scanning is performed according to the required number of times. Also, coordinate transmission from the arithmetic device 7 to the robot control device 6 is performed. When the speed is about 80 points / second, it takes about 125 seconds to transmit 10,000 points, but the time is significantly reduced compared with the conventional method.
さらに、ロボット2の外部で教示データを作成した場合、実際に作業をさせるにあたってはロボット2とワーク16の据え付け位置を調整する必要があるが、前記作成装置1では、作業するロボット2自体が搭載したスキャナ4で据え付けられたワーク16の点群データを作業直前にデータ化すれば良く、自動的にワーク16との位置関係が認識されて、作業者が据え付け位置を気にする必要がなく作業を行うことができる。 Furthermore, when teaching data is created outside the robot 2, it is necessary to adjust the installation positions of the robot 2 and the workpiece 16 in order to actually perform the work. In the creating apparatus 1, the working robot 2 itself is mounted. The point cloud data of the workpiece 16 installed by the scanner 4 may be converted into data immediately before the operation, and the positional relationship with the workpiece 16 is automatically recognized so that the operator does not have to worry about the installation position. It can be performed.
このように上記作成装置1によれば、施工する前にワーク16そのものをデータ化しているため、三次元CADデータの必要性がなくなり、ワーク16のデータと一緒にワーク16とロボット2の位置関係も含まれているので、後から別の手順で位置データとワーク16の据え付け位置を合わせる必要がなくなる。したがって、必要な条件数値を演算装置7に打ち込みだけで、誰でも精度の良いロボット教示データを短時間で作成することが可能となり、ロボット2を運用するにあたって最も工数の掛かる教示作業を極めて簡略化することができる。 As described above, according to the creation device 1, since the work 16 itself is converted into data before construction, the need for 3D CAD data is eliminated, and the positional relationship between the work 16 and the robot 2 together with the data of the work 16 is eliminated. Therefore, it is not necessary to match the position data and the installation position of the workpiece 16 later in a separate procedure. Therefore, it is possible for anyone to create highly accurate robot teaching data in a short time by simply inputting the necessary condition values into the arithmetic unit 7, and the teaching work that requires the most man-hours when operating the robot 2 is greatly simplified. can do.
なお、上記実施形態においては、スキャナ4がロボット2のアーム3に搭載されている場合について説明したが、本発明はこの構成に限定されず、例えばロボット2との位置(座標)が予め確定しておれば、スキャナ4をロボット2とは別体で所定位置に設置したり図示しないスライダー上に移動可能に設置する等、適宜の構成を採用することができる。 In the above embodiment, the case where the scanner 4 is mounted on the arm 3 of the robot 2 has been described. However, the present invention is not limited to this configuration. For example, the position (coordinates) with the robot 2 is determined in advance. In this case, it is possible to adopt an appropriate configuration such as installing the scanner 4 at a predetermined position separately from the robot 2 or movably installing it on a slider (not shown).
本発明に係わる作成装置は、溶接用のトーチを備えた作業用ロボットの教示作業に限定されず、アームを有しこのアームに三次元スキャナが搭載可能な他の全ての作業ロボットの教示作業に適用できる。 The production apparatus according to the present invention is not limited to teaching work of a working robot equipped with a welding torch, but is used for teaching work of all other working robots having an arm and a three-dimensional scanner mounted on the arm. Applicable.
1・・・・・・・教示データ作成装置
2・・・・・・・作業用ロボット
3・・・・・・・アーム
4・・・・・・・三次元スキャナ
5・・・・・・・トーチ
6・・・・・・・ロボット制御装置
7・・・・・・・演算装置
8・・・・・・・コントローラ
9・・・・・・・CPU
10・・・・・・点群データ記憶部
11・・・・・・運行データ記憶部
12・・・・・・入出力制御部
13・・・・・・表示器
14・・・・・・入力装置
16・・・・・・ワーク
17・・・・・・作業台
1 ... Teaching data creation device 2 ... Work robot 3 ... Arm 4 ... 3D scanner 5 ...・ Torch 6 ・ ・ ・ ・ ・ ・ ・ ・ ・ ・ ・ Robot controller 7 ・ ・ ・ ・ ・ ・ Operating device 8 ・ ・ ・ ・ ・ ・ Controller 9 ・ ・ ・ ・ ・ ・ CPU
10. Point cloud data storage unit 11 Operation data storage unit 12 Input / output control unit 13 Display 14 Input device 16 ... Work 17 ... Work table
Claims (4)
前記演算装置は、前記三次元スキャナのスキャンにより得られるワーク平面の点群データと、該スキャン時の前記作業用ロボットのアームの位置情報とを取得し、これら両情報を演算処理して教示データを作成することを特徴とする作業用ロボットの教示データ作成装置。 A three-dimensional scanner attached to the work robot, and an arithmetic unit for processing data read by the three-dimensional scanner,
The arithmetic unit obtains point cloud data of a work plane obtained by scanning with the three-dimensional scanner and position information of the arm of the working robot at the time of the scan, and performs arithmetic processing on both pieces of information to teach data. A teaching data creation device for a working robot, characterized in that
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006190357A JP2008020993A (en) | 2006-07-11 | 2006-07-11 | Teaching data preparation device for working robot |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006190357A JP2008020993A (en) | 2006-07-11 | 2006-07-11 | Teaching data preparation device for working robot |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008020993A true JP2008020993A (en) | 2008-01-31 |
Family
ID=39076888
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006190357A Pending JP2008020993A (en) | 2006-07-11 | 2006-07-11 | Teaching data preparation device for working robot |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2008020993A (en) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9126338B2 (en) | 2012-08-16 | 2015-09-08 | Hanwha Techwin Co., Ltd. | Robot system and method for driving the same |
WO2015146658A1 (en) * | 2014-03-28 | 2015-10-01 | 株式会社日立産機システム | Image data editing device, image data editing method, and image data editing program |
KR20170016436A (en) | 2014-06-06 | 2017-02-13 | 나부테스코 가부시키가이샤 | Teaching data-generating device and teaching data-generating method for work robot |
JP2021137940A (en) * | 2020-03-09 | 2021-09-16 | リンクウィズ株式会社 | Information processing method, information processing system and program |
WO2022009710A1 (en) * | 2020-07-06 | 2022-01-13 | ジャパンマリンユナイテッド株式会社 | Operation automatic generation method and operation automatic generation system for welding robot |
WO2023105977A1 (en) * | 2021-12-08 | 2023-06-15 | パナソニックIpマネジメント株式会社 | Offline teaching device and offline teaching method |
WO2023105978A1 (en) * | 2021-12-08 | 2023-06-15 | パナソニックIpマネジメント株式会社 | Offline teaching device |
WO2023105980A1 (en) * | 2021-12-08 | 2023-06-15 | パナソニックIpマネジメント株式会社 | Offline teaching device and offline teaching method |
WO2023234290A1 (en) * | 2022-06-01 | 2023-12-07 | リンクウィズ株式会社 | Work path generation system and work path generation method |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS63257877A (en) * | 1987-04-16 | 1988-10-25 | Mitsubishi Heavy Ind Ltd | Curved surface generating method |
JPH01147704A (en) * | 1987-12-04 | 1989-06-09 | Mitsubishi Heavy Ind Ltd | Profiling digitizing device |
JPH06102919A (en) * | 1992-09-22 | 1994-04-15 | Nippon Telegr & Teleph Corp <Ntt> | Method for teaching robot orbit |
JPH06309023A (en) * | 1993-04-26 | 1994-11-04 | Okuma Mach Works Ltd | Method for generating machining data |
-
2006
- 2006-07-11 JP JP2006190357A patent/JP2008020993A/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS63257877A (en) * | 1987-04-16 | 1988-10-25 | Mitsubishi Heavy Ind Ltd | Curved surface generating method |
JPH01147704A (en) * | 1987-12-04 | 1989-06-09 | Mitsubishi Heavy Ind Ltd | Profiling digitizing device |
JPH06102919A (en) * | 1992-09-22 | 1994-04-15 | Nippon Telegr & Teleph Corp <Ntt> | Method for teaching robot orbit |
JPH06309023A (en) * | 1993-04-26 | 1994-11-04 | Okuma Mach Works Ltd | Method for generating machining data |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9126338B2 (en) | 2012-08-16 | 2015-09-08 | Hanwha Techwin Co., Ltd. | Robot system and method for driving the same |
WO2015146658A1 (en) * | 2014-03-28 | 2015-10-01 | 株式会社日立産機システム | Image data editing device, image data editing method, and image data editing program |
JPWO2015146658A1 (en) * | 2014-03-28 | 2017-04-13 | 株式会社日立産機システム | Image data editing apparatus, image data editing method, and image data editing program |
KR20170016436A (en) | 2014-06-06 | 2017-02-13 | 나부테스코 가부시키가이샤 | Teaching data-generating device and teaching data-generating method for work robot |
JP2021137940A (en) * | 2020-03-09 | 2021-09-16 | リンクウィズ株式会社 | Information processing method, information processing system and program |
WO2022009710A1 (en) * | 2020-07-06 | 2022-01-13 | ジャパンマリンユナイテッド株式会社 | Operation automatic generation method and operation automatic generation system for welding robot |
JP2022014138A (en) * | 2020-07-06 | 2022-01-19 | ジャパンマリンユナイテッド株式会社 | Automatic operation-generation method and automatic operation-generation system for welding robot |
WO2023105977A1 (en) * | 2021-12-08 | 2023-06-15 | パナソニックIpマネジメント株式会社 | Offline teaching device and offline teaching method |
WO2023105978A1 (en) * | 2021-12-08 | 2023-06-15 | パナソニックIpマネジメント株式会社 | Offline teaching device |
WO2023105980A1 (en) * | 2021-12-08 | 2023-06-15 | パナソニックIpマネジメント株式会社 | Offline teaching device and offline teaching method |
WO2023234290A1 (en) * | 2022-06-01 | 2023-12-07 | リンクウィズ株式会社 | Work path generation system and work path generation method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2008020993A (en) | Teaching data preparation device for working robot | |
EP2375298B1 (en) | Programming method for a robot, programming apparatus for a robot, and robot control system | |
JP5981143B2 (en) | Robot tool control method | |
JP2006247677A (en) | Laser welding instruction device and method | |
EP2381325A1 (en) | Method for robot offline programming | |
JP7048539B2 (en) | Vibration display device, operation program creation device, and system | |
EP2954987A1 (en) | Teaching system, robot system, and teaching method | |
US20120031886A1 (en) | Offline teaching method | |
WO2011039542A1 (en) | Method and system of programming a robot | |
JP6677706B2 (en) | Link information generation device, link information generation method, and link information generation program | |
JP2013257809A (en) | Tool locus display device displaying tool vector of machine tool | |
JP2019089201A (en) | Teaching data creation device, method for controlling teaching data creation device, and robot system | |
KR20070068797A (en) | Automation processing method for propeller | |
CN114746207B (en) | Repair welding equipment and repair welding method | |
JP2006072673A (en) | Positioner setting method for welding robot | |
JP2010149225A (en) | Robot system, device and method for controlling robot system | |
JPH0699377A (en) | Method for teaching robot track | |
WO2024009484A1 (en) | Control device and control method | |
JPH0699376A (en) | Method and system for teaching robot track | |
Larkin et al. | Offline programming for short batch robotic welding | |
JP2017121687A (en) | Control method for robot system | |
US11654562B2 (en) | Apparatus, robot control device, robot system, and method of setting robot coordinate system | |
WO2022163580A1 (en) | Processing method and processing device for generating cross-sectional image from three-dimensional position information acquired by visual sensor | |
WO2023053348A1 (en) | Teaching device and teaching method for teaching operation of laser machining device, and device and method for generating interference confirmation program | |
JP2023180920A (en) | Robot motion trajectory generation method, motion trajectory generation device, robot system, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090707 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100705 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110913 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20120202 |