JP2011104759A - Teaching auxiliary tool for robot control system, teaching method using the teaching auxiliary tool, and robot control system performing teaching by the teaching method - Google Patents

Teaching auxiliary tool for robot control system, teaching method using the teaching auxiliary tool, and robot control system performing teaching by the teaching method Download PDF

Info

Publication number
JP2011104759A
JP2011104759A JP2009265704A JP2009265704A JP2011104759A JP 2011104759 A JP2011104759 A JP 2011104759A JP 2009265704 A JP2009265704 A JP 2009265704A JP 2009265704 A JP2009265704 A JP 2009265704A JP 2011104759 A JP2011104759 A JP 2011104759A
Authority
JP
Japan
Prior art keywords
teaching
control system
robot control
robot
pyramid
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009265704A
Other languages
Japanese (ja)
Inventor
Hiroshi Yonezawa
浩 米澤
Mitsutoshi Nomura
光俊 野村
Koichi Hamada
航一 濱田
Hironobu Takahashi
裕信 高橋
Kenshin Cho
建新 張
Atsushi Sato
佐藤  淳
Masakazu Kadouchi
正和 門内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Idec Corp
Applied Vision Systems Corp
Original Assignee
Idec Corp
Applied Vision Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Idec Corp, Applied Vision Systems Corp filed Critical Idec Corp
Priority to JP2009265704A priority Critical patent/JP2011104759A/en
Publication of JP2011104759A publication Critical patent/JP2011104759A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Numerical Control (AREA)
  • Manipulator (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a teaching auxiliary tool for a robot control system capable of further simplifying teaching work and shortening a teaching time, a teaching method using the teaching auxiliary tool, and a robot control system for performing teaching by the teaching method. <P>SOLUTION: A teaching tool 50, i.e., one embodiment of the teaching auxiliary tool for the robot control system capable of performing teaching using an imaging device includes a tool body 51 having a triangular pyramid 52 in which colors of pyramid surfaces 52a, 52b, 52c are different from one another; and a handle 54 connected to the tool body 51. <P>COPYRIGHT: (C)2011,JPO&amp;INPIT

Description

本発明は、ロボット制御システムの教示用補助具、その教示用補助具を用いた教示方法、およびその教示方法によって教示を行うロボット制御システムに関し、特に、カメラなどの撮像装置を用いて教示を行うことが可能なロボット制御システムの教示用補助具、その教示用補助具を用いた教示方法、およびその教示方法によって教示を行うロボット制御システムに関する。   The present invention relates to a teaching aid for a robot control system, a teaching method using the teaching aid, and a robot control system that teaches using the teaching method, and in particular, teaching using an imaging device such as a camera. The present invention relates to a teaching aid for a robot control system capable of teaching, a teaching method using the teaching aid, and a robot control system for teaching by the teaching method.

産業用ロボットは、一般に、旋回可能かつ上下動可能なロボットアームと、ロボットアームの先端に設けられ、ワーク(部品)を把持するためのチャック部を有するロボットハンドと、ロボットアームおよびロボットハンドを所定の制御プログラムにしたがって駆動制御する制御部とを備えている。また、自動組立装置は、ワークテーブル面上のそれぞれ所定位置に配置された、多数の部品を収容する複数の部品供給トレイと、部品の組み立てを行うための組立用治具とを有している。   Industrial robots generally have a robot arm that can be swiveled and moved up and down, a robot hand that is provided at the tip of the robot arm and has a chuck portion for gripping a workpiece (part), and a robot arm and a robot hand. And a control unit that controls driving according to the control program. The automatic assembling apparatus includes a plurality of component supply trays for storing a large number of components, which are arranged at predetermined positions on the work table surface, and an assembly jig for assembling the components. .

自動組立装置の運転時には、ロボットアームを駆動して、ロボットハンドを所定の部品供給トレイの位置まで移動させ、先端のチャック部で部品を把持する。この状態から、ロボットアームを駆動して、ロボットハンドを組立用治具の位置まで移動させ、チャック部に把持されていた部品を組立用治具に組み付ける。以下、同様の動作を繰り返すことにより、所望の機器が自動的に組み立てられることになる。   During operation of the automatic assembly apparatus, the robot arm is driven, the robot hand is moved to the position of a predetermined component supply tray, and the component is gripped by the tip chuck portion. From this state, the robot arm is driven, the robot hand is moved to the position of the assembly jig, and the part held by the chuck portion is assembled to the assembly jig. Thereafter, by repeating the same operation, a desired device is automatically assembled.

このような産業用ロボットを含む自動組立装置においては、自動運転を開始する前に、ロボットに対して動作基準座標や動作手順等を教示するティーチングという作業が必要になる。従来のティーチング作業では、パソコン上のコンピュータシミュレーションなどにより、概略の座標位置を求めた後、作業者が、ティーチングペンダントやティーチングボックスを用いて実際にロボットハンドをマニュアル操作することにより、正確な座標位置の設定を行うようにしている(例えば、特許文献1および特許文献2参照)。また、例えば、溶接の自動化においては、トーチ経路やトーチ角度の教示が必要である。   In such an automatic assembling apparatus including an industrial robot, before starting an automatic operation, an operation called teaching for teaching the operation reference coordinates and the operation procedure to the robot is required. In conventional teaching work, an approximate coordinate position is obtained by computer simulation on a personal computer, etc., and then the operator manually operates the robot hand manually using a teaching pendant or teaching box. (See, for example, Patent Document 1 and Patent Document 2). Further, for example, in welding automation, teaching of a torch path and a torch angle is necessary.

上述したティーチング作業では、細かな座標位置の設定が非常に煩雑であって所要時間も長くなるという問題点があったため、ティーチング作業の簡略化およびティーチング時間の短縮を可能とする技術も提案されている(例えば、特許文献3参照)。   In the teaching work described above, setting the detailed coordinate position is very complicated and requires a long time, so a technique that can simplify the teaching work and shorten the teaching time has been proposed. (For example, see Patent Document 3).

この特許文献3で提案されているロボット制御システムは、ロボットアームと、ロボットアームの先端に設けられ、ワーク把持用チャック部を有するロボットハンドとを含むロボットと、前記ロボットに対してティーチング入力を行うための操作部と、少なくともワークを撮影できるカメラ部と、前記操作部にティーチング入力された所定の座標位置を前記カメラ部で撮影された画像に基づいて補正して、補正された座標位置に移動するように前記ロボットを駆動制御する制御部と、を備えることを特徴とするものである。   The robot control system proposed in Patent Document 3 performs teaching input to the robot including a robot arm, a robot provided at the tip of the robot arm and having a workpiece gripping chuck portion, and the robot. And a camera unit that can photograph at least a workpiece, and a predetermined coordinate position input by teaching on the operation unit is corrected based on an image captured by the camera unit and moved to the corrected coordinate position. And a control unit that drives and controls the robot.

その他、ティーチングペンダントを用いてワーク把持時のロボットハンドの動作を教示するときに、その操作を簡単に行うことができるロボットとワーク把持方法(例えば、特許文献4参照)や、ステレオカメラを有しており、ワークの三次元位置姿勢及び形態を簡便迅速に計測し、計測された情報によりロボットアーム先端部及びロボットハンドを迅速かつ精密に操作できるステレオ画像型検出移動装置(例えば、特許文献5参照)なども提案されている。   In addition, when teaching the operation of the robot hand at the time of workpiece gripping using a teaching pendant, a robot and a workpiece gripping method (for example, refer to Patent Document 4) and a stereo camera are provided. A stereo image type detection and movement device that can easily and quickly measure the three-dimensional position and orientation of the workpiece and quickly and precisely operate the robot arm tip and the robot hand based on the measured information (see, for example, Patent Document 5) ) Etc. are also proposed.

特開2000−354919号公報JP 2000-354919 A 特開2006−043844号公報JP 2006-043844 A 特開2009−000782号公報JP 2009-000782 A 特開2006−346792号公報JP 2006-346792 A 特開2009−241247号公報JP 2009-241247 A

しかしながら、上述のような従来技術においてティーチングペンダントなどによるティーチング作業を行う際、少なくとも初回はロボットハンドの位置や向きを複雑に変更させることを繰り返す必要がある。そのため、ティーチング作業はやはり非常に煩雑であって所要時間も長かった。   However, when performing teaching work using a teaching pendant or the like in the conventional technology as described above, it is necessary to repeat changing the position and orientation of the robot hand in a complicated manner at least for the first time. Therefore, the teaching work is still very complicated and takes a long time.

最近では、ロボット導入台数の増加および製品の多種多様化に伴い、必要とされるティーチング工数が急増している。一方で、製造現場では慢性的に人員が不足しており、特にティーチング作業の熟練者が極めて不足している。また、製造現場で実際に使用されているロボットにティーチングを行うときには、そのロボットが設置されている製造ラインなどが停止することになるので、その製造ラインの稼働率が低下してしまう。   Recently, with the increase in the number of robots introduced and the diversification of products, the required teaching man-hours are rapidly increasing. On the other hand, there is a chronic shortage of personnel at the manufacturing site, and in particular, there is an extremely shortage of skilled workers in teaching work. In addition, when teaching a robot that is actually used at a manufacturing site, the manufacturing line on which the robot is installed is stopped, so that the operating rate of the manufacturing line is lowered.

ロボット制御システムの教示補助具を、ロボットの先端部分の位置と向きに合わせて設置し、その3次元位置情報および3次元方向情報を計測すればよいが、例えば機械式の3次元計測機に接続した場合は、その設置場所が必要であり、また周辺の冶具等と計測機の各部分が機械的に干渉し、計測できない場合が多いことが課題となっている。   The teaching aid of the robot control system may be installed in accordance with the position and orientation of the tip of the robot, and its three-dimensional position information and three-dimensional direction information may be measured. For example, it is connected to a mechanical three-dimensional measuring machine. In such a case, the installation location is required, and there are many cases where measurement cannot be performed due to mechanical interference between peripheral jigs and the respective parts of the measuring instrument.

教示補助具をカメラにより撮影し、画像内の位置から計測する方法があり、この方法では機械的な干渉の問題を避けることができるが、同様に冶具等に一部隠され、全体が見えないためにその3次元位置情報と3次元方向情報を計測することが課題となる。また周辺環境の他の機材等と、教示補助具を明確に識別することも課題となる。   There is a method of shooting the teaching aid with a camera and measuring it from the position in the image. This method can avoid the problem of mechanical interference, but it is also partially hidden by jigs and the like and can not be seen completely. Therefore, measuring the three-dimensional position information and the three-dimensional direction information becomes a problem. It is also a problem to clearly identify teaching aids from other equipment in the surrounding environment.

従来技術のこのような課題に鑑み、本発明の目的は、ティーチング作業をより簡略するとともにティーチング時間のさらなる短縮を可能とするためのロボット制御システムの教示用補助具を提供することである。   In view of such problems of the prior art, an object of the present invention is to provide a teaching aid for a robot control system for further simplifying teaching work and further reducing teaching time.

さらには、その教示用補助具を用いた教示方法、およびその教示方法によって教示を行うロボット制御システムを提供することである。   Furthermore, it is providing the teaching method using the auxiliary tool for teaching, and the robot control system which teaches by the teaching method.

上記目的を達成するため、本発明のロボット制御システムの教示用補助具は、撮像装置を用いて教示を行うことが可能なロボット制御システムの教示用補助具であって、角錐面の色が互いに異なる角錐形状部を有する補助具本体と、この補助具本体に連結された把持部とを備えることを特徴とする。   To achieve the above object, a teaching aid for a robot control system according to the present invention is a teaching aid for a robot control system capable of teaching using an imaging device, and the colors of the pyramid surfaces are mutually different. An assisting device main body having different pyramid-shaped portions and a gripping portion connected to the assisting device main body are provided.

ここで、前記角錐形状部は三角錐形状であることが好ましいが、必ずしもこの形状に限られるわけではなく、例えば、四角錐形状であってもよい。   Here, the pyramid-shaped portion is preferably a triangular pyramid shape, but is not necessarily limited to this shape, and may be, for example, a quadrangular pyramid shape.

このような構成のロボット制御システムの教示用補助具によれば、作業者がティーチングペンダントの操作によってロボットハンドの位置や向きを複雑に変更させることを繰り返したりすることなく、主として教示用補助具で指し示すだけで所望のロボットハンドの位置および向きを同時に入力することができ、ティーチング作業が極めて容易になるとともにティーチングの所要時間も大幅に短縮することが可能となる。   According to the teaching aid of the robot control system configured as described above, the teaching aid is mainly used without repeating the complicated change of the position and orientation of the robot hand by the operation of the teaching pendant. It is possible to simultaneously input the desired position and orientation of the robot hand simply by pointing, and the teaching work becomes extremely easy and the time required for teaching can be greatly shortened.

また、本発明のロボット制御システムの教示用補助具において、前記角錐形状部は前記角錐面がそれぞれの色を発するような発光手段をさらに備えることが好ましい。   Moreover, in the teaching aid of the robot control system of the present invention, it is preferable that the pyramid-shaped portion further includes light emitting means such that the pyramid surface emits each color.

このような構成のロボット制御システムの教示用補助具によれば、角錐形状部の各角錐面が異なる色で発光するので、撮像した際の画像データ中で周辺環境との境界が明確となる。また、その色の違いから、すべての面ではなく、単一の面のみが撮像されていても、その面の色から、その補助具の回転や傾き等の3次元での姿勢のすべての情報を得ることができる。それぞれの三角形の面のうちで、先端につながる2つの稜線のうち、それぞれの一部のみが見える場合でも、その稜線を延長することで頂点の位置が計測でき、またその姿勢も計測できるので、周辺の冶具等により一部が隠されていても計測に支障などが生じることはない。これにより、画像データ中での前記角錐形状部の認識がより容易となり、教示用補助具の3次元位置情報および3次元方向情報の検出精度の向上が可能となるので、ティーチングの失敗などの可能性を極めて低くできるとともに、誤差が少ない正確なティーチングを容易に行うことができる。   According to the teaching aid of the robot control system having such a configuration, each pyramid surface of the pyramid-shaped portion emits light with a different color, so that the boundary with the surrounding environment becomes clear in the image data when the image is captured. In addition, because of the difference in color, even if only a single surface is imaged, not all surfaces, all the information on the three-dimensional posture such as rotation and tilt of the auxiliary tool from the color of the surface Can be obtained. Even if only a part of each of the two ridge lines connected to the tip of each triangular surface can be seen, the position of the vertex can be measured by extending the ridge line, and the posture can also be measured. Even if a part of it is hidden by surrounding jigs, there will be no trouble in measurement. This makes it easier to recognize the pyramid shape part in the image data, and improves the detection accuracy of the three-dimensional position information and the three-dimensional direction information of the teaching aid, which may cause a failure in teaching. Therefore, accurate teaching with few errors can be easily performed.

あるいは、上記目的を達成するため、本発明のロボット制御システムの教示方法は、撮像装置を用いて教示を行うことが可能なロボット制御システムの教示方法であって、ロボット制御システムによって制御されるロボットハンドが停止または通過すべき位置および姿勢で保持された上記のロボット制御システム教示用補助具を、少なくとも1台以上の撮像装置によって撮像する撮像工程と、この撮像工程で撮像された画像データから、前記ロボット制御システム教示用補助具の形状データ又は色データに基づいて前記ロボット制御システム教示用補助具に対応する部分を認識するとともに、前記ロボット制御システム教示用補助具の3次元位置情報および3次元方向情報を算出する画像処理工程と、この画像処理工程で算出された前記3次元位置情報および前記3次元方向情報を、前記ロボットと前記撮像装置との相対的位置関係に基づいて、前記ロボット制御システムによる前記ロボットハンド用の制御データに変換する変換工程とを含むことを特徴とする。   Alternatively, in order to achieve the above object, a teaching method for a robot control system according to the present invention is a teaching method for a robot control system capable of teaching using an imaging apparatus, and is a robot controlled by the robot control system. From the imaging process of imaging the robot control system teaching auxiliary tool held at the position and posture where the hand should stop or pass by at least one imaging device, and the image data captured in this imaging process, Recognizing a portion corresponding to the robot control system teaching aid based on the shape data or color data of the robot control system teaching aid, and the three-dimensional position information and three-dimensional information of the robot control system teaching aid Image processing step for calculating direction information, and the tertiary calculated in the image processing step A conversion step of converting the position information and the three-dimensional direction information into control data for the robot hand by the robot control system based on a relative positional relationship between the robot and the imaging device. To do.

ここで、前記画像処理工程では、より具体的には、前記角錐形状部の頂点の3次元座標および前記頂点の向きの3次元角度を算出することが考えられる。   Here, in the image processing step, more specifically, it is conceivable to calculate the three-dimensional coordinates of the apex of the pyramid-shaped portion and the three-dimensional angle of the apex direction.

このような構成のロボット制御システムの教示方法によれば、作業者がティーチングペンダントの操作によってロボットハンドの位置や向きを複雑に変更させることを繰り返したりすることなく、主として教示用補助具で指し示すだけで所望のロボットハンドの位置および向きを同時に入力することができ、ティーチング作業が極めて容易になるとともにティーチングの所要時間も大幅に短縮することが可能となる。   According to the teaching method of the robot control system configured as described above, the operator mainly points with the teaching aid without repeatedly changing the position and orientation of the robot hand in a complicated manner by operating the teaching pendant. Thus, the desired position and orientation of the robot hand can be input simultaneously, which makes teaching work extremely easy and significantly reduces the time required for teaching.

あるいは、上記目的を達成するため、本発明のロボット制御システムは、上記のロボット制御システムの教示方法によって教示を行うことを特徴とする。   Alternatively, in order to achieve the above object, the robot control system of the present invention is characterized in that teaching is performed by the teaching method of the robot control system.

このような構成のロボット制御システムによれば、作業者がティーチングペンダントの操作によってロボットハンドの位置や向きを複雑に変更させることを繰り返したりすることなく、主として教示用補助具で指し示すだけで所望のロボットハンドの位置および向きを同時に入力することができ、ティーチング作業が極めて容易になるとともにティーチングの所要時間も大幅に短縮することが可能となる。   According to the robot control system having such a configuration, the operator can mainly perform the desired operation only by pointing with the teaching aid without repeatedly changing the position and orientation of the robot hand in a complicated manner by operating the teaching pendant. The position and orientation of the robot hand can be input at the same time, making teaching work extremely easy and greatly reducing the time required for teaching.

本発明のロボット制御システムの教示用補助具、ロボット制御システムの教示方法、またはロボット制御システムによれば、作業者がティーチングペンダントの操作によってロボットハンドの位置や向きを複雑に変更させることを繰り返したりすることなく、主として教示用補助具で指し示すだけで所望のロボットハンドの位置および向きを同時に入力することができ、ティーチング作業が極めて容易になるとともにティーチングの所要時間も大幅に短縮することが可能となる。   According to the teaching aid of the robot control system, the teaching method of the robot control system, or the robot control system of the present invention, the operator repeatedly changes the position and orientation of the robot hand in a complicated manner by operating the teaching pendant. Without having to do so, the desired robot hand position and orientation can be input simultaneously by simply pointing with the teaching aid, making teaching work extremely easy and significantly reducing the time required for teaching. Become.

図1は本発明の一実施形態に係るロボット制御システム100の概略ブロック図である。FIG. 1 is a schematic block diagram of a robot control system 100 according to an embodiment of the present invention. 図2はロボット制御システム100のロボット1とステレオカメラ20a、20bの配置を示す概略図である。FIG. 2 is a schematic diagram showing the arrangement of the robot 1 and the stereo cameras 20a and 20b of the robot control system 100. 図3はロボット1のティーチングを行う際に作業者が操作するティーチングペンダント10の概略図である。FIG. 3 is a schematic diagram of the teaching pendant 10 operated by an operator when teaching the robot 1. 図4はロボット1のティーチングに用いるティーチングツール50の概観図である。FIG. 4 is an overview diagram of a teaching tool 50 used for teaching the robot 1. 図5(a)〜図5(c)はティーチングツール50のツール本体51を3方向から見た詳細図であり、図5(a)はツール本体51の平面図、図5(b)はツール本体51の正面図、図5(c)はツール本体51の底面図である。5A to 5C are detailed views of the tool body 51 of the teaching tool 50 viewed from three directions, FIG. 5A is a plan view of the tool body 51, and FIG. 5B is a tool. FIG. 5C is a front view of the main body 51, and FIG. 5C is a bottom view of the tool main body 51. ロボットハンド3の他の例を示す概観図である。6 is an overview diagram showing another example of a robot hand 3. FIG. ティーチングツール50の一部が障害物60で隠れている状態を示す図である。It is a figure which shows the state in which a part of teaching tool 50 is hidden with the obstruction 60. FIG.

以下、本発明の実施形態を、図面を参照して説明する。   Embodiments of the present invention will be described below with reference to the drawings.

<ロボット制御システム100の構成>
図1は本発明の一実施形態に係るロボット制御システム100の概略ブロック図である。図2はロボット制御システム100のロボット1とステレオカメラ20a、20bの配置を示す概略図である。図3はロボット1のティーチングを行う際に作業者が操作するティーチングペンダント10の概略図である。
<Configuration of Robot Control System 100>
FIG. 1 is a schematic block diagram of a robot control system 100 according to an embodiment of the present invention. FIG. 2 is a schematic diagram showing the arrangement of the robot 1 and the stereo cameras 20a and 20b of the robot control system 100. FIG. 3 is a schematic diagram of the teaching pendant 10 operated by an operator when teaching the robot 1.

ロボット制御システム100は、図1に示すように、ティーチング(教示)を行うことによって各種の作業をさせることができるロボット1と、このロボット1各部を駆動・制御するコントローラ5と、ロボット1のティーチングを行う際に作業者が操作するティーチングペンダント10と、ロボット1およびその周囲をそれらの上方の異なる位置から見下ろすように配置された2台のステレオカメラ20a、20bと、これらのステレオカメラ20a、20bによって撮像された画像データの画像処理などを行うパソコン30とを備えている。   As shown in FIG. 1, the robot control system 100 includes a robot 1 that can perform various operations by teaching (teaching), a controller 5 that drives and controls each part of the robot 1, and teaching the robot 1. Teaching pendant 10 operated by an operator when performing the operation, two stereo cameras 20a and 20b arranged to look down on the robot 1 and its surroundings from different positions above them, and these stereo cameras 20a and 20b And a personal computer 30 that performs image processing of the image data captured by the computer.

ロボット1は、図2に示すように、多関節のロボットアーム2を有する垂直6軸タイプのロボットとしているが、これに限られるわけではない。例えば、4軸水平タイプのロボットでもよい。ロボットアーム2の先端には、着脱可能な少なくとも1つ以上のロボットハンド3が設けられている。なお、図2では、ロボットハンド3に取り付けられているワーク把持用チャック部などは省略している。このロボットハンド3には、さらに、行わせるべき作業などの内容に合わせて、少なくとも1つ以上の、例えば、ワーク把持用チャック部やスポット溶接ガンなどが設けられることになる。図6にロボットハンド3の他の例を示す。このロボットハンド3では、4つのワーク把持用チャック部4が設けられている。   As shown in FIG. 2, the robot 1 is a vertical 6-axis type robot having a multi-joint robot arm 2, but is not limited thereto. For example, a 4-axis horizontal type robot may be used. At the tip of the robot arm 2, at least one or more detachable robot hands 3 are provided. In FIG. 2, the workpiece gripping chuck portion attached to the robot hand 3 is omitted. The robot hand 3 is further provided with at least one, for example, a workpiece gripping chuck or a spot welding gun in accordance with the content of the work to be performed. FIG. 6 shows another example of the robot hand 3. In the robot hand 3, four workpiece gripping chuck portions 4 are provided.

コントローラ5は、ロボット1のロボットアーム2やロボットハンド3などの各部を駆動制御する。具体的には、ロボットアーム2やロボットハンド3などを駆動するモータ(不図示)の回転などを制御し、予め記憶された制御プログラムに従ったり、あるいはティーチングされた作業内容をプレイバックしたりすることで、ロボットアーム2やロボットハンド3などに所望の作業をさせる。   The controller 5 drives and controls each unit such as the robot arm 2 and the robot hand 3 of the robot 1. Specifically, it controls the rotation of a motor (not shown) that drives the robot arm 2, the robot hand 3, etc., and follows a pre-stored control program or plays back the contents of teaching work. Thus, the robot arm 2 or the robot hand 3 is caused to perform a desired work.

このコントローラ5には、ティーチングペンダント10、ステレオカメラ20a、20b、パソコン30も接続されている。つまり、これらの機器とのインターフェイス機能もコントローラ5は有している。   The controller 5 is also connected with a teaching pendant 10, stereo cameras 20 a and 20 b, and a personal computer 30. That is, the controller 5 also has an interface function with these devices.

ティーチングペンダント10は、図3に示すように、ロボット1のティーチングを行う際に作業者が各種操作を行うための小型装置である。このティーチングペンダント10は、コントローラ5と相互通信が可能となるようにワイヤレスで接続されているが、この接続は有線接続であってもよい。   As shown in FIG. 3, the teaching pendant 10 is a small device for an operator to perform various operations when teaching the robot 1. The teaching pendant 10 is connected wirelessly so that mutual communication with the controller 5 is possible, but this connection may be a wired connection.

このティーチングペンダント10は、その中央部分にタッチパネル式で各種表示や操作が可能なLCD(液晶)ディスプレイ11を備えており、このディスプレイ11の左右両側には、起動、停止、ティーチングなどのロボット1操作用のソフトウェアキー11aが複数個設けられている。これにより、ロボット1のティーチングを行うためのティーチングモードや、そのティーチングモードでティーチングされた作業内容をプレイバックするモードなどへの切り替えを行うことができる。   The teaching pendant 10 is provided with an LCD (liquid crystal) display 11 capable of various displays and operations in a central portion of the teaching pendant 10. On the left and right sides of the display 11, operation of the robot 1 such as start, stop, teaching, etc. A plurality of software keys 11a are provided. Thereby, it is possible to switch to a teaching mode for teaching the robot 1 and a mode for playing back the work content taught in the teaching mode.

さらに、ティーチングペンダント10の左右には、作業者が握るためのグリップ12、13がそれぞれ設けられている。ティーチングペンダント10の上部中央には、非常停止ボタン14が設けられるとともに、グリップ12の裏面には、ティーチング時や試運転時などの非定常作業時に作業者が危険を回避するための3ポジション方式のイネーブルスイッチ(不図示)が設けられている。   Furthermore, grips 12 and 13 are provided on the left and right sides of the teaching pendant 10 for the operator to hold. An emergency stop button 14 is provided in the upper center of the teaching pendant 10, and the back of the grip 12 is enabled by a three-position method for an operator to avoid danger during unsteady work such as teaching or trial operation. A switch (not shown) is provided.

ステレオカメラ20a、20bはそれぞれ、左右一対のレンズを通して撮像される画像の視差に基づいて、三角測量の原理によって撮像された物体までの距離および角度を取得することができる。これらのステレオカメラ20a、20bは、図2に示すように、ロボット1およびその周囲をそれらの上方の異なる位置から見下ろして、作業者が保持しているティーチングツール50(詳細は後述)を撮像できるように配置されている。ステレオカメラは、必ずしも2台以上配置することが不可欠というわけではない。しかし、ロボット1のロボットアーム2やロボットハンド3などとティーチングツール50との位置関係によっては、撮像画角の少なくとも一部が遮られて死角が生じ、ティーチングツール50を撮像画角内で的確に捉えられないおそれがある。そのような状況を極力回避するためには、ステレオカメラを2台以上配置することが好ましい。   Each of the stereo cameras 20a and 20b can acquire the distance and the angle to the object imaged by the triangulation principle based on the parallax of the image imaged through the pair of left and right lenses. As shown in FIG. 2, these stereo cameras 20a and 20b can take an image of the teaching tool 50 (details will be described later) held by the operator by looking down at the robot 1 and its surroundings from different positions above them. Are arranged as follows. It is not always essential to place two or more stereo cameras. However, depending on the positional relationship between the robot arm 2 or the robot hand 3 of the robot 1 and the teaching tool 50, at least a part of the imaging angle of view is obstructed and a blind spot is generated. There is a risk of not being caught. In order to avoid such a situation as much as possible, it is preferable to arrange two or more stereo cameras.

パソコン30は、コントローラ5と相互通信が可能となるように無線LANで接続されているが、例えば、有線LANで接続してもよい。このパソコン30は、後述する画像処理などを行う他、ロボット1の自動運転中にはステレオカメラ20a、20bで撮像した画像をモニターするために用いることもできる。また、この画像のモニターを、ティーチングペンダント10で行えるようにしてもよい。なお、パソコン30の代わりに、例えば、専用の画像処理モジュールなどを用いてもよい。また、同様の機能を、コントローラ5に内蔵するような構成も考えられる。   The personal computer 30 is connected by a wireless LAN so that mutual communication with the controller 5 is possible, but may be connected by a wired LAN, for example. The personal computer 30 can be used to monitor images captured by the stereo cameras 20a and 20b during automatic operation of the robot 1 in addition to performing image processing to be described later. Further, this image may be monitored by the teaching pendant 10. For example, a dedicated image processing module may be used instead of the personal computer 30. A configuration in which the same function is built in the controller 5 is also conceivable.

<ティーチングツール50>
図4はロボット1のティーチングに用いるティーチングツール50の概観図である。図5(a)〜図5(c)はティーチングツール50のツール本体51を3方向から見た詳細図であり、図5(a)はツール本体51の平面図、図5(b)はツール本体51の正面図、図5(c)はツール本体51の底面図である。
<Teaching tool 50>
FIG. 4 is an overview diagram of a teaching tool 50 used for teaching the robot 1. 5A to 5C are detailed views of the tool body 51 of the teaching tool 50 viewed from three directions, FIG. 5A is a plan view of the tool body 51, and FIG. 5B is a tool. FIG. 5C is a front view of the main body 51, and FIG. 5C is a bottom view of the tool main body 51.

これらの図に示すように、ティーチングツール50は、細長い三角錐形状の三角錐部52を有するとともにその底部に短い円筒状で合成ゴム製の基部53が設けられているツール本体51と、このツール本体51にその頂点52dとは反対側で連結されていて基部53より細い丸棒状のハンドル54とから構成されている。   As shown in these drawings, the teaching tool 50 includes a tool main body 51 having an elongated triangular pyramid-shaped triangular pyramid portion 52 and a short cylindrical synthetic rubber base 53 provided at the bottom thereof, and the tool. The handle 51 is connected to the main body 51 on the opposite side of the apex 52 d and is a round bar-like handle 54 thinner than the base 53.

ツール本体51の三角錐部52の各角錐面52a、52b、52cの色は互いに異なっている。具体的には、第1の角錐面52aには赤色の薄いポリプロピレンシートが接着されており、第2の角錐面52bには緑色の薄いポリプロピレンシートが接着されており、第3の角錐面52cには青色の薄いポリプロピレンシートが接着されている。   The colors of the pyramid surfaces 52a, 52b, and 52c of the triangular pyramid portion 52 of the tool body 51 are different from each other. Specifically, a red thin polypropylene sheet is bonded to the first pyramid surface 52a, a green thin polypropylene sheet is bonded to the second pyramid surface 52b, and the third pyramid surface 52c is bonded. The blue thin polypropylene sheet is bonded.

三角錐部52自体の内部は、図5(c)に示すように中空になっているが、例えば、透光性を有する樹脂などでこの三角錐部52を構成するとともに、LEDなどの光源や電池などを内蔵することが好ましい。   The inside of the triangular pyramid portion 52 itself is hollow as shown in FIG. 5C. For example, the triangular pyramid portion 52 is made of a resin having translucency, and a light source such as an LED or the like. It is preferable to incorporate a battery or the like.

ティーチング作業時にその光源を点灯させると、三角錐部52の各角錐面52a、52b、52cが赤色、黄色、青色にそれぞれ発光する。ステレオカメラ20a、20bによって撮像された画像データに対して画像処理を行う際、三角錐部52が3色で発光していれば、周辺環境との境界が明確となる。これにより、画像データ中で三角錐部52に対応する部分の認識が容易になるとともに、三角錐部52の頂点52dの3次元座標および頂点52dの向きの3次元角度の検出精度が向上する。   When the light source is turned on during teaching work, the pyramid surfaces 52a, 52b, 52c of the triangular pyramid portion 52 emit light in red, yellow, and blue, respectively. When image processing is performed on image data captured by the stereo cameras 20a and 20b, if the triangular pyramid 52 emits light in three colors, the boundary with the surrounding environment becomes clear. This facilitates recognition of the portion corresponding to the triangular pyramid portion 52 in the image data, and improves the detection accuracy of the three-dimensional coordinates of the vertex 52d of the triangular pyramid portion 52 and the three-dimensional angle of the orientation of the vertex 52d.

ハンドル54については、必ずしも丸棒状に限るわけではなく、作業環境や作業者がよりティーチングを行いやすいような形状にすればよい。例えば、ハンドル54自体の先端を湾曲させて、三角錐部52から横方向側で握れるようにしてもよい。また、ハンドル54の先端に別部材を取り付けることで同様の構成にしてもよい。   The handle 54 is not necessarily limited to a round bar shape, but may be a shape that makes it easier for the work environment and the operator to perform teaching. For example, the tip of the handle 54 itself may be curved so that it can be gripped laterally from the triangular pyramid 52. Further, the same configuration may be adopted by attaching another member to the tip of the handle 54.

なお、ハンドル54は、必ずしもツール本体51に連結した状態で固定しておかなくてもよい。例えば、ツール本体51にハンドル54取り付け用の機構を設けるとともに、複数種類の異なる形状のハンドルを用意しておき、必要に応じてそれらを取り替えて使用できるようにしてもよい。   Note that the handle 54 does not necessarily have to be fixed in a state of being connected to the tool body 51. For example, a mechanism for attaching the handle 54 may be provided in the tool main body 51, and a plurality of types of handles having different shapes may be prepared so that they can be used as necessary.

<ティーチングツール50を用いる教示方法>
ティーチングツール50を用いたロボット1のティーチングは、以下の(1)〜(3)の各ステップを繰り返すことによって行う。なお、これらに先立って、次のような事前準備をしておく必要がある。
<Teaching method using teaching tool 50>
Teaching of the robot 1 using the teaching tool 50 is performed by repeating the following steps (1) to (3). Prior to these, the following preparations are required.

まず、ステレオカメラ20a、20bとロボット1の配置が決まった状態で、ロボット1(ハンド)とステレオカメラ20a(アイ)との相対的位置関係を算出するためにキャリブレーション(ハンド・アイ・キャリブレーション)を行う。ステレオカメラ20aによって撮像された画像データから取得される被撮像物の距離および角度は、ステレオカメラ20aの位置を基準としているが(カメラ座標系)、このキャリブレーションを予め行っておくことで、ロボット1の位置を基準とする制御データ(ロボット座標系)に精密に変換できるようになる。ステレオカメラ20bとロボット1とについても、同様に相対的位置関係を算出するためにキャリブレーションを行う。   First, calibration (hand-eye calibration) is performed to calculate the relative positional relationship between the robot 1 (hand) and the stereo camera 20a (eye) in a state where the arrangement of the stereo cameras 20a and 20b and the robot 1 is determined. )I do. The distance and angle of the object to be captured acquired from the image data captured by the stereo camera 20a are based on the position of the stereo camera 20a (camera coordinate system). By performing this calibration in advance, the robot It becomes possible to precisely convert to control data (robot coordinate system) with the position of 1 as a reference. Similarly, calibration is performed for the stereo camera 20b and the robot 1 in order to calculate the relative positional relationship.

また、ティーチングツール50の形状データおよび各角錐面52a、52b、52cの色データなども(例えば、3次元CADデータとして)、画像処理を行うパソコン30に入力しておく。   Further, the shape data of the teaching tool 50 and the color data of the respective pyramidal surfaces 52a, 52b, 52c (for example, as three-dimensional CAD data) are also input to the personal computer 30 that performs image processing.

(1)ステレオカメラ20a、20bによるティーチングツール50の撮像
ティーチングペンダント10の操作によってティーチングモードに切り替えた後、ティーチングツール50をロボットハンド3が停止または通過すべき位置および姿勢でしっかりと保持する。このとき、ロボットハンド3が停止または通過すべき位置をツール本体51の頂点52dによって正確に指示するとともに、その位置でロボットハンド3が取るべき姿勢(例えば、ワーク把持用チャックの移動する向き)にツール本体51の姿勢(図5(b)に示すツール本体51の中心線(一点鎖線)が示す向き)を正確に一致させるようにする。
(1) Imaging of Teaching Tool 50 by Stereo Cameras 20a and 20b After switching to the teaching mode by operating the teaching pendant 10, the teaching tool 50 is firmly held at the position and posture where the robot hand 3 should stop or pass. At this time, the position at which the robot hand 3 should stop or pass is accurately instructed by the vertex 52d of the tool body 51, and the posture to be taken by the robot hand 3 at that position (for example, the moving direction of the workpiece gripping chuck). The posture of the tool main body 51 (the direction indicated by the center line (one-dot chain line) of the tool main body 51 shown in FIG. 5B) is accurately matched.

次に、ツール本体51の位置および姿勢を保持したままの状態で、ティーチングペンダント10の所定操作によって、ステレオカメラ20a、20bによる撮像を行う。   Next, imaging with the stereo cameras 20a and 20b is performed by a predetermined operation of the teaching pendant 10 while the position and posture of the tool body 51 are maintained.

(2)撮像された画像データからティーチングツール50を認識するなどの画像処理
まず、ステレオカメラ20aによって撮像された画像データから、ティーチングツール50の形状の特徴を有する部分の有無を検索する。そのような部分が存在すると認識できれば、その部分の画像データからティーチングツール50の形状データに基づいてティーチングツール50の3次元位置情報および3次元方向情報を算出する。より具体的には、ツール本体51の頂点52dの3次元座標(X1,Y1,Z1)およびこの頂点52dの向きの3次元角度(A1,B1,C1)を算出する。
(2) Image processing such as recognizing the teaching tool 50 from the captured image data First, the image data captured by the stereo camera 20a is searched for the presence or absence of a portion having the shape feature of the teaching tool 50. If it can be recognized that such a part exists, the three-dimensional position information and the three-dimensional direction information of the teaching tool 50 are calculated based on the shape data of the teaching tool 50 from the image data of the part. More specifically, the three-dimensional coordinates (X1, Y1, Z1) of the vertex 52d of the tool body 51 and the three-dimensional angle (A1, B1, C1) of the direction of the vertex 52d are calculated.

同様に、ステレオカメラ20bによって撮像された画像データからも、ティーチングツール50の形状の特徴を有する部分が存在すると認識できれば、ツール本体51の頂点52dの3次元座標(X2,Y2,Z2)およびこの頂点52dの向きの3次元角度(A2,B2,C2)を算出する。   Similarly, if it can be recognized from the image data picked up by the stereo camera 20b that there is a portion having the shape characteristic of the teaching tool 50, the three-dimensional coordinates (X2, Y2, Z2) of the vertex 52d of the tool body 51 and this A three-dimensional angle (A2, B2, C2) in the direction of the vertex 52d is calculated.

三角錐部52全体である程度の長さを有していれば、図7に示すように、例え、その三角錐の頂点52dやその他の部分が何らかの障害物60の陰になっていたりして、角錐面52a、52b、52cのいずれかはステレオカメラ20aまたはステレオカメラ20bの方向に向いている。例えば52bがステレオカメラ20aの方向に向いているとすると、撮影された三角形の色からその三角形が角錐面52bであることがわかる。さらにその角錐面52bの頂点52dにつながる稜線52e、52fの一部がステレオカメラ20aから見えれば、その延長線上の交点として頂点52dの位置が計測できる。また、その頂点52dでの稜線52eと52fとの角度から、同じ三角形の他の角や、ティーチングツール50以外の環境中のものと識別できる。稜線52eと52fの方向から、角錐面52bの姿勢が決定でき、その色の情報と組み合わせて、ティーチングツール50の3次元位置情報と3次元方向情報が決定できる。   If the entire triangular pyramid 52 has a certain length, as shown in FIG. 7, for example, the apex 52d of the triangular pyramid and other parts are behind the obstacle 60, Any of the pyramidal surfaces 52a, 52b, 52c faces the direction of the stereo camera 20a or the stereo camera 20b. For example, if 52b faces the direction of the stereo camera 20a, it can be seen from the color of the captured triangle that the triangle is the pyramid surface 52b. Furthermore, if a part of the ridge lines 52e and 52f connected to the vertex 52d of the pyramid surface 52b can be seen from the stereo camera 20a, the position of the vertex 52d can be measured as an intersection on the extension line. Further, from the angle between the ridge lines 52e and 52f at the vertex 52d, it can be distinguished from other corners of the same triangle or in the environment other than the teaching tool 50. The orientation of the pyramid surface 52b can be determined from the directions of the ridge lines 52e and 52f, and the three-dimensional position information and the three-dimensional direction information of the teaching tool 50 can be determined in combination with the color information.

ツール本体51の頂点52dが何らかの障害物の陰になっていて対応する箇所の画像データが得られていなくても、各角錐面52a、52b、52cの稜線の延長線が交差する位置によって頂点52dの位置を正確に求めることもできる。   Even if the vertex 52d of the tool main body 51 is shaded by some obstacle and image data of the corresponding portion is not obtained, the vertex 52d depends on the position where the extended lines of the ridge lines of the pyramid surfaces 52a, 52b, 52c intersect. It is also possible to accurately obtain the position of.

また、各角錐面52a、52b、52cの色の順序も既知であるから、例えば、赤色の角錐面52a自体は撮像データ中に現れていなくても、緑色の角錐面52bおよび青色の角錐面52cが撮像データ中に現れていれば、それらに基づいて赤色の角錐面52aの位置や向きなどを算出することもできる。   Further, since the order of the colors of the respective pyramidal surfaces 52a, 52b, and 52c is known, for example, even if the red pyramidal surface 52a itself does not appear in the imaging data, the green pyramid surface 52b and the blue pyramidal surface 52c. Can appear in the imaging data, the position and orientation of the red pyramid surface 52a can also be calculated based on them.

また、頂点52dはツール本体51の中心線上にあることが望ましいが、中心線からずれている場合がある。頂点52dが中心線からずれている場合、作業者が所望の箇所に頂点52dを指し示しても、コントローラ5は所望の箇所からずれた座標を計算してしまう。そこで、各角錐面52a、52b、52cの各々に対応する補正データを予めコントローラ5に記憶させておく。そして、撮像された画像に基づいて得られた各角錐面52a、52b、52cの座標データを前記補正データによって補正して変換して頂点52dの座標を計算させることで、所望の箇所の座標を正確な値に近づけることができる。または、撮像された画像に基づいて得られた各角錐面の頂点52bの座標データを平均して頂点52dの座標を計算させることで、所望の箇所の座標を正確な値に近づけることができる。このように、頂点52の座標を所定の計算式で補正することによって、ツール本体51の中心線から頂点52dがずれていても、コントローラ5は所望の箇所の座標を正確な値に近づけることができる。   The vertex 52d is preferably on the center line of the tool body 51, but may be displaced from the center line. When the vertex 52d is deviated from the center line, even if the operator points the vertex 52d to a desired location, the controller 5 calculates coordinates deviated from the desired location. Therefore, correction data corresponding to each of the pyramidal surfaces 52a, 52b, and 52c is stored in the controller 5 in advance. Then, the coordinate data of each pyramid surface 52a, 52b, 52c obtained based on the captured image is corrected by the correction data and converted to calculate the coordinates of the vertex 52d, thereby obtaining the coordinates of a desired location. It can be close to the exact value. Alternatively, by calculating the coordinates of the vertex 52d by averaging the coordinate data of the vertices 52b of each pyramid surface obtained based on the captured image, the coordinates of a desired location can be brought close to an accurate value. In this manner, by correcting the coordinates of the vertex 52 with a predetermined calculation formula, the controller 5 can bring the coordinates of a desired location closer to an accurate value even if the vertex 52d is deviated from the center line of the tool body 51. it can.

このように、ティーチングツール50を上述したような特徴的形状としているため、画像データからのティーチングツール50の形状認識を行う際のロバスト性が高く、ティーチングの失敗などを極力防止するとともに、誤差が少ない正確なティーチングを容易に行うことができる。   Thus, since the teaching tool 50 has a characteristic shape as described above, it has high robustness when recognizing the shape of the teaching tool 50 from image data, and prevents errors in teaching as much as possible. Less accurate teaching can be performed easily.

また、2台のステレオカメラ20a、20bを使用することで、ロボット1のロボットアーム2やロボットハンド3などとティーチングツール50との位置関係によらず、ステレオカメラ20a、20bの少なくとも一方でティーチングツール50をほぼ確実に画角内に捉えることができる。   Further, by using two stereo cameras 20a and 20b, regardless of the positional relationship between the robot arm 2 or the robot hand 3 of the robot 1 and the teaching tool 50, at least one of the stereo cameras 20a and 20b is used as a teaching tool. 50 can be captured within the angle of view almost certainly.

(3)ロボット1用の制御データへの変換
上記(2)で算出されたティーチングツール50の3次元位置情報および3次元方向情報は、ステレオカメラ20a、20bそれぞれのカメラ座標系の3次元データであるから、事前準備で行っておいたキャリブレーション結果に基づいて、ロボット座標系の3次元座標(x,y,z)および3次元角度(a,b,c)に変換し、さらにロボット1の制御データへと変換する。
(3) Conversion to Control Data for Robot 1 The three-dimensional position information and three-dimensional direction information of the teaching tool 50 calculated in (2) above is three-dimensional data in the camera coordinate system of each of the stereo cameras 20a and 20b. Therefore, based on the calibration result performed in advance, the robot coordinate system is converted into three-dimensional coordinates (x, y, z) and three-dimensional angles (a, b, c). Convert to control data.

なお、ティーチングツール50の3次元位置情報および3次元方向情報が、ステレオカメラ20a、20bの一方からしか得られなかったときは、得られた方の情報のみを使用すればよい。これに対して、両方から3次元位置情報および3次元方向情報が得られたときは、例えば、両方の情報を平均化して使用してもよいし、あるいは、信頼度がより高いと判断される方の情報のみを使用するようにしてもよい。   In addition, when the three-dimensional position information and the three-dimensional direction information of the teaching tool 50 can be obtained only from one of the stereo cameras 20a and 20b, only the obtained information may be used. On the other hand, when 3D position information and 3D direction information are obtained from both, for example, both information may be averaged and used, or it is determined that the reliability is higher. Only the information on the other side may be used.

このようにして変換されたロボット1の制御データに従ってロボットハンド3を制御することにより、ティーチングした通りの位置および姿勢による作業をロボットハンド3に正確に行わせることができる。これにより、ティーチングの失敗などの可能性を極めて低くできるとともに、誤差が極めて少ない一層正確なティーチングを容易に行うことができる。   By controlling the robot hand 3 according to the control data of the robot 1 thus converted, it is possible to cause the robot hand 3 to accurately perform the work based on the position and posture as taught. As a result, the possibility of teaching failure can be extremely reduced, and more accurate teaching can be easily performed with very few errors.

以上で説明した実施形態の構成によれば、作業者がティーチングペンダント10の操作によってロボットハンド3の位置や向きを複雑に変更させることを繰り返したりすることなく、主としてティーチングツール50で指し示すだけで所望のロボットハンド3の位置および向きを同時に入力することができ、ティーチング作業が極めて容易になるとともにティーチングの所要時間も大幅に短縮することが可能となる。   According to the configuration of the embodiment described above, it is desirable that the operator mainly indicates with the teaching tool 50 without repeatedly changing the position and orientation of the robot hand 3 in a complicated manner by operating the teaching pendant 10. The position and orientation of the robot hand 3 can be input at the same time, and the teaching work can be made extremely easy and the time required for teaching can be greatly shortened.

また、画像処理によって図6に示す角錐面52cの底辺52c1と平行な向きD1を検出することで、図6のワーク把持用チャック部4の爪41a及び41bの移動向き(挟持向き)D2を、向きD1と同じにすることができる。これにより、作業者はツール本体51によってワーク把持用チャックの移動する向きの他、ツール本体51の角錐面52cの底辺52c1の向きD2を示すことで、ワークを爪で把持する向きD2をも同時に入力することもできる。   Further, by detecting the direction D1 parallel to the base 52c1 of the pyramidal surface 52c shown in FIG. 6 by image processing, the moving direction (holding direction) D2 of the claws 41a and 41b of the workpiece gripping chuck portion 4 of FIG. It can be the same as the direction D1. As a result, the operator indicates the direction D2 of the base 52c1 of the pyramid surface 52c of the tool main body 51 in addition to the direction of movement of the work gripping chuck by the tool main body 51, so You can also enter it.

本発明は、その主旨または主要な特徴から逸脱することなく、他のいろいろな形で実施することができる。そのため、上述の実施形態はあらゆる点で単なる例示にすぎず、限定的に解釈してはならない。本発明の範囲は特許請求の範囲によって示すものであって、明細書本文にはなんら拘束されない。さらに、特許請求の範囲の均等範囲に属する変形や変更は、全て本発明の範囲内のものである。   The present invention can be implemented in various other forms without departing from the gist or main features thereof. Therefore, the above-mentioned embodiment is only a mere illustration in all points, and should not be interpreted limitedly. The scope of the present invention is indicated by the claims, and is not restricted by the text of the specification. Further, all modifications and changes belonging to the equivalent scope of the claims are within the scope of the present invention.

100 ロボット制御システム
1 ロボット
2 ロボットアーム
3 ロボットハンド
5 コントローラ
10 ティーチングペンダント
11 ディスプレイ
11a ソフトウェアキー
12 グリップ
13 グリップ
14 非常停止ボタン
20a ステレオカメラ
20b ステレオカメラ
30 パソコン
50 ティーチングツール(教示用補助具)
51 ツール本体(補助具本体)
52 三角錐部
52a 第1の角錐面(赤色)
52b 第2の角錐面(緑色)
52c 第3の角錐面(青色)
52d 頂点
52e 第2の角錐面52bと第1の角錐面52aのなす稜線
52f 第2の角錐面52bと第3の角錐面52cのなす稜線
53 基部
54 ハンドル(把持部)
60 障害物
100 Robot Control System 1 Robot 2 Robot Arm 3 Robot Hand 5 Controller 10 Teaching Pendant 11 Display 11a Software Key 12 Grip 13 Grip 14 Emergency Stop Button 20a Stereo Camera 20b Stereo Camera 30 Personal Computer 50 Teaching Tool (Teaching Tool)
51 Tool body (Auxiliary tool body)
52 Triangular pyramid part 52a First pyramid surface (red)
52b Second pyramid surface (green)
52c Third pyramid surface (blue)
52d Vertex 52e Ridge line 52f formed by the second pyramid surface 52b and the first pyramid surface 52a Ridge line 53 formed by the second pyramid surface 52b and the third pyramid surface 52c Base 54 Handle (grip)
60 obstacles

Claims (6)

撮像装置を用いて教示を行うことが可能なロボット制御システムの教示用補助具であって、
角錐面の色が互いに異なる角錐形状部を有する補助具本体と、
この補助具本体に連結された把持部と
を備えることを特徴とする、ロボット制御システムの教示用補助具。
A teaching aid for a robot control system capable of teaching using an imaging device,
An auxiliary tool body having a pyramid-shaped portion in which the colors of the pyramid surfaces are different from each other;
A teaching aid for a robot control system, comprising: a grip portion coupled to the assisting tool body.
請求項1に記載のロボット制御システムの教示用補助具において、
前記角錐形状部は三角錐形状であることを特徴とする、ロボット制御システムの教示用補助具。
The teaching aid of the robot control system according to claim 1,
The teaching aid of a robot control system, wherein the pyramid-shaped portion is a triangular pyramid shape.
請求項1または2に記載のロボット制御システムの教示用補助具において、
前記角錐形状部は前記角錐面がそれぞれの色を発するような発光手段をさらに備えることを特徴とする、ロボット制御システムの教示用補助具。
The teaching aid of the robot control system according to claim 1 or 2,
The teaching aid of a robot control system, wherein the pyramid-shaped portion further comprises light emitting means for emitting the respective colors of the pyramid surface.
撮像装置を用いて教示を行うことが可能なロボット制御システムの教示方法であって、
ロボット制御システムによって制御されるロボットハンドが停止または通過すべき位置および姿勢で保持された請求項1〜3のいずれか1項に記載のロボット制御システムの教示用補助具を、少なくとも1台以上の撮像装置によって撮像する撮像工程と、
この撮像工程で撮像された画像データから、前記ロボット制御システム教示用補助具の形状データ又は色データに基づいて前記ロボット制御システム教示用補助具に対応する部分を認識するとともに、前記ロボット制御システム教示用補助具の3次元位置情報および3次元方向情報を算出する画像処理工程と、
この画像処理工程で算出された前記3次元位置情報および前記3次元方向情報を、前記ロボットと前記撮像装置との相対的位置関係に基づいて、前記ロボット制御システムによる前記ロボットハンド用の制御データに変換する変換工程と
を含むことを特徴とする、ロボット制御システムの教示方法。
A teaching method of a robot control system capable of teaching using an imaging device,
The teaching aid of the robot control system according to any one of claims 1 to 3, wherein the robot hand controlled by the robot control system is held at a position and posture to be stopped or passed. An imaging step of imaging with an imaging device;
A part corresponding to the robot control system teaching aid is recognized based on the shape data or color data of the robot control system teaching aid from the image data captured in this imaging step, and the robot control system teaching An image processing step of calculating three-dimensional position information and three-dimensional direction information of the auxiliary tool;
The three-dimensional position information and the three-dimensional direction information calculated in this image processing step are used as control data for the robot hand by the robot control system based on the relative positional relationship between the robot and the imaging device. A robot control system teaching method, comprising: a conversion step of converting.
請求項4に記載のロボット制御システムの教示方法において、
前記画像処理工程では、前記角錐形状部の頂点の3次元座標および前記頂点の向きの3次元角度を算出することを特徴とする、ロボット制御システムの教示方法。
In the teaching method of the robot control system according to claim 4,
In the image processing step, a three-dimensional coordinate of a vertex of the pyramid-shaped portion and a three-dimensional angle of the direction of the vertex are calculated.
請求項4または5に記載のロボット制御システムの教示方法によって教示を行うことを特徴とするロボット制御システム。   A robot control system that performs teaching by the teaching method of the robot control system according to claim 4 or 5.
JP2009265704A 2009-11-20 2009-11-20 Teaching auxiliary tool for robot control system, teaching method using the teaching auxiliary tool, and robot control system performing teaching by the teaching method Pending JP2011104759A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009265704A JP2011104759A (en) 2009-11-20 2009-11-20 Teaching auxiliary tool for robot control system, teaching method using the teaching auxiliary tool, and robot control system performing teaching by the teaching method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009265704A JP2011104759A (en) 2009-11-20 2009-11-20 Teaching auxiliary tool for robot control system, teaching method using the teaching auxiliary tool, and robot control system performing teaching by the teaching method

Publications (1)

Publication Number Publication Date
JP2011104759A true JP2011104759A (en) 2011-06-02

Family

ID=44228848

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009265704A Pending JP2011104759A (en) 2009-11-20 2009-11-20 Teaching auxiliary tool for robot control system, teaching method using the teaching auxiliary tool, and robot control system performing teaching by the teaching method

Country Status (1)

Country Link
JP (1) JP2011104759A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2757430A2 (en) 2013-01-16 2014-07-23 Kabushiki Kaisha Yaskawa Denki Robot teaching system and robot teaching method
CN104703678A (en) * 2012-09-21 2015-06-10 哥巴西斯有限公司 Stack of membrane filter pockets commonly potted at their corners
CN107248363A (en) * 2017-07-28 2017-10-13 合肥哈工海渡工业机器人有限公司 A kind of trapezoidal combined robot practical traning platform
JP2018144193A (en) * 2017-03-08 2018-09-20 本田技研工業株式会社 Position and attitude adjustment method
CN109514527A (en) * 2017-09-20 2019-03-26 广明光电股份有限公司 Teaching system and method for robot arm
WO2022191148A1 (en) * 2021-03-11 2022-09-15 ファナック株式会社 Teaching tool, and teaching device for using operator's hand to set teaching point
IT202100017033A1 (en) * 2021-06-29 2022-12-29 Comau Spa "Processing equipment and associated marking device for generating process trajectories"

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61175805A (en) * 1985-01-31 1986-08-07 Matsushita Electric Ind Co Ltd Robot operation teaching device
JPH04137109A (en) * 1990-09-28 1992-05-12 Shin Meiwa Ind Co Ltd Offline teaching method for robot
JPH04205110A (en) * 1990-11-29 1992-07-27 Sanyo Mach Works Ltd Teaching device for robot
JPH06147828A (en) * 1992-11-05 1994-05-27 Toshiba Corp Position/attitude measuring equipment
JPH081563A (en) * 1994-06-23 1996-01-09 Fanuc Ltd Robot position instructing tool, and robot position instructing method
JPH10264059A (en) * 1997-03-27 1998-10-06 Trinity Ind Corp Teaching device of painting robot
JP2004209641A (en) * 2002-12-30 2004-07-29 Abb Res Ltd Method and system for programming industrial robot
JP2009172718A (en) * 2008-01-24 2009-08-06 Canon Inc Working device and calibration method of the same

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61175805A (en) * 1985-01-31 1986-08-07 Matsushita Electric Ind Co Ltd Robot operation teaching device
JPH04137109A (en) * 1990-09-28 1992-05-12 Shin Meiwa Ind Co Ltd Offline teaching method for robot
JPH04205110A (en) * 1990-11-29 1992-07-27 Sanyo Mach Works Ltd Teaching device for robot
JPH06147828A (en) * 1992-11-05 1994-05-27 Toshiba Corp Position/attitude measuring equipment
JPH081563A (en) * 1994-06-23 1996-01-09 Fanuc Ltd Robot position instructing tool, and robot position instructing method
JPH10264059A (en) * 1997-03-27 1998-10-06 Trinity Ind Corp Teaching device of painting robot
JP2004209641A (en) * 2002-12-30 2004-07-29 Abb Res Ltd Method and system for programming industrial robot
JP2009172718A (en) * 2008-01-24 2009-08-06 Canon Inc Working device and calibration method of the same

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104703678A (en) * 2012-09-21 2015-06-10 哥巴西斯有限公司 Stack of membrane filter pockets commonly potted at their corners
EP2757430A2 (en) 2013-01-16 2014-07-23 Kabushiki Kaisha Yaskawa Denki Robot teaching system and robot teaching method
US9104981B2 (en) 2013-01-16 2015-08-11 Kabushiki Kaisha Yaskawa Denki Robot teaching system and method using imaging based on training position
JP2018144193A (en) * 2017-03-08 2018-09-20 本田技研工業株式会社 Position and attitude adjustment method
CN107248363A (en) * 2017-07-28 2017-10-13 合肥哈工海渡工业机器人有限公司 A kind of trapezoidal combined robot practical traning platform
CN109514527A (en) * 2017-09-20 2019-03-26 广明光电股份有限公司 Teaching system and method for robot arm
TWI700166B (en) * 2017-09-20 2020-08-01 達明機器人股份有限公司 Teaching system and method of robot arm
WO2022191148A1 (en) * 2021-03-11 2022-09-15 ファナック株式会社 Teaching tool, and teaching device for using operator's hand to set teaching point
DE112022000496T5 (en) 2021-03-11 2023-12-07 Fanuc Corporation LEARNING TOOL AND LEARNING DEVICE FOR SETTING THE LEARNING POINT WITH THE OPERATOR'S HAND
IT202100017033A1 (en) * 2021-06-29 2022-12-29 Comau Spa "Processing equipment and associated marking device for generating process trajectories"
WO2023275701A1 (en) * 2021-06-29 2023-01-05 Comau S.P.A. A processing apparatus and relative marking device to generate process trajectories

Similar Documents

Publication Publication Date Title
US10052765B2 (en) Robot system having augmented reality-compatible display
JP6754363B2 (en) Remote control robot system and its operation method
JP6468741B2 (en) Robot system and robot system calibration method
JP2011104759A (en) Teaching auxiliary tool for robot control system, teaching method using the teaching auxiliary tool, and robot control system performing teaching by the teaching method
JP3946711B2 (en) Robot system
JP5670416B2 (en) Robot system display device
US9519736B2 (en) Data generation device for vision sensor and detection simulation system
JP2011115877A (en) Double arm robot
WO2018043525A1 (en) Robot system, robot system control device, and robot system control method
JP2020055096A (en) Information processing device, information processing method and system
US20140201112A1 (en) Robot teaching system and robot teaching method
JP2015182144A (en) Robot system and calibration method of robot system
WO2018147411A1 (en) Robot system and control method therefor
JP2014151427A (en) Robot system and control method therefor
US9604360B2 (en) Robot system for preventing accidental dropping of conveyed objects
US11667031B2 (en) Teaching method
EP3411194A1 (en) Robot system calibration
JP2008207262A (en) Manipulator system
JP5418915B2 (en) Robot, status presentation device, status presentation method, and robot teaching method
JP2008168372A (en) Robot device and shape recognition method
JP2011110627A (en) Robot control method, robot control program, and teaching pendant used for robot control method
CN115338855A (en) Double-arm robot assembling system
JP2006297559A (en) Calibration system and robot&#39;s calibration method
WO2023013740A1 (en) Robot control device, robot control system, and robot control method
JP2010149225A (en) Robot system, device and method for controlling robot system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120820

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20120820

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130709

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20131105