JP2767417B2 - Robot control device - Google Patents
Robot control deviceInfo
- Publication number
- JP2767417B2 JP2767417B2 JP61202914A JP20291486A JP2767417B2 JP 2767417 B2 JP2767417 B2 JP 2767417B2 JP 61202914 A JP61202914 A JP 61202914A JP 20291486 A JP20291486 A JP 20291486A JP 2767417 B2 JP2767417 B2 JP 2767417B2
- Authority
- JP
- Japan
- Prior art keywords
- robot
- camera
- work object
- point
- vision system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/18—Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
- G05B19/408—Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by data handling or data format, e.g. reading, buffering or conversion of data
- G05B19/4083—Adapting programme, configuration
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/02—Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]
Landscapes
- Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Manufacturing & Machinery (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Numerical Control (AREA)
- Manipulator (AREA)
Description
【発明の詳細な説明】
(産業上の利用分野)
本発明は、CAD/CAMを利用してロボットの制御を行な
うロボット制御装置に関する。
(従来の技術)
従来、CAD/CAMを利用してロボットの制御を行なうロ
ボット制御装置では、ロボットの例えば腕を作業の施さ
れるべき対象物に対して位置決めし、種々の教示を行な
った後、対象物に所定の作業を行なうようになってい
る。対象物に作業を施すに際しロボットの位置決めある
いは対象物の位置決めはCAD/CAMを利用したオフライン
プログラミングシステムにより仮想的にすなわち、ロボ
ットの腕に撓み等がなくまた対象物に位置ずれ等がない
と仮想して計算され定められる。
(発明が解決しようとする問題点)
しかしながら、このような従来の仮想的なオフライン
プログラミングシステムでは、ロボットの位置決めは大
まかなものであり、例えばロボットを、十分な精度を必
要とするスポット/アーク溶接に適用する場合には適し
ていない。すなわち、例えばロボットの腕にエンドエフ
ェクタとしてスポットガンなどを取付ける場合にはエン
ドエフェクタの重量、モーメントの作用によりロボット
の腕が撓むが仮想的なオフラインプログラミングシステ
ムではこの撓みを何ら考慮しないのでロボットの腕を対
象物に対して正確に精度良く位置決めすることはできな
い。
さらに、従来のオフラインプログラミングシステムで
は例えば車両車体へのスポット溶接を行なう場合にロボ
ットの作業対象となる搬送ラインで運ばれる車体の位置
が予め定められていると仮想してロボットの腕の対象物
に対する相対位置を決定しているが、実際には対象物の
位置は搬送ラインの誤差でずれることがあり、この場合
にもロボットの腕を対象物に対して正確に精度良く位置
することができないという問題があった。
本発明は、ロボット自体の位置ずれおよび対象物の位
置ずれを補正して正確にかつ精度良く対象物に対するロ
ボットの位置を決定することの可能なロボット制御装置
を提供することを目的としている。
(問題点を解決するための手段)
本発明は、作業対象物の基準となる点を認識するロボ
ットに付設されたカメラと、該カメラにより認識された
前記作業対象物の基準となる点の画像データを演算する
ビジョンシステムと、該ビジョンシステムで演算された
演算データによりCAD/CAMで得られた前記作業対象物の
仮想的なプログラム位置に補正をかけるロボット制御部
とを具備したロボットの制御を行うロボット制御装置に
おいて、前記作業対象物上の所定位置にそれぞれ設けら
れた3つの点と、該3つの点をそれぞれロボットに設け
られた前記カメラをもって異なる位置で捉えた画像デー
タを用いて作業対象物上の各点とカメラとの3次元相対
位置関係の位置データを求める作業対象物位置判定手段
と、オフラインで作成されたプログラム上の仮想的な作
業対象物の位置データを、前記作業対象物位置判定手段
により得られた位置データにより補正する補正手段と、
を具備してなるロボットの制御を行うロボット制御装置
を提供することによって上記従来技術の問題点を解決す
るものである。
(作用)
本発明では、ロボットにより作業の施されるべき対象
物を予め仮想的に定められた所定の位置へ搬送ラインに
より移動させ、カメラによって対象物の基準となる3つ
以上の点を認識して対象物を三次元的に認識する。カメ
ラにより三次元的に認識された対象物の3つ以上の点の
情報はビジョンシステムに送られてビジョンシステムに
よりカメラと対象物の認識された各点との相対位置関係
が決定される。ビジョンシステムはこの位置関係の情報
をロボット制御部に送りロボット制御部はビジョンシス
テムで決定された相対位置関係によりCAD/CAMで得られ
た仮想的なプログラム位置に補正をかけて、対象物を正
確にかつ精度良く位置決めすることができる。
(実施例)
以下に本発明の実施例を図面を用いて説明する。
第1図は本発明のロボット制御装置の構成図、第2図
は対象物とこの対象物を三次元的に認識するロボットと
の位置関係を示す図、第3図は対象物の1つの点に対し
てこの点をカメラ座標系において複数の姿勢から認識す
る様子を示す図である。
第1図において、ロボット本体1は台2と、この台2
に対して回転自在にかつ折曲げ自在に取付けられたアー
ム3aと、このアーム3aに対し回転自在にかつ折曲げ自在
に取付けられたアーム3bと、アーム3bの先端部に回転自
在にかつ折曲げ自在に設けられたエンドエフェクタ4と
から構成されている。
ロボット本体1のアーム3a,3bおよびエンドエフェク
タ4の移動はロボット制御部5によって制御される。ロ
ボット制御部5は、図示しないがマイクロプロセッサを
使用してCAD/CAMのオフラインプログラミングシステム
の制御の下でロボット本体1を作動し、アーム3a,3bの
位置決めあるいはエンドエフェクタ4の位置決めを行な
うようになっている。
本発明のロボット制御装置ではさらにエンドエフェク
タ4の近くにカメラ6を設置し、カメラ6をロボットに
よって作業されるべき対象物8に向けて対象物8の映像
を撮像してビジョンシステム7に送るようになってい
る。ビジョンシステム7は、カメラ6で撮像された画像
を解析してロボット本体1のエンドエフェクタ4と対象
物8との相対的位置関係を認識し、位置ずれなどが生じ
ている場合には、認識結果をロボット制御部5に送り、
ロボット制御部5におけるオフラインプログラミングシ
ステムによる制御を補正するようになっている。
以上のような構成のロボット制御装置の動作を第4図
を用いて説明する。第4図は、ロボット制御部5および
ビジョンシステム7の処理の流れを示したフローチャー
トである。
第4図において、まずステップST1で作業の施される
べき対象物8、例えばロボットによりスポット/アーク
溶接の施されるべき車体を搬送ライン(図示せず)上で
移動させてロボット本体1に対して予め仮想的に定めら
れている所定の位置に位置決めする。次いでカメラ6で
対象物8の基準となる点を認識する(ステップST2)。
対象物を三次元的に認識するには、3つ以上の点が必要
となり、第2図では例えば点P1,P2,P3がこれらの点に該
当する。さらにカメラ6と各点P1,P2,P3との三次元的な
位置関係を決めるには1つの点、例えば点P1についてこ
の点P1を第3図に示すように複数のカメラ姿勢PS1,PS2
から認識しなければならない。従って対象物8を三次元
的に認識し、対象物8の各点の位置関係を決めるには、
カメラ6の位置すなわち姿勢を少なくとも6回変える必
要がある。またカメラ6によって各姿勢で撮像された対
象物の各点の画像はビジョンシステム7によって解析さ
れ位置関係が決定される。このようにステップST2に続
いてステップST3では、ビジョンシステム7によってカ
メラ6と対象物の各点P1,P2,P3との三次元的な相対位置
関係を決定する。次いでステップST4ではこのように決
定された位置関係に基づいてCAD/CAMにより得られた仮
想的なプログラム位置を補正することによって、例えば
ロボットの腕にエンドエフェクタとしてのスポットガン
などを取付けることによるロボットの腕の撓みや搬送ラ
インで運ばれる対象物の位置ずれを補正して正確な位置
決めの下で対象物に十分な精度で例えばスポット/アー
ク溶接等の作業を施すことが可能となる。
なお、ロボット制御部5とビジョンシステム7との関
係は、例えばロボット制御部5のCAD/CAMのオフライン
プログラミングシステムを実現するプロセッサをメイン
プロセッサとし、ビジョンシステム7に用いられるプロ
セッサを画像処理専用プロセッサとすれば、この画像処
理専用プロセッサはメインプロセッサのコプロセッサと
なりメインプロセッサの制御の下で独自に画像処理を実
行することができるようになっている。
(発明の効果)
以上詳細に説明したように本発明によれば、ロボット
制御部はビジョンシステムで決定された対象物とカメラ
との相対位置関係によりCAD/CAMで得られた仮想的なプ
ログラム位置に補正をかけるので、作業の施されるべき
対象物を正確にかつ精度良く位置決めすることができ
て、例えばスポット/アーク溶接作業のような十分な精
度を必要とする作業にも適用しうるという効果を得るこ
とができる。Description: TECHNICAL FIELD The present invention relates to a robot control device that controls a robot using CAD / CAM. (Conventional technology) Conventionally, in a robot control device that controls a robot using CAD / CAM, after positioning, for example, an arm of the robot with respect to an object to be worked, and performing various teachings A predetermined operation is performed on an object. When performing work on an object, positioning of the robot or positioning of the object is virtually performed by an offline programming system using CAD / CAM, i.e., if the robot arm does not bend, etc. It is calculated and determined. (Problems to be Solved by the Invention) However, in such a conventional virtual off-line programming system, the positioning of the robot is rough, and for example, the robot is required to be spot-arc-welded which requires sufficient accuracy. Not suitable when applied to That is, for example, when a spot gun or the like is attached to the robot arm as an end effector, the robot arm bends due to the effect of the weight and moment of the end effector, but the virtual off-line programming system does not consider this warp at all. The arm cannot be accurately positioned with respect to the object. Furthermore, in a conventional off-line programming system, for example, when performing spot welding on a vehicle body, it is assumed that the position of the body carried on a transfer line that is a work target of the robot is predetermined, and the position of the robot arm with respect to the object is assumed. Although the relative position is determined, the position of the target object may actually shift due to the error of the transport line, and in this case also, it is not possible to accurately position the robot arm with respect to the target object. There was a problem. SUMMARY OF THE INVENTION It is an object of the present invention to provide a robot control device capable of correcting a position shift of a robot itself and a target object and accurately and accurately determining a position of the robot with respect to the target object. (Means for Solving the Problems) The present invention relates to a camera attached to a robot that recognizes a reference point of a work object, and an image of a reference point of the work object recognized by the camera. A robot system including a vision system for calculating data, and a robot control unit for correcting a virtual program position of the work object obtained by CAD / CAM using the calculation data calculated by the vision system. The robot controller performs the operation of the work object using three points provided at predetermined positions on the work object and image data obtained by capturing the three points at different positions using the cameras provided on the robot. Work object position determining means for obtaining position data of a three-dimensional relative positional relationship between each point on the object and the camera; The position data of the virtual undertaking object, and correcting means for correcting the position data obtained by the work object position determining means,
It is an object of the present invention to solve the above-described problems of the related art by providing a robot control device for controlling a robot including: (Function) In the present invention, the object to be worked by the robot is moved to a predetermined position virtually determined by a transport line, and three or more reference points of the object are recognized by the camera. To three-dimensionally recognize the object. Information on three or more points of the object three-dimensionally recognized by the camera is sent to the vision system, and the vision system determines the relative positional relationship between the camera and each point of the object recognized. The vision system sends this positional information to the robot controller, and the robot controller corrects the target program by correcting the virtual program position obtained by CAD / CAM based on the relative positional relationship determined by the vision system. And accurate positioning. (Example) Hereinafter, an example of the present invention will be described with reference to the drawings. FIG. 1 is a configuration diagram of a robot control device of the present invention, FIG. 2 is a diagram showing a positional relationship between an object and a robot that three-dimensionally recognizes the object, and FIG. 3 is a point on the object. FIG. 6 is a diagram showing how this point is recognized from a plurality of postures in a camera coordinate system. In FIG. 1, a robot body 1 includes a table 2 and the table 2
Arm 3a rotatably and bendably mounted on the arm 3b, arm 3b rotatably and bendably mounted on the arm 3a, and a rotatable and bendable end of the arm 3b And an end effector 4 provided freely. The movements of the arms 3a, 3b and the end effector 4 of the robot body 1 are controlled by a robot controller 5. The robot controller 5 operates the robot body 1 under the control of a CAD / CAM offline programming system using a microprocessor (not shown) to position the arms 3a and 3b or the end effector 4. Has become. In the robot control device of the present invention, a camera 6 is further installed near the end effector 4, and the camera 6 is directed to the object 8 to be worked by the robot so that an image of the object 8 is captured and sent to the vision system 7. It has become. The vision system 7 analyzes the image captured by the camera 6 and recognizes the relative positional relationship between the end effector 4 of the robot body 1 and the object 8. If a positional shift or the like occurs, the recognition result is obtained. To the robot controller 5 and
The control by the offline programming system in the robot controller 5 is corrected. The operation of the robot control device having the above configuration will be described with reference to FIG. FIG. 4 is a flowchart showing a flow of processing of the robot control unit 5 and the vision system 7. In FIG. 4, first, in step ST1, an object 8 to be subjected to work, for example, a vehicle body to be subjected to spot / arc welding by a robot is moved on a transfer line (not shown) so as to be moved with respect to the robot main body 1. To a predetermined position virtually determined in advance. Next, the camera 6 recognizes a reference point of the object 8 (step ST2).
In order to three-dimensionally recognize an object, three or more points are required. In FIG. 2, for example, points P1, P2, and P3 correspond to these points. Further, in order to determine the three-dimensional positional relationship between the camera 6 and each of the points P1, P2, P3, one point, for example, the point P1 for a plurality of camera postures PS1, PS2 as shown in FIG.
Must recognize from. Therefore, in order to recognize the object 8 three-dimensionally and determine the positional relationship of each point of the object 8,
It is necessary to change the position, that is, the attitude of the camera 6 at least six times. Further, the image of each point of the object captured in each posture by the camera 6 is analyzed by the vision system 7 to determine the positional relationship. Thus, in step ST3 following step ST2, the vision system 7 determines a three-dimensional relative positional relationship between the camera 6 and each point P1, P2, P3 of the object. Next, in step ST4, by correcting the virtual program position obtained by CAD / CAM based on the positional relationship determined in this way, for example, by attaching a spot gun or the like as an end effector to the arm of the robot, It is possible to perform operations such as spot / arc welding on the object with sufficient accuracy under accurate positioning by correcting the bending of the arm and the displacement of the object carried on the transport line. The relationship between the robot control unit 5 and the vision system 7 is such that, for example, a processor that realizes a CAD / CAM offline programming system of the robot control unit 5 is a main processor, and a processor used in the vision system 7 is a processor dedicated to image processing. Then, the processor dedicated to image processing becomes a coprocessor of the main processor, and can independently execute image processing under the control of the main processor. (Effect of the Invention) As described in detail above, according to the present invention, the robot control unit obtains the virtual program position obtained by CAD / CAM based on the relative positional relationship between the object and the camera determined by the vision system. , The object to be worked can be accurately and accurately positioned, and can be applied to work requiring sufficient accuracy, for example, spot / arc welding work. The effect can be obtained.
【図面の簡単な説明】
第1図は本発明のロボット制御装置のシステム構成図、
第2図は作業の施されるべき対象物とこの対象物を三次
元的に認識するロボットとの位置関係を示す図、第3図
は対象物の1つの点に対してこの点をカメラ座標系にお
いて複数の姿勢から認識する様子を示す図、第4図はロ
ボット制御装置の位置決め処理の流れを示すフローチャ
ートである。
1……ロボット本体、2……台、3a,3b……アーム、4
……エンドエフェクタ、5……ロボット制御部、6……
カメラ、7……ビジョンシステム、8……対象物。BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a system configuration diagram of a robot control device according to the present invention;
FIG. 2 is a diagram showing a positional relationship between an object to be worked on and a robot which three-dimensionally recognizes the object, and FIG. 3 is a diagram showing a point of the object with camera coordinates. FIG. 4 is a flowchart showing a state of recognition from a plurality of postures in the system, and FIG. 4 is a flowchart showing a flow of a positioning process of the robot controller. 1 ... robot body, 2 ... table, 3a, 3b ... arm, 4
... End effector, 5 ... Robot control unit, 6 ...
Camera 7, Vision system 8, Object.
───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 昭60−258613(JP,A) 特開 昭61−103207(JP,A) 特開 昭61−173878(JP,A) 特開 昭60−229109(JP,A) 実開 昭58−169987(JP,U) ────────────────────────────────────────────────── ─── Continuation of front page (56) References JP-A-60-258613 (JP, A) JP-A-61-103207 (JP, A) JP-A-61-173878 (JP, A) JP-A-60-229109 (JP, A) Japanese Utility Model Showa 58-169987 (JP, U)
Claims (1)
設されたカメラと、該カメラにより認識された前記作業
対象物の基準となる点の画像データを演算するビジョン
システムと、該ビジョンシステムで演算された演算デー
タによりCAD/CAMで得られた前記作業対象物の仮想的な
プログラム位置に補正をかけるロボット制御部とを具備
したロボットの制御を行うロボット制御装置において、 前記作業対象物上に所定位置にそれぞれ設けられた3つ
の点と、 該3つの点のそれぞれについてロボットに設けられた前
記カメラをもって異なる複数位置で捉えた画像データを
用いて作業対象物上の各点とカメラとの3次元相対位置
関係の位置データを求める作業対象物位置判定手段と、 オフラインで作成されたプログラム上の仮想的な作業対
象物の位置データを、前記作業対象物位置判定手段によ
り得られた位置データにより補正する補正手段と、 を具備してなるロボットの制御を行うロボット制御装
置。 2.前記作業対象物位置判定手段は、1つの点を複数の
カメラ姿勢で捉えた画像データを用いてこの点とカメラ
との3次元相対位置関係を求めることを、3つの点でそ
れぞれ行うことを特徴とする特許請求の範囲第(1)項
記載のロボットの制御を行うロボット制御装置。(57) [Claims] A camera attached to a robot that recognizes a reference point of the work object, a vision system that calculates image data of a reference point of the work object recognized by the camera, and a vision system that calculates the image data. A robot control unit that corrects a virtual program position of the work object obtained by CAD / CAM using the calculated data. And three-dimensional relative positions of each point on the work object and the camera using image data captured at a plurality of different positions by the camera provided on the robot for each of the three points. Work object position determination means for obtaining position data of a positional relationship, and position data of a virtual work object on a program created offline. And a correcting means for correcting the data by the position data obtained by the work object position determining means. 2. The work object position determination means performs three-dimensional relative positional relationship between the point and the camera by using image data obtained by capturing one point with a plurality of camera postures at each of the three points. A robot control device for controlling a robot according to claim (1).
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP61202914A JP2767417B2 (en) | 1986-08-29 | 1986-08-29 | Robot control device |
PCT/JP1987/000560 WO1988001764A1 (en) | 1986-08-29 | 1987-07-29 | Robot controller |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP61202914A JP2767417B2 (en) | 1986-08-29 | 1986-08-29 | Robot control device |
Publications (2)
Publication Number | Publication Date |
---|---|
JPS6358505A JPS6358505A (en) | 1988-03-14 |
JP2767417B2 true JP2767417B2 (en) | 1998-06-18 |
Family
ID=16465258
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP61202914A Expired - Lifetime JP2767417B2 (en) | 1986-08-29 | 1986-08-29 | Robot control device |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2767417B2 (en) |
WO (1) | WO1988001764A1 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7333879B2 (en) | 2005-12-16 | 2008-02-19 | Fanuc Ltd | Offline programming device |
JP2010032339A (en) * | 2008-07-29 | 2010-02-12 | Kawasaki Heavy Ind Ltd | Position measuring method and position measuring device |
CN106737683A (en) * | 2017-01-11 | 2017-05-31 | 吉林省凯迪科技有限公司 | The method of correction industrial robot off-line programing error in the field |
WO2018173655A1 (en) * | 2017-03-21 | 2018-09-27 | 株式会社神戸製鋼所 | Operating program correction method and welding robot system |
US11565421B2 (en) | 2017-11-28 | 2023-01-31 | Fanuc Corporation | Robot and robot system |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0714276B2 (en) * | 1988-06-20 | 1995-02-15 | 株式会社日立製作所 | Actuator |
JPH0224076A (en) * | 1988-07-07 | 1990-01-26 | Hitachi Ltd | Positioning compensating device |
JPH0288187A (en) * | 1988-09-26 | 1990-03-28 | Honda Motor Co Ltd | Control method for robot |
GB9021879D0 (en) * | 1990-10-09 | 1990-11-21 | Steel Castings Res | Apparatus and method for making a shaped article |
US5761390A (en) * | 1991-12-12 | 1998-06-02 | Hitachi, Ltd. | Robot for removing unnecessary portion on workpiece |
GB2363861A (en) * | 2000-06-19 | 2002-01-09 | Robotic Technology Systems Plc | Processing an object, eg a workpiece, by a tool |
JP5428639B2 (en) * | 2009-08-19 | 2014-02-26 | 株式会社デンソーウェーブ | Robot control apparatus and robot teaching method |
JP5324397B2 (en) * | 2009-11-02 | 2013-10-23 | 本田技研工業株式会社 | Information processing method, apparatus and program |
JP2014056496A (en) * | 2012-09-13 | 2014-03-27 | Mitsubishi Heavy Ind Ltd | Virtual camera image generation device, virtual camera image generation system, virtual camera image generation method and program |
CN106054814B (en) * | 2016-05-28 | 2018-11-30 | 济宁中科先进技术研究院有限公司 | Computer aided building method based on image grayscale |
JP6743723B2 (en) * | 2017-02-16 | 2020-08-19 | トヨタ自動車株式会社 | Robot teaching data correction method |
WO2023199620A1 (en) * | 2022-04-13 | 2023-10-19 | パナソニックIpマネジメント株式会社 | Robot control device and offline teaching system |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS5615992A (en) * | 1979-07-17 | 1981-02-16 | Kobe Steel Ltd | Method and device for preparing working locus data in industrial robot |
JPS58169987U (en) * | 1982-05-06 | 1983-11-12 | オムロン株式会社 | industrial robot |
JPS59216210A (en) * | 1983-05-25 | 1984-12-06 | Hitachi Ltd | Robot operation teaching method |
JPS60134908A (en) * | 1983-12-23 | 1985-07-18 | Nissan Motor Co Ltd | Correcting method of teaching data of robot |
JPS60151711A (en) * | 1984-01-19 | 1985-08-09 | Hitachi Ltd | Calibration system for robot hand visual coordinate system |
JPS60229109A (en) * | 1984-04-27 | 1985-11-14 | Hitachi Ltd | Position correcting system using visual camera |
JPS60258613A (en) * | 1984-06-06 | 1985-12-20 | Daifuku Co Ltd | Drive control equipment of truck |
JPH0750407B2 (en) * | 1984-10-26 | 1995-05-31 | 株式会社サンエス商工 | Numerical control system |
JPS61173878A (en) * | 1985-01-30 | 1986-08-05 | 株式会社日立製作所 | Individual-difference corresponding teach data correction system of robot |
-
1986
- 1986-08-29 JP JP61202914A patent/JP2767417B2/en not_active Expired - Lifetime
-
1987
- 1987-07-29 WO PCT/JP1987/000560 patent/WO1988001764A1/en unknown
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7333879B2 (en) | 2005-12-16 | 2008-02-19 | Fanuc Ltd | Offline programming device |
JP2010032339A (en) * | 2008-07-29 | 2010-02-12 | Kawasaki Heavy Ind Ltd | Position measuring method and position measuring device |
CN106737683A (en) * | 2017-01-11 | 2017-05-31 | 吉林省凯迪科技有限公司 | The method of correction industrial robot off-line programing error in the field |
WO2018173655A1 (en) * | 2017-03-21 | 2018-09-27 | 株式会社神戸製鋼所 | Operating program correction method and welding robot system |
US11565421B2 (en) | 2017-11-28 | 2023-01-31 | Fanuc Corporation | Robot and robot system |
US11992962B2 (en) | 2017-11-28 | 2024-05-28 | Fanuc Corporation | Robot and robot system |
Also Published As
Publication number | Publication date |
---|---|
JPS6358505A (en) | 1988-03-14 |
WO1988001764A1 (en) | 1988-03-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2767417B2 (en) | Robot control device | |
JP5365379B2 (en) | Robot system and robot system calibration method | |
JP5114019B2 (en) | Method for controlling the trajectory of an effector | |
Baeten et al. | Hybrid vision/force control at corners in planar robotic-contour following | |
CN114043087B (en) | Three-dimensional trajectory laser welding seam tracking attitude planning method | |
JP7529855B2 (en) | CONTROL DEVICE, ROBOT DEVICE, CONTROL METHOD, AND PROGRAM | |
JPH065486B2 (en) | Robot trajectory control method | |
JP2014024162A (en) | Robot system, robot control device, robot control method and robot control program | |
US20210031374A1 (en) | Robot device controller for controlling position of robot | |
JPH08132373A (en) | Coordinate system coupling method in robot-sensor system | |
US8761936B2 (en) | Teaching line correcting apparatus, teaching line correcting method, and program thereof | |
JP7190552B1 (en) | Robot teaching system | |
CN116852397B (en) | Self-adaptive adjusting method for physiotherapy force and physiotherapy path of negative pressure physiotherapy robot | |
JP4640499B2 (en) | Grip control device | |
WO2023032400A1 (en) | Automatic transport device, and system | |
JPH0693209B2 (en) | Robot's circular interpolation attitude control device | |
JP7384653B2 (en) | Control device for robot equipment that controls the position of the robot | |
JPH05134737A (en) | Teaching device of robot | |
WO2023013698A1 (en) | Robot control device, robot control system, and robot control method | |
JP2000094370A (en) | Inclination measuring method of work surface of robot and measuring device thereof | |
CN112292238A (en) | Method and system for transferring an end effector of a robot between an end effector pose and another end effector pose | |
JP7311971B2 (en) | ROBOT CONTROL DEVICE AND ROBOT CONTROL METHOD | |
WO2024201737A1 (en) | Robot control device, robot control method, and program | |
WO2023013739A1 (en) | Robot control device, robot control system, and robot control method | |
JPH05233042A (en) | Posture control system for robot having redundant degree of freedom |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
EXPY | Cancellation because of completion of term |