JP2767417B2 - Robot control device - Google Patents

Robot control device

Info

Publication number
JP2767417B2
JP2767417B2 JP61202914A JP20291486A JP2767417B2 JP 2767417 B2 JP2767417 B2 JP 2767417B2 JP 61202914 A JP61202914 A JP 61202914A JP 20291486 A JP20291486 A JP 20291486A JP 2767417 B2 JP2767417 B2 JP 2767417B2
Authority
JP
Japan
Prior art keywords
robot
camera
work object
point
vision system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP61202914A
Other languages
Japanese (ja)
Other versions
JPS6358505A (en
Inventor
淳 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
FUANATSUKU KK
Original Assignee
FUANATSUKU KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by FUANATSUKU KK filed Critical FUANATSUKU KK
Priority to JP61202914A priority Critical patent/JP2767417B2/en
Priority to PCT/JP1987/000560 priority patent/WO1988001764A1/en
Publication of JPS6358505A publication Critical patent/JPS6358505A/en
Application granted granted Critical
Publication of JP2767417B2 publication Critical patent/JP2767417B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/408Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by data handling or data format, e.g. reading, buffering or conversion of data
    • G05B19/4083Adapting programme, configuration
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Manufacturing & Machinery (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Numerical Control (AREA)
  • Manipulator (AREA)

Description

【発明の詳細な説明】 (産業上の利用分野) 本発明は、CAD/CAMを利用してロボットの制御を行な
うロボット制御装置に関する。 (従来の技術) 従来、CAD/CAMを利用してロボットの制御を行なうロ
ボット制御装置では、ロボットの例えば腕を作業の施さ
れるべき対象物に対して位置決めし、種々の教示を行な
った後、対象物に所定の作業を行なうようになってい
る。対象物に作業を施すに際しロボットの位置決めある
いは対象物の位置決めはCAD/CAMを利用したオフライン
プログラミングシステムにより仮想的にすなわち、ロボ
ットの腕に撓み等がなくまた対象物に位置ずれ等がない
と仮想して計算され定められる。 (発明が解決しようとする問題点) しかしながら、このような従来の仮想的なオフライン
プログラミングシステムでは、ロボットの位置決めは大
まかなものであり、例えばロボットを、十分な精度を必
要とするスポット/アーク溶接に適用する場合には適し
ていない。すなわち、例えばロボットの腕にエンドエフ
ェクタとしてスポットガンなどを取付ける場合にはエン
ドエフェクタの重量、モーメントの作用によりロボット
の腕が撓むが仮想的なオフラインプログラミングシステ
ムではこの撓みを何ら考慮しないのでロボットの腕を対
象物に対して正確に精度良く位置決めすることはできな
い。 さらに、従来のオフラインプログラミングシステムで
は例えば車両車体へのスポット溶接を行なう場合にロボ
ットの作業対象となる搬送ラインで運ばれる車体の位置
が予め定められていると仮想してロボットの腕の対象物
に対する相対位置を決定しているが、実際には対象物の
位置は搬送ラインの誤差でずれることがあり、この場合
にもロボットの腕を対象物に対して正確に精度良く位置
することができないという問題があった。 本発明は、ロボット自体の位置ずれおよび対象物の位
置ずれを補正して正確にかつ精度良く対象物に対するロ
ボットの位置を決定することの可能なロボット制御装置
を提供することを目的としている。 (問題点を解決するための手段) 本発明は、作業対象物の基準となる点を認識するロボ
ットに付設されたカメラと、該カメラにより認識された
前記作業対象物の基準となる点の画像データを演算する
ビジョンシステムと、該ビジョンシステムで演算された
演算データによりCAD/CAMで得られた前記作業対象物の
仮想的なプログラム位置に補正をかけるロボット制御部
とを具備したロボットの制御を行うロボット制御装置に
おいて、前記作業対象物上の所定位置にそれぞれ設けら
れた3つの点と、該3つの点をそれぞれロボットに設け
られた前記カメラをもって異なる位置で捉えた画像デー
タを用いて作業対象物上の各点とカメラとの3次元相対
位置関係の位置データを求める作業対象物位置判定手段
と、オフラインで作成されたプログラム上の仮想的な作
業対象物の位置データを、前記作業対象物位置判定手段
により得られた位置データにより補正する補正手段と、
を具備してなるロボットの制御を行うロボット制御装置
を提供することによって上記従来技術の問題点を解決す
るものである。 (作用) 本発明では、ロボットにより作業の施されるべき対象
物を予め仮想的に定められた所定の位置へ搬送ラインに
より移動させ、カメラによって対象物の基準となる3つ
以上の点を認識して対象物を三次元的に認識する。カメ
ラにより三次元的に認識された対象物の3つ以上の点の
情報はビジョンシステムに送られてビジョンシステムに
よりカメラと対象物の認識された各点との相対位置関係
が決定される。ビジョンシステムはこの位置関係の情報
をロボット制御部に送りロボット制御部はビジョンシス
テムで決定された相対位置関係によりCAD/CAMで得られ
た仮想的なプログラム位置に補正をかけて、対象物を正
確にかつ精度良く位置決めすることができる。 (実施例) 以下に本発明の実施例を図面を用いて説明する。 第1図は本発明のロボット制御装置の構成図、第2図
は対象物とこの対象物を三次元的に認識するロボットと
の位置関係を示す図、第3図は対象物の1つの点に対し
てこの点をカメラ座標系において複数の姿勢から認識す
る様子を示す図である。 第1図において、ロボット本体1は台2と、この台2
に対して回転自在にかつ折曲げ自在に取付けられたアー
ム3aと、このアーム3aに対し回転自在にかつ折曲げ自在
に取付けられたアーム3bと、アーム3bの先端部に回転自
在にかつ折曲げ自在に設けられたエンドエフェクタ4と
から構成されている。 ロボット本体1のアーム3a,3bおよびエンドエフェク
タ4の移動はロボット制御部5によって制御される。ロ
ボット制御部5は、図示しないがマイクロプロセッサを
使用してCAD/CAMのオフラインプログラミングシステム
の制御の下でロボット本体1を作動し、アーム3a,3bの
位置決めあるいはエンドエフェクタ4の位置決めを行な
うようになっている。 本発明のロボット制御装置ではさらにエンドエフェク
タ4の近くにカメラ6を設置し、カメラ6をロボットに
よって作業されるべき対象物8に向けて対象物8の映像
を撮像してビジョンシステム7に送るようになってい
る。ビジョンシステム7は、カメラ6で撮像された画像
を解析してロボット本体1のエンドエフェクタ4と対象
物8との相対的位置関係を認識し、位置ずれなどが生じ
ている場合には、認識結果をロボット制御部5に送り、
ロボット制御部5におけるオフラインプログラミングシ
ステムによる制御を補正するようになっている。 以上のような構成のロボット制御装置の動作を第4図
を用いて説明する。第4図は、ロボット制御部5および
ビジョンシステム7の処理の流れを示したフローチャー
トである。 第4図において、まずステップST1で作業の施される
べき対象物8、例えばロボットによりスポット/アーク
溶接の施されるべき車体を搬送ライン(図示せず)上で
移動させてロボット本体1に対して予め仮想的に定めら
れている所定の位置に位置決めする。次いでカメラ6で
対象物8の基準となる点を認識する(ステップST2)。
対象物を三次元的に認識するには、3つ以上の点が必要
となり、第2図では例えば点P1,P2,P3がこれらの点に該
当する。さらにカメラ6と各点P1,P2,P3との三次元的な
位置関係を決めるには1つの点、例えば点P1についてこ
の点P1を第3図に示すように複数のカメラ姿勢PS1,PS2
から認識しなければならない。従って対象物8を三次元
的に認識し、対象物8の各点の位置関係を決めるには、
カメラ6の位置すなわち姿勢を少なくとも6回変える必
要がある。またカメラ6によって各姿勢で撮像された対
象物の各点の画像はビジョンシステム7によって解析さ
れ位置関係が決定される。このようにステップST2に続
いてステップST3では、ビジョンシステム7によってカ
メラ6と対象物の各点P1,P2,P3との三次元的な相対位置
関係を決定する。次いでステップST4ではこのように決
定された位置関係に基づいてCAD/CAMにより得られた仮
想的なプログラム位置を補正することによって、例えば
ロボットの腕にエンドエフェクタとしてのスポットガン
などを取付けることによるロボットの腕の撓みや搬送ラ
インで運ばれる対象物の位置ずれを補正して正確な位置
決めの下で対象物に十分な精度で例えばスポット/アー
ク溶接等の作業を施すことが可能となる。 なお、ロボット制御部5とビジョンシステム7との関
係は、例えばロボット制御部5のCAD/CAMのオフライン
プログラミングシステムを実現するプロセッサをメイン
プロセッサとし、ビジョンシステム7に用いられるプロ
セッサを画像処理専用プロセッサとすれば、この画像処
理専用プロセッサはメインプロセッサのコプロセッサと
なりメインプロセッサの制御の下で独自に画像処理を実
行することができるようになっている。 (発明の効果) 以上詳細に説明したように本発明によれば、ロボット
制御部はビジョンシステムで決定された対象物とカメラ
との相対位置関係によりCAD/CAMで得られた仮想的なプ
ログラム位置に補正をかけるので、作業の施されるべき
対象物を正確にかつ精度良く位置決めすることができ
て、例えばスポット/アーク溶接作業のような十分な精
度を必要とする作業にも適用しうるという効果を得るこ
とができる。
Description: TECHNICAL FIELD The present invention relates to a robot control device that controls a robot using CAD / CAM. (Conventional technology) Conventionally, in a robot control device that controls a robot using CAD / CAM, after positioning, for example, an arm of the robot with respect to an object to be worked, and performing various teachings A predetermined operation is performed on an object. When performing work on an object, positioning of the robot or positioning of the object is virtually performed by an offline programming system using CAD / CAM, i.e., if the robot arm does not bend, etc. It is calculated and determined. (Problems to be Solved by the Invention) However, in such a conventional virtual off-line programming system, the positioning of the robot is rough, and for example, the robot is required to be spot-arc-welded which requires sufficient accuracy. Not suitable when applied to That is, for example, when a spot gun or the like is attached to the robot arm as an end effector, the robot arm bends due to the effect of the weight and moment of the end effector, but the virtual off-line programming system does not consider this warp at all. The arm cannot be accurately positioned with respect to the object. Furthermore, in a conventional off-line programming system, for example, when performing spot welding on a vehicle body, it is assumed that the position of the body carried on a transfer line that is a work target of the robot is predetermined, and the position of the robot arm with respect to the object is assumed. Although the relative position is determined, the position of the target object may actually shift due to the error of the transport line, and in this case also, it is not possible to accurately position the robot arm with respect to the target object. There was a problem. SUMMARY OF THE INVENTION It is an object of the present invention to provide a robot control device capable of correcting a position shift of a robot itself and a target object and accurately and accurately determining a position of the robot with respect to the target object. (Means for Solving the Problems) The present invention relates to a camera attached to a robot that recognizes a reference point of a work object, and an image of a reference point of the work object recognized by the camera. A robot system including a vision system for calculating data, and a robot control unit for correcting a virtual program position of the work object obtained by CAD / CAM using the calculation data calculated by the vision system. The robot controller performs the operation of the work object using three points provided at predetermined positions on the work object and image data obtained by capturing the three points at different positions using the cameras provided on the robot. Work object position determining means for obtaining position data of a three-dimensional relative positional relationship between each point on the object and the camera; The position data of the virtual undertaking object, and correcting means for correcting the position data obtained by the work object position determining means,
It is an object of the present invention to solve the above-described problems of the related art by providing a robot control device for controlling a robot including: (Function) In the present invention, the object to be worked by the robot is moved to a predetermined position virtually determined by a transport line, and three or more reference points of the object are recognized by the camera. To three-dimensionally recognize the object. Information on three or more points of the object three-dimensionally recognized by the camera is sent to the vision system, and the vision system determines the relative positional relationship between the camera and each point of the object recognized. The vision system sends this positional information to the robot controller, and the robot controller corrects the target program by correcting the virtual program position obtained by CAD / CAM based on the relative positional relationship determined by the vision system. And accurate positioning. (Example) Hereinafter, an example of the present invention will be described with reference to the drawings. FIG. 1 is a configuration diagram of a robot control device of the present invention, FIG. 2 is a diagram showing a positional relationship between an object and a robot that three-dimensionally recognizes the object, and FIG. 3 is a point on the object. FIG. 6 is a diagram showing how this point is recognized from a plurality of postures in a camera coordinate system. In FIG. 1, a robot body 1 includes a table 2 and the table 2
Arm 3a rotatably and bendably mounted on the arm 3b, arm 3b rotatably and bendably mounted on the arm 3a, and a rotatable and bendable end of the arm 3b And an end effector 4 provided freely. The movements of the arms 3a, 3b and the end effector 4 of the robot body 1 are controlled by a robot controller 5. The robot controller 5 operates the robot body 1 under the control of a CAD / CAM offline programming system using a microprocessor (not shown) to position the arms 3a and 3b or the end effector 4. Has become. In the robot control device of the present invention, a camera 6 is further installed near the end effector 4, and the camera 6 is directed to the object 8 to be worked by the robot so that an image of the object 8 is captured and sent to the vision system 7. It has become. The vision system 7 analyzes the image captured by the camera 6 and recognizes the relative positional relationship between the end effector 4 of the robot body 1 and the object 8. If a positional shift or the like occurs, the recognition result is obtained. To the robot controller 5 and
The control by the offline programming system in the robot controller 5 is corrected. The operation of the robot control device having the above configuration will be described with reference to FIG. FIG. 4 is a flowchart showing a flow of processing of the robot control unit 5 and the vision system 7. In FIG. 4, first, in step ST1, an object 8 to be subjected to work, for example, a vehicle body to be subjected to spot / arc welding by a robot is moved on a transfer line (not shown) so as to be moved with respect to the robot main body 1. To a predetermined position virtually determined in advance. Next, the camera 6 recognizes a reference point of the object 8 (step ST2).
In order to three-dimensionally recognize an object, three or more points are required. In FIG. 2, for example, points P1, P2, and P3 correspond to these points. Further, in order to determine the three-dimensional positional relationship between the camera 6 and each of the points P1, P2, P3, one point, for example, the point P1 for a plurality of camera postures PS1, PS2 as shown in FIG.
Must recognize from. Therefore, in order to recognize the object 8 three-dimensionally and determine the positional relationship of each point of the object 8,
It is necessary to change the position, that is, the attitude of the camera 6 at least six times. Further, the image of each point of the object captured in each posture by the camera 6 is analyzed by the vision system 7 to determine the positional relationship. Thus, in step ST3 following step ST2, the vision system 7 determines a three-dimensional relative positional relationship between the camera 6 and each point P1, P2, P3 of the object. Next, in step ST4, by correcting the virtual program position obtained by CAD / CAM based on the positional relationship determined in this way, for example, by attaching a spot gun or the like as an end effector to the arm of the robot, It is possible to perform operations such as spot / arc welding on the object with sufficient accuracy under accurate positioning by correcting the bending of the arm and the displacement of the object carried on the transport line. The relationship between the robot control unit 5 and the vision system 7 is such that, for example, a processor that realizes a CAD / CAM offline programming system of the robot control unit 5 is a main processor, and a processor used in the vision system 7 is a processor dedicated to image processing. Then, the processor dedicated to image processing becomes a coprocessor of the main processor, and can independently execute image processing under the control of the main processor. (Effect of the Invention) As described in detail above, according to the present invention, the robot control unit obtains the virtual program position obtained by CAD / CAM based on the relative positional relationship between the object and the camera determined by the vision system. , The object to be worked can be accurately and accurately positioned, and can be applied to work requiring sufficient accuracy, for example, spot / arc welding work. The effect can be obtained.

【図面の簡単な説明】 第1図は本発明のロボット制御装置のシステム構成図、
第2図は作業の施されるべき対象物とこの対象物を三次
元的に認識するロボットとの位置関係を示す図、第3図
は対象物の1つの点に対してこの点をカメラ座標系にお
いて複数の姿勢から認識する様子を示す図、第4図はロ
ボット制御装置の位置決め処理の流れを示すフローチャ
ートである。 1……ロボット本体、2……台、3a,3b……アーム、4
……エンドエフェクタ、5……ロボット制御部、6……
カメラ、7……ビジョンシステム、8……対象物。
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a system configuration diagram of a robot control device according to the present invention;
FIG. 2 is a diagram showing a positional relationship between an object to be worked on and a robot which three-dimensionally recognizes the object, and FIG. 3 is a diagram showing a point of the object with camera coordinates. FIG. 4 is a flowchart showing a state of recognition from a plurality of postures in the system, and FIG. 4 is a flowchart showing a flow of a positioning process of the robot controller. 1 ... robot body, 2 ... table, 3a, 3b ... arm, 4
... End effector, 5 ... Robot control unit, 6 ...
Camera 7, Vision system 8, Object.

───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 昭60−258613(JP,A) 特開 昭61−103207(JP,A) 特開 昭61−173878(JP,A) 特開 昭60−229109(JP,A) 実開 昭58−169987(JP,U)   ────────────────────────────────────────────────── ─── Continuation of front page       (56) References JP-A-60-258613 (JP, A)                 JP-A-61-103207 (JP, A)                 JP-A-61-173878 (JP, A)                 JP-A-60-229109 (JP, A)                 Japanese Utility Model Showa 58-169987 (JP, U)

Claims (1)

(57)【特許請求の範囲】 1.作業対象物の基準となる点を認識するロボットに付
設されたカメラと、該カメラにより認識された前記作業
対象物の基準となる点の画像データを演算するビジョン
システムと、該ビジョンシステムで演算された演算デー
タによりCAD/CAMで得られた前記作業対象物の仮想的な
プログラム位置に補正をかけるロボット制御部とを具備
したロボットの制御を行うロボット制御装置において、 前記作業対象物上に所定位置にそれぞれ設けられた3つ
の点と、 該3つの点のそれぞれについてロボットに設けられた前
記カメラをもって異なる複数位置で捉えた画像データを
用いて作業対象物上の各点とカメラとの3次元相対位置
関係の位置データを求める作業対象物位置判定手段と、 オフラインで作成されたプログラム上の仮想的な作業対
象物の位置データを、前記作業対象物位置判定手段によ
り得られた位置データにより補正する補正手段と、 を具備してなるロボットの制御を行うロボット制御装
置。 2.前記作業対象物位置判定手段は、1つの点を複数の
カメラ姿勢で捉えた画像データを用いてこの点とカメラ
との3次元相対位置関係を求めることを、3つの点でそ
れぞれ行うことを特徴とする特許請求の範囲第(1)項
記載のロボットの制御を行うロボット制御装置。
(57) [Claims] A camera attached to a robot that recognizes a reference point of the work object, a vision system that calculates image data of a reference point of the work object recognized by the camera, and a vision system that calculates the image data. A robot control unit that corrects a virtual program position of the work object obtained by CAD / CAM using the calculated data. And three-dimensional relative positions of each point on the work object and the camera using image data captured at a plurality of different positions by the camera provided on the robot for each of the three points. Work object position determination means for obtaining position data of a positional relationship, and position data of a virtual work object on a program created offline. And a correcting means for correcting the data by the position data obtained by the work object position determining means. 2. The work object position determination means performs three-dimensional relative positional relationship between the point and the camera by using image data obtained by capturing one point with a plurality of camera postures at each of the three points. A robot control device for controlling a robot according to claim (1).
JP61202914A 1986-08-29 1986-08-29 Robot control device Expired - Lifetime JP2767417B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP61202914A JP2767417B2 (en) 1986-08-29 1986-08-29 Robot control device
PCT/JP1987/000560 WO1988001764A1 (en) 1986-08-29 1987-07-29 Robot controller

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP61202914A JP2767417B2 (en) 1986-08-29 1986-08-29 Robot control device

Publications (2)

Publication Number Publication Date
JPS6358505A JPS6358505A (en) 1988-03-14
JP2767417B2 true JP2767417B2 (en) 1998-06-18

Family

ID=16465258

Family Applications (1)

Application Number Title Priority Date Filing Date
JP61202914A Expired - Lifetime JP2767417B2 (en) 1986-08-29 1986-08-29 Robot control device

Country Status (2)

Country Link
JP (1) JP2767417B2 (en)
WO (1) WO1988001764A1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7333879B2 (en) 2005-12-16 2008-02-19 Fanuc Ltd Offline programming device
JP2010032339A (en) * 2008-07-29 2010-02-12 Kawasaki Heavy Ind Ltd Position measuring method and position measuring device
CN106737683A (en) * 2017-01-11 2017-05-31 吉林省凯迪科技有限公司 The method of correction industrial robot off-line programing error in the field
WO2018173655A1 (en) * 2017-03-21 2018-09-27 株式会社神戸製鋼所 Operating program correction method and welding robot system
US11565421B2 (en) 2017-11-28 2023-01-31 Fanuc Corporation Robot and robot system

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0714276B2 (en) * 1988-06-20 1995-02-15 株式会社日立製作所 Actuator
JPH0224076A (en) * 1988-07-07 1990-01-26 Hitachi Ltd Positioning compensating device
JPH0288187A (en) * 1988-09-26 1990-03-28 Honda Motor Co Ltd Control method for robot
GB9021879D0 (en) * 1990-10-09 1990-11-21 Steel Castings Res Apparatus and method for making a shaped article
US5761390A (en) * 1991-12-12 1998-06-02 Hitachi, Ltd. Robot for removing unnecessary portion on workpiece
GB2363861A (en) * 2000-06-19 2002-01-09 Robotic Technology Systems Plc Processing an object, eg a workpiece, by a tool
JP5428639B2 (en) * 2009-08-19 2014-02-26 株式会社デンソーウェーブ Robot control apparatus and robot teaching method
JP5324397B2 (en) * 2009-11-02 2013-10-23 本田技研工業株式会社 Information processing method, apparatus and program
JP2014056496A (en) * 2012-09-13 2014-03-27 Mitsubishi Heavy Ind Ltd Virtual camera image generation device, virtual camera image generation system, virtual camera image generation method and program
CN106054814B (en) * 2016-05-28 2018-11-30 济宁中科先进技术研究院有限公司 Computer aided building method based on image grayscale
JP6743723B2 (en) * 2017-02-16 2020-08-19 トヨタ自動車株式会社 Robot teaching data correction method
WO2023199620A1 (en) * 2022-04-13 2023-10-19 パナソニックIpマネジメント株式会社 Robot control device and offline teaching system

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5615992A (en) * 1979-07-17 1981-02-16 Kobe Steel Ltd Method and device for preparing working locus data in industrial robot
JPS58169987U (en) * 1982-05-06 1983-11-12 オムロン株式会社 industrial robot
JPS59216210A (en) * 1983-05-25 1984-12-06 Hitachi Ltd Robot operation teaching method
JPS60134908A (en) * 1983-12-23 1985-07-18 Nissan Motor Co Ltd Correcting method of teaching data of robot
JPS60151711A (en) * 1984-01-19 1985-08-09 Hitachi Ltd Calibration system for robot hand visual coordinate system
JPS60229109A (en) * 1984-04-27 1985-11-14 Hitachi Ltd Position correcting system using visual camera
JPS60258613A (en) * 1984-06-06 1985-12-20 Daifuku Co Ltd Drive control equipment of truck
JPH0750407B2 (en) * 1984-10-26 1995-05-31 株式会社サンエス商工 Numerical control system
JPS61173878A (en) * 1985-01-30 1986-08-05 株式会社日立製作所 Individual-difference corresponding teach data correction system of robot

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7333879B2 (en) 2005-12-16 2008-02-19 Fanuc Ltd Offline programming device
JP2010032339A (en) * 2008-07-29 2010-02-12 Kawasaki Heavy Ind Ltd Position measuring method and position measuring device
CN106737683A (en) * 2017-01-11 2017-05-31 吉林省凯迪科技有限公司 The method of correction industrial robot off-line programing error in the field
WO2018173655A1 (en) * 2017-03-21 2018-09-27 株式会社神戸製鋼所 Operating program correction method and welding robot system
US11565421B2 (en) 2017-11-28 2023-01-31 Fanuc Corporation Robot and robot system
US11992962B2 (en) 2017-11-28 2024-05-28 Fanuc Corporation Robot and robot system

Also Published As

Publication number Publication date
JPS6358505A (en) 1988-03-14
WO1988001764A1 (en) 1988-03-10

Similar Documents

Publication Publication Date Title
JP2767417B2 (en) Robot control device
JP5365379B2 (en) Robot system and robot system calibration method
JP5114019B2 (en) Method for controlling the trajectory of an effector
Baeten et al. Hybrid vision/force control at corners in planar robotic-contour following
CN114043087B (en) Three-dimensional trajectory laser welding seam tracking attitude planning method
JP7529855B2 (en) CONTROL DEVICE, ROBOT DEVICE, CONTROL METHOD, AND PROGRAM
JPH065486B2 (en) Robot trajectory control method
JP2014024162A (en) Robot system, robot control device, robot control method and robot control program
US20210031374A1 (en) Robot device controller for controlling position of robot
JPH08132373A (en) Coordinate system coupling method in robot-sensor system
US8761936B2 (en) Teaching line correcting apparatus, teaching line correcting method, and program thereof
JP7190552B1 (en) Robot teaching system
CN116852397B (en) Self-adaptive adjusting method for physiotherapy force and physiotherapy path of negative pressure physiotherapy robot
JP4640499B2 (en) Grip control device
WO2023032400A1 (en) Automatic transport device, and system
JPH0693209B2 (en) Robot's circular interpolation attitude control device
JP7384653B2 (en) Control device for robot equipment that controls the position of the robot
JPH05134737A (en) Teaching device of robot
WO2023013698A1 (en) Robot control device, robot control system, and robot control method
JP2000094370A (en) Inclination measuring method of work surface of robot and measuring device thereof
CN112292238A (en) Method and system for transferring an end effector of a robot between an end effector pose and another end effector pose
JP7311971B2 (en) ROBOT CONTROL DEVICE AND ROBOT CONTROL METHOD
WO2024201737A1 (en) Robot control device, robot control method, and program
WO2023013739A1 (en) Robot control device, robot control system, and robot control method
JPH05233042A (en) Posture control system for robot having redundant degree of freedom

Legal Events

Date Code Title Description
R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term