WO1988001764A1 - Robot controller - Google Patents

Robot controller Download PDF

Info

Publication number
WO1988001764A1
WO1988001764A1 PCT/JP1987/000560 JP8700560W WO8801764A1 WO 1988001764 A1 WO1988001764 A1 WO 1988001764A1 JP 8700560 W JP8700560 W JP 8700560W WO 8801764 A1 WO8801764 A1 WO 8801764A1
Authority
WO
WIPO (PCT)
Prior art keywords
robot
control device
camera
positional relationship
image processing
Prior art date
Application number
PCT/JP1987/000560
Other languages
French (fr)
Japanese (ja)
Inventor
Atsushi Watanabe
Original Assignee
Fanuc Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Ltd filed Critical Fanuc Ltd
Publication of WO1988001764A1 publication Critical patent/WO1988001764A1/en

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/408Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by data handling or data format, e.g. reading, buffering or conversion of data
    • G05B19/4083Adapting programme, configuration
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Definitions

  • the present invention relates to a robot control device that controls a robot by using CAD NO C'AM.
  • a robot control device that controls a robot using CADCAM uses a robot, for example, a manipulator such as an arm. After positioning the object to be worked on and giving various teachings on the operation of the manipulator at that position, It outputs an operation command for a predetermined operation to the robot.
  • the positioning of the robot and / or the device, or the positioning of the object must be done using an off-line program using CAD / CAM.
  • the virtual system is calculated by assuming a state in which the robot arm does not bend, etc., and the object is not displaced. It is.
  • the present invention has been made to solve such a problem, and recognizes the position shift S of the robot itself and the position shift of the object, and detects the position of the mouth of the object with respect to the object.
  • An object of the present invention is to provide a robot control device capable of accurately and accurately correcting a control command of a robot.
  • an object in a robot controller that controls a robot under the control of an offline programming system, an object can be controlled.
  • An image input means for recognizing a reference point, and an image for determining a three-dimensional relative positional relationship between the robot and the object based on a pre-E reference point recognized by analyzing image information of the image input means. Determined by processing means and this image processing means
  • Correction means for correcting a virtual program position based on the relative positional relationship obtained, and a control command for forming a control command for the robot at the corrected position.
  • a robot control device characterized by having a robot control unit can be provided.
  • the robot control device of the present invention corrects a virtual program position based on the relative positional relationship between the object and the robot determined by the image processing means.
  • robot control commands for the object to be worked on are accurately and accurately output, and robot-based work using CADZCAM can be realized. It is.
  • Fig. 1 is a system configuration diagram of the robot control device according to the present invention
  • Fig. 2 is a three-dimensional view of an object to be worked on and its counterpart object.
  • Fig. 3 shows the positional relationship with the robot.
  • Fig. 3 shows how a single point on the object is recognized from multiple poses in the camera coordinate system.
  • FIG. 4 and FIG. 4 are flowcharts showing the flow of the positioning process of the robot controller.
  • the robot body 1 has a joint 2 and an arm 3a rotatably and foldably mounted on the joint 2 and the arm 3a.
  • the arm 3b which is attached to the arm 3a so as to be freely rotatable and bent, and the tip of the arm 3b
  • the end effector 4 is provided so as to be freely rotatable and freely bendable.
  • the movement of the arms 3a, 3b and the end effector 4 of the robot body 1 is controlled by the robot control unit 5.
  • the robot control unit 5 controls the CAD / CAM under the control of an off-line programming system using a micro-port opening sensor.
  • the robot main body 1 is operated, and the arms 3a and 3b are positioned and the end effector 4 is positioned.
  • a camera 6 is installed near the end effector 4 and the camera 6 is operated by the robot.
  • An image of the object 8 is captured toward the object 8 to be transmitted and sent to the vision system 7.
  • the vision system 7 analyzes the image captured by the camera 6 and recognizes the relative positional relationship between the end effector 4 of the mouth body 1 and the object 8. If a position shift or the like has occurred, the recognition result is sent to the robot control unit 5, and the off-line programming in the robot control unit 5 is performed. It is designed to compensate for the control amount by the system.
  • FIG. 4 is a flowchart showing the flow of the services of the robot control unit 5 and the vision system 7. .
  • an object 8 to be worked on at step ST 1 for example, a spot-nor by a robot
  • the vehicle body to be welded is moved on a transport line (not shown) to set a predetermined position virtually set in advance with respect to the robot * body 1.
  • the reference point of the object 8 is recognized by the camera 6 (step ST2).
  • three or more points are required.For example, in FIG. 2, points P1, P2, and P3 correspond to these points. .
  • one point, for example, the point P1 is used for this point P1. As shown in Fig.
  • step ST 3 the virtual program position obtained by CAD / CAM is corrected based on the positional relationship determined in this manner.
  • a robot can be attached to the arm of the robot with a spot gun as an end effector, for example: / Corrects the deflection of the arm of the robot or the deviation from the program position caused by the displacement of the object carried by the transport line.
  • a spot gun as an end effector
  • the relationship between the robot control unit 5 and the vision system 7 is, for example, a CAD / CAM offline programming system of the robot control unit 5. If the processor that realizes this is a main processor and the processor used for the vision system 7 is a processor dedicated to image processing, this image processing The dedicated processor becomes the coprocessor of the main processor and can execute its own image processing under the control of the main processor. It has become so .
  • the robot controller of the present invention accurately and accurately positions a robot with respect to an object to be worked, for example, in a spot Z arc welding operation. It is suitable for use in tasks that require sufficient accuracy.

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Manufacturing & Machinery (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Numerical Control (AREA)
  • Manipulator (AREA)

Abstract

Robot controller according to which an object (8) to be worked by a robot (1) is moved to a predetermined position on a carrier line, and three or more points that serve as references of the object are recognized by a camera (6), so that the object (8) is three-dimensionally recognized. Video data of the camera are sent to a vision system (7), and a relative position relationship is determined between the camera and each of the recognized points of the object. The vision system (7) sends the data of position relationship to the robot controller (5), which then corrects a virtual program position obtained through CAD/CAM from the relative position relationship determined by the vision system.

Description

明 細 書  Specification
ロ ボ ッ 卜 制御装置  Robot controller
技 術 分 野  Technical field
本発明 は、 C A D ノ C' A M を利用 し て ロ ボ ッ 卜 の制御 を行 な う ロ ボ ッ 卜 制御装置 に 関す る 。  The present invention relates to a robot control device that controls a robot by using CAD NO C'AM.
背 景 技 術 - 従来、 C A D C A M を利用 し て ロ ボ ッ 卜 の制御 を行 な う ロ ボ ッ 卜 制御装置で は、 ロ ボ ッ 卜 の例 え ば腕等の マ ニ ビ ュ レ ー タ を作業の施 さ れ る べ き 対象物 に 対 し て位置 決め し 、 そ の位置で の マ ニ ピ ュ レ ー タ の動作 に つ い て種 々 の教示 .を行 な っ た後、 対象物 に 対す る 所定の作業 に つ い て の動作指令を 出力す.る よ う に な つ て い る 。 対象物 に 作.'業 を施す に 際 じ、 ロ ボ 、ソ ト' の'位置決め あ る い は対象物 の位置決め は、 C A D / C A M を利用 し た オ フ ラ イ ン ブ ロ グ ラ ミ ン グ シ ス テ ム に よ り 仮想 0¾·に 、 す な わ ち ロ ボ ッ 卜 の腕 に 撓み等が な く 、 ま た対象物 に 位置ず れが な い等 の状態を想定 し て計算 さ れ る 。  Background technology-Conventionally, a robot control device that controls a robot using CADCAM uses a robot, for example, a manipulator such as an arm. After positioning the object to be worked on and giving various teachings on the operation of the manipulator at that position, It outputs an operation command for a predetermined operation to the robot. When performing the work on the object, the positioning of the robot and / or the device, or the positioning of the object, must be done using an off-line program using CAD / CAM. The virtual system is calculated by assuming a state in which the robot arm does not bend, etc., and the object is not displaced. It is.
し か し な が ら 、 こ の よ う な従来の オ フ ラ イ ン プ ロ ダ ラ ミ ン グ シ ス テ ム を 仮想的 な 状態 の 基 で 稼動 し .た 場合 に は、 ロ ボ ッ ト の位置決め は大 ま か な も の と な り 、 例 え ば ロ ボ ツ ト を駆動す る 際 に十分 な精度を 必要 と す る ス ポ ッ ト / ア ー ク 溶接 に は適 し て い な い 。 そ の原因 は、 例 え ば ロ ボ ッ ト の 腕 に エ ン ド ェ フ エ ク タ と し て ス ボ ッ ト ガ ン な ど を取付 け る 場合 に お い て は、 そ の ェ ン ド エ フ エ ク タ の 重量や モ ー メ ン 卜 の作用 に よ り ロ ボ ッ 卜 の腕が撓 む か ら で、 従来の仮想的 なオ フ ラ イ ン プ ロ グ ラ ミ ン グシ ス テ ム で は こ の撓みが何ら考慮されてい な ため、 ロ ボ ッ 卜 の腕 を対象物 に対し て正確に精度良 く 位置決めす る こ と は で き ない。 However, if such a conventional offline programming system is operated in a virtual state, the robot will not be able to operate. Positioning is a rough rule of thumb, for example, it is not suitable for spot / arc welding where sufficient accuracy is required when driving a robot. No. The cause is that, for example, when a robot such as a slot gun can be attached to the arm of the robot as an end effector, the end The arm of the robot bends due to the weight of the effector and the effect of the moment. In the conventional virtual off-line programming system, this bending is not considered at all, so that the robot arm can be accurately positioned with respect to the object. It cannot be positioned well.
さ ら に、 従来の オ フ ラ イ ン プ ロ グラ ミ ン グ シ ス テ ム で 例え ば搬送ラ イ ン で運ばれ る車両の車体部分のス ボ ッ ト 溶接を行な う 場合に は、 ロ ボ ツ ト の作業対象 と なる車体 の位置が予め定め ら れてい る と 仮想さ れ、 対象物に対す る ロ ボ ッ ト の腕の相対位置を決定し ている が、 実際に は 対象物の位置が搬送ラ イ ン上でずれて供給ざれ る こ と が あ り 、 こ の場合に も ロ ボ ッ ト の腕を対象物の位置ずれ.に 対 レ て正確に精度良く 補正す る こ と がで き ない と い う 問 題があ つ. た。 ' . . .  In addition, in conventional off-line programming systems, for example, when performing spot welding on the body of a vehicle that is carried by a transport line, It is hypothesized that the position of the vehicle body to be worked by the robot is predetermined, and the relative position of the robot's arm to the object is determined. In some cases, the position of the robot may be shifted on the transport line and the robot may not be supplied.In this case, the robot arm must be accurately and accurately corrected for the positional shift of the object. There was a problem that I could not do it. '...
発 明 の 開 示  Disclosure of the invention
本発明は、 こ う し た問題点を解決すべ く な さ れ た も の で、 ロ ボ ッ ト 自体の位 Sずれお よび対象物の位置ずれを 認識して、 対象物に対す る 口 ボ ト の制御指令を正確に かつ精度良 く 補正す る こ と の可能な ロ ボ ッ ト 制御装置を 提供する こ と を 目 的 と している 。  The present invention has been made to solve such a problem, and recognizes the position shift S of the robot itself and the position shift of the object, and detects the position of the mouth of the object with respect to the object. An object of the present invention is to provide a robot control device capable of accurately and accurately correcting a control command of a robot.
本凳明 に よ れば、 オ フ ラ イ ン プロ グ ラ ミ ン グ シス テ ム の制御の下で ロ ボ ヅ ト の制御を行な う ロ ボ ッ ト 制御装置 に おいて、 対象物の基準点を認識する画像入力手段 と 、 こ の画像入力手段の画像情報を解析 し て認識された前 E 基準点に基づいて ロ ボ ッ ト と 対象物 と の三次元相対位置 関係を決め る画像処理手段 と 、 こ の画像処理手段で決定 さ れ た相対位置関係 に よ り 仮想的 な プ ロ グ ラ ム位置 に補 正をか け る補正手段 と 、 補正さ れ た位置での ロ ボ ッ ト に 対す る 制御指令を形成す る ロ ボ ッ ト 制御部 と を具備す る こ と を特徴 と す る ロ ボ ッ ト 制御装置が提供で き る 。 According to the present invention, in a robot controller that controls a robot under the control of an offline programming system, an object can be controlled. An image input means for recognizing a reference point, and an image for determining a three-dimensional relative positional relationship between the robot and the object based on a pre-E reference point recognized by analyzing image information of the image input means. Determined by processing means and this image processing means Correction means for correcting a virtual program position based on the relative positional relationship obtained, and a control command for forming a control command for the robot at the corrected position. A robot control device characterized by having a robot control unit can be provided.
従 っ て本発明の ロ ボ ッ 卜 制御装置は、 画像処理手段で 決定さ れた対象物 と ロ ボ ッ ト と の相対位置関係 に よ り 仮 想的な プ ロ グ ラ ム位置に補正をか け、 作業の施さ れ る ベ き 対象物 に対す る ロ ボ ッ ト の制御指令を正確 に かつ精度 良 く 出力 し、 ロ ボ ッ ト に よ る C A D Z C A M を利用 し た 作業を実現す る も の で あ る 。  Therefore, the robot control device of the present invention corrects a virtual program position based on the relative positional relationship between the object and the robot determined by the image processing means. In other words, robot control commands for the object to be worked on are accurately and accurately output, and robot-based work using CADZCAM can be realized. It is.
図面の簡単な説明  BRIEF DESCRIPTION OF THE FIGURES
第 1 図 は本'発明 の ロ ボ ッ .ト 制御装置の シ ス テ ム 構成 図、 第 2 図は作業の施さ れ る べ き 対象物 と こ の対彖物を 三次元的 に認識す る ロ ボ ッ ト と の位置関係を示す図、 第 3 図は対象物の 1 つの点 に対 し て こ の点を カ メ ラ座標系 に お い て複数の姿勢か ら認識す る様子を示す図、 第 4 図 は ロ ボ ッ ト 制御装置の位置決め処理の流れを示す フ ロ ー チ ャ ー ト で あ る 。  Fig. 1 is a system configuration diagram of the robot control device according to the present invention, and Fig. 2 is a three-dimensional view of an object to be worked on and its counterpart object. Fig. 3 shows the positional relationship with the robot.Fig. 3 shows how a single point on the object is recognized from multiple poses in the camera coordinate system. FIG. 4 and FIG. 4 are flowcharts showing the flow of the positioning process of the robot controller.
発明を実施す る た めの最良の形態  BEST MODE FOR CARRYING OUT THE INVENTION
以下、 図面を用い て本発明の一実施例 に つ い て詳細に 説明す る 。  Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings.
第 1 図 に おい て、 ロ ボ—ッ ト 术体 1 は合 2 と 、 こ の合 2 に対 し て回転自在に かつ折曲 げ自在に取付け ら れた ァー ム 3 a と 、 こ の ア ー ム 3 a に対 し回転自在に かつ折曲げ 自 在 に 取付け ら れ た ア ー ム 3 b と 、 ア ー ム 3 b の先端部 に回転自在にかつ折曲げ自在に設け ら れ たエ ン ド エ フ ヱ ク タ 4 と か ら構成さ れてい る 。 In FIG. 1, the robot body 1 has a joint 2 and an arm 3a rotatably and foldably mounted on the joint 2 and the arm 3a. The arm 3b, which is attached to the arm 3a so as to be freely rotatable and bent, and the tip of the arm 3b The end effector 4 is provided so as to be freely rotatable and freely bendable.
ロ ボ ッ ト 本体 1 の アー ム 3 a , 3 b お よ びエ ン ド ェ フ ク タ 4 の移動 は ロ ボ ッ ト 制御部 5 に よ っ て制御 ざ れ る 。 ロ ボ ヅ ト 制御部 5 は、 図示 し ないがマ イ ク ロ ブ口 セ ヅ サ を使用 し て C A D / C A M の オ フ ラ イ ン ブ ロ グ ラ ミ ン グシ ス テ ム の制御の下でロ ボ ッ 卜 本体 1 を作動 し、 アー ム 3 a , 3 b の位置決め あ る い ほェ ン ド エ フ エ ク タ 4 の位置決め を行な う よ う に な っ てレヽ る。  The movement of the arms 3a, 3b and the end effector 4 of the robot body 1 is controlled by the robot control unit 5. Although not shown, the robot control unit 5 controls the CAD / CAM under the control of an off-line programming system using a micro-port opening sensor. The robot main body 1 is operated, and the arms 3a and 3b are positioned and the end effector 4 is positioned.
末発明の ロ ボ ッ ト 制御装置で ほさ ら に ェ ン ド エ フ エ ク タ 4 の近く に カ メ 6 を設置し、 カ メ ラ 6 を ロ ボ ッ ト に よ っ て作.業.さ れるべ き対象物 8 に向けて対象物 8 の映像 を撮像 し て ·ビ ジ ョ .ン シ ス テ ム 7 に 送.る よ う に な つ て い る 。 ビジ ョ ン シス テム 7 は、 カメ ラ 6 で撮像さ れ た画像 を解析 し て 口 ボ ト 术体 1 の ェン ド エ フ ユ ク タ 4 と 対象 物 8 と の相対的位置関係を認識 し、 位置ずれな どが生 じ てい る場合に は、 認識結果を ロ ボ ッ ト 制御部 5 に送 り 、 ロ ボ ヅ ト 制御部 5 に お け る オ フ ラ イ ン ブ ロ グ ラ ミ ン グ シ ス テム に よ る制御量を補正す る よ う に な っ てい る 。  With the robot control device of the present invention, a camera 6 is installed near the end effector 4 and the camera 6 is operated by the robot. An image of the object 8 is captured toward the object 8 to be transmitted and sent to the vision system 7. The vision system 7 analyzes the image captured by the camera 6 and recognizes the relative positional relationship between the end effector 4 of the mouth body 1 and the object 8. If a position shift or the like has occurred, the recognition result is sent to the robot control unit 5, and the off-line programming in the robot control unit 5 is performed. It is designed to compensate for the control amount by the system.
以上の よ う な構成の ロ ボ ッ ト 制御装置の動作を第 4 図 を用いて説明する。 第 4図は、 ロボ ッ ト 制御部 5 お よび ビ ジ ョ ン シス テム 7 の姐理の流れを示 し た フ ロ ーチ ヤ一 ト であ る 。 .  The operation of the robot control device having the above configuration will be described with reference to FIG. FIG. 4 is a flowchart showing the flow of the services of the robot control unit 5 and the vision system 7. .
第 4 図 に おいて、 ま ずステ ッ ブ S T 1 で作業の施さ れ る べ き対象物 8 、 例え ばロ ボ ッ 卜 に よ り ス ポ ッ ト ノアー ク 溶接の施 さ れ る べ き 車体を搬送 ラ イ ン ( 図示せ ず ) 上 で移動 さ せ て ロ ボ ッ ト *体 1 に 対 し て 予め仮想的 に 定め ら れ て い る 所定の位置 に 位置決め す る 。 次い で カ メ ラ 6 で 対象物 8 の 基準 と な る 点 を 認識 す る ( ス テ ツ ブ S T 2 ) 。 対象物を三次元的 に 認識す る に は、 3 つ以上の 点 が必要 と な り 、 第 2 図で ほ例 え ば点 P 1 , P 2 , P 3 が こ れ ら の 点 に 該当 す る 。 さ ら に カ メ ラ 6 と 各点 P I , P 2 , P 3 と の 三次元的 な 位置関係 を 決 め る に は 1 つ の 点、 例 え ば点 P 1 に つ い て こ の点 P 1 を第 3 図 に 示す よ う に 複数の カ メ ラ姿勢 P S 1 , P S 2 か ら 認識 し な け れ ば な ら な い。 従 っ て対象物 8 を三次元的 に E識 し 、 対象 物 8 の各点の位置関係 を決め る に.は.、 カ メ ラ 8 の位置す な わ ち 姿势を少 な く と も 6 回変 え る :必要が ¾ る 。 ,ま た 力 メ ラ 8 に よ っ て各姿勢で撮像 さ れ た対象物の各点の画像 は ビ ジ ョ ン シ ス テ ム 7 に よ っ て解析 さ れ位置関係 が決定 さ れ る 。 こ の よ う に ス テ ッ プ S T 2 に 続レヽ て ス テ ッ プ S T 3 で は、 ビ ジ ョ ン シ ス テ ム 7 に よ っ て カ メ ラ 6 と 対象 物の各点 p 1 , P 2 , P 3 と の三次元的 な相対位置関係 を決定す る 。 次い で ス テ ッ プ S T 4 で は こ の よ う に 決定 さ れ た位置関係 に 基づい て C A D / C A M に よ り 得 ら れ た仮想的 な プ ロ グ ラ ム 位置を補正す る こ と に よ っ て 、 例 え ば ロ ボ ッ 卜 の腕 に エ ン ド ェ フ エ ク タ と し て の ス ポ ッ ト ガ ン な ど が取付 け ら れ る こ と に よ る ロ ボ 、:/ 卜 の腕の撓み や 、 搬送 ラ イ ン で運ばれ る 対象物の位置ず れ に よ り 生 じ る プ ロ グ ラ ム 位置 か ら の ず れ を 補正 す る 。 こ う し て ス テ ツ ブ S T 5 で ロ ボ ッ 卜 は、 正確な位置決めの下で対象 物に十分な精度で、 例え ばスポ ッ ト Ζアーク 溶接等の作 業を施す こ と が可能と な る 。 In FIG. 4, first, an object 8 to be worked on at step ST 1, for example, a spot-nor by a robot The vehicle body to be welded is moved on a transport line (not shown) to set a predetermined position virtually set in advance with respect to the robot * body 1. Position to. Next, the reference point of the object 8 is recognized by the camera 6 (step ST2). In order to recognize an object in three dimensions, three or more points are required.For example, in FIG. 2, points P1, P2, and P3 correspond to these points. . Further, to determine the three-dimensional positional relationship between the camera 6 and each of the points PI, P2, and P3, one point, for example, the point P1 is used for this point P1. As shown in Fig. 3, 1 must be recognized from a plurality of camera postures PS1 and PS2. Therefore, in order to three-dimensionally recognize the object 8 and determine the positional relationship of each point of the object 8, at least the position of the camera 8 , that is, at least 6 Change times: Needs. In addition, the image of each point of the object captured in each posture by the force camera 8 is analyzed by the vision system 7 and the positional relationship is determined. In this way, following step ST 2, in step ST 3, the camera 6 and the respective points p 1, The three-dimensional relative positional relationship with P 2 and P 3 is determined. Next, in step ST4, the virtual program position obtained by CAD / CAM is corrected based on the positional relationship determined in this manner. Thus, for example, a robot can be attached to the arm of the robot with a spot gun as an end effector, for example: / Corrects the deflection of the arm of the robot or the deviation from the program position caused by the displacement of the object carried by the transport line. This way The robot with the tool ST5 makes it possible to perform operations such as spot-arc welding on the object under accurate positioning with sufficient accuracy, for example.
な お、 ロ ボ ッ ト 制御部 5 と ビジ ョ ン シ ス テム 7 と の関 係は、 例え ばロ ボ ト 制御部 5 の C A D / C A M の オ フ ライ ン プ ロ グ ラ ミ ングシ ス テ ム を実現する プ ロ セ ッ サ を メ イ ン プ ロ セ ッ サ と し、 ビ ジ ョ ン システム 7 に 用い ら れ る プロ セ サを画像処理専用 プロ セ ッ サ と すれば、 こ の 画像処理専甩プ ロ セ ッ サ は メ イ ン プ ロ セ ッ サの コ ブ ロ セ ッ サ と な り メ ィ ン ブロ セ ッ サの制御の下で独自 に画像 処理を実行する こ と がで き る よ う に な っ てい る 。  The relationship between the robot control unit 5 and the vision system 7 is, for example, a CAD / CAM offline programming system of the robot control unit 5. If the processor that realizes this is a main processor and the processor used for the vision system 7 is a processor dedicated to image processing, this image processing The dedicated processor becomes the coprocessor of the main processor and can execute its own image processing under the control of the main processor. It has become so .
以上、 本発明の一実施例-を説明 し たが、 本.発明は こ れ に限定さ -れる も の'で な く 、 本発明.の要旨の範囲内で種々一 の変形が可能であ っ て、 こ れ ら を本凳明の範囲か ら排除 す る も ので はない。  The embodiment of the present invention has been described above, but the present invention is not limited to this, and various modifications can be made within the scope of the present invention. They are not intended to exclude them from the scope of the present invention.
産業上の利用可能性  Industrial applicability
本発明の ロ ボ ツ 卜 制御装置は、 作業の施される べ き対 象物に対 し て ロ ボ ツ 卜 を正確に かつ精度良く 位置決め し て、 例え ばス ポ ッ ト Zアーク溶接作業の よ う な十分な精 度を必要と す る作業に 用い る の に適し てい る 。  The robot controller of the present invention accurately and accurately positions a robot with respect to an object to be worked, for example, in a spot Z arc welding operation. It is suitable for use in tasks that require sufficient accuracy.

Claims

請 求 の 範 囲 The scope of the claims
( 1 ) オ フ ラ イ ン プ ロ グ ラ ミ ン グ シ ス テ ム の制御の下 で ロ ボ ツ 卜 の制御を行な う ロ ボ ッ ト 制御装置は、 次を含 む :  (1) The robot control device that controls the robot under the control of the offline programming system includes the following:
対象物の基準点を認識す る 画像入力手段 ;  Image input means for recognizing the reference point of the object;
こ の画像入力手段の画像情報を解析 し て認識さ れ た前 記基準点 に基づい て ロ ボ ッ 卜 と 対象物 と の三次元相対位 置関係を決め る 画像処理手段 ;  Image processing means for determining the three-dimensional relative positional relationship between the robot and the object based on the reference points recognized by analyzing the image information of the image input means;
こ の画像処理手段で決定さ れ た相対位置関係 に よ り 仮 想的 な プ ロ グ ラ ム位置 に補正を か け る補正手段 ;  Correction means for correcting a virtual program position based on the relative positional relationship determined by the image processing means;
補正さ れ た位置で の ロ ボ ッ 卜 に対す る 制御指令を形成 す る ロ ボ ッ ト 制御部。 -  A robot control unit that forms a control command for the robot at the corrected position. -
( 2 ) 前記補正手段 に対 し て ロ ボ ツ 卜 の仮想的 な プ ロ グ ラ ム位置を決定す る C A D / C A M手段を有す る こ と を特徴 と す る 請求の範囲第 ( 1 ) 項記載の ロ ボ ッ 卜 制御 装置。 (2) Claims (1) characterized by having CAD / CAM means for determining a virtual program position of the robot with respect to the correction means. The robot control device described in the item.
( 3 ) 前記画像入力手段 は 、 ロ ボ ッ ト の アー ム に固定 さ れ て い る こ と を特徴 と す る 請求の範囲第 ( 1 ) 項記載 の ロ ボ ッ ト 制御装置。 (3) The robot control device according to item (1), wherein the image input means is fixed to an arm of the robot.
( 4 ) 前記画像処理手段は 、 オ フ ラ イ ン ブ ロ グ ラ ミ ン グ シ ス テ ム の制御演算用 の プ ロ セ ッ サ と は別め プ ロ セ ッ サを有す る こ と を特徴 と す る 請求の範匪第 ( 1 ) 項記載 の ロ ボ ッ ト 制御装置 (4) The image processing means has a processor separate from a processor for controlling and calculating the off-line programming system. Claimed marauder characterized by paragraph (1) Robot controller
PCT/JP1987/000560 1986-08-29 1987-07-29 Robot controller WO1988001764A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP61202914A JP2767417B2 (en) 1986-08-29 1986-08-29 Robot control device
JP61/202914 1986-08-29

Publications (1)

Publication Number Publication Date
WO1988001764A1 true WO1988001764A1 (en) 1988-03-10

Family

ID=16465258

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP1987/000560 WO1988001764A1 (en) 1986-08-29 1987-07-29 Robot controller

Country Status (2)

Country Link
JP (1) JP2767417B2 (en)
WO (1) WO1988001764A1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2248571A (en) * 1990-10-09 1992-04-15 Steel Castings Res Computer controlled work treating robot
GB2363861A (en) * 2000-06-19 2002-01-09 Robotic Technology Systems Plc Processing an object, eg a workpiece, by a tool
CN106054814A (en) * 2016-05-28 2016-10-26 济宁中科先进技术研究院有限公司 Image grayscale-based computer aided machining method

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0714276B2 (en) * 1988-06-20 1995-02-15 株式会社日立製作所 Actuator
JPH0224076A (en) * 1988-07-07 1990-01-26 Hitachi Ltd Positioning compensating device
JPH0288187A (en) * 1988-09-26 1990-03-28 Honda Motor Co Ltd Control method for robot
US5761390A (en) * 1991-12-12 1998-06-02 Hitachi, Ltd. Robot for removing unnecessary portion on workpiece
JP4171488B2 (en) 2005-12-16 2008-10-22 ファナック株式会社 Offline programming device
JP5204575B2 (en) * 2008-07-29 2013-06-05 川崎重工業株式会社 Position measuring method and position measuring apparatus
JP5428639B2 (en) * 2009-08-19 2014-02-26 株式会社デンソーウェーブ Robot control apparatus and robot teaching method
JP5324397B2 (en) * 2009-11-02 2013-10-23 本田技研工業株式会社 Information processing method, apparatus and program
JP2014056496A (en) * 2012-09-13 2014-03-27 Mitsubishi Heavy Ind Ltd Virtual camera image generation device, virtual camera image generation system, virtual camera image generation method and program
CN106737683A (en) * 2017-01-11 2017-05-31 吉林省凯迪科技有限公司 The method of correction industrial robot off-line programing error in the field
JP6743723B2 (en) * 2017-02-16 2020-08-19 トヨタ自動車株式会社 Robot teaching data correction method
JP6914067B2 (en) * 2017-03-21 2021-08-04 株式会社神戸製鋼所 Motion program correction method and welding robot system
JP6669713B2 (en) 2017-11-28 2020-03-18 ファナック株式会社 Robots and robot systems
WO2023199620A1 (en) * 2022-04-13 2023-10-19 パナソニックIpマネジメント株式会社 Robot control device and offline teaching system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5615992A (en) * 1979-07-17 1981-02-16 Kobe Steel Ltd Method and device for preparing working locus data in industrial robot
JPS59216210A (en) * 1983-05-25 1984-12-06 Hitachi Ltd Robot operation teaching method
JPS60134908A (en) * 1983-12-23 1985-07-18 Nissan Motor Co Ltd Correcting method of teaching data of robot
JPS60151711A (en) * 1984-01-19 1985-08-09 Hitachi Ltd Calibration system for robot hand visual coordinate system

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58169987U (en) * 1982-05-06 1983-11-12 オムロン株式会社 industrial robot
JPS60229109A (en) * 1984-04-27 1985-11-14 Hitachi Ltd Position correcting system using visual camera
JPS60258613A (en) * 1984-06-06 1985-12-20 Daifuku Co Ltd Drive control equipment of truck
JPH0750407B2 (en) * 1984-10-26 1995-05-31 株式会社サンエス商工 Numerical control system
JPS61173878A (en) * 1985-01-30 1986-08-05 株式会社日立製作所 Individual-difference corresponding teach data correction system of robot

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5615992A (en) * 1979-07-17 1981-02-16 Kobe Steel Ltd Method and device for preparing working locus data in industrial robot
JPS59216210A (en) * 1983-05-25 1984-12-06 Hitachi Ltd Robot operation teaching method
JPS60134908A (en) * 1983-12-23 1985-07-18 Nissan Motor Co Ltd Correcting method of teaching data of robot
JPS60151711A (en) * 1984-01-19 1985-08-09 Hitachi Ltd Calibration system for robot hand visual coordinate system

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2248571A (en) * 1990-10-09 1992-04-15 Steel Castings Res Computer controlled work treating robot
GB2363861A (en) * 2000-06-19 2002-01-09 Robotic Technology Systems Plc Processing an object, eg a workpiece, by a tool
CN106054814A (en) * 2016-05-28 2016-10-26 济宁中科先进技术研究院有限公司 Image grayscale-based computer aided machining method

Also Published As

Publication number Publication date
JPS6358505A (en) 1988-03-14
JP2767417B2 (en) 1998-06-18

Similar Documents

Publication Publication Date Title
WO1988001764A1 (en) Robot controller
JP5114019B2 (en) Method for controlling the trajectory of an effector
JP6843050B2 (en) Robot system
US4899095A (en) Robot control system
JP6467646B2 (en) Robot control method
JP2014024162A (en) Robot system, robot control device, robot control method and robot control program
JPS59708A (en) Path motion manipulator performing adaptive speed control
WO2008004487A1 (en) Apparatus and method for controlling robot arm, robot, and robot arm control program
JP2011115877A (en) Double arm robot
JP6816070B2 (en) Interference avoidance device and robot system
JP2006243926A (en) Robot controller
US20210154836A1 (en) Trajectory control device
JP5228783B2 (en) Robot origin return device
US20110118876A1 (en) Teaching line correcting apparatus, teaching line correcting method, and program thereof
CN110154043B (en) Robot system for learning control based on machining result and control method thereof
WO2022172873A1 (en) Robot system and workpiece supply method
US11878423B2 (en) Robot system
US11964391B2 (en) Robot system
JP4640499B2 (en) Grip control device
WO1987000311A1 (en) System for controlling articulated robot
US11213952B2 (en) Articulated robot and articulated robot system
Baeten et al. Improving force controlled planar contour following using online eye-in-hand vision based feedforward
CN112292238B (en) Method and system for transferring end effector of robot between one end effector pose and another end effector pose
JP2005335010A (en) Gripping control device
JP2023069253A (en) Robot teaching system

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): DE FR GB