WO1992001539A1 - Procede d'etalonnage d'un capteur visuel - Google Patents

Procede d'etalonnage d'un capteur visuel Download PDF

Info

Publication number
WO1992001539A1
WO1992001539A1 PCT/JP1991/000960 JP9100960W WO9201539A1 WO 1992001539 A1 WO1992001539 A1 WO 1992001539A1 JP 9100960 W JP9100960 W JP 9100960W WO 9201539 A1 WO9201539 A1 WO 9201539A1
Authority
WO
WIPO (PCT)
Prior art keywords
robot
calibration
visual sensor
coordinate system
data
Prior art date
Application number
PCT/JP1991/000960
Other languages
English (en)
French (fr)
Inventor
Atsushi Watanabe
Original Assignee
Fanuc Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Ltd filed Critical Fanuc Ltd
Priority to DE69105476T priority Critical patent/DE69105476T2/de
Priority to EP91913074A priority patent/EP0493612B1/en
Priority to US07/838,812 priority patent/US6114824A/en
Publication of WO1992001539A1 publication Critical patent/WO1992001539A1/ja

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40605Two cameras, each on a different end effector to measure relative position
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10TTECHNICAL SUBJECTS COVERED BY FORMER US CLASSIFICATION
    • Y10T29/00Metal working
    • Y10T29/49Method of mechanical manufacture
    • Y10T29/49764Method of mechanical manufacture with testing or indicating
    • Y10T29/49769Using optical instrument [excludes mere human eyeballing]

Definitions

  • the present invention relates to a method for calibrating a visual sensor, and in particular, to another robot using a calibration jig movably supported by a robot. It relates to a method of calibrating a visual sensor mounted on a computer.
  • Robot systems that use visual information from one or more visual sensors to perform work such as assembling work on a work line and performing valetizing work are well known. It is also known that a visual sensor is movably held by a robot arm so as to cope with a change in the position of a work. In order to make visual information available for mouth robot work, this type of robot system has a visual sensor that maps sensor coordinate values to robot coordinate values prior to robot work. Carry out a calibration of the sensor. For example, a camera mounted on a robot arm (generally a visual sensor) is used to carry a camera, and a dedicated camera installed in the camera's field of view is conventionally used. A braking jig is used.
  • An object of the present invention is to facilitate the calibration of a visual sensor mounted on a robot without using a mechanism for accurately installing a jig and a wide jig installation space.
  • the present invention provides (a) a method including a coordinate value in a common coordinate system of a calibration jig which is movably supported by a robot and comprises a pattern member.
  • (1) Generate calibration pattern data, and (b) use the visual information data on the calibration jig obtained by the visual sensor attached to another robot.
  • SHORT PAPER Calibrates the visual sensor based on the sensor data.
  • a visual sensor cabin is used by using a cow sprout jig mounted on a robot and a visual sensor mounted on another mouthboat. Revision can be performed.
  • the calibration jig made of a pattern member has a smaller size and a simple structure than conventional jigs, and is held movably by a robot. Can be easily, quickly and accurately installed at the required position, and No space is required for fixture installation.
  • the first calibration pattern data including the coordinate values of the calibration jig in the common coordinate system and the calibration obtained by the visual sensor. Based on the second calibration pattern data generated from the visual information data about the jig and including the coordinate values of the calibration jig in the visual sensor coordinate system, the visual information is obtained. Calibration of the sensor can be performed easily, quickly and accurately. Therefore, there is no need for a special mechanism for accurately installing the beef gir- jion jig.
  • FIG. 1 is a schematic diagram showing a robot system for implementing a method of calibrating a visual sensor according to an embodiment of the present invention
  • FIG. 2 is an enlarged plan view showing the pattern board of Fig. 1 in detail
  • Fig. 3 is a robot with a camera mounted on the work side after the end of the calibration.
  • FIG. 4 is a schematic diagram showing a case of moving
  • FIG. 4 is a partial schematic diagram showing a modification of the robot system of FIG. 1,
  • FIG. 5 is a partial schematic diagram showing another modification of the robot system.
  • FIG. 6 is a partial schematic view showing still another modified example of the robot system.
  • a robot system includes first and second robots 1 and 4 and both robots.
  • the first and second robot controllers 10 and 11 for driving and controlling the i-bots 1 and 4, respectively, are provided. This is done at a known position and orientation on a common coordinate system (not shown) set in the installation space.
  • the first robot 1 is composed of, for example, an articulated robot having an arm 2 composed of a plurality of links in which adjacent objects are connected to each other by joints.
  • the butter plate 3 as a calibration jig attached to the tool center point (TCP)) is connected to the first robot coordinate system (not shown) related to the first robot 1 (in other words, the first robot coordinate system). In this case, positioning is performed at any position on the common coordinate system) with any posture.
  • the pattern plate 3 has a simple structure and a small size, and the manufacture of the pattern plate 3 and its attachment to the robot 1 are easy. It is sufficient to prepare one type of pattern plate 3 for calibration. As shown in FIG.
  • the pattern plate 3 has a rectangular dot pattern composed of, for example, 25 dots 3 a, 3 b, 3 c, ′ ′.
  • the dot 3a for the origin is formed along the four sides of No. 3 and has a larger dot diameter than the other dots 3b, 3c,.
  • Dot Pattern Configuration Required for Calibration Although the number of dots is theoretically sufficient to be six, in the present embodiment, the number of dots is increased and the calibration is performed. More accurately.
  • the second robot 4 is composed of, for example, a multi-articulated robot and is fixed to the tip of the arm 5 or
  • a camera 6 generally a visual sensor attached to the arm tip so as to be able to retire with respect to the arm axis and an axis orthogonal to the arm axis is connected to a second port (not shown) of the second robot 4.
  • Positioning is performed at an arbitrary position on the bot coordinate system and thus on an arbitrary position on the common coordinate system.
  • a camera coordinate system generally a visual sensor coordinate system
  • a camera coordinate system for specifying the position of an image point on the camera screen is set in the camera 6.
  • Each of the first and second robot controllers 10 and 11 is provided with a corresponding one of the arm ends of the first and second robots in the first and second robot coordinate systems.
  • a function to detect the current coordinate value (position, posture) based on the joint angle, and • to convert the coordinate value from the common coordinate value to the robot coordinate value and from the mouth robot coordinate value to the general coordinate value It has a function to perform coordinate conversion of the robot, and can drive and control the robot on a common coordinate system.
  • the first robot controller 10 controls the coordinate value of the arm tip, the known mounting position of the pattern plate 3 with respect to the first robot 1, the posture, and the dots 3a, 3a.
  • the first calibration pattern data (CPD r) 12 a representing the coordinate values is calculated, and the calculated data is stored in the built-in memory 12.
  • the robot system includes the first calibration pattern data 12a and the video data from camera 6
  • a visual sensor control device 20 for calibrating the camera 6 based on the visual information data
  • the control unit 20 is a read-only memory (ROM) that stores a processor (CPU) 21 and a control program 22a for calibration operation. 22 and first to third random access memories (RAMs) 23 to 25.
  • the visual sensor controller 20 is connected to the image processing processor 26 and the first and second robot controllers 10 and 11 via communication lines 13 and 13.
  • the robot system has a keyboard (not shown) connected to the visual sensor controller 20 via a cow interface (not shown) as necessary. It is provided.
  • Oh Bae regulator is, of each Dots concert, 'Turn-down configuration Dots 3 a, 3 b, 3 c , of ⁇ ⁇ ⁇ of on the pattern plate 3
  • the dot pattern data (DPD) 24a representing the formation position is input to the visual sensor controller 20 via the keyboard. Instead, the data 24a may be described in advance in the control program 22a. In response to data input from the keyboard or data reading from the control program, the Clean data 24a is stored in RAM2.
  • the first robot controller 1 0 controls the drive of the first robot 1, and the panning plate 3 attached to the end of the arm 2 is positioned at a required position, for example, a predetermined position on a work line.
  • the first robot controller 10 detects the coordinate value of the arm end of the first robot 1 in the first robot coordinate system, and detects the detected coordinate value and the pattern plate 3 for the first robot 1. Based on the known mounting position, posture, and known dot pattern forming position on the pattern plate 3, each of the dot pattern configuration dots 3a, 3b, 3c,,. Find the coordinate value in the first robot coordinate system.
  • the first mouth port control device 10 converts the coordinate value of each dot in the first robot coordinate system into a coordinate value in the common coordinate system, and converts the coordinate value into a coordinate value in the common coordinate system.
  • the first carrier—the turn data 12a is connected to the communication line 13 and the interface 27 under the control of the processor 21.
  • the data is transferred from the memory 12 to the RAM 23 via the RAM 12 and stored in the RAM 23.
  • the second robot 4 is driven and controlled by the second robot controller 11 so that the pattern plate 3 enters the field of view of the camera 6 attached to the tip of the arm 5.
  • Camera 6 is positioned.
  • Camera 6 is the dot pattern of pattern board 3. Image and send out the dot pattern video data.
  • the dot pattern video data is transferred to the RAM 25 via the camera interface 28 under the control of the processor 21 and stored in the RAM 25.
  • the image processor 26 reads the dot data and the turn data (DPD) 24a from the RAM 24 and fetches the dot pattern image data, and outputs the data 24a and the image data.
  • the second calibration pattern pattern (CPD c) 25a representing the coordinate value of each dot pattern configuration dot in the camera coordinate system is calculated based on . Store the calculated data 25 a in RAM 25.
  • the processor * 2 1 reads out the first and second calibration 0 turn data 12 a and 25 a from the RAMs 23 and 25, respectively, and reads both patterns. Comparing the common data and the camera coordinate system so that the common coordinate value and the camera coordinate value correspond one-to-one with each other. Calculate the calibration data including the data (for example, the force in the direction of each coordinate axis of the common coordinate system and the direction cosine of the axis of the camera axis) —evening (CD) 23 a. For example, the first and second calibration turn data 12a and 25a obtained as described above and the unknown camera parameters are included as variables. Solve the simultaneous equations to obtain the camera parameters. Then, the calculation data 23a is stored in the RAM 23, and the calibration of the camera 6 ends.
  • the pattern plate 3 is retracted from the work line or removed from the first mouth bot 1, and then the work (not shown) is transported to a predetermined position on the work line.
  • a camera (not shown) is imaged by the camera 6 mounted on the second robot 4, and the resulting work video data and the calibration read out from the RAM 23 are captured.
  • the processor 21 calculates the coordinate value data on the common coordinate system of the work.After that, for example, the pattern plate 3 is removed.
  • the work coordinate data is sent to the first robot controller 10 and then the robot is controlled under the control of the first robot controller 10. Instead, a third robot placed on a common coordinate system is started.
  • the mouthbottom work may be performed using a kit (not shown).
  • the second robot 4 equipped with the camera 6 is indicated by the symbol A in FIG.
  • the movement amount from the position A to the position B on the common coordinate system of the second robot 4 is calculated by the second robot control device 11, and the calculated movement amount is calculated. Is stored in a memory (not shown) built in the device 11. Next, the video data obtained by imaging the specific point 40 a of the work 40 by the camera 6 is sent from the camera 6 to the visual sensor controller 20, and the moving amount is calculated.
  • the visual sensor controller 20 controls the common point 40a.
  • the coordinate value data in the coordinate system is calculated, and the calculated coordinate value data is provided to the subsequent robot work control.
  • the calibration time 23a is corrected according to the amount of movement of the second robot 4.
  • the camera 6 ' is mounted on the first robot 1.
  • the pan board 3 may be mounted on the second robot 4. and the camera mounted on the first robot may be calibrated. That is, according to the present invention, in a mouth robot system including a pair of robots, any one robot equipped with a camera and the other robot equipped with a pattern plate are connected to each other. By cooperating with each other, the camera can be calibrated. Further, the present invention can be applied not only to a robot system including two robots but also to a robot system including three or more robots.
  • the pattern plate 3 is attached to any one of the robot systems, and the camera is attached to each of the other robots.
  • a pan plate 3 is mounted on the first robot 1 and cameras 6 b and 6 are mounted on the second and third robots 4 and 30. c respectively.
  • Fig. 5 shows that the panel board 3 is mounted on the second robot 4 and the cameras 6a and 6c are mounted on the first and third robots 1 and 30 respectively.
  • FIG. 6 shows the case where the pattern plate 3 is mounted on the third robot 30 and the cameras 6 a and 6 are respectively attached to the first and second robots 1 and 4. Shows the case where b is attached.
  • each camera is also provided. Calibration can be performed in the same manner as in the above embodiment. For example, in the ⁇ -bot system shown in FIG. 4, the cameras 6b and 6c are moved so that the turn plate 3 enters the field of view of the cameras 6b and 6c, respectively. Then, based on the video data obtained by imaging the pattern board 3 with each camera, the cameras related to each camera are controlled by the visual sensor controller 20 shown in FIG. Obtain the breakout overnight in the same manner as in the above embodiment. As described above, according to the present invention, even in various robot systems including two or more force cameras, the camera can be configured according to the configuration of the robot system. Carriage of Ten
  • the first calibration pattern data 12a was input from the first robot controller 10 to the visual sensor controller 20.
  • the first calibration pattern data 12a was input via the keyboard. Manual input is possible.

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)

Description

明 钿 睿
視覚セ ンサ のキ ヤ リ ブレー シ ョ ン方法
技 術 分 野
本発明は、 視覚セ ンサのキ ヤ リ ブレー シ ョ ン方法に関 し、 ·特に、 ロ ボッ ト によ り移動自在に支持したキ ヤ リブ レー シ ョ ン治具を用いて別のロ ボッ ト に装着した視覚セ ンサのキ ヤ リ ブ レー シ ョ ンを行う方法に関する。
背 景 技 術
一つ以上の視覚セ ンサか らの視覚情報を利用 し て作業 ラ イ ン上の ワ ー ク に対する組立作業, バ レ夕 イ ジ ング作 業等を行う ロ ボ ッ ト シ ス テ ム は公知で、 又、 視覚セ ンサ をロボッ ト アー ム によ り移動自在に保持してワ ー ク の位 置変動に対処可能にする こ と も知られている。 こ の種の ロ ボ ッ ト シス テ ムでは、 視覚情報を口 ボ ッ ト作業に利用 可能にすべく 、 ロボッ ト作業に先だって、 セ ンサ座標値 をロボッ ト座標値に対応させるための視覚セ ンサ のキヤ リ ブレー シ ヨ ンが行われる。 例えば、 ロ ボ ッ ト ア ームに 装着したカ メ ラ (一般には視覚セ ンサ) のキ ヤ リ ブレー シ ヨ ンに、 従来は、 カ メ ラ の視野内に設置される専用の キ ャ リ ブレー シ ョ ン治具を用いている。
しかしながら、 従来のキ ヤ リ ブ レー シ ョ ン治具は一般 に寸法が大き く、 従って、 広い設置ス ペ ー スを要する。 斯かる要件は、 キ ャ リ ブ レー シ ョ ン治具を作業ラ イ ン上 に設置する場合に特に不都合である。 又、 従来のキヤ リ ブ レー シ ョ ン治具は正確に設置する のに時間を要 し、 キ ヤ リ ブレー シ ョ ン治具を精度良く設置する には、 特別の 治具設置機構を設ける必要がある。
発 明 の 開 示
本発明の目的は、 治具を精度良く設置するための機構 及び広い治具設置ス ペー スを用いずに、 ロ ボ ッ ト に装着 した視覚セ ンサのキ ヤ リ ブレー シ ョ ンを容易, 迅速かつ 正確に行えるキ ヤ リ ブレー シ ョ ン方法を提供する こ とに め O 0
上記目的を達成するため、 本発明は、 ( a ) ロ ボッ ト によ り移動自在に支持されパタ ー ン部材からなるキヤ リ ブレー シ ョ ン治具の共通座標系での座標値を含む第 1 キ ヤ リ ブ レー シ ヨ ンパタ ー ンデー タ を生成し、 ( b ) 別の ロボッ ト に装着した視覚セ ンサ によ っ て得たキ ヤ リブレ - シ ョ ン治具に関する視覚情報データから、 キ ヤ リブレ ー シ ョ ン洽具の視覚セ ンサ座標系での座標値を含む第 2 キ ヤ リ ブ レー シ ョ ンパタ ー ンデー タ を生成し、 ( c ) 第 1 及び第 2 キ ヤ リ ブレー シ ョ ン パ夕 — ンデータに基づい て視覚セ ンサ のキ ヤ リ ブ レー シ ョ ンを行う。
上述のよ う に、 本発明によれば、 ロボ ッ ト に装着した 牛ヤ リ ブレー シ ョ ン治具と別の口ボッ ト に装着した視覚 セ ンサ と を用いて、 視覚セ ンサ のキ ヤ リ ブ レー シ ョ ンを 行える。 パタ ー ン部材からなるキ ヤ リ ブレー シ ョ ン治具 は、 従来の治具に比べてサイ ズが小さ く 構造が簡単でか つロボッ ト に よ り移動自在に保持されており、 治具を所 要位置に容易, 迅速かつ正確に設置でき る と共に広い治 具設置ス ペー スを要しない。 又、 キ ャ リ ブ レー シ ョ ン治 具の共通座標系での座標値を含む第 1 キ ヤ リ ブレ ー シ ョ ンパタ ー ンデータ と視覚セ ンサで得たキ ヤ リ ブ レ ー シ ョ ン治具に関する視覚情報データから生成されキ ヤ リブレ ー シ ョ ン治具の視覚セ ンサ座標系での座標値を含む第 2 キ ヤ リ ブ レー シ ョ ンパタ ー ンデー タ と に基づいて、 視覚 セ ンサのキ ヤ リ ブレー シ ョ ンを容易, 迅速かつ正確に行 える。 従って、 牛 ヤ リ ブレー シ ヨ ン治具を精度良く設置 するための特別の機構が不要である。
図 面 の 簡 単 な 説 明
第 1 図は本発明の一実施例による視覚セ ンサのキヤ リ ブ レー シ ヨ ン方法を実施するた めの ロ ボ ッ ト シ ス テムを 示す概略図、
第 2 図は第 1 図のパタ ー ン板を詳細に示す拡大平面図、 第 3 図は、 カ メ ラを搭載したロ ボ ッ ト をキ ヤ リ ブレー シ ョ ン終了後にワ ー ク側に移動させる場合を示す概略図、 第 4 図は第 1 図のロ ボッ ト シ ス テ ムの変形例を示す部 分概略図、
第 5 図はロボッ ト シ ス テ ム の別の変形例を示す部分概 略図、 および
第 6 図はロ ボッ ト シ ス テ ム の更に別の変形例を示す部 分概略図であ る。
発明を実施するための最良の形態
第 1 図を参照する と、 本発明の一実施例に係る ロボッ ト シ ス テ ム は、 第 1 及び第 2 ロ ボ ッ ト 1 , 4 と、 両ロボ - i - ッ ト 1 , 4を夫々駆動制御するための第 1 及び第 2 ロボ ッ ト制御装置 1 0 , 1 1 とを備え、 両口ボッ ト 1 , 4は、 ロ ボ ッ ト シス テム E設空間内に設定した図示しない共通 座標系上において既知の位置及び姿勢で Eされている。
第 1 ロボッ ト 1 は、 例えば、 相隣る もの同士が関節に よつて連結された複数の リ ン クからなるアー ム 2 を有す る多関節式ロ ボッ トからなり、 ア ー ム先端 (ツー ルセン 夕 ポイ ン ト ( T C P ) ) に装着 したキ ャ リ ブレー ショ ン 治具と してのバター ン板 3 を、 第 1 ロボ ッ ト 1 に係る図 示しない第 1 ロボッ ト座標系 (換言すれば共通座標系) 上の任意の位置に任意の姿勢で位置決めするよ う になつ ている。 パタ ー ン板 3 は、 構造が簡単でサイ ズが小さ く、 パター ン板 3 の製造及びロボッ ト 1 への取付けが容易で ある。 キ ャ リ ブ レー シ ョ ンには一種類のパタ ー ン板 3を 用意すれば足り る。 第 2 図に示すよ う に、 パター ン板 3 には、 例えば 2 5個の ド ッ ト 3 a , 3 b , 3 c , ' ' · からなる矩形状の ドッ トパタ ー ンがパタ ー ン板 3 の四辺 に沿って形成され、 原点用の ド ッ ト 3 a はその他の ドッ ト 3 b , 3 c , · · · よ り.も大きい ドッ ト直径を有して いる。 キ ャ リ ブレー シ ョ ンに要する ド ッ ト パタ ー ン構成 ドッ ト数は理論的には 6 つで足り るが、 本実施例では ド ッ ト数を多く してキ ヤ リ ブレー シ ョ ンをより正確に行う ように している。
第 1 ロボッ ト 1 と同様.、 第 2 ロボッ ト 4 は例えば多関 節式ロボッ トからなり、 ア ー ム 5 の先端に固定され或は アーム軸線及びアーム軸線に直交する軸線に対して回耘 自在にアーム先端に装着されたカ メ ラ 6 (—般には視覚 セ ンサ) を、 第 2 のロボッ ト 4 に係る図示しない第 2 口 ボッ ト座標系上ひいては共通座標系上の任意の位置に任 意の姿勢で位匱決めするよ うになっている。 又、 カメ ラ 6 には、 カ メ ラ画面上での画像点の位置を特定するため の図示しないカ メ ラ座標系 (一般には視覚セ ンサ座標系) が設定さ れて いる。
第 1, 第 2 ロ ボ ッ ト制御装置 1 0 , 1 1 の各々 は、 第 1, 第 2 ロ ボ ッ ト の対応する一つのアー ム先端の、 第 1 , 第 2 ロボッ ト座標系の対応する一つにおける現在の座標 ' 値 (位置, 姿勢) を関節角に基づいて検出する機能と、 • 共通座標値か らロボッ ト座標値への座標変換及び口ボッ ト座標値から 通座標値への座標変換を行う機能とを備 え、 ロボ ッ ト を共通座標系上で駆動制御可能である。 さ ら に、 第 1 ロ ボ ッ ト制御装置 1 0 は、 アー ム先端の座標 値, 第 1 ロボ ッ ト 1 に対するパタ ー ン板 3 の既知の取付 位置, 姿勢及び ド ッ ト 3 a , 3 b, 3 c , · ' ' のパタ — ン板 3上での既知の形成位置に基づいて、 ドッ トパ夕 — ン構成 ドッ 3 a , 3 b , 3 c , · · · の共通座標系 での座標値を表す第 1 キ ヤ リ ブレー シ ョ ンパタ ー ンデー 夕 ( C P D r ) 1 2 a を算出し、 算出データを内蔵のメ モ リ 1 2 に袼納するよ う になつている。
更に、 ロボ ッ ト シス テ ムは、 第 1 キ ャ リ ブ レー シ ョ ン パタ ー ンデー タ 1 2 a とカ メ ラ 6 力 らの映像デー タ (一 般には視覚情報データ) とに基づいてカ メ ラ 6 のキヤ リ ブ レー シ ョ ンを行うための視覚セ ンサ制御装置 2 0を備 えている。 制御装置 2 0 は、 プ ロ セ ッ サ ( C P U ) 2 1 と、 キ ャ リ ブ レー シ ョ ン動作用の制御プロ グラ ム 2 2 a を格納した リ ー ドオ ン リ メ モ リ ( R O M) 2 2 と、 第 1 〜第 3 ラ ンダム ア ク セ ス メ モ リ ( R A M) 2 3〜 2 5 と を備えている。 又、 視覚セ ンサ制御装置 2 0 は、 画像処 理プロセ ッ サ 2 6 と、 通信回線 1 3 , 1 3, を介して第 1, 第 2 ロボ ッ ト制御装置 1 0 , 1 1 に接続したイ ン夕 —フ ユイ ス 2 7 と、 カ メ ラ 6 に接続したカ メ ライ ン夕一 フ ェ イ ス 2 8 とを備え、 要素 2 2〜 2 8 はバスを介して プロ セ ッ サ 2 1 に接続されてい る。 ロ ボ ッ ト シス テムに は、 牛一ボー ドイ ンタ 一 フ ユ イ ス (図示略) を介して視 覚セ ンサ制御装置 2 0 に接続したキ—ボー ド (図示略) . が必要に応じて設けられている。
以下、 第 1 図のロボ ッ ト シス テ ム のキ ヤ リ ブレ ー シ ョ ン動作を説明する。
ロボッ ト シ ス テ ム の稼働前に、 オ ペ レータ は、 夫々の ド ッ トノ、'タ ー ン構成 ド ッ ト 3 a, 3 b , 3 c, · · · の パター ン板 3 上での形成位置を表す ドッ トパタ ー ンデー 夕 ( D P D ) 2 4 a を、 キーボー ドを介して視覚センサ 制御装置 2 0 に入力する。 これに代えて、 データ 2 4 a を制御プロ グ ラ ム 2 2 a内に予め記述しておいて も良い。 キーボー ドからのデータ入力或は制御プロ グラ ム からの データ読取り に応じて、 プロ セ ッ サ 2 1 の制御下でパ夕 ー ンデータ 2 4 a が R A M 2 に格納される。
R 0 M 2 2 内の制御プロ グラ ム に従って作勦するプロ セ ッ サ 2 1 の制御下でキ ヤ リ ブ レー シ ョ ン動作が開始さ れる と、 先ず、 第 1 ロボ ッ ト制御装置 1 0 によ っ て第 1 ロボッ ト 1 が駆動制御され、 アー ム 2 の先端に装着した パ夕ー ン板 3 が所要位置例えば作業ラィ ン上の所定位置 に位置決めされる。 第 1 ロボッ ト制御装置 1 0 は、 第 1 ロボッ ト 1 のアー ム先端の第 1 ロボッ ト座標系での座標 値を検出し、 検出座標値, 第 1 ロボ ッ ト 1 に対するパタ ー ン板 3 の既知の取付位置, 姿勢及びパタ ー ン板 3上で の既知の ドッ トパター ン形成位置に基づいて、 夫々の ド ッ トパタ ー ン構成 ドッ ト 3 a, 3 b , 3 c , , · · の第 1 ロボッ ト座標系での座標値を求める。 次いで、 第 1 口 ボッ ト制御装置 1 0 は、 各 ドッ トの第 1 ロボッ ト座標系 での座標値を共通座標系での座標値に座標変換して第 1 キ ャ リ ブ レ ー シ ョ ンパタ ー ンデー タ ( C P D r ) 1 2 a を求め、 こ れを メ モ リ 1 2 に格納する。 第 1 キ ヤ リ ブレ — シ ョ ン ノ、'タ ー ンデー タ 1 2 a は、 プロ セ ッ サ 2 1 の制 御下で、 通信回線 1 3 及びイ ン タ ー フ ヱ イ ス 2 7 を介し て メ モ リ 1 2 から R A M 2 3 に転送され、 R A M 2 3内 に格納される。
次に、 第 2 ロボッ ト制御装置 1 1 によ つて第 2 oボッ ト 4が駆動制御され、 アーム 5 の先端に装着したカ メ ラ 6 の視野内にパタ ー ン板 3 が入るよ う にカ メ ラ 6 が位置 決めされる。 カ メ ラ 6 はパタ ー ン板 3 の ドッ トパター ン を撮像し、 ド ッ トパタ ー ン映像デ—夕を送出する。 ドッ トパター ン映像データ は、 プロ セ ッ サ 2 1 の制御下で、 カ メ ラ イ ンタ ー フ ヱ イ ス 2 8 を介して R A M 2 5 に転送 され、 R A M 2 5 內に格納される。 画像プロセ ッ サ 2 6 は、 - R A M 2 4か ら ド ッ ト ノ、'タ ー ンデー タ ( D P D ) 2 4 a を読み出すと共に ドッ トパタ ー ン映像データ を取り 込み、 データ 2 4 a及び映像データに基づいて、 夫々の ドッ トパター ン構成 ドッ トのカ メ ラ座標系での座標値を 表す第 2 キ ヤ リ ブレ一 シ ョ ンパタ ー ンデ一夕 ( C P D c ) 2 5 a を算出 し、 .算出デ—夕 2 5 a を R A M 2 5 内に格 納する。
プロ セ ッ サ *2 1 は、 R A M 2 3 , 2 5 か ら第 1 , 第 2 キ ャ リ ブ レー シ ョ ン 0タ ー ンデー タ 1 2 a , 2 5 aを夫 々読み出し、 両パタ ー ンデータ 1 2 a, 2 5 a を比較し て、 共通座標値とカ メ ラ座標値とが一対一に対応するよ う に共通座標系とカ メ ラ座標系とを関連づけるカ メ ラパ ラ メ —タ (例えば共通座標系の夫々の座標軸方向への力 メ ラ軸線の方向余弦など) を含むキ ャ リ ブ レー シ ョ ンデ —夕 ( C D ) 2 3 a を算出する。 例えば、 上述の如く求 めた第 1 , 第 2 キ ャ リ ブ レー シ ョ ン タ ー ンデー タ 1 2 a , 2 5 a と未知のカ メ ラ パラ メ 一 夕 と を変数と して含 む連立方程式を解いてカ メ ラパラ メ ータを求める。 そし て、 算出デ― タ 2 3 a を R A M 2 3 内に格納して、 カ メ ラ 6 のキ ヤ リ ブ レー シ ョ ンを終了する。
ワ ー ク に対する ロボ ッ ト作業にあたっては、 必要なら ばパタ ー ン板 3 を作業ラ イ ン上から退避させ又は第 1 口 ボッ ト 1 から取り外し、 次いで、 ワー ク (図示略〉 を作 業ラ イ ン上の所定位置に搬送する。 そ して、 第 2 ロボッ ト 4 に搭載したカ メ ラ 6 によ り ワ ー ク (図示略) が撮像 され、 この結果得たワ ー ク映像データ と R A M 2 3から 読み出したキ ヤ リ ブレ ー シ ョ ンデータ 2 3 a とに基づい て、 プロ セ ッ サ 2 1 に よ り ワ ー ク の共通座標系上での座 標値デ一夕が求められる。 その後、 例えば、 パタ ー ン板 3 を取り外した第 1 ロボッ ト 1 によってロボッ ト作業を 行うべく、 ワ ー ク座標値デ一夕が第 1 ロ ボッ ト制御装置 1 0 に送出され、 次いで、 第 1 ロボッ ト制御装置 1 0の 制御下でロボ ッ ト作業が開始される。 こ れに代えて、 共 通座標系上に配した第 3 ロボッ ト (図示略〉 によ って口 ボッ 卜作業を行つ て も良い。
第 2 ロボッ ト 4 をキ ャ リ ブ レ ー シ ョ ン前後で同一位置 に配した上述の場合とは異なり、 カ メ ラ 6 を搭載した第 2 ロボッ ト 4 を第 3 図に記号 Aで示すキ ヤ リ ブレ ー シ ョ ン時の位置か らこれと は別の位置 B に移動する場合にも、 実質的なキャ リ ブレー シ ョ ンを再度行う必要はない。 即 ち、 斯かる場合には、 第 2 ロボ ッ ト 4 の共通座標系上で の位置 Aから位置 Bまでの移動量が第 2 ロボッ ト制御装 置 1 1 によ り算出され、 算出移動量が装置 1 1 に内蔵の メ モ リ (図示略) に格納される。 次に、 カ メ ラ 6 により ワー ク 4 0 の特定点 4 0 a を撮像して得た映像デ—夕が カ メ ラ 6 から視覚セ ンサ制御装置 2 0 に送られ、 移動量 データ, 映像データ及び第 2 ロ ボッ ト 4 の移動前に求め たキ ヤ リ ブ レー シ ョ ンデー タ 2 3 a に基づいて、 視覚セ ンサ制御装置 2 0 によ り特定点 4 0 a の共通座標系での 座標値データが算出され、 算出座標値データはそ の後の ロボッ ト作業制御に供される。 換言すれば、 キ ヤ リブレ ー シ ョ ンデ一 夕 2 3 a は第 2 ロ ボッ ト 4 の移動量に応じ て補正される。
上述のよ う に、 カ メ ラ 6 を搭載した第 2 ロボッ ト 4を キ ヤ リ ブレ ー シ ョ ン後に移動した場合にもキ ヤ リ ブレー シ ヨ ンを再度行う必要がないので、 作業ラィ か ら外れ た位置でキ ャ リ ブレー シ ョ ンを行った後に、 カ メ ラ 6を 作業ラ イ ンに臨む位置まで移動させて作業ラ イ ン上のヮ 一クを撮像する場合にも支障を来さない。
本発明は上記実施例に限定されず、 種々の変形が可能 である。
例えば、 上記実施例では第 2 ΰボッ ト 4 に搭載 した力 メ ラ 6 のキ ヤ リ ブ レー シ ョ ンを行う場合について説明し たが、 カ メ ラ 6 'を第 1 ロボッ ト 1 に搭載する と共にパ夕 ー ン板 3 を第 2 ロボッ ト 4.に装着し、 第 1 ロボッ ドに搭 載したカ メ ラ のキ ャ リ ブレー シ ョ ンを行う よ う に しても 良い。 即ち、 本発明によれば、 一対のロ ボッ トを含む口 ボ ッ ト シス テ ム において、 カ メ ラ を搭載した任意の一方 のロボッ ト とパター ン板を装着 した他方のロ ボ ッ ト とを 協働させる こ とによって、 カ メ ラ のキ ャ リ ブ レー ショ ン を行える。 更に、 本発明は、 2 台のロボ ッ ト を含むロボ ッ ト シス テムばかりではな く、 3 台以上のロボッ ト を含む ロボッ ト シス テ ム に も適用でき る。 こ の場合、 ロ ボ ッ ト システ ムの任意の一つのロボ ッ ト にパタ ー ン板 3 を装着 し、 そ の他のロ ボ ッ ト の夫々 にカ メ ラ を装着する。 例えば、 第 4 図に示すよ う に、 第 1 ロ ボ ッ ト 1 にパ夕 — ン板 3 を装 着し、 第 2及び第 3 ロ ボッ ト 4, 3 0 にカ メ ラ 6 b及び 6 c を夫々搭載する。 第 5 図は第 2 ロ ボ ッ ト 4 にパ夕— ン板 3 を装着する と共に第 1 及び第 3 ロ ボ ッ ト 1 , 3 0. の夫々 にカ メ ラ 6 a及び 6 c を装着した場合を示 し、 第 6 図は第 3 ロ ボ ッ ト 3 0 にパタ ー ン板 3 を装着すると共 に第 1 及び第 2 ロ ボ ッ ト 1, 4 の夫々 にカ メ ラ 6 a及び 6 b を装着した場合を示す。
そ して、 3 台以上の ロ ボ ッ ト を含むと共に 2 台以上の ロ ボ ッ ト の各々 にカ メ ラ を搭載 した上記変形例による口 ボ ッ ト シ ス テ ム において も、 各カ メ ラ のキ ヤ リ ブ レー シ ヨ ンを上記実施例と同様に行え る。 例えば、 第 4 図の π ボ ッ ト シス テ ムでは、 ノ、'タ ー ン板 3 がカ メ ラ 6 b, 6 c の視野に入る よ う にカ メ ラ 6 b, 6 c を夫々移動させ、 次いで、 各カ メ ラ でパタ ー ン板 3 を撮像 して得た映像デ 一 夕 に基づいて、 第 1 図の視覚セ ンサ制御装置 2 0 によ り各カ メ ラ に関するキ ヤ リ ブレ ー シ ョ ンデ一 夕 を上記実 施例の場合と 同様に求める。 こ の様に、 本発明によれば、 2 台以上の力 メ ラ を含む種々 の ロ ボ ッ ト シ ス テ ム におい て も、 ロ ボ ッ ト シ ス テ ムの構成に応じてカ メ ラ のキヤ リ 1 0
- 12 - ブ レー シ ョ ン をフ レキ シブルに行える o
上記実施例及び変形例では視覚セ ンサ と してカ メ ラを 用いたが、 レーザ測長器などを用いても良い。 更に、 上 記実施例では第 1 キ ヤ リ ブレー シ ョ ンパタ ー ンデータ 1 2 a を第 1 ロ ボ ッ ト制御装置 1 0 から視覚セ ンサ制御装 置 2 0 に入力 したが、 キーボー ドを介して手動入力可能 である。

Claims

請 求 の 範 囲
. ( a ) ロ ボッ ト に装着されパター ン部材からなるキ ャ リ ブ レー シ ョ ン治具の共通座標系での座標値を含む 第 1 キ ヤ リ ブ レー シ ョ ンパタ ー ンデータを生成し、
( b ) 別のロボッ ト に装着 した視覚セ ンサ によって 得たキ ヤ リ ブ レー シ ョ ン治具に関する視覚情報データ から、 キ ヤ リ ブレー シ ョ ン治具の視覚セ ンサ座標系で の座標値を含む第 2 キ ヤ リ ブ レー シ ョ ンパタ ー ンデー 夕を生成し、
( c ) 第 1 及び第 2 牛 ヤ リ ブ レー シ ヨ ンパタ ー ンデ 一夕 に基づいて視覚セ ンサのキ ヤ リ ブレ— シ ョ ンを行 う視覚セ ンサのキ ヤ リ ブ レ― シ ヨ ン方法。
. 前記工程 ( a ) において、 ( a 1 ) 前記キャ リブレ ー シ ョ ン治具を装着した前記ロボッ ト のア ー ム先端の
Dボッ ト座標系における座標値を検出し、 ( a 2 ) 前 £ロボッ ト座標系でのアー ム先端の座標値と前記ロボ
'ソ ト ア ー ム に対する前記キ ヤ リ ブレー シ ョ ン治具の取 付位置, 姿勢を表す既知のデータ とに基づいて、 前記 ロボッ ト座標系での前記キ ヤ リ ブレー シ ョ ン治具の座 標値を求め、 ( a 3 ) 前記ロ ボッ ト座標系での前記キ ャ リ ブ レー シ ョ ン治具の座標値を座標変換する こ とに よ り、 前記共通座標系での前記キ ャ リ ブ レー シ ョ ン治 具の座標値を求める請求の範囲第 1 項記載の視覚セ ン サのキ ヤ リ ブ レー シ ョ ン方法。
S工程 ( a ) において、 ドッ トパタ ー ンを形成し たパタ ー ン部材からなるキ ヤ リ ブレー シ ョ ン治具を用 いる請求の範囲第 1 項記載の視覚セ ンサのキ ヤ リブレ ー シ ョ ン方法。
4 . 前記工程 ( a 2 ) において、 前記口ボッ ト座標系で のアー ム先端の座標値及び前記ロボッ ト アー ム に対す る前記キ ャ リ ブレー シ ョ ン治具の取付位置, 姿勢を表 す既知のデー タ に加えて、 前記キ ャ リ ブレー シ ョ ン治 具をなすパタ ー ン部材における ドッ トパタ ー ン構成ド ッ 卜の形成位置を表す既知のデ-タを用い、 前記工程 ( a 3 ) において前記 ドッ ト パタ — ン構成 ドッ 卜の前 記共通座標系での座標値を求める請求の範囲第 2項記 ' 載の視覚セ ンサのキ ャ リ ブレ ー シ ョ ン方法。
5 . 前記工程'( b ) において、 前記視覚情報デー タを画 像処理する こ と によ り前記第 2 キ ヤ リ ブレー シ ョ ンパ ター ンデー タを生成する請求の範囲第 1 項記載の視覚 セ ンサ のキ ヤ リ ブ レー シ ョ ン方法。
6 . 前記工程 ( c ) において、 前記共通座標系と前記視 覚セ ンサ座標系; tを関連づけ るキャ リ ブレー シ ョ ンデ ータ を算出する請求の範囲第 2項記載の視覚セ ンサの キ ャ リ ブ レ ー シ ョ ン方法。
7 . ( d ) 前記工程 ( c ) のキ ヤ リ ブレー シ ョ ン実行時 における前記別のロ ボ ッ ト の位置から前記キ ヤ リブレ ー シ ョ ン終了後に移動した前記別のロ ボ ッ ト の新たな 位置までの移動量を求め、 ( e〉 前記別のロボ ッ トの 移動量を用いて、 前記工程 ( c ) で算出した前記キヤ リ ブレー シ ョ ンデータを補正する請求の範囲第 6項記 載の視覚セ ンサのキ ヤ リ ブレ ー シ ョ ン方法。
8. 前記キ ャ リ ブ レー シ ョ ン治具を装着したロボ ッ トと 視覚セ ンサを各々装着した複数のロ ボ ッ ト とを含む口 ボ ッ ト シス テ ム に適用されも ので、 前記複数のロボッ ト の各々について前記工程 ( a ) , ( b ) 及び ( c ) を実行する請求の範囲第 1 項記載の視覚セ ンサ のキヤ リ ブレー シ ョ ン方法。
9. 前記視覚セ ンサ と してカ メ ラ及びレーザ測 S器の少 な く と も一方を用いる請求の範囲第 1 項記載の視覚セ ンサのキ ヤ リ ブ レー シ ョ ン方法。
PCT/JP1991/000960 1990-07-19 1991-07-18 Procede d'etalonnage d'un capteur visuel WO1992001539A1 (fr)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE69105476T DE69105476T2 (de) 1990-07-19 1991-07-18 Verfahren zum kalibrieren eines optischen sensors.
EP91913074A EP0493612B1 (en) 1990-07-19 1991-07-18 Method of calibrating visual sensor
US07/838,812 US6114824A (en) 1990-07-19 1991-07-18 Calibration method for a visual sensor

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2/190958 1990-07-19
JP2190958A JP2686351B2 (ja) 1990-07-19 1990-07-19 視覚センサのキャリブレーション方法

Publications (1)

Publication Number Publication Date
WO1992001539A1 true WO1992001539A1 (fr) 1992-02-06

Family

ID=16266507

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP1991/000960 WO1992001539A1 (fr) 1990-07-19 1991-07-18 Procede d'etalonnage d'un capteur visuel

Country Status (5)

Country Link
US (1) US6114824A (ja)
EP (1) EP0493612B1 (ja)
JP (1) JP2686351B2 (ja)
DE (1) DE69105476T2 (ja)
WO (1) WO1992001539A1 (ja)

Families Citing this family (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3394278B2 (ja) * 1992-12-03 2003-04-07 ファナック株式会社 視覚センサ座標系設定治具及び設定方法
JP3394322B2 (ja) 1994-05-19 2003-04-07 ファナック株式会社 視覚センサを用いた座標系設定方法
JP3421608B2 (ja) 1999-04-08 2003-06-30 ファナック株式会社 教示モデル生成装置
DE20003381U1 (de) * 2000-02-24 2001-07-05 Kuka Schweissanlagen Gmbh Prüfeinrichtung für bewegliche optische Messeinrichtungen
US6615112B1 (en) 1999-06-26 2003-09-02 Kuka Schweissanlagen Gmbh Method and device for calibrating robot measuring stations, manipulators and associated optical measuring devices
JP4108342B2 (ja) * 2001-01-30 2008-06-25 日本電気株式会社 ロボット、ロボット制御システム、およびそのプログラム
CA2369845A1 (en) 2002-01-31 2003-07-31 Braintech, Inc. Method and apparatus for single camera 3d vision guided robotics
EP1472052A2 (en) 2002-01-31 2004-11-03 Braintech Canada, Inc. Method and apparatus for single camera 3d vision guided robotics
WO2004079546A2 (en) * 2003-03-04 2004-09-16 United Parcel Service Of America, Inc. System for projecting a handling instruction onto a moving item or parcel
US7063256B2 (en) 2003-03-04 2006-06-20 United Parcel Service Of America Item tracking and processing systems and methods
DE10319253B4 (de) * 2003-04-28 2005-05-19 Tropf, Hermann Dreidimensional lagegerechtes Zuführen mit Roboter
WO2006019970A2 (en) 2004-07-14 2006-02-23 Braintech Canada, Inc. Method and apparatus for machine-vision
JP3946716B2 (ja) * 2004-07-28 2007-07-18 ファナック株式会社 ロボットシステムにおける3次元視覚センサの再校正方法及び装置
DE102005045854B3 (de) * 2005-09-26 2007-04-12 Siemens Ag Verfahren und System zur Kalibrierung einer Kamera in Produktionsmaschinen
EP1941719A4 (en) * 2005-10-04 2010-12-22 Eugene J Alexander SYSTEM AND METHOD FOR CALIBRATING A SET OF PICTURE DEVICES AND CALCULATING THE 3D COORDINATES OF ELEMENTS DISCOVERED IN A LABORATORY COORDINATE SYSTEM
EP1946567A4 (en) * 2005-10-04 2009-02-18 Eugene J Alexander DEVICE FOR GENERATING THREE-DIMENSIONAL SURFACE MODELS OF MOBILE OBJECTS
US8223208B2 (en) * 2005-11-10 2012-07-17 Motion Analysis Corporation Device and method for calibrating an imaging device for generating three dimensional surface models of moving objects
WO2008036354A1 (en) 2006-09-19 2008-03-27 Braintech Canada, Inc. System and method of determining object pose
JP4886560B2 (ja) * 2007-03-15 2012-02-29 キヤノン株式会社 情報処理装置、情報処理方法
US7957583B2 (en) 2007-08-02 2011-06-07 Roboticvisiontech Llc System and method of three-dimensional pose estimation
US8923602B2 (en) * 2008-07-22 2014-12-30 Comau, Inc. Automated guidance and recognition system and method of the same
JP2010139329A (ja) * 2008-12-10 2010-06-24 Fanuc Ltd キャリブレーション用の校正治具および校正治具を備えた画像計測システム
TWI408037B (zh) 2010-12-03 2013-09-11 Ind Tech Res Inst 機械手臂的定位方法及校正方法
JP2014180720A (ja) * 2013-03-19 2014-09-29 Yaskawa Electric Corp ロボットシステム及びキャリブレーション方法
CN103878774A (zh) * 2014-02-25 2014-06-25 西安航天精密机电研究所 一种基于机器人的视觉标定方法
PL3012695T3 (pl) 2014-10-23 2018-03-30 Comau S.P.A. Układ do monitorowania i sterowania zakładem przemysłowym
WO2016119829A1 (en) * 2015-01-28 2016-08-04 Abb Schweiz Ag Multiple arm robot system and method for operating a multiple arm robot system
JP6122065B2 (ja) * 2015-05-29 2017-04-26 ファナック株式会社 搬送物を吊り下げて搬送するロボットシステム
WO2018181248A1 (ja) 2017-03-31 2018-10-04 パナソニックIpマネジメント株式会社 撮像システムおよび校正方法
CN110495163B (zh) * 2017-03-31 2021-12-10 松下知识产权经营株式会社 摄像系统以及校正方法
JP6815924B2 (ja) 2017-04-19 2021-01-20 トヨタ自動車株式会社 キャリブレーション装置
US10471478B2 (en) 2017-04-28 2019-11-12 United Parcel Service Of America, Inc. Conveyor belt assembly for identifying an asset sort location and methods of utilizing the same
JP7003462B2 (ja) * 2017-07-11 2022-01-20 セイコーエプソン株式会社 ロボットの制御装置、ロボットシステム、並びに、カメラの校正方法
IT201800005091A1 (it) 2018-05-04 2019-11-04 "Procedimento per monitorare lo stato di funzionamento di una stazione di lavorazione, relativo sistema di monitoraggio e prodotto informatico"
JP6740288B2 (ja) * 2018-07-13 2020-08-12 ファナック株式会社 物体検査装置、物体検査システム、及び検査位置を調整する方法
JP2020066066A (ja) * 2018-10-22 2020-04-30 セイコーエプソン株式会社 ロボットシステム、ロボットの校正治具、ロボットの校正方法
CN109411268A (zh) * 2018-12-11 2019-03-01 四川艾德瑞电气有限公司 一种铁路牵引变电所控制柜按钮视觉定位方法
JP2020154208A (ja) * 2019-03-22 2020-09-24 本田技研工業株式会社 カメラ焦点調整治具、及びカメラ焦点調整方法
CN111203862B (zh) * 2020-01-07 2021-03-23 上海高仙自动化科技发展有限公司 数据的显示方法、装置、电子设备及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59227382A (ja) * 1983-06-10 1984-12-20 株式会社日立製作所 精密位置決めシステム
JPS6037007A (ja) * 1983-08-08 1985-02-26 Hitachi Ltd 画像処理装置の座標変換パラメタ決定方式
JPS62102984A (ja) * 1985-10-29 1987-05-13 日産自動車株式会社 ロボットの手首部位置決め方法

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3890552A (en) * 1972-12-29 1975-06-17 George C Devol Dual-armed multi-axes program controlled manipulators
US4146924A (en) * 1975-09-22 1979-03-27 Board Of Regents For Education Of The State Of Rhode Island System for visually determining position in space and/or orientation in space and apparatus employing same
US4441817A (en) * 1980-07-29 1984-04-10 Diffracto Ltd. Electro-optical sensors with fiber optic bundles
US5148591A (en) * 1981-05-11 1992-09-22 Sensor Adaptive Machines, Inc. Vision target based assembly
US4481592A (en) * 1982-03-05 1984-11-06 Texas Instruments Incorporated Calibration system for a programmable manipulator
US4753569A (en) * 1982-12-28 1988-06-28 Diffracto, Ltd. Robot calibration
EP0151417A1 (en) * 1984-01-19 1985-08-14 Hitachi, Ltd. Method for correcting systems of coordinates in a robot having visual sensor device and apparatus therefor
JPS6142004A (ja) * 1984-08-06 1986-02-28 Toyota Central Res & Dev Lab Inc 追従ロボツト装置
US4796200A (en) * 1986-12-09 1989-01-03 Diffracto Ltd. Target based determination of robot and sensor alignment
US4851905A (en) * 1984-10-12 1989-07-25 Diffracto Ltd. Vision target fixture construction
US4639878A (en) * 1985-06-04 1987-01-27 Gmf Robotics Corporation Method and system for automatically determining the position and attitude of an object
JPS6257884A (ja) * 1985-09-09 1987-03-13 株式会社東芝 マニピユレ−タ装置
US4853771A (en) * 1986-07-09 1989-08-01 The United States Of America As Represented By The Secretary Of The Navy Robotic vision system
US4979135A (en) * 1988-01-27 1990-12-18 Storage Technology Corporation Vision system illumination calibration apparatus
US5034904A (en) * 1988-01-27 1991-07-23 Storage Technology Corporation Vision system illumination calibration apparatus
JPH01205994A (ja) * 1988-02-08 1989-08-18 Toshiba Corp ロボット視覚認識装置
JPH01237802A (ja) * 1988-03-18 1989-09-22 Tokico Ltd 工業用ロボットのティーチングデータ変換装置
JPH079606B2 (ja) * 1988-09-19 1995-02-01 豊田工機株式会社 ロボット制御装置
JP2786225B2 (ja) * 1989-02-01 1998-08-13 株式会社日立製作所 工業用ロボットの制御方法及び装置
US5023426A (en) * 1989-06-21 1991-06-11 Honeywell Inc. Robotic laser soldering apparatus for automated surface assembly of microscopic components
JPH08381B2 (ja) * 1989-07-27 1996-01-10 株式会社不二越 産業用ロボットシステム及びその制御方法
US4983797A (en) * 1989-12-29 1991-01-08 Dana Corporation Method for manufacturing a composite camshaft
JP2964113B2 (ja) * 1992-07-20 1999-10-18 東京エレクトロン株式会社 処理装置
US5083073A (en) * 1990-09-20 1992-01-21 Mazada Motor Manufacturing U.S.A. Corp. Method and apparatus for calibrating a vision guided robot

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59227382A (ja) * 1983-06-10 1984-12-20 株式会社日立製作所 精密位置決めシステム
JPS6037007A (ja) * 1983-08-08 1985-02-26 Hitachi Ltd 画像処理装置の座標変換パラメタ決定方式
JPS62102984A (ja) * 1985-10-29 1987-05-13 日産自動車株式会社 ロボットの手首部位置決め方法

Also Published As

Publication number Publication date
EP0493612B1 (en) 1994-11-30
EP0493612A4 (en) 1993-03-17
US6114824A (en) 2000-09-05
JP2686351B2 (ja) 1997-12-08
DE69105476D1 (de) 1995-01-12
DE69105476T2 (de) 1995-04-13
JPH0475887A (ja) 1992-03-10
EP0493612A1 (en) 1992-07-08

Similar Documents

Publication Publication Date Title
WO1992001539A1 (fr) Procede d'etalonnage d'un capteur visuel
JP3904605B2 (ja) 複合センサーロボットシステム
JP6527178B2 (ja) 視覚センサのキャリブレーション装置、方法及びプログラム
JP2690603B2 (ja) 視覚センサのキャリブレーション方法
JP4021413B2 (ja) 計測装置
US9050728B2 (en) Apparatus and method for measuring tool center point position of robot
EP2381325B1 (en) Method for robot offline programming
WO2018147411A1 (ja) ロボットシステム及びその制御方法
WO1995008143A1 (fr) Procede de correction de programmes d'apprentissage pour robots
US5333242A (en) Method of setting a second robots coordinate system based on a first robots coordinate system
US5392384A (en) Method of calibrating an industrial robot
JPH08377B2 (ja) ロボット不正確度修正方法
JP2005300230A (ja) 計測装置
JP4302830B2 (ja) ロボットのキャリブレーション方法及び装置
JP2000288968A (ja) 教示モデル生成装置
JPH03251378A (ja) ロボットのキャリブレーション方式
US5412759A (en) Robot control method and apparatus
US7925382B2 (en) Robot controller and robot control method
JPH05261682A (ja) 産業用ロボットのキャリブレーション方式
JPWO2020045277A1 (ja) ロボット及びその原点位置調整方法
JPH1097311A (ja) ロボットのツール座標系補正設定方法並びに該方法に使用するエンドエフェクタ
US20210291377A1 (en) Calibration Method
JPH05303425A (ja) 直接教示方式ロボット
JPH11248432A (ja) 三次元形状測定装置
WO2019182084A1 (ja) 方法及び装置

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE CH DE DK ES FR GB GR IT LU NL SE

WWE Wipo information: entry into national phase

Ref document number: 1991913074

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 1991913074

Country of ref document: EP

WWG Wipo information: grant in national office

Ref document number: 1991913074

Country of ref document: EP