JP2020116717A - Robot control system - Google Patents

Robot control system Download PDF

Info

Publication number
JP2020116717A
JP2020116717A JP2019012084A JP2019012084A JP2020116717A JP 2020116717 A JP2020116717 A JP 2020116717A JP 2019012084 A JP2019012084 A JP 2019012084A JP 2019012084 A JP2019012084 A JP 2019012084A JP 2020116717 A JP2020116717 A JP 2020116717A
Authority
JP
Japan
Prior art keywords
mark portion
image
mark
robot
coordinate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019012084A
Other languages
Japanese (ja)
Other versions
JP7281910B2 (en
Inventor
信夫 大石
Nobuo Oishi
信夫 大石
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fuji Corp
Original Assignee
Fuji Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Corp filed Critical Fuji Corp
Priority to JP2019012084A priority Critical patent/JP7281910B2/en
Publication of JP2020116717A publication Critical patent/JP2020116717A/en
Application granted granted Critical
Publication of JP7281910B2 publication Critical patent/JP7281910B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

To accurately perform abnormality diagnosis of a robot control system by using a camera.SOLUTION: Mark parts 61 and 62 are provided in a position having the prescribed positional relationship with respect to work areas 38 and 57, the mark parts 61 and 62 are imaged by both of a hand camera 40 and a fixed camera 51 in calibration time of a robot 11 thereby obtaining captured images, which are then processed thereby detecting positions of the mark parts 61 and 62, and coordinate values of the positions of the mark parts 61 and 62 are stored in a storage section 46. The mark parts 61 and 62 are then imaged by both of the hand camera 40 and the fixed camera 51 in the inspection time thereby obtaining captured images, which are then processed thereby detecting the positions of the mark parts 61 and 62, then coordinate values thereof are compared with coordinate values of the positions of the mark parts 61 and 62 in the calibration time stored in a storage section 46, and an abnormality diagnosis of a robot control system is performed based on these comparison results, and when determined that there is abnormality, an abnormality occurrence place is identified and a proper coping method for the abnormality is notified to a user by display or voice.SELECTED DRAWING: Figure 2

Description

本明細書は、異常診断機能を備えたロボット制御システムに関する技術を開示したものである。 This specification discloses a technique relating to a robot control system having an abnormality diagnosis function.

ワークの把持、搬送、作業を目的とするロボットシステムにおいて、高精度な位置決めが求められる用途やワーク位置の教示を自動化した用途においては、ロボットのアーム先端部に取り付けられたカメラ(ハンドカメラ)や、ワーク供給装置や作業対象部の上方に固定配置されたカメラ(固定カメラ)を使ってワークの位置座標や作業対象部の位置座標を検出し、ワーク把持位置や作業対象位置を自動的に補正するシステムが使用される。 In a robot system for the purpose of gripping, conveying, and working a workpiece, a camera (hand camera) attached to the tip of the robot arm is used for applications requiring high-precision positioning and automated teaching of the workpiece position. , The position coordinate of the work and the position coordinate of the work target are detected using the camera (fixed camera) fixed above the work supply device and the work target part, and the work grip position and the work target position are automatically corrected. System is used.

この様なカメラ(2次元)で撮像した画像による画像処理結果を用いて作業位置をロボットに指示する場合、それぞれの座標系つまりカメラの座標系であるビジョン座標系(2次元)とロボットの座標系(3次元)が異なるため、両座標系の相対位置を計測して座標系の変換を行う必要があり、この変換式及び補正パラメータを求めることをキャリブレーションと呼んでいる。 When instructing the robot the work position by using the image processing result of the image captured by such a camera (two-dimensional), each coordinate system, that is, the vision coordinate system (two-dimensional) which is the coordinate system of the camera and the coordinate of the robot. Since the systems (three-dimensional) are different, it is necessary to measure the relative positions of the two coordinate systems to convert the coordinate systems. Obtaining this conversion formula and correction parameters is called calibration.

ロボットの設置時にキャリブレーションを実施してロボット座標系を整えた後、ロボットの運用を続けていると、運用開始後のロボット及び設置台の経年変化、ロボット動作やロボットのアーム移動時の振動、衝撃或は周辺機器の変更等によって、ロボット座標系が変化することがあり、これがロボットの作業精度を悪化させる要因となる。 If you continue to operate the robot after you have calibrated the robot coordinate system when installing the robot, and if you continue to operate the robot, the secular change of the robot and the installation base after the start of operation, the vibration of the robot operation and the movement of the robot arm, The robot coordinate system may change due to a shock, a change in peripheral equipment, or the like, which becomes a factor that deteriorates the work accuracy of the robot.

特に、ワーク供給装置や作業対象部の上方にロボットに固定配置された固定カメラは視野が広く、位置検出精度の悪化がロボットの作業精度を悪化させる要因となり、システムとして求められる作業精度を確保できず、生産の継続が困難になることがある。 In particular, the fixed camera fixedly placed on the robot above the work supply device and the work target part has a wide field of view, and the deterioration of the position detection accuracy causes the work accuracy of the robot to deteriorate, and the work accuracy required for the system can be secured. Therefore, it may be difficult to continue production.

近年、特許文献1(特開2018−034271号公報)に記載されているように、ロボットによるワークの搬送作業が失敗したときに、ロボットのアーム先端部に取り付けたカメラを使用して失敗の要因を特定する方法が提案されている。この特許文献1の失敗要因の特定方法では、ロボット座標系における基準位置及び基準方向を表す基準マークをキャリブレーションステージに設置すると共に、ロボットのアーム先端のハンドでマスターワークを把持してキャリブレーションステージの所定位置に載置し、更に、ロボットのアームの先端部に取り付けたカメラをキャリブレーションステージの上方に移動させて、そのカメラの視野内に基準マークとマスターワークを収めて撮像し、その画像を処理して、基準マークの位置及び向きのずれ量とマスターワークの位置及び向きのずれ量を計測して、それらのずれ量に基づいて失敗の要因がカメラにあるのか、ロボットにあるのかを判定するようにしている。 In recent years, as described in Patent Document 1 (Japanese Patent Laid-Open No. 2018-034271), when a work transfer operation by a robot fails, a cause of failure is obtained by using a camera attached to the tip of the robot arm. Have been proposed. In the failure factor identification method of Patent Document 1, a reference mark indicating a reference position and a reference direction in a robot coordinate system is set on a calibration stage, and a master work is held by a hand at the tip of an arm of a robot to calibrate the calibration stage. Then, the camera mounted on the tip of the robot arm is moved above the calibration stage, the reference mark and the master work are captured within the field of view of the camera, and the image is taken. By measuring the deviation amount of the position and orientation of the reference mark and the deviation amount of the position and orientation of the master work, and determining whether the cause of failure is the camera or the robot based on these deviation amounts. I am trying to judge.

特開2018−034271号公報JP, 2008-034271, A

しかし、上記特許文献1では、基準マークを設けたキャリブレーションステージの位置や向きがずれている場合には、失敗の要因がカメラにある(カメラの位置や向きがずれている)と誤判定したり、或は、失敗の要因がロボットにある(ロボット座標系がずれている)と誤判定する可能性がある。しかも、ロボットのハンドでマスターワークを把持する際に、マスターワークの位置がずれている場合には、ロボットのハンドでマスターワークを把持する把持位置がずれるため、キャリブレーションステージに載置するマスターワークの位置もずれてしまい、それによって失敗の要因を誤判定する可能性がある。 However, in Patent Document 1, when the position or orientation of the calibration stage provided with the reference mark is misaligned, it is erroneously determined that the cause of failure is in the camera (the position or orientation of the camera is misaligned). Or, there is a possibility of erroneously determining that the cause of the failure lies in the robot (the robot coordinate system is misaligned). Moreover, when the master work is gripped by the robot hand, if the master work is misaligned, the gripping position at which the robot hand grips the master work is misaligned, so the master work placed on the calibration stage The position of is also displaced, and there is a possibility that the cause of failure may be erroneously determined.

上記課題を解決するために、ワークを作業エリアに供給する供給装置と、前記作業エリアに供給されたワークに対して所定の作業を行うロボットと、前記ロボットのアームに取り付けられたハンドカメラと、前記ロボットのアーム可動領域よりも高い場所に下向きに固定され、前記作業エリアに供給されたワークを上方から撮像する固定カメラと、前記ハンドカメラで撮像した画像を処理して撮像対象の位置を当該画像の基準点を原点とする座標系(以下「ハンドカメラのビジョン座標系」という)の座標値で検出する第1画像処理部と、前記固定カメラで撮像した画像を処理して撮像対象の位置を当該画像の基準点を原点とする座標系(以下「固定カメラのビジョン座標系」という)の座標値で検出する第2画像処理部と、前記ハンドカメラのビジョン座標系の座標値及び前記固定カメラのビジョン座標系の座標値を前記ロボットのアームの動作を制御する座標系である世界座標系の座標値に変換する座標変換部と、前記ロボットのアームの位置を前記世界座標系の座標値で制御する制御部とを備えたロボット制御システムにおいて、前記固定カメラの視野に収まる範囲内で前記作業エリアに対して所定の位置関係となる位置に設けられたマーク部と、前記ハンドカメラの視野内に前記マーク部が収まる位置へ前記ハンドカメラを移動させて前記ハンドカメラで前記マーク部を撮像して、その画像を前記第1画像処理部で処理して前記マーク部の位置を前記ハンドカメラのビジョン座標系の座標値で検出して前記座標変換部で前記世界座標系の座標値に変換する動作(以下「ハンドカメラ画像からのマーク部位置検出動作」という)と、前記固定カメラで前記マーク部を撮像して、その画像を前記第2画像処理部で処理して前記マーク部の位置を前記固定カメラのビジョン座標系の座標値で検出する動作(以下「固定カメラ画像からのマーク部位置検出動作」という)とを実行する検査実行部と、前記検査実行部が過去に行った前記ハンドカメラ画像からのマーク部位置検出動作で検出した過去の前記マーク部の位置の座標値(以下「過去のハンドカメラ画像から検出した過去の前記マーク部の位置の座標値」という)を記憶すると共に、前記検査実行部が過去に行った前記固定カメラ画像からのマーク部位置検出動作で検出した過去の前記マーク部の位置の座標値(以下「過去の固定カメラ画像から検出した過去の前記マーク部の位置の座標値」という)を記憶する記憶部とを備え、前記検査実行部は、今回行った前記ハンドカメラ画像からのマーク部位置検出動作で検出した今回の前記マーク部の位置の座標値を前記記憶部に記憶されている、前記過去のハンドカメラ画像から検出した過去の前記マーク部の位置の座標値と比較すると共に、今回行った前記固定カメラ画像からのマーク部位置検出動作で検出した今回の前記マーク部の位置の座標値を前記記憶部に記憶されている、前記過去の固定カメラ画像から検出した過去の前記マーク部の位置の座標値と比較し、それらの比較結果に基づいて異常診断するようにしたものである。 In order to solve the above problems, a supply device that supplies a work to a work area, a robot that performs a predetermined work on the work supplied to the work area, and a hand camera attached to an arm of the robot, A fixed camera, which is fixed downward at a position higher than the arm movable area of the robot, and which picks up an image of the work supplied to the work area from above, and a position of an image pickup target by processing an image picked up by the hand camera. A first image processing unit that detects a coordinate value of a coordinate system whose origin is the reference point of the image (hereinafter referred to as "hand camera vision coordinate system"), and a position of an image capturing target by processing an image captured by the fixed camera. A second image processing unit that detects a coordinate value of a coordinate system having the reference point of the image as an origin (hereinafter referred to as “fixed camera vision coordinate system”), and the coordinate value of the hand camera vision coordinate system and the fixed value. A coordinate conversion unit that converts the coordinate value of the vision coordinate system of the camera into the coordinate value of the world coordinate system that is the coordinate system that controls the operation of the robot arm, and the position of the robot arm is the coordinate value of the world coordinate system. In a robot control system including a control unit for controlling by the above, a mark portion provided in a position having a predetermined positional relationship with the work area within a range that fits in the visual field of the fixed camera, and a visual field of the hand camera The hand camera is moved to a position where the mark portion is accommodated, the mark portion is imaged by the hand camera, the image is processed by the first image processing portion, and the position of the mark portion is set by the hand camera. The operation of detecting the coordinate value of the vision coordinate system and converting it to the coordinate value of the world coordinate system by the coordinate conversion unit (hereinafter referred to as "mark position detection operation from the hand camera image"), and the fixed camera An operation of capturing an image of the mark portion, processing the image by the second image processing portion, and detecting the position of the mark portion by the coordinate value of the vision coordinate system of the fixed camera (hereinafter, “mark portion from fixed camera image”). And a coordinate value of a position of the mark portion in the past detected by a mark portion position detecting operation from the hand camera image performed in the past by the inspection executing unit (hereinafter referred to as "position detecting operation"). The “coordinate value of the past position of the mark portion detected from the past hand camera image” is stored and detected by the mark portion position detection operation from the fixed camera image performed in the past by the inspection execution unit. The coordinate value of the position of the mark portion in the past (hereinafter, "the past coordinate value detected from the past fixed camera image (Hereinafter referred to as the “coordinate value of the position of the mark portion”), the inspection execution unit stores the position of the mark portion detected this time by the mark position detection operation from the hand camera image performed this time. The coordinate value is compared with the coordinate value of the past position of the mark portion detected from the past hand camera image stored in the storage unit, and the mark portion position detection operation from the fixed camera image performed this time is performed. The coordinate value of the position of the mark portion detected this time is compared with the coordinate value of the past position of the mark portion detected from the past fixed camera image stored in the storage unit, and the comparison result thereof is obtained. The abnormality is diagnosed based on the above.

この構成では、ロボットのアームに取り付けられたハンドカメラと、ロボットのアーム可動領域よりも高い場所に下向きに固定された固定カメラとの両方で、作業エリアに対して所定の位置関係で設けられたマーク部を撮像して、ハンドカメラの画像と固定カメラの画像の両方で同じマーク部の位置を検出して異常診断するため、前記特許文献1で誤判定の要因となっていたキャリブレーションステージやマスターワークを使用せずに異常診断することができる。しかも、ハンドカメラと固定カメラとの両方で同じマーク部を撮像するため、カメラの位置ずれかマーク部の位置ずれかを判別することができ、異常診断の精度を向上させることができる。 In this configuration, both the hand camera attached to the robot arm and the fixed camera fixed downward at a position higher than the robot arm movable area are provided in a predetermined positional relationship with respect to the work area. Since the image of the mark portion is picked up and the position of the same mark portion is detected in both the image of the hand camera and the image of the fixed camera to perform abnormality diagnosis, the calibration stage which is a factor of erroneous determination in Patent Document 1 Abnormality can be diagnosed without using masterwork. Moreover, since the same mark portion is imaged by both the hand camera and the fixed camera, it is possible to determine whether the camera position is displaced or the mark portion is displaced, and the accuracy of abnormality diagnosis can be improved.

図1はロボット制御システムの外観を示す正面図である。FIG. 1 is a front view showing the appearance of the robot control system. 図2はロボット制御システムにおけるマーク部の配置を説明する平面図である。FIG. 2 is a plan view for explaining the arrangement of mark parts in the robot control system. 図3はトレー搬送装置の上面に設けるマーク部の配置を説明する平面図である。FIG. 3 is a plan view illustrating the arrangement of mark portions provided on the upper surface of the tray transport device. 図4はロボット制御システムの電気的構成を示すブロック図である。FIG. 4 is a block diagram showing the electrical configuration of the robot control system. 図5はキャリブレーション時マーク部位置検出・記憶プログラムの処理の流れを示すフローチャートである。FIG. 5 is a flowchart showing the flow of processing of the mark position detection/storage program during calibration. 図6はロボット制御システム異常診断プログラムの一部の処理の流れを示すフローチャート(その1)である。FIG. 6 is a flowchart (No. 1) showing the flow of a part of the processing of the robot control system abnormality diagnosis program. 図7はロボット制御システム異常診断プログラムの一部の処理の流れを示すフローチャート(その2)である。FIG. 7 is a flowchart (part 2) showing the flow of part of the processing of the robot control system abnormality diagnosis program. 図8はロボット制御システム異常診断プログラムの一部の処理の流れを示すフローチャート(その3)である。FIG. 8 is a flowchart (part 3) showing the flow of part of the processing of the robot control system abnormality diagnosis program.

以下、本明細書に開示した一実施例を図面を用いて説明する。
まず、図1に基づいてロボット11の構成を説明する。
An embodiment disclosed in the present specification will be described below with reference to the drawings.
First, the configuration of the robot 11 will be described with reference to FIG.

ロボット11は、例えば5軸垂直多関節ロボットであり、工場フロア12に設置された固定ベース13と、この固定ベース13上に第1関節軸14(J1)を中心に回転可能に設けられた第1アーム15と、この第1アーム15の先端に第2関節軸16(J2)によって旋回可能に設けられた第2アーム17と、この第2アーム17の先端に第3関節軸18(J3)によって旋回可能に設けられた第3アーム19と、この第3アーム19の先端に第4関節軸20(J4)によって旋回可能に設けられた手首部21と、この手首部21に第5関節軸22(J5)を中心に回転可能且つ交換可能に取り付けられたエンドエフェクタ23とから構成されている。これにより、手首部21に取り付けたエンドエフェクタ23は、その手首部21の関節軸である第4関節軸20によって旋回動作するようになっている。 The robot 11 is, for example, a 5-axis vertical articulated robot, and includes a fixed base 13 installed on the factory floor 12, and a first base provided on the fixed base 13 so as to be rotatable about a first joint shaft 14 (J1). One arm 15, a second arm 17 provided at the tip of the first arm 15 so as to be pivotable by a second joint shaft 16 (J2), and a third joint shaft 18 (J3) at the tip of the second arm 17. The third arm 19 rotatably provided by the third arm 19, the wrist portion 21 rotatably provided by the fourth joint shaft 20 (J4) at the tip of the third arm 19, and the fifth joint shaft 21 by the wrist portion 21. 22 (J5) and an end effector 23 which is attached so as to be rotatable and replaceable. As a result, the end effector 23 attached to the wrist portion 21 is swung by the fourth joint shaft 20 which is the joint shaft of the wrist portion 21.

この場合、エンドエフェクタ23は、例えば、吸着ノズル、ハンド、グリッパ、溶接機等のいずれであっても良い。ロボット11の第1〜第5の各関節軸14,16,18,20,22は、それぞれサーボモータ25〜29(図4参照)により駆動されるようになっている。図4に示すように、各サーボモータ25〜29には、それぞれ回転角を検出するエンコーダ31〜35が設けられ、各エンコーダ31〜35で検出した回転角の情報がサーボアンプ36を経由して制御部37にフィードバックされる。これにより、制御部37は、各エンコーダ31〜35で検出した各サーボモータ25〜29の回転角が各々の目標回転角と一致するようにサーボアンプ36を介して各サーボモータ25〜29をフィードバック制御することで、ロボット11の各アーム15,17,19と手首部21とエンドエフェクタ23の位置を各々の目標位置にフィードバック制御する。 In this case, the end effector 23 may be any one of a suction nozzle, a hand, a gripper, a welding machine, and the like. The first to fifth joint shafts 14, 16, 18, 20, 22 of the robot 11 are driven by servomotors 25 to 29 (see FIG. 4), respectively. As shown in FIG. 4, each of the servo motors 25 to 29 is provided with an encoder 31 to 35 for detecting a rotation angle, and information about the rotation angle detected by each of the encoders 31 to 35 is transmitted via the servo amplifier 36. It is fed back to the control unit 37. As a result, the controller 37 feeds back each servo motor 25-29 via the servo amplifier 36 so that the rotation angle of each servo motor 25-29 detected by each encoder 31-35 matches each target rotation angle. By controlling, the positions of the arms 15, 17, 19 of the robot 11, the wrist part 21, and the end effector 23 are feedback-controlled to the respective target positions.

図4の構成例では、サーボアンプ36は、複数のサーボモータ25〜29をフィードバック制御する多軸アンプであるが、サーボモータ25〜29を1台ずつ別々のサーボアンプでフィードバック制御するようにしても良い。 In the configuration example of FIG. 4, the servo amplifier 36 is a multi-axis amplifier that feedback-controls the plurality of servo motors 25 to 29, but the servo motors 25 to 29 are feedback-controlled by separate servo amplifiers one by one. Is also good.

図1及び図2に示すように、ロボット11のアーム可動領域(手首部21先端側のエンドエフェクタ23が移動可能な領域)の所定位置には、作業対象となるワーク30を一定の高さ位置の作業エリア38に供給する供給装置39が設置されている。この供給装置39は、コンベアで構成したものであっても良いし、振動式パーツフィーダ等、どの様な構成のパーツフィーダを用いても良く、要は、作業エリア38の高さ位置が既知の一定の高さ位置であれば良い。本実施例では、複数台の供給装置39が並設されている。 As shown in FIGS. 1 and 2, at a predetermined position of an arm movable region of the robot 11 (a region where the end effector 23 on the distal end side of the wrist 21 can move), the work 30 to be worked is positioned at a certain height position. A supply device 39 for supplying the work area 38 is installed. The supply device 39 may be configured by a conveyor, or a parts feeder having any structure such as a vibration type parts feeder may be used. In short, the height position of the work area 38 is known. It may be a constant height position. In this embodiment, a plurality of supply devices 39 are arranged side by side.

図1に示すように、ロボット11と複数台の供給装置39との間には、トレー搬送装置55が設置され、このトレー搬送装置55によって空のトレー56が供給装置39の作業エリア38の近くに配置された別の作業エリア57まで搬入される。ロボット11は、各供給装置39の作業エリア38に供給されたワーク30をエンドエフェクタ23でピックアップし、当該ワーク30をトレー搬送装置55の作業エリア57で停止しているトレー56に移し替えて整列させる作業を行う。ロボット11が所定数のワーク30をトレー56に移し替える毎に、トレー搬送装置55が搬送動作を再開して当該トレー56を搬出し、それと入れ替わりに次の空のトレー56を搬入する。 As shown in FIG. 1, a tray transfer device 55 is installed between the robot 11 and a plurality of supply devices 39, and an empty tray 56 is provided near the work area 38 of the supply device 39 by the tray transfer device 55. It is carried in to another work area 57 arranged at. The robot 11 picks up the work 30 supplied to the work area 38 of each supply device 39 by the end effector 23, transfers the work 30 to the tray 56 stopped in the work area 57 of the tray transfer device 55, and aligns it. Do the work. Each time the robot 11 transfers a predetermined number of works 30 to the tray 56, the tray transfer device 55 restarts the transfer operation to carry out the tray 56, and replaces it with the next empty tray 56.

図1及び図2に示すように、ロボット11のアーム先端部である手首部21には、作業エリア38に供給されたワーク30を上方から撮像するハンドカメラ40が取り付けられている。このハンドカメラ40は、2次元の画像を撮像する2次元のカメラであり、光軸が第5関節軸22と平行で、且つ、ハンドカメラ40のレンズ41が第5関節軸22の先端側(アーム先端側)に位置するように固定されている。 As shown in FIGS. 1 and 2, a hand camera 40 for picking up an image of the work 30 supplied to the work area 38 from above is attached to the wrist 21, which is the arm tip of the robot 11. The hand camera 40 is a two-dimensional camera that captures a two-dimensional image, the optical axis of which is parallel to the fifth joint axis 22, and the lens 41 of the hand camera 40 has a tip end side of the fifth joint axis 22 ( It is fixed so that it is located on the arm tip side).

更に、ロボット11のアーム可動領域よりも高い場所に設置された固定構造物50(例えばロボット防護柵の天井)の所定位置には、固定カメラ51が下向きに固定され、そのレンズ52側が下方に向けられている。この固定カメラ51は、供給装置39の作業エリア38に供給されたワーク30及びトレー56に移し替えられたワーク30を視野に収めて上方から撮像する2次元のカメラとして使用される。 Further, a fixed camera 51 is fixed downward at a predetermined position of a fixed structure 50 (for example, the ceiling of a robot protection fence) installed at a position higher than the arm movable area of the robot 11, and its lens 52 side is directed downward. Has been. The fixed camera 51 is used as a two-dimensional camera that captures the work 30 supplied to the work area 38 of the supply device 39 and the work 30 transferred to the tray 56 in the field of view from the upper side.

供給装置39の作業エリア38に供給されたワーク30を撮像する場合には、要求される分解能やロボット11のアーム可動領域内における作業エリア38の位置等によってハンドカメラ40と固定カメラ51とを使い分けるようにしている。ここで、固定カメラ51の視野とハンドカメラ40の視野は、ロボット11のアーム可動領域よりも狭い。ハンドカメラ40と固定カメラ51とを比較すると、視野は固定カメラ51の方が広いが、分解能(1ピクセル当たりの撮像対象の実際の長さ)はハンドカメラ40の方が細かく、高精度の画像処理が可能である。従って、例えば、作業エリア38上のワーク30のサイズが小さくて細かい分解能が要求される場合には、ハンドカメラ40を使用し、また、固定カメラ51の視野から外れた位置に設置された作業エリア38についてはハンドカメラ40を使用するようにすれば良い。また、固定カメラ51の視野内に複数の作業エリア38が収まる場合には、固定カメラ51の視野内に複数の作業エリア38を収めて撮像すれば、複数の作業エリア38上のワーク30の画像処理を能率良く行うことかできる。或は、図2に示すように、複数の作業エリア38が存在する場合に、作業エリア38毎にハンドカメラ40を移動させてワーク30を撮像するようにしても良い。 When imaging the work 30 supplied to the work area 38 of the supply device 39, the hand camera 40 and the fixed camera 51 are selectively used depending on the required resolution, the position of the work area 38 in the arm movable area of the robot 11, and the like. I am trying. Here, the visual field of the fixed camera 51 and the visual field of the hand camera 40 are narrower than the arm movable region of the robot 11. Comparing the hand camera 40 and the fixed camera 51, the fixed camera 51 has a wider field of view, but the hand camera 40 has a finer resolution (actual length of the imaging target per pixel), and a high-precision image. It can be processed. Therefore, for example, when the size of the work 30 on the work area 38 is small and a fine resolution is required, the hand camera 40 is used, and the work area installed outside the visual field of the fixed camera 51 is used. For 38, the hand camera 40 may be used. Further, when a plurality of work areas 38 fit within the field of view of the fixed camera 51, if the plurality of work areas 38 are housed within the field of view of the fixed camera 51 and imaged, an image of the work 30 on the plurality of work areas 38 can be obtained. The processing can be performed efficiently. Alternatively, as shown in FIG. 2, when there are a plurality of work areas 38, the hand camera 40 may be moved for each work area 38 to image the work 30.

図2に示すように、固定カメラ51の視野に収まる範囲内で各供給装置39の作業エリア38毎にその作業エリア38に対して所定の位置関係となる位置にマーク部61が1個又は複数個ずつ設けられている。各マーク部61は各供給装置39とそれぞれ一体化しており、各供給装置39の位置がずれた場合は各マーク部61も同方向に同量だけ位置ずれが起きる様に設定されている。各マーク部61の形状は、画像処理により各マーク部61の中心等の位置を正確に認識しやすい形状、例えば円形に形成されている。 As shown in FIG. 2, for each work area 38 of each supply device 39 within the range of the field of view of the fixed camera 51, one or a plurality of mark portions 61 are provided at a position having a predetermined positional relationship with the work area 38. They are provided individually. Each mark portion 61 is integrated with each supply device 39, and when each supply device 39 is displaced, each mark portion 61 is also displaced in the same direction by the same amount. The shape of each mark portion 61 is formed in a shape, for example, a circle, which makes it easy to accurately recognize the position of the center of each mark portion 61 by image processing.

トレー搬送装置55の作業エリア57についても、固定カメラ51の視野に収まる範囲内で作業エリア57に対して所定の位置関係となる位置に1個又は複数個のマーク部62が設けられている。各マーク部62はトレー搬送装置55やトレー56とそれぞれ一体化しており、トレー搬送装置55やトレー56の位置がずれた場合は各マーク部62も同方向に同量だけ位置ずれが起きる様に設定されている。各マーク部62の形状は、画像処理により位置を正確に認識しやすい形状、例えば円形に形成されている。 Also in the work area 57 of the tray transfer device 55, one or a plurality of mark portions 62 are provided at a position having a predetermined positional relationship with the work area 57 within the range of the fixed camera 51. The mark portions 62 are integrated with the tray transport device 55 and the tray 56, respectively, and when the tray transport device 55 and the tray 56 are displaced, the mark portions 62 are displaced in the same direction by the same amount. It is set. The shape of each mark portion 62 is formed in a shape such that the position can be easily recognized accurately by image processing, for example, a circle.

各マーク部61,62は、後述する異常診断で使用される他に、生産中に固定カメラ51の視野に各マーク部61,62を収めて撮像する場合には、ワーク30の位置は、最寄りのマーク部61,62の位置からの相対位置の座標値で表現される。この為にマーク部61,62をキャリブレーション時にあらかじめワールド座標上の座標値(X1w,Y1w)を計測し、記憶部46に記憶しておく。 The mark parts 61, 62 are used for abnormality diagnosis described later, and when the mark parts 61, 62 are housed in the field of view of the fixed camera 51 during the image pickup during production, the position of the work 30 is the closest. It is expressed by the coordinate value of the relative position from the position of the mark portions 61, 62. For this reason, the coordinate values (X1w, Y1w) on the world coordinates are measured in advance when the mark portions 61 and 62 are calibrated and stored in the storage portion 46.

一般に、マーク部61,62の配置は、図2に示す供給装置39のようにワーク検出対象領域が狭い場合には、1つの供給装置39に対して1つのマーク部61を配置すれば良い。一方、図2、図3に示すトレー56のようにワーク検出対象領域が比較的広い場合には、その領域の周辺に複数個のマーク部62を配置し、そのワーク検出対象領域をマーク部62の個数分に分割して、トレー56上のワーク30の位置は、最寄りのマーク部62の位置を基準点とする相対位置の座標値で算出する。 In general, the mark portions 61 and 62 may be arranged such that one mark portion 61 is arranged for one supply device 39 when the work detection target area is narrow as in the supply device 39 shown in FIG. On the other hand, when the work detection target area is relatively wide like the tray 56 shown in FIGS. 2 and 3, a plurality of mark portions 62 are arranged around the area, and the work detection target area is marked by the mark portion 62. The position of the work 30 on the tray 56 is calculated by the coordinate value of the relative position with the position of the nearest mark portion 62 as the reference point.

図3の例では、トレー56の周辺に4個のマーク部62を配置し、ワーク検出対象領域を4つに分割して、トレー56上の各ワーク30の位置を、最寄りのマーク部62の位置を基準点とする相対位置の座標値で算出する。 In the example of FIG. 3, four mark portions 62 are arranged around the tray 56, the work detection target area is divided into four, and the position of each work 30 on the tray 56 is set to the nearest mark portion 62. It is calculated by the coordinate value of the relative position with the position as the reference point.

トレー56上のワーク30のうち、検出対象のワーク30(A)の最寄りのマーク部62は、図3の左上のマーク部62(a)となるため、事前に記憶済みのマーク部62(a)の世界座標系の座標値である世界座標値(X1w,Y1w)と検出対象のワーク30(A)までの相対位置オフセット(ΔX1 ,ΔY1 )を用いて、トレー56上の検出対象のワーク30(A)の世界座標系の座標値(Xw ,Yw )を次式により算出する。
[Xw ,Yw ]=[X1w,Y1w]+[ΔX1 ,ΔY1 ]
トレー56上の他のワーク30についても、上記と同様に最寄りのマーク部62の位置からの相対位置によって算出される。
Of the workpieces 30 on the tray 56, the mark portion 62 closest to the workpiece 30 (A) to be detected is the mark portion 62 (a) at the upper left of FIG. ) The world coordinate values (X1w, Y1w), which are the coordinate values of the world coordinate system, and the relative position offset (ΔX1, ΔY1) to the workpiece 30 (A) to be detected are used to detect the workpiece 30 on the tray 56. The coordinate value (Xw, Yw) of the world coordinate system of (A) is calculated by the following formula.
[Xw, Yw]=[X1w, Y1w]+[ΔX1, ΔY1]
The other works 30 on the tray 56 are also calculated by the relative position from the position of the nearest mark portion 62, as in the above.

上式に示したように、ワーク30の位置を最寄りのマーク部62の位置からの相対位置で表現することによって、世界座標系の基準点を複数もつことができる。通常の固定カメラ51の画像からの世界座標値の算出は、画像中心の1点の世界座標値を検出し、その相対値で表現しているため、画像の歪み等の要因で画像周辺部での検出精度が悪化することがあったが、画像周辺部に複数のマーク部61,62を配置して、各マーク部61,62の絶対座標からの相対値でワーク30の位置座標を算出することで、画像周辺部での検出精度を向上することができる。 As shown in the above equation, by expressing the position of the work 30 as a relative position from the position of the nearest mark portion 62, it is possible to have a plurality of reference points in the world coordinate system. In the calculation of the world coordinate value from the image of the normal fixed camera 51, the world coordinate value of one point at the center of the image is detected and expressed as a relative value, so that the image peripheral portion is affected by factors such as image distortion. However, the plurality of mark portions 61 and 62 are arranged in the peripheral portion of the image, and the position coordinate of the work 30 is calculated by the relative value from the absolute coordinate of each mark portion 61 and 62. As a result, it is possible to improve the detection accuracy in the peripheral portion of the image.

以上のように構成したロボット11の動作を制御するロボット制御ユニット42は、図4に示すように、画像処理部43、座標変換部44、制御部37、検査実行部45及びサーボアンプ36等を備えた構成となっている。画像処理部43は、ハンドカメラ40で撮像した画像を処理して撮像対象の位置を当該画像の基準点を原点とする座標系(以下「ハンドカメラ40のビジョン座標系」という)の座標値で検出する第1画像処理部と、固定カメラ51で撮像した画像を処理して撮像対象の位置を当該画像の基準点(例えば画像の中心)を原点とする2次元の直交座標系(以下「固定カメラ51のビジョン座標系」という)の座標値で検出する第2画像処理部として機能する。前記第1画像処理部と前記第2画像処理部は、同一の画像処理装置で構成しても良いし、別々の画像処理装置で構成しても良い。各ビジョン座標系の座標軸は、画像上で直交するXv 軸とYv 軸である。供給装置39の作業エリア38上のワーク30をハンドカメラ40で撮像する際には、ハンドカメラ40の光軸を鉛直下向きに向けて撮像するため、ハンドカメラ40で撮像した画像は、固定カメラ51で撮像した画像と同様に、水平面を撮像した画像となり、ビジョン座標系のXv 軸とYv 軸は水平面上の直交座標軸となる。画像処理部43は、画像処理によってワーク30の位置をビジョン座標系のピクセル単位の座標値で検出する。 As shown in FIG. 4, the robot control unit 42 for controlling the operation of the robot 11 configured as above includes an image processing unit 43, a coordinate conversion unit 44, a control unit 37, an inspection execution unit 45, a servo amplifier 36, and the like. It is equipped with it. The image processing unit 43 processes the image captured by the hand camera 40, and uses the coordinate value of the coordinate system (hereinafter referred to as “vision coordinate system of the hand camera 40”) whose origin is the reference point of the image to be captured. A first image processing unit for detection and a two-dimensional Cartesian coordinate system (hereinafter referred to as “fixed”) that processes an image captured by the fixed camera 51 and sets the position of the image capturing target as the origin of a reference point (for example, the center of the image) of the image. It functions as a second image processing unit that detects the coordinate value of the "vision coordinate system of the camera 51". The first image processing unit and the second image processing unit may be configured by the same image processing device or may be configured by different image processing devices. The coordinate axes of each vision coordinate system are the Xv axis and the Yv axis that are orthogonal to each other on the image. When the hand camera 40 images the work 30 on the work area 38 of the supply device 39, since the optical axis of the hand camera 40 is vertically downward, the image taken by the hand camera 40 is the fixed camera 51. Similar to the image captured in (1), the image is obtained by capturing a horizontal plane, and the Xv axis and the Yv axis of the vision coordinate system are orthogonal coordinate axes on the horizontal plane. The image processing unit 43 detects the position of the work 30 by image processing by the coordinate value of each pixel in the vision coordinate system.

一方、座標変換部44は、ロボット11の稼働中には、画像処理部43の画像処理でワーク30の位置として検出した2次元のビジョン座標系の座標値を、ロボット11の各アーム15,17,19と手首部21とエンドエフェクタ23の位置を制御するための世界座標系の座標値に変換する。この世界座標系は、基準点を原点とする3次元の直交座標系であり、世界座標系の座標軸は、水平面上の直交座標軸(X軸とY軸)と鉛直上向きの座標軸(Z軸)である。この世界座標系の座標値の単位は、長さの単位(例えばμm単位)である。この世界座標系の原点(基準点)は、例えば、ロボット11のアーム可動領域(手首部21先端側のエンドエフェクタ23が移動可能な領域)の中心である。 On the other hand, while the robot 11 is in operation, the coordinate conversion unit 44 converts the coordinate values of the two-dimensional vision coordinate system detected as the position of the work 30 by the image processing of the image processing unit 43 into the arms 15 and 17 of the robot 11. , 19, the wrist 21, and the end effector 23 are converted into coordinate values in the world coordinate system for controlling the positions. This world coordinate system is a three-dimensional orthogonal coordinate system whose origin is the reference point, and the coordinate axes of the world coordinate system are the orthogonal coordinate axes (X axis and Y axis) on the horizontal plane and the vertically upward coordinate axis (Z axis). is there. The unit of the coordinate value of this world coordinate system is the unit of length (for example, μm unit). The origin (reference point) of this world coordinate system is, for example, the center of the arm movable region of the robot 11 (the region where the end effector 23 on the tip side of the wrist 21 can move).

この場合、座標変換部44は、ロボット11の稼働中に固定カメラ51のビジョン座標系の座標値を世界座標系の座標値に変換する場合には、座標変換パラメータを用いて固定カメラ51のビジョン座標系の座標値を世界座標系の座標値に変換する。ここで、座標変換パラメータは、固定カメラ51のビジョン座標系の原点を補正する原点補正パラメータと、固定カメラ51のビジョン座標系の座標軸の傾きを補正する座標軸傾き補正パラメータとを含む。 In this case, when the coordinate conversion unit 44 converts the coordinate value of the vision coordinate system of the fixed camera 51 into the coordinate value of the world coordinate system while the robot 11 is in operation, the vision of the fixed camera 51 is converted using the coordinate conversion parameter. Converts coordinate values in the coordinate system to coordinate values in the world coordinate system. Here, the coordinate conversion parameter includes an origin correction parameter that corrects the origin of the vision coordinate system of the fixed camera 51 and a coordinate axis tilt correction parameter that corrects the tilt of the coordinate axis of the fixed camera 51 in the vision coordinate system.

一方、ハンドカメラ40のビジョン座標系の座標値を世界座標系の座標値に変換する場合には、世界座標系の座標軸に対するハンドカメラ40のビジョン座標系の座標軸の傾き角度Rzと原点を補正することによって、ハンドカメラ40のビジョン座標系の座標値を世界座標系の座標値に変換する。この補正は、それぞれの座標軸の傾き角度Rzを示す回転行列とビジョン座標原点の世界座標系上の位置(X1w,Y1w)への並進ベクトルとを求めることによって、ハンドカメラ40のビジョン座標系の座標値(Xav,Yav)を次式で補正して世界座標系の座標値(Xw',Yw')に変換することができる。 On the other hand, when converting the coordinate value of the vision coordinate system of the hand camera 40 into the coordinate value of the world coordinate system, the inclination angle Rz and the origin of the coordinate axis of the vision coordinate system of the hand camera 40 with respect to the coordinate axis of the world coordinate system are corrected. Thus, the coordinate value of the hand camera 40 in the vision coordinate system is converted into the coordinate value of the world coordinate system. This correction is performed by obtaining the rotation matrix indicating the inclination angle Rz of each coordinate axis and the translation vector of the vision coordinate origin to the position (X1w, Y1w) on the world coordinate system, and thus the coordinates of the vision coordinate system of the hand camera 40. The value (Xav, Yav) can be converted into the coordinate value (Xw', Yw') in the world coordinate system by correcting it with the following equation.

Figure 2020116717
Figure 2020116717

上式により、座標変換を行うためには、ハンドカメラ40のビジョン座標系の座標軸の傾き角度Rzと原点の座標値を測定する必要がある。 In order to perform coordinate conversion using the above equation, it is necessary to measure the tilt angle Rz of the coordinate axis of the vision coordinate system of the hand camera 40 and the coordinate value of the origin.

ハンドカメラ40はロボット11の手首部21に固定されているため、ロボット11のアーム位置とハンドカメラ40との相対的位置関係は常に一定に維持される。従って、世界座標系のXY座標軸に対するハンドカメラ40のビジョン座標系の座標軸の傾き角度Rzは、次式により算出される。 Since the hand camera 40 is fixed to the wrist portion 21 of the robot 11, the relative positional relationship between the arm position of the robot 11 and the hand camera 40 is always kept constant. Therefore, the tilt angle Rz of the coordinate axes of the vision coordinate system of the hand camera 40 with respect to the XY coordinate axes of the world coordinate system is calculated by the following equation.

Rz=[ハンドカメラ40の設置角度]+[第1関節軸14の回転角度]
ここで、ハンドカメラ40の設置角度は、ロボット11の手首部21に対するハンドカメラ40の設置角度であり、ハンドカメラ40をロボット11の手首部21に設置したときに手首部21に対するハンドカメラ40の設置角度を測定してロボット制御ユニット42の不揮発性メモリ(図示せず)に保存しておいた値を参照する。
Rz=[installation angle of hand camera 40]+[rotation angle of first joint shaft 14]
Here, the installation angle of the hand camera 40 is the installation angle of the hand camera 40 with respect to the wrist 21 of the robot 11, and when the hand camera 40 is installed on the wrist 21 of the robot 11, the installation of the hand camera 40 with respect to the wrist 21. The installation angle is measured and the value stored in the nonvolatile memory (not shown) of the robot control unit 42 is referred to.

第1関節軸14の回転角度の検出方法については、ロボット11のアーム位置(ハンドカメラ40の位置)が撮像位置で停止しているときの第1関節軸14のサーボモータ25のエンコーダ31の出力値をロボット制御ユニット42の制御部37がリアルタイムで取得して、第1関節軸14の回転角度を算出するようにしている。 Regarding the method of detecting the rotation angle of the first joint shaft 14, the output of the encoder 31 of the servo motor 25 of the first joint shaft 14 when the arm position of the robot 11 (position of the hand camera 40) is stopped at the imaging position The control unit 37 of the robot control unit 42 acquires the value in real time and calculates the rotation angle of the first joint shaft 14.

一方、ハンドカメラ40のビジョン座標系の原点の座標値は、ロボット制御ユニット42の制御部37がハンドカメラ40の撮像位置に指定した世界座標系の座標値と一致するようにロボット11へのハンドカメラ40組付け時にキャリブレーション済みの状態にしておく。ロボット11のアーム位置とハンドカメラ40との相対的位置関係は常に一定であるため、ロボット11の基準点とハンドカメラ40の光軸中心との間の距離を測定し、これを補正値として制御部37からの座標指令値に反映することによって、ロボット11に世界座標系上の位置(X1w 、Y1w )を指示すると、ハンドカメラ40のビジョン座標系の原点が世界座標系上の位置(X1w 、Y1w )に移動するように制御される。 On the other hand, the coordinate value of the origin of the vision coordinate system of the hand camera 40 is handed to the robot 11 so that the control unit 37 of the robot control unit 42 matches the coordinate value of the world coordinate system designated as the imaging position of the hand camera 40. The camera 40 is left in a calibrated state when assembled. Since the relative positional relationship between the arm position of the robot 11 and the hand camera 40 is always constant, the distance between the reference point of the robot 11 and the optical axis center of the hand camera 40 is measured, and this is controlled as a correction value. When the robot 11 is instructed to the position (X1w, Y1w) on the world coordinate system by reflecting it on the coordinate command value from the unit 37, the origin of the vision coordinate system of the hand camera 40 is on the world coordinate system (X1w, Y1w) is controlled to move.

ロボット制御ユニット42の制御部37は、各エンコーダ31〜35で検出した各サーボモータ25〜29の回転角とハンドカメラ40と手首部21(エンドエフェクタ23)との相対的位置関係に基づいてリアルタイムでハンドカメラ40のビジョン座標系の原点の座標値(X1w,Y1w)を算出するようにしている。 The control unit 37 of the robot control unit 42 is based on the rotation angle of each servo motor 25 to 29 detected by each encoder 31 to 35 and the relative positional relationship between the hand camera 40 and the wrist 21 (end effector 23) in real time. Then, the coordinate value (X1w, Y1w) of the origin of the vision coordinate system of the hand camera 40 is calculated.

ロボット制御ユニット42の制御部37は、ロボット11の稼働中に座標変換部44で3次元の世界座標系の座標値に変換したワーク30の位置に基づいてロボット11の各アーム15,17,19と手首部21とエンドエフェクタ23の目標位置を世界座標系の座標値で設定して、当該アーム15,17,19と手首部21とエンドエフェクタ23の位置を世界座標系の座標値で制御する。 The control unit 37 of the robot control unit 42 controls each arm 15, 17, 19 of the robot 11 based on the position of the work 30 converted into the coordinate values of the three-dimensional world coordinate system by the coordinate conversion unit 44 during the operation of the robot 11. The target positions of the wrist 21 and the end effector 23 are set by the coordinate values of the world coordinate system, and the positions of the arms 15, 17, 19 and the wrist 21 and the end effector 23 are controlled by the coordinate values of the world coordinate system. ..

次に、検査実行部45の機能について説明する。
検査実行部45は、固定カメラ51とハンドカメラ40を使用してロボット制御システムの異常診断を実行するものであり、後述する所定の検査実行条件が成立したときに、ハンドカメラ40の視野内にマーク部61,62が収まる位置へハンドカメラ40を移動させてハンドカメラ40でマーク部61,62を撮像して、その画像を画像処理部43で処理して当該マーク部61,62の位置をハンドカメラ40のビジョン座標系の座標値で検出して座標変換部44で世界座標系の座標値に変換する動作(以下「ハンドカメラ画像からのマーク部位置検出動作」という)と、固定カメラ51で全てのマーク部61,62を撮像して、その画像を画像処理部43で処理して全てのマーク部61,62の位置を固定カメラ51のビジョン座標系の座標値で検出して座標変換部44で世界座標系の座標値に変換する動作(以下「固定カメラ画像からのマーク部位置検出動作」という)とを実行する。
Next, the function of the inspection execution unit 45 will be described.
The inspection execution unit 45 executes the abnormality diagnosis of the robot control system using the fixed camera 51 and the hand camera 40, and when the predetermined inspection execution condition described later is satisfied, the inspection execution unit 45 is within the visual field of the hand camera 40. The hand camera 40 is moved to a position where the mark portions 61 and 62 are accommodated, the hand camera 40 takes an image of the mark portions 61 and 62, and the image processing unit 43 processes the image to determine the position of the mark portions 61 and 62. The operation of detecting with the coordinate value of the vision coordinate system of the hand camera 40 and converting into the coordinate value of the world coordinate system with the coordinate conversion unit 44 (hereinafter referred to as "mark portion position detection operation from the hand camera image"), and the fixed camera 51. Takes all the mark parts 61 and 62 with, and processes the image by the image processing part 43 to detect the positions of all the mark parts 61 and 62 by the coordinate values of the vision coordinate system of the fixed camera 51 to perform coordinate conversion. The unit 44 performs an operation of converting the coordinate value into a coordinate value in the world coordinate system (hereinafter referred to as "mark portion position detection operation from fixed camera image").

検査実行部45が過去に行ったハンドカメラ画像からのマーク部位置検出動作で検出した過去のマーク部61,62の位置の座標値(以下「過去のハンドカメラ画像から検出した過去のマーク部61,62の位置の座標値」という)を記憶部46に記憶すると共に、検査実行部45が過去に行った固定カメラ画像からのマーク部位置検出動作で検出した過去のマーク部61,62の位置の座標値(以下「過去の固定カメラ画像から検出した過去のマーク部61,62の位置の座標値」という)を記憶部46に記憶する。ここで、記憶部46に記憶する過去のマーク部61,62の位置の座標値は、ロボット制御システムをキャリブレーションしたときに、ハンドカメラ画像からのマーク部位置検出動作及び固定カメラ画像からのマーク部位置検出動作を実行して検出したマーク部61,62の位置の座標値である。 The coordinate values of the positions of the past mark portions 61 and 62 detected by the mark position detecting operation from the hand camera image performed by the inspection execution unit 45 in the past (hereinafter, “the past mark portion 61 detected from the past hand camera image”). , 62) is stored in the storage unit 46, and the past positions of the mark portions 61 and 62 detected by the mark portion position detection operation from the fixed camera image performed by the inspection execution unit 45 in the past. (Hereinafter, referred to as “coordinate values of past positions of the mark portions 61 and 62 detected from past fixed camera images”) in the storage unit 46. Here, the coordinate values of the past positions of the mark portions 61 and 62 stored in the storage unit 46 are the mark portion position detection operation from the hand camera image and the mark from the fixed camera image when the robot control system is calibrated. These are the coordinate values of the positions of the mark parts 61 and 62 detected by executing the part position detection operation.

過去のマーク部61,62の位置の座標値を記憶する記憶部46は、電源オフ中でも記憶データを保持する書き換え可能な不揮発性の記憶媒体であり、例えば、HDD、SSD、フラッシュメモリ等により構成されている。 The storage unit 46 that stores the coordinate values of the past positions of the mark units 61 and 62 is a rewritable nonvolatile storage medium that retains stored data even when the power is off, and is configured by, for example, an HDD, SSD, flash memory, or the like. Has been done.

検査実行部45は、今回行ったハンドカメラ画像からのマーク部位置検出動作で検出した今回のマーク部61,62の位置の座標値を記憶部46に記憶されている、前記過去のハンドカメラ画像から検出した過去のマーク部61,62の位置の座標値と比較すると共に、今回行った固定カメラ画像からのマーク部位置検出動作で検出した今回のマーク部61,62の位置の座標値を記憶部46に記憶されている、前記過去の固定カメラ画像から検出した過去のマーク部61,62の位置の座標値と比較し、それらの比較結果に基づいてロボット制御システムの異常診断を行い、その結果、異常ありと判定した場合には、前記今回のマーク部61,62の位置の座標値と前記過去のマーク部61,62の位置の座標値との比較結果の組み合わせに基づいて異常発生箇所を特定する。 The inspection execution unit 45 stores the past coordinate values of the positions of the mark portions 61 and 62 detected by the mark position detection operation from the hand camera image performed this time in the storage unit 46. The coordinate values of the positions of the mark portions 61 and 62 detected from the above are compared, and the coordinate values of the position of the mark portions 61 and 62 detected this time by the mark portion position detection operation from the fixed camera image performed this time are stored. Comparing with the coordinate values of the past positions of the mark portions 61 and 62 detected from the past fixed camera images stored in the portion 46, abnormality diagnosis of the robot control system is performed based on the comparison result, and As a result, when it is determined that there is an abnormality, the abnormality occurrence location is based on the combination of the comparison results of the coordinate values of the positions of the current mark portions 61 and 62 and the coordinate values of the positions of the past mark portions 61 and 62. Specify.

検査実行部45は、異常診断の結果を液晶ディスプレイ等の表示装置47や携帯端末(図示せず)に表示したり、或は音声によりロボット11を管理する作業者に通知する処理を行う。更に、検査実行部45は、異常発生箇所を特定した場合にはその異常発生箇所と対処方法を表示装置47や携帯端末に表示したり、音声により作業者に通知する処理を行う。 The inspection execution unit 45 displays the result of the abnormality diagnosis on a display device 47 such as a liquid crystal display or a portable terminal (not shown), or performs a process of notifying the operator who manages the robot 11 by voice. Further, when the inspection execution unit 45 identifies the abnormal place, the inspection executing unit 45 displays the abnormal place and the coping method on the display device 47 or the mobile terminal, or performs a process of notifying the operator by voice.

本実施例では、検査実行部45は、生産開始前にロボット制御システムの異常診断を実行し、生産開始前に行ったハンドカメラ画像からのマーク部位置検出動作及び固定カメラ画像からのマーク部位置検出動作で検出した当該生産開始前のマーク部61,62の位置の座標値を記憶部46に記憶されている過去のマーク部61,62の位置の座標値と比較して各位置の座標値の変化量を算出し、いずれか1つでも座標値の変化量が許容誤差に相当する所定の閾値を超えていれば異常ありと判定する。 In this embodiment, the inspection execution unit 45 executes the abnormality diagnosis of the robot control system before the start of production, and performs the mark portion position detection operation from the hand camera image and the mark portion position from the fixed camera image performed before the production start. The coordinate values of the positions of the mark portions 61 and 62 before the production start detected by the detection operation are compared with the coordinate values of the past positions of the mark portions 61 and 62 stored in the storage unit 46, and the coordinate value of each position. Is calculated, and if any one of them exceeds the predetermined threshold value corresponding to the allowable error, it is determined that there is an abnormality.

更に、本実施例では、検査実行部45は、生産中に後述する所定の検査実行条件が成立したときに、前記固定カメラ画像からのマーク部位置検出動作を実行して当該生産中のマーク部61,62の位置の座標値を検出し、当該生産中のマーク部61,62の位置の座標値を記憶部46に記憶されている、過去の固定カメラ画像から検出した過去のマーク部61,62の位置の座標値と比較して、当該生産中の比較結果に基づいて異常診断し、その結果、異常ありと判定した場合には、前記ハンドカメラ画像からのマーク部位置検出動作を実行してマーク部61,62の位置の座標値を検出し、そのマーク部61,62の位置の座標値を記憶部46に記憶されている、前記過去のハンドカメラ画像から検出した過去のマーク部61,62の位置の座標値と比較し、その比較結果と前記生産中の比較結果との組み合わせに基づいて異常発生箇所を特定する。 Further, in the present embodiment, the inspection executing unit 45 executes the mark portion position detecting operation from the fixed camera image when a predetermined inspection executing condition, which will be described later, is satisfied during the production, and the inspection executing unit 45 executes the mark portion during the production. The coordinate values of the positions 61 and 62 are detected, and the coordinate values of the positions of the mark portions 61 and 62 in production are stored in the storage unit 46. The past mark portion 61 detected from the past fixed camera image, When the abnormality is diagnosed based on the comparison result during the production by comparing with the coordinate value of the position of 62, and as a result, it is determined that there is abnormality, the mark position detection operation from the hand camera image is executed. The coordinate values of the positions of the mark portions 61, 62 are detected, and the coordinate values of the position of the mark portions 61, 62 are stored in the storage unit 46. The past mark portion 61 detected from the past hand camera image. , 62, and the position of abnormality is specified based on the combination of the comparison result and the comparison result during production.

或は、検査実行部45は、生産中にロボット11がアーム動作を所定時間以上停止している期間に前記ハンドカメラ画像からのマーク部位置検出動作を実行すると共に、固定カメラ51でマーク部61,62を撮像するのに邪魔にならない位置へロボット11のアームが移動している期間に前記固定カメラ画像からのマーク部位置検出動作を実行してロボット制御システムの異常診断を行うようにしても良い。 Alternatively, the inspection execution unit 45 executes the mark position detection operation from the hand camera image while the robot 11 stops the arm operation for a predetermined time or longer during production, and the fixed camera 51 causes the mark unit 61 to perform the mark position detection operation. , 62 may be performed while the arm of the robot 11 is moving to a position that does not interfere with the imaging of the robot 62, and the abnormality detection of the robot control system is performed by executing the mark position detecting operation from the fixed camera image. good.

或は、検査実行部45は、生産中にハンドカメラ40でワーク30を撮像して当該ワーク30の位置を検出してロボット11が所定の作業を行う場合には、生産中にハンドカメラ40でワーク30を撮像する際に、当該ワーク30とマーク部61,62の少なくとも1つをハンドカメラ40の視野に収めて撮像して前記ハンドカメラ画像からのマーク部位置検出動作を実行すると共に、固定カメラ51でマーク部61,62を撮像するのに邪魔にならない位置へロボット11のアームが移動している期間に前記固定カメラ画像からのマーク部位置検出動作を実行してロボット制御システムの異常診断を行うようにしても良い。 Alternatively, when the robot 11 performs a predetermined work by capturing an image of the work 30 with the hand camera 40 during production and detecting the position of the work 30 during production, the inspection execution unit 45 uses the hand camera 40 during production. When the work 30 is imaged, at least one of the work 30 and the mark portions 61, 62 is captured in the visual field of the hand camera 40 to perform the mark portion position detection operation from the hand camera image, and the work is fixed. During the period in which the arm of the robot 11 moves to a position that does not hinder the image pickup of the mark portions 61 and 62 by the camera 51, the mark portion position detection operation is executed from the fixed camera image to perform abnormality diagnosis of the robot control system. May be performed.

また、ロボット11を管理する作業者が入力装置48(キーボード、マウス、タッチパネル等)を操作して検査実行開始操作を行ったときにロボット制御システムの異常診断を実行するようにしても良い。 Further, the abnormality management of the robot control system may be performed when the operator who manages the robot 11 operates the input device 48 (keyboard, mouse, touch panel, etc.) to perform the inspection execution start operation.

ところで、ロボット11は、各供給装置39の作業エリア38に供給されたワーク30をエンドエフェクタ23でピックアップし、当該ワーク30をトレー搬送装置55の作業エリア57で停止しているトレー56に移し替えて整列させる作業を行うが、このロボット11の作業が異常になる原因としては、以下の3つの原因(1)〜(3)が考えられる。 By the way, the robot 11 picks up the work 30 supplied to the work area 38 of each supply device 39 by the end effector 23, and transfers the work 30 to the tray 56 stopped in the work area 57 of the tray transfer device 55. The following three causes (1) to (3) are conceivable as causes for the work of the robot 11 to become abnormal.

[原因(1)]
原因(1)は、固定カメラ51又はハンドカメラ40の設置位置や設置角度が過去(キャリブレーション時)から変化したことが考えられる。この変化は、例えば、カメラ設置部材の経年変化や、ライン移動等によって固定カメラ51を再設置したときの設置位置や設置角度のずれによって発生するものと考えられる。
[Cause (1)]
The cause (1) may be that the installation position or installation angle of the fixed camera 51 or the hand camera 40 has changed from the past (during calibration). It is considered that this change occurs due to, for example, the secular change of the camera installation member or the deviation of the installation position or installation angle when the fixed camera 51 is reinstalled due to line movement or the like.

[原因(2)]
原因(2)は、各供給装置39の作業エリア38又はトレー搬送装置55の作業エリア57のトレー56の位置や角度が過去(キャリブレーション時)から変化したことが考えられる。この変化は、例えば、ロボット11の振動、各供給装置39自身の振動、衝撃と供給装置39の移動、交換等による設置位置や設置角度の変化によって発生するものと考えられる。
[Cause (2)]
The cause (2) is considered to be that the position or angle of the tray 56 in the work area 38 of each supply device 39 or the work area 57 of the tray transport device 55 has changed from the past (during calibration). It is considered that this change is caused by, for example, the vibration of the robot 11, the vibration of each supply device 39 itself, the impact and the change of the installation position and the installation angle due to the movement and replacement of the supply device 39.

[原因(3)]
原因(3)は、ロボット11のアーム移動精度が悪化したことが考えられる。このアーム移動精度の悪化は、例えば、ロボット11の経年劣化、振動や衝撃等による組み付け状態の変化、エンドエフェクタ23の交換や再組み付けによるロボット11の座標系の変化によって発生するものと考えられる。
[Cause (3)]
The cause (3) is considered to be deterioration of the arm movement accuracy of the robot 11. It is considered that the deterioration of the arm movement accuracy is caused by, for example, deterioration of the robot 11 over time, a change in the assembly state due to vibration or shock, and a change in the coordinate system of the robot 11 due to replacement or reassembly of the end effector 23.

そこで、本実施例では、以下の手順でロボット制御ユニット42がロボット制御システムの異常診断を実行する。
まず、ロボット制御システムをキャリブレーションしたときに、ロボット制御ユニット42が図5のキャリブレーション時マーク部位置検出・記憶プログラムを実行して、キャリブレーション時のマーク部61,62の位置の世界座標値を検出して記憶部46に記憶する。マーク部61,62が設置されていない場合は、作業者がマーク部61,62を設置してからロボット制御ユニット42が図5のキャリブレーション時マーク部位置検出・記憶プログラムを実行する。
Therefore, in the present embodiment, the robot control unit 42 executes the abnormality diagnosis of the robot control system in the following procedure.
First, when the robot control system is calibrated, the robot control unit 42 executes the calibration mark position detection/storage program of FIG. 5, and the world coordinate values of the positions of the mark parts 61 and 62 at the time of calibration. Is detected and stored in the storage unit 46. If the mark parts 61 and 62 are not installed, the operator installs the mark parts 61 and 62, and then the robot control unit 42 executes the calibration mark part position detection/storage program of FIG.

ロボット制御ユニット42は、図5のキャリブレーション時マーク部位置検出・記憶プログラムを起動すると、まず、ステップ101で、ハンドカメラ40の視野内に検出対象となる1個又は複数個のマーク部61が収まる位置までロボット11の各アーム15,17,19を動作させてハンドカメラ40を移動させる。この後、ステップ102に進み、ハンドカメラ40でマーク部61を撮像し、次のステップ103で、ハンドカメラ40の画像を画像処理部43で処理して当該マーク部61,62の位置をハンドカメラ40のビジョン座標系の座標値で検出して座標変換部44で世界座標系の座標値である世界座標値[A0 ]に変換する。そして、次のステップ104で、このマーク部61,62の位置の世界座標値[A0 ]を記憶部46に記憶する。 When the calibration mark position detection/storage program of FIG. 5 is started, the robot control unit 42 first determines in step 101 that one or more mark parts 61 to be detected are within the visual field of the hand camera 40. The arms 15, 17, and 19 of the robot 11 are operated to move the hand camera 40 to a position where the hand camera 40 fits. After that, the process proceeds to step 102, the mark portion 61 is imaged by the hand camera 40, and in the next step 103, the image of the hand camera 40 is processed by the image processing unit 43 to determine the positions of the mark portions 61, 62. The coordinate conversion unit 44 detects the coordinate value of the vision coordinate system 40 and converts it into the world coordinate value [A0] which is the coordinate value of the world coordinate system. Then, in the next step 104, the world coordinate value [A0] of the positions of the mark portions 61 and 62 is stored in the storage portion 46.

この後、ステップ105に進み、全てのマーク部61,62の位置の検出・記憶が終了したか否かを判定し、まだ終了していなければ、上述したステップ101〜104の処理を繰り返して、残りのマーク部61,62の位置の検出・記憶を行う。このような処理を繰り返すことで、全てのマーク部61,62の位置の検出・記憶が終了した時点で、上記ステップ105の判定結果が「Yes」となり、ステップ106に進み、固定カメラ51で全てのマーク部61を撮像し、次のステップ107で、固定カメラ51の画像を画像処理部43で処理して全てのマーク部61,62の位置を固定カメラ51のビジョン座標系の座標値で検出して座標変換部44で世界座標値[B0 ]に変換する。そして、次のステップ108で、全てのマーク部61,62の位置の世界座標値[B0 ]を記憶部46に記憶して、本プログラムを終了する。 After that, the process proceeds to step 105, and it is determined whether or not the detection and storage of the positions of all the mark portions 61 and 62 have been completed. If not completed, the processes of steps 101 to 104 described above are repeated. The positions of the remaining mark portions 61 and 62 are detected and stored. By repeating such processing, when the detection and storage of the positions of all the mark portions 61 and 62 are completed, the determination result of the above step 105 becomes “Yes”, the process proceeds to step 106, and all the fixed cameras 51 are used. The image of the fixed camera 51 is processed by the image processing unit 43, and the positions of all the mark portions 61 and 62 are detected by the coordinate values of the fixed camera 51's vision coordinate system in the next step 107. Then, the coordinate conversion unit 44 converts it into a world coordinate value [B0]. Then, in the next step 108, the world coordinate values [B0] of the positions of all the mark portions 61 and 62 are stored in the storage portion 46, and this program ends.

その後、ロボット制御ユニット42は、生産開始前及び生産中に図6乃至図8のロボット制御システム異常診断プログラムを実行することで、ロボット制御システムの異常診断を行う。 After that, the robot control unit 42 executes the abnormality diagnosis program of the robot control system by executing the robot control system abnormality diagnosis program of FIGS. 6 to 8 before and during the production.

ロボット制御ユニット42は、図6乃至図8のロボット制御システム異常診断プログラムを起動すると、まずステップ201で、生産開始前の検査実行条件が成立するまで待機する。ここで、生産開始前の検査実行条件は、例えば、ロボット11が動作可能で、他の作業を行っていないこと等である。或は、作業者が入力装置48を操作して検査実行開始操作を行ったときに生産開始前の検査実行条件が成立するようにしても良い。また、生産開始前に、毎回、異常診断を行うようにしても良いが、生産実行回数や累積生産時間が所定値に達する毎に異常診断を行うようにしても良い。 When the robot control system abnormality diagnosis program of FIGS. 6 to 8 is started, the robot control unit 42 first waits in step 201 until the inspection execution condition before the start of production is satisfied. Here, the inspection execution condition before the start of production is, for example, that the robot 11 is operable and other work is not performed. Alternatively, the inspection execution condition before the start of production may be satisfied when the operator operates the input device 48 to perform the inspection execution start operation. Further, the abnormality diagnosis may be performed every time before the production is started, but the abnormality diagnosis may be performed each time the number of production executions or the cumulative production time reaches a predetermined value.

このステップ201で、生産開始前の検査実行条件が成立したと判定した時点で、ステップ202に進み、ハンドカメラ40の視野内に検出対象となる1個又は複数個のマーク部61が収まる位置までロボット11の各アーム15,17,19を動作させてハンドカメラ40を移動させる。この後、ステップ203に進み、ハンドカメラ40でマーク部61を撮像し、次のステップ204で、ハンドカメラ40の画像を画像処理部43で処理して当該マーク部61,62の位置をハンドカメラ40のビジョン座標系の座標値で検出して座標変換部44で世界座標値[A1 ]に変換する。そして、次のステップ205で、今回のマーク部61,62の位置の世界座標値[A1 ]を、記憶部46に記憶されている、キャリブレーション時のハンドカメラ40の画像から検出したキャリブレーション時のマーク部61,62の位置の世界座標値[A0 ]と比較して、各マーク部61,62の位置の世界座標値の変化量|[A0 ]−[A1 ]|を算出する。 At this step 201, when it is determined that the inspection execution condition before the start of production is satisfied, the process proceeds to step 202, until the position where one or a plurality of mark portions 61 to be detected fall within the visual field of the hand camera 40. The arms 15, 17, and 19 of the robot 11 are operated to move the hand camera 40. After that, the process proceeds to step 203, the mark portion 61 is imaged by the hand camera 40, and in the next step 204, the image of the hand camera 40 is processed by the image processing unit 43 so that the positions of the mark portions 61 and 62 are determined by the hand camera. The coordinate conversion unit 44 detects the coordinate value of the vision coordinate system 40 and converts it into the world coordinate value [A1]. Then, in the next step 205, the world coordinate value [A1] of the positions of the mark portions 61 and 62 this time is detected from the image of the hand camera 40 at the time of calibration stored in the storage unit 46. Then, the change amount |[A0]-[A1]| of the world coordinate value of the position of each mark portion 61, 62 is calculated by comparing with the world coordinate value [A0] of the position of each mark portion 61, 62.

この後、ステップ206に進み、全てのマーク部61,62の位置の検出・比較が終了したか否かを判定し、まだ終了していなければ、上述したステップ202〜205の処理を繰り返して、残りのマーク部61,62の位置の検出・比較を行う。 After that, the process proceeds to step 206, and it is determined whether or not the detection/comparison of the positions of all the mark portions 61 and 62 is completed. If not completed, the processes of steps 202 to 205 described above are repeated, The positions of the remaining mark portions 61 and 62 are detected and compared.

このような処理を繰り返すことで、全てのマーク部61,62の位置の検出・比較が終了した時点で、上記ステップ206の判定結果が「Yes」となり、ステップ207に進み、固定カメラ51で全てのマーク部61を撮像し、次のステップ208で、固定カメラ51の画像を画像処理部43で処理して全てのマーク部61,62の位置を固定カメラ51のビジョン座標系の座標値で検出して座標変換部44で世界座標値[B1 ]に変換する。この後、ステップ209に進み、今回の全てのマーク部61,62の位置の世界座標値[B1 ]を、記憶部46に記憶されている、キャリブレーション時の固定カメラ51の画像から検出したキャリブレーション時のマーク部61,62の位置の世界座標値[B0 ]と比較して、各マーク部61,62の位置の世界座標値の変化量|[B0 ]−[B1 ]|を算出する。 By repeating such processing, when the detection/comparison of the positions of all the mark portions 61 and 62 is completed, the determination result of the above step 206 becomes “Yes”, the process proceeds to step 207, and all the fixed cameras 51 are used. The image of the fixed camera 51 is processed by the image processing unit 43, and the positions of all the mark portions 61 and 62 are detected by the coordinate values of the fixed camera 51's vision coordinate system in the next step 208. Then, the coordinate conversion unit 44 converts it into the world coordinate value [B1]. After that, the process proceeds to step 209, in which the world coordinate values [B1] of the positions of all the mark parts 61 and 62 this time are detected from the image of the fixed camera 51 at the time of calibration stored in the storage part 46. The world coordinate value [B0] of the positions of the mark portions 61 and 62 at the time of the operation is calculated, and the change amount |[B0]-[B1]| of the world coordinate value of the positions of the mark portions 61 and 62 is calculated.

この後、図7のステップ210に進み、上記ステップ205とステップ209で算出した各マーク部61,62の位置の世界座標値の変化量|[A0 ]−[A1 ]|と|[B0 ]−[B1 ]|をそれぞれ許容誤差に相当する所定の閾値と比較して、全てのマーク部61,62の位置の世界座標値の変化量|[A0 ]−[A1 ]|と|[B0 ]−[B1 ]|が共に閾値以内であれば、ステップ211に進み、ロボット制御システムが正常(異常なし)と判定して、ステップ212に進み、生産を開始する。 After that, the process proceeds to step 210 of FIG. 7 and the amount of change in the world coordinate values of the positions of the mark portions 61 and 62 calculated in step 205 and step 209 |[A0]-[A1]| and |[B0]- [B1]| is compared with a predetermined threshold value corresponding to the allowable error, respectively, and the amount of change in the world coordinate values of the positions of all the mark portions 61, 62 |[A0]-[A1]| and |[B0]- If both [B1]| are within the threshold, the routine proceeds to step 211, where it is determined that the robot control system is normal (no abnormality), and the routine proceeds to step 212 to start production.

これに対し、上記ステップ210で、各マーク部61,62の位置の世界座標値の変化量|[A0 ]−[A1 ]|と|[B0 ]−[B1 ]|のうちのいずれか1つでも閾値以上であると判定した場合には、ステップ217に進み、ロボット制御システムが異常であると判定して、ステップ218に進み、|[A0 ]−[A1 ]|と閾値との比較結果と、|[B0 ]−[B1 ]|と閾値との比較結果との組み合わせに基づいて異常発生箇所を特定して、次のステップ219で、表示装置47や携帯端末に異常の警告表示を行ったり、或は音声によりその異常を作業者に通知する処理を行うと共に、異常発生箇所と対処方法を表示装置47や携帯端末に表示したり、音声により作業者に通知する処理を行う。 On the other hand, in step 210, one of the change amount |[A0]-[A1]| and |[B0]-[B1]| of the world coordinate value of the position of each mark portion 61, 62 However, if it is determined that it is equal to or more than the threshold value, the process proceeds to step 217, it is determined that the robot control system is abnormal, and the process proceeds to step 218, and the comparison result between |[A0]-[A1]| , |[B0]-[B1]| and the threshold value is identified based on the combination of the result of comparison with the threshold value, and in the next step 219, an alarm warning is displayed on the display device 47 or the portable terminal. Alternatively, the process of notifying the operator of the abnormality by voice is performed, the location of the abnormality and the coping method are displayed on the display device 47 or the mobile terminal, and the process of notifying the operator by voice is performed.

生産開始前は、例えば、以下の判定基準(1) 〜(3) に従って異常発生箇所を特定して異常発生箇所と対処方法を作業者に通知する。 Before the start of production, for example, the location of the abnormality is specified according to the following criteria (1) to (3), and the location of the abnormality and the countermeasure are notified to the operator.

(1) |[A0 ]−[A1 ]|≧閾値、且つ、|[B0 ]−[B1 ]|≧閾値の場合は、供給装置39又はトレー56(トレー搬送装置55)の位置や角度が異常(ずれ量が許容誤差を超える)と判定する。この場合の対処方法として、供給装置39とトレー56(トレー搬送装置55)の位置や角度を修正して、ハンドカメラ40と固定カメラ51のビジョン座標系を再キャリブレーションするように作業者に通知する。 (1) In the case of |[A0]-[A1]|≧threshold value and |[B0]-[B1]|≧threshold value, the position or angle of the supply device 39 or the tray 56 (tray transfer device 55) is abnormal. It is determined that the deviation amount exceeds the allowable error. As a coping method in this case, the operator is instructed to correct the positions and angles of the supply device 39 and the tray 56 (tray transfer device 55) and recalibrate the vision coordinate system of the hand camera 40 and the fixed camera 51. To do.

(2) |[A0 ]−[A1 ]|≧閾値、且つ、|[B0 ]−[B1 ]|<閾値の場合は、ロボット11のアーム移動精度(ロボット11内の座標系)が異常(ずれ量が許容誤差を超える)と判定する。この場合の対処方法として、エンドエフェクタ23の取付状態の確認とロボット11の再キャリブレーションを行うように作業者に通知する。 (2) If |[A0]-[A1]|≧threshold value and |[B0]-[B1]|<threshold value, the arm movement accuracy of the robot 11 (coordinate system in the robot 11) is abnormal (shifted). Quantity exceeds the allowable error). As a coping method in this case, the operator is notified to confirm the mounting state of the end effector 23 and recalibrate the robot 11.

(3) |[A0 ]−[A1 ]|<閾値、且つ、|[B0 ]−[B1 ]|≧閾値の場合は、固定カメラ51の設置位置や設置角度が異常(ずれ量が許容誤差を超える)と判定する。この場合の対処方法として、固定カメラ51の設置位置や設置角度を修正して固定カメラ51のビジョン座標系を再キャリブレーションするように作業者に通知する。 (3) In the case of |[A0]-[A1]|<threshold value and |[B0]-[B1]|≧threshold value, the installation position or installation angle of the fixed camera 51 is abnormal (the deviation amount causes an allowable error). Exceeded). As a coping method in this case, the operator is notified to correct the installation position and installation angle of the fixed camera 51 and recalibrate the vision coordinate system of the fixed camera 51.

生産開始後は、ステップ213に進み、生産中に固定カメラ51でワーク30を撮像するタイミングになる毎に、ステップ214以降の処理により生産中の異常診断を実行する。生産中に固定カメラ51でワーク30を撮像するタイミングになる毎に、毎回、異常診断を行うようにしても良いが、撮像回数が所定回数に達する毎に異常診断を行うようにしても良い。 After the start of production, the process proceeds to step 213, and the abnormality diagnosis during production is executed by the processing from step 214 onward every time when the fixed camera 51 images the work 30 during production. The abnormality diagnosis may be performed every time when the fixed camera 51 picks up an image of the work 30 during production, but the abnormality diagnosis may be performed each time the number of times of image pickup reaches a predetermined number.

ワーク30を撮像するタイミング(異常診断実行タイミング)になった時点で、ステップ214に進み、固定カメラ51でワーク30とマーク部61,62を撮像する。そして、次のステップ215で、固定カメラ51の画像を画像処理部43で処理して全てのマーク部61,62の位置を固定カメラ51のビジョン座標系の座標値で検出して座標変換部44で世界座標値[B2 ]に変換する。この後、ステップ216に進み、今回の全てのマーク部61,62の位置の世界座標値[B2 ]を、記憶部46に記憶されている、キャリブレーション時の固定カメラ51の画像から検出したキャリブレーション時のマーク部61,62の位置の世界座標値[B0 ]と比較して、各マーク部61,62の位置の世界座標値の変化量|[B0 ]−[B2 ]|を算出する。 When it comes to the timing of imaging the work 30 (abnormality diagnosis execution timing), the process proceeds to step 214, and the work 30 and the mark portions 61 and 62 are imaged by the fixed camera 51. Then, in the next step 215, the image of the fixed camera 51 is processed by the image processing unit 43, the positions of all the mark portions 61 and 62 are detected by the coordinate values of the vision coordinate system of the fixed camera 51, and the coordinate conversion unit 44 is detected. Convert to world coordinate value [B2] with. After that, the process proceeds to step 216, and the world coordinate values [B2] of the positions of all the mark parts 61 and 62 this time are detected from the image of the fixed camera 51 at the time of calibration stored in the storage part 46. The world coordinate values [B0] of the positions of the mark portions 61 and 62 at the time of the operation are compared with each other to calculate the change amount |[B0]-[B2]| of the world coordinate values of the positions of the mark portions 61 and 62.

この後、図8のステップ220に進み、各マーク部61,62の位置の世界座標値の変化量|[B0 ]−[B2 ]|を許容誤差に相当する所定の閾値と比較して、全てのマーク部61,62の位置の世界座標値の変化量|[B0 ]−[B2 ]|が閾値以内であれば、ステップ221に進み、ロボット制御システムが正常(異常なし)と判定する。この場合は、ステップ222に進み、生産終了か否かを判定し、生産終了ではない(生産中)と判定すれば、図7のステップ213に戻る。これにより、生産中は、固定カメラ51でワーク30を撮像するタイミング(異常診断実行タイミング)になる毎に、ロボット制御システムの異常診断が繰り返し実行され、生産が終了した時点で本プログラムも終了する。 After that, the process proceeds to step 220 in FIG. 8 and the change amount |[B0]-[B2]| of the world coordinate value of the position of each mark portion 61, 62 is compared with a predetermined threshold value corresponding to the allowable error, and all are compared. If the amount of change |[B0]-[B2]| in the world coordinate values at the positions of the mark portions 61 and 62 is within the threshold, the process proceeds to step 221, and it is determined that the robot control system is normal (no abnormality). In this case, the process proceeds to step 222, it is determined whether the production is finished, and if it is determined that the production is not finished (in production), the process returns to step 213 in FIG. 7. As a result, during production, the abnormality diagnosis of the robot control system is repeatedly executed every time when the fixed camera 51 captures an image of the work 30 (abnormality diagnosis execution timing), and this program also ends when the production ends. ..

一方、上記ステップ220で、各マーク部61,62の位置の世界座標値の変化量|[B0 ]−[B2 ]|のうちのいずれか1つでも閾値以上であると判定した場合には、ステップ223に進み、ロボット制御システムが異常であると判定して、ステップ224に進み、ハンドカメラ40の視野内に検出対象となる1個又は複数個のマーク部61が収まる位置までロボット11の各アーム15,17,19を動作させてハンドカメラ40を移動させる。この後、ステップ225に進み、ハンドカメラ40でマーク部61を撮像し、次のステップ226で、ハンドカメラ40の画像を画像処理部43で処理して当該マーク部61,62の位置をハンドカメラ40のビジョン座標系の座標値で検出して座標変換部44で世界座標値[A2 ]に変換する。この後、ステップ227に進み、今回のマーク部61,62の位置の世界座標値[A2 ]を、記憶部46に記憶されている、キャリブレーション時のハンドカメラ40の画像から検出したキャリブレーション時のマーク部61,62の位置の世界座標値[A0 ]と比較して、各マーク部61,62の位置の世界座標値の変化量|[A0 ]−[A2 ]|を算出する。 On the other hand, if it is determined in step 220 that any one of the amounts of change in the world coordinate values |[B0]-[B2]| at the positions of the mark portions 61 and 62 is equal to or greater than the threshold value, In step 223, it is determined that the robot control system is abnormal, and in step 224, each robot 11 is moved to a position where one or more mark portions 61 to be detected are within the visual field of the hand camera 40. The arms 15, 17, and 19 are operated to move the hand camera 40. After that, the process proceeds to step 225, the mark portion 61 is imaged by the hand camera 40, and in the next step 226, the image of the hand camera 40 is processed by the image processing unit 43 so that the positions of the mark portions 61 and 62 are determined by the hand camera. The coordinate conversion unit 44 detects the coordinate value of the vision coordinate system 40 and converts it into the world coordinate value [A2]. After that, the routine proceeds to step 227, where the world coordinate value [A2] of the positions of the mark portions 61 and 62 this time is detected from the image of the hand camera 40 at the time of calibration stored in the storage portion 46. Then, the change amount |[A0]-[A2]| of the world coordinate value at the position of each mark portion 61, 62 is calculated by comparing with the world coordinate value [A0] at the position of each mark portion 61, 62.

次のステップ228で、|[A0 ]−[A2 ]|と閾値との比較結果と、|[B0 ]−[B2 ]|と閾値との比較結果との組み合わせに基づいて異常発生箇所を特定して、次のステップ229で、表示装置47や携帯端末に異常の警告表示を行ったり、或は音声によりその異常を作業者に通知する処理を行うと共に、異常発生箇所と対処方法を表示装置47や携帯端末に表示したり、音声により作業者に通知する処理を行って、本プログラムを終了する。 In the next step 228, the location of the abnormality is identified based on the combination of the comparison result of |[A0]-[A2]| and the threshold value and the comparison result of |[B0]-[B2]| and the threshold value. Then, in the next step 229, a warning of the abnormality is displayed on the display device 47 or the mobile terminal, or a process of notifying the operator of the abnormality by voice is performed, and the location of the abnormality and the coping method are displayed on the display device 47. Then, the program is displayed on a mobile terminal or is notified to the operator by voice, and the program is terminated.

生産中は、例えば、以下の判定基準(1) 〜(3) に従って異常発生箇所を特定して異常発生箇所と対処方法を作業者に通知する。 During production, for example, the location of the abnormality is specified according to the following criteria (1) to (3), and the location of the abnormality and the countermeasure are notified to the operator.

(1) |[A0 ]−[A2 ]|≧閾値、且つ、|[B0 ]−[B2 ]|≧閾値の場合は、供給装置39又はトレー56(トレー搬送装置55)の位置や角度が異常(ずれ量が許容誤差を超える)と判定する。この場合の対処方法として、供給装置39とトレー56(トレー搬送装置55)の位置や角度を修正して、ハンドカメラ40と固定カメラ51のビジョン座標系を再キャリブレーションするように作業者に通知する。 (1) In the case of |[A0]-[A2]|≧threshold value and |[B0]-[B2]|≧threshold value, the position or angle of the supply device 39 or the tray 56 (tray transfer device 55) is abnormal. It is determined that the deviation amount exceeds the allowable error. As a coping method in this case, the operator is instructed to correct the positions and angles of the supply device 39 and the tray 56 (tray transfer device 55) and recalibrate the vision coordinate system of the hand camera 40 and the fixed camera 51. To do.

(2) |[A0 ]−[A2 ]|≧閾値、且つ、|[B0 ]−[B2 ]|<閾値の場合は、ロボット11のアーム移動精度(ロボット11内の座標系)が異常(ずれ量が許容誤差を超える)と判定する。この場合の対処方法として、エンドエフェクタ23の取付状態の確認とロボット11の再キャリブレーションを行うように作業者に通知する。 (2) If |[A0]-[A2]|≧threshold and |[B0]-[B2]|<threshold, the robot 11 arm movement accuracy (coordinate system in the robot 11) is abnormal (shifted). Quantity exceeds the allowable error). As a coping method in this case, the operator is notified to confirm the mounting state of the end effector 23 and recalibrate the robot 11.

(3) |[A0 ]−[A2 ]|<閾値、且つ、|[B0 ]−[B2 ]|≧閾値の場合は、固定カメラ51の設置位置や設置角度が異常(ずれ量が許容誤差を超える)と判定する。この場合の対処方法として、固定カメラ51の設置位置や設置角度を修正して固定カメラ51のビジョン座標系を再キャリブレーションするように作業者に通知する。 (3) In the case of |[A0]-[A2]|<threshold value and |[B0]-[B2]|≧threshold value, the installation position or installation angle of the fixed camera 51 is abnormal (the deviation amount causes an allowable error). Exceeded). As a coping method in this case, the operator is notified to correct the installation position and installation angle of the fixed camera 51 and recalibrate the vision coordinate system of the fixed camera 51.

以上説明した本実施例によれば、ロボット11の手首部21に取り付けられたハンドカメラ40と、ロボット11のアーム可動領域よりも高い場所に下向きに固定された固定カメラ51との両方で、作業エリア38,57に対して所定の位置関係で設けられたマーク部61,62を撮像して、ハンドカメラ40の画像と固定カメラ51の画像の両方で同じマーク部61,62の位置を検出して異常診断するため、前記特許文献1で誤判定の要因となっていたキャリブレーションステージやマスターワークを使用せずに異常診断することができる。しかも、ハンドカメラ40と固定カメラ51との両方で同じマーク部61,62を撮像するため、カメラ40,51の位置ずれかマーク部61,62の位置ずれかを判別することができ、異常診断の精度を向上させることができる。 According to the present embodiment described above, work is performed with both the hand camera 40 attached to the wrist portion 21 of the robot 11 and the fixed camera 51 fixed downward at a position higher than the arm movable area of the robot 11. The mark portions 61 and 62 provided in a predetermined positional relationship with the areas 38 and 57 are imaged, and the positions of the same mark portions 61 and 62 are detected in both the image of the hand camera 40 and the image of the fixed camera 51. Therefore, the abnormality diagnosis can be performed without using the calibration stage or the master work, which has been a factor of erroneous determination in Patent Document 1. Moreover, since the same mark portions 61 and 62 are imaged by both the hand camera 40 and the fixed camera 51, it is possible to determine whether the positional deviation of the cameras 40 and 51 or the positional deviation of the mark portions 61 and 62, and the abnormality diagnosis. The accuracy of can be improved.

しかも、本実施例では、生産開始前にロボット制御システムの異常診断を行うと共に、生産中も固定カメラ51でワーク30を撮像する毎にロボット制御システムの異常診断を行うようにしているため、生産中にロボット11が正常動作できない状態に至る前に作業者に異常警告したり、異常発生箇所や適切な対処方法を通知することができる。これにより、ロボット11の座標系異常に起因する計画外停止や不良の発生を未然に防止できると共に、異常発生箇所のメンテナンスの時間とコストを削減することができ、ロボット制御システムの予知保全を実現することができる。 Moreover, in this embodiment, the abnormality control of the robot control system is performed before the production is started, and the abnormality control of the robot control system is performed every time the fixed camera 51 captures the image of the work 30 during the production. Before the robot 11 reaches a state where it cannot operate normally, it is possible to give an abnormality warning to the operator and notify the location of the abnormality and an appropriate coping method. As a result, it is possible to prevent unplanned stoppages and failures due to the coordinate system abnormality of the robot 11 in advance, reduce the time and cost of maintenance at the location of the abnormality, and realize predictive maintenance of the robot control system. can do.

更に、生産中も固定カメラ51でワーク30を撮像する毎にロボット制御システムの異常診断を行うようにしているため、生産中に異常が発生しても、その異常を直ぐに検出することができ、生産タクトへの影響を最小限に止めることができる。 Further, even during production, since the abnormality diagnosis of the robot control system is performed every time the fixed camera 51 captures an image of the work 30, even if an abnormality occurs during production, the abnormality can be immediately detected. The influence on the production tact can be minimized.

しかも、異常検知専用の追加設備やセンサ等による追加コスト、工数の発生がないので、導入がしやすい。更には、異常診断によりロボット11の座標系が正常な状態を確認してロボット11を動作させることができるため、ワーク30の位置検出精度の向上も実現できる。 Moreover, since there is no additional cost and man-hours due to additional equipment or sensors dedicated to abnormality detection, introduction is easy. Furthermore, since the robot 11 can be operated by confirming the normal state of the coordinate system of the robot 11 by the abnormality diagnosis, it is possible to improve the position detection accuracy of the work 30.

尚、本実施例では、マーク部61,62の形状を円形としたが、四角形等、他の形状であっても良く、要は、画像処理により各マーク部61,62の中心等の位置を正確に認識しやすい形状であれば良い。 In the present embodiment, the mark portions 61, 62 have a circular shape, but may have other shapes such as a quadrangle. In short, the positions of the centers of the mark portions 61, 62 may be changed by image processing. Any shape can be used as long as it can be accurately recognized.

また、生産開始前のみにロボット制御システムの異常診断を行ったり、生産中にロボット11の作業ミスが発生したときに(或は作業ミスの発生回数や発生率が所定値を超えたときに)ロボット制御システムの異常診断を行うようにしても良い。 In addition, when the abnormality of the robot control system is diagnosed only before the production is started, or when a work error of the robot 11 occurs during the production (or when the number or the rate of occurrence of the work error exceeds a predetermined value). You may make it perform the abnormality diagnosis of a robot control system.

その他、本発明は、ロボット11の構成を適宜変更しても良い等、要旨を逸脱しない範囲内で種々変更して実施できることは言うまでもない。 In addition, it goes without saying that the present invention can be variously modified and implemented without departing from the scope of the invention, for example, the configuration of the robot 11 may be modified appropriately.

11…ロボット、14…第1関節軸、15…第1アーム、16…第2関節軸、17…第2アーム、18…第3関節軸、19…第3アーム、20…第4関節軸、21…手首部(アーム先端部)、22…第5関節軸、23…エンドエフェクタ、25〜29…サーボモータ、31〜35…エンコーダ、36…サーボアンプ、37…制御部、38…作業エリア、39…供給装置、40…ハンドカメラ、41…レンズ、42…ロボット制御ユニット、43…画像処理部(第1画像処理部,第2画像処理部)、44…座標変換部、45…検査実行部、46…記憶部、50…固定構造物、51…固定カメラ、52…レンズ、55…トレー搬送装置、56…トレー、57…作業エリア、61,62…マーク部 11... Robot, 14... 1st joint axis, 15... 1st arm, 16... 2nd joint axis, 17... 2nd arm, 18... 3rd joint axis, 19... 3rd arm, 20... 4th joint axis, 21... Wrist part (arm tip part), 22... 5th joint axis, 23... End effector, 25-29... Servo motor, 31-35... Encoder, 36... Servo amplifier, 37... Control part, 38... Work area, 39... Supply device, 40... Hand camera, 41... Lens, 42... Robot control unit, 43... Image processing unit (first image processing unit, second image processing unit), 44... Coordinate conversion unit, 45... Inspection execution unit , 46... Storage section, 50... Fixed structure, 51... Fixed camera, 52... Lens, 55... Tray transport device, 56... Tray, 57... Work area, 61, 62... Mark section

Claims (14)

ワークを作業エリアに供給する供給装置と、
前記作業エリアに供給されたワークに対して所定の作業を行うロボットと、
前記ロボットのアームに取り付けられたハンドカメラと、
前記ロボットのアーム可動領域よりも高い場所に下向きに固定され、前記作業エリアに供給されたワークを上方から撮像する固定カメラと、
前記ハンドカメラで撮像した画像を処理して撮像対象の位置を当該画像の基準点を原点とする座標系(以下「ハンドカメラのビジョン座標系」という)の座標値で検出する第1画像処理部と、
前記固定カメラで撮像した画像を処理して撮像対象の位置を当該画像の基準点を原点とする座標系(以下「固定カメラのビジョン座標系」という)の座標値で検出する第2画像処理部と、
前記ハンドカメラのビジョン座標系の座標値及び前記固定カメラのビジョン座標系の座標値を前記ロボットのアームの動作を制御する座標系である世界座標系の座標値に変換する座標変換部と、
前記ロボットのアームの位置を前記世界座標系の座標値で制御する制御部と
を備えたロボット制御システムにおいて、
前記固定カメラの視野に収まる範囲内で前記作業エリアに対して所定の位置関係となる位置に設けられたマーク部と、
前記ハンドカメラの視野内に前記マーク部が収まる位置へ前記ハンドカメラを移動させて前記ハンドカメラで前記マーク部を撮像して、その画像を前記第1画像処理部で処理して前記マーク部の位置を前記ハンドカメラのビジョン座標系の座標値で検出して前記座標変換部で前記世界座標系の座標値に変換する動作(以下「ハンドカメラ画像からのマーク部位置検出動作」という)と、前記固定カメラで前記マーク部を撮像して、その画像を前記第2画像処理部で処理して前記マーク部の位置を前記固定カメラのビジョン座標系の座標値で検出して前記座標変換部で前記世界座標系の座標値に変換する動作(以下「固定カメラ画像からのマーク部位置検出動作」という)とを実行する検査実行部と、
前記検査実行部が過去に行った前記ハンドカメラ画像からのマーク部位置検出動作で検出した過去の前記マーク部の位置の座標値(以下「過去のハンドカメラ画像から検出した過去の前記マーク部の位置の座標値」という)を記憶すると共に、前記検査実行部が過去に行った前記固定カメラ画像からのマーク部位置検出動作で検出した過去の前記マーク部の位置の座標値(以下「過去の固定カメラ画像から検出した過去の前記マーク部の位置の座標値」という)を記憶する記憶部とを備え、
前記検査実行部は、今回行った前記ハンドカメラ画像からのマーク部位置検出動作で検出した今回の前記マーク部の位置の座標値を前記記憶部に記憶されている、前記過去のハンドカメラ画像から検出した過去の前記マーク部の位置の座標値と比較すると共に、今回行った前記固定カメラ画像からのマーク部位置検出動作で検出した今回の前記マーク部の位置の座標値を前記記憶部に記憶されている、前記過去の固定カメラ画像から検出した過去の前記マーク部の位置の座標値と比較し、それらの比較結果に基づいて異常診断する、ロボット制御システム。
A supply device for supplying the work to the work area,
A robot that performs a predetermined work on the work supplied to the work area,
A hand camera attached to the robot arm,
A fixed camera that is fixed downward at a position higher than the arm movable region of the robot and that images the work supplied to the work area from above,
A first image processing unit that processes an image captured by the hand camera and detects a position of an image capturing target with a coordinate value of a coordinate system having a reference point of the image as an origin (hereinafter referred to as a “vision coordinate system of the hand camera”). When,
A second image processing unit that processes an image captured by the fixed camera and detects a position of an image capturing target by a coordinate value of a coordinate system whose origin is a reference point of the image (hereinafter, referred to as “fixed camera vision coordinate system”). When,
A coordinate conversion unit that converts the coordinate values of the vision coordinate system of the hand camera and the coordinate values of the vision coordinate system of the fixed camera into coordinate values of the world coordinate system that is a coordinate system that controls the operation of the arm of the robot;
A robot control system including a control unit that controls the position of the arm of the robot by coordinate values of the world coordinate system,
A mark portion provided at a position that has a predetermined positional relationship with the work area within a range that falls within the field of view of the fixed camera;
The hand camera is moved to a position where the mark portion fits within the field of view of the hand camera, the mark portion is imaged by the hand camera, and the image is processed by the first image processing portion so that the mark portion An operation of detecting a position with a coordinate value of the vision coordinate system of the hand camera and converting the coordinate value into a coordinate value of the world coordinate system with the coordinate conversion unit (hereinafter referred to as "mark portion position detection operation from a hand camera image"); The fixed camera takes an image of the mark portion, the second image processing unit processes the image, the position of the mark portion is detected by the coordinate value of the vision coordinate system of the fixed camera, and the coordinate conversion unit detects the position. An inspection execution unit that executes an operation of converting to coordinate values in the world coordinate system (hereinafter referred to as "mark portion position detection operation from fixed camera image");
The coordinate value of the past position of the mark portion detected by the mark portion position detection operation from the hand camera image performed by the inspection execution unit in the past (hereinafter, “the past mark portion detected from the past hand camera image "Coordinate value of position"), and the coordinate value of the past position of the mark portion detected by the mark position detecting operation from the fixed camera image performed by the inspection execution unit in the past (hereinafter referred to as "past coordinate value"). Storage unit for storing "the coordinate values of the past position of the mark portion detected from the fixed camera image").
The inspection execution unit stores, from the past hand camera image, the coordinate value of the current position of the mark portion detected by the mark portion position detection operation from the hand camera image performed this time, which is stored in the storage unit. The coordinate value of the detected position of the mark portion is compared, and the coordinate value of the current position of the mark portion detected by the mark position detection operation from the fixed camera image performed this time is stored in the storage unit. The robot control system compares the past coordinate value of the position of the mark portion detected from the past fixed camera image, and performs abnormality diagnosis based on the comparison result.
前記検査実行部は、異常ありと判定した場合には前記今回の前記マーク部の位置の座標値と前記過去の前記マーク部の位置の座標値との比較結果の組み合わせに基づいて異常発生箇所を特定する、請求項1に記載のロボット制御システム。 When it is determined that there is an abnormality, the inspection execution unit determines the location of the abnormality based on the combination of the comparison results of the coordinate value of the position of the mark portion this time and the coordinate value of the position of the mark portion in the past. The robot control system according to claim 1, which is specified. 前記検査実行部は、前記異常診断の結果を表示及び/又は音声により作業者に通知する処理を行う、請求項1又は2に記載のロボット制御システム。 The robot control system according to claim 1, wherein the inspection execution unit performs a process of displaying a result of the abnormality diagnosis and/or notifying a worker by voice. 前記検査実行部は、前記異常発生箇所を特定した場合にはその異常発生箇所と対処方法を表示及び/又は音声により作業者に通知する処理を行う、請求項2に記載のロボット制御システム。 The robot control system according to claim 2, wherein, when the inspection execution unit specifies the abnormality occurrence place, the inspection execution unit performs a process of displaying the abnormality occurrence place and a coping method to the operator by displaying and/or voice. 前記検査実行部は、生産開始前に行った前記ハンドカメラ画像からのマーク部位置検出動作及び前記固定カメラ画像からのマーク部位置検出動作で検出した当該生産開始前の前記マーク部の位置の座標値を前記記憶部に記憶されている前記過去の前記マーク部の位置の座標値と比較して各位置の座標値の変化量を算出し、いずれか1つでも前記座標値の変化量が許容誤差に相当する所定の閾値を超えていれば異常ありと判定する、請求項1乃至4のいずれかに記載のロボット制御システム。 The inspection execution unit is a coordinate of the position of the mark portion before the production start detected by the mark portion position detection operation from the hand camera image and the mark portion position detection operation from the fixed camera image performed before the production start. The amount of change in the coordinate value at each position is calculated by comparing the value with the coordinate value of the past position of the mark portion stored in the storage unit, and any one of them allows the amount of change in the coordinate value. The robot control system according to claim 1, wherein an abnormality is determined if a predetermined threshold value corresponding to an error is exceeded. 前記検査実行部は、生産中に前記固定カメラ画像からのマーク部位置検出動作を実行して当該生産中の前記マーク部の位置の座標値を検出し、当該生産中の前記マーク部の位置の座標値を前記記憶部に記憶されている、前記過去の固定カメラ画像から検出した過去の前記マーク部の位置の座標値と比較して、当該生産中の比較結果に基づいて異常診断し、その結果、異常ありと判定した場合には前記ハンドカメラ画像からのマーク部位置検出動作を実行して前記マーク部の位置の座標値を検出し、そのマーク部の位置の座標値を前記記憶部に記憶されている、前記過去のハンドカメラ画像から検出した過去の前記マーク部の位置の座標値と比較し、その比較結果と前記生産中の比較結果との組み合わせに基づいて異常発生箇所を特定する、請求項1乃至5のいずれかに記載のロボット制御システム。 The inspection execution unit executes a mark portion position detection operation from the fixed camera image during production to detect the coordinate value of the position of the mark portion during production, and detects the position of the mark portion during production. The coordinate value is stored in the storage unit, compared with the coordinate value of the past position of the mark portion detected from the past fixed camera image, and the abnormality is diagnosed based on the comparison result during the production. As a result, when it is determined that there is an abnormality, the mark position detection operation from the hand camera image is executed to detect the coordinate value of the position of the mark portion, and the coordinate value of the position of the mark portion is stored in the storage unit. The stored position is compared with the stored coordinate value of the position of the mark portion in the past detected from the hand camera image in the past, and the abnormal place is specified based on the combination of the comparison result and the comparison result during the production. The robot control system according to any one of claims 1 to 5. 前記検査実行部は、生産中に前記ロボットがアーム動作を所定時間以上停止している期間に前記ハンドカメラ画像からのマーク部位置検出動作を実行すると共に、前記固定カメラで前記マーク部を撮像するのに邪魔にならない位置へ前記ロボットのアームが移動している期間に前記固定カメラ画像からのマーク部位置検出動作を実行して異常診断する、請求項1乃至5のいずれかに記載のロボット制御システム。 The inspection execution unit executes a mark position detection operation from the hand camera image during a period in which the robot has stopped the arm operation for a predetermined time or longer during production, and images the mark portion with the fixed camera. 6. The robot control according to claim 1, wherein an abnormality diagnosis is performed by executing a mark position detection operation from the fixed camera image while the arm of the robot is moving to a position that does not disturb the robot. system. 前記検査実行部は、生産中に前記ハンドカメラでワークを撮像して当該ワークの位置を検出して前記ロボットが所定の作業を行う場合には、生産中に前記ハンドカメラでワークを撮像する際に、当該ワークと前記マーク部を視野に収めて撮像して前記ハンドカメラ画像からのマーク部位置検出動作を実行すると共に、前記固定カメラで前記マーク部を撮像するのに邪魔にならない位置へ前記ロボットのアームが移動している期間に前記固定カメラ画像からのマーク部位置検出動作を実行して異常診断する、請求項1乃至5のいずれかに記載のロボット制御システム。 When the inspection execution unit captures an image of a work with the hand camera during production, detects the position of the work, and the robot performs a predetermined work, the inspection execution unit captures an image of the work with the hand camera during production. In addition, the work and the mark portion are captured in the field of view to perform the mark portion position detection operation from the hand camera image, and the fixed camera is moved to a position that does not interfere with the image pickup of the mark portion. The robot control system according to any one of claims 1 to 5, wherein an abnormality diagnosis is performed by performing a mark position detection operation from the fixed camera image while the robot arm is moving. 前記マーク部は、複数箇所に設けられ、
前記検査実行部は、前記ハンドカメラ画像からのマーク部位置検出動作及び前記固定カメラ画像からのマーク部位置検出動作で前記マーク部毎にそのマーク部の位置の座標値を検出し、前記マーク部毎にそのマーク部の位置の座標値を前記記憶部に前記マーク部毎に記憶されている前記過去の前記マーク部の位置の座標値と比較する、請求項1乃至8のいずれかに記載のロボット制御システム。
The mark portion is provided at a plurality of locations,
The inspection execution unit detects the coordinate value of the position of the mark portion for each mark portion by the mark portion position detection operation from the hand camera image and the mark portion position detection operation from the fixed camera image, The coordinate value of the position of the mark portion is compared for each time with the coordinate value of the position of the mark portion in the past stored in the storage unit for each mark portion. Robot control system.
前記ロボットは、前記作業エリアに供給されたワークをピックアップして別の作業エリアに移し替える作業を行い、
前記別の作業エリアについても、前記固定カメラの視野に収まる範囲内で当該別の作業エリアに対して所定の位置関係となる位置にマーク部が設けられ、
前記検査実行部は、前記固定カメラの視野に前記作業エリアと前記別の作業エリアの両方の前記マーク部を収めて撮像する、請求項1乃至9のいずれかに記載のロボット制御システム。
The robot picks up the work supplied to the work area and transfers it to another work area,
Also for the other work area, a mark portion is provided at a position that has a predetermined positional relationship with the other work area within a range that falls within the field of view of the fixed camera,
The robot control system according to any one of claims 1 to 9, wherein the inspection execution unit captures an image by accommodating the mark portions of both the work area and the another work area in a field of view of the fixed camera.
前記供給装置が複数並設されて前記作業エリアが複数並設され、
前記作業エリア毎に前記マーク部が設けられている、請求項1乃至10のいずれかに記載のロボット制御システム。
A plurality of the supply devices are arranged side by side and a plurality of the work areas are arranged side by side,
The robot control system according to claim 1, wherein the mark portion is provided for each work area.
前記検査実行部は、前記ハンドカメラの視野内に全ての前記マーク部を同時に収めることができない場合には、前記ハンドカメラによる前記マーク部の撮像を2回以上に分けて行う、請求項8乃至11のいずれかに記載のロボット制御システム。 9. The inspection execution unit, when it is not possible to fit all the mark portions in the visual field of the hand camera at the same time, performs the image pickup of the mark portion by the hand camera in two or more times. 11. The robot control system according to any one of 11. 前記過去の前記マーク部の位置の座標値は、ロボット制御システムをキャリブレーションしたときに前記ハンドカメラ画像からのマーク部位置検出動作及び前記固定カメラ画像からのマーク部位置検出動作を実行して検出した前記マーク部の位置の座標値である、請求項1乃至12のいずれかに記載のロボット制御システム。 The coordinate value of the position of the mark portion in the past is detected by executing a mark portion position detecting operation from the hand camera image and a mark portion position detecting operation from the fixed camera image when the robot control system is calibrated. The robot control system according to claim 1, wherein the robot control system is a coordinate value of the position of the marked portion. 前記第2画像処理部は、生産中に前記固定カメラで撮像した画像を処理してその画像に含まれるワークの位置を検出する場合には、検出対象のワークの最寄りの前記マーク部の位置を基準点としてその基準点からの相対位置で当該検出対象のワークの位置を検出する、請求項1乃至13のいずれかに記載のロボット制御システム。 When the second image processing unit processes the image captured by the fixed camera during production to detect the position of the work included in the image, the second image processing unit determines the position of the mark portion closest to the detection target work. The robot control system according to claim 1, wherein the position of the workpiece to be detected is detected as a reference point by a relative position from the reference point.
JP2019012084A 2019-01-28 2019-01-28 robot control system Active JP7281910B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019012084A JP7281910B2 (en) 2019-01-28 2019-01-28 robot control system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019012084A JP7281910B2 (en) 2019-01-28 2019-01-28 robot control system

Publications (2)

Publication Number Publication Date
JP2020116717A true JP2020116717A (en) 2020-08-06
JP7281910B2 JP7281910B2 (en) 2023-05-26

Family

ID=71891634

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019012084A Active JP7281910B2 (en) 2019-01-28 2019-01-28 robot control system

Country Status (1)

Country Link
JP (1) JP7281910B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112863493A (en) * 2021-01-14 2021-05-28 北京天行汇通信息技术有限公司 Voice data labeling method and device and electronic equipment
WO2023013698A1 (en) 2021-08-03 2023-02-09 京セラ株式会社 Robot control device, robot control system, and robot control method
WO2023013056A1 (en) * 2021-08-06 2023-02-09 株式会社Fuji Workpiece picking method and workpiece picking system
CN116985182A (en) * 2023-05-31 2023-11-03 齐鲁工业大学(山东省科学院) Four-axis robot work piece wobble plate system based on machine vision

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06262446A (en) * 1993-03-18 1994-09-20 Citizen Watch Co Ltd Assembling cell and aggregate thereof capable of mounting/removing part supplier
JP2003231078A (en) * 2002-02-14 2003-08-19 Denso Wave Inc Position control method for robot arm and robot device
JP2010243317A (en) * 2009-04-06 2010-10-28 Seiko Epson Corp Method for recognizing object
JP2011110627A (en) * 2009-11-24 2011-06-09 Idec Corp Robot control method, robot control program, and teaching pendant used for robot control method
JP2016052695A (en) * 2014-09-03 2016-04-14 キヤノン株式会社 Robot device and control method of robot device
JP2016078180A (en) * 2014-10-17 2016-05-16 株式会社リコー Abnormality cause estimating device, picking device, and abnormality cause estimating method for picking device
JP2017071033A (en) * 2015-10-09 2017-04-13 キヤノン株式会社 Working reference object, working reference object manufacturing method, robot arm adjusting method, vision system, robot apparatus, and indicator member
JP2018034271A (en) * 2016-09-01 2018-03-08 アイシン精機株式会社 Failure factor specification method in carrying-in and -out work of carrying-in and -out device
WO2018163450A1 (en) * 2017-03-09 2018-09-13 三菱電機株式会社 Robot control device and calibration method
JP2018158391A (en) * 2017-03-22 2018-10-11 株式会社東芝 Object handling device and calibration method for the same

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06262446A (en) * 1993-03-18 1994-09-20 Citizen Watch Co Ltd Assembling cell and aggregate thereof capable of mounting/removing part supplier
JP2003231078A (en) * 2002-02-14 2003-08-19 Denso Wave Inc Position control method for robot arm and robot device
JP2010243317A (en) * 2009-04-06 2010-10-28 Seiko Epson Corp Method for recognizing object
JP2011110627A (en) * 2009-11-24 2011-06-09 Idec Corp Robot control method, robot control program, and teaching pendant used for robot control method
JP2016052695A (en) * 2014-09-03 2016-04-14 キヤノン株式会社 Robot device and control method of robot device
JP2016078180A (en) * 2014-10-17 2016-05-16 株式会社リコー Abnormality cause estimating device, picking device, and abnormality cause estimating method for picking device
JP2017071033A (en) * 2015-10-09 2017-04-13 キヤノン株式会社 Working reference object, working reference object manufacturing method, robot arm adjusting method, vision system, robot apparatus, and indicator member
JP2018034271A (en) * 2016-09-01 2018-03-08 アイシン精機株式会社 Failure factor specification method in carrying-in and -out work of carrying-in and -out device
WO2018163450A1 (en) * 2017-03-09 2018-09-13 三菱電機株式会社 Robot control device and calibration method
JP2018158391A (en) * 2017-03-22 2018-10-11 株式会社東芝 Object handling device and calibration method for the same

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112863493A (en) * 2021-01-14 2021-05-28 北京天行汇通信息技术有限公司 Voice data labeling method and device and electronic equipment
WO2023013698A1 (en) 2021-08-03 2023-02-09 京セラ株式会社 Robot control device, robot control system, and robot control method
WO2023013056A1 (en) * 2021-08-06 2023-02-09 株式会社Fuji Workpiece picking method and workpiece picking system
CN116985182A (en) * 2023-05-31 2023-11-03 齐鲁工业大学(山东省科学院) Four-axis robot work piece wobble plate system based on machine vision

Also Published As

Publication number Publication date
JP7281910B2 (en) 2023-05-26

Similar Documents

Publication Publication Date Title
JP7281910B2 (en) robot control system
CN109996653B (en) Working position correction method and working robot
JP7153085B2 (en) ROBOT CALIBRATION SYSTEM AND ROBOT CALIBRATION METHOD
US9050728B2 (en) Apparatus and method for measuring tool center point position of robot
US10035268B2 (en) Measurement system used for calibrating mechanical parameters of robot
JP6429473B2 (en) Robot system, robot system calibration method, program, and computer-readable recording medium
JP5561260B2 (en) Robot system and imaging method
JP4267005B2 (en) Measuring apparatus and calibration method
JP6468741B2 (en) Robot system and robot system calibration method
US11173608B2 (en) Work robot and work position correction method
JP2005138223A (en) Positional data correcting device for robot
JPWO2018043525A1 (en) Robot system, robot system control apparatus, and robot system control method
JP2007122705A (en) Welding teaching point correction system and calibration method
EP3895855A1 (en) Robot control system and robot control method
JP6568172B2 (en) ROBOT CONTROL DEVICE, MEASUREMENT SYSTEM, AND CALIBRATION METHOD FOR CALIBRATION
JP2009125839A (en) Weld teaching position correction system
WO2022195944A1 (en) Robot system, and control method for robot system
CN113905859B (en) Robot control system and robot control method
CN116803627A (en) Method and device for detecting object with correction function
JPH06206186A (en) Calibration of handling precision of horizontal articulated type robot equipped with visual sensor

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220114

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220114

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221026

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221130

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230322

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230417

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230501

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230516

R150 Certificate of patent or registration of utility model

Ref document number: 7281910

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150