JP2020116717A - Robot control system - Google Patents
Robot control system Download PDFInfo
- Publication number
- JP2020116717A JP2020116717A JP2019012084A JP2019012084A JP2020116717A JP 2020116717 A JP2020116717 A JP 2020116717A JP 2019012084 A JP2019012084 A JP 2019012084A JP 2019012084 A JP2019012084 A JP 2019012084A JP 2020116717 A JP2020116717 A JP 2020116717A
- Authority
- JP
- Japan
- Prior art keywords
- mark portion
- image
- mark
- robot
- coordinate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000005856 abnormality Effects 0.000 claims abstract description 77
- 238000000034 method Methods 0.000 claims abstract description 50
- 238000007689 inspection Methods 0.000 claims abstract description 44
- 238000003860 storage Methods 0.000 claims abstract description 31
- 238000003745 diagnosis Methods 0.000 claims abstract description 29
- 230000010485 coping Effects 0.000 claims abstract description 12
- 238000001514 detection method Methods 0.000 claims description 52
- 238000004519 manufacturing process Methods 0.000 claims description 52
- 238000012545 processing Methods 0.000 claims description 48
- 238000006243 chemical reaction Methods 0.000 claims description 22
- 238000012546 transfer Methods 0.000 claims description 16
- 230000002159 abnormal effect Effects 0.000 claims description 12
- 230000000007 visual effect Effects 0.000 claims description 11
- 238000004148 unit process Methods 0.000 claims 2
- 238000009434 installation Methods 0.000 description 21
- 210000000707 wrist Anatomy 0.000 description 18
- 239000012636 effector Substances 0.000 description 16
- 238000003384 imaging method Methods 0.000 description 6
- 238000012937 correction Methods 0.000 description 5
- 230000006866 deterioration Effects 0.000 description 4
- 230000002093 peripheral effect Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000012423 maintenance Methods 0.000 description 2
- 230000035939 shock Effects 0.000 description 2
- 230000001186 cumulative effect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000009472 formulation Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 238000003466 welding Methods 0.000 description 1
Images
Landscapes
- Manipulator (AREA)
Abstract
Description
本明細書は、異常診断機能を備えたロボット制御システムに関する技術を開示したものである。 This specification discloses a technique relating to a robot control system having an abnormality diagnosis function.
ワークの把持、搬送、作業を目的とするロボットシステムにおいて、高精度な位置決めが求められる用途やワーク位置の教示を自動化した用途においては、ロボットのアーム先端部に取り付けられたカメラ(ハンドカメラ)や、ワーク供給装置や作業対象部の上方に固定配置されたカメラ(固定カメラ)を使ってワークの位置座標や作業対象部の位置座標を検出し、ワーク把持位置や作業対象位置を自動的に補正するシステムが使用される。 In a robot system for the purpose of gripping, conveying, and working a workpiece, a camera (hand camera) attached to the tip of the robot arm is used for applications requiring high-precision positioning and automated teaching of the workpiece position. , The position coordinate of the work and the position coordinate of the work target are detected using the camera (fixed camera) fixed above the work supply device and the work target part, and the work grip position and the work target position are automatically corrected. System is used.
この様なカメラ(2次元)で撮像した画像による画像処理結果を用いて作業位置をロボットに指示する場合、それぞれの座標系つまりカメラの座標系であるビジョン座標系(2次元)とロボットの座標系(3次元)が異なるため、両座標系の相対位置を計測して座標系の変換を行う必要があり、この変換式及び補正パラメータを求めることをキャリブレーションと呼んでいる。 When instructing the robot the work position by using the image processing result of the image captured by such a camera (two-dimensional), each coordinate system, that is, the vision coordinate system (two-dimensional) which is the coordinate system of the camera and the coordinate of the robot. Since the systems (three-dimensional) are different, it is necessary to measure the relative positions of the two coordinate systems to convert the coordinate systems. Obtaining this conversion formula and correction parameters is called calibration.
ロボットの設置時にキャリブレーションを実施してロボット座標系を整えた後、ロボットの運用を続けていると、運用開始後のロボット及び設置台の経年変化、ロボット動作やロボットのアーム移動時の振動、衝撃或は周辺機器の変更等によって、ロボット座標系が変化することがあり、これがロボットの作業精度を悪化させる要因となる。 If you continue to operate the robot after you have calibrated the robot coordinate system when installing the robot, and if you continue to operate the robot, the secular change of the robot and the installation base after the start of operation, the vibration of the robot operation and the movement of the robot arm, The robot coordinate system may change due to a shock, a change in peripheral equipment, or the like, which becomes a factor that deteriorates the work accuracy of the robot.
特に、ワーク供給装置や作業対象部の上方にロボットに固定配置された固定カメラは視野が広く、位置検出精度の悪化がロボットの作業精度を悪化させる要因となり、システムとして求められる作業精度を確保できず、生産の継続が困難になることがある。 In particular, the fixed camera fixedly placed on the robot above the work supply device and the work target part has a wide field of view, and the deterioration of the position detection accuracy causes the work accuracy of the robot to deteriorate, and the work accuracy required for the system can be secured. Therefore, it may be difficult to continue production.
近年、特許文献1(特開2018−034271号公報)に記載されているように、ロボットによるワークの搬送作業が失敗したときに、ロボットのアーム先端部に取り付けたカメラを使用して失敗の要因を特定する方法が提案されている。この特許文献1の失敗要因の特定方法では、ロボット座標系における基準位置及び基準方向を表す基準マークをキャリブレーションステージに設置すると共に、ロボットのアーム先端のハンドでマスターワークを把持してキャリブレーションステージの所定位置に載置し、更に、ロボットのアームの先端部に取り付けたカメラをキャリブレーションステージの上方に移動させて、そのカメラの視野内に基準マークとマスターワークを収めて撮像し、その画像を処理して、基準マークの位置及び向きのずれ量とマスターワークの位置及び向きのずれ量を計測して、それらのずれ量に基づいて失敗の要因がカメラにあるのか、ロボットにあるのかを判定するようにしている。 In recent years, as described in Patent Document 1 (Japanese Patent Laid-Open No. 2018-034271), when a work transfer operation by a robot fails, a cause of failure is obtained by using a camera attached to the tip of the robot arm. Have been proposed. In the failure factor identification method of Patent Document 1, a reference mark indicating a reference position and a reference direction in a robot coordinate system is set on a calibration stage, and a master work is held by a hand at the tip of an arm of a robot to calibrate the calibration stage. Then, the camera mounted on the tip of the robot arm is moved above the calibration stage, the reference mark and the master work are captured within the field of view of the camera, and the image is taken. By measuring the deviation amount of the position and orientation of the reference mark and the deviation amount of the position and orientation of the master work, and determining whether the cause of failure is the camera or the robot based on these deviation amounts. I am trying to judge.
しかし、上記特許文献1では、基準マークを設けたキャリブレーションステージの位置や向きがずれている場合には、失敗の要因がカメラにある(カメラの位置や向きがずれている)と誤判定したり、或は、失敗の要因がロボットにある(ロボット座標系がずれている)と誤判定する可能性がある。しかも、ロボットのハンドでマスターワークを把持する際に、マスターワークの位置がずれている場合には、ロボットのハンドでマスターワークを把持する把持位置がずれるため、キャリブレーションステージに載置するマスターワークの位置もずれてしまい、それによって失敗の要因を誤判定する可能性がある。 However, in Patent Document 1, when the position or orientation of the calibration stage provided with the reference mark is misaligned, it is erroneously determined that the cause of failure is in the camera (the position or orientation of the camera is misaligned). Or, there is a possibility of erroneously determining that the cause of the failure lies in the robot (the robot coordinate system is misaligned). Moreover, when the master work is gripped by the robot hand, if the master work is misaligned, the gripping position at which the robot hand grips the master work is misaligned, so the master work placed on the calibration stage The position of is also displaced, and there is a possibility that the cause of failure may be erroneously determined.
上記課題を解決するために、ワークを作業エリアに供給する供給装置と、前記作業エリアに供給されたワークに対して所定の作業を行うロボットと、前記ロボットのアームに取り付けられたハンドカメラと、前記ロボットのアーム可動領域よりも高い場所に下向きに固定され、前記作業エリアに供給されたワークを上方から撮像する固定カメラと、前記ハンドカメラで撮像した画像を処理して撮像対象の位置を当該画像の基準点を原点とする座標系(以下「ハンドカメラのビジョン座標系」という)の座標値で検出する第1画像処理部と、前記固定カメラで撮像した画像を処理して撮像対象の位置を当該画像の基準点を原点とする座標系(以下「固定カメラのビジョン座標系」という)の座標値で検出する第2画像処理部と、前記ハンドカメラのビジョン座標系の座標値及び前記固定カメラのビジョン座標系の座標値を前記ロボットのアームの動作を制御する座標系である世界座標系の座標値に変換する座標変換部と、前記ロボットのアームの位置を前記世界座標系の座標値で制御する制御部とを備えたロボット制御システムにおいて、前記固定カメラの視野に収まる範囲内で前記作業エリアに対して所定の位置関係となる位置に設けられたマーク部と、前記ハンドカメラの視野内に前記マーク部が収まる位置へ前記ハンドカメラを移動させて前記ハンドカメラで前記マーク部を撮像して、その画像を前記第1画像処理部で処理して前記マーク部の位置を前記ハンドカメラのビジョン座標系の座標値で検出して前記座標変換部で前記世界座標系の座標値に変換する動作(以下「ハンドカメラ画像からのマーク部位置検出動作」という)と、前記固定カメラで前記マーク部を撮像して、その画像を前記第2画像処理部で処理して前記マーク部の位置を前記固定カメラのビジョン座標系の座標値で検出する動作(以下「固定カメラ画像からのマーク部位置検出動作」という)とを実行する検査実行部と、前記検査実行部が過去に行った前記ハンドカメラ画像からのマーク部位置検出動作で検出した過去の前記マーク部の位置の座標値(以下「過去のハンドカメラ画像から検出した過去の前記マーク部の位置の座標値」という)を記憶すると共に、前記検査実行部が過去に行った前記固定カメラ画像からのマーク部位置検出動作で検出した過去の前記マーク部の位置の座標値(以下「過去の固定カメラ画像から検出した過去の前記マーク部の位置の座標値」という)を記憶する記憶部とを備え、前記検査実行部は、今回行った前記ハンドカメラ画像からのマーク部位置検出動作で検出した今回の前記マーク部の位置の座標値を前記記憶部に記憶されている、前記過去のハンドカメラ画像から検出した過去の前記マーク部の位置の座標値と比較すると共に、今回行った前記固定カメラ画像からのマーク部位置検出動作で検出した今回の前記マーク部の位置の座標値を前記記憶部に記憶されている、前記過去の固定カメラ画像から検出した過去の前記マーク部の位置の座標値と比較し、それらの比較結果に基づいて異常診断するようにしたものである。 In order to solve the above problems, a supply device that supplies a work to a work area, a robot that performs a predetermined work on the work supplied to the work area, and a hand camera attached to an arm of the robot, A fixed camera, which is fixed downward at a position higher than the arm movable area of the robot, and which picks up an image of the work supplied to the work area from above, and a position of an image pickup target by processing an image picked up by the hand camera. A first image processing unit that detects a coordinate value of a coordinate system whose origin is the reference point of the image (hereinafter referred to as "hand camera vision coordinate system"), and a position of an image capturing target by processing an image captured by the fixed camera. A second image processing unit that detects a coordinate value of a coordinate system having the reference point of the image as an origin (hereinafter referred to as “fixed camera vision coordinate system”), and the coordinate value of the hand camera vision coordinate system and the fixed value. A coordinate conversion unit that converts the coordinate value of the vision coordinate system of the camera into the coordinate value of the world coordinate system that is the coordinate system that controls the operation of the robot arm, and the position of the robot arm is the coordinate value of the world coordinate system. In a robot control system including a control unit for controlling by the above, a mark portion provided in a position having a predetermined positional relationship with the work area within a range that fits in the visual field of the fixed camera, and a visual field of the hand camera The hand camera is moved to a position where the mark portion is accommodated, the mark portion is imaged by the hand camera, the image is processed by the first image processing portion, and the position of the mark portion is set by the hand camera. The operation of detecting the coordinate value of the vision coordinate system and converting it to the coordinate value of the world coordinate system by the coordinate conversion unit (hereinafter referred to as "mark position detection operation from the hand camera image"), and the fixed camera An operation of capturing an image of the mark portion, processing the image by the second image processing portion, and detecting the position of the mark portion by the coordinate value of the vision coordinate system of the fixed camera (hereinafter, “mark portion from fixed camera image”). And a coordinate value of a position of the mark portion in the past detected by a mark portion position detecting operation from the hand camera image performed in the past by the inspection executing unit (hereinafter referred to as "position detecting operation"). The “coordinate value of the past position of the mark portion detected from the past hand camera image” is stored and detected by the mark portion position detection operation from the fixed camera image performed in the past by the inspection execution unit. The coordinate value of the position of the mark portion in the past (hereinafter, "the past coordinate value detected from the past fixed camera image (Hereinafter referred to as the “coordinate value of the position of the mark portion”), the inspection execution unit stores the position of the mark portion detected this time by the mark position detection operation from the hand camera image performed this time. The coordinate value is compared with the coordinate value of the past position of the mark portion detected from the past hand camera image stored in the storage unit, and the mark portion position detection operation from the fixed camera image performed this time is performed. The coordinate value of the position of the mark portion detected this time is compared with the coordinate value of the past position of the mark portion detected from the past fixed camera image stored in the storage unit, and the comparison result thereof is obtained. The abnormality is diagnosed based on the above.
この構成では、ロボットのアームに取り付けられたハンドカメラと、ロボットのアーム可動領域よりも高い場所に下向きに固定された固定カメラとの両方で、作業エリアに対して所定の位置関係で設けられたマーク部を撮像して、ハンドカメラの画像と固定カメラの画像の両方で同じマーク部の位置を検出して異常診断するため、前記特許文献1で誤判定の要因となっていたキャリブレーションステージやマスターワークを使用せずに異常診断することができる。しかも、ハンドカメラと固定カメラとの両方で同じマーク部を撮像するため、カメラの位置ずれかマーク部の位置ずれかを判別することができ、異常診断の精度を向上させることができる。 In this configuration, both the hand camera attached to the robot arm and the fixed camera fixed downward at a position higher than the robot arm movable area are provided in a predetermined positional relationship with respect to the work area. Since the image of the mark portion is picked up and the position of the same mark portion is detected in both the image of the hand camera and the image of the fixed camera to perform abnormality diagnosis, the calibration stage which is a factor of erroneous determination in Patent Document 1 Abnormality can be diagnosed without using masterwork. Moreover, since the same mark portion is imaged by both the hand camera and the fixed camera, it is possible to determine whether the camera position is displaced or the mark portion is displaced, and the accuracy of abnormality diagnosis can be improved.
以下、本明細書に開示した一実施例を図面を用いて説明する。
まず、図1に基づいてロボット11の構成を説明する。
An embodiment disclosed in the present specification will be described below with reference to the drawings.
First, the configuration of the
ロボット11は、例えば5軸垂直多関節ロボットであり、工場フロア12に設置された固定ベース13と、この固定ベース13上に第1関節軸14(J1)を中心に回転可能に設けられた第1アーム15と、この第1アーム15の先端に第2関節軸16(J2)によって旋回可能に設けられた第2アーム17と、この第2アーム17の先端に第3関節軸18(J3)によって旋回可能に設けられた第3アーム19と、この第3アーム19の先端に第4関節軸20(J4)によって旋回可能に設けられた手首部21と、この手首部21に第5関節軸22(J5)を中心に回転可能且つ交換可能に取り付けられたエンドエフェクタ23とから構成されている。これにより、手首部21に取り付けたエンドエフェクタ23は、その手首部21の関節軸である第4関節軸20によって旋回動作するようになっている。
The
この場合、エンドエフェクタ23は、例えば、吸着ノズル、ハンド、グリッパ、溶接機等のいずれであっても良い。ロボット11の第1〜第5の各関節軸14,16,18,20,22は、それぞれサーボモータ25〜29(図4参照)により駆動されるようになっている。図4に示すように、各サーボモータ25〜29には、それぞれ回転角を検出するエンコーダ31〜35が設けられ、各エンコーダ31〜35で検出した回転角の情報がサーボアンプ36を経由して制御部37にフィードバックされる。これにより、制御部37は、各エンコーダ31〜35で検出した各サーボモータ25〜29の回転角が各々の目標回転角と一致するようにサーボアンプ36を介して各サーボモータ25〜29をフィードバック制御することで、ロボット11の各アーム15,17,19と手首部21とエンドエフェクタ23の位置を各々の目標位置にフィードバック制御する。
In this case, the
図4の構成例では、サーボアンプ36は、複数のサーボモータ25〜29をフィードバック制御する多軸アンプであるが、サーボモータ25〜29を1台ずつ別々のサーボアンプでフィードバック制御するようにしても良い。
In the configuration example of FIG. 4, the
図1及び図2に示すように、ロボット11のアーム可動領域(手首部21先端側のエンドエフェクタ23が移動可能な領域)の所定位置には、作業対象となるワーク30を一定の高さ位置の作業エリア38に供給する供給装置39が設置されている。この供給装置39は、コンベアで構成したものであっても良いし、振動式パーツフィーダ等、どの様な構成のパーツフィーダを用いても良く、要は、作業エリア38の高さ位置が既知の一定の高さ位置であれば良い。本実施例では、複数台の供給装置39が並設されている。
As shown in FIGS. 1 and 2, at a predetermined position of an arm movable region of the robot 11 (a region where the
図1に示すように、ロボット11と複数台の供給装置39との間には、トレー搬送装置55が設置され、このトレー搬送装置55によって空のトレー56が供給装置39の作業エリア38の近くに配置された別の作業エリア57まで搬入される。ロボット11は、各供給装置39の作業エリア38に供給されたワーク30をエンドエフェクタ23でピックアップし、当該ワーク30をトレー搬送装置55の作業エリア57で停止しているトレー56に移し替えて整列させる作業を行う。ロボット11が所定数のワーク30をトレー56に移し替える毎に、トレー搬送装置55が搬送動作を再開して当該トレー56を搬出し、それと入れ替わりに次の空のトレー56を搬入する。
As shown in FIG. 1, a
図1及び図2に示すように、ロボット11のアーム先端部である手首部21には、作業エリア38に供給されたワーク30を上方から撮像するハンドカメラ40が取り付けられている。このハンドカメラ40は、2次元の画像を撮像する2次元のカメラであり、光軸が第5関節軸22と平行で、且つ、ハンドカメラ40のレンズ41が第5関節軸22の先端側(アーム先端側)に位置するように固定されている。
As shown in FIGS. 1 and 2, a
更に、ロボット11のアーム可動領域よりも高い場所に設置された固定構造物50(例えばロボット防護柵の天井)の所定位置には、固定カメラ51が下向きに固定され、そのレンズ52側が下方に向けられている。この固定カメラ51は、供給装置39の作業エリア38に供給されたワーク30及びトレー56に移し替えられたワーク30を視野に収めて上方から撮像する2次元のカメラとして使用される。
Further, a fixed
供給装置39の作業エリア38に供給されたワーク30を撮像する場合には、要求される分解能やロボット11のアーム可動領域内における作業エリア38の位置等によってハンドカメラ40と固定カメラ51とを使い分けるようにしている。ここで、固定カメラ51の視野とハンドカメラ40の視野は、ロボット11のアーム可動領域よりも狭い。ハンドカメラ40と固定カメラ51とを比較すると、視野は固定カメラ51の方が広いが、分解能(1ピクセル当たりの撮像対象の実際の長さ)はハンドカメラ40の方が細かく、高精度の画像処理が可能である。従って、例えば、作業エリア38上のワーク30のサイズが小さくて細かい分解能が要求される場合には、ハンドカメラ40を使用し、また、固定カメラ51の視野から外れた位置に設置された作業エリア38についてはハンドカメラ40を使用するようにすれば良い。また、固定カメラ51の視野内に複数の作業エリア38が収まる場合には、固定カメラ51の視野内に複数の作業エリア38を収めて撮像すれば、複数の作業エリア38上のワーク30の画像処理を能率良く行うことかできる。或は、図2に示すように、複数の作業エリア38が存在する場合に、作業エリア38毎にハンドカメラ40を移動させてワーク30を撮像するようにしても良い。
When imaging the
図2に示すように、固定カメラ51の視野に収まる範囲内で各供給装置39の作業エリア38毎にその作業エリア38に対して所定の位置関係となる位置にマーク部61が1個又は複数個ずつ設けられている。各マーク部61は各供給装置39とそれぞれ一体化しており、各供給装置39の位置がずれた場合は各マーク部61も同方向に同量だけ位置ずれが起きる様に設定されている。各マーク部61の形状は、画像処理により各マーク部61の中心等の位置を正確に認識しやすい形状、例えば円形に形成されている。
As shown in FIG. 2, for each
トレー搬送装置55の作業エリア57についても、固定カメラ51の視野に収まる範囲内で作業エリア57に対して所定の位置関係となる位置に1個又は複数個のマーク部62が設けられている。各マーク部62はトレー搬送装置55やトレー56とそれぞれ一体化しており、トレー搬送装置55やトレー56の位置がずれた場合は各マーク部62も同方向に同量だけ位置ずれが起きる様に設定されている。各マーク部62の形状は、画像処理により位置を正確に認識しやすい形状、例えば円形に形成されている。
Also in the
各マーク部61,62は、後述する異常診断で使用される他に、生産中に固定カメラ51の視野に各マーク部61,62を収めて撮像する場合には、ワーク30の位置は、最寄りのマーク部61,62の位置からの相対位置の座標値で表現される。この為にマーク部61,62をキャリブレーション時にあらかじめワールド座標上の座標値(X1w,Y1w)を計測し、記憶部46に記憶しておく。
The
一般に、マーク部61,62の配置は、図2に示す供給装置39のようにワーク検出対象領域が狭い場合には、1つの供給装置39に対して1つのマーク部61を配置すれば良い。一方、図2、図3に示すトレー56のようにワーク検出対象領域が比較的広い場合には、その領域の周辺に複数個のマーク部62を配置し、そのワーク検出対象領域をマーク部62の個数分に分割して、トレー56上のワーク30の位置は、最寄りのマーク部62の位置を基準点とする相対位置の座標値で算出する。
In general, the
図3の例では、トレー56の周辺に4個のマーク部62を配置し、ワーク検出対象領域を4つに分割して、トレー56上の各ワーク30の位置を、最寄りのマーク部62の位置を基準点とする相対位置の座標値で算出する。
In the example of FIG. 3, four
トレー56上のワーク30のうち、検出対象のワーク30(A)の最寄りのマーク部62は、図3の左上のマーク部62(a)となるため、事前に記憶済みのマーク部62(a)の世界座標系の座標値である世界座標値(X1w,Y1w)と検出対象のワーク30(A)までの相対位置オフセット(ΔX1 ,ΔY1 )を用いて、トレー56上の検出対象のワーク30(A)の世界座標系の座標値(Xw ,Yw )を次式により算出する。
[Xw ,Yw ]=[X1w,Y1w]+[ΔX1 ,ΔY1 ]
トレー56上の他のワーク30についても、上記と同様に最寄りのマーク部62の位置からの相対位置によって算出される。
Of the
[Xw, Yw]=[X1w, Y1w]+[ΔX1, ΔY1]
The other works 30 on the
上式に示したように、ワーク30の位置を最寄りのマーク部62の位置からの相対位置で表現することによって、世界座標系の基準点を複数もつことができる。通常の固定カメラ51の画像からの世界座標値の算出は、画像中心の1点の世界座標値を検出し、その相対値で表現しているため、画像の歪み等の要因で画像周辺部での検出精度が悪化することがあったが、画像周辺部に複数のマーク部61,62を配置して、各マーク部61,62の絶対座標からの相対値でワーク30の位置座標を算出することで、画像周辺部での検出精度を向上することができる。
As shown in the above equation, by expressing the position of the
以上のように構成したロボット11の動作を制御するロボット制御ユニット42は、図4に示すように、画像処理部43、座標変換部44、制御部37、検査実行部45及びサーボアンプ36等を備えた構成となっている。画像処理部43は、ハンドカメラ40で撮像した画像を処理して撮像対象の位置を当該画像の基準点を原点とする座標系(以下「ハンドカメラ40のビジョン座標系」という)の座標値で検出する第1画像処理部と、固定カメラ51で撮像した画像を処理して撮像対象の位置を当該画像の基準点(例えば画像の中心)を原点とする2次元の直交座標系(以下「固定カメラ51のビジョン座標系」という)の座標値で検出する第2画像処理部として機能する。前記第1画像処理部と前記第2画像処理部は、同一の画像処理装置で構成しても良いし、別々の画像処理装置で構成しても良い。各ビジョン座標系の座標軸は、画像上で直交するXv 軸とYv 軸である。供給装置39の作業エリア38上のワーク30をハンドカメラ40で撮像する際には、ハンドカメラ40の光軸を鉛直下向きに向けて撮像するため、ハンドカメラ40で撮像した画像は、固定カメラ51で撮像した画像と同様に、水平面を撮像した画像となり、ビジョン座標系のXv 軸とYv 軸は水平面上の直交座標軸となる。画像処理部43は、画像処理によってワーク30の位置をビジョン座標系のピクセル単位の座標値で検出する。
As shown in FIG. 4, the
一方、座標変換部44は、ロボット11の稼働中には、画像処理部43の画像処理でワーク30の位置として検出した2次元のビジョン座標系の座標値を、ロボット11の各アーム15,17,19と手首部21とエンドエフェクタ23の位置を制御するための世界座標系の座標値に変換する。この世界座標系は、基準点を原点とする3次元の直交座標系であり、世界座標系の座標軸は、水平面上の直交座標軸(X軸とY軸)と鉛直上向きの座標軸(Z軸)である。この世界座標系の座標値の単位は、長さの単位(例えばμm単位)である。この世界座標系の原点(基準点)は、例えば、ロボット11のアーム可動領域(手首部21先端側のエンドエフェクタ23が移動可能な領域)の中心である。
On the other hand, while the
この場合、座標変換部44は、ロボット11の稼働中に固定カメラ51のビジョン座標系の座標値を世界座標系の座標値に変換する場合には、座標変換パラメータを用いて固定カメラ51のビジョン座標系の座標値を世界座標系の座標値に変換する。ここで、座標変換パラメータは、固定カメラ51のビジョン座標系の原点を補正する原点補正パラメータと、固定カメラ51のビジョン座標系の座標軸の傾きを補正する座標軸傾き補正パラメータとを含む。
In this case, when the coordinate
一方、ハンドカメラ40のビジョン座標系の座標値を世界座標系の座標値に変換する場合には、世界座標系の座標軸に対するハンドカメラ40のビジョン座標系の座標軸の傾き角度Rzと原点を補正することによって、ハンドカメラ40のビジョン座標系の座標値を世界座標系の座標値に変換する。この補正は、それぞれの座標軸の傾き角度Rzを示す回転行列とビジョン座標原点の世界座標系上の位置(X1w,Y1w)への並進ベクトルとを求めることによって、ハンドカメラ40のビジョン座標系の座標値(Xav,Yav)を次式で補正して世界座標系の座標値(Xw',Yw')に変換することができる。
On the other hand, when converting the coordinate value of the vision coordinate system of the
上式により、座標変換を行うためには、ハンドカメラ40のビジョン座標系の座標軸の傾き角度Rzと原点の座標値を測定する必要がある。
In order to perform coordinate conversion using the above equation, it is necessary to measure the tilt angle Rz of the coordinate axis of the vision coordinate system of the
ハンドカメラ40はロボット11の手首部21に固定されているため、ロボット11のアーム位置とハンドカメラ40との相対的位置関係は常に一定に維持される。従って、世界座標系のXY座標軸に対するハンドカメラ40のビジョン座標系の座標軸の傾き角度Rzは、次式により算出される。
Since the
Rz=[ハンドカメラ40の設置角度]+[第1関節軸14の回転角度]
ここで、ハンドカメラ40の設置角度は、ロボット11の手首部21に対するハンドカメラ40の設置角度であり、ハンドカメラ40をロボット11の手首部21に設置したときに手首部21に対するハンドカメラ40の設置角度を測定してロボット制御ユニット42の不揮発性メモリ(図示せず)に保存しておいた値を参照する。
Rz=[installation angle of hand camera 40]+[rotation angle of first joint shaft 14]
Here, the installation angle of the
第1関節軸14の回転角度の検出方法については、ロボット11のアーム位置(ハンドカメラ40の位置)が撮像位置で停止しているときの第1関節軸14のサーボモータ25のエンコーダ31の出力値をロボット制御ユニット42の制御部37がリアルタイムで取得して、第1関節軸14の回転角度を算出するようにしている。
Regarding the method of detecting the rotation angle of the first
一方、ハンドカメラ40のビジョン座標系の原点の座標値は、ロボット制御ユニット42の制御部37がハンドカメラ40の撮像位置に指定した世界座標系の座標値と一致するようにロボット11へのハンドカメラ40組付け時にキャリブレーション済みの状態にしておく。ロボット11のアーム位置とハンドカメラ40との相対的位置関係は常に一定であるため、ロボット11の基準点とハンドカメラ40の光軸中心との間の距離を測定し、これを補正値として制御部37からの座標指令値に反映することによって、ロボット11に世界座標系上の位置(X1w 、Y1w )を指示すると、ハンドカメラ40のビジョン座標系の原点が世界座標系上の位置(X1w 、Y1w )に移動するように制御される。
On the other hand, the coordinate value of the origin of the vision coordinate system of the
ロボット制御ユニット42の制御部37は、各エンコーダ31〜35で検出した各サーボモータ25〜29の回転角とハンドカメラ40と手首部21(エンドエフェクタ23)との相対的位置関係に基づいてリアルタイムでハンドカメラ40のビジョン座標系の原点の座標値(X1w,Y1w)を算出するようにしている。
The
ロボット制御ユニット42の制御部37は、ロボット11の稼働中に座標変換部44で3次元の世界座標系の座標値に変換したワーク30の位置に基づいてロボット11の各アーム15,17,19と手首部21とエンドエフェクタ23の目標位置を世界座標系の座標値で設定して、当該アーム15,17,19と手首部21とエンドエフェクタ23の位置を世界座標系の座標値で制御する。
The
次に、検査実行部45の機能について説明する。
検査実行部45は、固定カメラ51とハンドカメラ40を使用してロボット制御システムの異常診断を実行するものであり、後述する所定の検査実行条件が成立したときに、ハンドカメラ40の視野内にマーク部61,62が収まる位置へハンドカメラ40を移動させてハンドカメラ40でマーク部61,62を撮像して、その画像を画像処理部43で処理して当該マーク部61,62の位置をハンドカメラ40のビジョン座標系の座標値で検出して座標変換部44で世界座標系の座標値に変換する動作(以下「ハンドカメラ画像からのマーク部位置検出動作」という)と、固定カメラ51で全てのマーク部61,62を撮像して、その画像を画像処理部43で処理して全てのマーク部61,62の位置を固定カメラ51のビジョン座標系の座標値で検出して座標変換部44で世界座標系の座標値に変換する動作(以下「固定カメラ画像からのマーク部位置検出動作」という)とを実行する。
Next, the function of the
The
検査実行部45が過去に行ったハンドカメラ画像からのマーク部位置検出動作で検出した過去のマーク部61,62の位置の座標値(以下「過去のハンドカメラ画像から検出した過去のマーク部61,62の位置の座標値」という)を記憶部46に記憶すると共に、検査実行部45が過去に行った固定カメラ画像からのマーク部位置検出動作で検出した過去のマーク部61,62の位置の座標値(以下「過去の固定カメラ画像から検出した過去のマーク部61,62の位置の座標値」という)を記憶部46に記憶する。ここで、記憶部46に記憶する過去のマーク部61,62の位置の座標値は、ロボット制御システムをキャリブレーションしたときに、ハンドカメラ画像からのマーク部位置検出動作及び固定カメラ画像からのマーク部位置検出動作を実行して検出したマーク部61,62の位置の座標値である。
The coordinate values of the positions of the
過去のマーク部61,62の位置の座標値を記憶する記憶部46は、電源オフ中でも記憶データを保持する書き換え可能な不揮発性の記憶媒体であり、例えば、HDD、SSD、フラッシュメモリ等により構成されている。
The
検査実行部45は、今回行ったハンドカメラ画像からのマーク部位置検出動作で検出した今回のマーク部61,62の位置の座標値を記憶部46に記憶されている、前記過去のハンドカメラ画像から検出した過去のマーク部61,62の位置の座標値と比較すると共に、今回行った固定カメラ画像からのマーク部位置検出動作で検出した今回のマーク部61,62の位置の座標値を記憶部46に記憶されている、前記過去の固定カメラ画像から検出した過去のマーク部61,62の位置の座標値と比較し、それらの比較結果に基づいてロボット制御システムの異常診断を行い、その結果、異常ありと判定した場合には、前記今回のマーク部61,62の位置の座標値と前記過去のマーク部61,62の位置の座標値との比較結果の組み合わせに基づいて異常発生箇所を特定する。
The
検査実行部45は、異常診断の結果を液晶ディスプレイ等の表示装置47や携帯端末(図示せず)に表示したり、或は音声によりロボット11を管理する作業者に通知する処理を行う。更に、検査実行部45は、異常発生箇所を特定した場合にはその異常発生箇所と対処方法を表示装置47や携帯端末に表示したり、音声により作業者に通知する処理を行う。
The
本実施例では、検査実行部45は、生産開始前にロボット制御システムの異常診断を実行し、生産開始前に行ったハンドカメラ画像からのマーク部位置検出動作及び固定カメラ画像からのマーク部位置検出動作で検出した当該生産開始前のマーク部61,62の位置の座標値を記憶部46に記憶されている過去のマーク部61,62の位置の座標値と比較して各位置の座標値の変化量を算出し、いずれか1つでも座標値の変化量が許容誤差に相当する所定の閾値を超えていれば異常ありと判定する。
In this embodiment, the
更に、本実施例では、検査実行部45は、生産中に後述する所定の検査実行条件が成立したときに、前記固定カメラ画像からのマーク部位置検出動作を実行して当該生産中のマーク部61,62の位置の座標値を検出し、当該生産中のマーク部61,62の位置の座標値を記憶部46に記憶されている、過去の固定カメラ画像から検出した過去のマーク部61,62の位置の座標値と比較して、当該生産中の比較結果に基づいて異常診断し、その結果、異常ありと判定した場合には、前記ハンドカメラ画像からのマーク部位置検出動作を実行してマーク部61,62の位置の座標値を検出し、そのマーク部61,62の位置の座標値を記憶部46に記憶されている、前記過去のハンドカメラ画像から検出した過去のマーク部61,62の位置の座標値と比較し、その比較結果と前記生産中の比較結果との組み合わせに基づいて異常発生箇所を特定する。
Further, in the present embodiment, the
或は、検査実行部45は、生産中にロボット11がアーム動作を所定時間以上停止している期間に前記ハンドカメラ画像からのマーク部位置検出動作を実行すると共に、固定カメラ51でマーク部61,62を撮像するのに邪魔にならない位置へロボット11のアームが移動している期間に前記固定カメラ画像からのマーク部位置検出動作を実行してロボット制御システムの異常診断を行うようにしても良い。
Alternatively, the
或は、検査実行部45は、生産中にハンドカメラ40でワーク30を撮像して当該ワーク30の位置を検出してロボット11が所定の作業を行う場合には、生産中にハンドカメラ40でワーク30を撮像する際に、当該ワーク30とマーク部61,62の少なくとも1つをハンドカメラ40の視野に収めて撮像して前記ハンドカメラ画像からのマーク部位置検出動作を実行すると共に、固定カメラ51でマーク部61,62を撮像するのに邪魔にならない位置へロボット11のアームが移動している期間に前記固定カメラ画像からのマーク部位置検出動作を実行してロボット制御システムの異常診断を行うようにしても良い。
Alternatively, when the
また、ロボット11を管理する作業者が入力装置48(キーボード、マウス、タッチパネル等)を操作して検査実行開始操作を行ったときにロボット制御システムの異常診断を実行するようにしても良い。
Further, the abnormality management of the robot control system may be performed when the operator who manages the
ところで、ロボット11は、各供給装置39の作業エリア38に供給されたワーク30をエンドエフェクタ23でピックアップし、当該ワーク30をトレー搬送装置55の作業エリア57で停止しているトレー56に移し替えて整列させる作業を行うが、このロボット11の作業が異常になる原因としては、以下の3つの原因(1)〜(3)が考えられる。
By the way, the
[原因(1)]
原因(1)は、固定カメラ51又はハンドカメラ40の設置位置や設置角度が過去(キャリブレーション時)から変化したことが考えられる。この変化は、例えば、カメラ設置部材の経年変化や、ライン移動等によって固定カメラ51を再設置したときの設置位置や設置角度のずれによって発生するものと考えられる。
[Cause (1)]
The cause (1) may be that the installation position or installation angle of the fixed
[原因(2)]
原因(2)は、各供給装置39の作業エリア38又はトレー搬送装置55の作業エリア57のトレー56の位置や角度が過去(キャリブレーション時)から変化したことが考えられる。この変化は、例えば、ロボット11の振動、各供給装置39自身の振動、衝撃と供給装置39の移動、交換等による設置位置や設置角度の変化によって発生するものと考えられる。
[Cause (2)]
The cause (2) is considered to be that the position or angle of the
[原因(3)]
原因(3)は、ロボット11のアーム移動精度が悪化したことが考えられる。このアーム移動精度の悪化は、例えば、ロボット11の経年劣化、振動や衝撃等による組み付け状態の変化、エンドエフェクタ23の交換や再組み付けによるロボット11の座標系の変化によって発生するものと考えられる。
[Cause (3)]
The cause (3) is considered to be deterioration of the arm movement accuracy of the
そこで、本実施例では、以下の手順でロボット制御ユニット42がロボット制御システムの異常診断を実行する。
まず、ロボット制御システムをキャリブレーションしたときに、ロボット制御ユニット42が図5のキャリブレーション時マーク部位置検出・記憶プログラムを実行して、キャリブレーション時のマーク部61,62の位置の世界座標値を検出して記憶部46に記憶する。マーク部61,62が設置されていない場合は、作業者がマーク部61,62を設置してからロボット制御ユニット42が図5のキャリブレーション時マーク部位置検出・記憶プログラムを実行する。
Therefore, in the present embodiment, the
First, when the robot control system is calibrated, the
ロボット制御ユニット42は、図5のキャリブレーション時マーク部位置検出・記憶プログラムを起動すると、まず、ステップ101で、ハンドカメラ40の視野内に検出対象となる1個又は複数個のマーク部61が収まる位置までロボット11の各アーム15,17,19を動作させてハンドカメラ40を移動させる。この後、ステップ102に進み、ハンドカメラ40でマーク部61を撮像し、次のステップ103で、ハンドカメラ40の画像を画像処理部43で処理して当該マーク部61,62の位置をハンドカメラ40のビジョン座標系の座標値で検出して座標変換部44で世界座標系の座標値である世界座標値[A0 ]に変換する。そして、次のステップ104で、このマーク部61,62の位置の世界座標値[A0 ]を記憶部46に記憶する。
When the calibration mark position detection/storage program of FIG. 5 is started, the
この後、ステップ105に進み、全てのマーク部61,62の位置の検出・記憶が終了したか否かを判定し、まだ終了していなければ、上述したステップ101〜104の処理を繰り返して、残りのマーク部61,62の位置の検出・記憶を行う。このような処理を繰り返すことで、全てのマーク部61,62の位置の検出・記憶が終了した時点で、上記ステップ105の判定結果が「Yes」となり、ステップ106に進み、固定カメラ51で全てのマーク部61を撮像し、次のステップ107で、固定カメラ51の画像を画像処理部43で処理して全てのマーク部61,62の位置を固定カメラ51のビジョン座標系の座標値で検出して座標変換部44で世界座標値[B0 ]に変換する。そして、次のステップ108で、全てのマーク部61,62の位置の世界座標値[B0 ]を記憶部46に記憶して、本プログラムを終了する。
After that, the process proceeds to step 105, and it is determined whether or not the detection and storage of the positions of all the
その後、ロボット制御ユニット42は、生産開始前及び生産中に図6乃至図8のロボット制御システム異常診断プログラムを実行することで、ロボット制御システムの異常診断を行う。
After that, the
ロボット制御ユニット42は、図6乃至図8のロボット制御システム異常診断プログラムを起動すると、まずステップ201で、生産開始前の検査実行条件が成立するまで待機する。ここで、生産開始前の検査実行条件は、例えば、ロボット11が動作可能で、他の作業を行っていないこと等である。或は、作業者が入力装置48を操作して検査実行開始操作を行ったときに生産開始前の検査実行条件が成立するようにしても良い。また、生産開始前に、毎回、異常診断を行うようにしても良いが、生産実行回数や累積生産時間が所定値に達する毎に異常診断を行うようにしても良い。
When the robot control system abnormality diagnosis program of FIGS. 6 to 8 is started, the
このステップ201で、生産開始前の検査実行条件が成立したと判定した時点で、ステップ202に進み、ハンドカメラ40の視野内に検出対象となる1個又は複数個のマーク部61が収まる位置までロボット11の各アーム15,17,19を動作させてハンドカメラ40を移動させる。この後、ステップ203に進み、ハンドカメラ40でマーク部61を撮像し、次のステップ204で、ハンドカメラ40の画像を画像処理部43で処理して当該マーク部61,62の位置をハンドカメラ40のビジョン座標系の座標値で検出して座標変換部44で世界座標値[A1 ]に変換する。そして、次のステップ205で、今回のマーク部61,62の位置の世界座標値[A1 ]を、記憶部46に記憶されている、キャリブレーション時のハンドカメラ40の画像から検出したキャリブレーション時のマーク部61,62の位置の世界座標値[A0 ]と比較して、各マーク部61,62の位置の世界座標値の変化量|[A0 ]−[A1 ]|を算出する。
At this
この後、ステップ206に進み、全てのマーク部61,62の位置の検出・比較が終了したか否かを判定し、まだ終了していなければ、上述したステップ202〜205の処理を繰り返して、残りのマーク部61,62の位置の検出・比較を行う。
After that, the process proceeds to step 206, and it is determined whether or not the detection/comparison of the positions of all the
このような処理を繰り返すことで、全てのマーク部61,62の位置の検出・比較が終了した時点で、上記ステップ206の判定結果が「Yes」となり、ステップ207に進み、固定カメラ51で全てのマーク部61を撮像し、次のステップ208で、固定カメラ51の画像を画像処理部43で処理して全てのマーク部61,62の位置を固定カメラ51のビジョン座標系の座標値で検出して座標変換部44で世界座標値[B1 ]に変換する。この後、ステップ209に進み、今回の全てのマーク部61,62の位置の世界座標値[B1 ]を、記憶部46に記憶されている、キャリブレーション時の固定カメラ51の画像から検出したキャリブレーション時のマーク部61,62の位置の世界座標値[B0 ]と比較して、各マーク部61,62の位置の世界座標値の変化量|[B0 ]−[B1 ]|を算出する。
By repeating such processing, when the detection/comparison of the positions of all the
この後、図7のステップ210に進み、上記ステップ205とステップ209で算出した各マーク部61,62の位置の世界座標値の変化量|[A0 ]−[A1 ]|と|[B0 ]−[B1 ]|をそれぞれ許容誤差に相当する所定の閾値と比較して、全てのマーク部61,62の位置の世界座標値の変化量|[A0 ]−[A1 ]|と|[B0 ]−[B1 ]|が共に閾値以内であれば、ステップ211に進み、ロボット制御システムが正常(異常なし)と判定して、ステップ212に進み、生産を開始する。
After that, the process proceeds to step 210 of FIG. 7 and the amount of change in the world coordinate values of the positions of the
これに対し、上記ステップ210で、各マーク部61,62の位置の世界座標値の変化量|[A0 ]−[A1 ]|と|[B0 ]−[B1 ]|のうちのいずれか1つでも閾値以上であると判定した場合には、ステップ217に進み、ロボット制御システムが異常であると判定して、ステップ218に進み、|[A0 ]−[A1 ]|と閾値との比較結果と、|[B0 ]−[B1 ]|と閾値との比較結果との組み合わせに基づいて異常発生箇所を特定して、次のステップ219で、表示装置47や携帯端末に異常の警告表示を行ったり、或は音声によりその異常を作業者に通知する処理を行うと共に、異常発生箇所と対処方法を表示装置47や携帯端末に表示したり、音声により作業者に通知する処理を行う。
On the other hand, in
生産開始前は、例えば、以下の判定基準(1) 〜(3) に従って異常発生箇所を特定して異常発生箇所と対処方法を作業者に通知する。 Before the start of production, for example, the location of the abnormality is specified according to the following criteria (1) to (3), and the location of the abnormality and the countermeasure are notified to the operator.
(1) |[A0 ]−[A1 ]|≧閾値、且つ、|[B0 ]−[B1 ]|≧閾値の場合は、供給装置39又はトレー56(トレー搬送装置55)の位置や角度が異常(ずれ量が許容誤差を超える)と判定する。この場合の対処方法として、供給装置39とトレー56(トレー搬送装置55)の位置や角度を修正して、ハンドカメラ40と固定カメラ51のビジョン座標系を再キャリブレーションするように作業者に通知する。
(1) In the case of |[A0]-[A1]|≧threshold value and |[B0]-[B1]|≧threshold value, the position or angle of the
(2) |[A0 ]−[A1 ]|≧閾値、且つ、|[B0 ]−[B1 ]|<閾値の場合は、ロボット11のアーム移動精度(ロボット11内の座標系)が異常(ずれ量が許容誤差を超える)と判定する。この場合の対処方法として、エンドエフェクタ23の取付状態の確認とロボット11の再キャリブレーションを行うように作業者に通知する。
(2) If |[A0]-[A1]|≧threshold value and |[B0]-[B1]|<threshold value, the arm movement accuracy of the robot 11 (coordinate system in the robot 11) is abnormal (shifted). Quantity exceeds the allowable error). As a coping method in this case, the operator is notified to confirm the mounting state of the
(3) |[A0 ]−[A1 ]|<閾値、且つ、|[B0 ]−[B1 ]|≧閾値の場合は、固定カメラ51の設置位置や設置角度が異常(ずれ量が許容誤差を超える)と判定する。この場合の対処方法として、固定カメラ51の設置位置や設置角度を修正して固定カメラ51のビジョン座標系を再キャリブレーションするように作業者に通知する。
(3) In the case of |[A0]-[A1]|<threshold value and |[B0]-[B1]|≧threshold value, the installation position or installation angle of the fixed
生産開始後は、ステップ213に進み、生産中に固定カメラ51でワーク30を撮像するタイミングになる毎に、ステップ214以降の処理により生産中の異常診断を実行する。生産中に固定カメラ51でワーク30を撮像するタイミングになる毎に、毎回、異常診断を行うようにしても良いが、撮像回数が所定回数に達する毎に異常診断を行うようにしても良い。
After the start of production, the process proceeds to step 213, and the abnormality diagnosis during production is executed by the processing from
ワーク30を撮像するタイミング(異常診断実行タイミング)になった時点で、ステップ214に進み、固定カメラ51でワーク30とマーク部61,62を撮像する。そして、次のステップ215で、固定カメラ51の画像を画像処理部43で処理して全てのマーク部61,62の位置を固定カメラ51のビジョン座標系の座標値で検出して座標変換部44で世界座標値[B2 ]に変換する。この後、ステップ216に進み、今回の全てのマーク部61,62の位置の世界座標値[B2 ]を、記憶部46に記憶されている、キャリブレーション時の固定カメラ51の画像から検出したキャリブレーション時のマーク部61,62の位置の世界座標値[B0 ]と比較して、各マーク部61,62の位置の世界座標値の変化量|[B0 ]−[B2 ]|を算出する。
When it comes to the timing of imaging the work 30 (abnormality diagnosis execution timing), the process proceeds to step 214, and the
この後、図8のステップ220に進み、各マーク部61,62の位置の世界座標値の変化量|[B0 ]−[B2 ]|を許容誤差に相当する所定の閾値と比較して、全てのマーク部61,62の位置の世界座標値の変化量|[B0 ]−[B2 ]|が閾値以内であれば、ステップ221に進み、ロボット制御システムが正常(異常なし)と判定する。この場合は、ステップ222に進み、生産終了か否かを判定し、生産終了ではない(生産中)と判定すれば、図7のステップ213に戻る。これにより、生産中は、固定カメラ51でワーク30を撮像するタイミング(異常診断実行タイミング)になる毎に、ロボット制御システムの異常診断が繰り返し実行され、生産が終了した時点で本プログラムも終了する。
After that, the process proceeds to step 220 in FIG. 8 and the change amount |[B0]-[B2]| of the world coordinate value of the position of each
一方、上記ステップ220で、各マーク部61,62の位置の世界座標値の変化量|[B0 ]−[B2 ]|のうちのいずれか1つでも閾値以上であると判定した場合には、ステップ223に進み、ロボット制御システムが異常であると判定して、ステップ224に進み、ハンドカメラ40の視野内に検出対象となる1個又は複数個のマーク部61が収まる位置までロボット11の各アーム15,17,19を動作させてハンドカメラ40を移動させる。この後、ステップ225に進み、ハンドカメラ40でマーク部61を撮像し、次のステップ226で、ハンドカメラ40の画像を画像処理部43で処理して当該マーク部61,62の位置をハンドカメラ40のビジョン座標系の座標値で検出して座標変換部44で世界座標値[A2 ]に変換する。この後、ステップ227に進み、今回のマーク部61,62の位置の世界座標値[A2 ]を、記憶部46に記憶されている、キャリブレーション時のハンドカメラ40の画像から検出したキャリブレーション時のマーク部61,62の位置の世界座標値[A0 ]と比較して、各マーク部61,62の位置の世界座標値の変化量|[A0 ]−[A2 ]|を算出する。
On the other hand, if it is determined in
次のステップ228で、|[A0 ]−[A2 ]|と閾値との比較結果と、|[B0 ]−[B2 ]|と閾値との比較結果との組み合わせに基づいて異常発生箇所を特定して、次のステップ229で、表示装置47や携帯端末に異常の警告表示を行ったり、或は音声によりその異常を作業者に通知する処理を行うと共に、異常発生箇所と対処方法を表示装置47や携帯端末に表示したり、音声により作業者に通知する処理を行って、本プログラムを終了する。
In the
生産中は、例えば、以下の判定基準(1) 〜(3) に従って異常発生箇所を特定して異常発生箇所と対処方法を作業者に通知する。 During production, for example, the location of the abnormality is specified according to the following criteria (1) to (3), and the location of the abnormality and the countermeasure are notified to the operator.
(1) |[A0 ]−[A2 ]|≧閾値、且つ、|[B0 ]−[B2 ]|≧閾値の場合は、供給装置39又はトレー56(トレー搬送装置55)の位置や角度が異常(ずれ量が許容誤差を超える)と判定する。この場合の対処方法として、供給装置39とトレー56(トレー搬送装置55)の位置や角度を修正して、ハンドカメラ40と固定カメラ51のビジョン座標系を再キャリブレーションするように作業者に通知する。
(1) In the case of |[A0]-[A2]|≧threshold value and |[B0]-[B2]|≧threshold value, the position or angle of the
(2) |[A0 ]−[A2 ]|≧閾値、且つ、|[B0 ]−[B2 ]|<閾値の場合は、ロボット11のアーム移動精度(ロボット11内の座標系)が異常(ずれ量が許容誤差を超える)と判定する。この場合の対処方法として、エンドエフェクタ23の取付状態の確認とロボット11の再キャリブレーションを行うように作業者に通知する。
(2) If |[A0]-[A2]|≧threshold and |[B0]-[B2]|<threshold, the
(3) |[A0 ]−[A2 ]|<閾値、且つ、|[B0 ]−[B2 ]|≧閾値の場合は、固定カメラ51の設置位置や設置角度が異常(ずれ量が許容誤差を超える)と判定する。この場合の対処方法として、固定カメラ51の設置位置や設置角度を修正して固定カメラ51のビジョン座標系を再キャリブレーションするように作業者に通知する。
(3) In the case of |[A0]-[A2]|<threshold value and |[B0]-[B2]|≧threshold value, the installation position or installation angle of the fixed
以上説明した本実施例によれば、ロボット11の手首部21に取り付けられたハンドカメラ40と、ロボット11のアーム可動領域よりも高い場所に下向きに固定された固定カメラ51との両方で、作業エリア38,57に対して所定の位置関係で設けられたマーク部61,62を撮像して、ハンドカメラ40の画像と固定カメラ51の画像の両方で同じマーク部61,62の位置を検出して異常診断するため、前記特許文献1で誤判定の要因となっていたキャリブレーションステージやマスターワークを使用せずに異常診断することができる。しかも、ハンドカメラ40と固定カメラ51との両方で同じマーク部61,62を撮像するため、カメラ40,51の位置ずれかマーク部61,62の位置ずれかを判別することができ、異常診断の精度を向上させることができる。
According to the present embodiment described above, work is performed with both the
しかも、本実施例では、生産開始前にロボット制御システムの異常診断を行うと共に、生産中も固定カメラ51でワーク30を撮像する毎にロボット制御システムの異常診断を行うようにしているため、生産中にロボット11が正常動作できない状態に至る前に作業者に異常警告したり、異常発生箇所や適切な対処方法を通知することができる。これにより、ロボット11の座標系異常に起因する計画外停止や不良の発生を未然に防止できると共に、異常発生箇所のメンテナンスの時間とコストを削減することができ、ロボット制御システムの予知保全を実現することができる。
Moreover, in this embodiment, the abnormality control of the robot control system is performed before the production is started, and the abnormality control of the robot control system is performed every time the fixed
更に、生産中も固定カメラ51でワーク30を撮像する毎にロボット制御システムの異常診断を行うようにしているため、生産中に異常が発生しても、その異常を直ぐに検出することができ、生産タクトへの影響を最小限に止めることができる。
Further, even during production, since the abnormality diagnosis of the robot control system is performed every time the fixed
しかも、異常検知専用の追加設備やセンサ等による追加コスト、工数の発生がないので、導入がしやすい。更には、異常診断によりロボット11の座標系が正常な状態を確認してロボット11を動作させることができるため、ワーク30の位置検出精度の向上も実現できる。
Moreover, since there is no additional cost and man-hours due to additional equipment or sensors dedicated to abnormality detection, introduction is easy. Furthermore, since the
尚、本実施例では、マーク部61,62の形状を円形としたが、四角形等、他の形状であっても良く、要は、画像処理により各マーク部61,62の中心等の位置を正確に認識しやすい形状であれば良い。
In the present embodiment, the
また、生産開始前のみにロボット制御システムの異常診断を行ったり、生産中にロボット11の作業ミスが発生したときに(或は作業ミスの発生回数や発生率が所定値を超えたときに)ロボット制御システムの異常診断を行うようにしても良い。
In addition, when the abnormality of the robot control system is diagnosed only before the production is started, or when a work error of the
その他、本発明は、ロボット11の構成を適宜変更しても良い等、要旨を逸脱しない範囲内で種々変更して実施できることは言うまでもない。
In addition, it goes without saying that the present invention can be variously modified and implemented without departing from the scope of the invention, for example, the configuration of the
11…ロボット、14…第1関節軸、15…第1アーム、16…第2関節軸、17…第2アーム、18…第3関節軸、19…第3アーム、20…第4関節軸、21…手首部(アーム先端部)、22…第5関節軸、23…エンドエフェクタ、25〜29…サーボモータ、31〜35…エンコーダ、36…サーボアンプ、37…制御部、38…作業エリア、39…供給装置、40…ハンドカメラ、41…レンズ、42…ロボット制御ユニット、43…画像処理部(第1画像処理部,第2画像処理部)、44…座標変換部、45…検査実行部、46…記憶部、50…固定構造物、51…固定カメラ、52…レンズ、55…トレー搬送装置、56…トレー、57…作業エリア、61,62…マーク部 11... Robot, 14... 1st joint axis, 15... 1st arm, 16... 2nd joint axis, 17... 2nd arm, 18... 3rd joint axis, 19... 3rd arm, 20... 4th joint axis, 21... Wrist part (arm tip part), 22... 5th joint axis, 23... End effector, 25-29... Servo motor, 31-35... Encoder, 36... Servo amplifier, 37... Control part, 38... Work area, 39... Supply device, 40... Hand camera, 41... Lens, 42... Robot control unit, 43... Image processing unit (first image processing unit, second image processing unit), 44... Coordinate conversion unit, 45... Inspection execution unit , 46... Storage section, 50... Fixed structure, 51... Fixed camera, 52... Lens, 55... Tray transport device, 56... Tray, 57... Work area, 61, 62... Mark section
Claims (14)
前記作業エリアに供給されたワークに対して所定の作業を行うロボットと、
前記ロボットのアームに取り付けられたハンドカメラと、
前記ロボットのアーム可動領域よりも高い場所に下向きに固定され、前記作業エリアに供給されたワークを上方から撮像する固定カメラと、
前記ハンドカメラで撮像した画像を処理して撮像対象の位置を当該画像の基準点を原点とする座標系(以下「ハンドカメラのビジョン座標系」という)の座標値で検出する第1画像処理部と、
前記固定カメラで撮像した画像を処理して撮像対象の位置を当該画像の基準点を原点とする座標系(以下「固定カメラのビジョン座標系」という)の座標値で検出する第2画像処理部と、
前記ハンドカメラのビジョン座標系の座標値及び前記固定カメラのビジョン座標系の座標値を前記ロボットのアームの動作を制御する座標系である世界座標系の座標値に変換する座標変換部と、
前記ロボットのアームの位置を前記世界座標系の座標値で制御する制御部と
を備えたロボット制御システムにおいて、
前記固定カメラの視野に収まる範囲内で前記作業エリアに対して所定の位置関係となる位置に設けられたマーク部と、
前記ハンドカメラの視野内に前記マーク部が収まる位置へ前記ハンドカメラを移動させて前記ハンドカメラで前記マーク部を撮像して、その画像を前記第1画像処理部で処理して前記マーク部の位置を前記ハンドカメラのビジョン座標系の座標値で検出して前記座標変換部で前記世界座標系の座標値に変換する動作(以下「ハンドカメラ画像からのマーク部位置検出動作」という)と、前記固定カメラで前記マーク部を撮像して、その画像を前記第2画像処理部で処理して前記マーク部の位置を前記固定カメラのビジョン座標系の座標値で検出して前記座標変換部で前記世界座標系の座標値に変換する動作(以下「固定カメラ画像からのマーク部位置検出動作」という)とを実行する検査実行部と、
前記検査実行部が過去に行った前記ハンドカメラ画像からのマーク部位置検出動作で検出した過去の前記マーク部の位置の座標値(以下「過去のハンドカメラ画像から検出した過去の前記マーク部の位置の座標値」という)を記憶すると共に、前記検査実行部が過去に行った前記固定カメラ画像からのマーク部位置検出動作で検出した過去の前記マーク部の位置の座標値(以下「過去の固定カメラ画像から検出した過去の前記マーク部の位置の座標値」という)を記憶する記憶部とを備え、
前記検査実行部は、今回行った前記ハンドカメラ画像からのマーク部位置検出動作で検出した今回の前記マーク部の位置の座標値を前記記憶部に記憶されている、前記過去のハンドカメラ画像から検出した過去の前記マーク部の位置の座標値と比較すると共に、今回行った前記固定カメラ画像からのマーク部位置検出動作で検出した今回の前記マーク部の位置の座標値を前記記憶部に記憶されている、前記過去の固定カメラ画像から検出した過去の前記マーク部の位置の座標値と比較し、それらの比較結果に基づいて異常診断する、ロボット制御システム。 A supply device for supplying the work to the work area,
A robot that performs a predetermined work on the work supplied to the work area,
A hand camera attached to the robot arm,
A fixed camera that is fixed downward at a position higher than the arm movable region of the robot and that images the work supplied to the work area from above,
A first image processing unit that processes an image captured by the hand camera and detects a position of an image capturing target with a coordinate value of a coordinate system having a reference point of the image as an origin (hereinafter referred to as a “vision coordinate system of the hand camera”). When,
A second image processing unit that processes an image captured by the fixed camera and detects a position of an image capturing target by a coordinate value of a coordinate system whose origin is a reference point of the image (hereinafter, referred to as “fixed camera vision coordinate system”). When,
A coordinate conversion unit that converts the coordinate values of the vision coordinate system of the hand camera and the coordinate values of the vision coordinate system of the fixed camera into coordinate values of the world coordinate system that is a coordinate system that controls the operation of the arm of the robot;
A robot control system including a control unit that controls the position of the arm of the robot by coordinate values of the world coordinate system,
A mark portion provided at a position that has a predetermined positional relationship with the work area within a range that falls within the field of view of the fixed camera;
The hand camera is moved to a position where the mark portion fits within the field of view of the hand camera, the mark portion is imaged by the hand camera, and the image is processed by the first image processing portion so that the mark portion An operation of detecting a position with a coordinate value of the vision coordinate system of the hand camera and converting the coordinate value into a coordinate value of the world coordinate system with the coordinate conversion unit (hereinafter referred to as "mark portion position detection operation from a hand camera image"); The fixed camera takes an image of the mark portion, the second image processing unit processes the image, the position of the mark portion is detected by the coordinate value of the vision coordinate system of the fixed camera, and the coordinate conversion unit detects the position. An inspection execution unit that executes an operation of converting to coordinate values in the world coordinate system (hereinafter referred to as "mark portion position detection operation from fixed camera image");
The coordinate value of the past position of the mark portion detected by the mark portion position detection operation from the hand camera image performed by the inspection execution unit in the past (hereinafter, “the past mark portion detected from the past hand camera image "Coordinate value of position"), and the coordinate value of the past position of the mark portion detected by the mark position detecting operation from the fixed camera image performed by the inspection execution unit in the past (hereinafter referred to as "past coordinate value"). Storage unit for storing "the coordinate values of the past position of the mark portion detected from the fixed camera image").
The inspection execution unit stores, from the past hand camera image, the coordinate value of the current position of the mark portion detected by the mark portion position detection operation from the hand camera image performed this time, which is stored in the storage unit. The coordinate value of the detected position of the mark portion is compared, and the coordinate value of the current position of the mark portion detected by the mark position detection operation from the fixed camera image performed this time is stored in the storage unit. The robot control system compares the past coordinate value of the position of the mark portion detected from the past fixed camera image, and performs abnormality diagnosis based on the comparison result.
前記検査実行部は、前記ハンドカメラ画像からのマーク部位置検出動作及び前記固定カメラ画像からのマーク部位置検出動作で前記マーク部毎にそのマーク部の位置の座標値を検出し、前記マーク部毎にそのマーク部の位置の座標値を前記記憶部に前記マーク部毎に記憶されている前記過去の前記マーク部の位置の座標値と比較する、請求項1乃至8のいずれかに記載のロボット制御システム。 The mark portion is provided at a plurality of locations,
The inspection execution unit detects the coordinate value of the position of the mark portion for each mark portion by the mark portion position detection operation from the hand camera image and the mark portion position detection operation from the fixed camera image, The coordinate value of the position of the mark portion is compared for each time with the coordinate value of the position of the mark portion in the past stored in the storage unit for each mark portion. Robot control system.
前記別の作業エリアについても、前記固定カメラの視野に収まる範囲内で当該別の作業エリアに対して所定の位置関係となる位置にマーク部が設けられ、
前記検査実行部は、前記固定カメラの視野に前記作業エリアと前記別の作業エリアの両方の前記マーク部を収めて撮像する、請求項1乃至9のいずれかに記載のロボット制御システム。 The robot picks up the work supplied to the work area and transfers it to another work area,
Also for the other work area, a mark portion is provided at a position that has a predetermined positional relationship with the other work area within a range that falls within the field of view of the fixed camera,
The robot control system according to any one of claims 1 to 9, wherein the inspection execution unit captures an image by accommodating the mark portions of both the work area and the another work area in a field of view of the fixed camera.
前記作業エリア毎に前記マーク部が設けられている、請求項1乃至10のいずれかに記載のロボット制御システム。 A plurality of the supply devices are arranged side by side and a plurality of the work areas are arranged side by side,
The robot control system according to claim 1, wherein the mark portion is provided for each work area.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019012084A JP7281910B2 (en) | 2019-01-28 | 2019-01-28 | robot control system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019012084A JP7281910B2 (en) | 2019-01-28 | 2019-01-28 | robot control system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020116717A true JP2020116717A (en) | 2020-08-06 |
JP7281910B2 JP7281910B2 (en) | 2023-05-26 |
Family
ID=71891634
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019012084A Active JP7281910B2 (en) | 2019-01-28 | 2019-01-28 | robot control system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7281910B2 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112863493A (en) * | 2021-01-14 | 2021-05-28 | 北京天行汇通信息技术有限公司 | Voice data labeling method and device and electronic equipment |
WO2023013698A1 (en) | 2021-08-03 | 2023-02-09 | 京セラ株式会社 | Robot control device, robot control system, and robot control method |
WO2023013056A1 (en) * | 2021-08-06 | 2023-02-09 | 株式会社Fuji | Workpiece picking method and workpiece picking system |
CN116985182A (en) * | 2023-05-31 | 2023-11-03 | 齐鲁工业大学(山东省科学院) | Four-axis robot work piece wobble plate system based on machine vision |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06262446A (en) * | 1993-03-18 | 1994-09-20 | Citizen Watch Co Ltd | Assembling cell and aggregate thereof capable of mounting/removing part supplier |
JP2003231078A (en) * | 2002-02-14 | 2003-08-19 | Denso Wave Inc | Position control method for robot arm and robot device |
JP2010243317A (en) * | 2009-04-06 | 2010-10-28 | Seiko Epson Corp | Method for recognizing object |
JP2011110627A (en) * | 2009-11-24 | 2011-06-09 | Idec Corp | Robot control method, robot control program, and teaching pendant used for robot control method |
JP2016052695A (en) * | 2014-09-03 | 2016-04-14 | キヤノン株式会社 | Robot device and control method of robot device |
JP2016078180A (en) * | 2014-10-17 | 2016-05-16 | 株式会社リコー | Abnormality cause estimating device, picking device, and abnormality cause estimating method for picking device |
JP2017071033A (en) * | 2015-10-09 | 2017-04-13 | キヤノン株式会社 | Working reference object, working reference object manufacturing method, robot arm adjusting method, vision system, robot apparatus, and indicator member |
JP2018034271A (en) * | 2016-09-01 | 2018-03-08 | アイシン精機株式会社 | Failure factor specification method in carrying-in and -out work of carrying-in and -out device |
WO2018163450A1 (en) * | 2017-03-09 | 2018-09-13 | 三菱電機株式会社 | Robot control device and calibration method |
JP2018158391A (en) * | 2017-03-22 | 2018-10-11 | 株式会社東芝 | Object handling device and calibration method for the same |
-
2019
- 2019-01-28 JP JP2019012084A patent/JP7281910B2/en active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06262446A (en) * | 1993-03-18 | 1994-09-20 | Citizen Watch Co Ltd | Assembling cell and aggregate thereof capable of mounting/removing part supplier |
JP2003231078A (en) * | 2002-02-14 | 2003-08-19 | Denso Wave Inc | Position control method for robot arm and robot device |
JP2010243317A (en) * | 2009-04-06 | 2010-10-28 | Seiko Epson Corp | Method for recognizing object |
JP2011110627A (en) * | 2009-11-24 | 2011-06-09 | Idec Corp | Robot control method, robot control program, and teaching pendant used for robot control method |
JP2016052695A (en) * | 2014-09-03 | 2016-04-14 | キヤノン株式会社 | Robot device and control method of robot device |
JP2016078180A (en) * | 2014-10-17 | 2016-05-16 | 株式会社リコー | Abnormality cause estimating device, picking device, and abnormality cause estimating method for picking device |
JP2017071033A (en) * | 2015-10-09 | 2017-04-13 | キヤノン株式会社 | Working reference object, working reference object manufacturing method, robot arm adjusting method, vision system, robot apparatus, and indicator member |
JP2018034271A (en) * | 2016-09-01 | 2018-03-08 | アイシン精機株式会社 | Failure factor specification method in carrying-in and -out work of carrying-in and -out device |
WO2018163450A1 (en) * | 2017-03-09 | 2018-09-13 | 三菱電機株式会社 | Robot control device and calibration method |
JP2018158391A (en) * | 2017-03-22 | 2018-10-11 | 株式会社東芝 | Object handling device and calibration method for the same |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112863493A (en) * | 2021-01-14 | 2021-05-28 | 北京天行汇通信息技术有限公司 | Voice data labeling method and device and electronic equipment |
WO2023013698A1 (en) | 2021-08-03 | 2023-02-09 | 京セラ株式会社 | Robot control device, robot control system, and robot control method |
WO2023013056A1 (en) * | 2021-08-06 | 2023-02-09 | 株式会社Fuji | Workpiece picking method and workpiece picking system |
CN116985182A (en) * | 2023-05-31 | 2023-11-03 | 齐鲁工业大学(山东省科学院) | Four-axis robot work piece wobble plate system based on machine vision |
Also Published As
Publication number | Publication date |
---|---|
JP7281910B2 (en) | 2023-05-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7281910B2 (en) | robot control system | |
CN109996653B (en) | Working position correction method and working robot | |
JP7153085B2 (en) | ROBOT CALIBRATION SYSTEM AND ROBOT CALIBRATION METHOD | |
US9050728B2 (en) | Apparatus and method for measuring tool center point position of robot | |
US10035268B2 (en) | Measurement system used for calibrating mechanical parameters of robot | |
JP6429473B2 (en) | Robot system, robot system calibration method, program, and computer-readable recording medium | |
JP5561260B2 (en) | Robot system and imaging method | |
JP4267005B2 (en) | Measuring apparatus and calibration method | |
JP6468741B2 (en) | Robot system and robot system calibration method | |
US11173608B2 (en) | Work robot and work position correction method | |
JP2005138223A (en) | Positional data correcting device for robot | |
JPWO2018043525A1 (en) | Robot system, robot system control apparatus, and robot system control method | |
JP2007122705A (en) | Welding teaching point correction system and calibration method | |
EP3895855A1 (en) | Robot control system and robot control method | |
JP6568172B2 (en) | ROBOT CONTROL DEVICE, MEASUREMENT SYSTEM, AND CALIBRATION METHOD FOR CALIBRATION | |
JP2009125839A (en) | Weld teaching position correction system | |
WO2022195944A1 (en) | Robot system, and control method for robot system | |
CN113905859B (en) | Robot control system and robot control method | |
CN116803627A (en) | Method and device for detecting object with correction function | |
JPH06206186A (en) | Calibration of handling precision of horizontal articulated type robot equipped with visual sensor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220114 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220114 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221026 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221130 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20230124 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230322 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230404 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230417 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230501 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230516 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7281910 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |