JP4741691B2 - Robot system with robot abnormality monitoring function - Google Patents

Robot system with robot abnormality monitoring function Download PDF

Info

Publication number
JP4741691B2
JP4741691B2 JP2009142756A JP2009142756A JP4741691B2 JP 4741691 B2 JP4741691 B2 JP 4741691B2 JP 2009142756 A JP2009142756 A JP 2009142756A JP 2009142756 A JP2009142756 A JP 2009142756A JP 4741691 B2 JP4741691 B2 JP 4741691B2
Authority
JP
Japan
Prior art keywords
robot
unit
visual sensor
robot mechanism
mechanism unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009142756A
Other languages
Japanese (ja)
Other versions
JP2010284781A (en
Inventor
良樹 橋本
智樹 大家
哲郎 松平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
FANUC Corp
Original Assignee
FANUC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by FANUC Corp filed Critical FANUC Corp
Priority to JP2009142756A priority Critical patent/JP4741691B2/en
Priority to DE102010023736.1A priority patent/DE102010023736B4/en
Publication of JP2010284781A publication Critical patent/JP2010284781A/en
Application granted granted Critical
Publication of JP4741691B2 publication Critical patent/JP4741691B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/37189Camera with image processing emulates encoder output
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/37546Compare two positions measured with different methods, alarm if difference too high

Description

本発明は、ロボットの異常監視機能を備えたロボットシステムに関し、特には、エンコーダを有するサーボモータにより構成される多関節ロボットにおいて、該エンコーダに異常が生じた場合でもその異常を検知できるロボットシステムに関する。   The present invention relates to a robot system having a robot abnormality monitoring function, and more particularly, to a robot system capable of detecting an abnormality in an articulated robot constituted by a servo motor having an encoder even when the abnormality occurs in the encoder. .

従来、サーボモータにより構成される多関節ロボットでは、モータ内部に単体のエンコーダを設け、指令値と、エンコーダからのフィードバック値を処理した各軸の位置や速度とを用いて制御を行っていた。また、指令値とフィードバック値との差が許容値を超える場合には異常として検知し、ロボットの動作を停止させるようにしていた。   Conventionally, in an articulated robot constituted by a servo motor, a single encoder is provided inside the motor, and control is performed using the command value and the position and speed of each axis that has processed the feedback value from the encoder. Further, when the difference between the command value and the feedback value exceeds the allowable value, it is detected as an abnormality and the operation of the robot is stopped.

エンコーダ出力異常等のエンコーダ自体の故障や、エンコーダと制御装置等との通信に関する異常を検知することは、ロボットの安全な制御のために重要である。そのような技術として、例えば特許文献1には、各軸にアブソリュートエンコーダとインクリメントエンコーダを設置し、それぞれの手段により得られた位置情報を比較して異常を判定する異常検出装置が開示されている。また特許文献2には、エンコーダとの通信経路を二重にすることにより、安全性の向上が図られた安全装置が開示されている。   It is important for safe control of the robot to detect a failure of the encoder itself such as an encoder output abnormality or an abnormality related to communication between the encoder and the control device. As such a technique, for example, Patent Document 1 discloses an abnormality detection device in which an absolute encoder and an increment encoder are installed on each axis and an abnormality is determined by comparing position information obtained by each means. . Patent Document 2 discloses a safety device in which safety is improved by doubling a communication path with an encoder.

特開平4−235610号公報JP-A-4-235610 特開平1−199201号公報JP-A-1-199201

上記特許文献に記載の発明では、いずれもエンコーダの故障や異常に対する安全性の向上が図られているが、特許文献1では異なる種類のエンコーダを使用し、特許文献2ではエンコーダとの通信経路を二重にする等、エンコーダに関連する構造が複雑になり、コストアップの要因となる。そこでエンコーダに関連する構造は従来の単純なものを備えつつ、エンコーダの出力や通信に関する異常を確実かつ迅速に検知できる技術が望まれる。   In each of the inventions described in the above-mentioned patent documents, improvement of the safety against an encoder failure or abnormality is achieved. However, in Patent Document 1, different types of encoders are used, and in Patent Document 2, a communication path to the encoder is set. The structure related to the encoder, such as double, becomes complicated, resulting in a cost increase. Therefore, there is a demand for a technique capable of reliably and quickly detecting an abnormality related to the output and communication of the encoder while having a conventional structure related to the encoder.

そこで本発明は、従来は検知できなかったエンコーダの故障又は異常を検知できる異常監視機能を備えたロボットシステムを提供することを目的とする。   Therefore, an object of the present invention is to provide a robot system having an abnormality monitoring function capable of detecting a failure or abnormality of an encoder that could not be detected conventionally.

上記目的を達成するために、請求項1に記載の発明は、ロボット機構部及び該ロボット機構部を制御する制御装置を有し、前記制御装置が、前記ロボット機構部を駆動するモータが有するエンコーダから各軸の位置を示す値又は信号を受信し、各時刻における各軸の位置が所定のロボットプログラムに規定された値となるように指令又は信号をモータに送信して前記モータの制御を行うロボットシステムにおいて、定位置に配置され、図形的特徴が既知である視覚ターゲットと、前記ロボット機構部の1つの可動リンク上に、前記視覚ターゲットをその視野内に捉える位置及び姿勢で搭載された1つの視覚センサと、前記視覚センサにより前記定位置に配置された視覚ターゲットを、所定周期で撮像して取得した画像に対して順次画像処理を実行して、前記視覚センサの画面の中での前記視覚ターゲットの見え方により、前記視覚センサ及び前記視覚ターゲットの空間的な相対位置を算出し、前記視覚センサと常に一定の相対位置関係にある着目点の空間的位置及び移動速度の少なくとも一方を第1計測値として順次求める第1計測部と、前記エンコーダの出力に基づいて、前記着目点の空間的な位置及び移動速度の少なくとも一方を第2計測値として順次求める第2計測部と、前記第1計測値及び前記第2計測値から互いに同時刻のデータをそれぞれ選択し、選択されたデータを比較してその差を求める比較部と、前記比較部により求めた差が予め設定された閾値を越えたときに、エンコーダの故障又は異常としてアラームを出力するアラーム出力部と、を備えた、ロボットシステムを提供する。 In order to achieve the above object, an invention according to claim 1 includes a robot mechanism unit and a control device that controls the robot mechanism unit, and the control device includes an encoder that is included in a motor that drives the robot mechanism unit. A value or signal indicating the position of each axis is received from the controller, and a command or signal is transmitted to the motor so that the position of each axis at each time becomes a value defined in a predetermined robot program, thereby controlling the motor. In a robot system, a visual target arranged at a fixed position and having known graphic features is mounted on a single movable link of the robot mechanism unit at a position and posture for capturing the visual target within its visual field. Image processing is sequentially performed on an image obtained by imaging one visual sensor and a visual target placed at the fixed position by the visual sensor at a predetermined cycle. The spatial relative position of the visual sensor and the visual target is calculated according to how the visual target appears on the screen of the visual sensor, and is always in a fixed relative positional relationship with the visual sensor. A first measurement unit that sequentially obtains at least one of a spatial position and a moving speed of the point of interest as a first measurement value, and at least one of a spatial position and a moving speed of the point of interest based on the output of the encoder A second measurement unit that sequentially obtains two measurement values, a comparison unit that selects data at the same time from the first measurement value and the second measurement value, compares the selected data, and calculates the difference; when the difference obtained by the comparison unit exceeds a preset threshold, with a, an alarm output unit for outputting an alarm as a failure or abnormality of the encoder, the robot cis To provide a beam.

請求項2に記載の発明は、請求項1に記載のロボットシステムにおいて、前記ロボット機構部の作業領域と人間の作業領域とが重なる協調作業領域を予め設定し、前記ロボット機構部が前記協調作業領域内に存在するか否かを検知する検知手段を備え、前記ロボット機構部が前記協調作業領域内に存在するときにのみ前記第1計測値と前記第2計測値との比較を行うようにした、ロボットシステムを提供する。   According to a second aspect of the present invention, in the robot system according to the first aspect, a collaborative work area in which a work area of the robot mechanism unit and a human work area overlap is set in advance, and the robot mechanism unit performs the collaborative work. Detecting means for detecting whether or not it exists in the area, and comparing the first measured value and the second measured value only when the robot mechanism section exists in the cooperative work area. A robot system is provided.

請求項3に記載の発明は、請求項1又は2に記載のロボットシステムにおいて、前記ロボット機構部のブレーキが解除され、かつ該ロボット機構部が一定姿勢を保つように制御が行われている間に、前記第1計測値と前記第2計測値との比較を行うようにした、ロボットシステムを提供する。   According to a third aspect of the present invention, in the robot system according to the first or second aspect, the control is performed so that the brake of the robot mechanism unit is released and the robot mechanism unit maintains a constant posture. In addition, a robot system is provided in which the first measurement value and the second measurement value are compared.

請求項4に記載の発明は、ロボット機構部及び該ロボット機構部を制御する制御装置を有し、前記ロボット機構部を駆動するモータが有するエンコーダの出力により前記モータの制御を行うロボットシステムにおいて、前記ロボット機構部の1つの可動リンク上に搭載された視覚センサと、前記視覚センサにより、前記ロボット機構部の周囲の風景を所定周期で撮像して取得した画像に対して順次画像処理を実行して、前記視覚センサの空間的位置の変動を検知する第1計測部と、前記ロボット機構部の前記エンコーダの出力に基づいて、前記視覚センサと常に一定の相対位置関係にある着目点の空間的位置を順次求める第2計測部と、前記第2計測部により求められた前記着目点の空間的位置から計算された位置変動量が予め設定された閾値以内にあり、かつ前記第1計測部により位置変動が検知されたときにアラームを出力する手段と、を備えた、ロボットシステムを提供する。 The invention according to claim 4 is a robot system that includes a robot mechanism unit and a control device that controls the robot mechanism unit, and controls the motor by an output of an encoder included in a motor that drives the robot mechanism unit. A visual sensor mounted on one movable link of the robot mechanism unit, and image processing is sequentially performed on an image obtained by capturing a landscape around the robot mechanism unit with a predetermined period by the visual sensor. Then, based on the output of the encoder of the first measurement unit that detects the spatial position of the visual sensor and the robot mechanism unit, the spatial point of interest that is always in a fixed relative positional relationship with the visual sensor. a second measurement unit for obtaining position sequentially, position variation amount calculated from the spatial position of the focus point obtained by the second measuring unit is set in advance threshold Nearby, and position variation by the first measuring unit is provided with a means for outputting an alarm when it is detected to provide a robot system.

本発明に係るロボットシステムによれば、ロボットの変動量をエンコーダで計測するとともに、エンコーダ以外の機器である視覚センサでも計測してそれらを比較することにより、従来方法では制御装置が検知できなかった異常又は故障がエンコーダに発生している場合でも、その異常又は故障を制御装置が認識できる。   According to the robot system according to the present invention, the control device cannot be detected by the conventional method by measuring the fluctuation amount of the robot with the encoder and measuring the fluctuation amount with a visual sensor which is a device other than the encoder and comparing them. Even when an abnormality or failure occurs in the encoder, the controller can recognize the abnormality or failure.

本発明を、協調作業領域を有するロボットシステムや、ロボット機構部のブレーキが解除され、かつ該ロボット機構部が一定姿勢を保つように制御されるロボットシステムに適用することにより、作業者の安全をより確実に図ることができる。   By applying the present invention to a robot system having a cooperative work area or a robot system in which the brake of the robot mechanism unit is released and the robot mechanism unit is controlled to maintain a constant posture, This can be achieved more reliably.

視覚センサにより得られたロボット機構部の周囲風景の画像を画像処理することにより、特定の視覚ターゲットを用意することなく、該視覚センサが取り付けられたリンクの位置変動を求め、エンコーダの異常又は故障を検知することができる。   By processing the image of the surrounding landscape of the robot mechanism obtained by the visual sensor, the position variation of the link to which the visual sensor is attached is obtained without preparing a specific visual target, and the encoder malfunctions or fails Can be detected.

本発明に係るロボットシステムの一構成例を示す図である。It is a figure showing an example of 1 composition of a robot system concerning the present invention. 視覚ターゲットを用いた第1の計測例を示す図である。It is a figure which shows the 1st measurement example using a visual target. 視覚ターゲットを用いた第2の計測例を示す図である。It is a figure which shows the 2nd measurement example using a visual target. 視覚ターゲットを用いた第3の計測例を示す図である。It is a figure which shows the 3rd example of a measurement using a visual target. 視覚ターゲットを用いた第4の計測例を示す図である。It is a figure which shows the 4th example of a measurement using a visual target. 比較部における処理の流れの一例を説明する図である。It is a figure explaining an example of the flow of processing in a comparison part. 比較部における処理の流れの他の例を説明する図である。It is a figure explaining the other example of the flow of a process in a comparison part. 視覚センサを用いてロボットの周囲風景を撮像した例を示す図である。It is a figure which shows the example which imaged the surrounding scenery of the robot using the visual sensor.

図1は、本発明の一実施形態に係るロボットシステム10を示す。ロボットシステム10は、多関節のロボット機構部12及びロボット機構部12を制御するロボット制御装置14を有する。ロボット機構部12は、少なくとも1つの可動リンク例えばロボットアームと、各ロボットアームを駆動するサーボモータとを有し、図示例では第1〜第3ロボットアーム16、18、20と、第1〜第3サーボモータ22、24、26とを有する多関節ロボットである。各サーボモータは、自らの位置を検出するエンコーダ(図示例では第1〜第3エンコーダ28、30、32)を有する(多くの場合は内蔵する)。またロボットアームの1つ(通常は最も先端側の第3ロボットアーム20)には、カメラ等の視覚センサ34が、後述するマーカ等の視覚ターゲットを検出又は撮像できる位置及び姿勢で取り付けられる。   FIG. 1 shows a robot system 10 according to an embodiment of the present invention. The robot system 10 includes an articulated robot mechanism unit 12 and a robot control device 14 that controls the robot mechanism unit 12. The robot mechanism unit 12 includes at least one movable link, for example, a robot arm, and a servo motor that drives each robot arm. In the illustrated example, the robot mechanism unit 12 includes first to third robot arms 16, 18, 20, and first to first robot arms. This is an articulated robot having three servo motors 22, 24 and 26. Each servo motor has an encoder (first to third encoders 28, 30, 32 in the illustrated example) for detecting its own position (in many cases, it is built in). Further, a visual sensor 34 such as a camera is attached to one of the robot arms (usually the third robot arm 20 at the most distal end side) at a position and posture where a visual target such as a marker described later can be detected or imaged.

ロボット制御装置14は、第1〜第3サーボモータ22、24、26を制御するモータ制御部36と、視覚センサ34により得られた画像を処理する画像処理部38と、後述する比較処理を行う比較部又は比較器40と、比較部40の処理結果に基づいてアラームを出力するアラーム出力部42とを有する。モータ制御部36は、エンコーダ28、30、32から各サーボモータの位置(各軸の位置)を示す値又は信号を受信し、各時刻における各軸の位置が所定のロボットプログラム等に規定された値となるように指令又は信号を各サーボモータに送信し、各サーボモータを制御する。   The robot control device 14 performs a motor control unit 36 that controls the first to third servo motors 22, 24, 26, an image processing unit 38 that processes an image obtained by the visual sensor 34, and a comparison process that will be described later. A comparison unit or comparator 40 and an alarm output unit 42 that outputs an alarm based on the processing result of the comparison unit 40 are provided. The motor control unit 36 receives a value or signal indicating the position of each servo motor (position of each axis) from the encoders 28, 30, and 32, and the position of each axis at each time is defined by a predetermined robot program or the like. A command or signal is transmitted to each servo motor so as to be a value, and each servo motor is controlled.

本発明の特徴は、周期的に視覚センサにより得られた画像を順次処理することにより、ロボットの空間的位置又は移動速度を算出し、同時に、エンコーダ経由で得られたロボットの空間的位置又は移動速度を算出し、それぞれの差を監視することにある。例えば、6軸ロボットの手首軸に視覚センサが搭載されていた場合、視覚センサ取付位置や、手首先端部分でのそれぞれの手法による空間的位置又は移動速度を比較する。   The feature of the present invention is that the spatial position or movement speed of the robot is calculated by sequentially processing the images obtained by the visual sensor periodically, and at the same time the spatial position or movement of the robot obtained via the encoder. It is to calculate the speed and monitor each difference. For example, when a visual sensor is mounted on the wrist axis of a 6-axis robot, the spatial position or moving speed by the respective methods at the visual sensor mounting position and the wrist tip portion is compared.

視覚センサによる位置検出方法としては、図形的特徴が既知の、定位置に配置された視覚ターゲットを検出し、該視覚センサの画面の中での視覚ターゲットの見え方により、視覚センサ及び視覚ターゲットの空間的な相対位置を算出する。また、視覚センサから一定の相対位置にある着目点についての視覚ターゲットとの空間的な相対位置は、着目点と視覚センサとの相対位置、及び視覚センサと視覚ターゲットとの相対位置の計算により算出できる。これを周期的に計算することにより、視覚センサ、あるいは視覚センサから一定の相対位置にある着目点の移動距離を算出する。ここで、該移動距離を周期的に算出することにより、視覚センサ、あるいは視覚センサから一定の相対位置にある着目点の移動速度を算出することもできる。以下、図2〜図5を用いてその例を説明する。   As a position detection method using a visual sensor, a visual target arranged in a fixed position with known graphic features is detected, and the visual sensor and the visual target are detected depending on how the visual target appears on the screen of the visual sensor. The spatial relative position is calculated. The spatial relative position of the target point at a certain relative position from the visual sensor with respect to the visual target is calculated by calculating the relative position of the target point and the visual sensor and the relative position of the visual sensor and the visual target. it can. By calculating this periodically, the moving distance of the visual point or the point of interest at a certain relative position from the visual sensor is calculated. Here, by calculating the moving distance periodically, it is also possible to calculate the moving speed of the visual point or the point of interest at a certain relative position from the visual sensor. Hereinafter, the example is demonstrated using FIGS.

図2は、上述の視覚センサ34が撮像可能な空間内の定位置に配置されたターゲット(ここではマーカ44)を用いた第1の計測例を説明する図である。図示例のマーカ44は円に直径を1本付加したものであるが、適用可能なマーカはこのような形状に限られない。図2(a)及び(b)は、それぞれ時刻T1及びT2において視覚センサ34によりマーカ44を撮像して得られた画像を44a及び44bを示している。先ず図2(a)に示すように、上述の制御装置14の画像処理部38は、所定の原点Oからのマーカ画像44aのX方向の最短距離X1及びY方向の最短距離Y1、並びにマーカ画像44aのX方向長さα1及びY方向長さβ1を算出し、時刻T1におけるパラメータとして適当なメモリ等(図示せず)に記憶する。   FIG. 2 is a diagram for explaining a first measurement example using a target (here, a marker 44) arranged at a fixed position in a space where the above-described visual sensor 34 can capture an image. The marker 44 in the illustrated example is obtained by adding one diameter to a circle, but applicable markers are not limited to such a shape. FIGS. 2A and 2B show images 44a and 44b obtained by imaging the marker 44 by the visual sensor 34 at times T1 and T2, respectively. First, as shown in FIG. 2A, the image processing unit 38 of the control device 14 described above performs the shortest distance X1 in the X direction and the shortest distance Y1 in the Y direction of the marker image 44a from the predetermined origin O, and the marker image. The X direction length α1 and the Y direction length β1 of 44a are calculated and stored in a suitable memory or the like (not shown) as parameters at time T1.

次に図2(b)に示すように、画像処理部38は、所定の原点Oとマーカ画像44bとのX方向の最短距離X2及びY方向の最短距離Y2、並びにマーカ画像44bのX方向長さα2及びY方向長さβ2を算出し、時刻T2におけるパラメータとして適当なメモリ等(図示せず)に記憶する。上記パラメータにより、カメラ34と常に一定の相対位置関係にあるロボットの着目点の空間的位置及び移動速度を算出することができる。得られた空間的位置及び移動速度も、メモリ等に記憶可能である。具体的算出方法については、周知の手法が適用可能であるので詳細な説明は省略するが、上記パラメータを全て使用する必要はなく、またマーカ画像の位置又は形状を表す他のパラメータを用いてもよい。   Next, as shown in FIG. 2B, the image processing unit 38 includes the shortest distance X2 in the X direction between the predetermined origin O and the marker image 44b, the shortest distance Y2 in the Y direction, and the length in the X direction of the marker image 44b. Α2 and Y-direction length β2 are calculated and stored in a suitable memory or the like (not shown) as parameters at time T2. With the above parameters, it is possible to calculate the spatial position and moving speed of the point of interest of the robot that is always in a certain relative positional relationship with the camera 34. The obtained spatial position and moving speed can also be stored in a memory or the like. As for the specific calculation method, since a well-known method can be applied, detailed description is omitted, but it is not necessary to use all the above parameters, and other parameters representing the position or shape of the marker image may be used. Good.

図3は、視覚センサ34が撮像可能な空間内の定位置に配置されたターゲット(ここではマーカ44及び46)を用いた第2の計測例を説明する図である。図示例のマーカ46は互いに直交する直径を2本付加した円形のものであるが、適用可能なマーカはこのような形状に限られない。図3(a)及び(b)は、それぞれ時刻T1及びT2において視覚センサ34によりマーカ44及び46を撮像して得られた画像を44a及び46a、並びに44b及び46bを示している。先ず図3(a)に示すように、上述の制御装置14の画像処理部38は、マーカ画像44aの代表位置(例えば重心)とマーカ画像46aの代表位置(例えば重心)とのX方向の距離A1及びY方向の距離B1、並びにマーカ画像44a及び46aのX方向長さα1、γ1及びY方向長さβ1、δ1を算出し、時刻T1におけるパラメータとして適当なメモリ等(図示せず)に記憶する。   FIG. 3 is a diagram for explaining a second measurement example using targets (here, markers 44 and 46) arranged at fixed positions in a space where the visual sensor 34 can capture images. The marker 46 in the illustrated example has a circular shape with two diameters orthogonal to each other, but applicable markers are not limited to such shapes. FIGS. 3A and 3B show images 44a and 46a and 44b and 46b obtained by imaging the markers 44 and 46 by the visual sensor 34 at times T1 and T2, respectively. First, as shown in FIG. 3A, the image processing unit 38 of the control device 14 described above is the distance in the X direction between the representative position (for example, the center of gravity) of the marker image 44a and the representative position (for example, the center of gravity) of the marker image 46a. The distance B1 in the A1 and Y directions and the X-direction lengths α1, γ1 and the Y-direction lengths β1, δ1 of the marker images 44a and 46a are calculated and stored in a suitable memory or the like (not shown) as parameters at the time T1. To do.

次に図3(b)に示すように、画像処理部38は、マーカ画像44bの代表位置(例えば重心)とマーカ画像46bの代表位置(例えば重心)とのX方向の距離A2及びY方向の距離B2、並びにマーカ画像44b及び46bのX方向長さα2、γ2及びY方向長さβ2、δ2を算出し、時刻T2におけるパラメータとして適当なメモリ等(図示せず)に記憶する。上記パラメータにより、カメラ34と常に一定の相対位置関係にあるロボットの着目点(例えばカメラ34が固定されている第3ロボットアームの一部分)の空間的位置及び移動速度を算出することができる。得られた空間的位置及び移動速度も、メモリ等に記憶可能である。具体的算出方法については、周知の手法が適用可能であるので詳細な説明は省略するが、上記パラメータを全て使用する必要はなく、またマーカ画像の位置又は形状を表す他のパラメータを用いてもよい。   Next, as illustrated in FIG. 3B, the image processing unit 38 includes the distance A2 in the X direction and the Y direction between the representative position (for example, the center of gravity) of the marker image 44b and the representative position (for example, the center of gravity) of the marker image 46b. The distance B2 and the X-direction lengths α2 and γ2 and the Y-direction lengths β2 and δ2 of the marker images 44b and 46b are calculated and stored in a suitable memory or the like (not shown) as parameters at time T2. Based on the above parameters, it is possible to calculate the spatial position and moving speed of the target point of the robot (for example, a part of the third robot arm to which the camera 34 is fixed) that is always in a fixed relative positional relationship with the camera 34. The obtained spatial position and moving speed can also be stored in a memory or the like. As for the specific calculation method, since a well-known method can be applied, detailed description is omitted, but it is not necessary to use all the above parameters, and other parameters representing the position or shape of the marker image may be used. Good.

図4は、上述の視覚センサ34が撮像可能な空間内の定位置に配置されたマーカ(ここでは2辺が曲線の矩形形状48)を用いた第3の計測例を説明する図である。適用可能なターゲットはこのような形状に限られない。図4(a)及び(b)は、それぞれ時刻T1及びT2において視覚センサ34によりマーカ48(図1)を撮像して得られた画像を48a及び48bを示している。先ず図4(a)に示すように、上述の制御装置14の画像処理部38は、所定の原点Oからのマーカ画像48aのX方向の最短距離X1及びY方向の最短距離Y1、マーカ画像48aのX方向長さα1、並びにマーカ画像48aの所定軸(図示例では長手軸50a)の傾斜角度θ1を算出し、時刻T1におけるパラメータとして適当なメモリ等(図示せず)に記憶する。   FIG. 4 is a diagram for explaining a third measurement example using a marker (here, a rectangular shape 48 with two sides curved) arranged at a fixed position in a space where the above-described visual sensor 34 can capture an image. The applicable target is not limited to such a shape. FIGS. 4A and 4B show images 48a and 48b obtained by imaging the marker 48 (FIG. 1) with the visual sensor 34 at times T1 and T2, respectively. First, as shown in FIG. 4A, the image processing unit 38 of the above-described control device 14 includes the shortest distance X1 in the X direction and the shortest distance Y1 in the Y direction from the predetermined origin O, and the marker image 48a. And the inclination angle θ1 of a predetermined axis (longitudinal axis 50a in the illustrated example) of the marker image 48a are calculated and stored as parameters at time T1 in an appropriate memory or the like (not shown).

次に図4(b)に示すように、画像処理部38は、所定の原点Oからのマーカ画像48bのX方向の最短距離X2及びY方向の最短距離Y2、マーカ画像48bのX方向長さα2、並びにマーカ画像48bの所定軸(図示例では長手軸50b)の傾斜角度θ2を算出し、時刻T2におけるパラメータとして適当なメモリ等(図示せず)に記憶する。上記パラメータにより、カメラ34と常に一定の相対位置関係にあるロボットの着目点(例えばカメラ34が固定されている第3ロボットアームの一部分)の空間的位置及び移動速度を算出することができる。得られた空間的位置及び移動速度も、メモリ等に記憶可能である。具体的算出方法については、周知の手法が適用可能であるので詳細な説明は省略するが、上記パラメータを全て使用する必要はなく、またマーカ画像の位置又は形状を表す他のパラメータを用いてもよい。   Next, as illustrated in FIG. 4B, the image processing unit 38 includes the shortest distance X2 in the X direction and the shortest distance Y2 in the Y direction from the predetermined origin O, and the length in the X direction of the marker image 48b. α2 and the inclination angle θ2 of a predetermined axis (longitudinal axis 50b in the illustrated example) of the marker image 48b are calculated and stored in a suitable memory or the like (not shown) as a parameter at time T2. Based on the above parameters, it is possible to calculate the spatial position and moving speed of the target point of the robot (for example, a part of the third robot arm to which the camera 34 is fixed) that is always in a fixed relative positional relationship with the camera 34. The obtained spatial position and moving speed can also be stored in a memory or the like. As for the specific calculation method, since a well-known method can be applied, detailed description is omitted, but it is not necessary to use all the above parameters, and other parameters representing the position or shape of the marker image may be used. Good.

図5は、視覚センサ34が撮像可能な空間内の定位置に配置されたターゲット(ここではマーカ44、46及び48)を用いた第4の計測例を説明する図である。適用可能なマーカはこのような形状に限られない。図5(a)及び(b)は、それぞれ時刻T1及びT2において視覚センサ34によりマーカ44、46及び48を撮像して得られた画像を44a、46a及び48a、並びに44b、46b及び48bを示している。先ず図5(a)に示すように、上述の制御装置14の画像処理部38は、マーカ画像44aの代表位置(例えば重心)、マーカ画像46aの代表位置(例えば重心)及びマーカ画像48aの代表位置(例えば重心)の相互間の距離A1、B1及びC1、線分A1及びC1がなす角度α1、並びに線分A1及びB1がなす角度β1を算出し、時刻T1におけるパラメータとして適当なメモリ等(図示せず)に記憶する。   FIG. 5 is a diagram for explaining a fourth measurement example using targets (here, markers 44, 46, and 48) arranged at fixed positions in a space where the visual sensor 34 can capture images. The applicable marker is not limited to such a shape. FIGS. 5A and 5B show images 44a, 46a and 48a, and 44b, 46b and 48b obtained by imaging the markers 44, 46 and 48 by the visual sensor 34 at times T1 and T2, respectively. ing. First, as shown in FIG. 5A, the image processing unit 38 of the control device 14 described above represents the representative position (for example, the center of gravity) of the marker image 44a, the representative position (for example, the center of gravity) of the marker image 46a, and the representative of the marker image 48a. The distances A1, B1 and C1 between the positions (for example, the center of gravity), the angle α1 formed by the line segments A1 and C1, and the angle β1 formed by the line segments A1 and B1 are calculated, and an appropriate memory or the like as a parameter at the time T1 ( (Not shown).

次に図5(b)に示すように、画像処理部38は、マーカ画像44bの代表位置(例えば重心)、マーカ画像46bの代表位置(例えば重心)及びマーカ画像48bの代表位置(例えば重心)の相互間の距離A2、B2及びC2、線分A2及びC2がなす角度α2、並びに線分A2及びB2がなす角度β2を算出し、時刻T2におけるパラメータとして適当なメモリ等(図示せず)に記憶する。上記パラメータにより、カメラ34と常に一定の相対位置関係にあるロボットの着目点(例えばカメラ34が固定されている第3ロボットアームの一部分)の空間的位置及び移動速度を算出することができる。得られた空間的位置及び移動速度も、メモリ等に記憶可能である。具体的算出方法については、周知の手法が適用可能であるので詳細な説明は省略するが、上記パラメータを全て使用する必要はなく、またマーカ画像の位置又は形状を表す他のパラメータを用いてもよい。   Next, as illustrated in FIG. 5B, the image processing unit 38 represents the representative position (for example, the center of gravity) of the marker image 44b, the representative position (for example, the center of gravity) of the marker image 46b, and the representative position (for example, the center of gravity) of the marker image 48b. Distances A2, B2 and C2, angle A2 formed by line segments A2 and C2, and angle β2 formed by line segments A2 and B2 are calculated and stored in an appropriate memory (not shown) as a parameter at time T2. Remember. Based on the above parameters, it is possible to calculate the spatial position and moving speed of the target point of the robot (for example, a part of the third robot arm to which the camera 34 is fixed) that is always in a fixed relative positional relationship with the camera 34. The obtained spatial position and moving speed can also be stored in a memory or the like. As for the specific calculation method, since a well-known method can be applied, detailed description is omitted, but it is not necessary to use all the above parameters, and other parameters representing the position or shape of the marker image may be used. Good.

画像処理部38は、図2〜図5に例示したように、カメラ34により定位置に配置された視覚ターゲット44、46及び48の少なくとも1つを、所定周期で撮像して取得した画像に対して順次画像処理を実行して、カメラ34と常に一定の相対位置関係にある着目点の空間的位置及び移動速度の少なくとも一方を第1計測値として順次求め、その結果を比較部40に送信する。   As illustrated in FIGS. 2 to 5, the image processing unit 38 captures at least one of the visual targets 44, 46, and 48 disposed at a fixed position by the camera 34 with respect to an image acquired by a predetermined period. The image processing is sequentially performed, and at least one of the spatial position and the moving speed of the point of interest always having a fixed relative positional relationship with the camera 34 is sequentially obtained as the first measurement value, and the result is transmitted to the comparison unit 40. .

なお着目点の具体例としては、カメラ34が固定されている第3ロボットアーム20の一部分、ツール先端点(TCP;Tool Center Point)、カメラ34を第3ロボットアーム20に固定するブラケット等の固定治具(図示せず)の一部分等が挙げられるが、カメラ34と常に一定の相対位置関係にある(各軸の動作によってカメラとの相対位置関係が変化しない)ものであればどのようなものを用いてもよい。また図2〜図5を用いて説明した視覚センサによる位置検出は例示であり、他にも種々の形状のマーカや立体形状が使用できる。   Specific examples of the point of interest include fixing a part of the third robot arm 20 to which the camera 34 is fixed, a tool tip point (TCP), a bracket for fixing the camera 34 to the third robot arm 20, and the like. Examples include a part of a jig (not shown), etc., as long as it is always in a fixed relative positional relationship with the camera 34 (the relative positional relationship with the camera is not changed by the operation of each axis). May be used. Further, the position detection by the visual sensor described with reference to FIGS. 2 to 5 is an example, and various other marker shapes and three-dimensional shapes can be used.

一方制御装置14のモータ制御部36は、上述のエンコーダの出力に基づいて、上記着目点の空間的な位置及び移動速度の少なくとも一方を第2計測値として順次求め、その結果を比較部40に送信する。モータ制御部36は、所定のサンプリング周期毎に各エンコーダの出力を取り込んで各時刻における各軸の位置及び速度を算出する。この算出結果と、各軸を構成するロボットアーム16、18、20のアーム長等のロボット各部の寸法及び該ロボット各部と上記着目点との位置関係とから、上記着目点の空間的位置が求められる。また、該空間的位置を周期的に算出することで移動速度が得られる。   On the other hand, the motor control unit 36 of the control device 14 sequentially obtains at least one of the spatial position and the moving speed of the target point as the second measurement value based on the output of the encoder, and the result is sent to the comparison unit 40. Send. The motor control unit 36 takes in the output of each encoder at every predetermined sampling period and calculates the position and speed of each axis at each time. From this calculation result, the dimensions of the robot parts such as the arm lengths of the robot arms 16, 18, and 20 constituting each axis, and the positional relationship between the robot parts and the point of interest, the spatial position of the point of interest is obtained. It is done. Further, the moving speed can be obtained by periodically calculating the spatial position.

制御装置14の比較部40は、図2〜図5に例示した視覚センサを用いた方法により得られたロボットの着目点の空間位置又は移動速度と、エンコーダにより得られた該着目点の空間位置又は移動速度とを比較する。位置や速度の比較のためには、視覚センサでの画像取り込みのタイミングとエンコーダ出力の取り込みのタイミングは同時である必要があるが、本願明細書で用いる「同時」又は「同時刻」は、厳密な同時に加え、視覚センサでの画像取り込みのタイミングとエンコーダ出力の取り込みのタイミングとが、本願発明の実施に際し実質同時とみなして問題のない所定の時間差以内である場合を含むものとする。   The comparison unit 40 of the control device 14 includes the spatial position or moving speed of the target point of the robot obtained by the method using the visual sensor illustrated in FIGS. 2 to 5 and the spatial position of the target point obtained by the encoder. Or compare the moving speed. For comparison of position and speed, the timing of image capture by the visual sensor and the timing of capture of the encoder output need to be the same, but “simultaneous” or “same time” used in this specification is strictly In addition to the above, it is assumed that the timing of image capture by the visual sensor and the timing of capture of the encoder output are within a predetermined time difference that is regarded as substantially simultaneous in the implementation of the present invention.

図6及び図7は、視覚センサによる着目点の算出位置又は算出速度と、エンコーダによる該着目点の算出位置又は算出速度とを、同時刻で比較する処理の流れを説明する図である。先ず図6に示す処理では、モータ制御部36及び画像処理部38が、それぞれエンコーダ及び視覚センサによるデータ取り込み時間と、各取り込み時間において算出された着目点の位置及び速度の少なくとも一方とを含むデータを比較部40に送信する。より具体的に言えば、モータ制御部36ではエンコーダからの出力に基づいて時刻Ti(i=1,2,..)における着目点の位置及び速度の少なくとも一方を第2計測値として比較器40に送信し、一方画像処理部38では視覚センサからの出力に基づいて時刻Tj(j=1,2,..)における着目点の位置及び速度の少なくとも一方を第1計測値として比較器40に送信する。すなわち本実施形態では、モータ制御部36及び画像処理部38がそれぞれ、第2計測値を求める第2計測部及び第1計測値を求める第1計測部として機能する。   6 and 7 are diagrams for explaining the flow of processing for comparing the calculation position or calculation speed of the target point by the visual sensor and the calculation position or calculation speed of the target point by the encoder at the same time. First, in the process shown in FIG. 6, the motor control unit 36 and the image processing unit 38 include data including data acquisition times by the encoder and the visual sensor, and at least one of the position and speed of the point of interest calculated at each acquisition time. Is transmitted to the comparison unit 40. More specifically, in the motor control unit 36, based on the output from the encoder, the comparator 40 uses at least one of the position and speed of the point of interest at time Ti (i = 1, 2,...) As the second measured value. On the other hand, in the image processing unit 38, based on the output from the visual sensor, at least one of the position and speed of the point of interest at the time Tj (j = 1, 2,...) Is used as the first measurement value to the comparator 40. Send. That is, in the present embodiment, the motor control unit 36 and the image processing unit 38 function as a second measurement unit that obtains the second measurement value and a first measurement unit that obtains the first measurement value, respectively.

比較部40は、エンコーダによる取り込み時間(Ti)と視覚センサによる取り込み時間(Tj)との差が所定の時間差以内となるデータを選択し、視覚センサによる着目点の位置及び速度の少なくとも一方(第1の計測値)と、エンコーダによる着目点の位置及び速度の少なくとも一方(第2の計測値)を比較する。ここで、比較された位置又は速度の差が所定の閾値を超えた場合(すなわちエンコーダによる計測値と視覚センサによる計測値との間に有意差がある)は、エンコーダ本体の故障やエンコーダとの通信異常等の何らかの異常が生じていると考えられるので、比較部40はアラーム出力部42にアラームを発する指令又は信号を送り、アラーム出力部42がアラームを発する。またアラーム発生に伴い、制御装置14はロボット非常停止等の適切な処置をとることができる。   The comparison unit 40 selects data in which the difference between the capture time (Ti) by the encoder and the capture time (Tj) by the visual sensor is within a predetermined time difference, and at least one of the position and speed of the point of interest by the visual sensor (first) 1) and at least one of the position and speed of the point of interest by the encoder (second measurement value). Here, if the compared position or speed difference exceeds a predetermined threshold (that is, there is a significant difference between the measured value by the encoder and the measured value by the visual sensor) Since it is considered that some abnormality such as a communication abnormality has occurred, the comparison unit 40 sends a command or signal for issuing an alarm to the alarm output unit 42, and the alarm output unit 42 issues an alarm. Further, with the occurrence of the alarm, the control device 14 can take appropriate measures such as a robot emergency stop.

図7は、図6に示した場合において取り込み時間を比較して同時刻か否かを判定する処理の代わりに、エンコーダ及び視覚センサによるデータ取り込み時間が予め取り込み信号等により同時刻に規定されている場合の処理を示す図である。この場合、取り込み信号等によってエンコーダ及び視覚センサによるデータ取り込み時刻が同時刻Tになることが保証されるので、比較部40では単に同時刻Tでのデータを比較すればよい。以後の処理は、図6の場合と同様に、比較された位置又は速度の差が所定の閾値を超えた場合は、エンコーダに何らかの異常が生じていると考えられるので、比較部40はアラーム出力部42にアラームを発する指令又は信号を送り、アラーム出力部42がアラームを発する。またアラーム発生に伴い、制御装置14はロボット非常停止等の適切な処置をとることができる。   In FIG. 7, instead of the process of comparing the capture times in the case shown in FIG. 6 to determine whether the time is the same time, the data capture time by the encoder and the visual sensor is defined in advance by the capture signal or the like at the same time. It is a figure which shows a process in the case of being. In this case, since it is ensured that the data acquisition time by the encoder and the visual sensor becomes the same time T by the acquisition signal or the like, the comparison unit 40 may simply compare the data at the same time T. In the subsequent processing, as in the case of FIG. 6, when the compared position or speed difference exceeds a predetermined threshold value, it is considered that some abnormality has occurred in the encoder. A command or signal for issuing an alarm is sent to the unit 42, and the alarm output unit 42 issues an alarm. Further, with the occurrence of the alarm, the control device 14 can take appropriate measures such as a robot emergency stop.

本願発明の好適な適用例としては、人間とロボットとが協調作業を行うロボットシステムが挙げられる。このようなシステムでは、人間の安全を確保するために、ロボット機構部の作業領域と人間の作業領域とが重なる協調作業領域(すなわち人間とロボットの双方が進入し得る領域)にロボットが存在していることを検知するエリアセンサ、近接センサ、監視カメラ等の検知手段を設け、該検知手段が協調作業領域内のロボットの存在を検知したときにその旨を制御装置に送信し、制御装置は協調作業領域内にロボットが存在しているときにのみ、上述のエンコーダ及び視覚センサによる着目点の位置又は速度の同時計測・比較を行うことができる。   As a preferred application example of the present invention, there is a robot system in which a human and a robot collaborate. In such a system, in order to ensure human safety, the robot exists in a collaborative work area where the work area of the robot mechanism unit and the human work area overlap (that is, an area where both the human and the robot can enter). Detection means such as an area sensor, a proximity sensor, a surveillance camera, etc. that detect the presence of a robot in the cooperative work area is transmitted to the control device when the detection device detects the presence of a robot in the cooperative work area. Only when the robot is present in the cooperative work area, simultaneous measurement / comparison of the position or speed of the point of interest by the encoder and the visual sensor described above can be performed.

本願発明の他の好適な適用例としては、視覚センサがロボットアームに取り付けられたロボットシステムにおいて、ロボット機構部がブレーキを用いないで静止している場合が挙げられる。すなわち、ロボット機構部のブレーキが解除されかつロボット機構部が一定姿勢を保つような制御が行われている場合にも、第1の計測値と第2の計測値とを比較することにより、実際にはロボットが動いているにも関わらずエンコーダ異常によってロボットが静止していると判断されてしまうことを防止でき、作業者の安全等の確保に有効である。   As another preferred application example of the present invention, in a robot system in which a visual sensor is attached to a robot arm, the robot mechanism unit is stationary without using a brake. That is, even when control is performed so that the brake of the robot mechanism unit is released and the robot mechanism unit maintains a constant posture, the actual measurement is performed by comparing the first measurement value with the second measurement value. In this case, it is possible to prevent the robot from being determined to be stationary due to an encoder error even though the robot is moving, which is effective in ensuring the safety of the operator.

図8は、視覚センサがロボットアームに取り付けられたロボットシステムにおいて、周期的に撮影した任意の画像(例えばロボット機構部の周囲風景)について輪郭抽出などの画像処理を行った場合を説明する図である。例えば視覚センサにより時刻T1において図8(a)に示すような画像52が得られ、次に時刻T2において図8(b)の実線54で示すような画像が得られた場合、2つの画像の重ね合わせ処理等を行うことにより、カメラ位置の変動の有無が検出できる。図示例では、図8(b)からわかるように、時刻T1からT2までの間に、画像位置が点線56(図8(a)の実線50に相当)から実線54に(上方に)シフトしているので、カメラ位置の変動(該カメラが搭載されているロボットアームの変動)があったものと判断できる。このとき、時刻T1からT2までの間に、エンコーダ出力によるロボット位置の変動が確認されなかった場合、エンコーダの故障又は異常と認識しアラームを出力する。   FIG. 8 is a diagram for explaining a case where image processing such as contour extraction is performed on an arbitrary image (for example, a landscape surrounding the robot mechanism) taken periodically in a robot system in which a visual sensor is attached to a robot arm. is there. For example, when an image 52 as shown in FIG. 8A is obtained by a visual sensor at time T1, and then an image as shown by a solid line 54 in FIG. 8B is obtained at time T2, two images are displayed. By performing superimposition processing or the like, it is possible to detect whether the camera position has changed. In the illustrated example, as can be seen from FIG. 8B, the image position is shifted from the dotted line 56 (corresponding to the solid line 50 in FIG. 8A) to the solid line 54 (upward) from time T1 to T2. Therefore, it can be determined that there has been a change in the camera position (a change in the robot arm on which the camera is mounted). At this time, if the change in the robot position due to the encoder output is not confirmed between time T1 and time T2, it recognizes that the encoder is malfunctioning or abnormal and outputs an alarm.

本発明に係るロボットシステムは、従来技術におけるエンコーダ数やエンコーダ通信形態を変更せずに、ロボットに搭載された視覚センサで得られた画像を処理し、この画像処理結果に基づいてロボットの位置や速度を算出し、エンコーダにより算出されたロボットの位置や速度と比較する。ここで、エンコーダが故障し、正確なエンコーダ情報が得られなくなった場合、それぞれの手法での算出値間に有意な差が生じることになるので、その差が許容値を超えた場合にはエンコーダの異常として検知することにより、従来では検知できなかった故障を認識することが可能となる。   The robot system according to the present invention processes an image obtained by a visual sensor mounted on the robot without changing the number of encoders and the encoder communication form in the prior art, and based on the image processing result, The speed is calculated and compared with the position and speed of the robot calculated by the encoder. Here, if the encoder breaks down and accurate encoder information cannot be obtained, there will be a significant difference between the calculated values of each method. If the difference exceeds the allowable value, the encoder By detecting this as an abnormality, it becomes possible to recognize a failure that could not be detected in the past.

10 ロボットシステム
12 ロボット(機構部)
14 制御装置
16、18、20 ロボットアーム
22、24、26 サーボモータ
28、30、32 エンコーダ
34 視覚センサ
36 モータ制御部
38 画像処理部
40 比較部
42 アラーム出力部
44、46、48 マーカ
10 Robot system 12 Robot (mechanism)
DESCRIPTION OF SYMBOLS 14 Control apparatus 16, 18, 20 Robot arm 22, 24, 26 Servo motor 28, 30, 32 Encoder 34 Visual sensor 36 Motor control part 38 Image processing part 40 Comparison part 42 Alarm output part 44, 46, 48 Marker

Claims (4)

ロボット機構部及び該ロボット機構部を制御する制御装置を有し、前記制御装置が、前記ロボット機構部を駆動するモータが有するエンコーダから各軸の位置を示す値又は信号を受信し、各時刻における各軸の位置が所定のロボットプログラムに規定された値となるように指令又は信号をモータに送信して前記モータの制御を行うロボットシステムにおいて、
定位置に配置され、図形的特徴が既知である視覚ターゲットと、
前記ロボット機構部の1つの可動リンク上に、前記視覚ターゲットをその視野内に捉える位置及び姿勢で搭載された1つの視覚センサと、
前記視覚センサにより前記定位置に配置された視覚ターゲットを、所定周期で撮像して取得した画像に対して順次画像処理を実行して、前記視覚センサの画面の中での前記視覚ターゲットの見え方により、前記視覚センサ及び前記視覚ターゲットの空間的な相対位置を算出し、前記視覚センサと常に一定の相対位置関係にある着目点の空間的位置及び移動速度の少なくとも一方を第1計測値として順次求める第1計測部と、
前記エンコーダの出力に基づいて、前記着目点の空間的な位置及び移動速度の少なくとも一方を第2計測値として順次求める第2計測部と、
前記第1計測値及び前記第2計測値から互いに同時刻のデータをそれぞれ選択し、選択されたデータを比較してその差を求める比較部と、
前記比較部により求めた差が予め設定された閾値を越えたときに、エンコーダの故障又は異常としてアラームを出力するアラーム出力部と、
を備えた、ロボットシステム。
A robot mechanism unit and a control device for controlling the robot mechanism unit, wherein the control device receives a value or signal indicating the position of each axis from an encoder included in a motor that drives the robot mechanism unit, and at each time In the robot system for controlling the motor by transmitting a command or signal to the motor so that the position of each axis becomes a value defined in a predetermined robot program ,
A visual target placed in a fixed position and having known graphic features;
One visual sensor mounted on one movable link of the robot mechanism unit at a position and posture for capturing the visual target within its visual field;
How the visual target is seen on the screen of the visual sensor by sequentially performing image processing on an image acquired by imaging the visual target placed at the fixed position by the visual sensor at a predetermined cycle. To calculate a spatial relative position between the visual sensor and the visual target, and at least one of a spatial position and a moving speed of a point of interest that is always in a fixed relative positional relationship with the visual sensor is sequentially set as a first measurement value. A first measuring unit to be obtained;
A second measurement unit for sequentially obtaining at least one of a spatial position and a moving speed of the point of interest as a second measurement value based on the output of the encoder;
A comparison unit that selects data at the same time from the first measurement value and the second measurement value, compares the selected data, and calculates the difference;
An alarm output unit that outputs an alarm as a failure or abnormality of the encoder when the difference obtained by the comparison unit exceeds a preset threshold; and
Robot system equipped with.
前記ロボット機構部の作業領域と人間の作業領域とが重なる協調作業領域を予め設定し、前記ロボット機構部が前記協調作業領域内に存在するか否かを検知する検知手段を備え、前記ロボット機構部が前記協調作業領域内に存在するときにのみ前記第1計測値と前記第2計測値との比較を行うようにした、請求項1に記載のロボットシステム。   The robot mechanism includes detection means for presetting a collaborative work area where a work area of the robot mechanism unit and a human work area overlap, and detecting whether the robot mechanism unit exists in the collaborative work area, 2. The robot system according to claim 1, wherein the first measurement value and the second measurement value are compared only when a unit exists in the cooperative work area. 前記ロボット機構部のブレーキが解除され、かつ該ロボット機構部が一定姿勢を保つように制御が行われている間に、前記第1計測値と前記第2計測値との比較を行うようにした、請求項1又は請求項2のロボットシステム。   The first measurement value and the second measurement value are compared while the brake of the robot mechanism unit is released and control is performed so that the robot mechanism unit maintains a constant posture. The robot system according to claim 1 or 2. ロボット機構部及び該ロボット機構部を制御する制御装置を有し、前記ロボット機構部を駆動するモータが有するエンコーダの出力により前記モータの制御を行うロボットシステムにおいて、
前記ロボット機構部の1つの可動リンク上に搭載された視覚センサと、
前記視覚センサにより、前記ロボット機構部の周囲の風景を所定周期で撮像して取得した画像に対して順次画像処理を実行して、前記視覚センサの空間的位置の変動を検知する第1計測部と、
前記ロボット機構部の前記エンコーダの出力に基づいて、前記視覚センサと常に一定の相対位置関係にある着目点の空間的位置を順次求める第2計測部と、
前記第2計測部により求められた前記着目点の空間的位置から計算された位置変動量が予め設定された閾値以内にあり、かつ前記第1計測部により位置変動が検知されたときにアラームを出力する手段と、
を備えた、ロボットシステム。
In a robot system that includes a robot mechanism unit and a control device that controls the robot mechanism unit, and controls the motor by an output of an encoder included in a motor that drives the robot mechanism unit.
A visual sensor mounted on one movable link of the robot mechanism,
A first measurement unit that detects a change in the spatial position of the visual sensor by sequentially performing image processing on an image obtained by capturing the landscape around the robot mechanism unit with a predetermined period by the visual sensor. When,
A second measuring unit for sequentially obtaining a spatial position of a point of interest that is always in a certain relative positional relationship with the visual sensor based on an output of the encoder of the robot mechanism unit;
An alarm is generated when the amount of position fluctuation calculated from the spatial position of the point of interest obtained by the second measuring section is within a preset threshold value and position fluctuation is detected by the first measuring section. Means for outputting;
Robot system equipped with.
JP2009142756A 2009-06-15 2009-06-15 Robot system with robot abnormality monitoring function Active JP4741691B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2009142756A JP4741691B2 (en) 2009-06-15 2009-06-15 Robot system with robot abnormality monitoring function
DE102010023736.1A DE102010023736B4 (en) 2009-06-15 2010-06-14 Robot system with problem detection function

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009142756A JP4741691B2 (en) 2009-06-15 2009-06-15 Robot system with robot abnormality monitoring function

Publications (2)

Publication Number Publication Date
JP2010284781A JP2010284781A (en) 2010-12-24
JP4741691B2 true JP4741691B2 (en) 2011-08-03

Family

ID=43384105

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009142756A Active JP4741691B2 (en) 2009-06-15 2009-06-15 Robot system with robot abnormality monitoring function

Country Status (2)

Country Link
JP (1) JP4741691B2 (en)
DE (1) DE102010023736B4 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111342521A (en) * 2020-03-31 2020-06-26 珠海格力智能装备有限公司 Encoder power supply device
US10967514B2 (en) 2018-08-22 2021-04-06 Abb Schweiz Ag Apparatus and method to monitor robot mechanical condition

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6804333B1 (en) 1999-01-28 2004-10-12 International Business Machines Corporation Dynamically reconfigurable distributed interactive voice response system
JP5640726B2 (en) 2010-12-21 2014-12-17 ソニー株式会社 Information processing apparatus, communication system, and charging method for wireless terminal apparatus
JP2012171088A (en) * 2011-02-24 2012-09-10 Olympus Corp Master operation input device, and master-slave manipulator
JP5149416B2 (en) * 2011-04-06 2013-02-20 ファナック株式会社 Robot system having robot abnormality detection function and control method thereof
DE102014219754B4 (en) 2013-10-01 2022-07-07 Avago Technologies International Sales Pte. Ltd. Gesture based industrial surveillance
JP6217322B2 (en) * 2013-11-01 2017-10-25 セイコーエプソン株式会社 Robot control apparatus, robot, and robot control method
CN107102601A (en) * 2017-06-06 2017-08-29 上海理工大学 Intelligent robot real-time state monitoring and fault processing system
JP7220353B2 (en) 2017-08-08 2023-02-10 パナソニックIpマネジメント株式会社 Controller information transmission method and encoder abnormality detection method
JP6922733B2 (en) * 2017-12-29 2021-08-18 富士通株式会社 Robots, self-diagnosis programs, and self-diagnosis methods
CN110253570B (en) * 2019-05-27 2020-10-27 浙江工业大学 Vision-based man-machine safety system of industrial mechanical arm
JP7335103B2 (en) * 2019-07-09 2023-08-29 ニデックインスツルメンツ株式会社 INDUSTRIAL ROBOT AND CONTROL METHOD FOR INDUSTRIAL ROBOT
JP7469020B2 (en) 2019-10-24 2024-04-16 ファナック株式会社 Robot Safety System
CN112643657A (en) * 2020-12-09 2021-04-13 深圳市优必选科技股份有限公司 Robot emergency stop braking safety prevention and control method and device, robot and storage medium

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02262991A (en) * 1989-03-31 1990-10-25 Mitsubishi Electric Corp Monitor device for action of robot
JPH033786A (en) * 1989-06-01 1991-01-09 Toshiba Corp Control method for manipulator
JPH0768480A (en) * 1993-09-06 1995-03-14 Mitsubishi Heavy Ind Ltd Method for controlling articular angle of manipulator
JPH07146121A (en) * 1993-10-01 1995-06-06 Nippondenso Co Ltd Recognition method and device for three dimensional position and attitude based on vision
JPH0970781A (en) * 1995-09-07 1997-03-18 Shinko Electric Co Ltd Method for calibrating three dimensional position of self sustaining traveling robot
JPH10128689A (en) * 1996-09-04 1998-05-19 Shinko Electric Co Ltd Visual correcting device of unmanned movable body
JPH1177562A (en) * 1997-09-10 1999-03-23 Shinko Electric Co Ltd Mobile robot
JPH11347985A (en) * 1998-06-10 1999-12-21 Honda Motor Co Ltd Trouble diagnostic method for robot system with visual sensor
JP2001341086A (en) * 2000-05-31 2001-12-11 Denso Corp Mobile robot system
JP2007011978A (en) * 2005-07-04 2007-01-18 Toyota Motor Corp Motion controller for robot
JP2007265103A (en) * 2006-03-29 2007-10-11 Nachi Fujikoshi Corp Robot controller
JP2007283448A (en) * 2006-04-18 2007-11-01 Nachi Fujikoshi Corp Robot control device

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3438007A1 (en) * 1984-10-17 1986-04-17 Robert Bosch Gmbh, 7000 Stuttgart Device for diagnosing a machine with continuous-path control
US5579444A (en) * 1987-08-28 1996-11-26 Axiom Bildverarbeitungssysteme Gmbh Adaptive vision-based controller
JP2605768B2 (en) * 1987-12-28 1997-04-30 松下電器産業株式会社 Safety device
JPH03281182A (en) * 1990-03-28 1991-12-11 Shinko Electric Co Ltd Coordinate correcting method for moving robot
JPH04235610A (en) * 1991-01-09 1992-08-24 Hitachi Ltd Abnormality detector for industrial robot
JP2769947B2 (en) * 1992-05-15 1998-06-25 株式会社椿本チエイン Manipulator position / posture control method
JP3288250B2 (en) * 1997-03-25 2002-06-04 ファナック株式会社 Robot controller
JP5062925B2 (en) * 1997-12-06 2012-10-31 エラン・シャルトエレメンテ・ゲーエムベーハー・ウント・コンパニー・カーゲー Monitoring and control equipment for technical equipment
GB9803364D0 (en) * 1998-02-18 1998-04-15 Armstrong Healthcare Ltd Improvements in or relating to a method of an apparatus for registering a robot
DE19849720A1 (en) * 1998-10-28 2000-05-04 Bosch Gmbh Robert Precision positioning of component in assembly position in grip-feed system makes position correction using coarse and fine positioning devices
DE10236844B4 (en) * 2002-08-08 2015-02-19 Volkswagen Ag Monitoring of process accuracy
DE10324627A1 (en) * 2003-05-28 2005-01-05 Daimlerchrysler Ag Working space monitoring for automated operating machines involves monitoring speed-dependent second zone for object penetration, preventing object from entering first zone if detected in second zone
FI123306B (en) * 2004-01-30 2013-02-15 Wisematic Oy Robot tool system, and its control method, computer program and software product

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02262991A (en) * 1989-03-31 1990-10-25 Mitsubishi Electric Corp Monitor device for action of robot
JPH033786A (en) * 1989-06-01 1991-01-09 Toshiba Corp Control method for manipulator
JPH0768480A (en) * 1993-09-06 1995-03-14 Mitsubishi Heavy Ind Ltd Method for controlling articular angle of manipulator
JPH07146121A (en) * 1993-10-01 1995-06-06 Nippondenso Co Ltd Recognition method and device for three dimensional position and attitude based on vision
JPH0970781A (en) * 1995-09-07 1997-03-18 Shinko Electric Co Ltd Method for calibrating three dimensional position of self sustaining traveling robot
JPH10128689A (en) * 1996-09-04 1998-05-19 Shinko Electric Co Ltd Visual correcting device of unmanned movable body
JPH1177562A (en) * 1997-09-10 1999-03-23 Shinko Electric Co Ltd Mobile robot
JPH11347985A (en) * 1998-06-10 1999-12-21 Honda Motor Co Ltd Trouble diagnostic method for robot system with visual sensor
JP2001341086A (en) * 2000-05-31 2001-12-11 Denso Corp Mobile robot system
JP2007011978A (en) * 2005-07-04 2007-01-18 Toyota Motor Corp Motion controller for robot
JP2007265103A (en) * 2006-03-29 2007-10-11 Nachi Fujikoshi Corp Robot controller
JP2007283448A (en) * 2006-04-18 2007-11-01 Nachi Fujikoshi Corp Robot control device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10967514B2 (en) 2018-08-22 2021-04-06 Abb Schweiz Ag Apparatus and method to monitor robot mechanical condition
CN111342521A (en) * 2020-03-31 2020-06-26 珠海格力智能装备有限公司 Encoder power supply device

Also Published As

Publication number Publication date
JP2010284781A (en) 2010-12-24
DE102010023736B4 (en) 2018-01-25
DE102010023736A1 (en) 2011-01-27

Similar Documents

Publication Publication Date Title
JP4741691B2 (en) Robot system with robot abnormality monitoring function
JP5370127B2 (en) Robot interference avoidance device
JP6449263B2 (en) Apparatus and method for protecting an automatically operating machine
US9122266B2 (en) Camera-based monitoring of machines with mobile machine elements for collision prevention
JP5725708B2 (en) Sensor position and orientation measurement method
US20190001504A1 (en) Method For Detecting A Collision Of A Robot Arm With An Object, And A Robot With A Robot Arm
US20190134819A1 (en) Robot control device
JP5449112B2 (en) Welding status monitoring method and welding status monitoring device
JP6445092B2 (en) Robot system displaying information for teaching robots
JP2011031346A (en) Apparatus and method for measuring position of tool end point of robot
JP2011115877A (en) Double arm robot
JP2019038075A (en) Robot system
JP2010120139A (en) Safety control device for industrial robot
JP7109161B2 (en) Mechanism Model Parameter Estimation Method for Articulated Robots
JP2019119027A (en) Method of controlling robot system, and robot system
US11161697B2 (en) Work robot system and work robot
JP7227073B2 (en) Workpiece rotating device and robot system
JP5494384B2 (en) Robot monitoring system
JP2010276447A (en) Position measuring apparatus, position measuring method and robot system
JP6816060B2 (en) Work robot system and work robot
JP5573537B2 (en) Robot teaching system
JP7110843B2 (en) Abnormality determination device and abnormality determination method
CN216731891U (en) Robot joint deformation sensor and mechanical arm based on machine vision
JP5447150B2 (en) Robot control device and method for controlling robot
JP2007071556A (en) System for automatically measuring vehicle body

Legal Events

Date Code Title Description
A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20100908

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100921

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101110

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101207

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110203

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110412

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110506

R150 Certificate of patent or registration of utility model

Ref document number: 4741691

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140513

Year of fee payment: 3