WO2023012894A1 - ロボットシステム、制御装置、診断方法および診断プログラム - Google Patents

ロボットシステム、制御装置、診断方法および診断プログラム Download PDF

Info

Publication number
WO2023012894A1
WO2023012894A1 PCT/JP2021/028761 JP2021028761W WO2023012894A1 WO 2023012894 A1 WO2023012894 A1 WO 2023012894A1 JP 2021028761 W JP2021028761 W JP 2021028761W WO 2023012894 A1 WO2023012894 A1 WO 2023012894A1
Authority
WO
WIPO (PCT)
Prior art keywords
target
robot
visual sensor
image
target element
Prior art date
Application number
PCT/JP2021/028761
Other languages
English (en)
French (fr)
Inventor
恭平 小窪
Original Assignee
ファナック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ファナック株式会社 filed Critical ファナック株式会社
Priority to PCT/JP2021/028761 priority Critical patent/WO2023012894A1/ja
Priority to CN202180100634.2A priority patent/CN117677476A/zh
Priority to DE112021007681.7T priority patent/DE112021007681T5/de
Priority to TW111126930A priority patent/TW202306729A/zh
Publication of WO2023012894A1 publication Critical patent/WO2023012894A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40584Camera, non-contact sensor mounted on wrist, indep from gripper
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40613Camera, laser scanner on end effector, hand eye manipulator, local

Definitions

  • the present disclosure relates to a robot system, a control device, a diagnostic method, and a diagnostic program.
  • One aspect of the present disclosure is a robot comprising one or more movable elements each rotatable about one or more rotation axes, a controller controlling the robot, and a visual sensor attached to any of the movable elements of the robot. and a sensor, wherein the control device places a predetermined target fixed at a predetermined position within the field of view of the visual sensor using any of the movable elements of the robot as a target element.
  • FIG. 1 is an overall configuration diagram showing a robot system according to a first embodiment of the present disclosure
  • FIG. 2 is a block diagram showing the configuration of the robot system in FIG. 1
  • FIG. FIG. 2 shows a target installed in the robot system of FIG. 1
  • 2 is the first half of a flowchart showing a control method of the robot system of FIG. 1
  • 2 is the second half of the flowchart showing the control method of the robot system of FIG. 1
  • 2 is a diagram showing a first image acquired by a camera when the robot in the robot system of FIG. 1 is in a first posture
  • FIG. FIG. 4 is a diagram showing a second image acquired by the camera when the robot in the robot system of FIG. 1 is in a second posture
  • FIG. 11 is the first half of a flowchart showing a robot system control method according to a second embodiment of the present disclosure
  • FIG. 9 is the second half of the flowchart showing the control method of the robot system in FIG. 8 ;
  • a robot system 1, a control device 30, a diagnostic method, and a diagnostic program according to the first embodiment of the present disclosure will be described below with reference to the drawings.
  • the robot system 1 according to this embodiment for example, as shown in FIG.
  • a control device 30 is provided.
  • the robot 10 includes a base 11 installed on a horizontal floor surface F and a rotating body (movable) supported to be rotatable with respect to the base 11 about a vertical first axis J1. element) 12.
  • the robot 10 includes a first arm (movable element) 13 rotatably supported with respect to the revolving barrel 12 about a horizontal second axis J2, and a distal end of the first arm 13 about a horizontal third axis J3. and a second arm (movable element, robot arm) 14 rotatably supported with respect to.
  • the robot 10 has a three-axis wrist unit 15 supported at the tip of the second arm 14 .
  • the wrist unit 15 includes a first wrist element (movable element) 16 rotatably supported with respect to the second arm 14 about a fourth axis J4 extending along a plane orthogonal to the third axis J3.
  • the wrist unit 15 also includes a second wrist element (movable element) 17 rotatably supported with respect to the first wrist element 16 about a fifth axis J5 perpendicular to the fourth axis J4.
  • the second wrist element 17 is rotatably supported about a sixth axis (rotational axis) J6 that is perpendicular to the fifth axis J5 and passes through the intersection of the fourth axis J4 and the fifth axis J5.
  • 3 wrist elements (movable element, wrist element) 18 are provided.
  • the camera 20 is, for example, a two-dimensional camera or a three-dimensional camera, and is fixed to a tool A such as a hand fixed to the flange surface 18a of the third wrist element 18 in the example shown in FIG.
  • the camera 20 is thereby indirectly fixed to the third wrist element 18 via the tool A.
  • the camera 20 has an optical axis X arranged parallel to the sixth axis J6 and has a field of view in a direction (forward) facing the flange surface 18a.
  • the control device 30 includes at least one processor and at least one memory. As shown in FIG. 2, the control device 30 includes a robot control unit 31 that controls the robot 10, a camera control unit 32 that controls the camera 20, and an image processing unit 33 that processes images acquired by the camera 20. It has The control device 30 also includes a storage unit 34 that stores diagnostic programs and the like, a determination unit 35 and a notification unit 36 .
  • the diagnostic program sequentially moves the robot 10 from the set first posture to the fourth posture, and acquires an image by operating the camera 20 in each posture.
  • This diagnostic program may be included at the beginning of the operation program as part of the operation program for performing work using the camera 20, or may be executed independently of the operation program.
  • the first posture for example, as shown in FIG.
  • This is the posture of the robot 10 that places T.
  • the first posture is set by, for example, a teaching operation in which the operator operates the robot 10 while viewing an image acquired by the camera 20 .
  • the target T may be, for example, a circular mark drawn on the top surface of the table S, as shown in FIG. If it is a circular mark, its center position can be easily detected by image processing.
  • the target T may adopt any shape other than a circle, and has a characteristic shape other than the mark, such as the corner of the table S, so that the position can be easily detected. You can use part of the item.
  • the second posture is the posture of the robot 10 in which only the third wrist element 18 is rotated about the sixth axis J6 with respect to the first posture by a small angle that does not cause the target T to be out of the field of view of the camera 20.
  • the minute angle is an angle at which it is possible to detect whether or not the target T has moved between the two images captured by the camera 20, for example, an angle at which the amount of movement of the target T is several pixels or more when the target T moves. good.
  • the third posture is the posture of the robot 10 in which the third wrist element 18 and the camera 20 are moved by a minute distance in the direction intersecting the sixth axis J6 in the robot 10 in the second posture. Even in this posture, the target T is arranged within the field of view of the camera 20 .
  • the minute distance is also a distance that allows detection of the presence or absence of movement of the target T between the two images acquired by the camera 20, for example, a distance that causes a movement amount of several pixels or more when the target T moves. good.
  • the fourth posture is a posture of the robot 10 in which only the third wrist element 18 is rotated about the sixth axis J6 with respect to the third posture by a small angle that does not allow the target T to be out of the field of view of the camera 20. be.
  • the minute angle in this case may be the same as the minute angle of the second posture with respect to the first posture.
  • the second, third and fourth postures are all determined by the operator and stored in advance as teaching points of the diagnostic program, like the first posture.
  • the camera 20 is activated by a command signal output from the camera control unit 32 when the diagnostic program is executed and the robot 10 assumes one of the first to fourth postures, and the camera 20 is activated within the field of view at each posture. Acquire an image of an object contained in .
  • the camera 20 transmits the acquired image to the image processing section 33 of the control device 30 .
  • the image processing unit 33 processes the image sent from the camera 20, detects the target T included in the image, and, for example, detects the center of the target T in the XY coordinate system defined with reference to one end of the image. Extract the coordinates of the position. The coordinates of the extracted center position of the target T are stored in the storage unit 34 together with information on the posture of the robot 10 .
  • the determination unit 35 stores the coordinates C1 of the center position of the target T corresponding to the first orientation and the coordinates C2 of the center position of the target T corresponding to the second orientation in the storage unit 34, and determines the coordinates of these coordinates. are read out from the storage unit 34 to calculate the positional deviation amount (movement amount) D1 between the two coordinates. Then, the determination unit 35 determines that the camera 20 is a hand camera fixed to the third wrist element 18 when the positional deviation amount D1 is larger than a predetermined threshold value.
  • the determination unit 35 determines that the camera 20 is a hand camera fixed to the third wrist element 18 when the positional deviation amount D2 is larger than a predetermined threshold value.
  • the positional deviation amount D2 is equal to or less than the predetermined threshold value, it is determined that the camera 20 is not fixed to the third wrist element 18, that is, it is not a hand camera.
  • the notification unit 36 is, for example, a monitor, a speaker, an indicator lamp, etc., and notifies an external worker or the like of the determination result of the determination unit 35 as to whether or not it is a hand camera.
  • control device 30 of the robot system 1 executes a diagnostic program before executing an operation program for causing the robot 10 having the camera 20 fixed to the third wrist element 18 to perform a predetermined work.
  • the operator first places a target T at an arbitrary position within the working range of the robot 10 (step S1). Then, by executing the diagnostic program, the robot control unit 31 operates the robot 10 and sets it to the first posture as shown in FIG. 1 (step S2).
  • the camera control unit 32 transmits a photographing command to the camera 20 according to the diagnostic program, causes the camera 20 to photograph the target T within the field of view, and acquires the first image P1 including the target T (step S3).
  • the first image P1 acquired by the camera 20 is transmitted to the image processing section 33 and processed by the image processing section 33 .
  • the coordinates C1 of the center position of the target T in the XY coordinate system defined in the first image P1 are extracted and stored in the storage unit 34 in association with the first posture (step S4).
  • the robot control unit 31 rotates the third wrist element 18 counterclockwise about the sixth axis J6 by the angle ⁇ , thereby setting the robot 10 to the second posture (step S5).
  • the camera 20 also rotates counterclockwise about the sixth axis J6 by the angle ⁇ , so that the target T within the field of view of the camera 20 is rotated clockwise about the sixth axis J6 as shown in FIG. It moves by an angle ⁇ in the surrounding direction.
  • the camera control unit 32 transmits a photographing command to the camera 20, causes the camera 20 to photograph the target T within the field of view, and acquires the second image P2 including the target T (step S6).
  • the obtained second image P2 is transmitted to the image processing unit 33, and processed by the image processing unit 33 to extract the coordinates C2 of the center position of the target T in the XY coordinate system in the second image P2, It is stored in the storage unit 34 in association with the second posture (step S7).
  • the determination unit 35 reads from the storage unit 34 the coordinates C1 of the center position of the target T in the processed first image P1 and the coordinates C2 of the center position of the target T in the processed second image P2. Then, the determination unit 35 calculates the positional deviation amount D1 of the target T between the first image P1 and the second image P2 by calculating the distance between the coordinates C1 and C2 (step S8). , the calculated positional deviation amount D1 is compared with a predetermined threshold (step S9).
  • the determination unit 35 determines that the camera 20 has moved with the rotation of the third wrist element 18 about the sixth axis J6, and that the camera 20 has moved to the third wrist. It is determined that it is a hand camera fixed to the element 18 (step S10). Then, the notification unit 36 notifies an outside worker or the like that the camera 20 is a hand camera (step S11). This terminates the diagnostic program, after which it is possible to transition to the operating program.
  • the robot control unit 31 causes the robot 10 to move the third wrist element 18 slightly in the direction intersecting the sixth axis J6 with respect to the second posture.
  • the moved third posture is set (step S12).
  • the camera 20 acquires the image of the target T when the robot 10 is in the third posture as the third image P3 (step S13). Further, the image processing unit 33 extracts the coordinates C3 of the center position of the target T in the third image P3 and stores them in the storage unit 34 (step S14). Next, the robot control unit 31 rotates only the third wrist element 18 about the sixth axis J6 with respect to the third posture to set the robot 10 to the fourth posture (step S15). In this state, the camera 20 acquires the fourth image P4 including the target T (step S16), the image processing unit 33 extracts the coordinates C4 of the center position of the target T in the fourth image P4, and the storage unit 34 (step S17).
  • the determination unit 35 calculates the positional deviation amount D2 between the coordinates C3 and C4 of the center position of the target T in the third image P3 and the fourth image P4 (step S18), and compares the calculated positional deviation amount D2 with the threshold value. are compared (step S19). As a result, when the positional deviation amount D2 is larger than the threshold, the determination unit 35 determines that the camera 20 is a hand camera attached to the third wrist element 18 (step S10).
  • step S20 if the positional deviation amount D2 does not exceed the threshold, it is determined that the camera 20 is not a hand camera.
  • the notification unit 36 uses a different notification method from when the camera 20 is determined to be a hand camera to notify an outside worker or the like that the robot 10 cannot normally execute the operation program. (step S11). Then, the diagnostic program is terminated while prohibiting the execution of the operating program.
  • the control device 30, the diagnostic method, and the diagnostic program according to the present embodiment simply by comparing the images acquired when the robot 10 is in the first posture and the second posture, It can be determined whether the camera 20 is a hand camera. In addition, between the first posture and the second posture, the third wrist element 18 is simply moved around the sixth axis J6, and the motion is performed at a very small angle. interference can be avoided.
  • the robot 10 is acquired in the third and fourth postures. Based on the captured image, it is determined whether or not it is a hand camera. Therefore, it is possible to more reliably determine whether the camera 20 is a hand camera.
  • Examples of the case where the position of the target T does not change between the images acquired in the first and second postures include the case where the camera 20 is not a hand camera, and even if the camera is a hand camera, the center of the target T is positioned at the sixth position.
  • a case where the axis J6 passes is included. That is, even if the sixth axis J6 coincidentally coincides with the center position of the target T in the first posture of the robot 10 set by the operator, it is possible to reliably determine whether the camera 20 is a hand camera.
  • the present embodiment based on the positional deviation amount D1 of the target T between the first and second attitudes and the positional deviation amount D2 of the target T between the third and fourth attitudes, , whether or not it is a hand camera. Alternatively, it may be determined whether or not the camera is a hand camera based on both the positional deviation amount D1 and the positional deviation amount D2.
  • the determination unit 35 determines whether or not the camera 20 is a hand camera, using as a parameter a value obtained by adding the absolute value of the positional deviation amount D1 and the absolute value of the positional deviation amount D2. That is, even if the positional deviation amount D1 and the positional deviation amount D2 are relatively small, or even if the positional deviation amount D1 and the positional deviation amount D2 are in a direction of canceling each other, it is difficult to determine whether or not the camera is a hand camera. A necessary size can be secured as a parameter to be used. As a result, in executing the diagnostic program, the operating range of the robot 10 can be reduced, and restrictions on the operating direction of the robot 10 can be reduced, thereby reducing the space required for executing the diagnostic program. can be planned.
  • the target T is a single circular mark, but instead of this, the target T may be a plurality of circular marks. Alternatively, a single mark with an irregular shape whose orientation can be recognized may be employed.
  • the center position of at least one of the marks can be made different from the position of the sixth axis J6. . Therefore, in the diagnostic program, considering the case where the target T in the first posture accidentally coincides with the sixth axis J6, a step of determining the positional deviation of the target T in the third posture and the fourth posture of the robot 10. can be omitted. This makes it easier to determine whether the camera 20 is a hand camera.
  • the robot system 1, the control device 30, the diagnostic method, and the diagnostic program according to the second embodiment of the present disclosure will be described below.
  • the robot system 1, the control device 30, the diagnostic method, and the diagnostic program according to the present embodiment parts common to the robot system 1, the control device 30, the diagnostic method, and the diagnostic program according to the first embodiment described above are the same. Reference numerals are attached and explanations are omitted.
  • the target element to be diagnosed as to whether or not the camera 20 is attached is sequentially changed from the third wrist element 18 toward the base end side, and the fixed position of the camera 20 is determined. .
  • the robot system 1 sets the third wrist element 18 as the target element in step S101, and then executes the steps from step S2. do. Then, if the positional deviation amount D2 is equal to or less than the threshold in step S19, it is determined in step S102 that the camera 20 is not attached to the third wrist element 18, which is the target element.
  • step S103 If it is determined that the camera 20 is not attached to the target element, it is determined in step S103 whether or not diagnosis has been completed for all target elements.
  • the wrist element is changed to the second wrist element 17, which is the wrist element on the proximal side (step S104), and the steps from step S2 are repeated again.
  • step S2 after the target element is changed, the robot 10 is placed in the same posture as the first posture, or in a fifth posture different from the first posture in which the target T is placed within the field of view of the camera 20. set.
  • step S5 the robot 10 in the fifth posture is set to the sixth posture by slightly rotating the changed target element about the rotation axis of the target element.
  • steps S12 and S15 the robot 10 is set to the seventh and eighth postures, which are different from the third and fourth postures when the third wrist element 18 is the target element, respectively.
  • the sixth posture is a posture obtained by slightly rotating the second wrist element 17 about the fifth axis J5 with respect to the fifth posture.
  • the seventh posture is a posture obtained by moving the second wrist element 17 of the robot 10 in the sixth posture by a small distance in a direction intersecting the fifth axis J5. This is a posture in which only the second wrist element 17 is slightly rotated around the fifth axis J5.
  • step S102 it is determined that the camera 20 is not attached to the third wrist element 18, which is the target element. be.
  • step S104 the target element is changed to the second wrist element 17 on the proximal side by one. is repeated. That is, the robot 10 is caused to operate in the fifth posture, which is the same posture as the first posture when the third wrist element 18 is the target element (step S2), and the fifth image P5 is obtained (step S3). Then, the coordinates C1 of the central position of the target T in the fifth image P5 are extracted and stored (step S4).
  • the robot 10 is moved to a sixth posture in which the second wrist element 17 is slightly rotated about the fifth axis J5 with respect to the fifth posture (step S5), and a sixth image P6 is acquired (step S6). ). Then, the coordinates C2 of the target T within the sixth image P6 are calculated and stored (step S7). Next, the positional deviation amount D1 is calculated (step S8), and the positional deviation amount D1 is compared with a threshold value (step S9). In this case, since the positional deviation amount D1 is larger than the threshold, it is determined that the camera 20 is fixed to the second wrist element 17, which is the target element (step S10), and the result is reported (step S11). .
  • step S103 when the diagnosis of all target elements is completed, it is notified that the camera 20 is not attached to any target element (step S11).
  • the diagnostic program of the present embodiment it is possible to specify which wrist element or which arm the camera 20 is fixed to.
  • the diagnosis program can be applied not only to the operation program assuming that the camera is a hand camera, but also before the execution of the operation program assuming that the camera 20 is fixed to another element. This improves the versatility of the robot system 1.

Abstract

1以上の回転軸線回りにそれぞれ回転可能な1以上の可動要素を備えるロボット(10)と、ロボットを制御する制御装置(30)と、ロボット(10)のいずれかの可動要素に取り付けられる視覚センサ(20)とを備え、制御装置(30)が、ロボット(10)のいずれかの可動要素(18)を対象要素として、所定の位置に固定された所定のターゲット(T)を視覚センサ(20)の視野内に配置するロボット(10)の任意の第1姿勢において視覚センサ(20)により取得された第1画像内のターゲット(T)の位置と、第1姿勢に対して対象要素を対象要素の回転軸線(J6)回りに回転させた第2姿勢において視覚センサ(20)により取得された第2画像内のターゲット(T)の位置とを比較し、第1画像および第2画像内のターゲット(T)の位置が異なる場合に、視覚センサ(20)が対象要素に取り付けられていると判定するロボットシステム(1)である。

Description

ロボットシステム、制御装置、診断方法および診断プログラム
 本開示は、ロボットシステム、制御装置、診断方法および診断プログラムに関するものである。
 ロボットの手首先端に、ワーク等の位置情報を取得するカメラを取り付けて、動作プログラムを実行することにより、ワーク等を撮影しながら作業を行うことが知られている(例えば、特許文献1参照。)。
特開平1-193902号公報
 上述のようにカメラが手先部分に取り付けられていることを前提とする動作プログラムを実行する場合に、カメラが手先部分以外の、例えばアーム部分に取り付けられていると、ロボットに正常な作業を行わせることができない。
 したがって、カメラが動作プログラム上必要とされる場所以外の場所に取り付けられている状態で、動作プログラムが実行されてしまうことを防止することが望まれている。
 本開示の一態様は、1以上の回転軸線回りにそれぞれ回転可能な1以上の可動要素を備えるロボットと、該ロボットを制御する制御装置と、前記ロボットのいずれかの前記可動要素に取り付けられる視覚センサとを備え、前記制御装置が、前記ロボットのいずれかの前記可動要素を対象要素として、所定の位置に固定された所定のターゲットを前記視覚センサの視野内に配置する前記ロボットの任意の第1姿勢において前記視覚センサにより取得された第1画像内の前記ターゲットの位置と、前記第1姿勢に対して前記対象要素を該対象要素の前記回転軸線回りに回転させた第2姿勢において前記視覚センサにより取得された第2画像内の前記ターゲットの位置とを比較し、前記第1画像および前記第2画像内の前記ターゲットの位置が異なる場合に、前記視覚センサが前記対象要素に取り付けられていると判定するロボットシステムである。
本開示の第1の実施形態に係るロボットシステムを示す全体構成図である。 図1のロボットシステムの構成を示すブロック図である。 図1のロボットシステムに設置されたターゲットを示す図である。 図1のロボットシステムの制御方法を示すフローチャートの前半である。 図1のロボットシステムの制御方法を示すフローチャートの後半である。 図1のロボットシステムにおけるロボットが第1姿勢の場合にカメラによって取得された第1画像を示す図である。 図1のロボットシステムにおけるロボットが第2姿勢の場合にカメラによって取得された第2画像を示す図である。 本開示の第2の実施形態に係るロボットシステムの制御方法を示すフローチャートの前半である。 図8のロボットシステムの制御方法を示すフローチャートの後半である。
 本開示の第1の実施形態に係るロボットシステム1、制御装置30、診断方法、診断プログラムについて、図面を参照して以下に説明する。
 本実施形態に係るロボットシステム1は、例えば、図1に示されるように、所定の作業を行うロボット10と、ロボット10に取り付けられたカメラ(視覚センサ)20と、ロボット10およびカメラ20を制御する制御装置30とを備えている。
 ロボット10は、例えば、図1に示されるように、水平な床面Fに設置されるベース11と、鉛直な第1軸線J1回りにベース11に対して回転可能に支持された旋回胴(可動要素)12とを備えている。また、ロボット10は、水平な第2軸線J2回りに旋回胴12に対して回転可能に支持された第1アーム(可動要素)13と、水平な第3軸線J3回りに第1アーム13の先端に対して回転可能に支持された第2アーム(可動要素、ロボットアーム)14とを備えている。さらに、ロボット10は、第2アーム14の先端に支持された3軸の手首ユニット15を備えている。
 手首ユニット15は、第3軸線J3に直交する平面に沿って延びる第4軸線J4回りに第2アーム14に対して回転可能に支持された第1手首要素(可動要素)16を備えている。また、手首ユニット15は、第4軸線J4に直交する第5軸線J5回りに第1手首要素16に対して回転可能に支持された第2手首要素(可動要素)17を備えている。さらに、第5軸線J5に直交し、第4軸線J4と第5軸線J5との交点を通過する第6軸線(回転軸線)J6回りに第2手首要素17に対して回転可能に支持された第3手首要素(可動要素、手首要素)18とを備えている。
 カメラ20は、例えば、2次元カメラまたは3次元カメラであって、図1に示す例では、第3手首要素18のフランジ面18aに固定されたハンド等のツールAに固定されている。これにより、カメラ20は、ツールAを経由して、第3手首要素18に間接的に固定されている。また、カメラ20は、その光軸Xを第6軸線J6に平行に配置して、フランジ面18aに対向する方向(前方)に視野を有している。
 制御装置30は、少なくとも1つのプロセッサおよび少なくとも1つのメモリを備えている。制御装置30は、図2に示されるように、ロボット10を制御するロボット制御部31と、カメラ20を制御するカメラ制御部32と、カメラ20によって取得された画像を処理する画像処理部33とを備えている。また、制御装置30は、診断プログラム等を記憶する記憶部34と、判定部35と、報知部36とを備えている。
 診断プログラムは、設定された第1姿勢から第4姿勢にロボット10を順次動作させ、各姿勢においてカメラ20を作動させることにより画像を取得させるものである。この診断プログラムは、カメラ20を使用して作業を行う動作プログラムの一部として、動作プログラムの先頭部分に含まれていてもよいし、動作プログラムとは別に独立して実行されてもよい。
 第1姿勢は、例えば、図1に示されるように床面Fに固定されたテーブルSの上面に設けられたターゲットTの上方に、カメラ20を下向きに配置し、カメラ20の視野内にターゲットTを配置するロボット10の姿勢である。
 第1姿勢は、例えば、作業者がカメラ20により取得される画像を見ながらロボット10を動作させる教示操作によって設定される。
 ターゲットTは、例えば、図3に示されるように、テーブルSの上面に描かれた円形のマークでよい。円形のマークであればその中心位置を画像処理によって容易に検出することができる。また、ターゲットTは、円形以外の任意の形状を採用してもよく、マーク以外の、例えば、テーブルSの角部等、特徴的な形状を有し、位置を容易に検出することができる構造物の一部を採用してもよい。
 第2姿勢は、第1姿勢に対して第3手首要素18だけを第6軸線J6回りに、カメラ20の視野からターゲットTが外れない程度の微小角度だけ回転させたロボット10の姿勢である。ここで、微小角度はカメラ20により取得された2つの画像間におけるターゲットTの移動の有無を検出可能な角度、例えば、ターゲットTが移動したときに移動量が数画素以上発生する程度の角度でよい。
 第3姿勢は、第2姿勢のロボット10において、第3手首要素18およびカメラ20を第6軸線J6に交差する方向に微小距離だけ移動させたロボット10の姿勢である。この姿勢においても、ターゲットTはカメラ20の視野内に配置されている。ここで、微小距離もカメラ20により取得された2つの画像間におけるターゲットTの移動の有無を検出可能な距離、例えば、ターゲットTが移動したときに移動量が数画素以上発生する程度の距離でよい。
 また、第4姿勢は、第3姿勢に対して第3手首要素18だけを第6軸線J6回りに、カメラ20の視野からターゲットTが外れない程度の微小角度だけ回転させたロボット10の姿勢である。この場合の微小角度は、第1姿勢に対する第2姿勢の微小角度と同じでよい。
 第2姿勢、第3姿勢および第4姿勢は、いずれも第1姿勢と同様、作業者によって決定され、予め診断プログラムの教示点として記憶される。
 カメラ20は、診断プログラムが実行され、ロボット10が第1姿勢から第4姿勢のいずれかの姿勢をとったときに、カメラ制御部32から出力される指令信号によって起動され、各姿勢において視野内に含まれる被写体の画像を取得する。カメラ20は、取得した画像を制御装置30の画像処理部33に送信する。
 画像処理部33は、カメラ20から送られてきた画像を処理して、画像内に含まれるターゲットTを検出し、例えば、画像の一端を基準に定義されたXY座標系において、ターゲットTの中心位置の座標を抽出する。抽出されたターゲットTの中心位置の座標は、ロボット10の姿勢の情報とともに記憶部34に記憶される。
 判定部35は、第1姿勢に対応するターゲットTの中心位置の座標C1と、第2姿勢に対応するターゲットTの中心位置の座標C2とが記憶部34に記憶された状態で、これらの座標を記憶部34から読み出して2つの座標の位置ずれ量(移動量)D1を算出する。そして、判定部35は、位置ずれ量D1が所定の閾値よりも大きい場合には、カメラ20が第3手首要素18に固定されたハンドカメラであると判定する。
 一方、判定部35によって算出された位置ずれ量D1が、所定の閾値以下である場合には、第3姿勢に対応するターゲットTの中心位置の座標C3と、第4姿勢に対応するターゲットTの中心位置の座標C4とが抽出され、記憶部34に記憶される。次いで、記憶部34から2つの座標を読み出し、両座標の位置ずれ量(移動量)D2を算出する。
 そして、判定部35は、位置ずれ量D2が所定の閾値よりも大きい場合には、カメラ20が第3手首要素18に固定されたハンドカメラであると判定する。一方、位置ずれ量D2が所定の閾値以下である場合には、カメラ20が第3手首要素18に固定されていない、すなわちハンドカメラではないと判定する。
 報知部36は、例えば、モニタ、スピーカ、表示灯等であって、判定部35によるハンドカメラか否かの判定結果を、外部の作業者等に報知する。
 このように構成された本実施形態に係るロボットシステム1の制御装置30による診断方法について以下に説明する。
 まず、本実施形態に係るロボットシステム1の制御装置30は、第3手首要素18にカメラ20を固定したロボット10に所定の作業を行わせる動作プログラムの実行前に診断プログラムを実行する。
 本実施形態に係る診断方法においては、図4および図5に示されるように、まず、作業者によってロボット10の作業範囲内の任意の位置にターゲットTが設置される(ステップS1)。そして、診断プログラムの実行によって、ロボット制御部31がロボット10を作動させ、図1に示されるような第1姿勢に設定される(ステップS2)。
 この状態において、カメラ制御部32は、診断プログラムに従ってカメラ20に撮影指令を送信し、カメラ20に視野内のターゲットTを撮影させ、ターゲットTを含む第1画像P1を取得させる(ステップS3)。
 カメラ20によって取得された第1画像P1は、画像処理部33へと送信され、画像処理部33によって処理される。これにより、図6に示されるように、第1画像P1内に定義したXY座標系におけるターゲットTの中心位置の座標C1が抽出され、第1姿勢と対応付けて記憶部34に記憶される(ステップS4)。
 次いで、診断プログラムに従って、ロボット制御部31が、第3手首要素18を第6軸線J6回りの反時計回りの方向に角度αだけ回転させることにより、ロボット10が第2姿勢に設定される(ステップS5)。これにより、カメラ20も第6軸線J6回りの反時計回りの方向に角度αだけ回転するので、図7に示されるように、カメラ20の視野内におけるターゲットTは、第6軸線J6回りの時計回りの方向に角度αだけ移動する。
 この状態で、カメラ制御部32は、カメラ20に撮影指令を送信し、カメラ20に視野内のターゲットTを撮影させ、ターゲットTを含む第2画像P2を取得させる(ステップS6)。取得された第2画像P2は画像処理部33へと送信され、画像処理部33によって処理されることにより、第2画像P2内のXY座標系におけるターゲットTの中心位置の座標C2が抽出され、第2姿勢と対応付けて記憶部34に記憶される(ステップS7)。
 次いで、判定部35は、処理された第1画像P1におけるターゲットTの中心位置の座標C1と、処理された第2画像P2におけるターゲットTの中心位置の座標C2とを、記憶部34から読み出す。そして、判定部35は、座標C1と座標C2との間の距離を算出することにより、第1画像P1と第2画像P2との間におけるターゲットTの位置ずれ量D1を算出し(ステップS8)、算出した位置ずれ量D1と予め設定した所定の閾値との比較を行う(ステップS9)。
 算出された位置ずれ量D1が閾値よりも大きい場合には、判定部35は、第3手首要素18の第6軸線J6回りの回転に伴ってカメラ20が移動したとして、カメラ20が第3手首要素18に固定されたハンドカメラであると判定する(ステップS10)。そして、報知部36によって外部の作業者等にカメラ20がハンドカメラであることが報知される(ステップS11)。これにより、診断プログラムが終了し、その後、動作プログラムへの移行が可能となる。
 一方、算出された位置ずれ量D1が閾値を超えない場合には、ロボット制御部31が、ロボット10を、第2姿勢に対して第3手首要素18を第6軸線J6に交差する方向に微小移動させた第3姿勢に設定する(ステップS12)。
 この状態において、ステップS3からステップS9と同様に、カメラ20は、ロボット10が第3姿勢の場合におけるターゲットTの画像を第3画像P3として取得する(ステップS13)。また、画像処理部33が第3画像P3内におけるターゲットTの中心位置の座標C3を抽出し、記憶部34に記憶させる(ステップS14)。
 次いで、ロボット制御部31によって、第3姿勢に対して第3手首要素18だけを第6軸線J6回りに回転させ、ロボット10を第4姿勢に設定する(ステップS15)。この状態で、カメラ20がターゲットTを含む第4画像P4を取得し(ステップS16)、画像処理部33が、第4画像P4内のターゲットTの中心位置の座標C4を抽出するとともに、記憶部34に記憶させる(ステップS17)。
 そして、判定部35は、第3画像P3,第4画像P4におけるターゲットTの中心位置の座標C3,C4間の位置ずれ量D2を算出し(ステップS18)、算出した位置ずれ量D2と閾値とを比較する(ステップS19)。その結果、位置ずれ量D2が閾値より大きい場合には、判定部35は、カメラ20が第3手首要素18に取り付けられたハンドカメラであると判定する(ステップS10)。
 一方、位置ずれ量D2が閾値を超えない場合には、カメラ20はハンドカメラではないと判定される(ステップS20)。この場合、報知部36は、カメラ20がハンドカメラであると判定された場合とは異なる報知方法で、外部の作業者等に対して、ロボット10が動作プログラムを正常に実行することができない状態にあることを報知する(ステップS11)。そして、動作プログラムの実行を禁止しつつ、診断プログラムを終了する。
 このように、本実施形態に係るロボットシステム1、制御装置30、診断方法および診断プログラムによれば、ロボット10が第1姿勢および第2姿勢の場合に取得した画像を比較するだけで、簡易にカメラ20がハンドカメラか否かを判定することができる。
 また、第1姿勢と第2姿勢との間では、第6軸線J6回りに第3手首要素18を動作させるだけであり、しかもその動作は微小角度で足りるので、ロボット10と外部構造物等との干渉を回避することができる。
 さらに、ロボット10が第1姿勢および第2姿勢の場合に取得した画像だけでは、カメラ20がハンドカメラであることが判定できなかった場合に、ロボット10を第3姿勢および第4姿勢にして取得した画像によって、ハンドカメラか否かの判定が行われる。そのため、より確実にカメラ20がハンドカメラであるか否かを判定することができる。
 第1姿勢および第2姿勢において取得した各画像の間でターゲットTの位置が変化しない場合としては、カメラ20がハンドカメラではない場合の他、ハンドカメラであってもターゲットTの中心を第6軸線J6が通過している場合が含まれる。すなわち、作業者によって設定されたロボット10の第1姿勢において、ターゲットTの中心位置に第6軸線J6が偶然一致したとしても、カメラ20がハンドカメラか否かを確実に判定することができる。
 これにより、カメラ20が第3手首要素18に固定されていない状態においては、カメラ20が第3手首要素18に固定されたことを前提とした動作プログラムが実行されてしまうことを確実に防止することができる。
 なお、本実施形態においては、第1姿勢と第2姿勢との間におけるターゲットTの位置ずれ量D1および第3姿勢と第4姿勢との間におけるターゲットTの位置ずれ量D2のそれぞれに基づいて、ハンドカメラであるか否かの判定を行った。これに代えて、位置ずれ量D1と位置ずれ量D2との両者に基づいて、ハンドカメラか否かの判定を行ってもよい。
 例えば、判定部35は、位置ずれ量D1の絶対値と位置ずれ量D2の絶対値とを加算した値をパラメータとして、カメラ20がハンドカメラであるか否かの判定を行う。
 すなわち、位置ずれ量D1および位置ずれ量D2が比較的小さい場合、あるいは、位置ずれ量D1と位置ずれ量D2とが互いに打ち消す方向関係にある場合であっても、ハンドカメラか否かの判定に用いるパラメータとして必要な大きさを確保することができる。
 これにより、診断プログラムの実行において、ロボット10の動作範囲をより小さく抑えることができるとともに、ロボット10の動作方向の制約を低減することができ、診断プログラムの実行に必要となるスペースの縮小化を図ることができる。
 また、本実施形態においては、ターゲットTを単一の円形のマークとしたが、これに代えて、ターゲットTとして、複数の円形のマークを採用してもよい。あるいは、単一のマークであって、その向きを認識することができる異形のマークを採用してもよい。
 例えば、第1姿勢におけるカメラ20の視野内に、ターゲットTとして円形のマークを2つ配置した場合には、少なくともいずれか一方のマークの中心位置を第6軸線J6の位置と異ならせることができる。
 したがって、診断プログラムにおいて、第1姿勢におけるターゲットTが、偶然に第6軸線J6に一致してしまう場合を考慮し、ロボット10の第3姿勢および第4姿勢におけるターゲットTの位置ずれを判定する工程を省略することができる。これにより、カメラ20がハンドカメラであるか否かをより容易に判定することができる。
 次に、本開示の第2の実施形態に係るロボットシステム1、制御装置30、診断方法および診断プログラムについて、以下に説明する。
 本実施形態に係るロボットシステム1、制御装置30、診断方法および診断プログラムにおいて、上述した第1の実施形態に係るロボットシステム1、制御装置30、診断方法および診断プログラムと共通する箇所については同一の符号を付して説明を省略する。
 本実施形態おいては、カメラ20が取り付けられているか否かを診断する対象である対象要素を第3手首要素18から基端側に向かって順次変更して、カメラ20の固定位置を判定する。
 具体的には、本実施形態に係るロボットシステム1は、図8および図9に示されるように、ステップS101において、第3手首要素18を対象要素として設定した後に、ステップS2からの工程を実行する。そして、ステップS19において位置ずれ量D2が閾値以下である場合には、ステップS102において、対象要素である第3手首要素18にはカメラ20が取り付けられていないと判定する。
 対象要素にカメラ20が取り付けられていないと判定された場合には、ステップS103において、全ての対象要素について診断が終了したか否かが判定され、終了していない場合には、対象要素を1つ基端側の手首要素である第2手首要素17に変更し(ステップS104)、再びステップS2からの工程が繰り返される。ここで、対象要素が変更された後におけるステップS2は、ロボット10を第1姿勢と同じ姿勢あるいは、カメラ20の視野内にターゲットTを配置する第1姿勢とは異なる姿勢である第5姿勢に設定する。また、ステップS5は、第5姿勢のロボット10に対して、変更された対象要素をその対象要素の回転軸線回りに微小回転させ、第6姿勢に設定する。同様に、ステップS12,S15においても、ロボット10を、それぞれ第3手首要素18を対象要素とした場合の第3姿勢,第4姿勢とは異なる第7姿勢,第8姿勢に設定する。
 すなわち、対象要素が第2手首要素17となった場合には、第6姿勢は、第5姿勢に対して、第5軸線J5回りに第2手首要素17を微小回転させた姿勢である。
 また、第7姿勢は、第6姿勢のロボット10の第2手首要素17を第5軸線J5に交差する方向に微小距離だけ移動させた姿勢であり、第8姿勢は、第7姿勢に対して第2手首要素17だけを第5軸線J5回りに微小回転させた姿勢である。
 これにより、第2手首要素17にカメラ20が取り付けられているか否かを診断することができる。
 第2手首要素17にカメラ20が取り付けられていないと判定された場合には、1つ基端側の第1手首要素16にカメラ20が固定されているか否かを判定する。同様にして、第2アーム14、第1アーム13および旋回胴12にカメラ20が固定されているか否かを判定することができる。
 例えば、図1に示すロボット10において、カメラ20が第2手首要素17に固定されている場合には、診断プログラムが実行されると、まず、対象要素が第3手首要素18に設定され、第1の実施形態と同様にして、ロボット10が第1姿勢から第4姿勢まで動作させられ、ステップS102において、対象要素である第3手首要素18には、カメラ20が取り付けられていないと判定される。
 この場合、ステップS103においては、全ての対象要素に対する診断が終了していないと判定されるため、ステップS104において、対象要素が1つ基端側の第2手首要素17に変更され、ステップS2からの工程が繰り返される。すなわち、第3手首要素18を対象要素とした場合の第1姿勢と同じ姿勢である第5姿勢にロボット10が動作させられ(ステップS2)、第5画像P5が取得される(ステップS3)。そして、第5画像P5内におけるターゲットTの中心位置の座標C1が抽出され記憶される(ステップS4)。
 また、第5姿勢に対して第5軸線J5回りに第2手首要素17を微小回転させた第6姿勢にロボット10が動作させられ(ステップS5)、第6画像P6が取得される(ステップS6)。そして、第6画像P6内におけるターゲットTの座標C2が算出および記憶される(ステップS7)。次いで、位置ずれ量D1が算出され(ステップS8)、位置ずれ量D1と閾値とが比較される(ステップS9)。この場合、位置ずれ量D1は閾値よりも大きくなるため、カメラ20が対象要素である第2手首要素17に固定されていると判定され(ステップS10)、その結果が報知される(ステップS11)。
 一方、ステップS103において、全ての対象要素についての診断が終了した場合には、どの対象要素にもカメラ20が取り付けられていない旨が報知される(ステップS11)。
 このように、本実施形態の診断プログラムによれば、カメラ20が、どの手首要素あるいは、どのアームに固定されているかを特定することができる。これにより、ハンドカメラであることを前提とした動作プログラムだけでなく、カメラ20が他の要素に固定されていることを前提とした動作プログラムの実行前においても、本診断プログラムを適用することができ、本ロボットシステム1の汎用性が向上する。
1 ロボットシステム
10 ロボット
12 旋回胴(可動要素)
13 第1アーム(可動要素)
14 第2アーム(可動要素、ロボットアーム)
15 手首ユニット
16 第1手首要素(可動要素)
17 第2手首要素(可動要素)
18 第3手首要素(可動要素、手首要素)
20 カメラ(視覚センサ)
30 制御装置
36 報知部
D1 位置ずれ量(移動量)
D2 位置ずれ量(移動量)
J6 第6軸線(回転軸線)

Claims (10)

  1.  1以上の回転軸線回りにそれぞれ回転可能な1以上の可動要素を備えるロボットと、
     該ロボットを制御する制御装置と、
     前記ロボットのいずれかの前記可動要素に取り付けられる視覚センサとを備え、
     前記制御装置が、
     前記ロボットのいずれかの前記可動要素を対象要素として、
     所定の位置に固定された所定のターゲットを前記視覚センサの視野内に配置する前記ロボットの任意の第1姿勢において前記視覚センサにより取得された第1画像内の前記ターゲットの位置と、前記第1姿勢に対して前記対象要素を該対象要素の前記回転軸線回りに回転させた第2姿勢において前記視覚センサにより取得された第2画像内の前記ターゲットの位置とを比較し、
     前記第1画像および前記第2画像内の前記ターゲットの位置が異なる場合に、前記視覚センサが前記対象要素に取り付けられていると判定するロボットシステム。
  2.  前記ロボットが、ロボットアームと、該ロボットアームの先端に取り付けられた手首ユニットとを備え、
     前記対象要素となる前記可動要素が、前記手首ユニットの最先端の手首要素である請求項1に記載のロボットシステム。
  3.  前記第1画像および前記第2画像内における前記ターゲットの位置の比較の結果、前記ターゲットの位置が変化していない場合に、
     前記第1姿勢に対して前記対象要素を該対象要素の前記回転軸線に交差する方向に変位させ、前記ターゲットを前記視覚センサの前記視野内に配置する第3姿勢において取得された第3画像内の前記ターゲットの位置と、前記第3姿勢に対して前記対象要素を該対象要素の前記回転軸線回りに回転させた第4姿勢において取得された第4画像内の前記ターゲットの位置とを比較し、
     前記第3画像および前記第4画像内の前記ターゲットの位置が異なる場合に、前記視覚センサが前記対象要素に取り付けられていると判定する請求項1または請求項2に記載のロボットシステム。
  4.  前記制御装置が、前記第1画像と前記第2画像との間における前記ターゲットの移動量と、前記第3画像と前記第4画像との間における前記ターゲットの移動量とに基づいて、前記視覚センサが前記対象要素に取り付けられているか否かを判定する請求項3に記載のロボットシステム。
  5.  前記制御装置は、前記視覚センサが前記対象要素に取り付けられていないと判定された場合に、前記ロボットの動作を停止する請求項1から請求項4のいずれかに記載のロボットシステム。
  6.  前記制御装置は、前記視覚センサが前記対象要素に取り付けられていないと判定された場合に、その旨を報知する報知部を備える請求項1から請求項4のいずれかに記載のロボットシステム。
  7.  前記制御装置は、前記視覚センサが前記対象要素である前記可動要素に取り付けられていないと判定された場合に、前記可動要素よりも基端側の他の前記可動要素を先端側から順に順次前記対象要素として、前記ロボットの任意の第5姿勢において前記視覚センサにより取得された第5画像内の前記ターゲットの位置と、前記第5姿勢に対して前記対象要素を該対象要素の回転軸線回りに回転させた第6姿勢において前記視覚センサにより取得された第6画像内の前記ターゲットの位置とが異なる場合に、前記視覚センサが前記対象要素に取り付けられていると判定する請求項1から請求項4のいずれかに記載のロボットシステム。
  8.  1以上の回転軸線回りにそれぞれ回転可能な1以上の可動要素を備え、いずれかの該可動要素に視覚センサが取り付けられたロボットの制御装置であって、
     前記ロボットのいずれかの前記可動要素を対象要素として、
     所定の位置に固定された所定のターゲットを前記視覚センサの視野内に配置する前記ロボットの任意の第1姿勢において前記視覚センサにより取得された第1画像内の前記ターゲットの位置と、前記第1姿勢に対して前記対象要素を該対象要素の前記回転軸線回りに回転させた第2姿勢において前記視覚センサにより取得された第2画像内の前記ターゲットの位置とを比較し、
     前記第1画像および前記第2画像内の前記ターゲットの位置が異なる場合に、前記視覚センサが前記対象要素に取り付けられていると判定する制御装置。
  9.  1以上の回転軸線回りにそれぞれ回転可能な1以上の可動要素を備え、いずれかの該可動要素に視覚センサが取り付けられたロボットの診断方法であって、
     前記ロボットのいずれかの前記可動要素を対象要素として、
     所定の位置に固定された所定のターゲットを前記視覚センサの視野内に配置する前記ロボットの任意の第1姿勢において前記視覚センサにより取得された第1画像内の前記ターゲットの位置と、前記第1姿勢に対して前記対象要素を該対象要素の前記回転軸線回りに回転させた第2姿勢において前記視覚センサにより取得された第2画像内の前記ターゲットの位置とを比較し、
     前記第1画像および前記第2画像内の前記ターゲットの位置が異なる場合に、前記視覚センサが前記対象要素に取り付けられていると判定する診断方法。
  10.  1以上の回転軸線回りにそれぞれ回転可能な1以上の可動要素を備え、いずれかの該可動要素に視覚センサが取り付けられたロボットを診断する診断プログラムであって、
     前記ロボットのいずれかの前記可動要素を対象要素として、
     所定の位置に固定された所定のターゲットを前記視覚センサの視野内に配置する前記ロボットの任意の第1姿勢において前記視覚センサにより取得された第1画像内の前記ターゲットの位置と、前記第1姿勢に対して前記対象要素を該対象要素の前記回転軸線回りに回転させた第2姿勢において前記視覚センサにより取得された第2画像内の前記ターゲットの位置とを比較し、
     前記第1画像および前記第2画像内の前記ターゲットの位置が異なる場合に、前記視覚センサが前記対象要素に取り付けられていると判定するコンピュータにより実行可能な診断プログラム。
     
     
     
PCT/JP2021/028761 2021-08-03 2021-08-03 ロボットシステム、制御装置、診断方法および診断プログラム WO2023012894A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
PCT/JP2021/028761 WO2023012894A1 (ja) 2021-08-03 2021-08-03 ロボットシステム、制御装置、診断方法および診断プログラム
CN202180100634.2A CN117677476A (zh) 2021-08-03 2021-08-03 机器人系统、控制装置、诊断方法以及诊断程序
DE112021007681.7T DE112021007681T5 (de) 2021-08-03 2021-08-03 Robotersystem, steuervorrichtung, diagnosverfahren und diagnoseprogramm
TW111126930A TW202306729A (zh) 2021-08-03 2022-07-18 機器人系統、控制裝置、診斷方法以及診斷程式

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/028761 WO2023012894A1 (ja) 2021-08-03 2021-08-03 ロボットシステム、制御装置、診断方法および診断プログラム

Publications (1)

Publication Number Publication Date
WO2023012894A1 true WO2023012894A1 (ja) 2023-02-09

Family

ID=85154380

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/028761 WO2023012894A1 (ja) 2021-08-03 2021-08-03 ロボットシステム、制御装置、診断方法および診断プログラム

Country Status (4)

Country Link
CN (1) CN117677476A (ja)
DE (1) DE112021007681T5 (ja)
TW (1) TW202306729A (ja)
WO (1) WO2023012894A1 (ja)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS642891A (en) * 1987-06-25 1989-01-06 Omron Tateisi Electron Co Robot system with visual sense
JPH01193902A (ja) * 1988-01-29 1989-08-03 Hitachi Ltd 手先視覚付きロボットの座標系較正方法
JPH04313106A (ja) * 1991-03-25 1992-11-05 Mitsubishi Electric Corp ロボットアーム相対姿勢補正方法
JP2005131761A (ja) * 2003-10-31 2005-05-26 Fanuc Ltd 産業用ロボット
JP2005138223A (ja) * 2003-11-06 2005-06-02 Fanuc Ltd ロボット用位置データ修正装置
JP2005149299A (ja) * 2003-11-18 2005-06-09 Fanuc Ltd 教示位置修正装置
JP2015160264A (ja) * 2014-02-26 2015-09-07 株式会社Ihi 把持方法および把持装置
JP2016221615A (ja) * 2015-05-29 2016-12-28 キヤノン株式会社 ロボット装置の診断方法、およびロボットシステム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3561120B2 (ja) 1997-09-19 2004-09-02 日産ディーゼル工業株式会社 圧力容器のセンサ信号取出用プラグ

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS642891A (en) * 1987-06-25 1989-01-06 Omron Tateisi Electron Co Robot system with visual sense
JPH01193902A (ja) * 1988-01-29 1989-08-03 Hitachi Ltd 手先視覚付きロボットの座標系較正方法
JPH04313106A (ja) * 1991-03-25 1992-11-05 Mitsubishi Electric Corp ロボットアーム相対姿勢補正方法
JP2005131761A (ja) * 2003-10-31 2005-05-26 Fanuc Ltd 産業用ロボット
JP2005138223A (ja) * 2003-11-06 2005-06-02 Fanuc Ltd ロボット用位置データ修正装置
JP2005149299A (ja) * 2003-11-18 2005-06-09 Fanuc Ltd 教示位置修正装置
JP2015160264A (ja) * 2014-02-26 2015-09-07 株式会社Ihi 把持方法および把持装置
JP2016221615A (ja) * 2015-05-29 2016-12-28 キヤノン株式会社 ロボット装置の診断方法、およびロボットシステム

Also Published As

Publication number Publication date
TW202306729A (zh) 2023-02-16
CN117677476A (zh) 2024-03-08
DE112021007681T5 (de) 2024-03-07

Similar Documents

Publication Publication Date Title
JP7170784B2 (ja) 撮像装置及び入力コントロールを再芯出しするためのシステム及び方法
JP6966582B2 (ja) ロボットモーション用のビジョンシステムの自動ハンドアイ校正のためのシステム及び方法
US8392022B2 (en) Device comprising a robot, medical work station, and method for registering an object
JP4844453B2 (ja) ロボットの教示装置及び教示方法
US11565427B2 (en) Robot system
EP3119342B1 (en) System for maintaining a tool pose
EP1215017B1 (en) Robot teaching apparatus
US7724380B2 (en) Method and system for three-dimensional measurement
JP2003117861A (ja) ロボットの位置補正システム
CN113056351A (zh) 外部输入设备、机器人系统、机器人系统的控制方法、控制程序及记录介质
JP2005106825A (ja) 受像装置の位置および方向づけの決定方法および装置
JP6897396B2 (ja) 制御装置、ロボットシステムおよび制御方法
JP5573537B2 (ja) ロボットのティーチングシステム
WO2023012894A1 (ja) ロボットシステム、制御装置、診断方法および診断プログラム
JP3754340B2 (ja) 位置検出装置
JPS5878205A (ja) 工業用ロボツトのテイ−チング方法
KR102333281B1 (ko) 툴이 이동할 위치를 티칭하는 로봇암 및 로봇암의 동작 방법
WO2022075303A1 (ja) ロボットシステム
JPH1011146A (ja) 移動体の停止姿勢補正装置
US11759955B2 (en) Calibration method
JP2616225B2 (ja) 相対位置決め方式
JP2006346790A (ja) ロボットと干渉判別方法と干渉判別装置
JP2000039911A (ja) ロボット制御装置
JP2019115950A (ja) ロボット制御装置、ロボットおよびロボットシステム
JP2000094370A (ja) ロボットの作業表面の傾き測定方法およびその測定装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21952723

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023539416

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 18561397

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 112021007681

Country of ref document: DE