WO2020255410A1 - ロボット制御システム及びロボット制御方法 - Google Patents

ロボット制御システム及びロボット制御方法 Download PDF

Info

Publication number
WO2020255410A1
WO2020255410A1 PCT/JP2019/024823 JP2019024823W WO2020255410A1 WO 2020255410 A1 WO2020255410 A1 WO 2020255410A1 JP 2019024823 W JP2019024823 W JP 2019024823W WO 2020255410 A1 WO2020255410 A1 WO 2020255410A1
Authority
WO
WIPO (PCT)
Prior art keywords
work
end effector
camera
held
coordinate
Prior art date
Application number
PCT/JP2019/024823
Other languages
English (en)
French (fr)
Inventor
岡本 実幸
祐一郎 菊川
信夫 大石
Original Assignee
株式会社Fuji
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Fuji filed Critical 株式会社Fuji
Priority to PCT/JP2019/024823 priority Critical patent/WO2020255410A1/ja
Priority to JP2021528628A priority patent/JP7242856B2/ja
Publication of WO2020255410A1 publication Critical patent/WO2020255410A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices

Definitions

  • This specification discloses a technology relating to a robot control system and a robot control method equipped with a camera that images a work held by an end effector at the tip of the robot arm from below.
  • Patent Document 1 Japanese Unexamined Patent Publication No. 2018-103352
  • the end effector The held work is imaged from below by a camera, the position of the work is recognized by processing the image, and the work is positioned and set at a predetermined work position based on the recognition result.
  • the working distance which is the distance between the lower end of the work held by the end effector and the camera
  • the resolution of the captured image (the actual length of the imaging site per pixel [ ⁇ m / pixel]) changes. Therefore, since the position of the work held by the end effector cannot be accurately recognized, it is necessary to keep the working distance constant when imaging the work. In this case, since the position of the camera is fixed, in order to keep the working distance constant, it is necessary to keep the height position of the lower end of the work at the time of imaging the work.
  • the height position of the end effector during work imaging depends on the size of the work. Need to be adjusted.
  • a robot that sets the work held by the end effector at the tip of the arm at a predetermined work position, a camera that captures the work held by the end effector from below, and the robot.
  • the control unit includes a control unit that controls the operation, and the control unit sets the imaging position at a position separated from the camera by a predetermined distance, and operates the robot arm to capture the lower end of the work held by the end effector.
  • the work is imaged by the camera in a state of being lowered to the position, the position of the work is recognized by processing the image, and the work is positioned and set at a predetermined work position based on the recognition result.
  • the robot control system includes a sensor unit that detects that the lower end of the work held by the end effector has descended to the imaging position or a position at the same height as the imaging position, and the control unit is held by the end effector.
  • the lower end of the work is lowered to the imaging position based on the detection result of the sensor unit to keep the working distance, which is the distance between the lower end of the work and the camera, constant. I tried to keep it.
  • the sensor unit that detects that the lower end of the work held by the end effector has descended to the imaging position or a position at the same height as the imaging position is provided, it is based on the detection result of the sensor unit during workpiece imaging.
  • the working distance can be automatically kept constant, and the user does not have to perform the troublesome work of adjusting the height position of the end effector at the time of imaging the work for each size of the work and each type of end effector. Further, even when an inexpensive robot whose arm operation control accuracy is not so high is used, the position recognition accuracy (positioning accuracy) of the workpiece can be ensured.
  • FIG. 1 is a front view showing the appearance of the robot control system of the first embodiment.
  • FIG. 2 is a block diagram showing an electrical configuration of the robot control system of the first embodiment.
  • FIG. 3 is a front view showing a configuration for detecting the working distance of the second embodiment.
  • FIG. 4 is a front view showing the configuration of the end effector of the third embodiment.
  • FIG. 5 is a front view illustrating a method of detecting the working distance of the fifth embodiment.
  • Example 1 of the present invention will be described with reference to FIGS. 1 and 2. First, the configuration of the robot 11 will be described with reference to FIG.
  • the robot 11 is, for example, a 5-axis vertical articulated robot, and has a fixed base 13 installed on the factory floor 12 and a second joint axis 14 (J1) rotatably provided on the fixed base 13.
  • 1 arm 15 a second arm 17 provided at the tip of the first arm 15 so as to be swivelable by a second joint shaft 16 (J2), and a third joint shaft 18 (J3) at the tip of the second arm 17.
  • a third arm 19 rotatably provided by the arm 19 and a wrist portion 21 (arm tip) rotatably provided at the tip of the third arm 19 by a fourth joint shaft 20 (J4), and the wrist portion 21.
  • It is composed of an end effector 23 that is rotatably and interchangeably attached around a fifth joint shaft 22 (J5). As a result, the end effector 23 attached to the wrist portion 21 is swiveled by the fourth joint shaft 20 which is the joint axis of the wrist portion 21.
  • the end effector 23 may be, for example, a suction tool such as a suction nozzle or a suction pad that sucks the upper surface of the work 24, or a chuck that grips the side surface of the work 24. In short, the work 24 is sucked. Anything that can be held by gripping or gripping is sufficient.
  • FIG. 1 shows an example in which an adsorbent is used as the end effector 23.
  • the first to fifth joint axes 14, 16, 18, 20, and 22 of the robot 11 are driven by servomotors 25 to 29 (see FIG. 2), respectively.
  • the servomotors 25 to 29 are provided with encoders 31 to 35 for detecting the rotation angle, and the rotation angle information detected by the encoders 31 to 35 is transmitted via the servo amplifier 36. It is fed back to the control unit 37. As a result, the control unit 37 feeds back the servomotors 25 to 29 via the servo amplifier 36 so that the rotation angles of the servomotors 25 to 29 detected by the encoders 31 to 35 match the target rotation angles.
  • the servo amplifier 36 is a multi-axis amplifier that feedback-controls a plurality of servomotors 25 to 29, but the servomotors 25 to 29 are feedback-controlled one by one by separate servo amplifiers. Is also good.
  • the camera 41 that images the work 24 held by the end effector 23 from below. Is fixed upward on the camera stand 42.
  • the working distance WD which is the distance between the lower end of the work 24 and the lens 41a of the camera 41, is kept constant and the captured image is imaged.
  • the imaging position is set at a height position above the lens 41a of the camera 41 by a predetermined working distance WD. Then, the lower end of the work 24 held by the end effector 23 is lowered to the imaging position, and the work 24 is imaged by the camera 41 from below in a state where the working distance WD is constant.
  • Sensor mounting frames 43a and 43b are fixed vertically upward on both sides of the camera 41 on the camera stand 42, and the upper ends of the sensor mounting frames 43a and 43b extend to a position slightly higher than the imaging position.
  • a light emitting element 44a and a light receiving element 44b of the optical sensor 44 are provided as sensor units for detecting that the lower end of the work 24 held by the end effector 23 has been lowered to the imaging position. It is installed so as to face each other in the horizontal direction.
  • the light projecting element 44a of the optical sensor 44 is arranged so as to irradiate light in the horizontal direction from the same height position as the imaging position and receive the light by the light receiving element 44b, and the light projecting element 44a and the light receiving element
  • the light path extending in the horizontal direction between the work 24 and the work 24 is blocked by the lower end of the work 24 to be detected, so that it is detected that the lower end of the work 24 has descended to the imaging position.
  • the optical path extending in the horizontal direction between the light emitting element 44a and the light receiving element 44b of the optical sensor 44 is configured to be orthogonal to the vertically upward optical axis of the camera 41.
  • the camera 41 and the optical sensor 44 are assembled on the camera stand 42 in the predetermined positional relationship described above, and the camera unit can be installed on other robots. There is.
  • the robot control unit 51 that controls the operation of the robot 11 configured as described above has a configuration including an image processing unit 45, a control unit 37, a servo amplifier 36, and the like.
  • the control unit 37 operates the arms 15, 17, 19 and the wrist portion 21 of the robot 11 to lower the lower end of the work 24 held by the end effector 23 to the imaging position, and then moves the work 24 from below to the camera.
  • the relative position of the work 24 with respect to the end effector 23 is recognized, and the work 24 is moved to a predetermined work position based on the recognition result. Perform the work of positioning and setting.
  • control unit 37 repeats the operation of holding the work 24 by the end effector 23 and moving it to the imaging position and the working position, the control unit 37 takes the imaging position in the same path in order to keep the backlash (hysteresis) of the robot 11 constant. And move to the work position.
  • the working distance WD which is the distance between the lower end of the work 24 held by the end effector 23 and the lens 41a of the camera 41
  • the resolution of the captured image changes and the position of the work 24 held by the end effector 23 cannot be accurately recognized. Therefore, it is necessary to keep the working distance WD constant at the time of imaging the work.
  • the position of the camera 41 is fixed, in order to keep the working distance WD constant, it is necessary to keep the height position of the lower end of the work 24 at the time of imaging the work.
  • the control unit 37 detects that the lower end of the work 24 held by the end effector 23 has been lowered to the imaging position. Based on the detection result of the optical sensor 44, the lower end of the work 24 is lowered to the imaging position, and the working distance WD, which is the distance between the lower end of the work 24 and the lens 41a of the camera 41, is kept constant. The work 24 is imaged by the camera 41.
  • control unit 37 each time the control unit 37 holds the work 24 on the end effector 23, the control unit 37 lowers the end effector 23 until the optical sensor 44 detects the lower end of the work 24, and the lower end of the work 24 is imaged.
  • the work 24 may be imaged by the camera 41 in a state of being lowered to.
  • the lower end of the work 24 is first detected by the optical sensor 44 only once, and the work 24 is detected by the camera 41. After that, every time the work 24 of the same size is held by the end effector 23, the lower end of the work 24 is lowered to the imaging position by using the detection result of the first optical sensor 44, and the work 24 is moved to the camera 41. You may take an image with.
  • the control unit 37 first lowers the work 24 held by the end effector 23, and the height direction (Z direction) of the end effector 23 when the optical sensor 44 detects the lower end of the work 24.
  • the Z coordinate which is the coordinate, is set as the target Z coordinate at the time of imaging the work, the work 24 is imaged by the camera 41, and thereafter, every time the work 24 having the same size as the work 24 is held by the end effector 23, light is emitted.
  • the lower end of the work 24 is lowered to the imaging position to keep the working distance WD constant.
  • the work 24 may be imaged by the camera 41 while being maintained.
  • the Z coordinate of the end effector 23 when the optical sensor 44 first detects the lower end of the work 24 is the target Z at the time of imaging the work. If the coordinates are set, thereafter, by controlling the Z coordinate of the end effector 23 to the target Z coordinate, the work 24 can be imaged by the camera 41 while the working distance WD is kept constant. In this case, the control unit 37 resets the target Z coordinate at the time of imaging the work every time the size of the work 24 held by the end effector 23 changes, and every time the end effector 23 attached to the wrist portion 21 is replaced. , The target Z coordinate at the time of workpiece imaging may be reset.
  • the optical sensor 44 for detecting that the lower end of the work 24 held by the end effector 23 has been lowered to the imaging position is provided, the detection result of the optical sensor 44 at the time of imaging the work is obtained. Based on this, the working distance WD can be automatically kept constant, and the user has to adjust the height position of the end effector 23 at the time of imaging the work for each size of the work 24 and each type of the end effector 23. You don't have to. Further, even when an inexpensive robot whose arm operation control accuracy is not so high is used, the position recognition accuracy (positioning accuracy) of the work 24 can be ensured.
  • this camera unit since it is configured as a camera unit in which the camera 41, the light emitting element 44a of the optical sensor 44, and the light receiving element 44b are assembled on the camera base 42 in a predetermined positional relationship, this camera unit can be installed in other robots. Therefore, the present invention can be easily carried out. Further, even if the relative positional relationship between the robot 11 and the camera unit is deviated or changed, the user does not have to perform the troublesome work of adjusting the height position of the end effector 23 at the time of working image imaging. ..
  • the optical sensor 44 is used as a sensor unit for detecting that the lower end of the work 24 held by the end effector 23 has descended to the imaging position, but the laser beam is irradiated in the horizontal direction.
  • a laser sensor that detects the detection target may be used.
  • Example 2 will be described with reference to FIG. However, substantially the same parts as those in the first embodiment are designated by the same reference numerals to omit or simplify the description, and mainly different parts will be described.
  • the touch sensor 52 is horizontally mounted near the upper end of the sensor mounting frame 43a, and the upper surface of the touch sensor 52 is at the same height as the imaging position.
  • the position of the touch sensor 52 is a position outside the field of view of the camera 41 (a position that does not interfere with the imaging of the work 24) and is set to a position close to the imaging position.
  • the control unit 37 first lowers the work 24 held by the end effector 23 to bring the lower end of the work 24 into contact with the touch sensor 52, so that the lower end of the work 24 is brought into contact with the touch sensor 52.
  • the Z coordinate which is the coordinate in the height direction (Z direction) of the end effector 23 at the time of detection, is set as the target Z coordinate at the time of imaging the work, and the work 24 is moved laterally to move the lower end of the work 24.
  • the work 24 is imaged by the camera 41 while being positioned at the imaging position, and thereafter, every time the work 24 having the same size as the work 24 is held by the end effector 23, the process of detecting by the touch sensor 52 is omitted, and the work 24 is moved.
  • the Z coordinate of the held end effector 23 By controlling the Z coordinate of the held end effector 23 to the target Z coordinate, the lower end of the work 24 is lowered to the imaging position, and the work 24 is imaged by the camera 41 in a state where the working distance WD is kept constant.
  • Example 3 will be described with reference to FIG. However, substantially the same parts as those of the first or second embodiment are designated by the same reference numerals, and the description thereof will be omitted or simplified, and mainly different parts will be described.
  • a chuck 53 that grips the side surface of the work 24 is used as the end effector.
  • the chuck 53 includes a gripping position regulating portion 54 that abuts on the upper surface of the work 24 when gripping the side surface of the work 24 and keeps the gripping position of the side surface of the work 24 constant in the height direction.
  • the chuck 53 is similar to the case of using a suction tool such as a suction nozzle that sucks the upper surface of the work 24.
  • the working distance WD at the time of imaging the work can be kept constant by the control method described in the first or second embodiment.
  • Example 4 will be described. However, substantially the same parts as those in the first to third embodiments are designated by the same reference numerals to omit or simplify the description, and mainly different parts will be described.
  • the sensor unit (optical sensor 44, laser sensor, touch sensor 52, etc.) indicates that the lower end of the work 24 held by the end effector 23 or 53 has lowered to the imaging position or a position at the same height as the imaging position.
  • the sensor unit indicates that the lower end of the end effector 23 or 53 that does not hold the work 24 has descended to the recording position or the same height position.
  • Laser sensor, touch sensor 52, etc. indicates that the lower end of the end effector 23 or 53 that does not hold the work 24 has descended to the recording position or the same height position.
  • the control unit 37 works the Z coordinate (Z), which is the coordinate in the height direction of the end effector 23 or 53 when the sensor unit detects the lower end of the end effector 23 or 53, on the end effector 23 or 53.
  • the Z coordinate (Z + ⁇ Z) offset upward by the downward protrusion dimension ( ⁇ Z) of the work 24 from the lower end of the end effector 23 or 53 when the 24 is held is set as the target Z coordinate at the time of imaging the work, and thereafter.
  • the process of detecting by the sensor unit is omitted, and the Z coordinate of the end effector 23 or 53 is set as described above.
  • the lower end of the work 24 is lowered to the imaging position, and the work 24 is camerad while the working distance WD, which is the distance between the lower end of the work 24 and the camera 41, is kept constant. Image at 41.
  • the end effector 23 is a suction tool such as a suction nozzle that sucks the upper surface of the work 24
  • the work 24 protrudes downward from the lower end of the end effector 23 when the work 24 is held by the end effector 23.
  • the dimension ( ⁇ Z) coincides with the height dimension of the work 24.
  • the downward protrusion dimension ( ⁇ Z) of the work 24 from the lower end of the chuck 53 is smaller than the height dimension of the work 24 by the gripping amount of the chuck 53. Become.
  • Example 5 will be described with reference to FIG. However, substantially the same parts as those in the first to third embodiments are designated by the same reference numerals to omit or simplify the description, and mainly different parts will be described.
  • the sensor unit detects that the lower end of the jig 55 held by the end effector 23 has lowered to the imaging position or a position at the same height as the imaging position.
  • the jig 55 may be, for example, a calibration jig for measuring resolution or the like, a sample part, or the like, and in short, the height dimension of the jig 55 may be known. ..
  • a chuck 53 as shown in FIG. 4 it is sufficient that the downward protrusion dimension ( ⁇ Z2) of the jig 55 from the lower end of the chuck 53 is known.
  • the control unit 37 ends the Z coordinate (Z), which is the coordinate in the height direction of the end effector 23 or 53 when the sensor unit detects the lower end of the jig 55 held by the end effector 23 or 53.
  • the Z coordinate (Z + ⁇ Z1- ⁇ Z2) offset upward by the difference ( ⁇ Z1- ⁇ Z2) from the downward protrusion dimension ( ⁇ Z2) of the jig 55 from the lower end of 23 or 53 is set as the target Z coordinate at the time of workpiece imaging.
  • the process of detecting by the sensor unit is omitted, and the Z of the end effector 23 or 53 is omitted.
  • the lower end of the work 24 is lowered to the imaging position, and the working distance WD, which is the distance between the lower end of the work 24 and the camera 41, is kept constant.
  • the work 24 is imaged by the camera 41.
  • the present invention is not limited to the above-described first to fifth embodiments, and it goes without saying that the present invention can be variously modified without departing from the gist, such as the configuration of the robot 11 may be appropriately modified. is there.

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)

Abstract

ロボット(11)のエンドエフェクタ(23)に保持したワーク(24)をその下方から撮像するカメラ(41)を備え、このカメラから上方に所定距離離れた位置を撮像位置とし、ロボットのアームを動作させてエンドエフェクタに保持したワークの下端を撮像位置まで下降させた状態で当該ワークを前記カメラで撮像して、その画像を処理することで当該ワークの位置を認識し、その認識結果に基づいて当該ワークを所定の作業位置に位置決めしてセットする。エンドエフェクタに保持したワークの下端が撮像位置又はそれと同じ高さの位置まで下降したことをセンサ部(44)で検出し、エンドエフェクタに保持したワークをカメラで撮像する際に、前記センサ部の検出結果に基づいて当該ワークの下端を撮像位置まで下降させて当該ワークの下端とカメラとの間の距離であるワーキングディスタンスを一定に保った状態で当該ワークをカメラで撮像する。

Description

ロボット制御システム及びロボット制御方法
 本明細書は、ロボットのアーム先端のエンドエフェクタに保持したワークをその下方から撮像するカメラを備えたロボット制御システム及びロボット制御方法に関する技術を開示したものである。
 ロボットのアーム先端のエンドエフェクタにワークを保持する毎に、そのワークの位置が少しずつ位置ずれするため、特許文献1(特開2018-103352号公報)に記載されているように、エンドエフェクタに保持したワークをその下方からカメラで撮像して、その画像を処理することで当該ワークの位置を認識し、その認識結果に基づいて当該ワークを所定の作業位置に位置決めしてセットすることで、当該ワークの位置決め精度を確保するようにしたものがある。
特開2018-103352号公報
 ところで、エンドエフェクタに保持したワークの下端とカメラとの間の距離であるワーキングディスタンスが変化すると、撮像画像の分解能(1ピクセル当たりの撮像部位の実際の長さ[μm/ピクセル])が変化して、エンドエフェクタに保持したワークの位置を正確に認識できないため、ワーク撮像時にはワーキングディスタンスを一定に保つ必要がある。この場合、カメラの位置は固定されているため、ワーキングディスタンスを一定に保つには、ワーク撮像時のワークの下端の高さ位置を一定に保つ必要がある。
 しかし、エンドエフェクタで保持するワークのサイズは様々であるため、ワーク撮像時のワークの下端の高さ位置を一定に保つには、ワーク撮像時のエンドエフェクタの高さ位置をワークのサイズに応じて調整する必要がある。
 また、エンドエフェクタがワークの側面を把持するチャックの場合など、ワークの保持状態が異なる場合にも、ワーク撮像時のエンドエフェクタの高さ位置を適切に調整する必要がある。
 これらの調整作業は、ワークのサイズ毎やエンドエフェクタの種類毎にユーザーが行う必要があるため、ユーザーにとって甚だ手間のかかる作業となっていた。
 上記課題を解決するために、アーム先端のエンドエフェクタに保持したワークを所定の作業位置にセットする作業を行うロボットと、前記エンドエフェクタに保持したワークをその下方から撮像するカメラと、前記ロボットの動作を制御する制御部とを備え、前記制御部は、前記カメラから上方に所定距離離れた位置を撮像位置とし、前記ロボットのアームを動作させて前記エンドエフェクタに保持したワークの下端を前記撮像位置まで下降させた状態で当該ワークを前記カメラで撮像して、その画像を処理することで当該ワークの位置を認識し、その認識結果に基づいて当該ワークを所定の作業位置に位置決めしてセットする、ロボット制御システムにおいて、前記エンドエフェクタに保持したワークの下端が前記撮像位置又はそれと同じ高さの位置まで下降したことを検出するセンサ部を備え、前記制御部は、前記エンドエフェクタに保持したワークを前記カメラで撮像する際に、前記センサ部の検出結果に基づいて当該ワークの下端を前記撮像位置まで下降させて当該ワークの下端と前記カメラとの間の距離であるワーキングディスタンスを一定に保つようにしたものである。
 この構成によれば、エンドエフェクタに保持したワークの下端が撮像位置又はそれと同じ高さの位置まで下降したことを検出するセンサ部を備えているため、ワーク撮像時にセンサ部の検出結果に基づいてワーキングディスタンスを自動的に一定に保つことができて、ワークのサイズ毎やエンドエフェクタの種類毎にユーザーがワーク撮像時のエンドエフェクタの高さ位置を調整する手間のかかる作業を行わずに済む。また、アーム動作の制御精度がそれほど高くない安価なロボットを使用した場合でも、ワークの位置認識精度(位置決め精度)を確保できる。
図1は実施例1のロボット制御システムの外観を示す正面図である。 図2は実施例1のロボット制御システムの電気的構成を示すブロック図である。 図3は実施例2のワーキングディスタンスを検出する構成を示す正面図である。 図4は実施例3のエンドエフェクタの構成を示す正面図である。 図5は実施例5のワーキングディスタンスを検出する方法を説明する正面図である。
 以下、本明細書に開示した5つの実施例1~5を説明する。
 本発明の実施例1を図1及び図2に基づいて説明する。
 まず、図1に基づいてロボット11の構成を説明する。
 ロボット11は、例えば5軸垂直多関節ロボットであり、工場フロア12に設置された固定ベース13と、この固定ベース13上に第1関節軸14(J1)を中心に回転可能に設けられた第1アーム15と、この第1アーム15の先端に第2関節軸16(J2)によって旋回可能に設けられた第2アーム17と、この第2アーム17の先端に第3関節軸18(J3)によって旋回可能に設けられた第3アーム19と、この第3アーム19の先端に第4関節軸20(J4)によって旋回可能に設けられた手首部21(アーム先端)と、この手首部21に第5関節軸22(J5)を中心に回転可能且つ交換可能に取り付けられたエンドエフェクタ23とから構成されている。これにより、手首部21に取り付けたエンドエフェクタ23は、その手首部21の関節軸である第4関節軸20によって旋回動作するようになっている。
 この場合、エンドエフェクタ23は、例えば、ワーク24の上面を吸着する吸着ノズルや吸着パッド等の吸着具、ワーク24の側面を把持するチャックのいずれであっても良く、要は、ワーク24を吸着や把持等によって保持できるものであれば良い。尚、図1には、エンドエフェクタ23として吸着具を使用した例を示している。
 ロボット11の第1~第5の各関節軸14,16,18,20,22は、それぞれサーボモータ25~29(図2参照)により駆動されるようになっている。図2に示すように、各サーボモータ25~29には、それぞれ回転角を検出するエンコーダ31~35が設けられ、各エンコーダ31~35で検出した回転角の情報がサーボアンプ36を経由して制御部37にフィードバックされる。これにより、制御部37は、各エンコーダ31~35で検出した各サーボモータ25~29の回転角が各々の目標回転角と一致するようにサーボアンプ36を介して各サーボモータ25~29をフィードバック制御することで、ロボット11の各アーム15,17,19と手首部21とエンドエフェクタ23の位置を各々の目標位置にフィードバック制御する。図2の構成例では、サーボアンプ36は、複数のサーボモータ25~29をフィードバック制御する多軸アンプであるが、サーボモータ25~29を1台ずつ別々のサーボアンプでフィードバック制御するようにしても良い。
 ロボット11のアーム可動領域(手首部21先端側のエンドエフェクタ23が移動可能な領域)内に設定された撮像位置の下方には、エンドエフェクタ23に保持したワーク24をその下方から撮像するカメラ41が上向きにカメラ台42上に固定されている。
 エンドエフェクタ23に保持したワーク24をその下方からカメラ41で撮像する際には、当該ワーク24の下端とカメラ41のレンズ41aとの間の距離であるワーキングディスタンスWDを一定に保って撮像画像の分解能(1ピクセル当たりの撮像部位の実際の長さ[μm/ピクセル])を一定に保つために、カメラ41のレンズ41aから上方に所定のワーキングディスタンスWDだけ離れた高さ位置に撮像位置を設定して、エンドエフェクタ23に保持したワーク24の下端を撮像位置まで下降させてワーキングディスタンスWDを一定にした状態で当該ワーク24をその下方からカメラ41で撮像するようにしている。
 カメラ台42上のうちのカメラ41の両側には、センサ取付フレーム43a,43bが垂直上向きに固定され、各センサ取付フレーム43a,43bの上端が撮像位置よりも少し高い位置まで延びている。このセンサ取付フレーム43a,43bの上端付近には、エンドエフェクタ23に保持したワーク24の下端が撮像位置まで下降したことを検出するセンサ部として、光センサ44の投光素子44aと受光素子44bが水平方向に対向するように取り付けられている。この光センサ44の投光素子44aは、撮像位置と同じ高さ位置から光を水平方向に向けて照射してその光を受光素子44bで受光するように配置され、投光素子44aと受光素子44bとの間の水平方向に延びる光路が検出対象であるワーク24の下端で遮られることで、ワーク24の下端が撮像位置まで下降したことを検出するように構成されている。本実施例1では、光センサ44の投光素子44aと受光素子44bとの間の水平方向に延びる光路がカメラ41の垂直上向きの光軸と直交するように構成されている。更に、本実施例1では、カメラ台42上にカメラ41と光センサ44とを上述した所定の位置関係で組み付けたカメラユニットとして構成され、このカメラユニットを他のロボットにも設置可能となっている。
 以上のように構成したロボット11の動作を制御するロボット制御ユニット51は、図2に示すように、画像処理部45、制御部37及びサーボアンプ36等を備えた構成となっている。制御部37は、ロボット11の各アーム15,17,19と手首部21を動作させてエンドエフェクタ23に保持したワーク24の下端を撮像位置まで下降させた状態で当該ワーク24をその下方からカメラ41で撮像して、その画像を画像処理部45で処理することで、エンドエフェクタ23に対する当該ワーク24の相対的な位置を認識し、その認識結果に基づいて当該ワーク24を所定の作業位置に位置決めしてセットする作業を行う。更に、制御部37は、エンドエフェクタ23でワーク24を保持して撮像位置と作業位置へ移動させる動作を繰り返す場合に、ロボット11のバックラッシ(ヒステリシス)を一定にするために、同一経路で撮像位置と作業位置へ移動させる。
 ところで、エンドエフェクタ23に保持したワーク24の下端とカメラ41のレンズ41aとの間の距離であるワーキングディスタンスWDが変化すると、撮像画像の分解能(1ピクセル当たりの撮像部位の実際の長さ[μm/ピクセル])が変化して、エンドエフェクタ23に保持したワーク24の位置を正確に認識できないため、ワーク撮像時にはワーキングディスタンスWDを一定に保つ必要がある。この場合、カメラ41の位置は固定されているため、ワーキングディスタンスWDを一定に保つには、ワーク撮像時のワーク24の下端の高さ位置を一定に保つ必要がある。
 そこで、本実施例1では、制御部37は、エンドエフェクタ23に保持したワーク24をカメラ41で撮像する際に、エンドエフェクタ23に保持したワーク24の下端が撮像位置まで下降したことを検出する光センサ44の検出結果に基づいて当該ワーク24の下端を撮像位置まで下降させて当該ワーク24の下端とカメラ41のレンズ41aとの間の距離であるワーキングディスタンスWDを一定に保った状態で当該ワーク24をカメラ41で撮像する。
 この場合、制御部37は、エンドエフェクタ23にワーク24を保持する毎に、毎回、光センサ44が当該ワーク24の下端を検出するまでエンドエフェクタ23を下降させて当該ワーク24の下端を撮像位置まで下降させた状態で当該ワーク24をカメラ41で撮像するようにしても良い。
 また、同じサイズのワーク24を所定の作業位置に位置決めしてセットする作業を繰り返して行う場合には、最初に1回だけワーク24の下端を光センサ44で検出して当該ワーク24をカメラ41で撮像し、以後、同じサイズのワーク24をエンドエフェクタ23で保持する毎に、最初の光センサ44の検出結果を利用してワーク24の下端を撮像位置まで下降させて当該ワーク24をカメラ41で撮像するようにしても良い。
 具体的には、制御部37は、最初にエンドエフェクタ23に保持したワーク24を下降させて光センサ44が当該ワーク24の下端を検出したときのエンドエフェクタ23の高さ方向(Z方向)の座標であるZ座標をワーク撮像時の目標Z座標に設定して、当該ワーク24をカメラ41で撮像し、以後、当該ワーク24と同じサイズのワーク24をエンドエフェクタ23に保持する毎に、光センサ44で検出する処理を省略して、ワーク24を保持したエンドエフェクタ23のZ座標を目標Z座標に制御することで、当該ワーク24の下端を撮像位置まで下降させてワーキングディスタンスWDを一定に保った状態で当該ワーク24をカメラ41で撮像するようにしても良い。
 この場合、ロボット11のアーム動作は、ロボット座標系で比較的精度良く制御できるため、最初に光センサ44がワーク24の下端を検出したときのエンドエフェクタ23のZ座標をワーク撮像時の目標Z座標に設定すれば、以後、エンドエフェクタ23のZ座標を目標Z座標に制御することで、ワーキングディスタンスWDを一定に保った状態でワーク24をカメラ41で撮像することができる。この場合、制御部37は、エンドエフェクタ23で保持するワーク24のサイズが変わる毎に、ワーク撮像時の目標Z座標を設定し直し、また、手首部21に取り付けたエンドエフェクタ23を取り替える毎に、ワーク撮像時の目標Z座標を設定し直すようにすれば良い。
 以上説明した本実施例1によれば、エンドエフェクタ23に保持したワーク24の下端が撮像位置まで下降したことを検出する光センサ44を備えているため、ワーク撮像時に光センサ44の検出結果に基づいてワーキングディスタンスWDを自動的に一定に保つことができて、ユーザーがワーク24のサイズ毎やエンドエフェクタ23の種類毎にワーク撮像時のエンドエフェクタ23の高さ位置を調整する手間のかかる作業を行わずに済む。また、アーム動作の制御精度がそれほど高くない安価なロボットを使用した場合でも、ワーク24の位置認識精度(位置決め精度)を確保できる。
 しかも、カメラ台42上にカメラ41と光センサ44の投光素子44aと受光素子44bを所定の位置関係で組み付けたカメラユニットとして構成されているため、このカメラユニットを他のロボットにも設置可能であり、容易に本発明を実施できる。また、ロボット11とカメラユニットとの間の相対的な位置関係がずれたり変更された場合でも、ユーザーがワーク撮像時のエンドエフェクタ23の高さ位置を調整する手間のかかる作業を行わずに済む。
 尚、本実施例1では、エンドエフェクタ23に保持したワーク24の下端が撮像位置まで下降したことを検出するセンサ部として、光センサ44を用いたが、レーザ光を水平方向に向けて照射して検出対象を検出するレーザセンサを用いても良い。
 次に、図3を用いて実施例2を説明する。但し、前記実施例1と実質的に同じ部分については同一符号を付して説明を省略又は簡略化し、主として異なる部分について説明する。
 本実施例2では、エンドエフェクタ23に保持したワーク24の下端が撮像位置と同じ高さ位置まで下降したことを検出するセンサ部として、検出対象であるワーク24の下端が接触したことを検出するタッチセンサ52がセンサ取付フレーム43aの上端付近に水平に取り付けられ、このタッチセンサ52の上面が撮像位置と同じ高さ位置となっている。タッチセンサ52の位置は、カメラ41の視野から外れた位置(ワーク24の撮像に邪魔にならない位置)で、撮像位置に近い位置に設定されている。
 本実施例2では、制御部37は、最初にエンドエフェクタ23に保持したワーク24を下降させて当該ワーク24の下端をタッチセンサ52に接触させることで、当該ワーク24の下端をタッチセンサ52で検出したときのエンドエフェクタ23の高さ方向(Z方向)の座標であるZ座標をワーク撮像時の目標Z座標に設定すると共に、当該ワーク24を横方向に移動させて当該ワーク24の下端を撮像位置に位置させた状態でカメラ41で撮像し、以後、当該ワーク24と同じサイズのワーク24をエンドエフェクタ23に保持する毎に、タッチセンサ52で検出する処理を省略して、ワーク24を保持したエンドエフェクタ23のZ座標を目標Z座標に制御することで、当該ワーク24の下端を撮像位置まで下降させてワーキングディスタンスWDを一定に保った状態で当該ワーク24をカメラ41で撮像する。
 以上説明した本実施例2においても、前記実施例1と同様の効果を得ることができる。
 次に、図4を用いて実施例3を説明する。但し、前記実施例1又は2と実質的に同じ部分については同一符号を付して説明を省略又は簡略化し、主として異なる部分について説明する。
 本実施例3では、エンドエフェクタとして、ワーク24の側面を把持するチャック53を用いている。このチャック53は、ワーク24の側面を把持するときに当該ワーク24の上面に当接して当該ワーク24の側面の高さ方向の把持位置を一定に保つ把持位置規制部54を備えている。
 このチャック53は、把持位置規制部54によってワーク24の側面の高さ方向の把持位置を一定に保つことができるため、ワーク24の上面を吸着する吸着ノズル等の吸着具を用いる場合と同様に、前記実施例1又は2で説明した制御方法によってワーク撮像時のワーキングディスタンスWDを一定に保つことができる。
 次に、実施例4を説明する。但し、前記実施例1~3と実質的に同じ部分については同一符号を付して説明を省略又は簡略化し、主として異なる部分について説明する。
 前記実施例1~3では、エンドエフェクタ23又は53に保持したワーク24の下端が撮像位置又はそれと同じ高さの位置まで下降したことをセンサ部(光センサ44、レーザセンサ、タッチセンサ52等)で検出するようにしたが、本実施例4では、ワーク24を保持していないエンドエフェクタ23又は53の下端が記撮像位置又はそれと同じ高さの位置まで下降したことをセンサ部(光センサ44、レーザセンサ、タッチセンサ52等)で検出するようにしている。
 この場合、制御部37は、センサ部がエンドエフェクタ23又は53の下端を検出したときのエンドエフェクタ23又は53の高さ方向の座標であるZ座標(Z)を、エンドエフェクタ23又は53にワーク24を保持したときのエンドエフェクタ23又は53の下端からのワーク24の下方への突出寸法(ΔZ)だけ上方にオフセットさせたZ座標(Z+ΔZ)をワーク撮像時の目標Z座標に設定し、以後、前記ワーク24と同じサイズのワーク24をエンドエフェクタ23又は53に保持してカメラ41で撮像する際に、前記センサ部で検出する処理を省略して、エンドエフェクタ23又は53のZ座標を前記目標Z座標に制御することで当該ワーク24の下端を撮像位置まで下降させて当該ワーク24の下端とカメラ41との間の距離であるワーキングディスタンスWDを一定に保った状態で当該ワーク24をカメラ41で撮像する。
 この場合、エンドエフェクタ23がワーク24の上面を吸着する吸着ノズル等の吸着具である場合は、エンドエフェクタ23にワーク24を保持したときのエンドエフェクタ23の下端からのワーク24の下方への突出寸法(ΔZ)は、ワーク24の高さ寸法と一致する。一方、図4に示すようなチャック53を用いる場合は、チャック53の下端からのワーク24の下方への突出寸法(ΔZ)は、ワーク24の高さ寸法よりもチャック53の把持量分だけ小さくなる。
 以上説明した本実施例4においても、前記実施例1と同様の効果を得ることができる。
 次に、図5を用いて実施例5を説明する。但し、前記実施例1~3と実質的に同じ部分については同一符号を付して説明を省略又は簡略化し、主として異なる部分について説明する。
 本実施例5では、エンドエフェクタ23に保持した治具55の下端が撮像位置又はそれと同じ高さの位置まで下降したことをセンサ部(光センサ44、レーザセンサ、タッチセンサ52等)で検出するようにしている。ここで、治具55は、例えば分解能等を測定するキャリブレーション治具であっても良いし、サンプル部品等であっても良く、要は、治具55の高さ寸法が既知であれば良い。尚、エンドエフェクタとして、図4に示すようなチャック53を用いる場合には、チャック53の下端からの治具55の下方への突出寸法(ΔZ2)が既知であれば良い。
 この場合、制御部37は、センサ部がエンドエフェクタ23又は53に保持した治具55の下端を検出したときのエンドエフェクタ23又は53の高さ方向の座標であるZ座標(Z)を、エンドエフェクタ23又は53にワーク24を保持したときのエンドエフェクタ23又は53の下端からのワーク24の下方への突出寸法(ΔZ1)と、エンドエフェクタ23又は53に治具55を保持したときのエンドエフェクタ23又は53の下端からの治具55の下方への突出寸法(ΔZ2)との差分(ΔZ1-ΔZ2)だけ上方にオフセットさせたZ座標(Z+ΔZ1-ΔZ2)をワーク撮像時の目標Z座標に設定し、以後、前記ワーク24と同じサイズのワーク24をエンドエフェクタ23又は53に保持してカメラ41で撮像する際に、前記センサ部で検出する処理を省略して、エンドエフェクタ23又は53のZ座標を前記目標Z座標に制御することで、当該ワーク24の下端を撮像位置まで下降させて当該ワーク24の下端とカメラ41との間の距離であるワーキングディスタンスWDを一定に保った状態で当該ワーク24をカメラ41で撮像する。
 以上説明した本実施例5においても、前記実施例1と同様の効果を得ることができる。
 尚、本発明は、上述した各実施例1~5に限定されず、例えば、ロボット11の構成を適宜変更しても良い等、要旨を逸脱しない範囲内で種々変更して実施できることは勿論である。
 11…ロボット、14…第1関節軸、15…第1アーム、16…第2関節軸、17…第2アーム、18…第3関節軸、19…第3アーム、20…第4関節軸、21…手首部(アーム先端)、22…第5関節軸、23…エンドエフェクタ、24…ワーク、25~29…サーボモータ、31~35…エンコーダ、36…サーボアンプ、37…制御部、41…カメラ、42…カメラ台、43a,43b…センサ取付フレーム、44…光センサ(センサ部)、44a…投光素子、44b…受光素子、45…画像処理部、51…ロボット制御ユニット、52…タッチセンサ(センサ部)、53…チャック(エンドエフェクタ)、54…把持位置規制部、55…治具

Claims (16)

  1.  アーム先端のエンドエフェクタに保持したワークを所定の作業位置にセットする作業を行うロボットと、前記エンドエフェクタに保持したワークをその下方から撮像するカメラと、前記ロボットの動作を制御する制御部とを備え、前記制御部は、前記カメラから上方に所定距離離れた位置を撮像位置とし、前記ロボットのアームを動作させて前記エンドエフェクタに保持したワークの下端を前記撮像位置まで下降させた状態で当該ワークを前記カメラで撮像して、その画像を処理することで当該ワークの位置を認識し、その認識結果に基づいて当該ワークを所定の作業位置に位置決めしてセットする、ロボット制御システムにおいて、
     前記エンドエフェクタに保持したワークの下端が前記撮像位置又はそれと同じ高さの位置まで下降したことを検出するセンサ部を備え、
     前記制御部は、前記エンドエフェクタに保持したワークを前記カメラで撮像する際に、前記センサ部の検出結果に基づいて当該ワークの下端を前記撮像位置まで下降させて当該ワークの下端と前記カメラとの間の距離であるワーキングディスタンスを一定に保つ、ロボット制御システム。
  2.  前記制御部は、前記センサ部が前記ワークの下端を検出したときの前記エンドエフェクタの高さ方向の座標であるZ座標をワーク撮像時の目標Z座標に設定し、以後、前記ワークと同じサイズのワークを前記エンドエフェクタに保持して前記カメラで撮像する際に、前記センサ部で検出する処理を省略して、前記エンドエフェクタのZ座標を前記目標Z座標に制御することで、当該ワークの下端を前記撮像位置まで下降させて前記ワーキングディスタンスを一定に保つ、請求項1に記載のロボット制御システム。
  3.  アーム先端のエンドエフェクタに保持したワークを所定の作業位置にセットする作業を行うロボットと、前記エンドエフェクタに保持したワークをその下方から撮像するカメラと、前記ロボットの動作を制御する制御部とを備え、前記制御部は、前記カメラから上方に所定距離離れた位置を撮像位置とし、前記ロボットのアームを動作させて前記エンドエフェクタに保持したワークの下端を前記撮像位置まで下降させた状態で当該ワークを前記カメラで撮像して、その画像を処理することで当該ワークの位置を認識し、その認識結果に基づいて当該ワークを所定の作業位置に位置決めしてセットする、ロボット制御システムにおいて、
     ワークを保持していない前記エンドエフェクタの下端が前記撮像位置又はそれと同じ高さの位置まで下降したことを検出するセンサ部を備え、
     前記制御部は、前記センサ部が前記エンドエフェクタの下端を検出したときの前記エンドエフェクタの高さ方向の座標であるZ座標(Z)を、前記エンドエフェクタにワークを保持したときの前記エンドエフェクタの下端からの前記ワークの下方への突出寸法(ΔZ)だけ上方にオフセットさせたZ座標(Z+ΔZ)をワーク撮像時の目標Z座標に設定し、以後、前記ワークと同じサイズのワークを前記エンドエフェクタに保持して前記カメラで撮像する際に、前記センサ部で検出する処理を省略して、前記エンドエフェクタのZ座標を前記目標Z座標に制御することで当該ワークの下端を前記撮像位置まで下降させて当該ワークの下端と前記カメラとの間の距離であるワーキングディスタンスを一定に保つ、ロボット制御システム。
  4.  アーム先端のエンドエフェクタに保持したワークを所定の作業位置にセットする作業を行うロボットと、前記エンドエフェクタに保持したワークをその下方から撮像するカメラと、前記ロボットの動作を制御する制御部とを備え、前記制御部は、前記カメラから上方に所定距離離れた位置を撮像位置とし、前記ロボットのアームを動作させて前記エンドエフェクタに保持したワークの下端を前記撮像位置まで下降させた状態で当該ワークを前記カメラで撮像して、その画像を処理することで当該ワークの位置を認識し、その認識結果に基づいて当該ワークを所定の作業位置に位置決めしてセットする、ロボット制御システムにおいて、
     前記エンドエフェクタに保持した治具の下端が前記撮像位置又はそれと同じ高さの位置まで下降したことを検出するセンサ部を備え、
     前記制御部は、前記センサ部が前記エンドエフェクタに保持した治具の下端を検出したときの前記エンドエフェクタの高さ方向の座標であるZ座標(Z)を、前記エンドエフェクタにワークを保持したときの前記エンドエフェクタの下端からの前記ワークの下方への突出寸法(ΔZ1)と、前記エンドエフェクタに前記治具を保持したときの前記エンドエフェクタの下端からの前記治具の下方への突出寸法(ΔZ2)との差分(ΔZ1-ΔZ2)だけ上方にオフセットさせたZ座標(Z+ΔZ1-ΔZ2)をワーク撮像時の目標Z座標に設定し、以後、前記ワークと同じサイズのワークを前記エンドエフェクタに保持して前記カメラで撮像する際に、前記センサ部で検出する処理を省略して、前記エンドエフェクタのZ座標を前記目標Z座標に制御することで当該ワークの下端を前記撮像位置まで下降させて当該ワークの下端と前記カメラとの間の距離であるワーキングディスタンスを一定に保つ、ロボット制御システム。
  5.  前記制御部は、前記エンドエフェクタで保持するワークのサイズが変わる毎に、前記ワーク撮像時の目標Z座標を設定し直す、請求項2乃至4のいずれかに記載のロボット制御システム。
  6.  前記制御部は、前記エンドエフェクタを取り替える毎に、前記ワーク撮像時の目標Z座標を設定し直す、請求項2乃至5のいずれかに記載のロボット制御システム。
  7.  前記制御部は、前記エンドエフェクタでワークを保持して前記撮像位置と前記作業位置へ移動させる動作を繰り返す場合に、同一経路で前記撮像位置と前記作業位置へ移動させる、請求項1乃至6のいずれかに記載のロボット制御システム。
  8.  前記センサ部は、検出対象が接触したことを検出するタッチセンサである、請求項1乃至7のいずれかに記載のロボット制御システム。
  9.  前記センサ部は、光を水平方向に向けて照射して検出対象を検出する光センサである、請求項1乃至7のいずれかに記載のロボット制御システム。
  10.  前記センサ部は、レーザ光を水平方向に向けて照射して検出対象を検出するレーザセンサである、請求項1乃至7のいずれかに記載のロボット制御システム。
  11.  前記エンドエフェクタは、ワークの上面を吸着する吸着具である、請求項1乃至10のいずれかに記載のロボット制御システム。
  12.  前記エンドエフェクタは、ワークの側面を把持するチャックであり、ワークの側面を把持するときに当該ワークの上面に当接して当該ワークの側面の高さ方向の把持位置を一定に保つ把持位置規制部を備えている、請求項1乃至10のいずれかに記載のロボット制御システム。
  13.  アーム先端のエンドエフェクタに保持したワークを所定の作業位置にセットする作業を行うロボットと、前記エンドエフェクタに保持したワークをその下方から撮像するカメラとを備え、前記カメラから上方に所定距離離れた位置を撮像位置とし、前記ロボットのアームを動作させて前記エンドエフェクタに保持したワークの下端を前記撮像位置まで下降させた状態で当該ワークを前記カメラで撮像して、その画像を処理することで当該ワークの位置を認識し、その認識結果に基づいて当該ワークを所定の作業位置に位置決めしてセットする、ロボット制御方法において、
     前記エンドエフェクタに保持したワークの下端が前記撮像位置又はそれと同じ高さの位置まで下降したことをセンサ部で検出し、
     前記エンドエフェクタに保持したワークを前記カメラで撮像する際に、前記センサ部の検出結果に基づいて当該ワークの下端を前記撮像位置まで下降させて当該ワークの下端と前記カメラとの間の距離であるワーキングディスタンスを一定に保つ、ロボット制御方法。
  14.  前記センサ部が前記ワークの下端を検出したときの前記エンドエフェクタの高さ方向の座標であるZ座標をワーク撮像時の目標Z座標に設定し、以後、前記ワークと同じサイズのワークを前記エンドエフェクタに保持して前記カメラで撮像する際に、前記センサ部で検出する処理を省略して、前記エンドエフェクタのZ座標を前記目標Z座標に制御することで前記ワーキングディスタンスを一定に保つ、請求項13に記載のロボット制御方法。
  15.  アーム先端のエンドエフェクタに保持したワークを所定の作業位置にセットする作業を行うロボットと、前記エンドエフェクタに保持したワークをその下方から撮像するカメラとを備え、前記カメラから上方に所定距離離れた位置を撮像位置とし、前記ロボットのアームを動作させて前記エンドエフェクタに保持したワークの下端を前記撮像位置まで下降させた状態で当該ワークを前記カメラで撮像して、その画像を処理することで当該ワークの位置を認識し、その認識結果に基づいて当該ワークを所定の作業位置に位置決めしてセットする、ロボット制御方法において、
     ワークを保持していない前記エンドエフェクタの下端が前記撮像位置又はそれと同じ高さの位置まで下降したことをセンサ部で検出したときの前記エンドエフェクタの高さ方向の座標であるZ座標(Z)を、前記エンドエフェクタにワークを保持したときの前記エンドエフェクタの下端からの前記ワークの下方への突出寸法(ΔZ)だけ上方にオフセットさせたZ座標(Z+ΔZ)をワーク撮像時の目標Z座標に設定し、
     以後、前記ワークと同じサイズのワークを前記エンドエフェクタに保持して前記カメラで撮像する際に、前記センサ部で検出する処理を省略して、前記エンドエフェクタのZ座標を前記目標Z座標に制御することで当該ワークの下端を前記撮像位置まで下降させて当該ワークの下端と前記カメラとの間の距離であるワーキングディスタンスを一定に保つ、ロボット制御方法。
  16.  アーム先端のエンドエフェクタに保持したワークを所定の作業位置にセットする作業を行うロボットと、前記エンドエフェクタに保持したワークをその下方から撮像するカメラとを備え、前記カメラから上方に所定距離離れた位置を撮像位置とし、前記ロボットのアームを動作させて前記エンドエフェクタに保持したワークの下端を前記撮像位置まで下降させた状態で当該ワークを前記カメラで撮像して、その画像を処理することで当該ワークの位置を認識し、その認識結果に基づいて当該ワークを所定の作業位置に位置決めしてセットする、ロボット制御方法において、
     前記エンドエフェクタに保持した治具の下端が前記撮像位置又はそれと同じ高さの位置まで下降したことをセンサ部で検出したときの前記エンドエフェクタの高さ方向の座標であるZ座標(Z)を、前記エンドエフェクタにワークを保持したときの前記エンドエフェクタの下端からの前記ワークの下方への突出寸法(ΔZ1)と、前記エンドエフェクタに前記治具を保持したときの前記エンドエフェクタの下端からの前記治具の下方への突出寸法(ΔZ2)との差分(ΔZ1-ΔZ2)だけ上方にオフセットさせたZ座標(Z+ΔZ1-ΔZ2)をワーク撮像時の目標Z座標に設定し、
     以後、前記ワークと同じサイズのワークを前記エンドエフェクタに保持して前記カメラで撮像する際に、前記センサ部で検出する処理を省略して、前記エンドエフェクタのZ座標を前記目標Z座標に制御することで当該ワークの下端を前記撮像位置まで下降させて当該ワークの下端と前記カメラとの間の距離であるワーキングディスタンスを一定に保つ、ロボット制御方法。
PCT/JP2019/024823 2019-06-21 2019-06-21 ロボット制御システム及びロボット制御方法 WO2020255410A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2019/024823 WO2020255410A1 (ja) 2019-06-21 2019-06-21 ロボット制御システム及びロボット制御方法
JP2021528628A JP7242856B2 (ja) 2019-06-21 2019-06-21 ロボット制御システム及びロボット制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/024823 WO2020255410A1 (ja) 2019-06-21 2019-06-21 ロボット制御システム及びロボット制御方法

Publications (1)

Publication Number Publication Date
WO2020255410A1 true WO2020255410A1 (ja) 2020-12-24

Family

ID=74037230

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/024823 WO2020255410A1 (ja) 2019-06-21 2019-06-21 ロボット制御システム及びロボット制御方法

Country Status (2)

Country Link
JP (1) JP7242856B2 (ja)
WO (1) WO2020255410A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0699382A (ja) * 1992-09-22 1994-04-12 Mazda Motor Corp 物品のセット装置
JP2011083882A (ja) * 2009-10-19 2011-04-28 Yaskawa Electric Corp ロボットシステム
JP2014104529A (ja) * 2012-11-27 2014-06-09 Canon Inc ロボットシステム及びロボットシステムの制御方法
JP2017050376A (ja) * 2015-09-01 2017-03-09 富士電機株式会社 電子部品実装装置及び電子部品実装方法
JP2018176348A (ja) * 2017-04-12 2018-11-15 ファナック株式会社 グリッパおよびロボットシステム
JP2019063954A (ja) * 2017-10-03 2019-04-25 株式会社ダイヘン ロボットシステム、キャリブレーション方法及びキャリブレーションプログラム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018103352A (ja) 2016-12-22 2018-07-05 セイコーエプソン株式会社 制御装置、ロボットおよびロボットシステム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0699382A (ja) * 1992-09-22 1994-04-12 Mazda Motor Corp 物品のセット装置
JP2011083882A (ja) * 2009-10-19 2011-04-28 Yaskawa Electric Corp ロボットシステム
JP2014104529A (ja) * 2012-11-27 2014-06-09 Canon Inc ロボットシステム及びロボットシステムの制御方法
JP2017050376A (ja) * 2015-09-01 2017-03-09 富士電機株式会社 電子部品実装装置及び電子部品実装方法
JP2018176348A (ja) * 2017-04-12 2018-11-15 ファナック株式会社 グリッパおよびロボットシステム
JP2019063954A (ja) * 2017-10-03 2019-04-25 株式会社ダイヘン ロボットシステム、キャリブレーション方法及びキャリブレーションプログラム

Also Published As

Publication number Publication date
JP7242856B2 (ja) 2023-03-20
JPWO2020255410A1 (ja) 2020-12-24

Similar Documents

Publication Publication Date Title
JP7153085B2 (ja) ロボットキャリブレーションシステム及びロボットキャリブレーション方法
JP6490037B2 (ja) 移動可能な台車に支持されたロボットを備えるロボットシステム
JP5290324B2 (ja) 空間内において少なくとも1つのオブジェクトを最終姿勢に高精度で位置決めするための方法およびシステム
US11964396B2 (en) Device and method for acquiring deviation amount of working position of tool
JP5377758B2 (ja) 空間内において少なくとも1つのオブジェクトを最終姿勢に高精度で位置決めするための方法およびシステム
JP6900290B2 (ja) ロボットシステム
JP6869159B2 (ja) ロボットシステム
JP2010076054A (ja) ロボット装置及びロボット装置の制御方法
JP2000317660A (ja) レーザ光を利用したバリ取り方法及びバリ取り装置
JP5509859B2 (ja) ロボット制御装置及び方法
JPH0523877A (ja) レーザ加工機
CN112672843B (zh) 激光加工机
JP2021013983A (ja) 移動機械の移動軌跡のずれを取得する装置、及び方法
JP2006297559A (ja) キャリブレーションシステムおよびロボットのキャリブレーション方法
US11992739B1 (en) Apparatus and method for measuring lie and loft of a golf club
WO2014103027A1 (ja) 作業機、および、位置ズレデータ取得方法
WO2020255410A1 (ja) ロボット制御システム及びロボット制御方法
JP6725344B2 (ja) プレスブレーキ及び角度検出装置
JP7057841B2 (ja) ロボット制御システム及びロボット制御方法
JP2000263273A (ja) Yagレーザ加工機のティーチング方法及びその装置
JP2000326082A (ja) レーザ加工機
CN113905859B (zh) 机器人控制系统及机器人控制方法
JPH11147187A (ja) Yagレーザ加工方法およびその装置
JP2021094623A (ja) ロボット制御装置、観察システム、ロボットシステム、及びロボット制御方法
JP2019119034A (ja) 自動組立装置及びその制御方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19934012

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021528628

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19934012

Country of ref document: EP

Kind code of ref document: A1