JP2009078310A - Robot hand, its control method and control system - Google Patents

Robot hand, its control method and control system Download PDF

Info

Publication number
JP2009078310A
JP2009078310A JP2007247617A JP2007247617A JP2009078310A JP 2009078310 A JP2009078310 A JP 2009078310A JP 2007247617 A JP2007247617 A JP 2007247617A JP 2007247617 A JP2007247617 A JP 2007247617A JP 2009078310 A JP2009078310 A JP 2009078310A
Authority
JP
Japan
Prior art keywords
camera
gripping
palm
posture
robot hand
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2007247617A
Other languages
Japanese (ja)
Other versions
JP2009078310A5 (en
Inventor
Yoichi Miyasaka
洋一 宮阪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2007247617A priority Critical patent/JP2009078310A/en
Publication of JP2009078310A publication Critical patent/JP2009078310A/en
Publication of JP2009078310A5 publication Critical patent/JP2009078310A5/ja
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a robot hand accurately and quickly holding an object without changing the posture of the object to be held, and also to provide a control method and system therefor. <P>SOLUTION: The robot hand 1 is equipped with a camera 15 on a palm 4. Fingers 5, 6 and 7 are openably and closably attached to positions with approximately the same distance and the same angle from the center of an optical axis 10a of a lens 10 of the camera 15. Ends of the fingers 5, 6 and 7 come into contact with one another on the optical axis 10a of the lens 10 when bent to hold the object. The center of holding 17 of the fingers 5, 6 and 7 is provided on the optical axis 10a. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、ワークをカメラで把持するロボット用ハンド及びロボット用ハンドの制御方法並びにロボット用ハンドの制御システムに関する。   The present invention relates to a robot hand for gripping a workpiece with a camera, a robot hand control method, and a robot hand control system.

従来、ワークを把持するロボット用ハンドとしては、特許文献1記載のものが公開されている。この特許文献1記載のものは、物体把持ロボットの制御方式にかかるものであり、3本以上の指を備えたロボットハンドにおいて、開閉動作によって対象物を把持する際に、補正移動をすることを技術的課題としているものである。   Conventionally, as a robot hand for gripping a workpiece, one described in Patent Document 1 has been disclosed. The one described in Patent Document 1 relates to a control method of an object gripping robot, and in a robot hand having three or more fingers, when a target is gripped by an opening / closing operation, correction movement is performed. This is a technical issue.

特許文献1のものでは、ロボットハンドの各指の先端部に、対象物を検知するための近接センサを設けており、対象物を把持する際には、複数の指を対象物の近傍で開いたり閉じたりして、その開閉する過程で、近接センサがオンとなっている1或いは複数の指の開き方向のベクトルを合成して合成ベクトルを求め、その合成ベクトルの向きに、ロボットハンドを移動させて、ロボットハンドの中心を対象物の中心部へ位置決めしようというものである。
特開平8−141956号公報
In the thing of patent document 1, the proximity sensor for detecting a target object is provided in the tip part of each finger of a robot hand, and when grasping a target object, a plurality of fingers are opened in the vicinity of the target object. In the process of opening and closing the door, the vector of the opening direction of one or more fingers whose proximity sensor is on is synthesized to obtain the synthesized vector, and the robot hand is moved in the direction of the synthesized vector In this way, the center of the robot hand is to be positioned at the center of the object.
Japanese Patent Laid-Open No. 8-141956

しかしながら、上記のようなロボットハンドでは、指の開閉を繰り返して近接センサで対象物の存在をセンシングすると共に、近接センサがオンになったとしても、更に近接センサがオンとなった指の開閉動作させてから、各近接センサのベクトルを合成し、その合成ベクトル演算してから合成ベクトルの向きにロボットハンドを移動させるというものであるので、対象物へのロボットハンドの接近させることに時間がかかるという問題がある。   However, in the robot hand as described above, the proximity sensor senses the presence of an object by repeatedly opening and closing the finger, and even when the proximity sensor is turned on, the finger opening and closing operation with the proximity sensor turned on Since the robot hand is moved in the direction of the combined vector after the vectors of the proximity sensors are combined and the combined vector is calculated, it takes time to bring the robot hand closer to the object. There is a problem.

また、近接センサがロボットハンドの指先に設けられ、指が等速度で開閉するシステムであるので、機械ユニットの位置制御追従性や、近接センサの感度特性等検出位置精度の影響のある要因により、高精度に位置検出できないという問題がある。更に、対象物の存在を確認するために、指の開閉を繰り返すので、ロボットハンドの指で対象物を倒したり移動させたりし易く、対象物の姿勢や位置が変わると、再度対象物のセンシングをやり直す必要があるという問題がある。   In addition, since the proximity sensor is provided at the fingertip of the robot hand and the finger opens and closes at a constant speed, due to factors that influence the position control followability of the mechanical unit and the detection position accuracy such as the sensitivity characteristic of the proximity sensor, There is a problem that the position cannot be detected with high accuracy. In addition, since the finger is repeatedly opened and closed to confirm the presence of the object, it is easy to tilt and move the object with the fingers of the robot hand, and when the posture or position of the object changes, sensing the object again There is a problem that it is necessary to start over.

本発明は、このような問題に着目してなされたものであり、把持する対象物の姿勢を変えることなく、対象物を高精度に且つ迅速に把持できるロボット用ハンド、その制御方法並びに制御システムを提供することを目的とする。   The present invention has been made paying attention to such a problem, and a robot hand capable of quickly and accurately grasping an object without changing the posture of the object to be grasped, its control method and control system The purpose is to provide.

上記課題を解決するために、本発明のロボット用ハンドは、多関節ロボットの可動可能な先端部に取り付けられるロボット用ハンドであって、対象物を把持する複数本の指部と、前記指部を可動可能に連結する掌部に設けられ、前記指部をそれぞれ駆動する駆動機構と、前記掌部に配設されて前記複数本の指部に把持された前記対象物を撮像するカメラとを備え、前記カメラは、前記複数本の指部の指先が接触する把持中心が、前記カメラの光軸上に位置するように、配設されていることを特徴とする。このような構成によれば、指部の根元になる掌部にカメラがあり、そのカメラの光軸が対象物の把持中心に設定されているので、対象物の姿勢を変えることなく、また、掴み損ねることもなく高精度で迅速に対象物を把持できる。   In order to solve the above problems, a robot hand according to the present invention is a robot hand attached to a movable tip portion of an articulated robot, and includes a plurality of finger portions for gripping an object, and the finger portions. A driving mechanism for driving each of the finger portions, and a camera for imaging the object that is disposed on the palm portion and is gripped by the plurality of finger portions. And the camera is arranged such that a gripping center with which the fingertips of the plurality of finger portions contact is positioned on the optical axis of the camera. According to such a configuration, since there is a camera at the palm of the base of the finger, and the optical axis of the camera is set at the gripping center of the object, without changing the posture of the object, The object can be quickly grasped with high accuracy without being missed.

上記のロボット用ハンドにおいて、前記カメラの合焦位置が、前記把持中心に一致するものであっても良い。このような構成によれば、対象物を把持する際にカメラで撮像すると、カメラと対象物のアライメント調整が不要であり、迅速な把持が可能となる。   In the above robot hand, the in-focus position of the camera may coincide with the grip center. According to such a configuration, when an image is captured by the camera when the object is gripped, alignment adjustment between the camera and the object is unnecessary, and quick gripping is possible.

また、上記のロボット用ハンドにおいて、前記カメラの撮影結果に基づいて、前記複数の指部を個々に制御する制御手段を更に備え、前記制御手段は、前記複数の指部と前記対象物とを前記カメラの視野内に捕らえる位置に移動した状態から、前記把持中心と前記対象物の把持中心位置とを合う位置に移動させ、更に、前記把持中心と前記複数の指部の前記指先の進行方向とを結ぶ線上において、前記複数の指部の指先と前記対象物の輪郭とが等距離となるように、前記複数の指部を構えて把持動作を行うように構成しても良い。   The robot hand may further include a control unit that individually controls the plurality of finger units based on a photographing result of the camera, and the control unit includes the plurality of finger units and the object. Move the grip center to the grip center position of the object from a state where it has been moved to a position that is captured within the field of view of the camera, and further move the fingertip in the direction of movement of the grip center and the plurality of finger portions. A gripping operation may be performed by holding the plurality of finger portions so that the fingertips of the plurality of finger portions and the contour of the object are equidistant on a line connecting the two.

上記の構成によれば、把持の際に各指先と対象物との輪郭までの距離が等距離設定されていると、各指部は同時に対象物を把持できることとなり、把持の際に対象物を動かしてその姿勢を変えてしまうことや、他のワーク等に対象物が当たって対象物自身や他のワークの姿勢を変えてしまうことを防止でき、迅速な処理を行うことができる。   According to the above configuration, when the distance to the contour between each fingertip and the target object is set to be equal when gripping, each finger unit can grip the target object at the same time. It is possible to prevent the movement and change of the posture, and the change of the posture of the object itself and the other workpiece due to the object hitting another workpiece or the like, and quick processing can be performed.

本発明のロボット用ハンドの制御方法は、前記指部を屈曲させて前記対象物を把持する工程は、前記対象物と前記複数本の指部とを前記カメラで撮像し、前記カメラの撮像結果に基づいて、前記各指先から前記各指先が接触する前記対象物上の接触目標位置までの離間距離を、測定し、前記離間距離に基づいて、前記複数本の指先が同時に前記対象物に接触するように、前記複数本の指部を制御することを特徴とする。   In the method for controlling a robot hand according to the present invention, in the step of bending the finger to grip the object, the object and the plurality of fingers are imaged by the camera, and the imaging result of the camera And measuring a separation distance from each fingertip to a contact target position on the object to which each fingertip contacts, and based on the separation distance, the plurality of fingertips simultaneously contact the object As described above, the plurality of fingers are controlled.

これによれば、カメラの撮像結果に基づいて、各指先から各指先が接触する対象物上の接触目標位置までの離間距離を測定するので、画像処理により離間距離を測定でき、演算処理が極めて短時間であるので、迅速な把持が可能となると共に、各指部を同時に対象物に接触させるので、対象物を動かして把持失敗を起こすことが少なくなる。   According to this, since the separation distance from each fingertip to the contact target position on the target object touched by each fingertip is measured based on the imaging result of the camera, the separation distance can be measured by image processing, and calculation processing is extremely difficult. Since it is a short time, it is possible to quickly grip and to bring each finger part into contact with the object at the same time, so that it is less likely to cause a gripping failure by moving the object.

また、上記のロボット用ハンドの制御方法において、前記対象物の把持前の姿勢と、当該姿勢の対象物を把持するための前記掌部の位置および姿勢と、を対応させた複数の画像情報を予め制御手段に保持しておき、前記対象物を把持するときに、前記カメラで前記対象物を撮像し、その撮像画像と前記複数の画像情報とを比較し、前記複数の画像情報の中から最も近似した画像情報に基づいて、前記掌部の位置および姿勢を決定して前記掌部を移動させるように制御する構成としてもよい。   In the above-described robot hand control method, a plurality of pieces of image information in which the posture before gripping the object and the position and posture of the palm for gripping the object in the posture are associated with each other. When the object is held in advance by the control means, the object is imaged by the camera, the captured image is compared with the plurality of image information, and the image information is selected from the plurality of image information. A configuration may be adopted in which the position and orientation of the palm are determined based on the most approximate image information and the palm is moved.

このようなロボット用ハンドの制御方法によれば、掌部を対象物に向かって移動させる際に、多関節アームや掌部を駆動するアーム等の位置合わせのための演算処理が少なくなり、迅速に掌部を移動できるので、対象物の把持処理が早くなる。   According to such a robot hand control method, when the palm portion is moved toward the object, the arithmetic processing for aligning the articulated arm, the arm that drives the palm portion, and the like is reduced, and the operation is quickly performed. Since the palm portion can be moved, the object gripping process is accelerated.

上記のロボット用ハンドの制御システムは、前記対象物の把持前の姿勢の画像情報と、当該画像情報にかかる姿勢の対象物を把持するための前記掌部の位置および姿勢とを対応させたハンド制御情報を予め対応させて保持させた記憶装置と、前記対象物を把持するときに、前記カメラで前記対象物と前記複数の指部とを撮影し、その撮影画像を前記記憶装置の前記複数の画像情報とを比較し、前記複数の画像情報の中から前記撮影画像に最も近似した画像情報に基づいて前記掌部の位置および姿勢を決定し、決定した姿勢となるように前記掌部を移動させ、前記掌部の移動後に前記複数本の指部の把持中心と前記対象物の把持中心とを合わせて同時に把持する制御装置と、を備えた構成としても良い。   The robot hand control system described above is a hand that associates the image information of the posture before gripping the object with the position and posture of the palm for gripping the object of the posture according to the image information. A storage device that holds control information in association with each other, and when the object is gripped, the object and the plurality of finger portions are photographed by the camera, and the photographed images are stored in the storage device. And determining the position and posture of the palm portion based on the image information that is most approximate to the captured image from the plurality of image information, and the palm portion so as to have the determined posture. It is good also as a structure provided with the control apparatus which is made to move and hold | grips simultaneously the holding center of the said several finger | toe part and the holding center of the target object after the said palm part moves.

このような制御システムによれば、対象物を把持するための多関節ロボット等のハンドの制御が迅速になり、対象物の把持処理を迅速に行える。   According to such a control system, the control of a hand such as an articulated robot for gripping an object can be quickly performed, and the object can be quickly gripped.

以下、本発明の最良の実施形態にかかるロボット用ハンド、その制御方法並びに制御システムを図面を参照にして説明する。図2は実施形態にかかるロボット用ハンド1を用いた多関節ロボット2のブロック図を示す。多関節ロボット2の先端部のアーム3の先端部にハンド1が装着されている。ハンド1は、図1に示すように、アーム3に取り付けるベースとなる掌部4を備えており、この掌部4に3本の指部5、6、7が屈曲可能に設けられている。指部5、6、7を開いたり、閉じたり、或いは、屈曲させるための機構及び駆動源となるアクチュエータ類は、従来からロボットハンドに用いられているサーボモータ類とギア機構等が用いられているので、詳細な説明を省略する。8は把持対象となる対象物としてのワークであり、ワーク8は作業台9に搬入される。ワーク8が作業台9の上に搬入されたことは掌部4のカメラ15で検出される。多関節ロボット2は作業台9に搬入されたワーク8を把持して次の作業工程である例えば組み付け工程に搬送する。   Hereinafter, a robot hand, a control method thereof, and a control system according to the best embodiment of the present invention will be described with reference to the drawings. FIG. 2 is a block diagram of an articulated robot 2 using the robot hand 1 according to the embodiment. A hand 1 is attached to the tip of the arm 3 at the tip of the articulated robot 2. As shown in FIG. 1, the hand 1 includes a palm portion 4 serving as a base to be attached to the arm 3, and three finger portions 5, 6, and 7 are provided on the palm portion 4 so as to be bent. As a mechanism for opening, closing, or bending the fingers 5, 6, and 7, and actuators that serve as a drive source, servo motors and gear mechanisms that have been conventionally used for robot hands are used. Therefore, detailed description is omitted. Reference numeral 8 denotes a work as an object to be grasped, and the work 8 is carried into the work table 9. It is detected by the camera 15 of the palm 4 that the work 8 has been carried onto the work table 9. The multi-joint robot 2 grips the work 8 carried into the work table 9 and conveys it to the next work process, for example, an assembling process.

図1はロボット用ハンド1の掌部4に設けられた指部5、6、7を示す。掌部4の中心部にはカメラ15(図3参照)のレンズ10が設けられている。このレンズ10の光軸10aは掌部4の面に対して直交方向に延びている。掌部4のレンズ10の後部にはカメラ15が内蔵されている。掌部4の外周部にはレンズ10の光軸を中心としてほぼ等距離、等角度の位置に指部5、6、7が開閉可能に取り付けられている。   FIG. 1 shows fingers 5, 6, 7 provided on the palm 4 of the robot hand 1. A lens 10 of a camera 15 (see FIG. 3) is provided at the center of the palm 4. The optical axis 10 a of the lens 10 extends in a direction orthogonal to the surface of the palm 4. A camera 15 is built in the rear part of the lens 10 of the palm 4. Finger parts 5, 6, and 7 are attached to the outer peripheral part of the palm part 4 so as to be openable and closable at substantially equal distances and equiangular positions around the optical axis of the lens 10.

指部5、6、7の指先は、対象物を把持するために折り曲げたときにレンズ10の光軸10a上で互いに接触可能とされており、このレンズ10の光軸10a上に指部5、6、7の把持中心17(図5参照)が設けられている。指部5、6、7が屈曲されたときに互いに接触する位置は、把持中心17上にあって、カメラ15のレンズ10の合焦位置とされており、対象物を把持中心17で把持したときに、カメラ15はピントが合った状態で対象物を撮像可能とされている。   The fingertips of the finger parts 5, 6, and 7 can be brought into contact with each other on the optical axis 10 a of the lens 10 when the fingertips are bent to hold the object, and the finger part 5 is placed on the optical axis 10 a of the lens 10. , 6 and 7 are provided with a gripping center 17 (see FIG. 5). The positions where the fingers 5, 6, 7 are in contact with each other when the fingers 5, 6, 7 are bent are on the gripping center 17 and are in focus positions of the lens 10 of the camera 15, and the object is gripped by the gripping center 17. Sometimes, the camera 15 can capture an image of an object in focus.

図2はこの多関節ロボット4の制御ブロック図を示すもので、多関節ロボット2はロボット制御装置11によって制御される。指部5、6、7のアクチュエータ類は、ハンド制御装置12により制御されるが、把持動作を実行するか否かについては、多関節ロボット4のロボット制御装置11の命令を受ける。ロボット制御装置11には記憶装置13が設けられており、様々な制御用プログラム類や制御に必要なデータ類が記憶されている。   FIG. 2 is a control block diagram of the articulated robot 4. The articulated robot 2 is controlled by the robot control device 11. The actuators of the fingers 5, 6, and 7 are controlled by the hand control device 12, but receive a command from the robot control device 11 of the articulated robot 4 as to whether or not to perform a gripping operation. The robot control device 11 is provided with a storage device 13 in which various control programs and data necessary for control are stored.

この実施形態の記憶装置13には、作業台9に搬入される様々な姿勢のワーク8の画像情報と、それぞれの姿勢のワーク8に対して掌部4が向くべきレンズ10の光軸方向と、ワーク8の姿勢に合わせてレンズ10の光軸を所定方向に向けるための多関節ロボット4のアームの位置及び方向が記憶されている。また、ロボット制御装置11にはカメラ15の撮影画像を処理する画像処理コントローラ14が備えられている。   In the storage device 13 of this embodiment, the image information of the workpieces 8 in various postures carried into the work table 9 and the optical axis direction of the lens 10 to which the palm portion 4 should face the workpieces 8 in each posture. The position and direction of the arm of the articulated robot 4 for directing the optical axis of the lens 10 in a predetermined direction according to the posture of the work 8 are stored. Further, the robot control device 11 is provided with an image processing controller 14 for processing an image captured by the camera 15.

図4は記憶装置13に記憶されたワーク8の画像情報の概念である。作業台9の上に搬入されたワーク8の姿勢の種類はほぼ決まっているので、記憶装置13にはワーク8の搬入姿勢につき画像情報が記憶されている。各ワーク8の搬入姿勢に対しては、掌部4を接近させるための掌部4の向き及び位置並びにロボット制御装置11のアーム3の位置及び向き等の動作情報が、データとして関連して記憶装置13に記憶されている。   FIG. 4 shows the concept of the image information of the workpiece 8 stored in the storage device 13. Since the type of posture of the workpiece 8 carried on the work table 9 is almost determined, the storage device 13 stores image information on the loading posture of the workpiece 8. For the loading posture of each workpiece 8, operation information such as the orientation and position of the palm 4 for approaching the palm 4 and the position and orientation of the arm 3 of the robot controller 11 is stored as data. It is stored in the device 13.

カメラ15は、作業台9上に搬入されるワーク8の姿勢を監視し、ワーク8の姿勢を撮影してワーク8の撮影画像をロボット制御装置11に送信する。例えば、ロボット制御装置11は、カメラ15が撮影したワーク8の姿勢の画像情報を、記憶装置13の画像情報と照らし合わせ、最も近似した画像情報(図4の(3行3列)参照)を選択して、その画像情報に対応する姿勢を多関節ロボット4に取るように制御する。   The camera 15 monitors the posture of the work 8 carried on the work table 9, photographs the posture of the work 8, and transmits a photographed image of the work 8 to the robot control device 11. For example, the robot control device 11 compares the image information of the posture of the workpiece 8 taken by the camera 15 with the image information in the storage device 13, and the closest image information (see (3 rows and 3 columns) in FIG. 4). The multi-joint robot 4 is controlled to select and take the posture corresponding to the image information.

図5はカメラ15の撮影視野内における対象物たるワーク8と指部5、6、7の位置関係を示す。カメラ15の撮影視野内には、レンズ10の光軸に合わせた把持中心17が設定されている。多関節ロボット2のロボット制御装置11は、カメラ15の撮影画像を観察しつつ、掌部4のレンズ10の光軸上にワーク8の把持中心が位置するように、アーム3及びロボット用ハンド1を駆動する。   FIG. 5 shows the positional relationship between the work 8 as the object and the finger parts 5, 6, 7 within the field of view of the camera 15. A gripping center 17 that matches the optical axis of the lens 10 is set in the field of view of the camera 15. The robot control device 11 of the articulated robot 2 observes the image taken by the camera 15, and the arm 3 and the robot hand 1 so that the gripping center of the workpiece 8 is positioned on the optical axis of the lens 10 of the palm 4. Drive.

画像コントローラ14は、カメラ15の撮影画面18内において、対象物であるワーク8と指部5、6、7を識別し、ワーク8の把持中心(この実施形態ではワーク8の画像上の中心)と指部5、6、7の離間距離を求める。この離間距離はワーク8の輪郭と指部5、6、7との画面上の離間距離(画素数)で算出される。この離間距離は、指部5、6、7の指先の動作方向(図5の線L1、L2、L3)における指部5、6、7とワーク8の輪郭までの距離であり、図5のL1、L2、L3の線分の長さとされている。多関節ロボット2のアーム3はワーク8の所定位置に掌部4が位置するように、アーム制御装置16によって制御される。掌部4をワーク8に対して所定位置に位置させた後に、ハンド制御装置12は、掌部4の指部5、6、7が把持中心17から等距離、等角度となるように指部5、6、7を位置させる(図5(a))。   The image controller 14 discriminates the workpiece 8 and the finger parts 5, 6, and 7 as the object in the shooting screen 18 of the camera 15, and the gripping center of the workpiece 8 (in this embodiment, the center on the image of the workpiece 8). And the separation distance between the finger parts 5, 6, and 7. This separation distance is calculated by the separation distance (number of pixels) on the screen between the contour of the work 8 and the finger parts 5, 6, 7. This separation distance is the distance between the finger parts 5, 6, 7 and the contour of the work 8 in the movement direction of the fingertips of the finger parts 5, 6, 7 (lines L1, L2, L3 in FIG. 5). The lengths of the line segments L1, L2, and L3 are set. The arm 3 of the articulated robot 2 is controlled by the arm control device 16 so that the palm 4 is positioned at a predetermined position of the work 8. After the palm 4 is positioned at a predetermined position with respect to the work 8, the hand control device 12 causes the fingers 5, 6, 7 of the palm 4 to be equidistant from the grip center 17 and equiangular. 5, 6, and 7 are positioned (FIG. 5A).

ハンド制御装置12は、掌部4の把持中心にワーク8の把持中心が位置した後に、指部5、6、7を閉じてワーク8を把持するように指部5、6、7のアクチュエータ類を動かす。すなわち、ハンド制御装置12は、ワーク8をレンズ10の光軸10a上に位置させたら、指部5、6、7を等速度で屈曲させる(図5(b))。そして、最終的には指部5、6、7を全部屈曲させてワーク8を把持する(図5(c))。これによって、ワーク8は姿勢を変えることなく、確実に指部5、6、7に把持され、掌部4内に納められる。ワーク8を把持したら、ロボット制御装置11は次の組み込み工程にアーム3を動かして、所定の位置に掌部4を移動させ、組み込み箇所を他のワーク監視カメラや掌部4のカメラ15で確認した後に、把持したワーク8を所定の姿勢で向け、ハンド制御装置12で組み込み作業を行う。   The hand control device 12 includes actuators for the finger parts 5, 6, 7 so as to close the finger parts 5, 6, 7 and grip the work 8 after the grip center of the work 8 is positioned at the grip center of the palm part 4. Move. That is, when the hand control device 12 positions the work 8 on the optical axis 10a of the lens 10, the hand control device 12 bends the finger portions 5, 6, and 7 at a constant speed (FIG. 5B). Finally, the fingers 8, 5, and 7 are all bent to grip the workpiece 8 (FIG. 5C). As a result, the workpiece 8 is securely held by the fingers 5, 6, and 7 without being changed in posture and is placed in the palm 4. When the workpiece 8 is gripped, the robot controller 11 moves the arm 3 to the next assembling process, moves the palm 4 to a predetermined position, and confirms the assembling location with another work monitoring camera or the camera 15 of the palm 4. After that, the gripping work 8 is directed in a predetermined posture and the hand control device 12 performs the assembling work.

図6は、ワーク8を把持するときの多関節ロボット2の動きを示す流れ図である。ロボット制御装置11は、ワーク8を把持する際に、まずワーク8がカメラ15の視野内にはいるまで掌部4を移動させるように、多関節ロボット2のアーム3を駆動する(ステップS1)。次に、図5に示すように、画像処理コントローラ14が対象物たるワーク8の把持中心が、指部5、6、7の把持中心17と一致するかどうかを判定する(ステップS2)。ステップS2でNoという結果になり一致していなければ、ハンド制御装置12を駆動して一致する理想位置になるまで掌部4を移動させるように多関節ロボット2を駆動する(ステップS3)。ステップS2、S3でワーク8の把持中心が指部5、6、7の把持中心と一致する理想位置になったら、ハンド制御装置12を駆動してワーク8が把持可能な途中の位置まで指部5、6、7を閉じて把持可能な待機姿勢を取る(ステップS4;図5(a)参照)。   FIG. 6 is a flowchart showing the movement of the articulated robot 2 when gripping the workpiece 8. When gripping the workpiece 8, the robot control device 11 first drives the arm 3 of the articulated robot 2 so that the palm 4 is moved until the workpiece 8 is within the field of view of the camera 15 (step S1). . Next, as shown in FIG. 5, the image processing controller 14 determines whether or not the gripping center of the workpiece 8 that is the object coincides with the gripping center 17 of the finger parts 5, 6, and 7 (step S <b> 2). If the result of step S2 is No and they do not match, the articulated robot 2 is driven so that the hand control device 12 is driven to move the palm 4 until the matching ideal position is reached (step S3). When the gripping center of the workpiece 8 becomes an ideal position that coincides with the gripping centers of the finger portions 5, 6, and 7 in steps S 2 and S 3, the finger control unit 12 is driven to the middle position where the workpiece 8 can be gripped. 5, 6, 7 are closed to take a standby posture (step S <b> 4; see FIG. 5A).

このステップS4で待機姿勢をとった後に、画像処理コントローラ14が、指部5、6、7とワーク8の最も外側の接触位置までの距離を画像処理にて計測し、各指毎の閉距離オフセット量を計算し、次回の指部5、6、7の閉じ量を確定し、ハンド制御装置12の制御により、指部5、6、7を閉じる(ステップS5)。ステップS5の実行により、ワーク8に指部5、6、7が接触したかどうかを判定し(ステップS6;図5(c)参照)、接触したらこの処理を終了する。ステップS6でNoという結果になり、指部5、6、7がワーク8に接触しなかったら、再度ステップS5の前に戻る。   After taking the standby posture in step S4, the image processing controller 14 measures the distance to the outermost contact position between the fingers 5, 6, 7 and the workpiece 8 by image processing, and the closed distance for each finger. The offset amount is calculated, the next closing amount of the finger parts 5, 6, 7 is determined, and the finger parts 5, 6, 7 are closed under the control of the hand control device 12 (step S5). By executing step S5, it is determined whether or not the fingers 5, 6, and 7 are in contact with the work 8 (step S6; see FIG. 5C). If the result of step S6 is No, and the fingers 5, 6, and 7 do not contact the workpiece 8, the process returns to step S5 again.

以上説明したように、この実施形態にかかるロボット用ハンド1は、多関節ロボット2の可動可能なアーム3の先端部に取り付けられるロボット用ハンドであり、対象物であるワーク8を把持する複数本の指部5、6、7と、指部5、6、7を可動可能に連結する掌部4に設けられ、指部5、6、7をそれぞれ駆動するモーター及びギア機構等のアクチュエータ類からなる駆動機構と、掌部4に配設されて複数本の指部5、6、7に把持されたワーク8を撮像するカメラ15とを備えており、カメラ15は、複数本の指部5、6、7の指先が接触する把持中心17が、カメラ15の光軸10a上に位置するように、配設されている。   As described above, the robot hand 1 according to this embodiment is a robot hand attached to the distal end portion of the movable arm 3 of the articulated robot 2, and a plurality of hands holding the workpiece 8 as a target object. From the fingers 5, 6, 7, and the palm 4 movably connecting the fingers 5, 6, 7, and the actuators such as a motor and a gear mechanism for driving the fingers 5, 6, 7, respectively. And a camera 15 that images the workpiece 8 that is disposed on the palm 4 and is gripped by the plurality of fingers 5, 6, 7. The camera 15 includes a plurality of fingers 5. , 6 and 7 are arranged so that the gripping center 17 with which the fingertips come in contact is positioned on the optical axis 10 a of the camera 15.

このようなロボット用ハンド1では、指部5、6、7の根元になる掌部4にカメラ15があり、そのカメラ15の光軸10aがワーク8の把持中心に設定されているので、一度でワーク8を高精度に把持でき、他のワーク8を動かしたり、目標のワーク8を掴み損ねたり、ワーク8を見失ったりすることがなく、ワーク8を迅速に把持できる。上記の構成において、カメラ15の合焦位置が、指部5、6、7の把持中心17に一致するものであると、ワーク8を把持する際にカメラ15で撮像すると、カメラ15とワーク8のアライメント調整が不要であり、迅速な把持が可能である。   In such a robot hand 1, the camera 15 is provided on the palm 4 that is the base of the fingers 5, 6, and 7, and the optical axis 10 a of the camera 15 is set at the gripping center of the workpiece 8. The workpiece 8 can be gripped with high accuracy, and the workpiece 8 can be quickly gripped without moving other workpieces 8, losing the target workpiece 8, or losing sight of the workpiece 8. In the above configuration, if the in-focus position of the camera 15 coincides with the gripping center 17 of the finger parts 5, 6, 7, when the camera 15 captures an image when gripping the work 8, the camera 15 and the work 8 No alignment adjustment is required and quick gripping is possible.

また、このロボット用ハンド1では、カメラ15の撮影結果に基づいて、複数の指部5、6、7を個々に制御する制御手段としてハンド制御装置12を更に備え、ハンド制御装置12は、複数の指部5、6、7とワーク8とをカメラ15の視野内に捕らえる位置に移動した状態から、把持中心17とワーク8の把持中心17とを合う位置に移動させ、更に、把持中心17と複数の指部5、6、7の指先の進行方向とを結ぶ線L1、L2、L3上において、複数の指部5、6、7の指先とワーク8の輪郭(最外接触位置)とが等距離となるように、複数5、6、7の指部を構えて把持動作を行う構成とされているので、把持するワーク8の姿勢を変えることなく、ワーク8を高精度に且つ迅速に把持できる。   In addition, the robot hand 1 further includes a hand control device 12 as a control unit that individually controls the plurality of finger parts 5, 6, and 7 based on the photographing result of the camera 15, and the hand control device 12 includes a plurality of hand control devices 12. The gripping center 17 and the gripping center 17 of the work 8 are moved to a position where the gripping center 17 and the gripping center 17 of the workpiece 8 are matched from the state where the fingers 5, 6, 7 and the workpiece 8 are moved to a position where they are captured within the field of view of the camera 15. On the lines L1, L2, and L3 connecting the fingertips of the plurality of finger portions 5, 6, and 7 with the contours of the workpiece 8 and the fingertips of the plurality of finger portions 5, 6, and 7 (outermost contact position) Since the gripping operation is performed by holding a plurality of 5, 6 and 7 fingers so that the distance between the workpieces 8 is equal, the workpiece 8 can be quickly and accurately moved without changing the posture of the workpiece 8 to be gripped. Can be gripped.

また、このロボット用ハンド1の制御方法では、ロボット制御装置11は、対象物であるワーク8を把持する際に、まずワーク8と複数本の指部5、6、7とをカメラ15で撮像する。カメラ15の撮像画面に基づいてアーム制御装置3でアーム3を駆動して、ワーク8の把持中心が指部5、6、7の把持中心17と一致する理想位置になったら、ハンド制御装置12を駆動してワーク8が把持可能な途中の位置まで指部5、6、7を閉じて把持可能な待機姿勢を取る。   In the control method of the robot hand 1, the robot controller 11 first picks up the workpiece 8 and the plurality of fingers 5, 6, and 7 with the camera 15 when gripping the workpiece 8 that is the object. To do. When the arm 3 is driven by the arm control device 3 based on the imaging screen of the camera 15 and the gripping center of the workpiece 8 becomes an ideal position that coincides with the gripping center 17 of the finger parts 5, 6, 7, the hand control device 12. Is driven to close the fingers 5, 6 and 7 to a midway position where the workpiece 8 can be gripped, and a gripping standby posture is taken.

その際に、カメラ15の撮像結果に基づいて、各指先から各指先が接触するワーク8上の最も外側の接触目標位置までの離間距離を測定する。すなわち、画像コントローラ14が、カメラ15の撮影画面18内において、ワーク8の把持中心17と指部5、6、7の離間距離を求める。この際、離間距離はワーク8の輪郭と指部5、6、7との間のドット数で求められる。ハンド制御装置12は、指部5、6、7が把持中心17から等距離、等角度となるように指部5、6、7を位置させ、複数本の指部5、6、7の指先が同時にワーク8に接触するように制御する。   At that time, based on the imaging result of the camera 15, the separation distance from each fingertip to the outermost contact target position on the work 8 with which each fingertip contacts is measured. That is, the image controller 14 obtains the separation distance between the gripping center 17 of the work 8 and the finger parts 5, 6, 7 in the shooting screen 18 of the camera 15. At this time, the separation distance is obtained by the number of dots between the contour of the work 8 and the finger parts 5, 6, 7. The hand control device 12 positions the finger parts 5, 6, 7 so that the finger parts 5, 6, 7 are equidistant and equiangular from the gripping center 17, and the fingertips of the plurality of finger parts 5, 6, 7 Are controlled so as to simultaneously contact the workpiece 8.

ワーク8に掌部4を接近させる際、記憶装置13が、作業台9のワーク8の姿勢と、ワーク8を把持するための掌部4の位置および姿勢とを対応させた複数の画像情報を予め保持し、ワーク8を把持するときに、カメラ15でワーク8を撮像し、その撮像画像と記憶装置13の画像情報とを比較し、記憶した画像情報の中から最も近似した画像情報(例えば図4(3、3)参照)に基づいて、掌部4の位置および姿勢を決定して掌部4を移動させるので、姿勢の選択決定が早く、迅速なロボット制御を行うことができる。   When the palm part 4 is brought close to the work 8, the storage device 13 stores a plurality of pieces of image information in which the posture of the work 8 on the work table 9 and the position and posture of the palm part 4 for gripping the work 8 are associated with each other. When holding the workpiece 8 and holding the workpiece 8, the camera 8 captures the workpiece 8, compares the captured image with the image information of the storage device 13, and approximates the image information (for example, the stored image information) Since the position and orientation of the palm 4 are determined and the palm 4 is moved based on FIG. 4 (3, 3)), the selection of the orientation can be quickly determined and rapid robot control can be performed.

この実施形態のロボット用ハンドの制御システムは、ワーク8の把持前の姿勢の画像情報と、当該画像情報にかかる姿勢のワーク8を把持するための掌部4の位置情報および姿勢情報とを予め対応させて保持させた記憶装置13と、ワーク8を把持するときに、カメラ15でワーク8と指部5、6、7とを撮影し、撮影したカメラ15その撮影画像を記憶装置13の画像情報とを比較し、複数の画像情報の中から撮影した撮影画像に最も近似した画像情報に基づいて掌部4の位置および姿勢を決定し、決定した姿勢となるようにハンド制御装置12を駆動して掌部4を移動させ、掌部4の移動後にワーク8が複数本の指部5、6、7の把持中心17になるように掌部4を移動させ、ワーク8の把持中心と指部5、6、7の把持中心17とを一致させた後に、複数本の指部5、6、7で同時にワーク8を掴むように、指部5、6、7を駆動するロボット制御装置11とを、備えているので、把持するワーク8の姿勢を変えたり、掴み損ねたり、見失ったりすることなく、ワーク8を高精度に且つ迅速に把持できる。   The robot hand control system of this embodiment previously stores image information of the posture before gripping the workpiece 8, and positional information and posture information of the palm 4 for gripping the workpiece 8 of the posture according to the image information. When the storage device 13 held in correspondence and the workpiece 8 are gripped, the workpiece 8 and the fingers 5, 6, and 7 are photographed by the camera 15, and the photographed image of the photographed camera 15 is stored in the storage device 13. Information is compared, the position and posture of the palm 4 is determined based on the image information that is most approximate to the photographed image taken from a plurality of pieces of image information, and the hand control device 12 is driven so that the determined posture is obtained. The palm part 4 is moved, and after the palm part 4 is moved, the palm part 4 is moved so that the work 8 becomes the gripping center 17 of the plurality of finger parts 5, 6, 7. One with the gripping center 17 of the parts 5, 6, 7 Since the robot controller 11 that drives the fingers 5, 6, and 7 is provided so that the workpiece 8 is simultaneously grasped by the plurality of fingers 5, 6, and 7, the robot The workpiece 8 can be gripped with high accuracy and speed without changing the posture, failing to grasp, or losing sight.

図7はロボット用ハンド1の変形例を示す。このロボット用ハンド20では、掌部21の3本の指部22、23、24のうちの2本の指部23、24が掌部21の外周に沿って移動し、ワーク8を同時に把持できるようになっている。このロボット用ハンド20の掌部21の中央部にはカメラ25が配設されており、ワーク8を掴む際のワーク8と指部22、23、24を撮像して、指部22、23、24の把持中心と掌部21の把持中心とを一致させてワーク8を掴むことができるようになっている。図7のロボット用ハンド20では、指部23、24が掌部21の周りをスライド移動する機構を備えているので、ワーク8の形状に合わせてワーク8の把持状態を選択することができる。そのほかの構成は第1の実施形態と同様であるので、その説明を用いる。   FIG. 7 shows a modification of the robot hand 1. In this robot hand 20, two fingers 23, 24 of the three fingers 22, 23, 24 of the palm 21 move along the outer periphery of the palm 21, and the workpiece 8 can be gripped simultaneously. It is like that. A camera 25 is disposed at the center of the palm portion 21 of the robot hand 20, and images the workpiece 8 and the finger portions 22, 23, 24 when gripping the workpiece 8, The workpiece 8 can be gripped by aligning the gripping center of 24 and the gripping center of the palm 21. In the robot hand 20 of FIG. 7, since the finger parts 23 and 24 are provided with a mechanism for sliding around the palm part 21, the gripping state of the work 8 can be selected according to the shape of the work 8. Since the other configuration is the same as that of the first embodiment, the description is used.

本発明の実施形態にかかるロボット用ハンドの構成を示す概略的な斜視図である。It is a schematic perspective view which shows the structure of the robot hand concerning embodiment of this invention. 図1のロボット用ハンドを組み込んだ多関節ロボットの構成を示すブロック図である。It is a block diagram which shows the structure of the articulated robot incorporating the robot hand of FIG. 図1の多関節ロボットの制御系のブロック図である。It is a block diagram of the control system of the articulated robot of FIG. 図1の多関節ロボットの記憶装置に記憶されたワークの姿勢の画像情報の例である。It is an example of the image information of the attitude | position of the workpiece | work memorize | stored in the memory | storage device of the articulated robot of FIG. 図1のロボット用ハンドのカメラでワークと指部とを撮影したときの撮影画像を示し、図5(a)はワークを把持するための準備姿勢の図、図5(b)はワークを把持しつつあるときの把持動作途中の図、図5(c)はワークの外周に指部が接触して把持完了になったときの図である。FIG. 5A shows a photographed image when a workpiece and a finger are photographed by the camera of the robot hand in FIG. 1, FIG. 5A is a diagram of a preparation posture for gripping the workpiece, and FIG. FIG. 5C is a diagram in the middle of the gripping operation when the gripping is being completed, and FIG. 図2の多関節ロボット及びロボット用ハンドでワークを認識してから把持するまでの処理を示すフローチャートである。It is a flowchart which shows the process after recognizing a workpiece | work with the articulated robot and robot hand of FIG. 図1の変形例にかかるロボット用ハンドの図である。It is a figure of the hand for robots concerning the modification of FIG.

符号の説明Explanation of symbols

1…ロボット用ハンド 2…多関節ロボット 3…アーム 4…掌部 5、6、7…指部 8…ワーク 9…作業台 10…レンズ 10a…レンズの光軸 11…ロボット制御装置 12…ハンド制御部 13…記憶装置 14…画像処理ントローラ 15…カメラ 16…アーム制御装置 17…把持中心 L1、L2、L3…ワークと指部の離間距離   DESCRIPTION OF SYMBOLS 1 ... Robot hand 2 ... Articulated robot 3 ... Arm 4 ... Palm part 5, 6, 7 ... Finger part 8 ... Work 9 ... Worktable 10 ... Lens 10a ... Optical axis of lens 11 ... Robot controller 12 ... Hand control Reference numeral 13: Storage device 14: Image processing controller 15: Camera 16 ... Arm control device 17: Grasping center L1, L2, L3: Separation distance between workpiece and finger

Claims (6)

多関節ロボットの可動可能な先端部に取り付けられるロボット用ハンドであって、
対象物を把持する複数本の指部と、
前記指部を可動可能に連結する掌部に設けられ、前記指部をそれぞれ駆動する駆動機構と、
前記掌部に配設されて前記複数本の指部に把持された前記対象物を撮像するカメラとを備え、
前記カメラは、前記複数本の指部の指先が接触する把持中心が、前記カメラの光軸上に位置するように、配設されていることを特徴とするロボット用ハンド。
A robot hand attached to a movable tip of an articulated robot,
A plurality of fingers to grip the object;
A drive mechanism that is provided on a palm part that movably connects the finger parts, and that drives the finger parts;
A camera that images the object disposed on the palm and gripped by the plurality of fingers.
The robot hand, wherein the camera is disposed such that a gripping center where the fingertips of the plurality of finger portions contact is positioned on an optical axis of the camera.
前記カメラの合焦位置が、前記把持中心に一致することを特徴とする請求項1記載のロボット用ハンド。   The robot hand according to claim 1, wherein a focusing position of the camera coincides with the grip center. 前記カメラの撮影結果に基づいて、前記複数の指部を個々に制御する制御手段を更に備え、前記制御手段は、前記複数の指部と前記対象物とを前記カメラの視野内に捕らえる位置に移動した状態から、前記把持中心と前記対象物の把持中心位置とを合う位置に移動させ、更に、前記把持中心と前記複数の指部の前記指先の進行方向とを結ぶ線上において、前記複数の指部の指先と前記対象物の輪郭とが等距離となるように、前記複数の指部を構えて把持動作を行うことを特徴とする請求項1又は2に記載のロボット用ハンド。   The camera further comprises control means for individually controlling the plurality of finger portions based on the photographing result of the camera, wherein the control means is located at a position where the plurality of finger portions and the object are captured in the field of view of the camera. From the moved state, the gripping center and the gripping center position of the object are moved to a position that matches, and further, on the line connecting the gripping center and the moving direction of the fingertips of the plurality of finger parts, 3. The robot hand according to claim 1, wherein a gripping operation is performed while holding the plurality of finger parts such that a fingertip of a finger part and an outline of the object are equidistant. 請求項1乃至3のいずれかに記載のロボット用ハンドの制御方法であって、
前記指部を屈曲させて前記対象物を把持する工程は、
前記対象物と前記複数本の指部とを前記カメラで撮像し、
前記カメラの撮像結果に基づいて、前記各指先から前記各指先が接触する前記対象物上の接触目標位置までの離間距離を、測定し、
前記離間距離に基づいて、前記複数本の指先が同時に前記対象物に接触するように、前記複数本の指部を制御することを特徴とするロボット用ハンドの制御方法。
A method for controlling a robot hand according to any one of claims 1 to 3,
The step of bending the finger portion and gripping the object includes
Imaging the object and the plurality of fingers with the camera,
Based on the imaging results of the camera, measure the separation distance from each fingertip to the contact target position on the object that each fingertip contacts,
A method for controlling a robot hand, wherein the plurality of finger parts are controlled based on the separation distance so that the plurality of fingertips simultaneously contact the object.
前記対象物の把持前の姿勢と、当該姿勢の対象物を把持するための前記掌部の位置および姿勢と、を対応させた複数の画像情報を予め制御手段に保持しておき、
前記対象物を把持するときに、前記カメラで前記対象物を撮像し、その撮像画像と前記複数の画像情報とを比較し、前記複数の画像情報の中から最も近似した画像情報に基づいて、前記掌部の位置および姿勢を決定して前記掌部を移動させ、前記複数本の指部の把持中心と前記対象物の把持中心とを合わせて同時に把持することを特徴とする請求項4に記載のロボット用ハンドの制御方法。
A plurality of pieces of image information in which the posture before gripping the object and the position and posture of the palm for gripping the object in the posture are held in the control unit in advance,
When grasping the object, the camera captures the object, compares the captured image with the plurality of image information, and based on the closest image information among the plurality of image information, The position and posture of the palm are determined, the palm is moved, and the grip center of the plurality of fingers and the grip center of the object are combined and gripped simultaneously. A control method of the robot hand described.
請求項1乃至請求項3のいずれかに記載のロボット用ハンドの制御システムであって、
前記対象物の把持前の姿勢の画像情報と、当該画像情報にかかる姿勢の対象物を把持するための前記掌部の位置および姿勢とを対応させたハンド制御情報を予め対応させて保持させた記憶装置と、
前記対象物を把持するときに、前記カメラで前記対象物と前記複数の指部とを撮影し、その撮影画像を前記記憶装置の前記複数の画像情報とを比較し、前記複数の画像情報の中から前記撮影画像に最も近似した画像情報に基づいて前記掌部の位置および姿勢を決定し、決定した姿勢となるように前記掌部を移動させ、前記掌部の移動後に前記複数本の指部の把持中心と前記対象物の把持中心とを合わせて同時に把持する制御装置と、
を備えたことを特徴とするロボット用ハンドの制御システム。
A control system for a robot hand according to any one of claims 1 to 3,
Hand control information in which the image information of the posture before gripping the object and the position and posture of the palm for gripping the object in the posture according to the image information is held in correspondence with each other. A storage device;
When grasping the object, the camera and the plurality of fingers are photographed by the camera, the photographed image is compared with the plurality of image information in the storage device, and the plurality of image information The position and posture of the palm are determined based on image information that is most similar to the captured image, and the palm is moved so that the determined posture is obtained, and the plurality of fingers are moved after the palm is moved. A control device for simultaneously gripping the gripping center of the object and the gripping center of the object;
A control system for a robot hand.
JP2007247617A 2007-09-25 2007-09-25 Robot hand, its control method and control system Withdrawn JP2009078310A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007247617A JP2009078310A (en) 2007-09-25 2007-09-25 Robot hand, its control method and control system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007247617A JP2009078310A (en) 2007-09-25 2007-09-25 Robot hand, its control method and control system

Publications (2)

Publication Number Publication Date
JP2009078310A true JP2009078310A (en) 2009-04-16
JP2009078310A5 JP2009078310A5 (en) 2010-11-11

Family

ID=40653458

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007247617A Withdrawn JP2009078310A (en) 2007-09-25 2007-09-25 Robot hand, its control method and control system

Country Status (1)

Country Link
JP (1) JP2009078310A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102310409A (en) * 2010-07-05 2012-01-11 株式会社安川电机 Robot apparatus and gripping method for use in robot apparatus
CN103732363A (en) * 2011-08-19 2014-04-16 株式会社安川电机 Robot system, robot control device, robot hand and method for controlling robot
JP2016120545A (en) * 2014-12-24 2016-07-07 株式会社ソフトサービス Handling device
JP6456557B1 (en) * 2017-10-03 2019-01-23 三菱電機株式会社 Gripping position / posture teaching apparatus, gripping position / posture teaching method, and robot system
WO2019176809A1 (en) * 2018-03-14 2019-09-19 日本電産株式会社 Robot hand and robot
CN112077842A (en) * 2020-08-21 2020-12-15 上海明略人工智能(集团)有限公司 Clamping method, clamping system and storage medium
CN112297000A (en) * 2019-07-23 2021-02-02 发那科株式会社 Robot hand control device, robot system, and robot hand control method

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102310409A (en) * 2010-07-05 2012-01-11 株式会社安川电机 Robot apparatus and gripping method for use in robot apparatus
JP2012011531A (en) * 2010-07-05 2012-01-19 Yaskawa Electric Corp Robot apparatus and gripping method for use in robot apparatus
CN103732363A (en) * 2011-08-19 2014-04-16 株式会社安川电机 Robot system, robot control device, robot hand and method for controlling robot
JP2016120545A (en) * 2014-12-24 2016-07-07 株式会社ソフトサービス Handling device
JP6456557B1 (en) * 2017-10-03 2019-01-23 三菱電機株式会社 Gripping position / posture teaching apparatus, gripping position / posture teaching method, and robot system
CN111163907A (en) * 2017-10-03 2020-05-15 三菱电机株式会社 Grasping position and posture teaching device, grasping position and posture teaching method, and robot system
WO2019176809A1 (en) * 2018-03-14 2019-09-19 日本電産株式会社 Robot hand and robot
CN112297000A (en) * 2019-07-23 2021-02-02 发那科株式会社 Robot hand control device, robot system, and robot hand control method
CN112077842A (en) * 2020-08-21 2020-12-15 上海明略人工智能(集团)有限公司 Clamping method, clamping system and storage medium

Similar Documents

Publication Publication Date Title
JP2009078310A (en) Robot hand, its control method and control system
JP6429473B2 (en) Robot system, robot system calibration method, program, and computer-readable recording medium
CN104227722B (en) Robot system and robot control method
JP4837116B2 (en) Robot system with visual sensor
EP1449626B1 (en) Workpiece conveying apparatus with visual sensor for checking the gripping state
JP2009148845A (en) Small-size production equipment
JP6454960B2 (en) Robot, robot system, robot controller
JP2009269110A (en) Assembly equipment
JP5272617B2 (en) Robot apparatus and control method of robot apparatus
JP2011115877A (en) Double arm robot
JP6741222B2 (en) Robot work transfer method and work transfer device
WO2020022302A1 (en) Grasping device
JP6153316B2 (en) Robot system and control method of robot system
JPH0970786A (en) Holding hand
JP4390758B2 (en) Work take-out device
JP2009078310A5 (en)
CN111618843A (en) Robot system and control method
JP2008168372A (en) Robot device and shape recognition method
JP2015071207A (en) Robot hand and control method thereof
CN112109069A (en) Robot teaching device and robot system
JP2010131685A (en) Robot system and imaging method
JP2005349490A (en) Multi-flexible multi-finger hand
CN107921643B (en) Robot system
JP3239277B2 (en) Intelligent robot
JP2011177863A (en) Gripping device

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100924

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100924

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20120302