JP2009078310A - Robot hand, its control method and control system - Google Patents
Robot hand, its control method and control system Download PDFInfo
- Publication number
- JP2009078310A JP2009078310A JP2007247617A JP2007247617A JP2009078310A JP 2009078310 A JP2009078310 A JP 2009078310A JP 2007247617 A JP2007247617 A JP 2007247617A JP 2007247617 A JP2007247617 A JP 2007247617A JP 2009078310 A JP2009078310 A JP 2009078310A
- Authority
- JP
- Japan
- Prior art keywords
- camera
- gripping
- palm
- posture
- robot hand
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Abstract
Description
本発明は、ワークをカメラで把持するロボット用ハンド及びロボット用ハンドの制御方法並びにロボット用ハンドの制御システムに関する。 The present invention relates to a robot hand for gripping a workpiece with a camera, a robot hand control method, and a robot hand control system.
従来、ワークを把持するロボット用ハンドとしては、特許文献1記載のものが公開されている。この特許文献1記載のものは、物体把持ロボットの制御方式にかかるものであり、3本以上の指を備えたロボットハンドにおいて、開閉動作によって対象物を把持する際に、補正移動をすることを技術的課題としているものである。 Conventionally, as a robot hand for gripping a workpiece, one described in Patent Document 1 has been disclosed. The one described in Patent Document 1 relates to a control method of an object gripping robot, and in a robot hand having three or more fingers, when a target is gripped by an opening / closing operation, correction movement is performed. This is a technical issue.
特許文献1のものでは、ロボットハンドの各指の先端部に、対象物を検知するための近接センサを設けており、対象物を把持する際には、複数の指を対象物の近傍で開いたり閉じたりして、その開閉する過程で、近接センサがオンとなっている1或いは複数の指の開き方向のベクトルを合成して合成ベクトルを求め、その合成ベクトルの向きに、ロボットハンドを移動させて、ロボットハンドの中心を対象物の中心部へ位置決めしようというものである。
しかしながら、上記のようなロボットハンドでは、指の開閉を繰り返して近接センサで対象物の存在をセンシングすると共に、近接センサがオンになったとしても、更に近接センサがオンとなった指の開閉動作させてから、各近接センサのベクトルを合成し、その合成ベクトル演算してから合成ベクトルの向きにロボットハンドを移動させるというものであるので、対象物へのロボットハンドの接近させることに時間がかかるという問題がある。 However, in the robot hand as described above, the proximity sensor senses the presence of an object by repeatedly opening and closing the finger, and even when the proximity sensor is turned on, the finger opening and closing operation with the proximity sensor turned on Since the robot hand is moved in the direction of the combined vector after the vectors of the proximity sensors are combined and the combined vector is calculated, it takes time to bring the robot hand closer to the object. There is a problem.
また、近接センサがロボットハンドの指先に設けられ、指が等速度で開閉するシステムであるので、機械ユニットの位置制御追従性や、近接センサの感度特性等検出位置精度の影響のある要因により、高精度に位置検出できないという問題がある。更に、対象物の存在を確認するために、指の開閉を繰り返すので、ロボットハンドの指で対象物を倒したり移動させたりし易く、対象物の姿勢や位置が変わると、再度対象物のセンシングをやり直す必要があるという問題がある。 In addition, since the proximity sensor is provided at the fingertip of the robot hand and the finger opens and closes at a constant speed, due to factors that influence the position control followability of the mechanical unit and the detection position accuracy such as the sensitivity characteristic of the proximity sensor, There is a problem that the position cannot be detected with high accuracy. In addition, since the finger is repeatedly opened and closed to confirm the presence of the object, it is easy to tilt and move the object with the fingers of the robot hand, and when the posture or position of the object changes, sensing the object again There is a problem that it is necessary to start over.
本発明は、このような問題に着目してなされたものであり、把持する対象物の姿勢を変えることなく、対象物を高精度に且つ迅速に把持できるロボット用ハンド、その制御方法並びに制御システムを提供することを目的とする。 The present invention has been made paying attention to such a problem, and a robot hand capable of quickly and accurately grasping an object without changing the posture of the object to be grasped, its control method and control system The purpose is to provide.
上記課題を解決するために、本発明のロボット用ハンドは、多関節ロボットの可動可能な先端部に取り付けられるロボット用ハンドであって、対象物を把持する複数本の指部と、前記指部を可動可能に連結する掌部に設けられ、前記指部をそれぞれ駆動する駆動機構と、前記掌部に配設されて前記複数本の指部に把持された前記対象物を撮像するカメラとを備え、前記カメラは、前記複数本の指部の指先が接触する把持中心が、前記カメラの光軸上に位置するように、配設されていることを特徴とする。このような構成によれば、指部の根元になる掌部にカメラがあり、そのカメラの光軸が対象物の把持中心に設定されているので、対象物の姿勢を変えることなく、また、掴み損ねることもなく高精度で迅速に対象物を把持できる。 In order to solve the above problems, a robot hand according to the present invention is a robot hand attached to a movable tip portion of an articulated robot, and includes a plurality of finger portions for gripping an object, and the finger portions. A driving mechanism for driving each of the finger portions, and a camera for imaging the object that is disposed on the palm portion and is gripped by the plurality of finger portions. And the camera is arranged such that a gripping center with which the fingertips of the plurality of finger portions contact is positioned on the optical axis of the camera. According to such a configuration, since there is a camera at the palm of the base of the finger, and the optical axis of the camera is set at the gripping center of the object, without changing the posture of the object, The object can be quickly grasped with high accuracy without being missed.
上記のロボット用ハンドにおいて、前記カメラの合焦位置が、前記把持中心に一致するものであっても良い。このような構成によれば、対象物を把持する際にカメラで撮像すると、カメラと対象物のアライメント調整が不要であり、迅速な把持が可能となる。 In the above robot hand, the in-focus position of the camera may coincide with the grip center. According to such a configuration, when an image is captured by the camera when the object is gripped, alignment adjustment between the camera and the object is unnecessary, and quick gripping is possible.
また、上記のロボット用ハンドにおいて、前記カメラの撮影結果に基づいて、前記複数の指部を個々に制御する制御手段を更に備え、前記制御手段は、前記複数の指部と前記対象物とを前記カメラの視野内に捕らえる位置に移動した状態から、前記把持中心と前記対象物の把持中心位置とを合う位置に移動させ、更に、前記把持中心と前記複数の指部の前記指先の進行方向とを結ぶ線上において、前記複数の指部の指先と前記対象物の輪郭とが等距離となるように、前記複数の指部を構えて把持動作を行うように構成しても良い。 The robot hand may further include a control unit that individually controls the plurality of finger units based on a photographing result of the camera, and the control unit includes the plurality of finger units and the object. Move the grip center to the grip center position of the object from a state where it has been moved to a position that is captured within the field of view of the camera, and further move the fingertip in the direction of movement of the grip center and the plurality of finger portions. A gripping operation may be performed by holding the plurality of finger portions so that the fingertips of the plurality of finger portions and the contour of the object are equidistant on a line connecting the two.
上記の構成によれば、把持の際に各指先と対象物との輪郭までの距離が等距離設定されていると、各指部は同時に対象物を把持できることとなり、把持の際に対象物を動かしてその姿勢を変えてしまうことや、他のワーク等に対象物が当たって対象物自身や他のワークの姿勢を変えてしまうことを防止でき、迅速な処理を行うことができる。 According to the above configuration, when the distance to the contour between each fingertip and the target object is set to be equal when gripping, each finger unit can grip the target object at the same time. It is possible to prevent the movement and change of the posture, and the change of the posture of the object itself and the other workpiece due to the object hitting another workpiece or the like, and quick processing can be performed.
本発明のロボット用ハンドの制御方法は、前記指部を屈曲させて前記対象物を把持する工程は、前記対象物と前記複数本の指部とを前記カメラで撮像し、前記カメラの撮像結果に基づいて、前記各指先から前記各指先が接触する前記対象物上の接触目標位置までの離間距離を、測定し、前記離間距離に基づいて、前記複数本の指先が同時に前記対象物に接触するように、前記複数本の指部を制御することを特徴とする。 In the method for controlling a robot hand according to the present invention, in the step of bending the finger to grip the object, the object and the plurality of fingers are imaged by the camera, and the imaging result of the camera And measuring a separation distance from each fingertip to a contact target position on the object to which each fingertip contacts, and based on the separation distance, the plurality of fingertips simultaneously contact the object As described above, the plurality of fingers are controlled.
これによれば、カメラの撮像結果に基づいて、各指先から各指先が接触する対象物上の接触目標位置までの離間距離を測定するので、画像処理により離間距離を測定でき、演算処理が極めて短時間であるので、迅速な把持が可能となると共に、各指部を同時に対象物に接触させるので、対象物を動かして把持失敗を起こすことが少なくなる。 According to this, since the separation distance from each fingertip to the contact target position on the target object touched by each fingertip is measured based on the imaging result of the camera, the separation distance can be measured by image processing, and calculation processing is extremely difficult. Since it is a short time, it is possible to quickly grip and to bring each finger part into contact with the object at the same time, so that it is less likely to cause a gripping failure by moving the object.
また、上記のロボット用ハンドの制御方法において、前記対象物の把持前の姿勢と、当該姿勢の対象物を把持するための前記掌部の位置および姿勢と、を対応させた複数の画像情報を予め制御手段に保持しておき、前記対象物を把持するときに、前記カメラで前記対象物を撮像し、その撮像画像と前記複数の画像情報とを比較し、前記複数の画像情報の中から最も近似した画像情報に基づいて、前記掌部の位置および姿勢を決定して前記掌部を移動させるように制御する構成としてもよい。 In the above-described robot hand control method, a plurality of pieces of image information in which the posture before gripping the object and the position and posture of the palm for gripping the object in the posture are associated with each other. When the object is held in advance by the control means, the object is imaged by the camera, the captured image is compared with the plurality of image information, and the image information is selected from the plurality of image information. A configuration may be adopted in which the position and orientation of the palm are determined based on the most approximate image information and the palm is moved.
このようなロボット用ハンドの制御方法によれば、掌部を対象物に向かって移動させる際に、多関節アームや掌部を駆動するアーム等の位置合わせのための演算処理が少なくなり、迅速に掌部を移動できるので、対象物の把持処理が早くなる。 According to such a robot hand control method, when the palm portion is moved toward the object, the arithmetic processing for aligning the articulated arm, the arm that drives the palm portion, and the like is reduced, and the operation is quickly performed. Since the palm portion can be moved, the object gripping process is accelerated.
上記のロボット用ハンドの制御システムは、前記対象物の把持前の姿勢の画像情報と、当該画像情報にかかる姿勢の対象物を把持するための前記掌部の位置および姿勢とを対応させたハンド制御情報を予め対応させて保持させた記憶装置と、前記対象物を把持するときに、前記カメラで前記対象物と前記複数の指部とを撮影し、その撮影画像を前記記憶装置の前記複数の画像情報とを比較し、前記複数の画像情報の中から前記撮影画像に最も近似した画像情報に基づいて前記掌部の位置および姿勢を決定し、決定した姿勢となるように前記掌部を移動させ、前記掌部の移動後に前記複数本の指部の把持中心と前記対象物の把持中心とを合わせて同時に把持する制御装置と、を備えた構成としても良い。 The robot hand control system described above is a hand that associates the image information of the posture before gripping the object with the position and posture of the palm for gripping the object of the posture according to the image information. A storage device that holds control information in association with each other, and when the object is gripped, the object and the plurality of finger portions are photographed by the camera, and the photographed images are stored in the storage device. And determining the position and posture of the palm portion based on the image information that is most approximate to the captured image from the plurality of image information, and the palm portion so as to have the determined posture. It is good also as a structure provided with the control apparatus which is made to move and hold | grips simultaneously the holding center of the said several finger | toe part and the holding center of the target object after the said palm part moves.
このような制御システムによれば、対象物を把持するための多関節ロボット等のハンドの制御が迅速になり、対象物の把持処理を迅速に行える。 According to such a control system, the control of a hand such as an articulated robot for gripping an object can be quickly performed, and the object can be quickly gripped.
以下、本発明の最良の実施形態にかかるロボット用ハンド、その制御方法並びに制御システムを図面を参照にして説明する。図2は実施形態にかかるロボット用ハンド1を用いた多関節ロボット2のブロック図を示す。多関節ロボット2の先端部のアーム3の先端部にハンド1が装着されている。ハンド1は、図1に示すように、アーム3に取り付けるベースとなる掌部4を備えており、この掌部4に3本の指部5、6、7が屈曲可能に設けられている。指部5、6、7を開いたり、閉じたり、或いは、屈曲させるための機構及び駆動源となるアクチュエータ類は、従来からロボットハンドに用いられているサーボモータ類とギア機構等が用いられているので、詳細な説明を省略する。8は把持対象となる対象物としてのワークであり、ワーク8は作業台9に搬入される。ワーク8が作業台9の上に搬入されたことは掌部4のカメラ15で検出される。多関節ロボット2は作業台9に搬入されたワーク8を把持して次の作業工程である例えば組み付け工程に搬送する。
Hereinafter, a robot hand, a control method thereof, and a control system according to the best embodiment of the present invention will be described with reference to the drawings. FIG. 2 is a block diagram of an articulated robot 2 using the robot hand 1 according to the embodiment. A hand 1 is attached to the tip of the
図1はロボット用ハンド1の掌部4に設けられた指部5、6、7を示す。掌部4の中心部にはカメラ15(図3参照)のレンズ10が設けられている。このレンズ10の光軸10aは掌部4の面に対して直交方向に延びている。掌部4のレンズ10の後部にはカメラ15が内蔵されている。掌部4の外周部にはレンズ10の光軸を中心としてほぼ等距離、等角度の位置に指部5、6、7が開閉可能に取り付けられている。
FIG. 1 shows
指部5、6、7の指先は、対象物を把持するために折り曲げたときにレンズ10の光軸10a上で互いに接触可能とされており、このレンズ10の光軸10a上に指部5、6、7の把持中心17(図5参照)が設けられている。指部5、6、7が屈曲されたときに互いに接触する位置は、把持中心17上にあって、カメラ15のレンズ10の合焦位置とされており、対象物を把持中心17で把持したときに、カメラ15はピントが合った状態で対象物を撮像可能とされている。
The fingertips of the
図2はこの多関節ロボット4の制御ブロック図を示すもので、多関節ロボット2はロボット制御装置11によって制御される。指部5、6、7のアクチュエータ類は、ハンド制御装置12により制御されるが、把持動作を実行するか否かについては、多関節ロボット4のロボット制御装置11の命令を受ける。ロボット制御装置11には記憶装置13が設けられており、様々な制御用プログラム類や制御に必要なデータ類が記憶されている。
FIG. 2 is a control block diagram of the articulated
この実施形態の記憶装置13には、作業台9に搬入される様々な姿勢のワーク8の画像情報と、それぞれの姿勢のワーク8に対して掌部4が向くべきレンズ10の光軸方向と、ワーク8の姿勢に合わせてレンズ10の光軸を所定方向に向けるための多関節ロボット4のアームの位置及び方向が記憶されている。また、ロボット制御装置11にはカメラ15の撮影画像を処理する画像処理コントローラ14が備えられている。
In the
図4は記憶装置13に記憶されたワーク8の画像情報の概念である。作業台9の上に搬入されたワーク8の姿勢の種類はほぼ決まっているので、記憶装置13にはワーク8の搬入姿勢につき画像情報が記憶されている。各ワーク8の搬入姿勢に対しては、掌部4を接近させるための掌部4の向き及び位置並びにロボット制御装置11のアーム3の位置及び向き等の動作情報が、データとして関連して記憶装置13に記憶されている。
FIG. 4 shows the concept of the image information of the
カメラ15は、作業台9上に搬入されるワーク8の姿勢を監視し、ワーク8の姿勢を撮影してワーク8の撮影画像をロボット制御装置11に送信する。例えば、ロボット制御装置11は、カメラ15が撮影したワーク8の姿勢の画像情報を、記憶装置13の画像情報と照らし合わせ、最も近似した画像情報(図4の(3行3列)参照)を選択して、その画像情報に対応する姿勢を多関節ロボット4に取るように制御する。
The
図5はカメラ15の撮影視野内における対象物たるワーク8と指部5、6、7の位置関係を示す。カメラ15の撮影視野内には、レンズ10の光軸に合わせた把持中心17が設定されている。多関節ロボット2のロボット制御装置11は、カメラ15の撮影画像を観察しつつ、掌部4のレンズ10の光軸上にワーク8の把持中心が位置するように、アーム3及びロボット用ハンド1を駆動する。
FIG. 5 shows the positional relationship between the
画像コントローラ14は、カメラ15の撮影画面18内において、対象物であるワーク8と指部5、6、7を識別し、ワーク8の把持中心(この実施形態ではワーク8の画像上の中心)と指部5、6、7の離間距離を求める。この離間距離はワーク8の輪郭と指部5、6、7との画面上の離間距離(画素数)で算出される。この離間距離は、指部5、6、7の指先の動作方向(図5の線L1、L2、L3)における指部5、6、7とワーク8の輪郭までの距離であり、図5のL1、L2、L3の線分の長さとされている。多関節ロボット2のアーム3はワーク8の所定位置に掌部4が位置するように、アーム制御装置16によって制御される。掌部4をワーク8に対して所定位置に位置させた後に、ハンド制御装置12は、掌部4の指部5、6、7が把持中心17から等距離、等角度となるように指部5、6、7を位置させる(図5(a))。
The
ハンド制御装置12は、掌部4の把持中心にワーク8の把持中心が位置した後に、指部5、6、7を閉じてワーク8を把持するように指部5、6、7のアクチュエータ類を動かす。すなわち、ハンド制御装置12は、ワーク8をレンズ10の光軸10a上に位置させたら、指部5、6、7を等速度で屈曲させる(図5(b))。そして、最終的には指部5、6、7を全部屈曲させてワーク8を把持する(図5(c))。これによって、ワーク8は姿勢を変えることなく、確実に指部5、6、7に把持され、掌部4内に納められる。ワーク8を把持したら、ロボット制御装置11は次の組み込み工程にアーム3を動かして、所定の位置に掌部4を移動させ、組み込み箇所を他のワーク監視カメラや掌部4のカメラ15で確認した後に、把持したワーク8を所定の姿勢で向け、ハンド制御装置12で組み込み作業を行う。
The
図6は、ワーク8を把持するときの多関節ロボット2の動きを示す流れ図である。ロボット制御装置11は、ワーク8を把持する際に、まずワーク8がカメラ15の視野内にはいるまで掌部4を移動させるように、多関節ロボット2のアーム3を駆動する(ステップS1)。次に、図5に示すように、画像処理コントローラ14が対象物たるワーク8の把持中心が、指部5、6、7の把持中心17と一致するかどうかを判定する(ステップS2)。ステップS2でNoという結果になり一致していなければ、ハンド制御装置12を駆動して一致する理想位置になるまで掌部4を移動させるように多関節ロボット2を駆動する(ステップS3)。ステップS2、S3でワーク8の把持中心が指部5、6、7の把持中心と一致する理想位置になったら、ハンド制御装置12を駆動してワーク8が把持可能な途中の位置まで指部5、6、7を閉じて把持可能な待機姿勢を取る(ステップS4;図5(a)参照)。
FIG. 6 is a flowchart showing the movement of the articulated robot 2 when gripping the
このステップS4で待機姿勢をとった後に、画像処理コントローラ14が、指部5、6、7とワーク8の最も外側の接触位置までの距離を画像処理にて計測し、各指毎の閉距離オフセット量を計算し、次回の指部5、6、7の閉じ量を確定し、ハンド制御装置12の制御により、指部5、6、7を閉じる(ステップS5)。ステップS5の実行により、ワーク8に指部5、6、7が接触したかどうかを判定し(ステップS6;図5(c)参照)、接触したらこの処理を終了する。ステップS6でNoという結果になり、指部5、6、7がワーク8に接触しなかったら、再度ステップS5の前に戻る。
After taking the standby posture in step S4, the
以上説明したように、この実施形態にかかるロボット用ハンド1は、多関節ロボット2の可動可能なアーム3の先端部に取り付けられるロボット用ハンドであり、対象物であるワーク8を把持する複数本の指部5、6、7と、指部5、6、7を可動可能に連結する掌部4に設けられ、指部5、6、7をそれぞれ駆動するモーター及びギア機構等のアクチュエータ類からなる駆動機構と、掌部4に配設されて複数本の指部5、6、7に把持されたワーク8を撮像するカメラ15とを備えており、カメラ15は、複数本の指部5、6、7の指先が接触する把持中心17が、カメラ15の光軸10a上に位置するように、配設されている。
As described above, the robot hand 1 according to this embodiment is a robot hand attached to the distal end portion of the
このようなロボット用ハンド1では、指部5、6、7の根元になる掌部4にカメラ15があり、そのカメラ15の光軸10aがワーク8の把持中心に設定されているので、一度でワーク8を高精度に把持でき、他のワーク8を動かしたり、目標のワーク8を掴み損ねたり、ワーク8を見失ったりすることがなく、ワーク8を迅速に把持できる。上記の構成において、カメラ15の合焦位置が、指部5、6、7の把持中心17に一致するものであると、ワーク8を把持する際にカメラ15で撮像すると、カメラ15とワーク8のアライメント調整が不要であり、迅速な把持が可能である。
In such a robot hand 1, the
また、このロボット用ハンド1では、カメラ15の撮影結果に基づいて、複数の指部5、6、7を個々に制御する制御手段としてハンド制御装置12を更に備え、ハンド制御装置12は、複数の指部5、6、7とワーク8とをカメラ15の視野内に捕らえる位置に移動した状態から、把持中心17とワーク8の把持中心17とを合う位置に移動させ、更に、把持中心17と複数の指部5、6、7の指先の進行方向とを結ぶ線L1、L2、L3上において、複数の指部5、6、7の指先とワーク8の輪郭(最外接触位置)とが等距離となるように、複数5、6、7の指部を構えて把持動作を行う構成とされているので、把持するワーク8の姿勢を変えることなく、ワーク8を高精度に且つ迅速に把持できる。
In addition, the robot hand 1 further includes a
また、このロボット用ハンド1の制御方法では、ロボット制御装置11は、対象物であるワーク8を把持する際に、まずワーク8と複数本の指部5、6、7とをカメラ15で撮像する。カメラ15の撮像画面に基づいてアーム制御装置3でアーム3を駆動して、ワーク8の把持中心が指部5、6、7の把持中心17と一致する理想位置になったら、ハンド制御装置12を駆動してワーク8が把持可能な途中の位置まで指部5、6、7を閉じて把持可能な待機姿勢を取る。
In the control method of the robot hand 1, the
その際に、カメラ15の撮像結果に基づいて、各指先から各指先が接触するワーク8上の最も外側の接触目標位置までの離間距離を測定する。すなわち、画像コントローラ14が、カメラ15の撮影画面18内において、ワーク8の把持中心17と指部5、6、7の離間距離を求める。この際、離間距離はワーク8の輪郭と指部5、6、7との間のドット数で求められる。ハンド制御装置12は、指部5、6、7が把持中心17から等距離、等角度となるように指部5、6、7を位置させ、複数本の指部5、6、7の指先が同時にワーク8に接触するように制御する。
At that time, based on the imaging result of the
ワーク8に掌部4を接近させる際、記憶装置13が、作業台9のワーク8の姿勢と、ワーク8を把持するための掌部4の位置および姿勢とを対応させた複数の画像情報を予め保持し、ワーク8を把持するときに、カメラ15でワーク8を撮像し、その撮像画像と記憶装置13の画像情報とを比較し、記憶した画像情報の中から最も近似した画像情報(例えば図4(3、3)参照)に基づいて、掌部4の位置および姿勢を決定して掌部4を移動させるので、姿勢の選択決定が早く、迅速なロボット制御を行うことができる。
When the
この実施形態のロボット用ハンドの制御システムは、ワーク8の把持前の姿勢の画像情報と、当該画像情報にかかる姿勢のワーク8を把持するための掌部4の位置情報および姿勢情報とを予め対応させて保持させた記憶装置13と、ワーク8を把持するときに、カメラ15でワーク8と指部5、6、7とを撮影し、撮影したカメラ15その撮影画像を記憶装置13の画像情報とを比較し、複数の画像情報の中から撮影した撮影画像に最も近似した画像情報に基づいて掌部4の位置および姿勢を決定し、決定した姿勢となるようにハンド制御装置12を駆動して掌部4を移動させ、掌部4の移動後にワーク8が複数本の指部5、6、7の把持中心17になるように掌部4を移動させ、ワーク8の把持中心と指部5、6、7の把持中心17とを一致させた後に、複数本の指部5、6、7で同時にワーク8を掴むように、指部5、6、7を駆動するロボット制御装置11とを、備えているので、把持するワーク8の姿勢を変えたり、掴み損ねたり、見失ったりすることなく、ワーク8を高精度に且つ迅速に把持できる。
The robot hand control system of this embodiment previously stores image information of the posture before gripping the
図7はロボット用ハンド1の変形例を示す。このロボット用ハンド20では、掌部21の3本の指部22、23、24のうちの2本の指部23、24が掌部21の外周に沿って移動し、ワーク8を同時に把持できるようになっている。このロボット用ハンド20の掌部21の中央部にはカメラ25が配設されており、ワーク8を掴む際のワーク8と指部22、23、24を撮像して、指部22、23、24の把持中心と掌部21の把持中心とを一致させてワーク8を掴むことができるようになっている。図7のロボット用ハンド20では、指部23、24が掌部21の周りをスライド移動する機構を備えているので、ワーク8の形状に合わせてワーク8の把持状態を選択することができる。そのほかの構成は第1の実施形態と同様であるので、その説明を用いる。
FIG. 7 shows a modification of the robot hand 1. In this
1…ロボット用ハンド 2…多関節ロボット 3…アーム 4…掌部 5、6、7…指部 8…ワーク 9…作業台 10…レンズ 10a…レンズの光軸 11…ロボット制御装置 12…ハンド制御部 13…記憶装置 14…画像処理ントローラ 15…カメラ 16…アーム制御装置 17…把持中心 L1、L2、L3…ワークと指部の離間距離
DESCRIPTION OF SYMBOLS 1 ... Robot hand 2 ... Articulated
Claims (6)
対象物を把持する複数本の指部と、
前記指部を可動可能に連結する掌部に設けられ、前記指部をそれぞれ駆動する駆動機構と、
前記掌部に配設されて前記複数本の指部に把持された前記対象物を撮像するカメラとを備え、
前記カメラは、前記複数本の指部の指先が接触する把持中心が、前記カメラの光軸上に位置するように、配設されていることを特徴とするロボット用ハンド。 A robot hand attached to a movable tip of an articulated robot,
A plurality of fingers to grip the object;
A drive mechanism that is provided on a palm part that movably connects the finger parts, and that drives the finger parts;
A camera that images the object disposed on the palm and gripped by the plurality of fingers.
The robot hand, wherein the camera is disposed such that a gripping center where the fingertips of the plurality of finger portions contact is positioned on an optical axis of the camera.
前記指部を屈曲させて前記対象物を把持する工程は、
前記対象物と前記複数本の指部とを前記カメラで撮像し、
前記カメラの撮像結果に基づいて、前記各指先から前記各指先が接触する前記対象物上の接触目標位置までの離間距離を、測定し、
前記離間距離に基づいて、前記複数本の指先が同時に前記対象物に接触するように、前記複数本の指部を制御することを特徴とするロボット用ハンドの制御方法。 A method for controlling a robot hand according to any one of claims 1 to 3,
The step of bending the finger portion and gripping the object includes
Imaging the object and the plurality of fingers with the camera,
Based on the imaging results of the camera, measure the separation distance from each fingertip to the contact target position on the object that each fingertip contacts,
A method for controlling a robot hand, wherein the plurality of finger parts are controlled based on the separation distance so that the plurality of fingertips simultaneously contact the object.
前記対象物を把持するときに、前記カメラで前記対象物を撮像し、その撮像画像と前記複数の画像情報とを比較し、前記複数の画像情報の中から最も近似した画像情報に基づいて、前記掌部の位置および姿勢を決定して前記掌部を移動させ、前記複数本の指部の把持中心と前記対象物の把持中心とを合わせて同時に把持することを特徴とする請求項4に記載のロボット用ハンドの制御方法。 A plurality of pieces of image information in which the posture before gripping the object and the position and posture of the palm for gripping the object in the posture are held in the control unit in advance,
When grasping the object, the camera captures the object, compares the captured image with the plurality of image information, and based on the closest image information among the plurality of image information, The position and posture of the palm are determined, the palm is moved, and the grip center of the plurality of fingers and the grip center of the object are combined and gripped simultaneously. A control method of the robot hand described.
前記対象物の把持前の姿勢の画像情報と、当該画像情報にかかる姿勢の対象物を把持するための前記掌部の位置および姿勢とを対応させたハンド制御情報を予め対応させて保持させた記憶装置と、
前記対象物を把持するときに、前記カメラで前記対象物と前記複数の指部とを撮影し、その撮影画像を前記記憶装置の前記複数の画像情報とを比較し、前記複数の画像情報の中から前記撮影画像に最も近似した画像情報に基づいて前記掌部の位置および姿勢を決定し、決定した姿勢となるように前記掌部を移動させ、前記掌部の移動後に前記複数本の指部の把持中心と前記対象物の把持中心とを合わせて同時に把持する制御装置と、
を備えたことを特徴とするロボット用ハンドの制御システム。 A control system for a robot hand according to any one of claims 1 to 3,
Hand control information in which the image information of the posture before gripping the object and the position and posture of the palm for gripping the object in the posture according to the image information is held in correspondence with each other. A storage device;
When grasping the object, the camera and the plurality of fingers are photographed by the camera, the photographed image is compared with the plurality of image information in the storage device, and the plurality of image information The position and posture of the palm are determined based on image information that is most similar to the captured image, and the palm is moved so that the determined posture is obtained, and the plurality of fingers are moved after the palm is moved. A control device for simultaneously gripping the gripping center of the object and the gripping center of the object;
A control system for a robot hand.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007247617A JP2009078310A (en) | 2007-09-25 | 2007-09-25 | Robot hand, its control method and control system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007247617A JP2009078310A (en) | 2007-09-25 | 2007-09-25 | Robot hand, its control method and control system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009078310A true JP2009078310A (en) | 2009-04-16 |
JP2009078310A5 JP2009078310A5 (en) | 2010-11-11 |
Family
ID=40653458
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007247617A Withdrawn JP2009078310A (en) | 2007-09-25 | 2007-09-25 | Robot hand, its control method and control system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009078310A (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102310409A (en) * | 2010-07-05 | 2012-01-11 | 株式会社安川电机 | Robot apparatus and gripping method for use in robot apparatus |
CN103732363A (en) * | 2011-08-19 | 2014-04-16 | 株式会社安川电机 | Robot system, robot control device, robot hand and method for controlling robot |
JP2016120545A (en) * | 2014-12-24 | 2016-07-07 | 株式会社ソフトサービス | Handling device |
JP6456557B1 (en) * | 2017-10-03 | 2019-01-23 | 三菱電機株式会社 | Gripping position / posture teaching apparatus, gripping position / posture teaching method, and robot system |
WO2019176809A1 (en) * | 2018-03-14 | 2019-09-19 | 日本電産株式会社 | Robot hand and robot |
CN112077842A (en) * | 2020-08-21 | 2020-12-15 | 上海明略人工智能(集团)有限公司 | Clamping method, clamping system and storage medium |
CN112297000A (en) * | 2019-07-23 | 2021-02-02 | 发那科株式会社 | Robot hand control device, robot system, and robot hand control method |
-
2007
- 2007-09-25 JP JP2007247617A patent/JP2009078310A/en not_active Withdrawn
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102310409A (en) * | 2010-07-05 | 2012-01-11 | 株式会社安川电机 | Robot apparatus and gripping method for use in robot apparatus |
JP2012011531A (en) * | 2010-07-05 | 2012-01-19 | Yaskawa Electric Corp | Robot apparatus and gripping method for use in robot apparatus |
CN103732363A (en) * | 2011-08-19 | 2014-04-16 | 株式会社安川电机 | Robot system, robot control device, robot hand and method for controlling robot |
JP2016120545A (en) * | 2014-12-24 | 2016-07-07 | 株式会社ソフトサービス | Handling device |
JP6456557B1 (en) * | 2017-10-03 | 2019-01-23 | 三菱電機株式会社 | Gripping position / posture teaching apparatus, gripping position / posture teaching method, and robot system |
CN111163907A (en) * | 2017-10-03 | 2020-05-15 | 三菱电机株式会社 | Grasping position and posture teaching device, grasping position and posture teaching method, and robot system |
WO2019176809A1 (en) * | 2018-03-14 | 2019-09-19 | 日本電産株式会社 | Robot hand and robot |
CN112297000A (en) * | 2019-07-23 | 2021-02-02 | 发那科株式会社 | Robot hand control device, robot system, and robot hand control method |
CN112077842A (en) * | 2020-08-21 | 2020-12-15 | 上海明略人工智能(集团)有限公司 | Clamping method, clamping system and storage medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2009078310A (en) | Robot hand, its control method and control system | |
JP6429473B2 (en) | Robot system, robot system calibration method, program, and computer-readable recording medium | |
CN104227722B (en) | Robot system and robot control method | |
JP4837116B2 (en) | Robot system with visual sensor | |
EP1449626B1 (en) | Workpiece conveying apparatus with visual sensor for checking the gripping state | |
JP2009148845A (en) | Small-size production equipment | |
JP6454960B2 (en) | Robot, robot system, robot controller | |
JP2009269110A (en) | Assembly equipment | |
JP5272617B2 (en) | Robot apparatus and control method of robot apparatus | |
JP2011115877A (en) | Double arm robot | |
JP6741222B2 (en) | Robot work transfer method and work transfer device | |
WO2020022302A1 (en) | Grasping device | |
JP6153316B2 (en) | Robot system and control method of robot system | |
JPH0970786A (en) | Holding hand | |
JP4390758B2 (en) | Work take-out device | |
JP2009078310A5 (en) | ||
CN111618843A (en) | Robot system and control method | |
JP2008168372A (en) | Robot device and shape recognition method | |
JP2015071207A (en) | Robot hand and control method thereof | |
CN112109069A (en) | Robot teaching device and robot system | |
JP2010131685A (en) | Robot system and imaging method | |
JP2005349490A (en) | Multi-flexible multi-finger hand | |
CN107921643B (en) | Robot system | |
JP3239277B2 (en) | Intelligent robot | |
JP2011177863A (en) | Gripping device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100924 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100924 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20120302 |