JPS58155192A - Robot hand - Google Patents

Robot hand

Info

Publication number
JPS58155192A
JPS58155192A JP3878182A JP3878182A JPS58155192A JP S58155192 A JPS58155192 A JP S58155192A JP 3878182 A JP3878182 A JP 3878182A JP 3878182 A JP3878182 A JP 3878182A JP S58155192 A JPS58155192 A JP S58155192A
Authority
JP
Japan
Prior art keywords
robot hand
mark
grasped
visual device
palm
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP3878182A
Other languages
Japanese (ja)
Inventor
長尾 正博
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP3878182A priority Critical patent/JPS58155192A/en
Publication of JPS58155192A publication Critical patent/JPS58155192A/en
Pending legal-status Critical Current

Links

Landscapes

  • Manipulator (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
(57) [Summary] This bulletin contains application data before electronic filing, so abstract data is not recorded.

Description

【発明の詳細な説明】 この発明は、視覚装置でとらえた情報をもとに、把持対
象をハンドリングするロボットハンドの改良に関する。
DETAILED DESCRIPTION OF THE INVENTION The present invention relates to an improvement in a robot hand that handles an object to be grasped based on information captured by a visual device.

従来のこの種のロボットハンドH1としては、例えば第
1図に示すものがある。図において、1はアーム、2は
リスト、3はパーム、4.4は一対のフィンガーで、そ
れぞれ人間の手に対応した部分を示す。
As a conventional robot hand H1 of this type, there is one shown in FIG. 1, for example. In the figure, 1 is an arm, 2 is a wrist, 3 is a palm, and 4.4 is a pair of fingers, each of which corresponds to a human hand.

アーム1は、その軸方向、つまり矢符a方向および上下
左右方間へ動くようになっている。リスト2は、二叉に
なった第1リス)2aと、これにはさまれて軸5を中心
に矢符す方向へ回転する筒状の第2リスト2bとより成
り、前記第1リスト2aはアーム1に、矢符C方向へ同
軸回転可能に装着しである。パーム3は、上記第2リス
ト2bの中に、これと同軸的に矢符d方向へ回転するよ
うに、装着しである。
The arm 1 is configured to move in its axial direction, that is, in the direction of arrow a, and in the vertical and horizontal directions. The wrist 2 consists of a bifurcated first wrist 2a and a cylindrical second wrist 2b which is sandwiched between the first wrist 2a and rotates in the direction of the arrow around the shaft 5. is attached to arm 1 so as to be coaxially rotatable in the direction of arrow C. The palm 3 is mounted in the second wrist 2b so as to rotate coaxially therewith in the direction of arrow d.

上記一対のフィンガー4,4は、それぞれ$1フィンガ
ー子4aと第2フインガー子4bとより成り、両者4a
 、4bは関節軸6で矢符e方向へ開閉可能にしである
The above-mentioned pair of fingers 4, 4 each consist of a $1 finger 4a and a second finger 4b, and both 4a
, 4b is a joint shaft 6 that can be opened and closed in the direction of arrow e.

そして、両フィンガー4.4の第2フインガー子4bは
、パーム3に装着し、矢符f方向へ開閉するようになっ
ている。
The second fingers 4b of both fingers 4.4 are attached to the palm 3 and are opened and closed in the direction of arrow f.

7は、図外の制御機構に把持対象物の映像情報を送って
ロボットハンドH1を制御するための視覚装置である工
業用カメラ(以下ITVカメラと称する)で、フィンガ
ー4,4方向へ向けてパーム3に袋層してめる。そして
、このロボットハンドH1の動作は、ITVカメラ7で
観測して前記制a機構へ送られた把持対象物からの情報
によって制御されるようになっている。
7 is an industrial camera (hereinafter referred to as ITV camera) which is a visual device for controlling the robot hand H1 by sending video information of the object to be grasped to a control mechanism (not shown), and is directed toward the fingers 4, 4. Layer the bag on Palm 3 and melt. The operation of the robot hand H1 is controlled by information from the grasped object observed by the ITV camera 7 and sent to the control a mechanism.

次に、上記ロボットハンドHIの動作を、第2図によっ
て説明する。この図は、ある平面上にロボットハンドH
1の把持対象物8(立方体)が置かれ、その上方に、ロ
ボットハンドH0のITVカメラ7で把持対象物8を観
測し易いように、外部から照明する照明装置i19がセ
ットされている状態を示して、Qる。
Next, the operation of the robot hand HI will be explained with reference to FIG. 2. This figure shows a robot hand H on a plane.
The object to be grasped 8 (cube) No. 1 is placed, and an illumination device i19 that illuminates from the outside is set above it so that the object to be grasped 8 can be easily observed with the ITV camera 7 of the robot hand H0. Show me, Qru.

この状態においては、ITVカメラ7でその画面10内
に観測した映像11は、$3図のようになっている。
In this state, the image 11 observed on the screen 10 by the ITV camera 7 is as shown in Figure $3.

この状態からロボットハンドH1を操作して把持対象物
8を把持するまでには1次の手順がとられる。
The following steps are taken from this state until the robot hand H1 is operated to grasp the object to be grasped 8.

まず、画面10F’:の把持対象物8の映像11の重心
位置が求められ、第4図のように、その重心位−が画面
lOの中央にくるように、ロボットハンドH,が制御さ
れて移動する。ここにいう重心は二次元的な重心を意味
しており1図中x印で示しである。
First, the position of the center of gravity of the image 11 of the grasped object 8 on the screen 10F' is determined, and the robot hand H, is controlled so that the center of gravity is located at the center of the screen 10, as shown in FIG. Moving. The center of gravity here means a two-dimensional center of gravity, and is indicated by an x in Figure 1.

次に1重心位置が画面10の中央にきても、第4図のよ
うに、フイ/ガー4,4による把持対象a8の把持面す
なわち、映像11におけるlII線りが、そのフイ/ガ
ー4.4の把持方向qに正対していないときは、ITV
カメラ1、すなわちパーム3は、さらに矢符d方向へ回
転し、画面lOにおける映像11が第5図の位置にくる
。つまり。
Next, even if the first center of gravity is at the center of the screen 10, as shown in FIG. .4, when the ITV is not directly facing the gripping direction q.
The camera 1, that is, the palm 3, further rotates in the direction of arrow d, and the image 11 on the screen 1O comes to the position shown in FIG. In other words.

映像11で示される把持対象物8を、画面10上におい
て、矢符q方向から把持し得る位置にくる。
The object to be grasped 8 shown in the image 11 comes to a position on the screen 10 where it can be grasped from the direction of the arrow q.

このようにして、画面10上の把持位置にくると、パー
ム3は、把持対象物8に向って一定距離平行移動して降
下し、これを把持し得る位置にくるように、あらかじめ
調整されているので、ロボットハンド?I、はそのまま
降下して把持対象物8を把持する。
In this way, when the palm 3 reaches the gripping position on the screen 10, the palm 3 is adjusted in advance so that it moves in parallel a certain distance toward the gripping object 8, descends, and comes to a position where it can grip the object. Is it a robot hand? I descends as it is and grips the object 8 to be gripped.

このようにして、ロボットハンドH,は、パーム3の中
に視覚装置7を備えているので、第1に。
In this way, the robot hand H, is equipped with the visual device 7 in the palm 3, so firstly.

そのハンドH8が移動して観測した把持対象物8の映像
11を情報処理して、自からを制御することができ、第
2に、ロボットのコントローラで行なう会費のあった複
雑な塵標変換を、ロボットハンドH1の機械的動きで代
用できるという利点をもっている。
The hand H8 can move and process information on the image 11 of the grasped object 8 observed to control itself. , has the advantage that it can be replaced by the mechanical movement of the robot hand H1.

しかしながら、上述のような従来のロボットハンドH0
にろっては、照明装[9がロボットノ・ンドH8から離
れた位置にあるため1次のような欠点がるる。。
However, the conventional robot hand H0 as described above
However, since the illumination system [9 is located far from the robot node H8, there are disadvantages such as the following. .

すなわち、第1の欠点は、ロボットハンドH8による陰
や、把持対象物8自体によって生ずる陰のために、把持
対象物8の正確な把握が田無になることがめり、ロボッ
トハンドH8の効果的な利用ができないことでるり、第
2の欠点は、例えば第6図に示す把持対象物12にめる
くほみ13等の表面形状に関する情報は、その対象物1
2が同一色で作られている場合などには、簡単に抽出し
て把握できないため、その限りで、ロボットハンド鴫の
効果的な利用ができないことでおる。
That is, the first drawback is that the accurate grasping of the grasped object 8 is often difficult due to the shadow caused by the robot hand H8 or the shadow caused by the grasped object 8 itself, which makes it difficult for the robot hand H8 to effectively grasp the grasped object 8. The second drawback is that information regarding the surface shape, such as the markings 13 on the object 12 shown in FIG.
If two parts are made of the same color, it cannot be easily extracted and understood, and to that extent, the robot hand Shizuku cannot be used effectively.

この発明は、このような従来の欠点に着目してなされた
もので、上述のような従来の視覚装置を備えたロボット
ハンドのフィンガーに、把持対象物へスポット光等のマ
ークを投射する投光器等の光源を取り付けて構成し、か
つ前記光源の位置と、前記マークの投射方向と、投射し
たマークの映像位置とから、従来識別できなかった把持
対象物の六面形状、或いFi褌米陰になって識別できな
かったその歯部分の情報をもと9′入れて、把持対象物
を正確に把−できるようにしたロボットノ・/ドを提供
するにある。
The present invention has been made by focusing on such conventional drawbacks, and includes a light projector, etc. that projects marks such as spot lights onto the object to be grasped, on the fingers of a robot hand equipped with the conventional visual device as described above. A light source is installed, and from the position of the light source, the projection direction of the mark, and the image position of the projected mark, the six-sided shape of the gripped object, which could not be identified conventionally, or the Fi loincloth rice shade. To provide a robot robot which can accurately grip an object by inputting information on the tooth portion which could not be identified due to the robot's operation.

以ド、この発明を、第7図に示す実施例に基いて説明す
る。なお、第1図と同一部分には同一符号を付し、説明
は省略する。
The present invention will now be explained based on the embodiment shown in FIG. Note that the same parts as in FIG. 1 are denoted by the same reference numerals, and explanations thereof will be omitted.

まず構成を説明すると、この発明のロボットノ・ンドH
1は、第1図に示すように、パーム3に視覚装置でろる
ITvカメラ7を備えた従来のロボット・・ンド!1の
フィンガー4.4の一方に、第7図のように、光源であ
る投光器14を取り付けて構成したところに特徴がある
First, to explain the configuration, the robot node H of this invention
1 is a conventional robot equipped with an ITv camera 7 as a visual device on the palm 3, as shown in FIG. The feature is that a light projector 14, which is a light source, is attached to one of the fingers 4.4, as shown in FIG.

ここで、上記投光器14は、ロボットハンドH!で把持
する把持対象物へITVカメラ7の認識1標となるスポ
ット光等のマークを投射する光源である。
Here, the light projector 14 is a robot hand H! This is a light source that projects a mark such as a spot light that serves as a recognition target for the ITV camera 7 onto an object to be gripped.

この投光器14は、第7図のように、一方のフィンガー
4の第1フインガー子4a方向にマークを投射し得るよ
うに取り付けて°める。従って、第1フインガー子4a
を動かすことによって、マークの投射方向を可変できる
ようになっている。
As shown in FIG. 7, the projector 14 is mounted so as to project a mark in the direction of the first finger 4a of one finger 4. Therefore, the first finger child 4a
By moving the mark, the projection direction of the mark can be changed.

また、把持対象物の表向形状を仰るために算出するIT
Vカメラ7から上記マークまでの距離は、次の諸因子か
ら算出されるようになっている。すなわち、投光器14
のi’rvカメラ7に対する相対位置と、前記マークの
ITVカメラ7の光軸に対する投射方向と、ITVカメ
ラ7で観測した前記マークの映像位置とより算出できる
ようV(’、っている。
In addition, IT is calculated to determine the surface shape of the object to be grasped.
The distance from the V camera 7 to the mark is calculated from the following factors. That is, the projector 14
V(', which can be calculated from the relative position of the mark with respect to the i'rv camera 7, the projection direction of the mark with respect to the optical axis of the ITV camera 7, and the image position of the mark observed by the ITV camera 7).

そして、算出された谷マークまでの距離情報は、果めら
れて図外のロボットハンドH2の制御峨構へ入力され、
そのハンドH2の駆動情報として処理される構成になっ
ている。
Then, the calculated distance information to the valley mark is finally input to the control structure of the robot hand H2 (not shown),
The configuration is such that it is processed as drive information for the hand H2.

なお、上記距離の算出は、三角側量の原理を利用したも
のでろって、第8〜10図について説明すると、次のと
おりである。
Note that the calculation of the above-mentioned distance is based on the principle of triangular side quantity, and will be explained with reference to FIGS. 8 to 10 as follows.

第8図および第9図は、ロボットハンドH2のフィンガ
ー4の投光器14からのスポット光を■Tvカメラ1で
観測している状態を示したものでるる。図中、YoはI
 ’r Vカメラ7の先端から投光器14までの距離、
Xoは・■Tvカメラ7の光軸から投光器14までの距
離である。このXo 。
FIGS. 8 and 9 show a state in which spot light from the light projector 14 of the finger 4 of the robot hand H2 is observed by the Tv camera 1. In the figure, Yo is I
'r Distance from the tip of the V camera 7 to the floodlight 14,
Xo is the distance from the optical axis of the Tv camera 7 to the projector 14. This Xo.

Yoで投光器14のITVカメラ7に対する相対位置が
定まる。
The relative position of the projector 14 with respect to the ITV camera 7 is determined by Yo.

π/4−αは、ITvカメラ7の光軸とスポット光の光
軸とのなす角度、つまシマークの投射方向を示す。
π/4−α indicates the angle between the optical axis of the ITv camera 7 and the optical axis of the spot light, and the projection direction of the thumbnail mark.

第10図は、第8図および第9図における把持対象物1
5上に投射されたマークをITVカメラ7で観測したと
きの画面16を示してお9、そのψのマーク17は第8
図の場合の見え方、マーク18は第9図の場合の見え方
を示している。Xは画面16の中心に位置するマーク1
1からマーク18までの距離、つまりマークの映像位置
を示している。
FIG. 10 shows the grasped object 1 in FIGS. 8 and 9.
9 shows the screen 16 when the mark projected on the screen 5 is observed by the ITV camera 7, and the ψ mark 17 is the 8th
The mark 18 indicates the appearance in the case of FIG. 9. X is mark 1 located at the center of screen 16
1 to the mark 18, that is, the image position of the mark.

以上の条件の下で、ITVカメラ7からマーク17.1
8までの距離を求めると、第8図の場合は、 Y、=Yo+X。tan(g/j−a’)第9図の場合
は、ITVカメラ7の倍率をKとすると、 Y鱒=Y6 + (X6  Kit ) tai (K
 / 4  (! )で、それぞれ算出されることにな
る。
Under the above conditions, mark 17.1 from ITV camera 7
Find the distance to 8. In the case of Figure 8, Y, = Yo + X. tan (g/j-a') In the case of Figure 9, if the magnification of the ITV camera 7 is K, then Y trout = Y6 + (X6 Kit) tai (K
/ 4 (!), respectively.

次に、上記構成に基く動作を説明する。Next, the operation based on the above configuration will be explained.

説明の便宜のために1.第2図の把持対象物8の位置に
、第6図に示す表面にくぼみ13のある把持対象物12
がある場合を考える。
For convenience of explanation, 1. A gripping object 12 having a depression 13 on the surface shown in FIG. 6 at the position of the gripping object 8 shown in FIG.
Consider the case where there is.

この場合は、従来のように、ロボットハンドH2のIT
Vカメラ7による輪郭情報だけから把持対象物12の把
持位置を決めることができない。なぜなら、上記把持対
象物12の向き、つまりくぼみ13が映像画面のどちら
側にあるかを識別して把持位置と同時に把持方向を決め
る必要があるからである。
In this case, as in the past, the IT of the robot hand H2
The gripping position of the gripping object 12 cannot be determined only from the contour information obtained by the V-camera 7. This is because it is necessary to determine the gripping direction and the gripping position by identifying the orientation of the gripping object 12, that is, which side of the video screen the recess 13 is on.

そこで、この発明のロボットハンドH!においては、ま
ず従来と同様、第3〜5図に示すように、輪郭だけで決
まる把持対象物12の位置を求める。
Therefore, this invention's robot hand H! As in the conventional case, first, as shown in FIGS. 3 to 5, the position of the grasped object 12 determined only by the outline is determined.

しかし、第5図の映像状態では、把持対象物12の輪郭
と位置は求まっても、照明装置8による外部からの照明
だけでは、第11図の映像20に破線で示すように、く
ほみ1・3が画面10のどちら側、つまりA位置、B位
置のいずれにあるか識別できない。
However, in the image state shown in FIG. 5, although the outline and position of the grasped object 12 can be determined, only the external illumination provided by the illumination device 8 will cause the image 20 in FIG. It is not possible to identify which side of the screen 10 1 and 3 are located, that is, the A position or the B position.

従って、次の段階では、上記くぼみ13がA。Therefore, in the next step, the recess 13 is A.

Bのいずれの位置にあるかを1点的に調べることになる
。すなわち、パーム3の回転を含めたフィンガー4,4
の動きにより、投光器14によるマークの投射方向を制
御しつつ、その投光器14の位置とITVカメラ7で観
測したマークの映像位置とから、ITVカメラ7の先端
からマークまでの距離を算出する。
This means checking at one point at which position B is located. In other words, the fingers 4, 4 including the rotation of the palm 3
The distance from the tip of the ITV camera 7 to the mark is calculated from the position of the light projector 14 and the image position of the mark observed by the ITV camera 7 while controlling the direction in which the mark is projected by the light projector 14 by the movement of .

そして、投射された各マークまでの距離情報を果めで得
られたところの把持対象物12の表面形状に関する情報
を制御機構に人力し、これをロボットハンドH2の駆動
情報とする。
Information regarding the surface shape of the object to be grasped 12 obtained at the end of the distance information to each of the projected marks is then manually inputted to the control mechanism, and is used as drive information for the robot hand H2.

上述のように、この発明は、パームに視覚装置を備えた
ロボットハンドのフィンガーに、スポット光等のマーク
を投射する投光器等の光源を取り付けて構成し、従来の
外部層重のみでは識別困難であった把持対象物の凹凸、
くぼみ等の表面形状に関する情報、或いは従来の照明だ
けでは観測できなかった把持対象物の陰の部分に関する
情報をも把握できるようにしたので、従来のロボットハ
ンドではハンドリングできなかった表向に凹凸、くぼみ
等のある把持対象物であっても、正確かつ容易にハンド
リングできるという効果を有する。
As described above, the present invention is constructed by attaching a light source such as a projector that projects a mark such as a spot light to the finger of a robot hand equipped with a visual device in the palm, which is difficult to identify using only conventional external layers. The unevenness of the object to be grasped,
It is now possible to grasp information about the surface shape such as depressions, or the shadow parts of the object to be grasped, which could not be observed with conventional lighting alone. Even if the object to be gripped has a depression or the like, it can be handled accurately and easily.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は従来のロボットハンドの斜視図、第2図は第1
図のロボットハンドの使用状態を示1イ視図、第3図、
5@4図および第5図は従来のロボットハンドの視覚装
置で観測した把持対象物の映像を示す図、第6図はくほ
みを有する把持対象物の斜視図、第7図はこの発明によ
るロボットハンドの斜視図、第8図乃至第10図はこの
発明のロボットハンドにおける距離測定の原理を説明す
るだめの図、第11図はこの発明のロボットハンドの視
覚装置で観測した把持対象物の映像を示す図でるる。 HI・・・・・・・・・従来のロボットハンドH2・・
・・・・・・・この発明によるロボットハンド3・・・
・・・・・・−・−パーム 4・・・・・・・・・・・・フィンガー7・・・・・・
・・・・・・視覚装置であるITVカメラ12・・・・
・・・・・把持対象物 14・・・・・・・・・光源である投光器代理人 葛野
悟−(ほか1名) 第1図 540 第5図      第9図 第10図        第71図
Figure 1 is a perspective view of a conventional robot hand, and Figure 2 is a perspective view of a conventional robot hand.
Fig. 1 is a perspective view, Fig. 3 shows how the robot hand is used.
5 @ Figures 4 and 5 are views showing images of the object to be grasped observed with the visual device of the conventional robot hand, Figure 6 is a perspective view of the object to be grasped with a ridge, and Figure 7 is the image of the object to be grasped according to the present invention. FIGS. 8 to 10 are diagrams for explaining the principle of distance measurement in the robot hand of this invention, and FIG. 11 is a perspective view of a grasped object observed by the visual device of the robot hand of this invention. A diagram showing the video of Ruru. HI... Conventional robot hand H2...
......Robot hand according to this invention 3...
・・・・・・-・−Palm 4・・・・・・・・・Finger 7・・・・・・
...ITV camera 12, which is a visual device...
... Grasped object 14 ...... Representative of the floodlight that is the light source Satoru Kuzuno (and one other person) Fig. 1 540 Fig. 5 Fig. 9 Fig. 10 Fig. 71

Claims (1)

【特許請求の範囲】[Claims] パームに視覚装置を備えたロボットハンドのフィンガー
に、前記視覚装置の認識目標となるマークを把持対象物
へ投射する光源を設けて成り、かつその光源の前記視覚
装置に°対する相対位置と、前記マークの前記視覚装置
の光軸に対する投射方向と、前記視覚装置から観測した
前記マークの映像位置とにより、前記把持対象物の形状
を把握する構成にしたことを特徴とするロボットハンド
A finger of a robot hand equipped with a visual device in its palm is provided with a light source that projects a mark that is a recognition target of the visual device onto an object to be grasped, and a relative position of the light source with respect to the visual device; A robot hand characterized in that the shape of the object to be gripped is grasped based on the projection direction of the mark with respect to the optical axis of the visual device and the image position of the mark observed from the visual device.
JP3878182A 1982-03-11 1982-03-11 Robot hand Pending JPS58155192A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3878182A JPS58155192A (en) 1982-03-11 1982-03-11 Robot hand

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3878182A JPS58155192A (en) 1982-03-11 1982-03-11 Robot hand

Publications (1)

Publication Number Publication Date
JPS58155192A true JPS58155192A (en) 1983-09-14

Family

ID=12534830

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3878182A Pending JPS58155192A (en) 1982-03-11 1982-03-11 Robot hand

Country Status (1)

Country Link
JP (1) JPS58155192A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6095605A (en) * 1983-10-31 1985-05-29 Nissan Motor Co Ltd Teaching data correcting method of robot
JPS60116005A (en) * 1983-11-28 1985-06-22 Yamazaki Mazak Corp Operation program control method of robot
JPS60126805U (en) * 1984-02-02 1985-08-26 三菱電機株式会社 Industrial machinery control equipment
JPS61151887U (en) * 1985-03-11 1986-09-19
JP2009512275A (en) * 2005-10-06 2009-03-19 ボーズ・コーポレーション Line array electroacoustic conversion
JP2010162638A (en) * 2009-01-14 2010-07-29 Toshiba Corp Robot hand
WO2019176809A1 (en) * 2018-03-14 2019-09-19 日本電産株式会社 Robot hand and robot

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6095605A (en) * 1983-10-31 1985-05-29 Nissan Motor Co Ltd Teaching data correcting method of robot
JPS60116005A (en) * 1983-11-28 1985-06-22 Yamazaki Mazak Corp Operation program control method of robot
JPS60126805U (en) * 1984-02-02 1985-08-26 三菱電機株式会社 Industrial machinery control equipment
JPS61151887U (en) * 1985-03-11 1986-09-19
JP2009512275A (en) * 2005-10-06 2009-03-19 ボーズ・コーポレーション Line array electroacoustic conversion
JP2010162638A (en) * 2009-01-14 2010-07-29 Toshiba Corp Robot hand
WO2019176809A1 (en) * 2018-03-14 2019-09-19 日本電産株式会社 Robot hand and robot

Similar Documents

Publication Publication Date Title
JP6499273B2 (en) Teaching apparatus and control information generation method
JPS58177295A (en) Robot
WO2020024178A1 (en) Hand-eye calibration method and system, and computer storage medium
JP6322959B2 (en) Robot, robot system, and robot controller
JPS60263681A (en) Instruction method of robot
CN109945780B (en) Object inspection system and object inspection method
JPS58155192A (en) Robot hand
JP2006082171A (en) Tool location correcting method for articulated robot
JP2008168372A (en) Robot device and shape recognition method
JP6660962B2 (en) Teaching device and control information generation method
JP2006082170A (en) Calibration method
JP2006297559A (en) Calibration system and robot's calibration method
WO2016151667A1 (en) Teaching device and method for generating control information
JPS6257884A (en) Manipulator device
CN114555240A (en) End effector and control device for end effector
TW201819126A (en) Non-contact gesture teaching robot enables the driving module to perform a motion instruction corresponding to a hand movement according to the user's hand movement
JPH06218682A (en) Robot for assembly
FR2666761A1 (en) METHOD AND DEVICE FOR GUIDING MEANS FOR PREVENTING A ROBOT
JP3160443B2 (en) Non-contact point teaching device
Vollmann et al. Manipulator control by calibration-free stereo vision
JPH0790492B2 (en) Remote-controlled manipulator device
JPH0718544Y2 (en) Suction device for positioning system
JP2915979B2 (en) Position and rotation angle detecting device, pointing device thereof, and robot operation teaching device using the same
TWI776694B (en) Automatic robot arm system and method of coordinating robot arm and computer vision thereof
JP2019038059A (en) Robot system