JP4635729B2 - Robot hand - Google Patents

Robot hand Download PDF

Info

Publication number
JP4635729B2
JP4635729B2 JP2005174531A JP2005174531A JP4635729B2 JP 4635729 B2 JP4635729 B2 JP 4635729B2 JP 2005174531 A JP2005174531 A JP 2005174531A JP 2005174531 A JP2005174531 A JP 2005174531A JP 4635729 B2 JP4635729 B2 JP 4635729B2
Authority
JP
Japan
Prior art keywords
workpiece
robot hand
gripping
teaching
work
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2005174531A
Other languages
Japanese (ja)
Other versions
JP2006346791A (en
Inventor
裕一 太田
守彦 大倉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2005174531A priority Critical patent/JP4635729B2/en
Publication of JP2006346791A publication Critical patent/JP2006346791A/en
Application granted granted Critical
Publication of JP4635729B2 publication Critical patent/JP4635729B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Description

本発明は、ロボットのロボットハンドに関するものである。   The present invention relates to a robot hand of a robot.

特許文献1には、本体と、5本の把持手段を有するロボットハンドが開示されている。各把持手段は、本体に接続されて回動する第1フィンガーと、第1フィンガーに接続されて回動する第2フィンガーを持っている。このロボットハンドは、5本の把持手段を有することによって、複雑な形状のワークを把持することができると記載されている。   Patent Document 1 discloses a robot hand having a main body and five gripping means. Each gripping means has a first finger that is connected to the main body and rotates, and a second finger that is connected to the first finger and rotates. It is described that this robot hand can grip a workpiece having a complicated shape by having five gripping means.

特開昭62−28191号公報Japanese Unexamined Patent Publication No. Sho 62-28191

しかしながら、特許文献1に開示されているような、第1フィンガーと第2フィンガーを持つ把持手段を5本も有するロボットハンドは、いかにも構成が複雑である。
本発明は、その問題を解決するためになされたものであり、簡単な構成で種々の形状のワークに汎用的に対応することができるロボットハンドを実現する。
However, the robot hand having five gripping means having the first finger and the second finger as disclosed in Patent Document 1 has a complicated structure.
The present invention has been made to solve the problem, and realizes a robot hand that can be used for a wide variety of workpieces with various shapes with a simple configuration.

本発明のロボットハンドは、本体と、1対の下回動部と、1対の下回動部と対向する1対の上回動部と、コントローラを備えている。下回動部は、本体に接続されていて本体に対して回動する。上回動部は、本体に接続されていて本体に対して回動する内側部と、その内側部に接続されていて内側部に対して回動する外側部を持っている。下回動部の先端面と内側部は、回動して接近することによってワークを把持する形状とされている。外側部は、下回動部の先端面と内側部がワークを把持している状態で、回動して下回動部の外側面に接近することによって、下回動部の外側面との間で前記ワークを把持する形状である。コントローラは、下回動部と内側部を回動させて下回動部の先端面と内側部の間でワークを把持させ、その状態で外側部を回動させて下回動部の外側面と外側部の間でワークを保持させるとともに、(a)一方の下回動部の先端面と一方の内側部との間でワークを摘んで把持する場合、(b)両方の下回動部の先端面と両方の内側部との間でワークを摘んで把持する場合、(c)一方の下回動部の先端面と一方の内側部との間、及び、一方の下回動部の外側面と一方の外側部との間の計2箇所でワークを掴んで把持する場合、(d)両方の下回動部の先端面と両方の内側部との間、及び、両方の下回動部の外側面と両方の外側部との間の計4箇所でワークを掴んで把持する場合、の4つの場合に対して、各部がワークを把持する力を予め記憶している。
このロボットハンドは、下回動部と一方の内側部によって小さなワークを把持することもできるし、下回動部と両方の内側部によってさらに大きなワークを把持することもできる。さらに複雑な形状のワークに対しては、下回動部と内側部がワークを把持している状態で、一方あるいは両方の外側部でワークを把持することができる。すなわち、下回動部と一対の上回動部のみが動作するという簡単な構成で、種々の形状のワークに汎用的に対応することができる。
なお、上回動部や下回動部の「上」や「下」は、相対的位置関係を示すためのものであり、ロボットハンドの上下に必ずしも対応するものではない。
The robot hand according to the present invention includes a main body, a pair of lower rotating portions, a pair of upper rotating portions facing the pair of lower rotating portions, and a controller. The lower rotating part is connected to the main body and rotates with respect to the main body. The upper rotating portion has an inner portion that is connected to the main body and rotates with respect to the main body, and an outer portion that is connected to the inner portion and rotates with respect to the inner portion. The tip surface and the inner part of the lower rotating part are shaped to grip the workpiece by rotating and approaching. The outer portion rotates with the outer surface of the lower rotating portion by rotating and approaching the outer surface of the lower rotating portion while the tip surface and the inner portion of the lower rotating portion are gripping the workpiece. It is a shape for gripping the work in between. The controller rotates the lower rotating portion and the inner portion to grip the workpiece between the tip surface and the inner portion of the lower rotating portion, and rotates the outer portion in this state to rotate the outer surface of the lower rotating portion. The workpiece is held between the outer portion and the outer portion , and (a) when the workpiece is gripped and gripped between the tip surface of one lower turning portion and the one inner portion, (b) both lower turning portions When gripping and gripping a workpiece between the front end surface and both inner portions, (c) between the front end surface of one lower rotation portion and one inner portion, and of one lower rotation portion When gripping and gripping a workpiece at a total of two locations between the outer surface and one outer portion, (d) between the tip surface of both lower rotating portions and both inner portions, and both lower turns In the case of gripping and gripping a workpiece at a total of four locations between the outer surface of the moving portion and both outer portions, the force with which each portion grips the workpiece is stored in advance for the four cases. To have.
This robot hand can hold a small workpiece by the lower rotating portion and one inner portion, and can also hold a larger workpiece by the lower rotating portion and both inner portions. Further, for a workpiece having a complicated shape, the workpiece can be gripped by one or both outer portions while the lower rotating portion and the inner portion grip the workpiece. That is, with a simple configuration in which only the lower rotating portion and the pair of upper rotating portions operate, it is possible to generally handle various shapes of workpieces.
Note that “upper” and “lower” of the upper rotating unit and the lower rotating unit are for indicating a relative positional relationship, and do not necessarily correspond to the upper and lower sides of the robot hand.

上記のロボットハンドにおいて、下回動部は柱状部を1対持っており、柱状部の先端面と内側部が接近可能であり、柱状部の側面に外側部が接近可能であることが好ましい
このロボットハンドは、下回動部の柱状部の先端面と側面を利用して、複雑な形状(例えば、折れ曲がった形状)のワークを確実に把持することができる。
In the above robot hand, it is preferable that the lower rotating portion has a pair of columnar portions, the tip surface of the columnar portion and the inner side portion are accessible, and the outer side portion is accessible to the side surface of the columnar portion. The robot hand can reliably grip a workpiece having a complicated shape (for example, a bent shape) by using the front end surface and the side surface of the columnar portion of the lower rotating portion.

本発明のロボットハンドは、簡単な構成で種々の形状のワークに汎用的に対応することができる。   The robot hand of the present invention can be used for a wide variety of workpieces of various shapes with a simple configuration.

後述する実施例の主要な特徴を記載する。
(1)ロボットは、アームリンク、ロボットハンド、カメラ部、画像認識機、ティーチングペンダント、コントローラを備えている。アームリンクは、複数のリンク部材が関節によって接続されている。ロボットハンドは、アームリンクの先端に取り付けられている。カメラ部は、カメラと、カメラをロボットハンドに固定するアームを有している。画像認識機は、カメラが撮影した画像を認識する。ティーチングペンダントは、コントローラに接続されており、ロボットに教示するときに用いる。コントローラは、アームリンクとロボットハンドを制御する。
(2)ロボットハンドは、第1上フィンガー部、ケーシング、第2上フィンガー部、第1下フィンガー部、第2下フィンガー部、下フィンガー駆動部を備えている。各フィンガー部が動作することによって、種々の形状のワークを確実に把持することができる。各フィンガー部には、ワークを把持するときに、ワークと接触するパッドが設けられている。パッドは、ワークに倣って姿勢変化する。
(3)ロボットは、ワークにマーキングされている3本の線分と1つの特徴点を画像認識することによって、ワークの位置と姿勢を演算する。そのときに、ワークを撮影するカメラの位置は、アームリングの軸値に基づいて演算される。このため、再生時に、カメラは教示時と同じポイントでワークを撮影する必要がない。従って、ロボットハンドは、再生時に、教示ポイントよりも内回りで移動することができ、サイクルタイムが短縮化されている。
(4)ロボットハンド14がワークを把持するときには、両指でワークを摘む場合と、片指でワークを摘む場合と、両指でワークを掴む場合と、片指でワークを掴む場合しか存在しない。そのため、それら4つの場合にワークを把持する力を予め設定しておき、それらの力に対応した4つのボタンをティーチングペンダントに設ける。よって、ロボットハンドに対するワーク把持時に係る教示を容易に行うことができる。
The main features of the embodiments described later will be described.
(1) The robot includes an arm link, a robot hand, a camera unit, an image recognizer, a teaching pendant, and a controller. In the arm link, a plurality of link members are connected by joints. The robot hand is attached to the tip of the arm link. The camera unit has a camera and an arm that fixes the camera to the robot hand. The image recognizer recognizes an image captured by the camera. The teaching pendant is connected to the controller and is used when teaching the robot. The controller controls the arm link and the robot hand.
(2) The robot hand includes a first upper finger portion, a casing, a second upper finger portion, a first lower finger portion, a second lower finger portion, and a lower finger driving portion. By operating each finger part, it is possible to reliably hold workpieces of various shapes. Each finger portion is provided with a pad that comes into contact with the workpiece when the workpiece is gripped. The pad changes its posture following the work.
(3) The robot calculates the position and posture of the workpiece by recognizing the three line segments and one feature point marked on the workpiece. At that time, the position of the camera for photographing the workpiece is calculated based on the axis value of the arm ring. For this reason, at the time of reproduction, the camera does not need to shoot a workpiece at the same point as that at the time of teaching. Therefore, the robot hand can move inward from the teaching point during reproduction, and the cycle time is shortened.
(4) When the robot hand 14 grips the workpiece, there are only cases where the workpiece is picked with both fingers, the workpiece is picked with one finger, the workpiece is gripped with both fingers, and the workpiece is gripped with one finger. . For this reason, the force for gripping the workpiece in these four cases is set in advance, and four buttons corresponding to these forces are provided on the teaching pendant. Therefore, it is possible to easily perform teaching related to gripping a workpiece with respect to the robot hand.

本発明のロボットに係る実施例について、図面を参照しながら説明する。
図1に示すように、ロボット10は、アームリンク12、ロボットハンド14、カメラ部15、画像認識機(画像処理手段)17、ティーチングペンダント27、コントローラ16を備えている。
アームリンク12は、基台20、第1リンク部材21、第2リンク部材22、第3リンク部材23、第4リンク部材24、第5リンク部材25、第6リンク部材26、第1関節31、第2関節32、第3関節33、第4関節34、第5関節35、第6関節36、第7関節37を有している。基台21と第1リンク部材21は、第1関節31によって接続されている。同様に、第1リンク部材21〜第6リンク部材26も、第2関節32〜第6関節36の各々によって接続されている。第1関節31〜第7関節37は、図示しない駆動機構に駆動されて回動する。ロボットハンド14は、第7関節37によって、第6リンク部材26に接続されている。
カメラ部15は、カメラ18とアーム19を有している。カメラ18は、デジタルカメラであり、アーム19を介してロボットハンド14に固定されている。
画像認識機17は、カメラ18が撮影した画像を認識する。ティーチングペンダント27は、コントローラ16に接続されており、教示者が操作することによって、ロボット10に種々の教示を行うことができる。コントローラ16は、格納している制御プログラムと、画像認識機17が画像認識したデータと、ティーチングペンダント27から入力された教示内容に基づいて、アームリンク12とロボットハンド14を制御する。
Embodiments according to the robot of the present invention will be described with reference to the drawings.
As shown in FIG. 1, the robot 10 includes an arm link 12, a robot hand 14, a camera unit 15, an image recognizer (image processing means) 17, a teaching pendant 27, and a controller 16.
The arm link 12 includes a base 20, a first link member 21, a second link member 22, a third link member 23, a fourth link member 24, a fifth link member 25, a sixth link member 26, a first joint 31, A second joint 32, a third joint 33, a fourth joint 34, a fifth joint 35, a sixth joint 36, and a seventh joint 37 are provided. The base 21 and the first link member 21 are connected by a first joint 31. Similarly, the first link member 21 to the sixth link member 26 are also connected by the second joint 32 to the sixth joint 36, respectively. The first joint 31 to the seventh joint 37 are driven to rotate by a driving mechanism (not shown). The robot hand 14 is connected to the sixth link member 26 by a seventh joint 37.
The camera unit 15 includes a camera 18 and an arm 19. The camera 18 is a digital camera and is fixed to the robot hand 14 via an arm 19.
The image recognizer 17 recognizes an image taken by the camera 18. The teaching pendant 27 is connected to the controller 16, and various teachings can be given to the robot 10 when operated by a teacher. The controller 16 controls the arm link 12 and the robot hand 14 based on the stored control program, data recognized by the image recognizer 17, and teaching content input from the teaching pendant 27.

図2に示すように、ロボットハンド14は、第1上フィンガー部41、ケーシング40、第2上フィンガー部42、第1下フィンガー部43、第2下フィンガー部44、下フィンガー駆動部48(図2には図示せず。図3、図9に図示)を備えている。なお、ここで「上、下」とは、相対的な位置関係を示しており、ロボットハンド14の「上、下」を意味しない。
図3に示すように、第1上フィンガー部41は、ケーシング40から突き出すように配置されており、第1アクチュエータ45と、第1上指先部46と、第1中間指先部47を有している。
図4に示すように、第1アクチュエータ45は、本体50、フィンガー51、ブラケット52から構成されている。
図5に示すように、本体50は、モータ53、本体ハウジング54、第1傘歯車55、ベアリング58、60、シャフト57、第2傘歯車56を備えている。モータ53は、本体ハウジング54に取り付けられている。第1傘歯車55は、モータ53の駆動軸61に固定されている。ベアリング58、60は、本体ハウジング54に装着されており、シャフト57を回動可能に支持している。第2傘歯車56は、シャフト57に固定されているとともに、第1傘歯車55と噛み合っている。
As shown in FIG. 2, the robot hand 14 includes a first upper finger portion 41, a casing 40, a second upper finger portion 42, a first lower finger portion 43, a second lower finger portion 44, a lower finger driving portion 48 (see FIG. 2 (not shown in FIG. 2 and shown in FIGS. 3 and 9). Here, “up, down” indicates a relative positional relationship, and does not mean “up, down” of the robot hand 14.
As shown in FIG. 3, the first upper finger portion 41 is disposed so as to protrude from the casing 40, and includes a first actuator 45, a first upper fingertip portion 46, and a first intermediate fingertip portion 47. Yes.
As shown in FIG. 4, the first actuator 45 includes a main body 50, fingers 51, and a bracket 52.
As shown in FIG. 5, the main body 50 includes a motor 53, a main body housing 54, a first bevel gear 55, bearings 58 and 60, a shaft 57, and a second bevel gear 56. The motor 53 is attached to the main body housing 54. The first bevel gear 55 is fixed to the drive shaft 61 of the motor 53. The bearings 58 and 60 are mounted on the main body housing 54 and support the shaft 57 so as to be rotatable. The second bevel gear 56 is fixed to the shaft 57 and meshes with the first bevel gear 55.

フィンガー51は、モータ62、フィンガーハウジング63、第3傘歯車64、ベアリング65、66、シャフト67、第4傘歯車71を有している。フィンガーハウジング63は、その一端部59が、本体ハウジング54から突き出しているシャフト57に固定されている。モータ62は、フィンガーハウジング63に取り付けられている。第3傘歯車64は、モータ62の駆動軸70に固定されている。ベアリング65、66はフィンガーハウジング63に装着されており、シャフト67を回動可能に支持している。第4傘歯車71は、シャフト67に固定されているとともに、第3傘歯車64と噛み合っている。ブラケット52は、シャフト67の両端部に固定されている。
本体50のモータ53が駆動されると、第1傘歯車55と第2傘歯車56を介してシャフト57が回動することにより、フィンガー51がブラケット52とともに回動する。フィンガー51とブラケット52は、モータ53の駆動軸61の回転方向によって、一方向に回動したり、他方向に回動したりする。フィンガー51のモータ62が駆動されると、第3傘歯車64と第4傘歯車71を介してシャフト67が回動することにより、ブラケット52が回動する。ブラケット52は、モータ62の駆動軸70の回転方向によって、一方向に回動したり、他方向に回動したりする。モータ53とモータ62は、コントローラ16によって制御される。
The finger 51 includes a motor 62, a finger housing 63, a third bevel gear 64, bearings 65 and 66, a shaft 67, and a fourth bevel gear 71. One end portion 59 of the finger housing 63 is fixed to a shaft 57 protruding from the main body housing 54. The motor 62 is attached to the finger housing 63. The third bevel gear 64 is fixed to the drive shaft 70 of the motor 62. The bearings 65 and 66 are attached to the finger housing 63 and support the shaft 67 so as to be rotatable. The fourth bevel gear 71 is fixed to the shaft 67 and meshes with the third bevel gear 64. The bracket 52 is fixed to both ends of the shaft 67.
When the motor 53 of the main body 50 is driven, the finger 51 rotates together with the bracket 52 by rotating the shaft 57 via the first bevel gear 55 and the second bevel gear 56. The finger 51 and the bracket 52 rotate in one direction or rotate in the other direction depending on the rotation direction of the drive shaft 61 of the motor 53. When the motor 62 of the finger 51 is driven, the shaft 52 is rotated via the third bevel gear 64 and the fourth bevel gear 71, whereby the bracket 52 is rotated. The bracket 52 rotates in one direction or rotates in the other direction depending on the rotation direction of the drive shaft 70 of the motor 62. The motor 53 and the motor 62 are controlled by the controller 16.

図3に示すように、第1上指先部46は、第1アクチュエータ45のブラケット52に取り付けられている。図6に示すように、第1上指先部46は、ホルダー74、パッド受け75、パッド76、パッド押え77を備えている。ホルダー74には、凹部79が形成されている。凹部79の平面形状(深さ方向に視た形状)は円状である。パッド受け75は、凹部79内に配置されている。パッド受け75には、部分球面状に形成された凹所80が設けられている。パッド76は、内方部81と、外方部83と、内方部81と外方部83を結ぶ軸部82を持っている。パッド76の内方部81には、パッド受け75の凹所80に対応した形状(すなわち、部分球面状)を有する凸所86が設けられている。パッド押え77は、板状の部材が屈曲した形状を有しており、スクリュウ78によって、ホルダー74に取り付けられている。
図7に示すように、パッド押え77の一方側の端部85には切欠き84が設けられている。パッド76の軸部82は、切欠き84を通過している。パッド76の内方部81がパッド押え77の端部85に部分的に覆われることによって、パッド76がホルダー74の凹部79から抜け出すのが禁止されている。
パッド76は、その外方部83に外力が作用すると、図8に示すように、パッド押え77の端部85が変形するとともに、パッド受け75の凹所80とパッド76の内方部81の凸所86が摺動し、姿勢が変化する。
図3に示すように、第1中間指先部47は、ホルダー90とパッド91を有している。ホルダー90は、フィンガーハウジング63に固定されている。パッド91は、第1上指先部46と同様な構成によって、姿勢変化が可能である。
As shown in FIG. 3, the first upper fingertip portion 46 is attached to the bracket 52 of the first actuator 45. As shown in FIG. 6, the first upper fingertip portion 46 includes a holder 74, a pad receiver 75, a pad 76, and a pad presser 77. A recess 79 is formed in the holder 74. The planar shape (the shape viewed in the depth direction) of the recess 79 is circular. The pad receiver 75 is disposed in the recess 79. The pad receiver 75 is provided with a recess 80 formed in a partial spherical shape. The pad 76 has an inner part 81, an outer part 83, and a shaft part 82 that connects the inner part 81 and the outer part 83. A convex portion 86 having a shape corresponding to the concave portion 80 of the pad receiver 75 (that is, a partial spherical shape) is provided in the inner portion 81 of the pad 76. The pad presser 77 has a shape in which a plate-like member is bent, and is attached to the holder 74 by a screw 78.
As shown in FIG. 7, a notch 84 is provided at one end 85 of the pad presser 77. The shaft portion 82 of the pad 76 passes through the notch 84. Since the inner portion 81 of the pad 76 is partially covered by the end portion 85 of the pad presser 77, the pad 76 is prohibited from coming out of the concave portion 79 of the holder 74.
When an external force is applied to the outer portion 83 of the pad 76, as shown in FIG. 8, the end portion 85 of the pad presser 77 is deformed, and the recess 80 of the pad receiver 75 and the inner portion 81 of the pad 76 are deformed. The convex portion 86 slides and the posture changes.
As shown in FIG. 3, the first intermediate fingertip portion 47 has a holder 90 and a pad 91. The holder 90 is fixed to the finger housing 63. The posture of the pad 91 can be changed by the same configuration as the first upper fingertip portion 46.

図9に示すように、第2上フィンガー部42は、第2アクチュエータ88と、第2上指先部89と、第2中間指先部92を備えている。第2アクチュエータ88は、第1アクチュエータ45と同様の構成を有している。第2上指先部89は、ホルダー96とパッド95を持っている。第2中間指先部92は、ホルダー93とパッド94を持っている。パッド94、95は、第1上指先部46と同様な構成によって姿勢変化が可能である。   As shown in FIG. 9, the second upper finger portion 42 includes a second actuator 88, a second upper fingertip portion 89, and a second intermediate fingertip portion 92. The second actuator 88 has the same configuration as the first actuator 45. The second upper fingertip portion 89 has a holder 96 and a pad 95. The second intermediate fingertip portion 92 has a holder 93 and a pad 94. The postures of the pads 94 and 95 can be changed by the same configuration as that of the first upper fingertip portion 46.

図3に示すように、下フィンガー駆動部48は、モータ101、ウォームギア102、シャフト104、ウォームホイール103を備えている。モータ101は、その一部が第1アクチュエータ45と第2アクチュエータ88(図2参照)との間に配置された状態で、ケーシング40に固定されている。ウォームギア102は、モータ101の駆動軸106に固定されている。シャフト104は、ケーシング40に装着されているベアリング(図示省略)によって、回動可能に支持されている。ウォームホイール103は、シャフト104に取り付けられているとともに、ウォームギア102と噛み合っている。   As shown in FIG. 3, the lower finger driving unit 48 includes a motor 101, a worm gear 102, a shaft 104, and a worm wheel 103. The motor 101 is fixed to the casing 40 with a part thereof being disposed between the first actuator 45 and the second actuator 88 (see FIG. 2). The worm gear 102 is fixed to the drive shaft 106 of the motor 101. The shaft 104 is rotatably supported by a bearing (not shown) attached to the casing 40. The worm wheel 103 is attached to the shaft 104 and meshes with the worm gear 102.

第1下フィンガー部43は、第1下フィンガー110、第1下指先部111を有している。第1下フィンガー110は、略L字状に形成されており、一端部112が下フィンガー駆動部48のシャフト104に固定されている。第1下指先部111は、第1下フィンガー110の他端部113に取り付けられている。第1下指先部111は、ホルダー114と、ホルダー114に装着されたパッド115、116を有している。パッド115、116は、第1上指先部46と同様な構成によって、姿勢変化が可能である。
図9に示すように、第2下フィンガー部44は、第2下フィンガー121、第2下指先部122を有している。第2下フィンガー121は、その一端部123が下フィンガー駆動部48のシャフト104に固定されている。第2下指先部122は、第2下フィンガー121の他端部124に取り付けられている。第2下指先部122は、ホルダー128と、ホルダー128に装着されたパッド126、127を有している。パッド126、127は、第1上指先部46と同様の構成によって、姿勢変化が可能である。
ホルダー114、128が、請求項に記載の柱状部に相当する。
下フィンガー駆動部48のモータ101が駆動されると、ウォームギア102とウォームホイール103を介してシャフト104が回動する。シャフト104が回動すると、それに固定されている第1下フィンガー部43と第2下フィンガー部44が一体で回動する。第1下フィンガー部43と第2下フィンガー部44は、モータ101の駆動軸106の回転方向によって、一方向に回動したり、他方向に回動したりする。モータ101は、コントローラ16によって制御される。
The first lower finger part 43 has a first lower finger 110 and a first lower fingertip part 111. The first lower finger 110 is formed in an approximately L shape, and one end 112 is fixed to the shaft 104 of the lower finger driving unit 48. The first lower fingertip portion 111 is attached to the other end portion 113 of the first lower finger 110. The first lower fingertip portion 111 has a holder 114 and pads 115 and 116 attached to the holder 114. The pads 115 and 116 can be changed in posture by the same configuration as the first upper fingertip portion 46.
As shown in FIG. 9, the second lower finger portion 44 has a second lower finger 121 and a second lower fingertip portion 122. One end 123 of the second lower finger 121 is fixed to the shaft 104 of the lower finger driving unit 48. The second lower fingertip portion 122 is attached to the other end portion 124 of the second lower finger 121. The second lower fingertip portion 122 includes a holder 128 and pads 126 and 127 attached to the holder 128. The postures of the pads 126 and 127 can be changed by the same configuration as that of the first upper fingertip portion 46.
The holders 114 and 128 correspond to the columnar portions described in the claims.
When the motor 101 of the lower finger drive unit 48 is driven, the shaft 104 rotates through the worm gear 102 and the worm wheel 103. When the shaft 104 rotates, the first lower finger portion 43 and the second lower finger portion 44 fixed to the shaft 104 rotate integrally. The first lower finger portion 43 and the second lower finger portion 44 rotate in one direction or rotate in the other direction depending on the rotation direction of the drive shaft 106 of the motor 101. The motor 101 is controlled by the controller 16.

第1上フィンガー部41、第2上フィンガー部42、第1下フィンガー部43、第2下フィンガー部44の動作について説明する。
図10は、第1上フィンガー部41と第1下フィンガー部43が離反するとともに、第2上フィンガー部42と第2下フィンガー部44が離反した状態(ロボットハンド14が開いた状態)を示している(第2上フィンガー部42と第2下フィンガー部44は、それぞれ第1上フィンガー部41と第2上フィンガー部42の裏に隠れている)。
図11は、第1中間指先部47のパッド91と第1下指先部111のパッド115が対向し、第2中間指先部92のパッド94と第2下指先部122のパッド126が対向した状態で、それらが板状のワーク130を摘んでいる状態を示している(第2中間指先部92等は、第1中間指先部47等の裏に隠れている)。
図12は、第1中間指先部47のパッド91と第1下指先部111のパッド115が板状のワーク130を摘んでいる状態を示している。第2上フィンガー部42と第2下フィンガー部44は、離反している。
Operations of the first upper finger part 41, the second upper finger part 42, the first lower finger part 43, and the second lower finger part 44 will be described.
FIG. 10 shows a state in which the first upper finger portion 41 and the first lower finger portion 43 are separated from each other and the second upper finger portion 42 and the second lower finger portion 44 are separated from each other (the robot hand 14 is opened). (The second upper finger portion 42 and the second lower finger portion 44 are hidden behind the first upper finger portion 41 and the second upper finger portion 42, respectively).
11 shows a state in which the pad 91 of the first intermediate fingertip portion 47 and the pad 115 of the first lower fingertip portion 111 face each other, and the pad 94 of the second intermediate fingertip portion 92 and the pad 126 of the second lower fingertip portion 122 face each other. These show the state in which the plate-shaped workpiece 130 is picked (the second intermediate fingertip portion 92 and the like are hidden behind the first intermediate fingertip portion 47 and the like).
FIG. 12 shows a state where the pad 91 of the first intermediate fingertip portion 47 and the pad 115 of the first lower fingertip portion 111 are gripping the plate-like workpiece 130. The second upper finger portion 42 and the second lower finger portion 44 are separated from each other.

図13は、ロボットハンド14が、断面がL字状のワーク131を掴んでいる状態を示している。この状態では、第1中間指先部47のパッド91と第1下指先部111のパッド115、第1上指先部46のパッド76と第1下指先部111のパッド116、第2中間指先部92のパッド94と第2下指先部122のパッド126、第2上指先部89のパッド95と第2下指先部122のパッド127が対向している(第2中間指先部92等は、第1中間指先部47等の裏に隠れている)。
図14は、第1中間指先部47のパッド91と第1下指先部111のパッド115が対向し、第1上指先部46のパッド76と第1下指先部111のパッド116が対向した状態で、それらが断面がL字状のワーク131を掴んでいる状態を示している。第2上フィンガー部42と第2下フィンガー部44は離反している。
以下においては、特に必要がない限り、ロボットハンド14がワークを摘んでいる状態と、ワークを掴んでいる状態を、「把持」と記載する。
FIG. 13 shows a state where the robot hand 14 is holding a workpiece 131 having an L-shaped cross section. In this state, the pad 91 of the first intermediate fingertip portion 47, the pad 115 of the first lower fingertip portion 111, the pad 76 of the first upper fingertip portion 46, the pad 116 of the first lower fingertip portion 111, and the second intermediate fingertip portion 92. The pad 94 of the second lower fingertip portion 122 and the pad 95 of the second upper fingertip portion 89 and the pad 127 of the second lower fingertip portion 122 are opposed to each other (the second intermediate fingertip portion 92 and the like are It is hidden behind the middle fingertip portion 47).
FIG. 14 shows a state in which the pad 91 of the first intermediate fingertip portion 47 and the pad 115 of the first lower fingertip portion 111 face each other, and the pad 76 of the first upper fingertip portion 46 and the pad 116 of the first lower fingertip portion 111 face each other. They show a state in which the workpiece 131 having an L-shaped cross section is gripped. The second upper finger portion 42 and the second lower finger portion 44 are separated from each other.
In the following description, a state in which the robot hand 14 is gripping a workpiece and a state in which the workpiece is being gripped are described as “gripping” unless otherwise required.

ロボットハンド14は、パッド76、91、94、95、115、116、126、127が姿勢変化可能なことによって、種々の形状のワークを確実に把持することができる。それについて、ロボットハンド14が、第1中間指先部47のパッド91、第2中間指先部92のパッド94、第1下指先部111のパッド115、第2下指先部122のパッド126を用いてワークを把持する場合で代表して説明する。
図15に示すように、ロボットハンド14が平板状のワーク133を把持する場合、パッド91、94、115、126は、中立位置(図6に示す位置)で、ワーク133に当接する。
図16に示すように、ロボットハンド14が曲面状のワーク134を把持する場合、パッド91、94、115、126は、ワーク134の形状に倣うように姿勢変化(傾く)する。よって、ロボットハンド14は、ワーク134を確実に把持する。
図17に示すように、ロボットハンド14が、面同士が傾斜しているワーク135を把持する場合でも、パッド91、115が姿勢変化してワーク135の形状に倣う。従って、ワーク135はロボットハンド14によって確実に把持される。
パッド76、91、94、95、115、116、126、127を設けず、ホルダー74、90、93、96、114、128が直接ワークを把持するように構成することもできる。
以下においては、特に必要がない限り、ロボット10における、動作の制御、ワークの画像認識、動作の教示に係る説明を行うときに、それらがそれぞれコントローラ16、画像認識機17、ティーチングペンダント27によって実行されることについて、記載を省略する。
The robot hand 14 can reliably hold workpieces of various shapes because the postures of the pads 76, 91, 94, 95, 115, 116, 126, and 127 can be changed. The robot hand 14 uses the pad 91 of the first intermediate fingertip portion 47, the pad 94 of the second intermediate fingertip portion 92, the pad 115 of the first lower fingertip portion 111, and the pad 126 of the second lower fingertip portion 122. A case where a workpiece is gripped will be described as a representative.
As shown in FIG. 15, when the robot hand 14 grips the flat workpiece 133, the pads 91, 94, 115, and 126 abut on the workpiece 133 at the neutral position (position shown in FIG. 6).
As shown in FIG. 16, when the robot hand 14 grips the curved workpiece 134, the pads 91, 94, 115, and 126 change their posture (tilt) so as to follow the shape of the workpiece 134. Therefore, the robot hand 14 securely holds the workpiece 134.
As shown in FIG. 17, even when the robot hand 14 grips a workpiece 135 whose surfaces are inclined, the pads 91 and 115 change their postures to follow the shape of the workpiece 135. Accordingly, the workpiece 135 is reliably gripped by the robot hand 14.
The pads 76, 91, 94, 95, 115, 116, 126, 127 can be omitted, and the holders 74, 90, 93, 96, 114, 128 can be configured to directly grip the workpiece.
In the following description, unless otherwise required, when the robot 10 performs operations control, workpiece image recognition, and operation teaching, they are executed by the controller 16, the image recognizer 17, and the teaching pendant 27, respectively. Description of what is done is omitted.

図18は、ロボットハンド14の移動経路145と、教示ポイントTP1〜TP5を模式的に示している。移動経路145とは、ロボットハンド14の所定の基準点が移動する経路である。教示ポイントTP1〜TP5とは、ロボットハンド14に移動する経路等を教示するポイントである。ロボットハンド14は、3次元的に移動するが、図18では、2次元的に移動するものとして図示している。
ロボットハンド14は、移動経路145やワークの把持やセットに係る動作等を教示された後に、教示されたように、待機位置から移動して置き台に置かれているワークを把持し、ワークを把持した状態でセット対象(例えば、治具。以下、セット対象を「治具」と記載する)まで移動してからワークを治具にセットし、それから待機位置に戻る一連の動作を実行する。以下においては、教示されたように動作することを「再生」と言う。ロボットハンド14は、再生時に、移動経路145に沿って移動する。
図18から明らかなように、ロボットハンド14は、移動する途中で、教示ポイントTP2、TP3、TP4を通過しない。ロボットハンド14は、教示された教示ポイントTP2、TP3、TP4よりも内回りな移動経路145に沿って移動する。このため、ロボット10のサイクルタイム(移動経路145に沿って教示ポイントTP1→TP5まで移動し、さらに教示ポイントTP5→TP1まで直接戻る時間)が短縮化されている(図18では、教示ポイントTP5→TP1に直接戻る移動経路の図示を省略している)。図18では、TP1がロボットハンド14の待機位置に相当し、TP3がロボットハンド14がワークを把持する位置(把持位置)に相当し、TP5がロボットハンド14が治具にワークをセットする位置(セット位置)に相当する。
FIG. 18 schematically shows the movement path 145 of the robot hand 14 and the teaching points TP1 to TP5. The movement path 145 is a path along which a predetermined reference point of the robot hand 14 moves. The teaching points TP <b> 1 to TP <b> 5 are points that teach a route or the like that moves to the robot hand 14. Although the robot hand 14 moves three-dimensionally, FIG. 18 illustrates that the robot hand 14 moves two-dimensionally.
After being instructed about the movement path 145 and the operation related to gripping or setting the workpiece, the robot hand 14 moves from the standby position and holds the workpiece placed on the pedestal as taught. A series of operations are performed in which the workpiece is set on the jig after moving to a set target (for example, a jig, hereinafter referred to as “jig”) in the gripped state, and then returned to the standby position. In the following, the operation as taught is referred to as “reproduction”. The robot hand 14 moves along the movement path 145 during reproduction.
As is apparent from FIG. 18, the robot hand 14 does not pass the teaching points TP2, TP3, TP4 while moving. The robot hand 14 moves along a movement path 145 that is inward of the taught points TP2, TP3, and TP4. For this reason, the cycle time of the robot 10 (time for moving from the teaching point TP1 to TP5 along the movement path 145 and returning directly from the teaching point TP5 to TP1) is shortened (in FIG. 18, the teaching point TP5 → The movement route returning directly to TP1 is not shown). In FIG. 18, TP1 corresponds to the standby position of the robot hand 14, TP3 corresponds to the position where the robot hand 14 grips the workpiece (gripping position), and TP5 the position where the robot hand 14 sets the workpiece on the jig ( Corresponds to the set position).

ロボット10には、カメラ18でワークを撮影して画像認識することによって、ワークの位置と姿勢を予め教示しておく。詳しくは、ロボットハンド14を、待機位置から把持位置まで移動させる途中の位置(例えば、教示ポイントTP2)と、把持位置からセット位置まで移動させる途中の位置(例えば、TP4)で停止させ、それらの位置での画像認識結果によって、ワークの位置と姿勢を教示する。以下においては、ロボットハンド14が、待機位置から把持位置までの途中で停止し、カメラ18でワークを撮影するときの位置を「教示時撮影位置(把持前)」と記載する。また、ロボットハンド14が、把持位置から治具までの途中で停止し、カメラ18でワークを撮影するときの位置を「教示時撮影位置(把持後)」と記載する。
ロボットハンド14が教示ポイントよりも内回りの経路を移動すると、ロボットハンド14は、再生時に、教示時撮影位置(把持前)と教示時撮影位置(把持後)を通過しない。このため、教示時撮影位置(把持前)と教示時撮影位置(把持後)を中心とする所定径の球を空間上に設定しておき、その球にロボットハンド14の基準点が入り込むと、それぞれの位置でカメラ18を用いてワークを撮影する。前者の位置を再生時撮影位置(把持前)、後者の位置を再生時撮影位置(把持後)とする。つまり、教示時撮影位置(把持前)と再生時撮影位置(把持前)と、教示時撮影位置(把持後)と再生時撮影位置(把持後)は、一致しない。
The robot 10 is instructed in advance of the position and orientation of the work by photographing the work with the camera 18 and recognizing the image. Specifically, the robot hand 14 is stopped at a position where the robot hand 14 is moved from the standby position to the gripping position (for example, the teaching point TP2) and at a position where the robot hand 14 is moved from the gripping position to the set position (for example, TP4). The position and posture of the work are taught by the image recognition result at the position. In the following, the position when the robot hand 14 stops in the middle from the standby position to the gripping position and shoots the workpiece with the camera 18 is referred to as “shooting position during teaching (before gripping)”. The position at which the robot hand 14 stops in the middle from the gripping position to the jig and the workpiece is photographed by the camera 18 is referred to as a “teaching photographing position (after gripping)”.
When the robot hand 14 moves along a route inward from the teaching point, the robot hand 14 does not pass through the teaching shooting position (before gripping) and the teaching shooting position (after gripping) during reproduction. For this reason, a sphere having a predetermined diameter centered on the teaching shooting position (before gripping) and the teaching shooting position (after gripping) is set on the space, and the reference point of the robot hand 14 enters the sphere. The work is photographed using the camera 18 at each position. The former position is taken as the shooting position during reproduction (before gripping), and the latter position is taken as the shooting position during playback (after gripping). That is, the teaching shooting position (before gripping), the playback shooting position (before gripping), the teaching shooting position (after gripping), and the playback shooting position (after gripping) do not match.

ワークの位置や姿勢を把握(演算)する技術について、具体的に説明する。図19に示すように、ワーク140には、特徴点G、線分141、142、143をマーキングしておく。マーキングは、例えば、テーキン(刻印)によって行う。線分141、142、143は、端同士が交わらないようにマーキングされている。線分141、142、143のそれぞれの両端を延長すると,直角三角形が形成される。
テーキンによって線分141、142、143をマーキングする場合、それらが交わっていると、その交点を起点としてクラックが入ることがある。線分141、142、143を交わらせないことによって、ワーク140にクラックが入るのが防止されている。
図19では、特徴点Gは、図示明瞭化のため「×」を正方形が囲む形状に図示されているが、実際には「×」のみがマーキングされている。
A technique for grasping (calculating) the position and posture of the workpiece will be specifically described. As shown in FIG. 19, the workpiece 140 is marked with feature points G and line segments 141, 142, and 143. The marking is performed by, for example, taking (engraving). The line segments 141, 142, and 143 are marked so that the ends do not cross each other. When both ends of each of the line segments 141, 142, and 143 are extended, a right triangle is formed.
When marking the line segments 141, 142, and 143 with a take-in, if they intersect, a crack may occur from the intersection. By preventing the line segments 141, 142, and 143 from intersecting, the work 140 is prevented from cracking.
In FIG. 19, the feature point G is illustrated in a shape in which a square is surrounded by “x” for clarity of illustration, but only “x” is actually marked.

上述したように、教示時撮影位置(把持前)と再生時撮影位置(把持前)と、教示時撮影位置(把持後)と再生時撮影位置(把持後)は、一致しない。また、再生時に、置き台に置かれているワークの位置や姿勢が通常と異なっていることもある。ロボットハンド14が把持しているワークの姿勢は、教示時のそれと一致しているとは限らない。ロボットハンド14がワークを教示時と同じように把持したとしても、その後に、ワークが重い等の要因によって、ワークが把持されたままズレてしまうことがあるからである。さらには、アームリンク12には、機械的ガタや変形が存在する。
これらの要因から、教示時と再生時とで、画像認識によって把握されるワークの位置や姿勢が異なってくる。
As described above, the teaching shooting position (before gripping), the playback shooting position (before gripping), the teaching shooting position (after gripping), and the playback shooting position (after gripping) do not match. Also, the position and posture of the workpiece placed on the cradle may be different from normal during reproduction. The posture of the work gripped by the robot hand 14 does not always coincide with that at the time of teaching. This is because even if the robot hand 14 grips the workpiece in the same way as when teaching, the workpiece may be displaced while being gripped due to factors such as the workpiece being heavy thereafter. Further, the arm link 12 has mechanical backlash and deformation.
Due to these factors, the position and posture of the work grasped by image recognition differ between teaching and reproduction.

図20は、カメラ18を用いてワーク140を撮影する状態を模式的に示している。ワーク140の位置と姿勢を認識するに当たっては、座標原点164を持つx軸、y軸、z軸からなるカメラ座標系を設定する。座標原点164は、カメラ18の視野に対して固定されている。カメラ座標系は、基準点(例えば、基台20のベース基準点150)に対して固定されている絶対空間座標系に対して移動する。
再生時に、カメラ18が撮影したワーク140の画像を認識するときには、ワーク140の特徴点Ga(以下においては、再生時に画像認識された特徴点を「Ga」、教示時に画像認識された特徴点を「G」と記載する)を探索する。図21は、特徴点Gaが探索された状態を図示している。特徴点Gaが探索されたことによって、そのx軸座標とy軸座標(xa、ya)を求める(演算する)ことができる。
そして、画像認識結果から、ベクトルの向きが異なる線分を探索する。図22は、線分141、142、143がベクトルの向きが異なる線分として探索された状態を示している。
図23に示すように、探索された線分141、142、143を延長することによって、頂点「S、T、U」を持つ三角形(以下「三角形STU」と言う)を設定する。そして、頂点「S、T、U」の各位置座標「S(xS、yS)、T(xT、yT)、U(xU、yU)」を求める。
FIG. 20 schematically shows a state in which the workpiece 140 is photographed using the camera 18. In recognizing the position and orientation of the workpiece 140, a camera coordinate system including an x axis, a y axis, and a z axis having a coordinate origin 164 is set. The coordinate origin 164 is fixed with respect to the field of view of the camera 18. The camera coordinate system moves relative to an absolute space coordinate system that is fixed relative to a reference point (eg, base reference point 150 of base 20).
When recognizing the image of the workpiece 140 photographed by the camera 18 during reproduction, the feature point Ga of the workpiece 140 (hereinafter referred to as “Ga” is the feature point recognized during reproduction, and the feature point recognized during image teaching is used as the feature point. Search for “G”. FIG. 21 illustrates a state in which the feature point Ga has been searched. By searching for the feature point Ga, the x-axis coordinate and the y-axis coordinate (xa, ya) can be obtained (calculated).
Then, a line segment having a different vector direction is searched from the image recognition result. FIG. 22 shows a state in which the line segments 141, 142, and 143 are searched as line segments having different vector directions.
As shown in FIG. 23, by extending the searched line segments 141, 142, and 143, a triangle having vertices “S, T, and U” (hereinafter referred to as “triangle STU”) is set. Then, the position coordinates “S (xS, yS), T (xT, yT), U (xU, yU)” of the vertex “S, T, U” are obtained.

図24に示すように、再生時の特徴点Gaと教示時の特徴点Gの位置座標を比較することによって、特徴点Gaと特徴点Gのズレ△Gを求める。具体的には、教示時の特徴点Gの位置座標を(x0、y0)とすると、ズレ△Gは次のようになる。
△G=(x0−xa、y0−ya);
なお、図24に示す頂点「s、t、u」を有する三角形(以下「三角形stu」と言う)は、教示時に画像認識された線分141、142、143を延長することによって得られたものである。従って、三角形stuの頂点「s、t、u」の各位置座標「s(xs,ys),t(xt,yt),u(xu,yu)」は既知である。
図25に示すように、再生時の特徴点Gaと教示時の特徴点Gを合致させた状態で、再生時に画像認識された三角形STUと、教示時に画像認識された三角形stuがなす角度「θaz」を、下式によって求める。
θaz=arctan(F)−arctan(G);
F=(yt−ys)/(xt−xs);
G=(yT−yS)/(xT−xS);
As shown in FIG. 24, the difference ΔG between the feature point Ga and the feature point G is obtained by comparing the position coordinates of the feature point Ga at the time of reproduction and the feature point G at the time of teaching. Specifically, assuming that the position coordinates of the feature point G at the time of teaching is (x0, y0), the deviation ΔG is as follows.
ΔG = (x0−xa, y0−ya);
Note that the triangles having the vertices “s, t, u” shown in FIG. 24 (hereinafter referred to as “triangle stu”) are obtained by extending the line segments 141, 142, 143 recognized at the time of teaching. It is. Accordingly, the position coordinates “s (xs, ys), t (xt, yt), u (xu, yu)” of the vertex “s, t, u” of the triangle stu are known.
As shown in FIG. 25, the angle “θaz” formed by the triangle STU that has been image-recognized at the time of reproduction and the triangle stu that has been image-recognized at the time of teaching while the feature point Ga at the time of reproduction and the feature point G at the time of teaching are matched. Is obtained by the following equation.
θaz = arctan (F) −arctan (G);
F = (yt−ys) / (xt−xs);
G = (yT−yS) / (xT−xS);

図26は、三角形stuを角度θazだけ反時計方向に回転した状態を示している。その状態では、三角形stuと三角形STUは相似形でない。そこで、三角形STUの線分STをx軸廻りに角度θax回転することによって、三角形stuと三角形STUを相似形にする。図27は、その状態を示している。x軸、y軸、z軸は直交座標系なので、「θay」は、既に求められている「θax」と「θaz」に従属する。すなわち、θay=f(θax、θaz)である。よって、「θay」が求まる。
なお、教示時に、特徴点Gのz軸方向の位置座標「z0」は、予めインプットされている。このため、「z0」と、図27に示す状態における三角形stuと三角形STUの大きさの比から、再生時の特徴点Gaのz軸方向の位置座標「za」が求まる。
以上から、ワーク140の位置と姿勢が(xa、ya、za、θax、θay、θaz)として求まる。(xa、ya、za、θax、θay、θaz)は、6次元のベクトルとして表すことができ、後述する「ベクトルF1」に相当する。
2台のカメラ(ステレオカメラ)でワークを撮影することにより、再生時の特徴点Gaの位置座標「za」を求めることもできる。このようにすると、教示時に特徴点Gの位置座標「z0」をインプットする必要がなくなる。
特徴点G、Gaをマーキングしなくてもよい。特徴点G、Gaをマーキングしなくても、線分の交点(例えば、頂点Sや頂点s)を特徴点として利用することができる。
マーキングする線分は、2本のみであってもよい。例えば、線分141と線分143から略V字状の図形を形成し、その図形からワーク140の姿勢を求めてもよい。
ワークが曲面状であっても、マーキングする線分を短くすることによって、ワークが姿勢変化しても、その線分を実質的に直線として画像認識することができる。
FIG. 26 shows a state in which the triangle stu is rotated counterclockwise by the angle θaz. In that state, the triangle stu and the triangle STU are not similar. Therefore, the triangle STU and the triangle STU are made similar by rotating the line segment ST of the triangle STU by an angle θax around the x axis. FIG. 27 shows this state. Since the x-axis, y-axis, and z-axis are orthogonal coordinate systems, “θay” depends on “θax” and “θaz” that have already been obtained. That is, θay = f (θax, θaz). Therefore, “θay” is obtained.
At the time of teaching, the position coordinate “z0” of the feature point G in the z-axis direction is input in advance. Therefore, the position coordinate “za” in the z-axis direction of the feature point Ga at the time of reproduction is obtained from “z0” and the ratio of the size of the triangle stu and the triangle STU in the state shown in FIG.
From the above, the position and orientation of the workpiece 140 are obtained as (xa, ya, za, θax, θay, θaz). (Xa, ya, za, θax, θay, θaz) can be expressed as a six-dimensional vector and corresponds to “vector F1” to be described later.
By photographing the workpiece with two cameras (stereo cameras), the position coordinate “za” of the feature point Ga at the time of reproduction can be obtained. This eliminates the need to input the position coordinate “z0” of the feature point G during teaching.
It is not necessary to mark the feature points G and Ga. Even if the feature points G and Ga are not marked, the intersection (for example, the vertex S or the vertex s) of the line segment can be used as the feature point.
Only two lines may be marked. For example, a substantially V-shaped figure may be formed from the line segment 141 and the line segment 143, and the posture of the workpiece 140 may be obtained from the figure.
Even if the workpiece has a curved surface, by shortening the line segment to be marked, even if the posture of the workpiece is changed, the line segment can be recognized as a substantially straight line.

教示時撮影位置(把握前)と再生時撮影位置(把握前)が一致せず、置き台に置かれているワークの位置や姿勢が教示時と同じとは限らない等の要因によって、ロボット10は、再生時に教示時と異なる経路でワークに向かって移動し、ワークを把持しなければならない。以下、再生時に、ロボットハンド14がワークに向かって移動するにあたって、その移動するべき位置を求める技術について説明する。
図28に示すように、ロボットハンド14がワーク155に向かって移動するべき位置を求めるときには、ベクトルR0、R1、F0、F1、A、T1を用いる。ベクトルR0、R1、F0、F1、A、T1は、絶対空間座標系に対して設定されている。ベクトルR0は、基台20内に設定されているベース基準点150から教示時撮影位置(把持前)でのカメラ18のカメラ基準点位置152に延びている。ベクトルR1は、ベース基準点150から再生時撮影位置(把持前)でのカメラ18のカメラ基準点位置156に延びている。ベクトルR0とベクトルR1は、関節31〜37の軸値(回動角度)に基づいてカメラ基準点位置152、156を演算することによって求められる。
ベクトルF0は、教示時に、教示時撮影位置(把持前)でワーク155を画像認識した結果から教示されたものであり、カメラ基準点位置152から教示時のワーク155に向かって延びている。ベクトルF0は、ワークの位置と姿勢(x0、y0、z0、θ0x、θ0y、θ0z)に係る情報を持つ6次元のベクトルである。
ベクトルF1は、再生時に、再生時撮影位置(把持前)でワーク155を画像認識することによって演算されたものであり、カメラ基準点位置156から再生時のワーク155に向かって延びている。ベクトルF1は、ワークの位置と姿勢(xa、ya、za、θax、θay、θaz)に係る情報を持つ6次元のベクトルである。
Due to factors such as the shooting position during teaching (before grasping) and the shooting position during reproduction (before grasping) being inconsistent, the position and posture of the workpiece placed on the pedestal are not necessarily the same as during teaching. Must move toward the workpiece along the path different from that during teaching during reproduction, and grip the workpiece. Hereinafter, a technique for obtaining a position where the robot hand 14 should move when the robot hand 14 moves toward the workpiece during reproduction will be described.
As shown in FIG. 28, vectors R0, R1, F0, F1, A, and T1 are used when the position where the robot hand 14 should move toward the workpiece 155 is obtained. The vectors R0, R1, F0, F1, A, T1 are set with respect to the absolute space coordinate system. The vector R0 extends from the base reference point 150 set in the base 20 to the camera reference point position 152 of the camera 18 at the shooting position during teaching (before gripping). The vector R1 extends from the base reference point 150 to the camera reference point position 156 of the camera 18 at the reproduction shooting position (before gripping). The vectors R0 and R1 are obtained by calculating the camera reference point positions 152 and 156 based on the axis values (rotation angles) of the joints 31 to 37.
The vector F0 is taught from the result of image recognition of the work 155 at the teaching shooting position (before gripping) during teaching, and extends from the camera reference point position 152 toward the teaching 155 during teaching. The vector F0 is a six-dimensional vector having information related to the position and orientation of the workpiece (x0, y0, z0, θ0x, θ0y, θ0z).
The vector F1 is calculated by recognizing an image of the workpiece 155 at the reproduction shooting position (before gripping) during reproduction, and extends from the camera reference point position 156 toward the reproduction workpiece 155. The vector F1 is a six-dimensional vector having information related to the position and posture of the workpiece (xa, ya, za, θax, θay, θaz).

ベクトルAは、教示時のワークから再生時のワーク155に向かって延びる6次元のベクトルである。ベクトルR0、R1、F0、F1が既知であるので、ベクトルAは、次式から求まる。ただし、このベクトルF1は、上述した画像認識によって求められたカメラ座標系のものを、絶対空間座標系に座標変換している。
A=(R1−R0)+(F1−F0);
従って、ベース基準点150から再生時のワーク155に延びるベクトルT1は次式から求まる。
T1=R0+F0+A;
ロボットハンド14は、ベクトルT1に基づいて移動し、ワーク155を把持する。ロボットハンド14は、ワーク155を把持するときに、認識しているワーク155の姿勢を用いて、教示されたときと同じようにワーク155把持する。従って、ワーク155は、通常と異なる位置や姿勢で置き台に置かれていても、常に同じ部分が、ロボットハンド14によって把持される。
The vector A is a 6-dimensional vector extending from the work at the time of teaching toward the work 155 at the time of reproduction. Since the vectors R0, R1, F0, and F1 are known, the vector A is obtained from the following equation. However, this vector F1 is coordinate-converted from the camera coordinate system obtained by the above-described image recognition into an absolute space coordinate system.
A = (R1-R0) + (F1-F0);
Accordingly, a vector T1 extending from the base reference point 150 to the workpiece 155 at the time of reproduction is obtained from the following equation.
T1 = R0 + F0 + A;
The robot hand 14 moves based on the vector T1 and grips the work 155. When the robot hand 14 grips the workpiece 155, it uses the recognized posture of the workpiece 155 to grip the workpiece 155 in the same manner as when it is taught. Therefore, even if the work 155 is placed on the cradle at a position or posture different from normal, the same part is always gripped by the robot hand 14.

以上説明したように、本ロボット10は、教示時撮影位置(把握前)と再生時撮影位置(把握前)が一致する必要がない。このため、ロボットハンド14が教示ポイントに対して内回りで移動でき、サイクルタイムの短縮化が可能になる。
それに対して、従来の技術では、ロボットハンド14が、再生時に教示時撮影位置(把持前)152で停止するか、その位置を通過する必要がある。以下、その従来技術について説明する。
図29に示すように、従来技術においては、ロボットハンド14がワーク155に向かって移動するべき位置を求めるときに、ベクトルR、F、A、Tを用いる。ベクトルRは、ベース基準点150から教示時撮影位置(把持前)でのカメラ基準点位置152に延びている。ベクトルFは、教示時に、カメラ基準点位置152でワークを画像認識することによって教示されたものであり、カメラ基準点位置152から教示時のワークに向かって延びている。ベクトルFは、6次元のベクトルであり、ワークの位置と姿勢に係る情報を持っている。
As described above, the robot 10 does not have to match the teaching shooting position (before grasping) and the reproduction photographing position (before grasping). For this reason, the robot hand 14 can move inward with respect to the teaching point, and the cycle time can be shortened.
On the other hand, in the conventional technique, the robot hand 14 needs to stop at or pass through the shooting position (before gripping) 152 during teaching during reproduction. The prior art will be described below.
As shown in FIG. 29, in the conventional technique, vectors R, F, A, and T are used when the position where the robot hand 14 should move toward the workpiece 155 is obtained. The vector R extends from the base reference point 150 to the camera reference point position 152 at the shooting position during teaching (before gripping). The vector F is taught by recognizing a work image at the camera reference point position 152 at the time of teaching, and extends from the camera reference point position 152 toward the work at the time of teaching. The vector F is a six-dimensional vector and has information related to the position and posture of the workpiece.

ベクトルAは、教示時のワークから再生時のワーク155に向かって延びるベクトルである。ベクトルAは、再生時に、ロボットハンド14が教示時撮影位置(把持前)152で停止するか、あるいはその位置を通過するときに、カメラ18で撮影することによってワーク155を画像認識し、その再生時の画像認識結果と、教示時の画像認識結果の差から求める。従って、ベース基準点150から再生時のワーク155に向かって延びるベクトルTは、次式から求まる。
T=R+F+A;
ロボットハンド14は、ベクトルTに従って移動し、ワーク155を把持する。
この従来技術は、再生時に、ロボットハンド14が教示時撮影位置(把持前)に位置しているときに、カメラ18で撮影することによってワーク155を画像認識し、ワーク155の位置と姿勢を把握しなければならない。ロボットハンド14が、再生時に教示時撮影位置(把持前)に位置していないと、教示時と再生時におけるワークの位置と姿勢の差であるベクトルAを求めることができないからである。
よって、従来技術では、ロボットハンド14が、再生時に教示時撮影位置(把持前)152で停止するか、その位置を通過する必要がある。このため、ロボットハンド14が内回りの経路を移動することができず、サイクルタイムが長くなってしまう。
The vector A is a vector extending from the work at the time of teaching toward the work 155 at the time of reproduction. When the vector A is played back, the robot hand 14 stops at the shooting position (before gripping) 152 during teaching, or when the robot hand 14 passes the position, the camera 155 recognizes the image of the work 155 and captures it. It is obtained from the difference between the image recognition result at the time and the image recognition result at the time of teaching. Accordingly, a vector T extending from the base reference point 150 toward the work 155 at the time of reproduction is obtained from the following equation.
T = R + F + A;
The robot hand 14 moves according to the vector T and grips the work 155.
In this prior art, during reproduction, when the robot hand 14 is positioned at the shooting position (before gripping) at the time of teaching, the workpiece 155 is imaged by shooting with the camera 18, and the position and posture of the workpiece 155 are grasped. Must. This is because if the robot hand 14 is not positioned at the teaching shooting position (before gripping) at the time of reproduction, the vector A that is the difference between the position and orientation of the workpiece at the time of teaching and at the time of reproduction cannot be obtained.
Therefore, in the prior art, it is necessary for the robot hand 14 to stop at or pass through the shooting position (before gripping) 152 during teaching during reproduction. For this reason, the robot hand 14 cannot move along the inner route, and the cycle time becomes long.

ロボット10は、ロボットハンド14がワークを把持した状態で再生時撮影位置(把持後)を通過したときに、カメラ18で把持されているワークを撮影することによって、ワークを画像認識する。そして、その画像認識結果から、ワークの位置と姿勢を把握する。   The robot 10 recognizes an image of the work by photographing the work gripped by the camera 18 when the robot hand 14 passes the shooting position during reproduction (after gripping) while gripping the work. Then, the position and posture of the workpiece are grasped from the image recognition result.

置き台に置かれているワークは、位置や姿勢が通常と異なっていることがある。ワークは、置き台に、毎回正確に置かれるとは限らないからである。置き台に置かれているワークの位置や姿勢が通常と異なっていると、ロボットハンド14は、通常と異なる経路を移動してワークを把持する。通常と異なる経路を移動してワークを把持したロボットハンド14は、ワークを把持した状態で、通常と異なる経路を移動して治具に向かう。ロボットハンド14に把持されたワークは、把持したときからズレてしまうことがある。従って、置き台に置かれているワークの位置や姿勢が通常と異なっていたり、ロボットハンド14に把持されたワークの位置や姿勢が把持したときからズレてしまうと、ロボットハンド14やワークがロボット10の周辺に存在する物体(例えば、治具や、安全柵)と干渉することがある。本実施例のロボット10は、そのような干渉を防止することができる。以下、その干渉防止動作を含むワークセット処理について説明する。ワークセット処理は、コントローラ16によって処理される。   The work placed on the table may be different in position and posture. This is because the work is not always accurately placed on the table. If the position and posture of the workpiece placed on the pedestal are different from normal, the robot hand 14 moves along a path different from normal and grips the workpiece. The robot hand 14 that has moved the path different from the normal and gripped the workpiece moves the path different from the normal and moves toward the jig while holding the work. The work gripped by the robot hand 14 may be displaced from the time of gripping. Therefore, if the position and posture of the work placed on the cradle are different from normal or the position and posture of the work held by the robot hand 14 are deviated from the time of holding, the robot hand 14 and the work are moved to the robot. 10 may interfere with an object (for example, a jig or a safety fence) existing around the area. The robot 10 according to the present embodiment can prevent such interference. Hereinafter, the work set process including the interference prevention operation will be described. The work set process is processed by the controller 16.

図30に示すように、ワークセット処理S10の最初の処理であるS12では、ロボットハンド14を、待機位置からワークに向かって移動させる。次のS14では、ロボットハンド14が移動して再生時撮影位置(把持前)を通過したときに、カメラ18で撮影することによって、ワークを画像認識する。そして、続くS16では、ワークの画像認識結果から、ロボットハンド14がワークに向かって移動する経路と、ワークを把持するときのロボットハンド14の位置と姿勢を求める。具体的には、ベース基準点150から再生時のワーク155に延びるベクトルT1(図28参照)を演算することによって、ロボットハンド14がワークに向かって移動する経路と、ワークを把持するときのロボットハンド14の位置と姿勢を求める。
S20では、ロボットハンド14がワークに向かって移動するときと、ロボットハンド14がワークを把持するときに、ロボットハンド14の空間領域が周辺物体と干渉するか否かを判別する。ロボットハンド14の空間領域とは、ロボットハンド14を包含する3次元的な所定の空間領域であり、予め設定されている。ロボットハンド14の空間領域は、例えば、球として設定することができる。周辺物体の位置と形状は、予め定義されている。従って、ロボットハンド14の空間領域と周辺物体との3次元空間上の位置関係を演算することによって、それらが干渉するか否かを判別することができる。
As shown in FIG. 30, in S12 which is the first process of the work setting process S10, the robot hand 14 is moved from the standby position toward the work. In the next S14, when the robot hand 14 moves and passes through the shooting position during reproduction (before gripping), the camera 18 captures an image to recognize the workpiece. In subsequent S16, a path along which the robot hand 14 moves toward the work and the position and posture of the robot hand 14 when gripping the work are obtained from the image recognition result of the work. Specifically, by calculating a vector T1 (see FIG. 28) extending from the base reference point 150 to the workpiece 155 at the time of reproduction, a path along which the robot hand 14 moves toward the workpiece, and a robot when gripping the workpiece The position and posture of the hand 14 are obtained.
In S20, it is determined whether or not the space area of the robot hand 14 interferes with surrounding objects when the robot hand 14 moves toward the workpiece and when the robot hand 14 grips the workpiece. The space area of the robot hand 14 is a predetermined three-dimensional space area that includes the robot hand 14 and is set in advance. The space area of the robot hand 14 can be set as a sphere, for example. The positions and shapes of the peripheral objects are defined in advance. Therefore, by calculating the positional relationship between the spatial region of the robot hand 14 and surrounding objects in the three-dimensional space, it can be determined whether or not they interfere with each other.

S20で、ロボットハンド14の空間領域が周辺物体と干渉すると判別した場合(YESの場合)には、ロボットハンド14の移動を停止する。よって、ロボットハンド14と周辺物体との干渉が防止される。S20を実行してから、そのままワークセット処理S10を終了する。S20で、ロボットハンド14の空間領域が周辺物体と干渉しないと判別した場合(NOの場合)には、S26に移行する。
S26では、ロボットハンド14をワークに向かって移動させ、ワークを把持する。そして、S28では、ワークを把持した状態のロボットハンド14を、治具に向かって移動させる。
S30では、再生時撮影位置(把持後)を通過したときに、カメラ18で撮影することによって、ワークを画像認識する。次のS32では、画像認識結果から把持しているワークの位置と姿勢を把握し、その位置と姿勢からロボットハンド14が治具に向かって移動する経路を求める。既に説明したように、ロボットハンド14は、ワークが通常と異なる位置や姿勢で置き台に置かれていても、常にワークの同じ部分を把持する。しかしながら、ワークは、その後に把持されたままズレてしまうことがある。ワークがズレていると、S30を実行することによってそのズレが把握される。
If it is determined in S20 that the space area of the robot hand 14 interferes with surrounding objects (in the case of YES), the movement of the robot hand 14 is stopped. Therefore, interference between the robot hand 14 and the surrounding object is prevented. After executing S20, the work set process S10 is terminated as it is. If it is determined in S20 that the space area of the robot hand 14 does not interfere with surrounding objects (NO), the process proceeds to S26.
In S26, the robot hand 14 is moved toward the workpiece and the workpiece is gripped. In S28, the robot hand 14 holding the workpiece is moved toward the jig.
In S30, the image of the workpiece is recognized by shooting with the camera 18 when passing the shooting position during reproduction (after gripping). In the next S32, the position and posture of the workpiece being grasped are grasped from the image recognition result, and a path along which the robot hand 14 moves toward the jig is obtained from the position and posture. As already described, the robot hand 14 always holds the same part of the workpiece even if the workpiece is placed on the cradle at a position or posture different from normal. However, the workpiece may be displaced while being gripped thereafter. If the work is misaligned, the misalignment is grasped by executing S30.

S34では、ロボットハンド14が治具に向かって移動するときと、ロボットハンド14がワークを治具にセットするときに、ロボットハンド14とワークの空間領域が、周辺物体と干渉するか否かを判別する。ワークの空間領域とは、ワークを包含する3次元的な所定の空間領域であり、予め設定されている。ワークの空間領域は、例えば、球として設定することができる。S34で、ロボットハンド14とワークの空間領域が、周辺物体と干渉すると判別した場合(YESの場合)には、S22を実行することにより、ロボットハンド14の移動を停止する。よって、ロボットハンド14とワークが、周辺物体と干渉するのが防止される。S22を実行してから、ワークセット処理S10を終了する。
一方、S34で、ロボットハンド14とワークの空間領域が、周辺物体と干渉しないと判別した場合(NOの場合)には、S36に移行する。S36では、ロボットハンド14を治具に向かって移動させ、ワークを治具にセットする。そして、ワークセット処理S10を終了する。
In S34, when the robot hand 14 moves toward the jig and when the robot hand 14 sets the work on the jig, it is determined whether the robot hand 14 and the space area of the work interfere with surrounding objects. Determine. The work space area is a predetermined three-dimensional space area including the work, and is set in advance. The space area of the workpiece can be set as a sphere, for example. If it is determined in S34 that the space area of the robot hand 14 and the workpiece interferes with surrounding objects (in the case of YES), the movement of the robot hand 14 is stopped by executing S22. Therefore, the robot hand 14 and the workpiece are prevented from interfering with surrounding objects. After executing S22, the work set process S10 is terminated.
On the other hand, when it is determined in S34 that the space area of the robot hand 14 and the workpiece does not interfere with surrounding objects (NO), the process proceeds to S36. In S36, the robot hand 14 is moved toward the jig, and the work is set on the jig. Then, the work set process S10 is terminated.

ロボットハンド14がワークを把持するときには、両指でワークを摘む場合(図11)と、片指でワークを摘む場合(図12)と、両指でワークを掴む場合(図13)と、片指でワークを掴む場合(図14)しか存在しない。ここで、「両指で摘む/掴む」とは、第1上フィンガー部41と、第2上フィンガー部42と、第1下フィンガー部43と、第2下フィンガー部44を用いてワークを把持することを意味する。「片指で摘む/掴む」とは、第1上フィンガー部41と第1下フィンガー部43を用いて、あるいは第2上フィンガー部42と第2下フィンガー部44を用いてワークを把持することを意味する。また、以下においては、第1上フィンガー部41のフィンガーハウジング63、第2上フィンガー部42のフィンガーハウジング63、第1フィンガー部41の第1上指先部46、第2フィンガー部42の第2上指先部89、第1下フィンガー部43、第2下フィンガー部を、「指」と記載することもある。   When the robot hand 14 grips the workpiece, it grips the workpiece with both fingers (FIG. 11), grips the workpiece with one finger (FIG. 12), grips the workpiece with both fingers (FIG. 13), There is only a case of gripping a workpiece with a finger (FIG. 14). Here, “pinch / hold with both fingers” means to grip the workpiece using the first upper finger portion 41, the second upper finger portion 42, the first lower finger portion 43, and the second lower finger portion 44. It means to do. “Pinch / grasp with one finger” means gripping a workpiece using the first upper finger portion 41 and the first lower finger portion 43 or using the second upper finger portion 42 and the second lower finger portion 44. Means. In the following, the finger housing 63 of the first upper finger portion 41, the finger housing 63 of the second upper finger portion 42, the first upper fingertip portion 46 of the first finger portion 41, and the second upper portion of the second finger portion 42. The fingertip portion 89, the first lower finger portion 43, and the second lower finger portion may be referred to as “finger”.

ロボットハンド14には、ワークを把持するため、あるいは把持しているワークを放すために、各指の回動角度と回動速度に係る軸値を教示しなければならない。その教示をロボット10にインプットするときには、ティーチングペンダント27を用いる。軸値の教示は、回動角度や回動速度を指定しなければならないので、煩雑な作業を必要とする。
既に説明したように、ロボットハンド14がワークを把持するときには、両指でワークを摘む場合と、片指でワークを摘む場合と、両指でワークを掴む場合と、片指でワークを掴む場合の4つの場合しか存在しない。従って、その各場合におけるワークを把持する(摘んだり、掴んだりする)力を予め設定しておけば、4つの力を教示するのみでワークを把持することができる。具体的には、ティーチングペンダント27に、上述した4つの場合のそれぞれに対応したボタンを設けておき、そのボタンを操作することによって、各場合の把持する力を教示する。従って、ロボットハンド14がワークを把持しているときの教示を容易に行うことができる。
例えば、片指でワークを摘む場合には、その場合に対応したボタンを操作する。すると、例えば、第1中間指先部47のパッド91と第1下指先部111のパッド115がワークを把持する力と、第2中間指先部92のパッド94と第2下指先部122のパッド126がワークを把持する力を教示することができる。ワークを把持するときには、各指を駆動するモータ53、62、101は、所定の電流が入力されることによって、所定のトルクを発生する。
In order to grasp the workpiece or release the grasped workpiece, the robot hand 14 must be taught the axis values related to the rotation angle and rotation speed of each finger. When inputting the teaching to the robot 10, the teaching pendant 27 is used. The teaching of the axis value requires a complicated operation because the rotation angle and the rotation speed must be designated.
As already described, when the robot hand 14 grips a workpiece, it grips the workpiece with both fingers, grips the workpiece with one finger, grips the workpiece with both fingers, and grips the workpiece with one finger. There are only four cases. Therefore, if the force for gripping (picking or gripping) the workpiece in each case is set in advance, the workpiece can be gripped only by teaching the four forces. Specifically, the teaching pendant 27 is provided with a button corresponding to each of the four cases described above, and the gripping force in each case is taught by operating the button. Therefore, teaching when the robot hand 14 is holding a workpiece can be easily performed.
For example, when a workpiece is picked with one finger, a button corresponding to that case is operated. Then, for example, the force by which the pad 91 of the first intermediate fingertip portion 47 and the pad 115 of the first lower fingertip portion 111 grip the workpiece, the pad 94 of the second intermediate fingertip portion 92, and the pad 126 of the second lower fingertip portion 122. Can teach the force to grip the workpiece. When gripping a workpiece, the motors 53, 62, and 101 that drive the fingers generate a predetermined torque by inputting a predetermined current.

ロボット10は、種々のワークに対して汎用的に用いられる。このため、教示時撮影位置(把持前)や再生時撮影位置(把持前)でカメラ18がワークを撮影するとき、カメラ18とワークの距離が、遠いこともあるし近いこともある。以下においては、カメラ18とワーク160との距離が遠い場合(図31参照)を「遠視時」、カメラ18とワーク160との距離が近い場合(図32参照)を「近視時」と言う。
図33に示すように、遠視時には、カメラ18の視野162にワーク160が小さく撮影される。既に説明したように、カメラ18の視野162には、それに対して固定された座標原点164が設定されている。撮影されたワーク160を画像認識する場合、ワーク160の周囲領域の画像は不要である。そこで、ワーク160よりも僅かに大きい領域163についてのみ画像認識を行う(領域163を切り出す)。領域163を切り出すことにより、画像認識機17が処理する画素数を低減することができる。従って、画像認識機17が画像認識する処理時間が短縮化される。
図34に示すように、近視時には、カメラ18の視野162にワーク160が大きく撮影される。この場合には、視野162の全体の画素数を低減した状態で、ワーク160を画像認識する。ワーク160が大きく撮影されているので、画素数を低減しても、ワーク160の特徴点Gや線分141、142、143等の画像認識に問題は生じない。画素数を低減すると、画像認識機17が画像認識する処理時間が短縮化される。
The robot 10 is generally used for various workpieces. For this reason, when the camera 18 captures a workpiece at the teaching shooting position (before gripping) or the playback shooting position (before gripping), the distance between the camera 18 and the workpiece may be far or close. Hereinafter, a case where the distance between the camera 18 and the workpiece 160 is long (see FIG. 31) is referred to as “farsighted”, and a case where the distance between the camera 18 and the workpiece 160 is short (see FIG. 32) is referred to as “myopia”.
As shown in FIG. 33, the workpiece 160 is photographed small in the visual field 162 of the camera 18 during far vision. As already described, the coordinate origin 164 fixed to the field of view 162 of the camera 18 is set. When recognizing the image of the photographed work 160, an image of the surrounding area of the work 160 is unnecessary. Therefore, image recognition is performed only for the region 163 that is slightly larger than the workpiece 160 (the region 163 is cut out). By cutting out the region 163, the number of pixels processed by the image recognizer 17 can be reduced. Accordingly, the processing time for the image recognizer 17 to recognize an image is shortened.
As shown in FIG. 34, the workpiece 160 is photographed large in the field of view 162 of the camera 18 during myopia. In this case, the workpiece 160 is image-recognized with the total number of pixels of the visual field 162 being reduced. Since the workpiece 160 is photographed large, even if the number of pixels is reduced, there is no problem in image recognition of the feature points G and the line segments 141, 142, 143, etc. of the workpiece 160. When the number of pixels is reduced, the processing time for the image recognizer 17 to recognize an image is shortened.

図14に示すように、ロボットハンド14がワーク131を把持しているときには、第1下フィンガー部43には、ワーク131の重量Wが下向きに作用している。ワーク131の重量Wによって、第1下フィンガー部43をシャフト104廻りに回動させようとするモーメントが発生する。第1下フィンガー部43が回動すると、ロボットハンド14が開いてしまう。第1上指先部46は、モータ62(図5参照)に駆動され、ワーク131を介して力Fを第1下フィンガー部43に加えている。重量Wによって第1下フィンガー部43が回動しようとするのを、第1上指先部46が加える力Fが阻止している。力FのモーメントアームLが短いほど、力Fは大きくなる。従って、モーメントアームLを小さくすれば、モータ62が発生するトルクが小さくても、ワーク131の重量Wによって第1下フィンガー部43が回動しようとするのを阻止できる。
第1下フィンガー部43と第2下フィンガー部44は、ウォームギア102とウォームホイール103を介して、モータ101によって駆動される(図3、図9参照)。ウォームギア102とウォームホイール103の組合せは、モータ101の出力を第1下フィンガー部43と第2下フィンガー部44に伝達するが、第1下フィンガー部43と第2下フィンガー部44に外力が作用しても、その力はモータ101には伝達されない。第1下フィンガー部43と第2下フィンガー部44に外力が作用してウォームホイール103が回転しようとしても、ウォームギア102が回転しないからである。ウォームギア102とウォームホイール103を用いることによって、第1下フィンガー部43と第2下フィンガー部44に外力が作用した場合に、第1下フィンガー部43と第2下フィンガー部44が回動してしまうのが防止されている。
As shown in FIG. 14, when the robot hand 14 is gripping the work 131, the weight W of the work 131 acts downward on the first lower finger portion 43. Due to the weight W of the workpiece 131, a moment is generated to rotate the first lower finger portion 43 around the shaft 104. When the first lower finger portion 43 is rotated, the robot hand 14 is opened. The first upper fingertip portion 46 is driven by a motor 62 (see FIG. 5) and applies a force F to the first lower finger portion 43 via the work 131. The force F applied by the first upper fingertip portion 46 prevents the first lower finger portion 43 from rotating due to the weight W. The shorter the moment arm L of the force F, the greater the force F. Therefore, if the moment arm L is made small, it is possible to prevent the first lower finger portion 43 from turning due to the weight W of the work 131 even if the torque generated by the motor 62 is small.
The first lower finger portion 43 and the second lower finger portion 44 are driven by the motor 101 via the worm gear 102 and the worm wheel 103 (see FIGS. 3 and 9). The combination of the worm gear 102 and the worm wheel 103 transmits the output of the motor 101 to the first lower finger portion 43 and the second lower finger portion 44, but an external force acts on the first lower finger portion 43 and the second lower finger portion 44. Even so, the force is not transmitted to the motor 101. This is because, even if an external force acts on the first lower finger portion 43 and the second lower finger portion 44 and the worm wheel 103 tries to rotate, the worm gear 102 does not rotate. By using the worm gear 102 and the worm wheel 103, when an external force acts on the first lower finger portion 43 and the second lower finger portion 44, the first lower finger portion 43 and the second lower finger portion 44 rotate. Is prevented.

以上、本発明の具体例を詳細に説明したが、これらは例示にすぎず、特許請求の範囲を限定するものではない。特許請求の範囲に記載の技術には、以上に例示した具体例を様々に変形、変更したものが含まれる。
また、本明細書または図面に説明した技術要素は、単独であるいは各種の組合せによって技術的有用性を発揮するものであり、出願時の請求項に記載の組合せに限定されるものではない。また、本明細書または図面に例示した技術は複数目的を同時に達成するものであり、そのうちの一つの目的を達成すること自体で技術的有用性を持つものである。
Specific examples of the present invention have been described in detail above, but these are merely examples and do not limit the scope of the claims. The technology described in the claims includes various modifications and changes of the specific examples illustrated above.
In addition, the technical elements described in the present specification or drawings exhibit technical usefulness alone or in various combinations, and are not limited to the combinations described in the claims at the time of filing. In addition, the technology illustrated in the present specification or the drawings achieves a plurality of objects at the same time, and has technical utility by achieving one of the objects.

ロボットの構成図。The block diagram of a robot. ロボットハンドの斜視図。The perspective view of a robot hand. ロボットハンドの側面図。The side view of a robot hand. アクチュエータの斜視図。The perspective view of an actuator. アクチュエータの断面図。Sectional drawing of an actuator. 第1上指先部の断面図。Sectional drawing of a 1st upper fingertip part. 図6のVII−VII線矢視図。The VII-VII line arrow directional view of FIG. 第1上指先部の断面図(パッドが姿勢変化した状態)。Sectional drawing of a 1st upper fingertip part (state which the attitude | position of the pad changed). ロボットハンドの側面図。The side view of a robot hand. ロボットハンドの側面図。The side view of a robot hand. ロボットハンドの側面図。The side view of a robot hand. ロボットハンドの側面図。The side view of a robot hand. ロボットハンドの側面図。The side view of a robot hand. ロボットハンドの側面図。The side view of a robot hand. ロボットハンドがワークを把持した状態の模式図。The schematic diagram of the state which the robot hand hold | gripped the workpiece | work. ロボットハンドがワークを把持した状態の模式図。The schematic diagram of the state which the robot hand hold | gripped the workpiece | work. ロボットハンドがワークを把持した状態の模式図。The schematic diagram of the state which the robot hand hold | gripped the workpiece | work. ロボットハンドの移動経路の説明図。Explanatory drawing of the movement path | route of a robot hand. ワークの斜視図。The perspective view of a workpiece | work. カメラがワークを撮影する状態の説明図。Explanatory drawing of the state which a camera image | photographs a workpiece | work. ワークを画像認識する過程の説明図。Explanatory drawing of the process which recognizes the image of a workpiece | work. ワークを画像認識する過程の説明図。Explanatory drawing of the process which recognizes the image of a workpiece | work. ワークを画像認識する過程の説明図。Explanatory drawing of the process which recognizes the image of a workpiece | work. ワークを画像認識する過程の説明図。Explanatory drawing of the process which recognizes the image of a workpiece | work. ワークを画像認識する過程の説明図。Explanatory drawing of the process which recognizes the image of a workpiece | work. ワークを画像認識する過程の説明図。Explanatory drawing of the process which recognizes the image of a workpiece | work. ワークを画像認識する過程の説明図。Explanatory drawing of the process which recognizes the image of a workpiece | work. ワークの位置を求める技術の説明図。Explanatory drawing of the technique which calculates | requires the position of a workpiece | work. ワークの位置を求める技術の説明図(従来技術)。Explanatory drawing of the technique which calculates | requires the position of a workpiece | work (prior art). ワークセット処理のフローチャート。The flowchart of work set processing. カメラがワークを撮影している状態の説明図(遠視時)。Explanatory drawing of a state where the camera is shooting a workpiece (during hyperopia). カメラがワークを撮影している状態の説明図(近視時)。Explanatory drawing of a state in which the camera is shooting a workpiece (when myopia). 遠視時の撮影画像。Image taken during hyperopia. 近視時の撮影画像。Image taken during myopia.

符号の説明Explanation of symbols

10:ロボット
12:アームリンク
14:ロボットハンド
15:カメラ部
16:コントローラ
17:画像認識機
18:カメラ
19:アーム
20:基台
21:第1リンク部材
22:第2リンク部材
23:第3リンク部材
24:第4リンク部材
25:第5リンク部材
26:第6リンク部材
27:ティーチングペンダント
31:第1関節
32:第2関節
33:第3関節
34:第4関節
35:第5関節
36:第6関節
37:第7関節
40:ケーシング
41:第1上フィンガー部
42:第2上フィンガー部
43:第1下フィンガー部
44:第2下フィンガー部
45:第1アクチュエータ
46:第1上指先部
47:第1中間指先部
48:下フィンガー駆動部
50:本体
51:フィンガー
52:ブラケット
53:モータ
54:本体ハウジング
55:第1傘歯車
56:第2傘歯車
57:シャフト
58:ベアリング
59:一端部
60:ベアリング
61:駆動軸
62:モータ
63:フィンガーハウジング
64:第3傘歯車
65、66:ベアリング
67:シャフト
70:駆動軸
71:第4傘歯車
74:ホルダー
75:パッド受け
76:パッド
77:パッド押え
78:スクリュウ
79:凹部
80:凹所
81:内方部
82:軸部
83:外方部
84:切欠き
85:端部
86:凸所
88:第2アクチュエータ
89:第2上指先部
90:ホルダー
91:パッド
92:第2中間指先部
93:ホルダー
94、95:パッド
96:ホルダー
101:モータ
102:ウォームギア
103:ウォームホイール
104:シャフト
106:駆動軸
110:第1下フィンガー
111:第1下指先部
112:一端部
113:他端部
114:ホルダー
115、116:パッド
121:第2下フィンガー
122:第2下指先部
123:一端部
124:他端部
126、127:パッド
128:ホルダー
130、131、133、134、135:ワーク
141、142、143:線分
145:移動経路
150:ベース基準点
152:カメラ基準点位置
155:ワーク
156:カメラ基準点位置
160:ワーク
162:視野
163:領域
164:座標原点
10: Robot 12: Arm link 14: Robot hand 15: Camera unit 16: Controller 17: Image recognizer 18: Camera 19: Arm 20: Base 21: First link member 22: Second link member 23: Third link Member 24: Fourth link member 25: Fifth link member 26: Sixth link member 27: Teaching pendant 31: First joint 32: Second joint 33: Third joint 34: Fourth joint 35: Fifth joint 36: Sixth joint 37: Seventh joint 40: Casing 41: First upper finger part 42: Second upper finger part 43: First lower finger part 44: Second lower finger part 45: First actuator 46: First upper fingertip Part 47: first intermediate fingertip part 48: lower finger drive part 50: main body 51: finger 52: bracket 53: motor 54: main body housing 55: first bevel tooth 56: second bevel gear 57: shaft 58: bearing 59: one end 60: bearing 61: drive shaft 62: motor 63: finger housing 64: third bevel gear 65, 66: bearing 67: shaft 70: drive shaft 71: Fourth bevel gear 74: Holder 75: Pad receiver 76: Pad 77: Pad presser 78: Screw 79: Recess 80: Recess 81: Inner part 82: Shaft part 83: Outer part 84: Notch 85: End part 86: convex portion 88: second actuator 89: second upper fingertip portion 90: holder 91: pad 92: second intermediate fingertip portion 93: holder 94, 95: pad 96: holder 101: motor 102: worm gear 103: worm wheel 104: shaft 106: drive shaft 110: first lower finger 111: first lower fingertip portion 112: one end 113: other end 114 Holders 115 and 116: Pad 121: Second lower finger 122: Second lower fingertip part 123: One end part 124: Other end part 126, 127: Pad 128: Holders 130, 131, 133, 134, 135: Work pieces 141, 142 143: line segment 145: movement path 150: base reference point 152: camera reference point position 155: work 156: camera reference point position 160: work 162: field of view 163: area 164: coordinate origin

Claims (2)

本体と、
本体に接続されていて本体に対して回動する1対の下回動部と、
本体に接続されていて本体に対して回動する内側部と、その内側部に接続されていて内側部に対して回動する外側部を持つ1対の上回動部と、
コントローラを備えており、
1対の下回動部は1対の上回動部と対向し、
下回動部の先端面と内側部は、回動して接近することによってワークを把持する形状であり、
外側部は、下回動部の先端面と内側部がワークを把持している状態で、回動して下回動部の外側面に接近することによって、下回動部の外側面との間で前記ワークを把持する形状であり、
コントローラは、下回動部と内側部を回動させて下回動部の先端面と内側部の間でワークを把持させ、その状態で外側部を回動させて下回動部の外側面と外側部の間でワークを保持させるとともに、
(a)一方の下回動部の先端面と一方の内側部との間でワークを摘んで把持する場合、
(b)両方の下回動部の先端面と両方の内側部との間でワークを摘んで把持する場合、
(c)一方の下回動部の先端面と一方の内側部との間、及び、一方の下回動部の外側面と一方の外側部との間の計2箇所でワークを掴んで把持する場合、
(d)両方の下回動部の先端面と両方の内側部との間、及び、両方の下回動部の外側面と両方の外側部との間の計4箇所でワークを掴んで把持する場合、の4つの場合に対して、各部がワークを把持する力を予め記憶していることを特徴とするロボットハンド。
The body,
A pair of lower rotating parts connected to the main body and rotating with respect to the main body;
A pair of upper rotating parts having an inner part connected to the main body and rotating relative to the main body, and an outer part connected to the inner part and rotating relative to the inner part;
With a controller,
The pair of lower rotating parts faces the pair of upper rotating parts,
The tip surface and the inner part of the lower rotating part are shaped to grip the workpiece by rotating and approaching,
The outer portion rotates with the outer surface of the lower rotating portion by rotating and approaching the outer surface of the lower rotating portion while the tip surface and the inner portion of the lower rotating portion are gripping the workpiece. It is a shape that grips the work between,
The controller rotates the lower rotating portion and the inner portion to grip the workpiece between the tip surface and the inner portion of the lower rotating portion, and rotates the outer portion in this state to rotate the outer surface of the lower rotating portion. And hold the workpiece between the outer part and
(A) When gripping and gripping a workpiece between the tip surface of one of the lower rotating parts and one inner part,
(B) When gripping and gripping a workpiece between the tip surfaces of both lower rotating parts and both inner parts,
(C) Grasping and gripping a workpiece at a total of two locations between the tip surface of one lower rotation part and one inner part and between the outer surface of one lower rotation part and one outer part If you want to
(D) Grasping and gripping the workpiece at a total of four points between the tip surfaces of both lower rotating parts and both inner parts, and between the outer surface of both lower rotating parts and both outer parts. In this case, the robot hand is characterized in that each part stores in advance a force for gripping a workpiece .
各下回動部は柱状部を持っており、柱状部の先端面と内側部が接近可能であり、柱状部の外側面に外側部が接近可能である請求項1のロボットハンド。   2. The robot hand according to claim 1, wherein each lower rotating portion has a columnar portion, the tip surface and the inner portion of the columnar portion are accessible, and the outer portion is accessible to the outer surface of the columnar portion.
JP2005174531A 2005-06-15 2005-06-15 Robot hand Active JP4635729B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005174531A JP4635729B2 (en) 2005-06-15 2005-06-15 Robot hand

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005174531A JP4635729B2 (en) 2005-06-15 2005-06-15 Robot hand

Publications (2)

Publication Number Publication Date
JP2006346791A JP2006346791A (en) 2006-12-28
JP4635729B2 true JP4635729B2 (en) 2011-02-23

Family

ID=37643161

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005174531A Active JP4635729B2 (en) 2005-06-15 2005-06-15 Robot hand

Country Status (1)

Country Link
JP (1) JP4635729B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5267213B2 (en) * 2009-03-02 2013-08-21 株式会社安川電機 Multi-fingered hand and robot

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS4950967U (en) * 1972-08-10 1974-05-04
JPS5032927Y1 (en) * 1970-07-30 1975-09-25
JPS5295801A (en) * 1976-02-09 1977-08-11 Komatsu Mfg Co Ltd Machine hand device
JPS59140189U (en) * 1983-03-08 1984-09-19 オムロン株式会社 robot manipulator
JPH0482683A (en) * 1990-07-26 1992-03-16 Toyota Motor Corp Grip control method for robot hand
JP2001287182A (en) * 2000-04-04 2001-10-16 Honda Motor Co Ltd Controller for multi-fingered hand device
JP2003275984A (en) * 2001-11-09 2003-09-30 Korea Inst Of Science & Technology Robot hand and robot hand finger
JP4406386B2 (en) * 2005-06-15 2010-01-27 トヨタ自動車株式会社 Robot hand
JP4535941B2 (en) * 2005-06-15 2010-09-01 トヨタ自動車株式会社 robot
JP4535942B2 (en) * 2005-06-15 2010-09-01 トヨタ自動車株式会社 Robot hand

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5032927Y1 (en) * 1970-07-30 1975-09-25
JPS4950967U (en) * 1972-08-10 1974-05-04
JPS5295801A (en) * 1976-02-09 1977-08-11 Komatsu Mfg Co Ltd Machine hand device
JPS59140189U (en) * 1983-03-08 1984-09-19 オムロン株式会社 robot manipulator
JPH0482683A (en) * 1990-07-26 1992-03-16 Toyota Motor Corp Grip control method for robot hand
JP2001287182A (en) * 2000-04-04 2001-10-16 Honda Motor Co Ltd Controller for multi-fingered hand device
JP2003275984A (en) * 2001-11-09 2003-09-30 Korea Inst Of Science & Technology Robot hand and robot hand finger
JP4406386B2 (en) * 2005-06-15 2010-01-27 トヨタ自動車株式会社 Robot hand
JP4535941B2 (en) * 2005-06-15 2010-09-01 トヨタ自動車株式会社 robot
JP4535942B2 (en) * 2005-06-15 2010-09-01 トヨタ自動車株式会社 Robot hand

Also Published As

Publication number Publication date
JP2006346791A (en) 2006-12-28

Similar Documents

Publication Publication Date Title
JP5114019B2 (en) Method for controlling the trajectory of an effector
US10350768B2 (en) Control device, robot, and robot system
US8645098B2 (en) Hand-held device and method for detecting the spatial position of a working point of a manipulator
JP4001105B2 (en) Grasping method of arbitrarily shaped object by robot
JP2014176940A (en) Robot system, method for controlling robot and method for manufacturing workpiece
JP4535942B2 (en) Robot hand
JP5223407B2 (en) Redundant robot teaching method
US20180085920A1 (en) Robot control device, robot, and robot system
JP2006346790A (en) Robot, and interference discriminating method and interference discriminating device
CN110545965B (en) Articulated robot and articulated robot system
JP6404957B2 (en) Machining system with a robot that transports workpieces to the processing machine
JPH0438553B2 (en)
JP4535941B2 (en) robot
JP4635729B2 (en) Robot hand
JP4406386B2 (en) Robot hand
JP2536338B2 (en) Robot workpiece gripping mechanism
JP7293844B2 (en) robot
JP4640499B2 (en) Grip control device
JP2015066632A (en) Robot, robot control method, and robot control program
JPH03196981A (en) Additive shaft follow-up control system for robot
JP2019089144A (en) Profiling processor
Vollmann et al. Manipulator control by calibration-free stereo vision
JPS643661Y2 (en)
JP2005335010A (en) Gripping control device
JP7568862B2 (en) ROBOT SYSTEM, CONTROL DEVICE, DIAGNOSIS METHOD, AND DIAGNOSIS PROGRAM

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080213

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090910

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090915

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100601

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100730

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A132

Effective date: 20100824

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100930

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101026

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101108

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131203

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4635729

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131203

Year of fee payment: 3