JP4635729B2 - Robot hand - Google Patents
Robot hand Download PDFInfo
- Publication number
- JP4635729B2 JP4635729B2 JP2005174531A JP2005174531A JP4635729B2 JP 4635729 B2 JP4635729 B2 JP 4635729B2 JP 2005174531 A JP2005174531 A JP 2005174531A JP 2005174531 A JP2005174531 A JP 2005174531A JP 4635729 B2 JP4635729 B2 JP 4635729B2
- Authority
- JP
- Japan
- Prior art keywords
- workpiece
- robot hand
- gripping
- teaching
- work
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Manipulator (AREA)
Description
本発明は、ロボットのロボットハンドに関するものである。 The present invention relates to a robot hand of a robot.
特許文献1には、本体と、5本の把持手段を有するロボットハンドが開示されている。各把持手段は、本体に接続されて回動する第1フィンガーと、第1フィンガーに接続されて回動する第2フィンガーを持っている。このロボットハンドは、5本の把持手段を有することによって、複雑な形状のワークを把持することができると記載されている。 Patent Document 1 discloses a robot hand having a main body and five gripping means. Each gripping means has a first finger that is connected to the main body and rotates, and a second finger that is connected to the first finger and rotates. It is described that this robot hand can grip a workpiece having a complicated shape by having five gripping means.
しかしながら、特許文献1に開示されているような、第1フィンガーと第2フィンガーを持つ把持手段を5本も有するロボットハンドは、いかにも構成が複雑である。
本発明は、その問題を解決するためになされたものであり、簡単な構成で種々の形状のワークに汎用的に対応することができるロボットハンドを実現する。
However, the robot hand having five gripping means having the first finger and the second finger as disclosed in Patent Document 1 has a complicated structure.
The present invention has been made to solve the problem, and realizes a robot hand that can be used for a wide variety of workpieces with various shapes with a simple configuration.
本発明のロボットハンドは、本体と、1対の下回動部と、1対の下回動部と対向する1対の上回動部と、コントローラを備えている。下回動部は、本体に接続されていて本体に対して回動する。上回動部は、本体に接続されていて本体に対して回動する内側部と、その内側部に接続されていて内側部に対して回動する外側部を持っている。下回動部の先端面と内側部は、回動して接近することによってワークを把持する形状とされている。外側部は、下回動部の先端面と内側部がワークを把持している状態で、回動して下回動部の外側面に接近することによって、下回動部の外側面との間で前記ワークを把持する形状である。コントローラは、下回動部と内側部を回動させて下回動部の先端面と内側部の間でワークを把持させ、その状態で外側部を回動させて下回動部の外側面と外側部の間でワークを保持させるとともに、(a)一方の下回動部の先端面と一方の内側部との間でワークを摘んで把持する場合、(b)両方の下回動部の先端面と両方の内側部との間でワークを摘んで把持する場合、(c)一方の下回動部の先端面と一方の内側部との間、及び、一方の下回動部の外側面と一方の外側部との間の計2箇所でワークを掴んで把持する場合、(d)両方の下回動部の先端面と両方の内側部との間、及び、両方の下回動部の外側面と両方の外側部との間の計4箇所でワークを掴んで把持する場合、の4つの場合に対して、各部がワークを把持する力を予め記憶している。
このロボットハンドは、下回動部と一方の内側部によって小さなワークを把持することもできるし、下回動部と両方の内側部によってさらに大きなワークを把持することもできる。さらに複雑な形状のワークに対しては、下回動部と内側部がワークを把持している状態で、一方あるいは両方の外側部でワークを把持することができる。すなわち、下回動部と一対の上回動部のみが動作するという簡単な構成で、種々の形状のワークに汎用的に対応することができる。
なお、上回動部や下回動部の「上」や「下」は、相対的位置関係を示すためのものであり、ロボットハンドの上下に必ずしも対応するものではない。
The robot hand according to the present invention includes a main body, a pair of lower rotating portions, a pair of upper rotating portions facing the pair of lower rotating portions, and a controller. The lower rotating part is connected to the main body and rotates with respect to the main body. The upper rotating portion has an inner portion that is connected to the main body and rotates with respect to the main body, and an outer portion that is connected to the inner portion and rotates with respect to the inner portion. The tip surface and the inner part of the lower rotating part are shaped to grip the workpiece by rotating and approaching. The outer portion rotates with the outer surface of the lower rotating portion by rotating and approaching the outer surface of the lower rotating portion while the tip surface and the inner portion of the lower rotating portion are gripping the workpiece. It is a shape for gripping the work in between. The controller rotates the lower rotating portion and the inner portion to grip the workpiece between the tip surface and the inner portion of the lower rotating portion, and rotates the outer portion in this state to rotate the outer surface of the lower rotating portion. The workpiece is held between the outer portion and the outer portion , and (a) when the workpiece is gripped and gripped between the tip surface of one lower turning portion and the one inner portion, (b) both lower turning portions When gripping and gripping a workpiece between the front end surface and both inner portions, (c) between the front end surface of one lower rotation portion and one inner portion, and of one lower rotation portion When gripping and gripping a workpiece at a total of two locations between the outer surface and one outer portion, (d) between the tip surface of both lower rotating portions and both inner portions, and both lower turns In the case of gripping and gripping a workpiece at a total of four locations between the outer surface of the moving portion and both outer portions, the force with which each portion grips the workpiece is stored in advance for the four cases. To have.
This robot hand can hold a small workpiece by the lower rotating portion and one inner portion, and can also hold a larger workpiece by the lower rotating portion and both inner portions. Further, for a workpiece having a complicated shape, the workpiece can be gripped by one or both outer portions while the lower rotating portion and the inner portion grip the workpiece. That is, with a simple configuration in which only the lower rotating portion and the pair of upper rotating portions operate, it is possible to generally handle various shapes of workpieces.
Note that “upper” and “lower” of the upper rotating unit and the lower rotating unit are for indicating a relative positional relationship, and do not necessarily correspond to the upper and lower sides of the robot hand.
上記のロボットハンドにおいて、下回動部は柱状部を1対持っており、柱状部の先端面と内側部が接近可能であり、柱状部の側面に外側部が接近可能であることが好ましい
このロボットハンドは、下回動部の柱状部の先端面と側面を利用して、複雑な形状(例えば、折れ曲がった形状)のワークを確実に把持することができる。
In the above robot hand, it is preferable that the lower rotating portion has a pair of columnar portions, the tip surface of the columnar portion and the inner side portion are accessible, and the outer side portion is accessible to the side surface of the columnar portion. The robot hand can reliably grip a workpiece having a complicated shape (for example, a bent shape) by using the front end surface and the side surface of the columnar portion of the lower rotating portion.
本発明のロボットハンドは、簡単な構成で種々の形状のワークに汎用的に対応することができる。 The robot hand of the present invention can be used for a wide variety of workpieces of various shapes with a simple configuration.
後述する実施例の主要な特徴を記載する。
(1)ロボットは、アームリンク、ロボットハンド、カメラ部、画像認識機、ティーチングペンダント、コントローラを備えている。アームリンクは、複数のリンク部材が関節によって接続されている。ロボットハンドは、アームリンクの先端に取り付けられている。カメラ部は、カメラと、カメラをロボットハンドに固定するアームを有している。画像認識機は、カメラが撮影した画像を認識する。ティーチングペンダントは、コントローラに接続されており、ロボットに教示するときに用いる。コントローラは、アームリンクとロボットハンドを制御する。
(2)ロボットハンドは、第1上フィンガー部、ケーシング、第2上フィンガー部、第1下フィンガー部、第2下フィンガー部、下フィンガー駆動部を備えている。各フィンガー部が動作することによって、種々の形状のワークを確実に把持することができる。各フィンガー部には、ワークを把持するときに、ワークと接触するパッドが設けられている。パッドは、ワークに倣って姿勢変化する。
(3)ロボットは、ワークにマーキングされている3本の線分と1つの特徴点を画像認識することによって、ワークの位置と姿勢を演算する。そのときに、ワークを撮影するカメラの位置は、アームリングの軸値に基づいて演算される。このため、再生時に、カメラは教示時と同じポイントでワークを撮影する必要がない。従って、ロボットハンドは、再生時に、教示ポイントよりも内回りで移動することができ、サイクルタイムが短縮化されている。
(4)ロボットハンド14がワークを把持するときには、両指でワークを摘む場合と、片指でワークを摘む場合と、両指でワークを掴む場合と、片指でワークを掴む場合しか存在しない。そのため、それら4つの場合にワークを把持する力を予め設定しておき、それらの力に対応した4つのボタンをティーチングペンダントに設ける。よって、ロボットハンドに対するワーク把持時に係る教示を容易に行うことができる。
The main features of the embodiments described later will be described.
(1) The robot includes an arm link, a robot hand, a camera unit, an image recognizer, a teaching pendant, and a controller. In the arm link, a plurality of link members are connected by joints. The robot hand is attached to the tip of the arm link. The camera unit has a camera and an arm that fixes the camera to the robot hand. The image recognizer recognizes an image captured by the camera. The teaching pendant is connected to the controller and is used when teaching the robot. The controller controls the arm link and the robot hand.
(2) The robot hand includes a first upper finger portion, a casing, a second upper finger portion, a first lower finger portion, a second lower finger portion, and a lower finger driving portion. By operating each finger part, it is possible to reliably hold workpieces of various shapes. Each finger portion is provided with a pad that comes into contact with the workpiece when the workpiece is gripped. The pad changes its posture following the work.
(3) The robot calculates the position and posture of the workpiece by recognizing the three line segments and one feature point marked on the workpiece. At that time, the position of the camera for photographing the workpiece is calculated based on the axis value of the arm ring. For this reason, at the time of reproduction, the camera does not need to shoot a workpiece at the same point as that at the time of teaching. Therefore, the robot hand can move inward from the teaching point during reproduction, and the cycle time is shortened.
(4) When the
本発明のロボットに係る実施例について、図面を参照しながら説明する。
図1に示すように、ロボット10は、アームリンク12、ロボットハンド14、カメラ部15、画像認識機(画像処理手段)17、ティーチングペンダント27、コントローラ16を備えている。
アームリンク12は、基台20、第1リンク部材21、第2リンク部材22、第3リンク部材23、第4リンク部材24、第5リンク部材25、第6リンク部材26、第1関節31、第2関節32、第3関節33、第4関節34、第5関節35、第6関節36、第7関節37を有している。基台21と第1リンク部材21は、第1関節31によって接続されている。同様に、第1リンク部材21〜第6リンク部材26も、第2関節32〜第6関節36の各々によって接続されている。第1関節31〜第7関節37は、図示しない駆動機構に駆動されて回動する。ロボットハンド14は、第7関節37によって、第6リンク部材26に接続されている。
カメラ部15は、カメラ18とアーム19を有している。カメラ18は、デジタルカメラであり、アーム19を介してロボットハンド14に固定されている。
画像認識機17は、カメラ18が撮影した画像を認識する。ティーチングペンダント27は、コントローラ16に接続されており、教示者が操作することによって、ロボット10に種々の教示を行うことができる。コントローラ16は、格納している制御プログラムと、画像認識機17が画像認識したデータと、ティーチングペンダント27から入力された教示内容に基づいて、アームリンク12とロボットハンド14を制御する。
Embodiments according to the robot of the present invention will be described with reference to the drawings.
As shown in FIG. 1, the
The
The
The image recognizer 17 recognizes an image taken by the
図2に示すように、ロボットハンド14は、第1上フィンガー部41、ケーシング40、第2上フィンガー部42、第1下フィンガー部43、第2下フィンガー部44、下フィンガー駆動部48(図2には図示せず。図3、図9に図示)を備えている。なお、ここで「上、下」とは、相対的な位置関係を示しており、ロボットハンド14の「上、下」を意味しない。
図3に示すように、第1上フィンガー部41は、ケーシング40から突き出すように配置されており、第1アクチュエータ45と、第1上指先部46と、第1中間指先部47を有している。
図4に示すように、第1アクチュエータ45は、本体50、フィンガー51、ブラケット52から構成されている。
図5に示すように、本体50は、モータ53、本体ハウジング54、第1傘歯車55、ベアリング58、60、シャフト57、第2傘歯車56を備えている。モータ53は、本体ハウジング54に取り付けられている。第1傘歯車55は、モータ53の駆動軸61に固定されている。ベアリング58、60は、本体ハウジング54に装着されており、シャフト57を回動可能に支持している。第2傘歯車56は、シャフト57に固定されているとともに、第1傘歯車55と噛み合っている。
As shown in FIG. 2, the
As shown in FIG. 3, the first
As shown in FIG. 4, the
As shown in FIG. 5, the
フィンガー51は、モータ62、フィンガーハウジング63、第3傘歯車64、ベアリング65、66、シャフト67、第4傘歯車71を有している。フィンガーハウジング63は、その一端部59が、本体ハウジング54から突き出しているシャフト57に固定されている。モータ62は、フィンガーハウジング63に取り付けられている。第3傘歯車64は、モータ62の駆動軸70に固定されている。ベアリング65、66はフィンガーハウジング63に装着されており、シャフト67を回動可能に支持している。第4傘歯車71は、シャフト67に固定されているとともに、第3傘歯車64と噛み合っている。ブラケット52は、シャフト67の両端部に固定されている。
本体50のモータ53が駆動されると、第1傘歯車55と第2傘歯車56を介してシャフト57が回動することにより、フィンガー51がブラケット52とともに回動する。フィンガー51とブラケット52は、モータ53の駆動軸61の回転方向によって、一方向に回動したり、他方向に回動したりする。フィンガー51のモータ62が駆動されると、第3傘歯車64と第4傘歯車71を介してシャフト67が回動することにより、ブラケット52が回動する。ブラケット52は、モータ62の駆動軸70の回転方向によって、一方向に回動したり、他方向に回動したりする。モータ53とモータ62は、コントローラ16によって制御される。
The
When the
図3に示すように、第1上指先部46は、第1アクチュエータ45のブラケット52に取り付けられている。図6に示すように、第1上指先部46は、ホルダー74、パッド受け75、パッド76、パッド押え77を備えている。ホルダー74には、凹部79が形成されている。凹部79の平面形状(深さ方向に視た形状)は円状である。パッド受け75は、凹部79内に配置されている。パッド受け75には、部分球面状に形成された凹所80が設けられている。パッド76は、内方部81と、外方部83と、内方部81と外方部83を結ぶ軸部82を持っている。パッド76の内方部81には、パッド受け75の凹所80に対応した形状(すなわち、部分球面状)を有する凸所86が設けられている。パッド押え77は、板状の部材が屈曲した形状を有しており、スクリュウ78によって、ホルダー74に取り付けられている。
図7に示すように、パッド押え77の一方側の端部85には切欠き84が設けられている。パッド76の軸部82は、切欠き84を通過している。パッド76の内方部81がパッド押え77の端部85に部分的に覆われることによって、パッド76がホルダー74の凹部79から抜け出すのが禁止されている。
パッド76は、その外方部83に外力が作用すると、図8に示すように、パッド押え77の端部85が変形するとともに、パッド受け75の凹所80とパッド76の内方部81の凸所86が摺動し、姿勢が変化する。
図3に示すように、第1中間指先部47は、ホルダー90とパッド91を有している。ホルダー90は、フィンガーハウジング63に固定されている。パッド91は、第1上指先部46と同様な構成によって、姿勢変化が可能である。
As shown in FIG. 3, the first
As shown in FIG. 7, a
When an external force is applied to the
As shown in FIG. 3, the first
図9に示すように、第2上フィンガー部42は、第2アクチュエータ88と、第2上指先部89と、第2中間指先部92を備えている。第2アクチュエータ88は、第1アクチュエータ45と同様の構成を有している。第2上指先部89は、ホルダー96とパッド95を持っている。第2中間指先部92は、ホルダー93とパッド94を持っている。パッド94、95は、第1上指先部46と同様な構成によって姿勢変化が可能である。
As shown in FIG. 9, the second
図3に示すように、下フィンガー駆動部48は、モータ101、ウォームギア102、シャフト104、ウォームホイール103を備えている。モータ101は、その一部が第1アクチュエータ45と第2アクチュエータ88(図2参照)との間に配置された状態で、ケーシング40に固定されている。ウォームギア102は、モータ101の駆動軸106に固定されている。シャフト104は、ケーシング40に装着されているベアリング(図示省略)によって、回動可能に支持されている。ウォームホイール103は、シャフト104に取り付けられているとともに、ウォームギア102と噛み合っている。
As shown in FIG. 3, the lower
第1下フィンガー部43は、第1下フィンガー110、第1下指先部111を有している。第1下フィンガー110は、略L字状に形成されており、一端部112が下フィンガー駆動部48のシャフト104に固定されている。第1下指先部111は、第1下フィンガー110の他端部113に取り付けられている。第1下指先部111は、ホルダー114と、ホルダー114に装着されたパッド115、116を有している。パッド115、116は、第1上指先部46と同様な構成によって、姿勢変化が可能である。
図9に示すように、第2下フィンガー部44は、第2下フィンガー121、第2下指先部122を有している。第2下フィンガー121は、その一端部123が下フィンガー駆動部48のシャフト104に固定されている。第2下指先部122は、第2下フィンガー121の他端部124に取り付けられている。第2下指先部122は、ホルダー128と、ホルダー128に装着されたパッド126、127を有している。パッド126、127は、第1上指先部46と同様の構成によって、姿勢変化が可能である。
ホルダー114、128が、請求項に記載の柱状部に相当する。
下フィンガー駆動部48のモータ101が駆動されると、ウォームギア102とウォームホイール103を介してシャフト104が回動する。シャフト104が回動すると、それに固定されている第1下フィンガー部43と第2下フィンガー部44が一体で回動する。第1下フィンガー部43と第2下フィンガー部44は、モータ101の駆動軸106の回転方向によって、一方向に回動したり、他方向に回動したりする。モータ101は、コントローラ16によって制御される。
The first
As shown in FIG. 9, the second
The
When the
第1上フィンガー部41、第2上フィンガー部42、第1下フィンガー部43、第2下フィンガー部44の動作について説明する。
図10は、第1上フィンガー部41と第1下フィンガー部43が離反するとともに、第2上フィンガー部42と第2下フィンガー部44が離反した状態(ロボットハンド14が開いた状態)を示している(第2上フィンガー部42と第2下フィンガー部44は、それぞれ第1上フィンガー部41と第2上フィンガー部42の裏に隠れている)。
図11は、第1中間指先部47のパッド91と第1下指先部111のパッド115が対向し、第2中間指先部92のパッド94と第2下指先部122のパッド126が対向した状態で、それらが板状のワーク130を摘んでいる状態を示している(第2中間指先部92等は、第1中間指先部47等の裏に隠れている)。
図12は、第1中間指先部47のパッド91と第1下指先部111のパッド115が板状のワーク130を摘んでいる状態を示している。第2上フィンガー部42と第2下フィンガー部44は、離反している。
Operations of the first
FIG. 10 shows a state in which the first
11 shows a state in which the
FIG. 12 shows a state where the
図13は、ロボットハンド14が、断面がL字状のワーク131を掴んでいる状態を示している。この状態では、第1中間指先部47のパッド91と第1下指先部111のパッド115、第1上指先部46のパッド76と第1下指先部111のパッド116、第2中間指先部92のパッド94と第2下指先部122のパッド126、第2上指先部89のパッド95と第2下指先部122のパッド127が対向している(第2中間指先部92等は、第1中間指先部47等の裏に隠れている)。
図14は、第1中間指先部47のパッド91と第1下指先部111のパッド115が対向し、第1上指先部46のパッド76と第1下指先部111のパッド116が対向した状態で、それらが断面がL字状のワーク131を掴んでいる状態を示している。第2上フィンガー部42と第2下フィンガー部44は離反している。
以下においては、特に必要がない限り、ロボットハンド14がワークを摘んでいる状態と、ワークを掴んでいる状態を、「把持」と記載する。
FIG. 13 shows a state where the
FIG. 14 shows a state in which the
In the following description, a state in which the
ロボットハンド14は、パッド76、91、94、95、115、116、126、127が姿勢変化可能なことによって、種々の形状のワークを確実に把持することができる。それについて、ロボットハンド14が、第1中間指先部47のパッド91、第2中間指先部92のパッド94、第1下指先部111のパッド115、第2下指先部122のパッド126を用いてワークを把持する場合で代表して説明する。
図15に示すように、ロボットハンド14が平板状のワーク133を把持する場合、パッド91、94、115、126は、中立位置(図6に示す位置)で、ワーク133に当接する。
図16に示すように、ロボットハンド14が曲面状のワーク134を把持する場合、パッド91、94、115、126は、ワーク134の形状に倣うように姿勢変化(傾く)する。よって、ロボットハンド14は、ワーク134を確実に把持する。
図17に示すように、ロボットハンド14が、面同士が傾斜しているワーク135を把持する場合でも、パッド91、115が姿勢変化してワーク135の形状に倣う。従って、ワーク135はロボットハンド14によって確実に把持される。
パッド76、91、94、95、115、116、126、127を設けず、ホルダー74、90、93、96、114、128が直接ワークを把持するように構成することもできる。
以下においては、特に必要がない限り、ロボット10における、動作の制御、ワークの画像認識、動作の教示に係る説明を行うときに、それらがそれぞれコントローラ16、画像認識機17、ティーチングペンダント27によって実行されることについて、記載を省略する。
The
As shown in FIG. 15, when the
As shown in FIG. 16, when the
As shown in FIG. 17, even when the
The
In the following description, unless otherwise required, when the
図18は、ロボットハンド14の移動経路145と、教示ポイントTP1〜TP5を模式的に示している。移動経路145とは、ロボットハンド14の所定の基準点が移動する経路である。教示ポイントTP1〜TP5とは、ロボットハンド14に移動する経路等を教示するポイントである。ロボットハンド14は、3次元的に移動するが、図18では、2次元的に移動するものとして図示している。
ロボットハンド14は、移動経路145やワークの把持やセットに係る動作等を教示された後に、教示されたように、待機位置から移動して置き台に置かれているワークを把持し、ワークを把持した状態でセット対象(例えば、治具。以下、セット対象を「治具」と記載する)まで移動してからワークを治具にセットし、それから待機位置に戻る一連の動作を実行する。以下においては、教示されたように動作することを「再生」と言う。ロボットハンド14は、再生時に、移動経路145に沿って移動する。
図18から明らかなように、ロボットハンド14は、移動する途中で、教示ポイントTP2、TP3、TP4を通過しない。ロボットハンド14は、教示された教示ポイントTP2、TP3、TP4よりも内回りな移動経路145に沿って移動する。このため、ロボット10のサイクルタイム(移動経路145に沿って教示ポイントTP1→TP5まで移動し、さらに教示ポイントTP5→TP1まで直接戻る時間)が短縮化されている(図18では、教示ポイントTP5→TP1に直接戻る移動経路の図示を省略している)。図18では、TP1がロボットハンド14の待機位置に相当し、TP3がロボットハンド14がワークを把持する位置(把持位置)に相当し、TP5がロボットハンド14が治具にワークをセットする位置(セット位置)に相当する。
FIG. 18 schematically shows the
After being instructed about the
As is apparent from FIG. 18, the
ロボット10には、カメラ18でワークを撮影して画像認識することによって、ワークの位置と姿勢を予め教示しておく。詳しくは、ロボットハンド14を、待機位置から把持位置まで移動させる途中の位置(例えば、教示ポイントTP2)と、把持位置からセット位置まで移動させる途中の位置(例えば、TP4)で停止させ、それらの位置での画像認識結果によって、ワークの位置と姿勢を教示する。以下においては、ロボットハンド14が、待機位置から把持位置までの途中で停止し、カメラ18でワークを撮影するときの位置を「教示時撮影位置(把持前)」と記載する。また、ロボットハンド14が、把持位置から治具までの途中で停止し、カメラ18でワークを撮影するときの位置を「教示時撮影位置(把持後)」と記載する。
ロボットハンド14が教示ポイントよりも内回りの経路を移動すると、ロボットハンド14は、再生時に、教示時撮影位置(把持前)と教示時撮影位置(把持後)を通過しない。このため、教示時撮影位置(把持前)と教示時撮影位置(把持後)を中心とする所定径の球を空間上に設定しておき、その球にロボットハンド14の基準点が入り込むと、それぞれの位置でカメラ18を用いてワークを撮影する。前者の位置を再生時撮影位置(把持前)、後者の位置を再生時撮影位置(把持後)とする。つまり、教示時撮影位置(把持前)と再生時撮影位置(把持前)と、教示時撮影位置(把持後)と再生時撮影位置(把持後)は、一致しない。
The
When the
ワークの位置や姿勢を把握(演算)する技術について、具体的に説明する。図19に示すように、ワーク140には、特徴点G、線分141、142、143をマーキングしておく。マーキングは、例えば、テーキン(刻印)によって行う。線分141、142、143は、端同士が交わらないようにマーキングされている。線分141、142、143のそれぞれの両端を延長すると,直角三角形が形成される。
テーキンによって線分141、142、143をマーキングする場合、それらが交わっていると、その交点を起点としてクラックが入ることがある。線分141、142、143を交わらせないことによって、ワーク140にクラックが入るのが防止されている。
図19では、特徴点Gは、図示明瞭化のため「×」を正方形が囲む形状に図示されているが、実際には「×」のみがマーキングされている。
A technique for grasping (calculating) the position and posture of the workpiece will be specifically described. As shown in FIG. 19, the
When marking the
In FIG. 19, the feature point G is illustrated in a shape in which a square is surrounded by “x” for clarity of illustration, but only “x” is actually marked.
上述したように、教示時撮影位置(把持前)と再生時撮影位置(把持前)と、教示時撮影位置(把持後)と再生時撮影位置(把持後)は、一致しない。また、再生時に、置き台に置かれているワークの位置や姿勢が通常と異なっていることもある。ロボットハンド14が把持しているワークの姿勢は、教示時のそれと一致しているとは限らない。ロボットハンド14がワークを教示時と同じように把持したとしても、その後に、ワークが重い等の要因によって、ワークが把持されたままズレてしまうことがあるからである。さらには、アームリンク12には、機械的ガタや変形が存在する。
これらの要因から、教示時と再生時とで、画像認識によって把握されるワークの位置や姿勢が異なってくる。
As described above, the teaching shooting position (before gripping), the playback shooting position (before gripping), the teaching shooting position (after gripping), and the playback shooting position (after gripping) do not match. Also, the position and posture of the workpiece placed on the cradle may be different from normal during reproduction. The posture of the work gripped by the
Due to these factors, the position and posture of the work grasped by image recognition differ between teaching and reproduction.
図20は、カメラ18を用いてワーク140を撮影する状態を模式的に示している。ワーク140の位置と姿勢を認識するに当たっては、座標原点164を持つx軸、y軸、z軸からなるカメラ座標系を設定する。座標原点164は、カメラ18の視野に対して固定されている。カメラ座標系は、基準点(例えば、基台20のベース基準点150)に対して固定されている絶対空間座標系に対して移動する。
再生時に、カメラ18が撮影したワーク140の画像を認識するときには、ワーク140の特徴点Ga(以下においては、再生時に画像認識された特徴点を「Ga」、教示時に画像認識された特徴点を「G」と記載する)を探索する。図21は、特徴点Gaが探索された状態を図示している。特徴点Gaが探索されたことによって、そのx軸座標とy軸座標(xa、ya)を求める(演算する)ことができる。
そして、画像認識結果から、ベクトルの向きが異なる線分を探索する。図22は、線分141、142、143がベクトルの向きが異なる線分として探索された状態を示している。
図23に示すように、探索された線分141、142、143を延長することによって、頂点「S、T、U」を持つ三角形(以下「三角形STU」と言う)を設定する。そして、頂点「S、T、U」の各位置座標「S(xS、yS)、T(xT、yT)、U(xU、yU)」を求める。
FIG. 20 schematically shows a state in which the
When recognizing the image of the
Then, a line segment having a different vector direction is searched from the image recognition result. FIG. 22 shows a state in which the
As shown in FIG. 23, by extending the searched
図24に示すように、再生時の特徴点Gaと教示時の特徴点Gの位置座標を比較することによって、特徴点Gaと特徴点Gのズレ△Gを求める。具体的には、教示時の特徴点Gの位置座標を(x0、y0)とすると、ズレ△Gは次のようになる。
△G=(x0−xa、y0−ya);
なお、図24に示す頂点「s、t、u」を有する三角形(以下「三角形stu」と言う)は、教示時に画像認識された線分141、142、143を延長することによって得られたものである。従って、三角形stuの頂点「s、t、u」の各位置座標「s(xs,ys),t(xt,yt),u(xu,yu)」は既知である。
図25に示すように、再生時の特徴点Gaと教示時の特徴点Gを合致させた状態で、再生時に画像認識された三角形STUと、教示時に画像認識された三角形stuがなす角度「θaz」を、下式によって求める。
θaz=arctan(F)−arctan(G);
F=(yt−ys)/(xt−xs);
G=(yT−yS)/(xT−xS);
As shown in FIG. 24, the difference ΔG between the feature point Ga and the feature point G is obtained by comparing the position coordinates of the feature point Ga at the time of reproduction and the feature point G at the time of teaching. Specifically, assuming that the position coordinates of the feature point G at the time of teaching is (x0, y0), the deviation ΔG is as follows.
ΔG = (x0−xa, y0−ya);
Note that the triangles having the vertices “s, t, u” shown in FIG. 24 (hereinafter referred to as “triangle stu”) are obtained by extending the
As shown in FIG. 25, the angle “θaz” formed by the triangle STU that has been image-recognized at the time of reproduction and the triangle stu that has been image-recognized at the time of teaching while the feature point Ga at the time of reproduction and the feature point G at the time of teaching are matched. Is obtained by the following equation.
θaz = arctan (F) −arctan (G);
F = (yt−ys) / (xt−xs);
G = (yT−yS) / (xT−xS);
図26は、三角形stuを角度θazだけ反時計方向に回転した状態を示している。その状態では、三角形stuと三角形STUは相似形でない。そこで、三角形STUの線分STをx軸廻りに角度θax回転することによって、三角形stuと三角形STUを相似形にする。図27は、その状態を示している。x軸、y軸、z軸は直交座標系なので、「θay」は、既に求められている「θax」と「θaz」に従属する。すなわち、θay=f(θax、θaz)である。よって、「θay」が求まる。
なお、教示時に、特徴点Gのz軸方向の位置座標「z0」は、予めインプットされている。このため、「z0」と、図27に示す状態における三角形stuと三角形STUの大きさの比から、再生時の特徴点Gaのz軸方向の位置座標「za」が求まる。
以上から、ワーク140の位置と姿勢が(xa、ya、za、θax、θay、θaz)として求まる。(xa、ya、za、θax、θay、θaz)は、6次元のベクトルとして表すことができ、後述する「ベクトルF1」に相当する。
2台のカメラ(ステレオカメラ)でワークを撮影することにより、再生時の特徴点Gaの位置座標「za」を求めることもできる。このようにすると、教示時に特徴点Gの位置座標「z0」をインプットする必要がなくなる。
特徴点G、Gaをマーキングしなくてもよい。特徴点G、Gaをマーキングしなくても、線分の交点(例えば、頂点Sや頂点s)を特徴点として利用することができる。
マーキングする線分は、2本のみであってもよい。例えば、線分141と線分143から略V字状の図形を形成し、その図形からワーク140の姿勢を求めてもよい。
ワークが曲面状であっても、マーキングする線分を短くすることによって、ワークが姿勢変化しても、その線分を実質的に直線として画像認識することができる。
FIG. 26 shows a state in which the triangle stu is rotated counterclockwise by the angle θaz. In that state, the triangle stu and the triangle STU are not similar. Therefore, the triangle STU and the triangle STU are made similar by rotating the line segment ST of the triangle STU by an angle θax around the x axis. FIG. 27 shows this state. Since the x-axis, y-axis, and z-axis are orthogonal coordinate systems, “θay” depends on “θax” and “θaz” that have already been obtained. That is, θay = f (θax, θaz). Therefore, “θay” is obtained.
At the time of teaching, the position coordinate “z0” of the feature point G in the z-axis direction is input in advance. Therefore, the position coordinate “za” in the z-axis direction of the feature point Ga at the time of reproduction is obtained from “z0” and the ratio of the size of the triangle stu and the triangle STU in the state shown in FIG.
From the above, the position and orientation of the
By photographing the workpiece with two cameras (stereo cameras), the position coordinate “za” of the feature point Ga at the time of reproduction can be obtained. This eliminates the need to input the position coordinate “z0” of the feature point G during teaching.
It is not necessary to mark the feature points G and Ga. Even if the feature points G and Ga are not marked, the intersection (for example, the vertex S or the vertex s) of the line segment can be used as the feature point.
Only two lines may be marked. For example, a substantially V-shaped figure may be formed from the
Even if the workpiece has a curved surface, by shortening the line segment to be marked, even if the posture of the workpiece is changed, the line segment can be recognized as a substantially straight line.
教示時撮影位置(把握前)と再生時撮影位置(把握前)が一致せず、置き台に置かれているワークの位置や姿勢が教示時と同じとは限らない等の要因によって、ロボット10は、再生時に教示時と異なる経路でワークに向かって移動し、ワークを把持しなければならない。以下、再生時に、ロボットハンド14がワークに向かって移動するにあたって、その移動するべき位置を求める技術について説明する。
図28に示すように、ロボットハンド14がワーク155に向かって移動するべき位置を求めるときには、ベクトルR0、R1、F0、F1、A、T1を用いる。ベクトルR0、R1、F0、F1、A、T1は、絶対空間座標系に対して設定されている。ベクトルR0は、基台20内に設定されているベース基準点150から教示時撮影位置(把持前)でのカメラ18のカメラ基準点位置152に延びている。ベクトルR1は、ベース基準点150から再生時撮影位置(把持前)でのカメラ18のカメラ基準点位置156に延びている。ベクトルR0とベクトルR1は、関節31〜37の軸値(回動角度)に基づいてカメラ基準点位置152、156を演算することによって求められる。
ベクトルF0は、教示時に、教示時撮影位置(把持前)でワーク155を画像認識した結果から教示されたものであり、カメラ基準点位置152から教示時のワーク155に向かって延びている。ベクトルF0は、ワークの位置と姿勢(x0、y0、z0、θ0x、θ0y、θ0z)に係る情報を持つ6次元のベクトルである。
ベクトルF1は、再生時に、再生時撮影位置(把持前)でワーク155を画像認識することによって演算されたものであり、カメラ基準点位置156から再生時のワーク155に向かって延びている。ベクトルF1は、ワークの位置と姿勢(xa、ya、za、θax、θay、θaz)に係る情報を持つ6次元のベクトルである。
Due to factors such as the shooting position during teaching (before grasping) and the shooting position during reproduction (before grasping) being inconsistent, the position and posture of the workpiece placed on the pedestal are not necessarily the same as during teaching. Must move toward the workpiece along the path different from that during teaching during reproduction, and grip the workpiece. Hereinafter, a technique for obtaining a position where the
As shown in FIG. 28, vectors R0, R1, F0, F1, A, and T1 are used when the position where the
The vector F0 is taught from the result of image recognition of the
The vector F1 is calculated by recognizing an image of the
ベクトルAは、教示時のワークから再生時のワーク155に向かって延びる6次元のベクトルである。ベクトルR0、R1、F0、F1が既知であるので、ベクトルAは、次式から求まる。ただし、このベクトルF1は、上述した画像認識によって求められたカメラ座標系のものを、絶対空間座標系に座標変換している。
A=(R1−R0)+(F1−F0);
従って、ベース基準点150から再生時のワーク155に延びるベクトルT1は次式から求まる。
T1=R0+F0+A;
ロボットハンド14は、ベクトルT1に基づいて移動し、ワーク155を把持する。ロボットハンド14は、ワーク155を把持するときに、認識しているワーク155の姿勢を用いて、教示されたときと同じようにワーク155把持する。従って、ワーク155は、通常と異なる位置や姿勢で置き台に置かれていても、常に同じ部分が、ロボットハンド14によって把持される。
The vector A is a 6-dimensional vector extending from the work at the time of teaching toward the
A = (R1-R0) + (F1-F0);
Accordingly, a vector T1 extending from the
T1 = R0 + F0 + A;
The
以上説明したように、本ロボット10は、教示時撮影位置(把握前)と再生時撮影位置(把握前)が一致する必要がない。このため、ロボットハンド14が教示ポイントに対して内回りで移動でき、サイクルタイムの短縮化が可能になる。
それに対して、従来の技術では、ロボットハンド14が、再生時に教示時撮影位置(把持前)152で停止するか、その位置を通過する必要がある。以下、その従来技術について説明する。
図29に示すように、従来技術においては、ロボットハンド14がワーク155に向かって移動するべき位置を求めるときに、ベクトルR、F、A、Tを用いる。ベクトルRは、ベース基準点150から教示時撮影位置(把持前)でのカメラ基準点位置152に延びている。ベクトルFは、教示時に、カメラ基準点位置152でワークを画像認識することによって教示されたものであり、カメラ基準点位置152から教示時のワークに向かって延びている。ベクトルFは、6次元のベクトルであり、ワークの位置と姿勢に係る情報を持っている。
As described above, the
On the other hand, in the conventional technique, the
As shown in FIG. 29, in the conventional technique, vectors R, F, A, and T are used when the position where the
ベクトルAは、教示時のワークから再生時のワーク155に向かって延びるベクトルである。ベクトルAは、再生時に、ロボットハンド14が教示時撮影位置(把持前)152で停止するか、あるいはその位置を通過するときに、カメラ18で撮影することによってワーク155を画像認識し、その再生時の画像認識結果と、教示時の画像認識結果の差から求める。従って、ベース基準点150から再生時のワーク155に向かって延びるベクトルTは、次式から求まる。
T=R+F+A;
ロボットハンド14は、ベクトルTに従って移動し、ワーク155を把持する。
この従来技術は、再生時に、ロボットハンド14が教示時撮影位置(把持前)に位置しているときに、カメラ18で撮影することによってワーク155を画像認識し、ワーク155の位置と姿勢を把握しなければならない。ロボットハンド14が、再生時に教示時撮影位置(把持前)に位置していないと、教示時と再生時におけるワークの位置と姿勢の差であるベクトルAを求めることができないからである。
よって、従来技術では、ロボットハンド14が、再生時に教示時撮影位置(把持前)152で停止するか、その位置を通過する必要がある。このため、ロボットハンド14が内回りの経路を移動することができず、サイクルタイムが長くなってしまう。
The vector A is a vector extending from the work at the time of teaching toward the
T = R + F + A;
The
In this prior art, during reproduction, when the
Therefore, in the prior art, it is necessary for the
ロボット10は、ロボットハンド14がワークを把持した状態で再生時撮影位置(把持後)を通過したときに、カメラ18で把持されているワークを撮影することによって、ワークを画像認識する。そして、その画像認識結果から、ワークの位置と姿勢を把握する。
The
置き台に置かれているワークは、位置や姿勢が通常と異なっていることがある。ワークは、置き台に、毎回正確に置かれるとは限らないからである。置き台に置かれているワークの位置や姿勢が通常と異なっていると、ロボットハンド14は、通常と異なる経路を移動してワークを把持する。通常と異なる経路を移動してワークを把持したロボットハンド14は、ワークを把持した状態で、通常と異なる経路を移動して治具に向かう。ロボットハンド14に把持されたワークは、把持したときからズレてしまうことがある。従って、置き台に置かれているワークの位置や姿勢が通常と異なっていたり、ロボットハンド14に把持されたワークの位置や姿勢が把持したときからズレてしまうと、ロボットハンド14やワークがロボット10の周辺に存在する物体(例えば、治具や、安全柵)と干渉することがある。本実施例のロボット10は、そのような干渉を防止することができる。以下、その干渉防止動作を含むワークセット処理について説明する。ワークセット処理は、コントローラ16によって処理される。
The work placed on the table may be different in position and posture. This is because the work is not always accurately placed on the table. If the position and posture of the workpiece placed on the pedestal are different from normal, the
図30に示すように、ワークセット処理S10の最初の処理であるS12では、ロボットハンド14を、待機位置からワークに向かって移動させる。次のS14では、ロボットハンド14が移動して再生時撮影位置(把持前)を通過したときに、カメラ18で撮影することによって、ワークを画像認識する。そして、続くS16では、ワークの画像認識結果から、ロボットハンド14がワークに向かって移動する経路と、ワークを把持するときのロボットハンド14の位置と姿勢を求める。具体的には、ベース基準点150から再生時のワーク155に延びるベクトルT1(図28参照)を演算することによって、ロボットハンド14がワークに向かって移動する経路と、ワークを把持するときのロボットハンド14の位置と姿勢を求める。
S20では、ロボットハンド14がワークに向かって移動するときと、ロボットハンド14がワークを把持するときに、ロボットハンド14の空間領域が周辺物体と干渉するか否かを判別する。ロボットハンド14の空間領域とは、ロボットハンド14を包含する3次元的な所定の空間領域であり、予め設定されている。ロボットハンド14の空間領域は、例えば、球として設定することができる。周辺物体の位置と形状は、予め定義されている。従って、ロボットハンド14の空間領域と周辺物体との3次元空間上の位置関係を演算することによって、それらが干渉するか否かを判別することができる。
As shown in FIG. 30, in S12 which is the first process of the work setting process S10, the
In S20, it is determined whether or not the space area of the
S20で、ロボットハンド14の空間領域が周辺物体と干渉すると判別した場合(YESの場合)には、ロボットハンド14の移動を停止する。よって、ロボットハンド14と周辺物体との干渉が防止される。S20を実行してから、そのままワークセット処理S10を終了する。S20で、ロボットハンド14の空間領域が周辺物体と干渉しないと判別した場合(NOの場合)には、S26に移行する。
S26では、ロボットハンド14をワークに向かって移動させ、ワークを把持する。そして、S28では、ワークを把持した状態のロボットハンド14を、治具に向かって移動させる。
S30では、再生時撮影位置(把持後)を通過したときに、カメラ18で撮影することによって、ワークを画像認識する。次のS32では、画像認識結果から把持しているワークの位置と姿勢を把握し、その位置と姿勢からロボットハンド14が治具に向かって移動する経路を求める。既に説明したように、ロボットハンド14は、ワークが通常と異なる位置や姿勢で置き台に置かれていても、常にワークの同じ部分を把持する。しかしながら、ワークは、その後に把持されたままズレてしまうことがある。ワークがズレていると、S30を実行することによってそのズレが把握される。
If it is determined in S20 that the space area of the
In S26, the
In S30, the image of the workpiece is recognized by shooting with the
S34では、ロボットハンド14が治具に向かって移動するときと、ロボットハンド14がワークを治具にセットするときに、ロボットハンド14とワークの空間領域が、周辺物体と干渉するか否かを判別する。ワークの空間領域とは、ワークを包含する3次元的な所定の空間領域であり、予め設定されている。ワークの空間領域は、例えば、球として設定することができる。S34で、ロボットハンド14とワークの空間領域が、周辺物体と干渉すると判別した場合(YESの場合)には、S22を実行することにより、ロボットハンド14の移動を停止する。よって、ロボットハンド14とワークが、周辺物体と干渉するのが防止される。S22を実行してから、ワークセット処理S10を終了する。
一方、S34で、ロボットハンド14とワークの空間領域が、周辺物体と干渉しないと判別した場合(NOの場合)には、S36に移行する。S36では、ロボットハンド14を治具に向かって移動させ、ワークを治具にセットする。そして、ワークセット処理S10を終了する。
In S34, when the
On the other hand, when it is determined in S34 that the space area of the
ロボットハンド14がワークを把持するときには、両指でワークを摘む場合(図11)と、片指でワークを摘む場合(図12)と、両指でワークを掴む場合(図13)と、片指でワークを掴む場合(図14)しか存在しない。ここで、「両指で摘む/掴む」とは、第1上フィンガー部41と、第2上フィンガー部42と、第1下フィンガー部43と、第2下フィンガー部44を用いてワークを把持することを意味する。「片指で摘む/掴む」とは、第1上フィンガー部41と第1下フィンガー部43を用いて、あるいは第2上フィンガー部42と第2下フィンガー部44を用いてワークを把持することを意味する。また、以下においては、第1上フィンガー部41のフィンガーハウジング63、第2上フィンガー部42のフィンガーハウジング63、第1フィンガー部41の第1上指先部46、第2フィンガー部42の第2上指先部89、第1下フィンガー部43、第2下フィンガー部を、「指」と記載することもある。
When the
ロボットハンド14には、ワークを把持するため、あるいは把持しているワークを放すために、各指の回動角度と回動速度に係る軸値を教示しなければならない。その教示をロボット10にインプットするときには、ティーチングペンダント27を用いる。軸値の教示は、回動角度や回動速度を指定しなければならないので、煩雑な作業を必要とする。
既に説明したように、ロボットハンド14がワークを把持するときには、両指でワークを摘む場合と、片指でワークを摘む場合と、両指でワークを掴む場合と、片指でワークを掴む場合の4つの場合しか存在しない。従って、その各場合におけるワークを把持する(摘んだり、掴んだりする)力を予め設定しておけば、4つの力を教示するのみでワークを把持することができる。具体的には、ティーチングペンダント27に、上述した4つの場合のそれぞれに対応したボタンを設けておき、そのボタンを操作することによって、各場合の把持する力を教示する。従って、ロボットハンド14がワークを把持しているときの教示を容易に行うことができる。
例えば、片指でワークを摘む場合には、その場合に対応したボタンを操作する。すると、例えば、第1中間指先部47のパッド91と第1下指先部111のパッド115がワークを把持する力と、第2中間指先部92のパッド94と第2下指先部122のパッド126がワークを把持する力を教示することができる。ワークを把持するときには、各指を駆動するモータ53、62、101は、所定の電流が入力されることによって、所定のトルクを発生する。
In order to grasp the workpiece or release the grasped workpiece, the
As already described, when the
For example, when a workpiece is picked with one finger, a button corresponding to that case is operated. Then, for example, the force by which the
ロボット10は、種々のワークに対して汎用的に用いられる。このため、教示時撮影位置(把持前)や再生時撮影位置(把持前)でカメラ18がワークを撮影するとき、カメラ18とワークの距離が、遠いこともあるし近いこともある。以下においては、カメラ18とワーク160との距離が遠い場合(図31参照)を「遠視時」、カメラ18とワーク160との距離が近い場合(図32参照)を「近視時」と言う。
図33に示すように、遠視時には、カメラ18の視野162にワーク160が小さく撮影される。既に説明したように、カメラ18の視野162には、それに対して固定された座標原点164が設定されている。撮影されたワーク160を画像認識する場合、ワーク160の周囲領域の画像は不要である。そこで、ワーク160よりも僅かに大きい領域163についてのみ画像認識を行う(領域163を切り出す)。領域163を切り出すことにより、画像認識機17が処理する画素数を低減することができる。従って、画像認識機17が画像認識する処理時間が短縮化される。
図34に示すように、近視時には、カメラ18の視野162にワーク160が大きく撮影される。この場合には、視野162の全体の画素数を低減した状態で、ワーク160を画像認識する。ワーク160が大きく撮影されているので、画素数を低減しても、ワーク160の特徴点Gや線分141、142、143等の画像認識に問題は生じない。画素数を低減すると、画像認識機17が画像認識する処理時間が短縮化される。
The
As shown in FIG. 33, the
As shown in FIG. 34, the
図14に示すように、ロボットハンド14がワーク131を把持しているときには、第1下フィンガー部43には、ワーク131の重量Wが下向きに作用している。ワーク131の重量Wによって、第1下フィンガー部43をシャフト104廻りに回動させようとするモーメントが発生する。第1下フィンガー部43が回動すると、ロボットハンド14が開いてしまう。第1上指先部46は、モータ62(図5参照)に駆動され、ワーク131を介して力Fを第1下フィンガー部43に加えている。重量Wによって第1下フィンガー部43が回動しようとするのを、第1上指先部46が加える力Fが阻止している。力FのモーメントアームLが短いほど、力Fは大きくなる。従って、モーメントアームLを小さくすれば、モータ62が発生するトルクが小さくても、ワーク131の重量Wによって第1下フィンガー部43が回動しようとするのを阻止できる。
第1下フィンガー部43と第2下フィンガー部44は、ウォームギア102とウォームホイール103を介して、モータ101によって駆動される(図3、図9参照)。ウォームギア102とウォームホイール103の組合せは、モータ101の出力を第1下フィンガー部43と第2下フィンガー部44に伝達するが、第1下フィンガー部43と第2下フィンガー部44に外力が作用しても、その力はモータ101には伝達されない。第1下フィンガー部43と第2下フィンガー部44に外力が作用してウォームホイール103が回転しようとしても、ウォームギア102が回転しないからである。ウォームギア102とウォームホイール103を用いることによって、第1下フィンガー部43と第2下フィンガー部44に外力が作用した場合に、第1下フィンガー部43と第2下フィンガー部44が回動してしまうのが防止されている。
As shown in FIG. 14, when the
The first
以上、本発明の具体例を詳細に説明したが、これらは例示にすぎず、特許請求の範囲を限定するものではない。特許請求の範囲に記載の技術には、以上に例示した具体例を様々に変形、変更したものが含まれる。
また、本明細書または図面に説明した技術要素は、単独であるいは各種の組合せによって技術的有用性を発揮するものであり、出願時の請求項に記載の組合せに限定されるものではない。また、本明細書または図面に例示した技術は複数目的を同時に達成するものであり、そのうちの一つの目的を達成すること自体で技術的有用性を持つものである。
Specific examples of the present invention have been described in detail above, but these are merely examples and do not limit the scope of the claims. The technology described in the claims includes various modifications and changes of the specific examples illustrated above.
In addition, the technical elements described in the present specification or drawings exhibit technical usefulness alone or in various combinations, and are not limited to the combinations described in the claims at the time of filing. In addition, the technology illustrated in the present specification or the drawings achieves a plurality of objects at the same time, and has technical utility by achieving one of the objects.
10:ロボット
12:アームリンク
14:ロボットハンド
15:カメラ部
16:コントローラ
17:画像認識機
18:カメラ
19:アーム
20:基台
21:第1リンク部材
22:第2リンク部材
23:第3リンク部材
24:第4リンク部材
25:第5リンク部材
26:第6リンク部材
27:ティーチングペンダント
31:第1関節
32:第2関節
33:第3関節
34:第4関節
35:第5関節
36:第6関節
37:第7関節
40:ケーシング
41:第1上フィンガー部
42:第2上フィンガー部
43:第1下フィンガー部
44:第2下フィンガー部
45:第1アクチュエータ
46:第1上指先部
47:第1中間指先部
48:下フィンガー駆動部
50:本体
51:フィンガー
52:ブラケット
53:モータ
54:本体ハウジング
55:第1傘歯車
56:第2傘歯車
57:シャフト
58:ベアリング
59:一端部
60:ベアリング
61:駆動軸
62:モータ
63:フィンガーハウジング
64:第3傘歯車
65、66:ベアリング
67:シャフト
70:駆動軸
71:第4傘歯車
74:ホルダー
75:パッド受け
76:パッド
77:パッド押え
78:スクリュウ
79:凹部
80:凹所
81:内方部
82:軸部
83:外方部
84:切欠き
85:端部
86:凸所
88:第2アクチュエータ
89:第2上指先部
90:ホルダー
91:パッド
92:第2中間指先部
93:ホルダー
94、95:パッド
96:ホルダー
101:モータ
102:ウォームギア
103:ウォームホイール
104:シャフト
106:駆動軸
110:第1下フィンガー
111:第1下指先部
112:一端部
113:他端部
114:ホルダー
115、116:パッド
121:第2下フィンガー
122:第2下指先部
123:一端部
124:他端部
126、127:パッド
128:ホルダー
130、131、133、134、135:ワーク
141、142、143:線分
145:移動経路
150:ベース基準点
152:カメラ基準点位置
155:ワーク
156:カメラ基準点位置
160:ワーク
162:視野
163:領域
164:座標原点
10: Robot 12: Arm link 14: Robot hand 15: Camera unit 16: Controller 17: Image recognizer 18: Camera 19: Arm 20: Base 21: First link member 22: Second link member 23: Third link Member 24: Fourth link member 25: Fifth link member 26: Sixth link member 27: Teaching pendant 31: First joint 32: Second joint 33: Third joint 34: Fourth joint 35: Fifth joint 36: Sixth joint 37: Seventh joint 40: Casing 41: First upper finger part 42: Second upper finger part 43: First lower finger part 44: Second lower finger part 45: First actuator 46: First upper fingertip Part 47: first intermediate fingertip part 48: lower finger drive part 50: main body 51: finger 52: bracket 53: motor 54: main body housing 55: first bevel tooth 56: second bevel gear 57: shaft 58: bearing 59: one end 60: bearing 61: drive shaft 62: motor 63: finger housing 64: third bevel gear 65, 66: bearing 67: shaft 70: drive shaft 71: Fourth bevel gear 74: Holder 75: Pad receiver 76: Pad 77: Pad presser 78: Screw 79: Recess 80: Recess 81: Inner part 82: Shaft part 83: Outer part 84: Notch 85: End part 86: convex portion 88: second actuator 89: second upper fingertip portion 90: holder 91: pad 92: second intermediate fingertip portion 93: holder 94, 95: pad 96: holder 101: motor 102: worm gear 103: worm wheel 104: shaft 106: drive shaft 110: first lower finger 111: first lower fingertip portion 112: one end 113: other end 114 Holders 115 and 116: Pad 121: Second lower finger 122: Second lower fingertip part 123: One end part 124: Other end part 126, 127: Pad 128: Holders 130, 131, 133, 134, 135: Work pieces 141, 142 143: line segment 145: movement path 150: base reference point 152: camera reference point position 155: work 156: camera reference point position 160: work 162: field of view 163: area 164: coordinate origin
Claims (2)
本体に接続されていて本体に対して回動する1対の下回動部と、
本体に接続されていて本体に対して回動する内側部と、その内側部に接続されていて内側部に対して回動する外側部を持つ1対の上回動部と、
コントローラを備えており、
1対の下回動部は1対の上回動部と対向し、
下回動部の先端面と内側部は、回動して接近することによってワークを把持する形状であり、
外側部は、下回動部の先端面と内側部がワークを把持している状態で、回動して下回動部の外側面に接近することによって、下回動部の外側面との間で前記ワークを把持する形状であり、
コントローラは、下回動部と内側部を回動させて下回動部の先端面と内側部の間でワークを把持させ、その状態で外側部を回動させて下回動部の外側面と外側部の間でワークを保持させるとともに、
(a)一方の下回動部の先端面と一方の内側部との間でワークを摘んで把持する場合、
(b)両方の下回動部の先端面と両方の内側部との間でワークを摘んで把持する場合、
(c)一方の下回動部の先端面と一方の内側部との間、及び、一方の下回動部の外側面と一方の外側部との間の計2箇所でワークを掴んで把持する場合、
(d)両方の下回動部の先端面と両方の内側部との間、及び、両方の下回動部の外側面と両方の外側部との間の計4箇所でワークを掴んで把持する場合、の4つの場合に対して、各部がワークを把持する力を予め記憶していることを特徴とするロボットハンド。 The body,
A pair of lower rotating parts connected to the main body and rotating with respect to the main body;
A pair of upper rotating parts having an inner part connected to the main body and rotating relative to the main body, and an outer part connected to the inner part and rotating relative to the inner part;
With a controller,
The pair of lower rotating parts faces the pair of upper rotating parts,
The tip surface and the inner part of the lower rotating part are shaped to grip the workpiece by rotating and approaching,
The outer portion rotates with the outer surface of the lower rotating portion by rotating and approaching the outer surface of the lower rotating portion while the tip surface and the inner portion of the lower rotating portion are gripping the workpiece. It is a shape that grips the work between,
The controller rotates the lower rotating portion and the inner portion to grip the workpiece between the tip surface and the inner portion of the lower rotating portion, and rotates the outer portion in this state to rotate the outer surface of the lower rotating portion. And hold the workpiece between the outer part and
(A) When gripping and gripping a workpiece between the tip surface of one of the lower rotating parts and one inner part,
(B) When gripping and gripping a workpiece between the tip surfaces of both lower rotating parts and both inner parts,
(C) Grasping and gripping a workpiece at a total of two locations between the tip surface of one lower rotation part and one inner part and between the outer surface of one lower rotation part and one outer part If you want to
(D) Grasping and gripping the workpiece at a total of four points between the tip surfaces of both lower rotating parts and both inner parts, and between the outer surface of both lower rotating parts and both outer parts. In this case, the robot hand is characterized in that each part stores in advance a force for gripping a workpiece .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005174531A JP4635729B2 (en) | 2005-06-15 | 2005-06-15 | Robot hand |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005174531A JP4635729B2 (en) | 2005-06-15 | 2005-06-15 | Robot hand |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006346791A JP2006346791A (en) | 2006-12-28 |
JP4635729B2 true JP4635729B2 (en) | 2011-02-23 |
Family
ID=37643161
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005174531A Active JP4635729B2 (en) | 2005-06-15 | 2005-06-15 | Robot hand |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4635729B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5267213B2 (en) * | 2009-03-02 | 2013-08-21 | 株式会社安川電機 | Multi-fingered hand and robot |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS4950967U (en) * | 1972-08-10 | 1974-05-04 | ||
JPS5032927Y1 (en) * | 1970-07-30 | 1975-09-25 | ||
JPS5295801A (en) * | 1976-02-09 | 1977-08-11 | Komatsu Mfg Co Ltd | Machine hand device |
JPS59140189U (en) * | 1983-03-08 | 1984-09-19 | オムロン株式会社 | robot manipulator |
JPH0482683A (en) * | 1990-07-26 | 1992-03-16 | Toyota Motor Corp | Grip control method for robot hand |
JP2001287182A (en) * | 2000-04-04 | 2001-10-16 | Honda Motor Co Ltd | Controller for multi-fingered hand device |
JP2003275984A (en) * | 2001-11-09 | 2003-09-30 | Korea Inst Of Science & Technology | Robot hand and robot hand finger |
JP4406386B2 (en) * | 2005-06-15 | 2010-01-27 | トヨタ自動車株式会社 | Robot hand |
JP4535941B2 (en) * | 2005-06-15 | 2010-09-01 | トヨタ自動車株式会社 | robot |
JP4535942B2 (en) * | 2005-06-15 | 2010-09-01 | トヨタ自動車株式会社 | Robot hand |
-
2005
- 2005-06-15 JP JP2005174531A patent/JP4635729B2/en active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS5032927Y1 (en) * | 1970-07-30 | 1975-09-25 | ||
JPS4950967U (en) * | 1972-08-10 | 1974-05-04 | ||
JPS5295801A (en) * | 1976-02-09 | 1977-08-11 | Komatsu Mfg Co Ltd | Machine hand device |
JPS59140189U (en) * | 1983-03-08 | 1984-09-19 | オムロン株式会社 | robot manipulator |
JPH0482683A (en) * | 1990-07-26 | 1992-03-16 | Toyota Motor Corp | Grip control method for robot hand |
JP2001287182A (en) * | 2000-04-04 | 2001-10-16 | Honda Motor Co Ltd | Controller for multi-fingered hand device |
JP2003275984A (en) * | 2001-11-09 | 2003-09-30 | Korea Inst Of Science & Technology | Robot hand and robot hand finger |
JP4406386B2 (en) * | 2005-06-15 | 2010-01-27 | トヨタ自動車株式会社 | Robot hand |
JP4535941B2 (en) * | 2005-06-15 | 2010-09-01 | トヨタ自動車株式会社 | robot |
JP4535942B2 (en) * | 2005-06-15 | 2010-09-01 | トヨタ自動車株式会社 | Robot hand |
Also Published As
Publication number | Publication date |
---|---|
JP2006346791A (en) | 2006-12-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5114019B2 (en) | Method for controlling the trajectory of an effector | |
US10350768B2 (en) | Control device, robot, and robot system | |
US8645098B2 (en) | Hand-held device and method for detecting the spatial position of a working point of a manipulator | |
JP4001105B2 (en) | Grasping method of arbitrarily shaped object by robot | |
JP2014176940A (en) | Robot system, method for controlling robot and method for manufacturing workpiece | |
JP4535942B2 (en) | Robot hand | |
JP5223407B2 (en) | Redundant robot teaching method | |
US20180085920A1 (en) | Robot control device, robot, and robot system | |
JP2006346790A (en) | Robot, and interference discriminating method and interference discriminating device | |
CN110545965B (en) | Articulated robot and articulated robot system | |
JP6404957B2 (en) | Machining system with a robot that transports workpieces to the processing machine | |
JPH0438553B2 (en) | ||
JP4535941B2 (en) | robot | |
JP4635729B2 (en) | Robot hand | |
JP4406386B2 (en) | Robot hand | |
JP2536338B2 (en) | Robot workpiece gripping mechanism | |
JP7293844B2 (en) | robot | |
JP4640499B2 (en) | Grip control device | |
JP2015066632A (en) | Robot, robot control method, and robot control program | |
JPH03196981A (en) | Additive shaft follow-up control system for robot | |
JP2019089144A (en) | Profiling processor | |
Vollmann et al. | Manipulator control by calibration-free stereo vision | |
JPS643661Y2 (en) | ||
JP2005335010A (en) | Gripping control device | |
JP7568862B2 (en) | ROBOT SYSTEM, CONTROL DEVICE, DIAGNOSIS METHOD, AND DIAGNOSIS PROGRAM |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080213 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20090910 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090915 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20091111 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100601 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100730 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A132 Effective date: 20100824 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100930 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20101026 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20101108 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131203 Year of fee payment: 3 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 4635729 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131203 Year of fee payment: 3 |