JP2006346792A - ロボットとワーク把持方法 - Google Patents
ロボットとワーク把持方法 Download PDFInfo
- Publication number
- JP2006346792A JP2006346792A JP2005174550A JP2005174550A JP2006346792A JP 2006346792 A JP2006346792 A JP 2006346792A JP 2005174550 A JP2005174550 A JP 2005174550A JP 2005174550 A JP2005174550 A JP 2005174550A JP 2006346792 A JP2006346792 A JP 2006346792A
- Authority
- JP
- Japan
- Prior art keywords
- finger
- workpiece
- robot
- camera
- gripping
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 32
- 238000003860 storage Methods 0.000 claims description 15
- 238000012545 processing Methods 0.000 claims description 8
- 238000001514 detection method Methods 0.000 claims description 5
- 238000013459 approach Methods 0.000 claims description 4
- 238000005516 engineering process Methods 0.000 abstract description 4
- 230000004044 response Effects 0.000 abstract 1
- 239000013598 vector Substances 0.000 description 35
- 230000036544 posture Effects 0.000 description 33
- 230000001172 regenerating effect Effects 0.000 description 9
- 230000004379 myopia Effects 0.000 description 6
- 208000001491 myopia Diseases 0.000 description 6
- 206010020675 Hypermetropia Diseases 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 230000004305 hyperopia Effects 0.000 description 4
- 201000006318 hyperopia Diseases 0.000 description 4
- 210000001145 finger joint Anatomy 0.000 description 2
- NJPPVKZQTLUDBO-UHFFFAOYSA-N novaluron Chemical compound C1=C(Cl)C(OC(F)(F)C(OC(F)(F)F)F)=CC=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F NJPPVKZQTLUDBO-UHFFFAOYSA-N 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 244000025254 Cannabis sativa Species 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000005336 cracking Methods 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 230000004438 eyesight Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
Images
Landscapes
- Manipulator (AREA)
Abstract
【解決手段】 ロボットは、ロボットアーム12と、ロボットハンド14と、ティーチングペンダント27と、把持力記憶手段175と、制御手段16を備えている。ロボットハンド14は、本体と、複数のフィンガー対を備えている。ティーチングペンダント27は、ワークを把持するフィンガー対を指定するフィンガー対指定手段を備えている。把持力記憶手段175は、フィンガー対に対応付けてそのフィンガー対による把持力を記憶している。制御手段16は、フィンガー対指定手段によって指定されたフィンガー対に、そのフィンガー対に対応付けて把持力記憶手段175に記憶されている把持力を発揮させる。
【選択図】 図1
Description
ロボットにワーク把持時のロボットハンドの動作を教示するときには、ティーチングペンダントを操作し、フィンガーの関節の軸値(回動角であり、関節角に相当する)を入力している。ロボットの再生動作時には、ロボットハンドのフィンガーの関節が、教示された軸値にまで回動することによってワークを把持する。
本発明は、その問題を解決するためになされたものであり、ティーチングペンダントを用いてワーク把持時のロボットハンドの動作を教示するときに、その操作を簡単に行うことができる技術を実現することを課題とする。
このように構成されていると、ティーチングペンダントのフィンガー対指定手段を用いてワークを把持するフィンガー対を指定するのみで、その指定されたフィンガー対が把持力記憶手段に記憶されている把持力でワークを把持する。よって、ティーチングペンダントを用いてワーク把持時のロボットハンドの動作を教示するときに、その操作を簡単に行うことができる。
ここで、上フィンガー、下フィンガーの「上、下」とは、相対的な位置関係を示しており、実際の上や下を必ずしも意味していない。
このロボットは、下外側部の先端部と上内側部の側部でワークを把持することが可能であるとともに、その状態で上外側部と下外側部の反本体側の側部との間でワークを把持することが可能である。
このように構成されていると、下外側部と上内側部が、把持力記憶手段に記憶している把持力で、ワークを把持することができる。また、下外側部と上外側部が、把持力記憶手段が記憶している把持力でワークを把持することができる。
ロボットハンドに取り付けられているカメラと、カメラが撮影した画像を認識する画像認識手段を備えていることが好ましい。その場合に、軸値検出手段と画像認識手段は制御手段に接続されている。制御手段は、ロボットの再生動作時に、ロボットハンドがワークを把持する前にワークを撮影し、ワークを撮影したときに軸値検出手段で検出された軸値を入力し、撮影時のカメラ位置とカメラ視野内のワーク位置からワークの位置を演算する処理を実行する。
このロボットの制御手段は、ロボットの再生動作時に、ロボットハンドがワークを把持する前にワークを撮影し、ワークを撮影したときに軸値検出手段で検出された軸値を入力し、撮影時のカメラ位置とカメラ視野内のワーク位置からワークの位置を演算する処理を実行する。このため、ロボットアームの各関節の軸値から、ロボットの再生動作時にワークを撮影したときのカメラの位置と姿勢を演算することができる。すなわち、このロボットは、ロボットの再生動作時に、カメラが教示時と異なる位置と姿勢でワークを撮影することが許容される。よって、ロボットの再生動作時に、教示時にカメラがワークを撮影した位置(教示ポイント)よりも内側をロボットハンドが移動できる。ロボットハンドが教示ポイントよりも内側を移動すると、ロボットのサイクルタイムの短縮化が可能になる。
カメラが撮影した画像の内からワークの画像を含む所定領域の画像のみを認識すると、ワークの画像をズームする必要がない。
この場合、カメラが撮影する「ワークの画像」とは、ワーク全体の画像のみならず、ワークの所定部分の画像をも意味する(以下、同じ)。
カメラの受光素子群から一定の空間密度で選択した受光素子群の信号に基づいて画像を認識すると、画像認識手段の負荷を軽減することができる。
このワーク把持方法によれば、ティーチングペンダントを操作してワーク把持時のロボットハンドの動作を教示するときに、その操作を簡単に行うことができる。
(1)ロボットは、ロボットアーム、ロボットハンド、カメラ部、画像認識機、ティーチングペンダント、コントローラを備えている。ロボットアームは、複数のアーム部材が関節によって順に接続されている。ロボットハンドは、ロボットアームの先端に取り付けられている。カメラ部は、カメラと、カメラをロボットハンドに固定するアームを有している。画像認識機は、カメラが撮影した画像を認識する。ティーチングペンダントは、コントローラに接続されており、ロボットに教示するときに用いる。コントローラは、ロボットアームとロボットハンドを制御する。
(2)ロボットハンドは、第1上フィンガー部、ケーシング、第2上フィンガー部、第1下フィンガー部、第2下フィンガー部、下フィンガー駆動部を備えている。各フィンガー部が動作することによって、種々の形状のワークを確実に把持することができる。各フィンガー部には、ワークを把持するときに、ワークと接触するパッドが設けられている。パッドは、ワークに倣って姿勢変化する。
(3)ロボットは、ワークにマーキングされている3本の線分と1つの特徴点を画像認識することによって、ワークの位置と姿勢を演算する。そのときに、ワークを撮影するカメラの位置は、アームリングの軸値に基づいて演算される。このため、ロボットの再生動作時に、カメラは教示時と同じポイントでワークを撮影する必要がない。従って、ロボットハンドは、ロボットの再生動作時に、教示ポイントよりも内回りで移動することができ、サイクルタイムが短縮化されている。
(4)ロボットハンド14がワークを把持するときには、第1フィンガー対と第2フィンガー対で摘む態様と、第1フィンガー対のみで摘む態様と、第2フィンガー対のみで摘む態様と、第1フィンガー対と第2フィンガー対で掴む態様と、第1フィンガー対のみで掴む態様と、第2フィンガー対のみで掴む態様が存在する。そのため、それら6つの態様に対応した把持力を予め設定しておき、それらの各態様を指定可能なボタンをティーチングペンダントに設ける。よって、ロボットハンドの把持力を容易に設定することができる。
(5)画像認識機は、カメラとワークとの距離が遠い場合(遠視時)と、距離が近い場合(近視時)とで、異なる処理を実行する。遠視時には、ワークよりも僅かに大きい領域についてのみ画像認識を行う。近視時には、カメラ視野の全体の画素数を低減した状態(カメラの受光素子群から一定の空間密度で受光素子群を選択した状態)で、画像認識する。このような処理によって、画像認識機の負荷が軽減されている。
(6)ロボットハンドの下フィンガー部と、中間指先部と、上指先部がワークを把持している状態では、上指先部がワークを介して下フィンガー部を押さえることによって、下フィンガー部がワークの重量等によって回動するのが防止されている。
(7)下フィンガー部は、ウォームギアとウォームホイールを介して、モータによって駆動される。ウォームギアは、モータ側に配置されている。ウォームホイールは、下フィンガー側に配置されている。このため、下フィンガー部に外力が作用した場合に、下フィンガー部が回動してしまうのが防止されている。
図1に示すように、ロボット10は、ロボットアーム12、ロボットハンド14、カメラ部15、画像認識機(画像処理手段)17、ティーチングペンダント27、コントローラ16を備えている。
ロボットアーム12は、基台20、第1アーム部材21、第2アーム部材22、第3アーム部材23、第4アーム部材24、第5アーム部材25、第6アーム部材26、第1関節31、第2関節32、第3関節33、第4関節34、第5関節35、第6関節36、第7関節37を有している。基台21と第1アーム部材21は、第1関節31によって接続されている。同様に、第1アーム部材21〜第6アーム部材26も、第2関節32〜第6関節36の各々によって接続されている。第1関節31〜第7関節37は、図示しない駆動機構に駆動されて回動する。ロボットハンド14は、第7関節37によって、第6アーム部材26に接続されている。
カメラ部15は、カメラ18とアーム19を有している。カメラ18は、デジタルカメラであり、アーム19を介してロボットハンド14に固定されている。
画像認識機17は、カメラ18が撮影した画像を認識する。
ティーチングペンダント27は、コントローラ16に接続されており、教示者が操作することによって、ロボット10に種々の教示を行うことができる。コントローラ16は、格納している制御プログラムと、画像認識機17が画像認識したデータと、ティーチングペンダント27から入力された教示内容に基づいて、ロボットアーム12とロボットハンド14を制御する。また、コントローラ16には、把持力記憶手段175が接続されている。
図3に示すように、第1上フィンガー部41は、ケーシング40から突き出すように配置されており、第1フィンガーモジュール45と、第1上指先部46(上外側部)と、第1中間指先部47を有している。
図4に示すように、第1フィンガーモジュール45は、アクチュエータ(上フィンガー用アクチュエータ)50、フィンガー51(上内側部)、ブラケット52から構成されている。
図5に示すように、アクチュエータ50は、モータ53、ハウジング54、第1傘歯車55、ベアリング58、60、シャフト57、第2傘歯車56を備えている。モータ53は、ハウジング54に取り付けられている。第1傘歯車55は、モータ53の駆動軸61に固定されている。ベアリング58、60は、ハウジング54に装着されており、シャフト57を回動可能に支持している。第2傘歯車56は、シャフト57に固定されているとともに、第1傘歯車55と噛み合っている。
アクチュエータ50のモータ53が駆動されると、第1傘歯車55と第2傘歯車56を介してシャフト57が回動することにより、フィンガー51がブラケット52とともに回動する。フィンガー51とブラケット52は、モータ53の駆動軸61の回転方向によって、一方向に回動したり、他方向に回動したりする。フィンガー51のモータ62が駆動されると、第3傘歯車64と第4傘歯車71を介してシャフト67が回動することにより、ブラケット52が回動する。ブラケット52は、モータ62の駆動軸70の回転方向によって、一方向に回動したり、他方向に回動したりする。モータ53とモータ62は、コントローラ16によって制御される。
図7に示すように、パッド押え77の一方側の端部85には切欠き84が設けられている。パッド76の軸部82は、切欠き84を通過している。パッド76の内方部81がパッド押え77の端部85に部分的に覆われることによって、パッド76がホルダー74の凹部79から抜け出すのが禁止されている。
パッド76は、その外方部83に外力が作用すると、図8に示すように、パッド押え77の端部85が変形するとともに、パッド受け75の凹所80とパッド76の内方部81の凸所86が摺動し、姿勢が変化する。
図3に示すように、第1中間指先部47は、ホルダー90とパッド91を有している。ホルダー90は、フィンガーハウジング63に固定されている。パッド91は、第1上指先部46と同様な構成によって、姿勢変化が可能である。
図9に示すように、第2下フィンガー部44は、第2下フィンガー121、第2下指先部122を有している。第2下フィンガー121は、その一端部123が下フィンガー駆動部48のシャフト104に固定されている。第2下指先部122は、第2下フィンガー121の他端部124に取り付けられている。第2下指先部122は、ホルダー128と、ホルダー128に装着されたパッド126、127を有している。パッド126、127は、第1上指先部46と同様の構成によって、姿勢変化が可能である。
下フィンガー駆動部48のモータ101が駆動されると、ウォームギア102とウォームホイール103を介してシャフト104が回動する。シャフト104が回動すると、それに固定されている第1下フィンガー部43と第2下フィンガー部44が一体で回動する。第1下フィンガー部43と第2下フィンガー部44は、モータ101の駆動軸106の回転方向によって、一方向に回動したり、他方向に回動したりする。モータ101は、コントローラ16によって制御される。
図10は、第1上フィンガー部41と第1下フィンガー部43が離反するとともに、第2上フィンガー部42と第2下フィンガー部44が離反した状態(ロボットハンド14が開いた状態)を示している(第2上フィンガー部42と第2下フィンガー部44は、それぞれ第1上フィンガー部41と第2上フィンガー部42の裏に隠れている)。
図11は、第1中間指先部47のパッド91と第1下指先部111のパッド115が対向し、第2中間指先部92のパッド94と第2下指先部122のパッド126が対向した状態で、それらが板状のワーク130を摘んでいる状態を示している(第2中間指先部92等は、第1中間指先部47等の裏に隠れている)(以下、この状態を「第1フィンガー対と第2フィンガー対で摘む」と言う)。
図12は、第1中間指先部47のパッド91と第1下指先部111のパッド115が板状のワーク130を摘んでいる状態を示している。第2上フィンガー部42と第2下フィンガー部44は、離反している(以下、この状態を「第1フィンガー対のみで摘む」と言う)。
図示は省略するが、第2中間指先部92のパッド94と第2下指先部122のパッド126がワーク130を摘み、第1上フィンガー部41と第1下フィンガー部43が離反することもできる(以下、この状態を「第2フィンガー対のみで摘む」と言う)。
図14は、第1中間指先部47のパッド91と第1下指先部111のパッド115が対向し、第1上指先部46のパッド76と第1下指先部111のパッド116が対向し、それらが断面がL字状のワーク131を掴んでいる状態を示している。第2上フィンガー部42と第2下フィンガー部44は離反している(以下、この状態を「第1フィンガー対のみで掴む」と言う)。
図示は省略するが、第2中間指先部92のパッド94と第2下指先部122のパッド126、第2上指先部89のパッド95と第2下指先部122のパッド127が対向し、それらがワーク131を掴んでいる状態で、第1上フィンガー部41と第1下フィンガー部43が離反することもできる(以下、この状態を「第2フィンガー対のみで掴む」と言う)。
以下においては、特に必要がない限り、ロボットハンド14がワークを摘んでいる状態と、ワークを掴んでいる状態を、「把持」と記載する。
上フィンガー部と下フィンガー部は、本実施例のように2組(第1上フィンガー部41、第2上フィンガー部42、第1下フィンガー部43、第2下フィンガー部44)であることに限られない。上フィンガー部と下フィンガー部が3組以上であっても、本発明の技術を好適に適用することができる。
図15に示すように、ロボットハンド14が平板状のワーク133を把持する場合、パッド91、94、115、126は、中立位置(図6に示す位置)で、ワーク133に当接する。
図16に示すように、ロボットハンド14が曲面状のワーク134を把持する場合、パッド91、94、115、126は、ワーク134の形状に倣うように姿勢変化(傾く)する。よって、ロボットハンド14は、ワーク134を確実に把持する。
図17に示すように、ロボットハンド14が、面同士が傾斜しているワーク135を把持する場合でも、パッド91、115が姿勢変化してワーク135の形状に倣う。従って、ワーク135はロボットハンド14によって確実に把持される。
パッド76、91、94、95、115、116、126、127を設けず、ホルダー74、90、93、96、114、128が直接ワークを把持するように構成することもできる。
以下においては、特に必要がない限り、ロボット10における、動作の制御、ワークの画像認識、動作の教示に係る説明を行うときに、それらがそれぞれコントローラ16、画像認識機17、ティーチングペンダント27によって実行されることについて、記載を省略する。
ロボットハンド14は、移動経路145やワークの把持やセットに係る動作等を教示された後に、教示されたように、待機位置から移動して置き台に置かれているワークを把持し、ワークを把持した状態でセット対象(例えば、治具。以下、セット対象を「治具」と記載する)まで移動してからワークを治具にセットし、さらに待機位置に戻る一連の動作を実行する。以下においては、教示されたように動作することを「再生」と言う。ロボットハンド14は、ロボットの再生動作時に、移動経路145に沿って移動する。待機位置は、例えば、TP1に相当する。ワークを把持する位置は、例えば、TP5に相当する。
図18から明らかなように、ロボットハンド14は、移動する途中で、教示ポイントTP2、TP3、TP4を通過しない。ロボットハンド14は、教示された教示ポイントTP2、TP3、TP4よりも内回りな移動経路145に沿って移動する。このため、ロボット10のサイクルタイム(移動経路145に沿って把持位置まで移動してワークを把持し、さらに移動してワークを治具にセットしてから待機位置に戻る時間)が短縮化されている。
ロボットハンド14が教示ポイントよりも内回りの経路を移動すると、ロボットハンド14は、ロボットの再生動作時に、教示時撮影位置(把持前)と教示時撮影位置(把持後)を通過しない。このため、教示時撮影位置(把持前)と教示時撮影位置(把持後)を中心とする所定径の球を空間上に設定しておき、その球にロボットハンド14の基準点が入り込むと、それぞれの位置でカメラ18を用いてワークを撮影する。前者の位置をロボットの再生動作時撮影位置(把持前)、後者の位置をロボットの再生動作時撮影位置(把持後)とする。つまり、教示時撮影位置(把持前)とロボットの再生動作時撮影位置(把持前)と、教示時撮影位置(把持後)とロボットの再生動作時撮影位置(把持後)は、一致しない。
テーキンによって線分141、142、143をマーキングする場合、それらが交わっていると、その交点を起点としてクラックが入ることがある。線分141、142、143を交わらせないことによって、ワーク140にクラックが入るのが防止されている。
図19では、特徴点Gは、図示明瞭化のため「×」を正方形が囲む形状に図示されているが、実際には「×」のみがマーキングされている。
これらの要因から、教示時とロボットの再生動作時とで、画像認識によって把握されるワークの位置や姿勢が異なってくる。
ロボットの再生動作時に、カメラ18が撮影したワーク140の画像を認識するときには、ワーク140の特徴点Ga(以下においては、ロボットの再生動作時に画像認識された特徴点を「Ga」、教示時に画像認識された特徴点を「G」と記載する)を探索する。図21は、特徴点Gaが探索された状態を図示している。特徴点Gaが探索されたことによって、そのx軸座標とy軸座標(xa、ya)を求める(演算する)ことができる。
そして、画像認識結果から、ベクトルの向きが異なる線分を探索する。図22は、線分141、142、143がベクトルの向きが異なる線分として探索された状態を示している。
図23に示すように、探索された線分141、142、143を延長することによって、頂点「S、T、U」を持つ三角形(以下「三角形STU」と言う)を設定する。そして、頂点「S、T、U」の各位置座標「S(xS、yS)、T(xT、yT)、U(xU、yU)」を求める。
△G=(x0−xa、y0−ya);
なお、図24に示す頂点「s、t、u」を有する三角形(以下「三角形stu」と言う)は、教示時に画像認識された線分141、142、143を延長することによって得られたものである。従って、三角形stuの頂点「s、t、u」の各位置座標「s(xs,ys),t(xt,yt),u(xu,yu)」は既知である。
図25に示すように、ロボットの再生動作時の特徴点Gaと教示時の特徴点Gを合致させた状態で、ロボットの再生動作時に画像認識された三角形STUと、教示時に画像認識された三角形stuがなす角度「θaz」を、下式によって求める。
θaz=arctan(F)−arctan(G);
F=(yt−ys)/(xt−xs);
G=(yT−yS)/(xT−xS);
なお、教示時に、特徴点Gのz軸方向の位置座標「z0」は、予めインプットされている。このため、「z0」と、図27に示す状態における三角形stuと三角形STUの大きさの比から、ロボットの再生動作時の特徴点Gaのz軸方向の位置座標「za」が求まる。
以上から、ワーク140の位置と姿勢が(xa、ya、za、θax、θay、θaz)として求まる。(xa、ya、za、θax、θay、θaz)は、6次元のベクトルとして表すことができ、後述する「ベクトルF1」に相当する。
2台のカメラ(ステレオカメラ)でワークを撮影することにより、ロボットの再生動作時の特徴点Gaの位置座標「za」を求めることもできる。このようにすると、教示時に特徴点Gの位置座標「z0」をインプットする必要がなくなる。
特徴点G、Gaをマーキングしなくてもよい。特徴点G、Gaをマーキングしなくても、線分の交点(例えば、頂点Sや頂点s)を特徴点として利用することができる。
マーキングする線分は、2本のみであってもよい。例えば、線分141と線分143から略V字状の図形を形成し、その図形からワーク140の姿勢を求めてもよい。
ワークが曲面状であっても、マーキングする線分を短くすることによって、ワークが姿勢変化しても、その線分を実質的に直線として画像認識することができる。
図28に示すように、ロボットハンド14がワーク155に向かって移動するべき位置を求めるときには、ベクトルR0、R1、F0、F1、A、T1を用いる。ベクトルR0、R1、F0、F1、A、T1は、絶対空間座標系に対して設定されている。ベクトルR0は、基台20内に設定されているベース基準点150から教示時撮影位置(把持前)でのカメラ18のカメラ基準点位置152に延びている。ベクトルR1は、ベース基準点150からロボットの再生動作時撮影位置(把持前)でのカメラ18のカメラ基準点位置156に延びている。ベクトルR0とベクトルR1は、関節31〜37の軸値(回動角度)に基づいてカメラ基準点位置152、156を演算することによって求められる。
ベクトルF0は、教示時に、教示時撮影位置(把持前)でワーク155を画像認識した結果から教示されたものであり、カメラ基準点位置152から教示時のワーク155に向かって延びている。ベクトルF0は、ワークの位置と姿勢(x0、y0、z0、θ0x、θ0y、θ0z)に係る情報を持つ6次元のベクトルである。
ベクトルF1は、ロボットの再生動作時に、ロボットの再生動作時撮影位置(把持前)でワーク155を画像認識することによって演算されたものであり、カメラ基準点位置156からロボットの再生動作時のワーク155に向かって延びている。ベクトルF1は、ワークの位置と姿勢(xa、ya、za、θax、θay、θaz)に係る情報を持つ6次元のベクトルである。
A=(R1−R0)+(F1−F0);
従って、ベース基準点150からロボットの再生動作時のワーク155に延びるベクトルT1は次式から求まる。
T1=R0+F0+A;
ロボットハンド14は、ベクトルT1に基づいて移動し、ワーク155を把持する。ロボットハンド14は、ワーク155を把持するときに、認識しているワーク155の姿勢を用いて、教示されたときと同じようにワーク155把持する。従って、ワーク155は、通常と異なる位置や姿勢で置き台に置かれていても、常に同じ部分が、ロボットハンド14によって把持される。
それに対して、従来の技術では、ロボットハンド14が、ロボットの再生動作時に教示時撮影位置(把持前)152で停止するか、その位置を通過する必要がある。以下、その従来技術について説明する。
図29に示すように、従来技術においては、ロボットハンド14がワーク155に向かって移動するべき位置を求めるときに、ベクトルR、F、A、Tを用いる。ベクトルRは、ベース基準点150から教示時撮影位置(把持前)でのカメラ基準点位置152に延びている。ベクトルFは、教示時に、カメラ基準点位置152でワークを画像認識することによって教示されたものであり、カメラ基準点位置152から教示時のワークに向かって延びている。ベクトルFは、6次元のベクトルであり、ワークの位置と姿勢に係る情報を持っている。
T=R+F+A;
ロボットハンド14は、ベクトルTに従って移動し、ワーク155を把持する。
この従来技術は、ロボットの再生動作時に、ロボットハンド14が教示時撮影位置(把持前)に位置しているときに、カメラ18で撮影することによってワーク155を画像認識し、ワーク155の位置と姿勢を把握しなければならない。ロボットハンド14が、ロボットの再生動作時に教示時撮影位置(把持前)に位置していないと、教示時とロボットの再生動作時におけるワークの位置と姿勢の差であるベクトルAを求めることができないからである。
よって、従来技術では、ロボットハンド14が、ロボットの再生動作時に教示時撮影位置(把持前)152で停止するか、その位置を通過する必要がある。このためロボットハンド14が内回りの経路を移動することができず、サイクルタイムが長くなってしまう。
S20では、ロボットハンド14がワークに向かって移動するときと、ロボットハンド14がワークを把持するときに、ロボットハンド14の空間領域が周辺物体と干渉するか否かを判別する。ロボットハンド14の空間領域とは、ロボットハンド14を包含する3次元的な所定の空間領域であり、予め設定されている。ロボットハンド14の空間領域は、例えば、球として設定することができる。周辺物体の位置と形状は、予め定義されている。従って、ロボットハンド14の空間領域と周辺物体との3次元空間上の位置関係を演算することによって、それらが干渉するか否かを判別することができる。
S26では、ロボットハンド14をワークに向かって移動させ、ワークを把持する。そして、S28では、ワークを把持した状態のロボットハンド14を、治具に向かって移動させる。
S30では、ロボットの再生動作時撮影位置(把持後)を通過したときに、カメラ18で撮影することによって、ワークを画像認識する。次のS32では、画像認識結果から把持しているワークの位置と姿勢を把握し、その位置と姿勢からロボットハンド14が治具に向かって移動する経路を求める。既に説明したように、ロボットハンド14は、ワークが通常と異なる位置や姿勢で置き台に置かれていても、常にワークの同じ部分を把持する。しかしながら、ワークは、その後に把持されたままズレてしまうことがある。ワークがズレていると、S30を実行することによってそのズレが把握される。
一方、S34で、ロボットハンド14とワークの空間領域が、周辺物体と干渉しないと判別した場合(NOの場合)には、S36に移行する。S36では、ロボットハンド14を治具に向かって移動させ、ワークを治具にセットする。そして、ワークセット処理S10を終了する。
既に説明したように、ロボットハンド14がワークを把持するときには、第1フィンガー対と第2フィンガー対で摘む態様と、第1フィンガー対のみで摘む態様と、第2フィンガー対のみで摘む態様と、第1フィンガー対と第2フィンガー対で掴む態様と、第1フィンガー対のみで掴む態様と、第2フィンガー対のみで掴む態様が存在する。従って、その各態様に対応したワークを把持する(摘んだり、掴んだりする)力を予め設定しておけば、その態様のいずれを実行するかを教示するのみで、それらに対応した力でワークを把持することができる。
図36に示すように、把持力記憶手段175には、フィンガー対がワークを把持する態様毎に対応したワーク把持力が記憶されている。例えば、第1フィンガー対のみでワークを摘む(パッド91とパッド115で摘む)ときの力(把持力)は、4kgである。第1フィンガー対のみでワークを掴むときは、摘む力が4kg、掴む(パッド76とパッド116で掴む)ときの力は1kgである。第1フィンガー対と第2フィンガー対の双方でワークを摘むときには、第1フィンガー対でワークを摘む力が2kgであり、第2フィンガー対でワークを摘む力が3kgである。第1フィンガー対と第2フィンガー対の双方でワークを掴むときには、第1フィンガー対でワークを摘む力が2kgであり、第2フィンガー対でワークを摘む力が3kgであり、第1フィンガー対でワークを掴む力が3kgであり、第2フィンガー対でワークを掴む力が4kgである。フィンガー対でワークを掴む場合に、そのフィンガー対でワークを摘む力を変更することもできる。例えば、第1フィンガー対のみでワークを摘むときには、摘む力を4kgとしておき、掴むときには、摘む力が5kg、掴む力が1kgでワークを掴む。
フィンガー対を決定してから、摘む/掴む選定ボタン172を押す。摘む/掴む選定ボタン172を押す毎に、「摘む」→「掴む」が順に繰り返し表示される。「摘む」あるいは「掴む」が表示されたときに摘む/掴む決定ボタン174を押すことにより、ワークを摘むか、掴むかが決定される。例えば、第1フィンガー対と第2フィンガー対の双方でワークを把持することが決定されている状態で、掴むが表示されているときに摘む/掴む決定ボタン174を押すと、第1フィンガー対と第2フィンガー対の双方でワークを掴む態様が決定される。
コントローラ16は、ティーチングペンダント27からフィンガー対でワークを把持する態様が教示されると、その態様に対応した把持力を把持力記憶手段175から選ぶ。そしてコントローラは、その選んだ把持力でワークを把持するように、ロボットハンド14を制御する。例えば、第2フィンガー対のみでワークを把持するとともに、ワークを掴むが選定されている場合には、第2フィンガー対で5kgの力でワークを摘み、かつ3kgの力でワークを掴むようにロボットハンド14が制御される。
ワークを把持するときには、各指を駆動するモータ53、62、101は、所定の電流が入力されて所定のトルクを発生し、それによって把持力が定まる。
図33に示すように、遠視時には、カメラ18の視野162にワーク160が小さく撮影される。既に説明したように、カメラ18の視野162には、それに対して固定された座標原点164が設定されている。撮影されたワーク160を画像認識する場合、ワーク160の周囲領域の画像は不要である。そこで、ワーク160よりも僅かに大きい領域163についてのみ画像認識を行う(領域163を切り出す)。領域163を切り出すことにより、画像認識機17が処理する画素数を低減することができる。従って、画像認識機17が画像認識する処理時間が短縮化される(画像認識機17の負荷が低減される)。また、画像をズームする必要もない。
図34に示すように、近視時には、カメラ18の視野162にワーク160が大きく撮影される。この場合には、視野162の全体の画素数を低減した状態で、ワーク160を画像認識する。ワーク160が大きく撮影されているので、画素数を低減しても、ワーク160の特徴点Gや線分141、142、143等の画像認識に問題は生じない。画素数を低減すると、画像認識機17が画像認識する処理時間が短縮化される。
第1下フィンガー部43と第2下フィンガー部44は、ウォームギア102とウォームホイール103を介して、モータ101によって駆動される(図3、図9参照)。ウォームギア102とウォームホイール103の組合せは、モータ101の出力を第1下フィンガー部43と第2下フィンガー部44に伝達するが、第1下フィンガー部43と第2下フィンガー部44に外力が作用しても、その力はモータ101には伝達されない。第1下フィンガー部43と第2下フィンガー部44に外力が作用してウォームホイール103が回転しようとしても、ウォームギア102が回転しないからである。ウォームギア102とウォームホイール103を用いることによって、第1下フィンガー部43と第2下フィンガー部44に外力が作用した場合に、第1下フィンガー部43と第2下フィンガー部44が回動してしまうのが防止されている。
また、本明細書または図面に説明した技術要素は、単独であるいは各種の組合せによって技術的有用性を発揮するものであり、出願時の請求項に記載の組合せに限定されるものではない。また、本明細書または図面に例示した技術は複数目的を同時に達成するものであり、そのうちの一つの目的を達成すること自体で技術的有用性を持つものである。
12:ロボットアーム
14:ロボットハンド
15:カメラ部
16:コントローラ
17:画像認識機
18:カメラ
19:アーム
20:基台
21:第1アーム部材
22:第2アーム部材
23:第3アーム部材
24:第4アーム部材
25:第5アーム部材
26:第6アーム部材
27:ティーチングペンダント
31:第1関節
32:第2関節
33:第3関節
34:第4関節
35:第5関節
36:第6関節
37:第7関節
40:ケーシング
41:第1上フィンガー部
42:第2上フィンガー部
43:第1下フィンガー部
44:第2下フィンガー部
45:第1フィンガーモジュール
46:第1上指先部
47:第1中間指先部
48:下フィンガー駆動部
50:アクチュエータ
51:フィンガー
52:ブラケット
53:モータ
54:ハウジング
55:第1傘歯車
56:第2傘歯車
57:シャフト
58:ベアリング
59:一端部
60:ベアリング
61:駆動軸
62:モータ
63:フィンガーハウジング
64:第3傘歯車
65、66:ベアリング
67:シャフト
70:駆動軸
71:第4傘歯車
74:ホルダー
75:パッド受け
76:パッド
77:パッド押え
78:スクリュウ
79:凹部
80:凹所
81:内方部
82:軸部
83:外方部
84:切欠き
85:端部
86:凸所
88:第2フィンガーモジュール
89:第2上指先部
90:ホルダー
91:パッド
92:第2中間指先部
93:ホルダー
94、95:パッド
96:ホルダー
101:モータ
102:ウォームギア
103:ウォームホイール
104:シャフト
106:駆動軸
110:第1下フィンガー
111:第1下指先部
112:一端部
113:他端部
114:ホルダー
115、116:パッド
121:第2下フィンガー
122:第2下指先部
123:一端部
124:他端部
126、127:パッド
128:ホルダー
130、131、133、134、135:ワーク
141、142、143:線分
145:移動経路
150:ベース基準点
152:カメラ基準点位置
155:ワーク
156:カメラ基準点位置
160:ワーク
162:視野
163:領域
164:座標原点
170:表示器
171:フィンガー対選定ボタン
172:摘む/掴む選定ボタン
173:フィンガー対決定ボタン
174:摘む/掴む決定ボタン
175:把持力記憶手段
Claims (7)
- ロボットアームと、ロボットハンドと、ティーチングペンダントと、把持力記憶手段と、制御手段を備えており、
ロボットアームは、関節を介して順に接続されている複数のアーム部材を備えており、
ロボットハンドは、ロボットアームの先端に取り付けられている本体と、複数のフィンガー対を備えており、各フィンガー対は、本体に対して回動する下フィンガーと、本体に対して下フィンガーの回動面内で回動して下フィンガーとの間でワークを把持する上フィンガーと、各下フィンガーを本体に対して回動させる下フィンガー用アクチュエータと、各上フィンガーを本体に対して回動させる上フィンガー用アクチュエータを備えており、
ティーチングペンダントは、ワークを把持するフィンガー対を指定するフィンガー対指定手段を備えており、
把持力記憶手段は、フィンガー対に対応付けてそのフィンガー対による把持力を記憶しており、
制御手段は、フィンガー対指定手段によって指定されたフィンガー対に、そのフィンガー対に対応付けて把持力記憶手段に記憶されている把持力を発揮させることを特徴とするロボット。 - 各下フィンガーは、一端が本体に対して回動可能に接続されている下内側部と、下内側部の他端から上フィンガー側に向かって延びている下外側部を備えており、
各上フィンガーは、一端が本体に対して回動可能に接続されている上内側部と、その上内側部の他端において上内側部に対して回動可能に接続されている上外側部と、上外側部を上内側部に対して回動させる上外側部用アクチュエータを備えており、
下内側部と上内側部が接近する側に回動すると、下外側部の先端部と上内側部の側部が接近することによってそれらの間でワークを把持することが可能であり、
上外側部は、下外側部の先端部と上内側部の側部の間でワークを把持している状態で回動して下外側部に接近することによって、下外側部の反本体側の側部との間でワークを把持することが可能であり、
ティーチングペンダントは、フィンガー対指定手段の他に、下外側部と上外側部による把持の有無を指定する把持態様指定手段を備えていることを特徴とする請求項1のロボット。 - 把持力記憶手段は、フィンガー対に対応付けて、下外側部と上内側部による把持力と、下外側部と上外側部による把持力を記憶していることを特徴とする請求項2のロボット。
- ロボットアームの各関節の軸値を検出する軸値検出手段と、
ロボットハンドに取り付けられているカメラと、
カメラが撮影した画像を認識する画像認識手段を備えており、
軸値検出手段と画像認識手段は制御手段に接続されており、
制御手段は、ロボットの再生動作時に、ロボットハンドがワークを把持する前にワークを撮影し、ワークを撮影したときに軸値検出手段で検出された軸値を入力し、撮影時のカメラ位置とカメラ視野内のワーク位置からワークの位置を演算する処理を実行することを特徴とする請求項1から3のいずれかのロボット。 - ロボットハンドに取り付けられているカメラと、
カメラが撮影した画像を認識する画像認識手段を備えており、
カメラ視野内に占めるワーク画像の面積が所定値以下である場合に、カメラが撮影した画像の内からワーク画像を含む所定領域の画像のみを認識することを特徴とする請求項1から4のいずれかのロボット。 - ロボットハンドに取り付けられており、受光部に設けられた複数の受光素子が受光することによって撮影するカメラと、
カメラが撮影した画像を認識する画像認識手段を備えており、
カメラ視野内に占めるワーク画像の画素数が特定値以上である場合に、カメラの受光素子群から一定の空間密度で選択した受光素子群の信号に基づいて画像を認識することを特徴とする請求項1から5のいずれかのロボット。 - ロボットアームの先端に取り付けられている本体と、複数のフィンガー対を備えており、各フィンガー対は、本体に対して回動する下フィンガーと、本体に対して下フィンガーの回動面内で回動して下フィンガーとの間でワークを把持する上フィンガーと、各下フィンガーを本体に対して回動させる下フィンガー用アクチュエータと、各上フィンガーを本体に対して回動させる上フィンガー用アクチュエータを備えているロボットハンドでワークを把持する方法であり、
フィンガー対に対応付けてそのフィンガー対による把持力を記憶しておく工程と、
ティーチングペンダントを用いて、ワークを把持するフィンガー対を指定する工程と、
ロボットの再生動作時に、フィンガー対指定工程で指定されたフィンガー対に、そのフィンガー対に対応付けて記憶されている把持力を発揮させる工程と、
を備えていることを特徴とするロボットによるワーク把持方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005174550A JP4535941B2 (ja) | 2005-06-15 | 2005-06-15 | ロボット |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005174550A JP4535941B2 (ja) | 2005-06-15 | 2005-06-15 | ロボット |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006346792A true JP2006346792A (ja) | 2006-12-28 |
JP4535941B2 JP4535941B2 (ja) | 2010-09-01 |
Family
ID=37643162
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005174550A Active JP4535941B2 (ja) | 2005-06-15 | 2005-06-15 | ロボット |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4535941B2 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3025158A2 (de) * | 2013-07-26 | 2016-06-01 | Roche Diagnostics GmbH | Verfahren zum handhaben eines probenröhrchens und vorrichtung zum handhaben |
JP2020151837A (ja) * | 2019-03-22 | 2020-09-24 | 株式会社デンソーウェーブ | ロボット及びハンドの制御装置 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4635729B2 (ja) * | 2005-06-15 | 2011-02-23 | トヨタ自動車株式会社 | ロボットハンド |
Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS60138686U (ja) * | 1985-01-04 | 1985-09-13 | フアナツク株式会社 | 工業用ロボツトのハンド |
JPS6162904A (ja) * | 1984-09-05 | 1986-03-31 | Toshiba Corp | 自動機械装置 |
JPS63191589A (ja) * | 1987-02-05 | 1988-08-09 | 関東自動車工業株式会社 | 部品取付け方法 |
JPS63235185A (ja) * | 1987-03-25 | 1988-09-30 | Mazda Motor Corp | 組立ラインにおける加工物位置検出方法 |
JPH01134573A (ja) * | 1987-11-19 | 1989-05-26 | Kawasaki Heavy Ind Ltd | 画像処理方法 |
JPH01289696A (ja) * | 1988-05-18 | 1989-11-21 | Fanuc Ltd | 視覚センサシステムにおける画像処理方式 |
JPH04183590A (ja) * | 1990-11-16 | 1992-06-30 | Mitsubishi Electric Corp | 把持装置 |
JPH0679678A (ja) * | 1992-08-28 | 1994-03-22 | Toshiba Corp | 基板保持装置 |
JPH06119022A (ja) * | 1992-10-02 | 1994-04-28 | Canon Inc | ロボットの可動部の制御方法及び制御装置 |
JP2001315079A (ja) * | 2000-05-01 | 2001-11-13 | Ueda Japan Radio Co Ltd | 試験管搬送装置 |
JP2002166383A (ja) * | 2000-11-29 | 2002-06-11 | Mitsubishi Heavy Ind Ltd | ロボットアーム機構の触覚システム |
JP2002264066A (ja) * | 2001-03-09 | 2002-09-18 | Mitsubishi Heavy Ind Ltd | ロボットハンドによる把持方法及び把持機構 |
JP2004050378A (ja) * | 2002-07-23 | 2004-02-19 | Mitsubishi Heavy Ind Ltd | ロボットハンド |
JP2005088147A (ja) * | 2003-09-18 | 2005-04-07 | Hironobu Inoue | ハンド装置 |
-
2005
- 2005-06-15 JP JP2005174550A patent/JP4535941B2/ja active Active
Patent Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6162904A (ja) * | 1984-09-05 | 1986-03-31 | Toshiba Corp | 自動機械装置 |
JPS60138686U (ja) * | 1985-01-04 | 1985-09-13 | フアナツク株式会社 | 工業用ロボツトのハンド |
JPS63191589A (ja) * | 1987-02-05 | 1988-08-09 | 関東自動車工業株式会社 | 部品取付け方法 |
JPS63235185A (ja) * | 1987-03-25 | 1988-09-30 | Mazda Motor Corp | 組立ラインにおける加工物位置検出方法 |
JPH01134573A (ja) * | 1987-11-19 | 1989-05-26 | Kawasaki Heavy Ind Ltd | 画像処理方法 |
JPH01289696A (ja) * | 1988-05-18 | 1989-11-21 | Fanuc Ltd | 視覚センサシステムにおける画像処理方式 |
JPH04183590A (ja) * | 1990-11-16 | 1992-06-30 | Mitsubishi Electric Corp | 把持装置 |
JPH0679678A (ja) * | 1992-08-28 | 1994-03-22 | Toshiba Corp | 基板保持装置 |
JPH06119022A (ja) * | 1992-10-02 | 1994-04-28 | Canon Inc | ロボットの可動部の制御方法及び制御装置 |
JP2001315079A (ja) * | 2000-05-01 | 2001-11-13 | Ueda Japan Radio Co Ltd | 試験管搬送装置 |
JP2002166383A (ja) * | 2000-11-29 | 2002-06-11 | Mitsubishi Heavy Ind Ltd | ロボットアーム機構の触覚システム |
JP2002264066A (ja) * | 2001-03-09 | 2002-09-18 | Mitsubishi Heavy Ind Ltd | ロボットハンドによる把持方法及び把持機構 |
JP2004050378A (ja) * | 2002-07-23 | 2004-02-19 | Mitsubishi Heavy Ind Ltd | ロボットハンド |
JP2005088147A (ja) * | 2003-09-18 | 2005-04-07 | Hironobu Inoue | ハンド装置 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3025158A2 (de) * | 2013-07-26 | 2016-06-01 | Roche Diagnostics GmbH | Verfahren zum handhaben eines probenröhrchens und vorrichtung zum handhaben |
JP2020151837A (ja) * | 2019-03-22 | 2020-09-24 | 株式会社デンソーウェーブ | ロボット及びハンドの制御装置 |
JP7238523B2 (ja) | 2019-03-22 | 2023-03-14 | 株式会社デンソーウェーブ | ロボット及びハンドの制御装置 |
Also Published As
Publication number | Publication date |
---|---|
JP4535941B2 (ja) | 2010-09-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11090814B2 (en) | Robot control method | |
JP7490349B2 (ja) | 入力装置、入力装置の制御方法、ロボットシステム、ロボットシステムを用いた物品の製造方法、制御プログラム及び記録媒体 | |
US11173601B2 (en) | Teaching device for performing robot teaching operations and teaching method | |
JP4844453B2 (ja) | ロボットの教示装置及び教示方法 | |
JP6450960B2 (ja) | ロボット、ロボットシステム及び教示方法 | |
JP4001105B2 (ja) | ロボットによる任意形状物体の把持方法 | |
US20140277720A1 (en) | Robot system, method for controlling robot, and method for producing to-be-processed material | |
JP2000288974A (ja) | 画像処理機能を持つロボット装置 | |
JP4535942B2 (ja) | ロボットハンド | |
JP2016187846A (ja) | ロボット、ロボット制御装置およびロボットシステム | |
JP2018167334A (ja) | 教示装置および教示方法 | |
US20180085920A1 (en) | Robot control device, robot, and robot system | |
JP5729226B2 (ja) | ロボットの位置姿勢補間方法及びロボットの制御装置 | |
JP2006346790A (ja) | ロボットと干渉判別方法と干渉判別装置 | |
JP4535941B2 (ja) | ロボット | |
CN113165187A (zh) | 图像信息处理装置、把持系统以及图像信息处理方法 | |
JP2008168372A (ja) | ロボット装置及び形状認識方法 | |
JP2020138294A (ja) | ロボットシステム | |
JP4406386B2 (ja) | ロボットハンド | |
JP4635729B2 (ja) | ロボットハンド | |
JP6158665B2 (ja) | ロボット、ロボット制御方法、およびロボット制御プログラム | |
US20220331972A1 (en) | Robot Image Display Method, Recording Medium, And Robot Image Display System | |
Vollmann et al. | Manipulator control by calibration-free stereo vision | |
JPS62226308A (ja) | 視覚センサを有するロボツトの制御方式 | |
JPS643661Y2 (ja) |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080301 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20091021 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20091027 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20091211 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100608 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100615 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130625 Year of fee payment: 3 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 4535941 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |