JPS62106503A - ロボツトの組付動作補正方法 - Google Patents

ロボツトの組付動作補正方法

Info

Publication number
JPS62106503A
JPS62106503A JP24632485A JP24632485A JPS62106503A JP S62106503 A JPS62106503 A JP S62106503A JP 24632485 A JP24632485 A JP 24632485A JP 24632485 A JP24632485 A JP 24632485A JP S62106503 A JPS62106503 A JP S62106503A
Authority
JP
Japan
Prior art keywords
robot
work
assembled
picture
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP24632485A
Other languages
English (en)
Inventor
Yukihiko Mishima
三嶋 幸彦
Takashi Matsuzaki
松崎 尚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP24632485A priority Critical patent/JPS62106503A/ja
Publication of JPS62106503A publication Critical patent/JPS62106503A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Automatic Assembly (AREA)
  • Numerical Control (AREA)
  • Manipulator (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 〔産業上の利用分野〕 この発明は、産業用ロボツ1−の手首部に取りイ」けた
二次元の撮像手段の撮像データレこよって組付動作の補
正を行なう方法に関する。
〔従来の技術〕
近時、各種製造業分野では産業用ロボット(以下単に「
ロボット」と云う)による作業の自動化。
省力化が盛んである。
ところで、現在使用されているロボットは、基本的には
予めティーチングしたとおりのプレイバック動作しか出
来ないため、製造ラインへの投入には種々の工夫を施す
必要がある。
例えば、ロボットにワークの組付作業を行なわせる場合
、ロボットが把持したワークとそのワーク組付対象物と
の間の相対位置関係が常にティーチング時の正規の関係
にないと、その組付作業が出来ないことになる。
そこで、従来はロボットが把持したワークとワーク組付
対象物とが常に正確に位置決めされる工夫を行なってき
たが、近時ITV、二次元CCDカメラなどの二次元の
撮像手段の発達と画像処理技術の進歩により、ロボット
に所謂視i機能を持たせて、ロボツ1〜自身が把持した
ワークとワーク絹(=t l!、f原物との相対位置関
係を認識して、ティーチングに鳩づく組付動作を補正す
る機能を持たせる。二とが試みられている。
〔発明が解決しようとする問題点〕
しかしながら、このような近U、¥′の試みでは、ワー
ク組付対象物における複数の被組付作業部(例えば、ワ
ーク組付用ネジ挿入穴)を全て二次元の撮像手段の一画
面に収める形で撮像して、各被組付作業部の画面座標上
での重心位置を求め、それによってワークとワーク組イ
・]対象物との間の相対位置関係を含む各種の補正演算
に供していたが、ワークの大きさに比較して被組付作業
部が小さく。
しかも、各波相付作業部間の距離が長い場合には、求め
る重心位置の位置精度が作業に必要な位置決め精度に満
たなくなるという問題があった。
例えば、ワークの大きさが縦400m横400mで、2
つのネジ挿入穴がワークの左端及び右端に離れてあった
とし、カメラの受光素子が200X200画素とすれば
、精度は2mとなり、要求精度ll1I11以下が満た
されない。
この発明は、このような問題を解決しようとするもので
ある。
〔問題点を解決するための手段〕
そこで、この発明によるロボットの組付動作補正方法は
、ロボットの手首部に取り付けた二次元の撮像手段によ
ってワーク組付対象物における複数の被組付作業部を各
々個別に撮像して夫々別々の画像データを得ると共に、
それ等の画像データから各被組付作業部の画面座標にお
ける重心位置を求め、さらにそれ等の各重心位置とティ
ーチングによって予め得た各被組付作業部の画面基71
B位置とに基づいて、ロボットが把持したワークとワー
ク組付対象物との間の正規の相対位置関係に対する誤差
を求め、この誤差によってロボットのワーク組付位置の
補正演算登行なって該ロボットの組付動作を補正するよ
うにしたものである。
〔実 施 例〕
以下、この発明の実施例を図面を参照しながら説明する
第1図は、この発明を実施したロボットシステ11の一
例を示す構成図である。
この図において、1はアームのみを示す産業用ロボッ1
〜であり、その先端の手首部2の端部には、ハンド3が
取り付けられている。
そして、このロボット1は、そのハンド3によって、例
えば図示のようにワークとして自動車のリアコンビネー
ションランプ4を図示しないパレットから正確な把持状
態で掴み出した後、その把持したリアコンビネーション
ランプ4を、車体5の後方部におけるワーク組付対象物
であるランプハウス6に組み付ける訳であるが5その際
にリアコンビネーションランプ4に設けられた図示しな
いネジ挿入穴と被組付作業部であるランプハウスS側の
ネジ挿入穴7,8とが所要の組付錆度内(例えば]圃以
下)で一致するように、後述する補正機能によってティ
ーチング時の組付動作を補正するようになっている。
そして、このロボット1の毛d部2には、ブラケツ1−
9を介して二次元の撮像手段としてのTVカメラ(例え
ば、ITVあるいは二次元のCCDイメージセンサカメ
ラ)(以下、「ハンドアイ」と云う)10と、このハン
ドアイ10が撮像するエリアを照明する照明器11とが
取り付けられている。
12はロボット制御装置であり、ティーチングペンダン
ト15からの指令でロボット1をオペレータの指示どお
りに動かしたり、そのティーチングによって得た動作を
ロボット1に記憶させてプレイバックさせたりする機能
を果す。
なお、このロボット制御装置12は、マイクロコンピュ
ータを主体としてシステム構成されている。
13は位置補正演算装置であり、ハンドアイ10からの
画像データ等を画像処理して、後述するような誤差デー
タを演算すると共に、その結果に基づく位置データの補
正を行なった後、その最終的な結果をロボット制御4A
置12へ転送したり、画像データに基づく2値化画像を
映像モニタ14に映し出したりする。
なお、映像モニタ14には、ハンドアイ10が図示の位
置でネジ挿入穴7付近を拡大して撮像した時の2値化画
像が示してあり、6′がランプハウス6の図面左コーナ
一部の画像を示し、7′がネジ挿入穴7の画像を示す。
次に、第2図を参照して、位置補正演算装置13の内部
構成を説明する。
同図において、位置補正演算装置13は、カメラインタ
フェース130と5画像メモリ131と。
中央処理′!A置(CPU)732と、演算用メモリ(
RAM、ROM)+ 33と、ロボットインタフェース
134と、端末用インタフェース135と。
画像メモリ131乃至端末用インタフェース135を結
ぶシステムバス136等とからなる。
カメラインタフェース130は、ハンドアイ10からの
画像データを所要のレベルで2値化した2値化画像デー
タを画像メモリ131に暑き込むと共に、その2値化画
像データを映像モニタ14に転送して映像モニタ14に
2値化画像を映し出す。
画像メモリ131は、カメラインタフェース130から
の一画面分の2値化画像データを格納する。
CPU132は1画像メモリ131に格納された2値化
画像データ及びロボットインタフェース154を介して
もたらされるロボット作業用のティーチデータとしての
位置データを、演算用メモリ133に予め格納したプロ
グラムに従って処理して、ハンド3が把持するリアコン
ビネーションランプ4をランプハウス6に正確に組み付
けるための位置データを求め、その結果をロボット制御
装置12ヘロボツl−インタフェース134を介して出
力する。
端末用インタフェース135は、プログラミング用等の
端末装置15を位置補正演算装置16に接続するための
ものである。
次に、第3図乃至第5図をも参照しながら、この実施例
の作用を説明する。
なお、第3図に示すジェネラルフロー図は、第1図及び
第2図に示すロボツ1−制御装置12内のマイクロコン
ピュータが実行するプログラムの概要を示し、第4図に
示すジェネラルフロー図は、第2図に示す位置補正演算
装置13のCPU132が実行するプログラムの概要を
示す。
また、以下の説明の前提として、ロボット1は、予めハ
ンドアイ10が第1図に実線で示すネジ挿入穴7を拡大
してwt像し得る第1位置と、同図に破線で示すネジ挿
入穴8を拡大して撮像し得る第2位置とに移動して停止
するようにティーチングされ、且つハンド3によって把
持したリアコンビネーションランプ4を車体Sの後方部
におけるランプハウス6に組み付けるようにもティーチ
ングされているものとする。
先ず、第3図を参照して、ロボット制御装置12内のマ
イクロコンピュータは1例えば外部より8動指令が入力
されているか否かをチェックすることによって、ロボッ
ト1を起動するか否かを判定し、起動する状態でなけれ
ば待機し、起動するのであれば次のステップでロボッ1
−1の手d部2に取り付けたハンドアイ10が第1図に
実線で示す第1位置に位置するようにしたロボット1を
プレイバックする移動処理を行なう。
勿論、この時には既にハンド3にはリアコンビネーショ
ンランプ4が正確な把持姿勢で把持されている。
そして、第1位置への位置決めがなされると、照明器1
1を点灯すると共に、ハンドアイ10を起動した後、次
のステップで位置補正前n装置13へ第1位置演算指令
を出力してから、次のステップで位置補正演算装置13
から演算終了信号が入力される。まで待機する。
一方、位置補正演算装置73のCPU132の方は、第
4図に示す如く起動後ロボット制御装置12から第1位
置演算指令が入力されるのを待っており、ロボットイン
タフェース134を介して該指令が入力されると、次の
ステップで先ずカメラインタフェース130を介してハ
ンドアイ10が撮像しているネジ挿入穴7まわりの一画
面分の2値化画像データを画像メモリ131に格納する
、この時、映像モニタ14には第1図に示すような2値
化画像が映し出される。
そして、画像メモリ131への格納処理を終了すると、
直ちに公知の画像処理技術によってネジ挿入穴7の2値
化画像7′ (第1図参照)の画面座標における重心位
! (GX、GY)を求めた後、その求めた重心位置(
GX+ 、GY+ )と、ティーチング時に予め求めた
ネジ挿入穴7の画像基準位置、即ちティーチング時の画
像7′の重心位置(VSTDX I 、VSTDY I
)との差の実体座標系での値(XOFTI、YOFTl
)を演算する。
すなわち、ティーチング時の爪心位[(VSTDXI、
VSTDYI)C単位はb1シ〕 が第5図に画面Iで
示すようになっていたものとすると。
今般求めた(GX+ 、GY+ )C単位はビット〕に
対する差(車体5等の位置決めが正確になされていれば
誤差はゼロ)の第6図に示す実体座標系での値(XOF
TI、YOFTI)[単位はm]は、画面1のX方向の
倍率をVRTOX l  [nn/bi[、]、画面I
のY方向の倍率をVRTOY 1[mm / b i 
+、 )とすると、次式で与えられる。
X0FT 1 = (1”;X 1−VSTDX l 
) −VnTOX IYOFT 1 = (GY 1−
VSTDY l )・VIITOY ]そして、I;記
の演算を終了した後、第4図の次ステツプでロボット制
御装置12へ演算終了信号を出力してから、その次のス
テップでロボット制御装置12から第2位置演算指令が
入力されるのを待つ。なお、X0FTI、YOFTIは
夫々f寅算用メモリ133に保存される。
第3図に戻って、 ロボット制御′!装置12内のマイクロコンピュータの
方は、位置補正演算装置13から演算終了信号を受ける
と、前述の待機していたステップから次のステップへ進
んで、ハンドアイ10が今度は第1図に破線で示す第2
位置に位置するようにロボット1をプレイバックする移
動処理を実行する。
そして、第2位にへの位置決めがなされると。
次のステップへ進んで位置補正演算装置13へ今度は第
2位置演算指令を出力し、その後次ステツプでハンド6
で把持したリアコンビネーションランプ4をランプハウ
ス6へ組み付ける作業の開始位置にハンド3が位置する
ようにロボット1をプレイバックする移動処理を行ない
、その処理が終rすると、その次のステップで位置補正
演算装置13から補正位置データが入力されるのを待つ
なお、第2位置演算指令出力時には、ティーチング時に
得た絹句作業に供する位置データも位置補正演算゛装置
13に出力する。
第4図において。
(−’を置補正演算装置13のCPU17)2は、ロボ
ット制御装置12から第2位置演算指令及び位置データ
が入力されると、前述した待機ステップがら次のステッ
プに進んで、ハンドアイ10が撮像しているネジ挿入穴
8まわりの一画面分の2値化画像データを前述した第1
位置での場合と同様に画像メモリ131に格納する。
そして、その格納処理後、前述した第1位置での場合と
同様に、今度はネジ挿入穴8に関して。
第5図に画面Hに示すティーチング時の重心位置(VS
TDX2.VSTDY2)、!1今般ヤハリ公知の画像
処理技術によって求める第6図の重心位置(GX2.G
Y2)との差の実体座標系での値(XOFT2.YOF
T2)を画面■のX、Y方向の倍率をVRTOX2.V
RTOY2を使って、次式によって求める。
X0FT2 = (GX2− VSTDX2)−VRT
OX2 + DSTDXYOFT2= (GY2− V
STDY2)・VRTOY2 + DS丁DY但し、D
STDX、DSTDl!夫々第S図に示すようにネジ押
入穴7,8間のX、Y方向の図面基準値である。
そして、上記のX0FT2.YOFT2を求めたなら、
今度は前回求めたX0FTI、YOFTlをも使って、
ハンド乙の基準位置とランプハウス6との間のティーチ
ング時の正規の相対位置関係に対する今般プレイバック
時の誤差、即ち第6図に示すハンド3のランプハウス6
に対する相対的なティーチング時の基準位置)i oに
対する今般プレイバック時の基準位[HXのx、Y方向
のオフセット凰0FTX、OF ”I” Y及び回転量
0FTHを次式によって求める。
0FTX=i)X・(1−cos(OFTII))  
+X0FT1+DY・5in(OFTII) OFTY=−DX−sin(OFTII)+DY−(1
−cos(OFTH))+’10FT+ 但し、DX、DYは第6図に示すように、DXが(GX
I、GYI)と)(oとの間のX方向の寸法で、DYが
ネジ挿入穴7の中心とHOとの間のY方向の寸法である
そして、上記OF T H、○FTX、0FTYなる誤
差を演算したなら、第4図の次ステツプにて、次に入力
されたリアコンビネーションランプ4の組付作業に供す
る位置データ髪上記0FTH。
○FTX、○FTYに基づく座標変換の手法を使って補
正する。
そして、その補正演算が終了したなら、次のステップで
その補正位置データをロボット制御装置12へ転送して
5次サイクルの第1位置演算指令が入力されるのを待つ
第3図に戻って、ロボット制御装置12のマイクロコン
ピュータは、位置補正演算装置13から補正位置データ
を受信すると、前述の待機ステップから次ステツプに進
んでその受信補正位置データに基づく組付作業処理を実
行して、ロボット1のプレイバックを行ない、それによ
ってハンド3が把持したリアコンビネーションランプ4
をランプハウス6に両者のネジ挿入穴が正確に合うよう
に組み付ける。
そして、その組付作業処理を終了したなら、ロボット1
を作業待機位置に戻す図示しない処理を行なった後、次
サイクルのロボット起動入力を待つ。
そして、このような2つのネジ挿入穴7,8を個別に拡
大撮像して処理することによって、リアコンビネーショ
ンランプ4のようにワークが大きくても所要の補正精度
が出せ、失敗のない組付は作業が行なえる。
第7図は、この発明の他の実施例を示す全体構成図であ
り、第1図と対応する部分に同一符号を付しである。
この実施例では、ハンドアイ10と照明器11の他に、
もう1組のハンドアイ16と照明器17をネジ挿入穴7
,8の位置関係に対応させてロボット1の手d部2にブ
ラケット18を介して取り付けである。
このようにすれば、ネジ挿入穴7,8の画像を一度に取
り込むことが出来、それによって前実施例におけるネジ
挿入穴を撮像するための動作を1ステツプ省略すること
が出来るため、前実施例の効果に加えてサイクルタイム
を短縮出来る効果がある。
なお、第7図において、1Bはハンドカメラ16が撮像
したネジ挿入穴8まわりの画像を映し出す映像モニタで
あり、6′がランプハウス6の図面右コーナの2値化画
像を示し、8′がネジ挿入穴8の2値化画像を示す。
また、上記各実施例では、ランプハウス6にリアコンビ
ネーションランプ4を組み付ける作業を対象にしたが、
この発明はあらゆる組付作業に実施適用できるものであ
る。
さらに、l二記各実施例では、被組付作業部(ネジ挿入
穴)を2ケ所とした例に就で述べたが、3ケ所以上でも
良いことは勿論である。
但し、誤差を演算するために2ケ所で充分なことは云う
までもない。
〔発明の効果〕
以上述べたように、この発明によればワークを組み付け
るワーク組付対象物における複数の被組付作業部を各々
個別に撮影して、ワーク組付位置の補正演算に供する誤
差を求めるようにしているので、組み付けるワークが大
きくても所要の組(=J精度が得られ、失敗のない作業
が出来る。
【図面の簡単な説明】
第1図はこの発明の一実施例を示す全体構成図、第2図
は第1図の位置補正演算装置13の内部構成を示すブロ
ック図、 第3図は第1図及び第2図のロボット制御装置12のマ
イクロコンピュータが実行するプログラムの概要を示す
ジェネラルフロー図。 第4図は第2図のCP0132が実行するプログラムの
概要を示すジェネラルフロー図5第5図及び第6図は夫
々第4図における演算内容の説明に供する図、 第7図はこの発明の他の実施例を示す全体構成図である
。 1 ・産業用ロボット 2・・・手首部 3・・・ハン
ド4・リアコンビネーションランプ(ワーク)5・・車
体 6・・ランプハウス(ワーク組付対象物)7.8・
・ネジ挿入穴  9・・・ブラケット10.16・・・
TVカメラ(ハンドアイ)〔撮像手段〕11i7 ・照
明器  12・・・ロボット制御装置13・・位置補正
制御装置 14.19・・映像モニタ 第1図 14 吠徽丑二り 第2図 L 第5図 第6図

Claims (1)

    【特許請求の範囲】
  1. 1 ロボットの手首部に取り付けた二次元の撮像手段に
    よつてワーク組付対象物における複数の被組付作業部を
    各々個別に撮像して夫々別々の画像データを得ると共に
    、それ等の画像データから前記各被組付作業部の画面座
    標における重心位置を求め、さらにそれ等の各重心位置
    とテイーチングによつて予め得た前記各被組付作業部の
    画面基準位置とに基づいて、前記ロボットが把持したワ
    ークと前記ワーク組付対象物との間の正規の相対位置関
    係に対する誤差を求め、この誤差によつて前記ロボット
    のワーク組付位置の補正演算を行なつて該ロボットの組
    付動作を補正することを特徴とするロボットの組付動作
    補正方法。
JP24632485A 1985-11-05 1985-11-05 ロボツトの組付動作補正方法 Pending JPS62106503A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP24632485A JPS62106503A (ja) 1985-11-05 1985-11-05 ロボツトの組付動作補正方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP24632485A JPS62106503A (ja) 1985-11-05 1985-11-05 ロボツトの組付動作補正方法

Publications (1)

Publication Number Publication Date
JPS62106503A true JPS62106503A (ja) 1987-05-18

Family

ID=17146864

Family Applications (1)

Application Number Title Priority Date Filing Date
JP24632485A Pending JPS62106503A (ja) 1985-11-05 1985-11-05 ロボツトの組付動作補正方法

Country Status (1)

Country Link
JP (1) JPS62106503A (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01321185A (ja) * 1988-06-22 1989-12-27 Fujitsu Ltd 視覚情報を用いた2腕協調ロボットによるプリンタヘッドの組立システム
JP2005537939A (ja) * 2002-09-13 2005-12-15 ダイムラークライスラー・アクチェンゲゼルシャフト 加工品に接続領域を作る方法及び装置
JP2008279551A (ja) * 2007-05-10 2008-11-20 Honda Motor Co Ltd ワークの位置決め装置及び方法
JP2009018373A (ja) * 2007-07-11 2009-01-29 Toyota Motor Corp キー材嵌入方法及びキー材嵌入装置
JP2016150399A (ja) * 2015-02-16 2016-08-22 ファナック株式会社 クーラントノズルの位置を調整するためのロボットシステム、およびロボット制御方法
JP2017019241A (ja) * 2015-07-14 2017-01-26 ファナック株式会社 射出成形システム
JP2019089172A (ja) * 2017-11-15 2019-06-13 川崎重工業株式会社 ロボットシステム及びロボット制御方法
JP2021502262A (ja) * 2017-11-03 2021-01-28 ファナック アメリカ コーポレイション 自動車用電着ドレインプラグの挿入ツール

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01321185A (ja) * 1988-06-22 1989-12-27 Fujitsu Ltd 視覚情報を用いた2腕協調ロボットによるプリンタヘッドの組立システム
JP2005537939A (ja) * 2002-09-13 2005-12-15 ダイムラークライスラー・アクチェンゲゼルシャフト 加工品に接続領域を作る方法及び装置
JP2008279551A (ja) * 2007-05-10 2008-11-20 Honda Motor Co Ltd ワークの位置決め装置及び方法
JP2009018373A (ja) * 2007-07-11 2009-01-29 Toyota Motor Corp キー材嵌入方法及びキー材嵌入装置
JP2016150399A (ja) * 2015-02-16 2016-08-22 ファナック株式会社 クーラントノズルの位置を調整するためのロボットシステム、およびロボット制御方法
US9902070B2 (en) 2015-02-16 2018-02-27 Fanuc Corporation Robot system and robot control method for adjusting position of coolant nozzle
JP2017019241A (ja) * 2015-07-14 2017-01-26 ファナック株式会社 射出成形システム
JP2021502262A (ja) * 2017-11-03 2021-01-28 ファナック アメリカ コーポレイション 自動車用電着ドレインプラグの挿入ツール
JP2019089172A (ja) * 2017-11-15 2019-06-13 川崎重工業株式会社 ロボットシステム及びロボット制御方法

Similar Documents

Publication Publication Date Title
TWI672206B (zh) 機械手臂非接觸式工具中心點校正裝置及其方法以及具有校正功能的機械手臂系統
JP2700965B2 (ja) 自動キャリブレーション方式
JP4167954B2 (ja) ロボット及びロボット移動方法
JP4844453B2 (ja) ロボットの教示装置及び教示方法
JP2006035384A (ja) ロボットシステムにおける3次元視覚センサの再校正方法及び装置
JP4794011B2 (ja) 画像処理装置、およびロボット制御システム
WO2018209592A1 (zh) 一种机器人的运动控制方法、机器人及控制器
JPS62106503A (ja) ロボツトの組付動作補正方法
WO2021065265A1 (ja) 大きさ推定装置、大きさ推定方法および記憶媒体
JP2004243215A (ja) シーラー塗布装置のロボットティーチング方法及びシーラー塗布装置
JP4303411B2 (ja) トラッキング方法、及びトラッキングシステム
JP5428639B2 (ja) ロボットの制御装置及びロボットのティーチング方法
JP2003311670A (ja) ロボットアームの位置制御方法およびロボット装置
JP2006224291A (ja) ロボットシステム
JP4809524B2 (ja) トラッキング方法、トラッキングシステム、及びトラッキング装置
JP5610211B2 (ja) 投影面情報提示装置と方法
US10491882B2 (en) Calibration method and calibration tool of camera
JPH08285526A (ja) 画像認識方式
CN116867619A (zh) 示教装置
JPH03281182A (ja) 移動ロボットの座標補正方法
JPH05301195A (ja) 視覚センサにおけるカメラ位置ずれ検出方法
JPH11184526A (ja) 3次元位置補正方法ならびに同方法を用いたリモートマニピュレータシステム
JPH05277973A (ja) マニピュレータのキャリブレーション方法
JPH02276901A (ja) 視覚センサの位置ズレ修正方法
JPH04250700A (ja) 電子部品認識方法