JPH03228591A - ワーク把持装置、ワーク及びその収納ケース - Google Patents

ワーク把持装置、ワーク及びその収納ケース

Info

Publication number
JPH03228591A
JPH03228591A JP2055032A JP5503290A JPH03228591A JP H03228591 A JPH03228591 A JP H03228591A JP 2055032 A JP2055032 A JP 2055032A JP 5503290 A JP5503290 A JP 5503290A JP H03228591 A JPH03228591 A JP H03228591A
Authority
JP
Japan
Prior art keywords
workpiece
gripping device
coordinate system
image
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2055032A
Other languages
English (en)
Other versions
JP2710850B2 (ja
Inventor
Yusaku Azuma
雄策 我妻
Katsumi Ishihara
勝己 石原
Masaru Shibata
優 柴田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2055032A priority Critical patent/JP2710850B2/ja
Publication of JPH03228591A publication Critical patent/JPH03228591A/ja
Priority to US07/820,808 priority patent/US5350269A/en
Application granted granted Critical
Publication of JP2710850B2 publication Critical patent/JP2710850B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/37572Camera, tv, vision
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/45Nc applications
    • G05B2219/45063Pick and place manipulator
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/49Nc machine tool, till multiple
    • G05B2219/49114Go to coarse programmed reference, detector for fine alignment
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/50Machine tool, machine tool null till machine tool work handling
    • G05B2219/50151Orient, translate, align workpiece to fit position assumed in program

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 [産業上の利用分野] 本発明は、たとえばITVカメラ等の視覚センサから把
持対象のワークの位置情報を得て、ワークの把持制御を
行なう視覚センサを用いたワーク把持装置及びこれに用
いられるワーク並びに収納ケースに関し、特に、複数の
ワークを、マガジン若しくはパレットと呼ばれている収
納ケース(以下、パレットと総称する)に収納して、こ
の中の特定のワークを把持するように制御する制御装置
に関する。
[従来の技術] 従来、ロボットを用いた自動組立装置においては、ロボ
ットの組み付けるワークについて、該ワークが高精度に
パレット内で位置が決まるように、各々のワーク形状に
従ってパレット内に案内面等をほどこし、更に、複数の
ワークをパレット内にマトリックス上に配置し、その配
置位置をロボットが記憶しておくようにしている。組立
装置は、このパレット内よりワークをつかみ、組立作業
を行なってきた。
例えば、第2A図は、この従来技術において用いられて
いる一例としてのワークlを示すものである。ワークに
はla、lbなるガイド穴がもうけられている。また、
lcはワークの重心位置である。第2B図はパレット2
内に複数のワーク1が収納されている様子を示す。この
パレットは一例として、4×4個のワークlが収納され
るように、4×4個の凹部がマトリックス状に配置され
ている。個々の凹部には、ガイドビン2a、2bが上向
きに設けられ、このビン2a、2bがワーク1のガイド
穴1a、lb内に訣大して、ワークlを高精度に固定し
ている。第2C図は、第2B図のXX方向の断面図であ
り、2つのワークが、ガイドビン2a、2bにより固定
されている様子が示されている。従来では、第2B図に
示すパレット2を外部よりはさみ込む等して、ロボット
に対する位置を高精度に出す必要があった。
第3図は、パレット上のワークの位置とロボット座標と
の関係を示す図である。通常、ワークはパレット内で、
縦横それぞれ定ピツチ(X方向に幅aずつ、Y方向にb
づつ)で配置されており、ロボットはすべての点の座標
を記憶しておくか、または、各コーナーの3点(第3図
の3.4.5)を記憶しておき、各々の点を計算して、
その結果でロボットを移動させてワークを把持していた
しかし、上記のようなパレットを用いる方式をとると、
ロボットのワークを供給する為の高精度なパレットは高
価なものである上に、その高精度のパレットを高精度に
ロボットに対して位置を決めてやる手段若しくは装置が
必要となるために、組立装置として高価なものになって
しまうという欠点があった。
一方、近年ロボットに視覚センサを用い、ワークの位置
を画像処理により測定し、その位置情報によりロボット
が動作するというような方式が、例えば、特開昭60−
56884号、 60−123974号、 62−14
7024号に提案されている。
この特開昭62−147024号によると、パーツフィ
ーダが1つづつ部品をカメラの視野内に供給し、このカ
メラにより部品の位置を認識して、その部品を把持する
というものである。このような視覚センサを用いる方式
によると、確かに、部品の把持は正確に行なうことがで
きるようになる。
また、特開昭60−56884号、 60−12397
4号はいずれも、先ず、複数の部品を視野に入れて画像
を取り、その全体画像から目標のワークの凡その位置を
求め、次に、その凡その位置の拡大画像から正確な把持
位置を認識しようというものである。
[発明が解決しようとする課題] しかしながら、この特開昭62−147024号の手法
はあくまでも、カメラの視界の前に部品が供給されるこ
とを前提としているから、パレット内に複数の部品を置
いておき、そのなかから特定の部品を精度良く把持する
という本願の対象とする分野には適用できない。何故な
ら、単純にこの特開昭62−147024号の手法をパ
レット内の部品の把持に適用すると、視覚センサの取り
込みエリア内には、ワークの大きさにより、複数個のワ
ークの画像が取り込まれる可能性があり、かかる場合G
こは、どのワークが目的のワークであるかを判断するの
が困難であるからである。
また、特開昭60−56884号、 60−12397
4号は、任意の位置にある複数のワークの画像全体から
、視覚系が先ず個々のワークの概略位置を認識するとい
う処理が前提とされている。しかしながら、かかる視覚
系による前処理は時間がかかるものであり、システム全
体の処理速度の向上の障害となっていた。
本発明はこれら従来技術の問題を解決するために提案さ
れた。
本発明の目的は、収納ケース内に自由に収納された複数
のワークのなかから、目標のワークを正確に把持するこ
とのできる把持装置を提案するものである。
本発明の他の目的は、把持対象のワークの正確な位置を
認識する作業から開放され、操作者が部品管理等に集中
できるような把持装置を提案する。
本発明の他の目的は、目的ワークの把持位置を視覚セン
サの座標系に変換し、その変換された座標位置の近傍に
、目標ワークの形状特徴に近い画像を探索し、探索され
た画像の重心位置を目標ワークの正確な把持位置とする
ような把持装置を提案する。
本発明の他の目的は、上記把持装置に設けられた視覚セ
ンサは収納ケースの全体を略カバーするものであり、且
つ、前記目標ワークの形状特徴に近い画像を探索する領
域は、この収納ケースの収納単位の大きさに大体近いも
のであるような把持装置を提案する。
本発明の他の目的は、上記把持装置に設けられた視覚セ
ンサは収納ケースの収納単位の広さに近い領域をカバー
するものであるような把持装置を提案する。
本発明の他の目的は、ワークの組立制御を行なう制御部
分と、ワークの正確な位置を測定するための画像処理を
行なう部分とが分離独立していて、両者の間が通信手段
で接続されているような把持装置を提案する。
本発明の他の目的は、目標ワークの指示イ装置と測定手
段が測定手段が測定した目標ワークの座標位置とが大き
く異なった場合番こ、エラー処理を1テなうような把持
装置を提案する。
本発明の更に他の目的は、上記上を寺装置番こ用し1ら
れるワーク並びに収納ケースを提案するものである。
[課題を達成するための手段] 上記課題を達成するための本発明の十背成(ま、1つの
収納ケースに収納された複数のワークのな力)から目標
ワークの収納位置を視覚センサを用し1で認識すること
により、この目標ワークを把↑寺するワーク把持装置で
あって、前記目十票ワークの升ニ状特徴を表わす情報を
前もって記憶する言己憶手「没と;前記目標ワークの前
記収納ケース向暑こお&−Jる概略的位置であって、こ
の把持装置の座標系で表わされるところの位置情報を外
部力)ら入力する入力手段と;前記視覚センサで得たワ
ークの画イ象1青報上で、上記概略的な位置情報と形状
牛寺徴を表わす情報とに基づいて、前記目標ワークのこ
の把持装置の座標系における座標位置を測定する測定手
段とを具備したことを特徴とする特 〔実施例] 以下添付図面を参照して本発明に係る把持装置を自動組
立装置に適用した実施例を説明する。
第4A図は、パレット6の凹部(以下、セルと呼ぶ)に
各々ワーク1を収納した状態の斜視図である。第4B図
は第4A図のXX線における断面図を示す。尚、第4A
図のワーク1は、第2図の従来例に示されたワークと同
じものであるが、本実施例では、ワーク1をパレット内
のセル内に固定する必要がないために、パレット6には
ワークlを正確に位置決めするためのビン等は不要であ
る。ワーク1はセル内で遊びがあるため、色々な方向に
向いている。但し、第13図に示すように、ワークに形
成された2つの穴A、Bは、それらの形状から、当該ワ
ークが把持対象のワークであるかを識別するために使わ
れる。穴A、Bがこの識別のためにどのように使われる
かは後の説明で明らかになる。
第1図は、この実施例のロボットを用いた組立装置の全
体図である。図中、7は、4自由度をもった直交型のロ
ボットで、図に示すようX軸方向、Y軸方向の水平面の
2自由度と、Y軸上にあり上下に動くZ軸、及び2軸ま
ゎりに回転可能なθ軸より成る。パレット6内には複数
のワークlが第4A図に示すような状態で置かれ、パレ
ット6は、ロボットの作業範囲内にパレットの位置決め
部材(不図示)により固定されている。ロボットの先端
に取付けられたハンド8は、不図示のバキュームパイプ
によりバキュームされ、ワークlを把持し、組み付はス
テージ9に運ぶ。ロボットがワークを組付けるべき組付
ステージ9上に、位置決めピン9a、9bがある。
第1図中、10は視覚センサ(cCDイメージセンサ)
を含むカメラであり、柱14に固定されている。この第
1図の例では、カメラ1oはccDを備えたITVカメ
ラであり、広い視野角を持ツノで、パレット6全体の画
像を一度に得ることができる。この実施例に用いられる
CCDセンサは40万画素の領域を有する。11はカメ
ラ1゜が得た画像信号を処理する画像処理装置であり、
内部の動作は後述する。また、12は・ロボット制御装
置であり、ハンド8を、XYZθの4方向に位置決め制
御する。画像処理装置11と制御装置12との間は通信
線13で接続されている。
この実施例の組立装置によれば、パレット6内にマトリ
ックス状に配置されたワーク1の各々の概略の位置情報
を、ロボット制御装置12があらかじめ記憶しておく。
そして、ロボットが組付動作を開始した時点で、ロボッ
トが次に把持すべきワークのパレット内の概略の位置を
通信線13を介して画像処理装置11に教え、この画像
処理装置11が、ロボット制御装置12より指令された
概略位置に最も近いワークの正確な位置を画像処理によ
り測定し、ロボット制御装置12にその結果を通信線1
3を介して教え、ロボット制御装置12がその正確なワ
ーク位置にハンド8を移動して、ワークを把持するよう
にしたものである。
第5図は、ロボット12の座標系X、YRとパレット6
との関係を示す、ロボット制御装置12は、パレット内
の各セルの中心の凡その位置な前もって教示されている
。この位置が、パレット6の中心の実際の中心位置と一
致する必要はない。
換言すれば、パレット6は、第1図において、絶対的に
正確に置かれる必要はない。せいぜい、ワークの大きさ
の半分の長さ程度の精度で置かれれば十分であろう。後
述の画像処理により、ロボット制御装置の座標系につい
ての正確なワーク位置がロボット12に教えられるから
である。
第6図はロボット制御装置12の回路構成を示すブロッ
ク図であり、第7図は画像処理装置11のそれである。
第6図において、XYZe軸の4軸のアームを駆動する
のはサーボ制御部207であり、フィンガー8による吸
着動作を実行するのはI10制御部208である。マイ
クロコンピュータ201は、これらサーボ制御部207
.I10制御部208を制御する他に、オペレーティン
グシステム等の制御プログラムを格納する制御プログラ
ムメモリ202や、ワークの概略位置、即ち、各セルの
中心位置を記憶する位置メモリ203や、ロボットの把
持/組立動作を記述する動作プログラムメモリ204や
、システムの状態や入力したプログラムを表示するCR
T205や、プログラムを入力するためのキーボード2
06や、画像処理装置11にワークの概略位置を伝送し
たり、画像処理装置が測定したワークの正確な位置を画
像処理装置11から受信するための通信制御部209等
を制御する。
第7図において、パレット及びそこに置かれたワークの
画像を取るためのカメラ10は、A/Dコンバータ10
8を通して、マイクロコンピュータ100に接続されて
いる。前述したように、カメラ10のセンサは40万画
素のCCDセンサである。この40万画素の領域のうち
どの領域の画像をフレームメモリ110に格納するかを
決定するのが領域設定部である。この領域設定部109
が設定する領域は、前述のワークの概略位置、即ち、パ
レットのセルの中心位置を中心にした所定の大きさの領
域である。この領域設定部109が設定する領域は後に
第15図に関連して説明される。かかる領域が設定され
ると、フレームメモリ110内の画像には、少な(とも
1つのセルとその中のワークが含まれている筈である。
マイクロコンピュータ100は、これらの他にも第7図
に示した種々の回路を制御している。例えば、通信制御
部11は、マイクロコンピュータ100の支援の下に、
ロボット制御装置12の通信制御部209と通信する。
座標変換部112は、把持対象のワークの重心位置を、
ワークのロボット座標系から視覚座標系(または逆)に
変換する。プログラムメモリ101は、第18図、第1
9図等に示した制御手順を実行するプログラムを格納す
る。二値化演算部102は、フレームメモリ110に格
納されている多値画像を二値画像に変換する。特徴パラ
メータ演算部103は、第21図に関連して説明すると
ころの、画像の特徴を示すパラメータ(面積や重心位置
等)を演算する。演算部103が演算したパラメータが
、既知のワークのパラメータであるならば、そのワーク
につついて演算したパラメータはパラメータ記憶部10
5に記憶される。特徴比較部は、カメラ10が取った画
像から抽出した特徴パラメータと、前もってメモリ10
5に記憶していた既知のワークのパラメータとを比較し
て、画像が捕えたワークは目的のワークかを判断する。
CRT106はシステムの状態や入力したプログラムを
表示する。また、キーボード107はプログラムを入力
する。
前述したように、第1図のロボットシステムでは、制御
部12は、目標のワークを把持する場合、アームの動作
を行なう前に、ワークの概略位置(=セルの中央位置)
を画像処理装置11に知らせ、画像処理装置11は、そ
の概略位置近傍にあるワークの正確な位置を認識し、そ
の正確な位置をロボット制御部工2に知らせ、その上で
、制御部12は、アームを動作するようになっている。
このような動作が可能となるためには、■二制御部12
のプログラムメモリ204に記述されている動作プログ
ラムが、ワークの概略位置を画像処理装置11に知らせ
、画像処理装置11からのワークの正確な位置を受は取
るというプログラムが記述されているのが好ましい。
■ニ一般に、ロボット座標系とセンサの座標系とは座標
軸等がずれているので、ワークの概略位置はイメージセ
ンサの座標系に変換され、画像処理装置11が演算した
ワークの正確な位置はロボットの座標系に変換されなけ
ればならない。
■:両画像なかからワークを認識するためには、パター
ン認識を行なう必要がある。本実施例では、既知のワー
クについての特徴パラメータを前もってメモリ105に
記憶し、これと、カメラlOが取得した画像について演
算した特徴パラメータとのマツチングを行なって、画像
内にあるワークが目的ワークかを判断している。
ロボットプログラム 第9図は、メモリ204に記憶されたロボットプログラ
ムの一例である。第9図中、例えば、ステップlの VREAD  (1,1) の(1,1)のなかの最初の°°l°°は、位置データ
セットを示す番号である。1番の位置データセットの例
が第8図に示されている。(1,1)の後の°°l”は
、第8図の位置データセットのなかの位置データの番号
を示す。この位置データは、セルの中央位置であり、即
ち、ワークの概略位置である。当然のことながら、これ
らの位置データはロボット座標系で記述されている。第
8図の位置データセットの例に対応するパレットとそこ
に収納されているワークとの平面図が、第12図にロボ
ット座標系で表現されている。第9図のプログラムに従
えば、ステップ1の命令は、ロボット制御装置12が、
画像処理装置11に対し、第8図の1番目のデータセッ
トの1番目の位置データである、 (300,200,0,O) で指定された画像を取込み、そこのワークの正確な位置
を制御装置12に返すように指令している。ワークの正
確な位置が得られたら、ロボット制御装置12は、ステ
ップ2の VMOVE   (1,1) を実行する。即ち、アームを(1,1)位置に移動する
。この場合、制御プログラム202は、VMOVEを、
画像処理装置llが得たワーク位置にアームを移動する
ものと解釈し、(1,1)に対応する(300,200
,0.0)位置ではなく、画像処理装置がステップ1で
返したワークの正確な位置にアームが移動するように、
サーボ制御部207に対し指令する。このようにすると
、第11図に示したP点位置まで、即ち、目標ワークの
直上方位置までハンド8は移動する0次にステップ3の VMOVE  (1,2) を実行すると、ハンド8は、1番目のデータセットの2
番目の位置、 (300,200,50,0) まで移動する。即ち、第11図のQ点まで下降する。尚
1本実施例では、Z軸は垂直方向下向きを正に取った。
そして、ステップ4の N  1 で、ハンド8の吸着機構を作動してワークを把持するべ
(、I10制御部208を作動させる。
匣j1虹撓 一般に、ロボット座標系と視覚センサの座標系とを常に
一致させることは、不可能ではないが困難である。画像
処理装置11は、セル内で自由な位置にあるワークの位
置をパターン認識により認識するために、上記2つの座
標系間のずれは画像処理装置ll内では問題にならない
。しかし、画像処理装置はワークの位置なセンサの座標
系で認識するものであり、ロボット側はロボット座標系
でアームを移動するという性質のものであるために、そ
のずれ(もしそのずれが存在するならば)を事前に知っ
ておくことは、正確にワークを把持するために不可欠で
ある。従って、ロボット座標系と視覚センサの座標系と
が正確に一致しであるように、第1図のロボットシステ
ムを製造しておくべきか、あるいは、両座標系間にずれ
があることを前提として、そのずれ量を事前に計測して
おき、一方の座標系の位置データは座標変換により他方
の座標系の位置データに変換するかということは、コス
トとのバランスで考慮されるべきである。我々の第1図
の実施例では、上記ずれを事前に計測しておき、必要に
応じて座標変換をするという手法を取った。
第14図は、ロボット座標系(X、I 、y4)と視覚
座標系(xv 、Yv)との関係を示す、第14図では
、ロボット座標系と視覚座標系では、説明を簡略化する
ために、Z軸に関してはずれはないと前提している。
第14図において、ロボット座標系でのワークの概略目
標位置(即ち、セル位置)を(p、、。
p、、t、i)とし、視覚座標系でのその概略位置を(
P、v、P、v、1)とし、ロボット座標系の原点OR
と、視覚座標系の原点Ovのずれが(δ8゜δY)であ
り、ロボット座標系(x、、y4)が0度だけ回転して
いるとし、更に、視覚系の分解能がkmm/画素とする
と、ロボット座標を視覚座標に変換するときは、 ・・・・・・ (1) の関係がある。即ち、ロボット制御装置12が、前述の
VREAD命令で、画像処理装置11に対し、セルの中
心位置、例えば(1,1)を送ると、画像処理装置11
は(1)式に基づいて視覚系の座標系に変換する。反対
に、画像処理装置11がワークの位置をセンサの座標系
で認識すると、・・・・・・ (2) によりロボットの座標系による位置に変換して、制御装
置12側に送り返す。
待1しふ二ノ二二之 第10図は第1図に用いられるワークの平面図である。
このワークは第4図に関連して説明したワークと同じで
ある。第10図において、このワークは、その外観が矩
形をしており、中央左側に円柱状の穴Aが、中央右側に
楕円甲状の穴Bが設けられている。穴A、Bは、第1図
システムにおいて、固定ピン9a、9bが挿入される。
Bを楕円穴としたのは、ビン9a、9b間の距離が交差
を有することを考慮した。本実施例では、このような形
状の2つの穴の画像から得られる量を、把持対象のワー
クを識別する特徴パラメータとした。特徴パラメータと
して、 穴Aの面積:SA 穴Bの面積:SIl 穴A、Hの重心間の距離:L 穴Aの重心からワークの重心までの距離=2穴Aの重心
と穴Bの重心を通る直線:αを用いる。尚、ワークの重
心は、必ずしも物理的な重心である必要はな(、本実施
例に用いられる第10図のワークでは、穴への重心と穴
Bの重心との間の中央を、ワークの重心(Xw、Yw)
と定義している。
前もって、このワークについての上記特徴パラメータを
計算しメモリ105に記憶しておく。そして、実際のパ
レットに収納されているワークの画像から演算したワー
クと考えられる像の特徴パラメータSA“、S8°、L
゛と、上記記憶されているパラメータSA、S、、Lと
を比較して、この比較から画像内にワークがあるか否か
を判断する。
茎JLL順 第17A図は、ロボット制御側12におけるCRT20
5.キーボード206を介して行なう準備手続を記述す
る。この準備手続は、主に、第8図に示した位置データ
を記憶させることである。
第17B図は、画像処理装置11におけるCRT106
、キーボード107を介して行なう準備手続を記述する
。この準備手続きは、主に、特徴パラメータを前もって
演算し、それらをメモリ105に記憶することである。
第17A図のステップS2で、パレット6を、第1図に
示すようにおいた状態で、パレット6の各セルの中心位
置をワークの概略の把持位置として入力する。この際に
、第8図、第11図に示すように、各把持位置について
、パレットの画像を取込む位置と把持位置とをベアで入
力する。ステップS4では、パレット6内のワークの把
持順序を教示し入力する。ステップS6では、セル位置
とその中に収納されているワークの種類との対応を教示
し入力する。セルとワークの種類との対応が必要なのは
、異なる種類のワークが同じパレット内に収納されてい
る場合である。
第17B図のステップSIOにおいて、第14図に関連
して説明した、センサ座標系とロボット座標系とのずれ
量を計算する。これらのずれは、夫々の原点間の水平面
上のずれδ、、δ1と、Z軸間の角度偏差θで表わされ
る。これらのずれの測定は、カメラ10の下に基準ワー
クをロボット座標系の座標軸X −、Y *に対して正
規に置いた状態で撮影した当該基準ワークの画像から簡
単に演算することができる。この基準ワークはX方向、
Y方向に精度が高く製造されていればよい。
第17B図のステップS12〜ステツプS1gは、複数
種類のワークの特徴パラメータを演算し記憶する手順で
ある。先ず、ステップS12で、1つのワークをカメラ
10の直下に置く、ステップS14では、そのワークの
特徴パラメータを算出する。ステップS16では、その
パラメータをメモリ105に、当該ワークのパラメータ
として記憶する。もし、パレット内に1種類のワークし
かないのであれば、画像処理装置11側の準備はこれで
終了する。複数種類のワークがパレット内に収納されて
いれば、ステップS12〜ステツプ31.6を繰返す。
、 パラメータの ここで、ステップS14の特徴パラメータの算出につい
て第18図を用いて詳細に説明する。これらの図に示さ
れたフローチャートの制御手順は、マイクロコンピュー
タ100により実行される。
第18図のステップS50において、カメラl0(7)
CCDセンサによりA/Dコンバータ108を介してワ
ークの画像を取込み、フレームメモリ110に格納する
。ステップS52では、フレームメモリ110内の画像
を適当な閾値により二値化する。ステップ860以下で
は、パラメータSA、SI1等を計算する。ステップS
60では、二値化画像のラベリング処理を行なう。
第21図により、このラベリング処理について説明する
。−船釣に、ラベリング処理は二値画像からパターン認
識を行なう場合の前処理として行なわれる。従って、こ
のラベリング処理は、後述のロボットが目標ワークを把
持する前段階での目標ワークの画像に対しても同様に行
なわれる。ステップS60のラベリング処理は、既知の
ワークの特徴パラメータを抽出するものであるから、ラ
ベル付けされる画像は、穴A、Bの2つ画像となる。し
かし、第21図においては、説明の便宜上、ワークの穴
Aだけを、穴の部分を黒ドツトとして示している。
先ず、フレームメモリ110内を主走査方向(センサ座
標系のX軸方向)に走査して黒のドツトを探す。最初に
見付かった黒のドツトなa、とし、  a”とラベル付
けをする。次に、a、の隣りの画素a2が黒かを調べる
。このa寞が黒であったならば、このa2を中心画素と
する3×3の領域(いわゆる8近傍)を設定する。この
領域内に以前に“a ”とラベル付けをした画素(今回
の場合はa4)が見付かれば、その領域の中心画素(今
回の場合はa4)に対しても“a”とラベルを付ける。
このような操作を繰返すと、1塊の連続した領域が“a
”として抽出される。もし、画像内に、複数の連結領域
があれば、当然のことながら、それらの連結領域には、
例えば、“b”c ”等とラベルが付される。以上が、
ステップS60のラベリング処理の詳細である。このラ
ベリング処理は演算部103のハードウェアにより高速
に行なわれる。穴Bについても、上記と同様の処理が行
なわれ、連結領域として検出されてラベル付けが行なわ
れる。便宜上、穴Aに対応する黒のかたまりの画像なa
”と呼び、そして、六Bに対応するそれを“b”と呼ぶ
ステップS62では穴Aの面積S、が演算される。この
面積の演算は連結領域”a”の黒ドツトの数を数えるこ
とによりなされる。ステップS64では、連結領域“a
”のX軸方向、Y軸方向のヒストグラムが計算される。
このヒストグラムは第21図の(a)と(b)部分に示
されている。
穴Aは円としているので、Y方向ヒストグラムの極大値
に対応する座標値が穴Aの重心のX座標値X WAであ
る。同じ(、X方向ヒストグラムの極大値に対応する座
標値が穴Aの重心のY座標値Y。
である。このステップS62.ステップS64゜ステッ
プ366の手法を、“b ”とラベル付けされた穴Bに
ついても適用し、ステップ370〜ステツプS74で、
穴Bの面積S6、その重心座標Xb、Y、を計算する。
ステップS76では、穴A、Bの重心(X、、Y4)、
(xIl、yIl)間の距離りを、 L=((X、  −Xb )” + (Ya −Yb)
”l””から計算する。また、ステップ378では、穴
A、Bの重心(X、、Y4)、(X、、Yb)の中央位
置をワーク重心となるように、℃を設定する。また、ス
テップS80では、2つの穴の重心間を結ぶ直線α(第
10図参照)を定義する。
かくして、ワークのパラメータを抽出し、そのパラメー
タがメモリ105に格納された。そして画像処理装置側
の準備作業は終了した。
把ヱ」1作41庄迦 第19図は、ロボットが目標のワークをビックし、その
ワークを所定の位置にプレースする動作を、連続して行
なう場合に、ロボット制御装置12と画像処理装置11
の支援の下で行なうところの、ロボット制御装置12の
制御(第19図の左側)と画像処理装置11の制御(第
19図の右側)とを図示する。即ち、1つのワークをビ
ックしプレースする動作を繰返すためには、第9図のよ
うな、VREAD (1,n)、VMOVE (1,n
)、VMOVE (1,n+1)、ON 1.VMOV
E (1,n)の命令を繰返す。ここで、(1,n)は
第11図で説明した目標セル上方の位置Pを、 (1,
n+1)は目標ワークの招待位置Qを表わす。これらの
プログラム命令は制御プログラム202によりマクロ命
令に変換されて実行される。第19図は、このようなマ
クロ命令の実行順序に即して記されている。
第19図のステップ320〜ステツプS24はVREA
D (1,n)のマクロ命令に相当する。即ち、ステッ
プS20では、セル位置(1,n)の座標値、n=1の
ときは (300,200,O,O) がメモリ203から読出される。そして、ステップS2
2では算出される。ステップS22で、このセルの座標
値を通信制御部209を介して画像処理装置11に送る
。画像処理装置11は通信制御部111を介して上記座
標値を受信する。
この座標値を受けた画像処理装置11はステップS42
で、目標ワークのロボット座標系についての重心位置(
x、、、y、4) 、ロボット座標系の座標軸に対する
傾きφを算出して、通信制御部111を介して制御装置
12に送る。ステップS42におけるワークの重心位置
の算出は、セルの画像からワークの画像を探索すること
が前提となる。
ステップS26  S27はVMOVE (1,n)。
VMOVE (1,n+1)に対応する。即ち、ステッ
プ826では、画像処理装置11が検出したワークの重
心位置(X、ll、 Y、4)が、ステップS20で画
像処理装置llに送った座標位置と大きなずれがないか
を判断する。これは以下の理由による。ワークはセル内
で自由な位置にあるとは言え、セル外に出ることはない
。従って、画像処理装置11が検出したワークの重心位
置(Xwll、Ywl+)が、ステップS20で画像処
理装置11に送った座標位置と、例えば、セル1つ分の
大きさでずれていれば、それは、画像処理装置があやま
って別のセルのワークを認識したことに他ならない。そ
こで、かかる場合はステップS32に進んで、エラー処
理、例えば、警告表示を行なったり、システムを停止す
る等の処理を行なう。誤差がなければ、ステップS27
で、アームを移動する。即ち、第11図のように、ハン
ド8をP点に移動し、次にQ点に移動する。
ステップ828は命令ON Iに対応する。即ち、フィ
ンガー8の吸着機構をオンしてワークをビックする。ス
テップS30はVMOVE (1,口)に対応する。即
ち、ワークを把持したハンドをP点に退避して、更に、
当該ワークを所定の位置(第1図の作業台9)まで持っ
ていってプレースする。
ワークの  )  の ステップS42における、目的ワークのロボット座標系
における重心位置を算出する手順は第20図に詳細に示
される。
第20図のステップ5100では、ロボット制御装置1
2から受は取ったセル位置(p xR。
P、□ 1)を(1)式に従ってセンサの座標系による
座標値に座標変換する。ステップ5102では、センサ
座標系によるワーク位置(P xv。
PYV、1)に対し、ワークの画像を探索するための処
理領域PAを決定する。第15図はカメラlO内に設け
られたC、CDセンサの視野を示す。
この処理領域PAは第15図に示すように1幅△8.△
、を有する。即ち、処理領域PAを、島≦Xv≦X。
Y8≦Yv5Y。
とすると、 x、=p、v−△工/2 x、=p、v+△8/2゜ Ys=PYv−△7/2 Y −” P yv+△Y/2) とする。この処理領域PAは1つのセルよりも大きいサ
イズを要する。PAの大きさ位置に関する情報はカメラ
10に送られる。すると、カメラ10は、第19図のス
テップ5104で領域PAの画像データだけをフレーム
メモリ110に送る。
このようにして得られたものを第16図に示す。
この第16図には、一定の濃度を有した領域であって、
連続した連結領域a % fが示されている。
これらの連結領域は目的のワークの画像もあれば、パレ
ットの壁もあり、また他のワークの画像の一部もある。
ステップ5IO6では、フレームメモリ110の画像デ
ータな二値化する。
ステップ5108〜ステツプSl 14は領域PA内の
全ての連結領域にラベル付けをする手順を示す。即ち、
ステップ5108で1つの連結領域afiを見付ける。
連結領域を見付ける手法は第21図で説明した通りであ
る。ステップ5110ではその連結領域の面積S。を演
算し、ステップ5111ではその重心位置を検出する。
重心位置の検出は第21図に関連して説明した。
領域PA内の全ての連結領域にラベル付けが終了すると
、これらの連結領域のなかから、穴A。
Bに対応する連結領域を、ステップ8116〜ステツプ
5124で探索する。即ち、ステップ8116で、任意
の連結領域を2つ取出す。この2つの連結領域の面積の
小さい方をS^°、大きい方をSBoとする。ステップ
5118で、選んだ2つの連結領域が、ワークの穴A、
Hに相当するか否かを調べるために、 SA°″rSA、且つ、 S、  =S。
を判断する。ここでSA、S、はメモリ115に前もっ
て記憶されていた特徴パラメータである。
ステップ5118で、上記条件が満足していると判断さ
れたならば、ステップ5120で、この選択された2つ
の連結領域の各重心間を結ぶ距離L゛を演算し、ステッ
プ5122で、 L  r L を判断する。ここで、Lはメモリ115に前もって記憶
されていた特徴パラメータである。ステップ8228で
、上記条件が満足していると判断されたならば、この2
つの連結領域を包含するものは目標のワークと判断して
間違いないので、ステップ5130で、この2つの連結
領域の重心間の中央位置を演算し、この位置を目標ワー
クの重心とする。今、この2つの連結領域の夫々の重心
位置を、 (x、v、 y、v)、(xtl、、 y、v)とする
と、これらの間の距離りは、 t、=((xav −Xbv)” + (Yav −y
bv)”l””である。ここで、視覚座標系であること
を示すために、X、等に添字Vを付した。従って、ワー
クの重心(X、V、 Yw4)は、 L      L (x、 v−+、Y、、−−) 2 となる。ステップ5132では、穴A、Bを結ぶ直線α
とセンサ座標系のXv軸とが角度φを計算する(第13
図を参照)。ステップ5134では、センサ座標系のワ
ークの重心(X、v、 YWV)を(2)式に従ってロ
ボット座標系の(X、R,YWR)に変換する。第19
図のステップS44ではこの(Xw、、 Y、、l)と
、ワークのロボット座標系XRに対する傾き θ+φ をロボット制御装置12に送出する。
第19図のステップ5124で、全ての連結領域を調べ
ても、目標ワークが見付からなかった場合にはステップ
5L26でエラー処理を行なう。
天上u性m里 以上説明した実施例によれば、パレット上に配置された
複数のワークを視覚センサをもちいて、順次、ロボット
により取り上げ/組付を行なって行く作業において ロ
ボット側にワークの概略配置のデータ及びワークを取っ
た進行状態を記憶しておくのみで、ワークを正確に、且
つ残すことなく、順次、把持することがCきる。また、
パレットが空になった場合には、タイミングより、パレ
ットの供給装置等又は作業者に対してパレットの交換要
求を出すことが可能となった。
また、視覚センサは、パレット内のワークの管理等を行
なう必要から開放され、ロボットにより指定されたワー
クの位置の測定をするだけでよく、処理時間の延長にも
な0ず、晶速に組付作業を行な、える効果もある。
また、本実施例では、ロボット座標系とセンサ座標系間
で座標変換が行なわれているので、ロボット制f!li
装置12側では、自分が送った把持位置と画像処理装置
11が返してきた把持位置とを比較することが可能とな
り、画像処理装置の誤認識の検出が可能となる。
支形 本発明はその主旨を逸脱しない範囲で種々変形が可能で
ある。
例えば、上記実施例では、マトリックス状にパレット内
に配置されたワークについて説明したが、パレット内の
ワークの配置は、これにかぎらず、たとえば、直線等の
一列に並べても構わず、また、パレット内にランダムに
収納されていてもよい。要は、パレット内におけるワー
クの位置が大体法まっていればよく、その各ワークの概
略の位置をロボットに教えこまずことができることが重
要である。
また、第22図のような変形例を提案する。第1図の実
施例に用いるカメラ10に装着されたCCDセンサは4
0万画素の視野を有する。このCCDセンサはパレット
の全面を一度に見ることができる。従って、もしパレッ
トが大きくで、センサの解像度を落とすことが許されな
いのであれば、CCDセンサの大きさを大きくせざるを
得ずこれはコスト高(こ結びつく。第22図の変形例は
、小さなCCDセンサの使用を許容するものである。こ
のセンサを、カメラlOの焦点面に沿って、X方向アク
チュエータとY方向アクチュエータとにより、ステップ
5102で設定した領域PAに移動することができる。
また、第1図実施例では、セルの大きさは一定であり、
ワークも1種類とした。本発明は、セルの大きさが異な
っていても、また、1つのパレット内で異なるワークが
存在する場合にも適用できる。この場合は、セルの位置
とそのセルの大きさとそのセル内のワークの種類との対
応とを、制御装置〕2が画像処理装置11へ送ればよい
。また、1つのセル内に複数のワークが存在する場合に
も本発明を適用できる。
また、第1図実施例では、1つのワークを把持するのに
、VREADとVMOVEという組合せ命令を用いてい
た。これは、ロボット制御装置12と画像処理装置11
とが分離独立して設けられ、互いに独立して動作する構
成となっていたためである。本発明はこれに限定されな
い。ロボット制御装置12と画像処理装置11とが一体
化されれば、1つのワークの把持動作を1つの命令で言
己述することができる。
前記実施例では、座標変換を行なっていたが、ロボット
座標系とセンサ座標系とを正確に前もって一致させてお
くことが可能であったならば、上記座標変換は不要とな
る。
また、前記実施例では、座標変換は、視覚系で行なわれ
ていたが、ロボット制御装置側で行なってもよい。
また、前記実施例では、穴A、Bの重心位置は第21図
に説明したように、ヒストグラムの極大値をとる位置を
重心位置と定めたが2次のようにしてもよい。即ち、第
21図で、全ドツトの数がn個の場合は、頻度の累積が
n/2となる点を重心とする。この手法によれば、対象
でない形状の穴等についても重心を演算できる。
[発明の効果] 以上説明したように、本発明によれば、収納ケース内に
自由に収納された複数のワークのなかから、目標のワー
クを正確に把持することのできる把持装置を提供できた
【図面の簡単な説明】
第1図は本発明を組立ロボットに適用した場合の該ロボ
ット装置の全体斜視図、 第2A図は従来及び本実施例にも使用可能なワークの形
状を示す斜視図、 第2B図は第2A図のワークをパレット2に収容したと
きの斜視図、 第2C図は第2B図のXX線破断図、 第3図は従来例におけるパレットの精度が必要なことを
説明する図、 第4A図はワークをパレット2に収容したときの斜視図
、 第4B図はそのXX線破断図、 第5図は本実施例におけるパレットの精度が必要ないこ
とを説明する図、 第6図は第1図実施例におけるロボット側の制御装置の
構成を示すブロック図、 第7図は同実施例における画像処理側の制御装置の構成
を示すブロック図、 第8図は複数のワークについての把持位置の概略値を示
すテーブル、 第9図は第1図の装置に用いられるプログラムの一例を
示す図、 第10図は第1図装置に用いられる一例としてのワーク
の特徴を説明する図、 第11図は第1図のロボットがワークを把持するときの
ハンドの通り道を示す図、 第12図は、ロボット座標とパレットとの位置関係を説
明する図、 第13図はパレット内の特定のワークが、ロボット座標
系と視覚センサ座標系と取る位置関係を示す図、 第14図はロボット座標系と視覚センサ座標系との位置
関係を説明する図、 第15図は画像処理装置における画像処理対象領域PA
を説明する図、 第16図は画像処理装置PAの画像を示す図、第17A
図、第17B図は夫々、ワーク組立てのために行なわれ
る準備処理のための、ロボット制御装置と画像処理装置
の手順を説明するフローチャート、 第18図は準備処理における特徴パラメータ算出手順の
フローチャート、 第19図は実際のワーク組立の制御手順を示すフローチ
ャート、 第20図は目的ワークの正確な把持位置を検出する手順
を説明するフローチャート、 第21図はラベリング処理を説明する図、第22図は本
発明の変形例のセンサ移動機構を説明する図である。 図中、 l・・・ワーク、2.6・・・パレット、7・・・アー
ム・8・・・ハンド、9・・・組立ステーション、10
・・・カメフ、 1 ■ ・・・画像処理装置、 2・・・ロボット制御袋 置、 3・・・通信線である。 第 図 第2C図 第3 図 第4A図 第4B図 第5 図 ロ爪′Iト#llI會部[直 第 因 第 図 (Xw、Yw) 第10図 第11 図 第12図 第13図 第 4図 第15図 第(6図 第17B図 a 第21図

Claims (1)

  1. 【特許請求の範囲】 (1)1つの収納ケースに収納された複数のワークのな
    かから目標ワークの収納位置を視覚センサを用いて認識
    することにより、この目標ワークを把持するワーク把持
    装置であって、 前記目標ワークの形状特徴を表わす情報を前もって記憶
    する記憶手段と; 前記目標ワークの前記収納ケース内における概略的位置
    であって、この把持装置の座標系で表わされるところの
    位置情報を外部から入力する入力手段と; 前記視覚センサで得たワークの画像情報上で、上記概略
    的な位置情報と形状特徴を表わす情報とに基づいて、前
    記目標ワークのこの把持装置の座標系における座標位置
    を測定する測定手段とを具備したワーク把持装置。 (2)前記測定手段は: 前記入力手段が入力した座標位置を、前記視覚センサの
    座標系における座標位置に変換する第1の変換手段と; 前記センサが得た前記画像情報上で、前記視覚センサの
    座標系に変換された座標位置の近傍に、前記目標ワーク
    の形状特徴に近い画像を探索する探索手段と; 探索された画像の重心位置を演算する演算手段と; この重心位置を前記目標ワークのこの把持装置の座標系
    における前記座標位置に変換する第2の変換手段とを具
    備したことを特徴とする請求項の第1項に記載のワーク
    把持装置。(3)前記視覚センサは、この把持装置の本
    体に対して固定されたカメラの焦点領域内に置かれてい
    ると共に、且つ、そのセンサの視野は前記収納ケースの
    全体を略カバーし、 前記探索手段は、更に: 前記視覚センサの座標系に変換された前記座標位置を中
    心にして、前記収納ケースの収納単位の大きさに大体近
    い領域を、前記収納ケースの全体の前記画像情報上に設
    定する手段と; この設定された領域内で前記目標ワークの形状特徴に近
    い画像を探索する手段とを具備した事を特徴とする請求
    項の第2項に記載のワーク把持装置。 (4)前記複数のワークの各々は、このパレット内の前
    記概略位置の周辺に任意に収納される事を特徴とする請
    求項の第1項に記載のワーク把持装置。 (5)前記視覚センサは、この把持装置の本体に対して
    固定されたカメラの焦点領域内に置かれていると共に、
    その視野は前記収納ケースの収納単位の大きさに大体近
    い領域をカバーし、 前記探索手段は、更に: 前記入力手段が入力した座標位置を、前記視覚センサの
    座標系における座標位置に変換する第1の変換手段と; 前記センサの本体を、前記視覚センサの座標系における
    前記座標位置に移動して、その位置での画像を取込む手
    段と; 上記手段で取込んだ画像内に、前記目標ワークの形状特
    徴に近い画像を探索する探索手段と;探索された画像の
    重心位置を演算する演算手段と; この重心位置を前記目標ワークのこの把持装置の座標系
    における前記座標位置に変換する第2の手段とを具備し
    た事を特徴とする請求項の第2項に記載のワーク把持装
    置。 (6)更に、 (a):把持シーケンス制御を行なう第1の制御回路と
    ; (b):画像処理制御を行なう第2の制御回路と;(c
    ):第1、第2の制御回路をデータ通信で接続する通信
    回路とを更に備え、 前記第1の制御回路は: (a_1):前記入力手段としての、前記概略的な位置
    情報を把持命令として入力するための入力回路と; (a_2):前記測定手段が測定したところの前記目標
    ワークのこの把持装置の座標系における前記座標位置を
    、前記通信回路を通して受信する回路とを具備し、 前記第2の制御回路は: (b_1):前記入力回路からの把持命令を前記通信回
    路から受信し、この把持命令を、前記視覚センサの座標
    系における座標位置に変換する回路と; (b_2):上記回路により変換された座標位置近傍の
    前記収納ケースの画像を読取る読取り回路と; (b_3):読取られた画像内に、前記目標ワークの形
    状特徴に近い画像を探索する探索回路 と; (b_4):探索された画像の重心位置を演算する演算
    回路と; (b_5):この重心位置を前記目標ワークのこの把持
    装置の座標系における前記座標位置に変換する回路とを
    具備した; 事を特徴とする請求項の第2項に記載のワーク把持装置
    。 (7)前記入力手段が入力した前記概略的な位置情報と
    、前記測定手段が測定した目標ワークの座標位置とを比
    較する手段と、 この比較結果が両者の位置が大きく異なることを示すと
    きに、警告を報知する手段とを更に具備した事を特徴と
    する請求項の第2項に記載のワーク把持装置。 (8)前記ワークの表面に、当該ワークを識別するため
    の特徴的な切り欠きが特に形成され、収納ケースのワー
    クを収納するセルには、前記ワークが自由に動く空間が
    形成されている請求項第1項のワーク把持装置に用いら
    れるワーク及び収納ケース。
JP2055032A 1989-03-27 1990-03-08 ワーク把持装置、ワーク及びその収納ケース Expired - Fee Related JP2710850B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2055032A JP2710850B2 (ja) 1989-03-27 1990-03-08 ワーク把持装置、ワーク及びその収納ケース
US07/820,808 US5350269A (en) 1989-03-27 1992-01-15 Work pick-up apparatus

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP7189589 1989-03-27
JP1-71895 1989-03-27
JP2055032A JP2710850B2 (ja) 1989-03-27 1990-03-08 ワーク把持装置、ワーク及びその収納ケース

Publications (2)

Publication Number Publication Date
JPH03228591A true JPH03228591A (ja) 1991-10-09
JP2710850B2 JP2710850B2 (ja) 1998-02-10

Family

ID=26395866

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2055032A Expired - Fee Related JP2710850B2 (ja) 1989-03-27 1990-03-08 ワーク把持装置、ワーク及びその収納ケース

Country Status (2)

Country Link
US (1) US5350269A (ja)
JP (1) JP2710850B2 (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1094991A (ja) * 1996-09-24 1998-04-14 Mazda Motor Corp 物品位置検出方法及び装置
US5835623A (en) * 1993-08-23 1998-11-10 Mazda Motor Corporation Method of and apparatus for distinguishing one workpiece from another workpiece and detecting workpiece position
WO2003023846A1 (en) * 2001-09-13 2003-03-20 Optillion Ab Method and apparatus for high-accuracy placing of an optical component on a component carrier
CN103158161A (zh) * 2013-03-29 2013-06-19 中国科学院自动化研究所 基于单目显微视觉的微管微球对准和装配装置与方法
CN103480584A (zh) * 2013-09-25 2014-01-01 苏州通锦自动化设备有限公司 自动影像检测机
CN105234940A (zh) * 2015-10-23 2016-01-13 上海思依暄机器人科技有限公司 机器人及其控制方法
JP2016161419A (ja) * 2015-03-02 2016-09-05 キヤノン株式会社 情報処理装置、情報処理方法
CN106863259A (zh) * 2017-04-14 2017-06-20 天津理工大学 一种轮式多机械手智能捡球机器人
JP2018034272A (ja) * 2016-09-01 2018-03-08 アイシン精機株式会社 パレタイジング装置
CN116330305A (zh) * 2023-05-30 2023-06-27 常州旭泰克系统科技有限公司 多模态人机交互装配方法、系统、设备及其介质

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR940006241A (ko) * 1992-06-05 1994-03-23 이노우에 아키라 기판이재장치 및 이재방법
US5600150A (en) * 1992-06-24 1997-02-04 Robotic Vision Systems, Inc. Method for obtaining three-dimensional data from semiconductor devices in a row/column array and control of manufacturing of same with data to eliminate manufacturing errors
JP3394322B2 (ja) * 1994-05-19 2003-04-07 ファナック株式会社 視覚センサを用いた座標系設定方法
TW287235B (ja) * 1994-06-30 1996-10-01 Zenshin Test Co
IT1275664B1 (it) * 1994-11-16 1997-10-17 Consorzio Telerobot Sistema per il controlllo e guida automatica di un gruppo elevatore a forche
US5793051A (en) * 1995-06-07 1998-08-11 Robotic Vision Systems, Inc. Method for obtaining three-dimensional data from semiconductor devices in a row/column array and control of manufacturing of same with data to eliminate manufacturing errors
US6024526A (en) * 1995-10-20 2000-02-15 Aesop, Inc. Integrated prober, handler and tester for semiconductor components
KR100373084B1 (ko) * 1995-12-05 2003-07-12 주식회사 로보스타 조립용로보트의위치제어방법
US6071060A (en) * 1998-04-08 2000-06-06 Mcms, Inc. Calibration jig for an automated placement machine
US6705827B2 (en) * 2000-08-25 2004-03-16 Aagrinomics, Llc Robotic seed-handling apparatus and methods
EP1472052A2 (en) * 2002-01-31 2004-11-03 Braintech Canada, Inc. Method and apparatus for single camera 3d vision guided robotics
CA2369845A1 (en) 2002-01-31 2003-07-31 Braintech, Inc. Method and apparatus for single camera 3d vision guided robotics
US7336814B2 (en) * 2004-07-14 2008-02-26 Braintech Canada, Inc. Method and apparatus for machine-vision
US20060047363A1 (en) * 2004-08-31 2006-03-02 Farrelly Philip J Machine vision system for lab workcells
JP3977369B2 (ja) * 2004-10-01 2007-09-19 ファナック株式会社 ロボットプログラム生成装置及び解析装置
US8000837B2 (en) 2004-10-05 2011-08-16 J&L Group International, Llc Programmable load forming system, components thereof, and methods of use
JP4087841B2 (ja) * 2004-12-21 2008-05-21 ファナック株式会社 ロボット制御装置
US20070276539A1 (en) * 2006-05-25 2007-11-29 Babak Habibi System and method of robotically engaging an object
WO2008036354A1 (en) * 2006-09-19 2008-03-27 Braintech Canada, Inc. System and method of determining object pose
US7575408B2 (en) * 2006-12-28 2009-08-18 Hirotec Corporation Work conveying method and conveying apparatus employing the conveying method
US7957583B2 (en) * 2007-08-02 2011-06-07 Roboticvisiontech Llc System and method of three-dimensional pose estimation
WO2009089911A1 (en) * 2008-01-17 2009-07-23 Hawk Automazioni Srl Apparatus for positioning small-sized items, in particular rhinestones, in a controlled manner
US8157155B2 (en) * 2008-04-03 2012-04-17 Caterpillar Inc. Automated assembly and welding of structures
US8559699B2 (en) 2008-10-10 2013-10-15 Roboticvisiontech Llc Methods and apparatus to facilitate operations in image based systems
JP5500926B2 (ja) * 2009-09-29 2014-05-21 キヤノン株式会社 物体把持制御方法及び装置
JP5849403B2 (ja) * 2011-02-15 2016-01-27 セイコーエプソン株式会社 ロボットコントローラー、ロボット、及び、ロボットシステム
JP5941268B2 (ja) 2011-11-10 2016-06-29 キヤノン株式会社 発光素子駆動回路、光学式エンコーダ、カメラ及び発光素子駆動回路の制御方法
WO2014015223A2 (en) * 2012-07-19 2014-01-23 Monsanto Technology Llc Small object distribution automation
JP2014173842A (ja) 2013-03-05 2014-09-22 Canon Inc 発光素子駆動装置、その制御方法、光学式エンコーダ、およびカメラ
CN106239086B (zh) * 2016-08-23 2019-03-15 中国科学院自动化研究所 一种微管零件的夹持装置及方法
JP2018034243A (ja) * 2016-08-31 2018-03-08 セイコーエプソン株式会社 ロボット、ロボット制御装置、及びロボットシステム
JP6970513B2 (ja) 2017-02-17 2021-11-24 キヤノン株式会社 光電変換装置
CN107756398B (zh) * 2017-09-30 2024-02-23 深圳市功夫机器人有限公司 机器人视觉引导方法、装置及设备
DE102018209870B3 (de) * 2018-06-19 2019-07-04 Kuka Deutschland Gmbh Verfahren und System zum Überführen eines Endeffektors eines Roboters zwischen einer Endeffektorpose und einer weiteren Endeffektorpose
CN108890636A (zh) * 2018-07-06 2018-11-27 陕西大中科技发展有限公司 一种工业机器人的抓取定位方法
CN112621765B (zh) * 2021-03-09 2021-06-01 佛山隆深机器人有限公司 一种基于机械手的设备自动组装控制方法及装置

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4187051A (en) * 1978-05-26 1980-02-05 Jerry Kirsch Rotary video article centering, orienting and transfer device for computerized electronic operating systems
US4389677A (en) * 1980-12-08 1983-06-21 Ncr Canada Ltd - Ncr Canada Ltee Method and apparatus for removing erroneous elements from digital images
US4435837A (en) * 1981-03-05 1984-03-06 President And Fellows Of Harvard College Pattern recognition and orientation system
JPS5811941A (ja) * 1981-07-16 1983-01-22 Dainippon Screen Mfg Co Ltd 網目版画像記録装置における絵柄信号と文字信号の処理方法
JPS58177295A (ja) * 1982-04-07 1983-10-17 株式会社日立製作所 ロボット制御装置
JPS6056884A (ja) * 1983-09-06 1985-04-02 富士電機株式会社 視覚付組立ロボット
JPS6079875A (ja) * 1983-10-06 1985-05-07 Kokusai Denshin Denwa Co Ltd <Kdd> フアクシミリ通信方式
JPS60123974A (ja) * 1983-12-09 1985-07-02 Hitachi Ltd 多段階視野認識方式
JPS60263681A (ja) * 1984-06-08 1985-12-27 株式会社日立製作所 ロボツトの教示方法
JPS6113760A (ja) * 1984-06-29 1986-01-22 Dainippon Screen Mfg Co Ltd 画像走査記録方法
JPS6132113A (ja) * 1984-07-23 1986-02-14 Seiko Instr & Electronics Ltd ロボツト制御方式
JPS61296409A (ja) * 1985-06-25 1986-12-27 Fanuc Ltd ロボツト制御方式
EP0222072B1 (en) * 1985-10-11 1993-12-15 Hitachi, Ltd. Method of loading surface mounted device and an apparatus therefor
US4651203A (en) * 1985-10-29 1987-03-17 At&T Technologies, Inc. Video controlled article positioning system
JPS62140724A (ja) * 1985-12-13 1987-06-24 Hitachi Ltd 視覚認識機能付組付装置
US4704694A (en) * 1985-12-16 1987-11-03 Automation Intelligence, Inc. Learned part system
US4707647A (en) * 1986-05-19 1987-11-17 Gmf Robotics Corporation Gray scale vision method and system utilizing same
JPS6342575A (ja) * 1986-08-08 1988-02-23 Dainippon Screen Mfg Co Ltd 階調変換方法およびその装置
US4738025A (en) * 1986-12-23 1988-04-19 Northern Telecom Limited Automated apparatus and method for positioning multicontact component
US4980971A (en) * 1989-12-14 1991-01-01 At&T Bell Laboratories Method and apparatus for chip placement

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5835623A (en) * 1993-08-23 1998-11-10 Mazda Motor Corporation Method of and apparatus for distinguishing one workpiece from another workpiece and detecting workpiece position
JPH1094991A (ja) * 1996-09-24 1998-04-14 Mazda Motor Corp 物品位置検出方法及び装置
WO2003023846A1 (en) * 2001-09-13 2003-03-20 Optillion Ab Method and apparatus for high-accuracy placing of an optical component on a component carrier
CN103158161A (zh) * 2013-03-29 2013-06-19 中国科学院自动化研究所 基于单目显微视觉的微管微球对准和装配装置与方法
CN103480584A (zh) * 2013-09-25 2014-01-01 苏州通锦自动化设备有限公司 自动影像检测机
JP2016161419A (ja) * 2015-03-02 2016-09-05 キヤノン株式会社 情報処理装置、情報処理方法
CN105234940A (zh) * 2015-10-23 2016-01-13 上海思依暄机器人科技有限公司 机器人及其控制方法
JP2018034272A (ja) * 2016-09-01 2018-03-08 アイシン精機株式会社 パレタイジング装置
CN106863259A (zh) * 2017-04-14 2017-06-20 天津理工大学 一种轮式多机械手智能捡球机器人
CN106863259B (zh) * 2017-04-14 2024-02-20 天津理工大学 一种轮式多机械手智能捡球机器人
CN116330305A (zh) * 2023-05-30 2023-06-27 常州旭泰克系统科技有限公司 多模态人机交互装配方法、系统、设备及其介质
CN116330305B (zh) * 2023-05-30 2023-10-31 常州旭泰克系统科技有限公司 多模态人机交互装配方法、系统、设备及其介质

Also Published As

Publication number Publication date
JP2710850B2 (ja) 1998-02-10
US5350269A (en) 1994-09-27

Similar Documents

Publication Publication Date Title
JPH03228591A (ja) ワーク把持装置、ワーク及びその収納ケース
US10894324B2 (en) Information processing apparatus, measuring apparatus, system, interference determination method, and article manufacturing method
US7283661B2 (en) Image processing apparatus
US4305130A (en) Apparatus and method to enable a robot with vision to acquire, orient and transport workpieces
EP2045772B1 (en) Apparatus for picking up objects
US11524410B2 (en) Robotic alignment method for workpiece measuring systems
US7200260B1 (en) Teaching model generating device
EP1607194A2 (en) Robot system comprising a plurality of robots provided with means for calibrating their relative position
US20140147240A1 (en) Component supply apparatus
US11213954B2 (en) Workpiece identification method
US6868176B2 (en) Image processing method and device
JPH0762869B2 (ja) パタ−ン投影による位置形状計測方法
US11826919B2 (en) Work coordinate generation device
JPH0871973A (ja) ストッカ用ロボットの教示方法
US20220134577A1 (en) Image processing method, image processing apparatus, robot-mounted transfer device, and system
JPH03270890A (ja) 視覚センサを備えたワーク把持制御装置
TWI656421B (zh) 自走設備的控制方法
JP2003141511A (ja) 3次元形状認識方法、装置およびプログラム
JP2562047B2 (ja) 対象物体の位置姿勢認識方法
JPH0797059A (ja) 物体取出装置
JPH0934552A (ja) 移動体の制御装置、位置検出装置、そして移動体装置、及びそれらの制御方法
JPH0339611A (ja) 視覚認識装置を備えたロボツトにおける座標系間のキヤリブレーシヨン方法
WO2024083674A1 (en) Apparatus and method for the automated bending of workpieces
CN117464725A (zh) 目标坐标获取方法及系统
JPH0964598A (ja) 自動組立装置の位置合わせ方法

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees