JP2010214546A - 組立装置および組立方法 - Google Patents

組立装置および組立方法 Download PDF

Info

Publication number
JP2010214546A
JP2010214546A JP2009065121A JP2009065121A JP2010214546A JP 2010214546 A JP2010214546 A JP 2010214546A JP 2009065121 A JP2009065121 A JP 2009065121A JP 2009065121 A JP2009065121 A JP 2009065121A JP 2010214546 A JP2010214546 A JP 2010214546A
Authority
JP
Japan
Prior art keywords
workpiece
image
posture
manipulator
work
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009065121A
Other languages
English (en)
Inventor
Masahiro Tatsukawa
昌弘 辰川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fuji Electric Co Ltd
Original Assignee
Fuji Electric Holdings Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Electric Holdings Ltd filed Critical Fuji Electric Holdings Ltd
Priority to JP2009065121A priority Critical patent/JP2010214546A/ja
Publication of JP2010214546A publication Critical patent/JP2010214546A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Manipulator (AREA)
  • Automatic Assembly (AREA)

Abstract

【課題】安価な構成で、ワークの把持時のバラツキや微小変形にも対応可能な組立装置を提供することである。
【解決手段】提案する組立装置は、ロボットや位置決め装置等のマニピュレーターと視覚装置とを備え、形状既知のワークをマニピュレーターで把持した状態で第1の視点からの撮像を行って、該第1の視点に対応する第1基準画像と該撮像した画像との比較により、前記ワークの位置・姿勢を測定し、前記第1の視点からの撮像結果としての位置・姿勢に基づいて、前記ワークを把持したマニピュレーターを第2の視点まで移動させて撮像を行って、該第2の視点に対応する第2基準画像と該撮像した画像との比較により、前記ワークの位置・姿勢を測定する。
【選択図】 図2

Description

本発明は、マニピュレーター(ロボットや位置決め装置等)でワークを搬送し、視覚装置でそのワークの位置や姿勢のずれ量を測定して位置決めを行って組み立てる技術に関する。
自動化された組立工場では、急速な市場の変化に対応するため、大量生産方式から変種変量生産方式への移行が進み、ロボットによるセル生産システムも拡大しつつある。
ロボットによるセル生産システムでは、1台のロボットで多品種のワークを組み立てることになり、当然のこととして、ワーク毎に、ワークの色や形状・サイズ等が異なることになる。
例えば、ネジや引っ張りばねおよびモールド部品等、単純な形状から複雑な形状まで多種多様なワークを取り扱うことになる。
また、ロボットによるワークの組み立て作業では、ワークの形状や位置・姿勢等をロボットに認識させる必要があり、ワークを認識する方法としての視覚装置の採用が進んでいる。この視覚装置は、カメラ、レンズ、照明装置、画像処理装置等で構成されており、カメラで撮像した画像からワークが写っている部分に相当する画像を抽出し、その抽出した画像を処理してワークの特徴点等を認識している。
図5は、第1の従来技術のシステム構成を示す図である。
図5に示すように、このシステムは、先端部にワーク23を吸着するための吸着ノズル22が設けられたロボットアーム21と、カメラ25、照明装置24、画像処理装置26、を有する視覚装置とにより構成される。
ロボットアーム21の先端に吸着されたワーク23は、ロボットアーム21が移動することで、撮像位置まで搬送される。その撮像位置において、照明装置24によりワーク23が照らされて、カメラ25によりワーク23が撮像される。
撮像した画像は画像処理装置26に取り込まれ、その画像処理装置26において、その撮像した画像からワーク23が写っている部分に相当する画像が画像処理の結果として抽出され、そのワーク23の形状や姿勢等が認識される。
このように、ワーク23は、ロボットアーム21に吸着して供給され、画像処理装置26による画像処理によって、吸着したワーク23の位置や姿勢(あるいは、その吸着したワーク23の位置や姿勢の所定位置を基準とした座標、そのときのその所定位置を原点とする座標系の、例えば、ロボットアーム21の初期状態のときの各軸となす角度)を検出し補正することで、高精度な組立てを行なっている。
ワーク23としては、組立てに3次元の位置や姿勢情報を必要としない平板等と、組立てに3次元の位置や姿勢情報を必要とする一般的な3次元物体とがある。特許文献1では、一般的な3次元物体の位置・姿勢を推定する方法が示されている。この方法によれば、3次元モデルとして事前に登録することで形状が既知であるワークを、2次元の画像情報を取り込むカメラにより1回撮像し、その撮像した画像から画像処理の結果として特徴点(稜線や端点)を抽出し、抽出された特徴点と、事前に登録された3次元モデルの特徴点とを比較して、ワークの位置・姿勢を推定している。
また、この特許文献1の方法を改善したものとして、特許文献2の3次元座標測定方法がある。
特許文献2の方法では、図6に示すように、システムは、先端部にレーザーレンジセンサー37が取り付けられたロボットアーム31と、カメラ35、画像処理装置(図6では不図示)、を有する視覚装置とにより構成される。
カメラ35で撮像した画像は画像処理装置に取り込まれ、その画像処理装置において、その撮像した画像からワーク33の特徴点が画像処理の結果として抽出される。そして、ロボットアーム31に取り付けられたレーザーレンジセンサー37により、そのワーク33のロボット座標系(これは、例えば、ロボットアームの根元位置を基準とした座標系である)における位置・姿勢が求められる。
しかし、特許文献1に記載の技術では、事前に登録した3次元モデルから、ワークの3次元での位置・姿勢を推定するため、部品バラツキや微小な変形等への対応が困難であるとともに、その位置・姿勢を高精度に測定することもできない。さらに、ワークを把持することにより発生する微小な位置ずれにも対応できない、という不具合がある。
また、特許文献2に記載の技術では、視覚装置とレーザーレンジセンサー37とを用いてワークの位置や姿勢を測定しているため、それぞれの測定装置が必要となり、設備コストが増大する。また、視覚装置と比較してレーザーレンジセンサー37はスキャンタイムが長く、データ処理も煩雑になる。さらに、それぞれのシステム(視覚装置とレーザーレンジセンサー37)は個別に設置されるため、設置スペースが増加する、という不具合がある。
特開平2−51008号公報 特開平7−136959号公報
本発明は、以上の問題点を考慮してなされたものであり、安価な構成で、ワークの把持時のバラツキや微小変形にも対応可能な組立装置および組立方法を提供することを目的とする。
提案する組立装置は、ワークを保持して所定位置へ搬送するマニピュレーターと、前記ワークを複数の異なる視点から撮像した画像を取得し、該複数の画像に基づいて前記ワークの保持位置・姿勢を演算する視覚装置と、を備えた組立装置であって、前記視覚装置は、前記ワークの形状に対応して定めた複数の異なる視線方向から撮像した前記ワークの画像であって予め記憶されている基準画像と、前記視線方向から撮像した前記マニピュレーターに保持された前記ワークの画像であるワーク画像と、を比較し、前記マニピュレーターに保持された前記ワークの視線方向に基づく位置および姿勢を演算するワーク位置・姿勢演算部を備え、前記ワーク位置・姿勢演算部で求めた複数の視線方向に基づく前記ワークの位置および姿勢にから、前記ワークの前記マニピュレーターに保持された位置・姿勢を演算し、該演算結果を用いて、前記ワークを保持したマニピュレーターを制御して前記ワークの組立作業を行うことを特徴とする組立装置。
さらに提案する組立装置は、ワークの位置・姿勢を2方向からの視線による画像により演算できる場合には、ワークを保持して所定位置へ搬送するマニピュレーターと、前記ワークを2つの異なる視点から撮像した画像を取得し、該2つの画像に基づいて前記ワークの保持位置・姿勢を演算する視覚装置と、を備えた組立装置であって、前記視覚装置は、前記ワークの形状に対応して定めた第1の視線方向から撮像した前記ワークの画像であって予め記憶されている第1基準画像と、前記第1の視線方向から撮像した前記マニピュレーターに保持された前記ワークの画像である第1ワーク画像と、を比較し、前記マニピュレーターに保持された前記ワークの第1の視線方向に基づく位置および姿勢を演算する第1ワーク位置・姿勢演算部と、前記第1ワーク位置・姿勢演算部で求める第1の視線方向に基づく前記ワークの位置および姿勢に対応して定めた第2の視線方向から撮像した前記ワークの画像であって予め記憶されている第2基準画像と、前記第2の視線方向から撮像した前記マニピュレーターに保持された前記ワークの画像である第2ワーク画像と、を比較し、前記ワークの第2の視線方向に基づく前記ワークの位置および姿勢を演算する第2ワーク位置・姿勢演算部と、前記第1および第2ワーク位置・姿勢演算部の演算結果から、前記ワークの前記マニピュレーターに保持された位置・姿勢を演算する第3ワーク位置・姿勢演算部と、を備え、前記第3ワーク位置・姿勢演算部の演算結果を用いて、前記ワークを保持したマニピュレーターを制御して前記ワークの組立作業を行うことを特徴としている。
提案する組立装置によれば、第1の視点からの撮像の結果得られたワークの位置・姿勢に基づき、ワークを把持したマニピュレーターを第2の視点まで移動させて撮像を行って、ワークの3次元の位置・姿勢データを取得している。このため、ワークの把持時のバラツキや微小変形にも対応することが可能となる。
また、マニピュレーターでワークを把持した状態で撮像を行ない、位置・姿勢を測定するため、ワークのロボット座標系における3次元の位置・姿勢データを取得できる。また、2次元の画像処理装置を使用する結果、レーザーレンジセンサー等の高価で設置スペースをとる測定装置が不要となり、安価で高速な画像処理が可能となる。
本発明の一実施形態に係る3次元物体の位置・姿勢測定システムの構成を示すブロック図である。 本システムによる組立作業のフローチャートである。 ワークとしての引っ張りばねを第1カメラで撮像した画像を、第1基準画像とともに示した図である。 ワークとしての引っ張りばねを第2カメラで撮像した画像を、第2基準画像とともに示した図である。 第1の従来技術のシステム構成を示す図である。 第2の従来技術のシステム構成を示す図である。
以下図面に基づいて、本発明の実施形態について詳細を説明する。
図1は、本発明の一実施形態に係る3次元物体の位置・姿勢測定システムの構成を示すブロック図である。
図1に示すように、このシステムは、ワークとしての引っ張りばね8を把持して移動させるマニピュレーター1と、2次元の画像処理装置6と、2台のカメラ5−1、5−2と、照明装置4とにより構成されている。なお、図1には示されていないが、画像処理装置6からの処理結果情報に基づいてマニピュレーター1を制御する制御装置もこのシステムには含まれる。
このシステムを使用してワーク同士を引っ掛けるなどして組立作業を行なう前に、第1カメラ5−1とマニピュレーター1とのキャリブレーション作業、第2カメラ5−2とマニピュレーター1とのキャリブレーション作業を行って、第1カメラ5−1の座標系とマニピュレーター1のロボット座標系および第2カメラ5−2の座標系とマニピュレーター1のロボット座標系の関係を予め求めておく。
例えばこのキャリブレーション作業では、第1カメラ5−1の視野内にマニピュレーター1上の第1のマーカー(不図示)が写るように撮像を行なうとともに、第2カメラ5−2の視野内にマニピュレーター1上の第2のマーカー(不図示)が写るように撮像を行なう。
また、ワークとしての引っ張りばね8をマニピュレーター1で把持した第1の基準状態にて第1カメラ5−1で撮像した画像を第1基準画像として画像処理装置6のメモリ(不図示)に記憶(登録)するとともに、ワークとしての引っ張りばね8をマニピュレーター1で把持した第2の基準状態を第2カメラ5−2で撮像した画像を第2基準画像として画像処理装置6のメモリ(不図示)に記憶(登録)する。
以上の準備を行った後、組立作業に移る。
この組立作業では、引っ張りばね8はトレー(不図示)から整列した状態(あるいはテーピングした状態)で供給される。そして、トレー上の引っ張りばね8をマニピュレーター1で把持して、所定の位置まで移動させる。例えばこの組立作業では、引っ張りばね8の両端のフック9の例えば一方を他のワーク(不図示)に引っ掛ける。
引っ張りばね8の中央部分をマニピュレーター1で把持すると、引っ張りばね8は軸の回転方向とスラスト方向(軸方向)に位置ずれが生じる。そこで、他のワークに引っ張りばね8のフック9を引っ掛けるには、その都度、引っ張りばね8をマニピュレーター1で把持した状態で撮像し、3次元の位置・姿勢データを測定する必要がある。
図2は、本システムによる組立作業のフローチャートである。このフローチャートは一連の組立処理のうちの一部分(引っ張りばね8の一方のフック9を相手のワークに引っ掛ける部分)を記述したものである。
始めに、ステップS1で、トレー上の引っ張りばね8をマニピュレーター1により把持し、ステップS2で、撮像を行なうべき位置として予め定められた位置(引っ張りばね8の軸方向が第1カメラ5−1に正対するような位置)までマニピュレーター1を移動させる。
なお、マニピュレーター1の形状の関係から、図1に示すように、引っ張りばね8の軸方向(図1の矢印B方向)がマニピュレーター1のアーム方向(図1の矢印A方向)に対してぶれないこと(直交あるいはほぼ直交すること)になっている。その結果として、各アームの長さ、各アーム間の角度に基づく順運動学により、引っ張りばね8の軸方向が第1カメラ5−1に正対するような位置(ばね8の主体としての円筒部分の軸方向と第1カメラ5−1のレンズの視線方向とが一致する位置)を制御信号として制御装置からマニピュレーター1に出力することができる。
そして、続くステップS3で、第1カメラ5−1により引っ張りばね8を撮像する。この結果、図3に示すような画像12が得られる。
ステップS4では、図3に示すように、ステップS3で撮像した画像12と、予め記憶しておいた第1基準画像11とが画像処理装置6において比較される。この比較の結果として、フック9の第1基準画像11から見た回転角度(フック9によって決定される平面の回転角度)と、引っ張りばね8のらせん状のばねが作る円形状の中心位置の第1基準画像11のらせん状のばねが作る円形状の中心位置から見た変位とが求められ、制御装置に出力される。
続くステップS5では、算出された回転角度と変位とに基づいて、制御装置からマニピュレーター1に制御信号が出力され、第2カメラ5−2によりフック9の円形状が正面から撮像できるように、マニピュレーター1が移動する。
そして、ステップS6で、第2カメラ5−2により引っ張りばね8のフック9の円形状が撮像される。この結果、図4に示すような画像14が得られる。
続く、ステップS7では、図4に示すように、ステップS6で撮像した画像14と、予め記憶しておいた第2基準画像13とが画像処理装置6において比較される。この比較の結果として、第2基準画像13を基準とするフック9の円形状の中心位置の変位が求められ、制御装置に出力される。
そして、ステップS8で、ステップS6およびステップS7で算出された回転角度と変位に基づいて引っ張りばね8の保持位置・姿勢を演算し、その演算結果に基づいて制御装置からマニピュレーター1に制御信号が出力され、相手のワークに対して引っ張りばね8の一方のフック9が引っ掛けられる。
以上説明したように、本システムによれば、第1カメラ5−1が設置された第1の視点からの撮像の結果得られたワークの位置・姿勢に基づき、ワーク(引っ張りばね8)を把持したマニピュレーター1を第2カメラ5−2が設置された第2の視点から撮像可能で、かつ、上記第2基準画像13と比較可能な画像を撮像できる位置まで移動させて撮像を行って、ワークの3次元の位置・姿勢データを取得している。このため、ワークの把持時のバラツキや微小変形にも対応することが可能となる。
また、マニピュレーター1でワークを把持した状態で撮像を行ない、位置・姿勢を測定するため、ワークのロボット座標系における3次元の位置・姿勢データを取得できる。また、2次元の画像処理装置を使用する結果、レーザーレンジセンサー等の高価で設置スペースをとる測定装置が不要となり、安価で高速な画像処理が可能となる。
なお、本システムでは、2台のカメラを使用してワークの撮像を行なうことにより、マニピュレーター1(ロボット)の移動量を最小限に抑えているが、1台のカメラによりシステムを構成することも可能である。
カメラが1台の場合には、ロボットアーム等でワークの姿勢を変えて複数の特徴部分を撮像するか、または、カメラを移動させて複数の特徴部分を撮像する。そして、ワークのロボット座標系における3次元の位置・姿勢データを取得する。
また、2以上の複数の視線方向から撮像したワークの画像と、その視線方向に対応する基準画像とに基づいて、マニピュレーターに把持されたワークの3次元の位置・姿勢データを求めても良い。例えば、更に第3のカメラを設けるとともに予め第3基準画像を記憶し、第1および第2の視線方向に基づくワークの位置および姿勢に基づきワークを第3のカメラに対応する位置・姿勢に制御装置により制御して第3のカメラにより撮像し、その撮像された画像と第3基準画像とを用いて画像処理装置により比較し、マニピュレータに保持されたワークの位置・姿勢を演算しても良い。
1 マニピュレーター
4、24 照明装置
5−1 第1カメラ
5−2 第2カメラ
6、26 画像処理装置
8 引っ張りばね
9 フック
11 第1基準画像
12 第1カメラで撮像した画像
13 第2基準画像
14 第2カメラで撮像した画像
21、31 ロボットアーム
22 吸着ノズル
23、33 ワーク
25、35 カメラ
37 レーザーレンジセンサー

Claims (7)

  1. ワークを保持して所定位置へ搬送するマニピュレーターと、前記ワークを複数の異なる視点から撮像した画像を取得し、該複数の画像に基づいて前記ワークの保持位置・姿勢を演算する視覚装置と、を備えた組立装置であって、
    前記視覚装置は、
    前記ワークの形状に対応して定めた複数の異なる視線方向から撮像した前記ワークの画像であって予め記憶されている基準画像と、前記視線方向から撮像した前記マニピュレーターに保持された前記ワークの画像であるワーク画像と、を比較し、前記マニピュレーターに保持された前記ワークの視線方向に基づく位置および姿勢を演算するワーク位置・姿勢演算部を備え、
    前記ワーク位置・姿勢演算部で求めた複数の視線方向に基づく前記ワークの位置および姿勢にから、前記ワークの前記マニピュレーターに保持された位置・姿勢を演算し、該演算結果を用いて、前記ワークを保持したマニピュレーターを制御して前記ワークの組立作業を行うことを特徴とする組立装置。
  2. ワークを保持して所定位置へ搬送するマニピュレーターと、前記ワークを2つの異なる視点から撮像した画像を取得し、該2つの画像に基づいて前記ワークの保持位置・姿勢を演算する視覚装置と、を備えた組立装置であって、
    前記視覚装置は、
    前記ワークの形状に対応して定めた第1の視線方向から撮像した前記ワークの画像であって予め記憶されている第1基準画像と、前記第1の視線方向から撮像した前記マニピュレーターに保持された前記ワークの画像である第1ワーク画像と、を比較し、前記マニピュレーターに保持された前記ワークの第1の視線方向に基づく位置および姿勢を演算する第1ワーク位置・姿勢演算部と、
    前記第1ワーク位置・姿勢演算部で求める第1の視線方向に基づく前記ワークの位置および姿勢に対応して定めた第2の視線方向から撮像した前記ワークの画像であって予め記憶されている第2基準画像と、前記第2の視線方向から撮像した前記マニピュレーターに保持された前記ワークの画像である第2ワーク画像と、を比較し、前記ワークの第2の視線方向に基づく前記ワークの位置および姿勢を演算する第2ワーク位置・姿勢演算部と、
    前記第1および第2ワーク位置・姿勢演算部の演算結果から、前記ワークの前記マニピュレーターに保持された位置・姿勢を演算する第3ワーク位置・姿勢演算部と、
    を備え、
    前記第3ワーク位置・姿勢演算部の演算結果を用いて、前記ワークを保持したマニピュレーターを制御して前記ワークの組立作業を行うことを特徴とする組立装置。
  3. 前記視覚装置は、前記第1および第2の各視線方向に対応する位置に固定された2台のカメラを備え、前記各カメラで前記第1ワーク画像と前記第2ワーク画像を撮像することを特徴とする請求項2記載の組立装置。
  4. 前記視覚装置は、1台のカメラを第1および第2の各視線方向に対応する位置に順次移動させ、前記第1ワーク画像と前記第2ワーク画像を撮像することを特徴とする請求項2記載の組立装置。
  5. 前記視覚装置は、固定された1台のカメラを備え、前記マニピュレーターを制御して前記カメラの視線方向が前記第1および第2の各視線方向に対応する前記ワークの位置・姿勢とし、前記第1ワーク画像と前記第2ワーク画像を撮像することを特徴とする請求項2記載の組立装置。
  6. 前記ワークは、円筒形状のワークであることを特徴とする請求項2乃至4の何れか1項に記載の組立装置。
  7. ワークを保持して所定位置へ搬送するマニピュレーターと、前記ワークを2つの異なる視点から撮像した画像を取得し、該2つの画像に基づいて前記ワークの保持位置・姿勢を演算する視覚装置と、を備えた組立装置によるワークの組立方法であって、
    前記ワークの形状に対応して定めた第1の視線方向から撮像した前記ワークの画像であって予め記憶されている第1基準画像と、前記第1の視線方向から撮像した前記マニピュレーターに保持された前記ワークの画像である第1ワーク画像と、を比較し、前記マニピュレーターに保持された前記ワークの第1の視線方向に基づく位置および姿勢を演算する第1ワーク位置・姿勢演算ステップと、
    前記第1ワーク位置・姿勢演算ステップで求める第1の視線方向に基づく前記ワークの位置および姿勢に対応して定めた第2の視線方向から撮像した前記ワークの画像であって予め記憶されている第2基準画像と、前記第2の視線方向から撮像した前記マニピュレーターに保持された前記ワークの画像である第2ワーク画像と、を比較し、前記ワークの第2の視線方向に基づく前記ワークの位置および姿勢を演算する第2ワーク位置・姿勢演算ステップと、
    前記第1および第2ワーク位置・姿勢演算ステップの演算結果から、前記ワークの前記マニピュレーターに保持された位置・姿勢を演算する第3ワーク位置・姿勢演算ステップと、
    を備え、
    前記第3ワーク位置・姿勢演算ステップの演算結果を用いて、前記ワークを保持したマニピュレーターを制御して前記ワークの組立作業を行うことを特徴とするワークの組立方法。
JP2009065121A 2009-03-17 2009-03-17 組立装置および組立方法 Pending JP2010214546A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009065121A JP2010214546A (ja) 2009-03-17 2009-03-17 組立装置および組立方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009065121A JP2010214546A (ja) 2009-03-17 2009-03-17 組立装置および組立方法

Publications (1)

Publication Number Publication Date
JP2010214546A true JP2010214546A (ja) 2010-09-30

Family

ID=42973938

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009065121A Pending JP2010214546A (ja) 2009-03-17 2009-03-17 組立装置および組立方法

Country Status (1)

Country Link
JP (1) JP2010214546A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103889650A (zh) * 2011-11-16 2014-06-25 日产自动车株式会社 接合体的制造方法及其制造装置
JP2020082242A (ja) * 2018-11-20 2020-06-04 富士電機株式会社 部品組立装置
JP6913833B1 (ja) * 2021-01-19 2021-08-04 Dmg森精機株式会社 ワーク装着システム

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0192082A (ja) * 1987-10-05 1989-04-11 Japan Em Kk パーツフィーダ用部品判別装置
JPH05127724A (ja) * 1991-10-30 1993-05-25 Nippondenso Co Ltd 山積み部品の高速ピツキング装置
JPH1059236A (ja) * 1996-08-22 1998-03-03 Kanto Auto Works Ltd ハンガ上の自動車ボデーの位置変更装置
JP2000288968A (ja) * 1999-04-08 2000-10-17 Fanuc Ltd 教示モデル生成装置
JP2002208009A (ja) * 2000-11-09 2002-07-26 Yaskawa Electric Corp 物体検出方法
JP2002307352A (ja) * 2001-02-14 2002-10-23 Xerox Corp 産業ロボットにおいて基準位置を求める装置及び方法
JP2003211096A (ja) * 2002-01-18 2003-07-29 Fuji Photo Film Co Ltd 物品の仕分け・整列装置
JP2004333422A (ja) * 2003-05-12 2004-11-25 Fanuc Ltd 画像処理装置
JP2005078375A (ja) * 2003-08-29 2005-03-24 Sony Corp 方向認識装置、方向認識方法、方向認識システム及びロボット装置
JP2007237394A (ja) * 2007-06-29 2007-09-20 Amada Co Ltd ワーク位置決め装置

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0192082A (ja) * 1987-10-05 1989-04-11 Japan Em Kk パーツフィーダ用部品判別装置
JPH05127724A (ja) * 1991-10-30 1993-05-25 Nippondenso Co Ltd 山積み部品の高速ピツキング装置
JPH1059236A (ja) * 1996-08-22 1998-03-03 Kanto Auto Works Ltd ハンガ上の自動車ボデーの位置変更装置
JP2000288968A (ja) * 1999-04-08 2000-10-17 Fanuc Ltd 教示モデル生成装置
JP2002208009A (ja) * 2000-11-09 2002-07-26 Yaskawa Electric Corp 物体検出方法
JP2002307352A (ja) * 2001-02-14 2002-10-23 Xerox Corp 産業ロボットにおいて基準位置を求める装置及び方法
JP2003211096A (ja) * 2002-01-18 2003-07-29 Fuji Photo Film Co Ltd 物品の仕分け・整列装置
JP2004333422A (ja) * 2003-05-12 2004-11-25 Fanuc Ltd 画像処理装置
JP2005078375A (ja) * 2003-08-29 2005-03-24 Sony Corp 方向認識装置、方向認識方法、方向認識システム及びロボット装置
JP2007237394A (ja) * 2007-06-29 2007-09-20 Amada Co Ltd ワーク位置決め装置

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103889650A (zh) * 2011-11-16 2014-06-25 日产自动车株式会社 接合体的制造方法及其制造装置
JP2020082242A (ja) * 2018-11-20 2020-06-04 富士電機株式会社 部品組立装置
JP6913833B1 (ja) * 2021-01-19 2021-08-04 Dmg森精機株式会社 ワーク装着システム
WO2022158024A1 (ja) * 2021-01-19 2022-07-28 Dmg森精機株式会社 ワーク装着システム
JP2022110731A (ja) * 2021-01-19 2022-07-29 Dmg森精機株式会社 ワーク装着システム

Similar Documents

Publication Publication Date Title
KR102532072B1 (ko) 로봇 모션 용 비전 시스템의 자동 핸드-아이 캘리브레이션을 위한 시스템 및 방법
JP6180087B2 (ja) 情報処理装置及び情報処理方法
CN111452040B (zh) 在引导装配环境中将机器视觉坐标空间关联的系统和方法
EP1413850B1 (en) Optical sensor for measuring position and orientation of an object in three dimensions
CN109940662B (zh) 具备拍摄工件的视觉传感器的摄像装置
JP4226623B2 (ja) ワーク取り出し装置
CN106945035B (zh) 机器人控制设备及其控制方法和机器人系统
JP5685027B2 (ja) 情報処理装置、物体把持システム、ロボットシステム、情報処理方法、物体把持方法およびプログラム
KR100693262B1 (ko) 화상 처리 장치
JP5282717B2 (ja) ロボットシステム
US9679385B2 (en) Three-dimensional measurement apparatus and robot system
JP6324025B2 (ja) 情報処理装置、情報処理方法
US11654571B2 (en) Three-dimensional data generation device and robot control system
JP6885856B2 (ja) ロボットシステムおよびキャリブレーション方法
JP2019119027A (ja) ロボットシステムの制御方法、およびロボットシステム
JP2019049467A (ja) 距離計測システムおよび距離計測方法
JP2006224291A (ja) ロボットシステム
JP2010214546A (ja) 組立装置および組立方法
JP2019018339A (ja) ロボットシステム
JP2008294065A (ja) 電子部品の実装方法及び装置
WO2021145280A1 (ja) ロボットシステム
CN113255662A (zh) 一种基于视觉成像的定位矫正方法、系统、设备及存储介质
WO2022124232A1 (ja) 画像処理システム及び画像処理方法
WO2022244212A1 (ja) 視覚センサにて撮像された画像に基づいて3次元の位置を算出する撮像装置
US20230123629A1 (en) 3d computer-vision system with variable spatial resolution

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20110301

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20110302

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120116

A131 Notification of reasons for refusal

Effective date: 20130305

Free format text: JAPANESE INTERMEDIATE CODE: A131

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130702