JP6869159B2 - ロボットシステム - Google Patents

ロボットシステム Download PDF

Info

Publication number
JP6869159B2
JP6869159B2 JP2017193415A JP2017193415A JP6869159B2 JP 6869159 B2 JP6869159 B2 JP 6869159B2 JP 2017193415 A JP2017193415 A JP 2017193415A JP 2017193415 A JP2017193415 A JP 2017193415A JP 6869159 B2 JP6869159 B2 JP 6869159B2
Authority
JP
Japan
Prior art keywords
distance
work
robot
laser sensor
visual sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017193415A
Other languages
English (en)
Other versions
JP2019063954A (ja
Inventor
ボ リュウ
ボ リュウ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Daihen Corp
Original Assignee
Daihen Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daihen Corp filed Critical Daihen Corp
Priority to JP2017193415A priority Critical patent/JP6869159B2/ja
Publication of JP2019063954A publication Critical patent/JP2019063954A/ja
Application granted granted Critical
Publication of JP6869159B2 publication Critical patent/JP6869159B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、ロボットシステム、キャリブレーション方法及びキャリブレーションプログラムに関する。
従来から、ロボットのマニピュレータの先端に撮像装置が取り付けられ、この撮像装置から得られる情報に基づいてマニピュレータの動作が制御される、いわゆるオンハンド方式のロボットシステムが開発されている。このようなロボットシステムでは、例えばロボットに対象物の把持等の動作を行わせる場合、撮像装置によってロボットの作業領域を撮像し、得られた画像から対象物を検出し、検出された対象物の位置を算出することにより、当該把持等の動作を高精度に制御することができる。
このようなロボットシステムにおいて、撮像装置から得られる情報をロボットの動作に反映させるためには、撮像装置によって取得される画像上のピクセル座標と、ロボットが作業する作業空間上の空間座標とが予め対応付けられている必要がある。このように、異なる座標の対応付けを行う処理をキャリブレーションと呼ぶ。
キャリブレーションの手法として、例えば下記特許文献1では、ロボットのアームを作業空間内において複数の位置に配置させつつ、アームに取り付けられた撮像装置によってマーカを複数回撮像することによって、得られた画像に含まれるマーカのピクセル座標と、撮像された際のロボットの空間座標との対応付けを行う方法が開示されている。
特開2016−120567号公報
上述の手法によってキャリブレーションが一度完了しても、例えば対象物の種類が変更されることにより、撮像装置と対象物との相対的な位置関係が変化すると、撮像装置が備えるレンズの焦点が対象物に合わなくなり、対象物を高い精度で撮像することができなくなってしまう。従って、作業者は、対象物が変更されるごとに撮像装置が備えるレンズのピントを調整し、キャリブレーションをやり直す必要があり、作業者の手間及び時間を要していた。
そこで、本発明は、キャリブレーションに要する手間及び時間を削減することができるロボットシステム、キャリブレーション方法及びキャリブレーションプログラムを提供することを目的とする。
本発明の一態様に係るロボットシステムは、ロボット及びロボットの動作を制御する制御装置を備え、ロボットは、載置面に載置された対象物を撮像する撮像装置と、対象物までの距離を測定するレーザセンサと、撮像装置及びレーザセンサが取り付けられたアームと、を備え、制御装置は、撮像装置の焦点が第1対象物に合っている際の撮像装置から第1対象物までの距離が、基準距離として記憶される記憶部と、撮像装置の視野内に存在する第2対象物を含む第1画像に基づき、第2対象物までの距離を測定可能な領域にレーザセンサが位置するようにアームを配置させ、撮像装置から第2対象物までの距離が基準距離と一致するようにアームを載置面と交差する方向に移動させる動作制御部と、レーザセンサによって測定される距離情報に基づいて、第2対象物の複数の特徴点を検出する検出部と、アームの座標系における複数の特徴点の座標と、移動した撮像装置によって撮像された第2画像の座標とを対応付ける較正部と、を備える。
この態様によれば、撮像装置の焦点が第1対象物に合っている際の撮像装置から第1対象物までの距離が、基準距離として記憶部に記憶される。これにより、対象物の種類の変更などにより撮像装置と対象物との相対的な位置関係が変化する場合であっても、レーザセンサを用いて、撮像装置から第2対象物までの距離が当該基準距離と一致するように、撮像装置を自動的に移動させることができる。従って、作業者が撮像装置の焦点合わせをやり直す必要がなく、キャリブレーションに要する手間及び時間を削減することができる。
上記態様において、複数の特徴点は、第2対象物の輪郭上に存在していてもよい。
この態様によれば、レーザセンサを用いて第2対象物の特徴点を検出することができる。従って、撮像装置から得られる画像に画像処理を施して特徴点を検出する場合に比べて特徴点の検出精度が向上し、結果としてキャリブレーションの精度を向上させることができる。また、画像処理を施す場合に比べて、特徴点の検出に要する時間を削減することができる。
上記態様において、撮像装置とレーザセンサは、別体であってもよい。
この態様によれば、レーザセンサによって距離が測定されるため、例えば測距機能を兼ねた撮像装置によって距離が測定される構成に比べて、測距の精度が高くなる。従って、撮像装置の焦点合わせや第2対象物の特徴点の検出を高い精度で行うことができる。
本発明によれば、キャリブレーションに要する手間及び時間を削減することができるロボットシステム、キャリブレーション方法及びキャリブレーションプログラムを提供することができる。
本発明の一実施形態に係るロボットシステムの構成例を示す図である。 本発明の一実施形態に係るロボットシステムにおけるキャリブレーションの手順を示すフローチャートである。 本発明の一実施形態に係るロボットシステムにおけるキャリブレーションの手順を説明するための説明図である。 本発明の一実施形態に係るロボットシステムにおけるキャリブレーションの手順を説明するための説明図である。 本発明の一実施形態に係るロボットシステムにおけるキャリブレーションの手順を説明するための説明図である。 本発明の一実施形態に係るロボットシステムにおけるキャリブレーションの手順を説明するための説明図である。 本発明の一実施形態に係るロボットシステムにおけるキャリブレーションの手順を説明するための説明図である。
添付図面を参照して、本発明の実施形態について説明する。なお、各図において、同一の符号を付したものは、同一又は同様の構成を有する。
図1は、本発明の一実施形態に係るロボットシステムの構成例を示す図である。図1に示されるロボットシステム1は、ロボットが、作業台の上に載置されたワーク(対象物)に対して所定の作業を行うように制御されたシステムである。具体的に、ロボットシステム1は、例えば各種の作業を行うロボット10と、ロボット10の動作を制御する制御装置20とを備える。図1に示されるように、ロボット10の動作が及び得る作業領域には、作業台30と、当該作業台30上の載置面31に載置されたワーク40が配置されている。なお、作業台30及びワーク40は、ロボットシステム1に含まれてもよいし、含まれなくてもよい。
ロボット10は、例えばロボット10の本体部を構成するマニピュレータ11と、当該マニピュレータ11に取り付けられた視覚センサ12及びレーザセンサ13とを備える。ロボット10は、空間座標(図1においてはXYZ座標)によって表される作業空間内において動作する。
マニピュレータ11は、フロア等に設置されるベース14と、複数の関節を有するアーム15とを備える。複数の関節にはサーボモーター等が取り付けられており、このサーボモーターを駆動制御することにより、アーム15の多関節動作が実現される。当該関節の数によってアーム15の可動範囲が変化するが、本実施形態では、例えば6軸の多関節構造であるものとする。アーム15の先端16(すなわち、マニピュレータ11の先端)には、所定の作業を行うためのエンドエフェクタ(不図示)が取り付けられる。当該エンドエフェクタを交換することにより、ロボット10は様々な作業に対応することができる。エンドエフェクタの具体例としては、例えば多指ハンド、グリッパ、溶接トーチ、塗装ガン、ねじ締め機等が挙げられる。
視覚センサ12(撮像装置)は、アーム15の先端16に取りけられ、アーム15の移動と同期して移動しながら撮像を行う。視覚センサ12は、撮像装置の一具体例であり、例えば、撮像素子及びレンズを含むカメラである。図1において、視覚センサ12のレンズの光軸はZ軸に沿うように配置され、視覚センサ12の視野範囲はXY平面に広がっている。視覚センサ12によって撮像された画像は、例えばケーブル等(不図示)を介して制御装置20に出力され、当該制御装置20において処理される。
ロボット10は、視覚センサ12から得られる情報に基づいて動作が制御される、いわゆるオンハンド方式のロボットである。ロボットシステム1が例えばワーク40の把持動作に用いられる場合、視覚センサ12によって作業台30の載置面31に載置されたワーク40が撮像され、得られた画像からワーク40が検出される。これにより、載置面31におけるワーク40の位置及び姿勢、並びにワーク40のXY平面の平面視における形状が算出される。従って、ロボット10は、視覚センサ12を備えることによって、例えばワーク40を高精度に把持することができる。
なお、視覚センサ12から得られる情報をロボット10の動作に反映させる際には、制御装置20において、視覚センサ12によって取得された画像上のピクセル座標と、ロボットが作業する作業空間を表す空間座標とが対応付けられている必要がある。このように異なる座標系の対応付けを行う処理をキャリブレーションと呼ぶ。本実施形態におけるキャリブレーションの手法については、後に詳しく述べる。
レーザセンサ13は、視覚センサ12とともにアーム15の先端16に取り付けれ、アーム15及び視覚センサ12の移動と同期して移動する。レーザセンサ13は、距離センサの一具体例であり、例えば三角測定式又は時間計測式のレーザセンサや、受光量判別式のレーザセンサを含む。具体的には、レーザセンサ13は照射部及び受光部(不図示)を有し、対象物に対して照射部からレーザを照射し、対象物において反射されたレーザを受光部において受光することによって、当該対象物までの距離を測定する。本実施形態において、レーザセンサ13は、例えばワーク40や載置面31までの距離の測定に用いられる。レーザセンサ13によって得られた距離の値は、例えばケーブル等(不図示)を介して制御装置20に出力されて記憶される。なお、レーザセンサ13が照射するレーザの具体的な構成は特に限定されず、例えば図1に示されるようにポイント状のレーザであってもよく、あるいはライン状のレーザであってもよい。
なお、視覚センサ12及びレーザセンサ13が取り付けられる位置はアーム15の先端16に限られない。例えば、視覚センサ12及びレーザセンサ13は、アーム15の他の位置や、アーム15の先端16に取り付けられるエンドエフェクタ(不図示)に取り付けられてもよい。また、視覚センサ12及びレーザセンサ13は、ロボット10の一部としてロボット本体に組み込まれていてもよく、又はロボット10に外付けされていてもよい。また、本実施形態においては視覚センサ12とレーザセンサ13とが別体である構成が示されているが、当該構成の代わりに、撮像機能と測距機能が一体となった装置(例えば、測距機能を兼ねた撮像装置等)が用いられてもよい。
制御装置20は、例えばコンピュータにより構成され、マニピュレータ11、視覚センサ12及びレーザセンサ13の動作を制御する。具体的に、制御装置20は、例えば制御部21及び記憶部22を備える。制御部21は、マニピュレータ制御部210、視覚センサ制御部211、レーザセンサ制御部212、検出部213及び較正部214を含む。
マニピュレータ制御部210(動作制御部)は、ロボット10の各関節のサーボモーターの駆動を制御し、マニピュレータ11を作業空間において動作させる。また、ロボット10がエンドエフェクタを備える場合は、マニピュレータ制御部210がエンドエフェクタの動作を制御してもよい。
視覚センサ制御部211は、視覚センサ12の撮像を制御して、画像を取得する。取得された画像は、マニピュレータ制御部210においてマニピュレータ11の駆動に用いられる。
レーザセンサ制御部212は、レーザセンサ13にレーザの照射及び受光をさせて、レーザセンサ13から対象物(例えば、ワーク40や載置面31等)までの距離を取得する。
検出部213は、レーザセンサ制御部212において取得された距離情報に基づき、ワーク40の特徴点(例えば、エッジ等)を検出する。
較正部214は、ロボット10の空間座標系におけるワーク40の特徴点の座標と、視覚センサ12によって撮像された画像のピクセル座標とを対応付ける。
記憶部22は、例えば視覚センサ12の焦点が後述するマーカに合っている際の、視覚センサ12からマーカまでの距離が基準距離として記憶される。
これらの制御部21に含まれる各機能は、例えば、記憶部22に格納された所定のプログラムをプロセッサが実行することにより実現される。なお、制御装置20の機能は、これに限定されることなく、必要に応じて任意の機能が適宜追加されていてもよい。また、図1においては、制御部21に含まれる各機能が1つの制御装置20において実現される構成が示されているが、当該各機能は複数の装置に分散されて実現されてもよい。
ワーク40(第2対象物)は、作業台30の載置面31の上に載置されている。ワーク40の形状は特に限定されないが、本実施形態においては、ワーク40は複数の面を有する直方体を成す。ワーク40は、載置面31と対向する上面41を有し、この上面41の周囲に輪郭(エッジ)を有する。
次に、図2及び図3A〜図3Eを参照しつつ、上述のロボットシステム1においてマニピュレータ11と視覚センサ12のキャリブレーションを行う方法を説明する。ここで、図2は、本発明の一実施形態に係るロボットシステムにおけるキャリブレーションの手順を示すフローチャートであり、図3A〜図3Eは、本発明の一実施形態に係るロボットシステムにおけるキャリブレーションの手順を説明するための説明図である。なお、図3Eは、視覚センサ12の視野範囲画面を示している。また、図2に示されるフローチャートは、制御装置20の記憶部22に、マニピュレータ11の所定の位置(例えば、先端16)に対する視覚センサ12及びレーザセンサ13の相対的な位置関係が予め記憶された状態で開始する。
まず、ステップS10において、視覚センサ制御部211は、視覚センサ12を用いて載置面31に載置されたマーカ50(第1対象物)を含む画像を取得する。当該画像に基づき、視覚センサ12の焦点をマーカ50に合せる(図3A参照)。この焦点合わせは、例えば、視覚センサ12の撮像画像が表示されるディスプレイ(不図示)を作業者が目視しつつ、当該視覚センサ12のレンズのピントを調整して行う。マーカ50は、例えば視覚センサ12の焦点を合わせるために適した模様や文字等が印字されたものを含む。なお、焦点合わせは、ピントの調整の代わりに、アーム15をZ軸方向に移動させ、当該視覚センサ12からマーカ50までの距離を調整することにより行ってもよい。また、マーカ50は載置面31に載置される代わりに、載置面31に直接印字されていてもよく、また作業台30の代わりに床面に直接載置されてもよい。
次に、ステップS20において、視覚センサ12の焦点がマーカ50に合っている際に、レーザセンサ制御部212は、レーザセンサ13を用いてマーカ50までの距離を測定する(図3A参照)。レーザセンサ13と視覚センサ12との位置関係は記憶部22に記憶されている。従って、レーザセンサ13からマーカ50までの距離に基づいて、視覚センサ12(より具体的には、例えば視覚センサ12のレンズの先端)からマーカ50までの距離が算出される。当該算出された距離は、基準距離WDとして記憶部22に記憶される。なお、当該基準距離WDは、視覚センサ12のワークディスタンスに相当する。
次に、ステップS30において、視覚センサ12の視野内にワーク40が存在する際に、視覚センサ制御部211は、視覚センサ12を用いてワーク40が含まれた画像(第1画像)を取得する。マニピュレータ制御部210は、取得された画像に基づいて、載置面31におけるワーク40のおおよその位置を検出し、ワーク40のZ軸上の領域にレーザセンサ13が位置するようにアーム15をXY平面方向に移動させる(図3B参照)。なお、ワーク40のZ軸上の領域とは、レーザセンサ13によってワーク40までの距離を測定可能な領域である。視覚センサ12の視野範囲は、レーザセンサ13の測定範囲(すなわち、レーザが照射される一点)より広い。従って、視覚センサ12を用いてワーク40のおおよその位置を検出することにより、ワーク40の位置をレーザセンサ13のみを用いて走査する場合に比べて、ワーク40の検出に要する時間を短縮することができる。
なお、ステップS30では、必ずしも視覚センサ12の焦点がワーク40に合っている必要はなく、取得された画像からワーク40のおおよその位置が判別できればよい。この判別は、例えばテンプレートマッチング等によって行ってもよい。また、画像におけるワーク40の位置に応じてアーム15を移動させるプログラムは、予め記憶部22等に記憶されていてもよい。また、ステップS30の開始時に、ワーク40のZ軸上の領域にレーザセンサ13が予め位置している場合は、アーム15を移動させなくてもよい。
次に、ステップS40において、レーザセンサ制御部212は、レーザセンサ13を用いてワーク40の上面41までの距離h1を測定する。そして、マニピュレータ制御部210は、測定された距離h1に基づいて算出される視覚センサ12からワーク40までの距離が基準距離WDと一致するように、アーム15を載置面と交差する方向(図3Cにおいては、Z軸方向)に移動させる(図3C参照)。具体的には、ワーク40の上面41までの距離h1が基準距離WDより長ければ、その差(=h1−WD)分アームをZ軸負方向に移動させ、当該距離h1が基準距離WDより短ければ、その差(=WD−h1)分アームをZ軸正方向に移動させる。これにより、視覚センサ12からワーク40までの距離が、当該視覚センサ12のワークディスタンスと一致し、自動的にワーク40の上面41に焦点を合わせることができる。なお、図3Cにおいては、ワーク40の上面41に焦点が合わせられる例が示されているが、ワーク40において焦点が合わせられるZ軸方向の位置は必ずしも上面41に限られない。例えばワークの上面に凹凸がある場合や、上面が傾斜している場合は、ワークの上面と下面(すなわち、載置面31に接する面)との間のいずれかの位置に焦点が合わせられてもよい。
次に、ステップS50において、検出部213は、レーザセンサ13によって測定される距離情報に基づき、ワーク40の複数の特徴点を検出する(図3D参照)。具体的には、マニピュレータ制御部210及びレーザセンサ制御部212は、XY平面に沿ってアーム15を移動させつつ、レーザセンサ13からワーク40に向かってレーザを照射させて、ワーク40の上面41を含むワーク40の周辺領域を走査させる。そして、レーザセンサ13からワーク40又は載置面31までの距離が急激に変化した(例えば、所定の閾値以上変化した)という距離情報に基づき、当該急激に変化した位置を、ワーク40のエッジ点Eとみなす。この走査をXY平面において繰り返すことにより、ワーク40の輪郭上に存在する異なる複数のエッジ点を検出する。検出するエッジ点の数や位置は特に限定されないが、例えば図3Eに示されるように、ワーク40の上面41を囲む4辺におけるそれぞれの中点(エッジ点E1〜E4)であってもよい。これらの複数のエッジ点が検出された際のアーム15の位置座標(例えば、アーム15の先端16のXYZ座標)を、記憶部22に記憶する。
最後に、ステップS60において、較正部214は、ステップS50において得られた複数のエッジ点E1〜E4が検出された際のアーム15の位置座標に基づいて、エッジ点E1〜E4のXYZ座標系における少なくともXY座標(X1,Y1)、(X2,Y2)、(X3,Y3)、(X4,Y4)を算出する(図3E参照)。また、E1〜E4の位置座標に基づいて、エッジ点E1,E2を結ぶ直線L1と、エッジ点E3,E4を結ぶ直線L2を算出し、この直線L1と直線L2の交点E5の位置座標(X5,Y5)を算出する(図3E参照)。また、視覚センサ制御部211は、視覚センサ12を用いて所定の位置においてワーク40を含む画像(第2画像)を取得する。そして、較正部214は、複数のエッジ点E1〜E4及び交点E5の位置座標(すなわち、空間座標)を視覚センサ12の視野範囲画面60に登録し、空間座標と画像におけるピクセル座標とを対応付ける。これにより、キャリブレーションが完了する。
なお、検出される特徴点の数は特に限定されないが、特徴点の数が多い方がキャリブレーションの精度が向上する。また、上述の実施形態においては、ワークの特徴点としてワークのエッジが用いられているが、特徴点はエッジに限られない。
以上の手順により、ロボットシステム1は以下の効果を奏する。すなわち、ロボットシステム1は、視覚センサ12のワークディスタンスが基準距離WDとして記憶部22に記憶されている。これにより、ワークの種類の変更や、載置面の高さの変更などにより、視覚センサ12とワーク40との相対的な位置関係が変化する場合であっても、レーザセンサ13を用いて、視覚センサ12からワーク40までの距離がワークディスタンスと一致するように、視覚センサ12を自動的に移動させることができる。従って、作業者は、視覚センサ12の焦点合わせやキャリブレーションをやり直す必要がない。ゆえに、本実施形態によると、キャリブレーションに要する手間及び時間を削減することができる。
また、例えば特許文献1に開示される手法によると、ワークの特徴点の検出に際し、輪郭検出や濃淡検出等の画像処理技術を用いる必要がある。しかしながら、例えば溶接現場等の厳しい環境下においてロボットシステムを使用する場合には、高性能な視覚センサを用いることが適切ではなく、得られる画像の精度が不十分となり得る。また、仮に高性能な視覚センサを用いても、例えば溶接作業により明るさ等の外部環境が大きく変動する現場においては、得られる画像の明るさも変動し、画像処理の適用が困難となり得る。この場合、画像上のワークの検出が安定的になされず、結果としてキャリブレーションの精度が低下するおそれがある。この点、ロボットシステム1によると、ワーク40の特徴点の検出に際し、画像処理の代わりにレーザセンサ13によって得られる距離情報が用いられる。これにより、外部環境が大きく変動する現場であっても、高い精度でワーク40の特徴点を検出することができる。従って、画像処理を用いる方法に比べて、高性能な視覚センサを用いることなく、キャリブレーションの精度を向上させることができる。また、画像処理を用いる方法に比べて、特徴点の検出に要する時間を削減することができる。
本実施形態においては、視覚センサ12とレーザセンサ13とが別体として設けられているが、当該構成の代わりに、例えば測距機能を兼ねた撮像装置によって距離が測定される構成であってもよい。なお、撮像装置に備えられた測距機能は、一般的に、外乱の影響を受けやすく、レーザセンサに比べて測距の精度が劣ってしまう。特に、上述のように溶接現場等においてロボットシステムを使用する場合には、外部環境の変動により測距の精度が不十分となり得る。この点、本実施形態では、レーザセンサ13が視覚センサ12とは別体として設けられているため、上述のような測距機能を兼ねた撮像装置が用いられる構成に比べて、高い精度で距離を測定することができる。従って、視覚センサ12の焦点合わせやワーク40の特徴点の検出を高い精度で行うことができる。
さらに、ロボットシステム1では、レーザセンサ13より検出精度は低いが視野が広い視覚センサ12と、視覚センサ12より測定範囲は狭いが測定精度が高いレーザセンサ13が併用される。これにより、レーザセンサ13のみを用いる方法に比べて高速にワーク40の位置を検出することができ、かつ視覚センサ12のみを用いる方法に比べて高精度にワーク40の特徴点を検出することができる。従って、高速かつ高精度にキャリブレーションを実行することができる。
以上説明した実施形態は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。実施形態が備える各要素並びにその配置、材料、条件、形状及びサイズ等は、例示したものに限定されるわけではなく適宜変更することができる。また、異なる実施形態で示した構成同士を部分的に置換し又は組み合わせることが可能である。
例えば、上述の実施形態においては、視覚センサの焦点を合わせる際に用いる対象物(マーカ50)と、特徴点を検出する際に用いる対象物(ワーク40)が異なる場合が例として示されているが、当該対象物を同一のものとし、例えばワーク40を用いて視覚センサの焦点を合わせてもよい。
また、上述の実施形態においては、ステップS10〜S60の順に説明されているが、これらのステップは必ずしもこの順序でなくてもよい。例えば、ステップS50においてレーザセンサ13によってワーク40の特徴点を検出した後に、ステップS40において視覚センサ12からワーク40までの距離をワークディスタンスと一致させてもよい。
1…ロボットシステム、10…ロボット、11…マニピュレータ、12…視覚センサ、13…レーザセンサ、14…ベース、15…アーム、16…先端、20…制御装置、21…制御部、22…記憶部、210…マニピュレータ制御部、211…視覚センサ制御部、212…レーザセンサ制御部、213…検出部、214…較正部、30…作業台、31…載置面、40…ワーク、41…上面、50…マーカ、60…視野範囲画面

Claims (3)

  1. ロボット及び前記ロボットの動作を制御する制御装置を備えるロボットシステムであって、
    前記ロボットは、
    載置面に載置された対象物を撮像する撮像装置と、
    対象物までの距離を測定するレーザセンサと、
    前記撮像装置及び前記レーザセンサが取り付けられたアームと、
    を備え、
    前記制御装置は、
    前記撮像装置の焦点が第1対象物に合っている際の前記撮像装置から前記第1対象物までの距離が、基準距離として記憶される記憶部と、
    前記撮像装置の視野内に存在する第2対象物を含む第1画像に基づき、前記第2対象物までの距離を測定可能な領域に前記レーザセンサが位置するように前記アームを配置させ、前記撮像装置から前記第2対象物までの距離が前記基準距離と一致するように前記アームを前記載置面と交差する方向に移動させる動作制御部と、
    前記レーザセンサによって測定される距離情報に基づいて、前記第2対象物の複数の特徴点を検出する検出部と、
    前記アームの座標系における前記複数の特徴点の座標と、移動した前記撮像装置によって撮像された第2画像の座標とを対応付ける較正部と、
    を備える、ロボットシステム。
  2. 前記複数の特徴点は、前記第2対象物の輪郭上に存在する、
    請求項1に記載のロボットシステム。
  3. 前記撮像装置と前記レーザセンサは、別体である、
    請求項1又は2に記載のロボットシステム。
JP2017193415A 2017-10-03 2017-10-03 ロボットシステム Active JP6869159B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017193415A JP6869159B2 (ja) 2017-10-03 2017-10-03 ロボットシステム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017193415A JP6869159B2 (ja) 2017-10-03 2017-10-03 ロボットシステム

Publications (2)

Publication Number Publication Date
JP2019063954A JP2019063954A (ja) 2019-04-25
JP6869159B2 true JP6869159B2 (ja) 2021-05-12

Family

ID=66338728

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017193415A Active JP6869159B2 (ja) 2017-10-03 2017-10-03 ロボットシステム

Country Status (1)

Country Link
JP (1) JP6869159B2 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7242856B2 (ja) * 2019-06-21 2023-03-20 株式会社Fuji ロボット制御システム及びロボット制御方法
WO2021145280A1 (ja) * 2020-01-14 2021-07-22 ファナック株式会社 ロボットシステム
JP2022061700A (ja) * 2020-10-07 2022-04-19 セイコーエプソン株式会社 ベルトコンベアキャリブレーション方法、ロボット制御方法、ロボットシステム、プログラム
CN112611340B (zh) * 2020-11-19 2022-04-01 易思维(杭州)科技有限公司 一种视觉传感器中激光器光平面的调节方法
CN112959364B (zh) * 2021-03-15 2022-11-22 北京电子工程总体研究所 一种工业机器人装配误差补偿系统及方法
JP7183372B1 (ja) * 2021-11-05 2022-12-05 株式会社ダイヘン マーカ検出装置及びロボット教示システム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6054011A (ja) * 1983-09-03 1985-03-28 Fanuc Ltd 工業用ロボツトの位置制御方法
JPH0261591U (ja) * 1988-10-27 1990-05-08
JPH06210580A (ja) * 1993-01-13 1994-08-02 Nissan Motor Co Ltd ワーク把持補正装置
JP3644991B2 (ja) * 1994-11-08 2005-05-11 ファナック株式会社 ロボット−センサシステムにおける座標系結合方法
JPH08272425A (ja) * 1995-03-29 1996-10-18 Fanuc Ltd 非接触でロボットに座標系を教示する方法
JP2003211382A (ja) * 2002-01-16 2003-07-29 Denso Wave Inc ロボット制御装置
JP2003311670A (ja) * 2002-04-17 2003-11-05 Denso Wave Inc ロボットアームの位置制御方法およびロボット装置
JP2010152550A (ja) * 2008-12-24 2010-07-08 Canon Inc 作業装置及びその校正方法
JP2014176943A (ja) * 2013-03-15 2014-09-25 Yaskawa Electric Corp ロボットシステム、校正方法及び被加工物の製造方法
US20160243703A1 (en) * 2015-02-19 2016-08-25 Isios Gmbh Arrangement and method for the model-based calibration of a robot in a working space

Also Published As

Publication number Publication date
JP2019063954A (ja) 2019-04-25

Similar Documents

Publication Publication Date Title
JP6869159B2 (ja) ロボットシステム
JP5815761B2 (ja) 視覚センサのデータ作成システム及び検出シミュレーションシステム
JP5664629B2 (ja) ロボットシステムおよび加工品の製造方法
TWI672206B (zh) 機械手臂非接觸式工具中心點校正裝置及其方法以及具有校正功能的機械手臂系統
JP6429473B2 (ja) ロボットシステム、ロボットシステムの校正方法、プログラム、およびコンピュータ読み取り可能な記録媒体
JP3300682B2 (ja) 画像処理機能を持つロボット装置
CN107073719B (zh) 机器人和机器人系统
JP7153085B2 (ja) ロボットキャリブレーションシステム及びロボットキャリブレーション方法
US20180024521A1 (en) Control device, robot, and robot system
JP6900290B2 (ja) ロボットシステム
JP5670416B2 (ja) ロボットシステム表示装置
US9884425B2 (en) Robot, robot control device, and robotic system
JP2024009106A (ja) ツールの作業位置のずれ量を取得する装置、及び方法
JP2005300230A (ja) 計測装置
JP2005201824A (ja) 計測装置
JP2011031346A (ja) ロボットのツール先端点の位置の計測装置および計測方法
JP2013231702A (ja) 画像計測装置、画像計測方法及び画像計測プログラム
US20170339335A1 (en) Finger camera offset measurement
JPWO2018043525A1 (ja) ロボットシステム、ロボットシステム制御装置、およびロボットシステム制御方法
JP2021013983A (ja) 移動機械の移動軌跡のずれを取得する装置、及び方法
JP2006297559A (ja) キャリブレーションシステムおよびロボットのキャリブレーション方法
WO2023013740A1 (ja) ロボット制御装置、ロボット制御システム、及びロボット制御方法
JP2000263273A (ja) Yagレーザ加工機のティーチング方法及びその装置
WO2023102647A1 (en) Method for automated 3d part localization and adjustment of robot end-effectors
CN115972192A (zh) 具有可变空间分辨率的3d计算机视觉系统

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200520

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210331

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210402

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210413

R150 Certificate of patent or registration of utility model

Ref document number: 6869159

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250