JP2014014912A - ロボットシステム、ロボット、ロボット制御装置、ロボット制御方法、およびロボット制御プログラム - Google Patents

ロボットシステム、ロボット、ロボット制御装置、ロボット制御方法、およびロボット制御プログラム Download PDF

Info

Publication number
JP2014014912A
JP2014014912A JP2012155252A JP2012155252A JP2014014912A JP 2014014912 A JP2014014912 A JP 2014014912A JP 2012155252 A JP2012155252 A JP 2012155252A JP 2012155252 A JP2012155252 A JP 2012155252A JP 2014014912 A JP2014014912 A JP 2014014912A
Authority
JP
Japan
Prior art keywords
robot
coordinate system
orientation
unit
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012155252A
Other languages
English (en)
Other versions
JP5949242B2 (ja
Inventor
Shigeyuki Matsumoto
茂之 松本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2012155252A priority Critical patent/JP5949242B2/ja
Priority to TW102124403A priority patent/TW201403277A/zh
Priority to EP20130175706 priority patent/EP2684651A3/en
Priority to US13/938,587 priority patent/US20140018957A1/en
Priority to CN201310289275.7A priority patent/CN103538061A/zh
Priority to KR1020130080910A priority patent/KR20140008262A/ko
Publication of JP2014014912A publication Critical patent/JP2014014912A/ja
Application granted granted Critical
Publication of JP5949242B2 publication Critical patent/JP5949242B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/04Viewing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1692Calibration of manipulator
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/37205Compare measured, vision data with computer model, cad data
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39014Match virtual world with real world

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Manipulator (AREA)
  • Numerical Control (AREA)

Abstract

【課題】低いコストでより迅速にキャリブレーションを実行する。
【解決手段】位置および向きの変更が可能な可動部20と、可動部20を撮影してカメラ画像40を作成するカメラ14と、可動部20の形状モデル30を記憶する記憶部22と、カメラ画像40と形状モデル30とのマッチングから可動部20のカメラ座標系における位置および向きを検出するマッチング処理部152と、可動部20の動きを制御する動作制御部21が認識している可動部20のロボット座標系における位置および向きの情報を取得する制御情報取得部150と、カメラ座標系における可動部20の位置および向き、ならびに、ロボット座標系における可動部20の位置および向きに基づいて、カメラ座標系とロボット座標系との対応付けを行う座標校正部151とを備える。
【選択図】図2

Description

本発明は、ロボットシステム、ロボット、ロボット制御装置、ロボット制御方法、およびロボット制御プログラムに関する。
下記の特許文献1には、高精度にワーク形状に形成された計測ピースをロボットハンドに把持させ、ロボットハンドに把持された計測ピースを撮影した画像から、ロボット本体とカメラの座標合わせを行う旨が開示されている。
特開平10−340112号公報
ところで、上記特許文献1の技術では、ロボット本体とカメラの座標合わせ(キャリブレーション)を行う際に、ロボットに計測ピースを把持させる動作が必要となり、その動作の分、キャリブレーションに時間がかかる。また、計測ピースと呼ばれる特別な冶具を用いるため、それを作成するコストが別途必要となる。
そこで、本発明は、低いコストで、より迅速にキャリブレーションを行うことを目的とする。
上記課題を解決するための第一の態様は、例えば、ロボットシステムであって、位置および向きの変更が可能な可動部と、前記可動部を撮影してカメラ画像を作成するカメラと、前記可動部の形状モデルを記憶する記憶部と、前記カメラ画像と前記形状モデルとのマッチングから前記可動部のカメラ座標系における位置および向きを検出するマッチング処理部と、前記可動部の動きを制御する動作制御部が認識している前記可動部のロボット座標系における位置および向きの情報を取得する制御情報取得部と、前記カメラ座標系における前記可動部の位置および向き、ならびに、前記ロボット座標系における前記可動部の位置および向きに基づいて、前記カメラ座標系と前記ロボット座標系との対応付けを行う座標系校正部とを備える。
これにより、低いコストで、より迅速にキャリブレーションを実行することができる。
また、上記ロボットシステムにおいて、前記マッチング処理部は、3次元の前記形状モデルから前記可動部の2次元画像を生成し、生成した2次元画像を用いて、前記カメラ画像内の前記可動部の位置および向きを検出するようにしてもよい。
これにより、3次元の可動部の形状モデルから、前記カメラ画像内の前記可動部の位置および向きを確実に検出することができる。また、カメラを複数台設けなくても、1台のカメラからの画像で、キャリブレーションを実行することができる。
また、上記ロボットシステムにおいて、前記形状モデルは、前記可動部のCAD(computer aided design)データであってもよい。これにより、前記可動部の位置および向きを高い精度で検出することができる。また、ロボットシステムの設計段階で既に作成されているデータを流用することができるので、キャリブレーション用の形状モデルのデータを作成するのにかかるコストを省くことができる。
また、上記ロボットシステムにおいて、前記可動部は、アーム、アームのリンク、またはエンドエフェクターであってもよい。これにより、確実にキャリブレーションを実行することができる。
また、上記ロボットシステムにおいて、前記記憶部は、複数の異なる可動部の形状モデルを格納し、前記マッチング処理部は、複数の前記可動部の形状モデルの少なくともいずれかを用いて、当該可動部のカメラ座標系における位置および向きを検出し、前記座標系校正部は、前記マッチング処理部によってカメラ座標系における位置および向きが検出された可動部について、前記カメラ座標系と前記ロボット座標系との対応付けを行うようにしてもよい。
これにより、カメラが設置された位置から撮影可能な可動部が存在すれば、他の可動部がカメラから撮影できない位置にある場合でも、キャリブレーションを実行することができる。
また、上記ロボットシステムにおいて、それぞれの前記可動部の表面には、異なる識別情報が付されており、前記マッチング処理部は、前記カメラ画像の中で識別情報を検出し、検出した識別情報に対応する可動部の形状モデルを用いて、当該可動部のカメラ座標系における位置および向きを検出するようにしてもよい。
これにより、複数の形状モデルの中で、マッチング対象となる可動部の形状モデルを絞り込むことができるため、より迅速にキャリブレーションを完了することができる。
また、上記ロボットシステムにおいて、前記記憶部は、ロボットシステム内の可動部の中で、動作時の変位が大きい可動部の形状モデルを格納することが好ましい。これにより、キャリブレーションの精度を高めることができる。
上記課題を解決するための第二の態様は、例えば、ロボットであって、位置および向きの変更が可能な可動部と、前記可動部を撮影したカメラ画像を取得する画像取得部と、
前記可動部の形状モデルを記憶する記憶部と、前記カメラ画像と前記形状モデルとのマッチングから前記可動部のカメラ座標系における位置および向きを検出するマッチング処理部と、前記可動部の動きを制御する動作制御部と、前記動作制御部が認識している前記可動部のロボット座標系における位置および向きの情報を取得する制御情報取得部と、前記カメラ座標系における前記可動部の位置および向き、ならびに、前記ロボット座標系における前記可動部の位置および向きに基づいて、前記カメラ座標系と前記ロボット座標系との対応付けを行ってキャリブレーションパラメーターを生成する座標系校正部とを備え、前記動作制御部は、生成された前記キャリブレーションパラメーターに基づいて前記可動部の動きを制御する。
上記課題を解決するための第三の態様は、例えば、ロボットを制御するロボット制御装置であって、位置および向きの変更が可能なロボットの可動部を撮影したカメラ画像を取得する画像取得部と、前記可動部の動きを制御する動作制御部が認識している前記可動部のロボット座標系における位置および向きの情報を取得する制御情報取得部と、前記可動部の形状モデルを取得し、前記カメラ画像と前記形状モデルとのマッチングから前記可動部のカメラ座標系における位置および向きを検出するマッチング処理部と、前記カメラ座標系における前記可動部の位置および向き、ならびに、前記ロボット座標系における前記可動部の位置および向きに基づいて、前記カメラ座標系と前記ロボット座標系との対応付けを行ってキャリブレーションパラメーターを生成する座標系校正部と、前記キャリブレーションパラメーターを前記動作制御部へ出力する出力部とを備える。
上記課題を解決するための第四の態様は、例えば、ロボットの制御方法であって、位置および向きの変更が可能なロボットの可動部を撮影したカメラ画像を取得する画像取得ステップと、前記可動部の動きを制御する動作制御部が認識している前記可動部のロボット座標系における位置および向きの情報を取得する制御情報取得ステップと、前記可動部の形状モデルを取得し、前記カメラ画像と前記形状モデルとのマッチングから前記可動部のカメラ座標系における位置および向きを検出するマッチング処理ステップと、前記カメラ座標系における前記可動部の位置および向き、ならびに、前記ロボット座標系における前記可動部の位置および向きに基づいて、前記カメラ座標系と前記ロボット座標系との対応付けを行ってキャリブレーションパラメーターを生成する座標系校正ステップと、前記キャリブレーションパラメーターを前記動作制御部へ出力する出力ステップとを実行する。
上記課題を解決するための第五の態様は、例えば、ロボットを制御するロボット制御プログラムであって、コンピューターに、位置および向きの変更が可能なロボットの可動部を撮影したカメラ画像を取得する画像取得機能と、前記可動部の動きを制御する動作制御部が認識している前記可動部のロボット座標系における位置および向きの情報を取得する制御情報取得機能と、前記可動部の形状モデルを取得し、前記カメラ画像と前記形状モデルとのマッチングから前記可動部のカメラ座標系における位置および向きを検出するマッチング処理機能と、前記カメラ座標系における前記可動部の位置および向き、ならびに、前記ロボット座標系における前記可動部の位置および向きに基づいて、前記カメラ座標系と前記ロボット座標系との対応付けを行ってキャリブレーションパラメーターを生成する座標系校正機能と、前記キャリブレーションパラメーターを前記動作制御部へ出力する出力機能とを実現させる。
本発明の一実施形態におけるロボットシステム10の外観の一例を示す図。 ロボットシステム10の機能構成の一例を示すブロック図。 記憶部22内に格納されている形状モデル30の一例を示す図。 カメラ14によって作成されたカメラ画像40の一例を示す図。 形状モデル30から作成される2次元画像31の一例を示す図。 マッチング処理を説明するための概念図。 ロボット制御装置15の動作の一例を示すフローチャート。 マッチング処理(ステップS200)の一例を示すフローチャート。 ロボット制御装置15の機能を実現するコンピューター50の一例を示す図。
以下、本発明の実施の形態について図面を参照しながら説明する。
図1は、本発明の一実施形態におけるロボットシステム10の外観の一例を示す。ロボットシステム10は、ロボット本体11、カメラ14、およびロボット制御装置15を備える。
本実施形態において、ロボット本体11には、2本のアーム12が取り付けられており、それぞれのアーム12の先端には、ハンド等のエンドエフェクター13が取り付けられている。それぞれのアーム12は、複数のジョイント120と、複数のリンク121とを有する。
それぞれのジョイント120は、ロボット本体11とリンク121や、リンク121どうし、リンク121とエンドエフェクター13を、回動自在に(ただし、所定の可動範囲内で回動可能に)連結している。それぞれのジョイント120は、例えば、回転ジョイントであり、リンク121間の角度を変化させたり、リンク121を軸回転させたりできるように設けられている。
ロボット本体11は、それぞれのジョイント120を連動させて駆動することにより、エンドエフェクター13を、自在に(ただし、所定の可動範囲内で)移動させることができるとともに、自由な方向へ向けることもできる。図1に示した例では、それぞれのアーム12は、6つのジョイント120を有する6軸アームとなっている。
また、ロボット本体11は、ロボット制御装置15から制御情報を要求された場合に、予め定められた一方のエンドエフェクター13について、ロボット本体11が認識しているロボット座標系におけるエンドエフェクター13の位置および向きの情報をロボット制御装置15へ送る。なお、エンドエフェクター13の位置および向きは、ロボットの他の部位との相対的な位置関係において姿勢と呼ぶこともでき、エンドエフェクター13の位置および向きの変化は、エンドエフェクター13の姿勢の変化と言ってもよい。
このとき、エンドエフェクター13が、ハンドのように形状が変化するものである場合、ロボット本体11は、予め定められた形状(例えば開いた状態)となるようにエンドエフェクター13を制御し、そのときのエンドエフェクター13の位置および向きの情報をロボット制御装置15へ送る。
カメラ14は、エンドエフェクター13を撮影してカメラ画像を作成し、作成したカメラ画像をロボット制御装置15へ送る。なお、ユーザーは、予め定められた一方のエンドエフェクター13がカメラ14によって撮影されるカメラ画像に映るように、カメラ14の向きを調整する。
ロボット制御装置15は、キャリブレーション時に、ロボット本体11からエンドエフェクター13の位置および向きの情報を取得し、そのときのカメラ画像をカメラ14から取得する。そして、ロボット制御装置15は、カメラ画像に投影されるカメラ座標系におけるエンドエフェクター13の位置および向きを特定する。
そして、ロボット制御装置15は、ロボット本体11が認識しているロボット座標系におけるエンドエフェクター13の位置および向きの情報と、カメラ座標系におけるエンドエフェクター13の位置および向きの情報とに基づいて、両座標系の対応付けを行い、対応付けを示す情報をキャリブレーションパラメーターとしてロボット本体11へ出力する。
キャリブレーション終了後の実動作において、ロボット本体11は、カメラ14によって撮影されたカメラ画像を取得し、予め定められた目標点を当該画像内で認識する。そして、ロボット本体11は、認識した目標点に対して予め定められたエンドエフェクター13の位置および向きとなるアーム12の制御量を、ロボット制御装置15から受け取ったキャリブレーションパラメーターを用いて算出する。そして、ロボット本体11は、算出した制御量に従ってアーム12を制御することで、所定の作業を実行する。
図2は、ロボットシステム10の機能構成の一例を示すブロック図である。図2において、可動部20とは、位置および向きの変更が可能なロボットの部位であって、アーム12や、リンク121、エンドエフェクター13などを機能的に表わしたものである。また、動作制御部21は、ロボット本体11内の機能を表わしたものである。
記憶部22には、例えば図3に示すような、可動部20の3次元の形状モデル30のデータが格納されている。本実施形態において、記憶部22には、エンドエフェクター13の形状モデル30が格納されている。
また、本実施形態において、形状モデル30は、例えば3次元のCADデータである。エンドエフェクター13のCADデータは、ロボットシステム10の設計時に既に作成されているデータであるため、キャリブレーション用に改めて作成する必要がない。そのため、キャリブレーションを行うにあたってのコストや手間を削減することができる。
なお、本実施形態におけるキャリブレーションを行うためには、形状モデル30は、3次元の外観形状およびその寸法の情報を含むデータであればよく、そのようなデータを形状モデル30として用いれば、必ずしも内部の形状等の情報を含むCADデータを用いる必要はない。
また、記憶部22には、カメラ14の焦点距離などのカメラパラメーターの情報が予め格納されている。本実施形態において、記憶部22はロボット制御装置15の外部に設けられ、通信ケーブルを介してロボット制御装置15に接続されている。
ロボット制御装置15は、制御情報取得部150、座標校正部151、マッチング処理部152、画像取得部153、および出力部154を有する。
制御情報取得部150は、動作制御部21が認識しているロボット座標系におけるエンドエフェクター13の位置および向きの情報を、動作制御部21から取得して座標校正部151へ送る。
画像取得部153は、カメラ14からカメラ画像を取得してマッチング処理部152へ送る。カメラ14から受け取ったカメラ画像40には、例えば図4に示すようにエンドエフェクター13が映っている。
マッチング処理部152は、画像取得部153からカメラ画像を受け取った場合に、記憶部22からエンドエフェクター13の形状モデル30のデータおよびカメラパラメーターを取得する。
そして、マッチング処理部152は、例えば図5に示すように、3次元の形状モデル30を様々な方向から見た場合の2次元画像31を作成する。なお、図5に示した2次元画像31はあくまで一例であり、実際には、これ以外の方向から形状モデル30を見た場合の2次元画像が作成されてもよい。
そして、マッチング処理部152は、作成した2次元画像31のそれぞれを、例えば図6に示すように、カメラ画像40上で向きや大きさを変えながらカメラ画像40上を走査し、カメラ画像40との類似度が所定値以上となる2次元画像31の向きおよび大きさを検索する。
なお、それぞれの部品は、ロボットとして組み上げられた状態では、他の部品との接続部分がカメラ14からは見えない場合が多い。そのため、マッチング処理部152は、2次元画像31において、接続部分などカメラ14から見えない部分については、類似度の算出対象から除外する。
所定値以上の類似度となる2次元画像31の向きおよび大きさが見つかった場合、マッチング処理部152は、その2次元画像31のカメラ画像40上での大きさおよび向きに基づいて、カメラ座標系におけるエンドエフェクター13の位置および向きを算出し、算出した位置および向きの情報を座標校正部151へ送る。
ここで、カメラ14からエンドエフェクター13までの距離は、カメラ画像40上でのエンドエフェクター13の大きさと、カメラ14の焦点距離に比例する。マッチング処理部152は、エンドエフェクター13の3次元の形状モデル30の寸法と、カメラ14の焦点距離とが予めわかっているため、カメラ座標系において、カメラ14からエンドエフェクター13までの距離を算出することができる。
また、本実施形態において、記憶部22に格納されている形状モデルは、エンドエフェクター13の3次元CADデータであるため、マッチング処理部152は、当該CADデータを用いて、カメラ座標系において、カメラ14からエンドエフェクター13までの距離を高い精度で算出することができる。
座標校正部151は、制御情報取得部150から受け取ったロボット座標系におけるエンドエフェクター13の位置および向きの情報、ならびに、マッチング処理部152から受け取ったカメラ座標系におけるエンドエフェクター13の位置および向きの情報に基づいて、カメラ座標系とロボット座標系との対応付けを行う。そして、座標校正部151は、対応付けを示す情報を含むキャリブレーションパラメーターを出力部154へ送る。
例えば、座標校正部151は、カメラ座標系およびロボット座標系のそれぞれにおいて、エンドエフェクター13上で対応する所定個数の点の座標を用いて、カメラ座標系とロボット座標系との回転行列および並進ベクトルを求めることにより、カメラ座標系とロボット座標系との対応付けを行う。そして、座標校正部151は、求めた回転行列および並進ベクトルの情報を含むキャリブレーションパラメーターを出力部154へ送る。
出力部154は、座標校正部151から受け取ったキャリブレーションパラメーターを動作制御部21へ出力する。
図7は、ロボット制御装置15の動作の一例を示すフローチャートを示す。例えば、ロボットシステム10の設置後に、ロボット制御装置15がユーザーからキャリブレーションの指示を受け付けることにより、ロボットシステム10は、本フローチャートに示す動作を開始する。
まず、画像取得部153は、カメラ14にエンドエフェクター13の撮影を指示する。カメラ14は、エンドエフェクター13を撮影してカメラ画像を作成し、作成したカメラ画像をロボット制御装置15へ送る(ステップS100)。画像取得部153は、カメラ14からカメラ画像を受け取ってマッチング処理部152へ送る。
次に、マッチング処理部152は、図8に示すマッチング処理を実行する(ステップS200)。図8は、マッチング処理(ステップS200)の一例を示すフローチャートである。
マッチング処理部152は、記憶部22からエンドエフェクター13の形状モデルのデータおよびカメラパラメーターを取得する(ステップS201)。そして、マッチング処理部152は、カメラ14から見た場合のエンドエフェクター13の形状モデルの向きを初期値として設定する(ステップS202)。
次に、マッチング処理部152は、設定した向きにおいてカメラ14から見えるエンドエフェクター13の2次元画像を作成する(ステップS203)。そして、マッチング処理部152は、作成した2次元画像において、画像取得部153から受け取ったカメラ画像上での大きさを初期値として設定する(ステップS204)。
次に、マッチング処理部152は、設定した大きさの2次元画像を、カメラ画像上での位置や向きを変えながらカメラ画像上を走査し、エンドエフェクター13の2次元画像とカメラ画像との類似度を算出する(ステップS205)。そして、マッチング処理部152は、類似度が所定値以上の位置および向きが存在したか否かを判定する(ステップS206)。
ここで、マッチング処理部152は、例えば、初めは、位置に関して数ピクセルおきに、向きに関して数度おきに、位置および向きを粗く変えて類似度を算出し、所定値以上の類似度の位置および向きが存在しない場合に、最も類似度の高い位置および向きの組み合わせについて、1ピクセルおよび1度単位で細かく位置および向きを変えて類似度を算出するようにすることが好ましい。
類似度が所定値以上の位置および向きが存在した場合(ステップS206:Yes)、マッチング処理部152は、そのときの2次元画像およびその大きさ、ならびに、そのときの位置および向きに基づいて、カメラ座標系におけるエンドエフェクター13の位置および向きを特定する(ステップS211)。そして、マッチング処理部152は、特定した位置および向きの情報を座標校正部151へ送り、本フローチャートに示したマッチング処理(ステップS200)を終了する。
類似度が所定値以上の位置および向きが存在しなかった場合(ステップS206:No)、マッチング処理部152は、全ての大きさのパターンについて判定したか否かを判定する(ステップS207)。全ての大きさのパターンについて判定していない場合(ステップS207:No)、マッチング処理部152は、2次元画像の大きさを変更し(ステップS208)、再びステップS205に示した処理を実行する。
ここで、マッチング処理部152は、例えば、初めは、大きさの差が大きいいくつかの異なる大きさのパターンについて粗く大きさを変えてステップS205およびステップS206を実行する。そして、所定値以上の類似度の位置および向きの組み合わせが検出できなかった場合に、マッチング処理部152は、最も高い類似度が検出された大きさ付近で、大きさの差が小さいいくつかの異なる大きさのパターンについて細かく大きさを変えてステップS205およびステップS206を実行することが好ましい。
全ての大きさのパターンについて判定した場合(ステップS207:Yes)、マッチング処理部152は、全ての向きのパターンについて判定したか否かを判定する(ステップS209)。全ての向きのパターンについて判定していない場合(ステップS209:No)、マッチング処理部152は、カメラ14から見た場合のエンドエフェクター13の形状モデルの向きを変更し(ステップS210)、再びステップS203に示した処理を実行する。
ここで、マッチング処理部152は、例えば、初めは、角度の差が大きいいくつかの異なる角度のパターンについて粗く角度を変えてステップS205〜ステップS208を実行する。そして、全てのパターンの大きさについて所定値以上の類似度の位置および向きの組み合わせが検出できなかった場合に、マッチング処理部152は、最も高い類似度が検出された角度付近で、角度の差が小さいいくつかの異なる角度のパターンについて、形状モデルの角度を細かく変えてステップS203〜ステップS208を実行することが好ましい。
全ての向きのパターンについて判定した場合(ステップS209:Yes)、マッチング処理部152は、エンドエフェクター13の位置および向きを特定できなかった旨を座標校正部151に通知し、本フローチャートに示したマッチング処理(ステップS200)を終了する。
図7に戻って説明を続ける。座標校正部151は、ステップS200において、カメラ座標系におけるエンドエフェクター13の位置および向きを特定できたか否かを判定する(ステップS101)。エンドエフェクター13の位置および向きを特定できなかった場合(ステップS101:No)、座標校正部151は、表示装置等を介してエラーをユーザーに通知し、ロボット制御装置15は、本フローチャートに示す動作を終了する。
一方、エンドエフェクター13の位置および向きを特定できた場合(ステップS101:Yes)、制御情報取得部150は、動作制御部21が認識しているロボット座標系におけるエンドエフェクター13の位置および向きの情報を動作制御部21から取得して座標校正部151へ送る(ステップS102)。
次に、座標校正部151は、制御情報取得部150から受け取ったロボット座標系におけるエンドエフェクター13の位置および向きの情報、ならびに、マッチング処理部152から受け取ったカメラ座標系におけるエンドエフェクター13の位置および向きの情報に基づいて、カメラ座標系とロボット座標系との対応付けを行う。
そして、座標校正部151は、対応付けを示す情報を含むキャリブレーションパラメーターを出力部154へ送る。出力部154は、座標校正部151から受け取ったキャリブレーションパラメーターを動作制御部21へ出力し(ステップS103)、ロボット制御装置15は、本フローチャートに示す動作を終了する。
図9は、ロボット制御装置15の機能を実現するコンピューター50のハードウェア構成の一例を示す図である。
コンピューター50は、CPU(Central Processing Unit)51、RAM(Random Access Memory)52、ROM(Read Only Memory)53、HDD(Hard Disk Drive)54、通信インターフェイス(I/F)55、入出力インターフェイス(I/F)56、およびメディアインターフェイス(I/F)57を備える。
CPU51は、ROM53またはHDD54に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM53は、コンピューター50の起動時にCPU51によって実行されるブートプログラムや、コンピューター50のハードウェアに依存するプログラム等を格納する。
HDD54は、CPU51によって実行されるプログラムおよび当該プログラムによって使用されるデータ等を格納する。通信インターフェイス55は、通信回線を介して他の機器からデータを受信してCPU51へ送り、CPU51が生成したデータを、通信回線を介して他の機器へ送信する。
CPU51は、入出力インターフェイス56を介してキーボードやマウス等の入出力装置からデータを取得する。また、CPU51は、生成したデータを、入出力インターフェイス56を介して表示装置や印刷装置等の入出力装置へ出力する。
メディアインターフェイス57は、記憶媒体58に格納されたプログラムまたはデータを読み取り、RAM52を介してCPU51に提供する。CPU51は、当該プログラムまたはデータを、メディアインターフェイス57を介して記憶媒体58からRAM52上にロードし、ロードしたプログラムを実行する。記憶媒体58は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリー等である。
コンピューター50のCPU51は、RAM52上にロードされたプログラムを実行することにより、制御情報取得部150、座標校正部151、マッチング処理部152、画像取得部153、および出力部154の各機能を実現する。
コンピューター50のCPU51は、これらのプログラムを、記憶媒体58から読み取って実行するが、他の例として、他の装置から、通信回線を介してこれらのプログラムを取得してもよい。
以上、本発明の実施の形態について説明した。
上記説明から明らかなように、本実施形態のロボットシステム10によれば、低いコストで、より迅速にキャリブレーションを実行することができる。
なお、本発明は、上記した実施形態に限定されるものではなく、様々な変形例が含まれる。
例えば、上記した実施形態において、ロボット制御装置15は、エンドエフェクター13の位置および向きに基づいてキャリブレーションを行ったが、本発明はこれに限られず、ロボットにおいて可動する部分であれば、アーム内のリンクやジョイント、アーム全体等の位置および向きに基づいてキャリブレーションを行ってもよい。この場合、記憶部22内には、リンクやジョイント、アーム全体等の形状モデルが格納される。
ただし、キャリブレーションの対象とする可動部は、変位の大きな部位であることが好ましい。例えば、アームよりも、アームの先端に取り付けられているエンドエフェクターの位置および向きに基づいてキャリブレーションを行うことが好ましく、アーム内のリンクやジョイントであれば、ロボット本体に近いリンクやジョイントよりも、エンドエフェクターに近いリンクやジョイントの位置および向きに基づいてキャリブレーションを行うことが好ましい。これにより、キャリブレーションの精度を高めることができる。
また、アーム全体の位置および向きに基づいてキャリブレーションを行う場合、ジョイントでの回転角によりアーム全体としては形状が変化するため、キャリブレーションを行うにあたっては、全てのジョイントの角度を予め定められた角度(例えば0度)に設定するなどして、アーム全体の形状を予め定められた形状にした上で、キャリブレーションを行うことが好ましい。これにより、アーム全体として1つの形状モデルを用いることができ、キャリブレーションにかかる時間が、形状モデルの選択によって長くなるのを防止することができる。
また、上記した実施形態において、マッチング処理部152は、記憶部22内のエンドエフェクター13の形状モデルから作成した2次元画像を、カメラ14によって撮影されたカメラ画像上を全体的に走査して類似度を算出したが、本発明はこれに限られない。
例えば、実機のエンドエフェクター13の表面にマーク等の識別情報を付与し、マッチング処理部152は、カメラ14によって撮影されたカメラ画像内でその識別情報を画像認識により検出し、カメラ画像内において、検出した識別情報の付近を優先的に走査して類似度を算出するようにしてもよい。これにより、カメラ座標系における可動部の位置および向きをより迅速に特定することができる。
なお、識別情報は、可動部の形状モデルの表面にも付与されていてもよい。その場合、カメラ画像上での識別情報の見え方に基づいて、そのような見え方となる方向を特定し、形状モデルから、特定した方向から見た2次元画像を作成するようにすれば、カメラ座標系における可動部の位置および向きをより迅速に特定することができる。
また、上記した実施形態では、可動部としてエンドエフェクターのみの位置および向きに基づいてキャリブレーションを行ったが、本発明はこれに限られず、記憶部22内に、異なる複数の可動部(例えば、エンドエフェクターの他に、異なるリンク、異なるジョイントなど)の形状モデルをいくつか格納しておき、その中で、カメラ画像内で位置および向きが特定できた形状モデルを用いてキャリブレーションを行うようにしてもよい。
これにより、カメラ14が設置された位置から撮影可能な可動部が存在すれば、他の可動部がカメラ14から撮影できない位置にある場合でも、キャリブレーションを行うことができる。そのため、キャリブレーションを行うにあたって、ロボットに所定の姿勢をとらせる必要がなくなり、より迅速にキャリブレーションを開始することができる。また、実作業中に、カメラ14に映る部位を用いて随時キャリブレーションを実行することもできる。
また、この場合、それぞれの形状モデルに異なる識別情報を対応付け、対応する実機の可動部の表面にも識別情報を付与しておき、マッチング処理部152は、カメラ14によって撮影されたカメラ画像内で画像認識により識別情報を検出し、検出できた識別情報に対応する形状モデルを用いて、カメラ画像上での可動部の位置および方向の特定を行うようにしてもよい。これにより、形状モデルが複数ある場合であっても、キャリブレーションを迅速に行うことができる。
また、図1において、可動部20、動作制御部21、およびロボット制御装置15の機能を有する装置や、さらに記憶部22を有する装置をロボットとして構成してもよい。また、ロボット制御装置内に動作制御部21が含まれていてもよい。
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に多様な変更または改良を加えることが可能であることが当業者には明らかである。また、そのような変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。
10:ロボットシステム、11:ロボット本体、12:アーム、120:ジョイント、121:リンク、13:エンドエフェクター、14:カメラ、15:ロボット制御装置、150:制御情報取得部、151:座標校正部、152:マッチング処理部、153:画像取得部、154:出力部、16:作業台、20:可動部、21:動作制御部、22:記憶部、30:形状モデル、31:2次元画像、32:2次元画像、33:2次元画像、40:カメラ画像、50:コンピューター、51:CPU、52:RAM、53:ROM、54:HDD、55:通信インターフェイス、56:入出力インターフェイス、57:メディアインターフェイス、58:記憶媒体

Claims (10)

  1. ロボットシステムであって、
    位置および向きの変更が可能な可動部と、
    前記可動部を撮影してカメラ画像を作成するカメラと、
    前記可動部の形状モデルを記憶する記憶部と、
    前記カメラ画像と前記形状モデルとのマッチングから前記可動部のカメラ座標系における位置および向きを検出するマッチング処理部と、
    前記可動部の動きを制御する動作制御部が認識している前記可動部のロボット座標系における位置および向きの情報を取得する制御情報取得部と、
    前記カメラ座標系における前記可動部の位置および向き、ならびに、前記ロボット座標系における前記可動部の位置および向きに基づいて、前記カメラ座標系と前記ロボット座標系との対応付けを行う座標系校正部と
    を備えることを特徴とするロボットシステム。
  2. 請求項1に記載のロボットシステムであって、
    前記マッチング処理部は、
    3次元の前記形状モデルから前記可動部の2次元画像を生成し、生成した2次元画像を用いて、前記カメラ画像内の前記可動部の位置および向きを検出することを特徴とするロボットシステム。
  3. 請求項1または2に記載のロボットシステムであって、
    前記形状モデルは、前記可動部の3次元のCAD(computer aided design)データであることを特徴とするロボットシステム。
  4. 請求項1から3のいずれか一項に記載のロボットシステムであって、
    前記可動部は、アーム、アームのリンク、またはエンドエフェクターであることを特徴とするロボットシステム。
  5. 請求項1から4のいずれか一項に記載のロボットシステムであって、
    前記記憶部は、
    複数の異なる可動部の形状モデルを格納し、
    前記マッチング処理部は、
    複数の前記可動部の形状モデルの少なくともいずれかを用いて、当該可動部のカメラ座標系における位置および向きを検出し、
    前記座標系校正部は、
    前記マッチング処理部によってカメラ座標系における位置および向きが検出された可動部について、前記カメラ座標系と前記ロボット座標系との対応付けを行うことを特徴とするロボットシステム。
  6. 請求項5に記載のロボットシステムであって、
    それぞれの前記可動部の表面には、異なる識別情報が付されており、
    前記マッチング処理部は、
    前記カメラ画像の中で識別情報を検出し、検出した識別情報に対応する可動部の形状モデルを用いて、当該可動部のカメラ座標系における位置および向きを検出することを特徴とするロボットシステム。
  7. ロボットであって、
    位置および向きの変更が可能な可動部と、
    前記可動部を撮影したカメラ画像を取得する画像取得部と、
    前記可動部の形状モデルを記憶する記憶部と、
    前記カメラ画像と前記形状モデルとのマッチングから前記可動部のカメラ座標系における位置および向きを検出するマッチング処理部と、
    前記可動部の動きを制御する動作制御部と、
    前記動作制御部が認識している前記可動部のロボット座標系における位置および向きの情報を取得する制御情報取得部と、
    前記カメラ座標系における前記可動部の位置および向き、ならびに、前記ロボット座標系における前記可動部の位置および向きに基づいて、前記カメラ座標系と前記ロボット座標系との対応付けを行ってキャリブレーションパラメーターを生成する座標系校正部と
    を備え、
    前記動作制御部は、
    生成された前記キャリブレーションパラメーターに基づいて前記可動部の動きを制御することを特徴とするロボット。
  8. ロボットを制御するロボット制御装置であって、
    位置および向きの変更が可能なロボットの可動部を撮影したカメラ画像を取得する画像取得部と、
    前記可動部の動きを制御する動作制御部が認識している前記可動部のロボット座標系における位置および向きの情報を取得する制御情報取得部と、
    前記可動部の形状モデルを取得し、前記カメラ画像と前記形状モデルとのマッチングから前記可動部のカメラ座標系における位置および向きを検出するマッチング処理部と、
    前記カメラ座標系における前記可動部の位置および向き、ならびに、前記ロボット座標系における前記可動部の位置および向きに基づいて、前記カメラ座標系と前記ロボット座標系との対応付けを行ってキャリブレーションパラメーターを生成する座標系校正部と、
    前記キャリブレーションパラメーターを前記動作制御部へ出力する出力部と
    を備えることを特徴とするロボット制御装置。
  9. ロボットの制御方法であって、
    位置および向きの変更が可能なロボットの可動部を撮影したカメラ画像を取得する画像取得ステップと、
    前記可動部の動きを制御する動作制御部が認識している前記可動部のロボット座標系における位置および向きの情報を取得する制御情報取得ステップと、
    前記可動部の形状モデルを取得し、前記カメラ画像と前記形状モデルとのマッチングから前記可動部のカメラ座標系における位置および向きを検出するマッチング処理ステップと、
    前記カメラ座標系における前記可動部の位置および向き、ならびに、前記ロボット座標系における前記可動部の位置および向きに基づいて、前記カメラ座標系と前記ロボット座標系との対応付けを行ってキャリブレーションパラメーターを生成する座標系校正ステップと、
    前記キャリブレーションパラメーターを前記動作制御部へ出力する出力ステップと
    を実行することを特徴とするロボット制御方法。
  10. ロボットを制御するロボット制御プログラムであって、
    コンピューターに、
    位置および向きの変更が可能なロボットの可動部を撮影したカメラ画像を取得する画像取得機能と、
    前記可動部の動きを制御する動作制御部が認識している前記可動部のロボット座標系における位置および向きの情報を取得する制御情報取得機能と、
    前記可動部の形状モデルを取得し、前記カメラ画像と前記形状モデルとのマッチングから前記可動部のカメラ座標系における位置および向きを検出するマッチング処理機能と、
    前記カメラ座標系における前記可動部の位置および向き、ならびに、前記ロボット座標系における前記可動部の位置および向きに基づいて、前記カメラ座標系と前記ロボット座標系との対応付けを行ってキャリブレーションパラメーターを生成する座標系校正機能と、
    前記キャリブレーションパラメーターを前記動作制御部へ出力する出力機能と
    を実現させることを特徴とするロボット制御プログラム。
JP2012155252A 2012-07-11 2012-07-11 ロボットシステム、ロボット、ロボット制御装置、ロボット制御方法、およびロボット制御プログラム Expired - Fee Related JP5949242B2 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2012155252A JP5949242B2 (ja) 2012-07-11 2012-07-11 ロボットシステム、ロボット、ロボット制御装置、ロボット制御方法、およびロボット制御プログラム
TW102124403A TW201403277A (zh) 2012-07-11 2013-07-08 機器人系統、機器人、機器人控制裝置、機器人控制方法及機器人控制程式
EP20130175706 EP2684651A3 (en) 2012-07-11 2013-07-09 Robot system, robot, robot control device, robot control method, and robot control program
US13/938,587 US20140018957A1 (en) 2012-07-11 2013-07-10 Robot system, robot, robot control device, robot control method, and robot control program
CN201310289275.7A CN103538061A (zh) 2012-07-11 2013-07-10 机器人系统、机器人、机器人控制装置及方法以及程序
KR1020130080910A KR20140008262A (ko) 2012-07-11 2013-07-10 로봇 시스템, 로봇, 로봇 제어 장치, 로봇 제어 방법 및 로봇 제어 프로그램

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012155252A JP5949242B2 (ja) 2012-07-11 2012-07-11 ロボットシステム、ロボット、ロボット制御装置、ロボット制御方法、およびロボット制御プログラム

Publications (2)

Publication Number Publication Date
JP2014014912A true JP2014014912A (ja) 2014-01-30
JP5949242B2 JP5949242B2 (ja) 2016-07-06

Family

ID=48790214

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012155252A Expired - Fee Related JP5949242B2 (ja) 2012-07-11 2012-07-11 ロボットシステム、ロボット、ロボット制御装置、ロボット制御方法、およびロボット制御プログラム

Country Status (6)

Country Link
US (1) US20140018957A1 (ja)
EP (1) EP2684651A3 (ja)
JP (1) JP5949242B2 (ja)
KR (1) KR20140008262A (ja)
CN (1) CN103538061A (ja)
TW (1) TW201403277A (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018144165A (ja) * 2017-03-03 2018-09-20 株式会社キーエンス 画像処理装置、画像処理方法、画像処理プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器
JP2021000678A (ja) * 2019-06-20 2021-01-07 オムロン株式会社 制御システムおよび制御方法
US10906184B2 (en) 2019-03-29 2021-02-02 Mujin, Inc. Method and control system for verifying and updating camera calibration for robot control
JP2021024056A (ja) * 2019-08-07 2021-02-22 株式会社日立製作所 キャリブレーション装置
JP2021066008A (ja) * 2019-10-18 2021-04-30 株式会社Mujin ロボット制御のためのキャリブレーション情報を検証及び更新するための方法並びに制御システム
US11014241B2 (en) 2019-03-29 2021-05-25 Mujin, Inc. Method and control system for verifying and updating camera calibration for robot control
WO2021199305A1 (ja) * 2020-03-31 2021-10-07 日本電気株式会社 制御装置、制御システム、制御方法、および、制御プログラムが記録された記録媒体

Families Citing this family (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015089575A (ja) * 2013-11-05 2015-05-11 セイコーエプソン株式会社 ロボット、制御装置、ロボットシステム及び制御方法
JP5815761B2 (ja) 2014-01-23 2015-11-17 ファナック株式会社 視覚センサのデータ作成システム及び検出シミュレーションシステム
WO2015197100A1 (en) 2014-06-23 2015-12-30 Abb Technology Ltd Method for calibrating a robot and a robot system
JP6372198B2 (ja) * 2014-07-01 2018-08-15 セイコーエプソン株式会社 ロボットシステム及び処理装置
JP6415190B2 (ja) 2014-09-03 2018-10-31 キヤノン株式会社 ロボット装置、ロボット制御プログラム、記録媒体、およびロボット装置の制御方法
CN104476549B (zh) * 2014-11-20 2016-04-27 北京卫星环境工程研究所 基于视觉测量的机械臂运动路径补偿方法
JP2016107379A (ja) * 2014-12-08 2016-06-20 ファナック株式会社 拡張現実対応ディスプレイを備えたロボットシステム
CN104647377B (zh) * 2014-12-30 2016-08-24 杭州新松机器人自动化有限公司 一种基于认知系统的工业机器人及其控制方法
EP3277468A4 (en) 2015-04-02 2019-10-16 ABB Schweiz AG METHOD FOR COMMISSIONING AN INDUSTRIAL ROBOT, INDUSTRIAL ROBOT SYSTEM AND CONTROL SYSTEM USING THE SAME
WO2016176833A1 (zh) * 2015-05-06 2016-11-10 东莞市神州视觉科技有限公司 一种提高xy运动平台系统精度的方法、装置及系统
DE102015209899B4 (de) * 2015-05-29 2019-06-19 Kuka Roboter Gmbh Auswahl eines Gerätes oder eines Objektes mit Hilfe einer Kamera
JP6174654B2 (ja) * 2015-10-15 2017-08-02 ファナック株式会社 センサの位置と向きを算出する機能を備えたロボットシステム
US10363667B2 (en) * 2015-11-30 2019-07-30 Autodesk, Inc. Optical measurement of object location in three dimensions
US11230011B2 (en) * 2016-02-02 2022-01-25 Abb Schweiz Ag Robot system calibration
CN106003023A (zh) * 2016-05-25 2016-10-12 珠海格力智能装备有限公司 机器人运动控制系统和方法
US10105847B1 (en) * 2016-06-08 2018-10-23 X Development Llc Detecting and responding to geometric changes to robots
GB2551769B (en) * 2016-06-30 2020-02-19 Rolls Royce Plc Methods, apparatus, computer programs and non-transitory computer readable storage mediums for controlling a robot within a volume
US10661442B2 (en) * 2017-02-03 2020-05-26 Abb Schweiz Ag Calibration article for a 3D vision robotic system
JP6426781B2 (ja) 2017-03-08 2018-11-21 ファナック株式会社 機械システム
US11679507B2 (en) * 2017-04-26 2023-06-20 Hewlett-Packard Development Company, L.P. Robotic structure calibrations
DE102017207069A1 (de) 2017-04-27 2018-10-31 Robert Bosch Gmbh Prüfvorrichtung zur optischen Prüfung eines Objektes, Produktionsanlage mit der Prüfvorrichtung und Verfahren zur optischen Prüfung des Objektes mit der Prüfvorrichtung
DE102017207063A1 (de) * 2017-04-27 2018-10-31 Robert Bosch Gmbh Steuereinrichtung für eine Prüfvorrichtung, Prüfanordnung mit der Steuereinrichtung, Verfahren zur Ansteuerung der Prüfanordnung und Computerprogramm
EP3630417A1 (en) * 2017-05-22 2020-04-08 ABB Schweiz AG Robot-conveyor calibration method, robot system and control system
US10853539B2 (en) * 2017-05-26 2020-12-01 Autodesk, Inc. Robotic assembly of a mesh surface
JP6633584B2 (ja) * 2017-10-02 2020-01-22 ファナック株式会社 ロボットシステム
US11504853B2 (en) * 2017-11-16 2022-11-22 General Electric Company Robotic system architecture and control processes
DE102018101162B4 (de) * 2018-01-19 2023-09-21 Hochschule Reutlingen Messsystem und Verfahren zur extrinsischen Kalibrierung
JP7017469B2 (ja) * 2018-05-16 2022-02-08 株式会社安川電機 操作用デバイス、制御システム、制御方法及びプログラム
JP2020013242A (ja) * 2018-07-17 2020-01-23 富士ゼロックス株式会社 ロボット制御システム、ロボット装置およびプログラム
JP6977686B2 (ja) * 2018-08-06 2021-12-08 オムロン株式会社 制御システムおよび制御装置
JP2020066066A (ja) * 2018-10-22 2020-04-30 セイコーエプソン株式会社 ロボットシステム、ロボットの校正治具、ロボットの校正方法
JP6829236B2 (ja) * 2018-11-15 2021-02-10 ファナック株式会社 ロボット制御装置及びロボットシステム
TWI696529B (zh) 2018-11-30 2020-06-21 財團法人金屬工業研究發展中心 自動定位方法以及自動控制裝置
CN111890371B (zh) * 2019-03-29 2021-05-04 牧今科技 验证和更新机器人控制用校准信息的方法和控制系统
CN111136654A (zh) * 2019-12-03 2020-05-12 秒针信息技术有限公司 送餐机器人位置提示方法和系统及送餐机器人
US11182178B1 (en) 2020-02-21 2021-11-23 Automation Anywhere, Inc. Detection of user interface controls via invariance guided sub-control learning
CN112077841B (zh) * 2020-08-10 2022-02-11 北京大学 一种提升机器人手臂操纵精度的多关节联动方法及系统

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63104105A (ja) * 1986-10-22 1988-05-09 Aisin Seiki Co Ltd ロボツト視覚座標系の換算方法
JPH06134691A (ja) * 1992-10-23 1994-05-17 Hitachi Ltd 位置検出方法およびこれを用いたフレキシブル生産システム
JPH09128549A (ja) * 1995-11-07 1997-05-16 Meidensha Corp ロボット装置の相対位置姿勢検出方法
JPH11239989A (ja) * 1998-02-25 1999-09-07 Fujitsu Ltd ロボットシミュレーションにおけるキャリブレーション装置
JP2004202627A (ja) * 2002-12-25 2004-07-22 Yaskawa Electric Corp 水平多関節ロボットの干渉チェック装置および方法
US20110320039A1 (en) * 2010-06-25 2011-12-29 Hon Hai Precision Industry Co., Ltd. Robot calibration system and calibrating method thereof
JP2012106317A (ja) * 2010-11-18 2012-06-07 Kobe Steel Ltd 溶接状況監視方法及び溶接状況監視装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3999308B2 (ja) 1997-06-06 2007-10-31 松下電器産業株式会社 ロボットによる装着方法
JP2004318823A (ja) * 2003-03-28 2004-11-11 Seiko Epson Corp 情報表示システム、情報処理装置、ポインティング装置および情報表示システムにおけるポインタマーク表示方法
JP3946711B2 (ja) * 2004-06-02 2007-07-18 ファナック株式会社 ロボットシステム
US8073528B2 (en) * 2007-09-30 2011-12-06 Intuitive Surgical Operations, Inc. Tool tracking systems, methods and computer products for image guided surgery
DE102006049956A1 (de) * 2006-10-19 2008-04-24 Abb Ag System und Verfahren zur automatisierten Ver- und/oder Bearbeitung von Werkstücken
US9393694B2 (en) * 2010-05-14 2016-07-19 Cognex Corporation System and method for robust calibration between a machine vision system and a robot
US9188973B2 (en) * 2011-07-08 2015-11-17 Restoration Robotics, Inc. Calibration and transformation of a camera system's coordinate system

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63104105A (ja) * 1986-10-22 1988-05-09 Aisin Seiki Co Ltd ロボツト視覚座標系の換算方法
JPH06134691A (ja) * 1992-10-23 1994-05-17 Hitachi Ltd 位置検出方法およびこれを用いたフレキシブル生産システム
JPH09128549A (ja) * 1995-11-07 1997-05-16 Meidensha Corp ロボット装置の相対位置姿勢検出方法
JPH11239989A (ja) * 1998-02-25 1999-09-07 Fujitsu Ltd ロボットシミュレーションにおけるキャリブレーション装置
JP2004202627A (ja) * 2002-12-25 2004-07-22 Yaskawa Electric Corp 水平多関節ロボットの干渉チェック装置および方法
US20110320039A1 (en) * 2010-06-25 2011-12-29 Hon Hai Precision Industry Co., Ltd. Robot calibration system and calibrating method thereof
JP2012106317A (ja) * 2010-11-18 2012-06-07 Kobe Steel Ltd 溶接状況監視方法及び溶接状況監視装置

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018144165A (ja) * 2017-03-03 2018-09-20 株式会社キーエンス 画像処理装置、画像処理方法、画像処理プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器
US11590656B2 (en) 2019-03-29 2023-02-28 Mujin, Inc. Method and control system for verifying and updating camera calibration for robot control
US10906184B2 (en) 2019-03-29 2021-02-02 Mujin, Inc. Method and control system for verifying and updating camera calibration for robot control
US11883964B2 (en) 2019-03-29 2024-01-30 Mujin, Inc. Method and control system for verifying and updating camera calibration for robot control
US11014241B2 (en) 2019-03-29 2021-05-25 Mujin, Inc. Method and control system for verifying and updating camera calibration for robot control
JP2021000678A (ja) * 2019-06-20 2021-01-07 オムロン株式会社 制御システムおよび制御方法
JP7326911B2 (ja) 2019-06-20 2023-08-16 オムロン株式会社 制御システムおよび制御方法
JP7264763B2 (ja) 2019-08-07 2023-04-25 株式会社日立製作所 キャリブレーション装置
JP2021024056A (ja) * 2019-08-07 2021-02-22 株式会社日立製作所 キャリブレーション装置
JP2021066008A (ja) * 2019-10-18 2021-04-30 株式会社Mujin ロボット制御のためのキャリブレーション情報を検証及び更新するための方法並びに制御システム
JPWO2021199305A1 (ja) * 2020-03-31 2021-10-07
WO2021199305A1 (ja) * 2020-03-31 2021-10-07 日本電気株式会社 制御装置、制御システム、制御方法、および、制御プログラムが記録された記録媒体
JP7323057B2 (ja) 2020-03-31 2023-08-08 日本電気株式会社 制御装置、制御方法、および、制御プログラム

Also Published As

Publication number Publication date
CN103538061A (zh) 2014-01-29
EP2684651A2 (en) 2014-01-15
EP2684651A3 (en) 2015-05-06
JP5949242B2 (ja) 2016-07-06
US20140018957A1 (en) 2014-01-16
TW201403277A (zh) 2014-01-16
KR20140008262A (ko) 2014-01-21

Similar Documents

Publication Publication Date Title
JP5949242B2 (ja) ロボットシステム、ロボット、ロボット制御装置、ロボット制御方法、およびロボット制御プログラム
JP5850962B2 (ja) ビジュアルフィードバックを利用したロボットシステム
JP6527178B2 (ja) 視覚センサのキャリブレーション装置、方法及びプログラム
JP5928114B2 (ja) ロボットシステム、ロボットシステムのキャリブレーション方法、ロボット
JP6429473B2 (ja) ロボットシステム、ロボットシステムの校正方法、プログラム、およびコンピュータ読み取り可能な記録媒体
JP6812095B2 (ja) 制御方法、プログラム、記録媒体、ロボット装置、及び物品の製造方法
JP6855492B2 (ja) ロボットシステム、ロボットシステム制御装置、およびロボットシステム制御方法
CN108453701A (zh) 控制机器人的方法、示教机器人的方法和机器人系统
JP6324025B2 (ja) 情報処理装置、情報処理方法
JP2015136770A (ja) 視覚センサのデータ作成システム及び検出シミュレーションシステム
JP6885856B2 (ja) ロボットシステムおよびキャリブレーション方法
WO2018209592A1 (zh) 一种机器人的运动控制方法、机器人及控制器
JPWO2018043524A1 (ja) ロボットシステム、ロボットシステム制御装置、およびロボットシステム制御方法
JP2018194542A (ja) 画像処理システム、画像処理装置および画像処理プログラム
JP6253847B1 (ja) レーザ加工装置、レーザ加工方法、及びレーザ加工プログラム
JP7249221B2 (ja) センサ位置姿勢キャリブレーション装置及びセンサ位置姿勢キャリブレーション方法
JP2019077026A (ja) 制御装置、ロボットシステム、制御装置の動作方法及びプログラム
JP6841297B2 (ja) ビジュアルサーボシステム
CN112643718B (zh) 图像处理设备及其控制方法和存储其控制程序的存储介质
JP7299442B1 (ja) 制御装置、3次元位置計測システム、及びプログラム
WO2023013739A1 (ja) ロボット制御装置、ロボット制御システム、及びロボット制御方法
WO2023013698A1 (ja) ロボット制御装置、ロボット制御システム、及びロボット制御方法
JP2021091070A (ja) ロボット制御装置
JP6852502B2 (ja) ロボット装置及びロボット装置位置獲得方法
JP5782538B2 (ja) ツール取付け部に対するツール基準点位置の計測方法、ツール取付け部に対するツール基準点位置の計測装置、およびその計測装置を備えるロボット

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20150108

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150622

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160422

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160510

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160523

R150 Certificate of patent or registration of utility model

Ref document number: 5949242

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees