JP6836571B2 - ロボット装置 - Google Patents

ロボット装置 Download PDF

Info

Publication number
JP6836571B2
JP6836571B2 JP2018214010A JP2018214010A JP6836571B2 JP 6836571 B2 JP6836571 B2 JP 6836571B2 JP 2018214010 A JP2018214010 A JP 2018214010A JP 2018214010 A JP2018214010 A JP 2018214010A JP 6836571 B2 JP6836571 B2 JP 6836571B2
Authority
JP
Japan
Prior art keywords
robot
sensor
calibration
speed
locus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018214010A
Other languages
English (en)
Other versions
JP2020078859A (ja
Inventor
宣章 山岡
宣章 山岡
鈴木 元
鈴木  元
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
FANUC Corp
Original Assignee
FANUC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by FANUC Corp filed Critical FANUC Corp
Priority to JP2018214010A priority Critical patent/JP6836571B2/ja
Priority to US16/659,731 priority patent/US11254006B2/en
Priority to CN201911013034.3A priority patent/CN111185901A/zh
Priority to DE102019007720.2A priority patent/DE102019007720B4/de
Publication of JP2020078859A publication Critical patent/JP2020078859A/ja
Application granted granted Critical
Publication of JP6836571B2 publication Critical patent/JP6836571B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1692Calibration of manipulator
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/45Nc applications
    • G05B2219/45104Lasrobot, welding robot

Description

本発明は、レーザ加工その他の各種加工を行うために用いられるロボット装置に関する。
レーザ加工その他の各種加工を行う加工システムにおいてロボットの軌跡精度は重要である。しかし、減速器やロボットアームの剛性不足、バックラッシ、摩擦等の精度悪化要因によってロボットの先端位置が目標位置からずれたり振動したりすることで加工品質が悪化する場合がある。このような問題の対処法として、ロボットの先端にセンサを取り付け、ロボット動作中の位置偏差や振動をセンサによって計測し、学習制御を繰り返し実行することで位置偏差や振動を低減する方法が提案されている(例えば、特許文献1及び特許文献2参照)。
特開2011−167817号公報 特開2012−240142号公報
上述のようにセンサを用いてロボットの先端位置の動作軌跡を測定して学習制御を行う場合、加工システムのユーザはロボットの座標系とセンサの座標系との間のキャリブレーションを行う必要がある。一般に、キャリブレーションには手間がかかり、またキャリブレーションの精度が悪いと学習制御による軌跡精度の改善効果が薄くなる。ロボットの座標系とセンサの座標系との間の高精度のキャリブレーションを自動的に実行できるロボット装置が望まれている。
本開示の一態様は、ロボットと、前記ロボットの動作を制御する動作制御部と、前記ロボットの制御対象部位の位置に関する値を検出するセンサと、前記動作制御部が動作プログラムに記述された動作を前記動作プログラムで指定された速度よりも低い速度で前記ロボットに実行させたときの、前記制御対象部位の位置に関する前記センサの検出値を用いて、前記制御対象部位の低速時位置情報を取得する低速時位置情報取得部と、前記低速時位置情報と前記動作プログラムによる指令位置とを用いて前記センサと前記ロボットとの間のキャリブレーションを実行するキャリブレーション部と、前記動作制御部が前記動作プログラムに従って前記ロボットを動作させたときの前記センサの検出値と、前記低速時位置情報又は前記指令位置と、前記キャリブレーションによって得られた較正データとを用いて、前記動作プログラムに記述された動作と前記制御対象部位の実動作との偏差を低減するための補正量を学習する学習制御部と、を具備するロボット装置である。
上記構成によれば、カメラ座標系とワールド座標系との間の高精度のキャリブレーションを自動的に実行することができる。また、高精度のキャリブレーションがなされたカメラの画像を用いて取得した位置偏差により、正確な学習制御を実行することができる。
添付図面に示される本発明の典型的な実施形態の詳細な説明から、本発明のこれらの目的、特徴および利点ならびに他の目的、特徴および利点がさらに明確になるであろう。
一実施形態に係るロボット装置の全体構成を表す図である。 ロボットの構成を表す図である。 ロボット制御装置の機能ブロック図である。 キャリブレーション及び学習制御を表すフローチャートである。 加工箇所の撮影画像の一例を表す図である。 図5の画像から得られたエッジデータを表す図である。 指令軌跡が円形の場合のキャリブレーショ処理の例を表すフローチャートである。 キャリブレーション後の動作軌跡と指令軌跡とが一致する状態を表す図である。 指令軌跡が四角形の場合のキャリブレーショ処理の例を表すフローチャートである。 低速動作時の動作軌跡と高速動作時の動作軌跡とを示す図である。 低速動作時の動作軌跡と高速動作時の動作軌跡との間の各角度における誤差をプロットしたグラフである。 図11のグラフにおける角度の定義を説明するための図である。
次に、本開示の実施形態について図面を参照して説明する。参照する図面において、同様の構成部分または機能部分には同様の参照符号が付けられている。理解を容易にするために、これらの図面は縮尺を適宜変更している。また、図面に示される形態は本発明を実施するための一つの例であり、本発明は図示された形態に限定されるものではない。
図1は、一実施形態に係るロボット装置10の全体構成を表す図である。図1に示すように、ロボット装置10は、ロボット1と、ロボット1の動作を制御するロボット制御装置2と、ロボット1の設置面に対して固定されたカメラ3とを備える。ロボット1のアーム先端部には、加工ツール5が取り付けられている。ロボット装置10は、レーザ加工(溶接、切断等)、ウォータージェットによる切断加工等の様々な加工に用いることができる。加工ツール5は、例えば、ワークWにレーザ光を照射してレーザ加工を行うためのツールである。
ロボット制御装置2は、CPU、ROM、RAM、記憶装置等を有する一般的なコンピュータとしての構成を有していても良い。ロボット制御装置2は、ロボット制御装置2内に予めロードされている動作プログラムにしたがってロボット1の動作を制御する。ロボット1は、例えば、図2に示すように第1関節部71〜第6関節部76を有する垂直多関節ロボットである。なお、本実施形態に係るロボット1の構成はこのような例に限られない。ロボット1の位置を規定する座標系としてワールド座標系91が、ロボット1の基部を原点として設定されている。
本実施形態に係るロボット装置10は、ロボット1の動作中の位置(制御対象部位の位置)をセンサによって計測することでロボット1の動作軌跡の目標位置からの位置偏差を求め、この位置偏差を低減するための学習制御を実行するように構成されている。ここで、ロボットの制御対象部位は、例えば、ロボットのTCP(ツール・センター・ポイント)である。この構成により、ロボット装置10は、減速機やロボットアームの剛性不足、バックラッシ、摩擦等の精度悪化要因によってロボットの先端位置が目標位置(指令位置)からずれたり振動したりして加工品質に影響が出ることを防ぐことができる。ロボット1の動作中の位置を計測するセンサとしては、加速度センサ、力センサ、ビジョンセンサ、レーザトラッカ等の様々なセンサを用いることができるが、本実施形態では、ビジョンセンサとしてのカメラ3によりロボット1の動作軌跡を撮影して取得する構成としている。
このようにセンサを用いて位置偏差を測定し学習制御を行う場合、ロボット1の座標系とセンサの座標系との間でキャリブレーションを行う必要がある。以下で説明するように、ロボット装置10は、ワールド座標系91とカメラ3の座標系(以下、カメラ座標系とも記載する)との間のキャリブレーションを自動的に実行する。
図3は、ロボット制御装置2の機能ブロック図を示している。図2に示す各機能ブロックは、専用のハードウェアとして実現されても良いし、ロボット制御装置2のCPUがソフトウェアを実行しハードウェアと協働することで実現されるものであっても良い。ロボット制御装置2において、動作制御部21は、動作プログラム25に従ってロボット1の動作(位置及び姿勢)を制御する。より詳細には、動作制御部21は、動作プログラム25に従ってロボット1の各関節の駆動軸の位置・速度等を制御する。学習制御部22は、動作プログラム25に基づくロボット1の指令位置と、カメラ3で撮像したロボット1の動作軌跡とを比較することで、指令位置に対する実際のロボット1の動作軌跡の位置偏差を求め、この位置偏差を低減させる補正量を学習制御により求める。低速時位置情報取得部24は、動作制御部21が動作プログラム25に記述された動作を動作プログラム25で指定された速度よりも低い速度でロボットに実行させたときの、ロボット1の位置に関するセンサの検出値(本実施形態において、カメラ3で撮像した画像)を用いて、ロボット1の低速時位置情報(本実施形態において、ロボット1の動作軌跡)を取得する。キャリブレーション部23は、ワールド座標系91とカメラ座標系との間のキャリブレーションを実行する。
図4は、学習制御により位置偏差を低減させる処理を表すフローチャートである。図4の処理は、ロボット制御装置2による制御の下で実行される。はじめに、ロボット制御装置2は、ロボット1に低速で目標動作を実行させる(ステップS1)。ここで、低速動作とは、動作プログラムで指定された動作速度よりも低速であり、ロボット1への振動等の精度悪化要因による影響が無視できる程度に低くなる速度である。低速動作時の速度は、動作プログラムで指定された速度よりも十分に低い速度(例えば、1/10の速度)に設定しても良い。ロボット制御装置2は、ロボット1が低速動作で加工したワークW上の動作軌跡をカメラ3によって撮像し加工部分の点列データを取得する(ステップS2)。このようにロボット1を低速動作させることで、動作プログラム25に記述された指令軌跡に対して誤差の無い(誤差が極小の)動作軌跡を得ることができる。なお、ステップS1−S2の処理は、低速時位置情報取得部24の制御の下で実行される。
次に、ステップS3で、上記低速動作時における指令値データとカメラ3で取得した上記点列データを用いて、ロボット1の座標系(ワールド座標系91)とカメラ3の座標系(カメラ座標系)との間のキャリブレーションを実行する。キャリブレーションは、キャリブレーション部23の制御の下で実行される。動作プログラムに記述された指令が直径150mmの円のレーザ加工を行う指令であるものと想定して、以下、キャリブレーション処理の例を説明する。ステップ1において直径150mmの円をレーザ加工する指令を低速動作により実行した後、ステップS2においてカメラ3でワークWを撮像した画像が図5に示すようなものであったとする。図5の画像において白抜きで示された部分がレーザ加工された部分(以下、加工部分101と記載する)である。カメラ3の設置誤差等を要因としてカメラ3から写した加工部分101の画像は円形にはならない場合がある。
キャリブレーション処理を実行するために、まず、図5の撮影画像からエッジ部分を抽出する。エッジデータの抽出までを低速時位置情報取得部24によって実行しても良い。エッジ部分の抽出結果として、図6に示すようなエッジデータ(点列データ)102が得られたものとする。なお、図6において、縦軸、横軸はそれぞれ水平方向の画素位置、垂直方向の画素位置を表している。図6のエッジデータ102と、低速動作時の指令軌跡との間の関係を求めることでカメラ3のキャリブレーションを行う。図7に指令軌跡が円形である場合のキャリブレーション処理の一例を示す。まず、エッジデータ102の幾何学的中心と、指令軌跡による円の中心とを一致させることで重心合わせ行う(ステップS101)。次に、エッジデータ102に対して水平方向、垂直方向について別々の拡大率を適用してエッジデータ102と指令軌跡による円とを一致させる(ステップS102)。重心合わせのためにエッジデータ102をシフトした際のシフト量、及びエッジデータ102と指令軌跡による円とを一致させるための水平方向及び垂直方向の拡大率が、キャリブレーションデータ(すなわち、カメラ座標系をワールド座標系に変換するための較正データ)を構成する。
以上のように得られたキャリブレーションデータを用いて低速動作時の動作軌跡であるエッジデータ102をロボット1の座標系に変換したものが図8に示した動作軌跡102Aである。図8に示すように、キャリブレーション後の動作軌跡102Aはロボット1の指令軌跡103に一致している。
図7は指令軌跡が円形の場合のキャリブレーショ処理の例であるが、ここで図9に指令軌跡が四角形の場合のキャリブレーション処理の例を示す。この場合、はじめに、ロボット1を低速動作させて加工後の動作軌跡を撮像して得られたエッジデータと、指令軌跡の四角形の重心合わせを行う(ステップS201)。次に、エッジデータを回転させて(ステップS202)、それぞれの四角形の対応の各辺を平行化する(ステップS203)。次に、エッジデータの縦横比を調整してエッジデータの四角形と指令軌跡の四角形とを一致させる(ステップS204)。以上の処理により得られた、重心合わせのためのシフト量、回転量、縦横比の調整量が、キャリブレーションデータを構成する。なお、指令軌跡が他の形状である場合にも、図7や図9に示した処理と同様の処理によりキャリブレーションデータを取得することができる。
以上のキャリブレーション処理によりカメラ3に対する高精度のキャリブレーションを自動的に実行することができる。
図4の説明に戻り、次に、ループ処理L1により学習を繰り返す学習制御が実行される。学習制御は、学習制御部22の制御の下で実行される。学習制御が開始されると、動作プログラムに指定された動作速度(以下、高速動作とも記載する)で加工を実行する(ステップS4)。この場合、前回の学習制御用内部処理(ステップS6)により補正量が算出されている場合には、動作プログラムによる動作指令に補正量を適用して補正を行った上で加工を実行する。次に、加工後の軌跡をカメラ3で撮像して加工部分のエッジデータ(点列データ)を得る(ステップS5)。
次に、ステップS5で得られた高速動作時の動作軌跡を基に位置偏差を低減する補正量を求める学習制御を実行する(ステップS6)。実際の動作軌跡と目標軌跡との間の位置偏差を低減するための補正量を求める学習制御の手法としては当分野で知られた各種手法を用いることができる。ここでは、以下のように補正量を求める処理を行う。位置偏差を求める際の基準となる目標軌跡としては、低速動作時の動作軌跡或いはロボット1に対する指令軌跡を用いることができるが、以下では、低速動作時の動作軌跡を用いる場合を例にとり説明する。
図10に、カメラ3で撮像して得られた低速動作時の動作軌跡102と高速動作時の動作軌跡111とを示す。なお、図10において縦軸、横軸はそれぞれ垂直方向の画素位置、水平方向の画素位置を表している。低速動作時の動作軌跡102及び高速動作時の動作軌跡111をそれぞれキャリブレーションデータを用いてキャリブレーションした上で、動作軌跡102に対する動作軌跡111の各角度における誤差をプロットしたのが図11である。ここで、図11における横軸の角度は、図12のように動作軌跡102の幾何学中心Pから縦軸に平行に下方に伸びる直線を基準として、中心P周りに図中半時計回りに回転する方向を正とする角度θとして定義しても良い。
学習制御による補正量の算出では、図11に示した誤差を打ち消すような補正量を求めて学習制御部22内のメモリに記憶する。この補正量を用いて、次の加工動作(ステップS4)における指令位置を補正する。このような学習を、所定回数(図4ではN回)繰り返し実行することで位置偏差を低減する。このような学習制御は、位置偏差がゼロ又は無視可能なレベルに収束するまで繰り返し実行しても良い。以上により、図4の処理は終了する。
以上の処理により、キャリブレーションがなされたカメラ5の出力(撮影画像)を用いて位置偏差を取得して正確な学習制御を実行することができる。特に、上記処理によれば、キャリブレーション処理を、低速動作時における指令値データとカメラ3で取得した点列データを用いて自動的に実行している。したがって、ユーザの作業ミスや経験不足によるキャリブレーションの精度不良の懸念が払拭され、安定した学習制御性能を得ることができる。
すなわち、本実施形態によれば、カメラ座標系とワールド座標系との間の高精度のキャリブレーションを自動的に実行することができる。また、高精度のキャリブレーションがなされたカメラの画像を用いて取得した位置偏差により、正確な学習制御を実行することができる。
以上、典型的な実施形態を用いて本発明を説明したが、当業者であれば、本発明の範囲から逸脱することなしに、上述の各実施形態に変更及び種々の他の変更、省略、追加を行うことができるのを理解できるであろう。
上述の実施形態は、ビジョンセンサとしてのカメラ3により加工箇所を計測してロボットの動作軌跡を取得する構成としているが、ロボットの動作軌跡を取得するための計測箇所はロボット1上の部位としても良い。例えば、ロボット1のアーム先端部を計測箇所としても良い。また、ロボットの動作軌跡を取得するためのセンサとして加速度センサ、力センサ、レーザトラッカを用いる場合に、これらのセンサをロボットのアーム先端部に取り付ける構成とすることもできる。例えば、加速度センサをロボット1のアーム先端に取り付けることで、ロボット1の動作中におけるアーム先端部の動作軌跡を取得することができる。一例として、図2には、アーム先端部(手首部)にセンサ81を取り付けた状態を示している。この場合、センサ81の座標系としてアーム先端部に固定された座標系93が設定される。
ロボット1のアーム先端部と加工ツールとの間に力センサを取り付け、加工ツール5の動作に伴う負荷を力センサで検出する構成としても良い。この場合、力センサとして3軸の力センサを用い、ロボット1の動作時のXYZの3成分の力を検出する。運動方程式F=maと、力センサの先に取り付けた加工ツールの質量mとから、検出された力を加工ツールの加速度に変換する。次に、変換された加速度と、ロボットの指令位置を2回微分することにより得られる加速度とから、ロボットの座標系とセンサの座標系との間の関係を表すデータを得ることができ、このデータにより力センサのキャリブレーションを行うことができる。
また、本開示の課題を解決するために、以下のような各種の態様とその効果を提供することができる。なお、以下の態様の説明文における括弧内の番号は本開示の図面の参照符号に対応する。
本開示の第一態様は、ロボット(1)と、前記ロボット(1)の動作を制御する動作制御部(21)と、前記ロボット(1)の制御対象部位の位置に関する値を検出するセンサ(3)と、前記動作制御部(21)が動作プログラムに記述された動作を前記動作プログラムで指定された速度よりも低い速度で前記ロボット(1)に実行させたときの、前記制御対象部位の位置に関する前記センサの検出値を用いて、前記制御対象部位の低速時位置情報を取得する低速時位置情報取得部(24)と、前記低速時位置情報と前記動作プログラムによる指令位置とを用いて前記センサ(3)と前記ロボット(1)との間のキャリブレーションを実行するキャリブレーション部(23)と、前記動作制御部(21)が前記動作プログラムに従って前記ロボット(1)を動作させたときの前記センサの検出値と、前記低速時位置情報又は前記指令位置と、前記キャリブレーションによって得られた較正データとを用いて、前記動作プログラムに記述された動作と前記制御対象部位の実動作との偏差を低減するための補正量を学習する学習制御部(22)と、を具備するロボット装置(10)である。
上記第一態様によれば、カメラ座標系とワールド座標系との間の高精度のキャリブレーションを自動的に実行することができる。また、高精度のキャリブレーションがなされたカメラの画像を用いて取得した位置偏差により、正確な学習制御を実行することができる。
また、本開示の第二態様は上記第一態様のロボット装置(10)であって、前記キャリブレーションによって得られる前記較正データは、前記センサの座標系を前記ロボットの座標系に変換するためのデータを含む。
また、本開示の第三態様は上記第一態様又は第二態様のロボット装置(10)であって、前記センサは前記実動作の軌跡を撮影するカメラ(3)を有する。
また、本開示の第四態様は上記第一態様又は第二態様のロボット装置(10)であって、前記センサは前記ロボットの手首部に取り付けられ該手首部の位置を表す値を検出する。
1 ロボット
2 ロボット制御装置
3 カメラ
5 加工ツール
10 ロボット装置
21 動作制御部
22 学習制御部
23 キャリブレーション部
24 低速時位置情報取得部
25 動作プログラム

Claims (4)

  1. ロボットと、
    前記ロボットの動作を制御する動作制御部と、
    前記ロボットの制御対象部位の位置に関する値を検出するセンサと、
    前記動作制御部が動作プログラムに記述された動作を前記動作プログラムで指定された速度よりも低い速度で前記ロボットに実行させたときの、前記制御対象部位の位置に関する前記センサの検出値を用いて、前記制御対象部位の低速時位置情報を取得する低速時位置情報取得部と、
    前記低速時位置情報と前記動作プログラムによる指令位置とを用いて前記センサと前記ロボットとの間のキャリブレーションを実行するキャリブレーション部と、
    前記動作制御部が前記動作プログラムに従って前記ロボットを動作させたときの前記センサの検出値と、前記低速時位置情報又は前記指令位置と、前記キャリブレーションによって得られた較正データとを用いて、前記動作プログラムに記述された動作と前記制御対象部位の実動作との偏差を低減するための補正量を学習する学習制御部と、
    を具備するロボット装置。
  2. 前記キャリブレーションによって得られる前記較正データは、前記センサの座標系を前記ロボットの座標系に変換するためのデータを含む、請求項1に記載のロボット装置。
  3. 前記センサは前記実動作の軌跡を撮影するカメラを有する、請求項1又は2に記載のロボット装置。
  4. 前記センサは前記ロボットの手首部に取り付けられ該手首部の位置を表す値を検出する、請求項1又は2に記載のロボット装置。
JP2018214010A 2018-11-14 2018-11-14 ロボット装置 Active JP6836571B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2018214010A JP6836571B2 (ja) 2018-11-14 2018-11-14 ロボット装置
US16/659,731 US11254006B2 (en) 2018-11-14 2019-10-22 Robot device
CN201911013034.3A CN111185901A (zh) 2018-11-14 2019-10-23 机器人装置
DE102019007720.2A DE102019007720B4 (de) 2018-11-14 2019-11-07 Robotervorrichtung

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018214010A JP6836571B2 (ja) 2018-11-14 2018-11-14 ロボット装置

Publications (2)

Publication Number Publication Date
JP2020078859A JP2020078859A (ja) 2020-05-28
JP6836571B2 true JP6836571B2 (ja) 2021-03-03

Family

ID=70469088

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018214010A Active JP6836571B2 (ja) 2018-11-14 2018-11-14 ロボット装置

Country Status (4)

Country Link
US (1) US11254006B2 (ja)
JP (1) JP6836571B2 (ja)
CN (1) CN111185901A (ja)
DE (1) DE102019007720B4 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6795471B2 (ja) * 2017-08-25 2020-12-02 ファナック株式会社 ロボットシステム
US20220219322A1 (en) * 2019-05-17 2022-07-14 Telefonaktiebolaget Lm Ericsson (Publ) Technique for Parameter Conversion Between a Robotic Device and a Controller for the Robotic Device
JP2021189466A (ja) * 2020-05-25 2021-12-13 株式会社日立製作所 要因推定システムおよび装置
CN111975780B (zh) * 2020-08-25 2021-08-17 厦门众合天元科技有限公司 一种工业机器人运动轨迹设定装置及其使用方法
CN113634876B (zh) * 2021-10-18 2021-12-28 武汉逸飞激光股份有限公司 机器视觉的辅助标定方法、装置、电子设备和存储介质
WO2023067659A1 (ja) 2021-10-18 2023-04-27 ファナック株式会社 制御装置
CN113696190B (zh) * 2021-10-28 2022-03-18 深圳市越疆科技有限公司 一种示教轨迹点采集方法、装置、机械臂、系统及介质
CN114794667B (zh) * 2022-03-31 2023-04-14 深圳市如本科技有限公司 工具标定方法、系统、装置、电子设备以及可读存储介质
WO2023223570A1 (ja) * 2022-05-18 2023-11-23 三菱電機株式会社 制御装置、ロボットシステム、学習装置、ロボットの制御方法およびプログラム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3560216B2 (ja) * 1998-01-08 2004-09-02 日本電信電話株式会社 作業支援装置
WO2006055770A2 (en) * 2004-11-19 2006-05-26 Dynalog, Inc. Robot cell calibration
KR20070087162A (ko) * 2007-07-19 2007-08-27 미쓰비시덴키 가부시키가이샤 위치결정 장치 및 위치결정 방법
JP4850956B2 (ja) * 2010-02-19 2012-01-11 ファナック株式会社 学習制御機能を備えたロボット
JP5765557B2 (ja) * 2011-02-28 2015-08-19 株式会社Ihi 加工ロボットの軌道追従装置と方法
JP5480198B2 (ja) 2011-05-17 2014-04-23 ファナック株式会社 学習制御機能を備えたスポット溶接ロボット
JP6516546B2 (ja) * 2014-04-28 2019-05-22 キヤノン株式会社 ロボット装置の制御方法及びロボット装置並びに物品の製造方法
US9857786B2 (en) * 2015-03-31 2018-01-02 Recognition Robotics, Inc. System and method for aligning a coordinated movement machine reference frame with a measurement system reference frame
DE102017000063B4 (de) 2016-01-14 2019-10-31 Fanuc Corporation Robotereinrichtung mit Lernfunktion
JP6469069B2 (ja) * 2016-12-13 2019-02-13 ファナック株式会社 学習を容易化する機能を備えたロボット制御装置、及びロボット制御方法
JP6457473B2 (ja) 2016-12-16 2019-01-23 ファナック株式会社 ロボットおよびレーザスキャナの動作を学習する機械学習装置,ロボットシステムおよび機械学習方法
JP6484265B2 (ja) * 2017-02-15 2019-03-13 ファナック株式会社 学習制御機能を備えたロボットシステム及び学習制御方法
JP6717768B2 (ja) 2017-03-09 2020-07-01 ファナック株式会社 生産ラインにおける運用を考慮した学習制御を行うロボット及びその制御方法
JP6585666B2 (ja) 2017-07-03 2019-10-02 ファナック株式会社 速度一定が要求されるアプリケーションにおいて学習制御を行うロボット及びその制御方法

Also Published As

Publication number Publication date
DE102019007720B4 (de) 2022-10-13
US20200147799A1 (en) 2020-05-14
DE102019007720A1 (de) 2020-05-14
CN111185901A (zh) 2020-05-22
JP2020078859A (ja) 2020-05-28
US11254006B2 (en) 2022-02-22

Similar Documents

Publication Publication Date Title
JP6836571B2 (ja) ロボット装置
US10112301B2 (en) Automatic calibration method for robot systems using a vision sensor
JP6429473B2 (ja) ロボットシステム、ロボットシステムの校正方法、プログラム、およびコンピュータ読み取り可能な記録媒体
US10099380B2 (en) Robot, robot control device, and robot system
JP4267005B2 (ja) 計測装置及びキャリブレーション方法
US20180229364A1 (en) Robot system having learning control function and learning control method
JP6489776B2 (ja) 座標系校正方法、ロボットシステム、プログラム及び記録媒体
JP5912627B2 (ja) 撮像検査装置ならびにその制御装置および制御方法
JP6661028B2 (ja) 作業位置補正方法
KR20140008262A (ko) 로봇 시스템, 로봇, 로봇 제어 장치, 로봇 제어 방법 및 로봇 제어 프로그램
JP6622765B2 (ja) ロボットシステム
JP3644991B2 (ja) ロボット−センサシステムにおける座標系結合方法
US7957834B2 (en) Method for calculating rotation center point and axis of rotation, method for generating program, method for moving manipulator and positioning device, and robotic system
JP6568172B2 (ja) キャリブレーションを行うロボット制御装置、計測システム及びキャリブレーション方法
JPH07286820A (ja) 3次元視覚センサを用いた位置計測方法及び位置ずれ補正方法
JP2016052699A (ja) ロボット制御システムおよびロボット制御方法
JP2019211374A (ja) 測定装置及び測定方法
JP2006049755A (ja) 回転中心算出方法およびこの方法を用いたワーク位置決め装置
JPH09222913A (ja) ロボットの教示位置補正装置
WO2022025059A1 (ja) ロボットシステム
JP2010091540A (ja) 三次元計測システム及び三次元計測方法
CN114012719A (zh) 一种六轴机器人的零点标定方法及系统
WO2020184575A1 (ja) 計測システム及び計測方法
JPWO2018096669A1 (ja) レーザ加工装置、レーザ加工方法、及びレーザ加工プログラム
WO2020008712A1 (ja) 測定方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200410

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200714

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200722

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201014

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201020

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210105

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210205

R150 Certificate of patent or registration of utility model

Ref document number: 6836571

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150