JP2022073191A - 表示制御方法、表示プログラムおよびロボットシステム - Google Patents

表示制御方法、表示プログラムおよびロボットシステム Download PDF

Info

Publication number
JP2022073191A
JP2022073191A JP2020183020A JP2020183020A JP2022073191A JP 2022073191 A JP2022073191 A JP 2022073191A JP 2020183020 A JP2020183020 A JP 2020183020A JP 2020183020 A JP2020183020 A JP 2020183020A JP 2022073191 A JP2022073191 A JP 2022073191A
Authority
JP
Japan
Prior art keywords
force
robot
display
index
robot arm
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020183020A
Other languages
English (en)
Inventor
馨 竹内
Kaoru Takeuchi
大稀 安達
Daiki Adachi
敬文 木下
Takafumi Kinoshita
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2020183020A priority Critical patent/JP2022073191A/ja
Priority to US17/514,052 priority patent/US20220134571A1/en
Publication of JP2022073191A publication Critical patent/JP2022073191A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/1605Simulation of manipulator lay-out, design, modelling of manipulator
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J18/00Arms
    • B25J18/02Arms extensible
    • B25J18/04Arms extensible rotatable
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/1633Programme controls characterised by the control loop compliant, force, torque control, e.g. combined with position control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39322Force and position control
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39444Display of position, of shape of robot and tool

Abstract

【課題】目標力と、ロボットアームに加わった力との関係を一目で把握することができる表示制御方法、表示プログラムおよびロボットシステムを提供すること。【解決手段】力制御により作業を行うロボットアームを有するロボットのシミュレーションモデルである仮想ロボットを含む表示画像を表示する表示部を制御する表示制御方法であって、前記作業中に前記ロボットアームが受ける力の目標である目標力に関する第1情報を含む力制御パラメーターに関する情報を受け付ける受付ステップと、前記表示画像において、前記仮想ロボットと、前記第1情報を示す第1指標と、前記作業中に前記ロボットアームに加わった力に関する第2情報を示す第2指標と、を時間的に重複して、かつ、区別して表示する表示ステップと、を有することを特徴とする表示制御方法。【選択図】図3

Description

本発明は、表示制御方法、表示プログラムおよびロボットシステムに関する。
例えば、特許文献1に示すように、ロボットアームと、ロボットアームに加わる力を検出する力検出部と、を有し、力検出部の検出結果に基づいてロボットアームを駆動する力制御を行うことによって、所定の作業を行うロボットが知られている。また、作業者は、ロボットが作業を行うのに先立って、作業中にロボットアームが受ける力の目標力等の力制御パラメーターを設定する。これにより、所望の作業をロボットに行わせることができる。
また、特許文献1では、作業中に、どの程度の力がワークに加わっているか、その力がどこに加わっているかを表示することにより、作業者が、作業内容を視覚的に把握することができる。これにより、作業が適切であるか否かを認識することができる。
特開2017-1122号公報
しかしながら、単に作業中にワークにどの程度の力が加わっているかを把握したところで、その力の大きさが適切であるか否かを判断するのは難しい。
本発明の表示制御方法は、力制御により作業を行うロボットアームを有するロボットのシミュレーションモデルである仮想ロボットを含む表示画像を表示する表示部を制御する表示制御方法であって、
前記作業中に前記ロボットアームが受ける力の目標である目標力に関する第1情報を含む力制御パラメーターに関する情報を受け付ける受付ステップと、
前記表示画像において、前記仮想ロボットと、前記第1情報を示す第1指標と、前記作業中に前記ロボットアームに加わった力に関する第2情報を示す第2指標と、を時間的に重複して、かつ、区別して表示する表示ステップと、を有することを特徴とする。
本発明の表示プログラムは、力制御により作業を行うロボットアームを有するロボットのシミュレーションモデルである仮想ロボットを含む表示画像を表示する表示部を制御する表示制御方法を実行するためのプログラムであって、
前記作業中に前記ロボットアームが受ける力の目標である目標力に関する第1情報を含む力制御パラメーターに関する情報を受け付ける受付ステップと、
前記表示画像において、前記仮想ロボットと、前記第1情報を示す第1指標と、前記作業中に前記ロボットアームに加わった力に関する第2情報を示す第2指標と、を時間的に重複して、かつ、区別して表示する表示ステップと、を実行するためのものであることを特徴とする。
本発明のロボットシステムは、力制御により作業を行うロボットアームを有するロボットと、前記ロボットのシミュレーションモデルである仮想ロボットを含む表示画像を表示する表示部と、前記表示部を制御する制御部と、を備え、
前記制御部は、
前記作業中に前記ロボットアームが受ける力の目標である目標力に関する第1情報を含む力制御パラメーターに関する情報を受け付け、
前記表示画像において、前記仮想ロボットと、前記第1情報を示す第1指標と、前記作業中に前記ロボットアームに加わった力に関する第2情報を示す第2指標と、を時間的に重複して、かつ、区別して表示するよう前記表示部の作動を制御することを特徴とする。
図1は、本発明のロボットシステムの全体構成を示す図である。 図2は、図1に示すロボットシステムのブロック図である。 図3は、表示ステップで表示される表示画像の一例を示す図である。 図4は、表示ステップで表示される表示画像の一例を示す図である。 図5は、表示ステップで表示される表示画像の一例を示す図である。 図6は、表示ステップで表示される表示画像の一例を示す図である。 図7は、表示ステップで表示される表示画像の一例を示す図である。 図8は、表示ステップで表示される表示画像の一例を示す図である。 図9は、表示ステップで表示される第1指標または第2指標の変化のバリエーションを説明するための図である。 図10は、表示ステップで表示される表示画像の一例を示す図である。 図11は、表示ステップで表示される表示画像の一例を示す図である。 図12は、本発明の表示制御方法を説明するためのフローチャートである。 図13は、ロボットシステムについてハードウェアを中心として説明するためのブロック図である。 図14は、ロボットシステムのハードウェアを中心とした変形例1を示すブロック図である。 図15は、ロボットシステムのハードウェアを中心とした変形例2を示すブロック図である。
<実施形態>
図1は、本発明のロボットシステムの全体構成を示す図である。図2は、図1に示すロボットシステムのブロック図である。図3~図8は、表示ステップで表示される表示画像の一例を示す図である。図9は、表示ステップで表示される第1指標または第2指標の変化のバリエーションを説明するための図である。図10および図11は、表示ステップで表示される表示画像の一例を示す図である。図12は、本発明の表示制御方法を説明するためのフローチャートである。
以下、ロボットの制御方法を添付図面に示す好適な実施形態に基づいて詳細に説明する。なお、以下では、説明の便宜上、図1中の+Z軸方向、すなわち、上側を「上」、-Z軸方向、すなわち、下側を「下」とも言う。また、ロボットアームについては、図1中の基台11側を「基端」、その反対側、すなわち、エンドエフェクター側を「先端」とも言う。また、図1中のZ軸方向、すなわち、上下方向を「鉛直方向」とし、X軸方向およびY軸方向、すなわち、左右方向を「水平方向」とする。
図1に示すように、ロボットシステム100は、ロボット1と、ロボット1を制御する制御装置3と、教示装置4と、を備える。
まず、ロボット1について説明する。
図1に示すロボット1は、本実施形態では単腕の6軸垂直多関節ロボットであり、基台11と、ロボットアーム10と、を有する。また、ロボットアーム10の先端部にエンドエフェクター20を装着することができる。エンドエフェクター20は、ロボット1の構成要件であってもよく、ロボット1の構成要件でなくてもよい。
なお、ロボット1は、図示の構成に限定されず、例えば、双腕型の多関節ロボットであってもよい。また、ロボット1は、水平多関節ロボットであってもよい。
基台11は、ロボットアーム10を下側から駆動可能に支持する支持体であり、例えば工場内の床に固定されている。ロボット1は、基台11が中継ケーブル18を介して制御装置3と電気的に接続されている。なお、ロボット1と制御装置3との接続は、図1に示す構成のように有線による接続に限定されず、例えば、無線による接続であってもよく、さらには、インターネットのようなネットワークを介して接続されていてもよい。
本実施形態では、ロボットアーム10は、第1アーム12と、第2アーム13と、第3アーム14と、第4アーム15と、第5アーム16と、第6アーム17とを有し、これらのアームが基台11側からこの順に連結されている。なお、ロボットアーム10が有するアームの数は、6つに限定されず、例えば、1つ、2つ、3つ、4つ、5つまたは7つ以上であってもよい。また、各アームの全長等の大きさは、それぞれ、特に限定されず、適宜設定可能である。
基台11と第1アーム12とは、関節171を介して連結されている。そして、第1アーム12は、基台11に対し、鉛直方向と平行な第1回動軸を回動中心とし、その第1回動軸回りに回動可能となっている。第1回動軸は、基台11が固定される床の法線と一致している。
第1アーム12と第2アーム13とは、関節172を介して連結されている。そして、第2アーム13は、第1アーム12に対し、水平方向と平行な第2回動軸を回動中心として回動可能となっている。第2回動軸は、第1回動軸に直交する軸と平行である。
第2アーム13と第3アーム14とは、関節173を介して連結されている。そして、第3アーム14は、第2アーム13に対し、水平方向と平行な第3回動軸を回動中心として回動可能となっている。第3回動軸は、第2回動軸と平行である。
第3アーム14と第4アーム15とは、関節174を介して連結されている。そして、第4アーム15は、第3アーム14に対し、第3アーム14の中心軸方向と平行な第4回動軸を回動中心として回動可能となっている。第4回動軸は、第3回動軸と直交している。
第4アーム15と第5アーム16とは、関節175を介して連結されている。そして、第5アーム16は、第4アーム15に対し、第5回動軸を回動中心として回動可能となっている。第5回動軸は、第4回動軸と直交している。
第5アーム16と第6アーム17とは、関節176を介して連結されている。そして、第6アーム17は、第5アーム16に対し、第6回動軸を回動中心として回動可能となっている。第6回動軸は、第5回動軸と直交している。
また、第6アーム17は、ロボットアーム10の中で最も先端側に位置するロボット先端部となっている。この第6アーム17は、ロボットアーム10の駆動により、エンドエフェクター20ごと回動することができる。
ロボット1は、駆動部としてのモーターM1、モーターM2、モーターM3、モーターM4、モーターM5およびモーターM6と、エンコーダーE1、エンコーダーE2、エンコーダーE3、エンコーダーE4、エンコーダーE5およびエンコーダーE6とを備える。モーターM1は、関節171に内蔵され、基台11と第1アーム12とを相対的に回転させる。モーターM2は、関節172に内蔵され、第1アーム12と第2アーム13とを相対的に回転させる。モーターM3は、関節173に内蔵され、第2アーム13と第3アーム14とを相対的に回転させる。モーターM4は、関節174に内蔵され、第3アーム14と第4アーム15とを相対的に回転させる。モーターM5は、関節175に内蔵され、第4アーム15と第5アーム16とを相対的に回転させる。モーターM6は、関節176に内蔵され、第5アーム16と第6アーム17とを相対的に回転させる。
また、エンコーダーE1は、関節171に内蔵され、モーターM1の位置を検出する。エンコーダーE2は、関節172に内蔵され、モーターM2の位置を検出する。エンコーダーE3は、関節173に内蔵され、モーターM3の位置を検出する。エンコーダーE4は、関節174に内蔵され、モーターM4の位置を検出する。エンコーダーE5は、関節175に内蔵され、モーターM5の位置を検出する。エンコーダーE6は、関節176に内蔵され、モーターM6の位置を検出する。
エンコーダーE1~エンコーダーE6は、制御装置3と電気的に接続されており、モーターM1~モーターM6の位置情報、すなわち、回転量が制御装置3に電気信号として送信される。そして、この情報に基づいて、制御装置3は、モーターM1~モーターM6を、図示しないモータードライバーを介して駆動させる。すなわち、ロボットアーム10を制御するということは、モーターM1~モーターM6を制御することである。
また、ロボットアーム10の先端には、制御点CPが設定されている。制御点CPは、ロボットアーム10の制御を行う際の基準となる点のことである。ロボットシステム100では、ロボット座標系で制御点CPの位置を把握し、制御点CPが所望の位置に移動するようにロボットアーム10を駆動する。
また、ロボット1では、ロボットアーム10に、力を検出する力検出部19が着脱自在に設置される。そして、ロボットアーム10は、力検出部19が設置された状態で駆動することができる。力検出部19は、本実施形態では、6軸力覚センサーである。力検出部19は、互いに直交する3つの検出軸上の力の大きさと、当該3つの検出軸まわりのトルクの大きさとを検出する。すなわち、互いに直交するX軸、Y軸、Z軸の各軸方向の力成分と、X軸回りとなるTx方向の力成分と、Y軸回りとなるTy方向の力成分と、Z軸回りとなるTz方向の力成分とを検出する。なお、本実施形態では、Z軸方向が鉛直方向となっている。また、各軸方向の力成分を「並進力成分」と言い、各軸回りの力成分を「回転力成分」と言うこともできる。また、力検出部19は、6軸力覚センサーに限定されず、他の構成のものであってもよい。
本実施形態では、力検出部19は、第6アーム17に設置されている。なお、力検出部19の設置箇所としては、第6アーム17、すなわち、最も先端側に位置するアームに限定されず、例えば、他のアームや、隣り合うアーム同士の間や、基台11の下方であってもよく、全関節にそれぞれ設置されていてもよい。
力検出部19には、エンドエフェクター20を着脱可能に装着することができる。エンドエフェクター20は、一対の爪が接近離間することにより物品を把持するハンドで構成されているが、本発明ではこれに限定されず、2本以上の爪を有していてもよい。また、吸着により物品を把持するハンドであってもよい。
また、ロボット座標系において、エンドエフェクター20の先端の任意の位置、好ましくは各爪が接近した状態における先端にツールセンターポイントTCPが設定されている。前述したように、ロボットシステム100では、ロボット座標系で制御点CPの位置を把握し、制御点CPが所望の位置に移動するようにロボットアーム10を駆動する。また、ロボットアーム10の先端には、制御点CPを原点とする先端座標系が設定されている。
また、エンドエフェクター20の種類、特に、長さを把握しておくことにより、ツールセンターポイントTCPと制御点CPとのオフセット量を把握することができる。このため、ツールセンターポイントTCPの位置をロボット座標系で把握することができる。したがって、ツールセンターポイントTCPを制御の基準とすることができる。
次に、制御装置3について説明する。
制御装置3は、ロボット1から離間して配置されており、プロセッサーの1例であるCPU(Central Processing Unit)が内蔵されたコンピューター等で構成することができる。この制御装置3は、ロボット1の基台11に内蔵されていてもよい。
制御装置3は、中継ケーブル18によりロボット1と通信可能に接続される。また、制御装置3は、教示装置4とケーブルで、または無線通信可能に接続される。教示装置4は、専用のコンピューターであってもよく、ロボット1を教示するためのプログラムがインストールされた汎用のコンピューターであってもよい。例えばロボット1を教示するための専用装置であるティーチングペンダント等を教示装置4の代わりに用いても良い。さらに、制御装置3と教示装置4とは、別々の筐体を備えていてもよく、一体に構成されていてもよい。
また、教示装置4には、制御装置3に後述する目標位置姿勢Sと目標力fStとを引数とする実行プログラムを生成して制御装置3にロードするためのプログラムがインストールされていてもよい。教示装置4は、ディスプレイ、プロセッサー、RAMやROMを備え、これらのハードウェア資源が教示プログラムと協働して実行プログラムを生成する。
図2に示すように、制御装置3は、ロボット1の制御を行うための制御プログラムがインストールされたコンピューターである。制御装置3は、プロセッサーや図示しないRAMやROMを備え、これらのハードウェア資源がプログラムと協働することによりロボット1を制御する。
また、図2に示すように、制御装置3は、目標位置設定部3Aと、駆動制御部3Bと、記憶部3Cと、を有する。記憶部3Cは、例えば、RAM(Random Access Memory)等の揮発性メモリー、ROM(Read Only Memory)等の不揮発性メモリー、着脱式の外部記憶装置等で構成される。記憶部3Cには、ロボット1を作動させるための動作プログラム等が記憶されている。
目標位置設定部3Aは、ワークW1に対して所定の作業を実行するための目標位置姿勢Sおよび動作経路を設定する。目標位置設定部3Aは、教示装置4から入力された教示情報等に基づいて、目標位置姿勢Sおよび動作経路を設定する。
駆動制御部3Bは、ロボットアーム10の駆動を制御するものであり、位置制御部30と、座標変換部31と、座標変換部32と、補正部33と、力制御部34と、指令統合部35と、を有する。
位置制御部30は、予め作成されたコマンドで指定される目標位置に従って、ロボット1のツールセンターポイントTCPの位置を制御する位置指令信号、すなわち、位置指令値を生成する。
ここで、制御装置3は、ロボット1の動作を力制御等で制御することが可能である。「力制御」とは、力検出部19の検出結果に基づいて、エンドエフェクター20の位置、すなわち、ツールセンターポイントTCPの位置や、第1アーム12~第6アーム17の姿勢を変更したりするロボット1の動作の制御のことである。
力制御には、例えば、フォーストリガー制御と、インピーダンス制御とが含まれている。フォーストリガー制御では、力検出部19により力検出を行い、その力検出部19により所定の力を検出するまで、ロボットアーム10に移動や姿勢の変更の動作をさせる。
インピーダンス制御は、倣い制御を含む。インピーダンス制御では、ロボットアーム10の先端部に加わる力を可能な限り所定の力に維持、すなわち、力検出部19により検出される所定方向の力を可能な限り目標力fStに維持するようにロボットアーム10の動作を制御する。これにより、例えば、ロボットアーム10に対してインピーダンス制御を行うと、ロボットアーム10は、対象物や、オペレーターから加わった外力に対し、前記所定方向について倣う動作を行う。なお、目標力fStには、0も含まれる。例えば、倣い動作の場合の設定の1つとしては、目標値を「0」とすることができる。なお、目標力fStを0以外の数値とすることもできる。この目標力fStは、例えば教示装置4を介して作業者が適宜設定可能である。また、目標力fStは、軸の方向(X,Y,Z)ごと、軸回りの方向(Tx,Ty,Tz)ごとに設定することもできる。
記憶部3Cは、モーターM1~モーターM6の回転角度の組み合わせと、ロボット座標系におけるツールセンターポイントTCPの位置との対応関係を記憶している。また、制御装置3は、ロボット1が行う作業の工程ごとに目標位置姿勢Sと目標力fStとの少なくとも一方をコマンドに基づいて記憶部3Cに記憶する。目標位置姿勢Sおよび目標力fStを引数、すなわち、パラメーターとするコマンドは、ロボット1が行う作業の工程ごとに設定される。
駆動制御部3Bは、設定された目標位置姿勢Sと目標力fStとがツールセンターポイントTCPにて一致するように、第1アーム12~第6アーム17を制御する。目標力fStとは、第1アーム12~第6アーム17の動作によって達成されるべき力検出部19の検出力およびトルクである。ここで、「S」の文字は、ロボット座標系を規定する軸の方向(X,Y,Z)のいずれか1つの方向を表すこととする。また、Sは、S方向の位置も表すこととする。例えば、S=Xの場合、ロボット座標系で設定された目標位置のX方向成分がS=Xとなり、目標力のX方向成分がfSt=fXtとなる。
また、駆動制御部3Bでは、モーターM1~モーターM6の回転角度を取得すると、図2に示す座標変換部31が、対応関係に基づいて、当該回転角度をロボット座標系におけるツールセンターポイントTCPの位置姿勢Sに変換する。そして、座標変換部32が、ツールセンターポイントTCPの位置姿勢Sと、力検出部19の検出値とに基づいて、力検出部19に現実に作用している作用力fをロボット座標系において特定する。
作用力fの作用点は、ツールセンターポイントTCPとは別に力検出原点として定義される。力検出原点は、力検出部19が力を検出している点に対応する。なお、制御装置3は、ロボット座標系におけるツールセンターポイントTCPの位置姿勢Sごとに、力検出部19のセンサー座標系における検出軸の方向を規定した対応関係を記憶している。従って、制御装置3は、ロボット座標系におけるツールセンターポイントTCPの位置姿勢Sと対応関係とに基づいて、ロボット座標系における作用力fを特定できる。また、ロボットに作用するトルクは、作用力fと、接触点から力検出部19までの距離とから算出することができ、回転力成分として特定される。なお、ワークW1に対してエンドエフェクター20が接触して作業を行う場合、接触点は、ツールセンターポイントTCPとみなすことができる。
補正部33は、作用力fに対して重力補償を行う。重力補償とは、作用力fから重力に起因する力やトルクの成分を除去することである。重力補償を行った作用力fは、ロボットアーム10またはエンドエフェクター20に作用している重力以外の力と見なすことができる。
また、補正部33は、作用力fに対して慣性補償を行う。慣性補償とは、作用力fから慣性力に起因する力やトルクの成分を除去することである。慣性補償を行った作用力fは、ロボットアーム10またはエンドエフェクター20に作用している慣性力以外の力と見なすことができる。
力制御部34は、インピーダンス制御を行う。インピーダンス制御は、仮想の機械的インピーダンスをモーターM1~モーターM6によって実現する能動インピーダンス制御である。制御装置3は、このようなインピーダンス制御を、嵌合作業、螺合作業、研磨作業等、エンドエフェクター20が対象物から力を受ける接触状態の工程や、直接教示を行う際に実行する。なお、このような工程以外であっても、例えば、人がロボット1に接触した際にインピーダンス制御を行うことにより、安全性を高めることができる。
インピーダンス制御では、目標力fStを後述する運動方程式に代入してモーターM1~モーターM6の回転角度を導出する。制御装置3がモーターM1~モーターM6を制御する信号は、PWM(Pulse Width Modulation)変調された信号である。
また、制御装置3は、エンドエフェクター20が外力を受けない非接触状態の工程では、目標位置姿勢Sから線形演算で導出する回転角度でモーターM1~モーターM6を制御する。目標位置姿勢Sから線形演算で導出する回転角度でモーターM1~モーターM6を制御するモードのことを、位置制御モードと言う。
制御装置3は、目標力fStと作用力fとをインピーダンス制御の運動方程式に代入することにより、力由来補正量ΔSを特定する。力由来補正量ΔSとは、ツールセンターポイントTCPが機械的インピーダンスを受けた場合に、目標力fStとの力偏差Δf(t)を解消するために、ツールセンターポイントTCPが移動すべき位置姿勢Sの大きさを意味する。下記の式(1)は、インピーダンス制御の運動方程式である。
Figure 2022073191000002
式(1)の左辺は、ツールセンターポイントTCPの位置姿勢Sの2階微分値に仮想質量係数m(以下、「質量係数m」と言う)を乗算した第1項と、ツールセンターポイントTCPの位置姿勢Sの微分値に仮想粘性係数d(以下、「粘性係数d」と言う)を乗算した第2項と、ツールセンターポイントTCPの位置姿勢Sに仮想弾性係数k(以下、「弾性係数k」と言う)を乗算した第3項とによって構成される。式(1)の右辺は、目標力fStから現実の力fを減算した力偏差Δf(t)によって構成される。式(1)における微分とは、時間による微分を意味する。ロボット1が行う工程において、目標力fStとして一定値が設定される場合や、目標力fStとして時間の関数が設定される場合もある。
質量係数mは、ツールセンターポイントTCPが仮想的に有する質量を意味し、粘性係数dは、ツールセンターポイントTCPが仮想的に受ける粘性抵抗を意味し、弾性係数kは、ツールセンターポイントTCPが仮想的に受ける弾性力のバネ定数を意味する。
質量係数mの値が大きくなるにつれて、動作の加速度が小さくなり、質量係数mの値が小さくなるにつれて動作の加速度が大きくなる。粘性係数dの値が大きくなるにつれて、動作の速度が遅くなり、粘性係数dの値が小さくなるにつれて動作の速度が速くなる。弾性係数kの値が大きくなるにつれて、バネ性が大きくなり、弾性係数kの値が小さくなるにつれて、バネ性が小さくなる。
これら質量係数m、粘性係数dおよび弾性係数kは、方向ごとに異なる値に設定されてもよく、方向に関わらず共通の値に設定されてもよい。また、質量係数m、粘性係数dおよび弾性係数kは、作業者が、作業前に適宜設定可能である。この入力は、例えば、教示装置4を用いて、作業者によって行われる。
このような質量係数m、粘性係数dおよび弾性係数kは、力制御パラメーターである。力制御パラメーターは、ロボットアーム10が実際に作業を行うのに先立って設定される値である。力制御パラメーターには、質量係数m、粘性係数dおよび弾性係数kの他、目標力fSt等が含まれる。
このように、ロボットシステム100では、力制御を実行中、力検出部19の検出値、予め設定された力制御パラメーター、および、予め設定された目標力から補正量を求める。この補正量は、前述した力由来補正量ΔSのことであり、外力を受けたその位置からツールセンターポイントTCPを移動すべき位置との差のことである。
そして、指令統合部35は、位置制御部30が生成した位置指令値Pに、力由来補正量ΔSを合算する。これを随時行うことにより、指令統合部35は、外力を受けた位置に移動させるために用いていた位置指令値Pから、新たな位置指令値P’を求める。
そして、この新たな位置指令値P’を座標変換部31がロボット座標に変換し、実行部351が実行することにより、力由来補正量ΔSを加味した位置にツールセンターポイントTCPを移動させて、外力に対して応答し、ロボット1に接触した対象物に対し、それ以上負荷がかかるのを緩和することができる。
このような駆動制御部3Bによれば、ロボットアーム10が対象物を把持した状態で、ツールセンターポイントTCPを目標位置姿勢Sに向かって移動させつつ、かつ、目標力fStが予め設定された値になるまでツールセンターポイントTCPが移動するようにロボットアーム10を駆動することができる。これにより、嵌合作業等の組み立て作業を力制御によって実行することができる。また、作業中に対象物に過剰に負荷がかかるのを防止することができる。
次に、教示装置4について説明する。
図2に示すように、教示装置4は、各種設定を受け付けたり、動作プログラムを生成したり、図3~図8、図10および図11に示すような表示画像Aを生成、表示する装置である。教示装置4は、制御部41と、記憶部42と、通信部43と、表示部40とを有する。教示装置4としては、図示の構成では、ノート型パソコンであるが、本発明ではこれに特に限定されず、例えば、デスクトップ型パソコン、タブレット、スマートフォン等であってもよい。
制御部41は、少なくとも1つのプロセッサーを有する。プロセッサーとしては、例えば、CPU(Central Processing Unit)や、GPU(Graphics Processing Unit)等が挙げられる。制御部41は、記憶部42に記憶されている各種プログラム等を読み出し、実行する。各種プログラムとしては、例えば、ロボットアーム10の動作プログラムや、後述する本発明の表示プログラム等が挙げられる。これらのプログラムは、教示装置4で生成されたものであってもよく、例えばCD-ROM等の外部記録媒体から記憶されたものであってもよく、ネットワーク等を介して記憶されたものであってもよい。
制御部41で生成された信号は、通信部43を介してロボット1の制御装置3に送信される。これにより、ロボットアーム10が所定の作業を所定の条件で実行したりすることができる。また、制御部41は、図3~図9に示すように、表示部40の駆動を制御する。すなわち、制御部41は、表示部40の作動を制御する表示制御部として機能する。
また、制御部41は、後述するような表示画像Aを生成し、表示部40に表示するよう表示部40の作動を制御する。
記憶部42は、制御部41が実行可能な各種プログラムや、各種設定情報等を保存する。記憶部42としては、例えば、RAM(Random Access Memory)等の揮発性メモリー、ROM(Read Only Memory)等の不揮発性メモリー、着脱式の外部記憶装置等が挙げられる。
通信部43は、例えば有線LAN(Local Area Network)、無線LAN等の外部インターフェースを用いて制御装置3との間で信号の送受信を行う。
表示部40は、表示画面を有する各種ディスプレイで構成されている。本実施形態では、マウス、キーボード等の入力操作部を操作することにより、作業者が各種設定を入力することができる。ただし、この構成に限定されず、例えば、タッチパネル、すなわち、表示部40が表示機能と入力操作機能とを備える構成であってもよい。また、タッチパネルと、マウス、キーボードを併用する構成であってもよい。
なお、表示部40としては、図示の構成に限定されず、例えば、対象物や空中に画像を結像させる構成のものであってもよい。
作業者が設定する各種設定としては、質量係数m、粘性係数d、弾性係数kおよび目標力fSt等が挙げられる。すなわち、作業者は、教示装置4を用いて、力制御パラメーターを設定する。
次に、制御部41が生成し、表示部40に表示させる表示画像Aについて説明する。表示画像Aは、リアルタイムでロボット1の動作に追従して変化する動画であってもよく、ロボット1の作業が終わった後にその動作を再現する動画であってもよい。以下では、表示画像Aは、リアルタイムでロボット1の動作に追従して変化する動画として説明する。
表示画像Aは、図3~図8、図10および図11に示すように、仮想ロボット1Aと、第1指標11Aと、第2指標12Aと、を含み、これらが時間的に重複して、かつ、区別して表示されている。
仮想ロボット1Aは、ロボット1のシミュレーションモデルであり、その形状は、ロボット1の形状に対応している。仮想ロボット1Aは、ロボット1に基づいて生成された3DCGであってもよく、ロボット1を撮像した画像であってもよい。
第1指標11Aは、作業中にロボットアーム10が受ける力の目標である目標力fStに関する第1情報を示すものである。本実施形態では、第1指標11Aは、矢印で構成され、矢印が指す方向によって、設定された目標力fStの方向を示し、矢印の形状によって目標力fStの大きさを示している。
第2指標12Aは、作用力f、すなわち、作業中にロボットアーム10に加わった力に関する第2情報を示すものである。本実施形態では、第2指標12Aは、矢印で構成され、矢印が指す方向によって、力が加わる方向を示し、矢印の形状によって力の大きさを示している。また、第2指標12Aの形状は、作業中のロボットアーム10に加わった力の大小に応じて、リアルタイムで変化する。
表示画像Aでは、これら仮想ロボット1A、第1指標11Aおよび第2指標12Aが時間的に重複して、かつ、区別して表示されている。ここで、「時間的に重複して表示されている」とは、同じ所定の時刻における第1指標11Aと第2指標12Aとを表示しているという意味であり、「区別して表示されている」とは、第1指標11Aと第2指標12Aとの色、大きさ、形状、長さ、太さ、鋭さの少なくとも1つが異なって表示されている、または、異なる位置にそれぞれ表示されているという意味である。このため、作業者は、第1指標11Aおよび第2指標12Aを見比べて、設定した目標力fStに対して、実際にロボットアーム10に加わった力がどの程度であるか、すなわち、正常な範囲内であるかを一目で認識しやすくすることができる。よって、例えば、設定した目標力fStが適切ではない場合、次回以降の設定時に所望の目標力fStを設定することができる。また、ロボットアーム10に加わった力が適切ではないと判断した場合、次回以降の設定時に、例えば、質量係数m、粘性係数dおよび弾性係数kを適切な値に設定することができる。このように、本発明によれば、作業結果において目標力fStとロボットアーム10に加わった力とを見比べて、力制御パラメーターの設定が適正であるか否かを容易に判断することができる。よって、次回以降の設定時に、前回の設定の良し悪しをフィードバックすることができ、適切な力制御パラメーターを設定することができる。
また、制御部41は、制御装置3から、作業中のロボット1の動作情報を取得し、仮想ロボット1Aを、ロボット1と同様の動作を行うような表示画像Aを生成する。これにより、作業者は、ロボット1の動きを把握することができるとともに、ロボット1がどのような姿勢のときにどの程度の力が加わっているかを把握することができる。
以下、表示画像Aのバリエーションについて説明する。
図3に示す構成では、仮想ロボット1Aのロボットアームの先端部に、第1指標11Aおよび第2指標12Aが重なって表示されている。すなわち、第1指標11Aおよび第2指標12Aは、同じ位置に表示されている。また、第1指標11Aおよび第2指標12Aは、同じ方向を向いている。
また、図3に示す構成では、第1指標11Aおよび第2指標12Aは、互いに異なる色である。これにより、どちらの矢印が第1指標11Aおよび第2指標12Aのどちらに対応しているかを、一目で把握することができる。
また、図3に示す構成では、第2指標12Aの長さが、リアルタイムで変化する。
このような構成によれば、第1指標11Aおよび第2指標12Aの長さを比較して一目でどちらが大きいか把握することができる。よって、次回以降の設定時に、適切な力制御パラメーターをより確実に設定することができる。
次に、図4に示す構成について説明する。以下では、図3に示す構成と異なる事項のみ説明をする。図4に示す構成では、第1指標11Aおよび第2指標12Aが互いに異なる位置に配置されている。具体的には、仮想ロボット1Aのロボットアームの先端部に、第1指標11Aおよび第2指標12Aが並んで配置されている。
このような構成によれば、第1指標11Aおよび第2指標12Aの長さに関わらず、第1指標11Aおよび第2指標12Aのいずれかが隠れて見えにくくなってしまうのを防止することができる。よって、次回以降の設定時に、適切な力制御パラメーターをより確実に設定することができる。
次に、図5に示す構成について説明する。以下では、図3に示す構成および図4に示す構成と異なる事項のみ説明をする。図5に示す構成では、第1指標11Aおよび第2指標12Aが1つの矢印で表示されている。また、この矢印は、第1指標11Aを示す色と、第2指標12Aを示す色との2色で表示されている。また、作業中にロボットアーム10が受ける力に応じて、矢印において、第2指標12Aを示す色が占める割合が変化する。
このような構成によれば、第1指標11Aおよび第2指標12Aを見て、一目でどちらが大きいか把握することができる。よって、次回以降の設定時に、適切な力制御パラメーターをより確実に設定することができる。さらに、図5に示す構成では、表示する矢印が1つであるため、仮想ロボット1Aのロボットアームが矢印によって隠れてしまう部分をより少なくすることができる。よって、仮想ロボット1Aの動きをより正確に把握することができる。
また、前述したように、目標力fStは、軸の方向(X,Y,Z)ごと、軸回りの方向(Tx,Ty,Tz)ごとに設定することもできる。この場合、これらの成分ごとに目標力fStを表示することもできる。例えば、図6に示すように、目標力fStのうち、先端座標系におけるZ軸回りのトルクTzを表示する場合、図6に示すように、半円弧の矢印で表示することができる。この構成の場合、この半円弧の矢印が第1指標11Aであり、矢印の指す方向が、トルクの方向を示している。
また、先端座標系におけるY軸回りに加わった力、すなわち、トルクTyは、第1指標11Aの近傍に、矢印で表示する。この矢印が、第2指標12Aである。図6に示す構成では、2つの矢印の色が異なっている。また、第2指標12Aは、トルクTzの大きさに応じて、その長さまたは太さが変化する。
なお、図6では、トルクTzを例に挙げて説明したが、本発明ではこれに限定されず、トルクTxおよびトルクTyを表示する構成であってもよく、トルクTx、トルクTyおよびトルクTzの全てを表示する構成であってもよく、トルクTx、トルクTyおよびトルクTzのうち、表示する方向を選択可能であってもよく、表示途中に切り替え可能な構成であってもよい。さらに、トルクTx、トルクTyおよびトルクTzを合成した合成トルクを表示する構成であってもよい。
また、図7に示すように、第1指標11Aおよび第2指標12Aをそれぞれ分解して表示してもよい。図7に示す構成では、目標力fStと、ロボットアーム10に加わった力と、をそれぞれ、先端座標系におけるX軸およびY軸にそれぞれ分解して表示する。すなわち、目標力fStのX軸成分を示す矢印が第1指標11Axであり、目標力fStのY軸成分を示す矢印が第1指標11Ayである。また、ロボットアーム10に加わった力のX軸成分を示す矢印が第2指標12Axであり、目標力fStのY軸成分を示す矢印が第2指標12Ayである。
また、第2指標12Axおよび第2指標12Ayは、力の大きさに応じて、長さ、色、形状のうちの少なくとも1つが変化するのが好ましい。
このような構成によれば、どの軸方向に沿った力が大きいかを一目で把握することができる。
なお、図7に示す構成では、目標力fStのZ軸成分を示す矢印を省略しているが、表示する構成であってもよい。また。図7に示す構成では、ロボットアーム10に加わった力のZ軸成分を示す矢印を省略しているが、表示する構成であってもよい。
また、目標力fStのX軸成分、Y軸成分およびZ軸成分のうちの1つまたは2つ以上を選択して表示する構成であってもよい。また、ロボットアーム10に加わった力のX軸成分、Y軸成分およびZ軸成分のうちの1つまたは2つ以上を選択して表示する構成であってもよい。
また、図8に示すように、目標力fStの各軸成分を合成し、ロボットアーム10に加わった力の各軸成分を合成して表示してもよい。この場合、合成した方向を指す矢印の一方が第1指標11Aであり、他方が第2指標12Aである。また、図8に示す構成では、第1指標11Aおよび第2指標12Aを重ねて表示している。
このような構成によれば、軸成分を合成した合成力の程度を一目で把握することができる。
なお、図3~図9に示す構成では、目標力fStの大きさや、ロボットアーム10に加わった力の大きさに応じて、矢印の長さを変化させる構成について説明したが、本発明ではこれに限定されず、例えば、図9中上段に示すように、矢印の太さを変更してもよく、
図9中中段に示すように、矢印の鋭さを変化させる構成であってもよく、図9中下段に示すように、矢印の形状を変化させる構成であってもよい。
また、図10に示す構成では、第2指標12Aが、ロボットアーム10に加わった力を経時的に示すグラフG1で表示される。このグラフG1は、仮想ロボット1Aと第1指標11Aとが表示されているシミュレーション画像の左側に表示されている。また、このグラフG1は、縦軸がロボットアーム10に加わった力、横軸が時間で表される。
このような構成によれば、ロボットアーム10に加わった力を経時的に把握することができる。また、グラフG1では、設定された目標力fStが表示され、ロボットアーム10に加わった力との比較が容易になっている。
また、例えば、グラフの横軸の任意の位置にカーソルを合わせると、その時間から再生することができ、かつ、グラフにおいてその時間におけるロボットアーム10に加わった力がわかりやすいように、グラフの一部が光ったり色が変わる構成としてもよい。さらに、カーソルを合わせた時間におけるロボットアーム10の姿勢を示すように仮想ロボット1Aが姿勢を変更する構成であってもよい。
また、図11に示す構成では、第2指標12Aが、ロボットアーム10に加わった力のX軸方向の成分およびY軸方向の成分をそれぞれ示すグラフG2で表示される。このグラフG2は、仮想ロボット1Aと第1指標11Aとが表示されているシミュレーション画像の左側に表示されている。また、このグラフG2は、縦軸がロボットアーム10に加わった力のY軸方向の成分、横軸がロボットアーム10に加わった力のX軸方向の成分で表される。
このような構成によれば、ロボットアーム10に加わった力を軸方向の成分ごとに把握することができる。
以上説したように、本発明のロボットシステム100は、力制御により作業を行うロボットアーム10を有するロボット1と、ロボット1のシミュレーションモデルである仮想ロボット1Aを含む表示画像Aを表示する表示部40と、表示部40を制御する制御部41と、を備える。また、制御部41は、作業中にロボットアーム10が受ける力の目標である目標力fStに関する第1情報を含む力制御パラメーターに関する情報を受け付け、表示画像Aにおいて、仮想ロボット1Aと、第1情報を示す第1指標11Aと、作業中にロボットアーム10に加わった力に関する第2情報を示す第2指標12Aと、を時間的に重複して、かつ、区別して表示するよう表示部40の作動を制御する。これにより、作業結果において目標力fStとロボットアーム10に加わった力とを見比べて、力制御パラメーターの設定が適正であるか否かを容易に判断することができる。よって、次回以降の設定時に、前回の設定の良し悪しをフィードバックすることができ、適切な力制御パラメーターを設定することができる。
また、前述したように、第1指標11Aおよび第2指標12Aは、色、大きさ、形状のうちの少なくとも1つが互いに異なる。これにより、作業者が第1指標11Aおよび第2指標12Aを見て、第1指標11Aおよび第2指標12Aの差を一目で見分けることができる。なお、第1指標11Aおよび第2指標12Aは、色、大きさ、形状のうちの全てが異なってもよく、これらのうちの2つが異なっていてもよい。
また、前述したように、第1指標11Aは、目標力fStの方向および大きさを示す矢印であり、第2指標12Aは、ロボットアーム10が受ける力の方向および大きさを示す矢印である。第1指標11Aおよび第2指標12Aが矢印であることにより、方向を一目で認識することができるとともに、矢印の色、大きさ、形状のうちの少なくとも1つが互いに異なれば、見分けがつく。その結果、シンプルな表示で見やすくなる。
なお、図示の構成では、第1指標11Aおよび第2指標12Aが矢印である場合について説明したが、本発明ではこれに限定されず、例えば、三角形や五角形、インジゲーター等他の指標であってもよい。
次に、本発明の表示制御方法について、図12に示すフローチャートを参照しつつ説明する。以下では、ステップS101、ステップS103およびステップS104を制御部41が実行し、ステップS102を制御装置3が実行する構成であるが、本発明ではこれに限定されない。
まず、ステップS101において、力制御パラメーターに関する情報を受け付ける。すなわち、作業者が教示装置4を用いて力制御パラメーターを設定し、その情報を制御部41が記憶部42に記憶する。本ステップで設定される力制御パラメーターの項目としては、質量係数m、粘性係数d、弾性係数kおよび第1情報としての目標力fSt等が挙げられる。
このようなステップS101が、作業中にロボットアーム10が受ける力の目標である目標力fStに関する第1情報を含む力制御パラメーターに関する情報を受け付ける受付ステップである。
次いで、ステップS102において、作業を実行する。すなわち、ステップS101で受け付けた情報に基づいて、作業を実行する。
次いで、ステップS103において、表示画像Aを生成し、表示部40に表示する。すなわち、ステップS102での動作情報を制御部41が取得し、その動作情報に基づいて、図3~図8、図10および図11に示すような表示画像Aを生成し、表示部40に表示する。
次いで、ステップS104において、作業が完了したか否かを判断する。この判断は、例えば、組立作業を行った回数が所定回数に達したか否かに基づいてなされる。ステップS104において、完了したと判断した場合、すべてのプログラムを終了する。一方、ステップS104において、完了していない判断した場合、ステップS102に戻り、以降のステップを繰り返す。
このように、本発明の表示制御方法は、力制御により作業を行うロボットアーム10を有するロボット1のシミュレーションモデルである仮想ロボット1Aを含む表示画像を表示する表示部を制御する表示制御方法であって、作業中にロボットアーム10が受ける力の目標である目標力fStに関する第1情報を含む力制御パラメーターに関する情報を受け付ける受付ステップと、表示画像Aにおいて、仮想ロボット1Aと、第1情報を示す第1指標11Aと、作業中にロボットアーム10に加わった力に関する第2情報を示す第2指標12Aと、を時間的に重複して、かつ、区別して表示する表示ステップと、を有する。これにより、作業結果において目標力fStとロボットアーム10に加わった力とを見比べて、力制御パラメーターの設定が適正であるか否かを容易に判断することができる。よって、次回以降の設定時に、前回の設定の良し悪しをフィードバックすることができ、適切な力制御パラメーターを設定することができる。
また、前述したように、表示ステップでは、作業中にロボットアーム10が受けた力に応じて、第2指標12Aである矢印の色、大きさ、形状のうちの少なくとも1つを変化させる。これにより、作業者は、作業中にロボットアーム10が受けた力の変化を経時的に把握することができる。なお、表示ステップでは、作業中にロボットアーム10が受けた力に応じて、第2指標12Aである矢印の色、大きさ、形状の全てを変化させてもよく、これらのうちの2つを変化させてもよい。
また、前述したように、表示ステップでは、作業中にロボットアーム10が受けた力に応じて、第2指標12Aであるの長さ、太さ、鋭さのうちの少なくとも1つを変化させる(図9参照)。これにより、作業者は、作業中にロボットアーム10が受けた力の変化をより明確に把握することができる。なお、表示ステップでは、作業中にロボットアーム10が受けた力に応じて、第2指標12Aの長さ、太さ、鋭さのうちの全てを変化させてもよく、これらのうちの2つを変化させてもよい。
また、前述したように、表示ステップでは、作業中のロボットアーム10の姿勢の変化に応じて、仮想ロボット1Aの姿勢を変化させる。これにより、ロボットアーム10がどのような姿勢のときに、どの程度の力が加わったかを一目で把握することができる。
また、前述したように、表示ステップでは、第1指標11Aおよび第2指標12Aを、それぞれ、仮想ロボット1Aに設定されている座標系の各軸方向の成分に分解して表示する(図7参照)。これにより、どの軸方向に沿った力が大きいかを一目で把握することができる。
本発明の表示プログラムは、力制御により作業を行うロボットアーム10を有するロボット1のシミュレーションモデルである仮想ロボット1Aを含む表示画像を表示する表示部を制御する表示制御方法を実行するためのプログラムであって、作業中にロボットアーム10が受ける力の目標である目標力fStに関する第1情報を含む力制御パラメーターに関する情報を受け付ける受付ステップと、表示画像Aにおいて、仮想ロボット1Aと、第1情報を示す第1指標11Aと、作業中にロボットアーム10に加わった力に関する第2情報を示す第2指標12Aと、を時間的に重複して、かつ、区別して表示する表示ステップと、を実行するためのものであることを特徴とする。このようなプログラムを実行することにより、作業結果において目標力fStとロボットアーム10に加わった力とを見比べて、力制御パラメーターの設定が適正であるか否かを容易に判断することができる。よって、次回以降の設定時に、前回の設定の良し悪しをフィードバックすることができ、適切な力制御パラメーターを設定することができる。
なお、本発明の表示プログラムは、制御装置3や教示装置4の記憶部に記憶されたものであってもよいし、例えばCD-ROM等の記録媒体に格納されていてもよく、ネットワーク等を介して接続可能な記憶装置に記憶されたものであってもよい。
<ロボットシステムの他の構成例>
図11は、ロボットシステムについてハードウェアを中心として説明するためのブロック図である。
図11には、ロボット1とコントローラー61とコンピューター62が接続されたロボットシステム100Aの全体構成が示されている。ロボット1の制御は、コントローラー61にあるプロセッサーによりメモリーにある指令を読み出して実行されてもよく、コンピューター62に存在するプロセッサーによりメモリーにある指令を読み出してコントローラー61を介して実行されてもよい。
従って、コントローラー61とコンピューター62とのいずれか一方または両方を「制御装置」として捉えることができる。
<変形例1>
図12は、ロボットシステムのハードウェアを中心とした変形例1を示すブロック図である。
図12には、ロボット1に直接コンピューター63が接続されたロボットシステム100Bの全体構成が示されている。ロボット1の制御は、コンピューター63に存在するプロセッサーによりメモリーにある指令を読み出して直接実行される。
従って、コンピューター63を「制御装置」として捉えることができる。
<変形例2>
図13は、ロボットシステムのハードウェアを中心とした変形例2を示すブロック図である。
図13には、コントローラー61が内蔵されたロボット1とコンピューター66が接続され、コンピューター66がLAN等のネットワーク65を介してクラウド64に接続されているロボットシステム100Cの全体構成が示されている。ロボット1の制御は、コンピューター66に存在するプロセッサーによりメモリーにある指令を読み出して実行されてもよく、クラウド64上に存在するプロセッサーによりコンピューター66を介してメモリーにある指令を読み出して実行されてもよい。
従って、コントローラー61とコンピューター66とクラウド64とのいずれか1つ、または、いずれか2つ、または、3つを「制御装置」として捉えることができる。
以上、本発明の表示制御方法、表示プログラムおよびロボットシステムを図示の実施形態について説明したが、本発明は、これに限定されるものではない。また、ロボットシステムを構成する各部は、同様の機能を発揮し得る任意の構成のものと置換することができる。また、任意の構成物が付加されていてもよい。
1…ロボット、3…制御装置、3A…目標位置設定部、3B…駆動制御部、3C…記憶部、4…教示装置、10…ロボットアーム、11…基台、12…第1アーム、13…第2アーム、14…第3アーム、15…第4アーム、16…第5アーム、17…第6アーム、18…中継ケーブル、19…力検出部、20…エンドエフェクター、30…位置制御部、31…座標変換部、32…座標変換部、33…補正部、34…力制御部、35…指令統合部、40…表示部、41…制御部、42…記憶部、43…通信部、61…コントローラー、62…コンピューター、63…コンピューター、64…クラウド、65…ネットワーク、66…コンピューター、100…ロボットシステム、100A…ロボットシステム、100B…ロボットシステム、100C…ロボットシステム、171…関節、172…関節、173…関節、174…関節、175…関節、176…関節、351…実行部、A…表示画像、1A…仮想ロボット、11A…第1指標、11Ax…第1指標、11Ay…第1指標、12A…第2指標、12Ax…第2指標、12Ay…第2指標、CP…制御点、E1…エンコーダー、E2…エンコーダー、E3…エンコーダー、E4…エンコーダー、E5…エンコーダー、E6…エンコーダー、M1…モーター、M2…モーター、M3…モーター、M4…モーター、M5…モーター、M6…モーター、TCP…ツールセンターポイント

Claims (9)

  1. 力制御により作業を行うロボットアームを有するロボットのシミュレーションモデルである仮想ロボットを含む表示画像を表示する表示部を制御する表示制御方法であって、
    前記作業中に前記ロボットアームが受ける力の目標である目標力に関する第1情報を含む力制御パラメーターに関する情報を受け付ける受付ステップと、
    前記表示画像において、前記仮想ロボットと、前記第1情報を示す第1指標と、前記作業中に前記ロボットアームに加わった力に関する第2情報を示す第2指標と、を時間的に重複して、かつ、区別して表示する表示ステップと、を有することを特徴とする表示制御方法。
  2. 前記第1指標および前記第2指標は、色、大きさ、形状のうちの少なくとも1つが互いに異なる請求項1に記載の表示制御方法。
  3. 前記第1指標は、前記目標力の方向および大きさを示す矢印であり、
    前記第2指標は、前記ロボットアームが受ける力の方向および大きさを示す矢印である請求項1または2に記載の表示制御方法。
  4. 前記表示ステップでは、前記作業中に前記ロボットアームが受けた力に応じて、前記第2指標である前記矢印の色、大きさ、形状のうちの少なくとも1つを変化させる請求項3に記載の表示制御方法。
  5. 前記表示ステップでは、前記作業中に前記ロボットアームが受けた力に応じて、前記第2指標である前記矢印の長さ、太さ、鋭さのうちの少なくとも1つを変化させる請求項4に記載の表示制御方法。
  6. 前記表示ステップでは、前記作業中の前記ロボットアームの姿勢の変化に応じて、前記仮想ロボットの姿勢を変化させる請求項1ないし5のいずれか1項に記載の表示制御方法。
  7. 前記表示ステップでは、前記第1指標および前記第2指標を、それぞれ、前記仮想ロボットに設定されている座標系の各軸方向の成分に分解して表示する請求項1ないし6のいずれか1項に記載の表示制御方法。
  8. 力制御により作業を行うロボットアームを有するロボットのシミュレーションモデルである仮想ロボットを含む表示画像を表示する表示部を制御する表示制御方法を実行するためのプログラムであって、
    前記作業中に前記ロボットアームが受ける力の目標である目標力に関する第1情報を含む力制御パラメーターに関する情報を受け付ける受付ステップと、
    前記表示画像において、前記仮想ロボットと、前記第1情報を示す第1指標と、前記作業中に前記ロボットアームに加わった力に関する第2情報を示す第2指標と、を時間的に重複して、かつ、区別して表示する表示ステップと、を実行するためのものであることを特徴とする表示プログラム。
  9. 力制御により作業を行うロボットアームを有するロボットと、前記ロボットのシミュレーションモデルである仮想ロボットを含む表示画像を表示する表示部と、前記表示部を制御する制御部と、を備え、
    前記制御部は、
    前記作業中に前記ロボットアームが受ける力の目標である目標力に関する第1情報を含む力制御パラメーターに関する情報を受け付け、
    前記表示画像において、前記仮想ロボットと、前記第1情報を示す第1指標と、前記作業中に前記ロボットアームに加わった力に関する第2情報を示す第2指標と、を時間的に重複して、かつ、区別して表示するよう前記表示部の作動を制御することを特徴とするロボットシステム。
JP2020183020A 2020-10-30 2020-10-30 表示制御方法、表示プログラムおよびロボットシステム Pending JP2022073191A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020183020A JP2022073191A (ja) 2020-10-30 2020-10-30 表示制御方法、表示プログラムおよびロボットシステム
US17/514,052 US20220134571A1 (en) 2020-10-30 2021-10-29 Display Control Method, Display Program, And Robot System

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020183020A JP2022073191A (ja) 2020-10-30 2020-10-30 表示制御方法、表示プログラムおよびロボットシステム

Publications (1)

Publication Number Publication Date
JP2022073191A true JP2022073191A (ja) 2022-05-17

Family

ID=81380530

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020183020A Pending JP2022073191A (ja) 2020-10-30 2020-10-30 表示制御方法、表示プログラムおよびロボットシステム

Country Status (2)

Country Link
US (1) US20220134571A1 (ja)
JP (1) JP2022073191A (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022086230A (ja) * 2020-11-30 2022-06-09 セイコーエプソン株式会社 プログラム作成支援方法、プログラム作成支援装置、プログラム作成支援プログラム及び記憶媒体

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018069361A (ja) * 2016-10-27 2018-05-10 セイコーエプソン株式会社 力制御座標軸設定装置、ロボットおよび力制御座標軸設定方法
JP2021146433A (ja) * 2020-03-18 2021-09-27 キヤノン株式会社 制御装置、ロボット装置、シミュレーション装置、制御方法、シミュレーション方法、物品の製造方法、プログラム及び記録媒体

Also Published As

Publication number Publication date
US20220134571A1 (en) 2022-05-05

Similar Documents

Publication Publication Date Title
JP6733239B2 (ja) 制御装置及びロボットシステム
US10213922B2 (en) Robot control apparatus and robot system
US9958862B2 (en) Intuitive motion coordinate system for controlling an industrial robot
EP2769810A2 (en) Robot simulator, robot teaching apparatus and robot teaching method
JP6648469B2 (ja) ロボットシステム、及びロボット制御装置
US20170259433A1 (en) Robot control device, information processing device, and robot system
JP2016187844A (ja) ロボット、ロボット制御装置およびロボットシステム
KR102001214B1 (ko) 가상 현실 기반 양팔로봇 교시 장치 및 방법
JP7124440B2 (ja) ロボット制御装置およびロボットシステム
US20180154520A1 (en) Control device, robot, and robot system
US20220250237A1 (en) Teaching device, teaching method, and recording medium
JP2022073191A (ja) 表示制御方法、表示プログラムおよびロボットシステム
JP7423943B2 (ja) 制御方法およびロボットシステム
JPWO2017175340A1 (ja) 最適化装置及びそれを備えた垂直型多関節ロボット
JP2021121451A (ja) 教示方法およびロボットシステム
US20230001567A1 (en) Teaching Support Device
JP2022047658A (ja) 作業時間提示方法、力制御パラメーター設定方法、ロボットシステムおよび作業時間提示プログラム
JP6743431B2 (ja) 制御装置、及びロボットシステム
EP4300231A1 (en) Teaching method and teaching apparatus
JP2022047657A (ja) 力制御パラメーター調整方法、ロボットシステムおよび力制御パラメーター調整プログラム
US20240004364A1 (en) Display apparatus and display method
JP2020157475A (ja) 制御装置、ロボットシステム及びロボット制御方法
US20220250236A1 (en) Teaching device, teaching method, and recording medium
JP2022073192A (ja) ロボットの制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231006

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240430

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240507