JP2018015857A - 制御装置、及びロボット - Google Patents

制御装置、及びロボット Download PDF

Info

Publication number
JP2018015857A
JP2018015857A JP2016149434A JP2016149434A JP2018015857A JP 2018015857 A JP2018015857 A JP 2018015857A JP 2016149434 A JP2016149434 A JP 2016149434A JP 2016149434 A JP2016149434 A JP 2016149434A JP 2018015857 A JP2018015857 A JP 2018015857A
Authority
JP
Japan
Prior art keywords
information
work
robot
operation screen
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016149434A
Other languages
English (en)
Inventor
大内 真
Makoto Ouchi
真 大内
工藤 真
Makoto Kudo
真 工藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2016149434A priority Critical patent/JP2018015857A/ja
Priority to US15/662,403 priority patent/US20180029232A1/en
Publication of JP2018015857A publication Critical patent/JP2018015857A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1671Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39319Force control, force as reference, active compliance
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39529Force, torque sensor in wrist, end effector

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)

Abstract

【課題】ロボットに行わせる作業に応じたパラメーターの入力をユーザーに容易に行わせることができる制御装置を提供すること。【解決手段】力検出部を備えたロボットが行う複数の作業のそれぞれを示す作業情報が表示された画面である操作画面を表示し、前記作業情報の選択が受け付けられると、選択された当該前記作業情報が示す前記ロボットの作業に応じたパラメーターを受け付け、受け付けた前記パラメーターに基づく前記ロボットの動作を表す情報を前記操作画面に表示させる、制御装置。【選択図】図3

Description

この発明は、制御装置、及びロボットに関する。
力検出部を備えたロボットを力検出部により検出された外力に基づいて制御する技術の研究や開発が行われている。
これに関し、力センサーが設けられたロボットについて、教示者へ向けたガイダンス情報を含む教示操作画面を生成し、教示操作画面に入力された教示者の指定値、及び、力センサーの計測値に基づいてロボットの動作を修正する内容を含む所定の作業を行わせる場合の動作指令を定義するジョブを生成のためのパラメーターを調整し、調整された当該パラメーターを反映させたジョブを生成するロボット教示システムが知られている(特許文献1参照)。
特開2014−166681号公報
しかしながら、このようなロボット教示システムでは、教示者がロボットに行わせる作業に応じて指定することが必要な指定値を判断し、教示者が当該指定値を指定しなければならなかった。このため、当該ロボット教示システムは、熟練度が低い教示者に精度の高い教示を行わせることが困難な場合があった。
上記課題の少なくとも一つを解決するために本発明の一態様は、力検出部を備えたロボットが行う複数の作業のそれぞれを示す作業情報が表示された画面である操作画面を表示し、前記作業情報の選択が受け付けられると、選択された当該前記作業情報が示す前記ロボットの作業に応じたパラメーターを受け付け、受け付けた前記パラメーターに基づく前記ロボットの動作を表す情報を前記操作画面に表示させる、制御装置である。
この構成により、制御装置は、操作画面を表示し、作業情報の選択が受け付けられると、選択された当該作業情報が示すロボットの作業に応じたパラメーターを受け付け、受け付けたパラメーターに基づくロボットの動作を表す情報を操作画面に表示させる。これにより、制御装置は、ロボットに行わせる作業に応じたパラメーターの入力をユーザーに容易に行わせることができる。
また、本発明の他の態様は、前記複数の作業の一部又は全部は、記憶部に予め記憶された作業情報が示す作業である、構成が用いられてもよい。
この構成により、制御装置では、ロボットが行う複数の作業のそれぞれを示す作業情報の一部又は全部は、記憶部に予め記憶された作業情報が示す作業である。これにより、制御装置は、記憶部に記憶された作業情報に基づいて、ロボットに行わせる作業に応じたパラメーターの入力をユーザーに容易に行わせることができる。
また、本発明の他の態様は、制御装置において、選択された前記作業情報が示す作業に応じた前記パラメーターの前記デフォルト値が予め決められており、前記パラメーターを受け付けていない場合、前記パラメーターを前記デフォルト値に設定する、構成が用いられてもよい。
この構成により、制御装置は、パラメーターを受け付けていない場合、パラメーターをデフォルト値に設定する。これにより、制御装置は、パラメーターのデフォルト値に基づいて、ロボットに行わせる作業に応じたパラメーターの入力をユーザーに容易に行わせることができる。
また、本発明の他の態様は、制御装置において、前記パラメーターは、前記力検出部からの出力値に基づいて前記ロボットを制御するためのパラメーターである、構成が用いられてもよい。
この構成により、制御装置は、ユーザーによりある作業情報が選択された場合、選択された当該作業情報が示すロボットの作業に応じたパラメーターであって力検出部からの出力値に基づいてロボットを制御するためのパラメーターを受け付け、受け付けたパラメーターに基づくロボットの動作を表す情報を操作画面に表示させる。これにより、制御装置は、ロボットに行わせる作業に応じたパラメーターであって力検出部からの出力値に基づいてロボットを制御するためのパラメーターの入力をユーザーに容易に行わせることができる。
また、本発明の他の態様は、制御装置において、前記出力値に基づく制御は、インピーダンス制御であり、前記パラメーターは、インピーダンスパラメーターである、構成が用いられてもよい。
この構成により、制御装置は、ユーザーによりある作業情報が選択された場合、選択された当該作業情報が示すロボットの作業に応じたパラメーターであってインピーダンス制御によってロボットを制御するためのパラメーターを受け付け、受け付けたパラメーターに基づくロボットの動作を表す情報を操作画面に表示させる。これにより、制御装置は、ロボットに行わせる作業に応じたパラメーターであってインピーダンス制御によってロボットを制御するためのパラメーターの入力をユーザーに容易に行わせることができる。
また、本発明の他の態様は、制御装置において、前記操作画面上において、前記出力値に基づく前記ロボットの制御を終了させる終了条件を受け付け、受け付けた前記終了条件に基づく前記情報を前記操作画面に表示させる、構成が用いられてもよい。
この構成により、制御装置は、操作画面上において、力検出部からの出力値に基づくロボットの制御を終了させる終了条件を受け付け、受け付けた終了条件に基づくロボットの動作を表す情報を操作画面に表示させる。これにより、制御装置は、力検出部からの出力値に基づくロボットの制御を終了させる終了条件の入力をユーザーに容易に行わせることができる。
また、本発明の他の態様は、制御装置において、前記操作画面に前記出力値に基づく情報を表示させる、構成が用いられてもよい。
この構成により、制御装置は、操作画面に力検出部からの出力値に基づく情報を表示させる。これにより、制御装置は、操作画面に表示させた力検出部からの出力値に基づく情報に基づいて、ロボットに行わせる作業に応じたパラメーターであって力検出部からの出力値に基づいてロボットを制御するためのパラメーターの入力をユーザーに容易に行わせることができる。
また、本発明の他の態様は、制御装置において、前記操作画面には、前記操作画面から受け付けた前記パラメーターを記憶部に記憶させるボタンが含まれており、前記ボタンの選択が受け付けられると、前記パラメーターを示すパラメーター情報を前記記憶部に記憶させる、構成が用いられてもよい。
この構成により、制御装置は、操作画面から受け付けたパラメーターを記憶部に記憶させるボタンの選択が受け付けられると、当該パラメーターを示すパラメーター情報を記憶部に記憶させる。これにより、制御装置は、記憶部に記憶させたパラメーター情報を他の装置に出力することができる。
また、本発明の他の態様は、制御装置において、前記情報は、前記動作のシミュレーションを行った結果である、構成が用いられてもよい。
この構成により、制御装置は、ユーザーによりある作業情報が選択された場合、選択された当該作業情報が示すロボットの作業に応じたパラメーターを受け付け、受け付けたパラメーターに基づくロボットの動作のシミュレーション結果を操作画面に表示させる。これにより、制御装置は、操作画面に表示させたロボットの動作のシミュレーション結果に基づいて、ロボットに行わせる作業に応じたパラメーターの入力をユーザーに容易に行わせることができる。
また、本発明の他の態様は、制御装置において、前記シミュレーションは、三次元シミュレーションである、構成が用いられてもよい。
この構成により、制御装置は、ユーザーによりある作業情報が選択された場合、選択された当該作業情報が示すロボットの作業に応じたパラメーターを受け付け、受け付けたパラメーターに基づくロボットの動作の三次元シミュレーション結果を操作画面に表示させる。これにより、制御装置は、操作画面に表示させたロボットの動作の三次元シミュレーション結果に基づいて、ロボットに行わせる作業に応じたパラメーターの入力をユーザーに容易に行わせることができる。
また、本発明の他の態様は、上記に記載の制御装置によって制御される、ロボットである。
この構成により、ロボットは、上記に記載の制御装置が受け付けたパラメーターに基づく動作を行うことができる。これにより、ロボットは、ユーザーが所望する動作を含む作業を精度よく行うことができる。
以上により、制御装置は、操作画面を表示し、作業情報の選択が受け付けられると、選択された当該作業情報が示すロボットの作業に応じたパラメーターを受け付け、受け付けたパラメーターに基づくロボットの動作を表す情報を操作画面に表示させる。これにより、制御装置は、ロボットに行わせる作業に応じたパラメーターの入力をユーザーに容易に行わせることができる。
また、ロボットは、上記に記載の制御装置が受け付けたパラメーターに基づく動作を行うことができる。これにより、ロボットは、ユーザーが所望する動作を含む作業を精度よく行うことができる。
実施形態に係るロボットシステム1の構成の一例を示す図である。 情報処理装置50のハードウェア構成の一例を示す図である。 情報処理装置50の機能構成の一例を示す図である。 操作画面の一例である操作画面P1を示す図である。 操作画面P2の一例を示す図である。 操作画面P3の一例を示す図である。 ユーザーによりタブTB2がクリックされた後の操作画面P3の一例を示す図である。 ユーザーによりタブTB3がクリックされた後の操作画面P3の一例を示す図である。 ユーザーによりタブTB3がクリックされた後の操作画面P3の一例を示す図である。 情報処理装置50が操作画面からロボット20に行わせる作業に応じたパラメーターを受け付ける処理の流れの一例を示すフローチャートである。 ユーザーが作業情報S3を選択した場合に表示される操作画面P3の一例を示す図である。 1段階目の力制御における作業開始位置及び作業開始姿勢と、作用力と、終了条件と、力制御のパラメーターとを受け付けられた後の操作画面P3の一例を示す図である。
<実施形態>
以下、本発明の実施形態について、図面を参照して説明する。
<ロボットシステムの構成>
まず、ロボットシステム1の構成について説明する。
図1は、実施形態に係るロボットシステム1の構成の一例を示す図である。ロボットシステム1は、ロボット20と、制御装置30を備える。また、制御装置30は、ロボット制御装置40と、情報処理装置50を備える。なお、この一例において、ロボット制御装置40と情報処理装置50は、別体として制御装置30を構成しているが、これに代えて、一体として制御装置30を構成してもよい。
ロボット20は、アームAと、アームAを支持する支持台Bを備える単腕ロボットである。単腕ロボットは、この一例におけるアームAのような1本のアーム(腕)を備えるロボットである。なお、ロボット20は、単腕ロボットに代えて、複腕ロボットであってもよい。複腕ロボットは、2本以上のアーム(例えば、2本以上のアームA)を備えるロボットである。なお、複腕ロボットのうち、2本のアームを備えるロボットは、双腕ロボットとも称される。すなわち、ロボット20は、2本のアームを備える双腕ロボットであってもよく、3本以上のアーム(例えば、3本以上のアームA)を備える複腕ロボットであってもよい。また、ロボット20は、スカラロボットや、直角座標ロボット等の他のロボットであってもよい。直角座標ロボットは、例えば、ガントリロボットである。
アームAは、エンドエフェクターEと、マニピュレーターMと、力検出部21を備える。
エンドエフェクターEは、この一例において、物体を把持可能な指部を備えるエンドエフェクターである。なお、エンドエフェクターEは、当該指部を備えるエンドエフェクターに代えて、空気の吸引や磁力、治具等によって物体を持ち上げることが可能なエンドエフェクターや、他のエンドエフェクターであってもよい。
エンドエフェクターEは、ケーブルによってロボット制御装置40と通信可能に接続されている。これにより、エンドエフェクターEは、ロボット制御装置40から取得される制御信号に基づく動作を行う。なお、ケーブルを介した有線通信は、例えば、イーサネット(登録商標)やUSB(Universal Serial Bus)等の規格によって行われる。また、エンドエフェクターEは、Wi−Fi(登録商標)等の通信規格により行われる無線通信によってロボット制御装置40と接続される構成であってもよい。
マニピュレーターMは、6つの関節を備える。また、当該6つの関節のそれぞれは、図示しないアクチュエーターを備える。すなわち、マニピュレーターMを備えるアームAは、6軸垂直多関節型のアームである。アームAは、支持台Bと、エンドエフェクターEと、マニピュレーターMと、マニピュレーターMが備える6つの関節それぞれのアクチュエーターとによる連携した動作によって6軸の自由度の動作を行う。なお、アームAは、5軸以下の自由度で動作する構成であってもよく、7軸以上の自由度で動作する構成であってもよい。
マニピュレーターMが備える6つの(関節に備えられた)アクチュエーターはそれぞれ、ケーブルによってロボット制御装置40と通信可能に接続されている。これにより、当該アクチュエーターは、ロボット制御装置40から取得される制御信号に基づいて、マニピュレーターMを動作させる。なお、ケーブルを介した有線通信は、例えば、イーサネット(登録商標)やUSB等の規格によって行われる。また、マニピュレーターMが備える6つのアクチュエーターのうちの一部又は全部は、Wi−Fi(登録商標)等の通信規格により行われる無線通信によってロボット制御装置40と接続される構成であってもよい。
力検出部21は、エンドエフェクターEとマニピュレーターMの間に備えられる。力検出部21は、例えば、力センサーである。力検出部21は、エンドエフェクターE又はエンドエフェクターEにより把持された物体に作用した外力を検出する。当該外力には、エンドエフェクターE又はエンドエフェクターEにより把持された物体を並進させる並進力と、エンドエフェクターE又はエンドエフェクターEにより把持された物体を回転させる回転モーメント(トルク)とが含まれる。力検出部21は、検出した外力の大きさを示す値を出力値として含む力検出情報を通信によりロボット制御装置40へ出力する。
力検出情報は、ロボット制御装置40によるロボット20の制御のうちの力検出情報に基づく制御である力制御に用いられる。力制御は、力検出情報が示す外力が所定の終了条件を満たす状態を実現するようにエンドエフェクターEとマニピュレーターMの少なくとも一方を動作させる制御である。終了条件は、力制御によるロボット20の動作をロボット制御装置40が終了させるための条件である。すなわち、力制御は、例えば、インピーダンス制御等のコンプライアントモーション制御のことである。なお、力検出部21は、トルクセンサー等のエンドエフェクターE又はエンドエフェクターEにより把持された物体に加わる力やモーメントの大きさを示す値を検出する他のセンサーであってもよい。また、力検出部21は、エンドエフェクターEとマニピュレーターMの間に備えられる構成に代えて、マニピュレーターMの他の部位に備えられる構成であってもよい。
力検出部21は、ケーブルによってロボット制御装置40と通信可能に接続されている。ケーブルを介した有線通信は、例えば、イーサネット(登録商標)やUSB等の規格によって行われる。なお、力検出部21とロボット制御装置40とは、Wi−Fi(登録商標)等の通信規格により行われる無線通信によって接続される構成であってもよい。
ロボット制御装置40は、この一例において、ロボットを制御するコントローラーである。ロボット制御装置40は、エンドエフェクターEに予め対応付けられた位置に、エンドエフェクターEとともに動く制御点Tを設定する。エンドエフェクターEに予め対応付けられた位置は、ロボット座標系RCにおける位置である。エンドエフェクターEに予め対応付けられた位置は、例えば、エンドエフェクターEにより把持された図示しない対象物O1の重心の位置である。制御点Tは、例えば、TCP(Tool Center Point)である。なお、制御点Tは、TCPに代えて、アームAの一部に対応付けられた仮想的な点等の他の仮想的な点であってもよい。すなわち、制御点Tは、エンドエフェクターEにより把持された対象物O1の重心の位置に代えて、エンドエフェクターEの他の部位の位置に設定される構成であってもよく、マニピュレーターMに対応付けられた何らかの位置に設定される構成であってもよい。
制御点Tには、制御点Tの位置を示す情報である制御点位置情報と、制御点Tの姿勢を示す情報である制御点姿勢情報とが対応付けられている。当該位置は、ロボット座標系RCにおける位置である。当該姿勢は、ロボット座標系RCにおける姿勢である。なお、制御点Tには、これらに加えて、他の情報が対応付けられる構成であってもよい。制御点位置情報及び制御点姿勢情報をロボット制御装置40が指定(決定)すると、制御点Tの位置及び姿勢が決まる。当該位置及び当該姿勢は、ロボット座標系RCにおける位置及び姿勢である。ロボット制御装置40は、アームAを動作させ、ロボット制御装置40が指定した制御点位置情報が示す位置に制御点Tの位置を一致させるとともに、ロボット制御装置40が指定した制御点姿勢情報が示す姿勢に制御点Tの姿勢を一致させる。以下では、説明の便宜上、ロボット制御装置40が指定した制御点位置情報が示す位置を目標位置と称し、ロボット制御装置40が指定した制御点姿勢情報が示す姿勢を目標姿勢と称して説明する。すなわち、ロボット制御装置40は、制御点位置情報及び制御点姿勢情報を指定することにより、ロボット20を動作させ、制御点Tの位置及び姿勢を目標位置及び目標姿勢と一致させる。
この一例において、制御点Tの位置は、制御点座標系TCの原点のロボット座標系RCにおける位置によって表される。また、制御点Tの姿勢は、制御点座標系TCの各座標軸のロボット座標系RCにおける方向によって表される。制御点座標系TCは、制御点Tとともに動くように制御点Tに対応付けられた三次元局所座標系である。ここで、この一例では、制御点Tとともに対象物O1が動くため、制御点Tの位置及び姿勢は、対象物O1の位置及び姿勢を表す。
ロボット制御装置40は、ユーザーから予め入力された制御点設定情報に基づいて制御点Tを設定する。制御点設定情報は、例えば、エンドエフェクターEの重心の位置及び姿勢と制御点Tの位置及び姿勢との相対的な位置及び姿勢を示す情報である。なお、制御点設定情報は、これに代えて、エンドエフェクターEに対応付けられた何らかの位置及び姿勢と制御点Tの位置及び姿勢との相対的な位置及び姿勢を示す情報であってもよく、マニピュレーターMに対応付けられた何らかの位置及び姿勢と制御点Tの位置及び姿勢との相対的な位置及び姿勢を示す情報であってもよく、ロボット20の他の部位に対応付けられた何らかの位置及び姿勢と制御点Tの位置及び姿勢との相対的な位置及び姿勢を示す情報であってもよい。
また、ロボット制御装置40は、情報処理装置50から教示情報を取得する。ロボット制御装置40は、取得した教示情報に基づいてロボット20を動作させ、ユーザーが所望する作業をロボット20に行わせる。以下では、一例として、当該作業が、エンドエフェクターEにより予め把持された図示しない対象物O1を、対象物O1が挿入される対象物O2であって図示しない対象物O2に挿入させる作業である場合について説明する。なお、当該作業は、これに代えて、ある対象物を当該対象物が嵌合する他の対象物に嵌合させる作業等の他の作業であってもよい。教示情報は、この一例において、当該作業に応じたパラメーターを示すパラメーター情報が含まれる情報である。以下では、一例として、当該作業に応じたパラメーターが、力制御のパラメーターである場合について説明する。力制御のパラメーターは、この一例における力制御がインピーダンス制御であるため、インピーダンスパラメーターである。すなわち、力制御のパラメーターには、仮想慣性係数と、仮想粘性係数と、仮想弾性係数とのそれぞれのパラメーターが含まれる。なお、当該作業に応じたパラメーターは、これらの一部又は全部に代えて、当該作業に応じた他のパラメーターを含む構成であってもよく、当該これらの一部又は全部に加えて、当該作業に応じた他のパラメーターを含む構成であってもよい。また、以下では、一例として、教示情報が、パラメーター情報に加えて、前述の終了条件を示す終了条件情報と、教示点情報とを含む情報である場合について説明する。なお、教示情報には、当該パラメーター情報に加えて、他の情報が含まれる構成であってもよい。
教示点情報は、1以上の教示点(ポイント)のそれぞれを示す情報である。教示点は、ロボット制御装置40がマニピュレーターMを動作させる際に制御点Tを移動させる目標となる仮想的な点のことである。教示点には、教示点位置情報と、教示点姿勢情報とが対応付けられている。教示点位置情報は、教示点の位置を示す情報である。また、教示点姿勢情報は、教示点の姿勢を示す情報である。教示点識別情報は、教示点を識別する情報である。この一例において、教示点の位置は、教示点に対応付けられた三次元局所座標系である教示点座標系の原点のロボット座標系RCにおける位置によって表される。また、教示点の姿勢は、教示点座標系の各座標軸のロボット座標系RCにおける方向によって表される。この一例において、ある教示点と制御点Tが一致している場合、制御点Tの位置及び姿勢は、教示点の位置及び姿勢と一致している。
ここで、ロボット制御装置40は、情報処理装置50から取得した教示情報と、予め記憶された動作プログラムとに基づく位置制御によって制御点位置情報及び制御点姿勢情報を指定し、制御点Tの位置及び姿勢を目標位置及び目標姿勢と一致させる。これにより、ロボット制御装置40は、位置制御によってロボット20を動作させる。
位置制御では、ロボット制御装置40は、動作プログラムによって指定された教示点識別情報が示す教示点の位置及び姿勢を、教示情報に含まれる教示点情報に基づいて特定する。ロボット制御装置40は、特定した教示点の位置を示す情報を制御点位置情報として指定するとともに、特定した教示点の姿勢を示す情報を制御点姿勢情報として指定する。これにより、ロボット制御装置40は、制御点Tの位置及び姿勢を当該教示点の位置及び姿勢、すなわち目標位置及び目標姿勢と一致させる。
また、ロボット制御装置40は、情報処理装置50から取得した教示点情報と、力検出部21から取得した力検出情報に基づく力制御によって、制御点位置情報及び制御点姿勢情報を指定し、制御点Tの位置及び姿勢を目標位置及び目標姿勢と一致させる。これにより、ロボット制御装置40は、力制御によってロボット20を動作させる。
力制御では、ロボット制御装置40は、情報処理装置50から取得した教示情報に含まれるパラメーター情報と、力検出部21から取得された力検出情報が示す外力とに基づいて、当該外力が当該教示情報に含まれる終了条件情報が示す終了条件を満たす状態を実現すると推定される制御点Tの位置及び姿勢を算出する。ロボット制御装置40は、算出した当該位置を示す情報を制御点位置情報として指定するとともに、算出した当該姿勢を示す情報を制御点姿勢情報として指定する。これにより、ロボット制御装置40は、制御点Tの位置及び姿勢を当該位置及び当該姿勢、すなわち目標位置及び目標姿勢と一致させる。なお、力制御では、ロボット制御装置40は、当該外力が当該終了条件を満たす状態が実現された場合、制御点Tの位置及び姿勢の移動、すなわちロボット20の動作を停止させる。
このような位置制御及び力制御の少なくとも一方によって、ロボット制御装置40は、前述のユーザーが所望する作業をロボット20に行わせる。
また、ロボット制御装置40は、ロボット20を動作させる指示を情報処理装置50から取得する。ロボット制御装置40は、取得した当該指示に対応付けられたロボット20の動作を示す情報に基づいて、当該動作をロボット20に行わせる。
また、ロボット制御装置40は、力検出情報取得の指示を情報処理装置50から取得する。ロボット制御装置40は、取得した当該指示に応じて、力検出部21から力検出情報を取得する。そして、ロボット制御装置40は、取得した力検出情報を情報処理装置50に出力する。
情報処理装置50は、ワークステーションやデスクトップPC(Personal Computer)、ノートPC、タブレットPC、多機能携帯電話端末(スマートフォン)、通信機能付きの電子書籍リーダー、PDA(Personal Digital Assistant)等である。なお、情報処理装置50は、これらに代えて、ティーチングペンダント等の教示装置であってもよい。
情報処理装置50は、ケーブルによってロボット制御装置40と通信可能に接続されている。なお、ケーブルを介した有線通信は、例えば、イーサネット(登録商標)やUSB等の規格によって行われる。また、情報処理装置50は、Wi−Fi(登録商標)等の通信規格により行われる無線通信によってロボット制御装置40と接続される構成であってもよい。
情報処理装置50は、ユーザーから受け付けた操作に基づいて、前述した教示情報を生成する。具体的には、情報処理装置50は、ユーザーから受け付けた操作に基づいて、ロボット制御装置40がロボット20に行わせる作業(すなわち、ユーザーが所望する作業)に応じたパラメーターを受け付ける。情報処理装置50は、受け付けた当該パラメーターを示すパラメーター情報を生成する。また、情報処理装置50は、ユーザーから受け付けた操作に基づいて、ユーザーが制御点Tの位置及び姿勢を一致させたい所望の位置及び姿勢を受け付ける。情報処理装置50は、受け付けた当該位置を示す教示点位置情報と、受け付けた当該姿勢を示す教示点姿勢情報とが対応付けられた教示点を示す教示点情報を生成する。また、情報処理装置50は、ユーザーから受け付けた操作に基づいて、前述の終了条件を受け付ける。情報処理装置50は、受け付けた終了条件を示す終了条件情報を生成する。そして、情報処理装置50は、生成したパラメーター情報、教示点情報、終了条件情報のそれぞれを含む教示情報を生成する。情報処理装置50は、生成した教示情報をロボット制御装置40に出力し、ロボット制御装置40に記憶させる。すなわち、情報処理装置50は、教示情報をロボット制御装置40に教示する。
また、情報処理装置50は、ユーザーから受け付けた操作に基づいて、ロボット20を動作させる指示をロボット制御装置40に出力する。当該指示には、ロボット20の動作を示す情報が対応付けられている。
また、情報処理装置50は、ユーザーから受け付けた操作に基づいて、力検出情報取得の指示をロボット制御装置40に出力する。そして、情報処理装置50は、当該指示の応答として、ロボット制御装置40が力検出部21から取得した力検出情報をロボット制御装置40から取得する。
<情報処理装置が行う処理の概要>
以下、情報処理装置50が行う処理の概要について説明する。
ロボット制御装置40がロボット20に行わせる作業に応じたパラメーターをユーザーから受け付ける際、情報処理装置50は、力検出部21を備えたロボット20が行う複数の作業のそれぞれを示す作業情報が表示された画面である操作画面を表示し、作業情報の選択が行われると(ユーザーによりある作業情報が選択された場合)、選択された当該作業情報が示すロボット20の作業に応じたパラメーターを受け付け、受け付けたパラメーターに基づくロボット20の動作を表す情報を操作画面に表示させる。これにより、情報処理装置50(すなわち、制御装置30)は、複数のパラメーターの中から当該作業と無関係なパラメーターを除外し、当該作業に応じたパラメーターを受け付けることができる。その結果、情報処理装置50は、ロボット20に行わせる作業に応じたパラメーターの入力をユーザーに容易に行わせることができる。以下では、当該操作画面と、情報処理装置50が当該パラメーターを受け付ける処理とについて詳しく説明する。また、以下では、一例として、情報処理装置50が受け付けた当該パラメーターに基づくロボット20の動作を表す情報が、情報処理装置50が受け付けたパラメーターに基づくロボット20の動作のシミュレーション結果である場合について説明する。なお、当該情報は、これに代えて、当該動作を表す他の情報であってもよい。
<情報処理装置のハードウェア構成>
以下、図2を参照し、情報処理装置50のハードウェア構成について説明する。図2は、情報処理装置50のハードウェア構成の一例を示す図である。
情報処理装置50は、例えば、CPU(Central Processing Unit)51と、記憶部52と、入力受付部53と、通信部54と、表示部55を備える。これらの構成要素は、バスBusを介して相互に通信可能に接続されている。また、情報処理装置50は、通信部54を介してロボット制御装置40と通信を行う。
CPU51は、記憶部52に格納された各種プログラムを実行する。
記憶部52は、例えば、HDD(Hard Disk Drive)やSSD(Solid State Drive)、EEPROM(Electrically Erasable Programmable Read−Only Memory)、ROM(Read−Only Memory)、RAM(Random Access Memory)等を含む。なお、記憶部52は、情報処理装置50に内蔵されるものに代えて、USB等のデジタル入出力ポート等によって接続された外付け型の記憶装置であってもよい。記憶部52は、情報処理装置50が処理する各種情報や画像、各種のプログラム等を格納する。
入力受付部53は、例えば、表示部55と一体に構成されたタッチパネルである。なお、入力受付部53は、キーボードやマウス、タッチパッド、その他の入力装置であってもよい。
通信部54は、例えば、USB等のデジタル入出力ポートやイーサネット(登録商標)ポート等を含んで構成される。
表示部55は、例えば、液晶ディスプレイパネル、あるいは、有機EL(ElectroLuminescence)ディスプレイパネルである。
<情報処理装置の機能構成>
以下、図3を参照し、情報処理装置50の機能構成について説明する。図3は、情報処理装置50の機能構成の一例を示す図である。
情報処理装置50は、記憶部52と、入力受付部53と、表示部55と、制御部56を備える。
制御部56は、情報処理装置50の全体を制御する。制御部56は、表示制御部61と、設定部63と、シミュレーション部65と、情報生成部66と、記憶制御部67と、ロボット制御部69と、送信制御部71を備える。制御部56が備えるこれらの機能部は、例えば、CPU51が、記憶部52に記憶された各種プログラムを実行することにより実現される。また、当該機能部のうちの一部又は全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)等のハードウェア機能部であってもよい。
表示制御部61は、ユーザーから受け付けた操作に基づいて、前述の操作画面を含む各種の画面を生成する。表示制御部61は、生成した各種の画面を表示部55に表示させる。また、表示制御部61は、シミュレーション部65により行われたシミュレーションの結果を操作画面に表示させる。
設定部63は、表示部55に表示された操作画面から受け付けられたパラメーターを、シミュレーション部65に設定する。
シミュレーション部65は、設定部63により設定されたパラメーターに基づくロボット20の動作のシミュレーションを行う。
情報生成部66は、表示部55に表示された操作画面から受け付けられたユーザーからの操作に基づいて、表示部55に表示された操作画面から受け付けられたパラメーターを示すパラメーター情報を生成する。また、情報生成部66は、表示部55に表示された操作画面から受け付けられたユーザーからの操作に基づいて、表示部55に表示された操作画面から受け付けられた位置及び姿勢を示す教示点位置情報及び教示点姿勢情報を生成する。情報生成部66は、生成した教示点位置情報及び教示点姿勢情報が対応付けられた教示点を示す教示点情報を生成する。また、情報生成部66は、表示部55に表示された操作画面から受け付けられたユーザーからの操作に基づいて、表示部55に表示された操作画面から受け付けられた終了条件を示す終了条件情報を生成する。また、情報生成部66は、教示点情報と、終了条件情報と、パラメーター情報とを対応付けた教示情報を生成する。
記憶制御部67は、情報生成部66が生成した教示情報を含む各種の情報を記憶部52に記憶させる。
ロボット制御部69は、シミュレーション部65により行われたシミュレーションにおける仮想的なロボット20の動作と同じ動作を現実のロボット20に行わせる。また、ロボット制御部69は、表示部55に表示された操作画面から受け付けられたユーザーからの操作に基づく動作をロボット20に行わせる指示をロボット制御装置40に出力し、ロボット20に当該動作を行わせる。当該指示は、当該動作を示す情報が対応付けられた指示である。
送信制御部71は、情報生成部66が生成した教示情報をロボット制御装置40に出力し、ロボット制御装置40に記憶させる。
<操作画面の具体例>
以下、図4〜図10を参照し、ユーザーから受け付けた操作に基づいて情報処理装置50が表示部55に表示させる操作画面について説明する。図4は、操作画面の一例である操作画面P1を示す図である。
操作画面P1には、GUI(Graphical User Interface)として、作業カテゴリー情報C1と、作業カテゴリー情報C2と、作業カテゴリー情報C3と、ボタンB1、ボタンB2、ボタンB3のそれぞれを含む複数のボタンと、ファイル名入力欄CF1とが含まれている。なお、操作画面P1には、これらのGUIに加えて、他のGUIが含まれる構成であってもよい。また、操作画面P1には、当該これらのGUIの一部又は全部に代えて、他のGUIが含まれる構成であってもよい。
作業カテゴリー情報C1は、ロボット20が行う作業が分類された(対応付けられた)1以上の作業カテゴリーのそれぞれを示す作業カテゴリー情報のうちの1つである。図4に示した例では、作業カテゴリー情報C1は、ロボット20により把持された物体をロボット20が他の物体に力制御によって押し付ける動作を含む作業が分類された作業カテゴリーを示す情報である。また、当該作業は、当該他の物体へのロボット20により把持された物体の挿入又は嵌合を伴わない作業である。
ユーザーが作業カテゴリー情報C1をクリック(タップ)した場合(すなわち、作業カテゴリー情報C1の選択が受け付けられると)、表示制御部61は、作業カテゴリー情報C1が選択されたことを示す情報を操作画面P1に表示させる。例えば、表示制御部61は、当該情報として、作業カテゴリー情報C1の周囲の色を、他の作業カテゴリー情報の周囲の色と異なる色に変える。
作業カテゴリー情報C1には、名称CN1と、画像CM1と、説明文CG1とが含まれる。なお、作業カテゴリー情報C1には、これらの一部又は全部に加えて、他のGUIが含まれる構成であってもよい。また、作業カテゴリー情報C1には、これらの一部又は全部に代えて、他のGUIが含まれる構成であってもよい。
名称CN1は、作業カテゴリー情報C1が示す作業カテゴリーの名称である。図4に示した例では、名称CN1は、「押し付け」である。
画像CM1は、作業カテゴリー情報C1が示す作業カテゴリーに分類された作業において共通する動作を表す静止画像又は動画像である。当該動作は、ロボット20の動作である。図4に示した例では、画像CM1は、ロボット20により把持された物体をロボット20が他の物体に押し付ける動作を表す動画像である。
説明文CG1は、作業カテゴリー情報C1が示す作業カテゴリーに分類された作業において共通する動作が如何なる動作であるのかを説明する文章である。図4に示した例では、説明文CG1は、「入るところまで押し付けます。」である。
作業カテゴリー情報C2は、作業カテゴリー情報C1が示す作業カテゴリーと異なる作業カテゴリーを示す情報である。図4に示した例では、作業カテゴリー情報C2は、ロボット20により把持された物体をロボット20が他の物体に力制御によって挿入する動作を含む作業が分類された作業カテゴリーを示す情報である。
ユーザーが作業カテゴリー情報C2をクリック(タップ)した場合(すなわち、作業カテゴリー情報C2の選択が受け付けられると)、表示制御部61は、作業カテゴリー情報C2が選択されたことを示す情報を操作画面P1に表示させる。例えば、表示制御部61は、当該情報として、作業カテゴリー情報C2の周囲の色を、他の作業カテゴリー情報の周囲の色と異なる色に変える。
作業カテゴリー情報C2には、名称CN2と、画像CM2と、説明文CG2とが含まれる。なお、作業カテゴリー情報C2には、これらの一部又は全部に加えて、他のGUIが含まれる構成であってもよい。また、作業カテゴリー情報C2には、これらの一部又は全部に代えて、他のGUIが含まれる構成であってもよい。
名称CN2は、作業カテゴリー情報C2が示す作業カテゴリーの名称である。図4に示した例では、名称CN2は、「挿入」である。
画像CM2は、作業カテゴリー情報C2が示す作業カテゴリーに分類された作業において共通する動作を表す静止画像又は動画像である。当該動作は、ロボット20の動作である。図4に示した例では、画像CM2は、ロボット20により把持された物体をロボット20が他の物体に挿入する動作を表す動画像である。
説明文CG2は、作業カテゴリー情報C2が示す作業カテゴリーに分類された作業において共通する動作が如何なる動作であるのかを説明する文章である。図4に示した例では、説明文CG2は、「嵌め合わせて挿入します。」である。
作業カテゴリー情報C3は、作業カテゴリー情報C1と作業カテゴリー情報C2とのそれぞれが示す作業カテゴリーと異なる作業カテゴリーを示す情報である。図4に示した例では、作業カテゴリー情報C3は、ロボット20が把持した蓋(キャップ)を、当該蓋が締め付けられるペットボトルの本体にロボット20が力制御によって締め付ける動作を含む作業カテゴリーを示す情報である。
ユーザーが作業カテゴリー情報C3をクリック(タップ)した場合(すなわち、作業カテゴリー情報C3の選択が受け付けられると)、表示制御部61は、作業カテゴリー情報C3が選択されたことを示す情報を操作画面P1に表示させる。例えば、表示制御部61は、当該情報として、作業カテゴリー情報C3の周囲の色を、他の作業カテゴリー情報の周囲の色と異なる色に変える。
作業カテゴリー情報C3には、名称CN3と、画像CM3と、説明文CG3とが含まれる。なお、作業カテゴリー情報C3には、これらの一部又は全部に加えて、他のGUIが含まれる構成であってもよい。また、作業カテゴリー情報C3には、これらの一部又は全部に代えて、他のGUIが含まれる構成であってもよい。
名称CN3は、作業カテゴリー情報C3が示す作業カテゴリーの名称である。図4に示した例では、名称CN3は、「力制限」である。
画像CM3は、作業カテゴリー情報C3が示す作業カテゴリーに分類された作業において共通する動作を表す静止画像又は動画像である。当該動作は、ロボット20の動作である。図4に示した例では、画像CM3は、ロボット20が把持した蓋(キャップ)を、当該蓋が締め付けられるペットボトルの本体にロボット20が力制御によって締め付ける動作を表す動画像である。
説明文CG3は、作業カテゴリー情報C3が示す作業カテゴリーに分類された作業において共通する動作が如何なる動作であるのかを説明する文章である。図4に示した例では、説明文CG3は、「回転して締めます。」である。
表示制御部61がこれらの作業カテゴリー情報を表示させる際、表示制御部61は、記憶部52に予め記憶された作業カテゴリー情報を読み出す。そして、表示制御部61は、読み出した作業カテゴリー情報を操作画面P1に表示させる。なお、作業カテゴリー情報の少なくとも一部は、ユーザーにより後から記憶部52に記憶される構成であってもよい。この場合、制御部56は、ユーザーから受け付けた操作に応じた作業カテゴリー情報を生成する生成部を備える。そして、記憶制御部67は、当該生成部が生成した作業カテゴリー情報を記憶部52に記憶する。また、作業カテゴリー情報のそれぞれの内容(作業カテゴリー情報に含まれる名称、画像、説明文等)は、ユーザーにより後から追加、修正、削除等の編集が可能な構成であってもよい。この場合、制御部56は、ユーザーから受け付けた操作に応じて作業カテゴリー情報を編集する編集部を備える。そして、記憶制御部67は、当該編集部が編集した作業カテゴリー情報を記憶部52に記憶する。
ボタンB2及びボタンB3のそれぞれは、操作画面P1に表示された作業カテゴリー情報(この一例において、作業カテゴリー情報C1〜作業カテゴリー情報C3)を、他の作業カテゴリー情報に変えるボタンである。ここで、以下では、一例として、作業カテゴリー情報に順番が対応付けられている場合について説明する。
具体的には、ボタンB2は、作業カテゴリー情報C1〜作業カテゴリー情報C3のそれぞれを操作画面P1から削除し、作業カテゴリー情報C1よりも前の順番に対応付けられた作業カテゴリー情報を操作画面P1に表示させるボタンである。ユーザーがボタンB2をクリック(タップ)した場合(すなわち、ボタンB2の選択が受け付けられると)、表示制御部61は、作業カテゴリー情報C1〜作業カテゴリー情報C3のそれぞれを操作画面P1から削除し、作業カテゴリー情報C1よりも前の順番に対応付けられた作業カテゴリー情報を操作画面P1に表示させる。
ボタンB3は、作業カテゴリー情報C1〜作業カテゴリー情報C3のそれぞれを操作画面P1から削除し、作業カテゴリー情報C1よりも後の順番に対応付けられた作業カテゴリー情報を操作画面P1に表示させるボタンである。ユーザーがボタンB3をクリック(タップ)した場合(すなわち、ボタンB3の選択が受け付けられると)、表示制御部61は、作業カテゴリー情報C1〜作業カテゴリー情報C3のそれぞれを操作画面P1から削除し、作業カテゴリー情報C3よりも後の順番に対応付けられた作業カテゴリー情報を操作画面P1に表示させる。
ファイル名入力欄CF1は、情報処理装置50により生成された教示情報を記憶部52に記憶させる場合における当該教示情報を示すファイル名(教示情報名)をユーザーが入力する欄である。また、図4に示した例では、ファイル名入力欄CF1は、プルダウンメニューになっており、記憶部52に記憶されている教示情報を示すファイル名の一覧を表示可能である。
ボタンB1は、操作画面P1においてユーザーが作業カテゴリー情報の選択を確定させるボタンである。ユーザーがボタンB1をクリック(タップ)した場合(すなわち、ボタンB1の選択が受け付けられると)、表示制御部61は、操作画面P1においてユーザーにより選択された作業カテゴリー情報を、ユーザーが所望する作業カテゴリー情報であると特定する。そして、表示制御部61は、操作画面P1を、図5に示した操作画面P2に遷移させる。図5は、操作画面P2の一例を示す図である。操作画面P2は、操作画面P1に含まれる情報の少なくとも一部が表示制御部61によって他の情報に変更された画面である。
なお、この一例においてユーザーが所望する作業が、エンドエフェクターEにより予め把持された図示しない対象物O1を、対象物O1が挿入される対象物O2であって図示しない対象物O2に挿入させる作業であるため、以下では、図4に示した操作画面P1においてユーザーにより選択された作業カテゴリー情報が、作業カテゴリー情報C2である場合について説明する。
操作画面P2には、GUIとして、作業情報S1と、作業情報S2と、作業情報S3と、ボタンB1、ボタンB4、ボタンB5のそれぞれを含む複数のボタンと、ファイル名入力欄CF1とが含まれている。なお、操作画面P1には、これらのGUIに加えて、他のGUIが含まれる構成であってもよい。また、操作画面P1には、当該これらのGUIの一部又は全部に代えて、他のGUIが含まれる構成であってもよい。
作業情報S1は、作業カテゴリー情報C2に分類されている1以上の作業のそれぞれを示す作業情報(すなわち、作業カテゴリー情報C2に対応付けられた1以上の作業情報)のうちの1つである。図5に示した例では、作業情報S1は、ロボット20により把持された物体である挿入物体を挿入方向にロボット20が移動させ、挿入物体が挿入される挿入部に挿入物体をロボット20が力制御によって挿入させる作業である第1作業を示す情報である。当該挿入部は、挿入物体が挿入される物体である被挿入物体に形成された部位である。また、挿入方向は、挿入物体が挿入部に挿入された状態から、挿入物体を被挿入物体から取り外す方向と逆の方向のことである。また、第1作業は、挿入方向に向かって挿入部を見た場合、挿入部の大きさが、挿入物体の面のうち挿入方向側の面よりも大きい場合の作業である。すなわち、第1作業は、挿入物体が挿入部に挿入された場合、挿入物体と挿入部との間には第1所定値以上の隙間がある場合の作業である。これにより、第1作業では、挿入物体は、挿入方向に向かって真直ぐに移動させた場合、被挿入物体の部位のうち挿入部と異なる部位に接触することなく挿入部に挿入される。
ユーザーが作業情報S1をクリック(タップ)した場合(すなわち、作業情報S1の選択が受け付けられると)、表示制御部61は、作業情報S1が選択されたことを示す情報を操作画面P2に表示させる。例えば、表示制御部61は、当該情報として、作業情報S1の周囲の色を、他の作業情報の周囲の色と異なる色に変える。
作業情報S1には、名称SN1と、画像SM1と、説明文SG1とが含まれる。なお、作業情報S1には、これらの一部又は全部に加えて、他のGUIが含まれる構成であってもよい。また、作業情報S1には、これらの一部又は全部に代えて、他のGUIが含まれる構成であってもよい。
名称SN1は、作業情報S1が示す作業の名称である。図5に示した例では、名称SN1は、「真直ぐに挿入」である。
画像SM1は、作業情報S1が示す作業を表す静止画像又は動画像である。図5に示した例では、画像SM1は、前述の第1作業を表す動画像である。
説明文SG1は、作業情報S1が示す作業が如何なる作業であるのかを説明する文章である。図5に示した例では、説明文SG1は、「隙間に余裕がある場合」である。
作業情報S2は、作業情報S1が示す作業と異なる作業を示す情報である。図5に示した例では、作業情報S2は、前述の挿入物体を挿入方向にロボット20が移動させ、前述の挿入部に挿入物体をロボット20が力制御によって挿入させる作業である第2作業を示す情報である。また、第2作業は、挿入方向に向かって挿入部を見た場合、挿入部の大きさが、挿入物体の面のうち挿入方向側の面よりも僅かに大きい大きさである場合の作業である。すなわち、第2作業は、挿入物体が挿入部に挿入された場合、挿入物体と挿入部との間には第2所定値以上第1所定値未満の隙間がある(当該間の隙間に余裕が少ない)場合の作業である。すなわち、第2作業では、挿入物体は、被挿入物体の部位のうち挿入部と異なる部位に接触する場合がある。このため、第2作業では、ロボット20は、力制御によって挿入部を探りながら挿入物体を挿入方向に移動させる探り動作を行い、挿入物体を挿入部に挿入する。第2作業を力制御によってロボット20に行わせる方法については、既知の方法であってもよく、これから開発される方法であってもよい。
ユーザーが作業情報S2をクリック(タップ)した場合(すなわち、作業情報S2の選択が受け付けられると)、表示制御部61は、作業情報S2が選択されたことを示す情報を操作画面P2に表示させる。例えば、表示制御部61は、当該情報として、作業情報S2の周囲の色を、他の作業情報の周囲の色と異なる色に変える。
作業情報S2には、名称SN2と、画像SM2と、説明文SG2とが含まれる。なお、作業情報S2には、これらの一部又は全部に加えて、他のGUIが含まれる構成であってもよい。また、作業情報S2には、これらの一部又は全部に代えて、他のGUIが含まれる構成であってもよい。
名称SN2は、作業情報S2が示す作業の名称である。図5に示した例では、名称SN2は、「探りつつ真直ぐ挿入」である。
画像SM2は、作業情報S2が示す作業を表す静止画像又は動画像である。図5に示した例では、画像SM1は、前述の第2作業を表す動画像である。
説明文SG2は、作業情報S2が示す作業が如何なる作業であるのかを説明する文章である。図5に示した例では、説明文SG2は、「隙間に余裕が少ない場合」である。
作業情報S3は、作業情報S1と作業情報S2とのそれぞれが示す作業と異なる作業を示す情報である。図5に示した例では、作業情報S3は、前述の挿入物体を挿入方向にロボット20が移動させ、前述の挿入部に挿入物体をロボット20が力制御によって挿入させる作業である第3作業を示す情報である。また、第3作業は、挿入方向に向かって挿入部を見た場合、挿入部の大きさが、挿入物体の面のうち挿入方向側の面とほぼ同じ大きさである場合の作業である。すなわち、第3作業は、挿入物体が挿入部に挿入された場合、挿入物体と挿入部との間の隙間がほぼない(当該間の隙間に余裕がない)場合の作業である。すなわち、第3作業では、挿入物体は、被挿入物体の部位のうち挿入部と異なる部位に接触する場合がある。また、第3作業では、当該隙間がほぼないため、力制御によって挿入部を探るのに要する時間が長くなる場合がある。このため、第3作業では、ロボット20は、挿入物体を挿入方向に移動させつつ挿入物体を被挿入物体に対して傾けることによって挿入物体の一部を挿入部に挿入した後、力制御によって挿入物体の姿勢を変化させながら挿入物体を当該挿入部に挿入する。第3作業を力制御によってロボット20に行わせる方法は、既知の方法であってもよく、これから開発される方法であってもよい。
ユーザーにより作業情報S3がクリック(タップ)された場合(すなわち、作業情報S3の選択が受け付けられると)、表示制御部61は、作業情報S3が選択されたことを示す情報を操作画面P2に表示させる。例えば、表示制御部61は、当該情報として、作業情報S3の周囲の色を、他の作業情報の周囲の色と異なる色に変える。
作業情報S3には、名称SN3と、画像SM3と、説明文SG3とが含まれる。なお、作業情報S3には、これらの一部又は全部に加えて、他のGUIが含まれる構成であってもよい。また、作業情報S3には、これらの一部又は全部に代えて、他のGUIが含まれる構成であってもよい。
名称SN3は、作業情報S3が示す作業の名称である。図5に示した例では、名称SN3は、「一旦傾けて探りつつ挿入」である。
画像SM3は、作業情報S3が示す作業を表す静止画像又は動画像である。図5に示した例では、画像SM3は、前述の第3作業を表す動画像である。
説明文SG3は、作業情報S3が示す作業が如何なる作業であるのかを説明する文章である。図5に示した例では、説明文SG3は、「隙間に余裕がない場合」である。
表示制御部61がこれらの作業情報を表示させる際、表示制御部61は、記憶部52に予め記憶された作業情報を読み出す。そして、表示制御部61は、読み出した作業情報を操作画面P2に表示させる。なお、作業情報の少なくとも一部は、ユーザーにより後から記憶部52に記憶される構成であってもよい。この場合、制御部56は、ユーザーから受け付けた操作に応じた作業情報を生成する生成部を備える。そして、記憶制御部67は、当該生成部が生成した作業情報を、ユーザーから受け付けた操作に応じた作業カテゴリー情報に対応付けて記憶部52に記憶する。また、作業情報のそれぞれの内容(作業情報に含まれる名称、画像、説明文等)は、ユーザーにより後から追加、修正、削除等の編集が可能な構成であってもよい。この場合、制御部56は、ユーザーから受け付けた操作に応じて作業情報を編集する編集部を備える。そして、記憶制御部67は、当該編集部が編集した作業情報を記憶部52に記憶する。
ボタンB5及びボタンB6のそれぞれは、操作画面P2に表示された作業情報(この一例において、作業情報S1〜作業情報S3を、他の作業情報に変えるボタンである。ここで、以下では、一例として、作業情報に順番が対応付けられている場合について説明する。
具体的には、ボタンB5は、作業情報S1〜作業情報S3のそれぞれを操作画面P2から削除し、作業情報S1よりも前の順番に対応付けられた作業情報を操作画面P2に表示させるボタンである。ユーザーによりボタンB5がクリック(タップ)された場合(すなわち、ボタンB5の選択が受け付けられると)、表示制御部61は、作業情報S1〜作業情報S3のそれぞれを操作画面P2から削除し、作業情報S1よりも前の順番に対応付けられた作業情報を操作画面P2に表示させる。
ボタンB6は、作業情報S1〜作業情報S3のそれぞれを操作画面P2から削除し、作業情報S1よりも後の順番に対応付けられた作業情報を操作画面P2に表示させるボタンである。ユーザーによりボタンB6がクリック(タップ)された場合(すなわち、ボタンB6の選択が受け付けられると)、表示制御部61は、作業情報S1〜作業情報S3のそれぞれを操作画面P2から削除し、作業情報S3よりも後の順番に対応付けられた作業情報を操作画面P2に表示させる。
ボタンB4は、操作画面P2においてユーザーが作業情報の選択を確定させるボタンである。ユーザーによりボタンB4がクリック(タップ)された場合(すなわち、ボタンB4の選択が受け付けられると)、表示制御部61は、操作画面P2においてユーザーにより選択された作業情報を、ユーザーが所望する作業情報であると特定する。そして、表示制御部61は、操作画面P2を、図6に示した操作画面P3に遷移させる。図6は、操作画面P3の一例を示す図である。操作画面P3は、操作画面P2に含まれる情報の少なくとも一部が表示制御部61によって他の情報に変更された画面である。
なお、この一例においてユーザーが所望する作業が、エンドエフェクターEにより予め把持された図示しない対象物O1を、対象物O1が挿入される対象物O2であって図示しない対象物O2に挿入させる作業であるため、以下では、図5に示した操作画面P2においてユーザーにより選択された作業情報が作業情報S2である場合について説明する。
操作画面P3は、図5に示した操作画面P2においてユーザーにより選択された作業に応じたパラメーター、ユーザーが制御点Tの位置及び姿勢を一致させたい所望の位置及び姿勢、前述の終了条件等を受け付ける画面である。操作画面P3には、GUIとして、タブTB1〜タブTB4のそれぞれと、領域TBRと、領域MM1と、領域FMと、領域GG1と、ファイル名入力欄CF2と、ファイル名入力欄CF3と、ボタンB7及びボタンB8のそれぞれを含む複数のボタンとが含まれている。なお、操作画面P3には、これらのGUIに加えて、他のGUIが含まれる構成であってもよい。また、操作画面P3には、当該これらのGUIの一部又は全部に代えて、他のGUIが含まれる構成であってもよい。
タブTB1〜タブTB4のそれぞれは、領域TBRに表示するGUIを、それぞれのタブに応じたGUIに切り替えるタブである。タブTB1〜タブTB4のいずれかがユーザーによりクリック(タップ)された場合、表示制御部61は、領域TBRに表示するGUIを、ユーザーによりクリック(タップ)されたタブに応じたGUIに切り替える。また、当該場合、表示制御部61は、当該タブに応じた説明文を領域GG1に表示させる。すなわち、領域GG1は、当該説明文が表示される領域である。また、当該場合、表示制御部61は、当該タブに応じた画像を領域MM1に表示させる。すなわち、領域MM1は、当該画像が表示される領域である。当該画像は、静止画像であってもよく、動画像であってもよい。なお、図6〜図9に示した例では、これらのタブは、タブTB1〜タブTB4の4つのタブであったが、3つ以下のタブであってもよく、5以上のタブであってもよい。
タブTB1は、ユーザーが制御点Tの位置及び姿勢を一致させたい所望の位置及び姿勢として、作業開始位置及び作業開始姿勢を受け付けるGUIを領域TBRに表示させるタブである。作業開始位置は、ステップS110においてユーザーにより選択された作業の開始時においてユーザーが制御点Tの位置を一致させたい所望の位置のことである。作業開始姿勢は、当該作業の開始時においてユーザーが制御点Tの姿勢を一致させたい所望の姿勢を一致させる位置のことである。
ユーザーによりタブTB1がクリック(タップ)された場合(すなわち、タブTB1の選択が受け付けられると)、表示制御部61は、例えば、図6に示したジョグキーJG1と、領域JG2とのそれぞれを領域TBRに表示させる。すなわち、領域TBRは、ユーザーによりクリックされたタブに応じたGUIが表示される領域である。また、図6に示した操作画面P3は、ユーザーによってタブTB1がクリック(タップ)された場合の操作画面P3の一例である。なお、表示制御部61は、当該場合、ジョグキーJG1と、領域JG2とのうちいずれか一方又は両方に加えて、他のGUIを領域TBRに表示させる構成であってもよい。また、表示制御部61は、当該場合、ジョグキーJG1と、領域JG2とのうちいずれか一方又は両方に代えて、他のGUIを領域TBRに表示させる構成であってもよい。
ジョグキーJG1は、ユーザーから受け付けた操作(すなわち、ジョグ操作)に基づいてロボット20を動作させるソフトウェアキーである。ユーザーによりジョグキーJG1が操作された場合、ロボット制御部69は、当該操作に応じてロボット20の制御点Tの位置及び姿勢を変化させる。すなわち、ロボット制御部69は、当該操作に応じた動作をロボット20に行わせる指示をロボット制御装置40に出力する。その結果、ロボット制御装置40は、情報処理装置50から取得した当該指示に基づいて、当該動作をロボット20に行わせる。これにより、ユーザーは、ジョグキーJG1を操作することによって、制御点Tの位置及び姿勢を、所望の位置及び姿勢、すなわち作業開始位置及び作業開始姿勢と一致させることができる。この一例において、作業開始位置は、対象物O2に形成された挿入部であって対象物O1が挿入される挿入部O21の底面から挿入方向に沿って所定距離だけ離れた位置である。所定距離は、作業開始位置に対象物O1(すなわち、制御点T)の位置を一致させた場合、対象物O1の全体が挿入部O21に含まれない距離であれば、如何なる距離であってもよい。また、作業開始姿勢は、挿入部O21に対象物O1が挿入された状態における対象物O1の姿勢である。
また、ユーザーによりタブTB1がクリック(タップ)された場合、表示制御部61は、タブTB1に応じた説明文を領域GG1に表示させる。図6に示した例では、表示制御部61が領域GG1に表示させた説明文は、「ワークが穴部の周囲に接触しない挿入の開始ポイントを指定して下さい。」である。
また、ユーザーによりタブTB1がクリック(タップ)された場合、表示制御部61は、タブTB1に応じた画像を領域MM1に表示させる。図6に示した例では、表示制御部61が領域MM1に表示させた画像は、対象物O1(すなわち、制御点T)の位置及び姿勢が作業開始位置及び作業開始姿勢と一致している状態においてエンドエフェクターEにより把持された対象物O1と、対象物O1が挿入される前の対象物O2との状態を示す三次元静止画像である。
領域JG2は、ジョグキーJG1から受け付けたユーザーからの操作に基づいて移動した制御点Tの位置及び姿勢を表示する領域である。図6に示した例では、領域JG2には、当該制御点Tのロボット座標系RCにおけるX軸座標、Y軸座標、Z軸座標、U軸座標、V軸座標、W軸座標のそれぞれが表示されている。U軸座標は、制御点座標系TCのX軸周りに回動させる方向及び回動角(すなわち、座標)を表す座標軸であるU軸の座標である。V軸座標は、制御点座標系TCのY軸周りに回動させる方向及び回動角(すなわち、座標)を表す座標軸であるV軸の座標である。W軸座標は、制御点座標系TCのZ軸周りに回動させる方向及び回動角(すなわち、座標)を表す座標軸であるW軸の座標である。
タブTB2は、図5に示した操作画面P2においてユーザーにより選択された作業情報が示す作業において、対象物O1を挿入部O21に挿入する際に、ロボット20によって対象物O1に作用させる力及び回転モーメントのそれぞれを受け付けるGUIを領域TBRに表示させるタブである。以下では、説明の便宜上、当該力及び当該回転モーメントをまとめて作用力と称して説明する。
ユーザーによりタブTB2がクリック(タップ)された場合(すなわち、タブTB2の選択が受け付けられると)、表示制御部61は、図6に示した操作画面P3を、図7に示した操作画面P3に遷移させる。図7は、ユーザーによりタブTB2がクリックされた後の操作画面P3の一例を示す図である。
図7に示した操作画面P3では、領域TBRにおいて、ジョグキーJG1と、領域JG3と、ボタンB9と、ボタンB10とのそれぞれが表示されている。表示制御部61は、ユーザーによりタブTB2がクリック(タップ)された場合、領域TBRにおいて、ジョグキーJG1と、領域JG3と、ボタンB9と、ボタンB10とのそれぞれを表示する。なお、当該操作画面P3では、領域TBRにおいて、これらのGUIに加えて、他のGUIが表示される構成であってもよい。また、当該操作画面P3では、領域TBRにおいて、当該これらのGUIの一部又は全部に代えて、他のGUIが含まれる構成であってもよい。
領域JG3は、図5に示した操作画面P2においてユーザーにより選択された作業情報が示す作業において、対象物O1を挿入部O21に挿入する際に、ロボット20によって対象物O1に作用させる作用力のそれぞれをユーザーが入力する複数の入力欄が表示される領域である。ユーザーは、当該入力欄によって、当該作用力のそれぞれを入力することができる。また、当該入力欄のそれぞれには、ユーザーにより値が入力されていない場合、それぞれの入力欄に入力される作用力に応じたデフォルト値が入力されている。すなわち、表示制御部61は、操作画面P3に領域JG3を表示させた場合、当該デフォルト値が入力された当該入力欄を表示させる。
また、ユーザーによりタブTB2がクリック(タップ)された場合、表示制御部61は、タブTB2に応じた説明文を領域GG1に表示させる。図7に示した例では、表示制御部61が領域GG1に表示させた説明文は、「穴に入る時のフォースの値と方向です。」である。
ボタンB9は、ロボット20を動作させ、領域JG3の入力欄に入力された作用力を対象物O1に作用させる動作をロボット20に行わせるボタンである。ユーザーによりボタンB9がクリック(タップ)された場合(すなわち、ボタンB9の選択が受け付けられると)、ロボット制御部69は、ロボット20を動作させ、領域JG3の入力欄に入力された作用力を対象物O1に作用させる動作をロボット20に行わせる。当該場合において、表示制御部61は、力検出情報取得の指示を所定時間が経過する毎にロボット制御装置40に出力する。所定時間は、例えば、0.1秒である。なお、所定時間は、0.1秒に代えて、他の時間であってもよい。表示制御部61は、当該指示の応答としてロボット制御装置40から力検出情報を取得する。表示制御部61は、取得した力検出情報が示す外力のそれぞれの時間変化を示すグラフを領域FMに表示させる。すなわち、領域FMは、当該グラフを表示させる領域である。これにより、例えば、ユーザーによりボタンB9がクリック(タップ)された場合であって、対象物O1が動かないように固定されている場合、ロボット20が領域JG3の入力欄に入力された作用力を対象物O1に作用させているか否かを確認することができる。なお、当該グラフは、力検出部からの出力値に基づく情報の一例である。
ボタンB10は、領域JG3の入力欄のそれぞれにユーザーが入力した値をすべて削除し、当該入力欄のそれぞれに、当該それぞれの入力欄に入力される作用力に応じたデフォルト値を入力するボタンである。ユーザーによりボタンB10がクリック(タップ)された場合(すなわち、ボタンB10の選択が受け付けられると)、表示制御部61は、当該入力欄のそれぞれに入力された値をすべて削除し、当該入力欄のそれぞれに、当該それぞれの入力欄に入力される作用力に応じたデフォルト値を入力する。
また、図7に示した操作画面P3では、領域MM1において、タブTB2に応じた画像が表示されている。表示制御部61は、ユーザーによりタブTB2がクリック(タップ)された場合、それまで領域MM1に表示されていた画像に代えて、タブTB2に応じた画像を表示させる。図7に示した例では、領域MM1には、タブTB2に応じた画像として、対象物O1が挿入部O21に挿入された状態を表す画像が表示されている。
タブTB3は、図5に示した操作画面P2においてユーザーにより選択された作業情報が示す作業において、力制御によるロボット20の動作を終了させる終了条件を受け付けるGUIを領域TBRに表示させるタブである。ここで、終了条件は、当該作業の終了時において対象物O1に作用させたい所望の外力であって力検出部21により検出される外力のそれぞれによって表される。
ユーザーによりタブTB3がクリック(タップ)された場合(すなわち、タブTB3の選択が受け付けられると)、表示制御部61は、図7に示した操作画面P3を、図8に示した操作画面P3に遷移させる。図8は、ユーザーによりタブTB3がクリックされた後の操作画面P3の一例を示す図である。
図8に示した操作画面P3では、領域TBRにおいて、ジョグキーJG1と、領域JG4と、ボタンB11とのそれぞれが表示されている。表示制御部61は、ユーザーによりタブTB3がクリック(タップ)された場合、領域TBRにおいて、ジョグキーJG1と、領域JG3と、ボタンB9と、ボタンB10とのそれぞれを表示する。なお、当該操作画面P3では、領域TBRにおいて、これらのGUIに加えて、他のGUIが表示される構成であってもよい。また、当該操作画面P3では、領域TBRにおいて、当該これらのGUIの一部又は全部に代えて、他のGUIが含まれる構成であってもよい。
領域JG4は、図5に示した操作画面P2においてユーザーにより選択された作業情報が示す作業において、力制御によるロボット20の動作を終了させる終了条件を表す外力のそれぞれをユーザーが入力する複数の入力欄が表示される領域である。ユーザーは、当該入力欄によって、当該外力のそれぞれを入力することができる。また、当該入力欄のそれぞれには、ユーザーにより値が入力されていない場合、それぞれの入力欄に入力される外力のそれぞれに応じたデフォルト値が入力されている。すなわち、表示制御部61は、操作画面P3に領域JG4を表示させた場合、当該デフォルト値が入力された当該入力欄を表示させる。
また、ユーザーによりタブTB3がクリック(タップ)された場合、表示制御部61は、タブTB3に応じた説明文を領域GG1に表示させる。図8に示した例では、表示制御部61が領域GG1に表示させた説明文は、「フォースの下限値です。これはワークの挿入が完了したと判断するための値です。」である。
ボタンB11は、領域JG4の入力欄のそれぞれにユーザーが入力した値をすべて削除し、当該入力欄のそれぞれに、当該それぞれの入力欄に入力される外力に応じたデフォルト値を入力するボタンである。ユーザーによりボタンB11がクリック(タップ)された場合(すなわち、ボタンB11の選択が受け付けられると)、表示制御部61は、当該入力欄のそれぞれに入力された値をすべて削除し、当該入力欄のそれぞれに、当該それぞれの入力欄に入力される外力に応じたデフォルト値を入力する。
また、図8に示した操作画面P3では、領域MM1において、タブTB3に応じた画像が表示されている。表示制御部61は、ユーザーによりタブTB3がクリック(タップ)された場合、それまで領域MM1に表示されていた画像に代えて、タブTB3に応じた画像を表示させる。図8に示した例では、領域MM1には、タブTB3に応じた画像として、対象物O1が挿入部O21に挿入された状態を表す画像が表示されている。この一例において、図8に示した領域MM1に表示された画像と、図7に示した領域MM1に表示された画像とは、同じ画像であるが、異なる画像であってもよい。
タブTB4は、図5に示した操作画面P2においてユーザーにより選択された作業情報が示す作業において、力制御のパラメーターを受け付けるGUIを領域TBRに表示させるタブである。ここで、この一例における力制御がインピーダンス制御であるため、当該パラメーターは、インピーダンスパラメーターである。すなわち、当該パラメーターは、仮想慣性係数と、仮想粘性係数と、仮想弾性係数とのそれぞれである。当該力制御によるロボット20の挙動は、これらのインピーダンスパラメーターによって決まる。
ユーザーによりタブTB4がクリック(タップ)された場合(すなわち、タブTB4の選択が受け付けられると)、表示制御部61は、図8に示した操作画面P3を、図9に示した操作画面P3に遷移させる。図9は、ユーザーによりタブTB3がクリックされた後の操作画面P3の一例を示す図である。
図9に示した操作画面P3では、領域TBRにおいて、領域JG5と、ボタンB12とのそれぞれが表示されている。表示制御部61は、ユーザーによりタブTB4がクリック(タップ)された場合、領域TBRにおいて、領域JG5と、ボタンB12とのそれぞれを表示する。なお、当該操作画面P3では、領域TBRにおいて、これらのGUIに加えて、他のGUIが表示される構成であってもよい。また、当該操作画面P3では、領域TBRにおいて、当該これらのGUIの一部又は全部に代えて、他のGUIが含まれる構成であってもよい。
領域JG5は、図5に示した操作画面P2においてユーザーにより選択された作業情報が示す作業において、当該作業に応じたパラメーター(この一例において、力制御のパラメーター)のそれぞれをユーザーが入力する複数の入力欄が表示される領域である。ユーザーは、当該入力欄によって、当該パラメーターのそれぞれを入力することができる。また、当該入力欄のそれぞれには、ユーザーにより値が入力されていない場合、それぞれの入力欄に入力されるパラメーターに応じたデフォルト値が入力されている。すなわち、表示制御部61は、操作画面P3に領域JG5を表示させた場合、当該デフォルト値が入力された当該入力欄を表示させる。
また、ユーザーによりタブTB4がクリック(タップ)された場合、表示制御部61は、タブTB4に応じた説明文を領域GG1に表示させる。図9に示した例では、表示制御部61が領域GG1に表示させた説明文は、「ハンドの動きの柔らかさです。」である。
ボタンB12は、領域JG5の入力欄のそれぞれにユーザーが入力した値をすべて削除し、当該入力欄のそれぞれに、当該それぞれの入力欄に入力されるパラメーターに応じたデフォルト値を入力するボタンである。ユーザーによりボタンB12がクリック(タップ)された場合(すなわち、ボタンB12の選択が受け付けられると)、表示制御部61は、当該入力欄のそれぞれに入力された値をすべて削除し、当該入力欄のそれぞれに、当該それぞれの入力欄に入力されるパラメーターに応じたデフォルト値を入力する。
また、図9に示した操作画面P3では、領域MM1において、タブTB4に応じた画像が表示されている。表示制御部61は、ユーザーによりタブTB4がクリック(タップ)された場合、それまで領域MM1に表示されていた画像に代えて、タブTB4に応じた画像を表示させる。図9に示した例では、領域MM1には、タブTB4に応じた画像として、領域JG5に入力されたパラメーターに基づく力制御によって、図5に示した操作画面P2においてユーザーにより選択された作業情報が示す作業をロボット20が行った場合のロボット20の動作の三次元シミュレーションを行った結果の動画像が表示されている。ユーザーが領域JG5の入力欄に力制御のパラメーターのそれぞれを入力した場合、設定部63は、当該入力欄に入力されたパラメーターのそれぞれをシミュレーション部65に設定する。シミュレーション部65は、設定部63により設定された力制御のパラメーターのそれぞれに基づく力制御によって、図5に示した操作画面P2においてユーザーにより選択された作業情報が示す作業をロボット20が行った場合のロボット20の動作の三次元シミュレーションを行う。そして、シミュレーション部65は、当該三次元シミュレーションの結果の動画像を生成する。表示制御部61は、シミュレーション部65が生成した当該動画像を領域MM1に表示させる。
ボタンB7は、図6に示した領域JG2に表示された位置(この一例において、作業開始位置)を示す教示点位置情報と、当該領域JG2に表示された姿勢(この一例において、作業開始姿勢)とが対応付けられた教示点(ポイント)を示す教示点情報を、ファイル名入力欄CF2に入力されたファイル名に対応付けて記憶部52に記憶させるボタンである。すなわち、ファイル名入力欄CF2は、ユーザーが当該ファイル名を入力する入力欄である。また、ボタンB7は、図7に示した領域JG3においてユーザーが入力した作用力を示す情報である作用力情報を、ファイル名入力欄CF3に入力されたファイル名に対応付けて記憶部52に記憶させるボタンである。すなわち、ファイル名入力欄CF3は、ユーザーが当該ファイル名を入力する入力欄である。また、ボタンB7は、当該教示点情報と、図8に示した領域JG4においてユーザーが入力した終了条件を示す終了条件情報と、図9に示した領域JG5においてユーザーが入力した力制御のパラメーターを示すパラメーター情報とを対応付けた教示情報を、図4及び図5に示したファイル名入力欄CF1に入力されたファイル名に対応付けて記憶部52に記憶させるボタンである。
ユーザーによりボタンB7がクリック(タップ)された場合(すなわち、ボタンB7の選択が受け付けられると)、記憶制御部67は、現在の制御点Tの位置及び姿勢、すなわち領域JG2に表示された位置及び姿勢を作業開始位置及び作業開始姿勢であると特定する。記憶制御部67は、特定した作業開始位置を示す教示点位置情報、及び作業開始姿勢を示す教示点姿勢情報が対応付けられた教示点を示す教示点情報を生成する。記憶制御部67は、生成した教示点情報を、ファイル名入力欄CF2に入力されたファイル名に対応付けて記憶部52に記憶させる。また、当該場合、記憶制御部67は、領域JG3の入力欄に入力された作用力を示す作用力情報を生成する。記憶制御部67は、生成した作用力情報を、ファイル名入力欄CF3に入力されたファイル名に対応付けて記憶部52に記憶させる。また、当該場合、記憶制御部67は、図8に示した領域JG4の入力欄に入力された終了条件を示す終了条件情報を生成する。また、記憶制御部67は、図9に示した領域JG5の入力欄に入力された力制御のパラメーターを示すパラメーター情報を生成する。記憶制御部67は、生成した当該教示点情報と、生成した当該終了条件情報と、生成した当該パラメーター情報とを対応付けた教示情報を、ファイル名入力欄CF1に入力されたファイル名に対応付けて記憶部52に記憶させる。
ボタンB8は、図6に示した操作画面P3においてユーザーが操作画面P3における操作を終了させるボタンである。ユーザーによりボタンB8がクリック(タップ)された場合(すなわち、ボタンB8の選択が受け付けられると)、送信制御部71は、記憶部52に記憶された最新の教示情報を記憶部52から読み出す。そして、送信制御部71は、読み出した教示情報をロボット制御装置40に出力し、ロボット制御装置40に記憶させる。
<情報処理装置がロボットに行わせる作業に応じたパラメーターを受け付ける処理>
以下、図10を参照し、情報処理装置50が操作画面からロボット20に行わせる作業に応じたパラメーターを受け付ける処理について説明する。図10は、情報処理装置50が操作画面からロボット20に行わせる作業に応じたパラメーターを受け付ける処理の流れの一例を示すフローチャートである。なお、以下では、一例として、操作画面P1においてユーザーが作業カテゴリー情報C2を選択し、操作画面P2においてユーザーが作業情報S2を選択する場合について説明する。
表示制御部61は、ユーザーから受け付けた操作に基づいて、記憶部52に予め記憶された作業カテゴリー情報を読み出す。表示制御部61は、読み出した作業カテゴリー情報に基づいて、前述の操作画面P1を生成する。表示制御部61は、生成した操作画面P1を表示部55に表示させる(ステップS105)。次に、表示制御部61は、操作画面P1においてユーザーが作業カテゴリー情報C2を選択した後にボタンB1をクリック(タップ)するまで待機する。表示制御部61は、操作画面P1においてユーザーが作業カテゴリー情報C2を選択した後にボタンB1をクリック(タップ)した場合、ユーザーが所望する作業カテゴリー情報が作業カテゴリー情報C2であると特定する(ステップS107)。そして、表示制御部61は、記憶部52に予め記憶された作業情報を読み出す。表示制御部61は、読み出した作業情報に基づいて、操作画面P1を操作画面P2に遷移させる。
次に、表示制御部61は、操作画面P2においてユーザーが作業情報S2を選択した後にボタンB4をクリック(タップ)するまで待機する。表示制御部61は、操作画面P2においてユーザーが作業情報S2を選択した後にボタンB4をクリック(タップ)した場合、ユーザーが所望する作業情報が作業情報S2であると特定する(ステップS110)。そして、表示制御部61は、操作画面P2を図6に示した操作画面P3に遷移させる。なお、ステップS110において、ファイル名入力欄CF1には、ユーザーからファイル名が入力されたとして、以下の処理を説明する。
次に、表示制御部61は、図6に示した操作画面P3におけるジョグキーJG1をユーザーが操作することにより、ユーザーが制御点Tの位置及び姿勢を一致させたい所望の位置及び姿勢に制御点Tの位置及び姿勢を一致させた後にタブTB2をクリック(タップ)するまで待機する。表示制御部61は、図6に示した操作画面P3におけるジョグキーJG1をユーザーが操作することにより、ユーザーが制御点Tの位置及び姿勢を一致させたい所望の位置及び姿勢に制御点Tの位置及び姿勢を一致させた後にタブTB2をクリック(タップ)した場合、領域JG2に表示された位置及び姿勢を作業開始位置及び作業開始姿勢として受け付け(ステップS120)、図6に示した操作画面P3を図7に示した操作画面P3に遷移させる。なお、ステップS120において、ファイル名入力欄CF2及びファイル名入力欄CF3のそれぞれには、ユーザーからファイル名が入力されたとして、以下の処理を説明する。
次に、表示制御部61は、図7に示した操作画面P3における領域JG3の入力欄において、ユーザーが所望の作用力を入力した後にタブTB3をクリック(タップ)するまで待機する。表示制御部61は、図7に示した操作画面P3における領域JG3の入力欄において、ユーザーが所望の作用力を入力した後にタブTB3をクリック(タップ)した場合、当該入力欄に入力された作用力を受け付け(ステップS140)、図7に示した操作画面P3を図8に示した操作画面P3に遷移させる。
次に、表示制御部61は、図8に示した操作画面P3における領域JG4の入力欄において、ユーザーが所望の終了条件を入力した後にタブTB4をクリック(タップ)するまで待機する。表示制御部61は、図8に示した操作画面P3における領域JG4の入力欄において、ユーザーが所望の終了条件を入力した後にタブTB4をクリック(タップ)した場合、当該入力欄に入力された終了条件を受け付け(ステップS150)、図8に示した操作画面P3を図9に示した操作画面P3に遷移させる。
次に、表示制御部61は、図9に示した操作画面P3における領域JG5の入力欄において、ユーザーが所望する力制御のパラメーターを入力した後にボタンB7をクリック(タップ)するまで待機する。表示制御部61は、図9に示した操作画面P3における領域JG5の入力欄において、ユーザーが所望する力制御のパラメーターを入力した後にボタンB7をクリック(タップ)した場合、当該入力欄に入力された力制御のパラメーターを受け付ける(ステップS160)。
次に、記憶制御部67は、各種の情報を生成する(ステップS170)。具体的には、記憶制御部67は、ステップS120において表示制御部61が受け付けた作業開始位置を示す教示点位置情報と、ステップS120において表示制御部61が受け付けた作業開始姿勢を示す教示点姿勢情報とを生成する。記憶制御部67は、生成した教示点位置情報及び教示点姿勢情報が対応付けられた教示点を示す教示点情報を生成する。また、記憶制御部67は、ステップS140において表示制御部61が受け付けた作用力を示す作用力情報を生成する。また、記憶制御部67は、ステップS150において表示制御部61が受け付けた終了条件を示す終了条件情報を生成する。また、記憶制御部67は、ステップS160において表示制御部61が受け付けた力制御のパラメーターを示すパラメーター情報を生成する。また、記憶制御部67は、生成した教示点情報と、生成した終了条件情報と、生成したパラメーター情報とを対応付けた教示情報を生成する。そして、記憶制御部67は、生成した教示点情報を、ファイル名入力欄CF2に入力されたファイル名に対応付けて記憶部52に記憶させる。また、記憶制御部67は、生成した作用力情報を、ファイル名入力欄CF3に入力されたファイル名に対応付けて記憶部52に記憶させる。また、記憶制御部67は、生成した教示情報を、ファイル名入力欄CF1に入力されたファイル名に対応付けて記憶部52に記憶させる。
次に、表示制御部61は、ユーザーがボタンB8をクリックするまで待機する。ユーザーがボタンB8をクリックした場合、表示制御部61は、操作画面P3を表示部55から削除する。そして、送信制御部71は、記憶部52に記憶された教示情報のうち最新の教示情報をロボット制御装置40に出力し、ロボット制御装置40に記憶させる(ステップS180)。その後、制御部56は、処理を終了する。
このように、情報処理装置50は、ステップS105〜ステップS180のような処理を行うことによって、操作画面を表示し、作業情報の選択が受け付けられると(すなわち、ユーザーによりある作業情報が選択された場合)、選択された当該作業情報が示すロボット20の作業に応じたパラメーターを受け付け、受け付けたパラメーターに基づくロボット20の動作を表す情報を操作画面に表示させる。これにより、情報処理装置50は、ロボット20に行わせる作業に応じたパラメーターの入力をユーザーに容易に行わせることができる。
なお、上記のフローチャートにおいてステップS120〜ステップS160の処理の順は、他の順であってもよい。
また、上記において説明した実施形態では、情報処理装置50は、ユーザーから受け付けた操作に基づいて、領域MM1に表示させる画像に含まれる挿入物体と被挿入物体とのそれぞれの形状を、ユーザーが所望する形状にすることが可能な構成であってもよい。この場合、表示制御部61は、当該形状を示す情報を入力する操作画面と、当該形状を示す情報を選択する操作画面とのうちの少なくとも一方を生成し、生成した操作画面を表示部55に表示させる。
また、ステップS110において、ユーザーが作業情報S3を選択した場合(すなわち、作業情報S3の選択が受け付けられると)、表示制御部61は、図6に示した操作画面P3に代えて、図11に示した操作画面P3を表示させる。図11は、ユーザーが作業情報S3を選択した場合に表示される操作画面P3の一例を示す図である。作業情報S3が示す作業では、2段階の力制御が行われる。1段階目の力制御では、ロボット20は、挿入物体を挿入方向に移動させつつ挿入物体を被挿入物体に対して傾けることによって挿入物体の一部を挿入部に挿入した状態において、力制御によって挿入物体の姿勢を変化させ、挿入物体の姿勢を、挿入物体を挿入方向に並進させることによって挿入物体が挿入部に挿入される姿勢と一致させる。2段階目の力制御では、ロボット20は、挿入物体を挿入方向に力制御によって挿入させる。
図11に示した操作画面P3は、このような1段階目の力制御における作業開始位置及び作業開始姿勢と、作用力と、終了条件と、力制御のパラメーターとを受け付ける画面である。図11に示した操作画面P3では、領域MM1に表示されている画像が、図6に示した操作画面P3に含まれる領域MM1に表示された画像と異なる。また、図11に示した操作画面P3では、領域GG1に表示されている説明文が、図6に示した操作画面P3に含まれる領域GG1に表示された説明文と異なる。
図11に示した領域MM1には、タブTB1に応じた画像として、ロボット20が、挿入物体を挿入方向に移動させつつ挿入物体を被挿入物体に対して傾けることによって挿入物体の一部を挿入部に挿入した状態を示す三次元静止画像である。また、図11に示した領域GG1には、タブTB1に応じた説明文として、「ワークの下の面が穴部に入るポイントを指定してください」という説明文が表示されている。
図11に示した操作画面P3において、1段階目の力制御における作業開始位置及び作業開始姿勢と、作用力と、終了条件と、力制御のパラメーターとを受け付けられた場合、表示制御部61は、図11に示した操作画面P3を図12に示した操作画面P3に遷移させる。図12は、1段階目の力制御における作業開始位置及び作業開始姿勢と、作用力と、終了条件と、力制御のパラメーターとを受け付けられた後の操作画面P3の一例を示す図である。
図12に示した操作画面P3は、2段階目の力制御における作業開始位置及び作業開始姿勢と、作用力と、終了条件と、力制御のパラメーターとを受け付ける画面である。図12に示した操作画面P3では、領域MM1に表示されている画像が、図6に示した操作画面P3に含まれる領域MM1に表示された画像と同じである。なお、これらの画像は、互いに異なる画像であってもよい。また、図12に示した操作画面P3では、領域GG1に表示されている説明文が、図6に示した操作画面P3に含まれる領域GG1に表示された説明文と異なる。また、図12に示した領域GG1には、タブTB1に応じた説明文として、「X及び−Z方向に押し付けつつ挿入方向へ角度変更します。ポイントを指定して下さい。」という説明文が表示されている。
このように、情報処理装置50は、複数段階毎の力制御における作業開始位置及び作業開始姿勢と、作用力と、終了条件と、力制御のパラメーターとを受け付けることも可能である。
以上のように、情報処理装置50(すなわち、制御装置30)は、操作画面(この一例において、操作画面P1〜操作画面P3)を表示し、作業情報の選択が受け付けられると、選択された当該作業情報が示すロボット20の作業に応じたパラメーター(この一例において、力制御のパラメーター)を受け付け、受け付けたパラメーターに基づくロボット20の動作を表す情報を操作画面に表示させる。これにより、情報処理装置50は、ロボット20に行わせる作業に応じたパラメーターの入力をユーザーに容易に行わせることができる。
また、情報処理装置50は、ロボット20が行う複数の作業のそれぞれを示す作業情報の一部又は全部は、記憶部(この一例において、記憶部52)に予め記憶された作業情報が示す作業である。これにより、情報処理装置50は、記憶部に記憶された作業情報に基づいて、ロボット20に行わせる作業に応じたパラメーターの入力をユーザーに容易に行わせることができる。
また、情報処理装置50は、パラメーターを受け付けていない場合、パラメーターをデフォルト値に設定する。これにより、情報処理装置50は、パラメーターのデフォルト値に基づいて、ロボットに行わせる作業に応じたパラメーターの入力をユーザーに容易に行わせることができる。
また、情報処理装置50は、ユーザーによりある作業情報が選択された場合、選択された当該作業情報が示すロボット20の作業に応じたパラメーターであって力検出部(この一例において、力検出部21)からの出力値に基づいてロボット20を制御するためのパラメーターを受け付け、受け付けたパラメーターに基づくロボット20の動作を表す情報を操作画面に表示させる。これにより、情報処理装置50は、ロボットに行わせる作業に応じたパラメーターであって力検出部からの出力値に基づいてロボットを制御するためのパラメーターの入力をユーザーに容易に行わせることができる。
また、情報処理装置50は、ユーザーによりある作業情報が選択された場合、選択された当該作業情報が示すロボット20の作業に応じたパラメーターであってインピーダンス制御によってロボット20を制御するためのパラメーターを受け付け、受け付けたパラメーターに基づくロボット20の動作を表す情報を操作画面に表示させる。これにより、情報処理装置50は、ロボット20に行わせる作業に応じたパラメーターであってインピーダンス制御によってロボット20を制御するためのパラメーターの入力をユーザーに容易に行わせることができる。
また、情報処理装置50は、操作画面上において、力検出部からの出力値に基づくロボット20の制御を終了させる終了条件を受け付け、受け付けた終了条件に基づくロボット20の動作を表す情報を操作画面に表示させる。これにより、情報処理装置50は、力検出部からの出力値に基づくロボット20の制御を終了させる終了条件の入力をユーザーに容易に行わせることができる。
また、情報処理装置50は、操作画面に力検出部からの出力値に基づく情報(この一例において、領域FMに表示されたグラフ)を表示させる。これにより、情報処理装置50は、操作画面に表示させた力検出部からの出力値に基づく情報に基づいて、ロボット20に行わせる作業に応じたパラメーターであって力検出部からの出力値に基づいてロボット20を制御するためのパラメーターの入力をユーザーに容易に行わせることができる。
また、情報処理装置50は、操作画面から受け付けたパラメーターを記憶部に記憶させるボタンの選択が受け付けられると、当該パラメーターを示すパラメーター情報を記憶部に記憶させる。これにより、情報処理装置50は、記憶部に記憶させたパラメーター情報を他の装置(例えば、ロボット制御装置40)に出力することができる。
また、情報処理装置50は、ユーザーによりある作業情報が選択された場合、選択された当該作業情報が示すロボット20の作業に応じたパラメーターを受け付け、受け付けたパラメーターに基づくロボット20の動作のシミュレーション結果を操作画面に表示させる。これにより、情報処理装置50は、操作画面に表示させたロボット20の動作のシミュレーション結果に基づいて、ロボット20に行わせる作業に応じたパラメーターの入力をユーザーに容易に行わせることができる。
また、情報処理装置50は、ユーザーによりある作業情報が選択された場合、選択された当該作業情報が示すロボット20の作業に応じたパラメーターを受け付け、受け付けたパラメーターに基づくロボット20の動作の三次元シミュレーション結果を操作画面に表示させる。これにより、情報処理装置50は、操作画面に表示させたロボット20の動作の三次元シミュレーション結果に基づいて、ロボット20に行わせる作業に応じたパラメーターの入力をユーザーに容易に行わせることができる。
また、制御装置30に制御されるロボット20は、制御装置30が受け付けたパラメーターに基づく動作を行うことができる。これにより、ロボット20は、ユーザーが所望する動作を含む作業を精度よく行うことができる。
以上、この発明の実施形態を、図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない限り、変更、置換、削除等されてもよい。
また、以上に説明した装置(例えば、情報処理装置50、ロボット制御装置40、制御装置30)における任意の構成部の機能を実現するためのプログラムを、コンピューター読み取り可能な記録媒体に記録し、そのプログラムをコンピューターシステムに読み込ませて実行するようにしてもよい。なお、ここでいう「コンピューターシステム」とは、OS(Operating System)や周辺機器等のハードウェアを含むものとする。また、「コンピューター読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD(Compact Disk)−ROM等の可搬媒体、コンピューターシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピューター読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバーやクライアントとなるコンピューターシステム内部の揮発性メモリー(RAM)のように、一定時間プログラムを保持しているものも含むものとする。
また、上記のプログラムは、このプログラムを記憶装置等に格納したコンピューターシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピューターシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。
また、上記のプログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、上記のプログラムは、前述した機能をコンピューターシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
1…ロボットシステム、20…ロボット、30…制御装置、40…ロボット制御装置、50…情報処理装置、51…CPU、52…記憶部、53…入力受付部、54…通信部、55…表示部、56…制御部、61…表示制御部、63…設定部、65…シミュレーション部、66…情報生成部、67…記憶制御部、69…ロボット制御部、71…送信制御部

Claims (11)

  1. 力検出部を備えたロボットが行う複数の作業のそれぞれを示す作業情報が表示された画面である操作画面を表示し、前記作業情報の選択が受け付けられると、選択された当該前記作業情報が示す前記ロボットの作業に応じたパラメーターを受け付け、受け付けた前記パラメーターに基づく前記ロボットの動作を表す情報を前記操作画面に表示させる、
    制御装置。
  2. 前記複数の作業の一部又は全部は、記憶部に予め記憶された作業情報が示す作業である、
    請求項1に記載の制御装置。
  3. 選択された前記作業情報が示す作業に応じた前記パラメーターのデフォルト値が予め決められており、
    前記パラメーターを受け付けていない場合、前記パラメーターを前記デフォルト値に設定する、
    請求項1又は2に記載の制御装置。
  4. 前記パラメーターは、前記力検出部からの出力値に基づいて前記ロボットを制御するためのパラメーターである、
    請求項1から3のうちいずれか一項に記載の制御装置。
  5. 前記出力値に基づく制御は、インピーダンス制御であり、
    前記パラメーターは、インピーダンスパラメーターである、
    請求項4に記載の制御装置。
  6. 前記操作画面上において、前記出力値に基づく前記ロボットの制御を終了させる終了条件を受け付け、受け付けた前記終了条件に基づく前記情報を前記操作画面に表示させる、
    請求項4又は5に記載の制御装置。
  7. 前記操作画面に前記出力値に基づく情報を表示させる、
    請求項4から6のうちいずれか一項に記載の制御装置。
  8. 前記操作画面には、前記操作画面から受け付けた前記パラメーターを記憶部に記憶させるボタンが含まれており、
    前記ボタンの選択が受け付けられると、前記パラメーターを示すパラメーター情報を前記記憶部に記憶させる、
    請求項1から7のうちいずれか一項に記載の制御装置。
  9. 前記情報は、前記動作のシミュレーションを行った結果である、
    請求項1から8のうちいずれか一項に記載の制御装置。
  10. 前記シミュレーションは、三次元シミュレーションである、
    請求項9に記載の制御装置。
  11. 請求項1から10のうちいずれか一項に記載の制御装置によって制御される、
    ロボット。
JP2016149434A 2016-07-29 2016-07-29 制御装置、及びロボット Pending JP2018015857A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016149434A JP2018015857A (ja) 2016-07-29 2016-07-29 制御装置、及びロボット
US15/662,403 US20180029232A1 (en) 2016-07-29 2017-07-28 Control apparatus and robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016149434A JP2018015857A (ja) 2016-07-29 2016-07-29 制御装置、及びロボット

Publications (1)

Publication Number Publication Date
JP2018015857A true JP2018015857A (ja) 2018-02-01

Family

ID=61011985

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016149434A Pending JP2018015857A (ja) 2016-07-29 2016-07-29 制御装置、及びロボット

Country Status (2)

Country Link
US (1) US20180029232A1 (ja)
JP (1) JP2018015857A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019188555A (ja) * 2018-04-26 2019-10-31 セイコーエプソン株式会社 ロボット制御装置およびロボットシステム
WO2020059342A1 (ja) * 2018-09-21 2020-03-26 日本電産株式会社 ロボットシミュレータ
WO2021149563A1 (ja) * 2020-01-20 2021-07-29 ファナック株式会社 ロボットシミュレーション装置
KR20220108761A (ko) * 2019-09-13 2022-08-03 도요타 리서치 인스티튜트, 인코퍼레이티드 로봇 태스크에 힘 벡터를 할당하기 위한 방법 및 시스템
JP7395990B2 (ja) 2019-11-25 2023-12-12 セイコーエプソン株式会社 教示装置、制御方法および教示プログラム

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10537995B2 (en) * 2017-05-08 2020-01-21 Seiko Epson Corporation Controller and control method of robot, and robot system
JP6848903B2 (ja) * 2018-03-08 2021-03-24 オムロン株式会社 部品挿入装置、部品挿入方法、およびプログラム
KR102529023B1 (ko) * 2018-08-10 2023-05-08 카와사키 주코교 카부시키 카이샤 트레이닝 처리 장치, 중개 장치, 트레이닝 시스템 및 트레이닝 처리 방법
JP6787966B2 (ja) * 2018-10-02 2020-11-18 ファナック株式会社 拡張現実と複合現実を用いたロボット制御装置及び表示装置
JP7440227B2 (ja) * 2019-08-28 2024-02-28 ファナック株式会社 ロボットプログラミング装置及びロボットプログラミング方法
EP4046099A1 (en) 2019-11-12 2022-08-24 Bright Machines, Inc. A software defined manufacturing/assembly system
JP2021102240A (ja) * 2019-12-25 2021-07-15 セイコーエプソン株式会社 プログラム作成システム、プログラム作成装置およびロボットシステム
JP2022086230A (ja) * 2020-11-30 2022-06-09 セイコーエプソン株式会社 プログラム作成支援方法、プログラム作成支援装置、プログラム作成支援プログラム及び記憶媒体
CN114367989B (zh) * 2022-03-03 2023-11-21 杭州柳叶刀机器人有限公司 缺省的机械臂阻抗控制方法、装置、机械臂及存储介质

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0852346B1 (en) * 1995-09-19 2002-01-16 Kabushiki Kaisha Yaskawa Denki Robot language processor
JP4962551B2 (ja) * 2009-10-20 2012-06-27 株式会社安川電機 ロボットシステムおよびロボットシステムの制御方法
EP2749974A2 (en) * 2012-12-28 2014-07-02 Kabushiki Kaisha Yaskawa Denki Robot teaching system, robot teaching assistant device, and robot teaching method
JP5862611B2 (ja) * 2013-04-02 2016-02-16 トヨタ自動車株式会社 作業変更装置、作業変更方法、及び作業変更プログラム
US9707680B1 (en) * 2015-05-28 2017-07-18 X Development Llc Suggesting, selecting, and applying task-level movement parameters to implementation of robot motion primitives

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019188555A (ja) * 2018-04-26 2019-10-31 セイコーエプソン株式会社 ロボット制御装置およびロボットシステム
CN110405753A (zh) * 2018-04-26 2019-11-05 精工爱普生株式会社 机器人控制装置以及机器人系统
JP7135408B2 (ja) 2018-04-26 2022-09-13 セイコーエプソン株式会社 ロボット制御装置およびロボットシステム
WO2020059342A1 (ja) * 2018-09-21 2020-03-26 日本電産株式会社 ロボットシミュレータ
KR20220108761A (ko) * 2019-09-13 2022-08-03 도요타 리서치 인스티튜트, 인코퍼레이티드 로봇 태스크에 힘 벡터를 할당하기 위한 방법 및 시스템
KR102554815B1 (ko) * 2019-09-13 2023-07-14 도요타 리서치 인스티튜트, 인코퍼레이티드 로봇 태스크에 힘 벡터를 할당하기 위한 방법 및 시스템
JP7395990B2 (ja) 2019-11-25 2023-12-12 セイコーエプソン株式会社 教示装置、制御方法および教示プログラム
US11969900B2 (en) 2019-11-25 2024-04-30 Seiko Epson Corporation Teaching apparatus, control method, and teaching program
WO2021149563A1 (ja) * 2020-01-20 2021-07-29 ファナック株式会社 ロボットシミュレーション装置
JPWO2021149563A1 (ja) * 2020-01-20 2021-07-29
JP7364696B2 (ja) 2020-01-20 2023-10-18 ファナック株式会社 ロボットシミュレーション装置

Also Published As

Publication number Publication date
US20180029232A1 (en) 2018-02-01

Similar Documents

Publication Publication Date Title
JP2018015857A (ja) 制御装置、及びロボット
JP6733239B2 (ja) 制御装置及びロボットシステム
JP6343353B2 (ja) ロボットの動作プログラム生成方法及びロボットの動作プログラム生成装置
JP6361213B2 (ja) ロボット制御装置、ロボット、ロボットシステム、教示方法、及びプログラム
JP5545534B2 (ja) ロボットの教示再生装置、教示再生方法、及び教示データ作成方法
US9981380B2 (en) Teaching apparatus and robot system
JP2017071018A (ja) ロボットシステム、ロボット、及びロボット制御装置
JP2017019068A (ja) 教示装置、ロボット、及びロボットシステム
US20180085920A1 (en) Robot control device, robot, and robot system
TW202122225A (zh) 使用先進掃描技術之用於機器人箱揀取的系統及方法
US10315305B2 (en) Robot control apparatus which displays operation program including state of additional axis
JP6488571B2 (ja) 教示装置、及びロボットシステム
JP2017148909A (ja) 制御装置、ロボット、及びロボットシステム
JP6958091B2 (ja) ロボットシステム、及びロボット制御方法
JP2017052031A (ja) ロボット操作装置、ロボット操作方法
JP2017159429A (ja) ロボット制御装置、情報処理装置、及びロボットシステム
JP2019111588A (ja) ロボットシステム、情報処理装置、及びプログラム
JP7106874B2 (ja) 制御装置、教示装置、及びロボットシステム
JP2016013590A (ja) 教示装置、及びロボットシステム
JP6743431B2 (ja) 制御装置、及びロボットシステム
JP2017019069A (ja) 教示装置、ロボット、及びロボットシステム
JP2020157475A (ja) 制御装置、ロボットシステム及びロボット制御方法
JP2022046062A (ja) ロボットの動作プログラムの生成方法、ロボットの動作プログラムの生成プログラムおよびロボットの動作プログラムの生成装置
JP2021084215A (ja) 教示装置、ロボットシステムおよび教示プログラム
JP2020069579A (ja) ロボットシステム

Legal Events

Date Code Title Description
RD05 Notification of revocation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7425

Effective date: 20180910