JP2022111464A - コンピュータープログラム、ロボットの制御プログラムを作成する方法、及び、ロボットの制御プログラムを作成する処理を実行するシステム - Google Patents

コンピュータープログラム、ロボットの制御プログラムを作成する方法、及び、ロボットの制御プログラムを作成する処理を実行するシステム Download PDF

Info

Publication number
JP2022111464A
JP2022111464A JP2021006903A JP2021006903A JP2022111464A JP 2022111464 A JP2022111464 A JP 2022111464A JP 2021006903 A JP2021006903 A JP 2021006903A JP 2021006903 A JP2021006903 A JP 2021006903A JP 2022111464 A JP2022111464 A JP 2022111464A
Authority
JP
Japan
Prior art keywords
robot
teaching
operation screen
computer program
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021006903A
Other languages
English (en)
Inventor
賢昭 萩尾
Yoshiaki Hagio
佳紀 長島
Yoshinori Nagashima
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2021006903A priority Critical patent/JP2022111464A/ja
Priority to CN202311769940.2A priority patent/CN117697745A/zh
Priority to CN202210055337.7A priority patent/CN114800482B/zh
Priority to US17/578,517 priority patent/US20220226982A1/en
Publication of JP2022111464A publication Critical patent/JP2022111464A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0081Programme-controlled manipulators with master teach-in means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1671Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/409Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by using manual input [MDI] or by using control panel, e.g. controlling functions with the panel; characterised by control panel details, by setting parameters
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/42Recording and playback systems, i.e. in which the programme is recorded from a cycle of operations, e.g. the cycle of operations being manually controlled, after which this record is played back on the same machine
    • G05B19/425Teaching successive positions by numerical control, i.e. commands being entered to control the positioning servo of the tool head or end effector
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/36Nc in input of data, input key till input tape
    • G05B2219/36162Pendant control box
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/36Nc in input of data, input key till input tape
    • G05B2219/36401Record play back, teach position and record it then play back
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/36Nc in input of data, input key till input tape
    • G05B2219/36495Recording position and other parameters, current, tool diameter, voltage
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39438Direct programming at the console
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39443Portable, adapted to handpalm, with joystick, function keys, display
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39444Display of position, of shape of robot and tool

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Manufacturing & Machinery (AREA)
  • Evolutionary Computation (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Numerical Control (AREA)
  • Manipulator (AREA)

Abstract

【課題】教示点を見直す際に、教示点の設定が適切か否かを判断するための判断材料を提供できる技術を提供する。【解決手段】コンピュータープログラムは、(a)ロボットアームの制御点の位置および姿勢を操作する操作画面を表示する処理と、(b)ユーザーの指示に応じて、制御点の位置および姿勢を教示点として記憶する処理と、(c)処理(b)において指示を受けたときの操作画面を、教示点と対応付けて記憶する処理と、をプロセッサーに実行させる。【選択図】図5

Description

本開示は、コンピュータープログラム、ロボットの制御プログラムを作成する方法、及び、ロボットの制御プログラムを作成する処理を実行するシステムに関する。
特許文献1には、ティーチングペンダントと呼ばれる教示操作盤を用いてロボットの教示を行う技術が開示されている。この従来技術の教示操作盤は、グラフィック表示機能を有しており、ロボット制御プログラムの教示点とロボットアームの先端部分をグラフィック表示することが可能である。
特開平9-085655号公報
しかしながら、従来技術では、教示点を設定した際の判断材料となる情報は記憶されていないため、教示点を見直す際に、教示点の設定が適切か否かを判断するのが難しいという問題があった。
本開示の第1の形態によれば、ロボットの制御プログラムを作成する処理をプロセッサーに実行させるコンピュータープログラムが提供される。このコンピュータープログラムは、(a)ロボットアームの制御点の位置および姿勢を操作する操作画面を表示する処理と、(b)ユーザーの指示に応じて、前記制御点の位置および姿勢を教示点として記憶する処理と、(c)前記処理(b)において前記指示を受けたときの前記操作画面を、前記指示に応じて記憶された前記教示点と対応付けて記憶する処理と、を前記プロセッサーに実行させる。
本開示の第2の形態によれば、ロボットの制御プログラムを作成する方法が提供される。この方法は、(a)ロボットアームの制御点の位置および姿勢を操作する操作画面を表示する工程と、(b)ユーザーの指示に応じて、前記制御点の位置および姿勢を教示点として記憶する工程と、(c)前記工程(b)において前記指示を受けたときの前記操作画面を、前記指示に応じて記憶された前記教示点と対応付けて記憶する工程と、を含む。
本開示の第3の形態によれば、ロボットの制御プログラムを作成する処理を実行するシステムが提供される。このシステムは、ロボットアームの制御点の位置および姿勢を操作する操作画面を表示する表示部と、前記制御プログラムを作成する処理に関する情報を記憶する記憶部と、制御部と、を備え、前記制御部は、(a)前記操作画面を前記表示部に表示する処理と、(b)ユーザーの指示に応じて、前記制御点の位置および姿勢を教示点として前記記憶部に記憶する処理と、(c)前記処理(b)において前記指示を受けたときの前記操作画面を、前記指示に応じて記憶された前記教示点と対応付けて前記記憶部に記憶する処理と、を実行する。
実施形態におけるロボットシステムの説明図。 情報処理装置の機能ブロック図。 教示処理の手順を示すフローチャート。 教示処理用の操作画面の一例を示す説明図。 教示点の記憶時にキャプチャーされたキャプチャー画像の一例を示す説明図。 教示内容の確認処理の手順を示すフローチャート。 教示点に対応付けられた操作画面のキャプチャー画像を表示する様子を示す説明図。
図1は、実施形態におけるロボットシステムを示す説明図である。このロボットシステムは、ロボット100と、ロボット100を制御する制御装置200と、情報処理装置300と、ティーチングペンダント400とを備える。情報処理装置300は、例えばパーソナルコンピューターである。図1には、3次元空間の直交座標系を規定する3つの軸X,Y,Zが描かれている。X軸とY軸は水平方向の軸であり、Z軸は鉛直方向の軸である。この例では、XYZ座標系は、ロボット100に予め設定された基準点を原点とするロボット座標系である。
ロボット100は、基台110と、ロボットアーム120と、を備えている。ロボットアーム120は、6つの関節J1~J6で順次接続されている。これらの関節J1~J6のうち、3つの関節J1,J4,J6はねじり関節であり、他の3つの関節J2,J3,J5は曲げ関節である。本実施形態では6軸ロボットを例示しているが、1つ以上の関節を有する任意のロボットアーム機構を有するロボットを用いることが可能である。また、本実施形態のロボット100は、垂直多関節ロボットであるが、水平多関節ロボットを使用してもよい。
ロボットアーム120の先端部の近傍には、ロボットアーム120の制御点としてTCP(Tool Center Point)が設定されている。制御点とは、ロボットアームを制御する基準となる点である。TCPは、任意の位置に設定することが可能である。ロボット100の制御は、このTCPの位置と姿勢を制御することを意味する。
ロボットアーム120の先端部には、カメラ130が装着されている。このカメラ130は、ロボット100の作業領域を撮影して、作業領域内のワークWKや物体OBを認識するために使用される。なお、カメラ130をロボットアーム120に設置する代わりに、ロボット100の近傍に存在する架台や天井に設置してもよい。また、カメラ130を省略してもよい。一般に、ロボットの作業のために画像を撮影する撮像システムは、「ロボットビジョン」と呼ばれている。
ロボット100のための教示処理は、情報処理装置300又はティーチングペンダント400を用いて行われる。以下に説明する実施形態では、情報処理装置300を用いて教示処理を実行するが、ティーチングペンダント400を用いても良い。なお、ティーチングペンダント400は、その操作画面において、ロボット100の3次元画像を表示できる機能を有することが好ましい。
図2は、情報処理装置300の機能を示すブロック図である。情報処理装置300は、プロセッサー310と、メモリー320と、インターフェイス回路330と、インターフェイス回路330に接続された入力デバイス340及び表示部350と、を有している。インターフェイス回路330には、更に、制御装置200が接続されている。但し、情報処理装置300は、制御装置200に接続されていなくてもよい。
プロセッサー310は、ロボット100の教示処理を実行する教示処理部312として機能する。教示処理部312の機能は、メモリー320に格納された教示処理プログラムTPをプロセッサー310が実行することによって実現される。但し、教示処理部312の機能の一部又は全部をハードウェア回路で実現してもよい。プロセッサー310は、本開示の「制御部」に相当する。
メモリー320には、教示処理プログラムTPの他に、ロボット属性データRDと、ワーク属性データWDと、物体属性データODと、ポイントファイルPPと、ロボット制御プログラムRPが格納されている。ロボット属性データRDは、ロボットアーム120の構成や可動範囲などの各種のロボット特性を含んでいる。ワーク属性データWDは、ロボット100の作業対象であるワークWKの種類や形状などのワークWKの属性を含んでいる。物体属性データODは、ロボット100の作業領域に存在する物体OBの形状などの属性を含んでいる。なお、ワーク属性データWDと物体属性データODは省略可能である。ポイントファイルPPは、ロボット制御プログラムRPで使用される教示点に関する情報が登録されたファイルである。ロボット制御プログラムRPは、ロボット100を動作させる複数の動作命令で構成されている。
図3は、一実施形態における教示処理の手順を示すフローチャートである。ステップS110では、ユーザーが教示処理プログラムTPを起動する。本開示において、ユーザーを、作業者又は教示者とも呼ぶ。ステップS120では、ユーザーが、教示対象とするロボットのロボットタイプと、編集対象とするロボット制御プログラムのプログラム名を指定する。ステップS130では、指定されたタイプのロボットに関する操作画面が表示部350に表示される。操作画面は、ロボットアーム120のTCPの位置および姿勢を操作するための画面である。
図4は、操作画面を含む教示処理ウィンドウW10の一例を示す説明図である。教示処理ウィンドウW10は、ロボットタイプを選択するためのロボット選択フィールドRFと、ロボット制御プログラムのプログラム名を指定するためのプログラム選択フィールドPFと、ロボット表示ウィンドウW11と、ジョグ操作ウィンドウW12と、プログラムモニターW13と、ビジョン画面W14と、I/OモニターW15とを含んでいる。これらのうち、ロボット表示ウィンドウW11とジョグ操作ウィンドウW12とプログラムモニターW13とビジョン画面W14とI/OモニターW15が、操作画面に相当する。
ロボット表示ウィンドウW11は、ロボット100のシミュレーション画像を表示する画面である。シミュレーション画像としては、3次元画像と2次元画像のいずれかを選択的に表示可能である。ロボット100の3次元画像を表示した状態において、ユーザーは、ロボット表示ウィンドウW11内でマウスを操作することによって、視点の方向や、画像の表示倍率を任意に変更することが可能である。図4の例では、実機のロボット100の作業領域に存在するワークWKや物体OBのシミュレーション画像もロボット表示ウィンドウW11内に表示されている。但し、ワークWKや物体OBの表示は省略しても良い。
ジョグ操作ウィンドウW12は、ユーザーがジョグ操作を入力するための画面である。ジョグ操作ウィンドウW12は、座標系を選択する座標系選択フィールドCFと、選択された座標系に応じた6つの座標値を指定する座標値フィールドVFと、編集対象の教示点を指定する教示点フィールドTFと、教示点設定ボタンB1と、終了ボタンB2とを含んでいる。座標値フィールドVFの右側には、座標値を増減するための増減ボタンCB1が配置されている。教示点フィールドTFの右側には、教示点の番号を増減するための増減ボタンCB2が配置されている。
座標系選択フィールドCFは、ロボット座標系とツール座標系と関節座標系のうちから任意の1つを選択するためのフィールドである。図4の例では、座標系選択フィールドCFは、プルダウンメニューとして構成されている。ロボット座標系とツール座標系は直交座標系である。直交座標系においてジョグ操作を行うと、逆運動学によって関節座標値が計算されるので、特異姿勢が問題となる。一方、関節座標系では、逆運動学による計算が不要なので、特異姿勢は問題とならない。なお、特異姿勢は、任意の2つのねじり関節の軸線同士の角度が0度になる状態であり、関節座標系で座標値を表示すれば、特異姿勢に近いか否かを判断するのが容易であるという利点がある。
プログラムモニターW13は、作成又は編集の対象となっているロボット制御プログラムを表示する画面である。ユーザーは、プログラムモニターW13内に表示されている教示点P1~P3のいずれかを選択することによって、その教示点を編集対象として選択することが可能である。
ビジョン画面W14は、ロボットビジョンとしてのカメラ130で撮影された画像を表示する画面である。このビジョン画面W14には、教示処理の時点において、実機のロボット100のカメラ130によって撮影された画像が表示される。
I/OモニターW15は、編集対象となっている教示点に関して、ロボット100の制御装置200における入力と出力の状態を示すI/O情報を表示する画面である。入力状態としては、各種のセンサーや、作業員が押すためのボタンなどから制御装置200に入力される信号の有無が表示される。出力状態としては、制御装置200から各種の周辺装置に出力される信号の有無が表示される。図4の状態では、「Sensor2」からの入力と、「Device1」への出力があり、他の入力や出力が無いことが表示されている。このようなI/O情報は、その教示点でロボット100がどのような作業を実行しているかを知るための判断材料となる。
操作画面としては、図4に示した各種の情報の一部を省略してもよい。例えば、ロボット表示ウィンドウW11を省略してもよいが、ロボット表示ウィンドウW11においてロボットアーム120の位置や姿勢を表示すれば、教示作業をし易いという利点がある。また、ビジョン画面W14を省略してもよいが、ビジョン画面W14を表示すれば、ロボットビジョンの視野や焦点が合っているかなどの見え方を判断することができる。更に、I/OモニターW15を省略してもよいが、I/OモニターW15を表示すれば、ロボット100の制御装置200における入力と出力の状態から、ロボット100がどのような作業を実行しているかを判断することができる。
図3のステップS140では、ユーザーによって教示点が選択される。教示点の選択は、例えば、教示点フィールドTFの値を設定することによって行われる。ステップS150では、ジョグ操作ウィンドウW12におけるユーザーのジョグ操作に応じてロボット100の姿勢が変更される。「ロボット100の姿勢」とは、TCPの位置と姿勢を意味する。ステップS160では、教示点の設定と記憶が行われる。教示点の設定は、ユーザーが教示点設定ボタンB1を押すことによって実行される。設定された教示点におけるTCPの位置および姿勢を表す座標値は、メモリー320に記憶される。具体的には、設定された教示点に関する情報が、ロボット制御プログラムRP用のポイントファイルPPに登録される。ステップS170では、教示処理部312が、教示点の設定指示を受けた時点における操作画面をキャプチャーし、そのキャプチャー画像を教示点と対応付けてメモリー320に記憶する。キャプチャー画像と教示点との対応付けは、ポイントファイルPPに登録される。
図5は、教示点の記憶時にキャプチャーされたキャプチャー画像CIMの一例を示す説明図である。このキャプチャー画像CIMは、図4に示した教示処理ウィンドウW10とほぼ同じであるが、更に、追加情報AFを含んでいる。追加情報AFは、教示点を記憶したしたときの日時を示す時間情報TMと、関節座標系の座標値を示す関節座標情報JFと、コメント欄CMとを含んでいる。関節座標情報JFは、ジョグ操作で使用した座標系が直交座標系である場合に、その直交座標系の座標値を関節座標系の座標値に変換することによって生成される。コメント欄CMは、その教示点を設定したユーザーが覚え書きとしてのコメントを自由に記載することができる。なお、教示点の記憶時には、まず、空のコメント欄CMが画面に表示され、ユーザーが記入した後でキャプチャー画像CIMの一部としてメモリー320に記憶される。
なお、キャプチャー画像CIMの追加情報AFは省略してもよい。但し、キャプチャー画像CIMが時間情報TMを含むようにすれば、教示点の見直し時に、その教示点を設定したときの日時が分かるので、教示点が設定されたときの状況を判断する際の判断材料として使用できる。また、キャプチャー画像CIMが関節座標情報JFを含むようにすれば、教示点の見直し時に、ロボットアームの関節座標系の座標値から、ロボットアームが特異姿勢に近いか否かを判断できる。更に、キャプチャー画像CIMがコメント欄CMを含むようにすれば、教示点の見直し時に、その教示点を設定したときのユーザーの意図が分かるので、状況を判断する際の判断材料として使用できる。
操作画面のキャプチャー画像CIMは、更に、ロボットアーム120や障害物としての物体OBが可能な限り多く映るような視点を自動的に選択した3次元画像を追加してもよい。このような追加の3次元画像を作成する処理は、例えば、パターンマッチングを利用した画像処理によって実行することが可能である。具体的には、ロボットアーム120の3次元画像をテンプレートとしてメモリー320に予め記憶しておき、テンプレートとの一致度が高くなるように、ロボット表示ウィンドウW11内の画像の拡大率を変更することによって、追加の3次元画像を作成できる。このような3次元画像をキャプチャー画像CIMに追加すれば、そのキャプチャー画像CIMから、教示点を設定した時点におけるロボットアーム120の状態を理解し易いという利点がある。
ステップS180では、ユーザーによって、教示処理が完了したか否かが判断される。教示処理が完了していなければ、ステップS140に戻り、上述したステップS140~S180が繰り返される。一方、教示処理が完了していれば、ユーザーが終了ボタンB2を押すことによって、図3の教示処理を終了する。
図6は、教示内容の確認処理の手順を示すフローチャートである。ステップS210~S230は、図3のステップS110~S130と同じである。すなわち、ステップS210では、ユーザーが教示処理プログラムTPを起動する。ステップS220では、ユーザーが、教示対象とするロボットのロボットタイプと、編集対象とするロボット制御プログラムのプログラム名を指定する。ステップS230では、指定されたタイプのロボットに関する操作画面が表示部350に表示される。
ステップS240では、ユーザーによって、見直し対象となる教示点が選択される。ここでの教示点の選択は、例えば、ロボット制御プログラムRP用のポイントファイルPPに登録されている複数の教示点を列挙した教示点リストを用いて行うことが可能である。ステップS250では、教示処理部312が、選択された教示点に対応する操作画面のキャプチャー画像を表示部350に表示する。
図7は、教示点に対応付けられた操作画面のキャプチャー画像CIMを表示する様子を示す説明図である。図7の上部には、教示点リストPLが表示されている。教示点リストPLは、ポイントファイルPPに登録されている複数の教示点を列挙したリストである。教示点リストPLは、各教示点について、教示点番号と、ラベルと、座標値と、キャプチャー画像表示ボタンとを含んでいる。ラベルは、教示点において行う作業を示す名称である。
ユーザーが、教示点リストPL内の1つの教示点のキャプチャー画像表示ボタンを押すと、図7の下部に示されるように、その教示点に対応付けられたキャプチャー画像CIMが表示部350に表示される。このキャプチャー画像CIMは、図6に示したものと同じである。
図6のステップS260では、ユーザーが、教示点の修正が必要か否かを判断する。教示点の修正が不要な場合には、図6の処理を終了する。一方、教示点の修正が必要な場合には、ステップS270に進み、ユーザーが図4で説明した操作画面を使用して教示点の修正と再設定を実行する。教示点の修正は、その教示点の座標値の修正を意味する。教示点が修正されると、修正後の教示点がメモリー320に記憶される。具体的には、修正後に再設定された教示点に関する情報が、ロボット制御プログラムRP用のポイントファイルPPに登録される。ステップS280では、教示処理部312が、教示点の再設定指示を受けた時点における操作画面をキャプチャーし、そのキャプチャー画像を教示点と対応付けてメモリー320に記憶する。なお、ステップS270,S280の処理は、図3のステップS160,S170の処理とほぼ同じである。
なお、教示点が修正されて再設定された時には、ステップS280で作成された操作画面のキャプチャー画像と共に、その教示点を最初に設定した時に作成されていたキャプチャー画像もそのままメモリー320に保存しておくことが好ましい。このように、同じ教示点について、最初の設定時とその後の再設定時に作成された複数のキャプチャー画像をメモリー320に保存しておくことが好ましい。この場合に、同一の教示点に対応付けられた複数のキャプチャー画像を選択可能に時系列的に配列したキャプチャー画像リストを画面上に提示し、ユーザーが任意に選択してキャプチャー画像を表示できるようにしてもよい。こうすれば、その教示点について複数回の設定時点における操作画面を再現できるので、その教示点が適切か否かをより容易に判断できる。
ステップS290では、ユーザーによって、教示点の確認処理が完了したか否かが判断される。確認処理が完了していなければ、ステップS240に戻り、上述したステップS240~S290が繰り返される。一方、確認処理が完了すれば、ユーザーが図6の処理を終了する。
以上のように、上記実施形態では、ユーザーが教示点を設定した時点におけるロボットアームの操作画面を記憶するので、教示点を見直すときにその操作画面を再現することができ、教示点が適切か否かを判断するための参考情報として利用できる。
・他の実施形態:
本開示は、上述した実施形態に限られるものではなく、その趣旨を逸脱しない範囲において種々の形態で実現することができる。例えば、本開示は、以下の形態(aspect)によっても実現可能である。以下に記載した各形態中の技術的特徴に対応する上記実施形態中の技術的特徴は、本開示の課題の一部又は全部を解決するために、あるいは、本開示の効果の一部又は全部を達成するために、適宜、差し替えや、組み合わせを行うことが可能である。また、その技術的特徴が本明細書中に必須なものとして説明されていなければ、適宜、削除することが可能である。
(1)本開示の第1の形態によれば、ロボットの制御プログラムを作成する処理をプロセッサーに実行させるコンピュータープログラムが提供される。このコンピュータープログラムは、(a)ロボットアームの制御点であるTCPの位置および姿勢を操作する操作画面を表示する処理と、(b)ユーザーの指示に応じて、前記TCPの位置および姿勢を教示点として記憶する処理と、(c)前記処理(b)において前記指示を受けたときの前記操作画面を、前記指示に応じて記憶された前記教示点と対応付けて記憶する処理と、を前記プロセッサーに実行させる。
このコンピュータープログラムによれば、ユーザーが教示点を設定した時点におけるロボットアームの操作画面を記憶するので、教示点を見直すときにその操作画面を再現することができ、教示点が適切か否かを判断するための参考情報として利用できる。
(2)上記コンピュータープログラムは、更に、(d)前記処理(c)の後に前記ユーザーから受けた前記教示点の指定に応じて、前記教示点に対応する前記操作画面を表示する処理、を前記プロセッサーに実行させるものとしてもよい。
このコンピュータープログラムによれば、教示点を見直すときに、対応する操作画面を参考情報として利用できる。
(3)上記コンピュータープログラムにおいて、前記操作画面は、前記ロボットアームの3次元画像を含むものとしてもよい。
このコンピュータープログラムによれば、教示点の見直し時にロボットアームの位置や姿勢を再現できるので、特異姿勢の有無などに基づいて、教示点が適切かを判断できる。
(4)上記コンピュータープログラムにおいて、前記操作画面は、前記教示点を記憶したときの日時を示す時間情報を含むものとしてもよい。
このコンピュータープログラムによれば、教示点の見直し時に、その教示点を設定したときの日時が分かるので、教示点が設定されたときの状況を判断する際の判断材料として使用できる。
(5)上記コンピュータープログラムにおいて、前記操作画面は、ロボットビジョンによって撮影される画像を含むものとしてもよい。
このコンピュータープログラムによれば、ロボットビジョンの視野や焦点が合っているかなどの見え方に基づいて、教示点が適切かを判断できる。
(6)上記コンピュータープログラムにおいて、前記操作画面は、前記ロボットアームの関節座標系の座標値を含むものとしてもよい。
このコンピュータープログラムによれば、教示点の見直し時に、ロボットアームの関節座標系の座標値から、ロボットアームが特異姿勢に近いか否かを判断できる。
(7)上記コンピュータープログラムにおいて、前記操作画面は、前記ロボットの制御装置における入力と出力の状態を示すI/O情報を含むものとしてもよい。
このコンピュータープログラムによれば、教示点の見直し時に、ロボットの制御装置における入力と出力の状態から、ロボットがどのような作業を実行しているかを判断できる。
(8)本開示の第2の形態によれば、ロボットの制御プログラムを作成する方法が提供される。この方法は、(a)ロボットアームの制御点であるTCPの位置および姿勢を操作する操作画面を表示する工程と、(b)ユーザーの指示に応じて、前記TCPの位置および姿勢を教示点として記憶する工程と、(c)前記工程(b)において前記指示を受けたときの前記操作画面を、前記指示に応じて記憶された前記教示点と対応付けて記憶する工程と、を含む。
この方法によれば、ユーザーが教示点を設定した時に判断材料にしていたロボットアームの操作画面を記憶するので、教示点を見直すときにその操作画面を再現することができ、教示点が適切か否かを判断するための参考情報として利用できる。
(9)本開示の第3の形態によれば、ロボットの制御プログラムを作成する処理を実行するシステムが提供される。このシステムは、ロボットアームの制御点の位置および姿勢を操作する操作画面を表示する表示部と、前記制御プログラムを作成する処理に関する情報を記憶する記憶部と、制御部と、を備え、前記制御部は、(a)前記操作画面を前記表示部に表示する処理と、(b)ユーザーの指示に応じて、前記TCPの位置および姿勢を教示点として前記記憶部に記憶する処理と、(c)前記処理(b)において前記指示を受けたときの前記操作画面を、前記指示に応じて記憶された前記教示点と対応付けて前記記憶部に記憶する処理と、を実行する。
このシステムによれば、ユーザーが教示点を設定した時に判断材料にしていたロボットアームの操作画面を記憶するので、教示点を見直すときにその操作画面を再現することができ、教示点が適切か否かを判断するための参考情報として利用できる。
本開示は、上記以外の種々の形態で実現することも可能である。例えば、ロボットとロボット制御装置とを備えたロボットシステム、ロボット制御装置の機能を実現するためのコンピュータープログラム、そのコンピュータープログラムを記録した一時的でない記録媒体(non-transitory storage medium)等の形態で実現することができる。
100…ロボット、110…基台、120…ロボットアーム、130…カメラ、200…制御装置、300…情報処理装置、310…プロセッサー、312…教示処理部、320…メモリー、330…インターフェイス回路、340…入力デバイス、350…表示部、400…ティーチングペンダント

Claims (9)

  1. ロボットの制御プログラムを作成する処理をプロセッサーに実行させるコンピュータープログラムであって、
    (a)ロボットアームの制御点の位置および姿勢を操作する操作画面を表示する処理と、
    (b)ユーザーの指示に応じて、前記制御点の位置および姿勢を教示点として記憶する処理と、
    (c)前記処理(b)において前記指示を受けたときの前記操作画面を、前記指示に応じて記憶された前記教示点と対応付けて記憶する処理と、
    を前記プロセッサーに実行させる、コンピュータープログラム。
  2. 請求項1に記載のコンピュータープログラムであって、更に、
    (d)前記処理(c)の後に前記ユーザーから受けた前記教示点の指定に応じて、前記教示点に対応する前記操作画面を表示する処理、
    を前記プロセッサーに実行させる、コンピュータープログラム。
  3. 請求項1又は2に記載のコンピュータープログラムであって、
    前記操作画面は、前記ロボットアームの3次元画像を含む、コンピュータープログラム。
  4. 請求項1~3のいずれか一項に記載のコンピュータープログラムであって、
    前記操作画面は、前記教示点を記憶したときの日時を示す時間情報を含む、コンピュータープログラム。
  5. 請求項1~4のいずれか一項に記載のコンピュータープログラムであって、
    前記操作画面は、ロボットビジョンによって撮影される画像を含む、コンピュータープログラム。
  6. 請求項1~5のいずれか一項に記載のコンピュータープログラムであって、
    前記操作画面は、前記ロボットアームの関節座標系の座標値を含む、コンピュータープログラム。
  7. 請求項1~6のいずれか一項に記載のコンピュータープログラムであって、
    前記操作画面は、前記ロボットの制御装置における入力と出力の状態を示すI/O情報を含む、コンピュータープログラム。
  8. ロボットの制御プログラムを作成する方法であって、
    (a)ロボットアームの制御点の位置および姿勢を操作する操作画面を表示する工程と、
    (b)ユーザーの指示に応じて、前記制御点の位置および姿勢を教示点として記憶する工程と、
    (c)前記工程(b)において前記指示を受けたときの前記操作画面を、前記指示に応じて記憶された前記教示点と対応付けて記憶する工程と、
    を含む、方法。
  9. ロボットの制御プログラムを作成する処理を実行するシステムであって、
    ロボットアームの制御点の位置および姿勢を操作する操作画面を表示する表示部と、
    前記制御プログラムを作成する処理に関する情報を記憶する記憶部と、
    制御部と、
    を備え、
    前記制御部は、
    (a)前記操作画面を前記表示部に表示する処理と、
    (b)ユーザーの指示に応じて、前記制御点の位置および姿勢を教示点として前記記憶部に記憶する処理と、
    (c)前記処理(b)において前記指示を受けたときの前記操作画面を、前記指示に応じて記憶された前記教示点と対応付けて前記記憶部に記憶する処理と、
    を実行する、システム。
JP2021006903A 2021-01-20 2021-01-20 コンピュータープログラム、ロボットの制御プログラムを作成する方法、及び、ロボットの制御プログラムを作成する処理を実行するシステム Pending JP2022111464A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2021006903A JP2022111464A (ja) 2021-01-20 2021-01-20 コンピュータープログラム、ロボットの制御プログラムを作成する方法、及び、ロボットの制御プログラムを作成する処理を実行するシステム
CN202311769940.2A CN117697745A (zh) 2021-01-20 2022-01-18 创建机器人的控制程序的方法、及其系统、以及记录介质
CN202210055337.7A CN114800482B (zh) 2021-01-20 2022-01-18 创建机器人的控制程序的方法、及其系统、以及记录介质
US17/578,517 US20220226982A1 (en) 2021-01-20 2022-01-19 Method Of Creating Control Program For Robot, System Executing Processing Of Creating Control Program For Robot, And Non-Transitory Computer-Readable Storage Medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021006903A JP2022111464A (ja) 2021-01-20 2021-01-20 コンピュータープログラム、ロボットの制御プログラムを作成する方法、及び、ロボットの制御プログラムを作成する処理を実行するシステム

Publications (1)

Publication Number Publication Date
JP2022111464A true JP2022111464A (ja) 2022-08-01

Family

ID=82405906

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021006903A Pending JP2022111464A (ja) 2021-01-20 2021-01-20 コンピュータープログラム、ロボットの制御プログラムを作成する方法、及び、ロボットの制御プログラムを作成する処理を実行するシステム

Country Status (3)

Country Link
US (1) US20220226982A1 (ja)
JP (1) JP2022111464A (ja)
CN (2) CN114800482B (ja)

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4014662B2 (ja) * 1995-09-18 2007-11-28 ファナック株式会社 ロボット教示操作盤
JP2002172574A (ja) * 2000-12-07 2002-06-18 Fanuc Ltd ロボットの作業データ表示装置
JP2011048621A (ja) * 2009-08-27 2011-03-10 Honda Motor Co Ltd ロボットのオフライン教示方法
JP2017213644A (ja) * 2016-05-31 2017-12-07 キヤノン株式会社 教示装置、教示システム、ロボットシステム、教示方法、製造品の製造方法、プログラム及び記録媒体
JP7069971B2 (ja) * 2018-03-30 2022-05-18 セイコーエプソン株式会社 制御装置、ロボット、およびロボットシステム
JP7337495B2 (ja) * 2018-11-26 2023-09-04 キヤノン株式会社 画像処理装置およびその制御方法、プログラム
JP7251224B2 (ja) * 2019-03-11 2023-04-04 セイコーエプソン株式会社 制御装置およびロボットシステム
JP2020196060A (ja) * 2019-05-31 2020-12-10 セイコーエプソン株式会社 教示方法

Also Published As

Publication number Publication date
US20220226982A1 (en) 2022-07-21
CN114800482A (zh) 2022-07-29
CN117697745A (zh) 2024-03-15
CN114800482B (zh) 2023-12-29

Similar Documents

Publication Publication Date Title
CN109760042B (zh) 编程辅助装置、机器人系统以及程序生成方法
US7181315B2 (en) Manual-mode operating system for robot
JP6343353B2 (ja) ロボットの動作プログラム生成方法及びロボットの動作プログラム生成装置
US10807240B2 (en) Robot control device for setting jog coordinate system
JP2006289531A (ja) ロボット位置教示のための移動制御装置、ロボットの位置教示装置、ロボット位置教示のための移動制御方法、ロボットの位置教示方法及びロボット位置教示のための移動制御プログラム
US10427298B2 (en) Robot system displaying information for teaching robot
JP2004351570A (ja) ロボットシステム
JP2684359B2 (ja) ロボットのワーク直交座標系設定装置
US20140286565A1 (en) Robot system and image processing method
US20180117764A1 (en) Force control coordinate axis setting device, robot, and force control coordinate axis setting method
US20220176555A1 (en) Non-transitory computer-readable storage medium and teaching method for robot
CA2246076C (en) Off-line teaching apparatus
JP2020049569A (ja) ロボットのプログラム作成支援装置
US11806876B2 (en) Control system, control apparatus, and robot
WO2019180916A1 (ja) ロボット制御装置
JP2022111464A (ja) コンピュータープログラム、ロボットの制御プログラムを作成する方法、及び、ロボットの制御プログラムを作成する処理を実行するシステム
JPH1083208A (ja) ロボット間相対位置演算機構
US20220331972A1 (en) Robot Image Display Method, Recording Medium, And Robot Image Display System
JP7440620B2 (ja) プログラム編集装置
JP2015100874A (ja) ロボットシステム
JP2006343975A (ja) ロボット教示装置
JP7436796B2 (ja) ロボットのプログラム作成支援装置
US20220331958A1 (en) Multi-joint-robot linear-member-shape simulator, multi-joint-robot linear-member-shape simulation method, and multi-joint-robot linear-member-shape simulation program
JP7217821B1 (ja) ロボット教示システム
JPH01283603A (ja) ロボットオフラインティーチング方式

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231214