JP2016175133A - ロボット操作装置、ロボット操作プログラム - Google Patents

ロボット操作装置、ロボット操作プログラム Download PDF

Info

Publication number
JP2016175133A
JP2016175133A JP2015054773A JP2015054773A JP2016175133A JP 2016175133 A JP2016175133 A JP 2016175133A JP 2015054773 A JP2015054773 A JP 2015054773A JP 2015054773 A JP2015054773 A JP 2015054773A JP 2016175133 A JP2016175133 A JP 2016175133A
Authority
JP
Japan
Prior art keywords
robot
pressing force
touch
operation mode
speed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015054773A
Other languages
English (en)
Other versions
JP6803650B2 (ja
Inventor
喜浩 宮越
Yoshihiro Miyakoshi
喜浩 宮越
博太 當眞
Hirota Toma
博太 當眞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Wave Inc
Original Assignee
Denso Wave Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Wave Inc filed Critical Denso Wave Inc
Priority to JP2015054773A priority Critical patent/JP6803650B2/ja
Publication of JP2016175133A publication Critical patent/JP2016175133A/ja
Application granted granted Critical
Publication of JP6803650B2 publication Critical patent/JP6803650B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】ロボットの速度の調整を簡便に行うことができるロボット操作装置、ロボット操作プログラムを提供する。【解決手段】ロボット操作装置としてのペンダント4は、ユーザによるタッチ操作が入力されるタッチパネル22と、タッチパネル22に入力されるタッチ操作の操作態様を検出する操作態様検出部25と、操作態様検出部25による検出結果に基づいて、ロボット2を動作させるための動作指令を生成する動作指令生成部26と、を備えている。そして、操作態様検出部25は、操作態様としてタッチ操作が入力された際の押圧力を検出する押圧力検出部25aを有しており、動作指令生成部26は、押圧力検出部25aで検出した押圧力に比例した速度でロボット2が動作するように動作指令を生成する。【選択図】図2

Description

本発明は、ロボットを操作するためのロボット操作装置、ロボット操作プログラムに関する。
例えば産業用のロボットシステムにおいては、ロボットを手動により動作させること(以下、手動操作と称する)が可能となっている。このような手動操作は、例えばロボットに移動軌跡を教示する教示作業(ティーチング)などを行う際に利用される。この場合、一般的には、ユーザは、ロボットを制御するコントローラに接続されたペンダント(ロボット操作装置。いわゆるティーチングペンダント)などを用いて、手動でロボットの操作を行うことになる。そのため、ペンダントには、例えば機械的なスイッチ等で構成された専用の操作キーが各種設けられている(例えば特許文献1参照)。
また、近年では、タッチパネルを備えたペンダントもでてきており、上記した手動操作をタッチパネルへのタッチ操作により行うことができる。このようなロボット装置は、専用の操作キーを設ける必要が無くなり、ペンダントの小型化、表示部の画面サイズの拡大、低価格化などを実現できるといった効果が期待されている。
特開2006−142480号公報
ところで、ティーチング時におけるロボットの操作では,緻密な動作や正確な目標位置を設定するために何度も速度調整を行う必要があり、そのことがティーチング時間の増加を招く要因となっている。そのため、タッチパネルを有し、専用の操作キーを備えていないロボットの操作装置の場合にも、速度調整を簡便に行うことができることが望まれている。
しかしながら、タッチパネルを有するロボット操作装置の場合、操作しようとする操作キー(画面に表示されるボタン等)を手探りで把握することは困難であり、画面の表示にしたがって速度等を調整する場合には、どうしても画面を見ながら操作する必要がある。これは、ティーチング時に限らず、ロボットを手動操作する全般においても同様である。そして、画面を見る必要があるということは、ロボットから視線を外すということであり、例えばロボットを微小な距離で移動させるような場合に、視線を外すたびにロボットの位置を再確認する等が必要となり、使い勝手が悪化するおそれがある。
本発明は上記事情に鑑みてなされたものであり、その目的は、ロボットの速度の調整を簡便に行うことができるロボット操作装置、ロボット操作プログラムを提供することにある。
請求項1に記載のロボット操作装置は、ユーザによるタッチ操作が入力されるタッチパネルと、タッチパネルに入力されるタッチ操作の操作態様を検出する操作態様検出部と、操作態様検出部による検出結果に基づいて、ロボットを動作させるための動作指令を生成する動作指令生成部と、を備えている。そして、操作態様検出部は、操作態様としてタッチ操作が入力された際の押圧力を検出する押圧力検出部を有しており、動作指令生成部は、押圧力検出部で検出した押圧力に比例した速度でロボット2が動作するように動作指令を生成する。
ユーザがタッチパネルをタッチ操作する場合、まず、ユーザの指(タッチペン等であっても良い)が徐々に押し付けられ、次に概ね一定の押し付け状態で指を移動させ、移動が終わると、徐々に指がタッチパネルから離れていく。このときの押圧力、つまり、指がタッチパネルを押す力の変化態様は、詳細は後述する図3(b)にて説明するが、タッチ操作が開始されると徐々に増加し、指を移動させている時は概ね一定で推移し、タッチ操作の終了時に徐々に減少していく。また、一般的なロボットの速度の変化態様は、詳細は後述する図3(a)にて説明するが、動作の開始時に徐々に増加し、等速で移動した後、減速していく。
つまり、タッチ操作時の押圧力の変化態様は、ロボットが動作する際の速度の変化態様に類似している。そのため、押圧力に比例した速度でロボットが動作するように動作指令を生成すれば、タッチ操作する際のユーザの感覚と実際のロボットの動作とをリンクさせることができる。そして、押圧力に応じた速度でロボットが動作することから、ユーザは、感覚的にロボットの速度を設定することができるようになる。
これにより、例えばティーチング等の手動操作時にロボット2の速度を細かく調整したい場合等において、簡便且つ容易に速度を調整することができるとともに、ロボット操作の延長で速度を設定することができるようになる。
また、感覚的に設定できると言うことは、表示画面を視認しなくても操作できることを意味している。すなわち、例えば表示部に速度を上昇させたり減少させたりするためのボタンを配置してそれをタッチ操作して速度を設定する場合、ユーザは、表示画面のボタンの位置を確認する必要がある。そのため、速度を変化させたいときには、ユーザは、その都度表示画面を確認すること、つまり、ロボットから目を離すことが必要となる。
これに対して、押圧力に応じた速度でロボットが動作する場合には、ユーザは、速度を調整する際にロボットから目を離す必要が無くなる。つまり、押圧力という、表示画面に表示される情報とは切り離して扱うことができる物理量に基づいて速度を設定することにより、ユーザは、ロボットに視線を向けたままでロボットの速度を設定することができるようになる。したがって、ロボットの速度の調整を簡便に行うことができる。
また、ティーチング作業は、上記したように何度も速度調整を行う必要がある等、ある程度時間が掛かる作業である。この場合、例えばユーザが集中力を欠いたり、突発的な事象が発生してユーザの注意がそちらに向いたりすることがある。
そのような状況であっても、押圧力に応じた速度でロボットが動作する構成であれば、ユーザが集中力を欠いたり注意が余所に向いたりして指を押し付ける意識が薄れた場合には、押圧力が低下することからロボットの動作速度が低下し、ロボットの動作をより安全側にシフトすることができる。
請求項2に記載のロボット操作装置は、タッチ操作が入力された際の座標情報を取得する座標情報取得部を有しており、操作態様として、タッチ操作が開始された開始座標からタッチ操作が開始された開始座標までの操作距離を取得し、動作指令生成部は、座標情報取得部で取得した操作距離に応じた移動距離でロボットが動作するように、動作指令を生成する。
例えば、ロボット操作装置は、取得した座標情報に基づいて、タッチ操作が終了するまでの指の移動距離(タッチ操作が開始された開始座標からタッチ操作が開始された開始座標までの操作距離)に比例した距離でロボットが移動するように、動作指令を生成する。この場合、ロボット操作装置は、例えば、指が移動する距離が長いほどロボットが移動する距離が長くなるような動作指令を生成する。つまり、座標情報取得部は、ロボットの移動距離を設定する移動距離設定手段としても機能する。なお、指の移動距離とロボットの移動距離との対応関係は、予め設定しておけばよい。
これにより、ユーザは、1回のタッチ操作で、ロボットの速度を設定と移動距離の設定とを行うことができる。そして、どの程度指を動かすかは、ロボットを見ながら決定することができる。換言すると、ユーザは、表示画面を見なくても、ロボットの移動距離を制御することができる。
請求項3に記載のロボット操作装置は、タッチ操作が入力された際の座標情報を取得する座標情報取得部を有しており、操作態様として、タッチ操作が開始された開始座標からの移動方向を取得し、動作指令生成部は、座標情報取得部で取得した移動方向に応じた方向にロボットが動作するように、動作指令を生成する。
例えば、ロボット操作装置は、座標情報に基づいて、タッチ操作が開始された開始座標を起点として画面上方に指が移動した場合には、フランジ軸(後述する図1参照)を+Y方向に回転させたり、画面右方に指が移動した場合には、フランジ軸を+X方向に回転させたりする。つまり、座標情報取得部は、操作対象となる軸を指定する軸指定手段としても機能する。なお、指の移動方向とロボットの軸との対応関係は、予め設定すればよい。
これにより、ユーザは、1回のタッチ操作で、ロボットの速度と移動方向とを制御することができ、例えばロボットの位置の微調整等において移動方向を変更した場合等において、容易に速度と移動方向とを調整することができる。
また、例えば画面上の上下方向や左右方向であれば、ユーザは、画面を見なくても、感覚的に概ね所望の方向へ指を移動させることができると考えられる。そして、タッチ操作が開始された開始座標を起点とした指の移動方向でロボットの移動方向を決定することにより、最初に触れた位置に依存することなく、移動方向を決定することができる。これにより、ユーザは、画面を見なくても、自身の感覚で概ね所望する移動距離および移動方向となるようにロボットを操作することができる。
請求項4に記載のロボット操作プログラムは、タッチパネルに入力されるユーザがタッチ操作した際の操作態様を検出する操作態様検出処理と、操作態様検出処理による検出結果に基づいてロボットを動作させるための動作指令を生成する動作指令生成処理と、を含み、操作検出処理は、操作態様としてタッチ操作が入力された際の押圧力を検出する押圧力検出処理を実行し、動作指令生成処理は、押圧力検出処理で検出した押圧力に比例した速度でロボットが動作するように動作指令を生成するロボット操作プログラムによれば、上記したロボット操作装置と同様に、ロボットの速度の調整を簡便に行うこと等ができる。
一実施形態によるロボット操作装置を適用したロボットシステムの全体を模式的に示す図 一実施形態によるロボット操作装置の電気的構成を模式的に示す図 タッチ操作時の押圧力の変化態様を模式的に示す図 一実施形態によるロボット操作プログラムの処理の流れを模式的に示す図
以下、本発明の一実施形態について図1から図4を参照しながら説明する。
図1に示すように、ロボットシステム1は、垂直多関節型のロボット2、ロボット2を制御するコントローラ3、コントローラ3に接続されたペンダント4を備えている。このロボットシステム1は、一般的な産業用に用いられている。
ロボット2は、いわゆる6軸の垂直多関節型ロボットとして周知の構成を備えており、ベース5上に、Z方向の軸心を持つ第1軸(J1)を介してショルダ6が水平方向に回転可能に連結されている。ショルダ6には、Y方向の軸心を持つ第2軸(J2)を介して上方に延びる下アーム7の下端部が垂直方向に回転可能に連結されている。下アーム7の先端部には、Y方向の軸心を持つ第3軸(J3)を介して第一上アーム8が垂直方向に回転可能に連結されている。第一上アーム8の先端部には、X方向の軸心を持つ第4軸(J4)を介して第二上アーム9が捻り回転可能に連結されている。第二上アーム9の先端部には、Y方向の軸心を持つ第5軸(J5)を介して手首10が垂直方向に回転可能に連結されている。手首10には、X方向の軸心を持つ第6軸(J6)を介してフランジ11が捻り回転可能に連結されている。以下、第6軸を、便宜的に手先軸とも称する
ベース5、ショルダ6、下アーム7、第一上アーム8、第二上アーム9、手首10およびフランジ11は、ロボット2のアームとして機能し、アームの先端となるフランジ11には、図示は省略するが、ハンド(エンドエフェクタとも呼ばれる)が取り付けられる。ハンドは、例えば図示しないワークを保持して移送したり、ワークを加工する工具等が取り付けられたりする。ロボット2に設けられている各軸(J1〜J6)には、それぞれに対応して駆動源となるモータ(図示省略)が設けられている。
このような構成のロボット2は、ロボット2を制御する際の基準となる座標系が設定されている。本実施形態の場合、ベース5に対応する座標系として基準座標系Σと、手先軸(J6)に対応するフランジ座標系Σとが設定されている。基準座標系Σは、ロボット2がどのような姿勢を取ったとしても変化することがない座標系であり、互いに直交するX軸、Y軸およびZ軸が設定されている。なお、Z軸は設置面に垂直な軸となっている。また、フランジ座標系Σは、フランジ11の向きを手先軸の原点を基準として示す座標系であり、互いに直交するX軸、Y軸およびZ軸が設定されている。このうち、Z軸は、手先軸と同軸に設定されており、Z軸の向きがフランジ11の向き、つまり、手先の向きを示している。
コントローラ3は、ロボット2の制御装置であり、図示しないCPU、ROMおよびRAM等で構成されたコンピュータからなる制御手段においてコンピュータプログラムを実行することで、ロボット2を制御している。具体的には、コントローラ3は、インバータ回路等から構成された駆動部を備えており、各モータに対応して設けられているエンコーダで検知したモータの回転位置に基づいて例えばフィードバック制御によりそれぞれのモータを駆動する。
ペンダント4は、接続ケーブルを介してコントローラ3に接続されている。ペンダント4は、コントローラ3との間で通信インターフェイス(図2参照。通信I/F24)を経由して有線式あるいは無線式でデータ通信を行う。このため、ユーザがペンダント4に対して入力した各種の操作は、操作情報としてコントローラ3に送信される。
ペンダント4は、ユーザが携帯あるいは手に所持して操作可能な程度の大きさに形成されている。このペンダント4は、図2に示すように、制御部20、表示部21、タッチパネル22、スイッチ23、通信I/F24を備えている。制御部20は、図示しないCPU、ROMおよびRAM等を有するマイクロコンピュータで構成されており、ペンダント4の全体を制御する。例えば、制御部20は、記憶部(図示省略)に記憶されているコンピュータプログラムを実行することにより、ロボット2の起動や姿勢制御、各種のパラメータの設定等を実行する。
表示部21は、例えば液晶ディスプレイ等で構成されており、その表示面に対応して、タッチパネル22が設けられている。スイッチ23は、例えば電源スイッチ等、ペンダント4の操作に使われる機械的な操作スイッチである。なお、表示部21にボタン等を表示させてスイッチ23を代用する構成としてもよい。ユーザ(操作者)は、タッチパネル22やスイッチ23に対して種々の操作を入力することにより、ロボット2を手動操作することができる。
例えば、ユーザは、ペンダント4を用いて、ロボット2の姿勢制御等を行うことができる。また、ユーザは、ロボット2をマニュアル操作すなわち手動操作で動作させることにより、目標位置の設定、移動軌跡の設定、手先の向きの設定等、各種の教示作業も行うことができる。このとき、表示部21には、例えばメニュー画面、設定入力画面、状況表示画面などが必要に応じて表示される。以下、ユーザがタッチパネル22に対して入力する操作を、タッチ操作と称する。
また、ペンダント4は、操作態様検出部25および動作指令生成部26を備えている。つまり、本実施形態では、ペンダント4は、単体でロボット操作装置を構成している。なお、後述する変形例で説明するが、動作指令生成部26をコントローラ3側に設ける構成としてもよい。これら操作態様検出部25および動作指令生成部26は、制御部20により実行されるコンピュータプログラムによってソフトウェア的に実現されている。
操作態様検出部25は、ユーザがタッチ操作を入力した際の操作態様を検出する。より具体的には、操作態様検出部25は、操作態様として、タッチ操作が入力された際の押圧力、つまり、ユーザがタッチパネル22に触れた際の圧力を検出する押圧力検出部25aを有している。押圧力検出部25aは、本実施形態の場合、ユーザがタッチパネル22に触れた際の接触面積に基づいて、押圧力を検出する。
具体的には、ユーザがタッチパネル22に強く触れた場合には、指とタッチパネル22との接触面積が相対的に大きくなると予想される。逆に、ユーザがタッチパネル22に軽く触れた場合には、指とタッチパネル22との接触面積が相対的に小さくなると予想される。そのため、押圧力検出部25aは、接触面積に基づいて押圧力を検出する。なお、押圧力検出部25aを圧力センサで構成して押圧力を直接的に検出する構成、つまり、押圧力検出部25aをハードウェア的に実現する構成としてもよい。
また、操作態様検出部25は、タッチ操作が入力された際の座標情報、つまり、タッチ操作時にユーザが触れたタッチパネル22上の位置を示す座標に関する情報を検出する座標情報取得部25bを有している。座標情報取得部25bは、1回のタッチ操作において、ユーザが触れている接触位置の変化を時系列的に取得し、タッチ操作時の操作量(タッチ操作が開始された開始座標からタッチ操作が開始された開始座標までの操作距離。以下、指の移動距離とも称する)や、タッチ操作が入力されたときの移動方向、例えばタッチ操作が開始された位置から最初に指が移動した方向、あるいは開始した座標から終了した座標への向きをリアルタイムに検出する。
なお、タッチパネル22を操作するのは、指に限らず、例えばタッチペン等であってもよいが、説明の簡略化のため、以下では、タッチペン等の治具を使用する場合も含めて、指を移動させるという表現を用いている。
動作指令生成部26は、押圧力検出部25aで検出した押圧力に比例した速度でロボット2が動作するように、動作指令を生成する。
次に、上記した構成の作用について説明する。
まず、ロボット2の一般的な動作について説明する。ロボット2は、図3(a)に示すように動作を開始する際には、徐々に速度が上昇し(加速域。時刻t0〜時刻t11)、その後等速で動作し(等速域。時刻t1〜t2)、徐々に減速した後(減速域。時刻t2〜t3)、停止すると(時刻t3)、目標位置に到達するように制御される。このような時間と速度との関係が台形になるような制御が行われることで、ロボット2が動作する際の振動抑制等が行われている。なお、移動距離が短い場合には、等速域が存在しない場合(時間と速度との関係が三角形になる場合)も存在する。
次に、ユーザがタッチ操作する際の操作態様について説明する。タッチパネル22を操作する際の押圧力の変化を発明者らが調査した結果、図3(b)に示すように、タッチ操作を開始する際には、徐々に押圧力が上昇し(時刻t10〜t11)、指を移動させている途中では押圧力がそれほど大きく変動することが無く(時刻t11〜t12)、指を離すときに徐々に押圧力が減少する(時刻t12〜t13)になることが明らかになった。換言すると、ユーザがタッチパネル22をタッチ操作する際の押圧力と時間との関係は、ロボット2に対する一般的な制御における時間と速度との関係に類似した態様となることが明らかになった。
また、発明者らは、タッチパネル22上で指を移動させる距離が比較的短い場合、すなわちタッチパネル22に軽く触れるような感じでタッチ操作をする場合の操作態様と、指を移動させる距離が比較的長い場合、すなわちタッチパネル22にしっかり触れるような感じでタッチ操作をする場合の操作態様とについて調査した。その結果、図3(c)に示すように、指を移動させる距離が比較的短い場合(時刻t20〜t21)には、指を移動させる距離が比較的長い場合(時刻t20〜t22)に比べると、全体的に押圧力が低めの傾向となることが明らかになった。
この場合、指を移動させる距離が比較的短いということは、ユーザがロボット2をそれほど大きく移動させるつもりが無いこと、つまり、ユーザが所望するロボット2の移動量が比較的少ないと考えることができる。逆に、指を移動させる距離が比較的長いということは、ユーザがロボット2をある程度大きく移動させようとしていること、つまり、ロボットの2の移動量が比較的多いと考えることができる。
これらの調査結果から、タッチパネル22を用いてロボット2を操作する場合には、ユーザがタッチパネル22をタッチ操作する際の押圧力と、ロボット2の速度とを比例関係に設定することが望ましいことが分かる。
すなわち、上記した図3(a)、(b)に示したように、ユーザがタッチ操作する際の押圧力の変化態様とロボット2の一般的な速度の変化態様とが類似することから、押圧力に比例した速度でロボット2が動作するような制御を行えば、タッチ操作を行った際のユーザの感覚と実際のロボット2の動作とが互いにリンクし、ロボット2を直感的に操作できるようになると考えられる。
また、所望するロボット2の移動量が小さいときには、ロボット2の速度が大き過ぎると微調整等が難しくなり、所望するロボット2の移動量が大きいときには、ロボット2の速度があまり小さいと目標位置まで移動させるのに時間が掛かることになるものの、押圧力に比例するようにロボット2の速度を制御すれば、ユーザの意図に沿った形でロボット2を動作させることができると考えられる。
そこで、本実施形態では、以下のようにして、ロボット2の制御を行っている。
図4は、ペンダント4を用いてロボット2を操作する際の処理の流れを模式的に示している。なお、この処理は制御部20により実行されるものの、説明の簡略化のため、ここではペンダント4を主体として説明する。また、ロボット2の速度を押圧力に比例させるための設定、および、操作対象となる軸の選択等の設定は、この図4に示す処理が実行される前に既に行われているものとする。
ペンダント4は、図4に示す処理において、タッチ操作が入力されたか否かを判定しており(S1)、タッチ操作が入力されていないと判定した場合には(S1:NO)、タッチ操作が入力されるのを待機する。
これに対して、ペンダント4は、タッチ操作が入力されたと判定した場合には(S1:YES)、タッチ操作の操作態様として、押圧力を検出する(S2)。このとき、ペンダント4は、上記したようにユーザの指とタッチパネル22との接触面積に基づいて、押圧力を検出する。このステップS2の処理が、押圧力検出処理に相当する。この場合、押圧力は、タッチ操作したときに加えられた物理量であることから、押圧力を検出するために特定の表示位置を指定する等の必要は無く、基本的に、表示部21の表示内容とは切り離して取り扱うことができる。換言すると、押圧力は、画面のどこに触れられたとしても、検出することができる。なお、接触面積と押圧力との関係は、予め設定されている。
続いて、ペンダント4は、タッチ操作の操作態様として、座標情報を取得する(S3)。このとき、ペンダント4は、例えば接触面の中心位置や重心位置等を、ユーザが触れた座標として取得する。このステップS3の処理が、座標情報取得処理に相当する。また、本実施形態ではステップS2、S3の処理が、操作態様検出処理に相当する。
続いて、ペンダント4は、検出した押圧力に比例した速度となるように、動作指令を生成し、コントローラ3に出力する(S4)。
このとき、ペンダント4は、取得した座標情報に基づいて、ペンダント4は、タッチ操作が終了するまでの指の移動距離に応じて、ロボット2を移動させる距離を設定する。つまり、指が移動する距離が長ければ、ロボット2が移動する距離も長くなる。また、ペンダント4は、取得した座標情報に基づいて、ロボット2の移動方向も設定する。なお、指の移動距離とロボットの移動距離との対応関係、および、指の移動方向とロボットの軸との対応関係は、予め設定されている。
例えば、ペンダント4は、タッチ操作が開始された位置から画面上部に向かって指が移動した場合には操作対象軸を+方向に移動させる等の動作指令を生成する。なお、タッチ操作がまさに開始された瞬間には指が未だ移動しておらず、どの方向に移動させるべきかを判断できないため、タッチ操作が開始された時点では、実質的にはその座標(便宜的に開始座標と称する)を取得し、2回目以降にステップS4が実行されるときに、移動方向を判定することになる。このステップS4の処理が、動作指令生成処理に相当する。
続いて、ペンダント4は、タッチ操作が終了したか否か、つまり、タッチパネル22から指が離れたか否かを判定する(S5)。そして、ペンダント4は、タッチ操作が終了していないと判定した場合には(S5:NO)、ステップS2に移行して、押圧力の件検出(S2)、座標情報の取得(S3)、および動作指令の生成、出力(S4)を繰り返す。なお、ペンダント4は、タッチ操作が終了したと判定した場合には(S5:YES)、処理を終了する。
このように、ペンダント4は、操作態様検出部25で検出したユーザの操作態様に基づいて、ロボット2を動作させるための動作指令を動作指令生成部26にて生成している。
以上説明した実施形態によれば、次のような効果を得ることができる。
ロボット操作装置としてのペンダント4は、ユーザによるタッチ操作が入力されるタッチパネル22と、タッチパネル22に入力されるタッチ操作の操作態様を検出する操作態様検出部25と、操作態様検出部25による検出結果に基づいて、ロボット2を動作させるための動作指令を生成する動作指令生成部26と、を備えている。そして、操作態様検出部25は、操作態様としてタッチ操作が入力された際の押圧力を検出する押圧力検出部25aを有しており、動作指令生成部26は、押圧力検出部25aで検出した押圧力に比例した速度でロボット2が動作するように動作指令を生成する。
上記したように、ユーザがタッチ操作する際の押圧力の変化態様は、ロボット2が実際に動作する際の速度の変化態様に類似している。そのため、押圧力に比例した速度でロボット2が動作するように動作指令を生成すれば、タッチ操作する際のユーザの感覚と実際のロボット2の動作とをリンクさせることができる。そして、押圧力に応じた速度でロボットが動作することから、ユーザは、感覚的にロボット2の速度を設定することができるようになる。これにより、例えばティーチング等の手動操作時にロボット2の速度を細かく調整したい場合等において、簡便且つ容易に速度を調整することができるとともに、ロボット操作の延長で速度を設定することができるようになる。
この場合、感覚的に設定できると言うことは、表示部21の表示内容を視認しなくても操作できることを意味している。すなわち、例えば表示部21に速度を上昇させたり減少させたりするためのボタンを配置してそれをタッチ操作して速度を設定する構成の場合、ユーザは、表示部21のボタンの位置を確認する必要がある。そのため、例えば微調整する場合等において速度を変化させたいときには、ユーザは、表示部21のボタンの位置をその都度確認すること、つまり、ロボット2から目を離すことが必要となる。これに対して、本実施形態のように押圧力に応じた速度でロボット2が動作する場合、ユーザは、速度を調整する場合にロボット2から目を離す必要が無くなる。
このように、押圧力という、表示部21の表示とは切り離して扱うことができる物理量に基づいて速度を設定することにより、ユーザは、ロボット2に視線を向けたままでロボット2の速度を設定することができる。したがって、ロボットの速度の調整を簡便に行うことができる。
また、ペンダント4の操作態様検出部25は、操作態様としてタッチ操作が入力された際の座標情報を取得する座標情報取得部25bを有しており、タッチ操作が開始された開始座標からタッチ操作が開始された開始座標までの操作距離を取得し、動作指令生成部26は、座標情報取得部25bで取得した操作距離に応じてロボット2が動作するように、動作指令を生成する。この場合、上記した実施形態で例示したように、予め指の移動方向とロボット2の移動方向とを関連付けておくことにより、ユーザは、表示部21を見なくても、ロボット2を操作することができる。
また、座標情報取得部25bは、操作態様として、タッチ操作が開始された開始座標からの移動方向を取得する。これにより、ペンダント4は、単一方向への動作に限らず、複数方向への動作を同時に制御することが可能となる。すなわち、座標情報取得部25bは、ロボット2の移動方向を決定する移動方向決定手段としても機能する。
例えば、ユーザがペンダント4を把持した状態において、表示部21の画面の上方向へ指が移動した場合をフランジ座標系Σの+Y方向に対応付け、下方向へ指が移動した場合をフランジ座標系Σの−Y方向に対応付け、右方向へ指が移動した場合をフランジ座標系Σの+X方向に対応付け、左方向へ指が移動した場合をフランジ座標系Σの−X方向に対応付けておく。そして、タッチ操作を開始した位置からの指の移動方向に基づいて、ロボット2の動作方向を決定することにより、速度の設定と移動方向の設定とを1回のタッチ操作で行うことができる。これにより、例えばロボット2の位置を微調整する場合等、移動方向を細かく調整することが必要な場合に、容易に速度を調整することができる。
このとき、画面上の上下方向や左右方向であれば、ユーザは、画面を見なくても、感覚的に概ね所望の方向へ指を移動させることができると考えられる。また、タッチ操作が開始された位置からの指の移動方向でロボット2の移動方向を決定すれば、最初に触れる位置に依存せず、ロボットを動作させることができる。このように、タッチ操作時の指の移動方向によってロボット2の移動方向を設定する構成とすれば、ユーザは、画面を見なくても、感覚的に指の移動方向を概ね所望する方向にロボット2を操作できるようになる。
また、タッチパネル22に入力されるユーザがタッチ操作した際の操作態様を検出する操作態様検出処理(図4のステップS2、S3)と、操作態様検出処理による検出結果に基づいてロボット2を動作させるための動作指令を生成する動作指令生成処理(図4のステップS4)と、を含み、操作検出処理は、操作態様としてタッチ操作が入力された際の押圧力を検出する押圧力検出処理(図4のステップS2)を実行し、動作指令生成処理は、押圧力検出処理で検出した押圧力に比例した速度でロボット2が動作するように動作指令を生成するロボット操作プログラムをペンダント4に実行することにより、ユーザは、表示部21を見なくても、ロボット2を操作することができるようになる。したがって、ロボット2の速度の調整を簡便に行うことができる等、上記したロボット操作装置(ペンダント4)と同様の効果を得ることができる。
<変形例>
本発明は、上記し且つ図面に記載した実施形態に限定されるものではなく、その要旨を逸脱しない範囲で種々の実施形態に適用することができる。本発明は、例えば次のように変形あるいは拡張することができる。
実施形態では座標情報に基づいてロボット2の移動方向を決定したが、座標情報に基づいて操作対象となる軸を選択するようにしてもよい。すなわち、座標情報取得部25bを、操作対象となる軸を指定する軸指定手段として機能させてもよい。この場合、例えば、タッチ操作時に指が2本触れれば第2軸(J2)、3本であれば第三軸(J3)を操作対象に設定すること等が考えられる。
実施形態では、座標情報に基づいてロボット2の移動方向を指定するようにしたが、予め移動方向を設定しておき、その設定に対して押圧力でロボット2の速度を設定する処理としてもよい。つまり、操作態様検出処理は、図4のステップS3を省いた流れであっても実現することができる。
ロボット操作装置の操作対象としては、実施形態で例示した6軸垂直多関節型のロボット2に限らず、4軸の水平多関節型ロボットでもよい。
実施形態ではロボット操作装置をロボット専用のペンダント4で構成したが、これに限らず、汎用のタブレット型端末(いわゆるタブレットPC)やスマートフォン(多機能携帯電話)等にロボット制御用のアプリケーションを導入してロボット操作装置としてもよい。このような構成であっても、上記したペンダント4と同等の機能を実現することができ、同様の効果を得ることができる。
実施形態では、ロボット操作装置をペンダント4単体で構成した例を示したが、動作指令生成部26をコントローラ3側に設け、ペンダント4は操作端末として用い、タッチ操作が入力された際の操作態様をコントローラ3に送信し、コントローラ3で動作指令を生成してもよい。すなわち、コントローラ3とペンダント4とによりロボット操作装置を構成してもよい。
実施形態で例示した押圧力と速度との関係、指の移動距離とロボットの移動距離との関係は、タッチ操作時に押圧力にしたがう範囲で任意に設定することができる。また、それらの関係は、単純な正比例の関係ではなく、指数関数的な比例関係となるように設定してもよい。
実施形態では、操作距離(指の移動距離)に応じた移動距離でロボットが動作するように動作指令を生成したが、操作距離ではなく、操作時間すなわち指がタッチパネル11に触れている時間に応じた移動距離でロボットが動作するように動作指令を生成してもよい。これにより、例えばタッチパネル11の大きさにかかわらず、ロボットの移動距離を任意に制御することができる。また、タッチ操作時の移動方向に基づいてロボットの動作方向や操作対象となる軸の設定を行い、それらの設定が行われた後に、操作時間に応じた移動距離でロボットが動作するように動作指令を生成してもよい。
座標情報に対応付けられているロボット2の軸を、視認可能に表示部21に表示してもよい。
図面中、2はロボット、3はコントローラ(ロボット操作装置)、4はペンダント(ロボット操作装置)、22はタッチパネル、25は操作態様検出部、25aは押圧力検出部(操作態様検出部)、25bは座標情報取得部(操作態様検出部)、26は動作指令生成部を示す。

Claims (4)

  1. ユーザによるタッチ操作が入力されるタッチパネルと、
    前記タッチパネルに入力されるタッチ操作の操作態様を検出する操作態様検出部と、
    前記操作態様検出部による検出結果に基づいて、ロボットを動作させるための動作指令を生成する動作指令生成部と、を備え、
    前記操作態様検出部は、前記操作態様としてタッチ操作が入力された際の押圧力を検出する押圧力検出部を有しており、
    前記動作指令生成部は、前記押圧力検出部で検出した押圧力に比例した速度で前記ロボットが動作するように、前記動作指令を生成することを特徴とするロボット操作装置。
  2. 前記操作態様検出部は、タッチ操作が入力された際の座標情報を取得する座標情報取得部を有しており、前記操作態様として、タッチ操作が開始された開始座標からタッチ操作が開始された開始座標までの操作距離を取得し、
    前記動作指令生成部は、前記座標情報取得部で取得した操作距離に応じた移動距離で前記ロボットが動作するように、前記動作指令を生成することを特徴とする請求項1記載のロボット操作装置。
  3. 前記操作態様検出部は、タッチ操作が入力された際の座標情報を取得する座標情報取得部を有しており、前記操作態様として、タッチ操作が開始された開始座標からの移動方向を取得し、
    前記動作指令生成部は、前記座標情報取得部で取得した移動方向に応じた方向に前記ロボットが動作するように、前記動作指令を生成することを特徴とする請求項1または2記載のロボット操作装置。
  4. タッチパネルに入力されるユーザがタッチ操作した際の操作態様を検出する操作態様検出処理と、
    前記操作態様検出処理による検出結果に基づいて、ロボットを動作させるための動作指令を生成する動作指令生成処理と、を含み、
    前記操作検出処理は、前記操作態様としてタッチ操作が入力された際の押圧力を検出する押圧力検出処理を実行し、
    前記動作指令生成処理は、前記押圧力検出処理で検出した押圧力に比例した速度で前記ロボットが動作するように、前記動作指令を生成することを特徴とするロボット操作プログラム。
JP2015054773A 2015-03-18 2015-03-18 ロボット操作装置、ロボット操作プログラム Active JP6803650B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015054773A JP6803650B2 (ja) 2015-03-18 2015-03-18 ロボット操作装置、ロボット操作プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015054773A JP6803650B2 (ja) 2015-03-18 2015-03-18 ロボット操作装置、ロボット操作プログラム

Publications (2)

Publication Number Publication Date
JP2016175133A true JP2016175133A (ja) 2016-10-06
JP6803650B2 JP6803650B2 (ja) 2020-12-23

Family

ID=57070897

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015054773A Active JP6803650B2 (ja) 2015-03-18 2015-03-18 ロボット操作装置、ロボット操作プログラム

Country Status (1)

Country Link
JP (1) JP6803650B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018038618A (ja) * 2016-09-08 2018-03-15 京楽産業.株式会社 遊技機
JP2018183845A (ja) * 2017-04-26 2018-11-22 ファナック株式会社 ロボットを操作するための操作装置、ロボットシステム、および操作方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11262883A (ja) * 1998-03-19 1999-09-28 Denso Corp ロボットのマニュアル操作装置
JP2006350602A (ja) * 2005-06-15 2006-12-28 Yushin Precision Equipment Co Ltd 操作端末装置
JP2012024848A (ja) * 2010-07-20 2012-02-09 Denso Wave Inc ロボット教示装置
JP2013058136A (ja) * 2011-09-09 2013-03-28 Kddi Corp 画面内の対象が押圧によって操作可能なユーザインタフェース装置、対象操作方法及びプログラム
US20140184524A1 (en) * 2012-12-31 2014-07-03 General Electric Company Systems and methods for virtual control of a non-destructive testing system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11262883A (ja) * 1998-03-19 1999-09-28 Denso Corp ロボットのマニュアル操作装置
JP2006350602A (ja) * 2005-06-15 2006-12-28 Yushin Precision Equipment Co Ltd 操作端末装置
JP2012024848A (ja) * 2010-07-20 2012-02-09 Denso Wave Inc ロボット教示装置
JP2013058136A (ja) * 2011-09-09 2013-03-28 Kddi Corp 画面内の対象が押圧によって操作可能なユーザインタフェース装置、対象操作方法及びプログラム
US20140184524A1 (en) * 2012-12-31 2014-07-03 General Electric Company Systems and methods for virtual control of a non-destructive testing system

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018038618A (ja) * 2016-09-08 2018-03-15 京楽産業.株式会社 遊技機
JP2018183845A (ja) * 2017-04-26 2018-11-22 ファナック株式会社 ロボットを操作するための操作装置、ロボットシステム、および操作方法
US10654171B2 (en) 2017-04-26 2020-05-19 Fanuc Corporation Operation device for operating robot, robot system, and operation method

Also Published As

Publication number Publication date
JP6803650B2 (ja) 2020-12-23

Similar Documents

Publication Publication Date Title
JP6642054B2 (ja) ロボット操作装置、及びロボット操作プログラム
US10076839B2 (en) Robot operation apparatus, robot system, and robot operation program
US9857962B2 (en) Robot operation apparatus and robot operation program product
US20160096275A1 (en) Robot operation apparatus, robot system, and robot operation program
US10048851B2 (en) Apparatus for operating robots
JP6631279B2 (ja) ロボット操作装置、ロボット操作プログラム
US10086517B2 (en) Apparatus and method for operating robots
KR102042115B1 (ko) 로봇의 동작프로그램 생성방법 및 로봇의 동작프로그램 생성장치
JP6683671B2 (ja) ジョグ座標系を設定するロボットの制御装置
JPWO2017033380A1 (ja) ロボットシステム
JP6953778B2 (ja) 協調ロボット、コントローラ、および方法
US10394436B2 (en) Manipulation apparatus
JP7049069B2 (ja) ロボットシステム及びロボットシステムの制御方法
JP2016175132A (ja) ロボット操作装置、ロボット操作方法
JP2016175178A (ja) ロボット操作装置、及びロボット操作プログラム
JP6803650B2 (ja) ロボット操作装置、ロボット操作プログラム
JP6710919B2 (ja) ロボット操作装置
TW202335810A (zh) 教示操作盤及機器人控制系統
JP6601201B2 (ja) ロボット操作装置、及びロボット操作プログラム
JP2016059974A (ja) ロボット操作装置、ロボットシステム、及びロボット操作プログラム
JP6435940B2 (ja) ロボット操作装置、及びロボット操作プログラム
JP6379921B2 (ja) ロボット操作装置、ロボットシステム、及びロボット操作プログラム
JP5912054B2 (ja) ロボット制御装置
JP6981295B2 (ja) 操作認識装置
JP6471446B2 (ja) ロボット操作装置、ロボットシステム、及びロボット操作プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171012

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180522

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180703

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190108

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190709

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190917

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20190917

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20190926

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20191001

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20191011

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20191023

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20200128

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20200303

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200423

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20200602

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20200707

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20200707

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200824

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20200929

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20201104

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20201104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201201

R150 Certificate of patent or registration of utility model

Ref document number: 6803650

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150