JP6526098B2 - ロボットを操作するための操作装置、ロボットシステム、および操作方法 - Google Patents

ロボットを操作するための操作装置、ロボットシステム、および操作方法 Download PDF

Info

Publication number
JP6526098B2
JP6526098B2 JP2017087433A JP2017087433A JP6526098B2 JP 6526098 B2 JP6526098 B2 JP 6526098B2 JP 2017087433 A JP2017087433 A JP 2017087433A JP 2017087433 A JP2017087433 A JP 2017087433A JP 6526098 B2 JP6526098 B2 JP 6526098B2
Authority
JP
Japan
Prior art keywords
robot
input
model
image
touch screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017087433A
Other languages
English (en)
Other versions
JP2018183845A (ja
Inventor
知之 山本
知之 山本
啓太 前田
啓太 前田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
FANUC Corp
Original Assignee
FANUC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by FANUC Corp filed Critical FANUC Corp
Priority to JP2017087433A priority Critical patent/JP6526098B2/ja
Priority to DE102018109304.7A priority patent/DE102018109304B4/de
Priority to US15/958,786 priority patent/US10654171B2/en
Priority to CN201810359950.1A priority patent/CN108789403B/zh
Publication of JP2018183845A publication Critical patent/JP2018183845A/ja
Application granted granted Critical
Publication of JP6526098B2 publication Critical patent/JP6526098B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/06Control stands, e.g. consoles, switchboards
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/088Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/1605Simulation of manipulator lay-out, design, modelling of manipulator
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/36Nc in input of data, input key till input tape
    • G05B2219/36168Touchscreen
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/36Nc in input of data, input key till input tape
    • G05B2219/36401Record play back, teach position and record it then play back
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39446Display of manipulator and workpiece and jog directions

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Human Computer Interaction (AREA)
  • Artificial Intelligence (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Manipulator (AREA)
  • Numerical Control (AREA)
  • Toys (AREA)

Description

本発明は、ロボットを操作するための操作装置、ロボットシステム、および操作方法に関する。
ロボットをジョグするための操作装置が知られている(例えば、特許文献1および2)。
国際公開第98/03314号 特開2012−171024号公報
上述のような操作装置において、ユーザが意図することなくロボットが実空間で動作してしまうのを確実に防止する技術が求められている。
本開示の一態様において、ロボットを操作するための操作装置は、ロボットをモデル化したロボットモデルの画像を表示するとともに、タッチ入力を受け付けるタッチスクリーンと、タッチスクリーンの面をタッチするタッチ入力に応じてロボットモデルを動作させるモデル動作実行部と、ロボットを実空間で動作させるためのロボット動作ボタンと、ロボット動作ボタンの入力を検出する動作入力検出部と、動作入力検出部がロボット動作ボタンの入力を継続して検出している間、モデル動作実行部が実行したロボットモデルの動作と同じ動作を実空間でロボットに実行させる指令を出力する実機動作指令部とを備える。
本開示の他の一態様において、ロボットを操作する方法は、ロボットをモデル化したロボットモデルの画像を、タッチ入力を受け付け可能なタッチスクリーンに表示することと、タッチスクリーンの面をタッチするタッチ入力に応じてロボットモデルを動作させることと、ロボットを実空間で動作させるためのロボット動作ボタンの入力を検出することと、ロボット動作ボタンの入力を継続して検出している間、ロボットモデルの動作と同じ動作を実空間でロボットに実行させる指令を出力することとを備える。
本開示の一態様によれば、ユーザがロボット動作ボタンを入力している間のみ、実空間のロボットが動作することになる。この構成によれば、ユーザが意図することなくロボットが実空間で動作してしまうのを、確実に防止することができる。
一実施形態に係るロボットシステムの概略図である。 図1に示す操作装置のブロック図である。 図1に示す操作装置のタッチスクリーンに表示される画像の例を示す。 ユーザがロボット動作ボタンを入力している状態を示す。 他の実施形態に係る操作装置のブロック図である。 図5に示す操作装置の動作フローの一例を示すフローチャートである。 図6中のステップS3およびS4を説明するための図であって、図5に示す操作装置のタッチスクリーンに表示される画像の例を示す。 図6中のステップS6のフローの一例を示すフローチャートである。 さらに他の実施形態に係る操作装置のブロック図である。 図5に示す操作装置が実行する、図6中のステップS6の動作フローの一例を示すフローチャートである。 さらに他の実施形態に係る操作装置のブロック図である。 図11に示す操作装置のタッチスクリーンに表示される画像の例を示す。 図12に示すロボットモデルを異なる方向から見た画像を示す。
以下、本開示の実施の形態を図面に基づいて詳細に説明する。なお、以下に説明する種々の実施形態において、同様の要素には同じ符号を付し、重複する説明を省略する。まず、図1および図2を参照して、一実施形態に係るロボットシステム10について説明する。
ロボットシステム10は、ロボット12と、ロボット12を制御するロボット制御部14と、ロボット制御部14に通信可能に接続された操作装置50とを備える。ロボット制御部14は、CPUおよびメモリ(図示せず)等を有し、ロボット12の各構成要素を直接的または間接的に制御する。
本実施形態においては、ロボット12は、垂直多関節ロボットであり、ベース16、旋回胴18、ロボットアーム20、手首部22、およびエンドエフェクタ24を有する。ベース16は、実空間の作業セルの床に固定されている。
旋回胴18は、鉛直軸周りに回動可能となるように、ベース16に設けられている。ロボットアーム20は、旋回胴18に回動可能に連結された下腕部26と、該下腕部26の先端に回動可能に連結された上腕部28とを有する。手首部22は、上腕部28の先端に回動可能に連結され、エンドエフェクタ24を支持している。
旋回胴18、ロボットアーム20、および手首部22の各々には、サーボモータ(図示せず)が内蔵されている。ロボット制御部14は、各サーボモータに指令を送り、旋回胴18、ロボットアーム20、および手首部22を駆動する。
これにより、ロボット12は、実空間において任意の位置および姿勢に配置される。換言すれば、ロボット12の実空間における位置および姿勢は、旋回胴18、ロボットアーム20、および手首部22に内蔵されたサーボモータの回転角度によって規定される。
操作装置50は、例えば、タブレット端末またはスマートフォンといった手持ち式の通信機器、もしくはPCであって、ロボット制御部14に、有線または無線で通信可能に接続されている。
図2に示すように、操作装置50は、タッチスクリーン52、モデル動作実行部54、ロボット動作ボタン56、動作入力検出部58、および実機動作指令部60を備える。
タッチスクリーン52は、画像62(図1、図3)を表示するとともに、ユーザからタッチ入力を受け付ける。具体的には、タッチスクリーン52は、LCDまたは有機ELディスプレイ等の表示部と、抵抗膜型、静電容量型または電磁誘導型等のタッチセンサ(ともに図示せず)とを有する。
画像62は、ロボット動作ボタン56(図1、図3)の画像と、ロボット12をモデル化したロボットモデル64の画像を含む仮想空間70の画像とを有する。ロボットモデル64は、3次元のCGである。ロボット動作ボタン56は、画像62内における、仮想空間70とは別の区域に表示されている。ロボット動作ボタン56の技術的意義については、後述する。
モデル動作実行部54は、ユーザがタッチスクリーン52の表面をタッチするタッチ入力に応じて、ロボットモデル64を仮想空間70内で仮想的に動作させる。この動作について、図3を参照して説明する。
一例として、モデル動作実行部54は、スライドタッチ入力に応じてロボットモデル64を動作させる。このスライドタッチ入力とは、ユーザが指F(または、タッチペンのような、タッチセンサに対してタッチ入力可能な部材)でタッチスクリーン52の表面をタッチし、該タッチ点をタッチスクリーン52の表面上で任意の方向Bへスライドさせる入力操作である。
例えば、モデル動作実行部54は、タッチスクリーン52(より具体的には、タッチセンサ)の表面における、仮想空間70の表示領域へのスライドタッチ入力を受け付けたとき、該スライドタッチ入力に応じて、ロボットモデル64を仮想空間70内で仮想的に動作させる。
具体的には、ユーザが指Fで、タッチスクリーン52における、仮想空間70の表示領域の所定位置Aをタッチし、指Fでタッチスクリーン52をタッチしつつ、該指Fを矢印Bの方向へ位置A’までスライドさせ、該位置A’で指Fをタッチスクリーン52から離す。
この場合、モデル動作実行部54は、このようなタッチ入力を、ロボットモデル64を仮想的に移動させるためのスライドタッチ入力として認識し、該スライドタッチ入力に応じて、ロボットモデル64を、ロボットモデル64’として示される位置および姿勢へ、仮想空間70内で移動させる。
本実施形態においては、タッチスクリーン52には、座標系Cが設定される。モデル動作実行部54は、タッチスクリーン52のタッチセンサからの出力信号に基づいて、スライドタッチ入力の始点Aの座標系Cにおける座標と、スライドタッチ入力の終点A’の座標系Cにおける座標を求める。
そして、モデル動作実行部54は、始点Aおよび終点A’の座標から、始点Aから終点A’へのベクトルと、該ベクトルの大きさを求め、該ベクトルおよび該ベクトルの大きさを、仮想空間70における移動方向Cおよび移動距離Dにそれぞれ変換する。
そして、モデル動作実行部54は、移動対象とするロボットモデル64の構成要素モデル(例えば、エンドエフェクタ24をモデル化したエンドエフェクタモデル)を、移動方向Cへ移動距離Dだけ仮想空間70内で移動させる。
このとき、モデル動作実行部54は、移動対象の構成要素モデルを移動方向Cへ移動距離Dだけ移動させるのに要する、仮想空間70におけるロボットモデル64の各構成要素モデルの経路(以下、仮想ジョグ経路とする)を算出する。
なお、仮想空間70におけるロボットモデル64の各構成要素モデル(ベースモデル、旋回胴モデル、ロボットアームモデル、手首部モデル)は、実機のロボット12と同様に、構成要素間の関節での許容回転角度等に起因する移動の制約を受ける。
すなわち、ロボットモデル64は、実機のロボット12と同じ可動範囲を有している。その一方で、ロボットモデル64の各構成要素モデルは、仮想空間70においては移動速度の制限は受けない。
したがって、モデル動作実行部54は、仮想空間70において、ロボットモデル64の移動対象の構成要素モデルを、該ロボットモデル64の可動範囲内で、移動方向Cへ移動距離Dだけ、ユーザからのスライドタッチ入力と同等の速度で移動させることができる。その結果、ロボットモデル64は、図3に示すように、ロボットモデル64’の位置および姿勢に仮想空間70内で移動される。
また、他の例として、ユーザは、上記のスライドタッチ入力の代わりに、ロボットモデル64を仮想空間70内で動作させるときの始点と終点を指定するために、タッチスクリーン52の表面上で始点Aと終点A’をタッチするタッチ入力を行ってもよい。この場合、モデル動作実行部54は、始点Aおよび終点A’へのタッチ入力に応じて、ロボットモデル64を上述したように仮想的に動作させる。
また、モデル動作実行部54は、移動対象の構成要素モデルの指定をユーザから受け付けてもよい。例えば、ユーザは、ロボットモデル64の構成要素モデルのうち、移動対象とする構成要素モデル(例えばエンドエフェクタモデル)の位置に対応する、タッチスクリーン52の表面上の位置に対してタッチ入力する。
この場合、モデル動作実行部54は、タッチ入力を受け付けた構成要素モデルを移動対象とし、スライドタッチ入力(または、始点Aと終点A’へのタッチ入力)に応じて、移動対象の構成要素モデルを仮想空間70内で移動させる。
本実施形態においては、モデル動作実行部54は、移動前のロボットモデル64と、移動後のロボットモデル64’の双方を、仮想空間70に表示している。この場合において、ロボットモデル64と64’とを視覚的に区別するために、ロボットモデル64’は、例えば、半透明もしくは点線として表示されてもよいし、または、ロボットモデル64とは別の色で表示されてもよい。または、モデル動作実行部54は、ロボットモデル64を移動した後は、移動前のロボットモデル64を画像62から消去してもよい。
一例として、操作装置50は、後述するように、ロボットモデル64の仮想ジョグ経路から、モデル動作実行部54が実行したロボットモデル64の動作と同じ動作を実機のロボット12に実行させるための各サーボモータへの動作指令を生成する。
また、他の例として、操作装置50は、ロボットモデル64の仮想ジョグ経路に関する情報をロボット制御部14へ送信する。この場合、ロボット制御部14は、受信した仮想ジョグ経路から、各サーボモータへの動作指令を生成する。
モデル動作実行部54は、上述のようにロボットモデル64を仮想的に動作させる第1の仮想ジョグ動作に続いて、第2の仮想ジョグ動作を実行し得る。具体的には、ユーザは、最初のタッチ入力(例えば、スライドタッチ入力)を実行して指Fをタッチスクリーン52から離した後、再度、タッチスクリーン52の表面上の所定位置を指Fでタッチして第2のタッチ入力を実行する。
モデル動作実行部54は、該第2のタッチ入力に応じて、ロボットモデル64’を仮想空間70内で仮想的に動作させる第2の仮想ジョグ動作を実行する。こうして、ユーザが第nのタッチ入力(nは2以上の整数)を順次実行する毎に、モデル動作実行部54は、該第nのタッチ入力に応じて、第nの仮想ジョグ動作を実行する。
動作入力検出部58は、ロボット動作ボタン56の入力を検出する。具体的には、ユーザは、図4に示すように、タッチスクリーン52におけるロボット動作ボタン56の表示領域56Aを指Fでタッチする。動作入力検出部58は、表示領域56Aに配設されたタッチセンサからの出力信号から、図4に示すような表示領域56Aへのタッチ入力を検出する。
このように、本実施形態においては、ロボット動作ボタン56は、タッチスクリーン52に画像として表示され、動作入力検出部58は、タッチスクリーン52の表示領域56Aへのタッチ入力を、ロボット動作ボタン56の入力として検出する。
実機動作指令部60は、動作入力検出部58が表示領域56Aへのタッチ入力を継続して検出している間、モデル動作実行部54が実行したロボットモデル64の動作(すなわち、仮想ジョグ動作)と同じ動作を実空間でロボット12に実行させる指令を、ロボット制御部14へ出力する。
一例として、操作装置50がロボット12の各サーボモータへの動作指令を生成した場合、実機動作指令部60は、動作入力検出部58が表示領域56Aへのタッチ入力を検出している間、生成した動作指令をロボット制御部14に送信する。
ロボット制御部14は、実機動作指令部60から受信した動作指令を、ロボット12に内蔵されたサーボモータへそれぞれ送信する。こうして、ロボット12は、モデル動作実行部54が実行した仮想ジョグ動作と同じ動作を、実空間で実行する。
一方、ユーザが指Fを表示領域56Aから離し、これにより、動作入力検出部58がタッチ入力を検出しなくなったとき、実機動作指令部60は、ロボット制御部14への動作指令の送信を停止する。これにより、ロボット制御部14は、ロボット12の各サーボモータへの動作指令の送信を停止し、以って、実空間でのロボット12の動作を停止する。
他の例として、ロボット制御部14が、操作装置50から受信した仮想ジョグ経路に基づいて各サーボモータへの動作指令を生成する場合、実機動作指令部60は、動作入力検出部58がタッチ入力を検出している間、ジョグ許可指令をロボット制御部14に送信する。
ロボット制御部14は、実機動作指令部60からジョグ許可指令を受信している間、動作指令をロボット12のサーボモータへそれぞれ送信し、仮想ジョグ動作と同じ動作を、実空間でロボット12に実行させる。一方、動作入力検出部58がタッチ入力を検出しなくなったとき、実機動作指令部60は、ジョグ許可指令の送信を停止する。
ロボット制御部14は、ジョグ許可指令の受信が停止しているとき、ロボット12の各サーボモータへの動作指令の送信を停止し、以って、実空間でのロボット12の動作を停止する。
このように、本実施形態によれば、ユーザが表示領域56Aへタッチ入力を行っている間のみ、実空間のロボット12が動作することになる。この構成によれば、ユーザが意図することなくロボット12が実空間で動作してしまうのを、確実に防止することができる。
また、本実施形態においては、ユーザは、スライドタッチ入力等のタッチ入力を繰り返し実行して、ロボットモデル64を仮想空間70内で連続的に動作させることができる。この構成によれば、ロボットモデル64をより詳細に動作させることができる。
次に、図5を参照して、他の実施形態に係る操作装置80について、説明する。操作装置80は、上述の操作装置50と同様に、例えば手持ち式通信機器またはPCである。操作装置80は、上述の操作装置50の代わりに、図1に示すロボットシステム10に適用され、ロボット制御部14に通信可能に接続され得る。
操作装置80は、CPU82、システムメモリ84、ワークメモリ86、入力/出力インターフェース(I/Oインターフェース)88、計時部90、および上述のタッチスクリーン52を備える。
CPU82は、システムメモリ84、ワークメモリ86、タッチスクリーン52およびI/Oインターフェース88と、バス92を介して通信可能に接続されており、これらの要素と通信しつつ、後述する各種のプロセスを実行する。
システムメモリ84は、電気的に消去・記録可能な不揮発性メモリであり、例えば、EEPROM(登録商標)等から構成される。システムメモリ84は、CPU82が後述する各種プロセスを実行するのに要する定数、変数、設定値、プログラム等を、操作装置80の非動作時にも失われないように記憶する。
ワークメモリ86は、CPU82が各種プロセスを実行するのに要するデータを一時的に保管する。また、ワークメモリ86には、システムメモリ84に記録されている定数、変数、設定値、パラメータ、プログラム等が適宜展開される。CPU82は、ワークメモリ86に展開されたデータを、各種プロセスを実行するために利用する。
I/Oインターフェース88は、ロボット制御部14と通信可能に接続され、CPU82からの指令の下、ロボット制御部14と通信する。I/Oインターフェース88は、例えばイーサネットポートまたはUSBポート等から構成され、ロボット制御部14と有線で通信してもよい。または、I/Oインターフェース88は、例えばWi−Fi等の無線LANを介して、ロボット制御部14と無線で通信してもよい。
計時部90は、CPU82からの指令に応じて、予め定められた時点からの経過時間を計時する。
次に、図6〜図8を参照して、操作装置80の動作について説明する。図6に示すフローは、CPU82が、ユーザまたはロボット制御部14から動作開始指令を受け付けたときに、開始する。
ステップS1において、CPU82は、ロボット制御部14から、実空間におけるロボット12の位置および姿勢を取得する。一例として、ロボット制御部14は、ロボット12に内蔵された各サーボモータの回転角度から、現時点におけるロボット12の各可動要素(旋回胴18、ロボットアーム20、手首部22)の実空間における位置および姿勢を求める。
そして、ロボット制御部14は、求めた位置および姿勢を表す情報を、I/Oインターフェース88に送信する。CPU82は、I/Oインターフェース88を通して、ロボット制御部14から送信された位置および姿勢を表す情報を取得し、システムメモリ84に記憶する。
また、他の例として、ロボット制御部14は、ロボット12に内蔵された各サーボモータの回転角度に関する情報を、I/Oインターフェース88に送信する。CPU82は、I/Oインターフェース88を通して、ロボット制御部14から送信された各サーボモータの回転角度に関する情報を取得し、ワークメモリ86に記憶する。
そして、CPU82は、ロボット制御部14から受信した回転角度から、ロボット12の各可動要素の位置および姿勢を求めて、システムメモリ84に記憶する。
このように、本実施形態においては、CPU82は、ロボット制御部14からロボット12の位置および姿勢を取得する状態取得部94(図5)としての機能を担う。
ステップS2において、CPU82は、ロボットモデル64を含む画像を生成し、タッチスクリーン52に表示する。この画像の例を図7に示す。図7に示す画像96は、ロボット動作ボタン56、ロボットモデル64を含む仮想空間70、プレビューボタン98、および元に戻すボタン100の画像を含む。
ロボットモデル64は、ステップS1でCPU82が取得した位置および姿勢に配置された状態のロボット12をモデル化した3次元CGである。プレビューボタン98は、仮想空間70およびロボット動作ボタン56とは別の区域に表示されている。
元に戻すボタン100は、仮想空間70、ロボット動作ボタン56、およびプレビューボタン98とは別の区域に表示されている。これらプレビューボタン98および元に戻すボタン100の技術的意義については、後述する。
ステップS3において、CPU82は、ユーザからのタッチ入力を検出したか否かを判定する。例えば、図7に示すように、ユーザが指Fで、タッチスクリーン52の表面上の始点Aから終点A’までスライドタッチ入力をしたとする。
CPU82は、タッチスクリーン52における、仮想空間70の表示領域に配設されたタッチセンサからの出力信号を監視し、始点Aから終点A’までのスライドタッチ入力を検出する。
CPU82は、タッチ入力を検出した(すなわち、YES)と判定した場合、ステップS4へ進む。一方、CPU82は、タッチ入力を検出していない(すなわち、NO)と判定した場合、ステップS6へ進む。
ステップS4において、CPU82は、ステップS3で検出したタッチ入力に応じて、ロボットモデル64を仮想空間70内で仮想的に動作させる仮想ジョグ動作を実行する。具体的には、CPU82は、上述した実施形態と同様に、タッチ入力の始点Aおよび終点A’の座標から仮想空間70内での移動方向Cおよび移動距離Dを算出し、ステップS1で取得した位置および姿勢に配置されたロボットモデル64の、移動対象となる構成要素モデル(エンドエフェクタモデル)を、移動方向Cへ移動距離Dだけ仮想的に移動させる。
このとき、CPU82は、仮想空間70におけるロボットモデル64の各構成要素モデルの仮想ジョグ経路を算出し、ワークメモリ86に記憶する。その結果、ロボットモデル64は、図7に示すように、ロボットモデル64’の位置および姿勢に移動される。
このように、本実施形態においては、CPU82は、タッチ入力に応じてロボットモデル64を仮想的に動作させるモデル動作実行部102(図5)としての機能を担う。
ステップS5において、CPU82は、ステップS4で実行した仮想ジョグ動作と同じ動作を実機のロボット12に実行させるための各サーボモータへの動作指令を生成する。具体的には、CPU82は、ステップS4で算出した仮想ジョグ経路に基づいて、各サーボモータへの動作指令を生成し、システムメモリ84に記憶する。
このように、本実施形態においては、CPU82は、タッチ入力の始点Aおよび終点A’の座標から求められる仮想ジョグ経路に基づいて、動作指令を生成している。したがって、CPU82は、タッチ入力の始点Aおよび終点A’に基づいて動作指令を生成する動作指令生成部104(図5)としての機能を担う。
ここで、本実施形態においては、CPU82は、タッチスクリーン52の表面における、プレビューボタン98の表示領域へのタッチ入力を検出したとき、ステップS4で実行した仮想ジョグ動作を、仮想空間70内で再生する。
具体的には、CPU82は、プレビューボタン98へのタッチ入力を検出したとき、ステップS4で算出した仮想ジョグ経路をワークメモリ86から読み出し、ロボットモデル64が仮想ジョグ経路に沿ってロボットモデル64’の位置および姿勢まで移動する動作を再生する。これにより、ユーザは、仮想ジョグ動作を詳細に確認できる。
また、CPU82は、タッチスクリーン52の表面における、元に戻すボタン100の表示領域へのタッチ入力を検出したとき、ステップS4で実行した仮想ジョグ動作をキャンセルする。
具体的には、CPU82は、元に戻すボタン100へのタッチ入力を検出したとき、ステップS4の実行後のロボットモデル64’を仮想空間70から消去して、画像96を、ステップS4の実行前の状態に戻す。これにより、ユーザは、不適切な仮想ジョグ動作を行ってしまった場合等において、該仮想ジョグ動作を簡単にキャンセルできる。
ステップS6において、CPU82は、動作指令を送信するプロセスを実行する。このステップS6について、図8を参照して説明する。
ステップS11において、CPU82は、ロボット動作ボタン56の表示領域56Aへのタッチ入力を検出したか否かを判定する。具体的には、CPU82は、表示領域56Aのタッチセンサからの出力信号を監視し、表示領域56Aへのタッチ入力を検出したか否かを判定する。
CPU82は、表示領域56Aへのタッチ入力を検出した(すなわち、YES)と判定した場合、ステップS12へ進む。一方、CPU82は、表示領域56Aへのタッチ入力を検出していない(すなわち、NO)と判定した場合、ステップS19へ進む。
このように、本実施形態においては、CPU82は、ロボット動作ボタン56の入力を検出する動作入力検出部106(図5)としての機能を担う。
ステップS12において、CPU82は、計時を開始する。具体的には、CPU82は、計時部90に指令を送り、ステップS11でYESと判定した時点からの経過時間tを計時する。
ステップS13において、CPU82は、計時部90が経時している経過時間tが、予め定められた時間tに達したか否かを判定する。予め定められた時間tは、ユーザによって予め定められ(例えば、t=1秒)、システムメモリ84に予め記憶される。
CPU82は、経過時間tが時間tに達した(すなわち、YES)と判定した場合、ステップS15へ進む。一方、CPU82は、経過時間tが時間tに達していない(すなわち、NO)と判定した場合、ステップS14へ進む。
ステップS14において、CPU82は、ロボット動作ボタン56の表示領域56Aへのタッチ入力を依然として検出しているか否かを判定する。CPU82は、タッチ入力を検出している(すなわち、YES)と判定した場合、ステップS13へ戻る。一方、CPU82は、タッチ入力を検出していない(すなわち、NO)と判定した場合、ステップS11へ戻る。
なお、CPU82は、ステップS13およびS14のループを、周期τ(例えば、τ=0.2秒)で繰り返し実行してもよい。このように、CPU82は、表示領域56Aへのタッチ入力を、時間t(1秒)に亘って継続的に検出したとき、ステップS15へ進む。
ステップS15において、CPU82は、動作指令のロボット制御部14への送信を開始する。具体的には、CPU82は、ステップS5で生成した動作指令をシステムメモリ84から読み出し、該動作指令を、I/Oインターフェース88を通して、ロボット制御部14へ順次送信する。
ロボット制御部14は、CPU82から受信した動作指令を、ロボット12のサーボモータへそれぞれ送信する。これにより、ロボット12は、ステップS4で実行した仮想ジョグ動作と同じ動作を、実空間で実行する。
ステップS16において、CPU82は、上述のステップS14と同様に、ロボット動作ボタン56の表示領域56Aへのタッチ入力を依然として検出しているか否かを判定する。CPU82は、タッチ入力を検出している(すなわち、YES)と判定した場合、ステップS18へ進む。一方、CPU82は、表示領域56Aへのタッチ入力を検出していない(すなわち、NO)と判定した場合、ステップS17へ進む。
ステップS17において、CPU82は、動作指令のロボット制御部14への送信を停止する。これにより、ロボット制御部14は、ロボット12の各サーボモータへの動作指令の送信を停止し、以って、実空間でのロボット12の動作を停止する。そして、CPU82は、ステップS11へ戻る。
ステップS18において、CPU82は、動作指令の送信が完了したか否かを判定する。具体的には、CPU82は、ステップS5でシステムメモリ84に記憶された動作指令を全て送信した場合、YESと判定し、ステップS19へ進む。一方、CPU82は、ステップS5でシステムメモリ84に記憶された動作指令で未送信のものがある場合、NOと判定し、ステップS16へ戻る。
このように、本実施形態においては、CPU82は、ロボット動作ボタン56の表示領域56Aへのタッチ入力を継続して検出している(すなわち、ステップS16およびS18をループしている)間だけ、ロボット12を実空間で動作させる動作指令を、ロボット制御部14へ出力している。
その一方で、CPU82は、表示領域56Aへのタッチ入力が検出されなくなった(すなわち、ステップS16でNOと判定した)ときは、実空間でのロボット12の動作を停止している(ステップS17)。
したがって、本実施形態においては、CPU82は、ロボット動作ボタン56の入力を継続して検出している間、仮想ジョグ動作と同じ動作を実空間でロボット12に実行させる指令を出力する実機動作指令部108(図5)としての機能を担う。なお、CPU82は、ステップS16およびS18のループを、周期τ(例えば、τ=0.5秒)で繰り返し実行してもよい。
ステップS19において、CPU82は、ユーザまたはロボット制御部14から動作終了指令を受け付けたか否かを判定する。CPU82は、動作終了指令を受け付けた(すなわち、YES)と判定した場合、図8に示すステップS6を終了し、以って、図6に示すフローを終了する。
一方、CPU82は、動作終了指令を受け付けていない(すなわち、NO)と判定した場合、図6中のステップS3へ戻る。そして、CPU82は、ステップS19でYESと判定するまで、ステップS3〜S6をループする。
こうして、CPU82は、第nのタッチ入力(nは2以上の整数)を検出する(ステップS3)毎に、該第nのタッチ入力に応じて第nの仮想ジョグ動作を実行する(ステップS4)。
そして、CPU82は、ステップS4を実行する毎に、第nの仮想ジョグ動作と同じ動作をロボット12に実行させるための第nの動作指令を生成し(ステップS5)、システムメモリ84に順次記憶していく。
このように、本実施形態によれば、ユーザが表示領域56Aにタッチ入力している間のみ、実空間のロボット12が動作することになるので、ユーザが意図することなくロボット12が実空間で動作してしまうのを、確実に防止することができる。
また、本実施形態においては、ユーザは、タッチ入力を繰り返し実行して、ロボットモデル64を仮想空間70内で連続的にジョグさせることができる。この構成によれば、ロボットモデル64の仮想ジョグ動作を、より精細に行うことができる。
また、本実施形態においては、CPU82は、状態取得部94として機能して、実機のロボット12の位置および姿勢を取得し(ステップS1)、モデル動作実行部102として機能して、取得した位置および姿勢に配置されたロボットモデル64を動作している(ステップS4)。この構成によれば、実機のロボット12と仮想空間70内のロボットモデル64とを同期させることができる。
また、本実施形態においては、CPU82は、動作指令生成部104として機能して、実機のロボット12に送信される動作指令を、操作装置80の側で生成している。この構成によれば、操作装置80でロボット12を操作するときのロボット制御部14の演算処理量を削減できるので、ロボット制御部14のリソースに掛る負荷を軽減できる。
次に、図9を参照して、さらに他の実施形態に係る操作装置110について説明する。操作装置110は、上述の操作装置50と同様に、例えば手持ち式通信機器またはPCである。操作装置110は、上述の操作装置50の代わりに、図1に示すロボットシステム10に適用され、ロボット制御部14に通信可能に接続され得る。
操作装置110は、図5に示す操作装置80と、タッチスクリーン52’の構成において相違する。具体的には、タッチスクリーン52’は、表示部およびタッチセンサ(ともに図示せず)に加えて、力検出部112を有する。
力検出部112は、例えば歪ゲージまたは力覚センサを有し、ユーザがタッチスクリーン52’の表面にタッチ入力したときに該表面に掛かる力Fを検出する。なお、力検出部112は、表示領域56Aのみに配設されてもよい。この場合、力検出部112は、表示領域56Aへのタッチ入力の力Fのみを検出する。
または、力検出部112は、タッチスクリーン52’の全域に配設されて、タッチスクリーン52’の表面における任意の箇所へのタッチ入力の力Fを検出してもよい。CPU82は、力検出部112が検出した力Fに関する情報を取得し、システムメモリ84に記憶する。
次に、操作装置110の動作について説明する。操作装置110のCPU82は、上述の操作装置80と同様に、図6に示すフローを実行する。ここで、操作装置110の動作フローは、操作装置80と、ステップS6において相違する。
以下、図10を参照して、本実施形態に係るステップS6のフローについて説明する。なお、図10に示すフローにおいて、図8と同様のプロセスには同じステップ番号を付し、詳細な説明を省略する。
ステップS11でYESと判定したとき、ステップS31において、CPU82は、力Fの検出を開始する。具体的には、CPU82は、力検出部112に力検出指令を送る。力検出部112は、該力検出指令を受信すると、表示領域56Aに掛かる力Fを周期的に検出し、検出した力Fに関する情報をCPU82へ順次送信する。CPU82は、力検出部112から表示領域56Aへのタッチ入力の力Fを取得し、システムメモリ84に順次記憶する。
ステップS32において、CPU82は、直近に取得した力Fが、予め定められた許容範囲内([α,β])であるか否かを判定する。予め定められた許容範囲[α,β]は、使用者によって予め定められ、システムメモリ84に記憶される。
CPU82は、直近に取得した力Fが許容範囲内(α≦F≦β)である場合、YESと判定し、ステップS12へ進む。一方、CPU82は、直近に取得した力Fが許容範囲外(F<α、または、β<F)である場合、NOと判定し、ステップS11へ戻る。
ステップS13でNOと判定したとき、ステップS33において、CPU82は、ステップS32と同様に、直近に取得した力Fが許容範囲内([α,β])であるか否かを判定する。
CPU82は、α≦F≦βである(すなわち、YES)と判定した場合、ステップS13へ戻る。一方、CPU82は、F<αまたはβ<Fである(すなわち、NO)と判定した場合、ステップS11へ戻る。
ステップS15の後、または、ステップS18でNOと判定したとき、ステップS34において、CPU82は、ステップS32と同様に、直近に取得した力Fが許容範囲内([α,β])であるか否かを判定する。
CPU82は、α≦F≦βである(すなわち、YES)と判定した場合、ステップS18へ進む。一方、CPU82は、F<αまたはβ<Fである(すなわち、NO)と判定した場合、ステップS17へ進む。なお、CPU82は、ステップS34およびS18のループを、周期τ(例えば、τ=0.5秒)で繰り返し実行してもよい。
本実施形態においては、CPU82は、表示領域56Aへのタッチ入力の力Fが許容範囲内にある間だけ、ロボット制御部14へ動作指令を送信している。この構成によれば、実空間でロボット12を動作させるためには、ユーザは、表示領域56Aを所定の力で押圧する必要がある。
その一方で、仮にユーザが不意に表示領域56Aから指Fを離してしまった場合、または、ユーザが不意に表示領域56Aを強く押し込んでしまった場合は、実空間におけるロボット12の動作が停止される。したがって、ユーザが意図することなくロボット12が実空間で動作してしまうのを、さらに確実に防止することができる。
次に、図11を参照して、さらに他の実施形態に係る操作装置120について説明する。操作装置120は、上述の操作装置50と、画像切替部122をさらに備える点で、相違する。
画像切替部122は、タッチスクリーン52の表面への、予め定められた種類のタッチ入力に応じて、ロボットモデル64の画像を、該画像とは異なる方向から見たロボットモデル64の第2画像に切り替える。
この機能について、図12および図13を参照して説明する。図12に示す例においては、タッチスクリーン52は、画像114を表示する。画像114は、ロボット動作ボタン56、仮想空間70、プレビューボタン98、および元に戻すボタン100の画像に加えて、画像切替ボタン群124の画像を含む。
画像切替ボタン群124は、第1画像切替ボタン124A、第2画像切替ボタン124B、第3画像切替ボタン124C、第4画像切替ボタン124D、および第5画像切替ボタン124Eを含む。
本実施形態においては、仮想空間70に、方向の基準となる座標系Cが設定されている。第1画像切替ボタン124Aは、仮想空間70内のロボットモデル64の画像を、座標系Cのz軸プラス方向から見た画像に切り替えるためのボタンである。
第2画像切替ボタン124Bは、仮想空間70内のロボットモデル64の画像を、座標系Cのx軸プラス方向から見た画像に切り替えるためのボタンである。第3画像切替ボタン124Cは、仮想空間70内のロボットモデル64の画像を、座標系Cのx軸マイナス方向から見た画像に切り替えるためのボタンである。
第4画像切替ボタン124Dは、仮想空間70内のロボットモデル64の画像を、座標系Cのy軸マイナス方向から見た画像に切り替えるためのボタンである。第5画像切替ボタン124Eは、仮想空間70内のロボットモデル64の画像を、座標系Cのy軸プラス方向から見た画像に切り替えるためのボタンである。
なお、図12に示す画像114は、仮想空間70内のロボットモデル64を、座標系Cのy軸マイナス方向(すなわち、第4画像切替ボタン124Dで規定される方向)から見た画像を表している。
例えば、ユーザは、タッチスクリーン52が図12に示すロボットモデル64を表示しているときに、指Fで、始点Aから終点A’まで、方向Bへ第1のスライドタッチ入力を実行する。
モデル動作実行部54は、該第1のスライドタッチ入力に応じて、ロボットモデル64を、ロボットモデル64’として示される位置および姿勢へ、方向Cへ仮想空間70内で移動させる。これとともに、モデル動作実行部54は、仮想空間70におけるロボットモデル64の各構成要素モデルの第1の仮想ジョグ経路を算出する。
次いで、ユーザが、タッチスクリーン52の表面における、第2画像切替ボタン124Bの表示領域をタッチしたとする。この場合、画像切替部122は、第2画像切替ボタン124Bへのタッチ入力を検出し、図12に示す画像114を、図13に示す画像114’に切り替える。
図13に示す画像114’は、仮想空間70内のロボットモデル64’を、図12の画像114とは異なる、座標系Cのx軸プラス方向から見た画像を表している。
このように、画像切替部122は、第1画像切替ボタン124A〜第5画像切替ボタン124Eのいずれかへのタッチ入力に応じて、ロボットモデル64、64’の画像(図12)を、該画像とは異なる方向から見たロボットモデル64、64’の第2画像(図13)に切り替える。
図13に示す画像114’に切り替えた後、ユーザは指Fで、始点Aから終点A’まで、方向Bへ第2のスライドタッチ入力を実行する。
モデル動作実行部54は、該第2のスライドタッチ入力に応じて、ロボットモデル64’を、ロボットモデル64”として示される位置および姿勢へ、方向Cへ仮想空間70内で移動させる。これとともに、モデル動作実行部54は、仮想空間70におけるロボットモデル64の各構成要素モデルの第2の仮想ジョグ経路を算出する。
このように、本実施形態においては、ユーザは、画像114に示される3次元のロボットモデル64を様々な方向から視認しつつ、タッチ入力によってロボットモデル64を仮想空間70内で自在に動作させることができる。これにより、ユーザは、ロボットモデル64を仮想的にジョグする動作を、より精細に行うことができる。
なお、画像切替部122は、タッチスクリーン52の表面における2つの異なる箇所を同時にタッチするダブルタッチ入力を検出したときに、ロボットモデル64’の画像(図12)を切り替えてもよい。
この場合、ユーザは、2本の指でタッチスクリーン52の表面を同時にタッチする。画像切替部122は、このようなダブルタッチ入力を検出したときに、ロボットモデル64の画像を、例えばy軸プラス方向から見た画像(図12)から、x軸プラス方向から見た画像(図13)に切り替えてもよい。
この場合において、画像切替部122は、ユーザがダブルタッチ入力をする毎に、ロボットモデル64の画像を、x軸プラス方向から見た画像→x軸マイナス方向から見た画像→y軸プラス方向から見た画像→y軸マイナス方向から見た画像・・・というように、予め定められた順序に従って切り替えてもよい。
または、画像切替部122は、タッチスクリーン52の表面の少なくとも1箇所を所定時間継続してタッチするタッチ入力を検出したときに、ロボットモデル64の画像を切り替えてもよい。この所定時間は、ユーザによって予め定められる。
または、画像切替部122は、タッチスクリーン52へのタッチ入力の力が予め定められた閾値以上であることを検出したときに、ロボットモデル64の画像を切り替えてもよい。
例えば、図9に示す操作装置110に画像切替部122を適用する。この場合、操作装置110のCPU82が、画像切替部122の機能を担う。力検出部112は、タッチスクリーン52の表面における、表示領域56A以外の領域へのタッチ入力の力F’を検出する。
そして、CPU82は、力F’が予め定められた閾値γ以上(F’≧γ)となったと判定したとき、画像切替部122として機能して、ロボットモデル64の画像を、例えば、y軸プラス方向から見た画像(図12)から、x軸プラス方向から見た画像(図13)に切り替える。
なお、上述の実施形態においては、ロボット動作ボタン56が、画像としてタッチスクリーン52、52’に表示された場合について述べた。しかしながら、ロボット動作ボタン56は、例えば機械的な押しボタンとして、タッチスクリーン52、52’とは別に操作装置50、80、120に設けられてもよい。
この場合、ユーザは、ロボット12を実空間で動作させるために、ロボット動作ボタン56を押し続ける。動作入力検出部58、106は、ロボット動作ボタン56の入力を検出し、実機動作指令部60、108は、動作入力検出部58、106がロボット動作ボタン56の入力を継続して検出している間、ロボット制御部14へ指令(例えば、動作指令またはジョグ許可指令)を出力する。
また、ロボット12は、水平多関節ロボット、パラレルリンクロボット等でもよい。または、ロボット12は、ローダであってもよい。
また、ロボットモデル64、64’、64”は、3次元に限らず、2次元のCGであってもよい。また、ロボットモデル64、64’、64”は、必ずしも、図3等に示すような3次元CADの画像でなくてもよく、より単純な線図等であってもよい。
また、上述した種々の実施形態の特徴を組み合わせることもできる。例えば、図11に示す画像切替部122を、操作装置50、80、110または120に適用してもよい。
以上、実施形態を通じて本開示を説明したが、上述の実施形態は、特許請求の範囲に係る発明を限定するものではない。
10 ロボットシステム
12 ロボット
14 ロボット制御部
50,80,110,120 操作装置
52,52’ タッチスクリーン
54,102 モデル動作実行部
56 ロボット動作ボタン
58,106 動作入力検出部
60,108 実機動作指令部

Claims (9)

  1. ロボットを操作するための操作装置であって、
    前記ロボットをモデル化したロボットモデルの画像を表示するとともに、タッチ入力を受け付けるタッチスクリーンと、
    前記タッチスクリーンの面をタッチするタッチ入力に応じて前記ロボットモデルを動作させるモデル動作実行部と、
    前記ロボットを実空間で動作させるためのロボット動作ボタンと、
    前記ロボット動作ボタンの入力を検出する動作入力検出部と、
    前記動作入力検出部が、前記ロボット動作ボタンの前記入力を検出した後、予め定められた時間継続して該入力を検出しているか否かを判定する入力継続判定部と、
    前記入力継続判定部が前記ロボット動作ボタンの前記入力を継続して検出していると判定したときに、前記モデル動作実行部が実行した前記ロボットモデルの動作と同じ動作を実空間で前記ロボットに実行させる指令を出力する指令出力動作を開始し、その後に前記動作入力検出部が前記ロボット動作ボタンの入力を継続して検出している間、該指令出力動作を実行する実機動作指令部と、を備える、操作装置。
  2. 前記ロボット動作ボタンは、前記タッチスクリーンに画像として表示され、
    前記動作入力検出部は、前記タッチスクリーンの前記ロボット動作ボタンの表示領域へのタッチ入力を、前記ロボット動作ボタンの前記入力として検出する、請求項1に記載の操作装置。
  3. 前記タッチスクリーンは、前記表示領域へのタッチ入力の力を検出する力検出部を有し、
    前記動作入力検出部は、前記力検出部が検出した前記力が予め定められた閾値以上であるときに、前記表示領域へのタッチ入力を、前記ロボット動作ボタンの前記入力として検出し、
    前記入力継続判定部は、前記力検出部が検出した前記力が前記閾値以上となった後、該力が前記予め定められた時間継続して該閾値以上となっているか否かを判定する、請求項2に記載の操作装置。
  4. 前記ロボットを制御するロボット制御部から、該ロボットの位置および姿勢を取得する状態取得部をさらに備え、
    前記タッチスクリーンは、前記状態取得部が取得した前記位置および姿勢に配置した前記ロボットモデルを表示し、
    前記モデル動作実行部は、前記状態取得部が取得した前記位置および姿勢に配置した前記ロボットモデルを動作させる、請求項1〜3のいずれか1項に記載の操作装置。
  5. 前記タッチスクリーンの面をタッチするタッチ入力の始点および終点に基づいて、前記同じ動作を実空間で前記ロボットに実行させるために該ロボットに送信される動作指令を生成する動作指令生成部をさらに備える、請求項1〜4のいずれか1項に記載の操作装置。
  6. 前記タッチスクリーンへの予め定められた種類のタッチ入力に応じて、3次元の前記ロボットモデルの前記画像を、該画像とは異なる方向から見た前記ロボットモデルの第2画像に切り替える画像切替部をさらに備える、請求項1〜5のいずれか1項に記載の操作装置。
  7. 前記予め定められた種類のタッチ入力は、
    前記タッチスクリーンに表示された、前記ロボットモデルの前記画像を前記第2画像に切り替えるための画像切替ボタンの表示領域へのタッチ入力であるか、
    前記タッチスクリーンにおける2つの異なる箇所を同時にタッチするタッチ入力であるか、または、
    前記タッチスクリーンの少なくとも1箇所を所定時間継続してタッチするタッチ入力である、請求項6に記載の操作装置。
  8. ロボットと、
    前記ロボットを制御するロボット制御部と、
    前記ロボット制御部に通信可能に接続された、請求項1〜7のいずれか1項に記載の操作装置と、を備える、ロボットシステム。
  9. ロボットを操作する方法であって、
    前記ロボットをモデル化したロボットモデルの画像を、タッチ入力を受け付け可能なタッチスクリーンに表示することと、
    前記タッチスクリーンの面をタッチするタッチ入力に応じて前記ロボットモデルを動作させることと、
    前記ロボットを実空間で動作させるためのロボット動作ボタンの入力を検出することと、
    前記ロボット動作ボタンの前記入力を検出した後、予め定められた時間継続して該入力を検出しているか否かを判定することと、
    前記ロボット動作ボタンの前記入力を継続して検出していると判定したときに、前記ロボットモデルの動作と同じ動作を実空間で前記ロボットに実行させる指令を出力する指令出力動作を開始し、その後に前記ロボット動作ボタンの入力を継続して検出している間、該指令出力動作を実行することと、を備える、方法。
JP2017087433A 2017-04-26 2017-04-26 ロボットを操作するための操作装置、ロボットシステム、および操作方法 Active JP6526098B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2017087433A JP6526098B2 (ja) 2017-04-26 2017-04-26 ロボットを操作するための操作装置、ロボットシステム、および操作方法
DE102018109304.7A DE102018109304B4 (de) 2017-04-26 2018-04-19 Bedienvorrichtung zum Bedienen eines Roboters, Robotersystem und Bedienverfahren
US15/958,786 US10654171B2 (en) 2017-04-26 2018-04-20 Operation device for operating robot, robot system, and operation method
CN201810359950.1A CN108789403B (zh) 2017-04-26 2018-04-20 操作装置、机器人系统以及操作方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017087433A JP6526098B2 (ja) 2017-04-26 2017-04-26 ロボットを操作するための操作装置、ロボットシステム、および操作方法

Publications (2)

Publication Number Publication Date
JP2018183845A JP2018183845A (ja) 2018-11-22
JP6526098B2 true JP6526098B2 (ja) 2019-06-05

Family

ID=63797259

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017087433A Active JP6526098B2 (ja) 2017-04-26 2017-04-26 ロボットを操作するための操作装置、ロボットシステム、および操作方法

Country Status (4)

Country Link
US (1) US10654171B2 (ja)
JP (1) JP6526098B2 (ja)
CN (1) CN108789403B (ja)
DE (1) DE102018109304B4 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230028423A (ko) 2020-06-26 2023-02-28 카와사키 주코교 카부시키 카이샤 로봇의 교시 장치 및 로봇의 교시 프로그램

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110026980A (zh) * 2019-04-04 2019-07-19 飞依诺科技(苏州)有限公司 一种机械臂控制终端的控制方法
DE102019211270B3 (de) * 2019-07-30 2020-11-26 Kuka Deutschland Gmbh Steuern eines Roboters
JP7396872B2 (ja) * 2019-11-22 2023-12-12 ファナック株式会社 拡張現実を用いたシミュレーション装置及びロボットシステム
CN113059558B (zh) * 2020-01-02 2023-01-20 京东方科技集团股份有限公司 一种医用机械臂的控制方法、终端及可读介质
JP7483420B2 (ja) * 2020-03-12 2024-05-15 キヤノン株式会社 ロボットシステム、制御装置、情報処理装置、制御方法、情報処理方法、物品の製造方法、プログラム、および記録媒体
CN111634772B (zh) * 2020-06-15 2022-10-14 上海三菱电梯有限公司 非接触式电梯按钮系统
WO2022026953A1 (en) * 2020-07-31 2022-02-03 The Johns Hopkins University Robotic system for remote operation of equipment in infectious environments
JPWO2022118471A1 (ja) * 2020-12-04 2022-06-09
JP2022122728A (ja) * 2021-02-10 2022-08-23 セイコーエプソン株式会社 教示装置、教示方法および教示プログラム
JP7364285B1 (ja) 2022-11-11 2023-10-18 高丸工業株式会社 ロボット操作システムの動作方法

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08297509A (ja) * 1995-04-25 1996-11-12 Fanuc Ltd ロボットのジョグ送り方法
JP3841439B2 (ja) * 1996-07-24 2006-11-01 ファナック株式会社 ロボットのジョグ送り方法
JP4296714B2 (ja) 2000-10-11 2009-07-15 ソニー株式会社 ロボット制御装置およびロボット制御方法、記録媒体、並びにプログラム
CN1393910A (zh) 2001-06-29 2003-01-29 株式会社D.M.S 用于处理玻璃基片或晶片的注入装置
JP2006350602A (ja) * 2005-06-15 2006-12-28 Yushin Precision Equipment Co Ltd 操作端末装置
JP5553855B2 (ja) 2005-11-09 2014-07-16 ルネサスエレクトロニクス株式会社 電圧制御発振器およびそれを用いた情報機器
JP5246672B2 (ja) * 2011-02-17 2013-07-24 独立行政法人科学技術振興機構 ロボットシステム
US8972055B1 (en) * 2011-08-19 2015-03-03 Google Inc. Methods and systems for selecting a velocity profile for controlling a robotic device
US9582000B2 (en) * 2011-09-07 2017-02-28 Lg Electronics Inc. Robot cleaner, and system and method for remotely controlling the same
JP6016365B2 (ja) * 2012-01-10 2016-10-26 富士通テン株式会社 情報処理装置
KR101954144B1 (ko) * 2012-06-08 2019-03-05 엘지전자 주식회사 로봇 청소기와, 이의 제어 방법, 및 이를 포함한 로봇 청소 시스템
DE102012106448B4 (de) * 2012-07-17 2016-03-31 Reis Group Holding Gmbh & Co. Kg Verfahren zur Bedienung eines Industrieroboters sowie sicheres Überwachungsgerät zur Durchführung des Verfahrens
KR102094347B1 (ko) * 2013-07-29 2020-03-30 삼성전자주식회사 자동 청소 시스템, 청소 로봇 및 그 제어 방법
JP6476662B2 (ja) * 2013-09-20 2019-03-06 株式会社デンソーウェーブ ロボット操作装置、ロボットシステム、及びロボット操作プログラム
US9283674B2 (en) * 2014-01-07 2016-03-15 Irobot Corporation Remotely operating a mobile robot
JP6379501B2 (ja) * 2014-02-05 2018-08-29 株式会社デンソーウェーブ ロボットの教示装置
KR101575597B1 (ko) * 2014-07-30 2015-12-08 엘지전자 주식회사 로봇 청소 시스템 및 로봇 청소기의 제어방법
JP6497021B2 (ja) * 2014-10-01 2019-04-10 株式会社デンソーウェーブ ロボット操作装置、ロボットシステム、及びロボット操作プログラム
JP6803650B2 (ja) * 2015-03-18 2020-12-23 株式会社デンソーウェーブ ロボット操作装置、ロボット操作プログラム
JP6631279B2 (ja) * 2015-03-19 2020-01-15 株式会社デンソーウェーブ ロボット操作装置、ロボット操作プログラム
JP2016185586A (ja) * 2015-03-27 2016-10-27 キヤノン株式会社 ロボット装置の制御方法、ロボット装置、およびロボット操作装置
JP2017019056A (ja) * 2015-07-13 2017-01-26 セイコーエプソン株式会社 教示装置、ロボット、及びロボットシステム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230028423A (ko) 2020-06-26 2023-02-28 카와사키 주코교 카부시키 카이샤 로봇의 교시 장치 및 로봇의 교시 프로그램

Also Published As

Publication number Publication date
DE102018109304A1 (de) 2018-10-31
JP2018183845A (ja) 2018-11-22
US20180311825A1 (en) 2018-11-01
US10654171B2 (en) 2020-05-19
CN108789403B (zh) 2020-10-16
CN108789403A (zh) 2018-11-13
DE102018109304B4 (de) 2020-11-26

Similar Documents

Publication Publication Date Title
JP6526098B2 (ja) ロボットを操作するための操作装置、ロボットシステム、および操作方法
US8954195B2 (en) Hybrid gesture control haptic system
JP6787966B2 (ja) 拡張現実と複合現実を用いたロボット制御装置及び表示装置
CN110394780B (zh) 机器人的仿真装置
JP3841439B2 (ja) ロボットのジョグ送り方法
US10166673B2 (en) Portable apparatus for controlling robot and method thereof
JP6361213B2 (ja) ロボット制御装置、ロボット、ロボットシステム、教示方法、及びプログラム
US9300430B2 (en) Latency smoothing for teleoperation systems
US10807240B2 (en) Robot control device for setting jog coordinate system
KR102021851B1 (ko) 가상현실 환경에서의 사용자와 객체 간 상호 작용 처리 방법
CN110549353B (zh) 力觉视觉化装置、机器人以及存储力觉视觉化程序的计算机可读介质
US10690474B2 (en) Operation method of position measuring device
KR20110044391A (ko) 입력 장치 및 방법
US11029753B2 (en) Human computer interaction system and human computer interaction method
JP5659787B2 (ja) 操作環境モデル構築システム、および操作環境モデル構築方法
CN117784926A (zh) 控制装置、控制方法和计算机可读存储介质
JP6710919B2 (ja) ロボット操作装置
JP7493816B2 (ja) ロボット、システム、方法及びプログラム
JP6803650B2 (ja) ロボット操作装置、ロボット操作プログラム
JP6885909B2 (ja) ロボット制御装置
JP7299478B2 (ja) オブジェクト姿勢制御プログラムおよび情報処理装置
CN110625609A (zh) 控制装置、机器人及机器人系统
TW201621651A (zh) 滑鼠模擬系統及方法
Mishra et al. Smart device based gesture controller for industrial applications
JP7068416B2 (ja) 拡張現実と複合現実を用いたロボット制御装置、ロボットの位置姿勢規定用コンピュータプログラム及びロボットの位置姿勢規定方法、相対位置姿勢取得用コンピュータプログラム及び相対位置姿勢取得方法

Legal Events

Date Code Title Description
A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180829

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20180913

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181211

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181218

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190215

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190402

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190507

R150 Certificate of patent or registration of utility model

Ref document number: 6526098

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150