JP6730363B2 - 操作訓練システム - Google Patents

操作訓練システム Download PDF

Info

Publication number
JP6730363B2
JP6730363B2 JP2018077275A JP2018077275A JP6730363B2 JP 6730363 B2 JP6730363 B2 JP 6730363B2 JP 2018077275 A JP2018077275 A JP 2018077275A JP 2018077275 A JP2018077275 A JP 2018077275A JP 6730363 B2 JP6730363 B2 JP 6730363B2
Authority
JP
Japan
Prior art keywords
robot
user
display device
control system
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018077275A
Other languages
English (en)
Other versions
JP2019184904A (ja
Inventor
裕樹 木本
裕樹 木本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
FANUC Corp
Original Assignee
FANUC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by FANUC Corp filed Critical FANUC Corp
Priority to JP2018077275A priority Critical patent/JP6730363B2/ja
Priority to US16/362,760 priority patent/US20190318660A1/en
Priority to DE102019108684.1A priority patent/DE102019108684A1/de
Priority to CN201910278976.8A priority patent/CN110379239B/zh
Publication of JP2019184904A publication Critical patent/JP2019184904A/ja
Application granted granted Critical
Publication of JP6730363B2 publication Critical patent/JP6730363B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B23/00Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes
    • G09B23/28Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes for medicine
    • G09B23/285Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes for medicine for injections, endoscopy, bronchoscopy, sigmoidscopy, insertion of contraceptive devices or enemas
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/70Manipulators specially adapted for use in surgery
    • A61B34/74Manipulators with manual electric input means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/06Control stands, e.g. consoles, switchboards
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/102Modelling of surgical devices, implants or prosthesis

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Robotics (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Public Health (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Educational Technology (AREA)
  • Educational Administration (AREA)
  • Business, Economics & Management (AREA)
  • Mechanical Engineering (AREA)
  • Computational Mathematics (AREA)
  • Pulmonology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Chemical & Material Sciences (AREA)
  • Medicinal Chemistry (AREA)
  • Algebra (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Physics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Manipulator (AREA)
  • Electrically Operated Instructional Devices (AREA)

Description

本発明は操作訓練システムに関する。
従来、サーバ装置からクライアント端末に自動車走行時に見える道路、建物等の画像データが送信され、当該画像データがクライアント端末の表示装置に表示される訓練画像データ通信装置が知られている(例えば、特許文献1参照。)。当該訓練画像データ通信装置では、クライアント端末の入力装置に対する入力に基づき、クライアント端末の表示装置に表示される道路、建物等が移動する。
また、このように道路、建物等が移動している画像データがサーバ装置に送信され、サーバ装置の表示装置に同様の画像が表示される。そして、サーバ装置の表示装置を見ている教官が、クライアント端末を操作している訓練者に音声指示を送り、これにより訓練者の訓練が行われる。
また、サーバ装置上で作業環境および作業者モデルが設定され、クライアント端末の表示装置に作業者モデルの視線でサーバ装置上の作業環境が表示される訓練装置が知られている(例えば、特許文献2参照。)。クライアント端末の表示装置に表示される画像がサーバ装置の表示装置にも表示されるので、サーバ装置の表示装置を見ている教官は、クライアント端末の表示装置を見ている訓練者が得る経験を共有することができる。
特開2002−49299号公報 特開2002−366021号公報
前記訓練画像データ通信装置は、訓練者が自動車の運転を習得するための装置である。このため、現実の自動車教習所と同様に、訓練者の訓練のために教官は訓練者に音声指示を送るだけであり、これで十分である。
一方、後者の訓練装置は、教官が訓練者と経験を共有することを目的としており、このために仮想空間上に作業環境および作業者を再現する構成が採用されている。しかし、教官が訓練者を効率的に訓練する方法については何ら提案されていない。
一方、多関節ロボットは動きの自由度が高い機械である。このため、このような機械の操作を習得するためには、音声指示だけでは不十分であり、教官が作業者と経験を共有するだけでも不十分である。
例えば、後者の訓練装置の場合、教官は訓練者の行動を把握することはできるが、訓練者がある問題の解決方法を見出せない時に、その解決方法を効率的に教えることができない。
ここで、ロボットは複数の関節の揺動および旋回が組み合わされた複雑な動作を行う。このため、ロボット操作を常日頃行っていない者は、例えばロボットの先端部がある位置から他の位置に移動する時の各関節の動きを予想することができない。一方、ロボットは、人体に比べて頑強な部品で作られており、人に比べて大きな力を有するものが多い。このため、ロボットの誤操作はロボットの周囲の物体および人に甚大な被害を与え得る。
このようにロボットは予測が難しい動作を行うものであり、また、ロボットの周囲に配置される物体の位置、個数等は、ロボットを使用するユーザにより異なる。さらに、ロボットの動作プログラムを作成する際に、ロボットの先端近傍を目視する必要が生じる。そして、目視する際のユーザの頭の位置、ユーザの頭とロボットの先端部との距離は、ロボットの作業内容に応じて変わる。
即ち、ロボット操作時の安全性を確保するために気を付けなければならない事項は、ロボットの種類、ロボットの作業内容等により変わる。加えて、ロボットの部品、コード類等の耐久性、作業効率等を考慮したロボットの最適な動作方法も、ロボットの種類、ロボットの作業内容等に応じて変わる。このため、前記訓練画像データ通信装置又は前記訓練装置を用いても、ロボット操作時の安全性の確保および状況に適した動作方法の習得は望めない。
本発明は、前述の事情に鑑みてなされている。本発明の目的の一つは、ロボット操作時の安全性の確保および状況に適した動作方法の習得が可能な操作訓練システムの提供である。
上記課題を解決するために、本発明は以下の手段を採用する。
本発明の一態様の操作訓練システムは、第1ユーザ用の第1表示装置と、前記第1ユーザからロボット操作を教わる第2ユーザ用の1つ又は複数の第2表示装置と、前記第2ユーザが第2ユーザ入力装置を用いて行う入力に基づいて、前記第2表示装置に表示されるロボットの図を動作させる制御システムと、を備え、前記制御システムが、前記第1ユーザが第1ユーザ入力装置を用いて行う入力に基づいて、前記第1表示装置に表示される前記ロボットの図又は第1ユーザ用ロボットの図を動作させると共に前記第1表示装置に表示されるユーザの図を移動させるシミュレーションを行うように構成され、前記制御システムが、前記第1ユーザが前記第1ユーザ入力装置を用いて行う入力に基づいた前記ユーザの図の移動および前記ロボットの図又は前記第1ユーザ用ロボットの図の動作を、前記第2表示装置に表示させるように構成されている。
当該態様では、例えばトレーナーである第1ユーザの入力によって動作するロボットの図の動作およびユーザの図の移動が第2表示装置に表示される。このため、第1ユーザによる適切なロボット操作を第2表示装置上で見ることによって、例えば訓練者である第2ユーザは適切なロボット操作を習得することができる。ここで、多関節ロボットは予測が難しい動作を行うものであり、作業効率、安全性、ロボットの部品、コード類等の耐久性等の課題をそれぞれ最適にするためのロボットの動作方法も、ロボットの種類、ロボットの作業内容等に応じて変わる。このため、これら課題の解決方法やポイントを音声だけで伝え、それにより第2ユーザのスキルを上げることは容易ではない。
これに対し、当該態様では、第2ユーザは自身が操作するロボットの図の動作と第1ユーザにより操作されるロボットの図の動作との違いを第2表示装置に表示される画像によって理解する。これにより、前記違いおよび第1ユーザによるロボット操作が第2ユーザの記憶にイメージとして残り、第2ユーザは適切なロボット操作を効率的に習得することができる。
上記態様において、好ましくは、前記第1表示装置に表示される操作盤に対して前記第1ユーザ入力装置を用いて行われる前記第1ユーザの操作内容を、前記第2表示装置に表示するように構成されている。
当該態様では、第2ユーザは、自身が操作するロボットの動作と第1ユーザにより操作されるロボットの動作との違いを第2表示装置に表示される画像によって理解しながら、その違いを第1ユーザによる操作盤の操作と関連付けて理解することができる。これは、適切なロボット操作を効率的な習得のために極めて有利である。
上記態様において、好ましくは、前記制御システムが、前記操作内容のうち、前記第1表示装置に表示される前記操作盤の操作ボタンおよび/又はメニューボタンの操作状況と、前記操作盤の動作とを、前記第2表示装置に表示される操作盤上に表示するように構成されている。
当該態様では、第2ユーザは、自身が操作するロボットの動作と第1ユーザにより操作されるロボットの動作との違いを第2表示装置に表示される画像によって理解しながら、第1ユーザによる操作盤の操作を画像によって理解することができる。さらに言えば、第2ユーザは第1ユーザによる操作盤の操作をじっくり見ながら、当該操作により動作するロボットの動作を見ることができる。これは、適切なロボット操作を効率的な習得のために極めて有利である。
上記態様において、好ましくは、前記制御システムが、前記第1表示装置に表示される操作盤に対して前記第1ユーザ入力装置を用いて行われる前記第1ユーザの操作内容と、当該操作内容に応じた前記ロボット又は前記第1ユーザ用ロボットの動作とを、前記制御システムが有する記憶部に保存する機能と、保存された前記第1ユーザの操作内容および当該操作内容に応じた前記ロボット又は前記第1ユーザ用ロボットの動作を前記第2表示装置に表示する機能とを有する。
この場合、第2ユーザは、第1ユーザの操作内容および当該操作内容に応じたロボットの動作を繰り返し見ることができる。これにより、前述のように習得が難しいロボット操作を理論的に習得すると共に感覚的に習得することができ、これはロボット操作のためのセンスを得るために極めて有利である。
上記態様において、好ましくは、前記制御システムが、前記第2表示装置に表示される操作盤に対して前記第2ユーザ入力装置を用いて行われる前記第2ユーザの操作内容と、当該操作内容に応じて前記ロボットの動作とを、前記制御システムが有する記憶部に保存する機能と、保存された前記第2ユーザの操作内容および当該操作内容に応じた前記ロボットの動作を前記第2表示装置に表示する機能とを有する。
この場合、第2ユーザは、自身の操作内容および当該操作内容に応じたロボットの動作を客観的に繰り返し見ることができる。当該態様では、第2ユーザは自身のロボット操作を第1ユーザによるロボット操作と比較することが可能であり、当該比較を通して第2ユーザが適切なロボット操作を効率的に習得することが可能となる。
上記態様において、好ましくは、前記制御システムが、前記第2ユーザのロボット操作を所定の評価基準に基づき評価し、評価結果を前記第1表示装置に表示させるように構成されている。
第1ユーザは、ロボットが停止しない程度の第2ユーザによるロボット操作の誤りに気付かない場合がある。当該態様は、特に第2ユーザが複数いる場合に、何れの第2ユーザを教えるべきかの判断を容易にする。これは、適切なロボット操作の効率的な習得のために極めて有利である。
上記態様において、好ましくは、前記制御システムが、危険動作が含まれる前記ロボットの動作を前記第2表示装置に表示させるように構成されている。
当該態様では、第2ユーザは危険動作が含まれるロボットの動作を画像によって理解することができ、これはロボットの安全操作のためのセンスを習得するために有利である。
上記態様において、好ましくは、前記制御システムが、危険動作が含まれる前記ロボットの動作を、前記第2ユーザが装着するヘッドマウントディスプレイに表示させるように構成されている。
当該態様では、第2ユーザは危険動作が含まれるロボットの動作を実際の状況に近い感覚で理解することができる。危険な状態になる直前のロボットの動き、その時の雰囲気等は、ロボットの種類、ロボットが行う作業等によって異なる。実際の状況に近い感覚で危険動作が含まれるロボットの動作を体験することは、ロボットの安全操作のためのセンスの習得と、望ましくはその際の回避方法の習得のために、極めて有利である。
上記態様において、好ましくは、前記制御システムが、前記第2表示装置における前記ロボットの図の近傍に表示されるユーザの図を、第2ユーザ入力装置への入力に基づき移動させるように構成され、前記制御システムが、前記第2ユーザ入力装置への入力に基づき移動する前記ユーザの図を前記第1表示装置における前記ロボットの図の近傍に表示させるように構成されている。
当該態様では、第2ユーザはロボットの図の近傍自身の位置を考慮しながら、ロボット操作を行うことができ、第1ユーザはロボット操作時の第2ユーザの図の位置もチェックすることができる。これは、ロボットの安全な操作を習得する上で有利である。
本発明によれば、ロボット操作時の安全性の確保および状況に適した動作方法の習得が可能である。
本発明の一実施形態の操作訓練システムの概略図である。 本実施形態の操作訓練システムの第2表示装置の表示の例である。 本実施形態の操作訓練システムの第2表示装置の表示の例である。 本実施形態の操作訓練システムの第1表示装置の表示の例である。 本実施形態の操作訓練システムの第1コンピュータのブロック図である。 本実施形態の操作訓練システムの第2コンピュータのブロック図である。 本実施形態の操作訓練システムの操作盤の表示の例である。 本実施形態の操作訓練システムの操作盤の表示の例である。
本発明の一実施形態に係る操作訓練システムが、図面を用いながら以下説明されている。
本発明の操作訓練システムは、図1に示されるように、例えばトレーナーである第1ユーザU1が見る第1表示装置21と、第1ユーザU1からロボット操作を教わる複数の第2ユーザU2がそれぞれ見る第2表示装置22と、制御システム100とを備えている。第2表示装置22は第1表示装置21とは異なるスペースに配置されている。例えば、図1に示されるように、複数の第2表示装置22はそれぞれ第2ユーザU2の家、職場等に配置されており、そこには第1表示装置21は配置されていない。なお、ある1つの部屋に配置された複数の第2表示装置22をそれぞれ複数の第2ユーザU2が見てもよい。
本実施形態では、図1に示されるように、制御システム100は、第1表示装置21に接続された第1コンピュータ110と、複数の第2表示装置22にそれぞれ接続された複数の第2コンピュータ120とを有する。
第1コンピュータ110は、図5に示されるように、プロセッサ等を有する制御部111と、不揮発性ストレージ、ROM、RAM等を有する記憶部112と、キーボード、マウス等を有する入力装置(第1ユーザ入力装置)113と、通信ケーブルが接続される接続ポート、アンテナ等を有し、データの送受信を行う送受信部114と、音声入力装置であるマイク115と、スピーカ116とを備えている。入力装置113が、タッチスクリーンを有していてもよい。タッチスクリーンは、例えば、抵抗膜方式の場合は、第1表示装置21の表面に設けられる透明抵抗膜を有し、静電容量方式の場合は、第1表示装置21の表面に設けられる透明電極膜を有するものである。
第2コンピュータ120は、図6に示されるように、プロセッサ等を有する制御部121と、不揮発性ストレージ、ROM、RAM等を有する記憶部122と、キーボード、マウス等を有する入力装置(第2ユーザ入力装置)123と、通信ケーブルが接続される接続ポート、アンテナ等を有し、データの送受信を行う送受信部124と、音声入力装置であるマイク125と、スピーカ126とを備えている。入力装置123が、キーボード、マウス等の代わりに、第1コンピュータ110と同様のタッチスクリーンを有していてもよい。
第2コンピュータ120の記憶部122には、ロボットのシミュレーションプログラム122aが格納され、ロボットのモデル、操作盤のモデル、およびユーザモデルも格納されている。制御部121は、シミュレーションプログラム122a、ロボットのモデル、操作盤のモデル、およびユーザモデルに基づき、図2に示されるようにロボット30、操作盤40、およびユーザ50を第2表示装置22に表示させる。なお、第2ユーザU2は入力装置123への操作によって、第2表示装置22に表示される画像の視点を切り換えることができる。図2の例では、ユーザ50およびロボット30の全体を見ることができる位置に視点があり、図3の例では、ユーザ50の目の位置に視点がある。
本実施形態では、ロボット30は多関節ロボットである。また、操作盤40は、複数の操作ボタンが配置された第1操作部41と、メニューボタン、ロボット30の状態に関する情報等を表示する第2操作部42とを有する。つまり、操作盤40は、複数の操作ボタンを有する第1操作部とタッチスクリーン式の第2操作部とを有する実際の操作盤のモデルである。
第1コンピュータ110の記憶部112には、ロボットのシミュレーションプログラム112aが格納されている。シミュレーションプログラム112aはシミュレーションプログラム122aと互換性を有する。一例では、シミュレーションプログラム112aとシミュレーションプログラム122aとは同一のプログラムである。第1コンピュータ110の記憶部112には、複数の第2コンピュータ120にそれぞれ格納されているロボットのモデル、操作盤のモデル、およびユーザモデルが格納されている。これらモデルのデータは、各第2コンピュータ120から受信したものであってもよく、第1コンピュータ110の記憶部112に予め格納されていてもよい。
制御部111は、シミュレーションプログラム112a、各ロボットのモデル、各操作盤のモデル、および各ユーザモデルに基づき、図4に示されるように複数のロボット30、複数の操作盤40、および複数のユーザ50を第1表示装置21に表示させる。好ましくは、第1表示装置21に表示されるロボット30、操作盤40、およびユーザ50は、複数の第2表示装置22にそれぞれ表示されるロボット30、操作盤40、およびユーザ50と同一である。図4の例では、複数のロボット30が並んでおり、各操作盤40が対応するロボット30の近傍に配置され、各ユーザ50も対応するロボット30の近傍に配置されている。
第2ユーザU2は、入力装置123を用いて第2表示装置22に表示される操作盤40を操作する(習得のためのロボット操作)。例えば、第2ユーザU2は、マウスを移動させることによって第2表示装置22上にあらわれるポインタを操作ボタン、メニューボタン等の上に配置し、マウスのボタンの押下によって当該操作ボタン、メニューボタン等を操作する。
制御部121は、シミュレーションプログラム122aに基づき、操作盤40に対する操作に基づき、第2表示装置22に表示されるロボット30および操作盤40を動作させる。操作盤40の動作は、第2操作部42等の表示の変更等である。
また、第2ユーザU2は、入力装置123を用いて、第2表示装置22に表示されるロボット30に対するモデル50の位置を変更するための操作を行う(習得操作時のユーザ位置変更)。例えば、第2表示装置22の左下に表示される矢印X、矢印Y、および矢印Zの上にポインタを配置し、マウスのボタンを押下する。
制御部121は、シミュレーションプログラム122aに基づき、前記操作に応じてシミュレーション上のユーザ50の顔(目)、身体等の位置を移動する。図3に示されるように第2表示装置22の表示エリアをユーザ50の視野に合わせる場合、制御部121がマウスのスクロールローラの操作に応じてユーザ50の顔の位置をその前後方向に移動させてもよい。
第2コンピュータ120の記憶部122には、操作データ送信プログラム122bが格納されており、制御部121は、操作データ送信プログラム122bに基づき、操作盤40に対する操作データ(操作内容)、ロボット30の動作データ、およびモデル50の位置データを第1コンピュータ110に逐次送信する。
第1コンピュータ110の制御部111は、シミュレーションプログラム112aに基づき、逐次受信する操作データ、動作データ、および位置データを用いて、第1表示装置21上の対応するロボット30、操作盤40、およびユーザ50を動作させ、操作盤40の操作ボタンおよび/又はメニューボタンの操作状況を表示する。当該操作状況の表示として、例えば、第2ユーザU2によって押される操作ボタン、メニューボタン等がハイライトされる。ハイライトの例は、これらボタンの色の変更、色の濃度の変更等である。
これにより、トレーナーである第1ユーザU1は、第1表示装置21を見ることによって、訓練者である第2ユーザU2によるロボット操作およびその際のユーザ50の位置を的確に把握することができる。
ここで、図2、図3等に示されるように、操作盤40の第1操作部41の操作ボタンの数および種類が多い。また、図7および図8に示されるように、操作盤40の第2操作部42に表示されるメニューボタンの種類および階層は多く、条件設定項目も多い。
このように操作ボタン、メニューボタン、および条件設定項目の数が多い理由は、ロボットが代表的には6つの関節を有する多関節ロボットであり、このため複雑な動きをすることができるからである。
ロボット操作を習得する者にとって、所望のロボット動作に応じた操作ボタン、メニューボタン、および条件設定項目の操作手順および設定手順を覚えることが先ず難しい。
さらに、ロボットは複数の関節の揺動および旋回が組み合わされた複雑な動作を行う。このため、ロボット操作を常日頃行っていない者は、例えばロボットの先端部がある位置から他の位置に移動する時の各関節の動きを予想することができず、ロボットがある動作を行うために必要な各関節の最適な動き又は最適に近い動きをイメージするセンスもない。例えば、ロボットの先端部を移動する時に、ロボットの先端部を直線的に移動させた方が良いか、それとも各軸動作を行った方が良いかすら、ロボット操作を常日頃行っていない者はわからない。
ロボット操作を常日頃行っている者は、その日々積み重ねられる経験に基づき、各関節の最適な動き又は最適に近い動きをイメージするセンスを持っている。例えば、ロボットの製造会社においてロボット操作を常に行う部署にいる者は、様々なクライアント、様々な用途に適合するように、日々ロボットの操作に関連した業務を行っているため、多種多様なシチュエーションに適したロボット操作のセンスを得ることができる。
一方、例えばロボットを用いる工場では、ロボットを購入した時、又は、製造ラインを新たに構築した時に、ロボットの動作プログラムが作成され、これが複雑なロボット操作が行われる主なタイミングである。また、このようなロボット操作はロボットの製造元の技術者によって行われることが多い。さらに、その工場で扱われる製品は限定されており、ロボットが適用されるシチュエーションも限られている。なお、動作プログラムは、ロボットに一連の動作を行わせるための一群の制御指令である。
このため、ロボットを用いる工場等における従業員が、多種多様なシチュエーションに適したロボット操作のセンスを得ることは稀である。
また、垂直多関節ロボット、水平多関節ロボット等の場合は、片持ち梁のような態様でロボットの先端部に加わる力が各関節に順次加わっていく。このため、ロボットの先端部に取付けるツールの重量、ロボットにより支持する物品の重量等に応じて、好ましいロボットの姿勢が変わってくる。これら重量とロボットの姿勢との関係は、ロボットの部品の耐久性に影響を与える。また、ロボットに装着されているケーブルの耐久性も考慮する必要がある。
さらに、各関節は可駆動範囲を有する。このため、ロボットの先端部を複数の位置に連続的に移動し、その時の姿勢も様々である場合に、各位置におけるそれぞれの関節の揺動位置および旋回位置は、その後の位置におけるそれぞれの関節の揺動および旋回に適したものでなければならない。つまり、各関節の可駆動範囲を超えるためにロボットが次の位置に移動できなくなる状況を避けなければならない。
加えて、ロボットを安全に操作するためには、どのような操作がロボットの危険動作に繋がるかに関する知識が必要である。例えばロボットの先端部に取付けられたハンドによって物品を把持する動作プログラムを設定する際に、操作者はハンドと物品との位置関係を目視確認しながら当該設定を行うことになる。このため、前記知識が不足していることは好ましくない。
つまり、ロボットを用いる工場等における従業員は、制御盤40の操作ボタン、メニューボタン、および条件設定項目に関する知識をある程度有し、ロボットを動かすことができるかもしれないが、動作プログラムの設定に関するセンス、および/又は、操作者が近くに居る状況でのロボットの安全な手動操作を行うための十分な経験および知識を持っていない場合が殆どである。また、複雑なロボット操作をたまにしか行わないので、当該従業員は、複雑なロボット操作を行う時に得る知識、経験等の多くの部分を次のロボット操作時に忘れている。
トレーナーである第1ユーザU1は、例えば多種多様なシチュエーションに適したロボット操作のセンスを持っており、どのような操作がロボットの危険動作に繋がるかに関する十分な経験および知識を有する。第1ユーザU1は、入力装置113を用いて第1表示装置21に表示されている操作盤40の操作を行うことができる(教示のためのロボット操作)。当該操作によって第1表示装置21に表示されている操作盤40およびロボット30が動作する。この時、第1表示装置21に表示されているユーザ50を移動させることも可能である(教示操作時のユーザ位置変更)。なお、本実施形態では、第1表示装置21には、複数のロボット30にそれぞれ対応している操作ON/OFFボタン21aが表示されており、操作ON/OFFボタン21aがONに操作されたロボット30が操作可能な状態となる。
第1ユーザU1は、マウスを移動させることによって第1表示装置21上にあらわれるポインタを操作盤40の操作ボタン、メニューボタン等の上に配置し、マウスのボタンの押下によって当該操作ボタン、メニューボタン等を操作する。
制御部111は、シミュレーションプログラム112aに基づき、第1表示装置21に表示される操作盤40に対する操作に基づき、第1表示装置21に表示されるロボット30を動作させる。
また、第1ユーザU1は第2ユーザU2の場合と同様にユーザ50の位置を変更できる。例えば、第1表示装置21においてユーザ50の近傍に表示される矢印X、矢印Y、および矢印Zの上にポインタを配置し、マウスのボタンを押下することによって、ロボット30に対するユーザ50の位置を変更するための操作を行うことができる。
第1コンピュータ110の記憶部112には、操作データ送信プログラム112bが格納されており、制御部111は、操作データ送信プログラム112bに基づき、操作盤40に対する操作データ、ロボット30の動作データ、およびモデル50の位置データを、操作された操作盤40に対応する第2コンピュータ120に逐次送信する。
第2コンピュータ120の制御部121は、シミュレーションプログラム122aに基づき、第1コンピュータ110から逐次受信する操作データ(操作内容)、動作データ、および位置データを用いて、第2表示装置22上のロボット30、操作盤40、およびユーザ50を動作させ、操作盤40の操作ボタンおよび/又はメニューボタンの操作状況を表示する。当該操作状況の表示として、例えば、第1ユーザU1によって操作されるポインタが表示され、第1ユーザU1によって押される操作ボタン、メニューボタン等がハイライトされる。ハイライトの例は、これらボタンの色の変更、色の濃度の変更等である。
このように、本実施形態では、トレーナーである第1ユーザU1による適切なロボット操作を第2表示装置22上で見ることによって、第2ユーザU2は適切なロボット操作を習得することができる。また、第2ユーザU2は、第1ユーザU1が居る場所とは異なる場所に居ながら、適切なロボット操作を習得することが可能である。
前述の教示のためのロボット操作および教示操作時のユーザ位置変更を行う時に、第1ユーザU1は、マイク115を用いて、対象となる第2ユーザU2に指示、説明等の音声を伝えることができる。第1コンピュータ110は、入力装置113への操作に応じて、複数の第2ユーザU2の全員に音声を伝えるモード、又は、複数の第2ユーザU2のうち選択された第2ユーザU2にのみ音声を伝えるモードに設定される。
第2コンピュータ120のスピーカ126は、第1コンピュータ110から送信される音声を出力する。なお、第2ユーザU2も、マイク125を用いて、第1ユーザU1に質問等の音声を伝えることができる。
このように、トレーナーである第1ユーザU1と第2ユーザU2とが会話できるので、第2ユーザU2はロボット操作を効果的に習得することができる。
第1コンピュータ110が第1表示装置21に文字入力欄を表示し、第2コンピュータ120が第2表示装置22に文字入力欄を表示してもよい。そして、入力装置113を用いて第1表示装置21の文字入力欄に入力された文字が第2コンピュータ120によって第2表示装置22に表示され、入力装置123を用いて第2表示装置22の文字入力欄に入力された文字が第1コンピュータ110によって第1表示装置21に表示されてもよい。この場合でも音声を用いる場合と同様の効果が得られる。
また、前述の教示のためのロボット操作および教示操作時のユーザ位置変更を行う時に、制御部111が、記憶部112に格納されているメモリプログラム112cに基づき、前述の教示のためのロボット操作および教示操作時のユーザ位置変更を、入力装置113の入力に応じて、記憶部112に保存することもできる。この時、制御部111は、マイク115に入力される音声も記憶部112に保存することができる。
例えば、ポインタの配置およびマウスのボタンの押下によって第1表示装置21上の記録ボタンREが操作されると、教示のためのロボット操作および教示操作時のユーザ位置変更の保存処理が開始される。一方、ポインタの配置およびマウスのボタンの押下によって第1表示装置21上の停止ボタンSTが操作されると、前記保存処理が終了する。入力装置113の記録ボタンおよび停止ボタンが操作されてもよい。
第1コンピュータ110の制御部111は、保存された教示のためのロボット操作のデータおよび教示操作時のユーザ位置変更のデータを第2コンピュータ120に送信し、第2コンピュータ120の制御部121は、受信する教示のためのロボット操作のデータおよび教示操作時のユーザ位置変更のデータを記憶部122に保存する。
一方、制御部121が、記憶部122に格納されているメモリプログラム122cに基づき、前述の教示のためのロボット操作および教示操作時のユーザ位置変更を、入力装置123の入力に応じて記憶部122に保存することができる。この時、制御部121は、マイク115に入力される音声も記憶部122に保存することができる。
例えば、ポインタの配置およびマウスのボタンの押下によって第2表示装置22上の記録ボタンREが操作されると、教示のためのロボット操作および教示操作時のユーザ位置変更の保存処理が開始される。一方、ポインタの配置およびマウスのボタンの押下によって第2表示装置22上の停止ボタンSTが操作されると、前記保存処理が終了する。入力装置123の記録ボタンおよび停止ボタンが操作されてもよい。
そして、第2表示装置22上の再生ボタンPLが操作されると、第2表示装置22上で教示のためのロボット操作および教示操作時のユーザ位置変更が再生される。第1表示装置21上の再生ボタンPLの操作によって、第1表示装置21上における再生が始まる。
このような教示のためのロボット操作および教示操作時のユーザ位置変更の保存は、適切なロボット操作の効率的且つ正確な習得のために有利であり、第1ユーザU1の手間の低減にも繋がる。なお、教示のためのロボット操作に応じたロボット30の動作が同時に保存されてもよい。一方、教示のためのロボット操作だけが保存されてもよい。
このように、制御システム100は、第1表示装置21に表示される操作盤40に対して入力装置113を用いて行われる第1ユーザU1の操作内容と、当該操作内容に応じたロボット30の動作とを、制御システム100が有する記憶部112,122に保存する機能を有し、また、保存された第1ユーザU1の操作内容および当該操作内容に応じたロボット30の動作を第2表示装置22に表示する機能とを有する。
このため、第2ユーザU2は、第1ユーザU1の操作内容および当該操作内容に応じたロボット30の動作を繰り返し見ることができる。これにより、前述のように習得が難しいロボット操作を理論的に習得すると共に感覚的に習得することができ、これはロボット操作のためのセンスを得るために極めて有利である。
一方、前述の習得のためのロボット操作および習得操作時のユーザ位置変更を行う時に、制御部121が、記憶部122に格納されているメモリプログラム122cに基づき、前述の習得のためのロボット操作および習得操作時のユーザ位置変更を、前述と同様の入力装置123への入力に応じて記憶部122に保存することもできる。
第2コンピュータ120の制御部121は、保存された習得のためのロボット操作のデータおよび習得操作時のユーザ位置変更のデータを第1コンピュータ110に送信し、第1コンピュータ110の制御部111は、受信する習得のためのロボット操作のデータおよび習得操作時のユーザ位置変更のデータを記憶部112に保存する。
一方、制御部111が、記憶部112に格納されているメモリプログラム112cに基づき、前述の習得のためのロボット操作および習得操作時のユーザ位置変更を、前述と同様の入力装置113の入力に応じて記憶部112に保存することもできる。
そして、第2表示装置22上の再生ボタンPLが操作されると、第2表示装置22上で習得のためのロボット操作および習得操作時のユーザ位置変更が再生される。第1表示装置21上の再生ボタンPLの操作によって、第1表示装置21上における再生が始まる。なお、保存されている複数の教示操作時又は習得操作時のロボット操作のうち再生するロボット操作を選択するためのメニュー画面が表示されてもよい。
このような習得のためのロボット操作および習得操作時のユーザ位置変更の保存機能は、適切なロボット操作の効率的且つ正確な習得のために有利である。第2ユーザU2は自分で行った操作を客観的に見て、それを第1ユーザU1が行った操作と比べることができる。これにより、第2ユーザU2は自身のロボット操作における改善すべき点に気付き易くなり、これは第2ユーザU2の効率的な習得のために有利である。
ここで、ロボットの危険動作を含む動作プログラム、各関節の可駆動範囲を超えて動かない動作プログラム等が第2ユーザU2によって作成される場合がある。このような動作プログラムによってロボット30が動作し、危険動作が発生した時又は動作リミットに到達した時に、制御部121はロボット30を停止させる。このようなロボット30の停止は制御部111によって第1表示装置21に表示される。このため、第1ユーザU1は危険動作の発生又は動作リミットへの到達が発生したか否かを容易に知ることができる。
なお、制御部111が、記憶部112に格納された評価プログラム112dに基づき、各第2ユーザU2のロボット操作を評価してもよい。例えば、制御部112は、第2ユーザU2のロボット操作について、危険動作に関する評価を行う。この場合、記憶部112には、例えば、ロボット30の複数の動作パターンと、モデル50の位置と、危険度に関する指標とを対応付けた危険度テーブルが格納されている。そして、制御部111は、危険度テーブルを参照して、第2ユーザU2のロボット操作に含まれる各動作の危険度を導出する。危険度テーブルの代わりに、又は、危険度テーブルに加えて、危険度を計算するための危険度評価用式が用いられてもよい。危険度テーブル又は危険度評価用式は、評価基準の例である。
また、制御部121は、第2ユーザU2のロボット操作について、操作センスに関する評価を行う。この場合、記憶部122には、例えば、ロボットの複数の動作パターンの各々に複数のロボット操作が対応付けられた操作センステーブルが格納されている。操作センステーブル中の複数のロボット操作にはそれぞれ評価点が付与されている。そして、制御部121は、操作センステーブルを参照して、第2ユーザU2のロボット操作に含まれる各動作の操作センスを導出する。操作センステーブルの代わりに、又は、操作センステーブルに加えて、操作センスを計算するための操作センス評価用式が用いられてもよい。操作センステーブル又は操作センス評価用式は、評価基準の例である。
操作センスは、一例では、ロボットの部品、コード類等の耐久性に関するものである。この場合、操作センステーブル中の複数のロボット操作にはそれぞれロボットの耐久性に関する評価点が与えられる。
操作センスは、他の例では、各関節の可駆動範囲に関するものである。この場合、操作センステーブル中の複数のロボット操作にはそれぞれ各関節の可駆動範囲に関する評価点が与えられる。
また、制御部111が、記憶部112に格納された評価プログラム112dに基づき、評価結果(評価値)を第1表示装置21に表示させる。第1ユーザU1は、ロボット30が停止しない程度のロボット操作の誤り等に気付かない場合がある。当該構成を用いることにより、第1ユーザU1はより細かな指導を行うことが可能となり、第1ユーザU1は何れの第2ユーザU2を教えるべきかの判断を容易に行うことができるようになる。これは、適切なロボット操作の効率的な習得のために極めて有利である。
また、当該構成を用いると、1人の第1ユーザU1が教えることができる第2ユーザU2の数が多い時にも、各第2ユーザU2が適切なロボット操作を効率的に習得できるようになる。特に、多くの第2ユーザU2が基本的な操作を覚える段階では、第1ユーザU1を機械の教師にすること、複数の第2ユーザU2を評価に応じてクラス分けすること等が可能になる。
また、制御部111が、評価対象ごとの評価結果を第1表示装置21および/又は第2表示装置22に表示させてもよい。評価対象は、例えば、タイプ1のロボットの危険度に関する評価、タイプ1のロボットの作業性に関する評価、タイプ1のロボットの耐久性に関する評価、タイプ1のロボットの可駆動範囲に関する評価、タイプ2のロボットの危険度に関する評価等である。この場合、制御部111は、評価対象ごとに評価基準を持っている。
なお、第2コンピュータ120の記憶部122に同様の評価プログラム122dが格納されており、評価に関して制御部121が第1コンピュータ110の制御部111と同様の処理を行ってもよい。
なお、制御部121が、記憶部122に格納されたメモリプログラム122cに基づき、危険動作が含まれるロボット30の動作およびその際のユーザ50の位置、それに関係する操作盤40への操作等を、記憶部122に保存するように構成されていてもよい。この場合、第2ユーザU2は、保存されたロボット30の動作等を見ることによって、自分のロボット操作における危険な点を確認することができ、これはロボット操作における安全性を向上する上で極めて有利である。
また、記憶部112又は記憶部122に、危険動作の複数の例が格納されていてもよい。この場合、第2ユーザU2は、危険動作として格納されているロボット30の動作、その際のユーザ50の位置等を見ることによって、ロボット操作における危険な点を確認することができ、これはロボット操作における安全性を向上する上で極めて有利である。
また、第2コンピュータU2に、ヘッドマウントディスプレイが接続されていてもよい。この場合、制御部121は、ヘッドマウントディスプレイに、モデル50から見た画像を表示させる。当該画像は三次元画像であることが好ましい。特に、制御部121は、前述の危険動作が含まれるロボット30の動作をヘッドマウントディスプレイに表示させる。これにより、第2ユーザU2は実際の状況に近い感覚で危険な状況を体験することができ、これは第2ユーザU2の危険操作に関するセンスを養う上で極めて有利である。
なお、他の例では、訓練操作システムが、1つの第1表示装置21と1つの第2表示装置22とを有する。この場合、熟練したロボット操作者である第2ユーザU2が、新たな製品に対して動作プログラムを作成する際に、多種多様なシチュエーションに適したロボット操作のセンスを持っている第1ユーザU1から1対1でロボット操作を教えてもらうことができる。この場合でも、メモリプログラム112c,122cに基づく前述の効果は有用である。また、評価プログラム112d,122dによって、第1ユーザU1はより細かに第2ユーザU2のスキルを評価および把握をすることが可能となり、適切なロボット操作の効率的な習得のために極めて有利である。
なお、第1コンピュータ110の制御部111が、第2ユーザU2が操作しているロボット30とは異なる第1ユーザ用ロボットを第1表示装置21に表示させ、第1ユーザU1が第1ユーザ用ロボットを操作してもよい。そして、制御部111が、第1ユーザ用ロボットの動作データを第2コンピュータ120に逐次送信し、第2コンピュータ120の制御部121が受信する動作データに基づいて、第1ユーザ用ロボット又はロボット30を動作させてもよい。この場合でも前述と同様の作用効果が達成され得る。
なお、制御システム100が、サーバ装置を備えていてもよい。この場合、サーバ装置は、第1コンピュータ110および第2コンピュータ120の一部又は全ての機能を備えている。また、制御システム100が、第1コンピュータ110だけを備えていてもよい。この場合、第1コンピュータ110は、第2コンピュータ120の全ての機能を備えている。
U1 第1ユーザ
U2 第2ユーザ
21 第1表示装置
22 第2表示装置
30 ロボット
40 操作盤
50 ユーザ
100 制御システム
110 第1コンピュータ
111 制御部
112 記憶部
112a シミュレーションプログラム
112b データ送信プログラム
112c メモリプログラム
112d 評価プログラム
113 入力装置(第1ユーザ入力装置)
120 第2コンピュータ
121 制御部
122 記憶部
122a シミュレーションプログラム
122b データ送信プログラム
122c メモリプログラム
122d 評価プログラム
123 入力装置(第1ユーザ入力装置)

Claims (11)

  1. 第1ユーザ用の第1表示装置と、
    前記第1ユーザからロボット操作を教わる第2ユーザ用の1つ又は複数の第2表示装置と、
    前記第2ユーザが第2ユーザ入力装置を用いて行う入力に基づいて、前記第2表示装置に表示されるロボットの図を動作させる制御システムと、を備え、
    前記制御システムが、前記第1ユーザが第1ユーザ入力装置を用いて行う入力に基づいて、前記第1表示装置に表示される前記ロボットの図又は第1ユーザ用ロボットの図を動作させると共に前記第1表示装置に表示されるユーザの図を移動させるシミュレーションを行うように構成され、
    前記制御システムが、前記第1ユーザが前記第1ユーザ入力装置を用いて行う入力に基づいた前記ユーザの図の移動および前記ロボットの図又は前記第1ユーザ用ロボットの図の動作を、前記第2表示装置に表示させるように構成されている、操作訓練システム。
  2. 前記制御システムが、前記第1表示装置に表示される操作盤に対して前記第1ユーザ入力装置を用いて行われる前記第1ユーザの操作内容を、前記第2表示装置に表示するように構成されている、請求項1に記載の操作訓練システム。
  3. 前記制御システムが、前記操作内容のうち、前記第1表示装置に表示される前記操作盤の操作ボタンおよび/又はメニューボタンの操作状況と、前記操作盤の動作とを、前記第2表示装置に表示される操作盤上に表示するように構成されている、請求項2に記載の操作訓練システム。
  4. 前記制御システムが、前記第1表示装置に表示される操作盤に対して前記第1ユーザ入力装置を用いて行われる前記第1ユーザの操作内容と、当該操作内容に応じた前記ロボットの図又は前記第1ユーザ用ロボットの図の動作とを、前記制御システムが有する記憶部に保存する機能と、保存された前記第1ユーザの操作内容および当該操作内容に応じた前記ロボットの図又は前記第1ユーザ用ロボットの図の動作を前記第2表示装置に表示する機能とを有する、請求項1に記載の操作訓練システム。
  5. 前記制御システムが、前記第2表示装置に表示される操作盤に対して前記第2ユーザ入力装置を用いて行われる前記第2ユーザの操作内容と、当該操作内容に応じて前記ロボットの図の動作とを、前記制御システムが有する記憶部に保存する機能と、保存された前記第2ユーザの操作内容および当該操作内容に応じた前記ロボットの図の動作を前記第2表示装置に表示する機能とを有する、請求項1に記載の操作訓練システム。
  6. 前記制御システムが、前記第2ユーザのロボットの図の操作を評価基準に基づき評価し、評価結果を前記第1表示装置に表示させるように構成されている、請求項1に記載の操作訓練システム。
  7. 前記制御システムが、危険動作が含まれる前記ロボットの図の動作を前記第2表示装置に表示させるように構成されている、請求項1に記載の操作訓練システム。
  8. 前記制御システムが、危険動作が含まれる前記ロボットの図の動作を、前記第2ユーザが装着するヘッドマウントディスプレイに表示させるように構成されている、請求項1に記載の操作訓練システム。
  9. 前記制御システムが、前記第2表示装置における前記ロボットの図の近傍に表示されるユーザの図を、第2ユーザ入力装置への入力に基づき移動させるように構成され、前記制御システムが、前記第2ユーザ入力装置への入力に基づき移動する前記ユーザの図を前記第1表示装置における前記ロボットの図の近傍に表示させるように構成されている、請求項1〜8の何れかに記載の操作訓練システム。
  10. 前記制御システムが有する記憶部には、前記ロボットの図の複数の動作パターンと、前記第2表示装置に表示され前記第2ユーザ入力装置への入力に基づいて移動するユーザの図の位置と、危険度に関する指標とを対応させる危険度テーブル又は危険度評価式が格納されており、
    前記制御システムは、前記危険度テーブル又は前記危険度評価式を用いて、前記第2ユーザが前記第2ユーザ入力装置を用いて行う前記入力に基づくロボットの操作を評価するように構成されている、請求項1に記載の操作訓練システム。
  11. 前記制御システムが有する記憶部には、前記ロボットの図の複数の動作パターンの各々に複数のロボット操作が対応付けられている操作センステーブル又は操作センス評価用式が格納されており、
    前記操作センステーブルおよび前記操作センス評価用式は、前記複数のロボット操作にそれぞれ評価点を対応付けるものであり、
    前記制御システムは、前記操作センステーブル又は前記操作センス評価用式を用いて、前記第2ユーザが前記第2ユーザ入力装置を用いて行う前記入力に基づくロボットの操作を評価する、請求項1に記載の操作訓練システム。
JP2018077275A 2018-04-13 2018-04-13 操作訓練システム Active JP6730363B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2018077275A JP6730363B2 (ja) 2018-04-13 2018-04-13 操作訓練システム
US16/362,760 US20190318660A1 (en) 2018-04-13 2019-03-25 Operation training system
DE102019108684.1A DE102019108684A1 (de) 2018-04-13 2019-04-03 Bedienungsschulungssystem
CN201910278976.8A CN110379239B (zh) 2018-04-13 2019-04-09 操作训练系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018077275A JP6730363B2 (ja) 2018-04-13 2018-04-13 操作訓練システム

Publications (2)

Publication Number Publication Date
JP2019184904A JP2019184904A (ja) 2019-10-24
JP6730363B2 true JP6730363B2 (ja) 2020-07-29

Family

ID=68053214

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018077275A Active JP6730363B2 (ja) 2018-04-13 2018-04-13 操作訓練システム

Country Status (4)

Country Link
US (1) US20190318660A1 (ja)
JP (1) JP6730363B2 (ja)
CN (1) CN110379239B (ja)
DE (1) DE102019108684A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200348662A1 (en) * 2016-05-09 2020-11-05 Strong Force Iot Portfolio 2016, Llc Platform for facilitating development of intelligence in an industrial internet of things system
US20180261131A1 (en) * 2017-03-07 2018-09-13 Boston Incubator Center, LLC Robotic Instructor And Demonstrator To Train Humans As Automation Specialists
CN111052042B (zh) 2017-09-29 2022-06-07 苹果公司 基于注视的用户交互
US11314396B2 (en) * 2018-05-09 2022-04-26 Apple Inc. Selecting a text input field using eye gaze
JPWO2021172572A1 (ja) * 2020-02-27 2021-09-02
JP2022131206A (ja) * 2021-02-26 2022-09-07 川崎重工業株式会社 情報処理装置、学習装置、情報処理システム及びロボットシステム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH085500Y2 (ja) * 1989-05-15 1996-02-14 三菱プレシジョン株式会社 航空機の集団操縦訓練装置
JPH08185113A (ja) * 1994-12-31 1996-07-16 Tokyo Gas Co Ltd アーム操作訓練システム
US6852107B2 (en) * 2002-01-16 2005-02-08 Computer Motion, Inc. Minimally invasive surgical training using robotics and tele-collaboration
US8527094B2 (en) * 1998-11-20 2013-09-03 Intuitive Surgical Operations, Inc. Multi-user medical robotic system for collaboration or training in minimally invasive surgical procedures
JP2009015388A (ja) * 2007-06-29 2009-01-22 Casio Comput Co Ltd 電子式計算機および制御プログラム
WO2012060901A1 (en) * 2010-11-04 2012-05-10 The Johns Hopkins University System and method for the evaluation of or improvement of minimally invasive surgery skills
EP2666428B1 (en) * 2012-05-21 2015-10-28 Universität Bern System and method for estimating the spatial position of a tool within an object
JP6069997B2 (ja) * 2012-09-18 2017-02-01 カシオ計算機株式会社 電子機器、プログラム及び表示制御方法
EP3217912A4 (en) * 2014-11-13 2018-04-25 Intuitive Surgical Operations, Inc. Integrated user environments
CN107847283B (zh) * 2015-06-09 2022-02-22 直观外科手术操作公司 利用外科手术过程图集配置外科手术系统
WO2017189317A1 (en) * 2016-04-26 2017-11-02 KindHeart, Inc. Telerobotic surgery system for remote surgeon training using robotic surgery station and remote surgeon station and an animating device
EP3518730B1 (en) * 2016-10-03 2024-04-17 Verb Surgical Inc. Immersive three-dimensional display for robotic surgery

Also Published As

Publication number Publication date
JP2019184904A (ja) 2019-10-24
CN110379239B (zh) 2022-06-24
CN110379239A (zh) 2019-10-25
US20190318660A1 (en) 2019-10-17
DE102019108684A1 (de) 2019-10-17

Similar Documents

Publication Publication Date Title
JP6730363B2 (ja) 操作訓練システム
KR101169674B1 (ko) 원격현전 로봇, 이를 포함하는 원격현전 시스템 및 이의 제어 방법
JP6314134B2 (ja) ロボット訓練のためのユーザインターフェース
EP3229219B1 (en) Systems and methods for vehicle simulation
KR20210041040A (ko) 로봇 시스템
KR20190095849A (ko) 복합현실 장치를 이용한 동시 다지역 원격 교차제어 시스템 및 그 제어방법
KR20190053689A (ko) 타워 크레인 vr 운용교육 시뮬레이터 장치 및 이를 이용한 시스템
KR102259762B1 (ko) 안전 사고 예방을 위한 가상 현실을 활용한 크레인 협동 작업 훈련 시스템
Mavridis et al. Subjective difficulty and indicators of performance of joystick-based robot arm teleoperation with auditory feedback
JPH11328243A (ja) プラント設計支援システム
CN109213306A (zh) 一种机器人远程控制平台及其设计方法
JPH08248870A (ja) 教育装置
Shin et al. Virtual Reality Based Intuitive Spatial Visual Interface for Avatar Robot System
Gong et al. Naturalistic vibrotactile feedback could facilitate telerobotic assembly on construction sites
JP2020173326A (ja) 現場作業教育システム
JPS6292003A (ja) 三次元シミユレ−タの位置指定方式
CN209879798U (zh) 一种消防仿真实验实训系统
San Blas Leal et al. Expand enabling robot grasping using mixed reality
KR20240095600A (ko) 메타버스 기반의 산업안전교육 지원 시스템
AU2023209595A1 (en) Method and system for simulating and learning skills and knowledge in augmented reality environments
Alesani XR application for remote operations
Yang et al. Robotics via Experiential Active Learning with Immersive Technology: A Pedagogical Framework Designed for Engineering Curricula
Universityof Teaching Robotic Assembly Tasks Using a 3D Simulation Environment
Yu Training novice robot operators to complete simple industrial tasks by using a VR training program
Katranitsiotis et al. Leveraging VR and Force-Haptic Feedback for an Effective Training with Robots.

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190911

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20191217

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200414

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200602

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200702

R150 Certificate of patent or registration of utility model

Ref document number: 6730363

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150