JP2020026028A - データ生成装置、データ生成方法、データ生成プログラムおよび遠隔操作システム - Google Patents

データ生成装置、データ生成方法、データ生成プログラムおよび遠隔操作システム Download PDF

Info

Publication number
JP2020026028A
JP2020026028A JP2019105754A JP2019105754A JP2020026028A JP 2020026028 A JP2020026028 A JP 2020026028A JP 2019105754 A JP2019105754 A JP 2019105754A JP 2019105754 A JP2019105754 A JP 2019105754A JP 2020026028 A JP2020026028 A JP 2020026028A
Authority
JP
Japan
Prior art keywords
robot
real
model
peripheral object
work space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019105754A
Other languages
English (en)
Other versions
JP7281349B2 (ja
Inventor
康彦 橋本
Yasuhiko Hashimoto
康彦 橋本
掃部 雅幸
Masayuki Kamon
雅幸 掃部
繁次 田中
Shigeji Tanaka
繁次 田中
佳彦 丸山
Yoshihiko Maruyama
佳彦 丸山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kawasaki Heavy Industries Ltd
Original Assignee
Kawasaki Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kawasaki Heavy Industries Ltd filed Critical Kawasaki Heavy Industries Ltd
Priority to KR1020217006823A priority Critical patent/KR102518766B1/ko
Priority to PCT/JP2019/031495 priority patent/WO2020032211A1/ja
Priority to CN201980048635.XA priority patent/CN112469538B/zh
Priority to US17/267,288 priority patent/US12027060B2/en
Priority to TW108128595A priority patent/TW202014278A/zh
Publication of JP2020026028A publication Critical patent/JP2020026028A/ja
Application granted granted Critical
Publication of JP7281349B2 publication Critical patent/JP7281349B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/02Hand grip control means
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/24Use of tools
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/67Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor adaptively or by learning from player actions, e.g. skill level adjustment or by storing successful combat sequences for re-use
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/006Controls for manipulators by means of a wireless system for controlling one or several manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/06Control stands, e.g. consoles, switchboards
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/06Control stands, e.g. consoles, switchboards
    • B25J13/065Control stands, e.g. consoles, switchboards comprising joy-sticks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/081Touching devices, e.g. pressure-sensitive
    • B25J13/082Grasping-force detectors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/088Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0081Programme-controlled manipulators with master teach-in means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/1605Simulation of manipulator lay-out, design, modelling of manipulator
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1661Programme controls characterised by programming, planning systems for manipulators characterised by task planning, object-oriented languages
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1671Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/16Control of vehicles or other craft
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/02Electrically-operated educational appliances with visual presentation of the material to be studied, e.g. using film strip
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1689Teleoperation
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/42Recording and playback systems, i.e. in which the programme is recorded from a cycle of operations, e.g. the cycle of operations being manually controlled, after which this record is played back on the same machine
    • G05B19/423Teaching successive positions by walk-through, i.e. the tool head or end effector being grasped and guided directly, with or without servo-assistance, to follow a path

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Educational Technology (AREA)
  • Educational Administration (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Automation & Control Theory (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Fuzzy Systems (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Manipulator (AREA)
  • Spray Control Apparatus (AREA)
  • Paper (AREA)

Abstract

【課題】操作者が操作する操作端末とロボットとの間の通信遅延が操作者の操作に与える影響を抑制する。【解決手段】データ生成装置は、表示器に表示される画像の生成に使用される少なくとも一部のデータを生成するためのデータ生成装置であって、表示器には、実作業空間をモデル化した作業空間モデルが動画像として表示され、作業空間モデルは、実ロボットをモデル化したロボットモデルと、実ロボットの周辺にある所定の周辺物をモデル化した周辺物モデルとを含み、ロボットモデルは、操作器に対する操作者の操作に応じて動作するように作成され、データ生成装置は、周辺物の状態を示す状態情報を取得する状態情報取得部と、状態情報に基づき、現時点より所定時間分だけ後の周辺物の状態を予測するとともに、予測した結果を、表示器に表示される周辺物モデルの作成に使用される周辺物モデルデータとして生成する予測部と、を備える。【選択図】図7

Description

本発明は、操作者がネットワークを通じて遠隔地のロボットを遠隔操作するシステムにおけるデータ生成装置、データ生成方法、データ生成プログラムおよび遠隔操作システムに関する。
従来、操作者がネットワークを通じて遠隔地のロボットを遠隔操作するシステムが知られている。この種のシステムでは、操作者が操作する操作装置とロボットとの間で通信遅延が生じる虞がある。例えば特許文献1には、スレーブ装置とマスタ装置との間の通信遅延を把握することができる遠隔操作システムが開示されている。
特許文献1に開示された遠隔操作システムでは、マスタ装置とスレーブ装置とを備えている。スレーブ装置は、マスタ装置から送られた操作者の操作に対応する操作情報に従って動作するスレーブロボットを備える。スレーブロボットは、自身の作業環境を撮像する撮像機器を有しており、スレーブ装置は、作業環境を逐次撮影し、撮影した実画像をマスタ装置に送信する。マスタ装置は、スレーブロボットに送られる操作情報に基づいて動作シミュレーションを行うシミュレータを備えており、スレーブ装置から送られた実画像と動作シミュレーションにより得られたシミュレーション画像とを合成することにより表示画像を生成する。表示画像における実画像とシミュレーション画像の合成の割合は、マスタ装置とスレーブ装置の間の通信遅延に応じて変えている。具体的には、通信遅延が大きい場合は、シミュレーション画像の割合を大きくして表示画像が生成される。実画像が、スレーブロボットの状況と共に作業環境の背景等についても映りこんだ画像であるのに対して、シミュレーション画像は、スレーブロボットの状況のみを表示した画像である。このため、操作者が、表示画像における例えば作業環境の背景が色濃く映っているか等から通信遅延がどの程度生じているかを容易に把握することを可能にしている。
特開2015−47666号公報
しかしながら、特許文献1のシステムでは、操作者は、実画像とシミュレーション画像の合成割合から通信遅延の程度を判断する必要があり、また、通信遅延が大きいと判断した場合には、マスタ装置へ与える操作量を減らすなどの対応を適宜とる必要がある。このため、上述のシステムでは、操作者は、ロボットの操作以外に通信遅延に伴う状況判断を行う必要があり、操作者がロボットの操作に集中できない虞がある。
そこで本発明は、操作者が操作する操作端末とロボットとの間の通信遅延が操作者の操作に与える影響を抑制することができるデータ生成装置、データ生成方法、データ生成プログラムおよび遠隔操作システムを提供することを目的とする。
上記の課題を解決するために、本発明の一態様に係るデータ生成装置は、操作者の操作を受け付ける操作器および前記操作者が視認可能な表示器を有する操作端末と、実作業空間内に設置され、前記操作端末とデータ通信可能なネットワークを介して接続された実ロボットと、を備える遠隔操作システムにおいて、前記表示器に表示される画像の生成に使用される少なくとも一部のデータを生成するためのデータ生成装置であって、前記表示器には、前記実作業空間をモデル化した作業空間モデルが動画像(time-varying image)として表示され、前記作業空間モデルは、前記実ロボットをモデル化したロボットモデルと、前記実ロボットの周辺にある実周辺物をモデル化した周辺物モデルとを含み、前記ロボットモデルは、前記操作器に対する前記操作者の操作に応じて動作するように作成され、前記データ生成装置は、前記実周辺物の状態を示す状態情報を取得する状態情報取得部と、前記状態情報に基づき、現時点より所定時間分だけ後の前記実周辺物の状態を予測するとともに、予測した結果を、前記表示器に表示される前記周辺物モデルの作成に使用される周辺物モデルデータとして生成する予測部と、を備える。
操作端末と実ロボットとの間に通信遅延がある場合、操作者が操作器を操作してからその操作に対応する動作を実ロボットが行うまでの間のタイムラグにより、同時刻におけるロボットモデルの動作と実ロボットの動作との間にずれが生じ得る。前記構成によれば、予測部により、現時点より所定時間分後の実周辺物の状態が予測され、その予測結果が表示器に表示される周辺物モデルの作成に使用される周辺物モデルデータとして生成される。このため、周辺物モデルの状態と実周辺物の状態との間にも、ロボットモデルと実ロボットとの間と同じ時間ずれを生じさせることができる。これにより、ロボットモデルと周辺物モデルとの時間軸を一致させることができるため、通信遅延が操作者の操作に与える影響を抑制することができる。
前記実周辺物は、前記実ロボットの作業対象であるワーク、前記ワークを搬送する搬送装置、および前記実ロボットを移動させる移動装置の少なくとも1つを含んでもよい。
前記状態情報は、前記作業空間に設置された撮像装置が前記実周辺物を撮像することにより生成される撮像情報を含んでもよい。
前記状態情報は、前記実周辺物としての周辺機器に設定された設定情報を含んでもよい。
上記のデータ生成装置は、所定の時点において前記表示器に表示された前記作業空間モデルの状況と、前記所定の時点より前記所定時間分だけ後の前記実作業空間の状況との間のズレの程度を検知するズレ検知部を更に備えてもよい。例えば、ズレ検知部により検知されるズレが所定の値より大きい場合に、実ロボットの作業を停止させる、あるいは表示器に表示されるモデルを補正するなどの対応が可能になる。
上記のデータ生成装置は、前記ズレ検知部により検知されたズレが予め設定された範囲を超えた場合に、前記ズレが解消されるように前記作業空間モデルを補正するモデル補正部を更に備えてもよい。
前記操作端末は、前記操作器としてのコントローラを含むゲーム装置であってもよい。
前記操作端末は、個人情報端末(PDA(Personal Data Assistant))、スマートフォン、パーソナルコンピュータ、タブレット、およびロボット専用遠隔操作器のうちの少なくとも1つであってもよい。
また、本発明の一態様に係るデータ生成方法は、操作者の操作を受け付ける操作器および前記操作者が視認可能な表示器を有する操作端末と、作業空間内に設置され、前記操作端末とデータ通信可能なネットワークを介して接続された実ロボットと、を備える遠隔操作システムにおいて、前記表示器に表示される画像の生成に使用される少なくとも一部のデータを生成するためのデータ生成方法であって、前記表示器には、前記実作業空間をモデル化した作業空間モデルが動画像として表示され、前記作業空間モデルは、前記実ロボットをモデル化したロボットモデルと、前記実ロボットの周辺にある周辺物をモデル化した周辺物モデルとを含み、前記ロボットモデルは、前記操作器に対する前記操作者の操作に応じて動作するように作成され、前記データ生成方法は、前記実ロボットの周辺にある周辺物の状態を示す状態情報を取得する状態情報取得ステップと、前記状態情報に基づき、現時点より後の前記周辺物の状態を予測するとともに、予測した結果を、前記表示器に表示される前記周辺物モデルの作成に使用される周辺物モデルデータとして生成する予測ステップと、を含む。
また、本発明の一態様に係るデータ生成プログラムは、操作者の操作を受け付ける操作器および前記操作者が視認可能な表示器を有する操作端末と、作業空間内に設置され、前記操作端末とデータ通信可能なネットワークを介して接続された実ロボットと、を備える遠隔操作システムにおいて、コンピュータに実行されることにより、前記表示器に表示される画像の生成に使用される少なくとも一部のデータを生成するデータ生成プログラムであって、前記表示器には、前記実作業空間をモデル化した作業空間モデルが動画像として表示され、前記作業空間モデルは、前記実ロボットをモデル化したロボットモデルと、前記実ロボットの周辺にある周辺物をモデル化した周辺物モデルとを含み、前記ロボットモデルは、前記操作器に対する前記操作者の操作により生成され、前記データ生成プログラムは、前記実ロボットの周辺にある周辺物の状態を示す状態情報を取得する状態情報取得ステップと、前記状態情報に基づき、現時点より後の前記周辺物の状態を予測するとともに、予測した結果を、前記表示器に表示される前記周辺物モデルの作成に使用される周辺物モデルデータとして生成する予測ステップと、を前記コンピュータに実行させる。
なお、前記データ生成プログラムは、記憶装置に記憶される。前記記憶装置は、コンピュータに内蔵または外付けされる読み書き可能または読み取り可能な装置であり、例えば、ハードディスク、フラッシュメモリ、光ディスク等を用いることができる。前記記憶装置に記憶されたプログラムは、前記記憶装置が直接接続されるコンピュータにおいて実行されてもよいし、前記記憶装置とネットワーク(例えば、インターネット)を介して接続されたコンピュータにおいてダウンロードされて実行されてもよい。
また、本発明の一態様に係る遠隔操作システムは、操作者の操作を受け付ける操作器および前記操作者が視認可能な表示器を有する操作端末と、実作業空間内に設置され、前記操作端末とデータ通信可能なネットワークを介して接続された実ロボットと、を備える遠隔操作システムであって、前記表示器には、前記実作業空間をモデル化した作業空間モデルが動画像として表示され、前記作業空間モデルは、前記実ロボットをモデル化したロボットモデルと、前記実ロボットの周辺にある実周辺物をモデル化した周辺物モデルとを含み、前記ロボットモデルは、前記操作器に対する前記操作者の操作に応じて動作するように作成され、前記遠隔操作システムは、前記実周辺物の状態を示す状態情報を取得する状態情報取得部と、前記状態情報に基づき、現時点より所定時間分だけ後の前記実周辺物の状態を予測するとともに、予測した結果を、前記表示器に表示される前記周辺物モデルの作成に使用される周辺物モデルデータとして生成する予測部とを備えるデータ生成装置を備える。
本発明によれば、操作者が操作する操作端末とロボットとの間の通信遅延が操作者の操作に与える影響を抑制することができる。
本発明の一実施形態に係る遠隔操作システムの全体構成を示すブロック図である。 図1のゲーム装置、中継装置および仲介装置のハードウェア構成の一例を示すブロック図である。 図1のロボットシステムの一例を模式的に示す図である。 図1のゲーム装置の制御部の機能的構成を示すブロック図である。 図1の中継装置の制御部の機能的構成を示すブロック図である。 ゲーム装置および中継装置の各々におけるロボットの作業開始前の処理フローを示す図である。 ゲーム装置および中継装置の各々におけるロボットの作業開始後の処理フローを示す図である。 ゲーム装置および中継装置の各々において時間の経過に伴い実行される処理の一例を説明するための図である。
以下、本発明の一実施形態について、図面を参照しながら説明する。
(システムの概要)
まず本実施形態に係る遠隔操作システム1の概要を、図1を参照して説明する。図1は、遠隔操作システム1の全体構成を示すブロック図である。本実施形態の遠隔操作システム1は、公知の各種ゲーム装置2(操作端末)と、操作者の居る場所とは異なる遠隔地の作業現場(作業空間。以下、「実作業空間」ともいう。)に設置されたロボット51とを通信ネットワーク4を介して接続する。そして、操作者にゲーム装置2を用いてロボット51を遠隔操作させて、当該ロボット51に所定の作業を遂行させる。
遠隔操作システム1は、複数のゲーム装置2と、1つの仲介装置6と、複数のロボットシステム5とを含み、これらは例えばインターネット等の通信ネットワーク4を介して相互に通信可能となっている。ゲーム装置2は、例えば操作者の自宅などに置かれた据え置き型のゲーム装置または操作者が携帯する携帯型ゲーム装置である。
ロボットシステム5は、操作者に遠隔操作される対象であるロボット51と、ロボット51の周辺に設置された1以上の周辺機器52と、中継装置53とを備える。ロボット51、周辺機器52および中継装置53はいずれも、ゲーム装置2を操作する操作者が居る場所から離れた遠隔地の作業現場に設置されている。作業現場には、1以上のロボットシステム5が存在する。
なお、遠隔操作システム1が有する複数のロボットシステム5の一部または全部は、互いに同じ作業現場に設置されていてもよいし異なる作業現場に設置されていてもよい。また、同じ作業現場に設置された複数のロボットシステム5が、互いに共有する周辺機器52を有していてもよい。なお、複数のロボットシステム5は、互いに種類が同じまたは異なる複数の周辺機器52を含み得るが、図1では、図の簡略化のため、周辺機器52を示すブロックを1のロボットシステム5につき1つだけ示す。
中継装置53は、同じロボットシステム5のロボット51および周辺機器52のそれぞれに通信可能に接続されている。中継装置53は、通信ネットワーク4を介して、ゲーム装置2または仲介装置6から送られる情報をロボット51または周辺機器52に送ったり、ロボット51または周辺機器52の情報をゲーム装置2または仲介装置6に送ったりする。
仲介装置6は、1の操作者(1のゲーム装置2)に対して1のロボットシステム5を割り当てる。より詳しくは、操作者は、ゲーム装置2から仲介装置6にアクセスして予めユーザ登録を行っており、ユーザ登録により操作者にはユーザIDが付与されている。操作者はゲーム装置2において自己のユーザIDを入力し仲介装置6に対して操作要求を送ると、操作要求を受信した仲介装置6は、ゲーム装置2をいずれかのロボットシステム5に対応付けるとともに、ゲーム装置2と対応付けたロボットシステム5の中継装置53とを、通信ネットワーク4を介して互いに通信接続させる。
例えば仲介装置6は、ゲーム装置2から操作要求を受け付けると、作業内容などを示す作業リスト情報を当該ゲーム装置2に送る。操作要求には、操作者が入力した希望条件情報が含まれる。希望条件情報には、ロボットの種類、ロボットの作業内容、対象ワーク、作業量、作業時間の一部または全部が含まれる。仲介装置6は、操作要求を受信すると、その操作要求に含まれる希望条件情報に基づき、操作者が希望する条件に合うものをフィルタリングし、ゲーム装置2にフィルタリングされた作業リストを送る。操作者はゲーム装置2の表示装置25に表示された作業リストの中から、希望するものを1つ指定すると、ゲーム装置2から仲介装置6に、操作者の指定に対応した指定情報が送られる。仲介装置6は、そのゲーム装置2を、指定情報に対応するロボットシステム5の中継装置53に接続する。
このように、遠隔操作システム1では、操作者がゲーム装置2を用いて物理的に遠く離れた様々な作業現場のロボット51を遠隔操作することが可能となっている。例えば、遠隔操作システム1により、操作者は自宅に居ながら、地球の裏側の作業現場にあるロボット51を操作することが可能である。互いに接続されたゲーム装置2とロボットシステム5(より詳しくはロボット51)との間には、ゲーム装置2およびロボットシステム5の各々の通信環境やゲーム装置2およびロボットシステム5の互いの物理的距離などに起因した通信遅延が生じ得る。本実施形態では、後述するように、互いに接続されたゲーム装置2とロボット51との間に生じる通信遅延が、操作者の操作に与える影響を抑制する遠隔操作システム1を実現している。
(ハードウェア構成)
図2に、ゲーム装置2、中継装置53および仲介装置6のハードウェア構成の一例を示す。なお、図2では、複数のゲーム装置2のうちの1のゲーム装置2のみ示し、複数のロボットシステム5のうちの1のロボットシステム5のみ示す。ゲーム装置2は、ゲーム装置本体2aと、それに接続される表示装置25(表示器)、スピーカ27、コントローラ28(操作器)を備える。
図2に示すように、ゲーム装置本体2aは、バス20上に制御部21、通信部22、およびハードディスクまたはメモリーカード等の記憶部23を備える。制御部21は、コントローラ28の操作に基づき、通信ネットワーク4を介してロボット51に送られる操作情報を生成する。なお、ロボット51は、この操作情報に基づき動作する。また、制御部21は、コントローラ28の操作に基づき、表示装置25に表示される画像を生成する。このような制御部21は、CPU210、ROM(フラッシュメモリ)211、RAM212、画像プロセッサ213、音声プロセッサ214、および操作部215を備えている。
CPU210はゲーム装置2の各部の動作を制御する。ROM211には、ゲーム装置2の基本プログラム等が記憶されている。記憶部23には、遠隔操作によりロボット51を動作させるための遠隔操作プログラムや、各種ゲームを実行するためのゲームプログラム等が記憶されている。RAM212には、CPU210がゲームプログラムを実行する際に使用されるワークエリアが設定される。なお、本実施形態では、記憶部23における上記遠隔操作プログラムの記憶は必須であるが、上記ゲームプログラムの記憶は必須ではない。なお、以下の説明では、各種プログラムやデータが記憶された制御部21のROM211やRAM212および記憶部23などを総称して、ゲーム装置2の記憶装置と呼ぶこととする。
画像プロセッサ213は、ゲーム画面を生成可能なGPU(Graphics Processing Unit)を備える。画像プロセッサ213には、ビデオRAM(VRAM)24が接続される。このVRAM24には表示装置25が接続されている。
音声プロセッサ214は、ゲーム音声を生成するDSP(Digital Signal Processor)を備える。音声プロセッサ214は、生成したゲーム音声をD/Aコンバータを含むアンプ26に送信する。アンプ26は、この音声信号を増幅してスピーカ27に送信する。
操作部215には、コントローラ28が無線または有線で通信接続されている。コントローラ28は、十字ボタン、プッシュスイッチ、ジョイスティック、マウス、キーボードおよびタッチパネルなどを含む。また、操作部215は、ユーザによるコントローラ28を介した操作信号を検出し、その操作信号をCPU210に送信する。
通信部22は、通信ネットワーク4を介して仲介装置6および中継装置53と通信する通信機器である。
仲介装置6は、制御部61、通信部62および記憶部63を備えている。制御部61は、例えばプロセッサとメモリとを有する演算器で構成される。この演算器は、具体的には、例えばマイクロコントローラ、MPU、FPGA(Field Programmable Gate Array)、PLC(Programmable Logic Controller)、コンピュータ、パーソナルコンピュータなどで構成される。制御部61は、集中制御を行う単独の演算器で構成されてもよく、分散制御を行う複数の演算器で構成されてもよい。通信部62は、通信ネットワーク4を介してゲーム装置2および中継装置53と通信する通信機器である。記憶部63は、読み書き可能または読み取り可能な記憶装置であり、例えば、ハードディスク、フラッシュメモリ、光ディスク等である。制御部61は仲介装置6の各部の動作を制御する。制御部61のメモリや記憶部63には、ゲーム装置2をロボットシステム5に対応付けを行うプログラムなどの仲介装置6の動作を制御する各種プログラムやデータが記憶されている。
中継装置53は、制御部55、通信部56および記憶部57を備えている。制御部55は、例えばプロセッサとメモリとを有する演算器で構成される。この演算器は、具体的には、例えばマイクロコントローラ、MPU、FPGA(Field Programmable Gate Array)、PLC(Programmable Logic Controller)、コンピュータ、パーソナルコンピュータなどで構成される。制御部55は、集中制御を行う単独の演算器で構成されてもよく、分散制御を行う複数の演算器で構成されてもよい。通信部56は、通信ネットワーク4を介してゲーム装置2、仲介装置6、ロボット51、および周辺機器52と通信する通信機器である。記憶部57は、読み書き可能または読み取り可能な記憶装置であり、例えば、ハードディスク、フラッシュメモリ、光ディスク等である。制御部55は、中継装置53の動作を制御する。制御部55のメモリや記憶部57には、中継装置53の動作を制御する各種プログラムやデータが記憶されている。
図3に、ロボットシステム5の一例を模式的に示す。このロボットシステム5では、コンベア52aにて搬送されるワークWをピッキングする作業をロボット51が行う。図3に示されたロボットシステム5において、ロボット51は、産業用ロボットである。ロボット51は、操作者に遠隔操作される対象であるロボット本体51aと、ロボット本体51aの動作を制御するロボットコントローラ51bとを含む。図3に示したロボット本体51aは、先端部にツールが装着された垂直多関節型のロボットアームであり、本例では、ツールとして、垂直多関節型のロボットアームの先端部には、ワークWを把持可能な把持ハンドが装着されている。ロボットコントローラ51bは、プロセッサを備えており、格納されたプログラムや外部から入力される各種信号の解読・演算処理などをプロセッサで行い、ロボット本体51aの動作制御、各種出力ポートからの信号出力などをつかさどる。また、図3のロボットシステム5は、周辺機器52として、作業対象であるワークを搬送するコンベア52a、ロボット51の作業状況を撮像する1以上の(本例では2つの)撮像装置52b、およびワークWの位置を検知するセンサ52cなどを備える。
なお、図3に示されたロボットシステム5の構成は、一例であり、ロボット51や周辺機器52の種類などは、ロボット51の作業内容に応じた構成となっている。例えば、ロボット51の作業は、ピッキング作業の他にも、例えば塗装作業や弁当盛り付け作業、溶接作業等であってもよい。また、ロボット51は、垂直多関節型ロボットでなくてもよく、例えば水平多関節型ロボット、パラレルリンク型ロボット、極座標ロボット、円筒座標型ロボット、直角座標型ロボット等の産業用ロボットでもよい。また、周辺機器52としての搬送装置は、コンベア以外の搬送装置でもよい。周辺機器52は、ロボット本体51aを移動させる移動装置を含んでもよい。周辺機器52としての1以上のセンサは、ワークWの位置を検知するセンサの代わりにまたは加えて、ロボット51の位置や姿勢を検知するセンサなどであってもよい。周辺機器52としての1以上のセンサには、検査対象物の位置、向きまたは向きを検知するセンサを含む。また、ロボットシステム5は、周辺機器52として複数の撮像装置52bを備えてもよい。撮像装置52bはロボット本体51aに取り付けられていてもよい。
(機能的構成)
図4は、ゲーム装置2の制御部21の機能的構成を示すブロック図である。ゲーム装置2の制御部21は、機能的構成として、通信制御部31、操作側時間管理部32、状態情報取得部33、シミュレート部(予測部)34、画像表示部35、通信遅延計測部36、ズレ検知部37、モデル補正部38を有している。これらの機能部は、ゲーム装置2の記憶装置に記憶された所定のプログラムとの協働によって機能的に実現される。なお、ゲーム装置2の記憶装置に記憶された所定のプログラムには、本発明の「データ生成プログラム」が含まれる。
通信制御部31は、通信部22を制御して、仲介装置6に上述した操作要求や指定情報を送ったり、仲介装置6からリスト情報を受信したりする。また、通信制御部31は、通信部22を制御して、仲介装置6がゲーム装置2と対応付けたロボットシステム5と通信接続するための情報を仲介装置6から受信する。また、通信制御部31は、通信部22を制御して、操作者がコントローラ28を操作することで生成された操作情報を、対応するロボットシステム5の中継装置53に送る。
操作側時間管理部32は、コントローラ28に対して操作者が操作してから、その操作に基づきロボット51が動作するまでの時間が一定に保たれるように、ゲーム装置2側の時間を管理する。
状態情報取得部33およびシミュレート部34は、表示装置25に表示される画像の生成に使用される少なくとも一部のデータを生成する。具体的には、表示装置25には、ロボット(以下、「実ロボット」)51が実際に存在する作業空間(以下、「実作業空間」)をモデル化した作業空間モデルが動画像として表示される。作業空間モデルは、仮想の作業空間に配置されたロボットモデルおよび周辺物モデルを含む。ロボットモデルは、実ロボット51をモデル化したものである。周辺物モデルは、実ロボット51の周辺にある所定の周辺物(以下、「実周辺物」)をモデル化したものである。実周辺物には、ロボット51の周辺に位置する周辺機器52およびワークWが含まれ、周辺物モデルには、これらに対応した周辺機器モデルおよびワークモデルが含まれる。表示装置25に表示される画像の生成には、ロボットモデルデータや周辺物モデルデータが用いられる。
ロボットモデルデータは、実ロボット51の静的情報が含まれる。ロボットモデルの静的情報には、例えば、実ロボット51の構造を示す構造情報(ロボット本体51aの関節数やリンク長、ツールの構造、など)や作業開始前の位置および/または姿勢を示す情報(例えばロボット本体51aが有するサーボモータの回転角度情報)などが含まれる。また、ロボットモデルデータには、ロボットモデルの動的情報、つまりコントローラ28に対する操作者の操作情報(コマンド)が含まれる。この操作情報は、ロボットモデルを動作させるために使用されるとともに、通信ネットワーク4を介してゲーム装置2から実ロボット51に送られて、実ロボット51の動作にも使用される。つまり、操作者が、表示装置25の表示画面を見ながらコントローラ28を操作して、表示画面上のロボットモデルを動作させると、作業現場の実ロボット51も同様に動作する。ただし、後述するように、ロボットモデルの動作に一定時間遅れて実ロボット51は動作する。
周辺物モデルデータには、実周辺物の静的情報が含まれる。実周辺物の静的情報には、周辺機器52の構造情報、周辺機器52の作業開始前の位置および/または姿勢を示す情報、実ロボット51の作業対象であるワークWの形状データや構造情報、ワークWの作業開始前の位置および/または姿勢を示す情報が含まれる。また、周辺物モデルデータには、実周辺物の所定時間先の位置や姿勢を予測した情報が含まれる。この予測を状態情報取得部33およびシミュレート部34が行う。本実施形態では、状態情報取得部33およびシミュレート部34を備えるゲーム装置2が、本発明の「データ生成装置」に対応する。
具体的には、状態情報取得部33が、実ロボット51の周りの周辺機器52やワークWなどの実周辺物の状態を示す状態情報を取得する。そして、シミュレート部34は、状態情報に基づき、時間経過に伴う実周辺物の位置や姿勢の変化をシミュレートする。例えば状態情報取得部33が、ある時点における周辺機器52としての搬送装置に設定された搬送速度を示す情報と当該搬送装置に搬送されるワークWの位置を示す情報とを状態情報として取得した場合、シミュレート部34は、その搬送速度情報およびワーク位置情報から、一定時間先のワークWの位置や姿勢を容易に算出可能である。このようにシミュレート部34は、シミュレーションにより現時点より所定時間分だけ後の実周辺物の状態を予測する。そして、シミュレート部34は、予測した結果を周辺物モデルの作成に使用される周辺物モデルデータとして生成する。
画像表示部35は、ロボットモデルデータおよび周辺物モデルデータに基づき作成される作業空間モデルを、表示装置25に表示する。例えば、画像表示部35は、ロボットモデルデータおよび周辺物モデルデータに基づき作成されたロボットモデルおよび周辺物モデルが配置される仮想の作業空間に、仮想のカメラを配置する。この仮想のカメラにより撮像した画像を、表示装置25に表示する。仮想カメラの位置、向き、ズームなどは、予め定められていてもよいし、例えばコントローラ28に対する操作者の操作に応じて変更可能であってもよい。仮想作業空間における仮想カメラの位置や向きが、実作業空間における撮像装置52bの位置や向きとそれぞれ対応していてもよい。
通信遅延計測部36、ズレ検知部37およびモデル補正部38について、詳細は後述する。
図5は、中継装置53の制御部55の機能的構成を示すブロック図である。中継装置53の制御部55は、機能的構成として、通信制御部71、ロボット側時間管理部72を有している。これらの機能部は、中継装置53の制御部55および/または記憶部57に記憶された所定のプログラムとの協働によって機能的に実現される。
通信制御部71は、通信部56を制御して、ゲーム装置2から、操作者がコントローラ28を操作することで生成された操作情報を受信する。
ロボット側時間管理部72は、コントローラ28に対して操作者が操作してから、その操作に基づきロボット51が動作するまでの時間が一定に保たれるように、ロボットシステム5側の時間を管理する。
(処理フロー)
次に、ゲーム装置2および中継装置53の各々における実行処理について、図6〜8を参照して説明する。
図6は、ゲーム装置2および中継装置53の各々におけるロボット51の作業開始前の処理フローを示す図である。作業開始前において、作業空間モデルにおけるロボットモデル、周辺機器モデルおよびワークモデルは、実ロボット51、周辺機器52およびワークWと、それぞれ互いに同じ状態となるように作成される。
具体的には、仲介装置6によりゲーム装置2と中継装置53とが接続されると、まず中継装置53の通信制御部71は、作業開始前の作業空間モデルを作成するための情報をゲーム装置2に送信する(ステップS201)。作業開始前の作業空間モデルを作成するための情報には、実ロボット51の周辺にある実周辺物の状態を示す状態情報が含まれる。
本実施形態では、状態情報には、実作業空間に設置された撮像装置52bが周辺機器52およびワークWを撮像することにより生成される撮像情報が含まれる。また、状態情報には、周辺機器52としてのセンサの検知情報が含まれる。センサの検知情報には、例えばワークWが作業空間の所定の位置にあるか否かを示す情報や、ワークWの位置または姿勢を示す情報などが含まれる。また、状態情報には、周辺機器52に設定された設定情報が含まれる。設定情報には、例えばロボットシステム5が周辺機器52として搬送装置を含む場合、搬送装置に対し設定された搬送速度や搬送間隔が含まれてもよい。搬送間隔は、搬送されるワーク間の距離であってもよいし、あるワークWがロボット51の前の所定の位置に搬送された時点から、その次のワークWが所定の位置に搬送されるまでの時間間隔などであってもよい。
また、ステップS201で中継装置53からゲーム装置2に送られる状態情報には、実ロボット51の状態を示す情報も含まれる。実ロボット51の状態を示す情報には、例えばロボットコントローラ51bが記憶している実ロボット51の姿勢情報や位置情報が含まれてもよい。また、実ロボット51の状態を示す情報には、周辺機器52である撮像装置52bにより得られる撮像情報やセンサ52cの検知情報が含まれてもよい。
ゲーム装置2側では、状態情報取得部33は、中継装置53から受信した状態情報を取得する(ステップS101)。そして、シミュレート部34は、状態情報取得部33により取得した状態情報に基づき、作業開始前の実作業空間と同じ状態の作業空間モデルを作成する(ステップS102)。例えば、ワークWの形状データや構造情報、ワークWの位置や向き、周辺機器52の位置情報や構造情報、設定情報などが含まれている。
具体的には、シミュレート部34は、作業開始前の実ロボット51の位置情報(実作業空間に対し設定された座標系における位置座標)および姿勢情報(ロボット本体51aが有するサーボモータの回転角度情報など)に基づき、ロボットモデルの状態(位置や姿勢など)が実ロボット51と同じ状態となるように、ロボットモデルを作成する。また、シミュレート部34は、作業開始前の実周辺物の状態情報に基づき、周辺物モデルが実周辺物と同じ状態となるように、周辺物モデルを作成する。
画像表示部35は、ステップS102で作成した作業空間モデルの画像を生成して、表示装置25に表示する(ステップS103)。こうして、作業開始の準備が整う。
図7は、ゲーム装置2および中継装置53の各々におけるロボット51の作業開始後の処理フローである。また、図8は、ゲーム装置2および中継装置53の各々において時間の経過に伴い実行される処理の一例を説明するための図である。
ステップS103の後、ゲーム装置2の制御部21は、作業開始を指示する操作がなされたか否かを判定する(ステップS105)。作業開始指示がない場合(ステップS105:No)、作業開始指示があるまで待機した状態となる。操作者によりコントローラ28に対して作業開始を指示する操作がなされると(ステップS105:Yes)、通信制御部31は、中継装置53に作業開始指示を送信する(ステップS106)。また、操作側時間管理部32は、作業開始指示の送信時刻を、操作側基準時刻t1としてゲーム装置2の記憶装置(RAM212または記憶部23など)に記憶する(ステップS107、図8も参照)。
ロボットシステム5側では、中継装置53の通信制御部71が作業開始指示を受信すると(ステップS202)、通信制御部71は、作業開始指示の受信時刻から所定時間Δtだけ待機した後を作業開始時刻とし、ロボット51および周辺機器52に作業開始指示を送る(ステップS203)。また、ロボット側時間管理部72は、作業開始指示の受信時刻から所定時間Δtだけ後の時刻を、ロボット側基準時刻t2として記憶する(ステップS204、図8も参照)。
こうして、以降に説明するように、操作側基準時刻t1から、表示装置25に表示される作業空間モデル内のロボットモデルの作業が開始され、ロボット側基準時刻t2から、実作業空間での実ロボットの作業が開始される。言い換えれば、実作業空間は、作業空間モデルよりも基準時刻の差分(t2−t1)だけ遅れて進行する。例えばゲーム装置2からロボットシステム5に送られる作業開始指示には、周辺機器52を停止状態から稼働状態に移行する指令が含まれてもよい。例えば作業空間モデルのワークモデルは、搬送装置モデルに操作側基準時刻t1から搬送され始め、実作業空間の実ワークWは、搬送装置にロボット側基準時刻t2から搬送され始めてもよい。
ゲーム装置2では、ステップS107で基準時刻t1を設定した後、ロボット51の遠隔操作が可能となる。すなわち、コントローラ28に対してロボット51を操作するための操作が行われた場合(ステップS108:Yes)、操作情報が生成される。シミュレート部34は、操作情報に基づき、ロボットモデルの動作をシミュレートする(ステップS109)。また、通信制御部31は、操作情報とともに、その操作情報に対応した操作を行うまでに経過した時間を示す基準時刻t1からの経過時間Tとを中継装置53に送信する(ステップS110)。
ロボットシステム5側では、中継装置53の通信制御部71が、ゲーム装置2から操作情報および時間情報とをセットで受信すると、基準時刻t2からの経過時間T後に、受信した操作情報に基づく操作を実行するように、ロボット51に動作指令を送る(ステップS205)。なお、ステップS110では、経過時間Tの代わりに、操作した時刻を示す時刻を示す時刻情報など、操作情報に対応した操作がなされた時間を示す時間情報が送られればよい。
また、ステップS108で操作があったと判定されたか否かに関わらず、シミュレート部34は、実周辺物の状態をシミュレートする(ステップS111)。具体的に、シミュレート部34は、状態情報に基づき、現時点より所定時間分だけ後の実周辺物の状態を予測し、予測した結果を周辺物モデルの作成に使用される周辺物モデルデータとして生成する。なお、状態情報は、状態情報取得部33が作業開始前にステップS101で取得したものでなくてもよく、作業開始後に取得した情報であってもよい。つまり、ロボットシステム5からゲーム装置2に最新の状態情報が、逐次送られてもよく、状態情報取得部33は、最新の状態情報を逐次取得してもよい。シミュレート部34は、最新の状態情報に基づき実周辺物の状態を予測してもよい。
画像表示部35は、ステップS109およびS111でのシミュレーション結果に基づき生成されるデータに基づき、作業空間モデルを示す画像を表示装置25に表示する(ステップS112)。画像表示部35は、実際の作業空間の状況に対してロボット側基準時刻t2と操作側基準時刻t1との差分(t2−t1)だけ先の状況の作業空間モデルを表示する。言い換えれば、図8に示すように、表示装置25に表示される作業空間モデルに対して、実際の作業空間は、ロボット側基準時刻t2と操作側基準時刻t1との差分(t2−t1)だけ遅れて進行する。
コントローラ28に対して作業終了のための操作が行われるまで、あるいは一定の作業が完了するまでは(ステップS113:No)、ステップS108〜S112が繰り返される。
上述のステップS203では、ロボット側時間管理部72は、作業開始指示の受信時刻をロボット側基準時刻t2とせず、作業開始指示の受信時刻から所定時間Δtだけ待機した後の時刻をロボット側基準時刻t2として設定している。このように、操作側基準時刻t1とロボット側基準時刻t2との間に一定の間隔を設けることで、ゲーム装置2とロボットシステム5との通信遅延(図8のΔd1,Δd2参照)の変動を吸収している。
なお、待機時間Δtは、ゲーム装置2とロボットシステム5(詳細には中継装置53)との間の実際に通信遅延から設定してもよい。通信遅延計測部36は、ゲーム装置2とそれに対応付けられたロボットシステム5(より詳しくは中継装置53)との間の通信遅延を計測する。通信遅延の計測は、周知の方法で実施される。ロボット側時間管理部72は、ステップS105の前に通信遅延計測部36により計測された通信遅延の変動度合いに応じて、待機時間Δtの長さ、言い換えればロボット側基準時刻t2と操作側基準時刻t1との差分(t2−t1)が設定してもよい。
また、本実施形態では、ステップS108〜S112を繰り返す際に、定期的に、作業空間モデルを補正する。ズレ検知部37は、所定の時点において表示装置25に表示された作業空間モデルの状況と、所定の時点より所定の時間分だけ後の実作業空間の状況との間のズレの程度を検知する。より詳しくは、ズレ検知部37は、所定の時点の作業空間モデルの状況と、当該所定の時点より、ロボット側基準時刻t2と操作側基準時刻t1との差分(t2−t1)だけ後の実作業空間の状況との間のズレの程度を検知する。
例えばズレ検知部37は、ある時刻taの実作業空間の状態を示す状態情報と、シミュレート部34により予測した当該時刻taの作業空間モデルの状態とを比較してズレの程度を検知してもよい。ズレ検知部37が比較する実作業空間の状態を示す状態情報には、シミュレート部34が実周辺物の状態を予測するために使用する状態情報が含まれてもよい。ズレ検知部37は、例えば時刻taの実作業空間の撮像情報をロボットシステム5から受信し、その撮像情報から実周辺物(周辺機器52やワークW)の位置や姿勢を画像認識で判断してもよい。ズレ検知部37は、時刻taの撮像情報から判断した実周辺物の位置や姿勢と、時刻taの実作業空間に対応する時刻(つまり、時刻(ta−(t2−t1)))の作業空間モデルにおける周辺物モデルの位置や姿勢を比較する。つまり、ズレ検知部37は、時刻taの撮像情報から判断した実周辺物の状態(周辺機器52やワークWの位置や姿勢など)と、時刻taより時間(t2−t1)だけ前の周辺物モデルの状態とを比較する。
そして、モデル補正部38は、ズレ検知部37により検知されたズレが予め設定された範囲を超えた場合に、ズレが解消されるように作業空間モデルを補正する。例えば、モデル補正部38は、シミュレート部34に用いられる状態情報を、ズレ検知部37により検知したズレだけ調整してもよい。あるいは、モデル補正部38は、シミュレート部34により生成された周辺物モデルデータを、ズレ検知部37により検知したズレだけ調整してもよい。なお、モデル補正部38が作業空間モデルの補正を行った後に、シミュレート部34が実周辺物の状態をシミュレートする場合、作業空間モデルの補正を加味して、実周辺物の状態をシミュレートする。
以上説明したように、本実施形態のデータ生成装置としてのゲーム装置2および遠隔操作システム1によれば、シミュレート部34により、現時点より所定時間分後の実周辺物の状態が予測され、その予測結果が、表示装置25に表示される周辺物モデルの作成に使用される周辺物モデルデータとして生成される。このため、周辺物モデルの状態と実周辺物の状態との間にも、ロボットモデルと実ロボットとの間と同じ時間ずれを生じさせることができる。これにより、ロボットモデルと周辺物モデルとの時間軸を一致させることができるため、通信遅延が操作者の操作に与える影響を抑制することができる。
また、本実施形態では、ズレ検知部37が所定の時点において表示装置25に表示された作業空間モデルの状況と、所定の時点より所定時間分だけ後の実作業空間の状況との間のズレの程度を検知し、モデル補正部38が、ズレ検知部37により検知されたズレが予め設定された範囲を超えた場合に、ズレが解消されるように作業空間モデルを補正する。このため、表示装置25に表示される作業空間モデルの状況と実作業空間の状況との間のズレを抑制することができる。
(その他の実施形態)
本発明は上述の実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲で種々の変形が可能である。
例えば、上記実施形態では、操作端末としてゲーム装置2が例示されたが、本発明における操作端末はゲーム装置2でなくてもよい。操作端末は、操作者の操作を受け付ける操作器および操作者が視認可能な表示器を有するものであればよい。例えばゲーム装置2は、公知の各種ゲーム装置の他に、例えば個人情報端末(PDA(Personal Data Assistant))、スマートフォン、パーソナルコンピュータ、タブレット、およびロボット専用遠隔操作器のいずれかであってもよい。
また、例えば、仲介装置6または別のサーバ装置の制御部が、所定のプログラムを実行することにより、状態情報取得部および予測部として機能してもよい。つまり、本発明の「データ生成装置」は、操作者が操作する操作端末でなくてもよく、操作端末と通信する装置であってもよい。例えば、本発明のデータ生成装置は、ロボットコントローラ51b、中継装置53、仲介装置6、あるいは仲介装置6とは別のサーバ装置であってもよい。本発明のデータ生成装置は、通信遅延計測部36、ズレ検知部37およびモデル補正部38の一部または全部を備えていなくてもよい。
また、本発明の「データ生成プログラム」は、操作端末としてのゲーム装置2の記憶装置の代わりにまたは加えて、ロボットコントローラ51b、中継装置53、仲介装置6、および仲介装置6とは別のサーバ装置の少なくとも1つが備える記憶装置に記憶されていてもよい。また、本発明の「データ生成プログラム」は、ロボットコントローラ51b、中継装置53、仲介装置6、および仲介装置6とは別のサーバ装置の少なくとも1つが夫々内蔵するコンピュータに実行されることにより、当該コンピュータに状態情報取得部および予測部として機能させるものであればよい。図6および図7に沿って説明したゲーム装置2および中継装置53の処理フローも、本発明を制限するものではない。
また、遠隔操作システム1は、ゲーム装置2を1つだけ備えてもよい。また、遠隔操作システム1は、ロボットシステム5を1つだけ備えてもよい。また、遠隔操作システム1は、仲介装置6を備えなくてもよい。また、ロボットシステム5における中継装置53とロボットコントローラ51bとは一体的に構成されていてもよい。すなわち、ロボットシステム5は、中継装置53とロボットコントローラ51bの各々の機能を兼ね備える1台の制御装置を備えてもよい。
また、本発明における実ロボットは、産業用ロボットでなくてもよく、操作端末における操作者の操作に応じて動作するロボットであればよい。例えば本発明の実ロボットは、介護、医療、運搬、清掃、料理などのサービスを提供するサービス用ロボットであってもよい。また、本発明の実ロボットは、ヒューマノイドであってもよい。実ロボットは、操作者による操作器の操作により生成される操作情報に基づき動作するが、実ロボットは、当該操作情報だけでなく予め設定したタスクプログラムに基づいても動作してよい。
上記実施形態では、データ生成プログラムは、実周辺物の状態を示す状態情報を取得する状態情報取得ステップと、前記状態情報に基づき、現時点より後の前記実周辺物の状態を予測するとともに、予測した結果を、前記表示器に表示される前記周辺物モデルの作成に使用される周辺物モデルデータとして生成する予測ステップと、を操作端末としてのゲーム装置2の制御器21に実行させるものであったが、本発明のデータ生成プログラムは、上述した状態情報取得ステップおよび予測ステップを、他のコンピュータに実行させてもよい。例えば、本発明のデータ生成プログラムは、上述した状態情報取得ステップおよび予測ステップを、ロボットコントローラ51b、中継装置53、仲介装置6、および仲介装置6とは別のサーバ装置の少なくとも1つが備える制御器(コンピュータ)に実行させてもよい。データ生成プログラムは複数の記憶装置に分散して記憶されていてもよい。例えばデータ生成プログラムの一部が操作端末の記憶装置に記憶され、それ以外が別の記憶装置(例えば中継装置53など)に記憶されていてもよい。また、本発明のデータ生成プログラムは、所定の時点において前記表示器に表示された前記作業空間モデルの状況と、前記所定の時点より前記所定時間分だけ後の前記実作業空間の状況との間のズレの程度を検知するズレ検知ステップを、コンピュータに実行させてもよい。また、本発明のデータ生成プログラムは、前記ズレ検知ステップにより検知されたズレが予め設定された範囲を超えた場合に、前記ズレが解消されるように前記作業空間モデルを補正するモデル補正ステップをコンピュータに実行させてもよい。
1 :遠隔操作システム
2 :ゲーム装置(操作端末)
4 :通信ネットワーク
5 :ロボットシステム
6 :仲介装置
25 :表示装置(表示器)
28 :コントローラ(操作器)
33 :状態情報取得部
34 :シミュレート部(予測部)
35 :画像表示部
36 :通信遅延計測部
37 :ズレ検知部
38 :モデル補正部
51 :ロボット
51a :ロボット本体
51b :ロボットコントローラ
52 :周辺機器
52a :コンベア
52b :撮像装置
52c :センサ
53 :中継装置
55 :制御部

Claims (11)

  1. 操作者の操作を受け付ける操作器および前記操作者が視認可能な表示器を有する操作端末と、実作業空間内に設置され、前記操作端末とデータ通信可能なネットワークを介して接続された実ロボットと、を備える遠隔操作システムにおいて、前記表示器に表示される画像の生成に使用される少なくとも一部のデータを生成するためのデータ生成装置であって、
    前記表示器には、前記実作業空間をモデル化した作業空間モデルが動画像として表示され、
    前記作業空間モデルは、前記実ロボットをモデル化したロボットモデルと、前記実ロボットの周辺にある実周辺物をモデル化した周辺物モデルとを含み、
    前記ロボットモデルは、前記操作器に対する前記操作者の操作に応じて動作するように作成され、
    前記データ生成装置は、
    前記実周辺物の状態を示す状態情報を取得する状態情報取得部と、
    前記状態情報に基づき、現時点より所定時間分だけ後の前記実周辺物の状態を予測するとともに、予測した結果を、前記表示器に表示される前記周辺物モデルの作成に使用される周辺物モデルデータとして生成する予測部と、を備える、データ生成装置。
  2. 前記実周辺物は、前記実ロボットの作業対象であるワーク、前記ワークを搬送する搬送装置、および前記実ロボットを移動させる移動装置の少なくとも1つを含む、請求項1に記載のデータ生成装置。
  3. 前記状態情報は、前記作業空間に設置された撮像装置が前記実周辺物を撮像することにより生成される撮像情報を含む、請求項1または2に記載のデータ生成装置。
  4. 前記状態情報は、前記実周辺物としての周辺機器に設定された設定情報を含む、請求項1〜3のいずれか1項に記載のデータ生成装置。
  5. 所定の時点において前記表示器に表示された前記作業空間モデルの状況と、前記所定の時点より前記所定時間分だけ後の前記実作業空間の状況との間のズレの程度を検知するズレ検知部を更に備える、請求項1〜4のいずれか1項に記載のデータ生成装置。
  6. 前記ズレ検知部により検知されたズレが予め設定された範囲を超えた場合に、前記ズレが解消されるように前記作業空間モデルを補正するモデル補正部を更に備える、請求項5に記載のデータ生成装置。
  7. 前記操作端末は、前記操作器としてのコントローラを含むゲーム装置である、請求項1〜6のいずれか1項に記載のデータ生成装置。
  8. 前記操作端末は、個人情報端末(PDA(Personal Data Assistant))、スマートフォン、パーソナルコンピュータ、タブレット、およびロボット専用遠隔操作器のうちの少なくとも1つである、請求項1〜7のいずれか1項に記載のデータ生成装置。
  9. 操作者の操作を受け付ける操作器および前記操作者が視認可能な表示器を有する操作端末と、作業空間内に設置され、前記操作端末とデータ通信可能なネットワークを介して接続された実ロボットと、を備える遠隔操作システムにおいて、前記表示器に表示される画像の生成に使用される少なくとも一部のデータを生成するためのデータ生成方法であって、
    前記表示器には、前記実作業空間をモデル化した作業空間モデルが動画像として表示され、
    前記作業空間モデルは、前記実ロボットをモデル化したロボットモデルと、前記実ロボットの周辺にある実周辺物をモデル化した周辺物モデルとを含み、
    前記ロボットモデルは、前記操作器に対する前記操作者の操作に応じて動作するように作成され、
    前記データ生成方法は、
    前記実周辺物の状態を示す状態情報を取得する状態情報取得ステップと、
    前記状態情報に基づき、現時点より後の前記実周辺物の状態を予測するとともに、予測した結果を、前記表示器に表示される前記周辺物モデルの作成に使用される周辺物モデルデータとして生成する予測ステップと、を含む、データ生成方法。
  10. 操作者の操作を受け付ける操作器および前記操作者が視認可能な表示器を有する操作端末と、作業空間内に設置され、前記操作端末とデータ通信可能なネットワークを介して接続された実ロボットと、を備える遠隔操作システムにおいて、コンピュータに実行されることにより、前記表示器に表示される画像の生成に使用される少なくとも一部のデータを生成するデータ生成プログラムであって、
    前記表示器には、前記実作業空間をモデル化した作業空間モデルが動画像として表示され、
    前記作業空間モデルは、前記実ロボットをモデル化したロボットモデルと、前記実ロボットの周辺にある実周辺物をモデル化した周辺物モデルとを含み、
    前記ロボットモデルは、前記操作器に対する前記操作者の操作により生成され、
    前記データ生成プログラムは、
    前記実周辺物の状態を示す状態情報を取得する状態情報取得ステップと、
    前記状態情報に基づき、現時点より後の前記実周辺物の状態を予測するとともに、予測した結果を、前記表示器に表示される前記周辺物モデルの作成に使用される周辺物モデルデータとして生成する予測ステップと、を前記コンピュータに実行させる、データ生成プログラム。
  11. 操作者の操作を受け付ける操作器および前記操作者が視認可能な表示器を有する操作端末と、実作業空間内に設置され、前記操作端末とデータ通信可能なネットワークを介して接続された実ロボットと、を備える遠隔操作システムであって、
    前記表示器には、前記実作業空間をモデル化した作業空間モデルが動画像として表示され、
    前記作業空間モデルは、前記実ロボットをモデル化したロボットモデルと、前記実ロボットの周辺にある実周辺物をモデル化した周辺物モデルとを含み、
    前記ロボットモデルは、前記操作器に対する前記操作者の操作に応じて動作するように作成され、
    前記遠隔操作システムは、前記実周辺物の状態を示す状態情報を取得する状態情報取得部と、前記状態情報に基づき、現時点より所定時間分だけ後の前記実周辺物の状態を予測するとともに、予測した結果を、前記表示器に表示される前記周辺物モデルの作成に使用される周辺物モデルデータとして生成する予測部とを備えるデータ生成装置を備える、遠隔操作システム。
JP2019105754A 2018-08-10 2019-06-05 遠隔操作システム Active JP7281349B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020217006823A KR102518766B1 (ko) 2018-08-10 2019-08-08 데이터 생성 장치, 데이터 생성 방법, 데이터 생성 프로그램 및 원격 조작 시스템
PCT/JP2019/031495 WO2020032211A1 (ja) 2018-08-10 2019-08-08 データ生成装置、データ生成方法、データ生成プログラムおよび遠隔操作システム
CN201980048635.XA CN112469538B (zh) 2018-08-10 2019-08-08 数据生成装置及方法、数据生成程序、以及远程操作系统
US17/267,288 US12027060B2 (en) 2018-08-10 2019-08-08 Data generation device, method of generating data, and remote manipulation system
TW108128595A TW202014278A (zh) 2018-08-10 2019-08-12 資料產生裝置、資料產生方法、資料產生程式以及遙控系統

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018151917 2018-08-10
JP2018151917 2018-08-10

Publications (2)

Publication Number Publication Date
JP2020026028A true JP2020026028A (ja) 2020-02-20
JP7281349B2 JP7281349B2 (ja) 2023-05-25

Family

ID=69414224

Family Applications (6)

Application Number Title Priority Date Filing Date
JP2019105752A Active JP7384575B2 (ja) 2018-08-10 2019-06-05 情報処理装置、仲介装置、シミュレートシステム、情報処理方法及びプログラム
JP2019105751A Active JP7281348B2 (ja) 2018-08-10 2019-06-05 トレーニング処理装置、仲介装置、トレーニングシステム及びトレーニング処理方法
JP2019105754A Active JP7281349B2 (ja) 2018-08-10 2019-06-05 遠隔操作システム
JP2019105728A Active JP7333204B2 (ja) 2018-08-10 2019-06-05 情報処理装置、ロボット操作システム、及びロボット操作方法
JP2019105753A Active JP7340964B2 (ja) 2018-08-10 2019-06-05 仲介装置および仲介方法
JP2020535925A Active JP7130752B2 (ja) 2018-08-10 2019-08-09 ロボットシステム

Family Applications Before (2)

Application Number Title Priority Date Filing Date
JP2019105752A Active JP7384575B2 (ja) 2018-08-10 2019-06-05 情報処理装置、仲介装置、シミュレートシステム、情報処理方法及びプログラム
JP2019105751A Active JP7281348B2 (ja) 2018-08-10 2019-06-05 トレーニング処理装置、仲介装置、トレーニングシステム及びトレーニング処理方法

Family Applications After (3)

Application Number Title Priority Date Filing Date
JP2019105728A Active JP7333204B2 (ja) 2018-08-10 2019-06-05 情報処理装置、ロボット操作システム、及びロボット操作方法
JP2019105753A Active JP7340964B2 (ja) 2018-08-10 2019-06-05 仲介装置および仲介方法
JP2020535925A Active JP7130752B2 (ja) 2018-08-10 2019-08-09 ロボットシステム

Country Status (7)

Country Link
US (2) US12027060B2 (ja)
EP (1) EP3835007A4 (ja)
JP (6) JP7384575B2 (ja)
KR (1) KR102518131B1 (ja)
CN (1) CN112469539B (ja)
TW (1) TWI782223B (ja)
WO (1) WO2020032265A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021206124A1 (ja) * 2020-04-10 2021-10-14 川崎重工業株式会社 医療用移動体システム及びその運転方法

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102511814B1 (ko) 2018-08-10 2023-03-20 카와사키 주코교 카부시키 카이샤 정보 처리 장치, 로봇 조작 시스템 및 로봇 조작 방법
US20230028457A1 (en) * 2019-12-13 2023-01-26 Kawasaki Jukogyo Kabushiki Kaisha Robot system and method of forming three-dimensional model of workpiece
US20230356389A1 (en) * 2020-09-25 2023-11-09 Nec Corporation Control device, control method and storage medium
US20210107152A1 (en) * 2020-12-22 2021-04-15 Intel Corporation Autonomous machine collaboration
JP2022131206A (ja) * 2021-02-26 2022-09-07 川崎重工業株式会社 情報処理装置、学習装置、情報処理システム及びロボットシステム
KR102453962B1 (ko) * 2021-12-10 2022-10-14 김판수 행동 모사 플랫폼 서비스 제공 시스템
GB2622622A (en) * 2022-09-23 2024-03-27 Rolls Royce Plc Robot control

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014229157A (ja) * 2013-05-24 2014-12-08 日本電信電話株式会社 遅延補償装置、方法、プログラム及び記録媒体
JP2017056529A (ja) * 2015-09-17 2017-03-23 株式会社安川電機 移送システムおよび移送方法
JP2017519644A (ja) * 2014-04-30 2017-07-20 パーカー、コールマン、ピー.PARKER,Coleman,P. 仮想現実入力を用いたロボット制御システム

Family Cites Families (61)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS51106455A (ja) 1975-03-15 1976-09-21 Nobumasa Kobayashi Seisandosapitsuchikaisujidohyojisochi
JPS60181803A (ja) * 1984-02-28 1985-09-17 Shin Meiwa Ind Co Ltd 産業用ロボツトにおける制御方法
US5046022A (en) * 1988-03-10 1991-09-03 The Regents Of The University Of Michigan Tele-autonomous system and method employing time/position synchrony/desynchrony
JPH0639753A (ja) * 1991-09-18 1994-02-15 Fujitsu Ltd ロボットの遠隔操作支援装置
JP3304251B2 (ja) 1995-11-27 2002-07-22 松下電工株式会社 組立ロボットの自動教示方法及びその装置
JP3876573B2 (ja) * 1999-09-20 2007-01-31 カシオ計算機株式会社 ネットゲーム装置及び似顔絵画像表示制御方法
JP3286665B2 (ja) * 1999-12-27 2002-05-27 川崎重工業株式会社 ロボット遊戯装置の制御方法およびロボット遊戯装置
JP2002108975A (ja) 2000-10-02 2002-04-12 Komatsu Ltd 施工量管理システム
JP4363058B2 (ja) * 2003-02-25 2009-11-11 株式会社安川電機 モータ、モータの制御装置、モータ制御システム及びモータの同定方法
JP2003265852A (ja) * 2003-03-10 2003-09-24 Konami Co Ltd ゲーム用サーバ装置、ゲーム管理方法及びゲーム管理プログラム
JP4438927B2 (ja) * 2003-04-08 2010-03-24 株式会社バンダイナムコゲームス シミュレータ、プログラム及び情報記憶媒体
JP4196400B2 (ja) * 2003-04-22 2008-12-17 株式会社安川電機 モータの制御装置及び制御方法
JP2006051586A (ja) * 2004-08-13 2006-02-23 Speecys Kk ロボットコントロールシステム
JP4823509B2 (ja) * 2004-11-05 2011-11-24 日立電子サービス株式会社 教育受講ナビゲーションシステム
JP2007183332A (ja) * 2006-01-05 2007-07-19 Advanced Telecommunication Research Institute International 操作訓練装置
JP5064835B2 (ja) * 2007-02-28 2012-10-31 株式会社アルバック 基板搬送装置
JP5083617B2 (ja) 2008-01-31 2012-11-28 澁谷工業株式会社 遠隔操作ロボット装置
JP2009213754A (ja) * 2008-03-12 2009-09-24 Taito Corp 対戦ゲームシステム
US20090291764A1 (en) 2008-05-21 2009-11-26 George Francis Kirkman System and apparatus for a controlled toy to interact with a computer game
CN101623867B (zh) * 2008-07-11 2010-12-01 中国科学院沈阳自动化研究所 一种使机器人高精度跟踪指定路径的设备和方法
JP2010131711A (ja) * 2008-12-05 2010-06-17 Honda Motor Co Ltd ロボットアームの制御方法
JP5726850B2 (ja) * 2009-03-20 2015-06-03 ザ ジョンズ ホプキンス ユニバーシティ 技術的技能を定量化する方法及びシステム
US20120238366A1 (en) 2011-03-15 2012-09-20 Maurice Tedder Robot Game for Multiple Players that is Remotely Controlled over a Network
KR20140048128A (ko) * 2011-05-05 2014-04-23 더 존스 홉킨스 유니버시티 태스크 궤적 분석을 위한 방법 및 시스템
JP5838873B2 (ja) * 2012-03-15 2016-01-06 オムロン株式会社 シミュレーション装置、シミュレーション方法、および、シミュレーションプログラム
WO2013140579A1 (ja) * 2012-03-22 2013-09-26 株式会社安川電機 作業ロボットおよびロボットシステム
JP5975704B2 (ja) * 2012-04-10 2016-08-23 曙機械工業株式会社 作業の指標表示装置とその装置を用いた作業の指標表示方法
CN104470687A (zh) * 2012-07-20 2015-03-25 株式会社安川电机 机器人模拟器、机器人示教装置以及机器人示教方法
US9623561B2 (en) * 2012-10-10 2017-04-18 Kenneth Dean Stephens, Jr. Real time approximation for robotic space exploration
IL224273B (en) * 2013-01-17 2018-05-31 Cohen Yossi Delay compensation during remote sensor control
US11281207B2 (en) * 2013-03-19 2022-03-22 Robotic Research Opco, Llc Delayed telop aid
JP6140522B2 (ja) 2013-05-10 2017-05-31 株式会社富士通アドバンストエンジニアリング 評価支援方法、評価支援装置、および評価支援プログラム
JP2015047666A (ja) 2013-09-02 2015-03-16 トヨタ自動車株式会社 遠隔操作装置、及び操作画像表示方法
US9300430B2 (en) * 2013-10-24 2016-03-29 Harris Corporation Latency smoothing for teleoperation systems
JP6358463B2 (ja) * 2013-11-13 2018-07-18 パナソニックIpマネジメント株式会社 マスタースレーブ装置用マスター装置及びその制御方法、及び、マスタースレーブ装置
JP2015220574A (ja) * 2014-05-16 2015-12-07 ソニー株式会社 情報処理システム、記憶媒体、およびコンテンツ取得方法
JP6350037B2 (ja) 2014-06-30 2018-07-04 株式会社安川電機 ロボットシミュレータおよびロボットシミュレータのファイル生成方法
EP3217912B1 (en) * 2014-11-13 2024-07-24 Intuitive Surgical Operations, Inc. Integrated user environments
JP6002199B2 (ja) 2014-11-28 2016-10-05 グリー株式会社 ゲームプログラム、ゲーム処理方法、および、情報処理装置
DE102014118001A1 (de) * 2014-12-05 2016-06-09 Broetje-Automation Gmbh Verfahren zur Bewegungssimulation eines Manipulators
US9550120B2 (en) 2014-12-08 2017-01-24 Cubic Corporation Toll image review gamification
JP6364096B2 (ja) * 2014-12-26 2018-07-25 川崎重工業株式会社 ロボットシステム
JP6494331B2 (ja) * 2015-03-03 2019-04-03 キヤノン株式会社 ロボット制御装置およびロボット制御方法
US9808933B2 (en) * 2015-04-03 2017-11-07 GM Global Technology Operations LLC Robotic system with reconfigurable end-effector assembly
JP6240689B2 (ja) 2015-07-31 2017-11-29 ファナック株式会社 人の行動パターンを学習する機械学習装置、ロボット制御装置、ロボットシステム、および機械学習方法
KR102094439B1 (ko) * 2015-08-25 2020-03-27 카와사키 주코교 카부시키 카이샤 산업용 원격조작 로봇시스템
JP6386516B2 (ja) * 2016-01-14 2018-09-05 ファナック株式会社 学習機能を備えたロボット装置
US10525596B2 (en) * 2016-02-11 2020-01-07 Darryl Hammock Teleoperated robot for flood-welding operations
US9914213B2 (en) * 2016-03-03 2018-03-13 Google Llc Deep machine learning methods and apparatus for robotic grasping
US10322506B2 (en) * 2016-05-06 2019-06-18 Kindred Systems Inc. Systems, devices, articles, and methods for using trained robots
US10220511B2 (en) * 2016-07-28 2019-03-05 X Development Llc Customized robotic installation based on measurements collected on site
FR3054468B1 (fr) * 2016-07-29 2018-08-31 Staubli Faverges Procede de commande d'un robot a usage industriel
JP6640060B2 (ja) * 2016-09-27 2020-02-05 株式会社日立製作所 ロボットシステム
JP6506245B2 (ja) * 2016-12-26 2019-04-24 ファナック株式会社 組付動作を学習する機械学習装置および部品組付システム
JP2018126798A (ja) * 2017-02-06 2018-08-16 セイコーエプソン株式会社 制御装置、ロボットおよびロボットシステム
JP6846950B2 (ja) * 2017-03-03 2021-03-24 株式会社キーエンス ロボットシミュレーション装置、ロボットシミュレーション方法、ロボットシミュレーションプログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器
JP6902369B2 (ja) 2017-03-15 2021-07-14 株式会社オカムラ 提示装置、提示方法およびプログラム、ならびに作業システム
CN107020636A (zh) * 2017-05-09 2017-08-08 重庆大学 一种基于策略梯度的机器人学习控制方法
CA3078578A1 (en) * 2017-10-06 2019-04-11 Moog Inc. Teleoperation system, method, apparatus, and computer-readable medium
TWM559195U (zh) * 2017-10-13 2018-05-01 Shi Ru Ling 實體化場景移動遊戲總成
CN107803841B (zh) * 2017-10-17 2020-11-17 深圳市一棵大树国际教育科技有限公司 一种基于机器人的智能教学纠正方法及其系统

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014229157A (ja) * 2013-05-24 2014-12-08 日本電信電話株式会社 遅延補償装置、方法、プログラム及び記録媒体
JP2017519644A (ja) * 2014-04-30 2017-07-20 パーカー、コールマン、ピー.PARKER,Coleman,P. 仮想現実入力を用いたロボット制御システム
JP2017056529A (ja) * 2015-09-17 2017-03-23 株式会社安川電機 移送システムおよび移送方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
小菅 一弘: "ネットワークを介した環境予測型遠隔操作システム", 日本ロボット学会誌, vol. 第17巻第4号, JPN6019039578, 15 May 1999 (1999-05-15), JP, pages 473 - 476, ISSN: 0004976963 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021206124A1 (ja) * 2020-04-10 2021-10-14 川崎重工業株式会社 医療用移動体システム及びその運転方法

Also Published As

Publication number Publication date
JP7281348B2 (ja) 2023-05-25
WO2020032265A1 (ja) 2020-02-13
JP2020026026A (ja) 2020-02-20
JP7340964B2 (ja) 2023-09-08
JPWO2020032265A1 (ja) 2021-08-10
JP7384575B2 (ja) 2023-11-21
TW202012131A (zh) 2020-04-01
KR20210041040A (ko) 2021-04-14
JP2020026025A (ja) 2020-02-20
EP3835007A4 (en) 2022-06-08
CN112469539B (zh) 2024-02-13
JP2020026027A (ja) 2020-02-20
US20210316461A1 (en) 2021-10-14
JP7130752B2 (ja) 2022-09-05
KR102518131B1 (ko) 2023-04-05
EP3835007A1 (en) 2021-06-16
CN112469539A (zh) 2021-03-09
US12027060B2 (en) 2024-07-02
TWI782223B (zh) 2022-11-01
JP7281349B2 (ja) 2023-05-25
JP7333204B2 (ja) 2023-08-24
US20210201692A1 (en) 2021-07-01
US12046148B2 (en) 2024-07-23
JP2020026024A (ja) 2020-02-20

Similar Documents

Publication Publication Date Title
JP7281349B2 (ja) 遠隔操作システム
US11220002B2 (en) Robot simulation device
US11197730B2 (en) Manipulator system
CN109313417B (zh) 帮助机器人定位
WO2020032211A1 (ja) データ生成装置、データ生成方法、データ生成プログラムおよび遠隔操作システム
CN107116565B (zh) 控制装置、机器人以及机器人系统
US20200368918A1 (en) Robot system
CN108145709B (zh) 控制机器人的方法和设备
CN104936748B (zh) 徒手机器人路径教导
US20080013825A1 (en) Simulation device of robot system
CN108267715B (zh) 外接设备的定位方法及装置、虚拟现实设备及系统
US20220212340A1 (en) Control device, control system, mechanical apparatus system, and controlling method
JP6308248B2 (ja) コンベアトラッキング等に向けられたガイダンス装置
JP6863927B2 (ja) ロボットのシミュレーション装置
JP2019041261A (ja) 画像処理システムおよび画像処理システムの設定方法
JP2020125921A (ja) 3次元形状計測システムおよび3次元形状計測方法
JP5326794B2 (ja) 遠隔操作システム及び遠隔操作方法
JP2021121974A (ja) 経路データ作成装置、経路データ作成システム及び経路データ作成方法
TW202017626A (zh) 資訊處理裝置、中介裝置、模擬系統以及資訊處理方法
JPH01209505A (ja) 遠隔操作ロボットの教示装置
CN103809595A (zh) 工程机械的操控方法、操控终端、控制装置及操控系统
JP7366264B2 (ja) ロボット教示方法及びロボット作業方法
JP7473685B2 (ja) 制御装置、ロボットシステム及び学習装置
JP2022132506A (ja) シミュレーション方法、シミュレーションシステムおよびモジュールデータのデータ構造
JP5983121B2 (ja) ロボットシステム、ロボット制御装置、ロボット、ロボット制御方法及びロボット制御プログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190619

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220420

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230131

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230331

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230509

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230515

R150 Certificate of patent or registration of utility model

Ref document number: 7281349

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150