JP2022095300A - 遠隔制御システム、遠隔制御システムの制御方法及び遠隔制御プログラム - Google Patents

遠隔制御システム、遠隔制御システムの制御方法及び遠隔制御プログラム Download PDF

Info

Publication number
JP2022095300A
JP2022095300A JP2020208542A JP2020208542A JP2022095300A JP 2022095300 A JP2022095300 A JP 2022095300A JP 2020208542 A JP2020208542 A JP 2020208542A JP 2020208542 A JP2020208542 A JP 2020208542A JP 2022095300 A JP2022095300 A JP 2022095300A
Authority
JP
Japan
Prior art keywords
image
control
captured image
unit
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020208542A
Other languages
English (en)
Inventor
健太郎 東
Kentaro Azuma
仁志 蓮沼
Hitoshi Hasunuma
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kawasaki Heavy Industries Ltd
Original Assignee
Kawasaki Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kawasaki Heavy Industries Ltd filed Critical Kawasaki Heavy Industries Ltd
Priority to JP2020208542A priority Critical patent/JP2022095300A/ja
Priority to CN202180084361.7A priority patent/CN116723915A/zh
Priority to PCT/JP2021/043261 priority patent/WO2022130931A1/ja
Publication of JP2022095300A publication Critical patent/JP2022095300A/ja
Priority to US18/209,045 priority patent/US20230321812A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J3/00Manipulators of master-slave type, i.e. both controlling unit and controlled unit perform corresponding spatial movements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/02Hand grip control means
    • B25J13/025Hand grip control means comprising haptic means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/085Force or torque sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1689Teleoperation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/53Constructional details of electronic viewfinders, e.g. rotatable or detachable
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39529Force, torque sensor in wrist, end effector
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40165Sensor data to display depends on robot status
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40169Display of actual situation at the remote site
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40609Camera to monitor end effector as well as object to be handled

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Manipulator (AREA)

Abstract

【課題】撮影画像の表示を伴う遠隔制御システムにおいてユーザに与える違和感を低減する。【解決手段】遠隔制御システム100は、ユーザに操作される操作装置2と、操作装置2の動作に応じて対象物Wに作用を加えるロボット1と、ロボット1に設けられ、ロボット1の動作状態を検出する接触力センサ13と、ロボット1及び対象物Wの少なくとも一方の画像を撮影する撮像装置71と、撮像装置71による撮影画像を表示して、操作装置2を操作するユーザに提供する表示装置8と、接触力センサ13の検出結果に基づいてロボット1及び操作装置2の少なくとも一方の動作制御を実行する制御装置3とを備えている。制御装置3は、動作制御に対する撮影画像の表示装置8による表示タイミングのズレを低減するように、動作制御を遅延させる。【選択図】図1

Description

ここに開示された技術は、遠隔制御システム、遠隔制御システムの制御方法及び遠隔制御プログラムに関する。
従来より、マスタ装置によってスレーブ装置を遠隔制御する技術が知られている。例えば、特許文献1には、物理的に互いに離間された位置に配置されたマスタ装置とスレーブ装置とを備えた遠隔制御システムが開示されている。この遠隔制御システムでは、スレーブ装置側からマスタ装置側へ送信されてくる画像を表示する表示装置が設けられている。そして、マスタ装置とスレーブ装置との間の通信遅延が大きい場合には、表示装置に画像がぼやけるように表示される。これにより、ユーザは、通信遅延が大きいことを知ることができる。
特開2015-47666号公報
前述のように、遠隔制御システムにおいては、マスタ装置及びスレーブ装置間の制御信号だけでなく、画像信号のような様々な信号が送受信され得る。信号の送受信に要する時間及び信号の処理に要する時間は、信号ごとにばらつきがある。最終的な信号の処理に信号ごとの時間のズレが生じると、ユーザに違和感を与える虞がある。例えば、前述の遠隔制御システムの場合、マスタ装置とスレーブ装置との間での制御と表示装置での画像表示との間で時間のズレが生じると、ユーザが違和感を覚える虞がある。
ここに開示された技術は、かかる点に鑑みてなされたものであり、その目的とするところは、撮影画像の表示を伴う遠隔制御システムにおいてユーザに与える違和感を低減することにある。
ここに開示された遠隔制御システムは、ユーザに操作されるマスタ装置と、前記マスタ装置の動作に応じて対象物に作用を加えるスレーブ装置と、前記スレーブ装置に設けられ、前記スレーブ装置の動作状態を検出するセンサと、前記スレーブ装置及び対象物の少なくとも一方の画像を撮影する撮像装置と、前記撮像装置による撮影画像を表示して、前記マスタ装置を操作するユーザに提供する表示装置と、前記センサの検出結果に基づいて前記マスタ装置及び前記スレーブ装置の少なくとも一方の動作制御を実行する制御装置とを備え、前記制御装置は、前記動作制御に対する前記撮影画像の前記表示装置による表示タイミングのズレを低減するように、前記動作制御を遅延させる。
ここに開示された遠隔制御システムの制御方法は、ユーザに操作されるマスタ装置と、前記マスタ装置の動作に応じて対象物に作用を加えるスレーブ装置と、前記スレーブ装置に設けられ、前記スレーブ装置の動作状態を検出するセンサと、前記スレーブ装置及び対象物の少なくとも一方の画像を撮影する撮像装置と、前記撮像装置による撮影画像を表示して、前記マスタ装置を操作するユーザに提供する表示装置とを備えた遠隔制御システムの制御方法であって、前記センサの検出結果に基づいて前記マスタ装置及び前記スレーブ装置の少なくとも一方の動作制御を実行することと、前記動作制御に対する前記撮影画像の前記表示装置による表示タイミングのズレを低減するように、前記動作制御を遅延させることとを含む。
ここに開示された遠隔制御プログラムは、ユーザに操作されるマスタ装置と、前記マスタ装置の動作に応じて対象物に作用を加えるスレーブ装置と、前記スレーブ装置に設けられ、前記スレーブ装置の動作状態を検出するセンサと、前記スレーブ装置及び対象物の少なくとも一方の画像を撮影する撮像装置と、前記撮像装置による撮影画像を表示して、前記マスタ装置を操作するユーザに提供する表示装置とを備えた遠隔制御システムを制御する機能をコンピュータに実現させるための遠隔制御プログラムであって、前記センサの検出結果に基づいて前記マスタ装置及び前記スレーブ装置の少なくとも一方の動作制御を実行する機能と、前記動作制御に対する前記撮影画像の前記表示装置による表示タイミングのズレを低減するように、前記動作制御を遅延させる機能とをコンピュータに実現させる。
前記遠隔制御システムによれば、撮影画像の表示を伴う遠隔制御システムにおいてユーザに与える違和感を低減することができる。
前記遠隔制御システムの制御方法によれば、撮影画像の表示を伴う遠隔制御システムにおいてユーザに与える違和感を低減することができる。
前記遠隔制御プログラムによれば、撮影画像の表示を伴う遠隔制御システムにおいてユーザに与える違和感を低減することができる。
図1は、実施形態に係る遠隔制御システムの構成を示す模式図である。 図2は、ロボット制御装置の概略的なハードウェア構成を示す図である。 図3は、操作制御装置の概略的なハードウェア構成を示す図である。 図4は、制御装置の概略的なハードウェア構成を示す図である。 図5は、画像処理装置の概略的なハードウェア構成を示す図である。 図6は、表示制御装置の概略的なハードウェア構成を示す図である。 図7は、遠隔制御システムの制御系統の構成を示すブロック図である。 図8は、遠隔制御システムの動作を示すフローチャートである。 図9(i)は、入力処理部から出力されるセンサ信号の一例である。図9(ii)は、撮像装置71から出力される画像信号の一例である。 図10は、合成部から出力される、センサ信号が合成された画像信号の一例である。 図11(i)は、制御装置がロボット制御装置から取得するセンサ信号の一例である。図11(ii)は、表示制御装置によるデコード後の画像信号の一例である。 図12は、画像信号から分離されたセンサ信号の一例である。
以下、例示的な実施形態を図面に基づいて詳細に説明する。図1は、実施形態に係る遠隔制御システム100の構成を示す模式図である。尚、図1における破線は、無線通信を表している。
遠隔制御システム100は、マスタスレーブシステム110を備えている。マスタスレーブシステム110は、ユーザに操作される操作装置2と、操作装置2の動作に応じて対象物Wに作用を加えるロボット1と、ロボット1及び操作装置2を制御する制御装置3とを有している。操作装置2及び制御装置3は、第1サイトS1に配置されている。ロボット1は、第1サイトS1とは別の第2サイトS2に配置されている。マスタスレーブシステム110は、操作装置2とロボット1との間で遠隔制御を実現する。操作装置2は、マスタ装置の一例であり、ロボット1は、スレーブ装置の一例である。
尚、本開示において、ロボット1が行う作業は、ティーチング作業並びに教示の確認及び修正作業を含まない。したがって、操作装置2は、ティーチペンダントを含まない。
ロボット1と操作装置2とは、通信可能に接続されている。具体的には、ロボット1と制御装置3とは、無線通信可能に接続されている。つまり、ロボット1、無線通信及び制御装置3という伝送路(以下、「第1伝送路」という)を介して、ロボット1と制御装置3との間で信号が送受信される。操作装置2は、制御装置3に接続されている。すなわち、操作装置2は、制御装置3を介してロボット1と通信を行う。
この例では、ロボット1は、産業用ロボットである。ロボット1は、対象物Wに作用を加える。作用は、具体的には加工であり、より具体的には研削である。作用は、研削に限定されず、研削又は研磨等であってもよい。対象物Wは、例えば、大きな鋼板又は大型タンクの壁等である。
ロボット1は、ロボット1の動作状態を検出するセンサを有している。この例では、センサは、ロボット1は、対象物Wから受ける反力(以下、「接触力」という)を検出する接触力センサ13をさらに有している。
制御装置3は、接触力センサ13の検出結果をロボット1を介して受信している。制御装置3は、接触力センサ13の検出結果に基づいてロボット1及び操作装置2の少なくとも一方の動作制御を実行している。この例では、制御装置3は、ユーザによる操作装置2の操作及び接触力センサ13の検出結果に応じて、ロボット1の動作を制御すると共にロボット1に作用する反力をユーザに提示するように操作装置2の動作を制御する。
遠隔制御システム100は、画像システム120をさらに備えている。画像システム120は、画像を撮影する撮像装置71と、撮像装置71による撮影画像を表示する表示装置8とを有している。画像システム120は、撮像装置71の撮影画像を処理する画像処理装置72をさらに有している。表示装置8は、第1サイトS1に配置されている。表示装置8は、ユーザが操作装置2を操作しながら視認できる位置に配置されている。撮像装置71及び画像処理装置72は、第2サイトS2に配置されている。撮像装置71は、ロボット1及び/又は対象物Wの画像を撮影する。
撮像装置71と表示装置8とは、通信可能に接続されている。具体的には、画像処理装置72と表示装置8とは、無線通信可能に接続されている。つまり、画像処理装置72、無線通信及び表示装置8という伝送路(以下、「第2伝送路」という)を介して、撮像装置71と表示装置8との間で信号が送受信される。撮像装置71は、画像処理装置72に接続されている。すなわち、撮像装置71は、画像処理装置72を介して表示装置8と通信を行う。
画像システム120は、ロボット1及び/又は対象物Wの画像を撮像装置71で撮影し、撮影画像を表示装置8で表示することによって、操作装置2を操作するユーザを補助する。
<遠隔制御システムの詳細構成>
[ロボット]
ロボット1は、対象物Wに作用を加えるエンドエフェクタ11と、エンドエフェクタ11を動作させるロボットアーム12とを有していてもよい。ロボット1は、ロボットアーム12によってエンドエフェクタ11を動作、即ち、移動させて、エンドエフェクタ11によって対象物Wに作用を加える。ロボット1は、ロボットアーム12を支持するベース10と、ロボット1の全体を制御するロボット制御装置14とをさらに有していてもよい。
ロボット1には、直交3軸のロボット座標系が規定されている。例えば、上下方向にZ軸が設定され、水平方向に互いに直交するX軸及びY軸が設定される。
エンドエフェクタ11は、研削装置11aを有し、対象物Wに作用としての研削を加える。例えば、研削装置11aは、グラインダ、オービタルサンダ、ランダムオービットサンダ、デルタサンダ又はベルトサンダ等であってもよい。グラインダは、円盤状の研削砥石を回転させるタイプ、円錐状又は円柱状の研削砥石を回転させるタイプ等であってもよい。ここでは、研削装置11aは、グラインダである。
ロボットアーム12は、研削装置11aの位置を変更する。さらに、ロボットアーム12は、研削装置11aの姿勢を変更してもよい。ロボットアーム12は、垂直多関節型のロボットアームである。ロボットアーム12は、複数のリンク12aと、複数のリンク12aを接続する関節12bと、複数の関節12bを回転駆動するサーボモータ15(図2参照)とを有している。
尚、ロボットアーム12は、水平多関節型、パラレルリンク型、直角座標型、又は極座標型のロボットアーム等であってもよい。
接触力センサ13は、この例では、ロボットアーム12とエンドエフェクタ11との間(具体的には、ロボットアーム12とエンドエフェクタ11との連結部)に設けられている。接触力センサ13は、エンドエフェクタ11が対象物Wから受ける接触力を検出する。接触力センサ13は、直交する3軸方向の力と該3軸回りのモーメントを検出する。接触力センサ13は、力覚センサの一例である。
尚、力覚センサは、接触力センサ13に限定されない。例えば、接触力センサ13は、1軸、2軸又は3軸方向の力のみを検出してもよい。あるいは、力覚センサは、ロボットアーム12のサーボモータ15の電流を検出する電流センサ又はサーボモータ15のトルクを検出するトルクセンサ等であってもよい。
図2は、ロボット制御装置14の概略的なハードウェア構成を示す図である。ロボット制御装置14は、ロボットアーム12のサーボモータ15及び研削装置11aを制御する。ロボット制御装置14は、接触力センサ13の検出信号を受け付ける。ロボット制御装置14は、制御装置3及び画像処理装置72と情報、指令及びデータ等の送受信を行う。ロボット制御装置14は、制御装置3と無線通信を行う。ロボット制御装置14は、画像処理装置72と配線で接続され、配線を介して画像処理装置72へ情報及びデータ等を送信する。ロボット制御装置14は、制御部16と、記憶部17と、メモリ18と、通信部19とを有している。
制御部16は、ロボット制御装置14の全体を制御する。制御部16は、各種の演算処理を行う。例えば、制御部16は、CPU(Central Processing Unit)等のプロセッサで形成されている。制御部16は、MCU(Micro Controller Unit)、MPU(Micro Processor Unit)、FPGA(Field Programmable Gate Array)、PLC(Programmable Logic Controller)、システムLSI等で形成されていてもよい。
記憶部17は、制御部16で実行されるプログラム及び各種データを格納している。記憶部17は、不揮発性メモリ、HDD(Hard Disc Drive)又はSSD(Solid State Drive)等で形成される。
メモリ18は、データ等を一時的に格納する。例えば、メモリ18は、揮発性メモリで形成される。
通信部19は、通信モジュールであり、無線通信を実行する。例えば、通信部19は、5Gの通信規格に則った無線通信を実現する。
[操作装置]
操作装置2は、図1に示すように、ユーザが操作する操作部21と、操作部21にユーザから加えられる操作力を検出する操作力センサ23とを有している。操作装置2は、ロボット1を手動運転で操作するための入力を受け付け、入力された情報である操作情報を制御装置3へ出力する。具体的には、ユーザは、操作部21を把持して操作装置2を操作する。その際に操作部21に加えられる力を操作力センサ23が検出する。操作力センサ23によって検出される操作力は、操作情報として制御装置3へ出力される。
操作装置2は、ベース20と、ベース20に設けられ、操作部21を支持する支持機構22と、操作装置2の全体を制御する操作制御装置24とをさらに有していてもよい。操作装置2は、制御装置3からの制御によって、操作力に対する反力をユーザに提示する。具体的には、操作制御装置24は、制御装置3からの指令を受けて、支持機構22を制御することによって、反力をユーザに感知させる。
操作装置2には、直交3軸の操作座標系が規定されている。操作座標系は、ロボット座標系と対応している。つまり、上下方向にZ軸が設定され、水平方向に互いに直交するX軸及びY軸が設定される。
支持機構22は、複数のリンク22aと、複数のリンク22aを接続する関節22bと、複数の関節22bを回転駆動するサーボモータ25(図3参照)とを有している。支持機構22は、操作部21が3次元空間内で任意の位置及び姿勢をとることができるように、操作部21を支持する。操作部21の位置及び姿勢に対応して、サーボモータ25が回転する。サーボモータ25の回転量、即ち、回転角は、一義的に決まる。
操作力センサ23は、この例では、操作部21と支持機構22との間(具体的には、操作部21と支持機構22との連結部)に設けられている。操作力センサ23は、直交する3軸方向の力と該3軸回りのモーメントを検出する。
尚、操作力の検出部は、操作力センサ23に限定されない。例えば、操作力センサ23は、1軸、2軸又は3軸方向の力のみを検出してもよい。あるいは、検出部は、支持機構22のサーボモータ25の電流を検出する電流センサ又はサーボモータ25のトルクを検出するトルクセンサ等であってもよい。
図3は、操作制御装置24の概略的なハードウェア構成を示す図である。操作制御装置24は、サーボモータ25を制御することによって支持機構22を動作させる。操作制御装置24は、操作力センサ23の検出信号を受け付ける。操作制御装置24は、制御装置3と配線で接続され、配線を介して制御装置3と情報、指令及びデータ等の送受信を行う。操作制御装置24は、制御部26と、記憶部27と、メモリ28とを有している。
制御部26は、操作制御装置24の全体を制御する。制御部26は、各種の演算処理を行う。例えば、制御部26は、CPU(Central Processing Unit)等のプロセッサで形成されている。制御部26は、MCU(Micro Controller Unit)、MPU(Micro Processor Unit)、FPGA(Field Programmable Gate Array)、PLC(Programmable Logic Controller)、システムLSI等で形成されていてもよい。
記憶部27は、制御部26で実行されるプログラム及び各種データを格納している。記憶部27は、不揮発性メモリ、HDD(Hard Disc Drive)又はSSD(Solid State Drive)等で形成される。
メモリ28は、データ等を一時的に格納する。例えば、メモリ28は、揮発性メモリで形成される。
[制御装置]
制御装置3は、マスタスレーブシステム110の全体を制御し、ロボット1及び操作装置2の動作制御を行う。具体的には、制御装置3は、ロボット1と操作装置2との間でマスタスレーブ制御、具体的には、バイラテラル制御を行う。制御装置3は、ユーザの操作による操作装置2の動作に応じてロボット1の動作を制御する第1制御と、接触力センサ13の検出結果に応じた反力をユーザに提示するように操作装置2の動作を制御する第2制御とを実行する。つまり、第1制御によってエンドエフェクタ11が対象物Wを加工すると共に、第2制御によって加工時の反力がユーザに提示される。
図4は、制御装置3の概略的なハードウェア構成を示す図である。制御装置3は、ロボット制御装置14及び操作制御装置24と情報、指令及びデータ等の送受信を行う。さらに、制御装置3は、表示装置8と情報、指令及びデータ等の送受信を行う。制御装置3は、制御部31と、記憶部32と、メモリ33と、通信部34とを有している。尚、図示を省略するが、制御装置3は、ロボット1及び操作装置2の動作制御の設定を行うためにユーザが操作する入力操作部と、設定内容を表示するディスプレイとをさらに有していてもよい。
制御部31は、制御装置3の全体を制御する。制御部31は、各種の演算処理を行う。例えば、制御部31は、CPU(Central Processing Unit)等のプロセッサで形成されている。制御部31は、MCU(Micro Controller Unit)、MPU(Micro Processor Unit)、FPGA(Field Programmable Gate Array)、PLC(Programmable Logic Controller)、システムLSI等で形成されていてもよい。
記憶部32は、制御部31で実行されるプログラム及び各種データを格納している。例えば、記憶部32は、遠隔制御システム100を制御する遠隔制御プログラムが格納されている。記憶部32は、不揮発性メモリ、HDD(Hard Disc Drive)又はSSD(Solid State Drive)等で形成される。
メモリ33は、データ等を一時的に格納する。例えば、メモリ33は、揮発性メモリで形成される。
通信部34は、通信モジュールであり、無線通信を実行する。例えば、通信部34は、5Gの通信規格に則った無線通信を実現する。
[撮像装置及び画像処理装置]
撮像装置71は、ロボット1及び対象物Wの画像、具体的には動画を撮影する。この例では、ロボット1が対象物Wの研削を行うため、撮像装置71は、エンドエフェクタ11及び対象物Wを中心に撮影する。撮像装置71は、所定のフレームレートで動画を撮影する。撮像装置71の撮影画像は、画像信号として画像処理装置72へ入力される。
画像処理装置72は、撮像装置71の撮影画像、即ち、画像信号を受信し、画像信号を処理し、処理後の画像信号を表示装置8へ送信する。画像処理装置72は、処理後の画像信号をエンコードし、エンコードされた画像信号を無線通信によって表示装置8へ送信する。
詳しくは、画像処理装置72は、撮像装置71の画像信号に加えて、接触力センサ13の検出結果をロボット1から受信する。画像処理装置72は、撮影画像の処理として、互いに対応するタイミングで取得された撮像装置71の撮影画像と接触力センサ13の検出結果とを関連付ける。具体的には、画像処理装置72は、撮影画像と対応するタイミングで取得された接触力センサ13の検出結果を撮影画像に付加する。画像処理装置72は、接触力センサ13の検出結果が付加された撮影画像をエンコードして表示装置8へ送信する。
図5は、画像処理装置72の概略的なハードウェア構成を示す図である。画像処理装置72は、制御部73と、記憶部74と、メモリ75と、通信部76とを有している。
制御部73は、画像処理装置72の全体を制御する。制御部73は、各種の演算処理を行う。例えば、制御部73は、CPU(Central Processing Unit)等のプロセッサで形成されている。制御部73は、MCU(Micro Controller Unit)、MPU(Micro Processor Unit)、FPGA(Field Programmable Gate Array)、PLC(Programmable Logic Controller)、システムLSI等で形成されていてもよい。
記憶部74は、制御部73で実行されるプログラム及び各種データを格納している。記憶部74は、不揮発性メモリ、HDD(Hard Disc Drive)又はSSD(Solid State Drive)等で形成される。
メモリ75は、データ等を一時的に格納する。例えば、メモリ75は、揮発性メモリで形成される。
通信部76は、通信モジュールであり、無線通信を実行する。例えば、通信部76は、5Gの通信規格に則った無線通信を実現する。
[表示装置]
表示装置8は、撮像装置71の撮影画像を表示する。表示装置8は、ディスプレイ81と、表示制御装置82とを有している。
表示制御装置82は、撮像装置71の撮影画像を無線通信によって受信する。具体的には、表示制御装置82は、画像処理装置72と無線通信を行う。表示制御装置82は、画像処理装置72から画像信号を受信する。表示制御装置82は、受信された画像信号をデコードし、デコード後の画像信号をディスプレイ81に出力する。
ディスプレイ81は、表示制御装置82から入力された画像信号を画像として表示する。
図6は、表示制御装置82の概略的なハードウェア構成を示す図である。表示制御装置82は、制御部83と、記憶部84と、メモリ85と、通信部86とを有している。
制御部83は、表示制御装置82の全体を制御する。制御部83は、各種の演算処理を行う。例えば、制御部83は、CPU(Central Processing Unit)等のプロセッサで形成されている。制御部83は、MCU(Micro Controller Unit)、MPU(Micro Processor Unit)、FPGA(Field Programmable Gate Array)、PLC(Programmable Logic Controller)、システムLSI等で形成されていてもよい。
記憶部84は、制御部83で実行されるプログラム及び各種データを格納している。記憶部84は、不揮発性メモリ、HDD(Hard Disc Drive)又はSSD(Solid State Drive)等で形成される。
メモリ85は、データ等を一時的に格納する。例えば、メモリ85は、揮発性メモリで形成される。
通信部86は、通信モジュールであり、無線通信を実行する。例えば、通信部86は、5Gの通信規格に則った無線通信を実現する。
<遠隔制御システムの制御>
このように構成された遠隔制御システム100においては、制御装置3は、ユーザの操作による操作装置2の動作に応じてロボット1の動作を制御する第1制御と、接触力センサ13の検出結果に応じた反力をユーザに提示するように操作装置2の動作を制御する第2制御とを並行して行うマスタスレーブ制御を実行する。それと並行して、画像システム120は、撮像装置71によってロボット1及び対象物Wを撮影し、表示装置8によってその撮影画像を表示する画像表示制御を実行する。ユーザは、表示装置8に表示される撮影画像を観ながら操作装置2を操作することができる。このとき、制御装置3は、マスタスレーブ制御と表示装置8に表示される撮影画像とのズレを低減するように、マスタスレーブ制御を遅延させる遅延制御を実行する。
さらに、制御装置3は、マスタスレーブ制御及び画像表示制御の実行中に、マスタスレーブ制御と表示装置8に表示される撮影画像とのズレ時間を求めると共に、遅延制御の遅延量をズレ時間に基づいて更新する。
図7は、遠隔制御システム100の制御系統の構成を示すブロック図である。
ロボット制御装置14の制御部16は、記憶部17からプログラムをメモリ18に読み出して展開することによって、各種機能を実現する。具体的には、制御部16は、入力処理部41と動作制御部42として機能する。
入力処理部41は、接触力センサ13及びサーボモータ15から受け取る情報、データ及び指令等を制御装置3に出力する。具体的には、入力処理部41は、接触力センサ13から6軸の力の検出信号(以下、「センサ信号」という)を受け取り、該センサ信号を制御装置3へ出力する。センサ信号は、無線通信によって制御装置3へ送信される。また、入力処理部41は、サーボモータ15から回転センサ(例えば、エンコーダ)及び電流センサの検出信号を受け取る。入力処理部41は、動作制御部42によるロボットアーム12のフィードバック制御のために該検出信号を動作制御部42へ出力する。また、入力処理部41は、ロボットアーム12の位置情報として該検出信号を制御装置3へ出力する。それに加えて、入力処理部41は、接触力センサ13のセンサ信号を画像処理装置72へも出力する。
動作制御部42は、制御装置3から指令位置xdsを無線通信を介して受け取り、指令位置xdsに従ってロボットアーム12を動作させるための制御指令を生成する。動作制御部42は、サーボモータ15へ制御指令を出力し、ロボットアーム12を動作させ、研削装置11aを指令位置に対応する位置へ移動させる。このとき、動作制御部42は、入力処理部41からのサーボモータ15の回転センサ及び/又は電流センサの検出信号に基づいて、ロボットアーム12の動作をフィードバック制御する。また、動作制御部42は、研削装置11aに制御指令を出力し、研削装置11aを動作させる。これにより、研削装置11aが対象物Wを研削する。
操作制御装置24の制御部26は、記憶部27からプログラムをメモリ28に読み出して展開することによって、各種機能を実現する。具体的には、制御部26は、入力処理部51と動作制御部52として機能する。
入力処理部51は、操作力センサ23から受け取る情報、データ及び指令等を制御装置3に出力する。具体的には、入力処理部51は、操作力センサ23から6軸の力の検出信号を受け取り、該検出信号を制御装置3へ出力する。また、入力処理部51は、サーボモータ25から回転センサ(例えば、エンコーダ)及び電流センサの検出信号を受け取る。入力処理部51は、動作制御部52による支持機構22のフィードバック制御のために該検出信号を動作制御部52へ出力する。
動作制御部52は、制御装置3から指令位置xdmを受け取り、指令位置xdmに従って支持機構22を動作させるための制御指令を生成する。動作制御部52は、サーボモータ25へ制御指令を出力し、支持機構22を動作させ、操作部21を指令位置に対応する位置へ移動させる。このとき、動作制御部52は、入力処理部51からのサーボモータ25の回転センサ及び/又は電流センサの検出信号に基づいて、支持機構22の動作をフィードバック制御する。これにより、ユーザが操作部21に与える操作力に対して反力が与えられる。その結果、ユーザは、対象物Wから反力を操作部21から疑似的に感じつつ、操作部21を操作することができる。
制御装置3の制御部31は、記憶部32からプログラム(具体的には、遠隔制御プログラム)をメモリ33に読み出して展開することによって、各種機能を実現する。具体的には、制御部31は、操作力取得部61と接触力取得部62と加算部63と力/速度換算部64と第1速度/位置換算部65と第2速度/位置換算部66と分離部67とズレ検出部68と遅延部69として機能する。
また、画像処理装置72の制御部73は、記憶部74からプログラムをメモリ75に読み出して展開することによって、各種機能を実現する。具体的には、制御部73は、合成部77とエンコーダ78として機能する。
表示制御装置82の制御部83は、記憶部84からプログラムをメモリ85に読み出して展開することによって、各種機能を実現する。具体的には、制御部83は、デコーダ87として機能する。
操作力取得部61は、入力処理部51を介して、操作力センサ23の検出信号を受け取り、検出信号に基づいて操作力fmを取得する。操作力取得部61は、操作力fmを加算部63へ入力する。
接触力取得部62は、入力処理部41を介して、接触力センサ13のセンサ信号を受け取り、センサ信号に基づいて接触力fsを取得する。接触力取得部62は、接触力fsを加算部63へ入力する。それに加えて、接触力取得部62は、センサ信号をズレ検出部68へ出力する。
加算部63は、操作力取得部61から入力された操作力fmと接触力取得部62から入力された接触力fsとの和を算出する。ここで、操作力fmと接触力fsとは、反対向きの力なので、操作力fmと接触力fsとは正負の符号が異なる。つまり、操作力fmと接触力fsとが足されることによって、操作力fmの絶対値は小さくなる。加算部63は、操作力fmと接触力fsとの和である合成力fm+fsを出力する。
遅延部69は、マスタスレーブ制御を遅延させる機能を有している。この例では、遅延部69は、ローパスフィルタであり、より具体的には、一次遅れフィルタである。一次遅れフィルタには、時定数が含まれている。遅延部69は、加算部63から力/速度換算部64への合成力fm+fsの入力を時定数に応じて遅延させる。
力/速度換算部64は、遅延部69を介して入力された合成力fm+fsを指令速度xd’に換算する。力/速度換算部64は、慣性係数、粘性係数(ダンパ係数)及び剛性係数(バネ係数)を含む運動方程式に基づく運動モデルを用いて指令速度xd’を算出する。具体的には、力/速度換算部64は、以下の運動方程式に基づいて指令速度xd’を算出する。
Figure 2022095300000002
ここで、xdは、指令位置である。mdは、慣性係数である。cdは、粘性係数である。kdは、剛性係数である。fmは、操作力である。fsは、接触力である。尚、「’」は1回微分を表し、「”」は2回微分を表す。
式(1)は線形微分方程式であり、式(1)をxd’について解くと、式(2)のようになる。
Figure 2022095300000003
ここで、Aは、fm,fs,md,cd,kd等によって表される項である。
式(2)は、記憶部32に格納されている。力/速度換算部64は、記憶部32から式(2)を読み出して指令速度xd’を求め、求められた指令速度xd’を第1速度/位置換算部65及び第2速度/位置換算部66へ出力する。
第1速度/位置換算部65は、座標変換された指令速度xd’をロボット座標系を基準として、ロボット1のための指令位置xdsに換算する。例えば、操作装置2の移動量に対するロボット1の移動量の比が設定されている場合、第1速度/位置換算部65は、指令速度xd’から求めた指令位置xdを移動比に応じて逓倍して指令位置xdsを求める。第1速度/位置換算部65は、求めた指令位置xdsをロボット制御装置14、具体的には、動作制御部42へ出力する。動作制御部42は、前述の如く、指令位置xdsに基づいてロボットアーム12を動作させる。
第2速度/位置換算部66は、指令速度xd’を操作座標系を基準として、操作装置2のための指令位置xdmに換算する。第2速度/位置換算部66は、求めた指令位置xdmを操作制御装置24、具体的には、動作制御部52へ出力する。動作制御部52は、前述の如く、指令位置xdmに基づいて支持機構22を動作させる。
合成部77は、撮像装置71の撮影画像に、該撮影画像と対応するタイミングで取得された接触力センサ13の検出結果を互いの関連付けを示す関連情報として付加する。具体的には、合成部77は、撮像装置71から画像信号を受け取ると共に、入力処理部41を介して接触力センサ13のセンサ信号を受け取る。合成部77は、画像信号にセンサ信号を合成する。合成部77は、接触力センサ13及び撮像装置71によって互いに対応するタイミング(即ち、略同じタイミング)で取得されたセンサ信号と画像信号とを合成する。例えば、合成部77は、画像信号及びセンサ信号をそれぞれ合成部77で受信した時間を、画像信号及びセンサ信号それぞれの取得時間とみなす。こうして、画像信号には、該画像信号と対応するタイミングで取得されたセンサ信号が互いの関連付けを示す関連情報として付加される。
センサ信号には、6軸の力のセンサ信号が含まれている。合成部77は、6軸の力のセンサ信号のうち少なくとも1つのセンサ信号を画像信号に合成する。好ましくは、合成部77は、6軸の力のセンサ信号のうち、ロボット1が対象物Wに作用を加える際に変動が大きなセンサ信号を画像信号に合成する。この例では、対象物Wへの作用は研削であるので、合成部77は、Z軸方向への力のセンサ信号を画像信号に合成する。
このとき、合成部77は、電子透かし技術を利用してセンサ信号を画像信号に合成する。好ましくは、合成部77は、知覚困難型の電子透かしによって、センサ信号を画像信号に埋め込む。
エンコーダ78は、合成部77においてセンサ信号が合成された画像信号をエンコードする。エンコーダ78は、エンコードされた画像信号を通信部76へ出力する。エンコードされた画像信号は、通信部76を介して表示制御装置82へ送信される。
表示制御装置82は、通信部86を介して、画像処理装置72からの画像信号を受信する。画像信号は、デコーダ87に入力される。デコーダ87は、画像信号をデコードする。デコーダ87は、デコードされた画像信号をディスプレイ81及び制御装置3の分離部67へ出力する。
ディスプレイ81は、デコードされた画像信号に応じて画像を表示する。
分離部67は、デコードされた画像信号からセンサ信号を分離する。この例では、センサ信号は、電子透かしによって画像信号に合成されている。分離部67は、電子透かし技術によって画像信号からセンサ信号を分離する。分離部67は、分離されたセンサ信号をズレ検出部68へ出力する。
ズレ検出部68は、マスタスレーブ制御を遅延させる遅延量としての遅延時間を求め、更新していく。ズレ検出部68は、ロボット1から受信するセンサ信号と表示装置8から受信する画像信号とのズレ時間に基づいて遅延時間を求める。ここで、センサ信号と画像信号とのズレ時間とは、元々は互いに対応するタイミング、即ち、略同じタイミングで取得されたセンサ信号と画像信号とがズレ検出部68、即ち、制御装置3に受信される時間のズレである。センサ信号と画像信号とは、元々の取得タイミングが略同じであっても、制御装置3までの伝送路及びその途中で受ける処理が異なるため、制御装置3に到達するまでの時間にズレが生じる。
また、ロボット1から受信するセンサ信号は、指令位置xds及び指令位置xdmの導出に用いられる。また、表示装置8から受信する画像信号は、ディスプレイ81へ入力される画像信号と同じ信号である。つまり、ロボット1から受信するセンサ信号と表示装置8から受信する画像信号とのズレ時間は、マスタスレーブ制御に対する撮影画像の表示装置8による表示タイミングのズレに相当する。
具体的には、ズレ検出部68は、接触力取得部62からのセンサ信号と分離部67からのセンサ信号とのズレ時間を求める。ズレ検出部68には、接触力取得部62からセンサ信号が入力されると共に、分離部67からセンサ信号が入力される。接触力取得部62からのセンサ信号は、ロボット制御装置14、即ち、ロボット1から受信したセンサ信号である。一方、分離部67からのセンサ信号は、表示装置8においてデコードされた画像信号から分離された信号であり、その画像信号が撮像装置71によって取得されたタイミングと対応するタイミングで接触力センサ13によって取得された信号である。そのため、接触力取得部62からのセンサ信号と分離部67からのセンサ信号とのズレ時間は、ロボット1から受信するセンサ信号と表示装置8から受信する画像信号とのズレ時間に相当する。
尚、合成部77によって画像信号に合成されたセンサ信号は、6軸の力のセンサ信号のうち研削時に変動が大きいZ軸方向への力のセンサ信号なので、ズレ検出部68は、接触力取得部62からのセンサ信号のうちZ軸方向への力のセンサ信号を分離部67からのセンサ信号と比較する。
ズレ検出部68は、求めたズレ時間を記憶部32に保存していく。ズレ時間は、記憶部32に蓄積されていく。
記憶部32には、遅延部69の時定数を決定するための基準となる遅延時間が記憶されている。遅延時間の初期値は、ズレ時間を前述のようにして予め求めることによって設定されている。ズレ検出部68は、記憶部32に蓄積されたズレ時間に基づいて、遅延時間を更新する。ズレ検出部68は、ズレ時間が遅延時間に対して大きく異なる状態が一定期間以上継続するような場合に、ズレ時間で遅延時間を更新する。
遅延時間が更新されると、ズレ検出部68は、遅延部69に設定する時定数を遅延時間に基づいて求める。具体的には、記憶部32には、遅延時間を時定数に変換するための変換関数が記憶部32に記憶されている。ズレ検出部68は、変換関数を用いて遅延時間から時定数を求める。ズレ検出部68は、求められた時定数で遅延部69の時定数を更新する。遅延部69は、更新された時定数を用いて前述の処理を実行する。
次に、このように構成された遠隔制御システム100の動作について説明する。図8は、遠隔制御システム100の動作を示すフローチャートである。
[マスタスレーブシステムの動作]
マスタスレーブシステム110によるマスタスレーブ制御について説明する。マスタスレーブ制御は、制御装置3が記憶部32に格納された遠隔制御プログラムをメモリ33に読み出して展開することによって実現される。
まず、ステップSa0において、遅延制御の設定を行う。制御装置3は、ディスプレイ(図示省略)に遅延制御の設定を行うための設定画面を表示する。具体的には、ディスプレイには、遅延制御の有効及び無効を切り替える表示、遅延制御を有効とする場合のマスタスレーブ制御の遅延量(詳しくは、遅延時間)等が表示される。ユーザは、入力操作部を介して遅延制御の設定を行う。
続いて、ステップSa1において、ユーザが操作装置2を操作すると、ユーザが操作部21を介して加えた操作力を操作力センサ23が検出する。このとき、ロボット1の接触力センサ13が接触力を検出する。
操作力センサ23に検出された操作力は、入力処理部51によって検出信号として制御装置3へ入力される。制御装置3では、操作力取得部61が、検出信号に基づく操作力fmを加算部63へ入力する。
接触力センサ13に検出された接触力は、センサ信号として入力処理部41に入力される。入力処理部41に入力されたセンサ信号は、通信部19を介して制御装置3へ送信される。それに加えて、入力処理部41は、センサ信号を画像処理装置72へ入力する。
制御装置3では、通信部34がセンサ信号を受信し、センサ信号を接触力取得部62へ入力する。接触力取得部62は、センサ信号に基づく接触力fsを加算部63へ入力する。それに加えて、接触力取得部62は、センサ信号をズレ検出部68へ入力する。ズレ検出部68は、センサ信号をメモリ33に保存していく。
次に、ステップSa2において、制御装置3は、遅延制御が有効となっているか否かを判定する。
遅延制御が無効な場合には、ステップSa4において、ロボット1による研削加工及び操作装置2による反力の提示が実行される。具体的には、加算部63は、入力された操作力fm及び接触力fsに基づいて合成力fm+fsを求め、合成力fm+fsを力/速度換算部64に入力する。このとき、遅延部69は、無効なものとして扱われる。つまり、加算部63から出力される合成力fm+fsは、遅延することなく、力/速度換算部64へ入力される。力/速度換算部64は、合成力fm+fsを用いて式(2)に基づいて指令速度xd’を求める。
ロボット1に関しては、第1速度/位置換算部65が指令速度xd’から指令位置xdsを求める。ロボット制御装置14の動作制御部42は、指令位置xdsに従ってロボットアーム12を動作させ、研削装置11aの位置を制御する。これにより、操作力fmに応じた押付力が対象物Wに加えられつつ、対象物Wが研削装置11aにより研削される。
操作装置2に関しては、第2速度/位置換算部66が指令速度xd’から指令位置xdmを求める。操作制御装置24の動作制御部52は、指令位置xdmに従って支持機構22を動作させ、操作部21の位置を制御する。これにより、ユーザは接触力fsに応じた反力を感知する。
一方、遅延制御が有効な場合には、ステップSa3において、マスタスレーブ制御が遅延させられる。具体的には、遅延部69は、設定された時定数に基づいて、加算部63から力/速度換算部64への合成力fm+fsの入力を遅延させる。その結果、操作力センサ23の検出信号及び接触力センサ13のセンサ信号が入力されてから、ロボットアーム12及び操作部21の動作制御が実行されるまでの時間が遅延する。
マスタスレーブシステム110は、このような処理を所定の制御周期で繰り返す。ユーザは、第1サイトS1において操作装置2を操作することによって、第2サイトS2に配置されたロボット1を遠隔制御して対象物Wの研削を実行することができる。その際に、ユーザは、研削装置11aが対象物Wから受ける反力を操作装置2を介して感知しながら、操作装置2の操作を行うことができる。尚、ステップSa0は、この制御の開始時に1回のみ実行され、それ以降の制御周期においては実行されない。
[画像システムの動作]
これと並行して、画像システム120は、ロボット1及び対象物Wを撮影し、撮影画像をユーザに提示する画像表示制御を実行する。
まず、ステップSb1において、撮像装置71は、ロボット1及び対象物Wの撮影する。撮像装置71は、所定のフレームレートでロボット1及び対象物Wの動画を撮影する。撮像装置71は、撮影画像(即ち、画像信号)を画像処理装置72に入力する。
ステップSb2において、画像処理装置72の合成部77は、撮影画像に接触力センサ13のセンサ信号を合成する。この合成は、撮影画像をユーザに提示するための処理ではなく、マスタスレーブ制御の遅延時間を更新するために行われる処理である。
詳しくは、図9(i)は、入力処理部41から出力されるセンサ信号の一例である。図9(ii)は、撮像装置71から出力される画像信号の一例である。図10は、合成部77から出力される、センサ信号が合成された画像信号の一例である。
図9(i)に示すように、入力処理部41から出力されるセンサ信号は、マスタスレーブ制御の制御周期に対応するサンプリング周期で取得されたデータを含んでいる。一方、図9(ii)に示すように、撮像装置71から入力される画像信号は、所定のフレームレートで取得されたフレーム(静止画)を含んでいる。この例では、フレームレートに比べてサンプリング周期の方が短い。そこで、合成部77は、各フレームに、そのフレームと1つ前のフレームとの間に取得されたセンサ信号を合成する。合成部77は、各フレームの画像にセンサ信号を画像として、即ち、時系列の信号波形を合成する。センサ信号の合成は、電子透かし技術によって行われる。その結果、図10に示すように、フレームにセンサ信号の画像が電子透かしとして合成された画像信号が生成される。合成されたフレームとセンサ信号とは、略同じタイミングで取得されたものである。
ステップSb3において、エンコーダ78は、合成部77によって生成された画像信号をエンコードする。
その後、ステップSb4において、画像処理装置72は、エンコードされた画像信号を無線通信によって表示制御装置82へ送信する。表示制御装置82は、画像処理装置72からの画像信号を受信する。
表示制御装置82では、デコーダ87は、ステップSb5において、画像信号をデコードする。デコーダ87は、デコードされた画像信号をディスプレイ81へ出力する。
ディスプレイ81は、ステップSb6において、画像信号に基づいて画像を表示する。これにより、撮像装置71による撮影画像がユーザに提示される。ここで、ディスプレイ81は、センサ信号が合成された撮影画像を表示する。しかし、センサ信号は、知覚困難型の電子透かし技術によって合成されているため、ユーザが視認することはない。
画像システム120は、このような処理を撮影画像のフレームレートで繰り返す。撮像装置71は、第2サイトS2に配置されたロボット1及び対象物Wを撮影し、表示装置8は、第1サイトS1においてその撮影画像を表示する。ユーザは、第1サイトS1において操作装置2を操作する際又は操作後に、第2サイトS2において研削中又は研削後のロボット1及び対象物Wの画像を第1サイトS1に配置された表示装置8で確認することができる。
[遅延制御]
このように、マスタスレーブ制御と画像表示制御とが並行して行われる場合、接触力センサ13がセンサ信号を取得してから制御装置3がセンサ信号を用いてロボット1及び操作装置2の動作制御を実行するまでの時間に比べて、撮像装置71が撮影画像を取得してから表示装置8で撮影画像を表示するまでの時間が長くかかってしまう。
詳しくは、ロボット1が対象物Wを研削する際には、接触力センサ13が対象物Wからの接触力をセンサ信号として検出すると共に、撮像装置71がロボット1及び対象物Wの撮影画像を画像信号として取得する。接触力センサ13のセンサ信号は、マスタスレーブシステム110の第1伝送路を介して制御装置3へ入力される。制御装置3は、前述のようにセンサ信号を入力の1つとしてロボット1及び操作装置2を制御する。一方、撮像装置71の画像信号は、画像システム120の第2伝送路を介して表示装置8へ入力される。さらに、画像信号は、その途中で、画像処理装置72においてエンコードされ、表示制御装置82においてデコードされる。
ここで、センサ信号に比べると、画像信号のデータ量をかなり大きい。特に、撮影画像が高画質になると、データ量の差はさらに大きくなる。そのため、画像処理装置72から表示制御装置82への画像信号の通信時間は、ロボット制御装置14から制御装置3へのセンサ信号の通信時間に比べて長くなる。それに加えて、画像信号は、エンコード及びデコードする必要がある。画像信号のデータ量が大きいと、エンコード及びデコードに要する時間も長くなる。
その結果、元々は略同じタイミングで取得されたセンサ信号及び撮影画像に関して、センサ信号を用いたマスタスレーブ制御に対して表示装置8による撮影画像の表示タイミングがズレる、具体的には、遅延する。図11(i)は、制御装置3がロボット制御装置14から取得するセンサ信号の一例である。図11(ii)は、表示制御装置82によるデコード後の画像信号の一例である。図11(i)に示すように、制御装置3が取得するセンサ信号は、ロボット制御装置14と制御装置3との間の通信時間等の影響により、図9(i)に示す、入力処理部41から出力される接触力センサ13のセンサ信号に比べると少しだけ遅れる。ただし、その遅延は、無視できる程度に小さい。一方、図11(ii)に示すように、デコード後の画像信号は、エンコード時間、画像処理装置72と表示制御装置82との間の通信時間、及びデコード時間等の影響により、図9(ii)に示す、撮像装置71から出力される画像信号に比べると遅れる。センサ信号の遅れに比べて、画像信号の遅れは大きい。
そのため、ユーザは、リアルタイムよりも遅れたロボット1及び対象物Wの撮影画像を観ながら、ロボット1及び操作装置2による研削加工を行うことになる。さらに、ユーザは、操作装置2の操作に対して、表示装置8による画像表示と操作装置2を介した反力提示との2つのフィードバック情報を得ることになる。しかし、反力提示と画像表示とのタイミングがズレるため、ユーザは違和感を覚える。それに加えて、人間は、触覚による情報よりも視覚による情報に頼る傾向にある。そのため、ユーザは、操作装置2による反力の提示ではなく、リアルタイムから遅れた表示装置8の画像を頼りに、操作装置2を操作することになってしまう。画像が高画質になればなるほど、その傾向は大きくなる。しかしながら、画像が高画質になるほど、前述の如く、表示装置8による画像表示の遅延はさらに大きくなる。
そこで、遠隔制御システム100では、制御装置3は、マスタスレーブ制御に対する表示装置8による撮影画像の表示タイミングのズレを低減するように、マスタスレーブ制御を遅延させる。一例として、前述のマスタスレーブ制御のステップSa3において、遅延部69が、加算部63から力/速度換算部64への合成力fm+fsの入力を遅延させる。このように、制御装置3は、操作力及び接触力が入力されてからロボット1及び操作装置2を動作させるまでの間に、遅延部69のローパスフィルタのような遅れ要素を含んでいる。これにより、制御装置3がロボット1及び操作装置2の動作制御を遅延、即ち、接触力センサ13からのセンサ信号を受け取ってからロボット1及び操作装置2を動作させるまでの時間を遅延させる。
このことは、マスタスレーブ制御の応答性が低下することを意味する。しかしながら、画像表示制御の応答性(即ち、撮像装置71による画像撮影に対する表示装置8による画像表示の応答性)とマスタスレーブ制御の応答性とが一致又は近くなる。ユーザが表示装置8に表示される撮影画像を頼りに操作装置2を操作する場合であっても、ユーザに与える違和感を低減することができる。例えば、表示装置8に表示されている以上に対象物Wが研削されてしまうことを防止することができる。
特に、撮影画像が高画質になると、画像信号のエンコード、画像信号の通信、及び、画像信号のデコードに要する時間が長くなる。通信技術の発達によって通信時間の低減が図られた場合であっても、画像信号のエンコード及びデコードに要する時間は長いままである。それに加えて、撮影画像の高画質化によって、操作装置2を操作するユーザの撮影画像への依存度がより高くなる。そのため、ユーザは、マスタスレーブ制御に対する表示装置8による撮影画像の表示タイミングのズレをより感知しやすくなってしまう。それに対し、遠隔制御システム100は、マスタスレーブ制御を遅延させることによって、マスタスレーブ制御の応答性の低下を許容しつつ、マスタスレーブ制御に対する表示装置8による撮影画像の表示タイミングのズレを低減している。その結果、ユーザが表示装置8の撮影画像を観ながら操作装置2を操作する際の違和感を低減することができる。
[遅延量の導出]
それに加えて、このようなマスタスレーブ制御と画像表示制御とを行っている間に、制御装置3は、遅延制御におけるマスタスレーブ制御の遅延量を求めている。
詳しくは、図6のフローチャートに従って説明すると、ステップSa1において、入力処理部41は、接触力センサ13のセンサ信号を通信部19を介して制御装置3へ送信すると共に、画像処理装置72へ入力する。画像処理装置72では、前述のようにステップSb2において、合成部77が互いに対応するタイミングで取得された撮像装置71の撮影画像と接触力センサ13の検出結果とを関連付ける。具体的には、画像処理装置72は、撮影画像と対応するタイミングで取得された接触力センサ13のセンサ信号を撮影画像に付加する。より具体的には、合成部77は、画像信号の各フレームの画像に各フレームと略同じタイミングで取得されたセンサ信号を画像として電子透かし技術によって合成する。
画像システム120においては、センサ信号が合成された画像信号は、エンコードされ(ステップSb3)、無線通信され(ステップSb4)、デコードされる(ステップSb5)。その後、デコードされた画像信号は、表示制御装置82からディスプレイ81へ入力されるだけでなく、表示制御装置82から制御装置3へも入力される。
マスタスレーブシステム110では、分離部67が、図11(ii)に示すようなデコードされた画像信号から、図12に示すようにセンサ信号を分離する。この例では、電子透かし技術に基づいて、画像信号からセンサ信号が分離される。分離されたセンサ信号は、分離部67からズレ検出部68へ入力される。ズレ検出部68には、入力処理部41から制御装置3へ入力されたセンサ信号も、接触力取得部62を介して入力されている。つまり、ズレ検出部68には、接触力センサ13のセンサ信号が、ロボット1、無線通信及び制御装置3という第1伝送路と、画像処理装置72、無線通信、表示制御装置82という第2伝送路との2つの伝送路を介して入力される。前述の如く、第2伝送路を経由するセンサ信号は、その途中でエンコード及びデコードの処理を経ている。
そして、ズレ検出部68は、ステップSa5において、所定の検出条件が成立したか否かを判定する。この例では、検出条件は、ズレ検出部68が分離部67からセンサ信号を受け取ることである。
マスタスレーブ制御の制御周期は、画像信号のフレームレートに対応する周期に比べて短いので、ズレ検出部68は、分離部67からのセンサ信号(即ち、第2伝送路を経由しセンサ信号)に比べて、接触力取得部62からのセンサ信号(即ち、第1伝送路を経由したセンサ信号)をより短い周期で受け取る。そのため、検出条件が成立していない場合、即ち、分離部67からズレ検出部68へセンサ信号が入力されていないときには、ズレ検出部68は、接触力取得部62から入力されるセンサ信号をメモリ33に保存して、今回の制御周期での遅延量の導出を終了する。
検出条件が成立した場合、即ち、分離部67からズレ検出部68へセンサ信号が入力されたときには、ズレ検出部68は、ステップSa6において、分離部67からのセンサ信号をメモリ33に保存された接触力取得部62からのセンサ信号と比較して、接触力取得部62からのセンサ信号に対する分離部67からのセンサ信号のズレ時間を求める。
具体的には、図12に示すように、ズレ検出部68は、周期的に、具体的には撮影画像のフレームレートで、分離部67からセンサ信号が入力される。メモリ33には、図11(i)に示すようなセンサ信号が保存されている。例えば、ズレ検出部68は、分離部67からのセンサ信号の信号波形と一致する信号波形を、メモリ33に保存された接触力取得部62からのセンサ信号の中から探す。そして、ズレ検出部68は、分離部67からのセンサ信号と、接触力取得部62からのセンサ信号のうちの信号波形が一致する部分との時間差をズレ時間として求める。ズレ検出部68は、求められたズレ時間を記憶部32に保存する。
ズレ検出部68は、このようなズレ時間の導出を検出条件が成立するごとに繰り返す。その結果、記憶部32には、ズレ時間が蓄積されていく。
ズレ検出部68は、ステップSa7において、所定の更新条件が成立したか否かを判定する。例えば、更新条件は、ズレ時間が現在の遅延時間に対して所定の変動幅(以下、「変動閾値」という)を超えて変化した状態が所定期間(以下、「期間閾値」という)以上継続することである。要するに、更新条件は、ズレ時間が現在の遅延時間に対して大きく異なる状態が一定期間以上継続することである。
詳しくは、ズレ検出部68は、ズレ時間を求めた際に、ズレ時間と現在の遅延時間とを比較し、時間差が変動閾値を超えているか否かを判定し、判定結果を記憶部32に保存する。さらに、時間差が変動閾値を超えている場合には、ズレ検出部68は、現在から期間閾値だけ遡った間の判定結果を記憶部32から読み出し、時間差が変動閾値を超えている状態が期間閾値以上継続しているか否かを判定する。尚、期間閾値の間に時間差の正負が変わっている場合には、時間差が変動閾値を超えている状態が継続しているとは扱わない。
時間差が変動閾値を超えている状態が期間閾値以上継続していない場合には、ズレ検出部68は、今回の制御周期での遅延量の導出を終了する。
時間差が変動閾値を超えている状態が期間閾値以上継続している場合には、ズレ検出部68は、ステップSa8においてその期間閾値の間のズレ時間を平均し、その平均値で現在の遅延時間を更新する。この例では、遅延時間が、遅延制御におけるマスタスレーブ制御の遅延量に相当する。
ズレ検出部68は、記憶部32に記憶されている変換関数を用いて、更新後の遅延時間から時定数を求める。ズレ検出部68は、遅延部69の時定数を求められた時定数で更新する。
このとき、ズレ検出部68は、遅延時間の変化幅に制限を設けている。つまり、ズレ検出部68は、マスタスレーブ制御の応答性が急激に変化しないように、現在の遅延時間を新たな遅延時間まで複数の制御周期に亘って段階的に変化させる。
このように、遠隔制御システム100は、マスタスレーブ制御及び画像表示制御を行っている間に、マスタスレーブ制御及び画像表示制御の信号を用いて、マスタスレーブ制御の遅延量を求めている。具体的には、制御装置3のズレ検出部68は、マスタスレーブ制御のために制御装置3が接触力センサ13から受信するセンサ信号と、画像表示制御のために撮像装置71から表示装置8に伝送されて表示される画像信号とのズレ時間を求め、求められたズレ時間に基づいて遅延量を求めている。マスタスレーブ制御及び画像表示制御の実行中に、マスタスレーブ制御及び画像表示制御のために送受信され且つ処理される信号に基づいて遅延量が求められるので、実際の制御状況に則した遅延量を求めることができる。例えば、ロボット制御装置14と制御装置3との間の通信環境、及び、画像処理装置72と表示制御装置82との間の通信環境は、変化し得る。これらの通信環境が変化した場合であっても、前述の方法で遅延量を求めることによって、通信環境の変化に対応して遅延量を変更することができる。
さらに、撮像装置71によって撮影される画像によって、エンコード及びデコードに要する時間が変化し得る。例えば、色味が均一な画像と色や明るさが様々な画像とでは、エンコード及びデコードに要する時間が異なる。研削加工においては、対象物Wと研削装置11aとの接触部において火花が発生し得る。つまり、画像に含まれる火花の有無又は火花の量によって、エンコード及びデコードに要する時間が異なる。そのような場合であっても、前述の方法で遅延量を求めることによって、画像の状況に対応して遅延量を変更することができる。
また、接触力センサ13及び撮像装置71によって互いに対応するタイミングで取得されたセンサ信号と画像信号とを互いに関連付けておくことによって、制御装置3は、マスタスレーブ制御に用いられるセンサ信号と表示装置8に表示される画像信号とから互いに関連付けられたセンサ信号と画像信号とを判別して、それらのズレ時間を求めることができる。
具体的には、接触力センサ13及び撮像装置71によって互いに対応するタイミングで取得されたセンサ信号及び画像信号のうち画像信号に、互いの関連付けを示す関連情報としてセンサ信号が付加されている。制御装置3は、関連情報としてセンサ信号に基づいて、センサ信号と画像信号とのズレ時間を求める。つまり、制御装置3は、センサ信号と画像信号との両方を受け取ったときに、センサ信号と画像信号に付加されているセンサ信号とを対比することによって、元々はセンサ信号と対応するタイミングで取得された画像信号を判別することができ、両者のズレ時間を求めることができる。この例では、制御装置3は、分離部67によって画像信号からセンサ信号を分離し、接触力取得部62からのセンサ信号と画像信号から分離されたセンサ信号とのズレ時間をセンサ信号と画像信号とのズレ時間として求める。
このとき、関連情報としてセンサ信号が用いられることによって、センサ信号には別の情報を付加する必要がなく、画像信号だけにセンサ信号を付加すればよい。さらに、センサ信号及び画像信号以外の別の情報を準備する必要が無い。そのため、処理が簡略化される。
さらには、遠隔制御システム100が複数設置されている場合には、無線通信においてコンタミネーションが発生する虞がある。そのような場合であっても、関連情報としてセンサ信号が用いられることによって、センサ信号と画像信号との組み合わせが適切か否か(即ち、コンタミネーションが発生しているか否か)を容易に判別することができる。例えば、関連情報として取得時刻を採用し、センサ信号と画像信号とのそれぞれに取得時間情報を付加する場合には、遠隔制御システム100のそれぞれを識別するための識別情報をセンサ信号及び画像信号にさらに付加する必要がある。関連情報としてセンサ信号が用いられる場合には、センサ信号が遠隔制御システム100の識別情報として機能する。そのため、遠隔制御システム100のそれぞれを識別するための追加の識別情報が不要となる。
また、遠隔制御システム100では、画像信号へのセンサ信号の付加は、画像信号のエンコード前に行われ、画像信号からのセンサ信号の分離は、画像信号のデコード後に行われる。そのため、分離部67によって分離されたセンサ信号は、画像信号のエンコード、画像信号の無線通信、及び画像信号のデコードに要した時間だけ遅延している。そのため、制御装置3は、画像信号のエンコード、無線通信及びデコードの影響を適切に反映したズレ時間を求めることができる。
さらに、画像信号へのセンサ信号の付加は、電子透かし技術によって実現されている。そのため、表示装置8は、センサ信号が合成された画像信号をディスプレイ81に表示しても、センサ信号が撮影画像のユーザへの提示の邪魔にならない。つまり、表示装置8において、画像信号からセンサ信号を分離する等の特段の処理が不要となる。
また、制御装置3は、ズレ時間が現在の遅延時間に対して所定の変動閾値を超えて変化した状態が所定の期間閾値以上継続する場合に、マスタスレーブ制御の遅延量、即ち、遅延時間を更新している。これにより、通常のマスタスレーブ制御及び画像表示制御では許容される、ズレ時間の小さな変動を無視して、マスタスレーブ制御の遅延量を一定に保ち、マスタスレーブ制御を安定させることができる。つまり、画像処理装置72と表示制御装置82との間の通信環境は、一定ではなく、多少の変動はあり得る。また、画像信号のエンコード及びデコードに要する時間は、撮影画像に応じて変動し得る。そのため、ズレ時間の変動量が小さい場合及びズレ時間の変動が一時的な場合には、制御装置3は、マスタスレーブ制御の遅延量を一定に保持することによって、マスタスレーブ制御の応答性を一定に保ち、ユーザに違和感を与えることを防止することができる。
さらに、遅延時間を更新する場合において、制御装置3は、遅延時間を段階的に変更することによって、ユーザに与える違和感を低減することができる。つまり、遅延時間は、マスタスレーブ制御の応答性に直結する。制御装置3は、遅延時間を段階的に変更することによって、マスタスレーブ制御の応答性が急に変化することを防止することができる。
以上のように、遠隔制御システム100は、ユーザに操作される操作装置2(マスタ装置)と、操作装置2の動作に応じて対象物Wに作用を加えるロボット1(スレーブ装置)と、ロボット1に設けられ、ロボット1の動作状態を検出する接触力センサ13(センサ)と、ロボット1及び対象物Wの少なくとも一方の画像を撮影する撮像装置71と、撮像装置71による撮影画像を表示して、操作装置2を操作するユーザに提供する表示装置8と、接触力センサ13の検出結果に基づいてロボット1及び操作装置2の少なくとも一方の動作制御を実行する制御装置3とを備え、制御装置3は、動作制御に対する撮影画像の表示装置8による表示タイミングのズレを低減するように、動作制御を遅延させる。
換言すると、ユーザに操作される操作装置2と、操作装置2の動作に応じて対象物Wに作用を加えるロボット1と、ロボット1に設けられ、ロボット1の動作状態を検出する接触力センサ13と、ロボット1及び対象物Wの少なくとも一方の画像を撮影する撮像装置71と、撮像装置71による撮影画像を表示して、操作装置2を操作するユーザに提供する表示装置8とを備えた遠隔制御システム100の制御方法は、接触力センサ13の検出結果に基づいてロボット1及び操作装置2の少なくとも一方の動作制御を実行することと、動作制御に対する撮影画像の表示装置8による表示タイミングのズレを低減するように、動作制御を遅延させることとを含む。
または、ユーザに操作される操作装置2と、操作装置2の動作に応じて対象物Wに作用を加えるロボット1と、ロボット1に設けられ、ロボット1の動作状態を検出する接触力センサ13と、ロボット1及び対象物Wの少なくとも一方の画像を撮影する撮像装置71と、撮像装置71による撮影画像を表示して、操作装置2を操作するユーザに提供する表示装置8とを備えた遠隔制御システム100を制御する機能をコンピュータに実現させるための遠隔制御プログラムは、接触力センサ13の検出結果に基づいてロボット1及び操作装置2の少なくとも一方の動作制御を実行する機能と、動作制御に対する撮影画像の表示装置8による表示タイミングのズレを低減するように、動作制御を遅延させる機能とをコンピュータに実現させる。
これらの構成によれば、ユーザが操作装置2を操作することによってロボット1が動作して対象物Wに作用(例えば、研削)を加える。このとき、接触力センサ13は、ロボット1の動作状態(例えば、ロボット1に作用する反力)を検出する。接触力センサ13の検出結果に基づいてロボット1及び操作装置2の少なくとも一方の動作制御が実行される。これと並行して、撮像装置71は、ロボット1及び対象物Wの少なくとも一方の画像を撮影し、表示装置8は、その撮影画像を表示して、撮影画像をユーザに提供する。ここで、撮影画像のデータ量は、接触力センサ13の検出結果に比べると大きい。そのため、撮影画像が撮像装置71によって取得されてから表示装置8に表示されるまでの処理及び通信に要する時間は、接触力センサ13によって検出結果が取得されてから動作制御に用いられるまでの処理及び通信に要する時間に比べて長くなる。つまり、接触力センサ13の検出結果に基づくロボット1及び操作装置2の少なくとも一方の動作制御に対して撮影画像の表示装置8による表示タイミングがズレる(具体的には、遅延する)傾向にある。それに対し、動作制御に対する撮影画像の表示装置8による表示タイミングのズレが低減するように、動作制御が遅延させられる。これにより、動作制御の応答性が低下するものの、表示装置8の撮影画像を観ながら操作装置2を操作するユーザに与える違和感を低減することができる。
また、制御装置3は、接触力センサ13の検出結果をロボット1から受信すると共に撮影画像を表示装置8から受信し、動作制御を遅延させる遅延量を接触力センサ13の検出結果と撮影画像とのズレ時間に基づいて求める。
この構成によれば、制御装置3は、接触力センサ13の検出結果をロボット1から受信し、この検出結果に基づいて動作制御を実行する。一方、制御装置3は、表示装置8から撮影画像を受信しており、この撮影画像は、表示装置8において表示されるものである。つまり、制御装置3が受信する、接触力センサ13の検出結果と撮影画像とのズレ時間は、動作制御と撮影画像の表示装置8による表示とのズレ時間に概ね合致する。そのため、制御装置3は、接触力センサ13の検出結果と撮影画像とのズレ時間に基づいて動作制御の遅延量を求めることによって、動作制御と撮影画像の表示装置8による表示とのズレに対応する動作制御の遅延量を求めることができる。
さらに、接触力センサ13及び撮像装置71によって互いに対応するタイミングで取得されたの検出結果と撮影画像との少なくとも一方には、互いの関連付けを示す関連情報が付加されており、制御装置3は、関連情報に基づいて検出結果と撮影画像とを関連情報に基づいて判別して、ズレ時間を求める。
この構成によれば、制御装置3は、関連情報を参照することによって、検出結果と撮影画像の中から、互いに対応するタイミングで取得された検出結果及び撮影画像を容易に判別することができる。
さらに、遠隔制御システム100は、撮像装置71から撮影画像を受信し、撮影画像を処理し、処理後の撮影画像を表示装置8へ送信する画像処理装置72をさらに備え、画像処理装置72は、検出結果をロボット1から受信し、撮影画像と対応するタイミングで取得された検出結果を関連情報として撮影画像に付加し、検出結果が付加された撮影画像を表示装置8へ送信し、制御装置3は、検出結果が付加された撮影画像を表示装置8から受信し、撮影画像に付加された検出結果とロボット1から受信した検出結果との比較に基づいてズレ時間を求める。
この構成によれば、互いに対応するタイミングで取得された接触力センサ13の検出結果と撮像装置71の撮影画像とのうち撮影画像に、互いの関連付けを示す関連情報としての接触力センサ13の検出結果が付加される。そのため、表示装置8に送信され、表示装置8から制御装置3が受信する撮影画像には、検出結果が付加されている。制御装置3は、ロボット1から検出結果を受信している。ロボット1か受信された検出結果とその検出結果が付加された撮影画像とのズレ時間が、すなわち、検出結果と撮影画像とのズレ時間である。そのため、制御装置3は、撮影画像に付加された検出結果とロボット1から受信された検出結果とを比較することによって、検出結果と撮影画像とのズレ時間を容易に求めることができる。
また、画像処理装置72は、撮影画像と対応するタイミングで取得された検出結果を撮影画像に画像として合成することによって検出結果を撮影画像に付加し、検出結果が合成された撮影画像をエンコードして表示装置8へ送信し、制御装置3は、表示装置8によってデコードされた撮影画像から検出結果を取得する。
この構成によれば、制御装置3が表示装置8から受信する撮影画像に合成された、接触力センサ13の検出結果は、撮影画像と共に、エンコード、画像処理装置72と表示装置8との間の通信、及びデコードを経ている。つまり、制御装置3は、デコードされた撮影画像に付加された検出結果とロボット1から受信した検出結果との比較に基づいてズレ時間を求めることによって、これらの処理及び通信による遅延を反映したズレ時間を求めることができる。
制御装置3は、動作制御として、ユーザによる操作装置2の操作及び検出結果に応じて、ロボット1の動作を制御すると共にロボット1に作用する反力をユーザに提示するように操作装置2の動作を制御する。
この構成によれば、制御装置3は、動作制御には、ロボット1の動作の制御と操作装置2の動作の制御とが含まれる。つまり、動作制御に対する撮影画像の表示装置8による表示タイミングのズレが発生すると、ロボット1の動作の制御と撮影画像の表示装置8による表示タイミングとがズレると共に、操作装置2の動作の制御と撮影画像の表示装置8による表示タイミングとがズレる。例えば、ロボット1の動作の制御に対して撮影画像の表示装置8による表示タイミングが遅延すると、ユーザは、実際のロボット1の動作よりも遅れたロボット1の動作又は対象物Wの撮影画像を観ながら操作装置2の操作を行うことになる。また、操作装置2の動作の制御に対して撮影画像の表示装置8による表示タイミングが遅延すると、ユーザは、操作装置2から提示される反力を受けるときのロボット1の動作よりも遅れたロボット1の動作又は対象物Wの撮影画像を観ながら操作装置2からの反力を感知する。どちらの場合でも、ユーザは、違和感を覚えることになる。それに対して、制御装置3は、動作制御を遅延させるので、ロボット1の動作の制御も操作装置2の動作の制御も遅延することになる。その結果、ユーザが表示装置8の撮影画像を観ながら操作装置2を操作する際に、ロボット1の動作と撮影画像とのズレ、及び、操作装置2から感じる反力と撮影画像とのズレを低減することができる。
接触力センサ13は、ロボット1の動作状態を検出するセンサの一例であり、さらには、力覚センサの一例である。
《その他の実施形態》
以上のように、本出願において開示する技術の例示として、前記実施形態を説明した。しかしながら、本開示における技術は、これに限定されず、適宜、変更、置き換え、付加、省略などを行った実施の形態にも適用可能である。また、前記実施形態で説明した各構成要素を組み合わせて、新たな実施の形態とすることも可能である。また、添付図面および詳細な説明に記載された構成要素の中には、課題解決のために必須な構成要素だけでなく、前記技術を例示するために、課題解決のためには必須でない構成要素も含まれ得る。そのため、それらの必須ではない構成要素が添付図面や詳細な説明に記載されていることをもって、直ちに、それらの必須ではない構成要素が必須であるとの認定をするべきではない。
前述の遠隔制御システム100の構成は、一例に過ぎず、これに限定されるものではない。例えば、マスタスレーブシステム110に関し、ロボット1が対象物Wに加える作用は、研削に限定されない。ロボット1が対象物Wに加える作用は、切削又は研磨等であってもよく、押圧又は把持等であってもよい。
また、ロボット1と制御装置3との間の通信は、無線通信に限定されず、有線通信であってもよい。同様に、撮像装置71と表示装置8との間の通信は、無線通信に限定されず、有線通信であってもよい。
制御装置3が実行するロボット1及び操作装置2の動作制御は、バイラテラル制御に限定されない。例えば、制御装置3は、操作装置2の動作に応じたロボット1の動作制御と、ロボット1が対象物Wから受ける反力に応じた操作装置2の動作制御とを独立に行ってもよい。
あるいは、制御装置3は、操作装置2の動作に応じたロボット1の動作制御だけを行って、操作装置2を介したユーザへの反力提示を行わなくてもよい。つまり、制御装置3は、ユーザによる操作装置2の操作及び接触力センサ13のセンサ信号に基づいてロボット1の動作制御だけを行ってもよい。
また、ロボット1は、産業用ロボットに限定されない。例えば、ロボット1は、医療用ロボットであってもよい。さらには、スレーブ装置は、ロボットに限定されない。例えば、スレーブ装置は、建設機械等の機械であってもよい。
スレーブ装置の動作状態を検出するセンサは、接触力センサ13に限定されず、スレーブ装置の動作状態を検出できる限り、任意のセンサを採用し得る。例えば、スレーブ装置がロボット1の場合、スレーブ装置の動作状態を検出するセンサは、サーボモータ15の電流を検出する電流センサ又はサーボモータ15のトルクを検出するトルクセンサ等であってもよい。
さらに、撮影画像に合成されるセンサ信号は、Z軸方向への力のセンサ信号に限定されない。撮影画像に合成されるセンサ信号は、Z軸方向以外の他の方向への力のセンサ信号であってもよく、Z軸方向に限定されない複数の方向への力のセンサ信号が含まれていてもよい。例えば、6軸の力のセンサ信号のうち撮影画像に合成されるセンサ信号を、ステップSa0等においてユーザが選択してもよい。あるいは、ロボット制御装置14又は画像処理装置72が6軸の力のセンサ信号のうち撮影画像に合成されるセンサ信号を選択してもよい。例えば、ロボット制御装置14又は画像処理装置72は、接触力センサ13の6軸の力のセンサ信号のうち変動が大きいセンサ信号を選択してもよい。
撮影画像へのセンサ信号の合成は、知覚困難型の電子透かし技術によるものに限定されない。例えば、センサ信号は、視認可能な状態で撮影画像に合成されてもよい。センサ信号の視認可能な状態での合成は、知覚可能型の電子透かし技術によって実現されてもよく、それ以外の方法で実現されてもよい。
前述の例では、画像信号の各フレームに付加されたセンサ信号は、複数の数値データを含んでおり、他のフレームに付加されたセンサ信号と判別可能な信号波形を形成している。しかし、センサ信号のサンプリング周期と画像信号のフレームレートによっては、画像信号の各フレームに付加されたセンサ信号は、少ない数値データしか有さず、他のフレームに付加されたセンサ信号と判別可能な信号波形を形成できない場合もあり得る。そのような場合には、ズレ検出部68は、ズレ時間の導出対象となるフレームに付加されたセンサ信号に直近の1又は複数のフレームに付加されたセンサ信号を合体させることによって、判別可能な信号波形を形成した上で、合体されたセンサ信号と接触力取得部62からのセンサ信号と比較してもよい。
互いに対応するタイミングで取得されたセンサの検出結果と撮像装置の撮影画像との互いの関連付けを示す関連情報は、センサの検出結果(前述の例では、接触力センサ13のセンサ信号)に限定されいない。例えば、関連情報は、時刻情報であってもよい。つまり、センサの検出結果にその検出結果が取得された時刻情報が付加され、撮像装置の撮影画像にその撮影画像が取得された時刻情報が付加されてもよい。その場合、画像信号へのセンサの検出結果の付加が不要となる。例えば、ロボット制御装置14が接触力センサ13のセンサ信号にそのセンサ信号が取得された時刻情報を付加し、画像処理装置72が撮像装置71の画像信号にその画像信号が取得された時刻情報を付加してもよい。ロボット制御装置14から画像処理装置72へのセンサ信号の入力が不要となる。ズレ検出部68は、センサ信号に付加された時刻信号と画像信号に付加された時刻信号とを照らし合わせることによって、互いにタイミングで取得されたセンサ信号と画像信号とを判別して、両者のズレ時間を求めることができる。画像信号への時刻情報の付加は、時刻情報をデータとして付加してもよいし、時刻情報を画像として撮影画像に合成してもよい。尚、関連情報は、時刻情報以外の、取得タイミングを示す識別情報であってもよい。
遅延時間の更新条件は、ズレ時間が現在の遅延時間に対して所定の変動幅を超えて変化した状態が所定期間以上継続することに限定されない。例えば、更新条件は、ズレ時間が現在の遅延時間に対して所定の変動幅を超えて変化することであってもよい。あるいは、更新条件は、ズレ時間の変動とは無関係に、所定の周期の到来であってもよい。つまり、所定の周期ごとに遅延時間が更新されてもよい。
ズレ時間が現在の遅延時間に対して所定の変動幅を超えて変化した状態が所定期間以上継続することを条件に遅延時間を更新する際には、新たな遅延時間は、所定期間の間のズレ時間を平均した平均値でなくてもよい。例えば、新たな遅延時間は、最新のズレ時間、又は、所定期間の間に最も頻度が高いズレ時間であってもよい。
さらに、遅延時間を更新する際には、現在の遅延時間を新たな遅延時間まで段階的ではなく、一度に更新してもよい。
また、遅延時間の更新は、制御装置3が自動で行うのではなく、更新条件が満たされたときに、新たな遅延時間をユーザに提示して、ユーザからの操作によって遅延時間を更新してもよい。
前述のブロック図は一例であり、複数のブロックを1つのブロックとして実現したり、1つのブロックを複数のブロックに分割したり、一部の機能を別のブロックに移したりしてもよい。
本開示の技術は、前記制御方法を実行するためのプログラムであってもよく、前記プログラムが記録された非一時的なコンピュータ読み取り可能な記録媒体であってもよい。また、前記プログラムは、インターネット等の伝送媒体を介して流通させることができるものであってもよい。
本実施形態で開示された構成の機能は、電気回路又は処理回路を用いて実行されてもよい。プロセッサは、トランジスタ及びその他の回路を含む処理回路等である。本開示において、ユニット、コントローラ又は手段は、記載した機能を実行するためのハードウェア又はプログラムされたものである。ここで、ハードウェアは、本実施形態で開示された機能を実行するように構成若しくはプログラムされた、本実施形態で開示されたもの又は公知のハードウェアである。ハードウェアが、プロセッサ又はコントローラの場合、回路、手段又はユニットは、ハードウェアとソフトウェアの組み合わせであり、ソフトウェアは、ハードウェア及び/又はプロセッサを構成するために用いられる。
100 遠隔制御システム
1 ロボット(スレーブ装置)
13 接触力センサ(センサ)
2 操作装置(マスタ装置)
3 制御装置
71 撮像装置
72 画像処理装置
8 表示装置
W 対象物

Claims (10)

  1. ユーザに操作されるマスタ装置と、
    前記マスタ装置の動作に応じて対象物に作用を加えるスレーブ装置と、
    前記スレーブ装置に設けられ、前記スレーブ装置の動作状態を検出するセンサと、
    前記スレーブ装置及び対象物の少なくとも一方の画像を撮影する撮像装置と、
    前記撮像装置による撮影画像を表示して、前記マスタ装置を操作するユーザに提供する表示装置と、
    前記センサの検出結果に基づいて前記マスタ装置及び前記スレーブ装置の少なくとも一方の動作制御を実行する制御装置とを備え、
    前記制御装置は、前記動作制御に対する前記撮影画像の前記表示装置による表示タイミングのズレを低減するように、前記動作制御を遅延させる遠隔制御システム。
  2. 請求項1に記載の遠隔制御システムにおいて、
    前記制御装置は、前記検出結果を前記スレーブ装置から受信すると共に前記撮影画像を前記表示装置から受信し、前記動作制御を遅延させる遅延量を前記検出結果と前記撮影画像とのズレ時間に基づいて求める遠隔制御システム。
  3. 請求項2に記載の遠隔制御システムにおいて、
    前記制御装置は、前記ズレ時間に基づいて求められた新たな遅延量で前記遅延量を更新する場合に、前記遅延量を前記新たな遅延量まで段階的に更新していく遠隔制御システム。
  4. 請求項2に記載の遠隔制御システムにおいて、
    前記センサ及び前記撮像装置によって互いに対応するタイミングで取得された検出結果と前記撮影画像との少なくとも一方には、互いの関連付けを示す関連情報が付加されており、
    前記制御装置は、受信した前記検出結果及び前記撮影画像の中から互いに対応するタイミングで取得された前記検出結果と前記撮影画像とを前記関連情報に基づいて判別して、前記ズレ時間を求める遠隔制御システム。
  5. 請求項4に記載の遠隔制御システムにおいて、
    前記撮像装置から前記撮影画像を受信し、前記撮影画像を処理し、処理後の前記撮影画像を前記表示装置へ送信する画像処理装置をさらに備え、
    前記画像処理装置は、前記検出結果を前記スレーブ装置から受信し、前記撮影画像と対応するタイミングで取得された前記検出結果を前記関連情報として前記撮影画像に付加し、前記検出結果が付加された前記撮影画像を前記表示装置へ送信し、
    前記制御装置は、前記検出結果が付加された前記撮影画像を前記表示装置から受信し、前記撮影画像に付加された前記検出結果と前記スレーブ装置から受信した前記検出結果との比較に基づいて前記ズレ時間を求める遠隔制御システム。
  6. 請求項5に記載の遠隔制御システムにおいて、
    前記画像処理装置は、前記撮影画像と対応するタイミングで取得された前記検出結果を前記撮影画像に画像として合成することによって前記検出結果を前記撮影画像に付加し、前記検出結果が合成された前記撮影画像をエンコードして前記表示装置へ送信し、
    前記制御装置は、前記表示装置によってデコードされた前記撮影画像から前記検出結果を取得する遠隔制御システム。
  7. 請求項1乃至6の何れか1項に記載の遠隔制御システムにおいて、
    前記制御装置は、前記動作制御として、ユーザによる前記マスタ装置の操作及び前記検出結果に応じて、前記スレーブ装置の動作を制御すると共に前記スレーブ装置に作用する反力をユーザに提示するように前記マスタ装置の動作を制御する遠隔制御システム。
  8. 請求項7に記載の遠隔制御システムにおいて、
    前記センサは、力覚センサである遠隔制御システム。
  9. ユーザに操作されるマスタ装置と、
    前記マスタ装置の動作に応じて対象物に作用を加えるスレーブ装置と、
    前記スレーブ装置に設けられ、前記スレーブ装置の動作状態を検出するセンサと、
    前記スレーブ装置及び対象物の少なくとも一方の画像を撮影する撮像装置と、
    前記撮像装置による撮影画像を表示して、前記マスタ装置を操作するユーザに提供する表示装置とを備えた遠隔制御システムの制御方法であって、
    前記センサの検出結果に基づいて前記マスタ装置及び前記スレーブ装置の少なくとも一方の動作制御を実行することと、
    前記動作制御に対する前記撮影画像の前記表示装置による表示タイミングのズレを低減するように、前記動作制御を遅延させることとを含む、遠隔制御システムの制御方法。
  10. ユーザに操作されるマスタ装置と、
    前記マスタ装置の動作に応じて対象物に作用を加えるスレーブ装置と、
    前記スレーブ装置に設けられ、前記スレーブ装置の動作状態を検出するセンサと、
    前記スレーブ装置及び対象物の少なくとも一方の画像を撮影する撮像装置と、
    前記撮像装置による撮影画像を表示して、前記マスタ装置を操作するユーザに提供する表示装置とを備えた遠隔制御システムを制御する機能をコンピュータに実現させるための遠隔制御プログラムであって、
    前記センサの検出結果に基づいて前記マスタ装置及び前記スレーブ装置の少なくとも一方の動作制御を実行する機能と、
    前記動作制御に対する前記撮影画像の前記表示装置による表示タイミングのズレを低減するように、前記動作制御を遅延させる機能とをコンピュータに実現させるための遠隔制御プログラム。

JP2020208542A 2020-12-16 2020-12-16 遠隔制御システム、遠隔制御システムの制御方法及び遠隔制御プログラム Pending JP2022095300A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2020208542A JP2022095300A (ja) 2020-12-16 2020-12-16 遠隔制御システム、遠隔制御システムの制御方法及び遠隔制御プログラム
CN202180084361.7A CN116723915A (zh) 2020-12-16 2021-11-25 远程控制系统、远程控制系统的控制方法以及远程控制程序
PCT/JP2021/043261 WO2022130931A1 (ja) 2020-12-16 2021-11-25 遠隔制御システム、遠隔制御システムの制御方法及び遠隔制御プログラム
US18/209,045 US20230321812A1 (en) 2020-12-16 2023-06-13 Remote control system, control method for remote control system, and remote control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020208542A JP2022095300A (ja) 2020-12-16 2020-12-16 遠隔制御システム、遠隔制御システムの制御方法及び遠隔制御プログラム

Publications (1)

Publication Number Publication Date
JP2022095300A true JP2022095300A (ja) 2022-06-28

Family

ID=82059088

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020208542A Pending JP2022095300A (ja) 2020-12-16 2020-12-16 遠隔制御システム、遠隔制御システムの制御方法及び遠隔制御プログラム

Country Status (4)

Country Link
US (1) US20230321812A1 (ja)
JP (1) JP2022095300A (ja)
CN (1) CN116723915A (ja)
WO (1) WO2022130931A1 (ja)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4229827B2 (ja) * 2003-12-24 2009-02-25 オリンパス株式会社 遠隔操作システム
JP2015047666A (ja) * 2013-09-02 2015-03-16 トヨタ自動車株式会社 遠隔操作装置、及び操作画像表示方法
JP6852450B2 (ja) * 2017-02-17 2021-03-31 セイコーエプソン株式会社 表示方法およびロボットシステム

Also Published As

Publication number Publication date
WO2022130931A1 (ja) 2022-06-23
CN116723915A (zh) 2023-09-08
US20230321812A1 (en) 2023-10-12

Similar Documents

Publication Publication Date Title
US11498216B2 (en) Remote control manipulator system and control device
JP7053042B2 (ja) 情報処理装置及び情報処理方法
US10306211B2 (en) Remote control of pivotable stereoscopic camera
JP2009276996A (ja) 情報処理装置、情報処理方法
JP2019012965A (ja) 映像制御方法、映像制御装置、及び映像制御プログラム
EP3797931B1 (en) Remote control system, information processing method, and program
US11422625B2 (en) Proxy controller suit with optional dual range kinematics
US20220266449A1 (en) Control device, control system, robot system and controlling method
WO2017122274A1 (ja) 画像表示装置
WO2021230364A1 (ja) 遠隔制御システムとその遠隔作業装置、映像処理装置およびプログラム
JP2006000977A (ja) ロボット環境間力作用状態呈示装置
Hinterseer et al. Perception-based compression of haptic data streams using kalman filters
WO2022130931A1 (ja) 遠隔制御システム、遠隔制御システムの制御方法及び遠隔制御プログラム
JP3217383B2 (ja) 臨場感再現システムおよび加工システム
JP2018005778A (ja) 画像表示装置、画像表示システムおよび画像表示方法
Xu et al. Dynamic model displacement for model-mediated teleoperation
WO2022075333A1 (ja) ロボットシステム及びその制御方法
JP5140889B2 (ja) ゆらぎ補正による画像表示方法及びその方法を用いた動体リモートコントロールシステム
WO2023058653A1 (ja) 制御装置、ロボットシステム、ロボット制御方法及びロボット制御プログラム
JP7273522B2 (ja) 教示装置及び教示方法
WO2024019002A1 (ja) 情報処理方法、情報処理装置、及び情報処理プログラム
WO2024013895A1 (ja) 遠隔制御システム、遠隔制御方法、および遠隔制御プログラム
WO2004070595A3 (de) Vorrichtung und verfahren zur interaktiven steuerung eines mauszeigers einer graphischen benutzerschnittstelle
JP2022162703A (ja) システム、情報処理方法および情報処理プログラム
KR100711205B1 (ko) 경사계를 이용한 생체 모방형 시각처리 장치

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20230331

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231211