JP2018202541A - 遠隔作業ロボット制御システムおよび遠隔作業ロボットの制御方法 - Google Patents

遠隔作業ロボット制御システムおよび遠隔作業ロボットの制御方法 Download PDF

Info

Publication number
JP2018202541A
JP2018202541A JP2017110121A JP2017110121A JP2018202541A JP 2018202541 A JP2018202541 A JP 2018202541A JP 2017110121 A JP2017110121 A JP 2017110121A JP 2017110121 A JP2017110121 A JP 2017110121A JP 2018202541 A JP2018202541 A JP 2018202541A
Authority
JP
Japan
Prior art keywords
robot
work
monitoring
remote
operator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017110121A
Other languages
English (en)
Other versions
JP6807280B2 (ja
Inventor
隆浩 長井
Takahiro Nagai
隆浩 長井
亮介 小林
Ryosuke Kobayashi
亮介 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi GE Nuclear Energy Ltd
Original Assignee
Hitachi GE Nuclear Energy Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi GE Nuclear Energy Ltd filed Critical Hitachi GE Nuclear Energy Ltd
Priority to JP2017110121A priority Critical patent/JP6807280B2/ja
Priority to PCT/JP2018/016084 priority patent/WO2018221053A1/ja
Publication of JP2018202541A publication Critical patent/JP2018202541A/ja
Application granted granted Critical
Publication of JP6807280B2 publication Critical patent/JP6807280B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/04Viewing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J3/00Manipulators of master-slave type, i.e. both controlling unit and controlled unit perform corresponding spatial movements

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)

Abstract

【課題】少数のオペレータで複数の遠隔作業ロボットを制御することを可能とする。
【解決手段】作業ロボット7と、オペレータ1の操作信号から作業ロボット7の操作信号を生成する操作制御装置4と、作業ロボット7の各駆動部に取り付けられた関節角度センサ8と、光学カメラ11を有し、作業ロボット7による遠隔作業を監視する自律監視ロボット10と、オペレータ1の挙動を検出する視線計測装置2と、視線計測装置2および関節角度センサ8とからのセンサ情報に基づいて自律監視ロボット10の自律監視動作に必要な動作信号を生成するデータ処理装置5と、自律監視ロボット10の光学カメラ11が撮像した監視映像を表示する監視映像表示部45と、を備えた。
【選択図】 図2

Description

本発明は、遠隔作業ロボット制御システムおよび遠隔作業ロボットの制御方法に係わる。
自律監視ロボットの制御に関する技術として、例えば、特許文献1には、オペレータにとって操作が可能な数の操作変数を選択して組み合わせた制御モードから選択し、操作された操作変数の変化に応じてその他の操作変数を間接的に制御する技術が開示されている。
また、特許文献2には、ウェアラブルシステムを装着した人間の置かれている状況をコンピュータが意図理解し、その意図理解に基づいて3次元ロボットシステムが遂行する技術が開示されている。
また、特許文献3には、自律移動ロボットに操作検出部を設け、オペレータの意図する移動および姿勢の変化を実現する技術が開示されている。
特開2004−276123号公報 特開2002−361576号公報 特開2002−036152号公報
人間の立ち入りが困難な災害現場等に代表される苛酷環境の状況を改善していくためには、遠隔地にいるオペレータが遠隔作業ロボットを用いながら、未知な作業対象物の把持、切断、穿孔等の作業を行う必要がある。
その際、遠隔作業オペレータは監視映像を見ながら遠隔作業を行うことになる。この監視画像を得るために、従来は、監視映像を提供するために、遠隔作業ロボットとは別に、別のオペレータによって操作される監視映像を提供するための監視映像ロボットを用いている。
このような従来の方法では、監視オペレータを別途必要とし、オペレータ間の意思疎通に時間を要していた。そのため、監視等の支援を自律的に提供するロボットが求められている。
ここで、上記したような特許文献1−3においては、ロボットが1台の中での意図推定に基づく動作支援や、移動等の意図の規定が容易な作業を対象としていた。しかしながら、未知な対象物の接触作業を監視するときの遠隔作業オペレータの意図を推定することは不確定要素が多く、困難であるとの課題がある。
本発明は、少数のオペレータで複数の遠隔作業ロボットを制御することを可能とする遠隔作業ロボット制御システムおよび遠隔作業ロボットの制御方法を提供する。
本発明は、上記課題を解決する手段を複数含んでいるが、その一例を挙げるならば、オペレータの居る場所とは異なる遠隔地に配置された作業ロボットと、前記オペレータによる前記作業ロボットの操作を指示する操作装置と、前記操作装置による前記オペレータの操作信号の入力を受けて前記作業ロボットを操作する操作信号を生成する操作制御装置と、前記操作信号を前記作業ロボットの指令信号に変換する作業ロボット制御装置と、前記作業ロボットの各駆動部に取り付けられた作業ロボットセンサと、前記作業ロボットを撮像する監視カメラを有し、前記作業ロボットによる遠隔作業を監視する自律監視ロボットと、前記オペレータの挙動を検出するオペレータセンサと、前記オペレータセンサおよび前記作業ロボットセンサとのうち少なくともいずれか一方からのセンサ情報に基づいて前記自律監視ロボットによる自律監視動作のための制御動作信号を生成するデータ処理装置と、前記データ処理装置で生成された前記制御動作信号を前記自律監視ロボットの指令信号に変換する自律監視ロボット制御装置と、前記自律監視ロボットの前記監視カメラが撮像した監視映像を表示する表示装置と、を備えたことを特徴とする。
本発明によれば、少数のオペレータで複数の遠隔作業ロボットを制御することができる。上記した以外の課題、構成および効果は、以下の実施の形態の説明により明らかにされる。
作業環境と、本実施形態に係る遠隔作業ロボット制御システムの機器構成を示す図である。 本実施形態に係る遠隔作業ロボット制御システムの全体構成を示す機能ブロック図である。 本実施形態の遠隔作業ロボット制御システムにおける、作業ロボットと自律監視ロボットの動作制御処理の処理内容を概略的に示すPAD(Problem Analysis Diagram)図である。 本実施形態の遠隔作業ロボット制御システムにおける、作業ロボット関節角度センサ信号から自律監視動作への変換処理フローを示すPAD図である。 本実施形態の遠隔作業ロボット制御システムにおける、センサ信号による作業フェーズ判定例を示す図である。 本実施形態の遠隔作業ロボット制御システムにおける、センサ信号による作業フェーズ判定例を示す図である。 本実施形態の遠隔作業ロボット制御システムにおける、目標となる幾何学配置の関係例を示す図である。 本実施形態の遠隔作業ロボット制御システムにおける、目標となる幾何学配置の決定例を示す図である。 本実施形態の遠隔作業ロボット制御システムにおける、目標となる幾何学配置の決定例を示す図である。
本発明の遠隔作業ロボット制御システムおよび遠隔作業ロボットの制御方法の一実施の形態を、図1乃至図6Cを用いて説明する。
本実施の形態では、対象物が未知な状況、かつ高放射線環境において作業装置が運搬作業を実施する場合を例示しながら遠隔作業ロボット(作業ロボット7および自律監視ロボット10)を制御するための遠隔作業ロボット制御システム1000の内容を説明する。
最初に、遠隔作業ロボット制御システム1000の概要について図1および図2を用いて説明する。図1は、本実施の形態に係る作業環境における機器構成を示す図である。図2は、作業ロボットの遠隔作業ロボットの制御システムの全体構成を示す機能ブロック図である。
図1および図2において、オペレータ1の居る場所とは異なる作業環境(遠隔地)13には、作業ロボット7が存在しており、対象物12に対する作業をアーム機構(把持アーム)71および移動機構72により実施する。本実施の形態では、作業ロボット7は移動機構72としてクローラ型、作業機構としてのアーム機構71をマニピュレータ型とする構成としているが、それらに限定はされない。
作業ロボット7は作業ロボット制御装置6と有線および/または無線で接続されており、作業ロボット制御装置6はデータ処理装置5と接続されている。
作業ロボット7のアーム機構71の各駆動部には、作業フェーズ判定用として関節角度センサ(作業ロボットセンサ)8が取り付けられている。この関節角度センサ8は、例えば、作業ロボット7内に搭載された、各駆動部の移動量や回転量を検出する検出装置としてのレーザ距離計、エンコーダ、ポテンショメータ、傾斜計、地磁気センサ、ジャイロセンサのうち、いずれか一つ以上とすることができる。なお、関節角度センサ8に加えて、対象物12との相互作用を検出する検出装置としてのとして周辺環境の映像データを取得するカメラ、超音波距離計、周辺環境や対象物12の形状を測定するレーザ距離計、ロボットの手先に加わる力・トルクを測定する力・トルクセンサ、温度計、感圧センサ、各駆動部の動作を検出する検出装置としての電流センサ、のうちいずれか一つ以上を用いることができるとともに、関節角度センサ8の代わりにこれらのセンサのうちいずれか一つ以上を用いることができる。
作業を管理・監視するオペレータ1は、オペレータ1による作業ロボット7の操作を指示するジョイスティックコントローラ(操作装置)3を用いて操作制御装置4へ作業指示を入力し、作業ロボット7を操作する。
このオペレータ1の居る環境にはオペレータ1の挙動を検出することで作業フェーズを判定するために用いられるオペレータセンサとして、監視映像表示部45に表示された監視映像中でのオペレータ1の注視点を検出する視線計測装置2が設けられている。
なお、オペレータセンサは、視線計測装置2の他に、オペレータの操作を検知する力・トルクセンサ、感圧センサ、地磁気センサ、ジャイロセンサ、加速度センサ等の装着型センサ、モーションキャプチャ等の非接触型センサを一つ以上用いることができる。
自律監視ロボット10は、作業ロボット7による遠隔作業を監視するロボットであり、自律監視ロボット10を移動させる移動機構102と、作業ロボット7を撮像する監視カメラと、この監視カメラを把持するアーム機構101と、自律監視ロボット10の各駆動部に取り付けられた関節角度センサ(自律監視ロボットセンサ)100を有している。監視カメラは、光学カメラ11、超音波スキャナ、レーザスキャナのいずれか1つとすることができる。ここでは光学カメラ11とする。
自律監視ロボット10は自律監視ロボット制御装置9と有線および/または無線で接続されており、自律監視ロボット制御装置9はデータ処理装置5と接続されている。
自律監視ロボット10では、オペレータ1が装着した視線計測装置2と作業ロボット7の関節角度センサ8からの信号をもとに、データ処理装置5において作業フェーズを判定し、自律監視ロボット制御装置9において自律監視ロボット10の動作を生成する。作業中は、オペレータ1は、自律監視ロボット10に取り付けた光学カメラ11からの監視映像を通して、作業の進行状況や装置の状態等を監視することが可能となっている。
監視映像表示部(表示装置)45は、自律監視ロボット10の光学カメラ11が撮像した監視映像を表示する液晶等のディスプレイである。
操作制御装置4はジョイスティックコントローラ3によるオペレータ1の操作信号の入力を受けて作業ロボット7を操作する操作信号を生成する装置であり、操作入力部40、目標値算出部41、注視点位置パターン検出部(パターン検出部)42、監視映像出力部43、およびデータ送受信部44を含んでいる。
操作入力部40は、オペレータ1がジョイスティックコントローラ3を用いた操作入力を操作制御装置4へ取り込む部分である。
目標値算出部41は、操作入力部40において取り込んだ操作入力に基づいて作業ロボット7の目標動作を算出する部分である。
注視点位置パターン検出部42は、オペレータ1が装着した視線計測装置2により監視映像表示部45に表示された監視映像中でオペレータ1が注視する作業位置パターンを検出する部分である。
監視映像出力部43は、オペレータ1への監視映像を監視映像表示部45に対して出力する部分である。
データ送受信部44は、データ処理装置5とのデータの送受信を管理する部分である。
データ処理装置5は、視線計測装置2や関節角度センサ8からのセンサ情報に基づいて自律監視ロボット10による自律監視動作のための制御動作信号を生成する装置であり、データ送受信部50、作業フェーズ判定部51、記憶部53、カメラ位置・姿勢生成部52、および自律動作算出部55を含んでいる。
データ送受信部50は、操作制御装置4、作業ロボット制御装置6、自律監視ロボット制御装置9とのデータ授受を管理する部分である。
作業フェーズ判定部51は、作業のフェーズを判定する部分である。この作業フェーズ判定部51では、作業ロボット7に搭載された関節角度センサ8の信号から作業ロボット7のアーム機構71の操作速度を求め、アーム機構71の操作速度およびアーム機構71と対象物12との距離との関係から作業フェーズを判定し、判定した作業フェーズに適した制御動作信号を生成する。また、作業フェーズ判定部51は、視線計測装置2によって取得したオペレータ1の注視点に基づいて作業フェーズを判定,生成し、判定した作業フェーズをカメラ位置・姿勢生成部52に出力する。
記憶部53は、作業フェーズ判定部51での作業フェーズを判断するために用いる作業訓練データ54を格納するハードディスクやRAMから構成される装置である。
カメラ位置・姿勢生成部52は、作業フェーズの推定結果と、作業ロボット7と対象物12との幾何学的位置関係と、から光学カメラ11の位置を生成する部分である。
自律動作算出部55は、光学カメラ11をカメラ目標位置に配置するための自律監視ロボット10の動作に必要な動作信号を生成する部分である。
作業ロボット制御装置6は、ジョイスティックコントローラ3によって入力され、操作制御装置4内で生成された操作信号を作業ロボット7の指令信号に変換する装置であり、データ送受信部60、指令電圧算出部61、およびロボット制御部62を含んでいる。
データ送受信部60は、データ処理装置5とデータの授受を行う部分である。
指令電圧算出部61は、データ処理装置5から送信される作業ロボット7の指令信号から作業ロボット7の移動機構72とアーム機構71の目標制御量(移動機構72のクローラ回転速度、アーム機構71の各関節の関節角度)を算出する部分である。
ロボット制御部62は、算出された目標値と作業ロボット7の各駆動部に内蔵される関節角度センサ8の信号から算出される現在角度(現在姿勢)を用いて作業ロボット7の各駆動部の目標指令電圧を生成する部分である。
自律監視ロボット制御装置9は、データ処理装置5で生成された制御動作信号を自律監視ロボット10の指令信号に変換する装置であり、データ送受信部90、指令電圧算出部91、ロボット制御部92、および監視映像取得部93を含んでいる。
データ送受信部90は、データ処理装置5とデータの授受を行う部分である。
指令電圧算出部91は、データ処理装置5から送信される自律監視ロボット10の指令信号から自律監視ロボット10の移動機構102とアーム機構101の目標制御量(移動機構102のクローラ回転速度、アーム機構101の各関節の関節角度)を算出する部分である。
ロボット制御部92は、算出された目標値と自律監視ロボット10の各駆動部に内蔵される関節角度センサ100の信号から算出される現在角度(現在姿勢)を用いて自律監視ロボット10の各駆動部の目標指令電圧を生成する部分である。
監視映像取得部93は、自律監視ロボット10のアーム機構101に取り付けられた光学カメラ11からの映像を取得する部分である。
なお、操作制御装置4、データ処理装置5、作業ロボット制御装置6、および自律監視ロボット制御装置9の各装置は、統合・分割が適宜可能であり、図1,2の構成に限定されない。例えば、操作制御装置4とデータ処理装置5を統合して一つの装置にしても良いし、作業ロボット制御装置6を移動機構用と作業機構用に分割しても良い。また、各装置間は有線ケーブルにより接続されているが無線化されたシステム構成でも良い。
次に、本実施の形態に係る作業ロボット7および自律監視ロボットからなる遠隔作業ロボットの制御処理の方法について図3乃至図6Cを参照して説明する。
図3は、本実施形態の遠隔作業ロボット制御システムによる作業ロボットの動作制御処理および自律監視ロボット制御処理内容を概略的に示すPAD図である。図4は、本実施形態の遠隔作業ロボット制御システムにおける、作業ロボット関節角度センサ信号から自律監視動作への変換処理フローを示すPAD図である。
最初に、遠隔作業ロボットの制御処理の全体の流れについて図3を用いて説明する。なお、遠隔作業ロボット制御システム1000では、図3に示す処理を電源がONの間は実行し続ける。
図3において、遠隔作業ロボット制御システム1000は、まず、作業ロボット7の関節角度センサ8を初期化する(ステップS1)。
次に、オペレータ1によって操作指示が入力されたことを認識する(ステップS10)と、以下の処理を開始する。
最初に、入力信号に応じて移動機構72の移動方向・移動速度を算出(ステップS11)して、移動機構72の制御量(クローラ等の電圧指令値)を生成(算出)する(ステップS12)。また、オペレータ1が操作指示するアーム手先位置からアーム機構71の各関節座標を求める逆運動学を用いて、目標関節の位置・角度を算出(ステップS13)して、アーム機構71の制御量(各関節モータの電圧指令値)を生成(算出)する(ステップS14)。
次に、作業ロボット7の動作生成処理を開始する(ステップS20)。このステップS20は、オペレータ1の操作指示による作業ロボット7の操作信号を作業ロボット7の指令信号に変換する作業ロボット制御ステップであり、上述したステップS12,S14において作業指示から算出されたロボットの制御量を基に、作業ロボット7の目標動作を生成する。
ステップS20では、まず、ステップS12,S14で算出された移動機構72・アーム機構71の電圧指令値を読み込む(ステップS21)と、各モータへの電圧指令値を出力する(ステップS22)。その後、作業ロボット7に搭載した関節角度センサ8の情報を基に、作業ロボット7の状態を検出し(ステップS23)、データ処理装置5を介して操作制御装置4に向けて関節角度センサ8の取得データを送信する(ステップS24)。
次に、作業ロボット制御装置6から得られる情報を基に、作業状況を分析する(ステップS30)。このステップS30は、オペレータ1の挙動を検出する視線計測装置2および作業ロボット7の各駆動部に取り付けられた関節角度センサ8とからのセンサ情報に基づいて自律監視ロボット10による自律監視動作のための制御動作信号を生成するデータ処理ステップである。
ステップS30では、まず、データ処理装置5から出力された作業ロボット7の関節角度センサ8の取得データを受信する(ステップS31)。次いで、取得データから作業ロボット7の姿勢を順運動学により導出する(ステップS32)。その後、作業アームの姿勢と対象物12との位置関係(アーム機構71と対象物12との距離との関係)や作業アームの姿勢の時間変化などの動作信号(アーム機構71の操作速度)や、注視点位置パターン(オペレータ1の注視点)により作業フェーズを判定する(ステップS33)。その後、ステップS33で判定した作業フェーズに応じて、作業ロボット7と対象物12との位置関係から光学カメラ11の目標位置・姿勢を生成する(ステップS34)。次いで、ステップS34で生成した光学カメラ11の目標位置・姿勢となるような自律監視ロボット10の自律動作(移動機構102の制御量等)を算出する(ステップS35)。その後、自律監視ロボット10のアーム機構101の制御量(各関節モータの電圧指令値)を生成する(ステップS36)。
次に、ステップS30において算出された自律監視ロボット10の制御量を基に、自律監視ロボット10の目標動作を生成する動作生成処理を開始する(ステップS40)。このステップS40はデータ処理ステップ中のステップS35で生成された制御動作信号を自律監視ロボット10の指令信号に変換する自律監視ロボット制御ステップである。
ステップS40では、まず、ステップS35で算出された移動機構102・アーム機構101の電圧指令値を読み込む(ステップS41)と、各モータへの電圧指令値を出力する(ステップS42)。その後、自律監視ロボット10に搭載した光学カメラ11で監視映像を取得し(ステップS43)、取得した監視映像をデータ処理装置5に向けて送信する(ステップS44)。
次に、オペレータ1への監視映像の提示を開始する(ステップS50)。このステップS50は自律監視ロボット10の光学カメラ11が撮像した監視映像を表示する表示ステップである。
ステップS50では、最初に、操作制御装置4の監視映像出力部43はステップS44で出力された監視映像を受信(ステップS51)し、次いで、監視映像を監視映像表示部45に対して出力する(ステップS52)。
ここで、図4を用いて、ステップS33のアーム動作信号、注視点位置パターンによる作業フェーズ判定処理の詳細について説明する。
図4において、最初に、作業ロボット7に搭載した関節角度センサ8のデータを読み込むとともに、視線計測装置2から監視映像表示部45に表示された監視映像におけるオペレータ1の注視点位置パターンを読み込む(ステップS100)。
その後、作業ロボット7の位置・姿勢・移動速度を導出(ステップS101)して、対象物12とアーム機構71との幾何学的位置関係を検出する(ステップS102)。
その後、導出,検出した現在の作業ロボット7の位置・姿勢・移動速度や幾何学的位置関係と、予めトレーニング等で取得し、記憶部53において記憶しておいた作業訓練データ54における、作業ロボット7の位置,姿勢,移動速度,対象物12との位置関係やオペレータ1の注視点位置などの動作信号とから、作業フェーズを判定する(ステップS103)。
また、作業訓練データ54を現状作業用に更新していくために、現状の動作信号と作業フェーズの組み合わせを記録する(ステップS104)。以上が作業フェーズ判定処理の基本処理となる。
次いで、図3のステップS30中のステップS33の作業フェーズの判定の一例について図5A乃至図6Cを用いて詳しく説明する。
図5Aおよび図5Bは、本実施形態の遠隔作業ロボット制御システムにおける、センサ信号による作業フェーズ判定例を示す図である。図6Aは、本実施形態の遠隔作業ロボット制御システムにおける、目標となる幾何学配置の関係例を示す図、図6Bおよび図6Cは、目標となる幾何学配置の決定例を示す図である。
まず、図5Aおよび図5Bを用いて、遠隔作業を把持としたときの作業ロボット7のアーム機構71の操作速度とアーム機構71と対象物12との距離との関係に基づいた作業フェーズの判定処理の一例を説明する。
本実施形態のような遠隔作業ロボットの制御方法では、予め、把持完了までの作業フェーズを、アーム機構71が対象物12に対して近づいたり離れたりする「接近フェーズ」、アーム機構71によって対象物12を把持するための微妙な位置を調整する「位置調節フェーズ」、および対象物12と作業ロボット7の距離の近さに比べてアーム機構71の速度が速く、通常の操作ではない場合である「異常操作フェーズ」、の3段階に設定しておく。また、各作業フェーズの境界を、オペレータ1の遠隔操作の事前訓練時のデータから求めておき、図5Aに示すような作業訓練データ54として記憶部53に記憶させておく。
実際の遠隔作業時は、作業フェーズ判定部51において、作業ロボット7のアーム機構71と対象物12との距離の値と作業ロボット7のアーム機構71の速度の値の組み合わせが、図5A中のどこに位置するのかをオンラインで判定し、判定した位置が属する作業フェーズをカメラ位置・姿勢生成部52に対して出力する。
この時、作業ロボット1のアーム機構71が0のときは、操作停止中であり、「現状維持フェーズ」であると判定する。
対象物と作業ロボットの距離が0のときは、把持動作中であるとして「作業フェーズ」であると判定する。この場合、操作制御装置4の監視映像表示部45に「把持可能」との表示を行うよう監視映像表示部45に向けた信号を出力することが望ましい。
なお、本ステップにおける作業フェーズ判定部51では、図4のステップS104に示すように、現状の動作信号と判定した作業フェーズの組合せを記録しておき、図5Bに示すようにオペレータ1、作業環境13に応じて作業フェーズの境界値を更新し、記憶部53で記憶しておくことが望ましい。
また、異常操作フェーズであるときは、不測の事態の発生が生じることを抑制するために、アーム機構71や移動機構72の動作を停止したり、オペレータ1のジョイスティックコントローラ3からの操作入力信号を無効化したりするための信号をカメラ位置・姿勢生成部52を介して出力することが望ましい。
次に、図6A乃至図6Cを用いて、オペレータが装着した視線計測装置2によって取得したオペレータ1の注視点位置パターンを用いた作業フェーズの判定処理の一例について説明する。
作業フェーズ判定部51では、図6Aに示すように、監視映像中の注視点の位置を作業ロボット本体J1、作業ロボット手先J2、対象物J3の3領域に分ける。
このように注視点を分けたときに、作業フェーズ判定部51では、図6Bや図6Cに示すように、オペレータ1が各領域をどの程度の時間注視したかを注視点毎に求め、作業ロボット7を操作する単位時間当たりに各位置を注視する割合(注視割合)を求める。そして求めた中止割合から作業フェーズを判定する。
例えば、図6Bに示すように、作業ロボット本体J1、作業ロボット手先J2、対象物J3の各領域を比較的均等に注視しているときは、「接近フェーズ」であると判定する。また、図6Cに示すように、作業ロボット本体J1に比べて作業ロボット手先J2、対象物J3を注視している割合が高いときは、「位置調節フェーズ」であると判定する。
なお、注視点がJ1,J2,J3とは異なる領域である割合が高いと判定されたときや、オペレータ1が当該監視画像を注視しておらずに単位時間当たりの注視点がほとんど存在しないと判定されたときは、「現状維持フェーズ」であると判定することが望ましい。
また、本ステップにおける作業フェーズ判定部51では、図4のステップS104や図5Bに示すときと同様に、現状の注視割合と作業フェーズの組合せを記録し、作業フェーズの境界値を更新し、記憶部53で記憶しておくことが望ましい。
また、図5Aおよび図5Bに示すような作業ロボット7のアーム機構71の操作速度とアーム機構71と対象物12との距離との関係に基づいた作業フェーズの判定結果と、図6A乃至図6Cに示すような視線計測装置2によって取得したオペレータ1の注視点に基づいた作業フェーズの判定結果とが異なる場合は、作業フェーズ判定部51は、どちらを優先してもよく、優先順位を設けておくことができる。
次いで、図3のステップS30中のステップS34の自律監視ロボット10に設けられた光学カメラ11の位置の算出方法の一例について説明する。
カメラ位置・姿勢生成部52では、作業フェーズ判定部51において作業フェーズが「接近フェーズ」と判定されたときは、光学カメラ11による監視画像中に作業ロボット7全体や対象物12が写り、位置関係が分かりやすい位置を生成する。また、判定された作業フェーズが「位置調整フェーズ」や「作業フェーズ」のときは、光学カメラ11が対象物12や作業ロボット7のアーム機構71をズームするような位置を生成する。更には、「現状維持フェーズ」と判定されたときは、現在の位置を維持するように位置信号を生成する。
これらに対し、判定された作業フェーズが「異常操作」であった時は、自律監視ロボット10の光学カメラ11の位置、姿勢は現状維持を図るために、新たな位置、姿勢の算出は行わない。またこの場合、操作制御装置4の監視映像表示部45に「異常操作」がなされている旨の警告表示を行うよう監視映像表示部45に対する信号を出力することが望ましい。
次に、本実施の形態の効果について説明する。
上述した本発明の実施形態の遠隔作業ロボット制御システム1000や、遠隔作業ロボットの制御方法によれば、視線計測装置2および関節角度センサ8とのうち少なくともいずれか一方からのセンサ情報に基づいてオペレータ1の作業を分類し、自律監視ロボット10の自律監視動作に必要な動作信号を生成する。このため、作業ロボット7の操作に関連した動作から作業に必要となる監視映像をオペレータ1の意図を反映させて自律的に取得することができ、監視オペレータを配置することなく、従来技術では困難であった作業中に生じる作業環境や作業状況の変化に柔軟に対応することができるようになる。また、監視オペレータが不要になるため、オペレータ間の意思疎通に時間を要することがなくなり、少数のオペレータで複数ロボットを操作することが可能となる。
また、データ処理装置5は、作業ロボット7のアーム機構71の操作速度とアーム機構71と対象物12との距離との関係から作業フェーズを判定し、判定した作業フェーズに適した制御動作信号を生成するため、高い精度でオペレータ1の意図を反映させた監視映像を取得することができ、作業中に生じる作業環境や作業状況の変化に対してより柔軟に対応することができる。
更に、オペレータセンサは、監視映像表示部45に表示された監視映像中でのオペレータ1の注視点を検出する視線計測装置2であり、データ処理装置5は、視線計測装置2によって取得したオペレータ1の注視点に基づいて作業フェーズを判定し、判定した作業フェーズに適した制御動作信号を生成することによっても、高い精度でオペレータ1の意図を反映させた監視映像を取得することができ、作業中に生じる作業環境や作業状況の変化に対してより柔軟に対応することができる。
<その他>
なお、本発明は上記した実施の形態に限定されるものではなく、様々な作業例(切断、穿孔等)が含まれる。また、上記した実施の形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも全ての機能に限定されるものではない。また、上記の各構成、機能等は、それらの一部又は全部を、例えば集積回路で設計する等により実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。
1…オペレータ
2…視線計測装置
3…ジョイスティックコントローラ
4…操作制御装置
5…データ処理装置
6…作業ロボット制御装置
7…作業ロボット
8…関節角度センサ
9…自律監視ロボット制御装置
10…自律監視ロボット
11…光学カメラ
12…対象物
13…作業環境
40…操作入力部
41…目標値算出部
42…注視点位置パターン検出部
43…監視映像出力部
44…データ送受信部
45…監視映像表示部
50…データ送受信部
51…作業フェーズ判定部
52…カメラ位置・姿勢生成部
53…記憶部
54…作業訓練データ
55…自律動作算出部
60…データ送受信部
61…指令電圧算出部
62…ロボット制御部
71…アーム機構
72…移動機構
90…データ送受信部
91…指令電圧算出部
92…ロボット制御部
93…監視映像取得部
100…関節角度センサ
101…アーム機構
102…移動機構
1000…遠隔作業ロボット制御システム

Claims (13)

  1. オペレータの居る場所とは異なる遠隔地に配置された作業ロボットと、
    前記オペレータによる前記作業ロボットの操作を指示する操作装置と、
    前記操作装置による前記オペレータの操作信号の入力を受けて前記作業ロボットを操作する操作信号を生成する操作制御装置と、
    前記操作信号を前記作業ロボットの指令信号に変換する作業ロボット制御装置と、
    前記作業ロボットの各駆動部に取り付けられた作業ロボットセンサと、
    前記作業ロボットを撮像する監視カメラを有し、前記作業ロボットによる遠隔作業を監視する自律監視ロボットと、
    前記オペレータの挙動を検出するオペレータセンサと、
    前記オペレータセンサおよび前記作業ロボットセンサとのうち少なくともいずれか一方からのセンサ情報に基づいて前記自律監視ロボットによる自律監視動作のための制御動作信号を生成するデータ処理装置と、
    前記データ処理装置で生成された前記制御動作信号を前記自律監視ロボットの指令信号に変換する自律監視ロボット制御装置と、
    前記自律監視ロボットの前記監視カメラが撮像した監視映像を表示する表示装置と、を備えた
    ことを特徴とする遠隔作業ロボット制御システム。
  2. 請求項1に記載の遠隔作業ロボット制御システムにおいて、
    前記データ処理装置は、前記作業ロボットの把持アームの操作速度と前記把持アームと対象物との距離との関係から作業フェーズを判定し、判定した作業フェーズに適した前記制御動作信号を生成する
    ことを特徴とする遠隔作業ロボット制御システム。
  3. 請求項1に記載の遠隔作業ロボット制御システムにおいて、
    前記オペレータセンサは、前記表示装置に表示された監視映像中でのオペレータの注視点を検出する視線計測装置であり、
    前記データ処理装置は、前記視線計測装置によって取得したオペレータの注視点に基づいて作業フェーズを判定し、判定した作業フェーズに適した前記制御動作信号を生成する
    ことを特徴とする遠隔作業ロボット制御システム。
  4. 請求項1に記載の遠隔作業ロボット制御システムにおいて、
    前記データ処理装置は、
    前記操作制御装置、前記作業ロボット制御装置、前記自律監視ロボット制御装置とのデータ授受を管理するデータ送受信部、
    前記オペレータセンサと前記作業ロボットセンサの信号から遠隔作業のフェーズを推定する作業フェーズ判定部、
    前記作業フェーズ判定部での作業フェーズを判断するために用いる作業訓練データを格納する記憶部、
    前記作業フェーズの推定結果と、前記作業ロボットと対象物との幾何学的位置関係と、から前記監視カメラの位置を生成するカメラ位置・姿勢生成部、
    前記監視カメラを目標位置に配置するための前記自律監視ロボットの動作に必要な動作信号を生成する自律動作算出部、を含む
    ことを特徴とする遠隔作業ロボット制御システム。
  5. 請求項1に記載の遠隔作業ロボット制御システムにおいて、
    前記操作制御装置は、
    前記オペレータの操作入力を取り込む操作入力部、
    取り込んだ前記操作入力に基づいて前記作業ロボットの目標動作を算出する目標値算出部、
    前記オペレータへの監視映像を出力する監視映像出力部、
    データの送受信を管理するデータ送受信部、を含む
    ことを特徴とする遠隔作業ロボット制御システム。
  6. 請求項1に記載の遠隔作業ロボット制御システムにおいて、
    前記オペレータセンサは、視線計測装置、力・トルクセンサ、感圧センサ、地磁気センサ、ジャイロセンサ、加速度センサのいずれか一つ以上であり、
    前記操作制御装置は、前記表示装置に表示された監視映像中でのオペレータが対象とする作業位置を検出するパターン検出部を有する
    ことを特徴とする遠隔作業ロボット制御システム。
  7. 請求項1に記載の遠隔作業ロボット制御システムにおいて、
    前記作業ロボットセンサは、前記作業ロボット内に搭載され、前記各駆動部の移動量や回転量を検出する検出装置としてのレーザ距離計、エンコーダ、ポテンショメータ、傾斜計、地磁気センサ、ジャイロセンサ、対象物との相互作用を検出する検出装置としてのとしてカメラ、超音波距離計、レーザ距離計、力・トルクセンサ、温度計、感圧センサ、前記各駆動部の動作を検出する検出装置としての電流センサ、のうちいずれか一つ以上である
    ことを特徴とする遠隔作業ロボット制御システム。
  8. 請求項1に記載の遠隔作業ロボット制御システムにおいて、
    作業ロボット制御装置は、
    前記データ処理装置とデータの授受を行うデータ送受信部、
    前記作業ロボットの指令信号から前記作業ロボットの移動機構およびアーム機構の目標制御値を算出する指令電圧算出部、
    算出された目標制御値と前記作業ロボットセンサの信号から算出される現在姿勢とを用いて前記作業ロボットの各駆動部の目標指令電圧を生成するロボット制御部、を含む
    ことを特徴とする遠隔作業ロボット制御システム。
  9. 請求項1に記載の遠隔作業ロボット制御システムにおいて、
    前記自律監視ロボットの各駆動部に取り付けられた自律監視ロボットセンサを更に備え、
    前記自律監視ロボット制御装置は、
    前記データ処理装置とデータの授受を行うデータ送受信部、
    前記制御動作信号から前記自律監視ロボットの移動機構およびアーム機構の目標制御値を算出する指令電圧算出部、
    算出された目標制御値と前記自律監視ロボットセンサの信号から算出される現在姿勢とを用いて前記自律監視ロボットの各駆動部の目標指令電圧を生成するロボット制御部、
    前記監視カメラからの映像を取得する監視映像取得部、を含む
    ことを特徴とする遠隔作業ロボット制御システム。
  10. 請求項1に記載の遠隔作業ロボット制御システムにおいて、
    前記監視カメラは、光学カメラ、超音波スキャナ、レーザスキャナのいずれか1つを含む
    を特徴とする遠隔作業ロボット制御システム。
  11. オペレータの居る場所とは異なる遠隔地に配置された作業ロボット、および前記作業ロボットを撮像する監視カメラを有し、前記作業ロボットによる遠隔作業を監視する自律監視ロボットからなる遠隔作業ロボットの制御方法であって、
    前記オペレータの操作指示による前記作業ロボットの操作信号を前記作業ロボットの指令信号に変換する作業ロボット制御ステップと、
    前記オペレータの挙動を検出するオペレータセンサおよび前記前記作業ロボットの各駆動部に取り付けられた作業ロボットセンサとのうち少なくともいずれか一方からのセンサ情報に基づいて前記自律監視ロボットによる自律監視動作のための制御動作信号を生成するデータ処理ステップと、
    前記データ処理ステップで生成された前記制御動作信号を前記自律監視ロボットの指令信号に変換する自律監視ロボット制御ステップと、
    前記自律監視ロボットの前記監視カメラが撮像した監視映像を表示する表示ステップと、を有する
    ことを特徴とする遠隔作業ロボットの制御方法。
  12. 請求項11に記載の遠隔作業ロボットの制御方法において、
    前記データ処理ステップでは、前記作業ロボットの把持アームの操作速度と前記把持アームと対象物との距離との関係から作業フェーズを判定し、判定した作業フェーズに適した前記制御動作信号を生成する
    ことを特徴とする遠隔作業ロボットの制御方法。
  13. 請求項11に記載の遠隔作業ロボットの制御方法において、
    前記オペレータセンサは、前記表示ステップにより表示された監視映像中でのオペレータの注視点を検出する視線計測装置であり、
    前記データ処理ステップでは、前記視線計測装置によって取得したオペレータの注視点に基づいて作業フェーズを判定し、判定した作業フェーズに適した前記制御動作信号を生成する
    ことを特徴とする遠隔作業ロボットの制御方法。
JP2017110121A 2017-06-02 2017-06-02 遠隔作業ロボット制御システムおよび遠隔作業ロボットの制御方法 Active JP6807280B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017110121A JP6807280B2 (ja) 2017-06-02 2017-06-02 遠隔作業ロボット制御システムおよび遠隔作業ロボットの制御方法
PCT/JP2018/016084 WO2018221053A1 (ja) 2017-06-02 2018-04-19 遠隔作業ロボット制御システムおよび遠隔作業ロボットの制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017110121A JP6807280B2 (ja) 2017-06-02 2017-06-02 遠隔作業ロボット制御システムおよび遠隔作業ロボットの制御方法

Publications (2)

Publication Number Publication Date
JP2018202541A true JP2018202541A (ja) 2018-12-27
JP6807280B2 JP6807280B2 (ja) 2021-01-06

Family

ID=64455380

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017110121A Active JP6807280B2 (ja) 2017-06-02 2017-06-02 遠隔作業ロボット制御システムおよび遠隔作業ロボットの制御方法

Country Status (2)

Country Link
JP (1) JP6807280B2 (ja)
WO (1) WO2018221053A1 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020068822A (ja) * 2018-10-29 2020-05-07 株式会社大一商会 遊技機
JP2020068821A (ja) * 2018-10-29 2020-05-07 株式会社大一商会 遊技機
JP2020068827A (ja) * 2018-10-29 2020-05-07 株式会社大一商会 遊技機
JP2020068824A (ja) * 2018-10-29 2020-05-07 株式会社大一商会 遊技機
JP2020068823A (ja) * 2018-10-29 2020-05-07 株式会社大一商会 遊技機
WO2021025955A1 (en) * 2019-08-02 2021-02-11 Dextrous Robotics, Inc. Systems and methods for robotic control under contact
US11281906B2 (en) 2019-06-21 2022-03-22 Fanuc Corporation Monitor device provided with camera for capturing motion image of motion of robot device
US11845184B2 (en) 2022-04-18 2023-12-19 Dextrous Robotics, Inc. System and/or method for grasping objects

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109693238B (zh) * 2018-12-18 2020-12-08 航天时代电子技术股份有限公司 一种多传感器信息显示方法、设备和人体随动遥操作机器人

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05233059A (ja) * 1992-02-25 1993-09-10 Toshiba Corp 分散作業ロボットシステム
JPH0811071A (ja) * 1994-06-29 1996-01-16 Yaskawa Electric Corp マニピュレータの制御装置
JPH0976063A (ja) * 1995-09-16 1997-03-25 Sanshiyuuzen Kogyo Kk 溶接装置
JP2017064831A (ja) * 2015-09-29 2017-04-06 日立Geニュークリア・エナジー株式会社 遠隔作業支援システム及び遠隔作業支援方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05233059A (ja) * 1992-02-25 1993-09-10 Toshiba Corp 分散作業ロボットシステム
JPH0811071A (ja) * 1994-06-29 1996-01-16 Yaskawa Electric Corp マニピュレータの制御装置
JPH0976063A (ja) * 1995-09-16 1997-03-25 Sanshiyuuzen Kogyo Kk 溶接装置
JP2017064831A (ja) * 2015-09-29 2017-04-06 日立Geニュークリア・エナジー株式会社 遠隔作業支援システム及び遠隔作業支援方法

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020068822A (ja) * 2018-10-29 2020-05-07 株式会社大一商会 遊技機
JP2020068821A (ja) * 2018-10-29 2020-05-07 株式会社大一商会 遊技機
JP2020068827A (ja) * 2018-10-29 2020-05-07 株式会社大一商会 遊技機
JP2020068824A (ja) * 2018-10-29 2020-05-07 株式会社大一商会 遊技機
JP2020068823A (ja) * 2018-10-29 2020-05-07 株式会社大一商会 遊技機
US11281906B2 (en) 2019-06-21 2022-03-22 Fanuc Corporation Monitor device provided with camera for capturing motion image of motion of robot device
WO2021025955A1 (en) * 2019-08-02 2021-02-11 Dextrous Robotics, Inc. Systems and methods for robotic control under contact
US11548152B2 (en) 2019-08-02 2023-01-10 Dextrous Robotics, Inc. Systems and methods for robotic control under contact
US11845184B2 (en) 2022-04-18 2023-12-19 Dextrous Robotics, Inc. System and/or method for grasping objects

Also Published As

Publication number Publication date
JP6807280B2 (ja) 2021-01-06
WO2018221053A1 (ja) 2018-12-06

Similar Documents

Publication Publication Date Title
WO2018221053A1 (ja) 遠隔作業ロボット制御システムおよび遠隔作業ロボットの制御方法
JP6420229B2 (ja) 仮想物体の画像をロボットの映像に重畳表示する映像表示装置を備えるロボットシステム
US9002517B2 (en) Telematic interface with directional translation
JP5022868B2 (ja) 情報処理装置、情報処理方法
US20160303739A1 (en) Robotic Systems and Methods of Operating Robotic Systems
JP6445092B2 (ja) ロボットの教示のための情報を表示するロボットシステム
RU2012142510A (ru) Роботизированная хирургическая системы с усовершенствованным управлением
JP2010060344A (ja) 空間情報表示装置及び支援装置
JP2015043488A (ja) 遠隔操作装置及びそれを用いた遠隔施工方法
JP2006000977A (ja) ロボット環境間力作用状態呈示装置
US11618166B2 (en) Robot operating device, robot, and robot operating method
JP2011200997A (ja) ロボットのティーチング装置及びティーチング方法
JP3912584B2 (ja) 遠隔操作装置
JP2019000918A (ja) 作業用ロボットのアーム姿勢制御システムおよび方法
JP5361058B2 (ja) ロボット遠隔操縦システムとこれに用いる作業ロボット
KR101485075B1 (ko) 원격로봇 시스템
CN113752236B (zh) 机械臂示教的装置、标定杆和方法
US11926065B2 (en) Vision-based operation for robot
JP6679446B2 (ja) 作業ロボットの遠隔操作システム
Minamoto et al. Tele-Operation of Robot by Image Processing of Markers Attached to Operator's Head
KR20190091870A (ko) 모션센서와 vr을 활용한 로봇 제어 시스템
JP3376029B2 (ja) ロボットの遠隔操作装置
CN112743537A (zh) 注释装置
JP2022156954A (ja) 制御装置、ロボットシステム、制御方法、および、プログラム
KR20160094105A (ko) 로봇 제어 시각화 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201013

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201023

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201207

R150 Certificate of patent or registration of utility model

Ref document number: 6807280

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150