JP2022164027A - サーバ、遠隔操作システム、遠隔操作方法、およびプログラム - Google Patents

サーバ、遠隔操作システム、遠隔操作方法、およびプログラム Download PDF

Info

Publication number
JP2022164027A
JP2022164027A JP2021069233A JP2021069233A JP2022164027A JP 2022164027 A JP2022164027 A JP 2022164027A JP 2021069233 A JP2021069233 A JP 2021069233A JP 2021069233 A JP2021069233 A JP 2021069233A JP 2022164027 A JP2022164027 A JP 2022164027A
Authority
JP
Japan
Prior art keywords
robot
information
unit
operator
intention
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021069233A
Other languages
English (en)
Inventor
裕太 木村
Yuta Kimura
智弘 川上
Tomohiro Kawakami
孝英 吉池
Takahide Yoshiike
謙一郎 杉山
Kenichiro Sugiyama
維昭 室町
Koreaki Muromachi
洋一 谷口
Yoichi Taniguchi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2021069233A priority Critical patent/JP2022164027A/ja
Priority to CN202311388284.1A priority patent/CN117336337A/zh
Priority to CN202210195963.6A priority patent/CN115225682B/zh
Priority to US17/720,271 priority patent/US20220331967A1/en
Publication of JP2022164027A publication Critical patent/JP2022164027A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

【課題】ロボットをより適切に動作させること。【解決手段】実施形態のサーバは、一以上のロボット装置および前記一以上のロボット装置のうち少なくとも一つを遠隔操作する一以上の操作端末とネットワークを介して通信する通信部と、前記操作端末によって入力された操作内容を取得する取得部と、前記取得部により取得された操作内容に基づいて前記操作端末の操作者の意図を推定する意図推定部と、前記意図推定部により推定された意図結果に基づいて前記ロボット装置の動作を制御する動作制御部と、を備える。【選択図】図2

Description

本発明は、サーバ、遠隔操作システム、遠隔操作方法、およびプログラムに関する。
従来、モニタ用端末または別の端末から送信されたデータにより、ロボットを遠隔操作して実験器具または実験装置を操作する技術が知られている(例えば、特許文献1参照)。
特開2003-092749号公報
しかしながら、従来の技術では、端末装置から指示できる内容に制限があるため、特定の作業しかロボットに行わせることができず、ロボットを適切に動作させることができない場合があった。
本発明の態様は、このような事情を考慮してなされたものであり、ロボットをより適切に動作させることができるサーバ、遠隔操作システム、遠隔操作方法、およびプログラムを提供することを目的の一つとする。
この発明に係るサーバ、遠隔操作システム、遠隔操作方法、およびプログラムは、以下の構成を採用した。
(1):この発明の一態様に係るサーバは、一以上のロボット装置および前記一以上のロボット装置のうち少なくとも一つを遠隔操作する一以上の操作端末とネットワークを介して通信する通信部と、前記操作端末によって入力された操作内容を取得する取得部と、前記取得部により取得された操作内容に基づいて前記操作端末の操作者の意図を推定する意図推定部と、前記意図推定部により推定された意図結果に基づいて前記ロボット装置の動作を制御する動作制御部と、を備える、サーバである。
(2):上記(1)の態様において、前記取得部は、前記ロボット装置の動作に関するロボット制御情報と、前記ロボット装置に設けられたセンサにより検出されたセンサ情報とを取得し、前記取得部により取得された前記ロボット制御情報と前記センサ情報とに、それぞれ異なるアクセス権を設定し、設定されたアクセス権が確認されたときに前記ロボット制御情報と前記センサ情報の何れかを取得可能とする管理部を更に備えるものである。
(3):上記(2)の態様において、前記管理部は、前記センサ情報のアクセス権の強度を、前記ロボット制御情報よりも大きくするものである。
(4):上記(1)から(3)のうち何れか1つの態様において、前記動作制御部は、複数の操作端末から取得した操作内容に基づいて一つのロボット装置の動作を制御する場合に、前記操作端末を操作する操作者の優先度に基づいて、前記ロボット装置の動作制御情報を生成するものである。
(5):上記(4)の態様において、前記動作制御部は、前記取得部により前記複数の操作端末から同一または類似の操作内容が取得された場合に、前記優先度の高い操作者からの操作内容を優先させて前記ロボット装置の動作を制御するものである。
(6):上記(4)または(5)の態様において、前記意図推定部は、前記一つのロボット装置を操作する複数の操作端末のそれぞれの操作者の意図を推定し、前記意図推定部により推定された前記それぞれの操作者の意図推定結果を前記複数の前記操作端末のそれぞれに出力させる出力制御部を更に備えるものである。
(7):本発明の他の態様は、上記(1)~(6)の何れかに記載されたサーバと、前記一以上のロボット装置と、前記一以上の操作端末と、を備える、遠隔操作システムである。
(8):本発明の他の態様は、コンピュータが、一以上のロボット装置および前記一以上のロボット装置のうち少なくとも一つを遠隔操作する一以上の操作端末とネットワークを介して通信し、前記操作端末によって入力された操作内容を取得し、取得した操作内容に基づいて前記操作端末の操作者の意図を推定し、推定した意図結果に基づいて前記ロボット装置の動作を制御する、遠隔操作方法である。
(9):本発明の他の態様は、コンピュータに、一以上のロボット装置および前記一以上のロボット装置のうち少なくとも一つを遠隔操作する一以上の操作端末とネットワークを介して通信させ、前記操作端末によって入力された操作内容を取得させ、取得された操作内容に基づいて前記操作端末の操作者の意図を推定させ、推定された意図結果に基づいて前記ロボット装置の動作を制御させる、プログラムである。
上記(1)~(9)の態様によれば、ロボットをより適切に動作させることができる。
上記(2)~(3)の態様によれば、データの機密性が守られる。したがって、例えば、アクセス権を持たない企業にセンサ情報を盗まれたり、改ざんされたりすることを防止することができ、システム全体のセキュリティを向上させることができる。また、アクセス権によって提供する情報を管理することで、様々な企業等に安心してサービスを利用させることができる。
上記(4)~(5)の態様によれば、複数の操作者によって操作された場合であっても、適切にロボットを操作させることができる。
上記(5)の態様によれば、複数の操作者に他の操作者によって操作されている状況を、より正確に把握することができる。したがって、より適切な操作内容を入力してロボット装置を動作させることができる。
実施形態に係る遠隔操作システム1の構成の一例を示す図である。 実施形態に係る管理サーバ100の構成の一例を示す図である。 意図推定情報172Bの内容について説明するための図である。 企業別利用者情報174Aの内容について説明するための図である。 企業別センサ情報174Bの内容について説明するための図である。 実施形態に係るロボット装置200の構成の一例を示す図である。 実施形態に係る操作端末300の構成の一例を示す図である。 本実施形態に係るロボット装置200の遠隔操作について説明するための図である。 操作端末300が表示する画像IM10の一例を示す図である。 優先度に基づく作業が実行された場合に操作端末300に表示される画像IM20の一例を示す図である。 ロボット装置に実行される動作を操作者に問い合わせる画像IM30の一例を示す図である。 ロボット装置200のモニタ214に表示される画像IM40の一例を示す図である。 実施形態における遠隔操作システム1によって実行される処理について説明するためのシーケンス図である。
以下、図面を参照し、本発明のサーバ、遠隔操作システム、遠隔操作方法、およびプログラムの実施形態について説明する。
[システム構成]
図1は、実施形態に係る遠隔操作システム1の構成の一例を示す図である。図1に示す遠隔操作システム1は、例えば、管理サーバ100と、ロボット装置200と、操作端末300と、を備える。また、管理サーバ100は、上記構成に加えて、ロボットメーカ端末400と、通信企業端末500とを備えていてもよい。管理サーバ100は、ロボット装置200、操作端末300、ロボットメーカ端末400、および通信企業端末500と、ネットワークNWを介して通信可能に接続されている。ネットワークNWは、例えば、インターネット、セルラー網、Wi-Fi(登録商標)網、WAN(Wide Area Network)、LAN(Local Area Network)、プロバイダ装置、無線基地局等を含む。遠隔操作システム1において、ロボット装置200および操作端末300は、それぞれが一以上備えていてもよい。図1の例では、ロボット装置200A、200B、および200Cが示されているが、ロボット装置の数や種類についてはこれに限定されない。また、図1の例では、複数の企業A,Bごとに管理された操作端末300A-1~300A-n(nは2以上の自然数)、300B-1~300B-nが示されているが、数等については、これに限定されない。以下、ロボット装置および操作端末のそれぞれを特に識別しない場合は、単に「ロボット装置200」、「操作端末300」と称して説明する。管理サーバ100は、「サーバ」の一例である。
管理サーバ100は、一以上の操作端末300と、操作対象の一以上のロボット装置200とを対応付けて管理する。この場合、管理サーバ100は、操作端末300ごとに1台のロボット装置200を対応付けてもよく、複数の操作端末300に1台のロボット装置200を対応付けてもよく、1つの操作端末300に複数のロボット装置200を対応付けてもよい。また、管理サーバ100は、操作端末300から入力された操作内容を取得し、操作内容に対応する動作制御情報をロボット装置200に送信することで、ロボット装置200の遠隔操作を実行させる。また、管理サーバ100は、ロボット装置200によって取得した情報を操作端末300に送信する。
ロボット装置200は、ネットワークNWを介して管理サーバ100から送信された制御情報に基づいて、所定の動作を実行する。ロボット装置200は、例えば、車輪や台車、クローラー、クレーン等を駆動させることによって移動することができる移動機構を備える。図1の例において、ロボット装置200Aは、少なくともクレーンによって移動可能な両腕を備えるロボットである。ロボット装置200Bは、下部に設けられた車輪によって移動可能な両腕を備えるロボットである。ロボット装置200Cは、二足歩行動作よって移動可能な両腕を備えるロボットである。また、ロボット装置200は、物体に対して、把持や移動、操作等の作業を実行するアーム部を備える。また、ロボット装置200には、振動や温度、圧力、触覚センサ等の各種のセンサが複数設けられ、各センサによって検出されたデータを所定周期または要求を受け付けたタイミングで管理サーバ100に送信する。また、ロボット装置200は、周辺を撮像するカメラや、画像を表示するモニタ、音声を出力するスピーカ、周辺の音を取得するマイク等を備えていてもよい。
操作端末300は、例えば、ロボット装置200を利用する企業ごとに一以上設けられている。操作端末300は、ロボット装置200の操作内容を入力したり、ロボット装置200により取得された情報を、操作者に通知する。操作端末300は、1台または複数のロボット装置200を操作可能である。また、操作端末300は、ロボット装置200の一部のパーツ(例えば、右手アームまたは左手アーム等)を操作してもよい。また、操作端末300は、例えば、HMD(ヘッドマウントディスプレイ)や操作装置、操作者の動きを検出する環境センサが設けられていてもよい。なお、操作端末300は、企業内施設に設けられているものに限定されず、操作者の自宅に設けられた端末でもよく、駅やデパート、公共施設、ネットカフェ等に設置されたテレワークステーションに設けられた端末でもよい。
ロボットメーカ端末400は、例えば、ロボット装置200の製造業者や管理会社が利用する端末である。ロボットメーカ端末400は、例えば、各ロボット装置200に搭載されたソフトウェア(プログラム)のバージョンを更新したり、ロボット装置200からのエラー情報を取得し、取得したエラー情報に基づいて、ロボット装置200の遠隔操作や停止制御等を行う。
通信企業端末500は、例えば、ネットワークNW上の通信を管理する通信事業者等が利用する端末である。通信企業端末500は、遠隔操作システム1に対し、遠隔操作のために通信されるデータ量を管理したり、通信の遅延等を管理し、システム内の通信環境のメンテナンス等を行う。また、通信企業端末500は、ネットワークNW上に障害が発生した場合の対応等を行ってもよい。
次に、管理サーバ100、ロボット装置200、および操作端末300の機能について具体的に説明する。
[管理サーバ]
図2は、実施形態に係る管理サーバ100の構成の一例を示す図である。管理サーバ100は、例えば、通信部110と、通信制御部120と、取得部130と、管理部140と、制御部150と、記憶部170とを備える。通信制御部120と、取得部130と、管理部140と、制御部150とは、それぞれ、例えばCPU(Central Processing Unit)等のハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。これらの構成要素のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)等のハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。これらの構成要素の機能のうち一部または全部は、専用のLSIによって実現されてもよい。プログラムは、予め管理サーバ100が備えるHDD(Hard Disk Drive)やフラッシュメモリ等の記憶装置(非一過性の記憶媒体を備える記憶装置)に格納されていてもよいし、DVDやCD-ROM等の着脱可能な記憶媒体(非一過性の記憶媒体)に格納されており、記憶媒体が、管理サーバ100が備えるドライブ装置に装着されることで管理サーバ100が備えるHDDやフラッシュメモリにインストールされてもよい。管理サーバ100は、クラウドコンピューティングシステムに組み込まれたサーバ装置や記憶装置に実現されてもよい。この場合、クラウドコンピューティングシステムにおける複数のサーバ装置や記憶装置によって、管理サーバ100の機能が実現されてもよい。
通信部110は、通信制御部120の制御により、ネットワークNWを介して、一以上のロボット装置200、一以上のロボット装置200を遠隔操作する操作端末300、その他の外部装置と通信する。通信制御部120は、通信部110における通信を制御する。
通信制御部120は、通信部110における通信を制御する。通信制御部120は、例えば、操作端末300から入力されたロボット装置200の操作内容を受信したり、操作内容に応じた動作制御情報を、ロボット装置200に送信する。また、通信制御部120は、ロボット装置200から送信されたセンサ等の検出結果やカメラ画像等の情報を受信したり、受信した情報に基づく提供情報を、操作端末に送信する。
取得部130は、ロボット装置200または操作端末300から各種情報を取得する。例えば、取得部130は、操作端末300からロボット装置200を操作するための操作情報を取得する。また、取得部130は、ロボット装置200に設けられたセンサやカメラからの情報を取得する。また、取得部130は、ネットワークNWに接続された外部装置から情報を取得してもよい。
管理部140は、例えば、認証管理部142と、情報管理部144とを備える。認証管理部142は、ロボット装置200を操作する操作者(システム利用者)の認証や利用権限等を管理する。また、認証管理部142は、認証結果に基づいて、操作端末300が操作するロボット装置200を対応付けて管理する。
情報管理部144は、利用者ごとに利用可能な情報を管理する。例えば、情報管理部144は、ロボットを制御するためのロボット制御情報や、ロボット装置200に設けられたセンサから取得された情報(センサ情報)を記憶部に170に記憶させると共に、例えば、それぞれ異なるアクセス権を設定し、設定されたアクセス権が確認されたときに、対応する提供可能な権限を有する操作端末300に情報を送信する。また、情報管理部144は、例えば、センサ情報のアクセス権の強度を、ロボット制御情報よりも大きくしてもよい。アクセス権の強度を大きくするとは、例えば、所定の認証が許可されないとアクセスできないような記憶領域に記憶させることや、データそのものを暗号化して管理したり、データを取得するためのパスワード等の認証条件の数や種類を多くすること等である。これにより、データの機密性が守られる。したがって、例えば、アクセス権を持たない企業にセンサ情報を盗まれたり、改ざんされたりすることを防止することができ、システム全体のセキュリティを向上させることができる。また、アクセス権によって提供する情報を管理することで、様々な企業等に安心して遠隔操作システム1を利用させることができる。
制御部150は、例えば、ロボット情報制御部151と、カスタマイズデータ制御部と、意図推定部153と、動作制御部154と、動作キャンセル部155と、出力制御部156とを備える。ロボット情報制御部151は、例えば、動作制御部154により生成されたロボット装置200に対する動作制御情報に対して、実際にロボット装置200がどのような操作を行ったのか等を管理する。また、ロボット情報制御部151は、記憶部170に記憶されたロボット制御情報172Aに基づいて、ロボット装置200に基本的な動作を実行させる。基本的な動作とは、例えば、ロボット装置200を移動させたり、姿勢を変えたり、物体を持ったり置いたりする動作である。
カスタマイズデータ制御部152は、例えば、企業ごとに特定の動作(例えば、物を組み立てる作業や半田付け作業、ネジ止めしたり、料理における各種工程作業等)をロボット装置200に実行させるためのカスタマイズデータを生成する。
意図推定部153は、操作端末300により入力される操作内容の少なくとも一部の情報から操作者の意図を推定する。操作者の意図には、例えば、操作者がロボット装置200に行わせたい行動(動作)の意図だけでなく、行動等を予測することや、ロボット装置200の駆動をアシストさせることも含まれる。例えば、遠隔操作では通信等によって操作者が指示している感じとロボット装置200の動作にズレが生じる。そのため、意図推定部153は、操作者からの操作内容をそのままロボット装置200に実行させるのではなく、操作内容に基づいて操作者の意図を推定し、推定結果に基づいてロボット装置200の動作制御情報を生成することで、ロボット装置200の動きをより適切にアシストし、違和感の少ない遠隔操作を実現することができる。意図推定部153は、例えば、教師データを用いて学習させた学習モデル(意図推定情報172B)を参照し、操作内容に対応する意図を推定する。なお、学習の際には、例えば、操作内容を入力し、その操作内容に対する作業者等が設定した正解の意図情報を出力するための教師データを用いて学習を行う。
また、意図推定部153は、操作者から入力された操作内容およびロボット装置200の実際の動作内容を示す履歴情報に基づいて、意図推定情報172Bを更新してもよい。これにより、より適切な意図推定を実現できる。
また、意図推定部153は、例えば、グラスプタクソノミー(GRASP Taxonomy)手法(例えば、参考文献1参照)によって、操作者の動作意図を推定してもよい。実施形態では、例えばグラスプタクソノミー手法によって操作者あるいはロボット装置200の姿勢すなわち把持姿勢を分類することで操作者状態を分類して、操作者の動作意図を推定する。
参考文献1;Thomas Feix, Javier Romero,他,“The GRASP Taxonomy of Human GraspTypes” IEEE Transactions on Human-Machine Systems ( Volume: 46, Issue: 1, Feb.2016),IEEE,p66-77.
動作制御部154は、意図推定部153により推定された操作者の意図に基づいて対象のロボット装置200を動作させるための動作制御情報を生成し、生成した動作制御情報を操作対象のロボット装置200に送信し、ロボット装置200の動作を制御する。また、動作制御部154は、操作者の意図に加えて(または代えて)、ロボット情報制御部151やカスタマイズデータ制御部152等により得られるロボット装置200の動作に関する情報を取得し、取得した情報に基づいて、動作制御情報を生成してもよい。また、動作制御部154は、例えば、複数の操作者が、同時に2つのアームを操作する場合に、触覚等のセンサ情報等に基づいて、力の足し算や引き算等の合成処理を行い、協調して作業するための動作制御を行ってもよい。これにより、複数の操作者により1台のロボット装置200が操作された場合であってもバランスの良い動作を実現することができる。
動作キャンセル部155は、動作制御部154によりロボット装置200に実行させる動作のうち、操作者の意図と異なる動作を選択し、選択した動作の実行をキャンセルする。この場合、動作キャンセル部155は、操作者から入力された操作内容が、ロボット装置200に動作させる内容であるか否かを操作者に問い合わせ、問い合わせ結果に基づいて、動作制御部154に動作制御情報を生成させたり、意図推定情報172Bを更新させたりする。
出力制御部156は、ロボット装置200から取得した音声や画像に基づいて、操作端末300を操作する操作者に提供する情報を生成する。提供する情報には、画像や音声が含まれる。また、出力制御部156は、認証管理部142による認証処理の結果に基づいて、センサ情報等を出力する。
記憶部170は、上記の各種記憶装置、或いはSSD(Solid State Drive)、EEPROM(Electrically Erasable Programmable Read Only Memory)、ROM(Read Only Memory)、またはRAM(Random Access Memory)等により実現されてもよい。記憶部170は、例えば、第1記憶部172と、第2記憶部174とを備える。第1記憶部172および第2記憶部174は、それぞれアクセス権の強度が異なる記憶領域である。第1記憶部172は、例えば、遠隔操作システム1の利用者の全てが使用できる情報が格納される。また、第2記憶部174は、例えば、予め設定されたアクセス権が確認された企業または利用者のみが取得可能な情報が格納される。また、第2記憶部174は、例えば、企業ごとに暗号化されたデータが格納され、企業ごとに割り当てられた鍵等による復号化を実行しないと閲覧できないような領域であってもよい。第1記憶部172および第2記憶部174によるアクセス権の設定については、認証管理部142で管理される。また、第1記憶部172および第2記憶部174は、それぞれ異なる記憶部でもよく、一方または双方が、データサーバ等の外部装置によって管理されてもよい。
例えば、第1記憶部172には、例えば、ロボット制御情報172Aや意図推定情報172Bが格納される。ロボット制御情報172Aとは、ロボット装置200に所定の動作を実行させるための基本的な制御情報である。所定の動作とは、例えば、移動する、向きを変える、腕を動かす、物と持つ(把持する)、物を置くといった動作である。これらは、例えば、ロボット装置200の種別ごとに設定されてもよい。
意図推定情報172Bは、例えば、意図推定部153により推定された意図推定結果に関する情報である。図3は、意図推定情報172Bの内容について説明するための図である。意図推定情報172Bは、例えば、操作端末300から取得した操作内容に、推定意図に関する情報が対応付けられている。これらの情報は、操作者ごとに管理されてよく、複数の操作者の意図推定情報172Bを統合して、頻度の高い意図推定に関する情報のみが格納されてもよく、履歴情報等に基づいて更新されてもよい。
第2記憶部174は、所定のアクセス権が確認された利用者がアクセス可能な情報が格納される。第2記憶部174には、例えば、企業別利用者情報174Aや、企業別センサ情報174B等が格納される。
図4は、企業別利用者情報174Aの内容について説明するための図である。図4の例では、企業ごとの利用者情報が格納されており、それぞれの情報は、各企業のアクセス権が確認されないとアクセスできないように管理されている。企業別利用者情報174Aは、例えば、遠隔操作システム1によるサービス利用時等に利用者を認証する認証情報に、氏名、権限、優先度、画像情報等の情報が対応付けられたものである。認証情報には、例えば、利用者を識別する識別情報である利用者IDやパスワード等が含まれる。また、認証情報には、指紋情報や虹彩情報等の生体認証情報が含まれてもよい。権限には、例えば、利用者に割り当てられたアクセス権等の権限情報が含まれる。この権限情報に基づいて、ロボット装置200により取得されたセンサ情報等を取得することができる。情報管理部144は、権限に格納された情報を参照することで、誰がどのデータにアクセス可能であるか、どのデータにアクセスできないのか等を管理することができる。優先度情報は、例えば、複数の操作者がロボット装置200を遠隔操作している場合であって、それぞれの操作内容が同一または類似する場合の優先度が格納されている。画像情報とは、利用者を認識するための画像であり、例えば、利用者の顔画像や利用者に似せて作成されたアバター画像やイラスト画像等が含まれる。
図5は、企業別センサ情報174Bの内容について説明するための図である。図5の例では、企業ごとのセンサ情報が格納されており、それぞれの情報は、各企業のアクセス権が確認されないとアクセスできないように管理されている、企業別センサ情報174Bには、ロボット装置200を識別する識別情報であるロボットIDに、日時、操作者ID、操作パーツ、センサ情報等が格納されている。操作者IDには、操作した操作者の利用者IDが格納される。操作パーツには、操作者が操作したロボットIDのパーツが格納される。これにより、1台のロボット装置200が複数の操作者によって操作される場合であっても、それぞれの操作履歴を管理することができる。
[ロボット装置]
図6は、実施形態に係るロボット装置200の構成の一例を示す図である。ロボット装置200は、例えば、例えば、通信部202と、センサ204と、カメラ(撮像部の一例)206と、マイク208と、駆動部210と、モニタ214と、スピーカ216と、制御装置240と、記憶部260とを備える。駆動部210は、例えば、アーム部210Aと、移動用駆動部210Bとを備える。制御装置240は、例えば、通信制御部242と、取得部244と、駆動制御部246と、出力制御部248とを備える。通信制御部242と、取得部244と、駆動制御部246と、出力制御部248とは、それぞれ、例えばCPU等のハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。これらの構成要素のうち一部または全部は、LSIやASIC、FPGA、GPU等のハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。これらの構成要素の機能のうち一部または全部は、専用のLSIによって実現されてもよい。プログラムは、予めロボット装置200が備えるHDDやフラッシュメモリ等の記憶装置(非一過性の記憶媒体を備える記憶装置)に格納されていてもよいし、DVDやCD-ROM等の着脱可能な記憶媒体(非一過性の記憶媒体)に格納されており、記憶媒体が、ロボット装置200が備えるドライブ装置に装着されることでロボット装置200が備えるHDDやフラッシュメモリにインストールされてもよい。
通信部202は、後述する。通信制御部242の制御により、ネットワークNWを介して、管理サーバ100、その他の外部装置と通信する。また、通信部202は、他のロボット装置200と通信してもよく、操作端末300と通信を行ってもよい。
センサ204は、ロボット装置200の位置を検出する位置センサ、速度を検出する速度センサ、ロボット装置200の周辺またはアーム部210Aの先端部等の特定の位置の温度を検出する温度センサ等を含む。位置センサは、例えば、GPS(Global Positioning System)受信装置から情報を受信して、受信した情報に基づいて位置情報(経度・緯度情報)を求める。また、センサ204は、周囲の湿度を検出する湿度センサや、ロボット装置200によって操作される物体の振動を検出する振動センサを含んでいてもよい。また、センサ204は、周辺の物体を検知する物体検知センサを含んでいてもよい。周辺の物体とは、例えば、他のロボット装置200や人物、障害物等である。
カメラ206は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の固体撮像素子を利用したデジタルカメラである。カメラ206は、例えば、所定のタイミングでロボット装置200の周辺を撮像する。カメラ206は、一台に限らず、複数台がロボット装置200に設けられてもよい。例えば、カメラ206は、ロボット装置200の頭部に設けられる。また、カメラ206は、アーム部210Aの先端付近に設けられてもよい。これにより、作業対象の物体を近い距離で撮影することができるため、より細かい作業を行い易くすることができる。
マイク208には、ロボット装置200の周辺の音が入力される。マイク208は、入力された音声に基づく情報を制御装置240に出力する。
アーム部210Aは、対象物体を把持したり、対象物体に対して所定の作業を行う。アーム部210Aは、例えば、多関節ロボットアームであり、例えば、アクチュエータ、ギア、人工筋等を備える。例えば、アーム部210Aは、多関節ロボットアームの一端がロボット装置本体の右側付近に接続された第1アーム部と、他の多関節ロボットアームの一端がロボット装置本体の左側付近に接続された第2アーム部とを備える。また、アーム部210Aには、第1アーム部および第2アーム部に加えて他のアーム部を備えていてもよい。以下、それぞれのアームを区別しない場合は、単に「アーム部210A」と称する。アーム部の他端は、所定の物を把持可能な把持部が構成されている。アーム部210Aは、制御装置220の制御に基づいて駆動する。また、アーム部は、人の腕の動きと同等の動きが可能である。
移動用駆動部210Bは、ロボット装置200が床面や地面を移動するための駆動部である。移動用駆動部210Bは、例えば、2つの脚部であってもよいし、車輪、台車、クローラー等の移動機構が設けられていてもよい。例えば、移動用駆動部210Bが脚部の場合、脚部は、制御装置220の制御に基づいて、ロボット装置200を歩行させるように動作する。また、移動用駆動部210Bは、クレーン等を駆動させることによって天井またはレールに沿って移動可能な構造であってもよい。これらの構成によりロボット装置200は、所望の方向に移動することができる。なお、駆動部210は、アーム部210Aまたは移動用駆動部210B以外にも腰や頭等の他の関節等を駆動させる機構が設けられてもよい。駆動部210は、駆動制御部246よる制御に基づいて駆動が実行される。
モニタ214は、例えば、LCD(Liquid Crystal Display)や有機EL(Electro Luminescence)表示装置等である。モニタ214は、出力制御部248によって出力された情報を画像として表示する。モニタ214は、ロボット装置200に複数設けられてよい。モニタ214は、例えば、頭部に設けられていてもよく、腹部や背面に設けられていてもよい。スピーカ216は、出力制御部248によって出力された情報を音声として出力する。
制御装置240は、例えば、通信制御部242と、取得部244と、駆動制御部246と、出力制御部248とを備える。通信制御部242と、取得部244と、駆動制御部246と、出力制御部248とは、例えば、CPU等のハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。これらの構成要素のうち一部または全部は、LSIやASIC、FPGA、GPU等のハードウェア(回路部)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予めHDDやフラッシュメモリ等の記憶装置(非一過性記憶媒体)に格納さいてもよいし、DVDやCD-ROM等の着脱可能な記憶媒体(非一過性記憶媒体)に格納されており、記憶媒体がドライブ装置に装着されることでインストールされてもよい。
通信制御部242は、例えば、通信部202を介して無線通信によって、管理サーバ100と通信し、情報の送受信を行う。また、通信制御部242は、通信部202を介して他のロボット装置200と通信を行ってもよい。
取得部244は、ロボット装置200に設けられたセンサ204の検出結果(センサ情報)を取得する。また、取得部244は、カメラ206により撮像された画像を取得する。また、取得部244は、マイク208から入力された音に基づく情報を取得する。
駆動制御部246は、管理サーバ100から取得した動作制御情報に基づいて、アーム部210Aおよび移動用駆動部210Bを動作させる。また、駆動制御部246は、動作制御情報に基づいて、ロボット装置200の他のパーツ(例えば、頭、胴、腰等)を駆動させて、姿勢等を変更させる。また、駆動制御部246は、記憶部260に記憶された基本動作情報262およびカスタマイズ動作情報264に基づいて、ロボット装置200を駆動させてもよい。基本動作情報262は、ロボット装置200の種類等に応じて基本的な動作を実行させるための駆動制御情報である。カスタマイズ動作情報264とは、例えば、操作者ごとに予め登録された特定の動作をロボット装置200に実行させるための駆動制御情報である。
出力制御部248は、管理サーバ100から取得した情報に基づく画像をモニタ214に出力させる。また、出力制御部248は、管理サーバ100から取得した情報に基づく音声や警告音等をスピーカ216に出力させる。
記憶部260は、例えば、HDD、フラッシュメモリ、EEPROM、ROM、またはRAM等により実現される。記憶部260には、例えば、基本動作情報262、カスタマイズ動作情報264、プログラム、その他の情報が格納されている。
[操作端末]
図7は、実施形態に係る操作端末300の構成の一例を示す図である。操作端末300は、例えば、通信部310と、HMD320と、操作装置330と、環境センサ340と、制御装置360と、記憶部380とを備える。HMD320と、操作装置330と、環境センサ340は、「HMI(Human Machine Interface)」の一例である。
通信部310は、制御装置360による制御によりネットワークNWを介して管理サーバ100と通信を行う。また、通信部310は、他の操作端末300やロボット装置200と通信を行ってもよい。
HMD320は、例えば、画像表示部322と、視線検出部324と、センサ326と、スピーカ328と、制御部329とを備える。HMD320は、制御装置360が管理サーバ100から受信したロボット装置200の状態画像や音声等を出力示したり、操作者の視線の動き等を検出する。
画像表示部322は、例えば、LCDや有機ELディスプレイ等である。画像表示部は、制御部329の制御に応じて、後述する出力制御部368により出力された画像を表示する。
視線検出部324は、制御部329の制御によりHMD320を装着した操作者の視線を検出し、検出した視線情報(操作者センサ値)を制御装置360に出力する。視線情報とは、例えば、視線ベクトルを含む情報である。
センサ326は、例えば、加速度センサ、ジャイロスコープセンサ、磁力センサ等である。センサ326は、HMD320を装着した操作者の頭部の傾き、頭部の回転を検出し、検出した頭部動作情報(操作者センサ値)を制御装置360に出力する。
スピーカ328は、出力制御部368により出力された音声や警告音等を出力する。
制御部329は、制御装置360からの制御情報に基づいて視線検出部324による視線検出の実行を制御したり、センサ326による検出を制御したり、画像表示部322への画像表示を制御したり、HMD320を介した操作者からの情報の入力を受け付けたりする。
操作装置330は、例えば、センサ(操作者センサ)332と、制御部334と、フィードバック部336と、入力部338とを備える。操作装置330には、例えば、操作者の手に装着される触覚データグローブが含まれる。
センサ332は、例えば、加速度センサ、ジャイロスコープセンサ、磁力センサ等である。なお、センサ332は、複数のセンサを備える。センサ332は、例えば2つのセンサによって各指の動きをトラッキングする。センサ332は、例えば、制御部334の制御により、操作者の各指の方位や動き、手の動き等の操作者の腕部の姿勢や位置に関する情報である操作者腕部情報(操作者センサ値)を検出する。なお、操作者腕部情報(操作者センサ値)には、手先位置・姿勢情報、各指の角度情報、肘の位置・姿勢情報、各部の動きをトラッキングした情報等のヒトの腕部全般におよぶ情報が含まれる。
制御部334は、センサ332が検出した操作者腕部情報を、制御装置360に出力する。また、制御部334は、制御装置360から取得したフィードバック情報に基づいて、フィードバック部336を制御する。
フィードバック部336は、制御部334の制御に応じて、操作者にフィードバック情報をフィードバックする。フィードバック部336は、フィードバック情報に応じて、例えば、ロボット装置200のアーム部210Aに取り付けられている振動を与える手段(不図示)や空気圧を与える手段(不図示)や手の動きを拘束する手段(不図示)や温度を感じさせる手段(不図示)や堅さや柔らかさを感じさせる手段(不図示)、振動を感じさせる手段(不図示)等によって操作者に感覚をフィードバックする。
入力部338は、例えば、触覚データグローブ以外のキーボードやマウス、レバー、タッチパネル、マイク等の各入力装置である。入力部338は、各入力装置によってロボット装置200に対する操作内容の入力を受け付ける。
環境センサ340は、例えば、操作者の動作を検出する。環境センサ340は、例えば、カメラ(撮像部の一例)342と、センサ344と、物体位置検出部346とを備える。カメラ342は、操作者を含む画像を撮像する。カメラ342は、例えば、RGBカメラである。カメラ342は、撮影した画像を物体位置検出部346に出力する。なお、環境センサ340において、カメラ342とセンサ344の位置関係が既知である。
センサ344は、例えば深度センサである。センサ344は、検出結果を物体位置検出部346に出力する。なお、カメラ342とセンサ344は、距離センサであってもよい。
物体位置検出部346は、カメラ342によって撮影された画像とセンサ344によって検出された検出結果とに基づいて、撮影された画像における対象物体の三次元位置と大きさ形状等を周知の手法で検出する。物体位置検出部346は、物体位置検出部346が記憶するパターンマッチングのモデル等を参照して、カメラ342が撮影した画像に対して画像処理(エッジ検出、二値化処理、特徴量抽出、画像強調処理、画像抽出、パターンマッチング処理等)を行って物体の位置を推定する。なお、物体位置検出部346は、撮影された画像から複数の物体が検出された場合、物体毎に位置を検出する。物体位置検出部346は、検出した物体位置情報を、制御装置360に送信する。なお、環境センサ340が送信するデータは、例えば位置情報を有する点群であってもよい。
制御装置360は、例えば、通信制御部362と、取得部364と、操作内容生成部366と、出力制御部368とを備える。通信制御部362と、取得部364と、操作内容生成部366と、出力制御部368とは、例えば、CPU等のハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。これらの構成要素のうち一部または全部は、LSIやASIC、FPGA、GPU等のハードウェア(回路部)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予めHDDやフラッシュメモリ等の記憶装置(非一過性記憶媒体)に格納さいてもよいし、DVDやCD-ROM等の着脱可能な記憶媒体(非一過性記憶媒体)に格納されており、記憶媒体がドライブ装置に装着されることでインストールされてもよい。
通信制御部362は、例えば、通信部310を介して無線通信によって、管理サーバ100と通信し、情報の送受信を行う。また、通信制御部362は、通信部310を介して他の操作端末300と通信を行ってもよい。また、通信制御部362は、HMD320や操作装置330、環境センサ340との通信を行う。
取得部364は、HMD320、操作装置330、環境センサ340から得られた情報を取得する。操作内容生成部366は、取得部364により取得された情報に基づいて、ロボット装置200に対する操作内容を生成する。例えば、操作内容生成部366は、HMD320から取得された情報に基づいて視線情報や頭の向きに関する操作内容を生成する。また、操作内容生成部366は、操作装置330から取得された情報に基づいて、ロボット装置200のアーム部210Aの動作に関する操作内容を生成する。また、操作内容生成部366は、環境センサ340から取得された情報に基づいて、ロボット装置200の姿勢や移動方向、移動量に関する操作内容を生成する。操作内容生成部366により生成された情報は、通信部310を介して、管理サーバ100に送信される。
出力制御部368は、管理サーバ100から取得した提供情報を、HMD320や操作装置330に出力する。例えば、管理サーバ100から取得した画像やHMD320の画像表示部322に出力させる。また、出力制御部368は、管理サーバ100から取得した情報に基づく音声や警告音等をスピーカ328に出力させる。また、出力制御部368は、管理サーバ100から取得した触覚に関する情報を操作者に伝えるためのフィードバック情報を操作装置330に出力させる。
記憶部380は、例えば、HDD、フラッシュメモリ、EEPROM、ROM、またはRAM等により実現される。記憶部380には、例えば、プログラム、その他の情報が格納されている。
[実施形態に係るロボット装置の遠隔操作について]
次に、実施形態に係る遠隔操作システム1によるロボット装置200の遠隔操作について具体的に説明する。図8は、本実施形態に係るロボット装置200の遠隔操作について説明するための図である。図8では、2人の操作者U1、U2の操作内容に基づいて、1台のロボット装置200を操作する例を示している。操作者U1およびU2は、それぞれ、図8に示すように、HMD320と操作装置330とを装着している。操作端末300A-1、300A-2は、同一の企業(例えば、企業A)の端末であるが、異なる場所に設置されてもよい。
また、操作者U1とU2には、操作者の動作や周辺環境を測定する環境センサ340が設置されている。なお、環境センサ340と同様の構成は、例えば、ロボット装置200に取り付けられていてもよい。また、操作装置330は、例えば、操作者の左手に装着される操作装置330aと、右手に装着される操作装置330bとを含む。操作装置330a、330bのそれぞれから入力される操作内容は、ロボット装置200の左手LHおよび右手RHの動作制御に用いられる。操作者の腕の位置や顔の向き等は、環境センサ340により検出される。それぞれの検出したデータは、ネットワークを介して管理サーバ100に送信される。
管理サーバ100は、操作端末300A-1、300A-2から得られる操作内容に基づいてそれぞれのユーザの意図を推定する。ここで、意図推定部153が推定する情報例について、具体的に説明する。意図推定部153は、取得した操作者からの操作内容に基づいて、操作者の動作意図を推定する。意図推定部153は、操作端末300の操作者センサ値に基づいて、操作者の腕部の姿勢を分類することで、ロボット装置の把持部を含むアームの姿勢を分類する。また、意図推定部153は、分類結果に基づいて、操作者がロボット装置200に行わせたい動作意図を推定する。意図推定部153は、例えば、時刻毎の手や指の動き、ロボット装置200に行わせたい作業目的、作業内容、時刻毎の手や指の動き等を操作者の動作意図として推定する。作業目的は、例えば、物体の把持、物体の移動等である。作業内容は、例えば、物体を把持して持ち上げる、物体を把持して移動させる等である。
また、意図推定部153は、例えば、記憶部170に記憶された学習済みモデルや意図推定情報172Bに操作内容を入力して、操作者の動作意図を推定してもよい。実施形態では、把持姿勢の分類によって意図推定を行うことで、精度良く操作者の動作意図を推定することができる。なお、把持姿勢の分類には、他の手法を用いてもよい。
また、意図推定部153は、視線と腕部の動きを用いて統合的に推定してもよい。この場合、意図推定部153は、視線情報と、手の動き情報とテーブルTB上の物体OBの位置情報とを学習済みのモデルに入力して、操作者の動作意図を推定するようにしてもよい。
図8の例において、意図推定部153は、例えば、視線情報に基づいて把持させた物体を推定する。次に、意図推定部153は、推定した把持させたい物体に基づいて、操作者の手の姿勢を推定する。また、意図推定部153は、例えば、操作内容に基づいて、まず操作者の手の姿勢を推定し、次に推定した操作者の手の姿勢から、把持したい物体を推定してもよい。なお、操作者U1、U2から同じまたは類似の操作内容が入力された場合、優先度が高い操作者からの操作内容に基づいて、意図推定が行われる。また、操作者U1、U2ごとに異なる部位の操作が割り当てられている場合には、意図推定部153は、それぞれの操作内容に基づく意図を推定する。以下では、操作者U1が右手のアーム部210Aを操作し、操作者U2が左手のアーム部210Aを操作するものとして説明する。
例えば、図8に示すテーブルTB上に物体OBが置かれている場合、意図推定部153は、手の姿勢に基づいて、物体OBを把持すると推定する。また、意図推定部153は、操作内容と、ロボット装置200の状態情報とに基づいて、操作者が意図する手先の将来軌道を、事前に推定してもよい。なお、意図推定部153は、センサにより検出された検出結果、環境センサ340が撮影した画像を画像処理した結果等も用いて、把持したい物体と、物体の位置を推定するようにしてもよい。
また、操作者が操作する環境とロボット動作環境では座標系が異なるため、例えば、ロボット装置200の起動時に、操作者の操作環境とロボット動作環境とのキャリブレーションを行ってもよい。また、把持の際、管理サーバ100は、ロボット装置の把持力と、物体と把持部との摩擦力等に基づいて、把持時の把持位置の誤差を考慮して、把持位置を決定してもよい。
ロボット装置200は、遠隔操作されていない場合は、制御装置240の制御に応じて動作が制御され、遠隔操作されている場合、管理サーバ100が推定された意図等に基づいて生成した動作制御情報に応じて動作が制御される。
ロボット装置200の制御装置240は、管理サーバ100からの動作制御情報に基づいて駆動部210を制御する。また、ロボット装置200は、センサ204により検出されたセンサ情報や、カメラ206で撮像された画像、マイク208により出力された音声等の情報を管理サーバ100に出力する。管理サーバ100は、取得したセンサ情報、画像、音声等に基づいて操作端末300A-1、300A-2に提供する提供情報を生成する。この場合、管理サーバ100は、画像にセンサ情報の少なくとも一部を重畳した画像を生成してもよい。管理サーバ100は、触覚により伝達させるための情報も含めた提供情報を生成する。また、ロボット装置200は、複数の操作者により操作することが可能であるため、ロボット装置200の各部位の操作者を特定するための情報をカメラ画像に重畳した画像を生成してもよい。操作端末300は、管理サーバ100から出力された画像を表示させる。
図9は、操作端末300が表示する画像IM10の一例を示す図である。なお、画像IM10のレイアウトや表示内容等の表示態様については、図9の例に限定されるものではない。以降に説明する他の画像の表示態様についても同様とする。図9に示す画像IM10には、カメラ206により撮像されたロボット装置200のアーム部(左手LH、右手RH)を含む画像IM10にセンサ情報表示領域A11と、操作者情報表示領域A12と、作業状況表示領域A13とが重畳して表示されている。また、図9の例では、ロボット装置200の正面にあるテーブルTB上に物体OB1が置かれている。また、ロボット装置200の左手LHは、物体OB2を把持した状態で持ち上げ、ロボット装置200の右手RHは、物体OB3を把持した状態で持ち上げているものとする。センサ情報表示領域A11、操作者情報表示領域A12、および作業状況表示領域A13は、実空間上の物体が遮蔽されることがないように、所定の透過率で表示されてよい。
図9の例において、センサ情報表示領域A11Lには、ロボット装置200の左手に関するセンサ情報が表示されている。また、センサ情報表示領域A11Rには、ロボット装置200の右手に関するセンサ情報(例えば、位置、圧力、温度等)が表示されている。また、図9の例において、操作者情報表示領域A12Lには、ロボット装置200の左手の操作者に関する情報が表示されている。操作者情報表示領域A12Rには、ロボット装置200の左手の操作者に関する情報が表示されている。これにより、例えば、ロボット装置200を複数人で操作する場合に、ロボット装置200の各パーツの操作者を他の操作者に正確に把握させることができる。また、自分が操作している部分のセンサ情報だけでなく、他の操作者の操作に関する情報を把握することができるため、より正確な処理を実行することができる。
作業状況表示領域A13には、それぞれの意図推定の結果等が表示される。図9の例では、操作者U1、U2のそれぞれの操作内容から推定された意図に関する情報が表示される。また、管理サーバ100は、意図推定によって、それぞれの操作者が同一または類似の処理を行うことを推定した場合に、優先度情報に基づいて一方の意図を優先して実行する。また、この場合、他の操作者に、作業状況表示領域A13に表示させると共に、音声または表示態様を変化させることで警告等の提示を行ってもよい。図9の例では、操作者U1とU2が共に、把持した物体を物体OB1の上に置こうとしているため、警告情報が提示される。警告態様は、危険度合に応じて、異ならせてもよい。
この場合、動作制御部154は、例えば、操作者ごとの優先度を参照し、優先度の高い操作者の意図に基づいて動作をロボット装置200に実行させる。また、管理サーバ100は、優先度に基づいて処理が実行された場合に、操作端末300の表示部に処理内容を含む画像を表示させる。
図10は、優先度に基づく作業が実行された場合に操作端末300に表示される画像IM20の一例を示す図である。図10の例では、図9に示す画像IM10と比較すると、作業状況表示領域A13に表示される内容が異なっている。したがって、以下では、主に、作業状況表示領域A13について説明する。図10の例において、作業状況表示領域A13には、優先度に基づいて操作者祖U2の指示が優先して実行されたことを示す情報が表示されている。これにより、操作者U1、U2は、それぞれの操作指示に対する意図推定結果と、実際の作業状況を、より正確に把握することができる。
また、意図推定部153は、推定した結果を記憶部に記憶し、次回以降の意図推定の際に利用してもよい。また、意図推定部153は、不明な動作を検出した場合に、その動作をロボット装置200に実行させるかを操作者に問い合わせてもよい。
図11は、ロボット装置に実行される動作を操作者に問い合わせる画像IM30の一例を示す図である。画像IM30は、例えば、動作問合せ情報表示領域A31と、スイッチ表示領域A32とが含まれる。動作問合せ情報表示領域A31には、操作装置330により入力された操作内容のうち、ロボット装置200に実行させる必要があるか否かを問い合わせるための情報が表示される。例えば、頭を触る動作が検出されたが、この動作の意図が推定できなかった場合、意図推定部153は、図11の動作問合せ情報表示領域A31に示すように、「頭を触る動作が検出されました。この動作をロボットに動作させますか?」等の文字情報を示す画像を操作端末300に表示させる。
スイッチ表示領域A32には、例えば、アイコンIC31およびIC32が表示されている。アイコンIC31およびIC32は、例えばGUI(Graphical User Interface)スイッチである。アイコンIC31が選択された場合、管理サーバ100は、指示された操作内容をロボット装置200に実行させるための動作制御情報を生成する。また、アイコンIC12が選択された場合には、HMI制御部180は、指示された操作内容をロボット装置200に実行させない。また、管理サーバ100は、今後同一の操作が入力された場合であってもロボット装置に入力させないような処理を実行してもよい。これにより、操作者の癖等によって無意識に実行される動作等をロボットに実行させることを抑制することができ、余計な動作を行わせないようにすることができる。
また、ロボット装置200の周囲に存在する操作者は、ロボット装置200が誰によって操作されているかが分からないため、不安に感じることがあり得る。そこで、管理サーバ100は、ロボット装置200の操作者に関する情報を、ロボット装置200のモニタに表示させてもよい。この場合、ロボット装置200が複数の操作者によって操作されている場合に、それぞれのパーツごとの操作者を提示してもよい。
図12は、ロボット装置200のモニタ214に表示される画像IM40の一例を示す図である。画像IM40には、例えば、操作者情報表示領域A41、A42の一方または双方が含まれる。操作者情報表示領域A41には、ロボット装置200を操作する操作者に関する文字情報が表示される。また、操作者情報表示領域A41には、操作者が操作するロボット装置200のパーツに関する情報が含まれてもよい。図12の例において、操作者情報表示領域A41には、「このロボットは、操作者U2が右手を、操作者U1が左手を、それぞれ操作しています。」という文字情報が表示されている。また、操作者情報表示領域A42には、利用者DBに登録されたアバター画像が表示されている。これにより、周囲の操作者は、ロボットを遠隔操作している人物や、担当しているパーツをより正確に認識することができる。
[処理シーケンス]
次に、実施形態における遠隔操作システムによって実行される処理について、シーケンス図を用いて説明する。図13は、実施形態における遠隔操作システム1によって実行される処理について説明するためのシーケンス図である。図13の例では、管理サーバ100と、ロボット装置200と、操作端末300-1、300-2を用いて説明するものとする。また、図13では、2つの操作端末300-1、300-2によって、ロボット装置200を操作する例について説明するものとする。
操作端末300-1および操作端末300-2は、ロボット装置200を遠隔操作するために、それぞれ管理サーバ100にアクセスする(ステップS100、S102)。管理サーバ100は、操作端末300-1および300-2から入力される認証情報等に基づいて遠隔操作システム1を利用可能であるか否かの認証処理を行う(ステップS104)。以下では、認証により利用が許可された場合について説明する。利用が許可された場合、管理サーバ100の管理部は、操作端末300-1および300-2によって操作されるロボット装置200を割り当て(ステップS106)、割り当てたロボット装置に対して起動制御の要求を行う(ステップS108)。
ロボット装置200は、管理サーバ100からの起動要求に基づいて機器を起動し(ステップS110)、ロボット装置200のセンサの検出結果や、カメラにより撮像された画像等の管理サーバ100に出力する(ステップS112)。
管理サーバ100は、ロボット装置200から送信された情報を取得し、取得した情報に基づいて、操作端末300-1、300-2に提供する情報(提供情報)を生成する(ステップS114)。そして、管理サーバ100は、生成した提供情報を、操作端末300-1、300-2にそれぞれ送信する(ステップS116、S118)。
操作端末300-1、300-2のそれぞれは、管理サーバ100から送信された提供情報を受信し、受信した情報をHMDおよび操作装置等から出力して、情報を提供する(ステップS120、S122)。
次に、操作端末300-1、300-2は、ロボット装置200に関する操作内容を管理サーバ100に送信する(ステップS124、S126)。管理サーバ100は、操作端末300-1、300-2のそれぞれから得られる操作内容に基づいて意図推定を行い(ステップS128)、それぞれの意図推定結果に基づく動作制御情報を生成し(ステップS130)、生成した動作制御情報をロボット装置200に送信する(ステップS132)。
ロボット装置200は、動作制御情報に基づいて動作を行い(ステップS134)、動作中または動作結果で、センサ等から得られる情報(センサ情報)やカメラ画像等を管理サーバ100に送信する(ステップS136)。
管理サーバ100は、受信した情報を記憶部170に記憶させ(ステップS138)、取得した情報を操作端末300-1,300-2に送信するための提供情報を生成し(ステップS140)、生成した提供情報を、操作端末300-1、300-2に送信する(ステップS142、S144)。操作端末300-1、300-2のそれぞれは、得られた情報出力して、操作者に情報提供を行う(ステップS146、S148)。以降、ステップS124~S148の処理が、ロボット装置200への操作が完了するまで継続して行われる。
<変形例>
実施形態における管理サーバ100、ロボット装置200、および操作端末300の処理の一部または全部は、AI(Artificial Intelligence)技術によって実現されてもよい。また、管理サーバ100、ロボット装置200、および操作端末300に含まれる機能部または記憶部に記憶される情報のうち、一部または全部の機能部または情報は、他の装置に含まれてもよい。
また、上述の実施形態では、主に複数の操作者が1台のロボット装置200を操作することについて説明したが、1人の操作者が複数のロボット装置200を操作してもよい。この場合、複数のロボット装置200のそれぞれで検出されたセンサ情報等がHMD320の画像表示部322に表示される。また、管理サーバ100は、操作に関する履歴情報や意図推定情報等をロボットメーカ端末400に送信してもよい。これにより、ロボットメーカ端末400や商品の開発や、プログラムのアップデート等に利用することができる。この場合、ロボット装置200のエコ運転(例えば、低電力運転や低負荷運転、低通信量運転)を行った企業、または、操作者若しくはテレワーク特性に適したロボット制御の方法を提供した企業等に対して、システム利用の割引や減額サービスを行ってもよい。これにより、利用者からの情報提供を推進することができるため、サービスの向上に役立てることができる。
また、上述の実施形態では、1台のロボット装置200を複数の操作者で操作する場合に、それぞれの操作意図や作業状況を表示させる例を示したが、例えば、所定距離以内に存在する複数のロボット装置200や、共同作業を行っているロボット装置間で、上述した意図推定結果や、作業状況、操作者に関する情報を提供してもよい。これにより、ロボット同士の意図推定機能を用いることで、人間同士で行うよりもより意識の共有が可能となる。また、周辺のロボット装置200の状況まで取得することができるため、グループワーク等も円滑に行うことができる。
以上説明した実施形態は、例えば、サーバにおいて、一以上のロボット装置200および一以上のロボット装置200のうち少なくとも一つを遠隔操作する一以上の操作端末300とネットワークNWを介して通信する通信部と、操作端末300によって入力された操作内容を取得する取得部と、取得部により取得された操作内容に基づいて操作端末300の操作者の意図を推定する意図推定部と、意図推定部により推定された意図結果に基づいてロボット装置200の動作を制御する動作制御部と、を備えることにより、ロボットをより適切に動作させることができる。
また、上述した実施形態によれば、ロボットを遠隔操作することによってテレワークを行うにあたり、より汎用的に様々な装置を使用したり、それをチームで運用することができる。また、従来は遠隔操作を行うにしても限られた専用ロボットでの限られた作業しかできなかったが、本実施形態によれば、汎用性の高いロボットで誰もが簡単にテレワークを行うことが可能になる。
また、実施形態によれば、ロボットの情報とセンサの情報(企業の機密を含みうる情報)分けて管理することができ、機密対応可能なサーバを提供することができる。また、遠隔操作する操作者は同一サーバにアクセス可能であり、同一ロボット、あるいは別ロボットの操縦権やセンサ情報を共有することができる。例えば、同一ロボット装置を操作する場合には、複数の操作者が違う腕を操作することで、同一ロボットの同一腕を先輩と後輩が同時に操作し、触覚などのセンサ情報も共有した上で力の足し算、引き算ができる。また、別ロボット操縦の場合に、意図推定機能を共有し、他者の意図を開示することにより以心伝心が可能となる。また、意図推定機能を利用することで同じ方向に進んでしまったり、同じものを取ろうと思った時にぶつからないように警告を出すことができる。また、実施形態によれば、1人の操縦者が2台のロボットを操縦することが可能である。この場合、例えば大きい机を2台のロボットで運ぼうとした場合、予め一台のロボットを机の端に連れていき、別ロボットと同期処理をする。また、別ロボットをもう一端に連れていき、持ち上げる動作をしようとすると同期処理により一緒に持ち上げる。更に、実施形態では、人間同士で掛け声をかけて動作させるよりも正確な作業が可能となる。また、実施形態では、一人の操縦者が同じ作業をたくさんのロボットにさせる場合に、サポーティッドテレオペレーション機能によって、ロボット個体差と作業対象物の個体差を吸収することができる。
上記説明した実施形態は、以下のように表現することができる。
移動体と、前記移動体の利用者の携帯端末との通信を行うサーバのコンピュータが、
プログラムを記憶した記憶装置と、
ハードウェアプロセッサと、を備え、
前記ハードウェアプロセッサが前記記憶装置に記憶されたプログラムを実行することにより、
一以上のロボット装置および前記一以上のロボット装置のうち少なくとも一つを遠隔操作する一以上の操作端末とネットワークを介して通信し、
前記操作端末によって入力された操作内容を取得し、
取得した操作内容に基づいて前記操作端末の操作者の意図を推定し、
推定した意図結果に基づいて前記ロボット装置の動作を制御する、
ように構成されている、サーバ。
以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
1…遠隔操作システム、100…管理サーバ、110,202、310…通信部、120…通信制御部、130…取得部、140…管理部、150…制御部、170…記憶部、200…ロボット装置、204…センサ、206…カメラ、208…マイク、210…駆動部、214…モニタ、216…スピーカ、240…制御装置、260…記憶部、300…操作端末、320…HMD、330…操作装置、340…環境センサ、360…制御装置、380…記憶部

Claims (9)

  1. 一以上のロボット装置および前記一以上のロボット装置のうち少なくとも一つを遠隔操作する一以上の操作端末とネットワークを介して通信する通信部と、
    前記操作端末によって入力された操作内容を取得する取得部と、
    前記取得部により取得された操作内容に基づいて前記操作端末の操作者の意図を推定する意図推定部と、
    前記意図推定部により推定された意図結果に基づいて前記ロボット装置の動作を制御する動作制御部と、
    を備える、サーバ。
  2. 前記取得部は、前記ロボット装置の動作に関するロボット制御情報と、前記ロボット装置に設けられたセンサにより検出されたセンサ情報とを取得し、
    前記取得部により取得された前記ロボット制御情報と前記センサ情報とに、それぞれ異なるアクセス権を設定し、設定されたアクセス権が確認されたときに前記ロボット制御情報と前記センサ情報の何れかを取得可能とする管理部を更に備える、
    請求項1に記載のサーバ。
  3. 前記管理部は、前記センサ情報のアクセス権の強度を、前記ロボット制御情報よりも大きくする、
    請求項2に記載のサーバ。
  4. 前記動作制御部は、複数の操作端末から取得した操作内容に基づいて一つのロボット装置の動作を制御する場合に、前記操作端末を操作する操作者の優先度に基づいて、前記ロボット装置の動作制御情報を生成する、
    請求項1から3のうち何れか1項に記載のサーバ。
  5. 前記動作制御部は、前記取得部により前記複数の操作端末から同一または類似の操作内容が取得された場合に、前記優先度の高い操作者からの操作内容を優先させて前記ロボット装置の動作を制御する、
    請求項4に記載のサーバ。
  6. 前記意図推定部は、前記一つのロボット装置を操作する複数の操作端末のそれぞれの操作者の意図を推定し、
    前記意図推定部により推定された前記それぞれの操作者の意図推定結果を前記複数の前記操作端末のそれぞれに出力させる出力制御部を更に備える、
    請求項4または5に記載のサーバ。
  7. 請求項1から請求項6の何れかに記載されたサーバと、
    前記一以上のロボット装置と、
    前記一以上の操作端末と、
    を備える、遠隔操作システム。
  8. コンピュータが、
    一以上のロボット装置および前記一以上のロボット装置のうち少なくとも一つを遠隔操作する一以上の操作端末とネットワークを介して通信し、
    前記操作端末によって入力された操作内容を取得し、
    取得した操作内容に基づいて前記操作端末の操作者の意図を推定し、
    推定した意図結果に基づいて前記ロボット装置の動作を制御する、
    遠隔操作方法。
  9. コンピュータに、
    一以上のロボット装置および前記一以上のロボット装置のうち少なくとも一つを遠隔操作する一以上の操作端末とネットワークを介して通信させ、
    前記操作端末によって入力された操作内容を取得させ、
    取得された操作内容に基づいて前記操作端末の操作者の意図を推定させ、
    推定された意図結果に基づいて前記ロボット装置の動作を制御させる、
    プログラム。
JP2021069233A 2021-04-15 2021-04-15 サーバ、遠隔操作システム、遠隔操作方法、およびプログラム Pending JP2022164027A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2021069233A JP2022164027A (ja) 2021-04-15 2021-04-15 サーバ、遠隔操作システム、遠隔操作方法、およびプログラム
CN202311388284.1A CN117336337A (zh) 2021-04-15 2022-03-01 远程操作系统与方法以及存储介质
CN202210195963.6A CN115225682B (zh) 2021-04-15 2022-03-01 管理服务器、远程操作系统、远程操作方法以及存储介质
US17/720,271 US20220331967A1 (en) 2021-04-15 2022-04-13 Management server, remote operation system, remote operation method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021069233A JP2022164027A (ja) 2021-04-15 2021-04-15 サーバ、遠隔操作システム、遠隔操作方法、およびプログラム

Publications (1)

Publication Number Publication Date
JP2022164027A true JP2022164027A (ja) 2022-10-27

Family

ID=83742764

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021069233A Pending JP2022164027A (ja) 2021-04-15 2021-04-15 サーバ、遠隔操作システム、遠隔操作方法、およびプログラム

Country Status (1)

Country Link
JP (1) JP2022164027A (ja)

Similar Documents

Publication Publication Date Title
Du et al. Markerless kinect-based hand tracking for robot teleoperation
Krupke et al. Comparison of multimodal heading and pointing gestures for co-located mixed reality human-robot interaction
Delmerico et al. Spatial computing and intuitive interaction: Bringing mixed reality and robotics together
US10775946B2 (en) Universal handheld controller of a computer system
US20180005445A1 (en) Augmenting a Moveable Entity with a Hologram
US20180018021A1 (en) Method, device, system and non-transitory computer-readable recording medium for providing user interface
JP6950192B2 (ja) 情報処理装置、情報処理システム及びプログラム
Tang et al. The integration of contactless static pose recognition and dynamic hand motion tracking control system for industrial human and robot collaboration
JP7135444B2 (ja) 情報処理装置及びプログラム
Chen et al. A human–robot interface for mobile manipulator
Ben Abdallah et al. Kinect‐Based Sliding Mode Control for Lynxmotion Robotic Arm
Marques et al. Commodity telepresence with the AvaTRINA nursebot in the ANA Avatar XPRIZE semifinals
JP2019149066A (ja) 情報処理装置及びプログラム
JP2017199151A (ja) 作業指示システム
JP7155613B2 (ja) 情報処理装置及びプログラム
Bechar et al. A review and framework of laser-based collaboration support
JP2022164027A (ja) サーバ、遠隔操作システム、遠隔操作方法、およびプログラム
JP5659787B2 (ja) 操作環境モデル構築システム、および操作環境モデル構築方法
Renner et al. Facilitating HRI by mixed reality techniques
US11262842B2 (en) Input device for a computing device
JP2022164029A (ja) 情報提供サーバ、情報提供システム、情報提供方法、およびプログラム
US20220331967A1 (en) Management server, remote operation system, remote operation method, and storage medium
EP4141592A1 (en) Controlling industrial machines by tracking movements of their operators
Mao et al. Eliminating drift of the head gesture reference to enhance Google Glass-based control of an NAO humanoid robot
JP6809267B2 (ja) 情報処理装置、情報処理システム及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231128

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240522