JP2021064064A - ロボットシステム、ロボット及び操作端末 - Google Patents

ロボットシステム、ロボット及び操作端末 Download PDF

Info

Publication number
JP2021064064A
JP2021064064A JP2019187150A JP2019187150A JP2021064064A JP 2021064064 A JP2021064064 A JP 2021064064A JP 2019187150 A JP2019187150 A JP 2019187150A JP 2019187150 A JP2019187150 A JP 2019187150A JP 2021064064 A JP2021064064 A JP 2021064064A
Authority
JP
Japan
Prior art keywords
robot
image
operator
movement
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019187150A
Other languages
English (en)
Inventor
篤史 小杉
Atsushi Kosugi
篤史 小杉
前野 蔵人
Kurato Maeno
蔵人 前野
祐香 青池
Yuka Aoike
祐香 青池
吉田 敏之
Toshiyuki Yoshida
敏之 吉田
正之 村谷
Masayuki Muratani
正之 村谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2019187150A priority Critical patent/JP2021064064A/ja
Publication of JP2021064064A publication Critical patent/JP2021064064A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

【課題】オペレータによるロボット操作への切替の際に、オペレータが直感的にロボットを操作できるようにする。【解決手段】本発明のロボットシステムは、当該ロボットの周囲を撮像する1又は複数のカメラを有し、自律的に移動するロボットと、仮想視点から当該ロボットの周囲映像を映し出した監視画面を表示する表示部と、オペレータによりロボットの移動操作を行なう操作部とを有する操作端末と、ロボットと、ロボットの移動操作を行なうオペレータの操作端末との間の情報通信に係る接続処理を行なう接続制御部とを備え、ロボットをオペレータによる移動操作に切り替える際に、ロボットが、当該ロボットの正面方向を示す情報と、監視画面の監視方向を示す情報とに基づいて、当該ロボットの正面を監視画面の監視方向に近づけるようにする移動制御部を備える。【選択図】 図1

Description

本発明は、ロボットシステム、ロボット及び操作端末に関する。
例えば、特許文献1には、建物内、建物間、又は構内の地図データを用いて、建物内や建物間を自律的に移動するロボットが開示されている。このようなロボットは、予め格納されたプログラムを実行するコンピュータにより移動部が駆動し、ある位置から目的位置まで移動し、定義された業務(タスク)を実行する。
上述したような自律移動型ロボットが、自律的に移動できない事象等が生じた場合、当該ロボットの移動を遠隔的に操作できるようにすることが望まれている。その場合、ロボットには、自己の周囲を撮像するカメラが搭載され、オペレータがカメラ映像を見ながらロボットを操作することが考えられる。
特開2019−3602号公報
しかしながら、オペレータがカメラ映像を見ながら、遠隔的にロボットを移動操作する場合、以下のような課題が生じ得る。
オペレータによるロボット移動操作への切替の際に、オペレータが見る監視映像がロボットの正面位置と異なってしまうことがあり、直感的にロボットの移動操作を行なうことができないという課題がある。
また、ロボットに搭載されるカメラ映像を合成した合成映像に当該ロボットの画像モデルを貼り付けた映像を監視映像とする場合、監視映像上で、オペレータが注目すべき対象(オブジェクト)とその画像モデルとが重なってしまうことがある。そうすると、監視映像がオブジェクトが見えなくなってしまい、ロボットの移動操作ができなくなってしまうという課題もある。
そこで、本発明は、上記課題に鑑み、オペレータによるロボット操作への切替の際に、監視映像を見てロボットを移動操作するオペレータが、直感的に、ロボットの移動操作を行なうことができるロボットシステム、ロボット及び操作端末を提供しようとするものである。
かかる課題を解決するためには、第1の本発明のロボットシステムは、(1)当該ロボットの周囲を撮像する1又は複数のカメラを有し、自律的に移動するロボットと、(2)ロボットの各カメラにより撮像された各カメラ映像に基づいて仮想視点から当該ロボットの周囲映像を映し出した監視画面を表示する表示部と、オペレータによりロボットの移動操作を行なう操作部とを有する操作端末と、(3)ロボットと、ロボットの移動操作を行なうオペレータの操作端末との間の情報通信に係る接続処理を行なう接続制御部とを備え、ロボットをオペレータによる移動操作に切り替える際に、ロボットが、当該ロボットの正面方向を示す情報と、表示部に表示される仮想視点から当該ロボットの周囲映像を映し出している監視画面の監視方向を示す情報とに基づいて、当該ロボットの正面を監視画面の監視方向に近づけるように、当該ロボットを移動制御する移動制御部を備えることを特徴とする。
第2の本発明のロボットは、ロボットの周囲を撮像する1又は複数のカメラを有し、自律的に移動するロボットにおいて、ロボットは、ロボットの各カメラにより撮像された各カメラ映像に基づいて仮想視点から当該ロボットの周囲映像を映し出した監視画面を表示する表示部と、オペレータによりロボットの移動操作を行なう操作部とを有する操作端末の間で情報通信を行ない、ロボットをオペレータによる移動操作に切り替える際に、当該ロボットの正面方向を示す情報と、表示部に表示される仮想視点から当該ロボットの周囲映像を映し出している監視画面の監視方向を示す情報とに基づいて、当該ロボットの正面を監視画面の監視方向に近づけるように、当該ロボットを移動制御する移動制御部を備えることを特徴とする。
第3の本発明の操作端末は、ロボットの周囲を撮像する1又は複数のカメラを有し、自律的に移動するロボットを、オペレータによる移動操作を行なうための操作端末において、ロボットの上記各カメラにより撮像された各カメラ映像に基づいて仮想視点から当該ロボットの周囲映像を映し出した監視画面を表示する表示部と、オペレータによりロボットの移動操作を行なう操作部と、ロボットと、ロボットの移動操作を行なうオペレータの操作端末との間の情報通信に係る接続処理を行なう接続制御部とを備えることを特徴とする。
本発明によれば、オペレータによるロボット操作への切替の際に、オペレータによるロボット操作への切替の際に、監視映像を見てロボットを移動操作するオペレータが、直感的に、ロボットの移動操作を行なうことができる。
実施形態に係る遠隔操作システムの全体構成を示す全体構成図である。 実施形態に係るロボットの内部構成を示す内部構成図である。 実施形態に係るロボットの遠隔操作処理の動作を示すフローチャートである。 実施形態に係るロボットの制御データベースに記憶されるエリア監視テーブルの構成を例示する構成図である。 実施形態の管理データベースに記憶されるオペレータとロボットの対応データテーブルの構成例を示す構成図である。 実施形態におけるロボットの正面方向、各カメラのカメラ画像及びエリア監視画面との関係を説明する説明図である。 実施形態における操作端末の表示部の表示画面を説明する説明図である。 実施形態に係る合成映像に映るCG画像モデルの透過度を調整する方法を説明する説明図である。
(A)主たる実施形態
以下では、本発明に係るロボットシステム、ロボット及び操作端末の実施形態を、図面を参照しながら詳細に説明する。
(A−1)実施形態の構成
図1は、実施形態に係る遠隔操作システムの全体構成を示す全体構成図である。
本発明のロボットシステムとしての遠隔操作システム4は、通信網3を介して、1又は複数のオペレータの操作により、1又は複数のロボット1の動きを遠隔操作するシステムを想定する。
通信網3は、例えばIP(Internet Protocol)網等を適用できる。通信網3は、有線回線、無線回線、有線回線と無線回線とが混在する通信網とすることができる。
(A−1−1)全体構成
[ロボット1]
「ロボット」の概念は、この実施形態に限定されるものではない。「ロボット」は、人造人間、人間に類似した動作や作業を行なうものを含む。また、「ロボット」は、外部からの指示(指令)に基づき、指示された動作や作業をコンピュータにより行なう装置、自律的な動作や作業をコンピュータにより行なう装置を含む。また、「ロボット」は、自動制御によるマニピュレーション機能、及び又は、移動機能を持ち、各種の作業をプログラムによって実行でき産業に使用される機械を含む。また、「ロボット」は、人間、動物等にサービスするロボットを含む。さらに、「ロボット」は、「センサ、知能・制御系、駆動系の3つの要素技術を有する、知能化した機械システム」等を含む。
この実施形態では、ロボット1が、空間の床面上を自律的に移動する自律移動型ロボットである場合を例示する。なお、ロボット1は、例えば空中を移動する無人飛行体や、海上や海中を移動するものであってもよい。空間の床面上を移動するロボット1は、1台であっても良いし、複数台であってもよい。
ロボット1には、自己が空間の環境地図データ等を用いて自律的に移動する動作モード(以下、「自律動作モード」とも呼ぶ。)と、オペレータ操作によりロボット1が移動する動作モード(以下、「手動モード」と呼ぶ)とがあり、これらの動作モードは切り替え可能である。
自律動作モードと手動モードとの切り替えは、ロボット1の動作や状態等を管理しているオペレータの操作により切り替えられるようにしても良い。また、ロボット1が、例えば、自律的な動作を維持できない事象(自律動作維持困難事象)、若しくは、もう少しで自律的な動作を維持することが難しくなる事象を検知したときに、ロボット1側が操作端末24側に、動作モードの切替を要求する切替要求情報(コマンド)を投げ、その切替要求情報の受信に基づいて手動モードへの切り替えを可能としてもよい。換言すると、オペレータ主導により動作モードを切り替えることもでき、ロボット側からの要求により動作モードを切り替えることもできる。
ここで、「自律的な動作を維持できない事象」とは、ロボット1に課されている業務や作業等のタスクを行なうことが困難な事象をいう。例えば、自律移動型ロボット1が搬送ロボットや警備ロボット等として利用されるような場合、障害物検知センサ等のセンサ類のセンサデータや、カメラ映像等の分析結果から、当該ロボット1に供給されている環境地図データや移動経路等に、当初は存在していなかった障害物や人や動物等が存在するようになったことで走行(自律的な移動)が困難になった又は自律動作に支障が生じる事象等が例示される。
ロボット1は、例えば、空間における環境地図データや、地図上に設定された移動経路を用いて、自己の位置を推定しながら空間内の移動経路を、自律的に移動することができる。
「環境地図データ」は、ロボット1が移動する環境空間の地図データである。環境地図データは、2次元の地図データであっても良いし、3次元の地図データであってもよい。「移動経路」は、環境地図データに基づく地図上で、ロボット1が移動しようとする経路情報である。
環境地図データ及び移動経路は、ロボット1に搭載されている記憶部に予め記憶されているものであっても良いし、通信網3に接続可能な外部サーバ(例えばクラウドサーバ)から取得したものであってもよい。例えばサーバから環境地図データや移動経路を取得可能とすることで、最新の環境地図データや移動経路を取得することができる。より具体的には、業務や作業などのタスクを実行するロボット1が自己の移動経路に従って空間内を移動している間に、当初の地図上には存在していなかったオブジェクトが存在するようになったときや、移動経路の最適化により移動経路が変更されたとき等に、更新された最新の環境地図データや移動経路を取得できる。また、複数のロボット1との間で環境地図データを共有することもできる。また、環境地図データや移動経路の更新は、例えばオブジェクトを検出した各ロボット1が行なうようにしてもよいし、オペレータの操作により行なうようにしてもよい。各ロボット1の移動経路はロボット1毎に異なることもあるので、移動経路はロボット1毎に設定又は変更されたものであってもよい。
ロボット1は、ロボット本体部14と、ロボット本体部14の下部に当該ロボット本体部14を支持しながら移動するための移動部12と、ロボット本体部14に設けられた1又は複数のカメラ11(11−1〜11−4)を有する。
(ロボット本体部)
図1では、説明を容易にするために、ロボット本体部14が円柱形状である場合を例示しているが、これに限定されない。例えば、搬送可能な箱型、人型、動物型、自動車等の車両型などとしてもよい。
(移動部)
移動部12は、ロボット1の移動を可能とするための装置である。この実施形態では、床面上を移動するロボット1を例示するので、移動部12は1又は複数の駆動輪13を備えるものとする。
後述するように、ロボット1に搭載されている移動制御部150の制御により、例えばモータドライバや駆動モータ等の移動駆動部160(図2参照)が各駆動輪13を駆動させることで、ロボット1は移動可能となる。移動部12は、前進方向、後進方向、右方向、左方向の移動、回旋等が可能である。移動部12は、3軸方向に可動する場合を例示するが、これに限定されず、無人飛行体等にロボット1を適用するときには6軸方向に可動するものであってもよい。
(カメラ)
カメラ11は、ロボット1の四方の周囲の映像を撮像する撮像装置である。
この実施形態では、図1に示すように、4台のカメラ11−1〜11−4が、ロボット本体部14の上部側壁部に設けられている。各カメラ11−1〜11−4の設置位置は、ロボット1が実行するタスクや各カメラ11−1〜11−4の撮像範囲に応じて適宜決めることができ、ロボット本体部14の高さ方向に対して、中央側壁部、下部側壁部であってもよい。
図1では、ロボット1上部の平面視野で見たとき、カメラ11−1と11−3とが対向する位置に設けられ、カメラ11−2とカメラ11−4とが対向する位置に設けられている場合を例示する。平面視野で、各カメラ11−1〜11−4は、概ね90度毎の間隔をおいて設けられている。各カメラ11−1〜11−4は、魚眼レンズ等の広角レンズを有するカメラとしてもよく、4台のカメラ11−1〜11−4によって撮像したカメラ映像は、ロボット1の全周囲を映し出すことができる。ロボット1の全周囲を映し出すことができるのであれば、カメラ11は、パノラマカメラ、360度カメラであってもよい。
[管理センタシステム]
管理センタシステム2は、ゲートウェイ装置21、接続制御部22、管理データベース23、操作端末24(24−1〜24−M;Mは正の整数)、映像合成制御部26等を有し、これら構成要素はネットワーク25と接続されている。
ネットワーク25は、例えばLAN(Local Area Network)等を適用でき、有線、無線のいずれであってもよい。
(ゲートウェイ装置)
ゲートウェイ装置21は、通信網3と接続して、ロボット1と、管理センタシステム2の各構成要素(例えば、操作端末24、接続制御部22、映像合成制御部26など)との間で授受される情報を中継する処理を行なう。
(接続制御部)
接続制御部22は、各ロボット1と、オペレータにより操作される各操作端末24との接続制御を行なう。
基本的には、ロボット1は自律的に移動するが、自律動作モードから手動モードへの切替を行なう際に、接続制御部22が、オペレータにより操作される操作端末24と、当該操作端末24で遠隔操作されるロボット1との間で情報の送受信できるように接続処理を行なう。通信制御プロトコル(セッション確立プロトコル等)は特に限定されず、例えばSIP(Session Intiation Protocol)などを適用してもよい。
例えば、オペレータ主導で手動モードに切り替える際、接続制御部22は、オペレータ操作により操作端末24から遠隔操作対象であるロボット1が指定され、その指定されたロボット1と、当該操作端末24との間の接続処理を行なう。
また例えば、ロボット1側からの要求により手動モードに切り替える際、接続制御部22は、ロボット1から手動モードへの切替要求情報を受信すると、例えば、オペレータの習熟度合いを示す値等に基づいて、オペレータを選択し、そのオペレータの操作端末24に、当該ロボット1について手動モードへの切替を指示する情報を与えて、当該ロボット1と操作端末24との接続処理を行なう。このとき、接続制御部22は、当該ロボット1と当該オペレータの操作端末24との間を自動的に接続するようにしても良いし、当該オペレータ操作による操作端末24からの応答を得た後に、接続処理を行なうようにしてもよい。
ここで、この実施形態における、「オペレータの習熟度合い」とは、タスクを実行するロボット1の遠隔操作に関連するオペレータの習熟度合いの程度を意図する。習熟度合いを示す値は、オペレータの習熟度合いを判断するための複数の要素(例えばオペレータの権限の有無、オペレータの能力(例えば、遠隔操作に係る経験値、経験回数、対応能力を評価した値等)、オペレータの状態(例えば、空き状況、連続操作時間、操作時間の総時間等)が定義され、更に要素毎に習熟度合いの程度に応じたスコア値やその評価方法等が定義されており、各要素のスコア値を用いた分析を行なうようにしてもよい。そして、オペレータが経験を積んでいくにしたがって、オペレータの権限、能力、状態等を含む各要素の習熟度合いの値を学習していく。接続制御部22は、手動モードへの切替要求を行なったロボット1の移動状態と、オペレータの習熟度合いを示す値の学習結果とを参照して、ロボット1が置かれている状態に応じて、最適なオペレータを選択するようにしてもよい。
なお、接続制御部22のハードウェアは、例えば、コンピュータ、ROM、RAM、EEPROM等を有する集積回路装置を用いることができ、コンピュータがROMに格納される処理プログラム(例えば、接続処理プログラム等)を実行することにより各種機能が実現される。
(管理データベース)
管理データベース23は、接続制御部22による処理に必要なデータを記憶する。
例えば、管理データベース23には、ロボット1を一意に識別する識別情報と、当該ロボット1を遠隔操作するオペレータを一意に識別する識別情報(例えば、オペレータに対して付与されたID等)、当該オペレータによる操作される操作端末24を一意に識別する識別情報等を対応付けた管理テーブル等が記憶される。管理テーブルには、オペレータが監視するエリア監視方向、ロボット1の仮想的な正面方向、オペレータ操作によりロボット1を移動指示するハンド方向等を対応づけてもよい。
また、管理データベース23には、オペレータの習熟度合いの値を示す学習結果等が記憶されるようにしてもよい。さらに、各ロボット1のカメラ11の過去のカメラ映像を記録するため、管理データベース23には、カメラ映像が撮像時刻を伴ってロボット1毎に保存されるようにしてもよい。
(操作端末)
操作端末24(24−1〜24−M)は、各オペレータによって操作される端末である。操作端末24は、通信部241、操作部242、表示部243等を有する操作卓(又はコックピット)に設けられる。
権限を有する管理者が他のオペレータの操作やロボット1への指示等を管理してもよい。管理者自身はオペレータとしてロボット1を遠隔操作するようにしてもよい。
通信部241は、ネットワーク25と接続して、ロボット1、接続制御部22、映像合成制御部26との間で情報を送受信する。
操作部242は、入力ユーザインタフェースであり、オペレータにより操作される。
操作部242は、オペレータ操作によりロボット1の移動方向や移動速度等を操作する操作デバイスとして、例えば、キーボード、マウス等のポインティングデバイス、ジョイスティック、スペースマウス、操作レバー、操作ハンドル、操作ボタン(GUI(Graphical User Interface)画面上のボタン、物理的なボタンを含む)等が挙げられる。例えば、手動モードでロボット1の移動を遠隔操作するときの操作デバイスは、様々なものを適用でき、例えば、ジョイススティック、スペースマウス等とすることができ、又これに限定されず、自動車型の操作ハンドル、航空機型の操作ハンドル等としてもよい。
表示部243は、出力ユーザインタフェースであり、ディスプレイ、モニタ、タッチパネル型のディスプレイ等を適用できる。表示部243には、各ロボット1のカメラ11のカメラ映像や、ロボット1の移動状態に関する情報等が表示される。ロボット1の移動状態に関する情報には、ロボット1に搭載されるカメラ11のカメラ映像に基づいて検出した情報や、センサ群130(図2参照)により検知された情報が含まれる。より具体的には、ロボット1の周囲に存在する、注目すべきオブジェクト(例えば、障害物、人、動物等)を検知した検知情報等としてもよい。
なお、操作端末24には、例えば、マイクロフォン、スピーカ、プリンタ等が含まれるようにしてもよい。操作端末24は、ロボット1の周囲にいる人間と音声を通じてコミュニケーションをとれるようにしても良いし、ロボット1のコミュニケーション部140を通じて、ロボット1と操作端末24との間で情報を授受しあうことでコミュニケーションをとれるようにしてもよい。
(映像合成制御部)
映像合成制御部26は、各ロボット1から、カメラ11−1〜11−4で撮像したカメラ映像を取得し、各カメラ映像に基づいて、操作端末24の表示部243に映像を表示するための映像制御処理を行なう。
ここで、映像合成制御部26は、管理センタシステム2に設けられている場合を例示するが、これに限定されず、通信網3と接続する外部サーバに設けられるようにしてもよい。つまり、各ロボット1のカメラ11−1〜11−4のカメラ映像の映像制御処理は、管理センタシステム2上の装置が行なうようにしても良いし、管理センタシステム2とは物理的に異なる、通信機能を有する外部装置上で行なわれるようにしてもよい。
映像合成制御部26は、各ロボット1の4台のカメラ11−1〜11−4のそれぞれが撮像した各カメラ映像データを、各操作端末24に与えてもよい。これにより、4個のカメラ映像が表示部243に表示可能となる。
また、映像合成制御部26は、所定の3次元モデルを用いて、4台のカメラ11−1〜11−4の4個のカメラ画像(2次元画像)を合成して、3次元合成画像を形成してもよい。
ここで、3次元の合成画像の生成方法には、様々な方法を適用できる。例えば、予め設定された3次元モデルを用意しておき、各カメラ11−1〜11−4のカメラ画像(2次元画像)を3次元モデルに座標変換して、3次元の合成画像を生成する方法を用いることができる。
より具体的には、例えば、ロボット1の位置を中心とし、下に凸の半円球の球面上に形成された3次元モデルを用いるようにしてもよい。半円球球面の3次元モデルの曲面角度は、合成しようとする合成画像に応じて適宜設定するようにしてもよい。3次元モデルは、メッシュが形成されており、当該3次元モデル(3次元メッシュ形状モデル)の座標系における各画素の座標値(例えば、X軸の座標値、Y軸の座標値、Z軸の座標値)が設定されている。また、各カメラ11−1〜11−4のカメラ画像は、カメラ画像の座標系における画素の座標値(x軸の座標値、y軸の座標値)が設定されている。映像合成制御部26は、各カメラ撮像画像の各画素の座標値を、3次元モデルの曲面上の各画素の座標値に投影変換する等して、各カメラの撮像画像の各画素を、3次元モデルにおける対応する画素にマッピングする。このようにすることで、カメラ11−1〜11−4の各撮像画像を3次元モデルにマッピングした合成映像を生成できる。2次元の各カメラ画像が3次元モデルの曲面に投影されるので、歪みの少ない3次元合成画像とすることができる。
さらに、映像合成制御部26は、3次元モデルを用いて生成した合成画像の画像領域において、ロボット1が存在する画像領域をマスク領域とし、そのマスク領域をマスクする。更に、マスク領域に、例えばCG(コンピュータグラフィックス)等で形成したロボット1形状を模したCG画像モデルを貼り付けるようにしてもよい。なお、CG画像モデルは予め設定されているものであり、3次元モデル(3次元メッシュ形状モデル)の座標系に貼り付けられる。なお、CG画像モデルは、ロボット1の形状に限定されず、他のモデル形状であってもよい。
カメラ11−1〜11−4によってロボット1の全周囲を撮像した3次元合成画像と、ロボット1の存在領域にロボット1のCG画像モデルが張られた合成映像が、操作端末24の表示部243に与えられ、表示部243には、3次元合成映像が表示可能となる。
オペレータ操作により、3次元モデルの座標系で仮想視点が自由に設定可能となる。3次元合成映像には、ロボット1のCG画像モデルが含まれているので、例えばロボット1よりも高い位置(Z軸座標の座標値を高くした位置)に仮想視点を設定すると、ロボット1(CG画像モデル)とその全周囲の様子を俯瞰した映像が表示される。
なお、この実施形態では、映像合成制御部26が、上述したようなCG画像モデルを含む3次元合成画像を形成する場合を例示したが、合成画像はこれに限らない。映像合成制御部26は、2個以上のカメラ画像を合成したパノラマ画像、360度カメラ画像等を形成するようにしてもよい。
映像合成制御部26の処理を行なうハードウェアは、例えば、コンピュータ、ROM、RAM、EEPROM等を有する集積回路装置を用いることができ、コンピュータがROMに格納される処理プログラム(例えば、映像合成処理プログラム等)を実行することにより各種機能が実現される。
[ロボットの詳細な構成]
図2は、実施形態に係るロボット1の内部構成を示す内部構成図である。
図2において、ロボット1は、統括制御部100、通信部110、監視部120、センサ群130、コミュニケーション部140、移動制御部150、移動駆動部160、データベース170を有する。
(通信部)
通信部110は、通信網3と接続して、ロボット1と、管理センタシステム2の各構成要素(例えば、操作端末24、接続制御部22、映像合成制御部26など)との間で情報の授受を行なうものである。
(監視部)
監視部120は、カメラ11−1〜11−4によりロボット1の四方の全周囲が撮像され、ロボット1の全周囲を監視する。
監視部120は、各カメラ11−1〜11−4の各カメラ映像データに基づいて画像解析を行ない、各カメラ画像の画像領域に映り込む、注目すべき対象(オブジェクト)の存在を検出する。
ここで、注目すべき対象(オブジェクト)は、空間を移動するロボット1の当初の移動経路上には存在し得なかったものを意図する。対象(オブジェクト)には、障害物、人、動物等が挙げられる。監視部120は、各カメラ映像データに基づいて、所定のアルゴリズムにより顔認証処理や障害物検出処理等を行ない、注意すべき対象(オブジェクト)の検出処理を行なう。監視部120により検出された結果は統括制御部100に与えられる。
(センサ群)
センサ群130は、例えば、障害物の検出のための対物検出センサ、対象物までの距離を計測する深度センサ(測距センサ)、赤外線センサ、温湿度センサ、人物の体温や心拍等のバイタルデータを検知するバイタルセンサ等とすることができ、各種センサの全部又は一部の組み合わせてもよい。センサ群130の各センサによりセンシングされたデータは統括制御部100に与えられる。
(コミュニケーション部)
コミュニケーション部140は、ロボット1に接する対象(例えば、人等)と、オペレータとの間でコミュニケーションをとるためのデバイスである。
例えば、コミュニケーション部140は、スピーカや表示部等の出力部141を有しており、音声通信処理により操作端末24側のオペレータの音声がスピーカから出力されたり、コミュニケーションをとるための情報を表示したりすること等ができる。なお、図2には、図示しないが、コミュニケーション部140は、マイクロフォンやタッチパネルディスプレイ等のような入力デバイス(入力部)を設けるようにしてもよい。これを活用することで、例えばロボット1の近くに存在する人と、オペレータとの間でコミュニケーションをとることができる。
(統括制御部)
統括制御部100は、ロボット1の動作やタスク動作等を司る処理部である。
統括制御部100は、予め定義された情報や、監視部120の監視結果やカメラ11の各カメラ映像データ、センサデータ等のように、タスクを行なうロボット1の行動や知識やスキル(能力)等の各種データを獲得し、これらを学習していく。そして、統括制御部100は、その後に獲得した状態データ(例えば監視部120の監視結果や各カメラ映像データやセンサデータ等)と、学習したデータとを参照して、ロボット1の行動を判断して、これに応じて処理する。統括制御部100は、行動判断部101と、行動処理部102とを有する。
行動判断部101は、予め定義されたタスク設定情報等に従って、ロボット1の行動判断する。例えば、この実施形態では、行動判断部101は、自己(ロボット1自身)の位置を推定しながら、移動経路に従って正しく移動しているか否かを判断する。
行動判断部101には、監視部120によるカメラ映像を用いた監視結果や、センサ群130から各種センサのセンサデータ等が入力されており、定義された移動経路に従ってロボット1が走行している際に、監視部120による監視結果や、センサ群130からのセンサデータ等を用いて、ロボット1の移動状態を判断するようにしてもよい。なお、行動判断部101の詳細な説明は動作の項で行なう。
行動処理部102は、行動判断部101からの判断結果に基づく処理を行なう。例えば、上述した行動判断部101が、監視部120の監視結果やセンサ群130のセンサデータ等に基づいて、例えば障害物や人物や動物などの注意すべきオブジェクトを検知すると、行動処理部102は、管理センタシステム2側にその旨を示す通知情報を通知する。さらに、必要に応じて、行動処理部102は、ロボット1を自律動作モードから手動モードに切り替え要求する切替要求信号を送信する。また、行動処理部102の詳細な説明は動作の項で詳細に行なう。
(移動制御部)
移動制御部150は、統括制御部100の制御を受けて、ロボット1を移動制御するものである。移動制御部150は、ロボット1の走行を制御する走行制御部151と、正面方向制御部152とを有する。
正面方向制御部152は、自律動作モードから手動モードに切り替わった際に、ロボット1の正面方向を、当該ロボット1を操作するオペレータの操作端末24の表示部243に表示されているエリア監視画面のモニタ方向に近づくように制御する。
正面方向制御部152の詳細の説明は動作の項で説明するが、オペレータ操作による手動モードに切り替わった際に、オペレータが監視しているエリアを示すエリア監視画面の方向が、ロボット1の正面方向と異なってしまうことがあり、ロボット1を走行操作しようとするオペレータが誤操作してしまうことが生じ得る。
しかし、正面方向制御部152が、ロボット1の正面方向を、オペレータにより監視されているエリア監視画面のモニタ方向に近づくように制御することで、ロボット1の正面方向と、エリア監視画面のモニタ方向とが一致又はほぼ一致させることができるので、オペレータの誤操作を軽減できる。
(移動駆動部)
移動駆動部160は、移動制御部150の制御により、移動部12を駆動するためのものであり、例えば駆動輪13を駆動するものである。移動駆動部160は、例えばモータドライバや駆動モータ等を適用できる。
(A−2)実施形態の動作
以下では、この実施形態のロボット1の遠隔操作処理の動作を、図面を参照しながら詳細に説明する。
図3は、実施形態に係るロボット1の遠隔操作処理の動作を示すフローチャートである。
自律動作モード若しくは手動モードで移動しているロボット1の各カメラ11−1〜11−4により撮像された各カメラ映像データは管理センタシステム2側に送信されており、映像合成制御部26による映像制御処理が行なわれている。
オペレータの操作端末24の表示部243には、複数のロボット1のうち、任意の1又は複数のロボット1の全周囲映像を表示したり、オペレータ操作により指定されたロボット1の全周囲映像を表示したりすることができる。
[S201]
まず、オペレータが操作端末24上で操作対象とするロボット1を指定する(S201)。
ここでは、自律動作モードで移動しているロボット1が、オペレータ操作による手動モードに切り替わる際、当該ロボット1の動作を遠隔操作するオペレータが、操作対象とするロボット1を指定する。自律動作モードから手動モードに切り替える際、オペレータの操作により切り替えるようにしても良いし、ロボット1側が管理センタシステム2側に切替要求情報を送信し、オペレータ操作により手動モードへの切替を行なうようにしても良い。後者の場合、管理センタシステム2の接続制御部22が、オペレータの空き状況や習熟度合いに基づいて、オペレータを選定するようにしてもよい。
[S202]
オペレータ操作により操作端末24上で操作対象とするロボット1が指定されると、接続制御部22は、当該指定されたロボット1と、当該オペレータ操作による操作端末24との間の接続制御を行なう(S202)。
[S203、S204]
ロボット1では、カメラ11−1〜11−4がそれぞれ当該ロボット1の周囲を撮像しており(S203)、監視部120が、各カメラ11−1〜11−4の各カメラ映像データから注目すべき対象を判定する(S204)。
図4は、実施形態に係るロボット1の制御データベース170に記憶されるエリア監視テーブル171の構成を例示する構成図である。図4に例示するように、エリア監視テーブル171は、各カメラ11−1〜11−4を一意に識別する「カメラ識別情報」、各カメラ11−1〜11−4が撮像した映像データを示す「映像データ」、監視部120が各カメラ11−1〜11−4のカメラ映像データに基づいて注意すべきオブジェクトの判定結果の度合いを示す「重要度」とを対応付けている。
「重要度」は、例えば「0」〜「100」の範囲の値で示され、重要度を示す値が「100」に近いほど、注意すべきオブジェクトの存在確率が高いことを示している。図4の例の場合、カメラ11−1及び11−2が撮像したカメラ映像に注意すべきオブジェクトの存在確率が高いことを示している。重要度の値の決定方法は、特に限定されず、例えば、監視部120の顔認証処理や障害物検出処理等の結果に基づいて、所定の方法で数値化して決定することができる。
[S205]
ロボット1では、行動判断部101が、各カメラ11−1〜11−4のカメラ映像データや監視部120による監視結果等に基づいて、ロボット1の正面方向を決定する(S205)。
「ロボットの進行方向」とは、移動しているロボット1の進行方向を意味する。また、「ロボットの正面方向」とは、ロボット1において予め定義した正面位置が存在する側をいう。ロボット1の正面位置は、例えば、ロボット本体部14に正面位置とする目印がないときには、予め定義した位置を正面とすることができる。また例えばタッチパネル等のコミュニケーション部140をロボット1の外観に設け、その側を正面としても良いし、ロボット1に顔等のようなものを設けたときには、その側を正面としてもよい。
ここで、ロボット1の運用によっては、必ずしもロボット1の正面を進行方向に向けて走行するものに限らないものもあるので、ここではロボット1の進行方向とロボット1の正面方向とを区別して説明している。例えば、ロボット1が進行方向に正面位置を向けた状態で走行するような場合であれば、ロボット1の正面方向は、進行方向と一致することになるが、当該ロボット1の正面位置を進行方向に向けずに、ロボット1が走行するようなときには、ロボット1の正面方向と進行方向とは異なることになる。
[S206〜S209]
ロボット1において、行動判断部101は、決定したロボット1の正面方向を示す情報を、管理センタシステム2の接続制御部22に送信する(S206)。管理センタシステム2では、接続制御部22が、ロボット1の正面方向を示す情報を受信すると、対応するコックピットの操作端末24にロボット1の正面方向を示す情報を送信する(S207)。
そして、コックピットの操作端末24の表示部243には、ロボット1の正面方向がどの方向であるかをオペレータに知らせるために、ロボット1の正面方向の映像が表示される(S208)。
またこのとき、ロボット1側では、例えばロボット1の周囲に存在し得る人間にロボット1の進行方向を知らせるために、例えばコミュニケーション部140の出力部141(例えばタッチパネルの表示部やスピーカ等)に、ロボット1の進行方向が出力されるようにしてもよい(S209)。ロボット1の進行方向の表示の仕方は、様々な方法を適用でき、例えば「左に曲がります」等の音声アナウンスであっても良いし、タッチパネル上に進行方向を示す矢印等の情報が出力されるようにしても良い。
以下、図5〜図7を用いて説明する。図5は、実施形態の管理データベース23に記憶されるオペレータとロボットの対応データテーブル231の構成例を示す構成図である。図6は、実施形態におけるロボット1の正面方向、各カメラ11のカメラ映像及びエリア監視画面との関係を説明する説明図である。図7は、実施形態における操作端末24の表示部243の表示画面を説明する説明図である。
図5に示すように、対応データテーブル231は、操作端末24を一意に識別する「操作端末ID」、オペレータを一意に識別する「オペレータID」と、操作対象とするロボット1を一意に識別する「操作対象ロボットID」と、オペレータが監視しているエリア監視方向に関する情報を示す「エリア監視方向」、操作対象とするロボット1の正面方向を示す情報を示す「ロボット正面方向」、オペレータ操作により操作端末24の操作部242でロボット1を移動させる方向に関する情報を示す「ハンド方向」とを対応付けたテーブルである。
S201において、オペレータ操作により操作対象のロボット1が指定されると、接続制御部22は、操作端末ID(例えば「操作端末ID:10001」)とオペレータID(例えば「オペレータID:O101」)とロボットID(例えば、「ロボットID:R101」)とを対応付けた対応データテーブル231を作成する。
S207で、接続制御部22が、ロボット1側からロボット1の正面方向を示す情報を受信すると、接続制御部22は、操作端末IDとロボット1との対応データテーブル231の「ロボット正面方向」の欄に、受信したロボット1の正面方向を示す情報を記述する。図6及び図7を用いて説明する。
例えば、図6では、説明便宜上、図6に示すX軸−Y軸座標系を用いて説明する。図6において、ロボット1の進行方向とロボット1の正面方向は同じである場合を例示している。つまり、ロボット1は、予め定義された正面を進行方向に向けて走行しており、ロボット1の進行方向は図6のX−Y座標系で180度の方向(図6の左方向)で移動しているものとする。その場合、ロボット1に撮像方向を固定して設置された各カメラ11−1〜11−4が撮像する各カメラ映像を映し出す各カメラ画面C1、C2、C3、C4は、ロボット1の正面方向、右側方向、後側方向、左側方向の周囲の様子が映し出されているものとする。
図7は、操作端末24の表示部243に表示される画面の一例である。ここでは、表示画面上で、各画面の表示領域が区分されており、各カメラ画面C1〜C4とエリア監視画面M1とは指定された表示領域に表示される場合を例示する。
表示部243には、例えば、各カメラ11−1〜11−4により撮像されたカメラ映像を映し出す各カメラ画面C1〜C4と、オペレータ操作により合成映像において仮想視点VPが指定され、その仮想視点VPからロボット1の周囲の映像を俯瞰して見たときのエリア監視画面M1とが表示される。
S208では、ロボット1の正面方向の映像が、操作端末24の表示部243に表示される。これは、オペレータは、エリア監視画面M1を見て、ロボット1の移動操作を行なうが、手動モードへの切替時に、ロボット1の正面方向(進行方向)が分からず、ロボット1の移動操作が難しく感じられる。そこで、ロボット1の正面方向をオペレータに分かるようにするため、ロボット1の正面方向の映像が表示部243に表示されるようにしている。
ロボット1の正面方向の映像の表示方法は、様々な方法で表示できるが、例えば、図7では、4個のカメラ画面C1〜C4を表示部243に表示する場合を例示している。この例の場合、4個のカメラ映像C1〜C4のうちいずれかの映像が正面方向の映像であることが分かるように、ロボット1の正面方向の映像画面が強調表示されるようにしてもよい。また、別の方法としては、操作端末24の表示部243に、ロボット1の正面方向の映像のみを表示するようにしてもよい。つまり、ロボット1の正面方向以外の映像は表示部243に表示されないようにできるので、オペレータはロボット1の正面方向の映像をすぐにわかる。
ここで、オペレータ操作により仮想視点VPが指定され、仮想視点VPからロボット1の周囲エリアを監視するエリア監視画面M1を説明する。
オペレータ操作により指定された仮想視点VPの位置及び方向が、図6に例示する位置及び方向であるとする。仮想視点VPからロボット1の周囲を俯瞰して映し出される映像は、図7のエリア監視画面M1に相当し、操作端末24の表示部243上のエリア監視画面M1の映像は、図6のエリア監視画面M1に相当するものとする。図6に示すように、注意すべきオブジェクト5が存在する場合、注意すべきオブジェクト5がエリア監視画面M1に投影され、エリア監視画面M1では、オブジェクト192のように映し出されているものとする。
操作端末24は、仮想視点VPから監視エリアを見たエリア監視画面M1のエリア監視方向を示す情報を、接続制御部22を逐次送信している。接続制御部22は、手動モードへの切替時に、操作端末IDとロボット1との対応データテーブル231における「エリア監視方向」の欄に、受信したエリア監視画面M1のエリア監視方向をを記述する。こうすることで、手動モードへの切替時の、「ロボット正面方向」とエリア監視画面M1の「エリア監視方向」とを記憶することができる。
[S210〜S213]
操作端末24上で、オペレータ操作によるロボットの移動操作が開始される(S210)。操作端末24上で、操作部242を操作するオペレータにより、ロボット1の移動方向を操作するハンド操作が必要でないとき(S211/No)、処理はS212に移行し、ハンド操作が必要であるとき(S211/Yes)、処理はS213に移行する。
ここで、「ハンド操作」とは、手動モードでオペレータがロボット1の移動操作を行なう際、表示部243の表示画面を見ながらオペレータが操作部242を用いた操作をいい、オペレータは、操作部242を用いてロボット1の移動方向や移動速度を操作できるが、この実施形態の「ハンド操作」は、特に、操作部242を用いたロボット1の移動方向に関する操作を意図する。また、操作部242を用いてロボット1を移動させる操作方向を「ハンド方向」という。
S212では、ロボット1が移動しながら、ロボット正面方向を、エリア監視画面のエリア監視方向に近づけるようにする(S212)。
例えば、手動モードへの切替直後で、図6において、ロボット1の正面方向が「D1」であり、エリア監視画面M1のエリア監視方向が「D2」であるとする。この場合、ロボット1は、ロボット1は正面方向D1をエリア監視方向D2に近づくように、自己を回旋させたり、移動方向を調整する。これにより、ロボット1の正面方向は、仮想視点から映し出されるエリア監視画面M1のエリア監視方向となり、ロボット1は、エリア監視画面M1の監視方向にロボット1の正面を向けて走行することになる。
例えば、オペレータがエリア監視画面M1を見ながら監視しているエリアには、オブジェクト192が存在しており、オペレータはオブジェクト192の方向に向けてロボット1を移動させたいとする。その場合、エリア監視画面M1のエリア監視方向と、ロボット1の正面方向(進行方向)とが一致しておらず、ロボット1の移動操作を行なうオペレータは方向性を失ってしまうことがある。
この実施形態によれば、手動モードへの切替時に、ロボット1の正面方向がエリア監視方向になり、それに伴い、エリア監視画面M1に映し出される映像も、ロボット1の正面方向(進行方向)となるので、オペレータが直感的にロボット1を操作することができる。
ここで、ロボット1の正面方向をエリア監視方向に近づける際に、管理センタシステム2側がロボット1との間で行なう制御方法と、ロボット1自身が正面方向を移動駆動する方法について説明する。
(制御方法)
管理センタシステム2側がロボット1との間で行なう制御方法には、様々な方法がある。
例えば、管理センタシステム2の接続制御部22が、対応データテーブル231に記憶されている情報のうち、オペレータ操作により指定された「エリア監視方向」を示す情報をロボット1に送信する。
ロボット1は、管理センタシステム2の接続制御部22からオペレータ操作に係るエリア監視画面M1の「エリア監視方向」を受信すると、行動処理部102が、受信した「エリア監視方向」と、ロボット1自身で記憶している「ロボット正面方向」との差分である差分値を求め、その差分値に基づいて、ロボット1の正面方向を、エリア監視方向に近づけるように制御する。
これによれば、管理センタシステム2側の接続制御部22は、手動モードへの切替時に、すぐに「エリア監視方向」を示す情報をロボット1側に送信のみでよく、「エリア監視方向」と「ロボット正面方向」との差分を求める処理等は、エッジコンピューティングに位置しているロボット1側で行なうことができる。
また例えば、管理センタシステム2の接続制御部22は、対応データテーブル231に記憶されている「ロボット正面方向」と「エリア監視方向」との差分である差分値を求め、その差分値を含む情報をロボット1に送信する。ロボット1では、行動処理部102が、接続制御部22から「ロボット正面方向」と「エリア監視方向」との差分である差分値を受信すると、その差分値に基づいて、ロボット1の正面方向を、エリア監視方向に近づけるように制御する。
これによれば、「ロボット正面方向」と「エリア監視方向」との差分値を求める処理等を管理センタシステム2側で行なうことができるので、ロボット1における処理負荷を軽減できる。
上述した管理センタシステム2側によるロボット1の制御方法は、一例であり、これに限定されず、他の方法も広く適用できる。
(ロボット1の移動駆動)
ロボット1が、ロボット正面方向を、エリア監視方向に近づける方法にも、様々な方法を適用できる。
例えば、移動制御部150の正面方向制御部152は、行動処理部102の制御により、移動駆動部160に対してコマンドを投じて、ロボット1の正面方向を変える移動処理を実行する。このとき、正面方向制御部125は、手動モードへの切替時に、一時的に、ロボット1を停止させ、その後、「ロボット正面方向」と「エリア監視方向」との差分値に基づいてロボット1を回旋させて、ロボット1の正面方向をエリア監視方向として、エリア監視方向に、ロボット1を走行させるようにしてもよい。これにより、ロボット1を一時停止させた後、ロボット1の向きを変えるので、ロボット1の走行性やロボット1の周囲の安全性を保つことができる。
また例えば、正面方向制御部152は、ロボット1の走行を続行させたまま、徐々に、「ロボット正面方向」と「エリア監視方向」との差分値に基づいてロボット1の正面方向がエリア監視方向に近づくように、左右方向、回旋させるようにしてもよい。つまり、ロボット1は走行しながら、ロボット1の正面方向がエリア監視方向に近づくようにロボット1の向きを変えていく。例えばオブジェクト192に向けてロボット1を迅速に移動させたい場合もあるので、これによれば、ロボット1の走行を維持した状態で、ロボット1の向きを変えていくことができる。
S213では、ロボット1が移動しながら、ロボット正面方向を、ハンド方向に近づけるようにする(S213)。
つまり、手動モードへの切替後、オペレータによるハンド操作が行なわれたときに、ロボット1は、S212で説明したように、ロボット1の正面方向をエリア監視画面M1のエリア監視方向に近づける動作を行なうと共に、ロボットの正面方向をオペレータ操作によるハンド方向に近づける動作を行なう。
例えば、上述したように、ロボット1の正面方向制御部152が、ロボット1を一時的に停止させ、ロボット1の正面を、エリア監視画面M1のエリア監視方向に向けた場合であれば、正面方向制御部152は、ロボット1の正面方向を、ハンド操作によるハンド方向に近づくように移動制御できる。
一方、例えば、正面方向制御部152が、ロボット1の走行を続行させたまま、徐々に、ロボット1の正面方向をエリア監視方向に近づくように移動制御する場合には、その時点のロボット1の正面方向と、ハンド方向とを考慮しながら、移動制御することが必要となる。
なお、ロボット1の正面方向をハンド方向に近づける際に、管理センタシステム2側がロボット1との間で行なう制御方法については、S212で説明した上述の制御方法を用いることができる。
つまり、例えば、管理センタシステム2の接続制御部22が、対応データテーブル231に記憶されている情報のうち、オペレータ操作による「ハンド方向」を示す情報をロボット1に送信する。ロボット1は、管理センタシステム2の接続制御部22からの「ハンド方向」を受信すると、行動処理部102が、受信した「ハンド方向」と、ロボット1自身で記憶している「ロボット正面方向」との差分である差分値を求め、その差分値に基づいて、ロボット1の正面方向を、ハンド方向に近づけるように制御してもよい。
また、別の方法として、例えば、管理センタシステム2の接続制御部22は、対応データテーブル231に記憶されている「ロボット正面方向」と「ハンド方向」との差分である差分値を求め、その差分値を含む情報をロボット1に送信する。ロボット1では、行動処理部102が、接続制御部22から「ロボット正面方向」と「ハンド方向」との差分である差分値を受信すると、その差分値に基づいて、ロボット1の正面方向を、ハンド方向に近づけるように制御するしてもよい。
[透過度の調整]
図8は、実施形態に係る合成映像に映るCG画像モデルの透過度を調整する方法を説明する説明図である。
図8において、エリア監視画面M1には、ロボット1のCG画像モデル191が表示されており、エリア監視画面M1において、CG画像モデル191の画像領域とオブジェクト192の画像領域とが重なってしまうことで、オブジェクト192が、CG画像モデル191に隠れてしまい、エリア監視画面M1上でオブジェクト192が見えなくなってしまうことがある。
その場合、例えば、手動モードへの切替時に、映像合成制御部26がCG画像モデル191の透過度(透明度)を調整して、CG画像モデル191の全部又は一部を透明表示して、エリア監視画面M1上にオブジェクト192が見えるように調整するようにしてもよい。
ここで、CG画像モデル191の透過度の調整方法の一例を説明する。
映像合成制御部26は、各カメラ11−1〜11−4のカメラ映像を合成した合成映像上で、ロボット1の存在領域にマスク193を貼り付けてそのマスク上にCG画像モデル191を貼り付ける。
図6の例において、仮想視点VPからロボット1の周囲エリアを監視したエリア監視画面M1には、空間に実在するオブジェクト5がエリア監視画面M1に投影されている。手動モードへの切替時に、ロボット1の正面方向がエリア監視方向に近づくように制御されるので、エリア監視画面M1上では、ロボット1がオブジェクト192が存在する方向に向けて移動する。そうすると、図8に示すように、CG画像モデル191とオブジェクト192とが重なってしまう。
このとき、映像合成制御部26は、オブジェクト192の画像領域と、CG画像モデルの画像領域とを比較して、オブジェクト192の画像領域と、CG画像モデルの画像領域との重なり領域の程度に応じて、CG画像モデル191の透過度を調整するようにしてもよい。
例えば、オブジェクト192の画像領域とCG画像モデルの画像領域との重なり領域の程度(例えば、重複する画素数の値など)が大きくなるにつれ、CG画像モデル191の透過度の度合いを示す値を大きくし、上記重なり領域の程度が小さくなるにつれ、CG画像モデル191の透過度の度合いを示す値を小さくしてもよい。上述した例のとき、重複している画像領域と、透過度との関係を定義した関数式等を用いて、CG画像モデル191の透過度の値を決定するようにしてもよい。
また例えば、エリア監視画面M1上の、オブジェクト192の画像領域又はCG画像モデル191の画像領域とを「100」としたときの、オブジェクト192の画像領域とCG画像モデルの画像領域との重なり領域の程度(ここでは「重複割合」とも呼ぶ。)の値を求め、その重複割合が大きくなるにつれ、CG画像モデル191の透過度の度合いを示す値を大きくし、上記重複割合の値が小さくなるにつれ、CG画像モデル191の透過度の度合いを示す値を小さくしてもよい。この場合も所定の関数式を用いてCG画像モデル191の透過度の値を決定するようにしてもよい。
また、上述した各例において、透過度を示す値を上げるCG画像モデル191は、モデル全体であっても良いし、モデルの一部(例えば、重複している画像領域の部分)だけであってもよい。なお、CG画像モデル191の下地にはマスク193は、合成画像の品質を維持するため、そのまま残すことが望ましい。
さらに例えば、オブジェクト192の画像領域とCG画像モデルの画像領域とが一部でも重なっている領域があるときには、CG画像モデル191の透過度の度合いを示す値を所定値にして、CG画像モデル191を透明に表示してもよい。つまり、一部でも重複しているときには、CG画像モデル191を透明に表示するようにしてもよい。
また、透過度の値を上げてCG画像モデル191を透明化したときでも、CG画像モデル191の位置や走行方向が分かるようにするため、当該CG画像モデル191の枠線のみを実線や点線等で表示するようにしてもよい。
(A−3)実施形態の効果
以上のように、この実施形態によれば、手動モードへの切替時に、ロボットが正面位置をエリア監視画面の方向に移動し、ロボットの正面方向とエリア監視画面の方向とを同期させるので、エリア監視画面の映像がロボットの正面の映像となる。そのため、エリア監視画面の映像を見てロボットを操作するオペレータは、ロボットを直感的に操作することができる。
また、この実施形態によれば、仮想視点から見たエリア監視画面の映像で、ロボットの画像モデルと注意すべき対象(オブジェクト)とが重なってしまう場合でも、画像モデルの透過度が自動的に調整されるので、エリア監視画面上に、画像モデルの先に存在するオブジェクトを映し出すことができる。その結果、ロボットを移動操作するオペレータの操作性を向上できる。
(B)他の実施形態
上述した実施形態においても種々の変形実施形態を言及したが、本発明は、以下の変形実施形態にも適用できる。
上述した実施形態では、管理センタシステム2の接続制御部22が、管理データベース23に保持される対応データテーブル231を用いて、ロボット1に移動制御を行なう場合を例示した。しかし、操作端末24が管理データベース23にアクセス可能であり、オペレータ操作により、操作端末24が、対応データテーブル231を用いて、ロボット1に移動制御を行なうようにしてもよい。換言すると、操作端末24が、一機能として、実施形態で説明した接続制御部22の機能を備えるようにしてもよい。
また、上記実施形態では、ロボット1の正面方向D1はオペレータの操作の便宜上定義されるもので、図示されたロボット1の外観上は正面方向D1とそれ以外の方向に明確な差異は表現されていないが、ロボットの正面方向にモニタや顔のような造作を固定して設けることで、正面方向を判別可能な外観とすることもできる。このような構成とすれば、ロボットの周囲に存在する人間がロボットの挙動を予測しやすくなり、予想外の挙動による接触事故等の不安感を低減出来る。
1…ロボット、11−1〜11−4…カメラ、12…移動部、100…統括制御部、101…行動判断部、102…行動処理部、110…通信部、120…監視部、130…センサ群、140…コミュニケーション部、150…移動制御部、151…走行制御部、152…正面方向制御部、160…移動駆動部、3…通信網、2…管理センタシステム、22…接続制御部、23…管理データベース、26…映像合成制御部、24…操作端末、241…通信部、242…操作部、243…表示部。

Claims (6)

  1. 当該ロボットの周囲を撮像する1又は複数のカメラを有し、自律的に移動するロボットと、
    上記ロボットの上記各カメラにより撮像された各カメラ映像に基づいて仮想視点から当該ロボットの周囲映像を映し出した監視画面を表示する表示部と、オペレータにより上記ロボットの移動操作を行なう操作部とを有する操作端末と、
    上記ロボットと、上記ロボットの移動操作を行なう上記オペレータの上記操作端末との間の情報通信に係る接続処理を行なう接続制御部と
    を備え、
    上記ロボットを上記オペレータによる移動操作に切り替える際に、上記ロボットが、当該ロボットの正面方向を示す情報と、上記表示部に表示される上記仮想視点から当該ロボットの周囲映像を映し出している上記監視画面の監視方向を示す情報とに基づいて、当該ロボットの正面を上記監視画面の上記監視方向に近づけるように、当該ロボットを移動制御する移動制御部を備える
    ことを特徴とするロボットシステム。
  2. 上記ロボットを上記オペレータによる移動操作に切り替える際に、
    上記操作部が、上記オペレータによる上記ロボットの移動操作を受けると、
    上記ロボットの上記移動制御部が、当該ロボットの正面を上記監視画面の上記監視方向に近づけると共に、上記操作部を用いた上記ロボットの移動操作に応じて、当該ロボットの正面を、上記操作部を用いた移動操作方向に近づけるように移動制御することを特徴とする請求項1に記載のロボットシステム。
  3. 上記ロボットを上記オペレータによる移動操作に切り替える際に、上記ロボットが、当該ロボットの正面方向の向きを、上記監視画面の上記監視方向又は上記移動操作方向に変えて進行させるときに、当該ロボットの進行方向を表す情報を出力する出力部を備えることを特徴とする請求項1又は2に記載のロボットシステム。
  4. 3次元形状モデルを用いて、上記ロボットの上記各カメラにより撮像された各カメラ映像データに基づく合成映像を形成し、当該合成映像上における上記ロボットの存在領域の所定の画像モデルを重畳させて、上記操作部で指定された仮想視点から上記ロボットの周囲映像を映し出す監視映像を含む上記監視画面を、上記表示部に表示させる映像合成制御部を備え、
    上記映像合成制御部が、上記表示部に表示させている上記監視画面に映る注意しべき対象の画像領域と、上記画像モデルの画像領域とが重なっている場合に、所定の方法により、上記画像モデルの透過度を制御した監視画面を上記表示部に表示する
    ことを特徴とする請求項1〜3のいずれかに記載のロボットシステム。
  5. 当該ロボットの周囲を撮像する1又は複数のカメラを有し、自律的に移動するロボットにおいて、
    当該ロボットは、上記ロボットの上記各カメラにより撮像された各カメラ映像に基づいて仮想視点から当該ロボットの周囲映像を映し出した監視画面を表示する表示部と、オペレータにより上記ロボットの移動操作を行なう操作部とを有する操作端末の間で情報通信を行ない、
    上記ロボットを上記オペレータによる移動操作に切り替える際に、当該ロボットの正面方向を示す情報と、上記表示部に表示される上記仮想視点から当該ロボットの周囲映像を映し出している上記監視画面の監視方向を示す情報とに基づいて、当該ロボットの正面を上記監視画面の上記監視方向に近づけるように、当該ロボットを移動制御する移動制御部を備える
    ことを特徴とするロボット。
  6. ロボットの周囲を撮像する1又は複数のカメラを有し、自律的に移動するロボットを、オペレータによる移動操作を行なうための操作端末において、
    上記ロボットの上記各カメラにより撮像された各カメラ映像に基づいて仮想視点から当該ロボットの周囲映像を映し出した監視画面を表示する表示部と、
    オペレータにより上記ロボットの移動操作を行なう操作部と、
    上記ロボットと、上記ロボットの移動操作を行なう上記オペレータの上記操作端末との間の情報通信に係る接続処理を行なう接続制御部と
    を備えることを特徴とする操作端末。
JP2019187150A 2019-10-10 2019-10-10 ロボットシステム、ロボット及び操作端末 Pending JP2021064064A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019187150A JP2021064064A (ja) 2019-10-10 2019-10-10 ロボットシステム、ロボット及び操作端末

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019187150A JP2021064064A (ja) 2019-10-10 2019-10-10 ロボットシステム、ロボット及び操作端末

Publications (1)

Publication Number Publication Date
JP2021064064A true JP2021064064A (ja) 2021-04-22

Family

ID=75486265

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019187150A Pending JP2021064064A (ja) 2019-10-10 2019-10-10 ロボットシステム、ロボット及び操作端末

Country Status (1)

Country Link
JP (1) JP2021064064A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7513674B2 (ja) 2022-09-28 2024-07-09 エヌ・ティ・ティ・コミュニケーションズ株式会社 ロボット制御装置、ロボット制御方法、ロボット制御プログラム及びロボット制御システム
WO2024190308A1 (ja) * 2023-03-10 2024-09-19 ソニーグループ株式会社 情報処理装置、遠隔操作制御方法、遠隔操作制御システム、及び、自律移動体

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11272328A (ja) * 1998-03-25 1999-10-08 Nippon Signal Co Ltd:The 色標識,移動ロボットおよび移動ロボットの誘導方法
JP2001062766A (ja) * 1999-08-26 2001-03-13 Matsushita Electric Works Ltd 2足歩行ロボットの遠隔制御用ユーザインターフェイスシステム
JP2005208857A (ja) * 2004-01-21 2005-08-04 Campus Create Co Ltd 画像生成方法
JP2007030060A (ja) * 2005-07-22 2007-02-08 Honda Motor Co Ltd 移動ロボットの制御装置
JP2008016058A (ja) * 2007-09-25 2008-01-24 Fujitsu Ltd ロボットの遠隔制御方法及びシステム並びにロボット
US20140303775A1 (en) * 2011-12-08 2014-10-09 Lg Electronics Inc. Automatic moving apparatus and manual operation method thereof
JP2015144013A (ja) * 2015-03-31 2015-08-06 株式会社日立製作所 ロボットシステム及び地図更新方法
JP2017139582A (ja) * 2016-02-02 2017-08-10 キヤノン株式会社 移動制御システム
JP2018153874A (ja) * 2017-03-15 2018-10-04 株式会社オカムラ 提示装置、提示方法およびプログラム、ならびに作業システム
JP2019016089A (ja) * 2017-07-05 2019-01-31 カシオ計算機株式会社 自律移動装置、自律移動方法及びプログラム

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11272328A (ja) * 1998-03-25 1999-10-08 Nippon Signal Co Ltd:The 色標識,移動ロボットおよび移動ロボットの誘導方法
JP2001062766A (ja) * 1999-08-26 2001-03-13 Matsushita Electric Works Ltd 2足歩行ロボットの遠隔制御用ユーザインターフェイスシステム
JP2005208857A (ja) * 2004-01-21 2005-08-04 Campus Create Co Ltd 画像生成方法
JP2007030060A (ja) * 2005-07-22 2007-02-08 Honda Motor Co Ltd 移動ロボットの制御装置
JP2008016058A (ja) * 2007-09-25 2008-01-24 Fujitsu Ltd ロボットの遠隔制御方法及びシステム並びにロボット
US20140303775A1 (en) * 2011-12-08 2014-10-09 Lg Electronics Inc. Automatic moving apparatus and manual operation method thereof
JP2015144013A (ja) * 2015-03-31 2015-08-06 株式会社日立製作所 ロボットシステム及び地図更新方法
JP2017139582A (ja) * 2016-02-02 2017-08-10 キヤノン株式会社 移動制御システム
JP2018153874A (ja) * 2017-03-15 2018-10-04 株式会社オカムラ 提示装置、提示方法およびプログラム、ならびに作業システム
JP2019016089A (ja) * 2017-07-05 2019-01-31 カシオ計算機株式会社 自律移動装置、自律移動方法及びプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7513674B2 (ja) 2022-09-28 2024-07-09 エヌ・ティ・ティ・コミュニケーションズ株式会社 ロボット制御装置、ロボット制御方法、ロボット制御プログラム及びロボット制御システム
WO2024190308A1 (ja) * 2023-03-10 2024-09-19 ソニーグループ株式会社 情報処理装置、遠隔操作制御方法、遠隔操作制御システム、及び、自律移動体

Similar Documents

Publication Publication Date Title
US8352072B2 (en) System for extending the observation, surveillance, and navigational capabilities of a robot
JP4012749B2 (ja) 遠隔操縦システム
JP2017163265A (ja) 操縦支援システム、情報処理装置およびプログラム
JP2006113858A (ja) 移動体の遠隔操作支援方法及びシステム
WO2014162554A1 (ja) 画像処理システムおよび画像処理用プログラム
JP2000079587A (ja) ロボットの遠隔制御方法及びシステム
JP5946428B2 (ja) 移動ロボットシステム
JP2012137909A (ja) 移動体遠隔操縦システムおよびそのための制御プログラム
US20220124288A1 (en) Output control apparatus, display terminal, remote control system, control method, and non-transitory computer-readable medium
JP2019156298A (ja) 車両遠隔操作装置及び車両遠隔操作方法
JP2021064064A (ja) ロボットシステム、ロボット及び操作端末
US20220152836A1 (en) Robot
WO2021153187A1 (ja) 作業支援サーバおよび作業支援システム
WO2021124654A1 (ja) 作業支援サーバ、作業支援方法および作業支援システム
KR20130060952A (ko) 서비스로봇 원격제어 시스템
JP2020142326A (ja) ロボットシステム
WO2020209167A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP7422361B2 (ja) 追跡装置、及び追跡プログラム
JP2023136380A (ja) 規制領域管理システム、移動体管理システム、規制領域管理方法、プログラム
JP4517085B2 (ja) ロボット遠隔制御システム
JP2015162886A (ja) 障害物監視システム及びプログラム
JP2018164223A (ja) 表示システム
JP2001315080A (ja) 遠隔地観測装置
Kon et al. Development of robot teleoperation system in bad viewing condition
WO2021106281A1 (ja) 作業支援サーバ、作業支援方法および作業支援システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220809

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230627

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230825

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231031

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20240423