JP5217845B2 - ロボット操作装置及びロボット操作システム - Google Patents

ロボット操作装置及びロボット操作システム Download PDF

Info

Publication number
JP5217845B2
JP5217845B2 JP2008248066A JP2008248066A JP5217845B2 JP 5217845 B2 JP5217845 B2 JP 5217845B2 JP 2008248066 A JP2008248066 A JP 2008248066A JP 2008248066 A JP2008248066 A JP 2008248066A JP 5217845 B2 JP5217845 B2 JP 5217845B2
Authority
JP
Japan
Prior art keywords
robot
motion
database
operation instruction
instruction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008248066A
Other languages
English (en)
Other versions
JP2010079654A (ja
Inventor
雄介 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2008248066A priority Critical patent/JP5217845B2/ja
Publication of JP2010079654A publication Critical patent/JP2010079654A/ja
Application granted granted Critical
Publication of JP5217845B2 publication Critical patent/JP5217845B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Description

本発明は、ロボットに動作指示を与えて動作させるためのロボット操作装置及びロボット操作システムに関するものある。
人々の日常生活支援のためのロボティクス・メカトロニクス技術の応用や実用化が期待されており、人と同じ生活空間で動作するロボットが増加すると考えられる。人間と関わりながら動作するロボットは、人間に対して自分自身の動作を予告的に表示する必要がある。そこで、従来より、レーザーなどを用いてロボットが次に動く方向を提示するロボット操作システムが存在した(例えば、特許文献1参照)。
また、動作メニューをロボットの前方の床面上に投影表示し、その投影表示部分にユーザが足を位置させる等して所望のメニュー項目を指定すると、その位置に対応する項目の動作を実行するようにした作動装置があった(例えば、特許文献2参照)。
また、従来のロボットは、予め複数の教示点を設定しておき、その教示点を順次通過する動作(先行技術1という)や、ジョイスティックのような入力操作手段を用い、ロボットの動作を見ながら入力操作手段を操作して、所望の位置に移動させるなどの動作(先行技術2という)を行うものが一般的であった。
特開2007−310563号公報(第4頁) 特開2008−6551号公報(第7頁、第8頁、図1)
上記特許文献1,2及び先行技術1では、ロボットは、予めプログラミングされた決まった動作を行うものであり、移動経路が固定のものになってしまい自由度が無く、その場の状況に応じて移動経路を変更することは困難であった。また、先行技術2では、ユーザが、その場の状況に応じて移動位置を任意に細かく指定することが可能であるが、逆に移動位置の指定操作が煩雑になってしまうという問題があった。
本発明は、このような点に鑑みなされたもので、移動経路に自由度を持たせながらも、ユーザによる移動位置の指定操作が煩雑になるのを防止することが可能なロボット操作装置及びロボット操作システムを提供することを目的とする。
本発明に係るロボット操作装置は、ロボットに動作指示を与え、ロボットを動作させるためのロボット操作装置であって、ユーザが操作をする入力部と、入力部の操作によってユーザから入力された動作指示の履歴を蓄積するデータベースと、データべースに蓄積された動作指示の履歴に基づいてロボットの次の移動経路に関する動作候補を複数生成する動作候補生成部と、動作候補生成部で生成された複数の動作候補をユーザにより選択可能に提示する情報提示部とを備えたものである。
本発明によれば、動作指示の履歴に基づいてロボットが次に動作する動作候補を複数生成し、ユーザにより選択可能に提示するので、ロボットの移動経路に自由度を持たせながらも、ユーザによる移動位置の指定操作が煩雑になるのを防止することが可能なロボット操作装置を得ることができる。
以下、本発明の実施の形態を図を参照しながら説明する。なお、各図中、同一部分には同一符号を付すものとする。なお、本実施の形態では、ビデオ会議システムに本発明のロボット操作装置を組み込んだロボットを適用した場合を例に説明する。
実施の形態1.
図1は、本発明の実施の形態1のロボット操作装置を組み込んだロボット100の利用形態の模式図で、ここでは、テレビ会議システムに利用した例を示している。図1には自会議室を示しており、ネットワークを介して相手会議室との間で映像及び音声をやりとりする通常のテレビ会議システムが構築されているものとする。
この例では、自会議室内のテーブルTBに、5名の参加者a〜eが着席している。そして、テーブルTB上には本実施の形態1のロボット操作装置を組み込んだロボット100が配置されており、参加者a〜eからの指示によりテーブルTB上を動き回る。ロボット100は、撮影手段としてのカメラ106(図2参照)を搭載しており、参加者の顔を撮影したり、例えばディスプレイやホワイトボードなどの資料10や資料20を撮影する。撮影した映像は、相手会議室側へと送信される。
図2は、図1のロボット100の構成を示すブロック図である。
ロボット100は、駆動部101、操作入力部102、情報提示部103、位置検出部104、ベースポイントデータベース105、撮影手段としてのカメラ106、遠隔地の相手会議室と通信を行うための通信部107及びロボット100全体を制御する制御部108を備えている。
駆動部101は、例えば車輪や、脚部などロボット100自身を物理空間で移動させるための機能部である。
操作入力部102は、参加者からの入力を受け付け、その入力に基づく操作信号を制御部108に出力する機能部である。この操作入力部102の操作によりロボット100に対して動作指示を与えることができる。操作入力部102は、例えば、ロボット100の本体に設けた入力ボタン等で構成できるが、これに限られたものではなく、動作指示を入力できるものであればよい。
位置検出部104は、ロボット100の現在位置を検出する機能部である。例えば、ロボット100自体がレーザレンジファインダのような装置を備える構成としても良いし、ロボット100が動作する空間に三次元計測装置を配置して、ロボット100の位置を計測して取得するような構成としてもよい。ここでの位置は多変数のベクトルとして表され、二次元座標だけでなく、ロボット100が向いている方向(すなわち、カメラ106の撮影方向)の情報も含むものとする。ロボット100が向いている方向はロボット100が存在する点を原点とした長さが1になるように調整された方向ベクトルとして表現される。
図3は、方向ベクトルの表現の一例を示す図である。
ロボット100が図上部を向いているときの状態をベクトル(0,1)で表すと、時計回りに90度回転したときの状態はベクトル(1,0)として表される。
情報提示部103は、後述の動作候補生成部108bで生成された動作候補を、参加者が確認できるように提示する機能部である。具体的な提示方法としては、例えば、図1に示されるようにロボット100が載置されたテーブルTB上に、動作方向を示す矢印1、2、3を平面状にプロジェクタで投影するなどの方法がある。この方法によれば、参加者全員に動作候補を提示することが可能である。ここで、動作候補とは、動作方向と動作距離とから構成されている。
情報提示部103では、上記の動作候補の表示の他、ロボット100の次の動作意図を、周囲の人間に動作予告する表示も行う。この予告表示も、本実施の形態1では、動作候補の表示と同様、プロジェクタによる投影で矢印で表現するものとして、以下の説明を行う。なお、プロジェクタを用いた予告表示は従来公知の技術を使用する。予告表示の公知文献としては、例えば、「人間共存型ロボットの遠隔操作に関する研究(第34報)−プロジェクタを用いた動作予告機能付き移動ロボットの開発と評価−」,[No.06-04]Proceedings of the 2006 JSME Conference on Robotics and Mechatronics,Waseda,Japan,May 26-28,2006,2P1-A37(1)-2P1-A37(4)がある。なお、このようなプロジェクタによる投影による表示に限られず、ディスプレイ上に表示するなどとしてもよい。
ベースポイントデータベース105は、ベースポイント管理部108aによって取得されたベースポイントや、予め参加者により設定されたベースポイント等、複数のベースポイントを蓄積する。ここで、ベースポイントとは、参加者により、操作入力部102を介して指示された目標位置や、参加者からロボット100の動作方向の変更が指示されたときのロボットの位置や、ロボットの滞在位置、あるいは参加者によって直接ベースポイントとすると予め指定された位置等が該当する。なお、各位置は、例えば、ロボット100が平面上を移動するようなシステム構成の場合には平面上の二次元座標として表現される。実施の形態1では、図1のテーブル上のA〜E点、すなわち参加者a〜eの顔を撮影できる撮影ポイントと、資料10及び資料0のそれぞれの撮影ポイントがベースポイントとして予め登録されているものとする。ベースポイントデータベース105に記憶されたベースポイントは、後に説明する動作候補作成プロセスで使用される。
図4は、ベースポイントデータベース105の構造の一例を示す図である。
ベースポイントデータベース105には、IDと、座標値と、更新時間と、タイプと、ユーザとが記録されている。「ID」は、ベースポイントを一意に定めるIDである。座標値は、ベースポイントの座標値であり、ここでは二次元平面上の座標値(x、y)を示す。「更新時間」は、このベースポイントがベースポイントデータベース105内に格納された時間、又はデータが更新された時間である。「タイプ」は、このベースポイントが作成された要因、すなわちユーザのロボット100に対する操作入力で作成されたか、又は、予め登録されたかの区別を示すもので、前者は「入力」、後者は「指定」として記録される。「ユーザ」とは、このデータを作成した参加者を識別するためのIDを示す。
制御部108は、ロボット100システム全体の制御を行う処理部で、操作入力部102から入力された参加者からの動作指示に基づき、ロボット100を実際に動作させるために必要な指令を駆動部101に与える処理や、後述の図5〜図7のフローチャートの処理を行う。制御部108は、例えばマイクロコンピュータで構成され、CPU、RAM及びROM等を備えている。そして、ROMに記憶されたプログラムをCPUが実行することにより、ベースポイント管理部108a及び動作候補生成部108bが機能的に構成されている。
ベースポイント管理部108aは、ベースポイントデータベース105及び位置検出部104と通信し、ベースポイントを生成することを特徴とする機能部である。ここで生成されたベースポイントは、ベースポイントデータベース105に格納される。
動作候補生成部108bは、位置検出部104で検出したロボット100の現在位置データと、ベースポイントデータベース105とに基づいて、ロボット100に次行わせる動作候補を複数作成することを特徴とする機能部である。動作候補とは、上述したように動作方向と動作距離であり、動作候補の作成方法については後に詳述する。
以下、本実施の形態1の動作を説明する。
図5は、実施の形態1のロボット100の動作の流れを示すフローチャートである。以下、ロボット100はテーブルTB上、つまり平面上を動作するものとし、位置情報は二次元座標で表されるものとして説明する。
電源が投入されてロボット100の動作が開始されると、ロボット100はまず、予め設定されたデフォルトの複数の動作候補を提示する(S1)。ここでは、図1に示すように、ロボット100の前方に例えば、45゜ずつ方向を異ならせた3つの矢印と、その矢印を特定する番号1〜3とを、動作候補として情報提示部103によりテーブルTB上に投影表示するものとする。そして、参加者は、3つの矢印の何れかを選択する。選択方法としては、ロボット100の操作入力部102から、矢印に対応する番号を入力するなどして選択する。なお、ここでは、矢印の何れかが選択された場合、予め設定された動作距離(例えば30cm)だけ進むように構成されているものとする。
このように参加者から動作候補の何れかが選択されると(S2)、例えばプロジェクタを用いた投影などの方法によって、参加者からの選択に応じたロボット動作の予告表示を行う(S3)。また、制御部108は、駆動部101を制御して参加者の指示に従ったロボット100の移動動作を開始させる(S4)。ここで、予告表示とは、上述したようにロボット100の次の動作意図を周囲の人間に通知するための表示で、具体的にはロボット100の動く方向、速度及び距離を、それぞれテーブルTB上に投影表示した矢印の向き、幅及び長さで表現するものである。この予告表示は、ロボット100が動作中、常に行うものとする。
参加者からの指示に従ったロボット動作が終了すると(S5)、制御部108は、位置検出部104からロボット100の現在位置(ステップS2における参加者からの動作指示における目標位置に相当)を取得する(S6)。そして、ベースポイント管理部108aが現在位置データをベースポイントデータベース105に追加する(S7)。既に同じ値がベースポイントデータベース105内に記録されている場合には、更新時間を更新する。そして、動作候補生成部108bは、ロボット100の現在位置とベースポイントデータベース105に格納されている複数のベースポイントとに基づいて動作候補を複数生成し(S8)、生成した複数の動作候補を情報提示部103からテーブルTB上に投影表示させる(S9)。動作候補生成部108bにおける動作候補の作成方法については、後に詳述する。
そして、動作候補の投影表示を確認した参加者によって何れかの動作候補が選択されると(S10)、ステップS3に戻って同様の処理を繰り返す。動作候補が選択されない場合は、一定時間待った後(S11)、ステップS6に戻り、ロボット100の現在位置を取得する。動作候補が一定時間選択されない場合とは、すなわち、何らかの対象物を撮影するためにロボット100が停止した位置(ロボット100の滞在位置)に相当する。したがって、重要ポイントであるとみなしてベースポイントデータベース105に登録するようにしている。
ところで、ロボット100の制御部108は、図5のフローチャートに従った制御を行っている間、参加者から別の動作指示が指示されるなどの割り込み指示があるかを常に監視している。次の図6は、割り込み処理のフローチャートである。
制御部108は、割り込み指示があるかを常に監視しており、割り込み指示があると(S21)、ロボット100の移動動作を停止させ(S22)、全ての投影表示(動作候補の提示・予告表示)を停止させる(S23)。そして、位置検出部104からロボット100の現在位置を取得し、取得した現在位置データをベースポイントデータベース105に追加し、割り込み処理を終了する。割り込み処理終了後は、図5のフローチャートのステップS8の処理に移行する。
以上の図5の制御フローチャートの処理及び図6の割り込み処理により、ベースポイントデータベース105には、予め登録されたベースポイントの他、参加者からの動作指示に基づく目標位置や、ロボット100が一定時間停止した位置(ロボット100の滞在位置)、更には参加者から割り込みが指示された時のロボット100の位置が新たにベースポイントとして登録されることになる。
以下、ベースポイントデータベース105を用いた動作候補の生成方法について、図7を用いて詳しく説明する。
図7は、動作候補の生成方法の流れを示すフローチャートである。
まず、ベースポイントデータベース105の中から、ロボット100の現在位置との距離が小さい順に、少なくとも2個以上のベースポイントを選択する(S31)。選択数は任意であるが、ここでは3個選択するものとする。そして、選択された3個のベースポイントから2個を選択したベースポイントの各組み合わせ毎に、次の図8に示すような線分データを作成する(S32)。ここで、例えば図1のベースポイントA、B、Cを選択したとすると、各組み合わせは(A,B)、(B,C)、(A,C)の3通りとなる。
図8は、線分データの構造を示す図である。
線分データは、2個選択したベースポイントの一方を始点、他方を終点とし、そのそれぞれの座標値と、始点と終点間の距離と、始点と終点間を結ぶ線の傾きと、始点と終点間を結ぶ線に垂直な線分の傾きとで構成される。距離の計算方法には複数の候補が考えられるが、ここでは単純にユークリッド距離を用いるものとする。垂直な成分の傾きは、始点と終点間を結ぶ線に垂直な線分の傾き1と、その線分の方向とは180゜逆の方向の線分の傾き2との2つが登録される。「始点と終点間を結ぶ線の傾き」は、それぞれロボット100の向いている向きと同様の方向ベクトルで表現される。線分データは、動作候補の作成、動作の予告表示などの際に使われる。
(線分データの作成方法)
図9は、線分データの作成方法の流れを示すフローチャートである。ベースポイントの各組み合わせ毎に線分データが作成されるが、ここでは、一つの組み合わせに対して行われる線分データの作成方法について図9を参照して説明する。
2つのベースポイントのうちの一方を始点とし、他方を終点とし、始点と終点とからベクトルの距離を計算する(S41)。
具体的には始点が(px1,py1)、終点が(px2,py2)で表されるときに、
D=sqrt((px2−px1)2+(py2−py1)2
で表される値Dを距離とする。
次に、傾きの方向ベクトルを計算する(S42)。
具体的には
((px2−px1)/D,(py2−py1)/D)
として表されるベクトルが傾きの方向ベクトルとなる。以下、傾きの方向ベクトルを(d1,d2)と表す。
次に、ロボット100の向いている向きの方向ベクトルと、傾きの方向ベクトルの内積を計算する(S43)。
ロボットの向きの方向ベクトルが(o1,o2)で表されているとき、
内積は、
o1×d1+o2×d2
で計算される。
そして、計算された内積の値が0以上か否かを判断し(S44)、0未満の場合、始点と終点間の線分の方向ベクトルが向いている向き(すなわち、始点から終点の方向に向かう向き)とロボット100が向いている方向とが異なることを意味する。このため、始点と終点とを交換(S45)した上で再度ステップS42の処理に戻って同様に傾きの方向ベクトルの計算(S42)と、その方向ベクトルとロボット100の方向ベクトルとの内積計算とを行う(S43)。
一方、内積が0以上の場合には、ロボット100が向いている方向と同じ方向を向く方向ベクトル(傾き)が作成されているため、次に傾きに垂直な方向ベクトルを計算する(S46)。
具体的には、反時計回りに90度回転させるアフィン変換により、
(−d2,d1)
が求める値となる。
そして、ステップS46で計算した方向ベクトルと向きが逆の方向ベクトルを計算する(S47)。
具体的には、
(d2,−d1)
が求める値となる。
以上の処理により、始点(px1,py1)、終点(px2,py2)、距離D、傾き(d1、d2)、垂直線分の傾き1(−d2,d1)、垂直線分の傾き2(d2,−d1)が得られ、これらを線分データとして、図8に示したようなテーブル形式で蓄積する(S48)。
以上の線分データの作成処理を、全てのベースポイントの組み合わせについて行う。
以上のようにして作成された各線分データとロボット100の現在位置の位置ベクトルP(p1,p2)とに基づいて動作候補を生成する。
具体的には、
ロボットの現在位置の位置ベクトルP(p1,p2)を始点とし、
線分データの傾き(d1,d2)の方向と、垂直線分の傾き1(−d2,d1)の方向と、垂直線分の傾き2(d2,−d1)の方向のそれぞれを動作方向とした3つの動作指示を作成する(図7のS33)。
線分データの傾き(d1,d2)の方向の対応した動作指示ベクトルは、線分データの距離Dに基づいて以下のように計算される。
(p1+(D/k)×d1,p2+(D/k)×d2)
:kは定数
同様にして、直線分の傾き1(−d2,d1)の方向と、垂直線分の傾き2(d2,−d1)の方向のそれぞれに進む動作指示も作成する。
以上のように、動作候補は、ベースポイント間の幾何学的な関係から生成されており、1つの線分データに対して3つの動作指示が動作候補として生成される。なお、動作候補の動作距離は、線分データの距離Dに基づいて計算するため、ベースポイント間の距離が短い場合には動作距離も短くなり、ベースポイント間の距離が長い場合には動作距離も長くなる。したがって、例えば参加者がロボット100を細かく動かしているような場合には動作候補の動作距離も短くなり、その場のロボットの動作状況に見合った動作距離が生成されるようになっている。
以上の動作候補の作成方法で作成される動作候補について、具体的に説明する。図10は、動作候補作成方法を説明するための説明図である。図10において、Rはロボット100の現在位置を示しており、Rマーク部分の矢印は、ロボット100の動作方向を示している。また、BP1及びBP2はベースポイントであり、ロボット100の現在位置との距離が小さいベースポイントとして選択された2つのベースポイントとする。また、BP1を始点、BP2と終点とし、BP2に向かう矢印は、BP1とBP2間の線分の方向ベクトルの方向を示すものとする。また、図10に示すように任意の位置に二次元座標軸(XY座標軸)を設定するものとする。なお、以下では、適宜図9のフローチャートを参照する。
まず、BP1とBP2との線分データが作成される。図10の例では、ロボット100の動作方向と線分の方向ベクトルが向いている向きが逆であるため、内積は0未満となり、始点と終点とが交換され、線分の方向ベクトルの向きは、図10(b)に示す矢印の向きとなる。
続いて図9のステップS46では、図10(c)に示すような「傾きに垂直な方向ベクトル」が計算される。そして、ステップS47では、図10(d)に示すような「向きが逆の方向ベクトル」が計算される。
このようにして計算された以下の(1)〜(3)のそれぞれに対応した動作候補が、図10(e)の矢印1A〜3Aに示すものとなる。
(1)線分データの傾き(d1,d2)の方向(図10(e)の矢印1a)
(2)垂直線分の傾き1(−d2,d1)の方向(図10(e)の矢印2a)
(3)垂直線分の傾き2(d2,−d1)の方向(図10(e)の矢印3a)
すなわち、以上の動作候補生成プロセスにより、図10(e)に示すように、ロボット100の現在位置を始点として、ベースポイント2点間に平行又は垂直な方向を動作方向とする動作候補が生成されることになる。
以下、図1の利用形態を用いて更に具体的に説明する。
図11は、図1の利用形態における、本実施の形態1の動作説明図である。ここでは、ベースポイントCの位置にロボット100が位置し、A点の方向に向かっているものとする。そして、A点に向かう途中で動作方向を変更し、資料10が適切に撮影できる位置に移動させた後、今度は資料20が適切に撮影できる位置へと移動させる場合について考える。ここでは、簡単のため、A−B間を結んだ線に平行に資料10が配置され、A−C間を結んだ線に平行に資料20が配置されているものとする。
ロボット100が矢印M1の方向に移動してP1に到達した際、P1の位置とベースポイントデータベース105とに基づいて動作候補が作成されるが、ロボット100の現在位置P1との距離が小さい順に選択されたベースポイントが、ここではA、B、C、Dであるとすると、そのうちの組み合わせ(A,B)から作成される動作候補の一つとして、A−B間に平行な矢印M2が提示される。そこで、参加者により矢印M2が選択されると、ロボット100が矢印M2の方向に進む。そして、P2に到達すると、今度は動作候補の一つとしてA−B間に垂直な矢印M3が提示される。そこで、参加者により矢印M3が選択されると、ロボット100が矢印M2の方向に進む。これにより、資料10を適切に撮影する位置に、ロボット100を容易に移動させることができる。なお、この位置に停止したロボット100に対して、一定時間、参加者から動作指示がなされない場合は当該位置はベースポイント(滞在位置)としてベースポイントデータベース105に記録されることになる。
同様に、C点及びA点もベースポイントとして登録されているため、P1まで来た経路を逆に辿って戻ることができる。そしてP1に到達すると、今度はC−Aに垂直な方向の矢印M4が動作候補として提示されるので、矢印M4の方向にロボット100を進ませることにより、資料20を適切に撮影する位置にロボット100を位置させることができる。
ここで、比較のため、上記と同様の動作を従来のジョイスティックのような入力操作手段を用いてロボット100に行わせる場合(マニュアル動作)と、予め指定した教示点間を移動させるように構成されたロボット100に行わせる場合(登録点間移動動作)について説明する。
図12は、マニュアル動作におけるロボット100の移動経路を示した図である。この場合では、矢印M1に示すように、絶えずマニュアルでロボット100を動かして、資料10が適切に撮影できる位置まで移動するように細かく位置調整する必要がある。そして、資料10が撮影できる位置に移動できた後も、全く同様に、絶えずマニュアル動作で資料20が撮影できる位置まで移動させるしかない。
図13は、登録点間移動動作におけるロボット100の移動経路を示した図である。この場合では、ロボット100を現在位置C点から資料10に近い位置まで移動させるために、矢印R1に示すC−A間の移動と、矢印R2に示すA−間の移動は可能である。しかし、それ以降は結局、図12で説明した場合と同様にマニュアル動作を行わざるを得ない。
これらに対し、本実施の形態1によれば、図11の説明部分で述べたように、ベースポイントとして指定された2点間に平行又は垂直に動作できるような動作候補が提示されるため、容易に所望の位置、方向にロボット100を移動させることができる。
このように、本実施の形態1によれば、ロボット動作に重要であると考えられる位置の情報をベースポイントとして随時蓄積し、その蓄積したベースポイントを用いて動作候補を複数作成して参加者に選択可能に提示するようにしたので、ロボットの移動経路に自由度を持たせながらも、ユーザによる移動位置の指定操作が煩雑になるのを防止することが可能なロボット操作装置を得ることができる。
実施の形態2.
実施の形態1では、ロボットとロボットを操作する人物が同一の空間を共有していることを前提としたものであった。このため、例えば相手会議室の参加者が自会議室側のロボットを操作するといった、遠隔操作を行う場合に生じる問題については対策が取られていない。すなわち、例えば相手会議室からは自会議室側の空間の情報を十分に把握しきれないために、動作指示が実際には不適切であっても、それを相手会議室側では認識できないという問題があった。例えば、テーブルの端からロボットが落ちてしまうような動作指示を出してしまう場合等が該当する。本実施の形態2は、上記の問題の解決を図るものであり、遠隔地(相手会議室)から指示された動作指示を実際にロボット500に実行させる前に、ロボット500と空間を共有する自会議室側の参加者に通知して、介入又は承認を求めるような構成とするものである。
図14は、本発明の実施の形態2のロボット500を適用したテレビ会議システムの利用形態のネットワーク図である。
自会議室と相手会議室とは、ネットワークを介して接続され、一般のテレビ会議システムが構築されていると共に、ネットワークには、ベースポイントを管理するサーバ200が接続されている。なお、この実施の形態2では、自会議室に存在する参加者a〜eと、遠隔地の相手会議室に存在する参加者fが共に自会議室に配置されたロボット本体300を動作させるものとする。また、自会議室側では、自会議室の参加者(図14の例では特に参加者e)が、ロボット操作装置としてのロボット側クライアント400を使用してロボット本体300を動作させるものとする。
また、相手会議室には、ロボット本体300を相手会議室側から操作するための遠隔操作クライアント600が配置されており、遠隔操作クライアント600からネットワークを介して自会議室のロボット500に動作指示を送信可能になっている。
このように、ロボット側クライアント400、サーバ200及び遠隔操作クライアント600は、ネットワークを介してデータ、命令などの情報を送受信する。また、ネットワークはIPネットワークや無線ネットワークなど各種のものが利用できる。
図15は、図14の各装置の構成を示すブロック図である。
実施の形態2のロボット500は、ロボット本体300と、ロボット本体300を駆動するロボット側クライアント400とから構成されている。ロボット本体300は、駆動部101と、カメラ106と、ロボット側クライアント400とのデータの入出力を行うための入出力インタフェース(IF)301と、制御部302とを備えている。
ロボット側クライアント400は、ロボット本体300を制御する例えばPC等のコンピュータで構成されるもので、キーボードやマウスなどの入力部401と、ディスプレイなどの表示部402と、ロボット本体300の現在位置を検出する位置検出部104と、ロボット本体300とのデータの入出力を行うための入出力インタフェース(IF)403と、ネットワークを介してサーバ200や遠隔操作クライアント600と通信するための通信部404と、ロボット側クライアント400全体を制御する制御部405とを備えている。
実施の形態2のロボット500は、実施の形態1のロボット100と同様、動作候補を提示したり、予告表示を行うことが可能なものである。ただし、動作候補の生成を行う処理部は、実施の形態2ではロボット500ではなく、サーバ200側に備えている。また、動作候補の提示や予告表示は、実施の形態1と同様にテーブルTB上に投影表示してもよいが、ここでは、ロボット側クライアント400の表示部402に表示するものとする。すなわち、表示部402には、後述の図16に示す表示画面700のうち、少なくともロボット情報表示画面701と、ロボット情報表示画面701に表示された動作候補を番号で選択するための選択ボタンが表示された入力表示画面702とが表示されているものとする。そして、入力部401により入力表示画面702の選択ボタンを選択することにより、所望の動作候補を選択できるものとする。
サーバ200は、ベースポイントデータベース201と、ネットワークを介してロボット側クライアント400や遠隔操作クライアント600と通信するための通信部202と、サーバ200全体を制御する制御部203とを備えている。制御部203は、実施の形態1と同様のベースポイント管理部108aと、動作候補生成部108bとを備えている。
遠隔操作クライアント600は、例えばPC等のコンピュータで構成されるもので、キーボードやマウスなどの入力部601と、ディスプレイなどの表示部602と、ネットワークを介してサーバ200やロボット側クライアント400と通信するための通信部603と、遠隔操作クライアント600全体を制御する制御部604とを備えている。表示部602は、自会議室側のロボット500の状態を表現するのに必要な情報を提示するもので、次の図16に示すような表示画面を表示する。
図16は、遠隔操作クライアント600の表示部に表示される表示画面の一例を示す図である。
表示画面700は、ロボット500の動作候補やベースポイント等が表示されるロボット情報表示画面701と、ロボット情報表示画面701に表示された動作候補を番号で選択するための選択ボタンが表示された入力表示画面702と、ロボット500のカメラ106で撮影された映像が表示されるロボットカメラ映像表示画面703と、相手会議室を俯瞰で撮影した映像が表示される俯瞰映像表示画面704とから構成されている。
以下、実施の形態2の動作について説明する。なお、以下では、実施の形態2の動作が実施の形態1の動作と異なる部分を中心に説明する。ここでは、相手会議室の参加者fが主要なロボット動作を行い、自会議室の参加者eがサポートするものとして説明する。
図17は、実施の形態2のロボット操作システムの各装置間のデータの流れ及びそれぞれの装置における処理の流れを示す図である。
まず、相手会議室の参加者fにより遠隔操作クライアント600が操作され、ネットワークを介して自会議室のロボット側クライアント400に動作指示が送信される。ロボット側クライアント400は動作指示を受信すると(S401)、その動作指示に基づく予告表示を表示部402に表示する(S402)。この予告表示は、実施の形態1と同様に、ロボット本体300の次の動作意図を矢印等で表示するものである。そして、ロボット側クライアント400は、予め設定された一定時間が経過するまでの間(S403)、自会議室の参加者eから動作指示があるか否かをチェックし(S404)、動作指示がなければ、相手会議室側から指示された動作指示をロボット本体300に送信して実際に動作させる(S405、S301)。このように、相手会議室から指示されたロボット動作をロボット本体300に実際に実行させる前に、自会議室の参加者eに通知し、一定時間の間、参加者eから別の動作指示がなされなければ、承認とみなして相手会議室からの動作指示を実行するようにしている。
一方、ロボット側クライアント400は、予め設定された一定時間が経過するまでの間に、自会議室の参加者eから動作指示があると、参加者eからの動作指示を優先し、その動作指示をロボット本体300に送信して実際に動作させる(S405、S301)。このように、一定時間が経過するまでの間に参加者eから別の動作指示がなされれば、相手会議室からの動作指示に代えて、自会議室の参加者eからの動作指示を優先する。これにより、相手会議室から自会議室の空間の情報を十分に把握できないために生じる、不適切な動作指示を排除し、自会議室の参加者eがロボット動作をサポートすることが可能となる。
そして、動作指示に従ってロボット本体300の動作が終了すると(S406)、ロボット側クライアント400は、位置検出部104からロボット500の現在位置を取得し(S407)、現在位置データをサーバ200に送信する(S408)。
サーバ200は、ロボット側クライアント400からの現在位置データを受信すると(S201)、ベースポイントデータベース201に追加する(S202)。既に同じ値がベースポイントデータベース201内に記録されている場合には、更新時間を更新する。そして、サーバ200の動作候補生成部108bは、ロボット500の現在位置とベースポイントデータベース201に格納されている複数のベースポイントとに基づいて動作候補を複数生成する(S203)。そして、作成した複数の動作候補をロボット側クライアント400に送信し(S204)、ロボット側クライアント400で受信される(S409)。これ以降の動作は、図5に示したステップS9〜S11の処理と同様である。なお、図17には図示省略しているが、サーバ200で作成された動作候補は遠隔操作クライアント00にも送信され、遠隔操作クライアント00側で図16に示したロボット情報表示画面701の表示が可能となっている。
なお、ロボット側クライアント400は、図17のフローチャートに従った制御を行っている間、参加者から別の指令位置が指示されるなどの割り込み指示があるかを常に監視している。割り込み指示は、自会議室及び相手会議室のどちら側からも可能である。次の図18は、割り込み処理のフローチャートである。
ロボット側クライアント400の制御部405は、割り込み指示があるかを常に監視しており、割り込み指示があると(S411)、ロボット500の動作を停止させ(S412)、全ての表示(動作候補の提示・予告表示)を停止させる(S413)。そして、位置検出部104からロボット500の現在位置を取得し(S414)、取得した現在位置データをサーバ200に送信する(S415)。サーバ200は、ロボット側クライアント400からの現在位置データを受信すると(S211)、ベースポイントデータベース201に追加し(S212)、割り込み処理を終了する。割り込み処理終了後は、図17のフローチャートのステップ203の処理に移行する。
このように本実施の形態2によれば、動作指示を受信してから一定時間の間、予告表示を行い、自会議室の参加者からの動作指示を待ってから実際のロボット動作を行わせるようにしたので、自会議室と相手会議室とで共同で円滑にロボット動作を行うことができる。
また、サーバ200のベースポイントデータベース201には、自会議室及び相手会議室のそれぞれ参加者から指示された動作指示に基づくベースポイントが蓄積される。したがって、互いの参加者にとって意味のある場所の関係によって動作候補を提示することが可能となり、同様に互いの円滑な操作に役立つ。
なお、本実施の形態2では、ロボット本体300を操作する参加者が自会議室及び相手会議室でそれぞれ1人である例を説明したが、もちろん複数の参加者が操作可能としても良い。この場合、動作指示がどの参加者から発せられたのかの情報も付加してベースポイントデータベース201に追加するようにしてもよい。
本発明の実施の形態1のロボットを適用したテレビ会議システムの利用形態の模式図である。 図1のロボットの構成を示すブロック図である。 方向ベクトルの表現の一例を示す図である。 ベースポイントデータベースの構造の一例を示す図である。 実施の形態1のロボットの動作の流れを示すフローチャートである。 実施の形態1における割り込み処理のフローチャートである。 動作候補の生成方法の流れを示すフローチャートである。 線分データの構造の一例を示す図である。 線分データの作成方法の流れを示すフローチャートである。 動作候補作成方法を説明するための説明図である。 図1の利用形態における、本実施の形態1の動作の説明図である。 従来のマニュアル動作の場合のロボットの移動経路を示した図である。 従来の登録点間移動動作の場合のロボットの移動経路を示した図である。 本発明の実施の形態2のロボットを適用したテレビ会議システムの利用形態のネットワーク図である。 図14の各装置の構成を示すブロック図である。 遠隔操作クライアントの表示部に表示される表示画面の一例を示す図である。 実施の形態2のロボット操作システムの各装置間のデータの流れ及びそれぞれの装置における処理の流れを示す図である。 実施の形態2における割り込み処理のフローチャートである。
符号の説明
10 資料、20 資料、101 駆動部、102 操作入力部、103 情報提示部、104 位置検出部、105 ベースポイントデータベース、106 カメラ、107 通信部、108 制御部、108a ベースポイント管理部、108b 動作候補生成部、200 サーバ、201 ベースポイントデータベース、202 通信部、203 制御部、300 ロボット本体、301 入出力IF、302 制御部、400 ロボット側クライアント、401 入力部、402 表示部、403 入出力IF、404 通信部、405 制御部、500 ロボット、600 遠隔操作クライアント、601 入力部、602 表示部、603 通信部、604 制御部、700 表示画面、701 ロボット情報表示画面、702 入力表示画面、703 ロボットカメラ映像表示画面、704 俯瞰映像表示画面。

Claims (10)

  1. ロボットに動作指示を与え、ロボットを動作させるためのロボット操作装置であって、
    ユーザが操作をする入力部と、
    該入力部の操作によってユーザから入力された動作指示の履歴を蓄積するデータベースと、
    該データべースに蓄積された動作指示の履歴に基づいて前記ロボットの次の移動経路に関する動作候補を複数生成する動作候補生成部と、
    該動作候補生成部で生成された複数の動作候補をユーザにより選択可能に提示する情報提示部と
    を備えたことを特徴とするロボット操作装置。
  2. 動作指示の履歴は、ロボットが移動する際の目標とする位置を示す目標位置の履歴及び/又は前記入力部を介して前記ユーザから動作方向の変更が指示されたときの前記ロボットの位置の履歴であることを特徴とする請求項1記載のロボット操作装置。
  3. 前記データベースは更に、前記入力部から新たな動作指示が入力されない場合の前記ロボットの現在位置を、ロボットの滞在位置を示す位置データとして蓄積し、及び/又は、ユーザにより予め指定された指定位置を位置データとして蓄積し、前記動作候補生成部は、前記データベースに蓄積された前記複数の位置データに基づいて前記ロボットが次に動作する動作候補を生成することを特徴とする請求項1又は請求項2記載のロボット操作装置。
  4. 前記動作候補生成部は、前記ロボットの現在位置を示す現在位置データと前記データベースに蓄積された前記複数の位置データとに基づいて前記動作候補を生成することを特徴とする請求項3記載のロボット操作装置。
  5. 前記動作候補生成部は、前記データベースに記憶された複数の位置データのうち、前記ロボットの現在位置に近い順に所定数選択した複数の位置データと、前記ロボットの現在位置とに基づいて前記動作候補を生成することを特徴とする請求項3記載のロボット操作装置。
  6. 前記動作候補生成部は、前記データベースに蓄積された前記複数の位置データが示す複数の位置のそれぞれの位置と位置との間の幾何学的な関係から前記動作候補を生成することを特徴とする請求項2乃至請求項5の何れかに記載のロボット操作装置。
  7. 前記動作候補生成部は、前記データベースに蓄積された前記複数の位置データのうちの2点間を結ぶ直線に平行な方向を動作方向とした動作候補を生成することを特徴とする請求項3乃至請求項6の何れかに記載のロボット操作装置。
  8. 前記動作候補生成部は、前記データベースに蓄積された前記複数の位置データのうちの2点間を結ぶ直線に垂直な方向を動作方向とした動作候補を生成することを特徴とする請求項3乃至請求項6の何れかに記載のロボット操作装置。
  9. 請求項1乃至請求項8の何れかのロボット操作装置と、該ロボット操作装置とネットワークを介して接続され、前記ネットワーク及び前記ロボット操作装置を介して前記ロボットに動作指示を送信して前記ロボットを遠隔操作する遠隔操作クライアントと、前記ネットワークに接続されたサーバとを備え、
    前記ロボット操作装置の前記データベース及び前記動作候補生成部を、前記ロボット操作装置に代えて前記サーバに設け、
    前記ロボット操作装置及び前記遠隔操作クライアントのそれぞれからの前記ロボットに対する動作指示の履歴を前記サーバに設けた前記データベースに蓄積するようにし、該データベースに蓄積された動作指示の履歴に基づいて前記サーバに設けた前記動作候補生成部が前記ロボットが次に動作する動作候補を生成し、前記ロボット操作装置及び前記遠隔操作クライアントに送信するようにしたことを特徴とするロボット操作システム。
  10. 前記ロボット操作装置は、前記遠隔操作クライアントから前記ネットワークを介して前記ロボットに対する動作指示を受信すると、該動作指示に基づき前記ロボットを実際に動作させる前に、前記動作指示に基づく動作予告を、予め設定された一定時間が経過するまで自装置の前記情報提示部に表示し、その間に自装置の前記入力部から別の動作指示が入力されなければ、前記遠隔操作クライアントからの前記動作指示に基づき前記ロボットを動作させ、一方、自装置の前記入力部から別の動作指示が入力されれば、該動作指示を優先して前記ロボットに動作させることを特徴とする請求項9記載のロボット操作システム。
JP2008248066A 2008-09-26 2008-09-26 ロボット操作装置及びロボット操作システム Active JP5217845B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008248066A JP5217845B2 (ja) 2008-09-26 2008-09-26 ロボット操作装置及びロボット操作システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008248066A JP5217845B2 (ja) 2008-09-26 2008-09-26 ロボット操作装置及びロボット操作システム

Publications (2)

Publication Number Publication Date
JP2010079654A JP2010079654A (ja) 2010-04-08
JP5217845B2 true JP5217845B2 (ja) 2013-06-19

Family

ID=42210013

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008248066A Active JP5217845B2 (ja) 2008-09-26 2008-09-26 ロボット操作装置及びロボット操作システム

Country Status (1)

Country Link
JP (1) JP5217845B2 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012096307A (ja) * 2010-10-29 2012-05-24 Yaskawa Electric Corp ロボット制御装置、ロボット制御方法およびロボットシステム
WO2014091611A1 (ja) * 2012-12-13 2014-06-19 株式会社日立製作所 自律走行装置
US20150207961A1 (en) * 2014-01-17 2015-07-23 James Albert Gavney, Jr. Automated dynamic video capturing
CN110509271A (zh) * 2019-07-23 2019-11-29 国营芜湖机械厂 一种基于激光雷达的跟随机器人控制方法
CN116619384A (zh) * 2023-07-03 2023-08-22 武昌首义学院 一种智能机器人远程管理系统
CN116872220B (zh) * 2023-09-07 2023-11-07 中建三局集团华南有限公司 一种工地用洒水机器人的控制系统

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0772924A (ja) * 1993-09-06 1995-03-17 Tech Res & Dev Inst Of Japan Def Agency 無人移動体の走行制御装置
JP2001125585A (ja) * 1999-08-31 2001-05-11 Swisscom Ltd 移動ロボット及び移動ロボットを制御する方法
JP2007310563A (ja) * 2006-05-17 2007-11-29 National Univ Corp Shizuoka Univ 予定経路予告表示機能を内蔵する移動ロボット
JP2008006551A (ja) * 2006-06-29 2008-01-17 National Univ Corp Shizuoka Univ 作動装置

Also Published As

Publication number Publication date
JP2010079654A (ja) 2010-04-08

Similar Documents

Publication Publication Date Title
JP5217845B2 (ja) ロボット操作装置及びロボット操作システム
US20200120308A1 (en) Telepresence Management
CN105659170B (zh) 用于向远程用户传送视频的方法及视频通信装置
TWI579666B (zh) A remote operation support device, an instruction terminal, and a field terminal
KR101832346B1 (ko) 사용자 상호 장치 및 방법
JP2006289531A (ja) ロボット位置教示のための移動制御装置、ロボットの位置教示装置、ロボット位置教示のための移動制御方法、ロボットの位置教示方法及びロボット位置教示のための移動制御プログラム
JP2017041262A (ja) 移動ロボット用の制御機器、移動ロボット用のシステム及び移動ロボットを制御する方法
JP2022036201A (ja) ロボットシステム
JP2016107379A (ja) 拡張現実対応ディスプレイを備えたロボットシステム
JP7052652B2 (ja) 移動ロボット、遠隔端末、移動ロボットの制御プログラム、および遠隔端末の制御プログラム
Oh et al. 360 VR based robot teleoperation interface for virtual tour
US10044921B2 (en) Video conferencing support device
JP2018202514A (ja) ロボットの教示のための情報を表示するロボットシステム
JP2022172112A (ja) 遠隔操作装置
JPH0946776A (ja) 遠隔指示装置および方法
JP6625266B1 (ja) ロボット制御装置
JP2014099719A (ja) 雲台付カメラの動作制御および表示制御方式
JP2015093353A (ja) 多機能情報端末遠隔操作型ロボット
CN111385619B (zh) 视频互动系统
KR20210072463A (ko) 인간-머신 상호작용 방법 및 이를 위한 장치
Nielsen et al. Towards facilitating the use of a pan-tilt camera on a mobile robot
JP2016225875A (ja) 移動装置操作端末、移動装置操作方法及び移動装置操作プログラム
Chandan et al. Guided 360-Degree Visual Perception for Mobile Telepresence Robots
JP2022024134A (ja) ロボットシステム
JP2001315080A (ja) 遠隔地観測装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110519

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120530

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120605

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120718

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130218

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160315

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5217845

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150