JP2012171024A - ロボットシステム - Google Patents

ロボットシステム Download PDF

Info

Publication number
JP2012171024A
JP2012171024A JP2011032547A JP2011032547A JP2012171024A JP 2012171024 A JP2012171024 A JP 2012171024A JP 2011032547 A JP2011032547 A JP 2011032547A JP 2011032547 A JP2011032547 A JP 2011032547A JP 2012171024 A JP2012171024 A JP 2012171024A
Authority
JP
Japan
Prior art keywords
robot
touch
camera
image
posture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011032547A
Other languages
English (en)
Other versions
JP5246672B2 (ja
Inventor
Sunao Hashimoto
Akihiko Ishida
Masahiko Inami
Takeo Igarashi
健夫 五十嵐
直 橋本
明彦 石田
昌彦 稲見
Original Assignee
Japan Science & Technology Agency
独立行政法人科学技術振興機構
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Science & Technology Agency, 独立行政法人科学技術振興機構 filed Critical Japan Science & Technology Agency
Priority to JP2011032547A priority Critical patent/JP5246672B2/ja
Publication of JP2012171024A publication Critical patent/JP2012171024A/ja
Application granted granted Critical
Publication of JP5246672B2 publication Critical patent/JP5246672B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】少ない時間で操作を習得することができる、直感的なロボットの遠隔操作インタフェースを提供する。
【解決手段】ロボットの操作装置が、カメラから取り込まれたカメラ映像が表示されるタッチスクリーンと、カメラ映像からロボットの3次元的な位置及び姿勢を認識するロボット認識部と、ロボット認識部で認識した位置及び姿勢とからロボットのCG映像を生成し、CG映像をタッチスクリーン上のロボットのカメラ映像に重畳表示するCG合成部と、ユーザのタッチ操作に応じて、タッチスクリーン上でCG映像のロボットを仮想的に動作させる操作入力部と、CG映像のロボットの仮想的な動作に追従してロボットが動作するように、ロボットに対して制御命令を送出するロボット制御部と、を有している。
【選択図】図3

Description

本発明は、タッチスクリーンを利用したロボットの遠隔操作技術に関する。
人間が作業を行うのが困難な環境として、水中、高所、高温または低温の環境、毒物や放射性物質が充満した環境などが上げられる。このような危険環境において、人間に代わって作業を行うさまざまなロボットが提案されている。そのようなロボットは、理想的には完全自律型で運用されることが望まれるが、一般物体認識や状況認識の点で課題が残っており、実現はまだ遠い。この問題を軽減する方法として、物体認識用のタグや、事前に作成した対象空間のモデルを利用する方法が提案されているが、これらの方法は未知環境では使用できない。以上の理由から、人間によるロボットの遠隔操作は依然として行われている。
人間に代わって物体を把持したり運んだりするロボットは一般的に多自由度の構造を持っているが、そのようなロボットの遠隔操作は初心者にとって簡単なものではない。例えば、ロボットアームは一般的に4から6の自由度を持つ。また、そのようなロボットアームが移動台車の上に固定されていると、自由度はさらに増加する。ロボットの遠隔操作には、一般的にジョイスティックやゲームパッドが広く利用されている。しかし、これらの入力デバイスでは、操作可能な自由度の数はボタンや軸の数に制限される。複数のボタンを同時押しすることによって操作可能な自由度の数を増やす工夫もたびたび行われるが、それは操作をより複雑にし、習得により多くの時間を要する。
多関節のロボットの操作を簡単にする方法として、IK(Inverse Kinematics:逆運動学)が広く用いられている。IKを用いた一般的なロボットアームの操作では、手先の位置の操作がジョイスティックにマッピングされ、手先の動きに応じて腕や肘の関節の角度は自動的に計算されるようになっている。しかし、一般的なジョイスティックベースのコントローラでは、スティックを傾けた量に比例した運動速度およびスティックを傾けている時間に比例した移動量が与えられる仕組みになっているため、ユーザが思い通りの位置に手先を移動させられるようになるためにはある程度の訓練を要する。
なお、関連する先行技術として、例えば特許文献1には、テレビカメラと消火装置を具備するロボットをジョイスティックにより遠隔操作することで、危険な場所での消火活動や確認作業を行うシステムが開示されている。また特許文献2には、多自由度のロボットをジョイスティックとフットペダルにより操作するシステムが開示されている。
特開平6−150181号公報 特開2005−66752号公報
本発明は上記実情に鑑みたものであり、その目的とするところは、少ない時間で操作を習得することができる、直感的なロボットの遠隔操作インタフェースを提供することにある。
上記目的を達成するために、本発明では、タッチスクリーン上でロボットのCG(Computer Graphics)をタッチ操作するという直感的なインタフェースを採用する。
具体的には、本発明に係るロボットシステムは、目標物体に対して処理を行うロボットと、前記目標物体及び前記ロボットを含む作業空間を撮影する三人称視点のカメラと、前記ロボットを遠隔操作するための操作装置と、を備えるロボットシステムにおいて、前記操作装置は、前記カメラから取り込まれたカメラ映像が表示されるタッチスクリーンと、前記カメラ映像から前記ロボットの3次元的な位置及び姿勢を認識するロボット認識部と、前記ロボットの3次元モデルを記憶する記憶部と、前記3次元モデルと前記ロボット認識部で認識した位置及び姿勢とから前記ロボットのCG映像を生成し、前記CG映像を前記タッチスクリーン上の前記ロボットのカメラ映像に重畳表示するCG合成部と、ユーザのタッチ操作に応じて、前記タッチスクリーン上で前記CG映像のロボットを仮想的に動作させる操作入力部と、前記CG映像のロボットの仮想的な動作に追従して前記ロボットが動作するように、前記ロボットに対して制御命令を送出するロボット制御部と、を有していることを特徴とするロボットシステムである。
この構成によれば、まず、タッチスクリーン上に表示されたカメラ映像を見ることで、ユーザは実際のロボットの状態(位置、姿勢など)、目標物体の状態、作業空間内に存在する障害物、ロボットの動線などを容易に把握することができる。そして、タッチ(タップ)やドラッグなどのタッチ操作によりCG映像のロボットを所望の位置・姿勢まで動かすだけで、実際のロボットの位置・姿勢を指示することができる。したがって、このようなインタフェースを用いることにより、誰でも簡単かつ直感的にロボットの遠隔操作を行うことが可能となる。
また、CG映像のロボットは、動作入力のためのインタフェースとしての役割だけでなく、ロボットがどのように動くかの予測をユーザに提示するシミュレータとしての役割も発揮する。したがって、ロボットの作業手順の組み立てやトライ&エラーが容易になるという利点もある。さらに、作業空間が暗かったり、ロボットの一部が死角に入りこんだりして、カメラ映像ではロボットの状態を視認するのが困難な場合であっても、CG映像によりロボットの位置、姿勢、挙動などを確認できるという利点もある。
ところで、実際のロボットの動作速度には物理的な限界があるため、CG映像のロボットの仮想的な動作に対して遅れ無くロボットを動作させることは難しい。そこで、本発明では、ロボットの動作に遅れがあることを前提としたタッチインタラクションを3種類提案する。
第1の方法は、前記ロボット制御部が、タッチ操作が続いている間は前記ロボットに対する制御命令の送出を行わず、タッチ操作が終了すると前記ロボットに対する制御命令の送出を開始し、タッチ操作が終了した時点の前記CG映像と同じ位置及び姿勢になるように前記ロボットを動作させる、というものである。第2の方法は、前記ロボット制御部が、タッチ操作の開始とともに前記ロボットに対する制御命令の送出を開始し、タッチ操作が続いている間は前記ロボットを動作させ、タッチ操作が終了した時点で前記ロボットの動作を停止させる、というものである。第3の方法は、前記ロボット制御部が、タッチ操作の開始とともに前記ロボットに対する制御命令の送出を開始し、タッチ操作が続いている間に前記ロボットを動作させるとともに、タッチ操作の終了後も、タッチ操作が終了した時点の前記CG映像と同じ位置及び姿勢になるまで前記ロボットを動作させる、というものである。
三人称視点のカメラとしては、例えば、監視カメラのように作業空間内に設置されている固定カメラや、UAV(無人航空機)などの飛行体に搭載された空撮カメラを用いるこ
とができる。また、各々がカメラを具備する2つ以上のロボットを用い、前記操作装置が、一方のロボットのカメラから取り込まれるカメラ映像を他方のロボットの操作用のカメラ映像として用いる構成も好ましく採用できる。このように他のロボットのカメラを利用する構成であれば、固定カメラが設置されていない環境や飛行体の進入が困難な環境などでの作業も可能となり、本発明のロボットシステムの適用範囲が広がる。
また、本発明のロボットが、エンドエフェクタを有するアームと、前記エンドエフェクタが向いている方向に光を照射するライトとを備えていることも好ましい。この構成によれば、エンドエフェクタの向いている所に光が当たるため、タッチスクリーンに表示されているカメラ映像(2次元映像)だけで、エンドエフェクタの3次元的な位置及び向き(特に画面奥行き方向に関する位置及び向き)が正しいかどうかを容易に判別することができるようになる。
また、前記ロボットが、関節で接続された複数のリンクからなるアームを有している場合に、前記操作入力部におけるタッチ操作として、前記アーム上の1点をタッチしドラッグすることにより前記アームの各リンクを移動させるシングルタッチ操作と、移動させないリンクにタッチした状態を維持したまま他のリンクをタッチしドラッグすることにより一部のリンクのみを移動させるマルチタッチ操作とを含むことが好ましい。これにより、多自由度のロボットアームを直感的かつ簡単に操作することが可能となる。
なお、本発明は、上記の構成や機能を有するロボットシステムとして捉えることもできるし、上記の処理や制御を行うロボットの操作方法又はロボットの制御方法として捉えることもできるし、そのような操作方法又は制御方法の各ステップをタッチスクリーンを具備するコンピュータに実行させるためのプログラムとして捉えることもできる。また、上記の構成、機能、処理などは、特段の技術的制約がない限り、任意に組み合わせることが可能である。
本発明によれば、少ない時間で操作を習得することができる、直感的なロボットの遠隔操作インタフェースを実現することが可能である。
ロボットシステムの概要を模式的に示す図。 ロボットシステムの機能構成を示すブロック図。 操作インタフェースの概要を示す図。 バーチャルハンドルの例を示す図。 シングルタッチ操作とマルチタッチ操作の例を示す図。 3種類のタッチインタラクションを説明する図。
本発明は、タッチスクリーンを利用したAR(Augmented Reality:拡張現実)インタ
フェースによりロボットの直感的操作を可能とするものである。本発明は、例えば、危険環境の中で作業を行うロボット、製造ラインで利用される産業用ロボット、家庭内で家事を支援するホームロボットのように、目標物体に対して何らかの処理を行うさまざまなロボットの操作に広く適用可能である。以下に述べる実施形態では、物体を把持するためのハンドが取り付けられたロボットアームと移動機構を具備するロボットを例にとり、本発明の説明を行う。
<システム構成>
図1は、本発明の実施形態に係るロボットシステムの概要を模式的に示す図であり、図
2は、同ロボットシステムの機能構成を示すブロック図である。
このロボットシステムは、ロボット1と、目標物体O及びロボット1を含む作業空間を撮影するカメラ2と、ロボット1を遠隔操作するための操作装置3と、を備えて構成される。ロボット1及びカメラ2は、それぞれ、有線又は無線により操作装置3に接続されている。
(ロボット)
ロボット1は、ロボット台車10とロボットアーム11を備えている。ロボット台車10は移動機構として四輪のホイールを持ち、前後方向の移動と定置旋回が可能である。ロボットアーム11は、4本のリンク12a〜12dを関節13a〜13cで接続した多関節アームであり、その先端にはハンド(エンドエフェクタ)14が取り付けられている。このロボット1は全体として、(1)前後方向の移動、(2)定置旋回、(3)関節13aの回転、(4)関節13bの回転、(5)関節13cの回転、(6)ハンド14の開閉の6自由度を有している。
ロボット台車10とロボットアーム11は、操作装置3から送出される制御命令によって制御される。操作装置3は、ロボットアーム11の各関節13a〜13cの角度値を指定することができ、また、各関節13a〜13cの角度値を取得することができる。
ロボットアーム11の手首部分にはライト15が装着されている。このライト15は、ハンド14が向いている方向に光Lを照射するためのものであり、本実施形態では、緑色の光Lを発するLED(発光ダイオード)が用いられる。また、ロボット台車10には、ロボット1の3次元的な位置及び姿勢を認識するために用いるビジュアルマーカ16が付されている。
(カメラ)
ロボットの遠隔操作では、ロボットに搭載されたカメラから得られる主観視点の映像が用いられることが多いが、その方法では、ロボットが回転又は後進する際に、ロボットの側方や後方にある障害物の回避を行うのが難しい。また主観視点の映像では、ロボットの周囲の状況を把握しづらいため、ロボットの動線や作業手順をどのようにすべきかの判断が難しいこともある。そこで本実施形態では、目標物体O及びロボット1を含む作業空間を画角におさめるように設置されている三人称視点のカメラ2を用いる。カメラ2で取り込まれた映像(動画)は、操作装置3に送られる。
なお図1では、作業空間内に設置された固定カメラを例示しているが、空撮カメラや他のロボットのカメラを利用することもできる。その点については後述する。
(操作装置)
操作装置3は、ロボット1の遠隔操作に用いられる機器であり、タッチスクリーン、CPU、メモリ、補助記憶装置、通信IFなどのハードウェア資源を備えるコンピュータにより構成されるものである。例えば、汎用のパーソナル・コンピュータ、タブレット端末、スマートフォンなどにプログラムをインストールすることにより実現することもできるし、専用の装置として構成することも可能である。また、タッチスクリーンの部分と演算や制御を行う部分とを別々の筐体で構成することもできる。
図2に操作装置3の機能構成を示す。操作装置3は、タッチスクリーン30、カメラ映像取込部31、ロボット認識部32、記憶部33、CG合成部34、操作入力部35、ロボット制御部36を備えている。カメラ映像取込部31は、カメラ2から取り込まれたカメラ映像(動画)をタッチスクリーン30にリアルタイム表示する機能であり、ロボット
認識部32は、カメラ映像からロボット1の3次元的な位置及び姿勢を認識する機能である。CG合成部34は、ロボットのCG映像を生成しカメラ映像に重畳表示する機能である。操作入力部35は、ユーザのタッチ操作に応じてCG映像のロボットを仮想的に動作せる機能であり、ロボット制御部36は、CG映像のロボットの仮想的な動作に追従して実際のロボット1が動作するように、ロボット1に対して制御命令を送出する機能である。
<操作装置の動作>
図3は、操作装置を用いた操作インタフェースの概要を示している。
操作装置3は、カメラ2から作業空間内の映像をリアルタイムで取得し、そのカメラ映像にロボットのCG4を重畳表示したものをタッチスクリーン30上に表示する。図3(a)に示すように、CG4は実物のロボット1の画像の上に半透明又はワイヤーフレームで合成される。図3(b)に示すように、ユーザがCG4に触れてドラッグ操作を行うと、CG4の位置・姿勢が変化する。CG4は実物のロボット1に対する目標値として機能するものであり、図3(c)に示すように、ロボット1はCG4と同じ位置及び姿勢になるよう追従動作を行う。
ユーザは、動かしたい部位に触れ、それをドラッグすることにより、ロボット1に位置と姿勢を指示することができる。例えば、ロボット1を特定の場所に移動させたいときは、ロボットの本体部分に触れ、目的の場所までドラッグする。また、目標物体Oを把持するべくアーム11を伸ばしたいときは、アームの先端部分に触れてドラッグを行えばよい。このとき、ハンド14の向いている所にライト15の光が当たるため、タッチスクリーンに表示されているカメラ映像だけで、ハンド14の3次元的な位置及び向き(特に画面奥行き方向に関する位置及び向き)が正しいかどうかを容易に判別することができる。
(ロボットの位置・姿勢の認識)
ロボット認識部32は、カメラ映像からビジュアルマーカ16を認識することにより、ロボット1の3次元的な位置及び姿勢を認識する。ビジュアルマーカに関しては、ARToolKitの技術を利用することができるため、ここでは詳しい説明を省略する。なお、ロボット台車10に複数のマーカ16を付しているが、これはマーカがカメラの死角に入ることによる認識エラーを可及的に少なくするためである。カメラ映像から複数のマーカが検出できた場合には、最も大きく写っているマーカのみを姿勢認識に用いてもよいし、複数のマーカを姿勢認識に利用することも好ましい。
本実施形態では、ロボットアーム11の状態については、ロボット1から取得した各関節13a〜13cの角度値から判断することとする。しかし、ロボットアーム11にもビジュアルマーカを付すことにより、カメラ映像からロボットアーム11の状態を認識することも可能である。
(CGの表示)
CG合成部34は、記憶部33からロボット1の3次元モデルを読み込むとともに、ロボット認識部32からロボット1の位置及び姿勢とアーム11の状態を取得し、ロボットのCG4を生成する。この3次元モデルは、実物のロボット1と同一のサイズ及び自由度を有するものであり、例えばロボット1を設計した時のCADデータなどを利用して作成することができる。
CG4は、実物のロボット1とまったく同じ形状にする必要はない。むしろ、操作画面を見やすくするため、ロボット1を簡略化(模式化)したような形状のCGを用いるとよい。また、CG4には、操作を支援するためのGUIであるバーチャルハンドルを付すことが好ましい。バーチャルハンドルは、小さな可動部位の操作を容易にしたり、パーツの
可動方向や可動範囲を可視化するために用いられるものである。図4(a)は、リングタイプのバーチャルハンドル40の例を示している。これは、回転部位(ロボット台車10の定置旋回、ロボットアーム11の関節など)の操作に用いられる。また図4(b)は、レバータイプのバーチャルハンドル41の例を示している。これは、ハンド14などの小さな部位の操作に用いられる。
(タッチ操作)
ロボット台車10の前後移動と定置旋回の操作は、シングルタッチ操作により行う。すなわち、ユーザが指などでロボット台車部分(又はロボット台車に付されたバーチャルハンドル)をタッチしドラッグすることで、CG4を前後に移動させたり、回転させたりすることができる。ユーザがタッチスクリーンから指を離すと、タッチ操作の完了となる。
ロボットアーム11の操作には、シングルタッチ操作とマルチタッチ操作の2種類がある。図5を参照してそれぞれの操作の違いを説明する。シングルタッチ操作では、図5(a)に示すように、ユーザはロボットアーム上の任意の1点をタッチしドラッグする。この場合、操作入力部35は、ロボットアーム11の基端にあるリンク12aの位置のみを拘束条件として、各関節13a〜13cの角度を計算する。一方、マルチタッチ操作では、移動させないリンク(図5(b)では12b)にタッチした状態を維持したたま、別の指で他のリンク(図5(b)では12d)をタッチしドラッグする。この場合、操作入力部35は、固定部位となるリンク12bの位置を拘束条件とし、可動部位となる関節13b、13cの角度を計算する。もちろん、マルチタッチ操作においては、2点以上の部位を固定したり、逆に2点以上の部位を動かしたりすることもできる。なお、シングルタッチ操作、マルチタッチ操作のいずれの場合でも、複数の関節が連動する場合には、IK(Inverse Kinematics)のアルゴリズムを利用すればよい。
ハンド14の開閉操作は、バーチャルハンドルのドラッグにより行うことができる。ただし、マルチタッチ操作のピンチアウト/ピンチインによりハンド14の開閉を行うことができるようにしてもよい。
なお、ロボットのCG4に対する操作ではないが、ピンチアウト/ピンチインにより表示映像の拡大/縮小を行えるようにしたり、ロボット以外の部分をドラッグすることでカメラの視点を変更できるようにすることも好ましい。
(ロボット制御)
ロボット1の動作速度には物理的な限界があるため、ユーザによって操作されるCGの動作に対して遅れ無くロボット1を動作させることは難しい。そこで、本システムでは、ロボット1の動作に遅れがあることを前提としたタッチインタラクションを3種類提案する。以下に述べる3つの方法の全て若しくは2つをシステムに実装し切り替え可能としてもよいし、いずれか1つのみを実装することもできる。
(1)Move−after−touch
ユーザが画面に触れてCGを操作している間はロボット1は動かない。ユーザが画面から指を離すと、ロボット制御部36は、タッチ操作が終了した時点のCGの状態をロボット1の目標位置・姿勢とし、ロボット1への制御命令の送出を開始する。ロボット1の位置・姿勢がCGの位置・姿勢に一致すると、ロボット1は停止する。この方法によるCGとロボットの動きを図6(a)に示す。図中、横軸は時間の経過を示しており、ワイヤーフレームのものがCGのロボットアーム、グレーのものが実物のロボットアームを示している。
(2)Move−during−touch
ユーザが画面に指を触れてCGを操作し始めると同時に、ロボット制御部36がロボット1への制御命令の送出を開始し、ロボット1はCGへの追従動作を開始する。ユーザがCGを操作している間は、ロボット1の目標位置・姿勢はCGの現在の状態によって更新され、ロボット1はそれに追従するように動く。ユーザが画面から指を離すと、ロボット制御部36は、ロボット1がCGに一致しているかどうかに拘らず、ロボット1の動作をすぐに停止する。CGはその時点のロボット1の状態と一致するように更新される。この方法によるCGとロボットの動きを図6(b)に示す。
(3)Move−during−and−after−touch
この方法は前述の2つの方法を組み合わせたものである。ユーザが画面に触れてCGを操作し始めると同時に、ロボット制御部36がロボット1への制御命令の送出を開始し、ロボット1はCGへの追従動作を開始する。ユーザがCGを操作している間は、(2)の方法と同様、ロボット1の目標位置・姿勢はCGの現在の状態によって更新され、ロボット1はそれに追従するように動く。ユーザが画面から指を離すと、ロボット制御部36は、タッチ操作が終了した時点のCGの状態をロボット1の目標位置・姿勢とし、ロボット1がCGに一致するまでロボット1を動作させる。この手法によるCGとロボットの動きを図6(c)に示す。
上述した(1)の方法は、ユーザがタッチ操作を終えるまでロボット1が動かないので、あせらず落ち着いて操作ができるという利点がある。また、目標値となるロボット1の位置・姿勢が確定した後にロボット1の動作を開始するため、操作ミスを未然に防ぐことができるという利点もある。これに対し、(2)と(3)の方法は、ユーザの操作に反応してロボット1がすぐに動き始めるために、同じ内容の処理を行う場合であれば(1)の方法よりも短時間で処理を遂行できるという利点がある。また(2)の方法の場合は、ユーザがタッチスクリーンから指を離すなどしてタッチ操作を中断すればロボット1の動作が止まるように構成されているため、例えばロボット1が障害物に衝突しそうになったときに瞬時に停止させることが可能になるという利点がある。
<三人称視点カメラ>
前述したように、本システムでは、目標物体O、ロボット1、障害物などを含む作業空間全体の状況把握を容易にするために、三人称視点のカメラを利用する。三人称視点のカメラとして、固定カメラ、空撮カメラ、他のロボットのカメラなどが利用可能である。以下、それぞれのカメラの長所と短所をまとめる。
(固定カメラ)
一般的に運用されている固定カメラとして監視カメラがある。監視カメラは、道路、公園、駅、博物館、工場、学校、商店、住宅などさまざまな場所にセキュリティや記録の目的で設置されている。監視カメラは高い場所に設置され、俯瞰視点を提供する。固定された監視カメラの利点は、作業空間の状況把握をするために安定した視界が得られることだが、カメラの動きはパン、チルト、ズームに限られ、対象空間に遮蔽が生じた場合はそれを解消するのが難しい。
(空撮カメラ)
無線制御の小型のヘリコプターや飛行船など、さまざまなUAV(Unmanned Aerial Vehicle)が開発されている。UAVに搭載されたカメラ(空撮カメラ)も俯瞰視点を提供
するが、固定監視カメラと違い、空間内を自由に移動することができる。空撮カメラは3Dモデリングツールで行われるような視点操作を実世界において行うことができる。さらに、操作対象のロボットを常に視界内におさめるように自動追従させることも可能である。空撮カメラは、3Dアクションゲームで使われているような、プレイヤの背後から追従するような三人称視点を提供することができる。しかし、そのような視点を提供するため
には、UAVの制御を非常に安定かつ正確に行う必要がある。
(他のロボットのカメラ)
作業空間内に2台以上のロボットが存在し、かつ一方のロボットがカメラを持つとき、そのロボットのカメラを借りて、三人称視点でもう1台のロボットを操作することができる。すべてのロボットがカメラを持っていれば、ユーザは主観視点と三人称視点を自由に切り替えて作業を行うことができる。例えば、ロボットのハンドを使った作業を行うときは、そのロボットの主観視点を利用して手元の視界を得ながら作業を行い、そのロボットを別な場所に移動させるときは、他のロボットの視点を用いて障害物を回避しながら移動を行う。また、2台以上のカメラ映像を用いれば、空間認識により障害物の3次元形状を把握することも可能となる。作業空間内の障害物の3次元形状が分かれば、ロボットと障害物のコリジョン判定によりロボットの可動範囲を求め、それをCGの可動範囲にフィードバックすることもできる。
視点の操作は、画面内のロボット以外の領域(背景)をタッチするか、視点操作用のアイコンをタッチすることによって行う。また、作業を行うのに良好な視界を得るためにカメラが自動的に移動する方法も考えられる。
なお、上記実施形態は本発明の一具体例を示したものにすぎず、種々の変形が可能である。本発明はアーム付きの台車ロボットに限定するものではなく、さまざまな機構を持つロボットや、さまざまな大きさのロボットに対して適用可能である。例えば、ヒューマノイドロボット、ブルドーザ、パワーショベル、フォークリフト、クレーン、巨大ロボット、卓上ロボット、顕微鏡映像に映る極小ロボットなどが想定される。
また、1台のタッチスクリーンで、2台以上のロボット(画面に映っているすべてのロボット)を操作することもできる。特にマルチタッチであれば、両手で2台のロボットを操ったり、1つの画面で2人以上のユーザが同時に複数のロボットを操ることもできる。
<本システムの利点>
以上述べたロボットシステムによれば、まず、タッチスクリーン上に表示されたカメラ映像を見ることで、ユーザは実際のロボットの状態(位置、姿勢など)、目標物体の状態、作業空間内に存在する障害物、ロボットの動線などを容易に把握することができる。そして、タッチ(タップ)やドラッグなどのタッチ操作によりCG映像のロボットを所望の位置・姿勢まで動かすだけで、実際のロボットの位置・姿勢を指示することができる。したがって、このようなインタフェースを用いることにより、誰でも簡単かつ直感的にロボットの遠隔操作を行うことが可能となる。
また、CG映像のロボットは、動作入力のためのインタフェースとしての役割だけでなく、ロボットがどのように動くかの予測をユーザに提示するシミュレータとしての役割も発揮する。したがって、ロボットの作業手順の組み立てやトライ&エラーが容易になるという利点もある。さらに、作業空間が暗かったり、ロボットの一部が死角に入りこんだりして、カメラ映像ではロボットの状態を視認するのが困難な場合であっても、CG映像によりロボットの位置、姿勢、挙動などを確認できるという利点もある。
1:ロボット
10:ロボット台車
11:ロボットアーム
12a〜12d:リンク
13a〜13c:関節
14:ハンド
15:ライト
16:ビジュアルマーカ
2:カメラ
3:操作装置
4:CG

Claims (7)

  1. 目標物体に対して処理を行うロボットと、
    前記目標物体及び前記ロボットを含む作業空間を撮影する三人称視点のカメラと、
    前記ロボットを遠隔操作するための操作装置と、
    を備えるロボットシステムにおいて、
    前記操作装置は、
    前記カメラから取り込まれたカメラ映像が表示されるタッチスクリーンと、
    前記カメラ映像から前記ロボットの3次元的な位置及び姿勢を認識するロボット認識部と、
    前記ロボットの3次元モデルを記憶する記憶部と、
    前記3次元モデルと前記ロボット認識部で認識した位置及び姿勢とから前記ロボットのCG映像を生成し、前記CG映像を前記タッチスクリーン上の前記ロボットのカメラ映像に重畳表示するCG合成部と、
    ユーザのタッチ操作に応じて、前記タッチスクリーン上で前記CG映像のロボットを仮想的に動作させる操作入力部と、
    前記CG映像のロボットの仮想的な動作に追従して前記ロボットが動作するように、前記ロボットに対して制御命令を送出するロボット制御部と、
    を有していることを特徴とするロボットシステム。
  2. 前記ロボット制御部は、
    タッチ操作が続いている間は前記ロボットに対する制御命令の送出を行わず、
    タッチ操作が終了すると前記ロボットに対する制御命令の送出を開始し、タッチ操作が終了した時点の前記CG映像と同じ位置及び姿勢になるように前記ロボットを動作させることを特徴とする請求項1に記載のロボットシステム。
  3. 前記ロボット制御部は、
    タッチ操作の開始とともに前記ロボットに対する制御命令の送出を開始し、タッチ操作が続いている間は前記ロボットを動作させ、
    タッチ操作が終了した時点で前記ロボットの動作を停止させることを特徴とする請求項1に記載のロボットシステム。
  4. 前記ロボット制御部は、
    タッチ操作の開始とともに前記ロボットに対する制御命令の送出を開始し、タッチ操作が続いている間に前記ロボットを動作させるとともに、
    タッチ操作の終了後も、タッチ操作が終了した時点の前記CG映像と同じ位置及び姿勢になるまで前記ロボットを動作させることを特徴とする請求項1に記載のロボットシステム。
  5. 前記ロボットとして、各々がカメラを具備する2つのロボットを有しており、
    前記操作装置は、一方のロボットのカメラから取り込まれるカメラ映像を他方のロボットの操作用のカメラ映像として用いることを特徴とする請求項1〜4のうちいずれか1項に記載にロボットシステム。
  6. 前記ロボットは、エンドエフェクタを有するアームと、前記エンドエフェクタが向いている方向に光を照射するライトとを備えていることを特徴とする請求項1〜5のうちいずれか1項に記載のロボットシステム。
  7. 前記ロボットは、関節で接続された複数のリンクからなるアームを有しており、
    前記操作入力部におけるタッチ操作は、
    前記アーム上の1点をタッチしドラッグすることにより前記アームの各リンクを移動させるシングルタッチ操作と、
    移動させないリンクにタッチした状態を維持したまま他のリンクをタッチしドラッグすることにより一部のリンクのみを移動させるマルチタッチ操作と、を含むことを特徴とする請求項1〜6のうちいずれか1項に記載のロボットシステム。
JP2011032547A 2011-02-17 2011-02-17 ロボットシステム Active JP5246672B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011032547A JP5246672B2 (ja) 2011-02-17 2011-02-17 ロボットシステム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011032547A JP5246672B2 (ja) 2011-02-17 2011-02-17 ロボットシステム

Publications (2)

Publication Number Publication Date
JP2012171024A true JP2012171024A (ja) 2012-09-10
JP5246672B2 JP5246672B2 (ja) 2013-07-24

Family

ID=46974413

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011032547A Active JP5246672B2 (ja) 2011-02-17 2011-02-17 ロボットシステム

Country Status (1)

Country Link
JP (1) JP5246672B2 (ja)

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014102995A1 (ja) * 2012-12-28 2014-07-03 株式会社日立製作所 モニタリングシステム、方法およびプログラムを記憶した情報記録媒体
CN104238418A (zh) * 2014-07-02 2014-12-24 北京理工大学 一种交互现实系统和方法
JP2015147260A (ja) * 2014-02-05 2015-08-20 株式会社デンソーウェーブ ロボットの教示装置
EP2923806A1 (en) 2014-03-26 2015-09-30 Seiko Epson Corporation Robot control device, robot, robotic system, teaching method, and program
CN105666505A (zh) * 2014-12-08 2016-06-15 发那科株式会社 具备扩展现实对应显示器的机器人系统
JP2016144852A (ja) * 2015-02-09 2016-08-12 トヨタ自動車株式会社 ロボットシステム
EP3098033A1 (de) * 2015-05-29 2016-11-30 KUKA Roboter GmbH Ermittlung der roboterachswinkel und auswahl eines roboters mit hilfe einer kamera
JP2017071992A (ja) * 2015-10-09 2017-04-13 住友重機械工業株式会社 ショベル操作装置及びショベル操作方法
JP2017100204A (ja) * 2015-11-30 2017-06-08 株式会社デンソーウェーブ ロボット操作システム
US9715236B2 (en) 2015-08-06 2017-07-25 Kabushiki Kaisha Toyota Jidoshokki Forklift operation assist system
WO2017131194A1 (ja) * 2016-01-29 2017-08-03 住友建機株式会社 ショベル及びショベルの周囲を飛行する自律式飛行体
WO2017149868A1 (ja) 2016-03-01 2017-09-08 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP2017534091A (ja) * 2014-08-25 2017-11-16 エックス デベロップメント エルエルシー ロボット装置の行為の仮想表現を表示する拡張現実のための方法及びシステム
JP2018056952A (ja) * 2016-09-30 2018-04-05 キヤノンマーケティングジャパン株式会社 情報処理装置、及びその制御方法、プログラム
JP2018183845A (ja) * 2017-04-26 2018-11-22 ファナック株式会社 ロボットを操作するための操作装置、ロボットシステム、および操作方法
KR101933827B1 (ko) * 2018-05-28 2018-12-28 한경대학교 산학협력단 포크형 리프터를 갖는 이동형 물류 로봇 시스템 및 그 동작 방법
WO2019102789A1 (ja) * 2017-11-22 2019-05-31 川崎重工業株式会社 ロボットシステム及びそれを用いて物を作る方法
KR101986451B1 (ko) * 2018-03-27 2019-06-10 한국로봇융합연구원 수중로봇의 매니퓰레이터 제어방법 및 그 제어 시스템
JP2019159808A (ja) * 2018-03-13 2019-09-19 ファナック株式会社 制御装置、制御方法及び制御プログラム
US10427298B2 (en) 2017-05-31 2019-10-01 Fanuc Corporation Robot system displaying information for teaching robot
WO2019236019A1 (en) * 2018-06-07 2019-12-12 Aselsan Elektroni̇k Sanayi̇ Ve Ti̇caret Anoni̇m Şi̇rketi̇ Remote-controlled robotic arm with multiple axis mobility
CN111263921A (zh) * 2017-09-08 2020-06-09 奈安蒂克公司 碰撞检测、估计和避免
US10786906B2 (en) 2017-08-25 2020-09-29 Fanuc Corporation Robot system
WO2020203819A1 (ja) * 2019-03-29 2020-10-08 株式会社Ihi 遠隔操作装置
US10927528B2 (en) 2015-09-15 2021-02-23 Sumitomo(S.H.I.) Construction Machinery Co., Ltd. Shovel

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101471852B1 (ko) * 2013-12-02 2014-12-12 경상대학교산학협력단 스마트장치, 로봇정보 제공장치, 로봇 궤적 생성 방법 및 로봇 작업교시 방법

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62255087A (en) * 1986-04-30 1987-11-06 Meidensha Electric Mfg Co Ltd Method of controlling master-slave manipulator
JPH0569359A (ja) * 1991-09-12 1993-03-23 Hitachi Ltd 遠隔ロボツト操縦方法及びそのシステム
JPH08309680A (ja) * 1996-07-01 1996-11-26 Hitachi Ltd マニピュレータ制御システム
WO1998003314A1 (fr) * 1996-07-24 1998-01-29 Fanuc Ltd Procede de commande de deplacement graduel de robots
JPH11338532A (ja) * 1998-05-22 1999-12-10 Hitachi Ltd 教示装置
JP2004291186A (ja) * 2003-03-27 2004-10-21 Ntt Docomo Inc ロボット制御方法、ロボット制御システム、これらに用いて好適なロボット及び制御装置
JP2006000977A (ja) * 2004-06-17 2006-01-05 National Univ Corp Shizuoka Univ ロボット環境間力作用状態呈示装置
JP2006350602A (ja) * 2005-06-15 2006-12-28 Yushin Precision Equipment Co Ltd 操作端末装置
JP2008080472A (ja) * 2006-09-29 2008-04-10 Toshiba Corp ロボット装置及びその制御方法
JP2010176329A (ja) * 2009-01-28 2010-08-12 Sony Corp 情報処理装置、アニメーション付加方法、及びプログラム
JP2011000669A (ja) * 2009-06-18 2011-01-06 Yaskawa Electric Corp ロボットシステム及び物品並置方法

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62255087A (en) * 1986-04-30 1987-11-06 Meidensha Electric Mfg Co Ltd Method of controlling master-slave manipulator
JPH0569359A (ja) * 1991-09-12 1993-03-23 Hitachi Ltd 遠隔ロボツト操縦方法及びそのシステム
JPH08309680A (ja) * 1996-07-01 1996-11-26 Hitachi Ltd マニピュレータ制御システム
WO1998003314A1 (fr) * 1996-07-24 1998-01-29 Fanuc Ltd Procede de commande de deplacement graduel de robots
JPH11338532A (ja) * 1998-05-22 1999-12-10 Hitachi Ltd 教示装置
JP2004291186A (ja) * 2003-03-27 2004-10-21 Ntt Docomo Inc ロボット制御方法、ロボット制御システム、これらに用いて好適なロボット及び制御装置
JP2006000977A (ja) * 2004-06-17 2006-01-05 National Univ Corp Shizuoka Univ ロボット環境間力作用状態呈示装置
JP2006350602A (ja) * 2005-06-15 2006-12-28 Yushin Precision Equipment Co Ltd 操作端末装置
JP2008080472A (ja) * 2006-09-29 2008-04-10 Toshiba Corp ロボット装置及びその制御方法
JP2010176329A (ja) * 2009-01-28 2010-08-12 Sony Corp 情報処理装置、アニメーション付加方法、及びプログラム
JP2011000669A (ja) * 2009-06-18 2011-01-06 Yaskawa Electric Corp ロボットシステム及び物品並置方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN6013009522; Youjun Xiong, Shiqi Li and Ming Xie: 'Predictive display and interaction of telerobots based on augmented reality' Robotica Vol. 24, 2006, PP 447-453 *

Cited By (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014102995A1 (ja) * 2012-12-28 2014-07-03 株式会社日立製作所 モニタリングシステム、方法およびプログラムを記憶した情報記録媒体
JP2015147260A (ja) * 2014-02-05 2015-08-20 株式会社デンソーウェーブ ロボットの教示装置
JP2015182213A (ja) * 2014-03-26 2015-10-22 セイコーエプソン株式会社 ロボット制御装置、ロボット、ロボットシステム、教示方法、及びプログラム
EP2923806A1 (en) 2014-03-26 2015-09-30 Seiko Epson Corporation Robot control device, robot, robotic system, teaching method, and program
CN104238418A (zh) * 2014-07-02 2014-12-24 北京理工大学 一种交互现实系统和方法
US10896543B2 (en) 2014-08-25 2021-01-19 X Development Llc Methods and systems for augmented reality to display virtual representations of robotic device actions
JP2017534091A (ja) * 2014-08-25 2017-11-16 エックス デベロップメント エルエルシー ロボット装置の行為の仮想表現を表示する拡張現実のための方法及びシステム
CN105666505A (zh) * 2014-12-08 2016-06-15 发那科株式会社 具备扩展现实对应显示器的机器人系统
JP2016107379A (ja) * 2014-12-08 2016-06-20 ファナック株式会社 拡張現実対応ディスプレイを備えたロボットシステム
US10052765B2 (en) 2014-12-08 2018-08-21 Fanuc Corporation Robot system having augmented reality-compatible display
JP2016144852A (ja) * 2015-02-09 2016-08-12 トヨタ自動車株式会社 ロボットシステム
CN106203252A (zh) * 2015-05-29 2016-12-07 库卡罗伯特有限公司 借助相机查明机器人轴角度并选出机器人
CN106203252B (zh) * 2015-05-29 2020-06-05 库卡罗伯特有限公司 借助相机查明机器人轴角度并选出机器人
EP3098033A1 (de) * 2015-05-29 2016-11-30 KUKA Roboter GmbH Ermittlung der roboterachswinkel und auswahl eines roboters mit hilfe einer kamera
US10007837B2 (en) 2015-05-29 2018-06-26 Kuka Roboter Gmbh Determining the robot axis angle and selection of a robot with the aid of a camera
US9715236B2 (en) 2015-08-06 2017-07-25 Kabushiki Kaisha Toyota Jidoshokki Forklift operation assist system
US10927528B2 (en) 2015-09-15 2021-02-23 Sumitomo(S.H.I.) Construction Machinery Co., Ltd. Shovel
JP2017071992A (ja) * 2015-10-09 2017-04-13 住友重機械工業株式会社 ショベル操作装置及びショベル操作方法
JP2017100204A (ja) * 2015-11-30 2017-06-08 株式会社デンソーウェーブ ロボット操作システム
US10767347B2 (en) 2016-01-29 2020-09-08 Sumitomo(S.H.I.) Construction Machinery Co., Ltd. Shovel and autonomous aerial vehicle flying around shovel
WO2017131194A1 (ja) * 2016-01-29 2017-08-03 住友建機株式会社 ショベル及びショベルの周囲を飛行する自律式飛行体
WO2017149868A1 (ja) 2016-03-01 2017-09-08 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP2018056952A (ja) * 2016-09-30 2018-04-05 キヤノンマーケティングジャパン株式会社 情報処理装置、及びその制御方法、プログラム
DE102018109304B4 (de) * 2017-04-26 2020-11-26 Fanuc Corporation Bedienvorrichtung zum Bedienen eines Roboters, Robotersystem und Bedienverfahren
US10654171B2 (en) 2017-04-26 2020-05-19 Fanuc Corporation Operation device for operating robot, robot system, and operation method
JP2018183845A (ja) * 2017-04-26 2018-11-22 ファナック株式会社 ロボットを操作するための操作装置、ロボットシステム、および操作方法
DE102018112403B4 (de) 2017-05-31 2019-10-02 Fanuc Corporation Robotersystem, das informationen zur unterweisung eines roboters anzeigt
US10427298B2 (en) 2017-05-31 2019-10-01 Fanuc Corporation Robot system displaying information for teaching robot
US10786906B2 (en) 2017-08-25 2020-09-29 Fanuc Corporation Robot system
CN111263921A (zh) * 2017-09-08 2020-06-09 奈安蒂克公司 碰撞检测、估计和避免
WO2019102789A1 (ja) * 2017-11-22 2019-05-31 川崎重工業株式会社 ロボットシステム及びそれを用いて物を作る方法
JP2019159808A (ja) * 2018-03-13 2019-09-19 ファナック株式会社 制御装置、制御方法及び制御プログラム
CN110275447A (zh) * 2018-03-13 2019-09-24 发那科株式会社 控制装置、控制方法以及控制程序
CN110275447B (en) * 2018-03-13 2021-03-09 发那科株式会社 Control device, control method, and computer-readable medium
KR101986451B1 (ko) * 2018-03-27 2019-06-10 한국로봇융합연구원 수중로봇의 매니퓰레이터 제어방법 및 그 제어 시스템
KR101933827B1 (ko) * 2018-05-28 2018-12-28 한경대학교 산학협력단 포크형 리프터를 갖는 이동형 물류 로봇 시스템 및 그 동작 방법
WO2019236019A1 (en) * 2018-06-07 2019-12-12 Aselsan Elektroni̇k Sanayi̇ Ve Ti̇caret Anoni̇m Şi̇rketi̇ Remote-controlled robotic arm with multiple axis mobility
WO2020203819A1 (ja) * 2019-03-29 2020-10-08 株式会社Ihi 遠隔操作装置

Also Published As

Publication number Publication date
JP5246672B2 (ja) 2013-07-24

Similar Documents

Publication Publication Date Title
EP3400499B1 (en) Two-handed object manipulations in virtual reality
US10835333B2 (en) Remote control robot system
Fallon et al. An architecture for online affordance‐based perception and whole‐body planning
US9836117B2 (en) Autonomous drones for tactile feedback in immersive virtual reality
US8965580B2 (en) Training and operating industrial robots
EP2676450B1 (en) Providing an interactive experience using a 3d depth camera and a 3d projector
US10384348B2 (en) Robot apparatus, method for controlling the same, and computer program
EP2142133B1 (en) Methods, devices, and systems for automated movements involving medical robots
US10350751B2 (en) Robot control, training and collaboration in an immersive virtual reality environment
Makris et al. Intuitive dual arm robot programming for assembly operations
Sakamoto et al. Sketch and run: a stroke-based interface for home robots
JP2019177477A (ja) 3次元ロボットワークセルデータの表示システム、表示方法及び表示装置
US20140015831A1 (en) Apparatus and method for processing manipulation of 3d virtual object
TWI558525B (zh) 機器人及其控制方法
JP5855885B2 (ja) ロボットを制御するためのヒューマン・ロボット・インターフェース装置及び方法
Matsas et al. Design of a virtual reality training system for human–robot collaboration in manufacturing tasks
CN104002296B (zh) 机器人模拟器、机器人示教装置以及机器人示教方法
US9415509B2 (en) Robot teach device with 3-D display
US8630462B2 (en) Methods and apparatus for improved motion capture
CN105425955A (zh) 多用户沉浸式全互动虚拟现实工程培训系统
US8265791B2 (en) System and method for motion control of humanoid robot
US9216510B2 (en) Remote vehicle control system
Du et al. Markerless kinect-based hand tracking for robot teleoperation
Fong et al. Novel interfaces for remote driving: gesture, haptic, and PDA
EP1537959A2 (en) A method and a system for programming an industrial robot

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130305

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130402

R150 Certificate of patent or registration of utility model

Ref document number: 5246672

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160419

Year of fee payment: 3

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250