JP2010264553A - 遠隔操作システム及び遠隔操作方法 - Google Patents

遠隔操作システム及び遠隔操作方法 Download PDF

Info

Publication number
JP2010264553A
JP2010264553A JP2009118146A JP2009118146A JP2010264553A JP 2010264553 A JP2010264553 A JP 2010264553A JP 2009118146 A JP2009118146 A JP 2009118146A JP 2009118146 A JP2009118146 A JP 2009118146A JP 2010264553 A JP2010264553 A JP 2010264553A
Authority
JP
Japan
Prior art keywords
input
target position
instruction
movement target
operation content
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009118146A
Other languages
English (en)
Other versions
JP5326794B2 (ja
Inventor
Kunimatsu Hashimoto
国松 橋本
Koji Terada
耕志 寺田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2009118146A priority Critical patent/JP5326794B2/ja
Publication of JP2010264553A publication Critical patent/JP2010264553A/ja
Application granted granted Critical
Publication of JP5326794B2 publication Critical patent/JP5326794B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】容易にロボット装置を最適な移動目標位置へ移動させ、操作内容を実行させることができる遠隔操作システム及び遠隔操作方法を提供すること。
【解決手段】ロボット装置を遠隔操作するための遠隔操作システムは、ロボット装置周辺を撮影する撮影手段と、撮影手段により撮影された撮影画像を表示する表示手段と、表示手段に表示された撮影画像上において、目標対象物に対する指示を入力する入力手段と、入力手段により入力された撮影画像上における目標対象物の指示方法に基づいて、ロボット装置を移動させる移動目標位置と、移動目標位置における前記ロボット装置の操作内容と、を推測する推測手段と、推測手段により推測された移動目標位置へロボット装置を移動させると共に、操作内容を実行させるための指令値を生成する指令値生成手段と、を備えている。
【選択図】図1

Description

本発明は、例えば、ロボット装置を遠隔操作する遠隔操作システム及び遠隔操作方法に関し、より詳細には、撮影画像上においてロボット装置に対して指示を行うことができる遠隔操作システム及び遠隔操作方法に関するものである。
例えば、オペレータの簡易な指示により、ロボット装置を移動目標位置へ移動させ、所定の作業等を実行させることがある。この場合に、操作者の音声を用いてロボット装置に対して、詳細な指示等を行うことが、実質的に困難な作業となることがある。この様な問題を解決すべく、ロボット装置の移動目標位置及び移動目標位置に到達したときのロボット装置の向きを数値入力等して、画像で表示する制御装置が知られている(例えば、特許文献1参照)。
特開2007−30060号公報
上記特許文献1に示す制御装置においては、ロボット装置に移動目標位置で実行させる具体的な操作内容を考慮して、例えば、その操作内容から逆算して最終的な移動目標位置を設定する必要が生じる。また、ロボット装置の移動目標位置と、その移動目標位置での操作内容とを別個に夫々設定する必要が生じるため、その操作が複雑化する虞がある。本発明は、このような問題点を解決するためになされたものであり、容易にロボット装置を最適な移動目標位置へ移動させ、操作内容を実行させることができる遠隔操作システム及び遠隔操作方法を提供することを主たる目的とする。
上記目的を達成するための本発明の一態様は、ロボット装置を遠隔操作するための遠隔操作システムであって、前記ロボット装置周辺を撮影する撮影手段と、前記撮影手段により撮影された撮影画像を表示する表示手段と、前記表示手段に表示された撮影画像上において、目標対象物に対する指示を入力する入力手段と、前記入力手段により入力された前記撮影画像上における前記目標対象物の指示方法に基づいて、前記ロボット装置を移動させる移動目標位置と、該移動目標位置における前記ロボット装置の操作内容と、を推測する推測手段と、前記推測手段により推測された前記移動目標位置へ前記ロボット装置を移動させると共に、前記操作内容を実行させるための指令値を生成する指令値生成手段と、を備える、ことを特徴とする遠隔操作システムである。
また、この一態様において、前記入力手段は、前記撮影画像上に、前記目標対象物に対する指示図形を入力し、前記推測手段は、前記入力手段により入力された前記指示図形の形状及び位置に基づいて、前記移動目標位置及び前記操作内容を推測してもよい。
さらに、この一態様において、前記操作内容は、例えば、前記移動目標位置において、(a)何も実行しないこと、(b)所定の作業を実行すること、(c)情報の伝達を実行すること、のうち少なくとも1つを含んでいてもよい。
さらにまた、この一態様において、前記推測手段は、前記入力手段により入力された前記指示図形が第1形状であると判断したとき、操作内容が(a)何も実行しないこと、と判断し、前記入力手段により入力された前記指示図形が第2形状であると判断したとき、操作内容が(b)所定の作業を実行すること、と判断し、前記第2形状の位置にある物体を前記所定の作業を実行する前記目標対象物として認識し、前記入力手段により入力された前記指示図形が第3形状であると判断したとき、操作内容が(c)情報の伝達を実行すること、と判断し、前記第3形状の位置にある物体を前記情報の伝達を実行する前記目標対象物として認識し、前記操作内容と、前記目標対象物の位置とに基づいて、前記移動目標位置を設定してもよい。
さらにまた、この一態様において、前記推測手段は、前記第1形状の中心位置、もしくは、前記第1形状内にその一部又は全部が含まれる前記目標対象物の重心位置を、前記移動目標位置に設定してもよい。
なお、この一態様において、前記推測手段は、前記入力手段により入力された前記指示図形の形状及び位置に基づいて、前記入力のエラーを検出し、通知してもよい。
また、この一態様において、前記入力手段は、前記撮影画像上に、前記目標対象物に対する指示図形を入力し、前記推測手段は、前記入力手段により入力された前記指示図形の形状と、その書き順とに基づいて、前記移動目標位置及び前記操作内容を推測してもよい。
さらに、この一態様において、前記入力手段は、前記撮影画像上に、前記目標対象物に対する指示図形を入力し、前記推測手段は、前記入力手段により入力された前記指示図形の形状と、その書く速度とに基づいて、前記移動目標位置及び前記操作内容を推測してもよい。
さらにまた、この一態様において、前記入力手段は、スイッチが設けられた入力用ペンを用いて、前記撮影画像上に、前記目標対象物に対する指示を入力し、前記推測手段は、前記入力手段により入力された前記入力用ペンの指示位置と、前記スイッチの操作と、に基づいて、前記移動目標位置及び前記操作内容を推測してもよい。
さらにまた、この一態様において、前記入力手段は、入力用ペンを用いて、前記撮影画像上に、前記目標対象物に対する指示を入力し、前記推測手段は、前記入力手段により入力された前記入力用ペンの傾斜と、前記スイッチの操作と、に基づいて、前記移動目標位置及び前記操作内容を推測してもよい。
他方、上記目的を達成するための本発明の一態様は、ロボット装置を遠隔操作するための遠隔操作方法であって、前記ロボット装置周辺を撮影する撮影工程と、前記撮影工程で撮影された撮影画像を表示する表示工程と、前記表示工程で表示された撮影画像上において、目標対象物に対する指示を入力する入力工程と、前記入力工程で入力された前記撮影画像上における前記目標対象物の指示方法に基づいて、前記ロボット装置を移動させる移動目標位置と、該移動目標位置における前記ロボット装置の操作内容と、を推測する推測工程と、前記推測工程で推測された前記移動目標位置へ前記ロボット装置を移動させると共に、前記操作内容を実行させるための指令値を生成する生成工程と、を備える、ことを特徴とする遠隔操作方法であってもよい。
本発明によれば、容易にロボット装置を最適な移動目標位置へ移動させ、操作内容を実行させることができる。
本発明の一実施形態に係る遠隔操作システムの概略的な構成を示すブロック図である。 撮影装置が設備の天井等に設けられる構成の一例を示す図である。 表示装置の撮影画像上において目標対象物に対する指示図形を入力した状態の一例を示す図である。 (a)撮影画像上における指示図形の形状及び位置の一例を示す図である。(b)撮影画像上における指示図形の形状及び位置の一例を示す図である。(c)撮影画像上における指示図形の形状及び位置の一例を示す図である。 (a)指示図形の中心位置を移動目標位置として設定した一例を示す図である。(b)指示図形内の目標対象物の重心位置を移動目標位置として設定した一例を示す図である。 本発明の一実施形態に係る遠隔操作システムの制御処理フローを示すフローチャートである。 入力用ペンのモードスイッチ操作により、移動目標位置及び操作内容を推定する方法の一例を示す図である。 入力用ペンの傾斜により、移動目標位置及び操作内容を推定する方法の一例を示す図である。
以下、図面を参照して本発明の実施の形態について説明する。図1は、本発明の一実施形態に係る遠隔操作システムの概略的な構成を示すブロック図である。本実施形態に係る遠隔操作システム10は、操作者が所定の遠隔操作を行うことで、ロボット装置1を移動目標位置に移動させ、物体、人等の目標対象物Pに対して、所定の操作内容を実行させることができるものである。遠隔操作システム10は、ロボット装置1と、撮影装置2と、表示装置3と、入力装置4と、制御装置5と、を備えている。
ロボット装置1は、例えば、多関節型のアーム11を有する二足歩行ロボット、車両型ロボット等の任意の位置へ移動でき、目標対象物Pの把持、持上げ、移動、ドアの開閉、目標対象物Pの監視、目標対象物Pへの情報伝達、などの所定の操作内容を実行することができる。
撮影装置2は、例えば、ロボット装置1に搭載されており、ロボット装置1の周辺を撮影することができるCCDカメラ、CMOSカメラなどのステレオ式のカメラ装置を用いることができる。撮影装置2は、表示装置3に有線又は無線で通信接続されており、撮影した撮影画像Qを表示装置3に対して出力する。なお、撮影装置2は、ロボット装置1に搭載される構成であるが、これに限らず、例えば、設備の天井等に設けられる構成であってもよい(図2)。
表示装置3は、撮影装置2から出力された撮影画像Qを、内蔵するメモリ等に記憶しつつ、その撮影画像Qを表示することができる。例えば、表示装置3は、撮影装置2から出力された撮影画像Qをリアルタイムで表示すると共に、メモリ等に記憶した過去の撮影画像Qを適宜表示することができる。なお、表示装置3は、例えば、液晶ディスプレイ装置、有機又は無機ELディスプレイ装置、LEDディスプレイ装置等が用いられている。
入力装置4は、例えば、表示装置3の表示画面に設けられたタッチパネル等であり、表示装置3に表示されたリアルタイムの撮影画像Q上において、目標対象物Pに対する指示図形Sなどの指示を、入力用ペン(レーザポインタなどの非接触型のペンも含む)40や操作者の指等を用いて入力することができる(図3)。
なお、入力装置4は、マウス、タッチパッド、キーボード、スイッチ装置、ボタン装置等の入力手段を用いて、表示装置3に表示された撮影画像Q上において、目標対象物Pに対する指示図形Sを入力できる構成であってもよい。また、表示装置3により表示された3次元撮影画像(ホログラフィー)上において、目標対象物Pに対する指示図形Sを、入力用ペン40や操作者の指等を用いて入力するような構成であってもよい。これにより、操作者はより直感的な入力が可能となるため、操作性がより向上する。さらに、表示装置3は、操作者の操作に応じて、過去の撮影画像Qを表示し、入力装置4は、表示装置3に表示された過去の撮影画像Q上において、目標対象物Pに対する指示図形Sを、入力用ペン40や操作者の指等を用いて入力してもよい。
入力装置4は、表示装置3の表示画面に表示された撮影画像Q上において、操作者により指示図形Sの描画、指示などの指示操作が行われると、その指示操作に応じた指示信号を出力する。ここで、指示信号は、例えば、操作者により撮影画像Q上で描画された点、線、図形等の指示図形Sの位置座標情報を含んでいる。入力装置4は、制御装置5に有線又は無線で通信接続されており、指示操作に応じた指示信号を制御装置5に対して出力する。
制御装置5は、操作者の指示操作に従って、ロボット装置1を移動目標位置へ移動させ、その移動目標位置でロボット装置1に所定の操作内容を実行させる制御を行う。なお、制御装置5は、制御処理、演算処理等と行うCPU(Central Processing Unit)、CPUによって実行される制御プログラム、演算プログラム等が記憶されたROM(Read Only Memory)、処理データ等を一時的に記憶するRAM(Random Access Memory)等からなるマイクロコンピュータを、中心にしてハードウェア構成されている。
制御装置5は、推測部51と、指令値生成部52と、を備えている。また、推測部51及び指令値生成部52は、例えば、上記ROMに記憶され、上記CPUによって実行されるプログラムによって実現してもよい。
推測部51は、入力装置4から出力された指示信号と、撮影装置2から出力された撮影画像Qと、に基づいて、ロボット装置1を移動させる移動目標位置と、その移動目標位置におけるロボット装置1の操作内容と、を推測することができる。
例えば、表示装置3に表示された撮影画像Q上に、入力用ペン40等により所定の指示図形S(○、×、△、□、☆、=、<、>、*、@、#、←、→、−、+、/、//、|、||、・等)が描画されると、入力装置4は、その描画された指示図形Sに応じた指示信号を制御装置5の推測部51に対して出力する。なお、指示図形Sの形状は、操作者が容易に入力できる形状であれば、上記例に限らず、任意の形状でよい。
推測部51は、入力装置4から出力された指示信号の位置座標情報から、撮影画像Q上に描画された指示図形Sの形状及び位置座標を算出する。ここで、推測部51は、撮影装置2からの撮影画像Qに3次元座標系を設定しており、この3次元座標系に基づいて、撮影画像Q上における指示図形Sの位置座標を算出するものとする。なお、推測部51は、ステレオ式カメラやレーザレンジファインダなどの3次元位置計測装置を用いて、指示図形Sの位置座標をより高精度に算出してもよい。
推測部51は、例えば、上記算出した撮影画像Q上の指示図形Sの形状と、予め設定された指示図形Sの形状と操作内容との対応関係を示す操作マップ情報と、に基づいて、移動目標位置におけるロボット装置1の操作内容を推定することができる。
ここで、操作マップ情報において、例えば、指示図形Sの形状が「○」のとき(図4(a))、その操作内容は、(a)「何も実行しない(移動目標位置への移動のみ)」であり、指示図形Sの形状が「×」のとき(図4(b))、その操作内容は、(b)「所定の作業(目標対象物Pの把持、持上げ、移動、ドア等の開閉、目標対象物Pの監視など)を実行する」であり、指示図形Sの形状が「−」のとき(図4(c))、その操作内容は、(c)「人等の目標対象物Pに対して情報の伝達(会話、通知、警告など)を実行する」である。なお、上述した指示図形Sの形状と操作内容との対応関係は、一例であり、任意の対応関係が適用可能である。また、操作マップ情報及び後述の位置マップ情報は、上記RAM等に予め記憶されていてもよい。
推測部51は、上記推測した移動目標位置における操作内容と、操作内容と移動目標位置との対応関係を示す位置マップ情報と、に基づいて、ロボット装置1の移動目標位置を推測することができる。
ここで、位置マップ情報において、例えば、操作内容が(a)「何も実行しない」のとき、その移動目標位置は、指示図形Sの位置座標となる。より具体的には、推測部51は、指示図形Sの形状が「○」であると判断したときは(図4(a))、その形状「○」の中心位置Oを移動目標位置として設定してもよく(図5(a))、また、その形状「○」内に一部又は全部が含まれる目標対象物Pの重心位置Gを移動目標位置として設定してもよい(図5(b))。
また、推測部51は、指示図形Sの形状が「×」であると判断したときは(図4(b))、その形状「×」の中心位置にある物体を目標対象物Pとして認識し、目標対象物Pの位置と位置マップ情報とに基づいて、所定の作業がし易い位置を移動目標位置に設定してもよい。例えば、所定の作業が、その目標対象物Pの把持、持上げ、移動等である場合には、推測部51は、ロボット装置1のアーム11の可動範囲内に目標対象物Pが入り、作業性が良好となる位置を、移動目標位置として設定する。また、所定の作業が、目標対象物Pの監視である場合には、推測部51は、目標対象物Pの位置と位置マップ情報とに基づいて、ロボット装置1に搭載された撮影装置2が目標対象物Pを撮影し易い位置を移動目標位置として設定する。このように、操作者は、撮影画像Q上で指定図形Sの入力を単に行うだけで、最適な移動目標位置と同時に、その移動目標位置における所定の作業を入力することができる。
さらに、推測部51は、指示図形Sの形状が「−」であると判断したときは(図4(c))、その形状「−」の位置にいる人を情報伝達の目標対象物Pとして認識し、目標対象物Pの位置と位置マップ情報とに基づいて、情報伝達し易い位置を移動目標位置として設定する。より具体的には、推測部51は、指示図形S「−」の位置にいる人を会話の対象として認識し、会話に最適な距離及び方向(人の顔に正対する方向)となる位置を移動目標位置として設定する。
なお、推定部51は、上記入力された指示図形Sの形状及び位置に基づいて、その入力エラーを検出して、操作者に対して通知するようにしてもよい。これにより、より正確にロボット装置1を遠隔操作することが可能となる。
例えば、推定部51は、指示図形Sの形状が「○」であると判断し、その指示図形Sの位置への移動が障害物等により不可能であると判断した場合、そのエラーを通知してもよい。また、推定部51は、指示図形Sの形状が「×」であると判断し、その形状「×」の中心位置に目標対象物Pが存在しないと判断した場合、そのエラーを通知してもよい。さらに、推定部51は、指示図形Sの形状が「−」であると判断し、その形状「−」の位置に人が存在しないと判断したとき、そのエラーを通知してもよい。
また、上記エラーの通知方法としては、例えば、表示装置3の表示画面を振動、点滅、フラッシュ等させてもよく、任意の通知方法が考えられる。さらに、推定部51は、上記エラーを検出したとき、そのエラーを自動的に補正してもよい。例えば、推定部51は、指示図形Sの形状が「×」であると判断し、その形状「×」の中心位置に目標対象物Pが存在しないと判断した場合、その指示図形Sの近傍にある物体を目標対象物Pに設定してもよい。
以上のようにして、操作者は、予め設定した指示図形Sを撮影画像Q上で簡易に入力するだけで、最適な移動目標位置及びその移動目標位置における操作内容を、同時に設定することができるため、遠隔操作システム10の操作性を大幅に向上させることができる。
推測部51は、推測した移動目標位置と移動目標位置における操作内容とを、指令値生成部52に対して出力する。なお、推測部51は、上記推測後に、目標対象物Pが移動又は動作したと判断した場合、その目標対象物Pの移動又は動作に応じて移動目標位置を追従させるようにしてもよい。この場合、推測部51は、更新した移動目標位置を指令値生成部52に対して逐次、出力する。例えば、指示図形S「−」の位置にいる人の顔が動作したとき、推測部51は、その人の顔の動作に応じて、その人の顔に正対する方向となる位置に移動目標位置をトラッキングさせてもよい。これにより、最適な移動目標位置の補正が自動的に行われ、遠隔操作システム10の操作性をより向上させることができる。
指令値生成部52は、推測部51により推測された移動目標位置と、移動目標位置における操作内容と、に基づいて、移動目標位置へロボット装置1を移動させると共に、操作内容を実行させるための指令値を生成する。例えば、指令値生成部52は、ロボット装置1の現在位置から、推測部51により推測された移動目標位置までの移動経路を算出し、算出した移動経路に従ってロボット装置1が適切に移動するような指令値を生成する。また、指令値生成部52は、ロボット装置1が移動目標位置に到着した後、自動的に、所定の作業等の操作内容を実行するような指令値を生成する。
指令値生成部52は、生成した指令値を、有線又は無線を介して、ロボット装置1に対して出力する。ロボット装置1は、指令値生成部52からの指令値に応じて、移動経路に従って移動目標位置まで移動し、その移動目標位置で操作内容を実行する。
なお、指令値生成部52は、例えば、移動領域のマップ情報などに基づいて、上記移動経路を算出することができる。このマップ情報は、例えば、移動する路面の全体形状に、略一定間隔に配置された格子点を結ぶグリッド線を仮想的に描写することで得られるグリッドマップから構成されている。指令地生成部52は、このグリッド線で囲まれたグリッド単位を用いて、ロボット装置1の現在位置、移動目標位置、および、移動目標位置における方向を特定することができる。また、グリッドマップにおける格子点間隔は、ロボット装置1の移動可能な曲率や絶対位置を認識する精度などの条件に応じて、適宜変更可能である。指令値生成部52は、このグリッドマップ上において特定された移動始点から目的地である移動目標位置までの移動経路を算出する。また、指令値生成部52は、ロボット装置1の回転センサにより検出された車輪の回転速度等に基づいて、ロボット装置1の移動速度や移動距離を算出することができる。そして、指令値生成部52は、これら移動速度や移動距離に基づいて、リアルタイムにロボット装置1の現在位置を算出し、ロボット装置1を生成された移動経路に沿って自律的に移動させるフィードバック制御等を行う。
ところで、従来の遠隔操作システムにおいて、例えば、ロボット装置に移動目標位置で実行させる具体的な操作内容を考慮して、最終的な移動目標位置を設定する必要が生じる。また、ロボット装置の移動目標位置と、その移動目標位置での操作内容とを別個に夫々設定する必要が生じ、その操作が複雑化する虞がある。そこで、本実施形態に係る遠隔操作システム10においては、表示装置3に表示された撮影画像Q上で、予め設定した指示図形Sを簡易に入力するだけで、ロボット装置1の最適な移動目標位置及びその移動目標位置における操作内容を同時に設定することができる。
次に、本実施形態に係る遠隔操作システムの制御処理フローについて、詳細に説明する。図6は、本実施形態に係る遠隔操作システムの制御処理フローの一例を示すフローチャートである。
入力装置4は、表示装置3の表示画面に表示された撮影画像Q上で、操作者により指示図形Sの描画が行われると(ステップS101)その指示図形Sの形状及び位置に応じた指示信号を、制御装置5の推測部51に対して出力する。次に、推測部51は、入力装置4から出力された指示信号の位置座標情報から、撮影画像Q上に描画された指示図形Sの形状及び位置座標を算出する(ステップS102)。
その後、推測部51は、算出した撮影画像Q上の指示図形Sと、指示図形Sの形状と操作内容との対応関係を示す操作マップ情報と、に基づいて、移動目標位置におけるロボット装置1の操作内容を推定する(ステップS103)。
さらに、推測部51は、推測した移動目標位置における操作内容と、操作内容と移動目標位置との対応関係を示す位置マップ情報と、に基づいて、ロボット装置1の移動目標位置を推測する(ステップS104)。そして、推測部51は、推測した移動目標位置と移動目標位置における操作内容とを、指令値生成部52に対して出力する。
指令値生成部52は、ロボット装置1の現在位置から、推測部51により推測された移動目標位置までの移動経路を算出し(ステップS105)、算出した移動経路に従ってロボット装置1が移動し、移動目標位置に到達するような指令値を生成する(ステップS106)。また、指令値生成部52は、ロボット装置1が移動目標位置に到着した後、自動的に、所定の作業等の操作内容を実行するような指令値を生成する(ステップS107)。指令値生成部52は、生成した指令値を、有線又は無線を介して、ロボット装置1に対して送信する。
次に、ロボット装置1は、指令値生成部52からの指令値に応じて、移動経路に従って移動目標位置まで移動し、その移動目標位置で操作内容を実行する(ステップS108)。
以上、本実施形態に係る遠隔操作システム10において、表示装置3に表示された撮影画像Q上で所定の指示図形Sを簡易に入力するだけで、最適な移動目標位置及びその移動目標位置における操作内容を、同時に設定することができる。さらに、移動目標位置は、ロボット装置1が移動目標位置において操作内容を最適に実行できるように、設定されている。すなわち、容易にロボット装置1を最適な移動目標位置へ移動させ、操作内容を実行させることができる。
なお、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。
例えば、上記一実施形態において、制御装置5の推測部51は、撮影画像Q上の指示図形Sの形状に基づいて、移動目標位置におけるロボット装置1の操作内容を推定しているが、これに限らず、例えば、指示図形Sの書き順(→、←、↑、↓等)に基づいて、ロボット装置1の操作内容を推定してもよい。
具体的には、推定部51は、撮影画像Q上の指示図形Sの書き順が左から右→であると判断したときは、その操作内容が、ロボット装置1のアーム11を左から右へ動作させると判断してもよい。一方、推定部51は、撮影画像Q上の指示図形Sの書き順が右から左←であると判断したときは、その操作内容が、ロボット装置1のアーム11を右から左へ動作させると判断してもよい。
また、上記一実施形態において、制御装置5の推測部51は、撮影画像Q上における指示図形Sの書く速度に基づいて、ロボット装置1の操作内容を推定してもよい。具体的には、推定部51は、撮影画像Q上の指示図形Sの書く速度が速くなるに従って、操作内容におけるロボット装置1の動作(目標対象物Pの把持、持上げ、移動、ドアの開閉など)の速度を速くしてもよい。
さらに、上記一実施形態において、制御装置5の推定部51は、撮影画像Q上の指示図形Sの形状と、キーボードのキー操作と、に基づいて、移動目標位置におけるロボット装置1の操作内容を推定してもよい。例えば、推定部51は、撮影画像Q上の指示図形Sの形状が「○」であり、キーボードのキー入力が「a」であると判断したとき、その操作内容が(a)「何も実行しない」と判断してもよい。一方で、推定部51は、撮影画像Q上の指示図形Sの形状が「○」であり、キーボードのキー入力が「b」であると判断したとき、その操作内容が(b)「目標対象物Pの把持などの所定の作業を実行する」と判断してもよい。なお、推定部51は、指示図形Sの形状と、キーボードの操作回数(入力回数)或いは操作時間(入力時間)と、に基づいて、移動目標位置におけるロボット装置1の操作内容を推定してもよい。
さらにまた、上記一実施形態において、制御装置5の推定部51は、撮影画像Q上の指示図形Sの形状と、マウスのクリック操作と、に基づいて、移動目標位置におけるロボット装置1の操作内容を推定してもよい。推定部51は、撮影画像Q上の指示図形Sの形状が「△」であり、マウスの右クリック操作が行われたと判断したとき、その操作内容が(a)「何も実行しない」と判断してもよい。一方で、推定部51は、撮影画像Q上の指示図形Sの形状が「△」であり、マウスの左クリック操作が行われたと判断したとき、その操作内容が(b)「目標対象物Pの把持などの所定の作業を実行する」と判断してもよい。
さらにまた、上記一実施形態において、制御装置5の推定部51は、撮影画像Q上の指示図形Sの形状と、入力用ペン40のスイッチ装置のオン/オフ操作と、に基づいて、移動目標位置におけるロボット装置1の操作内容を推定してもよい。推定部51は、撮影画像Q上の指示図形Sの形状が「×」であり、スイッチ装置のオン操作(スイッチの押圧等)が行われたと判断したとき、その操作内容が(a)「何も実行しない」と判断してもよい。一方で、推定部51は、撮影画像Q上の指示図形Sの形状が「×」であり、スイッチ装置のオフ操作が行われたと判断したとき、その操作内容が(b)「目標対象物Pの把持などの所定の作業を実行する」と判断してもよい。
さらにまた、上記一実施形態において、制御装置5の推定部51は、入力用ペン41の指示位置Rと、入力用ペン41に設けられた複数のモードスイッチ41a、41b、41cのオン/オフ操作と、に基づいて、移動目標位置、及び移動目標位置におけるロボット装置1の操作内容を推定してもよい(図7)。例えば、複数のモードスイッチとしては、(a)「何も実行しない」ための第1モードスイッチ41a、(b)「所定の作業を実行する」ための第2モードスイッチ41b、(c)「人に対して情報の伝達を実行する」ための第3モードスイッチ41b等が含まれるが、これに限らず、任意のモードスイッチが考えられる。
より具体的には、推測部51は、第1モードスイッチ41aがオン状態であると判断したときは、その操作内容が(a)「何も実行しない」であると判断し、入力用ペン41による指示位置Rを移動目標位置として設定してもよい。また、推測部51は、第2モードスイッチ41bがオン状態であると判断したときは、その操作内容が(b)「所定の作業を実行する」であると判断し、入力用ペン41による指示位置Rの物体を、所定の作業を行う目標対象物Pとして認識してもよい。さらに、推測部51は、第3モードスイッチ41cがオン状態であると判断したときは、その操作内容が(c)「人に対して情報の伝達を実行する」であると判断し、入力用ペン41による指示位置Rの物体を、情報伝達の目標対象物Pとして認識してもよい。また、推測部51は、撮影画像Q上の指示図形Sの形状と、入力用ペン41に設けられた複数のモードスイッチ41a、41b、41cのオン/オフ操作と、に基づいて、移動目標位置におけるロボット装置1の操作内容を推定してもよい。
さらにまた、上記一実施形態において、制御装置5の推定部51は、入力用ペン41の指示位置Rと、入力用ペン41の傾斜(傾斜方向、傾斜角度等)とに基づいて、移動目標位置、及び移動目標位置におけるロボット装置1の操作内容を推定してもよい。
より具体的には、推定部51は、入力用ペン41の傾斜方向が第1領域方向X1(270°〜360°)であると判断したときは、その操作内容が(a)「何も実行しない」であると判断し、入力用ペン41による指示位置Rを移動目標位置として設定してもよい。また、推測部51は、入力用ペン41の傾斜方向が第2領域方向X2(0°〜90°)であると判断したときは、その操作内容が(b)「所定の作業を実行する」であると判断し、入力用ペン41による指示位置Rの物体を、所定の作業を行う目標対象物Pとして認識してもよい。さらに、推測部51は、入力用ペン41の傾斜方向が第3領域方向X3(90°〜180°)であると判断したときは、その操作内容が(c)「人に対して情報の伝達を実行する」であると判断し、入力用ペン41による指示位置Rの物体を、情報伝達の目標対象物Pとして認識してもよい。なお、入力用ペン41の傾斜は、例えば、入力用ペン41に設けられたジャイロセンサ等の傾斜センサを用いて検出することができる。
上記一実施形態において、制御装置5の推測部51は、上記推測した移動目標位置における操作内容と、操作内容と移動目標位置におけるロボット装置1の目標姿勢との対応関係を示す姿勢マップ情報と、に基づいて、ロボット装置1の移動目標位置における目標姿勢を推測してもよい。指令値生成部52は、推測部51により推測された移動目標位置と、移動目標位置における操作内容と、に基づいて、移動目標位置へロボット装置1を移動させ、目標姿勢をとらせると共に、操作内容を実行させるための指令値を生成する。
なお、制御装置5の推定部51は、上述した複数の実施形態を任意に組み合わせて、移動目標位置及び/又は操作内容を推定してもよい。
本発明は、例えば、ロボット装置を移動目標位置に移動させ、所望の操作内容を実行させる遠隔操作システム及び遠隔操作方法に利用可能である。
1 ロボット装置
2 撮影装置
3 表示装置
4 入力装置
5 制御装置
10 遠隔操作システム
51 推測部
52 指令値生成部

Claims (11)

  1. ロボット装置を遠隔操作するための遠隔操作システムであって、
    前記ロボット装置周辺を撮影する撮影手段と、
    前記撮影手段により撮影された撮影画像を表示する表示手段と、
    前記表示手段に表示された撮影画像上において、目標対象物に対する指示を入力する入力手段と、
    前記入力手段により入力された前記撮影画像上における前記目標対象物の指示方法に基づいて、前記ロボット装置を移動させる移動目標位置と、該移動目標位置における前記ロボット装置の操作内容と、を推測する推測手段と、
    前記推測手段により推測された前記移動目標位置へ前記ロボット装置を移動させると共に、前記操作内容を実行させるための指令値を生成する指令値生成手段と、を備える、ことを特徴とする遠隔操作システム。
  2. 請求項1記載の遠隔操作システムであって、
    前記入力手段は、前記撮影画像上に、前記目標対象物に対する指示図形を入力し、
    前記推測手段は、前記入力手段により入力された前記指示図形の形状及び位置に基づいて、前記移動目標位置及び前記操作内容を推測する、ことを特徴とする遠隔操作システム。
  3. 請求項2記載の遠隔操作システムであって、
    前記操作内容は、前記移動目標位置において、(a)何も実行しないこと、(b)所定の作業を実行すること、(c)情報の伝達を実行すること、のうち少なくとも1つを含む、ことを特徴とする遠隔操作システム。
  4. 請求項2又は3記載の遠隔操作システムであって、
    前記推測手段は、
    前記入力手段により入力された前記指示図形が第1形状であると判断したとき、操作内容が(a)何も実行しないこと、と判断し、
    前記入力手段により入力された前記指示図形が第2形状であると判断したとき、操作内容が(b)所定の作業を実行すること、と判断し、前記第2形状の位置にある物体を前記所定の作業を実行する前記目標対象物として認識し、
    前記入力手段により入力された前記指示図形が第3形状であると判断したとき、操作内容が(c)情報の伝達を実行すること、と判断し、前記第3形状の位置にある物体を前記情報の伝達を実行する前記目標対象物として認識し、
    前記操作内容と、前記目標対象物の位置とに基づいて、前記移動目標位置を設定する、ことを特徴とする遠隔操作システム。
  5. 請求項4記載の遠隔操作システムであって、
    前記推測手段は、前記第1形状の中心位置、もしくは、前記第1形状内にその一部又は全部が含まれる前記目標対象物の重心位置を、前記移動目標位置に設定する、ことを特徴とする遠隔操作システム。
  6. 請求項2乃至5のうちいずれか1項記載の遠隔操作システムであって、
    前記推測手段は、前記入力手段により入力された前記指示図形の形状及び位置に基づいて、前記入力のエラーを検出し、通知する、ことを特徴とする遠隔操作システム。
  7. 請求項1記載の遠隔操作システムであって、
    前記入力手段は、前記撮影画像上に、前記目標対象物に対する指示図形を入力し、
    前記推測手段は、前記入力手段により入力された前記指示図形の形状と、その書き順とに基づいて、前記移動目標位置及び前記操作内容を推測する、ことを特徴とする遠隔操作システム。
  8. 請求項1記載の遠隔操作システムであって、
    前記入力手段は、前記撮影画像上に、前記目標対象物に対する指示図形を入力し、
    前記推測手段は、前記入力手段により入力された前記指示図形の形状と、その書く速度とに基づいて、前記移動目標位置及び前記操作内容を推測する、ことを特徴とする遠隔操作システム。
  9. 請求項1記載の遠隔操作システムであって、
    前記入力手段は、スイッチが設けられた入力用ペンを用いて、前記撮影画像上に、前記目標対象物に対する指示を入力し、
    前記推測手段は、前記入力手段により入力された前記入力用ペンの指示位置と、前記スイッチの操作と、に基づいて、前記移動目標位置及び前記操作内容を推測する、ことを特徴とする遠隔操作システム。
  10. 請求項1記載の遠隔操作システムであって、
    前記入力手段は、入力用ペンを用いて、前記撮影画像上に、前記目標対象物に対する指示を入力し、
    前記推測手段は、前記入力手段により入力された前記入力用ペンの傾斜と、前記スイッチの操作と、に基づいて、前記移動目標位置及び前記操作内容を推測する、ことを特徴とする遠隔操作システム。
  11. ロボット装置を遠隔操作するための遠隔操作方法であって、
    前記ロボット装置周辺を撮影する撮影工程と、
    前記撮影工程で撮影された撮影画像を表示する表示工程と、
    前記表示工程で表示された撮影画像上において、目標対象物に対する指示を入力する入力工程と、
    前記入力工程で入力された前記撮影画像上における前記目標対象物の指示方法に基づいて、前記ロボット装置を移動させる移動目標位置と、該移動目標位置における前記ロボット装置の操作内容と、を推測する推測工程と、
    前記推測工程で推測された前記移動目標位置へ前記ロボット装置を移動させると共に、前記操作内容を実行させるための指令値を生成する生成工程と、を備える、ことを特徴とする遠隔操作方法。
JP2009118146A 2009-05-15 2009-05-15 遠隔操作システム及び遠隔操作方法 Active JP5326794B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009118146A JP5326794B2 (ja) 2009-05-15 2009-05-15 遠隔操作システム及び遠隔操作方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009118146A JP5326794B2 (ja) 2009-05-15 2009-05-15 遠隔操作システム及び遠隔操作方法

Publications (2)

Publication Number Publication Date
JP2010264553A true JP2010264553A (ja) 2010-11-25
JP5326794B2 JP5326794B2 (ja) 2013-10-30

Family

ID=43362008

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009118146A Active JP5326794B2 (ja) 2009-05-15 2009-05-15 遠隔操作システム及び遠隔操作方法

Country Status (1)

Country Link
JP (1) JP5326794B2 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016104512A (ja) * 2016-02-29 2016-06-09 ソニー株式会社 制御装置、制御方法、およびプログラム
JP2017170614A (ja) * 2017-06-23 2017-09-28 ソニー株式会社 制御装置、制御方法、およびプログラム
JP2018020423A (ja) * 2016-08-05 2018-02-08 株式会社日立製作所 ロボットシステム及びピッキング方法
JP2019012527A (ja) * 2018-07-20 2019-01-24 ソニー株式会社 移動体、制御方法、およびプログラム
JP2020049653A (ja) * 2018-07-20 2020-04-02 ソニー株式会社 移動体、制御方法、およびプログラム
JP2020155149A (ja) * 2020-06-15 2020-09-24 ソニー株式会社 制御方法及び制御装置
EP3536524B1 (de) 2011-12-09 2021-04-14 WESTFALIA - Automotive GmbH Steuergerät und anhängekupplung zur kommunikation mit einem bediengerät
CN112975952A (zh) * 2019-12-13 2021-06-18 丰田自动车株式会社 远程操作系统及远程操作方法
US11520334B2 (en) 2014-10-17 2022-12-06 Sony Corporation Control device, control method, and computer program

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09114586A (ja) * 1995-10-18 1997-05-02 Ricoh Co Ltd ペン先座標入力装置
JP2002236545A (ja) * 2001-02-08 2002-08-23 Canon Inc 座標入力装置及びその制御方法、コンピュータ可読メモリ
JP2003178259A (ja) * 2001-09-19 2003-06-27 Ricoh Co Ltd 情報処理装置、情報処理装置の制御方法、その方法をコンピュータに実行させるためのプログラム
JP2003532218A (ja) * 2000-05-01 2003-10-28 アイロボット コーポレーション 移動ロボットを遠隔操作するための方法およびシステム
JP2007011276A (ja) * 2005-06-03 2007-01-18 Ricoh Co Ltd 画像表示装置、画像表示方法及びコマンド入力方法
JP2007030060A (ja) * 2005-07-22 2007-02-08 Honda Motor Co Ltd 移動ロボットの制御装置
JP2007111854A (ja) * 2003-06-02 2007-05-10 Matsushita Electric Ind Co Ltd 物品取扱いシステムおよび物品取扱いサーバ
JP2007226323A (ja) * 2006-02-21 2007-09-06 Nippon Telegr & Teleph Corp <Ntt> ディジタルペン入力システム及びディジタルペン
JP2008068348A (ja) * 2006-09-13 2008-03-27 National Institute Of Advanced Industrial & Technology ロボット作業教示システムおよびロボットに対する作業教示方法
JP2008254102A (ja) * 2007-04-03 2008-10-23 Sky Kk 板書連携プレゼンロボット、板書連携プレゼンロボットの制御方法及び制御プログラム

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09114586A (ja) * 1995-10-18 1997-05-02 Ricoh Co Ltd ペン先座標入力装置
JP2003532218A (ja) * 2000-05-01 2003-10-28 アイロボット コーポレーション 移動ロボットを遠隔操作するための方法およびシステム
JP2002236545A (ja) * 2001-02-08 2002-08-23 Canon Inc 座標入力装置及びその制御方法、コンピュータ可読メモリ
JP2003178259A (ja) * 2001-09-19 2003-06-27 Ricoh Co Ltd 情報処理装置、情報処理装置の制御方法、その方法をコンピュータに実行させるためのプログラム
JP2007111854A (ja) * 2003-06-02 2007-05-10 Matsushita Electric Ind Co Ltd 物品取扱いシステムおよび物品取扱いサーバ
JP2007011276A (ja) * 2005-06-03 2007-01-18 Ricoh Co Ltd 画像表示装置、画像表示方法及びコマンド入力方法
JP2007030060A (ja) * 2005-07-22 2007-02-08 Honda Motor Co Ltd 移動ロボットの制御装置
JP2007226323A (ja) * 2006-02-21 2007-09-06 Nippon Telegr & Teleph Corp <Ntt> ディジタルペン入力システム及びディジタルペン
JP2008068348A (ja) * 2006-09-13 2008-03-27 National Institute Of Advanced Industrial & Technology ロボット作業教示システムおよびロボットに対する作業教示方法
JP2008254102A (ja) * 2007-04-03 2008-10-23 Sky Kk 板書連携プレゼンロボット、板書連携プレゼンロボットの制御方法及び制御プログラム

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3536524B1 (de) 2011-12-09 2021-04-14 WESTFALIA - Automotive GmbH Steuergerät und anhängekupplung zur kommunikation mit einem bediengerät
US11927960B2 (en) 2014-10-17 2024-03-12 Sony Group Corporation Control device, control method, and computer program
US11520334B2 (en) 2014-10-17 2022-12-06 Sony Corporation Control device, control method, and computer program
JP2016104512A (ja) * 2016-02-29 2016-06-09 ソニー株式会社 制御装置、制御方法、およびプログラム
JP2018020423A (ja) * 2016-08-05 2018-02-08 株式会社日立製作所 ロボットシステム及びピッキング方法
JP2017170614A (ja) * 2017-06-23 2017-09-28 ソニー株式会社 制御装置、制御方法、およびプログラム
JP2019012527A (ja) * 2018-07-20 2019-01-24 ソニー株式会社 移動体、制御方法、およびプログラム
JP2020049653A (ja) * 2018-07-20 2020-04-02 ソニー株式会社 移動体、制御方法、およびプログラム
KR20210075865A (ko) * 2019-12-13 2021-06-23 도요타지도샤가부시키가이샤 원격 조작 시스템 및 원격 조작 방법
JP2021094605A (ja) * 2019-12-13 2021-06-24 トヨタ自動車株式会社 遠隔操作システム及び遠隔操作方法
CN112975952A (zh) * 2019-12-13 2021-06-18 丰田自动车株式会社 远程操作系统及远程操作方法
KR102573687B1 (ko) * 2019-12-13 2023-09-04 도요타지도샤가부시키가이샤 원격 조작 시스템 및 원격 조작 방법
JP7342676B2 (ja) 2019-12-13 2023-09-12 トヨタ自動車株式会社 遠隔操作システム及び遠隔操作方法
US11904481B2 (en) 2019-12-13 2024-02-20 Toyota Jidosha Kabushiki Kaisha Remote control system and remote control method
JP7014261B2 (ja) 2020-06-15 2022-02-01 ソニーグループ株式会社 制御方法及び制御装置
JP2020155149A (ja) * 2020-06-15 2020-09-24 ソニー株式会社 制御方法及び制御装置

Also Published As

Publication number Publication date
JP5326794B2 (ja) 2013-10-30

Similar Documents

Publication Publication Date Title
JP5326794B2 (ja) 遠隔操作システム及び遠隔操作方法
JP4850984B2 (ja) 動作空間提示装置、動作空間提示方法およびプログラム
CN104936748B (zh) 徒手机器人路径教导
US10654171B2 (en) Operation device for operating robot, robot system, and operation method
JP6816364B2 (ja) 制御装置、ロボット、及びロボットシステム
US10427298B2 (en) Robot system displaying information for teaching robot
WO2008047872A1 (fr) Manipulateur
JP2012218120A (ja) マニピュレーター動作予告装置、ロボットシステム及びマニピュレーター動作予告方法
JP6239164B2 (ja) 空気調和システム
KR101615687B1 (ko) 충돌 예측 로봇 원격 제어 시스템 및 그 방법
JP7281349B2 (ja) 遠隔操作システム
JP2007196300A (ja) ロボット制御システム
JP2019188531A (ja) ロボットのシミュレーション装置
JP7000253B2 (ja) 力覚視覚化装置、ロボットおよび力覚視覚化プログラム
WO2020032211A1 (ja) データ生成装置、データ生成方法、データ生成プログラムおよび遠隔操作システム
CN111941392A (zh) 机器人操作装置、机器人及机器人操作方法
JP6409605B2 (ja) ロボットシステム
JP6379902B2 (ja) ロボット操作装置、ロボットシステム、及びロボット操作プログラム
JP2019101476A (ja) 操作案内システム
JP6601201B2 (ja) ロボット操作装置、及びロボット操作プログラム
JP2020006494A (ja) ロボット
JP5862382B2 (ja) 作業支援装置
US20230333550A1 (en) Remote operation system, remote operation method, and storage medium
JP6559017B2 (ja) 制御装置及び制御方法
CN115225682B (zh) 管理服务器、远程操作系统、远程操作方法以及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111017

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130604

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130606

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130625

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130708

R151 Written notification of patent or utility model registration

Ref document number: 5326794

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151