JP2015093353A - 多機能情報端末遠隔操作型ロボット - Google Patents

多機能情報端末遠隔操作型ロボット Download PDF

Info

Publication number
JP2015093353A
JP2015093353A JP2013234355A JP2013234355A JP2015093353A JP 2015093353 A JP2015093353 A JP 2015093353A JP 2013234355 A JP2013234355 A JP 2013234355A JP 2013234355 A JP2013234355 A JP 2013234355A JP 2015093353 A JP2015093353 A JP 2015093353A
Authority
JP
Japan
Prior art keywords
information processing
processing terminal
robot
side information
control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013234355A
Other languages
English (en)
Inventor
敏之 三津江
Toshiyuki Mitsue
敏之 三津江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2013234355A priority Critical patent/JP2015093353A/ja
Publication of JP2015093353A publication Critical patent/JP2015093353A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

【課題】 あたかもそのユーザがその場所に存在してコミュニケーションをとっているような状況を作り出せれば便利である。【解決手段】 操作側情報処理端末と、制御側情報処理端末と、所定の方向を前方向として画定されているロボットとを備え、操作側情報処理端末が制御側情報処理端末とインターネットを介して通信可能に接続し、使用者が前記操作側情報処理端末を操作することにより前記ロボットを操作可能なロボット遠隔操作システムにより、解決する。【選択図】図1

Description

本発明は、遠隔操作型ロボットに関する。より特には、スマートフォンなどの多機能情報端末を使用した遠隔操作型ロボットに関する。
近年、様々なデバイスがインターネットに接続されている。そして中間に人手を介さなくともデバイス間で相互に情報を交換し、それによりデバイスにおける情報収集や管理、制御等が実現されている。これらの技術はM2Mと呼ばれ、スマートフォンやダブレットを進化させ、さらにカーナビゲーションシステムやテレビ等にまで影響を及ぼそうとしている。近い将来にはこの技術はロボットへも多大な影響を及ぼすと考えられている。
特許文献1では、ファイアーウォールを経由してインターネットに接続可能なロボットが開示されている。当該ロボットはインターネットVPNシステムを有するスマートフォンを使用することで、ファイアーウォール外からロボットにアクセスして制御することが可能となっている。
特許文献2では、ヒューマン・ロボット・インターフェース装置としてのコンピュータやスマートフォン等により、ユーザがロボットを操作することが開示されている。ロボットにはカメラが搭載されており、それにより得られた二次元画像は、コンピュータやスマートフォン等のディスプレイに表示される。ロボットとヒューマン・ロボット・インターフェース装置との間は無線通信やローカルエリアネットワークに接続されている。
特開2013−183285号公報 特開2012−66378号公報
互いの表情を確認しながら、必要に応じて動作を含ませることはコミュニケーションをとる上で重要なことである。しかしながら、いずれの特許文献においても、ロボットを見ることで、ユーザの意図する動作を確認できたとしても、ユーザの表情等を認識することは不可能であった。
本発明は上述の問題を解決するためになされたものであり、遠隔地にいるユーザがユーザの表情を伴いつつ自分の意図通りにロボットを操作することで、あたかもそのユーザがその場所に存在してコミュニケーションをとっているような状況を作り出せれば便利である。
操作側情報処理端末と、制御側情報処理端末と、所定の方向を前方向として画定されているロボットとを備え、使用者が前記操作側情報処理端末を操作することにより前記ロボットを操作可能なロボット遠隔操作システムであって、前記操作側情報処理端末は前記制御側情報処理端末とインターネットを介して通信可能に接続しており、前記制御側情報処理端末とロボットとは通信可能に接続しており、前記操作側情報処理端末は、操作側カメラを備え、前記制御側情報処理端末は、制御側ディスプレイを備え、前記ロボットは、前記制御側情報処理端末の前記制御側ディスプレイの法線が前記前方向と平行になるように前記制御側情報処理端末を保持する首台であって、前記制御側ディスプレイの法線が前記前方向に対して任意の角度となるように回動可能な首台を備え、前記制御側情報処理端末は、前記操作側情報処理端末の前記カメラにより撮影した前記操作側情報処理端末の使用者の顔の映像を前記制御側ディスプレイに表示し、前記制御側情報処理端末が前記首台に取り付けられている際に、前記制御側情報処理端末の前記制御側ディスプレイに表示された前記操作側情報処理端末の前記使用者の顔の映像が前記ロボットの顔となるような位置となるように設定されていることを特徴とするロボット遠隔操作システムにより、解決する。
本発明によれば、遠隔地にいるユーザがユーザの表情を伴いつつ自分の意図通りにロボットを操作することで、あたかもそのユーザがその場所に存在してコミュニケーションをとっているような状況を作り出すことが可能となる。
本発明によるロボット遠隔操作システムの概略図である。 ロボット遠隔操作システムの操作側情報処理端末の概略図である。 ロボット遠隔操作システムでの制御側情報処理端末とロボットの図である。 ロボットの首の動作の図である。
以下、本発明の好ましい実施の形態を添付の図面に基づいて詳細に説明する。なお、図において同一部材は同一記号で図示される。
本発明の実施例1について図1から図4を参照し説明する。図1は本発明によるロボット遠隔操作システムを示す。図2は本発明のロボット遠隔操作システムで使用される操作側情報処理端末2を示す。図3は本発明のロボット遠隔操作システムで使用されるロボットを示す。図4は、ロボットのうち、特に、首部分の動作の詳細を示した図である。
ロボット遠隔操作システム1は、操作側情報処理端末2と、制御側情報処理端末3、ロボット4と、を備える。操作側情報処理端末2はロボット操作を特別な機能としない標準的な多機能情報端末であって、たとえばいわゆるスマートフォンまたはパーソナルコンピュータとすることができる。また、制御側情報処理端末3もロボット操作を特別な機能としない標準的な多機能情報端末であって、たとえば、いわゆるスマートフォンや、タブレット式端末とすることができる。操作側情報処理端末2は、インターネット等のネットワーク4に無線または有線による通信で接続が可能である。制御側情報処理端末3は、インターネット等のネットワーク4に無線による通信で接続が可能である。したがって、操作側多機能情報端末2は制御側多機能情報端末3と通信可能に接続される。また、制御側情報処理端末3は、有線または無線による通信でロボットとの信号処理装置と接続が可能である。
操作側情報処理端末2は、操作側ディスプレイ21と、操作側カメラ22と、操作側マイク23と、操作側スピーカ24と、操作側CPU25と、操作側メモリ26とを備えている。操作側メモリ26は操作側CPU25に電気的に接続されている。操作側メモリ26には、複数のコマンドが格納されている。
制御側情報処理端末3は、制御側ディスプレイ31と、制御側カメラ32と、制御側マイク33と、スピーカ34と、制御側CPU35と、制御側メモリ36とを備えている。制御側メモリ36は操作側CPU35に電気的に接続されている。操作側メモリ26には、複数の動作パタンが格納されている。
ロボット4は、代表的には、首台41と本体部42a、腕部42b、脚部42cを具備している。脚部42cは、たとえば車輪であったり、また、腕部42bや、脚部42cを有していないなど、ロボット4の特徴により、その構成はさまざまである。本明細書では、代表的例として、ロボット4を、鉛直方向に直立する人型ロボット4として説明を行なう。首台41は、本体部42aに、本体部42aの鉛直軸まわりに回動可能に取り付けられている。首台41、腕部42bおよび脚部42cは、本体部42aに、それぞれ、駆動機構(不図示)を介して結合され、それぞれの駆動機構を動作させることにより、本体部42aに対して、腕部42bと脚部42cとが回動する。本体部42aは信号処理ユニット43を有している。信号処理ユニット43は、制御側情報処理端末3の制御側CPU35と、Bluetooth(登録商標)やWi-Fi(登録商標)などの無線手段により、またはコネクタ接続による配線などの有線手段により、通信可能に接続され、ロボット4の所要の構成を制御側情報処理端末3の制御側CPU35に送信可能である。
ロボット4では、所定の方向を「前方向F」として画定する。「前方向F」は、ロボット4の動作において基本となる方向であり、任意に定義できるが、代表的には、駆動装置を順方向に動作させることにより脚部42cを動作する方向の前進動作など、動作方向のすべての基本となる方向として定義されるべきである。たとえば、鉛直方向に直立する人型ロボット4では、代表的には、静止状態(動作しない待機状態)において、本体部42aの胸の法線方向を前方向Fとする。この方向は、一般的に、歩行する方向にあたる「前方向F」と通常定義される。
ロボット4には、加速度センサ44a,44b,44c,44dが備えられている。ただし、センサの個数,種類および取り付け箇所は、ロボットに応じて任意に決定される。加速度センサ44a,44b,44c,44dは、首台41、本体部42a、腕部42b、脚部42cの位置を測定する。
ロボット4は、人型ロボット4の形であるが顔の部分がなく、ロボット4の顔は制御側情報処理端末3の制御側ディスプレイ32となる。そのため、首台41は、制御側情報処理端末3の制御側ディスプレイ32のディスプレイ面が「前方向F」を向くように取り付け可能となっている。すなわち、図4(a)に示すように、首台41は、制御側情報処理端末3の制御側ディスプレイ32のディスプレイ面の法線Nがロボット4の「前方向F」と平行になるように、制御側情報処理端末3を保持することができる。また、ディスプレイ面法線Nは、通常、首台41が回動する回動軸と垂直方向になるように、制御側情報処理端末3を保持することができる。図4(b)に示すように、首台41は、制御側ディスプレイ32の法線Nが「前方向F」に対して任意の角度となるように回動可能である。また、図4(c)に示すように、首台41は、ディスプレイ面法線Nが、上下方向を向くように「前方向F」に対して任意の角度となるように、回転可能に設定することができる。
操作側情報処理端末2の操作側CPU25と制御側情報処理端末3の制御側CPU35は、たとえば、共通のオペレーティングシステムで動作する。操作側情報処理端末2および制御側情報処理端末3では、それぞれにおいて、そのオペレーティングシステム上で動作する任意のアプリケーションソフトウェアで操作と制御が行なわれる。共通のオペレーティングシステムの環境で動作させることにより、異なるタイプの操作側情報処理端末2、異なるタイプの制御側情報処理端末3、異なるタイプのロボット4、異なるアプリケーションであっても、その動作は共通的に定義することができる。オペレーティングシステムにおいては、想定させる異なるタイプのロボット4におけるそれぞれの構成を標準的に定義しておく。たとえば、腕部42bや脚部42cの存在はもとより、腕部42bまたは脚部42cが存在しない、脚部42cが車輪であるなどその種類、腕部42bまたは脚部42cにおける関節数とその自由度が標準として定義されていて、操作側情報処理端末2上で実行されるアプリケーションソフトウェアと制御側情報処理端末3のアプリケーションソフトウェアは、この定義に基づいて作られる。したがって、各アプリケーションソフトウェアは、実行段階において、それぞれが操作させようとする対象の構成がその定義のどの構成にあたるかを認識し、その構成に応じて、実行可能なコマンドおよび動作パタンを決定する。
一方、異なるオペレーティングシステムで動作させるようにすることもできる。この場合には、予め異なるオペレーティングシステム同士で上記の定義に対応するコマンドを理解できるように、オペレーティングシステムにおけるアプリケーション・プログラミング・インターフェースを組み込んでおく。これにより、異なるオペレーションシステムであっても、共通のオペレーティングシステムと同じく、上記のように動作させることが可能である。
コマンドは、実行コマンドと、感応コマンドとがある。ここで、実行コマンドとは、ロボットの腕の上下動を促すコマンド、足を前後に移動させるコマンドなど、カメラで撮影するなどというロボットの基本動作に対応したコマンドである。感応コマンドとは、たとえば、予め複数の実行コマンドを1つのコマンドとして定義づけたコマンドである。たとえば、「あいさつ」という感応コマンドでは、「ロボットの肩を下方より45度方向まで上昇させる」、「ロボットの肘関節を90度にする」、「ロボットの指をひらく」、「首を立てにふる」などという一連の動作を定義づけられている。すなわち、「挨拶」という感応コマンドにより、これらの動作が一連で進行するように定義付けられている。
また、動作パタンは、実行パタンと感応パタンとがある。実行パタンは、実行コマンドに対応して、ロボット4の各々の駆動機構を動作させてロボット各部を動作させるための駆動機構を動作させるパタンのコマンドである。また、感応パタンは、感応コマンドに対応して、感応コマンドに定義づけられた一連の動作に定義されたロボット4の各々の駆動機構を動作させてロボット各部を動作させるための駆動機構を動作させる動作パタンのコマンドである。
コマンドと動作パタンは、すなわち、実行コマンドおよびそれに対応する実行パタンと、感応コマンドおよびそれに対応する感応パタンとは、共通のオペレーティングシステムにより動作定義される範囲内で、様々な種類のロボット4の構成に対応してあらかじめ定義されているものである。
操作側情報処理端末2の操作側CPU25と制御側情報処理端末3の制御側CPU35は、共通のオペレーティングシステムで動作するので、異なるタイプの操作側情報処理端末2、異なるタイプの制御側情報処理端末3、異なるタイプのロボット4であっても、これらの実行コマンドと感応コマンドとを、対応する共通な、実行パタンと感応パタンとして、予め対応させておくことができる。
続いて、ロボット遠隔操作システムの動作について、説明する。まず、制御側情報処理端末3を制御側情報処理端末3の制御側ディスプレイ32のディスプレイ面が前方向Fを向くように、首台41に取り付ける。制御側情報処理端末3の制御側CPU35は、ロボット4の信号処理ユニット43と通信を行なって、ロボット4の所要の構成(たとえば、腕42b、脚部42bの構成)を認識する。認識した構成は制御側情報処理端末3の制御側CPU35に送信される。制御側情報処理端末3の制御側CPU35は、これによって、実行可能な実行パタンおよび感応パタンと、動作不可能な実行パタンおよび感応パタンとを区別し、実行可能な実行パタンおよび感応パタンを実行可能なものとして定義付ける。
操作側情報処理端末2を動作させ、制御側情報処理端末3と通信を行い、操作側情報処理端末2の操作側CPU25と制御側情報処理端末3の制御側CPU35との間で、実行可能な実行パタンと感応パタンに対応する実行可能な実行コマンドと感応コマンドとを、実行可能なものとして定義する。定義された実行可能な実行コマンドと感応コマンドとを、操作側情報処理端末2のディスプレイ21に表示する。
操作側情報処理端末2の操作側カメラ22で撮影されたロボット4を操作する操作側情報処理端末2によりロボット4を操作する使用者の顔の映像は、静止画像またはリアルタイムで撮影された映像の動画として、制御側ディスプレイ31に表示される。これにより、ロボット4は顔がないが、制御側情報処理端末3の制御側ディスプレイ31に表示される顔がロボット4の顔となるような位置に、制御側ディスプレイ31が設定され、首台41は制御側情報処理端末3を保持する。逆に、制御側カメラ32で撮影されたロボット4に対面する人または物の映像は、操作側情報処理端末2の操作側ディスプレイ21により表示される。
操作側情報処理端末2の操作側マイク23で集音されたロボット4を操作する操作側情報処理端末2によりロボット4を操作する使用者の声の音声は、制御側情報処理端末3の制御側スピーカ33で再生される。逆に、制御側情報処理端末3の制御側マイク33で集音されたロボット4に対面する人または物の音声は、操作側情報処理端末2の操作側スピーカ34で再生される。また、ロボット4には、スピーカ45aとマイク45bとを配置することができる。
操作側情報処理端末2も制御側情報処理端末3も、ロボット4を制御するための特別な端末ではなく、いわゆるスマートフォンやタブレット端末という標準的な多機能情報処理端末であるので、制御側情報処理端末3では、ロボット4を制御するためにとっては、その端末のマイクおよびスピーカが配置されている位置が適正とはいえないことも多い。そこで、制御側情報処理端末3の制御側マイク33で集音せずに、ロボットの前方向Fに指向性を持つようなマイク45bとして、ロボット4の前方向Fの音を効率的に集めることができる。また、操作側情報処理端末2を操作するロボット4を操作する使用者の声の音声は、制御側情報処理端末3の制御側スピーカ33ではなく、ロボット4のスピーカ45aで再生できるように設定する。これにより、ロボット4の前方向Fにむけて音を発するようにすることが好ましい。
操作側情報処理端末2の操作側ディスプレイ21には、実行可能なものとして定義された実行コマンドと感応コマンドとは、たとえばアイコンのような形で表示される。たとえば、実行コマンドでは、図2に示すように、腕部42bを前方または後方に移動できるように駆動機構を動作させるためアイコン209と、脚部42cを前方または後方に移動できるように駆動機構を動作させるためアイコン210が表示される。また、制御側ディスプレイ31に表示されるロボット4の使用者の顔が、ロボット4に対面している人や物の方向を向くように、また、アイコン211により、図4(b)または図4(c)に示すように、首台41は、ディスプレイ面法線Nが、ロボット4の前方向Fに対して任意の角度となるように、また任意の上下方向を向くように、回転するような設定を行なうことができる。
操作側情報処理端末2の操作側ディスプレイ21には、小さな副画面21aが表示されるようにしておく。小さな副画面21aには、加速度センサ44a,44b,44c,44dで測定した首台41、本体部42a、腕部42b、脚部42cの位置を表示する。ここでは、操作側情報処理端末2のアプリケーションにおいて、オペレーションシステムで標準的に定義されるタイプのロボットの各構成に合わせた基準アニメーションを準備しておいて、アプリケーションソフトウェアにおいて、基準アニメーションを加速度センサ44a,44b,44c,44dで測定した首台41、本体部42a、腕部42b、脚部42cの位置のデータに合わせて動作させるように表示する。
これらのアイコンで指示された実行コマンドが、制御側情報処理端末3で実行可能なものとして定義されている複数の実行パタンの1つに対応した場合、当該複数の実行コマンドの1つは、制御側情報処理端末3の制御側CPU35を介してロボット4の信号処理ユニット43に送信され、ロボット4の駆動機構が駆動される。また、これらのアイコンで指示された感応コマンドが、制御側情報処理端末3で実行可能なものとして定義されている複数の感応パタンの1つに対応した場合、複数の感応パタンの1つは、制御側CPUを介して、操作側情報処理端末2に送信されるようにすればよい。ロボット4はこのように作動する。
物体と接触した際に、ロボット4の作動機構35に備えられたセンサからの信号が発せられるようにすることもできる。これらにより、いわゆるスマートフォンのような多機能情報処理端末によるテレビ電話機能により、遠隔地にいるユーザがあたかもその場所に存在しているような状況を作り出す。
1 ロボット遠隔操作システム
2 操作側情報処理端末
3 制御側情報処理端末
4 ロボット

Claims (4)

  1. 操作側情報処理端末と、制御側情報処理端末と、所定の方向を前方向として画定されているロボットとを備え、使用者が前記操作側情報処理端末を操作することにより前記ロボットを操作可能なロボット遠隔操作システムであって、
    前記操作側情報処理端末は前記制御側情報処理端末とインターネットを介して通信可能に接続しており、
    前記制御側情報処理端末とロボットとは通信可能に接続しており、
    前記操作側情報処理端末は、操作側カメラを備え、
    前記制御側情報処理端末は、制御側ディスプレイを備え、
    前記ロボットは、前記制御側情報処理端末の前記制御側ディスプレイの面の法線が前記前方向と平行になるように前記制御側情報処理端末を保持する首台であって、前記制御側ディスプレイの法線が前記前方向に対して任意の角度となるように回動可能な首台を備え、
    前記制御側情報処理端末は、前記操作側情報処理端末の前記カメラにより撮影した前記操作側情報処理端末の使用者の顔の映像を前記制御側ディスプレイに表示し、
    前記制御側情報処理端末が前記首台に取り付けられている際に、前記制御側情報処理端末の前記制御側ディスプレイに表示された前記操作側情報処理端末の前記使用者の顔の映像が前記ロボットの顔となるような位置となるように設定されていることを特徴とするロボット遠隔操作システム。
  2. 請求項1に記載のロボット遠隔操作システムであって、
    前記操作側情報処理端末は、さらに操作側マイクを備え、
    前記制御側情報処理端末は、さらに、制御側スピーカを備え、
    前記制御側ディスプレイに表示される前記操作側情報処理端末の使用者の顔の映像はリアルタイムで撮影される動画であって、
    前記操作側情報処理端末の操作側マイクにより集音した前記操作側情報処理端末の使用者の声は、
    前記制御側情報処理端末は前記制御側スピーカで再生可能であるロボット遠隔操作システム。
  3. 請求項1および2に記載のロボット遠隔操作システムであって、
    前記操作側情報処理端末は、操作側ディスプレイと、ロボットの動作が定義されたコマンドが格納されている操作側メモリとを備え、
    前記制御側情報処理端末は、前記コマンドに対応する動作パタンが格納されている制御側メモリを備え、
    前記制御側情報処理端末は、前記ロボットと通信して前記ロボットの構成を認識し、それに対応した実行可能な動作パタンを定義し、
    前記操作側情報処理端末は、前記制御側情報処理端末が、前記ロボットにおいて実行可能であると定義した動作パタンと対応する実行可能なコマンドを定義し、
    前記操作側情報処理端末は、前記実行可能なコマンドを前記操作側情報処理端末の前記操作側ディスプレイに表示し、
    前記前記操作側ディスプレイで表示された前記実行可能なコマンドのうち、前記使用者が前記操作側情報処理端末で一のコマンドを指示すると、前記操作側情報処理端末が前記制御側情報処理端末と通信を行って、前記一のコマンドに対応する動作パタンを指定して、その動作パタンに応じた動作をするように、前記制御側情報処理端末が前記ロボットの駆動装置を動作させるように指示を行うロボット遠隔操作システム。
  4. 請求項1から3のいずれか一項に記載のロボット遠隔操作システムであって、
    前記ロボットの前記法線の方向に対して、所定の角度を任意に選択可能とするコマンド表示画面を前記操作側ディスプレイに表示させ、その所定の角度だけ前記前方向に対して前記制御側ディスプレイの前記法線を移動させるロボット遠隔操作システム。
JP2013234355A 2013-11-12 2013-11-12 多機能情報端末遠隔操作型ロボット Pending JP2015093353A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013234355A JP2015093353A (ja) 2013-11-12 2013-11-12 多機能情報端末遠隔操作型ロボット

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013234355A JP2015093353A (ja) 2013-11-12 2013-11-12 多機能情報端末遠隔操作型ロボット

Publications (1)

Publication Number Publication Date
JP2015093353A true JP2015093353A (ja) 2015-05-18

Family

ID=53196113

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013234355A Pending JP2015093353A (ja) 2013-11-12 2013-11-12 多機能情報端末遠隔操作型ロボット

Country Status (1)

Country Link
JP (1) JP2015093353A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105726125A (zh) * 2016-02-23 2016-07-06 卓俊贤 影替机器人
JP2017164319A (ja) * 2016-03-16 2017-09-21 国立大学法人電気通信大学 ビデオチャットロボットシステム、手渡し遊び制御方法および手渡し遊び制御プログラム
JP2018015824A (ja) * 2016-07-26 2018-02-01 公立大学法人会津大学 ロボットを操作する装置、その装置において実行される方法およびプログラム。
JP2020048158A (ja) * 2018-09-21 2020-03-26 国立大学法人電気通信大学 コミュニケーション支援システム、ロボット、動画処理装置および動画処理プログラム
JP2021132284A (ja) * 2020-02-19 2021-09-09 トヨタ自動車株式会社 コミュニケーションシステム

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105726125A (zh) * 2016-02-23 2016-07-06 卓俊贤 影替机器人
JP2017164319A (ja) * 2016-03-16 2017-09-21 国立大学法人電気通信大学 ビデオチャットロボットシステム、手渡し遊び制御方法および手渡し遊び制御プログラム
JP2018015824A (ja) * 2016-07-26 2018-02-01 公立大学法人会津大学 ロボットを操作する装置、その装置において実行される方法およびプログラム。
JP2020048158A (ja) * 2018-09-21 2020-03-26 国立大学法人電気通信大学 コミュニケーション支援システム、ロボット、動画処理装置および動画処理プログラム
JP7257022B2 (ja) 2018-09-21 2023-04-13 国立大学法人電気通信大学 コミュニケーション支援システム、ロボット、動画処理装置および動画処理プログラム
JP2021132284A (ja) * 2020-02-19 2021-09-09 トヨタ自動車株式会社 コミュニケーションシステム

Similar Documents

Publication Publication Date Title
JP7013689B2 (ja) 遠隔操作型移動ロボットおよびロボット制御システム
US9292015B2 (en) Universal construction robotics interface
JP2015093353A (ja) 多機能情報端末遠隔操作型ロボット
CN105659170B (zh) 用于向远程用户传送视频的方法及视频通信装置
US20150109437A1 (en) Method for controlling surveillance camera and system thereof
CN111857457A (zh) 云手机的操控方法、装置、电子设备及可读存储介质
JP5898756B1 (ja) ディスプレイとネットワークを介して接続される複数のコントローラとを連動させて画面操作するシステム、プログラム、及び方法
JP4386367B2 (ja) コミュニケーションロボット改良システム
CN110658971B (zh) 一种截屏方法及终端设备
US9344623B2 (en) Methods and systems for providing functionality of an interface to control orientations of a camera on a device
JP2018183845A (ja) ロボットを操作するための操作装置、ロボットシステム、および操作方法
JP6409667B2 (ja) 遠隔操作システム
US11279036B2 (en) Methods and systems for implementing customized motions based on individual profiles for identified users
KR101305944B1 (ko) 랩어라운드 영상을 이용한 로봇 원격 제어를 위한 방법 및 이를 위한 장치
Banduka Remote monitoring and control of industrial robot based on android device and Wi-Fi communication
JP2018163651A (ja) 自動ドアセンサの検知エリアの提示方法および提示装置ならびに提示システム
JP5217845B2 (ja) ロボット操作装置及びロボット操作システム
TW201310339A (zh) 機器人控制系統及方法
US11262887B2 (en) Methods and systems for assigning force vectors to robotic tasks
JP6558764B2 (ja) テレプレゼンスロボット
KR20120055142A (ko) 로봇 제어 시스템 및 이를 이용한 로봇 제어 방법
Maheshwari et al. Capturing the spied image-video data using a flexi-controlled spy-robot
CN103809595A (zh) 工程机械的操控方法、操控终端、控制装置及操控系统
JP2016225875A (ja) 移動装置操作端末、移動装置操作方法及び移動装置操作プログラム
WO2019054037A1 (ja) 情報処理装置、情報処理方法、およびプログラム