JP7212390B2 - 遠隔操作システム - Google Patents

遠隔操作システム Download PDF

Info

Publication number
JP7212390B2
JP7212390B2 JP2020527678A JP2020527678A JP7212390B2 JP 7212390 B2 JP7212390 B2 JP 7212390B2 JP 2020527678 A JP2020527678 A JP 2020527678A JP 2020527678 A JP2020527678 A JP 2020527678A JP 7212390 B2 JP7212390 B2 JP 7212390B2
Authority
JP
Japan
Prior art keywords
remote control
wearer
robot arm
control system
arm
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020527678A
Other languages
English (en)
Other versions
JPWO2020004613A1 (ja
Inventor
ヤメン サライジ ムハマド
智也 佐々木
礼央 松村
孝太 南澤
昌彦 稲見
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Science and Technology Agency
Original Assignee
Japan Science and Technology Agency
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Science and Technology Agency filed Critical Japan Science and Technology Agency
Publication of JPWO2020004613A1 publication Critical patent/JPWO2020004613A1/ja
Application granted granted Critical
Publication of JP7212390B2 publication Critical patent/JP7212390B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J3/00Manipulators of master-slave type, i.e. both controlling unit and controlled unit perform corresponding spatial movements
    • B25J3/04Manipulators of master-slave type, i.e. both controlling unit and controlled unit perform corresponding spatial movements involving servo mechanisms
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/02Hand grip control means
    • B25J13/025Hand grip control means comprising haptic means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/088Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0006Exoskeletons, i.e. resembling a human figure
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0084Programme-controlled manipulators comprising a plurality of manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1689Teleoperation
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/04Programme control other than numerical control, i.e. in sequence controllers or logic controllers
    • G05B19/042Programme control other than numerical control, i.e. in sequence controllers or logic controllers using digital processors

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Manipulator (AREA)

Description

特許法第30条第2項適用 平成30年2月14日に以下のウェブサイトに公開 https://s2018.siggraph.org/conference/conference-overview/emerging-technologies/ 平成30年6月11日に以下のウェブサイトに公開 http://blog.siggraph.org/2018/06/operators-and-surrogates-exploring-telepresence.html/
本発明は、遠隔操作システムに関する。
遠隔ロボットを、あたかもオペレータの手元にあるかのようなものとして制御する技術に、テレイグジスタンスがある(例えば、非特許文献1参照)。
"Telecommunication、Teleimmersion and Telexistence II" Susumu Tachi、Ohmsha、IOS Press、ISBN 4-274-90638-8(Ohmsha)ISBN 1-58603-519-3
テレイグジスタンスは、遠隔にあるロボット(「サロゲート」と呼ばれる)のセンサ等からの情報に基づいて、該サロゲートを制御・操縦する技術である。テレイグジスタンスでは、オペレータはサロゲートに「憑依」して操作するような感覚を得ることができる。これによりオペレータは、遠隔地にあるものをあたかも近くにあるかのように感じながらリアルタイムに操作することができる。
しかしながら従来のテレイグジスタンスでは、サロゲートが人間でなくロボットであるため、人間同士で身体的コミュニケーションを取ったり、感覚を共有したりすることはできない。
本発明はこうした状況に鑑みてなされたものであり、その目的は、遠隔にいる人間同士が、あたかも1つの身体を共有するような感覚を持ちながら身体的コミュニケーションを取ることを可能とする技術を提供することにある。
上記課題を解決するために、本発明のある態様の遠隔操作システムは、ロボットアームと、撮影装置と、基部と、ロボットアームを遠隔から操作するための遠隔操作部と、を備える。ロボットアームは、基部に取り付けられる。撮影装置は、基部に取り付けられて装着者の頭部近傍に配置される。基部は、装着者の背部等の上半身に装着される。ロボットアームと、撮影装置と、は、遠隔操作部に通信可能に接続されている。遠隔操作部は、撮影装置から受信した映像に基づき、ロボットアームを操作する。
なお、以上の構成要素の任意の組合せ、本発明の表現を装置、方法、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。
本発明によれば、遠隔にいる人間同士が、あたかも1つの身体を共有するような感覚を持ちながら身体的コミュニケーションを取ることができる。
第1の実施形態に係る遠隔操作システムの模式図である。 図1の遠隔操作システムのロボットアームの模式図である。 装着者が図1の遠隔操作システムを装着した状態を示す図である。 一実施形態に係る遠隔操作システムの利用シーンを示す図である。 第2の実施形態に係る遠隔操作システムのハンド部を示す図である。 第3の実施形態に係る遠隔操作システムの固定部品を示す図である。 第5の実施形態に係る撮影装置の側面図である。 第1のタイプのコミュニケーションを示す図である。 第2のタイプのコミュニケーションを示す図である。 第3のタイプのコミュニケーションを示す図である。
(第1の実施形態)
図1は、一実施形態に係る遠隔操作システム1の模式図である。遠隔操作システム1は、ロボットアーム10と、撮影装置20と、基部30と、ロボットアーム10を遠隔から操作するための遠隔操作部(図4の70)と、を備える。ロボットアーム10は、基部30に取り付けられる。基部30は、基部30を装着する者(以下、「装着者」という)の背部等の上半身に装着される。撮影装置20は、基部30に取り付けられて装着者の頭部近傍に配置される。ロボットアーム10と、撮影装置20と、は、遠隔操作部70に通信可能に接続されている。
撮影装置20は、例えば動画等の映像を撮影するビデオカメラである。撮影装置20は装着者の頭部近傍に配置されているため、撮影装置20が撮影する映像は、装着者が見ている景色とほぼ同じものである。この意味で撮影装置20は、装着者と視点を共有する。撮影装置20は、撮影した映像を遠隔操作部70に送信する。
撮影装置20は、装着者が見る景色とほぼ同じものを撮影するために、装着者の前方を向いて配置されていてもよい。
遠隔操作部70は、映像受信部と、表示部と、コントローラ(図4の720a、720b)と、操作信号送信部(図示しない)と、を備える。
映像受信部は、撮影装置20が撮影した映像を受信する。表示部は、撮影装置20が受信した映像を、遠隔操作部70を操作する者(以下、「操作者」という)に対して表示する。操作者は、表示部に表示された装着者側の映像を見ながら、ロボットアーム10を操作するために、コントローラ720a,720bを動かす。これによりコントローラ720a、720bは、ロボットアーム10の動作を定める操作信号を生成する。操作信号送信部は、コントローラ720a、720bが生成した操作信号を、ロボットアーム10に送信する。
映像受信部と表示部とは、図4に示されるようにヘッドマウントディスプレイ710として一体化されていてもよいし、別体であってもよい。表示部はこれに限られず、液晶ディスプレイ、ビデオプロジェクタなどの任意の好適な表示装置であってよい。コントローラは、図4に示されるように、操作者の右手及び左手に把持されるモーションコントローラであってよい。コントローラはこれに限られず、ジョイスティック、ゲームパッドなどの任意の好適なコントローラであってよい。
ロボットアーム10は、遠隔操作部70から受信した操作信号に従って運動する。ロボットアーム10は、装着者の身体(例えば腕)に取り付けられてもよいし、取り付けられなくてもよい。ロボットアーム10は、装着者の背部等の上半身に装着された基部30に取り付けられているため、装着者の後方から装着者の身体に働きかけるようにして運動する。
図2は、図1の遠隔操作システム1のロボットアーム10の模式図である。ロボットアーム10は、肩部110と、肩関節112と、上腕部114と、肘関節116と、前腕部118と、手首部120と、を備える。
肩関節112は、モータによって、軸130、132、134の周りに、それぞれ独立に回転可能である。肘関節116は、モータによって、軸136、138の周りに、それぞれ独立に回転可能である。手首部120は、モータによって、軸140の周りに、それぞれ独立に回転可能である。
図1に戻る。基部30は、ロボットアーム10と、撮影装置20と、が接続され、これらを支持する。基部30は、例えば背負われる形で、装着者の背部等の上半身に装着される。基部30は、装着者への装着を容易にするための、背負いベルト(図3の40)等の装着具を備えてもよい。基部30の内部には、ロボットアーム10や撮影装置20に電力を供給するためのバッテリーが配置されてもよい。基部30の内部には、遠隔操作部70からの操作信号を受信して、ロボットアーム10や撮影装置20の運動を制御する制御装置が配置されてもよい。
図3は、装着者が図1の遠隔操作システム1を装着した状態を示す図である。遠隔操作システム1の基部30は、背負いベルト40を用いて、装着者に背負われる。
遠隔操作システム1の、ユーザ(装着者及び操作者)から見た利用シーンの一例を説明する。図4は、一実施形態に係る遠隔操作システムの利用シーンを示す図である。装着者は、遠隔操作システム1の基部30を背部等の上半身に装着する。操作者は、ヘッドマウントディスプレイ710を頭部に装着する。操作者は、ヘッドマウントディスプレイ710に表示される映像をモニタする。前述のように、ヘッドマウントディスプレイ710に表示される映像は、装着者の頭部近傍に配置された撮影装置20が撮影した映像である。従って、操作者がモニタする映像は装着者が見ている景色とほぼ同じものである。換言すれば、操作者は、装着者と視点を共有し、あたかも装着者と一つの身体を共有したかのような感覚を持つ。操作者は、装着者の視点に立ったまま、右手と左手にそれぞれ把持したコントローラ720a、720bを動かすことにより、ロボットアーム10を操作する。このようにして、操作者は、あたかも装着者と身体を共有したかのような感覚を持ちながら、ロボットアーム10を介して装着者にアクセスすることができる。一方装着者は、ロボットアーム10の動作を介して、操作者と身体的コミュニケーションを取ることができる。
上記のような身体的コミュニケーションの具体例には、「スポーツ、楽器演奏、運転といったスキルの伝授を目的として装着者の腕を動かすこと」「移動すべき方向に向けて装着者の腕を引っ張ること」「操作者と装着者との間でロボットアームを介して遊戯をすること」などがある。
以上述べた本実施形態によれば、遠隔にいる装着者と操作者同士が、ロボットアーム10を介して、あたかも1つの身体を共有するような感覚を持ちながら身体的コミュニケーションを取ることができる。
(第2の実施形態)
一実施形態では、ロボットアーム10は、ハンド部を備えてもよい。図5は、本実施形態に係る遠隔操作システム1のハンド部50を示す図である。ハンド部50は、ロボットアーム10の手首部120に取り外し可能に取り付けられる。ハンド部50は、手指の各関節にモータを備え、各関節で独立に曲げ伸ばしが可能である。本実施形態によれば、ハンド部50が装着者の腕を掴んだり、ハンド部50と装着者との間で物のやり取りを行ったりすることができるので、多様な身体的コミュニケーションが可能となる。
(第3の実施形態)
一実施形態では、ロボットアーム10は、ロボットアーム10を装着者の腕部に固定するための固定部品を備えてもよい。図6は、本実施形態に係る遠隔操作システム1の固定部品60を示す図である。固定部品60は、ロボットアーム10の手首部120に取り外し可能に取り付けられる。一例として固定部品60は、装着者の手首に巻き付けられて、ロボットアーム10を装着者の手首に固定するバンドである。本実施形態によれば、ロボットアーム10が装着者の腕部に固定されるので、装着者の腕部を強制的に運動させることができる。
(第4の実施形態)
ロボットアーム10は、伸長したときの全長が装着者の腕の全長より長くてもよい。本実施形態によれば、ロボットアーム10は、装着者が腕を伸ばした状態から更にその腕を引っ張ることが可能となるため、装着者を特定の方向に誘導することができる。
(第5の実施形態)
一実施形態では、撮影装置20は、撮影方向を変えるための回転機構を備えてもよい。図7は、本実施形態に係る遠隔操作システム1の撮影装置20の側面図である。回転機構200を備える撮影装置20は、遠隔操作部70に通信可能に接続されている。回転機構200は、モータによって、軸210、220、230の周りに、それぞれ独立に回転可能である(各軸周りの回転は、それぞれ、ローリング、ピッチング、ヨーイングの動作に相当する)。遠隔操作部70は、回転機構200を遠隔から操作し、撮影装置20の撮影方向を変える。本実施形態によれば、操作者が撮影装置20の撮影方向を自在に変えることができるので、より好適な視覚的情報を得ることができる。
(第6の実施形態)
一実施形態では、遠隔操作部70は、操作信号を記録する記録部をさらに備えてもよい。操作信号は、遠隔操作部70から出力されると同時に記録部に記録される。さらに操作信号は、記録部に記録されると同時にロボットアーム10に送信されてもよい。この場合、ロボットアーム10に送信された操作信号の履歴を記録部に残すことができる。あるいは操作信号は、記録部に記録されるが、記録と同時にロボットアーム10に送信されなくてもよい。この場合操作信号は、遠隔操作部70から出力されてから所定の時間を経過した後に、記録部からロボットアーム10に送信されてもよい。記録部の構成は特に限定されないが、例えばメモリやストレージなどの記憶媒体であってよい。本実施形態によれば、操作信号を記録することができるので、操作信号の履歴を残したり、所定の時間差をおいて操作信号を送信したりすることができる。
特に遠隔操作部70は、記録部に記録された操作信号を送信してもよい。すなわち操作信号は、遠隔操作部70から直接送信されるのでなく、一旦記録部に記録された後に、記録部から送信される。例えば、遠隔操作システム1は、スポーツ、楽器演奏、運転といった、教師から生徒へのスキルの伝授に応用することができる。この場合、遠隔操作部70は教師側に配置され、ロボットアーム10は生徒側に配置される。この場合、例えば遠隔操作システム1を教室などで使用するときなどは、教師は教室に常駐しているとは限らない。このようなとき、本実施形態によれば、教師の教示内容を示す操作信号を記録部に記録しておき、当該操作信号を再生して送信することができるので、生徒は好みの時間に教室に行きスキルの伝授を受けることができる。
(第7の実施形態)
一実施形態では、遠隔操作部70は、機械学習部をさらに備えてもよい。この機械学習部は、映像と操作信号を入力して機械学習を行うことにより、新たな操作信号を出力する。機械学習の手法は特に限定されないが、例えば畳み込みニューラルネットワーク(Convolutional Neural Network:CNN)、再帰形ニューラルネットワーク(Recurrent Neural Network:RNN)、LSTMネットワーク(Long Short Term Memory:LSTM)などのニューラルネットワークを用いてもよく、この場合入力層を共通にした上で計算モデルごとに異なるニューラルネットワークを混在させてもよい。機械学習部は、撮影装置20が撮影した映像と遠隔操作部70が出力した操作信号とを教師データとして機械学習を実行し、新たな操作信号を出力する。例えば、遠隔操作システム1をスポーツにおける正しい身体運動(例えば、ゴルフのスイングやテニスのショットなど)の教示に応用する場合、生徒の実運動の映像と、それに応じた教師からの操作信号との組み合わせを教師データとして機械学習を行うことで、当該生徒にとって最適な操作信号を生成することができる。この場合、生徒の実運動の映像がゴルフのスイングやテニスのショットなどのような一連の連続映像である場合は、映像内で運動が急変する点(以下、「急変点」という)を見出し、ある急変点から次の急変点までの映像を学習のための1シーンとして切り出す処理を行ってもよい。本実施形態によれば、ロボットアーム側で撮影された映像と遠隔操作部が出力した操作信号とを教師データとして機械学習を行うことにより新たな操作信号が出力されるので、的確な操作信号を得ることができる。
特に遠隔操作部70は、映像信号に基づき機械学習部が出力した操作信号を送信してもよい。この場合、ロボットアーム側で撮影された映像に応じた最適な操作信号が機械学習部から出力され、ロボットアーム側に送信される。本実施形態によれば、ロボットアームを装着した生徒は、自身の運動に応じた最適な操作信号を受信することができるので、最適な身体動作の教示を受けることができる。
(第8の実施形態)
一実施形態では、遠隔操作システム1は、複数のロボットアーム10と、ロボットアーム10と同数の撮影装置20と、ロボットアーム10と同数の基部30とを備え、遠隔操作部70は、全てのロボットアーム10に同時に同じ操作信号を送信してもよい。例えば、遠隔操作システム1のロボットアーム側は、ロボットアーム10と、撮影装置20と、基部30とからなるn個の組によって構成される。ただしnは2以上の整数である。これらの組は、例えばn人の装着者によって装着される。一方、遠隔操作システム1の遠隔操作部側は、1つまたは複数の遠隔操作部70から構成される。遠隔操作部70からの操作信号は、n個のロボットアームに対して同時に送信される。例えば、操作信号はマルチキャストプロトコルを用いて、n個のロボットアームに送信されてよい。このとき表示部には、n個の撮影装置20のうちのいずれか1つによって撮影された映像が表示される。本実施形態によれば、例えば遠隔操作部70が1人の教師側に配置され、ロボットアーム10が複数の生徒側に配置されて動作の教示が行われるような応用例において、複数の生徒に同時に動作を教示することができるので、効率的な教育を実現することができる。これは、工場や学校などで、多数の生徒に対して同じ動作を教示するような場合に特に有効である。
(第9の実施形態)
一実施形態では、遠隔操作システム1は、複数の遠隔操作部70を備え、複数の遠隔操作部70の各々は、他の遠隔操作部70が操作信号を送信中に割り込んで操作信号を送信することができる割り込み部を備えてもよい。例えば、遠隔操作システム1の遠隔操作部側は、n個の遠隔操作部70によって構成される。ただしnは2以上の整数である。これらn個の遠隔操作部70は、それぞれが例えばn人の教師によって操作される。一方、遠隔操作システム1のロボットアーム側は、ロボットアーム10と、撮影装置20と、基部30とからなる1つまたは複数の組によって構成される。ロボットアームは、n個の遠隔操作部70のいずれか1つから送信された操作信号を受信し、これに基づいて動作する。n個の遠隔操作部70のそれぞれは、ロボットアーム10を操作する操作信号を送信することができる。さらにn個の遠隔操作部70のそれぞれは、割り込み部を起動することにより、他の遠隔操作部70が操作信号を送信中に割り込んで操作信号を送信することができる。本実施形態によれば、例えば遠隔操作部70がn人の教師側に配置され、ロボットアーム10が1人の生徒側に配置されて動作の教示が行われるような応用例において、1人の生徒に対して複数の教師が共同で動作を教示することができるので、きめ細かく高度な教育を実現することができる。これは、1つの動作の教示のために、それぞれが専門性を備えた複数の教師による指示が必要な場合などに特に有効である。
(第10の実施形態)
一実施形態では、遠隔操作システム1は、複数の遠隔操作部70を備え、ロボットアーム10は、複数の遠隔操作部70から出力された操作信号が平均化された信号により操作されてもよい。例えば、遠隔操作システム1の遠隔操作部側は、n個の遠隔操作部70によって構成される。ただしnは2以上の整数である。これらn個の遠隔操作部70は、それぞれが例えばn人の教師によって操作される。一方、遠隔操作システム1のロボットアーム側は、ロボットアーム10と、撮影装置20と、基部30とからなる1つまたは複数の組によって構成される。n個の遠隔操作部70から出力された各操作信号は、逐時集められ平均化される。以下、この逐時平均化された操作信号を「平均操作信号」と呼ぶ。平均化の方法は特に限定されないが、操作信号値の単純な算術平均を計算してもよいし、教師ごとに重みを付けた加重平均を計算してもよい。実装形態としては、ロボットアーム10に複数の受信装置を設けて複数の遠隔操作部70からの操作信号を受信し、これらをロボットアーム側で逐時平均化した上で操作信号として用いてもよい。あるいは、ロボットアーム側の受信部は1つとし、複数の遠隔操作部70が共通の送信部を持ち、各遠隔操作部70から出力された操作信号を当該送信部で逐時平均化した上でロボットアーム側に送信してもよい。教師は動作に独特の癖を持つことがあるが、この癖を生徒にそのまま伝授することは必ずしも好ましいことではない。これに対し、複数の教師を用意し、これらの教師の動作を平均化することにより、各教師の持つ癖を軽減し最適な動作とすることができる場合が多い。本実施形態によれば、教師の癖を取り除いた最適な動作を生徒に教示することができる。
装着者と操作者との間のロボットアームを介した身体的コミュニケーションは、一例として以下の3つのタイプに分類することができる。
(第1のタイプのコミュニケーション)「指示(Direct)」
図8は、第1のタイプのコミュニケーションを示す。本タイプのコミュニケーションでは、ロボットアーム10は装着者の身体に取りつけられない。ロボットアーム10は、指差しにより装着者に方向を指示したり、装着者との間で物を受け渡したりする。ロボットアームを介して、操作者と装着者とが握手や物のやり取りをすることなどが、本タイプのコミュニケーションの例である。本発明者らは、このタイプのコミュニケーションを指示「(Direct)」と名付けた。
(第2のタイプのコミュニケーション)「強制(Enforce)」
図9は、第2のタイプのコミュニケーションを示す。本タイプのコミュニケーションでは、ロボットアーム10は装着者の身体(例えば腕)に取りつけられる。ロボットアーム10は、装着者の身体をガイドして強制的に所定の運動を行わせたり、装着者の身体を所定の位置に導いたりする。ロボットアームを介して、装着者に、スポーツ、楽器演奏、運転といったスキルを伝授することなどが、本タイプのコミュニケーションの例である。本発明者らは、このタイプのコミュニケーションを「強制(Enforce)」と名付けた。
(第3のタイプのコミュニケーション)「誘導(Induce)」
図10は、第3のタイプのコミュニケーションを示す。本タイプのコミュニケーションでは、ロボットアーム10は装着者の身体に取りつけられる。更にロボットアーム10は、伸長したときの全長が装着者の腕の全長より長い。ロボットアーム10は、装着者が腕を伸ばした状態から、更にその腕を引っ張る方向に動作する。ロボットアームを介して、装着者を、装着者の手の届かない範囲にある所に向けて誘導することなどが、本タイプのコミュニケーションの例である。本発明者らは、このタイプのコミュニケーションを「誘導(Induce)」と名付けた。
(変形例)
以上、本発明を実施例を基に説明した。これらの実施例は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
撮影装置20は2つのカメラを備えたステレオカメラであってよい。本変形例によれば、操作者は、撮影装置20が撮影した映像を立体的に認識できるので、より高い臨場感で装着者と視点を共有することができる。
撮影装置20の回転機構200は、ヘッドマウントディスプレイ710を用いて操作されてもよい。このときヘッドマウントディスプレイ710は、撮影装置20の回転機構200を操作するための信号を、回転機構200に送信する。送信される信号は、操作者の頭部の動きに連動して、撮影装置20の撮影方向を動かすためのものである。本変形例によれば、操作者は、頭の動きによって、モニタする映像の撮影方向を自在に操作することができる。
撮影装置20は、撮影装置20の設置位置を移動するための移動機構を備えてもよい。移動機構は、モータによって、撮影装置20の設置位置を、装着者の頭部に対して前後又は左右に移動する。遠隔操作部70は、移動機構を遠隔から操作し、撮影装置20の設置位置を移動する。本変形例によれば、操作者が撮影装置20の設置位置を自在に変えることができるので、より好適な視覚的情報を得ることができる。
撮影装置20は、前述の移動機構に加えて、装着者の頭部の位置を検知する頭部センサを備えてもよい。この場合、移動機構は、頭部センサが検知した装着者の頭部に位置に基づいて、撮影装置20が装着者の視野内に入らないように、撮影装置20の設置位置を移動する。本変形例によれば、撮影装置20が装着者の視野内に入らないように移動するので、装着者の視野が撮影装置20によって遮られることを防ぐことができる。
遠隔操作システム1は、装着者にウェアラブルなアイトラッキング装置を備えてもよい。この場合、撮影装置20の回転機構200は、アイトラッキング装置からの信号に基づき、装着者の視線に追随するように動作する。すなわち撮影装置20は、装着者の視点と連動して自動的に撮影方向を変える。本変形例によれば、撮影装置20は装着者が見た景色をそのまま撮影するため、操作者は、装着者と同じ視点を共有することができる。
遠隔操作システム1は、装着者の頭部付近にマイクロフォンを備えてもよい。マイクロフォンが集音した音は遠隔操作部70に送信され、操作者によってモニタされる。本変形例によれば、操作者は、視点に加えて、聴覚をも装着者と共有することができる。
遠隔操作システム1は、装着者の頭部付近に配置した前述のマイクロフォンに加えて、装着者の耳付近に配置したスピーカ、あるいは装着者に装着されるヘッドフォンを備えてもよい。このとき遠隔操作部70は、操作者の発する音声を集音するマイクロフォンを備える。装着者が発した音声は、装着者側のマイクロフォンによって集音されて、遠隔操作部70に送信される。逆に、操作者が発した音声は、操作者側のマイクロフォンによって集音され、操作者側のスピーカ又はヘッドフォンに送信される。本変形例によれば、装着者と操作者との間で会話ができるので、両者は身体的コミュニケーションに加えて、音声的コミュニケーションを取ることができる。
ロボットアーム10がロボットアーム10を装着者の身体に固定するための固定部品を備える場合、固定部品はハンド型の形状であってもよい。ハンド型形状の固定部品の各手指は、対応する装着者の各手指に固定される。ハンド型形状の固定部品は、手指の各関節にモータを備え、各関節で独立に曲げ伸ばしが可能である。本変形例によれば、ロボットアーム10が装着者の各手指で固定されるので、装着者の各手指を個別に強制的に運動させることができる。
ロボットアーム10の上腕部114と前腕部118とは、それぞれ独立に長さ調整可能であってよい。本変形例によれば、ロボットアーム10は、装着者の腕の長さや、前述の身体的コミュニケーションのタイプに応じて、的確な形態を取ることができる。
ロボットアーム10は、速度センサ、加速度センサ、圧力センサ、温度センサなどのセンサを備えてもよい。これらのセンサは、ロボットアーム10の動作に対する装着者の反応を検知し、その結果を遠隔操作部70に送信する。例えば「強制」タイプのコミュニケーションの場合、センサは、装着者がロボットアーム10に対してどう反応したか(例えば、「装着者の身体はロボットアーム10の動作に対して素直に動いたか」「ロボットアーム10の動作に逆らうような動きをしたか」「逆らうような動きをしたのであれば、いかなる強さであったか」等)を検知して、遠隔操作部70にフィードバックする。本変形例によれば、ロボットアーム10を介した操作者から装着者への方向のコミュニケーションに加えて、フィードバックを介した装着者から操作者への方向のコミュニケーションを取ることができる。
遠隔操作部70は単数であることに代えて、複数であってもよい。この場合、別々の操作者がそれぞれの遠隔操作部70を操作してもよい。本変形例によれば、操作者と装着者との間の一対一のコミュニケーションに代えて、複数の操作者と装着者との間の多対一のコミュニケーションが可能となる。これは、複数の教師(操作者)が共同して一人に生徒(装着者)にスキルを伝授するような場合、とりわけ有効である。
前述のように遠隔操作部70が複数あって、別々の操作者がそれぞれの遠隔操作部70を操作する実施形態の場合、遠隔操作システム1は、ある操作者が操作を行っている間は、他の操作者による操作が禁止されるような制御がされてもよい。さらに装着者側と各操作者側とにそれぞれマイクロフォンとスピーカが設けられて、双方の間で音声的コミュニケーションが可能な実施形態の場合、遠隔操作システム1は、ある操作者が装着者と会話している間は、他の操作者と装着者と間の会話が禁止されるような制御がされてもよい。本変形例によれば、複数の操作者と装着者との間の多対一のコミュニケーションにおいて、複数操作者からの同時アクセスに起因する混乱を回避することができる。
遠隔操作部70は、コントローラ720a、720bに代えて、装着者側のロボットアーム10と同様のロボットアームを備えてもよい。この場合、装着者側のロボットアーム10と操作者側のロボットアームとは、同期して同じ動作をする。本変形例によれば、装着者と操作者同士が、1つの身体を共有するような感覚を持つことに加えて、同じ動作を共有するような感覚を持つことができる。
遠隔操作システム1を使用する2名の主体は、一方が操作者で他方が装着者であることに代えて、両方が対等であってもよい。この場合、2名のユーザは、それぞれ、ロボットアーム及び撮影装置を装着し、遠隔操作部を操作する。本変形例によれば、2名のユーザが対等の立場で、身体を共有するような感覚を持ちながら身体的コミュニケーションを取ることができる。
遠隔操作部70における操作主体は、人間(操作者)であることに代えて、プログラムに基づくコンピュータであってもよい。また操作主体は、機械学習やディープラーニングなどによって実現される人工知能であってもよい。本変形例によれば、操作主体の自由度を向上することができる。
本発明は、遠隔地間の共同作業、スポーツのレッスン(ゴルフ、テニス等)、楽器演奏のレッスン(ピアノ等)、運転の教習、遠隔地間の身体を使ったゲーム、視覚障害者へのサポート等に利用することができる。
1 遠隔操作システム、10 ロボットアーム、 20 撮影装置、 30 基部、 70 遠隔操作部

Claims (11)

  1. ロボットアームと、撮影装置と、基部と、前記ロボットアームを遠隔から操作するための遠隔操作部と、を備え、
    前記ロボットアームは、前記基部に取り付けられ、
    前記撮影装置は、前記基部に取り付けられて装着者の頭部近傍に配置され、
    前記基部は、装着者の上半身に装着され、
    前記ロボットアームと、前記撮影装置と、は、前記遠隔操作部に通信可能に接続されており、
    前記遠隔操作部は、前記撮影装置から受信した映像を表示し、前記ロボットアームを操作する操作信号を送信することができ、
    前記ロボットアームは、上腕部および前腕部の長さがともに装着者の上腕部および前腕部より長いため装着者が腕を伸ばした状態から更にその腕を引っ張ることができることを特徴とする、遠隔操作システム。
  2. 前記ロボットアームは、取外し可能なハンド部を備えることを特徴とする、請求項1に記載の遠隔操作システム。
  3. 前記ロボットアームは、前記ロボットアームを装着者の腕部に固定するための固定部品を備えることを特徴とする、請求項1に記載の遠隔操作システム。
  4. 前記撮影装置は、撮影方向を変えるための回転機構を備え、
    前記撮影装置は、前記遠隔操作部に通信可能に接続されており、
    前記遠隔操作部は、前記回転機構を遠隔から操作することを特徴とする、請求項1乃至3のいずれか一項に記載の遠隔操作システム。
  5. 前記遠隔操作部は、前記操作信号を記録する記録部を備えることを特徴とする請求項1乃至4のいずれか一項に記載の遠隔操作システム。
  6. 前記遠隔操作部は、前記記録部に記録された操作信号を送信することを特徴とする請求項5に記載の遠隔操作システム。
  7. 前記遠隔操作部は、機械学習部をさらに備え、
    前記機械学習部は、前記映像と前記操作信号を入力して機械学習することにより、新たな操作信号を出力することを特徴とする請求項1乃至5のいずれか一項に記載の遠隔操作システム。
  8. 前記遠隔操作部は、前記映像に基づき前記機械学習部が出力する操作信号を送信することを特徴とする請求項7に記載の遠隔操作システム。
  9. 複数のロボットアームと、前記ロボットアームと同数の撮影装置と、前記ロボットアームと同数の基部とを備え、
    前記遠隔操作部は、全てのロボットアームに同時に同じ操作信号を送信することを特徴とする請求項1乃至8のいずれか一項に記載の遠隔操作システム。
  10. 複数の遠隔操作部を備え、
    前記複数の遠隔操作部の各々は、他の遠隔操作部が操作信号を送信中に割り込んで操作信号を送信することができる割り込み部を備えることを特徴とする請求項1乃至9のいずれか一項に記載の遠隔操作システム。
  11. 複数の遠隔操作部を備え、
    前記ロボットアームは、前記複数の遠隔操作部から出力された操作信号が平均化された信号によって操作されることを特徴とする請求項1乃至9のいずれか一項に記載の遠隔操作システム。
JP2020527678A 2018-06-29 2019-06-28 遠隔操作システム Active JP7212390B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018124364 2018-06-29
JP2018124364 2018-06-29
PCT/JP2019/025781 WO2020004613A1 (ja) 2018-06-29 2019-06-28 遠隔操作システム

Publications (2)

Publication Number Publication Date
JPWO2020004613A1 JPWO2020004613A1 (ja) 2021-08-02
JP7212390B2 true JP7212390B2 (ja) 2023-01-25

Family

ID=68986783

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020527678A Active JP7212390B2 (ja) 2018-06-29 2019-06-28 遠隔操作システム

Country Status (4)

Country Link
US (1) US11738445B2 (ja)
JP (1) JP7212390B2 (ja)
CN (1) CN112313042B (ja)
WO (1) WO2020004613A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7464366B2 (ja) * 2019-09-09 2024-04-09 ファナック株式会社 ロボット制御装置
US11110601B2 (en) * 2019-11-20 2021-09-07 UiPath, Inc. Scheduling robots for robotic process automation

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005515012A (ja) 2002-01-16 2005-05-26 コンピュータ・モーション・インコーポレーテッド ロボット工学およびテレコラボレーションを使用した最小侵襲性外科訓練
US20050267826A1 (en) 2004-06-01 2005-12-01 Levy George S Telepresence by human-assisted remote controlled devices and robots
US20120179075A1 (en) 2006-03-29 2012-07-12 University Of Washington Exoskeleton
FR2993811A1 (fr) 2012-07-26 2014-01-31 Pierre Andre Davezac Exosquelette a bras mecaniques isoelastiques motorises

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5631973A (en) * 1994-05-05 1997-05-20 Sri International Method for telemanipulation with telepresence
US6963792B1 (en) * 1992-01-21 2005-11-08 Sri International Surgical method
US6850222B1 (en) * 1995-01-18 2005-02-01 Immersion Corporation Passive force feedback for computer interface devices
JP2852880B2 (ja) * 1995-03-10 1999-02-03 川崎重工業株式会社 教育装置
US6659939B2 (en) * 1998-11-20 2003-12-09 Intuitive Surgical, Inc. Cooperative minimally invasive telesurgical system
FR2839916B1 (fr) * 2002-05-22 2004-10-15 Agence Spatiale Europeenne Exosquelette pour bras humain, notamment pour des applications spatiales
JP2004056161A (ja) * 2002-05-28 2004-02-19 Matsushita Electric Works Ltd マルチメディア通信システム
US7409882B2 (en) * 2002-12-31 2008-08-12 Bergamasco Massimo Exoskeleton interface apparatus
KR200323972Y1 (ko) * 2003-03-03 2003-08-19 조국수 복싱게임기
JP5850560B2 (ja) * 2010-07-23 2016-02-03 株式会社国際電気通信基礎技術研究所 遠隔操作ロボット
US9527207B2 (en) * 2011-03-23 2016-12-27 Sri International Dexterous telemanipulator system
JP2013091114A (ja) * 2011-10-05 2013-05-16 Kyokko Denki Kk インタラクション操作システム
US9573276B2 (en) * 2012-02-15 2017-02-21 Kenneth Dean Stephens, Jr. Space exploration with human proxy robots
US9588582B2 (en) * 2013-09-17 2017-03-07 Medibotics Llc Motion recognition clothing (TM) with two different sets of tubes spanning a body joint
JP5974668B2 (ja) * 2012-06-25 2016-08-23 国立大学法人 筑波大学 マニピュレーションシステム
US20150314454A1 (en) * 2013-03-15 2015-11-05 JIBO, Inc. Apparatus and methods for providing a persistent companion device
KR101959330B1 (ko) * 2013-03-15 2019-03-21 에스알아이 인터내셔널 인간 신체 보강 시스템
JP6038701B2 (ja) * 2013-03-26 2016-12-07 株式会社東芝 遠隔視認装置および遠隔視認操作システム
EP3014394B1 (en) * 2013-07-05 2022-06-22 Rubin, Jacob A. Whole-body human-computer interface
US9314922B2 (en) * 2014-02-07 2016-04-19 Control Interfaces LLC Remotely operated manipulator and ROV control systems and methods
EP3139843B1 (en) * 2014-05-05 2023-08-30 Vicarious Surgical Inc. Virtual reality surgical device
US10369071B2 (en) * 2014-05-05 2019-08-06 Genesis Robotics & Motion Technologies Canada, Ulc Exoskeleton suit with hand control to enable walking
US10238522B2 (en) * 2014-09-05 2019-03-26 Ekso Bionics, Inc. Exoskeleton device and method of impeding relative movement in the exoskeleton device
CN104825258B (zh) * 2015-03-24 2017-04-05 华南理工大学 肩部可穿戴功能辅助机械臂
US9895799B2 (en) * 2016-04-08 2018-02-20 Patrick Michael Mullen System for cooperation between a human and a robotic device
JP6712423B2 (ja) * 2016-04-28 2020-06-24 株式会社バンダイナムコアミューズメント シミュレーションシステム
IT201600132874A1 (it) * 2016-12-30 2018-06-30 Signo Motus S R L Esoscheletro con giunti semi-attivi a fluido elettro- o magneto–reologico
GB2560384B (en) * 2017-03-10 2022-07-20 Cmr Surgical Ltd Controlling a surgical instrument
US10843330B2 (en) * 2017-12-07 2020-11-24 Sarcos Corp. Resistance-based joint constraint for a master robotic system
WO2019116093A1 (en) * 2017-12-14 2019-06-20 Bionic Yantra Private Limited Apparatus and system for limb rehabitation
WO2019173396A1 (en) * 2018-03-05 2019-09-12 The Regents Of The University Of Colorado, A Body Corporate Augmented reality coordination of human-robot interaction

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005515012A (ja) 2002-01-16 2005-05-26 コンピュータ・モーション・インコーポレーテッド ロボット工学およびテレコラボレーションを使用した最小侵襲性外科訓練
US20050267826A1 (en) 2004-06-01 2005-12-01 Levy George S Telepresence by human-assisted remote controlled devices and robots
US20120179075A1 (en) 2006-03-29 2012-07-12 University Of Washington Exoskeleton
FR2993811A1 (fr) 2012-07-26 2014-01-31 Pierre Andre Davezac Exosquelette a bras mecaniques isoelastiques motorises

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Tomoya Sasaki et al.,MetaLimbs: Metamorphosis for Multiple Arms Interaction using Artificial Limbs,SIGGRAPH'17 Posters,2017年07月30日

Also Published As

Publication number Publication date
US20210114199A1 (en) 2021-04-22
JPWO2020004613A1 (ja) 2021-08-02
WO2020004613A1 (ja) 2020-01-02
CN112313042A (zh) 2021-02-02
US11738445B2 (en) 2023-08-29
CN112313042B (zh) 2024-05-10

Similar Documents

Publication Publication Date Title
KR101169674B1 (ko) 원격현전 로봇, 이를 포함하는 원격현전 시스템 및 이의 제어 방법
Fernando et al. Design of TELESAR V for transferring bodily consciousness in telexistence
US5021878A (en) Animated character system with real-time control
US11086392B1 (en) Devices, systems, and methods for virtual representation of user interface devices
US20130225305A1 (en) Expanded 3d space-based virtual sports simulation system
US20030030397A1 (en) Natural robot control
Martinez-Hernandez et al. Multisensory wearable interface for immersion and telepresence in robotics
JP7212390B2 (ja) 遠隔操作システム
CN107111682A (zh) 集成用户环境
US12017351B2 (en) Remote control system, information processing method, and non-transitory computer-readable recording medium
US11366522B1 (en) Systems and methods for providing substantially orthogonal movement of a device about a user's body part
Kawasaki et al. Collaboration and skill transmission by first-person perspective view sharing system
US11231791B1 (en) Handheld controllers for artificial reality and related methods
Tachi et al. Mutual telexistence surrogate system: Telesar4-telexistence in real environments using autostereoscopic immersive display
Luo et al. Towards robot avatars: Systems and methods for teleinteraction at avatar xprize semi-finals
CN204945491U (zh) 头戴式全息智能眼镜
CN105068248A (zh) 头戴式全息智能眼镜
US11874966B1 (en) Variable-resistance actuator
Lathuilière et al. Deep reinforcement learning for audio-visual gaze control
US11550397B1 (en) Systems and methods for simulating a sensation of expending effort in a virtual environment
JPH10208073A (ja) 仮想現実作成装置
CN112198957B (zh) 一种远程交互系统及方法
US11353966B1 (en) Handheld controllers and artificial-reality systems
US11490669B1 (en) Lockable beams for haptics applications and related systems and methods
Tsuji et al. A Telepresence System using Toy Robots the Users can Assemble and Manipulate with Finger Plays and Hand Shadow

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20201027

A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20210105

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220404

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221227

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230105

R150 Certificate of patent or registration of utility model

Ref document number: 7212390

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150