JP2024035639A - 遠隔操作システム、遠隔操作方法、及び、制御プログラム - Google Patents

遠隔操作システム、遠隔操作方法、及び、制御プログラム Download PDF

Info

Publication number
JP2024035639A
JP2024035639A JP2022140229A JP2022140229A JP2024035639A JP 2024035639 A JP2024035639 A JP 2024035639A JP 2022140229 A JP2022140229 A JP 2022140229A JP 2022140229 A JP2022140229 A JP 2022140229A JP 2024035639 A JP2024035639 A JP 2024035639A
Authority
JP
Japan
Prior art keywords
grasped
operated
handwritten information
remote control
graspable
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022140229A
Other languages
English (en)
Inventor
優香 岩永
貴史 山本
健光 森
将慶 土永
真太郎 吉澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2022140229A priority Critical patent/JP2024035639A/ja
Priority to US18/456,119 priority patent/US20240075628A1/en
Priority to CN202311123674.6A priority patent/CN117644528A/zh
Publication of JP2024035639A publication Critical patent/JP2024035639A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1689Teleoperation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/006Controls for manipulators by means of a wireless system for controlling one or several manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • B25J5/007Manipulators mounted on wheels or on carriages mounted on wheels
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39543Recognize object and plan hand shapes in grasping movements
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40564Recognize shape, contour of object, extract position and orientation

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Human Computer Interaction (AREA)
  • Manipulator (AREA)

Abstract

【課題】ユーザによる直感的な操作を可能にしたまま、被操作対象に精度の高い処理を実行させることが可能な遠隔操作システムを提供すること。【解決手段】遠隔操作システムは、被操作対象が存在する環境の撮像画像に基づいて、把持可能物、被操作対象の移動可能領域、及び、移動不可能領域、を認識する認識部と、撮像画像に対する手書き情報の入力を受け付ける操作端末と、把持可能物と手書き情報とに基づいて、把持可能物の中から把持が要求されている把持対象物を推定すると共に、被操作対象に要求されている把持対象物に対する動作内容を推定する推定部と、を備え、推定部は、手書き情報に把持対象物の搬送経路の情報が含まれる場合、搬送経路のうち、被操作対象の移動可能領域に位置する搬送経路を、被操作対象の移動経路と推定し、且つ、被操作対象の移動不可能領域に位置する搬送経路を、把持対象物を把持したエンドエフェクタの移動経路と推定する。【選択図】図22

Description

本開示は、遠隔操作システム、遠隔操作方法、及び、制御プログラムに関する。
エンドエフェクタを備える被操作対象(例えば、アームの先端部にエンドエフェクタである把持部(例えば、ハンドや吸着部)を備えたロボット等)を遠隔操作して把持動作等を実行させる技術が知られている。例えば、特許文献1には、ロボット周辺を撮像した撮影画像が表示される操作端末において受け付けられたユーザの手書き情報に基づいて、ロボットの制御の仕方を決定し、且つ、ロボットを遠隔操作するシステムが開示されている。このシステムは、ユーザの直感的な手書き指示によってロボットを遠隔操作することができる。
特開2021-094605号公報
しかしながら、特許文献1に開示されたシステムでは、手書き情報に把持対象物の搬送経路の情報が含まれる場合、当該搬送経路が、ロボットの移動経路(走行経路)を表しているのか、ロボットのアーム操作によるエンドエフェクタの移動経路を表しているのか、を判断していないため、ロボット(被操作対象)に精度の高い処理を実行させることができない、という課題があった。
本開示は、このような問題を解決するためになされたものであり、ユーザによる直感的な操作を可能にしたまま、被操作対象に精度の高い処理を実行させることが可能な遠隔操作システム、遠隔操作方法、及び、制御プログラムを提供するものである。
本開示に係る遠隔操作システムは、エンドエフェクタを備える被操作対象を遠隔操作する遠隔操作システムであって、前記被操作対象が存在する環境を撮像する撮像部と、前記環境の撮像画像に基づいて、前記エンドエフェクタが把持可能な把持可能物、前記被操作対象の移動可能領域、及び、移動不可能領域、を認識する認識部と、前記撮像画像を表示すると共に、前記撮像画像に対する手書き情報の入力を受け付ける操作端末と、前記把持可能物と前記手書き情報とに基づいて、前記把持可能物から前記エンドエフェクタによる把持が要求されている把持対象物を推定すると共に、前記被操作対象に要求されている前記把持対象物に対する動作内容を推定する推定部と、を備え、前記推定部は、前記手書き情報に前記把持対象物の搬送経路の情報が含まれる場合、前記搬送経路のうち、前記被操作対象の移動可能領域に位置する搬送経路を、前記被操作対象の移動経路と推定し、且つ、前記被操作対象の移動不可能領域に位置する搬送経路を、前記把持対象物を把持した前記エンドエフェクタの移動経路と推定する。この遠隔操作システムでは、ユーザが、予め設定された指示図形を思い出しながら手書き入力を行わずに、より直感的な手書き入力を行うことによって、被操作対象に把持対象物を搬送させる等の所望の処理を実行させることができる。また、この遠隔操作システムでは、手書き情報に把持対象物の搬送経路の情報が含まれる場合、当該搬送経路が、被操作対象の移動経路(走行経路)を表しているのか、エンドエフェクタの移動経路を表しているのか、を自動判別しているため、この遠隔操作システムは、ユーザによる直感的な操作を可能にしたまま、被操作対象に精度の高い処理を実行させることができる。
前記推定部は、前記手書き情報に前記把持対象物の搬送経路の情報が含まれている場合において、当該搬送経路上に2つの前記移動可能領域に挟まれた前記移動不可能領域が存在する場合には、2つの前記移動可能領域に挟まれた前記移動不可能領域が存在しないような、前記把持対象物の迂回経路を推定し、前記遠隔操作システムは、前記推定部により推定された前記迂回経路の情報を出力する出力部をさらに備えていてもよい。
前記出力部は、前記操作端末に、前記迂回経路の情報を表示させてもよい。
前記認識部は、前記把持可能物のうち前記把持対象物以外の把持可能物を、前記被操作対象の移動不可能領域として認識してもよい。
前記被操作対象は、自立移動可能なロボットであってもよい。
前記推定部は、前記手書き情報に、前記把持対象物の搬送経路の情報が含まれる場合、前記搬送経路のうち、前記被操作対象の移動可能領域に位置する搬送経路を、前記被操作対象であるロボットの移動経路と推定し、且つ、前記被操作対象の移動不可能領域に位置する搬送経路を、前記ロボットのアームの先端部に取り付けられた前記エンドエフェクタの、前記アームの操作による移動経路と推定してもよい。
前記撮像部は、前記被操作対象に取り付けられていてもよい。
前記撮像部は、前記被操作対象が存在する前記環境の、前記被操作対象とは別の場所に設けられていてもよい。
前記操作端末は、ユーザによる所定の手書き終了操作を受け付けることによって、前記手書き情報の入力を完了させてもよい。
前記手書き情報は、前記把持対象物に対する前記被操作対象の動作内容を模擬した第1画像を含んでいてもよい。
前記推定部は、深層学習により学習を行ったニューラルネットワーク等の学習済みモデルを用いて、前記手書き情報の前記第1画像から、前記被操作対象に要求されている前記把持対象物に対する動作内容を推定してもよい。
本開示に係る遠隔操作方法は、エンドエフェクタを備える被操作対象を遠隔操作する遠隔操作システムによる遠隔操作方法であって、前記被操作対象が存在する環境を撮像し、前記環境の撮像画像に基づいて、前記エンドエフェクタが把持可能な把持可能物、前記被操作対象の移動可能領域、及び、移動不可能領域、を認識し、前記撮像画像を表示した操作端末において、表示した前記撮像画像に対する手書き情報の入力を受け付け、前記把持可能物と前記手書き情報とに基づいて、前記把持可能物から前記エンドエフェクタによる把持が要求されている把持対象物を推定すると共に、前記被操作対象に要求されている前記把持対象物に対する動作内容を推定し、前記被操作対象に要求されている前記把持対象物に対する動作内容の推定では、前記手書き情報に前記把持対象物の搬送経路の情報が含まれる場合、前記搬送経路のうち、前記被操作対象の移動可能領域に位置する搬送経路を、前記被操作対象の移動経路と推定し、且つ、前記被操作対象の移動不可能領域に位置する搬送経路を、前記把持対象物を把持した前記エンドエフェクタの移動経路と推定する。この遠隔操作方法では、ユーザが、予め設定された指示図形を思い出しながら手書き入力を行わずに、より直感的な手書き入力を行うことによって、被操作対象に把持対象物を搬送させる等の所望の処理を実行させることができる。また、この遠隔操作方法では、手書き情報に把持対象物の搬送経路の情報が含まれる場合、当該搬送経路が、被操作対象の移動経路(走行経路)を表しているのか、エンドエフェクタの移動経路を表しているのか、を自動判別しているため、この遠隔操作方法は、ユーザによる直感的な操作を可能にしたまま、被操作対象に精度の高い処理を実行させることができる。
本開示に係る制御プログラムは、エンドエフェクタを備える被操作対象を遠隔操作する遠隔操作システムによる遠隔操作処理をコンピュータに実行させる制御プログラムであって、前記被操作対象が存在する環境を撮像する処理と、前記環境の撮像画像に基づいて、前記エンドエフェクタが把持可能な把持可能物、前記被操作対象の移動可能領域、及び、移動不可能領域、を認識する処理と、前記撮像画像を表示した操作端末において、表示した前記撮像画像に対する手書き情報の入力を受け付ける処理と、前記把持可能物と前記手書き情報とに基づいて、前記把持可能物から前記エンドエフェクタによる把持が要求されている把持対象物を推定すると共に、前記被操作対象に要求されている前記把持対象物に対する動作内容を推定する処理と、をコンピュータに実行させ、前記被操作対象に要求されている前記把持対象物に対する動作内容を推定する処理では、前記手書き情報に前記把持対象物の搬送経路の情報が含まれる場合、前記搬送経路のうち、前記被操作対象の移動可能領域に位置する搬送経路を、前記被操作対象の移動経路と推定し、且つ、前記被操作対象の移動不可能領域に位置する搬送経路を、前記把持対象物を把持した前記エンドエフェクタの移動経路と推定する。この制御プログラムでは、ユーザが、予め設定された指示図形を思い出しながら手書き入力を行わずに、より直感的な手書き入力を行うことによって、被操作対象に把持対象物を搬送させる等の所望の処理を実行させることができる。また、この制御プログラムでは、手書き情報に把持対象物の搬送経路の情報が含まれる場合、当該搬送経路が、被操作対象の移動経路(走行経路)を表しているのか、エンドエフェクタの移動経路を表しているのか、を自動判別しているため、この制御プログラムは、ユーザによる直感的な操作を可能にしたまま、被操作対象に精度の高い処理を実行させることができる。
本開示によれば、ユーザによる直感的な操作を可能にしたまま、被操作対象に精度の高い処理を実行させることが可能な遠隔操作システム、遠隔操作方法、及び、制御プログラムを提供することができる。
実施形態1に係る遠隔操作システムが利用される全体環境の例を示す概念図である。 ロボットが存在する第1環境の例を示す図である。 手書き情報の例を示す図である。 手書き情報の例を示す図である。 手書き情報の例を示す図である。 手書き情報の例を示す図である。 ロボットの外観構成例を示す外観斜視図である。 ロボットのブロック構成例を示すブロック図である。 ロボットが取得した撮像画像の例を示す図である。 第1学習済みモデルが出力する把持可能領域の例を示す図である。 手書き情報の例を示す図である。 第2学習済みモデル用の教師データの例を示す図である。 第2学習済みモデル用の教師データの例を示す図である。 遠隔端末のブロック構成例を示すブロック図である。 実施の形態1に係る遠隔操作システムの全体的な処理の流れの例を示すフロー図である。 ロボットが存在する第1環境の例を示す図である。 遠隔端末に表示された撮像画像に対する手書き情報の入力の流れを説明するための図である。 遠隔端末に表示された撮像画像に対して最終的に入力された手書き情報の例を示す図である。 図15のステップS15の処理の詳細な流れの例を示すフロー図である。 認識部によって認識されたロボットの移動可能領域及び移動不可能領域の一例を示す図である。 認識部によって認識されたロボットの移動可能領域及び移動不可能領域の一例を示す図である。 認識部によって認識されたロボットの移動可能領域及び移動不可能領域を用いた、ロボットの動作内容の推定方法、を説明するための図である。 ロボットによって搬送される把持対象物の迂回経路を示す図である。 手書き情報の例を示す図である。 手書き情報が複数入力された例を示す図である。
以下、発明の実施形態を通じて本発明を説明するが、特許請求の範囲に係る発明を以下の実施形態に限定するものではない。また、実施形態で説明する構成の全てが課題を解決するための手段として必須であるとは限らない。また、以下の実施形態では、被操作対象として、アームの先端のハンドをエンドエフェクタとして備えるロボットを例に挙げて説明するが、被操作対象はこれに限定されるものではない。
<実施の形態1>
図1は、実施の形態1に係る遠隔操作システム10が利用される全体環境の例を示す概念図である。第1環境において様々な動作を実行するロボット100は、第1環境から離れた第2環境に居る遠隔操作者たるユーザが遠隔端末300(操作端末)を操作することにより、インターネット600に接続されたシステムサーバ500を介して、遠隔操作される。
ロボット100は、第1環境において、無線ルータ700を介してインターネット600と接続されている。また、遠隔端末300は、第2環境において、無線ルータ700を介してインターネット600と接続されている。システムサーバ500は、インターネット600に接続されている。ロボット100は、ユーザによる遠隔端末300の操作に従って、ハンド124による把持対象物の把持動作や、把持対象物の現在地から目的地までの搬送動作などを実行する。
なお、本実施形態においては、ハンド124による把持対象物の把持動作には、把持対象物を単に把持する(つかむ)動作に限らず、例えば、以下の動作等も含むとする。
・把持対象物をつかんで持ち上げる動作
・把持対象物がタンス等の扉や引き出しのつまみである場合、つまみをつかんで扉や引き出しを開閉する動作
・把持対象物がドアのドアノブである場合、ドアノブをつかんでドアを開閉する動作
また、本実施の形態においては、把持対象物の現在地から目的地までの搬送動作には、ロボット100の走行によって把持対象物を搬送する動作や、ロボット100を走行させずに、例えばアーム操作によってハンド124に把持された把持対象物を搬送する動作などが含まれる。
ロボット100は、ステレオカメラ131(撮像部)を用いて、ロボット100が存在する第1環境を撮像し、その撮像画像を、インターネット600を介して、遠隔端末300に送信する。また、ロボット100は、その撮像画像に基づいて、ハンド124が把持可能な把持可能物を認識する。
図2は、ロボット100が存在する第1環境の例を示す図である。図2の例では、第1環境において、テーブル400、タンス410,420,430、及びドア440が存在している。また、第1環境に存在する把持可能物は、テーブル400に載置された物体401,402、タンス410のつまみ411、タンス420のつまみ421,422、タンス430のつまみ431,432、及びドア440のドアノブ441である。
遠隔端末300は、例えば、タブレット端末であり、タッチパネルが重畳して配置された表示パネル341を有する。表示パネル341には、ロボット100から受信した撮像画像が表示され、ユーザは、ロボット100が存在する第1環境を間接的に視認することができる。また、ユーザは、表示パネル341に表示された撮像画像に対して、把持対象物に対するロボット100の動作内容を模擬した画像(第1画像)である手書き情報を手書きで入力することができる。
手書き情報の入力方法としては、表示パネル341に重畳して配置されたタッチパネル上で、ユーザの指やタッチペン等を用いて、撮像画像の該当部分をタッチする方法等があるが、これには限定されない。図3~図6は、撮像画像310に対して入力された手書き情報の例を示す図である。図3の例は、テーブル400に載置された直方体状の物体401を上からつかむことを模擬した手書き情報901を示している。図4の例は、テーブル400に載置された円柱状の物体402を横からつかむことを模擬した手書き情報902を示している。図5の例は、タンス410のつまみ411をつかんで扉を開けることを模擬した手書き情報903を示している。図6の例は、テーブル400に載置された円柱状の物体402を横からつかんで、テーブル400上の別の位置に移動させることを模擬した手書き情報904を示している。なお、手書き情報904は、円柱状の物体402を横からつかむことを模擬した手書き情報904aと、物体402の搬送経路を模擬した手書き情報904bと、物体402の移動先(目的地)を模擬した手書き情報904cと、によって構成されている。図3~図6に示されるように、手書き情報の画像は、線等の図形のみからなる画像でもよく、線等の図形と文字との組み合わせからなる画像でもよい。ユーザが撮像画像に対して入力した手書き情報は、インターネット600を介してロボット100へ送信される。
なお、遠隔端末300は、タブレット端末に限られないし、遠隔端末300に入力される手書き情報は、ユーザの指やタッチペン等を用いてタッチパネルをタッチすることにより入力される場合に限られない。例えば、遠隔端末300は、VR(Virtual Reality)ゴーグルであって、遠隔端末300に入力される手書き情報は、VRゴーグルを装着したユーザがVRコントローラを操作することによって、VRゴーグルにおいて表示される撮像画像に対して入力されてもよい。
ロボット100は、撮像画像から認識した把持可能物と、その撮像画像に対してユーザが入力した手書き情報と、に基づいて、把持可能物の中からハンド124による把持が要求されている把持対象物を推定するとともに、ロボット100に要求されている把持対象物に対する動作内容を推定する。なお、ロボット100に要求されている把持対象物に対する動作内容には、例えば、ハンド124による把持対象物の把持動作の仕方や、把持対象物の現在地から目的地までの搬送動作の仕方などが含まれる。
図7は、ロボット100の外観構成例を示す外観斜視図である。ロボット100は、大きく分けて、台車部110と本体部120とによって構成される。台車部110は、円筒形状の筐体内に、それぞれが走行面に接地する2つの駆動輪111と1つのキャスター112とを支持している。2つの駆動輪111は、互いに回転軸芯が一致するように配設されている。それぞれの駆動輪111は、不図示のモータによって独立して回転駆動される。キャスター112は、従動輪であり、台車部110から鉛直方向に延びる旋回軸が車輪の回転軸から離れて車輪を軸支するように設けられており、台車部110の移動方向に倣うように追従する。
台車部110は、上面の周縁部にレーザスキャナ133を備える。レーザスキャナ133は、水平面内の一定の範囲をステップ角ごとにスキャンして、それぞれの方向に障害物が存在するか否かを出力する。さらに、レーザスキャナ133は、障害物が存在する場合には、その障害物までの距離を出力する。
本体部120は、主に、台車部110の上面に搭載された胴部121、胴部121の上面に載置された頭部122、胴部121の側面に支持されたアーム123、及びアーム123の先端部に設置されたハンド124を備える。アーム123とハンド124は、不図示のモータを介して駆動され、把持対象物を把持する。胴部121は、不図示のモータの駆動力により、台車部110に対して鉛直軸周りに回転することができる。
頭部122は、主に、ステレオカメラ131及び表示パネル141を備える。ステレオカメラ131は、同じ画角を有する2つのカメラユニットが互いに離間して配置された構成を有し、それぞれのカメラユニットで撮像された撮像信号を出力する。
表示パネル141は、例えば液晶パネルであり、設定されたキャラクターの顔をアニメーションで表示したり、ロボット100に関する情報をテキストやアイコンで表示したりする。表示パネル141にキャラクターの顔を表示すれば、表示パネル141が擬似的な顔部であるかの印象を周囲の人達に与えることができる。
頭部122は、不図示のモータの駆動力により、胴部121に対して鉛直軸周りに回転することができる。そのため、ステレオカメラ131は、任意の方向を撮像することができ、また、表示パネル141は、任意の方向へ向けて表示内容を呈示することができる。
図8は、ロボット100のブロック構成例を示すブロック図である。ここでは、把持対象物の推定、及び、ロボット100による把持対象物に対する動作内容の推定、に関する主な要素について説明するが、ロボット100の構成としては他の要素も備え、また、把持対象物の推定、及び、ロボット100による把持対象物に対する動作内容の推定、に寄与する他の要素が加えられることもあり得る。
制御部150は、例えばCPUであり、例えば胴部121に備えられたコントロールユニットに格納されている。台車駆動ユニット145は、駆動輪111と、駆動輪111を駆動するための駆動回路やモータと、を含む。制御部150は、台車駆動ユニット145へ駆動信号を送ることにより、駆動輪の回転制御を実行する。また、制御部150は、台車駆動ユニット145からエンコーダ等のフィードバック信号を受け取って、台車部110の移動方向や移動速度を把握する。
上体駆動ユニット146は、アーム123及びハンド124と、胴部121及び頭部122と、これらを駆動するための駆動回路やモータと、を含む。制御部150は、上体駆動ユニット146へ駆動信号を送ることにより、把持動作やジェスチャーを実現する。また、制御部150は、上体駆動ユニット146からエンコーダ等のフィードバック信号を受け取って、アーム123及びハンド124の位置や移動速度、胴部121及び頭部122の向きや回転速度を把握する。
表示パネル141は、制御部150が生成した画像信号を受信して表示する。また、制御部150は、上述のように、キャラクター等の画像信号を生成して、表示パネル141へ表示させる。
ステレオカメラ131は、制御部150からの要求に従って、ロボット100が存在する第1環境を撮像し、撮像信号を制御部150へ引き渡す。制御部150は、撮像信号を用いて画像処理を実行したり、予め定められたフォーマットに従って撮像信号を撮像画像に変換したりする。レーザスキャナ133は、制御部150からの要求に従って移動方向に障害物が存在するか否かを検出し、その検出結果である検出信号を制御部150へ引き渡す。
ハンドカメラ135は、例えば距離画像センサであり、把持対象物の距離、形状、方向等を認識するために用いられる。ハンドカメラ135は、対象空間から入射する光学像を光電変換するピクセルが二次元状に配列された撮像素子を含み、ピクセルごとに被写体までの距離を制御部150へ出力する。具体的には、ハンドカメラ135は、パターン光を対象空間に照射する照射ユニットを含み、その反射光を撮像素子で受光して、画像におけるパターンの歪みや大きさから各ピクセルが捉えた被写体までの距離を出力する。なお、制御部150は、より広い周辺環境の様子をステレオカメラ131で把握し、把持対象物近傍の様子をハンドカメラ135で把握する。
メモリ180は、不揮発性の記憶媒体であり、例えばソリッドステートドライブが用いられる。メモリ180は、ロボット100を制御するための制御プログラムの他にも、制御や演算に用いられる様々なパラメータ値、関数、ルックアップテーブル等を記憶している。特に、メモリ180は、撮像画像を入力画像として、その撮像画像にうつっている把持可能物を出力する第1学習済みモデル181と、手書き情報の画像を入力画像として、その手書き情報が模擬するロボット100の動作内容の意味を出力する第2学習済みモデル182と、撮像画像を入力画像として、その撮像画像にうつっているロボット100の移動可能領域及び移動不可能領域を出力する第3学習済みモデル183と、を記憶している。
通信ユニット190は、例えば無線LANユニットであり、無線ルータ700との間で無線通信を行う。通信ユニット190は、遠隔端末300から送られてくる手書き情報を受信して制御部150へ引き渡す。また、通信ユニット190は、制御部150の制御に従って、ステレオカメラ131で撮像された撮像画像を遠隔端末300へ送信する。
制御部150は、メモリ180から読み出した制御プログラムを実行することによりロボット100全体の制御と様々な演算処理とを実行する。また、制御部150は、制御に関わる様々な演算や制御を実行する機能実行部としての役割も担う。このような機能実行部として、制御部150は、認識部151、推定部152、及び、画像調整部153を含む。
(認識部151の詳細)
認識部151は、主に、ステレオカメラ131によって撮像された撮像画像にうつっている、ハンド124が把持可能な把持可能領域、を抽出し、把持可能物として認識する。以下、具体的に説明する。
まず、認識部151は、メモリ180から読み出した第1学習済みモデル181を用いて、ステレオカメラ131によって撮像された撮像画像にうつっている、ハンド124が把持可能な把持可能領域、を抽出し、把持可能物として認識する。
図9は、ロボット100がステレオカメラ131により取得した、第1環境の撮像画像310の例を示す図である。図9の撮像画像310には、つまみ411を備えるタンス410と、つまみ421,422を備えるタンス420と、がうつっている。認識部151は、このような撮像画像310を入力画像として第1学習済みモデル181に与える。
図10は、図9の撮像画像310を入力画像とした場合に、第1学習済みモデル181が出力する把持可能領域の例を示す図である。具体的には、つまみ411を囲む領域が把持可能領域801として、つまみ421を囲む領域が把持可能領域802として、つまみ422を囲む領域が把持可能領域803として、それぞれ検出される。そのため、認識部151は、把持可能領域801,802,803にそれぞれ囲まれたつまみ411,421,422を、把持可能物として認識する。
第1学習済みモデル181は、ハンド124が把持可能な把持可能物がうつる画像と、その画像のうちどの領域が把持可能物であるかの正解値と、の組み合わせである教師データにより学習を行ったニューラルネットワークである。このとき、第1学習済みモデル181は、画像中の把持可能物の距離及び方向に関する情報を含む教師データにより学習を行うことで、撮像画像から把持可能物だけでなく把持可能物の距離及び方向に関する情報も抽出可能な学習済みモデルとなる。なお、第1学習済みモデル181は、深層学習により学習を行ったニューラルネットワークであるとよい。また、第1学習済みモデル181は、教師データを随時追加して、追加学習をさせてもよい。
また、認識部151は、把持可能物を認識するだけでなく、ロボット100の移動可能領域及び移動不可能領域を認識する。認識部151による、ロボット100の移動可能領域及び移動不可能領域、の認識処理の流れは、基本的には、把持可能物の認識処理の場合と同様である。
つまり、認識部151は、メモリ180から読み出した第3学習済みモデル183を用いて、ステレオカメラ131によって撮像された撮像画像にうつっている、ロボット100の移動可能領域及び移動不可能領域、を抽出し、それらを認識する。ここで、第3学習済みモデル183は、ロボット100の移動可能領域がうつる画像と、その画像のうちどの領域がロボット100の移動可能領域であるかの正解値と、の組み合わせである教師データにより学習を行うとともに、ロボット100の移動不可能領域がうつる画像と、その画像のうちどの領域がロボット100の移動不可能領域であるかの正解値と、の組み合わせである教師データにより学習を行ったニューラルネットワークである。
(推定部152の詳細)
推定部152は、認識部151が認識した把持可能物の中からハンド124による把持が要求されている把持対象物を推定するとともに、ロボット100に要求されている把持対象物に対する動作内容を推定する。以下、具体的に説明する。
まず、推定部152は、認識部151が撮像画像から認識した把持可能物と、その撮像画像に対してユーザが入力した手書き情報と、に基づいて、認識部151が認識した把持可能物の中からハンド124による把持が要求されている把持対象物を推定する。
図11は、遠隔端末300において、ユーザが図9の撮像画像310に対して入力した手書き情報の例を示す図である。図11の例では、撮像画像310上のつまみ411の位置において、手書き情報905が入力されている。そのため、推定部152は、認識部151が把持可能物として認識したつまみ411,421,422のうち、ハンド124による把持が要求されている把持対象物が、つまみ411であると推定する。なお、推定部152は、撮像画像310上の手書き情報905の入力位置を任意の方法で認識することができる。例えば、遠隔端末300が、撮像画像310上の手書き情報905の入力位置を示す位置情報を、手書き情報905に含めて送信することとすれば、推定部152は、その位置情報に基づいて、手書き情報905の入力位置を認識できる。又は、遠隔端末300が、手書き情報905が入力された状態に加工された撮像画像310を送信することとすれば、推定部152は、その撮像画像310に基づいて、手書き情報905の入力位置を認識できる。
さらに、推定部152は、メモリ180から読み出した第2学習済みモデル182を用いて、撮像画像に対してユーザが入力した手書き情報の画像から、その手書き情報が模擬するロボット100の動作内容の意味を得て、ロボット100に要求されている把持対象物に対する動作内容を推定する。
第2学習済みモデル182は、手書き情報の画像と、その手書き情報が模擬するロボット100の動作内容の意味と、の組み合わせである教師データにより学習を行ったニューラルネットワークである。図12は、第2学習済みモデル182用の教師データの例を示す図である。図12の例は、「つかむ」という把持動作を意味する3つの画像と、「開ける」という把持動作を意味する4つの画像と、「搬送する」という搬送動作を意味する4つの画像と、を第2学習済みモデル182に学習させるための教師データである。また、図12の教師データと比較して、より細かい教師データを第2学習済みモデル182に学習させてもよい。図13は、「つかむ」という把持動作をより細かく第2学習済みモデル182に学習させるための教師データの例を示す図である。図13の例は、「上からつかむ」、「横からつかむ」、「斜め上から掴む」という把持動作をそれぞれ意味する画像を、第2学習済みモデル182に学習させるための教師データである。なお、第2学習済みモデル182は、深層学習により学習を行ったニューラルネットワークであるとよい。また、第2学習済みモデル182は、教師データを随時追加して、追加学習をさせてもよい。
図11の例では、推定部152は、第2学習済みモデル182から、手書き情報904が「開ける」という把持動作の意味であることを認識する。そのため、推定部152は、ロボット100に要求されている把持対象物に対する動作内容が、把持対象物であるつまみ411をつかんで扉を開ける、という動作内容であると推定する。
なお、認識部151によって認識されたロボット100の移動可能領域及び移動不可能領域を用いた、推定部152による、ロボット100に要求されている把持対象物に対する動作内容、のより細かな推定方法については、後述する。
(画像調整部153の概要)
画像調整部153は、遠隔端末300の表示パネル341に表示される撮像画像に対してユーザが入力した手書き情報に追従して、ステレオカメラ131による撮像方向及び撮像範囲を変更し、ステレオカメラ131が撮像したその撮像画像を、遠隔端末300の表示パネル341に表示させる。画像調整部153の詳細については、後述する。
以上のようにして、制御部150において推定部152は、ハンド124による把持が要求されている把持対象物と、ロボット100に要求されている把持対象物に対する動作内容と、を推定することができる。また、制御部150は、第1学習済みモデル181の学習内容によっては、ステレオカメラ131により取得した撮像画像から、把持対象物の距離及び方向を得ることができる。なお、制御部150は、把持対象物の距離及び方向を、第1環境の撮像画像を画像解析することによって得てもよいし、その他のセンサによる検出結果から得てもよい。また、制御部150は、レーザスキャナ133からの検出信号によりロボット100の移動方向に障害物が存在するか否かを検出することもできる。
そのため、制御部150は、把持対象物の距離、方向、及び、障害物の存在の有無等に基づいて、ロボット100が、現在位置から、障害物を回避しつつ、把持対象物の近傍に移動させるための経路を生成し、生成した経路に応じた駆動信号を、台車駆動ユニット145へ送信する。台車駆動ユニット145は、その駆動信号に応じて、把持対象物の近傍にロボット100を移動させる。
制御部150は、ロボット100が把持対象物の近傍に移動した時点で、ロボット100に要求されている把持対象物に対する動作を開始するための準備を行う。具体的には、まず、制御部150は、ハンドカメラ135が把持対象物を観察できる位置へアーム123を駆動する。続いて、制御部150は、ハンドカメラ135に把持対象物を撮像させ、把持対象物の状態を認識する。
そして、制御部150は、把持対象物の状態と、ロボット100に要求されている把持対象物に対する動作内容と、に基づいて、ロボット100に要求されている把持対象物に対する動作内容を実現するための、ロボット100の各部位の動作の詳細を決定する。
例えば、制御部150は、ハンド124による把持対象物の把持動作を実現するための、ハンド124の軌道を生成する。このとき、制御部150は、所定の把持条件を満たすように、ハンド124の軌道を生成する。所定の把持条件は、ハンド124が把持対象物を把持するときの条件や、ハンド124が把持対象物を把持するまでの軌道の条件等を含む。ハンド124が把持対象物を把持するときの条件は、例えば、ハンド124が把持対象物を把持するときに、アーム123を伸ばし過ぎないようにする等である。また、ハンド124が把持対象物を把持するまでの軌道の条件は、例えば、把持対象物が引き出しのつまみである場合、ハンド124が直線軌道を取ること等である。
制御部150は、ハンド124の軌道を生成すると、生成した軌道に応じた駆動信号を上体駆動ユニット146へ送信する。ハンド124は、その駆動信号に応じて、把持対象物に対する把持動作を行う。
或いは、制御部150は、ロボット100による把持対象物の搬送動作を実現するための、ハンド124の軌道、及び、ロボット100の移動経路(走行経路)を生成する。この場合、制御部150は、生成したハンド124の軌道に応じた駆動信号を上体駆動ユニット146へ送信し、生成したロボット100の移動経路に応じた駆動信号を台車駆動ユニット145へ送信する。ハンド124及びロボット100は、それらの駆動信号に応じて、把持対象物の搬送動作を行う。
図14は、遠隔端末300のブロック構成例を示すブロック図である。ここでは、ロボット100から受信した撮像画像に対して手書き情報を入力する処理に関係する主な要素について説明するが、遠隔端末300の構成としては他の要素も備え、また、手書き情報を入力する処理に寄与する他の要素が加えられることもあり得る。
演算部350は、例えばCPUであり、メモリ380から読み出した制御プログラムを実行することにより遠隔端末300全体の制御と様々な演算処理とを実行する。表示パネル341は、例えば液晶パネルであり、例えばロボット100から送られてきた撮像画像を表示する。
入力ユニット342は、表示パネル141に重畳して配置されたタッチパネルや、表示パネル141の周縁部に設けられた押しボタン等を含む。入力ユニット342は、ユーザがタッチパネルを指やタッチペンを用いてタッチすることにより入力された、把持対象物に対するロボット100の動作内容を模擬した画像である手書き情報を、演算部350へ引き渡す。手書き情報の例は、図3~図6に示した通りである。
メモリ380は、不揮発性の記憶媒体であり、例えばソリッドステートドライブが用いられる。メモリ380は、遠隔端末300を制御するための制御プログラムの他にも、制御や演算に用いられる様々なパラメータ値、関数、ルックアップテーブル等を記憶している。
通信ユニット390は、例えば無線LANユニットであり、無線ルータ700との間で無線通信を行う。通信ユニット390は、ロボット100から送られてくる撮像画像を受信して演算部350へ引き渡す。また、通信ユニット390は、演算部350と協働して、手書き情報をロボット100へ送信する。
続いて、図15~図18を用いて、本実施形態に係る遠隔操作システム10の全体的な処理について説明する。
図15は、本実施形態に係る遠隔操作システム10の全体的な処理の流れの例を示すフロー図である。図15において、左側のフローはロボット100の処理フローを表し、右側のフローは遠隔端末300の処理フローを表す。また、点線の矢印は、ロボット100と遠隔端末300との間でシステムサーバ500を介して行われる手書き情報や撮像画像の受け渡し、を表す。
図16は、ロボット100が存在する第1環境の例を示す図である。なお、図16の例では、図示しないロボット100が、第1環境において、紙面と対向する領域に配置されているものとする。したがって、図16の例では、ロボット100が、ステレオカメラ131を用いて、第1所定領域A1を撮像したり、第2所定領域A2を撮像したりすることができる。以下では、ユーザが、遠隔操作によって、ロボット100に、テーブル400上に配置された物体402をタンス420の上に搬送させる場合について説明する。
また、図17は、遠隔端末300に表示された撮像画像に対する手書き情報の入力の流れを説明するための図である。さらに、図18は、遠隔端末300に表示された撮像画像に対して最終的に入力された手書き情報の例を示す図である。
ロボット100において、制御部150は、ステレオカメラ131を用いて、ロボット100が存在する第1環境の第1所定領域A1を撮像し(ステップS11)、その撮像画像を、通信ユニット190を介して遠隔端末300へ送信する(ステップS12)。
遠隔端末300において、演算部350は、ロボット100から送信された第1所定領域A1の撮像画像を受信すると、受信した撮像画像を表示パネル341に表示する。以降、演算部350は、撮像画像に対する手書き情報の入力を受け付ける状態に遷移する(ステップS31)。その後、ユーザは、タッチパネルである入力ユニット342を介して、撮像画像に対する手書き情報の入力を開始する(ステップS31のYes)。
ここで、表示パネル341に表示されている撮像画像のうち、手書き情報において指定されている一部の領域が、表示パネル341に表示される撮像画像の所定の外周辺領域311である場合(ステップS32のYes)、演算部350は、その手書き情報を、通信ユニット390を介してロボット100へ送信する(ステップS33)。
図17の(a)の例では、表示パネル341に表示されている所定領域A1の撮像画像のうち、手書き情報906において表されている把持対象物402の搬送経路の一部の領域P1が、表示パネル341に表示される撮像画像の所定の外周辺領域311である(ステップS32のYes)。この場合、演算部350は、その手書き情報906を、通信ユニット390を介してロボット100へ送信する(ステップS33)。
このとき、ロボット100において、画像調整部153は、ステレオカメラ131を用いて、撮像領域を第1所定領域A1から第2所定領域A2に変更して撮像し(ステップS13)。その撮像画像を、通信ユニット190を介して遠隔端末300へ送信する(ステップS14)。ここで、画像調整部153は、第2所定領域A2が、手書き情報において指定されている前記一部の領域と、第1所定領域A1に隣接する領域と、を少なくとも含む領域となるように、ステレオカメラ131の撮像方向及び撮像範囲等を調整する。第2所定領域A2は、第1所定領域A1の全部又は一部を含んでいてもよい。
遠隔端末300において、演算部350は、ロボット100から送信された第2所定領域A2の撮像画像を受信すると、受信した撮像画像を表示パネル341に表示する。つまり、演算部350は、表示パネル341に表示する撮像画像を第1所定領域A1の撮像画像から第2所定領域A2の撮像画像に切り替える。
図17の(b)の例では、表示パネル341に表示される撮像画像が第1所定領域A1の撮像画像から第2所定領域A2の撮像画像に切り替わっている。また、第2所定領域A2の撮像画像は、手書き情報906において表されている把持対象物402の搬送経路の一部の領域P1と、第1所定領域A1に隣接する領域と、を少なくとも含む領域の撮像画像となっている。
このように、手書き情報において指定される撮像画像の一部の領域が、撮像画像の端の領域などの視認性が低い領域であっても、表示パネル341に表示される撮像画像が、手書き情報において指定される領域に追従して切り替わるため、高い視認性が維持される。その結果、ユーザは、例えば第1所定領域A1から第2所定領域A2までの広範囲にわたる手書き情報を入力することが可能となる。
図17の(c)の例では、第1所定領域A1から第2所定領域A2にかけて連続して、
手書き情報906が入力されている。
なお、表示パネル341に表示されている撮像画像のうち、手書き情報において指定されている領域(例えば、手書き情報において表されている把持対象物の搬送経路)が、表示パネル341に表示される撮像画像の所定の外周辺領域311でない場合(ステップS32のNo)、表示パネル341に表示される撮像画像は切り替わらない。
その後、ユーザは、撮像画像に対する手書き情報の入力を終了させたい場合、所定の手書き終了操作を行う。例えば、ユーザは、撮像画像に対する手書き情報の入力を終了させたい場合、タッチパネルの任意の箇所をダブルクリックの要領で2回連続タッチする。或いは、タッチパネルの同一箇所を所定時間以上タッチし続ける。或いは、表示パネル341に操作ボタンが表示されている場合には、手書き情報の入力を終了させるボタン上のタッチパネルの領域をタッチする。
図17の(d)の例では、ユーザが、所定の手書き終了操作として、タッチパネルの任意の箇所をダブルクリックの要領で2回連続タッチして、撮像画像に対して手書き情報907を入力している。
それにより、演算部350は、撮像画像に対する手書き情報の入力の受け付けを終了し(ステップS34のYes)、図18に示すような手書き情報906を、通信ユニット390を介してロボット100へ送信する(ステップS35)。
ロボット100において、認識部151は、遠隔端末300から送信された、撮像画像に対して入力された手書き情報、を受信すると、その撮像画像に基づいて把持可能物を認識する。推定部152は、認識部151が撮像画像から認識した把持可能物と、その撮像画像に対して入力された手書き情報と、に基づいて、認識部151が認識した把持可能物の中からハンド124による把持が要求されている把持対象物を推定するとともに、ロボット100に要求されている把持対象物に対する動作内容を推定する(ステップS15)。
図18の例では、推定部152が、認識部151が認識した複数の把持可能物の中から物体402を把持対象物として推定するとともに、ロボット100に要求されている把持対象物に対する動作内容が、テーブル400上に配置された把持対象物である物体402をタンス420の上まで搬送すること、であると推定する。
その後、ロボット100において、制御部150は、台車駆動ユニット145を制御して、把持対象物の近傍にロボット100を移動させ、ロボット100が把持対象物の近傍に移動した時点で、ロボット100に要求されている把持対象物に対する動作を実現するための、ロボット100の各部位の動作の詳細を決定する。
例えば、制御部150は、ハンド124による把持対象物に対する把持動作を実現するための、ハンド124の軌道を生成する(ステップS16)。制御部150は、ハンド124の軌道を生成すると、生成した軌道に応じて上体駆動ユニット146を制御する。それにより、ハンド124による把持対象物に対する把持動作が行われる(ステップS17)。
或いは、制御部150は、ロボット100による把持対象物の搬送動作を実現するための、ハンド124の軌道、及び、ロボット100の移動経路(走行経路)を生成する(ステップS16)。制御部150は、ハンド124の軌道、及び、ロボット100の移動経路を生成すると、それらの情報に応じて上体駆動ユニット146及び台車駆動ユニット145を制御する。それにより、ハンド124及びロボット100による把持対象物の搬送動作が行われる(ステップS17)。図18の例でも、ハンド124及びロボット100による把持対象物の搬送動作が行われる。
続いて、図19を用いて、図15のステップS15の処理の詳細について説明する。図19は、ロボット100による図15のステップS15の処理の詳細な流れの例を示すフロー図である。
まず、認識部151は、遠隔端末300から送信された、撮像画像に対して入力された手書き情報、を受信すると、メモリ180から読み出した第1学習済みモデル181を用いて、その撮像画像にうつっている把持可能領域を抽出し、把持可能物として認識する(ステップS151)。
次に、推定部152は、撮像画像上の手書き情報の入力位置に基づいて、認識部151が認識した把持可能物の中から、ハンド124による把持が要求されている把持対象物、を推定する(ステップS152)。なお、撮像画像上の手書き情報の入力位置は、例えば、既に説明した方法を用いて認識される。
次に、認識部151は、メモリ180から読み出した第3学習済みモデル183を用いて、手書き情報が入力された撮像画像にうつっている、ロボット100の移動可能領域及び移動不可能領域、を抽出し、それらを認識する(ステップS153)。なお、認識部151による、ロボット100の移動可能領域及び移動不可能領域の認識処理(セグメンテーション処理)は、把持可能物の認識処理と同時に行われてもよい。
図20は、認識部151によって認識されたロボット100の移動可能領域及び移動不可能領域の一例を示す図である。図20に示す撮像画像310は、図6に示す撮像画像310に対して、認識部151による、ロボット100の移動可能領域及び移動不可能領域、の認識処理を行った例である。図20に示す撮像画像310では、床450が、ロボット100の移動可能領域と認識され、テーブル400が、ロボット100の移動不可能領域と認識されている。なお、図20の例では、把持対象物が物体402であると推定されている。
また、図21は、認識部151によって認識されたロボット100の移動可能領域及び移動不可能領域の他の例を示す図である。図21に示す撮像画像は、図18に示す撮像画像に対して、認識部151による、ロボット100の移動可能領域及び移動不可能領域、の認識処理を行った例である。図21に示す撮像画像では、床450が、ロボット100の移動可能領域と認識され、テーブル400及びタンス420が、ロボット100の移動不可能領域と認識されている。また、把持対象物である物体401以外の把持可能物(例えば物体402)等も移動不可能領域と認識されている。なお、図21の例では、把持対象物が物体402であると推定されている。
次に、推定部152は、メモリ180から読み出した第2学習済みモデル182を用いて、手書き情報の画像から、その手書き情報が模擬するロボット100の動作内容の意味を得て、ロボット100に要求されている把持対象物に対する動作内容を推定する(ステップS154)。
例えば、図20の例では、推定部152は、手書き情報904の画像から、ロボット100に要求されている動作内容が、手書き情報904aが表す把持の対象である物体402を、手書き情報904bが表す搬送経路に沿って、手書き情報904cが表す目的地まで搬送すること、であると推定する。ここで、図20の例では、手書き情報904に表される物体402の搬送経路の全てが、ロボット100の移動不可能領域に存在している。この場合、推定部152は、手書き情報904によって表される物体402の搬送経路の全てを、ロボット100の走行経路ではなく、ロボット100のアームの先端部に取り付けられたハンド124の、アーム操作による移動経路、と推定する。
また、図21の例では、推定部152は、手書き情報906の画像から、ロボット100に要求されている動作内容が、手書き情報906aが表す把持の対象である物体402を、手書き情報906bが表す搬送経路に沿って、手書き情報906cが表す目的地まで搬送すること、であると推定する。ここで、図21の例では、手書き情報906に表される物体402の搬送経路の一部が、ロボット100の移動可能領域に存在し、他の一部が、ロボット100の移動不可能領域に存在している。具体的には、図22に示すように、手書き情報906bによって表される搬送経路のうち、搬送経路R2が、ロボット100の移動可能領域に存在し、搬送経路R1,R3が、ロボット100の移動不可能領域に存在している。この場合、推定部152は、手書き情報906bによって表される搬送経路のうち、ロボット100の移動可能領域に位置する搬送経路R2を、ロボット100の移動経路(走行経路)と推定し、且つ、ロボット100の移動不可能領域に位置する搬送経路R1,R3を、ロボット100のアームの先端部に取り付けられたハンド124の、アーム操作による移動経路、と推定する。
なお、推定部152は、手書き情報によって表される搬送経路上に、2つの移動可能領域に挟まれた移動不可能領域が存在する場合には、2つの移動可能領域に挟まれた移動不可能領域が存在しないような、把持対象物の迂回経路を推定するようにしてもよい。ロボット100は、この迂回経路の情報を出力する出力部を有し、例えば、遠隔端末300の表示パネル341に表示させてもよい。図23の例では、手書き情報906によって表される搬送経路上に、2つの移動可能領域に挟まれた移動不可能領域(障害物451)が存在する。この場合、推定部152は、例えば、障害物451を回避するような迂回経路916を推定し、ユーザに提案してもよい。
以上のように、本実施形態に係る遠隔操作システム10では、ロボット100において、認識部151が、ロボット100が存在する環境を撮像した撮像画像に基づいて、ハンド124が把持可能な把持可能物を認識する。また、推定部152が、認識部151が撮像画像から認識した把持可能物と、その撮像画像に対してユーザが入力した手書き情報と、に基づいて、把持可能物の中からハンド124による把持が要求されている把持対象物を推定するとともに、ロボット100に要求されている把持対象物に対する動作内容(把持動作や搬送動作)を推定する。
それにより、本実施の形態に係る遠隔操作システム10では、ユーザが、予め設定された指示図形を思い出しながら手書き入力を行わずに、より直感的な手書き入力を行うことによって、ロボット100に対して把持対象物を搬送する等の所望の処理を実行させることができる。
また、本実施の形態に係る遠隔操作システム10では、遠隔端末300の表示パネル341に表示される撮像画像が、手書き情報において指定される領域に追従して切り替わるため、高い視認性が維持され、例えば、広範囲にわたる手書き情報の入力が可能となる。つまり、この遠隔操作システム10は、操作の利便性を向上させることができる。
さらに、本実施の形態に係る遠隔操作システム10では、手書き情報に把持対象物の搬送経路の情報が含まれる場合、当該搬送経路が、ロボット100の移動経路(走行経路)を表しているのか、ハンド124の移動経路を表しているのか、を自動判別している。そのため、この遠隔操作システム10は、ユーザによる直感的な操作を可能にしたまま、ロボット100に精度の高い処理を実行させることができる。
なお、本発明は上記実施形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。
上記実施の形態では、一例として、手書き情報が、ハンド124に要求されている把持対象物に対する把持動作の仕方を模擬した画像である場合について説明したが、これには限定されない。手書き情報は、把持動作の程度を示す画像をさらに含んでいてもよい。この場合、推定部152は、手書き情報に基づいて、ハンド124による把持対象物に対する把持動作の程度をさらに推定してもよい。図24は、把持動作の程度を示す画像を含む手書き情報の例を示す図である。図24の例は、図5の手書き情報903と同様の画像に、把持動作の程度を示す「30°」という画像が追加された手書き情報908を示している。図24の例では、推定部152は、ハンド124に要求されているつまみ411に対する把持動作は、つまみ411をつかんで扉を30°開ける、という動作であると推定する。これにより、ユーザは、よりきめ細やかな直感的な操作が可能になる。
また、上記実施の形態では、撮像画像に対して1つの手書き情報が入力される例について説明したが、これには限定されない。撮像画像に対しては複数の手書き情報が入力されてもよい。撮像画像に対して複数の手書き情報が入力された場合、推定部152は、手書き情報毎に、把持対象物及びロボットの動作内容を推定する。このとき、推定部152は、先に入力された手書き情報によって推定された把持対象物に対するロボットの動作を優先的に行う、と推定してもよい。或いは、複数の手書き情報は、それぞれ把持動作の順番を示す画像をさらに含んでいてもよい。この場合、推定部152は、手書き情報に基づいて、把持動作の順番をさらに推定する。図25は、把持動作の順番を示す画像を含む手書き情報が複数入力された例を示す図である。図25の例は、撮像画像310に対して、つまみ422に対する手書き情報909、及び、つまみ411に対する手書き情報910、という2つの手書き情報が入力された例を示している。ここで、手書き情報909は、把持動作の順番を示す「1」という画像を含み、手書き情報910は、把持動作の順番を示す「2」という画像を含んでいる。そのため、図25の例では、推定部152は、1番目に、ハンド124によるつまみ422に対する把持動作(つまみ422をつかんで引き出しを開ける、という動作)を実行し、2番目に、ハンド124によるつまみ411に対する把持動作(つまみ411をつかんで扉を開ける、という動作)を実行する、と推定する。
また、上記実施の形態では、第1学習済みモデル181、第2学習済みモデル182、及び、第3学習済みモデル183、という3つの学習済みモデルが用いられていたが、これには限定されない。例えば、第1学習済みモデル181、及び、第2学習済みモデル182の代わりに、第1学習済みモデル181の出力を第2学習済みモデル182に適用した転移学習済みモデルが用いられてもよい。この転移学習済みモデルは、例えば、手書き情報が入力された撮像画像を入力画像として、その撮像画像にうつっている把持可能物と、その把持可能物のうちの把持対象物と、その手書き情報が模擬するロボット100による把持対象物に対する動作内容の意味と、を出力するモデルとなる。
また、上記実施の形態では、認識部151、推定部152、及び、画像調整部153がロボット100に備えられていたが、これには限定されない。認識部151、推定部152、及び、画像調整部153の全部又は一部は、遠隔端末300に備えられていてもよいし、システムサーバ500に備えられていてもよい。
また、上記実施の形態では、ロボット100と遠隔端末300とがインターネット600及びシステムサーバ500を介して、撮像画像や手書き情報をやり取りしていたが、これには限定されない。ロボット100と遠隔端末300とは、直接通信によって、撮像画像や手書き情報をやり取りしてもよい。
また、上記実施の形態では、ロボット100に備えられている撮像部(ステレオカメラ131)が用いられていたが、これには限定されない。撮像部は、ロボット100が存在する第1環境の任意の場所に備えられた任意の撮像部であればよい。また、撮像部は、ステレオカメラに限定されず、単眼カメラ等であってもよい。
また、上記実施の形態では、被操作対象が、アーム123の先端のハンド124をエンドエフェクタとして備えるロボット100である例を説明したが、これには限定されない。被操作対象は、エンドエフェクタを備え、エンドエフェクタを用いて把持動作を実行するものであればよい。また、エンドエフェクタは、ハンド以外の他の把持部(例えば、吸着部等)であってもよい。
さらに、本開示は、遠隔操作システム10の処理の一部又は全部を、CPU(Central Processing Unit)にコンピュータプログラムを実行させることにより実現することが可能である。
上述したプログラムは、コンピュータに読み込まれた場合に、実施形態で説明された1又はそれ以上の機能をコンピュータに行わせるための命令群(又はソフトウェアコード)を含む。プログラムは、非一時的なコンピュータ可読媒体又は実体のある記憶媒体に格納されてもよい。限定ではなく例として、コンピュータ可読媒体又は実体のある記憶媒体は、RAM(Random-Access Memory)、ROM(Read-Only Memory)、フラッシュメモリ、SSD(Solid-State Drive)又はその他のメモリ技術、CD-ROM、DVD(Digital Versatile Disc)、Blu-ray(登録商標)ディスク又はその他の光ディスクストレージ、磁気カセット、磁気テープ、磁気ディスクストレージ又はその他の磁気ストレージデバイスを含む。プログラムは、一時的なコンピュータ可読媒体又は通信媒体上で送信されてもよい。限定ではなく例として、一時的なコンピュータ可読媒体又は通信媒体は、電気的、光学的、音響的、またはその他の形式の伝搬信号を含む。
10 遠隔操作システム
100 ロボット
110 台車部
111 駆動輪
112 キャスター
120 本体部
121 胴部
122 頭部
123 アーム
124 ハンド
131 ステレオカメラ
133 レーザスキャナ
135 ハンドカメラ
141 表示パネル
145 台車駆動ユニット
146 上体駆動ユニット
150 制御部
151 認識部
152 推定部
153 画像調整部
180 メモリ
181 第1学習済みモデル
182 第2学習済みモデル
183 第3学習済みモデル
190 通信ユニット
300 遠隔端末
310 撮像画像
311 外周辺領域
341 表示パネル
342 入力ユニット
350 演算部
380 メモリ
390 通信ユニット
400 テーブル
401,402 物体
410,420,430 タンス
411,421,422,431,432 つまみ
440 ドア
441 ドアノブ
450 床
451 障害物
500 システムサーバ
600 インターネット
700 無線ルータ
801~803 把持可能領域
901~908 手書き情報
A1 撮影領域
A2 撮影領域

Claims (13)

  1. エンドエフェクタを備える被操作対象を遠隔操作する遠隔操作システムであって、
    前記被操作対象が存在する環境を撮像する撮像部と、
    前記環境の撮像画像に基づいて、前記エンドエフェクタが把持可能な把持可能物、前記被操作対象の移動可能領域、及び、移動不可能領域、を認識する認識部と、
    前記撮像画像を表示すると共に、前記撮像画像に対する手書き情報の入力を受け付ける操作端末と、
    前記把持可能物と前記手書き情報とに基づいて、前記把持可能物から前記エンドエフェクタによる把持が要求されている把持対象物を推定すると共に、前記被操作対象に要求されている前記把持対象物に対する動作内容を推定する推定部と、を備え、
    前記推定部は、前記手書き情報に前記把持対象物の搬送経路の情報が含まれる場合、前記搬送経路のうち、前記被操作対象の移動可能領域に位置する搬送経路を、前記被操作対象の移動経路と推定し、且つ、前記被操作対象の移動不可能領域に位置する搬送経路を、前記把持対象物を把持した前記エンドエフェクタの移動経路と推定する、
    遠隔操作システム。
  2. 前記推定部は、前記手書き情報に前記把持対象物の搬送経路の情報が含まれている場合において、当該搬送経路上に2つの前記移動可能領域に挟まれた前記移動不可能領域が存在する場合には、2つの前記移動可能領域に挟まれた前記移動不可能領域が存在しないような、前記把持対象物の迂回経路を推定し、
    前記遠隔操作システムは、
    前記推定部により推定された前記迂回経路の情報を出力する出力部をさらに備える、
    請求項1に記載の遠隔操作システム。
  3. 前記出力部は、前記操作端末に、前記迂回経路の情報を表示させる、
    請求項2に記載の遠隔操作システム。
  4. 前記認識部は、前記把持可能物のうち前記把持対象物以外の把持可能物を、前記被操作対象の移動不可能領域として認識する、
    請求項1に記載の遠隔操作システム。
  5. 前記被操作対象は、自立移動可能なロボットである、
    請求項1に記載の遠隔操作システム。
  6. 前記推定部は、前記手書き情報に、前記把持対象物の搬送経路の情報が含まれる場合、前記搬送経路のうち、前記被操作対象の移動可能領域に位置する搬送経路を、前記被操作対象であるロボットの移動経路と推定し、且つ、前記被操作対象の移動不可能領域に位置する搬送経路を、前記ロボットのアームの先端部に取り付けられた前記エンドエフェクタの、前記アームの操作による移動経路と推定する、
    請求項5に記載の遠隔操作システム。
  7. 前記撮像部は、前記被操作対象に取り付けられている、
    請求項1に記載の遠隔操作システム。
  8. 前記撮像部は、前記被操作対象が存在する前記環境の、前記被操作対象とは別の場所に設けられている、
    請求項1に記載の遠隔操作システム。
  9. 前記操作端末は、ユーザによる所定の手書き終了操作を受け付けることによって、前記手書き情報の入力を完了させる、
    請求項1に記載の遠隔操作システム。
  10. 前記手書き情報は、前記把持対象物に対する前記被操作対象の動作内容を模擬した第1画像を含む、
    請求項1に記載の遠隔操作システム。
  11. 前記推定部は、学習済みモデルを用いて、前記手書き情報の前記第1画像から、前記被操作対象に要求されている前記把持対象物に対する動作内容を推定する、
    請求項10に記載の遠隔操作システム。
  12. エンドエフェクタを備える被操作対象を遠隔操作する遠隔操作システムによる遠隔操作方法であって、
    前記被操作対象が存在する環境を撮像し、
    前記環境の撮像画像に基づいて、前記エンドエフェクタが把持可能な把持可能物、前記被操作対象の移動可能領域、及び、移動不可能領域、を認識し、
    前記撮像画像を表示した操作端末において、表示した前記撮像画像に対する手書き情報の入力を受け付け、
    前記把持可能物と前記手書き情報とに基づいて、前記把持可能物から前記エンドエフェクタによる把持が要求されている把持対象物を推定すると共に、前記被操作対象に要求されている前記把持対象物に対する動作内容を推定し、
    前記被操作対象に要求されている前記把持対象物に対する動作内容の推定では、前記手書き情報に前記把持対象物の搬送経路の情報が含まれる場合、前記搬送経路のうち、前記被操作対象の移動可能領域に位置する搬送経路を、前記被操作対象の移動経路と推定し、且つ、前記被操作対象の移動不可能領域に位置する搬送経路を、前記把持対象物を把持した前記エンドエフェクタの移動経路と推定する、
    遠隔操作方法。
  13. エンドエフェクタを備える被操作対象を遠隔操作する遠隔操作システムによる遠隔操作処理をコンピュータに実行させる制御プログラムであって、
    前記被操作対象が存在する環境を撮像する処理と、
    前記環境の撮像画像に基づいて、前記エンドエフェクタが把持可能な把持可能物、前記被操作対象の移動可能領域、及び、移動不可能領域、を認識する処理と、
    前記撮像画像を表示した操作端末において、表示した前記撮像画像に対する手書き情報の入力を受け付ける処理と、
    前記把持可能物と前記手書き情報とに基づいて、前記把持可能物から前記エンドエフェクタによる把持が要求されている把持対象物を推定すると共に、前記被操作対象に要求されている前記把持対象物に対する動作内容を推定する処理と、
    をコンピュータに実行させ、
    前記被操作対象に要求されている前記把持対象物に対する動作内容を推定する処理では、前記手書き情報に前記把持対象物の搬送経路の情報が含まれる場合、前記搬送経路のうち、前記被操作対象の移動可能領域に位置する搬送経路を、前記被操作対象の移動経路と推定し、且つ、前記被操作対象の移動不可能領域に位置する搬送経路を、前記把持対象物を把持した前記エンドエフェクタの移動経路と推定する、
    制御プログラム。
JP2022140229A 2022-09-02 2022-09-02 遠隔操作システム、遠隔操作方法、及び、制御プログラム Pending JP2024035639A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2022140229A JP2024035639A (ja) 2022-09-02 2022-09-02 遠隔操作システム、遠隔操作方法、及び、制御プログラム
US18/456,119 US20240075628A1 (en) 2022-09-02 2023-08-25 Remote control system, remote control method, and control program
CN202311123674.6A CN117644528A (zh) 2022-09-02 2023-08-31 远程操作系统、远程操作方法以及计算机可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022140229A JP2024035639A (ja) 2022-09-02 2022-09-02 遠隔操作システム、遠隔操作方法、及び、制御プログラム

Publications (1)

Publication Number Publication Date
JP2024035639A true JP2024035639A (ja) 2024-03-14

Family

ID=90046633

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022140229A Pending JP2024035639A (ja) 2022-09-02 2022-09-02 遠隔操作システム、遠隔操作方法、及び、制御プログラム

Country Status (3)

Country Link
US (1) US20240075628A1 (ja)
JP (1) JP2024035639A (ja)
CN (1) CN117644528A (ja)

Also Published As

Publication number Publication date
CN117644528A (zh) 2024-03-05
US20240075628A1 (en) 2024-03-07

Similar Documents

Publication Publication Date Title
KR102573687B1 (ko) 원격 조작 시스템 및 원격 조작 방법
JP6942177B2 (ja) ロボットが学習した経路を自律的に走行するように初期化するためのシステムおよび方法
US8155787B2 (en) Intelligent interface device for grasping of an object by a manipulating robot and method of implementing this device
Tölgyessy et al. Foundations of visual linear human–robot interaction via pointing gesture navigation
JP7052652B2 (ja) 移動ロボット、遠隔端末、移動ロボットの制御プログラム、および遠隔端末の制御プログラム
Zhou et al. Use of human gestures for controlling a mobile robot via adaptive cmac network and fuzzy logic controller
JP7188279B2 (ja) 機械学習方法および移動ロボット
JP2022542241A (ja) ロボット装置からの視覚的出力を補強するシステム及び方法
JP7044047B2 (ja) ロボット
JP7124797B2 (ja) 機械学習方法および移動ロボット
JP7047726B2 (ja) 把持ロボットおよび把持ロボットの制御プログラム
CN106468917A (zh) 一种可触摸现场实时视频图像的远程呈现交互方法和系统
JP6067547B2 (ja) 物体認識装置、ロボット及び物体認識方法
JP2024035639A (ja) 遠隔操作システム、遠隔操作方法、及び、制御プログラム
JP2024035640A (ja) 遠隔操作システム、遠隔操作方法、及び、制御プログラム
JP7276108B2 (ja) 遠隔操作システム及び遠隔操作方法
Elarbi-Boudihir et al. Eye-in-hand/eye-to-hand configuration for a wmra control based on visual servoing
Chen et al. A Touch-Based Wheelchair Control Interface: Concept and Implementation
Milecki et al. Application of visual system for hand control of 3D manipulator

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240516