JP2021094604A - 遠隔操作システム及び遠隔操作方法 - Google Patents

遠隔操作システム及び遠隔操作方法 Download PDF

Info

Publication number
JP2021094604A
JP2021094604A JP2019225286A JP2019225286A JP2021094604A JP 2021094604 A JP2021094604 A JP 2021094604A JP 2019225286 A JP2019225286 A JP 2019225286A JP 2019225286 A JP2019225286 A JP 2019225286A JP 2021094604 A JP2021094604 A JP 2021094604A
Authority
JP
Japan
Prior art keywords
gripping
robot
captured image
unit
text
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019225286A
Other languages
English (en)
Other versions
JP7276108B2 (ja
Inventor
山本 貴史
Takashi Yamamoto
貴史 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2019225286A priority Critical patent/JP7276108B2/ja
Priority to US17/087,973 priority patent/US20210178581A1/en
Priority to CN202011453028.2A priority patent/CN112975950B/zh
Publication of JP2021094604A publication Critical patent/JP2021094604A/ja
Application granted granted Critical
Publication of JP7276108B2 publication Critical patent/JP7276108B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1658Programme controls characterised by programming, planning systems for manipulators characterised by programming language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0014Image feed-back for automatic industrial control, e.g. robot with camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/006Controls for manipulators by means of a wireless system for controlling one or several manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/06Control stands, e.g. consoles, switchboards
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1669Programme controls characterised by programming, planning systems for manipulators characterised by special application, e.g. multi-arm co-operation, assembly, grasping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1689Teleoperation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/04Real-time or near real-time messaging, e.g. instant messaging [IM]
    • H04L51/046Interoperability with other network applications or services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/07User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail characterised by the inclusion of specific contents
    • H04L51/10Multimedia information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/07User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail characterised by the inclusion of specific contents
    • H04L51/18Commands or executable codes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/21Monitoring or handling of messages
    • H04L51/216Handling conversation history, e.g. grouping of messages in sessions or threads
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40099Graphical user interface for robotics, visual robot user interface
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40411Robot assists human in non-industrial environment like home or office
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40414Man robot interface, exchange of information between operator and robot
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Manipulator (AREA)
  • Numerical Control (AREA)

Abstract

【課題】より直感的な操作が可能な遠隔操作システムを提供すること。【解決手段】遠隔操作システムは、エンドエフェクタを備える被操作対象が存在する環境を撮像する撮像部と、撮像部が撮像した環境の撮像画像を表示し、表示した撮像画像に対する手書き入力情報の入力を受け付けると共に、ユーザが被操作対象との間でテキストチャットによる対話を行うための機能を具備する操作端末と、撮像画像に対して入力された手書き入力情報と、テキストチャットの対話履歴と、に基づいて、エンドエフェクタによる把持が要求されている把持対象物を推定すると共に、把持対象物に対して要求されているエンドエフェクタによる把持動作の仕方を推定する推定部と、を備える。【選択図】図2

Description

本発明は、遠隔操作システム及び遠隔操作方法に関する。
エンドエフェクタを備える被操作対象(例えば、アームの先端の把持部(例えば、ハンドや吸着部)をエンドエフェクタとして備えるロボット等)を遠隔操作して把持動作等を実行させる技術が知られている。例えば、特許文献1には、ロボット周辺を撮像した撮像画像を表示し、ユーザが撮像画像に対して手書きで入力した指示に基づいて、ロボットに対する操作内容を推定する技術が開示されている。
特許第5326794号公報
しかし、特許文献1に開示された技術は、予め設定された指示図形(〇、×、△等)を手書きで入力することによって、ロボットを遠隔操作するものである。そのため、最近は、被操作対象が実行可能な作業のうち、実際に実行させたい作業の指示を、直感的なユーザインタフェースで実現できる技術が望まれている。
本発明は、このような問題を解決するためになされたものであり、より直感的な操作が可能な遠隔操作システム及び遠隔操作方法を提供するものである。
本発明の第1の態様における遠隔操作システムは、
エンドエフェクタを備える被操作対象を遠隔操作する遠隔操作システムであって、
前記被操作対象が存在する環境を撮像する撮像部と、
前記撮像部が撮像した前記環境の撮像画像を表示し、表示した前記撮像画像に対する手書き入力情報の入力を受け付けると共に、ユーザが前記被操作対象との間でテキストチャットによる対話を行うための機能を具備する操作端末と、
前記撮像画像に対して入力された前記手書き入力情報と、前記テキストチャットの対話履歴と、に基づいて、前記エンドエフェクタによる把持が要求されている把持対象物を推定すると共に、前記把持対象物に対して要求されている前記エンドエフェクタによる把持動作の仕方を推定する推定部と、
を備える。
本発明の第2の態様における遠隔操作方法は、
エンドエフェクタを備える被操作対象を遠隔操作する遠隔操作システムによる遠隔操作方法であって、
前記被操作対象が存在する環境を撮像し、
前記環境の撮像画像を表示した操作端末において、表示した前記撮像画像に対する手書き入力情報の入力を受け付け、
前記被操作対象が、前記操作端末のユーザとの間でテキストチャットによる対話を行い、
前記撮像画像に対して入力された前記手書き入力情報と、前記テキストチャットの対話履歴と、に基づいて、前記エンドエフェクタによる把持が要求されている把持対象物を推定すると共に、前記把持対象物に対して要求されている前記エンドエフェクタによる把持動作の仕方を推定する。
上述した本発明の態様によれば、より直感的な操作が可能な遠隔操作システム及び遠隔操作方法を提供できる。
本実施形態に係る遠隔操作システムが利用される全体環境の例を示す概念図である。 遠隔端末の表示パネルに表示される表示画面の例を示す図である。 遠隔端末の表示パネルに表示される表示画面の例を示す図である。 遠隔端末の表示パネルに表示される表示画面の例を示す図である。 ロボットの外観構成例を示す外観斜視図である。 ロボットのブロック構成例を示すブロック図である。 ロボットが取得した撮像画像の例を示す図である。 学習済みモデルが出力する把持可能領域の例を示す図である。 遠隔端末のブロック構成例を示すブロック図である。 本実施形態に係る遠隔操作システムの全体的な処理の流れの例を示すフロー図である。 遠隔端末の表示パネルに表示される表示画面の例を示す図である。 遠隔端末の表示パネルに表示される表示画面の例を示す図である。
以下、発明の実施形態を通じて本発明を説明するが、特許請求の範囲に係る発明を以下の実施形態に限定するものではない。また、実施形態で説明する構成の全てが課題を解決するための手段として必須であるとは限らない。また、以下の実施形態では、被操作対象として、アームの先端のハンドをエンドエフェクタとして備えるロボットを例に挙げて説明するが、被操作対象はこれに限定されるものではない。
図1は、本実施形態に係る遠隔操作システム10が利用される全体環境の例を示す概念図である。第1環境において様々な動作を実行するロボット100は、第1環境から離れた第2環境に居る遠隔操作者たるユーザが遠隔端末300(操作端末)を操作することにより、インターネット600に接続されたシステムサーバ500を介して、遠隔操作される。
ロボット100は、第1環境において、無線ルータ700を介してインターネット600と接続されている。また、遠隔端末300は、第2環境において、無線ルータ700を介してインターネット600と接続されている。システムサーバ500は、インターネット600に接続されている。ロボット100は、遠隔端末300の操作に従って、ハンド124による把持動作等を実行する。
なお、本実施形態においては、ハンド124による把持動作には、把持対象物を単に把持する(つかむ)動作に限らず、例えば、以下の動作等も含むとする。
・把持対象物をつかんで持ち上げる動作
・把持対象物がタンス等の扉や引き出しのつまみである場合、つまみをつかんで扉や引き出しを開閉する動作
・把持対象物がドアのドアノブである場合、ドアノブをつかんでドアを開閉する動作
ロボット100は、ステレオカメラ131(撮像部)によって、ロボット100が存在する第1環境を撮像し、インターネット600を介して、撮像画像を遠隔端末300に送信する。図1の例は、ロボット100が、第1環境に存在するテーブル400を撮像している様子を示している。
遠隔端末300は、例えば、タブレット端末であり、タッチパネルが重畳して配置された表示パネル341を有する。表示パネル341には、ロボット100から受信した撮像画像が表示され、ユーザは、ロボット100が存在する第1環境を間接的に視認することができる。また、ユーザは、表示パネル341に表示された撮像画像に対して手書き入力情報を手書きで入力することができる。手書き入力情報は、例えば、ハンド124による把持を要求する把持対象物や、把持対象物に対する把持動作の仕方等を指示する情報である。手書き入力情報の入力方法としては、ユーザの指やタッチペン等を用いて、表示パネル341に重畳して配置されたタッチパネルをタッチする方法等があるが、これには限定されない。ユーザが撮像画像に対して入力した手書き入力情報は、インターネット600を介してロボット100へ送信される。
また、遠隔端末300は、ユーザがロボット100との間でテキストチャットによる対話を行うための機能を備える。テキストチャットのユーザの発話文のテキスト情報の入力方法としては、表示パネル341にテキスト入力用のキーボード画面を表示し、表示パネル341に重畳して配置されたタッチパネル上で、ユーザの指やタッチペン等を用いて、キーボード画面の該当キーをタッチする方法等があるが、これには限定されない。ユーザが入力した発話文のテキスト情報は、インターネット600を介してロボット100へ送信される。また、ロボット100が生成した、ユーザの発話文に対する応答発話文のテキスト情報は、インターネット600を介してロボット100から受信される。
図2は、遠隔端末300の表示パネル341に表示される表示画面310の例を示す図である。図2の例では、表示画面310は、ロボット100が撮像した撮像画像311と、チャット画面312と、が横に並べて配置されている。
撮像画像311には、テーブル400、テーブル400に載置されたカップ401、電卓402、スマートフォン403、紙404が写っている。また、カップ401、電卓402、スマートフォン403、紙404は、ハンド124が把持可能な把持可能物である。そのため、撮像画像311は、ユーザが把持可能物を視認できるように、把持可能物の名称を吹き出しで表示するように加工されている。また、撮像画像311に対する手書き入力情報931が、ユーザにより手書きで入力されている。
チャット画面312には、遠隔端末300のユーザとロボット100間でテキストチャットの形式で対話したテキスト情報が表示される。詳細には、ユーザが遠隔端末300に入力した発話文のテキスト情報は、ユーザを模した画像901から伸びた吹き出し形式のテキストボックス911〜913に、文字として表示される。また、ロボット100が生成した、ユーザの発話文に対する応答発話文のテキスト情報は、ロボット100を模した画像902から伸びた吹き出し形式のテキストボックス921〜923に、文字として表示される。
ロボット100は、撮像画像に対してユーザが入力した手書き入力情報と、テキストチャットの対話履歴と、に基づいて、ハンド124による把持が要求されている把持対象物を推定すると共に、推定した把持対象物に対して要求されているハンド124による把持動作の仕方を推定する。
図2の例では、手書き入力情報931が、撮像画像311上のスマートフォン403の位置において入力されている。また、テキストボックス911,921,912に入力されたテキスト情報によれば、把持対象物をつかんで持ち上げる把持動作が要求されている(詳細は後述する)。そのため、ロボット100は、手書き入力情報931と、テキストボックス911,921,912に入力されたテキスト情報と、に基づいて、把持対象物が、テーブル400に載置されたスマートフォン403であり、把持動作の仕方が、スマートフォン403をつかんで持ち上げることであると推定することができる。なお、図2の例では、手書き入力情報931は、スマートフォン403を上からつかむことを模擬した画像になっているが、これには限定されない。手書き入力情報931は、単にスマートフォン403が把持対象物であることを指示する画像とし、把持動作の仕方は、テキストチャットによる対話においてユーザが指示しても良い。スマートフォン403が把持対象物であることを指示する手書き入力情報931の画像としては、例えば、図3に示されるように、スマートフォン403を矢印で指した画像や、図4に示されるように、スマートフォン403を任意の図形(図4では、丸)で囲んだ画像等とすることができる。
また、ロボット100は、テキストチャットの対話履歴に基づいて、ロボット100に追加で要求されている動作があるか否かを判断し、ロボット100に追加で要求されている動作があれば、その動作の仕方を推定しても良い。
図2の例では、テキストボックス912,922,923,913に入力されたテキスト情報によれば、スマートフォン403をリビングルームに搬送することが要求されている(詳細は後述する)。そのため、ロボット100は、テキストボックス912,922,923,913に入力されたテキスト情報に基づいて、把持動作によってつかんだスマートフォン403をリビングルームに搬送することが、ロボット100に対して追加で要求されていると推定することができる。
そのため、図2の例では、ロボット100は、ロボット100に要求されている全体的な動作は、スマートフォン403をつかんでリビングルームに搬送することであると推定することができる。
図5は、ロボット100の外観構成例を示す外観斜視図である。ロボット100は、大きく分けて、台車部110と本体部120とによって構成される。台車部110は、円筒形状の筐体内に、それぞれが走行面に接地する2つの駆動輪111と1つのキャスター112とを支持している。2つの駆動輪111は、互いに回転軸芯が一致するように配設されている。それぞれの駆動輪111は、不図示のモータによって独立して回転駆動される。キャスター112は、従動輪であり、台車部110から鉛直方向に延びる旋回軸が車輪の回転軸から離れて車輪を軸支するように設けられており、台車部110の移動方向に倣うように追従する。
台車部110は、上面の周縁部にレーザスキャナ133を備える。レーザスキャナ133は、水平面内の一定の範囲をステップ角ごとにスキャンして、それぞれの方向に障害物が存在するか否かを出力する。さらに、レーザスキャナ133は、障害物が存在する場合には、その障害物までの距離を出力する。
本体部120は、主に、台車部110の上面に搭載された胴部121、胴部121の上面に載置された頭部122、胴部121の側面に支持されたアーム123、及びアーム123の先端部に設置されたハンド124を備える。アーム123とハンド124は、不図示のモータを介して駆動され、把持対象物を把持する。胴部121は、不図示のモータの駆動力により、台車部110に対して鉛直軸周りに回転することができる。
頭部122は、主に、ステレオカメラ131及び表示パネル141を備える。ステレオカメラ131は、同じ画角を有する2つのカメラユニットが互いに離間して配置された構成を有し、それぞれのカメラユニットで撮像された撮像信号を出力する。
表示パネル141は、例えば液晶パネルであり、設定されたキャラクターの顔をアニメーションで表示したり、ロボット100に関する情報をテキストやアイコンで表示したりする。表示パネル141にキャラクターの顔を表示すれば、表示パネル141が擬似的な顔部であるかの印象を周囲の人達に与えることができる。
頭部122は、不図示のモータの駆動力により、胴部121に対して鉛直軸周りに回転することができる。そのため、ステレオカメラ131は、任意の方向を撮像することができ、また、表示パネル141は、任意の方向へ向けて表示内容を呈示することができる。
図6は、ロボット100のブロック構成例を示すブロック図である。ここでは、把持対象物及び把持動作の仕方の推定に関係する主な要素について説明するが、ロボット100の構成としては他の要素も備え、また、把持対象物及び把持動作の仕方の推定に寄与する他の要素が加えられることもあり得る。
制御部150は、例えばCPUであり、例えば胴部121に備えられたコントロールユニットに格納されている。台車駆動ユニット145は、駆動輪111と、駆動輪111を駆動するための駆動回路やモータと、を含む。制御部150は、台車駆動ユニット145へ駆動信号を送ることにより、駆動輪の回転制御を実行する。また、制御部150は、台車駆動ユニット145からエンコーダ等のフィードバック信号を受け取って、台車部110の移動方向や移動速度を把握する。
上体駆動ユニット146は、アーム123及びハンド124と、胴部121及び頭部122と、これらを駆動するための駆動回路やモータと、を含む。制御部150は、上体駆動ユニット146へ駆動信号を送ることにより、把持動作やジェスチャーを実現する。また、制御部150は、上体駆動ユニット146からエンコーダ等のフィードバック信号を受け取って、アーム123及びハンド124の位置や移動速度、胴部121及び頭部122の向きや回転速度を把握する。
表示パネル141は、制御部150が生成した画像信号を受信して表示する。また、制御部150は、上述のように、キャラクター等の画像信号を生成して、表示パネル141へ表示させる。
ステレオカメラ131は、制御部150からの要求に従って、ロボット100が存在する第1環境を撮像し、撮像信号を制御部150へ引き渡す。制御部150は、撮像信号を用いて画像処理を実行したり、予め定められたフォーマットに従って撮像信号を撮像画像に変換したりする。レーザスキャナ133は、制御部150からの要求に従って移動方向に障害物が存在するか否かを検出し、その検出結果である検出信号を制御部150へ引き渡す。
ハンドカメラ135は、例えば距離画像センサであり、把持対象物の距離、形状、方向等を認識するために用いられる。ハンドカメラ135は、対象空間から入射する光学像を光電変換するピクセルが二次元状に配列された撮像素子を含み、ピクセルごとに被写体までの距離を制御部150へ出力する。具体的には、ハンドカメラ135は、パターン光を対象空間に照射する照射ユニットを含み、その反射光を撮像素子で受光して、画像におけるパターンの歪みや大きさから各ピクセルが捉えた被写体までの距離を出力する。なお、制御部150は、より広い周辺環境の様子をステレオカメラ131で把握し、把持対象物近傍の様子をハンドカメラ135で把握する。
メモリ180は、不揮発性の記憶媒体であり、例えばソリッドステートドライブが用いられる。メモリ180は、ロボット100を制御するための制御プログラムの他にも、制御や演算に用いられる様々なパラメータ値、関数、ルックアップテーブル等を記憶している。特に、メモリ180は、学習済みモデル181と、発話DB182と、地図DB183と、を記憶している。
学習済みモデル181は、撮像画像を入力画像として、その撮像画像に写っている把持可能物を出力する学習済みモデルである。
発話DB182は、例えばハードディスクドライブの記録媒体によって構成されており、コーパスとして体系化された個々の用語が、再生可能な発話データを伴って格納されているデータベースである。
地図DB183は、例えばハードディスクドライブの記録媒体によって構成されており、ロボット100が存在する第1環境における空間を記述した地図情報が格納されているデータベースである。
通信ユニット190は、例えば無線LANユニットであり、無線ルータ700との間で無線通信を行う。通信ユニット190は、遠隔端末300から送られてくる、撮像画像に対する手書き入力情報やユーザの発話文のテキスト情報を受信して制御部150へ引き渡す。また、通信ユニット190は、制御部150の制御に従って、ステレオカメラ131で撮像された撮像画像や、制御部150で生成された、ユーザの発話文に対する応答発話文のテキスト情報を遠隔端末300へ送信する。
制御部150は、メモリ180から読み出した制御プログラムを実行することによりロボット100全体の制御と様々な演算処理とを実行する。また、制御部150は、制御に関わる様々な演算や制御を実行する機能実行部としての役割も担う。このような機能実行部として、制御部150は、認識部151及び推定部152を含む。
認識部151は、ステレオカメラ131のいずれか一方のカメラユニットで撮像された撮像画像を入力画像とし、メモリ180から読み出した学習済みモデル181から、その撮像画像に写っている、ハンド124が把持可能な把持可能領域を得て、把持可能部を認識する。
図7は、ロボット100がステレオカメラ131により取得した、第1環境の撮像画像311の例を示す図である。図7の撮像画像311には、テーブル400、テーブル400に載置されたカップ401、電卓402、スマートフォン403、及び紙404が写っている。認識部151は、このような撮像画像311を入力画像として学習済みモデル181に与える。
図8は、図7の撮像画像311を入力画像とした場合に、学習済みモデル181が出力する把持可能領域の例を示す図である。具体的には、カップ401を囲む領域が把持可能領域801として、電卓402を囲む領域が把持可能領域802として、スマートフォン403を囲む領域が把持可能領域803として、紙404を囲む領域が把持可能領域804として、それぞれ検出される。そのため、認識部151は、把持可能領域801〜804にそれぞれ囲まれたカップ401、電卓402、スマートフォン403、及び紙404を、把持可能部として認識する。
学習済みモデル181は、ハンド124が把持可能な把持可能部が写る画像と、その画像のうちどの領域が把持可能部であるかの正解値と、の組み合わせである教師データにより学習を行ったニューラルネットワークである。このとき、教師データを、画像中の把持可能部の名称、距離、方向をさらに示す教師データとすることにより、学習済みモデル181を、撮像画像を入力画像として、把持可能部を出力するだけでなく、その把持可能部の名称、距離、方向をも出力する学習済みモデルとすることもできる。なお、学習済みモデル181は、深層学習により学習を行ったニューラルネットワークであると良い。また、学習済みモデル181は、教師データを随時追加して、追加学習をさせても良い。
また、認識部151は、把持可能部を認識すると、ユーザが把持可能物を視認できるように、撮像画像を加工しても良い。撮像画像の加工方法としては、図2の例のように、把持可能物の名称を吹き出しで表示する方法等があるが、これには限定されない。
推定部152は、遠隔端末300のユーザとテキストチャットの形式で対話する機能を担う。具体的には、推定部152は、発話DB182を参照して、ユーザが遠隔端末300に入力した発話文に対して相応しい応答発話文のテキスト情報を生成する。このとき、ユーザが遠隔端末300に撮像画像に対する手書き入力情報も入力している場合は、推定部152は、手書き入力情報も参照して、応答発話文のテキスト情報を生成する。
推定部152は、撮像画像に対してユーザが入力した手書き入力情報と、テキストチャットの対話履歴と、に基づいて、ハンド124による把持が要求されている把持対象物を推定すると共に、推定した把持対象物に対して要求されているハンド124による把持動作の仕方を推定する。また、推定部152は、テキストチャットの対話履歴に基づいて、ロボット100に追加で要求されている動作があるか否かを判断し、ロボット100に追加で要求されている動作があれば、その動作の仕方を推定しても良い。このとき、推定部152は、手書き入力情報の内容及びテキストチャットの対話履歴の内容を解析し、解析した内容をテキストチャットのテキスト情報を用いて遠隔端末300に確認しながら、上記推定を行っていくのが良い。
以下、図2を例に挙げて、ロボット100の推定部152において、把持対象物及び把持動作の仕方等を推定する推定方法について詳細に説明する。
図2の例では、まず、ロボット100には、遠隔端末300から、ユーザの発話文「これ取って」のテキスト情報(テキストボックス911)が受信される。このとき、ロボット100が撮像している撮像画像311に写っている把持可能物は、認識部151が認識したカップ401、電卓402、スマートフォン403、及び紙404である。また、ロボット100には、遠隔端末300から、この撮像画像311上のスマートフォン403の位置において入力された手書き入力情報931も受信される。
そのため、推定部152は、「これ取って」のテキスト情報に基づいて、把持動作の仕方が、把持対象物をつかんで持ち上げる動作であると解析する。さらに、推定部152は、手書き入力情報931に基づいて、把持対象物が、認識部151が認識した把持可能物のうち、手書き入力情報931の入力位置になっているスマートフォン403であると解析する。なお、推定部152は、撮像画像311上の手書き入力情報931の入力位置を任意の方法で認識することができる。例えば、遠隔端末300が、撮像画像311上の手書き入力情報931の入力位置を示す位置情報を、手書き入力情報931に含めて送信することとすれば、推定部152は、その位置情報に基づいて、手書き入力情報931の入力位置を認識できる。又は、遠隔端末300が、手書き入力情報931が入力された状態に加工された撮像画像311を送信することとすれば、推定部152は、その撮像画像311に基づいて、手書き入力情報931の入力位置を認識できる。
そして、推定部152は、把持対象物がスマートフォン403であることをユーザに確認するために、「了解。スマホかな?」という応答発話文のテキスト情報(テキストボックス921)を生成し、生成したテキスト情報を遠隔端末300に送信する。
続いて、ロボット100には、遠隔端末300から、ユーザの発話文「そうだよ。僕のところに持ってきて」のテキスト情報(テキストボックス912)が受信される。そのため、推定部152は、ハンド124による把持が要求されている把持対象物は、スマートフォン403であり、把持動作の仕方が、スマートフォン403をつかんで持ち上げることであると推定する。
また、推定部152は、把持対象物及び把持動作の仕方を推定できたため、「了解」という応答発話文のテキスト情報(テキストボックス922)を生成し、生成したテキスト情報を遠隔端末300に送信する。
さらに、推定部152は、「僕のところに持ってきて」のテキスト情報に基づいて、把持動作によってつかんだスマートフォン403を「僕のところ」に搬送する動作が、ロボット100に対して追加で要求されていると解析する。
そして、推定部152は、「僕のところ」がどこであるかを確認するために、「リビングルームにいるの?」という応答発話文のテキスト情報(テキストボックス923)を生成し、生成したテキスト情報を遠隔端末300に送信する。
続いて、ロボット100には、遠隔端末300から、ユーザの発話文「そうだよ。ありがとう」のテキスト情報(テキストボックス913)が受信される。そのため、推定部152は、スマートフォン403をリビングルームに搬送する動作が、ロボット100に対して追加で要求されていると推定する。
その結果、推定部152は、ロボット100に要求されている全体的な動作が、スマートフォン403をつかんでリビングルームに搬送することであると推定することになる。
以上のようにして、推定部152は、ハンド124による把持が要求されている把持対象物と、把持対象物に対して要求されているハンド124による把持動作の仕方と、を推定することができる。さらに、推定部152は、ロボット100に対して追加で要求されている動作があれば、その動作の仕方も推定することができる。
制御部150は、推定部152による上記の推定が終了すると、把持対象物に対して要求されているハンド124による把持動作を開始するための準備を行う。具体的には、まず、制御部150は、ハンドカメラ135が把持対象物を観察できる位置へアーム123を駆動する。続いて、制御部150は、ハンドカメラ135に把持対象物を撮像させ、把持対象物の状態を認識する。
そして、制御部150は、把持対象物の状態と、把持対象物に対して要求されているハンド124による把持動作の仕方と、に基づいて、把持対象物に対して要求されている把持動作を実現するためのハンド124の軌道を生成する。このとき、制御部150は、所定の把持条件を満たすように、ハンド124の軌道を生成する。所定の把持条件は、ハンド124が把持対象物を把持するときの条件や、ハンド124が把持対象物を把持するまでの軌道の条件等を含む。ハンド124が把持対象物を把持するときの条件は、例えば、ハンド124が把持対象物を把持するときに、アーム123を伸ばし過ぎないようにする等である。また、ハンド124が把持対象物を把持するまでの軌道の条件は、例えば、把持対象物が引き出しのつまみである場合、ハンド124が直線軌道を取ること等である。
制御部150は、ハンド124の軌道を生成すると、生成した軌道に応じた駆動信号を上体駆動ユニット146へ送信する。ハンド124は、その駆動信号に応じて、把持対象部に対する把持動作を行う。
なお、推定部152において、ロボット100に追加で要求されている動作の仕方を推定した場合には、制御部150は、ハンド124の軌道生成及び把持動作の前又は後において、ロボット100に追加で要求されている動作を実行させる。このとき、ロボット100に対して追加で要求されている動作によっては、ロボット100を移動させる動作が必要となる場合がある。例えば、図2の例のように、把持対象物をつかんで搬送する動作が追加で要求されている場合には、搬送先にロボット100を移動させる必要がある。また、ロボット100の現在位置から把持対象物までの距離がある場合には、把持対象物の近傍にロボット100を移動させる必要がある。
ロボット100を移動させる動作が必要である場合には、制御部150は、ロボット100を移動させる経路を生成するために、地図DB183から、ロボット100が存在する第1環境における空間を記述した地図情報を取得する。地図情報は、例えば、第1環境における各部屋の位置、各部屋の間取り等を記述したものであると良い。また、地図情報は、各部屋に存在するタンス、テーブル等の障害物を記述したものでも良い。ただし、障害物に関しては、レーザスキャナ133からの検出信号によりロボット100の移動方向に障害物が存在するか否かを検出することもできる。また、ロボット100の現在位置から把持対象物までの距離がある場合、学習済みモデル181によっては、ステレオカメラ131により取得した撮像画像から、把持対象物の距離、方向を得ることができる。なお、把持対象物の距離、方向は、第1環境の撮像画像を画像解析して得ても良いし、その他のセンサからの情報により得ても良い。
そのため、制御部150は、把持対象物の近傍にロボット100を移動させる場合は、地図情報、把持対象物の距離、方向、障害物の存在の有無等に基づいて、ロボット100が、現在位置から、障害物を回避しつつ、把持対象物の近傍に移動させるための経路を生成する。また、制御部150は、搬送先にロボット100を移動させる場合は、地図情報、障害物の存在の有無等に基づいて、ロボット100が、現在位置から、障害物を回避しつつ、搬送先に移動させるための経路を生成する。そして、制御部150は、生成した経路に応じた駆動信号を、台車駆動ユニット145へ送信する。台車駆動ユニット145は、その駆動信号に応じて、ロボット100を移動させる。なお、制御部150は、搬送先の経路中に、例えば、ドアがある場合には、ドアの近傍でドアノブをつかんでドアを開閉するためのハンド124の軌道を生成し、生成した軌道に応じたハンド124の制御も合わせて行う必要がある。この場合の軌道の生成及びハンド124の制御は、例えば、上述した方法と同様の方法を用いれば良い。
図9は、遠隔端末300のブロック構成例を示すブロック図である。ここでは、ロボット100から受信した撮像画像に対してユーザが手書き入力情報を入力する処理や、ユーザがテキストチャットによる対話を行うための処理に関係する主な要素について説明するが、遠隔端末300の構成としては他の要素も備え、また、ユーザが手書き入力情報を入力する処理やユーザがテキストチャットによる対話を行うための処理に寄与する他の要素が加えられることもあり得る。
演算部350は、例えばCPUであり、メモリ380から読み出した制御プログラムを実行することにより遠隔端末300全体の制御と様々な演算処理とを実行する。表示パネル341は、例えば液晶パネルであり、例えばロボット100から送られてきた撮像画像やテキストチャットのチャット画面を表示する。また、表示パネル341は、チャット画面には、ユーザが入力した発話文のテキスト情報や、ロボット100から送られてくる応答発話文のテキスト情報を表示する。
入力ユニット342は、表示パネル141に重畳して配置されたタッチパネルや、表示パネル141の周縁部に設けられた押しボタン等を含む。入力ユニット342は、ユーザがタッチパネルへのタッチによって入力した手書き入力情報や発話文のテキスト情報を、演算部350へ引き渡す。手書き入力情報やテキスト情報の例は、例えば図2に示した通りである。
メモリ380は、不揮発性の記憶媒体であり、例えばソリッドステートドライブが用いられる。メモリ380は、遠隔端末300を制御するための制御プログラムの他にも、制御や演算に用いられる様々なパラメータ値、関数、ルックアップテーブル等を記憶している。
通信ユニット390は、例えば無線LANユニットであり、無線ルータ700との間で無線通信を行う。通信ユニット390は、ロボット100から送られてくる撮像画像や応答発話文のテキスト情報を受信して演算部350へ引き渡す。また、通信ユニット390は、演算部350と協働して、手書き入力情報やユーザの発話文のテキスト情報をロボット100へ送信する。
次に、本実施形態に係る遠隔操作システム10の全体的な処理について説明する。図10は、本実施形態に係る遠隔操作システム10の全体的な処理の流れの例を示すフロー図である。左側のフローはロボット100の処理フローを表し、右側のフローは遠隔端末300の処理フローを表す。また、システムサーバ500を介して行う手書き入力情報や撮像画像やテキストチャットのテキスト情報のやり取りを、点線の矢印で示している。
ロボット100の制御部150は、ロボット100が存在する第1環境を、ステレオカメラ131に撮像させ(ステップS11)、その撮像画像を、通信ユニット190を介して遠隔端末300へ送信する(ステップS12)。
遠隔端末300の演算部350は、ロボット100から通信ユニット390を介して撮像画像を受信すると、受信した撮像画像を表示パネル341に表示する。
以降、ユーザは、遠隔端末300上で、ロボット100との間で、テキストチャットによる対話を行う(ステップS21)。具体的には、遠隔端末300の演算部350は、ユーザが、タッチパネルである入力ユニット342を介して、発話文のテキスト情報を入力すると、そのテキスト情報を表示パネル341のチャット画面に表示すると共に、通信ユニット390を介してロボット100へ送信する。また、演算部350は、ロボット100から通信ユニット390を介して応答発話文のテキスト情報を受信すると、そのテキスト情報を表示パネル341のチャット画面に表示する。
また、遠隔端末300の演算部350は、撮像画像に対する手書き入力情報の入力を受け付ける状態に遷移する(ステップS31)。ユーザが、タッチパネルである入力ユニット342を介して、撮像画像に対して手書き入力情報を入力すると(ステップS31のYes)、演算部350は、その手書き入力情報を、通信ユニット390を介してロボット100へ送信する(ステップS32)。
ロボット100の推定部152は、遠隔端末300から、ユーザが撮像画像に対して入力した手書き入力情報を受信すると、その手書き入力情報と、テキストチャットの対話履歴と、に基づいて、ハンド124による把持が要求されている把持対象物を推定すると共に、推定した把持対象物に対して要求されているハンド124による把持動作の仕方を推定する(ステップS13)。このとき、把持対象物に関しては、推定部152は、手書き入力情報が入力された撮像画像に写っている把持可能部の情報を、認識部151から取得し、把持可能部の中から、手書き入力情報と、テキストチャットの対話履歴と、に基づいて、把持対象物を推定する。また、推定部152は、手書き入力情報の内容及びテキストチャットの対話履歴の内容を解析し、解析した内容をテキストチャットのテキスト情報を用いて遠隔端末300に確認しながら、上記推定を行っていく。
以降、ロボット100の制御部150は、把持対象物に対して要求されている把持動作を実現するためのハンド124の軌道を生成する(ステップS14)。制御部150は、ハンド124の軌道を生成すると、生成した軌道に応じて上体駆動ユニット146を制御し、ハンド124によって把持対象部に対する把持動作が行われる(ステップS15)。
なお、ステップS13において、推定部152は、テキストチャットの対話履歴に基づいて、ロボット100に追加で要求されている動作があるか否かを判断し、ロボット100に追加で要求されている動作があれば、その動作の仕方を推定しても良い。この推定は、テキストチャットの対話履歴の内容を解析し、解析した内容をテキストチャットのテキスト情報を用いて遠隔端末300に確認しながら、行っても良い。
推定部152において、ロボット100に追加で要求されている動作の仕方を推定した場合には、制御部150は、ステップS14,S15の前又は後において、ロボット100に追加で要求されている動作を実行させる。このような動作の実行に際して、ロボット100を移動させる動作が必要となる場合には、制御部150は、ロボット100を移動させる経路を生成する。そして、制御部150は、生成した経路に応じた駆動信号を、台車駆動ユニット145へ送信する。台車駆動ユニット145は、その駆動信号に応じて、ロボット100を移動させる。
以上説明したように本実施形態によれば、推定部152は、ロボット100が存在する環境を撮像した撮像画像に対してユーザが入力した手書き入力情報と、テキストチャットの対話履歴と、に基づいて、ハンド124による把持が要求されている把持対象物を推定すると共に、推定した把持対象物に対して要求されているハンド124による把持動作の仕方を推定する。
これにより、ユーザは、予め設定された指示図形を思い出しながら手書き入力をしなくても、遠隔操作によってロボット100に把持動作を実行させることができる。従って、より直感的な操作が可能な遠隔操作システム10を実現することができる。
また、本実施形態によれば、推定部152は、撮像画像に対して入力された手書き入力情報の内容及びテキストチャットの対話履歴の内容を解析し、解析した内容をテキストチャットのテキスト情報を用いて遠隔端末300(ユーザ)に確認しても良い。
これにより、ユーザの意図をテキストチャットで確認しながら、把持動作の操作に係るコミュニケーションをユーザと取ることができる。従って、ユーザの意図をより反映させた直感的な操作が可能な遠隔操作システム10を実現することができる。
なお、本発明は上記実施形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。
例えば、上記実施の形態では、遠隔端末300の表示パネル341に表示する表示画面310は、例えば、図2のように、撮像画像311と、チャット画面312と、が横に並べて配置された画面であったが、これには限定されない。表示画面310は、例えば、撮像画像に重ねてチャット画面が配置された画面でも良い。図11は、撮像画像311に重ねてチャット画面312が配置された表示画面310の例を示す図である。
また、上記実施の形態では、推定部152は、撮像画像に対して入力された手書き入力情報について解析した内容をテキストチャットのテキスト情報を用いて遠隔端末300(ユーザ)に確認していた。このとき、手書き入力情報から解析した把持対象物については、その把持対象物の画像を撮像画像から切り出し、チャット画面に表示することで、遠隔端末300(ユーザ)に確認しても良い。図12は、手書き入力情報から解析した把持対象物の画像をチャット画面に表示した例を示す図である。図12の例では、推定部152は、手書き入力情報931から解析した把持対象物がスマートフォン403であることをユーザに確認するために、「了解。このスマホかな?」という応答発話文のテキスト情報(テキストボックス924)と共に、撮像画像311から切り出したスマートフォン403の画像(テキストボックス925)を遠隔端末300に送信し、これらを表示パネル341のチャット画面312に表示させる。
また、上記実施の形態では、撮像画像に対して1つの手書き入力情報が入力される例を説明したが、これには限定されない。撮像画像に対しては複数の手書き入力情報が入力されても良い。撮像画像に対して複数の手書き入力情報が入力された場合、推定部152は、複数の手書き入力情報の各々について、解析を行い、解析した内容をテキストチャットのテキスト情報を用いて遠隔端末300(ユーザ)に確認しながら、把持対象物及び把持動作の仕方を推定すれば良い。このとき、推定部152は、把持動作の順番を、把持動作に対応する手書き入力情報が入力された順番と推定しても良い。又は、推定部152は、把持動作の順番を、テキストチャットのテキスト情報を用いて遠隔端末300(ユーザ)に確認しながら、推定しても良い。
また、上記実施の形態では、認識部151及び推定部152がロボット100に備えられていたが、これには限定されない。認識部151、及び、推定部152のうちの遠隔端末300のユーザと対話する機能を除く機能は、遠隔端末300に備えられていても良いし、システムサーバ500に備えられていても良い。
また、上記実施の形態では、ユーザは、遠隔端末300の表示パネル341に重畳して配置されたタッチパネルへのタッチによって、対話文のテキスト情報を入力していたが、これには限定されない。例えば、ユーザは、遠隔端末300のマイク等に発話を行い、遠隔端末300は、一般的な音声認識技術を用いてユーザの発話内容を認識してテキスト情報に変換し、変換したテキスト情報を、ユーザの対話文のテキスト情報としても良い。
また、上記実施の形態では、ロボット100と遠隔端末300とがインターネット600及びシステムサーバ500を介して、撮像画像や手書き入力情報やテキストチャットのテキスト情報をやり取りしていたが、これには限定されない。ロボット100と遠隔端末300とは、直接通信によって、撮像画像や手書き入力情報やテキストチャットのテキスト情報をやり取りしても良い。
また、上記実施の形態では、ロボット100に備えられている撮像部(ステレオカメラ131)を用いていたが、これには限定されない。撮像部は、ロボット100が存在する第1環境の任意の場所に備えられた任意の撮像部であれば良い。また、撮像部は、ステレオカメラに限定されず、単眼カメラ等であっても良い。
また、上記実施の形態では、被操作対象が、アーム123の先端のハンド124をエンドエフェクタとして備えるロボット100である例を説明したが、これには限定されない。被操作対象は、エンドエフェクタを備え、エンドエフェクタを用いて把持動作を実行するものであれば良い。また、エンドエフェクタは、ハンド以外の他の把持部(例えば、吸着部等)であっても良い。
10 遠隔操作システム、100 ロボット、110 台車部、111 駆動輪、112 キャスター、120 本体部、121 胴部、122 頭部、123 アーム、124 ハンド、131 ステレオカメラ、133 レーザスキャナ、135 ハンドカメラ、141 表示パネル、145 台車駆動ユニット、146 上体駆動ユニット、150 制御部、151 認識部、152 推定部、180 メモリ、181 学習済みモデル、182 発話DB、183 地図DB、190 通信ユニット、300 遠隔端末、310 表示画面、311 撮像画像、312 チャット画面、341 表示パネル、342 入力ユニット、350 演算部、380 メモリ、390 通信ユニット、400 テーブル、401 カップ、402 電卓、403 スマートフォン、404 紙、500 システムサーバ、600 インターネット、700 無線ルータ、801〜804 把持可能領域、901 画像(ユーザ)、902 画像(ロボット)、911〜913,921〜925 テキストボックス、931 手書き入力情報

Claims (4)

  1. エンドエフェクタを備える被操作対象を遠隔操作する遠隔操作システムであって、
    前記被操作対象が存在する環境を撮像する撮像部と、
    前記撮像部が撮像した前記環境の撮像画像を表示し、表示した前記撮像画像に対する手書き入力情報の入力を受け付けると共に、ユーザが前記被操作対象との間でテキストチャットによる対話を行うための機能を具備する操作端末と、
    前記撮像画像に対して入力された前記手書き入力情報と、前記テキストチャットの対話履歴と、に基づいて、前記エンドエフェクタによる把持が要求されている把持対象物を推定すると共に、前記把持対象物に対して要求されている前記エンドエフェクタによる把持動作の仕方を推定する推定部と、
    を備える、遠隔操作システム。
  2. 前記推定部は、前記撮像画像に対して入力された前記手書き入力情報の内容を解析し、解析した内容を前記テキストチャットのテキスト情報を用いて前記操作端末に確認する、
    請求項1に記載の遠隔操作システム。
  3. 前記撮像画像に基づいて、前記エンドエフェクタが把持可能な把持可能部を認識する認識部をさらに備え、
    前記推定部は、前記認識部が認識した前記把持可能部の中から前記把持対象物を推定する、
    請求項1又は2に記載の遠隔操作システム。
  4. エンドエフェクタを備える被操作対象を遠隔操作する遠隔操作システムによる遠隔操作方法であって、
    前記被操作対象が存在する環境を撮像し、
    前記環境の撮像画像を表示した操作端末において、表示した前記撮像画像に対する手書き入力情報の入力を受け付け、
    前記被操作対象が、前記操作端末のユーザとの間でテキストチャットによる対話を行い、
    前記撮像画像に対して入力された前記手書き入力情報と、前記テキストチャットの対話履歴と、に基づいて、前記エンドエフェクタによる把持が要求されている把持対象物を推定すると共に、前記把持対象物に対して要求されている前記エンドエフェクタによる把持動作の仕方を推定する、
    遠隔操作方法。
JP2019225286A 2019-12-13 2019-12-13 遠隔操作システム及び遠隔操作方法 Active JP7276108B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019225286A JP7276108B2 (ja) 2019-12-13 2019-12-13 遠隔操作システム及び遠隔操作方法
US17/087,973 US20210178581A1 (en) 2019-12-13 2020-11-03 Remote control system and remote control method
CN202011453028.2A CN112975950B (zh) 2019-12-13 2020-12-11 远程操作系统及远程操作方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019225286A JP7276108B2 (ja) 2019-12-13 2019-12-13 遠隔操作システム及び遠隔操作方法

Publications (2)

Publication Number Publication Date
JP2021094604A true JP2021094604A (ja) 2021-06-24
JP7276108B2 JP7276108B2 (ja) 2023-05-18

Family

ID=76317391

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019225286A Active JP7276108B2 (ja) 2019-12-13 2019-12-13 遠隔操作システム及び遠隔操作方法

Country Status (3)

Country Link
US (1) US20210178581A1 (ja)
JP (1) JP7276108B2 (ja)
CN (1) CN112975950B (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115225682B (zh) * 2021-04-15 2024-01-19 本田技研工业株式会社 管理服务器、远程操作系统、远程操作方法以及存储介质
CN115883956A (zh) * 2021-09-24 2023-03-31 上海擎感智能科技有限公司 拍摄控制方法、拍摄装置、可交互的实物制作装置及车辆

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009214212A (ja) * 2008-03-10 2009-09-24 Toyota Motor Corp 動作教示システム及び動作教示方法
JP2013184257A (ja) * 2012-03-08 2013-09-19 Sony Corp ロボット装置及びロボット装置の制御方法、並びにコンピューター・プログラム
US20190077009A1 (en) * 2017-09-14 2019-03-14 Play-i, Inc. Robot interaction system and method

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120061155A1 (en) * 2010-04-09 2012-03-15 Willow Garage, Inc. Humanoid robotics system and methods
US9104202B2 (en) * 2010-05-11 2015-08-11 Irobot Corporation Remote vehicle missions and systems for supporting remote vehicle missions
US9486921B1 (en) * 2015-03-26 2016-11-08 Google Inc. Methods and systems for distributing remote assistance to facilitate robotic object manipulation
KR102023149B1 (ko) * 2016-03-03 2019-11-22 구글 엘엘씨 로봇 파지를 위한 심층 기계 학습 방법 및 장치
US10289076B2 (en) * 2016-11-15 2019-05-14 Roborus Co., Ltd. Concierge robot system, concierge service method, and concierge robot
JP6534126B2 (ja) * 2016-11-22 2019-06-26 パナソニックIpマネジメント株式会社 ピッキングシステム及びその制御方法
US11094219B2 (en) * 2018-11-28 2021-08-17 International Business Machines Corporation Portable computing device having a color detection mode and a game mode for learning colors

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009214212A (ja) * 2008-03-10 2009-09-24 Toyota Motor Corp 動作教示システム及び動作教示方法
JP2013184257A (ja) * 2012-03-08 2013-09-19 Sony Corp ロボット装置及びロボット装置の制御方法、並びにコンピューター・プログラム
US20190077009A1 (en) * 2017-09-14 2019-03-14 Play-i, Inc. Robot interaction system and method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
高橋 拓弥 TAKUYA TAKAHASHI, 外3名: ""音声とジェスチャによる対話に基づくヒューマンロボットインタフェース"", インタラクション98予稿集 [ONLINE], JPN6022046440, 4 March 1998 (1998-03-04), pages 161 - 168, ISSN: 0004914841 *

Also Published As

Publication number Publication date
JP7276108B2 (ja) 2023-05-18
CN112975950A (zh) 2021-06-18
US20210178581A1 (en) 2021-06-17
CN112975950B (zh) 2023-11-28

Similar Documents

Publication Publication Date Title
KR102573687B1 (ko) 원격 조작 시스템 및 원격 조작 방법
US11491661B2 (en) Communication robot and control program of communication robot
JP7052652B2 (ja) 移動ロボット、遠隔端末、移動ロボットの制御プログラム、および遠隔端末の制御プログラム
JP2009531184A (ja) 操作ロボットにより物体を把持するための知的インターフェース装置及びこの装置の操作方法
JP7276108B2 (ja) 遠隔操作システム及び遠隔操作方法
JP7188279B2 (ja) 機械学習方法および移動ロボット
CN112230649B (zh) 机器学习方法及移动机器人
JP7044047B2 (ja) ロボット
JP7047726B2 (ja) 把持ロボットおよび把持ロボットの制御プログラム
KR20190136962A (ko) 역각 시각화 장치, 로봇 및 역각 시각화 프로그램
EP3239942A1 (en) Touch control type object grabbing machine
JP5278955B2 (ja) 福祉用ロボット装置のロボットアーム操作方法
JP2024035639A (ja) 遠隔操作システム、遠隔操作方法、及び、制御プログラム
JP2024035640A (ja) 遠隔操作システム、遠隔操作方法、及び、制御プログラム
Younas et al. Design and fabrication of an autonomous multifunctional robot for disabled people
WO2017092620A1 (zh) 智能设备及其智能控制方法、及计算机存储介质
US20230333550A1 (en) Remote operation system, remote operation method, and storage medium
JP7415775B2 (ja) ロボット

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211224

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221031

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221207

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230404

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230417

R151 Written notification of patent or utility model registration

Ref document number: 7276108

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151