JP2022538370A - ロボットのタスクに力のベクトルを割り当てるための方法及びシステム - Google Patents

ロボットのタスクに力のベクトルを割り当てるための方法及びシステム Download PDF

Info

Publication number
JP2022538370A
JP2022538370A JP2022516078A JP2022516078A JP2022538370A JP 2022538370 A JP2022538370 A JP 2022538370A JP 2022516078 A JP2022516078 A JP 2022516078A JP 2022516078 A JP2022516078 A JP 2022516078A JP 2022538370 A JP2022538370 A JP 2022538370A
Authority
JP
Japan
Prior art keywords
virtual reality
force
task
menu
processors
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022516078A
Other languages
English (en)
Other versions
JP7326595B2 (ja
Inventor
ピーターソン ジョシュ
Original Assignee
トヨタ リサーチ インスティテュート,インコーポレイティド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by トヨタ リサーチ インスティテュート,インコーポレイティド filed Critical トヨタ リサーチ インスティテュート,インコーポレイティド
Publication of JP2022538370A publication Critical patent/JP2022538370A/ja
Application granted granted Critical
Publication of JP7326595B2 publication Critical patent/JP7326595B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/006Controls for manipulators by means of a wireless system for controlling one or several manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/06Control stands, e.g. consoles, switchboards
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • B25J5/007Manipulators mounted on wheels or on carriages mounted on wheels
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/1633Programme controls characterised by the control loop compliant, force, torque control, e.g. combined with position control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1671Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1689Teleoperation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/131Protocols for games, networked simulations or virtual reality
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39001Robot, manipulator control
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40131Virtual reality control, programming of manipulator
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Manipulator (AREA)
  • User Interface Of Digital Computer (AREA)
  • Numerical Control (AREA)

Abstract

開示するシステムは、環境の仮想現実表現を生成するように構成された電子コントローラを含む。電子コントローラは、環境の仮想現実表現内に少なくとも1つのタスクユーザーインターフェイス要素を含むメニュを生成し、力のパラメータを構成するためのオプションがメニュの少なくとも1つのタスクユーザーインターフェイス要素から選択されたときを判定するように構成される。電子コントローラは、仮想ロボット操作タスクのために力のパラメータを構成するよう促すプロンプトをユーザーへ発し、力のパラメータを構成するためのプロンプトから受信した入力に応答して力の規模又は力の方向の少なくとも一方を仮想ロボット操作タスクに割り当てるように構成される。【選択図】図3

Description

本出願は、2019年9月13日に提出された米国仮特許出願第62/900143号の利益又はこれに対する優先権を主張する2019年11月22日に提出された米国非仮特許出願第16/692272号(その各々の内容は参照により本明細書に援用される)の利益又はこれに対する優先権を主張する。
本開示は、概略的に、ロボットのタスクに力のベクトルを割り当てるため、特に仮想現実環境内でロボットのタスクに力のベクトルを割り当てるための方法及びシステムに関する。
ロボットは、ユーザーから命令を受信し、受信した命令に基づいてタスクを実行できる。例えば、ロボットは、ユーザーから目標位置まで移動するための命令の受信に応答して、目標位置まで移動できる。別の例として、ロボットは、ユーザーからのアイテムを移動するための命令の受信に応答して第1位置から第2位置までこのアイテムを運送できる。更に、特定のタスクは、対応するタスクを実行するとき、ロボットが所定規模の力を物体に加えることを要求する。例えば、第1位置から第2位置まで物体を移動するとき、ロボットの手は、物体に対してグリップ力を加えて、ロボットが物体を第1位置から第2位置まで確実に移動できるようにする。
したがって、タスクを実行するためにロボットを訓練するために力をマニピュレータへ教示するシステム及び方法が必要とされる。
1つの形態において、システムは環境の仮想現実表現を生成するように構成された電子コントローラを含む。電子コントローラは、環境の仮想現実表現内に少なくとも1つのタスクユーザーインターフェイス要素を含むメニュを生成し、力のパラメータを構成するためのオプションがメニュの中の少なくとも1つのタスクユーザーインターフェイス要素から選択されたときを判定するように構成される。電子コントローラは、仮想ロボット操作タスクのために力のパラメータを構成するように促すプロンプトをユーザーに発し(prompt a user)、力のパラメータを構成するためのプロンプトから受信した入力に応答して力の規模及び力の方向の少なくとも一方を仮想ロボット操作タスクに割り当てるように構成される。
別の形態において、システムは、環境の仮想現実表現を表示するように構成された電子コントローラを含む。電子コントローラは、仮想現実表現内に少なくとも1つのタスクユーザーインターフェイス要素を含むメニュを表示し、力のパラメータを構成するためのオプションがメニュの中の少なくとも1つのタスクユーザーインターフェイス要素から選択されたときを判定するように構成される。電子コントローラは、仮想ロボット操作タスクのために力のパラメータを構成するようにユーザーに命令するプロンプトを表示し、力のパラメータを構成するためのプロンプトから受信した入力に応答して仮想ロボット操作タスクへの力の規模又は力の方向の少なくとも一方の割当てを示す信号を送信するように構成される。
更に別の形態において、開示する方法は、1つ又は複数のプロセッサによって環境の仮想現実表現を生成することを含む。方法は、1つ又は複数のプロセッサによって、環境の仮想現実表現内に少なくとも1つのタスクユーザーインターフェイス要素を含むメニュを生成することを含む。方法は、1つ又は複数のプロセッサによって、力のパラメータを構成するためのオプションがメニュの中の少なくとも1つのタスクユーザーインターフェイス要素から選択されたときを判定することを含む。方法は、1つ又は複数のプロセッサによって、仮想ロボット操作タスクのために力のパラメータを構成するように促すプロンプトをユーザーに発することを含む。方法は、1つ又は複数のプロセッサによって、力のパラメータを構成するためのプロンプトから受信したインプットに応答して力の規模又は力の方向の少なくとも一方を仮想ロボット操作タスクに割り当てることを含む。
本明細書において説明する実施形態によって与えられる上記の及び付加的な特徴は、図面と一緒に以下の詳細な説明を読むことでより良く理解できる。
図面に示す実施形態は、例示的かつ模範的性質を持ち、請求項によって画定される内容を限定することを意図しない。例示的実施形態の下記の詳細な説明は、下記の図面と一緒に読めば理解できる。図面において、同様の構造体には同様の参照番号が付いている。
本明細書において説明し例証する1つ又は複数の実施形態に従ったロボットシステム及び環境の例の概略図である。 本明細書において説明し例証する1つ又は複数の実施形態に従ったロボット例の概略図である。 本明細書において説明し例証する1つ又は複数の実施形態に従ったロボット及び仮想現実システムの例の例示的システム図である。 本明細書委おいて説明し例証する1つ又は複数の実施形態に従ったロボットの特定のタスクに力のベクトルを割り当てる方法のフローチャートである。 本明細書において説明し例証する1つ又は複数の実施形態に従った仮想現実システムによって表示された環境の仮想現実表現の例を示す。 本明細書において説明し例証する1つ又は複数の実施形態に従った仮想現実システムによって表示された環境の仮想現実表現の例を示す。 本明細書において説明し例証する1つ又は複数の実施形態に従った仮想現実システムによって表示された環境の仮想現実表現の例を示す。 本明細書において説明し例証する1つ又は複数の実施形態に従った仮想現実システムによって表示された環境の仮想現実表現の例を示す。 本明細書において説明し例証する1つ又は複数の実施形態に従った仮想現実システムによって表示された環境の仮想現実表現の例を示す。 本明細書において説明し例証する1つ又は複数の実施形態に従った仮想現実システムによって表示された環境の仮想現実表現の例を示す。
本明細書において説明する実施形態は、ロボット及びロボットの各種タスクに力のベクトルを割り当てる仮想現実システムに関する。下でさらに詳しく説明するように、ロボットは、1つ又は複数の画像化機器と、1つ又は複数の画像捕捉機器と、を含む。仮想現実システムのコントローラは、通信上ロボットに結合され、機械可読命令を含む。機械可読命令がコントローラの1つ又は複数のプロセッサによって実行されるとき、仮想現実システムは、1つ又は複数の画像化機器及び/又は1つ又は複数の画像捕捉機器によって取得されたデータに基づいて環境の仮想現実表現(例えば、二次元(2D)表現、三次元(3D)表現など)を表示するように構成される。いくつかの実施形態において、環境の仮想現実表現は、環境のコンピュータモデルによって生成できる。
更に、機械可読命令がコントローラの1つ又は複数のプロセッサによって実行されるとき、仮想現実システムは、1つ又は複数のタスクユーザーインターフェイス要素を含むメニュを生成するように構成される。タスクユーザーインターフェイス要素は、例えば、仮想現実システムの入力デバイスを使用して選択可能である。選択されたタスクが力のベクトルと関連付けられる場合、仮想現実システムは、仮想現実システムのユーザーがロボットの特定のタスクに力のベクトルを割り当てられるようにする力のベクトルユーザーインターフェイス要素を表示できる。いくつかの実施形態において、ロボットタスク及びこれに対応する力のベクトルは、コントローラを介してユーザーによって、それぞれ選択され、割り当てられて、ロボットシステムを使用して記憶できる。
特定のタスクに力のベクトルを割り当てることによって、ロボットを好ましく作動できるようにする。例えば、あるタスクに力のベクトルを割り当てることによって、例えば、ドアを開けるためにドアのハンドル又はノブを掴んで引っ張るなど、特定のタスクを実施するために最小の力の値が与えられるようにする。別の例として、あるタスクに力のベクトルを割り当てることによって、特定のタスクを実施するための最大の力の値を上回ることなく、それによって、ロボットが、例えばドアを開けるためにドアのハンドル又はノブを掴んで引っ張るときに物体を損傷することを防止できる。更に別の例として、ワイピングタスク(例えば、平行ジョーグリッパを使用して把持されるスポンジエンドエフェクタを使用してテーブルの表面を拭くタスク)にある規模及び方向を持つ力のベクトルを割り当てることによって、ロボットマニピュレータの側方移動は、表面を拭くために一定の又は可変的力がテーブルの表面に与えられるようにできる。したがって、力のベクトルが特定のタスクに割り当てられたときロボットの最適の作動が得られる。
本明細書の説明において、「タスク」は、組み合わせて所望の成果を得るために実施されるように構成された1つ又は複数のロボットコンポーネントの1つ又は複数の動きを意味する。非限定的例として、ワイピングタスクは、テーブルの表面から所定距離にロボットマニピュレータを位置付けて、ロボットマニピュレータをテーブルの表面に対して概ね平行の方向に側方に移動することを含む。
本明細書の説明において、「力のベクトル」は、規模と方向を有する力(例えば、コンポーネントの運動又は加速)を意味する。規模は、規模を量化するために使用される適切な任意の数値及び測定規準(例えば、ニュートン)によって表すことができる。いくつかの実施形態において、ロボットシステムは、加えられた力の規模をフォースセンサを使用して計測するように構成できる。別の実施形態において、ロボットシステムは、加えられた力の規模を直接計測するようには構成されない。ロボットシステムは、第1から第2位置までのコンポーネントの速度及び/又は加速を監視することによって加えられた力を測定し、その後、モーター制御システムまたはその他のフィードバックシステムを使用して加えられた力を測定できる。方向は、力が同平面上、非同平面上、線形、非線形、回転などであることを示すことができる。
図1Aは、ロボット100-1を含むロボットシステム及び環境10-1の例を略図的に示す。図1Aの実施形態に示すように、ロボット100-1は、居住施設、職場、学校、医療施設、製造施設及び/又はこれに類似するものにおいて人の様々なタスクを支援するように構成されたサービスロボットとすることができる。非限定的例として、ロボット100-1は、人がテーブル120から物体122を取り除くのを支援する。
様々な実施形態において、ロボット100-1は、画像捕捉機器102a、102b(まとめて画像捕捉機器102と呼ぶ)と、ロコモーション機器104と、アーム106と、グリップ組立体108と、スクリーン110と、マイクロフォン112と、スピーカ114と、1つ又は複数の画像化機器116と、を含む。ロボット100-1は、他の実施形態において他のコンポーネントを含むことができることが分かるはずである。又、本明細書において説明する実施形態は、ロボットの具体的なタイプに限定されないこと、及びロボット100-1は、他の実施形態において任意のサイズ、構成、自由度及び/又は他の特徴を持つことができることが分かるはずである。
いくつかの実施形態において、画像捕捉機器102は、画像データを取得するように構成される任意の機器とすることができる。非限定的例として、画像捕捉機器102は、テーブル120及びオブジェクト122などの環境10-1内に置かれた物体の静止画像及び/又はデジタルビデオを取得するように構成されたデジタルカメラとすることができる。したがって、コントローラ(図2)は、画像データを受信し、画像データに基づいて様々な機能を実行できる。機能の例は、画像処理アルゴリズム(例えば、機械学習アルゴリズム又はその他の適切なアルゴリズム)及び環境10-1内のロボット100-1をナビゲートするためのナビゲーションアルゴリズムを使用する物体認識を含むが、これに限定されない。
いくつかの実施形態において、画像捕捉機器102の少なくとも1つは、標準解像度(例えば、640ピクセルx480ピクセル)のカメラとすることができる。様々な実施形態において、画像捕捉機器102の少なくとも1つは、高解像度カメラ(例えば、1440ピクセルx1024ピクセル又は1266ピクセルx1024ピクセル)とすることができる。いくつかの実施形態において、画像捕捉機器102の少なくとも1つは、640ピクセルx480ピクセル、1440ピクセルx1024ピクセル又は1266ピクセルx1024ピクセル以外の解像度を持つことができる。
いくつかの実施形態において、ロコモーション機器104は、環境10-1内で移動するためにロボット100-1によって利用できる。非限定的例として、ロコモーション機器104は、軌道ロコモーション機器とすることができる。非限定的例として、図1Bを参照して下で更に詳しく説明するように、ロボット100-1は、1つ又は複数のホイールを使用して作動空間内を移動できる。いくつかの実施形態において、ロボット100-1は、無人航空機又は無人潜水艦とすることができる。
様々な実施形態において、アーム106及びグリップ組立体108は、環境10-1内でロボット100-1が遭遇するアイテムを操作するために様々な機構(例えば、サーボモータードライブ、空圧ドライブ、油圧ドライブ、電気活性高分子モーター及び/又はこれに類似するもの)を使用して作動できる。グリップ組立体108は、回転可能にアーム106に結合でき、アーム106は、例えば、自由度6を持つことができる。グリップ組立体108は、1つ又は複数の画像化機器116を含むことができ、1つ又は複数の画像化機器116の視界及び/又は向きは、グリップ組立体108の回転に応答して回転するように構成される。
図の実施形態は1つのアーム106及び1つのグリップ組立体108を示すが、ロボット100-1は、他の実施形態において、任意の数のアーム及びグリップ組立体を含むことができることが分かるはずである。非限定的例として、図1Bを参照して更に詳しく説明するように、ロボット100-1は、2つのアームを含むことができる。
いくつかの実施形態において、スクリーン110は、テキスト、図形、画像捕捉機器102が取得した画像、及び/又は画像捕捉機器102が取得したビデオを表示できる。非限定的例として、スクリーン110は、ロボット100-1が現在実行しているタスク(例えば、物体122を拾い上げる)を説明するテキストを表示できる。いくつかの実施形態において、スクリーン110は、タッチスクリーンディスプレイ又はその他の適切なディスプレイ機器とすることができる。
様々な実施形態において、マイクロフォン112は、環境10-1において伝播する音響信号(例えば、ユーザーの音声)を記録できる。非限定的例として、マイクロフォン112は、ユーザーによって生成された音響信号(例えば、ユーザーの音声コマンド)を受信し、音響信号に関連付けられる音響振動をスピーチ入力信号に変換するように構成できる。スピーチ入力信号は、更なる処理のためにコントローラ(図2)に与えられる。いくつかの実施形態において、スピーカ114は、データ信号を可聴機械振動へ変換し、ロボット100-1に近接するユーザーがロボット100-1と対話できるように可聴音を出力する。
ロボット100-1は、環境10-1の奥行情報(depth information)を取得するように構成される1つ又は複数の画像化機器116を含むことができる。1つ又は複数の画像化機器116は、RGB-Dセンサ及び/又は環境10-1の奥行情報を取得するように構成された他の奥行センサを含むことができるが、これに限定されない。1つ又は複数の画像化機器116は、適切な任意の解像度を持つことができ、紫外線波長帯、近紫外線波長帯、可視光線波長帯、近赤外線波長帯、赤外線波長帯及び/又はこれに類似するものなど、好ましい任意の波長帯の放射を検出するように構成できる。
いくつかの実施形態において、ロボット100-1は、図2を参照して下でさらに詳しく説明するように、コンピューティング機器140、モービル機器150及び/又は仮想現実システム160の少なくとも1つと、ネットワーク170を介して及び/又は無線通信プロトコルを使用して、通信できる。非限定的例として、ロボット100-1は、画像捕捉機器102を使用して画像を捕捉し、1つ又は複数の画像化機器116を使用して奥行情報を取得できる。その後、ロボット100-1は、無線通信プロトコルを使用して画像及び奥行情報を仮想現実システム160へ送信できる。画像及び奥行情報の受信に応答して、仮想現実システム160は、下で更に詳しく説明するように、環境10-1の仮想現実表現(本明細書において仮想現実環境と呼ぶ場合もある)を表示できる。非限定的例として、仮想現実表現は、画像捕捉機器102が捕捉したロボット100-1の視界、ロボット100-1が位置する部屋又はビルのマップ、ロボット100-1の経路、又はロボット100-1が対話できる物体(例えば、物体122)のハイライトを示すことができる。
別の非限定的例として、コンピューティング機器140及び/又はモービル機器150(例えば、スマートフォン、ラップトップ、PDA及び/又はこれに類似するもの)は、画像捕捉機器102が捕捉した画像を受信し、それぞれのディスプレイ上で画像を表示できる。画像及び奥行情報の受信に応答して、コンピューティング機器140及び/又はモービル機器150は、環境10-1の仮想現実表現も表示できる。
図1Bは、ロボット100-2を含む別の環境10-2の例の概略図である。ロボット100-2は、図1Aを参照して上で説明したロボット100-1と同様であるが、この実施形態において、ロボット100-2は、シャーシ部分124と、胴体部分126と、アーム128a、128b(まとめて、アーム128と呼ぶ)と、ヘッド部分130と、を含む。
いくつかの実施形態において、シャーシ部分124は、ロコモーション機器104を含む。非限定的例として、ロコモーション機器104は、シャーシ部分124に自由度8を与える4つの電動ホイールを含むので、ロボット100-2が、環境10-2内で選択的に操縦及び位置付けを行えるようにする。更に、シャーシ部分124に取り付けられる胴体部分126は、例えば自由度5を胴体部分126に与える1つ又は複数のロボットリンクを含むことができるので、ロボット100-2が広範囲の高さ及び向きに胴体部分126を位置付けられるようにする。
いくつかの実施形態において、アーム128は、各々、例えば自由度7を持つことができるので、ロボット100-2が広範囲の高さ及び向きにアーム128を位置付けられるようにする。更に、アーム128の各々は、それぞれのグリップ組立体108を含むことができ、アーム128は、導体部分126に回転可能に取り付けることができる。いくつかの実施形態において、ロボットのヘッド部分130は、画像捕捉機器102と、スクリーン110と、1つ又は複数の画像化機器116と、マイクロフォン112と、スピーカ114と、を含む。
図2は、ロボット100(即ち、ロボット100-1、100-2の一方)の様々な内部コンポーネントを示す。ロボット100は、1つ又は複数のプロセッサ202及び1つ又は複数のメモリモジュール204を含むコントローラ210と、画像化機器102a、102bと、衛星アンテナ220と、アクチュエータドライブハードウェア230と、ネットワークインターフェイスハードウェア240と、スクリーン110と、マイクロフォン112と、スピーカ114と、1つ又は複数の画像化機器116と、を含む。いくつかの実施形態において、1つ又は複数のプロセッサ202及び1つ又は複数のメモリモジュール204は、単一の集積回路(例えば、チップ上のシステム)に与えることができる。いくつかの実施形態において、1つ又は複数のプロセッサ202及び1つ又は複数のメモリモジュール204は、別個の集積回路として与えることができる。
1つ又は複数のプロセッサ202の各々は、電気的に結合されたコンポーネントと通信するように構成され、ロボット100が作動するように設計される特定の用途に適する市販の又は顧客対応仕様のプロセッサとすることができる。更に、1つ又は複数のプロセッサ202の各々は、機械可読命令を実行できる任意の機器とすることができる。したがって、1つ又は複数のプロセッサ202の各々は、コントローラ、集積回路、マイクロチップ、コンピュータ又はその他の任意のコンピューティング機器とすることができる。1つ又は複数のプロセッサ202は、ロボット100の様々なモジュールの間に信号の相互接続性を与える通信路206に結合される。通信路206は、任意の数のプロセッサを通信上相互に結合でき、通信路206に結合されたモジュールが分散コンピューティング環境において作動できるようにする。具体的には、モジュールの各々は、データを送受信できるノードとして作動できる。本明細書において使用する場合、「通信上結合(される)」は、結合されたコンポーネントが、例えば、導体媒体を介して電気信号を、空気を介して電磁信号を、光導波路を介して光学信号を、など、相互にデータ信号を交換できることを意味する。
従って、通信路206は、例えば、導線、導体トレース、光導波路又はこれに類似するものなど、信号を送信できる任意の媒体から形成できる。更に、通信路206は、信号を送信できる媒体の組合体から形成できる。1つの実施形態において、通信路206は、プロセッサ、メモリ、センサ、入力機器、出力機器及び通信機器などのコンポーネントへ協働して電気データ信号を送信できるようにする導体トレース、導線、コネクタ及びバスの組合せを備える。更に、「信号」は、DC、AC、正弦波、三角波、方形波、振動及びこれに類似するものなど、媒体を介して移動できる波形(例えば、電気、光、磁気、機械的又は電磁気)を意味する。
1つ又は複数のメモリモジュール204は、通信路206に結合できる。1つ又は複数のメモリモジュール204は、RAM、ROM、フラッシュメモリ、ハードドライブ、又は1つ又は複数のプロセッサ202によって機械可読命令にアクセスできるように機械可読命令を記憶できる任意の媒体など、揮発性及び/又は非揮発性コンピュータ可読記憶媒体を含むことができる。機械可読命令は、機械可読命令に編集又はアセンブルでき1つ又は複数のメモリモジュール204に記憶できる、プロセッサによって直接実行できる機械言語又はアセンブリ言語、ユーザー本位プログラミング(OOP)、スクリプト言語、マイクロオードなどの、任意の世代の任意のプログラム言語(例えば、1GL、2GL、3GL、4GL又は5GL)で書けるロジック又はアルゴリズムを含むことができる。又は、機械可読命令は、フィールドプログラマブルゲートアレイ(FPGA)構成又は特定用途集積回路(ASIC)又はこれと同等物を介して実現されるロジックなど、ハードウェア記述言語(HDL)で書くことができる。したがって、本明細書において説明する方法は、プレプログラムドハードウェア要素として又はハードウェアコンポーネントとソフトウェアコンポーネントの組合せとして従来のコンピュータプログラミング言語で実現できる。
1つ又は複数のメモリモジュール204は、1つ又は複数のモジュールを記憶するように構成でき、その各々は、1つ又は複数のプロセッサ202によって実行されたとき本明細書において説明するモジュールの機能性をロボット100に実行させる命令セットを含む。例えば、1つ又は複数のメモリモジュール204は、1つ又は複数のプロセッサ202によって実行されたときロボット100に全般的ロボット作動を実行させる命令セットを含めて(但し、これに限定されない)ロボット作動モジュールを記憶するように構成できる。
更に、1つ又は複数のメモリモジュール204は、仮想現実表現生成モジュール、物体検出モジュール及びメニュモジュールを記憶できる。いくつかの実施形態において、仮想現実表現生成モジュールは、画像捕捉機器102によって取得された画像データ及び1つ又は複数の画像化機器116によって取得された奥行データに基づいて、環境10の仮想現実表現を生成するように構成される。仮想現実表現の生成に応答して、仮想現実表現生成モジュールは、それぞれの機器及び/又はシステムによってその後表示するためにコンピューティング機器140、モービル機器150及び/又は仮想現実システム160の少なくとも1つへ仮想現実表現を送信するように構成される。いくつかの実施形態において、物体検出モジュールは、生成された仮想現実表現に基づいて環境10の中に在る物体を識別し認識するように構成される。様々な実施形態において、メニュモジュールは、仮想現実表現内に表示される1つ又は複数のタスクユーザーインターフェイス要素を生成するように構成される。図3及び図4A~4Fを参照して下で更に詳しく説明するように、メニュモジュールは、対応するロボットタスクが負荷力と対話することを示すタスクユーザーインターフェイス要素の選択に応答して、力のベクトルインターフェイス要素を生成するように構成される。力のベクトルインターフェイス要素は、図3を参照して下で更に詳しく説明するように、ユーザーが、特定のタスクに対応する力のベクトルを指定できるように構成される。
仮想現実表現生成モジュール、メニュモジュール及び物体検出モジュールは、オペレーティングシステム、アプリケーションプログラムモジュール及び1つ又は複数のメモリモジュールに記憶できるその他のプログラムモジュールの形式のプログラムモジュールとすることができる。メニュモジュール及び物体検出モジュールは、固有のタスクを実施するため又は図3を参照して下で説明する固有のデータタイプを実行するためのルーチン、サブルーチン、プログラム、オブジェクト、コンポーネント、データ構造及びこれに類似するものを含むことができるが、これらに限定されない。
画像捕捉機器102は、通信路206に結合できる。画像捕捉機器102は、処理及び/又は記憶のために、周囲の作動空間の画像データを取得するためにかつ取得した画像データを1つ又は複数のプロセッサ202及び/又は1つ又は複数のメモリモジュール204へ送信するために、1つ又は複数のプロセッサ202から制御信号を受信できる。画像捕捉機器102は、1つ又は複数のメモリモジュール204に直接結合できる。別の実施形態において、画像捕捉機器102は、検索のために1つ又は複数のプロセッサ202にアクセス可能な専用メモリ機器(例えば、フラッシュメモリ)を含む。
同様に、スクリーン110、マイクロフォン112、スピーカ114及び1つ又は複数の画像化機器118は、通信路206がスクリーン110、マイクロフォン112、スピーカ114及び1つ又は複数の画像化機器118をロボット100の他のモジュールに通信上結合するように、通信路206に結合できる。スクリーン110、マイクロフォン112、スピーカ114及び1つ又は複数の画像化機器118は、1つ又は複数のメモリモジュール204に直接接続できる。別の実施形態において、スクリーン110、マイクロフォン112、スピーカ114及び1つ又は複数の画像化機器118は、検索のために1つ又は複数のプロセッサ202にアクセス可能な専用メモリ機器を含むことができる。
ロボット100は、通信路206がロボット100の他のモジュールに衛星アンテナ220を通信上結合するように、通信路206に結合された衛星アンテナ220を含む。衛星アンテナ220は、全地球測位システム(GPS)衛星から信号を受信するように構成される。具体的には、1つの実施形態において、衛星アンテナ220は、全地球測位システム衛星によって送信された電磁信号と対話する1つ又は複数の伝導要素を含む。受信した信号は、1つ又は複数のプロセッサ202によって、衛星アンテナ220又は衛星アンテナ220付近に居るユーザーの位置を示すデータ信号に変換される。いくつかの実施形態において、ロボット100は、衛星アンテナ220を含まなくても良い。
アクチュエータドライブハードウェア230は、ロコモーション機器104、アーム106、グリップ組立体108及びロボット100の中に在るその他の任意の外部コンポーネントを制御するためにアクチュエータ及び関連付けられるドライブエレクトロニクスを備えることができる。アクチュエータドライブハードウェア230は、1つ又は複数のプロセッサ202から制御信号を受信し、これに従ってロボット100を作動するように構成できる。アクチュエータドライブハードウェア230の作動パラメータ及び/又はゲインは、1つ又は複数のメモリモジュール204に記憶できる。
ロボット100は、ロボット100をコンピューティング機器140、モービル機器150及び/又は仮想現実システム160と通信上結合するためのネットワークインターフェイスハードウェア240を含む。ネットワークインターフェイスハードウェア240は、通信路206に結合でき、ロボット100が外部システム及び機器と通信できるように無線通信回路として構成できる。ネットワークインターフェイスハードウェア240は、無線通信規格に従ってデータを送受信するために通信トランシーバを含むことができる。例えば、ネットワークインターフェイスハードウェア240は、例えばワイヤレスフィデリティ(Wi-Fi)、WiMax、Bluetooth(登録商標)、IrDA、Wireless USB、Z-Wave、ZigBee(登録商標)又はこれと類似のものなど無線コンピュータネットワーク越しに通信するためにチップセット(例えば、アンテナ、プロセッサ、機械可読命令など)を含むことができる。いくつかの実施形態において、ネットワークインターフェイスハードウェア240は、ロボット100がBluetooth(登録商標)通信を介してコンピューティング機器140、モービル機器150及び/又は仮想現実システム160と情報を交換できるようにするBluetooth(登録商標)トランシーバを含む。いくつかの実施形態において、コンピューティング機器140、モービル機器150及び/又は仮想現実システム160は、ネットワークインターフェイスハードウェア240を介してロボット100との通信を開始する前に認証を受けることができる。いくつかの実施形態において、ロボット100は、ネットワークインターフェイスハードウェア240を含まなくても良い。
仮想現実システム160は、1つ又は複数のプロセッサ262及び1つ又は複数のメモリモジュール264を含むコントローラ260と、入力デバイス266(例えば、ハンドヘルド運動感知コントローラ、ジェスチャ認識デバイス、ボタン、ダイアル、ノブ、ジョイスティックなどを含むデバイス)と、ネットワークインターフェイスハードウェア268と、ディスプレイ機器270と、を含む。1つ又は複数のプロセッサ262、1つ又は複数のメモリモジュール264及びネットワークインターフェイスハードウェア268は、1つ又は複数のプロセッサ202、1つ又は複数のメモリモジュール204及びネットワークインターフェイスハードウェア240と同様のコンポーネントとすることができる。上記の実施形態は、メニュモジュール及び物体検出モジュールを記憶する1つ又は複数のメモリモジュール204について説明するが、1つ又は複数のメモリモジュール264は、他の実施形態において、仮想現実表現モジュール、メニュモジュール及び/又は物体検出モジュールを含むことができることが分かるはずである。又、コンピューティング機器140及びモービル機器150は、他の実施形態において、1つ又は複数のプロセッサ、1つ又は複数のメモリモジュール、入力機器、ネットワークインターフェイスハードウェア及びディスプレイを含むことができることが分かるはずである。
様々な実施形態において、ユーザーは、1つ又は複数のタスクユーザーインターフェイス要素の1つを選択し、入力デバイス266を使用して力のベクトルを画定できる。ディスプレイ機器270は、ユーザーが着用するように構成でき、ディスプレイ機器270をユーザーの身体(例えば、ユーザーの頭部)に固定するためのストラップ又はその他の同様の要素を含むことができる。更に、ディスプレイ機器270は、ロボット100によって生成された仮想現実表現を表示するように構成されたディスプレイを含むことができる。
図3は、ロボットタスクに力のベクトルを割り当てる方法300のフローチャートである。いくつかの実施形態において、方法300は、1つ又は複数のプロセッサ202によって実行されたとき本明細書において説明するステップを実施する機械可読命令の中のロジックとして実現される。方法300は、具体的な順序のステップを示すが、本開示の付加的実施形態は、特定の順序に限定されず、付加的なステップ又はもっと少ないステップを含むことができる。本明細書において説明するステップは、他の実施形態において、コンピューティング機器140、モービル機器150及び仮想現実システム160の少なくとも1つによって実行できることが分かるはずである。
ステップ305において、仮想現実システム160は、環境10の表現を表示する。いくつかの実施形態において、ロボット100は、最初に1つ又は複数の画像捕捉機器102を使用して環境10の画像データを、1つ又は複数の画像化機器116を使用して環境10の奥行情報を取得できる。その後、ロボット100の1つ又は複数のプロセッサ202は、取得した画像データ及び奥行情報に基づいて、環境10の仮想現実表現を生成するように構成できる。更に、物体検出モジュールは、環境10内に在る物体を識別し認識し、識別され認識された物体に対応する指示を生成できる。更に、メニュモジュールは、1つ又は複数のタスクユーザーインターフェイス要素を生成できる。
その後、1つ又は複数のプロセッサ202は、環境10の仮想現実表現、識別され認識された物体に対応するインディケータ及び1つ又は複数のタスクユーザーインターフェイス要素を仮想現実システム160へ送信できる。したがって、仮想現実システム160のディスプレイ機器270は、その後、仮想現実表現、識別され認識された物体に対応するインディケータ及び1つ又は複数のタスクユーザーインターフェイス要素を表示できる。非限定的例として、図4Aに示すように、仮想現実表現400は、識別され認識された物体(例えば、キャビネットドアのノブ/ハンドル)に関連付けられる複数の領域405、1つ又は複数のタスクユーザーインターフェイス要素415を含むメニュ410及びロボット100の様々な作動特性及び/又は特徴を説明する補足的テキスト420を含むことができる。
1つ又は複数のタスクユーザーインターフェイス要素415の各々は、他のロボットタスクと順次配列できるロボットタスクと関連付けることができる。非限定的例として、1つ又は複数のタスクユーザーインターフェイス要素415は、把持、リフト、プレース、引張り、後退、ワイプ、ジョイントの運動、ある位置までのドライブ、ロボット100の速度の制御、追跡、ルック及びストップ及びこれに類似することを含む(但し、これらに限定されない)ロボットタスクと関連付けることができる。更に、各ロボットタスクは、ロボット100の1つ又は複数の部分の関節運動又はカルテシアン運動などのロボットタスクと関連付けられる1つ又は複数の移動を持つことができる。1つ又は複数の移動の各々は、位置制御、速度制御、アドミッタンス制御及び/又は運動制御など異なる制御方法を実現できる。
いくつかの実施形態において、各ロボットタスクは、様々なパラメータ化された動作を持つことができる。本明細書において使用する場合、パラメータ化された動作は、パラメータで表すことができる動作を指すことができる。非限定的例として、把持タスクは、グリップ組立体108のグリッパ角度パラメータ、6Dアプローチパラメータ、把持パラメータ及びリフトポーズパラメータを含むことができるが、これらに限定されない。いくつかの実施形態において、パラメータ化動作を画定することは、ロボット100が把持タスクと関連付けられる一連のステップを実行できるようにする。非限定的例として、一連のステップは、グリップ組立体108を所望のグリッパ角度まで開くこと、6Dアプローチポーズまでグリップ組立体108の無衝突経路を企画し実行すること、6D把持ポーズまでグリップ組立体108を移動すること、接触したら停止すること、グリップ組立体108を閉じること、6Dリフトポーズまでグリップ組立体108を移動すること、を含むことができる。
いくつかの実施形態において、各ロボットタスクは、ユーザーが画定できる様々な非パラメータ化ロボット操作及び/又は動作を持つことができる。本明細書において使用する場合、非パラメータ化動作は、パラメータで表されない動作を指すことができる。非パラメータ化ロボット操作及び/又は動作の非限定的例は、画定方向にロボット100を移動することを含むことができるが、これに限定されない。非パラメータ化ロボット操作及び/又は動作は、仮想現実環境において入力デバイス266(例えば、ハンドヘルド運動コントローラ)を介してユーザーが画定できる。
図3に戻ると、ステップ310において、仮想現実システム160のユーザーは、ロボット100を操作し、タスクを選択する。いくつかの実施形態において、ユーザーは、ロボット100を操作しかつ/又はロボット100のタスクを選択するために仮想現実システム160の入力デバイス266を使用できる。非限定的例として、図4Bに示すように、ユーザーが入力デバイス266を使用するとき、仮想現実表現400は、入力デバイス266を表すグラフィカル要素430を含むことができる。入力デバイス266の移動及びこれとの対話は、入力デバイス266の移動及び/又はこれとの対話に基づいて、仮想現実表現400内でグラフィカル要素430を動かしかつ/又はその向きを調節できるようにする。非限定的例として、入力デバイス266を地面へ向けて傾けると、グラフィカル要素430を仮想現実表現400の地面へ向けて傾けることができる。グラフィカル要素430は、入力デバイスとして図示するが、グラフィカル要素430は他の実施形態において可変的なサイズ及び/又は形状を持つことができることが分かるはずである。
更に、グラフィカル要素430は、入力デバイス266が現在整列されているのが1つ又は複数のタスクユーザーインターフェイス要素415のどのタスクユーザーインターフェイス要素なのかを示す、グラフィカル要素から突出するインディケータ432を含むことができる。非限定的例として、図4Bに示すように、ユーザーは、今、対応するグラフィカル要素430が引張りタスクに対応するタスクユーザーインターフェイス要素と整列するように入力デバイス266を位置付けている。
再び図3を参照すると、ステップ315において、1つ又は複数のプロセッサ202は、選択されたタスクが負荷力とのロボット100の対話と関連付けられるか否かを判定する。いくつかの実施形態において、タスクは、対応するパラメータ化動作の少なくとも1つが負荷力との対話と関連付けられる場合、負荷力とのロボット100の対話と関連付けることができる。負荷力との対話と関連付けることができるタスクの非限定的例は、把持、リフト、プレース、引張り、後退、ワイプ及びこれと類似することを含む。負荷力との対話と関連付け出来ないタスクの非限定的例は、ドライブ、活動的障害物回避の追跡、ルック及びストップを含む。様々なタスクの任意の1つを負荷力と対話するタスクとして指定でき、1つ又は複数のプロセッサ202は、タスクが負荷力と対話するものとして指定されるかどうか判定するために、1つ又は複数のメモリモジュール204のルックアップテーブルを参照できることが分かるはずである。選択されたタスクが負荷力とのロボット100の対話と関連付けられる場合、方法300は、ステップ320へ進み、そうでなければ、方法300はステップ340へ進む。
ステップ315の非限定的例として、1つ又は複数のプロセッサ202は、引張りタスクに対応する選択されたタスクユーザーインターフェイス要素が負荷力とのロボット100の対話と関連付けられると判定する。選択に応答して(例えば、入力デバイス266を仕様して)、ユーザーは、その後、下でさらに詳しく説明するように引張りタスクのパラメータ化動作を画定できる。
ステップ320において、ユーザーは、選択されたタスクの1つ又は複数のパラメータ化動作を画定し、1つ又は複数のプロセッサ202は、力のベクトルインターフェイスを生成し、仮想現実システム160へこれを送信する。力のベクトルインターフェイスの受信に応答して、仮想現実システムのディスプレイ機器270は、力のベクトルインターフェイスを表示する。上に説明するように、タスクのパラメータ化動作の少なくとも1つは、負荷力との対話と関連付けることができない場合がある。したがって、ディスプレイ機器270は、ユーザーが画定する特定のパラメータ化動作が負荷力との対話と関連付けられる場合、力のベクトルインターフェイスを表示できる。ステップ320の非限定的例として、図4C~4Dに示すように、仮想現実表現400は、第1ポイント450-1及び第2ポイント450-2を使用して(即ち、第1ラインポイント及び第2ラインポイントに注釈を付ける)引張りタスクの代表位置を画定するなど引張りタスクのパラメータ化動作を画定するための命令を示す命令テキスト440を表示できる。更に、代表位置を画定することは、負荷力との対話と関連付けられないので、仮想現実表現400は、力のベクトルインターフェイスを生成しない。
別の非限定的例として、引張りタスクの所望の角度までグリップ組立体108を開くパラメータ化動作は、たとえ全体として引張りタスクが負荷力との対話と関連付けられても、負荷力との対話と関連付けできない。更に別の非限定的例として、6Dリフトポーズまでグリップ組立体108を移動するパラメータ化動作は、負荷力との対話と関連付けできる(例えば、グリップ組立体108は、6Dリフトポーズまでグリップ組立体108を移動するために100Nの力を生成する必要がある)。
いくつかの実施形態において、仮想現実システム160のディスプレイ機器270は、パラメータ化動作が画定されるとき付加的グラフィカル要素を表示できる。非限定的例として、図4Eに概略的に示すように、引張りタスクの代表位置の画定に応答して、ディスプレイ機器270は、ロボット100のグリップ組立体108を表すグラフィカル要素460及びロボット100のアーム106を表すグラフィカル要素465を含むように仮想現実表現400を更新できる。仮想現実システム160の入力デバイス266を使用して、ユーザーは、第1ポイント450-1と第2ポイント450-2との間に位置するライン455と整列するようにグラフィカル要素の460及びグラフィカル要素465の一方の位置を操作できる。
更に、ユーザーによって画定されるパラメータ化動作が負荷力との対話と関連付けられる場合、ディスプレイ機器270は、力のベクトルインターフェイスを含むように仮想現実表現400を更新できる。非限定的例として、図4Fに示すように、ユーザーは、ロボットアーム106の回転特性を画定するなど引張りタスクの次のパラメータ化動作を画定できる。したがって、ディスプレイ機器270は、力のベクトルインターフェイスを含むむように仮想現実表現400を更新でき、仮想現実表現は、力の規模値470を入力し力の矢印480を対話式に位置付けるよう促すプロンプトを含むことができる。力の規模値470は、パラメータ化動作と関連付けられる力の値(例えば、11ニュートン)を示し、力の矢印480は、パラメータ化動作と関連付けられる方向を示すことができる。
図3に戻ると、ユーザーがステップ320において力の規模及び力の方向の少なくとも一方をパラメータ化動作に割り当てるとき、力の規模及び/又は力の方向を割り当てるために、モーショントレーニングを一時停止できる(例えば、入力デバイス266を使用して)。モーショントレーニングは、力の規模及び/又は力の方向がパラメータ化動作に割り当てられたら、その後、再開できる。したがって、1つ又は複数のパラメータ化運動によって画定されるタスクは、予画定されたタスクを自律的に作動するときロボット100によって利用できる力のパラメータを含む。
ステップ325において、1つ又は複数のプロセッサ202は、対応するパラメータ化動作についての力のベクトル選択を受信する。ステップ325の非限定的例として、ユーザーは、仮想現実システム160の入力デバイス266を使用して力の規模及び力の方向の少なくとも一方を画定できる。いくつかの実施形態において、図4Fを参照すると、力の規模値470及び力の矢印480は、ユーザーが力の規模及び/又は力の方向を画定するのに応答して更新するように構成できる。非限定的例として、パラメータ化動作の力の値の増大に応答して、更新された力の値を反映するために、力の規模値470は更新され、かつ/又は力の矢印480の長さは増大する。別の非限定的例として、パラメータ化動作の力の値の減少に応答して、更新された力の値を反映するために、力の規模値470は更新されかつ/又は力の矢印480の長さは減少する。更に別の非限定的例として、力の方向の調節に応答して、力の矢印480は、調節された力の方向に基づいて、その形状、サイズ及び/又は向きを調節できる。
図3を参照すると、ステップ330において、1つ又は複数のプロセッサ202は、選択された力のベクトルをパラメータ化動作に割り当てて、その後ステップ335へ進む。
ステップ335において、1つ又は複数のプロセッサ202は、タスクが付加的パラメータ化動作を含むか否かを判定する。これを含む場合、方法300は、ステップ320へ進む。これを含まない場合、方法300は、ステップ340へ進む。ステップ340において、1つ又は複数のプロセッサ202は、ロボット100の付加的タスクを画定する必要があるか否かを判定する。ステップ340の非限定的例として、ユーザーは、仮想現実システム160の入力デバイス266を使用して、ロボット100の付加的タスクを画定する必要があるか否かを示す信号をロボット100へ送信できる。必要な場合、方法300はステップ345へ進む。ステップ345において、仮想現実システム160のユーザーは、ロボット100を操作し、画定すべき次のタスクを選択して、ステップ315へ進む。画定を必要とするロボットの付加的なタスク100がない場合、方法300は終了する。
本開示の実施形態は、ロボット及びロボットの様々なタスクに力のベクトルを割り当てるように構成された仮想現実システムに関することが分かるはずである。特定のタスクへの力のベクトルの割当てによって、ロボットが様々なタスクを実行するとき最適の確固さを保証する。更に、ロボットの1つ又は複数のタスクに力のベクトルを割り当てるために仮想現実システムを使用することによって、ユーザーは、ロボットの1つ又は複数のタスクを画定するためにタスク空間運動制御を使用することなく、1つ又は複数のタスク及びこれと関連付けられる力のベクトルを画定できる。
特定の実施形態を図示しこれについて本明細書において説明したが、主張する内容の範囲から逸脱することなく、様々な他の変更及び修正を加えることができることが分かるはずである。更に、主張する内容の様々な形態について本明細書において説明したが、前記の形態は、組み合わせて利用する必要はない。したがって、特許請求の範囲は、主張する内容の範囲内にある全ての変更及び修正を包含することを意図する。
特定の実施形態を図示しこれについて本明細書において説明したが、主張する内容の範囲から逸脱することなく、様々な他の変更及び修正を加えることができることが分かるはずである。更に、主張する内容の様々な形態について本明細書において説明したが、前記の形態は、組み合わせて利用する必要はない。したがって、特許請求の範囲は、主張する内容の範囲内にある全ての変更及び修正を包含することを意図する。
本明細書に開示される発明は以下の態様を含む。
〔態様1〕
システムであって、
環境の仮想現実表現を生成し、
前記環境の前記仮想現実表現内に少なくとも1つのタスクユーザーインターフェイス要素を含むメニュを生成し、
力のパラメータを構成するためのオプションが前記メニュの前記少なくとも1つのタスクユーザーインターフェイス要素から選択されたときを判定し、
仮想ロボット操作タスクのために前記力のパラメータを構成するよう促すプロンプトをユーザーへ発し、
前記力のパラメータを構成するための前記プロンプトから受信した入力に応答して力の規模又は力の方向の少なくとも一方を前記仮想ロボット操作タスクに割り当てる、
ように構成された電子コントローラ、
を備える、システム。
〔態様2〕
前記電子コントローラは、
画像捕捉機器から前記環境の画像データを受信し、
画像化機器から前記環境に対応する奥行情報を受信し、
前記画像データ及び前記奥行情報に基づいて前記仮想現実表現を生成する、
ように構成される、態様1に記載のシステム。
〔態様3〕
前記力のパラメータを構成するための前記オプションが前記メニュの前記少なくとも1つのタスクユーザーインターフェイス要素から選択されたときを判定することによって、前記電子コントローラが、前記少なくとも1つのタスクユーザーインターフェイス要素が少なくとも1つのパラメータ化動作と関連付けられると判定する、態様1に記載のシステム。
〔態様4〕
前記電子コントローラは、前記仮想現実表現及び前記メニュの少なくとも一方をディスプレイ機器へ送信するように構成される、態様1に記載のシステム。
〔態様5〕
前記電子コントローラは、
入力デバイスから前記少なくとも1つのタスクユーザーインターフェイス要素の選択を受信し、
前記入力デバイスから前記力のパラメータを構成するための前記プロンプトからの前記入力を受信する、
ように構成される、態様1に記載のシステム。
〔態様6〕
システムであって、
環境の仮想現実表現を表示し、
前記仮想現実表現内に少なくとも1つのタスクユーザーインターフェイス要素を含むメニュを表示し、
力のパラメータを構成するためのオプションが前記メニュの前記少なくとも1つのタスクユーザーインターフェイス要素から選択されたときを判定し、
仮想ロボット操作タスクのために前記力のパラメータを構成するようにユーザーに命令するプロンプトを表示し、
前記力のパラメータを構成するための前記プロンプトから受信した入力に応答して力の規模又は力の方向の少なくとも一方の前記仮想ロボット操作タスクへの割当てを示す信号を送信する、
ように構成された電子コントローラ、
を備える、システム。
〔態様7〕
前記プロンプトを表示することは、更に、
力の規模を示すように構成された力の規模要素と、
力の方向を示すように構成された力の方向要素と、
を表示することを含む、態様6に記載のシステム。
〔態様8〕
前記プロンプトから受信した前記入力は、更に、
入力デバイスを使用する前記力の規模要素との第1対話と、
前記入力デバイスを使用する前記力の方向要素との第2対話と、
を含む、態様7に記載のシステム。
〔態様9〕
前記力のパラメータを構成するための前記オプションが前記メニュの前記少なくとも1つのタスクユーザーインターフェイス要素から選択されたときを判定することは、更に、入力デバイスを使用する前記少なくとも1つのタスクユーザーインターフェイス要素の選択を受信することを含む、態様6に記載のシステム。
〔態様10〕
前記電子コントローラは、
画像捕捉機器から前記環境の画像データを受信し、
前記画像データに基づいて前記仮想現実表現を表示する、
ように構成される、態様6に記載のシステム。
〔態様11〕
前記電子コントローラは、
画像化機器から前記環境の画像化データを受信し、
前記画像化データに基づいて前記仮想現実表現を表示する、
ように構成される、態様10に記載のシステム。
〔態様12〕
前記力のパラメータを構成するための前記オプションが前記メニュの前記少なくとも1つのタスクユーザーインターフェイス要素から選択されたときを判定することによって、更に、前記電子コントローラが、前記少なくとも1つのタスクユーザーインターフェイス要素が少なくとも1つのパラメータ化動作と関連付けられるという指示を受信する、態様6に記載のシステム。
〔態様13〕
1つ又は複数のプロセッサによって、環境の仮想現実表現を生成することと、
前記1つ又は複数のプロセッサによって、前記環境の前記仮想現実表現内に少なくとも1つのタスクユーザーインターフェイス要素を含むメニュを生成することと、
前記1つ又は複数のプロセッサによって、力のパラメータを構成するためのオプションが前記メニュの前記少なくとも1つのタスクユーザーインターフェイス要素から選択されたときを判定することと、
前記1つ又は複数のプロセッサによって、仮想ロボット操作タスクのために前記力のパラメータを構成するように促すプロンプトをユーザーに発することと、
前記1つ又は複数のプロセッサによって、前記力のパラメータを構成するための前記プロンプトから受信した入力に応答して力の規模又は力の方向の少なくとも一方を前記仮想ロボット操作タスクに割り当てることと、
を含む、方法。
〔態様14〕
前記1つ又は複数のプロセッサによって、画像捕捉機器から前記環境の画像データを受信することと、
前記1つ又は複数のプロセッサによって、画像化機器から前記環境に対応する奥行情報を受信することと、
前記1つ又は複数のプロセッサによって、前記画像データ及び前記奥行情報に基づいて前記仮想現実表現を生成することと、
を更に含む、態様13に記載の方法。
〔態様15〕
前記力のパラメータを構成するための前記オプションが前記メニュの前記少なくとも1つのタスクユーザーインターフェイス要素から選択されたときを判定することは、更に、前記1つ又は複数のプロセッサによって、前記少なくとも1つのタスクユーザーインターフェイス要素が少なくとも1つのパラメータ化動作と関連付けられると判定することを含む、態様13に記載の方法。
〔態様16〕
前記1つ又は複数のプロセッサによって、前記仮想現実表現及び前記メニュの少なくとも一方をディスプレイ機器へ送信することを更に含む、態様13に記載の方法。
〔態様17〕
前記1つ又は複数のプロセッサによって、入力デバイスから前記少なくとも1つのタスクユーザーインターフェイス要素の選択を受信することと、
前記1つ又は複数のプロセッサによって、前記入力デバイスから前記力のパラメータを構成するためのプロンプトからの入力を受信すること、
を更に含む、態様13に記載の方法。
〔態様18〕
前記1つ又は複数のプロセッサによって、前記仮想現実表現を仮想現実システムへ送信することであって、前記仮想現実表現が、前記仮想現実表現の受信に応答して前記仮想現実システムのディスプレイ機器を使用して前記仮想現実システムに前記仮想現実表現を表示させるように構成されるという、前記仮想現実表現を送信すること、
を更に含む、態様13に記載の方法。
〔態様19〕
前記1つ又は複数のプロセッサによって、前記仮想現実システムへ前記メニュを送信することであって、前記メニュを送信することが、前記メニュの受信に応答して前記ディスプレイ機器を使用して前記仮想現実システムに前記メニュを表示させるように構成されるという、前記メニュを送信すること、
を更に含む、態様18に記載の方法。
〔態様20〕
前記1つ又は複数のプロセッサによって、前記仮想現実システムへ前記プロンプトを送信することであって、前記プロンプトを送信することが、前記プロンプトの受信に応答して前記仮想現実システムに前記プロンプトを表示させるように構成されるという、前記プロンプトを送信すること、
を更に含む、態様18に記載の方法。

Claims (20)

  1. システムであって、
    環境の仮想現実表現を生成し、
    前記環境の前記仮想現実表現内に少なくとも1つのタスクユーザーインターフェイス要素を含むメニュを生成し、
    力のパラメータを構成するためのオプションが前記メニュの前記少なくとも1つのタスクユーザーインターフェイス要素から選択されたときを判定し、
    仮想ロボット操作タスクのために前記力のパラメータを構成するよう促すプロンプトをユーザーへ発し、
    前記力のパラメータを構成するための前記プロンプトから受信した入力に応答して力の規模又は力の方向の少なくとも一方を前記仮想ロボット操作タスクに割り当てる、
    ように構成された電子コントローラ、
    を備える、システム。
  2. 前記電子コントローラは、
    画像捕捉機器から前記環境の画像データを受信し、
    画像化機器から前記環境に対応する奥行情報を受信し、
    前記画像データ及び前記奥行情報に基づいて前記仮想現実表現を生成する、
    ように構成される、請求項1に記載のシステム。
  3. 前記力のパラメータを構成するための前記オプションが前記メニュの前記少なくとも1つのタスクユーザーインターフェイス要素から選択されたときを判定することによって、前記電子コントローラが、前記少なくとも1つのタスクユーザーインターフェイス要素が少なくとも1つのパラメータ化動作と関連付けられると判定する、請求項1に記載のシステム。
  4. 前記電子コントローラは、前記仮想現実表現及び前記メニュの少なくとも一方をディスプレイ機器へ送信するように構成される、請求項1に記載のシステム。
  5. 前記電子コントローラは、
    入力デバイスから前記少なくとも1つのタスクユーザーインターフェイス要素の選択を受信し、
    前記入力デバイスから前記力のパラメータを構成するための前記プロンプトからの前記入力を受信する、
    ように構成される、請求項1に記載のシステム。
  6. システムであって、
    環境の仮想現実表現を表示し、
    前記仮想現実表現内に少なくとも1つのタスクユーザーインターフェイス要素を含むメニュを表示し、
    力のパラメータを構成するためのオプションが前記メニュの前記少なくとも1つのタスクユーザーインターフェイス要素から選択されたときを判定し、
    仮想ロボット操作タスクのために前記力のパラメータを構成するようにユーザーに命令するプロンプトを表示し、
    前記力のパラメータを構成するための前記プロンプトから受信した入力に応答して力の規模又は力の方向の少なくとも一方の前記仮想ロボット操作タスクへの割当てを示す信号を送信する、
    ように構成された電子コントローラ、
    を備える、システム。
  7. 前記プロンプトを表示することは、更に、
    力の規模を示すように構成された力の規模要素と、
    力の方向を示すように構成された力の方向要素と、
    を表示することを含む、請求項6に記載のシステム。
  8. 前記プロンプトから受信した前記入力は、更に、
    入力デバイスを使用する前記力の規模要素との第1対話と、
    前記入力デバイスを使用する前記力の方向要素との第2対話と、
    を含む、請求項7に記載のシステム。
  9. 前記力のパラメータを構成するための前記オプションが前記メニュの前記少なくとも1つのタスクユーザーインターフェイス要素から選択されたときを判定することは、更に、入力デバイスを使用する前記少なくとも1つのタスクユーザーインターフェイス要素の選択を受信することを含む、請求項6に記載のシステム。
  10. 前記電子コントローラは、
    画像捕捉機器から前記環境の画像データを受信し、
    前記画像データに基づいて前記仮想現実表現を表示する、
    ように構成される、請求項6に記載のシステム。
  11. 前記電子コントローラは、
    画像化機器から前記環境の画像化データを受信し、
    前記画像化データに基づいて前記仮想現実表現を表示する、
    ように構成される、請求項10に記載のシステム。
  12. 前記力のパラメータを構成するための前記オプションが前記メニュの前記少なくとも1つのタスクユーザーインターフェイス要素から選択されたときを判定することによって、更に、前記電子コントローラが、前記少なくとも1つのタスクユーザーインターフェイス要素が少なくとも1つのパラメータ化動作と関連付けられるという指示を受信する、請求項6に記載のシステム。
  13. 1つ又は複数のプロセッサによって、環境の仮想現実表現を生成することと、
    前記1つ又は複数のプロセッサによって、前記環境の前記仮想現実表現内に少なくとも1つのタスクユーザーインターフェイス要素を含むメニュを生成することと、
    前記1つ又は複数のプロセッサによって、力のパラメータを構成するためのオプションが前記メニュの前記少なくとも1つのタスクユーザーインターフェイス要素から選択されたときを判定することと、
    前記1つ又は複数のプロセッサによって、仮想ロボット操作タスクのために前記力のパラメータを構成するように促すプロンプトをユーザーに発することと、
    前記1つ又は複数のプロセッサによって、前記力のパラメータを構成するための前記プロンプトから受信した入力に応答して力の規模又は力の方向の少なくとも一方を前記仮想ロボット操作タスクに割り当てることと、
    を含む、方法。
  14. 前記1つ又は複数のプロセッサによって、画像捕捉機器から前記環境の画像データを受信することと、
    前記1つ又は複数のプロセッサによって、画像化機器から前記環境に対応する奥行情報を受信することと、
    前記1つ又は複数のプロセッサによって、前記画像データ及び前記奥行情報に基づいて前記仮想現実表現を生成することと、
    を更に含む、請求項13に記載の方法。
  15. 前記力のパラメータを構成するための前記オプションが前記メニュの前記少なくとも1つのタスクユーザーインターフェイス要素から選択されたときを判定することは、更に、前記1つ又は複数のプロセッサによって、前記少なくとも1つのタスクユーザーインターフェイス要素が少なくとも1つのパラメータ化動作と関連付けられると判定することを含む、請求項13に記載の方法。
  16. 前記1つ又は複数のプロセッサによって、前記仮想現実表現及び前記メニュの少なくとも一方をディスプレイ機器へ送信することを更に含む、請求項13に記載の方法。
  17. 前記1つ又は複数のプロセッサによって、入力デバイスから前記少なくとも1つのタスクユーザーインターフェイス要素の選択を受信することと、
    前記1つ又は複数のプロセッサによって、前記入力デバイスから前記力のパラメータを構成するためのプロンプトからの入力を受信すること、
    を更に含む、請求項13に記載の方法。
  18. 前記1つ又は複数のプロセッサによって、前記仮想現実表現を仮想現実システムへ送信することであって、前記仮想現実表現が、前記仮想現実表現の受信に応答して前記仮想現実システムのディスプレイ機器を使用して前記仮想現実システムに前記仮想現実表現を表示させるように構成されるという、前記仮想現実表現を送信すること、
    を更に含む、請求項13に記載の方法。
  19. 前記1つ又は複数のプロセッサによって、前記仮想現実システムへ前記メニュを送信することであって、前記メニュを送信することが、前記メニュの受信に応答して前記ディスプレイ機器を使用して前記仮想現実システムに前記メニュを表示させるように構成されるという、前記メニュを送信すること、
    を更に含む、請求項18に記載の方法。
  20. 前記1つ又は複数のプロセッサによって、前記仮想現実システムへ前記プロンプトを送信することであって、前記プロンプトを送信することが、前記プロンプトの受信に応答して前記仮想現実システムに前記プロンプトを表示させるように構成されるという、前記プロンプトを送信すること、
    を更に含む、請求項18に記載の方法。
JP2022516078A 2019-09-13 2020-08-20 ロボットのタスクに力のベクトルを割り当てるための方法及びシステム Active JP7326595B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201962900143P 2019-09-13 2019-09-13
US62/900,143 2019-09-13
US16/692,272 US11262887B2 (en) 2019-09-13 2019-11-22 Methods and systems for assigning force vectors to robotic tasks
US16/692,272 2019-11-22
PCT/US2020/047132 WO2021050232A1 (en) 2019-09-13 2020-08-20 Methods and systems for assigning force vectors to robotic tasks

Publications (2)

Publication Number Publication Date
JP2022538370A true JP2022538370A (ja) 2022-09-01
JP7326595B2 JP7326595B2 (ja) 2023-08-15

Family

ID=72422233

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022516078A Active JP7326595B2 (ja) 2019-09-13 2020-08-20 ロボットのタスクに力のベクトルを割り当てるための方法及びシステム

Country Status (6)

Country Link
US (1) US11262887B2 (ja)
EP (1) EP4027930A1 (ja)
JP (1) JP7326595B2 (ja)
KR (1) KR102554815B1 (ja)
CN (1) CN114364497A (ja)
WO (1) WO2021050232A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022124398A1 (ja) * 2020-12-10 2022-06-16 三菱電機株式会社 遠隔制御マニピュレータシステムおよび遠隔制御支援システム
CN113843801B (zh) 2021-10-18 2022-11-29 上海节卡机器人科技有限公司 复合机器人的控制方法、装置及系统
KR102639276B1 (ko) * 2021-12-09 2024-02-22 한국전자기술연구원 가상 공간의 다양한 작업 콘텐츠를 이용하여 원격에서 로봇을 제어하는 원격제어장치 및 시스템

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014503376A (ja) * 2011-01-28 2014-02-13 インタッチ テクノロジーズ インコーポレーション モバイルテレプレゼンスロボットとのインタフェーシング
JP2015520040A (ja) * 2012-06-21 2015-07-16 リシンク ロボティクス インコーポレイテッド 産業用ロボットを訓練および動作させること
US20150197007A1 (en) * 2010-05-11 2015-07-16 Irobot Corporation Remote Vehicle Missions and Systems for Supporting Remote Vehicle Missions
WO2015134391A1 (en) * 2014-03-03 2015-09-11 University Of Washington Haptic virtual fixture tools
US20160257000A1 (en) * 2015-03-04 2016-09-08 The Johns Hopkins University Robot control, training and collaboration in an immersive virtual reality environment

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5835693A (en) * 1994-07-22 1998-11-10 Lynch; James D. Interactive system for simulation and display of multi-body systems in three dimensions
US8738181B2 (en) * 2007-04-16 2014-05-27 Alexander Greer Methods, devices, and systems for automated movements involving medical robots
US8253746B2 (en) * 2009-05-01 2012-08-28 Microsoft Corporation Determine intended motions
US9582933B1 (en) * 2012-06-26 2017-02-28 The Mathworks, Inc. Interacting with a model via a three-dimensional (3D) spatial environment
WO2014110682A1 (en) 2013-01-18 2014-07-24 Robotiq Inc. Force/torque sensor, apparatus and method for robot teaching and operation
US9465384B1 (en) * 2013-06-24 2016-10-11 Redwood Robotics, Inc. Methods and systems for tiered programming of robotic device
US9283674B2 (en) * 2014-01-07 2016-03-15 Irobot Corporation Remotely operating a mobile robot
US9579799B2 (en) * 2014-04-30 2017-02-28 Coleman P. Parker Robotic control system using virtual reality input
US20150328772A1 (en) * 2014-05-14 2015-11-19 Yaskawa America, Inc. Method, apparatus, and medium for programming industrial robot
US10416760B2 (en) * 2014-07-25 2019-09-17 Microsoft Technology Licensing, Llc Gaze-based object placement within a virtual reality environment
US10725297B2 (en) * 2015-01-28 2020-07-28 CCP hf. Method and system for implementing a virtual representation of a physical environment using a virtual reality environment
US9880553B1 (en) * 2015-04-28 2018-01-30 Hrl Laboratories, Llc System and method for robot supervisory control with an augmented reality user interface
JP6676286B2 (ja) * 2015-05-12 2020-04-08 キヤノン株式会社 情報処理方法、および情報処理装置
US9687982B1 (en) * 2015-05-27 2017-06-27 X Development Llc Adapting programming of a robot and/or control of the robot based on one or more parameters of an end effector of the robot
US10730180B2 (en) * 2015-05-29 2020-08-04 Abb Schweiz Ag User interface for a teleoperated robot
US10788836B2 (en) * 2016-02-29 2020-09-29 AI Incorporated Obstacle recognition method for autonomous robots
US9671777B1 (en) 2016-06-21 2017-06-06 TruPhysics GmbH Training robots to execute actions in physics-based virtual environment
JP2018015857A (ja) * 2016-07-29 2018-02-01 セイコーエプソン株式会社 制御装置、及びロボット
US10242476B2 (en) * 2017-05-31 2019-03-26 Verizon Patent and Licensong Inc. Methods and systems for dynamically representing, within a virtual reality data stream being presented to a user, a proxy object that corresponds to an object in the real-world environment of the user
US10610303B2 (en) * 2017-06-29 2020-04-07 Verb Surgical Inc. Virtual reality laparoscopic tools
US10562181B2 (en) * 2017-07-03 2020-02-18 X Development Llc Determining and utilizing corrections to robot actions
JP7187765B2 (ja) * 2017-07-24 2022-12-13 セイコーエプソン株式会社 ロボット制御装置
US10913154B2 (en) 2018-01-02 2021-02-09 General Electric Company Systems and method for robotic learning of industrial tasks based on human demonstration
EP3566824B1 (en) * 2018-05-11 2023-06-28 Siemens Aktiengesellschaft Method, apparatus, computer-readable storage media and a computer program for robotic programming
US10678264B2 (en) * 2018-10-10 2020-06-09 Midea Group Co., Ltd. Method and system for providing remote robotic control

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150197007A1 (en) * 2010-05-11 2015-07-16 Irobot Corporation Remote Vehicle Missions and Systems for Supporting Remote Vehicle Missions
JP2014503376A (ja) * 2011-01-28 2014-02-13 インタッチ テクノロジーズ インコーポレーション モバイルテレプレゼンスロボットとのインタフェーシング
JP2015520040A (ja) * 2012-06-21 2015-07-16 リシンク ロボティクス インコーポレイテッド 産業用ロボットを訓練および動作させること
WO2015134391A1 (en) * 2014-03-03 2015-09-11 University Of Washington Haptic virtual fixture tools
US20160257000A1 (en) * 2015-03-04 2016-09-08 The Johns Hopkins University Robot control, training and collaboration in an immersive virtual reality environment

Also Published As

Publication number Publication date
US20210081081A1 (en) 2021-03-18
CN114364497A (zh) 2022-04-15
US11262887B2 (en) 2022-03-01
KR102554815B1 (ko) 2023-07-14
JP7326595B2 (ja) 2023-08-15
EP4027930A1 (en) 2022-07-20
WO2021050232A1 (en) 2021-03-18
KR20220108761A (ko) 2022-08-03

Similar Documents

Publication Publication Date Title
JP7326595B2 (ja) ロボットのタスクに力のベクトルを割り当てるための方法及びシステム
US9002517B2 (en) Telematic interface with directional translation
JP7545993B2 (ja) 1つ又は複数のロボットの拘束条件管理のためのシステム及び方法
CN109551476B (zh) 结合云服务系统的机器人系统
US11279036B2 (en) Methods and systems for implementing customized motions based on individual profiles for identified users
EP3585569B1 (en) Systems, apparatus, and methods for robotic learning and execution of skills
CN114728413A (zh) 用于控制远程机器人的图形用户界面的方法和系统
CN114516060A (zh) 用于控制机器人装置的设备和方法
TW202138139A (zh) 多角度末端效應器
Quesada et al. Holo-SpoK: Affordance-aware augmented reality control of legged manipulators
KR20230138487A (ko) 객체 기반 로봇 제어
Makita et al. Offline direct teaching for a robotic manipulator in the computational space
CN111225554B (zh) 散装目标抓取、装配方法、装置、控制器和系统
JP7487118B2 (ja) 1つ以上のロボット相互参照パラグラフの自然ロボットタスクのためのシステム及び方法
Ogawara et al. Acquiring hand-action models in task and behavior levels by a learning robot through observing human demonstrations
Cho et al. Development of VR visualization system including deep learning architecture for improving teleoperability
Reis et al. Visual servoing for object manipulation with a multifingered robot hand
Walęcki et al. Control system of a service robot's active head exemplified on visual servoing
Banda et al. Investigations on collaborative remote control of virtual robotic manipulators by using a Kinect v2 sensor
Nandikolla et al. Research Article Teleoperation Robot Control of a Hybrid EEG-Based BCI Arm Manipulator Using ROS
Kutyrev et al. Development of a somatosensory controller for positioning a manipulator device for picking apples
Kim et al. Human-embodied drone interface for aerial manipulation: advantages and challenges
ANGELIS et al. Teleoperation of a dual-arm manipulator using hands' tracking
Kraus Sensory feedback implementation for a teleoperated, master-slave robotic manipulator

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220502

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220502

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20220502

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221018

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230307

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230704

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230802

R150 Certificate of patent or registration of utility model

Ref document number: 7326595

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350