JP2022538370A - ロボットのタスクに力のベクトルを割り当てるための方法及びシステム - Google Patents
ロボットのタスクに力のベクトルを割り当てるための方法及びシステム Download PDFInfo
- Publication number
- JP2022538370A JP2022538370A JP2022516078A JP2022516078A JP2022538370A JP 2022538370 A JP2022538370 A JP 2022538370A JP 2022516078 A JP2022516078 A JP 2022516078A JP 2022516078 A JP2022516078 A JP 2022516078A JP 2022538370 A JP2022538370 A JP 2022538370A
- Authority
- JP
- Japan
- Prior art keywords
- virtual reality
- force
- task
- menu
- processors
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 36
- 239000013598 vector Substances 0.000 title description 33
- 238000003384 imaging method Methods 0.000 claims description 27
- 230000004044 response Effects 0.000 claims description 26
- 230000003993 interaction Effects 0.000 claims description 16
- 230000009471 action Effects 0.000 claims description 10
- 230000033001 locomotion Effects 0.000 description 39
- 230000015654 memory Effects 0.000 description 24
- 238000004891 communication Methods 0.000 description 21
- 238000001514 detection method Methods 0.000 description 7
- 239000004020 conductor Substances 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 230000000712 assembly Effects 0.000 description 1
- 238000000429 assembly Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000005094 computer simulation Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 239000012636 effector Substances 0.000 description 1
- 229920001746 electroactive polymer Polymers 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000000153 supplemental effect Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/006—Controls for manipulators by means of a wireless system for controlling one or several manipulators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/06—Control stands, e.g. consoles, switchboards
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
- B25J19/023—Optical sensing devices including video camera means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J5/00—Manipulators mounted on wheels or on carriages
- B25J5/007—Manipulators mounted on wheels or on carriages mounted on wheels
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/1633—Programme controls characterised by the control loop compliant, force, torque control, e.g. combined with position control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1671—Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
- B25J9/1689—Teleoperation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04847—Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/131—Protocols for games, networked simulations or virtual reality
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39001—Robot, manipulator control
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40131—Virtual reality control, programming of manipulator
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/24—Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Human Computer Interaction (AREA)
- Computer Networks & Wireless Communication (AREA)
- Automation & Control Theory (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Manipulator (AREA)
- User Interface Of Digital Computer (AREA)
- Numerical Control (AREA)
Abstract
Description
本明細書に開示される発明は以下の態様を含む。
〔態様1〕
システムであって、
環境の仮想現実表現を生成し、
前記環境の前記仮想現実表現内に少なくとも1つのタスクユーザーインターフェイス要素を含むメニュを生成し、
力のパラメータを構成するためのオプションが前記メニュの前記少なくとも1つのタスクユーザーインターフェイス要素から選択されたときを判定し、
仮想ロボット操作タスクのために前記力のパラメータを構成するよう促すプロンプトをユーザーへ発し、
前記力のパラメータを構成するための前記プロンプトから受信した入力に応答して力の規模又は力の方向の少なくとも一方を前記仮想ロボット操作タスクに割り当てる、
ように構成された電子コントローラ、
を備える、システム。
〔態様2〕
前記電子コントローラは、
画像捕捉機器から前記環境の画像データを受信し、
画像化機器から前記環境に対応する奥行情報を受信し、
前記画像データ及び前記奥行情報に基づいて前記仮想現実表現を生成する、
ように構成される、態様1に記載のシステム。
〔態様3〕
前記力のパラメータを構成するための前記オプションが前記メニュの前記少なくとも1つのタスクユーザーインターフェイス要素から選択されたときを判定することによって、前記電子コントローラが、前記少なくとも1つのタスクユーザーインターフェイス要素が少なくとも1つのパラメータ化動作と関連付けられると判定する、態様1に記載のシステム。
〔態様4〕
前記電子コントローラは、前記仮想現実表現及び前記メニュの少なくとも一方をディスプレイ機器へ送信するように構成される、態様1に記載のシステム。
〔態様5〕
前記電子コントローラは、
入力デバイスから前記少なくとも1つのタスクユーザーインターフェイス要素の選択を受信し、
前記入力デバイスから前記力のパラメータを構成するための前記プロンプトからの前記入力を受信する、
ように構成される、態様1に記載のシステム。
〔態様6〕
システムであって、
環境の仮想現実表現を表示し、
前記仮想現実表現内に少なくとも1つのタスクユーザーインターフェイス要素を含むメニュを表示し、
力のパラメータを構成するためのオプションが前記メニュの前記少なくとも1つのタスクユーザーインターフェイス要素から選択されたときを判定し、
仮想ロボット操作タスクのために前記力のパラメータを構成するようにユーザーに命令するプロンプトを表示し、
前記力のパラメータを構成するための前記プロンプトから受信した入力に応答して力の規模又は力の方向の少なくとも一方の前記仮想ロボット操作タスクへの割当てを示す信号を送信する、
ように構成された電子コントローラ、
を備える、システム。
〔態様7〕
前記プロンプトを表示することは、更に、
力の規模を示すように構成された力の規模要素と、
力の方向を示すように構成された力の方向要素と、
を表示することを含む、態様6に記載のシステム。
〔態様8〕
前記プロンプトから受信した前記入力は、更に、
入力デバイスを使用する前記力の規模要素との第1対話と、
前記入力デバイスを使用する前記力の方向要素との第2対話と、
を含む、態様7に記載のシステム。
〔態様9〕
前記力のパラメータを構成するための前記オプションが前記メニュの前記少なくとも1つのタスクユーザーインターフェイス要素から選択されたときを判定することは、更に、入力デバイスを使用する前記少なくとも1つのタスクユーザーインターフェイス要素の選択を受信することを含む、態様6に記載のシステム。
〔態様10〕
前記電子コントローラは、
画像捕捉機器から前記環境の画像データを受信し、
前記画像データに基づいて前記仮想現実表現を表示する、
ように構成される、態様6に記載のシステム。
〔態様11〕
前記電子コントローラは、
画像化機器から前記環境の画像化データを受信し、
前記画像化データに基づいて前記仮想現実表現を表示する、
ように構成される、態様10に記載のシステム。
〔態様12〕
前記力のパラメータを構成するための前記オプションが前記メニュの前記少なくとも1つのタスクユーザーインターフェイス要素から選択されたときを判定することによって、更に、前記電子コントローラが、前記少なくとも1つのタスクユーザーインターフェイス要素が少なくとも1つのパラメータ化動作と関連付けられるという指示を受信する、態様6に記載のシステム。
〔態様13〕
1つ又は複数のプロセッサによって、環境の仮想現実表現を生成することと、
前記1つ又は複数のプロセッサによって、前記環境の前記仮想現実表現内に少なくとも1つのタスクユーザーインターフェイス要素を含むメニュを生成することと、
前記1つ又は複数のプロセッサによって、力のパラメータを構成するためのオプションが前記メニュの前記少なくとも1つのタスクユーザーインターフェイス要素から選択されたときを判定することと、
前記1つ又は複数のプロセッサによって、仮想ロボット操作タスクのために前記力のパラメータを構成するように促すプロンプトをユーザーに発することと、
前記1つ又は複数のプロセッサによって、前記力のパラメータを構成するための前記プロンプトから受信した入力に応答して力の規模又は力の方向の少なくとも一方を前記仮想ロボット操作タスクに割り当てることと、
を含む、方法。
〔態様14〕
前記1つ又は複数のプロセッサによって、画像捕捉機器から前記環境の画像データを受信することと、
前記1つ又は複数のプロセッサによって、画像化機器から前記環境に対応する奥行情報を受信することと、
前記1つ又は複数のプロセッサによって、前記画像データ及び前記奥行情報に基づいて前記仮想現実表現を生成することと、
を更に含む、態様13に記載の方法。
〔態様15〕
前記力のパラメータを構成するための前記オプションが前記メニュの前記少なくとも1つのタスクユーザーインターフェイス要素から選択されたときを判定することは、更に、前記1つ又は複数のプロセッサによって、前記少なくとも1つのタスクユーザーインターフェイス要素が少なくとも1つのパラメータ化動作と関連付けられると判定することを含む、態様13に記載の方法。
〔態様16〕
前記1つ又は複数のプロセッサによって、前記仮想現実表現及び前記メニュの少なくとも一方をディスプレイ機器へ送信することを更に含む、態様13に記載の方法。
〔態様17〕
前記1つ又は複数のプロセッサによって、入力デバイスから前記少なくとも1つのタスクユーザーインターフェイス要素の選択を受信することと、
前記1つ又は複数のプロセッサによって、前記入力デバイスから前記力のパラメータを構成するためのプロンプトからの入力を受信すること、
を更に含む、態様13に記載の方法。
〔態様18〕
前記1つ又は複数のプロセッサによって、前記仮想現実表現を仮想現実システムへ送信することであって、前記仮想現実表現が、前記仮想現実表現の受信に応答して前記仮想現実システムのディスプレイ機器を使用して前記仮想現実システムに前記仮想現実表現を表示させるように構成されるという、前記仮想現実表現を送信すること、
を更に含む、態様13に記載の方法。
〔態様19〕
前記1つ又は複数のプロセッサによって、前記仮想現実システムへ前記メニュを送信することであって、前記メニュを送信することが、前記メニュの受信に応答して前記ディスプレイ機器を使用して前記仮想現実システムに前記メニュを表示させるように構成されるという、前記メニュを送信すること、
を更に含む、態様18に記載の方法。
〔態様20〕
前記1つ又は複数のプロセッサによって、前記仮想現実システムへ前記プロンプトを送信することであって、前記プロンプトを送信することが、前記プロンプトの受信に応答して前記仮想現実システムに前記プロンプトを表示させるように構成されるという、前記プロンプトを送信すること、
を更に含む、態様18に記載の方法。
Claims (20)
- システムであって、
環境の仮想現実表現を生成し、
前記環境の前記仮想現実表現内に少なくとも1つのタスクユーザーインターフェイス要素を含むメニュを生成し、
力のパラメータを構成するためのオプションが前記メニュの前記少なくとも1つのタスクユーザーインターフェイス要素から選択されたときを判定し、
仮想ロボット操作タスクのために前記力のパラメータを構成するよう促すプロンプトをユーザーへ発し、
前記力のパラメータを構成するための前記プロンプトから受信した入力に応答して力の規模又は力の方向の少なくとも一方を前記仮想ロボット操作タスクに割り当てる、
ように構成された電子コントローラ、
を備える、システム。 - 前記電子コントローラは、
画像捕捉機器から前記環境の画像データを受信し、
画像化機器から前記環境に対応する奥行情報を受信し、
前記画像データ及び前記奥行情報に基づいて前記仮想現実表現を生成する、
ように構成される、請求項1に記載のシステム。 - 前記力のパラメータを構成するための前記オプションが前記メニュの前記少なくとも1つのタスクユーザーインターフェイス要素から選択されたときを判定することによって、前記電子コントローラが、前記少なくとも1つのタスクユーザーインターフェイス要素が少なくとも1つのパラメータ化動作と関連付けられると判定する、請求項1に記載のシステム。
- 前記電子コントローラは、前記仮想現実表現及び前記メニュの少なくとも一方をディスプレイ機器へ送信するように構成される、請求項1に記載のシステム。
- 前記電子コントローラは、
入力デバイスから前記少なくとも1つのタスクユーザーインターフェイス要素の選択を受信し、
前記入力デバイスから前記力のパラメータを構成するための前記プロンプトからの前記入力を受信する、
ように構成される、請求項1に記載のシステム。 - システムであって、
環境の仮想現実表現を表示し、
前記仮想現実表現内に少なくとも1つのタスクユーザーインターフェイス要素を含むメニュを表示し、
力のパラメータを構成するためのオプションが前記メニュの前記少なくとも1つのタスクユーザーインターフェイス要素から選択されたときを判定し、
仮想ロボット操作タスクのために前記力のパラメータを構成するようにユーザーに命令するプロンプトを表示し、
前記力のパラメータを構成するための前記プロンプトから受信した入力に応答して力の規模又は力の方向の少なくとも一方の前記仮想ロボット操作タスクへの割当てを示す信号を送信する、
ように構成された電子コントローラ、
を備える、システム。 - 前記プロンプトを表示することは、更に、
力の規模を示すように構成された力の規模要素と、
力の方向を示すように構成された力の方向要素と、
を表示することを含む、請求項6に記載のシステム。 - 前記プロンプトから受信した前記入力は、更に、
入力デバイスを使用する前記力の規模要素との第1対話と、
前記入力デバイスを使用する前記力の方向要素との第2対話と、
を含む、請求項7に記載のシステム。 - 前記力のパラメータを構成するための前記オプションが前記メニュの前記少なくとも1つのタスクユーザーインターフェイス要素から選択されたときを判定することは、更に、入力デバイスを使用する前記少なくとも1つのタスクユーザーインターフェイス要素の選択を受信することを含む、請求項6に記載のシステム。
- 前記電子コントローラは、
画像捕捉機器から前記環境の画像データを受信し、
前記画像データに基づいて前記仮想現実表現を表示する、
ように構成される、請求項6に記載のシステム。 - 前記電子コントローラは、
画像化機器から前記環境の画像化データを受信し、
前記画像化データに基づいて前記仮想現実表現を表示する、
ように構成される、請求項10に記載のシステム。 - 前記力のパラメータを構成するための前記オプションが前記メニュの前記少なくとも1つのタスクユーザーインターフェイス要素から選択されたときを判定することによって、更に、前記電子コントローラが、前記少なくとも1つのタスクユーザーインターフェイス要素が少なくとも1つのパラメータ化動作と関連付けられるという指示を受信する、請求項6に記載のシステム。
- 1つ又は複数のプロセッサによって、環境の仮想現実表現を生成することと、
前記1つ又は複数のプロセッサによって、前記環境の前記仮想現実表現内に少なくとも1つのタスクユーザーインターフェイス要素を含むメニュを生成することと、
前記1つ又は複数のプロセッサによって、力のパラメータを構成するためのオプションが前記メニュの前記少なくとも1つのタスクユーザーインターフェイス要素から選択されたときを判定することと、
前記1つ又は複数のプロセッサによって、仮想ロボット操作タスクのために前記力のパラメータを構成するように促すプロンプトをユーザーに発することと、
前記1つ又は複数のプロセッサによって、前記力のパラメータを構成するための前記プロンプトから受信した入力に応答して力の規模又は力の方向の少なくとも一方を前記仮想ロボット操作タスクに割り当てることと、
を含む、方法。 - 前記1つ又は複数のプロセッサによって、画像捕捉機器から前記環境の画像データを受信することと、
前記1つ又は複数のプロセッサによって、画像化機器から前記環境に対応する奥行情報を受信することと、
前記1つ又は複数のプロセッサによって、前記画像データ及び前記奥行情報に基づいて前記仮想現実表現を生成することと、
を更に含む、請求項13に記載の方法。 - 前記力のパラメータを構成するための前記オプションが前記メニュの前記少なくとも1つのタスクユーザーインターフェイス要素から選択されたときを判定することは、更に、前記1つ又は複数のプロセッサによって、前記少なくとも1つのタスクユーザーインターフェイス要素が少なくとも1つのパラメータ化動作と関連付けられると判定することを含む、請求項13に記載の方法。
- 前記1つ又は複数のプロセッサによって、前記仮想現実表現及び前記メニュの少なくとも一方をディスプレイ機器へ送信することを更に含む、請求項13に記載の方法。
- 前記1つ又は複数のプロセッサによって、入力デバイスから前記少なくとも1つのタスクユーザーインターフェイス要素の選択を受信することと、
前記1つ又は複数のプロセッサによって、前記入力デバイスから前記力のパラメータを構成するためのプロンプトからの入力を受信すること、
を更に含む、請求項13に記載の方法。 - 前記1つ又は複数のプロセッサによって、前記仮想現実表現を仮想現実システムへ送信することであって、前記仮想現実表現が、前記仮想現実表現の受信に応答して前記仮想現実システムのディスプレイ機器を使用して前記仮想現実システムに前記仮想現実表現を表示させるように構成されるという、前記仮想現実表現を送信すること、
を更に含む、請求項13に記載の方法。 - 前記1つ又は複数のプロセッサによって、前記仮想現実システムへ前記メニュを送信することであって、前記メニュを送信することが、前記メニュの受信に応答して前記ディスプレイ機器を使用して前記仮想現実システムに前記メニュを表示させるように構成されるという、前記メニュを送信すること、
を更に含む、請求項18に記載の方法。 - 前記1つ又は複数のプロセッサによって、前記仮想現実システムへ前記プロンプトを送信することであって、前記プロンプトを送信することが、前記プロンプトの受信に応答して前記仮想現実システムに前記プロンプトを表示させるように構成されるという、前記プロンプトを送信すること、
を更に含む、請求項18に記載の方法。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962900143P | 2019-09-13 | 2019-09-13 | |
US62/900,143 | 2019-09-13 | ||
US16/692,272 US11262887B2 (en) | 2019-09-13 | 2019-11-22 | Methods and systems for assigning force vectors to robotic tasks |
US16/692,272 | 2019-11-22 | ||
PCT/US2020/047132 WO2021050232A1 (en) | 2019-09-13 | 2020-08-20 | Methods and systems for assigning force vectors to robotic tasks |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022538370A true JP2022538370A (ja) | 2022-09-01 |
JP7326595B2 JP7326595B2 (ja) | 2023-08-15 |
Family
ID=72422233
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022516078A Active JP7326595B2 (ja) | 2019-09-13 | 2020-08-20 | ロボットのタスクに力のベクトルを割り当てるための方法及びシステム |
Country Status (6)
Country | Link |
---|---|
US (1) | US11262887B2 (ja) |
EP (1) | EP4027930A1 (ja) |
JP (1) | JP7326595B2 (ja) |
KR (1) | KR102554815B1 (ja) |
CN (1) | CN114364497A (ja) |
WO (1) | WO2021050232A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022124398A1 (ja) * | 2020-12-10 | 2022-06-16 | 三菱電機株式会社 | 遠隔制御マニピュレータシステムおよび遠隔制御支援システム |
CN113843801B (zh) | 2021-10-18 | 2022-11-29 | 上海节卡机器人科技有限公司 | 复合机器人的控制方法、装置及系统 |
KR102639276B1 (ko) * | 2021-12-09 | 2024-02-22 | 한국전자기술연구원 | 가상 공간의 다양한 작업 콘텐츠를 이용하여 원격에서 로봇을 제어하는 원격제어장치 및 시스템 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014503376A (ja) * | 2011-01-28 | 2014-02-13 | インタッチ テクノロジーズ インコーポレーション | モバイルテレプレゼンスロボットとのインタフェーシング |
JP2015520040A (ja) * | 2012-06-21 | 2015-07-16 | リシンク ロボティクス インコーポレイテッド | 産業用ロボットを訓練および動作させること |
US20150197007A1 (en) * | 2010-05-11 | 2015-07-16 | Irobot Corporation | Remote Vehicle Missions and Systems for Supporting Remote Vehicle Missions |
WO2015134391A1 (en) * | 2014-03-03 | 2015-09-11 | University Of Washington | Haptic virtual fixture tools |
US20160257000A1 (en) * | 2015-03-04 | 2016-09-08 | The Johns Hopkins University | Robot control, training and collaboration in an immersive virtual reality environment |
Family Cites Families (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5835693A (en) * | 1994-07-22 | 1998-11-10 | Lynch; James D. | Interactive system for simulation and display of multi-body systems in three dimensions |
US8738181B2 (en) * | 2007-04-16 | 2014-05-27 | Alexander Greer | Methods, devices, and systems for automated movements involving medical robots |
US8253746B2 (en) * | 2009-05-01 | 2012-08-28 | Microsoft Corporation | Determine intended motions |
US9582933B1 (en) * | 2012-06-26 | 2017-02-28 | The Mathworks, Inc. | Interacting with a model via a three-dimensional (3D) spatial environment |
WO2014110682A1 (en) | 2013-01-18 | 2014-07-24 | Robotiq Inc. | Force/torque sensor, apparatus and method for robot teaching and operation |
US9465384B1 (en) * | 2013-06-24 | 2016-10-11 | Redwood Robotics, Inc. | Methods and systems for tiered programming of robotic device |
US9283674B2 (en) * | 2014-01-07 | 2016-03-15 | Irobot Corporation | Remotely operating a mobile robot |
US9579799B2 (en) * | 2014-04-30 | 2017-02-28 | Coleman P. Parker | Robotic control system using virtual reality input |
US20150328772A1 (en) * | 2014-05-14 | 2015-11-19 | Yaskawa America, Inc. | Method, apparatus, and medium for programming industrial robot |
US10416760B2 (en) * | 2014-07-25 | 2019-09-17 | Microsoft Technology Licensing, Llc | Gaze-based object placement within a virtual reality environment |
US10725297B2 (en) * | 2015-01-28 | 2020-07-28 | CCP hf. | Method and system for implementing a virtual representation of a physical environment using a virtual reality environment |
US9880553B1 (en) * | 2015-04-28 | 2018-01-30 | Hrl Laboratories, Llc | System and method for robot supervisory control with an augmented reality user interface |
JP6676286B2 (ja) * | 2015-05-12 | 2020-04-08 | キヤノン株式会社 | 情報処理方法、および情報処理装置 |
US9687982B1 (en) * | 2015-05-27 | 2017-06-27 | X Development Llc | Adapting programming of a robot and/or control of the robot based on one or more parameters of an end effector of the robot |
US10730180B2 (en) * | 2015-05-29 | 2020-08-04 | Abb Schweiz Ag | User interface for a teleoperated robot |
US10788836B2 (en) * | 2016-02-29 | 2020-09-29 | AI Incorporated | Obstacle recognition method for autonomous robots |
US9671777B1 (en) | 2016-06-21 | 2017-06-06 | TruPhysics GmbH | Training robots to execute actions in physics-based virtual environment |
JP2018015857A (ja) * | 2016-07-29 | 2018-02-01 | セイコーエプソン株式会社 | 制御装置、及びロボット |
US10242476B2 (en) * | 2017-05-31 | 2019-03-26 | Verizon Patent and Licensong Inc. | Methods and systems for dynamically representing, within a virtual reality data stream being presented to a user, a proxy object that corresponds to an object in the real-world environment of the user |
US10610303B2 (en) * | 2017-06-29 | 2020-04-07 | Verb Surgical Inc. | Virtual reality laparoscopic tools |
US10562181B2 (en) * | 2017-07-03 | 2020-02-18 | X Development Llc | Determining and utilizing corrections to robot actions |
JP7187765B2 (ja) * | 2017-07-24 | 2022-12-13 | セイコーエプソン株式会社 | ロボット制御装置 |
US10913154B2 (en) | 2018-01-02 | 2021-02-09 | General Electric Company | Systems and method for robotic learning of industrial tasks based on human demonstration |
EP3566824B1 (en) * | 2018-05-11 | 2023-06-28 | Siemens Aktiengesellschaft | Method, apparatus, computer-readable storage media and a computer program for robotic programming |
US10678264B2 (en) * | 2018-10-10 | 2020-06-09 | Midea Group Co., Ltd. | Method and system for providing remote robotic control |
-
2019
- 2019-11-22 US US16/692,272 patent/US11262887B2/en active Active
-
2020
- 2020-08-20 JP JP2022516078A patent/JP7326595B2/ja active Active
- 2020-08-20 KR KR1020227012319A patent/KR102554815B1/ko active IP Right Grant
- 2020-08-20 EP EP20768148.7A patent/EP4027930A1/en active Pending
- 2020-08-20 CN CN202080063749.4A patent/CN114364497A/zh active Pending
- 2020-08-20 WO PCT/US2020/047132 patent/WO2021050232A1/en unknown
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150197007A1 (en) * | 2010-05-11 | 2015-07-16 | Irobot Corporation | Remote Vehicle Missions and Systems for Supporting Remote Vehicle Missions |
JP2014503376A (ja) * | 2011-01-28 | 2014-02-13 | インタッチ テクノロジーズ インコーポレーション | モバイルテレプレゼンスロボットとのインタフェーシング |
JP2015520040A (ja) * | 2012-06-21 | 2015-07-16 | リシンク ロボティクス インコーポレイテッド | 産業用ロボットを訓練および動作させること |
WO2015134391A1 (en) * | 2014-03-03 | 2015-09-11 | University Of Washington | Haptic virtual fixture tools |
US20160257000A1 (en) * | 2015-03-04 | 2016-09-08 | The Johns Hopkins University | Robot control, training and collaboration in an immersive virtual reality environment |
Also Published As
Publication number | Publication date |
---|---|
US20210081081A1 (en) | 2021-03-18 |
CN114364497A (zh) | 2022-04-15 |
US11262887B2 (en) | 2022-03-01 |
KR102554815B1 (ko) | 2023-07-14 |
JP7326595B2 (ja) | 2023-08-15 |
EP4027930A1 (en) | 2022-07-20 |
WO2021050232A1 (en) | 2021-03-18 |
KR20220108761A (ko) | 2022-08-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7326595B2 (ja) | ロボットのタスクに力のベクトルを割り当てるための方法及びシステム | |
US9002517B2 (en) | Telematic interface with directional translation | |
JP7545993B2 (ja) | 1つ又は複数のロボットの拘束条件管理のためのシステム及び方法 | |
CN109551476B (zh) | 结合云服务系统的机器人系统 | |
US11279036B2 (en) | Methods and systems for implementing customized motions based on individual profiles for identified users | |
EP3585569B1 (en) | Systems, apparatus, and methods for robotic learning and execution of skills | |
CN114728413A (zh) | 用于控制远程机器人的图形用户界面的方法和系统 | |
CN114516060A (zh) | 用于控制机器人装置的设备和方法 | |
TW202138139A (zh) | 多角度末端效應器 | |
Quesada et al. | Holo-SpoK: Affordance-aware augmented reality control of legged manipulators | |
KR20230138487A (ko) | 객체 기반 로봇 제어 | |
Makita et al. | Offline direct teaching for a robotic manipulator in the computational space | |
CN111225554B (zh) | 散装目标抓取、装配方法、装置、控制器和系统 | |
JP7487118B2 (ja) | 1つ以上のロボット相互参照パラグラフの自然ロボットタスクのためのシステム及び方法 | |
Ogawara et al. | Acquiring hand-action models in task and behavior levels by a learning robot through observing human demonstrations | |
Cho et al. | Development of VR visualization system including deep learning architecture for improving teleoperability | |
Reis et al. | Visual servoing for object manipulation with a multifingered robot hand | |
Walęcki et al. | Control system of a service robot's active head exemplified on visual servoing | |
Banda et al. | Investigations on collaborative remote control of virtual robotic manipulators by using a Kinect v2 sensor | |
Nandikolla et al. | Research Article Teleoperation Robot Control of a Hybrid EEG-Based BCI Arm Manipulator Using ROS | |
Kutyrev et al. | Development of a somatosensory controller for positioning a manipulator device for picking apples | |
Kim et al. | Human-embodied drone interface for aerial manipulation: advantages and challenges | |
ANGELIS et al. | Teleoperation of a dual-arm manipulator using hands' tracking | |
Kraus | Sensory feedback implementation for a teleoperated, master-slave robotic manipulator |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220502 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220502 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20220502 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221018 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230118 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230307 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230704 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230802 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7326595 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |