JP7471428B2 - 製造又は産業環境における協調ロボットとの相互作用のために仮想/拡張現実を使用するためのシステム、方法及びコンピュータ読み取り可能媒体 - Google Patents
製造又は産業環境における協調ロボットとの相互作用のために仮想/拡張現実を使用するためのシステム、方法及びコンピュータ読み取り可能媒体 Download PDFInfo
- Publication number
- JP7471428B2 JP7471428B2 JP2022545801A JP2022545801A JP7471428B2 JP 7471428 B2 JP7471428 B2 JP 7471428B2 JP 2022545801 A JP2022545801 A JP 2022545801A JP 2022545801 A JP2022545801 A JP 2022545801A JP 7471428 B2 JP7471428 B2 JP 7471428B2
- Authority
- JP
- Japan
- Prior art keywords
- robot
- movement
- wearable headset
- trajectory
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000004519 manufacturing process Methods 0.000 title claims description 62
- 238000000034 method Methods 0.000 title claims description 23
- 230000033001 locomotion Effects 0.000 claims description 98
- 230000003190 augmentative effect Effects 0.000 claims description 27
- 238000012549 training Methods 0.000 claims description 27
- 238000004088 simulation Methods 0.000 claims description 14
- 230000015654 memory Effects 0.000 claims description 13
- 230000009471 action Effects 0.000 claims description 8
- 230000008859 change Effects 0.000 claims description 5
- 238000000926 separation method Methods 0.000 claims description 5
- 230000004044 response Effects 0.000 claims description 4
- 230000003993 interaction Effects 0.000 description 20
- 238000004891 communication Methods 0.000 description 17
- 238000012545 processing Methods 0.000 description 11
- 238000005516 engineering process Methods 0.000 description 7
- 238000012986 modification Methods 0.000 description 7
- 230000004048 modification Effects 0.000 description 7
- 241000282412 Homo Species 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 238000012360 testing method Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 3
- 230000002085 persistent effect Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 238000004590 computer program Methods 0.000 description 2
- 238000011960 computer-aided design Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000011143 downstream manufacturing Methods 0.000 description 1
- 238000002567 electromyography Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000003278 mimic effect Effects 0.000 description 1
- 238000011017 operating method Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1671—Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
- B25J9/1689—Teleoperation
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/163—Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/32—Operator till task planning
- G05B2219/32014—Augmented reality assists operator in maintenance, repair, programming, assembly, use of head mounted display with 2-D 3-D display and voice feedback, voice and gesture command
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/35—Nc in input of data, input till input file format
- G05B2219/35482—Eyephone, head-mounted 2-D or 3-D display, also voice and other control
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39451—Augmented reality for robot programming
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40131—Virtual reality control, programming of manipulator
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40202—Human robot coexistence
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- User Interface Of Digital Computer (AREA)
- Manipulator (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Processing Or Creating Images (AREA)
Description
Claims (20)
- 製造環境における産業用ロボットの第1の位置から第2の位置への動きを決定するステップと、
前記ロボットの前記動きの軌跡を示す画像をウェアラブルヘッドセットに表示するステップであり、前記ロボットのリアルタイムの実画像に重ねられた前記軌跡の拡張現実(AR)グラフィカル画像若しくはビデオを表示すること、又は前記軌跡と共に前記ロボットのグラフィカル表示を示す仮想現実(VR)グラフィカル画像若しくはビデオを表示することのうち少なくとも1つを含む、ステップと、
前記ロボットを含む訓練シミュレーション中に前記ウェアラブルヘッドセットを装着する人の1つ以上の行動に関する情報を受信するステップであり、前記情報は前記人の動きの制限を示す、ステップと、
前記人の前記動きの制限に適合するための前記ロボットの経路プログラミングのために前記情報を前記製造環境におけるワークステーションに送信するステップと
を含む方法。 - 前記ロボットの所望の第2の動きを示すユーザ入力を受信するステップと、
前記第2の動きを実行するための命令を前記ロボットに提供するステップと、
前記ロボットの前記第2の動きの軌跡を示す第2の画像を前記ウェアラブルヘッドセットに表示するステップと
を更に含む、請求項1に記載の方法。 - 前記ロボットの前記動きの前記軌跡は、前記ロボットが動くときに表示される、請求項1に記載の方法。
- 前記ウェアラブルヘッドセットを装着する前記人の前記ロボットに対する位置又は方向の変化に応じて、前記ロボットの前記動きの前記軌跡を示す前記画像を変化させるステップを更に含む、請求項1に記載の方法。
- 製造タスクの作業指示を前記ウェアラブルヘッドセットに表示するステップであり、前記作業指示は、前記製造タスク中の前記ロボットの動きに関する、ステップを更に含む、請求項1に記載の方法。
- 少なくとも1つのセンサから、前記ロボット又は前記ウェアラブルヘッドセットを装着する前記人のうち少なくとも1つの位置情報を受信するステップと、
前記ロボットと前記人との間の分離を維持するために、前記位置情報に基づいて前記ロボットの前記動きを制御するステップと
を更に含む、請求項1に記載の方法。 - 命令を記憶するように構成された少なくとも1つのメモリと、前記少なくとも1つのメモリに結合された少なくとも1つのプロセッサとを含むシステムであって、
前記少なくとも1つのプロセッサは、前記命令を実行したとき、
製造環境における産業用ロボットの第1の位置から第2の位置への動きを決定し、
前記ロボットの前記動きの軌跡を示す画像を表示するようにウェアラブルヘッドセットを制御するように構成され、
前記制御することは、前記ロボットのリアルタイムの実画像に重ねられた前記軌跡の拡張現実(AR)グラフィカル画像若しくはビデオを表示するように前記ウェアラブルヘッドセットを制御すること、又は前記軌跡と共に前記ロボットのグラフィカル表示を示す仮想現実(VR)グラフィカル画像若しくはビデオを表示するように前記ウェアラブルヘッドセットを制御することのうち少なくとも1つを含み、
前記ロボットを含む訓練シミュレーション中に前記ウェアラブルヘッドセットを装着する人の1つ以上の行動に関する情報を受信するように構成され、前記情報は前記人の動きの制限を示し、
前記人の前記動きの制限に適合するための前記ロボットの経路プログラミングのために前記情報を前記製造環境におけるワークステーションに送信するように構成される、システム。 - 前記少なくとも1つのプロセッサは、
前記ロボットの所望の第2の動きを示すユーザ入力を受信し、
前記第2の動きを実行するための命令を前記ロボットに提供し、
前記ロボットの前記第2の動きの軌跡を示す第2の画像を表示するように前記ウェアラブルヘッドセットを制御するように更に構成される、請求項7に記載のシステム。 - 前記少なくとも1つのプロセッサは、
前記ロボットが動くときに、前記ロボットの前記動きの前記軌跡を表示するように前記ウェアラブルヘッドセットを制御するように構成される、請求項7に記載のシステム。 - 前記少なくとも1つのプロセッサは、
前記ウェアラブルヘッドセットを装着する前記人の前記ロボットに対する位置又は方向の変化に応じて、前記ロボットの前記動きの前記軌跡を示す前記画像を変化させるように前記ウェアラブルヘッドセットを制御するように更に構成される、請求項7に記載のシステム。 - 前記少なくとも1つのプロセッサは、
製造タスクの作業指示を表示するように前記ウェアラブルヘッドセットを制御するように更に構成され、前記作業指示は、前記製造タスク中の前記ロボットの動きに関する、請求項7に記載のシステム。 - 前記少なくとも1つのプロセッサは、
少なくとも1つのセンサから、前記ロボット又は前記ウェアラブルヘッドセットを装着する前記人のうち少なくとも1つの位置情報を受信し、
前記ロボットと前記人との間の分離を維持するために、前記位置情報に基づいて前記ロボットの動きを制御するように更に構成される、請求項7に記載のシステム。 - 命令を含む非一時的なコンピュータ読み取り可能媒体であって、
前記命令は、実行されると、少なくとも1つのプロセッサに、
製造環境における産業用ロボットの第1の位置から第2の位置への動きを決定させ、
前記ロボットの前記動きの軌跡を示す画像をウェアラブルヘッドセットに表示するように前記ウェアラブルヘッドセットを制御させ、
前記制御することは、前記ロボットのリアルタイムの実画像に重ねられた前記軌跡の拡張現実(AR)グラフィカル画像若しくはビデオを表示するように前記ウェアラブルヘッドセットを制御すること、又は前記軌跡と共に前記ロボットのグラフィカル表示を示す仮想現実(VR)グラフィカル画像若しくはビデオを表示するように前記ウェアラブルヘッドセットを制御することのうち少なくとも1つを含み、
前記ロボットを含む訓練シミュレーション中に前記ウェアラブルヘッドセットを装着する人の1つ以上の行動に関する情報を受信させ、前記情報は前記人の動きの制限を示し、
前記人の前記動きの制限に適合するための前記ロボットの経路プログラミングのために前記情報を前記製造環境におけるワークステーションに送信させる、非一時的なコンピュータ読み取り可能媒体。 - 前記命令は、さらに、前記少なくとも1つのプロセッサに、
前記ロボットの所望の第2の動きを示すユーザ入力を受信させ、
前記第2の動きを実行するための命令を前記ロボットに提供させ、
前記ロボットの前記第2の動きの軌跡を示す第2の画像を表示するように前記ウェアラブルヘッドセットを制御させる、請求項13に記載の非一時的なコンピュータ読み取り可能媒体。 - 前記ロボットの前記動きの前記軌跡は、前記ロボットが動くときに表示される、請求項13に記載の非一時的なコンピュータ読み取り可能媒体。
- 前記命令は、さらに、前記少なくとも1つのプロセッサに、
前記ウェアラブルヘッドセットを装着する前記人の前記ロボットに対する位置又は方向の変化に応じて、前記ロボットの前記動きの前記軌跡を示す前記画像を変化させるように前記ウェアラブルヘッドセットを制御させる、請求項13に記載の非一時的なコンピュータ読み取り可能媒体。 - 前記命令は、さらに、前記少なくとも1つのプロセッサに、
製造タスクの作業指示を表示するように前記ウェアラブルヘッドセットを制御させ、前記作業指示は、前記製造タスク中の前記ロボットの動きに関する、請求項13に記載の非一時的なコンピュータ読み取り可能媒体。 - 前記命令は、さらに、前記少なくとも1つのプロセッサに、
少なくとも1つのセンサから、前記ロボット又は前記ウェアラブルヘッドセットを装着する前記人のうち少なくとも1つの位置情報を受信させ、
前記ロボットと前記人との間の分離を維持するために、前記位置情報に基づいて前記ロボットの動きを制御させる、請求項13に記載のコンピュータ読み取り可能媒体。 - 前記ロボットの前記動きの前記軌跡を示す前記画像は、前記ロボットの前記動きが生じる前に、前記ウェアラブルヘッドセットに表示される、請求項1に記載の方法。
- 前記少なくとも1つのプロセッサは、前記ロボットの前記動きが生じる前に、前記ロボットの前記動きの前記軌跡を示す前記画像を表示するように前記ウェアラブルヘッドセットを制御するように構成される、請求項8に記載のシステム。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US202062968075P | 2020-01-30 | 2020-01-30 | |
US62/968,075 | 2020-01-30 | ||
US16/836,569 | 2020-03-31 | ||
US16/836,569 US11529737B2 (en) | 2020-01-30 | 2020-03-31 | System and method for using virtual/augmented reality for interaction with collaborative robots in manufacturing or industrial environment |
PCT/US2020/064903 WO2021154407A1 (en) | 2020-01-30 | 2020-12-14 | System and method for using virtual/augmented reality for interaction with collaborative robots in manufacturing or industrial environment |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023511617A JP2023511617A (ja) | 2023-03-20 |
JP7471428B2 true JP7471428B2 (ja) | 2024-04-19 |
Family
ID=77061598
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022545801A Active JP7471428B2 (ja) | 2020-01-30 | 2020-12-14 | 製造又は産業環境における協調ロボットとの相互作用のために仮想/拡張現実を使用するためのシステム、方法及びコンピュータ読み取り可能媒体 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11529737B2 (ja) |
EP (1) | EP4096874A1 (ja) |
JP (1) | JP7471428B2 (ja) |
KR (1) | KR20220128655A (ja) |
WO (1) | WO2021154407A1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11288883B2 (en) * | 2019-07-23 | 2022-03-29 | Toyota Research Institute, Inc. | Autonomous task performance based on visual embeddings |
EP4399067A1 (en) * | 2021-09-08 | 2024-07-17 | Acumino | Wearable robot data collection system with human-machine operation interface |
US20230311338A1 (en) * | 2022-04-05 | 2023-10-05 | General Electric Company | Apparatus and Method for Tool Monitoring |
CN116363926B (zh) * | 2023-03-31 | 2024-01-05 | 福建奥瑞斯机器人工程技术有限公司 | 一种工业机器人应用一体化教学设备 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019188530A (ja) | 2018-04-25 | 2019-10-31 | ファナック株式会社 | ロボットのシミュレーション装置 |
JP2019188531A (ja) | 2018-04-25 | 2019-10-31 | ファナック株式会社 | ロボットのシミュレーション装置 |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
SE0203908D0 (sv) | 2002-12-30 | 2002-12-30 | Abb Research Ltd | An augmented reality system and method |
DE10305384A1 (de) | 2003-02-11 | 2004-08-26 | Kuka Roboter Gmbh | Verfahren und Vorrichtung zur Visualisierung rechnergestützter Informationen |
US7099745B2 (en) | 2003-10-24 | 2006-08-29 | Sap Aktiengesellschaft | Robot system using virtual world |
WO2011160222A1 (en) | 2010-06-22 | 2011-12-29 | National Research Council Of Canada | Cognitive function assessment in a patient |
WO2012065175A2 (en) | 2010-11-11 | 2012-05-18 | The Johns Hopkins University | Human-machine collaborative robotic systems |
CN103702631A (zh) | 2011-05-05 | 2014-04-02 | 约翰霍普金斯大学 | 用于分析任务轨迹的方法和系统 |
WO2013039551A1 (en) | 2011-09-15 | 2013-03-21 | Persimmon Technologies Corporation | System and method for operation of a robot |
US9836987B2 (en) | 2014-02-14 | 2017-12-05 | Lincoln Global, Inc. | Virtual reality pipe welding simulator and setup |
WO2016032807A1 (en) | 2014-08-25 | 2016-03-03 | Google Inc. | Methods and systems for augmented reality to display virtual representations of robotic device actions |
US9630318B2 (en) | 2014-10-02 | 2017-04-25 | Brain Corporation | Feature detection apparatus and methods for training of robotic navigation |
US9643314B2 (en) | 2015-03-04 | 2017-05-09 | The Johns Hopkins University | Robot control, training and collaboration in an immersive virtual reality environment |
EP3268949B1 (en) | 2015-03-09 | 2021-05-26 | Illinois Tool Works Inc. | Methods and apparatus to provide visual information associated with welding operations |
US10956739B2 (en) * | 2016-06-27 | 2021-03-23 | Autodesk, Inc. | Augmented reality robotic system visualization |
US10078916B2 (en) | 2016-07-01 | 2018-09-18 | Invia Robotics, Inc. | Pick to augmented reality |
US10866631B2 (en) | 2016-11-09 | 2020-12-15 | Rockwell Automation Technologies, Inc. | Methods, systems, apparatuses, and techniques for employing augmented reality and virtual reality |
US11011077B2 (en) | 2017-06-29 | 2021-05-18 | Verb Surgical Inc. | Virtual reality training, simulation, and collaboration in a robotic surgical system |
US10796486B2 (en) | 2017-07-05 | 2020-10-06 | Textron Innovations, Inc. | Augmented visualization for manufacturing |
US12099344B2 (en) | 2017-11-03 | 2024-09-24 | R4N63R Capital Llc | Workspace actor selection systems and methods |
US11079897B2 (en) | 2018-05-24 | 2021-08-03 | The Calany Holding S. À R.L. | Two-way real-time 3D interactive operations of real-time 3D virtual objects within a real-time 3D virtual world representing the real world |
-
2020
- 2020-03-31 US US16/836,569 patent/US11529737B2/en active Active
- 2020-12-14 WO PCT/US2020/064903 patent/WO2021154407A1/en unknown
- 2020-12-14 JP JP2022545801A patent/JP7471428B2/ja active Active
- 2020-12-14 KR KR1020227028279A patent/KR20220128655A/ko unknown
- 2020-12-14 EP EP20838841.3A patent/EP4096874A1/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019188530A (ja) | 2018-04-25 | 2019-10-31 | ファナック株式会社 | ロボットのシミュレーション装置 |
JP2019188531A (ja) | 2018-04-25 | 2019-10-31 | ファナック株式会社 | ロボットのシミュレーション装置 |
Also Published As
Publication number | Publication date |
---|---|
WO2021154407A1 (en) | 2021-08-05 |
US11529737B2 (en) | 2022-12-20 |
KR20220128655A (ko) | 2022-09-21 |
JP2023511617A (ja) | 2023-03-20 |
US20210237275A1 (en) | 2021-08-05 |
EP4096874A1 (en) | 2022-12-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7471428B2 (ja) | 製造又は産業環境における協調ロボットとの相互作用のために仮想/拡張現実を使用するためのシステム、方法及びコンピュータ読み取り可能媒体 | |
US11986963B2 (en) | Augmented reality coordination of human-robot interaction | |
Eswaran et al. | Augmented reality-based guidance in product assembly and maintenance/repair perspective: A state of the art review on challenges and opportunities | |
Gadre et al. | End-user robot programming using mixed reality | |
Matsas et al. | Design of a virtual reality training system for human–robot collaboration in manufacturing tasks | |
JP5246672B2 (ja) | ロボットシステム | |
US10751877B2 (en) | Industrial robot training using mixed reality | |
Solanes et al. | Teleoperation of industrial robot manipulators based on augmented reality | |
Szafir | Mediating human-robot interactions with virtual, augmented, and mixed reality | |
Pan et al. | Augmented reality-based robot teleoperation system using RGB-D imaging and attitude teaching device | |
CN108228345A (zh) | 用于交互式认知任务协助的系统和方法 | |
US20130116828A1 (en) | Robot teach device with 3-d display | |
Huy et al. | See-through and spatial augmented reality-a novel framework for human-robot interaction | |
JP2004209641A (ja) | 工業ロボットをプログラミングするための方法およびシステム | |
Lotsaris et al. | AR based robot programming using teaching by demonstration techniques | |
Bogaerts et al. | Connecting the CoppeliaSim robotics simulator to virtual reality | |
JP6462847B2 (ja) | 動作評価装置、動作評価方法、及びプログラム | |
WO2019120481A1 (en) | System and method for determining a transformation representation | |
Xue et al. | Enabling human-robot-interaction for remote robotic operation via augmented reality | |
CN112262373B (zh) | 基于视图的断点 | |
WO2020049999A1 (ja) | 製造支援システム,方法,プログラム | |
Cardenas et al. | AARON: assistive augmented reality operations and navigation system for NASA’s exploration extravehicular mobility unit (xEMU) | |
Qiao et al. | Teleoperation of the industrial robot: augmented reality application | |
Janecký et al. | Using Mixed Reality for Control and Monitoring of Robot Model Based on Robot Operating System 2. | |
JP2024150577A (ja) | 人間とロボットの相互作用の拡張現実調整 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220727 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230726 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230905 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231130 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240312 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240409 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7471428 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |