JP7000364B2 - ロボットシステム - Google Patents
ロボットシステム Download PDFInfo
- Publication number
- JP7000364B2 JP7000364B2 JP2019013403A JP2019013403A JP7000364B2 JP 7000364 B2 JP7000364 B2 JP 7000364B2 JP 2019013403 A JP2019013403 A JP 2019013403A JP 2019013403 A JP2019013403 A JP 2019013403A JP 7000364 B2 JP7000364 B2 JP 7000364B2
- Authority
- JP
- Japan
- Prior art keywords
- robot
- image
- gaze target
- wearer
- display device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000008859 change Effects 0.000 claims description 12
- 210000000707 wrist Anatomy 0.000 claims description 8
- 238000000034 method Methods 0.000 description 23
- 230000008569 process Effects 0.000 description 19
- 210000003128 head Anatomy 0.000 description 7
- 238000010586 diagram Methods 0.000 description 4
- 230000007717 exclusion Effects 0.000 description 3
- 210000001508 eye Anatomy 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 3
- 210000005252 bulbus oculi Anatomy 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 210000004087 cornea Anatomy 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 230000011514 reflex Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/42—Recording and playback systems, i.e. in which the programme is recorded from a cycle of operations, e.g. the cycle of operations being manually controlled, after which this record is played back on the same machine
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/18—Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
- G05B19/409—Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by using manual data input [MDI] or by using control panel, e.g. controlling functions with the panel; characterised by control panel details or by setting parameters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40131—Virtual reality control, programming of manipulator
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Automation & Control Theory (AREA)
- Optics & Photonics (AREA)
- Manufacturing & Machinery (AREA)
- Manipulator (AREA)
- User Interface Of Digital Computer (AREA)
- Numerical Control (AREA)
Description
50 ロボット制御装置
51 注視対象特定部
52 特徴識別部
53 表示処理部
54 ツール座標系設定部
80 情報格納部
81 物体モデル格納部
90 映像表示装置
91 映像取得装置
92 視線追跡装置
93 画像処理部
94 ディスプレイ
100 ロボットシステム
Claims (16)
- ロボットと、
前記ロボットを制御するロボット制御装置と、
前記ロボット及び前記ロボット制御装置を含む作業空間の現実の映像を取得する映像取得装置と、
装着者の視線情報を取得する視線追跡部を備えた頭部装着型の映像表示装置とを具備し、
前記ロボット制御装置は、
前記ロボットの制御に用いる情報を、前記作業空間に存在する物体の種類と関連付けて格納する情報格納部と、
前記映像表示装置の装着者が前記作業空間において見ている注視対象を、前記視線情報に基づいて前記映像の中で特定する注視対象特定部と、
特定された前記注視対象に対応する前記物体に関連付けされた前記情報を、前記映像表示装置に、前記装着者が視覚により内容の把握、選択又は設定を実行できる1つの画像の形態で、前記注視対象に並べて表示させる表示処理部とを備え、
前記注視対象特定部が、前記ロボットの手首フランジに取り付けたツールを前記注視対象として特定したときに、前記表示処理部は、前記ツールのツール座標系が設定済か否かに応じて、前記装着者が視覚により、前記ツール座標系の設定状態の把握、及び、前記ツール座標系の新規設定又は変更設定のうち、少なくともいずれかを実行できる前記画像を、前記映像表示装置に表示させる、ロボットシステム。 - ロボットと、
前記ロボットを制御するロボット制御装置と、
前記ロボット及び前記ロボット制御装置を含む作業空間の現実の映像を取得する映像取得装置と、
装着者の視線情報を取得する視線追跡部を備えた頭部装着型の映像表示装置とを具備し、
前記ロボット制御装置は、
前記ロボットの制御に用いる情報を、前記作業空間に存在する物体の種類と関連付けて格納する情報格納部と、
前記映像表示装置の装着者が前記作業空間において見ている注視対象を、前記視線情報に基づいて前記映像の中で特定する注視対象特定部と、
特定された前記注視対象に対応する前記物体に関連付けされた前記情報を、前記映像表示装置に、前記装着者が視覚により内容の把握、選択又は設定を実行できる1つの画像の形態で、前記注視対象に並べて表示させる表示処理部とを備え、
前記注視対象特定部が、前記ロボットの手首フランジに取り付けたツールを前記注視対象として特定したときに、前記表示処理部は、前記ツールに応じた負荷が設定済か否かに応じて、前記装着者が視覚により、前記負荷の設定状態の把握、及び、前記負荷の新規設定又は変更設定のうち、少なくともいずれかを実行できる前記画像を、前記映像表示装置に表示させる、ロボットシステム。 - 前記情報格納部は、前記物体に予め定めた特徴部に対し特徴部固有の前記情報を関連付けて格納し、
前記表示処理部は、前記注視対象に対応する前記特徴部に関連付けされた前記情報を前記映像表示装置に表示させる、請求項1又は2に記載のロボットシステム。 - 前記ロボット制御装置又は前記映像表示装置は、前記物体をモデル化した物体モデルと前記映像及び前記視線情報とを用いて前記特徴部を識別する特徴識別部を備える、請求項3に記載のロボットシステム。
- 頭部を第1の位置及び姿勢に配置した前記装着者が前記ツールを見たときに得られる第1の前記視線情報と、頭部を前記第1の位置及び姿勢と異なる第2の位置及び姿勢に配置した前記装着者が前記ツールを見たときに得られる第2の前記視線情報と、前記ロボットのベース座標系と、前記ロボットのフランジ座標系と、前記ベース座標系と前記頭部の前記第1の位置及び姿勢との相対関係と、前記ベース座標系と前記頭部の前記第2の位置及び姿勢との相対関係とに基づいて、前記ツール座標系を設定するツール座標系設定部を更に具備する、請求項1に記載のロボットシステム。
- 前記注視対象特定部が、前記ロボットの関節部位を前記注視対象として特定したときに、前記表示処理部は、前記装着者が視覚により、前記関節部位の軸位置の把握及び前記関節部位の可動範囲の把握のうち、少なくともいずれかを実行できる前記画像を、前記映像表示装置に表示させる、請求項1から5のいずれか一項に記載のロボットシステム。
- 前記注視対象特定部が、前記ロボットの進入禁止区域を含む周辺環境の所定箇所を前記注視対象として特定したときに、前記表示処理部は、前記装着者が視覚により前記進入禁止区域の把握を実行できる前記画像を、前記映像表示装置に表示させる、請求項1から6のいずれか一項に記載のロボットシステム。
- 前記注視対象特定部が、前記ロボット制御装置に設けられた選択スイッチを前記注視対象として特定したときに、前記表示処理部は、前記装着者が視覚により前記選択スイッチの選択を実行できる前記画像を、前記映像表示装置に表示させる、請求項1から7のいずれか一項に記載のロボットシステム。
- 前記注視対象特定部が、前記ロボット制御装置の任意箇所を前記注視対象として特定したときに、前記表示処理部は、前記装着者が視覚により、前記ロボットの動作プログラムの実行状態の把握及び前記動作プログラムの実行の選択のうち、少なくともいずれかを実行できる前記画像を、前記映像表示装置に表示させる、請求項1から8のいずれか一項に記載のロボットシステム。
- 前記ロボット制御装置は、前記ロボットが停止中か否かに応じて、前記表示処理部に前記画像の表示処理を行わせる、請求項1から9のいずれか一項に記載のロボットシステム。
- 前記ロボット制御装置又は前記映像表示装置は、前記情報を前記1つの画像の形態に画像化する画像処理部を備える、請求項1から10のいずれか一項に記載のロボットシステム。
- 前記映像表示装置は、前記映像取得装置が取得した前記映像を前記情報と共に表示するディスプレイを備え、前記注視対象特定部は、前記装着者が前記ディスプレイで前記映像として見ている前記注視対象を特定する、請求項1から11のいずれか一項に記載のロボットシステム。
- 前記映像表示装置は、前記情報を表示する透過型のディスプレイを備え、前記注視対象特定部は、前記装着者が前記透過型のディスプレイを通して見ている現実の前記注視対象を特定する、請求項1から11のいずれか一項に記載のロボットシステム。
- 前記映像取得装置は、前記映像表示装置に搭載されているか、又は前記映像表示装置とは別体に設けられている、請求項1から13のいずれか一項に記載のロボットシステム。
- ロボットを制御するロボット制御装置であって、
前記ロボットの制御に用いる情報を、前記ロボット及び前記ロボット制御装置を含む作業空間に存在する物体の種類と関連付けて格納する情報格納部と、
映像表示装置の装着者が前記作業空間において見ている注視対象を、前記映像表示装置の視線追跡部により取得された前記装着者の視線情報に基づいて、前記作業空間の現実の映像を取得する映像取得装置により取得された前記映像の中で特定する注視対象特定部と、
特定された前記注視対象に対応する前記物体に関連付けされた前記情報を、前記映像表示装置に、前記装着者が視覚により内容の把握、選択又は設定を実行できる1つの画像の形態で、前記注視対象に並べて表示させる表示処理部とを備え、
前記注視対象特定部が、前記ロボットの手首フランジに取り付けたツールを前記注視対象として特定したときに、前記表示処理部は、前記ツールのツール座標系が設定済か否かに応じて、前記装着者が視覚により、前記ツール座標系の設定状態の把握、及び、前記ツール座標系の新規設定又は変更設定のうち、少なくともいずれかを実行できる前記画像を、前記映像表示装置に表示させる、ロボット制御装置。 - ロボットを制御するロボット制御装置であって、
前記ロボットの制御に用いる情報を、前記ロボット及び前記ロボット制御装置を含む作業空間に存在する物体の種類と関連付けて格納する情報格納部と、
映像表示装置の装着者が前記作業空間において見ている注視対象を、前記映像表示装置の視線追跡部により取得された前記装着者の視線情報に基づいて、前記作業空間の現実の映像を取得する映像取得装置により取得された前記映像の中で特定する注視対象特定部と、
特定された前記注視対象に対応する前記物体に関連付けされた前記情報を、前記映像表示装置に、前記装着者が視覚により内容の把握、選択又は設定を実行できる1つの画像の形態で、前記注視対象に並べて表示させる表示処理部とを備え、
前記注視対象特定部が、前記ロボットの手首フランジに取り付けたツールを前記注視対象として特定したときに、前記表示処理部は、前記ツールに応じた負荷が設定済か否かに応じて、前記装着者が視覚により、前記負荷の設定状態の把握、及び、前記負荷の新規設定又は変更設定のうち、少なくともいずれかを実行できる前記画像を、前記映像表示装置に表示させる、ロボット制御装置。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019013403A JP7000364B2 (ja) | 2019-01-29 | 2019-01-29 | ロボットシステム |
CN202010059442.9A CN111487946B (zh) | 2019-01-29 | 2020-01-19 | 机器人系统 |
DE102020000390.7A DE102020000390B4 (de) | 2019-01-29 | 2020-01-22 | Robotersystem |
US16/751,222 US11267132B2 (en) | 2019-01-29 | 2020-01-24 | Robot system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019013403A JP7000364B2 (ja) | 2019-01-29 | 2019-01-29 | ロボットシステム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020121351A JP2020121351A (ja) | 2020-08-13 |
JP7000364B2 true JP7000364B2 (ja) | 2022-01-19 |
Family
ID=71524251
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019013403A Active JP7000364B2 (ja) | 2019-01-29 | 2019-01-29 | ロボットシステム |
Country Status (4)
Country | Link |
---|---|
US (1) | US11267132B2 (ja) |
JP (1) | JP7000364B2 (ja) |
CN (1) | CN111487946B (ja) |
DE (1) | DE102020000390B4 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112265000B (zh) * | 2020-11-13 | 2023-12-22 | 辽宁科技大学 | 一种弯管内表面磁粒研磨轨迹快速获取的装置及方法 |
JP2022088884A (ja) * | 2020-12-03 | 2022-06-15 | セイコーエプソン株式会社 | コンピュータープログラム、及び、ロボットの教示方法 |
DE112021005346T5 (de) * | 2020-12-14 | 2023-08-03 | Fanuc Corporation | Anzeigevorrichtung für erweiterte Realität und Anzeigesystem für erweiterte Realität |
CN113887373B (zh) * | 2021-09-27 | 2022-12-16 | 中关村科学城城市大脑股份有限公司 | 基于城市智慧体育的并行融合网络的姿态识别方法和系统 |
JP7149440B1 (ja) | 2022-04-21 | 2022-10-06 | 三菱製鋼株式会社 | 操作装置 |
WO2024100719A1 (ja) * | 2022-11-07 | 2024-05-16 | ファナック株式会社 | 数値制御装置 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016107379A (ja) | 2014-12-08 | 2016-06-20 | ファナック株式会社 | 拡張現実対応ディスプレイを備えたロボットシステム |
JP2017102242A (ja) | 2015-12-01 | 2017-06-08 | 株式会社デンソーウェーブ | 情報表示システム |
JP2017104944A (ja) | 2015-12-10 | 2017-06-15 | ファナック株式会社 | 仮想物体の画像をロボットの映像に重畳表示する映像表示装置を備えるロボットシステム |
JP2018153874A (ja) | 2017-03-15 | 2018-10-04 | 株式会社オカムラ | 提示装置、提示方法およびプログラム、ならびに作業システム |
JP2018176342A (ja) | 2017-04-11 | 2018-11-15 | 川崎重工業株式会社 | ロボットシステム及びその運転方法 |
JP2020069538A (ja) | 2018-10-29 | 2020-05-07 | セイコーエプソン株式会社 | 表示システム、及び、表示システムの制御方法 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5649061A (en) * | 1995-05-11 | 1997-07-15 | The United States Of America As Represented By The Secretary Of The Army | Device and method for estimating a mental decision |
US6120461A (en) * | 1999-08-09 | 2000-09-19 | The United States Of America As Represented By The Secretary Of The Army | Apparatus for tracking the human eye with a retinal scanning display, and method thereof |
US20040104935A1 (en) * | 2001-01-26 | 2004-06-03 | Todd Williamson | Virtual reality immersion system |
CN101770710A (zh) * | 2009-12-31 | 2010-07-07 | 哈尔滨工业大学 | 用于遥控焊接的激光视觉传感辅助遥控示教方法 |
CN102566523B (zh) * | 2010-12-24 | 2014-12-24 | 中国科学院深圳先进技术研究院 | 管家机器人及基于管家机器人的网络控制系统 |
US8824779B1 (en) * | 2011-12-20 | 2014-09-02 | Christopher Charles Smyth | Apparatus and method for determining eye gaze from stereo-optic views |
JP6292658B2 (ja) * | 2013-05-23 | 2018-03-14 | 国立研究開発法人理化学研究所 | 頭部装着型映像表示システム及び方法、頭部装着型映像表示プログラム |
US9552060B2 (en) * | 2014-01-28 | 2017-01-24 | Microsoft Technology Licensing, Llc | Radial selection by vestibulo-ocular reflex fixation |
US10248192B2 (en) | 2014-12-03 | 2019-04-02 | Microsoft Technology Licensing, Llc | Gaze target application launcher |
CN113017836A (zh) * | 2015-02-20 | 2021-06-25 | 柯惠Lp公司 | 手术室和手术部位感知 |
JP6540108B2 (ja) * | 2015-03-09 | 2019-07-10 | 富士通株式会社 | 画像生成方法、システム、装置、及び端末 |
US10712566B2 (en) * | 2015-11-26 | 2020-07-14 | Denso Wave Incorporated | Information displaying system provided with head-mounted type display |
US10956739B2 (en) * | 2016-06-27 | 2021-03-23 | Autodesk, Inc. | Augmented reality robotic system visualization |
JP6445092B2 (ja) * | 2017-05-31 | 2018-12-26 | ファナック株式会社 | ロボットの教示のための情報を表示するロボットシステム |
-
2019
- 2019-01-29 JP JP2019013403A patent/JP7000364B2/ja active Active
-
2020
- 2020-01-19 CN CN202010059442.9A patent/CN111487946B/zh active Active
- 2020-01-22 DE DE102020000390.7A patent/DE102020000390B4/de active Active
- 2020-01-24 US US16/751,222 patent/US11267132B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016107379A (ja) | 2014-12-08 | 2016-06-20 | ファナック株式会社 | 拡張現実対応ディスプレイを備えたロボットシステム |
JP2017102242A (ja) | 2015-12-01 | 2017-06-08 | 株式会社デンソーウェーブ | 情報表示システム |
JP2017104944A (ja) | 2015-12-10 | 2017-06-15 | ファナック株式会社 | 仮想物体の画像をロボットの映像に重畳表示する映像表示装置を備えるロボットシステム |
JP2018153874A (ja) | 2017-03-15 | 2018-10-04 | 株式会社オカムラ | 提示装置、提示方法およびプログラム、ならびに作業システム |
JP2018176342A (ja) | 2017-04-11 | 2018-11-15 | 川崎重工業株式会社 | ロボットシステム及びその運転方法 |
JP2020069538A (ja) | 2018-10-29 | 2020-05-07 | セイコーエプソン株式会社 | 表示システム、及び、表示システムの制御方法 |
Also Published As
Publication number | Publication date |
---|---|
US11267132B2 (en) | 2022-03-08 |
DE102020000390B4 (de) | 2023-07-20 |
JP2020121351A (ja) | 2020-08-13 |
CN111487946A (zh) | 2020-08-04 |
CN111487946B (zh) | 2024-03-29 |
US20200238536A1 (en) | 2020-07-30 |
DE102020000390A1 (de) | 2020-07-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7000364B2 (ja) | ロボットシステム | |
CN110977931B (zh) | 使用了增强现实和混合现实的机器人控制装置及显示装置 | |
Krupke et al. | Comparison of multimodal heading and pointing gestures for co-located mixed reality human-robot interaction | |
CN113056351B (zh) | 外部输入设备、机器人系统、其控制方法及记录介质 | |
CN109690447B (zh) | 信息处理方法、用于使计算机执行该信息处理方法的程序、以及计算机 | |
EP1537959B1 (en) | A method and a system for programming an industrial robot | |
JP6554631B2 (ja) | 仮想現実環境においてナビゲートする方法、システム、および装置 | |
JP4167940B2 (ja) | ロボットシステム | |
JP4817603B2 (ja) | 工業ロボットをプログラミングするための方法およびシステム | |
US7353081B2 (en) | Method and a system for programming an industrial robot | |
Bolano et al. | Transparent robot behavior using augmented reality in close human-robot interaction | |
EP0743589B1 (en) | Interactive image generation method and apparatus | |
JP2018051653A (ja) | ロボット用の表示システム | |
WO2019186551A1 (en) | Augmented reality for industrial robotics | |
JP2020019127A (ja) | 協調動作支援装置 | |
JP2018032217A (ja) | 情報処理方法、当該情報処理方法をコンピュータに実行させるためのプログラム及びコンピュータ | |
JP7454046B2 (ja) | ロボット教示装置及び作業教示方法 | |
Gregg-Smith et al. | Investigating spatial guidance for a cooperative handheld robot | |
JP6140871B1 (ja) | 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム | |
Dinh et al. | Augmented reality interface for taping robot | |
JP2018110871A (ja) | 情報処理方法、当該情報処理方法をコンピュータに実行させるためのプログラム及びコンピュータ | |
JP2018026105A (ja) | 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム | |
JP6290493B2 (ja) | 情報処理方法、当該情報処理方法をコンピュータに実行させるためのプログラム及びコンピュータ | |
JP2022163836A (ja) | ロボット画像の表示方法、コンピュータープログラム、及び、ロボット画像の表示システム | |
JP6449922B2 (ja) | 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200609 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210323 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210521 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211130 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211223 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7000364 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |