JP2020121351A - ロボットシステム - Google Patents
ロボットシステム Download PDFInfo
- Publication number
- JP2020121351A JP2020121351A JP2019013403A JP2019013403A JP2020121351A JP 2020121351 A JP2020121351 A JP 2020121351A JP 2019013403 A JP2019013403 A JP 2019013403A JP 2019013403 A JP2019013403 A JP 2019013403A JP 2020121351 A JP2020121351 A JP 2020121351A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- image
- gaze target
- information
- wearer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 210000000707 wrist Anatomy 0.000 claims 2
- 230000000007 visual effect Effects 0.000 abstract description 4
- 238000000034 method Methods 0.000 description 22
- 230000008569 process Effects 0.000 description 18
- 210000003128 head Anatomy 0.000 description 7
- 238000010586 diagram Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 210000001508 eye Anatomy 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 210000005252 bulbus oculi Anatomy 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000007792 addition Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/42—Recording and playback systems, i.e. in which the programme is recorded from a cycle of operations, e.g. the cycle of operations being manually controlled, after which this record is played back on the same machine
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/18—Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
- G05B19/409—Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by using manual data input [MDI] or by using control panel, e.g. controlling functions with the panel; characterised by control panel details or by setting parameters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40131—Virtual reality control, programming of manipulator
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Automation & Control Theory (AREA)
- Optics & Photonics (AREA)
- Manufacturing & Machinery (AREA)
- Manipulator (AREA)
- Numerical Control (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
50 ロボット制御装置
51 注視対象特定部
52 特徴識別部
53 表示処理部
54 ツール座標系設定部
80 情報格納部
81 物体モデル格納部
90 映像表示装置
91 映像取得装置
92 視線追跡装置
93 画像処理部
94 ディスプレイ
100 ロボットシステム
Claims (15)
- ロボットと、
前記ロボットを制御するロボット制御装置と、
前記ロボット及び前記ロボット制御装置を含む作業空間の現実の映像を取得する映像取得装置と、
装着者の視線情報を取得する視線追跡部を備えた頭部装着型の映像表示装置とを具備し、
前記ロボット制御装置は、
前記ロボットの制御に用いる情報を、前記作業空間に存在する物体の種類と関連付けて格納する情報格納部と、
前記映像表示装置の装着者が前記作業空間において見ている注視対象を、前記視線情報に基づいて前記映像の中で特定する注視対象特定部と、
特定された前記注視対象に対応する前記物体に関連付けされた前記情報を、前記映像表示装置に、前記装着者が視覚により内容の把握、選択又は設定を実行できる1つの画像の形態で、前記注視対象に並べて表示させる表示処理部とを備える、
ロボットシステム。 - 前記情報格納部は、前記物体に予め定めた特徴部に対し特徴部固有の前記情報を関連付けて格納し、
前記表示処理部は、前記注視対象に対応する前記特徴部に関連付けされた前記情報を前記映像表示装置に表示させる、請求項1に記載のロボットシステム。 - 前記ロボット制御装置又は前記映像表示装置は、前記物体をモデル化した物体モデルと前記映像及び前記視線情報とを用いて前記特徴部を識別する特徴識別部を備える、請求項2に記載のロボットシステム。
- 前記注視対象特定部が、前記ロボットの手首フランジに取り付けたツールを前記注視対象として特定したときに、前記表示処理部は、前記ツールのツール座標系が設定済か否か、及び前記ツールに応じた負荷が設定済か否かに応じて、前記装着者が視覚により、前記ツール座標系の設定状態の把握、前記ツール座標系の新規設定又は変更設定、前記負荷の設定状態の把握、及び前記負荷の新規設定又は変更設定のうち、少なくともいずれかを実行できる前記画像を、前記映像表示装置に表示させる、請求項1から3のいずれか一項に記載のロボットシステム。
- 前記注視対象特定部が、前記ロボットの手首フランジに取り付けたツールを前記注視対象として特定したときに、前記表示処理部は、前記装着者が視覚により、前記ツールを動かす前記ロボットの動作情報の把握を実行できる前記画像を、前記映像表示装置に表示させる、請求項1から3のいずれか一項に記載のロボットシステム。
- 頭部を第1の位置及び姿勢に配置した前記装着者が前記ツールを見たときに得られる第1の前記視線情報と、頭部を前記第1の位置及び姿勢と異なる第2の位置及び姿勢に配置した前記装着者が前記ツールを見たときに得られる第2の前記視線情報と、前記ロボットのベース座標系と、前記ロボットのフランジ座標系と、前記ベース座標系と前記頭部の前記第1の位置及び姿勢との相対関係と、前記ベース座標系と前記頭部の前記第2の位置及び姿勢との相対関係とに基づいて、前記ツール座標系を設定するツール座標系設定部を更に具備する、請求項4又は5に記載のロボットシステム。
- 前記注視対象特定部が、前記ロボットの関節部位を前記注視対象として特定したときに、前記表示処理部は、前記装着者が視覚により、前記関節部位の軸位置の把握及び前記関節部位の可動範囲の把握のうち、少なくともいずれかを実行できる前記画像を、前記映像表示装置に表示させる、請求項1から6のいずれか一項に記載のロボットシステム。
- 前記注視対象特定部が、前記ロボットの進入禁止区域を含む周辺環境の所定箇所を前記注視対象として特定したときに、前記表示処理部は、前記装着者が視覚により前記進入禁止区域の把握を実行できる前記画像を、前記映像表示装置に表示させる、請求項1から7のいずれか一項に記載のロボットシステム。
- 前記注視対象特定部が、前記ロボット制御装置に設けられた選択スイッチを前記注視対象として特定したときに、前記表示処理部は、前記装着者が視覚により前記選択スイッチの選択を実行できる前記画像を、前記映像表示装置に表示させる、請求項1から8のいずれか一項に記載のロボットシステム。
- 前記注視対象特定部が、前記ロボット制御装置の任意箇所を前記注視対象として特定したときに、前記表示処理部は、前記装着者が視覚により、前記ロボットの動作プログラムの実行状態の把握及び前記動作プログラムの実行の選択のうち、少なくともいずれかを実行できる前記画像を、前記映像表示装置に表示させる、請求項1から9のいずれか一項に記載のロボットシステム。
- 前記ロボット制御装置は、前記ロボットが停止中か否かに応じて、前記表示処理部に前記画像の表示処理を行わせる、請求項1から10のいずれか一項に記載のロボットシステム。
- 前記ロボット制御装置又は前記映像表示装置は、前記情報を前記1つの画像の形態に画像化する画像処理部を備える、請求項1から11のいずれか一項に記載のロボットシステム。
- 前記映像表示装置は、前記映像取得装置が取得した前記映像を前記情報と共に表示するディスプレイを備え、前記注視対象特定部は、前記装着者が前記ディスプレイで前記映像として見ている前記注視対象を特定する、請求項1から12のいずれか一項に記載のロボットシステム。
- 前記映像表示装置は、前記情報を表示する透過型のディスプレイを備え、前記注視対象特定部は、前記装着者が前記透過型のディスプレイを通して見ている現実の前記注視対象を特定する、請求項1から12のいずれか一項に記載のロボットシステム。
- 前記映像取得装置は、前記映像表示装置に搭載されているか、又は前記映像表示装置とは別体に設けられている、請求項1から14のいずれか一項に記載のロボットシステム。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019013403A JP7000364B2 (ja) | 2019-01-29 | 2019-01-29 | ロボットシステム |
CN202010059442.9A CN111487946B (zh) | 2019-01-29 | 2020-01-19 | 机器人系统 |
DE102020000390.7A DE102020000390B4 (de) | 2019-01-29 | 2020-01-22 | Robotersystem |
US16/751,222 US11267132B2 (en) | 2019-01-29 | 2020-01-24 | Robot system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019013403A JP7000364B2 (ja) | 2019-01-29 | 2019-01-29 | ロボットシステム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020121351A true JP2020121351A (ja) | 2020-08-13 |
JP7000364B2 JP7000364B2 (ja) | 2022-01-19 |
Family
ID=71524251
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019013403A Active JP7000364B2 (ja) | 2019-01-29 | 2019-01-29 | ロボットシステム |
Country Status (4)
Country | Link |
---|---|
US (1) | US11267132B2 (ja) |
JP (1) | JP7000364B2 (ja) |
CN (1) | CN111487946B (ja) |
DE (1) | DE102020000390B4 (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022131068A1 (ja) * | 2020-12-14 | 2022-06-23 | ファナック株式会社 | 拡張現実表示装置、及び拡張現実表示システム |
JP7149440B1 (ja) | 2022-04-21 | 2022-10-06 | 三菱製鋼株式会社 | 操作装置 |
JP7288158B1 (ja) * | 2022-11-07 | 2023-06-06 | ファナック株式会社 | 数値制御装置 |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112265000B (zh) * | 2020-11-13 | 2023-12-22 | 辽宁科技大学 | 一种弯管内表面磁粒研磨轨迹快速获取的装置及方法 |
JP2022088884A (ja) * | 2020-12-03 | 2022-06-15 | セイコーエプソン株式会社 | コンピュータープログラム、及び、ロボットの教示方法 |
CN113887373B (zh) * | 2021-09-27 | 2022-12-16 | 中关村科学城城市大脑股份有限公司 | 基于城市智慧体育的并行融合网络的姿态识别方法和系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016107379A (ja) * | 2014-12-08 | 2016-06-20 | ファナック株式会社 | 拡張現実対応ディスプレイを備えたロボットシステム |
JP2017102242A (ja) * | 2015-12-01 | 2017-06-08 | 株式会社デンソーウェーブ | 情報表示システム |
JP2017104944A (ja) * | 2015-12-10 | 2017-06-15 | ファナック株式会社 | 仮想物体の画像をロボットの映像に重畳表示する映像表示装置を備えるロボットシステム |
JP2018153874A (ja) * | 2017-03-15 | 2018-10-04 | 株式会社オカムラ | 提示装置、提示方法およびプログラム、ならびに作業システム |
JP2018176342A (ja) * | 2017-04-11 | 2018-11-15 | 川崎重工業株式会社 | ロボットシステム及びその運転方法 |
JP2020069538A (ja) * | 2018-10-29 | 2020-05-07 | セイコーエプソン株式会社 | 表示システム、及び、表示システムの制御方法 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5649061A (en) * | 1995-05-11 | 1997-07-15 | The United States Of America As Represented By The Secretary Of The Army | Device and method for estimating a mental decision |
US6120461A (en) * | 1999-08-09 | 2000-09-19 | The United States Of America As Represented By The Secretary Of The Army | Apparatus for tracking the human eye with a retinal scanning display, and method thereof |
US20040104935A1 (en) * | 2001-01-26 | 2004-06-03 | Todd Williamson | Virtual reality immersion system |
CN101770710A (zh) * | 2009-12-31 | 2010-07-07 | 哈尔滨工业大学 | 用于遥控焊接的激光视觉传感辅助遥控示教方法 |
CN102566523B (zh) * | 2010-12-24 | 2014-12-24 | 中国科学院深圳先进技术研究院 | 管家机器人及基于管家机器人的网络控制系统 |
US8824779B1 (en) * | 2011-12-20 | 2014-09-02 | Christopher Charles Smyth | Apparatus and method for determining eye gaze from stereo-optic views |
JP6292658B2 (ja) * | 2013-05-23 | 2018-03-14 | 国立研究開発法人理化学研究所 | 頭部装着型映像表示システム及び方法、頭部装着型映像表示プログラム |
US9552060B2 (en) * | 2014-01-28 | 2017-01-24 | Microsoft Technology Licensing, Llc | Radial selection by vestibulo-ocular reflex fixation |
US10248192B2 (en) | 2014-12-03 | 2019-04-02 | Microsoft Technology Licensing, Llc | Gaze target application launcher |
EP3258876B1 (en) * | 2015-02-20 | 2023-10-18 | Covidien LP | Operating room and surgical site awareness |
JP6540108B2 (ja) * | 2015-03-09 | 2019-07-10 | 富士通株式会社 | 画像生成方法、システム、装置、及び端末 |
US10712566B2 (en) * | 2015-11-26 | 2020-07-14 | Denso Wave Incorporated | Information displaying system provided with head-mounted type display |
US10956739B2 (en) * | 2016-06-27 | 2021-03-23 | Autodesk, Inc. | Augmented reality robotic system visualization |
JP6445092B2 (ja) * | 2017-05-31 | 2018-12-26 | ファナック株式会社 | ロボットの教示のための情報を表示するロボットシステム |
-
2019
- 2019-01-29 JP JP2019013403A patent/JP7000364B2/ja active Active
-
2020
- 2020-01-19 CN CN202010059442.9A patent/CN111487946B/zh active Active
- 2020-01-22 DE DE102020000390.7A patent/DE102020000390B4/de active Active
- 2020-01-24 US US16/751,222 patent/US11267132B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016107379A (ja) * | 2014-12-08 | 2016-06-20 | ファナック株式会社 | 拡張現実対応ディスプレイを備えたロボットシステム |
JP2017102242A (ja) * | 2015-12-01 | 2017-06-08 | 株式会社デンソーウェーブ | 情報表示システム |
JP2017104944A (ja) * | 2015-12-10 | 2017-06-15 | ファナック株式会社 | 仮想物体の画像をロボットの映像に重畳表示する映像表示装置を備えるロボットシステム |
JP2018153874A (ja) * | 2017-03-15 | 2018-10-04 | 株式会社オカムラ | 提示装置、提示方法およびプログラム、ならびに作業システム |
JP2018176342A (ja) * | 2017-04-11 | 2018-11-15 | 川崎重工業株式会社 | ロボットシステム及びその運転方法 |
JP2020069538A (ja) * | 2018-10-29 | 2020-05-07 | セイコーエプソン株式会社 | 表示システム、及び、表示システムの制御方法 |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022131068A1 (ja) * | 2020-12-14 | 2022-06-23 | ファナック株式会社 | 拡張現実表示装置、及び拡張現実表示システム |
JP7149440B1 (ja) | 2022-04-21 | 2022-10-06 | 三菱製鋼株式会社 | 操作装置 |
JP2023160061A (ja) * | 2022-04-21 | 2023-11-02 | 三菱製鋼株式会社 | 操作装置 |
JP7288158B1 (ja) * | 2022-11-07 | 2023-06-06 | ファナック株式会社 | 数値制御装置 |
WO2024100719A1 (ja) * | 2022-11-07 | 2024-05-16 | ファナック株式会社 | 数値制御装置 |
Also Published As
Publication number | Publication date |
---|---|
US11267132B2 (en) | 2022-03-08 |
US20200238536A1 (en) | 2020-07-30 |
CN111487946B (zh) | 2024-03-29 |
DE102020000390A1 (de) | 2020-07-30 |
DE102020000390B4 (de) | 2023-07-20 |
CN111487946A (zh) | 2020-08-04 |
JP7000364B2 (ja) | 2022-01-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7000364B2 (ja) | ロボットシステム | |
CN110394780B (zh) | 机器人的仿真装置 | |
EP1537959B1 (en) | A method and a system for programming an industrial robot | |
US11850755B2 (en) | Visualization and modification of operational bounding zones using augmented reality | |
JP4167940B2 (ja) | ロボットシステム | |
US6587752B1 (en) | Robot operation teaching method and apparatus | |
EP1435280B1 (en) | A method and a system for programming an industrial robot | |
US7353081B2 (en) | Method and a system for programming an industrial robot | |
US20190163266A1 (en) | Interaction system and method | |
Bolano et al. | Transparent robot behavior using augmented reality in close human-robot interaction | |
EP0743589B1 (en) | Interactive image generation method and apparatus | |
WO2019186551A1 (en) | Augmented reality for industrial robotics | |
Bolano et al. | Deploying multi-modal communication using augmented reality in a shared workspace | |
US20220176555A1 (en) | Non-transitory computer-readable storage medium and teaching method for robot | |
JP6157703B1 (ja) | 情報処理方法、当該情報処理方法をコンピュータに実行させるためのプログラム及びコンピュータ | |
JPH06131442A (ja) | 3次元虚像造形装置 | |
Gregg-Smith et al. | Investigating spatial guidance for a cooperative handheld robot | |
JP6140871B1 (ja) | 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム | |
US20220331972A1 (en) | Robot Image Display Method, Recording Medium, And Robot Image Display System | |
Dinh et al. | Augmented reality interface for taping robot | |
JP2018110871A (ja) | 情報処理方法、当該情報処理方法をコンピュータに実行させるためのプログラム及びコンピュータ | |
JP2018026105A (ja) | 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム | |
JP6290493B2 (ja) | 情報処理方法、当該情報処理方法をコンピュータに実行させるためのプログラム及びコンピュータ | |
JP6449922B2 (ja) | 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム | |
Matour et al. | Towards Intuitive Extended Reality-Based Robot Control and Path Planning: Comparison of Augmented Reality and Mixed Reality-Based Approaches |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200609 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210323 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210521 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211130 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211223 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7000364 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |