JP2023507241A - 随意のデュアルレンジ運動学を用いたプロキシコントローラスーツ - Google Patents
随意のデュアルレンジ運動学を用いたプロキシコントローラスーツ Download PDFInfo
- Publication number
- JP2023507241A JP2023507241A JP2022555734A JP2022555734A JP2023507241A JP 2023507241 A JP2023507241 A JP 2023507241A JP 2022555734 A JP2022555734 A JP 2022555734A JP 2022555734 A JP2022555734 A JP 2022555734A JP 2023507241 A JP2023507241 A JP 2023507241A
- Authority
- JP
- Japan
- Prior art keywords
- proxy
- controller
- operator
- suite
- suit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000033001 locomotion Effects 0.000 claims abstract description 206
- 238000005259 measurement Methods 0.000 claims abstract description 8
- 230000002093 peripheral effect Effects 0.000 claims description 19
- 230000000007 visual effect Effects 0.000 claims description 17
- 230000001133 acceleration Effects 0.000 claims description 8
- 238000009877 rendering Methods 0.000 claims 1
- 238000000034 method Methods 0.000 description 35
- 210000000245 forearm Anatomy 0.000 description 14
- 230000008569 process Effects 0.000 description 11
- 210000002414 leg Anatomy 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 210000003414 extremity Anatomy 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 230000007613 environmental effect Effects 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 210000002683 foot Anatomy 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 230000001131 transforming effect Effects 0.000 description 2
- 210000000689 upper leg Anatomy 0.000 description 2
- 210000000707 wrist Anatomy 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 239000000853 adhesive Substances 0.000 description 1
- 230000001070 adhesive effect Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 244000309466 calf Species 0.000 description 1
- 238000004140 cleaning Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 210000003811 finger Anatomy 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 210000004247 hand Anatomy 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000012905 input function Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000003278 mimic effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 230000010076 replication Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/014—Hand-worn input/output arrangements, e.g. data gloves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Manipulator (AREA)
Abstract
Description
本出願は、2019年12月31日に出願された「プロキシコントローラスーツ(Proxy Controller Suit)」という名称の米国仮特許出願第62/955,735号明細書、および2020年5月11日に出願された 「デュアルレンジ運動学によるプロキシコントローラスーツ(Proxy Controller Suit with Dual Range Kinematics)」という名称の米国仮特許出願第63/022,713号明細書の利益を主張し、これらの開示は、本明細書に完全に記載されているものとして参照により組み込まれる。
例示的な実施形態の範囲内に入ると考えられたい。いくつかの実施形態では、プロキシコントローラスーツ100は、より少ないまたは追加の運動センサ104と、1つまたは複数の中央追跡ユニット102とを有することができる。いくつかの実施形態では、中央追跡ユニット102および運動センサメインボード106は、単一のユニットに統合されることができ、またはバイザ108または周辺コントローラ110などのプロキシコントローラスーツ100の他の要素と組み合わされ得る。プロキシコントローラスーツ100の様々な要素は、一般に、有線(図示のように)または無線接続で互いに接続されることが理解されよう。センサデータ、環境データ、コントローラコマンド、または任意の他の適切なデータを含み得るデータは、有線または無線接続を介してこれらの構成要素間で送信される。
Claims (20)
- オペレータが実際のまたは仮想のリモート空間において実際のまたは仮想のプロキシを制御することを可能にするためのプロキシコントローラスーツであって、
中央追跡ユニットであって、追跡される空間内の前記オペレータの位置を提供するように構成される、中央追跡ユニットと、
前記中央追跡ユニットから既知の第1の距離で前記オペレータの第1の付属器官上の第1の位置に取り付けられた第1の運動センサであって、前記第1の運動センサの移動は、前記第1の運動センサを参照して決定される、第1の運動センサと、
前記第1の運動センサから既知の距離で前記オペレータの前記第1の付属器官上の第2の位置に取り付けられた第2の運動センサであって、前記第2の運動センサの移動は、前記第1の運動センサによって行われた測定値の関数として決定される、第2の運動センサと、を備える、プロキシコントローラスーツ。 - 前記第1の運動センサおよび前記第2の運動センサはそれぞれ、前記オペレータの骨格構造内の関節の異なる側に対応する位置で前記第1の付属器官に取り付けられる、請求項1に記載のプロキシコントローラスーツ。
- 前記リモート空間の視覚的表現を前記オペレータに提供するバイザをさらに備える、請求項1に記載のプロキシコントローラスーツ。
- 前記バイザが、前記リモート空間の3次元レンダリングを前記オペレータに提供する仮想現実ヘッドセットである、請求項3に記載のプロキシコントローラスーツ。
- 前記中央追跡ユニットが、
1つまたは複数の広角カメラと、
1つまたは複数のステレオ捕捉レンズと、
赤外線投光器と、を備える、請求項3に記載のプロキシコントローラスーツ。 - 1つまたは複数の周辺コントローラをさらに備える、請求項3に記載のプロキシコントローラスーツ。
- 前記1つまたは複数の周辺コントローラが、前記オペレータによって着用されるように構成された手袋である、請求項6に記載のプロキシコントローラスーツ。
- 前記第1の運動センサは、加速度および向きの変化を測定するように構成された慣性測定ユニットである、請求項1に記載のプロキシコントローラスーツ。
- 前記中央追跡ユニットは、外部カメラシステムなしで前記追跡される空間内の前記オペレータの位置を追跡するように構成される、請求項1に記載のプロキシコントローラスーツ。
- 前記中央追跡ユニットが、外部カメラシステムを用いて前記追跡された空間内の前記オペレータの位置を追跡するように構成される、請求項1に記載のプロキシコントローラスーツ。
- オペレータが実際のまたは仮想のリモート空間内で実際のまたは仮想のプロキシを制御することを可能にするためのプロキシコントローラスーツであって、
前記オペレータの胴体上に配置された中央追跡ユニットであって、追跡空間内の前記オペレータの位置を提供するように構成される、中央追跡ユニットと、
複数のセンサクラスタであって、前記複数のセンサクラスタの各々が前記オペレータの身体の付属器官または一部に対応し、前記センサクラスタの各々が複数の運動センサを含む、複数のセンサクラスタと、を備え、
前記複数の運動センサの各々の移動は、前記適用可能なセンサクラスタ内の他の運動センサによって行われた前記移動の測定値の関数として、前記中央追跡ユニットの位置を参照して決定される、プロキシコントローラスーツ。 - 前記複数の運動センサの各々は、前記複数の運動センサが前記オペレータの実際の骨格に近似する仮想骨格を形成するように、前記センサクラスタ内に配置される、請求項12に記載のプロキシコントローラスーツ。
- 前記対応するセンサクラスタ内の前記複数の運動センサの各々の間の距離は、較正ルーチン中に決定される、請求項12に記載のプロキシコントローラスーツ。
- 前記仮想骨格内のセグメントの前記サイズおよび比率は、前記プロキシの前記対応する部分のサイズおよび比率に一致するようにスケーラブルである、請求項13に記載のプロキシコントローラスーツ。
- オペレータがリモート空間でロボットプロキシを制御することを可能にするためのプロキシコントローラスーツであって、
前記オペレータの胴体上に配置された中央追跡ユニットであって、追跡空間内の前記オペレータの位置を提供するように構成された中央追跡ユニットと、
複数のセンサクラスタであって、前記複数のセンサクラスタの各々が前記オペレータの身体の付属器官または一部に対応し、前記センサクラスタの各々が複数の運動センサを含む、複数のセンサクラスタと、
前記複数のセンサからの出力を前記プロキシに伝送されるコマンド信号に変換するスーツコントローラであって、前記スーツコントローラは、従来の運動学モデルと逆運動学モデルとの間でシフトするように構成される、スーツコントローラと、
前記スーツコントローラからの前記コマンド信号を受け取り、それらのコマンド信号を前記プロキシに適用するように構成されたプロキシコントローラと、を備える、プロキシコントローラスーツ。 - 前記オペレータは、前記プロキシの制御を従来の運動学モデルから逆運動学モデルに手動でシフトさせることができる、請求項15に記載のプロキシコントローラスーツ。
- 前記スーツコントローラは、前記プロキシが前記対応するプロキシ付属器官の正確な制御を実行することを必要とするように、前記オペレータが付属器官を伸ばして対象物体と互いに作用しあう場合、前記従来の運動学モデルから前記逆運動学モデルに自動的にシフトする、請求項15に記載のプロキシコントローラスーツ。
- 前記プロキシコントローラは、前記対応するプロキシ付属器官を前記対象物体上に配置し、次いで、前記逆運動学モデルを適用しながら、前記プロキシ内に任意の介在するリンケージを含む前記必要な移動の解決策を決定するように構成される、請求項15に記載のプロキシコントローラスーツ。
- 前記ロボットプロキシは、前記リモート空間を視覚的にスキャンして、前記リモート空間の3次元仮想表現を構築するように構成された、1つまたは複数のプロキシカメラを備える、請求項15に記載のプロキシコントローラスーツ。
- 前記リモート空間の前記3次元仮想表現を前記オペレータに表示するように構成されたバイザをさらに備える、請求項19に記載のプロキシコントローラスーツ。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962955735P | 2019-12-31 | 2019-12-31 | |
US62/955,735 | 2019-12-31 | ||
US202063022713P | 2020-05-11 | 2020-05-11 | |
US63/022,713 | 2020-05-11 | ||
PCT/US2020/067693 WO2021138577A1 (en) | 2019-12-31 | 2020-12-31 | Proxy controller suit with optional dual range kinematics |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023507241A true JP2023507241A (ja) | 2023-02-21 |
JP7428436B2 JP7428436B2 (ja) | 2024-02-06 |
Family
ID=76547182
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022555734A Active JP7428436B2 (ja) | 2019-12-31 | 2020-12-31 | 随意のデュアルレンジ運動学を用いたプロキシコントローラスーツ |
Country Status (6)
Country | Link |
---|---|
US (1) | US11422625B2 (ja) |
EP (1) | EP4084936A4 (ja) |
JP (1) | JP7428436B2 (ja) |
AU (1) | AU2020417826A1 (ja) |
CA (1) | CA3161710A1 (ja) |
WO (1) | WO2021138577A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11461867B2 (en) * | 2019-09-19 | 2022-10-04 | Sanctuary Cognitive Systems Corporation | Visual interface and communications techniques for use with robots |
CN116998161A (zh) * | 2021-02-05 | 2023-11-03 | 阿里·科德 | 表演艺术的动作捕捉 |
CN114227679B (zh) * | 2021-12-17 | 2023-07-25 | 深圳市金大智能创新科技有限公司 | 一种基于数字化虚拟人驱动的远程机器人控制方法及系统 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011118924A (ja) * | 2011-02-17 | 2011-06-16 | Kyokko Denki Kk | 多関節構造体、それを用いた装着具、システムおよびヒューマンマシンインターフェース |
JP2013520327A (ja) * | 2010-02-25 | 2013-06-06 | 本田技研工業株式会社 | 関節システムの制御方法、記憶媒体、制御システム |
JP2017196678A (ja) * | 2016-04-25 | 2017-11-02 | 国立大学法人 千葉大学 | ロボット動作制御装置 |
WO2018097223A1 (ja) * | 2016-11-24 | 2018-05-31 | 国立大学法人京都大学 | ロボット制御システム、機械制御システム、ロボット制御方法、機械制御方法、および記録媒体 |
US20190056422A1 (en) * | 2016-01-12 | 2019-02-21 | Bigmotion Technologies Inc. | Systems and methods for human body motion capture |
WO2019059364A1 (ja) * | 2017-09-22 | 2019-03-28 | 三菱電機株式会社 | 遠隔制御マニピュレータシステムおよび制御装置 |
WO2019203190A1 (ja) * | 2018-04-17 | 2019-10-24 | ソニー株式会社 | プログラム、情報処理装置、及び情報処理方法 |
Family Cites Families (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2134193C1 (ru) | 1997-04-03 | 1999-08-10 | Псковский государственный педагогический институт им.С.М.Кирова | Способ дистанционного управления антропоморфным шагающим копирующим роботом |
US8620473B2 (en) | 2007-06-13 | 2013-12-31 | Intuitive Surgical Operations, Inc. | Medical robotic system with coupled control modes |
US20090325710A1 (en) * | 2008-06-27 | 2009-12-31 | Microsoft Corporation | Dynamic Selection Of Sensitivity Of Tilt Functionality |
GB0901020D0 (en) | 2009-01-21 | 2009-03-04 | Birmingham City University | A motion capture apparatus |
US9573276B2 (en) | 2012-02-15 | 2017-02-21 | Kenneth Dean Stephens, Jr. | Space exploration with human proxy robots |
US9975248B2 (en) * | 2012-03-21 | 2018-05-22 | Kenneth Dean Stephens, Jr. | Replicating the remote environment of a proxy robot |
US9536446B2 (en) * | 2012-12-03 | 2017-01-03 | Dynamic Motion Group Gmbh | Motion simulation system controller and associated methods |
WO2014114967A1 (en) * | 2013-01-25 | 2014-07-31 | WENNER, Fabian | Self-calibrating motion capture system |
US9064385B2 (en) | 2013-03-15 | 2015-06-23 | Immersion Corporation | Method and apparatus to generate haptic feedback from video content analysis |
CN106030427B (zh) | 2014-02-20 | 2020-09-08 | M·奥利尼克 | 用于在机器人烹饪厨房中制备食物的方法和系统 |
US10203762B2 (en) | 2014-03-11 | 2019-02-12 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
US9665174B2 (en) | 2015-02-20 | 2017-05-30 | Sony Interactive Entertainment Inc. | Magnetic tracking of glove fingertips with peripheral devices |
CA2882968C (en) | 2015-02-23 | 2023-04-25 | Sulfur Heron Cognitive Systems Inc. | Facilitating generation of autonomous control information |
US9643314B2 (en) | 2015-03-04 | 2017-05-09 | The Johns Hopkins University | Robot control, training and collaboration in an immersive virtual reality environment |
CN108883335A (zh) | 2015-04-14 | 2018-11-23 | 约翰·詹姆斯·丹尼尔斯 | 用于人与机器或人与人的可穿戴式的电子多感官接口 |
US20170108929A1 (en) | 2015-04-28 | 2017-04-20 | Morgan Walker Sinko | System and Method for Full Motion Capture and Haptic Feedback Suite |
US10667697B2 (en) * | 2015-06-14 | 2020-06-02 | Facense Ltd. | Identification of posture-related syncope using head-mounted sensors |
US10324522B2 (en) * | 2015-11-25 | 2019-06-18 | Jakob Balslev | Methods and systems of a motion-capture body suit with wearable body-position sensors |
US10322506B2 (en) | 2016-05-06 | 2019-06-18 | Kindred Systems Inc. | Systems, devices, articles, and methods for using trained robots |
EP3252714A1 (en) | 2016-06-03 | 2017-12-06 | Univrses AB | Camera selection in positional tracking |
WO2018095804A1 (en) | 2016-11-25 | 2018-05-31 | Sensoryx AG | Wearable motion tracking system |
US10691121B2 (en) * | 2017-01-30 | 2020-06-23 | Kenneth Dean Stephens, Jr. | Biologically controlled proxy robot |
CN107336233B (zh) | 2017-06-02 | 2020-10-09 | 南京邮电大学 | 基于惯性动捕的人-机器人虚实交互控制系统 |
US10777006B2 (en) | 2017-10-23 | 2020-09-15 | Sony Interactive Entertainment Inc. | VR body tracking without external sensors |
US10429924B1 (en) | 2019-01-30 | 2019-10-01 | Human Mode, LLC | Virtual reality simulation system |
-
2020
- 2020-12-31 WO PCT/US2020/067693 patent/WO2021138577A1/en unknown
- 2020-12-31 JP JP2022555734A patent/JP7428436B2/ja active Active
- 2020-12-31 CA CA3161710A patent/CA3161710A1/en active Pending
- 2020-12-31 US US17/139,551 patent/US11422625B2/en active Active
- 2020-12-31 AU AU2020417826A patent/AU2020417826A1/en active Pending
- 2020-12-31 EP EP20910210.2A patent/EP4084936A4/en active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013520327A (ja) * | 2010-02-25 | 2013-06-06 | 本田技研工業株式会社 | 関節システムの制御方法、記憶媒体、制御システム |
JP2011118924A (ja) * | 2011-02-17 | 2011-06-16 | Kyokko Denki Kk | 多関節構造体、それを用いた装着具、システムおよびヒューマンマシンインターフェース |
US20190056422A1 (en) * | 2016-01-12 | 2019-02-21 | Bigmotion Technologies Inc. | Systems and methods for human body motion capture |
JP2017196678A (ja) * | 2016-04-25 | 2017-11-02 | 国立大学法人 千葉大学 | ロボット動作制御装置 |
WO2018097223A1 (ja) * | 2016-11-24 | 2018-05-31 | 国立大学法人京都大学 | ロボット制御システム、機械制御システム、ロボット制御方法、機械制御方法、および記録媒体 |
WO2019059364A1 (ja) * | 2017-09-22 | 2019-03-28 | 三菱電機株式会社 | 遠隔制御マニピュレータシステムおよび制御装置 |
WO2019203190A1 (ja) * | 2018-04-17 | 2019-10-24 | ソニー株式会社 | プログラム、情報処理装置、及び情報処理方法 |
Also Published As
Publication number | Publication date |
---|---|
EP4084936A1 (en) | 2022-11-09 |
WO2021138577A1 (en) | 2021-07-08 |
EP4084936A4 (en) | 2024-01-10 |
CA3161710A1 (en) | 2021-07-08 |
US20210200311A1 (en) | 2021-07-01 |
AU2020417826A1 (en) | 2022-06-16 |
JP7428436B2 (ja) | 2024-02-06 |
US11422625B2 (en) | 2022-08-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210205986A1 (en) | Teleoperating Of Robots With Tasks By Mapping To Human Operator Pose | |
JP7428436B2 (ja) | 随意のデュアルレンジ運動学を用いたプロキシコントローラスーツ | |
WO2015180497A1 (zh) | 一种基于立体视觉的动作采集和反馈方法及系统 | |
Liu et al. | High-fidelity grasping in virtual reality using a glove-based system | |
Fritsche et al. | First-person tele-operation of a humanoid robot | |
CN109799900B (zh) | 手腕可安装计算通信和控制设备及其执行的方法 | |
US11498216B2 (en) | Remote control manipulator system and control device | |
AU2017365223B2 (en) | Wearable motion tracking system | |
EP3196734B1 (en) | Control device, control method, and program | |
WO2011065034A1 (ja) | ロボットの動作を制御する方法およびロボットシステム | |
WO2020110659A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
EP3797931B1 (en) | Remote control system, information processing method, and program | |
CN109243575B (zh) | 一种基于移动交互和增强现实的虚拟针灸方法及系统 | |
JP6927937B2 (ja) | 三次元骨格表現を生成するためのシステム及び方法 | |
JP2023126474A (ja) | 拡張現実のためのシステムおよび方法 | |
JP2021060627A (ja) | 情報処理装置、情報処理方法、およびプログラム | |
RU2670649C1 (ru) | Способ изготовления перчатки виртуальной реальности (варианты) | |
WO2017080533A2 (zh) | 一种与虚拟现实环境进行交互的装置 | |
CN114756130A (zh) | 一种手部虚实交互系统 | |
CN211180839U (zh) | 一种运动教学设备和运动教学系统 | |
RU2673406C1 (ru) | Способ изготовления перчатки виртуальной реальности | |
Bai et al. | Kinect-based hand tracking for first-person-perspective robotic arm teleoperation | |
Zhou et al. | Development of a synchronized human-robot-virtuality interaction system using cooperative robot and motion capture device | |
Banda et al. | Investigations on collaborative remote control of virtual robotic manipulators by using a Kinect v2 sensor | |
KR101230950B1 (ko) | 햅틱 장치 및 햅틱 장치 제어 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220914 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220914 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20220914 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230131 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230417 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230620 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20230915 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231117 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240109 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240118 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7428436 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |