JP7092445B2 - リモートロボット制御を提供する方法及びシステム - Google Patents
リモートロボット制御を提供する方法及びシステム Download PDFInfo
- Publication number
- JP7092445B2 JP7092445B2 JP2021519694A JP2021519694A JP7092445B2 JP 7092445 B2 JP7092445 B2 JP 7092445B2 JP 2021519694 A JP2021519694 A JP 2021519694A JP 2021519694 A JP2021519694 A JP 2021519694A JP 7092445 B2 JP7092445 B2 JP 7092445B2
- Authority
- JP
- Japan
- Prior art keywords
- robot
- virtual
- virtual object
- environment
- route
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 126
- 230000033001 locomotion Effects 0.000 claims description 59
- 230000015654 memory Effects 0.000 claims description 46
- 238000003860 storage Methods 0.000 claims description 27
- 230000004044 response Effects 0.000 claims description 26
- 238000001514 detection method Methods 0.000 claims description 17
- 238000009877 rendering Methods 0.000 description 45
- 230000011218 segmentation Effects 0.000 description 44
- 230000003993 interaction Effects 0.000 description 39
- 230000006870 function Effects 0.000 description 29
- 238000012545 processing Methods 0.000 description 29
- 230000000007 visual effect Effects 0.000 description 29
- 230000008569 process Effects 0.000 description 22
- 230000007613 environmental effect Effects 0.000 description 20
- 238000004088 simulation Methods 0.000 description 11
- 230000002452 interceptive effect Effects 0.000 description 10
- 239000000463 material Substances 0.000 description 10
- 239000007787 solid Substances 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 8
- 238000013507 mapping Methods 0.000 description 8
- 238000005259 measurement Methods 0.000 description 8
- 239000010813 municipal solid waste Substances 0.000 description 8
- 230000008901 benefit Effects 0.000 description 7
- 230000008859 change Effects 0.000 description 7
- 238000004422 calculation algorithm Methods 0.000 description 6
- 238000004040 coloring Methods 0.000 description 6
- 230000001934 delay Effects 0.000 description 6
- 230000010365 information processing Effects 0.000 description 5
- 238000003780 insertion Methods 0.000 description 5
- 230000037431 insertion Effects 0.000 description 5
- 230000035807 sensation Effects 0.000 description 4
- 238000012800 visualization Methods 0.000 description 4
- 241000282412 Homo Species 0.000 description 3
- 230000009471 action Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 238000004140 cleaning Methods 0.000 description 3
- 239000002131 composite material Substances 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000003672 processing method Methods 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 239000004575 stone Substances 0.000 description 3
- 230000003190 augmentative effect Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000003111 delayed effect Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 230000000704 physical effect Effects 0.000 description 2
- 230000010399 physical interaction Effects 0.000 description 2
- 230000001681 protective effect Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- HPTJABJPZMULFH-UHFFFAOYSA-N 12-[(Cyclohexylcarbamoyl)amino]dodecanoic acid Chemical compound OC(=O)CCCCCCCCCCCNC(=O)NC1CCCCC1 HPTJABJPZMULFH-UHFFFAOYSA-N 0.000 description 1
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 241000700605 Viruses Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 230000003749 cleanliness Effects 0.000 description 1
- 230000009194 climbing Effects 0.000 description 1
- 238000005034 decoration Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 239000000428 dust Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000007429 general method Methods 0.000 description 1
- 238000001513 hot isostatic pressing Methods 0.000 description 1
- 238000011065 in-situ storage Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 239000007788 liquid Substances 0.000 description 1
- 238000011068 loading method Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000000474 nursing effect Effects 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 238000007500 overflow downdraw method Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 238000011112 process operation Methods 0.000 description 1
- 230000002829 reductive effect Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 238000010079 rubber tapping Methods 0.000 description 1
- 239000007921 spray Substances 0.000 description 1
- 238000003756 stirring Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 231100000331 toxic Toxicity 0.000 description 1
- 230000002588 toxic effect Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/0274—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/02—Hand grip control means
- B25J13/025—Hand grip control means comprising haptic means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
- B25J13/085—Force or torque sensors
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
- B25J19/023—Optical sensing devices including video camera means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J5/00—Manipulators mounted on wheels or on carriages
- B25J5/007—Manipulators mounted on wheels or on carriages mounted on wheels
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
- B25J9/1689—Teleoperation
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
- G01C21/206—Instruments for performing navigational calculations specially adapted for indoor navigation
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0011—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
- G05D1/0038—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with simple or augmented images from one or more cameras located onboard the vehicle, e.g. tele-operation
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0011—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
- G05D1/005—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with signals other than visual, e.g. acoustic, haptic
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/016—Input arrangements with force or tactile feedback as computer generated output to the user
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/038—Indexing scheme relating to G06F3/038
- G06F2203/0383—Remote input, i.e. interface arrangements in which the signals generated by a pointing device are transmitted to a PC at a remote location, e.g. to a PC in a LAN
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Automation & Control Theory (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Aviation & Aerospace Engineering (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Manipulator (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Description
(関連出願の相互参照)
本願は、2018年10月10日に提出された米国特許出願第16/156,969号の優先権を要求し、その全ての内容は引用によって本明細書に組み込まれている。
幾つかの実施例において、コンピューティング機器がマーク入力に応答して、触覚対応型入力デバイスにより触覚フィードバックを生成することは、マーク入力の位置が仮想化環境との初期接触に対応すると決定したことに基づいて、マーク入力位置に最も近い表面ポイントを位置決めするようにプロキシ位置を更新することと、マーク入力の位置が移動経路に沿って仮想化環境と接触した連続的な位置であると決定したことに基づいて、前記第1位置に対応する接線制約平面と、第1位置から接線制約平面に降下する法線との交点に最も近い表面ポイントを位置決めするように前記プロキシ位置を更新することと、を含む。これは、図4及びそれに関連する記述において説明された。幾つかの実施例において、時間ステップに対応する第1物理環境の第1TSDF表現を用いて、第1位置に最も近い表面ポイントを位置決めするようにプロキシ位置を更新する。
様々な基本的なシステムサービスを処理してハードウェア関連タスクを実行するためのプロセスを含むオペレーティングシステム1116と、
ロボット102を他のコンピューティング機器に接続するためのネットワーク通信モジュール1118と、
ユーザインタフェース1110に関連する1つ又は複数の出力デバイス1112(例えば、ディスプレイ、スピーカーなど)を経由してロボット102で情報を呈示するための呈示モジュール1120と、
1つ又は複数の入力デバイス1114のうちの1つの入力装置からの1つ又は複数のユーザ入力又はインタラクションを検出し、検出した入力又はインタラクションを解釈するための入力処理モジュール1122と、
ロボット102のRGBDカメラ106を制御するためのカメラ制御ユニット1113と、ロボットのロボット操作ユニット1126を制御するためのロボット機能制御ユニット1117と、経路プランナの高レベルの命令に基づいて経路を実行するための経路実行ユニット1119と、本明細書に記載のロボット102の機能を実現させるための他のユニットと、を備える、ロボット102の機能を制御するロボット制御ユニット1124、
以上のようなプログラム、モジュール及びデータ構造、又はこれらの部分集合又は上位集合が記憶される。
上記標識した各要素は、1つ又は複数の言及された記憶装置に記憶され、上記機能を実行するための一組の命令に対応する。上記標識したモジュール又はプログラム(即ち、命令集合)は、独立したソフトウェアプログラム、プロセス、モジュール又はデータ構造として実現する必要がないため、これらのモジュールの様々な部分集合は、様々な実現形態で組み合わせられてもよいし、他の方式で再配置されてもよい。幾つかの実現形態において、任意選択的には、メモリ1106には、上記標識されたモジュール及びデータ構造の部分集合が記憶される。なお、任意選択的に、メモリ1106には、以上に説明されていない付加モジュール及びデータ構造が記憶される。
様々な基本的なシステムサービスを処理してハードウェア関連タスクを実行するためのプロセスを含むオペレーティングシステム1216と、
サーバ110を他のコンピューティング機器(例えば、ユーザ側機器1300及びロボット102(カメラ106を含む))に接続するためのネットワーク通信モジュール1218と、
ユーザインタフェース1210に関連する1つ又は複数の出力デバイス1212(例えば、ディスプレイ、スピーカーなど)を経由してサーバ110で情報を呈示するための呈示モジュール1220と、
1つ又は複数の入力デバイス1214のうちの1つの入力装置からの1つ又は複数のユーザ入力又はインタラクションを検出し、検出した入力又はインタラクションを解釈するための入力処理モジュール1222と、
仮想化環境において対象セグメンテーションを実行する対象セグメンテーションモジュール1228と、ロボットから受信された画像及びデプスデータストリームに基づいて仮想化環境を生成して更新するためのKinectFusionモジュール1230と、触覚対応型入力デバイスにより提供されたユーザ入力に基づいて、仮想化環境における入力の位置により、触覚フィードバックを生成するように構成される触覚レンダリングモジュール1232と、仮想化環境において反力及び摩擦力レンダリング、対象インタラクションモデルを生成するための物理シミュレーションモジュール1234と、仮想化環境及び仮想化環境に存在する触覚マーク及び仮想対象に基づいて計画経路を生成するための経路計画モジュール1236と、ロボットを、経路実行を実行するように制御するコントローラモジュール1238と、ネットワーク遅延に基づいて経路計画を調整するネットワーク遅延補償モジュール1240と、本明細書に記載のサーバ110の他の機能を実現させる他のモジュール1242と、を備える、サーバ110の機能を制御するサーバ側モジュール1226、
以上のようなプログラム、モジュール及びデータ構造、又はこれらの部分集合又は上位集合が記憶される。
様々な基本的なシステムサービスを処理してハードウェア関連タスクを実行するためのプロセスを含むオペレーティングシステム1316と、
サーバ110を他のコンピューティング機器に接続するためのネットワーク通信モジュール1318と、
ユーザインタフェース1310に関連する1つ又は複数の出力デバイス1312(例えば、ディスプレイ、スピーカー、触覚対応型入力デバイス114など)を経由してユーザ側機器1300で情報を呈示するための呈示モジュール1220と、
1つ又は複数の入力デバイス1314(例えば、触覚対応型入力デバイス114)のうちの1つの入力装置からの1つ又は複数のユーザ入力又はインタラクションを検出し、検出した入力又はインタラクションを解釈するための入力処理モジュール1222と、
文字処理、描画などのような種々のユーザレベルの機能を実現させるためのアプリケーションプログラム1324と、
ユーザ層モジュール138と、本明細書に記載のユーザ側機器の他の機能を実現させる他のモジュール1330と、を備える、ユーザ側モジュール1326、
以上のようなプログラム、モジュール及びデータ構造、又はこれらの部分集合又は上位集合が記憶される。
102 ロボット
104 ローカルサイト
105 リモートサイト
106 カメラ
108 作業者
110 ロボット
112 ディスプレイ
114 入力デバイス
116 仮想対象
118 ポインタ対象
120 中央演算システム
138 ユーザ層モジュール
200 複合現実システム構造
302 グラフィック処理ユニット
306 ポイントクラウド
308 マーク
308 プロキシ値
704 ターゲット
705 ポインタ
706 対象タイプ選択領域
708 道路標識
710 対象形状選択領域
712 表面材料選択領域
714 表面テクスチャ選択領域
716 ステージング領域
718 ドーム
722 クラック
724 障害物
726 立方体
Claims (9)
- 混合イニシアチブ型ロボット制御を提供する方法であって、
1つ又は複数のプロセッサ及びメモリを有するコンピューティング機器であって、前記コンピューティング機器はロボットに通信可能に結合され、第1組のプリプログラミングされた経路計画命令に基づいて前記ロボット用の計画経路を生成するように構成され、前記ロボットは、前記コンピューティング機器から受信された前記計画経路及びローカルに記憶されている経路実行命令に基づいて物理環境においてナビゲーションをするように構成されるコンピューティング機器においては、
前記コンピューティング機器に結合される表示生成モジュールにより、制御ユーザインターフェースを表示することであって、現在前記ロボットを取り囲んでいる第1物理環境に対応する仮想化環境を表示することを含み、前記仮想化環境は、前記ロボットと一緒に配置される第1センサ群から受信されたストリーミング環境データに基づいて生成されて更新されたものである、ことと、
前記仮想化環境を表示すると同時に、前記仮想化環境における第1位置に第1仮想対象を挿入する第1ユーザ入力を検出することと、
前記第1ユーザ入力を検出したことに応答して、前記第1位置に前記第1仮想対象を挿入することに基づいて第1仮想化環境を修正することであって、ここで前記第1位置に位置する前記第1仮想対象は、前記ロボットに、前記第1組のプリプログラミングされた経路計画命令に基づいて生成された第1ナビゲーション経路を前記物理環境において実行させる、ことと、
前記仮想化環境における前記第1位置に前記第1仮想対象を表示し、前記ロボットが前記物理環境で前記第1ナビゲーション経路を実行すると同時に、触覚対応型入力装置を介した前記第1仮想対象への第1移動入力操作の検出を含む、第2ユーザ入力の検出を実行する、ことと、
前記第2ユーザ入力を検出したことに応答して、
前記第1移動入力に基づいて、前記仮想化環境において、前記第1仮想対象を、前記仮想化環境における1つ又は複数の模擬表面により制限される第1移動経路に沿って、第2位置に移動することであって、前記第2位置に位置する前記第1仮想対象は、前記ロボットに、前記第1組のプリプログラミングされた経路計画命令に基づいて生成された修正されたナビゲーション経路を前記物理環境において実行させる、こととを含む、前記混合イニシアチブ型ロボット制御を提供する方法。 - 前記第1仮想対象が前記仮想化環境において前記第1移動経路に沿って前記第2位置に移動する期間において、前記第1仮想対象と前記第1仮想対象の現在位置での模擬表面との間の模擬摩擦力に基づいて、前記触覚対応型入力装置を介して触覚フィードバックを提供することを含む、
請求項1に記載の方法。 - 前記第1仮想対象は事前定義された寸法及び形状を有し、
前記方法は、
前記第1仮想対象が前記仮想化環境において前記第1移動経路に沿って前記第2位置に移動する期間において、前記第1仮想対象が前記第1仮想対象の現在の移動方向で第1模擬表面と接触したことを検出することと、
前記第1仮想対象が前記第1仮想対象の現在の移動方向で前記第1模擬表面と接触したことを検出したことに応答して、前記第1模擬表面から前記第1仮想対象への模擬反力に基づいて、前記触覚対応型入力装置を介して触覚フィードバックを提供することと、を含む、
請求項1に記載の方法。 - 前記第1仮想対象は事前定義された寸法及び形状を有し、
前記方法は、
前記第1仮想対象が前記仮想化環境において前記第1移動経路に沿って前記第2位置に移動する期間において、前記第1仮想対象が、前記第1仮想対象の現在の移動方向で模擬環境に事前配置された第2仮想対象と接触したことを検出する、ことと、
前記第1仮想対象が前記第1仮想対象の現在の移動方向で前記第2仮想対象と接触したことを検出したことに応答して、前記第2仮想対象から前記第1仮想対象への模擬反力に基づいて、前記触覚対応型入力装置を介して触覚フィードバックを提供することと、を含む、
請求項1に記載の方法。 - 前記第1仮想対象は障害物としてマーキングされ、前記ロボットは、前記第1組のプリプログラミングされた経路計画命令に基づいて生成された経路においてナビゲーションを行う期間において、前記第1仮想対象を回避する、
請求項1に記載の方法。 - 前記第1仮想対象はターゲットとしてマーキングされ、前記ロボットは、前記第1組のプリプログラミングされた経路計画命令に基づいて生成された経路においてナビゲーションを行う期間において、前記マーキングされた第1仮想対象に近接する、
請求項1に記載の方法。 - 前記第1仮想対象は通路としてマーキングされ、前記ロボットが前記第1組のプリプログラミングされた経路計画命令に基づいて生成された経路においてナビゲーションを行う期間において、前記第1仮想対象の存在は、物理障害物の存在を被覆する、
請求項1に記載の方法。 - 混合イニシアチブ型ロボット制御を提供するコンピューティング機器であって、
1つ又は複数のプロセッサと、
命令を記憶するメモリと、を備え、
前記コンピューティング機器は、ロボットに通信可能に結合され、第1組のプリプログラミングされた経路計画命令に基づいて前記ロボット用の計画経路を生成するように構成され、
前記ロボットは、前記コンピューティング機器から受信された前記計画経路およびローカルに記憶されている経路実行命令に基づいて物理環境においてナビゲーションをするように構成され、
前記命令は前記1つ又は複数のプロセッサによって実行されるときに、前記プロセッサに請求項1~7のいずれか1項に記載の方法の操作を実行させる、 前記混合イニシアチブ型ロボット制御を提供するコンピューティング機器。 - 命令を記憶するコンピュータ読み取り可能な記憶媒体であって、前記命令がコンピューティング機器の1つ又は複数のプロセッサによって実行されるときに、前記コンピューティング機器に請求項1~7のいずれか1項に記載の方法の操作を実行させ、
前記コンピューティング機器は、ロボットに通信可能に結合され、第1組のプリプログラミングされた経路計画命令に基づいて前記ロボット用の計画経路を生成するように構成され、
前記ロボットは、前記コンピューティング機器から受信された前記計画経路およびローカルに記憶された経路実行命令に基づいて物理環境においてナビゲーションをするように構成される、
前記コンピュータ読み取り可能な記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/156,969 US10678264B2 (en) | 2018-10-10 | 2018-10-10 | Method and system for providing remote robotic control |
US16/156,969 | 2018-10-10 | ||
PCT/CN2019/092150 WO2020073681A1 (en) | 2018-10-10 | 2019-06-20 | Method and system for providing remote robotic control |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022504593A JP2022504593A (ja) | 2022-01-13 |
JP7092445B2 true JP7092445B2 (ja) | 2022-06-28 |
Family
ID=70161871
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021519694A Active JP7092445B2 (ja) | 2018-10-10 | 2019-06-20 | リモートロボット制御を提供する方法及びシステム |
Country Status (5)
Country | Link |
---|---|
US (2) | US10678264B2 (ja) |
EP (1) | EP3846977B1 (ja) |
JP (1) | JP7092445B2 (ja) |
CN (1) | CN112770875B (ja) |
WO (1) | WO2020073681A1 (ja) |
Families Citing this family (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7244985B2 (ja) * | 2017-05-19 | 2023-03-23 | 川崎重工業株式会社 | 操作装置及び操作システム |
US11407111B2 (en) * | 2018-06-27 | 2022-08-09 | Abb Schweiz Ag | Method and system to generate a 3D model for a robot scene |
US10549928B1 (en) | 2019-02-22 | 2020-02-04 | Dexterity, Inc. | Robotic multi-item type palletizing and depalletizing |
US11741566B2 (en) * | 2019-02-22 | 2023-08-29 | Dexterity, Inc. | Multicamera image processing |
KR102158324B1 (ko) * | 2019-05-07 | 2020-09-21 | 주식회사 맥스트 | 점군 정보 생성 장치 및 방법 |
CN110531759B (zh) * | 2019-08-02 | 2020-09-22 | 深圳大学 | 机器人探索路径生成方法、装置、计算机设备和存储介质 |
KR20190104483A (ko) * | 2019-08-21 | 2019-09-10 | 엘지전자 주식회사 | 로봇 시스템 및 그 제어 방법 |
US11262887B2 (en) * | 2019-09-13 | 2022-03-01 | Toyota Research Institute, Inc. | Methods and systems for assigning force vectors to robotic tasks |
CN111267099B (zh) * | 2020-02-24 | 2023-02-28 | 东南大学 | 基于虚拟现实的陪护机器控制系统 |
EP3904984B1 (de) * | 2020-04-27 | 2023-03-01 | Siemens Aktiengesellschaft | Verfahren für eine immersive mensch-maschine-interaktion |
CN116360406A (zh) * | 2020-08-28 | 2023-06-30 | 深圳市大疆创新科技有限公司 | 可移动平台的控制方法、装置及控制系统 |
CN112363789B (zh) * | 2020-11-11 | 2024-06-04 | 上海擎朗智能科技有限公司 | 页面交互方法、装置、终端和存储介质 |
EP4313510A2 (en) * | 2021-03-22 | 2024-02-07 | Ricoh Company, Ltd. | Display system, communications system, display control method, and program |
CN113467462B (zh) * | 2021-07-14 | 2023-04-07 | 中国人民解放军国防科技大学 | 机器人的行人伴随控制方法、装置、移动机器人和介质 |
CN113848882B (zh) * | 2021-09-01 | 2024-10-18 | 优地机器人(无锡)股份有限公司 | 机器人路径规划方法、装置、机器人及计算机可读存储介质 |
EP4152270A1 (en) * | 2021-09-20 | 2023-03-22 | Siemens Aktiengesellschaft | Method of generating an interactive three-dimensional simulation of a section of an industrial facility |
TWI783779B (zh) * | 2021-11-12 | 2022-11-11 | 財團法人工業技術研究院 | 訓練資料產生裝置、應用其之訓練資料產生方法及機械手臂系統 |
JP7485705B2 (ja) | 2022-02-10 | 2024-05-16 | 株式会社安川電機 | ロボットシステム、タスク生成装置及び制御方法 |
CN114518115B (zh) * | 2022-02-17 | 2023-10-27 | 安徽理工大学 | 一种基于大数据深度学习的导航系统 |
US11989843B2 (en) * | 2022-06-22 | 2024-05-21 | Snap Inc. | Robotic learning of assembly tasks using augmented reality |
CN115609595B (zh) * | 2022-12-16 | 2023-03-07 | 北京中海兴达建设有限公司 | 一种机械臂的轨迹规划方法、装置、设备及可读存储介质 |
US20240211092A1 (en) * | 2022-12-23 | 2024-06-27 | Apple Inc. | Systems and methods of virtualized systems on electronic devices |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013500516A (ja) | 2009-07-22 | 2013-01-07 | イマージョン コーポレーション | 操作ジェスチャの入力中に,及び,仮想装置の操作に関連して,複雑な触覚刺激を提供するシステム及び方法 |
JP2018514879A (ja) | 2015-05-13 | 2018-06-07 | ウニヴェルジテート・ビーレフェルトUniversitat Bielefeld | フロア処理デバイス及びそのナビゲーション方法、並びに、一群のフロア処理デバイス及びそれらの全体的なナビゲーション方法 |
DE102017104427A1 (de) | 2017-03-02 | 2018-09-06 | RobArt GmbH | Verfahren zur Steuerung eines autonomen, mobilen Roboters |
Family Cites Families (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5502638A (en) | 1992-02-10 | 1996-03-26 | Honda Giken Kogyo Kabushiki Kaisha | System for obstacle avoidance path planning for multiple-degree-of-freedom mechanism |
JP3210121B2 (ja) | 1992-02-10 | 2001-09-17 | 本田技研工業株式会社 | 移動体の障害物回避経路探索方法 |
JPH0887609A (ja) * | 1994-07-21 | 1996-04-02 | Matsushita Electric Ind Co Ltd | 画像処理装置 |
US5999881A (en) * | 1997-05-05 | 1999-12-07 | General Electric Company | Automated path planning |
US8010180B2 (en) * | 2002-03-06 | 2011-08-30 | Mako Surgical Corp. | Haptic guidance system and method |
EP1972415B1 (en) * | 2007-03-23 | 2019-01-02 | Honda Research Institute Europe GmbH | Robots with collision avoidance functionality |
JP5060619B2 (ja) * | 2007-06-08 | 2012-10-31 | 本田技研工業株式会社 | モーション計画方法、モーション計画システム及び記録媒体 |
CN101459857B (zh) | 2007-12-10 | 2012-09-05 | 华为终端有限公司 | 通信终端 |
CN101458083B (zh) | 2007-12-14 | 2011-06-29 | 财团法人工业技术研究院 | 结构光视觉导航系统与方法 |
JP4730440B2 (ja) * | 2009-01-01 | 2011-07-20 | ソニー株式会社 | 軌道計画装置及び軌道計画方法、並びにコンピューター・プログラム |
KR101667029B1 (ko) * | 2009-08-10 | 2016-10-17 | 삼성전자 주식회사 | 로봇의 경로 계획방법 및 장치 |
KR101691939B1 (ko) * | 2009-08-10 | 2017-01-02 | 삼성전자주식회사 | 로봇의 경로 계획방법 및 장치 |
KR101667031B1 (ko) * | 2009-11-02 | 2016-10-17 | 삼성전자 주식회사 | 로봇의 경로 계획 장치 및 그 방법 |
CN101887271A (zh) | 2010-07-19 | 2010-11-17 | 东莞职业技术学院 | 一种移动机器人的路径规划方法 |
US20130063560A1 (en) | 2011-09-12 | 2013-03-14 | Palo Alto Research Center Incorporated | Combined stereo camera and stereo display interaction |
CN102699914B (zh) | 2012-05-15 | 2015-01-21 | 郑州大学 | 一种机器人 |
JP5931685B2 (ja) | 2012-10-12 | 2016-06-08 | 日本電信電話株式会社 | ロボット協調搬送計画装置、方法、プログラム |
JP2014102705A (ja) * | 2012-11-20 | 2014-06-05 | Nippon Telegr & Teleph Corp <Ntt> | ビジュアルフィードバック制御方法及びビジュアルフィードバック制御システム及びプログラム |
US8972057B1 (en) * | 2013-01-09 | 2015-03-03 | The Boeing Company | Systems and methods for generating a robotic path plan in a confined configuration space |
JP6409003B2 (ja) * | 2013-01-18 | 2018-10-17 | アイロボット コーポレイション | ロボットを用いる方法及びそのコンピュータ可読記憶媒体 |
US20140320392A1 (en) * | 2013-01-24 | 2014-10-30 | University Of Washington Through Its Center For Commercialization | Virtual Fixtures for Improved Performance in Human/Autonomous Manipulation Tasks |
CN103302668B (zh) | 2013-05-22 | 2016-03-16 | 东南大学 | 基于Kinect的空间遥操作机器人的控制系统及其方法 |
CN103366181A (zh) * | 2013-06-28 | 2013-10-23 | 安科智慧城市技术(中国)有限公司 | 多特征视觉码本融合的场景识别方法和装置 |
WO2015030786A1 (en) | 2013-08-30 | 2015-03-05 | Hewlett-Packard Development Company, L.P. | Augmented reality device interfacing |
WO2016032807A1 (en) * | 2014-08-25 | 2016-03-03 | Google Inc. | Methods and systems for augmented reality to display virtual representations of robotic device actions |
US9927797B2 (en) * | 2014-08-29 | 2018-03-27 | Amazon Technologies, Inc. | Safety compliance for mobile drive units |
US9898864B2 (en) * | 2015-05-28 | 2018-02-20 | Microsoft Technology Licensing, Llc | Shared tactile interaction and user safety in shared space multi-person immersive virtual reality |
US9947230B2 (en) | 2015-08-03 | 2018-04-17 | Amber Garage, Inc. | Planning a flight path by identifying key frames |
WO2017205647A1 (en) * | 2016-05-27 | 2017-11-30 | Barbuto Joseph | System and method for assessing cognitive and mood states of a real world user as a function of virtual world activity |
CN106123865B (zh) * | 2016-06-22 | 2019-01-29 | 电子科技大学 | 面向虚拟图像的机器人导航方法 |
CN108422435B (zh) | 2018-03-21 | 2020-05-12 | 烟台朗文汽车零部件有限公司 | 一种基于增强现实的远程监测及控制系统 |
-
2018
- 2018-10-10 US US16/156,969 patent/US10678264B2/en active Active
-
2019
- 2019-06-20 CN CN201980063337.8A patent/CN112770875B/zh active Active
- 2019-06-20 WO PCT/CN2019/092150 patent/WO2020073681A1/en unknown
- 2019-06-20 EP EP19870348.0A patent/EP3846977B1/en active Active
- 2019-06-20 JP JP2021519694A patent/JP7092445B2/ja active Active
-
2020
- 2020-05-01 US US16/865,261 patent/US10871784B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013500516A (ja) | 2009-07-22 | 2013-01-07 | イマージョン コーポレーション | 操作ジェスチャの入力中に,及び,仮想装置の操作に関連して,複雑な触覚刺激を提供するシステム及び方法 |
JP2018514879A (ja) | 2015-05-13 | 2018-06-07 | ウニヴェルジテート・ビーレフェルトUniversitat Bielefeld | フロア処理デバイス及びそのナビゲーション方法、並びに、一群のフロア処理デバイス及びそれらの全体的なナビゲーション方法 |
DE102017104427A1 (de) | 2017-03-02 | 2018-09-06 | RobArt GmbH | Verfahren zur Steuerung eines autonomen, mobilen Roboters |
Also Published As
Publication number | Publication date |
---|---|
US10871784B2 (en) | 2020-12-22 |
CN112770875A (zh) | 2021-05-07 |
US10678264B2 (en) | 2020-06-09 |
JP2022504593A (ja) | 2022-01-13 |
US20200117212A1 (en) | 2020-04-16 |
WO2020073681A1 (en) | 2020-04-16 |
CN112770875B (zh) | 2022-03-11 |
EP3846977A4 (en) | 2021-11-10 |
US20200257307A1 (en) | 2020-08-13 |
EP3846977A1 (en) | 2021-07-14 |
EP3846977B1 (en) | 2023-05-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7092445B2 (ja) | リモートロボット制御を提供する方法及びシステム | |
JP7311172B2 (ja) | リモートロボット制御を提供する方法及びシステム | |
CN112771476B (zh) | 提供远程机器人控制的方法和系统 | |
US11507195B2 (en) | Augmented reality interaction techniques | |
CN102253713B (zh) | 面向三维立体影像显示系统 | |
US6529210B1 (en) | Indirect object manipulation in a simulation | |
Kato et al. | Multi-touch interface for controlling multiple mobile robots | |
US10964104B2 (en) | Remote monitoring and assistance techniques with volumetric three-dimensional imaging | |
Liu et al. | An augmented reality interaction interface for autonomous drone | |
Cancedda et al. | Mixed reality-based user interaction feedback for a hand-controlled interface targeted to robot teleoperation | |
Barber et al. | Sketch-based robot programming | |
Luo et al. | Teleoperation of a fast omnidirectional unmanned ground vehicle in the cyber-physical world via a VR interface | |
Zand et al. | TiltWalker: operating a telepresence robot with one-hand by tilt controls on a smartphone | |
Ren et al. | Augmented Reality Based Actuated Monitor Manipulation from Dual Point of View | |
Piumsomboon | Natural hand interaction for augmented reality. | |
Simsarian | A system for mobile robotic telepresence employing VR as the communication medium: Interface metaphors | |
Wang | Teleoperation of a Fast Omnidirectional Unmanned Ground Vehicle in the Cyber-Physical World via a VR Interface | |
Smith et al. | 3D path planning with novel multiple 2D layered approach for complex human-robot interaction | |
複数台の移動型ロボットを操作するための | MULTI-TOUCH INTERFACE FOR CONTROLLING MULTIPLE MOBILE ROBOTS |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210409 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210409 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220411 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220517 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220614 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7092445 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |