JP7381632B2 - マルチモーダル感覚データに基づくロボットプラットフォームの遠隔制御 - Google Patents
マルチモーダル感覚データに基づくロボットプラットフォームの遠隔制御 Download PDFInfo
- Publication number
- JP7381632B2 JP7381632B2 JP2022035085A JP2022035085A JP7381632B2 JP 7381632 B2 JP7381632 B2 JP 7381632B2 JP 2022035085 A JP2022035085 A JP 2022035085A JP 2022035085 A JP2022035085 A JP 2022035085A JP 7381632 B2 JP7381632 B2 JP 7381632B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- sensory data
- remote control
- confined space
- robot platform
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000001953 sensory effect Effects 0.000 title claims description 217
- 238000000034 method Methods 0.000 claims description 131
- 230000000007 visual effect Effects 0.000 claims description 46
- 238000004891 communication Methods 0.000 claims description 28
- 238000005553 drilling Methods 0.000 claims description 14
- 238000010422 painting Methods 0.000 claims description 11
- 238000007789 sealing Methods 0.000 claims description 11
- 230000001149 cognitive effect Effects 0.000 claims description 4
- 230000008859 change Effects 0.000 claims description 3
- 239000003795 chemical substances by application Substances 0.000 description 21
- 230000004044 response Effects 0.000 description 16
- 239000012752 auxiliary agent Substances 0.000 description 12
- 238000012937 correction Methods 0.000 description 12
- 241000282412 Homo Species 0.000 description 11
- 238000007689 inspection Methods 0.000 description 10
- 238000012423 maintenance Methods 0.000 description 10
- 238000004519 manufacturing process Methods 0.000 description 10
- 238000001228 spectrum Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 7
- 238000012544 monitoring process Methods 0.000 description 7
- 230000009023 proprioceptive sensation Effects 0.000 description 7
- 238000012986 modification Methods 0.000 description 6
- 230000004048 modification Effects 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 230000008447 perception Effects 0.000 description 5
- 230000008439 repair process Effects 0.000 description 5
- 230000009471 action Effects 0.000 description 4
- 238000013459 approach Methods 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 4
- 230000035807 sensation Effects 0.000 description 4
- 238000000429 assembly Methods 0.000 description 3
- 230000000712 assembly Effects 0.000 description 3
- 239000012636 effector Substances 0.000 description 3
- 230000010354 integration Effects 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 230000003595 spectral effect Effects 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 231100001261 hazardous Toxicity 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000008520 organization Effects 0.000 description 2
- 239000003973 paint Substances 0.000 description 2
- 230000010399 physical interaction Effects 0.000 description 2
- 230000001144 postural effect Effects 0.000 description 2
- 230000000272 proprioceptive effect Effects 0.000 description 2
- 210000001747 pupil Anatomy 0.000 description 2
- 230000001179 pupillary effect Effects 0.000 description 2
- 239000000565 sealant Substances 0.000 description 2
- 230000001720 vestibular Effects 0.000 description 2
- 230000003321 amplification Effects 0.000 description 1
- 239000011324 bead Substances 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000007664 blowing Methods 0.000 description 1
- 238000004140 cleaning Methods 0.000 description 1
- 230000003930 cognitive ability Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000002360 explosive Substances 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000003155 kinesthetic effect Effects 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 238000011017 operating method Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000008929 regeneration Effects 0.000 description 1
- 238000011069 regeneration method Methods 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 230000003362 replicative effect Effects 0.000 description 1
- 238000007790 scraping Methods 0.000 description 1
- 239000003381 stabilizer Substances 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
- B25J9/1689—Teleoperation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J5/00—Manipulators mounted on wheels or on carriages
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/418—Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
- G05B19/41865—Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by job scheduling, process planning, material flow
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/005—Manipulators for mechanical processing tasks
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/0075—Manipulators for painting or coating
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/02—Hand grip control means
- B25J13/025—Hand grip control means comprising haptic means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
- B25J13/081—Touching devices, e.g. pressure-sensitive
- B25J13/084—Tactile sensors
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
- B25J13/085—Force or torque sensors
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
- B25J19/023—Optical sensing devices including video camera means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1661—Programme controls characterised by programming, planning systems for manipulators characterised by task planning, object-oriented languages
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
- B25J9/1687—Assembly, peg and hole, palletising, straight line, weaving pattern movement
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64F—GROUND OR AIRCRAFT-CARRIER-DECK INSTALLATIONS SPECIALLY ADAPTED FOR USE IN CONNECTION WITH AIRCRAFT; DESIGNING, MANUFACTURING, ASSEMBLING, CLEANING, MAINTAINING OR REPAIRING AIRCRAFT, NOT OTHERWISE PROVIDED FOR; HANDLING, TRANSPORTING, TESTING OR INSPECTING AIRCRAFT COMPONENTS, NOT OTHERWISE PROVIDED FOR
- B64F5/00—Designing, manufacturing, assembling, cleaning, maintaining or repairing aircraft, not otherwise provided for; Handling, transporting, testing or inspecting aircraft components, not otherwise provided for
- B64F5/40—Maintaining or repairing aircraft
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64F—GROUND OR AIRCRAFT-CARRIER-DECK INSTALLATIONS SPECIALLY ADAPTED FOR USE IN CONNECTION WITH AIRCRAFT; DESIGNING, MANUFACTURING, ASSEMBLING, CLEANING, MAINTAINING OR REPAIRING AIRCRAFT, NOT OTHERWISE PROVIDED FOR; HANDLING, TRANSPORTING, TESTING OR INSPECTING AIRCRAFT COMPONENTS, NOT OTHERWISE PROVIDED FOR
- B64F5/00—Designing, manufacturing, assembling, cleaning, maintaining or repairing aircraft, not otherwise provided for; Handling, transporting, testing or inspecting aircraft components, not otherwise provided for
- B64F5/60—Testing or inspecting aircraft components or systems
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0011—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
- G05D1/0038—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with simple or augmented images from one or more cameras located onboard the vehicle, e.g. tele-operation
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0011—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
- G05D1/005—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with signals other than visual, e.g. acoustic, haptic
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/32—Operator till task planning
- G05B2219/32252—Scheduling production, machining, job shop
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S901/00—Robots
- Y10S901/30—End effector
- Y10S901/44—End effector inspection
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Automation & Control Theory (AREA)
- Manufacturing & Machinery (AREA)
- General Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Multimedia (AREA)
- Transportation (AREA)
- Theoretical Computer Science (AREA)
- Quality & Reliability (AREA)
- Acoustics & Sound (AREA)
- Manipulator (AREA)
Description
も、すべての目的で参照によりその全体が本明細書に組み込まれる。
めにはそれが一段と重要である。様々な歪みによって、オペレータは、正確に作業することが難しく、歪みを伴ったまま長時間作業すると疲労をきたす。
感覚データは、閉所空間に配置されたロボットプラットフォームによって取得され、閉所空間の外部の遠隔制御ステーションに送信されて、閉所空間の表示を生成するために用いられる。マルチモーダル感覚データを用いることにより、遠隔制御ステーションのオペレ
ータに複数の感覚の高忠実度テレプレゼンスが提供され、オペレータは、より正確なユーザー入力を行うことができる。この入力が、ロボットプラットフォームに送信され、閉所空間内で様々な作業を行うことができる。
施形態において、前記マルチモーダル感覚データの忠実度のレベルは、時間とともに変化する。いくつかの実施形態において、前記1つ又は複数の作業は、前記ロボットプラットフォームで生成されたローカルの制御命令にも基づいて行われ、前記1つ又は複数の作業を行うために、前記ローカルの制御命令は、前記遠隔制御命令と組み合わされる。
及び、固有受容感覚(proprioception)のうちの少なくとも1つに基づいて、前記マルチモーダル感覚データを補正することを含む。前記表示は、複数の感覚の高忠実度テレプレゼンスでありうる。いくつかの実施形態において、前記遠隔制御ステーションのユーザーインターフェイスは、前記マルチモーダル感覚データのうちの両眼立体視覚データを提示するための3Dディスプレイを含む。前記遠隔制御ステーションのユーザーインターフェイスは、前記マルチモーダル感覚データのうちの前記両耳ステレオオーディオデータを提示するためのステレオスピーカーを含みうる。
を用いて、前記遠隔制御ステーションに通信接続される。
例、及び均等物を網羅することが意図されている。
<導入>
ができる。本開示において、マルチモーダル感覚データとは、閉所空間に配置されたロボットプラットフォームの1つ又は複数のセンサーによって生成されるデータであって、少
なくとも2種類の人間の感覚に(直接の形あるいは補正された形で)対応するデータとして定義される。
及び色データが24ビットである1920×1280ピクセル)の幾何学的に正確な両眼
立体遠隔視覚センサーによって実現される。聴覚成分は、視覚的テレプレゼンスにリンクされたマイクロホンによるフルレンジの(例えば片耳あたり20kHzの帯域)ステレオオーディオであり、再生されることにより、オペレータに自然な聴覚状況認識を与える。
気を吹き付けることによる風速及び方向の再現を加えてもよい。環境温度(例えば、空気温度)も、要素として採用してもよい。外科医には、スケール調整された高精細立体視覚、及び、スケール調整された力反映型マニピュレータを提供してもよい。また、爆発物処理オペレータの場合は、より細かい操作のために触覚センシングを加えてもよい。
れた状況については、ロボットの進歩が現在普及しており、完全なロボットによる自動化が既に可能である。体系化されていない環境における作業は、環境を把握して少なくともいくつかの制御命令を与える人間の能力に、今なお頼っている。ただし、オペレータは、そのような体系化されていない環境の十分な表示を必要とし、このような必要性には、マルチモーダル感覚データを用いることによって対処することができる。ロボットプラットフォームと遠隔制御ステーションとを含むシステムは、ロボットプラットフォームのための少なくともいくつかの制御命令を生成するものであり、ロボット協働システム、あるいはハイブリッドロボット‐人間システムと称されることがある。この種のシステムは、システムの其々のコンポーネントの能力を活用する。具体的には、この種のシステムは、ロボットプラットフォームの能力、すなわち、人間には適さない様々な環境にアクセスし、当該環境において特別なタスクを実行し、実施形態よっては人間の知覚能力を超えるマルチモーダル感覚データを取得する能力を利用する。また、当該システムは、上述したように、知覚及び認識の補正を行うことができる。
<ロボット協働システム及びそのコンポーネントの例>
、力反映操作センサーを用いて、力反映ハプティック操作データ273cを生成してもよい。
1の遠隔制御ステーション250に通信接続してもよいし、ロボットプラットフォーム230に直接通信接続してもよい。複数の遠隔制御ステーション250及び250'を用い
て、異なるオペレータがそれぞれユーザー入力を行うことができる。異なる遠隔制御ステーション250及び250'を、同じ総括的な場所(例えば作業現場)に配置してもよい
し、異なる場所に配置してもよい。例えば、遠隔制御ステーション250を、ロボットプラットフォーム230の略近傍に配置されたローカルのステーションとし、追加の遠隔制御ステーション250’を別の場所に配置した遠位のステーションとしてもよい。異なる遠隔制御ステーション250、250'の制御は、異なる当事者によって行ってもよい。
例えば、ローカルの遠隔制御ステーション250を、航空機のオペレータ(例えば航空会社)、空港スタッフ、及び/又は、修理サービス局によって制御し、遠位の遠隔制御ステーション250’を、(例えば構造体212に対するさらなる知識を有する)航空機メーカー又は航空会社本部によって制御してもよい。
いると考えるのが自然である。両眼立体視センサー512のための窓を通して人間の目で直接見る視界と、ディスプレイ613aのスクリーンを通したバーチャルなイメージの視界とを幾何学的形態において厳密に一致させることによって、対象のシーンを正確に再現することができる。
であるとともに出力装置612及び入力装置614の両方を含むものであってもよい)を備えたロボットハンド及びアーム(これは、センサー510及び作業ツール520の一方又は両方の一部であってもよい)を用いることができる。この手法によれば、オペレータは、多種多様な操作を自然に行うことができる。いくつかの実施形態において、遠隔制御ステーション250は、4軸の力フィードバックアーム、2フィンガーの力フィードバックハンド、及び、フィンガーならびにアーム用の力反映外骨格を含む。ハンドにおいてグロスの力を再現することにより、四肢及び体の他の部分の位置の自己知覚である固有受容感覚、又は、運動感覚が与えられる。これにより、没入型視覚遠隔認識に対する重要な追加の情報が与えられ、マルチモーダル感覚データ272の全体的な強化がもたらされる。
、他の知覚データに比べて、比較的低い頻度で行えばよい。また、このフィードバックは、安全性及びその他の理由で、(例えば、このフィードバックを与えている間に、(実際にオペレータを落下させる)転倒点を超えてオペレータが傾くことを防止するため)、スケール調整及び/又は制限してもよい。慣性計測ユニットを、遠位のロボットシステムに組み込んで、遠隔監督者のサポートプラットフォームを駆動する3つのアクチュエータに中継することになるであろう。
にある際に、ロボットプラットフォーム230に通信接続するための通信モジュール640をさらに含む。通信モジュール640は、プラットフォーム230の通信モジュールと同じ種類のものであってもよい。いくつかの実施形態において、遠隔制御ステーション250は、ロボットプラットフォームに対する制御命令を生成するためのプロセッサ630、及び、これらの命令及びマルチモーダル感覚データ272を格納するためのメモリ635をさらに含む。
<ロボット協働システム及びそのコンポーネントの操作の例>
あるいは、例えば人間が中で作業するのに適さない任意の他の構造体であってよい。この配置操作は、ロボットプラットフォーム230において生成された制御命令に基づいて(例えば自律又は半自律移動)、及び/又は、遠隔制御ステーション250で生成されてロボットプラットフォーム230に送信された制御命令に基づいて、閉所空間210内に、そして、当該空間内で、ロボットプラットフォーム230を前進させる(例えば駆動する)ことを伴いうる。具体的には、ロボットプラットフォーム230は、図3を参照して上述した駆動機構530を含んでいてもよく、この駆動機構530を用いて、閉所空間210内にロボットプラットフォーム230を配置することができる。これに代えて、ロボットプラットフォーム230は、駆動機構を備えない構成であってもよく、手動で閉所空間210内に配置してもよい。
でいてもよい。
業350の他の様々な例も、本範囲内に含まれる。
テーション250によって生成してもよい。
<航空機及び航空機の製造ならびに操作方法の例>
方法1200)における1つ又はそれ以上のどの段階において採用してもよい。例えば、部品及び小組立製造(ブロック1208)に対応する部品又は小組立品は、航空機100の使用中(ブロック1214)に製造される部品又は小組立品と同様の方法で製造することができる。また、装置、方法、又は、これらの組み合わせの1つ又は複数の例を、製造工程(ブロック1208)及び(ブロック1210)で用いることによって、例えば、航空機100の組み立て速度を大幅に速めたりコストを削減したりすることができる。同様に、装置、方法、又はそれらの組み合わせの実施例の1つ又は複数を、航空機100の使
用中(ブロック1214)、及び/又は整備及び保守中(ブロック1216)に用いてもよいが、これに限定されない。
<結語>
ロボットプラットフォーム(230)を配置し(310)、
前記ロボットプラットフォーム(230)を遠隔制御ステーション(250)に通信接続し(230)、
前記ロボットプラットフォーム(230)の2つ以上のセンサー(510)を用いて前記マルチモーダル感覚データ(272)を取得し(314)、前記マルチモーダル感覚データ(272)は、少なくとも2種類の知覚反応を含み、
前記マルチモーダル感覚データ(272)の少なくとも一部を送信し(320)、
前記遠隔制御ステーション(250)からの遠隔制御命令をロボットプラットフォーム(230)で受信する(330)、方法(300)。
前記閉所空間(210)内で前記ロボットプラットフォーム(230)の位置を変更すること(350a)、
前記構造体(212)の部品(214)に穿孔すること(350b)、
前記構造体(212)に留め具を取り付けること(350c)、
前記構造体(212)をシールすること(350d)、
前記構造体(212)を塗装すること(350e)、
前記閉所空間(210)から物体を取り除くこと(350f)、及び、
前記構造体(212)を検査すること(350g)からなる群から選択される、付記A14に記載の方法(300)も提供される。
前記閉所空間(210)内に配置された前記ロボットプラットフォーム(230)から前記マルチモーダル感覚データ(272)を受信し(420)、前記マルチモーダル感覚データ(272)は、前記閉所空間(210)の外部に配置されるとともに前記ロボットプラットフォーム(230)に通信接続された遠隔制御ステーション(250)によって受信され、前記マルチモーダル感覚データ(272)は、両眼立体視覚データ(273a)、両耳ステレオオーディオデータ(273b)、力反映ハプティック操作データ(273c)、及び、触覚データ(273d)からなる群から選択される少なくとも2種類の知覚反応を含み、
前記遠隔制御ステーション(250)によって前記マルチモーダル感覚データ(272)の表示を生成し(430)、
前記遠隔制御ステーション(250)においてユーザー入力を捕捉し(440)、
前記閉所空間(210)に配置された前記ロボットプラットフォーム(230)に遠隔
制御命令を送信する(460)、方法(400)。
前記閉所空間(210)内で前記ロボットプラットフォーム(230)の位置を変更すること(350a)、
前記構造体(212)の部品(214)に穿孔すること(350b)、
前記構造体(212)に留め具を取り付けること(350c)、
前記構造体(212)をシールすること(350d)、
前記構造体(212)を塗装すること(350e)、
前記閉所空間(210)から物体を取り除くこと(350f)、及び、
前記構造体(212)を検査すること(350g)、からなる群から選択される、付記B6に記載の方法(400)も提供される。
前記マルチモーダル感覚データ(272)を生成するためのセンサー(510)と、
前記閉所空間(210)の外部に配置された遠隔制御ステーション(250)に通信接続するための通信モジュール(540)と、を含む、ロボットプラットフォーム(230)。
前記ロボットプラットフォーム(230)に通信接続するため、且つ、少なくとも2種類の知覚反応を含む前記マルチモーダル感覚データ(272)を前記ロボットプラットフォーム(230)から受信するための、通信モジュール(540)と、
前記ロボットプラットフォーム(230)から受信したマルチモーダル感覚データ(272)の表示を生成するための出力装置(612)を含むユーザーインターフェイス(610)と、を含む遠隔制御ステーション。
前記ロボットプラットフォーム(230)の2つ以上のセンサー(510)を用いて前記マルチモーダル感覚データ(272)を取得し(314)、前記マルチモーダル感覚データ(272)は、少なくとも2種類の知覚反応を含み、
前記マルチモーダル感覚データ(272)の少なくとも一部を遠隔制御ステーション(250)に送信し(320)、
前記遠隔制御ステーション(250)によって前記マルチモーダル感覚データ(272)の表示を生成する、方法(300)。
前記閉所空間(210)内で前記ロボットプラットフォーム(230)の位置を変更すること(350a)、
前記構造体(212)の部品(214)に穿孔すること(350b)、
前記構造体(212)に留め具を取り付けること(350c)、
前記構造体(212)をシールすること(350d)、
前記構造体(212)を塗装すること(350e)、
前記閉所空間(210)から物体を取り除くこと(350f)、及び、
前記構造体(212)を検査すること(350g)からなる群から選択される、付記E7に記載の方法(300)も提供される。
前記閉所空間(210)に配置された前記ロボットプラットフォーム(230)に遠隔制御命令を送信すること(460)をさらに含む、付記E1に記載の方法(300)も提供される。
Claims (8)
- マルチモーダル感覚データに基づいてロボットプラットフォームを遠隔制御する方法であって、前記ロボットプラットフォームは、航空機構造体の閉所空間内で前記ロボットプラットフォーム位置を変更すること、前記航空機構造体の部品に穿孔すること、前記航空機構造体に留め具を取り付けること、前記航空機構造体をシールすること、前記航空機構造体に塗装すること、前記航空機構造体の閉所空間から物体を取り除くこと、及び、前記航空機構造体を検査すること、からなる群より選択された作業を行うように構成されており、
前記ロボットプラットフォームを前記航空機構造体の閉所空間内に配置し、
前記ロボットプラットフォームを遠隔制御ステーションに通信接続し、
前記ロボットプラットフォームの複数のセンサーを用いて前記マルチモーダル感覚データを取得し、前記マルチモーダル感覚データは、少なくとも両眼立体視覚データ、両耳ステレオオーディオデータ、力反映ハプティック操作データ、及び、触覚データを含み、
前記感覚データについて異なるスケール調整を行って、オペレータの認識及び知覚能力を前記閉所空間のサイズ及び/又は前記ロボットプラットフォームの前記閉所空間でのタスクに合わせ、
前記選択された作業に基づいて前記マルチモーダル感覚データの少なくとも一部を選択し、
前記マルチモーダル感覚データの前記選択された少なくとも一部を前記ロボットプラットフォームから前記遠隔制御ステーションに送信し、
前記遠隔制御ステーションからの遠隔制御命令をロボットプラットフォームで受信する、ことを含み、
前記マルチモーダル感覚データに基づいて、前記ロボットプラットフォームにおいてローカルの制御命令を生成することをさらに含む、方法。 - 前記マルチモーダル感覚データの前記選択された少なくとも一部を送信することは、前記ロボットプラットフォームが前記閉所空間内に位置している間に行われる、請求項1に記載の方法。
- 前記ローカルの制御命令に基づいて、前記ロボットプラットフォームを用いて前記閉所空間内で1つ又は複数の作業を行うことをさらに含む、請求項1に記載の方法。
- マルチモーダル感覚データに基づいてロボットプラットフォームを遠隔制御する方法であって、前記ロボットプラットフォームは、航空機構造体の閉所空間内で前記ロボットプラットフォーム位置を変更すること、前記航空機構造体の部品に穿孔すること、前記航空機構造体に留め具を取り付けること、前記航空機構造体をシールすること、前記航空機構造体に塗装すること、前記航空機構造体の閉所空間から物体を取り除くこと、及び、前記航空機構造体を検査すること、からなる群より選択された作業を行うように構成されており、
前記ロボットプラットフォームを前記航空機構造体の閉所空間内に配置し、
前記ロボットプラットフォームを遠隔制御ステーションに通信接続し、
前記ロボットプラットフォームの複数のセンサーを用いて前記マルチモーダル感覚データを取得し、前記マルチモーダル感覚データは、少なくとも両眼立体視覚データ、両耳ステレオオーディオデータ、力反映ハプティック操作データ、及び、触覚データを含み、
前記感覚データについて異なるスケール調整を行って、オペレータの認識及び知覚能力を前記閉所空間のサイズ及び/又は前記ロボットプラットフォームの前記閉所空間でのタスクに合わせ、
前記選択された作業に基づいて前記マルチモーダル感覚データの少なくとも一部を選択し、
前記マルチモーダル感覚データの前記選択された少なくとも一部を前記ロボットプラットフォームから前記遠隔制御ステーションに送信し、
前記遠隔制御ステーションからの遠隔制御命令をロボットプラットフォームで受信する、ことを含み、
前記マルチモーダル感覚データの前記選択された少なくとも一部を送信する前に、前記マルチモーダル感覚データを補正することをさらに含む、方法。 - マルチモーダル感覚データに基づいてロボットプラットフォームを遠隔制御する方法であって、前記ロボットプラットフォームは、航空機構造体の閉所空間内で前記ロボットプラットフォーム位置を変更すること、前記航空機構造体の部品に穿孔すること、前記航空機構造体に留め具を取り付けること、前記航空機構造体をシールすること、前記航空機構造体に塗装すること、前記航空機構造体の閉所空間から物体を取り除くこと、及び、前記航空機構造体を検査すること、からなる群より選択された作業を行うように構成されており、
前記ロボットプラットフォームを前記航空機構造体の閉所空間内に配置し、
前記ロボットプラットフォームを遠隔制御ステーションに通信接続し、
前記ロボットプラットフォームの複数のセンサーを用いて前記マルチモーダル感覚データを取得し、前記マルチモーダル感覚データは、少なくとも両眼立体視覚データ、両耳ステレオオーディオデータ、力反映ハプティック操作データ、及び、触覚データを含み、
前記感覚データについて異なるスケール調整を行って、オペレータの認識及び知覚能力を前記閉所空間のサイズ及び/又は前記ロボットプラットフォームの前記閉所空間でのタスクに合わせ、
前記選択された作業に基づいて前記マルチモーダル感覚データの少なくとも一部を選択し、
前記マルチモーダル感覚データの前記選択された少なくとも一部を前記ロボットプラットフォームから前記遠隔制御ステーションに送信し、
前記遠隔制御ステーションからの遠隔制御命令をロボットプラットフォームで受信する、ことを含み、
前記選択された作業は、前記ロボットプラットフォームで生成されたローカルの制御命令にも基づいて行われ、前記1つ又は複数の作業を行うために、前記ローカルの制御命令は、前記遠隔制御命令と組み合わされる、方法。 - 前記航空機構造体は、航空機の翼である、請求項1~5のいずれかに記載の方法。
- 少なくとも両眼立体視覚データ、両耳ステレオオーディオデータ、力反映ハプティック操作データ、及び、触覚データを含むマルチモーダル感覚データを用いて航空機構造体の閉所空間内においてロボットプラットフォームを制御するための遠隔制御ステーションであって、前記ロボットプラットフォームは、航空機構造体の閉所空間内で前記ロボットプラットフォーム位置を変更すること、前記航空機構造体の部品に穿孔すること、前記航空機構造体に留め具を取り付けること、前記航空機構造体をシールすること、前記航空機構造体に塗装すること、前記航空機構造体の閉所空間から物体を取り除くこと、及び、前記航空機構造体を検査すること、からなる群より選択された作業を行うように構成されており、
前記ロボットプラットフォームに通信接続するとともに、前記マルチモーダル感覚データを前記ロボットプラットフォームから受信するための、通信モジュールと、
前記ロボットプラットフォームから受信したマルチモーダル感覚データの表示を生成するための出力装置を含むユーザーインターフェイスと、を含み、
前記出力装置は、オペレータの認識及び知覚能力を前記閉所空間のサイズ及び/又は前記ロボットプラットフォームの前記閉所空間でのタスクに合わせるようにそれぞれ異なるスケール調整された前記マルチモーダル感覚データを表示するように構成されており、
前記ロボットプラットフォームは、前記選択された作業に基づいて前記マルチモーダル感覚データの少なくとも一部を選択するように構成されており、
前記遠隔制御ステーションは、前記ロボットプラットフォームに対して前記選択された作業を行うように命令を送信するように構成されているとともに、前記マルチモーダル感覚データに基づいて、前記ロボットプラットフォームにおいてローカルの制御命令を生成するように構成されている、遠隔制御ステーション。 - 少なくとも両眼立体視覚データ、両耳ステレオオーディオデータ、力反映ハプティック操作データ、及び、触覚データを含むマルチモーダル感覚データを用いて航空機構造体の閉所空間内においてロボットプラットフォームを制御するための遠隔制御ステーションであって、前記ロボットプラットフォームは、航空機構造体の閉所空間内で前記ロボットプラットフォーム位置を変更すること、前記航空機構造体の部品に穿孔すること、前記航空機構造体に留め具を取り付けること、前記航空機構造体をシールすること、前記航空機構造体に塗装すること、前記航空機構造体の閉所空間から物体を取り除くこと、及び、前記航空機構造体を検査すること、からなる群より選択された作業を行うように構成されており、
前記ロボットプラットフォームに通信接続するとともに、前記マルチモーダル感覚データを前記ロボットプラットフォームから受信するための、通信モジュールと、
前記ロボットプラットフォームから受信したマルチモーダル感覚データの表示を生成するための出力装置を含むユーザーインターフェイスと、を含み、
前記出力装置は、オペレータの認識及び知覚能力を前記閉所空間のサイズ及び/又は前記ロボットプラットフォームの前記閉所空間でのタスクに合わせるようにそれぞれ異なるスケール調整された前記マルチモーダル感覚データを表示するように構成されており、
前記ロボットプラットフォームは、前記選択された作業に基づいて前記マルチモーダル感覚データの少なくとも一部を選択するように構成されており、
前記遠隔制御ステーションは、前記ロボットプラットフォームに対して前記選択された作業を行うように命令を送信するように構成されているとともに、前記マルチモーダル感覚データの前記選択された少なくとも一部を送信する前に、前記マルチモーダル感覚データを補正するように構成されている、遠隔制御ステーション。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/179,493 US10272572B2 (en) | 2016-06-10 | 2016-06-10 | Remotely controlling robotic platforms based on multi-modal sensory data |
US15/179,493 | 2016-06-10 | ||
JP2017111014A JP2018008369A (ja) | 2016-06-10 | 2017-06-05 | マルチモーダル感覚データに基づくロボットプラットフォームの遠隔制御 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017111014A Division JP2018008369A (ja) | 2016-06-10 | 2017-06-05 | マルチモーダル感覚データに基づくロボットプラットフォームの遠隔制御 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022081591A JP2022081591A (ja) | 2022-05-31 |
JP7381632B2 true JP7381632B2 (ja) | 2023-11-15 |
Family
ID=59350033
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017111014A Pending JP2018008369A (ja) | 2016-06-10 | 2017-06-05 | マルチモーダル感覚データに基づくロボットプラットフォームの遠隔制御 |
JP2022035085A Active JP7381632B2 (ja) | 2016-06-10 | 2022-03-08 | マルチモーダル感覚データに基づくロボットプラットフォームの遠隔制御 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017111014A Pending JP2018008369A (ja) | 2016-06-10 | 2017-06-05 | マルチモーダル感覚データに基づくロボットプラットフォームの遠隔制御 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10272572B2 (ja) |
JP (2) | JP2018008369A (ja) |
KR (1) | KR102369855B1 (ja) |
CN (1) | CN107491043A (ja) |
GB (1) | GB2553617B (ja) |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10023250B2 (en) | 2016-06-10 | 2018-07-17 | The Boeing Company | Multi-tread vehicles and methods of operating thereof |
US10257241B2 (en) * | 2016-12-21 | 2019-04-09 | Cisco Technology, Inc. | Multimodal stream processing-based cognitive collaboration system |
US12099571B2 (en) * | 2018-01-18 | 2024-09-24 | Ge Infrastructure Technology Llc | Feature extractions to model large-scale complex control systems |
JP6823016B2 (ja) * | 2018-07-17 | 2021-01-27 | ファナック株式会社 | 数値制御装置 |
US11007637B2 (en) | 2019-05-17 | 2021-05-18 | The Boeing Company | Spherical mechanism robot assembly, system, and method for accessing a confined space in a vehicle to perform confined space operations |
CN111209942B (zh) * | 2019-12-27 | 2023-12-19 | 广东省智能制造研究所 | 一种足式机器人多模态感知的异常监测方法 |
NO346361B1 (no) * | 2020-04-29 | 2022-06-27 | Conrobotix As | Kontrollsystem til betjening av arbeidsoperasjoner med verktøy i en robot tilrettelagt for verktøyhåndtering |
KR102495920B1 (ko) * | 2020-10-16 | 2023-02-06 | 위더스(주) | 디스플레이가 없는 안드로이드 디바이스에서 안드로이드 플랫폼을 동작시키기 위한 무선 통신 시스템 및 그 무선 통신 방법 |
US20220331966A1 (en) * | 2021-04-09 | 2022-10-20 | Beyond Imagination Inc. | Mobility surrogates |
CN113119125B (zh) * | 2021-04-14 | 2022-08-05 | 福建省德腾智能科技有限公司 | 一种基于多模态信息的监控交互方法 |
CN113829344B (zh) * | 2021-09-24 | 2022-05-03 | 深圳群宾精密工业有限公司 | 适用于柔性产品的视觉引导轨迹生成方法、装置、设备及介质 |
CN113927602B (zh) * | 2021-11-12 | 2023-03-17 | 哈尔滨工业大学(深圳) | 基于视、触觉融合的机器人精密装配控制方法及系统 |
US20230303084A1 (en) * | 2022-03-23 | 2023-09-28 | Robert Bosch Gmbh | Systems and methods for multi-modal data augmentation for perception tasks in autonomous driving |
WO2023188104A1 (ja) * | 2022-03-30 | 2023-10-05 | 三菱電機株式会社 | 遠隔体験システム、情報処理装置、情報処理方法およびプログラム |
US20230311298A1 (en) * | 2022-03-30 | 2023-10-05 | Saudi Arabian Oil Company | Modular, propelled cable suspended robot for industrial plants and unmanned offshore platforms |
US20240181647A1 (en) * | 2022-12-06 | 2024-06-06 | Sanctuary Cognitive Systems Corporation | Systems, methods, and control modules for controlling end effectors of robot systems |
CN117875407B (zh) * | 2024-03-11 | 2024-06-04 | 中国兵器装备集团自动化研究所有限公司 | 一种多模态持续学习方法、装置、设备及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002046088A (ja) | 2000-08-03 | 2002-02-12 | Matsushita Electric Ind Co Ltd | ロボット装置 |
WO2015059241A1 (fr) | 2013-10-24 | 2015-04-30 | Airbus Group Sas | Robot collaboratif d'inspection visuelle d'un aéronef |
US20150367509A1 (en) | 2014-06-18 | 2015-12-24 | The Boeing Company | Stabilization of an End of an Extended-Reach Apparatus in a Limited-Access Space |
Family Cites Families (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0724751A (ja) * | 1989-02-13 | 1995-01-27 | Toshiba Corp | 点検作業ロボット |
JP3217383B2 (ja) * | 1991-02-01 | 2001-10-09 | 衛 光石 | 臨場感再現システムおよび加工システム |
JPH04354275A (ja) * | 1991-05-30 | 1992-12-08 | Meitec Corp | ヘッドモ−ション追従型映像システム |
ATE238140T1 (de) * | 1992-01-21 | 2003-05-15 | Stanford Res Inst Int | Chirurgisches system |
JPH07237106A (ja) * | 1994-02-28 | 1995-09-12 | Nippon Steel Corp | 遠隔操作疵手入れ方法およびその装置 |
DE50113144D1 (de) * | 2000-06-28 | 2007-11-29 | Bosch Gmbh Robert | Vorrichtung zum bildlichen Erfassen von Stückgütern |
AU767561B2 (en) | 2001-04-18 | 2003-11-13 | Samsung Kwangju Electronics Co., Ltd. | Robot cleaner, system employing the same and method for reconnecting to external recharging device |
JP4214860B2 (ja) * | 2003-08-12 | 2009-01-28 | 沖電気工業株式会社 | ロボットによる中継システム、ロボットによる中継プログラム及びその方法 |
JP4876246B2 (ja) * | 2006-03-03 | 2012-02-15 | 国立大学法人長岡技術科学大学 | 触覚制御方法および触覚制御装置 |
US8217478B2 (en) * | 2008-10-10 | 2012-07-10 | Seagate Technology Llc | Magnetic stack with oxide to reduce switching current |
WO2011056633A1 (en) * | 2009-10-27 | 2011-05-12 | Battelle Memorial Institute | Semi-autonomous multi-use robot system and method of operation |
CN101791750B (zh) * | 2009-12-31 | 2012-06-06 | 哈尔滨工业大学 | 用于远程焊接的机器人遥控焊接系统及方法 |
US20110238079A1 (en) | 2010-03-18 | 2011-09-29 | SPI Surgical, Inc. | Surgical Cockpit Comprising Multisensory and Multimodal Interfaces for Robotic Surgery and Methods Related Thereto |
KR101194576B1 (ko) | 2010-12-16 | 2012-10-25 | 삼성중공업 주식회사 | 풍력 터빈 조립 및 관리 로봇 및 이를 포함하는 풍력 터빈 시스템 |
CN102060057B (zh) * | 2010-12-27 | 2012-09-26 | 中国民航大学 | 飞机油箱检查机器人系统及其控制方法 |
JP2014508658A (ja) | 2011-03-23 | 2014-04-10 | エスアールアイ インターナショナル | 高機能遠隔マニピュレーターシステム |
CN102699919A (zh) * | 2011-03-28 | 2012-10-03 | 江苏久祥汽车电器集团有限公司 | 智能决策与驱动控制技术 |
US8651206B2 (en) | 2011-03-31 | 2014-02-18 | Tobor Technology, Llc | Roof inspection systems and methods of use |
US8943892B2 (en) * | 2012-05-11 | 2015-02-03 | The Boeing Company | Automated inspection of spar web in hollow monolithic structure |
KR102304096B1 (ko) * | 2012-08-03 | 2021-09-24 | 스트리커 코포레이션 | 로봇 수술을 위한 시스템 및 방법 |
US9226796B2 (en) * | 2012-08-03 | 2016-01-05 | Stryker Corporation | Method for detecting a disturbance as an energy applicator of a surgical instrument traverses a cutting path |
DE102013204151B4 (de) * | 2013-03-11 | 2016-12-15 | Continental Automotive Gmbh | Steuervorrichtung zum Betreiben einer Werkzeugmaschine und Werkzeugmaschine |
WO2014164404A1 (en) * | 2013-03-13 | 2014-10-09 | The General Hospital Corporation | 2-aaa as a biomarker and therapeutic agent for diabetes |
US9193402B2 (en) | 2013-11-26 | 2015-11-24 | Elwha Llc | Structural assessment, maintenance, and repair apparatuses and methods |
CA2945189C (en) * | 2014-04-10 | 2022-10-11 | Quanser Consulting Inc. | Robotic systems and methods of operating robotic systems |
US9335764B2 (en) | 2014-05-27 | 2016-05-10 | Recreational Drone Event Systems, Llc | Virtual and augmented reality cockpit and operational control systems |
CN104057450B (zh) * | 2014-06-20 | 2016-09-07 | 哈尔滨工业大学深圳研究生院 | 一种针对服务机器人的高维操作臂遥操作方法 |
US10835948B2 (en) * | 2014-07-09 | 2020-11-17 | The Boeing Company | Adjustable retaining structure for a cradle fixture |
CN104656653A (zh) * | 2015-01-15 | 2015-05-27 | 长源动力(北京)科技有限公司 | 一种基于机器人的交互系统及方法 |
US10023250B2 (en) | 2016-06-10 | 2018-07-17 | The Boeing Company | Multi-tread vehicles and methods of operating thereof |
WO2018215977A1 (en) * | 2017-05-26 | 2018-11-29 | Invert Robotics Limited | Climbing robot for detection of defects on an aircraft body |
-
2016
- 2016-06-10 US US15/179,493 patent/US10272572B2/en active Active
-
2017
- 2017-05-08 KR KR1020170057401A patent/KR102369855B1/ko active IP Right Grant
- 2017-05-26 CN CN201710383450.7A patent/CN107491043A/zh active Pending
- 2017-06-05 JP JP2017111014A patent/JP2018008369A/ja active Pending
- 2017-06-06 GB GB1708992.1A patent/GB2553617B/en active Active
-
2022
- 2022-03-08 JP JP2022035085A patent/JP7381632B2/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002046088A (ja) | 2000-08-03 | 2002-02-12 | Matsushita Electric Ind Co Ltd | ロボット装置 |
WO2015059241A1 (fr) | 2013-10-24 | 2015-04-30 | Airbus Group Sas | Robot collaboratif d'inspection visuelle d'un aéronef |
US20150367509A1 (en) | 2014-06-18 | 2015-12-24 | The Boeing Company | Stabilization of an End of an Extended-Reach Apparatus in a Limited-Access Space |
Also Published As
Publication number | Publication date |
---|---|
GB2553617A (en) | 2018-03-14 |
KR20170140070A (ko) | 2017-12-20 |
US20170355080A1 (en) | 2017-12-14 |
KR102369855B1 (ko) | 2022-03-02 |
CN107491043A (zh) | 2017-12-19 |
JP2018008369A (ja) | 2018-01-18 |
US10272572B2 (en) | 2019-04-30 |
GB201708992D0 (en) | 2017-07-19 |
JP2022081591A (ja) | 2022-05-31 |
GB2553617B (en) | 2020-09-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7381632B2 (ja) | マルチモーダル感覚データに基づくロボットプラットフォームの遠隔制御 | |
CA2945189C (en) | Robotic systems and methods of operating robotic systems | |
US10052765B2 (en) | Robot system having augmented reality-compatible display | |
US10959795B2 (en) | Remote-control manipulator system and method of operating the same | |
CN114728413B (zh) | 用于控制远程机器人的图形用户界面的方法和系统 | |
Chen et al. | Human performance issues and user interface design for teleoperated robots | |
US20120004791A1 (en) | Teleoperation method and human robot interface for remote control of a machine by a human operator | |
JP2003136450A (ja) | 聴覚情報提示によるロボットアームの遠隔操作システム | |
JP2013521137A (ja) | 輻輳した環境におけるロボット型機械の操縦を支援する方法及びシステム | |
JP2018167334A (ja) | 教示装置および教示方法 | |
WO2018190345A1 (ja) | ロボットシステム及びその運転方法 | |
CN110549353B (zh) | 力觉视觉化装置、机器人以及存储力觉视觉化程序的计算机可读介质 | |
Illing et al. | Evaluation of immersive teleoperation systems using standardized tasks and measurements | |
JP7401184B2 (ja) | ロボットシステム | |
Bogue | The role of augmented reality in robotics | |
JP2024538017A (ja) | 遠隔製造システム | |
JPH04246706A (ja) | 臨場感再現システムおよび加工システム | |
WO2018212234A1 (ja) | ロボットシステム | |
JP2024135098A (ja) | 遠隔操作制御システム | |
Tharp et al. | Virtual window telepresence system for telerobotic inspection | |
KR20140008659A (ko) | 로봇을 모니터링하는 교시조작 시스템 및 교시조작 방법 | |
Shiratsuchi et al. | Design and evaluation of a telepresence vision system for manipulation tasks | |
Nagai et al. | Audio feedback system for teleoperation experiments on engineering test satellite vii system design and assessment using eye mark recorder for capturing task | |
Yousefi et al. | Immersive control of a quadruped robot with Virtual Reality Eye-wear | |
Sandhu et al. | Investigation into a low cost robotic vision system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220406 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220406 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230531 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230606 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230831 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231010 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231102 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7381632 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |