JP6426143B2 - 複雑な表面検査及び加工のための制御された自律型ロボットシステムおよびその方法 - Google Patents
複雑な表面検査及び加工のための制御された自律型ロボットシステムおよびその方法 Download PDFInfo
- Publication number
- JP6426143B2 JP6426143B2 JP2016503358A JP2016503358A JP6426143B2 JP 6426143 B2 JP6426143 B2 JP 6426143B2 JP 2016503358 A JP2016503358 A JP 2016503358A JP 2016503358 A JP2016503358 A JP 2016503358A JP 6426143 B2 JP6426143 B2 JP 6426143B2
- Authority
- JP
- Japan
- Prior art keywords
- model
- processing
- manipulator
- coverage
- robot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 153
- 238000012545 processing Methods 0.000 title claims description 73
- 238000007689 inspection Methods 0.000 title claims description 6
- 230000008569 process Effects 0.000 claims description 95
- 239000012636 effector Substances 0.000 claims description 49
- 230000033001 locomotion Effects 0.000 claims description 47
- 238000000576 coating method Methods 0.000 claims description 36
- 239000011248 coating agent Substances 0.000 claims description 33
- 238000003754 machining Methods 0.000 claims description 14
- 230000003993 interaction Effects 0.000 claims description 12
- 230000003287 optical effect Effects 0.000 claims description 10
- 230000002123 temporal effect Effects 0.000 claims description 9
- 230000008859 change Effects 0.000 claims description 6
- 238000001514 detection method Methods 0.000 claims description 6
- 238000005286 illumination Methods 0.000 claims description 6
- 239000003973 paint Substances 0.000 claims description 5
- 238000007670 refining Methods 0.000 claims description 4
- 230000003190 augmentative effect Effects 0.000 claims description 3
- 238000004381 surface treatment Methods 0.000 claims description 3
- 239000011247 coating layer Substances 0.000 claims 1
- 239000000463 material Substances 0.000 claims 1
- 230000035945 sensitivity Effects 0.000 claims 1
- 238000004422 calculation algorithm Methods 0.000 description 54
- 230000004807 localization Effects 0.000 description 22
- 238000013507 mapping Methods 0.000 description 19
- 230000007613 environmental effect Effects 0.000 description 15
- 230000007246 mechanism Effects 0.000 description 13
- 230000000694 effects Effects 0.000 description 11
- 230000006870 function Effects 0.000 description 10
- 239000000758 substrate Substances 0.000 description 9
- 230000001133 acceleration Effects 0.000 description 8
- 238000010845 search algorithm Methods 0.000 description 7
- 238000012706 support-vector machine Methods 0.000 description 7
- 238000010276 construction Methods 0.000 description 6
- 230000002829 reductive effect Effects 0.000 description 6
- 230000004044 response Effects 0.000 description 6
- 230000007704 transition Effects 0.000 description 6
- 238000004458 analytical method Methods 0.000 description 5
- 238000005259 measurement Methods 0.000 description 5
- 238000012795 verification Methods 0.000 description 5
- 230000000007 visual effect Effects 0.000 description 5
- 230000009471 action Effects 0.000 description 4
- 230000003044 adaptive effect Effects 0.000 description 4
- 238000004140 cleaning Methods 0.000 description 4
- 238000013461 design Methods 0.000 description 4
- 230000010287 polarization Effects 0.000 description 4
- 238000011084 recovery Methods 0.000 description 4
- 230000009467 reduction Effects 0.000 description 4
- 230000002159 abnormal effect Effects 0.000 description 3
- 239000002775 capsule Substances 0.000 description 3
- 238000007635 classification algorithm Methods 0.000 description 3
- 230000001427 coherent effect Effects 0.000 description 3
- 238000011161 development Methods 0.000 description 3
- 230000018109 developmental process Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000009826 distribution Methods 0.000 description 3
- 238000009499 grossing Methods 0.000 description 3
- 230000002452 interceptive effect Effects 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- 230000011218 segmentation Effects 0.000 description 3
- 238000000926 separation method Methods 0.000 description 3
- 238000004088 simulation Methods 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 239000013598 vector Substances 0.000 description 3
- 238000007476 Maximum Likelihood Methods 0.000 description 2
- 230000002776 aggregation Effects 0.000 description 2
- 238000004220 aggregation Methods 0.000 description 2
- 238000005452 bending Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 238000002955 isolation Methods 0.000 description 2
- 238000013139 quantization Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- 238000003466 welding Methods 0.000 description 2
- 201000006347 Intellectual Disability Diseases 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000033228 biological regulation Effects 0.000 description 1
- 230000010261 cell growth Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 230000003750 conditioning effect Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000001816 cooling Methods 0.000 description 1
- 238000007727 cost benefit analysis Methods 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 238000011143 downstream manufacturing Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000017525 heat dissipation Effects 0.000 description 1
- 239000002917 insecticide Substances 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000000414 obstructive effect Effects 0.000 description 1
- 238000010422 painting Methods 0.000 description 1
- 230000036961 partial effect Effects 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 230000037361 pathway Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 230000000704 physical effect Effects 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 230000000272 proprioceptive effect Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 238000013349 risk mitigation Methods 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000002821 scintillation proximity assay Methods 0.000 description 1
- 238000012163 sequencing technique Methods 0.000 description 1
- 238000005507 spraying Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000004441 surface measurement Methods 0.000 description 1
- 238000010408 sweeping Methods 0.000 description 1
- 230000009897 systematic effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1671—Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B23—MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
- B23Q—DETAILS, COMPONENTS, OR ACCESSORIES FOR MACHINE TOOLS, e.g. ARRANGEMENTS FOR COPYING OR CONTROLLING; MACHINE TOOLS IN GENERAL CHARACTERISED BY THE CONSTRUCTION OF PARTICULAR DETAILS OR COMPONENTS; COMBINATIONS OR ASSOCIATIONS OF METAL-WORKING MACHINES, NOT DIRECTED TO A PARTICULAR RESULT
- B23Q17/00—Arrangements for observing, indicating or measuring on machine tools
- B23Q17/22—Arrangements for observing, indicating or measuring on machine tools for indicating or measuring existing or desired position of tool or work
- B23Q17/2233—Arrangements for observing, indicating or measuring on machine tools for indicating or measuring existing or desired position of tool or work for adjusting the tool relative to the workpiece
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N21/00—Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
- G01N21/84—Systems specially adapted for particular applications
- G01N21/88—Investigating the presence of flaws or contamination
- G01N21/95—Investigating the presence of flaws or contamination characterised by the material or shape of the object to be examined
- G01N21/9515—Objects of complex shape, e.g. examined with use of a surface follower device
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/18—Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
- G05B19/4097—Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by using design data to control NC machines, e.g. CAD/CAM
- G05B19/4099—Surface or curve machining, making 3D objects, e.g. desktop manufacturing
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/37—Measurements
- G05B2219/37449—Inspection path planner
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/45—Nc applications
- G05B2219/45071—Aircraft, airplane, ship cleaning manipulator, paint stripping
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S901/00—Robots
- Y10S901/02—Arm motion controller
- Y10S901/06—Communication with another machine
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S901/00—Robots
- Y10S901/27—Arm part
- Y10S901/28—Joint
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S901/00—Robots
- Y10S901/30—End effector
- Y10S901/41—Tool
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S901/00—Robots
- Y10S901/30—End effector
- Y10S901/44—End effector inspection
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S901/00—Robots
- Y10S901/46—Sensing device
- Y10S901/47—Optical
Landscapes
- Engineering & Computer Science (AREA)
- Mechanical Engineering (AREA)
- Robotics (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Chemical & Material Sciences (AREA)
- Biochemistry (AREA)
- Pathology (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Immunology (AREA)
- Analytical Chemistry (AREA)
- General Health & Medical Sciences (AREA)
- Manufacturing & Machinery (AREA)
- Human Computer Interaction (AREA)
- Automation & Control Theory (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Manipulator (AREA)
- Numerical Control (AREA)
- Image Processing (AREA)
Description
・表面モデル(Surface Model)
・表面プロセスプランナ(Surface Process Planner)
・表面プロセスモジュレータ(Surface Process Modulator)
・表面カバレッジプランナ(Surface Coverage Planner)
2つの表面特性アナライザは、動作中のプロセスとの関係において分類情報を生成するべく、加工地点の前及び後の両方において画像データを処理している。レーザーコーティング除去の場合には、これは、表面を「上塗り」、「下地塗り」、又は「基材」のうちの1つとして分類することを意味しており、この場合に、最初の2つは、ある程度の量の加工を要する状態に留まっていることを意味し、且つ、最後のものは、その加工が完了していることを意味している。これらの表面分析の結果は、表面モデル内において保存され、この場合に、加工地点の「前」からのデータは、表面プロセスプランナが表面プロセスを調整するために使用され、且つ、加工地点の「後」からのデータは、プロセスの結果を検査するために、且つ、コーティング除去の例においては、更なるパスが必要であるかどうかを判定するために、使用される。
・少しでも湾曲している場合には、後述する状態となるように、例えば、航空機胴体の周り又は航空機翼の前方方向に沿って、単一の「支配的」な曲がりの方向が存在することを要し、
・それぞれのパッチは、最小限の局所的な歪を伴って容易に「展開」され、これにより、局所的な同形性が保持されうる。
2.それがレーザーエネルギーに曝露された最も最近の時点とその強度
3.例えば、以下を実行するべく、プロセス計画をオーバーライドしうるユーザ対話型マーカーのアレイ
・影響を受けやすい領域がレーザーエネルギーに曝露されることを防止するなどのために、その領域内における表面加工を抑制する「仮想マーキング済み」として特定のエリアをマーキングする。
・それが単に異常な塗装色又はその他の表面異常であることを操作者が観察しうる際に、「基材」として誤って分類されたエリアをオーバーライドするなどのために、「更なる加工を要する」として特定のエリアをマーキングする。
1.まだ計測されていないターゲット表面の領域からデータを取得するなどのために、マッピングセンサ用の望ましい有利な地点を選択するステップ、
2.その有利な地点においてマッピングセンサに姿勢を取らせるようにマニピュレータに対して命令するステップ、
3.マニピュレータの操作の完了と、運動のなんらかの動的な副作用が落ち着くことを許容するためのわずかな遅延と、にわたって待機するステップ、
4.その傾斜メカニズムを望ましい範囲を通じて滑らかに掃引することにより、掃引を通じて継続的にLIDARデータを収集するように、マッピングセンサに対して命令するステップ、
5.その掃引に沿った個々の位置に対して傾斜メカニズムに反復的に命令し、これにより、LIDARデータと同一の角度範囲をカバーするカラー画像データをキャプチャするステップ、及び、
6.傾斜メカニズムを公称的「ホーム」位置に戻すステップ
上述のプロセスは、隔離状態にあるマッピングセンサの単一の姿勢から可能なものよりも格段に大きな表面からデータをキャプチャするべく、複数の有利な地点から、且つ、複数の可動基部の場所から、複数回にわたって反復されてもよい。それぞれのスキャンの際の合計システム状態、即ち、可動基部の姿勢と、産業用マニピュレータの継手状態の継手角度と、は、結果的に得られた点群を作業環境の基準フレーム内において見当合わせするべく、使用される。これらの状態変数は、この「未加工」の点群の収集に伴う全体的な演算の複雑さを単純化するべく、上述のステップ「3.」(待機するステップ)の後に、一定であるものと仮定される。但し、すべての物理的システムと同様に、マッピングセンサの導出された姿勢には、系統的誤差及びランダム誤差の両方が存在しており、この結果、このようなスキャンの後続のアライメントが必要となる。
・誤差を統計的に低減するべく、オーバーラップしたスキャンデータをキャプチャするために相対的に大きな時間を費やす必要性、或いは、
・センサの出力における固有ノイズのモデル化及びその補償のための相対的に高度なアルゴリズムの開発
その相対的な姿勢におけるある程度の量の誤差の予想を伴うこのような点群の組が付与された場合に、それぞれの群内のデータを使用してデータセット全体をコレーレントな完全体としてアライメントするリファインメントステップ(refinement step)を実行する必要がある。これは、一般に、同一の物理表面の矛盾した推定値を示すスキャンデータのオーバーラップした領域内の過度な「厚さ」として観察可能である。この矛盾は、ターゲット表面を相対的に良好に推定する単一の「相対的に薄い」点群に最終的に収束させるという目標の下に、所与の群内のそれぞれの地点とその他の群のオーバーラップした領域によって示されている表面の間の距離を増分的に低減する反復的スキャンマッチング法を使用することにより、解決される。
・表面は、従来のボクセルに基づいた点群メッシュ化法よりもはるかに少ない数の多角形によって近似されており、これは、表面の相対的に良好な近似であることに加えて、更に、
・結果的に得られるモデル内の面の数を低減し、これにより、上述のモデル操作の手作業によるプロセスに伴う難しさが低減される。
・隣接解多様体セルが隣接マニピュレータ状態を有し、これにより、カバレッジ問題を2次元サーチ空間に単純化していること
上述のように、運動の冗長性に対処するべく、基部の位置及び表面パッチの任意の所与の組合せについて、いくつかの候補解多様体が演算される。
解多様体の生成は、反対運動ソルバ(inverse kinematic solver)、優先順位キューに基づいた最も接近した隣接解パッチ成長アルゴリズム(neighbor solution patch growing algorithm)、及び解パッチ重み付け及び選択アルゴリズム(solution patch weighting and selection algorithm)という3つの主要コンポーネントに分割される。反対運動ソルバは、所与の継手構成においてアームの質量によって印加されるトルクによって生成される可動基部ユニット上に取り付けられたマニピュレータの偏向などの物理的影響の補償を含むカバレッジ要件を充足するエンドエフェクタの姿勢をもたらすすべての有効なマニピュレータ継手状態を演算する。
・多様体選択プロセスを異質なアーム運動を必要とする解から離れるようにバイアスする初期のマニピュレータ状態に対する近接性
次いで、最高スコアを有する解多様体が更なる加工のために選択される。一例においては、この「最良」の多様体は、隔離状態において処理されるが、1つのパスにおいてカバーされる表面の量を増大させるべく、オーバーラップした多様体の間において転送地点を定義することにより、複数の多様体を単一の相対的に大きな表面多様体に事実上結合することもできる。
最適な解多様体は、表面加工ポリシーの幾何学的且つ動的な制約を充足する双方向経路の組に更にセグメント化される。レーザーコーティング除去の場合には、これは、所与の姿勢におけるレーザーによって影響を及ぼされる表面エリアの判定を必要とする訪問の間の「クールダウン」期間及び構成可能な期間内において同一エリアをレーザーエネルギーに曝露しないカバレッジ経路の選択と共に、表面の所与の単位に適用されるレーザーエネルギーの量を制限する公称的表面横断速度を含む。これらの制約は、現時点においては、以下のものを介して対処される。
・総体として、すべてのこのような列によってカバーされた表面エリアは、解多様体の到達可能エリアの全体をカバーし、且つ、
・任意の所与の列の移動の方向において、解多様体を有する反対運動解は、多様体を生成するべく元々使用された近接性規則の相対的に厳格な変動を充足すると共に、従って、必要とされる横断速度を実現する可能性が相対的に大きい。
次いで、最適化されたカバレッジ経路の組は、従来のグラフサーチアルゴリズムと新しいグラフサーチアルゴリズムの組合せにより、単一のカバレッジ操作として組み立てられる。第1の相対的に従来型のコンポーネントは、コストと、解多様体上の任意の2つの点の間の最適な経路と、を演算するための矩形接続性グラフに対するダイクストラ(Djikstra)のアルゴリズムの標準的な適用である。
ロボット状態軌跡ジェネレータは、2次元表面座標のリストからの最適化されたカバレッジ計画を表面プロセス速度要件と固有マニピュレータ速度及び加速度制約の両方を充足するマニピュレータ状態の時間的シーケンスに変換する。又、この段階においては、結果的に得られる軌跡は、分割された表面上におけるグラフサーチに起因したエイリアシングの影響(aliasing effect)を低減するべく、且つ、カバレッジと移動セグメントの間の遷移内の「ハード(hard)」コーナーを望ましくないシステム振動を極小化しつつ動作中の加工の時間を最大限にする相対的に滑らかな遷移によって置換するべく、フィルタリングされる。
・マニピュレータの構成可能な継手空間速度の限度
・マニピュレータの構成可能な継手空間加速度の限度
この順序におけるこれらの制約の適用は、任意の所与のインスタンスにおいてエンドエフェクタの表面速度を最大限にし、この結果、このシステムにおける主要な性能パラメータである動作中の加工の時間が最大限にされる。
完全な表面カバレッジ操作を構築する際の最後のステップは、マニピュレータの初期状態を表面上軌跡(on-surface trajectory)内の適切な地点に接続する経路を生成し、且つ、同様に、表面加工が完了した際に、マニピュレータをその初期位置に戻すというものである。「入口」及び「出口」操作と呼称されるこれらの操作は、計画障害について実施される特殊な例外を伴って、一般化されたアーム運動と非常によく似た方式によって計画される。このようなケースにおいては、交互に変化する入口及び出口地点は、両方の計画が成功する時点まで、置換され、且つ、必要に応じて、オリジナルのカバレッジ計画に接続するべく、移動経路が表面上軌跡に追加される。更なる安全メカニズムとして、上述の時間拡張アルゴリズムは、表面衝突を強制しうる「プランジング」振動のリスクを軽減すると共にシステムの動作に伴うエンドユーザの快適性を全般的に増大させるべく、表面の近傍におけるエンドエフェクタの速度を減速させる「軟着陸」規則によって拡張される。
マニピュレータ制御タスクに対して公開される前に、軌跡は、カバレッジ経路生成におけるアルゴリズム的又は数値的誤差が、表面と衝突することになる経路をもたらしうるリスクの軽減策として障害物検出メカニズムの非常に控えめな変動を使用した1つの最終的な検証ステップを経験する。これは、特に、産業用マニピュレータを数センチメートルの潜在的に有用なターゲット表面内において動作させる際に、賢明である。
長期間にわたる産業的な配備が最終的に意図されているシステムの場合には、安定した障害の検出及び処理が非常に重要な設計課題である。その非常に控えめな表面安全規則と結合された状態において、表面カバレッジプランナの複雑さが付与された場合に、基部の姿勢、表面の形状、機械的剛性などにおける誤差のわずかな合流に起因した間欠的障害の可能性が存在している。制御された自律性規範の一部として、このような障害を対話型の解決のために操作者に対して提示する必要があるが、誤差に対処するべく必要とされる手動的介入の程度を極小化することも必要である。表面カバレッジ計画の場合には、エンドユーザには、通常の障害のケースを克服するように設計された補完的方式の組により、表面カバレッジコマンドを再度実行する選択肢が提供される。このような方式の一例は、ローカリゼーションシステムにおける一時的な誤差のアーチファクトである偽−真(false-positive)「衝突」からロボットを救出するべく、障害物チェックポリシーに適用される保守性の程度を一時的に低減するというものになろう。このような操作は、増大した操作者による制御の可能性を有し、且つ、通常は、正常な動作が再開されうる時点まで、相対的に低速において実行される。
・列カバレッジプランナが単一の計画において複数のカバレッジ多様体を使用することを可能にすること
・様々な主要性能パラメータ(Key Performance Parameter : KPP)を最適化すること(事実上は、レーザーのオン時間)
・オフラインの基部位置計画をサポートすること
・シーケンシャルに基づいた制約(熱放散など)を列カバレッジ計画オプティマイザに直接的に内蔵すること
・コーティングの厚さなどの新しい情報が発見されるのに伴って剥離プロセスにいてカバレッジ経路を変更することになるリアルタイム適応型経路計画を完全なものにすること
表面カバレッジ計画を実行している間に、すべての表面特性アナライザ(SPA)入力装置は、継続的に、表面画像データをキャプチャし、且つ、表面分類情報を更新する。本実施形態においては、単一のSPA装置は、図15に示されているように、7チャネルマルチスペクトル画像センサをもたらすべく、適切なフィルタリング及び照明と共に、2つのRGBカラーカメラと、単一の近赤外線カメラと、から構成されている。これらのセンサからのこれらの分類結果は、以下のものを組み合わせることにより、表面モデル内において保存される。
・視野内にあるターゲット表面の領域を判定するための表面モデルに組み込まれた形状及び既存の分類情報
表面画像データは、個々の画像ピクセルを分類対象の対応する表面セルと関連付けるべく、ターゲット表面領域上に投射される。次いで、これらのピクセルは、図13に示されているように、それぞれのセルごとにサブ領域内にクラスタ化され、その相対的に小さなスケールにおいて個々に分類され、次いで、最終的なセル分類に集計される。図13(中央)に示されているセルラーサブ分割の程度は、現在、それぞれの表面セルごとに、4×4グリッド、即ち、16サブセルである。現時点のシステムは、サポートベクターマシン(Support Vector Machine : SVM)分類アルゴリズムを使用しており、これは、基礎をなすモデルの複雑さとはほぼ無関係であるレートにおいて入力データを分類するその能力に起因して選択されたものである。SVMは、通常、非確率論的2値線形分類(non-probabilistic binary linear classification)のために使用されるが、標準的なアルゴリズムは、通常、マルチクラス又は確率論的結果をもたらすべく、拡張される。本実施形態においては、SPAアルゴリズムは、このような拡張を使用することにより、それぞれの画像領域ごとに、例えば、上塗り対下地塗り対基材などのその領域におけるそれぞれの潜在的な分類に対応する確率を生成している。
・画像データ内の検出された特徴による明示的な幾何学的形状の生成などのためのサブセルラー領域生成用のガウスに基づいてはいない関数の使用などの交互に変化するサブセルラーセグメント化アルゴリズムの適用
・交互に変化する分類アルゴリズム(即ち、SVM以外のもの)の導入、或いは、相対的に高忠実度の結果を生成するための複数の分類器(classifier)の間における重み付けされた投票方式の使用
・SPA画像データからの情報を表面の特定領域の以前の観察以降に発生した任意の加工の予想される影響と組み合わせるようにチューニングされうる分類プロセスへのフィードフォワードモデルの内蔵
SVM分類器の使用は、様々なセンサデータが分類問題に対して適用されることを許容し、これにより、センサの十分に識別可能な組及び関連するトレーニングデータが付与された場合に、異なる表面加工タスクについて分類するようにSPAを容易に再構成することが可能となる。レーザーコーティング除去の場合には、現時点の実装形態は、上述のように、且つ、図15におけるように、3つのカメラと、関連する有効な照明源と、を利用している。これらのカメラのそれぞれからの個々のカラーチャネルは、分類アルゴリズムにおいて直接的に使用され、これにより、共線偏光を有するRGB、直交偏光を有するRGB、及び850nmの赤外線というSVM用の7次元特徴空間がもたらされる。
・ライブSPA分類エンジンに対する新しいモデルの適用、及び/又は、
・オフライン比較などの後で使用するための新しいモデルの保存
これは、最終的なシステムにおける重要な特徴であり、その理由は、これにより、エンドユーザは、既存のSPAモデルによっては正しく分類されない着色によるコーティングなどの新しい表面に対して採用するべき適切な動作を識別することができるからである。従って、SPAが所与のセルの正しい分類について不確かである際に、再トレーニングの支援について自律型加工動作のスーパーバイザに対して通知する高度なGUIツール及び通知方式が使用される。
・SPAによって判定され、且つ、表面モデルによってエンコードされる単位面積当たりの現時点の分類状態
・表面カバレッジプランナによって意図されている産業用マニピュレータの予想運動
・エンドエフェクタが表面の近傍にある間に直接的な距離及び姿勢の計測を提供するローカルフレームフィードバックセンサ
・高度に構成可能な表面加工ポリシーの組及び効果的な表面加工のための様々な要件、最も顕著には、表面分類当たりに採用するべき適切な動作
又、上述の例において表示されているレーザー強度などの表面分類を加工コマンドに変換するための詳細なアルゴリズムに加えて、プロセスポリシーは、以下のものをもエンコードする。
・表面のすべて(又は、少なくともその大部分)が「下地塗り」又は「基材」と分類された際にプロセスの終了を意味することになる「上塗りのみの除去」などの表面プロセスの正常な完了のための最終的な条件
一般に、表面加工ポリシーは、表面分類を更なる訪問を必要とする状態(「実行を要する更なる作業が残されている」状態)からそうではない状態(「作業が完了した」状態)に変化させることになる方式で表現を変換するように表面に対して作用することになるプロセスコマンドを生成するものと予想される。ターゲットとする用途に応じて、コマンド生成アルゴリズム及び周辺ポリシーは、任意に複雑なものであってもよい。レーザーコーティング除去の場合には、例示用のポリシーは、コーティング除去プロセスに固有のレーザー合焦及びその他のパラメータと共に、所与の表面分類に適用されるべき望ましいレーザー強度を含むことになろう。又、プロセスポリシーは、上述のように、表面カバレッジプランナの動作に影響を及ぼすことになるエンドエフェクタの横断速度及びクールダウン時間などの幾何学的且つ時間的な懸念をエンコードしてもよい。
・アナログ−デジタルコンバータ
・高速デジタル通信バス
・組込み型のマイクロコントローラ上において稼働するプロセス変調アルゴリズム
・ハイパワーレーザーに対する出力コマンドを駆動するためのデジタル−アナログコンバータ
図17は、レーザーコーティング除去のために使用される表面プロセスモジュレータのブロックダイアグラムを示している。センサ組立体は、光学センサが、レーザーが表面と交差する地点を、且つ、従って、コーティング除去プロセスによって放出される光を、直接的に観察しうるように、エンドエフェクタ内において取り付けられている。センサは、フォトダイオードであり、これらのそれぞれは、光の特定の波長に対する感度を有し、且つ、入射照明の強度に比例した電圧を生成するアナログ回路と結合されている。この回路の利得は、ソフトウェアによって制御されたポテンショメータ(potentiometer)を介してオンザフライで調節されうる。この結果、表面プロセスからのフルダイナミックレンジの光強度をキャプチャするべく、回路を容易にチューニングすることができる。それぞれのセンサによって生成されるアナログ信号は、高速アナログ−デジタルコンバータに接続されており、このコンバータは、一例においては、250KHz超のレートにおいてそれぞれのセンサの12ビットサンプリングを実行する能力を有する。この装置は、以下の点において、類似の従来技術とは異なっている。
3.この装置は、レーザーデコードプロセスのフル幅に跨ってそれぞれのセンサの応答を特徴判定し、且つ、信号応答が実施されることを保証するべく、構成可能なアナログ利得とデジタル正規化関数の両方を適用している。
5.この装置は、センサ応答の連続的な監視、アナログ回路利得及びプロセスパラメータのオンライン調節、及び専用のTCP/IPネットワークリンク上における演算されたコマンド出力の連続的な表示を許容している。
・グローバルな障害物制約下におけるマニピュレータ経路の計画
・グローバルな障害物制約下における可動ロボット経路の計画及び追跡
・可動ロボットの近傍における操作者の安全、MBU−アームシステムの動的安定性、及び障害物モデルの検証に関する改善された安全メカニズム及びインターロック
特定の動作の環境に対してそれぞれがチューニングされた状態において、その作業環境における個々のロボットをローカライズするべく、センサと技法の組合せが使用される。第1に、且つ、真っ先に、図18に示されている視覚的ランドマークに基づいたローカリゼーション法を使用することにより、環境内のロボットの全体的なグローバル姿勢が導出され、この場合に、カメラのアレイは、起点と呼称される調査対象であるランドマークを観察している。起点に基づいた技法に加えて、プロセスを実行するために最高の精度が必要とされる際には、表面追跡及び見当合わせ法が使用される。
2.その一意のIDを環境内においてそのフル6DOF姿勢と関連付けるように、それぞれの起点を調査すること
3.ロボットに対して複数のカメラを(例えば、マニピュレータの基部において)付加し、且つ、高精度を有するロボットとの関係においてその非本質的な形状を判定すること
これらの前提条件が付与された場合に、ローカリゼーションアルゴリズムのオンライン部分は、ローカリゼーションカメラからの画像データのそれぞれの組ごとに、以下のものから構成される。
2.それぞれの識別された起点の調査された姿勢を取得し、且つ、その姿勢を観察しているカメラの座標フレームに変換する。
4.以下のステップにより、数値最適化アルゴリズムを介してマルチカメラシステム用の候補姿勢をリファインする。
4.2 起点の予測されたコーナーと検出されたコーナーの間の画像空間における誤差ベクトルを判定するステップ
4.3 エラー極小化アルゴリズムに対する誤差及び勾配関数として、観察しているカメラ用の姿勢対画像空間ヤコビ行列と共に、これらの誤差ベクトルを提供するステップ
5.システムの残りの部分に対する伝播のために最小誤差を有する候補姿勢を選択する。
・マッピングサブシステムからの表面ローカリゼーションの結果
システムの全体的状態に対するこれらのセンサのうちのそれぞれのセンサの影響の程度は、表1において要約されているように、システムの動作環境によって左右される。
2.基部が静止状態にある際には、視覚的ローカリゼーション法は、格段に安定しており、従って、システム状態は、次の内容を除いて、その結果によって最も直接的に影響を受けることになり、
3.表面カバレッジ操作を計画する前に、システムは、表面の形状を追跡しつつ、最大精度のために作業表面との関係におけるロボットの「ジャストインタイム」ローカリゼーションを実行することを要する。
一例においては、障害物の回避は、2部分マルチ分解能衝突モデルによって実施されている。これは、環境内の障害物の分割された容積計測表現によって始まるが、その表現に基づいて、障害物の場所のみならず、それぞれの非障害物「ボクセル(voxel)」から最も近接した障害物までの距離をもエンコードするべく、拡張されている。このモデルは、図19に示されているように、マニピュレータ、ケーブルテザー、及びエンドエフェクタの単純化された「エンクロージングカプセル(enclosing capsule)」表現を処理するべく、使用される。
・それぞれのボクセルから最も近接した障害物セルまでの最小距離を判定する優先順位キューに基づいたフリーセル拡張アルゴリズム(priority-queue-based free cell expansion algorithm)
・再帰的に分割されたボクセルに基づいた3次元障害物マップ
・そのラインに沿って最小障害物距離を判定すると共に所与の閾値未満の距離を有するボクセルを収集するべく障害物マップを通じたラインに沿ってスキャンするラスタサーチアルゴリズム(raster search algorithm)
・所与のロボット状態が障害物と交差するかどうかを効率的且つ正確に判定するべく所与のラインを再帰的に二等分する2項障害物サーチアルゴリズム(binomial obstacle search algorithm)
・隣接するボクセルを使用して分割プロセスにおけるエイリアシングの影響を抑圧すると共に障害物の距離推定を改善する準補間アルゴリズム
ポイントツーポイントプランナ
別の例においては、図20に示されているように構成されたコンポーネントの階層構造的な組により、ポイントツーポイント計画が実施されている。この組は、接続され、継手座標内において規定され、且つ、「現時点の」状態及び「命令された」状態と呼称される2つのマニピュレータ状態によって始まる。2つのこのような状態が付与された場合に、単純な同期式継手状態プランナは、マニピュレータ固有の速度及び加速度限度を使用し、これらの状態の間の最も高速の可能な経路を生成する。次いで、結果的に得られた計画は、計画検証モジュールによってチェックされ、計画検証モジュールは、上述の様々な速度、加速度、自己衝突、及び環境衝突規則を強制する。この初期の極度に単純化された運動がこれらのチェックに合格した場合には、更なる作業は、実行されず、且つ、その計画は、実行のために選択される。
2.これに関連して、特に、ターゲット表面の近傍における任意の数の正しく計画されたロボット動作は、ローカリゼーションシステム内のセンサノイズ及び/又はわずかなマニピュレータ追跡誤差に起因して、その最終状態においてわずかに衝突状態にあるように見える場合がある。
・(1)意図せぬレーザー放出に対する曝露と(2)車両と表面の間の意図せぬ接触に起因した加工対象の表面に対する危害を防止する。
・作業エリアの占有状態の変化を黙示的に検出するべく使用されるドアスイッチ。作業エリアへの任意のドアの開放は、要員が作業エリアに進入することを意図しているという仮定の下において、システムがレーザーモードによる自律的状態にある場合には、E停止をトリガすることになる。
・MBUが予め設定された速度限度を超過した場合に、E停止をトリガすることにより、MBUを低速度に対して事実上制御する動的安全モニタ。例えば、本システムにおけるMBUは、数メートル/秒超の速度の能力を有する一方で、組み合わせられたシステムの安定性を保証しうるように、100mm/s未満の速度に制限されている。
5.2 ロボットが任意の所与の表面加工ステーションから離脱する前に、自律型スーパーバイザには、最終的な結果を検査すると共に、任意選択により、コーティング除去の場合における「もう1つの浄化パス」の強制実行などのように、そのエリアのサブセットに対して実行するべき更なる作業を規定するための機会が付与されることになる。
上述の主要なやり取りに加えて、制御された自律性規範の一部であるいくつかの非常に重要な操作者のやり取りが存在しており、これらは、システム動作の際に任意の時点において発生しうる。広い意味においては、これらのイベントは、障害回復及び安全イベントに関するものであり、その最も重要なものは、以下のとおりである。
・予期せぬ障害物をGUI内において強調表示し、これにより、例えば、(a)ユーザが環境に進入して偽の障害物を除去することを許容するためにすべての動作中の加工を停止するべく、或いは、さもなければ、(b)障害物を衝突モデルに内蔵し、且つ、新しいデータを内蔵する新しい計画をすべてのロボットに生成させるべく、適切な動作についてユーザに指示する。
Claims (36)
- 作業環境内において静止又は可動基部を有するロボットマニピュレータを使用して3次元物体上における表面加工を実行する方法であって、
前記3次元物体のベースモデルを取得すること、
前記3次元物体の表面スキャンを実行するとともに前記表面スキャンから取得された距離データ及び表面特性データによって前記ベースモデルを増強することにより、前記ベースモデルから表面モデルを生成すること、
前記3次元物体の表面加工を最大限にするべく、前記ロボットマニピュレータの状態の時間的シーケンスを計画すること、
前記ロボットマニピュレータに接続された加工ツールを制御又は変調するべく、表面が加工される前に3次元モデルの表面をスキャンすること、
前記加工ツールによって前記表面を加工すること、
前記表面が加工されるのに伴って前記3次元モデルの表面をスキャンし、且つ、新しい表面特性データによって前記表面モデルを更新すること、
更新済みの表面モデルに基づいて前記ロボットマニピュレータ用の位置及び姿勢の組を調整すること、
前記表面が所望の状態に到達する時点まで、前記表面の加工及び前記表面モデルの更新を継続すること、を備える方法。 - 前記作業環境内における前記表面モデルの位置をリファインすること、
前記作業環境内における前記ロボットマニピュレータの位置をリファインすること、を更に備える請求項1に記載の方法。 - 前記ロボットマニピュレータは、表面上において運動する能力を有する可動基部上に取り付けられている、請求項1に記載の方法。
- 前記ロボットマニピュレータは、レール基部上に取り付けられ、
前記レール基部は、前記レールに沿って前記ロボットマニピュレータを運動させる機能を有する、請求項1に記載の方法。 - 前記ベースモデルは、表面特性を有する既存の3Dモデルから取得される、請求項1に記載の方法。
- 前記ベースモデルは、前記3次元物体の形状をキャプチャする機能を有する光学センサを使用することによって前記3次元物体をスキャンすることにより、生成される、請求項1に記載の方法。
- 前記表面の加工に関する加工ポリシーによって前記ベースモデルを増強することを更に備える請求項1に記載の方法。
- 前記表面モデルとのユーザインタラクションを許容することを更に備える、請求項7に記載の方法。
- 前記ユーザインタラクションは、前記表面の一部分の加工を妨げる仮想マスクの規定を許容することを含む、請求項8に記載の方法。
- 前記ユーザインタラクションは、規定されたエリア上又は規定された容積の内部における前記ロボットマニピュレータの位置決めを妨げる仮想的立ち入り禁止エリア又は容積の規定を許容することを含む、請求項8に記載の方法。
- 前記ユーザインタラクションは、更なる加工を必要とするエリアのマーキングを許容することを含む、請求項8に記載の方法。
- 前記ユーザインタラクションは、前記加工ポリシーのオーバーライドを許容する、請求項8に記載の方法。
- 前記ロボットマニピュレータは、LIDAR装置を含み、
前記距離データは、前記LIDAR装置によって生成される、請求項1に記載の方法。 - 前記ロボットマニピュレータは、1つ又は複数のセンサを含み、
前記表面特性データは、前記1つ又は複数のセンサによって生成される、請求項1に記載の方法。 - 前記1つ又は複数のセンサは、マルチスペクトルカメラ、カラーカメラ、モノクロームカメラ、及び特定波長の感度を有するカメラを有する群から選択される、請求項14に記載の方法。
- 前記1つ又は複数のセンサは、非破壊検査センサを含む検査センサ、超音波センサ、及び渦電流に基づいた亀裂検出センサを有する群から選択される、請求項14に記載の方法。
- 前記ロボットマニピュレータの状態の時間的シーケンスは、位置及び姿勢の組を有する請求項1に記載の方法。
- 前記ロボットマニピュレータの状態の時間的シーケンスを計画することは、
前記3次元物体と前記作業環境内のその他の物体の間の衝突を回避しつつ、前記表面の加工を最大限にさせることを含む、請求項1に記載の方法。 - 前記ロボットマニピュレータの状態の時間的シーケンスを計画することは、
既定の最小期間内において複数回にわたって前記表面の同一エリアの加工を妨げることを含む、請求項1に記載の方法。 - 前記表面モデルは、2次元多様体の組から構成され、
前記2次元多様体のそれぞれは、複数のセルから構成され、
前記複数のセルのそれぞれは、表面エリアの物理的単位を表し、
前記複数のセルのそれぞれは、関連付けられた一組の特性を有する、請求項1に記載の方法。 - 前記複数のセルのそれぞれと関連する特性は、材料の種類と、コーティング特性と、を含む請求項20に記載の方法。
- 前記加工ツールは、表面から塗装を除去する能力を有するレーザーである、請求項1に記載の方法。
- 前記加工ツールの軌跡に沿った前記表面の最も最近に観察された状態について問い合わせること、
前記観察された状態に基づいて前記加工ツールによって実行される加工動作及びパラメータのシーケンスを計画すること、を更に備える請求項1に記載の方法。 - 更なる加工が前記表面の任意の部分について必要であるかどうかを判定するべく、加工された表面を分析することを更に備える請求項1に記載の方法。
- 前記ロボットマニピュレータは、エンドエフェクタを含み、
前記方法は、
作業エリア内の起点を観察する光学位置決めカメラを使用することにより、作業エリアとの関係において前記エンドエフェクタの3D位置及び向きを計測することを更に備え、
前記光学位置決めカメラは、光学に基づいた位置決めと前記ロボットマニピュレータの間の相対的な運動に起因した姿勢誤差を極小化するべく、前記エンドエフェクタの近傍において取り付けられる、請求項1に記載の方法。 - 前記ロボットマニピュレータは、エンドエフェクタを含み、
前記エンドエフェクタと前記表面の間の相対的な運動を計測するべく、前記表面を観察する光学位置決めカメラを使用することにより、前記エンドエフェクタの3D位置及び向きを計測することを更に備える請求項1に記載の方法。 - 作業環境内において3次元物体上における表面加工を実行するシステムであって、
1つ又は複数のロボットマニピュレータであって、前記ロボットマニピュレータのそれぞれは、表面加工ツール、測距センサ、及び装着された1つ又は複数の表面特性センサを有するエンドエフェクタを含む、前記1つ又は複数のロボットマニピュレータと、
前記1つ又は複数のロボットマニピュレータを制御するコンピュータ実行ソフトウェアと、を備え、
前記コンピュータ実行ソフトウェアは、
表面の現時点の状態を分類するべく、前記表面加工ツールの加工地点の前後における表面特性センサデータを処理する表面特性アナライザと、
前記表面の形状及び前記表面の現時点の状態の保存のための表面モデルと、
状態表面モデル内において保存された前記表面の観察された状態に基づいて前記表面加工ツールによって実施される加工動作のシーケンスを計画する表面プロセスプランナと、
前記測距センサ及び前記1つ又は複数の表面特性センサからのリアルタイムフィードバックに基づいて前記加工動作の計画されたシーケンスを変更する表面プロセスモジュレータと、
前記表面のカバレッジを最大限にさせるべく、前記1つ又は複数のロボットマニピュレータの運動及び姿勢を計画する表面カバレッジプランナと、を含む、システム。 - 前記表面加工ツールは、前記表面から塗装を除去する能力を有するレーザーである、請求項27に記載のシステム。
- 物体との衝突を防止するべく、前記システムを取り囲む物体を検出及び特定する1つ又は複数のセンサを更に備える請求項27に記載のシステム。
- 前記1つ又は複数のロボットマニピュレータは、表面上において運動する能力を有する可動基部上に取り付けられている、請求項27に記載のシステム。
- 前記1つ又は複数のロボットマニピュレータは、レールベース上に取り付けられ、
前記レールベースは、レールに沿って前記1つ又は複数のロボットマニピュレータを運動させる機能を有する、請求項27に記載のシステム。 - 前記測距センサは、スキャニングレーザー距離計、ステレオカメラ、距離カメラ、及び距離キャプチャセンサを有する群から選択される、請求項27に記載のシステム。
- 前記1つ又は複数の表面特性センサは、ビデオカメラと検査センサを有する群から選択される、請求項27に記載のシステム。
- 前記1つ又は複数の表面特性センサによって観察されるエリアを照明するアクティブ照明を更に備える請求項27に記載のシステム。
- 前記コンピュータ実行ソフトウェアは、前記加工動作のシーケンスの変化を実現するべく、ユーザによる前記表面モデルの手作業による編集を許容する、請求項27に記載のシステム。
- 前記表面は、航空機の胴体、翼、及び操縦舵面であり、
前記表面加工は、前記表面からのコーティング層の除去である、請求項27に記載のシステム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201361852310P | 2013-03-15 | 2013-03-15 | |
US61/852,310 | 2013-03-15 | ||
PCT/US2014/030242 WO2014145471A1 (en) | 2013-03-15 | 2014-03-17 | A supervised autonomous robotic system for complex surface inspection and processing |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016522089A JP2016522089A (ja) | 2016-07-28 |
JP6426143B2 true JP6426143B2 (ja) | 2018-11-21 |
Family
ID=51538007
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016503358A Active JP6426143B2 (ja) | 2013-03-15 | 2014-03-17 | 複雑な表面検査及び加工のための制御された自律型ロボットシステムおよびその方法 |
Country Status (11)
Country | Link |
---|---|
US (2) | US9796089B2 (ja) |
EP (1) | EP2973074B1 (ja) |
JP (1) | JP6426143B2 (ja) |
KR (1) | KR102211010B1 (ja) |
CA (1) | CA2904542C (ja) |
DK (1) | DK2973074T3 (ja) |
ES (1) | ES2728861T3 (ja) |
HU (1) | HUE043828T2 (ja) |
SG (1) | SG11201507679RA (ja) |
SI (1) | SI2973074T1 (ja) |
WO (1) | WO2014145471A1 (ja) |
Families Citing this family (99)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11048268B2 (en) * | 2011-08-11 | 2021-06-29 | Chien Ouyang | Mapping and tracking system for robots |
US10787234B2 (en) * | 2014-05-23 | 2020-09-29 | Hegel Industrial Solutions Pty Ltd | Data capture device and system |
US10188029B1 (en) | 2014-10-20 | 2019-01-29 | Hydro-Gear Limited Partnership | Method of generating a three-dimensional map of a lawn and its use to improve mowing efficiency |
US11185985B2 (en) * | 2015-01-05 | 2021-11-30 | Bell Helicopter Textron Inc. | Inspecting components using mobile robotic inspection systems |
KR102356244B1 (ko) * | 2015-01-05 | 2022-01-28 | 현대모비스 주식회사 | 하우징의 핫멜트 도포 장치 및 방법 |
WO2016122416A1 (en) * | 2015-01-30 | 2016-08-04 | Agency for Science,Technology and Research | Mobile manipulator and method of controlling the mobile manipulator for tracking a surface |
US9486921B1 (en) | 2015-03-26 | 2016-11-08 | Google Inc. | Methods and systems for distributing remote assistance to facilitate robotic object manipulation |
US10183732B2 (en) * | 2015-04-09 | 2019-01-22 | University of New Hamphire | Pose detection and control of unmanned underwater vehicles (UUVs) utilizing an optical detector array |
KR101684239B1 (ko) * | 2015-04-24 | 2016-12-09 | 한국기계연구원 | 가공헤드와 공작물의 상대위치 계측 시스템 및 이를 이용한 상대위치 계측 방법 |
US9802317B1 (en) | 2015-04-24 | 2017-10-31 | X Development Llc | Methods and systems for remote perception assistance to facilitate robotic object manipulation |
US9895803B1 (en) | 2015-06-19 | 2018-02-20 | X Development Llc | Calculating trajectory corridor for robot end effector |
CN108137260B (zh) | 2015-10-05 | 2021-02-12 | 南洋理工大学 | 机器人包胶带系统和包胶带的方法 |
US11353326B2 (en) * | 2016-03-06 | 2022-06-07 | Arizona Board Of Regents On Behalf Of The University Of Arizona | Traverse and trajectory optimization and multi-purpose tracking |
TWI588630B (zh) * | 2016-03-08 | 2017-06-21 | 盟立自動化股份有限公司 | 用以沿一生成路徑對一物件進行表面處理之機台 |
US20170280130A1 (en) * | 2016-03-25 | 2017-09-28 | Microsoft Technology Licensing, Llc | 2d video analysis for 3d modeling |
JP2019513501A (ja) * | 2016-04-19 | 2019-05-30 | オ アンド リー メディカル ロボット インコーポレイテッドOh & Lee Medical Robot,Inc. | ロボットアームを用いたレーザーの照射装置及び方法 |
ES2909578T3 (es) * | 2016-05-24 | 2022-05-09 | Divergent Tech Inc | Sistemas y métodos para la fabricación aditiva de estructuras de transporte |
US10753881B2 (en) * | 2016-05-27 | 2020-08-25 | Purdue Research Foundation | Methods and systems for crack detection |
US9817402B1 (en) * | 2016-07-12 | 2017-11-14 | The Boeing Company | Application of factory automation for an airline assembly and build process |
US10078908B2 (en) * | 2016-08-12 | 2018-09-18 | Elite Robotics | Determination of relative positions |
US10427304B2 (en) * | 2016-09-01 | 2019-10-01 | Powerhydrant Llc | Robotic charger alignment |
DE102016122629A1 (de) * | 2016-11-23 | 2018-05-24 | Slcr Lasertechnik Gmbh | Entschichtungsverfahren |
US11307063B2 (en) | 2016-12-23 | 2022-04-19 | Gtc Law Group Pc & Affiliates | Inspection robot for horizontal tube inspection having vertically positionable sensor carriage |
WO2018119450A1 (en) | 2016-12-23 | 2018-06-28 | Gecko Robotics, Inc. | Inspection robot |
KR101803503B1 (ko) * | 2017-02-06 | 2017-11-30 | 주식회사 풍산에프앤에스 | 구조물의 정밀 계측 시스템 및 그 방법 |
US10445873B2 (en) * | 2017-02-23 | 2019-10-15 | The Boeing Company | Automated validation of condition of assembly |
US10954001B2 (en) | 2017-02-23 | 2021-03-23 | The Boeing Company | Hanging clamped supports for aircraft |
US10497110B2 (en) | 2017-02-23 | 2019-12-03 | The Boeing Company | Identifying a pathway for condition of assembly validation |
US10338594B2 (en) * | 2017-03-13 | 2019-07-02 | Nio Usa, Inc. | Navigation of autonomous vehicles to enhance safety under one or more fault conditions |
US11366450B2 (en) * | 2017-03-23 | 2022-06-21 | Abb Schweiz Ag | Robot localization in a workspace via detection of a datum |
US10832471B2 (en) * | 2017-03-27 | 2020-11-10 | Mitsubishi Electric Research Laboratories, Inc. | Fast T-spline fitting system and method |
US10303180B1 (en) * | 2017-04-20 | 2019-05-28 | X Development Llc | Generating and utilizing non-uniform volume measures for voxels in robotics applications |
US10423162B2 (en) | 2017-05-08 | 2019-09-24 | Nio Usa, Inc. | Autonomous vehicle logic to identify permissioned parking relative to multiple classes of restricted parking |
FR3067113B1 (fr) * | 2017-05-30 | 2019-06-28 | Areva Np | Procede de controle de la surface d'une piece par un capteur robotise |
US10625427B2 (en) * | 2017-06-14 | 2020-04-21 | The Boeing Company | Method for controlling location of end effector of robot using location alignment feedback |
US10729055B2 (en) | 2017-06-19 | 2020-08-04 | Cnh Industrial America Llc | System and method for determining swath connections |
US10188021B2 (en) * | 2017-06-19 | 2019-01-29 | Cnh Industrial America Llc | Path planning system for autonomous off-road vehicles |
CN107160402A (zh) * | 2017-06-27 | 2017-09-15 | 华北电力大学(保定) | 一种机械臂移动路径规划系统及方法 |
US10761542B1 (en) | 2017-07-11 | 2020-09-01 | Waymo Llc | Methods and systems for keeping remote assistance operators alert |
US10710633B2 (en) | 2017-07-14 | 2020-07-14 | Nio Usa, Inc. | Control of complex parking maneuvers and autonomous fuel replenishment of driverless vehicles |
US10369974B2 (en) | 2017-07-14 | 2019-08-06 | Nio Usa, Inc. | Control and coordination of driverless fuel replenishment for autonomous vehicles |
KR102027228B1 (ko) * | 2017-07-24 | 2019-11-14 | 최진흥 | 입체 표면 스캔 기술과 레이저를 이용한 친환경 도장층 제거 자동화 시스템 |
US11460304B2 (en) * | 2017-07-27 | 2022-10-04 | Westinghouse Electric Company Llc | Method of locating a remotely operated vehicle within a workspace and remote inspection system employing such method |
CA3074462A1 (en) * | 2017-08-31 | 2019-03-07 | Case Western Reserve University | Systems and methods to apply markings |
CN107607614A (zh) * | 2017-09-18 | 2018-01-19 | 重庆交通大学 | 一种基于涡流加热偏转光谱的钢结构缺陷检测装置及方法 |
US10744539B2 (en) * | 2017-10-27 | 2020-08-18 | The Boeing Company | Optimized-coverage selective laser ablation systems and methods |
DE102017127864A1 (de) * | 2017-11-24 | 2019-05-29 | Actemium Cegelec GmbH | Vorrichtung und Verfahren zum zerstörungsfreien Messen von Bauteilen |
EP3492214B1 (en) * | 2017-12-01 | 2020-09-23 | Shanghai Evertec Robot Technology Co., Ltd. | Automatic car body welding spot inspection and control method |
CN109872390B (zh) * | 2017-12-04 | 2023-04-07 | 星际空间(天津)科技发展有限公司 | 一种海量三维模型的组织方法 |
US11022971B2 (en) | 2018-01-16 | 2021-06-01 | Nio Usa, Inc. | Event data recordation to identify and resolve anomalies associated with control of driverless vehicles |
US10853561B2 (en) * | 2019-04-10 | 2020-12-01 | Fetch Robotics, Inc. | System and method for automatically annotating a map |
WO2019200018A1 (en) | 2018-04-10 | 2019-10-17 | Dymesich David Tanner | Robot management system |
US11084169B2 (en) * | 2018-05-23 | 2021-08-10 | General Electric Company | System and method for controlling a robotic arm |
CN109001702B (zh) * | 2018-06-04 | 2022-05-13 | 桂林电子科技大学 | 无载波超宽带雷达人体动作识别方法 |
WO2020005993A1 (en) | 2018-06-25 | 2020-01-02 | X Development Llc | Robot coordination in a shared workspace |
EP3844432A4 (en) * | 2018-08-30 | 2022-06-15 | Veo Robotics, Inc. | SYSTEMS AND METHODS FOR AUTOMATIC SENSOR ALIGNMENT AND CONFIGURATION |
CN112689752A (zh) | 2018-09-20 | 2021-04-20 | 美国西门子医学诊断股份有限公司 | 用于对基于视觉的检查系统的光学组件进行自主诊断验证的系统、方法和装置 |
US10885721B2 (en) | 2018-09-28 | 2021-01-05 | Jido Inc. | Method for detecting objects and localizing a mobile computing device within an augmented reality experience |
DE102019200482A1 (de) * | 2019-01-16 | 2020-07-16 | Robert Bosch Gmbh | Verfahren und Vorrichtung zum automatisierten Bearbeiten eines Werkstücks mit einer Werkzeugmaschine |
EP3934861A4 (en) | 2019-03-08 | 2022-12-07 | Gecko Robotics, Inc. | INSPECTION ROBOT |
US11248914B2 (en) | 2019-06-20 | 2022-02-15 | Lyft, Inc. | Systems and methods for progressive semantic mapping |
JP7188596B2 (ja) * | 2019-07-19 | 2022-12-13 | 株式会社島津製作所 | 航空機検査支援装置および航空機検査支援方法 |
US20220281120A1 (en) * | 2019-08-02 | 2022-09-08 | Dextrous Robotics, Inc. | Robotic manipulators |
WO2021028672A1 (en) * | 2019-08-09 | 2021-02-18 | Quantum Leap Technologies Limited | Fabric maintenance system and method of use |
US11537127B2 (en) * | 2019-09-12 | 2022-12-27 | Uatc, Llc | Systems and methods for vehicle motion planning based on uncertainty |
KR20210033808A (ko) * | 2019-09-19 | 2021-03-29 | 엘지전자 주식회사 | 아웃도어 영역에서 이종의 위치정보 획득 메커니즘을 적용하는 방법 및 이를 구현하는 로봇과 클라우드 서버 |
US11229494B2 (en) * | 2019-10-24 | 2022-01-25 | Verb Surgical Inc. | Regulating joint space velocity of a surgical robotic arm |
DE202019004451U1 (de) * | 2019-10-30 | 2020-01-07 | Franziska Salehi | Mobile Einrichtung für ein autarkes und automatisiertes System für Photogrammetrie von Objekten mit einer automatisierten Aufnahme und Bildverarbeitungsprozess |
CN110654571B (zh) * | 2019-11-01 | 2023-10-20 | 西安航通测控技术有限责任公司 | 一种飞机蒙皮表面缺陷无损检测机器人系统及方法 |
US11686876B2 (en) | 2020-02-18 | 2023-06-27 | Saudi Arabian Oil Company | Geological core laboratory systems and methods |
JP6713700B1 (ja) * | 2020-03-09 | 2020-06-24 | リンクウィズ株式会社 | 情報処理方法、情報処理システム、プログラム |
CN111240271B (zh) * | 2020-03-10 | 2022-06-07 | 华侨大学 | 一种基于柔性磨粒机械切割的曲面粗加工方法 |
EP3885078A1 (de) * | 2020-03-25 | 2021-09-29 | Siemens Aktiengesellschaft | Hyperspektrale oberflächenabtastung eines körpers |
CN111300431B (zh) * | 2020-03-31 | 2021-04-23 | 山东大学 | 面向跨场景的机器人视觉模仿学习方法及系统 |
US11724387B2 (en) * | 2020-04-03 | 2023-08-15 | Fanuc Corporation | Fast robot motion optimization with distance field |
WO2021207861A1 (es) * | 2020-04-14 | 2021-10-21 | Sk Godelius S.A. | Un sistema y método robótico para la unión de las partes de una estructura usando anclajes como tuercas, pernos, tornillos, tarugos o remaches en diversas estructuras y alturas, de forma autónoma, sin la presencia de personas en el frente de trabajo |
US11548161B2 (en) * | 2020-05-14 | 2023-01-10 | The Boeing Company | Methods of performing a plurality of operations within a region of a part utilizing an end effector of a robot and robots that perform the methods |
WO2021252913A1 (en) * | 2020-06-12 | 2021-12-16 | Sharkninja Operating Llc | Method of surface type detection and robotic cleaner configured to carry out the same |
US11625514B2 (en) * | 2020-08-13 | 2023-04-11 | Jiangsu University | Numerical simulation method of pulsed laser paint removal and use thereof |
US11748942B2 (en) * | 2020-08-13 | 2023-09-05 | Siemens Mobility Pty Ltd | System and method for automatically generating trajectories for laser applications |
US11216005B1 (en) * | 2020-10-06 | 2022-01-04 | Accenture Global Solutions Limited | Generating a point cloud capture plan |
US11743564B2 (en) * | 2020-10-22 | 2023-08-29 | Uatc, Llc | Sensor platform for autonomous vehicles |
US11639914B2 (en) | 2020-12-16 | 2023-05-02 | The Boeing Company | Non-destructive test systems with infrared thermography assemblies and ultrasonic test assemblies, and associated methods |
CN112927334B (zh) * | 2021-02-22 | 2023-06-16 | 中铁二院工程集团有限责任公司 | 一种基于gpu的三维模型快速体素化方法 |
EP4326493A1 (en) | 2021-04-20 | 2024-02-28 | Gecko Robotics, Inc. | Flexible inspection robot |
EP4327047A1 (en) | 2021-04-22 | 2024-02-28 | Gecko Robotics, Inc. | Systems, methods, and apparatus for ultra-sonic inspection of a surface |
CN113376618B (zh) * | 2021-06-22 | 2024-03-01 | 昆明理工大学 | 一种多路侧激光雷达点云配准装置及使用方法 |
CN113506344A (zh) * | 2021-07-07 | 2021-10-15 | 西南科技大学 | 一种核辐射环境机器人高精度三维定位装置及方法 |
CN117677474A (zh) * | 2021-07-21 | 2024-03-08 | 3M创新有限公司 | 用于处理工作表面的系统和方法 |
WO2023002414A1 (en) * | 2021-07-21 | 2023-01-26 | 3M Innovative Properties Company | Systems and methods for processing a worksurface |
CN114179085B (zh) * | 2021-12-16 | 2024-02-06 | 上海景吾智能科技有限公司 | 机器人控制、轨迹衔接与平滑处理的方法及系统 |
CN114280153B (zh) * | 2022-01-12 | 2022-11-18 | 江苏金晟元控制技术有限公司 | 一种复杂曲面工件智能检测机器人及检测方法和应用 |
CN114543666B (zh) * | 2022-01-20 | 2022-11-29 | 大连理工大学 | 一种基于矿场环境感知的堆料面预测方法 |
US20230259104A1 (en) * | 2022-02-17 | 2023-08-17 | The Boeing Company | Systems and methods for laser ablation of a surface |
WO2023205176A1 (en) | 2022-04-18 | 2023-10-26 | Dextrous Robotics, Inc. | System and/or method for grasping objects |
DE102022121770A1 (de) | 2022-08-29 | 2024-02-29 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren zum kontaktlosen Einlesen von Referenzmarken |
CN115338689A (zh) * | 2022-09-29 | 2022-11-15 | 苏州聚视兴华智能装备有限公司 | 一种3d检测引导加工方法 |
CN115716381B (zh) * | 2022-12-08 | 2024-04-09 | 深圳市宝瑞莱珠宝首饰有限公司 | 一种提高饰品强度的黄金与珐琅结合加工工艺 |
CN116183488B (zh) * | 2022-12-13 | 2023-09-15 | 川易机电设备启东有限公司 | 一种基于图像分析的压力管道缺陷检测系统及方法 |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO1991014539A1 (en) * | 1990-03-27 | 1991-10-03 | Southwest Research Institute | Robotic system for paint removal |
US5281798A (en) * | 1991-12-24 | 1994-01-25 | Maxwell Laboratories, Inc. | Method and system for selective removal of material coating from a substrate using a flashlamp |
US5429682A (en) * | 1993-08-19 | 1995-07-04 | Advanced Robotics Technologies | Automated three-dimensional precision coatings application apparatus |
KR970704554A (ko) * | 1995-05-19 | 1997-09-06 | 스위아토카 죤 | 가동 로봇 시스템(mobile robote system) |
JPH10305376A (ja) * | 1997-05-12 | 1998-11-17 | Sumitomo Heavy Ind Ltd | レーザ処理装置と塗装除去方法 |
AU7420498A (en) | 1997-05-13 | 1998-12-08 | Cae Electronics Ltd. | Enabling process control technology for automated dry media depaint system |
JPH11338532A (ja) * | 1998-05-22 | 1999-12-10 | Hitachi Ltd | 教示装置 |
US6201546B1 (en) | 1998-05-29 | 2001-03-13 | Point Cloud, Inc. | Systems and methods for generating three dimensional, textured models |
JP3457651B2 (ja) * | 2001-06-05 | 2003-10-20 | 大阪機工株式会社 | 作業用ロボット |
US20060192949A1 (en) * | 2004-12-19 | 2006-08-31 | Bills Richard E | System and method for inspecting a workpiece surface by analyzing scattered light in a back quartersphere region above the workpiece |
US7860301B2 (en) | 2005-02-11 | 2010-12-28 | Macdonald Dettwiler And Associates Inc. | 3D imaging system |
US20060212150A1 (en) * | 2005-02-18 | 2006-09-21 | Sims William Jr | Method of providing 3D models |
US9403099B2 (en) * | 2008-05-21 | 2016-08-02 | Disney Enterprise, Inc. | Modeling skin-covered robotics devices including artistic digital iterative design processes |
KR100974543B1 (ko) * | 2008-06-09 | 2010-08-11 | 삼성중공업 주식회사 | 도장 시뮬레이션 시스템 및 방법과 이를 위한 기록매체 |
EP2363772B1 (en) * | 2010-03-05 | 2017-05-31 | FIDIA S.p.A. | Method for moving a tool of a CNC machine over a surface |
-
2014
- 2014-03-17 SG SG11201507679RA patent/SG11201507679RA/en unknown
- 2014-03-17 US US14/774,731 patent/US9796089B2/en active Active
- 2014-03-17 KR KR1020157029778A patent/KR102211010B1/ko active IP Right Grant
- 2014-03-17 ES ES14763890T patent/ES2728861T3/es active Active
- 2014-03-17 CA CA2904542A patent/CA2904542C/en active Active
- 2014-03-17 SI SI201431220T patent/SI2973074T1/sl unknown
- 2014-03-17 EP EP14763890.2A patent/EP2973074B1/en active Active
- 2014-03-17 DK DK14763890.2T patent/DK2973074T3/da active
- 2014-03-17 JP JP2016503358A patent/JP6426143B2/ja active Active
- 2014-03-17 WO PCT/US2014/030242 patent/WO2014145471A1/en active Application Filing
- 2014-03-17 HU HUE14763890A patent/HUE043828T2/hu unknown
-
2017
- 2017-04-25 US US15/496,209 patent/US20170297198A1/en not_active Abandoned
Also Published As
Publication number | Publication date |
---|---|
US20160016312A1 (en) | 2016-01-21 |
CA2904542C (en) | 2017-05-16 |
ES2728861T3 (es) | 2019-10-29 |
KR20160014585A (ko) | 2016-02-11 |
HUE043828T2 (hu) | 2019-09-30 |
EP2973074B1 (en) | 2019-04-24 |
US9796089B2 (en) | 2017-10-24 |
EP2973074A1 (en) | 2016-01-20 |
JP2016522089A (ja) | 2016-07-28 |
US20170297198A1 (en) | 2017-10-19 |
DK2973074T3 (da) | 2019-06-03 |
CA2904542A1 (en) | 2014-09-18 |
KR102211010B1 (ko) | 2021-02-02 |
SI2973074T1 (sl) | 2019-08-30 |
WO2014145471A1 (en) | 2014-09-18 |
EP2973074A4 (en) | 2016-11-16 |
SG11201507679RA (en) | 2015-10-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6426143B2 (ja) | 複雑な表面検査及び加工のための制御された自律型ロボットシステムおよびその方法 | |
CN111897332B (zh) | 一种语义智能变电站机器人仿人巡视作业方法及系统 | |
Xu et al. | Omni-swarm: A decentralized omnidirectional visual–inertial–uwb state estimation system for aerial swarms | |
EP3612906B1 (en) | Method and system for environment map generation and alignment | |
Schuster et al. | Towards autonomous planetary exploration: The Lightweight Rover Unit (LRU), its success in the SpaceBotCamp challenge, and beyond | |
CN111656296B (zh) | 用于机器人自主运动规划和导航的系统和方法 | |
Kim et al. | UAV-UGV cooperative 3D environmental mapping | |
Cacace et al. | Aerial service vehicles for industrial inspection: task decomposition and plan execution | |
CN112789672A (zh) | 控制和导航系统、姿态优化、映射和定位技术 | |
EP4088884A1 (en) | Method of acquiring sensor data on a construction site, construction robot system, computer program product, and training method | |
Fankhauser | Perceptive locomotion for legged robots in rough terrain | |
Kim et al. | As-is geometric data collection and 3D visualization through the collaboration between UAV and UGV | |
GB2580690A (en) | Mapping an environment using a state of a robotic device | |
Jing | Coverage planning for robotic vision applications in complex 3d environment | |
Cacace et al. | Aerial service vehicles for industrial inspection: Task decomposition and plan execution | |
US11865724B2 (en) | Movement control method, mobile machine and non-transitory computer readable storage medium | |
Pol et al. | Autonomous Differential Drive Mobile Robot Navigation with SLAM, AMCL using ROS | |
Adolf et al. | An unmanned helicopter for autonomous flights in urban terrain | |
Ryu | Autonomous robotic strategies for urban search and rescue | |
Ratanasawanya | Flexible Vision-Based Control of Rotorcraft-The Case Studies: 2DOF Helicopter and 6DOF Quadrotor | |
Pieters | Direct methods for vision-based robot control: Application and implementation | |
Pei-Hua et al. | Associative-memory-recall-based control system for learning hovering manoeuvres | |
Helmich et al. | Automatic Ground-Truth Image Labeling for Deep Neural Network Training and Evaluation Using Industrial Robotics and Motion Capture | |
Brezak | Localization, motion planning and control of mobile robots in intelligent spaces | |
Punpaisarn et al. | Reviews of Vision-Based Servoing Control Techniques for Mobile Robots |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170221 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20170221 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170315 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180327 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180418 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20181002 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181024 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6426143 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |