JP2021529391A - 拡張現実を使用した操作上の境界ゾーンの視覚化と変更 - Google Patents

拡張現実を使用した操作上の境界ゾーンの視覚化と変更 Download PDF

Info

Publication number
JP2021529391A
JP2021529391A JP2020572694A JP2020572694A JP2021529391A JP 2021529391 A JP2021529391 A JP 2021529391A JP 2020572694 A JP2020572694 A JP 2020572694A JP 2020572694 A JP2020572694 A JP 2020572694A JP 2021529391 A JP2021529391 A JP 2021529391A
Authority
JP
Japan
Prior art keywords
zone
robot
machine
operating
interference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020572694A
Other languages
English (en)
Other versions
JP7419271B2 (ja
Inventor
ジャング デレク
コールドレン ブルース
ヨン−ソン イ サム
ケセルマン レオ
ダブリュ.クラウス ケネス
Original Assignee
ファナック アメリカ コーポレイション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ファナック アメリカ コーポレイション filed Critical ファナック アメリカ コーポレイション
Publication of JP2021529391A publication Critical patent/JP2021529391A/ja
Application granted granted Critical
Publication of JP7419271B2 publication Critical patent/JP7419271B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1661Programme controls characterised by programming, planning systems for manipulators characterised by task planning, object-oriented languages
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/35Nc in input of data, input till input file format
    • G05B2219/35506Camera images overlayed with graphics, model
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/36Nc in input of data, input key till input tape
    • G05B2219/36167Use camera of handheld device, pda, pendant, head mounted display
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39443Portable, adapted to handpalm, with joystick, function keys, display
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39449Pendant, pda displaying camera images overlayed with graphics, augmented reality
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39451Augmented reality for robot programming
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40202Human robot coexistence
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40317For collision avoidance and detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • Manipulator (AREA)
  • Numerical Control (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

ロボットの操作ゾーンを視覚化して変更するための拡張現実(AR)システム。このシステムは、ロボット制御装置と通信するヘッドセットなどのAR装置を備える。AR装置は、操作ゾーンのAR表示と変更のためのソフトウェアを備える。AR装置は、視覚的マーカの検出を介してロボット座標系に登録される。AR装置は、ロボットと既存の固定具の実世界の画像に重ね合わされた操作ゾーンを表示する。この表示は、ユーザがロボットの作業セル周りを移動すると、更新される。仮想操作ゾーン上の制御点が表示され、ユーザは操作ゾーンの形状を再形成することができる。ロボットはARセッション中に操作されて、ロボットのプログラムされた動作を実行し、操作ゾーンを評価することができる。ゾーン侵害をARディスプレイにて強調表示する。ゾーンの画定が完了すると、完成した操作ゾーンがロボット制御装置にアップロードされる。

Description

[関連出願の相互参照]
この出願は、2018年6月26日出願の「拡張現実での二重検査安全ゾーンの視覚化と変更」と題する米国仮特許出願第62/690,125号の優先日の利益を主張する。
本発明は、ロボット操作ゾーンの確立の分野、さらに具体的には、拡張現実表示装置を使用して、実世界の光景に重ね合わされたコンピュータグラフィックスを使用してゾーンが表示されて操作される安全ゾーンなどのロボット操作ゾーン及び境界を視覚化して変更するシステムに関する。図形処理は、装置/ユーザの位置が追跡されるのに伴い継続的に更新され、実世界の物体全体にわたるゾーンの重なり合いが自動的に発生する。
産業用ロボットとは、非常に複雑な機械であり、多数のさまざまな機能を正確かつ確実に実行することができる。ロボットの設置/用途に精通している人には、ロボットの許可された空間移動又は禁止された空間移動を規定する操作ゾーンを画定することが知られている。操作ゾーンは、ロボットの操作が禁止されている安全ゾーン、人間の操作者の存在などの特定の条件下でロボットの操作が禁止されている条件付き安全ゾーン、ロボットが常に留まっている必要のあるゾーンである許容ゾーン、関節位置の妥当性を監視する関節位置検査ゾーン及び干渉検査ゾーンをはじめ、さまざまなゾーンとして使用される。しかし、以前の手法を使用してロボット及びマルチロボットシステムの操作ゾーンを確立することは困難であり、時間がかかる。
既存のシステムでは、操作ゾーンと境界を設定して視覚化することが困難であり、操作ゾーンの編集は完全にメニュー方式であって複雑である。さらに、「4D視覚化」システムでは、物体のコンピュータによる物体モデルが取り込まれない限り、操作ゾーンと実際の物体との重なりを表示することができない。さらに、操作ゾーンの境界を変更するたびに、操作ゾーンを評価するためにロボット制御装置を再起動する必要があるため、ゾーンを最適化するための変更には非常に時間がかかる。
上記の状況に照らして、ロボットの操作ゾーンを視覚化して変更するための双方向拡張現実(AR)ツールを提供することが望まれる。
本開示の教示に従って、ロボットの操作ゾーンを視覚化して変更するための拡張現実システムを開示する。開示したシステムは、ロボット制御装置と通信するヘッドセットなどの拡張現実(AR)装置を備える。AR装置は、操作ゾーンのAR表示及び変更のためのソフトウェアを実行するプロセッサを備える。AR装置は、ロボット制御装置との通信を確立し、任意の既存の操作ゾーンをダウンロードした後、視覚的マーカの検出又は他の技術を介してロボット世界座標系に登録される。次に、AR装置及びソフトウェアは、ロボット及び任意の既存の固定具の実世界の画像に重ね合わされた操作ゾーンを表示する。表示は、ユーザがAR装置を用いてロボットの作業セル周りを移動すると、更新される。仮想操作ゾーンの制御点が表示され、ユーザは、制御点を移動させて、操作ゾーンの大きさを変更し、形状を変更することができる。ロボットは、ロボットのプログラムされた動きを実行し、操作ゾーンを評価するなどARセッション中に操作することができる。任意のゾーン侵害を、色の変更などによってARディスプレイにて強調表示する。ゾーンの画定が完了すると、完成した操作ゾーンは、ロボット制御装置にアップロードされ、ロボットの生産作業で使用される。
現在開示している装置の追加の特徴が、添付の図面と併せて、以下の説明及び添付の特許請求の範囲から明らかになるであろう。
産業用ロボット、人間の操作者及び操作者を保護するための安全ゾーンとして確立された操作ゾーンを示す図。 架台上に位置づけられたワークピース上で動作する産業用ロボットを示し、ロボットの個々の部品周りに画定された干渉検査ゾーンを示す図。 ロボットの個々の部品周りに画定された干渉検査ゾーンを備え、許容ゾーン内で動作する産業用ロボットを示す図。 干渉検査ゾーンのうちの1つが、許容ゾーンの境界を侵害した同一のロボットを示す図。 回転関節に対して画定された関節位置検査ゾーン及びゾーン制限内の関節位置を備える産業用ロボットを示す図。 関節位置検査ゾーン制限を超えた同一のロボットを示す図。 並進関節に対して画定された関節位置検査ゾーン及びゾーン制限内の関節位置を備える産業用ロボットを示す図。 関節位置検査ゾーン制限を超えた同一のロボットを示す図。 本開示の一実施形態による、拡張現実を使用してロボット操作ゾーンを視覚化して変更するシステムを示す図。 本開示の実施形態による、図6のシステムを採用し、拡張現実を使用してロボット操作ゾーンを視覚化して変更する方法の例示されたフローチャートを示す図。
拡張現実を使用してロボット操作ゾーンを視覚化して変更する方法及びシステムに向けられた本開示の実施形態に関する以下の考察は、本質的に例示にすぎず、開示された装置及び技術又はその用途又は使用を制限することを意図するものでは決してない。
産業用ロボットのユーザコミュニティでは、安全ゾーンをはじめ、ロボットの動きに関連するタイプの空間ゾーン(ロボットの侵入が禁止されているゾーンなど)を画定することが知られている。このような安全ゾーン及び他のタイプのゾーンは、本明細書では一括して操作ゾーンと呼ばれる。
操作ゾーンは、産業用ロボット及び他のタイプの機械の動きの境界を確立するために一般に使用される。以下の考察及び対応する図全体を通して、操作ゾーンは産業用ロボットの文脈で説明して表示する。しかし、開示したシステム及び方法は、ロボットだけでなく、干渉、衝突及び操作者の安全性が懸念される可能性がある空間的安全運行範囲を移動する任意の他のタイプの機械にも適用可能である。
許可された可動領域又は禁止された可動領域を規定する3次元(3D)体積、ロボットアームをはじめとする部材周りに空間バッファを確立する干渉検査ゾーン、ロボットの関節位置を監視する関節位置検査ゾーンなど、多数のさまざまなタイプの操作ゾーンを確立してもよい。ロボットのその作業空間での生産作業を実施する前に、操作ゾーンが確立され、次に、ロボットの速度及び位置がこのようなゾーンに対して継続的に検査され、ロボットが画定されたゾーンの境界を常に尊重していることを確認する。
図1は、産業用ロボット100、人間の操作者102及び操作者102の保護のための安全ゾーンとして確立された操作ゾーン110を示す図である。テーブル104が、ロボット100による操作のためにワークピースを載置することができる架台又は基盤として機能する。図1に示すような操作ゾーン110は、左右対称の六面体の形状を有するが、操作ゾーン110は、非対称性、非平面、円筒形及び球形の体積などをはじめとする任意の形状を有することがあり得る。図1に示す操作ゾーン110は、テーブル104の真上にロボット100の禁止された空間を画定する安全ゾーンである。さらに、ゾーン110は条件付き安全ゾーンである。これは、フロアパッド(操作者102がフロアパッド上に起立しているときに体重を検出する)又はセンサ(光線の遮断を検出する光学センサなど)によって示され得るように、操作者102がテーブル104に隣接して存在する場合にのみ、ゾーン110がロボットの侵入を禁止することを意味する。このため、操作ゾーン110は、操作者102がテーブル104に隣接して存在しない場合にロボット100がゾーン110に入ることができ、操作者102がテーブル104に隣接して存在する場合にロボット100がゾーン110に入ることが禁止されるように定義される。
図1の操作ゾーン110は、操作ゾーンのタイプの一例にすぎない。他のタイプの操作ゾーンについては、図2〜図5に関連して考察する。本開示のAR技術を使用する操作ゾーンの視覚化及び変更については、後に考察する。
図2は、架台204上に位置づけられたワークピース202上で動作する産業用ロボット200を示し、ロボット200の個々の部品周りに画定された干渉検査ゾーンを示す図である。干渉検査ゾーン210、212、214、216及び218がそれぞれ、ロボット基部、股関節、内側アーム、肘関節及び外側アーム周りに画定される。干渉検査ゾーン210−218は、ロボット200の物理的部品を取り囲み、その周囲にバッファを提供する「気泡」として画定される。ロボットが関節運動すると、各干渉検査ゾーンが、その対応する部品とともに移動する。例えば、ゾーン218は、ロボットの外側アームと共に移動する。次に、干渉検査ゾーン210−218は、生産ロボットの操作中に監視され、ゾーン210−218が、架台204などの作業セル内の任意の他の物体と干渉しないことを確実なものにする。干渉が差し迫っている場合には、物理的な衝突を防ぐために、ロボットの動きを遅くするか停止することがある。
好ましい実施形態では、干渉検査ゾーン210−218は、図2に示すように、回転楕円体、楕円体又は「カプセル」形状(半球形の端部を有する円柱)などの形状を有する。このような形状は、物理的部品周りにバッファを提供しながら、特定のロボットアーム又は関節を囲むのに便利である一方、画定が簡単であり(パラメータの数が最小限)、ロボットの実時間動作中に計算するのも簡単である。このほか、干渉検査ゾーン210−218には、プリズム形状(三角形又は長方形の断面を有する棒体など)をはじめとする他の形状を使用してもよい。
図3Aは、ロボットの各アーム周りに画定された干渉検査ゾーンを備え、許容ゾーン内で動作する産業用ロボット300を示す図である。干渉検査ゾーン310、312、314、316及び318が、図2を参照してこれまでに考察した方法で、ロボット300の個々の部品に対応して画定される。図3Aではこのほか、許容ゾーン320が画定される。この例では概ね立方体の形状である許容ゾーン320は、ロボット300が留まらなければならない操作空間を画定する一種の操作ゾーンである。
図3Aでは、干渉検査ゾーン310−318はいずれも、許容ゾーン320の体積内に位置決めされる。即ち、ロボット300の現在の位置では、干渉検査ゾーン310−318のうち、許容ゾーン320の外壁のいずれかと交差するものはない。干渉検査ゾーン310−318及び許容ゾーン320が画定された状態で、ロボット300は、そのプログラムされた動作及び識別された任意の潜在的な干渉状態を通して関節運動することができる。本開示の好ましい実施形態では、実際のロボット300は、干渉検査ゾーン310−318及び許容ゾーン320が数学的に評価され、結果が拡張現実システムを使用して表示される間、そのプログラムされた操作を通じて物理的に移動する。しかし、ロボット300、干渉検査ゾーン310−318及び許容ゾーン320の動きをシミュレートすることも可能である。
図3Bは、干渉検査ゾーンのうちの1つが許容ゾーン320の境界を侵害したロボット300を示す図である。図3Bでは、ロボット300は、参照番号330によって示すように、(手首及びツールを表す)干渉検査ゾーン318が許容ゾーン320の外壁と交差するように、その基部上で回転している。330での干渉状態は、好ましくは、干渉検査ゾーン318及び/又は許容ゾーン320の色を変更することによって、あるいは干渉状態の近傍の局所的な視覚インジケータによって、あるいはここに挙げたものの組み合わせによって強調される。図3Bのように干渉状態が識別された場合、ユーザは、干渉を防ぐためにロボット300の動きを再プログラミングすることによって、あるいは許容ゾーン320の大きさを拡大することによって応答してもよい。許容ゾーン320の大きさがソフトウェアシミュレーションで拡大される場合、対応する変更が、例えば、安全柵が後退する可能性を否定できない物理的作業セルにて必要となる可能性がある。いずれの場合も、干渉検査ゾーンの画定、視覚化、許容ゾーンとの相互作用を図3A及び図3Bに示す。
図4Aは、回転関節420に対して画定された関節位置検査ゾーン410を備えた産業用ロボット400及びゾーン制限内の関節位置を示す図である。関節位置検査ゾーン410は、本開示の技術を使用して作成され、視覚化され、変更され得る別のタイプの操作ゾーンである。関節位置検査ゾーン410は、回転関節420の許容角度範囲を画定する。この回転関節は、ロボット400の肘で外側アーム部品の回転を提供する関節である。例えば、回転関節420は、「ホーム」位置(図4Aの垂直方向)から+/−88度の許容可能な角運動を有してもよい。
回転関節420の許容可動範囲は、例えば、電気ケーブルのもつれ又は捻れを防止するために、あるいは関節自体の物理的設計に基づいて制限されてもよい。いずれの場合も、関節位置検査ゾーン410は、回転関節420の許容可動範囲に対応するように画定される。図4Aでは、関節位置検査ゾーン410は、指針412によって示すように、その範囲の中心近くにある。関節位置検査ゾーン410の許容可能な状態はこのほか、ゾーン410を指定する扇形の緑色によって示されてもよい。
図4Bは、関節位置検査ゾーン410がその制限を超えたロボット400を示す図である。図4Bでは、ロボット400は、回転関節420の極端な動きが要求される溶接又は他の操作を実施しようと試みていてもよい。関節位置検査ゾーン410の視覚化により、ユーザは、関節420がその回転制限を超えたことを容易に判定することができる。これは、指針412によって示されるほか、例えば、扇形が赤色に変化することによって示されてもよい。そのような制限の逸脱に対応して、関節制限自体を拡張することができない場合、回転関節420の運動制限を超えずに必要な操作を実施することができるようにする別のロボットプログラムを定義しなければならない。
図5Aは、並進関節520に対して画定された関節位置検査ゾーン510を備えた産業用ロボット500及びゾーン制限内の関節位置を示す図である。関節位置検査ゾーン510は、本開示の技術を使用して作成され、視覚化され、変更され得る別のタイプの操作ゾーンである。関節位置検査ゾーン510は、並進関節520の許容線形範囲を画定する。この並進関節は、ロボット500などのいくつかのロボットにて使用される特殊なタイプの関節である。例えば、並進関節520は、(図5Aに示すように)「ホーム」位置から+/−500mmの許容直線運動を有してもよい。
並進関節520の許容可動範囲は、例えば、重量又は曲げモーメントの制限に基づくものであっても、関節自体の物理的設計に基づくものであってもよい。いずれの場合も、関節位置検査ゾーン510は、並進関節520の許容可動範囲に対応するように画定される。図5Aでは、図示のように、関節位置検査ゾーン510は、その範囲の中心近くにある。関節位置検査ゾーン510の許容可能な状態はこのほか、ゾーン510を指定する棒体の緑色によって示されてもよい。
図5Bは、関節位置検査ゾーン510がその制限を超えたロボット500を示す図である。図5Bでは、ロボット500は、並進関節520の極端な動きが要求される場所に部品を延伸しようと試みていてもよい。関節位置検査ゾーン510の視覚化により、ユーザは、関節520がその並進制限を超えたことを容易に判定することができる。これは、例えば、棒体が赤色に変わることによって示されてもよい。そのような制限侵害に対応して、関節制限自体を拡張することができない場合、並進関節520の運動制限を超えることなく必要な操作を実施することができるようにする別のロボットプログラムを定義しなければならない。
上記で考察した図1−図5は、ロボットの運動制御にて使用され得るいくつかの異なるタイプの操作ゾーンを示す。このようなタイプのゾーンは、個別に、図3A及び図3Bに示すような組み合わせ、あるいは複数のタイプのゾーンの追加の組み合わせにて使用されてもよい。操作ゾーンのタイプ、その形状又はその意図された目的(例えば、許可又は禁止)に関係なく、操作ゾーンの空間画定と視覚化は、ユーザにとって便利で直感的である必要がある。即ち、全てのタイプの操作ゾーンの画定、視覚化及び変更が容易である必要がある。
教示ペンダントのテキストメニューを使用して操作ゾーンを伝統的に設定し、次に、「4Dディスプレイ」(ロボットの3Dと運動)を使用して操作ゾーンを表示することができる。4Dディスプレイには、作業セルの他の実世界の物体(架台及び固定具など)が描かれていないことが多いため、操作ゾーンをこのような物体に適用するときに正しく視覚化するのは難しいことがある。さらに、教示ペンダント上のメニューを使用することにより、3D体積の幾何学的形状を画定することは、直感的でなく、不便で、誤りが発生しやすいことがよくある。
しかし、拡張現実(AR)ディスプレイが、ロボット及び部品、ツール及び固定具をはじめとする実世界の物体の画像に重ね合わされた、このような操作ゾーンを視覚化して操作する直感的な方法を提供する。さらに、ARのゾーンを編集すると、ユーザは、メニューを使用するよりもはるかに簡単に、実際の作業セルに基づいたゾーンを調整したり、新たなゾーンを作成したりすることができる。これは、現在開示されている技術の基礎である。
図6は、本開示の一実施形態による、拡張現実を使用してロボット操作ゾーンを視覚化して変更するためのシステム600を示す図である。システム600は、ロボット610、拡張現実(AR)装置620及びロボット制御装置630を備える。当業者には理解されるであろうように、ロボット制御装置630は、典型的にはケーブル632を介して、ロボット610と双方向通信している。AR装置620は、好ましくは、WiFi、Bluetooth(登録商標)又は他の無線通信手段などの無線通信を介して、ロボット制御装置630と双方向通信している。AR装置620は、好ましくは、ユーザ612が着用可能なヘッドセットであり、ヘッドセットは、プロセッサと、慣性センサと、カメラと、実世界の物体のユーザ視界の上にコンピュータ生成の3D画像を重ね合わせるゴーグルとを備える。AR装置620がヘッドセットである場合、装置620は、メニューコマンド及び入力データを入力するための別個のキーボード又はタッチスクリーンユニットをさらに備えてもよい。AR装置620はこのほか、携帯電話、タブレット装置又はロボット教示ペンダントなどの手持ち式装置であってもよい。この場合、装置620は、必要な通信システムに加えて、プロセッサ、慣性センサ、カメラ及び表示画面を更に備える。
図6では、ユーザ612は、テーブル614の上方の空間に操作ゾーン640を作成し、視覚化し、変更している。ユーザ612が立っている実世界の物理的作業セルは、(制御装置630に接続された)ロボット610及びテーブル614を備える。操作ゾーン640は、ソフトウェアにのみ存在する仮想実体である。AR装置620は、そのプロセッサ上で実行されているARゾーンソフトウェアと共に構成される。装置620上のARゾーンソフトウェアは、ロボット制御装置630と(好ましくは無線で)通信し、ここで、AR装置620は、操作ゾーンの定義及び変更を制御装置630に提供し、制御装置630は、ロボット位置をはじめとする情報をAR装置620に提供する。
操作ゾーン640は、複数の制御点642を特徴とする。ゾーン640などの六面体操作ゾーンの場合、制御点642は、頂点又は隅点ごとに位置づけられてもよい。六面体、回転楕円体、円筒形、ピラミッド型など、さまざまな操作ゾーン形状テンプレートがARゾーンソフトウェアに提供されてもよい。それぞれの異なるゾーン形状テンプレートには、異なる数とタイプの制御点が含まれることになる。例えば、球形の操作ゾーンを、中心点及び半径によって画定してもよく、追加の制御点を、球形を異なる方向に延伸するために使用してもよい。同じように、円柱の端の形状を画定するために追加の制御点又はパラメータを利用可能である状態で、円柱ゾーンを2つの端点と半径によって画定してもよい。さらに、制御点をさらに介して、半径などのパラメータを定義してもよい。ARゾーンソフトウェアでは、各操作ゾーンは(禁止された安全ゾーンなどの)1つのタイプであり、必要に応じてロボット部品と連動するように指定されている。
システム600は、ユーザ612がロボット制御装置630から既存の操作ゾーンを読み出し、AR装置620上で実行されるARゾーンソフトウェアに新たな操作ゾーンを作成し、作業セル内の実世界の物理的部材の画像に重ね合わされた仮想操作ゾーンを視覚化することを可能にする。これには、ユーザ612が歩き回って操作ゾーン及び物理的部材を異なる視点から見ることを可能にし、必要に応じて制御点を移動することによって操作ゾーンを変更し、予め定義されたロボット動作プログラムの実行を含むロボット610を操作し、新規の操作ゾーン又は変更された操作ゾーンをロボット制御装置630にゆだねることを可能にすることが含まれる。
ARゾーンソフトウェアは、ヘッドセット装置又はタブレット装置のどちらで実行されている場合でも、新たな操作ゾーンの作成、ゾーンの変更など、いくつかの主要な機能をユーザに提供する。このような機能の一部では、メニューからオプションを選択する必要があるため、ARゾーンソフトウェアにはメニュー表示及び選択機能が含まれる。AR装置620がヘッドセット装置である場合、制御点642の変更が、好ましくは、制御点642の1つに触れるか把持し、それを空間内の所望の方向に動かすなどのユーザの身ぶりを介して達成される。タブレット装置又は教示ペンダントでは、制御点の変更が、特定の制御点642の画面上の選択と、指定された方向への指定された量による制御点642のメニューボタンに基づく移動とを介して達成されてもよい。
干渉検査ゾーンを作成するために、ARゾーンソフトウェアは、ユーザの利便性と生産性を考慮して設計された機能を備える。ロボット制御装置630(ひいてはAR装置620)は、全関節中心の位置を含めて、ロボット610の姿勢を常に把握しているため、関節中心は、干渉検査ゾーンの作成に使用することができる。例えば、球形の干渉検査ゾーンを、関節J2を中心として、半径のみを定義する必要がある状態で画定するか、あるいは円筒形の干渉検査ゾーンを、関節J2から関節J3まで軸を延伸し、半径のみを画定する必要がある状態で画定することができる。制御点のAR対応の変更とともに、便利な操作ゾーンの作成のためにこのような機能を使用すると、ユーザ612は、任意の用途の必要に応じて操作ゾーンを簡単に構成することができる。
図3A及び図3Bに関連してこれまでに考察したように、干渉検査ゾーンを、許容ゾーン及び/又は禁止ゾーンなどの他の操作ゾーンと組み合わせて使用してもよい。このタイプの環境では、ロボット610を、そのプログラムされた動作を介して操作し、干渉を検査することが望ましい。このような干渉検査を実施するためのさまざまな状況について、以下で考察する。
干渉が、干渉検査ゾーンと禁止ゾーンとの間などの2つの仮想操作ゾーン間で発生する可能性がある。この状況では、AR装置620上のARゾーンソフトウェアは、ロボット610がそのプログラムされた動作を介して移動するときに、実時間で干渉検査を実施することができる。発生した干渉のいずれも、ロボットの動きを停止したり、ゾーンの色を変更したり、干渉の場所を視覚的に強調したりするなど、ARゾーンソフトウェアによって強調表示することができる。操作ゾーンがロボット制御装置630と通信していた場合、制御装置630はこのほか、ロボットがそのプログラムされた動作を介して移動するときに、ゾーン間の干渉検査を実施することができる。
干渉がこのほか、干渉検査ゾーンとテーブル614との間など、仮想操作ゾーンと物理的部材との間で発生する可能性がある。この状況では、干渉は、ロボットが作業セル周りを歩行するなど、移動するときに干渉検査ゾーンを監視し、ロボット610及び操作ゾーンをさまざまな視点から見ることによって、ユーザ612が検出してもよい。この方法で干渉が検出された場合、ユーザ612は、ロボットの動作を再プログラミングする、あるいは作業セル内の異なる場所に部材を移動するなど、干渉を解決するための適切なステップを実施することができる。
AR装置620上のARゾーンソフトウェアが実世界の部材に重ね合わされた仮想操作ゾーンを適切に表示するために、ARゾーンソフトウェアは、AR装置620の位置及び向きを常に把握している必要がある。これは、AR装置620に搭載されたカメラ及び慣性センサ(加速度計及びジャイロ)を介して達成される。ここで、既知の実体(既知の大きさ、デザイン及び向きの視覚的マーカ)の1つ又は複数のカメラ画像を使用して、AR装置620の初期位置/向きを確立し、その後、慣性測定値と組み合わせたカメラ画像を視覚的/慣性推測航法計算で使用する。このような視覚的/慣性推測航法技術は当技術分野で知られており、以下でさらに考察する。
図7は、本開示の一実施形態による、図6のシステム600を採用し、拡張現実を使用してロボット操作ゾーンを視覚化して変更するための方法を示すフローチャート図700である。ボックス702にて、AR装置620は、これまで考察したように、無線通信チャネルを介してロボット制御装置630との通信を確立する。ロボット制御装置630は、ロボット610を包含する特定の作業セルに対して画定された1つ又は複数の操作ゾーンをすでに有していてもよい。そのようないかなる操作ゾーンが存在する場合も、操作ゾーンはロボット制御装置630からボックス704でAR装置620にダウンロードされる。既存の操作ゾーンを利用することができない場合、ユーザは1つ又は複数の新たな操作ゾーンを作成し、変更し、視覚化する過程に進むことができる。
ボックス706にて、ユーザは、AR装置620上でARゾーンソフトウェアアプリケーション(アプリ)を起動する。ボックス708にて、AR装置620の位置及び向きは、ロボット610の作業セル内の単なる固定座標系である「世界空間」に登録される。作業セル座標系はロボット制御装置630に把握されており、作業セル座標系でのロボット関節位置及びツール中心位置が、ロボット610の全位置構成について把握されている。AR装置620内のカメラを視覚的マーカ618に向けることによって、AR装置620を作業セル座標系に登録し、その結果、マーカ618の複数の画像がAR装置620によって捕捉される。実際には、これは、マーカ618がAR装置620のディスプレイに現れるように、AR装置620のカメラをマーカ618に向けることによって達成される。AR装置620の自然な動き(AR装置を人が保持するか着用していることによる自然な動き)が、(ロボット制御装置630及びARゾーンソフトウェアに把握されているパターン及び位置を有する)マーカ618の後続の画像をわずかに異なる視点から提供し、これにより、ARゾーンソフトウェアは、作業セル座標系に対するAR装置620の位置及び向きを判定することができる。視覚的マーカ618の画像化のほか、AR装置620を作業セル座標系に登録する他の方法を、当業者には明らかであろうように使用してもよい。
AR装置620の位置及び向きが作業セル座標系に登録された後、慣性及び視覚走行距離計測法をARゾーンソフトウェアが使用して、作業セル座標系に対するAR装置620の位置及び向きを継続的に追跡する。この技術では、AR装置620のプロセッサは、装置620に搭載された加速度計及びジャイロから信号を受信し、加速度信号及びヨーレート信号の統合に基づいて、装置620の更新された位置及び向きを継続的に計算する。位置及び向きは、マーカ618又は既知の位置に存在する他の認識可能な部材の画像など、装置620上のカメラからの画像に基づいて検査され修正される。
ボックス710にて、ARゾーンソフトウェアは、現実世界の部材の画像に重ね合わされた任意の操作ゾーン(ゾーン640など)をAR装置620上に表示する。操作ゾーンは仮想である。即ち、ARゾーンソフトウェアには存在するが、物理的には存在しない。作業セル内のロボット610、テーブル614及び任意の他の物理的部材は、AR装置620のカメラ画像に表示され、ARゾーンソフトウェアは、仮想操作ゾーンを転置して、仮想操作ゾーンが物理的な部材に対して適切な位置/向きに表示されるようにする。操作ゾーンの表示は、AR装置620の継続的に更新される位置及び向きに基づいて、ゾーンが任意の観点から正しい外観を有するように継続的に更新される。ARゾーンソフトウェアはこのほか、操作ゾーン640上に制御点642を表示する。
ボックス712にて、ユーザは、制御点642と相互作用して、操作ゾーンの境界を変更する。例えば、操作ゾーン640の隅が移動しても、円筒形干渉検査ゾーンの半径が変更されてもよい。AR装置620がヘッドセット装置である場合、物理的身ぶりコマンド(把持、移動など)を使用して制御点を変更してもよい。AR装置620がタブレット、スマートフォン又は教示ペンダントである場合、メニューコマンド及びキーストローク入力を使用して制御点を変更してもよい。このほか、メニュー及びメニュー項目の選択をヘッドセット装置にて利用することができる。
さらにボックス712にて、ユーザはこのほか、安全ゾーン(ロボット610の許容空間又は禁止空間のいずれか)、条件付き安全ゾーン(例えば、作業者の存在又は部品の存在を条件とする)、ロボット610の構成要素に関連する干渉検査ゾーン、関節位置検査ゾーン(回転又は並進)、あるいは熟練したユーザには明らかである可能性がある他のゾーンであり得る新たな操作ゾーンを作成することができる。操作ゾーンは、線、平面、多面的な体積、球形及び円筒形の体積、角柱状の形状など、任意の所望の幾何学的形状を有してもよい。(ボックス704にてゾーンがダウンロードされなかった場合に)以前に何も存在しなかった場所に新たな操作ゾーンを作成しても、既存のゾーンに加えて新たなゾーンを作成してもよい。操作ゾーンが作成され、ユーザが満足するように変更されると、ゾーンは一時的な記憶のためにロボット制御装置630にアップロードされる(分析及びシミュレーションのためであるが、ロボット610の生産作業での使用にはまだ付されていない)。
ボックス714a及び714bにて、干渉検査シミュレーションが、ロボット610のプログラムされた動作全体に対して実施される。このような干渉検査シミュレーションは、ARゾーンソフトウェア(ボックス714a)又はロボット制御装置ソフトウェア(ボックス714b)によって実施することができる。
ボックス714aでのARゾーンソフトウェアによる干渉検査シミュレーションは、以下のように実施される。AR装置620上のARゾーンソフトウェアは、ロボット制御装置630に、ロボット610を、そのプログラムされた動作を介して動かすように指示する。例えば、ロボット610は、ワークピースがテーブル614上に載置されるのを待ってから、ワークピースに対して溶接作業を実施するようにプログラムされてもよい。各ステップにて、ロボット制御装置630は、ロボット610に移動するように命令するほか、ARゾーンソフトウェアに新たなロボット位置を提供する。ARゾーンソフトウェアは、ロボットの位置情報から、干渉検査ゾーンの位置を更新し、干渉検査ゾーンと他の操作ゾーンとの間の任意の干渉状態を特定することができる。干渉状態をARディスプレイにて強調表示するほか、ロボット610の動きを停止させるように構成してもよい。このほか、ロボット610が移動すると、ユーザは、ロボット610の部品に対して画定された干渉検査ゾーンと、テーブル614などの物理的部材との間の干渉を視覚的に検査することができる。ここで、仮想ゾーン及び物理的部材がいずれもAR装置620のディスプレイに表示される。
ボックス714bでのロボット制御装置ソフトウェアによる干渉検査シミュレーションは、以下のように実施される。ロボット部品用に画定された干渉検査ゾーンなどの操作ゾーンと、安全ゾーン(許容又は禁止)とを、AR装置620のARゾーンソフトウェアからロボット制御装置ソフトウェアにアップロードする。ロボット制御装置630は、ロボット610を、そのプログラムされた動作を介してステップごとに操作する。各ステップにて、ロボット制御装置630はロボット位置情報を把握している。このため、ロボット制御装置ソフトウェアは、任意の干渉検査ゾーンの位置を更新し、(ロボット部品とともに移動する)干渉検査ゾーンと(固定された)他の操作ゾーンとの間の任意の干渉状態を特定することができる。干渉状態を、ロボット制御装置ソフトウェアによって提供されるレポートにて強調表示するほか、ロボット610の動きを停止させるように構成してもよい。
ボックス716にて、ゾーンへの変更が完了すると、新たな操作ゾーンの「設定」(ゾーンの画定)がロボット制御装置630にアップロードされるか、転送される。即ち、ユーザによる操作ゾーンの視覚化及び変更が完了すると、完成した操作ゾーンがロボット制御装置630にアップロードされ、生産作業のために確認/付託される。生産作業中、操作ゾーンは、ロボット制御装置630によって実時間で検査され、例えば、操作者がゾーンに隣接して存在するときにロボットが禁止ゾーンに入らないことを確実なものにする。
これまでの考察全体を通して、ロボットの動作及びタスクの制御、AR装置の操作など、さまざまな制御装置を説明して暗示している。このような制御装置のソフトウェアアプリケーション及びモジュールは、不揮発性メモリに構成されたアルゴリズムをはじめ、プロセッサ及びメモリモジュールを有する1つ又は複数の計算装置上で実行されることを理解されたい。特に、これには、上記で考察したロボット制御装置630及びAR装置620内のプロセッサが含まれる。ロボットと、その制御装置と、AR装置との間の通信は、配線ネットワークを介して実施しても、携帯電話/データネットワーク、Wi−Fi、Bluetooth(登録商標)、ブロードバンドインターネットなどの任意の適切な無線技術を使用して実施してもよい。
上記で概説したように、拡張現実を使用してロボット操作ゾーンを視覚化して変更するための開示技術は、従来技術の技術に勝るいくつかの利点を提供する。キーボード入力ではなく身ぶりコマンドを使用して、3D空間の操作ゾーンをすばやく直感的に評価して変更すると同時に、ロボットをはじめとする実世界の部材を評価するユーザの能力は、操作ゾーンを画定して点検するための以前の反復手法よりもはるかに優れている。
拡張現実を使用する操作ゾーンの視覚化及び変更のための方法及びシステムのいくつかの例示的な態様及び実施形態をこれまで考察してきたが、当業者は、その変更、順列、追加及び副次的組み合わせを認識するであろう。このため、以下の添付の特許請求の範囲及び以下に導入される請求項は、その真の精神及び範囲内にあるように、そのような変更、順列、追加及び副次的組み合わせのいずれをも含むと解釈されることが意図される。

Claims (22)

  1. 機械の操作ゾーンを視覚化して変更するためのシステムであって、前記システムは、
    作業セル内で操作可能な機械と、
    前記機械と通信する機械制御装置であって、前記制御装置は、プロセッサ及びメモリを備え、前記機械の操作を制御するための機械制御ソフトウェアと共に構成される、機械制御装置と、
    前記機械制御装置と通信する拡張現実(AR)装置であって、前記AR装置は、1つ又は複数のカメラと、位置追跡センサと、ディスプレイとを有し、前記AR装置は、ARゾーンソフトウェアアプリケーションを実行するように構成されたプロセッサ及びメモリをさらに備える、AR装置と、を具備し、
    前記ARゾーンソフトウェアアプリケーションは、
    作業セル座標系に対する前記AR装置の位置と向きを確立する機能と、
    前記AR装置が移動するときに、前記作業セル座標系に対する前記AR装置の位置と向きを継続的に追跡する機能と、
    1つ又は複数の操作ゾーンを作成し、表示し、変更する機能であって、前記作業セル内の前記ロボット及び他の物理的部材の画像に重ね合わされた前記操作ゾーンの仮想表示を提供する機能を含み、前記操作ゾーンのそれぞれには、操作ゾーンの場所、大きさ及び形状を画定するために使用される制御点が含まれる、機能と、
    操作ゾーンと、前記作業セル内の前記機械の部品と、前記他の物理的部材との間の干渉を検査する機能であって、前記機械が、所定の動作プログラムを介して移動している間に干渉を検査する機能を含む、機能と、
    機械操作中に後で使用するために、前記操作ゾーンを前記機械制御装置に転送する機能と、を含む機能を提供する、システム。
  2. 前記AR装置は、ユーザが着用するヘッドセット装置である、請求項1に記載のシステム。
  3. 前記操作ゾーンの前記制御点は、ユーザの身ぶりを介して操作可能であり、前記ユーザは、前記身ぶりを介して前記制御点を選択して移動させる、請求項2に記載のシステム。
  4. 前記AR装置は、ユーザによって保持されるスマートフォン、タブレット計算装置又はロボット教示ペンダントである、請求項1に記載のシステム。
  5. 前記作業セル座標系に対する前記AR装置の位置及び向きを確立する機能には、既知のデサインを有し、前記作業セル座標系内の既知の位置に設置された視覚的マーカの画像を分析することが含まれる、請求項1に記載のシステム。
  6. 前記操作ゾーンは、前記作業セル内の固定空間を記述する1つ又は複数の安全ゾーンと、前記ロボットの部品周りの空間ゾーンを記述する干渉検査ゾーンと、許容関節位置範囲を記述する関節位置検査ゾーンとを含む、請求項1に記載のシステム。
  7. 前記安全ゾーンは、前記機械が留まらなければならない空間を画定する許容ゾーンとして、あるいは前記機械が入ることができない空間を画定する禁止ゾーンとして構成可能である、請求項6に記載のシステム。
  8. 前記干渉検査ゾーンは、前記ARゾーンソフトウェアアプリケーションに既知であり、前記ARゾーンソフトウェアアプリケーションから選択可能な関節中心位置に対して画定可能な形状を有する、請求項6に記載のシステム。
  9. 前記操作ゾーンは、点、線、平面、多面体体積、角柱体積、球状体積及び任意選択の半球形端部を備えた円筒形体積をはじめとする形状を有する、請求項1に記載のシステム。
  10. 前記位置追跡センサは、1つ又は複数のジャイロスコープ及び1つ又は複数の加速度計を含み、前記センサは、前記AR装置内の前記プロセッサに信号を提供して、前記AR装置の位置及び向きの変化の継続的な計算を可能にする、請求項1に記載のシステム。
  11. 前記操作ゾーンの前記仮想表示は、前記AR装置の位置及び向きの変化に基づいて継続的に更新される、請求項10に記載のシステム。
  12. 干渉を検査する機能は、干渉が検出されたときに前記操作ゾーンの前記仮想表示を変更する機能であって、侵害された操作ゾーンの色を変更する機能及び前記干渉が発生する場所を視覚的に強調表示する機能を含む、請求項1に記載のシステム。
  13. 前記機械は産業用ロボットである、請求項1に記載のシステム。
  14. ロボット操作ゾーンの視覚化及び変更のための装置であって、前記装置は、ロボット制御装置と通信する拡張現実(AR)装置を具備し、
    前記AR装置は、ユーザが着用するヘッドセットであり、1つ又は複数のカメラ、慣性センサ及び1つのディスプレイを有し、
    前記AR装置は、ARゾーンソフトウェアアプリケーションを実行するように構成されたプロセッサ及びメモリをさらに備え、
    前記AR装置は、ロボット作業セルに対するその位置及び向きを継続的に追跡し、
    前記AR装置は、前記作業セル内のロボット及び他の物理的部材の画像に重ね合わされた1つ又は複数の操作ゾーンの仮想表示を提供し、
    前記操作ゾーンのそれぞれが、操作ゾーンの大きさ及び形状を画定するために使用される制御点を含み、
    前記AR装置はさらに、前記ロボットが所定の動作プログラムを介して移動している間の干渉の検査をはじめとして、前記操作ゾーンと、前記作業セル内の前記ロボットの部品と、前記他の物理的部材との間の干渉を検査する、装置。
  15. 機械の操作ゾーンを視覚化して変更する方法であって、前記方法は、
    作業セル内で操作可能な機械と、前記機械と通信する機械制御装置とを提供するステップと、
    前記機械制御装置と通信する拡張現実(AR)装置を提供するステップであって、前記AR装置は、1つ又は複数のカメラ、位置追跡センサ及び1つのディスプレイを有し、前記AR装置は、ARゾーンソフトウェアアプリケーション(アプリ)を実行するように構成されたプロセッサ及びメモリをさらに備える、ステップと、
    前記アプリによって、作業セル座標系に対する前記AR装置の位置と向きを確立するステップと、
    前記AR装置が移動するときに、前記作業セル座標系に対する前記AR装置の位置と向きを継続的に追跡するステップと、
    前記アプリによる1つ又は複数の操作ゾーンを作成し、表示し、変更するステップであって、前記作業セル内の前記機械及び他の物理的部材の画像に重ね合わされた前記操作ゾーンの仮想表示を提供するステップを含み、前記操作ゾーンのそれぞれは、操作ゾーンの大きさ及び形状を画定するために使用される制御点を含む、ステップと、
    前記機械が、所定の動作プログラムを介して移動する間の干渉の検査をはじめとして、前記AR装置のアプリ又は前記機械制御装置のソフトウェアによって、操作ゾーンと、前記作業セル内の前記機械の部品と、前記他の物理的部材との間の干渉を検査するステップと、
    機械操作中に後で使用するために、前記操作ゾーンを前記AR装置から前記機械制御装置に転送するステップと、を含む方法。
  16. 前記AR装置は、ユーザが着用するヘッドセット装置であり、前記操作ゾーンの前記制御点は、ユーザの身ぶりを介して操作可能であり、前記ユーザは、前記身ぶりを介して前記制御点を選択して移動させる、請求項15に記載の方法。
  17. 前記作業セル座標系に対する前記AR装置の位置及び向きを確立するステップは、既知のデザインを有し、前記作業セル座標系内の既知の位置に設置された視覚的マーカの画像を分析することを含む、請求項15に記載の方法。
  18. 前記操作ゾーンは、前記作業セル内の固定空間を記述する1つ又は複数の安全ゾーンと、前記機械の部品周りの空間ゾーンを記述する干渉検査ゾーンと、許容可能な関節位置範囲を記述する関節位置検査ゾーンとを含み、
    前記安全ゾーンは、前記機械が留まらなければならない空間を画定する許容ゾーンとして、あるいは前記機械が入ることができない空間を画定する禁止ゾーンとして構成可能であり、前記干渉検査ゾーンは、前記ARゾーンソフトウェアアプリケーションに認識され、前記ARゾーンソフトウェアアプリケーションから選択可能な関節中心位置に対して画定可能な形状を有する、請求項15に記載の方法。
  19. 前記操作ゾーンは、点、線、平面、多面体体積、角柱体積、回転楕円体体積及び任意選択の半球形端部を備えた円筒形体積をはじめとする形状を有する、請求項15に記載の方法。
  20. 前記位置追跡センサは、1つ又は複数のジャイロスコープ及び1つ又は複数の加速度計を含み、前記センサは、前記AR装置内の前記プロセッサに信号を提供して、前記AR装置の位置及び向きの変化の継続的な計算を可能にし、前記操作ゾーンの前記仮想表示は、前記AR装置の位置及び向きの変化に基づいて継続的に更新される、請求項15に記載の方法。
  21. 干渉を検査するステップは、干渉が検出されたときに前記操作ゾーンの前記仮想表示を変更することであって、侵害された操作ゾーンの色を変更することと、前記干渉が発生する場所を視覚的に強調表示することとを含む、請求項15に記載の方法。
  22. 前記機械は産業用ロボットである、請求項15に記載の方法。
JP2020572694A 2018-06-26 2019-06-26 拡張現実を使用した操作上の境界ゾーンの視覚化と変更 Active JP7419271B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201862690125P 2018-06-26 2018-06-26
US62/690,125 2018-06-26
US16/453,811 2019-06-26
US16/453,811 US11850755B2 (en) 2018-06-26 2019-06-26 Visualization and modification of operational bounding zones using augmented reality
PCT/US2019/039344 WO2020006144A1 (en) 2018-06-26 2019-06-26 Visualization and modification of operational bounding zones using augmented reality

Publications (2)

Publication Number Publication Date
JP2021529391A true JP2021529391A (ja) 2021-10-28
JP7419271B2 JP7419271B2 (ja) 2024-01-22

Family

ID=68981336

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020572694A Active JP7419271B2 (ja) 2018-06-26 2019-06-26 拡張現実を使用した操作上の境界ゾーンの視覚化と変更

Country Status (5)

Country Link
US (1) US11850755B2 (ja)
JP (1) JP7419271B2 (ja)
CN (1) CN112313046A (ja)
DE (1) DE112019003204T5 (ja)
WO (1) WO2020006144A1 (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3946825A1 (en) * 2019-03-25 2022-02-09 ABB Schweiz AG Method and control arrangement for determining a relation between a robot coordinate system and a movable apparatus coordinate system
JP1646443S (ja) * 2019-03-27 2019-11-25
JP7359633B2 (ja) * 2019-10-17 2023-10-11 ファナック株式会社 ロボットシステム
DE102020201375B3 (de) * 2020-02-05 2021-06-24 Magna Steyr Fahrzeugtechnik Ag & Co Kg Verfahren zur Überprüfung eines Sicherheitsbereichs eines Roboters
DE102020203636A1 (de) 2020-03-20 2021-09-23 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung eingetragener Verein Ermittlung von Sicherheitsbereichen um eine automatisiert arbeitende Maschine
DE102020129823B4 (de) * 2020-11-12 2022-07-07 Sick Ag Visualisieren eines Schutzfeldes
CN116847958A (zh) * 2021-02-10 2023-10-03 Abb瑞士股份有限公司 用于调整用于处理工件的机器人路径的方法和装置
KR20220152790A (ko) * 2021-05-10 2022-11-17 삼성전자주식회사 전자 장치 및 이의 제어 방법
WO2023131385A1 (en) 2022-01-10 2023-07-13 Universal Robots A/S Augmented reality supported safety plane adjustment
DE102022202569B3 (de) 2022-03-15 2023-06-29 Kuka Deutschland Gmbh Prüfen einer vorgegebenen Bahn eines Roboters
WO2023174873A1 (de) * 2022-03-15 2023-09-21 Kuka Deutschland Gmbh Prüfen einer vorgegebenen bahn eines roboters
DE102022202564A1 (de) 2022-03-15 2023-09-21 Kuka Deutschland Gmbh Prüfen einer Sicherheitskonfiguration eines Roboters
DE102022202571B3 (de) 2022-03-15 2023-07-06 Kuka Deutschland Gmbh Prüfen einer vorgegebenen Bahn eines Roboters
DE102022202562A1 (de) 2022-03-15 2023-09-21 Kuka Deutschland Gmbh Ermitteln wenigstens einer Grenze für ein Betreiben eines Roboters
DE102022202563B3 (de) 2022-03-15 2023-07-06 Kuka Deutschland Gmbh Planen einer Bahn eines Roboters

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ZA952853B (en) * 1994-04-18 1995-12-21 Caterpillar Inc Method and apparatus for real time monitoring and co-ordination of multiple geography altering machines on a work site
DE10305384A1 (de) * 2003-02-11 2004-08-26 Kuka Roboter Gmbh Verfahren und Vorrichtung zur Visualisierung rechnergestützter Informationen
JP3975959B2 (ja) * 2003-04-23 2007-09-12 トヨタ自動車株式会社 ロボット動作規制方法とその装置およびそれを備えたロボット
US8214098B2 (en) 2008-02-28 2012-07-03 The Boeing Company System and method for controlling swarm of remote unmanned vehicles through human gestures
US10475240B2 (en) 2010-11-19 2019-11-12 Fanuc Robotics America Corporation System, method, and apparatus to display three-dimensional robotic workcell data
US9292085B2 (en) * 2012-06-29 2016-03-22 Microsoft Technology Licensing, Llc Configuring an interaction zone within an augmented reality environment
US10888998B2 (en) * 2013-10-07 2021-01-12 Abb Schweiz Ag Method and device for verifying one or more safety volumes for a movable mechanical unit
JP2015174185A (ja) * 2014-03-14 2015-10-05 三菱重工業株式会社 ロボットのシミュレーション装置及び方法、制御装置、及びロボットシステム
US9283678B2 (en) * 2014-07-16 2016-03-15 Google Inc. Virtual safety cages for robotic devices
JP2016107379A (ja) * 2014-12-08 2016-06-20 ファナック株式会社 拡張現実対応ディスプレイを備えたロボットシステム
US9643314B2 (en) 2015-03-04 2017-05-09 The Johns Hopkins University Robot control, training and collaboration in an immersive virtual reality environment
EP3323565B1 (de) * 2016-11-21 2021-06-30 Siemens Aktiengesellschaft Verfahren und vorrichtung zur inbetriebnahme eines mehrachssystems
US10445944B2 (en) * 2017-11-13 2019-10-15 Rockwell Automation Technologies, Inc. Augmented reality safety automation zone system and method

Also Published As

Publication number Publication date
JP7419271B2 (ja) 2024-01-22
DE112019003204T5 (de) 2021-03-11
US11850755B2 (en) 2023-12-26
CN112313046A (zh) 2021-02-02
US20190389066A1 (en) 2019-12-26
WO2020006144A1 (en) 2020-01-02

Similar Documents

Publication Publication Date Title
JP7419271B2 (ja) 拡張現実を使用した操作上の境界ゾーンの視覚化と変更
EP3055744B1 (en) A method and a device for verifying one or more safety volumes for a movable mechanical unit
US11220002B2 (en) Robot simulation device
US10166673B2 (en) Portable apparatus for controlling robot and method thereof
JP2022500263A (ja) 拡張現実及びデジタルツインのためのロボット較正
US8406923B2 (en) Apparatus for determining pickup pose of robot arm with camera
JP5390813B2 (ja) 空間情報表示装置及び支援装置
JP2019519387A (ja) 拡張現実ロボットシステムの可視化
JP7155664B2 (ja) シミュレーション装置、制御装置およびロボット
KR20180063515A (ko) 로봇 교시장치 및 이의 교시방법
JP2003270719A (ja) 投影方法、投影装置、作業支援方法及び作業支援システム
CN108177144A (zh) 机器人系统
JP2021079520A (ja) 拡張現実を用いたシミュレーション装置及びロボットシステム
CN108081267B (zh) 用于启动多轴系统的方法和装置
JP2015174184A (ja) 制御装置
US11157226B2 (en) Control apparatus, head mounted display and robot system
Ragni et al. ARTool Zero: Programming trajectory of touching probes using augmented reality
JP6894829B2 (ja) 構造物撤去シミュレーション方法
KR102403021B1 (ko) 로봇 교시 장치 및 이를 이용한 로봇 교시 방법
JP7443014B2 (ja) ロボットアーム試験装置
JP2011215692A (ja) 3次元3自由度回転パラメータ処理装置
WO2017032407A1 (en) An industrial robot system and a method for programming an industrial robot
JP7444603B2 (ja) ロボット駆動領域シミュレーション装置、およびロボット駆動領域シミュレーション方法並びにロボット駆動領域シミュレーションプログラム
KR20200094941A (ko) 생산 라인에서의 작업자 위치 인식 방법 및 그 장치
JP6707327B2 (ja) 動作判別装置及び動作判別方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220623

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230829

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230921

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240110

R150 Certificate of patent or registration of utility model

Ref document number: 7419271

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150