JP7360406B2 - ロボット型ピッキングシステムのための拡張現実可視化 - Google Patents
ロボット型ピッキングシステムのための拡張現実可視化 Download PDFInfo
- Publication number
- JP7360406B2 JP7360406B2 JP2020572868A JP2020572868A JP7360406B2 JP 7360406 B2 JP7360406 B2 JP 7360406B2 JP 2020572868 A JP2020572868 A JP 2020572868A JP 2020572868 A JP2020572868 A JP 2020572868A JP 7360406 B2 JP7360406 B2 JP 7360406B2
- Authority
- JP
- Japan
- Prior art keywords
- robot
- virtual
- parts
- picking system
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012800 visualization Methods 0.000 title claims description 76
- 230000003190 augmentative effect Effects 0.000 title claims description 19
- 230000000007 visual effect Effects 0.000 claims description 38
- 238000000034 method Methods 0.000 claims description 28
- 238000011144 upstream manufacturing Methods 0.000 claims description 24
- 238000004891 communication Methods 0.000 claims description 16
- 238000012545 processing Methods 0.000 claims description 14
- 230000004048 modification Effects 0.000 claims description 10
- 238000012986 modification Methods 0.000 claims description 10
- 238000004364 calculation method Methods 0.000 claims description 8
- 238000013461 design Methods 0.000 claims description 2
- 230000000977 initiatory effect Effects 0.000 claims 4
- 238000012937 correction Methods 0.000 claims 2
- 238000004519 manufacturing process Methods 0.000 description 14
- 238000004088 simulation Methods 0.000 description 8
- 230000000694 effects Effects 0.000 description 6
- 238000003384 imaging method Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 230000003993 interaction Effects 0.000 description 3
- 230000002452 interceptive effect Effects 0.000 description 3
- 238000004806 packaging method and process Methods 0.000 description 3
- 238000007792 addition Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000002950 deficient Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 235000009508 confectionery Nutrition 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 235000013305 food Nutrition 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 235000012459 muffins Nutrition 0.000 description 1
- 238000010079 rubber tapping Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 238000013024 troubleshooting Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/06—Control stands, e.g. consoles, switchboards
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/0093—Programme-controlled manipulators co-operating with conveyor means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/0014—Image feed-back for automatic industrial control, e.g. robot with camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39451—Augmented reality for robot programming
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40053—Pick 3-D object from pile of objects
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Robotics (AREA)
- General Engineering & Computer Science (AREA)
- Mechanical Engineering (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Optics & Photonics (AREA)
- Manipulator (AREA)
Description
本出願は、2018年6月26日提出の「ロボット型ピッキングシステムのための拡張現実可視化」と題する米国仮特許出願第62/690141号の優先日の利益を主張する。
・各ロボットの境界線(上流、放棄及び下流)-ピックコンベア及びプレースコンベア上の境界線を含めて-の仮想AR表示
・部品ピック性能に対する影響を測定するための境界線位置の操作及びロボットコントローラへの通信
・より迅速及びより容易な部品ピック性能のシミュレーションのための-物理的現実部品の代わりの又はこれに加えた-仮想部品の使用
・AR機器とロボットコントローラとの間の二方向通信。AR機器は、コントローラへ境界線情報を与え、コントローラは、リアルタイムで部品割当て及びピック/プレース情報をAR機器へ与える。
・診断および性能データのAR表示-損失部品、各ロボットへの部品割当て、全体部品処理速度、など-例えば、パラメータ変更の影響の理解。
・ロボットによる部品割当ての視覚認識を助けるためのカラーコード化及びその他の部品拡張データ。
・画像認識を使用する、作業セル座標系に対するAR機器の位置/向きの容易な位置合せ/較正
・視覚及び慣性走行距離計を使用するARの機器の位置/向きの連続追跡
Claims (23)
- 拡張現実を使用して視覚追跡ロボット型ピッキングシステムを構成するためのシステムであって、前記システムが、
作業セルにおける1台又は複数台のロボットであって、各ロボットが、該ロボットと通信するロボットコントローラを有し、前記ロボットコントローラがプロセッサ及びメモリを含み、前記ロボットの作動を制御するためのロボット制御ソフトウェアを持つように構成される、ロボットと、
前記1台又は複数台のロボットコントローラと通信する拡張現実(AR)機器であって、前記AR機器が1台又は複数台のカメラ、位置追跡センサ及びディスプレイを有し、前記AR機器が、更にロボット型ピッキングシステム可視化ARソフトウェアアプリケーションを実行するように構成されたプロセッサ及びメモリを含む、AR機器と、
を備え、
前記ロボット型ピッキングシステム可視化ARソフトウェアアプリケーションが、
前記1台又は複数台のロボットの各々について予備境界線を与えることであって、前記予備境界線がロボットピックアンドプレース作動空間を限定する、与えることと、
作業セル座標系に対する前記AR機器の位置及び向きを確立し連続的に追跡することと、
前記作業セルにおける現実アイテムのカメラ画像に重ねて前記予備境界線及びその他の仮想アイテムのAR表示を与えることと、
前記視覚追跡ロボット型ピッキングシステムによる処理のために仮想部品のコンベアによる流れをシミュレートするように前記1台又は複数台のロボットコントローラに命令することであって、仮想部品、現実部品又はその両方を前記視覚追跡ロボット型ピッキングシステムによって処理できる、命令することと、
境界線位置修正を使用者から受信することと、
前記境界線位置修正を前記1台又は複数台のロボットコントローラへ通信することと、
部品割当て及び部品ピックアンドプレース情報を前記ロボットコントローラから受信することと、
前記AR表示においてピッキングシステム性能パラメータを表示することと、
を含む機能を提供する、
システム。 - 前記AR機器が、前記使用者が着用するヘッドセット装置又は前記使用者によって手持ちされる可搬式機器である、請求項1に記載のシステム。
- 更に、前記視覚追跡ロボット型ピッキングシステムにおいて各コンベアの位置を追跡するように構成されたパルスコーダ機器と、各コンベア上の前記現実部品の存在及び位置及び向きを検出するように構成されたカメラ又はその他のセンサと、を備える、請求項1に記載のシステム。
- 前記1台又は複数台のロボットのために予備境界線を与えることが、別個のロボット型ピッキングシステムセットアップアプリケーションから前記予備境界線をダウンロードすること又は前記ロボット型ピッキングシステム可視化ARソフトウェアアプリケーション内のデフォルト位置に前記予備境界線を確立することを含む、請求項1に記載のシステム。
- 前記作業セル座標系に対する前記AR機器の前記位置及び向きを確立することが、既知のデザインを有しかつ前記作業セル座標系の中の既知の場所に置かれた1つ又は複数の視覚マーカーの画像を分析することを含む、請求項1に記載のシステム。
- 前記位置追跡センサが、1台又は複数台のジャイロスコープ及び1台又は複数台の加速度計を含み、前記位置追跡センサが前記AR機器の中の前記プロセッサに信号を与えて、前記AR機器の位置及び向きの変化を連続的にコンピュータ計算できるようにする、請求項1に記載のシステム。
- AR表示を与えることが、前記AR機器が前記作業セルを動き回るとき前記現実アイテムの前記カメラ画像に対して適切なサイズ、形状及び位置で前記予備境界線及び前記その他の仮想アイテムを表示することを含む、請求項1に記載のシステム。
- 前記その他の仮想アイテムが、前記仮想部品、前記現実部品上の部品識別ブロック、現実部品及び仮想部品上の部品情報フラグ、座標系トライアド及びカメラ位置及び視界を含み、前記その他の仮想アイテムの前記表示が、前記ロボットコントローラから受信した前記部品割当て及び部品ピックアンドプレース情報に基づいて連続的に更新される、請求項1に記載のシステム。
- 仮想部品をシミュレートするように前記1台又は複数台のロボットコントローラに命令することが、仮想部品供給速度及びインバウンドコンベアにおいて前記視覚追跡ロボット型ピッキングシステムに供給される前記仮想部品の位置及び向きの統計分布を前記使用者によって選択することを含む、請求項1に記載のシステム。
- 前記使用者から境界線位置修正を受信することが、修正する境界線を選択し、上流又は下流方向に使用者指定距離だけ前記境界線を移動し、前記境界線位置修正を受容することを含み、境界線を選択し、前記境界線を移動し、前記修正を受容することが、ARベースのジェスチャ、メニュコマンド又はその両方を介して前記使用者によって実施される、請求項1に記載のシステム。
- 前記境界線位置修正を前記1台又は複数台のロボットコントローラへ通信することが、ロボットピックアンドプレース作動のコンピュータ計算において前記予備境界線の修正位置を前記ロボットコントローラによって使用することを含む、請求項1に記載のシステム。
- 前記AR表示においてピッキングシステム性能パラメータを表示することが、所定の時点で前記AR表示において見える任意の1台又は複数台のロボット又はコンベアに関する性能パラメータ及び診断情報を表示することを含む、請求項1に記載のシステム。
- 前記ピッキングシステム性能パラメータが、コンベア速度、現実部品処理速度、仮想部品処理速度、合計部品処理速度、損失部品数、部品ピック速度/ロボット及び部品ピック率/ロボットを含み、前記性能パラメータの任意の組合せを前記使用者の選択する通りに表示可能である、請求項1に記載のシステム。
- 前記予備境界線が、各コンベアについて各ロボットについての上流境界線、放棄境界線及び下流境界線を含む、請求項1に記載のシステム。
- 視覚追跡ロボット型ピッキングシステムを構成するための装置であって、前記装置が、1台又は複数台のロボットコントローラと通信する拡張現実(AR)機器を備え、前記AR機器が、1台又は複数台のカメラ、位置追跡センサ及びディスプレイを有し、前記AR機器が、更に、ロボット型ピッキングシステム可視化ソフトウェアアプリケーションを実行するように構成されたプロセッサ及びメモリを含み、前記ロボット型ピッキングシステム可視化ソフトウェアアプリケーションが、前記視覚追跡ロボット型ピッキングシステムにおいて前記1台又は複数台のロボットコントローラと相互作動し、前記視覚追跡ロボット型ピッキングシステムよって処理するために仮想部品のコンベアによる流れをシミュレートするように前記1台又は複数台のロボットコントローラに命令し、前記AR機器上のAR表示に境界線及びその他の仮想アイテムを表示し、使用者による境界線修正を可能にし、前記1台又は複数のロボットコントローラへ前記境界線修正を通信し、前記AR表示においてリアルタイムに部品の移動及びピッキングシステム性能パラメータを表示する、ように構成される、
装置。 - 拡張現実を使用して視覚追跡ロボット型ピッキングシステムを構成するための方法であって、前記方法が、
1台又は複数台のロボットの各々と通信するロボットコントローラを持つ1台又は複数台のロボットを有するロボット型ピッキングシステムを提供することと、
前記1台又は複数台のロボットコントローラと通信する拡張現実(AR)機器を提供することであって、前記AR機器が、1台又は複数台のカメラ、位置追跡センサ及びディスプレイを有し、前記AR機器が、更に、ロボット型ピッキングシステム可視化ARソフトウェアアプリケーションを実行するように構成されたプロセッサ及びメモリを含む、提供することと、
予備境界線位置を与えることと、
作業セル座標系に対する前記AR機器の位置及び向きを較正し、連続的に追跡することと、
インバウンドコンベア上での部品の流れを開始することを含めて、前記ロボット型ピッキングシステムの作動を開始することであって、前記部品の流れが、現実部品、前記1台又は複数台のロボットコントローラによってシミュレートされる仮想部品の流れ、又はその両方を含む、開始することと、
前記AR機器上にAR表示を与えることであって、前記AR表示が、前記ロボット型ピッキングシステムの作業セルにおける現実アイテムのカメラ画像に重ねられた境界線及びその他の仮想アイテムを含む、与えることと、
前記ロボット型ピッキングシステム可視化ARソフトウェアアプリケーションの使用者によって前記予備境界線位置を修正することと、
前記ロボット型ピッキングシステム可視化ARソフトウェアアプリケーションから前記1台又は複数台のロボットコントローラへ前記予備境界線位置を通信することと、
前記ロボットコントローラから前記ロボット型ピッキングシステム可視化ARソフトウェアアプリケーションへリアルタイムに部品割当て及び部品ピックアンドプレース情報を通信することと、
前記AR表示においてピッキングシステム性能パラメータを表示することと、
を含む、方法。 - 前記その他の仮想アイテムが、前記仮想部品、前記現実部品上の部品識別ブロック、現実部品及び仮想部品上の部品情報フラグ及び座標系トライアドを含み、前記その他の仮想アイテムの表示が、前記ロボットコントローラから受信した前記部品割当て及び部品ピックアンドプレース情報に基づいて連続的に更新される、請求項16に記載の方法。
- 前記1台又は複数台のロボットコントローラによってシミュレートされた前記仮想部品が、仮想部品供給速度及び前記インバウンドコンベア上の前記仮想部品の位置及び向きの統計分布についての使用者規定値を含む、前記ロボット型ピッキングシステム可視化ARソフトウェアアプリケーションによって与えられたパラメータに基づく、請求項16に記載の方法。
- 使用者によって前記予備境界線位置を修正することが、使用者によって修正する境界線を選択し、上流方向又は下流方向に使用者指定距離だけ前記境界線を移動し、前記使用者による前記境界線の位置の修正を受容すること、を含み、境界線を選択し、前記境界線を移動し、前記修正を受容することが、ARベースのジェスチャ、メニュコマンド又はその両方を介して前記使用者によって実施される、請求項16に記載の方法。
- 前記予備境界線位置を前記1台又は複数台のロボットコントローラへ通信することが、ロボットピックアンドプレース作動のコンピュータ計算において前記ロボットコントローラによって前記境界線の修正位置を使用することを含む、請求項16に記載の方法。
- 前記AR表示においてピッキングシステム性能パラメータを表示することが、所定の時点で前記AR表示において見える任意の1台又は複数台のロボット又はコンベアに関する性能パラメータ及び診断情報を表示することを含む、請求項16に記載の方法。
- 前記ピッキングシステム性能パラメータが、インバウンドコンベア速度、現実部品処理速度、仮想部品処理速度、合計部品処理速度、損失部品数、部品ピック速度/ロボット及び部品ピック率/ロボットを含み、前記性能パラメータの任意の組合せが前記使用者によって選択される通り前記AR表示において表示可能である、請求項16に記載の方法。
- 前記ロボット型ピッキングシステムが、前記1台又は複数台のロボットによって拾い上げられる部品を搬送する前記インバウンドコンベアと、前記1台又は複数台のロボットによって置かれる部品を受け取るためのアウトバウンドコンベア又は静止容器を含み、前記境界線が、各コンベアについて各ロボットについて上流境界線、放棄境界線及び下流境界線を含む、請求項16に記載の方法。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862690141P | 2018-06-26 | 2018-06-26 | |
US62/690,141 | 2018-06-26 | ||
US16/453,838 US11472035B2 (en) | 2018-06-26 | 2019-06-26 | Augmented reality visualization for robotic picking system |
PCT/US2019/039346 WO2020006146A1 (en) | 2018-06-26 | 2019-06-26 | Augmented reality visualization for robotic picking system |
US16/453,838 | 2019-06-26 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021528262A JP2021528262A (ja) | 2021-10-21 |
JP7360406B2 true JP7360406B2 (ja) | 2023-10-12 |
Family
ID=68981308
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020572868A Active JP7360406B2 (ja) | 2018-06-26 | 2019-06-26 | ロボット型ピッキングシステムのための拡張現実可視化 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11472035B2 (ja) |
EP (1) | EP3814075A4 (ja) |
JP (1) | JP7360406B2 (ja) |
CN (1) | CN112638593B (ja) |
WO (1) | WO2020006146A1 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6795471B2 (ja) * | 2017-08-25 | 2020-12-02 | ファナック株式会社 | ロボットシステム |
JP6579498B2 (ja) * | 2017-10-20 | 2019-09-25 | 株式会社安川電機 | 自動化装置及び位置検出装置 |
JP6833111B1 (ja) * | 2019-11-28 | 2021-02-24 | 三菱電機株式会社 | 表示制御装置、表示システム、及び、表示制御方法 |
MX2022006131A (es) * | 2019-12-05 | 2022-06-17 | Magna Int Inc | Metodo y configuracion para robotica sin vallas. |
US11969904B2 (en) * | 2020-03-24 | 2024-04-30 | Qingdao university of technology | Registration system and method for robot-oriented augmented reality teaching system |
US11989843B2 (en) | 2022-06-22 | 2024-05-21 | Snap Inc. | Robotic learning of assembly tasks using augmented reality |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007090479A (ja) | 2005-09-28 | 2007-04-12 | Fanuc Ltd | ロボットのオフライン教示装置 |
JP2007242054A (ja) | 1995-09-19 | 2007-09-20 | Yaskawa Electric Corp | ロボット言語処理装置 |
WO2016021130A1 (ja) | 2014-08-05 | 2016-02-11 | パナソニックIpマネジメント株式会社 | オフラインティーチング装置 |
JP2017102242A (ja) | 2015-12-01 | 2017-06-08 | 株式会社デンソーウェーブ | 情報表示システム |
JP2017100206A (ja) | 2015-11-30 | 2017-06-08 | 株式会社デンソーウェーブ | ロボット安全システム |
DE102017125190A1 (de) | 2016-10-28 | 2018-05-03 | Fanuc Corporation | Vorrichtung, Verfahren, Programm und Aufzeichnungsmedium zur Simulation des durch Roboter durchgeführten Vorgangs zum Anordnen von Artikeln |
Family Cites Families (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005111607A (ja) * | 2003-10-07 | 2005-04-28 | Fanuc Ltd | ロボット物流トラッキング装置 |
DE102005061211B4 (de) * | 2004-12-22 | 2023-04-06 | Abb Schweiz Ag | Verfahren zum Erzeugen einer Mensch-Maschine-Benutzer-Oberfläche |
JP5803155B2 (ja) * | 2011-03-04 | 2015-11-04 | セイコーエプソン株式会社 | ロボット位置検出装置及びロボットシステム |
US9415509B2 (en) * | 2011-11-04 | 2016-08-16 | Fanuc America Corporation | Robot teach device with 3-D display |
JP5838873B2 (ja) * | 2012-03-15 | 2016-01-06 | オムロン株式会社 | シミュレーション装置、シミュレーション方法、および、シミュレーションプログラム |
DE102012206350A1 (de) * | 2012-04-18 | 2013-10-24 | Deutsches Zentrum für Luft- und Raumfahrt e.V. | Verfahren zum Betreiben eines Roboters |
JP6052576B2 (ja) * | 2012-05-30 | 2016-12-27 | 日本電気株式会社 | 情報処理システム、情報処理方法、情報処理装置、携帯端末およびその制御方法と制御プログラム |
US20130343640A1 (en) * | 2012-06-21 | 2013-12-26 | Rethink Robotics, Inc. | Vision-guided robots and methods of training them |
US9481518B2 (en) * | 2013-02-24 | 2016-11-01 | Intelligrated Headquarters Llc | Order fulfillment system and method |
EP2996611B1 (en) * | 2013-03-13 | 2019-06-26 | Stryker Corporation | Systems and software for establishing virtual constraint boundaries |
US10888998B2 (en) * | 2013-10-07 | 2021-01-12 | Abb Schweiz Ag | Method and device for verifying one or more safety volumes for a movable mechanical unit |
JP6042860B2 (ja) * | 2014-12-02 | 2016-12-14 | ファナック株式会社 | ロボットを用いて物品を移送する物品移送装置及び物品移送方法 |
JP2016107379A (ja) * | 2014-12-08 | 2016-06-20 | ファナック株式会社 | 拡張現実対応ディスプレイを備えたロボットシステム |
US10223589B2 (en) * | 2015-03-03 | 2019-03-05 | Cognex Corporation | Vision system for training an assembly system through virtual assembly of objects |
US9643314B2 (en) * | 2015-03-04 | 2017-05-09 | The Johns Hopkins University | Robot control, training and collaboration in an immersive virtual reality environment |
US9802317B1 (en) * | 2015-04-24 | 2017-10-31 | X Development Llc | Methods and systems for remote perception assistance to facilitate robotic object manipulation |
US10220510B2 (en) * | 2015-06-02 | 2019-03-05 | Humatics Corporation | Unified collaborative environments |
US9919427B1 (en) * | 2015-07-25 | 2018-03-20 | X Development Llc | Visualizing robot trajectory points in augmented reality |
JP6458713B2 (ja) * | 2015-11-18 | 2019-01-30 | オムロン株式会社 | シミュレーション装置、シミュレーション方法、およびシミュレーションプログラム |
US10414043B2 (en) * | 2017-01-31 | 2019-09-17 | Fanuc America Corporation | Skew and circular boundary for line tracking and circular tracking |
JP6438509B2 (ja) * | 2017-02-28 | 2018-12-12 | ファナック株式会社 | ロボットシステムのシミュレーション装置、シミュレーション方法、およびコンピュータプログラム |
JP6659615B2 (ja) * | 2017-04-04 | 2020-03-04 | ファナック株式会社 | 生体認証機能を有するシステム |
JP6795471B2 (ja) * | 2017-08-25 | 2020-12-02 | ファナック株式会社 | ロボットシステム |
US10445944B2 (en) * | 2017-11-13 | 2019-10-15 | Rockwell Automation Technologies, Inc. | Augmented reality safety automation zone system and method |
JP6805199B2 (ja) * | 2018-03-26 | 2020-12-23 | 株式会社東芝 | 設備監視システム |
-
2019
- 2019-06-26 WO PCT/US2019/039346 patent/WO2020006146A1/en unknown
- 2019-06-26 US US16/453,838 patent/US11472035B2/en active Active
- 2019-06-26 CN CN201980056091.1A patent/CN112638593B/zh active Active
- 2019-06-26 EP EP19826541.5A patent/EP3814075A4/en active Pending
- 2019-06-26 JP JP2020572868A patent/JP7360406B2/ja active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007242054A (ja) | 1995-09-19 | 2007-09-20 | Yaskawa Electric Corp | ロボット言語処理装置 |
JP2007090479A (ja) | 2005-09-28 | 2007-04-12 | Fanuc Ltd | ロボットのオフライン教示装置 |
WO2016021130A1 (ja) | 2014-08-05 | 2016-02-11 | パナソニックIpマネジメント株式会社 | オフラインティーチング装置 |
JP2017100206A (ja) | 2015-11-30 | 2017-06-08 | 株式会社デンソーウェーブ | ロボット安全システム |
JP2017102242A (ja) | 2015-12-01 | 2017-06-08 | 株式会社デンソーウェーブ | 情報表示システム |
DE102017125190A1 (de) | 2016-10-28 | 2018-05-03 | Fanuc Corporation | Vorrichtung, Verfahren, Programm und Aufzeichnungsmedium zur Simulation des durch Roboter durchgeführten Vorgangs zum Anordnen von Artikeln |
JP2018069377A (ja) | 2016-10-28 | 2018-05-10 | ファナック株式会社 | ロボットが行う物品整列作業のシミュレーションのための装置、方法、プログラム及び記録媒体 |
Also Published As
Publication number | Publication date |
---|---|
EP3814075A4 (en) | 2022-03-30 |
US20190389069A1 (en) | 2019-12-26 |
EP3814075A1 (en) | 2021-05-05 |
US11472035B2 (en) | 2022-10-18 |
WO2020006146A1 (en) | 2020-01-02 |
CN112638593A (zh) | 2021-04-09 |
CN112638593B (zh) | 2024-09-06 |
JP2021528262A (ja) | 2021-10-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7360406B2 (ja) | ロボット型ピッキングシステムのための拡張現実可視化 | |
US11850755B2 (en) | Visualization and modification of operational bounding zones using augmented reality | |
CN108000524B (zh) | 模拟装置、模拟方法、模拟程序以及存储介质 | |
CN106873549B (zh) | 模拟装置以及模拟方法 | |
US10888998B2 (en) | Method and device for verifying one or more safety volumes for a movable mechanical unit | |
JP7096288B2 (ja) | ロボットを制御する方法 | |
US10052765B2 (en) | Robot system having augmented reality-compatible display | |
EP1092513B1 (en) | Graphic display apparatus for robot system | |
JP3732494B2 (ja) | シミュレーション装置 | |
JP6856583B2 (ja) | センシングシステム、作業システム、拡張現実画像の表示方法、拡張現実画像の記憶方法、およびプログラム | |
EP2282873B1 (en) | A method and a system for facilitating calibration of an off-line programmed robot cell | |
WO2020055903A1 (en) | Robot calibration for ar and digital twin | |
US20040172168A1 (en) | Taught position modification device | |
JP6856590B2 (ja) | センシングシステム、作業システム、拡張現実画像の表示方法、およびプログラム | |
US20180154518A1 (en) | User interface for a teleoperated robot | |
WO2004085120A1 (ja) | ロボットシミュレーション装置、および、シミュレーションプログラム | |
JP2012111029A (ja) | 3次元ロボットワークセルデータの表示システム、表示方法及び表示装置 | |
CN110682288A (zh) | 机器人程序生成装置 | |
CN112469538B (zh) | 数据生成装置及方法、数据生成程序、以及远程操作系统 | |
EP3465362B1 (en) | User interface for a teleoperated robot | |
CN111899629B (zh) | 柔性机器人教学系统和方法 | |
JP7160923B2 (ja) | シミュレーション方法、シミュレーションシステム | |
US20230409149A1 (en) | Virtual buttons for augmented reality light guided assembly system and calibration method | |
WO2023068352A1 (ja) | ロボットデータ処理サーバ及び補正プログラム算出方法 | |
KR20240102006A (ko) | 트랙킹형 다축 로봇의 작동 경로 설정 및 보정 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220623 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230630 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230704 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230804 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230905 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230929 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7360406 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |