JP7360406B2 - ロボット型ピッキングシステムのための拡張現実可視化 - Google Patents

ロボット型ピッキングシステムのための拡張現実可視化 Download PDF

Info

Publication number
JP7360406B2
JP7360406B2 JP2020572868A JP2020572868A JP7360406B2 JP 7360406 B2 JP7360406 B2 JP 7360406B2 JP 2020572868 A JP2020572868 A JP 2020572868A JP 2020572868 A JP2020572868 A JP 2020572868A JP 7360406 B2 JP7360406 B2 JP 7360406B2
Authority
JP
Japan
Prior art keywords
robot
virtual
parts
picking system
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020572868A
Other languages
English (en)
Other versions
JP2021528262A (ja
Inventor
カルバビ ガネーシュ
チョン ディレク
ケセルマン レオ
ジーン ミン-レン
ダブリュ.クラウス ケネス
ツァイ ジェイソン
Original Assignee
ファナック アメリカ コーポレイション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ファナック アメリカ コーポレイション filed Critical ファナック アメリカ コーポレイション
Publication of JP2021528262A publication Critical patent/JP2021528262A/ja
Application granted granted Critical
Publication of JP7360406B2 publication Critical patent/JP7360406B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/06Control stands, e.g. consoles, switchboards
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0093Programme-controlled manipulators co-operating with conveyor means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0014Image feed-back for automatic industrial control, e.g. robot with camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39451Augmented reality for robot programming
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40053Pick 3-D object from pile of objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Robotics (AREA)
  • General Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Optics & Photonics (AREA)
  • Manipulator (AREA)

Description

[関連出願の相互参照]
本出願は、2018年6月26日提出の「ロボット型ピッキングシステムのための拡張現実可視化」と題する米国仮特許出願第62/690141号の優先日の利益を主張する。
本発明は、自動化ロボットピッキングシステム、特に、1台又は複数台のロボットを含む視覚追跡システムを生産準備するために拡張現実表示機器を使用するシステムに関係し、システムは、長い立上げ時間を削減するために、システムを構成する部品、コンベア、ロボット及びセンサに診断及び生産データ(境界線を含めて)を重ねてロボット型ピッキングシステムパラメータの直観的生産調整を与える。
工業用部品ピックアンドプレースロボットは、ロボットがランダムに置かれランダムな向きの部品をコンベアから拾い上げて(ピック)、別のコンベア又は機械作動のために又は容器の中に特定の場所及び特定の向きに部品を置ける(プレース)ようにする視覚システムを含む非常に精巧な機械である。しかし、複数の視覚追跡システムを生産準備させるのは難しく時間が掛かる。
視覚追跡ロボット型ピッキングシステムを立ち上げるための典型的なリードタイムは、システムにおいてロボット1台当たり約1-1.5月である。又、エラーなしに所望の部品処理速度を達成するようにシステムを調整するのは、労働及び部品の点でコスト高である。リードタイムが長い主な理由は、部品がコンベア上で移動するとき、アンピック部品をゼロにして所望のピッキング率を得るようにシステムを調整するのは非常に困難であるためである。視覚感知の確認、ロボット間の負荷平衡、モーション調整及び診断の問題に関して課題がある。このような視覚追跡ロボット型ピッキングシステムを実現化する顧客は、部品処理速度を最適化しながらシステム立上げのためのリードタイムを最小化するための方式を必要とする。
上記の状況を考慮して、視覚追跡ロボット型ピッキングシステムのためにパラメータを生産調整するための対話式拡張現実(AR)ツールを提供することが望ましい。
本開示の教示によれば、視覚追跡ロボット型ピッキングシステムのためにパラメータを生産調整するための拡張現実(AR)システムが開示される。ロボット型ピッキングシステムは、ランダムに置かれランダムな向きの部品をコンベアベルトから拾い上げて第2の移動するコンベアベルト又はパレットなどの静止装置上の使用可能な位置に部品を置くように構成された1台又は複数台のロボットを含む。カメラ及びフォトアイなどのセンサは、供給コンベア上の部品の位置及び向きを識別する。ARシステムは、上流/放棄/下流境界線位置を含めたピッキングシステム調整パラメータを可視化して、制御できるようにし、リアルタイムのロボットピック/プレース作動を境界線の仮想表示と一緒に見えるようにし、ロボットによる部品処理速度及び部品割当てなどのシステム性能パラメータを見えるようにできる。ARシステムは、又、現実部品の代わりにあるいは現実部品に加えて、仮想部品をシミュレーションにおいて使用できるようにする。
本開示の機器及び方法の付加的特徴は、添付図面と一緒に下記の説明及び請求項を読めば明らかになるだろう。
本開示の1つの実施形態に従った視覚追跡ロボット型ピッキングシステムのためにパラメータを生産調整するためのシステムの図である。 本開示の1つの実施形態に従った、境界線及び部品の仮想表示を含む2台ロボット式ピッキングシステムの拡張現実(AR)表示の図である。 本開示の1つの実施形態に従った、ロボット型ピッキングシステムの図であり、ARタブレット機器が作業セルにおける視覚マーカーを画像化することによって作業セルに対するその位置及び向きを較正している。 本開示の1つの実施形態に従った、図3のシステムの図であり、ARタブレット機器が、ロボットの認識可能部品を画像化することによって作業セルに対するその位置及び向きを較正している。 本開示の1つの実施形態に従った、インバウンド及びアウトバウンドコンベア上の両方の境界線の仮想表示を含む、ロボット型ピッキングシステムのAR表示の図である。 本開示の1つの実施形態に従った、ロボットによってピックアンドプレースされる物理的現実部品を含む、図5のロボット型ピッキングシステムのAR表示の図である。 本開示の1つの実施形態に従った、ロボットによってピックアンドプレースされる仮想部品を含むロボット型ピッキングシステムのAR表示の図であり、次善の境界線配置が部品損失を生じている。 本開示の1つの実施形態に従った、ロボットによってピックアンドプレースされる仮想部品を含む図7のロボット型ピッキングシステムのAR表示の図であり、AR機器によって得られた改良された境界線配置が部品損失を排除する。 本開示の1つの実施形態に従った、境界線及び機能パラメータのAR表示を含む、ロボット型ピッキングシステムのAR表示の図である。 本開示の1つの実施形態に従った、視覚追跡ロボット型ピッキングシステムの拡張現実構成のための方法のフローチャートである。
視覚追跡ロボット型ピッキングシステムの拡張現実構成のための方法及びシステムに関する本開示の実施形態の以下の論証は、単なる代表的なものであり、開示される機器及び技法又はその応用及び使用を限定するためのものではない。
ロボット型ピッキングシステムは、多くの業種において非常に貴重な生産性ツールであることが知られている。ロボット型ピッキングシステムは、成形又は機械加工されたばかりの部品又はマフィン又はキャンディなどの食品でコンベア上にランダムな位置及び向きで置かれたものなどをコンベアベルトから拾い上げて、包装容器又は第2コンベアに特定の向き及び位置で部品を置ける。数台のロボットを、要求される量の部品を処理するために、コンベアベルトに沿って直列に配置できる。
これらのシステムは、非常に生産的であるが、視覚追跡ロボット型ピッキングシステムを立ち上げるための典型的なリードタイムは、システムのロボット当たり約1-1.5月である。又、エラーなく所望の部品処理速度を達成するようにシステムを調整することは、部品及び労働の点でコスト高でもある。リードタイムが長い主な理由は、部品がコンベア上で移動しているとき、特に複数台のロボットが関与する場合、アンピック部品ゼロで所望のピック速度を得るようにシステムを調整するのは非常に困難であるということである。課題は、視覚システムによって見つけられた部品の確認、各ロボットの境界線の配置による負荷平衡、モーション調整及び診断の問題を含む。
上記の必要性を認識して、視覚追跡ロボット型ピッキングシステムを迅速かつ効率的に生産調整するためにシステム改良が開発されてきた。開示するシステムは、AR機器における拡張現実(AR)アプリケーション実行を使用する。AR機器は、タブレット型コンピュータ機器又はARヘッドセット装置とすることができる。ARアプリケーションは、リアルタイムでロボット型ピッキングシステムのロボットコントローラと通信して、ロボットのピッキングエリアを限定するゾーン境界線の仮想表示及び性能パラメータを含めて、リアルタイムにロボットピックアンドプレース作動を可視化する。現実部品に加えて又はその代わりに仮想部品を使用できる。システムの詳細を下で論じる。
図1は、本開示の1つの実施形態に従った、視覚追跡ロボット型ピッキングシステムのためにパラメータを生産調整するためのシステム100の図である。システム100は、コントローラ112によって制御されたロボット110と、コントローラ122によって制御されたロボット120と、コントローラ132によって制御されたロボット130と、を含む。図1のロボット110、120及び130は、ピックアンドプレースアプリケーション専用のパラレルリンクロボットであるが、システム100においては、後に論じるように他のタイプのロボットも使用できる。ロボット110、120及び130は、有線のケーブル接続を介して又は無線でそれぞれのコントローラと通信できる。
ロボット110、120及び130は、コンベア140から部品を拾い上げて、部品を包装容器又は別のコンベア140に置くタスクのためにプログラムされる。部品及び配置位置は、単純化のために図1に示されない。パルスコーダ150がコンベア140の位置を追跡する。コンベア140は、一方向だけに移動し、パルスコーダ150によって追跡されるのは長手方向又は軸方向の位置である。カメラ160は、コンベア140に入ってくる部品(入来部品)の写真を撮り、画像は、コンベア140に対する入来部品の位置及び向きを測定するために使用される。カメラ160は、部品の存在を検出する近接センサ機器などのセンサと置き換えることができる。但し、多くの応用にはランダムな位置及び向きの入来部品が関与するので、カメラ、又は存在だけでなく位置及び向きも検出できる画像センサが好ましい。
ロボットコントローラ112、122及び132は、ネットワーク170を介してパルスコーダ150及びカメラ160と通信する。当業者には分かるように、ネットワーク170は、有線又は無線のローカルエリアネットワーク(LAN)又はその他のタイプのネットワークとすることができる。唯一の要件は、コントローラ112、122及び132がコンベア140上の入来部品の位置及び向き及びコンベア140の軸方向の位置をいつでも知っているように、コントローラ112、122及び132が、相互に及びパルスコーダ150及びカメラ160と通信できることだけである。この情報は、どのロボットがどの部品をピックアンドプレースするかを測定するために使用される。
上で論じた要素が、技術上知られるように、典型的な視覚追跡ロボット型ピッキングシステムを構成する。上記の要素に加えて、システム100は、AR機器180又は182を含む。AR機器180は、使用者190が手持ちするタブレット機器である。AR機器182は、使用者190が着用するヘッドセット装置である。AR機器180又は182は、下で論じるようにAR可視化アプリケーションに使用できる。AR機器180(タブレット)は、プロセッサ及びメモリを持ち、ネットワーク170上の他の機器と無線で通信しながらAR可視化アプリケーションを実行できる内蔵式機器とすることができる。AR機器182(ヘッドセット)は、プロセッサ及びメモリを持ち、ネットワーク170上の他の機器と通信しながらAR可視化アプリケーションを実行できる別個のコントローラ184を含むことができ、ARコントローラ184は、ネットワーク170と有線又は無線通信し、ARコントローラ184は、AR機器182(ヘッドセット)と無線通信する。下記の論証のほとんどにおいて、AR機器180は、自身又はAR機器182及び関連するARコントローラ184のプロキシとして使用される。
AR機器180又は182上でのAR可視化アプリケーション実行(図1の他の要素と通信して)は、ロボット型ピッキングシステムの性能調整が先行技術のシステム及び方法よりずっと短い時間で所望の性能レベルを達成できるようにする。AR可視化アプリケーションは、下記の特徴及び機能を与える:
・各ロボットの境界線(上流、放棄及び下流)-ピックコンベア及びプレースコンベア上の境界線を含めて-の仮想AR表示
・部品ピック性能に対する影響を測定するための境界線位置の操作及びロボットコントローラへの通信
・より迅速及びより容易な部品ピック性能のシミュレーションのための-物理的現実部品の代わりの又はこれに加えた-仮想部品の使用
・AR機器とロボットコントローラとの間の二方向通信。AR機器は、コントローラへ境界線情報を与え、コントローラは、リアルタイムで部品割当て及びピック/プレース情報をAR機器へ与える。
・診断および性能データのAR表示-損失部品、各ロボットへの部品割当て、全体部品処理速度、など-例えば、パラメータ変更の影響の理解。
・ロボットによる部品割当ての視覚認識を助けるためのカラーコード化及びその他の部品拡張データ。
・画像認識を使用する、作業セル座標系に対するAR機器の位置/向きの容易な位置合せ/較正
・視覚及び慣性走行距離計を使用するARの機器の位置/向きの連続追跡
これらの及びその他の特徴及び機能は、下に論証において詳細に説明する。
図2は、本開示の1つの実施形態に従った、境界線及び部品の仮想表示を含む2台ロボット式ピッキングシステムの拡張現実(AR)表示の図である。図2は、AR機器180又は182に表示される、現実アイテムのカメラ画像と仮想アイテムのコンピュータ化グラフィックスの両方を含む、AR可視化アプリケーションからの画像である。ロボット210及びロボット220は、インバウンドコンベア230から部品を拾い上げてアウトバウンドコンベア240上に部品を置くタスクを実施している。ロボット210及び220は、図1のパラレルリンクピックアンドプレースロボットと異なり、従来のマルチリンク関節ロボットである。前述のように、いずれのタイプのロボットでも、AR可視化アプリケーションに使用できる。
ロボット210及び220は、各々、専用ロボットコントローラと通信し、ロボットコントローラは、パルスコーダ(各コンベアに1台)及び部品画像化カメラと通信し、これらの要素(図示せず)は、図1を参照して前に述べたように、全てAR機器180と通信する。
インバウンドコンベア230上の部品は、前の製造作動後インバウンドコンベア230に落ちた通り、ランダムな場所及び向きを持つ。部品は、アウトバウンドコンベア240上では、利用可能な位置(200mmごとなど)で均等な規定された向きで置かれなければならない。図2に示すように、インバウンドコンベア230及びアウトバウンドコンベア240の両方のモーション方向は左向きである。
ロボット210及び220及びコンベア230及び240は、工場の作業セルに配置される物理的現実アイテムである。これは、図2において、AR機器180のカメラからの画像として見える。視覚マーカー232及び234も、物理的現実アイテムである。これらは、既知のサイズ、形状及びデザインを持つグラフィカルマーカーであり、作業セルの既知の場所に置かれる。視覚マーカー232及び234は、図2において、都合の良い場所であるインバウンドコンベア230に貼り付けられるものとして示される。但し、視覚マーカー232及び234は、作業セル内の別の場所に配置できる。マーカー232及び234は、図3を参照して下で論じるように、作業セル座標系におけるAR機器180の空間位置合せ/較正のために使用される。
図2は、またロボット210及び220の作業ゾーンを画定する境界線を示す。境界線は、コンベア230及び240の動きの方向に直交する垂直平面で表される。上流境界線250は、ロボット210がインバウンドコンベア230から部品を拾い上げることができる最も上流の位置を画定する。放棄境界線252は、部品がロボット210に割り当てられなかった(拾い上げるために割り当てられなかった)場合に、ロボット210が部品を拾い上げようとしなくなる位置を画定する。言い換えると、ロボット210は、部品が割り当てられずに放棄境界線252に到達したとき部品を無視する。下流境界線254は、ロボット210がインバウンドコンベア230から部品を拾い上げることができる最も下流の位置を画定する。上流境界線256及び放棄境界線258は、上述の境界線と同様にロボット220に適用される。ロボット220の下流境界線は図の左に位置するので見えない。
ロボット型ピッキングシステムが部品を静止パレット又はその他の容器に置くとき、部品は、容器(例えば、ボックスは10x10グリッドの内部を持ち、1つの部品が各セルに置かれる必要がある)の中の利用可能なスポットに置かれなければならない。ロボット型ピッキングシステムが図2に示すようにアウトバウンドコンベアを含む場合、アウトバウンドコンベア240は、同様に画定される境界線を持つ必要がある。上流境界線260は、ロボット210がアウトバウンドコンベア240上に部品を置くことができる最も上流の位置を画定する。放棄境界線262は、利用可能なスロットがロボット210に(ロボット210によって使用されるように)割り当てられなかった場合、ロボット210がこのスロットに部品を置こうとしない位置を画定する。下流境界線264は、ロボット210がアウトバウンドコンベア240に部品を置ける最も下流の位置を画定する。上流境界線266、放棄境界線268及び下流境界線270は、上述の境界線と同様にロボット220に適用される。
部品280は、インバウンドコンベア230上の様々な位置及び向きで示される。図2に示す部品280は、ロボットコントローラが実写シミュレーション中に仮想部品をピックアンドプレースできるように、あたかもカメラによって検出されたように、AR可視化アプリケーションによって表示されロボットコントローラによって処理された仮想部品である。これについては下でさらに論じる。
性能インディケータ290も図2に示される。性能インディケータ290は、多種の性能インディケータ(AR可視化アプリケーションによってコンピュータ計算され表示される仮想アイテム)の1つである。
AR機器180上でのロボット型ピッキングシステム実行のためのAR可視化アプリケーションは、ロボットコントローラと二方向リアルタイム通信を行う。使用者が境界線位置を修正すると、AR可視化アプリケーションは、修正された境界線位置をロボットコントローラへ通信し、ロボットコントローラは、直ちに、ピック/プレース計算において修正境界線位置を使用し始める。したがって、境界線変更の効果は、使用者によって直ちに観察できる。更に、ロボットコントローラは、AR可視化アプリケーションに表示するために全ての部品割当て、ピックアンドプレース作動をAR機器180へ通知する。これは、高速のリアルタイム通信であり、現実部品及び仮想部品の両方を含む。AR可視化アプリケーションは、現実シーン(ロボット、コンベア及び現実部品)のカメラ画像上に重ねられた全ての部品移動のリアルタイム仮想表示を与える。AR可視化アプリケーションは、又、ロボットコントローラから受信したリアルタイム部品割当て及びピック/プレース作動データに基づく性能パラメータをコンピュータ計算する。
図2のこれまでの論証は、ロボット型ピッキングシステムのためのAR可視化アプリケーション及びこれにおいて表示されるアイテムの概説である。
図3は、本開示の1つの実施形態に従ったロボット型ピッキングシステムの図であり、ARタブレット機器が、作業セルにおける視覚マーカーを画像化することによって作業セルに対するその位置及び向きを較正している。ロボット300は、コンベア310から部品を拾い上げてコンベア312上に部品を置くタスクが割り当てられる。ロボット型ピッキングシステムのためのAR可視化アプリケーションは、前に論じたように、使用者190によってAR機器180上で使用されるためのものである。任意のAR機器が現実世界の部品のカメラ画像に重ねて適切に仮想アイテム(境界線及び仮想部品など)を表示するために、AR機器は、常に作業セルに対するその位置及び向きを知らなければならない。このために、作業セル内で既知の原点及び向きを持つ作業セル座標系が画定され、AR機器180の位置及び向きが、固定作業セル座標系に対して測定される。更に、他の様々な座標系-各ロボットに関する座標系、コンベアに関する座標系及び各部品に関する座標系-が画定される。
最初に固定作業セル座標系に対するAR機器180の位置及び向きを測定するために、視覚マーカーのカメラ画像を分析できる。図3において、視覚マーカー320及び330は、コンベア310に固定される。作業セル座標系に対する視覚マーカー320及び330のサイズ、形状及び場所は、AR可視化アプリケーションに分かっている。最初にAR機器180の位置及び向きを測定する1つの技法は、AR機器180の表示において2つの視覚マーカー(この場合、マーカー320及び330)を見つけることである。即ち、カメラ画像におけるマーカー320及び330のサイズ、形状および位置を分析することによって、AR機器180は、マーカー320及び330に対する、したがって作業セル座標系に対する空間的位置及び向きを計算できる。
図4は、本開示の1つの実施形態に従った図3のシステムの図であり、ARタブレット機器180がロボットの認識可能な部品を画像化することによって、作業セルに対するその場所及び向きを較正している。AR機器180の位置及び向きを測定するための別の技法は、AR機器180の表示の中でロボット300の部品など認識可能な部品を見つけることである。図4において、ロボットアーム302の「フォーク」部分が、AR機器180の表示の中で見つけられる。仮想画像302aが、AR視覚化アプリケーションによって表示され、部品(ロボットアーム302)が識別されたことを使用者190に示す。ロボットコントローラは、常にロボット300の構成を知っているので、ロボットアーム302の位置及び向きはコントローラ及びAR機器180に分かっている。この情報から、AR機器180は、作業セル座標系に対するその空間的位置及び向きを計算できる。
最初にAR機器180の位置及び向きが確認されたら、この位置及び向きは、AR技術の熟練者には分かるように視覚及び/又は慣性走行距離測定技術の組合せによって連続的に追跡できる。AR機器180(又は182)は、1台又は複数台のジャイロスコープ及び1台又は複数台の加速度計を含む慣性センサを含み、慣性センサは、AR機器の中のプロセッサへ信号を与えて、慣性走行距離計によってAR機器の位置及び向きの変化を連続的にコンピュータ計算できるようにする。AR機器180(又は182)による作業セルにおけるシーンの画像の連続的分析は、慣性走行距離計からの位置データを精錬し較正するために使用できる視覚走行距離測定情報を提供する。
図5は、本開示の1つの実施形態に従ったインバウンドコンベア及びアウトバウンドコンベアの両方における境界線の仮想表示を含むロボット型ピッキングシステム500のAR表示の図である。図5は、AR機器180に表示される、現実アイテムのカメラ画像及び仮想アイテムのコンピュータグラフィックスの両方を含む、AR可視化アプリケーションからの画像である。ロボット510は、インバウンドコンベア520(矢印で示される移動方向を持つ)から部品を拾い上げて、コンベア530(同じ方向に移動する)上に部品を置くタスクを割り当てられる。
上流境界線540(縁面図)、放棄境界線542及び下流境界線544は、インバウンドコンベア520からのロボット510の部品拾い上げについて画定される。上流境界線550、放棄境界線552及び下流境界線554は、ロボット510によってアウトバウンドコンベア530上に部品を置くために画定される。図5には視覚マーカーも示され、視覚マーカー560は、上述のようにAR機器180の位置及び向きの較正のために使用される。
図5は、一切、部品(現実も仮想も)を示していない。その代わりに、図5は、シミュレーション及び性能調整が始まる前のAR可視化アプリケーションにおいて見られるロボット型ピッキングシステム500を示す。
図6は、本開示の1つの実施形態に従った図5のロボット型ピッキングシステム500のAR表示の図であり、ロボットによってピックアンドプレースされる物理的現実部品を含む。図6は、AR機器180に表示される現実アイテムのカメラ画像及び仮想アイテムのコンピュータグラフィックスの両方を含む、AR可視化アプリケーションからの画像である。図6には、現実部品が視覚システムによって見つけられたことを確認する現実部品への仮想部品ブロックの重なりも示す。
図5において前に示したインバウンドコンベア520の境界線540、542及び544及びアウトバンドコンベア530の境界線550、552及び554は、図6でも見られる。これらの境界線は、上述の通りロボット510の行動を拘束する。図6において、現実部品はインバウンドコンベア520に供給されている。明確にするために、使用者がシステム500の構成パラメータを調整するためにロボット型ピッキングシステムのためのAR可視化アプリケーションを使用しているとき、ロボット510は、実際に作動している-インバウンドコンベア520から現実部品を拾い上げて、アウトバウンドコンベア530に部品を置く-。部品、コンベア520及び530及びロボット510は、全てAR機器180においてカメラ画像として見える。
現実部品560は、インバウンドコンベア530上で移動している。部品560は、上流境界線540を通過したので、ロボット510によって拾い上げ可能である。AR可視化アプリケーションは、現実部品560に仮想部品ブロック562を重ねることによって、部品560が視覚システム(図1のカメラ160など)によって認識されたことを示す。仮想部品ブロック562は、その状態-どのロボットに割り当てられるか(複数のロボットの場合)又は割り当てられていないかどうかなど-を示すためにカラーコード化できる。仮想部品ブロック562は、又、情報フラグも含む。情報フラグ564は、色及び/又はテキスト符号にコード化された他の情報(例えば部品又はモデル番号)を含むことができる。
現実部品570は、ロボット510によってアウトバウンドコンベア530上に置かれたばかりである。部品570に関連付けられる仮想部品ブロック及び情報フラグは、図の明確化のために図6には示さず、部品に関連付けられる仮想部品ブロック及び情報フラグは、任意にアウトバウンドコンベア530上の部品に続くことができ、コード化された情報は、状態の変化を反映して変化する(既にピックアンドプレースされた;コード化された情報はどのロボットによるかを示す)。現実部品572はアウトバウンドコンベア530において更に下流に在り、これらの部品572は、もっと前にロボット510によってピックアンドプレースされている。
他の部品580は、インバウンドコンベア530上に在る。部品580は、ひっくり返っていて、ロボット型ピッキングシステム500にとって有効な部品ではないか、間違ったタイプの部品又はその他の理由で無効である。部品580が無効なので、視覚システムは、ロボット510によるピックアンドプレースのために部品を待ち列に入れない。
図7は、本開示の1つの実施形態に従った、ロボットによってピックアンドプレースされる仮想部品を含むロボット型ピッキングシステム700のAR表示の図であり、次善の境界線配置は損失部品を生じる。図7は、AR可視化アプリケーションからの画像であり、AR機器180上に表示されるように、現実アイテムのカメラ画像及び仮想アイテムのコンピュータグラフィックスの両方を含む。
ロボット710及びロボット720は、インバウンドコンベア730から部品を拾い上げかつアウトバウンドコンベア740上に部品を置いている。上流境界線750、放棄境界線752及び下流境界線754は、ロボット710によってインバウンドコンベア730から部品を拾い上げるために画定される。上流境界線760、放棄境界線762及び下流境界線764は、ロボット720によってインバウンドコンベア730から部品を拾い上げるために画定される。アウトバウンドコンベア740に部品を置くための境界線は、図7に示されるが、図の論証に関連しないので、図7においては番号が付けられない。
図7のロボット型ピッキングシステム700において、現実部品はインバウンドコンベア730に供給されていない。代わりに、部品770などの仮想部品が、AR可視化アプリケーションによって与えられたパラメータに基づいてロボットコントローラによって生成される。仮想部品770は、使用者規定部品供給速度で生成され、ランダムに割り当てられた又は規定された統計分布に基づいて割り当てられた位置及び向きを持つ。仮想部品770は、ロボット型ピッキングシステムシミュレーション及びパラメータの生産調整のために、現実部品に加えて又は現実部品の代わりに、使用できる。
図7において、ピッキング境界線位置は未だ最適化されていない。放棄境界線752が上流境界線750に非常に近いのが分かる。このような境界線配列は、ロボット710の効率の良さを導かず、その結果、非常に多くの部品をピックアンドプレースしない。システム700に対する正味影響は、多くの部品770がロボット710の下流のインバウンドコンベア730上にまだあり、インバウンドコンベア730上のいくつかの部品780が既にロボット720の下流境界線764を通過している。これらの部品780は損失部品であり、拾い上げられるチャンスがもはやない。損失部品は望ましくないので、ロボット型ピッキングシステム700のパラメータ調整を改良する必要がある。
メニュウィンドウ790が、図7のAR機器180のディスプレイに示される。メニュウィンドウ790は、状況に応じて変化する仮想表示であり、当業者には分かるように、ロボット型ピッキングシステムのためのAR可視化アプリケーションのコマンド及び制御のために様々な選択肢を与える。
図8は、本開示の1つの実施形態に従った、図7のロボット型ピッキングシステム700のAR表示の図であり、ロボットによってピックアンドプレースされる仮想部品を含み、境界線配置を改良して、損失部品を無くしている。図8は、AR機器180上に表示されるように、現実アイテムのカメラ画像及び仮想アイテムのコンピュータグラフィックスの両方を含むAR可視化アプリケーションからの画像である。
図8において、ピッキング境界線位置は、AR可視化アプリケーションによって提供される対話式シミュレーション及び可視化特徴によって微調整されている。放棄境界線752は、図7より上流境界線750から離れている。このような境界線配列は、ロボット710の効率を改良し、その結果、入来部品770の約半分をピックアンドプレースする。システム700への正味影響は、ロボット710の下流のインバウンドコンベア730上に在る部品770はずっと少なく、ロボット720の下流境界線764を通過した部品780はない。すなわち、図8の境界線位置では損失部品がない。
これまでの図及び論証は、各ロボットのための3つの境界線の位置がロボット型ピッキングシステムの性能にどのように重要であるかを充分に例証している。ロボット型ピッキングシステムのためのAR可視化アプリケーションは、使用者がシステム性能を改良するために境界線を移動できるようにする。境界線は、一方向のみの(コンベアの軸方向又は長手方向)位置的意味しか持たないので、境界線は一方向にしか移動できない。1つの実施形態において、ARジェスチャ(使用者の手による)は、境界線を選択し、その境界線を上流又は下流に移動し、新しい位置を受容できるようにする。別の実施形態において、ジェスチャ又はメニュコマンド(仮想表示される)が境界線の選択のために使用され、その後、境界線を移動するために(例えば上流に50mm)メニュコマンドが使用される。他の境界線編集パラダイムも提供できる。
初期境界線配置に関する限り(上記の編集前)、この初期境界線配置は、少なくとも2つの異なる方式で処理できる。1つの実施形態において、最初に各ロボットのために3つの境界線を生成し配置するために、別のロボット型ピッキングシステム構成システムを使用できる。この構成システムは、業界に既存であり(使用者がロボットコントローラと通信するティーチペンダントを操作するシステムなど)、既存のシステムは、本開示のAR可視化アプリケーションの対話式可視化及び性能調整を提供しないが、既存のシステムは境界線生成を可能にする。したがって、境界線の初期位置は、既存のシステムから又はロボットコントローラ自体からAR可視化アプリケーションへインポートできる。
別の実施形態において、AR可視化アプリケーションは、自身の境界線生成機能を持つことができる-境界線は、当初いくつかのデフォルト位置に生成できる(例えば、上流境界線は関連するロボットの上流からデフォルト距離に配置され、放棄境界線は、関連するロボットのすぐ隣に配置され、下流境界線は、関連するロボットの下流からデフォルト距離に配置される)-か、又はAR可視化アプリケーションは、最初に境界線が生成されるときに各境界線を位置付けるように使用者にプロンプトを発することができる。境界線が当初どのように生成されるか又はAR可視化アプリケーションにインポートされるかに関係なく、使用者は、上述の通り性能を微調整するために、アプリケーションの境界線可視化及び移動特徴を使用できる。
AR可視化アプリケーションの可視化及び修正特徴によって微調整される境界線位置は、ロボットコントローラへフィードバックされなければならない。境界線位置の各変化は、ロボットコントローラへ通信され、ロボットコントローラは、ピック/プレース計算に新しい位置を使用する。使用者は、その後、ロボット型ピッキングシステムの性能に対する境界線変更の影響を観察できる。使用者がロボット型ピッキングシステムが所望の性能を達成するように調整されたと納得した場合、使用者は、単に境界線位置を確認し、前述のようにAR機器と通信するロボットコントローラへ委ねるためにメニュコマンドを選択する。その後、それ以上AR可視化アプリケーションまたはAR機器の関与なしに、AR可視化アプリケーションにおいて修正された境界線を使用して、ロボット型ピッキングシステムの生産作動が続行できる。
ロボット型ピッキングシステムのためのAR可視化アプリケーションの他の特徴も提供され、本出願において論証される。様々な仮想特徴及びメニュの表示が、使用者によって希望通りに有効または無効にできる。例えば、アウトバウンドコンベア上の境界線は、使用者がインバウンドコンベア上の境界線位置を最適化しながら、無効にできる。又はその逆が可能である。同様に、メニュ及び性能パラメータ表示は、オン(見えるようにする)又はオフにでき、その位置(タブレット型AR機器のスクリーン上又はARヘッドセットを使用する場合には空間における位置)を所望通りに変更できる。
AR表示及び現実世界の作業セルオブジェクトのカメラ画像の記録も提供される。あるセッションを記録することは、そのセッションに居なかった別の当事者へロボット型ピッキングシステムの性能を便利に通信できるようにする-他のエンジニア及び技術者によるトラブルシューティングのために顧客及び供給者と共有するためなどに。
使用者によるAR可視化アプリケーション及び/又は他の(非AR)境界線画定システムへの入力及び対話は、便利にかつ直接的に行える。例えば、AR可視化アプリケーションが開始されると、使用者は、AR可視化アプリケーションに(そのコントローラを介して)接続する1台又は複数台のロボットを選択し、コンベアなどの作業セルオブジェクトを選択し、上述の通り修正すべき境界線を選択できる。
仮想部品生成は、使用者が必要に応じて開始し、停止できる。1つの実施形態において、ロボットコントローラは、実際に仮想部品を生成し、ロボットコントローラによる生成は、部品のタイプ、インバウンドコンベア上でのその配置及び向きの分布、及び部品供給速度を含めた制御パラメータに基づく。仮想部品に関するこれらのパラメータは、AR可視化アプリケーションの中のメニュコマンドを介して制御可能であり、ロボットコントローラへ通信される。仮想部品のため及び現実部品にタグ付けされた表示画像のための表示パラメータ(カラーコード及び情報フラグ)も、使用者が制御可能である。情報フラグ及びカラーコード化は、現実又は仮想部品の多様な属性について規定できる。例えば、全ての入来部品は、1つの色で表示でき、各部品がロボットに割り当てられたとき色も変化する(異なるロボットに異なる色)。カラーコード化及び情報フラグは、更に、部品が実際に特定のロボットによって拾い上げられたとき、部品が特定のロボットによって置かれたとき、損失部品、落下部品(現実部品について)などを識別できる。
仮想要素(境界線、仮想部品、部品情報フラッグ、メニュ表示及び性能パラメータ表示など)の表示は、使用者が最適に見えるために制御できる。これは、境界線の透明度の設定、上述のような部品情報のカラーコード化の設定、テキストのフォントサイズ及び色の設定、表示される座標系トライアドのサイズ及び色の画定、テキスト及びメニュ表示のための場所(タブレットスクリーン上又はAR空間の中の)の画定を含む。
図9は、本開示の1つの実施形態に従った、境界線及び性能パラメータのAR表示を含むロボット型ピッキングシステム900のAR表示の図である。図9は、AR機器180に表示される、現実アイテムのカメラ画像及び仮想アイテムのコンピュータグラフィックスの両方を含む、AR可視化アプリケーションからの画像である。
ロボット910及び第2ロボット(図示せず)には、前に述べたように、インバウンドコンベア920から部品940を拾い上げてアウトバウンドコンベア930上に部品940を置くタスクを割り当てられる。仮想境界線(上流、放棄及び下流)の表示に加えて、図9は、性能パラメータの表示を示す。性能パラメータの表示は、拡張現実システムの当業者には分かるように、適切な様式で配列でき、フォーマット化できる。例えば、性能パラメータ表示は、AR可視エリアの適切な場所に配置するか、又は性能パラメータ表示は、作業セルの3Dボリュームの中の「空間に置くこと」ができる。
図9の例において、ロボット型ピッキングシステム900の効率及び有効性を特徴付ける、数個の性能パラメータが表示される。パラメータは、インバウンドコンベア920について、コンベア速度、コンベアへの部品導入速度及びシミュレーション時間枠における損失部品の合計数を含む。パラメータは、また、ロボットの各々について部品ピック速度を含む。これらのパラメータは、ロボット型ピッキングシステム900が性能要件-要求される部品処理速度について損失部品ゼロである、及び2つのロボット間でほぼ等しいピック速度を持つなど-を満たしているか否かを判定するために必要な情報を、使用者又はオペレータに与える。ロボット型ピッキングシステムのためのAR可視化アプリケーションは、性能パラメータを改良するようにシステムを調節するために必要なツール-特にロボットの各々について3つの境界線の位置を調整する能力-を使用者に与える。
他の性能パラメータも、AR可視化アプリケーションにおいて使用者に表示することが可能である。性能パラメータ、メニュ及びその他のアイテムの表示は、使用者によって構成可能であり、いつでも表示においてオン又はオフにできる。1つの実施形態において、特定のコンベア又はロボットについての性能統計は、AR空間において使用者がコンペア又はロボットを「タップオン」することによって表示できる。別の実施形態において、AR機器の中で単にロボットを見るだけで、ロボットの状態及び統計が表示されるようにする。これは、ロボットに欠陥があるか否か、移動しないことによってロボットに欠陥がない場合の理由、ロボットについてピック/プレース性能統計の表示を含むことができる。特定のコンベアについての性能データも、同様に、AR表示の中でコンベアを見ることによって表示できる。多くの他の表示制御-全ての性能パラメータの表示をオンにする、全ての表示をオフにする、など-が提供される。
AR機器がタブレットコンピュータ機器(性能統計がスクリーン上の特定場所に表示できる)であるか又はARヘッドセット装置(性能統計は、使用者が見て対話するために作業セルの特定場所において「スペースに置かれる」仮想スクリーンとして表示できる)。メニュ表示及び対話も同様に処理できる。本開示を通じて、しばしばタブレットAR機器180を参照する。同じ概念がヘッドセットAR機器182にも応用されることが分かるはずである。
図3及び4に関する前の論証において、作業セル座標系(固定「グローバル」座標系)に対するAR機器の位置/向きの位置合せ/較正が説明されている。他の各種座標系と作業セル座標系との間の数学的変換は、当業者には分かるようにAR可視化アプリケーションにおいて処理される。図1に示されるパルスコーダ150からのデータ信号によって測定される、固定作業セル座標系に対する位置及び速度を持つコンベア追跡座標系を確立できる。カメラ160によって識別された部品には個別の部品追跡座標系位置及び向きが割り当てられ、部品追跡座標系は、部品がインバウンドコンベア(又はアウトバウンドコンベア)上に在るときコンベア追跡座標系と一緒に移動する。同様に、部品追跡座標系は、部品がロボットによってピックアンドプレースされた後に、アウトバウンドコンベア追跡座標系と一緒に移動する。仮想部品、及び現実部品についての仮想マーカーも、それぞれのコンベア及びツールセンターポントと一緒に移動する部品追跡座標系を有する。
ロボット型ピッキングシステムにおける各ロボットは、これに関連付けられる座標系を有する-ロボットのベース位置における固定座標系、ロボット上の1つ又は複数の接合場所における移動座標系、ツールセンターポイント(例えば部品を拾い上げるための吸引カップ又はその他のツールの中心)の移動座標系を含めて-。ロボットがその吸引カップ又は部品を拾い上げるためのその他のツールを展開するとき、部品追跡座標系は、部品がアウトバウンドコンベア又は輸送コンテナに置かれるまで、ツールセンターポイント追跡座標系と一緒に移動する。
AR機器180は、自身の座標系も有する。作業セル座標系に対するAR機器座標系を確立し連続的に更新するための技法については前に論じた。作業セル座標系に対する座標系の全てを適切に画定し連続的に追跡することによって、全ての部品、ロボットツール及びAR機器のリアルタイムの移動のコンピュータ計算が可能になる。これは、ロボットコントローラがそのピッキング計画及び移動を計算できるようにし、AR機器が、現実アイテムのカメラ画像に対する適切なサイズ及び向きで仮想アイテムの全てを適切に表示できるようにする。
座標系表示は、使用者によって制御可能である。例えば、使用者は、いくつかの座標系(部品追跡座標系及びツールセンターポイント追跡座標系など)の表示をオンにして、他の座標系(コンベア又は作業セル座標系など)をオフにできる。座標系トライアドの長さ、厚み及び色も、表示が有効にされたとき、使用者によって制御可能である。
図10は、本開示の1つの実施形態に従った、視覚追跡ロボット型ピッキングシステムを拡張現実構成するための方法のフローチャート1000である。枠1002において、AR機器(180又は182)は、前述のように、無線通信を介してロボットコントローラ又はコントローラとの通信を確立する。ロボットコントローラは、有線又は無線LANを介して相互に及びカメラ及びパルスコーダと通信でき、AR機器との通信は無線であることが好ましい。ロボットの各々についての予備境界線位置は、ロボットコントローラの中に既に存在する可能性がある。このような境界線が存在する場合、枠1004において、ロボットコントローラ又は非ARロボット型ピッキングシステム構成プログラムからAR機器にダウンロードされる。先在作業ゾーンが利用できない場合、使用者は、AR可視化アプリケーションにおいて境界線を生成、修正及び可視化するためにプロセスを続行できる。
枠1006において、AR機器は、ロボットに対して較正される。AR機器の位置及び向きは、ロボット型ピッキングシステムの作業セルにおける固定座標系である「ワールド座標系」と位置合せされる。作業セル座標系に対するAR機器の位置合せは、マーカーの複数の画像がAR機器によって捕捉されるように、1つ又は複数の視覚マーカーにAR機器のカメラを向けることによって実施される。AR機器の位置及び向きが作業セル座標系と位置合せされた後に、作業セル座標系に対するAR機器の位置及び向きを連続的に追跡するために、慣性及び視覚走行距離計が、AR可視化アプリケーションによって使用される。この技法において、AR機器のプロセッサは、AR機器に内蔵される加速度計及びジャイロスコープから信号を受信して、加速及びヨーレート信号の集積に基づきAR機器の更新位置及び向きを連続的にコンピュータ計算する。位置及び向きは、視覚マーカー又はその他の既知の場所に存在する認識可能なアイテムの画像など機器上のカメラからの画像に基づいて、チェックされ修正される。全ての仮想アイテムの表示は、AR機器の位置及び向きに基づいて現実アイテムのカメラ画像に適合するようにコンピュータ計算される。又、枠1006において、AR可視化プリケーションは、ロボット型ピッキングシステムのための仮想境界線の表示を開始する。
枠1008において、インバウンドコンベア及びアウトバウンドコンベアの移動(又はアウトバウンド包装容器の配置)を含めて、ロボット型ピッキングシステムの作動が開始される。枠1010において、部品の流れは、インバウンドコンベアへ向かって開始される。ボックス1010において導入される部品は、現実部品、仮想部品又はその両方を含むことができる。1つ又は複数の部品モデルを含めることができる。仮想部品は、AR可視化アプリケーション使用者によって選択された部品の流量でかつ部品の位置/向きの分布で導入される。ボックス1010において現実及び/又は仮想部品が導入されるとき、AR可視化アプリケーションは、仮想部品ボックス、識別フラッグ又はその両方で部品を識別し、ロボット型ピッキングシステムは、インバウンドコンベアから部品を拾い上げ、アウトバウンドコンベア又は容器に部品を置き始める。ロボット型ピッキングシステムの作動が枠1008において開始されると、ロボットコントローラは、リアルタイムに、各部品割当て及びピック/プレース作動をAR可視化アプリケーションに通信する。
枠1012において、使用者は、ロボットピック/プレースゾーンの境界線を所望通りに修正し、修正された境界線はロボットコントローラへ通信され、使用者は、ロボット型ピッキングシステムの性能への影響を観察する。典型的な目的は、損失部品ゼロで所望の部品流量及びロボット型ピッキングシステムの各ロボットによって処理される部品のほぼ等しいバランスを達成することである。枠1012における対話及び反復において、使用者は、ジェスチャ又はその他のコマンドを使用して境界線を修正し、作業セルを歩き回って任意の所望の観点からロボット型ピッキングシステムの作動を見て、AR可視化プリケーションに表示される性能パラメータを評価する。使用者が、AR可視化アプリケーションにおける境界線位置を修正すると、修正された位置は、対応するロボットコントローラへ伝達され、ロボットのピック/プレース作動をコンピュータ計算するためにコントローラによって使用される。使用者がARシーンを観察するとき、ロボットは、実際に、動いている-現実部品をピックアンドプレースし、AR可視化アプリケーションにおいて修正された境界線を使用してそのそれぞれのコントローラによるリアルタイムの計算に基づいて仮想部品のピックアンドプレースをシミュレートする。
ロボット型ピッキングシステムの作動及びAR可視化アプリケーションのシミュレーション全体を通じて、AR機器とロボットコントローラとの間の通信及びデータの流れは、二方向であると考えるべきである。使用者がAR可視化アプリケーションにおいて境界線を動かすと、AR機器は、ロボットピック/プレース作動のコンピュータ計算に使用するために、直ちに修正された境界線位置をロボットコントローラへ通信する。これは、AR可視化アプリケーションの主要な属性である-境界線は、使用者によって可視化でき、修正でき、修正された境界線位置の影響は、直ちに、直接、ロボット型ピッキングシステムのリアルタイムの性能において観察可能である。同時に、ロボットコントローラは、個々の部品で識別されるあらゆる部品割当て(ロボットによる選択)及びピック/プレース作動をリアルタイムにAR機器へ通信する。これによって、AR機器が、部品状態の変化を示すためにAR表示を更新し、拾い上げられるときの部品の動きを示し、損失部品及び各ロボットによって処理された部品を含めた性能統計をコンピュータ計算できるようにする。
枠1014において、ロボット型ピッキングシステムの境界線可視化及び修正が完了して、使用者が、システム性能に満足したとき、最終的境界線がロボットコントローラにアップロードされ、生産作動のために確認/約束される。生産作動において、最終的境界線は、ピック/プレース作動をリアルタイムでコンピュータ計算するためにロボットコントローラによって使用される。
以上の論証の全体を通じて、各種コントローラについて説明し、示唆された-ロボットの動き及びタスクを制御するため、AR可視化アプリケーションをAR機器上で実行するためになど-。これらのコントローラのソフトウェアアプリケーション及びモジュールは、不揮発性メモリにおいて構成されたアルゴリズムを含めて、プロセッサ及びメモリモジュールを有する1台又は複数台のコンピュータ機器において実行される。特に、これは、ロボットコントローラ112/122/132中のプロセッサ、AR機器180/182及びARコントローラを含む。ロボット、そのコントローラ及び可搬式機器の間の通信は、有線ネットワーク越しとするか、又は適切な任意の無線技術-セルラーフォン/データネットワーク、WiFi、ブルートゥース(登録商標)、ブロードバンドインターネットなど-を使用できる。
上に概説したように、ロボット型ピッキングシステムのための拡張現実可視化の開示される技法は、先行技術に比べていくつかの利点がある。使用者が容易にかつ直観的にロボットピック/プレース境界線を調整し、仮想部品を導入し、リアルタイムでシステム性能を見る機能は、先行技術よりはるかに優れている。
ロボット型ピッキングシステムのための拡張現実可視化のための方法及びシステムの多数の代表的形態及び実施形態が上で説明されるが、当業者は、その修正、入換え、追加、組合せを認識できるだろう。したがって、以下の請求項は、その真の主旨及び範囲内としてこれらの全ての修正、入換え、追加及び組合せを含むものとして解釈される。

Claims (23)

  1. 拡張現実を使用して視覚追跡ロボット型ピッキングシステムを構成するためのシステムであって、前記システムが、
    作業セルにおける1台又は複数台のロボットであって、各ロボットが、該ロボットと通信するロボットコントローラを有し、前記ロボットコントローラがプロセッサ及びメモリを含み、前記ロボットの作動を制御するためのロボット制御ソフトウェアを持つように構成される、ロボットと、
    前記1台又は複数台のロボットコントローラと通信する拡張現実(AR)機器であって、前記AR機器が1台又は複数台のカメラ、位置追跡センサ及びディスプレイを有し、前記AR機器が、更にロボット型ピッキングシステム可視化ARソフトウェアアプリケーションを実行するように構成されたプロセッサ及びメモリを含む、AR機器と、
    を備え、
    前記ロボット型ピッキングシステム可視化ARソフトウェアアプリケーションが、
    前記1台又は複数台のロボットの各々について予備境界線を与えることであって、前記予備境界線がロボットピックアンドプレース作動空間を限定する、与えることと、
    作業セル座標系に対する前記AR機器の位置及び向きを確立し連続的に追跡することと、
    前記作業セルにおける現実アイテムのカメラ画像に重ねて前記予備境界線及びその他の仮想アイテムのAR表示を与えることと、
    前記視覚追跡ロボット型ピッキングシステムによる処理のために仮想部品のコンベアによる流れをシミュレートするように前記1台又は複数台のロボットコントローラに命令することであって、仮想部品、現実部品又はその両方を前記視覚追跡ロボット型ピッキングシステムによって処理できる、命令することと、
    境界線位置修正を使用者から受信することと、
    前記境界線位置修正を前記1台又は複数台のロボットコントローラへ通信することと、
    部品割当て及び部品ピックアンドプレース情報を前記ロボットコントローラから受信することと、
    前記AR表示においてピッキングシステム性能パラメータを表示することと、
    を含む機能を提供する、
    システム。
  2. 前記AR機器が、前記使用者が着用するヘッドセット装置又は前記使用者によって手持ちされる可搬式機器である、請求項1に記載のシステム。
  3. 更に、前記視覚追跡ロボット型ピッキングシステムにおいて各コンベアの位置を追跡するように構成されたパルスコーダ機器と、各コンベア上の前記現実部品の存在及び位置及び向きを検出するように構成されたカメラ又はその他のセンサと、を備える、請求項1に記載のシステム。
  4. 前記1台又は複数台のロボットのために予備境界線を与えることが、別個のロボット型ピッキングシステムセットアップアプリケーションから前記予備境界線をダウンロードすること又は前記ロボット型ピッキングシステム可視化ARソフトウェアアプリケーション内のデフォルト位置に前記予備境界線を確立することを含む、請求項1に記載のシステム。
  5. 前記作業セル座標系に対する前記AR機器の前記位置及び向きを確立することが、既知のデザインを有しかつ前記作業セル座標系の中の既知の場所に置かれた1つ又は複数の視覚マーカーの画像を分析することを含む、請求項1に記載のシステム。
  6. 前記位置追跡センサが、1台又は複数台のジャイロスコープ及び1台又は複数台の加速度計を含み、前記位置追跡センサが前記AR機器の中の前記プロセッサに信号を与えて、前記AR機器の位置及び向きの変化を連続的にコンピュータ計算できるようにする、請求項1に記載のシステム。
  7. AR表示を与えることが、前記AR機器が前記作業セルを動き回るとき前記現実アイテムの前記カメラ画像に対して適切なサイズ、形状及び位置で前記予備境界線及び前記その他の仮想アイテムを表示することを含む、請求項1に記載のシステム。
  8. 前記その他の仮想アイテムが、前記仮想部品、前記現実部品上の部品識別ブロック、現実部品及び仮想部品上の部品情報フラグ、座標系トライアド及びカメラ位置及び視界を含み、前記その他の仮想アイテムの前記表示が、前記ロボットコントローラから受信した前記部品割当て及び部品ピックアンドプレース情報に基づいて連続的に更新される、請求項1に記載のシステム。
  9. 仮想部品をシミュレートするように前記1台又は複数台のロボットコントローラに命令することが、仮想部品供給速度及びインバウンドコンベアにおいて前記視覚追跡ロボット型ピッキングシステムに供給される前記仮想部品の位置及び向きの統計分布を前記使用者によって選択することを含む、請求項1に記載のシステム。
  10. 前記使用者から境界線位置修正を受信することが、修正する境界線を選択し、上流又は下流方向に使用者指定距離だけ前記境界線を移動し、前記境界線位置修正を受容することを含み、境界線を選択し、前記境界線を移動し、前記修正を受容することが、ARベースのジェスチャ、メニュコマンド又はその両方を介して前記使用者によって実施される、請求項1に記載のシステム。
  11. 前記境界線位置修正を前記1台又は複数台のロボットコントローラへ通信することが、ロボットピックアンドプレース作動のコンピュータ計算において前記予備境界線の修正位置を前記ロボットコントローラによって使用することを含む、請求項1に記載のシステム。
  12. 前記AR表示においてピッキングシステム性能パラメータを表示することが、所定の時点で前記AR表示において見える任意の1台又は複数台のロボット又はコンベアに関する性能パラメータ及び診断情報を表示することを含む、請求項1に記載のシステム。
  13. 前記ピッキングシステム性能パラメータが、コンベア速度、現実部品処理速度、仮想部品処理速度、合計部品処理速度、損失部品数、部品ピック速度/ロボット及び部品ピック率/ロボットを含み、前記性能パラメータの任意の組合せを前記使用者の選択する通りに表示可能である、請求項1に記載のシステム。
  14. 前記予備境界線が、各コンベアについて各ロボットについての上流境界線、放棄境界線及び下流境界線を含む、請求項1に記載のシステム。
  15. 視覚追跡ロボット型ピッキングシステムを構成するための装置であって、前記装置が、1台又は複数台のロボットコントローラと通信する拡張現実(AR)機器を備え、前記AR機器が、1台又は複数台のカメラ、位置追跡センサ及びディスプレイを有し、前記AR機器が、更に、ロボット型ピッキングシステム可視化ソフトウェアアプリケーションを実行するように構成されたプロセッサ及びメモリを含み、前記ロボット型ピッキングシステム可視化ソフトウェアアプリケーションが、前記視覚追跡ロボット型ピッキングシステムにおいて前記1台又は複数台のロボットコントローラと相互作動し、前記視覚追跡ロボット型ピッキングシステムよって処理するために仮想部品のコンベアによる流れをシミュレートするように前記1台又は複数台のロボットコントローラに命令し、前記AR機器上のAR表示に境界線及びその他の仮想アイテムを表示し、使用者による境界線修正を可能にし、前記1台又は複数のロボットコントローラへ前記境界線修正を通信し、前記AR表示においてリアルタイムに部品の移動及びピッキングシステム性能パラメータを表示する、ように構成される、
    装置。
  16. 拡張現実を使用して視覚追跡ロボット型ピッキングシステムを構成するための方法であって、前記方法が、
    1台又は複数台のロボットの各々と通信するロボットコントローラを持つ1台又は複数台のロボットを有するロボット型ピッキングシステムを提供することと、
    前記1台又は複数台のロボットコントローラと通信する拡張現実(AR)機器を提供することであって、前記AR機器が、1台又は複数台のカメラ、位置追跡センサ及びディスプレイを有し、前記AR機器が、更に、ロボット型ピッキングシステム可視化ARソフトウェアアプリケーションを実行するように構成されたプロセッサ及びメモリを含む、提供することと、
    予備境界線位置を与えることと、
    作業セル座標系に対する前記AR機器の位置及び向きを較正し、連続的に追跡することと、
    インバウンドコンベア上での部品の流れを開始することを含めて、前記ロボット型ピッキングシステムの作動を開始することであって、前記部品の流れが、現実部品、前記1台又は複数台のロボットコントローラによってシミュレートされる仮想部品の流れ、又はその両方を含む、開始することと、
    前記AR機器上にAR表示を与えることであって、前記AR表示が、前記ロボット型ピッキングシステムの作業セルにおける現実アイテムのカメラ画像に重ねられた境界線及びその他の仮想アイテムを含む、与えることと、
    前記ロボット型ピッキングシステム可視化ARソフトウェアアプリケーションの使用者によって前記予備境界線位置を修正することと、
    前記ロボット型ピッキングシステム可視化ARソフトウェアアプリケーションから前記1台又は複数台のロボットコントローラへ前記予備境界線位置を通信することと、
    前記ロボットコントローラから前記ロボット型ピッキングシステム可視化ARソフトウェアアプリケーションへリアルタイムに部品割当て及び部品ピックアンドプレース情報を通信することと、
    前記AR表示においてピッキングシステム性能パラメータを表示することと、
    を含む、方法。
  17. 前記その他の仮想アイテムが、前記仮想部品、前記現実部品上の部品識別ブロック、現実部品及び仮想部品上の部品情報フラグ及び座標系トライアドを含み、前記その他の仮想アイテムの表示が、前記ロボットコントローラから受信した前記部品割当て及び部品ピックアンドプレース情報に基づいて連続的に更新される、請求項16に記載の方法。
  18. 前記1台又は複数台のロボットコントローラによってシミュレートされた前記仮想部品が、仮想部品供給速度及び前記インバウンドコンベア上の前記仮想部品の位置及び向きの統計分布についての使用者規定値を含む、前記ロボット型ピッキングシステム可視化ARソフトウェアアプリケーションによって与えられたパラメータに基づく、請求項16に記載の方法。
  19. 使用者によって前記予備境界線位置を修正することが、使用者によって修正する境界線を選択し、上流方向又は下流方向に使用者指定距離だけ前記境界線を移動し、前記使用者による前記境界線位置の修正を受容すること、を含み、境界線を選択し、前記境界線を移動し、前記修正を受容することが、ARベースのジェスチャ、メニュコマンド又はその両方を介して前記使用者によって実施される、請求項16に記載の方法。
  20. 前記予備境界線位置を前記1台又は複数台のロボットコントローラへ通信することが、ロボットピックアンドプレース作動のコンピュータ計算において前記ロボットコントローラによって前記境界線の修正位置を使用することを含む、請求項16に記載の方法。
  21. 前記AR表示においてピッキングシステム性能パラメータを表示することが、所定の時点で前記AR表示において見える任意の1台又は複数台のロボット又はコンベアに関する性能パラメータ及び診断情報を表示することを含む、請求項16に記載の方法。
  22. 前記ピッキングシステム性能パラメータが、インバウンドコンベア速度、現実部品処理速度、仮想部品処理速度、合計部品処理速度、損失部品数、部品ピック速度/ロボット及び部品ピック率/ロボットを含み、前記性能パラメータの任意の組合せが前記使用者によって選択される通り前記AR表示において表示可能である、請求項16に記載の方法。
  23. 前記ロボット型ピッキングシステムが、前記1台又は複数台のロボットによって拾い上げられる部品を搬送する前記インバウンドコンベアと、前記1台又は複数台のロボットによって置かれる部品を受け取るためのアウトバウンドコンベア又は静止容器を含み、前記境界線が、各コンベアについて各ロボットについて上流境界線、放棄境界線及び下流境界線を含む、請求項16に記載の方法。
JP2020572868A 2018-06-26 2019-06-26 ロボット型ピッキングシステムのための拡張現実可視化 Active JP7360406B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201862690141P 2018-06-26 2018-06-26
US62/690,141 2018-06-26
US16/453,838 US11472035B2 (en) 2018-06-26 2019-06-26 Augmented reality visualization for robotic picking system
PCT/US2019/039346 WO2020006146A1 (en) 2018-06-26 2019-06-26 Augmented reality visualization for robotic picking system
US16/453,838 2019-06-26

Publications (2)

Publication Number Publication Date
JP2021528262A JP2021528262A (ja) 2021-10-21
JP7360406B2 true JP7360406B2 (ja) 2023-10-12

Family

ID=68981308

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020572868A Active JP7360406B2 (ja) 2018-06-26 2019-06-26 ロボット型ピッキングシステムのための拡張現実可視化

Country Status (5)

Country Link
US (1) US11472035B2 (ja)
EP (1) EP3814075A4 (ja)
JP (1) JP7360406B2 (ja)
CN (1) CN112638593B (ja)
WO (1) WO2020006146A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6795471B2 (ja) * 2017-08-25 2020-12-02 ファナック株式会社 ロボットシステム
JP6579498B2 (ja) * 2017-10-20 2019-09-25 株式会社安川電機 自動化装置及び位置検出装置
JP6833111B1 (ja) * 2019-11-28 2021-02-24 三菱電機株式会社 表示制御装置、表示システム、及び、表示制御方法
MX2022006131A (es) * 2019-12-05 2022-06-17 Magna Int Inc Metodo y configuracion para robotica sin vallas.
US11969904B2 (en) * 2020-03-24 2024-04-30 Qingdao university of technology Registration system and method for robot-oriented augmented reality teaching system
US11989843B2 (en) 2022-06-22 2024-05-21 Snap Inc. Robotic learning of assembly tasks using augmented reality

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007090479A (ja) 2005-09-28 2007-04-12 Fanuc Ltd ロボットのオフライン教示装置
JP2007242054A (ja) 1995-09-19 2007-09-20 Yaskawa Electric Corp ロボット言語処理装置
WO2016021130A1 (ja) 2014-08-05 2016-02-11 パナソニックIpマネジメント株式会社 オフラインティーチング装置
JP2017102242A (ja) 2015-12-01 2017-06-08 株式会社デンソーウェーブ 情報表示システム
JP2017100206A (ja) 2015-11-30 2017-06-08 株式会社デンソーウェーブ ロボット安全システム
DE102017125190A1 (de) 2016-10-28 2018-05-03 Fanuc Corporation Vorrichtung, Verfahren, Programm und Aufzeichnungsmedium zur Simulation des durch Roboter durchgeführten Vorgangs zum Anordnen von Artikeln

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005111607A (ja) * 2003-10-07 2005-04-28 Fanuc Ltd ロボット物流トラッキング装置
DE102005061211B4 (de) * 2004-12-22 2023-04-06 Abb Schweiz Ag Verfahren zum Erzeugen einer Mensch-Maschine-Benutzer-Oberfläche
JP5803155B2 (ja) * 2011-03-04 2015-11-04 セイコーエプソン株式会社 ロボット位置検出装置及びロボットシステム
US9415509B2 (en) * 2011-11-04 2016-08-16 Fanuc America Corporation Robot teach device with 3-D display
JP5838873B2 (ja) * 2012-03-15 2016-01-06 オムロン株式会社 シミュレーション装置、シミュレーション方法、および、シミュレーションプログラム
DE102012206350A1 (de) * 2012-04-18 2013-10-24 Deutsches Zentrum für Luft- und Raumfahrt e.V. Verfahren zum Betreiben eines Roboters
JP6052576B2 (ja) * 2012-05-30 2016-12-27 日本電気株式会社 情報処理システム、情報処理方法、情報処理装置、携帯端末およびその制御方法と制御プログラム
US20130343640A1 (en) * 2012-06-21 2013-12-26 Rethink Robotics, Inc. Vision-guided robots and methods of training them
US9481518B2 (en) * 2013-02-24 2016-11-01 Intelligrated Headquarters Llc Order fulfillment system and method
EP2996611B1 (en) * 2013-03-13 2019-06-26 Stryker Corporation Systems and software for establishing virtual constraint boundaries
US10888998B2 (en) * 2013-10-07 2021-01-12 Abb Schweiz Ag Method and device for verifying one or more safety volumes for a movable mechanical unit
JP6042860B2 (ja) * 2014-12-02 2016-12-14 ファナック株式会社 ロボットを用いて物品を移送する物品移送装置及び物品移送方法
JP2016107379A (ja) * 2014-12-08 2016-06-20 ファナック株式会社 拡張現実対応ディスプレイを備えたロボットシステム
US10223589B2 (en) * 2015-03-03 2019-03-05 Cognex Corporation Vision system for training an assembly system through virtual assembly of objects
US9643314B2 (en) * 2015-03-04 2017-05-09 The Johns Hopkins University Robot control, training and collaboration in an immersive virtual reality environment
US9802317B1 (en) * 2015-04-24 2017-10-31 X Development Llc Methods and systems for remote perception assistance to facilitate robotic object manipulation
US10220510B2 (en) * 2015-06-02 2019-03-05 Humatics Corporation Unified collaborative environments
US9919427B1 (en) * 2015-07-25 2018-03-20 X Development Llc Visualizing robot trajectory points in augmented reality
JP6458713B2 (ja) * 2015-11-18 2019-01-30 オムロン株式会社 シミュレーション装置、シミュレーション方法、およびシミュレーションプログラム
US10414043B2 (en) * 2017-01-31 2019-09-17 Fanuc America Corporation Skew and circular boundary for line tracking and circular tracking
JP6438509B2 (ja) * 2017-02-28 2018-12-12 ファナック株式会社 ロボットシステムのシミュレーション装置、シミュレーション方法、およびコンピュータプログラム
JP6659615B2 (ja) * 2017-04-04 2020-03-04 ファナック株式会社 生体認証機能を有するシステム
JP6795471B2 (ja) * 2017-08-25 2020-12-02 ファナック株式会社 ロボットシステム
US10445944B2 (en) * 2017-11-13 2019-10-15 Rockwell Automation Technologies, Inc. Augmented reality safety automation zone system and method
JP6805199B2 (ja) * 2018-03-26 2020-12-23 株式会社東芝 設備監視システム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007242054A (ja) 1995-09-19 2007-09-20 Yaskawa Electric Corp ロボット言語処理装置
JP2007090479A (ja) 2005-09-28 2007-04-12 Fanuc Ltd ロボットのオフライン教示装置
WO2016021130A1 (ja) 2014-08-05 2016-02-11 パナソニックIpマネジメント株式会社 オフラインティーチング装置
JP2017100206A (ja) 2015-11-30 2017-06-08 株式会社デンソーウェーブ ロボット安全システム
JP2017102242A (ja) 2015-12-01 2017-06-08 株式会社デンソーウェーブ 情報表示システム
DE102017125190A1 (de) 2016-10-28 2018-05-03 Fanuc Corporation Vorrichtung, Verfahren, Programm und Aufzeichnungsmedium zur Simulation des durch Roboter durchgeführten Vorgangs zum Anordnen von Artikeln
JP2018069377A (ja) 2016-10-28 2018-05-10 ファナック株式会社 ロボットが行う物品整列作業のシミュレーションのための装置、方法、プログラム及び記録媒体

Also Published As

Publication number Publication date
EP3814075A4 (en) 2022-03-30
US20190389069A1 (en) 2019-12-26
EP3814075A1 (en) 2021-05-05
US11472035B2 (en) 2022-10-18
WO2020006146A1 (en) 2020-01-02
CN112638593A (zh) 2021-04-09
CN112638593B (zh) 2024-09-06
JP2021528262A (ja) 2021-10-21

Similar Documents

Publication Publication Date Title
JP7360406B2 (ja) ロボット型ピッキングシステムのための拡張現実可視化
US11850755B2 (en) Visualization and modification of operational bounding zones using augmented reality
CN108000524B (zh) 模拟装置、模拟方法、模拟程序以及存储介质
CN106873549B (zh) 模拟装置以及模拟方法
US10888998B2 (en) Method and device for verifying one or more safety volumes for a movable mechanical unit
JP7096288B2 (ja) ロボットを制御する方法
US10052765B2 (en) Robot system having augmented reality-compatible display
EP1092513B1 (en) Graphic display apparatus for robot system
JP3732494B2 (ja) シミュレーション装置
JP6856583B2 (ja) センシングシステム、作業システム、拡張現実画像の表示方法、拡張現実画像の記憶方法、およびプログラム
EP2282873B1 (en) A method and a system for facilitating calibration of an off-line programmed robot cell
WO2020055903A1 (en) Robot calibration for ar and digital twin
US20040172168A1 (en) Taught position modification device
JP6856590B2 (ja) センシングシステム、作業システム、拡張現実画像の表示方法、およびプログラム
US20180154518A1 (en) User interface for a teleoperated robot
WO2004085120A1 (ja) ロボットシミュレーション装置、および、シミュレーションプログラム
JP2012111029A (ja) 3次元ロボットワークセルデータの表示システム、表示方法及び表示装置
CN110682288A (zh) 机器人程序生成装置
CN112469538B (zh) 数据生成装置及方法、数据生成程序、以及远程操作系统
EP3465362B1 (en) User interface for a teleoperated robot
CN111899629B (zh) 柔性机器人教学系统和方法
JP7160923B2 (ja) シミュレーション方法、シミュレーションシステム
US20230409149A1 (en) Virtual buttons for augmented reality light guided assembly system and calibration method
WO2023068352A1 (ja) ロボットデータ処理サーバ及び補正プログラム算出方法
KR20240102006A (ko) 트랙킹형 다축 로봇의 작동 경로 설정 및 보정 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220623

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230630

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230704

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230804

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230905

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230929

R150 Certificate of patent or registration of utility model

Ref document number: 7360406

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150