JP7145843B2 - ロボットマニピュレータの訓練 - Google Patents

ロボットマニピュレータの訓練 Download PDF

Info

Publication number
JP7145843B2
JP7145843B2 JP2019503354A JP2019503354A JP7145843B2 JP 7145843 B2 JP7145843 B2 JP 7145843B2 JP 2019503354 A JP2019503354 A JP 2019503354A JP 2019503354 A JP2019503354 A JP 2019503354A JP 7145843 B2 JP7145843 B2 JP 7145843B2
Authority
JP
Japan
Prior art keywords
article
item
robotic manipulator
strategy
grasping
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019503354A
Other languages
English (en)
Other versions
JP2019531908A (ja
JP2019531908A5 (ja
Inventor
ラエル オドナー,
ライフ ジェントフト,
ヤロスラブ テンザー,
マーク ケック,
ロバート ハウ,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Publication of JP2019531908A publication Critical patent/JP2019531908A/ja
Publication of JP2019531908A5 publication Critical patent/JP2019531908A5/ja
Application granted granted Critical
Publication of JP7145843B2 publication Critical patent/JP7145843B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/081Touching devices, e.g. pressure-sensitive
    • B25J13/082Grasping-force detectors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J15/00Gripping heads and other end effectors
    • B25J15/008Gripping heads and other end effectors with sticking, gluing or adhesive means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J15/00Gripping heads and other end effectors
    • B25J15/06Gripping heads and other end effectors with vacuum or magnetic holding means
    • B25J15/0616Gripping heads and other end effectors with vacuum or magnetic holding means with vacuum
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F7/00Methods or arrangements for processing data by operating upon the order or content of the data handled
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/085Force or torque sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J15/00Gripping heads and other end effectors
    • B25J15/0009Gripping heads and other end effectors comprising multi-articulated fingers, e.g. resembling a human hand
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/026Acoustical sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G1/00Storing articles, individually or in orderly arrangement, in warehouses or magazines
    • B65G1/02Storage devices
    • B65G1/04Storage devices mechanical
    • B65G1/137Storage devices mechanical with arrangements or automatic control means for selecting which articles are to be removed
    • B65G1/1373Storage devices mechanical with arrangements or automatic control means for selecting which articles are to be removed for fulfilling orders in warehouses
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
    • G05B19/4189Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by the transport system
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40053Pick 3-D object from pile of objects
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40537Detect if robot has picked up more than one piece from bin; interlocked parts
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Manipulator (AREA)

Description

(関連出願の相互参照)
本願は、2016年7月18日に出願された同時係属中の米国仮出願第62/363,446号の利益を主張するものであり、該米国仮出願の全開示は、その全体が本明細書中に述べられているかのように参照により本明細書中に援用される。
本明細書に説明される実施形態は、概して、ロボットマニピュレータを訓練するためのシステム、デバイス、および方法に関し、より具体的には、限定ではないが、ロボットマニピュレータを訓練し、1つまたはそれを上回る物品を把持するためのシステム、デバイス、および方法に関する。
倉庫等のインフラストラクチャシステムは、多くの場合、物品を受入、発送、および保管する。最近まで、物品移動の大部分は、人間の作業者によって手動で取り扱われた。しかしながら、最近、これらの仕事は、ロボットデバイスによって取り扱われることが多くなってきた。
これらの仕事は、いくつかの輸送デバイス(例えば、コンベヤベルト)が、1つ以上の物品を伴う箱または他の容器デバイスをロボットピッカーデバイスにもたらす、グッズトゥピッカーワークフローを伴い得る。ロボットピッカーデバイスは、次いで、容器から物品をピッキングし、物品を別の場所(例えば、別の場所に発送するための別の格納容器)の中に設置する。
加えて、または代替として、これらの仕事は、ピッカートゥグッズワークフローを伴い得る。これらのワークフローでは、物品は、最初に、倉庫内のいくつかの場所(例えば、箱の中、棚の上、または同等の場所)に存在し得る。ロボットピッカーデバイスは、第1の場所から物品の場所に進行することを可能にする、輸送デバイスを伴って構成され得る。いったんそこに来ると、ロボットピッカーデバイスは、物品をピッキングし、物品をさらなる処理または発送のための別の場所に運び得る。
これらのピッキングシステムおよび方法は、物流環境において、または物品が種々の場所に、またはそこから移動される必要がある環境において有用である。これらの環境は、倉庫環境、小売店舗、および製造および組立工場を含み得る。
これらのロボットピッキングシステムは、人による手動ピッキングよりも大幅にコストが少なくすみ得る。故に、可能な場所、可能な時にロボットによるアプローチを使用することによって、経済的利点が存在する。加えて、これらの自動化システムは、機械を移動させる近傍に存在する人が少ないため、安全を促進する。
しかしながら、これらのシステムの開発および展開は、全ての物品がロボットピッキングシステムによって確実に把持されることができるわけではないため、多くの場合、困難である。したがって、既存のシステムおよびワークフローの上記の欠点を克服する方法、システム、ならびにデバイスに対する必要性が、存在する。
本概要は、以下の発明を実施するための形態の節においてさらに説明される、概念の選択を単純化された形態で紹介するために提供される。本概要は、請求される主題の重要となる特徴または不可欠な特徴を識別または除外することは意図されておらず、そして請求される主題の範囲の決定の補助として使用されることは意図されていない。
ある側面では、実施形態は、ロボットマニピュレータを訓練する方法に関する。本方法は、第1のセンサデバイスから物品に関するデータを受信するステップと、メモリ上に記憶される命令を実行し、計画モジュールを提供する、処理デバイスを使用して、ロボットマニピュレータによって実行されるべき物品把持方略を生成し、物品を把持するステップと、実行のためのロボットマニピュレータに、物品把持方略を伝送するステップと、第2のセンサデバイスから、物品把持方略の実行に関するデータを受信するステップと、計画モジュールおよび少なくとも第2のセンサデバイスから受信されたデータを使用して、物品把持方略を評価するステップとを含む。
いくつかの実施形態では、物品に関する受信データは、サイズデータを含む。
いくつかの実施形態では、物品に関する受信データは、形状データを含む。
いくつかの実施形態では、物品に関する受信データは、材料データを含む。
いくつかの実施形態では、物品に関する受信データは、重量データを含む。
いくつかの実施形態では、本方法は、評価に基づいて、物品把持方略の少なくとも1つのパラメータを改変し、是正物品把持方略を提供するステップと、実行のためのロボットマニピュレータに、是正把持方略を伝送するステップとをさらに含む。いくつかの実施形態では、少なくとも1つのパラメータは、把持するステップの前のロボットマニピュレータ位置と、事前把持操作と、画像処理技術と、第1のセンサデバイスからのフィードバックへの応答とから成る群から選択される。
いくつかの実施形態では、ロボットマニピュレータは、把持方略を実行するための、ロボットハンドデバイスを含む。
いくつかの実施形態では、ロボットマニピュレータは、把持方略を実行するための、吸引デバイスを含む。
いくつかの実施形態では、ロボットマニピュレータは、把持方略を実行するための、粘着性デバイスを含む。
いくつかの実施形態では、把持方略を評価するステップは、ロボットマニピュレータが、物品を把持したかどうかを判定するステップを含む。
いくつかの実施形態では、第1のセンサデバイスおよび第2のセンサデバイスは、同一のデバイスである。
いくつかの実施形態では、本方法は、実行のためのロボットマニピュレータに、物品把持方略を伝送するステップと、第2のセンサデバイスから、物品把持方略の実行に関するデータを受信するステップと、計画モジュールおよび第2のセンサデバイスから受信されるデータを使用して、物品把持方略を評価するステップとを反復するステップをさらに含む。
いくつかの実施形態では、本方法は、データベースモジュール内に、物品把持方略の成功率に関するデータを記憶するステップをさらに含む。
いくつかの実施形態では、本方法は、以前の把持成功率に基づいて、把持されるべき物品を選択するステップをさらに含む。
いくつかの実施形態では、本方法は、物品の少なくとも1つの物理特性に基づいて、把持されるべき物品を選択するステップをさらに含む。
いくつかの実施形態では、物品把持方略を、実行のためのロボットマニピュレータに伝送するステップは、物品把持方略を、週末の間に、実行のためのロボットマニピュレータに伝送するステップを含む。
いくつかの実施形態では、物品把持方略を、実行のためのロボットマニピュレータに伝送するステップは、物品把持方略を、夜間の期間の間に、実行のためのロボットマニピュレータに伝送するステップを含む。
いくつかの実施形態では、物品把持方略を、実行のためのロボットマニピュレータに伝送するステップは、物品把持方略を、非繁忙期間の間に、実行のためのロボットマニピュレータに伝送するステップを含む。
別の側面によると、実施形態は、ロボットマニピュレータを訓練ためのシステムに関する。システムは、物品を把持するためのロボットマニピュレータと、物品に関するデータを採集するための第1のセンサデバイスと、物品把持方略の実行に関するデータを採集するための第2のセンサデバイスと、メモリ上に記憶される命令を実行し、ロボットマニピュレータによって実行されるべき物品把持方略を生成し、物品を把持し、物品把持方略を、実行のためのロボットマニピュレータに伝送し、第2のセンサデバイスから受信されたデータを使用して、ロボットマニピュレータによって実行される物品把持方略を評価するように構成される計画モジュールを提供する、処理デバイスとを含む。
いくつかの実施形態では、物品に関するデータは、サイズデータを含む。
いくつかの実施形態では、物品に関するデータは、形状データを含む。
いくつかの実施形態では、物品に関するデータは、材料データを含む。
いくつかの実施形態では、物品に関するデータは、重量データを含む。
いくつかの実施形態では、計画モジュールはさらに、評価に基づいて、物品把持方略の少なくとも1つのパラメータを改変し、是正物品把持方略を提供するように構成され、ロボットマニピュレータはさらに、是正物品把持方略を実行するように構成される。いくつかの実施形態では、少なくとも1つのパラメータは、把持するステップの前のロボットマニピュレータ位置と、事前把持操作と、画像処理技術と、第1のセンサデバイスからのフィードバックへの応答とから成る群から選択される。
いくつかの実施形態では、ロボットマニピュレータは、把持方略を実行するための、ロボットハンドデバイスを含む。
いくつかの実施形態では、ロボットマニピュレータは、吸引デバイス含む。
いくつかの実施形態では、ロボットマニピュレータは、粘着性デバイスを含む。
いくつかの実施形態では、物品把持方略を評価するステップは、ロボットマニピュレータが物品を把持したかどうかを判定するステップを含む。
いくつかの実施形態では、第1のセンサデバイスおよび第2のセンサデバイスは、同一のデバイスである。
いくつかの実施形態では、ロボットマニピュレータおよび計画モジュールはさらに、物品把持方略を生成するステップと、物品把持方略を伝送するステップと、物品把持方略を評価するステップとを反復するように構成される。
いくつかの実施形態では、物品把持方略の成功率に関するデータを記憶するための、データベースモジュールをさらに備える。
いくつかの実施形態では、把持されるべき物品は、以前の把持成功率に基づいて選択される。
いくつかの実施形態では、把持されるべき物品は、物品の少なくとも1つの物理特性に基づいて選択される。
いくつかの実施形態では、ロボットマニピュレータは、週末の間に把持方略を実行する。
いくつかの実施形態では、ロボットマニピュレータは、夜間の期間の間に把持方略を実行する。
いくつかの実施形態では、ロボットマニピュレータは、非繁忙期間の間に把持方略を実行する。
本願明細書は、例えば、以下の項目も提供する。
(項目1)
ロボットマニピュレータを訓練する方法であって、前記方法は、
第1のセンサデバイスから物品に関するデータを受信するステップと、
メモリ上に記憶される命令を実行し計画モジュールを提供する処理デバイスを使用して、前記ロボットマニピュレータによって実行されるべき物品把持方略を生成し、前記物品を把持するステップと、
実行のためのロボットマニピュレータに、前記物品把持方略を伝送するステップと、
第2のセンサデバイスから、前記物品把持方略の実行に関するデータを受信するステップと、
前記計画モジュールおよび少なくとも第2のセンサデバイスから受信された前記データを使用して、前記物品把持方略を評価するステップと
を含む、方法。
(項目2)
前記物品に関する前記受信データは、サイズデータを含む、項目1に記載の方法。
(項目3)
前記物品に関する前記受信データは、形状データを含む、項目1に記載の方法。
(項目4)
前記物品に関する前記受信データは、材料データを含む、項目1に記載の方法。
(項目5)
前記物品に関する前記受信データは、重量データを含む、項目1に記載の方法。
(項目6)
前記評価に基づいて、前記物品把持方略の少なくとも1つのパラメータを改変し、是正物品把持方略を提供するステップと、
実行のためのロボットマニピュレータに、前記是正把持方略を伝送するステップと
をさらに含む、項目1に記載の方法。
(項目7)
前記少なくとも1つのパラメータは、把持するステップの前のロボットマニピュレータ位置と、事前把持操作と、画像処理技術と、前記第1のセンサデバイスからのフィードバックへの応答とから成る群から選択される、項目6に記載の方法。
(項目8)
前記ロボットマニピュレータは、前記把持方略を実行するための、ロボットハンドデバイスを含む、項目1に記載の方法。
(項目9)
前記ロボットマニピュレータは、前記把持方略を実行するための、吸引デバイスを含む、項目1に記載の方法。
(項目10)
前記ロボットマニピュレータは、前記把持方略を実行するための、粘着性デバイスを含む、項目1に記載の方法。
(項目11)
前記物品把持方略を評価するステップは、前記ロボットマニピュレータが、前記物品を把持したかどうかを判定するステップを含む、項目1に記載の方法。
(項目12)
前記第1のセンサデバイスおよび前記第2のセンサデバイスは、同一のデバイスである、項目1に記載の方法。
(項目13)
実行のためのロボットマニピュレータに、前記物品把持方略を伝送するステップと、
前記第2のセンサデバイスから、前記物品把持方略の実行に関するデータを受信するステップと、
前記計画モジュールおよび前記第2のセンサデバイスから受信される前記データを使用して、前記物品把持方略を評価するステップと
を反復するステップをさらに含む、項目1に記載の方法。
(項目14)
データベースモジュール内に、前記物品把持方略の成功率に関するデータを記憶するステップをさらに含む、項目1に記載の方法。
(項目15)
以前の把持成功率に基づいて、前記把持されるべき物品を選択するステップをさらに含む、項目1に記載の方法。
(項目16)
前記物品の少なくとも1つの物理特性に基づいて、前記把持されるべき物品を選択するステップをさらに含む、項目1に記載の方法。
(項目17)
前記物品把持方略を、実行のための前記ロボットマニピュレータに伝送するステップは、前記物品把持方略を、週末の間に、実行のための前記ロボットマニピュレータに伝送するステップを含む、項目1に記載の方法。
(項目18)
前記物品把持方略を、実行のための前記ロボットマニピュレータに伝送するステップは、前記物品把持方略を、夜間の期間の間に、実行のための前記ロボットマニピュレータに伝送するステップを含む、項目1に記載の方法。
(項目19)
前記物品把持方略を、実行のための前記ロボットマニピュレータに伝送するステップは、前記物品把持方略を、非繁忙期間の間に、実行のための前記ロボットマニピュレータに伝送するステップを含む、項目1に記載の方法。
(項目20)
ロボットマニピュレータを訓練するためのシステムであって、前記システムは、
物品を把持するためのロボットマニピュレータと、
前記物品に関するデータを採集するための第1のセンサデバイスと、
物品把持方略の実行に関するデータを採集するための第2のセンサデバイスと、
処理デバイスであって、前記処理デバイスは、メモリ上に記憶される命令を実行することにより、
前記ロボットマニピュレータによって実行されるべき物品把持方略を生成し、前記物品を把持することと、
前記物品把持方略を、実行のためのロボットマニピュレータに伝送することと、
前記第2のセンサデバイスから受信されたデータを使用して、前記ロボットマニピュレータによって実行された前記物品把持方略を評価することと
を行うように構成される計画モジュールを提供する、処理デバイスと
を備える、システム。
(項目21)
前記物品に関する前記データは、サイズデータを含む、項目20に記載のシステム。
(項目22)
前記物品に関する前記データは、形状データを含む、項目20に記載のシステム。
(項目23)
前記物品に関する前記データは、材料データを含む、項目20に記載のシステム。
(項目24)
前記物品に関する前記データは、重量データを含む、項目20に記載のシステム。
(項目25)
前記計画モジュールはさらに、前記評価に基づいて、前記物品把持方略の少なくとも1つのパラメータを改変し、是正物品把持方略を提供するように構成され、前記ロボットマニピュレータはさらに、前記是正物品把持方略を実行するように構成される、項目20に記載のシステム。
(項目26)
前記少なくとも1つのパラメータは、把持するステップの前のロボットマニピュレータ位置と、事前把持操作と、画像処理技術と、前記第1のセンサデバイスからのフィードバックへの応答とから成る群から選択される、項目25に記載のシステム。
(項目27)
前記ロボットマニピュレータは、前記把持方略を実行するためのロボットハンドデバイスを含む、項目20に記載のシステム。
(項目28)
前記ロボットマニピュレータは、前記把持方略を実行するための吸引デバイス含む、項目20に記載のシステム。
(項目29)
前記ロボットマニピュレータは、前記把持方略を実行するための粘着性デバイスを含む、項目20に記載のシステム。
(項目30)
前記物品把持方略を評価するステップは、前記ロボットマニピュレータが前記物品を把持したかどうかを判定するステップを含む、項目20に記載のシステム。
(項目31)
前記第1のセンサデバイスおよび前記第2のセンサデバイスは、同一のデバイスである、項目20に記載のシステム。
(項目32)
前記ロボットマニピュレータおよび前記計画モジュールはさらに、前記物品把持方略を生成するステップと、前記物品把持方略を伝送するステップと、前記物品把持方略を評価するステップとを反復するように構成される、項目20に記載のシステム。
(項目33)
前記物品把持方略の成功率に関するデータを記憶するためのデータベースモジュールをさらに備える、項目20に記載のシステム。
(項目34)
前記把持されるべき物品は、以前の把持成功率に基づいて選択される、項目20に記載のシステム。
(項目35)
前記把持されるべき物品は、前記物品の少なくとも1つの物理特性に基づいて選択される、項目20に記載のシステム。
(項目36)
前記ロボットマニピュレータは、週末の間に前記把持方略を実行する、項目20に記載のシステム。
(項目37)
前記ロボットマニピュレータは、夜間の期間の間に前記把持方略を実行する、項目20に記載のシステム。
(項目38)
前記ロボットマニピュレータは、非繁忙期間の間に前記把持方略を実行する、項目20に記載のシステム。
本発明の非限定的かつ非包括的な実施形態が、以下の図を参照して説明され、同様の参照番号は、別様に規定されない限り、種々の図面全体を通して同様の部分を指す。
図1は、1つの実施形態による、ロボットマニピュレータの写真を提供する。 図2は、1つの実施形態による、ロボットの把持技術を訓練するためのシステムを図示する。 図3は、1つの実施形態による、ロボットマニピュレータを図示する。 図4は、別の実施形態による、ロボットマニピュレータを図示する。 図5は、1つの実施形態による、グッズトゥピッカーワークフローのフローチャートを描写する。 図6は、1つの実施形態による、ピッカートゥグッズワークフローのフローチャートを描写する。 図7は、1つの実施形態による、把持試験ワークフローのフローチャートを描写する。 図8は、1つの実施形態による、パラメータ最適化手順のフローチャートを描写する。 図9は、1つの実施形態による、ロボットマニピュレータを訓練する方法のフローチャートを描写する。
種々の実態が、その一部を形成し、そして具体的な例示的実施形態を示す、添付図面を参照して、以下により完全に説明される。しかしながら、本開示の概念は、多くの異なる形態で実装されてもよく、本明細書に述べられる実施形態に限定されるように解釈されるべきではなく、むしろ、これらの実施形態は、徹底的かつ完全な開示の一部として開示され、当業者に本開示の概念、技術、および実装の範囲を完全に伝達する。実施形態は、方法、システム、またはデバイスとして実践されてもよい。故に、実施形態は、ハードウェア実装、完全なソフトウェア実装、またはソフトウェアおよびハードウェア側面を組み合わせる実装の形態を呈してもよい。したがって、以下の詳細説明は、限定する意味として理解されないものとする。
本明細書における「1つの実施形態」または「ある実施形態」という言及は、実施形態に関連して説明される特定の特徴、構造、または特性が、本開示による、少なくとも1つの例示的実装または技術内に含まれることを意味する。本明細書の種々の位置での「1つの実施形態では」の出現は、必ずしも全て同一の実施形態を指すわけではない。
後に続く説明のいくつかの部分は、コンピュータメモリ内に記憶される非一過性信号上の動作の象徴的表現の観点からもたらされる。これらの説明および表現は、データ処理分野における当業者によって使用され、その研究の内容を他の当業者に最も効率的に伝達する。そのような動作は、典型的には、物理量の物理的操作を要求する。通常、必ずしもというわけではないが、これらの量は、記憶、転送、組み合わせ、比較、そして別様に操作されることが可能である、電気、磁気、または光学信号の形態を呈する。主として、一般的な使用の理由のために、これらの信号を、ビット、値、要素、記号、文字、項、数、または同等物と称することは、時として、便宜的である。さらに、物理量の物理的操作を要求するステップのある配列を、モジュールまたはコードデバイスと称することもまた、時として、一般性を失うことなく、便宜的である。
しかしながら、これらおよび同様の用語は全て、適切な物理量と関連付けられるべきであり、これらの量に適用される単なる便宜的な標識にすぎない。具体的に、以下の議論から明白なものとして別様に述べられない限り、説明全体を通して、「処理する」または「算出する」または「計算する」または「決定する」または「表示する」または同等物等の用語を利用する議論は、コンピュータシステムメモリまたはレジスタ、または他のそのような情報記憶、伝送、または表示デバイス内に物理(電子)量として表されるデータを操作および変換させる、コンピュータシステムまたは同様の電子コンピューティングデバイスの作用およびプロセスを指す。本開示の一部は、ソフトウェア、ファームウェア、またはハードウェア内に具現化され得、そしてソフトウェア内に具現化されるとき、ダウンロードされ、種々のオペレーティングシステムによって使用される異なるプラットフォーム上に常駐し、そしてそれから動作され得る、プロセスと、命令とを含む。
本開示はまた、本明細書の処理を実施するための装置に関する。この装置は、要求される目的のために特別に構成されてもよい、または選択的にアクティブ化された、またはコンピュータ内に記憶されたコンピュータプログラムによって再構成された汎用コンピュータを備えてもよい。そのようなコンピュータプログラムは、限定ではないが、フロッピー(登録商標)ディスク、光学ディスク、CD-ROM、光磁気ディスク、読取専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、EPROM、EEPROM、磁気または光学カード、特定用途向け集積回路(ASIC)を含む任意のタイプのディスク、または電子命令を記憶するために好適な任意のタイプの媒体であって、それぞれが、コンピュータシステムバスに結合され得る媒体等の、コンピュータ可読記憶媒体内に記憶されてもよい。さらに、本明細書に言及されるコンピュータは、単一のプロセッサを含んでもよい、または増加する計算能力のために複数のプロセッサ設計を採用するアーキテクチャであってもよい。
本明細書に提供されるプロセスおよびディスプレイは、本質的に、いかなる特定のコンピュータまたは他の装置とも関連しない。種々の汎用システムが、本明細書の教示によるプログラムと併用されてもよい、またはより特殊な装置を構築し、1つ以上の方法ステップを実施することが、便宜的であることが証明され得る。種々のこれらのシステムのための構造が、以下の説明において議論される。加えて、本開示の技術および実装を達成するために十分である、任意の特定のプログラミング言語が、使用されてもよい。種々のプログラミング言語が、本明細書に議論されるように、本開示を実装するために使用されてもよい。
加えて、本明細書に使用される言語は、主として、可読性および指導的目的のために選択されており、開示される主題を境界または範囲を定めるために選択されてはいない場合がある。故に、本開示は、本明細書に議論される概念の範囲を例証しているものであり、そしてそれを限定するものではないことが意図される。
本明細書に説明される種々の実施形態は、ロボットマニピュレーションを訓練するためのシステム、方法、およびデバイスに関する。これらのロボットマニピュレータは、倉庫設備等の設備内に位置してもよく、設備内の物品を把持する、移動させる、または別様にそれと相互作用することに関連する、種々の仕事を割り当てられてもよい。
本明細書に説明される種々の実施形態の特徴が、ロボットピッカー等のロボットマニピュレータを訓練するために使用される。例えば、訓練を通して、本明細書中に記載されているシステムおよびデバイスは、どのアイテムがロボットピッキングに適しているかを学習するかまたは決定し得る。さらに、この訓練は、ロボットマニピュレータによって実装される種々の技術を改良し、それらの処理能力を拡張させることに役立ち得る。
倉庫設備の文脈において説明されているが、本明細書に説明される種々の実施形態の特徴は、任意の他のタイプの環境内に実装される、および/または物品が、把持、操作、または別様に種々の場所におよび/またはそこから移動される必要がある、任意の他のタイプの用途のために使用されてもよい。種々の実施形態の特徴は、例えば、商品を棚にストックする小売業環境において実装され得る。他の用途は、政府または軍事用活動において実装されてもよい。
本明細書に説明されるロボットマニピュレータは、物品を把持、ピッキング、操作、移動、または別様にそれと相互作用するために使用される任意の種類のロボットデバイスを指してもよい。いくつかの実施形態では、これらのロボットマニピュレータは、1つ以上の(例えば、空気圧式または油圧式の)アクチュエータによって制御される一連のアームデバイス、および/または物品を把持するためのエンドエフェクタデバイスを伴って動作可能に構成される、伸縮自在な区分を含んでもよい。例えば、図1は、アームデバイス104と、エンドエフェクタ106とを伴うロボットマニピュレータ102の写真100を示す。この実施形態では、エンドエフェクタ106は、ハンドデバイスとして構成されてもよい。また、物品およびロボットマニピュレータ102の周囲の環境に関する画像データを採集するためのセンサデバイス108が、図1に示される。
ロボットマニピュレータは、インフラストラクチャ管理システムとインターフェース接続し、物品を回収し、訓練演習を行ってもよい。例えば、ロボットマニピュレータが、訓練用の特定の物品に関する要求を伝送し、インフラストラクチャ管理システムが、それを受信してもよい。インフラストラクチャ管理システムは、要求された物品をマニピュレータに送達することによって、要求に応答してもよい。ロボットマニピュレータは、次いで、要求された物品を用いて1つ以上の訓練演習(例えば、物品に対する把持試行)を実行してもよい。物品は、次いで、試験後、その送達場所またはインフラストラクチャ管理システムに戻されてもよい。したがって、この方法は、試験される物品を選択し、インフラストラクチャ管理システムとインターフェース接続し、試験を実施し、そして試験結果を分析し、それを活用するための種々の方法を提供する。
図2は、1つの実施形態による、ロボットマニピュレータ訓練するためのシステム200を図示する。システム200は、1つ以上のネットワーク208を経由してロボットマニピュレータ204およびインフラストラクチャ管理システム206と通信する、ピッキング協調システム202を含んでもよい。
ネットワーク208は、種々のタイプのネットワーク接続を用いて種々のデバイスと連結してもよい。ネットワーク208は、インターネット、イントラネット、パーソナルエリアネットワーク(PAN)、ローカルエリアネットワーク(LAN)、広域ネットワーク(WAN)、メトロポリタンエリアネットワーク(MAN)、ストレージエリアネットワーク(SAN)、フレームリレー接続、高度インテリジェントネットワーク(AIN)接続、同期光通信網(SONET)接続、デジタルT1、T3、E1、またはE3ライン、デジタルデータサービス(DDS)接続、デジタル加入者回線(DSL)接続、イーサネット(登録商標)接続、総合デジタル通信網(ISDN)ライン、V.90、V.34、またはV.34bisアナログモデム接続等の電話回線ポート、ケーブルモデム、非同期転送モード(ATM)接続、光ファイバ分散データインタフェース(FDDI)接続、銅線分散データインタフェース(CDDI)接続、または光/DWDMネットワークのうちの任意の1つ以上のものから成ってもよい、またはそれにインターフェース接続してもよい。
ネットワーク208はまた、ワイヤレスアプリケーションプロトコル(WAP)リンク、Wi-Fiリンク、マイクロ波中継装置、汎用パケット無線サービス(GPRS)リンク、グローバルシステムフォーモバイルコミュニケーションG(SM)リンク、符号分割多元接続(CDMA)リンク、または携帯電話チャネル、全地球測位システム(GPS)リンク、セルラーデジタルパケットデータ(CDPD)リンク、リサーチインモーション社(RIM)デュプレックスページングタイプデバイス、Bluetooth(登録商標)無線リンク、またはIEEE 802.11系リンク等の、時分割多元接続(TDMA)リンクのうちの任意の1つ以上のものから成る、それを含む、またはそれとインターフェース接続してもよい。
ピッキング協調システム202は、複数のロボットマニピュレータ204を監視、命令、監督、および/または維持する、(例えば、クラウド系の)ネットワーク化されたシステムとして作用してもよい。ピッキング協調システム202は、適切なときに、任意のソフトウェア更新を提供してもよく、例えば、システム200の種々の構成要素の機能を同様に監視してもよい。ピッキング協調システム202はまた、把持データおよびセンサデータを収集してもよく、収集データを分析し、ロボットマニピュレータ204の将来の性能を改良してもよい。
ロボットマニピュレータ204は、図1のロボットマニピュレータ102と同様であってもよい。ロボットマニピュレータ204は、1つ以上のアームデバイス210と、1つ以上のエンドエフェクタ212と、プロセッサ214と、メモリ216と、センサデバイス218と、輸送デバイス220と、インターフェース222とを伴って構成されるように示される。
アームデバイス210は、エンドエフェクタ212を位置付け、物品を把持してもよい。アームデバイス210は、(例えば、油圧式または空気圧式の)アクチュエータまたは伸縮自在な区分等の、1つ以上の機械的または電気的にアクティブ化された部分を含んでもよい。これらの実施形態では、ロボットマニピュレータ204は、任意の要求されるリザーバ、弁、ポンプ、アクチュエータ、または同等物を伴って構成されてもよい。
1つ以上のエンドエフェクタ212は、アームデバイス210に動作可能に取り付けられてもよい。いくつかの実施形態では、図1の写真100におけるもののように、エンドエフェクタ212は、物品を把持する、または別様にそれと相互作用するための複数の「フィンガ」部分を伴うハンドデバイスとして構成されてもよい。
他の実施形態では、エンドエフェクタ212は、吸引デバイスとして構成されてもよい。これらの実施形態では、吸引デバイスは、要求される管、ポンプ、または同等物を伴って動作可能に接続され、物品を把持するために要求される吸引力を作成してもよい。
他の実施形態では、エンドエフェクタ212は、1つ以上の磁気デバイスとして構成されてもよい。これらの実施形態では、ロボットマニピュレータ204は、任意の要求されるソレノイドまたは電気機器を伴って構成され、物品を把持するために要求される磁力を生成してもよい。これらの実施形態は、当然ながら、その磁気を帯びている物品の用途に好適である。
さらに他の実施形態では、エンドエフェクタ212は、粘着性物質または材料を伴って構成されてもよい。例えば、エンドエフェクタ212は、物品を把持するための面ファスナを伴って構成されてもよい。
上記の構成は、例示的にすぎない。他のタイプのエンドエフェクタおよび構成は、現在利用可能であるか、またはその後発明されるかどうかにかかわらず、本明細書に説明される種々の実施形態の特徴が遂行され得る限り、使用されてもよい。
プロセッサ214は、メモリ216上に記憶される命令を実施し、ロボットマニピュレータ204を制御し、1つ以上の把持試行を実施することが可能である、任意のハードウェアデバイスであってもよい。プロセッサ214は、マイクロプロセッサ、フィールドプログラマブルゲートアレイ(FPGA)、特定用途向け集積回路(ASIC)、または他の同様のデバイスであってもよい。いくつかの実施形態では、1つ以上のASICに依拠するもの等、部分的に、ソフトウェアを介して提供されているものとして説明される機能性が、代わりに、ASICの設計の中に構成され得、したがって、関連付けられるソフトウェアが、省略され得る。
メモリ216は、L1、L2、L3キャッシュ、RAMメモリ、またはハードディスク構成であってもよい。メモリ112は、前述で議論されたように、フラッシュメモリ、EPROM、EEPROM、ROM、およびPROM等の不揮発性メモリ、またはスタティックまたはダイナミックRAM等の揮発性メモリを含んでもよい。メモリ216の厳密な構成/タイプは、当然ながら、少なくとも把持試行を実施するための命令が、プロセッサ214によって実行され得る限り変動し得る。
ロボットマニピュレータ204は、1つ以上のセンサデバイス218を伴って構成され、少なくとも、その中に位置する物品を含むロボットマニピュレータの環境に関するデータを採集してもよい。このセンサデータは、把持されるべき物品の場所、物品の配向(例えば、物品が横倒しの状態であるかどうか等)、物品の形状、物品のサイズに関するデータ、または把持試行の実行に役立ち得る他のデータを含んでもよい。センサデバイス218はまた、把持試行または方略の有効性または成功を分析することに役立つデータを採集してもよい。
いくつかの実施形態では、センサデバイス218は、立体カメラまたは電荷結合素子カメラ等の1つ以上のカメラを含んでもよい。他の実施形態では、センサデバイス218は、ロボットマニピュレータ204および物品に対して動作可能に位置付けられたライダカメラデバイスを含んでもよい。他の実施形態では、センサデバイス218は、赤外線またはソナー撮像デバイスを含んでもよい。ロボットマニピュレータ204(すなわち、プロセッサ214)はまた、任意の要求されるコンピュータビジョンまたは他の画像処理ツールを含む、または別様にそれを実行してもよい。
画像採集デバイスに加え、またはそれの代わりに、センサデバイス218が、圧力または圧電性センサデバイス、または適切に位置付けられた測量計を含んでもよい。これらのタイプのセンサデバイス218は、(例えば、エンドエフェクタデバイス212を伴う)ロボットマニピュレータ204の一部として実装され、物品によってもたらされる任意の力を測定してもよい。例えば、エンドエフェクタ212が、物品を把持し、物品を手放さないでいる場合、エンドエフェクタ212を伴って構成された任意の圧電性センサ上の力は、エンドエフェクタ212が物品を把持し、そして保持していることを示すレベルまで増加し得る。そのような力が検出されない場合、エンドエフェクタ212が、物品を把持しなかった、または保持していないと結論付けられてもよい。
輸送デバイス220が、ロボットマニピュレータ204が環境内の種々の場所に、そしてそこから移動することを可能にしてもよい。例えば、ロボットマニピュレータ204は、それが異なる場所から物品を採集するための倉庫内で進行することを可能にする、複数の車輪およびモータを含んでもよい。例えば、図3は、倉庫等の環境内のロボットマニピュレータ302の写真300を描写する。ロボットマニピュレータ302はまた、輸送デバイス304を伴って構成されるように図示される。輸送デバイス304は、ロボットマニピュレータ302が、環境の至るところに進行し、種々の場所から物品を把持し、採集することを可能にする。
インターフェース222は、ロボットマニピュレータ204がピッキング協調システム202およびインフラストラクチャ管理システム206とインターフェース接続することを可能にしてもよい。このように、ロボットマニピュレータ204は、他のシステム構成要素と命令を交換し、そして把持試行に関するデータを提供することができる。
インフラストラクチャ管理システム206は、種々の実施形態による、ロボットマニピュレータ204の訓練に関する種々のサブシステムを含む、または別様にそれを実行してもよい。これらのサブシステムは、自動倉庫システム(ASRS)224と、倉庫制御ソフトウェア226と、倉庫管理システム(WMS)228と、管理ソフトウェア自動化システム(WSAS)230とを含んでもよい。
ASRS224は、概して、物品が装填または装填解除され得るステーション間に存在するシャトルまたはコンベヤに依拠する物品を移動させるための自動化システムであってもよい。そのようなシステムは、概して、保管ラック、およびラックの中に、そしてそこから外に容器を移動させるシャトルカートを伴うガントリのセットから成ってもよい。
物品にアクセスするために、システム200は、割り当てられた保管場所からそれを回収し、相互作用場所に移動させる。相互作用場所は、物品が、箱、容器、棚等からピッキング/把持されることができる場所であってもよい。
WCS226は、インターフェースを介して、これらのステーションを制御し得、そしてASRSシステム224にコマンドし、後の回収のために物品を保管し、かつ/または倉庫から物品を回収することができる。インターフェースは、一連の論理回線、シリアルポート、パラレルポート、またはCAN、イーサネット(登録商標)、Modbus、または同等物等のネットワークアーキテクチャであってもよい。加えて、ある物品に特有の識別情報が、このインターフェースを経由して送信され、ASRS224に、具体的な物品をステーションに送出させる、または倉庫に物品を送出させることができる。
WCS226は、より下位レベルの作業を制御するソフトウェアを含む、または別様にそれを実行してもよい。これらの作業は、WMS228からコマンドを受信するステップと、それを他のシステム構成要素のための実行可能な制御信号に変換するステップとを含んでもよい。例えば、WCS226は、どのコンベヤを作動させるか、シャトルをどこに送出して容器を回収し、信号伝達してインターフェースライトをアクティブ化させるか、または同等の内容等のコマンドを発行してもよい。
WMS228は、在庫および倉庫リソースを管理するソフトウェアシステムを含んでもよい。これは、概して、受注を処理するステップ、補充を追跡およびトリガするステップ、在庫を相互作用ポイントに輸送するステップ、または同等のステップを含んでもよい。
WSAS230は、倉庫業務を管理するために使用される、ハードウェアおよびソフトウェアを含む、または別様にソフトウェアを実行してもよい。これらは、WCS226、WMS228、および他の自動化ハードウェアを含んでもよい。
いくつかの実施形態では、ピッキング協調システム202は、システム200の動作を制御し、そして試験手順を開始/停止させてもよい。しかしながら、他の実施形態では、倉庫従業員等のオペレータが、システム200の種々の構成要素の動作を制御してもよい。オペレータは、例えば、ネットワーク化コンピュータまたはクラウド系サービスを使用して、コマンドを発行してもよい。
試験(すなわち、訓練)手順は、活動休止期間の間に生じてもよい。例えば、倉庫環境は、1日または1週間のある部分の間に能動的な商品物流業務のために使用されてもよい。他の期間の間には、倉庫は、その際に発生している物流業務が存在しない、活動休止状態になり得る。
この活動休止の期間の間に、ピッキング協調システム202が、具体的な物品に対する要求をインフラストラクチャ管理システム204に送信してもよい。具体的には、これらの要求が、ASRS224およびWMS228に通信されてもよい。
ロボットマニピュレータ204によって試験されるべき物品または物品のタイプに影響を及ぼし得る、いくつかの基準またはファクターが存在し得る。ピッキング協調システム202は、例えば、平均より高い把持エラー率を有する物品を選択し得る。または、ピッキング協調システム202は、所定の期間内に試験されていない物品を選択し得る。個別に、または組み合わせられて考慮される、試験のために選択される物品または物品のタイプに影響を及ぼし得るいくつかの異なるファクターが、存在し得る。
本要求が、WMS228に通信され得る。WMS228は、次いで、適切なコマンドをASRS224に送信し、次いで、容器または他のタイプの物品容器を相互作用ポイントに移動させてもよい。
本願の文脈では、「相互作用ポイント」は、ロボットマニピュレータ204が把持試行を実行する場所を指す。「グッズトゥピッカー」ワークフローでは、物品は、第1の場所(倉庫等)からロボットマニピュレータ204の相互作用ポイントに移動され得る。
例えば、図4は、物品の箱402が、コンベヤベルトの輸送システム406を介してロボットマニピュレータ404にもたらされる、相互作用ポイント400を図示する。いったん物品が相互作用ポイント400にもたらされると、ロボットマニピュレータ404が、把持試行を実行し、それらを発送のためまたはさらなる保管のための容器408の中に設置し得る。
前述で議論されたように、ロボットマニピュレータ204はまた、相互作用ポイントに進行し、物品を把持してもよい。そのために、ロボットマニピュレータ204は、図3に示されるもの等の輸送デバイス220を伴って構成されてもよい。
いったんロボットマニピュレータ204および把持されるべき物品が、相互作用ポイントにもたらされると、ロボットマニピュレータ204は、把持方略に従って、1回以上の把持試行を実施してもよい。ロボットマニピュレータ204は、いくつかの把持試行を実施し、特定の把持方略の有効性を決定してもよい。
本願の文脈では「把持方略」は、ロボットマニピュレータ204が把持試行を実行する方法を定義する、ステップ、移動、印加力、アプローチ、および他の特性を指す。これらの作用はまた、感知作用、信号処理作用、計画、実行、確認およびこれらの作用の全てのパラメータを含み得る。
図2に戻って参照すると、ピッキング協調システム202は、メモリ234上に記憶される命令を実行し、計画モジュール236を提供するプロセッサ232を伴って構成されてもよい。ピッキング協調システム202のプロセッサ232は、上記に説明されたロボットマニピュレータ204のプロセッサ214と同様に構成されてもよい。
プロセッサ232は、メモリ234上に記憶される命令を実行し、計画モジュール236を提供し、ロボットマニピュレータ204によって実行されるべき把持方略を生成してもよい。例えば、計画モジュール236は、アームデバイス210およびエンドエフェクタ212が物品に接近すべき方法、エンドエフェクタ212が開くべきその「手」の幅、画像が処理されるべき方法、物品を把持するためにエンドエフェクタ212によって生成されるべき力の量等の把持方略の種々のパラメータを定義し得る。生成された把持方略を定義するパラメータおよび命令は、次いで、実行のためにロボットマニピュレータ204に通信されてもよい。
システム200、すなわち、ピッキング協調システム202は、いくつかの基準を使用し、試験を実施する時期を決定することができる。それは、オペレータから明示的なコマンドを受信し、試験の実行を開始/停止することができ、かつ/または夜間または他の活動休止期間の間等の、設定可能な時間窓を使用することができる。それはまた、他の基準の中でも、休止期間の間、またはWMS228から在庫の最新情報を受信するとき等の、局所的な評価された基準を使用することができる。
同様に、システム200は、ASRS224またはWMS228からの具体的な割込信号等の種々の基準に基づいて、任意の試験およびデータ採集手順を中止することができる。システム200は、次いで、元の物流ピッキング動作の実施に戻ってもよい。システム200はまた、日和見的に動作し、着目物品が、注文を満足させるためにシステム200にもたらされたときに、それを試験してもよい。
プロセスの試験を実行するために、ピッキング協調システム202は、ASRS224に通信し、試験されるべき物品を示し得る。システム202はまた、把持能力試験プロセス内で使用される、いくつかの異なる配列の容器を通信してもよい。これは、物品をピッキングするための宛先と同一の容器または別の容器を回収するステップを含み得る。
加えて、または代替として、ロボットマニピュレータ204は、データ採集プロセス全体を通して、相互作用ポイントにおいて同一の容器を確保することができる。物品が、次いで、ピッキングされ得、把持の成功および/または安定性が、決定され得、物品が、同一の容器に戻され得る。これは、物品を在庫に戻すプロセスを単純化させるため、有利である。
図5は、1つの実施形態による、グッズトゥピッカーワークフローのフローチャート500を図示する。この実施形態では、ピッキング協調システム202は、倉庫ソフトウェア自動化システム232に1つ以上の物品要求を発行し得る。具体的には、任意の要求が、商品注文をも受信し得る、適切な倉庫ソフトウェア502によって受信され得る。
本要求は、倉庫内の物品の場所を示してもよい。加えて、または代替として、倉庫ソフトウェア502は、図2のデータベースモジュール238を検索し、要求された物品の場所を習得してもよい。任意の適切なグッズトゥピッカー自動化システム504が、次いで、要求された物品を第1の場所(例えば、倉庫)から第2の場所(例えば、相互作用ポイント)のロボットマニピュレータ204に輸送してもよい。この実施形態では、ロボットマニピュレータ204は、定常状態のピッカーロボットである。
ピッキング協調システム202は、任意の時間に、ロボットマニピュレータ204に把持方略を通信し得る。いったん物品がロボットマニピュレータ204にもたらされると、ロボットマニピュレータ204は、方略を実行することができる。
図6は、ピッカートゥグッズワークフローのフローチャート600を図示する。この実施形態では、ピッキング協調システム202は、倉庫ソフトウェア自動化システム232に1つ以上の物品要求を発行し得る。具体的には、任意の要求が、商品注文をも受信し得る、適切な倉庫ソフトウェア602によって受信され得る。
本要求は、倉庫内の物品の場所を示してもよい。加えて、または代替として、倉庫ソフトウェア602は、図2のデータベースモジュール238を検索し、要求された物品の場所を習得してもよい。ピッカートゥグッズスケジューラ604が、次いで、ロボットマニピュレータに命令し、物品に進行させてもよい。図2におけるように、ロボットマニピュレータ204は、輸送デバイスを伴って構成され、ロボットマニピュレータ204を第1の場所から物品を保管する第2の場所(例えば、相互作用ポイント)に輸送してもよい。
ピッキング協調システム202は、任意の時間に、ロボットマニピュレータ204にピッキング方略を通信し得る。ロボットマニピュレータ204(この実施形態では、モバイルピッカーロボットである)は、いったん物品に進行すると、方略を実施することができる。
物品が、固定状態または可動状態のいずれか一方でロボットマニピュレータ204に手動でもたらされ得ることに留意されたい。オペレータは、ピッキング/試験されるべき複数の容器または物品容器をマニピュレータ204に提供することができる、またはオペレータは、マニピュデータ204を棚、容器のラック、または同様に、保管手段上の複数の場所に指向させることができる。
試験されるべき物品の選択は、ピッキング協調システム202、ロボットマニピュレータ204、倉庫ソフトウェア自動化システム230、または人間のオペレータによって成されることができる。ロボットマニピュレータ204は、把持試験の一部として、物品を元の容器に戻す、または新たな容器に移送してもよい。オペレータは、ロボットマニピュレータ204に物品に関する情報を通信し得る、またはしない場合があり、採集データは、ピッキング協調システム202および/またはインフラストラクチャ管理システム206に手動または自動的に転送され得る。このデータは、次いで、任意の好適なデータベース、またはクラウド系ピッキング協調システム202と統合され、将来のピッキング動作を改良し得る。
ロボットマニピュレータ204は、次いで、任意の数の物品に対して把持方略を実施し得る。概して、実行は、ロボットマニピュレータが、容器内の物品を撮像するステップと、任意の要求される感知、信号伝達、または画像処理を実施し、把持されるべき1つ以上の物品を定義するステップと、1つ以上のパラメータに従って物品を把持するよう試みるステップと、把持試行を評価する(例えば、物品が正常に持ち上げられたかどうかを決定する)ステップと、そして随意に、エンドエフェクタ212および物品を振動させ、外乱下での安定性を決定するステップを伴う。
いくつかの実施形態では、把持方略は、把持プロセスの部分的な実行を伴うのみであり得る。例えば、いくつかの把持方略は、プロセスの一部の撮像を要求し、選択されるセンサデバイス218を用いて、具体的な物品が、良好に撮像され得る程度を明らかにするのみであり得る。これらの部分的な把持方略はまた、信号および/または画像処理ステップ、および把持計画側面を含み、対応する構成要素が良好に実施し得る程度を査定し得る。
いくつかの実施形態では、把持方略は、物品を把持するステップを伴い得るが、それを持ち上げるステップは伴わない場合がある。これは、触覚センサ信号に関する役立つ情報を提供し得る。他の実施形態では、把持方略はまた、物品を持ち上げるステップを伴い得る。物品が持ち上げられたかどうかを決定するために、エンドエフェクタが撮像され、物品が正常に持ち上げられたかどうかを判断し得る。
加えて、または代替として、エンドエフェクタ212またはアームデバイス210を伴って構成される、任意のセンサデバイス218が、物品重量を検出することができる。同様に、物品が、この目的のために提供される測量計上に設置され得る。または、出発地または目的地の容器の下に位置するセンサデバイスであって、物品が該容器の上から除去されたかまたは該容器に設置されたかを検出するためのセンサデバイスが、存在してもよい。
いくつかの実施形態では、ロボットマニピュレータ204は、物品の非把持能力調査を実施するように構成されてもよい。本願の文脈では、「非把持能力調査」は、把持する意図のない、物品に接触する作用を指し得る。非把持能力調査は、物品に関する付加的な見解の生成または物品較正および/または物体剛度または材料の確認に有用であり得る。
いくつかの実施形態では、把持方略は、容器内の物品を「撹拌」する、または容器を傾斜させるステップを伴い、物品が相互に、そして容器壁と相互作用する方法を決定し得る。また、センサデバイス218を使用した、バーコードまたは他の標識の検出および位置特定は、標的物品の移動に関する情報を提供することができる。
ロボットマニピュレータ204およびそのセンサデバイス218が、試験の間に種々のデータを採集し得る。このデータは、試行が成功したかどうか等の、物品および把持試行に関する画像データを含んでもよい。この画像データは、モノクロ、カラー、ハイパースペクトル、深度/点群、および他のタイプのデータ、およびその組み合わせを含み得る。採集される画像データのタイプは、当然ながら、センサデバイス218のタイプおよび構成に応じて変動し得る。
加速度計、ジョイントエンコーダ、および電位差計等のセンサデバイスが、アームデバイス210および輸送デバイス220の空間位置および運動に関するデータを採集し得る。ロボットマニピュレータ204内に位置する、または別様にそれを伴って構成される、力トルクセンサまたは触覚等のセンサデバイスは、印加力および物品質量に関するデータを採集し得る。
加えて、システム200は、物品の幾何学形状情報を採集するために、ロボットマニピュレータ204を伴って構成されるかまたはその外部にあるスキャナを含み得る。これらのスキャナは、三角測量方式、立体撮像、または同等物に基づいて動作してもよい。これらのスキャナまたは他のタイプのセンサデバイス218は、把持成功率および把持安定性の推定のために使用されるデータに関するデータを採集してもよい。
把持試行の結果として収集されるデータは、データベースモジュール238内で記憶され、ピッキング協調システム202およびインフラストラクチャ管理システム206に通信されてもよい。計画モジュール236はさらに、このデータを処理し、ロボットマニピュレータ204の予期される将来の性能を特徴付けてもよい。例えば、このデータは、特定の把持方略を前提とした、特定の物品に関するピッキング時間、エラー率、または同等物に関する見識を提供し得る。
このデータは、オペレータまたは他の関係者に通信され、オペレータに把持の失敗およびそのような失敗の理由を通知し得る。この情報は、次いで、性能を改良するために役立ち得る。例えば、比較的に高いエラー率を伴う物品または把持方略は、より多くの場合、将来の試験のために選択され、将来の把持方略またはそのパラメータは、性能を改良しようとして改変され得る。変更され得るパラメータは、例えば、ビジョンセグメント化、モデル構築、把持する場所の選択/計画、把持制御、または同等物を含み得る。
図7は、試験の間のデータの流れを示す、フローチャート700を描写する。具体的には、図7は、物品選択およびデータ採集の間に、1つ以上の最適化アルゴリズムが、計画モジュール236によって実行され、把持方略のパラメータを最適化し得ることを示す。
ステップ702では、ピッキング協調システム202が、データベースモジュール238内に記憶される統計値に基づいて、試験のための1つ以上の物品を選択する。図7では、ピッキング協調システム202が、最小在庫管理単位(SKU)に関する統計値を採集し、そしてそれに基づいて物品を要求し得ることに留意されたい。SKUは、特定の物品またはタイプの物品に関する識別呼称を指し得る。
1つ以上のSKUが、以前の把持試行の結果に基づいて選択され得る。例えば、特定のSKU(すなわち、物品)が、高い失敗率を有する(すなわち、比較的に低い把持成功量しか存在していない)場合、その物品は、試験のための好適な候補であり得る。
ステップ704は、反復して物品をピッキングするステップ、または別様に反復して物品を把持するように試みるステップを伴う。反復試行は、1つ以上のパラメータによって定義される把持方略に従って行われ得る。
ステップ706は、把持試行から結果として生じる新たなデータの受信に応じて、1つ以上のパラメータを更新するステップを伴う。理想的には、更新パラメータは、把持性能を改良するために役立つであろう。
例えば、1つの特定の把持方略は、センサデータに基づいて、把持が失敗するであろうかどうかを予測する、習得された分類指標を有し得る。この分類指標のパラメータは、新たなピッキング試行およびその成功率に基づいて調整され得る。任意の要求された分析が、プロセッサ214および/または232または局所的な設備内の構成要素上で局所的に実施されることができる。
代替として、データが、遠隔分析およびデータマイニングのために、中央サーバまたはクラウドサーバにアップロードされることができる。これらのサーバは、例えば、ロボットマニピュレータ供給業者および/またはASRS224またはWMS228オペレータによって提供され得る。
本明細書に説明される実施形態は、幅広い範囲の機械学習方法を利用し、これらの把持方略パラメータを更新することができる。いくつかの実施形態では、計画モジュール236が、収集されたデータ上のあるパラメータ(例えば、フィンガ位置)に関するコスト関数(例えば、成功確率)の勾配を計算し得る。(確率的)勾配降下法として公知であるこの方法は、図8にフローチャート800として描写される。
図8では、アルゴリズムパラメータが、
Figure 0007145843000001
によって示され、そして物品が把持された、または把持されようと試みられた回数に関し得る現在の信頼パラメータが、成功率の推定値に影響率を及ぼし得る。いったん把持試行が実行されると、予測値は、真の値(物品が正常に把持されたかどうか)と比較され得、適切なパラメータが、この関数の導関数を計算することによって更新され得る。
深層学習において一般的である、これらの勾配法によるアプローチは、所与の既存の自動微分ツール(例えば、TensorFlow(R))を実装することが比較的に容易であり、各パラメータの完全なベイズモデルを要求しない。なお、パラメータを更新するために、他の最適化アルゴリズムも、使用され得る。例えば、マルコフ連鎖、モンテカルロシミュレーション、および変分推論および進化戦略等の手法が、使用され得る。
方略を新たに計画するためのパラメータが、既存のパラメータに基づいて迅速に推測され得ることに留意されたい。これは、新たな物品が、すでに試験されている物品と同様であるときに、有利であり得る。
例えば、特定の企業から新たな携帯電話が発売され、以前のモデルと同様のパッケージを含む場合、新たなモデルに対して成功把持のために要求される把持方略は、以前のモデルに対して要求されたものと同様である可能性があるであろう。故に、以前のモデルに対する把持方略およびそれに関する他の情報が、開始点として使用され得る。
概して、転移学習として公知である、この知識の転移は、新たな方略を「ブートストラップ」するために使用され得る。以前の物品の属性が、次いで、低次元表現メトリック内に組み込まれ得る。したがって、同様の物品のためのパラメータが、新たなパラメータおよび新たな物品のための開始値として、これらのメトリックに依拠し得る。
これらのブートストラップ手法は、必然的に訓練時間を低減させる。さらに、これらの手法が、使用され、以前の方略と同様のパラメータを有する、新たに開発される計画方略要素(例えば、新たな画像セグメント化アルゴリズム)のためのパラメータを迅速に選択することができる。
上記に説明された手法に加え、他の機械学習方法が、使用され、本明細書に説明される種々の特徴を遂行してもよい。これらは、クラスタリングおよびサポートベクタマシン等の分類手法と、カルマンフィルタおよび最尤法等の推算方法とを含む。
図9は、1つの実施形態による、ロボットマニピュレータを訓練する方法900のフローチャートを描写する。この方法900は、図2に図示されるもの等の構成要素によって実施され得る。
ステップ902は、第1のセンサデバイスから物品に関するデータを受信するステップを伴う。このデータは、物品に関連するサイズデータ、形状データ、材料データ、および重量データ等のデータを含み得る。このデータはまた、特定の物品および/または把持方略に対する以前の把持試行に関するデータをも含み得る。
ステップ904は、メモリ上に記憶される命令を実行し計画モジュールを提供する、処理デバイス使用して、ロボットマニピュレータによって実行されるべき物品把持方略を生成し、物品を把持するステップを伴う。この処理デバイスは、例えば、図2のプロセッサと同様であってもよい。計画モジュールは、ロボットマニピュレータによって実行されるべき物品把持方略を生成してもよい。把持方略は、限定ではないが、把持するステップの前のマニピュレータ位置と、事前把持操作と、画像処理技術と、センサデバイスからのフィードバックへの応答、または同等物等の、1つまたはそれを上回るパラメータによって定義されてもよい。
ステップ906は、実行のためのロボットマニピュレータに物品把持方略を伝送するステップを伴う。物品把持方略は、図2のネットワーク208等のネットワークを経由して通信されてもよい。
ステップ908は、第2のセンサデバイスから物品把持方略の実行に関するデータを受信するステップを伴う。このデータは、ロボットマニピュレータが物品把持方略を実行する時間の間および/または後に採集されてもよい。このデータは、図2のネットワーク208等のネットワークを経由して、計画モジュールに通信されてもよい。
ステップ910は、計画モジュールおよび少なくとも第2のセンサデバイスから受信されたデータを使用して、物品把持方略を評価するステップを伴う。これは、物品把持方略の実行の結果として、ロボットマニピュレータが物品を正常に把持し(かつ手放さないでいた)かどうかを評価するステップを含み得る。このデータが、次いで、使用され、物品把持方略の1つまたはそれを上回るパラメータを改変することによって将来のマニピュレータ性能を改良することを補助し得る。
上記に議論された方法、システム、およびデバイスは、実施例である。種々の構成が、適切であるように、種々の手法または構成要素を省略、代用、または追加してもよい。例えば、代替構成では、本方法が、説明されたものとは異なる順序で実施されてもよく、種々のステップが、追加、省略、または組み合わせられてもよい。また、ある構成に関して説明される特徴は、種々の他の構成内で組み合わせられてもよい。構成の異なる側面および要素が、同様の様式で組み合わせられてもよい。また、技術は進化しており、したがって、要素のうちの多くのものが、実施例であり、本開示または請求項の範囲を限定するものではない。
本開示の実施形態は、例えば、本開示の実施形態による、ブロック図、および/または方法、システム、およびコンピュータプログラム製品の動作図を参照して上記に説明される。ブロック内に記載された機能/作用は、いかなるフローチャートにも示される順序とは異なる順序で生じ得る。例えば、連続して示される2つのブロックは、伴われる機能性/作用に応じて、実質的に同時に実行されてもよい、または、ブロックは、時として逆の順序で実行されてもよい。加えて、または、代替的に、任意のフローチャートに示されているブロックの全てが実施および/または実行される必要はない。例えば、所与のフローチャートが、機能/作用を包含する5つのブロックを有する場合、5つのブロックのうちの3つだけが、実施かつ/または実行される場合があり得る。この実施例では、5つのブロックのうちの任意の3つが、実施かつ/または実行され得る。
値が第1の閾値を超過する(または第1の閾値以上の)という叙述は、値が、第1の閾値を僅かに上回る、第2の閾値を満たす、またはそれを超過するという叙述と同等であり、例えば、第2の閾値は、関連システムの分解能内の第1の閾値より高い、1つの値である。値が、第1の閾値を下回る(または、それ以内である)という叙述は、値が、第1の閾値より僅かに低い、第2の閾値を下回る、またはそれに等しいという叙述と同等であり、例えば、第2の閾値は、関連システムの分解能内の第1の閾値より低い、1つの値である。
具体的な詳細が、説明に与えられ、(実装を含む)実施例の徹底的な理解を提供する。しかしながら、構成は、これらの具体的な詳細なく実装され得る。例えば、周知の回路、プロセス、アルゴリズム、構造、および技術は、構成を曖昧にすることを回避するために不必要な詳細なしに示されている。この説明は、例示的構成を提供するにすぎず、請求項の範囲、適応性、または構成を限定するものではない。むしろ、構成に関する前述の説明は、当業者に、説明された技術を実装するための、実施可能な説明を提供するであろう。種々の変更が、本開示の精神または範囲から逸脱することなく、要素の機能および配列内で成され得る。
いくつかの例示的構成が説明されたことにより、種々の修正、代替構成、および均等物が、本開示の精神から逸脱することなく使用され得る。例えば、上記の要素は、より大きなシステムの構成要素であってもよく、他の規則が、本開示の種々の実装または技術の用途の上位に存在する、またはそれを別様に修正し得る。また、いくつかのステップが、上記の要素が考慮される前、その間、またはその後に、行われ得る。
本願の説明および図が提供されたことにより、当業者は、請求項の範囲から逸脱しない、本願内で議論される一般的な発明概念に該当する変形例、修正、および代替実施例を想起し得る。

Claims (15)

  1. ロボットマニピュレータを訓練する方法であって、前記方法は、
    把持する物品を選択することであって、前記物品は、前記物品を把持する以前の試みのエラー率に基づいて、または前記物品の最後の把持試みからの期間が所定の期間よりも大きいことに基づいて選択される、ことと、
    第1のセンサデバイスから前記物品に関するデータを受信することと、
    メモリ上に記憶されている命令を実行することにより、計画モジュールを提供する処理デバイスを使用して、前記ロボットマニピュレータによって実行されるべき物品把持方略を生成し、前記物品を把持することであって、前記物品把持方略は、以前の把持試みの回数に関連する確率パラメータによって規定される、ことと、
    実行のための前記ロボットマニピュレータに前記物品把持方略を伝送することと、
    第2のセンサデバイスから、前記物品把持方略の実行に関するデータを受信することと、
    前記計画モジュールおよび少なくとも前記第2のセンサデバイスから受信された前記データを使用して、前記物品把持方略を評価することにより、少なくとも、前記ロボットマニピュレータが前記物品を把持したかどうかを判定することと、
    前記物品把持方略の評価に基づいて前記確率パラメータを更新することと
    を含む、方法。
  2. 前記物品に関する前記受信されたデータは、サイズデータ、形状データ、材料データ、重量データのうちの少なくとも1つを含む、請求項1に記載の方法。
  3. 前記方法は、
    前記評価に基づいて、前記物品把持方略の少なくとも1つのパラメータを改変することにより、是正物品把持方略を提供することであって、前記少なくとも1つのパラメータは、把持する前のロボットマニピュレータ位置と、事前把持操作と、画像処理技術と、前記第1のセンサデバイスからのフィードバックへの応答とから成る群から選択される、ことと、
    実行のための前記ロボットマニピュレータに前記是正物品把持方略を伝送することと
    をさらに含む、請求項1に記載の方法。
  4. 前記ロボットマニピュレータは、前記物品把持方略を実行するためのロボットハンドデバイスと、前記物品把持方略を実行するための吸引デバイスと、前記物品把持方略を実行するための粘着性デバイスとのうちの少なくとも1つを含む、請求項1に記載の方法。
  5. 前記方法は、
    実行のための前記ロボットマニピュレータに前記物品把持方略を伝送するステップと、
    前記第2のセンサデバイスから、前記物品把持方略の実行に関するデータを受信するステップと、
    前記計画モジュールおよび前記第2のセンサデバイスから受信される前記データを使用して、前記物品把持方略を評価するステップと
    を反復することをさらに含む、請求項1に記載の方法。
  6. 前記方法は、前記物品の少なくとも1つの物理特性に基づいて、前記把持されるべき物品を選択することをさらに含む、請求項1に記載の方法。
  7. 実行のための前記ロボットマニピュレータに前記物品把持方略を伝送することは、週末、夜間の期間、非繁忙期間のうちの少なくとも1つの間に、実行のための前記ロボットマニピュレータに前記物品把持方略を伝送することを含む、請求項1に記載の方法。
  8. ロボットマニピュレータを訓練するためのシステムであって、前記システムは、
    選択された物品を把持するためのロボットマニピュレータと、
    前記選択された物品に関するデータを採集するための第1のセンサデバイスと、
    前記選択された物品の把持方略の実行に関するデータを採集するための第2のセンサデバイスと、
    メモリ上に記憶されている命令を実行することにより、計画モジュールを提供する処理デバイスと
    を備え、
    前記計画モジュールは、
    把持する物品を選択することであって、前記物品は、前記物品を把持する以前の試みのエラー率に基づいて、または前記物品の最後の把持試みからの期間が所定の期間よりも大きいことに基づいて選択される、ことと、
    前記ロボットマニピュレータによって実行されるべき物品把持方略を生成し、前記物品を把持することであって、前記物品把持方略は、以前の把持試みの回数に関連する確率パラメータによって規定される、ことと、
    実行のための前記ロボットマニピュレータに前記物品把持方略を伝送することと、
    前記第2のセンサデバイスから受信されたデータを使用して、前記ロボットマニピュレータによって実行された前記物品把持方略を評価することにより、少なくとも、前記ロボットマニピュレータが前記物品を把持したかどうかを判定することと、
    前記物品把持方略の前記評価に基づいて前記確率パラメータを更新することと
    を行うように構成されている、システム。
  9. 前記物品に関する前記データは、サイズデータ、形状データ、材料データ、重量データのうちの少なくとも1つを含む、請求項8に記載のシステム。
  10. 前記計画モジュールは、前記評価に基づいて、前記物品把持方略の少なくとも1つのパラメータを改変することにより、是正物品把持方略を提供するようにさらに構成されており、前記少なくとも1つのパラメータは、把持する前のロボットマニピュレータ位置と、事前把持操作と、画像処理技術と、前記第1のセンサデバイスからのフィードバックへの応答とから成る群から選択され、前記ロボットマニピュレータは、前記是正物品把持方略を実行するようにさらに構成されている、請求項8に記載のシステム。
  11. 前記ロボットマニピュレータは、前記物品把持方略を実行するためのロボットハンドデバイスと、前記物品把持方略を実行するための吸引デバイスと、前記物品把持方略を実行するための粘着性デバイスとのうちの少なくとも1つを含む、請求項8に記載のシステム。
  12. 前記第1のセンサデバイスおよび前記第2のセンサデバイスは、同一のデバイスである、請求項8に記載のシステム。
  13. 前記ロボットマニピュレータおよび前記計画モジュールは、前記物品把持方略を生成するステップと、前記物品把持方略を伝送するステップと、前記物品把持方略を評価するステップとを反復するようにさらに構成されている、請求項8に記載のシステム。
  14. 前記把持されるべき物品は、前記物品の少なくとも1つの物理特性に基づいて選択される、請求項8に記載のシステム。
  15. 前記ロボットマニピュレータは、週末、夜間の期間、非繁忙期間のうちの少なくとも1つの間に前記物品把持方略を実行する、請求項8に記載のシステム。
JP2019503354A 2016-07-18 2017-07-18 ロボットマニピュレータの訓練 Active JP7145843B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201662363446P 2016-07-18 2016-07-18
US62/363,446 2016-07-18
PCT/US2017/042670 WO2018017612A1 (en) 2016-07-18 2017-07-18 Training robotic manipulators

Publications (3)

Publication Number Publication Date
JP2019531908A JP2019531908A (ja) 2019-11-07
JP2019531908A5 JP2019531908A5 (ja) 2020-08-27
JP7145843B2 true JP7145843B2 (ja) 2022-10-03

Family

ID=60992559

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019503354A Active JP7145843B2 (ja) 2016-07-18 2017-07-18 ロボットマニピュレータの訓練
JP2019503220A Active JP7069110B2 (ja) 2016-07-18 2017-07-18 ロボット把持の査定

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2019503220A Active JP7069110B2 (ja) 2016-07-18 2017-07-18 ロボット把持の査定

Country Status (6)

Country Link
US (2) US11338436B2 (ja)
EP (2) EP3485370A4 (ja)
JP (2) JP7145843B2 (ja)
CN (2) CN109997108A (ja)
CA (2) CA3029968C (ja)
WO (2) WO2018017616A1 (ja)

Families Citing this family (79)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11370128B2 (en) 2015-09-01 2022-06-28 Berkshire Grey Operating Company, Inc. Systems and methods for providing dynamic robotic control systems
EP4137280A1 (en) 2015-09-01 2023-02-22 Berkshire Grey Operating Company, Inc. Systems and methods for providing dynamic robotic control systems
CA3009648C (en) 2016-01-08 2022-10-25 Berkshire Grey, Inc. Systems and methods for acquiring and moving objects
ES2949949T3 (es) 2016-02-08 2023-10-04 Berkshire Grey Operating Company Inc Sistemas y métodos para proporcionar el procesamiento de una variedad de objetos empleando planificación de movimiento
KR102567525B1 (ko) * 2016-11-17 2023-08-16 삼성전자주식회사 이동 로봇 시스템, 이동 로봇 및 이동 로봇 시스템의 제어 방법
CA3045115C (en) 2016-11-28 2022-01-18 Berkshire Grey, Inc. Systems and methods for providing singulation of objects for processing
US10639787B2 (en) 2017-03-06 2020-05-05 Berkshire Grey, Inc. Systems and methods for efficiently moving a variety of objects
US10632610B2 (en) 2017-03-20 2020-04-28 Berkshire Grey, Inc. Systems and methods for processing objects including a zone gantry system
JP6968979B2 (ja) * 2017-04-18 2021-11-24 アラート イノヴェイション インコーポレイテッド 移動ロボット付きピッキングワークステーション及び人間オペレータによって実施されるイーチ移送のマシンビジョン確認
US10792706B2 (en) 2017-04-24 2020-10-06 Berkshire Grey, Inc. Systems and methods for providing singulation of objects for processing using object movement redistribution
US11106967B2 (en) 2017-07-03 2021-08-31 X Development Llc Update of local features model based on correction to robot action
US10562181B2 (en) * 2017-07-03 2020-02-18 X Development Llc Determining and utilizing corrections to robot actions
US11065761B2 (en) 2017-07-25 2021-07-20 Dematic Corp. Robotic picking training technique
US10723019B2 (en) 2017-08-02 2020-07-28 Berkshire Grey, Inc. Systems and methods for acquiring and moving objects having complex outer surfaces
US10899011B2 (en) * 2018-11-14 2021-01-26 Fetch Robotics, Inc. Method and system for selecting a preferred robotic grasp of an object-of-interest using pairwise ranking
JP6676030B2 (ja) * 2017-11-20 2020-04-08 株式会社安川電機 把持システム、学習装置、把持方法、及び、モデルの製造方法
US10800040B1 (en) 2017-12-14 2020-10-13 Amazon Technologies, Inc. Simulation-real world feedback loop for learning robotic control policies
US10792810B1 (en) * 2017-12-14 2020-10-06 Amazon Technologies, Inc. Artificial intelligence system for learning robotic control policies
US10981272B1 (en) * 2017-12-18 2021-04-20 X Development Llc Robot grasp learning
US10754318B2 (en) 2017-12-21 2020-08-25 X Development Llc Robot interaction with objects based on semantic information associated with embedding spaces
US11097418B2 (en) * 2018-01-04 2021-08-24 X Development Llc Grasping of an object by a robot based on grasp strategy determined using machine learning model(s)
US10926408B1 (en) 2018-01-12 2021-02-23 Amazon Technologies, Inc. Artificial intelligence system for efficiently learning robotic control policies
CN111601686B (zh) 2018-01-17 2024-06-11 伯克希尔格雷营业股份有限公司 用于有效地移动各种物体的系统和方法
US20190246858A1 (en) * 2018-02-13 2019-08-15 Nir Karasikov Cleaning robot with arm and tool receptacles
US10843333B2 (en) 2018-03-05 2020-11-24 Berkshire Grey, Inc. Systems and methods for processing objects, including automated re-circulating processing stations
US10766149B2 (en) 2018-03-23 2020-09-08 Amazon Technologies, Inc. Optimization-based spring lattice deformation model for soft materials
US10919151B1 (en) * 2018-03-23 2021-02-16 Amazon Technologies, Inc. Robotic device control optimization using spring lattice deformation model
US11625036B2 (en) 2018-04-09 2023-04-11 SafeAl, Inc. User interface for presenting decisions
US11467590B2 (en) * 2018-04-09 2022-10-11 SafeAI, Inc. Techniques for considering uncertainty in use of artificial intelligence models
US11169536B2 (en) 2018-04-09 2021-11-09 SafeAI, Inc. Analysis of scenarios for controlling vehicle operations
US11561541B2 (en) 2018-04-09 2023-01-24 SafeAI, Inc. Dynamically controlling sensor behavior
EP3651944A4 (en) * 2018-07-25 2021-02-24 Dematic Corp. ROBOTIC COLLECTION LEARNING TECHNIQUE
US20200094401A1 (en) * 2018-09-21 2020-03-26 Beijing Jingdong Shangke Information Technology Co., Ltd. System and method for automatic learning of product manipulation
EP3863814A4 (en) * 2018-10-08 2022-10-19 Advanced Farm Technologies, Inc. AUTONOMOUS HARVESTER
US10810687B2 (en) * 2018-10-10 2020-10-20 Advanced Intelligent Systems Inc. Systems and methods for automated article transportation and management thereof
US10399778B1 (en) * 2018-10-25 2019-09-03 Grey Orange Pte. Ltd. Identification and planning system and method for fulfillment of orders
CN109333536A (zh) * 2018-10-26 2019-02-15 北京因时机器人科技有限公司 一种机器人及其物体抓取方法和装置
USD946068S1 (en) 2018-11-21 2022-03-15 Thk Co., Ltd. Robot arm apparatus
AT521997B1 (de) * 2018-11-21 2021-11-15 Tgw Logistics Group Gmbh Optimierungsverfahren zur Verbesserung der Zuverlässigkeit einer Warenkommissionierung mit einem Roboter
US11046518B2 (en) 2019-01-14 2021-06-29 Mujin, Inc. Controller and control method for robot system
JP6738112B2 (ja) * 2019-01-14 2020-08-12 株式会社Mujin ロボットシステムの制御装置及び制御方法
US20220048717A1 (en) * 2019-01-31 2022-02-17 RightHand Robotics, Inc. Gripping Device Modalities
WO2020172579A1 (en) * 2019-02-22 2020-08-27 Dexterity, Inc. Robotic handling of soft products in non-rigid packaging
EP3938149A4 (en) * 2019-03-11 2022-12-28 Righthand Robotics, Inc. ITEM DISRUPTION FOR ENTRY OPERATIONS
JP7175808B2 (ja) * 2019-03-18 2022-11-21 株式会社東芝 ハンドリングシステムおよびロボット管理システム
WO2020219480A1 (en) 2019-04-25 2020-10-29 Berkshire Grey, Inc. Systems and methods for maintaining vacuum hose life in hose routing systems in programmable motion systems
US11866224B2 (en) 2019-06-24 2024-01-09 Berkshire Grey Operating Company, Inc. Systems and methods for providing shipping of orders in an order fulfillment center
DE102019117117A1 (de) * 2019-06-25 2020-12-31 Fresenius Medical Care Deutschland Gmbh Verfahren zum automatisierten Prüfen eines Medizingeräts sowie automatisiertes Testsystem für ein Medizingerät
US11738447B2 (en) 2019-07-29 2023-08-29 Nimble Robotics, Inc. Storage systems and methods for robotic picking
US11724880B2 (en) 2019-07-29 2023-08-15 Nimble Robotics, Inc. Storage systems and methods for robotic picking
JP6792898B1 (ja) * 2020-07-21 2020-12-02 株式会社DailyColor ロボット制御装置
JP6742040B1 (ja) * 2019-08-28 2020-08-19 株式会社DailyColor ロボット制御装置
EP3998140A4 (en) * 2019-08-28 2022-09-28 Daily Color Inc. ROBOT CONTROL DEVICE
US20210125052A1 (en) * 2019-10-24 2021-04-29 Nvidia Corporation Reinforcement learning of tactile grasp policies
US11772262B2 (en) * 2019-10-25 2023-10-03 Dexterity, Inc. Detecting slippage from robotic grasp
CN111091290B (zh) * 2019-12-17 2020-07-28 广东工业大学 一种基于迁移学习的手机装配工艺知识框架模型构建方法
US11331799B1 (en) * 2019-12-31 2022-05-17 X Development Llc Determining final grasp pose of robot end effector after traversing to pre-grasp pose
CN111178299B (zh) * 2019-12-31 2023-04-07 深圳市商汤科技有限公司 图像处理方法、装置、电子设备和存储介质
US11951636B1 (en) * 2020-01-28 2024-04-09 Embodied Intelligence Inc. Methods of collecting data through test interactions
CN115552476A (zh) 2020-02-06 2022-12-30 伯克希尔格雷营业股份有限公司 用于利用可编程运动装置的铰接臂上的位置未知的基准物的照相机校准的系统和方法
CN111591650A (zh) * 2020-04-30 2020-08-28 南京理工大学 一种智能抱夹式agv货物搬运辅助装置和方法
US11511419B2 (en) * 2020-05-01 2022-11-29 Intrinsic Innovation Llc Task planning for measurement variances
CN113649993B (zh) * 2020-05-12 2022-10-14 深圳市海柔创新科技有限公司 物品取出装置、搬运机器人及物品取出方法
US11559885B2 (en) * 2020-07-14 2023-01-24 Intrinsic Innovation Llc Method and system for grasping an object
EP4185442A1 (en) 2020-07-22 2023-05-31 Berkshire Grey Operating Company, Inc. Systems and methods for object processing using a vacuum gripper that provides object retention by shroud inversion
EP4185445A1 (en) 2020-07-22 2023-05-31 Berkshire Grey Operating Company, Inc. Systems and methods for object processing using a passively folding vacuum gripper
US10978205B1 (en) * 2020-09-21 2021-04-13 James E. Beecham Robots, social robot systems, focusing software development for social robot systems, testing and uses thereof
SE2030325A1 (en) * 2020-10-28 2021-12-21 Zenrobotics Oy Waste sorting robot and method for detecting faults
EP4237207A1 (en) * 2020-10-29 2023-09-06 Berkshire Grey Operating Company, Inc. Systems and methods for automated packaging and processing for shipping with pack and place planning
WO2022093955A1 (en) * 2020-10-30 2022-05-05 Berkshire Grey, Inc. Systems and methods for sku induction, decanting and automated- eligibility estimation
JP2022090523A (ja) * 2020-12-07 2022-06-17 東急建設株式会社 ロボットハンド、ロボットアーム及び制御システム
US11932129B2 (en) 2020-12-21 2024-03-19 Nimble Robotics, Inc. Mobile robot having pneumatic charging system
US11938634B2 (en) * 2021-02-18 2024-03-26 Sanctuary Cognitive Systems Corporation Systems, devices, and methods for multi-purpose robots
JP7323869B2 (ja) * 2021-02-24 2023-08-09 株式会社ウエーブ 面ファスナーテープの貼付方法および貼付装置
CA203910S (en) * 2021-06-03 2023-05-30 Macdonald Dettwiler & Associates Inc Robotic end effector and end of arm tool
CA203911S (en) * 2021-06-03 2023-05-31 Macdonald Dettwiler & Associates Inc Robotic end effector and end of arm tool
NO20210970A1 (en) * 2021-08-09 2023-02-10 Pickr As System for retrieving at least one object from a storage system and filling at least one container
WO2023042307A1 (ja) * 2021-09-15 2023-03-23 ヤマハ発動機株式会社 画像処理装置、部品把持システム、画像処理方法および部品把持方法
CN115436081B (zh) * 2022-08-23 2023-10-10 中国人民解放军63653部队 一种目标捡拾性能测试方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013052490A (ja) 2011-09-06 2013-03-21 Mitsubishi Electric Corp ワーク取り出し装置
US20130151007A1 (en) 2010-06-24 2013-06-13 Zenrobotics Oy Method for the selection of physical objects in a robot system
JP2014141313A (ja) 2013-01-22 2014-08-07 JB−Create株式会社 商品自動ピッキングシステム
US20150057793A1 (en) 2012-02-21 2015-02-26 Amazon Technologies, Inc. System and method for automatic picking of products in a materials handling facility

Family Cites Families (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61206709A (ja) * 1985-03-07 1986-09-13 Motoda Electronics Co Ltd トレ−配送装置
US4704694A (en) 1985-12-16 1987-11-03 Automation Intelligence, Inc. Learned part system
US5501498A (en) 1988-08-31 1996-03-26 The Trustees Of The University Of Pennsylvania Methods and apparatus for mechanically intelligent grasping
JPH10111701A (ja) * 1996-10-05 1998-04-28 Ricoh Co Ltd 学習型自動セル装置と学習方法
US20070187183A1 (en) * 2000-07-12 2007-08-16 Michael Saigh System, method and process for computer controlled delivery of classified goods and services through an amalgamated drive-thru complex
JP2002239956A (ja) * 2001-02-19 2002-08-28 Honda Motor Co Ltd 多関節ロボットのティーチングデータ作成方法
JP4007204B2 (ja) * 2003-01-30 2007-11-14 松下電器産業株式会社 ロボットシステム
WO2004090798A1 (en) * 2003-04-07 2004-10-21 Silverbrook Research Pty Ltd Sensing device for coded data
JP2006102881A (ja) * 2004-10-06 2006-04-20 Nagasaki Prefecture 把持ロボット装置
JP4199264B2 (ja) * 2006-05-29 2008-12-17 ファナック株式会社 ワーク取り出し装置及び方法
JP2008296330A (ja) 2007-05-31 2008-12-11 Fanuc Ltd ロボットシミュレーション装置
JP4835616B2 (ja) 2008-03-10 2011-12-14 トヨタ自動車株式会社 動作教示システム及び動作教示方法
US20090306825A1 (en) 2008-04-21 2009-12-10 Ying Li Manipulation system and method
CA2639239A1 (en) * 2008-08-29 2010-02-28 Pcas Patient Care Automation Services Inc. Automated modular apparatus for dispensing medicaments
AT11337U1 (de) * 2009-02-26 2010-08-15 Ih Tech Sondermaschb U Instand Verfahren und vorrichtung zum robotergesteuerten greifen und bewegen von objekten
KR20120027253A (ko) * 2009-04-23 2012-03-21 코닌클리케 필립스 일렉트로닉스 엔.브이. 물체-학습 로봇 및 방법
KR20110015765A (ko) * 2009-08-10 2011-02-17 삼성전자주식회사 로봇의 경로계획장치 및 그 방법
KR102015307B1 (ko) 2010-12-28 2019-08-28 삼성전자주식회사 로봇 및 그 제어 방법
US8380652B1 (en) 2011-05-06 2013-02-19 Google Inc. Methods and systems for autonomous robotic decision making
JP2013022705A (ja) 2011-07-25 2013-02-04 Sony Corp ロボット装置及びロボット装置の制御方法、コンピューター・プログラム、並びにロボット・システム
US9014850B2 (en) * 2012-01-13 2015-04-21 Toyota Motor Engineering & Manufacturing North America, Inc. Methods and computer-program products for evaluating grasp patterns, and robots incorporating the same
US9014857B2 (en) 2012-01-13 2015-04-21 Toyota Motor Engineering & Manufacturing North America, Inc. Methods and computer-program products for generating grasp patterns for use by a robot
JP5895569B2 (ja) 2012-02-08 2016-03-30 ソニー株式会社 情報処理装置、情報処理方法およびコンピュータプログラム
US8996174B2 (en) 2012-06-21 2015-03-31 Rethink Robotics, Inc. User interfaces for robot training
EP2716591B1 (en) * 2012-10-03 2015-05-13 Montajes de Maquinaria de Precision, S.A. System for the automatic loading and unloading of trucks and containers
US9095978B2 (en) * 2012-12-07 2015-08-04 GM Global Technology Operations LLC Planning a grasp approach, position, and pre-grasp pose for a robotic grasper based on object, grasper, and environmental constraint data
US9238304B1 (en) 2013-03-15 2016-01-19 Industrial Perception, Inc. Continuous updating of plan for robotic object manipulation based on received sensor data
US9785911B2 (en) * 2013-07-25 2017-10-10 I AM Robotics, LLC System and method for piece-picking or put-away with a mobile manipulation robot
ES2968379T3 (es) 2013-09-09 2024-05-09 Dematic Corp Recogida móvil autónoma
FR3020303B1 (fr) 2014-04-25 2016-07-15 Sileane Procede et installation de prehension automatique d'un objet.
JP6591523B2 (ja) * 2014-07-11 2019-10-16 デマティック コープDematic Corp. 自動倉庫付きピッキングステーション
US9272417B2 (en) * 2014-07-16 2016-03-01 Google Inc. Real-time determination of object metrics for trajectory planning
US9205558B1 (en) * 2014-07-16 2015-12-08 Google Inc. Multiple suction cup control
US9802309B2 (en) 2014-07-24 2017-10-31 X Development Llc Methods and systems for generating instructions for a robotic system to carry out a task
JP6660102B2 (ja) 2014-08-27 2020-03-04 キヤノン株式会社 ロボット教示装置およびその制御方法、ロボットシステム、プログラム
US9465390B2 (en) * 2014-11-11 2016-10-11 Google Inc. Position-controlled robotic fleet with visual handshakes
US9561587B2 (en) * 2014-12-16 2017-02-07 Amazon Technologies, Inc. Robotic grasping of items in inventory system
DE102016009030B4 (de) 2015-07-31 2019-05-09 Fanuc Corporation Vorrichtung für maschinelles Lernen, Robotersystem und maschinelles Lernsystem zum Lernen eines Werkstückaufnahmevorgangs
US10023393B2 (en) 2015-09-29 2018-07-17 Amazon Technologies, Inc. Robotic tossing of items in inventory system
US9821458B1 (en) * 2016-05-10 2017-11-21 X Development Llc Trajectory planning with droppable objects

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130151007A1 (en) 2010-06-24 2013-06-13 Zenrobotics Oy Method for the selection of physical objects in a robot system
JP2013529554A (ja) 2010-06-24 2013-07-22 ゼンロボティクス オイ ロボットシステムにおける物理的な物体の選択のための方法
JP2013052490A (ja) 2011-09-06 2013-03-21 Mitsubishi Electric Corp ワーク取り出し装置
US20150057793A1 (en) 2012-02-21 2015-02-26 Amazon Technologies, Inc. System and method for automatic picking of products in a materials handling facility
JP2015513505A (ja) 2012-02-21 2015-05-14 アマゾン テクノロジーズ インコーポレイテッド 材料取扱施設における製品の自動ピッキングのためのシステムおよび方法
JP2014141313A (ja) 2013-01-22 2014-08-07 JB−Create株式会社 商品自動ピッキングシステム

Also Published As

Publication number Publication date
CA3029968A1 (en) 2018-01-25
JP2019531907A (ja) 2019-11-07
EP3485369A1 (en) 2019-05-22
CA3029968C (en) 2024-06-04
CA3029834C (en) 2024-04-16
CN109997108A (zh) 2019-07-09
US11173602B2 (en) 2021-11-16
EP3485369A4 (en) 2020-03-25
US20190361672A1 (en) 2019-11-28
CA3029834A1 (en) 2018-01-25
EP3485370A4 (en) 2020-03-25
JP2019531908A (ja) 2019-11-07
JP7069110B2 (ja) 2022-05-17
WO2018017616A1 (en) 2018-01-25
CN109983433A (zh) 2019-07-05
US11338436B2 (en) 2022-05-24
US20190358810A1 (en) 2019-11-28
WO2018017612A1 (en) 2018-01-25
EP3485370A1 (en) 2019-05-22

Similar Documents

Publication Publication Date Title
JP7145843B2 (ja) ロボットマニピュレータの訓練
US11654582B2 (en) Optimization-based spring lattice deformation model for soft materials
EP3352952B1 (en) Networked robotic manipulators
US11905116B2 (en) Controller and control method for robot system
CN108712946B (zh) 货物摆放方法、装置、系统以及电子设备和可读存储介质
JP2021104900A (ja) 調整機構を備えたロボットシステム及びロボットシステムを動作させる方法
US11077554B2 (en) Controller and control method for robotic system
US20190359424A1 (en) Human-assisted robotic picking apparatus
US11007643B2 (en) Control device, picking system, distribution system, program, control method and production method
US10471599B1 (en) Robotic item manipulation using magnetic coupling
JP2022525068A (ja) ピッキング動作のための物品揺動
JP2022523968A (ja) 物品特徴適応
US20240198526A1 (en) Auto-generation of path constraints for grasp stability

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200714

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200714

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210721

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210914

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20211207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220610

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220727

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220916

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220920

R150 Certificate of patent or registration of utility model

Ref document number: 7145843

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150