ES2929729T3 - Sistemas de clasificación para proporcionar clasificación de una variedad de objetos - Google Patents

Sistemas de clasificación para proporcionar clasificación de una variedad de objetos Download PDF

Info

Publication number
ES2929729T3
ES2929729T3 ES16805614T ES16805614T ES2929729T3 ES 2929729 T3 ES2929729 T3 ES 2929729T3 ES 16805614 T ES16805614 T ES 16805614T ES 16805614 T ES16805614 T ES 16805614T ES 2929729 T3 ES2929729 T3 ES 2929729T3
Authority
ES
Spain
Prior art keywords
objects
grip
location
classification
end effector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES16805614T
Other languages
English (en)
Inventor
Thomas Wagner
Kevin Ahearn
Benjamin Cohen
Michael DAWSON-HAGGERTY
Christopher GEYER
Thomas Koletschka
Kyle MARONEY
Matthew Mason
Gene Price
Joseph Romano
Daniel Smith
Siddhartha SRINIVASA
Prasanna Velagapudi
Thomas Allen
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Berkshire Grey Inc
Original Assignee
Berkshire Grey Operating Co Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Berkshire Grey Operating Co Inc filed Critical Berkshire Grey Operating Co Inc
Application granted granted Critical
Publication of ES2929729T3 publication Critical patent/ES2929729T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1669Programme controls characterised by programming, planning systems for manipulators characterised by special application, e.g. multi-arm co-operation, assembly, grasping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B07SEPARATING SOLIDS FROM SOLIDS; SORTING
    • B07CPOSTAL SORTING; SORTING INDIVIDUAL ARTICLES, OR BULK MATERIAL FIT TO BE SORTED PIECE-MEAL, e.g. BY PICKING
    • B07C5/00Sorting according to a characteristic or feature of the articles or material being sorted, e.g. by control effected by devices which detect or measure such characteristic or feature; Sorting by manually actuated devices, e.g. switches
    • B07C5/34Sorting according to other particular properties
    • B07C5/342Sorting according to other particular properties according to optical properties, e.g. colour
    • B07C5/3422Sorting according to other particular properties according to optical properties, e.g. colour using video scanning devices, e.g. TV-cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B07SEPARATING SOLIDS FROM SOLIDS; SORTING
    • B07CPOSTAL SORTING; SORTING INDIVIDUAL ARTICLES, OR BULK MATERIAL FIT TO BE SORTED PIECE-MEAL, e.g. BY PICKING
    • B07C3/00Sorting according to destination
    • B07C3/18Devices or arrangements for indicating destination, e.g. by code marks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B07SEPARATING SOLIDS FROM SOLIDS; SORTING
    • B07CPOSTAL SORTING; SORTING INDIVIDUAL ARTICLES, OR BULK MATERIAL FIT TO BE SORTED PIECE-MEAL, e.g. BY PICKING
    • B07C5/00Sorting according to a characteristic or feature of the articles or material being sorted, e.g. by control effected by devices which detect or measure such characteristic or feature; Sorting by manually actuated devices, e.g. switches
    • B07C5/36Sorting apparatus characterised by the means used for distribution
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/04Viewing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0093Programme-controlled manipulators co-operating with conveyor means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1612Programme controls characterised by the hand, wrist, grip control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1687Assembly, peg and hole, palletising, straight line, weaving pattern movement
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
    • G05B19/4183Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by data acquisition, e.g. workpiece identification
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/32Operator till task planning
    • G05B2219/32037Order picking
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39106Conveyor, pick up article, object from conveyor, bring to test unit, place it
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39295Learn position correction values to be added to reference values
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39476Orient hand relative to object
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39484Locate, reach and grasp, visual guided grasping
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39504Grip object in gravity center
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39548Enter interactively parameter for gripper, then teach movement
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40053Pick 3-D object from pile of objects
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40078Sort objects, workpieces
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40116Learn by operator observation, symbiosis, show, watch
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40538Barcode reader to detect position
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/45Nc applications
    • G05B2219/45045Maintenance, automatic storage and retrieval system
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • Quality & Reliability (AREA)
  • Manufacturing & Machinery (AREA)
  • Multimedia (AREA)
  • Manipulator (AREA)
  • Sorting Of Articles (AREA)

Abstract

Se describe un sistema de clasificación para proporcionar procesamiento de objetos homogéneos y no homogéneos en entornos tanto estructurados como desordenados. El sistema de clasificación incluye un dispositivo de movimiento programable que incluye un efector final, un sistema de percepción para reconocer cualquiera de la identidad, ubicación y orientación de un objeto presentado en una pluralidad de objetos, un sistema de selección de agarre para seleccionar una ubicación de agarre en el objeto, eligiendo la ubicación de agarre para proporcionar un agarre seguro del objeto por parte del efector final para permitir que el objeto se mueva desde la pluralidad de objetos a una de una pluralidad de ubicaciones de destino, y un sistema de planificación de movimiento para proporcionar una trayectoria de movimiento para el transporte del objeto cuando es agarrado por el efector final desde la pluralidad de objetos a una de la pluralidad de ubicaciones de destino, donde la trayectoria de movimiento se elige para proporcionar una trayectoria desde la pluralidad de objetos a una de la pluralidad de ubicaciones de destino. (Traducción automática con Google Translate, sin valor legal)

Description

DESCRIPCIÓN
Sistemas de clasificación para proporcionar clasificación de una variedad de objetos
PRIORIDAD
La presente solicitud reivindica la prioridad de la solicitud de patente provisional de EE. UU. con n.° de serie 62/255.069, presentada el 13 de noviembre de 2015, así como la solicitud de patente provisional de EE.UU. con n.° de serie 62/277.234, presentada el 11 de enero de 2016.
ANTECEDENTES
La invención se refiere generalmente a sistemas de clasificación, y se refiere en particular a sistemas de clasificación robóticos y otros que están destinados a usarse en entornos dinámicos que requieren que el sistema de clasificación se adapte al procesamiento de una variedad de objetos en disposiciones tanto homogéneas como heterogéneas.
Muchas operaciones de cumplimiento de pedidos logran una alta eficiencia mediante el empleo de un proceso en el que los pedidos se recogen de los estantes del almacén y se colocan en depósitos que se clasifican aguas abajo. En la etapa de clasificación, se identifican los artículos individuales y los pedidos de varios artículos se consolidan en un solo depósito o ubicación de estante para que puedan empaquetarse y luego enviarse a los clientes. El proceso de clasificación de estos artículos se ha realizado a mano. Un clasificador humano recoge un artículo de un depósito entrante, encuentra el código de barras en el objeto, escanea el código de barras con un escáner de código de barras de mano o de montaje fijo, determina a partir del código de barras escaneado la ubicación adecuada del depósito o estante para el artículo, y luego coloca el artículo en la ubicación así determinada del depósito o estante donde van todos los artículos para ese pedido.
Por tanto, sigue siendo necesaria la identificación del objeto, clasificación, selección de agarre y sistema de planificación de movimiento para un sistema robótico que es capaz de acomodar la identificación y el procesamiento automatizados de una variedad de objetos en una variedad de orientaciones. El documento US 2015/224650 A1 divulga un sistema de manipulación robótica basado en visión que identifica, individualiza y elimina un instrumento quirúrgico individual de un entorno atestado. La publicación de solicitud de patente US 2001/056313 A1 y la publicación REMBOLD D ET AL: "Object turning for barcode search", Proc. I E E E / r S j IROS 2000, vol. 2, 31 de octubre de 2000, páginas 1267-1272 divulgan un proceso para realizar una búsqueda de código de barras en un objeto que puede automatizarse usando un sistema de robot. El proceso automatizado consiste en las siguientes etapas: (a) un escáner láser ubicado sobre un portaobjetos escanea en busca de un objeto arrojado sobre el portaobjetos; (b) el escáner láser transmite la posición y orientación del producto a un sistema de robot que planifica la operación de agarre; (c) un sistema de cámara monitorea si el lado del código de barras del producto está hacia arriba; en caso afirmativo, el robot recoge el producto y lo coloca en una caja; de lo contrario, el robot gira el producto hasta que el sistema de cámara señala que el lado del código de barras está hacia arriba, luego, el robot recoge el producto y lo coloca en una caja.
SUMARIO
En un aspecto, se proporciona un sistema de clasificación según la reivindicación independiente 1 adjunta. Diversas características opcionales se enumeran en las reivindicaciones dependientes adjuntas.
También se describe un método de clasificación para procesar objetos recibidos en un área de entrada en ubicaciones de destino. El método incluye las etapas de proporcionar datos representativos de una imagen de al menos una parte del área de entrada, determinar una ubicación de agarre para agarrar un objeto en el área de entrada, determinar una dirección de agarre desde la cual agarrar el objeto en el área de entrada, y enganchar el objeto en el área de entrada usando un efector final.
BREVE DESCRIPCIÓN DE LOS DIBUJOS
La siguiente descripción puede entenderse mejor con referencia a los dibujos adjuntos, en los que:
la figura 1 muestra una vista esquemática ilustrativa de un sistema de clasificación que emplea la planificación de agarre de acuerdo con una realización de la presente invención;
la figura 2 muestra una vista inferior esquemática ilustrativa de la unidad de percepción de la figura 1;
la figura 3 muestra una imagen esquemática ilustrativa de objetos en un depósito en un sistema de acuerdo con una realización de la invención que muestra buenas ubicaciones de agarre;
la figura 4 muestra una imagen esquemática ilustrativa de los objetos en el depósito de la figura 3 que muestra adicionalmente ciertas ubicaciones de mal agarre;
las figuras 5A y 5B muestran vistas esquemáticas ilustrativas de una ubicación de agarre de objetos que se selecciona de acuerdo con una realización de la invención;
las figuras 6A y 6B muestran vistas esquemáticas ilustrativas de la selección del ángulo de agarre de acuerdo con una realización de la invención;
las figuras 7A y 7B muestran vistas esquemáticas ilustrativas de una pinza que se aproxima a objetos a lo largo de ángulos de agarre seleccionados de acuerdo con una realización de la invención;
las figuras 8A y 8B muestran vistas esquemáticas ilustrativas de otro tipo de pinza que se aproxima a objetos a lo largo de ángulos de agarre seleccionados de acuerdo con una realización de la invención;
la figura 9 muestra una vista esquemática ilustrativa de un brazo robótico usado para agitar el contenido de un depósito de acuerdo con una realización de la invención;
las figuras 10A y 10B muestran vistas esquemáticas ilustrativas de un objeto que se agarra de acuerdo con otra realización de la presente invención;
la figura 11 muestra una vista esquemática ilustrativa de un efector final de acuerdo con una realización de la presente invención que incluye más de una pinza;
la figura 12 muestra una vista esquemática ilustrativa de un efector final de acuerdo con una realización de la invención que incluye una cámara para ver el agarre;
la figura 13 muestra una vista esquemática ilustrativa de otro efector final de acuerdo con otra realización de la invención que incluye una cámara para ver el agarre; y
la figura 14 muestra una vista esquemática ilustrativa de un sistema de clasificación que incluye una cámara para ver el agarre de acuerdo con una realización de la presente invención.
Los dibujos se muestran únicamente con fines ilustrativos.
DESCRIPCIÓN DETALLADA
De acuerdo con una realización, la invención proporciona un nuevo sistema de escaneo de objetos, sistema de selección y planificación de agarre y sistema de planificación de movimiento con el fin de agarrar y mover automáticamente objetos individuales en un conjunto para una variedad de propósitos. En aplicaciones como el cumplimiento de pedidos, los artículos o bienes se agrupan en conjuntos heterogéneos y deben clasificarse. Los objetos individuales deben identificarse y luego enviarse a ubicaciones específicas del objeto. El sistema descrito automatiza de forma fiable la identificación de tales objetos mediante el empleo de escáneres automáticos (p. ej., escáner de código de barras) y un brazo robótico.
La clasificación para el cumplimiento de pedidos es una aplicación para identificar automáticamente objetos de un flujo de objetos heterogéneos. Es más, los escáneres tienen una amplia variedad de usos, incluida la información de identificación del objeto (tal como un código de barras, código QR, código UPC, otros códigos de identificación, información leída de una etiqueta en el objeto, o información de tamaño, peso y/o forma) de un objeto, o seguimiento de paquetes. El sistema descrito puede tener muchos usos en la identificación y clasificación automática de objetos.
Dicho sistema automatiza parte del proceso de clasificación junto con un sistema robótico de recogida y colocación, y en particular, la etapa de identificar los artículos recogidos. Un brazo robótico, por ejemplo, recoge un artículo de un depósito, coloca el artículo frente a un escáner, y luego, habiendo obtenido información de identificación del artículo (tal como un código de barras, códigos QR, códigos UPC, otros códigos de identificación, información leída de una etiqueta en el objeto, o información de tamaño, peso y/o forma), coloca el artículo en la ubicación apropiada del depósito o estante. Dado que ciertos escáneres emplean cámaras o láseres para escanear simbologías 1D o 2D impresas en etiquetas adheridas a artículos, los códigos de barras deben ser visibles para los sensores del escáner para un escaneo exitoso con el fin de identificar automáticamente artículos en un flujo heterogéneo de artículos arbitrarios, como en un conjunto mezclado de artículos encontrados en un depósito.
Otras aplicaciones para los sistemas de agarre de la invención incluyen clasificación para una amplia variedad de aplicaciones, incluyendo el cumplimiento de pedidos, recolección de objetos para envío, y recolección de objetos con fines de inventario, etc. Además, dichos sistemas de planificación de agarre de la invención pueden usarse para cargar paquetes divididos (paquetes organizados para su posterior separación en una ubicación diferente), paletización (carga de palés), despaletización, carga de camiones, descarga de camiones, etc. Como se usa en el presente documento, el término "ubicaciones de destino" implica la colocación de objetos en ubicaciones para cualquier propósito, no necesariamente un destino final, y no necesariamente para la clasificación para el cumplimiento de pedidos.
De conformidad con diversas realizaciones, por lo tanto, la invención proporciona un método para determinar la identidad de un objeto a partir de una colección de objetos, así como un método para percibir la información relativa a un objeto que emplea una o más unidades de percepción (cámaras o escáneres), y un brazo robótico con un efector final para sujetar el objeto. La invención proporciona además un método para determinar una secuencia de colocaciones de un efector final de robot para minimizar el tiempo que tarda una configuración de una o más cámaras o escáneres en escanear con éxito un objeto, y un método para escanear la información de identificación para el artículo (tal como un código de barras, códigos QR, códigos UPC, otros códigos de identificación, información leída de una etiqueta en el objeto, o información de tamaño, peso y/o forma) de un objeto empleando un escáner como efector final en un brazo robótico.
Un aspecto importante es la capacidad de identificar la información de identificación o envío del objeto (tal como un código de barras, códigos QR, códigos UPC, otros códigos de identificación, información leída de una etiqueta en el objeto, o información de tamaño, peso y/o forma) de objetos empleando un dispositivo de movimiento programable, tal como un brazo robótico, para recoger objetos individuales y colocarlos frente a uno o más escáneres. De acuerdo con otras realizaciones, el dispositivo de movimiento programable puede incluir un robot de brazo paralelo (brazo tipo Delta) o un sistema de recogida y colocación de indexación lineal. Los sistemas de escaneo automático no podrían ver, por ejemplo, las etiquetas o códigos de barras en objetos que se presentaran de manera que esta información no esté expuesta o visible.
Los componentes importantes de un sistema de identificación automatizado de acuerdo con una realización de la presente invención se muestran en la figura 1. La figura 1 muestra un sistema robótico 10 que incluye un brazo articulado 12 que incluye un efector final 14 y secciones articuladas 16, 18 y 20. El brazo articulado 12 selecciona objetos de un área de entrada, tal como un transportador 22, que están en un depósito en el transportador 22 o están en el mismo transportador. Un soporte 24 incluye una unidad de percepción 26 adjunta que se dirige hacia el transportador desde arriba del transportador. La unidad de percepción 26 puede incluir, por ejemplo, una cámara 2D o 3D, o un escáner, tal como un escáner de reflectividad láser u otro tipo de lector de código de barras, o un escáner 1D de radiofrecuencia.
Tal como se muestra en la figura 2, la unidad de percepción 26 puede incluir (en la parte inferior de la misma), una cámara 23, un sensor de profundidad 25 y luces 27. El sensor de profundidad 25 puede proporcionar información de profundidad, que se puede usar junto con los datos de imagen de la cámara para determinar la información de profundidad con respecto a los diversos objetos en la vista. Las luces 27 pueden usarse para eliminar sombras y facilitar la identificación de los bordes de los objetos, y pueden estar todas encendidas durante el uso, o pueden iluminarse de acuerdo con la secuencia deseada para ayudar en la identificación de objetos.
De nuevo, con referencia a la figura 1, también se proporciona un sistema de visualización de imágenes como se muestra en 28 para proporcionar una imagen de la vista de la unidad de percepción en un dispositivo de entrada de pantalla táctil. De acuerdo con diversas realizaciones, y como se analiza con más detalle a continuación con referencia a las figuras 3 y 4, el dispositivo de entrada de pantalla táctil puede mostrar los datos de la imagen capturada de la cámara 23 y puede recibir datos de entrada proporcionados por un trabajador humano (p. ej., mediante la colocación de los dedos en la imagen) que ayuda al sistema de robot tocando las ubicaciones de agarre de uno o más objetos que serían buenas ubicaciones de agarre.
El sistema de clasificación 10 puede incluir además un robot u otro dispositivo de movimiento programable en el entorno de clasificación, una estación objetivo 30 que incluye una serie de depósitos 32 en los que el robot puede colocar los objetos después de identificarlos y agarrarlos. Un sistema central de computación y control 34 puede comunicarse con la unidad de percepción 26 y el sistema de visualización de imágenes 28, así como con el brazo articulado 12 mediante comunicación inalámbrica, o, en determinadas realizaciones, el sistema central de computación y control puede proporcionarse dentro de la sección de base 20 del brazo articulado.
El sistema proporciona, en una realización específica, un sistema automatizado de identificación de artículos que incluye un sistema robótico de recogida y colocación que es capaz de recoger objetos, moverlos en el espacio y colocarlos. El sistema también incluye el conjunto de objetos propios a identificar; la forma en que se organizan los objetos entrantes, comúnmente en una pila heterogénea en un depósito o en una línea en un transportador; la forma en que se organizan los objetos salientes, comúnmente en una serie de depósitos de salida o cubículos de estantes; la forma en que se etiquetan los objetos con códigos de barras o etiquetas de identificación por radiofrecuencia; un escáner primario fijo que opera por encima del flujo entrante de objetos; una estación de escaneo donde se activan uno o más escáneres e iluminadores cuando el objeto se mantiene en la estación; y un sistema central de computación y control determina la ubicación adecuada para colocar el objeto, que depende del código de barras decodificado del objeto.
Como se ha destacado, el sistema robótico de recogida y colocación puede incluir un brazo robótico equipado con sensores y computación, que cuando se combina exhibe las siguientes capacidades: (a) es capaz de recoger objetos de una clase específica de objetos y separarlos de un flujo de objetos heterogéneos, ya sea que se mezclen en un depósito o que estén separados en un sistema transportador motorizado o por gravedad; (b) es capaz de mover el objeto a lugares arbitrarios dentro de su espacio de trabajo; (c) es capaz de colocar objetos en un depósito de salida o ubicación de estante en su espacio de trabajo; y, (d) es capaz de generar un mapa de objetos que puede recoger, representado como un conjunto candidato de puntos de agarre en la celda de trabajo y como una lista de politopos que encierran el objeto en el espacio.
Los objetos permitidos están determinados por las capacidades del sistema robótico de recogida y colocación. Se supone que su tamaño, peso y geometría son tales que el sistema robótico de recogida y colocación es capaz de recogerlos, moverlos y colocarlos. Estos pueden ser cualquier tipo de bienes pedidos, embalajes, paquetes u otros artículos que se benefician de la clasificación automática. Cada objeto está asociado con un código UPC u otro identificador de objeto único, que identifica el objeto o su destino.
La invención también proporciona un sistema robótico que permite que un trabajador humano ayude al sistema robótico en la clasificación de objetos, particularmente en un entorno que presenta los objetos de manera desordenada y en el que también están presentes los trabajadores humanos. Por bueno que pueda ser un sistema de percepción, tal entorno casi asegura que el sistema robótico encontrará alguna configuración de objetos que el sistema robótico no pueda manejar. De acuerdo con diversas realizaciones de la invención, puede ser deseable permitir que el trabajador humano ayude al sistema robótico.
Por tanto, de acuerdo con una realización de la invención, la invención proporciona un método que permite a un trabajador humano mirar una imagen de una colección de objetos cuando el sistema robótico percibe la recolección de objetos, y ayuda al sistema robótico identificando una o más ubicaciones de agarre para uno o más objetos. El sistema también se puede usar para eliminar malas ubicaciones de agarre que el sistema robótico ha identificado. Adicionalmente, las imágenes 2D/3D junto con las ubicaciones de agarre seleccionadas por el trabajador humano se pueden usar como entrada para algoritmos de aprendizaje automático para ayudar al sistema robótico a aprender cómo lidiar con tales casos en el futuro, reduciendo así la necesidad de asistencia del operador con el tiempo.
Como se ha descrito anteriormente, el sistema de una realización incluye un sistema de percepción 26 que está montado encima de un depósito de objetos a clasificar, mirando hacia abajo en el depósito. Se adquiere una combinación de datos 2D y 3D (profundidad). El sistema usa estas imágenes y una variedad de algoritmos para generar un conjunto de ubicaciones de agarre candidatas para los objetos en el depósito.
La figura 3 muestra una imagen de una vista de cámara desde la unidad de percepción 26, y la imagen puede aparecer en el sistema de visualización de imágenes 28 de la figura 1 con imágenes superpuestas de un efector final que busca agarrar cada objeto 40, 42, 44, 46, 48, 50, 52 y 54 en un depósito 56, mostrando la ubicación de cada agarre. Las ubicaciones de agarre candidatas 58 se indican usando un modelo 3D del efector final del robot colocado en la ubicación donde el efector final real se usaría como ubicación de agarre, como se muestra en la figura 3. La imagen muestra varias ubicaciones de agarre 58 que se considerarían buenas (p. ej., están cerca del centro de masa del objeto para proporcionar una mayor estabilidad durante el agarre y el transporte) y evitan lugares en un objeto tal como tapas, costuras, etc., donde podría no estar disponible un buen sello al vacío.
La imagen también muestra dos ubicaciones de agarre 60 que no son buenas ubicaciones de agarre, donde el sistema de percepción no percibió correctamente el objeto 54, y en particular, no percibió que otro objeto 48 está encima del objeto 54. El objeto 54 no puede ser percibido completamente por el sistema de detección y, como resultado, el sistema de percepción considera que el objeto 54 son dos objetos diferentes y propone agarres candidatos de tales dos objetos diferentes. Si el sistema ejecuta un agarre en cualquiera de las ubicaciones de agarre 60, no podrá adquirir el objeto debido a un mal punto de agarre donde no se producirá un sello al vacío (p. ej., a la derecha), o adquirirá el objeto en una ubicación de agarre que esté muy lejos del centro de masa del objeto (p. ej., a la izquierda) y por lo tanto inducirá una gran inestabilidad durante cualquier intento de transporte. Cada uno de estos resultados es indeseable.
Como se muestra en la figura 4, las malas ubicaciones de agarre 60 puede identificarlas fácilmente un trabajador humano que toca la imagen (que se muestra en un dispositivo de entrada de pantalla táctil 28) y, por lo tanto, identifica las malas ubicaciones de agarre 60. Las ubicaciones seleccionadas pueden, por ejemplo, mostrar una indicación de haber sido seleccionadas. Las malas ubicaciones de agarre 60 pueden eliminarse después del sistema de procesamiento 34. Una vez que el sistema de clasificación ha adquirido y movido el objeto 48, todo el objeto inferior 54 se volverá visible para el sistema de detección, y el sistema robótico generará una buena ubicación de agarre candidata.
Si el sistema robótico no genera una buena ubicación de agarre para un objeto, el trabajador humano, nuevamente usando la interfaz de pantalla táctil, puede seleccionar una ubicación de agarre adecuada en la pantalla táctil. El sistema de clasificación puede luego poner en cola esta ubicación de agarre candidata determinada por humanos para ese objeto y ejecutar esa ubicación de agarre para objetos similares durante el proceso de limpieza del depósito. Cada imagen de depósito modificada por un trabajador humano se almacenará y usará luego como entrada para algoritmos de aprendizaje automático. Al identificar buenas o malas ubicaciones de agarre en la imagen, se establece una correlación entre las características de las imágenes 2D/3D y la idea de buenas o malas ubicaciones de agarre. Usando estos datos y estas correlaciones como entrada para los algoritmos de aprendizaje automático, el sistema puede finalmente aprender, por cada imagen que se le presenta, dónde agarrar mejor un objeto y dónde evitar agarrar un objeto.
De acuerdo con realizaciones adicionales, el sistema puede indicarle al trabajador humano una ubicación de agarre propuesta, y la persona puede confirmar que la ubicación es una buena selección (p. ej., tocándola) o puede indicar que la ubicación de agarre propuesta no es una buena ubicación (p. ej., deslizando la ubicación (tocando y arrastrando)). Después de tal interacción con un trabajador humano, el sistema puede aprender ubicaciones de agarre óptimas para objetos que puede llegar a reconocer y conocer. Otras realizaciones pueden implicar el uso de simulación, ya sea para recibir comentarios de un trabajador humano o para mapear diversas selecciones de ubicación de agarre para el movimiento.
Como se muestra en las figuras 5A y 5B, el sistema de percepción también puede identificar partes de un objeto que son las más planas en la generación de información de buena ubicación de agarre. En particular, si un objeto incluye un extremo tubular y un extremo plano como el objeto 70, el sistema identificaría el extremo más plano, como se muestra en 72 en la figura 5B. El sistema seleccionará el área de un objeto donde aparece un código, tal como un código de barras, código QR, código UPC u otro código de producto (p. ej., 72), ya que dichos códigos pueden imprimirse en una parte relativamente plana del objeto.
Las figuras 6A y 6B muestran que para cada objeto 80, 82, el sistema de selección de agarre puede determinar una dirección que sea normal respecto a la parte plana seleccionada del objeto 80, 82. Como se muestra en las figuras 7A y 7B, el sistema robótico dirigirá entonces al efector final 84 para que se acerque a cada objeto 80, 82 desde la dirección que es normal respecto a la superficie para facilitar mejor la generación de un buen agarre de cada objeto. Al acercarse a cada objeto desde una dirección que es sustancialmente normal a una superficie del objeto, el sistema robótico mejora significativamente la probabilidad de obtener un buen agarre del objeto, particularmente cuando se emplea un efector final de vacío.
Como se muestra en las figuras 8A y 8B, el sistema robótico de acuerdo con una realización adicional de la invención puede incluir un brazo robótico 90 al que está acoplado el efector final de agarre 92. De forma similar a las realizaciones analizadas anteriormente, el efector final de agarre 92 está programado para acercarse a un objeto 94 desde un ángulo que es normal respecto a una superficie del objeto 94, y el objeto 94 puede estar descansando sobre otro objeto 96. La figura 8A muestra el efector final 92 acercándose al objeto 94, y la figura 8B muestra el efector final 92 agarrando el objeto 94.
La optimización del agarre puede basarse en la determinación de la superficie normal, es decir, mover el efector final para que sea normal respecto a la superficie percibida del objeto (a diferencia de las recogidas verticales o de "pórtico"), y que dichos puntos de agarre pueden elegirse usando características de referencia como puntos de agarre. De acuerdo con la invención, las ubicaciones de agarre para los objetos se seleccionan como la ubicación de un código de barras, un código QR, código UPC u otro código de producto, dado que dichos códigos casi siempre se aplican a un punto plano del objeto. La invención también proporciona asistencia al operador, donde un objeto que el sistema ha fallado repetidamente en agarrar tiene un punto de agarre correcto identificado por un humano, así como la asistencia del operador, donde el operador identifica malos planes de agarre, por tanto, eliminándolos y ahorrando el tiempo del sistema que intenta ejecutarlos.
Por lo tanto, de acuerdo con diversas realizaciones, la invención proporciona además un sistema de clasificación que puede aprender ubicaciones de agarre de objetos a partir de la experiencia y la guía humana. Los sistemas diseñados para trabajar en los mismos entornos que los trabajadores humanos se enfrentarán a una enorme variedad de objetos, posiciones, etc. Esta enorme variedad casi asegura que el sistema robótico encontrará alguna configuración de objeto(s) que no puede manejar de manera óptima; en dichos momentos, es deseable permitir que un operador humano ayude al sistema y hacer que el sistema aprenda de agarres no óptimos.
Las imágenes 2D/3D junto con los puntos de agarre seleccionados por humanos se pueden usar como entrada para algoritmos de aprendizaje automático, para ayudar al sistema de clasificación a aprender cómo manejar tales casos en el futuro, reduciendo así la necesidad de asistencia del operador con el tiempo. Se adquiere una combinación de datos 2D y 3D (profundidad), el sistema usa estas imágenes y una variedad de algoritmos para generar un conjunto de puntos de agarre candidatos para los objetos en el depósito.
El sistema optimiza los puntos de agarre en función de una amplia gama de funciones, ya sea extraídas fuera de línea o en línea, adaptadas a las características de la pinza. Las propiedades de la ventosa influyen en su adaptabilidad a la superficie subyacente, por lo tanto, es más probable que se logre un agarre óptimo cuando se recoge desde la superficie normal estimada de un objeto en lugar de realizar una recogida de pórtico vertical habitual en las aplicaciones industriales actuales.
Además de la información geométrica, el sistema usa funciones basadas en la apariencia, ya que los sensores de profundidad pueden no ser siempre lo suficientemente precisos para proporcionar suficiente información sobre la capacidad de agarre. Por ejemplo, el sistema puede aprender la ubicación de los marcadores de referencia, tales como códigos de barras en el objeto, que se pueden usar como indicador de un parche de superficie que es plano e impermeable, por lo tanto, adecuado para una ventosa. Un ejemplo de ello son las cajas y bolsas de envío, que tienden a tener la etiqueta de envío en el centro de masa del objeto y proporcionan una superficie impermeable, a diferencia del material de la bolsa en bruto, que puede ser ligeramente poroso y, por lo tanto, no presentar un buen agarre.
Cada imagen de depósito modificada por un operador humano se almacenará y usará luego como entrada para algoritmos de aprendizaje automático. Al identificar buenos o malos puntos de agarre en la imagen, se establece una correlación entre las funciones de las imágenes 2D/3D y la idea de buenos o malos puntos de agarre; usando estos datos y estas correlaciones como entrada para los algoritmos de aprendizaje automático, el sistema, al final, puede aprender, por cada imagen que se le presenta, dónde agarrar y dónde evitar.
Esta información se agrega a los datos basados en la experiencia que el sistema recopila con cada intento de recogida, exitoso o no. Con el tiempo, el robot aprende a evitar funciones que den como resultado agarres fallidos, ya sea específicas para un tipo de objeto o para un tipo de superficie/material. Por ejemplo, el robot puede preferir evitar las recogidas en envoltura retráctil, sin importar a qué objeto se aplique, pero es posible que solo prefiera colocar el agarre cerca de los marcadores de referencia en ciertos tipos de objetos, tal como bolsas de envío.
Este aprendizaje puede acelerarse mediante la generación fuera de línea de imágenes corregidas por humanos. Por ejemplo, a un humano se le podrían presentar miles de imágenes de la operación anterior del sistema y anotar manualmente los puntos de agarre buenos y malos en cada uno. Esto generaría una gran cantidad de datos que también podrían ingresarse en los algoritmos de aprendizaje automático para mejorar la velocidad y la eficacia del aprendizaje del sistema.
Además de los datos de entrenamiento basados en la experiencia o en expertos humanos, se puede generar un gran conjunto de datos de entrenamiento etiquetados basados en un modelo de objeto detallado en simulación física haciendo uso de características conocidas de pinzas y objetos. Esto permite una generación rápida y densa de datos de capacidad de agarre sobre un gran conjunto de objetos, ya que este proceso no está limitado por la velocidad del sistema robótico físico o la entrada humana.
El método descrito hasta ahora se centra en proporcionar datos para algoritmos de aprendizaje fuera de línea o en la corrección en tiempo real del sistema robótico. También existe la posibilidad de usar este método en respuesta a un sistema robótico que pide ayuda.
Existe la situación en la que un sistema de clasificación vacía todos los objetos de un depósito menos uno. El sistema intenta y falla varias veces al agarrar este artículo. En este punto, el sistema robótico puede pedir ayuda transmitiendo la imagen desde su sistema de percepción a un operador humano. Ese operador humano, al tocar la imagen, puede identificar el punto de agarre que el sistema debe usar para adquirir el objeto, permitiendo por lo tanto que el humano compense las inevitables deficiencias del sistema de percepción.
De acuerdo con ciertas realizaciones, el sistema también puede optar por "agitar" los objetos de entrada presentados si el sistema no puede lograr un agarre exitoso después de varios intentos, ya sea antes de la interacción humana o después de seguir la guía del humano. La acción de "agitar" los objetos reorganizará los objetos de manera que se pueda calcular un nuevo conjunto de agarres, lo que puede conducir a intentos de agarre exitosos. Por ejemplo, si un objeto está de pie, presentándose con una superficie que el robot no es capaz de agarrar, el robot puede optar por derribar el objeto para recogerlo de un lado. La figura 9, por ejemplo, muestra esquemáticamente una vista en sección de un depósito de entrada 90, donde un efector final 92 de un brazo articulado 94 se mueve dentro del depósito de entrada en un movimiento circular, como se muestra en A, para agitar cualquier contenido del depósito de entrada para cambiar la disposición de los objetos en el depósito de entrada.
De acuerdo con una realización más de la invención, el sistema puede planificar aproximaciones de agarre que tengan en cuenta los elementos del entorno que pueden obstruir el uso de una ruta de aproximación óptica. Por ejemplo, y con referencia a la figura 10A, si se empuja un objeto 114 contra un borde o una esquina de un depósito 116, puede ser difícil para el brazo robótico 110 colocar el efector final 112 directamente encima del objeto 114. En este caso, y con referencia a la figura 10B, el sistema puede dirigir al robot 110 para que se acerque al objeto 114 desde un ángulo, como se muestra. El fuelle flexible 112 puede acomodar entonces el agarre del objeto bajo vacío.
Como se muestra en la figura 11, los sistemas de acuerdo con una realización adicional de la invención pueden incluir más de una pinza en un solo brazo robótico, para facilitar el agarre de un objeto que puede ser particularmente grande y/o pesado. La figura 11, por ejemplo, muestra un brazo robótico 120 que incluye un efector final 122 de pinzas múltiples que tiene dos fuelles de vacío 124 y 126. Como se ha mencionado anteriormente, el efector final 122 de pinzas múltiple puede usarse para agarrar objetos grandes y/o pesados 128, y el enfoque de agarre puede optimizarse para el objeto y/o para el entorno.
Los sistemas de acuerdo con realizaciones adicionales de la presente invención también pueden usar cámaras para verificar o monitorear un agarre. La figura 12, por ejemplo, muestra una pinza de fuelle de vacío 132 en un brazo robótico 130 que incluye una cámara 134 para ver un objeto a medida que se agarra. La figura 13 muestra un efector final de estricción de dos dedos 144 en un brazo robótico 140, que incluye una cámara 146 para ver un objeto mientras se agarra entre los dedos móviles 144. En realizaciones adicionales, se puede proporcionar una cámara en el robot pero más lejos del efector final. Por ejemplo, la figura 14 muestra un sistema robótico 150 que incluye una cámara 156 para ver el efector final 152 mientras sostiene un objeto 154. En uso, el robot puede programarse para mover un objeto una vez agarrado a una posición inicial donde puede ver el agarre del objeto. En otras realizaciones, la cámara puede colocarse en el entorno y no en el robot.
En realizaciones adicionales, el sistema robótico también puede emplear la planificación de movimiento usando una base de datos de trayectoria que se actualiza dinámicamente con el tiempo y está indexada por las métricas del cliente. Los dominios del problema contienen una combinación de componentes cambiantes e inmutables en el entorno. Por ejemplo, los objetos que se presentan al sistema a menudo se presentan en configuraciones aleatorias, pero los objetivos en los que deben colocarse a menudo son fijos y no cambian durante todo el funcionamiento.
Un uso de la base de datos de trayectoria es explotar las partes inmutables del entorno precalculando y guardando en una base de datos las trayectorias que mueven el sistema de manera eficiente y sólida a través de estos espacios. Otro uso de la base de datos de trayectoria es mejorar constantemente el rendimiento del sistema durante la vida útil de su funcionamiento. La base de datos se comunica con un servidor de planificación que planifica continuamente las trayectorias desde los distintos inicios hasta los distintos objetivos, para tener un conjunto grande y variado de trayectorias para lograr cualquier tarea en particular.
Una ventaja del conjunto variado es la robustez frente a pequeños cambios en el entorno y a objetos de diferentes tamaños que el sistema podría estar manejando: en lugar de volver a planificar en estas situaciones, el sistema itera a través de la base de datos hasta que encuentra una trayectoria libre de colisiones, segura y robusta para la nueva situación. Por lo tanto, el sistema puede generalizarse en una variedad de entornos sin tener que volver a planificar los movimientos.
Otra ventaja del conjunto variado es la capacidad de abordar varias métricas de clientes sin tener que volver a planificar los movimientos. La base de datos está clasificada e indexada por métricas de clientes como tiempo, robustez, seguridad, distancia a los obstáculos, etc. y dada una nueva métrica del cliente, todo lo que la base de datos necesita hacer es reevaluar la métrica en las trayectorias existentes, recurriendo así a la lista de trayectorias y produciendo automáticamente la mejor trayectoria que satisfaga la métrica del nuevo cliente sin tener que volver a planificar los movimientos.
Otra ventaja es que incluso si una trayectoria no es válida debido a cambios en el entorno o en las métricas del cliente, las trayectorias almacenadas pueden servir como semillas para algoritmos de optimización de trayectorias, acelerando así la generación de nuevas trayectorias en nuevas situaciones. Otra ventaja es que la base de datos ofrece un mecanismo para que diferentes sistemas compartan información de forma remota o en la nube. Al indexar todo en la misma base de datos, diferentes sistemas que funcionan en diferentes lugares pueden tener una infraestructura común para compartir información y trayectorias planificadas.
Los expertos en la técnica apreciarán que se pueden realizar numerosas modificaciones y variaciones a las realizaciones divulgadas anteriormente sin apartarse del alcance de la presente invención, que se define en las reivindicaciones adjuntas.

Claims (15)

REIVINDICACIONES
1. Un sistema de clasificación (10) para su uso en un entorno que incluye un área de entrada (22) que contiene objetos que se van a procesar y ubicaciones de destino (30) en las que se van a colocar los objetos procesados, comprendiendo dicho sistema de clasificación:
un dispositivo de movimiento programable (12);
un sistema de percepción (26) para proporcionar datos representativos de una imagen de al menos una parte del área de entrada que contiene objetos a procesar;
un efector final (14) para enganchar objetos en el área de entrada;
estando dicho sistema de clasificación caracterizado por:
un sistema de selección de ubicación de agarre (24) para determinar una ubicación de agarre para agarrar un objeto en el área de entrada que contiene objetos a procesar, en donde dicho sistema de selección de ubicación de agarre determina una ubicación de agarre para el objeto en respuesta a la detección de cualquiera de un código de barras, un código QR, código UPC u otro código de producto, y en donde dicha ubicación de agarre se selecciona para que sea la ubicación del código de barras, código QR, código UPC u otro código de producto; y un sistema de selección de dirección de agarre (34) para determinar una dirección de agarre desde la cual agarrar el objeto en el área de entrada que contiene objetos a procesar.
2. El sistema de clasificación según la reivindicación 1, en donde el sistema de percepción reconoce además si el objeto está al menos parcialmente oscurecido por uno o más otros objetos.
3. El sistema de clasificación según la reivindicación 1, en donde dicho efector final incluye una fuente de vacío.
4. El sistema de clasificación según la reivindicación 1, en donde dicho sistema de percepción está colocado por encima del área de entrada.
5. El sistema de clasificación según la reivindicación 1, en donde el sistema de percepción incluye cualquiera de cámaras 3D, cámaras 2D, escáneres de reflectividad láser, escáneres de identificación de radiofrecuencia, luz, sensores de profundidad o sensores IR de largo alcance.
6. El sistema de clasificación según la reivindicación 1, en donde dicho sistema de selección de ubicación de agarre determina la ubicación de agarre para el objeto en respuesta a la información aprendida proporcionada por un conjunto de experiencias aprendidas en las que el sistema de clasificación recibe información aprendida sobre ubicaciones de agarre para una pluralidad de objetos.
7. El sistema de clasificación según la reivindicación 6, en donde dicho conjunto de experiencias aprendidas se proporciona por intentos de agarre pasados por parte del sistema de clasificación.
8. El sistema de clasificación según la reivindicación 6, en donde el conjunto de experiencias aprendidas lo proporciona un trabajador humano que ingresa la entrada de ubicación de agarre a través de una imagen que se proporciona a través de un dispositivo de pantalla táctil en el que se proporciona una imagen de los objetos.
9. El sistema de clasificación según la reivindicación 1, en donde el sistema de clasificación está configurado para proporcionar una señal de asistencia necesaria en caso de que no se pueda determinar una ubicación de agarre o que el sistema de clasificación no pueda agarrar un objeto desconocido.
10. El sistema de clasificación según la reivindicación 9, en donde en respuesta a la señal de asistencia necesaria, un trabajador humano puede ingresar la entrada de ubicación de agarre a través de una imagen que se proporciona a través de un dispositivo de pantalla táctil en el que se proporciona una imagen de los objetos.
11. El sistema de clasificación según la reivindicación 1, en donde el sistema de selección de dirección de agarre determina una dirección que es normal al plano que es tangencial a la superficie del objeto en la ubicación de agarre seleccionada.
12. El sistema de clasificación según la reivindicación 11, en donde el efector final está provisto de señales de comando para acercarse al objeto a lo largo de la dirección que es normal al plano que es tangencial a la superficie del objeto en la ubicación de agarre seleccionada.
13. El sistema de clasificación según la reivindicación 1, en donde el sistema de clasificación está configurado además para agitar los objetos en el depósito que contiene objetos con el fin de crear nuevas orientaciones de objetos para el sistema de percepción.
14. El sistema de clasificación según la reivindicación 1, en donde dicho sistema de percepción está montado en el dispositivo de movimiento programable o en el efector final, para ver agarres.
15. El sistema de clasificación según la reivindicación 8, en donde dicha entrada de ubicación de agarre incluye malas ubicaciones agarre.
ES16805614T 2015-11-13 2016-11-10 Sistemas de clasificación para proporcionar clasificación de una variedad de objetos Active ES2929729T3 (es)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201562255069P 2015-11-13 2015-11-13
US201662277234P 2016-01-11 2016-01-11
PCT/US2016/061414 WO2017083574A1 (en) 2015-11-13 2016-11-10 Sortation systems and methods for providing sortation of a variety of obejcts

Publications (1)

Publication Number Publication Date
ES2929729T3 true ES2929729T3 (es) 2022-12-01

Family

ID=57472030

Family Applications (1)

Application Number Title Priority Date Filing Date
ES16805614T Active ES2929729T3 (es) 2015-11-13 2016-11-10 Sistemas de clasificación para proporcionar clasificación de una variedad de objetos

Country Status (6)

Country Link
US (3) US10625432B2 (es)
EP (2) EP4088889A1 (es)
CN (2) CN108349083B (es)
CA (3) CA3004711C (es)
ES (1) ES2929729T3 (es)
WO (1) WO2017083574A1 (es)

Families Citing this family (112)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2862793C (en) * 2012-01-26 2019-12-31 Hanmi It Co., Ltd. Scanner, scanning apparatus and scanning method for a shelf
US9233470B1 (en) * 2013-03-15 2016-01-12 Industrial Perception, Inc. Determining a virtual representation of an environment by projecting texture patterns
CN113601545A (zh) 2015-08-26 2021-11-05 伯克希尔格雷股份有限公司 提供用于末端执行器的真空阀组件的系统和方法
US11370128B2 (en) 2015-09-01 2022-06-28 Berkshire Grey Operating Company, Inc. Systems and methods for providing dynamic robotic control systems
EP4137280A1 (en) 2015-09-01 2023-02-22 Berkshire Grey Operating Company, Inc. Systems and methods for providing dynamic robotic control systems
ES2952517T3 (es) 2015-09-11 2023-10-31 Berkshire Grey Operating Company Inc Sistemas robóticos y métodos para identificar y procesar diversos objetos
WO2017083574A1 (en) * 2015-11-13 2017-05-18 Berkshire Grey Inc. Sortation systems and methods for providing sortation of a variety of obejcts
US9937532B2 (en) 2015-12-18 2018-04-10 Berkshire Grey Inc. Perception systems and methods for identifying and processing a variety of objects
CN108472814B (zh) 2016-01-08 2021-07-16 伯克希尔格雷股份有限公司 用于获取并移动物体的系统和方法
CA3117170C (en) 2016-02-08 2023-08-29 Berkshire Grey, Inc. Systems and methods for providing processing of a variety of objects employing motion planning
WO2017198281A1 (de) * 2016-05-17 2017-11-23 Liebherr-Verzahntechnik Gmbh Kommissionierzelle
EP3458385A1 (de) 2016-05-17 2019-03-27 Liebherr-Verzahntechnik GmbH Kommissioniersystem
US10538394B2 (en) 2016-11-28 2020-01-21 Berkshire Grey, Inc. Systems and methods for providing singulation of objects for processing
CA3155737C (en) 2016-12-06 2023-11-14 Berkshire Grey Operating Company, Inc. Systems and methods for providing for the processing of objects in vehicles
US10134006B2 (en) 2016-12-07 2018-11-20 Invia Robotics, Inc. Workflow management system and methods for coordinating simultaneous operation of multiple robots
EP3586288A1 (en) * 2017-02-24 2020-01-01 Alert Innovation Inc. Inventory management system and method
US10639787B2 (en) 2017-03-06 2020-05-05 Berkshire Grey, Inc. Systems and methods for efficiently moving a variety of objects
CN110431097B (zh) 2017-03-20 2022-04-08 伯克希尔格雷营业股份有限公司 用于处理包括运输车辆的物体的系统和方法
EP3601108A1 (en) 2017-03-20 2020-02-05 Berkshire Grey, Inc. Systems and methods for processing objects including an auto-shuttle system
CN113562378A (zh) 2017-03-20 2021-10-29 伯克希尔格雷股份有限公司 用于处理物体的包括线性机架系统的系统和方法
EP3602437B1 (en) 2017-03-22 2024-05-01 Berkshire Grey Operating Company, Inc. Systems and methods for processing objects, including automated radial processing stations
CN114148666B (zh) 2017-03-23 2024-01-05 伯克希尔格雷营业股份有限公司 包括自动线性处理站的用于处理物体的系统和方法
CN110691742B (zh) 2017-03-24 2022-09-09 伯克希尔格雷营业股份有限公司 包括自动处理的用于处理物体的系统和方法
CA3061181C (en) 2017-04-24 2023-10-03 Berkshire Grey, Inc. Systems and methods for providing singulation of objects for processing using object movement redistribution
CN107127757B (zh) * 2017-05-24 2023-03-31 西安科技大学 一种多机器人协作柔索驱动拣矸装备动态任务分配方法
WO2019018964A1 (zh) * 2017-07-22 2019-01-31 深圳市萨斯智能科技有限公司 一种机器人执行远程指令的方法和机器人
JP7116901B2 (ja) * 2017-08-01 2022-08-12 オムロン株式会社 ロボット制御装置、ロボット制御方法及びロボット制御プログラム
EP4299260A3 (en) 2017-08-02 2024-04-10 Berkshire Grey Operating Company, Inc. Systems and methods for acquiring and moving objects having complex outer surfaces
BR112020004016A2 (pt) * 2017-08-31 2020-09-08 Monsanto Technology Llc sistema de entrega de sementes
US10354139B1 (en) * 2017-09-07 2019-07-16 X Development Llc Generating and utilizing spatial affordances for an object in robotics applications
JP7062406B2 (ja) * 2017-10-30 2022-05-16 株式会社東芝 情報処理装置及びロボットアーム制御システム
JP6676030B2 (ja) 2017-11-20 2020-04-08 株式会社安川電機 把持システム、学習装置、把持方法、及び、モデルの製造方法
CA3088655A1 (en) 2018-01-17 2019-07-25 Berkshire Grey, Inc. Systems and methods for efficiently moving a variety of objects
US10843333B2 (en) 2018-03-05 2020-11-24 Berkshire Grey, Inc. Systems and methods for processing objects, including automated re-circulating processing stations
JP2019155549A (ja) * 2018-03-14 2019-09-19 株式会社東芝 ピッキングシステムおよびロボットアームのエンドエフェクタ
CN108333807B (zh) * 2018-03-30 2023-06-27 青岛乾程科技股份有限公司 一种液晶屏装配装置
US11260534B2 (en) * 2018-04-04 2022-03-01 Canon Kabushiki Kaisha Information processing apparatus and information processing method
US20210016442A1 (en) * 2018-04-15 2021-01-21 Siemens Industry Software Ltd. Simulation signature keys for robotic simulations
US10824142B2 (en) * 2018-05-01 2020-11-03 Dexterity, Inc. Autonomous robot with on demand teleoperation
JP7057214B2 (ja) * 2018-05-18 2022-04-19 トヨタ自動車株式会社 把持装置、タグが付された容器、対象物把持プログラムおよび対象物把持方法
WO2019239563A1 (ja) * 2018-06-14 2019-12-19 ヤマハ発動機株式会社 ロボットシステム
US10769587B2 (en) * 2018-07-02 2020-09-08 Walmart Apollo, Llc Systems and methods of storing and retrieving retail store product inventory
US10500735B1 (en) * 2018-07-13 2019-12-10 Dexterity, Inc. Robotic toolset and gripper
EP4324603A3 (en) 2018-08-13 2024-06-05 Boston Dynamics, Inc. Manipulating boxes using a zoned gripper
CN109089102A (zh) * 2018-09-05 2018-12-25 华南智能机器人创新研究院 一种基于双目视觉的机器人物品识别分类方法及系统
JP6833777B2 (ja) * 2018-09-10 2021-02-24 株式会社東芝 物体ハンドリング装置及びプログラム
JP6961557B2 (ja) * 2018-09-18 2021-11-05 株式会社東芝 物品姿勢変更装置および物品姿勢変更方法
US11731792B2 (en) * 2018-09-26 2023-08-22 Dexterity, Inc. Kitting machine
CA3117600A1 (en) * 2018-10-25 2020-04-30 Berkshire Grey, Inc. Systems and methods for learning to extrapolate optimal object routing and handling parameters
US10369701B1 (en) 2018-10-30 2019-08-06 Mujin, Inc. Automated package registration systems, devices, and methods
US11472633B2 (en) 2018-10-30 2022-10-18 Berkshire Grey Operating Company, Inc. Systems and methods for processing objects including semi-autonomous stations and automated output processing
KR20240042157A (ko) 2018-10-30 2024-04-01 무진 아이엔씨 자동화된 패키지 등록 시스템, 디바이스 및 방법
JP7205752B2 (ja) * 2018-11-09 2023-01-17 オムロン株式会社 ロボット制御装置、ロボット制御方法、及びロボット制御プログラム
CN109465205A (zh) * 2018-11-20 2019-03-15 上海发那科机器人有限公司 一种基于视觉识别技术的动态分拣系统和分拣方法
US11426864B2 (en) * 2018-12-03 2022-08-30 Kindred Systems Inc. Robot manipulator system and methods for providing supplemental securement of objects
US11046518B2 (en) 2019-01-14 2021-06-29 Mujin, Inc. Controller and control method for robot system
JP6738112B2 (ja) * 2019-01-14 2020-08-12 株式会社Mujin ロボットシステムの制御装置及び制御方法
JP7204513B2 (ja) * 2019-02-13 2023-01-16 株式会社東芝 制御装置及びプログラム
WO2020188646A1 (ja) 2019-03-15 2020-09-24 オムロン株式会社 パラメータ調整装置、パラメータ調整方法及びプログラム
US11030766B2 (en) 2019-03-25 2021-06-08 Dishcraft Robotics, Inc. Automated manipulation of transparent vessels
US11179852B2 (en) * 2019-03-25 2021-11-23 Dishcraft Robotics, Inc. Automated manipulation of transparent vessels
CN109927033B (zh) * 2019-04-01 2021-02-26 杭州电子科技大学 一种应用于传送带分拣的目标物体动态适配方法
EP3946840A4 (en) * 2019-04-04 2022-12-28 Plus One Robotics, Inc. INDUSTRIAL ROBOTICS SYSTEMS AND METHODS FOR CONTINUOUS AND AUTOMATIC LEARNING
EP3953855A4 (en) 2019-04-11 2023-01-25 Plus One Robotics, Inc. SYSTEMS AND METHODS FOR IDENTIFYING PACKAGE PROPERTIES IN AN AUTOMATED INDUSTRIAL ROBOTICS SYSTEM
CA3136859A1 (en) 2019-04-25 2020-10-29 Berkshire Grey, Inc. Systems and methods for maintaining vacuum hose life in hose routing systems in programmable motion systems
US11628572B2 (en) 2019-05-28 2023-04-18 Msc Services Corp. Robotic pack station
US11345030B2 (en) * 2019-05-28 2022-05-31 Intel Corporation Methods and apparatus for complex assembly via autonomous robots using reinforcement learning action primitives
US11688030B2 (en) * 2019-06-12 2023-06-27 Frito-Lay North America, Inc. Shading topography imaging for robotic unloading
CN113994356A (zh) 2019-06-24 2022-01-28 伯克希尔格雷股份有限公司 用于在订单履行中心中提供订单装运的系统和方法
US11037219B2 (en) * 2019-06-28 2021-06-15 The Goodyear Tire & Rubber Company Interactive tire wall and purchase method
US11648674B2 (en) * 2019-07-23 2023-05-16 Teradyne, Inc. System and method for robotic bin picking using advanced scanning techniques
US11738447B2 (en) 2019-07-29 2023-08-29 Nimble Robotics, Inc. Storage systems and methods for robotic picking
CA3150291A1 (en) 2019-08-08 2021-02-11 Berkshire Grey, Inc. Systems and methods for providing, in programmable motion devices, compliant end effectors with noise mitigation
KR20190104483A (ko) * 2019-08-21 2019-09-10 엘지전자 주식회사 로봇 시스템 및 그 제어 방법
US11911901B2 (en) 2019-09-07 2024-02-27 Embodied Intelligence, Inc. Training artificial networks for robotic picking
US11911903B2 (en) * 2019-09-07 2024-02-27 Embodied Intelligence, Inc. Systems and methods for robotic picking and perturbation
WO2021046528A1 (en) * 2019-09-07 2021-03-11 Embodied Intelligence, Inc. Systems and methods for robotic picking
US20220241982A1 (en) * 2019-09-18 2022-08-04 Fuji Corporation Work robot and work system
US11584004B2 (en) * 2019-12-17 2023-02-21 X Development Llc Autonomous object learning by robots triggered by remote operators
DE102019135452B4 (de) 2019-12-20 2022-03-31 IGZ Ingenieurgesellschaft für logistische Informationssysteme mbH Vollautomatisches Roboter-Kommissioniersystem und Kommissionierverfahren mit Sensoranordnung zum Vermessen eines entnommenen Artikels im Rahmen des Anhebevorgangs
IT202000003086A1 (it) * 2020-02-17 2021-08-17 Gd Spa Procedimento e apparato per eseguire controlli di qualità su confezioni di articoli da fumo
US10814489B1 (en) * 2020-02-28 2020-10-27 Nimble Robotics, Inc. System and method of integrating robot into warehouse management software
CN113666036A (zh) * 2020-05-14 2021-11-19 泰科电子(上海)有限公司 自动拆垛系统
EP3913526A1 (en) * 2020-05-18 2021-11-24 CHEP Technology Pty Limited Platform detection
CN111702761B (zh) * 2020-06-12 2022-05-27 珠海格力智能装备有限公司 码垛机器人的控制方法、控制装置、处理器和分拣系统
WO2022020159A1 (en) 2020-07-22 2022-01-27 Berkshire Grey, Inc. Systems and methods for object processing using a passively collapsing vacuum gripper
US20220024705A1 (en) 2020-07-22 2022-01-27 Berkshire Grey, Inc. Systems and methods for object processing using a vacuum gripper that provides object retention by evacuation
AT524101A1 (de) * 2020-07-27 2022-02-15 Tgw Logistics Group Gmbh System und Verfahren zur Erfassung einer Warenanzahl in einem Ladungsträger
CN111975783B (zh) * 2020-08-31 2021-09-03 广东工业大学 一种机器人抓取检测方法及系统
CA3199782A1 (en) 2020-10-30 2022-05-05 Berkshire Grey Operating Company, Inc. Systems and methods for sku induction, decanting and automated- eligibility estimation
US11981518B2 (en) * 2020-11-05 2024-05-14 Mujin, Inc. Robotic tools and methods for operating the same
CN112363470A (zh) * 2020-11-05 2021-02-12 苏州工业园区卡鲁生产技术研究院 用户协作型机器人控制系统
US20220152824A1 (en) * 2020-11-13 2022-05-19 Armstrong Robotics, Inc. System for automated manipulation of objects using a vision-based collision-free motion plan
US11911801B2 (en) * 2020-12-11 2024-02-27 Intelligrated Headquarters, Llc Methods, apparatuses, and systems for automatically performing sorting operations
US11787049B2 (en) * 2021-02-18 2023-10-17 Sanctuary Cognitive Systems Corporation Systems, devices, and methods for training multi-purpose robots
JP2022127096A (ja) * 2021-02-19 2022-08-31 トヨタ自動車株式会社 棚在庫管理システム、棚在庫管理方法、及びプログラム
EP4063081A1 (de) * 2021-03-22 2022-09-28 Siemens Aktiengesellschaft Verfahren zum ermitteln von steuerungsdaten für eine greifeinrichtung zum greifen eines gegenstands
EP4063080A1 (de) * 2021-03-22 2022-09-28 Siemens Aktiengesellschaft Verfahren zum ermitteln von steuerungsdaten für eine grei-feinrichtung zum greifen eines gegenstands
EP4064106A1 (de) 2021-03-22 2022-09-28 Siemens Aktiengesellschaft Verfahren zum erzeugen von trainingsdaten für ein ml-modell
US11897706B2 (en) 2021-03-30 2024-02-13 Dexterity, Inc. Robotic system with zone-based control
US20220315355A1 (en) * 2021-03-30 2022-10-06 Dexterity, Inc. Autonomous and safe integration of human task in robotic operation
US11981517B2 (en) 2021-03-30 2024-05-14 Dexterity, Inc. Robotic line kitting system safety features
CN113110325A (zh) * 2021-04-12 2021-07-13 谈斯聪 一种多臂分拣作业移动投递装置、最优化的管理系统及方法
CN113820506A (zh) * 2021-08-10 2021-12-21 西安金域医学检验所有限公司 一种自动排号仪
CN116638509A (zh) * 2021-09-01 2023-08-25 牧今科技 具有重叠处理机制的机器人系统及其操作方法
CN113492411B (zh) * 2021-09-10 2021-11-30 季华实验室 机器人抓取路径规划方法、装置、电子设备及存储介质
CN114042640A (zh) * 2021-10-28 2022-02-15 上海电子信息职业技术学院 快递分拣系统、方法
US20230186323A1 (en) * 2021-12-09 2023-06-15 International Business Machines Corporation Product compliance and certification validation
DE102022101825B3 (de) 2022-01-26 2023-02-23 Ssi Schäfer Automation Gmbh (At) Verfahren und System für automatisierte Materialhandhabung einschließlich einer 100%-Verifikation
CN114850041A (zh) * 2022-04-29 2022-08-05 北京京东乾石科技有限公司 分拣装置和分拣系统
US11865696B1 (en) 2022-08-10 2024-01-09 Wilder Systems Inc. Balancing compute for robotic operations
CN115446392B (zh) * 2022-10-13 2023-08-04 芜湖行健智能机器人有限公司 一种无序板件智能化倒角系统及方法

Family Cites Families (105)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US2853333A (en) 1955-09-07 1958-09-23 Littell Machine Co F J Vacuum cup
US3005652A (en) 1960-12-14 1961-10-24 Bemis Bro Bag Co Vacuum gripping device
US3195941A (en) 1962-08-27 1965-07-20 Whiting Corp Vacuum gripping pad
US3637249A (en) 1970-06-29 1972-01-25 Henry Y Kuhl Automatic loader heads
FR2495592A1 (fr) 1980-12-05 1982-06-11 Joulin Sema Dispositif de prehension fonctionnant par succion
US4557659A (en) 1982-09-14 1985-12-10 M. Scaglia S.P.A. Device for supporting and handling loads by means of vacuum operated suction pads
US4896357A (en) 1986-04-09 1990-01-23 Tokico Ltd. Industrial playback robot having a teaching mode in which teaching data are given by speech
US4828304A (en) 1986-09-09 1989-05-09 Kabushiki Kaisha Yakult Honsha Vacuum adsorption hand
US4786847A (en) 1986-11-20 1988-11-22 Unimation Inc. Digital control for multiaxis robots
DE3853616T2 (de) 1987-11-20 1995-11-30 Philips Electronics Nv Verfahren und Gerät zur Wegplanung.
DE3810989A1 (de) 1988-02-01 1989-08-10 Festo Kg Vorrichtung zur handhabung und insbesondere zum transport von gegenstaenden
US5207465A (en) 1991-10-24 1993-05-04 Rich Donald S Self-realigning vacuum pickup arrangement
US5244338A (en) 1992-03-26 1993-09-14 White Robert A Gravity-steered grapple
JPH0769470A (ja) 1993-06-30 1995-03-14 Morihiko Mizumura シート部材の取上げ装置
DE69426888T2 (de) 1993-11-04 2001-08-02 Comalco Alu Vakuumhebevorrichtung
US6060677A (en) 1994-08-19 2000-05-09 Tiedemanns-Jon H. Andresen Ans Determination of characteristics of material
US5794789A (en) 1995-12-13 1998-08-18 Payson; William H. Semi-automated integrated sort system
US5865487A (en) 1996-05-23 1999-02-02 Motorola, Inc. Pick-and-place tool for vacuum and magnetic coupling
US6015174A (en) 1998-06-04 2000-01-18 Eastman Kodak Company Universal end effector for robotic applications
FR2782313B1 (fr) 1998-08-13 2000-11-24 Opema Dispositif de prehension
US8600551B2 (en) 1998-11-20 2013-12-03 Intuitive Surgical Operations, Inc. Medical robotic system with operatively couplable simulator unit for surgeon training
US6721444B1 (en) * 1999-03-19 2004-04-13 Matsushita Electric Works, Ltd. 3-dimensional object recognition method and bin-picking system using the method
US20010056313A1 (en) 2000-05-08 2001-12-27 Osborne William Joseph Object locating and retrieving system utilizing labels
US6820032B2 (en) 2001-02-05 2004-11-16 National Instruments Corporation System and method for scanning a region using conformal mapping
DE10121344A1 (de) 2001-05-02 2002-11-07 Fft Flexible Fertigungstechnik Zum Greifen von Gegenständen ausgebildete Greifvorrichtung
GB2378432B (en) 2001-07-30 2004-10-13 Silsoe Res Inst Gripping apparatus for pick and place handling of articled
DE10140248B4 (de) 2001-08-09 2006-09-28 J. Schmalz Gmbh Unterdruckhandhabungseinrichtung
JP3805310B2 (ja) * 2003-01-30 2006-08-02 ファナック株式会社 ワーク取出し装置
DE10319253B4 (de) * 2003-04-28 2005-05-19 Tropf, Hermann Dreidimensional lagegerechtes Zuführen mit Roboter
DE102004042825B3 (de) 2004-08-28 2006-01-05 J. Schmalz Gmbh Verfahren zum Betreiben einer Unterdruckhandhabungseinrichtung
DE102005045681B4 (de) 2005-09-24 2007-07-26 Eckelt Glas Gmbh Verfahren zum Steuern von Unterdruck-Hebezeugen und Lastsicherungsvorrichtung für Unterdruck-Hebezeuge sowie deren Verwendung
JP2007182286A (ja) 2006-01-05 2007-07-19 Nissan Motor Co Ltd ピッキング方法およびピッキングシステム
US7313464B1 (en) * 2006-09-05 2007-12-25 Adept Technology Inc. Bin-picking system for randomly positioned objects
WO2008076942A1 (en) * 2006-12-15 2008-06-26 Braintech Canada, Inc. System and method of identifying objects
DE102007028680A1 (de) 2007-06-21 2008-12-24 Elau Elektronik-Automations-Ag Gruppierungsstation
DE102007038834A1 (de) 2007-08-16 2009-02-19 Deutsche Post Ag Verfahren und Vorrichtung zur Vereinzelung von Stückgut
JP5376859B2 (ja) 2007-08-28 2013-12-25 キヤノン株式会社 磁気式力センサ及び磁気式力センサを有するロボットアーム
DE202008010424U1 (de) 2008-07-30 2009-12-24 J. Schmalz Gmbh Mit Druckluft betriebener Flächensauggreifer
AT507339B1 (de) 2008-09-26 2011-06-15 Stiwa Holding Gmbh Verfahren und anlage zum aufnehmen und/oder bearbeiten von objekten
JP4708464B2 (ja) 2008-09-30 2011-06-22 ファナック株式会社 ワーク把持装置
JP2010131743A (ja) 2008-10-30 2010-06-17 Canon Inc 力覚センサを内蔵した把持装置
FR2938508B1 (fr) 2008-11-14 2010-12-17 Sidel Participations Installation de palettisation combinee avec acces securise
JP5163541B2 (ja) 2009-03-02 2013-03-13 三菱マテリアルテクノ株式会社 真空吸着パッド
DE102009011229A1 (de) 2009-03-02 2010-09-16 Knapp Logistik Automation Gmbh Anordnung und Verfahren zum Erkennen und Steuern von mit einem Code versehenen Stückgütern
IT1394135B1 (it) 2009-03-25 2012-05-25 Opm S P A Metodo e impianto di confezionamento per inserire prodotti in contenitori tramite una serie di robot
EP2255930A1 (de) * 2009-05-27 2010-12-01 Leica Geosystems AG Verfahren und System zum hochpräzisen Positionieren mindestens eines Objekts in eine Endlage im Raum
DE102010002317B4 (de) 2010-02-24 2018-06-14 Apologistics Gmbh System und Verfahren zur Vereinzelung und Kommissionierung von Artikeln
JP5685027B2 (ja) 2010-09-07 2015-03-18 キヤノン株式会社 情報処理装置、物体把持システム、ロボットシステム、情報処理方法、物体把持方法およびプログラム
DE102011006679B4 (de) 2011-03-16 2018-07-12 Ferrobotics Compliant Robot Technology Gmbh Aktive Handhabungsvorrichtung und Verfahren für Kontaktaufgaben
WO2012142587A1 (en) * 2011-04-15 2012-10-18 Irobot Corporation Method for path generation for an end effector of a robot
EP2776177A2 (de) * 2011-11-11 2014-09-17 BÖWE SYSTEC GmbH Vorrichtung und verfahren zum zusammenführen von karten und kartenträgern, zum handhaben von karten und/oder zum sortieren von karten sowie kartenmagazin
US8960745B2 (en) 2011-11-18 2015-02-24 Nike, Inc Zoned activation manufacturing vacuum tool
CN103157607B (zh) * 2011-12-19 2014-07-23 华南理工大学 一种物品识别与分拣装置及其方法
JP5911299B2 (ja) 2011-12-27 2016-04-27 キヤノン株式会社 情報処理装置、情報処理装置の制御方法およびプログラム
CN104137051B (zh) 2012-02-21 2017-06-16 亚马逊技术有限公司 用于材料处理设施中的产品自动拾取的系统和方法
JP5975685B2 (ja) 2012-03-09 2016-08-23 キヤノン株式会社 情報処理装置、情報処理方法
US8843236B2 (en) * 2012-03-15 2014-09-23 GM Global Technology Operations LLC Method and system for training a robot using human-assisted task demonstration
DE102012102333A1 (de) 2012-03-20 2013-09-26 Apologistics Gmbh Automatisiertes System und Verfahren zur Kommissionierung von Artikeln, insbesondere von Apothekenartikeln
JP5594317B2 (ja) 2012-05-21 2014-09-24 株式会社安川電機 ロボットハンド、ロボットシステムおよび加工品の製造方法
US9092698B2 (en) 2012-06-21 2015-07-28 Rethink Robotics, Inc. Vision-guided robots and methods of training them
JP5469216B2 (ja) 2012-07-31 2014-04-16 ファナック株式会社 バラ積みされた物品をロボットで取出す装置
CN102922521B (zh) * 2012-08-07 2015-09-09 中国科学技术大学 一种基于立体视觉伺服的机械臂系统及其实时校准方法
JP5670397B2 (ja) * 2012-08-29 2015-02-18 ファナック株式会社 バラ積みされた物品をロボットで取出す装置及び方法
WO2014036549A2 (en) 2012-08-31 2014-03-06 Rethink Robotics, Inc. Systems and methods for safe robot operation
JP5642759B2 (ja) * 2012-10-31 2014-12-17 ファナック株式会社 物品取出装置及び物品取出方法
CN104870344A (zh) 2012-12-21 2015-08-26 肖特兄弟公司 吸杯
US20140195979A1 (en) * 2013-01-10 2014-07-10 Appsense Limited Interactive user interface
US9233470B1 (en) 2013-03-15 2016-01-12 Industrial Perception, Inc. Determining a virtual representation of an environment by projecting texture patterns
JP5862611B2 (ja) * 2013-04-02 2016-02-16 トヨタ自動車株式会社 作業変更装置、作業変更方法、及び作業変更プログラム
AT514162A1 (de) 2013-04-09 2014-10-15 Knapp Ag Lager- und Kommissioniersystem zum vollautomatisierten Erkennen und Kommissionieren von Artikeln
JP5786896B2 (ja) * 2013-06-07 2015-09-30 株式会社安川電機 ワーク検出装置、ロボットシステム、被加工物の製造方法及びワーク検出方法
CN105246658B (zh) 2013-07-09 2017-09-26 株式会社安川电机 机器人及机器人的关节机构
JP6057862B2 (ja) * 2013-08-29 2017-01-11 三菱電機株式会社 部品供給装置および部品供給装置のプログラム生成方法
US9550624B2 (en) 2013-09-09 2017-01-24 Dematic Corp. Autonomous mobile picking
SG2013069893A (en) 2013-09-13 2015-04-29 Jcs Echigo Pte Ltd Material handling system and method
CN103464383A (zh) * 2013-09-27 2013-12-25 沈阳工业大学 工业机器人分拣系统及方法
WO2015058297A1 (en) 2013-10-25 2015-04-30 Vakanski Aleksandar Image-based trajectory robot programming planning approach
CN103645724B (zh) * 2013-12-31 2015-12-30 刘茂祥 一种档案自动存取装置
US9283674B2 (en) * 2014-01-07 2016-03-15 Irobot Corporation Remotely operating a mobile robot
GB201402263D0 (en) 2014-02-10 2014-03-26 Ocado Ltd Intermediate holding facility for picking station
US9259844B2 (en) * 2014-02-12 2016-02-16 General Electric Company Vision-guided electromagnetic robotic system
US9623570B1 (en) 2014-03-03 2017-04-18 Jeffrey M. Krahn Gripping device
JP6203084B2 (ja) 2014-03-06 2017-09-27 株式会社東芝 配達物区分処理システム、および配達物区分処理方法
US20170066597A1 (en) 2014-03-28 2017-03-09 Nec Corporation Information processing device, information processing system, distribution system, information processing method, and program storage medium
FR3020303B1 (fr) 2014-04-25 2016-07-15 Sileane Procede et installation de prehension automatique d'un objet.
US20150306770A1 (en) 2014-04-25 2015-10-29 Mittal Nimish Detachable robotic arm having interference detection system
CN103963058B (zh) * 2014-04-30 2016-01-06 重庆环视高科技有限公司 基于多方位视觉定位的机械手臂抓取控制系统及方法
DE102014008108A1 (de) 2014-06-02 2015-12-03 Liebherr-Verzahntechnik Gmbh Vorrichtung zum automatisierten Entnehmen von in einem Behälter angeordneten Werkstücken
CA2951151A1 (en) * 2014-06-04 2015-12-10 Intelligrated Headquarters Llc Truck unloader visualization
DE102014008444A1 (de) 2014-06-06 2015-12-17 Liebherr-Verzahntechnik Gmbh Vorrichtung zum automatisierten Entnehmen von in einem Behälter angeordneten Werkstücken
US9636825B2 (en) 2014-06-26 2017-05-02 Robotex Inc. Robotic logistics system
ES2845927T3 (es) 2014-06-26 2021-07-28 Schmalz J Gmbh Instalación para la manipulación de piezas de trabajo
CN203955558U (zh) * 2014-07-04 2014-11-26 山东科技大学 一种用于快递公司快件的自动扫描分拣装置
US20160136816A1 (en) 2014-11-14 2016-05-19 James Charles Pistorino Sorting apparatus and method
US9492923B2 (en) * 2014-12-16 2016-11-15 Amazon Technologies, Inc. Generating robotic grasping instructions for inventory items
DE102015202603A1 (de) 2015-02-12 2016-08-18 J. Schmalz Gmbh Unterdruckerzeugervorrichtung und Schlauchheber mit einer Unterdruckerzeugervorrichtung
US9687982B1 (en) * 2015-05-27 2017-06-27 X Development Llc Adapting programming of a robot and/or control of the robot based on one or more parameters of an end effector of the robot
US9747512B2 (en) 2015-06-25 2017-08-29 Toshiba Tec Kabushiki Kaisha Article recognition apparatus and image processing method for article recognition apparatus
US10311634B2 (en) 2015-07-21 2019-06-04 IAM Robotics, LLC Three dimensional scanning and data extraction systems and processes for supply chain piece automation
US9718188B2 (en) 2015-09-21 2017-08-01 Amazon Technologies, Inc. Networked robotic manipulators
WO2017083574A1 (en) * 2015-11-13 2017-05-18 Berkshire Grey Inc. Sortation systems and methods for providing sortation of a variety of obejcts
US9687983B1 (en) * 2016-05-11 2017-06-27 X Development Llc Generating a grasp pose for grasping of an object by a grasping end effector of a robot
JP6553568B2 (ja) * 2016-09-28 2019-07-31 ファナック株式会社 複数個の物品をひとつずつ最適な経路で取り出す搬送装置
EP3670106B1 (en) * 2018-12-18 2024-05-15 Siemens Aktiengesellschaft Task-specific robot grasping system and method
US11185980B2 (en) * 2019-04-16 2021-11-30 Abb Schweiz Ag Machine learning-based systems and methods for controlling robotic object picking and placement in training and run time environments

Also Published As

Publication number Publication date
CA3192023A1 (en) 2017-05-18
US20200164531A1 (en) 2020-05-28
US20170136632A1 (en) 2017-05-18
CN113731862A (zh) 2021-12-03
US10625432B2 (en) 2020-04-21
CN108349083B (zh) 2021-09-21
WO2017083574A1 (en) 2017-05-18
EP4088889A1 (en) 2022-11-16
CA3107257C (en) 2023-05-02
EP3374138B1 (en) 2022-08-31
CA3004711C (en) 2022-01-11
CN113731862B (zh) 2024-04-12
US20220314447A1 (en) 2022-10-06
CA3107257A1 (en) 2017-05-18
EP3374138A1 (en) 2018-09-19
CN108349083A (zh) 2018-07-31
US11420329B2 (en) 2022-08-23
CA3004711A1 (en) 2017-05-18

Similar Documents

Publication Publication Date Title
ES2929729T3 (es) Sistemas de clasificación para proporcionar clasificación de una variedad de objetos
ES2924496T3 (es) Sistemas y métodos para proporcionar el procesamiento de una variedad de objetos empleando planificación de movimiento
US11494575B2 (en) Systems and methods for identifying and processing a variety of objects
CN112166013B (zh) 用于挑选、分类及放置复数个随机及新物品的机器人系统
CN113955367B (zh) 包括空间高效的分配站和自动化输出处理的用于处理物体的系统和方法
ES2941985T3 (es) Sistemas y métodos para procesar objetos
US20240150139A1 (en) System and method for identifying or acquiring data corresponding to a handled item