ES2929729T3 - Sistemas de clasificación para proporcionar clasificación de una variedad de objetos - Google Patents
Sistemas de clasificación para proporcionar clasificación de una variedad de objetos Download PDFInfo
- Publication number
- ES2929729T3 ES2929729T3 ES16805614T ES16805614T ES2929729T3 ES 2929729 T3 ES2929729 T3 ES 2929729T3 ES 16805614 T ES16805614 T ES 16805614T ES 16805614 T ES16805614 T ES 16805614T ES 2929729 T3 ES2929729 T3 ES 2929729T3
- Authority
- ES
- Spain
- Prior art keywords
- objects
- grip
- location
- classification
- end effector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 239000012636 effector Substances 0.000 claims abstract description 31
- 230000008447 perception Effects 0.000 claims abstract description 13
- 238000013459 approach Methods 0.000 claims description 7
- 230000004044 response Effects 0.000 claims description 4
- 238000001514 detection method Methods 0.000 claims description 3
- 238000002310 reflectometry Methods 0.000 claims description 2
- 238000012545 processing Methods 0.000 abstract description 5
- 238000000034 method Methods 0.000 description 16
- 238000010801 machine learning Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 230000008901 benefit Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000004806 packaging method and process Methods 0.000 description 1
- 230000000284 resting effect Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 239000011800 void material Substances 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1669—Programme controls characterised by programming, planning systems for manipulators characterised by special application, e.g. multi-arm co-operation, assembly, grasping
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B07—SEPARATING SOLIDS FROM SOLIDS; SORTING
- B07C—POSTAL SORTING; SORTING INDIVIDUAL ARTICLES, OR BULK MATERIAL FIT TO BE SORTED PIECE-MEAL, e.g. BY PICKING
- B07C5/00—Sorting according to a characteristic or feature of the articles or material being sorted, e.g. by control effected by devices which detect or measure such characteristic or feature; Sorting by manually actuated devices, e.g. switches
- B07C5/34—Sorting according to other particular properties
- B07C5/342—Sorting according to other particular properties according to optical properties, e.g. colour
- B07C5/3422—Sorting according to other particular properties according to optical properties, e.g. colour using video scanning devices, e.g. TV-cameras
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B07—SEPARATING SOLIDS FROM SOLIDS; SORTING
- B07C—POSTAL SORTING; SORTING INDIVIDUAL ARTICLES, OR BULK MATERIAL FIT TO BE SORTED PIECE-MEAL, e.g. BY PICKING
- B07C3/00—Sorting according to destination
- B07C3/18—Devices or arrangements for indicating destination, e.g. by code marks
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B07—SEPARATING SOLIDS FROM SOLIDS; SORTING
- B07C—POSTAL SORTING; SORTING INDIVIDUAL ARTICLES, OR BULK MATERIAL FIT TO BE SORTED PIECE-MEAL, e.g. BY PICKING
- B07C5/00—Sorting according to a characteristic or feature of the articles or material being sorted, e.g. by control effected by devices which detect or measure such characteristic or feature; Sorting by manually actuated devices, e.g. switches
- B07C5/36—Sorting apparatus characterised by the means used for distribution
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/04—Viewing devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/0093—Programme-controlled manipulators co-operating with conveyor means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1612—Programme controls characterised by the hand, wrist, grip control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
- B25J9/1687—Assembly, peg and hole, palletising, straight line, weaving pattern movement
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/418—Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
- G05B19/4183—Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by data acquisition, e.g. workpiece identification
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/32—Operator till task planning
- G05B2219/32037—Order picking
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39106—Conveyor, pick up article, object from conveyor, bring to test unit, place it
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39295—Learn position correction values to be added to reference values
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39476—Orient hand relative to object
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39484—Locate, reach and grasp, visual guided grasping
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39504—Grip object in gravity center
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39548—Enter interactively parameter for gripper, then teach movement
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40053—Pick 3-D object from pile of objects
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40078—Sort objects, workpieces
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40116—Learn by operator observation, symbiosis, show, watch
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40538—Barcode reader to detect position
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/45—Nc applications
- G05B2219/45045—Maintenance, automatic storage and retrieval system
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/02—Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Health & Medical Sciences (AREA)
- Orthopedic Medicine & Surgery (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- Quality & Reliability (AREA)
- Manufacturing & Machinery (AREA)
- Multimedia (AREA)
- Manipulator (AREA)
- Sorting Of Articles (AREA)
Abstract
Se describe un sistema de clasificación para proporcionar procesamiento de objetos homogéneos y no homogéneos en entornos tanto estructurados como desordenados. El sistema de clasificación incluye un dispositivo de movimiento programable que incluye un efector final, un sistema de percepción para reconocer cualquiera de la identidad, ubicación y orientación de un objeto presentado en una pluralidad de objetos, un sistema de selección de agarre para seleccionar una ubicación de agarre en el objeto, eligiendo la ubicación de agarre para proporcionar un agarre seguro del objeto por parte del efector final para permitir que el objeto se mueva desde la pluralidad de objetos a una de una pluralidad de ubicaciones de destino, y un sistema de planificación de movimiento para proporcionar una trayectoria de movimiento para el transporte del objeto cuando es agarrado por el efector final desde la pluralidad de objetos a una de la pluralidad de ubicaciones de destino, donde la trayectoria de movimiento se elige para proporcionar una trayectoria desde la pluralidad de objetos a una de la pluralidad de ubicaciones de destino. (Traducción automática con Google Translate, sin valor legal)
Description
DESCRIPCIÓN
Sistemas de clasificación para proporcionar clasificación de una variedad de objetos
PRIORIDAD
La presente solicitud reivindica la prioridad de la solicitud de patente provisional de EE. UU. con n.° de serie 62/255.069, presentada el 13 de noviembre de 2015, así como la solicitud de patente provisional de EE.UU. con n.° de serie 62/277.234, presentada el 11 de enero de 2016.
ANTECEDENTES
La invención se refiere generalmente a sistemas de clasificación, y se refiere en particular a sistemas de clasificación robóticos y otros que están destinados a usarse en entornos dinámicos que requieren que el sistema de clasificación se adapte al procesamiento de una variedad de objetos en disposiciones tanto homogéneas como heterogéneas.
Muchas operaciones de cumplimiento de pedidos logran una alta eficiencia mediante el empleo de un proceso en el que los pedidos se recogen de los estantes del almacén y se colocan en depósitos que se clasifican aguas abajo. En la etapa de clasificación, se identifican los artículos individuales y los pedidos de varios artículos se consolidan en un solo depósito o ubicación de estante para que puedan empaquetarse y luego enviarse a los clientes. El proceso de clasificación de estos artículos se ha realizado a mano. Un clasificador humano recoge un artículo de un depósito entrante, encuentra el código de barras en el objeto, escanea el código de barras con un escáner de código de barras de mano o de montaje fijo, determina a partir del código de barras escaneado la ubicación adecuada del depósito o estante para el artículo, y luego coloca el artículo en la ubicación así determinada del depósito o estante donde van todos los artículos para ese pedido.
Por tanto, sigue siendo necesaria la identificación del objeto, clasificación, selección de agarre y sistema de planificación de movimiento para un sistema robótico que es capaz de acomodar la identificación y el procesamiento automatizados de una variedad de objetos en una variedad de orientaciones. El documento US 2015/224650 A1 divulga un sistema de manipulación robótica basado en visión que identifica, individualiza y elimina un instrumento quirúrgico individual de un entorno atestado. La publicación de solicitud de patente US 2001/056313 A1 y la publicación REMBOLD D ET AL: "Object turning for barcode search", Proc. I E E E / r S j IROS 2000, vol. 2, 31 de octubre de 2000, páginas 1267-1272 divulgan un proceso para realizar una búsqueda de código de barras en un objeto que puede automatizarse usando un sistema de robot. El proceso automatizado consiste en las siguientes etapas: (a) un escáner láser ubicado sobre un portaobjetos escanea en busca de un objeto arrojado sobre el portaobjetos; (b) el escáner láser transmite la posición y orientación del producto a un sistema de robot que planifica la operación de agarre; (c) un sistema de cámara monitorea si el lado del código de barras del producto está hacia arriba; en caso afirmativo, el robot recoge el producto y lo coloca en una caja; de lo contrario, el robot gira el producto hasta que el sistema de cámara señala que el lado del código de barras está hacia arriba, luego, el robot recoge el producto y lo coloca en una caja.
SUMARIO
En un aspecto, se proporciona un sistema de clasificación según la reivindicación independiente 1 adjunta. Diversas características opcionales se enumeran en las reivindicaciones dependientes adjuntas.
También se describe un método de clasificación para procesar objetos recibidos en un área de entrada en ubicaciones de destino. El método incluye las etapas de proporcionar datos representativos de una imagen de al menos una parte del área de entrada, determinar una ubicación de agarre para agarrar un objeto en el área de entrada, determinar una dirección de agarre desde la cual agarrar el objeto en el área de entrada, y enganchar el objeto en el área de entrada usando un efector final.
BREVE DESCRIPCIÓN DE LOS DIBUJOS
La siguiente descripción puede entenderse mejor con referencia a los dibujos adjuntos, en los que:
la figura 1 muestra una vista esquemática ilustrativa de un sistema de clasificación que emplea la planificación de agarre de acuerdo con una realización de la presente invención;
la figura 2 muestra una vista inferior esquemática ilustrativa de la unidad de percepción de la figura 1;
la figura 3 muestra una imagen esquemática ilustrativa de objetos en un depósito en un sistema de acuerdo con una realización de la invención que muestra buenas ubicaciones de agarre;
la figura 4 muestra una imagen esquemática ilustrativa de los objetos en el depósito de la figura 3 que muestra adicionalmente ciertas ubicaciones de mal agarre;
las figuras 5A y 5B muestran vistas esquemáticas ilustrativas de una ubicación de agarre de objetos que se selecciona de acuerdo con una realización de la invención;
las figuras 6A y 6B muestran vistas esquemáticas ilustrativas de la selección del ángulo de agarre de acuerdo con
una realización de la invención;
las figuras 7A y 7B muestran vistas esquemáticas ilustrativas de una pinza que se aproxima a objetos a lo largo de ángulos de agarre seleccionados de acuerdo con una realización de la invención;
las figuras 8A y 8B muestran vistas esquemáticas ilustrativas de otro tipo de pinza que se aproxima a objetos a lo largo de ángulos de agarre seleccionados de acuerdo con una realización de la invención;
la figura 9 muestra una vista esquemática ilustrativa de un brazo robótico usado para agitar el contenido de un depósito de acuerdo con una realización de la invención;
las figuras 10A y 10B muestran vistas esquemáticas ilustrativas de un objeto que se agarra de acuerdo con otra realización de la presente invención;
la figura 11 muestra una vista esquemática ilustrativa de un efector final de acuerdo con una realización de la presente invención que incluye más de una pinza;
la figura 12 muestra una vista esquemática ilustrativa de un efector final de acuerdo con una realización de la invención que incluye una cámara para ver el agarre;
la figura 13 muestra una vista esquemática ilustrativa de otro efector final de acuerdo con otra realización de la invención que incluye una cámara para ver el agarre; y
la figura 14 muestra una vista esquemática ilustrativa de un sistema de clasificación que incluye una cámara para ver el agarre de acuerdo con una realización de la presente invención.
Los dibujos se muestran únicamente con fines ilustrativos.
DESCRIPCIÓN DETALLADA
De acuerdo con una realización, la invención proporciona un nuevo sistema de escaneo de objetos, sistema de selección y planificación de agarre y sistema de planificación de movimiento con el fin de agarrar y mover automáticamente objetos individuales en un conjunto para una variedad de propósitos. En aplicaciones como el cumplimiento de pedidos, los artículos o bienes se agrupan en conjuntos heterogéneos y deben clasificarse. Los objetos individuales deben identificarse y luego enviarse a ubicaciones específicas del objeto. El sistema descrito automatiza de forma fiable la identificación de tales objetos mediante el empleo de escáneres automáticos (p. ej., escáner de código de barras) y un brazo robótico.
La clasificación para el cumplimiento de pedidos es una aplicación para identificar automáticamente objetos de un flujo de objetos heterogéneos. Es más, los escáneres tienen una amplia variedad de usos, incluida la información de identificación del objeto (tal como un código de barras, código QR, código UPC, otros códigos de identificación, información leída de una etiqueta en el objeto, o información de tamaño, peso y/o forma) de un objeto, o seguimiento de paquetes. El sistema descrito puede tener muchos usos en la identificación y clasificación automática de objetos.
Dicho sistema automatiza parte del proceso de clasificación junto con un sistema robótico de recogida y colocación, y en particular, la etapa de identificar los artículos recogidos. Un brazo robótico, por ejemplo, recoge un artículo de un depósito, coloca el artículo frente a un escáner, y luego, habiendo obtenido información de identificación del artículo (tal como un código de barras, códigos QR, códigos UPC, otros códigos de identificación, información leída de una etiqueta en el objeto, o información de tamaño, peso y/o forma), coloca el artículo en la ubicación apropiada del depósito o estante. Dado que ciertos escáneres emplean cámaras o láseres para escanear simbologías 1D o 2D impresas en etiquetas adheridas a artículos, los códigos de barras deben ser visibles para los sensores del escáner para un escaneo exitoso con el fin de identificar automáticamente artículos en un flujo heterogéneo de artículos arbitrarios, como en un conjunto mezclado de artículos encontrados en un depósito.
Otras aplicaciones para los sistemas de agarre de la invención incluyen clasificación para una amplia variedad de aplicaciones, incluyendo el cumplimiento de pedidos, recolección de objetos para envío, y recolección de objetos con fines de inventario, etc. Además, dichos sistemas de planificación de agarre de la invención pueden usarse para cargar paquetes divididos (paquetes organizados para su posterior separación en una ubicación diferente), paletización (carga de palés), despaletización, carga de camiones, descarga de camiones, etc. Como se usa en el presente documento, el término "ubicaciones de destino" implica la colocación de objetos en ubicaciones para cualquier propósito, no necesariamente un destino final, y no necesariamente para la clasificación para el cumplimiento de pedidos.
De conformidad con diversas realizaciones, por lo tanto, la invención proporciona un método para determinar la identidad de un objeto a partir de una colección de objetos, así como un método para percibir la información relativa a un objeto que emplea una o más unidades de percepción (cámaras o escáneres), y un brazo robótico con un efector final para sujetar el objeto. La invención proporciona además un método para determinar una secuencia de colocaciones de un efector final de robot para minimizar el tiempo que tarda una configuración de una o más cámaras o escáneres en escanear con éxito un objeto, y un método para escanear la información de identificación para el artículo (tal como un código de barras, códigos QR, códigos UPC, otros códigos de identificación, información leída de una etiqueta en el objeto, o información de tamaño, peso y/o forma) de un objeto empleando un escáner como efector final en un brazo robótico.
Un aspecto importante es la capacidad de identificar la información de identificación o envío del objeto (tal como un
código de barras, códigos QR, códigos UPC, otros códigos de identificación, información leída de una etiqueta en el objeto, o información de tamaño, peso y/o forma) de objetos empleando un dispositivo de movimiento programable, tal como un brazo robótico, para recoger objetos individuales y colocarlos frente a uno o más escáneres. De acuerdo con otras realizaciones, el dispositivo de movimiento programable puede incluir un robot de brazo paralelo (brazo tipo Delta) o un sistema de recogida y colocación de indexación lineal. Los sistemas de escaneo automático no podrían ver, por ejemplo, las etiquetas o códigos de barras en objetos que se presentaran de manera que esta información no esté expuesta o visible.
Los componentes importantes de un sistema de identificación automatizado de acuerdo con una realización de la presente invención se muestran en la figura 1. La figura 1 muestra un sistema robótico 10 que incluye un brazo articulado 12 que incluye un efector final 14 y secciones articuladas 16, 18 y 20. El brazo articulado 12 selecciona objetos de un área de entrada, tal como un transportador 22, que están en un depósito en el transportador 22 o están en el mismo transportador. Un soporte 24 incluye una unidad de percepción 26 adjunta que se dirige hacia el transportador desde arriba del transportador. La unidad de percepción 26 puede incluir, por ejemplo, una cámara 2D o 3D, o un escáner, tal como un escáner de reflectividad láser u otro tipo de lector de código de barras, o un escáner 1D de radiofrecuencia.
Tal como se muestra en la figura 2, la unidad de percepción 26 puede incluir (en la parte inferior de la misma), una cámara 23, un sensor de profundidad 25 y luces 27. El sensor de profundidad 25 puede proporcionar información de profundidad, que se puede usar junto con los datos de imagen de la cámara para determinar la información de profundidad con respecto a los diversos objetos en la vista. Las luces 27 pueden usarse para eliminar sombras y facilitar la identificación de los bordes de los objetos, y pueden estar todas encendidas durante el uso, o pueden iluminarse de acuerdo con la secuencia deseada para ayudar en la identificación de objetos.
De nuevo, con referencia a la figura 1, también se proporciona un sistema de visualización de imágenes como se muestra en 28 para proporcionar una imagen de la vista de la unidad de percepción en un dispositivo de entrada de pantalla táctil. De acuerdo con diversas realizaciones, y como se analiza con más detalle a continuación con referencia a las figuras 3 y 4, el dispositivo de entrada de pantalla táctil puede mostrar los datos de la imagen capturada de la cámara 23 y puede recibir datos de entrada proporcionados por un trabajador humano (p. ej., mediante la colocación de los dedos en la imagen) que ayuda al sistema de robot tocando las ubicaciones de agarre de uno o más objetos que serían buenas ubicaciones de agarre.
El sistema de clasificación 10 puede incluir además un robot u otro dispositivo de movimiento programable en el entorno de clasificación, una estación objetivo 30 que incluye una serie de depósitos 32 en los que el robot puede colocar los objetos después de identificarlos y agarrarlos. Un sistema central de computación y control 34 puede comunicarse con la unidad de percepción 26 y el sistema de visualización de imágenes 28, así como con el brazo articulado 12 mediante comunicación inalámbrica, o, en determinadas realizaciones, el sistema central de computación y control puede proporcionarse dentro de la sección de base 20 del brazo articulado.
El sistema proporciona, en una realización específica, un sistema automatizado de identificación de artículos que incluye un sistema robótico de recogida y colocación que es capaz de recoger objetos, moverlos en el espacio y colocarlos. El sistema también incluye el conjunto de objetos propios a identificar; la forma en que se organizan los objetos entrantes, comúnmente en una pila heterogénea en un depósito o en una línea en un transportador; la forma en que se organizan los objetos salientes, comúnmente en una serie de depósitos de salida o cubículos de estantes; la forma en que se etiquetan los objetos con códigos de barras o etiquetas de identificación por radiofrecuencia; un escáner primario fijo que opera por encima del flujo entrante de objetos; una estación de escaneo donde se activan uno o más escáneres e iluminadores cuando el objeto se mantiene en la estación; y un sistema central de computación y control determina la ubicación adecuada para colocar el objeto, que depende del código de barras decodificado del objeto.
Como se ha destacado, el sistema robótico de recogida y colocación puede incluir un brazo robótico equipado con sensores y computación, que cuando se combina exhibe las siguientes capacidades: (a) es capaz de recoger objetos de una clase específica de objetos y separarlos de un flujo de objetos heterogéneos, ya sea que se mezclen en un depósito o que estén separados en un sistema transportador motorizado o por gravedad; (b) es capaz de mover el objeto a lugares arbitrarios dentro de su espacio de trabajo; (c) es capaz de colocar objetos en un depósito de salida o ubicación de estante en su espacio de trabajo; y, (d) es capaz de generar un mapa de objetos que puede recoger, representado como un conjunto candidato de puntos de agarre en la celda de trabajo y como una lista de politopos que encierran el objeto en el espacio.
Los objetos permitidos están determinados por las capacidades del sistema robótico de recogida y colocación. Se supone que su tamaño, peso y geometría son tales que el sistema robótico de recogida y colocación es capaz de recogerlos, moverlos y colocarlos. Estos pueden ser cualquier tipo de bienes pedidos, embalajes, paquetes u otros artículos que se benefician de la clasificación automática. Cada objeto está asociado con un código UPC u otro identificador de objeto único, que identifica el objeto o su destino.
La invención también proporciona un sistema robótico que permite que un trabajador humano ayude al sistema
robótico en la clasificación de objetos, particularmente en un entorno que presenta los objetos de manera desordenada y en el que también están presentes los trabajadores humanos. Por bueno que pueda ser un sistema de percepción, tal entorno casi asegura que el sistema robótico encontrará alguna configuración de objetos que el sistema robótico no pueda manejar. De acuerdo con diversas realizaciones de la invención, puede ser deseable permitir que el trabajador humano ayude al sistema robótico.
Por tanto, de acuerdo con una realización de la invención, la invención proporciona un método que permite a un trabajador humano mirar una imagen de una colección de objetos cuando el sistema robótico percibe la recolección de objetos, y ayuda al sistema robótico identificando una o más ubicaciones de agarre para uno o más objetos. El sistema también se puede usar para eliminar malas ubicaciones de agarre que el sistema robótico ha identificado. Adicionalmente, las imágenes 2D/3D junto con las ubicaciones de agarre seleccionadas por el trabajador humano se pueden usar como entrada para algoritmos de aprendizaje automático para ayudar al sistema robótico a aprender cómo lidiar con tales casos en el futuro, reduciendo así la necesidad de asistencia del operador con el tiempo.
Como se ha descrito anteriormente, el sistema de una realización incluye un sistema de percepción 26 que está montado encima de un depósito de objetos a clasificar, mirando hacia abajo en el depósito. Se adquiere una combinación de datos 2D y 3D (profundidad). El sistema usa estas imágenes y una variedad de algoritmos para generar un conjunto de ubicaciones de agarre candidatas para los objetos en el depósito.
La figura 3 muestra una imagen de una vista de cámara desde la unidad de percepción 26, y la imagen puede aparecer en el sistema de visualización de imágenes 28 de la figura 1 con imágenes superpuestas de un efector final que busca agarrar cada objeto 40, 42, 44, 46, 48, 50, 52 y 54 en un depósito 56, mostrando la ubicación de cada agarre. Las ubicaciones de agarre candidatas 58 se indican usando un modelo 3D del efector final del robot colocado en la ubicación donde el efector final real se usaría como ubicación de agarre, como se muestra en la figura 3. La imagen muestra varias ubicaciones de agarre 58 que se considerarían buenas (p. ej., están cerca del centro de masa del objeto para proporcionar una mayor estabilidad durante el agarre y el transporte) y evitan lugares en un objeto tal como tapas, costuras, etc., donde podría no estar disponible un buen sello al vacío.
La imagen también muestra dos ubicaciones de agarre 60 que no son buenas ubicaciones de agarre, donde el sistema de percepción no percibió correctamente el objeto 54, y en particular, no percibió que otro objeto 48 está encima del objeto 54. El objeto 54 no puede ser percibido completamente por el sistema de detección y, como resultado, el sistema de percepción considera que el objeto 54 son dos objetos diferentes y propone agarres candidatos de tales dos objetos diferentes. Si el sistema ejecuta un agarre en cualquiera de las ubicaciones de agarre 60, no podrá adquirir el objeto debido a un mal punto de agarre donde no se producirá un sello al vacío (p. ej., a la derecha), o adquirirá el objeto en una ubicación de agarre que esté muy lejos del centro de masa del objeto (p. ej., a la izquierda) y por lo tanto inducirá una gran inestabilidad durante cualquier intento de transporte. Cada uno de estos resultados es indeseable.
Como se muestra en la figura 4, las malas ubicaciones de agarre 60 puede identificarlas fácilmente un trabajador humano que toca la imagen (que se muestra en un dispositivo de entrada de pantalla táctil 28) y, por lo tanto, identifica las malas ubicaciones de agarre 60. Las ubicaciones seleccionadas pueden, por ejemplo, mostrar una indicación de haber sido seleccionadas. Las malas ubicaciones de agarre 60 pueden eliminarse después del sistema de procesamiento 34. Una vez que el sistema de clasificación ha adquirido y movido el objeto 48, todo el objeto inferior 54 se volverá visible para el sistema de detección, y el sistema robótico generará una buena ubicación de agarre candidata.
Si el sistema robótico no genera una buena ubicación de agarre para un objeto, el trabajador humano, nuevamente usando la interfaz de pantalla táctil, puede seleccionar una ubicación de agarre adecuada en la pantalla táctil. El sistema de clasificación puede luego poner en cola esta ubicación de agarre candidata determinada por humanos para ese objeto y ejecutar esa ubicación de agarre para objetos similares durante el proceso de limpieza del depósito. Cada imagen de depósito modificada por un trabajador humano se almacenará y usará luego como entrada para algoritmos de aprendizaje automático. Al identificar buenas o malas ubicaciones de agarre en la imagen, se establece una correlación entre las características de las imágenes 2D/3D y la idea de buenas o malas ubicaciones de agarre. Usando estos datos y estas correlaciones como entrada para los algoritmos de aprendizaje automático, el sistema puede finalmente aprender, por cada imagen que se le presenta, dónde agarrar mejor un objeto y dónde evitar agarrar un objeto.
De acuerdo con realizaciones adicionales, el sistema puede indicarle al trabajador humano una ubicación de agarre propuesta, y la persona puede confirmar que la ubicación es una buena selección (p. ej., tocándola) o puede indicar que la ubicación de agarre propuesta no es una buena ubicación (p. ej., deslizando la ubicación (tocando y arrastrando)). Después de tal interacción con un trabajador humano, el sistema puede aprender ubicaciones de agarre óptimas para objetos que puede llegar a reconocer y conocer. Otras realizaciones pueden implicar el uso de simulación, ya sea para recibir comentarios de un trabajador humano o para mapear diversas selecciones de ubicación de agarre para el movimiento.
Como se muestra en las figuras 5A y 5B, el sistema de percepción también puede identificar partes de un objeto que son las más planas en la generación de información de buena ubicación de agarre. En particular, si un objeto incluye
un extremo tubular y un extremo plano como el objeto 70, el sistema identificaría el extremo más plano, como se muestra en 72 en la figura 5B. El sistema seleccionará el área de un objeto donde aparece un código, tal como un código de barras, código QR, código UPC u otro código de producto (p. ej., 72), ya que dichos códigos pueden imprimirse en una parte relativamente plana del objeto.
Las figuras 6A y 6B muestran que para cada objeto 80, 82, el sistema de selección de agarre puede determinar una dirección que sea normal respecto a la parte plana seleccionada del objeto 80, 82. Como se muestra en las figuras 7A y 7B, el sistema robótico dirigirá entonces al efector final 84 para que se acerque a cada objeto 80, 82 desde la dirección que es normal respecto a la superficie para facilitar mejor la generación de un buen agarre de cada objeto. Al acercarse a cada objeto desde una dirección que es sustancialmente normal a una superficie del objeto, el sistema robótico mejora significativamente la probabilidad de obtener un buen agarre del objeto, particularmente cuando se emplea un efector final de vacío.
Como se muestra en las figuras 8A y 8B, el sistema robótico de acuerdo con una realización adicional de la invención puede incluir un brazo robótico 90 al que está acoplado el efector final de agarre 92. De forma similar a las realizaciones analizadas anteriormente, el efector final de agarre 92 está programado para acercarse a un objeto 94 desde un ángulo que es normal respecto a una superficie del objeto 94, y el objeto 94 puede estar descansando sobre otro objeto 96. La figura 8A muestra el efector final 92 acercándose al objeto 94, y la figura 8B muestra el efector final 92 agarrando el objeto 94.
La optimización del agarre puede basarse en la determinación de la superficie normal, es decir, mover el efector final para que sea normal respecto a la superficie percibida del objeto (a diferencia de las recogidas verticales o de "pórtico"), y que dichos puntos de agarre pueden elegirse usando características de referencia como puntos de agarre. De acuerdo con la invención, las ubicaciones de agarre para los objetos se seleccionan como la ubicación de un código de barras, un código QR, código UPC u otro código de producto, dado que dichos códigos casi siempre se aplican a un punto plano del objeto. La invención también proporciona asistencia al operador, donde un objeto que el sistema ha fallado repetidamente en agarrar tiene un punto de agarre correcto identificado por un humano, así como la asistencia del operador, donde el operador identifica malos planes de agarre, por tanto, eliminándolos y ahorrando el tiempo del sistema que intenta ejecutarlos.
Por lo tanto, de acuerdo con diversas realizaciones, la invención proporciona además un sistema de clasificación que puede aprender ubicaciones de agarre de objetos a partir de la experiencia y la guía humana. Los sistemas diseñados para trabajar en los mismos entornos que los trabajadores humanos se enfrentarán a una enorme variedad de objetos, posiciones, etc. Esta enorme variedad casi asegura que el sistema robótico encontrará alguna configuración de objeto(s) que no puede manejar de manera óptima; en dichos momentos, es deseable permitir que un operador humano ayude al sistema y hacer que el sistema aprenda de agarres no óptimos.
Las imágenes 2D/3D junto con los puntos de agarre seleccionados por humanos se pueden usar como entrada para algoritmos de aprendizaje automático, para ayudar al sistema de clasificación a aprender cómo manejar tales casos en el futuro, reduciendo así la necesidad de asistencia del operador con el tiempo. Se adquiere una combinación de datos 2D y 3D (profundidad), el sistema usa estas imágenes y una variedad de algoritmos para generar un conjunto de puntos de agarre candidatos para los objetos en el depósito.
El sistema optimiza los puntos de agarre en función de una amplia gama de funciones, ya sea extraídas fuera de línea o en línea, adaptadas a las características de la pinza. Las propiedades de la ventosa influyen en su adaptabilidad a la superficie subyacente, por lo tanto, es más probable que se logre un agarre óptimo cuando se recoge desde la superficie normal estimada de un objeto en lugar de realizar una recogida de pórtico vertical habitual en las aplicaciones industriales actuales.
Además de la información geométrica, el sistema usa funciones basadas en la apariencia, ya que los sensores de profundidad pueden no ser siempre lo suficientemente precisos para proporcionar suficiente información sobre la capacidad de agarre. Por ejemplo, el sistema puede aprender la ubicación de los marcadores de referencia, tales como códigos de barras en el objeto, que se pueden usar como indicador de un parche de superficie que es plano e impermeable, por lo tanto, adecuado para una ventosa. Un ejemplo de ello son las cajas y bolsas de envío, que tienden a tener la etiqueta de envío en el centro de masa del objeto y proporcionan una superficie impermeable, a diferencia del material de la bolsa en bruto, que puede ser ligeramente poroso y, por lo tanto, no presentar un buen agarre.
Cada imagen de depósito modificada por un operador humano se almacenará y usará luego como entrada para algoritmos de aprendizaje automático. Al identificar buenos o malos puntos de agarre en la imagen, se establece una correlación entre las funciones de las imágenes 2D/3D y la idea de buenos o malos puntos de agarre; usando estos datos y estas correlaciones como entrada para los algoritmos de aprendizaje automático, el sistema, al final, puede aprender, por cada imagen que se le presenta, dónde agarrar y dónde evitar.
Esta información se agrega a los datos basados en la experiencia que el sistema recopila con cada intento de recogida, exitoso o no. Con el tiempo, el robot aprende a evitar funciones que den como resultado agarres fallidos, ya sea específicas para un tipo de objeto o para un tipo de superficie/material. Por ejemplo, el robot puede preferir evitar las
recogidas en envoltura retráctil, sin importar a qué objeto se aplique, pero es posible que solo prefiera colocar el agarre cerca de los marcadores de referencia en ciertos tipos de objetos, tal como bolsas de envío.
Este aprendizaje puede acelerarse mediante la generación fuera de línea de imágenes corregidas por humanos. Por ejemplo, a un humano se le podrían presentar miles de imágenes de la operación anterior del sistema y anotar manualmente los puntos de agarre buenos y malos en cada uno. Esto generaría una gran cantidad de datos que también podrían ingresarse en los algoritmos de aprendizaje automático para mejorar la velocidad y la eficacia del aprendizaje del sistema.
Además de los datos de entrenamiento basados en la experiencia o en expertos humanos, se puede generar un gran conjunto de datos de entrenamiento etiquetados basados en un modelo de objeto detallado en simulación física haciendo uso de características conocidas de pinzas y objetos. Esto permite una generación rápida y densa de datos de capacidad de agarre sobre un gran conjunto de objetos, ya que este proceso no está limitado por la velocidad del sistema robótico físico o la entrada humana.
El método descrito hasta ahora se centra en proporcionar datos para algoritmos de aprendizaje fuera de línea o en la corrección en tiempo real del sistema robótico. También existe la posibilidad de usar este método en respuesta a un sistema robótico que pide ayuda.
Existe la situación en la que un sistema de clasificación vacía todos los objetos de un depósito menos uno. El sistema intenta y falla varias veces al agarrar este artículo. En este punto, el sistema robótico puede pedir ayuda transmitiendo la imagen desde su sistema de percepción a un operador humano. Ese operador humano, al tocar la imagen, puede identificar el punto de agarre que el sistema debe usar para adquirir el objeto, permitiendo por lo tanto que el humano compense las inevitables deficiencias del sistema de percepción.
De acuerdo con ciertas realizaciones, el sistema también puede optar por "agitar" los objetos de entrada presentados si el sistema no puede lograr un agarre exitoso después de varios intentos, ya sea antes de la interacción humana o después de seguir la guía del humano. La acción de "agitar" los objetos reorganizará los objetos de manera que se pueda calcular un nuevo conjunto de agarres, lo que puede conducir a intentos de agarre exitosos. Por ejemplo, si un objeto está de pie, presentándose con una superficie que el robot no es capaz de agarrar, el robot puede optar por derribar el objeto para recogerlo de un lado. La figura 9, por ejemplo, muestra esquemáticamente una vista en sección de un depósito de entrada 90, donde un efector final 92 de un brazo articulado 94 se mueve dentro del depósito de entrada en un movimiento circular, como se muestra en A, para agitar cualquier contenido del depósito de entrada para cambiar la disposición de los objetos en el depósito de entrada.
De acuerdo con una realización más de la invención, el sistema puede planificar aproximaciones de agarre que tengan en cuenta los elementos del entorno que pueden obstruir el uso de una ruta de aproximación óptica. Por ejemplo, y con referencia a la figura 10A, si se empuja un objeto 114 contra un borde o una esquina de un depósito 116, puede ser difícil para el brazo robótico 110 colocar el efector final 112 directamente encima del objeto 114. En este caso, y con referencia a la figura 10B, el sistema puede dirigir al robot 110 para que se acerque al objeto 114 desde un ángulo, como se muestra. El fuelle flexible 112 puede acomodar entonces el agarre del objeto bajo vacío.
Como se muestra en la figura 11, los sistemas de acuerdo con una realización adicional de la invención pueden incluir más de una pinza en un solo brazo robótico, para facilitar el agarre de un objeto que puede ser particularmente grande y/o pesado. La figura 11, por ejemplo, muestra un brazo robótico 120 que incluye un efector final 122 de pinzas múltiples que tiene dos fuelles de vacío 124 y 126. Como se ha mencionado anteriormente, el efector final 122 de pinzas múltiple puede usarse para agarrar objetos grandes y/o pesados 128, y el enfoque de agarre puede optimizarse para el objeto y/o para el entorno.
Los sistemas de acuerdo con realizaciones adicionales de la presente invención también pueden usar cámaras para verificar o monitorear un agarre. La figura 12, por ejemplo, muestra una pinza de fuelle de vacío 132 en un brazo robótico 130 que incluye una cámara 134 para ver un objeto a medida que se agarra. La figura 13 muestra un efector final de estricción de dos dedos 144 en un brazo robótico 140, que incluye una cámara 146 para ver un objeto mientras se agarra entre los dedos móviles 144. En realizaciones adicionales, se puede proporcionar una cámara en el robot pero más lejos del efector final. Por ejemplo, la figura 14 muestra un sistema robótico 150 que incluye una cámara 156 para ver el efector final 152 mientras sostiene un objeto 154. En uso, el robot puede programarse para mover un objeto una vez agarrado a una posición inicial donde puede ver el agarre del objeto. En otras realizaciones, la cámara puede colocarse en el entorno y no en el robot.
En realizaciones adicionales, el sistema robótico también puede emplear la planificación de movimiento usando una base de datos de trayectoria que se actualiza dinámicamente con el tiempo y está indexada por las métricas del cliente. Los dominios del problema contienen una combinación de componentes cambiantes e inmutables en el entorno. Por ejemplo, los objetos que se presentan al sistema a menudo se presentan en configuraciones aleatorias, pero los objetivos en los que deben colocarse a menudo son fijos y no cambian durante todo el funcionamiento.
Un uso de la base de datos de trayectoria es explotar las partes inmutables del entorno precalculando y guardando en
una base de datos las trayectorias que mueven el sistema de manera eficiente y sólida a través de estos espacios. Otro uso de la base de datos de trayectoria es mejorar constantemente el rendimiento del sistema durante la vida útil de su funcionamiento. La base de datos se comunica con un servidor de planificación que planifica continuamente las trayectorias desde los distintos inicios hasta los distintos objetivos, para tener un conjunto grande y variado de trayectorias para lograr cualquier tarea en particular.
Una ventaja del conjunto variado es la robustez frente a pequeños cambios en el entorno y a objetos de diferentes tamaños que el sistema podría estar manejando: en lugar de volver a planificar en estas situaciones, el sistema itera a través de la base de datos hasta que encuentra una trayectoria libre de colisiones, segura y robusta para la nueva situación. Por lo tanto, el sistema puede generalizarse en una variedad de entornos sin tener que volver a planificar los movimientos.
Otra ventaja del conjunto variado es la capacidad de abordar varias métricas de clientes sin tener que volver a planificar los movimientos. La base de datos está clasificada e indexada por métricas de clientes como tiempo, robustez, seguridad, distancia a los obstáculos, etc. y dada una nueva métrica del cliente, todo lo que la base de datos necesita hacer es reevaluar la métrica en las trayectorias existentes, recurriendo así a la lista de trayectorias y produciendo automáticamente la mejor trayectoria que satisfaga la métrica del nuevo cliente sin tener que volver a planificar los movimientos.
Otra ventaja es que incluso si una trayectoria no es válida debido a cambios en el entorno o en las métricas del cliente, las trayectorias almacenadas pueden servir como semillas para algoritmos de optimización de trayectorias, acelerando así la generación de nuevas trayectorias en nuevas situaciones. Otra ventaja es que la base de datos ofrece un mecanismo para que diferentes sistemas compartan información de forma remota o en la nube. Al indexar todo en la misma base de datos, diferentes sistemas que funcionan en diferentes lugares pueden tener una infraestructura común para compartir información y trayectorias planificadas.
Los expertos en la técnica apreciarán que se pueden realizar numerosas modificaciones y variaciones a las realizaciones divulgadas anteriormente sin apartarse del alcance de la presente invención, que se define en las reivindicaciones adjuntas.
Claims (15)
1. Un sistema de clasificación (10) para su uso en un entorno que incluye un área de entrada (22) que contiene objetos que se van a procesar y ubicaciones de destino (30) en las que se van a colocar los objetos procesados, comprendiendo dicho sistema de clasificación:
un dispositivo de movimiento programable (12);
un sistema de percepción (26) para proporcionar datos representativos de una imagen de al menos una parte del área de entrada que contiene objetos a procesar;
un efector final (14) para enganchar objetos en el área de entrada;
estando dicho sistema de clasificación caracterizado por:
un sistema de selección de ubicación de agarre (24) para determinar una ubicación de agarre para agarrar un objeto en el área de entrada que contiene objetos a procesar, en donde dicho sistema de selección de ubicación de agarre determina una ubicación de agarre para el objeto en respuesta a la detección de cualquiera de un código de barras, un código QR, código UPC u otro código de producto, y en donde dicha ubicación de agarre se selecciona para que sea la ubicación del código de barras, código QR, código UPC u otro código de producto; y un sistema de selección de dirección de agarre (34) para determinar una dirección de agarre desde la cual agarrar el objeto en el área de entrada que contiene objetos a procesar.
2. El sistema de clasificación según la reivindicación 1, en donde el sistema de percepción reconoce además si el objeto está al menos parcialmente oscurecido por uno o más otros objetos.
3. El sistema de clasificación según la reivindicación 1, en donde dicho efector final incluye una fuente de vacío.
4. El sistema de clasificación según la reivindicación 1, en donde dicho sistema de percepción está colocado por encima del área de entrada.
5. El sistema de clasificación según la reivindicación 1, en donde el sistema de percepción incluye cualquiera de cámaras 3D, cámaras 2D, escáneres de reflectividad láser, escáneres de identificación de radiofrecuencia, luz, sensores de profundidad o sensores IR de largo alcance.
6. El sistema de clasificación según la reivindicación 1, en donde dicho sistema de selección de ubicación de agarre determina la ubicación de agarre para el objeto en respuesta a la información aprendida proporcionada por un conjunto de experiencias aprendidas en las que el sistema de clasificación recibe información aprendida sobre ubicaciones de agarre para una pluralidad de objetos.
7. El sistema de clasificación según la reivindicación 6, en donde dicho conjunto de experiencias aprendidas se proporciona por intentos de agarre pasados por parte del sistema de clasificación.
8. El sistema de clasificación según la reivindicación 6, en donde el conjunto de experiencias aprendidas lo proporciona un trabajador humano que ingresa la entrada de ubicación de agarre a través de una imagen que se proporciona a través de un dispositivo de pantalla táctil en el que se proporciona una imagen de los objetos.
9. El sistema de clasificación según la reivindicación 1, en donde el sistema de clasificación está configurado para proporcionar una señal de asistencia necesaria en caso de que no se pueda determinar una ubicación de agarre o que el sistema de clasificación no pueda agarrar un objeto desconocido.
10. El sistema de clasificación según la reivindicación 9, en donde en respuesta a la señal de asistencia necesaria, un trabajador humano puede ingresar la entrada de ubicación de agarre a través de una imagen que se proporciona a través de un dispositivo de pantalla táctil en el que se proporciona una imagen de los objetos.
11. El sistema de clasificación según la reivindicación 1, en donde el sistema de selección de dirección de agarre determina una dirección que es normal al plano que es tangencial a la superficie del objeto en la ubicación de agarre seleccionada.
12. El sistema de clasificación según la reivindicación 11, en donde el efector final está provisto de señales de comando para acercarse al objeto a lo largo de la dirección que es normal al plano que es tangencial a la superficie del objeto en la ubicación de agarre seleccionada.
13. El sistema de clasificación según la reivindicación 1, en donde el sistema de clasificación está configurado además para agitar los objetos en el depósito que contiene objetos con el fin de crear nuevas orientaciones de objetos para el sistema de percepción.
14. El sistema de clasificación según la reivindicación 1, en donde dicho sistema de percepción está montado en el
dispositivo de movimiento programable o en el efector final, para ver agarres.
15. El sistema de clasificación según la reivindicación 8, en donde dicha entrada de ubicación de agarre incluye malas ubicaciones agarre.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201562255069P | 2015-11-13 | 2015-11-13 | |
US201662277234P | 2016-01-11 | 2016-01-11 | |
PCT/US2016/061414 WO2017083574A1 (en) | 2015-11-13 | 2016-11-10 | Sortation systems and methods for providing sortation of a variety of obejcts |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2929729T3 true ES2929729T3 (es) | 2022-12-01 |
Family
ID=57472030
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES16805614T Active ES2929729T3 (es) | 2015-11-13 | 2016-11-10 | Sistemas de clasificación para proporcionar clasificación de una variedad de objetos |
Country Status (6)
Country | Link |
---|---|
US (3) | US10625432B2 (es) |
EP (2) | EP4088889A1 (es) |
CN (2) | CN108349083B (es) |
CA (3) | CA3004711C (es) |
ES (1) | ES2929729T3 (es) |
WO (1) | WO2017083574A1 (es) |
Families Citing this family (112)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA2862793C (en) * | 2012-01-26 | 2019-12-31 | Hanmi It Co., Ltd. | Scanner, scanning apparatus and scanning method for a shelf |
US9233470B1 (en) * | 2013-03-15 | 2016-01-12 | Industrial Perception, Inc. | Determining a virtual representation of an environment by projecting texture patterns |
CN113601545A (zh) | 2015-08-26 | 2021-11-05 | 伯克希尔格雷股份有限公司 | 提供用于末端执行器的真空阀组件的系统和方法 |
US11370128B2 (en) | 2015-09-01 | 2022-06-28 | Berkshire Grey Operating Company, Inc. | Systems and methods for providing dynamic robotic control systems |
EP4137280A1 (en) | 2015-09-01 | 2023-02-22 | Berkshire Grey Operating Company, Inc. | Systems and methods for providing dynamic robotic control systems |
ES2952517T3 (es) | 2015-09-11 | 2023-10-31 | Berkshire Grey Operating Company Inc | Sistemas robóticos y métodos para identificar y procesar diversos objetos |
WO2017083574A1 (en) * | 2015-11-13 | 2017-05-18 | Berkshire Grey Inc. | Sortation systems and methods for providing sortation of a variety of obejcts |
US9937532B2 (en) | 2015-12-18 | 2018-04-10 | Berkshire Grey Inc. | Perception systems and methods for identifying and processing a variety of objects |
CN108472814B (zh) | 2016-01-08 | 2021-07-16 | 伯克希尔格雷股份有限公司 | 用于获取并移动物体的系统和方法 |
CA3117170C (en) | 2016-02-08 | 2023-08-29 | Berkshire Grey, Inc. | Systems and methods for providing processing of a variety of objects employing motion planning |
WO2017198281A1 (de) * | 2016-05-17 | 2017-11-23 | Liebherr-Verzahntechnik Gmbh | Kommissionierzelle |
EP3458385A1 (de) | 2016-05-17 | 2019-03-27 | Liebherr-Verzahntechnik GmbH | Kommissioniersystem |
US10538394B2 (en) | 2016-11-28 | 2020-01-21 | Berkshire Grey, Inc. | Systems and methods for providing singulation of objects for processing |
CA3155737C (en) | 2016-12-06 | 2023-11-14 | Berkshire Grey Operating Company, Inc. | Systems and methods for providing for the processing of objects in vehicles |
US10134006B2 (en) | 2016-12-07 | 2018-11-20 | Invia Robotics, Inc. | Workflow management system and methods for coordinating simultaneous operation of multiple robots |
EP3586288A1 (en) * | 2017-02-24 | 2020-01-01 | Alert Innovation Inc. | Inventory management system and method |
US10639787B2 (en) | 2017-03-06 | 2020-05-05 | Berkshire Grey, Inc. | Systems and methods for efficiently moving a variety of objects |
CN110431097B (zh) | 2017-03-20 | 2022-04-08 | 伯克希尔格雷营业股份有限公司 | 用于处理包括运输车辆的物体的系统和方法 |
EP3601108A1 (en) | 2017-03-20 | 2020-02-05 | Berkshire Grey, Inc. | Systems and methods for processing objects including an auto-shuttle system |
CN113562378A (zh) | 2017-03-20 | 2021-10-29 | 伯克希尔格雷股份有限公司 | 用于处理物体的包括线性机架系统的系统和方法 |
EP3602437B1 (en) | 2017-03-22 | 2024-05-01 | Berkshire Grey Operating Company, Inc. | Systems and methods for processing objects, including automated radial processing stations |
CN114148666B (zh) | 2017-03-23 | 2024-01-05 | 伯克希尔格雷营业股份有限公司 | 包括自动线性处理站的用于处理物体的系统和方法 |
CN110691742B (zh) | 2017-03-24 | 2022-09-09 | 伯克希尔格雷营业股份有限公司 | 包括自动处理的用于处理物体的系统和方法 |
CA3061181C (en) | 2017-04-24 | 2023-10-03 | Berkshire Grey, Inc. | Systems and methods for providing singulation of objects for processing using object movement redistribution |
CN107127757B (zh) * | 2017-05-24 | 2023-03-31 | 西安科技大学 | 一种多机器人协作柔索驱动拣矸装备动态任务分配方法 |
WO2019018964A1 (zh) * | 2017-07-22 | 2019-01-31 | 深圳市萨斯智能科技有限公司 | 一种机器人执行远程指令的方法和机器人 |
JP7116901B2 (ja) * | 2017-08-01 | 2022-08-12 | オムロン株式会社 | ロボット制御装置、ロボット制御方法及びロボット制御プログラム |
EP4299260A3 (en) | 2017-08-02 | 2024-04-10 | Berkshire Grey Operating Company, Inc. | Systems and methods for acquiring and moving objects having complex outer surfaces |
BR112020004016A2 (pt) * | 2017-08-31 | 2020-09-08 | Monsanto Technology Llc | sistema de entrega de sementes |
US10354139B1 (en) * | 2017-09-07 | 2019-07-16 | X Development Llc | Generating and utilizing spatial affordances for an object in robotics applications |
JP7062406B2 (ja) * | 2017-10-30 | 2022-05-16 | 株式会社東芝 | 情報処理装置及びロボットアーム制御システム |
JP6676030B2 (ja) | 2017-11-20 | 2020-04-08 | 株式会社安川電機 | 把持システム、学習装置、把持方法、及び、モデルの製造方法 |
CA3088655A1 (en) | 2018-01-17 | 2019-07-25 | Berkshire Grey, Inc. | Systems and methods for efficiently moving a variety of objects |
US10843333B2 (en) | 2018-03-05 | 2020-11-24 | Berkshire Grey, Inc. | Systems and methods for processing objects, including automated re-circulating processing stations |
JP2019155549A (ja) * | 2018-03-14 | 2019-09-19 | 株式会社東芝 | ピッキングシステムおよびロボットアームのエンドエフェクタ |
CN108333807B (zh) * | 2018-03-30 | 2023-06-27 | 青岛乾程科技股份有限公司 | 一种液晶屏装配装置 |
US11260534B2 (en) * | 2018-04-04 | 2022-03-01 | Canon Kabushiki Kaisha | Information processing apparatus and information processing method |
US20210016442A1 (en) * | 2018-04-15 | 2021-01-21 | Siemens Industry Software Ltd. | Simulation signature keys for robotic simulations |
US10824142B2 (en) * | 2018-05-01 | 2020-11-03 | Dexterity, Inc. | Autonomous robot with on demand teleoperation |
JP7057214B2 (ja) * | 2018-05-18 | 2022-04-19 | トヨタ自動車株式会社 | 把持装置、タグが付された容器、対象物把持プログラムおよび対象物把持方法 |
WO2019239563A1 (ja) * | 2018-06-14 | 2019-12-19 | ヤマハ発動機株式会社 | ロボットシステム |
US10769587B2 (en) * | 2018-07-02 | 2020-09-08 | Walmart Apollo, Llc | Systems and methods of storing and retrieving retail store product inventory |
US10500735B1 (en) * | 2018-07-13 | 2019-12-10 | Dexterity, Inc. | Robotic toolset and gripper |
EP4324603A3 (en) | 2018-08-13 | 2024-06-05 | Boston Dynamics, Inc. | Manipulating boxes using a zoned gripper |
CN109089102A (zh) * | 2018-09-05 | 2018-12-25 | 华南智能机器人创新研究院 | 一种基于双目视觉的机器人物品识别分类方法及系统 |
JP6833777B2 (ja) * | 2018-09-10 | 2021-02-24 | 株式会社東芝 | 物体ハンドリング装置及びプログラム |
JP6961557B2 (ja) * | 2018-09-18 | 2021-11-05 | 株式会社東芝 | 物品姿勢変更装置および物品姿勢変更方法 |
US11731792B2 (en) * | 2018-09-26 | 2023-08-22 | Dexterity, Inc. | Kitting machine |
CA3117600A1 (en) * | 2018-10-25 | 2020-04-30 | Berkshire Grey, Inc. | Systems and methods for learning to extrapolate optimal object routing and handling parameters |
US10369701B1 (en) | 2018-10-30 | 2019-08-06 | Mujin, Inc. | Automated package registration systems, devices, and methods |
US11472633B2 (en) | 2018-10-30 | 2022-10-18 | Berkshire Grey Operating Company, Inc. | Systems and methods for processing objects including semi-autonomous stations and automated output processing |
KR20240042157A (ko) | 2018-10-30 | 2024-04-01 | 무진 아이엔씨 | 자동화된 패키지 등록 시스템, 디바이스 및 방법 |
JP7205752B2 (ja) * | 2018-11-09 | 2023-01-17 | オムロン株式会社 | ロボット制御装置、ロボット制御方法、及びロボット制御プログラム |
CN109465205A (zh) * | 2018-11-20 | 2019-03-15 | 上海发那科机器人有限公司 | 一种基于视觉识别技术的动态分拣系统和分拣方法 |
US11426864B2 (en) * | 2018-12-03 | 2022-08-30 | Kindred Systems Inc. | Robot manipulator system and methods for providing supplemental securement of objects |
US11046518B2 (en) | 2019-01-14 | 2021-06-29 | Mujin, Inc. | Controller and control method for robot system |
JP6738112B2 (ja) * | 2019-01-14 | 2020-08-12 | 株式会社Mujin | ロボットシステムの制御装置及び制御方法 |
JP7204513B2 (ja) * | 2019-02-13 | 2023-01-16 | 株式会社東芝 | 制御装置及びプログラム |
WO2020188646A1 (ja) | 2019-03-15 | 2020-09-24 | オムロン株式会社 | パラメータ調整装置、パラメータ調整方法及びプログラム |
US11030766B2 (en) | 2019-03-25 | 2021-06-08 | Dishcraft Robotics, Inc. | Automated manipulation of transparent vessels |
US11179852B2 (en) * | 2019-03-25 | 2021-11-23 | Dishcraft Robotics, Inc. | Automated manipulation of transparent vessels |
CN109927033B (zh) * | 2019-04-01 | 2021-02-26 | 杭州电子科技大学 | 一种应用于传送带分拣的目标物体动态适配方法 |
EP3946840A4 (en) * | 2019-04-04 | 2022-12-28 | Plus One Robotics, Inc. | INDUSTRIAL ROBOTICS SYSTEMS AND METHODS FOR CONTINUOUS AND AUTOMATIC LEARNING |
EP3953855A4 (en) | 2019-04-11 | 2023-01-25 | Plus One Robotics, Inc. | SYSTEMS AND METHODS FOR IDENTIFYING PACKAGE PROPERTIES IN AN AUTOMATED INDUSTRIAL ROBOTICS SYSTEM |
CA3136859A1 (en) | 2019-04-25 | 2020-10-29 | Berkshire Grey, Inc. | Systems and methods for maintaining vacuum hose life in hose routing systems in programmable motion systems |
US11628572B2 (en) | 2019-05-28 | 2023-04-18 | Msc Services Corp. | Robotic pack station |
US11345030B2 (en) * | 2019-05-28 | 2022-05-31 | Intel Corporation | Methods and apparatus for complex assembly via autonomous robots using reinforcement learning action primitives |
US11688030B2 (en) * | 2019-06-12 | 2023-06-27 | Frito-Lay North America, Inc. | Shading topography imaging for robotic unloading |
CN113994356A (zh) | 2019-06-24 | 2022-01-28 | 伯克希尔格雷股份有限公司 | 用于在订单履行中心中提供订单装运的系统和方法 |
US11037219B2 (en) * | 2019-06-28 | 2021-06-15 | The Goodyear Tire & Rubber Company | Interactive tire wall and purchase method |
US11648674B2 (en) * | 2019-07-23 | 2023-05-16 | Teradyne, Inc. | System and method for robotic bin picking using advanced scanning techniques |
US11738447B2 (en) | 2019-07-29 | 2023-08-29 | Nimble Robotics, Inc. | Storage systems and methods for robotic picking |
CA3150291A1 (en) | 2019-08-08 | 2021-02-11 | Berkshire Grey, Inc. | Systems and methods for providing, in programmable motion devices, compliant end effectors with noise mitigation |
KR20190104483A (ko) * | 2019-08-21 | 2019-09-10 | 엘지전자 주식회사 | 로봇 시스템 및 그 제어 방법 |
US11911901B2 (en) | 2019-09-07 | 2024-02-27 | Embodied Intelligence, Inc. | Training artificial networks for robotic picking |
US11911903B2 (en) * | 2019-09-07 | 2024-02-27 | Embodied Intelligence, Inc. | Systems and methods for robotic picking and perturbation |
WO2021046528A1 (en) * | 2019-09-07 | 2021-03-11 | Embodied Intelligence, Inc. | Systems and methods for robotic picking |
US20220241982A1 (en) * | 2019-09-18 | 2022-08-04 | Fuji Corporation | Work robot and work system |
US11584004B2 (en) * | 2019-12-17 | 2023-02-21 | X Development Llc | Autonomous object learning by robots triggered by remote operators |
DE102019135452B4 (de) | 2019-12-20 | 2022-03-31 | IGZ Ingenieurgesellschaft für logistische Informationssysteme mbH | Vollautomatisches Roboter-Kommissioniersystem und Kommissionierverfahren mit Sensoranordnung zum Vermessen eines entnommenen Artikels im Rahmen des Anhebevorgangs |
IT202000003086A1 (it) * | 2020-02-17 | 2021-08-17 | Gd Spa | Procedimento e apparato per eseguire controlli di qualità su confezioni di articoli da fumo |
US10814489B1 (en) * | 2020-02-28 | 2020-10-27 | Nimble Robotics, Inc. | System and method of integrating robot into warehouse management software |
CN113666036A (zh) * | 2020-05-14 | 2021-11-19 | 泰科电子(上海)有限公司 | 自动拆垛系统 |
EP3913526A1 (en) * | 2020-05-18 | 2021-11-24 | CHEP Technology Pty Limited | Platform detection |
CN111702761B (zh) * | 2020-06-12 | 2022-05-27 | 珠海格力智能装备有限公司 | 码垛机器人的控制方法、控制装置、处理器和分拣系统 |
WO2022020159A1 (en) | 2020-07-22 | 2022-01-27 | Berkshire Grey, Inc. | Systems and methods for object processing using a passively collapsing vacuum gripper |
US20220024705A1 (en) | 2020-07-22 | 2022-01-27 | Berkshire Grey, Inc. | Systems and methods for object processing using a vacuum gripper that provides object retention by evacuation |
AT524101A1 (de) * | 2020-07-27 | 2022-02-15 | Tgw Logistics Group Gmbh | System und Verfahren zur Erfassung einer Warenanzahl in einem Ladungsträger |
CN111975783B (zh) * | 2020-08-31 | 2021-09-03 | 广东工业大学 | 一种机器人抓取检测方法及系统 |
CA3199782A1 (en) | 2020-10-30 | 2022-05-05 | Berkshire Grey Operating Company, Inc. | Systems and methods for sku induction, decanting and automated- eligibility estimation |
US11981518B2 (en) * | 2020-11-05 | 2024-05-14 | Mujin, Inc. | Robotic tools and methods for operating the same |
CN112363470A (zh) * | 2020-11-05 | 2021-02-12 | 苏州工业园区卡鲁生产技术研究院 | 用户协作型机器人控制系统 |
US20220152824A1 (en) * | 2020-11-13 | 2022-05-19 | Armstrong Robotics, Inc. | System for automated manipulation of objects using a vision-based collision-free motion plan |
US11911801B2 (en) * | 2020-12-11 | 2024-02-27 | Intelligrated Headquarters, Llc | Methods, apparatuses, and systems for automatically performing sorting operations |
US11787049B2 (en) * | 2021-02-18 | 2023-10-17 | Sanctuary Cognitive Systems Corporation | Systems, devices, and methods for training multi-purpose robots |
JP2022127096A (ja) * | 2021-02-19 | 2022-08-31 | トヨタ自動車株式会社 | 棚在庫管理システム、棚在庫管理方法、及びプログラム |
EP4063081A1 (de) * | 2021-03-22 | 2022-09-28 | Siemens Aktiengesellschaft | Verfahren zum ermitteln von steuerungsdaten für eine greifeinrichtung zum greifen eines gegenstands |
EP4063080A1 (de) * | 2021-03-22 | 2022-09-28 | Siemens Aktiengesellschaft | Verfahren zum ermitteln von steuerungsdaten für eine grei-feinrichtung zum greifen eines gegenstands |
EP4064106A1 (de) | 2021-03-22 | 2022-09-28 | Siemens Aktiengesellschaft | Verfahren zum erzeugen von trainingsdaten für ein ml-modell |
US11897706B2 (en) | 2021-03-30 | 2024-02-13 | Dexterity, Inc. | Robotic system with zone-based control |
US20220315355A1 (en) * | 2021-03-30 | 2022-10-06 | Dexterity, Inc. | Autonomous and safe integration of human task in robotic operation |
US11981517B2 (en) | 2021-03-30 | 2024-05-14 | Dexterity, Inc. | Robotic line kitting system safety features |
CN113110325A (zh) * | 2021-04-12 | 2021-07-13 | 谈斯聪 | 一种多臂分拣作业移动投递装置、最优化的管理系统及方法 |
CN113820506A (zh) * | 2021-08-10 | 2021-12-21 | 西安金域医学检验所有限公司 | 一种自动排号仪 |
CN116638509A (zh) * | 2021-09-01 | 2023-08-25 | 牧今科技 | 具有重叠处理机制的机器人系统及其操作方法 |
CN113492411B (zh) * | 2021-09-10 | 2021-11-30 | 季华实验室 | 机器人抓取路径规划方法、装置、电子设备及存储介质 |
CN114042640A (zh) * | 2021-10-28 | 2022-02-15 | 上海电子信息职业技术学院 | 快递分拣系统、方法 |
US20230186323A1 (en) * | 2021-12-09 | 2023-06-15 | International Business Machines Corporation | Product compliance and certification validation |
DE102022101825B3 (de) | 2022-01-26 | 2023-02-23 | Ssi Schäfer Automation Gmbh (At) | Verfahren und System für automatisierte Materialhandhabung einschließlich einer 100%-Verifikation |
CN114850041A (zh) * | 2022-04-29 | 2022-08-05 | 北京京东乾石科技有限公司 | 分拣装置和分拣系统 |
US11865696B1 (en) | 2022-08-10 | 2024-01-09 | Wilder Systems Inc. | Balancing compute for robotic operations |
CN115446392B (zh) * | 2022-10-13 | 2023-08-04 | 芜湖行健智能机器人有限公司 | 一种无序板件智能化倒角系统及方法 |
Family Cites Families (105)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US2853333A (en) | 1955-09-07 | 1958-09-23 | Littell Machine Co F J | Vacuum cup |
US3005652A (en) | 1960-12-14 | 1961-10-24 | Bemis Bro Bag Co | Vacuum gripping device |
US3195941A (en) | 1962-08-27 | 1965-07-20 | Whiting Corp | Vacuum gripping pad |
US3637249A (en) | 1970-06-29 | 1972-01-25 | Henry Y Kuhl | Automatic loader heads |
FR2495592A1 (fr) | 1980-12-05 | 1982-06-11 | Joulin Sema | Dispositif de prehension fonctionnant par succion |
US4557659A (en) | 1982-09-14 | 1985-12-10 | M. Scaglia S.P.A. | Device for supporting and handling loads by means of vacuum operated suction pads |
US4896357A (en) | 1986-04-09 | 1990-01-23 | Tokico Ltd. | Industrial playback robot having a teaching mode in which teaching data are given by speech |
US4828304A (en) | 1986-09-09 | 1989-05-09 | Kabushiki Kaisha Yakult Honsha | Vacuum adsorption hand |
US4786847A (en) | 1986-11-20 | 1988-11-22 | Unimation Inc. | Digital control for multiaxis robots |
DE3853616T2 (de) | 1987-11-20 | 1995-11-30 | Philips Electronics Nv | Verfahren und Gerät zur Wegplanung. |
DE3810989A1 (de) | 1988-02-01 | 1989-08-10 | Festo Kg | Vorrichtung zur handhabung und insbesondere zum transport von gegenstaenden |
US5207465A (en) | 1991-10-24 | 1993-05-04 | Rich Donald S | Self-realigning vacuum pickup arrangement |
US5244338A (en) | 1992-03-26 | 1993-09-14 | White Robert A | Gravity-steered grapple |
JPH0769470A (ja) | 1993-06-30 | 1995-03-14 | Morihiko Mizumura | シート部材の取上げ装置 |
DE69426888T2 (de) | 1993-11-04 | 2001-08-02 | Comalco Alu | Vakuumhebevorrichtung |
US6060677A (en) | 1994-08-19 | 2000-05-09 | Tiedemanns-Jon H. Andresen Ans | Determination of characteristics of material |
US5794789A (en) | 1995-12-13 | 1998-08-18 | Payson; William H. | Semi-automated integrated sort system |
US5865487A (en) | 1996-05-23 | 1999-02-02 | Motorola, Inc. | Pick-and-place tool for vacuum and magnetic coupling |
US6015174A (en) | 1998-06-04 | 2000-01-18 | Eastman Kodak Company | Universal end effector for robotic applications |
FR2782313B1 (fr) | 1998-08-13 | 2000-11-24 | Opema | Dispositif de prehension |
US8600551B2 (en) | 1998-11-20 | 2013-12-03 | Intuitive Surgical Operations, Inc. | Medical robotic system with operatively couplable simulator unit for surgeon training |
US6721444B1 (en) * | 1999-03-19 | 2004-04-13 | Matsushita Electric Works, Ltd. | 3-dimensional object recognition method and bin-picking system using the method |
US20010056313A1 (en) | 2000-05-08 | 2001-12-27 | Osborne William Joseph | Object locating and retrieving system utilizing labels |
US6820032B2 (en) | 2001-02-05 | 2004-11-16 | National Instruments Corporation | System and method for scanning a region using conformal mapping |
DE10121344A1 (de) | 2001-05-02 | 2002-11-07 | Fft Flexible Fertigungstechnik | Zum Greifen von Gegenständen ausgebildete Greifvorrichtung |
GB2378432B (en) | 2001-07-30 | 2004-10-13 | Silsoe Res Inst | Gripping apparatus for pick and place handling of articled |
DE10140248B4 (de) | 2001-08-09 | 2006-09-28 | J. Schmalz Gmbh | Unterdruckhandhabungseinrichtung |
JP3805310B2 (ja) * | 2003-01-30 | 2006-08-02 | ファナック株式会社 | ワーク取出し装置 |
DE10319253B4 (de) * | 2003-04-28 | 2005-05-19 | Tropf, Hermann | Dreidimensional lagegerechtes Zuführen mit Roboter |
DE102004042825B3 (de) | 2004-08-28 | 2006-01-05 | J. Schmalz Gmbh | Verfahren zum Betreiben einer Unterdruckhandhabungseinrichtung |
DE102005045681B4 (de) | 2005-09-24 | 2007-07-26 | Eckelt Glas Gmbh | Verfahren zum Steuern von Unterdruck-Hebezeugen und Lastsicherungsvorrichtung für Unterdruck-Hebezeuge sowie deren Verwendung |
JP2007182286A (ja) | 2006-01-05 | 2007-07-19 | Nissan Motor Co Ltd | ピッキング方法およびピッキングシステム |
US7313464B1 (en) * | 2006-09-05 | 2007-12-25 | Adept Technology Inc. | Bin-picking system for randomly positioned objects |
WO2008076942A1 (en) * | 2006-12-15 | 2008-06-26 | Braintech Canada, Inc. | System and method of identifying objects |
DE102007028680A1 (de) | 2007-06-21 | 2008-12-24 | Elau Elektronik-Automations-Ag | Gruppierungsstation |
DE102007038834A1 (de) | 2007-08-16 | 2009-02-19 | Deutsche Post Ag | Verfahren und Vorrichtung zur Vereinzelung von Stückgut |
JP5376859B2 (ja) | 2007-08-28 | 2013-12-25 | キヤノン株式会社 | 磁気式力センサ及び磁気式力センサを有するロボットアーム |
DE202008010424U1 (de) | 2008-07-30 | 2009-12-24 | J. Schmalz Gmbh | Mit Druckluft betriebener Flächensauggreifer |
AT507339B1 (de) | 2008-09-26 | 2011-06-15 | Stiwa Holding Gmbh | Verfahren und anlage zum aufnehmen und/oder bearbeiten von objekten |
JP4708464B2 (ja) | 2008-09-30 | 2011-06-22 | ファナック株式会社 | ワーク把持装置 |
JP2010131743A (ja) | 2008-10-30 | 2010-06-17 | Canon Inc | 力覚センサを内蔵した把持装置 |
FR2938508B1 (fr) | 2008-11-14 | 2010-12-17 | Sidel Participations | Installation de palettisation combinee avec acces securise |
JP5163541B2 (ja) | 2009-03-02 | 2013-03-13 | 三菱マテリアルテクノ株式会社 | 真空吸着パッド |
DE102009011229A1 (de) | 2009-03-02 | 2010-09-16 | Knapp Logistik Automation Gmbh | Anordnung und Verfahren zum Erkennen und Steuern von mit einem Code versehenen Stückgütern |
IT1394135B1 (it) | 2009-03-25 | 2012-05-25 | Opm S P A | Metodo e impianto di confezionamento per inserire prodotti in contenitori tramite una serie di robot |
EP2255930A1 (de) * | 2009-05-27 | 2010-12-01 | Leica Geosystems AG | Verfahren und System zum hochpräzisen Positionieren mindestens eines Objekts in eine Endlage im Raum |
DE102010002317B4 (de) | 2010-02-24 | 2018-06-14 | Apologistics Gmbh | System und Verfahren zur Vereinzelung und Kommissionierung von Artikeln |
JP5685027B2 (ja) | 2010-09-07 | 2015-03-18 | キヤノン株式会社 | 情報処理装置、物体把持システム、ロボットシステム、情報処理方法、物体把持方法およびプログラム |
DE102011006679B4 (de) | 2011-03-16 | 2018-07-12 | Ferrobotics Compliant Robot Technology Gmbh | Aktive Handhabungsvorrichtung und Verfahren für Kontaktaufgaben |
WO2012142587A1 (en) * | 2011-04-15 | 2012-10-18 | Irobot Corporation | Method for path generation for an end effector of a robot |
EP2776177A2 (de) * | 2011-11-11 | 2014-09-17 | BÖWE SYSTEC GmbH | Vorrichtung und verfahren zum zusammenführen von karten und kartenträgern, zum handhaben von karten und/oder zum sortieren von karten sowie kartenmagazin |
US8960745B2 (en) | 2011-11-18 | 2015-02-24 | Nike, Inc | Zoned activation manufacturing vacuum tool |
CN103157607B (zh) * | 2011-12-19 | 2014-07-23 | 华南理工大学 | 一种物品识别与分拣装置及其方法 |
JP5911299B2 (ja) | 2011-12-27 | 2016-04-27 | キヤノン株式会社 | 情報処理装置、情報処理装置の制御方法およびプログラム |
CN104137051B (zh) | 2012-02-21 | 2017-06-16 | 亚马逊技术有限公司 | 用于材料处理设施中的产品自动拾取的系统和方法 |
JP5975685B2 (ja) | 2012-03-09 | 2016-08-23 | キヤノン株式会社 | 情報処理装置、情報処理方法 |
US8843236B2 (en) * | 2012-03-15 | 2014-09-23 | GM Global Technology Operations LLC | Method and system for training a robot using human-assisted task demonstration |
DE102012102333A1 (de) | 2012-03-20 | 2013-09-26 | Apologistics Gmbh | Automatisiertes System und Verfahren zur Kommissionierung von Artikeln, insbesondere von Apothekenartikeln |
JP5594317B2 (ja) | 2012-05-21 | 2014-09-24 | 株式会社安川電機 | ロボットハンド、ロボットシステムおよび加工品の製造方法 |
US9092698B2 (en) | 2012-06-21 | 2015-07-28 | Rethink Robotics, Inc. | Vision-guided robots and methods of training them |
JP5469216B2 (ja) | 2012-07-31 | 2014-04-16 | ファナック株式会社 | バラ積みされた物品をロボットで取出す装置 |
CN102922521B (zh) * | 2012-08-07 | 2015-09-09 | 中国科学技术大学 | 一种基于立体视觉伺服的机械臂系统及其实时校准方法 |
JP5670397B2 (ja) * | 2012-08-29 | 2015-02-18 | ファナック株式会社 | バラ積みされた物品をロボットで取出す装置及び方法 |
WO2014036549A2 (en) | 2012-08-31 | 2014-03-06 | Rethink Robotics, Inc. | Systems and methods for safe robot operation |
JP5642759B2 (ja) * | 2012-10-31 | 2014-12-17 | ファナック株式会社 | 物品取出装置及び物品取出方法 |
CN104870344A (zh) | 2012-12-21 | 2015-08-26 | 肖特兄弟公司 | 吸杯 |
US20140195979A1 (en) * | 2013-01-10 | 2014-07-10 | Appsense Limited | Interactive user interface |
US9233470B1 (en) | 2013-03-15 | 2016-01-12 | Industrial Perception, Inc. | Determining a virtual representation of an environment by projecting texture patterns |
JP5862611B2 (ja) * | 2013-04-02 | 2016-02-16 | トヨタ自動車株式会社 | 作業変更装置、作業変更方法、及び作業変更プログラム |
AT514162A1 (de) | 2013-04-09 | 2014-10-15 | Knapp Ag | Lager- und Kommissioniersystem zum vollautomatisierten Erkennen und Kommissionieren von Artikeln |
JP5786896B2 (ja) * | 2013-06-07 | 2015-09-30 | 株式会社安川電機 | ワーク検出装置、ロボットシステム、被加工物の製造方法及びワーク検出方法 |
CN105246658B (zh) | 2013-07-09 | 2017-09-26 | 株式会社安川电机 | 机器人及机器人的关节机构 |
JP6057862B2 (ja) * | 2013-08-29 | 2017-01-11 | 三菱電機株式会社 | 部品供給装置および部品供給装置のプログラム生成方法 |
US9550624B2 (en) | 2013-09-09 | 2017-01-24 | Dematic Corp. | Autonomous mobile picking |
SG2013069893A (en) | 2013-09-13 | 2015-04-29 | Jcs Echigo Pte Ltd | Material handling system and method |
CN103464383A (zh) * | 2013-09-27 | 2013-12-25 | 沈阳工业大学 | 工业机器人分拣系统及方法 |
WO2015058297A1 (en) | 2013-10-25 | 2015-04-30 | Vakanski Aleksandar | Image-based trajectory robot programming planning approach |
CN103645724B (zh) * | 2013-12-31 | 2015-12-30 | 刘茂祥 | 一种档案自动存取装置 |
US9283674B2 (en) * | 2014-01-07 | 2016-03-15 | Irobot Corporation | Remotely operating a mobile robot |
GB201402263D0 (en) | 2014-02-10 | 2014-03-26 | Ocado Ltd | Intermediate holding facility for picking station |
US9259844B2 (en) * | 2014-02-12 | 2016-02-16 | General Electric Company | Vision-guided electromagnetic robotic system |
US9623570B1 (en) | 2014-03-03 | 2017-04-18 | Jeffrey M. Krahn | Gripping device |
JP6203084B2 (ja) | 2014-03-06 | 2017-09-27 | 株式会社東芝 | 配達物区分処理システム、および配達物区分処理方法 |
US20170066597A1 (en) | 2014-03-28 | 2017-03-09 | Nec Corporation | Information processing device, information processing system, distribution system, information processing method, and program storage medium |
FR3020303B1 (fr) | 2014-04-25 | 2016-07-15 | Sileane | Procede et installation de prehension automatique d'un objet. |
US20150306770A1 (en) | 2014-04-25 | 2015-10-29 | Mittal Nimish | Detachable robotic arm having interference detection system |
CN103963058B (zh) * | 2014-04-30 | 2016-01-06 | 重庆环视高科技有限公司 | 基于多方位视觉定位的机械手臂抓取控制系统及方法 |
DE102014008108A1 (de) | 2014-06-02 | 2015-12-03 | Liebherr-Verzahntechnik Gmbh | Vorrichtung zum automatisierten Entnehmen von in einem Behälter angeordneten Werkstücken |
CA2951151A1 (en) * | 2014-06-04 | 2015-12-10 | Intelligrated Headquarters Llc | Truck unloader visualization |
DE102014008444A1 (de) | 2014-06-06 | 2015-12-17 | Liebherr-Verzahntechnik Gmbh | Vorrichtung zum automatisierten Entnehmen von in einem Behälter angeordneten Werkstücken |
US9636825B2 (en) | 2014-06-26 | 2017-05-02 | Robotex Inc. | Robotic logistics system |
ES2845927T3 (es) | 2014-06-26 | 2021-07-28 | Schmalz J Gmbh | Instalación para la manipulación de piezas de trabajo |
CN203955558U (zh) * | 2014-07-04 | 2014-11-26 | 山东科技大学 | 一种用于快递公司快件的自动扫描分拣装置 |
US20160136816A1 (en) | 2014-11-14 | 2016-05-19 | James Charles Pistorino | Sorting apparatus and method |
US9492923B2 (en) * | 2014-12-16 | 2016-11-15 | Amazon Technologies, Inc. | Generating robotic grasping instructions for inventory items |
DE102015202603A1 (de) | 2015-02-12 | 2016-08-18 | J. Schmalz Gmbh | Unterdruckerzeugervorrichtung und Schlauchheber mit einer Unterdruckerzeugervorrichtung |
US9687982B1 (en) * | 2015-05-27 | 2017-06-27 | X Development Llc | Adapting programming of a robot and/or control of the robot based on one or more parameters of an end effector of the robot |
US9747512B2 (en) | 2015-06-25 | 2017-08-29 | Toshiba Tec Kabushiki Kaisha | Article recognition apparatus and image processing method for article recognition apparatus |
US10311634B2 (en) | 2015-07-21 | 2019-06-04 | IAM Robotics, LLC | Three dimensional scanning and data extraction systems and processes for supply chain piece automation |
US9718188B2 (en) | 2015-09-21 | 2017-08-01 | Amazon Technologies, Inc. | Networked robotic manipulators |
WO2017083574A1 (en) * | 2015-11-13 | 2017-05-18 | Berkshire Grey Inc. | Sortation systems and methods for providing sortation of a variety of obejcts |
US9687983B1 (en) * | 2016-05-11 | 2017-06-27 | X Development Llc | Generating a grasp pose for grasping of an object by a grasping end effector of a robot |
JP6553568B2 (ja) * | 2016-09-28 | 2019-07-31 | ファナック株式会社 | 複数個の物品をひとつずつ最適な経路で取り出す搬送装置 |
EP3670106B1 (en) * | 2018-12-18 | 2024-05-15 | Siemens Aktiengesellschaft | Task-specific robot grasping system and method |
US11185980B2 (en) * | 2019-04-16 | 2021-11-30 | Abb Schweiz Ag | Machine learning-based systems and methods for controlling robotic object picking and placement in training and run time environments |
-
2016
- 2016-11-10 WO PCT/US2016/061414 patent/WO2017083574A1/en unknown
- 2016-11-10 EP EP22172900.7A patent/EP4088889A1/en active Pending
- 2016-11-10 CA CA3004711A patent/CA3004711C/en active Active
- 2016-11-10 CN CN201680066557.2A patent/CN108349083B/zh active Active
- 2016-11-10 CA CA3192023A patent/CA3192023A1/en active Pending
- 2016-11-10 CN CN202111071608.XA patent/CN113731862B/zh active Active
- 2016-11-10 ES ES16805614T patent/ES2929729T3/es active Active
- 2016-11-10 US US15/348,498 patent/US10625432B2/en active Active
- 2016-11-10 EP EP16805614.1A patent/EP3374138B1/en active Active
- 2016-11-10 CA CA3107257A patent/CA3107257C/en active Active
-
2020
- 2020-01-29 US US16/775,798 patent/US11420329B2/en active Active
-
2022
- 2022-06-17 US US17/843,666 patent/US20220314447A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
CA3192023A1 (en) | 2017-05-18 |
US20200164531A1 (en) | 2020-05-28 |
US20170136632A1 (en) | 2017-05-18 |
CN113731862A (zh) | 2021-12-03 |
US10625432B2 (en) | 2020-04-21 |
CN108349083B (zh) | 2021-09-21 |
WO2017083574A1 (en) | 2017-05-18 |
EP4088889A1 (en) | 2022-11-16 |
CA3107257C (en) | 2023-05-02 |
EP3374138B1 (en) | 2022-08-31 |
CA3004711C (en) | 2022-01-11 |
CN113731862B (zh) | 2024-04-12 |
US20220314447A1 (en) | 2022-10-06 |
CA3107257A1 (en) | 2017-05-18 |
EP3374138A1 (en) | 2018-09-19 |
CN108349083A (zh) | 2018-07-31 |
US11420329B2 (en) | 2022-08-23 |
CA3004711A1 (en) | 2017-05-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2929729T3 (es) | Sistemas de clasificación para proporcionar clasificación de una variedad de objetos | |
ES2924496T3 (es) | Sistemas y métodos para proporcionar el procesamiento de una variedad de objetos empleando planificación de movimiento | |
US11494575B2 (en) | Systems and methods for identifying and processing a variety of objects | |
CN112166013B (zh) | 用于挑选、分类及放置复数个随机及新物品的机器人系统 | |
CN113955367B (zh) | 包括空间高效的分配站和自动化输出处理的用于处理物体的系统和方法 | |
ES2941985T3 (es) | Sistemas y métodos para procesar objetos | |
US20240150139A1 (en) | System and method for identifying or acquiring data corresponding to a handled item |