ES2952605T3 - Sistemas y métodos de percepción para identificar y procesar diversos objetos - Google Patents

Sistemas y métodos de percepción para identificar y procesar diversos objetos Download PDF

Info

Publication number
ES2952605T3
ES2952605T3 ES16826518T ES16826518T ES2952605T3 ES 2952605 T3 ES2952605 T3 ES 2952605T3 ES 16826518 T ES16826518 T ES 16826518T ES 16826518 T ES16826518 T ES 16826518T ES 2952605 T3 ES2952605 T3 ES 2952605T3
Authority
ES
Spain
Prior art keywords
perception
objects
fall
data
barcode
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES16826518T
Other languages
English (en)
Inventor
Thomas Wagner
Kevin Ahearn
Benjamin Cohen
Michael DAWSON-HAGGERTY
Christopher GEYER
Thomas Koletschka
Kyle MARONEY
Matthew Mason
Gene Temple Price
Joseph Romano
Daniel Smith
Siddhartha SRINIVASA
Prasanna Velagapudi
Thomas Allen
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Berkshire Grey Inc
Original Assignee
Berkshire Grey Operating Co Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Berkshire Grey Operating Co Inc filed Critical Berkshire Grey Operating Co Inc
Application granted granted Critical
Publication of ES2952605T3 publication Critical patent/ES2952605T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B07SEPARATING SOLIDS FROM SOLIDS; SORTING
    • B07CPOSTAL SORTING; SORTING INDIVIDUAL ARTICLES, OR BULK MATERIAL FIT TO BE SORTED PIECE-MEAL, e.g. BY PICKING
    • B07C5/00Sorting according to a characteristic or feature of the articles or material being sorted, e.g. by control effected by devices which detect or measure such characteristic or feature; Sorting by manually actuated devices, e.g. switches
    • B07C5/34Sorting according to other particular properties
    • B07C5/3412Sorting according to other particular properties according to a code applied to the object which indicates a property of the object, e.g. quality class, contents or incorrect indication
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
    • G05B19/4183Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by data acquisition, e.g. workpiece identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/0004Hybrid readers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/245Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures using a plurality of fixed, simultaneously operating transducers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K19/00Record carriers for use with machines and with at least a part designed to carry digital markings
    • G06K19/06Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code
    • G06K19/06009Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking
    • G06K19/06018Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking one-dimensional coding
    • G06K19/06028Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking one-dimensional coding using bar codes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/01Details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/10544Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum
    • G06K7/10554Moving beam scanning
    • G06K7/10594Beam path
    • G06K7/10683Arrangement of fixed elements
    • G06K7/10693Arrangement of fixed elements for omnidirectional scanning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/10544Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum
    • G06K7/10712Fixed beam scanning
    • G06K7/10722Photodetector array or CCD scanning
    • G06K7/10732Light sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/10544Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum
    • G06K7/10821Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum further details of bar or optical code scanning devices
    • G06K7/10881Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum further details of bar or optical code scanning devices constructional details of hand-held scanners
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/14Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation using light without selection of wavelength, e.g. sensing reflected white light
    • G06K7/1404Methods for optical code recognition
    • G06K7/1408Methods for optical code recognition the method being specifically adapted for the type of code
    • G06K7/14131D bar codes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/80Recognising image objects characterised by unique random patterns
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B07SEPARATING SOLIDS FROM SOLIDS; SORTING
    • B07CPOSTAL SORTING; SORTING INDIVIDUAL ARTICLES, OR BULK MATERIAL FIT TO BE SORTED PIECE-MEAL, e.g. BY PICKING
    • B07C2301/00Sorting according to destination
    • B07C2301/0016RFID-tags
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/36Nc in input of data, input key till input tape
    • G05B2219/36371Barcode reader
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/45Nc applications
    • G05B2219/45045Maintenance, automatic storage and retrieval system
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/45Nc applications
    • G05B2219/45047Sorting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/06Recognition of objects for industrial automation
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Theoretical Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Toxicology (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Manufacturing & Machinery (AREA)
  • Quality & Reliability (AREA)
  • Automation & Control Theory (AREA)
  • Signal Processing (AREA)
  • Sorting Of Articles (AREA)
  • Warehouses Or Storage Devices (AREA)
  • Image Processing (AREA)
  • Alarm Systems (AREA)
  • Burglar Alarm Systems (AREA)

Abstract

Se divulga un sistema de percepción de caída que incluye una estructura de alojamiento abierta que tiene un volumen interno, una parte superior abierta y una parte inferior abierta, y una pluralidad de unidades de percepción ubicadas para capturar datos de percepción dentro del volumen interno en una pluralidad de ubicaciones entre la parte superior abierta y la parte inferior abierta de la carcasa abierta. (Traducción automática con Google Translate, sin valor legal)

Description

DESCRIPCIÓN
Sistemas y métodos de percepción para identificar y procesar diversos objetos
PRIORIDAD
La presente solicitud reivindica la prioridad de la solicitud de patente provisional de EE.UU. con n.° de serie 62/269.640, presentada el 18 de diciembre de 2015.
ANTECEDENTES
La invención se refiere, en general, a sistemas de percepción, y concretamente a los sistemas de exploración para su uso en conexión con sistemas robóticos y otros sistemas de clasificación que están pensados para su uso en entornos dinámicos que requieren el sistema robótico u otro sistema de clasificación para acomodar el procesamiento de diversos tipos de objetos.
Por ejemplo, muchas operaciones de cumplimiento de pedidos logran una alta eficiencia mediante el empleo de un proceso denominado picking por oleadas. En el picking por oleadas, los pedidos se seleccionan de las estanterías del almacén y se colocan en ubicaciones (por ejemplo, en contenedores) que contienen varios pedidos que se clasifican aguas abajo. En la etapa de clasificación, se identifican los artículos individuales y se consolidan los pedidos de varios artículos, por ejemplo, en una solo contenedor o ubicación de estantería, de forma que puedan empaquetarse y enviarse después a los clientes. El proceso de clasificación de estos artículos se ha realizado tradicionalmente a mano. Un clasificador humano recoge un artículo de un contenedor entrante, encuentra un código de barras en el objeto, escanea el código de barras con un escáner de código de barras portátil, determina a partir del código de barras escaneado la ubicación adecuada del contenedor o estantería para el artículo y coloca después el artículo en la ubicación así determinada del contenedor o estantería donde se ha definido que pertenecen todos los artículos para ese pedido. También se han propuesto sistemas automatizados para el cumplimiento de pedidos. Véase, por ejemplo, la publicación de solicitud de patente de EE.UU. n.° 2014/0244026, que divulga el uso de un brazo robótico junto con una estructura arqueada que se puede mover hasta alcanzar el brazo robótico.
Otras formas de identificar ítems mediante el escaneo de códigos requieren un procesamiento manual o requieren que la ubicación del código se controle o restrinja para que un escáner de código fijo o controlado por un robot (por ejemplo, un escáner de código de barras) pueda detectarlo de forma confiable. Los lectores de códigos de barras operados manualmente son generalmente sistemas fijos o portátiles. Con sistemas fijos, tales como los que se utilizan en los sistemas de punto de venta, el operario sostiene el artículo y lo coloca frente al escáner de forma que el código de barras se oriente hacia los sensores del dispositivo de escaneo, y el escáner, que escanea continuamente y decodifica cualquier código de barras que pueda detectar. Si el artículo no se detecta de inmediato, la persona que sostiene el artículo normalmente necesita variar la posición o la rotación del objeto frente al escáner fijo, para que el código de barras sea más visible para el escáner. Para los sistemas portátiles, la persona que opera el escáner busca el código de barras en el artículo y sostiene después el escáner para que el código de barras del artículo sea visible para el escáner, y presiona después un botón en el escáner portátil para iniciar un escaneo del código de barras.
Del mismo modo, los lectores automáticos de códigos de barras son sistemas fijos o portátiles, y se aplican los mismos principios. En el caso de los escáneres de códigos de barras utilizados habitualmente en aplicaciones industriales, las posibles posiciones de los códigos de barras deben controlarse estrictamente para que sean visibles para uno o varios escáneres. Por ejemplo, uno o más escáneres de códigos de barras pueden colocarse en ubicaciones fijas con respecto a una cinta transportadora, de modo que puedan escanear artículos, normalmente cajas, a medida que pasan por los escáneres. Véase, por ejemplo, la patente estadounidense n.° 5.495.097. En estas instalaciones, la gama de colocación de los códigos de barras es comparativamente limitada, ya que los códigos de barras están en etiquetas fijadas en uno de los cuatro lados o en la parte superior o inferior (por ejemplo, si está boca abajo) de una caja, que pueden presentarse utilizando medios mecánicos sencillos, en orientaciones óptimas para el escaneado.
En todos estos casos, los sistemas emplean sensores, cámaras o sensores de reflectividad láser, así como programas informáticos para detectar los códigos de barras y descodificarlos. Estos métodos tienen limitaciones inherentes que incluyen el rango de distancias de orientaciones relativas al sistema de detección, sobre el que son capaces de escanear códigos de barras de forma fiable. En primer lugar, el código de barras debe estar orientado hacia el escáner; en segundo lugar, el alcance del código de barras debe ser tal que los elementos individuales puedan distinguirse con fiabilidad; y, en tercer lugar, la inclinación y el sesgo del código de barras deben ser tales que los elementos individuales puedan distinguirse con fiabilidad. Los tipos de sensores empleados y la robustez de los esquemas de detección y descodificación del software determinan estos parámetros de rendimiento.
Por lo tanto, sigue existiendo la necesidad de un sistema de identificación de objetos para sistemas robóticos y otros sistemas de clasificación que sea capaz de acomodar la identificación automatizada y el procesamiento de diversos objetos en diversas orientaciones.
El documento US 2013/0202195 A1 divulga un dispositivo y un método que permitirán la adquisición y posterior reconstrucción de objetos con volumen en toda su superficie externa total. El dispositivo y el método comprenden un modo de adquisición sobre el objeto en caída libre, de tal forma que no haya ninguna superficie de apoyo que impida la adquisición de la superficie ocultándola.
El documento US 2013/0051696 A1 divulga un sistema y método de obtención de imágenes de objetos que caen, mediante la captura de múltiples imágenes de un objeto que cae sustancialmente de forma simultánea utilizando múltiples cámaras situadas en múltiples ángulos alrededor del objeto que cae, y determinando una geometría epipolar de las imágenes capturadas. Las imágenes se rectifican para paralelizar las líneas epipolares de la geometría epipolar. Se identifican los puntos de correspondencia entre las imágenes. Al menos una parte del objeto que cae se reconstruye digitalmente utilizando los puntos de correspondencia identificados para crear una reconstrucción digital.
El documento JP H05 324662 A divulga una base de datos 10, un procesador 20, un medio de reconocimiento de formas 30, un medio de cambio de base de datos 40, y un dispositivo de clasificación y transporte 50. La forma y el tamaño de las piezas y el material que viajan en el dispositivo de transporte se introducen en el procesador 20 por los medios de reconocimiento de forma 30, y se comparan con los datos de forma y tamaño extraídos de la base de datos 10, y en el caso de no coincidencia, los datos de la base de datos 10 se corrigen, y el dispositivo de clasificación y transporte 50 se controla por los datos de forma y tamaño de la base de datos 10 después de la corrección, y el destino de transporte de las piezas y el material se clasifican.
El documento US 2015/224544 A1 divulga un método para manipular tubérculos cosechados. El método incluye los pasos de obtener imágenes ópticas (es decir, mediante el sistema de imágenes hiperespectrales) de un flujo a granel de un cultivo de tubérculos cosechado para producir datos de imagen y analizar los datos de imagen para identificar objetos individuales dentro del flujo a granel. Cada objeto identificado se clasifica como aceptable o inaceptable basándose en una comparación con al menos un discriminador y los objetos clasificados como inaceptables se retiran (mediante el actuador eyector) del flujo a granel para proporcionar un flujo clasificado del cultivo de tubérculos cosechado.
SUMARIO
La invención proporciona un sistema para clasificar objetos de acuerdo con la reivindicación independiente 1 anexa. Se proporcionan características opcionales adicionales en las reivindicaciones dependientes adjuntas.
BREVE DESCRIPCIÓN DE LOS DIBUJOS
La siguiente descripción puede entenderse mejor con referencia a los dibujos adjuntos, en los que:
La Figura 1 muestra una vista esquemática ilustrativa isométrica de un sistema de percepción según una realización de la presente invención;
La Figura 2 muestra una vista esquemática ilustrativa del sistema de percepción de la Figura 1;
La Figura 3 muestra una vista esquemática ilustrativa isométrica de un sistema de percepción según otra realización de la presente invención;
La Figura 4 muestra una vista trasera en alzado ilustrativa del sistema de percepción de la Figura 3;
La Figura 5 muestra una vista frontal ilustrativa del sistema de percepción de la Figura 3 tomada a lo largo de la línea 5-5 de la misma;
La Figura 6 muestra una vista lateral ilustrativa del sistema de percepción de la Figura 3 tomada a lo largo de la línea 6-6 de la misma;
La Figura 7 muestra una vista superior ilustrativa del sistema de percepción de la Figura 3;
La Figura 8 muestra una vista esquemática lineal ilustrativa de una porción del interior del sistema de percepción de la Figura 3;
Las Figuras 9A - 9H muestran vistas esquemáticas lineales ilustrativas del interior del sistema de percepción de la Figura 3 mostrando diferentes etapas de iluminación y captura de datos de percepción;
Las Figuras 10A - 10C muestran vistas ilustrativas de un diagrama de flujo que muestra un funcionamiento del sistema de percepción de la Figura 3;
La Figura 11 muestra una vista esquemática ilustrativa de un sistema de iluminación utilizado en el sistema de percepción de la Figura 3;
La Figura 12 muestra una vista esquemática ilustrativa de un sistema de captura de imágenes utilizado en el sistema de percepción de la Figura 3;
Las Figuras 13A - 13R muestran vistas ilustrativas de imágenes tomadas por el sistema de percepción de la Figura 3 (Figuras 13A, 13C, 13E, 13G, 131, 13K, 13M, 130, 13Q), así como los datos de imagen procesados asociados (Figuras 13B, 13D, 13F, 13H, 13J, 13L, 13N, 13P, 13R);
La Figura 14 muestra un sistema de clasificación que incluye el sistema de percepción de la Figura 3 junto con dispositivos de alimentación y un dispositivo de clasificación;
La Figura 15 muestra un sistema de clasificación que incluye el sistema de percepción de la Figura 3 junto con un dispositivo de ajuste de la posición/orientación del artículo que incluye una unidad de percepción de la parte inferior, así como un dispositivo de clasificación; y
La Figura 16 muestra un sistema de clasificación que incluye el sistema de percepción de la Figura 3 junto con un dispositivo de ajuste de posición/orientación de artículos que incluye un ventilador, así como un dispositivo de clasificación.
Los dibujos se muestran únicamente con fines ilustrativos.
DESCRIPCIÓN DETALLADA
De acuerdo con una realización, la invención proporciona un novedoso sistema de percepción de objetos con el fin de clasificar automáticamente objetos individuales en un conjunto. En aplicaciones como la preparación de pedidos, los artículos o mercancías se reúnen en conjuntos heterogéneos y deben clasificarse. Los objetos individuales deben identificarse y, a continuación, dirigirse a ubicaciones específicas para cada objeto. Los sistemas descritos automatizan de forma fiable la identificación de dichos objetos mediante el empleo de escáneres automatizados. Los escáneres buscan diversos códigos, como indicios (por ejemplo, códigos de barras, etiquetas de radiofrecuencia, unidad de mantenimiento de existencias (SKU), código universal de producto (UPC), Digimarc DWCode, etc.).
Operando en conjunción con un sistema robótico de recogida y colocación, los sistemas de acuerdo con diversas realizaciones de la invención automatizan parte del proceso de clasificación, en particular la etapa de identificación de los objetos recogidos. En lugar de que una persona recoja el objeto de un contenedor, por ejemplo, un brazo robótico recoge un artículo de un contenedor. El objeto pasa por delante de una pluralidad de escáneres de códigos de barras y, una vez obtenidos los códigos de identificación del objeto, éste se dirige al contenedor o estantería adecuados. Dado que los escáneres de códigos de barras emplean cámaras o láseres para escanear simbologías 1D o 2D impresas en etiquetas adheridas a objetos, los códigos de barras deben ser visibles para los sensores del escáner para que el escaneado tenga éxito, con el fin de identificar automáticamente elementos en un flujo heterogéneo de objetos arbitrarios, como en un conjunto desordenado de objetos que se encuentran en un contenedor.
Mientras que los escáneres industriales fijos requieren que el código de barras del objeto esté situado de forma que su código de barras sea visible para un escáner, el brazo robótico de la presente invención puede recoger un objeto de un conjunto heterogéneo de objetos donde el código de barras no es visible y dejar caer el objeto en un sistema de percepción de la presente invención. En otras realizaciones, el sistema puede prever que los objetos se dejen caer en el sistema de percepción proporcionando un transportador de alimentación situado por encima del sistema de percepción, y previendo que los objetos se individualicen en el transportador. El resultado es un sistema automatizado de lectura de códigos de barras de objetos arbitrarios en un flujo heterogéneo de objetos que puede utilizarse para identificar los objetos con precisión y fiabilidad.
La clasificación para la realización de pedidos es una aplicación para la identificación automática de objetos a partir de un flujo de objetos heterogéneo. Los escáneres de códigos de barras tienen una amplia variedad de usos adicionales, como la identificación de la unidad de mantenimiento de existencias de un artículo o el seguimiento de paquetes. Los sistemas descritos pueden tener muchos usos en la identificación y clasificación automática de objetos.
De acuerdo con varias realizaciones, por lo tanto, la invención proporciona un método para determinar la identidad de un objeto a partir de una colección de objetos, así como un método para escanear el código de barras de un objeto empleando uno o más escáneres y un sistema de clasificación para procesar de forma diferente diferentes objetos. La invención proporciona además un método para determinar la colocación de escáneres de códigos de barras fijos de modo que se maximice la probabilidad de escanear con éxito un objeto seleccionado por un efector final robótico de acuerdo con ciertas realizaciones, así como un método para determinar si se dejan caer múltiples objetos en el escáner al mismo tiempo.
Un aspecto importante es la capacidad de identificar mediante códigos de barras u otras marcas visuales de los objetos empleando un sistema de percepción en el que se pueden dejar caer los objetos. Los sistemas de escaneo automático no podrían ver los códigos de barras en los objetos que se presentan de manera que sus códigos de barras no estén expuestos o visibles. Como se muestra en la Figura 1, un sistema de percepción 10 de acuerdo con una realización de la presente invención puede incluir una carcasa 12 abierta a través de la cual se puede dejar caer un objeto. En el interior de la carcasa hay una pluralidad de unidades de percepción 14 (por ejemplo, ocho o doce) que se dirigen generalmente hacia el interior de la carcasa desde muchas direcciones diferentes. La carcasa también puede incluir una pluralidad de luces 16 que están programadas para proporcionar una luz brillante dispersa en los momentos en que cada una de las unidades de percepción 14 toma imágenes de un objeto 18 que cae. Cada unidad de percepción 14 puede, por ejemplo, tomar un centenar de imágenes mientras un objeto está cayendo de direcciones como se indica en A en la Figura 2. Las unidades de detección 14 pueden estar conectadas a un sistema de procesamiento 20 que revisa cada una de las imágenes en busca de un identificador único, como un código de barras. Las unidades de percepción pueden incluir cámaras (por ejemplo, 2D o 3D) o escáneres (por ejemplo, un escáner de reflectividad láser, otro tipo de lector de códigos de barras (como escáneres de códigos de barras 1D o 2D, o escáner de identificación por radiofrecuencia), y el sistema de procesamiento 20 puede incluir el software asociado para procesar los datos de percepción. Algunas cámaras están dirigidas horizontalmente, mientras que otras están dirigidas hacia arriba, y algunas están dirigidas hacia abajo, como se muestra. El sistema 10 también puede incluir unidades de detección de entrada que proporcionan una cortina de, por ejemplo, iluminación infrarroja por una fuente 22 a través de la abertura, así como un detector 24 para detectar una interrupción en la iluminación. Las unidades de detección proporcionan una señal de que un objeto ha entrado en el escáner de caída 10.
El sistema de percepción se puede usar en ciertas realizaciones, con un sistema robótico que puede incluir un brazo robótico equipado con sensores y computación, que cuando se combina se supone en la presente memoria que presenta las siguientes capacidades: (a) es capaz de recoger objetos de una clase específica de objetos y separarlos de una corriente de objetos heterogéneos, ya sea que estén revueltos en un contenedor o que estén individualizados en un sistema transportador motorizado o por gravedad; (b) es capaz de mover el objeto a lugares arbitrarios dentro de su espacio de trabajo; (c) es capaz de colocar objetos en un contenedor o ubicación de estantería de salida en su espacio de trabajo; y (d) es capaz de generar un mapa de objetos que puede tomar, representado como un conjunto candidato de puntos de agarre en la celda de trabajo, y como una lista de politopos que encierran el objeto en el espacio.
Los objetos permitidos están determinados por las capacidades del sistema robótico. Se supone que su tamaño, peso y geometría son tales que el sistema robótico puede recogerlos, moverlos y colocarlos. Estos pueden ser cualquier tipo de mercancía, paquetes, encomiendas u otros artículos pedidos que se beneficien de la clasificación automatizada. Cada objeto está asociado a una unidad de mantenimiento de existencias (SKU), que identifica el artículo.
La forma en que llegan los objetos entrantes puede ser, por ejemplo, en una de dos configuraciones: (a) los objetos entrantes llegan apilados en contenedores de objetos heterogéneos; o (b) los artículos entrantes llegan por un transportador en movimiento. La recogida de objetos incluye algunos que tienen códigos de barras expuestos y otros objetos que no tienen códigos de barras expuestos. Se supone que el sistema robótico puede recoger ítems del contenedor o del transportador. La corriente de objetos entrantes es la secuencia de objetos a medida que se descargan del contenedor o del transportador.
La forma en que se organizan los objetos salientes es tal que los objetos se colocan en un contenedor, ubicación de estantería o cubículo, en donde se consolidan todos los objetos correspondientes a un pedido dado. Estos destinos salientes pueden disponerse en conjuntos verticales, conjuntos horizontales, cuadrículas o de alguna otra forma regular o irregular, pero el sistema conoce tal disposición. Se supone que el sistema robótico de recoger y colocar puede colocar objetos en todos los destinos de salida, y el destino de salida correcto se determina a partir de la SKU del objeto.
Se supone que los objetos están marcados en uno o más lugares en su exterior con una marca distintiva visual tal como un código de barras o una etiqueta de identificación por radiofrecuencia (RFID) para que puedan ser identificados con un escáner. El tipo de marca depende del tipo de sistema de escaneo utilizado, pero puede incluir simbologías de códigos de barras 1D o 2D. Pueden emplearse múltiples simbologías o enfoques de etiquetado. Se supone que los tipos de escáneres empleados son compatibles con el enfoque de marcado. La marca, ya sea mediante código de barras, etiqueta RFID u otros medios, codifica una cadena de símbolos, que normalmente es una cadena de letras y números. La cadena de símbolos asocia de forma única el objeto con una SKU.
Las operaciones de los sistemas descritos anteriormente están coordinadas por el sistema de control central 20. Este sistema determina a partir de cadenas de símbolos la SKU asociada con un objeto, así como el destino de salida del objeto. El sistema de control central está compuesto por una o más estaciones de trabajo o unidades centrales de procesamiento (CPU). La correspondencia entre las SKU y los destinos de salida se mantiene mediante el sistema de control central en una base de datos denominada manifiesto. El sistema de control central mantiene el manifiesto comunicándose con un sistema de gestión de almacenes (WMS).
Durante la operación, el amplio flujo de trabajo puede ser generalmente como sigue. Primero, el sistema está equipado con un manifiesto que proporciona el destino de salida para cada objeto de entrada. A continuación, el sistema espera a que los objetos entrantes lleguen a un contenedor o a un transportador. El sistema robótico puede recoger un ítem a la vez del contenedor de entrada y puede colocar cada ítem en el sistema de percepción discutido anteriormente. Si el sistema de percepción reconoce con éxito una marca en el objeto, entonces el objeto se identifica y se envía a una estación de clasificación u otra estación de procesamiento. Si no se identifica el objeto, el sistema robótico puede volver a colocar el objeto en el transportador de entrada y volver a intentarlo, o el transportador puede desviar el objeto a un contenedor de clasificación humana para que lo revise una persona.
La secuencia de ubicaciones y orientaciones de las unidades de percepción se elige para minimizar la cantidad de tiempo promedio o máxima que lleva el escaneo. Nuevamente, si el objeto no se puede identificar, el objeto se puede transferir a un destino de salida especial para objetos no identificados, o se puede devolver a la corriente entrante. Todo este procedimiento funciona en un bucle hasta que se agotan todos los objetos del conjunto entrante. Los objetos en la corriente entrante se identifican, clasifican y enrutan automáticamente a los destinos de salida.
Por lo tanto, según una realización, la invención proporciona un sistema para clasificar objetos que llegan en contenedores entrantes y que deben colocarse en una estantería de contenedores de salida, donde la clasificación se basará en un símbolo identificador único. Las especializaciones clave en esta realización son el diseño específico del sistema de percepción para maximizar la probabilidad de un escaneo exitoso, mientras que simultáneamente se minimiza el tiempo de escaneo promedio. La probabilidad de un escaneo exitoso y el tiempo de escaneo promedio constituyen características clave de rendimiento. Estas características clave de rendimiento están determinadas por la configuración y las propiedades del sistema de percepción, así como por el grupo de objetos y cómo se marcan.
Las dos características clave de rendimiento pueden optimizarse para un grupo de ítems y un método de etiquetado de códigos de barras determinados. Los parámetros de la optimización para un sistema de códigos de barras incluyen cuántos lectores de códigos de barras, dónde y en qué orientación colocarlos, y qué resoluciones de sensor y campos de visión usarán los lectores. La optimización se puede realizar mediante prueba y error, o mediante simulación con modelos del objeto.
La optimización a través de la simulación emplea un modelo de rendimiento de escáner de código de barras. Un modelo de rendimiento de escáner de código de barras es el intervalo de posiciones, orientaciones y tamaño del elemento del código de barras que un símbolo de código de barras puede detectar y decodificar por un escáner de código de barras, donde el tamaño del elemento del código de barras es el tamaño de la característica más pequeña del código de barras. Por lo general, se clasifican en un intervalo mínimo y máximo, un ángulo de desviación máximo, un ángulo de paso máximo y un ángulo de inclinación mínimo y máximo.
El rendimiento normal de los lectores de códigos de barras basados en cámaras es que pueden detectar símbolos de códigos de barras dentro de cierto intervalo de distancias, siempre que tanto el paso como la desviación del plano del símbolo estén dentro del intervalo de más o menos 45 grados, mientras que la inclinación de el símbolo puede ser arbitraria (entre 0 y 360 grados). El modelo de rendimiento del escáner de código de barras predice si se detectará un símbolo de código de barras determinado en una posición y orientación determinadas.
El modelo de rendimiento del escáner de códigos de barras se combina con un modelo de dónde se esperaría que se situaran y orientaran los códigos de barras. Un modelo de emplazamiento de símbolo de código de barras es el intervalo de todas las posiciones y orientaciones, en otras palabras, emplazamientos en las que se espera encontrar un símbolo de código de barras. Para el escáner, el modelo de emplazamiento del símbolo de código de barras es en sí mismo una combinación de un modelo de sujeción de artículos, que predice cómo sujetará los objetos el sistema robótico, así como un modelo de apariencia del ítem-código de barras, que describe las posibles ubicaciones del símbolo de código de barras sobre el objeto. Para el escáner, el modelo de emplazamiento del símbolo de código de barras es en sí mismo una combinación del modelo de apariencia del ítem de código de barras, así como un modelo de emplazamiento del objeto entrante, que modela la distribución de emplazamientos sobre los que los artículos entrantes se presentan al escáner. Estos modelos pueden construirse empíricamente, modelarse usando un modelo analítico, o pueden emplearse modelos aproximados usando modelos de esfera simples para objetos y distribuciones uniformes sobre la esfera como un modelo de apariencia del ítem de código de barras.
La Figura 3 muestra un sistema de percepción 30 de acuerdo con otra realización de la presente invención que incluye una estructura 32 que tiene una abertura 34. La estructura 32 incluye una pluralidad de filas de fuentes (por ejemplo, fuentes de iluminación tales como LED) 36, así como una pluralidad de unidades de percepción de imagen (por ejemplo, cámaras) 38. Las fuentes 36 están dispuestas en filas y cada una está dirigida hacia el centro de la abertura. Las unidades de percepción 38 están también generalmente dirigidas hacia la abertura, aunque, como con la realización de las Figuras 1 y 2, algunas cámaras están dirigidas horizontalmente, mientras que otras están dirigidas hacia arriba y algunas están dirigidas hacia abajo. El sistema 30 incluye también una fuente de entrada (por ejemplo, una fuente de infrarrojos) 40, así como un detector de entrada (por ejemplo, un detector de infrarrojos 42) para detectar cuando un objeto ha entrado en el sistema de detección 30.
Por lo tanto, los LED y las cámaras rodean el interior de la estructura 32, y las cámaras están situadas para ver el interior a través de ventanas que pueden incluir una cubierta de vidrio o plástico (por ejemplo, 44). La estructura 32 puede suspenderse mediante ganchos de bucle 46 o colocarse sobre una abertura y colgarse mediante soportes 48.
La Figura 8 muestra una porción del interior del escáner 30, donde las secciones se muestran dispuestas linealmente. Cada una de las cámaras 38' incluye una porción de cámara 50, así como un espejo 52 en ángulo que proporciona el campo de visión deseado dentro de la estructura 32. De forma similar, las Figuras 9A - 9H muestran, de forma diagramática y lineal, el interior de la estructura 32 dentro de la región de exploración. Tan pronto como el detector de entrada 40, 42 detecta que un artículo ha entrado en la región de escaneado, los LED y las cámaras siguen una secuencia de pasos que capturan muchas imágenes. En particular, como se muestra en 51 en la Figura 9A, se ilumina un primer grupo de LED 36, y se activa un primer grupo de cámaras 38 para tomar una serie de fotografías (un primer grupo de imágenes) del interior del escáner. Como se muestra en 53 en la Figura 9B, se ilumina un segundo grupo de LED 36, y se activa un segundo grupo de cámaras 38 (en este caso una cámara) para tomar una serie de fotografías (un segundo grupo de imágenes) del interior del escáner. Como se muestra en 54 en la Figura 9C, se ilumina un tercer grupo de LED 36, y se activa un tercer grupo de cámaras 38 para tomar una serie de fotografías (un tercer grupo de imágenes) del interior del escáner. Como se muestra en 55 en la Figura 9D, se ilumina un cuarto grupo de LED 36, y se activa un cuarto grupo de cámaras 38 para tomar una serie de fotografías (un cuarto grupo de imágenes) del interior del escáner. Como se muestra en 56 en la Figura 9E, se ilumina un quinto grupo de LED 36, y se activa un quinto grupo de cámaras 38 para tomar una serie de fotografías (un quinto grupo de imágenes) del interior del escáner. Como se muestra en 57 en la Figura 9F, se ilumina un sexto grupo de LED 36, y se activa un sexto grupo de cámaras 38 para tomar una serie de fotografías (un sexto grupo de imágenes) del interior del escáner. Como se muestra en 58 en la Figura 9G, se ilumina un séptimo grupo de LED 36, y se activa un séptimo grupo de cámaras 38 para tomar una serie de fotografías (un séptimo grupo de imágenes) del interior del escáner. Como se muestra en 59 en la Figura 9H, se ilumina un octavo grupo de LED 36, y se activa un octavo grupo de cámaras 38 para tomar una serie de fotografías (un octavo grupo de imágenes) del interior del escáner. Una vez más, las aberturas de la estructura a través de las cuales las cámaras captan imágenes pueden incluir un cristal o plástico 44 transparente. Cada una de las filas de LED 36 puede incluir también una cubierta de vidrio o plástico transparente separada del vidrio o plástico 44 de las aberturas para evitar que la luz se transmita a través del vidrio a cualquier detector 38. Además, el exterior de la estructura puede cubrirse (excepto las aberturas superior e inferior) con una película protectora 33 (por ejemplo, una película ámbar), como se muestra en la Figura 5, que filtra algunas de las longitudes de onda de los l Ed para la protección de las personas que se encuentren en la zona.
Con referencia adicional a las Figuras 10A - 10C, el proceso comienza (paso 1000) con los detectores de entrada 40, 42 detectando si un objeto ha entrado en el escáner (paso 1002). Una vez que esto sucede, el primer grupo de luces se enciende y el primer grupo de cámaras comienza a capturar imágenes (paso 1004). A continuación, se apagan los primeros grupos de luces y cámaras. A continuación, se envía un primer grupo de imágenes capturadas a un núcleo de procesamiento para su tratamiento (paso 1006). El segundo grupo de luces se enciende y el segundo grupo de cámaras comienza a capturar imágenes (paso 1008). A continuación, se apagan los segundos grupos de luces y cámaras. A continuación, se envía un segundo grupo de imágenes capturadas a otro núcleo de procesamiento para que las procese (paso 1010). El tercer grupo de luces se enciende y el tercer grupo de cámaras comienza a capturar imágenes (paso 1012). A continuación, se apagan los terceros grupos de luces y cámaras. A continuación, se envía un tercer grupo de imágenes capturadas a otro núcleo de procesamiento para que las procese (paso 1014). El cuarto grupo de luces se enciende y el cuarto grupo de cámaras comienza a capturar imágenes (paso 1016). A continuación, se apagan los cuartos grupos de luces y cámaras. A continuación, se envía un cuarto grupo de imágenes capturadas a otro núcleo de procesamiento para que las procese (paso 1018). El quinto grupo de luces se enciende y el quinto grupo de cámaras comienza a capturar imágenes (paso 1020). A continuación, se apagan los quintos grupos de luces y las cámaras. A continuación, se envía un quinto grupo de imágenes capturadas a otro núcleo de procesamiento para que las procese (paso 1022). El sexto grupo de luces se enciende y el sexto grupo de cámaras comienza a capturar imágenes (paso 1024). A continuación, se apagan los sextos grupos de luces y cámaras. A continuación, se envía un sexto grupo de imágenes capturadas a otro núcleo de procesamiento para que las procese (paso 1026). El séptimo grupo de luces se enciende y el séptimo grupo de cámaras comienza a capturar imágenes (paso 1028). A continuación, se apagan los séptimos grupos de luces y cámaras. A continuación, se envía un séptimo grupo de imágenes capturadas a otro núcleo de procesamiento para que las procese (paso 1030). El octavo grupo de luces se enciende y el octavo grupo de cámaras comienza a capturar imágenes (paso 1032). A continuación, se apagan los octavos grupos de luces y las cámaras. A continuación, se envía un octavo grupo de imágenes capturadas a otro núcleo de procesamiento para que las procese (paso 1034).
El proceso anterior puede repetirse cualquier número, m, de veces (por ejemplo, 50) (paso 1036). Una vez finalizadas las m repeticiones, el sistema confirma que el elemento ha salido del escáner (paso 1038). A continuación, el sistema determina si se ha encontrado algún código (paso 1040) y, en caso contrario, informa de que no se ha encontrado ningún código (paso 1046). Si se encontró un código, el sistema recopila todos los códigos encontrados (paso 1042) y determina si todos los códigos coinciden entre sí (paso 1044). En caso contrario, el sistema informa de que se ha colocado más de un artículo en el escáner (paso 1050). Si todos los códigos encontrados coinciden entre sí, el sistema determina si se ha colocado más de un artículo en el escáner (paso 1048) determinando si existe demasiado espacio entre las regiones de un artículo. Si es así, el sistema informa de que se ha colocado más de un artículo en el escáner (paso 1050). Si no, el sistema informa de la identificación del código que se encontró (paso 1052) y activa una ruta de clasificación asociada con el código que se encontró (paso 1054). Si no se encontró ningún código (paso 1046) o si el sistema detecta que había más de un ítem en el escáner (paso 1050), el sistema puede preguntar si el operador desea intentar el escaneo nuevamente (o puede estar programado para hacerlo) (paso 1056). En caso afirmativo, el sistema devuelve el/los artículo(s) al flujo de entrada por delante del escáner de caída (paso 1058). Si no es así, el sistema mueve los artículos a una ubicación de clasificación manual para que los clasifique una persona (paso 1060).
La Figura 11 muestra una vista esquemática ilustrativa del sistema de control para las luces en el sistema de la Figura 3. En particular, un procesador 62 está acoplado a la estructura 32 de tal manera que un controlador de luz 66 es dirigido por una unidad de temporización 60 para proporcionar señales de control de iluminación a una unidad de control de distribución 64 en la estructura 32, donde la unidad de control de distribución 64 proporciona control individual a cada uno de la pluralidad de conjuntos de LED 36. Como se muestra en la Figura 11, el procesador 62 también incluye un controlador de cámara 74 que está acoplado a la unidad de temporización 60. El controlador de cámara se comunica a través de los procesadores centrales 72 con los controladores de cámara 70 de la estructura 32, y cada controlador de cámara se comunica con los conjuntos 68 de cámaras 38. Los controladores 70 controlan tanto el disparo de las cámaras como la recepción de los datos de las imágenes capturadas para su procesamiento por cada uno de los respectivos procesadores centrales 72. Los resultados de los procesadores centrales 72 se proporcionan a una unidad de identificación de salida 76.
Las Figuras 13A - 13R muestran imágenes capturadas así como datos de imagen procesados asociados para nueve imágenes durante el movimiento de dos artículos a través del escáner de caída de la Figura 3. En particular, en la Figura 13A no se ve ningún elemento, y los datos de imagen de procesamiento asociados que se muestran en la Figura 13B no muestran ninguna señal. En la Figura 13C, aparece un elemento en la imagen, y los datos de imagen procesados asociados en la Figura 13D muestran la imagen del elemento. Como se muestra en la Figura 13E, aparece un segundo elemento en el campo de visión, y los datos de imagen de procesamiento asociados que se muestran en la Figura 13F muestran el segundo elemento. En esta imagen (así como en los datos de imagen procesados de las figuras 13H y 13J), el sistema detectaría que se ha dejado caer más de un artículo en el escáner porque aparecería demasiada área entre los dos artículos. Como se muestra en la Figura 13G, el segundo elemento sigue apareciendo en el campo de visión, y los datos de imagen de procesamiento asociados se muestran en la Figura 13H. Del mismo modo, como se muestra en la Figura 13I, el segundo elemento sigue apareciendo en el campo de visión, pero comienza a acercarse al primer elemento, y los datos de imagen de procesamiento asociados se muestran en la Figura 13J. Como se muestra en la Figura 13K, el segundo elemento se ha acercado aún más al primer elemento, y los datos de imagen de procesamiento asociados se muestran en la Figura 13L. Como se muestra en las Figuras 13M y 130, el segundo elemento se ha movido muy cerca del primer elemento, y los datos de imagen de procesamiento asociados se muestran respectivamente en las Figuras 13N y 13P. La Figura 13Q muestra que los artículos están saliendo o han salido del escáner, y los datos de imagen de procesamiento asociados se muestran en la Figura 13R. La captura de múltiples imágenes es, por tanto, importante para identificar si se presenta más de un artículo a la vez en el escáner 32.
Como se ha comentado anteriormente, la salida del procesador proporciona una señal indicativa del código identificado del artículo en el escáner, y basándose en esto, un sistema de clasificación puede tomar inmediatamente una acción consistente con el encaminamiento del artículo en la dirección o ruta de procesamiento deseada. Por ejemplo, la figura 14 muestra un sistema de clasificación que emplea una unidad de escaneado de la Figura 3. Los artículos se pueden dejar caer en el escáner por cualquier medio, como por ejemplo, pero sin incluir, un brazo robótico 86 (dejando caer un artículo 84) o un transportador de entrada 90 (dejando caer un artículo 88). En el caso de un brazo robótico 86, el efector final puede emplear sensores de deflexión 85 para detectar si el artículo 84 se está moviendo (por ejemplo, balanceándose) con respecto al brazo robótico 86 (y si es así, esperar hasta que cese el movimiento) antes de dejar caer el artículo en el escáner 32.
El escáner 32 está acoplado al procesador 62 como se discutió anteriormente, y una señal de control de clasificación de salida 63 se proporciona a un sistema de clasificación, como por ejemplo, un controlador 96 de un transportador 94 que proporciona el enrutamiento de dirección de los artículos (por ejemplo, 92) a cualquiera de una pluralidad de contenedores, recipientes o ubicaciones 98, 104, por ejemplo, moviéndose en cualquier dirección como se indica en C. Los artículos 100 y 102, por ejemplo, habían sido enrutados a la ubicación 98, y el artículo 106 había sido enrutado a la ubicación 104.
El sistema también puede incluir un sistema de interrupción que interrumpe la caída de un objeto a través del sistema de percepción. El sistema de interrupción puede ser útil, por ejemplo, cuando el artículo a escanear es una bolsa de plástico (ya sea opaca o transparente), y en particular, cuando el código identificador (como un código de barras) no es visible o fácilmente visible por las unidades de percepción, por ejemplo, si la bolsa está doblada y oscurece el código de barras. Con referencia a la Figura 15, en este caso, el elemento de interrupción puede hacer que la bolsa quede aplastada por una placa de interrupción 120. La placa de interrupción 120 puede incluir otra unidad de detección 124 debajo de una ventana transparente en el elemento de interrupción 120 para detectar indicios identificadores que estén orientados hacia el elemento de interrupción, así como luces 126 que se iluminan cuando la unidad de detección 124 está capturando imágenes como se ha comentado anteriormente. La unidad de interrupción 120 también puede estar provista de un soporte con bisagras 122 que permite que el elemento de interrupción se mueva dentro o fuera de la trayectoria de un elemento que cae de la unidad de escaneado 32. La unidad de interrupción 120 puede estar dentro o debajo de la unidad de exploración 32. De nuevo, el escáner 32 se acopla al procesador 62 como se ha comentado anteriormente, y se proporciona una señal de control de clasificación de salida a un sistema de clasificación, como por ejemplo, un controlador de un transportador 94 que proporciona el enrutamiento de dirección de los artículos (por ejemplo, 92) a cualquiera de una pluralidad de contenedores, recipientes o ubicaciones 98, 104, por ejemplo, moviéndose en cualquier dirección como se indica en C.
En otras realizaciones, el sistema puede incluir un elemento de interrupción que impulsa los artículos más ligeros hacia arriba en dirección inversa durante un breve periodo de tiempo. Con referencia a la Figura 16, en este caso, el elemento interruptor puede hacer que una bolsa de luz sea impulsada hacia arriba por un ventilador 144 unido a un motor 142 que proporciona presión de aire hacia arriba a través de una pantalla 140. El ventilador 144 puede estar situado dentro o debajo de la unidad de exploración 32. De nuevo, el escáner 32 se acopla al procesador 62 como se ha comentado anteriormente, y se proporciona una señal de control de clasificación de salida a un sistema de clasificación, como por ejemplo, un controlador de un transportador 94 que proporciona el enrutamiento de dirección de los artículos (por ejemplo, 92) a cualquiera de una pluralidad de contenedores, recipientes o ubicaciones 98, 104, por ejemplo, moviéndose en cualquier dirección como se indica en C.
Los expertos en la materia apreciarán que pueden realizarse numerosas modificaciones y variaciones a las realizaciones divulgadas anteriormente sin desviarse del alcance de la presente invención definida en las reivindicaciones adjuntas.

Claims (15)

REIVINDICACIONES
1. Un sistema de clasificación de objetos, que comprende:
un sistema de percepción de caídas (10, 30); y
un transportador (94),
en donde el sistema de percepción de caídas (10, 30) comprende:
una estructura de carcasa abierta (12, 32) que tiene un volumen interno, una parte superior abierta en la que se dejan caer uno o más objetos (18) y una parte inferior abierta desde la que caen uno o más objetos (18), en donde los uno o más objetos están marcados en uno o más lugares de su exterior con un código identificador;
una pluralidad de fuentes de iluminación (16) situadas para dirigir la iluminación hacia el volumen interno;
una pluralidad de unidades de percepción (14, 38, 38') situadas para capturar datos de percepción de uno o más objetos que caen dentro del volumen interno, estando dicha pluralidad de unidades de percepción (14, 38, 38') situadas en una pluralidad de ubicaciones (98, 104) entre la parte superior abierta y la parte inferior abierta de la estructura de carcasa abierta (12, 32); y
un procesador (62) acoplado a la pluralidad de unidades de percepción (1438, 38'),
caracterizado porque el procesador está configurado para:
determinar si se encuentra algún código identificador en los datos de percepción capturados por la pluralidad de unidades de percepción (14, 38, 38') de uno o más objetos (18) que caen a través del sistema de percepción de caídas (10, 30);
si no se encuentran códigos identificadores en los datos de percepción, informar de un error de que no se encuentran códigos, y si se encuentran uno o más códigos identificadores en los datos de percepción, recopilar los uno o más códigos identificadores encontrados en los datos de percepción y determinar si todos los uno o más códigos identificadores coinciden entre sí;
si los uno o más códigos identificadores no coinciden entre sí, informar de que se ha dejado caer más de un objeto a través del sistema de percepción de caídas (10, 30), y si los uno o más códigos encontrados en los datos de percepción coinciden entre sí, determinar si se ha colocado más de un objeto en el sistema de percepción de caídas (10, 30) determinando si existe demasiado espacio entre las regiones de un objeto detectado en cualquiera de los datos de percepción;
si existe demasiado espacio entre las regiones del objeto detectadas en cualquiera de los datos de percepción, informar de que se ha dejado caer más de un objeto a través del sistema de percepción de caídas (10, 30) y si no existe demasiado espacio entre las regiones del objeto, emitir una señal indicativa del código identificado del objeto y activar una ruta de clasificación asociada al código identificado;
si no se encuentran códigos identificadores en los datos de percepción o si se determinó que más de un objeto cayó a través del sistema de percepción de caídas (10, 30), o bien dirigir el uno o más objetos para ser devueltos a un flujo de entrada por delante del sistema de percepción de caídas (10, 30) para recapturar los datos de percepción del uno o más objetos que cayeron a través del sistema de percepción de caídas o mover el uno o más objetos a una ubicación de clasificación manual para su clasificación por una persona.
2. El sistema según la reivindicación 1, en donde la pluralidad de unidades de percepción (14, 38, 38') incluye una pluralidad de cámaras (38, 38') y en donde los datos de percepción incluyen datos de imagen.
3. El sistema según la reivindicación 1, en donde la pluralidad de unidades de percepción (14, 38, 38') incluye una pluralidad de escáneres y los datos de percepción incluyen datos de escáner.
4. El sistema según la reivindicación 3, en donde la pluralidad de escáneres son escáneres de identificación por radiofrecuencia.
5. El sistema según la reivindicación 3, en donde la pluralidad de escáneres son escáneres de códigos de barras.
6. El sistema según la reivindicación 5, en donde cada uno de los escáneres de códigos de barras es un escáner de reflectividad láser.
7. El sistema según la reivindicación 1, en donde la pluralidad de fuentes de iluminación (16) están montadas en lados opuestos de la estructura de carcasa abierta (12, 32).
8. El sistema según la reivindicación 1, en donde la pluralidad de fuentes de iluminación incluye una pluralidad de LED (36).
9. El sistema según la reivindicación 1, en donde el sistema de percepción (10, 30) incluye además un elemento de interrupción (120) que es acoplable por un objeto que cae a través del sistema de percepción (10, 30) para alterar una posición u orientación del objeto que cae (18).
10. El sistema según la reivindicación 1, en donde el sistema de percepción de caídas (10, 30) incluye al menos un sistema de sensores (22, 24) para detectar si un objeto ha entrado en la estructura abierta (12, 32).
11. El sistema según la reivindicación 1, en donde la pluralidad de unidades de percepción (14, 38, 38') se proporcionan al menos en las regiones inferior y central de la estructura de carcasa abierta (12, 32).
12. El sistema según la reivindicación 1, en donde la pluralidad de unidades de percepción (14, 38, 38') incluye al menos una unidad de percepción (38') que incluye un espejo (52) situado para permitir que la al menos una unidad de percepción (38') se dirija de manera efectiva sustancialmente a lo largo de la trayectoria del objeto.
13. El sistema según la reivindicación 1, en donde la ruta de clasificación incluye un transportador (94) que está acoplado a un controlador de clasificación (96) que recibe del procesador (62) del sistema de percepción de caídas (10, 30) una señal para controlar el transportador (94).
14. El sistema según la reivindicación 1, en donde la señal de salida del procesador (62) del sistema de percepción de caídas (10, 30) controla el transportador (94) para mover el objeto a una de dos direcciones opuestas.
15. El sistema según la reivindicación 1, en donde el procesador (62) activa una ruta de clasificación asociada con el código identificado proporcionando una señal de control de clasificación de salida (63) a un controlador (96) de un transportador (94) para dirigir el objeto a cualquiera de una pluralidad de depósitos, contenedores o ubicaciones (98, 104).
ES16826518T 2015-12-18 2016-12-15 Sistemas y métodos de percepción para identificar y procesar diversos objetos Active ES2952605T3 (es)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201562269640P 2015-12-18 2015-12-18
US15/228,692 US9937532B2 (en) 2015-12-18 2016-08-04 Perception systems and methods for identifying and processing a variety of objects
PCT/US2016/066786 WO2017106423A1 (en) 2015-12-18 2016-12-15 Perception systems and methods for identifying and processing a variety of objects

Publications (1)

Publication Number Publication Date
ES2952605T3 true ES2952605T3 (es) 2023-11-02

Family

ID=59057542

Family Applications (1)

Application Number Title Priority Date Filing Date
ES16826518T Active ES2952605T3 (es) 2015-12-18 2016-12-15 Sistemas y métodos de percepción para identificar y procesar diversos objetos

Country Status (6)

Country Link
US (6) US9937532B2 (es)
EP (1) EP3391159B1 (es)
CN (2) CN108700869B (es)
CA (1) CA3009102C (es)
ES (1) ES2952605T3 (es)
WO (1) WO2017106423A1 (es)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2862793C (en) * 2012-01-26 2019-12-31 Hanmi It Co., Ltd. Scanner, scanning apparatus and scanning method for a shelf
ES2952517T3 (es) 2015-09-11 2023-10-31 Berkshire Grey Operating Company Inc Sistemas robóticos y métodos para identificar y procesar diversos objetos
US10730078B2 (en) 2015-12-04 2020-08-04 Berkshire Grey, Inc. Systems and methods for dynamic sortation of objects
CA3178222A1 (en) 2015-12-04 2017-06-08 Berkshire Grey Operating Company, Inc. Systems and methods for dynamic processing of objects
US9937532B2 (en) 2015-12-18 2018-04-10 Berkshire Grey Inc. Perception systems and methods for identifying and processing a variety of objects
EP3538961B1 (en) 2016-11-08 2023-01-25 Berkshire Grey Operating Company, Inc. Systems and methods for processing objects
US10538394B2 (en) 2016-11-28 2020-01-21 Berkshire Grey, Inc. Systems and methods for providing singulation of objects for processing
CA3155737C (en) 2016-12-06 2023-11-14 Berkshire Grey Operating Company, Inc. Systems and methods for providing for the processing of objects in vehicles
CN110431097B (zh) 2017-03-20 2022-04-08 伯克希尔格雷营业股份有限公司 用于处理包括运输车辆的物体的系统和方法
CA3061181C (en) 2017-04-24 2023-10-03 Berkshire Grey, Inc. Systems and methods for providing singulation of objects for processing using object movement redistribution
ES2844349T3 (es) * 2017-06-21 2021-07-21 Inst Tecnologico De Informatica Dispositivo para la adquisición y reconstrucción de objetos por inspección visual
EP4299260A3 (en) 2017-08-02 2024-04-10 Berkshire Grey Operating Company, Inc. Systems and methods for acquiring and moving objects having complex outer surfaces
DE102018114222A1 (de) * 2018-06-14 2019-12-19 INTRAVIS Gesellschaft für Lieferungen und Leistungen von bildgebenden und bildverarbeitenden Anlagen und Verfahren mbH Verfahren zum Untersuchen von übereinstimmenden Prüfobjekten
ES2831149T3 (es) * 2018-10-15 2021-06-07 Fraunhofer Ges Forschung Sistema y procedimiento para comprobar la forma de un objeto de prueba
US10399778B1 (en) * 2018-10-25 2019-09-03 Grey Orange Pte. Ltd. Identification and planning system and method for fulfillment of orders
CA3117600A1 (en) 2018-10-25 2020-04-30 Berkshire Grey, Inc. Systems and methods for learning to extrapolate optimal object routing and handling parameters
US11878327B2 (en) * 2019-03-13 2024-01-23 Digimarc Corporation Methods and arrangements for sorting items, useful in recycling
WO2021178826A1 (en) * 2020-03-06 2021-09-10 Berkshire Grey, Inc. Systems and methods for providing order fulfillment using a conveyor takeaway system
WO2023183492A1 (en) 2022-03-23 2023-09-28 Berkshire Grey Operating Company, Inc. Buffering systems and methods for dynamic processing of objects

Family Cites Families (221)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US837415A (en) 1904-08-30 1906-12-04 Hugh Frederick Marriott Means for surveying bore-holes.
US3864566A (en) * 1957-09-18 1975-02-04 American Optical Corp Optical systems and associated detecting means
US3734286A (en) * 1971-12-27 1973-05-22 L Simjian Article handling apparatus
JPS54131278A (en) 1978-03-31 1979-10-12 Ishikawajima Harima Heavy Ind Co Ltd Method of assortment
US4186836A (en) * 1978-04-10 1980-02-05 Ore-Ida Foods, Inc. Differential reflectivity method and apparatus for sorting indiscriminately mixed items
GB2084531A (en) 1980-09-09 1982-04-15 Koson Crisplant A S Feeding articles to a sorter conveyor
AT391438B (de) 1982-10-25 1990-10-10 Sticht Fertigungstech Stiwa Teilezufuehreinrichtung, insbesondere fuer montage- bzw. verpackungsmaschinen
US4722653A (en) 1985-04-30 1988-02-02 Ibm Corporation Material handling for automated assembly facility
US4704694A (en) 1985-12-16 1987-11-03 Automation Intelligence, Inc. Learned part system
EP0235488B1 (fr) 1986-09-19 1990-01-24 REDOUTE CATALOGUE Société Anonyme: Installation de manutention robotisée
US4759439A (en) 1987-01-29 1988-07-26 Dominion Chain Inc. Drive mechanism
US4846335A (en) 1987-02-03 1989-07-11 Dominion Chain Inc. Sorter tilt mechanism
JPS63310406A (ja) 1987-06-12 1988-12-19 Seibu Electric & Mach Co Ltd 物品の荷揃え方法及びその装置
US4895242A (en) 1987-10-26 1990-01-23 G B Instruments, Inc. Direct transfer sorting system
US4856642A (en) 1987-10-30 1989-08-15 Figgie International Inc. Sortation conveyor
DE3919865A1 (de) 1989-06-19 1990-12-20 Maier Kg Andreas Verfahren und einrichtung zum messen der konturen eines koerpers
JPH0395001A (ja) 1989-09-08 1991-04-19 Toppan Moore Co Ltd データ処理装置用自動倉庫
US5495097A (en) * 1993-09-14 1996-02-27 Symbol Technologies, Inc. Plurality of scan units with scan stitching
CA2022289A1 (en) 1990-07-30 1992-01-31 Karl Hartlepp Sorting machine
JP3222196B2 (ja) 1992-05-18 2001-10-22 富士通株式会社 形状データ制御の搬送格納システム
WO1994025186A1 (de) 1993-04-30 1994-11-10 Robert Massen Verfahren und vorrichtung zur sortierung von materialteilen
JP3211526B2 (ja) 1993-12-21 2001-09-25 富士通株式会社 ピッキングシステム
JP3436320B2 (ja) 1994-04-18 2003-08-11 富士通株式会社 非線形システムの出力軌道と動特性の制御方法および装置
JP3303283B2 (ja) * 1994-07-27 2002-07-15 株式会社サタケ 豆類色彩選別機
US6060677A (en) * 1994-08-19 2000-05-09 Tiedemanns-Jon H. Andresen Ans Determination of characteristics of material
JPH08157016A (ja) 1994-12-02 1996-06-18 Mitsubishi Heavy Ind Ltd 縦横走行搬送台車を用いた格納設備
JPH08244919A (ja) 1995-03-15 1996-09-24 Fujitsu Ltd 物品払い出し処理装置
DE19510392C2 (de) 1995-03-22 1997-06-19 Siemens Ag Sortierverfahren und -vorrichtung zum lagegeordneten Einschlichten eines flachen Warenstücks in einen Sammelbehälter
EP0753823A1 (en) 1995-07-05 1997-01-15 Opticon Sensors Europe B.V. Optical scanner for generating scanning lines on all sides of an object
US5794789A (en) 1995-12-13 1998-08-18 Payson; William H. Semi-automated integrated sort system
US6382515B1 (en) * 1995-12-18 2002-05-07 Metrologic Instruments, Inc. Automated system and method for identifying and measuring packages transported through a laser scanning tunnel
US6545240B2 (en) * 1996-02-16 2003-04-08 Huron Valley Steel Corporation Metal scrap sorting system
IT1292445B1 (it) * 1996-08-08 1999-02-08 Truetzschler & Co Procedimento e dispositivo in un impianto per la preparazione alla filatura (tintoria) per il riconoscimento e la separzione di sostanze
US5839566A (en) 1996-08-30 1998-11-24 United Parcel Service Of America, Inc. Belt-carried tilt tray sorter
DE59706943D1 (de) 1996-09-09 2002-05-16 Siemens Ag Verfahren und Einrichtung zum Steuern einer Vorrichtung zum Verteilen von Sortiergutstücken auf physikalische Zielstellen
EP0837415A1 (en) 1996-10-14 1998-04-22 Opticon Sensors Europe B.V. Scanning system with radially directed, multiple-reading scanning units
WO1998019799A1 (en) 1996-11-04 1998-05-14 National Recovery Technologies, Inc. Teleoperated robotic sorting system
US5996316A (en) 1997-04-25 1999-12-07 The Coca-Cola Company System and method for order packing
US20060045672A1 (en) 1997-07-22 2006-03-02 Maynard Michael D Rail carriage and rail carriage system
US6390756B1 (en) 1997-10-29 2002-05-21 Siemens Dematic Postal Automation, L.P. Transfer of cartridges containing flat articles
US6059092A (en) 1997-12-23 2000-05-09 Fanuc Robotics North America, Inc. Material handling robot and rail assembly
US6246023B1 (en) 1999-02-22 2001-06-12 Siemens Electrocom, L.P. Segmented tilt tray sorter
US6579053B1 (en) 1999-03-15 2003-06-17 Abb Flexible Automation, Inc. Robotic containerization and palletizing system
US6721444B1 (en) 1999-03-19 2004-04-13 Matsushita Electric Works, Ltd. 3-dimensional object recognition method and bin-picking system using the method
US6208908B1 (en) 1999-04-27 2001-03-27 Si Handling Systems, Inc. Integrated order selection and distribution system
US6401936B1 (en) 1999-04-30 2002-06-11 Siemens Electrocom, L.P. Divert apparatus for conveyor system
US6323452B1 (en) 1999-08-05 2001-11-27 United Parcel Service Of America, Inc. Feeding system and method for placing a plurality of objects on a tray of an automated sorting system
GB2356383B (en) 1999-10-15 2003-12-24 Red Ledge Ltd Sorting scannable articles
US6505093B1 (en) 2000-05-03 2003-01-07 Si Handling Systems, Inc. Automated order filling method and system
US20010056313A1 (en) 2000-05-08 2001-12-27 Osborne William Joseph Object locating and retrieving system utilizing labels
JP2002175543A (ja) * 2000-12-05 2002-06-21 Sanyo Electric Co Ltd 3次元モデリング装置
US6892890B2 (en) 2001-01-16 2005-05-17 Abb Automation, Inc. Dynamic sortation of items in a containerization system
US6820032B2 (en) 2001-02-05 2004-11-16 National Instruments Corporation System and method for scanning a region using conformal mapping
US6610954B2 (en) 2001-02-26 2003-08-26 At&C Co., Ltd. System for sorting commercial articles and method therefor
US6533099B2 (en) 2001-03-14 2003-03-18 Hytrol Conveyor Company, Inc. Article sorting system and method
TW510998B (en) 2001-05-08 2002-11-21 Mitac Int Corp On-site production management and storage system
US6885904B2 (en) 2001-05-18 2005-04-26 Advanced Vision Particle Measurement, Inc. Control feedback system and method for bulk material industrial processes using automated object or particle analysis
US6889814B2 (en) 2001-05-30 2005-05-10 Rapistan Systems Advertising Corp. Article sortation system
US7138596B2 (en) 2001-08-01 2006-11-21 Pippin James M Apparatus and method for mail sorting
US6762382B1 (en) 2001-10-02 2004-07-13 Innovative Picking Technologies, Inc. Track-type sortation system
JP2003150230A (ja) 2001-11-14 2003-05-23 Sharp Corp 作業画像管理システムおよび作業画像管理方法
JP3804540B2 (ja) 2002-01-28 2006-08-02 日本電気株式会社 薄物郵便物道順組立仕分装置
FR2841801B1 (fr) 2002-07-03 2004-08-20 Solystic Procede et machine pour la preparation de la tournee du facteur en une seule passe
US6878896B2 (en) 2002-07-24 2005-04-12 United Parcel Service Of America, Inc. Synchronous semi-automatic parallel sorting
US9102336B2 (en) 2002-10-16 2015-08-11 Cross Belt Ip, L.L.C. Portable bin for sortation system
US8776694B2 (en) 2002-10-16 2014-07-15 Cross Belt Ip, Llc Monorail sortation system
JP3805310B2 (ja) 2003-01-30 2006-08-02 ファナック株式会社 ワーク取出し装置
US20050002772A1 (en) 2003-07-03 2005-01-06 Stone Robert L. Mail container handling system
WO2005022076A2 (en) 2003-08-23 2005-03-10 General Inspection, Llc Part inspection apparatus
DE10340143A1 (de) 2003-08-26 2005-03-31 SSI Schäfer PEEM GmbH Kommissionierplatz und Verfahren zum Kommissionieren
US7347376B1 (en) * 2003-09-17 2008-03-25 Hand Held Products, Inc. Apparatus and method for verifying print quality of an encoded indicium
DE102004001181A1 (de) 2004-01-05 2005-08-04 Dieter Liebel Vorrichtung und Verfahren zum automatischen Sortieren
DE102004013353B4 (de) 2004-03-17 2007-12-13 Kht Kommissionier- Und Handhabungstechnik Gmbh Verfahren zur Übergabe quaderförmiger Packungseinheiten in einem automatischen Lager und Lager zur Durchführung des Verfahrens
DE102004023474A1 (de) 2004-05-12 2005-12-15 Multivac Sepp Haggenmüller Gmbh & Co. Kg Verpackungsmaschine und Verfahren zum Verschließen von Behältern
PL1747155T3 (pl) 2004-05-19 2009-01-30 Ssi Schaefer Peem Gmbh Sposób kompletowania dostaw i urządzenie do kompletowania dostaw
US7221276B2 (en) * 2004-08-02 2007-05-22 United Parcel Service Of America, Inc. Systems and methods for using radio frequency identification tags to communicating sorting information
US7671293B2 (en) 2004-09-08 2010-03-02 Lockheed Martin Corporation System and method for dynamic allocation for bin assignment
US20060190356A1 (en) 2004-12-02 2006-08-24 Yaron Nemet System and method for quality assurance
US7516848B1 (en) 2005-03-10 2009-04-14 Amazon Technologies, Inc. Method and apparatus for sensing correct item placement for multi-destination picking
AT501896B1 (de) 2005-07-18 2006-12-15 Tgw Transportgeraete Gmbh Kommissionierverfahren sowie kommissionierfördervorrichtung für ein lager
EP1760012B1 (de) 2005-09-02 2008-07-23 Dematic GmbH & Co. KG Verfahren und Vorrichtung zur Bereitstellung einer vorbestimmbaren Sequenz von Transportbehältern
DE102005061309A1 (de) 2005-12-21 2007-07-05 Siemens Ag Sortiervorrichtung
JP2007182286A (ja) 2006-01-05 2007-07-19 Nissan Motor Co Ltd ピッキング方法およびピッキングシステム
US9415422B2 (en) 2006-03-10 2016-08-16 Siemens Industry, Inc. Mail sorting system
JP4883616B2 (ja) 2006-08-04 2012-02-22 オークラ輸送機株式会社 仕分装置
US8406917B2 (en) 2006-08-16 2013-03-26 Salahuddin F. Khan System and method for random mixed palletizing of products
US7313464B1 (en) 2006-09-05 2007-12-25 Adept Technology Inc. Bin-picking system for randomly positioned objects
WO2008076942A1 (en) 2006-12-15 2008-06-26 Braintech Canada, Inc. System and method of identifying objects
US8276739B2 (en) 2007-01-25 2012-10-02 Bastian Material Handling, Llc Three-dimensional automated pick module
DE102007023909A1 (de) 2007-05-23 2008-11-27 Siemens Ag Ladesystem für Fluggepäck und Verfahren zum manuellen oder maschinell unterstützten Sortieren
DE102007038834A1 (de) 2007-08-16 2009-02-19 Deutsche Post Ag Verfahren und Vorrichtung zur Vereinzelung von Stückgut
WO2009039483A1 (en) * 2007-09-21 2009-03-26 Omnicare Inc. Automated label verify systems and methods for dispensing pharmaceuticals
EP2053350A1 (de) 2007-10-23 2009-04-29 Zumbach Electronic Ag Vorrichtung zum optischen Vermessen und/oder Prüfen von länglichen Produkten
WO2009081008A2 (fr) 2007-12-13 2009-07-02 Solystic Procédé pour trier des envois postaux en utilisant un processus d'allocation dynamique de sorties de tri
US8228170B2 (en) * 2008-01-10 2012-07-24 International Business Machines Corporation Using sensors to identify objects placed on a surface
TWI391187B (zh) 2008-07-25 2013-04-01 Hon Hai Prec Ind Co Ltd 分穴系統以及使用該分穴系統之分穴方法
DE102008036564B4 (de) 2008-07-30 2010-09-30 SSI Schäfer PEEM GmbH Skalierbarer Versandpuffer mit integrierter Sortierfunktion und Verfahren dazu
WO2010017528A2 (en) 2008-08-08 2010-02-11 Snap-On Incorporated Image-based inventory control system
DE102008037658A1 (de) 2008-08-14 2010-02-25 Knapp Logistik Automation Gmbh Verfahren und Vorrichtung zum Kommissionieren von Stückgut mit einem Kommissionierautomaten und beigeordnetem Durchlaufregal
AT507339B1 (de) 2008-09-26 2011-06-15 Stiwa Holding Gmbh Verfahren und anlage zum aufnehmen und/oder bearbeiten von objekten
FR2938508B1 (fr) 2008-11-14 2010-12-17 Sidel Participations Installation de palettisation combinee avec acces securise
FR2939769B1 (fr) 2008-12-11 2010-12-31 Ballina Freres De Procede et installation de distribution de produits pour leur conditionnement
DE102009011229A1 (de) 2009-03-02 2010-09-16 Knapp Logistik Automation Gmbh Anordnung und Verfahren zum Erkennen und Steuern von mit einem Code versehenen Stückgütern
US8662314B2 (en) * 2009-03-19 2014-03-04 Key Technology, Inc. Sorting apparatus and method utilizing a mechanical diverter
US8306663B2 (en) 2009-05-13 2012-11-06 Robotic Harvesting LLC Robot with 3D grasping capability
CN104308849B (zh) 2009-05-22 2016-06-01 丰田自动车东日本株式会社 作业辅助机器人系统
WO2011031523A2 (en) 2009-08-27 2011-03-17 Abb Research Ltd. Robotic picking of parts from a parts holding bin
EP2473424A4 (en) 2009-09-04 2016-10-19 Sodium Ltd CONTAINER STORAGE AND REMOVAL SYSTEM AND METHOD THEREFOR
DE102009041590A1 (de) 2009-09-15 2011-03-31 Knapp Ag Verfahren und System zum Ein- und Auslagern von Behältern in ein oder aus einem Lagerregal mittels Satellitenfahrzeug
AT508843A1 (de) 2009-10-02 2011-04-15 Tgw Mechanics Gmbh Kommissioniersystem und verfahren zur beladung von ladungsträgern
US8891895B2 (en) * 2009-12-09 2014-11-18 University Of Utah Research Foundation Systems and methods for imaging of falling objects
ES2460952T3 (es) 2009-12-10 2014-05-16 Instituto Tecnológico De Informática Dispositivo y método para la adquisición y reconstrucción de objetos
DE102010002317B4 (de) 2010-02-24 2018-06-14 Apologistics Gmbh System und Verfahren zur Vereinzelung und Kommissionierung von Artikeln
US8403614B2 (en) 2010-03-24 2013-03-26 Bastian Solutions, Llc Robotic automated storage and retrieval system mixed pallet build system
JP5489000B2 (ja) * 2010-08-31 2014-05-14 株式会社安川電機 作業装置及び部品ピッキングシステム
JP5685027B2 (ja) 2010-09-07 2015-03-18 キヤノン株式会社 情報処理装置、物体把持システム、ロボットシステム、情報処理方法、物体把持方法およびプログラム
US8718814B1 (en) 2010-12-29 2014-05-06 Amazon Technologies, Inc. Robotic induction and stowage in materials handling facilities
US8502967B2 (en) 2011-02-01 2013-08-06 Cooper S. K. Kuo Apparatus for optical inspection
JP5382053B2 (ja) 2011-04-15 2014-01-08 株式会社安川電機 ロボットシステムおよびロボットシステムを用いた検査方法
JP5787642B2 (ja) 2011-06-28 2015-09-30 キヤノン株式会社 対象物保持装置、対象物保持装置の制御方法、およびプログラム
JP5807448B2 (ja) 2011-08-26 2015-11-10 株式会社サタケ 光学式選別機用シュート及び光学式選別機
JP5781398B2 (ja) 2011-08-26 2015-09-24 テルモ株式会社 膜状組織移送器具及び膜状組織移送方法
US8823801B2 (en) * 2011-10-17 2014-09-02 James Scott Jacobson Digital X-ray capture device
CN102363354A (zh) * 2011-11-02 2012-02-29 宁波安信数控技术有限公司 一种基于机械视觉的注塑机模具保护系统和方法
EP2776177A2 (de) 2011-11-11 2014-09-17 BÖWE SYSTEC GmbH Vorrichtung und verfahren zum zusammenführen von karten und kartenträgern, zum handhaben von karten und/oder zum sortieren von karten sowie kartenmagazin
GB2486939B (en) 2011-12-01 2012-11-21 Data Detection Technologies Ltd Method and apparatus for dispensing items
CN104220350B (zh) * 2012-01-31 2016-12-14 Abb研究有限公司 用于馈送元件的方法和系统
CN104137051B (zh) 2012-02-21 2017-06-16 亚马逊技术有限公司 用于材料处理设施中的产品自动拾取的系统和方法
CN202539084U (zh) 2012-03-01 2012-11-21 成都三茁科技有限公司 多位扫描识别系统
DE102012203579B3 (de) 2012-03-07 2013-06-06 Hauni Maschinenbau Ag Messvorrichtung und Messverfahren zur Bestimmung einer Messgröße an einem Ende eines stabförmigen Produkts der Tabak verarbeitenden Industrie
JP5975685B2 (ja) 2012-03-09 2016-08-23 キヤノン株式会社 情報処理装置、情報処理方法
US8843236B2 (en) 2012-03-15 2014-09-23 GM Global Technology Operations LLC Method and system for training a robot using human-assisted task demonstration
DE102012102333A1 (de) 2012-03-20 2013-09-26 Apologistics Gmbh Automatisiertes System und Verfahren zur Kommissionierung von Artikeln, insbesondere von Apothekenartikeln
IN2014DN08666A (es) 2012-04-20 2015-05-22 Smiths Medical Asd Inc
JP5469216B2 (ja) 2012-07-31 2014-04-16 ファナック株式会社 バラ積みされた物品をロボットで取出す装置
JP5670397B2 (ja) 2012-08-29 2015-02-18 ファナック株式会社 バラ積みされた物品をロボットで取出す装置及び方法
IE20120388A1 (en) * 2012-09-07 2014-03-12 Odenberg Engineering Ltd Method and apparatus for handling harvested root crops
US20150298321A1 (en) 2012-10-16 2015-10-22 Beckman Coulter, Inc. System and method including specimen gripper
JP5642759B2 (ja) 2012-10-31 2014-12-17 ファナック株式会社 物品取出装置及び物品取出方法
WO2014078861A1 (en) * 2012-11-19 2014-05-22 Altria Client Services Inc. On-line oil and foreign matter detection system and method employing hyperspectral imaging
US9758303B2 (en) 2013-02-04 2017-09-12 Flextronics Ap, Llc Pick to light system
WO2014130937A1 (en) 2013-02-24 2014-08-28 Intelligrated Headquaters Llc Goods to robot for order fulfillment
US9233470B1 (en) 2013-03-15 2016-01-12 Industrial Perception, Inc. Determining a virtual representation of an environment by projecting texture patterns
DE102013005116A1 (de) 2013-03-18 2014-09-18 SSI Schäfer PEEM GmbH Automatisierter Kommissionierplatz zum manuellen Kommissionieren von Artikeln aus Lagerbehältern in einem Auftragsbehälter
AT514162A1 (de) 2013-04-09 2014-10-15 Knapp Ag Lager- und Kommissioniersystem zum vollautomatisierten Erkennen und Kommissionieren von Artikeln
JP5786896B2 (ja) 2013-06-07 2015-09-30 株式会社安川電機 ワーク検出装置、ロボットシステム、被加工物の製造方法及びワーク検出方法
WO2014201093A1 (en) * 2013-06-11 2014-12-18 Covectra, Inc. Systems and methods for aggregating serialized goods
EP2823899A1 (en) 2013-07-11 2015-01-14 Applied Materials Italia S.R.L. Method, computer programm, controller and binning apparatus for distributing wafers to bins
US9550624B2 (en) 2013-09-09 2017-01-24 Dematic Corp. Autonomous mobile picking
SG2013069893A (en) 2013-09-13 2015-04-29 Jcs Echigo Pte Ltd Material handling system and method
WO2015058297A1 (en) 2013-10-25 2015-04-30 Vakanski Aleksandar Image-based trajectory robot programming planning approach
KR102202232B1 (ko) 2014-02-05 2021-01-13 한국전자통신연구원 소포 구분 시스템 및 그 방법
GB201402263D0 (en) 2014-02-10 2014-03-26 Ocado Ltd Intermediate holding facility for picking station
US9259844B2 (en) 2014-02-12 2016-02-16 General Electric Company Vision-guided electromagnetic robotic system
US9628411B2 (en) 2014-02-21 2017-04-18 Dialogic Corporation Efficient packet processing at video receiver in multimedia communications over packet networks
KR101413393B1 (ko) * 2014-02-25 2014-06-27 송승욱 3차원 모델링을 위한 촬상장치 및 그 제어방법
JP6203084B2 (ja) 2014-03-06 2017-09-27 株式会社東芝 配達物区分処理システム、および配達物区分処理方法
US20170066597A1 (en) 2014-03-28 2017-03-09 Nec Corporation Information processing device, information processing system, distribution system, information processing method, and program storage medium
CN203830302U (zh) 2014-04-09 2014-09-17 青岛利菱自控工程有限公司 快递件智能自动分拣装置
US10127514B2 (en) 2014-04-11 2018-11-13 Intelligrated Headquarters Llc Dynamic cubby logic
FR3020303B1 (fr) 2014-04-25 2016-07-15 Sileane Procede et installation de prehension automatique d'un objet.
CN103942518B (zh) 2014-04-29 2017-10-10 上海市计算技术研究所 三维环绕追踪式射频识别系统及其货物检测方法
CA2951151A1 (en) 2014-06-04 2015-12-10 Intelligrated Headquarters Llc Truck unloader visualization
AT515991B1 (de) 2014-06-24 2021-11-15 Tgw Logistics Group Gmbh Verfahren und Fördertechnikelement zum Bündeln von Förderströmen in einer Förderanlage
US9636825B2 (en) 2014-06-26 2017-05-02 Robotex Inc. Robotic logistics system
DE102014111396B4 (de) 2014-08-11 2021-08-12 Ssi Schäfer Automation Gmbh System zum Entladen von Stückgütern
US20160136816A1 (en) 2014-11-14 2016-05-19 James Charles Pistorino Sorting apparatus and method
US9381645B1 (en) 2014-12-08 2016-07-05 Amazon Technologies, Inc. System for automating manipulation of items
US9492923B2 (en) 2014-12-16 2016-11-15 Amazon Technologies, Inc. Generating robotic grasping instructions for inventory items
US9256775B1 (en) 2014-12-23 2016-02-09 Toshiba Tec Kabushiki Kaisha Image recognition apparatus and commodity information processing apparatus
FR3031048B1 (fr) 2014-12-24 2016-12-30 Solystic Machine de tri postal avec une entree d'alimentation comprenant un bras robotise et un convoyeur a plat incline
US9771222B2 (en) 2014-12-31 2017-09-26 Fives Intralogistics Corp. Vision based conveyor package flow management system
FR3032366B1 (fr) 2015-02-10 2017-02-03 Veolia Environnement-VE Procede de tri selectif
FR3032364B1 (fr) 2015-02-11 2017-01-27 Solystic Installation pour la separation et l'individualisation d'objets postaux heterogenes avec un systeme de vision a sources laser
EP3261809B1 (en) 2015-02-25 2022-09-21 Dematic Corp. Automated order fulfillment system and method
US9120622B1 (en) 2015-04-16 2015-09-01 inVia Robotics, LLC Autonomous order fulfillment and inventory control robots
US9821464B2 (en) 2015-05-04 2017-11-21 Bby Solutions, Inc. Random-access robotic inventory dispensary: operation prioritization
CN104858150A (zh) 2015-05-21 2015-08-26 大连华工创新科技股份有限公司 集装箱式快递与自动分拣系统
US9747512B2 (en) 2015-06-25 2017-08-29 Toshiba Tec Kabushiki Kaisha Article recognition apparatus and image processing method for article recognition apparatus
US10311634B2 (en) 2015-07-21 2019-06-04 IAM Robotics, LLC Three dimensional scanning and data extraction systems and processes for supply chain piece automation
CN105057219B (zh) 2015-07-22 2018-11-27 杭州亚美利嘉科技有限公司 包裹分捡系统及方法
US9600798B2 (en) 2015-08-12 2017-03-21 Amazon Technologies, Inc. Automated materials handling facility
DE102015114393A1 (de) 2015-08-28 2017-03-02 SSI Schäfer Noell GmbH Lager- und Systemtechnik Lager- und Kommissioniersystem
US10265872B2 (en) 2015-09-09 2019-04-23 Berkshire Grey, Inc. Systems and methods for providing dynamic communicative lighting in a robotic environment
ES2952517T3 (es) * 2015-09-11 2023-10-31 Berkshire Grey Operating Company Inc Sistemas robóticos y métodos para identificar y procesar diversos objetos
US9718188B2 (en) 2015-09-21 2017-08-01 Amazon Technologies, Inc. Networked robotic manipulators
US9926138B1 (en) 2015-09-29 2018-03-27 Amazon Technologies, Inc. Determination of removal strategies
US10048697B1 (en) 2015-10-29 2018-08-14 Vecna Technologies, Inc. Mobile robot with conveyor system
US9821345B2 (en) * 2015-11-06 2017-11-21 Glenn STERKEL Apparatus and method for sorting objects by rebound behavior
WO2017083574A1 (en) 2015-11-13 2017-05-18 Berkshire Grey Inc. Sortation systems and methods for providing sortation of a variety of obejcts
CA3178222A1 (en) 2015-12-04 2017-06-08 Berkshire Grey Operating Company, Inc. Systems and methods for dynamic processing of objects
US10730078B2 (en) * 2015-12-04 2020-08-04 Berkshire Grey, Inc. Systems and methods for dynamic sortation of objects
US9937532B2 (en) 2015-12-18 2018-04-10 Berkshire Grey Inc. Perception systems and methods for identifying and processing a variety of objects
EP3402613A1 (en) 2016-01-12 2018-11-21 United States Postal Service Systems and methods for high throughput sorting
US9751693B1 (en) 2016-02-01 2017-09-05 Amazon Technologies, Inc. Automated shipment set item consolidation
CA3117170C (en) 2016-02-08 2023-08-29 Berkshire Grey, Inc. Systems and methods for providing processing of a variety of objects employing motion planning
JP6614330B2 (ja) 2016-03-03 2019-12-04 村田機械株式会社 一時保管システム
DK179085B1 (en) 2016-03-21 2017-10-16 Apm Terminals Man Bv Container handling equipment controller arrangement
US10384872B2 (en) 2016-08-30 2019-08-20 Intelligrated Headquarters, Llc Robotic put wall
US10168693B2 (en) 2016-09-15 2019-01-01 Bext Holdings, Inc. Systems and methods of use for commodities analysis, collection, resource-allocation, and tracking
DE112017004045T5 (de) 2016-09-26 2019-05-23 Intelligrated Headquarters, Llc Vollständig validierter materialtransport mit pendelbehälterliefersystem
EP3538961B1 (en) 2016-11-08 2023-01-25 Berkshire Grey Operating Company, Inc. Systems and methods for processing objects
US10538394B2 (en) 2016-11-28 2020-01-21 Berkshire Grey, Inc. Systems and methods for providing singulation of objects for processing
US10029865B1 (en) 2016-12-16 2018-07-24 Amazon Technologies, Inc. Parallel recirculating gantry system on a rollercoaster-style track
CN110582454B (zh) 2017-03-15 2021-08-03 伯克希尔格雷股份有限公司 用于存储、检索和处理包括可堆叠半圆形塔的对象的系统和方法
CN113233078B (zh) 2017-03-17 2022-09-16 伯克希尔格雷运营股份有限公司 用于处理物体的包括线性机架系统的系统和方法
EP3601108A1 (en) 2017-03-20 2020-02-05 Berkshire Grey, Inc. Systems and methods for processing objects including an auto-shuttle system
CN110431097B (zh) 2017-03-20 2022-04-08 伯克希尔格雷营业股份有限公司 用于处理包括运输车辆的物体的系统和方法
CN113562378A (zh) 2017-03-20 2021-10-29 伯克希尔格雷股份有限公司 用于处理物体的包括线性机架系统的系统和方法
WO2018175425A1 (en) 2017-03-20 2018-09-27 Berkshire Grey, Inc. Systems and methods for processing objects including mobile matrix carrier systems
EP3602437B1 (en) 2017-03-22 2024-05-01 Berkshire Grey Operating Company, Inc. Systems and methods for processing objects, including automated radial processing stations
CN110662707B (zh) 2017-03-23 2021-12-14 伯克希尔格雷股份有限公司 用于处理包括自动移动矩阵箱的物体的系统和方法
CN114148666B (zh) 2017-03-23 2024-01-05 伯克希尔格雷营业股份有限公司 包括自动线性处理站的用于处理物体的系统和方法
ES2973481T3 (es) 2017-03-23 2024-06-20 Berkshire Grey Operating Company Inc Sistema y método para procesar objetos, incluyendo portadores matriciales móviles automatizados
CN110691742B (zh) 2017-03-24 2022-09-09 伯克希尔格雷营业股份有限公司 包括自动处理的用于处理物体的系统和方法
CN113955367B (zh) 2017-04-18 2023-09-12 伯克希尔格雷营业股份有限公司 包括空间高效的分配站和自动化输出处理的用于处理物体的系统和方法
CA3061181C (en) 2017-04-24 2023-10-03 Berkshire Grey, Inc. Systems and methods for providing singulation of objects for processing using object movement redistribution
US10226794B2 (en) 2017-07-18 2019-03-12 Intelligrated Headquarters, Llc Dynamic tray spacing
JP6965646B2 (ja) 2017-09-06 2021-11-10 株式会社ダイフク 搬送車、及び、搬送設備
JP6687591B2 (ja) 2017-12-26 2020-04-22 ファナック株式会社 物品搬送装置、ロボットシステムおよび物品搬送方法
ES2831149T3 (es) * 2018-10-15 2021-06-07 Fraunhofer Ges Forschung Sistema y procedimiento para comprobar la forma de un objeto de prueba

Also Published As

Publication number Publication date
US10730077B2 (en) 2020-08-04
EP3391159A1 (en) 2018-10-24
EP3391159B1 (en) 2023-05-31
CA3009102A1 (en) 2017-06-22
US20190262868A1 (en) 2019-08-29
US20220250121A1 (en) 2022-08-11
US9937532B2 (en) 2018-04-10
US10737299B2 (en) 2020-08-11
CA3009102C (en) 2023-06-13
US11351575B2 (en) 2022-06-07
WO2017106423A1 (en) 2017-06-22
US20240207898A1 (en) 2024-06-27
US20200368785A1 (en) 2020-11-26
CN108700869A (zh) 2018-10-23
CN114970574A (zh) 2022-08-30
CN108700869B (zh) 2022-05-24
US11986859B2 (en) 2024-05-21
US20180178255A1 (en) 2018-06-28
US20170173638A1 (en) 2017-06-22

Similar Documents

Publication Publication Date Title
ES2952605T3 (es) Sistemas y métodos de percepción para identificar y procesar diversos objetos
ES2952517T3 (es) Sistemas robóticos y métodos para identificar y procesar diversos objetos
ES2929729T3 (es) Sistemas de clasificación para proporcionar clasificación de una variedad de objetos
ES2941985T3 (es) Sistemas y métodos para procesar objetos
WO2015145982A1 (ja) 情報処理装置、情報処理システム、物流システム、情報処理方法およびプログラム記憶媒体
EP2847710B1 (en) System and method for reading optical codes on bottom surface of items
EP4114766A2 (en) Systems and methods for providing order fulfillment using a recirculating routing system