ES2957942T3 - Dispositivo y método para controlar un flujo de material en un nodo de flujo de material - Google Patents

Dispositivo y método para controlar un flujo de material en un nodo de flujo de material Download PDF

Info

Publication number
ES2957942T3
ES2957942T3 ES18726438T ES18726438T ES2957942T3 ES 2957942 T3 ES2957942 T3 ES 2957942T3 ES 18726438 T ES18726438 T ES 18726438T ES 18726438 T ES18726438 T ES 18726438T ES 2957942 T3 ES2957942 T3 ES 2957942T3
Authority
ES
Spain
Prior art keywords
sensor
objects
node
sensor data
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES18726438T
Other languages
English (en)
Inventor
Max Winkler
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SSI Schaefer Automation GmbH Austria
Original Assignee
SSI Schaefer Automation GmbH Austria
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SSI Schaefer Automation GmbH Austria filed Critical SSI Schaefer Automation GmbH Austria
Application granted granted Critical
Publication of ES2957942T3 publication Critical patent/ES2957942T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/10009Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation sensing by radiation using wavelengths larger than 0.1 mm, e.g. radio-waves or microwaves
    • G06K7/10366Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation sensing by radiation using wavelengths larger than 0.1 mm, e.g. radio-waves or microwaves the interrogation device being adapted for miscellaneous applications
    • G06K7/10415Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation sensing by radiation using wavelengths larger than 0.1 mm, e.g. radio-waves or microwaves the interrogation device being adapted for miscellaneous applications the interrogation device being fixed in its position, such as an access control device for reading wireless access cards, or a wireless ATM
    • G06K7/10425Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation sensing by radiation using wavelengths larger than 0.1 mm, e.g. radio-waves or microwaves the interrogation device being adapted for miscellaneous applications the interrogation device being fixed in its position, such as an access control device for reading wireless access cards, or a wireless ATM the interrogation device being arranged for interrogation of record carriers passing by the interrogation device
    • G06K7/10435Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation sensing by radiation using wavelengths larger than 0.1 mm, e.g. radio-waves or microwaves the interrogation device being adapted for miscellaneous applications the interrogation device being fixed in its position, such as an access control device for reading wireless access cards, or a wireless ATM the interrogation device being arranged for interrogation of record carriers passing by the interrogation device the interrogation device being positioned close to a conveyor belt or the like on which moving record carriers are passing
    • G06K7/10445Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation sensing by radiation using wavelengths larger than 0.1 mm, e.g. radio-waves or microwaves the interrogation device being adapted for miscellaneous applications the interrogation device being fixed in its position, such as an access control device for reading wireless access cards, or a wireless ATM the interrogation device being arranged for interrogation of record carriers passing by the interrogation device the interrogation device being positioned close to a conveyor belt or the like on which moving record carriers are passing the record carriers being fixed to further objects, e.g. RFIDs fixed to packages, luggage, mail-pieces or work-pieces transported on a conveyor belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/08Logistics, e.g. warehousing, loading or distribution; Inventory or stock management
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G1/00Storing articles, individually or in orderly arrangement, in warehouses or magazines
    • B65G1/02Storage devices
    • B65G1/04Storage devices mechanical
    • B65G1/137Storage devices mechanical with arrangements or automatic control means for selecting which articles are to be removed
    • B65G1/1373Storage devices mechanical with arrangements or automatic control means for selecting which articles are to be removed for fulfilling orders in warehouses
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G43/00Control devices, e.g. for safety, warning or fault-correcting
    • B65G43/08Control devices operated by article or material being fed, conveyed or discharged
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G43/00Control devices, e.g. for safety, warning or fault-correcting
    • B65G43/10Sequence control of conveyors operating in combination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/10544Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum
    • G06K7/10821Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum further details of bar or optical code scanning devices
    • G06K7/10861Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum further details of bar or optical code scanning devices sensing of data fields affixed to objects or articles, e.g. coded labels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/08Logistics, e.g. warehousing, loading or distribution; Inventory or stock management
    • G06Q10/087Inventory or stock management, e.g. order filling, procurement or balancing against orders
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G2203/00Indexing code relating to control or detection of the articles or the load carriers during conveying
    • B65G2203/02Control or detection
    • B65G2203/0208Control or detection relating to the transported articles
    • B65G2203/0216Codes or marks on the article
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G2203/00Indexing code relating to control or detection of the articles or the load carriers during conveying
    • B65G2203/04Detection means
    • B65G2203/041Camera

Abstract

La invención se refiere a un dispositivo y un método para controlar un flujo de material (18) en un sistema de almacenamiento y recolección (10) en un punto nodal (12) controlado por sensor del flujo de material (18), donde se determina una futura dirección del flujo de material. o se va a decidir la velocidad del flujo de material (18), en donde al menos una región de entrada (28) del punto de nodo (12) se detecta mediante un sensor preferiblemente único (22), teniendo dicho método los siguientes pasos: generar (S10) datos del sensor (46) por medio del sensor (22), datos del sensor que representan el flujo de material (18), que está definido por uno o más objetos de flujo de material (36) que se acercan al punto de nodo (12) aguas abajo en un campo visual (26) del sensor (22), en particular en la zona de entrada (28) del punto nodal (12); comprobar (S16) si los datos del sensor (46) para cada uno de los objetos que se acercan (36-1, 36-2) incluyen al menos una característica de objeto asociada (40) que permite una identificación fiable del objeto correspondiente (36); y, si los datos del sensor (46) para cada uno de los objetos (36-1, 36-2) incluyen al menos una característica asociada (40) que permite una identificación confiable, controlar (S18) el flujo de material (18) en el punto de nodo (12) en base a los datos del sensor (46); o, si los datos del sensor (46) no incluyen al menos una característica asociada (40) que permite una identificación confiable para cada uno de los objetos que se acercan (36-1, 36-2) (S16), controlar (S26) el material. flujo (18) en el punto de nodo (12), al menos para aquellos de los objetos (36-1, 36-2) para los cuales la característica asociada (40) no está incluida en los datos del sensor (46), sobre la base de una fusión de información (S22) de los datos del sensor (46) con datos adicionales (50) previamente generados provenientes de al menos una fuente de información (52) que difiere del sensor (22) del punto de nodo (12), en donde los datos adicionales (50) incluyen otras características del objeto (40), que junto con las características (40) de los datos del sensor (46) permiten una identificación suficientemente fiable (S24). (Traducción automática con Google Translate, sin valor legal)

Description

DESCRIPCIÓN
Dispositivo y método para controlar un flujo de material en un nodo de flujo de material
La presente invención se refiere a un dispositivo o sistema y a un procedimiento para controlar un flujo de materiales en un sistema de almacenamiento y recogida en un nodo del flujo de materiales controlado por sensores, donde el flujo de materiales se divide aguas abajo en al menos dos direcciones de salida.
En general, se entiende por flujo de materiales una secuencia de procesos de almacenamiento, transporte y manipulación. Para dirigir y guiar los objetos del flujo de materiales, es decir, los objetos del flujo de materiales, a través de un sistema (logístico) de almacenamiento y preparación de pedidos, se ha utilizado hasta ahora un número muy elevado de sensores (técnicamente lo más sencillos y baratos posible), en particular interruptores de proximidad fotoeléctricos, barreras fotoeléctricas y escáneres. Estos sensores se utilizan en todas partes dentro de un sistema global, especialmente en los nodos (cruces, bifurcaciones, puntos de unión, etc.) del flujo de materiales. A menudo se utilizan varios sensores simultáneamente en los nodos. Un objetivo general es poder realizar el "seguimiento" y el "rastreo". En logística (interna), el rastreo y el seguimiento se refieren al seguimiento (interno) de los objetos del flujo de materiales.
Uno de los objetivos del seguimiento es poder determinar y recuperar la ubicación exacta del objeto dentro del sistema global en cualquier momento. Sobre la base de esta información, se pueden optimizar los procesos y reducir las capacidades no utilizadas, por ejemplo, mediante la planificación exacta del flujo de materiales, la asignación de un almacén, una entrada de mercancías o similares. Por seguimiento se entiende la localización de un objeto desde su origen hasta su destino. El seguimiento se refiere al rastreo desde el cliente final hasta el punto de producción original.
Además de los sensores sencillos y económicos, como los interruptores de proximidad fotoeléctricos, las barreras fotoeléctricas y los escáneres antes mencionados, cada vez se utilizan más las cámaras con fines intralogísticos. En el documento DE 102006 015689 A1 se describe un sistema de control del flujo de materiales que utiliza una cámara de vídeo. Las imágenes de estado de la cámara se evalúan para determinar una posición real del objeto a transportar en una zona predeterminada del sistema. La cámara de vídeo está dispuesta verticalmente por encima de un sistema transportador, por ejemplo. Las imágenes de estado se evalúan para determinar una posición real de los bienes transportados (objetos de flujo de material), que se compara a continuación con una posición objetivo para generar las correspondientes señales de control del transportador basadas en la comparación objetivo-real. En el documento DE 102011 055 455 A1, se utiliza una cámara de vídeo para determinar las posiciones de los objetos dentro de un contenedor de transporte, los contenedores de transporte que se transportan en un sistema transportador. El documento DE 10 2011 053 547 A1 divulga el uso de cámaras de vídeo para supervisar una operación de transferencia de un objeto transportado por un robot situado entre dos transportadores paralelos. En particular, las marcas de identificación y las dimensiones de las mercancías transportadas se determinan mediante los datos de la cámara. En el documento DE 102010 002 317 A1 se describe un sistema similar. Además, en el documento DE 102010001 569 A1, el estado de llenado de un eje de una máquina automática de preparación de pedidos se supervisa mediante una cámara de vídeo. Por tanto, las cámaras de vídeo ya se utilizan con fines especiales en intralogística. Sin embargo, siempre se presupone implícitamente que se conoce con certeza la identidad de los objetos que se van a manipular.
El documento DE 10 2007 035 272 A10 divulga un procedimiento para identificar mercancías de transporte, en particular piezas de equipaje, con una multitud de sensores. Los antecedentes tecnológicos pueden encontrarse en el libro "Materialfluss in Logistiksystemen" (6a ed., Berlín, Heidelberg, Nueva York: Springer 2009, páginas 329-339). El documento US 2008/144880 A1, según su resumen, describe un procedimiento y un sistema que comprenden un sistema informático y sensores de imagen que capturan datos de imagen de un objeto, como una canal, a medida que se desplaza por una instalación de procesamiento y se convierte en productos alimenticios individuales. El sistema informático analiza los datos de imagen para crear una "mancha" del objeto que se va a supervisar. La información de origen referenciada con el objeto a supervisar puede asociarse a la mancha del objeto. El "blob" puede ser utilizado para rastrear e identificar el objeto y para determinar cuando uno o más objetos adicionales han sido convertidos a partir del objeto monitoreado. El sistema informático puede crear blobs para los objetos adicionales y asociar la información referenciada con los nuevos blobs. En una forma de realización, el sistema informático es capaz de asociar la información de origen para una unidad de origen particular de productos alimenticios con productos alimenticios convertidos continuamente que serán convertidos por la unidad de origen. El documento US 2009/321511 describe una línea de transporte con un nodo en donde se identifican los objetos o sus partes para clasificarlos posteriormente en distintos contenedores. La identificación se realiza en primer lugar con un lector de identificación. Sólo si esto no permite una identificación fiable se utiliza una cámara. La cámara registra, por ejemplo, la forma, el patrón o los indicios del objeto y los compara con una base de datos.
Sin embargo, casi no existen soluciones al problema de reducir el número de sensores necesarios para el seguimiento y la localización en el sistema global y que se utilizan, en particular, para el control del flujo de materiales dentro de un sistema de almacenamiento y preparación de pedidos.
Por lo tanto, es una tarea de la presente invención superar las desventajas antes mencionadas mediante un dispositivo correspondiente y un procedimiento correspondiente.
Esta tarea se resuelve mediante un procedimiento de acuerdo con la reivindicación 1.
Una ventaja de la presente invención, es decir, influir en el flujo de material en el nodo, se consigue preferentemente con una sola tecnología de sensores, a saber, con la cámara (de vídeo), por ejemplo. La cámara sustituye a una multitud de sensores (por ejemplo, interruptores de proximidad fotoeléctricos, barreras fotoeléctricas, etc.) que se utilizaban habitualmente. Otra ventaja es que, por ejemplo, las posiciones de parada, de expulsión, de desviación, de aceleración y similares pueden detectarse e influirse independientemente de la posición del sensor gracias al (gran) campo de visión de la cámara. No se trata de controlar el flujo de material con cámaras per se, sino de eliminar una desventaja importante de la cámara, que es que la cámara no puede ver las características de identificación del objeto en absoluto o no puede resolverlas suficientemente. Esta desventaja se remedia mediante la fusión de información, combinando y evaluando las distintas fuentes de información y combinándolas para resolver el problema concreto.
La invención permite el seguimiento de objetos dentro del sistema de almacenamiento y recogida con un número mínimo de sensores. Se pueden utilizar sensores baratos y tecnológicamente sencillos, en particular sistemas de cámaras (de vídeo) baratos, cuyo campo de aplicación limitado se compensa mediante la fusión de información. El sensor es una cámara, en la que al menos una característica es reconocible ópticamente y en la que al menos una característica es preferentemente un código de barras, una combinación de colores individualizadora, una marca de fabricante individualizadora, un contorno individualizador y/o una dimensión o tamaño individualizador. Estas características pueden extraerse y reconocerse a partir de los datos del sensor mediante un procesamiento de imágenes convencional. El procesamiento de imágenes puede hacer uso de procedimientos conocidos de reconocimiento de imágenes y patrones.
Además, es preferible que el campo de visión de la cámara se seleccione tan grande que no se puedan resolver los códigos de barras visibles.
El campo de visión es entonces muy grande, por lo que muchos de los objetos y también muchos de los nodos, incluidos los objetos situados en ellos, se supervisan simultáneamente con un solo sensor. El número de sensores necesarios en el sistema global se reduce aún más. La resolución de las cámaras pasa a un segundo plano, lo que hace que el precio sea más favorable. La falta de resolución se compensa mediante la fusión de información. Las cámaras se utilizan preferentemente para determinar la posición y/o la orientación de los objetos que se aproximan. En particular, la al menos una fuente de información comprende un control de gestión de almacén, un puesto de trabajo y/o una entrada de mercancías.
Se trata de fuentes de información clásicas que, de todos modos, ya están presentes en los sistemas convencionales de almacén y preparación de pedidos.
Los datos adicionales comprenden, para cada uno de los objetos que se aproximan, al menos uno de los siguientes parámetros: un orden en donde los objetos se aproximan al nodo; una distancia relativa de los objetos sucesivos; y un momento en donde un objeto respectivo se añadió al flujo de material; una ubicación de alimentación en la que el objeto respectivo se añadió al flujo de material; una trayectoria que el objeto respectivo ha recorrido a través del sistema hasta el momento; y una velocidad dependiente de la ubicación a la que el objeto respectivo se desplaza a través del sistema.
Estos parámetros son información que en la mayoría de los casos ya está disponible en el sistema de almacenamiento y preparación de pedidos.
También es ventajoso que otra fuente de información esté definida por una barrera de luz, un sensor de luz, un escáner (código de barras/RFID/NFC) y/o una báscula.
Estos sensores ya están presentes en los sistemas convencionales de almacenamiento y preparación de pedidos y también se utilizarán en el futuro, al menos en los nodos neurálgicos de flujo de materiales.
El control del flujo de materiales implica el accionamiento de un actuador en el nodo.
En este caso, es posible que el objeto respectivo cambie su estado de movimiento, en particular su dirección y/o su velocidad, en el nodo de la manera deseada.
Además, se propone opcionalmente que la etapa de control comprenda: Detectar cada uno de los objetos que se aproximan a partir de los datos del sensor; extraer características asociadas para cada uno de los objetos detectados; y para cada uno de los objetos detectados, determinar si las características asociadas extraídas permiten la identificación segura.
En particular, la fusión de información comprende la fusión de datos de los datos del sensor con los datos adicionales fusionando y completando un conjunto de datos del sensor parcheado correspondiente que no comprende la característica asociada necesaria para la identificación segura con un conjunto de datos adicional, el conjunto de datos adicional que comprende una variable, en particular una de las características, presente tanto en el conjunto de datos del sensor como en el conjunto de datos adicional.
El procedimiento comprende además la etapa opcional de: Comprobar si el conjunto de datos de sensor fusionado y completado comprende una de las características que comprende la identificación suficientemente segura.
En particular, la identificación suficientemente segura puede definirse mediante un umbral variable para el grado de identificación. Este grado puede ser, por ejemplo, del 60%, 70%, 80% o 90% de una identificación segura (100%) en la que la identificación es única o incluso unívoca.
Además, el problema se resuelve mediante un dispositivo de acuerdo con la reivindicación 12.
Ejemplos de formas de realización de la invención se muestran en el dibujo y se explicarán con más detalle en la siguiente descripción. En ellas:
Fig. 1 una vista en perspectiva de un nodo de un flujo de materiales en un sistema de almacén y preparación de pedidos parcialmente representado;
Fig. 2 un diagrama de bloques de un sistema de almacenaje y preparación de pedidos;
Fig. 3 un diagrama de flujo de un procedimiento para controlar un flujo de materiales; y
Fig. 4 una vista en perspectiva de dos nodos adyacentes para ilustrar diferentes escenarios de transporte.
Fig. 1 muestra una vista en perspectiva de un nodo 12 ejemplar (de flujo de material) en un sistema 10 de almacenamiento y preparación de pedidos, que de nuevo se muestra sólo en parte. El nodo 12 se implementa, por ejemplo, mediante un sistema transportador 14 (por ejemplo, transportador de rodillos 16, transportador de cinta o similar). En la Fig. 1, se muestra un transportador de rodillos 16 sobre unos pies que no se muestran con más detalle. Un flujo de material 18 se indica mediante flechas luminosas en el transportador de rodillos 16. El punto de unión 12 está diseñado como un punto de ramificación 20 ejemplar en forma de T (en la vista superior).
En el punto de unión 12 se ha dispuesto un único sensor 22 para controlar el flujo de material 18 (por ejemplo, fijo). El sensor 22 está formado por una cámara (de vídeo) 24, que tiene un campo de visión 26, indicado por una línea discontinua en la Fig. 1 y que tiene, por ejemplo, una extensión cónica con la cámara 24 como origen. El campo de visión 26 cubre preferentemente un área relativamente grande que incluye el nodo 12, por ejemplo centralmente. El campo de visión 26 puede dimensionarse de tal manera que un área de entrada 28 (que incluye un elemento de entrada de manipulación de material), las dos áreas de salida 30 (que incluyen los correspondientes elementos de salida de manipulación de material), y un área de intersección 32 situada en el centro, a la que las áreas de entrada y salida 28 y 30 son adyacentes, sean captadas de forma fiable por la cámara 24. En particular, se detectan los movimientos de los objetos de flujo de material 36 que se aproximan al área de intersección 32 (de izquierda a derecha en la Fig. 1).
En la zona de intersección 32, por ejemplo, hay un dispositivo de extracción 34 en forma de cinta transportadora de dos vías, que no se describe aquí con más detalle. Las vías o correas del transportador de banda están dispuestas en espacios entre rodillos (no mostrados y designados con más detalle aquí) del transportador de rodillos 16. El dispositivo de elevación 34 puede elevarse y bajarse en relación con el transportador de rodillos 16. Las cintas del dispositivo de elevación 34 están orientadas de tal manera que los objetos de flujo de material 36 pueden descargarse perpendicularmente a la dirección de transporte original. Para ello, las cintas previamente bajadas se elevan entre los rodillos, de modo que los objetos 36 situados sobre las cintas son elevados por los rodillos.
En lugar del dispositivo de elevación 34, también se pueden proporcionar otros actuadores como alternativa (o complemento). Otros actuadores ejemplares son: Dispositivos de alineación, dispositivos de empuje, dispositivos de etiquetado, elevadores, o similares.
En la Fig. 1, se muestran dos objetos 36-1 y 36-2 en la zona del nodo 12. También pueden acercarse más o menos objetos 36 a la zona del nodo. También pueden acercarse al nodo 12 más o menos objetos 36. Los objetos 36-1 y 36-2 se transportan a una distancia entre sí, pero también podrían transportarse juntos sin distancia entre sí (como un compuesto). Los objetos 36 se muestran aquí de forma ejemplar como contenedores cuboides, que en el presente caso se transportan como mercancías transportadas sin un portador de carga (por ejemplo, bandeja, contenedor, paleta o similar) a través del transportador de rodillos 16. Se entiende que los objetos 36 pueden realizarse mediante cualquier tipo de mercancías (por ejemplo, mercancías de preparación de pedidos, cargas unitarias, paquetes, etc.) manipuladas en el sistema de almacenamiento y preparación de pedidos 10. Los objetos 36 también pueden estar formados por mercancías (transportadas) que incluyan un portacargas (no representado). Una función importante del sensor 22 es detectar el flujo de material 18 en la zona del nodo 12 para proporcionar información sobre los objetos 36-1 y 36-2 a un controlador de flujo de material 38 (véase la Fig. 2), que no se muestra aquí, para dirigir los objetos 36 en la dirección deseada (por ejemplo, a la zona de salida 30-1). En el ejemplo de la Fig. 1, el flujo de material 18 comprende los dos objetos 36-1 y 36-2 que se mueven hacia el nodo 12. El flujo de material 16 puede incluir, entre otras cosas, información sobre los objetos 36, como su posición y velocidad actuales en el transportador de rodillos. Sin embargo, la identidad de los objetos 36-1 y 36-2 es de particular interés.
Para controlar correctamente los objetos 36-1 y 36-2 en el nodo 12, es decir, para influir correctamente en ellos en términos de flujo de material (por ejemplo, para moverlos a un destino deseado), los objetos 36 deben ser identificados inequívocamente, en particular de forma única, a más tardar en la zona de intersección 32. Esta identificación es asistida por ordenador en tiempo real, en particular mientras los objetos 36 son transportados (continuamente) a la zona de intersección 32.
La identificación de los objetos 36 se basa generalmente en características 40, tales como códigos de barras 42, marcas del fabricante (por ejemplo, logotipo) 44 o similares, que se describirán con más detalle a continuación y que son detectadas, evaluadas y reconocidas ópticamente por el sensor 22 o la cámara 24 en la zona de entrada 28 de la intersección 12. Los datos correspondientes del sensor 46 se transmiten en forma de señal desde el sensor 22 a un dispositivo de evaluación 48. La transmisión de la señal o los datos correspondientes también puede ser inalámbrica.
El dispositivo de evaluación 48 evalúa los datos del sensor 46 comprobando si están presentes una o más características 40 para cada uno de los objetos 36 detectados que permitan una identificación fiable de los respectivos objetos 36. El dispositivo de evaluación puede estar dispuesto para analizar los datos del sensor 46 en función de las características 46, como se explicará con más detalle a continuación. Sin embargo, este análisis (extracción) de las características 40 también puede ser realizado por otra entidad (no mostrada). El dispositivo de análisis 48 está dispuesto además para realizar una evaluación de las características 40 extraídas de los datos del sensor 46 (si existen), con el fin de determinar si la identificación segura para cada uno de los objetos 36-1 y 36-2 es posible en absoluto.
Existen diferentes grados de "identificación segura". El código de barras 42 permite generalmente una identificación fiable al cien por cien de los objetos 36, siempre que el código de barras 42 sea visible y resoluble para la cámara 24. La marca del fabricante 44 (por ejemplo, un logotipo específico de la empresa) no siempre permite una identificación fiable al cien por cien. Es posible, por ejemplo, que en el sistema de almacenamiento y preparación de pedidos 10 haya varios objetos 36 del mismo fabricante, que difieran en cuanto al tipo de objeto, de modo que una identificación fiable, en particular única o incluso unívoca, de la marca del fabricante 44 no sea suficiente para identificar (al 100%) de forma fiable el tipo de objeto 36 correspondiente.
En este caso (insuficiente), se realiza una identificación "suficientemente segura" sobre la base de una fusión de información, como se explicará con más detalle a continuación.
En el caso de una fusión de información, además de los datos del sensor 46, es decir, en particular, además de las características 40 extraídas de los mismos, el dispositivo de evaluación 50 también utiliza datos adicionales 50 en la evaluación o valoración, que se originan a partir de al menos una fuente de información 52 que es diferente del sensor 22 del nodo 12. Los datos adicionales 50 han sido generados en el proceso de evaluación o valoración. Los datos adicionales 50 se han generado previamente, en particular aguas arriba con respecto al sensor 22, y comprenden -por ejemplo, además de la marca del fabricante 44- otras características 40 del objeto que, junto con la característica o características 40 procedentes de los datos del sensor 46, permiten la identificación suficientemente segura para cada uno de los objetos 36-1 y 36-2. La identificación suficientemente segura no tiene por qué ser necesariamente una identificación segura al cien por cien. Pueden definirse umbrales para el grado de identificación (tales como 60%, 70%, 90% o similares) para permitir al dispositivo de evaluación 48 tomar una decisión sobre a cuál de las regiones de salida 30-1 y 30-2 dirigir el objeto 36 correspondiente.
En general, es posible que el dispositivo de evaluación 48 realice una identificación fiable para el objeto 36-1, por ejemplo, pero no para el otro objeto 36-2. En este caso, el objeto 36-1 no puede ser identificado. En este caso, el objeto 36-1 puede ser dirigido con o sin fusión de información. El objeto 36-2, por el contrario, se controla en cualquier caso en términos de flujo de material mediante fusión de información (sobre la base de los datos del sensor 46 y los datos adicionales 50). El dispositivo de evaluación 48 toma esta decisión para cada uno de los objetos 36-1 y 36-2 que se aproximan al nodo 12, como se explicará más adelante en referencia a la Fig. 3.
El término "fusión de información" se entiende generalmente como procedimientos por los cuales los datos de diferentes sensores, es decir, de una o más fuentes de información 52, se combinan con el objetivo de obtener un conocimiento nuevo y más preciso sobre los valores medidos o detectados (en este caso, las imágenes contenidas en los datos del sensor 46) y los eventos. La fusión de información puede incluir la fusión de sensores, la fusión de datos y la detección o medición distribuida. Los principios básicos de la fusión de información se conocen desde hace mucho tiempo y se describirán con más detalle a continuación.
La fusión de información se utiliza para controlar (por ejemplo, desviar, detener, acelerar, alinear, etc.) objetos 36 en el nodo 12 en términos de flujo de material cuyas características asociadas 40, que son específicas del objeto o individualizables (de forma única), no son detectables en absoluto o no son detectables con suficiente precisión por el sensor 22. El objeto 36-1 podría, por ejemplo, colocarse en la vía de rodillos 16 exactamente con el lado en donde está aplicado el código de barras 42, lo que permite una identificación fiable. En este caso, sin embargo, la cámara 24 no podría detectar el código de barras 42. En otro caso, la resolución de la cámara 24 podría no ser suficiente para hacer utilizable el código de barras 42 (no obstante visible). La resolución del sensor 22 depende, entre otras cosas, del tamaño del campo de visión 26. Preferentemente, el tamaño del campo de visión 26 se elige muy grande para utilizar el menor número posible de sensores 22 en el sistema global 10. Preferentemente, el campo de visión 26 es al menos lo suficientemente grande como para abarcar la zona de entrada 28 y las dos zonas de salida 30-1 y 30-2. Sin embargo, también es posible hacer que el campo de visión 26 sea aún mayor para que, por ejemplo, varios nodos 12 sean detectados simultáneamente por el mismo sensor 22.
La única fuente de información 52 está implementada por el control de flujo de material 38 (cf. Fig. 2). En el ejemplo de la Fig. 1, el control de flujo de material 38 (no representado) posee, por ejemplo, información sobre el hecho de que el segundo objeto 36-2, más pequeño, se ha desplazado sobre el transportador de rodillos 16 en un punto de alimentación (por ejemplo, en la zona de recepción de mercancías 56 o en una estación de trabajo 58, cf. Fig. 2), que no se muestra y se designa aquí con más detalle, cronológicamente después del primer objeto 36-1. Así, puede haber información (suplementaria) sobre una distancia relativa geométrica y una secuencia de los objetos 36-1 y 36 2. En la zona de recepción de mercancías 56 o en la estación de trabajo 58, ambos objetos 36-1 y 36-2 fueron identificados de forma única -y por tanto fiable-, por ejemplo mediante la lectura de sus respectivos códigos de barras 42 (el código de barras 42 del segundo objeto 36-2 no se muestra en la Fig. 1), por ejemplo con un escáner de mano que no se muestra ni se designa aquí con más detalle. El escáner puede haber sido operado por una persona que colocó los objetos 36-1 y 36-2 en el transportador de rodillos 16. Alternativamente, se podría haber utilizado otra cámara 24 en la ubicación de la entrada de mercancías 56 o en la estación de trabajo 58 para identificar de forma única y fiable los objetos 36-1 y 36-2 allí (por ejemplo, porque ambos códigos de barras 42 eran visibles y resolubles allí). El intervalo de tiempo transcurrido entre la colocación del primer objeto 36-1 y la colocación del segundo objeto 36-2 en el transportador de rodillos 16 representa otro elemento ejemplar de información o característica 40 para el par particular de objetos 36-1/36-2 que puede ser utilizado en la identificación de los respectivos objetos 36-1 y 36-2 por el dispositivo de evaluación 48.
Además, la secuencia en la que los objetos 36-1 y 36-2 son transportados aguas abajo hasta el nodo 12 puede almacenarse en un ordenador de flujo de materiales 60 (cf. Fig. 2) y/o en unidades de control subordinadas, tales como un controlador lógico programable (PLC) 62 de un módulo transportador no mostrado y designado con más detalle aquí.
El control de gestión de almacén 54 (cf. Fig. 2) se implementa normalmente mediante un ordenador de gestión de almacén (LVR) 64. El control de gestión de almacén 54 gestiona datos específicos de objeto o datos de objeto 66 que pueden utilizarse como los datos adicionales 50. Los datos de objeto 66 comprenden las características 40 (específicas de objeto o asociadas). Las características 40 representan una o más de las siguientes variables o parámetros: un peso, una forma o contorno exterior, una dimensión, un embalaje (por ejemplo, cartón, película de plástico, etc.), un color, un patrón, y/o la marca del fabricante 44. Se entiende que pueden considerarse otros tipos de características, variables o parámetros y que la lista anterior no es exhaustiva.
Puede obtenerse más información, por ejemplo, a partir de la ubicación de almacenamiento de uno de los objetos 36 en un almacén 68 (véase la Fig. 2), que no se especifica aquí con más detalle. El almacén 68 representa una fuente/sumidero de flujo de materiales 70 para los objetos 36 dentro del sistema de almacenamiento y preparación de pedidos 10 de la Fig. 2. La información sobre cuáles de los objetos 36 están almacenados en qué ubicación dentro del almacén 68 se almacena en el software de gestión de almacenes. Por ejemplo, si el control de gestión de almacén 54 retira del almacén 68 un contenedor que contiene una pluralidad de objetos 36 correspondientes al tipo del primer objeto 36-1, puede ser suficiente seguir/rastrear dicho contenedor mediante el control de flujo de materiales 38 a medida que se transporta a través del sistema de almacenamiento y recogida 10 mediante un sistema de transporte 72 para permitir una identificación fiable posterior. El transportador de rodillos 16 puede formar parte del sistema de transporte 72. El sistema de transporte 72 puede comprender además máquinas de almacenamiento y recuperación (SRM) 74, vehículos de guiado automático (AGV) 76 y similares. El flujo de material 18 puede seguirse por medio de otros sensores 22 situados aguas arriba y/o aguas abajo del nodo 12 de la Fig. 1. Estos sensores 22 pueden ser del mismo tipo que los del nodo 12 de la Fig. 1. Estos sensores 22 pueden ser del mismo tipo o de un tipo diferente. Por ejemplo, otro tipo de sensor podría ser una balanza para determinar el peso del objeto 36 respectivo.
Un sistema de gestión de pedidos 78 (cf. Fig. 2) representa otra fuente potencial de información 52. La información sobre el flujo de material 18 en el nodo 12 también puede obtenerse o extraerse de los datos correspondientes del sistema de gestión de pedidos 78, como se describe a continuación a modo de ejemplo. Por ejemplo, un pedido específico comprende cinco objetos 36 reflejados en una o más líneas de pedido correspondientes. Cuatro objetos 36 de estos cinco objetos 36 ya han sido detectados en el nodo 12. Con la condición adicional de que el flujo de material 18 esté orientado al pedido, es decir, que los objetos 36 de este pedido específico se transporten siempre en grupo, es posible averiguar mediante la fusión de información mencionada qué objeto 36 es el objeto no identificable. Debe tratarse del quinto objeto 36 de este pedido.
El objetivo de la presente invención, es decir, influir en el flujo de material 18 en el nodo 12, se logra con una sola tecnología de sensores, a saber, por ejemplo, con la cámara (de vídeo) 24. La cámara 24 sustituye a un gran número de sensores (por ejemplo, interruptores de proximidad fotoeléctricos, barreras fotoeléctricas, etc.) que se utilizaban habitualmente. Otra ventaja es que, por ejemplo, las posiciones de parada, de descarga, de desviación y similares pueden detectarse e influirse independientemente de la posición del sensor gracias al (gran) campo de visión 26 de la cámara 24. No se trata de controlar el flujo de material 18 con cámaras 24 per se, sino de eliminar una desventaja importante de la cámara 24, que es que la cámara 24 no puede ver las características de identificación del objeto 40 en absoluto o no puede resolverlas suficientemente. Esta desventaja se remedia mediante la fusión de información, combinando y evaluando las diversas fuentes de información 52 y combinándolas para resolver el problema concreto.
Como resultado, se puede tomar una decisión de control (por ejemplo, decisión de trayectoria, decisión de parada, etc.) para un objeto 36 que no era reconocible o identificable de forma convencional (simplemente por la cámara 24). Los requisitos tecnológicos de los sensores (por ejemplo, resolución de imagen, procesamiento de imagen y similares) disminuyen. Como resultado, en general se pueden utilizar cámaras 24 mucho más baratas y que ya se pueden realizar con la tecnología actual.
Se entiende que la tecnología aquí descrita también puede utilizarse en los puestos de trabajo 58 (por ejemplo, puestos de preparación de pedidos) o en las mercancías entrantes 56 o salientes. La tecnología puede utilizarse incluso en estaciones de acumulación en las que los objetos se detienen (por fases) en puntos predeterminados del transportador 14, por ejemplo, para cerrar huecos entre objetos 36 adyacentes o para generar huecos entre objetos 36 adyacentes.
Otro aspecto de la tecnología descrita puede apreciarse en una visualización. Se puede visualizar tanto todo el sistema de almacenamiento y preparación de pedidos 10 como sólo partes del mismo. De este modo, los fallos de funcionamiento (como un atasco en el transportador de rodillos 16) pueden visualizarse de forma sencilla. En este caso, incluso es posible visualizar los objetos atascados 36 de forma claramente identificable. El flujo de material 18 comprende generalmente información sobre los procesos y secuencias de transporte, así como sobre el almacenamiento y las estancias no deseadas de todos los objetos 36 en el sistema 10. Mediante un análisis del flujo de materiales se pueden identificar los puntos débiles del flujo de materiales 18 e investigar sus causas. La representación gráfica (visualización) del flujo de materiales 18 sirve para resaltar y clarificar condiciones y procesos con el fin de mostrar datos específicos y puntos débiles y poder evaluarlos más fácilmente. La representación gráfica ofrece la ventaja de una mayor claridad y permite captar rápidamente lo esencial.
En otra alternativa, el sensor 22 de la Fig. 1 no tiene por qué estar instalado en un lugar fijo. Por ejemplo, el sensor 22 puede montarse en un brazo móvil para desplazar el sensor 22 a una zona del sistema 10 que sea de especial interés en un momento determinado. El sensor22también podría montarse en un dron, por ejemplo. En este caso, sería posible resolver de forma rápida y flexible problemas de flujo de materiales que antes requerían el uso de seres humanos in situ.
A continuación se examinará de nuevo con más detalle la fusión de información. Se puede utilizar inteligencia artificial o una red neuronal para implementar la fusión de información en el dispositivo de evaluación 48.
En el presente caso, la fusión de datos ya mencionada se entiende como una fusión y compleción de conjuntos de datos incompletos. La fusión de datos es un componente de la integración de información. Un "conjunto de datos donante" (datos adicionales 50) proporciona datos complementarios para un "conjunto de datos receptor" (datos del sensor 46). Por ejemplo, el conjunto de datos del donante está formado por las variables (G, S) y el conjunto de datos del receptor está formado por las variables (G, E). Por lo tanto, la variable común G está presente en ambos conjuntos de datos, mientras que la variable donante S y la variable receptora E sólo están presentes en uno de los conjuntos de datos. A partir del conjunto de datos del donante, se crea un modelo para calcular el valor S a partir de la variable G. Este modelo se aplica al conjunto de datos del receptor, lo que da como resultado un nuevo conjunto de datos fusionados (G, E, S). En este contexto pueden utilizarse procedimientos estadísticos. En la fusión de datos, se pueden combinar varios conjuntos de datos parcialmente incompletos. Preferentemente, las características 40 se utilizan como variables. Antes de que sea posible la fusión de datos procedentes de dos fuentes de información 52, es posible que los datos deban adaptarse a un esquema común. Los atributos o variables no existentes pueden rellenarse con cero (por "sin valor"). Por regla general, sin embargo, es necesaria una identificación común del atributo como identificador. También se puede utilizar un operador de fusión para fusionar conjuntos de datos incompletos que se encuentran cruzados.
Además, puede ocurrir que un conjunto de datos de otro sensor también se fusione con el conjunto de datos del sensor 22. Esto se denomina fusión de datos del sensor. En la fusión de datos de sensores, generalmente se vinculan los datos de salida de varios sensores o fuentes de información 52. El objetivo es obtener información de mejor calidad. Una mejor calidad significa que los objetos 36 en el nodo 12 son identificables de forma fiable y, en particular, mejor clasificables. De este modo, la fiabilidad del control del flujo de materiales 38 puede aumentarse generalmente utilizando varias de las fuentes de información 52. Cuando se utilizan diferentes tipos de sensores, también aumenta la probabilidad global de detección. Esto significa que los objetos 36 pueden detectarse incluso si los sensores individuales, diferentes del sensor 22, están limitados en su percepción o "ciegos" debido a las condiciones ambientales. Para aumentar la identificabilidad, los errores de medición de los sensores no deben correlacionarse entre sí, sino que deben satisfacer determinadas funciones de densidad de probabilidad (por ejemplo, una distribución normal) o ser identificables y cuantificables de otro modo. Dado que los campos de visión (por ejemplo, el campo de visión 26) de los sensores suelen ser limitados, el uso de varios sensores aumenta en consecuencia el campo de visión del sistema global. Las identificaciones ambiguas pueden resolverse más fácilmente. Los sensores adicionales suelen proporcionar información adicional y, por tanto, amplían el conocimiento del sistema global. La fusión de los datos de los sensores también puede dar lugar a una reducción de costes porque, por ejemplo, varios sensores menos caros sustituyen a un sensor especialmente caro.
Con referencia a la Fig. 3, a continuación se describe un diagrama de flujo de un procedimiento para controlar el flujo de material 18 en el sistema de almacenamiento y preparación de pedidos 10 en el nodo controlado por sensor 12 del flujo de material 18, en donde debe tomarse una decisión sobre una dirección futura del flujo de material y/o sobre una velocidad del flujo de material 18.
En un paso S10, se generan los datos adicionales 50 (por adelantado). Uno o más conjuntos (de datos) de datos adicionales 50 son generados por una o más de las fuentes de información 52 que son diferentes del sensor 22 del punto de nodo 12. Los datos adicionales 52 se generan con antelación suficiente para realizar posteriormente la fusión de información con los datos del sensor 46, como se explicará más adelante. El paso S10 es opcional. Se entiende que no es necesario generar explícitamente los datos adicionales 50, sino que también pueden existir ya como conjuntos de datos en el sistema 10.
En el paso S12, los datos del sensor 46 se generan en el nodo 12. Los datos del sensor 46 son generados por el sensor 22 mediante la detección de los objetos 36 en el campo de visión 26 del sensor 22 implementado por la (única) cámara 24.
En un paso S14, las características 40 de los objetos 36 detectados son extraídas, es decir, extraídas, de los datos 46 del sensor por el dispositivo 48 de análisis. Durante la extracción, se realiza preferentemente un reconocimiento de imagen. El reconocimiento de imágenes es un subcampo del reconocimiento de patrones y del procesamiento de imágenes. En el reconocimiento de patrones, se detectan regularidades, repeticiones, similitudes y/o regularidades en el conjunto de datos del sensor 46. En particular, se reconocen los parámetros antes mencionados (por ejemplo, el código de barras 42, la marca del fabricante 44, las dimensiones, los patrones de color, los tipos de embalaje y similares) de los objetos 36 que se aproximan al nodo 12 aguas abajo y entran en el campo de visión 26 del sensor 22, y en particular en la zona de entrada 28 del nodo 12. Un punto clave en este contexto es el reconocimiento de los patrones, es decir, en particular las características 40, que son comunes a todos los objetos 36 de una categoría y que distinguen estos objetos 36 del contenido de otras categorías.
El procesamiento de imágenes implica el procesamiento de los datos del sensor 46, que pueden ser imágenes (individuales) procedentes de los datos de vídeo de la cámara 24. El resultado del procesamiento de la imagen puede ser un conjunto de características 40 de la imagen de entrada. En la mayoría de los casos, las imágenes se consideran como una señal bidimensional, de modo que pueden aplicarse procedimientos comunes del procesamiento de señales. Por ejemplo, los objetos 36 pueden medirse. Puede determinarse una posición de los objetos 36 con respecto al transportador de rodillos 16. Puede medirse una distancia relativa entre objetos 36 adyacentes. El código de barras 42 puede ser "medido" y, por tanto, reconocido. Mediante el procesamiento de imágenes, la información codificada (código de barras 42) puede leerse automáticamente a partir de las imágenes para identificar los objetos 36.
En el paso S16, se comprueba -por ejemplo, mediante una comparación de características- si la característica o características 40 extraídas están presentes para la identificación fiable de los respectivos objetos 36 detectados. Si estas características 40 están presentes, el flujo de material 18 se controla, preferentemente de forma exclusiva, en base a los datos del sensor 46, como se muestra en el paso S18. De lo contrario, en el paso S20, se recuperan los datos complementarios 50, que a su vez comprenden características complementarias 40.
En la etapa S22, se lleva a cabo la fusión de información de los datos del sensor 46 con los datos suplementarios 50 mencionada anteriormente. A continuación, en la etapa S24, se comprueba si las características 40 están ahora disponibles para una identificación suficientemente fiable. Si todavía no se puede realizar una identificación suficientemente fiable, se recuperan otros datos adicionales 50 volviendo al paso S20 y se tienen en cuenta otros datos adicionales 50 de otras fuentes de información 52. De lo contrario, el flujo de material 18 se controla basándose en una combinación de los datos del sensor 46 y los datos adicionales 50.
Con esto concluye el procedimiento 100.
La Fig. 4 muestra una vista superior esquemática de una sección de un sistema transportador 14 formado, por ejemplo, por una sección principal 80 y dos secciones secundarias 82-1 y 82-2. Las secciones secundarias 82 se extienden perpendicularmente a la sección principal 80 y pueden utilizarse como transportadores de entrada y/o transportadores de salida. Las zonas donde el tramo principal 80 conecta con los tramos secundarios 82 representan los nodos 12-1 y 12-2. Cada uno de los nodos 12-1 y 12-2 está vigilado por una cámara 24, que no se muestra en detalle. En la Fig. 4, los campos visuales correspondientes 26-1 y 26-2 se indican mediante líneas circulares (a modo de ejemplo). Los campos de visión 26-1 y 26-2 se seleccionan para que sean lo suficientemente amplios como para cubrir las zonas 28-32 de las intersecciones 12-1 y 12-2 antes mencionadas, que tampoco se muestran aquí con más detalle. En el área de intersección 32 del nudo izquierdo 12-1, por ejemplo, se proporciona un dispositivo de elevación 34-1 del tipo descrito anteriormente. La zona de intersección derecha 12-2 comprende, a modo de ejemplo, una escala 84, indicada por un rectángulo de línea discontinua, como otro sensor 22 además de la cámara 24. Además, se proporciona otro dispositivo de elevación 34-2.
Utilizando flechas oscuras y claras, en la Fig. 4 se muestran dos escenarios diferentes a modo de ejemplo. En un primer escenario, se observan las flechas oscuras. Los objetos 36-1 a 36-3 son transportados de izquierda a derecha, mostrándose el nodo 12-1 en un primer momento y el nodo 12-2 en un segundo momento posterior. En un segundo escenario, se observan las flechas claras con los objetos 36 siendo transportados de derecha a izquierda y el nodo 12-2 mostrando una instantánea anterior en el tiempo a la instantánea en el nodo 12-1. En ambos casos, se utilizan múltiples fuentes de información para identificar los objetos transportados. Éstas se sincronizan con la información de procesamiento de imágenes de las cámaras 24, entre otras cosas para controlar los motores y posiblemente otros actuadores en los nodos 12-1 y 12-2 respectivos. Esto significa que, a través de la(s) cámara(s) y la sincronización temporal entre los objetos 36 y las ubicaciones obtenidas de este modo, entre otras cosas, también tiene lugar una sincronización de los datos de los sensores.
Listado de signos de referencia
10 Sistema de almacenamiento y preparación de pedidos 70 Fuente/sumidero
12 Nodo 72 Sistema de transporte
14 Técnica de transporte 74 RGB
16 Transportador de rodillos 76 FIS
18 Flujo de materiales 78 Gestión de pedidos
20 Punto de ramificación 80 Línea principal
22 Sensor 82 Línea secundaria
24 Cámara 84 Balanza
26 Campo de visión
28 Zona de entrada
30 Zona de salida
32 Zona de intersección
34 Dispositivo de elevación
36 Objeto (flujo de material)
38 Control de flujo de material
40 Característica
42 Código de barras
44 Código del fabricante
46 Datos del sensor
48 Dispositivo de evaluación
50 Datos adicionales
52 Fuente de información
54 Control de gestión del almacén
56 Entrada de mercancías
58 Estación de trabajo
60 Ordenador de flujo de materiales
62 SPS
64 LVR
66 Datos de objeto/datos específicos de objeto
68 Almacén

Claims (12)

REIVINDICACIONES
1. Procedimiento para controlar un flujo de material (18) en un sistema de almacenamiento y preparación de pedidos (10) que comprende un controlador de flujo de material (38), en un nodo controlado por sensores (12) del flujo de material (18) donde el flujo de material se divide aguas abajo en al menos dos direcciones de salida y donde se debe tomar una decisión sobre una dirección futura del flujo de material, en donde el nodo se implementa mediante una técnica de transporte, en donde al menos una zona de entrada (28) del nodo (12) se detecta mediante un campo de detección (26) de un único sensor (22) que es una cámara (24), que comprende las etapas de:
generar (S10), mediante el sensor (22), datos de sensor (46) que representan el flujo de material (18) definido por uno o más objetos de flujo de material (36) que se aproximan al nodo (12) aguas abajo en el campo de detección (26) del sensor (22);
comprobar (S16) si los datos del sensor (46) comprenden, para cada uno de los objetos que se aproximan (36-1, 36 2), al menos una característica de objeto asociada (40) que permita una identificación fiable del objeto correspondiente (36); y
cuando los datos del sensor (46) comprenden, para cada uno de los objetos (36-1, 36-2), la al menos una característica asociada (40) que permite la identificación fiable, controlar (S18) el flujo de material (18) en el nodo (12) basándose en los datos del sensor (46); o
si los datos del sensor (46) no comprenden, para cada uno de los objetos que se aproximan (36-1, 36-2), la al menos una característica asociada (40) que permite la identificación segura (S16), controlar (S26) el flujo de material (18) en el nodo (12) al menos para aquellos de los objetos (36-1, 36-2) cuya característica asociada (40) no esté comprendida por los datos del sensor (46), sobre la base de una fusión de información (S22) de los datos del sensor (46) con datos adicionales (50) generados previamente que proceden de al menos una fuente de información (52) distinta del sensor (22) del nodo (12) y que es el control del flujo de material (38), en donde los datos adicionales (50) comprenden otras características del objeto (40) que, junto con las características (40) de los datos del sensor (46), permiten una identificación suficientemente fiable (S24),
en donde el control del flujo de material (18) comprende un accionamiento sincronizado con los datos del sensor de un actuador previsto en el nodo (12) para que el objeto respectivo (36) cambie su dirección de movimiento, en donde los datos adicionales (50) comprenden, para cada uno de los objetos (36) que se aproximan, al menos uno de los siguientes parámetros:
un orden de aproximación de los objetos (36) al nodo (12);
un espaciado relativo entre los objetos (36) sucesivos; y
un momento en donde un objeto respectivo (36) se añadió al flujo de material (18);
una ubicación de alimentación en la que el objeto respectivo (36) se añadió al flujo de material (18);
una trayectoria que el objeto respectivo (36) ha recorrido a través del sistema (10) hasta el momento; y
una velocidad dependiente de la ubicación a la que el objeto respectivo (36) se mueve a través del sistema (10).
2. Procedimiento de acuerdo con la reivindicación 1, en donde la al menos una característica (40) es detectable ópticamente.
3. Procedimiento de acuerdo con la reivindicación 2, en donde la al menos una característica (40) es un código de barras (42), una combinación de colores individualizadora, una marca de fabricante individualizadora (44), un contorno individualizador y/o una dimensión o tamaño individualizador.
4. Procedimiento de acuerdo con cualquiera de las reivindicaciones 1 a 3, en donde el campo de visión (26) de la cámara (24) se selecciona para que sea tan grande que los códigos de barras (42) visibles no sean resolubles.
5. Procedimiento de acuerdo con cualquiera de las reivindicaciones 1 a 4, en donde otra de las fuentes de información (52) es una fotocélula, un escáner fotoeléctrico, un escáner y/o una balanza.
6. Procedimiento de acuerdo con cualquiera de las reivindicaciones 1 a 5, en donde controlar el flujo de material (18) comprende accionar el accionador previsto en el nodo (12) de manera sincronizada con los datos del sensor (12) para que el objeto respectivo (36) cambie su velocidad de movimiento.
7. Procedimiento de acuerdo con cualquiera de las reivindicaciones 1 a 5, en donde la comprobación (S16) comprende:
detectar cada uno de los objetos que se aproximan (36) a partir de los datos del sensor (46);
extraer características asociadas (40) para cada uno de los objetos detectados (36); y
determinar, para cada uno de los objetos detectados (36), si las características asociadas extraídas (40) permiten una identificación segura.
8. Procedimiento de acuerdo con cualquiera de las reivindicaciones 1 a 7, en donde la fusión de información (S22) comprende la fusión de datos de los datos del sensor (46) con los datos adicionales (50) fusionando y completando un conjunto de datos parcheados del sensor correspondiente que no comprende la característica asociada (40) necesaria para una identificación segura con un conjunto de datos adicionales, en donde el conjunto de datos adicionales comprende una variable que está presente tanto en el conjunto de datos del sensor como en el conjunto de datos adicionales.
9. Procedimiento de acuerdo con la reivindicación 8, en donde el conjunto de datos adicional comprende una de las características (40) presentes tanto en el conjunto de datos del sensor como en el conjunto de datos adicional.
10. Procedimiento de acuerdo con la reivindicación 8 o 9, que presenta, además, la etapa de: comprobar si el conjunto de datos de sensor fusionado y completado comprende una de las características (40) que comprenden la identificación suficientemente segura.
11. Procedimiento de acuerdo con cualquiera de las reivindicaciones 1 a 10, en donde dicha etapa de controlar (S18, S26) el flujo de material (18) en dicho nodo (12) comprende el control sincronizado de al menos un actuador (34) previsto dentro de la región de dicho nodo (12).
12. Dispositivo para controlar un flujo de material (18) en un sistema de almacenamiento y preparación de pedidos (10) que comprende un controlador de flujo de material (38), en un nodo controlado por sensor (12) del flujo de material (18), en donde el flujo de material se divide aguas abajo en al menos dos direcciones de salida y en donde debe tomarse una decisión sobre una dirección futura del flujo de material, en donde el nodo está implementado por un sistema de transporte y en donde el dispositivo presenta:
un único sensor (22) en el nodo que es una cámara (24) y que presenta un campo de visión (26), en donde el sensor (22) está posicionado de tal manera que el campo de visión (26) detecta al menos una región de entrada (28) del nodo (12), donde uno o más objetos de flujo de material (36) se aproximan simultáneamente aguas abajo del nodo (12), generando el sensor (22) los correspondientes datos de sensor (46);
al menos una fuente de información (52) para la fusión de información de dichos datos del sensor (46) con datos adicionales pregenerados (50) procedentes de dicha al menos una fuente de información (52), en donde la al menos una fuente de información (52) es diferente del sensor (22) en el nodo (12) y es el controlador de flujo de materiales (38); y
un dispositivo de evaluación (48) dispuesto para:
comprobar si los datos del sensor (46) comprenden, para cada uno de los objetos que se aproximan (36-1, 36-2), al menos una característica de objeto asociada (40) que permita una identificación segura del objeto correspondiente (36); y
cuando los datos del sensor (46) para cada uno de los objetos (36-1, 36-2) comprenden la al menos una característica (40), para emitir una señal para controlar el flujo de material (18) en el nodo (12) basándose en los datos del sensor (46); o
si los datos del sensor (46) no comprenden la al menos una característica (40) para cada uno de los objetos que se aproximan (36-1, 36-2), emitir una señal para controlar el flujo de material (18) en el nodo (12) al menos para aquellos de los objetos (36-1, 36-2) cuya característica asociada (40) no esté comprendida por los datos del sensor (46), sobre la base de una fusión de información de los datos del sensor (46) con datos adicionales (50) que procedan de la al menos una fuente de información (52), en donde los datos adicionales (50) comprenden otras características del objeto (40) que, junto con las características (40) procedentes de los datos del sensor (46), permitan una identificación suficientemente segura; y
realizar la fusión de la información;
en donde el control del flujo de material (18) comprende un accionamiento sincronizado con los datos del sensor de un actuador previsto en el nodo (12) para que el objeto respectivo (36) cambie su dirección de movimiento, y en donde los datos adicionales (50) comprenden, para cada uno de los objetos (36) que se aproximan, al menos uno de los siguientes parámetros:
un orden de aproximación de los objetos (36) al nodo (12);
un espaciado relativo de objetos sucesivos (36); y
un momento en donde un objeto respectivo (36) se añadió al flujo de material (18);
una ubicación de alimentación en la que el objeto respectivo (36) se añadió al flujo de material (18);
una trayectoria que el objeto respectivo (36) ha recorrido a través del sistema (10) hasta el momento; y
una velocidad dependiente de la ubicación a la que el objeto respectivo (36) se mueve a través del sistema (10).
ES18726438T 2017-05-18 2018-05-18 Dispositivo y método para controlar un flujo de material en un nodo de flujo de material Active ES2957942T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102017110861.0A DE102017110861A1 (de) 2017-05-18 2017-05-18 Vorrichtung und Verfahren zum Steuern eines Materialflusses an einem Materialfluss-Knotenpunkt
PCT/EP2018/063091 WO2018211072A1 (de) 2017-05-18 2018-05-18 Vorrichtung und verfahren zum steuern eines materialflusses an einem materialfluss-knotenpunkt

Publications (1)

Publication Number Publication Date
ES2957942T3 true ES2957942T3 (es) 2024-01-30

Family

ID=62222668

Family Applications (1)

Application Number Title Priority Date Filing Date
ES18726438T Active ES2957942T3 (es) 2017-05-18 2018-05-18 Dispositivo y método para controlar un flujo de material en un nodo de flujo de material

Country Status (5)

Country Link
US (1) US11321548B2 (es)
EP (1) EP3625740B1 (es)
DE (1) DE102017110861A1 (es)
ES (1) ES2957942T3 (es)
WO (1) WO2018211072A1 (es)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019201229A1 (de) * 2019-01-31 2020-08-06 Krones Ag Greifroboter zum Aufnehmen und Abstellen von ausgestatteten Flaschen und/oder ausgestatteten Gebinden, Behandlungsanlage für Flaschen und/oder Gebinde und Verfahren zum Betreiben der Behandlungsanlage für Flaschen und/oder Gebinde
EP3953855A4 (en) * 2019-04-11 2023-01-25 Plus One Robotics, Inc. SYSTEMS AND METHODS FOR IDENTIFYING PACKAGE PROPERTIES IN AN AUTOMATED INDUSTRIAL ROBOTICS SYSTEM
DE102019135620B4 (de) * 2019-12-20 2021-10-28 Interroll Holding Ag Optisches Anlernen von kameraerfassten Wegstrecken
US11752522B2 (en) * 2020-10-23 2023-09-12 United Parcel Service Of America, Inc. Real-time tracking of parcels in a facility
DE102021104623A1 (de) 2021-02-26 2022-09-01 Ssi Schäfer Automation Gmbh (At) Materialflusssteuerung mit virtuellen Sensoren
CN113895849B (zh) * 2021-12-10 2022-02-22 深圳市瓴风科技有限公司 一种货物出仓后数据自动记录的输送装置

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4408650C2 (de) * 1994-03-15 1996-01-18 Haehnel Olaf Identifikations- und Kontrollsystem für Transportmittel in einem Verarbeitungsbetrieb
US5708470A (en) * 1996-06-10 1998-01-13 Condor Systems, Inc. Optical monitoring system apparatus
DE102006015689B4 (de) 2006-03-28 2020-07-23 Ssi Schäfer Automation Gmbh System und Verfahren zum Steuern einer Fördertechnik mittels rechnergestützter Bilderkennung
WO2007112577A1 (en) * 2006-04-04 2007-10-11 Rutherford Peter Bruce Browne Methods and systems for recycling and re-use of manufactured items
US7949154B2 (en) * 2006-12-18 2011-05-24 Cryovac, Inc. Method and system for associating source information for a source unit with a product converted therefrom
NZ556253A (en) * 2007-06-29 2010-01-29 Baggage Sortation Man Ltd Object tracking method and apparatus
DE102007035272A1 (de) * 2007-07-27 2009-01-29 Siemens Ag Verfahren zum Identifizieren von Transportgütern, insbesondere Gepäckstücken
US8596541B2 (en) * 2008-02-22 2013-12-03 Qualcomm Incorporated Image capture device with integrated barcode scanning
DE102010001569A1 (de) 2010-02-04 2011-08-04 Apologistics GmbH, 04416 Lagersystem zum Lagern und Kommissionieren von Artikeln, insbesondere von Apothekenartikeln
DE102010002317B4 (de) 2010-02-24 2018-06-14 Apologistics Gmbh System und Verfahren zur Vereinzelung und Kommissionierung von Artikeln
DE102011053547B4 (de) 2011-09-13 2019-11-21 Apologistics Gmbh Verfahren und System zum Lagern und Kommissionieren von Artikeln, insbesondere von Apothekenartikeln
US9121751B2 (en) * 2011-11-15 2015-09-01 Cognex Corporation Weighing platform with computer-vision tracking
DE102011055455A1 (de) 2011-11-17 2013-05-23 Apologistics Gmbh Anordnung und Verfahren zum automatisierten Verpacken von Erzeugnissen
US20140180479A1 (en) 2012-12-20 2014-06-26 Wal-Mart Stores, Inc. Bagging With Robotic Arm
US9659204B2 (en) * 2014-06-13 2017-05-23 Conduent Business Services, Llc Image processing methods and systems for barcode and/or product label recognition
US9836635B2 (en) 2014-10-09 2017-12-05 Cognex Corporation Systems and methods for tracking optical codes
EP3100648B1 (de) * 2015-06-03 2022-08-31 Wincor Nixdorf International GmbH Vorrichtung und verfahren zum identifizieren und verfolgen eines objektes
DE102015219660A1 (de) * 2015-10-12 2017-04-13 Bayerische Motoren Werke Aktiengesellschaft Verfahren und System zur Ermittlung von Daten für ein Objekt
US10449572B2 (en) * 2015-12-16 2019-10-22 Waste Repurposing International, Inc. Household hazardous waste recovery
US10226795B2 (en) * 2015-12-31 2019-03-12 Fives Intralogistics Corp. Vision based item typing and separation system

Also Published As

Publication number Publication date
DE102017110861A1 (de) 2018-11-22
US20200074126A1 (en) 2020-03-05
US11321548B2 (en) 2022-05-03
EP3625740A1 (de) 2020-03-25
EP3625740C0 (de) 2023-08-09
WO2018211072A1 (de) 2018-11-22
EP3625740B1 (de) 2023-08-09

Similar Documents

Publication Publication Date Title
ES2957942T3 (es) Dispositivo y método para controlar un flujo de material en un nodo de flujo de material
US11858010B2 (en) Conveyor belt assembly for identifying an asset sort location and methods of utilizing the same
US11797910B2 (en) Hands-free augmented reality system for picking and/or sorting assets
US11100300B2 (en) Systems and methods for tracking items
US9911071B2 (en) Method and system for controlling packaging of items on a production/distribution line
EP3005231B1 (en) Method and device for counting objects in image data in frames, computer program product
EP2786323B1 (en) Method and system for controlling items on a production/distribution line
US20210276796A1 (en) Systems and methods for providing order fulfillment using a shuttle takeaway system
KR101613120B1 (ko) 바코드 검사 시스템
KR101265769B1 (ko) 이미지 정보를 이용한 반품 분류시스템
EP2786315B1 (en) Method and system for controlling packaging of items on a production/distribution line
KR20210067661A (ko) 라인트레이서와 rfid를 이용한 자동택배분류기
US11354528B2 (en) Reading a plurality of codes
JP2014091608A (ja) 物品処理設備
JP7012180B1 (ja) 日付情報読取装置
CN113570305B (zh) 一种药框的自动追踪运输方法、装置及系统
CN107207168A (zh) 用于分离待储存在自动存储设施中的计件货物的设备
JP2022087687A (ja) 日付情報読取装置
CN116583857A (zh) 用于提供关于多个对象处理系统的分析的系统和方法