DE102021104623A1 - Materialflusssteuerung mit virtuellen Sensoren - Google Patents

Materialflusssteuerung mit virtuellen Sensoren Download PDF

Info

Publication number
DE102021104623A1
DE102021104623A1 DE102021104623.8A DE102021104623A DE102021104623A1 DE 102021104623 A1 DE102021104623 A1 DE 102021104623A1 DE 102021104623 A DE102021104623 A DE 102021104623A DE 102021104623 A1 DE102021104623 A1 DE 102021104623A1
Authority
DE
Germany
Prior art keywords
image
conveyor
sensor
reference points
positions
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102021104623.8A
Other languages
English (en)
Inventor
Andreas Hintz
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SSI Schaefer Automation GmbH Austria
Original Assignee
SSI Schaefer Automation GmbH Austria
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SSI Schaefer Automation GmbH Austria filed Critical SSI Schaefer Automation GmbH Austria
Priority to DE102021104623.8A priority Critical patent/DE102021104623A1/de
Priority to EP22712534.1A priority patent/EP4154219A1/de
Priority to PCT/EP2022/054703 priority patent/WO2022180179A1/de
Publication of DE102021104623A1 publication Critical patent/DE102021104623A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/17Terrestrial scenes taken from planes or by drones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G43/00Control devices, e.g. for safety, warning or fault-correcting
    • B65G43/08Control devices operated by article or material being fed, conveyed or discharged
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Abstract

Es wird offenbart ein Verfahren zum Definieren eines virtuellen Sensors (18) in einem Fördersystem (12), das mindestens eine Förderstrecke (28) aufweist, mit den Schritten: a) Bereitstellen eines Modells des Fördersystems (12), wobei das Modell zumindest eine Position, sowie vorzugsweise eine Ausrichtung und/oder eine Abmessung, von jeder der Förderstrecken (28) in einem Referenzbezugssystem (30), insbesondere im Bezugssystem (30) des Fördersystems (12), umfasst; b) Definieren (S10) von mindestens einem Referenzpunkt, insbesondere durch Positionieren von, vorzugsweise identischen, zusätzlichen Markierungen (M1, M2, M3), und Bestimmen einer Position für jeden definierten Referenzpunkt im Referenzbezugssystem (30); c) Positionieren eines Bildsensors (14) innerhalb des Fördersystems (12), vorzugsweise an einem beliebigen Ort, so dass zumindest eine der Förderstrecken (28) und mindestens einer der Referenzpunkte in einem Sichtfeld (37) des Bildsensors (14) liegen; d) Erzeugen eines Bilds (36) mit dem Bildsensor (14), nachdem der Bildsensor (14) positioniert ist; e) Identifizieren von Referenzpunkten im Bild (36) und Bestimmen von Positionen der identifizierten Referenzpunkte in einem Bezugssystem (30') des erzeugten Bildes (36); f) Bestimmen einer Koordinatentransformation, vorzugsweise mittels Bildverarbeitung, basierend auf den Positionen der Referenzpunkte in beiden Bezugssystemen (30, 30'), so dass jedem Bildpunkt des erzeugten Bilds (36) eine Koordinate (34) im Referenzbezugssystem (30) zuordenbar ist; und g) Definieren eines Überwachungsbereichs (50), vorzugsweise im Bild (36), der durch den virtuellen Sensor (18) zu überwachen ist und der sich zumindest teilweise mit einer der Förderstrecken (28) überlappt, die im Sichtfeld (37)des Bildsensors (14) liegt, oder daran angrenzt.

Description

  • Die vorliegende Offenbarung betrifft allgemein das Gebiet der Intralogistik, und insbesondere ein Intralogistiksystem, das eine Kamera und einen virtuellen Sensor umfasst, um einen Materialfluss in dem Intralogistiksystem unter Verwendung des virtuellen Sensors zu steuern, sowie ein Verfahren zum Verwenden des virtuellen Sensors in dem Intralogistiksystem.
  • Um Objekte eines Materialflusses, also Fördergüter, durch ein intralogistisches System zu leiten, wird bisher eine sehr große Anzahl von (technisch möglichst einfachen und günstigen) Sensoren, insbesondere Lichttaster, Lichtschranken und Scanner, eingesetzt. Diese Sensoren werden überall innerhalb des Systems eingesetzt, insbesondere an Knotenpunkten (Kreuzungen, Verzweigungen, Vereinigungspunkten, etc.) des Materialflusses. An den Knotenpunkten werden oft mehrere Sensoren simultan eingesetzt. Ein generelles Ziel ist es, ein „Tracking“ und „Tracing“ durchführen zu können. Unter Tracing und Tracking versteht man eine (innerbetriebliche) Verfolgung der Fördergüter.
  • Ein Ziel des Tracking ist es, jederzeit den genauen Ort des Objekts innerhalb des Gesamtsystems feststellen und abrufen zu können. Auf Grundlage dieser Information können Prozesse optimiert und ungenutzte Kapazitäten reduziert werden, zum Beispiel durch eine exakte Planung des Materialflusses, einer Lagerbelegung, eines Wareneingangs oder von Ähnlichem. Tracking bezeichnet die Verfolgung des Objekts von einer Quelle bis zu einem Ziel. Tracing bezeichnet eine Rückverfolgung vom Endkunden bis zum Punkt der Urerzeugung.
  • Neben den einfachen und günstigen Sensoren, wie den oben genannten Lichttastern, Lichtschranken und Scannern, werden heute verstärkt auch Kameras für intralogistische Zwecke eingesetzt.
  • Das Dokument WO 2018/211072 A1 betrifft eine Vorrichtung und ein Verfahren zum Steuern eines Materialflusses an einem Materialflusskontenpunkt. Am Knotenpunkt ist eine einzige Kamera positioniert, um die Fördergüter zu identifizieren. Für die Identifikation werden die Kameradaten mit zusätzlichen Daten fusioniert, die entfernt vom Knotenpunkt gewonnen wurden. Die Kameradaten werden auch benutzt, um eine aktuelle Position und Geschwindigkeit der Fördergüter zu bestimmen, die auf einem Stetigförderer innerhalb des Blickfelds der Kamera transportiert werden.
  • Eine Materialflusssteuerung mittels einer Videokamera ist auch in der DE 10 2006 015 689 A1 offenbart. Zustandsbilder der Kamera werden ausgewertet, um eine tatsächliche Position des zu befördernden Objekts in einem vorab festgelegten Bereich des Systems zu bestimmen. Die Videokamera ist z.B. senkrecht über einer Fördertechnik angeordnet. Die Zustandsbilder werden ausgewertet, um eine Ist-Position der Fördergüter zu bestimmen, die dann mit einer Soll-Position verglichen wird, um entsprechende Fördertechnik-Steuersignale basierend auf dem Soll-Ist-Vergleich zu erzeugen.
  • In der DE 10 2011 055 455 A1 wird eine Videokamera eingesetzt, um die Positionen von Objekten innerhalb eines Transportbehälters zu bestimmen, wobei die Transportbehälter auf einer Fördertechnik transportiert werden.
  • Die DE 10 2011 053 547 A1 offenbart den Einsatz von Videokameras, um einen Umsetzvorgang eines Förderguts durch einen Roboter zu überwachen, der zwischen zwei parallel angeordneten Fördertechniken positioniert ist. Insbesondere werden Identifizierungskennzeichen und Abmessungen der Fördergüter mittels der Kameradaten bestimmt.
  • Die DE 10 2007 035 272 A1 0 offenbart ein Verfahren zum Identifizieren von Transportgütern, insbesondere Gepäckstücken mit einer Vielzahl von Sensoren.
  • Zusammenfassend lässt sich also sagen, dass die Materialflusssteuerung generell eine hohe Anzahl von Sensoren zum Überwachen von Zuständen eines Fördersystems erfordert, um stromabwärts angeordnete Aktuatoren zu betätigen und die Fördergüter ausreichend sicher zu verfolgen (Tracking). Jeder Sensor kostet Geld. Jeder Sensor muss gewartet werden.
  • Die Verkabelung der Sensoren ist aufwendig. Die Verkabelung erfordert viel Zeit und ist oft nur schwer durchführbar, insbesondere wenn die Sensoren nachträglich in ein bestehendes Fördersystem integriert werden. Die Installationsorte können schwer zugänglich sein. Eine Kabelführung vom Installationsort zu einem Steuerungsrechner kann schwierig sein, weil die Verkabelungsorte schwer zugänglich sein können.
  • Ferner kommt es häufig vor, dass ein Streckenverlauf des Fördersystems nachträglich geändert werden muss, z.B. wenn eine Lager- oder Kommissionieranlage nachträglich erweitert wird. Auch hier ist die Zugänglichkeit problematisch. Ähnliche Gesichtspunkte sind aber auch bei einer Neuinstallation relevant.
  • Häufig kann erst während einer Inbetriebnahme der Anlagen festgestellt werden, dass Sensoren ungünstig oder falsch platziert wurden oder gar zusätzliche Sensoren benötigt werden. Ähnliches kann bei der Nutzungsänderung einer Förderanlage auftreten, z.B. bei wechselndem Fördergut.
  • Es ist daher eine Aufgabe der vorliegenden Erfindung, ein Verfahren und System zum Definieren eines virtuellen Sensors für ein Fördersystem bereitzustellen, das die oben erwähnten Nachteile überwindet.
  • Diese Aufgabe wird durch ein Verfahren zum Definieren eines virtuellen Sensors in einem Fördersystem gelöst, das mindestens eine Förderstrecke aufweist, wobei das Verfahren die Schritte umfasst: Bereitstellen eines Modells des Fördersystems, wobei das Modell zumindest eine Position sowie vorzugsweise eine Ausrichtung und/oder eine Abmessung, für jede der Förderstrecken in einem Referenzbezugssystem, insbesondere im Bezugssystem des Fördersystems, umfasst; Definieren von zumindest einem Referenzpunkt, insbesondere durch Positionieren von, vorzugsweise identischen, zusätzlichen Markierungen und Bestimmen einer Position für jeden definierten Referenzpunkt im Referenzbezugssystem; Positionieren eines Bildsensors innerhalb des Fördersystems, vorzugsweise an einem beliebigen Ort, so dass zumindest eine der Förderstrecken und zumindest eine der Referenzpunkte in einem Sichtfeld des Bildsensors liegen; Erzeugen eines Bilds mit dem Bildsensor, nachdem der Bildsensor positioniert ist; Identifizieren von Referenzpunkten im Bild und Bestimmen von Positionen der identifizierten Referenzpunkte in einem Bezugssystem des erzeugten Bildes; Bestimmen einer Koordinatentransformation, vorzugsweise mittels Bildverarbeitung, basierend auf den Positionen der Referenzpunkte in beiden Bezugssystemen, so dass jedem Bildpunkt des erzeugten Bilds eine Koordinate im Referenzbezugssystems zugeordnet werden kann; und Definieren eines Überwachungsbereichs, vorzugsweise im Bild, der durch den virtuellen Sensor zu überwachen ist und der sich zumindest teilweise mit einer der Förderstrecken überlappt oder daran angrenzt, die im Sichtfeld des Bildsensors liegt.
  • Ein großer Vorteil der vorliegenden Entwicklung ist darin zu sehen, dass viele physische Sensoren, die zur Steuerung eines Materialflusses benötigt werden, durch einen, insbesondere einzigen, Bildsensor ersetzt werden können. Auf Basis der Daten des Bildsensors können Informationen gewonnen werden, die die Signale der physischen Sensoren simulieren. Dadurch verringert sich ein Verkabelungsaufwand, weil der virtuelle Sensor nicht mehr physisch mit der Steuerung verbunden werden muss.
  • Eine Änderung eines Streckenverlaufs des Fördersystems ist nachträglich ohne Probleme möglich. Das Fördersystem kann nachträglich um eine Vielzahl von Sensoren ergänzt werden, insbesondere an Orten, die für einen Installationstechniker unzugänglich sind.
  • Die Referenzpunkte können an Orten festgelegt werden, die gut zugänglich sind.
  • Die Anzahl der für die Materialflusssteuerung erforderlichen Sensoren wird erheblich verringert. Damit verringern sich die Kosten.
  • Die Entwicklung ist in Bestandsanlagen nachrüstbar, indem Elemente der Bestandsanlage mit den Markierungen gekennzeichnet werden, die dann im Bild des Bildsensors identifizierbar sind, um das Bild des Bildsensors auf die Realität zu referenzieren.
  • Die virtuellen Sensoren können z.B. von einem Techniker, der die Kamera positioniert hat, im Bild definiert werden, das dem Techniker z.B. auf einem mobilen berührungsempfindlichen Bildschirm angezeigt wird, den der Techniker mit sich führt. Der Techniker zeichnet z.B. einen Strich auf seinen Bildschirm, um eine Lichtschranke an einem Ort in Bezug auf eine Förderstrecke zu definieren, die ebenfalls im Bild zu sehen ist. Der auf dem Bildschirm gezeichnete Strich bekommt automatisch Koordinaten im Referenzbezugssystem zugewiesen, so dass eine Materialflusssteuerung ortsabhängig über Förderstromänderungen informiert werden kann, die von der Kamera erfasst und über Bildverarbeitung ausgewertet werden können. Die Materialflusssteuerung kann dann entsprechend auf das Fördersystem einwirken, obwohl kein echter Sensor an dem Ort vorhanden ist, wo der Strich gezeichnet wurde.
  • Vorzugsweise wird der für den virtuellen Sensor definierte Bereich in einem aktuell erzeugten Bild auf eine Zustandsänderung basierend auf einem Vergleich mit einem zeitlich früher erzeugten Bild überwacht.
  • Das zeitlich frühere Bild wird in einem fördergutfreien Zustand aufgenommen. Dies bedeutet, dass sich zum Zeitpunkt der Aufnahme kein Fördergut im Sichtfeld des Bildsensors befindet. Die anderen Bilder, insbesondere das aktuell erzeugte Bild, können Fördergüter aufweisen. Vergleicht man diese Bilder mit dem Ursprungsbild, so kann ein Fördergut mittels Bilderkennung automatisiert erkannt werden. Tritt das erkannte Fördergut in den Bereich ein, der für den virtuellen Sensor definiert ist, liegt also eine Information darüber vor, dass das Fördergut sich im Bereich des virtuellen Sensors befindet. Diese Information kann in ein entsprechendes Zustandssignal umgewandelt werden, auf dessen Basis die Steuerung dann wiederum Aktoren ansteuern kann, die stromabwärts zum Überwachungsbereich angeordnet sind. Auf diese Weise kann z.B. eine Ausschleuseinrichtung betätigt werden, die unmittelbar nach dem virtuellen Sensor angeordnet ist. Die Fördergüter kann aber auch nur positionsabhängig gezählt werden, um ein weiteres Beispeil zu nennen.
  • Insbesondere wird also ein Steuersignal für einen Aktuator erzeugt, der stromabwärts zum überwachten Bereich angeordnet ist, wenn die Zustandsänderung aufgetreten ist.
  • Wie bereits erwähnt, wird die Zustandsänderung insbesondere durch ein Fördergut verursacht, das sich entlang der zumindest einen Förderstrecke, die im Sichtfeld des Bildsensors liegt, durch den für den virtuellen Sensor definierten Bereich bewegt.
  • Die Referenzpunkte können durch inhärente Merkmale von Komponenten des Fördersystems implementiert sein. So können z.B. die Fördereinrichtungen herstellerseitig mit einer Seriennummer versehen sein, die als „Referenzpunkt“ benutzt werden kann, sofern im Bild des Bildsensors auflösbar und erkennbar ist. In diesem Fall ist es nicht erforderlich, das zu überwachende System nachträglich mit Markierungen zu versehen.
  • Derartige Referenzpunkte können definiert werden, indem ein Bereich, wo ein Identifikationsmerkmal, wie z.B. eine Barcode-Kennzeichnung, angeordnet ist, im erzeugten Bild ausgewählt wird. Dieser Bereich ist der Förderstrecke zugeordnet und für diese Förderstrecke kennzeichnend.
  • Weiter ist es von Vorteil, wenn dem Überwachungsbereich ferner ein Sensortyp zugewiesen wird, der vorzugsweise eine Lichtschranke, ein Lichttaster oder ein Scanner ist.
  • Die Auswahl eines Sensortyps legt fest, welche Zustandsänderungen überwacht werden sollen. Wenn eine Lichtschranke oder ein Lichttaster als Sensortyp ausgewählt wird, reicht es aus, eine Zustandsänderung an einem Punkt oder entlang einer Linie zu detektieren. Wenn ein Scanner ausgewählt wird, ist der zu überwachende Bereich auf zuvor definierte Identifikationsmerkmale, wie z.B. Barcodes, zu überwachen. Diese Art der Überwachung kann automatisiert werden, indem Bildverarbeitung eingesetzt wird.
  • Des Weiteren wird die Aufgabe durch ein System zum Definieren eines virtuellen Sensors für ein Fördersystem gelöst, das mindestens eine Förderstrecke umfasst, wobei das System aufweist: einen Bildsensor, der in dem Fördersystem, das ein Referenzbezugssystem definiert, positionierbar ist und der ein Sichtfeld aufweist, so dass ein Bild von zumindest einer der Förderstrecken des Fördersystems und von zumindest einem Referenzpunkt erzeugbar ist; eine Vielzahl von Markierungen, die als die Referenzpunkte innerhalb des Fördersystems fest und unveränderlich an Positionen positionierbar sind, die im Referenzbezugssystem bekannt sind; eine Einrichtung, die eingerichtet ist, die im Referenzbezugssystem bekannten Positionen der Referenzpunkte zu speichern; eine Bildverarbeitungseinrichtung, die eingerichtet ist, Positionen von Referenzpunkten, die im Bild identifizierbar sind, vorzugsweise mittels Mustererkennung, in einem Bezugssystem des erzeugten Bilds zu bestimmen; eine Einrichtung, die eingerichtet ist, eine Koordinatentransformation basierend auf den Positionen der Referenzpunkte in beiden Bezugssystemen zu bestimmen, so dass jedem Bildpunkt des erzeugten Bilds eine Koordinate im Referenzbezugssystem zuordenbar ist; und eine Einrichtung, die eingerichtet ist, einen Überwachungsbereich, vorzugsweise im Bild, zu definieren, der durch den virtuellen Sensor zu überwachen ist und der sich zumindest teilweise mit einer der Förderstrecken überlappt, die im Sichtfeld des Bildsensors liegt.
  • Die oben für das Verfahren genannten Vorteile gelten analog für das System.
  • Es versteht sich, dass die vorstehend genannten und die nachstehend noch zu erläuternden Merkmale nicht nur in der jeweils angegebenen Kombination, sondern auch in anderen Kombinationen oder in Alleinstellung verwendbar sind, ohne den Rahmen der vorliegenden Erfindung zu verlassen.
  • Ausführungsbeispiele der Erfindung sind in der Zeichnung dargestellt und werden in der nachfolgenden Beschreibung näher erläutert. Es zeigen:
    • 1 ein Blockdiagramm eines exemplarischen Intralogistiksystems;
    • 2 eine Veranschaulichung eines Fördersystems in der Realität und eine Veranschaulichung eines Sichtfelds und Bilds, das ein Bildsensor von der Realität aufnimmt;
    • 3 eine Veranschaulichung eines aufgenommenen Bilds, das auf einen Bildschirm eines Tabletcomputers wiedergegeben wird und das manuell bearbeitbar ist;
    • 4 eine Steuerung gemäß dem Stand der Technik (4A), eine Steuerung gemäß der vorliegenden Offenbarung (4B) und eine Nachrüstung einer herkömmlichen Steuerung (4C);
    • 5 ein Flussdiagramm zum Definieren eines virtuellen Sensors;
    • 6 eine Anwendung im Kontext von Unstetigförderern in einer innerbetrieblichen Umgebung (6A) und in der Außenwelt (6B); und
    • 7 ein Blockdiagramm eines Systems zum Definieren eines virtuellen Sensors.
  • Die vorliegende Offenbarung betrifft allgemein das Gebiet der Intralogistik, und insbesondere die Steuerung eines Materialflusses in einem Intralogistiksystem (Lager- und/oder Kommissioniersystem) mittels realer Bildsensoren und virtueller (Überwachungs-)Sensoren.
  • Allgemein und exemplarisch gesprochen betrifft die vorliegende Entwicklung die Idee, dass ein Techniker eine Kamera an einem frei wählbaren Punkt innerhalb des Intralogistiksystems positioniert. Die Kamera erzeugt ein Bild eines interessierenden Ausschnitts des Intralogistiksystems. Im Bild sind Marker zu sehen, die der Techniker zuvor an z.B. Lager- und/oder Fördereinrichtungen angebracht hat. Die Anbringungspositionen der Marker werden vom Techniker im Layout des Intralogistiksystem bestimmt, so dass die Kameraposition mittels Bildverarbeitung basierend auf den Markern bestimmt werden kann. Anschließend kann der Techniker im Bild Überwachungsbereiche einzeichnen, womit virtuelle Sensoren definiert werden. Zustandänderungen im Kamerabild, die mit den Überwachungsbereich übereinstimmen, die in Echtzeit überwacht werden und die z.B. durch bewegte Fördergüter hervorgerufen werden, können verarbeitet und zum Steuern des Materialflusses eingesetzt werden, ohne dass echte Überwachungssensoren in der realen Welt (Intralogistiksystem) positioniert sind.
  • Die 1 zeigt ein Blockdiagramm eines Blockdiagramm eines Lager- und/oder Kommissioniersystems 10, das ein exemplarisches Intralogistiksystem repräsentiert. Das System 10 umfasst ein Fördersystem 12, einen Bildsensor 14 (nachfolgend wird exemplarisch eine Kamera 16 behandelt), einen virtuellen Sensor 18, eine Bildverarbeitungseinheit 20 (Computer, der zur Bearbeitung und Verarbeitung von Bildern eingerichtet ist) und eine Steuerung 22 (z.B. einen Materialflussrechner, MFR, 24). Das System 10 ist üblicherweise in einem Gebäude (z.B. in einer Halle) untergebracht.
  • Der Begriff „Intralogistik“ umfasst die Organisation, Steuerung, Durchführung und Optimierung des innerbetrieblichen Materialflusses, der Informationsströme sowie des Warenumschlags in Industrie, Handel und öffentlichen Einrichtungen.
  • Unter dem Begriff „Materialfluss“ versteht man alle Vorgänge und deren Verkettung bei der Herstellung, bei der Be- und Verarbeitung sowie bei der Verteilung von (Förder-) Gütern und Gegenständen innerhalb bestimmter festgelegter Bereiche (z.B. Wareneingang, Lager, Kommissionierung und Warenausgang). Der Materialfluss wird vom Materialflussrechner (MFR) 24 gesteuert, der Quelle-Ziel-Beziehungen kontrolliert und eine Reihenfolge koordiniert, in welcher einzelne Aufträge (z.B. Transportaufträge) abgearbeitet werden.
  • Unter dem „Fördersystem 12“ sind allgemein die technischen Systeme des Materialflusses, d.h. Fördereinrichtung(en) 26, zu verstehen, die im Wesentlichen innerbetriebliche Ortsveränderungen, d.h. einen Transport, der (Förder-) Güter bewirken. Die Fördereinrichtungen 26 umfassen zwei Gruppen (nicht dargestellt): Stetigförderer und Unstetigförderer. Stetigförderer (z.B. Rollenförderer, Bandförderer, Kettenförderer, Hängeförderer, etc.) arbeiten kontinuierlich und sind zumeist ortsfest installiert. Unstetigförderer sind Fahrzeuge (fahrende Roboter, fliegende Drohnen, etc.), die das Fördergut entweder frei, d.h. autonom bzw. selbstständig, oder spur- bzw. zwangsgeführt entlang einer Förderstrecke 28 (Weg zwischen Quelle und Ziel) fördern und transportieren.
  • Die Förderstrecken 28 stellen die Wege dar, entlang denen die Fördergüter von ihrer Quelle zu einem Ziel transportiert werden. Wenn z.B. ein Rollenförderer als Fördereinrichtung 26 verwendet wird, dann entspricht die Förderstrecke 28 im Wesentlichen einer Längserstreckung des Rollenförderers. Wenn ein auf dem Boden fahrendes Fahrzeug als Fördereinrichtung 26 verwendet wird, dann entspricht die zugehörige Förderstrecke 28 im Wesentlichen einem Fahrweg des Fahrzeugs. Wenn eine fliegende Drohne als Fördereinrichtung 26 eingesetzt wird, dann entspricht die zugehörige Förderstrecke 28 im Wesentlichen einer Flugbahn der Drohne. Dies bedeutet allgemein, dass der Weg, den das an die Fördereinrichtung 26 gekoppelte Fördergut während eines Transports zurücklegt, der Förderstrecke 28 entspricht.
  • Die Bewegung des Förderguts wird herkömmlicherweise mit einem oder mehreren Sensoren erfasst.
  • Exemplarische Sensoren, die herkömmlicherweise im Fördersystem 12 eingesetzt werden sind: Lichtschranken, Lichttaster, Kameras 16 und (Barcode-)Scanner. Mit Lichtschranken und Lichttastern kann erfasst werden, ob sich das Fördergut an einem vorab festgelegten Ort befindet oder nicht. Lichtschranken und Lichttaster arbeiten linear, d.h. überwachen einen Punkt oder eine Linie. Kameras 16 arbeiten zweidimensional, d.h. erfassen Flächen (Bilder). Mit Kameras können Positionen und Bewegungen erfasst werden, auch von mehreren Fördergütern gleichzeitig. Kameras 16 und Scanner können zum Identifizieren der Fördergüter eingesetzt werden.
  • Unter dem allgemeinen Begriff „Sensor“ ist also ein technisches Bauteil zu verstehen, das physikalische oder chemische Größen aktiv misst und die gemessenen Größen in entsprechende elektrische Signal zur weiteren Verarbeitung umwandelt. Sensoren werden auch als Detektor, (Messgrößen- oder Mess-)Aufnehmer oder (Mess-)Fühler bezeichnet (Quelle: Wikipedia zu „Sensor“).
  • Unter einem „virtuellen Sensor 18“ ist ein Sensor zu verstehen, der im System 10 physisch nicht vorhanden ist, aber dennoch eine gewünschte Information, wie z.B. über einen Systemzustand (z.B. Fördergut an einem bestimmten Ort vorhanden oder nicht?), basierend auf einer Größe liefert, die von einem oder mehreren real vorhandenen Sensoren wie z.B. einer Kamera 16 aufgenommen und mittels Datenverarbeitung in die gewünschte Information umgewandelt wird. Der Bildsensor 14 stellt in diesem Fall den realen Sensor dar.
  • Die vom Bildsensor 14 erzeugten Bilddaten werden von der Bildverarbeitungseinrichtung 10 bearbeitet. Die Bilddaten werden mittels Bilderkennung analysiert. Die Bilderkennung ist ein Teilgebiet der Mustererkennung und der Bildverarbeitung. Die Bilderkennung im Kontext der Bildverarbeitung ist die Fähigkeit von Software, Objekte, Orte, Personen, Schriften und Aktionen in Bildern zu identifizieren.
  • Virtuelle Sensoren 18 liefern also äquivalente Informationen wie reale Sensoren, nur dass die Informationen durch Verarbeitungen von Daten anderer, realer Sensoren erzeugt werden muss.
  • Insbesondere für die Materialflusssteuerung ist es wichtig zu wissen, wo sich die Fördergüter zu einem bestimmten Zeitpunkt innerhalb des Systems 10, und insbesondere innerhalb des Fördersystems 12, befinden, um Aktuatoren 32, wie z.B. Motoren, Stauförderer, Einschleuseinrichtungen, Ausschleuseinrichtungen und Ähnliches, zur richtigen Zeit zu steuern.
  • Zum Beispiel werden in herkömmlichen Systemen reale Sensoren an fest vorgegebenen Orten verbaut, wie z.B. eine Lichtschranke unmittelbar vor einem Materialflussknotenpunkt, wo sich z.B. zwei Förderstrecken 26 zu einer einzigen Förderstrecke 26 vereinen. Wenn diese Lichtschranke ein Signal sendet, liegt die Information vor, dass in diesem Augenblick ein Fördergut den Lichtstrahl unterbrochen hat. Es liegt also eine zeit- und ortsabhängige Information vor, die zum Steuern des Materialflusses nutzbar ist, z.B. um eine unmittelbar stromabwärts gelegene Ausschleuseinrichtung zu aktivieren, die veranlasst, dass das Fördergut, das die Lichtschranke gerade unterbricht oder unterbrochen hat, ausgeschleust wird. Zu diesem Zweck wird der Installationsort der Lichtschranke in einem Bezugssystem 30, z.B. im Bezugssystem 30 des Lager- und/oder Kommissioniersystems 10 oder des Fördersystems 12, vorab festgelegt und in entsprechenden Modelldaten hinterlegt sein.
  • Unter dem Begriff „Modell“ versteht man allgemein eine detailgetreue Beschreibung eines (vorhandenen oder noch herzustellenden) Systems, z.B. des Fördersystems 12. Diese Beschreibung veranschaulicht eine oder mehrere Eigenschaften des Systems, wie z.B. eine Form, eine Beschaffenheit, einen Aufbau, eine Anordnung von Komponenten (Fördereinrichtungen 26 und/oder Förderstrecken 28), (Relativ-)Positionen und Ausrichtungen der Komponenten, Abmessungen der Komponenten, Maßverhältnisse und Ähnliches. Die Beschreibung in Papier erfolgt in Form eines Layouts oder einer Karte. Ein Installateur nutzt diese Daten, um die Lichtschranke beim Aufbau (Installation) des Systems am richtigen Ort zu installieren. Die elektronische Beschreibung erfolgt in Form von Modelldaten, die einem Speicher einer Datenverarbeitungseinrichtung hinterlegt sind. Die Installationsorte und Modelldaten sind auf ein Koordinatenreferenzsystem (z.B. Koordinatensystem des Fördersystems) bezogen.
  • Unter dem Begriff „Koordinatenreferenzsystem“, das auch als „Koordinatenbezugssystem“ bezeichnet wird, versteht man ein Koordinatensystem bzw. Bezugssystem 30, das durch Verknüpfung mit einem Datum (z.B. einem Ursprungspunkt) auf die reale Welt bezogen ist. Koordinatensysteme dienen zur eindeutigen Bezeichnung der Positionen (Koordinate 34, vgl. 1) von Punkten und Gegenständen (z.B. Fördereinrichtungen 26) in einem geometrischen Raum, wie z.B. in dem Fördersystem 12. Eine Koordinate 34 ist eine von mehreren Zahlen, mit denen man den Ort des Punktes in einer Ebene oder in einem Raum eindeutig angibt. Jede der zu dieser Beschreibung erforderlichen Dimensionen wird durch eine Koordinate 34 ausgedrückt. Nachfolgend werden vereinfachend zweidimensionale Koordinaten- und Bezugssysteme 30 betrachtet. Es versteht sich das diese Systeme auf beliebige Dimensionen erweiterbar sind, z.B. auf vier Dimensionen (Höhe, Breite, Länge und Zeit). Außerdem drücken die Begriffe „Ort“ und „Position“ das Gleiche aus.
  • Bezugssysteme 30 sind also erforderlich, um das Verhalten von ortsabhängigen Größen eindeutig und vollständig zu beschreiben. Die Positionen und Bewegungen von Gegenständen können nur relativ zum jeweiligen Bezugssystem 30 angeben werden.
  • Verschiedene Bezugsysteme 30 können aufeinander referenziert werden. Der Begriff „referenzieren“ drückt allgemein aus, dass Dinge aufeinander bezogen werden, also zueinander in eine Beziehung gebracht werden.
  • Das Fördersystem 12 der 2 weist ein Bezugssystem 30 auf, das identisch zum Bezugssystem 30 des Gesamtsystems 10 sein kann. Die Kamera 16 weist ein Bezugssystem 30' auf.
  • Sind mehrere charakteristische Punkte (z.B. Markierungen), die in beiden Bezugssystemen 30 und 30' vorhanden sind, hinsichtlich ihres Orts bekannt, können die Bezugssysteme 30 und 30' aufeinander referenziert werden, so dass die Koordinaten 34 eines beliebigen Punkts in einem der Bezugssysteme 30', 30 auch in Form von Koordinaten 34 des gleichen Punkts in dem anderen Bezugssystem 30, 30` ausgedrückt werden können. Beim Referenzieren wird eine Transformationsfunktion (Koordinatentransformation) bestimmt, die den Punkt aus dem einen Bezugsystem 30' in den entsprechenden Punkt in dem anderen Bezugssystem 30 wandelt.
  • Dies soll nachfolgend unter Bezugnahme auf 2 näher veranschaulicht werden.
  • 2 zeigt eine schematische Teilansicht eines Fördersystems 12 in einer Draufsicht. Im unteren Teil der 2 ist das Fördersystem 12 in der Realität, d.h. im Bezugsystem 30, einer exemplarischen Lager- und Kommissionieranlage 10 gezeigt, die das Fördersystem 12 umfasst. Im oberen Teil der 2 ist ein Bild 36 veranschaulicht, das eine Kamera 16 aufgenommen hat. Das Bild 36 zeigt ein Abbild eines Teils des realen Fördersystems 12, der im Sichtfeld 37 der Kamera 16 liegt. Das (zweidimensionale) Bild 36 wird aus (nicht näher bezeichneten) Bildpunkten gebildet, die in Zeilen und Spalten aufgebaut sind. Das Bild 36 hat das eigenes Bezugsystem 30'.
  • Das Bezugsystem 30 kann für das Lager- und Kommissioniersystem 10 und das Fördersystem 12 das gleiche sein. Dies bedeutet, dass die Systeme 10 und 12 im gleichen Bezugssystem 30 beschrieben werden können. Das Bezugssystem 30 kann z.B. ein (zwei- oder dreidimensionales) kartesisches Koordinatensystem sein, dass seinen Ursprung (0/0/0) z.B. in der linken unter Ecke eines (hier nicht veranschaulichten) Gebäudes hat, in dem die Systeme 10 und 12 installiert sind.
  • Das Bezugssystem 30' des Bildes 36 kann ebenfalls ein (zweidimensionales) kartesisches Koordinatensystem sein.
  • Es versteht sich, dass auch andere Koordinatensysteme verwendet werden können. Das Koordinatensystem des Fördersystems 12 könnte sich aus Koordinaten 34 aufbauen, die z.B. an eine Position einer Fördereinrichtung 26 innerhalb des Systems 12 geknüpft sind, wie z.B. „1. Förderer der Hauptstrecke“, „2. Förderer der Hauptstrecke“, .... , n-ter Förderer der Hauptstrecke“, „1. Förderer der 1. Nebenstrecke“, usw.. Des Weiteren könnten diese Förderer noch weiter unterteilt werden in „Eingang“, „Mitte“ und „Ausgang“, so dass sich ein Ort, an dem ein Sensor platziert werden kann, noch detaillierter beschreiben lässt, wie z.B. „1. Förderer der Hauptstrecke, Ausgang“.
  • Sowohl in der Realität als auch im Bild 36 ist das folgende zu sehen.
  • Es gibt zwei Förderstrecken 28-1 und 28-2, die mit strichpunktierten Linien veranschaulicht sind. Die Förderstrecken 28-1 und 28-2 erstrecken sich exemplarisch jeweils geradlinig. Die Förderstrecke 28-1 verläuft in der 2 horizontal und die Förderstrecke 28-2 verläuft schräg dazu. Die Förderstrecken 28-1 und 28-2 sind exemplarisch durch Stetigförderer implementiert. Es versteht sich, dass alternativ oder ergänzend auch Unstetigförderer eingesetzt werden können, um (nicht dargestellte) Fördergüter entlang den Förderstrecken 28 zu transportieren.
  • Ferner sind die Förderstrecken 28-1 und 28-2 exemplarisch modular aufgebaut, d.h. sie umfassen mehrere Fördereinrichtungen 26, die so angeordnet sind, dass sie aneinander grenzen. Die Strecken 28 könnten aber auch jeweils durch nur einen einzigen Förderer implementiert werden.
  • Generell können unterschiedliche Typen von Fördereinrichtungen 26 verwendet werden, auch gemischt. Die Fördereinrichtung 26-1 ist z.B. eine lineare Rollenbahn und die Fördereinrichtung 26-2 ist ein linearer Gurtförderer.
  • Es versteht sich, dass ferner und alternativ auch nicht lineare Förderer, wie z.B. Kurvenförderer, eingesetzt werden können.
  • Ferner versteht es sich, dass die Fördereinrichtungen 26 auch Höhendifferenzen überwinden können, indem z.B. Vertikalförderer oder Rampen für Fahrzeuge eingesetzt werden. All dies ist in der 2 zur Vereinfachung der Erklärung jedoch nicht gezeigt, aber dennoch möglich.
  • In 2 sind exemplarisch drei Referenzpunkte M1 bis M3 gezeigt, die für die angestrebte Koordinatentransformation verwendet werden können. Es versteht sich, dass das gesamte System 10 bzw. 12 üblicherweise mit viel mehr Referenzpunkten versehen ist, als in 2 gezeigt sind. Auf diesen Aspekt wird nachfolgend noch näher eingegangen werden.
  • Die drei Referenzpunkte sind in der 2 mit M1 bis M3 bezeichnet, weil die Referenzpunkte in diesem Fall exemplarisch durch Markierungen M implementiert sind, die nachträglich und zusätzlich an zumindest einigen der Fördereinrichtungen 26 angebracht wurden. Die Markierungen M1 und M3 sind fest und unveränderlich an der Fördereinrichtung 26-2 angebracht. Die Markierung M2 ist an der Fördereinrichtung 26-4 angebracht. Die Markierungen M sind in diesem Fall Komponenten des Systems 10 (vgl. 1) oder auch des Fördersystems 12.
  • Es versteht sich, dass die Markierungen M auch an anderen Komponenten des Systems 10 angebracht werden können, wie z.B. an Regalen, am (Gebäude-) Boden, Wänden, an der Decke, an Ständern oder Ähnlichem.
  • Die Orte und Positionen, an denen die Markierungen M1 bis M3 im Bezugssystem 30 des Fördersystems 12 an den Fördereinrichtungen 26-2 und 26-4 angebracht sind, sind zu bestimmen. Es werden also die Koordinaten 34 der Markierungen M1 bis M3, d.h. der Referenzpunkte, im Bezugssystem 30 bestimmt.
  • Diese Bestimmung (Zuordnung einer Markierung zu einem spezifischen Ort) kann von einem Planer des System 12 vorab durchgeführt werden. Alternativ kann die Bestimmung von einem Betreiber oder Installateur des Systems 12 durchgeführt werden, nachdem die Fördereinrichtungen 26 aufgebaut und die Markierungen M1 bis M3 angebracht wurden. Zu diesem Zweck wird entweder die jeweilige Position der Fördereinrichtung 26 im System 12 und zusätzlich die relative Position der jeweiligen Markierung M in Bezug auf die zugehörige Fördereinrichtung 26 bestimmt (z.B. „M1 am Eingang des 2. Förderers der Hauptstrecke“) oder die Position der Markierung M wird direkt im System 10 bestimmt (z.B. M1 = (3000/550/600) in XYZ-Koordinaten, jeweils in mm). Die Bestimmung kann z.B. durch Messen erfolgen.
  • Es versteht sich, dass die Markierungen M1 bis M3 auch schon vor der Installation der Fördereinrichtungen 26 innerhalb des Systems 10 oder 12, d.h. herstellerseitig, an den entsprechenden Fördereinrichtungen 26 an vordefinierten Orten angebracht werden können (z.B. Markierungen werden immer am Eingang eines Förderers auf der linken Seite platziert, wenn man in der Förderrichtung schaut). In diesem Fall legt der Betreiber des Systems 10 lediglich die Installationsorte der Fördereinrichtungen 26 im Gesamtsystem 10 fest. Die Orte der Markierungen M innerhalb des Bezugssystems 30 des Fördersystems 12 erhält man in diesem Fall automatisch, und insbesondere unabhängig davon, ob das Fördersystem 12 exakt im Gesamtsystem 10 positioniert ist oder nicht.
  • Ferner versteht es sich, dass neben oder anstatt den Orten der Referenzpunkte weitere Ortsinformationen festgestellt werden können, die eine Bestimmung der Transformation vereinfachen. So ist es zum Beispiel von Vorteil, wenn auch die Abstände der Referenzpunkte relativ zueinander und/oder zu den Fördereinrichtungen 26 vorab bestimmt bzw. festgelegt werden. Die Abstände können als Verbindungslinien ausgedrückt werden, die in ihrer Gesamtheit wiederum ein spezifisches Abstandsmusters ergeben. Je mehr Informationen dieser Art vorliegen, desto einfacher können die Referenzpunkte im Bild 36 mittels Bilderkennung, insbesondere Mustererkennung, identifiziert werden.
  • Zurückkehrend zur 2 bedeutet dies das Folgende. Die Kamera 16 kann einem beliebigen Ort positioniert werden. Es ist lediglich darauf zu achten, dass ausreichend viele Referenzpunkte im Bild 36 enthalten sind, so dass die Referenzpunkte des Bildes 36 mittels Bilderkennung identifiziert, d.h. auf das Bezugssystem 30 transformiert, werden können. Sobald klar ist, welche Referenzpunkte im Bild 36 zu sehen sind, kann die Koordinatentransformation bestimmt werden, um den im Bild 36 enthaltenen Referenzpunkten eindeutig Orte im Bezugssystem 30 des Fördersystem 12 zuordnen zu können. Auf diese Weise ist möglich, jedem Bildpunkt einen Ort im Bezugssystem 30 zuzuordnen. Das Bild 36 ist dann auf das Bezugsystem 30 des Fördersystems 12 referenziert.
  • Es versteht sich, dass es nicht erforderlich ist, dass die Kamera 16 senkrecht über den Förderstrecken 28 positioniert ist. Perspektivische Ansichten können auf die gleiche Weise ausgewertet werden, wobei in diesem Fall mindestens drei Referenzpunkte im Bild 36 enthalten sein sollten.
  • Die Referenzierung ermöglicht es, einen oder mehrere virtuelle Sensoren 18 im Bild 36 zu definieren.
  • Im Bild 36 der 2 sind exemplarisch neun virtuelle Sensoren 18-1 bis 18-9 gezeigt. Die virtuellen Sensoren 18-1 bis 18-8 sind z.B. als Lichtschranken (vgl. Linien) definiert und der virtuelle Sensor 18-9 ist als Barcode-Scanner (vgl. Rechteck) definiert. Die Lichtschranken 18-1 bis 18-3 werden von der Fördereinrichtung 26-1 (Rollenförderer mit mehreren Stauplätzen, Segmentierung nicht dargestellt) zur Implementierung von Stauplätzen benutzt, so dass der MFR 24 dort Fördergüter anhalten und stauen kann. Die Lichtschranken 18-4 und 18-5 werden von der Fördereinrichtung (durchgehender Bandförderer) benutzt, um die Geschwindigkeit von Fördergütern unmittelbar vor dem Vereinigungspunkt mit der Fördereinrichtung 26-5 zu beeinflussen. Die Lichtschranken 18-6 und 18-8 dienen ebenfalls der Geschwindigkeitsbeeinflussung vor dem Vereinigungspunkt. Die Lichtschranke 18-7 ist schräg - und somit nicht senkrecht wie die anderen Lichtschranken - zur Förderrichtung orientiert, um eine Längenmessung durchführen zu können. Der Scanner 18-9 tastet einen Bereich ab und dient zur Identitätsbestimmung.
    Ferner könnten auch Flächen seitlich zu den Förderstrecken und/oder Fördereinrichtungen 26 überwacht werden, z.B. um herabfallende Fördergüter zu erfassen. Diese Flächen grenzen vorzugsweise unmittelbar an die Fördereinrichtungen 26 an, wie es in 2 durch schraffierte Bereiche angedeutet ist.
  • Die 2 zeigt also verschiedene Positionen, Ausrichtungen und Größen von Bereichen im Bild 36, die überwacht werden, um eine (ortsabhängige) Materialflusssteuerung zuverlässig durchführen zu können, und zwar allein auf Basis von Daten, die der Bildsensor 14 liefert.
  • Zu diesem Zweck wird ein Bild 36 frei von Fördergütern erzeugt, das als eine Basis für Bilder 36 dient, die später aufgenommen werden, während Fördergüter durch das Sichtfeld 37 des Bildsensors 14 befördert werden. Durch den Bildvergleich ist es möglich, die Anwesenheit der Fördergüter ortsabhängig zu detektieren. Wenn ein Fördergut in einem Bereich des Bilds 36 erkannt ist, der einem virtuellen Sensor 18 entspricht, wird ein entsprechendes Zustandssignal erzeugt, welches der MFR 24 zur Steuerung von Aktuatoren benutzen kann, die zur Materialflusssteuerung benötigt werden. Zum Beispiel kann das Signal einer virtuellen Lichtschranke benutzt werden, um einen Antrieb abzuschalten, der eine Fördereinrichtung 26 antreibt, die dem gleichen Ort wie die virtuelle Lichtschranke zugeordnet ist, um das Fördergut zu stoppen (Staufunktion). Die virtuelle Lichtschranke liefert auf Basis des Bildvergleichs ein entsprechendes Signal, sobald das Fördergut in den Bereich eintritt, der der virtuellen Lichtschranke zugeordnet ist.
  • 3 veranschaulicht die (nachträgliche) Definition eines virtuellen Sensors 18 an einem beliebigen Ort innerhalb des Bilds 36. Bei der Definition wird dem virtuellen Sensor 18 ein (Überwachungs-)Bereich des Bilds 36 innerhalb des Fördersystems 12 zugeordnet, dessen Ortskoordinaten im Bezugssystem 30 bekannt sind.
  • 3 zeigt einen exemplarischen Tabletcomputer 40 mit einem berührungsempfindlichen Bildschirm 42, auf dem einem Benutzer 44 das Bild 36 der Kamera 16 der 2 angezeigt wird. Im angezeigten Bild 36 ist der virtuelle Sensoren 18-5 bereits veranschaulicht. Das (Kamera-) Bild 36 ist bereits auf die Realität referenziert, d.h. die Koordinatentransformation zwischen dem Bezugssystem 30' des Bilds 36 und dem Bezugssystem 30 der realen Welt ist bereits anhand der identifizierten Referenzpunkte (M1 bis M3) bestimmt worden.
  • Der Benutzer 44 hat manuell, z.B. mit einem Stift 46, den virtuellen Sensor 18-5 auf den Bildschirm 42 gezeichnet. Der Bildschirm 42 erfasst die Position, Ausrichtung und/oder Größe des gezeichneten Sensors 18 in seinem Bezugssystem 30'.
  • Die gezeichnete Position, Ausrichtung und/oder Größe des virtuellen Sensors 18-5 kann nun in entsprechende Daten, insbesondere in Ortsdaten, in der realen Welt gewandelt werden, um die gewünschten Sensordaten zu simulieren.
  • Der Benutzer 44 definiert ferner einen Sensortyp (z.B. Lichtschranke) und bindet den so definierten Sensor in die Materialflusssteuerung 22 (vgl. 1) ein.
  • Es versteht sich, dass die virtuellen Sensoren 18 auch lediglich in den Modelldaten des Systems 10 und/oder 12 definiert werden können, wobei der Bildsensor 14 anschließend so zu positionieren ist, dass das Sichtfeld 37 die so definierten Bereiche (und ausreichend Referenzpunkte) erfasst.
  • Die Einbindung der virtuellen Sensoren ist in 4 veranschaulicht, wobei 4A eine alte Materialflusssteuerung gemäß dem Stand der Technik mit echten Sensoren, 4B eine neue Steuerung mit einem virtuellen Sensor 18 (nicht veranschaulicht) und 4C eine Einbindung eines virtuellen Sensors 18 (nicht veranschaulicht) in eine alte Steuerung zeigt.
  • 4A zeigt, dass herkömmliche Steuerungen mit jedem realen Sensor physisch verbunden sind. Dies bedeutet mit anderen Worten, dass eine Vielzahl von Signalleitungen oder ein Bussystem benutzt wird, um die realen Sensoren physisch mit der Steuerung zu verbinden.
  • 4B veranschaulicht das gleiche Szenario wie 4A, jedoch sind die realen Sensoren durch den (vorzugsweise einzigen) Bildsensor 14 ersetzt worden, der wiederum eine Vielzahl von virtuellen Sensoren 18 simuliert.
  • 4C veranschaulicht ebenfalls das gleiche Szenario wie die 4A und 4B, wobei der Bildsensor 14 bzw. die virtuellen Sensoren 18 über eine Zwischensteuerung 48 an eine alte Steuerung gekoppelt werden. Die Zwischensteuerung 48 wandelt das Signal des Bildsensors 14 in eine entsprechende Anzahl von Signalen von virtuellen Sensoren 18, die an entsprechende Anschlüsse der alten Steuerung geliefert werden. Dies bedeutet mit anderen Worten, dass die 4C die Möglichkeit einer Nachrüstung aufzeigt, so dass auch Bestandssteuerungen um virtuelle Sensoren 18 erweitert werden können.
  • 5 zeigt ein Flussdiagramm eines Verfahrens zum Definieren eines virtuellen Sensors 18 in einem Fördersystem 12, dessen Modell im Bezugssystem 30 des Fördersystems 12 bekannt ist. Dies bedeutet, dass das Modell des Fördersystems 12 bereitgestellt wird, wobei das Modell zumindest eine Position, sowie vorzugsweise eine Ausrichtung und Abmessung, von jeder der Förderstrecken 28 im Bezugssystem 30 des Fördersystems 12 (oder des Gesamtsystems 10) umfasst. Die in 2 gezeigten Fördereinrichtungen 26 können ein (erstes modulares) Fördersystem 12 bilden, an das sich weitere (nicht veranschaulichte modulare Systeme) anschließen, die ähnlich wie das Fördersystem 12 der 2 aufgebaut sind.
  • In einem Schritt S10 wird mindestens ein Referenzpunkt im Bezugssystem 30 des Fördersystems 12 definiert. Das Bezugsystem 30 ist das Referenzbezugsystem, auf das sich alles beziehen soll. Die Definition kann erfolgen, indem z.B., zusätzliche Markierungen innerhalb des Fördersystems 12 positioniert werden. Eine, mehrere oder alle Fördereinrichtungen können mit den Markierungen M (vgl. M1 bis M3) versehen werden (siehe optionaler Schritte S 12), indem die Markierungen M z.B. an die Fördereinrichtungen 26 geklebt werden. Die Markierungen M können auch getrennt von den Fördereinrichtungen 26 vorgesehen werden, in diesem Fall aber an fest vorgegebenen und unveränderlichen Positionen relativ zu den Fördereinrichtungen 26. Die Markierungen M könnten z.B. an Ständern (nicht gezeigt) angebracht werden, die getrennt und beabstandet von den Fördereinrichtungen 26 positioniert werden können.
  • Die Markierungen M können an anderen Elementen der Umgebung (z.B. an Regalen, Türen, Wänden, Decke, Boden, etc.) angebracht werden, die in einem unveränderlichen räumlichen Verhältnis zu den Fördereinrichtungen 26 bzw. den Förderstrecken 28 stehen. Dies ist insbesondere von Vorteil, wenn Unstetigförderer eingesetzt werden. Die Markierungen könnten in diesem Fall z.B. auf den Boden geklebt werden, ähnlich wie Führungsspuren für verfahrbare Roboter.
  • Bei den Markierungen M kann es sich z.B. Barcodes oder andere, optisch erkennbare Kennzeichnungen handeln. Insbesondere kann es sich um charakteristische Kennzeichnungen handeln, die jeweils nur ein einziges Mal im Fördersystem 12 verwendet werden, um eine eindeutige Zuordnung (Identifikation) der Markierung M zur gewünschten Förderstrecke 28 zu erleichtern.
  • Es könnten aber auch identische Markierungen M verwendet werden, z.B. reflektierende Punkte, die vom Bildsensor 14 besonders gut erfasst werden und im Bild 36 gut und einfach erkennbar - aber nicht eindeutig identifizierbar - sind. In diesem Fall sind die Markierungen nicht individuell identifizierbar, sondern können nur in Gruppen z.B. mittels Mustererkennung eindeutig identifiziert werden.
  • Die Definition der Referenzpunkte des Schritts S10 umfasst auch, dass die Positionen für jeden definierten Referenzpunkt im (Referenz-)Bezugssystem 30 des Fördersystems 12 bestimmt werden. Diese Positionen werden für die Bestimmung der Koordinatentransformation benötigt.
  • In einem Schritt S14 wird der Bildsensor 14 innerhalb des Fördersystems 12 so positioniert, dass zumindest eine der Förderstrecken 28 und mindestens einer der vorab definierten Referenzpunkte im Sichtfeld 37 des Bildsensors 14 liegen. Üblicherweise werden aber mehrere Referenzpunkte innerhalb des Sichtfelds 37 benötigt, um die (insbesondere automatisierte) Identifizierung der dort vorhandenen Referenzpunkte sicher durchzuführen. Dies ist insbesondere schwierig, wenn die Referenzpunkte durch nicht oder nur schwer unterscheidbare Markierungen M realisiert sind oder wenn die Unterschiede in den Markierungen optisch nicht erkennbar sind (z.B. wegen mangelnder Auflösung). In diesen Fällen ist es hilfreich, auf zusätzliche Informationen zurückgreifen zu können, wie z.B. Abstände zwischen den Markierungen, Anbringungsorte in Bezug auf die Fördereinrichtungen 26 oder Ähnliches.
  • In einem weiteren, nicht veranschaulichten Schritt wird das Bild 36, vorzugsweise periodisch wiederkehrend, mit dem Bildsensor 14 erzeugt, nachdem der Bildsensor 14 entsprechend positioniert ist. Die richtige Positionierung kann vom Benutzer 44 überprüft werden, indem der Benutzer 44 die Kamera 16 so lange hin und her bewegt, bis er (live) ausreichend viele Referenzpunkte auf seinem Tabletcomputer 40 (vgl. 3) sieht.
  • In einem Schritt S 16 werden die Referenzpunkte im erzeugten Bild 36, vorzugsweise mittels Bilderkennung, identifiziert und die Positionen der identifizierten Referenzpunkte werden in Bezugssystem 30' des Bilds 36 bestimmt. Identifizieren bedeutet in diesem Kontext, dass die Referenzpunkt im Bild 36 erkannt werden müssen, um zu entscheiden, welcher Bildpunkt des Bildes 36 einen Referenzpunkt darstellt und welcher nicht. Die Referenzpunkte können z.B. vom Benutzer 44 im Bild 36 erkannt und identifiziert werden. Der Benutzer 44 kann die von ihm visuell erkannten Referenzpunkte im Bild 36 mit dem Stift 46 auf dem Bildschirm 42 auswählen und ihnen den entsprechenden Referenzpunkt in der realen Welt, d.h. deren Position im Referenzbezugssystem 30, zuordnen.
  • Die Identifikation kann aber auch automatisiert durch die Bilderkennungseinheit 40 mittels Bilderkennung erfolgen. In diesem Fall werden die Referenzpunkt im Bild 36 zuerst als Referenzpunkte erkannt, d.h. identifiziert, und anschließend aufgrund weiterer Informationen, wie z.B. dem Abstand zwischen den erkannten Referenzpunkten, Abstände zu anderen signifikanten, ebenfalls einfach erkennbaren Merkmalen im Bild 36 oder Ähnlichem, automatisch identifiziert. Dies bedeutet, dass automatisch ermittelt wird, welche der Referenzpunkte im Bild 36 tatsächlich enthalten sind.
  • In einem Schritt S18 wird eine Koordinatentransformation basierend auf den Positionen der einander zugeordneten Referenzpunkte in beiden Bezugssystemen 30 und 30' bestimmt, so dass jedem Punkt des erzeugten Bilds 36 eine Koordinate 34 im Bezugssystem 30 des Fördersystems 12 zuordenbar ist.
  • In einem weiteren Schritt S 20 wird ein Überwachungsbereich 50 (im Bild 36 oder im Modell) definiert, der durch den virtuellen Sensor 18 zu überwachen ist und der sich zumindest teilweise mit einer der Förderstrecken 28 überlappt, die im Sichtfeld 37 des Bildsensors 14 liegt.
  • 6 verdeutlicht die Einsatzmöglichkeiten des virtuellen Sensors 18, wenn Unstetigförderer eingesetzt werden.
  • 6A zeigt ein fahrerloses Transportfahrzeug, FTF 52 und mehrere Drohnen 54 in der Umgebung eines Regallagers. Es sind zwei zweidimensionale Überwachungsbereiche 50-1 und 50-2 veranschaulicht, die die Fahrstrecken 28 (strichpunktierte Linien) überlappen bzw. von den Fahrstrecken 28 durchdrungen werden. Auch sind exemplarisch vier Markierungen M gezeigt, wobei die Markierungen M1 und M2 an einem Regal angebracht sind und die Markierungen M3 und M4 oben an einem Durchgang angebracht sind. Der Bereich 50-1 umgibt eine Vorderseite des Regals und wird daraufhin überwacht, ob das FTF 52 oder eine der Drohnen 54 sich durch den Bereich 50-1 bewegt. Der Bereich 50-3 ist dreidimensional definiert und kann z.B. eine Sicherheitszone darstellen, in die die Fahrzeuge 52 und 54 nicht eindringen dürfen, weil sich dort Menschen aufhalten könnten.
  • 6B zeigt ebenfalls Fahrzeuge 52 und 54 in einer Außenumgebung. Die Fahrzeuge 52 und 54 können für die Zustellung von Paketen (Fördergut) eingesetzt werden. Die Bereiche 50 repräsentieren Zwischenstationen, Ziele oder Sicherheitszonen.
  • Die Überwachung der Bereiche 50 ist in einem Schritt S22 in 6 verdeutlicht. Die Überwachung erfolgt z.B. durch einen Vergleich von Bildern 36, die zu unterschiedlichen Zeiten aufgenommen wurden. Ein erstes Basisbild kann einen fördergutfreien Zustand zeigen, so dass sich ein Transport von Fördergüter jederzeit als Differenz zu diesem Urbild automatisiert erkennen lässt.
  • Wenn eine Zustandsänderung festgestellt wird, kann die Steuerung 22 entsprechend auf den Materialfluss in einem optionalen Schritt S24 einwirken. Die Fahrzeuge 52 und 54 der 6 können z.B. angehalten oder Hinweis- und Warnsignale für Personen, z.B. Bewohner, erzeugt werden. Die Förderer 26 der 3 könnten angehalten oder beschleunigt werden. Das Fördergut könnte in 3 identifiziert werden, um nur einige Beispiele zu nennen.
  • 7 zeigt ein Blockdiagramm eines Systems 60 zum Definieren von virtuellen Sensoren 18 für ein Fördersystem 12, das mindestens eine Förderstrecke umfasst.
  • Das System 60 umfasst den Bildsensor 14, die Markierungen M, einen (Daten-)Speicher 62, die Bildverarbeitungseinrichtung 20, eine Koordinatentransformationseinrichtung 64 sowie eine Einrichtung 66 zum Definieren von virtuellen Sensoren. Mit Ausnahme der Markierungen M sind diese Komponenten miteinander verbunden, um Daten untereinander auszutauschen.
  • Das System 60 ist an die Steuerung 22 der 1 koppelbar und erzeugt Steuersignale für die Aktuatoren 32 der 1.
  • Der Bildsensor 14 kann wiederum durch eine Kamera 16 implementiert sein.
  • Im Datenspeicher 62 werden die Positionen der Referenzpunkte gespeichert, die im Referenzbezugssystem 30 bekannt sind.
  • Die Bildverarbeitungseinrichtung 20 ist, wie in 1, eingerichtet, Positionen von Referenzpunkten, die im Bild 36 identifizierbar sind, vorzugsweise mittels Mustererkennung, im Bezugssystem 30' des erzeugten Bilds 36 zu bestimmen.
  • Die Koordinatentransformationseinrichtung 64 ist eingerichtet, eine Koordinatentransformation basierend auf den Positionen der Referenzpunkte in beiden Bezugssystemen 30 und 30' zu bestimmen, so dass jedem Bildpunkt des erzeugten Bilds 36 eine Koordinate 34 im Referenzbezugssystem 30 zuordenbar ist.
  • Die Einrichtung 66 ist eingerichtet, einen Überwachungsbereich 50, vorzugsweise im Bild 36, zu definieren, der durch den virtuellen Sensor 18 zu überwachen ist und der sich zumindest teilweise mit einer der Förderstrecken 28 überlappt oder daran angrenzt, in dem Sichtfeld 37 des Bildsensors 14 liegt.
  • Es versteht sich, dass auch mehrere Bildsensoren/Kameras gleichzeitig eingesetzt werden können. Die Sichtfelder der Kameras dürfen sich überlappen. Wenn mehrere Kameras eingesetzt werden, können auch 3D-Positionen von sich bewegenden Objekten bestimmt werden.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • WO 2018/211072 A1 [0005]
    • DE 102006015689 A1 [0006]
    • DE 102011055455 A1 [0007]
    • DE 102011053547 A1 [0008]
    • DE 102007035272 A1 [0009]

Claims (8)

  1. Verfahren zum Definieren eines virtuellen Sensors (18) in einem Fördersystem (12), das mindestens eine Förderstrecke (28) aufweist, mit den Schritten: a) Bereitstellen eines Modells des Fördersystems (12), wobei das Modell zumindest eine Position, sowie vorzugsweise eine Ausrichtung und/oder eine Abmessung, von jeder der Förderstrecken (28) in einem Referenzbezugssystem (30), insbesondere im Bezugssystem (30) des Fördersystems (12), umfasst; b) Definieren (S10) von mindestens einem Referenzpunkt, insbesondere durch Positionieren von, vorzugsweise identischen, zusätzlichen Markierungen (M1, M2, M3), und Bestimmen einer Position für jeden definierten Referenzpunkt im Referenzbezugssystem (30); c) Positionieren eines Bildsensors (14) innerhalb des Fördersystems (12), vorzugsweise an einem beliebigen Ort, so dass zumindest eine der Förderstrecken (28) und mindestens einer der Referenzpunkte in einem Sichtfeld (37) des Bildsensors (14) liegen; d) Erzeugen eines Bilds (36) mit dem Bildsensor (14), nachdem der Bildsensor (14) positioniert ist; e) Identifizieren von Referenzpunkten im Bild (36) und Bestimmen von Positionen der identifizierten Referenzpunkte in einem Bezugssystem (30') des erzeugten Bildes (36); f) Bestimmen einer Koordinatentransformation, vorzugsweise mittels Bildverarbeitung, basierend auf den Positionen der Referenzpunkte in beiden Bezugssystemen (30, 30'), so dass jedem Bildpunkt des erzeugten Bilds (36) eine Koordinate (34) im Referenzbezugssystem (30) zuordenbar ist; und g) Definieren eines Überwachungsbereichs (50), vorzugsweise im Bild (36), der durch den virtuellen Sensor (18) zu überwachen ist und der sich zumindest teilweise mit einer der Förderstrecken (28) überlappt, die im Sichtfeld (37)des Bildsensors (14) liegt, oder daran angrenzt.
  2. Verfahren nach Anspruch 1, das ferner den Schritt aufweist: Überwachen des für den virtuellen Sensor (18) definierten Bereichs (50) in einem aktuell erzeugten Bild (36) auf eine Zustandsänderung basierend auf einem Vergleich mit einem zeitlich früher erzeugten Bild (36).
  3. Verfahren nach Anspruch 2, das ferner den Schritt aufweist: Erzeugen eines Steuersignals für einen Aktuator (32), der stromabwärts zum überwachten Bereich (50) angeordnet ist, wenn die Zustandsänderung aufgetreten ist.
  4. Verfahren nach Anspruch 2 oder 3, wobei die Zustandsänderung durch ein Fördergut verursacht wird, das sich entlang der zumindest einen Förderstrecke (28), die im Sichtfeld (37) des Bildsensors (14) liegt, durch den für den virtuellen Sensor (18) definierten Bereich (50) bewegt.
  5. Verfahren nach einem der Ansprüche 1 bis 4, wobei jeder der Referenzpunkte im Schritt b) definiert wird, indem ein Bereich, insbesondere ein eindeutiges Identifikationsmerkmal im erzeugten Bild (36) ausgewählt wird, der einer der Förderstrecken (28) zugeordnet ist und der für diese Förderstrecke (28) kennzeichnend ist.
  6. Verfahren nach einem der Ansprüche 1 bis 5, wobei wiederkehrend überprüft wird, ob sich die Positionen der Referenzpunkte im Bezugssystem des erzeugten Bildes geändert haben und, wenn sich die Koordinaten der Referenzpunkte im erzeugten Bild (36) verändert haben, erneutes Durchführen des Schritts f).
  7. Verfahren nach einem der Ansprüche 1 bis 6, wobei dem Überwachungsbereich (50) ferner ein Sensortyp zugewiesen wird, der vorzugsweise eine Lichtschranke, ein Lichttaster oder ein Scanner ist.
  8. System zum Definieren eines virtuellen Sensors (18) für ein Fördersystem (12), das mindestens eine Förderstrecke (28) umfasst, wobei das System aufweist: mindestens einen Bildsensor (14), der in dem Fördersystem (12), das ein Referenzbezugssystem (30) definiert, positionierbar ist und der ein Sichtfeld (37) aufweist, so dass ein Bild (36) von zumindest einer der Förderstrecken (28) des Fördersystems (12) und von zumindest einem Referenzpunkt erzeugbar ist; eine Vielzahl von Markierungen (M), die als die Referenzpunkte innerhalb des Fördersystems (12) fest und unveränderlich an Positionen positionierbar sind, die im Referenzbezugssystem (30) bekannt sind; eine Einrichtung (62), die eingerichtet ist, die im Referenzbezugssystem (30) bekannten Positionen der Referenzpunkte zu speichern; eine Bildverarbeitungseinrichtung (20), die eingerichtet ist, Positionen von Referenzpunkten, die im Bild (36) identifizierbar sind, vorzugsweise mittels Mustererkennung, in einem Bezugssystem (30') des erzeugten Bildes (36) zu bestimmen; eine Einrichtung, die eingerichtet ist, eine Koordinatentransformation basierend auf den Positionen der Referenzpunkte in beiden Bezugssystemen (30, 30') zu bestimmen, so dass jedem Bildpunkt des erzeugten Bilds (36) eine Koordinate (34) im Referenzbezugssystem (30) zuordenbar ist; und eine Einrichtung, die eingerichtet ist, einen Überwachungsbereich (50), vorzugsweise im Bild (36), zu definieren, der durch den virtuellen Sensor (18) zu überwachen ist und der sich zumindest teilweise mit einer der Förderstrecken (28) überlappt, die im Sichtfeld (37) des Bildsensors (14) liegt, oder daran angrenzt.
DE102021104623.8A 2021-02-26 2021-02-26 Materialflusssteuerung mit virtuellen Sensoren Pending DE102021104623A1 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE102021104623.8A DE102021104623A1 (de) 2021-02-26 2021-02-26 Materialflusssteuerung mit virtuellen Sensoren
EP22712534.1A EP4154219A1 (de) 2021-02-26 2022-02-24 Materialflusssteuerung mit virtuellen sensoren
PCT/EP2022/054703 WO2022180179A1 (de) 2021-02-26 2022-02-24 Materialflusssteuerung mit virtuellen sensoren

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102021104623.8A DE102021104623A1 (de) 2021-02-26 2021-02-26 Materialflusssteuerung mit virtuellen Sensoren

Publications (1)

Publication Number Publication Date
DE102021104623A1 true DE102021104623A1 (de) 2022-09-01

Family

ID=80937260

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102021104623.8A Pending DE102021104623A1 (de) 2021-02-26 2021-02-26 Materialflusssteuerung mit virtuellen Sensoren

Country Status (3)

Country Link
EP (1) EP4154219A1 (de)
DE (1) DE102021104623A1 (de)
WO (1) WO2022180179A1 (de)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006015689A1 (de) 2006-03-28 2007-10-04 SSI Schäfer PEEM GmbH System und Verfahren zum Steuern einer Fördertechnik mittels rechnergestützter Bilderkennung
DE102007035272A1 (de) 2007-07-27 2009-01-29 Siemens Ag Verfahren zum Identifizieren von Transportgütern, insbesondere Gepäckstücken
DE102011053547A1 (de) 2011-09-13 2013-03-14 Apologistics Gmbh Verfahren und System zum Lagern und Kommissionieren von Artikeln, insbesondere von Apothekenartikeln
DE102011055455A1 (de) 2011-11-17 2013-05-23 Apologistics Gmbh Anordnung und Verfahren zum automatisierten Verpacken von Erzeugnissen
WO2018211072A1 (de) 2017-05-18 2018-11-22 Ssi Schäfer Automation Gmbh (At) Vorrichtung und verfahren zum steuern eines materialflusses an einem materialfluss-knotenpunkt

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006002704A1 (de) * 2006-01-19 2007-08-02 Henkel Kgaa Verfahren und Vorrichtung zur Überwachung einer Produktionslinie
JP2011195288A (ja) * 2010-03-19 2011-10-06 Toshiba Elevator Co Ltd マンコンベア画像処理装置
ES2396500T3 (es) * 2010-11-18 2013-02-22 Axis Ab Contador de objetos y método para contar objetos
FR3009548B1 (fr) * 2013-08-07 2017-04-28 Solystic Systeme de convoyage comportant un suivi des objets convoyes par imagerie et capteurs virtuels
JP5988225B2 (ja) * 2015-02-25 2016-09-07 パナソニックIpマネジメント株式会社 モニタリング装置およびモニタリング方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006015689A1 (de) 2006-03-28 2007-10-04 SSI Schäfer PEEM GmbH System und Verfahren zum Steuern einer Fördertechnik mittels rechnergestützter Bilderkennung
DE102007035272A1 (de) 2007-07-27 2009-01-29 Siemens Ag Verfahren zum Identifizieren von Transportgütern, insbesondere Gepäckstücken
DE102011053547A1 (de) 2011-09-13 2013-03-14 Apologistics Gmbh Verfahren und System zum Lagern und Kommissionieren von Artikeln, insbesondere von Apothekenartikeln
DE102011055455A1 (de) 2011-11-17 2013-05-23 Apologistics Gmbh Anordnung und Verfahren zum automatisierten Verpacken von Erzeugnissen
WO2018211072A1 (de) 2017-05-18 2018-11-22 Ssi Schäfer Automation Gmbh (At) Vorrichtung und verfahren zum steuern eines materialflusses an einem materialfluss-knotenpunkt

Also Published As

Publication number Publication date
WO2022180179A1 (de) 2022-09-01
EP4154219A1 (de) 2023-03-29

Similar Documents

Publication Publication Date Title
EP2665646B1 (de) Ladesystem für ein flugzeug und verfahren zur förderung eines frachtstücks auf einem frachtdeck
EP3323770B1 (de) Verfahren zur bereitstellung der positionen von lagerplätzen in einem lager und flurförderzeug
DE102010050461B3 (de) Lager- und Kommissioniersystem sowie Verfahren zum automatischen Konfigurieren des Systems
EP3468899A1 (de) Rendezvous-kommissionierung mit örtlich variabler kommissionierstation
EP2561417B1 (de) Verfahren zur eingabe eines räumlichen aufbaus von fertigungseinrichtungen in ein rechnergestütztes planungsprogramm und dessen optimierung
DE102011009739A1 (de) Vorrichtung und Verfahren zur Erfassung des Warenbestandes einer Verkaufs- und/oder Lagereinrichtung sowie ein hiermit ausgerüstetes Lagerverwaltungssystem
DE102007013299A1 (de) Sensorvorrichtung sowie Anlage mit einem Förderer und einer Sensorvorrichtung
WO2005033734A1 (de) Transponderunterstütztes positioniersystem
DE102019217568A1 (de) System von autonomen einrichtungen und steuerungsverfahren davon
DE10220936A1 (de) Vorrichtung zur Lokalisierung mit festen und/oder veränderlichen Landmarken
DE102018215560A1 (de) Verfahren zum Koordinieren und Überwachen von Objekten
DE102017110861A1 (de) Vorrichtung und Verfahren zum Steuern eines Materialflusses an einem Materialfluss-Knotenpunkt
DE102011000819B4 (de) Ladesystem für ein Flugzeug und Verfahren zur Förderung eines Frachtstücks auf einem Frachtdeck
WO2017182520A1 (de) Verfahren zur steuerung einer mehrzahl von mobilen fahrerlosen manipulatorsystemen
DE202014000433U1 (de) Vorrichtung zum Erfassen und Darstellen von dreidimensionalen Objekten
DE10033857A1 (de) Regalbediengerät
WO2019120856A1 (de) Navigieren mindestens eines roboters mithilfe einer sensoranordnung
DE102021104623A1 (de) Materialflusssteuerung mit virtuellen Sensoren
DE202019102253U1 (de) Vorrichtung zum Verifizieren von Lagergut-Positionen in intralogistischen Lagersystemen
DE102020001213A1 (de) Positionsberechnungssystem, Positionsberechnungsverfahren und automatisch geführtes Fahrzeug
EP3888034A1 (de) Verfahren und system zur steuerung des materialflusses von objekten in einer fördertechnischen anlage eines realen lagers
DE102018112012B4 (de) Verfahren und Vorrichtung zum Markieren eines Lagerplatzes
DE102019135620B4 (de) Optisches Anlernen von kameraerfassten Wegstrecken
DE102018204704A1 (de) System zum Überwachen eines Überwachungsbereichs
DE102016222156A1 (de) Verfahren und Steuereinheit zur Steuerung eines autonomen Transportfahrzeugs

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06K0009620000

Ipc: G06V0030190000

R016 Response to examination communication