DE112019005302T5 - Systeme und verfahren für leerlaufzeiten in der kommerziellen anhängerbeladung - Google Patents

Systeme und verfahren für leerlaufzeiten in der kommerziellen anhängerbeladung Download PDF

Info

Publication number
DE112019005302T5
DE112019005302T5 DE112019005302.7T DE112019005302T DE112019005302T5 DE 112019005302 T5 DE112019005302 T5 DE 112019005302T5 DE 112019005302 T DE112019005302 T DE 112019005302T DE 112019005302 T5 DE112019005302 T5 DE 112019005302T5
Authority
DE
Germany
Prior art keywords
image data
record
frames
data set
recording
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112019005302.7T
Other languages
English (en)
Inventor
Adithya H. Krishnamurthy
Justin F. Barish
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zebra Technologies Corp
Original Assignee
Zebra Technologies Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zebra Technologies Corp filed Critical Zebra Technologies Corp
Publication of DE112019005302T5 publication Critical patent/DE112019005302T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D63/00Motor vehicles or trailers not otherwise provided for
    • B62D63/06Trailers
    • B62D63/08Component parts or accessories
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G67/00Loading or unloading vehicles
    • B65G67/02Loading or unloading land vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G67/00Loading or unloading vehicles
    • B65G67/02Loading or unloading land vehicles
    • B65G67/04Loading land vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G67/00Loading or unloading vehicles
    • B65G67/02Loading or unloading land vehicles
    • B65G67/24Unloading land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2513Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with several lines being projected in more than one direction, e.g. grids, patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/08Logistics, e.g. warehousing, loading or distribution; Inventory or stock management
    • G06Q10/083Shipping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/08Logistics, e.g. warehousing, loading or distribution; Inventory or stock management
    • G06Q10/087Inventory or stock management, e.g. order filling, procurement or balancing against orders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/189Recording image signals; Reproducing recorded image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Economics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Strategic Management (AREA)
  • Marketing (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Development Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Accounting & Taxation (AREA)
  • Finance (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Transportation (AREA)
  • Computer Graphics (AREA)
  • Combustion & Propulsion (AREA)
  • Chemical & Material Sciences (AREA)
  • Image Analysis (AREA)

Abstract

Es werden dreidimensionale (3D) Bildgebungssysteme und -verfahren zum Analysieren einer Leerlaufzeit in einem Lagerbereich offenbart. Eine 3D-Tiefenkamera erfasst nicht-gleichzeitig Frames mit entsprechenden 3D-Bilddatensätzen. Eine 3D-Datenanalyseanwendung behält eine Vielzahl von Aufzeichnungen bei, einschließlich einer ersten Aufzeichnung, die einem 3D-Bilddatensatz eines ältesten Frames in einer Serie von Frames zugeordnet ist, einer dritten Aufzeichnung, die einem 3D-Bilddatensatz eines aktuellsten Frames in der Serie von Frames zugeordnet ist; und einer zweiten Aufzeichnung, die einem 3D-Bilddatensatz eines Zwischenframes zugeordnet ist, der zwischen dem ältesten Frame und dem aktuellsten Frame erfasst wurde. Basierend auf Vergleichen der ersten, zweiten und dritten Aufzeichnungen wird ein Aktivitätsstatustyp bestimmt, der eine Aktivität definiert, die innerhalb des Lagerbereichs während eines bestimmten Zeitsegments stattfindet. Eine kumulative Leerlaufzeitdauer wird auf der Grundlage des Aktivitätsstatustyps, der einen Nichtbeladungsstatustyp aufweist, inkrementiert.

Description

  • HINTERGRUND DER ERFINDUNG
  • In der Transportindustrie werden kommerzielle Anhänger typischerweise mit einer Vielzahl von verschiedenen Techniken beladen, die eine Vielzahl von verschiedenen Größen und Konfigurationen von Kisten, Paketen oder anderen Gegenständen für den Versand oder den Transport berücksichtigen. Darüber hinaus haben kommerzielle Anhänger selbst typischerweise verschiedene Größen und Lagerkapazitäten (z. B. wenn solche Anhänger so konstruiert sind, dass sie verschiedene Frachtgrößen, Ladungen und/oder Konfigurationen bewältigen können). All diese verschiedenen Ladetechniken, Kistengrößen/Konfigurationen und Anhängergrößen/Konfigurationen führen zu verschiedenen Permutationen von Ladestrategien, Techniken und Unterschieden bei den gesamten Ladevorgängen, die für die Verlader und/oder Verwalter, die die Beladung solcher kommerziellen Anhänger beaufsichtigen, schwer zu handhaben sind.
  • Diese verschiedenen Permutationen von Ladestrategien, -größen und -konfigurationen führen zu Problemen bei der Verfolgung der Durchführung oder der Qualität von Lademetriken über verschiedene Mitarbeiter (z. B. Verlader) hinweg, die sich jeweils an unterschiedlichen geografischen Standorten befinden können und/oder unterschiedliche Laderegime anwenden. Insbesondere Verlader oder Verwalter wünschen sich möglicherweise ein besseres Verständnis und verbesserte Metriken in Bezug auf die Effizienz der Beladung ihrer Anhänger, so dass sie bessere Verwaltungsentscheidungen treffen können, um die Ladezeit oder anderweitig die Effizienz der Beladung für logistische Abläufe im Zusammenhang mit kommerziellen Anhängern zu verbessern. Derzeit verwenden solche Verwalter oder Verlader in einigen Fällen eine einfache Metrik, z. B. die Gesamtzeit, die die Verlader (z. B. unter Anwendung verschiedener Strategien) zum Beladen eines kommerziellen Anhängers benötigen, gemessen an der Gesamtzeit, die ein Anhänger an einer Andocktür verbringt. Eine solche Metrik ist jedoch problematisch, zumindest weil sie unzureichend ist, da sie kaum Erkenntnisse zur Verbesserung der Betriebs- oder Ladeeffizienz liefert. Verlader, die sich auf diese Metrik verlassen, haben zum Beispiel in der Regel keine Kenntnis darüber, wie viel Zeit tatsächlich für das Beladen des Anhängers aufgewendet wird, wie viel Zeit der Anhänger ungenutzt an der Verladestellentür verbringt usw.
  • Dementsprechend besteht ein Bedarf an dreidimensionalen (3D) Bildgebungssystemen und -verfahren zum Analysieren einer Leerlaufzeitdauer in einem Lagerbereich.
  • Figurenliste
  • Die beigefügten Figuren, in denen gleiche Bezugszeichen identische oder funktional ähnliche Elemente in den einzelnen Ansichten bezeichnen, sind zusammen mit der nachfolgenden detaillierten Beschreibung in die Offenbarung inkorporiert und bilden einen Bestandteil der Offenbarung und dienen dazu, hierin beschriebene Ausführungsformen von Konzepten, die die beanspruchte Erfindung umfassen, weiter zu veranschaulichen und verschiedene Prinzipien und Vorteile dieser Ausführungsformen zu erklären.
    • 1 ist eine perspektivische Ansicht, von oben gesehen, eines Ladedocks mit einer Verladeeinrichtung, einer Vielzahl von Andockbuchten, einer Vielzahl von Fahrzeugen und einer Vielzahl von Fahrzeuglagerbereichen, gemäß den hierin enthaltenen beispielhaften Ausführungsformen.
    • 2A ist eine perspektivische Ansicht der Verladeeinrichtung von 1, die einen an einer Andockbucht angedockten Fahrzeuglagerbereich zeigt, gemäß den hierin enthaltenen beispielhaften Ausführungsformen.
    • 2B ist eine perspektivische Ansicht einer Anhängerüberwachungseinheit (TMU) aus 2A, gemäß den hierin beispielhaften Ausführungsformen.
    • 3 ist ein Blockdiagramm, das eine Ausführungsform eines Servers darstellt, der mit der Verladeeinrichtung der 2A und der TMU von 2B verbunden ist.
    • 4A zeigt einen ersten Satz fotorealistischer Frames, die eine erste Ausführungsform des an der Andockbucht von 2A angedockten Fahrzeuglagerbereichs darstellen.
    • 4B zeigt Tiefenkartenwiedergaben, die dem ersten Satz fotorealistischer Bilder von 4A entsprechen.
    • 5A ist ein zweiter Satz fotorealistischer Bilder, die eine zweite Ausführungsform des an der Andockbucht von 2A angedockten Fahrzeuglagerbereichs darstellen.
    • 5B zeigt Tiefenkartenwiedergaben des zweiten Satzes fotorealistischer Bilder von 5A.
    • 6 ist ein Flussdiagramm eines dreidimensionalen (3D) Bildgebungsverfahrens zum Analysieren einer Leerlaufzeitdauer in einem Lagerbereich.
  • Fachleute werden erkennen, dass Elemente in den Figuren der Einfachheit und Klarheit halber dargestellt sind und nicht notwendigerweise maßstabsgetreu gezeichnet wurden. Zum Beispiel können die Dimensionen einiger der Elemente in den Figuren relativ zu anderen Elementen übertrieben sein, um das Verständnis von Ausführungsformen der vorliegenden Erfindung zu verbessern.
  • Die Vorrichtungs- und Verfahrenskomponenten wurden, wo es angemessen ist, durch herkömmliche Symbole in den Zeichnungen dargestellt, die nur jene spezifischen Details zeigen, die zum Verständnis der Ausführungsformen der vorliegenden Erfindung relevant sind, um somit die Offenbarung nicht mit Einzelheiten zu verdecken, die für die Fachleute auf dem Gebiet, die auf die vorliegende Beschreibung zurückgreifen, ohne weiteres ersichtlich sind.
  • DETAILLIERTE BESCHREIBUNG DER ERFINDUNG
  • Hierin werden Systeme und Verfahren offenbart, die eine dreidimensionale (3D) Bildanalyse bezüglich der Leerlaufzeitdauer in einem Lagerbereich ermöglichen. Wie hierin beschrieben, kann die Leerlaufzeit z. B. die Zeit umfassen, in der ein Anhänger an einer Andocktür steht und nicht beladen wird. Als weiteres Beispiel kann die Leerlaufzeit die Zeitspanne messen, in der Kisten, Pakete oder andere Zeiten nicht in einem Anhänger, Fahrzeuglagerbereich usw. bewegt wurden. Die hier beschriebenen dreidimensionalen (3D-)Bildgebungssysteme und -verfahren ermöglichen es dem Verladeverwalter und/oder anderem Verladepersonal, durch die Verwendung objektiver Messwerte (z. B. Leerlaufzeitmetriken) einen besseren Einblick in ihre Abläufe zu erhalten, so dass sie in Echtzeit auf übermäßige Inaktivität beim Verladen reagieren und den Gesamtprozentsatz der Zeit analysieren können, in der ihre Anhänger im Leerlauf stehen. Mit solchen Messwerten können Verladeverwalter, anderes Verladepersonal und/oder die Unternehmen oder Einrichtungen, für die sie tätig sind, fundierte Entscheidungen treffen, die eine schnellere und effizientere Verarbeitung von mehr Sendungen/Paketen ermöglichen. Darüber hinaus bieten die hierin offenbarten dreidimensionalen (3D) Bildgebungssysteme und -verfahren robuste Algorithmen zur Erkennung von Unterschieden zwischen aktiver Beladung, Streubewegung und völligem Leerlauf. Durch die Erkennung von räumlichen Veränderungen zwischen dem aktuellen 3D-Bild und mehreren vorherigen 3D-Bildern können die aktuellen Leerlauf- und Verladezeiten in Echtzeit genau gemeldet werden. Abhängig vom Ergebnis der 3D-Bildvergleiche können die offenbarten Algorithmen Entscheidungen darüber treffen, ob eine Beladung stattfindet, die Beladung gerade beendet wurde, eine Person/ein Individuum einen Anhänger/Fahrzeug-Lagerbereich betreten/verlassen hat, oder ob der Anhänger/FahrzeugLagerbereich im Leerlauf ist. Durch die Verwendung spezieller Algorithmen und/oder Datenstrukturen (z. B. Octrees) zur Organisation der 3D-Bilddaten kann der Entscheidungsfindungsprozess außerdem mit der für eine Echtzeitdurchführung und -betrieb erforderlichen schnellen und effizienten Geschwindigkeit erfolgen.
  • Dementsprechend werden in verschiedenen hierin offenbarten Ausführungsformen dreidimensionale (3D) Bildgebungssysteme und -verfahren zum Analysieren einer Leerlaufzeitdauer in einem Lagerbereich offenbart. Die Systeme und Verfahren können das nicht-gleichzeitige Erfassen von Frames (Einzelbildern) über eine 3D-Tiefenkamera umfassen, die jeweils einen entsprechenden 3D-Bilddatensatz aufweisen. In verschiedenen Ausführungsformen kann eine 3D-Datenanalyseanwendung (App), die auf einem oder mehreren Prozessoren ausgeführt wird, eine Vielzahl von Aufzeichnungen beibehalten, darunter eine erste Aufzeichnung, eine zweite Aufzeichnung und eine dritte Aufzeichnung. Die erste Aufzeichnung kann einem 3D-Bilddatensatz eines ältesten Frames in einer Serie von Frames zugeordnet sein. Die dritte Aufzeichnung kann einem 3D-Bilddatensatz eines aktuellsten Frames in der Serie von Frames zugeordnet sein. Die zweite Aufzeichnung kann einem 3D-Bilddatensatz eines Zwischenframes zugeordnet sein. Der Zwischenframe kann zwischen dem ältesten Frame in der Serie von Frames und dem aktuellsten Frame in der Serie von Frames erfasst worden sein. Die dreidimensionalen (3D) Bildgebungssysteme undverfahren können ferner die Durchführung eines ersten Vergleichs zwischen der dritten Aufzeichnung und der ersten Aufzeichnung umfassen, um zu bestimmen, ob eine Differenz zwischen dem 3D-Bilddatensatz, der der dritten Aufzeichnung zugeordnet ist, und dem 3D-Bilddatensatz, der der ersten Aufzeichnung zugeordnet ist, kleiner oder größer als ein erster Schwellenwert ist. Die dreidimensionalen (3D) Bildgebungssysteme und -verfahren können ferner die Durchführung eines zweiten Vergleichs zwischen der dritten Aufzeichnung und der zweiten Aufzeichnung umfassen, um zu bestimmen, ob eine Differenz zwischen dem 3D-Bilddatensatz, der der dritten Aufzeichnung zugeordnet ist, und dem 3D-Bilddatensatz, der der zweiten Aufzeichnung zugeordnet ist, kleiner oder größer als ein zweiter Schwellenwert ist. Die dreidimensionalen (3D) Bildgebungssysteme und -verfahren können ferner umfassen, dass auf der Grundlage des ersten Vergleichs und des zweiten Vergleichs ein Aktivitätsstatustyp bestimmt wird, der eine Aktivität definiert, die innerhalb des Lagerbereichs während eines Zeitsegments auftritt, wobei das Zeitsegment zwischen einem Zeitpunkt der Erfassung des ältesten Frames in der Serie von Frames und einem Zeitpunkt der Erfassung des aktuellsten Frames in der Serie von Frames auftritt. Die dreidimensionalen (3D) Bildgebungssysteme und -verfahren können ferner das Inkrementieren einer kumulativen Leerlaufzeitdauer auf der Grundlage des Aktivitätsstatustyps, der einen Nichtbeladungsstatustyp aufweist, umfassen. Die dreidimensionalen (3D) Bildgebungssysteme und -verfahren können ferner das Bereitstellen der kumulativen Leerlaufzeitdauer über ein Computernetzwerk an eine Computervorrichtung mit einem Computervorrichtungsspeicher umfassen.
  • 1 ist eine perspektivische Ansicht, von oben gesehen, eines Ladedocks 100 mit einer Ladeeinrichtung 101, einer Vielzahl von Andockbuchten 102d-110d, einer Vielzahl von Fahrzeugen 106v und 110v und einer Vielzahl von Fahrzeuglagerbereichen 102s, 106s und 110s, gemäß den hierin beschriebenen Ausführungsbeispielen. In einigen Ausführungsformen kann das Ladedock 100 zum Beispiel mit einem Einzelhandelsgeschäft, einem Großhandelsgeschäft oder einem anderen derartigen kommerziellen Gebäude verbunden sein. In anderen Ausführungsformen kann das Ladedock 100 mit einer Lagereinrichtung oder einem Zwischenlager zur Unterbringung von Paketen, Kisten oder anderen transportablen Objekten oder Waren verbunden sein, die typischerweise in die Verteilung und Logistik solcher transportablen Objekte oder Waren einbezogen werden. Weitere Ausführungsformen sind hierin vorgesehen, so dass das Ladedock 100 das Be- und Entladen von transportierbaren Objekten oder Waren in einem Geschäft, einer Einrichtung oder einem anderen ähnlichen Ort ermöglicht.
  • 1 zeigt beispielsweise die Verladeeinrichtung 101, die, wie beschrieben, ein Einzelhandelsgeschäft, ein Lager oder ein anderer ähnlicher Ort sein kann, der das Be- und Entladen von transportablen Objekten oder Waren ermöglicht. Die Verladeeinrichtung 101 umfasst eine Vielzahl von Andockbuchten 102d-110d. Die Andockbucht 104d ist beispielsweise als nicht angedockt dargestellt und umfasst eine Öffnung, die gleich oder ähnlich groß ist wie die Öffnung eines Fahrzeuglagerbereichs. Wie in 1 dargestellt, kann die Andockbucht 104d einen Anhänger (z. B. einen Fahrzeuglagerbereich) an der Wand der Ladeeinrichtung 101 aufnehmen. Die Andockbucht 104d kann ferner eine einziehbare Tür umfassen, die in der Öffnung der Andockbucht 104d positioniert ist, wobei die Tür geöffnet werden kann, um den Zugang zum Fahrzeuglagerbereich eines Anhängers von der Verladeeinrichtung 101 aus zu ermöglichen. Wie hierin beschrieben, ist die Andockbucht 104d repräsentativ für die übrigen dargestellten Andockbuchten, wie z. B. die Andockbuchten 102d, 106d, 108d und 110d, wobei die Andockbuchten 102d, 106d, 108d und 110d ähnliche Merkmale oder Funktionen aufweisen können, wie hierin für Andockbucht 104d beschrieben.
  • In verschiedenen Ausführungsformen kann eine Öffnung eines Fahrzeuglagerbereichs die Öffnung eines Anhängers sein, wobei der Anhänger von einem Sattelschlepper, einer Zugmaschine, einem Lkw oder einem anderen Fahrzeug gezogen werden kann, das in der Lage ist, einen Anhänger (z. B. einen Fahrzeuglagerbereich) anzukoppeln und zu bewegen, wie hierin beschrieben. In einigen Ausführungsformen kann der Boden eines Anhängers, wenn er angedockt ist, bündig oder annähernd bündig mit dem Boden einer Andockbucht (z. B. Andockbuchten 102d-110d) der Verladeeinrichtung 101 sein.
  • 1 zeigt auch eine Vielzahl von Fahrzeuglagerbereichen 102s, 106s und 110s. Bei den Fahrzeuglagerbereichen 102s, 106s und 110s kann es sich jeweils um Lagerbereiche handeln, die einem Fahrzeug zugeordnet sind, z. B. einem Anhänger oder einem anderen transportablen Lagerbereich (z. B. 102s, 106s und 110s), der einem Sattelschlepper, einer Zugmaschine, einem Lkw oder einem anderen großen Fahrzeug (z. B. 106v und 110v) zugeordnet ist, wie hier beschrieben. Zum Beispiel sind, wie in 1 gezeigt, jedes der Fahrzeuge 106v und 110v mit Fahrzeuglagerbereichen 106s bzw. 110s verbunden. Jedes der Fahrzeuge 106v und 110v kann für das Manövrieren ihrer jeweiligen Fahrzeuglagerbereiche 106s und 110s zu den jeweiligen Andockbuchten, wie z. B. den Andockbuchten 106d und 110d, verantwortlich sein.
  • Jeder der Fahrzeuglagerbereiche 102s, 106s und 110s umfasst Öffnungen, im Allgemeinen an einem Ende, die die gleiche oder eine ähnliche Größe haben wie die Öffnungen der Andockbuchten 102d-1 10d. Auf diese Weise können die Fahrzeuglagerbereiche 102s, 106s und 110s mit den Andockbuchten 102d-110d verbunden oder an diese angedockt werden, um das Be- und Entladen von Paketen, Kisten oder anderen transportierbaren Objekten oder Gütern, wie hierin beschrieben, zu ermöglichen. Wie in 1 gezeigt, ist der Fahrzeuglagerbereich 102s beispielsweise als ein Anhänger dargestellt, der an die Andockbucht 102d angedockt ist. Dementsprechend ist die Öffnung des Fahrzeuglagerbereichs 102s mit der Öffnung der Andockbucht 102d verbunden, so dass das Innere des Fahrzeuglagerbereichs 102s von der Andockbucht 102d aus eingesehen oder erreicht werden kann. In ähnlicher Weise ist der Fahrzeuglagerbereich 110s als Anhänger dargestellt, der an die Andockbucht 110d angedockt ist, wobei die Öffnung des Fahrzeuglagerbereichs 110s mit der Öffnung der Andockbucht 110d verbunden ist, so dass das Innere des Fahrzeuglagerbereichs 110s von der Andockbucht 110d aus eingesehen oder betreten werden kann. Der Fahrzeuglagerbereich 106s ist so dargestellt, dass er derzeit nicht an die Andockbucht 106d angedockt ist.
  • Fahrzeuglagerbereiche, wie 102s, 106s und 110s, können unterschiedliche Größen, Längen oder andere Abmessungen haben. Zum Beispiel kann in einer Ausführungsform der Fahrzeuglagerbereich 102s mit einem 63 Fuß langen Anhänger verbunden sein, der Fahrzeuglagerbereich kann mit einem 53 Fuß langen Anhänger verbunden sein und der Fahrzeuglagerbereich 110s kann mit einem 73 Fuß langen Anhänger verbunden sein. Andere Variationen der Abmessungen, Größen und/oder Längen von Fahrzeuglagerbereichen sind hierin vorgesehen. Wie hier beschrieben, können Fahrzeuglagerbereiche (z. B. 102, 106s, 110s) mit den Fahrzeugen 106v und 110v verbunden sein, bei denen es sich um Lieferwagen oder andere ähnliche Fahrzeuge handeln kann.
  • 2A ist eine perspektivische Ansicht 200 der Verladeeinrichtung 101 von 1, die den an einer Andockbucht 102d angedockten Fahrzeuglagerbereich 102s gemäß den hierin enthaltenen Ausführungsbeispielen zeigt. In 2A ist beispielsweise der Fahrzeuglagerbereich 102s dargestellt, der in der Ausführungsform von 2A eine Innenansicht des Fahrzeuglagerbereichs 102s von 1 ist. 2A zeigt auch die Andockbucht 102d, die in der Ausführungsform von 2A eine Innenansicht der Andockbucht 102d von 1 ist. Wie in 2A dargestellt, ist der Fahrzeuglagerbereich 102s an die Andockbucht 102d angedockt, so dass der Innenraum des Fahrzeuglagerbereichs 102s zum Innenraum der Verladeeinrichtung 101 hin offen ist. Der Fahrzeuglagerbereich 102s enthält Pakete, Kisten und/oder andere transportierbare Objekte oder Waren, einschließlich der Pakete 208p1-208p3, die in einigen Ausführungsformen Paketwänden entsprechen können, wie hier beschrieben. Die Pakete 208p1-208p3 können sich in einem Zustand befinden, in dem sie in den Fahrzeuglagerbereich 102s geladen oder von diesem entladen werden. Zum Beispiel kann sich der Arbeiter 212 in einem Zustand befinden, in dem er zusätzliche Pakete 210 in den Fahrzeuglagerbereich 102s einlädt oder aus diesem auslädt. In einigen Ausführungsformen kann der Verwalter 206 das Beladen oder Entladen von Paketen, Kisten und/oder anderen transportierbaren Objekten oder Waren (z. B. Pakete 208p1-208p3 oder 210) in den oder aus dem Fahrzeuglagerbereich 102s beaufsichtigen, unterstützen oder auf andere Weise zusätzlich erleichtern. Zum Beispiel kann der Verwalter 206 eine Dashboard-App verwenden, die auf der Clientvorrichtung 204 ausgeführt wird, wie hierin beschrieben.
  • In 2A ist auch eine Anhänger-Überwachungseinheit (TMU) 202 dargestellt. TMU 202 kann eine montierbare Vorrichtung sein, die eine 3D-Tiefenkamera zur Erfassung von 3D-Bildern (z. B. 3D-Bilddaten/Datensätze) und eine fotorealistische Kamera (z. B. 2D-Bilddaten/Datensätze) enthält. Bei der fotorealistischen Kamera kann es sich um eine RGB (rot, grün, blau) -Kamera zur Erfassung von 2D-Bildern handeln. Die TMU 202 kann auch einen oder mehrere Prozessoren und einen oder mehrere Computerspeicher zum Speichern von Bilddaten und/oder zum Ausführen von Apps, die Analysen oder andere hierin beschriebene Funktionen durchführen, enthalten. In verschiedenen Ausführungsformen und wie in 2A gezeigt, kann die TMU 202 innerhalb der Verladeeinrichtung 101 montiert und in Richtung des Fahrzeuglagerbereichs 102s ausgerichtet sein, um 3D- und/oder 2D-Bilddaten des Innenraums des Fahrzeuglagerbereichs 102s zu erfassen. Beispielsweise kann die TMU 202, wie in 2A gezeigt, so ausgerichtet sein, dass die 3D- und 2D-Kameras der TMU 202 die Länge des Fahrzeuglagerbereichs 102s entlangschauen, so dass die TMU 202 die Wände, den Boden, die Decke, die Pakete (z. B. 208p1-208p3 oder 210) oder andere Objekte oder Oberflächen mit dem Fahrzeuglagerbereich 102s abtasten oder erfassen kann, um die 3D- und 2D-Bilddaten zu ermitteln. Die Bilddaten können von dem einen oder mehreren Prozessoren und/oder Speichern der TMU 202 (oder, in einigen Ausführungsformen, von einem oder mehreren entfernten Prozessoren und/oder Speichern eines Servers) verarbeitet werden, um Analysen, Funktionen, wie z. B. grafische oder bildgebende Analysen, zu implementieren, wie in einem oder mehreren verschiedenen Flussdiagrammen, Blockdiagrammen, Verfahren, Funktionen oder verschiedenen Ausführungsformen hierin beschrieben. Es sei darauf hingewiesen, dass die TMU 202 3D- und/oder 2D-Bilddaten/Datensätze einer Vielzahl von Lagerbereichen erfassen kann, so dass neben den Fahrzeuglagerbereichen auch weitere Lagerbereiche (z. B. Lagerhallen usw.) in Betracht gezogen werden.
  • In einigen Ausführungsformen kann die TMU 202 beispielsweise die 3D- und 2D-Bilddaten/Datensätze, wie sie von der 3D-Tiefenkamera und der fotorealistischen Kamera gescannt oder erfasst werden, zur Verwendung durch andere Vorrichtungen (z. B. Clientvorrichtung 204 oder Server 301, wie hierin weiter beschrieben) verarbeiten. Beispielsweise können der eine oder die mehreren Prozessoren und/oder der eine oder die mehreren Speicher der TMU 202 die von dem Fahrzeuglagerbereich 102s gescannten oder erfassten Bilddaten/Datensätze verarbeiten. Die Verarbeitung der Bilddaten kann Postscandaten erzeugen, die Metadaten, vereinfachte Daten, normalisierte Daten, Ergebnisdaten, Statusdaten oder Alarmdaten enthalten können, wie sie aus den ursprünglichen gescannten oder erfassten Bilddaten ermittelt werden. In einigen Ausführungsformen können die Bilddaten und/oder die Postscandaten an eine Clientvorrichtung /eine Clientanwendung, wie z. B. eine hierin beschriebene Dashboard-Anwendung (App), zur Ansicht, Bearbeitung oder anderweitigen Interaktion gesendet werden. In anderen Ausführungsformen können die Bilddaten und/oder die Postscandaten an einen Server (z. B. Server 301, wie hierin weiter beschrieben) zur Speicherung oder zur weiteren Bearbeitung gesendet werden.
  • Wie in 2A dargestellt, können die Bilddaten/Datensätze und/oder die Postscandaten auf der Clientvorrichtung 204 empfangen werden. Die Clientvorrichtung 204 kann eine Dashboard-App implementieren, um die Bilddaten und/oder die Postscandaten zu empfangen und diese Daten, z. B. in einem grafischen oder anderen Format, dem Verwalter 206 anzuzeigen, um das Entladen oder Beladen von Paketen (z. B. 208p1-208p3 oder 210) zu erleichtern, wie hierin beschrieben. In einigen Ausführungsformen kann die Dashboard-App über eine Webplattform wie Java J2EE (z. B. Java Server Faces) oder Ruby on Rails implementiert werden. In solchen Ausführungsformen kann die Webplattform eine Benutzeroberfläche der Dashboard-App über die Generierung einer dynamischen Webseite (z. B. unter Verwendung von HTML, CSS, JavaScript) oder über eine clientseitige mobile App (z. B. über Java für eine Google Android-basierte App oder Objective-C/Swift für eine Apple iOS-basierte App) generieren oder aktualisieren, wobei die Benutzeroberfläche über die Dashboard-App auf der Clientvorrichtung, z. B. der Clientvorrichtung 204, angezeigt wird.
  • In einigen Ausführungsformen kann die Dashboard-App die Bilddaten/Datensätze und/oder die Postscandaten empfangen und diese Daten in Echtzeit anzeigen. Die Clientvorrichtung 204 kann ein mobiles Gerät sein, wie z. B. ein Tablet, Smartphone, Laptop oder ein anderes mobiles Computergerät. Die Clientvorrichtung 204 kann ein Betriebssystem oder eine Plattform zum Ausführen der Dashboard- (oder anderer) Apps oder Funktionen implementieren, z. B. die Apple iOS-Plattform, die Google Android-Plattform und/oder die Microsoft Windows-Plattform. Die Clientvorrichtung 204 kann einen oder mehrere Prozessoren und/oder einen oder mehrere Speicher zur Implementierung der Dashboard-App oder zur Bereitstellung anderer ähnlicher Funktionen enthalten. Die Clientvorrichtung 204 kann auch drahtgebundene oder drahtlose Sendeempfänger für den Empfang von Bilddaten und/oder Postscandaten, wie hierin beschrieben, enthalten. Solche drahtgebundenen oder drahtlosen Sendeempfänger können einen oder mehrere Kommunikationsprotokollstandards implementieren, z. B. TCP/IP, WiFi (802.11b), Bluetooth oder andere ähnliche Kommunikationsprotokolle oder Standards.
  • In einigen Ausführungsformen können die Bilddaten und/oder die Postscandaten an einen oder mehrere Server, wie den hierin beschriebenen Server 301, gesendet werden. In solchen Ausführungsformen können der Server oder die Server Postscandaten erzeugen, die Metadaten, vereinfachte Daten, normalisierte Daten, Ergebnisdaten, Statusdaten oder Alarmdaten enthalten können, wie sie aus den ursprünglichen gescannten oder erfassten Bilddaten bestimmt werden, die von der TMU 202 bereitgestellt werden. Wie hierin beschrieben, kann der Server oder eine andere zentrale Prozessoreinheit und/oder ein Speicher solche Daten speichern und die Bilddaten und/oder die Postscandaten auch an eine Dashboard-App oder eine andere App senden, die auf einer Clientvorrichtung implementiert ist, wie z. B. die Dashboard-App, die auf der Clientvorrichtung 204 von 2A implementiert ist.
  • 2B ist eine perspektivische Ansicht der TMU 202 aus 2A gemäß den hierin beschriebenen Ausführungsbeispielen. In der Beispielausführung von 2B kann die TMU 202 eine Halterung 252 zum Ausrichten oder anderweitigen Positionieren der TMU 202 innerhalb der Verladeeinrichtung 101, wie hierin beschrieben, umfassen. Die TMU 202 kann ferner einen oder mehrere Prozessoren und einen oder mehrere Speicher zur Verarbeitung von Bilddaten, wie hierin beschrieben, umfassen. Beispielsweise kann die TMU 202 einen Flash-Speicher enthalten, der zum Ermitteln, Speichern oder anderweitigen Verarbeiten der Bilddaten/Datensätze und/oder Postscandaten verwendet wird. Darüber hinaus kann die TMU 202 eine Netzwerkschnittstelle enthalten, um die Kommunikation mit anderen Geräten zu ermöglichen (z. B. mit dem Server 301 von 3, wie hierin beschrieben). Die Netzwerkschnittstelle der TMU 202 kann jede geeignete Art von Kommunikationsschnittstelle(n) umfassen (z. B. drahtgebundene und/oder drahtlose Schnittstellen), die so konfiguriert sind, dass sie gemäß jedem geeigneten Protokoll arbeiten, z. B. Ethernet für drahtgebundene Kommunikation und/oder IEEE 802.11 für drahtlose Kommunikation.
  • Die TMU 202 kann eine 3D-Tiefenkamera 254 zum Erfassen, Abtasten oder Scannen von 3D-Bilddaten/Datensätzen enthalten. In einigen Ausführungsformen kann die 3D-Tiefenkamera 254 beispielsweise einen Infrarot-(IR)-Projektor und eine zugehörige IR-Kamera umfassen. In solchen Ausführungsformen projiziert der IR-Projektor ein Muster aus IR-Licht oder -Strahlen auf ein Objekt oder eine Oberfläche, die in verschiedenen Ausführungsformen Oberflächen eines Fahrzeuglagerbereichs (z. B. Fahrzeuglagerbereich 102s) oder Objekte innerhalb des Fahrzeuglagerbereichs, wie z. B. Kisten oder Pakete (z. B. Pakete 208p1-208p3 oder 210), umfassen können. Das IR-Licht oder die IR-Strahlen können durch den IR-Projektor in einem Muster aus Flecken oder Punkten auf dem Objekt oder der Oberfläche verteilt werden, die von der IR-Kamera erfasst oder gescannt werden können. Eine Tiefenerkennungs-App, wie z. B. eine Tiefenerkennungs-App, die auf dem einen oder mehreren Prozessoren oder Speichern der TMU 202 ausgeführt wird, kann auf der Grundlage des Musters von Flecken oder Punkten verschiedene Tiefenwerte bestimmen, z. B. Tiefenwerte des Fahrzeuglagerbereichs 102s. Zum Beispiel kann ein Objekt mit naher Tiefe (z. B. nahe gelegene Kisten, Pakete usw.) bestimmt werden, wo die Flecken oder Punkte dicht sind, und Objekte mit ferner Tiefe (z. B. entfernte Kisten, Pakete usw.), wo die Punkte weiter verteilt sind. Die verschiedenen Tiefenwerte können von der Tiefenerkennungs-App und/oder der TMU 202 verwendet werden, um eine Tiefenkarte zu erzeugen. Die Tiefenkarte kann ein 3D-Bild der Objekte oder Oberflächen darstellen oder 3D-Bilddaten der Objekte oder Oberflächen enthalten, die von der 3D-Tiefenkamera 254 erfasst oder gescannt wurden, z. B. den Fahrzeuglagerbereich 102s und alle darin befindlichen Objekte oder Oberflächen.
  • Die TMU 202 kann außerdem eine fotorealistische Kamera 256 zum Erfassen, Abtasten oder Scannen von 2D-Bilddaten enthalten. Die fotorealistische Kamera 256 kann eine RGB (rot, grün, blau) -basierte Kamera zur Erfassung von 2D-Bildern mit RGBbasierten Pixeldaten sein. In einigen Ausführungsformen kann die fotorealistische Kamera 256 2D-Bilder und zugehörige 2D-Bilddaten zum gleichen oder einem ähnlichen Zeitpunkt wie die 3D-Tiefenkamera 254 erfassen, so dass die TMU 202 beide Sätze von 3D-Bilddaten und 2D-Bilddaten für eine bestimmte Oberfläche, ein Objekt oder eine Szene zum gleichen oder einem ähnlichen Zeitpunkt zur Verfügung hat.
  • 3 ist ein Blockdiagramm, das eine Ausführungsform eines Servers darstellt, der mit der Verladeeinrichtung 101 von 2A verbunden ist. In einigen Ausführungsformen kann sich der Server 301 in der gleichen Einrichtung wie die Verladeeinrichtung 101 befinden. In anderen Ausführungsformen kann sich der Server 301 an einem entfernten Standort befinden, z. B. auf einer Cloud-Plattform oder einem anderen entfernten Standort. In jeder Ausführungsform kann der Server 301 kommunikativ mit einer 3D-Tiefenkamera (z. B. TMU 202) gekoppelt sein.
  • Der Server 301 ist so konfiguriert, dass er Computerbefehle ausführt, um Vorgänge auszuführen, die mit den hierin beschriebenen Systemen und Verfahren verbunden sind, z. B. die Beispielvorgänge zu implementieren, die in den Blockdiagrammen oder Flussdiagrammen der Zeichnungen zu dieser Beschreibung dargestellt sind. Der Server 301 kann Unternehmensdienstsoftware implementieren, die z. B. RESTful (Representational State Transfer) API-Dienste, Nachrichtenwarteschlangendienste und Ereignisdienste umfassen kann, die von verschiedenen Plattformen oder Spezifikationen bereitgestellt werden können, wie z. B. die J2EE-Spezifikation, die von der Oracle WebLogic Server-Plattform, der JBoss-Plattform oder der IBM WebSphere-Plattform usw. implementiert wird. Andere Technologien oder Plattformen, wie Ruby on Rails, Microsoft .NET oder ähnliche, können ebenfalls verwendet werden. Wie im Folgenden beschrieben, kann der Server 301 speziell für die Durchführung von Vorgängen konfiguriert sein, die in den Blockdiagrammen oder Flussdiagrammen der hierin beschriebenen Zeichnungen dargestellt sind.
  • Der Beispielserver 301 von 3 enthält einen Prozessor 302, wie z. B. einen oder mehrere Mikroprozessoren, Steuerungen und/oder jede geeignete Art von Prozessor. Der Beispielserver 301 von 3 umfasst ferner einen Speicher (z. B. einen flüchtigen Speicher oder einen nichtflüchtigen Speicher) 304, auf den der Prozessor 302 beispielsweise über eine Speichersteuerung (nicht dargestellt) zugreifen kann. Der Beispielprozessor 302 interagiert mit dem Speicher 304, um z. B. maschinenlesbare Anweisungen zu erhalten, die im Speicher 304 gespeichert sind und z. B. den durch die Flussdiagramme dieser Offenbarung dargestellten Operationen entsprechen. Zusätzlich oder alternativ können maschinenlesbare Anweisungen, die den Beispieloperationen der Blockdiagramme oder Flussdiagramme entsprechen, auf einem oder mehreren Wechseldatenträgern (z. B. einer Compact Disc, einer Digital Versatile Disc, einem austauschbaren Flash-Speicher usw.) oder über eine Fernverbindung, wie z. B. das Internet oder eine Cloud-basierte Verbindung, die mit dem Server 301 gekoppelt sein kann, um den Zugriff auf die darauf gespeicherten maschinenlesbaren Anweisungen zu ermöglichen, gespeichert werden.
  • Der Beispielserver 301 von 3 kann außerdem eine Netzwerkschnittstelle 306 enthalten, um die Kommunikation mit anderen Maschinen zu ermöglichen, z. B. über ein oder mehrere Computernetzwerke, wie ein lokales Netzwerk (LAN) oder ein Weitbereichsnetzwerk (WAN), z. B. das Internet. Die beispielhafte Netzwerkschnittstelle 306 kann jede geeignete Art von Kommunikationsschnittstelle(n) (z. B. drahtgebundene und/oder drahtlose Schnittstellen) umfassen, die so konfiguriert sind, dass sie gemäß einem oder mehreren geeigneten Protokollen arbeiten, z. B. Ethernet für drahtgebundene Kommunikation und/oder IEEE 802.11 für drahtlose Kommunikation.
  • Der Beispielserver 301 von 3 enthält Eingabe-/Ausgabeschnittstellen (E/A-Schnittstellen) 308, um den Empfang von Benutzereingaben und die Übermittlung von Ausgabedaten an den Benutzer zu ermöglichen, die beispielsweise eine beliebige Anzahl von Tastaturen, Mäusen, USB-Laufwerken, optischen Laufwerken, Bildschirmen, Touchscreens usw. umfassen können.
  • 4A zeigt einen ersten Satz fotorealistischer Frames 402a und 402b, die eine Ausführungsform des an der Andockbucht von 2A angedockten Fahrzeuglagerbereichs darstellen. Insbesondere stellt jedes der Frames 402a und 402b entsprechende 2D-(RGB) Bilder des an der Andockbucht von 2A angedockten Fahrzeuglagerbereichs dar. In verschiedenen Ausführungsformen können die Frames 402a und 402b von der TMU 202 erfasst worden sein, z. B. von der fotorealistischen Kamera 256 der TMU 202, wie hierin beschrieben. Darüber hinaus können die Frames 402a und 402b jeweils 2D-Bilddaten enthalten, wie z. B. Pixeldaten oder RGB-Daten, wie hierin beschrieben.
  • Frame 402a zeigt bestimmte Oberflächenbereiche des Fahrzeuglagerbereichs, die den Fahrzeuglagerbereich definieren, einschließlich der linken Wand 4061a und des Bodens 404a des Fahrzeuglagerbereichs. Frame 402a zeigt auch verschiedene Gegenstände, einschließlich Pakete, die in den Fahrzeuglagerbereich geladen werden. Dazu gehören Paketwand 410a, Pakete 412a und Pakete 414a. Wie hierin verwendet, kann eine Paketwand ein Stapel von Paketen, Kisten oder anderen transportierbaren Objekten oder Waren sein, die typischerweise in der Verteilung und Logistik eingesetzt werden. Eine Paketwand kann auch ein einzelnes Paket sein, das die Grundlage für eine neue Paketwand bildet. Jedes der Pakete, Kisten oder anderen transportierbaren Objekte oder Waren, aus denen eine bestimmte Paketwand aufgebaut ist, kann eine gemeinsame Tiefe, Abmessung oder Länge haben, so dass die bestimmte Paketwand als Ganzes mindestens eine einheitliche oder annähernd einheitliche Tiefe, Abmessung oder Länge aufweist.
  • Frame 402b stellt denselben Fahrzeuglagerbereich dar wie in Frame 402a, jedoch zu einem anderen Zeitpunkt. Beispielsweise kann Frame 402b das 2D-(RGB-)Bild des Fahrzeuglagerbereichs von Frame 402a darstellen, jedoch zu einem zukünftigen Zeitpunkt, an dem die Pakete 414a verschoben wurden, wie über die Pakete 414b und die Pakete 416b gezeigt. Beispielsweise können die Pakete 416b einen Teil der Pakete 414a darstellen, die verschoben wurden, um eine neue oder zusätzliche Paketwand zu bilden. Alle anderen Elemente können im Beispiel von 4A zwischen den Frames 402a und 402b gleich geblieben sein, wobei die Wand 4061b, der Boden 404b, die Paketwand 410b und die Pakete 412b von Frame 402b jeweils der Wand 4061a, dem Boden 404a, der Paketwand 410a und den Paketen 412a von Frame 402a entsprechen.
  • 4B zeigt Tiefenkartenwiedergaben, die dem ersten Satz fotorealistischer Frames von 4A entsprechen. Die Frames 452a und 452b von 4B stellen 3D-Bilddaten/Datensätze dar, die den 2D-Frames 402a bzw. 402b entsprechen. Die durch die Frames 452a und 452b veranschaulichten Tiefenkartenwiedergaben stellen 3D-Bilder mit 3D-Bilddaten/Datensätzen des Fahrzeuglagerbereichs 102s dar, der an der Andockbucht 102d von 2A angedockt ist, wobei der Lagerbereich eine erkannte Paketwand (z. B. Paketwand 410a oder 410b) umfasst. Die Frames 452a und 452b enthalten Tiefenkartenwiedergaben, die als 3D-Bilder wiedergegeben werden, wie sie z. B. von der 3D-Tiefenkamera 254 der TMU 202 erfasst werden. Die Tiefenkartenwiedergaben der Frames 452a und 452b können 3D-Bilddaten/Datensätze enthalten, wie z. B. Tiefenwerte, die aus einer Tiefenkarte, wie hierin beschrieben, ermittelt wurden. Bei den 3D-Bilddaten kann es sich um Punktwolkendaten handeln, wobei die Punktwolkendaten verschiedenen Farbpixelwerten zugeordnet sind, die auf den Tiefen der Datenpunkte innerhalb der Tiefenkartenwiedergaben der Frames 452a und 452b, wie hierin beschrieben, basieren. Punktwolkendaten können beispielsweise einen Satz von Datenpunkten enthalten, die Tiefe, Abstände und die 3D-Form von Oberflächen oder Objekten darstellen können, die von einer 3D-Tiefenkamera gescannt wurden.
  • Die Tiefenkartendarstellungen der Frames 452a und 452b enthalten dieselben oder ähnliche Oberflächen und Objekte wie die fotorealistischen Ansichten der Frames 402a und 402b, mit der Ausnahme, dass die Tiefenkartenwiedergaben der Frames 452a und 452b solche Oberflächen und Objekte über 3D-Bilder und/oder -Daten darstellen. Die Tiefenkartenwiedergabe der Frames 452a und 452b umfasst beispielsweise die Paketwände 460a und 460b, die den Paketwänden 410a und 410b entsprechen (aber durch 3D-Bilder und/oder -Daten dargestellt werden). Wie bei den Paketwänden 410a und 410b der fotorealistischen Ansichten der Frames 402a und 402b befinden sich beispielsweise auch die Paketwänden 460a und 460b der Tiefenkartenwiedergaben der Frames 452a und 452b im hinteren Bereich des Fahrzeuglagerbereichs 102s. In ähnlicher Weise wird der Fahrzeuglagerbereich 102s durch Oberflächenbereiche definiert, die die linke Wand 4061a/4061b und den Bodenbereich 404a/404b der Tiefenkartenwiedergaben der Frames 452a und 452b umfassen, die der linken Wand 4561a und dem Bodenbereich 454a/454b der fotorealistischen Ansichten der Frames 402a und 402b entsprechen.
  • Die Tiefenkartenwiedergaben der Frames 452a und 452b stellen verschiedene Tiefenwerte der 3D-Bilddaten über unterschiedliche Farbpixelwerte dar. Frame 452a zeigt z. B. eine Ausführungsform einer Punktwolkenwiedergabe des Fahrzeuglagerbereichs 102s, wo die Punkte der Punktwolke basierend auf der Tiefe der z-Achse eingefärbt sind. In ähnlicher Weise zeigt Frame 452b eine Ausführungsform einer Punktwolkenwiedergabe des Fahrzeuglagerbereichs 102s, wo die Punkte der Punktwolke basierend auf der Tiefe der z-Achse eingefärbt sind, wobei jedoch Kisten verschoben wurden (wie in ähnlicher Weise für den entsprechenden RGB-Frame 402b beschrieben).
  • In der in 4B gezeigten Ausführungsform kann ein beispielhaftes Farbwiedergabeschema Tiefenwerte über unterschiedliche Farbpixel (z. B. unterschiedliche RGB-Pixelwerte) darstellen, wobei die Tiefenkartenwiedergabe der Frames 452a und 452b nähere Entfernungen (z. B. kleinere Tiefenwerte) in wärmeren Farben, aber weitere Entfernungen (z. B. größere Tiefenwerte) in kühleren Farben anzeigt. Beispielsweise können, wie in den Tiefenkartenwiedergaben der Frames 452a und 452b gezeigt, die warmen Farben Rot, Orange und Gelb nahe Tiefenwerte darstellen, die kühlen Farben Grün, Cyan und Blau jedoch ferne Tiefenwerte. In einigen Ausführungsformen kann jeder der Farbwerte (z. B. jeder von mehreren Farbpixeln, die durch RGB-Werte definiert sind) der Tiefenkartenwiedergaben der Frames 452a und 452b einen eindeutigen Tiefenwert darstellen. Beispielsweise kann ein Pixel mit einem roten Farbton (RGB-Werte: 255, 0, 0) einen näheren Abstand (z. B. 5 Fuß von der 3D-Tiefenkamera entfernt), ein blauer Farbton (RGB-Werte: 0, 0, 255) jedoch einen weiteren Abstand (z. B. 27 Fuß von der 3D-Tiefenkamera entfernt) darstellen. Schwarze oder dunkle Regionen oder Bereiche stellen Regionen dar, die von der 3D-Tiefenkamera nicht gelesen oder erfasst wurden. Solche Bereiche werden hierin als ungültige Datenbereiche bezeichnet.
  • Wie in der Ausführungsform von 4B gezeigt, wird die linke Wand 456la der Tiefenkartenwiedergabe von Frame 452a in einer Vielzahl von Farben dargestellt, die die verschiedenen Tiefen oder Entfernungen der linken Wand 4561a von der 3D-Tiefenkamera (z. B. der 3D-Tiefenkamera 254) entlang der Entfernung des Fahrzeuglagerbereichs 102s repräsentieren. Wie dargestellt, wird der nächstgelegene Abschnitt 4561a1 der linken Wand 4561a in roten und/oder orangefarbenen Pixeln dargestellt (z. B. können rote und/oder orangefarbene Pixel Entfernungen von 1 bis 10 Fuß darstellen), der zweitnächste Abschnitt 4561a2 wird in gelben Pixeln dargestellt (z. B. können gelbe Pixel Entfernungen von 10 bis 15 Fuß darstellen), und der nächstgelegene Abschnitt 4561a3 wird in grünen Pixeln dargestellt (z. B. können grüne Pixel Entfernungen von 15 bis 20 Fuß darstellen). Wie in der Tiefenkartenwiedergabe von Frame 452a gezeigt, wird beispielsweise die Paketwand 460a mit grünen Pixeln dargestellt, da sie in einer Entfernung von 20 bis 25 Fuß von der 3D-Tiefenkamera (z. B. der 3D-Tiefenkamera 254) erkannt wurde. Wie die linke Wand 4561a wird auch die rechte Wand des Fahrzeuglagerbereichs 102s mit den gleichen oder ähnlichen Farben über die gesamte Länge der rechten Wand wiedergegeben. Es sei verstanden, dass Frame 452b mit demselben Farb-/Abstandsalgorithmus wiedergegeben wird wie für Frame 452a beschrieben.
  • Es sei verstanden, dass die 3D-Tiefenkamera (z. B. die 3D-Tiefenkamera 254), obwohl sie in den verschiedenen Ausführungsformen hierin beschrieben wird, in der Lage ist, genauere Entfernungen als 2,5 oder 5 Fuß-Schritte zu erfassen. Beispielsweise kann die 3D-Tiefenkamera Entfernungen oder Tiefen von Objekten oder Oberflächen in Abständen von Zoll oder Bruchteilen von Zoll erkennen. Darüber hinaus kann, wie oben beschrieben, jedes Pixel einen eindeutigen Abstand über RGB-Werte darstellen, so dass jede Permutation des RGB-Wertspektrums, das RGB-Werte (R: 0 bis 255, G: 0 bis 255, B: 0 bis 255) enthält, einen eindeutigen Tiefenwert in den Tiefenkartenwiedergaben der Frames 452a und 452b darstellen kann, die in den gegebenen Ausführungsformen der Tiefenkartenwiedergaben der Frames 452a und 452b über 16 Millionen eindeutige Tiefenwerte für eindeutige Abstände oder Tiefen für Objekte oder Oberflächen innerhalb des Fahrzeuglagerbereichs 102s darstellen können.
  • Wie in den Tiefenkartenwiedergaben der Frames 452a und 452b weiter gezeigt wird, werden jeder Bodenbereich 454a/454b und die Pakete 462a/462b, 464a/464b, 466b mit auf Rot, Orange und/oder Gelb basierenden Tiefenwerten (z. B. Nahabständen) von der 3D-Tiefenkamera (z. B. 3D-Tiefenkamera 254) dargestellt. Die Bodenbereiche 454a/454b von 4B entsprechen den Bodenbereichen 404a/404b von 4A, die Pakete 462a/462b von 4B entsprechen den Paketen 412a/412b von 4A, und die Pakete 464a/464b von 4B entsprechen den Paketen 414a/414b von 4A. Das Paket 466b aus 4B entspricht dem Paket 416b aus 4A.
  • 5A ist ein zweiter Satz fotorealistischer Frames 502a, 502b und 502c, die eine zweite Ausführungsform des an der Andockbucht von 2A angedockten Fahrzeuglagerbereichs darstellen. Insbesondere stellt jeder der Frames 502a, 502b und 502c ein entsprechendes 2D-(RGB)-Bild des an der Andockbucht von 2A angedockten Fahrzeuglagerbereichs dar. Die Frames 502a, 502b und 502c können von der TMU 202 erfasst worden sein, z. B. von der fotorealistischen Kamera 256 der TMU 202, wie hierin beschrieben. Die Frames 502a, 502b und 502c können jeweils 2D-Bilddaten enthalten, wie z. B. Pixeldaten oder RGB-Daten, wie hierin beschrieben. In der Ausführungsform von 5A stellt Frame 502a ein 2D-Bild eines Fahrzeuglagerbereichs dar, bevor eine Person den Fahrzeuglagerbereich betritt. Frame 502a zeigt bestimmte Oberflächenbereiche des Fahrzeuglagerbereichs, die den Fahrzeuglagerbereich definieren, einschließlich der linken Wand 5061a und des Bodens 504a des Fahrzeuglagerbereichs. In Frame 502a sind auch verschiedene Gegenstände, einschließlich Pakete, dargestellt, die in den Fahrzeuglagerbereich geladen werden. Dazu gehören Paketwand 510a, Pakete 512a und Pakete 514a.
  • Jedes der Frames 502b und 502c stellt denselben Fahrzeuglagerbereich wie in Frame 502a dargestellt dar, jedoch zu unterschiedlichen Zeiten. Beispielsweise kann Frame 502b das 2D-(RGB-)Bild des Fahrzeuglagerbereichs von Frame 502a darstellen, jedoch zu einem zukünftigen Zeitpunkt, zu dem Person 520b den Fahrzeuglagerbereich betreten hat. In ähnlicher Weise kann Frame 502c das 2D-(RGB-)Bild des Fahrzeuglagerbereichs von Frames 502a und 502b darstellen, jedoch zu einem noch zukünftigen Zeitpunkt, an dem Person 520b den Fahrzeuglagerbereich verlassen hat. In einigen Ausführungsformen, wie z. B. in dem Beispiel von 4A, können alle anderen Elemente zwischen den Frames 502a, 502b und 502c gleich oder im Wesentlichen gleich geblieben sein, wobei die Wände 5061a/5061b/5061c, die Böden 504a/504b/504c, die Paketwände 510a/510b/510c, die Pakete 512a/512b/512c und die Pakete 514a/514b/514c des Fahrzeuglagerbereichs über die fotorealistischen Frames 502a, 502b und 502c jeweils einander entsprechen, aber zu unterschiedlichen Zeiten. In anderen Ausführungsformen müssen jedoch einige Gegenstände (z.B. insbesondere solche, die bewegliches Gut enthalten und/oder daraus bestehen) zwischen den Frames (z.B. zwischen den Frames 502a, 502b und 502c) nicht gleich oder statisch geblieben sein. Es sei verstanden, dass die Offenbarung in Bezug auf die fotorealistischen Bilder, zugehörige Frames, Ansichten, Daten/Datensätze oder anderweitig, wie für 4A offenbart, hier gleichermaßen für die fotorealistischen Bilder und zugehörigen Frames, Ansichten, Daten/Datensätze oder anderweitig von 5A gilt.
  • 5B zeigt Tiefenkartenwiedergaben des zweiten Satzes fotorealistischer Frames von 5A. Die Frames 552a, 552b und 552c von 5B stellen 3D-Bilddaten/Datensätze dar, die den 2D-Frames 502a, 502b bzw. 502c entsprechen. Die durch die Frames 552a, 552b und 552c veranschaulichten Tiefenkartenwiedergaben stellen 3D-Bilder mit 3D-Bilddaten/Datensätzen des Fahrzeuglagerbereichs 102s dar, der an der Andockbucht 102d von 2A angedockt ist, wobei der Lagerbereich eine erkannte Paketwand (z. B. Paketwand 560a, 560b oder 560c) umfasst. Die Frames 552a, 552b und 552c enthalten Tiefenkartenwiedergaben, die als 3D-Bilder wiedergegeben werden, wie sie z. B. von der 3D-Tiefenkamera 254 der TMU 202 erfasst wurden. Die Tiefenkartenwiedergaben der Frames 552a, 552b und 552c können 3D-Bilddaten/Datensätze enthalten, wie z. B. Tiefenwerte, die aus einer Tiefenkarte, wie hierin beschrieben, bestimmt werden. Bei den 3D-Bilddaten kann es sich um Punktwolkendaten handeln, wobei die Punktwolkendaten verschiedenen Farbpixelwerten zugeordnet sind, die auf den Tiefen der Datenpunkte in den Tiefenkartenwiedergaben der Frames 452a und 452b, wie hierin beschrieben, basieren. Beispielsweise können Punktwolkendaten einen Satz von Datenpunkten enthalten, die Tiefe, Abstände und die 3D-Form von Oberflächen oder Objekten darstellen können, die von einer 3D-Tiefenkamera gescannt wurden. Es sei verstanden, dass die Offenbarung in Bezug auf die Tiefenkartenwiedergaben, zugehörige Frames, Bilder, Ansichten, Daten/Datensätze oder anderweitig, wie für 4B offenbart, hier gleichermaßen für die Tiefenkartenwiedergaben und zugehörige Frames, Bilder, Ansichten, Daten/Datensätze oder anderweitig von 5B gilt.
  • Die Tiefenkartenwiedergaben der Frames 552a, 552b und 552c enthalten die gleichen oder ähnliche Oberflächen und Objekte wie die fotorealistischen Ansichten der Frames 502a, 502b und 502c, mit der Ausnahme, dass die Tiefenkartenwiedergaben der Frames 552a, 552b und 552c solche Oberflächen und Objekte über 3D-Bilder und/oder -Daten darstellen. Die Tiefenkartenwiedergaben der Frames 552a, 552b und 552c enthalten beispielsweise die Paketwände 560a, 560b und 560c, die den Paketwänden 510a, 510b und 510c entsprechen (aber durch 3D-Bilder und/oder -Daten dargestellt werden). Wie bei den Paketwänden 510a, 510b und 510c der fotorealistischen Ansichten der Frames 502a, 502b und 502c befinden sich beispielsweise auch die Paketwände 510a, 510b und 510c der Tiefenkartenwiedergaben der Frames 552a, 552b und 552c im hinteren Bereich des Fahrzeuglagerbereichs 102s. In ähnlicher Weise wird der Fahrzeuglagerbereich 102s der Tiefenkartenwiedergaben der Frames 552a, 552b und 552c durch Oberflächenbereiche einschließlich der linken Wand 5561a/5561b/5561c definiert, und der Bodenfläche 554a/554b/554c der Tiefenkartenwiedergaben der Frames 552a, 552b und 552c, die der linken Wand 5061a/5061b/5061c und der Bodenfläche 504a/504b/504c der fotorealistischen Ansichten der Frames 502a, 502b und 502c entsprechen.
  • Die Tiefenkartenwiedergaben der Frames 552a, 552b und 552c stellen verschiedene Tiefenwerte der 3D-Bilddaten über unterschiedliche Farbpixelwerte dar. Frame 552a zeigt beispielsweise eine Ausführungsform einer Punktwolkenwiedergabe des Fahrzeuglagerbereichs 102s, bei der die Punkte der Punktwolke basierend auf der Tiefe der z-Achse eingefärbt sind und ein 3D-Bild definieren, bevor eine Person den Fahrzeuglagerbereich betritt. In ähnlicher Weise zeigt Frame 552b eine Ausführungsform einer Punktwolkenwiedergabe des Fahrzeuglagerbereichs 102s, bei der die Punkte der Punktwolke auf der Grundlage der Tiefe der z-Achse eingefärbt sind, aber die Person 570b (ebenfalls in Punktwolkendaten wiedergegeben) den Fahrzeuglagerbereich betreten hat (wie in ähnlicher Weise für den entsprechenden RGB-Frame 502b beschrieben, wobei die Person 570b der Person 520b entspricht, sowohl in RGB- als auch in Punktwolkenwiedergaben). Frame 552c zeigt eine Ausführungsform einer Punktwolkenwiedergabe des Fahrzeuglagerbereichs 102s, bei der die Punkte der Punktwolke auf der Grundlage der Tiefe der z-Achse eingefärbt sind, die Person jedoch den Fahrzeuglagerbereich verlassen hat (wie ähnlich für das entsprechende RGB-Frame 502c beschrieben). 5B wird über das gleiche Wiedergabeschema wiedergegeben (z. B. werden die Abstände von Objekten oder Oberflächen über entsprechende unterschiedliche Farben abgegrenzt) wie für 4B beschrieben. Es sei verstanden, dass das für 4B beschriebene Farb-/Abstandsschema gleichermaßen für 5B und für jedes der hier beschriebenen Tiefenkartenwiedergaben der Frames 552a, 552b und 552c gilt.
  • Wie in den Tiefenkartenwiedergaben der Frames 552a, 552b und 552c gezeigt, werden die Pakete 562a/562b/562c und die Pakete 564a/564b/564c mit roten, orangefarbenen und/oder gelben Tiefenwerten (z. B. Nahabstände) von der 3D-Tiefenkamera (z. B. 3D-Tiefenkamera 254) dargestellt. Bodenbereiche 554a/554b/554c, Paketwände 560a/560b/560c werden mit grünen Tiefenwerten (z. B. weite Entfernungen) von der 3D-Tiefenkamera (z. B. 3D-Tiefenkamera 254) dargestellt. Die Bodenbereiche 554a/554b/554c von 5B entsprechen den Bodenbereichen 504a/504b/504c von 5A, die Pakete 562a/562b/562c von 5B entsprechen den Paketen 512a/512b/512c von 5A, und die Pakete 564a/564b/564c von 5B entsprechen den Paketen 514a/514b/514c von 5A. Die Person 570b von 5B entspricht der Person 520b von 5A.
  • 6 ist ein Flussdiagramm eines dreidimensionalen (3D) Bildgebungsverfahrens 600 zum Analysieren der Leerlaufzeitdauer in einem Lagerbereich. Das beispielhafte Flussdiagramm von 6 ist als binärer Entscheidungsbaum-Algorithmus dargestellt, der von einem oder mehreren Prozessoren (z. B. einem oder mehreren Prozessoren der TMU 202, des Servers 301 und/oder einer Clientvorrichtung) implementiert werden kann, um Leerlaufzeitdauern zu bestimmen, z. B. aus der Analyse von Punktwolkenunterschieden. Das Verfahren 600 (z. B. binärer Entscheidungsbaum-Algorithmus) kann über zahlreiche Iterationen implementiert werden, um die Leerlaufzeitdauer zu bestimmen (z. B. Inkrementieren einer kumulativen Leerlaufzeitdauer wie hierin beschrieben). Obwohl in 6 ein binärer Entscheidungsbaum-Algorithmus dargestellt ist, können auch andere Algorithmen verwendet werden, um die hierin beschriebene Analyse der Leerlaufzeitdauer in einem Lagerbereich durchzuführen.
  • Das Verfahren 600 umfasst das nicht-gleichzeitige Erfassen von Frames (z. B. wie durch jede der Aufzeichnung 1, Aufzeichnung 2 und Aufzeichnung 3 dargestellt) über eine 3D-Tiefenkamera (z. B. TMU 202), die jeweils einen entsprechenden 3D-Bilddatensatz aufweisen. Das heißt, wie in 6 dargestellt, können verschiedene Aufzeichnungen (z. B. Aufzeichnung 1, Aufzeichnung 2 und Aufzeichnung 3) über den binären Entscheidungsbaum-Algorithmus verglichen werden (Blöcke 602, 606, 616). In verschiedenen Ausführungsformen kann das Verfahren 600 in Echtzeit implementiert werden (z. B. werden Bilder analysiert/verglichen, während sie erfasst werden). Wie hierin verwendet, bezieht sich der Begriff nicht-gleichzeitig oder nicht-gleichzeitige Frames auf Frames, die zu unterschiedlichen Zeiten erfasst wurden.
  • Jede der Aufzeichnungen kann Frames entsprechen, die jeweils einen entsprechenden 3D-Bilddatensatz aufweisen (z. B. die Frames 452a und 452b von 4B und/oder die Frames 552a, 552b, 552c von 5B). Jeder der Frames/3D-Bilddatensätze kann von der TMU 202, wie hierin beschrieben, erfasst worden sein. Dementsprechend kann in verschiedenen Ausführungsformen, wie in 6 beispielhaft dargestellt, eine 3D-Datenanalyseanwendung (App), die auf einem oder mehreren Prozessoren ausgeführt wird, eine Vielzahl von Aufzeichnungen verwalten, einschließlich einer ersten Aufzeichnung (z. B. Aufzeichnung 1), einer zweiten Aufzeichnung (z. B. Aufzeichnung 2) und einer dritten Aufzeichnung (Aufzeichnung 3). In einigen Ausführungsformen kann eine Zuordnung zwischen jeder der Vielzahl von Aufzeichnungen (z. B. Aufzeichnung 1, Aufzeichnung 2 und Aufzeichnung 3) und dem jeweiligen 3D-Bilddatensatz eines jeweiligen Frames einen jeweiligen Framepuffer umfassen, der den jeweiligen 3D-Bilddatensatz des jeweiligen Frames speichert, wobei jeder der jeweiligen Framepuffer in einem 3D-Bildgebungssystemspeicher gespeichert ist (z. B. in einem Computerspeicher der TMU 202, des Servers 301 und/oder der Clientvorrichtung 204). In verschiedenen Ausführungsformen ist die Vielzahl der Aufzeichnungen (z. B. Aufzeichnung 1, Aufzeichnung 2 und Aufzeichnung 3) so implementiert, dass sie ein Array von Aufzeichnungen im Speicher bilden.
  • In verschiedenen Ausführungsformen kann jeder 3D-Bilddatensatz eine entsprechende Punktwolke enthalten. In solchen Ausführungsformen kann die 3D-Datenanalyse-App ferner so konfiguriert sein, dass sie den ersten Vergleich 602 zwischen der dritten Aufzeichnung (z. B. Aufzeichnung 3) und der ersten Aufzeichnung (z. B. Aufzeichnung 1) durchführt, indem sie mindestens einen Teil der jeweiligen Punktwolke des 3D-Bilddatensatzes, der mindestens einem Teil der dritten Aufzeichnung (z. B. Aufzeichnung 3) zugeordnet ist, mit der jeweiligen Punktwolke des 3D-Bilddatensatzes vergleicht, der der ersten Aufzeichnung (z. B. Aufzeichnung 1) zugeordnet ist. Sobald beispielsweise zwei 3D-Bilddatensätze (z. B. Punktwolken) als jeweilige Aufzeichnungen gespeichert sind, kann jeder nachfolgende 3D-Bilddatensatz (z. B. Punktwolke) mit beiden 3D-Bilddatensätzen (z. B. Punktwolken) in den Aufzeichnungen verglichen werden, z. B. unter Verwendung einer Punktwolkenbibliothek (z. B. Octree-Bibliothek), um die Punkte zu extrahieren, die in einem 3D-Bilddatensatz (z. B. Punktwolke), aber nicht in dem anderen enthalten sind. Diese Anzahl von Punkten wird dann mit einem empirisch ermittelten Schwellenwert verglichen, wie hierin beschrieben. Je nachdem, wie die Punktdifferenzen im Vergleich ausfallen, können unterschiedliche Aktionen (z. B. Inkrementieren der kumulativen Leerlaufzeitdauer oder Zurücksetzen der kumulativen Leerlaufzeitdauer) durchgeführt werden, wie im binären Entscheidungsbaum von 6 dargestellt. Diese Aktionsabläufe ermöglichen die Erkennung einer Paketbewegung (z. B. wie in den 4A und 4B dargestellt), die eine Beladungsaktivität darstellen kann, und/oder die Erkennung einer Person, die hineingeht (z. B. Personen-Eintritt) und wieder herausgeht (z. B. Personen-Austritt), wie in den 5A und 5B dargestellt, was eine Nichtbeladungsaktivität darstellen kann.
  • In verschiedenen Ausführungsformen kann die erste Aufzeichnung (z. B. Aufzeichnung 1) mit einem 3D-Bilddatensatz eines ältesten Frames in einer Serie von Frames verbunden sein. Die dritte Aufzeichnung (z. B. Aufzeichnung 3) kann mit einem 3D-Bilddatensatz eines aktuellsten Frames in der Serie von Frames verbunden sein. Die zweite Aufzeichnung (z. B. Aufzeichnung 2) kann mit einem 3D-Bilddatensatz eines Zwischenframes verbunden sein. Der Zwischenframe (z. B. repräsentiert durch Aufzeichnung 2) kann zwischen dem ältesten Frame (z. B. repräsentiert durch Aufzeichnung 1) in der Serie von Frames und dem aktuellsten Frame (z. B. repräsentiert durch Aufzeichnung 3) in der Serie von Frames erfasst worden sein. In einigen Ausführungsformen kann eine Serie von Frames auf drei Frames begrenzt sein (z. B. drei Frames, die jeweils zu Aufzeichnung 1, Aufzeichnung 2 und Aufzeichnung 3 gehören).
  • In Block 602 kann das Verfahren 600 damit beginnen, einen ersten Vergleich 602 zwischen der dritten Aufzeichnung (z. B. Aufzeichnung 3) und der ersten Aufzeichnung (z. B. Aufzeichnung 1) durchzuführen (z. B. über einen oder mehrere Prozessoren der TMU 202, des Servers 301 und/oder einer Clientvorrichtung), um zu bestimmen, ob eine Differenz zwischen dem 3D-Bilddatensatz, der der dritten Aufzeichnung (z. B. Aufzeichnung 3) zugeordnet ist, und dem 3D-Bilddatensatz, der der ersten Aufzeichnung (z. B. Aufzeichnung 1) zugeordnet ist, kleiner oder größer als ein erster Schwellenwert ist. Wie hierin verwendet, bezieht sich der Begriff Schwellenwert auf einen Wert, der aus dem Vergleich von 3D-Bilddatensätzen (z. B. Punktwolkendaten) ermittelt wird, z. B. wenn Positionen, Abstände und/oder andere Metriken von Punkten eines 3D-Bilddatensatzes 3D einer Aufzeichnung (z. B. Aufzeichnung 1) auf Unterschiede zwischen Positionen, Abständen und/oder anderen Metriken eines anderen 3D-Bilddatensatzes 3D einer zweiten Aufzeichnung (z. B. Aufzeichnung 3) verglichen werden. In einigen Ausführungsformen kann beispielsweise durch Analyse der Differenz zwischen zwei aufeinanderfolgenden Datenframes (z. B. zwischen den Frames 452a und 452b von 4B und/oder den Frames 552a, 552b, 552c von 5B) bestimmt werden, ob eine Paketbeladung stattgefunden hat oder nicht. Jeder Datenframe kann als Punktwolke dargestellt werden, z. B. ein 3D-Bild, bei dem jeder Punkt eine x-, y- und z-Koordinate im Raum darstellt, wie es z. B. durch Tiefenkartenwiedergaben der Frames der 4B und 5B dargestellt wird. Um Änderungen zwischen zwei Frames zu bestimmen, kann eine Punkt-zu-Punkt-Suche erfolgen, bei der ein Algorithmus für jeden Punkt in einer ersten Punktwolke (die z. B. durch Aufzeichnung 1 definiert sein könnte) prüft, ob es einen im Wesentlichen oder genau übereinstimmenden Punkt in einer zweiten anderen Punktwolke gibt (die z. B. durch Aufzeichnung 3 definiert sein könnte). Sobald die Anzahl der nicht übereinstimmenden Punkte eine bestimmte Schwelle (z. B. einen Schwellenwert) übersteigt, werden die Bilder als signifikant unterschiedlich betrachtet (z. B. als hinweisend darauf, dass zwischen zwei Frames - z. B. zwischen den Frames 452a und 452b von 4B und/oder den Frames 552a, 552b, 552c von 5B - eine Änderung der Objekte/Oberflächen im Fahrzeuglagerbereich stattgefunden hat).
  • Wenn der erste Vergleich 602 einen Differenzwert ergibt, der kleiner als der erste Schwellenwert ist (Verzweigung 604), dann beinhaltet das Verfahren 600 die Durchführung eines zweiten Vergleichs 606 zwischen der dritten Aufzeichnung (z. B. Aufzeichnung 3) und der zweiten Aufzeichnung (z. B. Aufzeichnung 2), um zu bestimmen, ob eine Differenz zwischen dem 3D-Bilddatensatz, der der dritten Aufzeichnung (z. B. Aufzeichnung 3) zugeordnet ist, und dem 3D-Bilddatensatz, der der zweiten Aufzeichnung (z. B. Aufzeichnung 3) zugeordnet ist, kleiner oder größer als ein zweiter Schwellenwert ist.
  • Wenn jedoch der erste Vergleich 602 einen Differenzwert ergibt, der größer als (oder in einigen Ausführungsformen gleich) der erste Schwellenwert ist (Zweig 614), dann umfasst das Verfahren 600 die Durchführung eines zweiten Vergleichs 616 zwischen der dritten Aufzeichnung (z. B. Aufzeichnung 3) und der zweiten Aufzeichnung (z. B. Aufzeichnung 2), um zu bestimmen, ob eine Differenz zwischen dem 3D-Bilddatensatz, der der dritten Aufzeichnung (z. B. Aufzeichnung 3) zugeordnet ist, und dem 3D-Bilddatensatz, der der zweiten Aufzeichnung (z. B. Aufzeichnung 3) zugeordnet ist, kleiner oder größer als der zweite Schwellenwert ist.
  • Unabhängig davon, ob der zweite Vergleich 606 oder der zweite Vergleich 616 durchgeführt wird, umfasst das Verfahren 600 das Bestimmen (z. B. über einen beliebigen von einem oder mehreren Prozessoren der TMU 202, des Servers 301 und/oder einer Clientvorrichtung) und basierend auf dem ersten Vergleich 602 und dem zweiten Vergleich (z. B., entweder zweiter Vergleich 606 oder zweiter Vergleich 616), einen Aktivitätsstatustyp (z.B. einen beliebigen von einem inaktiven Statustyp 630, einem Personen-Eintritts-Statustyp 632, einem Personen-Austritts-Statustyp 634 oder einem Beladungsstatustyp 636), der eine Aktivität definiert, die innerhalb des Lagerbereichs während eines Zeitsegments stattfindet. In solchen Ausführungsformen tritt das Zeitsegment zwischen einem Zeitpunkt der Erfassung des ältesten Frames in der Serie von Frames (z. B. das Frame, das mit Aufzeichnung 1 verbunden ist) und einem Zeitpunkt der Erfassung des aktuellsten Frames in der Serie von Frames (z. B. das Frame, das mit Aufzeichnung 3 verbunden ist) auf.
  • Der Aktivitätsstatustyp kann verschiedene Status umfassen, einschließlich Statustypen, die als Nichtbeladungsstatustypen kategorisiert sind, und Statustypen, die als Beladungsstatustypen kategorisiert sind. Es sei verstanden, dass, obwohl hier verschiedene Beispielstatusarten offenbart und beschrieben werden, die Gesamtheit der hier betrachteten Statusarten nicht auf die offenbarten Beispieltypen beschränkt ist. Der Aktivitätsstatustyp kann beispielsweise den Beladungsstatustyp 636 umfassen, ist aber nicht auf diesen beschränkt. Der Aktivitätsstatustyp kann bestimmt werden, den Ladestatustyp 636 zu haben, wenn der erste Vergleich 602 anzeigt, dass die Differenz zwischen dem 3D-Bilddatensatz, der der dritten Aufzeichnung (z.B. Aufzeichnung 3) zugeordnet ist, und dem 3D-Bilddatensatz, der der ersten Aufzeichnung (z.B., Aufzeichnung 1) zugeordnet ist, größer ist als der erste Schwellenwert (Zweig 614), und der zweite Vergleich 616 anzeigt, dass die Differenz zwischen dem 3D-Bilddatensatz, der der dritten Aufzeichnung (z.B. Aufzeichnung 3) zugeordnet ist, und dem 3D-Bilddatensatz, der der zweiten Aufzeichnung (z.B. Aufzeichnung 2) zugeordnet ist, größer ist als der zweite Schwellenwert (Zweig 619).
  • Im Allgemeinen beinhaltet die Erkennung von Beladungsaktivitäten die Analyse von 3D-Bilddatensätzen (z. B. 3D-Bilddatensätze der Frames 452a und 452b), um zu bestimmen, dass nur die Bewegung von Paketen erkannt wird (z. B. wie in den 4A und 4B dargestellt) und nicht der Eintritt/Austritt einer Person (z. B. wie in den 5A und 5B dargestellt). Beispielsweise veranschaulichen die 4A und 4B, dass sich die Pakete 414a/464a bewegt oder ihre Position geändert haben (z. B. über die Pakete 416b/466b), wie anhand der 3D-Bilddaten ermittelt, was einem Prozessor (der die 3D-Bilddaten wie hier beschrieben analysiert) anzeigt, dass eine Beladungsaktivität stattgefunden hat. Auf diese Weise kann ein Prozessor die Historie von zurückliegenden 3D-Bilddaten (z. B. Punktwolken) analysieren, um zu prüfen, ob eine Änderung in den 3D-Bilddaten (z. B. Punktwolken) in Bezug auf den Standort der Pakete dauerhaft bleibt (z. B. anzeigend, dass sich die Pakete 416b/466b bewegt haben, wie in den 4A und 4B dargestellt). Dies steht im Gegensatz zu Nichtbeladungsaktivitäten, bei denen 3D-Bilddaten (z. B. Punktwolkendaten) z. B. anzeigen können, dass eine Person eingetreten/ausgetreten ist, wie in den 5A und 5B dargestellt.
  • In einigen Ausführungsformen kann die 3D-Datenanalyse-App so konfiguriert sein, dass sie basierend auf dem Aktivitätsstatustyp, der einen Beladungsstatustyp aufweist, die kumulative Leerlaufzeitdauer zurücksetzt. Wie in 6 dargestellt, kann beispielsweise der Beladungsstatustyp 636 dazu führen, dass die Leerlaufzeitdauer zurückgesetzt wird, weil über den 3D-Bilddatensatz eine Beladungsaktivität erkannt wurde und somit das Beladen des Fahrzeuglagerbereichs im Gange war (und nicht im Leerlauf). Das Zurücksetzen der Leerlaufzeit auf Null ermöglicht es dem System, über verschiedene Iterationen hinweg einen Referenzpunkt dafür zu berücksichtigen, wenn Nicht-Leerlaufzeit vorlag. Somit hebt die Beladungsaktivität eine Leerlaufzeit auf, die andernfalls die kumulative Leerlaufzeitdauer für einen Nichtaktivitätsstatustyp inkrementieren würde, oder setzt sie auf Null.
  • In anderen Ausführungsformen kann der Aktivitätsstatustyp beispielsweise Nichtbeladungsstatustypen umfassen. Nichtbeladungsstatustypen können unter anderem den inaktiven Statustyp 630, den Personen-Eintritts-Statustyp 632 und den Personen-Austritts-Statustyp 634 umfassen. Zum Beispiel können die Bilder oder Frames der 5A und 5B mit dem Personen-Eintritts-Statustyp 632 und/oder dem Personen-Austritts-Statustyp 634 verbunden sein. Jeder der Nichtbeladungsstatustypen bewirkt, dass die kumulative Leerlaufzeitdauer inkrementiert wird, weil keine Beladungsaktivität bestimmt wird (z. B. bestimmt über die 3D-Bildanalyse, wie hierin beschrieben). Zum Beispiel kann in verschiedenen Ausführungsformen der Aktivitätsstatustyp als inaktiver Statustyp 630 bestimmt werden, wenn der erste Vergleich 602 anzeigt, dass die Differenz zwischen dem 3D-Bilddatensatz, der der dritten Aufzeichnung (z.B. Aufzeichnung 3) zugeordnet ist, und dem 3D-Bilddatensatz, der der ersten Aufzeichnung (z.B., Aufzeichnung 1) zugeordnet ist, kleiner ist als der erste Schwellenwert (Zweig 604), und der zweite Vergleich 606 anzeigt, dass die Differenz zwischen dem 3D-Bilddatensatz, der der dritten Aufzeichnung (z.B. Aufzeichnung 3) zugeordnet ist, und dem 3D-Bilddatensatz, der der zweiten Aufzeichnung (z.B. Aufzeichnung 2) zugeordnet ist, kleiner ist als der zweite Schwellenwert (Zweig 608).
  • In ähnlicher Weise kann in weiteren Ausführungsformen bestimmt werden, dass der Aktivitätsstatustyp den Person-Eintritts-Statustyp 632 aufweist, wenn der erste Vergleich 602 anzeigt, dass die Differenz zwischen dem 3D-Bilddatensatz, der der dritten Aufzeichnung (z.B. Aufzeichnung 3) zugeordnet ist, und dem 3D-Bilddatensatz, der der ersten Aufzeichnung (z.B. Aufzeichnung 1) zugeordnet ist, kleiner als der erste Schwellenwert ist (Zweig 604), und der zweite Vergleich anzeigt, dass die Differenz zwischen dem 3D-Bilddatensatz, der der dritten Aufzeichnung (z.B. Aufzeichnung 3) zugeordnet ist, und dem 3D-Bilddatensatz, der der zweiten Aufzeichnung (z.B. Aufzeichnung 2) zugeordnet ist, größer als der zweite Schwellenwert ist (Zweig 609).
  • In weiteren Ausführungsformen kann der Aktivitätsstatustyp als der Personen-Austritts-Statustyp 634 bestimmt werden, wenn der erste Vergleich 602 anzeigt, dass die Differenz zwischen dem 3D-Bilddatensatz, der der dritten Aufzeichnung (z.B. Aufzeichnung 3) zugeordnet ist, und dem 3D-Bilddatensatz, der der ersten Aufzeichnung (z.B. Aufzeichnung 1) zugeordnet ist, größer ist als der erste Schwellenwert (Zweig 614), und der zweite Vergleich 616 anzeigt, dass die Differenz zwischen dem 3D-Bilddatensatz, der der dritten Aufzeichnung (z.B. Aufzeichnung 3) zugeordnet ist, und dem 3D-Bilddatensatz, der der zweiten Aufzeichnung (z.B. Aufzeichnung 2) zugeordnet ist, kleiner ist als der zweite Schwellenwert (Zweig 618).
  • Wie in 6 gezeigt, kann die 3D-Datenanalyse-App so konfiguriert sein, dass sie verschiedene Aufzeichnungen (z. B. Aufzeichnung 1 und Aufzeichnung 2) anpasst oder ersetzt, wenn sie bestimmt, dass der Aktivitätsstatustyp einen umfasst von: (i) inaktiver Statustyp 630, (ii) Personen-Austritts-Statustyp 634 oder (iii) Beladungsstatustyp 636. Zum Beispiel kann die 3D-Analyse-App bei der Bestimmung eines der Statustypen 630, 634 oder 636 die Serie von Frames anpassen, indem sie den ältesten Frame (z. B. dargestellt durch Aufzeichnung 1) aus der Serie von Frames entfernt, wodurch das dazwischenliegende Frame (z. B. dargestellt durch Aufzeichnung 2) zum ältesten Frame in der Serie von Frames wird (z. B. Ersetzen von Aufzeichnung 1 durch Aufzeichnung 2). In solchen Ausführungsformen kann ein neuer Frame hinzugefügt werden, der im Anschluss an den aktuellsten Frame in der Serie von Frames erfasst wird, wodurch der aktuellste Frame (z. B. dargestellt durch Aufzeichnung 3) zum Zwischenframe wird (z. B. Ersetzen von Aufzeichnung 2 durch Aufzeichnung 3).
  • Wie in 6 angedeutet, kann die 3D-Datenanalyse-App in weiteren Ausführungsformen so konfiguriert sein, dass sie bestimmte Aufzeichnungen (z. B. Aufzeichnung 2) anpasst oder ersetzt, wenn sie bestimmt, dass der Aktivitätsstatustyp den Person-eintritts-Statustyp 632 hat. In solchen Ausführungsformen kann die 3D-Analyse-App die Serie von Frames anpassen, indem sie den ältesten Frame in der Serie von Frames beibehält (z. B. wie durch Aufzeichnung 1 dargestellt) und einen neuen Frame, der nach dem aktuellsten Frame in der Serie von Frames erfasst wurde, zu der Serie von Frames hinzufügt, wodurch der aktuellste Frame (z. B. Aufzeichnung 3) zum Zwischenframe wird (z. B. Ersetzen von Aufzeichnung 2 durch Aufzeichnung 3).
  • In einigen Ausführungsformen kann die 3D-Datenanalyse-App ferner so konfiguriert sein, dass sie jede der Vielzahl von Aufzeichnungen (z. B. Aufzeichnung 1, Aufzeichnung 2 und Aufzeichnung 3) vor der Durchführung des ersten Vergleichs und des zweiten Vergleichs vorverarbeitet. In solchen Ausführungsformen kann die Vorverarbeitung das Zuschneiden mindestens eines Teils des jeweiligen 3D-Bilddatensatzes eines jeweiligen Frames umfassen, der mit jeder der Vielzahl von Aufzeichnung verbunden ist. Bevor 3D-Bilddatensätze (z. B. Punktwolken) verarbeitet werden können, müssen diese 3D-Bilddatensätze beispielsweise zugeschnitten werden, um die Wirkung von Streulicht zu reduzieren, das Streudatenpunkte verursacht. Andernfalls kann die Änderung der Punkte zwischen zwei verschiedenen 3D-Bilddatensätzen (z. B. Punktwolken) von Ausreißern und nicht von echten Daten stammen.
  • Während verschiedener Iterationen kann das Verfahren 600 das Inkrementieren einer kumulativen Leerlaufzeitdauer auf der Basis des Aktivitätsstatustyps, der einen Nichtbeladungsstatustyp aufweist, beinhalten. Zum Beispiel können Iterationen, die einen inaktiven Statustyp 630, einen Personen-Eintritts-Statustyp 632 oder einen Personen-Austritts-Aktivitätstyp 634 beinhalten, jeweils dazu führen, dass die kumulative Leerlaufzeitdauer inkrementiert wird. In einigen Ausführungsformen ist die kumulative Leerlaufzeitdauer eine Zeitdauer, in der (i) kein Gegenstand in den Lagerbereich gebracht wird, (ii) kein Gegenstand aus dem Lagerbereich entnommen wird und (iii) kein Gegenstand von einem Ort zu einem anderen Ort innerhalb des Lagerbereichs bewegt wird. Jede dieser Aktivitäten kann z. B. durch den inaktiven Statustyp 630 von 6 dargestellt werden.
  • In ähnlichen Ausführungsformen kann der Aktivitätsstatustyp als ein Nichtbeladungsstatustyp bestimmt werden, wenn der erste Vergleich (602) anzeigt, dass die Differenz zwischen dem 3D-Bilddatensatz, der der dritten Aufzeichnung (z. B. Aufzeichnung 3) zugeordnet ist, und dem 3D-Bilddatensatz, der der ersten Aufzeichnung (z. B. Aufzeichnung 1) kleiner als der erste Schwellenwert ist, so dass, wie in 6 gezeigt, der Aktivitätsstatustyp einer von entweder dem inaktiven Statustyp 630 (Zweig 608) oder dem Personen-Eintritts-Statustyp 632 ist (Zweig 609), wobei beide Typen 630 und 632 Nichtbeladungsstatustypen sind.
  • In zusätzlichen Ausführungsformen kann der Aktivitätsstatustyp als ein Nichtbeladungsstatustyp bestimmt werden, wenn der erste Vergleich (602) anzeigt, dass die Differenz zwischen dem 3D-Bilddatensatz, der der dritten Aufzeichnung (z.B. Aufzeichnung 3) zugeordnet ist, und dem 3D-Bilddatensatz, der der ersten Aufzeichnung (z.B., Aufzeichnung 1) zugeordnet ist, größer ist als der erste Schwellenwert (614), und der zweite Vergleich (616) anzeigt, dass die Differenz zwischen dem 3D-Bilddatensatz, der der dritten Aufzeichnung (z.B. Aufzeichnung 3) zugeordnet ist, und dem 3D-Bilddatensatz, der der zweiten Aufzeichnung (z.B. Aufzeichnung 2) zugeordnet ist, kleiner ist als der zweite Schwellenwert (Zweig 618).
  • Darüber hinaus kann das Verfahren 600 während verschiedener Iterationen ferner die Bereitstellung der kumulativen Leerlaufzeitdauer über ein Computernetzwerk an eine Computervorrichtung mit einem Computervorrichtungsspeicher umfassen. In einigen Ausführungsformen ist die Computervorrichtung beispielsweise eine Clientvorrichtung (z. B. Clientvorrichtung 204) oder ein Server (z. B. Server 301), der so konfiguriert ist, dass er eine Vielzahl von Clientvorrichtungen verwaltet. In solchen Ausführungsformen kann ein Verwalter oder ein anderer Mitarbeiter, der die Beladung von Paketen in einem Fahrzeuglagerbereich (z. B. Fahrzeuglagerbereich 102s) überwacht, die kumulative Leerlaufzeitdauer (z. B. in Echtzeit) verwenden, um die Betriebseffizienz und/oder das Beladungsschema im Zusammenhang mit logistischen Vorgängen zu verbessern.
  • In der vorstehenden Beschreibung wurden spezifische Ausführungsformen beschrieben. Ein Durchschnittsfachmann erkennt jedoch, dass verschiedene Modifikationen und Änderungen vorgenommen werden können, ohne den Schutzumfang der Erfindung, wie sie in den untenstehenden Ansprüchen definiert ist, abzuweichen. Dementsprechend sind die Beschreibung und die Figuren vielmehr in einem illustrativen als in einem einschränkenden Sinne zu betrachten, und alle derartigen Modifikationen sollen im Umfang der vorliegenden Lehren eingeschlossen sein. Darüber hinaus sollten die beschriebenen Ausführungsformen/Beispiele/Implementierungen nicht als sich gegenseitig ausschließend interpretiert werden, sondern als potentiell kombinierbar verstanden werden, wenn solche Kombinationen in irgendeiner Weise zulässig sind. Mit anderen Worten, jedes Merkmal, das in einer der vorgenannten Ausführungsformen/Beispiele/Implementierungen offenbart ist, kann in jeder der anderen vorgenannten Ausführungsformen/Beispiele/Implementierungen enthalten sein.
  • Der Nutzen, Die Nutzen, Vorteile, Lösungen für Probleme und alle Elemente, die zum Auftreten oder einer Verstärkung eines Nutzens, eines Vorteils, oder einer Lösung führen können, sind nicht als kritische, erforderliche oder wesentliche Merkmale oder Elemente in einigen oder sämtlichen Ansprüchen zu verstehen. Die Erfindung ist lediglich durch die angehängten Ansprüche definiert, einschließlich jeglicher Änderungen, die während der Anhängigkeit dieser Anmeldung vorgenommen wurden und aller Äquivalente der erteilten Ansprüche.
  • Darüber hinaus können in diesem Dokument relationale Begriffe wie erster und zweiter, oberer und unterer und dergleichen lediglich verwendet sein, um eine Entität oder Aktion von einer anderen Entität oder Aktion zu unterscheiden, ohne notwendigerweise eine tatsächliche derartige Beziehung oder Reihenfolge zwischen solchen Entitäten oder Aktionen zu erfordern oder zu implizieren. Die Ausdrücke „umfasst“, „umfassend“, „hat“, „haben“, „aufweist“, „aufweisend“, „enthält“, „enthaltend“ oder jede andere Variation davon sollen eine nicht-ausschließliche Einbeziehung abdecken, derart, dass ein Prozess, Verfahren, Produkt oder Vorrichtung, das eine Liste von Elementen umfasst, hat, aufweist, enthält, nicht nur diese Elemente aufweist, sondern auch andere Elemente aufweisen kann, die nicht ausdrücklich aufgelistet sind oder einem solchen Prozess, Verfahren, Produkt oder Vorrichtung inhärent sind. Ein Element, dem „umfasst ... ein“, „hat ... ein“, „aufweist ...
    ein“ oder „enthält ...ein“ vorausgeht, schließt ohne weitere Einschränkungen die Existenz zusätzlicher identischer Elemente in dem Prozess, dem Verfahren, dem Produkt oder der Vorrichtung, die das Element umfasst, hat, aufweist oder enthält, nicht aus. Die Begriffe „ein“ und „eine“ sind als eine oder mehrere definiert, sofern es hierin nicht ausdrücklich anders angegeben wird. Die Begriffe „im Wesentlichen“, „im Allgemeinen“, „ungefähr“, „etwa“ oder jede andere Version davon sind so definiert, dass sie von einem Fachmann auf diesem Gebiet nahekommend verstanden werden, und in einer nicht-einschränkenden Ausführungsform ist der Ausdruck definiert als innerhalb von 10%, in einer weiteren Ausführungsform als innerhalb von 5%, in einer weiteren Ausführungsform als innerhalb von 1% und in einer weiteren Ausführungsform als innerhalb von 0,5%. Der Ausdruck „gekoppelt“, wie er hierin verwendet wird, ist als verbunden definiert, jedoch nicht notwendigerweise direkt und nicht notwendigerweise mechanisch. Eine Vorrichtung oder eine Struktur, die auf eine bestimmte Art „ausgeführt“ ist, ist zumindest auch so ausgeführt, kann aber auch auf Arten ausgeführt sein, die nicht aufgeführt sind.
  • Es versteht sich, dass einige Ausführungsformen von einem oder mehreren generischen oder spezialisierten Prozessoren (oder „Verarbeitungsgeräten“) wie Mikroprozessoren, digitale Signalprozessoren, kundenspezifische Prozessoren und Field-Programmable-Gate-Arrays (FPGAs) und einmalig gespeicherten Programmanweisungen (einschließlich sowohl Software als auch Firmware) umfasst sein können, die den einen oder die mehreren Prozessoren steuern, um in Verbindung mit bestimmten Nicht-Prozessorschaltungen einige, die meisten oder alle der hierin beschriebenen Funktionen des Verfahrens und/oder der Vorrichtung zu implementieren. Alternativ können einige oder alle Funktionen durch eine Zustandsmaschine implementiert sein, die keine gespeicherten Programmanweisungen aufweist, oder in einer oder mehreren anwendungsspezifischen integrierten Schaltungen (ASICs), in denen jede Funktion oder einige Kombinationen von bestimmten Funktionen als benutzerdefinierte Logik implementiert sind. Natürlich kann eine Kombination der beiden Ansätze verwendet werden.
  • Darüber hinaus kann eine Ausführungsform als ein computerlesbares Speichermedium implementiert sein, auf dem computerlesbarer Code gespeichert ist, um einen Computer (der zum Beispiel einen Prozessor umfasst) zu programmieren, um ein Verfahren auszuführen, wie es hierin beschrieben und beansprucht ist. Beispiele solcher computerlesbaren Speichermedien weisen eine Festplatte, eine CD-ROM, eine optische Speichervorrichtung, eine magnetische Speichervorrichtung, einen ROM (Nur-Lese-Speicher), einen PROM (programmierbarer Nur-Lese-Speicher), einen EPROM (löschbarer programmierbarer Nur-Lese-Speicher), einen EEPROM (elektrisch löschbarer programmierbarer Nur-Lese-Speicher) und einen Flash-Speicher auf, sind aber nicht hierauf beschränkt auf. Ferner wird davon ausgegangen, dass ein Durchschnittsfachmann, ungeachtet möglicher signifikanter Anstrengungen und vieler Designwahlen, die zum Beispiel durch verfügbare Zeit, aktuelle Technologie und wirtschaftliche Überlegungen motiviert sind, ohne Weiteres in der Lage ist, solche Softwareanweisungen und -programme und ICs mit minimalem Experimentieren zu generieren, wenn er durch die hierin offenbarten Konzepte und Prinzipien angeleitet wird.
  • Die Zusammenfassung der Offenbarung wird bereitgestellt, um es dem Leser zu ermöglichen, schnell das Wesen der technischen Offenbarung zu ermitteln. Sie wird mit dem Verständnis bereitgestellt, dass sie nicht zur Auslegung oder Einschränkung des Umfangs oder der Bedeutung der Ansprüche verwendet wird. Ferner kann der vorangehenden detaillierten Beschreibung entnommen werden, dass verschiedene Merkmale in verschiedenen Ausführungsformen zum Zwecke der Verschlankung der Offenbarung zusammengefasst sind. Diese Art der Offenbarung ist nicht so auszulegen, dass sie die Absicht widerspiegelt, dass die beanspruchten Ausführungsformen mehr Merkmale erfordern, als ausdrücklich in jedem Anspruch angegeben sind. Vielmehr ist es so, wie die folgenden Ansprüche zeigen, dass der erfinderische Gegenstand in weniger als allen Merkmalen einer einzigen offenbarten Ausführungsform liegt. Somit werden die folgenden Ansprüche hiermit in die detaillierte Beschreibung inkorporiert, wobei jeder Anspruch für sich als ein separat beanspruchter Gegenstand steht.

Claims (20)

  1. Dreidimensionales (3D) Bildgebungssystem, das konfiguriert ist, um die Leerlaufzeitdauer in einem Lagerbereich zu analysieren, wobei das 3D-Bildgebungssystem umfasst: eine 3D-Tiefenkamera, die so konfiguriert ist, dass sie nicht-gleichzeitig Frames erfasst, die jeweils einen entsprechenden 3D-Bilddatensatz aufweisen; und eine 3D-Datenanalyse-Anwendung (App), die auf einem oder mehreren Prozessoren ausgeführt wird, wobei die 3D-Datenanalyse-App konfiguriert ist, um: eine Vielzahl von Aufzeichnungen beizubehalten, einschließlich einer ersten Aufzeichnung, einer zweiten Aufzeichnung und einer dritten Aufzeichnung, wobei die erste Aufzeichnung einem 3D-Bilddatensatz eines ältesten Frames in einer Serie von Frames zugeordnet ist, wobei die dritte Aufzeichnung einem 3D-Bilddatensatz eines aktuellsten Frames in der Serie von Frames zugeordnet ist, und wobei die zweite Aufzeichnung einem 3D-Bilddatensatz eines Zwischenframes zugeordnet ist, wobei der Zwischenframe zwischen dem ältesten Frame in der Serie von Frames und dem am aktuellsten Frame in der Serie von Frames erfasst wird; einen ersten Vergleich zwischen der dritten Aufzeichnung und der ersten Aufzeichnung durchzuführen, um zu bestimmen, ob eine Differenz zwischen dem 3D-Bilddatensatz, der der dritten Aufzeichnung zugeordnet ist, und dem 3D-Bilddatensatz, der der ersten Aufzeichnung zugeordnet ist, kleiner oder größer als ein erster Schwellenwert ist; einen zweiten Vergleich zwischen der dritten Aufzeichnung und der zweiten Aufzeichnung durchzuführen, um zu bestimmen, ob eine Differenz zwischen dem 3D-Bilddatensatz, der der dritten Aufzeichnung zugeordnet ist, und dem 3D-Bilddatensatz, der der zweiten Aufzeichnung zugeordnet ist, kleiner oder größer als ein zweiter Schwellenwert ist; basierend auf dem ersten Vergleich und dem zweiten Vergleich einen Aktivitätsstatustyps zu bestimmen, der eine Aktivität definiert, die innerhalb des Lagerbereichs während eines Zeitsegments auftritt, wobei das Zeitsegment zwischen einem Zeitpunkt der Erfassung des ältesten Frames in der Serie von Frames und einem Zeitpunkt der Erfassung des aktuellsten Frames in der Serie von Frames auftritt; basierend auf dem Aktivitätsstatustyp, der einen Nichtbeladungsstatustyp aufweist, eine kumulative Leerlaufzeitdauer zu inkrementieren; und die kumulative Leerlaufzeitdauer über ein Computernetzwerk an eine Computervorrichtung mit einem Computervorrichtungsspeicher bereitzustellen.
  2. 3D-Bildgebungssystem nach Anspruch 1, wobei die kumulative Leerlaufzeitdauer eine Zeitdauer ist, während der (i) kein Gegenstand in den Lagerbereich gebracht wird, (ii) kein Gegenstand aus dem Lagerbereich entnommen wird, und (iii) kein Gegenstand von einem Ort zu einem anderen Ort innerhalb des Lagerbereichs bewegt wird.
  3. 3D-Bildgebungssystem nach Anspruch 1, wobei eine Zuordnung zwischen jeder der Vielzahl von Aufzeichnungen und dem jeweiligen 3D-Bilddatensatz eines jeweiligen Frames einen jeweiligen Framepuffer umfasst, der den jeweiligen 3D-Bilddatensatz des jeweiligen Frames speichert, wobei jeder der jeweiligen Framepuffer in einem 3D-Bildgebungssystemspeicher gespeichert ist.
  4. 3D-Bildgebungssystem nach Anspruch 1, wobei die Vielzahl der Aufzeichnungen ein Array von Aufzeichnungen bildet.
  5. 3D-Bildgebungssystem nach Anspruch 1, wobei die 3D-Datenanalyse-App ferner so konfiguriert ist, dass sie jeden der Vielzahl von Aufzeichnungen vor der Durchführung des ersten Vergleichs und des zweiten Vergleichs vorverarbeitet, wobei die Vorverarbeitung das Zuschneiden mindestens eines Teils des jeweiligen 3D-Bilddatensatzes eines jeweiligen Frames umfasst, der jedem der Vielzahl von Aufzeichnungen zugeordnet ist.
  6. 3D-Bildgebungssystem nach Anspruch 1, wobei jeder der jeweiligen 3D-Bilddatensätze eine jeweilige Punktwolke enthält.
  7. 3D-Bildgebungssystem nach Anspruch 6, wobei die 3D-Datenanalyse-App ferner so konfiguriert ist, dass sie den ersten Vergleich zwischen der dritten Aufzeichnung und der ersten Aufzeichnung durch Vergleichen mindestens eines Teils der jeweiligen Punktwolke des 3D-Bilddatensatzes, der mindestens einem Teil der dritten Aufzeichnung zugeordnet ist, mit der jeweiligen Punktwolke des 3D-Bilddatensatzes, die der ersten Aufzeichnung zugeordnet ist, durchführt.
  8. 3D-Bildgebungssystem nach Anspruch 1, wobei der Aktivitätsstatustyp, der den Nichtbeladungsstatustyp aufweist, bestimmt wird, wenn: (i) der erste Vergleich anzeigt, dass die Differenz zwischen dem 3D-Bilddatensatz, der der dritten Aufzeichnung zugeordnet ist, und dem 3D-Bilddatensatz, der der ersten Aufzeichnung zugeordnet ist, kleiner ist als der erste Schwellenwert; oder (ii) der erste Vergleich anzeigt, dass die Differenz zwischen dem 3D-Bilddatensatz, der der dritten Aufzeichnung zugeordnet ist, und dem 3D-Bilddatensatz, der der ersten Aufzeichnung zugeordnet ist, größer als der erste Schwellenwert ist, und der zweite Vergleich anzeigt, dass die Differenz zwischen dem 3D-Bilddatensatz, der der dritten Aufzeichnung zugeordnet ist, und dem 3D-Bilddatensatz, der der zweiten Aufzeichnung zugeordnet ist, kleiner als der zweite Schwellenwert ist.
  9. 3D-Bildgebungssystem nach Anspruch 1, wobei: der Aktivitätsstatustyp ferner einen Beladungsstatustyp umfasst; der Beladungsstatustyp einen umfasst von: (i) einem inaktiven Statustyp, (ii) einem Personen-Eintritts-Statustyp und (iii) einen Personen-Austritts-Statustyp; der Aktivitätsstatustyp bestimmt wird, den Beladungsstatustyp zu haben, wenn der erste Vergleich anzeigt, dass die Differenz zwischen dem 3D-Bilddatensatz, der der dritten Aufzeichnung zugeordnet ist, und dem 3D-Bilddatensatz, der der ersten Aufzeichnung zugeordnet ist, größer ist als der erste Schwellenwert, und der zweite Vergleich anzeigt, dass die Differenz zwischen dem 3D-Bilddatensatz, der der dritten Aufzeichnung zugeordnet ist, und dem 3D-Bilddatensatz, der der zweiten Aufzeichnung zugeordnet ist, größer ist als der zweite Schwellenwert; der Aktivitätsstatustyp bestimmt wird, den inaktiven Statustyp zu haben, wenn der erste Vergleich anzeigt, dass die Differenz zwischen dem 3D-Bilddatensatz, der der dritten Aufzeichnung zugeordnet ist, und dem 3D-Bilddatensatz, der der ersten Aufzeichnung zugeordnet ist, kleiner als der erste Schwellenwert ist, und der zweite Vergleich anzeigt, dass die Differenz zwischen dem 3D-Bilddatensatz, der der dritten Aufzeichnung zugeordnet ist, und dem 3D-Bilddatensatz, der der zweiten Aufzeichnung zugeordnet ist, kleiner als der zweite Schwellenwert ist; der Aktivitätsstatustyp bestimmt wird, den Personen-Eintritts-Statustyp zu haben, wenn der erste Vergleich anzeigt, dass die Differenz zwischen dem 3D-Bilddatensatz, der der dritten Aufzeichnung zugeordnet ist, und dem 3D-Bilddatensatz, der der ersten Aufzeichnung zugeordnet ist, kleiner als der erste Schwellenwert ist, und der zweite Vergleich anzeigt, dass die Differenz zwischen dem 3D-Bilddatensatz, der der dritten Aufzeichnung zugeordnet ist, und dem 3D-Bilddatensatz, der der zweiten Aufzeichnung zugeordnet ist, größer als der zweite Schwellenwert ist; und der Aktivitätsstatustyp bestimmt wird, den Personen-Austritts-Statustyp zu haben, wenn der erste Vergleich anzeigt, dass die Differenz zwischen dem 3D-Bilddatensatz, der der dritten Aufzeichnung zugeordnet ist, und dem 3D-Bilddatensatz, der der ersten Aufzeichnung zugeordnet ist, größer als der erste Schwellenwert ist, und der zweite Vergleich anzeigt, dass die Differenz zwischen dem 3D-Bilddatensatz, der der dritten Aufzeichnung zugeordnet ist, und dem 3D-Bilddatensatz, der der zweiten Aufzeichnung zugeordnet ist, kleiner als der zweite Schwellenwert ist.
  10. 3D-Bildgebungssystem nach Anspruch 9, wobei die 3D-Datenanalyse-App ferner so konfiguriert ist, dass sie: bei der Bestimmung, dass der Aktivitätsstatustyps einen von (i) dem inaktiven Statustyp, (ii) dem Personen-Austritts-Statustyp und (iii) dem Beladungsstatustyp aufweist: die Serie von Frame durch Entfernen des ältesten Frames aus der Serie von Frames anpasst, wodurch der Zwischenframe zum ältesten Frame in der Serie von Frames wird, und einen neuen Frame, der nach dem aktuellsten Frame in der Serie von Frames erfasst wurde, zu der Serie von Frames hinzufügt, wodurch der aktuellste Frame zum Zwischenframe wird; und bei der Bestimmung, dass der Aktivitätsstatustyp den Personen-Eintritts-Statustyp hat: die Serie von Frames anpasst, indem der älteste Frame in der Serie von Frames beibehalten wird, und den neuen Frame, der nach dem aktuellsten Frame in der Serie von Frames erfasst wurde, zu der Serie von Frames hinzufügt, wodurch der aktuellste Frame zum Zwischenframe wird.
  11. 3D-Bildgebungssystem nach Anspruch 10, wobei die Serie von Frames auf drei Frames begrenzt ist.
  12. 3D-Bildgebungssystem nach Anspruch 1, wobei die 3D-Datenanalyse-App ferner so konfiguriert ist, dass sie basierend auf dem Aktivitätsstatustyp, der einen Beladungsstatustyp aufweist, die kumulative Leerlaufzeitdauer zurücksetzt.
  13. 3D-Bildgebungssystem nach Anspruch 1, wobei die Computervorrichtung mindestens eines von einer Client-Vorrichtung und einem Server ist, der konfiguriert ist, um eine Vielzahl von Client-Vorrichtungen zu verwalten.
  14. Dreidimensionales (3D) Bildgebungsverfahren zum Analysieren einer Leerlaufzeitdauer in einem Lagerbereich, wobei das 3D-Bildgebungsverfahren umfasst: nicht-gleichzeitiges Erfassen von Frames über eine 3D-Tiefenkamera, die jeweils einen entsprechenden 3D-Bilddatensatz aufweisen; Beibehalten, über eine 3D-Datenanalyseanwendung (App), die auf einem oder mehreren Prozessoren ausgeführt wird, einer Vielzahl von Aufzeichnungen, einschließlich einer ersten Aufzeichnung, einer zweiten Aufzeichnung und einer dritten Aufzeichnung, wobei die erste Aufzeichnung einem 3D-Bilddatensatz eines ältesten Frames in einer Serie von Frames zugeordnet ist, wobei die dritte Aufzeichnung einem 3D-Bilddatensatz eines aktuellsten Frames in der Serie von Frames zugeordnet ist, und die zweite Aufzeichnung einem 3D-Bilddatensatz eines Zwischenframes zugeordnet ist, wobei der Zwischenframe zwischen dem ältesten Frame in der Serie von Frames und dem aktuellsten Frame in der Serie von Frames erfasst wird; Durchführen eines ersten Vergleichs zwischen der dritten Aufzeichnung und der ersten Aufzeichnung, um zu bestimmen, ob eine Differenz zwischen dem 3D-Bilddatensatz, der der dritten Aufzeichnung zugeordnet ist, und dem 3D-Bilddatensatz, der der ersten Aufzeichnung zugeordnet ist, kleiner oder größer als ein erster Schwellenwert ist, Durchführen eines zweiten Vergleichs zwischen der dritten Aufzeichnung und der zweiten Aufzeichnung, um zu bestimmen, ob eine Differenz zwischen dem 3D-Bilddatensatz, der der dritten Aufzeichnung zugeordnet ist, und dem 3D-Bilddatensatz, der der zweiten Aufzeichnung zugeordnet ist, kleiner oder größer als ein zweiter Schwellenwert ist, Bestimmen, basierend auf dem ersten Vergleich und dem zweiten Vergleich, eines Aktivitätsstatustyps, der eine Aktivität definiert, die innerhalb des Lagerbereichs während eines Zeitsegments auftritt, wobei das Zeitsegment zwischen einem Zeitpunkt der Erfassung des ältesten Frames in der Serie von Frames und einem Zeitpunkt der Erfassung des aktuellsten Frames in der Serie von Frames auftritt, Inkrementieren, basierend auf dem Aktivitätsstatustyp, der einen Nichtbeladungsstatustyp aufweist, einer kumulativen Leerlaufzeitdauer; und Bereitstellen der kumulativen Leerlaufzeitdauer über ein Computernetzwerk an eine Computervorrichtung mit einem Computervorrichtungsspeicher.
  15. 3D-Bildgebungsverfahren nach Anspruch 14, wobei die kumulative Leerlaufzeitdauer eine Zeitdauer ist, während der (i) kein Gegenstand in den Lagerbereich gebracht wird, (ii) kein Gegenstand aus dem Lagerbereich entnommen wird und (iii) kein Gegenstand von einem Ort zu einem anderen Ort innerhalb des Lagerbereichs bewegt wird.
  16. 3D-Bildgebungsverfahren nach Anspruch 14, wobei eine Zuordnung zwischen jeder der Vielzahl von Aufzeichnungen und dem jeweiligen 3D-Bilddatensatz eines jeweiligen Frames einen jeweiligen Framepuffer umfasst, der den jeweiligen 3D-Bilddatensatz des jeweiligen Frames speichert, wobei jeder der jeweiligen Framepuffer in einem 3D-Bildgebungssystemspeicher gespeichert ist.
  17. 3D-Bildgebungsverfahren nach Anspruch 14, wobei die Vielzahl der Aufzeichnungen ein Array von Aufzeichnungen bildet.
  18. 3D-Bildgebungsverfahren nach Anspruch 14, wobei die 3D-Datenanalyse-App ferner so konfiguriert ist, dass sie jede der Vielzahl von Aufzeichnungen vor der Durchführung des ersten Vergleichs und des zweiten Vergleichs vorverarbeitet, wobei die Vorverarbeitung das Zuschneiden mindestens eines Teils des jeweiligen 3D-Bilddatensatzes eines jeweiligen Frames umfasst, der jeder der Vielzahl von Aufzeichnungen zugeordnet ist.
  19. 3D-Bildgebungsverfahren nach Anspruch 14, wobei jeder der jeweiligen 3D-Bilddatensätze eine jeweilige Punktwolke enthält.
  20. 3D-Bildgebungsverfahren nach Anspruch 19, wobei die 3D-Datenanalyse-App ferner so konfiguriert ist, dass sie den ersten Vergleich zwischen der dritten Aufzeichnung und der ersten Aufzeichnung durch Vergleichen mindestens eines Teils der jeweiligen Punktwolke des 3D-Bilddatensatzes, der mindestens einem Teil der dritten Aufzeichnung zugeordnet ist, mit der jeweiligen Punktwolke des 3D-Bilddatensatzes, der der ersten Aufzeichnung zugeordnet ist, durchführt.
DE112019005302.7T 2018-10-23 2019-09-16 Systeme und verfahren für leerlaufzeiten in der kommerziellen anhängerbeladung Pending DE112019005302T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US16/168,545 US10687045B2 (en) 2018-10-23 2018-10-23 Systems and methods for idle time in commercial trailer loading
US16/168,545 2018-10-23
PCT/US2019/051225 WO2020086191A1 (en) 2018-10-23 2019-09-16 Systems and methods for idle time in commercial trailer loading

Publications (1)

Publication Number Publication Date
DE112019005302T5 true DE112019005302T5 (de) 2021-08-19

Family

ID=70280098

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112019005302.7T Pending DE112019005302T5 (de) 2018-10-23 2019-09-16 Systeme und verfahren für leerlaufzeiten in der kommerziellen anhängerbeladung

Country Status (3)

Country Link
US (1) US10687045B2 (de)
DE (1) DE112019005302T5 (de)
WO (1) WO2020086191A1 (de)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110547766B (zh) * 2019-08-22 2023-04-28 苏州佳世达光电有限公司 口扫机的操作方法
US10854055B1 (en) * 2019-10-17 2020-12-01 The Travelers Indemnity Company Systems and methods for artificial intelligence (AI) theft prevention and recovery
CN117485929B (zh) * 2023-12-29 2024-03-19 中国电力工程顾问集团西南电力设计院有限公司 一种基于智能控制的无人化堆取料控制系统及方法

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5956424A (en) * 1996-12-23 1999-09-21 Esco Electronics Corporation Low false alarm rate detection for a video image processing based security alarm system
AU9369398A (en) * 1997-10-20 1999-05-10 Industrial Research Limited An improved surveillance system
US7190263B2 (en) * 2004-09-20 2007-03-13 Motorola, Inc. Utilizing a portable electronic device to detect motion
WO2006078861A2 (en) 2005-01-18 2006-07-27 Board Of Regents, The University Of Texas System Method, system and apparatus for a time stamped visual motion sensor
US20120120238A1 (en) * 2010-11-15 2012-05-17 Seraphim Optronics Ltd. Two layer video motion detection
US9440349B2 (en) * 2013-01-15 2016-09-13 Wynright Corporation Automatic tire loader/unloader for stacking/unstacking tires in a trailer
US10161746B2 (en) 2014-08-18 2018-12-25 Trimble Navigation Limited Systems and methods for cargo management
US9996818B1 (en) * 2014-12-19 2018-06-12 Amazon Technologies, Inc. Counting inventory items using image analysis and depth information
US10475185B1 (en) * 2014-12-23 2019-11-12 Amazon Technologies, Inc. Associating a user with an event
US9801517B2 (en) * 2015-03-06 2017-10-31 Wal-Mart Stores, Inc. Shopping facility assistance object detection systems, devices and methods
US20160307147A1 (en) * 2015-04-15 2016-10-20 Wal-Mart Stores, Inc. Product placement monitoring apparatus and method
US9616773B2 (en) * 2015-05-11 2017-04-11 Uber Technologies, Inc. Detecting objects within a vehicle in connection with a service
US10713610B2 (en) * 2015-12-22 2020-07-14 Symbol Technologies, Llc Methods and systems for occlusion detection and data correction for container-fullness estimation
WO2017095865A1 (en) 2015-12-02 2017-06-08 Wal-Mart Stores, Inc. Systems and methods of monitoring the unloading and loading of delivery vehicles
US11003804B2 (en) 2017-12-22 2021-05-11 Symbol Technologies, Llc Container loading/unloading time estimation

Also Published As

Publication number Publication date
US20200128226A1 (en) 2020-04-23
US10687045B2 (en) 2020-06-16
WO2020086191A1 (en) 2020-04-30

Similar Documents

Publication Publication Date Title
DE102018006765B4 (de) Verfahren und system(e) für das management von frachtfahrzeugen
DE112019005302T5 (de) Systeme und verfahren für leerlaufzeiten in der kommerziellen anhängerbeladung
DE112019002547B4 (de) System und verfahren zum bestimmen eines standortes zur platzierung eines pakets
DE112018006554T5 (de) Systeme und verfahren zum bestimmen der kommerziellen anhängerbefüllung
DE112018005976T5 (de) Berechnung der paketwanddichte beim beladen von kommerziellen anhängern
DE102020126615A1 (de) Dreidimensionale (3 d) tiefen- und zweidimensionale (2 d) bildgebungssysteme und -verfahren zur automatischen containertürzustandserkennung
DE112018005979T5 (de) Schätzung der be-/entladezeit von containern
DE102020127732A1 (de) Dreidimensionale (3d) tiefenbildgebungssysteme und -verfahren zur automatischen bestimmung einer versandcontainerfüllung basierend auf bildgebungsvorlagen
DE112020005377B4 (de) Systeme und verfahren zur automatischen kamerainstallationsführung
DE112020003332B4 (de) Dreidimensionale (3D) Tiefenbildgebungssysteme und -Verfahren zur dynamischen Container-Autokonfiguration
DE102015209963A1 (de) Bildbearbeitungsverfahren und Systeme zur Barcode- und/oder Produktkennzeichen-Erkennung
DE112018006533T5 (de) Schätzung der Containerausnutzung
US20190197701A1 (en) Systems and methods for segmenting and tracking package walls in commercial trailer loading
US11430104B2 (en) Three-dimensional (3D) imaging systems and methods for detecting and dimensioning a vehicle storage area
DE102018132764A1 (de) Anhängertürüberwachung und -berichten
DE112014006439B4 (de) Kantenerkennungsvorrichtung, Kantenerkennungsverfahren und Programm
DE102018109276A1 (de) Bildhintergrundsubtraktion für dynamische beleuchtungsszenarios
DE112006002966T5 (de) Bestimmen eines Zustands für ein Objekt, das durch ein HFID-Etikett identifiziert ist
DE102017200940A1 (de) Verfahren und Vorrichtung zur Berechnung einer Parkplatzbelegung
DE112020004301T5 (de) Objekterkennungsvorrichtung
DE102018006764B4 (de) Verfahren und system(e) für das management von frachtfahrzeugen
US20160275692A1 (en) Foreground detection using fractal dimensional measures
DE102020124979A1 (de) Systeme und verfahren zum verhindern der entfernung von gegenständen aus fahrzeugen durch unzulässige parteien
DE102021104352A1 (de) Transporter-segmentierung für datenerfassungssystem
DE112019006186T5 (de) Verfahren und vorrichtung zur steuerung von lichtemittern einer mobilen automatisierungsvorrichtung

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R083 Amendment of/additions to inventor(s)
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06K0009620000

Ipc: G06V0030190000