DE112018006554T5 - Systeme und verfahren zum bestimmen der kommerziellen anhängerbefüllung - Google Patents

Systeme und verfahren zum bestimmen der kommerziellen anhängerbefüllung Download PDF

Info

Publication number
DE112018006554T5
DE112018006554T5 DE112018006554.5T DE112018006554T DE112018006554T5 DE 112018006554 T5 DE112018006554 T5 DE 112018006554T5 DE 112018006554 T DE112018006554 T DE 112018006554T DE 112018006554 T5 DE112018006554 T5 DE 112018006554T5
Authority
DE
Germany
Prior art keywords
wall
depth
storage area
vehicle storage
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112018006554.5T
Other languages
English (en)
Inventor
Miroslav Trajkovic
Justin F. Barish
Adithya H. Krishnamurthy
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Symbol Technologies LLC
Original Assignee
Symbol Technologies LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Symbol Technologies LLC filed Critical Symbol Technologies LLC
Publication of DE112018006554T5 publication Critical patent/DE112018006554T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/08Logistics, e.g. warehousing, loading or distribution; Inventory or stock management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/04Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30268Vehicle interior
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Economics (AREA)
  • Strategic Management (AREA)
  • Human Resources & Organizations (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Business, Economics & Management (AREA)
  • Development Economics (AREA)
  • Quality & Reliability (AREA)
  • Operations Research (AREA)
  • Marketing (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Tourism & Hospitality (AREA)
  • Multimedia (AREA)
  • Game Theory and Decision Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)
  • Processing Or Creating Images (AREA)

Abstract

Ein dreidimensionales (3D) Tiefenbildgebungssystem wird bereitgestellt zur Verwendung in kommerziellen Anhängerbeladungsanwendungen. Eine 3D-Tiefenkamera kann konfiguriert und ausgerichtet werden, um 3D-Bilddaten eines Fahrzeuglagerbereichs zu erfassen. Eine Tiefenerkennungs-Anwendung, die auf einem oder mehreren Prozessoren ausgeführt wird, kann auf der Grundlage der 3D-Bilddaten mindestens einen Wanddatenbereich und einen Nicht-Wanddatenbereich bestimmen. Auf der Grundlage der Bestimmung des Wanddaten- und des Nicht-Wanddatenbereichs generiert die Tiefenerkennungs-Anwendung einen Wandindikator, der anzeigt, dass sich eine Wand bei einer diskreten Tiefe innerhalb des Fahrzeuglagerbereichs befindet.

Description

  • GEBIET DER OFFENBARUNG
  • Die vorliegende Offenbarung bezieht sich im Allgemeinen auf kommerzielle Fahrzeuge und insbesondere auf Systeme und Verfahren zum Bestimmen der Befüllung von kommerziellen Fahrzeugen.
  • HINTERGRUND
  • Dreidimensionale (3D-)Kameras können zur Bestimmung von Abständen zwischen der Kamera und Objekten, die in der Nähe der Kamera positioniert sind, verwendet werden. Diese 3D-Kameras können zur Bestimmung der Befüllung eines Fahrzeugs oder Anhängers verwendet werden, da bereits geringe Erhöhungen der Befüllung zu erheblichen Einsparungen bei den Transportkosten führen können. Solche Befüllungsbestimmungen können aufgrund von Objektinterferenzen oder Störungen, die sich negativ auf die Berechnungen auswirken können, schwierig sein. In Situationen, in denen z.B. die Erfassung von Oberflächenbereichen innerhalb eines großen Lagerbereichs, wie z.B. eines Lagerbereichs eines kommerziellen Anhängers, erforderlich ist, kann der Lagerbereich bewegte Objekte wie Personen, bewegte Pakete, Ladefahrzeuge usw. umfassen, die dazu führen können, dass die 3D-Kamera ungenaue Daten bezüglich der Größe oder der Dimensionen des Lagerbereichs erzeugt. Solche ungenauen Daten können besonders problematisch für Endnutzungsanwendungen sein, die auf Daten zur Durchführung von Berechnungen oder anderen Datenmanipulationen zur Erleichterung von Tiefen- oder anderen 3D-Bestimmungen beruhen, und können eine ungenaue Befüllungsmessung liefern, die sich negativ auf die Ladeeffizienz auswirken kann. Darüber hinaus können Objektinterferenzen die Systemverarbeitungszeiten erhöhen, die zur Beurteilung der Anhängerbefüllung erforderlich sind, was wiederum die Ladezeiten und die damit verbundenen Kosten weiter erhöhen kann.
  • Dementsprechend besteht ein Bedarf an Tiefenbildgebungssystemen und -verfahren zur Verwendung bei der kommerziellen Anhängerbeladung.
  • BESCHREIBUNG
  • Gemäß einem Aspekt wird ein dreidimensionales (3D) Tiefenbildgebungssystem zur Verwendung bei kommerziellen Anhängerbeladungsanwendungen bereitgestellt. Eine 3D-Tiefenkamera kann konfiguriert und ausgerichtet werden, um 3D-Bilddaten eines Fahrzeuglagerbereichs zu erfassen. Eine Tiefenerkennungsanwendung, die auf einem oder mehreren Prozessoren ausgeführt wird, kann auf der Grundlage der 3D-Bilddaten mindestens einen Wanddatenbereich und einen Nicht-Wanddatenbereich bestimmen. Auf der Grundlage der Bestimmung des Wanddaten- und des Nicht-Wanddatenbereichs generiert die Tiefenerkennungsanwendung einen Wandindikator, der anzeigt, dass sich eine Wand in einer diskreten Tiefe innerhalb des Fahrzeuglagerbereichs befindet.
  • In einigen Beispielen umfasst ein 3D-Tiefenbildgebungsverfahren zur Verwendung bei der kommerziellen Anhängerbeladung das Erfassen von 3D-Bilddaten eines Fahrzeuglagerbereichs über einer 3D-Tiefenkamera. Die 3D-Tiefenkamera ist in eine Richtung ausgerichtet, um die 3D-Bilddaten des Fahrzeuglagerbereichs zu erfassen. Die Verfahren umfasst ferner das Analysieren der 3D-Bilddaten über einen oder mehrere Prozessoren mit einer Tiefenerkennungsanwendung. Die Tiefenerkennungsanwendung bestimmt, basierend auf den 3D-Bilddaten, mindestens einen Wanddatenbereich und einen Nicht-Wanddatenbereich. Die Verfahren erzeugt über die Tiefenerkennungsanwendung einen Wandindikator, der anzeigt, dass eine Wand in einer diskreten Tiefe innerhalb des Fahrzeuglagerbereichs erkannt wird.
  • Figurenliste
  • Die oben genannten Bedürfnisse werden zumindest teilweise durch die Bereitstellung der in der folgenden detaillierten Beschreibung beschriebenen Systeme und Verfahren zur Bestimmung der kommerziellen Anhängerbefüllung erfüllt, insbesondere wenn sie in Verbindung mit den Zeichnungen studiert werden, wobei
    • 1 eine perspektivische Ansicht eines Ladedocks ist, von oben gesehen, die eine Ladeeinrichtung, eine Vielzahl von Andockbuchten, eine Vielzahl von Fahrzeugen und eine Vielzahl von Fahrzeuglagerbereichen umfasst, gemäß den beispielhaften Ausführungsformen hierin.
    • 2A eine perspektivische Ansicht der Ladeeinrichtung von 1 ist, die einen an einer Andockbucht angedockten Fahrzeuglagerbereich zeigt, gemäß den beispielhaften Ausführungsformen hierin.
    • 2B eine perspektivische Ansicht einer Anhänger-Überwachungseinheit (TMU) aus 2A ist, gemäß den beispielhaften Ausführungsformen hierin.
    • 3 ein Blockdiagramm ist, das eine Ausführungsform eines Servers darstellt, der mit der Ladeeinrichtung von 2A und der TMU von 2B verbunden ist.
    • 4A eine fotorealistische Ansicht ist, die eine erste Ausführungsform des an der Andockbucht von 2A angedockten Fahrzeuglagerbereichs darstellt, wobei der Lagerbereich eine Paketwand umfasst.
    • 4B eine Histogrammdarstellung der fotorealistischen Ansicht von 4A ist, die eine erkannte Paketwand enthält.
    • 4C eine Histogrammdarstellung der fotorealistischen Ansicht von 4A ist, die skaliert oder gewichtet ist, um Objekte zu korrigieren, die in der Nähe der TMU positioniert sind.
    • 5A-5C historische fotorealistische Ansichten sind, die eine zweite Ausführungsform des Fahrzeuglagerbereichs darstellen, der an der Andockbucht von 2A angedockt ist, wobei der Lagerbereich eine Paketwand und einen Belader umfasst, die an verschiedenen Stellen innerhalb des Fahrzeuglagerbereichs positioniert sind.
    • 5D-5F jeweils Histogrammdarstellungen der historischen fotorealistischen Ansichten der 5A-5C sind.
    • 5G eine modifizierte Histogrammdarstellung der 5D-5F ist, wobei Daten, die den Belader und die Pakete an temporären Standorten repräsentieren, minimiert sind.
    • 6 ein Flussdiagramm eines Tiefenbildgebungsverfahrens zur Verwendung bei der kommerziellen Anhängerbeladung ist.
    • 7A-7C Histogrammdarstellungen sind, die Schritte zum Bestimmen einer dominanten Gehäusewand darstellen.
  • Fachleute werden erkennen, dass Elemente in den Figuren der Einfachheit und Klarheit halber dargestellt und nicht unbedingt maßstabsgetreu gezeichnet wurden. Beispielsweise können die Abmessungen und/oder die relative Positionierung einiger Elemente in den Figuren im Verhältnis zu anderen Elementen übertrieben sein, um das Verständnis der verschiedenen Ausführungsformen der vorliegenden Erfindung zu verbessern. Auch werden gewöhnliche, aber gut verstandene Elemente, die in einer kommerziell realisierbaren Ausführungsform nützlich oder notwendig sind, nicht dargestellt, um einen weniger versperrten Blick auf diese verschiedenen Ausführungsformen zu ermöglichen. Es wird ferner erkannt, dass bestimmte Handlungen und/oder Schritte in einer bestimmten Reihenfolge des Auftretens beschrieben oder dargestellt werden können, während die Fachleute verstehen werden, dass eine solche Spezifizität in Bezug auf die Abfolge eigentlich nicht erforderlich ist. Es wird auch davon ausgegangen, dass die hierin verwendeten Begriffe und Ausdrücke die gewöhnliche technische Bedeutung haben, die solchen Begriffen und Ausdrücken von Fachleuten auf dem technischen Gebiet, wie es oben dargelegt ist, zuerkannt wird, es sei denn, es wurden hierin andere spezifische Bedeutungen festgelegt.
  • DETAILLIERTE BESCHREIBUNG
  • Hierin offenbart werden Systeme und Verfahren, die ein genaues Bestimmen eines Befüllungsprozentsatzes von kommerziellen Anhängern ermöglichen. Diese Systeme und Verfahren verwenden 3D-Kameras, um einen „Füllabstand“ oder eine „Wand“ von Paketen zu bestimmen, die dem Eingang des Anhängers am nächsten liegt. Durch das Berechnen eines Histogramms von Tiefenmessungen für den Anhänger und das Durchführen der erforderlichen Korrekturen können die beschriebenen Systeme und Verfahren Interferenzen genau berücksichtigen und gleichzeitig die tatsächlichen Anhängerbefüllungsprozentsätze schnell berechnen. Die offenbarten Techniken ermöglichen ein genaueres Berichten und Anzeigen von Fahrzeugkapazitäts- und Befüllungsdaten und reduzieren dadurch falsche Positive oder andere ungenaue Daten und Berichte, z.B. in grafischen Darstellungen eines Fahrzeuglagerbereichs, wie sie von den hierin beschriebenen Ladeanwendungen implementiert werden.
  • Dementsprechend werden in verschiedenen hierin offenbarten Ausführungsformen dreidimensionale (3D) Tiefenbildgebungssysteme für den Einsatz bei der kommerziellen Anhängerbeladung beschrieben. So kann beispielsweise eine 3D-Tiefenkamera konfiguriert und ausgerichtet werden, um 3D-Bilddaten eines Fahrzeuglagerbereichs zu erfassen. Eine Tiefenerkennungs-Anwendung, die auf einem oder mehreren Prozessoren ausgeführt wird, kann auf der Grundlage der 3D-Bilddaten mindestens einen Wanddatenbereich und einen Nicht-Wanddatenbereich bestimmen. Auf der Grundlage der Bestimmung des Wanddaten- und des Nicht-Wanddatenbereichs generiert die Tiefenerkennungs-Anwendung einen Wandindikator, der anzeigt, dass sich eine Wand in einer diskreten Tiefe innerhalb des Fahrzeuglagerbereichs befindet.
  • 1 ist eine perspektivische Ansicht, wie sie von oben gesehen wird, eines Ladedocks 100 mit einer Ladeeinrichtung 101, einer Vielzahl von Andockbuchten 102d-110d, einer Vielzahl von Fahrzeugen 106v und 110v und einer Vielzahl von Fahrzeuglagerflächen 102s-110s, gemäß den beispielhaften Ausführungsformen hierin. In einigen Ausführungsformen kann das Ladedock 100 beispielsweise mit einem Einzelhandelsgeschäft, einem Großhandelsgeschäft oder einem anderen derartigen Geschäftsgebäude verbunden sein. In anderen Ausführungsformen kann das Ladedock 100 mit einer Lagereinrichtung oder einer Wegpunkteinrichtung für die Unterbringung von Paketen, Kisten oder anderen transportablen Objekten oder Waren verbunden sein, die typischerweise mit der Verteilung und Logistik solcher transportablen Objekte oder Waren zu tun haben. Weitere Ausführungsformen werden hierin in Betracht gezogen, so dass das Ladedock 100 das Be- und Entladen von transportablen Objekten oder Waren an einem Geschäft, einer Einrichtung oder an einem ähnlichen Ort ermöglicht.
  • 1 zeigt zum Beispiel die Ladeeinrichtung 101, die, wie beschrieben, ein Einzelhandelsgeschäft, eine Lagereinrichtung oder ein ähnlicher Ort sein kann, der das Be- und Entladen von transportablen Objekten oder Waren ermöglicht. Die Ladeeinrichtung 101 umfasst eine Vielzahl von Andockbuchten 102d-110d. Beispielsweise wird die Andockbucht 104d als nicht angedockt dargestellt und umfasst eine Öffnung, die gleich oder ähnlich groß ist wie die Öffnung eines Fahrzeuglagerbereichs. Wie in 1 dargestellt, kann die Andockbucht 104d außerdem eine Polsterung oder Isolierung zur Aufnahme eines Anhängers (z.B. eines Fahrzeuglagerbereichs) an der Wand der Ladeeinrichtung 101 enthalten. Die Andockbucht 104d kann ferner eine einziehbare Tür enthalten, die sich in der Öffnung der Andockbucht 104d befindet, wobei die Tür geöffnet werden kann, um den Zugang zum Fahrzeuglagerbereich eines Anhängers von der Ladeeinrichtung 101 aus zu ermöglichen. Wie hierin beschrieben, ist die Andockbucht 104d repräsentativ für die übrigen dargestellten Andockbuchten, wie z.B. die Andockbuchten 102d, 106d, 108d und 110d, wobei die Andockbuchten 102d, 106d, 108d und 110d ähnliche Merkmale oder Funktionen haben können, wie hierin für die Andockbucht 104d beschrieben.
  • In verschiedenen Ausführungsformen kann eine Öffnung eines Fahrzeuglagerbereichs die Öffnung eines Anhängers sein, wobei der Anhänger von einem Sattelauflieger, einer Sattelzugmaschine, einem Lastwagen oder einem anderen derartigen Fahrzeug gezogen werden kann, das einen Anhänger anhängen und bewegen kann (z.B. Fahrzeuglagerbereich), wie hierin beschrieben. In einigen Ausführungen kann der Boden eines Anhängers, wenn er angedockt ist, bündig oder annähernd bündig mit dem Boden einer Andockbucht (z.B. Andockbuchten 102d-110d) der Ladeeinrichtung 101 sein.
  • 1 zeigt auch eine Vielzahl von Fahrzeuglagerbereichen 102s, 106s und 110s. Die Fahrzeuglagerbereiche 102s, 106s und 110s können jeweils zu einem Fahrzeug gehörende Lagerbereiche sein, z.B. ein Anhänger oder ein anderer transportabler Lagerbereich (z.B. 102s, 106s und 110s), der mit einem Sattelauflieger, einer Sattelzugmaschine, einem Lastwagen oder einem anderen derart großen Fahrzeug (z.B. 106v und 110v) verbunden ist, wie hierin beschrieben. Zum Beispiel sind, wie in 1 dargestellt, die Fahrzeuge 106v und 110v jeweils den Fahrzeuglagerbereichen 106s und 110s zugeordnet. Jedes der Fahrzeuge 106v und 110v kann für das Manövrieren seiner jeweiligen Fahrzeuglagerbereiche 106s und 110s zu den jeweiligen Andockbuchten, wie z.B. den Andockbuchten 106d und 110d, verantwortlich sein.
  • Wie hierin beschrieben, enthält jeder der Fahrzeuglagerbereiche 102s, 106s und 110s Öffnungen, im Allgemeinen an einem Ende, die die gleiche oder eine ähnliche Größe wie die Öffnungen der Andockbuchten 102d-1 10d haben. Auf diese Weise können die Fahrzeuglagerbereiche 102s, 106s und 110s mit den Andockbuchten 102d-110d verbunden oder angedockt werden, um das Be- und Entladen von Paketen, Kisten oder anderen transportablen Objekten oder Waren, wie hierin beschrieben, zu ermöglichen. Zum Beispiel ist, wie in 1 dargestellt, der Fahrzeuglagerbereich 102s als ein Anhänger dargestellt, der an die Andockbucht 102d angedockt ist. Dementsprechend hat die Öffnung der Fahrzeuglagerbereiche 102s eine Verbindung mit der Öffnung der Andockbucht 102d, so dass das Innere der Fahrzeuglagerbereiche 102s von der Andockbucht 102d aus eingesehen oder betreten werden kann. In ähnlicher Weise wird auch der Fahrzeuglagerbereich 110s als ein Anhänger dargestellt, der an die Andockbucht 110d angedockt ist, wobei die Öffnung der Fahrzeuglagerbereiche 110s mit der Öffnung der Andockbucht 110d so zusammenwirkt, dass das Innere der Fahrzeuglagerbereiche 110s von der Andockbucht 110d aus eingesehen oder betreten werden kann. Der Fahrzeuglagerbereich 106s wird als derzeit nicht angedockt in Bezug auf die Andockbucht 106d dargestellt.
  • Fahrzeuglagerbereiche, wie 102s, 106s und 110s, können unterschiedliche Größen, Längen oder andere Abmessungen haben. In einer Ausführungsform kann beispielsweise der Fahrzeuglagerbereich 102s mit einem 63 Fuß langen Anhänger, der Fahrzeuglagerbereich mit einem 53 Fuß langen Anhänger und der Fahrzeuglagerbereich 110s mit einem 73 Fuß langen Anhänger verbunden sein. Andere Variationen der Abmessungen, Größen und/oder Längen der Fahrzeuglagerbereiche werden hierin in Betracht gezogen.
  • 2A ist eine perspektivische Ansicht 200 der Ladeeinrichtung 101 von 1, die den an einer Andockbucht 102d angedockten Fahrzeuglagerbereich 102s gemäß den beispielhaften Ausführungsformen hierin zeigt. 2A zeigt z.B. den Fahrzeuglagerbereich 102s, der in der Ausführungsform von 2A eine Innenansicht des Fahrzeuglagerbereichs 102s von 1 ist. 2A zeigt auch die Andockbucht 102d, die in der Ausführungsform von 2A eine Innenansicht der Andockbucht 102d von 1 ist. Wie in 2A dargestellt, ist der Fahrzeuglagerbereich 102s an die Andockstation 102d angedockt, so dass der Innenraum des Fahrzeuglagerbereichs 102s gegenüber dem Innenraum der Ladeeinrichtung 101 exponiert ist. Der Fahrzeuglagerbereich 102s umfasst Pakete, Kisten und/oder andere transportable Objekte oder Waren, einschließlich der Pakete 208p1-208p3, die in einigen Ausführungsformen mit den hierin beschriebenen Paketwänden korrespondieren können. Die Pakete 208p1-208p3 können sich in einem Zustand des Beladens in den oder des Entladens aus dem Fahrzeuglagerbereich 102s befinden. Zum Beispiel kann der Arbeiter 212 in einem Zustand sein, in dem er zusätzliche Pakete 210 in den Fahrzeuglagerbereich 102s einlädt oder aus diesem auslädt. In einigen Ausführungsformen kann der Verwalter 206 das Beladen und Entladen von Paketen, Kisten und/oder anderen transportablen Objekten oder Waren (z.B. Pakete 208p1-208p3 oder 210) in den oder aus dem Fahrzeuglagerbereich 102s beaufsichtigen, unterstützen oder anderweitig zusätzlich erleichtern. Zum Beispiel kann der Verwalter 206 eine Dashboard-Anwendung verwenden, die auf dem Client-Gerät 204 ausgeführt wird, wie hierin beschrieben.
  • 2A zeigt auch eine Anhänger-Überwachungseinheit (TMU) 202. Die TMU 202 kann eine montierbare Vorrichtung sein, die eine 3D-Tiefenkamera zur Erfassung von 3D-Bildern (z.B. 3D-Bilddaten) und eine fotorealistische Kamera (z.B. 2D-Bilddaten) enthält. Die fotorealistische Kamera kann eine RGB (rot, grün, blau) -Kamera zur Aufnahme von 2D-Bildern sein. Die TMU 202 kann auch einen oder mehrere Prozessoren und einen oder mehrere Computerspeicher zur Speicherung von Bilddaten und/oder zur Ausführung von Anwendungen, die Analysen oder andere Funktionen wie hierin beschrieben ausführen, enthalten. In verschiedenen Ausführungsformen und wie in 2A dargestellt, kann die TMU 202 innerhalb der Ladeeinrichtung 101 montiert und in Richtung des Fahrzeuglagerbereichs 102s ausgerichtet werden, um 3D- und/oder 2D-Bilddaten des Innenraums des Fahrzeuglagerbereichs 102s zu erfassen. Wie in 2A dargestellt, kann die TMU 202 beispielsweise so ausgerichtet werden, dass die 3D- und 2D-Kameras der TMU 202 die Länge des Fahrzeuglagerbereichs 102s nach unten blicken, so dass die TMU 202 die Wände, den Boden, die Decke, die Pakete (z. B. 208p1-208p3 oder 210) oder andere Objekte oder Oberflächen mit dem Fahrzeuglagerbereich 102s abtasten oder erfassen kann, um die 3D- und 2D-Bilddaten zu bestimmen. Die Bilddaten können von einem oder mehreren Prozessoren und/oder Speichern der TMU 202 (oder, in einigen Ausführungsformen, einem oder mehreren entfernten Prozessoren und/oder Speichern eines Servers) verarbeitet werden, um Analysen, Funktionen, wie z.B. grafische oder bildgebende Analysen, zu implementieren, wie sie in einem oder mehreren verschiedenen Flussdiagrammen, Blockdiagrammen, Verfahren, Funktionen oder verschiedenen Ausführungsformen hierin beschrieben werden.
  • In einigen Ausführungsformen kann die TMU 202 beispielsweise die 3D- und 2D-Bilddaten, wie sie von der 3D-Tiefenkamera und der fotorealistischen Kamera gescannt oder erfasst werden, zur Verwendung durch andere Vorrichtungen (z.B. Client-Gerät 204 oder Server 301, wie hierin weiter beschrieben) verarbeiten. Zum Beispiel können der eine oder die mehreren Prozessoren und/oder ein oder mehrere Speicher der TMU 202 die Bilddaten verarbeiten, die aus dem Fahrzeuglagerbereich 102s gescannt oder abgetastet werden. Das Verarbeiten der Bilddaten kann Post-Scandaten erzeugen, die Metadaten, vereinfachte Daten, normalisierte Daten, Ergebnisdaten, Statusdaten oder Warndaten enthalten können, wie sie aus den ursprünglich gescannten oder erfassten Bilddaten ermittelt wurden. In einigen Ausführungsformen können die Bilddaten und/oder die Post-Scandaten an eine Client-Anwendung, wie die hierin beschriebene Dashboard-Anwendung (App), zur Ansicht, Manipulation oder anderweitigen Interaktion gesendet werden. In anderen Ausführungsformen können die Bilddaten und/oder die Post-Scandaten an einen Server (z.B. Server 301, wie hierin weiter beschrieben) zur Speicherung oder zur weiteren Bearbeitung gesendet werden.
  • Wie in 2A dargestellt, können die Bilddaten und/oder die Post-Scandaten auf dem Client-Gerät 204 empfangen werden. Das Client-Gerät 204 kann eine Dashboard-Anwendung implementieren, um die Bilddaten und/oder die Post-Scandaten zu empfangen und diese Daten, z.B. in grafischem oder anderem Format, dem Verwalter 206 anzuzeigen, um das Entladen oder Beladen von Paketen (z.B. 208p1-208p3 oder 210), wie hierin beschrieben, zu erleichtern. In einigen Ausführungsformen kann die Dashboard-App über eine Web-Plattform wie Java J2EE (z.B. Java Server Faces) oder Ruby on Rails implementiert werden. In solchen Ausführungsformen kann die Webplattform eine Benutzerschnittstelle der Dashboard-App durch die Generierung einer dynamischen Webseite (z.B. unter Verwendung von HTML, CSS, JavaScript) oder durch eine clientbasierte mobile Anwendung (z.B. über Java für eine Google Android-basierte Anwendung oder Objective-C/Swift für eine Apple iOS-basierte Anwendung) generieren oder aktualisieren, wobei die Benutzerschnittstelle über die Dashboard-App auf dem Client-Gerät, z.B. dem Client-Gerät 204, angezeigt wird.
  • In einigen Ausführungsformen kann die Dashboard-App die Bilddaten und/oder die Post-Scandaten empfangen und diese Daten in Echtzeit anzeigen. Bei dem Client-Gerät 204 kann es sich um ein mobiles Gerät handeln, z.B. ein Tablet, ein Smartphone, einen Laptop oder ein anderes mobiles Computergerät. Das Client-Gerät 204 kann ein Betriebssystem oder eine Plattform für die Ausführung der Dashboard (oder anderer) Anwendungen oder Funktionen implementieren, einschließlich z.B. einer der Apple iOS-Plattform, der Google Android-Plattform und/oder der Microsoft Windows-Plattform. Das Client-Gerät 204 kann einen oder mehrere Prozessoren und/oder einen oder mehrere Speicher zur Implementierung der Dashboard-App oder zur Bereitstellung anderer ähnlicher Funktionen enthalten. Das Client-Gerät 204 kann auch kabelgebundene oder kabellose Senderempfänger zum Empfang von Bilddaten und/oder Post-Scandaten, wie hierin beschrieben, enthalten. Solche kabelgebundenen oder kabellosen Senderempfänger können einen oder mehrere Kommunikationsprotokollstandards implementieren, einschließlich z. B. TCP/IP, WiFi (802. 1 1b), Bluetooth oder andere ähnliche Kommunikationsprotokolle oder -standards.
  • In einigen Ausführungsformen können die Bilddaten und/oder die Post-Scandaten an einen Server oder einen Server, wie den hierin beschriebenen Server 301, gesendet werden. In solchen Ausführungsformen kann der Server oder der Server Post-Scandaten erzeugen, die Metadaten, vereinfachte Daten, normalisierte Daten, Ergebnisdaten, Statusdaten oder Warndaten enthalten können, wie sie aus den von der TMU 202 bereitgestellten ursprünglichen gescannten oder abgetasteten Bilddaten bestimmt werden. Wie hierin beschrieben, kann der Server oder die Zentrale solche Daten speichern und auch die Bilddaten und/oder die Post-Scandaten an eine Dashboard-App oder eine andere Anwendung senden, die auf dem Client-Gerät implementiert ist, wie z.B. die Dashboard-App, die auf dem Client-Gerät 204 von 2A implementiert ist.
  • 2B ist eine perspektivische Ansicht der TMU 202 von 2A gemäß den beispielhaften Ausführungsformen hierin. In der beispielhaften Ausführungsform von 2B kann die TMU 202 eine Halterung 252 zur Ausrichtung oder anderweitigen Positionierung der TMU 202 innerhalb der Ladeeinrichtung 101, wie hierin beschrieben, enthalten. Die TMU 202 kann außerdem einen oder mehrere Prozessoren und einen oder mehrere Speicher für die hierin beschriebene Verarbeitung von Bilddaten enthalten. So kann die TMU 202 beispielsweise einen Flash-Speicher enthalten, der zur Bestimmung, Speicherung oder anderweitigen Verarbeitung der Bilddaten und/oder der Post-Scandaten verwendet wird. Darüber hinaus kann TMU 202 eine Netzwerkschnittstelle enthalten, um die Kommunikation mit anderen Geräten zu ermöglichen (wie z.B. Server 301 von 3, wie hierin beschrieben). Die Netzwerkschnittstelle der TMU 202 kann jede geeignete Art von Kommunikationsschnittstelle(n) (z. B. drahtgebundene und/oder drahtlose Schnittstellen) enthalten, die für den Betrieb gemäß einem oder mehreren geeigneten Protokollen konfiguriert ist, z. B. Ethernet für drahtgebundene Kommunikationen und/oder IEEE 802.11 für drahtlose Kommunikationen.
  • Die TMU 202 kann eine 3D-Tiefenkamera 254 zum Erfassen, Abtasten oder Scannen von 3D-Bilddaten enthalten. So kann beispielsweise die 3D-Tiefenkamera 254 in einigen Ausführungsformen einen Infrarot (IR)-Projektor und eine zugehörige IR-Kamera enthalten. In solchen Ausführungsformen projiziert der IR-Projektor ein Muster von IR-Licht oder -Strahlen auf ein Objekt oder eine Oberfläche, die in verschiedenen Ausführungsformen Oberflächen eines Fahrzeuglagerbereichs (z.B. Fahrzeuglagerbereich 102s) oder Objekte innerhalb des Fahrzeuglagerbereichs, wie z.B. Kisten oder Pakete (z.B. Pakete 208p1-208p3 oder 210), umfassen können. Das IR-Licht oder die IR-Strahlen können vom IR-Projektor auf dem Objekt oder der Oberfläche in einem Muster von Flecken oder Punkten verteilt werden, die von der IR-Kamera gescannt oder abgetastet werden können. Eine Tiefenerfassungs-Anwendung, wie z.B. eine Tiefenerfassungs-Anwendung, die auf dem einem oder den mehreren Prozessoren oder Speichern der TMU 202 ausgeführt wird, kann auf der Grundlage des Musters von Flecken oder Punkten verschiedene Tiefenwerte, z.B. die Tiefenwerte des Fahrzeuglagerbereichs 102s, bestimmen. Beispielsweise kann ein Objekt mit geringer Tiefe (z.B. nahe gelegene Kisten, Pakete usw.) bestimmt werden, wo die Flecken oder Punkte dicht sind, und Objekte mit großer Tiefe (z.B. ferne Kisten, Pakete usw.) können bestimmt werden, wo die Punkte weiter auseinander liegen. Die verschiedenen Tiefenwerte können von der Tiefenerfassungs-Anwendung und/oder der TMU 202 zur Erstellung einer Tiefenkarte verwendet werden. Die Tiefenkarte kann ein 3D-Bild der Objekte oder Oberflächen, die von der 3D-Tiefenkamera 254 abgetastet oder gescannt wurden, darstellen oder 3D-Bilddaten von diesen enthalten, z.B. den Fahrzeuglagerbereich 102s und alle Objekte oder Oberflächen darin.
  • Die TMU 202 kann außerdem eine fotorealistische Kamera 256 zum Erfassen, Abtasten oder Scannen von 2D-Bilddaten enthalten. Die fotorealistische Kamera 256 kann eine auf RGB (rot, grün, blau) basierende Kamera zur Erfassung von 2D-Bildern mit RGB-basierten Pixeldaten sein. In einigen Ausführungsformen kann die fotorealistische Kamera 256 2D-Bilder und zugehörige 2D-Bilddaten zum gleichen oder einem ähnlichen Zeitpunkt wie die 3D-Tiefenkamera 254 erfassen, so dass die TMU 202 sowohl 3D-Bilddatensätze als auch 2D-Bilddaten für eine bestimmte Oberfläche, ein Objekt oder eine Szene zum gleichen oder einem ähnlichen Zeitpunkt zur Verfügung haben kann.
  • 3 ist ein Blockdiagramm, das eine Ausführungsform eines Servers darstellt, der mit der Ladeeinrichtung 101 von 2A verbunden ist. In einigen Ausführungsformen kann sich der Server 301 in derselben Einrichtung wie die Ladeeinrichtung 101 befinden. In anderen Ausführungsformen kann sich der Server 301 an einem entfernten Standort befinden, wie z. B. auf einer Cloud-Plattform oder einem anderen entfernten Standort. In jeder Ausführungsformen kann der Server 301 kommunikativ mit einer 3D-Tiefenkamera (z.B. TMU 202) gekoppelt werden.
  • Der Server 301 ist konfiguriert, um Computerbefehle auszuführen, um Operationen in Verbindung mit den hierin beschriebenen Systemen und Verfahren durchzuführen, z.B. die Beispieloperationen zu implementieren, die durch die Blockdiagramme oder Flussdiagramme der dieser Beschreibung beigefügten Zeichnungen dargestellt werden. Der Server 301 kann Software für Unternehmensdienste implementieren, die z. B. RESTful (Representational State Transfer) API-Dienste, Message Queuing Service und Ereignisdienste umfassen, die von verschiedenen Plattformen oder Spezifikationen bereitgestellt werden können, wie z. B. die J2EE-Spezifikation, die von einer der Oracle WebLogic Server-Plattformen, der JBoss-Plattform oder der IBM WebSphere-Plattform usw. implementiert wird. Es können auch andere Technologien oder Plattformen wie Ruby on Rails, Microsoft .NET oder ähnliche verwendet werden. Wie unten beschrieben, kann der Server 301 speziell für die Durchführung von Operationen konfiguriert werden, die durch die Blockdiagramme oder Flussdiagramme der hierin beschriebenen Zeichnungen dargestellt werden.
  • Der beispielhafte Server 301 von 3 enthält einen Prozessor 302, wie z.B. einen oder mehrere Mikroprozessoren, Steuerungen und/oder jeden geeigneten Prozessortyp. Der beispielhafte Server 301 von 3 enthält außerdem Speicher (z.B. flüchtiger oder nichtflüchtiger Speicher) 304, auf den der Prozessor 302 z.B. über einen Speichercontroller (nicht gezeigt) zugreifen kann. Der beispielhafte Prozessor 302 interagiert mit dem Speicher 304, um z.B. maschinenlesbare Befehle zu erhalten, die im Speicher 304 gespeichert sind und z.B. mit den Operationen korrespondieren, die durch die Flussdiagramme dieser Offenbarung dargestellt werden. Zusätzlich oder alternativ dazu können maschinenlesbare Befehle entsprechend den Beispieloperationen der Blockdiagramme oder Flussdiagramme auf einem oder mehreren Wechselmedien (z.B. einer Compact Disc, einer Digital Versatile Disc, einem löschbaren Flash-Speicher usw.) gespeichert werden oder über eine Fernverbindung, wie z.B. das Internet oder eine Cloud-basierte Verbindung, die mit dem Server 301 gekoppelt werden kann, um den Zugriff auf die darauf gespeicherten maschinenlesbaren Anweisungen zu ermöglichen.
  • Der beispielhafte Server 301 von 3 kann ferner eine Netzwerkschnittstelle 306 enthalten, um die Kommunikation mit anderen Maschinen über z.B. ein oder mehrere Computernetzwerke, wie ein lokales Netzwerk (LAN) oder ein Weitbereichsnetzwerk (WAN), z.B. das Internet, zu ermöglichen. Die beispielhafte Netzwerkschnittstelle 306 kann jede geeignete Art von Kommunikationsschnittstelle(n) (z. B. drahtgebundene und/oder drahtlose Schnittstellen) enthalten, die so konfiguriert ist (sind), dass sie gemäß einem (oder mehreren) geeigneten Protokoll(en) arbeitet/arbeiten, z. B. Ethernet für drahtgebundene Kommunikationen und/oder IEEE 802.11 für drahtlose Kommunikationen.
  • Der beispielhafte Server 301 von 3 enthält die Eingabe/Ausgabe (I/O)-Schnittstellen 308, um den Empfang von Benutzereingaben und die Kommunikation von Ausgabedaten an den Benutzer zu ermöglichen, was z.B. eine beliebige Anzahl von Tastaturen, Mäusen, USB-Laufwerken, optischen Laufwerken, Bildschirmen, Touchscreens usw. umfassen kann.
  • 4A ist eine fotorealistische Ansicht 402, die eine erste Ausführungsform des Fahrzeuglagerbereichs 102s darstellt, der an der Andockbucht 102d von 2A angedockt ist, wobei der Lagerbereich eine bereichsinterne Paketwand umfasst (z.B. Paketwand 408p1 oder Paketwand 408p2, wie hierin beschrieben). Die fotorealistische Ansicht 402 kann ein 2D-Bild sein, wie es z.B. von der fotorealistischen Kamera 256 der TMU 202 aufgenommen wurde. Die fotorealistische Ansicht 402 kann 2D-Bilddaten, wie z.B. Pixeldaten oder RGB-Daten, wie hierin beschrieben, enthalten.
  • Die fotorealistische Ansicht 402 zeigt die Paketwände 408p1 und 408p2. Wie hier verwendet, kann eine Paketwand ein Stapel von Paketen, Kisten oder anderen transportierbaren Objekten oder Waren sein, die typischerweise mit der Verteilung und Logistik zu tun haben. Eine Paketwand kann auch ein einzelnes Paket sein, das die Grundlage für eine neue Paketwand bildet. Jedes der Pakete, Kisten oder anderen transportablen Objekte oder Waren, aus denen eine bestimmte Paketwand aufgebaut ist, kann eine gemeinsame Tiefe, Länge oder andere Abmessungen haben, so dass die bestimmte Paketwand als Ganzes mindestens eine einheitliche oder annähernd einheitliche Tiefe, Länge oder Abmessung aufweist. Wie in der fotorealistischen Ansicht 402 dargestellt, befinden sich die Paketwände 408p1 und 408p2 im hinteren Abschnitt des Fahrzeuglagerbereichs 102s und befinden sich im Bereich der hierin beschriebenen 3D-Tiefenkamera (z.B. 3D-Tiefenkamera 254). In einigen Ausführungsformen können die Paketwände 408p 1 und 408p2 mit den Paketen oder den Paketwänden 208p1-208p3 von 2a, wie hier beschrieben, korrespondieren.
  • Wie in der fotorealistischen Ansicht 402 weiter dargestellt, wird der Fahrzeuglagerbereich 102s durch Oberflächenbereiche einschließlich der linken Wand 4041, der rechten Wand 404r und der Bodenfläche 404f definiert. Die Oberflächenbereiche, einschließlich der linken Wand 4041, der rechten Wand 404r und der Bodenfläche 404f, sind im Allgemeinen starre oder halbstarre Oberflächenbereiche, die zusammen den Innenraum des Fahrzeuglagerbereichs 102s bilden.
  • Die fotorealistische Ansicht 402 zeigt zusätzlich das Ladefördermittel 406. Das Ladefördermittel 406 kann zum Beladen und Entladen von Paketen vom Fahrzeuglagerbereich 102s über die Andockbucht 102s zur Ladeeinrichtung 101 und umgekehrt verwendet werden. Beispielsweise können die Pakete 410 und 411 vom Fahrzeuglagerbereich 102s über die Andockbucht 102d zur Ladeeinrichtung 101 beladen oder entladen werden. Die fotorealistische Ansicht 402 zeigt auch zusätzliche Gegenstände, die im Fahrzeuglagerbereich 102s enthalten sein können, sowie einen Arbeiter 412, der das Beladen und Entladen der Pakete 410, einschließlich von Paketen einer der beiden Paketwände 408p1 und 408p2, erleichtern kann. In einigen Ausführungsformen kann der Arbeiter 412 mit dem Arbeiter 212 von 2a, wie hierin beschrieben, übereinstimmen.
  • 4B ist ein Histogramm 452 von Tiefendaten, das mit der fotorealistischen Ansicht von 4A korrespondiert und das eine erkannte Paketwand und andere Objekte im Sichtfeld der 3D-Tiefenkamera (z.B. 3D-Tiefenkamera 254) enthält. Das Histogramm 452 stellt ein 3D-Bild und 3D-Bilddaten des Fahrzeuglagerbereichs 102s dar, der an der Andockbucht 102d von 2A angedockt ist, wobei der Lagerbereich eine erkannte Paketwand (z.B. Paketwand 458p1 und/oder 458p2) umfasst. Im Wesentlichen werden die Tiefendaten mittels Heuristik analysiert, um dominante Spitzen zu erkennen und so die Wandstandorte auf der Grundlage der im Histogramm 452 dargestellten Spitzen zu bestimmen. Die Berechnung der Anhängerbefüllung wird durch die Mittelwertbildung des Histogramms 452 von einer aktuellen Wand (d.h. einer Wand, die am nächsten an der Öffnung des Fahrzeuglagerbereichs 102s positioniert ist, zu der Pakete dort hinzugefügt werden) bis zum Ende des Anhängers bestimmt. Die hierin beschriebenen Systeme und Verfahren verwenden das Histogramm 452 der Zeilendaten (im Gegensatz zu koagulierten Datenpunkten). Das Gewicht jedes 3D-Punktes ist abhängig von seinem Abstand von der 3D-Tiefenkamera (z.B. 3D-Tiefenkamera 254), wie hierin beschrieben wird.
  • Das Histogramm 452 enthält Cluster, die mit Objekten korrespondieren, die sich in verschiedenen Tiefen innerhalb des Anhängers befinden. Beispielsweise enthält das Histogramm 452 Paketwandspitzen 458p1 und 458p2, die mit den Paketwänden 408p1 und 408p2 korrespondieren. Das Histogramm 452 zeigt auch eine Arbeiterspitze 460, die mit dem Arbeiter 412 der fotorealistischen Ansicht 402 korrespondiert, und die gestuften Paketspitzen 462p1, 460p2, die mit den Paketen 410 bzw. 411 korrespondieren.
  • Mit Bezug zu den 4B und 4C können in einigen Fällen Abschnitte des Lagerbereichs 102s, die in der Nähe der 3D-Tiefenkamera 254 positioniert sind, im Vergleich zu ihrer tatsächlichen Größe einen größeren Bereich im Sichtfeld der 3D-Tiefenkamera 254 einnehmen und somit höhere Spitzen im Histogramm 452 erzeugen. Beispielsweise scheinen die Spitzen 462p1 und 462p2 im Histogramm 452 relativ groß zu sein. Durch Wiegen oder Skalieren jedes Abstands im Histogramm 452 mit einem Wert, der proportional zu seinem Abstand von der 3D-Tiefenkamera 254 ist, können die Spitzen angemessen skaliert werden, um Abstandsabweichungen zu berücksichtigen. Dementsprechend haben die Spitzen 462p1 und 462p2 einen kleineren Maximalwert im Vergleich zu den übrigen Spitzen (z.B. 458p1), wie in 4C dargestellt, in dem ein skaliertes Histogramm 452' der Tiefendaten dargestellt ist, das ebenfalls mit der fotorealistischen Ansicht von 4A korrespondiert.
  • Mit Bezug zu den 5A-5G können in einigen Fällen Abschnitte des Lagerbereichs 102s vorübergehend belegt sein. Zum Beispiel, wie in den 5A-5C dargestellt, werden historische fotorealistische Ansichten des Lagerbereichs 102s dargestellt, die über einen bestimmten Zeitraum aufgenommen werden, wobei der Lagerbereich 102s vom Belader 412 und einer beliebigen Anzahl von Paketen 410 belegt wird, die sich im Lagerbereich 102s bewegen können. Wie in den 5D-5F dargestellt, die Histogrammdarstellungen der jeweils in den 5A-5C dargestellten Ansichten darstellen, bleibt die Größe der Spitzen 458p1 und 458p2, die mit den Paketwänden 408p1 und 408p2 korrespondieren, über den in den 5A-5C dargestellten Zeitraum relativ stationär. Die Größe und der Ort der Spitzen 460 und 462p1, die mit dem Belader 412 und einer beliebigen Anzahl von Paketen 410 korrespondieren, variieren jedoch im Laufe der Zeit aufgrund der Bewegung des Beladers und der Bildung neuer Paketwände durch den Belader.
  • Es gibt eine Reihe von Ansätzen, um diese Art von nicht-wandbewegten Objekten zu berücksichtigen. In einem ersten Ansatz können Daten in aufeinanderfolgenden Bildern subtrahiert werden, um entsprechende bewegte Objekte zu erkennen und sie zu entfernen, um ein Histogramm nur der stationären Objekte (d.h. Paketwände) zu berechnen. In einem anderen Ansatz können Daten in historischen Histogrammen addiert werden, wodurch Spitzen, die mit stationären Objekten (d.h. Paketwänden) korrespondieren, im Vergleich zu Spitzen, die mit sich bewegenden Objekten korrespondieren, verstärkt werden. Bei jedem dieser oder anderer Ansätze können Daten verwendet werden, die in mehreren aufeinanderfolgenden Einzelbildern (Frames) erfasst wurden (z.B. 2-5 Frames, die etwa alle 15 Sekunden, alle 30 Sekunden, jede Minute usw. erfasst werden).
  • Im Beispiel von 5G, das eine modifizierte Histogrammdarstellung der in den 5D-5F dargestellten Histogramme zeigt, ist die Paketwand leicht zu erkennen, da die entsprechende Spitze wesentlich größer und weiter als andere erfasste Spitzen ist. In einigen Beispielen können die maximalen Spitzenhöhen jedoch enger gruppiert sein und somit zusätzliche Berechnungen erfordern, um eine dominante Paketwand genau zu identifizieren.
  • 6 ist ein Flussdiagramm eines Tiefenbildgebungsverfahrens 600 zur Verwendung bei der kommerziellen Anhängerbeladung. Das Verfahren 600 beginnt (602) bei Block 604, wo eine 3D-Tiefenkamera (z.B. die 3D-Tiefenkamera 254 der TMU 202) 3D-Bilddaten eines Fahrzeuglagerbereichs (z.B. Fahrzeuglagerbereich 102s) erfasst. Die 3D-Tiefenkamera ist in eine Richtung ausgerichtet, um die 3D-Bilddaten des Fahrzeuglagerbereichs, wie hierin beschrieben, zu erfassen. In einigen Ausführungsformen können die 3D-Bilddaten periodisch erfasst werden, z.B. etwa alle 15 Sekunden, etwa alle 30 Sekunden, etwa jede Minute und/oder etwa alle zwei Minuten, usw., aber sie können in jeder beliebigen Frequenz erfasst werden, die von der zugehörigen 3D-Tiefenkamera, z.B. durch die TMU 202, bereitgestellt wird.
  • Bei Block 606 werden die 3D-Bilddaten von einer Tiefenerkennungs-Anwendung analysiert, die auf einem oder mehreren Prozessoren ausgeführt wird. In einigen Ausführungsformen können der eine oder die mehreren Prozessoren Prozessoren der TMU 202 sein, wie hierin beschrieben. In bestimmten Ausführungsformen können die 3D-Tiefenkamera und der eine oder die mehreren Prozessoren in einer montierbaren Vorrichtung untergebracht sein, wie z.B. der TMU 202, die in den 2a und 2b dargestellt ist. In anderen Ausführungsformen können der eine oder die mehreren Prozessoren Prozessoren (z.B. Prozessor 302) des Servers 301, wie hier beschrieben, sein. Auf der Grundlage der 3D-Bilddaten bestimmt die Tiefenerkennungs-Anwendung einen Wanddatenbereich und einen Nicht-Wanddatenbereich. Bei Block 508 erzeugt die Tiefenerkennungs-Anwendung einen Wandindikator, der anzeigt, dass eine Wand in einer bestimmten Tiefe innerhalb des Fahrzeuglagerbereichs erkannt wird, und der ferner einen Befüllungsprozentsatz der Wand berechnen kann.
  • In einem Ansatz können, wie in den 7A-7C dargestellt, Wanddatenbereiche bestimmt werden, indem zunächst ein Histogramm (z.B. Histogramm 452) aller im 3D-Bild befindlichen Tiefen berechnet wird. Bei der Identifizierung einer beliebigen Anzahl von Histogramm-Spitzen (z. B. 458p1, 458p2, 460, 462p1 usw. der 7A-7C) wird eine höchste Spitze identifiziert, die im abgebildeten Beispiel die Spitze 458p1 ist. Anschließend werden alle Spitzen, die kleiner als ein bestimmter Schwellenwert sind (z.B. alle Spitzen, die kleiner als 1/6 der maximalen Spitzenhöhe sind), herausgefiltert und nicht mehr berücksichtigt. Die übrigen Spitzen sind allesamt potenzielle Kandidaten für die aktuelle Wand. Eine am weitesten entfernte Spitze (z.B. Spitze 458p1) wird dann identifiziert, und Spitzen, die in einem Abstand größer als ein vorgegebener Abstand (z.B. 50" oder die vertikale Linie MD in den 7B und 7C) positioniert sind, werden ebenfalls herausgefiltert und nicht mehr berücksichtigt. Solche gefilterten Spitzen können den Belader und/oder Pakete darstellen, die sich zu Stapelungszwecken auf dem Fördermittel befinden. Die aktuelle Wand kann dann durch die Lokalisierung eines Maximums der verbleibenden Spitzen identifiziert werden (z.B. Spitze 458p2).
  • In einigen Beispielen können sich etwas kleinere Spitzen (z.B. Peak 458p1) hinter der aktuellen Wand befinden und innerhalb des angegebenen Schwellenwertes liegen. In einigen Beispielen kann die relative Nähe zwischen den Spitzen 458p1 und 458p2 in Verbindung mit ihren ähnlichen Höhenwerten zu einer falschen Identifizierung der aktuellen Wand führen. Solche Spitzen können Paketwände darstellen, die noch nicht vollständig ausgebildet sind, was bedeutet, dass möglicherweise zusätzliche Pakete auf die vorhandenen Pakete aufgelegt werden können. Um zu verhindern, dass die hier beschriebenen Systeme und Verfahren abwechselnd die Spitze 458p1 und 458p2 als die aktuelle Wand identifizieren und dadurch die Berechnungen der Befüllung negativ beeinflussen, können Heuristiken bestimmt werden, um die richtige Wand als aktuelle die Wand zu identifizieren. Betrachtet man den Abstand zwischen der entferntesten und der näheren Spitze, so kann die weiter entfernte Spitze als die dominierende Spitze und damit als die aktuelle Wand angesehen werden, wenn die weiter entfernte Spitze innerhalb von etwa 50" der näheren Spitze positioniert ist und eine Höhe zwischen etwa 50% und 99% der Höhe der näheren Spitze hat. In einigen Beispielen kann der geeignete Wert der Differenzen zwischen den Spitzenhöhen auf der Grundlage einer Funktion der Abstände zwischen den Spitzen gewählt werden. Weitere Beispiele für geeignete Abstände zwischen den Wänden und Differenzen zwischen den Wandhöhen sind möglich.
  • In einigen Ausführungsformen wird eine Durchschnittswand-Bestimmung vorgenommen. In einigen Beispielen kann die relative Nähe zwischen den Spitzen 458p1 und 458p2 in Verbindung mit ihren ähnlichen Höhenwerten zu einer falschen Identifizierung der aktuellen Wand führen. Darüber hinaus können die hierin beschriebenen Systeme und Verfahren zwischen dem Identifizieren von Spitze 458p1 und 458p2 als die aktuelle Wand „hin und her springen“, was sich nachteilig auf die Berechnung der Befüllung auswirken kann. In 7C wird eine „Durchschnittswand“-Bestimmung vorgenommen, wobei das gesamte Histogramm, das sich hinter dem nächstgelegenen Spitzenkandidaten (458p2) befindet, betrachtet wird und ein Schwerpunkt durch Mittelwertbildung des Histogramms hinter diesem nächstgelegenen Spitzenkandidaten definiert wird. Wenn die Befüllungsberechnung beispielsweise feststellt, dass die Spitze 458p1 zu etwa 45% und die Spitze 458p2 zu etwa 55% voll ist, wäre eine entsprechende Berechnung die Aussage, dass bei einem durchschnittlichen Abstand (z.B. bei Pfeil AVG) die Wand vollständig voll ist. Dadurch können Befüllungsbestimmungen schneller und genauer durchgeführt werden.
  • So konfiguriert, können die beschriebenen Systeme und Verfahren die Berechnungszeiten erheblich reduzieren. Zum Beispiel können die Befüllungsberechnungen in einem Zeitraum von ca. 20-50 ms abgeschlossen werden. Darüber hinaus können die beschriebenen Systeme und Verfahren eine konsistentere und stabilere Befüllungsberechnung ermöglichen.
  • In einigen Ausführungsformen kann eine Dashboard-Anwendung, die auf einem Client-Gerät ausgeführt wird (z.B. wie das Client-Gerät 204 von 2a), den Wandindikator erhalten. In bestimmten Ausführungsformen kann der Wandindikator von der Dashboard-Anwendung von der TMU-Vorrichtung (z.B. der TMU 202) empfangen werden. In anderen Ausführungsformen kann der Wandindikator von der Dashboard-Anwendung von einem Server (z.B. Server 301) empfangen werden.
  • In weiteren Ausführungsformen kann die Dashboard-Anwendung einen Kapazitätswert für den Fahrzeuglagerbereich enthalten. Wie hierin beschrieben, kann der Kapazitätswert für den Fahrzeuglagerbereich die gefüllte Kapazität oder die Befüllung eines Fahrzeuglagerbereichs anzeigen, z.B. Fahrzeuglagerbereich 102s. In anderen Ausführungsformen kann der Kapazitätswert für den Fahrzeuglagerbereich die verbleibende Kapazität oder Leere eines Fahrzeuglagerbereichs anzeigen. In noch weiteren Ausführungsformen kann die Dashboard-Anwendung ein Diagramm der Fahrzeuglagerbereichskapazität enthalten oder wiedergeben. Das Diagramm der Fahrzeuglagerbereichskapazität kann einen oder mehrere Fahrzeuglagerbereichskapazitätswerte über einen oder mehrere Zeitwerte grafisch darstellen.
  • In der vorstehenden Beschreibung wurden spezifische Ausführungsformen beschrieben. Ein Durchschnittsfachmann erkennt jedoch, dass verschiedene Modifikationen und Änderungen vorgenommen werden können, ohne den Schutzumfang der Erfindung, wie sie in den untenstehenden Ansprüchen definiert ist, abzuweichen. Dementsprechend sind die Beschreibung und die Figuren vielmehr in einem illustrativen als in einem einschränkenden Sinne zu betrachten, und alle derartigen Modifikationen sollen im Umfang der vorliegenden Lehren eingeschlossen sein.
  • Die Nutzen, Vorteile, Lösungen für Probleme und alle Elemente, die zum Auftreten oder einer Verstärkung eines Nutzens, eines Vorteils, oder einer Lösung führen können, sind nicht als kritische, erforderliche oder wesentliche Merkmale oder Elemente in einigen oder sämtlichen Ansprüchen zu verstehen. Die Erfindung ist lediglich durch die angehängten Ansprüche definiert, einschließlich jeglicher Änderungen, die während der Anhängigkeit dieser Anmeldung vorgenommen wurden und aller Äquivalente der erteilten Ansprüche.
  • Darüber hinaus können in diesem Dokument relationale Begriffe wie erster und zweiter, oberer und unterer und dergleichen lediglich verwendet sein, um eine Entität oder Aktion von einer anderen Entität oder Aktion zu unterscheiden, ohne notwendigerweise eine tatsächliche derartige Beziehung oder Reihenfolge zwischen solchen Entitäten oder Aktionen zu erfordern oder zu implizieren. Die Ausdrücke „umfasst“, „umfassend“, „hat“, „haben“, „aufweist“, „aufweisend“, „enthält“, „enthaltend“ oder jede andere Variation davon sollen eine nicht-ausschließliche Einbeziehung abdecken, derart, dass ein Prozess, Verfahren, Produkt oder Vorrichtung, das eine Liste von Elementen umfasst, hat, aufweist, enthält, nicht nur diese Elemente aufweist, sondern auch andere Elemente aufweisen kann, die nicht ausdrücklich aufgelistet sind oder einem solchen Prozess, Verfahren, Produkt oder Vorrichtung inhärent sind. Ein Element, dem „umfasst ... ein“, „hat... ein“, „aufweist ... ein“ oder „enthält ...ein“ vorausgeht, schließt ohne weitere Einschränkungen die Existenz zusätzlicher identischer Elemente in dem Prozess, dem Verfahren, dem Produkt oder der Vorrichtung, die das Element umfasst, hat, aufweist oder enthält, nicht aus. Die Begriffe „ein“ und „eine“ sind als eine oder mehrere definiert, sofern es hierin nicht ausdrücklich anders angegeben wird. Die Begriffe „im Wesentlichen“, „im Allgemeinen“, „ungefähr“, „etwa“ oder jede andere Version davon sind so definiert, dass sie von einem Fachmann auf diesem Gebiet nahekommend verstanden werden, und in einer nicht-einschränkenden Ausführungsform ist der Ausdruck definiert als innerhalb von 10%, in einer weiteren Ausführungsform als innerhalb von 5%, in einer weiteren Ausführungsform als innerhalb von 1% und in einer weiteren Ausführungsform als innerhalb von 0,5%. Der Ausdruck „gekoppelt“, wie er hierin verwendet wird, ist als verbunden definiert, jedoch nicht notwendigerweise direkt und nicht notwendigerweise mechanisch. Eine Vorrichtung oder eine Struktur, die auf eine bestimmte Art „ausgeführt“ ist, ist zumindest auch so ausgeführt, kann aber auch auf Arten ausgeführt sein, die nicht aufgeführt sind.
  • Es versteht sich, dass einige Ausführungsformen von einem oder mehreren generischen oder spezialisierten Prozessoren (oder „Verarbeitungsgeräten“) wie Mikroprozessoren, digitale Signalprozessoren, kundenspezifische Prozessoren und Field-Programmable-Gate-Arrays (FPGAs) und einmalig gespeicherten Programmanweisungen (einschließlich sowohl Software als auch Firmware) umfasst sein können, die den einen oder die mehreren Prozessoren steuern, um in Verbindung mit bestimmten Nicht-Prozessorschaltungen einige, die meisten oder alle der hierin beschriebenen Funktionen des Verfahrens und/oder der Vorrichtung zu implementieren. Alternativ können einige oder alle Funktionen durch eine Zustandsmaschine implementiert sein, die keine gespeicherten Programmanweisungen aufweist, oder in einer oder mehreren anwendungsspezifischen integrierten Schaltungen (ASICs), in denen jede Funktion oder einige Kombinationen von bestimmten Funktionen als benutzerdefinierte Logik implementiert sind. Natürlich kann eine Kombination der beiden Ansätze verwendet werden.
  • Darüber hinaus kann eine Ausführungsform als ein computerlesbares Speichermedium implementiert sein, auf dem computerlesbarer Code gespeichert ist, um einen Computer (der zum Beispiel einen Prozessor umfasst) zu programmieren, um ein Verfahren auszuführen, wie es hierin beschrieben und beansprucht ist. Beispiele solcher computerlesbaren Speichermedien weisen eine Festplatte, eine CD-ROM, eine optische Speichervorrichtung, eine magnetische Speichervorrichtung, einen ROM (Nur-Lese-Speicher), einen PROM (programmierbarer Nur-Lese-Speicher), einen EPROM (löschbarer programmierbarer Nur-Lese-Speicher), einen EEPROM (elektrisch löschbarer programmierbarer Nur-Lese-Speicher) und einen Flash-Speicher auf, sind aber nicht hierauf beschränkt auf. Ferner wird davon ausgegangen, dass ein Durchschnittsfachmann, ungeachtet möglicher signifikanter Anstrengungen und vieler Designwahlen, die zum Beispiel durch verfügbare Zeit, aktuelle Technologie und wirtschaftliche Überlegungen motiviert sind, ohne Weiteres in der Lage ist, solche Softwareanweisungen und - programme und ICs mit minimalem Experimentieren zu generieren, wenn er durch die hierin offenbarten Konzepte und Prinzipien angeleitet wird.
  • Die Zusammenfassung der Offenbarung wird bereitgestellt, um es dem Leser zu ermöglichen, schnell das Wesen der technischen Offenbarung zu ermitteln. Sie wird mit dem Verständnis bereitgestellt, dass sie nicht zur Auslegung oder Einschränkung des Umfangs oder der Bedeutung der Ansprüche verwendet wird. Ferner kann der vorangehenden detaillierten Beschreibung entnommen werden, dass verschiedene Merkmale in verschiedenen Ausführungsformen zum Zwecke der Verschlankung der Offenbarung zusammengefasst sind. Diese Art der Offenbarung ist nicht so auszulegen, dass sie die Absicht widerspiegelt, dass die beanspruchten Ausführungsformen mehr Merkmale erfordern, als ausdrücklich in jedem Anspruch angegeben sind. Vielmehr ist es so, wie die folgenden Ansprüche zeigen, dass der erfinderische Gegenstand in weniger als allen Merkmalen einer einzigen offenbarten Ausführungsform liegt. Somit werden die folgenden Ansprüche hiermit in die detaillierte Beschreibung inkorporiert, wobei jeder Anspruch für sich als ein separat beanspruchter Gegenstand steht.

Claims (23)

  1. Dreidimensionales (3D) Tiefenbildgebungssystem zur Verwendung bei der kommerziellen Anhängerbeladung, wobei das 3D-Tiefenbildgebungssystem umfasst: eine 3D-Tiefenkamera, die konfiguriert ist, um 3D-Bilddaten zu erfassen, wobei die 3D-Tiefenkamera in eine Richtung ausgerichtet ist, um 3D-Bilddaten eines Fahrzeuglagerbereichs zu erfassen; und eine Tiefenerkennungs-Anwendung, die auf einem oder mehreren Prozessoren ausgeführt wird, wobei die Tiefenerkennungs-Anwendung auf der Grundlage der 3D-Bilddaten mindestens einen Wanddatenbereich und einen Nicht-Wanddatenbereich bestimmt, wobei die Bestimmung des Wanddatenbereichs und des Nicht-Wanddatenbereichs bewirkt, dass die Tiefenerkennungs-Anwendung einen Wandindikator erzeugt, wobei der Wandindikator anzeigt, dass sich eine Wand bei einer diskreten Tiefe innerhalb des Fahrzeuglagerbereichs befindet.
  2. 3D-Tiefenbildgebungssystem nach Anspruch 1, wobei die 3D-Tiefenkamera und der eine oder die mehreren Prozessoren in einer montierbaren Vorrichtung untergebracht sind.
  3. 3D-Tiefenbildgebungssystem nach Anspruch 1, wobei die Wand eine beliebige Wand sein kann von: einer Paketwand oder einer Wand des Fahrzeuglagerbereichs.
  4. 3D-Tiefenbildgebungssystem nach Anspruch 1, wobei der Nicht-Wanddatenbereich assoziiert ist mit einem von: einem Belader oder einem Stapelbereich des Fahrzeuglagerbereichs.
  5. 3D-Tiefenbildgebungssystem nach Anspruch 1, wobei der Nicht-Wanddatenbereich durch den Vergleich historischer 3D-Bilddaten bestimmt wird, um mindestens einen Spitzenbereich zu identifizieren.
  6. 3D-Tiefenbildgebungssystem nach Anspruch 1, wobei die Tiefenerkennungs-Anwendung konfiguriert ist, um Nicht-Wanddatenbereiche bei der Erzeugung des Wandindikators nicht zu berücksichtigen.
  7. 3D-Tiefenbildgebungssystem nach Anspruch 1, ferner umfassend eine Dashboard-Anwendung, wobei die Dashboard-Anwendung auf einer Client-Vorrichtung ausgeführt wird, und wobei die Bestimmung des Wanddatenbereichs und des Nicht-Wanddatenbereichs ferner bewirkt, dass die Dashboard-Anwendung den Wandindikator erhält.
  8. 3D-Tiefenbildgebungssystem nach Anspruch 7, wobei die Dashboard-Anwendung einen Kapazitätswert für den Fahrzeuglagerbereich enthält, wobei der Kapazitätswert für den Fahrzeuglagerbereich eine gefüllte Kapazität des Fahrzeuglagerbereichs anzeigt.
  9. 3D-Tiefenbildgebungssystem nach Anspruch 7, wobei die Dashboard-Anwendung einen Kapazitätswert für den Fahrzeuglagerbereich enthält, wobei der Kapazitätswert für den Fahrzeuglagerbereich eine verbleibende Kapazität des Fahrzeuglagerbereichs anzeigt.
  10. 3D-Tiefenbildgebungssystem nach Anspruch 1, wobei die 3D-Bilddaten 3D-Punktwolkendaten sind.
  11. 3D-Tiefenbildgebungssystem nach Anspruch 1, wobei die 3D-Bilddaten periodisch erfasst werden.
  12. 3D-Tiefenbildgebungssystem nach Anspruch 11, wobei die 3D-Bilddaten erfasst werden: etwa alle 15 Sekunden, etwa alle 30 Sekunden, etwa jede Minute oder etwa alle zwei Minuten.
  13. Dreidimensionales (3D) Tiefenbildgebungsverfahren zur Verwendung bei der kommerziellen Anhängerbeladung, wobei das 3D-Tiefenbildgebungsverfahren umfasst: Erfassen, über eine 3D-Tiefenkamera, von 3D-Bilddaten eines Fahrzeuglagerbereichs, wobei die 3D-Tiefenkamera in eine Richtung ausgerichtet ist, um die 3D-Bilddaten des Fahrzeuglagerbereichs zu erfassen; Analysieren, über einen oder mehrere Prozessoren, der 3D-Bilddaten mit einer Tiefenerkennungs-Anwendung, wobei die Tiefenerkennungs-Anwendung auf der Grundlage der 3D-Bilddaten mindestens einen Wanddatenbereich und einen Nicht-Wanddatenbereich bestimmt; und Generieren, über die Tiefenerkennungs-Anwendung, eines Wandindikators, wobei der Wandindikator anzeigt, dass eine Wand bei einer diskreten Tiefe innerhalb des Fahrzeuglagerbereichs erfasst wird.
  14. 3D-Tiefenbildgebungsverfahren nach Anspruch 13, wobei das Analysieren der 3D-Bilddaten umfasst: Berechnen eines Histogramms der Tiefen der 3D-Bilddaten; Identifizieren einer Vielzahl von Histogramm-Spitzen; Identifizieren einer höchsten Spitze aus der Vielzahl von Histogramm-Spitzen und Filtern der Vielzahl von Histogramm-Spitzen mit einer Höhe, die außerhalb eines Schwellenprozentsatzes der höchsten Spitze liegt; und Identifizieren einer Spitze aus der Vielzahl der Histogramm-Spitzen, die einen größten Abstand von der 3D-Tiefenkamera hat, und Filtern der verbleibenden Vielzahl der Histogramm-Spitzen, die sich in einem Abstand von der Spitze befinden, die den größten Abstand von der 3D-Tiefenkamera hat.
  15. 3D-Tiefenbildgebungsverfahren nach Anspruch 14, ferner umfassend das Bestimmen, ob die Spitze, die den größten Abstand von der 3D-Tiefenkamera hat, die aktuelle Wand ist.
  16. 3D-Tiefenbildgebungsverfahren nach Anspruch 14, wobei das Analysieren der 3D-Bilddaten ferner umfasst das Identifizieren einer höchsten verbleibenden Spitze aus der verbleibenden Vielzahl von Histogramm-Spitzen und das Erzeugen eines Wandindikators.
  17. 3D-Tiefenbildgebungsverfahren nach Anspruch 14, ferner umfassend das Berechnen einer Durchschnitts-Wand zwischen dem Wandindikator und einer Gesamttiefe des Fahrzeuglagerbereichs.
  18. 3D-Tiefenbildgebungsverfahren nach Anspruch 13, wobei der Nicht-Wanddatenbereich assoziiert ist mit einem von: einem Belader oder einem Stapelbereich des Fahrzeuglagerbereichs.
  19. 3D-Tiefenbildgebungsverfahren nach Anspruch 13, wobei der Nicht-Wanddatenbereich durch Vergleichen historischer 3D-Bilddaten bestimmt wird, um mindestens einen Spitzenbereich zu identifizieren.
  20. 3D-Tiefenbildgebungsverfahren nach Anspruch 13, wobei die Tiefenerkennungs-Anwendung konfiguriert ist, um Nicht-Wanddatenbereiche bei der Erzeugung des Wandindikators nicht zu berücksichtigen.
  21. 3D-Tiefenbildgebungsverfahren nach Anspruch 13 ferner umfassend das Empfangen des Wandindikators über eine auf einer Client-Vorrichtung ausgeführte Dashboard-Anwendung.
  22. 3D-Tiefenbildgebungsverfahren nach Anspruch 21, wobei die Dashboard-Anwendung einen Kapazitätswert für den Fahrzeuglagerbereich enthält, wobei der Kapazitätswert für den Fahrzeuglagerbereich eine gefüllte Kapazität des Fahrzeuglagerbereichs anzeigt.
  23. 3D-Tiefenbildgebungsverfahren nach Anspruch 13, wobei die 3D-Bilddaten erfasst werden: etwa alle 15 Sekunden, etwa alle 30 Sekunden, etwa jede Minute oder etwa alle zwei Minuten.
DE112018006554.5T 2017-12-22 2018-11-14 Systeme und verfahren zum bestimmen der kommerziellen anhängerbefüllung Pending DE112018006554T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/853,293 2017-12-22
US15/853,293 US10657666B2 (en) 2017-12-22 2017-12-22 Systems and methods for determining commercial trailer fullness
PCT/US2018/061040 WO2019125660A1 (en) 2017-12-22 2018-11-14 Systems and methods for determining commercial trailer fullness

Publications (1)

Publication Number Publication Date
DE112018006554T5 true DE112018006554T5 (de) 2020-08-27

Family

ID=65951442

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112018006554.5T Pending DE112018006554T5 (de) 2017-12-22 2018-11-14 Systeme und verfahren zum bestimmen der kommerziellen anhängerbefüllung

Country Status (6)

Country Link
US (1) US10657666B2 (de)
AU (1) AU2018388705B2 (de)
BE (1) BE1025931B1 (de)
DE (1) DE112018006554T5 (de)
GB (1) GB2583248B (de)
WO (1) WO2019125660A1 (de)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016044327A1 (en) 2014-09-17 2016-03-24 Niagara Bottling, Llc Dock door automation system and method
SG11202007087SA (en) * 2018-01-26 2020-08-28 Bumblebee Spaces Inc Hoist system with household object payload motion control utilizing ambient depth data
US10867275B1 (en) * 2018-09-17 2020-12-15 Amazon Technologies, Inc. Optimized package loading
US11892818B2 (en) 2018-10-17 2024-02-06 Niagara Bottling, Llc Dock door automation systems and methods
US10803620B2 (en) * 2018-12-12 2020-10-13 Zebra Technologies Corporation Method and apparatus for calibrating trailer monitoring units
JP2020144428A (ja) * 2019-03-04 2020-09-10 トヨタ自動車株式会社 情報処理装置、情報処理方法、及び、プログラム
USD936523S1 (en) * 2020-05-14 2021-11-23 Jonathan Reynolds Lighted guide post for boat trailer
GB202018384D0 (en) * 2020-11-23 2021-01-06 Botsandus Ltd A method for optimising package storage
US11820290B2 (en) 2021-04-14 2023-11-21 Niagara Bottling, Llc Trailer alignment detection for dock automation using vision system and dynamic depth filtering
US20240158189A1 (en) * 2022-11-15 2024-05-16 Hand Held Products, Inc. Loading operation monitoring apparatus and method of using the same

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005086078A1 (en) * 2004-03-02 2005-09-15 Sarnoff Corporation Method and apparatus for classifying an object
US7339460B2 (en) * 2005-03-02 2008-03-04 Qualcomm Incorporated Method and apparatus for detecting cargo state in a delivery vehicle
EP1989513B1 (de) * 2006-02-27 2013-12-11 Sikorsky Aircraft Corporation Flugzeuglastverwaltungssystem für innenlasten
ATE546991T1 (de) * 2007-08-03 2012-03-15 Agrocom Gmbh & Co Agrarsystem Kg Landwirtschaftliche arbeitsmaschine
US9646383B2 (en) 2011-12-19 2017-05-09 Sharp Kabushiki Kaisha Image processing apparatus, image capturing apparatus, and display apparatus
US10158842B2 (en) 2012-06-20 2018-12-18 Honeywell International Inc. Cargo sensing detection system using spatial data
WO2014046213A1 (ja) * 2012-09-21 2014-03-27 株式会社タダノ 作業車の周囲情報取得装置
US20140372182A1 (en) 2013-06-17 2014-12-18 Motorola Solutions, Inc. Real-time trailer utilization measurement
US9460524B1 (en) 2014-05-30 2016-10-04 Amazon Technologies, Inc. Estimating available volumes using imaging data
MX2016015810A (es) * 2014-06-04 2017-07-19 Intelligrated Headquarters Llc Visualización de un descargador de camiones.
JP6373111B2 (ja) * 2014-07-25 2018-08-15 西日本高速道路エンジニアリング四国株式会社 トンネル覆工面調査システムおよびトンネル覆工面調査システムに用いる車両
JP6457278B2 (ja) * 2015-01-23 2019-01-23 トヨタ自動車株式会社 物体検出装置及び物体検出方法
WO2016133609A1 (en) 2015-02-18 2016-08-25 Fedex Corporate Services, Inc. Managing logistics information related to a logistics container using a container interface display apparatus
US20160297361A1 (en) * 2015-04-08 2016-10-13 Jeffrey M. Drazan Camera array system and method to detect a load status of a semi- trailer truck
CN107076541A (zh) * 2015-06-11 2017-08-18 松下知识产权经营株式会社 尺寸测定装置以及尺寸测定方法
US10713610B2 (en) 2015-12-22 2020-07-14 Symbol Technologies, Llc Methods and systems for occlusion detection and data correction for container-fullness estimation
DE112016005287T5 (de) * 2015-11-18 2018-08-02 Symbol Technologies, Llc Verfahren und systeme zur behälter-vollheitsschätzung
US10261747B2 (en) * 2016-09-09 2019-04-16 The Boeing Company Synchronized side-by-side display of live video and corresponding virtual environment images
JP6880950B2 (ja) * 2017-04-05 2021-06-02 村田機械株式会社 陥凹部検出装置、搬送装置、および、陥凹部検出方法
WO2018187327A1 (en) * 2017-04-07 2018-10-11 Walmart Apollo, Llc Systems, devices, and methods for automated pallet and receptacle relocation
JP6917789B2 (ja) * 2017-06-09 2021-08-11 株式会社東芝 荷役装置、及び、荷役装置の動作方法

Also Published As

Publication number Publication date
WO2019125660A1 (en) 2019-06-27
AU2018388705B2 (en) 2021-01-28
GB202009204D0 (en) 2020-07-29
GB2583248A (en) 2020-10-21
US10657666B2 (en) 2020-05-19
BE1025931A1 (nl) 2019-08-09
BE1025931B1 (nl) 2020-04-01
US20190197716A1 (en) 2019-06-27
GB2583248B (en) 2023-01-25
AU2018388705A1 (en) 2020-03-26

Similar Documents

Publication Publication Date Title
DE112018006554T5 (de) Systeme und verfahren zum bestimmen der kommerziellen anhängerbefüllung
DE112019002547B4 (de) System und verfahren zum bestimmen eines standortes zur platzierung eines pakets
DE102018006765B4 (de) Verfahren und system(e) für das management von frachtfahrzeugen
DE112018006533T5 (de) Schätzung der Containerausnutzung
DE112020005377B4 (de) Systeme und verfahren zur automatischen kamerainstallationsführung
DE112018005979T5 (de) Schätzung der be-/entladezeit von containern
DE102020127732A1 (de) Dreidimensionale (3d) tiefenbildgebungssysteme und -verfahren zur automatischen bestimmung einer versandcontainerfüllung basierend auf bildgebungsvorlagen
DE112018005976T5 (de) Berechnung der paketwanddichte beim beladen von kommerziellen anhängern
DE112020003332B4 (de) Dreidimensionale (3D) Tiefenbildgebungssysteme und -Verfahren zur dynamischen Container-Autokonfiguration
EP3177889B1 (de) Vorrichtung und verfahren zur volumenbestimmung eines durch ein flurförderzeug bewegten objekts
DE112016006366T5 (de) Verfahren und systeme zur verarbeitung von punktwolkendaten mit einem linienscanner
EP2767925B1 (de) Verfahren zur Erkennung von Objekten in einem Lager und/oder zur räumlichen Orientierung in einem Lager
DE112015005076T5 (de) Nicht-parametrisches Verfahren und System zum Abschätzen von Dimensionen von Objekten mit beliebiger Form
DE112017006429T5 (de) Verfahren, Systeme und Vorrichtungen zum Segmentieren von Objekten
DE112016005287T5 (de) Verfahren und systeme zur behälter-vollheitsschätzung
DE112011103221T5 (de) Erweitern von Bilddaten basierend auf zugehörigen 3D-Punktwolkendaten
DE112019001788T5 (de) Verfahren, system und vorrichtung zum korrigieren von transluzenzartefakten in daten, die eine trägerstruktur darstellen
DE102018214510A1 (de) Parkplatzkartenerzeugung auf der Straße
DE102018132764A1 (de) Anhängertürüberwachung und -berichten
GB2570793A (en) Systems and methods for segmenting and tracking package walls in commercial trailer loading
DE112017008101T5 (de) Autonome roboter und verfahren zum betreiben derselben
DE112019002730B4 (de) Datenerfassungssystem und Verfahren zur Objektdimensionierung
DE102018006764B4 (de) Verfahren und system(e) für das management von frachtfahrzeugen
DE112019005302T5 (de) Systeme und verfahren für leerlaufzeiten in der kommerziellen anhängerbeladung
BE1029791B1 (de) System und verfahren zum detektieren der kalibrierung eines 3d- sensors

Legal Events

Date Code Title Description
R012 Request for examination validly filed