DE112017005910T5 - Dimensionierungssystem zum und Verfahren zum Dimensionieren von sich entlang eines nicht eingeschränkten Pfades in einer Örtlichkeit bewegender Fracht - Google Patents

Dimensionierungssystem zum und Verfahren zum Dimensionieren von sich entlang eines nicht eingeschränkten Pfades in einer Örtlichkeit bewegender Fracht Download PDF

Info

Publication number
DE112017005910T5
DE112017005910T5 DE112017005910.0T DE112017005910T DE112017005910T5 DE 112017005910 T5 DE112017005910 T5 DE 112017005910T5 DE 112017005910 T DE112017005910 T DE 112017005910T DE 112017005910 T5 DE112017005910 T5 DE 112017005910T5
Authority
DE
Germany
Prior art keywords
cargo
location
moving
successive
moving cargo
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112017005910.0T
Other languages
English (en)
Inventor
Richard Mark Clayton
Charles Swope
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Symbol Technologies LLC
Original Assignee
Symbol Technologies LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Symbol Technologies LLC filed Critical Symbol Technologies LLC
Publication of DE112017005910T5 publication Critical patent/DE112017005910T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/04Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness specially adapted for measuring length or width of objects while moving
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/66Tracking systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/87Combinations of systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/16Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/16Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
    • G01S5/163Determination of attitude
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/32Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
    • G01S17/36Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated with phase comparison between the received signal and the contemporaneously transmitted signal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Signal Processing (AREA)

Abstract

Ein Entfernungssystem erfasst aufeinanderfolgende Punktwolken von sich bewegender Fracht, und ein Verfolgungssystem verfolgt aufeinanderfolgende Positionen und Ausrichtungen der sich bewegenden Fracht. Eine Rechenvorrichtung korreliert jede aufeinanderfolgende Punktwolke mit jeder aufeinanderfolgenden Position und Ausrichtung und Zeit der sich bewegenden Fracht, kombiniert die korrelierten Punktwolken, um eine zusammengesetzte Punktwolke der sich bewegenden Fracht zu erhalten, und verarbeitet die zusammengesetzte Punktwolke zum Dimensionieren der sich bewegenden Fracht. Sobald die Fracht dimensioniert ist, kann sie beispielsweise effizient in einen Container verladen werden.

Description

  • HINTERGRUND DER ERFINDUNG
  • Die vorliegende Offenbarung bezieht sich im Allgemeinen auf ein Dimensionierungssystem zum und ein Verfahren zum Dimensionieren von sich entlang eines nicht eingeschränkten Pfades in einer Örtlichkeit in Bewegung befindlicher Fracht, und insbesondere auf das Dimensionieren der Fracht, während die Fracht von einem Frachtbeförderer, wie beispielsweise einem Industriefahrzeug, bewegt wird, bevor die Fracht in einen Container verladen wird.
  • Industriefahrzeuge, wie Gabelstapler, heben und bewegen Fracht, die typischerweise auf Paletten befestigt ist, von Lagern oder ähnlichen Orten in Container für den Transport auf Land, Schienen, Wasser und dem Luftweg etc. Kosten für Empfänger der Fracht werden typischerweise nach den Abmessungen (Volumen) und dem Gewicht der Fracht berechnet. Daher wird die Fracht oft vor der Verladung dimensioniert und/oder gewogen. Die Kenntnis der Dimensionen der Fracht ist auch nützlich, um die Reihenfolge zu bestimmen, in der die Fracht verladen werden soll, und um den Container möglichst weitgehend für eine effiziente Handhabung und Verteilung zu füllen.
  • Figurenliste
  • Die beigefügten Figuren, in denen gleiche Bezugszeichen identische oder funktional ähnliche Elemente in den einzelnen Ansichten bezeichnen, sind zusammen mit der nachfolgenden detaillierten Beschreibung in die Offenbarung inkorporiert und bilden einen Bestandteil der Offenbarung und dienen dazu, hierin beschriebene Ausführungsformen von Konzepten, die die beanspruchte Erfindung umfassen, weiter zu veranschaulichen und verschiedene Prinzipien und Vorteile dieser Ausführungsformen zu erklären.
    • 1 ist eine aufgebrochene, perspektivische, schematische Ansicht, von oben betrachtet, eines Lagers, in dem eine sich entlang eines nicht eingeschränkten Pfades bewegende Fracht gemäß dieser Offenbarung dimensioniert wird.
    • 2 ist eine vergrößerte, perspektivische Ansicht von oben betrachtet, eines Gabelstaplers, der Fracht an einem Entfernungssystem in einer Dimensionierungsstation des Lagers von 1 vorbeibewegt.
    • 3 ist eine vergrößerte Seitenansicht einer Vielzahl von inkrementellen Bildern von Punktwolken, die von dem Entfernungssystem der 2 aufgenommen wurden.
    • 4 ist eine vergrößerte, perspektivische Ansicht, von oben betrachtet, eines Gabelstaplers, der eine Fracht an einer Ausführungsform eines Verfolgungssystems in der Dimensionierungsstation des Lagers von 1 vorbeibewegt.
    • 5 ist eine vergrößerte, perspektivische Ansicht, von oben betrachtet, eines Gabelstaplers, der Fracht an einer weiteren Ausführungsform eines Verfolgungssystems in der Dimensionierungsstation des Lagers von 1 vorbeibewegt.
    • 6 ist ein Blockdiagramm, das ein Verfahren zum Dimensionieren von Fracht darstellt, die sich entlang eines nicht eingeschränkten Pfades in dem Lager von 1 in Bewegung befindet.
    • 7 ist eine perspektivische Ansicht einer zusammengesetzten Punktwolke, die von dem Entfernungssystem der 2 erfasst wird.
    • 8 ist eine perspektivische Ansicht einer minimalen Begrenzungsbox, die eine zusammengesetzte Punktwolke enthält.
    • 9 ist ein Flussdiagramm, das Schritte eines Verfahrens gemäß dieser Offenbarung darstellt.
  • Erfahrene Fachleute werden erkennen, dass Elemente in den Figuren der Einfachheit und Klarheit halber dargestellt sind und nicht notwendigerweise maßstabsgetreu gezeichnet wurden. Zum Beispiel können die Dimensionen und Positionen einiger der Elemente in den Figuren relativ zu anderen Elementen übertrieben sein, um das Verständnis von Ausführungsformen der vorliegenden Erfindung zu verbessern.
  • Die System- und Verfahrensschritte wurden, wo es angemessen ist, durch herkömmliche Symbole in den Zeichnungen dargestellt, die nur jene spezifischen Details zeigen, die zum Verständnis der Ausführungsformen der vorliegenden Erfindung relevant sind, um somit die Offenbarung nicht mit Einzelheiten zu verdecken, die für die Fachleute auf dem Gebiet, die auf die vorliegende Beschreibung zurückgreifen, ohne weiteres ersichtlich sind.
  • DETAIILLIERTE BESCHREIBUNG DER ERFINDUNG
  • In einigen bekannten Systemen hebt ein Gabelstapler die Fracht und befördert sie zu einer Dimensionierungsstation, während er auf einen Zugang zur Dimensionierungsstation wartet. Der Gabelstapler stoppt und senkt die Fracht dann auf die Dimensionierungsstation und zieht sich dann von der Dimensionierungsstation zurück und entfernt sich rückwärts von dieser, während die Fracht dimensioniert wird. Während die Fracht an der Dimensionierungsstation stationär ist, wird ein Satz von Überkopf-Laserscannern mit Entfernungsmessern über einen Zeitraum, in dem die Fracht gescannt wird, über die Fracht hinweg und an dieser vorbei bewegt und Entfernungsinformationen von der Fracht werden erfasst. Die Entfernungsinformationen werden von einer Verarbeitungseinrichtung verarbeitet, um die Abmessungen der Fracht zu erhalten. Nach dem Scannen startet der Gabelstapler erneut, kehrt zur Station zurück, hebt die Fracht von der Station ab und bewegt sich dann zu dem Container, in den die Fracht verladen werden soll. Obwohl allgemein nützlich, hat dieses bekannte Dimensionierungsverfahren Nachteile, nicht nur aufgrund der hohen Kosten für die Scanner und die dazugehörigen Verarbeitungseinrichtungen, sondern auch, was vielleicht noch wichtiger ist, aufgrund der unterbrochenen Bewegung der Fracht. Wie beschrieben, stoppt und startet der Gabelstapler wiederholt, und das Scannen/Dimensionieren jedes Frachtgegenstandes nimmt eine nicht zu vernachlässigende Zeit in Anspruch, um ausgeführt zu werden. Dieser Ladevorgang für den Container verzögert sich dadurch.
  • In einigen bekannten Systemen werden Pakete direkt auf einem sich bewegenden Förderband platziert, um die sich bewegenden Pakete entlang eines eingeschränkten, festen, bekannten Pfades und mit einer bekannten Geschwindigkeit und mit einer unveränderlichen Ausrichtung durch eine Dimensionierungsstation zu befördern. Da sich jedes Paket in Inkrementen durch die Dimensionierungsstation bewegt, werden für jedes Inkrement eine oder mehrere Entfernungsmessungen durchgeführt, was zu einer Vielzahl solcher Entfernungsmessungen führt, die dann kombiniert und korrekt verarbeitet werden, um genaue, allgemeine Abmessungen jedes Pakets zu erhalten. Obwohl allgemein nützlich, hat dieses bekannte Dimensionierungsverfahren Nachteile, da es eine nicht zu vernachlässigende Zeit in Anspruch nimmt, die Pakete auf das Förderband zu legen und von diesem zu entfernen. Dieser Ladevorgang für den Container verzögert sich dadurch.
  • Dementsprechend wäre es wünschenswert, den Ladevorgang zu beschleunigen und effizienter durchzuführen und die Fracht vor dem Verladen ununterbrochen, reibungslos, kontinuierlich, schnell und kostengünstiger und flexibler zu dimensionieren, vorzugsweise während die Fracht mit einem Gabelstapler oder einem ähnlichem Industriefahrzeug bewegt wird.
  • Die hierin offenbarten beispielhaften Verfahren und Vorrichtungen stellen ein Dimensionierungssystem bereit zum Dimensionieren von Fracht, die sich entlang eines nicht eingeschränkten Pfades in einer Örtlichkeit (Verkaufsort), wie beispielsweise einem Lager oder einer ähnlichen Einrichtung, entweder drinnen oder draußen, bewegt. Ein hierin offenbartes beispielhaftes Dimensionierungssystem umfasst ein Entfernungssystem zum Erfassen einer Vielzahl von aufeinanderfolgenden Punktwolken von der sich bewegenden Fracht, ein Verfolgungssystem zum Verfolgen einer Vielzahl von aufeinanderfolgenden Positionen und Orientierungen der sich bewegenden Fracht und eine Rechenvorrichtung (z. B. ein Server, Prozessor oder programmierter Mikroprozessor), die sich in Kommunikation mit den Entfernungs- und Verfolgungssystemen befindet. Im Betrieb korreliert die Rechenvorrichtung jede aufeinanderfolgende Punktwolke mit jeder aufeinanderfolgenden Position und Orientierung der sich bewegenden Fracht, kombiniert die korrelierten Punktwolken zu einer zusammengesetzten Punktwolke der sich bewegenden Fracht und verarbeitet die zusammengesetzte Punktwolke zum Dimensionieren der sich bewegenden Fracht. Vorteilhafterweise weist das Verfolgungssystemen jeder aufeinanderfolgenden Position und Orientierung der sich bewegenden Fracht einen Zeitstempel zu und korreliert jede aufeinanderfolgende Punktwolke mit jeder aufeinanderfolgenden zeitgestempelten Position und Orientierung der sich bewegenden Fracht. Sobald die Fracht dimensioniert ist, kann sie beispielsweise effizient in einen Container verladen werden, typischerweise für den Transport zu Lande, auf der Schiene, zu Wasser, in der Luft etc.
  • In einigen hierin offenbarten Beispielen bewegt ein Frachtbeförderer, wie beispielsweise ein Gabelstapler, die Fracht entlang dem nicht eingeschränkten Pfad in der Örtlichkeit durch eine Dimensionierungszone vorbei an den Entfernungs- und Verfolgungssystemen. Das Entfernungssystem umfasst eine oder mehrere dreidimensionale (3D-)Kameras, die stationär in der Örtlichkeit montiert und in der Dimensionierungszone, durch die die Fracht bewegt wird, aufgestellt sind. Jede 3D-Kamera hat ein Sichtfeld, über welches jede Punktwolke von der Fracht erfasst wird. Die 3D-Kameras haben Kamerasensoren, die auf die sich bewegende Fracht entlang verschiedener Sichtlinien gerichtet sind. Die zusammengesetzte Punktwolke umfasst Datenpunkte von der Fracht und von dem Frachtbeförderer, und die Rechenvorrichtung ist ausgeführt zum Extrahieren der Datenpunkte von dem Frachtbeförderer aus der zusammengesetzten Punktwolke, zum Einschließen der extrahierten zusammengesetzten Punktwolke mit einer Begrenzungsbox mit Abmessungen, und zum Dimensionieren der sich bewegenden Fracht aus den Abmessungen der Begrenzungsbox.
  • Das Verfolgungssystem umfasst einen Detektor, der am Frachtbeförderer oder in der Örtlichkeit montiert ist und jede aufeinanderfolgende Position und Ausrichtung der sich bewegenden Fracht erfasst. In einigen Ausführungsformen umfasst das Verfolgungssystem einen Emitter zum Aussenden eines Signals, und der Detektor erfasst das ausgesendete Signal. In einigen Ausführungsformen ist jeder des Emitters oder des Detektors am Frachtbeförderer zur gemeinsamen Bewegung mit diesem montiert, und der andere des Emitters und des Detektors ist an der Örtlichkeit entfernt vom Frachtbeförderer montiert. In einigen Ausführungsformen umfasst der Emitter eine oder mehrere Leuchtdioden (LEDs), die am Frachtbeförderer montiert sind, um Licht in einem vorbestimmten Lichtmuster zu emittieren, und der Detektor umfasst eine oder mehrere Kameras, die stationär an der Örtlichkeit montiert sind, um das vorbestimmte Lichtmuster zu erfassen. In einigen Ausführungsformen umfasst der Detektor eine Kamera, die am Frachtbeförderer montiert ist, und die Kamera bildet ein oder mehrere Merkmale ab, die an bekannten, festen Positionen in der Örtlichkeit angeordnet sind, um jede aufeinanderfolgende Position und Ausrichtung der sich bewegenden Fracht zu lokalisieren.
  • Gemäß dieser Offenbarung erfordert die Dimensionierung der Fracht nicht, dass die Fracht an einer Dimensionierungsstation stationär gehalten wird. Ebenso wenig muss die Fracht auf dem eingeschränkten Pfad eines Förderbandes bewegt oder auf das Förderband geladen und von dort entladen werden, um dimensioniert zu werden. Vielmehr ermöglichen die hierin offenbarten beispielhaften Verfahren und Vorrichtungen eine Dimensionierung der Fracht, während sich die Fracht in Bewegung befindet, beispielsweise während sie kontinuierlich zum Container bewegt wird, was den Ladevorgang beschleunigt und den Ladevorgang effizienter gestaltet.
  • Ein hierin offenbartes beispielhaftes Verfahren zielt darauf ab, eine sich bewegende Fracht, die sich in Bewegung befindet, entlang eines nicht eingeschränkten Pfades in einer Örtlichkeit zu dimensionieren. Das beispielhafte Verfahren umfasst das Erfassen einer Vielzahl von aufeinanderfolgenden Punktwolken von der sich bewegenden Fracht, das Verfolgen einer Vielzahl von aufeinanderfolgenden Positionen und Ausrichtungen der sich bewegenden Fracht, das Korrelieren jeder aufeinanderfolgenden Punktwolke mit jeder aufeinanderfolgenden Position und Ausrichtung der sich bewegenden Fracht, das Kombinieren der korrelierten Punktwolken, um eine zusammengesetzte Punktwolke der sich bewegenden Fracht zu erhalten, und das Verarbeiten der zusammengesetzten Punktwolke, um die sich bewegende Fracht zu dimensionieren.
  • Mit Bezug zu den Figuren, zeigt 1 eine Örtlichkeit 10, wie beispielsweise ein Lager oder eine ähnliche Einrichtung im Innen- oder Außenbereich, in der Fracht 12, der Einfachheit halber als quaderförmige Kartons dargestellt, beispielsweise von Frachtbeförderern, wie Industriefahrzeugen, bewegt wird, z. B. Gabelstapler 22 mit angetriebenen, gezinkten Plattformen zum Heben und Senken der Fracht 12. Wie in den 1-2 und 4-5 gezeigt, bewegen die Gabelstapler 22 die Fracht 12 unter einer Decke 14 der Örtlichkeit 10 durch mindestens eine Dimensionierungszone oder Station 18 auf und angrenzend an einen Boden der Örtlichkeit 10, wo die sich bewegende Fracht 12, wie nachfolgend im Detail beschrieben, dimensioniert wird. In einigen Fällen befinden sich die Dimensionierungszonen 18 an oder in der Nähe von Türen oder Portalen der Örtlichkeit 10, z. B. angrenzende Laderampen oder Docks, und die Fracht 12 wird mit den Gabelstaplern 22 zu Containern bewegt, wie beispielsweise Anhänger, die mit Lastkraftwagen 24, Transportern, Eisenbahnwaggons, Booten, Flugzeugen usw. transportiert werden. Die Frachtbeförderer müssen nicht nur Gabelstapler 22 sein, sondern können jedes beliebige Fahrzeug (z. B. ein Luftfahrzeug, wie z. B. eine Drohne) sein, entweder manuell oder durch einen Motor angetrieben, entweder vom Personal angetrieben oder autonom betrieben, z. B. von einem Roboter oder einer Rechenvorrichtung. Die Frachtbeförderer brauchen überhaupt kein Fahrzeug zu sein und kann auch Personal umfassen, das die Fracht 12 von Ort zu Ort per Hand transportiert. Jeder Frachtbeförderer hat Bewegungsfreiheit und kann die Fracht 12 entlang eines nicht eingeschränkten Pfades bewegen, z. B. kann sich der Frachtbeförderer vorwärts oder rückwärts bewegen, kann anhalten und starten, kann sich nach rechts oder nach links drehen, kann die Richtung ändern, kann sich mit beliebiger Geschwindigkeit bewegen und kann die Position und Ausrichtung der Fracht 12 während solcher Bewegungen ändern.
  • In dem veranschaulichten Beispiel wird die sich bewegliche Fracht während der Bewegung durch ein Dimensionierungssystem dimensioniert, das ein Entfernungssystem umfasst, das, wie nachstehend in Verbindung mit 2 beschrieben, eine Vielzahl von aufeinanderfolgenden Punktwolken von der sich bewegenden Fracht 12 erfasst, ein Verfolgungssystem umfasst zum Verfolgen, wie nachstehend in Verbindung mit den 4-5 beschrieben, einer Vielzahl von aufeinanderfolgenden Positionen und Ausrichtungen der sich bewegenden Fracht 12, und eine Rechenvorrichtung 16 umfasst (z. B. ein Server, Prozessor oder programmierter Mikroprozessor), die mit den Entfernungs- und Verfolgungssystemen in Verbindung steht. Wie in 1 dargestellt, befindet sich die Rechenvorrichtung oder der Hostserver 16 typischerweise in einem Hinterzimmer an der Örtlichkeit 10 und umfasst eine oder mehrere programmierte Rechenvorrichtungen und befindet sich in kabelgebundener, drahtloser, direkter oder vernetzter Kommunikation mit den Entfernungs- und Verfolgungssystemen. Der Server 16 ist vorzugsweise ein lokaler Computer, kann aber auch ein entfernter Cloud-Server sein. Der Server 16 kann einen drahtlosen RF-Transceiver aufweisen, der mit den Entfernungs- und Verfolgungssystemen kommuniziert. So sind beispielsweise Wi-Fi und Bluetooth® offene drahtlose Standards für den Datenaustausch zwischen elektronischen Geräten. Obwohl in 1 als Hostserver 16 dargestellt, ist jeder geeignete Typ von Rechenvorrichtung möglich.
  • Wie in der beispielhaften Ausführungsform von 2 dargestellt, umfasst das Entfernungssystem eine oder mehrere dreidimensionale (3D-)Kameras 20, die stationär und fest in der Örtlichkeit 10 montiert sind, beispielsweise an gegenüberliegenden Seiten der Dimensionierungszone 18 in Bodennähe, wie dargestellt, und/oder darüber oder angrenzend an die Decke 14, oberhalb der Dimensionierungszone 18. Die 3D-Kameras 20 werden um die Dimensionierungszone 18 angeordnet, durch die die Fracht 12 zum Container transportiert wird, und auf die Fracht 12 entlang verschiedener, sich kreuzender Sichtlinien gerichtet. Die 3D-Kameras 20 können entweder direkt auf direkten Pfaden, wie dargestellt, oder indirekt entlang gefalteter Pfade durch Verwenden von Außenspiegeln auf die Fracht 12 gerichtet sein. Die 3D-Kameras 20 haben Sensoren mit Winkelsichtfeldern, die jeweils allgemein auf eine entsprechende Sichtlinie ausgerichtet sind. Wie nachfolgend beschrieben, erfassen die 3D-Kameras 20 eine Vielzahl von Punktwolken 62A-62H (siehe 3) von Bildpunkten oder Datenpunkten vom Gabelstapler 22 und der sich bewegenden Fracht 12. Alternativ werden eine oder mehrere der 3D-Kameras 20 entlang der gleichen Sichtlinie auf die Fracht 12 gerichtet und erfassen verschiedene Punktwolken, indem sie ihre Sensoren bei unterschiedlichen Wellenlängen betreiben.
  • Im dargestellten Beispiel umfasst jede 3D-Kamera 20 die Time-of-Flight (TOF)-Technologie (Laufzeittechnologie), bei der der Sensor eine zweidimensionale Anordnung von Sensoren oder Pixeln ist, wie beispielsweise eine ladungsgekoppelte Vorrichtung (CCD) oder eine komplementäre Metalloxid-Halbleiter-(CMOS)-Vorrichtung, zusammen mit einer aktiven modulierten Lichtquelle, wie beispielsweise einem Festkörperlaser oder einer Leuchtdiode (LED), die im Nahinfrarotbereich, z. B. zwischen 700 nm und 1000 nm, arbeitet. Die Lichtquelle beleuchtet die Fracht 12 mit ausgesendetem Beleuchtungslicht, und das reflektierte zurückkehrende Licht wird erfasst. Die Phasenverschiebung zwischen dem ausgesendeten und dem zurückkehrenden Licht wird gemessen und in Entfernungswerte umgewandelt, die Entfernungen (Tiefe) zwischen der 3D-Kamera 20 und der Fracht 12 anzeigen. Zusätzlich zu oder anstelle der 3D-Kameras 20 mit TOF-Technologie können auch andere 3D-Technologien wie Stereosehen (Stereovision) und strukturiertes Licht eingesetzt werden. In einigen Ausführungsformen ersetzt eine Reihe von zweidimensionalen Kameras eine einzelne 3D-Kamera. In einigen Beispielen sind die 3D-Kameras 20 nicht alle identisch, sondern von unterschiedlicher Art und in beliebiger Kombination angeordnet.
  • Im veranschaulichten Beispiel betreibt der Server 16 sequentiell jede 3D-Kamera 20, um eine Vielzahl oder einen Satz oder eine Sammlung von inkrementellen Punktwolken 62A-62H (siehe 3) von Bildpunkten oder Datenpunkten aus der Kombination des Gabelstaplers 22 und der sich bewegenden Fracht 12 aufzunehmen. Jeder Bildpunkt oder Datenpunkt ist einem Satz von Koordinaten zugeordnet, z. B. kartesischen Koordinaten (x, y, z), die zusammen eine Position jedes Datenpunkts definieren. Jeder Bildpunkt oder Datenpunkt weist auch einen Entfernungs- oder Tiefenwert auf, der einen Abstand zwischen einer jeweiligen 3D-Kamera 20 und der Kombination Fracht 12/Gabelstapler 22 anzeigt, und/oder einen Intensitätswert, der eine empfangenen Signalstärke, die durch die jeweilige 3D-Kamera 20 von der Kombination Fracht 12/Gabelstapler 22 aufgenommen wurde, anzeigt.
  • Der Server 16 kombiniert jede dieser inkrementellen Punktwolken 62A-62H zusammen, um die Fracht 12 zu dimensionieren. Bekannte Systeme können Überlappungen zwischen aufeinanderfolgenden Punktwolken verwenden, um die aufeinanderfolgenden Punktwolken auszurichten, indem sie einen iterativen Nächster-Punkt (ICP - iterative closest point)-Algorithmus ausführen. Dies ist jedoch eine rechenintensive und zeitaufwändige Aufgabe, die nicht nur das Erfassen und Verarbeiten einer großen Menge redundanter Informationen erfordert, sondern auch eine großzügige Überlappung zwischen aufeinanderfolgenden Punktwolken, die möglicherweise nicht verfügbar ist, insbesondere wenn in den 3D-Kameras 20 Sensoren mit engen Sichtfeldern eingesetzt werden. Die nicht eingeschränkte Bewegung der Fracht 12 erschwert diese Aufgabe zusätzlich, da solche Überlappungen oft nicht vorhanden sind und es keine verfügbaren oder zuverlässigen Ausrichtungsinformationen zwischen den aufeinanderfolgenden Punktwolken gibt. So weiß der Server 16 beispielsweise nicht, ob die Fracht 12 vorwärts oder rückwärts bewegt wurde, ob sie gestoppt und gestartet wurde, ob sie nach rechts oder links gedreht wurde, ob sie die Richtung geändert hat, ob sie die Geschwindigkeit geändert hat oder ob sie während der Bewegung ihre Position und Ausrichtung geändert hat.
  • Um solche Ausrichtungsinformationen bereitzustellen, umfasst das beispielhafte Verfolgungssystem der 4-5 einen Detektor, der am Frachtbeförderer 22 oder in der Örtlichkeit 10 montiert ist, und erfasst jede aufeinanderfolgende Position und Ausrichtung der sich bewegenden Fracht 12. In der Ausführungsform von 4 umfasst ein Emitter eine oder mehrere Leuchtdioden (LEDs) 26, die auf einem Dach des Frachtbeförderers 22 montiert sind, um Licht in einem vorbestimmten Lichtmuster zu emittieren, und der Detektor umfasst eine oder mehrere Kameras 28, die stationär über Kopf in der Örtlichkeit 10 montiert sind, um das vorbestimmte Lichtmuster des emittierten Lichts zu erfassen. Wie im dargestellten Beispiel gezeigt, sind drei LEDs 26 in einer Reihe an einer Vorderkante des Daches und eine vierte LED zentral an einer Hinterkante des Daches montiert. Andere Muster der LEDs werden in Betracht gezogen. Die LEDs müssen nicht nur auf dem Dach montiert sein, sondern können auch irgendwo auf dem Gabelstapler 22 montiert sein. In einigen Beispielen erkennen die Überkopfkameras 28 das Muster der LEDs und die Bewegungsrichtung des Gabelstaplers 22. In der Ausführungsform von 5 umfasst der Detektor eine nach oben gerichtete Kamera 30, die auf dem Dach des Frachtbeförderers 22 montiert ist, und die Kamera 30 bildet vorbestimmte Merkmale 32 ab, die an bekannten, festen Positionen der Örtlichkeit 10, z. B. überkopf an der Decke 14, angeordnet sind, um jede aufeinanderfolgende Position und Ausrichtung der sich bewegenden Fracht 12 zu lokalisieren. Das Verfolgungssystem muss nicht lichtbasiert sein, wie in den FIGs dargestellt. 4-5. So können beispielsweise Ultraschallemitter und -empfänger verwendet werden, um den Gabelstapler 22 zu verfolgen. Als weiteres Beispiel könnten Radiofrequenzsender und -empfänger verwendet werden, um den Gabelstapler 22 zu verfolgen.
  • Der beispielhafte Server 16 korreliert jede aufeinanderfolgende Punktwolke mit jeder aufeinanderfolgenden Position und Ausrichtung der sich bewegenden Fracht 12, kombiniert die korrelierten Punktwolken zu einer zusammengesetzten Punktwolke der sich bewegenden Fracht 12 und verarbeitet die zusammengesetzte Punktwolke zum Dimensionieren der sich bewegenden Fracht 12. Vorteilhafterweise weist das Verfolgungssystem jeder aufeinanderfolgenden Position und Ausrichtung der sich bewegenden Fracht 12 einen Zeitstempel zu und korreliert jede aufeinanderfolgenden Punktwolke mit jeder aufeinanderfolgenden zeitgestempelten Position und Ausrichtung der sich bewegenden Fracht 12. Insbesondere arbeiten die Kameras 28, 30 mit einer Framerate (Bildrate), z. B. 30-60 Frames pro Sekunde oder Hertz, und die jedem Frame zugeordnete Zeit entspricht der Zeit, die für jede aufeinanderfolgende Position und Ausrichtung von den Kameras 28, 30 erfasst wird.
  • Insbesondere schätzt der Server 16 die Dimensionen der sich bewegenden Fracht 12, indem er einen oder mehrere Dimensionierungsalgorithmen, wie in 9 schematisch dargestellt, auf die Datenpunkte der erfassten und korrelierten Punktwolken anwendet. Wie im Blockdiagramm von 6 dargestellt, erfasst somit jede (1 .... n) der 3D-Kameras 20 die Punktwolken (Blöcke 46). Der Server 16 weist jede der 3D-Kameras 20 von 6 an, sequentiell zu arbeiten (Block 38). Jede aufeinanderfolgende Punktwolke umfasst Datenpunkte von der Fracht 12 und von dem Hintergrund, z. B. vom Gabelstapler 22 und anderen Umgebungsstrukturen. Darüber hinaus verfolgt jede (1 .... n) der Kameras, z. B. die Kameras 28 von 4, eine Vielzahl von aufeinanderfolgenden Positionen und Ausrichtungen und entsprechenden Zeiten der sich bewegenden Fracht 12 (Blöcke 48) und aggregiert alle Positionen und Ausrichtungen und entsprechenden Zeiten von allen Kameras 28 (Block 49). Der Server 16 korreliert jede aufeinanderfolgende Punktwolke mit der aggregierten zeitgestempelten Position und Ausrichtung der sich bewegenden Fracht 12 und kombiniert die korrelierten Punktwolken, um, wie in 7 dargestellt, eine kombinierte Punktwolke 42 zu erhalten, die Datenpunkte von der Fracht 12 und von dem Hintergrund umfasst, z. B. dem Gabelstapler 22 und anderen Umgebungsstrukturen (Block 50).
  • Die Datenpunkte vom Hintergrund werden von den Datenpunkten von der Fracht 12 getrennt und entfernt, um, wie in 8 dargestellt, eine kombinierte Punktwolke 44 von lediglich der Fracht 12 zu bilden (Block 52). Wie in 9 dargestellt, wird nach dem Erfassen und Korrelieren der Punktwolken (Block 100) das Erfassen des Hintergrunds durchgeführt (Block 102), indem aus den Datenpunkten die Ebene mit der größten Fläche im Sichtfeld bestimmt wird, z. B. durch Ausführen eines RANSAC-Algorithmus (random sampling consensus). Details zur Ebenenerfassung mit dem RANSAC-Algorithmus können unter Bezugnahme auf „Plane Detection in Point Cloud Data“, von Yang et al., Technical Report No. 1, Department of Photogrammetry, Universität Bonn, 25. Januar 2010, eingesehen werden, deren gesamter Inhalt hierin durch Bezugnahme aufgenommen wird.
  • Nachdem die Basisebene oder der Hintergrund erfasst wurde, werden die Datenpunkte der Basisebene aus der kombinierten Punktwolke 42 entfernt. Die restlichen Datenpunkte werden dann gebündelt, z. B. durch euklidisches Clustern (Block 104). Das heißt, eine Vielzahl der Datenpunkte sind in Gruppen organisiert, die eine Ähnlichkeit aufweisen, z. B. eine Entfernung oder Nähe zueinander. Mit den geclusterten Datenpunkten wird die Fracht 12 extrahiert und lokalisiert (Block 106).
  • Der Server 16 bildet eine minimale Begrenzungsbox (siehe auch 8) über die zusammengesetzte Punktwolke 44 (Block 54). Die Begrenzungsbox hat Höhen-, Breiten- und Tiefendimensionen, und diese Dimensionen, wie sie aus der Begrenzungsbox bestimmt werden, werden zum Dimensionieren der Fracht 12 verwendet (Block 56). Insbesondere werden die extrahierten, geclusterten Datenpunkte, die zu der Fracht 12 gehören, zu einer konvexen Hülle verarbeitet (Block 108). Die konvexe Hülle bildet nur diejenigen äußeren Datenpunkte, die sich an der äußeren Begrenzung oder Umhüllung der zur Fracht 12 gehörenden Datenpunkte befinden. Im veranschaulichten Beispiel wird die konvexe Hülle der Fracht 12 bestimmt, und die restlichen inneren Datenpunkte der zur Fracht 12 innerhalb der konvexen Hülle gehörenden Datenpunkte werden verworfen.
  • Die Begrenzungsbox ist so angepasst, dass sie die konvexe Hülle mit einem Mindestvolumen umschließt (Block 110). Im dargestellten Beispiel hat die Begrenzungsbox eine rechteckige Parallel- oder Quaderform mit drei Paaren von zueinander orthogonalen ebenen Flächen und ist um die konvexe Hülle herum angepasst. Wie in 8 zu sehen ist, entspricht das Volumen der Begrenzungsbox nahezu den Dimensionen oder dem Volumen der extrahierten, geclusterten Datenpunkte der Fracht 12, wodurch die Fracht 12 genau dimensioniert wird. Die Begrenzungsbox wird mit bestimmten flächigen Begrenzungen ausgerichtet. Insbesondere ist mindestens eine der Flächen der Begrenzungsbox, z. B. eine Oberseite, im Allgemeinen parallel zum Boden ausgerichtet, und gleichzeitig ist eine der anderen Flächen der Begrenzungsbox, z. B. eine Seitenfläche, orthogonal zur Oberseite ausgerichtet.
  • Im veranschaulichten Beispiel wird die Fracht 12 gewogen (Block 58). Alternativ wird das Wiegen entweder vor oder während der Dimensionierung durchgeführt. Im dargestellten Beispiel wird die Fracht 12 effizient in einen Container verladen, typischerweise für den Transport zu Lande, auf der Schiene, zu Wasser, in der Luft etc. (Block 60).
  • In der vorstehenden Beschreibung wurden spezifische Ausführungsformen beschrieben. Ein Durchschnittsfachmann erkennt jedoch, dass verschiedene Modifikationen und Änderungen vorgenommen werden können, ohne den Schutzumfang der hierin offenbarten beispielhaften Verfahren und Vorrichtungen zu verlassen. Dementsprechend sind die Beschreibung und die Figuren vielmehr in einem illustrativen als in einem einschränkenden Sinne zu betrachten, und alle derartigen Modifikationen sollen im Umfang der vorliegenden Lehren eingeschlossen sein.
  • Die Nutzen, Vorteile, Lösungen für Probleme und alle Elemente, die zum Auftreten oder einer Verstärkung eines Nutzens, eines Vorteils, oder einer Lösung führen können, sind nicht als kritische, erforderliche oder wesentliche Merkmale oder Elemente in einigen oder sämtlichen Ansprüchen zu verstehen.
  • Darüber hinaus können in diesem Dokument relationale Begriffe wie erster und zweiter, oberer und unterer und dergleichen lediglich verwendet sein, um eine Entität oder Aktion von einer anderen Entität oder Aktion zu unterscheiden, ohne notwendigerweise eine tatsächliche derartige Beziehung oder Reihenfolge zwischen solchen Entitäten oder Aktionen zu erfordern oder zu implizieren. Die Ausdrücke „umfasst“, „umfassend“, „hat“, „haben“, „aufweist“, „aufweisen“, „enthält“, „enthalten“ oder jede andere Variation davon sollen eine nicht-ausschließliche Einbeziehung abdecken, derart, dass ein Prozess, Verfahren, Produkt oder Vorrichtung, das eine Liste von Elementen umfasst, hat, aufweist, enthält, nicht nur diese Elemente aufweist, sondern auch andere Elemente aufweisen kann, die nicht ausdrücklich aufgelistet sind oder einem solchen Prozess, Verfahren, Produkt oder Vorrichtung inhärent sind. Ein Element, dem „umfasst ... ein“, „hat... ein“, „aufweist ... ein“ oder „enthält ...ein“ vorausgeht, schließt ohne weitere Einschränkungen die Existenz zusätzlicher identischer Elemente in dem Prozess, dem Verfahren, dem Produkt oder der Vorrichtung, die das Element umfasst, hat, aufweist oder enthält, nicht aus. Die Begriffe „ein“ und „eine“ sind als eine oder mehrere definiert, sofern es hierin nicht ausdrücklich anders angegeben wird. Die Begriffe „im Wesentlichen“, „im Allgemeinen“, „ungefähr“, „etwa“ oder jede andere Version davon sind so definiert, dass sie von einem Fachmann auf diesem Gebiet nahekommend verstanden werden, und in einer nicht-einschränkenden Ausführungsform ist der Ausdruck definiert als innerhalb von 10%, in einer weiteren Ausführungsform als innerhalb von 5%, in einer weiteren Ausführungsform als innerhalb von 1% und in einer weiteren Ausführungsform als innerhalb von 0,5%. Der Ausdruck „gekoppelt“, wie er hierin verwendet wird, ist als verbunden definiert, jedoch nicht notwendigerweise direkt und nicht notwendigerweise mechanisch. Eine Vorrichtung oder eine Struktur, die auf eine bestimmte Art „ausgeführt“ ist, ist zumindest auch so ausgeführt, kann aber auch auf Arten ausgeführt sein, die nicht aufgeführt sind.
  • Es versteht sich, dass einige Ausführungsformen von einem oder mehreren generischen oder spezialisierten Prozessoren (oder „Verarbeitungsgeräten“) wie Mikroprozessoren, digitale Signalprozessoren, kundenspezifische Prozessoren und Field-Programmable-Gate-Arrays (FPGAs) und einmalig gespeicherten Programmanweisungen (einschließlich sowohl Software als auch Firmware) umfasst sein können, die den einen oder die mehreren Prozessoren steuern, um in Verbindung mit bestimmten Nicht-Prozessorschaltungen einige, die meisten oder alle der hierin beschriebenen Funktionen des Verfahrens und/oder der Vorrichtung zu implementieren. Alternativ können einige oder alle Funktionen durch eine Zustandsmaschine implementiert sein, die keine gespeicherten Programmanweisungen aufweist, oder in einer oder mehreren anwendungsspezifischen integrierten Schaltungen (ASICs), in denen jede Funktion oder einige Kombinationen von bestimmten Funktionen als benutzerdefinierte Logik implementiert sind. Natürlich kann eine Kombination der beiden Ansätze verwendet werden.
  • Darüber hinaus kann eine Ausführungsform als ein computerlesbares Speichermedium implementiert sein, auf dem computerlesbarer Code gespeichert ist, um einen Computer (der zum Beispiel einen Prozessor umfasst) zu programmieren, um ein Verfahren auszuführen, wie es hierin beschrieben und beansprucht ist. Beispiele solcher computerlesbaren Speichermedien weisen eine Festplatte, eine CD-ROM, eine optische Speichervorrichtung, eine magnetische Speichervorrichtung, einen ROM (Nur-Lese-Speicher), einen PROM (programmierbarer Nur-Lese-Speicher), einen EPROM (löschbarer programmierbarer Nur-Lese-Speicher), einen EEPROM (elektrisch löschbarer programmierbarer Nur-Lese-Speicher) und einen Flash-Speicher auf, sind aber nicht hierauf beschränkt auf. Ferner wird davon ausgegangen, dass ein Durchschnittsfachmann, ungeachtet möglicher signifikanter Anstrengungen und vieler Designwahlen, die zum Beispiel durch verfügbare Zeit, aktuelle Technologie und wirtschaftliche Überlegungen motiviert sind, ohne Weiteres in der Lage ist, solche Softwareanweisungen und -programme und ICs mit minimalem Experimentieren zu generieren, wenn er durch die hierin offenbarten Konzepte und Prinzipien angeleitet wird.
  • Die Zusammenfassung der Offenbarung wird bereitgestellt, um es dem Leser zu ermöglichen, schnell das Wesen der technischen Offenbarung zu ermitteln. Sie wird mit dem Verständnis bereitgestellt, dass sie nicht zur Auslegung oder Einschränkung des Umfangs oder der Bedeutung der Ansprüche verwendet wird. Ferner kann der vorangehenden detaillierten Beschreibung entnommen werden, dass verschiedene Merkmale in verschiedenen Ausführungsformen zum Zwecke der Verschlankung der Offenbarung zusammengefasst sind. Diese Art der Offenbarung ist nicht so auszulegen, dass es die Absicht widerspiegelt, dass die beanspruchten Ausführungsformen mehr Merkmale erfordern, als ausdrücklich in jedem Anspruch angegeben sind. Vielmehr ist es so, wie die folgenden Ansprüche zeigen, dass der erfinderische Gegenstand in weniger als allen Merkmalen einer einzigen offenbarten Ausführungsform liegt. Somit werden die folgenden Ansprüche hiermit in die detaillierte Beschreibung inkorporiert, wobei jeder Anspruch für sich als ein separat beanspruchter Gegenstand steht.

Claims (20)

  1. Dimensionierungssystem zum Dimensionieren einer sich bewegenden Fracht, die sich entlang eines nicht unterbrochenen Pfades in einer Örtlichkeit bewegt, wobei das Dimensionierungssystem umfasst: ein Entfernungssystem, das ausgeführt ist, um eine Vielzahl von aufeinanderfolgenden Punktwolken zu erfassen, die für die sich bewegende Fracht repräsentativ sind; ein Verfolgungssystem, das ausgeführt ist, um eine Vielzahl von aufeinanderfolgenden Positionen und Ausrichtungen der sich bewegenden Fracht zu verfolgen; und eine Rechenvorrichtung, die in Kommunikation mit dem Entfernungssystem und dem Verfolgungssystem steht, wobei die Rechenvorrichtung ausgeführt ist, zum: Korrelieren jeder der aufeinanderfolgenden Punktwolken mit jeder der aufeinanderfolgenden Positionen und Ausrichtungen der sich bewegenden Fracht; Kombinieren der korrelierten Punktwolken, um eine zusammengesetzte Punktwolke zu erhalten, die für die sich bewegende Fracht repräsentativ ist; und Verarbeiten der zusammengesetzte Punktwolke, um die sich bewegende Fracht zu dimensionieren.
  2. Dimensionierungssystem nach Anspruch 1, wobei ein Frachtbeförderer zum Bewegen der Fracht entlang des nicht unterbrochenen Pfades vorbei an den Entfernungs- und Verfolgungssystemen ausgeführt ist.
  3. Dimensionierungssystem nach Anspruch 2, wobei die zusammengesetzte Punktwolke Datenpunkte umfasst, die mit der Fracht und dem Frachtbeförderer korrespondieren, und die Rechenvorrichtung ausgeführt ist zum: Entfernen der Datenpunkte, die mit dem Frachtbeförderer aus der zusammengesetzten Punktwolke korrespondieren; Umschließen der Datenpunkte der zusammengesetzten Punktwolke mit einer Begrenzungsbox mit Dimensionen; und Dimensionieren der sich bewegenden Fracht anhand der Dimensionen der Begrenzungsbox.
  4. Dimensionierungssystem nach Anspruch 2, wobei das Verfolgungssystem einen Detektor umfasst, der an einem des Frachtbeförderers und der Örtlichkeit montiert ist und ausgeführt ist, um jede der aufeinanderfolgenden Positionen und Ausrichtungen der sich bewegenden Fracht zu erfassen.
  5. Dimensionierungssystem nach Anspruch 4, wobei: das Verfolgungssystem einen Emitter umfasst, der ausgeführt ist, um ein Signal auszusenden; der Detektor ausgeführt ist, das ausgesendete Signal zu erfassen; einer des Emitters und des Detektors auf dem Frachtbeförderer für eine gemeinsame Bewegung mit diesem montiert ist; und der andere des Emitters und des Detektors in der Örtlichkeit entfernt vom Frachtbeförderer montiert ist.
  6. Dimensionierungssystem nach Anspruch 5, wobei: der Emitter mindestens eine an dem Frachtbeförderer montierte Leuchtdiode (LED) umfasst, die ausgeführt ist, um Licht in einem vorbestimmten Lichtmuster zu emittieren, und der Detektor mindestens eine Kamera umfasst, die stationär in der Örtlichkeit montiert ist, um das vorbestimmte Lichtmuster zu erfassen.
  7. Dimensionierungssystem nach Anspruch 5, wobei der Detektor eine Kamera umfasst, die am Frachtbeförderer montiert ist und konfiguriert ist, um mindestens ein Merkmal abzubilden, das an einem bekannten, festen Ort in der Örtlichkeit angeordnet ist, um jede der aufeinanderfolgenden Positionen und Ausrichtungen der sich bewegenden Fracht zu lokalisieren.
  8. Dimensionierungssystem nach Anspruch 1, wobei das Entfernungssystem mindestens eine dreidimensionale (3D) Kamera umfasst, die an einem Ort angeordnet ist, durch den die Fracht bewegt wird.
  9. Dimensionierungssystem nach Anspruch 8, wobei die mindestens eine 3D-Kamera stationär in der Örtlichkeit montiert ist und die 3D-Kamera einen Sensor umfasst, der auf einen Bereich einer erwarteten Bewegung ausgerichtet ist, die mit der sich bewegenden Fracht assoziiert ist.
  10. Dimensionierungssystem nach Anspruch 1, wobei das Verfolgungssystem konfiguriert ist zum: Zuweisen eines Zeitstempels zu jeder der aufeinanderfolgenden Positionen und Ausrichtungen der sich bewegenden Fracht; und Korrelieren jeder der aufeinanderfolgenden Punktwolken mit jeder der aufeinanderfolgenden zeitgestempelten Positionen und Ausrichtungen der sich bewegenden Fracht.
  11. Verfahren zum Dimensionieren einer sich bewegenden Fracht, die sich entlang eines nicht unterbrochenen Pfades in einer Örtlichkeit bewegt, wobei das Verfahren umfasst: Erfassen einer Vielzahl von aufeinanderfolgenden Punktwolken, die für die sich bewegende Fracht repräsentativ sind; Verfolgen einer Vielzahl von aufeinanderfolgenden Positionen und Ausrichtungen der sich bewegenden Fracht; Korrelieren jeder der aufeinanderfolgenden Punktwolken mit jeder der aufeinanderfolgenden Positionen und Ausrichtungen der sich bewegenden Fracht; Kombinieren der korrelierten Punktwolken, um eine zusammengesetzte Punktwolke der sich bewegenden Fracht zu erhalten; und Verarbeiten der zusammengesetzten Punktwolke zum Dimensionieren der sich bewegenden Fracht.
  12. Verfahren nach Anspruch 11, wobei ein Frachtbeförderer die Fracht entlang des nicht unterbrochenen Pfades in der Örtlichkeit bewegt.
  13. Verfahren nach Anspruch 12, wobei: die zusammengesetzte Punktwolke Datenpunkte umfasst, die für die Fracht und den Frachtbeförderer repräsentativ sind; das Verarbeiten durchgeführt wird durch: Entfernen der Datenpunkte, die mit dem Frachtbeförderer aus der zusammengesetzten Punktwolke korrespondieren; Einschließen der zusammengesetzten Punktwolke mit einer Begrenzungsbox mit Dimensionen; und Dimensionierung der sich bewegenden Fracht aus den Dimensionen der Begrenzungsbox.
  14. Verfahren nach Anspruch 12, ferner umfassend Erfassen jeder der aufeinanderfolgenden Positionen und Ausrichtungen der sich bewegenden Fracht mit einem Detektor, der an einem des Frachtbeförderers und der Örtlichkeit montiert ist.
  15. Verfahren nach Anspruch 14, wobei: die Verfolgung erfolgt durch Aussenden eines Signals von einem Emitter, der an einem des Frachtbeförderers und der Örtlichkeit montiert ist; und der Detektor das ausgesendete Signal erfasst, wobei der Detektor auf dem anderen des Frachtbeförderers und der Örtlichkeit montiert ist.
  16. Verfahren nach Anspruch 15, ferner umfassend Konfigurieren des Emitters mit mindestens einer Leuchtdiode (LED), die an dem Frachtbeförderer montiert ist, um Licht in einem vorbestimmten Lichtmuster zu emittieren, und Konfigurieren des Detektors mit mindestens einer Kamera, die stationär an der Örtlichkeit montiert ist, um das vorbestimmte Lichtmuster zu erfassen.
  17. Verfahren nach Anspruch 14, ferner umfassend Konfigurieren des Detektors mit einer Kamera, die an dem Frachtbeförderer montiert ist, um mindestens ein Merkmal abzubilden, das an einem bekannten, festen Ort in der Örtlichkeit angeordnet ist, um jede der aufeinanderfolgenden Positionen und Ausrichtungen der sich bewegenden Fracht zu lokalisieren.
  18. Verfahren nach Anspruch 11, wobei das Erfassen durch Anordnen mindestens einer dreidimensionalen (3D-)Kamera an einem Ort, durch den die Fracht bewegt wird, durchgeführt wird.
  19. Verfahren nach Anspruch 18, ferner umfassend ein stationäres Montieren der mindestens einen 3D-Kamera in der Örtlichkeit in einem Bereich einer erwarteten Bewegung, die mit der sich bewegenden Fracht assoziiert ist.
  20. Verfahren nach Anspruch 11, ferner umfassend Zuweisen eines Zeitstempels zu jeder der aufeinanderfolgenden Positionen und Ausrichtungen der sich bewegenden Fracht und Korrelieren jeder der aufeinanderfolgenden Punktwolken mit jeder der aufeinanderfolgenden zeitgestempelten Positionen und Ausrichtungen der sich bewegenden Fracht.
DE112017005910.0T 2016-11-22 2017-10-20 Dimensionierungssystem zum und Verfahren zum Dimensionieren von sich entlang eines nicht eingeschränkten Pfades in einer Örtlichkeit bewegender Fracht Pending DE112017005910T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/358,810 2016-11-22
US15/358,810 US10451405B2 (en) 2016-11-22 2016-11-22 Dimensioning system for, and method of, dimensioning freight in motion along an unconstrained path in a venue
PCT/US2017/057669 WO2018097915A1 (en) 2016-11-22 2017-10-20 Dimensioning system for, and method of, dimensioning freight in motion along an unconstrained path in a venue

Publications (1)

Publication Number Publication Date
DE112017005910T5 true DE112017005910T5 (de) 2019-08-29

Family

ID=62146869

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112017005910.0T Pending DE112017005910T5 (de) 2016-11-22 2017-10-20 Dimensionierungssystem zum und Verfahren zum Dimensionieren von sich entlang eines nicht eingeschränkten Pfades in einer Örtlichkeit bewegender Fracht

Country Status (3)

Country Link
US (1) US10451405B2 (de)
DE (1) DE112017005910T5 (de)
WO (1) WO2018097915A1 (de)

Families Citing this family (61)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
PL3507216T3 (pl) 2016-08-04 2021-07-12 Opex Corporation Zautomatyzowany system magazynowania i odbierania z detektorem do wykrywania przedmiotów wystających poza wartość graniczną wymiarów
US11042161B2 (en) 2016-11-16 2021-06-22 Symbol Technologies, Llc Navigation control method and apparatus in a mobile automation system
DE112018002314T5 (de) 2017-05-01 2020-01-23 Symbol Technologies, Llc Verfahren und vorrichtung zur erkennung eines objektstatus
US10726273B2 (en) 2017-05-01 2020-07-28 Symbol Technologies, Llc Method and apparatus for shelf feature and object placement detection from shelf images
US10663590B2 (en) 2017-05-01 2020-05-26 Symbol Technologies, Llc Device and method for merging lidar data
US11367092B2 (en) 2017-05-01 2022-06-21 Symbol Technologies, Llc Method and apparatus for extracting and processing price text from an image set
US10591918B2 (en) 2017-05-01 2020-03-17 Symbol Technologies, Llc Fixed segmented lattice planning for a mobile automation apparatus
US10949798B2 (en) 2017-05-01 2021-03-16 Symbol Technologies, Llc Multimodal localization and mapping for a mobile automation apparatus
US11449059B2 (en) 2017-05-01 2022-09-20 Symbol Technologies, Llc Obstacle detection for a mobile automation apparatus
US11093896B2 (en) 2017-05-01 2021-08-17 Symbol Technologies, Llc Product status detection system
US11600084B2 (en) 2017-05-05 2023-03-07 Symbol Technologies, Llc Method and apparatus for detecting and interpreting price label text
US10521914B2 (en) 2017-09-07 2019-12-31 Symbol Technologies, Llc Multi-sensor object recognition system and method
US10572763B2 (en) 2017-09-07 2020-02-25 Symbol Technologies, Llc Method and apparatus for support surface edge detection
US10832436B2 (en) 2018-04-05 2020-11-10 Symbol Technologies, Llc Method, system and apparatus for recovering label positions
US11327504B2 (en) 2018-04-05 2022-05-10 Symbol Technologies, Llc Method, system and apparatus for mobile automation apparatus localization
US10823572B2 (en) 2018-04-05 2020-11-03 Symbol Technologies, Llc Method, system and apparatus for generating navigational data
US10809078B2 (en) 2018-04-05 2020-10-20 Symbol Technologies, Llc Method, system and apparatus for dynamic path generation
US10740911B2 (en) 2018-04-05 2020-08-11 Symbol Technologies, Llc Method, system and apparatus for correcting translucency artifacts in data representing a support structure
US10930001B2 (en) * 2018-05-29 2021-02-23 Zebra Technologies Corporation Data capture system and method for object dimensioning
US11010920B2 (en) 2018-10-05 2021-05-18 Zebra Technologies Corporation Method, system and apparatus for object detection in point clouds
US11506483B2 (en) 2018-10-05 2022-11-22 Zebra Technologies Corporation Method, system and apparatus for support structure depth determination
US11379788B1 (en) 2018-10-09 2022-07-05 Fida, Llc Multilayered method and apparatus to facilitate the accurate calculation of freight density, area, and classification and provide recommendations to optimize shipping efficiency
CN109238172B (zh) * 2018-10-16 2020-09-11 武汉万集信息技术有限公司 车辆轮廓信息的获取方法、装置及系统
US11090811B2 (en) 2018-11-13 2021-08-17 Zebra Technologies Corporation Method and apparatus for labeling of support structures
US11003188B2 (en) 2018-11-13 2021-05-11 Zebra Technologies Corporation Method, system and apparatus for obstacle handling in navigational path generation
WO2020107020A1 (en) * 2018-11-23 2020-05-28 Volvo Car Corporation Lidar-based multi-person pose estimation
US11416000B2 (en) 2018-12-07 2022-08-16 Zebra Technologies Corporation Method and apparatus for navigational ray tracing
US11079240B2 (en) 2018-12-07 2021-08-03 Zebra Technologies Corporation Method, system and apparatus for adaptive particle filter localization
US11100303B2 (en) 2018-12-10 2021-08-24 Zebra Technologies Corporation Method, system and apparatus for auxiliary label detection and association
US11015938B2 (en) 2018-12-12 2021-05-25 Zebra Technologies Corporation Method, system and apparatus for navigational assistance
US10731970B2 (en) 2018-12-13 2020-08-04 Zebra Technologies Corporation Method, system and apparatus for support structure detection
CA3028708A1 (en) 2018-12-28 2020-06-28 Zih Corp. Method, system and apparatus for dynamic loop closure in mapping trajectories
US10776651B2 (en) * 2019-01-18 2020-09-15 Intelligrated Headquarters, Llc Material handling method, apparatus, and system for identification of a region-of-interest
US11308639B2 (en) 2019-03-12 2022-04-19 Volvo Car Corporation Tool and method for annotating a human pose in 3D point cloud data
CN111739164A (zh) 2019-03-19 2020-10-02 北京京东尚科信息技术有限公司 箱体建模方法、装置、机器人拣选系统、电子设备及介质
US11080566B2 (en) 2019-06-03 2021-08-03 Zebra Technologies Corporation Method, system and apparatus for gap detection in support structures with peg regions
US11151743B2 (en) 2019-06-03 2021-10-19 Zebra Technologies Corporation Method, system and apparatus for end of aisle detection
US11960286B2 (en) 2019-06-03 2024-04-16 Zebra Technologies Corporation Method, system and apparatus for dynamic task sequencing
US11662739B2 (en) 2019-06-03 2023-05-30 Zebra Technologies Corporation Method, system and apparatus for adaptive ceiling-based localization
US11402846B2 (en) 2019-06-03 2022-08-02 Zebra Technologies Corporation Method, system and apparatus for mitigating data capture light leakage
US11200677B2 (en) 2019-06-03 2021-12-14 Zebra Technologies Corporation Method, system and apparatus for shelf edge detection
US11341663B2 (en) 2019-06-03 2022-05-24 Zebra Technologies Corporation Method, system and apparatus for detecting support structure obstructions
CN112066892A (zh) * 2019-06-11 2020-12-11 康耐视公司 用于细化由3d视觉系统成像的大体立方形3d物体的尺寸的系统和方法及其控制装置
US11335021B1 (en) 2019-06-11 2022-05-17 Cognex Corporation System and method for refining dimensions of a generally cuboidal 3D object imaged by 3D vision system and controls for the same
US11605177B2 (en) 2019-06-11 2023-03-14 Cognex Corporation System and method for refining dimensions of a generally cuboidal 3D object imaged by 3D vision system and controls for the same
CN110781937B (zh) * 2019-10-16 2022-05-17 广州大学 一种基于全局视角的点云特征提取方法
WO2021099648A1 (es) * 2019-11-18 2021-05-27 Asociacion Centro Tecnologico Ceit Sistema de control dimensional mediante vision fotogrametrica
US11507103B2 (en) 2019-12-04 2022-11-22 Zebra Technologies Corporation Method, system and apparatus for localization-based historical obstacle handling
US11107238B2 (en) 2019-12-13 2021-08-31 Zebra Technologies Corporation Method, system and apparatus for detecting item facings
US11804051B2 (en) * 2020-02-25 2023-10-31 Zebra Technologies Corporation Parallel data capture system
US11227404B2 (en) * 2020-02-25 2022-01-18 Zebra Technologies Corporation Transporter segmentation for data capture system
US11822333B2 (en) 2020-03-30 2023-11-21 Zebra Technologies Corporation Method, system and apparatus for data capture illumination control
US11450024B2 (en) 2020-07-17 2022-09-20 Zebra Technologies Corporation Mixed depth object detection
US11593915B2 (en) 2020-10-21 2023-02-28 Zebra Technologies Corporation Parallax-tolerant panoramic image generation
US11392891B2 (en) 2020-11-03 2022-07-19 Zebra Technologies Corporation Item placement detection and optimization in material handling systems
US11847832B2 (en) 2020-11-11 2023-12-19 Zebra Technologies Corporation Object classification for autonomous navigation systems
CN112911221B (zh) * 2021-01-15 2022-06-21 欧冶云商股份有限公司 一种基于5g和vr视频的远程实景仓储监管系统
WO2022197501A1 (en) * 2021-03-16 2022-09-22 Illinois Tool Works Inc. Systems and methods for area wide object dimensioning
US11954882B2 (en) 2021-06-17 2024-04-09 Zebra Technologies Corporation Feature-based georegistration for mobile computing devices
US11995879B2 (en) 2021-07-29 2024-05-28 Datalogic Usa, Inc. Image processing for separation of adjacent objects
EP4202853A1 (de) * 2021-12-22 2023-06-28 Aptiv Technologies Limited Quasi-rotationsinvarianter formdeskriptor

Family Cites Families (122)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5408322A (en) 1993-04-26 1995-04-18 Materials Research Corporation Self aligning in-situ ellipsometer and method of using for process monitoring
US20020014533A1 (en) 1995-12-18 2002-02-07 Xiaxun Zhu Automated object dimensioning system employing contour tracing, vertice detection, and forner point detection and reduction methods on 2-d range data maps
US5831719A (en) 1996-04-12 1998-11-03 Holometrics, Inc. Laser scanning system
US5988862A (en) 1996-04-24 1999-11-23 Cyra Technologies, Inc. Integrated system for quickly and accurately imaging and modeling three dimensional objects
US6332098B2 (en) 1998-08-07 2001-12-18 Fedex Corporation Methods for shipping freight
US6820895B2 (en) 1998-09-23 2004-11-23 Vehicle Safety Systems, Inc. Vehicle air bag minimum distance enforcement apparatus, method and system
JP2002321698A (ja) 2001-04-27 2002-11-05 Mitsubishi Heavy Ind Ltd 航空貨物運搬用ボーディング・ブリッジ
US7277187B2 (en) 2001-06-29 2007-10-02 Quantronix, Inc. Overhead dimensioning system and method
US6995762B1 (en) 2001-09-13 2006-02-07 Symbol Technologies, Inc. Measurement of dimensions of solid objects from two-dimensional image(s)
US20060106742A1 (en) 2002-04-29 2006-05-18 Speed Trac Technologies, Inc. System and method for weighing and tracking freight
US7248754B2 (en) 2003-05-05 2007-07-24 International Business Machines Corporation Apparatus and method for determining whether machine readable information on an item matches the item
US7137207B2 (en) 2003-06-23 2006-11-21 Armstrong Timothy D Measuring arrangement to determine location of corners for a building foundation and a wooden base frame, and the use thereof
DE10336638A1 (de) 2003-07-25 2005-02-10 Robert Bosch Gmbh Vorrichtung zur Klassifizierung wengistens eines Objekts in einem Fahrzeugumfeld
TWI266035B (en) 2003-11-11 2006-11-11 Hon Hai Prec Ind Co Ltd A system and method for measuring point-cloud
US8294809B2 (en) 2005-05-10 2012-10-23 Advanced Scientific Concepts, Inc. Dimensioning system
US9829308B2 (en) 2005-06-28 2017-11-28 Outotec Pty Ltd System and method for measuring and mapping a surface relative to a reference
WO2007030026A1 (en) 2005-09-09 2007-03-15 Industrial Research Limited A 3d scene scanner and a position and orientation system
US7605817B2 (en) 2005-11-09 2009-10-20 3M Innovative Properties Company Determining camera motion
US8157205B2 (en) 2006-03-04 2012-04-17 Mcwhirk Bruce Kimberly Multibody aircrane
CA2737169C (en) 2006-04-28 2014-04-01 Global Sensor Systems Inc. Device for measuring package size
US20070272732A1 (en) 2006-05-26 2007-11-29 Mettler-Toledo, Inc. Weighing and dimensioning system and method for weighing and dimensioning
US7647752B2 (en) 2006-07-12 2010-01-19 Greg Magnell System and method for making custom boxes for objects of random size or shape
WO2008057504A2 (en) 2006-11-06 2008-05-15 Aman James A Load tracking system based on self- tracking forklift
US8531457B2 (en) 2006-11-29 2013-09-10 Technion Research And Development Foundation Ltd. Apparatus and method for finding visible points in a cloud point
US7474389B2 (en) 2006-12-19 2009-01-06 Dean Greenberg Cargo dimensional and weight analyzing system
US7940279B2 (en) 2007-03-27 2011-05-10 Utah State University System and method for rendering of texel imagery
US8132728B2 (en) 2007-04-04 2012-03-13 Sick, Inc. Parcel dimensioning measurement system and method
US8094937B2 (en) 2007-04-17 2012-01-10 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. System and method for labeling feature clusters in frames of image data for optical navigation
JP4561769B2 (ja) 2007-04-27 2010-10-13 アイシン・エィ・ダブリュ株式会社 経路案内システム及び経路案内方法
CA2699621A1 (en) 2007-06-08 2008-12-11 Tele Atlas N.V. Method of and apparatus for producing a multi-viewpoint panorama
WO2008154611A2 (en) 2007-06-11 2008-12-18 Honeywell International Inc. Optical reader system for extracting information in a digital image
US7726575B2 (en) 2007-08-10 2010-06-01 Hand Held Products, Inc. Indicia reading terminal having spatial measurement functionality
JP4466705B2 (ja) 2007-09-21 2010-05-26 ヤマハ株式会社 ナビゲーション装置
US8396284B2 (en) 2007-10-23 2013-03-12 Leica Geosystems Ag Smart picking in 3D point clouds
US9841314B2 (en) 2008-08-29 2017-12-12 United Parcel Service Of America, Inc. Systems and methods for freight tracking and monitoring
WO2010029558A1 (en) 2008-09-14 2010-03-18 Eliezer Magal Automatic identification system for randomly oriented objects
US20100091094A1 (en) 2008-10-14 2010-04-15 Marek Sekowski Mechanism for Directing a Three-Dimensional Camera System
US8479996B2 (en) 2008-11-07 2013-07-09 Symbol Technologies, Inc. Identification of non-barcoded products
US8463079B2 (en) 2008-12-16 2013-06-11 Intermec Ip Corp. Method and apparatus for geometrical measurement using an optical device such as a barcode and/or RFID scanner
US8812226B2 (en) 2009-01-26 2014-08-19 GM Global Technology Operations LLC Multiobject fusion module for collision preparation system
US8265895B2 (en) 2009-03-27 2012-09-11 Symbol Technologies, Inc. Interactive sensor systems and methods for dimensioning
US8284988B2 (en) 2009-05-13 2012-10-09 Applied Vision Corporation System and method for dimensioning objects using stereoscopic imaging
US8743176B2 (en) 2009-05-20 2014-06-03 Advanced Scientific Concepts, Inc. 3-dimensional hybrid camera and production system
US8542252B2 (en) 2009-05-29 2013-09-24 Microsoft Corporation Target digitization, extraction, and tracking
US8933925B2 (en) 2009-06-15 2015-01-13 Microsoft Corporation Piecewise planar reconstruction of three-dimensional scenes
US20110047636A1 (en) 2009-08-21 2011-02-24 Syngenta Participations Ag Crop Automated Relative Maturity System
KR101619076B1 (ko) 2009-08-25 2016-05-10 삼성전자 주식회사 모바일 플랫폼의 동적 물체 검출 및 추적 방법
US8942884B2 (en) 2010-01-14 2015-01-27 Innovative Transport Solutions, Llc Transport system
US20110216063A1 (en) 2010-03-08 2011-09-08 Celartem, Inc. Lidar triangular network compression
US9400170B2 (en) 2010-04-21 2016-07-26 Faro Technologies, Inc. Automatic measurement of dimensional data within an acceptance region by a laser tracker
US8619265B2 (en) 2011-03-14 2013-12-31 Faro Technologies, Inc. Automatic measurement of dimensional data with a laser tracker
US8199977B2 (en) 2010-05-07 2012-06-12 Honeywell International Inc. System and method for extraction of features from a 3-D point cloud
US8134717B2 (en) 2010-05-21 2012-03-13 LTS Scale Company Dimensional detection system and associated method
US20110310088A1 (en) 2010-06-17 2011-12-22 Microsoft Corporation Personalized navigation through virtual 3d environments
US8872851B2 (en) 2010-09-24 2014-10-28 Intel Corporation Augmenting image data based on related 3D point cloud data
EP2439487B1 (de) 2010-10-06 2012-08-22 Sick Ag Volumenmessvorrichtung für bewegte Objekte
US8867793B2 (en) 2010-12-01 2014-10-21 The Trustees Of The University Of Pennsylvania Scene analysis using image and range data
US8744644B2 (en) 2011-01-19 2014-06-03 Electronics And Telecommunications Research Institute Apparatus and method for detecting location of vehicle
KR101758058B1 (ko) 2011-01-20 2017-07-17 삼성전자주식회사 깊이 정보를 이용한 카메라 모션 추정 방법 및 장치, 증강 현실 시스템
US9207302B2 (en) 2011-01-30 2015-12-08 Xueming Jiang Fully-automatic verification system for intelligent electric energy meters
US8447549B2 (en) 2011-02-11 2013-05-21 Quality Vision International, Inc. Tolerance evaluation with reduced measured points
US8660338B2 (en) 2011-03-22 2014-02-25 Honeywell International Inc. Wide baseline feature matching using collobrative navigation and digital terrain elevation data constraints
US9854209B2 (en) 2011-04-19 2017-12-26 Ford Global Technologies, Llc Display system utilizing vehicle and trailer dynamics
US20140351073A1 (en) 2011-05-11 2014-11-27 Proiam, Llc Enrollment apparatus, system, and method featuring three dimensional camera
US20120287249A1 (en) 2011-05-12 2012-11-15 Electronics And Telecommunications Research Institute Method for obtaining depth information and apparatus using the same
US9070285B1 (en) 2011-07-25 2015-06-30 UtopiaCompression Corporation Passive camera based cloud detection and avoidance for aircraft systems
KR101907081B1 (ko) 2011-08-22 2018-10-11 삼성전자주식회사 3차원 점군의 물체 분리 방법
US9129277B2 (en) 2011-08-30 2015-09-08 Digimarc Corporation Methods and arrangements for identifying objects
US9002099B2 (en) 2011-09-11 2015-04-07 Apple Inc. Learning-based estimation of hand and finger pose
US8793107B2 (en) 2011-12-01 2014-07-29 Harris Corporation Accuracy-based significant point derivation from dense 3D point clouds for terrain modeling
CN103164842A (zh) 2011-12-14 2013-06-19 鸿富锦精密工业(深圳)有限公司 点云提取系统及方法
US20130162806A1 (en) 2011-12-23 2013-06-27 Mitutoyo Corporation Enhanced edge focus tool
EP2615580B1 (de) 2012-01-13 2016-08-17 Softkinetic Software Automatische Szenenkalibrierung
US8668136B2 (en) 2012-03-01 2014-03-11 Trimble Navigation Limited Method and system for RFID-assisted imaging
EP2634120B1 (de) 2012-03-01 2015-02-18 Caljan Rite-Hite ApS Erweiterbare Förderanlage mit Beleuchtung
US9329269B2 (en) 2012-03-15 2016-05-03 GM Global Technology Operations LLC Method for registration of range images from multiple LiDARS
US8989342B2 (en) 2012-04-18 2015-03-24 The Boeing Company Methods and systems for volumetric reconstruction using radiography
US9153061B2 (en) 2012-05-04 2015-10-06 Qualcomm Incorporated Segmentation of 3D point clouds for dense 3D modeling
WO2013170260A1 (en) 2012-05-11 2013-11-14 Proiam, Llc Hand held dimension capture apparatus, system, and method
US9846960B2 (en) 2012-05-31 2017-12-19 Microsoft Technology Licensing, Llc Automated camera array calibration
US9135543B2 (en) 2012-06-20 2015-09-15 Apple Inc. Compression and obfuscation of three-dimensional coding
US9420265B2 (en) 2012-06-29 2016-08-16 Mitsubishi Electric Research Laboratories, Inc. Tracking poses of 3D camera using points and planes
WO2014018553A1 (en) 2012-07-24 2014-01-30 Datalogic ADC, Inc. Systems and methods of object measurement in an automated data reader
US8757479B2 (en) 2012-07-31 2014-06-24 Xerox Corporation Method and system for creating personalized packaging
DK2693362T3 (da) 2012-07-31 2015-07-27 Sick Ag Detekteringssystem til montage på et transportbånd
US9939259B2 (en) 2012-10-04 2018-04-10 Hand Held Products, Inc. Measuring object dimensions using mobile computer
US20140192050A1 (en) 2012-10-05 2014-07-10 University Of Southern California Three-dimensional point processing and model generation
US9472022B2 (en) 2012-10-05 2016-10-18 University Of Southern California Three-dimensional point processing and model generation
US9841311B2 (en) 2012-10-16 2017-12-12 Hand Held Products, Inc. Dimensioning system
WO2014068784A1 (ja) 2012-11-05 2014-05-08 三菱電機株式会社 三次元画像撮影システム及び粒子線治療装置
WO2014080330A2 (en) 2012-11-22 2014-05-30 Geosim Systems Ltd. Point-cloud fusion
MY172143A (en) 2012-12-13 2019-11-14 Mimos Berhad Method for non-static foreground feature extraction and classification
US9154773B2 (en) 2013-03-15 2015-10-06 Seiko Epson Corporation 2D/3D localization and pose estimation of harness cables using a configurable structure representation for robot operations
US9558559B2 (en) 2013-04-05 2017-01-31 Nokia Technologies Oy Method and apparatus for determining camera location information and/or camera pose information according to a global coordinate system
CN105246744A (zh) 2013-05-29 2016-01-13 丰田自动车株式会社 驻车支援装置
US9443297B2 (en) 2013-07-10 2016-09-13 Cognex Corporation System and method for selective determination of point clouds
US20150088618A1 (en) 2013-08-26 2015-03-26 Ims Solutions, Inc. Road tolling
US9615012B2 (en) 2013-09-30 2017-04-04 Google Inc. Using a second camera to adjust settings of first camera
US20150106403A1 (en) 2013-10-15 2015-04-16 Indooratlas Oy Generating search database based on sensor measurements
US9412040B2 (en) 2013-12-04 2016-08-09 Mitsubishi Electric Research Laboratories, Inc. Method for extracting planes from 3D point cloud sensor data
MY177646A (en) 2014-02-28 2020-09-23 Icm Airport Technics Australia Pty Ltd Luggage processing station and system thereof
CN103945208B (zh) 2014-04-24 2015-10-28 西安交通大学 一种针对多视点裸眼3d显示的并行同步缩放引擎及方法
KR101769284B1 (ko) 2014-06-27 2017-08-18 크라운 이큅먼트 코포레이션 연계된 형태 쌍들을 사용하는 미확인 차량 회수
US11051000B2 (en) 2014-07-14 2021-06-29 Mitsubishi Electric Research Laboratories, Inc. Method for calibrating cameras with non-overlapping views
DE102014011821A1 (de) 2014-08-08 2016-02-11 Cargometer Gmbh Vorrichtung und Verfahren zur Volumenbestimmung eines durch ein Flurförderzeug bewegten Objekts
US20160044862A1 (en) 2014-08-14 2016-02-18 Raven Industries, Inc. Site specific product application device and method
CN104200086B (zh) 2014-08-25 2017-02-22 西北工业大学 宽基线可见光相机位姿估计方法
WO2016033451A1 (en) 2014-08-28 2016-03-03 Lts Metrology, Llc Stationary dimensioning apparatus
JP2016057108A (ja) * 2014-09-08 2016-04-21 株式会社トプコン 演算装置、演算システム、演算方法およびプログラム
US9938092B2 (en) * 2014-10-03 2018-04-10 Wynright Corporation Perception-based robotic manipulation system and method for automated truck unloader that unloads/unpacks product from trailers and containers
US9600892B2 (en) 2014-11-06 2017-03-21 Symbol Technologies, Llc Non-parametric method of and system for estimating dimensions of objects of arbitrary shape
US10154246B2 (en) 2014-11-20 2018-12-11 Cappasity Inc. Systems and methods for 3D capturing of objects and motion sequences using multiple range and RGB cameras
US9396554B2 (en) 2014-12-05 2016-07-19 Symbol Technologies, Llc Apparatus for and method of estimating dimensions of an object associated with a code in automatic response to reading the code
US9646410B2 (en) 2015-06-30 2017-05-09 Microsoft Technology Licensing, Llc Mixed three dimensional scene reconstruction from plural surface models
CN111556253B (zh) 2015-07-10 2022-06-14 深圳市大疆创新科技有限公司 生成组合图像的方法及系统、图像的显示方法及系统
US9549125B1 (en) 2015-09-01 2017-01-17 Amazon Technologies, Inc. Focus specification and focus stabilization
US20170150129A1 (en) 2015-11-23 2017-05-25 Chicago Measurement, L.L.C. Dimensioning Apparatus and Method
KR102373926B1 (ko) 2016-02-05 2022-03-14 삼성전자주식회사 이동체 및 이동체의 위치 인식 방법
US10721451B2 (en) * 2016-03-23 2020-07-21 Symbol Technologies, Llc Arrangement for, and method of, loading freight into a shipping container
US9791862B1 (en) 2016-04-25 2017-10-17 Thayermahan, Inc. Systems and method for unmanned undersea sensor position, orientation, and depth keeping
US11436553B2 (en) * 2016-09-08 2022-09-06 Position Imaging, Inc. System and method of object tracking using weight confirmation
US9778388B1 (en) 2016-12-22 2017-10-03 Thayermahan, Inc. Systems and methods for autonomous towing of an underwater sensor array

Also Published As

Publication number Publication date
WO2018097915A1 (en) 2018-05-31
US10451405B2 (en) 2019-10-22
US20180143003A1 (en) 2018-05-24

Similar Documents

Publication Publication Date Title
DE112017005910T5 (de) Dimensionierungssystem zum und Verfahren zum Dimensionieren von sich entlang eines nicht eingeschränkten Pfades in einer Örtlichkeit bewegender Fracht
DE112017006429T5 (de) Verfahren, Systeme und Vorrichtungen zum Segmentieren von Objekten
EP1641704B1 (de) Bewegliche sensoreinrichtung am lastmittel eines gabelstaplers
US10721451B2 (en) Arrangement for, and method of, loading freight into a shipping container
EP3177889B1 (de) Vorrichtung und verfahren zur volumenbestimmung eines durch ein flurförderzeug bewegten objekts
US10315866B2 (en) 3D-2D vision system for robotic carton unloading
US9619725B2 (en) Processing container images and identifiers using optical character recognition and geolocation
EP2439487B1 (de) Volumenmessvorrichtung für bewegte Objekte
DE112018006533T5 (de) Schätzung der Containerausnutzung
DE112018005979T5 (de) Schätzung der be-/entladezeit von containern
CN107031938A (zh) 传送系统的致动
EP2574587A1 (de) Verfahren zur Bestimmung einer Zielposition für ein Containergeschirr und Containergeschirr
CN113165853B (zh) 将集装箱装载在着落目标上的系统和方法
DE102018132764A1 (de) Anhängertürüberwachung und -berichten
CN109399250A (zh) 自动装卸车标定系统与方法
CN107067439B (zh) 一种基于车头检测的集装箱卡车定位与引导方法
DE102020206387A1 (de) Verfahren und computersystem zur verarbeitung vonkandidatenkanten
EP3696135B1 (de) Gabelstapler und system mit gabelstapler zur identifikation einer ware
US11977392B2 (en) Identifying elements in an environment
DE112022000929T5 (de) Automatisierte einheitslast-abfertigungsverfahren und -systeme
DE10323643B4 (de) Sensorsystem für ein autonomes Flurförderfahrzeug
CN210464391U (zh) 货物测量装置及运力配置系统
DE102020124221A1 (de) Verfahren und Computersystem zum Ausführen von Behälterdetektion und Objektdetektion
CN116425088A (zh) 货物搬运方法、装置及机器人
CN114524209A (zh) 一种基于双tof相机的agv高位堆叠方法及检测装置

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication