DE112017005910T5 - Dimensionierungssystem zum und Verfahren zum Dimensionieren von sich entlang eines nicht eingeschränkten Pfades in einer Örtlichkeit bewegender Fracht - Google Patents
Dimensionierungssystem zum und Verfahren zum Dimensionieren von sich entlang eines nicht eingeschränkten Pfades in einer Örtlichkeit bewegender Fracht Download PDFInfo
- Publication number
- DE112017005910T5 DE112017005910T5 DE112017005910.0T DE112017005910T DE112017005910T5 DE 112017005910 T5 DE112017005910 T5 DE 112017005910T5 DE 112017005910 T DE112017005910 T DE 112017005910T DE 112017005910 T5 DE112017005910 T5 DE 112017005910T5
- Authority
- DE
- Germany
- Prior art keywords
- cargo
- location
- moving
- successive
- moving cargo
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/02—Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/02—Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
- G01B11/04—Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness specially adapted for measuring length or width of objects while moving
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/42—Simultaneous measurement of distance and other co-ordinates
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/66—Tracking systems using electromagnetic waves other than radio waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/87—Combinations of systems using electromagnetic waves other than radio waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
- G01S17/894—3D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S5/00—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
- G01S5/16—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S5/00—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
- G01S5/16—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
- G01S5/163—Determination of attitude
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/292—Multi-camera tracking
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/08—Systems determining position data of a target for measuring distance only
- G01S17/32—Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
- G01S17/36—Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated with phase comparison between the received signal and the contemporaneously transmitted signal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Signal Processing (AREA)
Abstract
Ein Entfernungssystem erfasst aufeinanderfolgende Punktwolken von sich bewegender Fracht, und ein Verfolgungssystem verfolgt aufeinanderfolgende Positionen und Ausrichtungen der sich bewegenden Fracht. Eine Rechenvorrichtung korreliert jede aufeinanderfolgende Punktwolke mit jeder aufeinanderfolgenden Position und Ausrichtung und Zeit der sich bewegenden Fracht, kombiniert die korrelierten Punktwolken, um eine zusammengesetzte Punktwolke der sich bewegenden Fracht zu erhalten, und verarbeitet die zusammengesetzte Punktwolke zum Dimensionieren der sich bewegenden Fracht. Sobald die Fracht dimensioniert ist, kann sie beispielsweise effizient in einen Container verladen werden.
Description
- HINTERGRUND DER ERFINDUNG
- Die vorliegende Offenbarung bezieht sich im Allgemeinen auf ein Dimensionierungssystem zum und ein Verfahren zum Dimensionieren von sich entlang eines nicht eingeschränkten Pfades in einer Örtlichkeit in Bewegung befindlicher Fracht, und insbesondere auf das Dimensionieren der Fracht, während die Fracht von einem Frachtbeförderer, wie beispielsweise einem Industriefahrzeug, bewegt wird, bevor die Fracht in einen Container verladen wird.
- Industriefahrzeuge, wie Gabelstapler, heben und bewegen Fracht, die typischerweise auf Paletten befestigt ist, von Lagern oder ähnlichen Orten in Container für den Transport auf Land, Schienen, Wasser und dem Luftweg etc. Kosten für Empfänger der Fracht werden typischerweise nach den Abmessungen (Volumen) und dem Gewicht der Fracht berechnet. Daher wird die Fracht oft vor der Verladung dimensioniert und/oder gewogen. Die Kenntnis der Dimensionen der Fracht ist auch nützlich, um die Reihenfolge zu bestimmen, in der die Fracht verladen werden soll, und um den Container möglichst weitgehend für eine effiziente Handhabung und Verteilung zu füllen.
- Figurenliste
- Die beigefügten Figuren, in denen gleiche Bezugszeichen identische oder funktional ähnliche Elemente in den einzelnen Ansichten bezeichnen, sind zusammen mit der nachfolgenden detaillierten Beschreibung in die Offenbarung inkorporiert und bilden einen Bestandteil der Offenbarung und dienen dazu, hierin beschriebene Ausführungsformen von Konzepten, die die beanspruchte Erfindung umfassen, weiter zu veranschaulichen und verschiedene Prinzipien und Vorteile dieser Ausführungsformen zu erklären.
-
1 ist eine aufgebrochene, perspektivische, schematische Ansicht, von oben betrachtet, eines Lagers, in dem eine sich entlang eines nicht eingeschränkten Pfades bewegende Fracht gemäß dieser Offenbarung dimensioniert wird. -
2 ist eine vergrößerte, perspektivische Ansicht von oben betrachtet, eines Gabelstaplers, der Fracht an einem Entfernungssystem in einer Dimensionierungsstation des Lagers von1 vorbeibewegt. -
3 ist eine vergrößerte Seitenansicht einer Vielzahl von inkrementellen Bildern von Punktwolken, die von dem Entfernungssystem der2 aufgenommen wurden. -
4 ist eine vergrößerte, perspektivische Ansicht, von oben betrachtet, eines Gabelstaplers, der eine Fracht an einer Ausführungsform eines Verfolgungssystems in der Dimensionierungsstation des Lagers von1 vorbeibewegt. -
5 ist eine vergrößerte, perspektivische Ansicht, von oben betrachtet, eines Gabelstaplers, der Fracht an einer weiteren Ausführungsform eines Verfolgungssystems in der Dimensionierungsstation des Lagers von1 vorbeibewegt. -
6 ist ein Blockdiagramm, das ein Verfahren zum Dimensionieren von Fracht darstellt, die sich entlang eines nicht eingeschränkten Pfades in dem Lager von1 in Bewegung befindet. -
7 ist eine perspektivische Ansicht einer zusammengesetzten Punktwolke, die von dem Entfernungssystem der2 erfasst wird. -
8 ist eine perspektivische Ansicht einer minimalen Begrenzungsbox, die eine zusammengesetzte Punktwolke enthält. -
9 ist ein Flussdiagramm, das Schritte eines Verfahrens gemäß dieser Offenbarung darstellt. - Erfahrene Fachleute werden erkennen, dass Elemente in den Figuren der Einfachheit und Klarheit halber dargestellt sind und nicht notwendigerweise maßstabsgetreu gezeichnet wurden. Zum Beispiel können die Dimensionen und Positionen einiger der Elemente in den Figuren relativ zu anderen Elementen übertrieben sein, um das Verständnis von Ausführungsformen der vorliegenden Erfindung zu verbessern.
- Die System- und Verfahrensschritte wurden, wo es angemessen ist, durch herkömmliche Symbole in den Zeichnungen dargestellt, die nur jene spezifischen Details zeigen, die zum Verständnis der Ausführungsformen der vorliegenden Erfindung relevant sind, um somit die Offenbarung nicht mit Einzelheiten zu verdecken, die für die Fachleute auf dem Gebiet, die auf die vorliegende Beschreibung zurückgreifen, ohne weiteres ersichtlich sind.
- DETAIILLIERTE BESCHREIBUNG DER ERFINDUNG
- In einigen bekannten Systemen hebt ein Gabelstapler die Fracht und befördert sie zu einer Dimensionierungsstation, während er auf einen Zugang zur Dimensionierungsstation wartet. Der Gabelstapler stoppt und senkt die Fracht dann auf die Dimensionierungsstation und zieht sich dann von der Dimensionierungsstation zurück und entfernt sich rückwärts von dieser, während die Fracht dimensioniert wird. Während die Fracht an der Dimensionierungsstation stationär ist, wird ein Satz von Überkopf-Laserscannern mit Entfernungsmessern über einen Zeitraum, in dem die Fracht gescannt wird, über die Fracht hinweg und an dieser vorbei bewegt und Entfernungsinformationen von der Fracht werden erfasst. Die Entfernungsinformationen werden von einer Verarbeitungseinrichtung verarbeitet, um die Abmessungen der Fracht zu erhalten. Nach dem Scannen startet der Gabelstapler erneut, kehrt zur Station zurück, hebt die Fracht von der Station ab und bewegt sich dann zu dem Container, in den die Fracht verladen werden soll. Obwohl allgemein nützlich, hat dieses bekannte Dimensionierungsverfahren Nachteile, nicht nur aufgrund der hohen Kosten für die Scanner und die dazugehörigen Verarbeitungseinrichtungen, sondern auch, was vielleicht noch wichtiger ist, aufgrund der unterbrochenen Bewegung der Fracht. Wie beschrieben, stoppt und startet der Gabelstapler wiederholt, und das Scannen/Dimensionieren jedes Frachtgegenstandes nimmt eine nicht zu vernachlässigende Zeit in Anspruch, um ausgeführt zu werden. Dieser Ladevorgang für den Container verzögert sich dadurch.
- In einigen bekannten Systemen werden Pakete direkt auf einem sich bewegenden Förderband platziert, um die sich bewegenden Pakete entlang eines eingeschränkten, festen, bekannten Pfades und mit einer bekannten Geschwindigkeit und mit einer unveränderlichen Ausrichtung durch eine Dimensionierungsstation zu befördern. Da sich jedes Paket in Inkrementen durch die Dimensionierungsstation bewegt, werden für jedes Inkrement eine oder mehrere Entfernungsmessungen durchgeführt, was zu einer Vielzahl solcher Entfernungsmessungen führt, die dann kombiniert und korrekt verarbeitet werden, um genaue, allgemeine Abmessungen jedes Pakets zu erhalten. Obwohl allgemein nützlich, hat dieses bekannte Dimensionierungsverfahren Nachteile, da es eine nicht zu vernachlässigende Zeit in Anspruch nimmt, die Pakete auf das Förderband zu legen und von diesem zu entfernen. Dieser Ladevorgang für den Container verzögert sich dadurch.
- Dementsprechend wäre es wünschenswert, den Ladevorgang zu beschleunigen und effizienter durchzuführen und die Fracht vor dem Verladen ununterbrochen, reibungslos, kontinuierlich, schnell und kostengünstiger und flexibler zu dimensionieren, vorzugsweise während die Fracht mit einem Gabelstapler oder einem ähnlichem Industriefahrzeug bewegt wird.
- Die hierin offenbarten beispielhaften Verfahren und Vorrichtungen stellen ein Dimensionierungssystem bereit zum Dimensionieren von Fracht, die sich entlang eines nicht eingeschränkten Pfades in einer Örtlichkeit (Verkaufsort), wie beispielsweise einem Lager oder einer ähnlichen Einrichtung, entweder drinnen oder draußen, bewegt. Ein hierin offenbartes beispielhaftes Dimensionierungssystem umfasst ein Entfernungssystem zum Erfassen einer Vielzahl von aufeinanderfolgenden Punktwolken von der sich bewegenden Fracht, ein Verfolgungssystem zum Verfolgen einer Vielzahl von aufeinanderfolgenden Positionen und Orientierungen der sich bewegenden Fracht und eine Rechenvorrichtung (z. B. ein Server, Prozessor oder programmierter Mikroprozessor), die sich in Kommunikation mit den Entfernungs- und Verfolgungssystemen befindet. Im Betrieb korreliert die Rechenvorrichtung jede aufeinanderfolgende Punktwolke mit jeder aufeinanderfolgenden Position und Orientierung der sich bewegenden Fracht, kombiniert die korrelierten Punktwolken zu einer zusammengesetzten Punktwolke der sich bewegenden Fracht und verarbeitet die zusammengesetzte Punktwolke zum Dimensionieren der sich bewegenden Fracht. Vorteilhafterweise weist das Verfolgungssystemen jeder aufeinanderfolgenden Position und Orientierung der sich bewegenden Fracht einen Zeitstempel zu und korreliert jede aufeinanderfolgende Punktwolke mit jeder aufeinanderfolgenden zeitgestempelten Position und Orientierung der sich bewegenden Fracht. Sobald die Fracht dimensioniert ist, kann sie beispielsweise effizient in einen Container verladen werden, typischerweise für den Transport zu Lande, auf der Schiene, zu Wasser, in der Luft etc.
- In einigen hierin offenbarten Beispielen bewegt ein Frachtbeförderer, wie beispielsweise ein Gabelstapler, die Fracht entlang dem nicht eingeschränkten Pfad in der Örtlichkeit durch eine Dimensionierungszone vorbei an den Entfernungs- und Verfolgungssystemen. Das Entfernungssystem umfasst eine oder mehrere dreidimensionale (3D-)Kameras, die stationär in der Örtlichkeit montiert und in der Dimensionierungszone, durch die die Fracht bewegt wird, aufgestellt sind. Jede 3D-Kamera hat ein Sichtfeld, über welches jede Punktwolke von der Fracht erfasst wird. Die 3D-Kameras haben Kamerasensoren, die auf die sich bewegende Fracht entlang verschiedener Sichtlinien gerichtet sind. Die zusammengesetzte Punktwolke umfasst Datenpunkte von der Fracht und von dem Frachtbeförderer, und die Rechenvorrichtung ist ausgeführt zum Extrahieren der Datenpunkte von dem Frachtbeförderer aus der zusammengesetzten Punktwolke, zum Einschließen der extrahierten zusammengesetzten Punktwolke mit einer Begrenzungsbox mit Abmessungen, und zum Dimensionieren der sich bewegenden Fracht aus den Abmessungen der Begrenzungsbox.
- Das Verfolgungssystem umfasst einen Detektor, der am Frachtbeförderer oder in der Örtlichkeit montiert ist und jede aufeinanderfolgende Position und Ausrichtung der sich bewegenden Fracht erfasst. In einigen Ausführungsformen umfasst das Verfolgungssystem einen Emitter zum Aussenden eines Signals, und der Detektor erfasst das ausgesendete Signal. In einigen Ausführungsformen ist jeder des Emitters oder des Detektors am Frachtbeförderer zur gemeinsamen Bewegung mit diesem montiert, und der andere des Emitters und des Detektors ist an der Örtlichkeit entfernt vom Frachtbeförderer montiert. In einigen Ausführungsformen umfasst der Emitter eine oder mehrere Leuchtdioden (LEDs), die am Frachtbeförderer montiert sind, um Licht in einem vorbestimmten Lichtmuster zu emittieren, und der Detektor umfasst eine oder mehrere Kameras, die stationär an der Örtlichkeit montiert sind, um das vorbestimmte Lichtmuster zu erfassen. In einigen Ausführungsformen umfasst der Detektor eine Kamera, die am Frachtbeförderer montiert ist, und die Kamera bildet ein oder mehrere Merkmale ab, die an bekannten, festen Positionen in der Örtlichkeit angeordnet sind, um jede aufeinanderfolgende Position und Ausrichtung der sich bewegenden Fracht zu lokalisieren.
- Gemäß dieser Offenbarung erfordert die Dimensionierung der Fracht nicht, dass die Fracht an einer Dimensionierungsstation stationär gehalten wird. Ebenso wenig muss die Fracht auf dem eingeschränkten Pfad eines Förderbandes bewegt oder auf das Förderband geladen und von dort entladen werden, um dimensioniert zu werden. Vielmehr ermöglichen die hierin offenbarten beispielhaften Verfahren und Vorrichtungen eine Dimensionierung der Fracht, während sich die Fracht in Bewegung befindet, beispielsweise während sie kontinuierlich zum Container bewegt wird, was den Ladevorgang beschleunigt und den Ladevorgang effizienter gestaltet.
- Ein hierin offenbartes beispielhaftes Verfahren zielt darauf ab, eine sich bewegende Fracht, die sich in Bewegung befindet, entlang eines nicht eingeschränkten Pfades in einer Örtlichkeit zu dimensionieren. Das beispielhafte Verfahren umfasst das Erfassen einer Vielzahl von aufeinanderfolgenden Punktwolken von der sich bewegenden Fracht, das Verfolgen einer Vielzahl von aufeinanderfolgenden Positionen und Ausrichtungen der sich bewegenden Fracht, das Korrelieren jeder aufeinanderfolgenden Punktwolke mit jeder aufeinanderfolgenden Position und Ausrichtung der sich bewegenden Fracht, das Kombinieren der korrelierten Punktwolken, um eine zusammengesetzte Punktwolke der sich bewegenden Fracht zu erhalten, und das Verarbeiten der zusammengesetzten Punktwolke, um die sich bewegende Fracht zu dimensionieren.
- Mit Bezug zu den Figuren, zeigt
1 eine Örtlichkeit10 , wie beispielsweise ein Lager oder eine ähnliche Einrichtung im Innen- oder Außenbereich, in der Fracht12 , der Einfachheit halber als quaderförmige Kartons dargestellt, beispielsweise von Frachtbeförderern, wie Industriefahrzeugen, bewegt wird, z. B. Gabelstapler22 mit angetriebenen, gezinkten Plattformen zum Heben und Senken der Fracht12 . Wie in den1-2 und4-5 gezeigt, bewegen die Gabelstapler22 die Fracht12 unter einer Decke14 der Örtlichkeit10 durch mindestens eine Dimensionierungszone oder Station18 auf und angrenzend an einen Boden der Örtlichkeit10 , wo die sich bewegende Fracht12 , wie nachfolgend im Detail beschrieben, dimensioniert wird. In einigen Fällen befinden sich die Dimensionierungszonen18 an oder in der Nähe von Türen oder Portalen der Örtlichkeit10 , z. B. angrenzende Laderampen oder Docks, und die Fracht12 wird mit den Gabelstaplern22 zu Containern bewegt, wie beispielsweise Anhänger, die mit Lastkraftwagen24 , Transportern, Eisenbahnwaggons, Booten, Flugzeugen usw. transportiert werden. Die Frachtbeförderer müssen nicht nur Gabelstapler22 sein, sondern können jedes beliebige Fahrzeug (z. B. ein Luftfahrzeug, wie z. B. eine Drohne) sein, entweder manuell oder durch einen Motor angetrieben, entweder vom Personal angetrieben oder autonom betrieben, z. B. von einem Roboter oder einer Rechenvorrichtung. Die Frachtbeförderer brauchen überhaupt kein Fahrzeug zu sein und kann auch Personal umfassen, das die Fracht12 von Ort zu Ort per Hand transportiert. Jeder Frachtbeförderer hat Bewegungsfreiheit und kann die Fracht12 entlang eines nicht eingeschränkten Pfades bewegen, z. B. kann sich der Frachtbeförderer vorwärts oder rückwärts bewegen, kann anhalten und starten, kann sich nach rechts oder nach links drehen, kann die Richtung ändern, kann sich mit beliebiger Geschwindigkeit bewegen und kann die Position und Ausrichtung der Fracht12 während solcher Bewegungen ändern. - In dem veranschaulichten Beispiel wird die sich bewegliche Fracht während der Bewegung durch ein Dimensionierungssystem dimensioniert, das ein Entfernungssystem umfasst, das, wie nachstehend in Verbindung mit
2 beschrieben, eine Vielzahl von aufeinanderfolgenden Punktwolken von der sich bewegenden Fracht12 erfasst, ein Verfolgungssystem umfasst zum Verfolgen, wie nachstehend in Verbindung mit den4-5 beschrieben, einer Vielzahl von aufeinanderfolgenden Positionen und Ausrichtungen der sich bewegenden Fracht12 , und eine Rechenvorrichtung16 umfasst (z. B. ein Server, Prozessor oder programmierter Mikroprozessor), die mit den Entfernungs- und Verfolgungssystemen in Verbindung steht. Wie in1 dargestellt, befindet sich die Rechenvorrichtung oder der Hostserver16 typischerweise in einem Hinterzimmer an der Örtlichkeit10 und umfasst eine oder mehrere programmierte Rechenvorrichtungen und befindet sich in kabelgebundener, drahtloser, direkter oder vernetzter Kommunikation mit den Entfernungs- und Verfolgungssystemen. Der Server16 ist vorzugsweise ein lokaler Computer, kann aber auch ein entfernter Cloud-Server sein. Der Server16 kann einen drahtlosen RF-Transceiver aufweisen, der mit den Entfernungs- und Verfolgungssystemen kommuniziert. So sind beispielsweise Wi-Fi und Bluetooth® offene drahtlose Standards für den Datenaustausch zwischen elektronischen Geräten. Obwohl in1 als Hostserver16 dargestellt, ist jeder geeignete Typ von Rechenvorrichtung möglich. - Wie in der beispielhaften Ausführungsform von
2 dargestellt, umfasst das Entfernungssystem eine oder mehrere dreidimensionale (3D-)Kameras20 , die stationär und fest in der Örtlichkeit10 montiert sind, beispielsweise an gegenüberliegenden Seiten der Dimensionierungszone18 in Bodennähe, wie dargestellt, und/oder darüber oder angrenzend an die Decke14 , oberhalb der Dimensionierungszone18 . Die 3D-Kameras20 werden um die Dimensionierungszone18 angeordnet, durch die die Fracht12 zum Container transportiert wird, und auf die Fracht12 entlang verschiedener, sich kreuzender Sichtlinien gerichtet. Die 3D-Kameras20 können entweder direkt auf direkten Pfaden, wie dargestellt, oder indirekt entlang gefalteter Pfade durch Verwenden von Außenspiegeln auf die Fracht12 gerichtet sein. Die 3D-Kameras20 haben Sensoren mit Winkelsichtfeldern, die jeweils allgemein auf eine entsprechende Sichtlinie ausgerichtet sind. Wie nachfolgend beschrieben, erfassen die 3D-Kameras 20 eine Vielzahl von Punktwolken62A -62H (siehe3 ) von Bildpunkten oder Datenpunkten vom Gabelstapler22 und der sich bewegenden Fracht12 . Alternativ werden eine oder mehrere der 3D-Kameras20 entlang der gleichen Sichtlinie auf die Fracht12 gerichtet und erfassen verschiedene Punktwolken, indem sie ihre Sensoren bei unterschiedlichen Wellenlängen betreiben. - Im dargestellten Beispiel umfasst jede 3D-Kamera
20 die Time-of-Flight (TOF)-Technologie (Laufzeittechnologie), bei der der Sensor eine zweidimensionale Anordnung von Sensoren oder Pixeln ist, wie beispielsweise eine ladungsgekoppelte Vorrichtung (CCD) oder eine komplementäre Metalloxid-Halbleiter-(CMOS)-Vorrichtung, zusammen mit einer aktiven modulierten Lichtquelle, wie beispielsweise einem Festkörperlaser oder einer Leuchtdiode (LED), die im Nahinfrarotbereich, z. B. zwischen 700 nm und 1000 nm, arbeitet. Die Lichtquelle beleuchtet die Fracht12 mit ausgesendetem Beleuchtungslicht, und das reflektierte zurückkehrende Licht wird erfasst. Die Phasenverschiebung zwischen dem ausgesendeten und dem zurückkehrenden Licht wird gemessen und in Entfernungswerte umgewandelt, die Entfernungen (Tiefe) zwischen der 3D-Kamera20 und der Fracht12 anzeigen. Zusätzlich zu oder anstelle der 3D-Kameras 20 mit TOF-Technologie können auch andere 3D-Technologien wie Stereosehen (Stereovision) und strukturiertes Licht eingesetzt werden. In einigen Ausführungsformen ersetzt eine Reihe von zweidimensionalen Kameras eine einzelne 3D-Kamera. In einigen Beispielen sind die 3D-Kameras 20 nicht alle identisch, sondern von unterschiedlicher Art und in beliebiger Kombination angeordnet. - Im veranschaulichten Beispiel betreibt der Server
16 sequentiell jede 3D-Kamera 20, um eine Vielzahl oder einen Satz oder eine Sammlung von inkrementellen Punktwolken62A -62H (siehe3 ) von Bildpunkten oder Datenpunkten aus der Kombination des Gabelstaplers22 und der sich bewegenden Fracht12 aufzunehmen. Jeder Bildpunkt oder Datenpunkt ist einem Satz von Koordinaten zugeordnet, z. B. kartesischen Koordinaten (x, y, z), die zusammen eine Position jedes Datenpunkts definieren. Jeder Bildpunkt oder Datenpunkt weist auch einen Entfernungs- oder Tiefenwert auf, der einen Abstand zwischen einer jeweiligen 3D-Kamera20 und der Kombination Fracht 12/Gabelstapler22 anzeigt, und/oder einen Intensitätswert, der eine empfangenen Signalstärke, die durch die jeweilige 3D-Kamera20 von der Kombination Fracht 12/Gabelstapler22 aufgenommen wurde, anzeigt. - Der Server
16 kombiniert jede dieser inkrementellen Punktwolken62A -62H zusammen, um die Fracht12 zu dimensionieren. Bekannte Systeme können Überlappungen zwischen aufeinanderfolgenden Punktwolken verwenden, um die aufeinanderfolgenden Punktwolken auszurichten, indem sie einen iterativen Nächster-Punkt (ICP - iterative closest point)-Algorithmus ausführen. Dies ist jedoch eine rechenintensive und zeitaufwändige Aufgabe, die nicht nur das Erfassen und Verarbeiten einer großen Menge redundanter Informationen erfordert, sondern auch eine großzügige Überlappung zwischen aufeinanderfolgenden Punktwolken, die möglicherweise nicht verfügbar ist, insbesondere wenn in den 3D-Kameras 20 Sensoren mit engen Sichtfeldern eingesetzt werden. Die nicht eingeschränkte Bewegung der Fracht12 erschwert diese Aufgabe zusätzlich, da solche Überlappungen oft nicht vorhanden sind und es keine verfügbaren oder zuverlässigen Ausrichtungsinformationen zwischen den aufeinanderfolgenden Punktwolken gibt. So weiß der Server16 beispielsweise nicht, ob die Fracht12 vorwärts oder rückwärts bewegt wurde, ob sie gestoppt und gestartet wurde, ob sie nach rechts oder links gedreht wurde, ob sie die Richtung geändert hat, ob sie die Geschwindigkeit geändert hat oder ob sie während der Bewegung ihre Position und Ausrichtung geändert hat. - Um solche Ausrichtungsinformationen bereitzustellen, umfasst das beispielhafte Verfolgungssystem der
4-5 einen Detektor, der am Frachtbeförderer22 oder in der Örtlichkeit10 montiert ist, und erfasst jede aufeinanderfolgende Position und Ausrichtung der sich bewegenden Fracht12 . In der Ausführungsform von4 umfasst ein Emitter eine oder mehrere Leuchtdioden (LEDs)26 , die auf einem Dach des Frachtbeförderers22 montiert sind, um Licht in einem vorbestimmten Lichtmuster zu emittieren, und der Detektor umfasst eine oder mehrere Kameras28 , die stationär über Kopf in der Örtlichkeit10 montiert sind, um das vorbestimmte Lichtmuster des emittierten Lichts zu erfassen. Wie im dargestellten Beispiel gezeigt, sind drei LEDs26 in einer Reihe an einer Vorderkante des Daches und eine vierte LED zentral an einer Hinterkante des Daches montiert. Andere Muster der LEDs werden in Betracht gezogen. Die LEDs müssen nicht nur auf dem Dach montiert sein, sondern können auch irgendwo auf dem Gabelstapler22 montiert sein. In einigen Beispielen erkennen die Überkopfkameras28 das Muster der LEDs und die Bewegungsrichtung des Gabelstaplers22 . In der Ausführungsform von5 umfasst der Detektor eine nach oben gerichtete Kamera30 , die auf dem Dach des Frachtbeförderers22 montiert ist, und die Kamera30 bildet vorbestimmte Merkmale32 ab, die an bekannten, festen Positionen der Örtlichkeit10 , z. B. überkopf an der Decke14 , angeordnet sind, um jede aufeinanderfolgende Position und Ausrichtung der sich bewegenden Fracht12 zu lokalisieren. Das Verfolgungssystem muss nicht lichtbasiert sein, wie in den FIGs dargestellt. 4-5. So können beispielsweise Ultraschallemitter und -empfänger verwendet werden, um den Gabelstapler22 zu verfolgen. Als weiteres Beispiel könnten Radiofrequenzsender und -empfänger verwendet werden, um den Gabelstapler22 zu verfolgen. - Der beispielhafte Server
16 korreliert jede aufeinanderfolgende Punktwolke mit jeder aufeinanderfolgenden Position und Ausrichtung der sich bewegenden Fracht12 , kombiniert die korrelierten Punktwolken zu einer zusammengesetzten Punktwolke der sich bewegenden Fracht12 und verarbeitet die zusammengesetzte Punktwolke zum Dimensionieren der sich bewegenden Fracht12 . Vorteilhafterweise weist das Verfolgungssystem jeder aufeinanderfolgenden Position und Ausrichtung der sich bewegenden Fracht12 einen Zeitstempel zu und korreliert jede aufeinanderfolgenden Punktwolke mit jeder aufeinanderfolgenden zeitgestempelten Position und Ausrichtung der sich bewegenden Fracht12 . Insbesondere arbeiten die Kameras28 ,30 mit einer Framerate (Bildrate), z. B. 30-60 Frames pro Sekunde oder Hertz, und die jedem Frame zugeordnete Zeit entspricht der Zeit, die für jede aufeinanderfolgende Position und Ausrichtung von den Kameras28 ,30 erfasst wird. - Insbesondere schätzt der Server
16 die Dimensionen der sich bewegenden Fracht12 , indem er einen oder mehrere Dimensionierungsalgorithmen, wie in9 schematisch dargestellt, auf die Datenpunkte der erfassten und korrelierten Punktwolken anwendet. Wie im Blockdiagramm von6 dargestellt, erfasst somit jede (1 .... n) der 3D-Kameras 20 die Punktwolken (Blöcke46 ). Der Server16 weist jede der 3D-Kameras 20 von6 an, sequentiell zu arbeiten (Block38 ). Jede aufeinanderfolgende Punktwolke umfasst Datenpunkte von der Fracht12 und von dem Hintergrund, z. B. vom Gabelstapler22 und anderen Umgebungsstrukturen. Darüber hinaus verfolgt jede (1 .... n) der Kameras, z. B. die Kameras28 von4 , eine Vielzahl von aufeinanderfolgenden Positionen und Ausrichtungen und entsprechenden Zeiten der sich bewegenden Fracht12 (Blöcke48 ) und aggregiert alle Positionen und Ausrichtungen und entsprechenden Zeiten von allen Kameras28 (Block49 ). Der Server16 korreliert jede aufeinanderfolgende Punktwolke mit der aggregierten zeitgestempelten Position und Ausrichtung der sich bewegenden Fracht12 und kombiniert die korrelierten Punktwolken, um, wie in7 dargestellt, eine kombinierte Punktwolke42 zu erhalten, die Datenpunkte von der Fracht12 und von dem Hintergrund umfasst, z. B. dem Gabelstapler22 und anderen Umgebungsstrukturen (Block50 ). - Die Datenpunkte vom Hintergrund werden von den Datenpunkten von der Fracht
12 getrennt und entfernt, um, wie in8 dargestellt, eine kombinierte Punktwolke44 von lediglich der Fracht12 zu bilden (Block52 ). Wie in9 dargestellt, wird nach dem Erfassen und Korrelieren der Punktwolken (Block100 ) das Erfassen des Hintergrunds durchgeführt (Block102 ), indem aus den Datenpunkten die Ebene mit der größten Fläche im Sichtfeld bestimmt wird, z. B. durch Ausführen eines RANSAC-Algorithmus (random sampling consensus). Details zur Ebenenerfassung mit dem RANSAC-Algorithmus können unter Bezugnahme auf „Plane Detection in Point Cloud Data“, von Yang et al., Technical Report No. 1, Department of Photogrammetry, Universität Bonn, 25. Januar 2010, eingesehen werden, deren gesamter Inhalt hierin durch Bezugnahme aufgenommen wird. - Nachdem die Basisebene oder der Hintergrund erfasst wurde, werden die Datenpunkte der Basisebene aus der kombinierten Punktwolke
42 entfernt. Die restlichen Datenpunkte werden dann gebündelt, z. B. durch euklidisches Clustern (Block104 ). Das heißt, eine Vielzahl der Datenpunkte sind in Gruppen organisiert, die eine Ähnlichkeit aufweisen, z. B. eine Entfernung oder Nähe zueinander. Mit den geclusterten Datenpunkten wird die Fracht12 extrahiert und lokalisiert (Block106 ). - Der Server
16 bildet eine minimale Begrenzungsbox (siehe auch8 ) über die zusammengesetzte Punktwolke44 (Block54 ). Die Begrenzungsbox hat Höhen-, Breiten- und Tiefendimensionen, und diese Dimensionen, wie sie aus der Begrenzungsbox bestimmt werden, werden zum Dimensionieren der Fracht12 verwendet (Block56 ). Insbesondere werden die extrahierten, geclusterten Datenpunkte, die zu der Fracht12 gehören, zu einer konvexen Hülle verarbeitet (Block108 ). Die konvexe Hülle bildet nur diejenigen äußeren Datenpunkte, die sich an der äußeren Begrenzung oder Umhüllung der zur Fracht12 gehörenden Datenpunkte befinden. Im veranschaulichten Beispiel wird die konvexe Hülle der Fracht12 bestimmt, und die restlichen inneren Datenpunkte der zur Fracht12 innerhalb der konvexen Hülle gehörenden Datenpunkte werden verworfen. - Die Begrenzungsbox ist so angepasst, dass sie die konvexe Hülle mit einem Mindestvolumen umschließt (Block
110 ). Im dargestellten Beispiel hat die Begrenzungsbox eine rechteckige Parallel- oder Quaderform mit drei Paaren von zueinander orthogonalen ebenen Flächen und ist um die konvexe Hülle herum angepasst. Wie in8 zu sehen ist, entspricht das Volumen der Begrenzungsbox nahezu den Dimensionen oder dem Volumen der extrahierten, geclusterten Datenpunkte der Fracht12 , wodurch die Fracht12 genau dimensioniert wird. Die Begrenzungsbox wird mit bestimmten flächigen Begrenzungen ausgerichtet. Insbesondere ist mindestens eine der Flächen der Begrenzungsbox, z. B. eine Oberseite, im Allgemeinen parallel zum Boden ausgerichtet, und gleichzeitig ist eine der anderen Flächen der Begrenzungsbox, z. B. eine Seitenfläche, orthogonal zur Oberseite ausgerichtet. - Im veranschaulichten Beispiel wird die Fracht
12 gewogen (Block58 ). Alternativ wird das Wiegen entweder vor oder während der Dimensionierung durchgeführt. Im dargestellten Beispiel wird die Fracht12 effizient in einen Container verladen, typischerweise für den Transport zu Lande, auf der Schiene, zu Wasser, in der Luft etc. (Block60 ). - In der vorstehenden Beschreibung wurden spezifische Ausführungsformen beschrieben. Ein Durchschnittsfachmann erkennt jedoch, dass verschiedene Modifikationen und Änderungen vorgenommen werden können, ohne den Schutzumfang der hierin offenbarten beispielhaften Verfahren und Vorrichtungen zu verlassen. Dementsprechend sind die Beschreibung und die Figuren vielmehr in einem illustrativen als in einem einschränkenden Sinne zu betrachten, und alle derartigen Modifikationen sollen im Umfang der vorliegenden Lehren eingeschlossen sein.
- Die Nutzen, Vorteile, Lösungen für Probleme und alle Elemente, die zum Auftreten oder einer Verstärkung eines Nutzens, eines Vorteils, oder einer Lösung führen können, sind nicht als kritische, erforderliche oder wesentliche Merkmale oder Elemente in einigen oder sämtlichen Ansprüchen zu verstehen.
- Darüber hinaus können in diesem Dokument relationale Begriffe wie erster und zweiter, oberer und unterer und dergleichen lediglich verwendet sein, um eine Entität oder Aktion von einer anderen Entität oder Aktion zu unterscheiden, ohne notwendigerweise eine tatsächliche derartige Beziehung oder Reihenfolge zwischen solchen Entitäten oder Aktionen zu erfordern oder zu implizieren. Die Ausdrücke „umfasst“, „umfassend“, „hat“, „haben“, „aufweist“, „aufweisen“, „enthält“, „enthalten“ oder jede andere Variation davon sollen eine nicht-ausschließliche Einbeziehung abdecken, derart, dass ein Prozess, Verfahren, Produkt oder Vorrichtung, das eine Liste von Elementen umfasst, hat, aufweist, enthält, nicht nur diese Elemente aufweist, sondern auch andere Elemente aufweisen kann, die nicht ausdrücklich aufgelistet sind oder einem solchen Prozess, Verfahren, Produkt oder Vorrichtung inhärent sind. Ein Element, dem „umfasst ... ein“, „hat... ein“, „aufweist ... ein“ oder „enthält ...ein“ vorausgeht, schließt ohne weitere Einschränkungen die Existenz zusätzlicher identischer Elemente in dem Prozess, dem Verfahren, dem Produkt oder der Vorrichtung, die das Element umfasst, hat, aufweist oder enthält, nicht aus. Die Begriffe „ein“ und „eine“ sind als eine oder mehrere definiert, sofern es hierin nicht ausdrücklich anders angegeben wird. Die Begriffe „im Wesentlichen“, „im Allgemeinen“, „ungefähr“, „etwa“ oder jede andere Version davon sind so definiert, dass sie von einem Fachmann auf diesem Gebiet nahekommend verstanden werden, und in einer nicht-einschränkenden Ausführungsform ist der Ausdruck definiert als innerhalb von 10%, in einer weiteren Ausführungsform als innerhalb von 5%, in einer weiteren Ausführungsform als innerhalb von 1% und in einer weiteren Ausführungsform als innerhalb von 0,5%. Der Ausdruck „gekoppelt“, wie er hierin verwendet wird, ist als verbunden definiert, jedoch nicht notwendigerweise direkt und nicht notwendigerweise mechanisch. Eine Vorrichtung oder eine Struktur, die auf eine bestimmte Art „ausgeführt“ ist, ist zumindest auch so ausgeführt, kann aber auch auf Arten ausgeführt sein, die nicht aufgeführt sind.
- Es versteht sich, dass einige Ausführungsformen von einem oder mehreren generischen oder spezialisierten Prozessoren (oder „Verarbeitungsgeräten“) wie Mikroprozessoren, digitale Signalprozessoren, kundenspezifische Prozessoren und Field-Programmable-Gate-Arrays (FPGAs) und einmalig gespeicherten Programmanweisungen (einschließlich sowohl Software als auch Firmware) umfasst sein können, die den einen oder die mehreren Prozessoren steuern, um in Verbindung mit bestimmten Nicht-Prozessorschaltungen einige, die meisten oder alle der hierin beschriebenen Funktionen des Verfahrens und/oder der Vorrichtung zu implementieren. Alternativ können einige oder alle Funktionen durch eine Zustandsmaschine implementiert sein, die keine gespeicherten Programmanweisungen aufweist, oder in einer oder mehreren anwendungsspezifischen integrierten Schaltungen (ASICs), in denen jede Funktion oder einige Kombinationen von bestimmten Funktionen als benutzerdefinierte Logik implementiert sind. Natürlich kann eine Kombination der beiden Ansätze verwendet werden.
- Darüber hinaus kann eine Ausführungsform als ein computerlesbares Speichermedium implementiert sein, auf dem computerlesbarer Code gespeichert ist, um einen Computer (der zum Beispiel einen Prozessor umfasst) zu programmieren, um ein Verfahren auszuführen, wie es hierin beschrieben und beansprucht ist. Beispiele solcher computerlesbaren Speichermedien weisen eine Festplatte, eine CD-ROM, eine optische Speichervorrichtung, eine magnetische Speichervorrichtung, einen ROM (Nur-Lese-Speicher), einen PROM (programmierbarer Nur-Lese-Speicher), einen EPROM (löschbarer programmierbarer Nur-Lese-Speicher), einen EEPROM (elektrisch löschbarer programmierbarer Nur-Lese-Speicher) und einen Flash-Speicher auf, sind aber nicht hierauf beschränkt auf. Ferner wird davon ausgegangen, dass ein Durchschnittsfachmann, ungeachtet möglicher signifikanter Anstrengungen und vieler Designwahlen, die zum Beispiel durch verfügbare Zeit, aktuelle Technologie und wirtschaftliche Überlegungen motiviert sind, ohne Weiteres in der Lage ist, solche Softwareanweisungen und -programme und ICs mit minimalem Experimentieren zu generieren, wenn er durch die hierin offenbarten Konzepte und Prinzipien angeleitet wird.
- Die Zusammenfassung der Offenbarung wird bereitgestellt, um es dem Leser zu ermöglichen, schnell das Wesen der technischen Offenbarung zu ermitteln. Sie wird mit dem Verständnis bereitgestellt, dass sie nicht zur Auslegung oder Einschränkung des Umfangs oder der Bedeutung der Ansprüche verwendet wird. Ferner kann der vorangehenden detaillierten Beschreibung entnommen werden, dass verschiedene Merkmale in verschiedenen Ausführungsformen zum Zwecke der Verschlankung der Offenbarung zusammengefasst sind. Diese Art der Offenbarung ist nicht so auszulegen, dass es die Absicht widerspiegelt, dass die beanspruchten Ausführungsformen mehr Merkmale erfordern, als ausdrücklich in jedem Anspruch angegeben sind. Vielmehr ist es so, wie die folgenden Ansprüche zeigen, dass der erfinderische Gegenstand in weniger als allen Merkmalen einer einzigen offenbarten Ausführungsform liegt. Somit werden die folgenden Ansprüche hiermit in die detaillierte Beschreibung inkorporiert, wobei jeder Anspruch für sich als ein separat beanspruchter Gegenstand steht.
Claims (20)
- Dimensionierungssystem zum Dimensionieren einer sich bewegenden Fracht, die sich entlang eines nicht unterbrochenen Pfades in einer Örtlichkeit bewegt, wobei das Dimensionierungssystem umfasst: ein Entfernungssystem, das ausgeführt ist, um eine Vielzahl von aufeinanderfolgenden Punktwolken zu erfassen, die für die sich bewegende Fracht repräsentativ sind; ein Verfolgungssystem, das ausgeführt ist, um eine Vielzahl von aufeinanderfolgenden Positionen und Ausrichtungen der sich bewegenden Fracht zu verfolgen; und eine Rechenvorrichtung, die in Kommunikation mit dem Entfernungssystem und dem Verfolgungssystem steht, wobei die Rechenvorrichtung ausgeführt ist, zum: Korrelieren jeder der aufeinanderfolgenden Punktwolken mit jeder der aufeinanderfolgenden Positionen und Ausrichtungen der sich bewegenden Fracht; Kombinieren der korrelierten Punktwolken, um eine zusammengesetzte Punktwolke zu erhalten, die für die sich bewegende Fracht repräsentativ ist; und Verarbeiten der zusammengesetzte Punktwolke, um die sich bewegende Fracht zu dimensionieren.
- Dimensionierungssystem nach
Anspruch 1 , wobei ein Frachtbeförderer zum Bewegen der Fracht entlang des nicht unterbrochenen Pfades vorbei an den Entfernungs- und Verfolgungssystemen ausgeführt ist. - Dimensionierungssystem nach
Anspruch 2 , wobei die zusammengesetzte Punktwolke Datenpunkte umfasst, die mit der Fracht und dem Frachtbeförderer korrespondieren, und die Rechenvorrichtung ausgeführt ist zum: Entfernen der Datenpunkte, die mit dem Frachtbeförderer aus der zusammengesetzten Punktwolke korrespondieren; Umschließen der Datenpunkte der zusammengesetzten Punktwolke mit einer Begrenzungsbox mit Dimensionen; und Dimensionieren der sich bewegenden Fracht anhand der Dimensionen der Begrenzungsbox. - Dimensionierungssystem nach
Anspruch 2 , wobei das Verfolgungssystem einen Detektor umfasst, der an einem des Frachtbeförderers und der Örtlichkeit montiert ist und ausgeführt ist, um jede der aufeinanderfolgenden Positionen und Ausrichtungen der sich bewegenden Fracht zu erfassen. - Dimensionierungssystem nach
Anspruch 4 , wobei: das Verfolgungssystem einen Emitter umfasst, der ausgeführt ist, um ein Signal auszusenden; der Detektor ausgeführt ist, das ausgesendete Signal zu erfassen; einer des Emitters und des Detektors auf dem Frachtbeförderer für eine gemeinsame Bewegung mit diesem montiert ist; und der andere des Emitters und des Detektors in der Örtlichkeit entfernt vom Frachtbeförderer montiert ist. - Dimensionierungssystem nach
Anspruch 5 , wobei: der Emitter mindestens eine an dem Frachtbeförderer montierte Leuchtdiode (LED) umfasst, die ausgeführt ist, um Licht in einem vorbestimmten Lichtmuster zu emittieren, und der Detektor mindestens eine Kamera umfasst, die stationär in der Örtlichkeit montiert ist, um das vorbestimmte Lichtmuster zu erfassen. - Dimensionierungssystem nach
Anspruch 5 , wobei der Detektor eine Kamera umfasst, die am Frachtbeförderer montiert ist und konfiguriert ist, um mindestens ein Merkmal abzubilden, das an einem bekannten, festen Ort in der Örtlichkeit angeordnet ist, um jede der aufeinanderfolgenden Positionen und Ausrichtungen der sich bewegenden Fracht zu lokalisieren. - Dimensionierungssystem nach
Anspruch 1 , wobei das Entfernungssystem mindestens eine dreidimensionale (3D) Kamera umfasst, die an einem Ort angeordnet ist, durch den die Fracht bewegt wird. - Dimensionierungssystem nach
Anspruch 8 , wobei die mindestens eine 3D-Kamera stationär in der Örtlichkeit montiert ist und die 3D-Kamera einen Sensor umfasst, der auf einen Bereich einer erwarteten Bewegung ausgerichtet ist, die mit der sich bewegenden Fracht assoziiert ist. - Dimensionierungssystem nach
Anspruch 1 , wobei das Verfolgungssystem konfiguriert ist zum: Zuweisen eines Zeitstempels zu jeder der aufeinanderfolgenden Positionen und Ausrichtungen der sich bewegenden Fracht; und Korrelieren jeder der aufeinanderfolgenden Punktwolken mit jeder der aufeinanderfolgenden zeitgestempelten Positionen und Ausrichtungen der sich bewegenden Fracht. - Verfahren zum Dimensionieren einer sich bewegenden Fracht, die sich entlang eines nicht unterbrochenen Pfades in einer Örtlichkeit bewegt, wobei das Verfahren umfasst: Erfassen einer Vielzahl von aufeinanderfolgenden Punktwolken, die für die sich bewegende Fracht repräsentativ sind; Verfolgen einer Vielzahl von aufeinanderfolgenden Positionen und Ausrichtungen der sich bewegenden Fracht; Korrelieren jeder der aufeinanderfolgenden Punktwolken mit jeder der aufeinanderfolgenden Positionen und Ausrichtungen der sich bewegenden Fracht; Kombinieren der korrelierten Punktwolken, um eine zusammengesetzte Punktwolke der sich bewegenden Fracht zu erhalten; und Verarbeiten der zusammengesetzten Punktwolke zum Dimensionieren der sich bewegenden Fracht.
- Verfahren nach
Anspruch 11 , wobei ein Frachtbeförderer die Fracht entlang des nicht unterbrochenen Pfades in der Örtlichkeit bewegt. - Verfahren nach
Anspruch 12 , wobei: die zusammengesetzte Punktwolke Datenpunkte umfasst, die für die Fracht und den Frachtbeförderer repräsentativ sind; das Verarbeiten durchgeführt wird durch: Entfernen der Datenpunkte, die mit dem Frachtbeförderer aus der zusammengesetzten Punktwolke korrespondieren; Einschließen der zusammengesetzten Punktwolke mit einer Begrenzungsbox mit Dimensionen; und Dimensionierung der sich bewegenden Fracht aus den Dimensionen der Begrenzungsbox. - Verfahren nach
Anspruch 12 , ferner umfassend Erfassen jeder der aufeinanderfolgenden Positionen und Ausrichtungen der sich bewegenden Fracht mit einem Detektor, der an einem des Frachtbeförderers und der Örtlichkeit montiert ist. - Verfahren nach
Anspruch 14 , wobei: die Verfolgung erfolgt durch Aussenden eines Signals von einem Emitter, der an einem des Frachtbeförderers und der Örtlichkeit montiert ist; und der Detektor das ausgesendete Signal erfasst, wobei der Detektor auf dem anderen des Frachtbeförderers und der Örtlichkeit montiert ist. - Verfahren nach
Anspruch 15 , ferner umfassend Konfigurieren des Emitters mit mindestens einer Leuchtdiode (LED), die an dem Frachtbeförderer montiert ist, um Licht in einem vorbestimmten Lichtmuster zu emittieren, und Konfigurieren des Detektors mit mindestens einer Kamera, die stationär an der Örtlichkeit montiert ist, um das vorbestimmte Lichtmuster zu erfassen. - Verfahren nach
Anspruch 14 , ferner umfassend Konfigurieren des Detektors mit einer Kamera, die an dem Frachtbeförderer montiert ist, um mindestens ein Merkmal abzubilden, das an einem bekannten, festen Ort in der Örtlichkeit angeordnet ist, um jede der aufeinanderfolgenden Positionen und Ausrichtungen der sich bewegenden Fracht zu lokalisieren. - Verfahren nach
Anspruch 11 , wobei das Erfassen durch Anordnen mindestens einer dreidimensionalen (3D-)Kamera an einem Ort, durch den die Fracht bewegt wird, durchgeführt wird. - Verfahren nach
Anspruch 18 , ferner umfassend ein stationäres Montieren der mindestens einen 3D-Kamera in der Örtlichkeit in einem Bereich einer erwarteten Bewegung, die mit der sich bewegenden Fracht assoziiert ist. - Verfahren nach
Anspruch 11 , ferner umfassend Zuweisen eines Zeitstempels zu jeder der aufeinanderfolgenden Positionen und Ausrichtungen der sich bewegenden Fracht und Korrelieren jeder der aufeinanderfolgenden Punktwolken mit jeder der aufeinanderfolgenden zeitgestempelten Positionen und Ausrichtungen der sich bewegenden Fracht.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/358,810 | 2016-11-22 | ||
US15/358,810 US10451405B2 (en) | 2016-11-22 | 2016-11-22 | Dimensioning system for, and method of, dimensioning freight in motion along an unconstrained path in a venue |
PCT/US2017/057669 WO2018097915A1 (en) | 2016-11-22 | 2017-10-20 | Dimensioning system for, and method of, dimensioning freight in motion along an unconstrained path in a venue |
Publications (1)
Publication Number | Publication Date |
---|---|
DE112017005910T5 true DE112017005910T5 (de) | 2019-08-29 |
Family
ID=62146869
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE112017005910.0T Pending DE112017005910T5 (de) | 2016-11-22 | 2017-10-20 | Dimensionierungssystem zum und Verfahren zum Dimensionieren von sich entlang eines nicht eingeschränkten Pfades in einer Örtlichkeit bewegender Fracht |
Country Status (3)
Country | Link |
---|---|
US (1) | US10451405B2 (de) |
DE (1) | DE112017005910T5 (de) |
WO (1) | WO2018097915A1 (de) |
Families Citing this family (61)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
PL3507216T3 (pl) | 2016-08-04 | 2021-07-12 | Opex Corporation | Zautomatyzowany system magazynowania i odbierania z detektorem do wykrywania przedmiotów wystających poza wartość graniczną wymiarów |
US11042161B2 (en) | 2016-11-16 | 2021-06-22 | Symbol Technologies, Llc | Navigation control method and apparatus in a mobile automation system |
DE112018002314T5 (de) | 2017-05-01 | 2020-01-23 | Symbol Technologies, Llc | Verfahren und vorrichtung zur erkennung eines objektstatus |
US10726273B2 (en) | 2017-05-01 | 2020-07-28 | Symbol Technologies, Llc | Method and apparatus for shelf feature and object placement detection from shelf images |
US10663590B2 (en) | 2017-05-01 | 2020-05-26 | Symbol Technologies, Llc | Device and method for merging lidar data |
US11367092B2 (en) | 2017-05-01 | 2022-06-21 | Symbol Technologies, Llc | Method and apparatus for extracting and processing price text from an image set |
US10591918B2 (en) | 2017-05-01 | 2020-03-17 | Symbol Technologies, Llc | Fixed segmented lattice planning for a mobile automation apparatus |
US10949798B2 (en) | 2017-05-01 | 2021-03-16 | Symbol Technologies, Llc | Multimodal localization and mapping for a mobile automation apparatus |
US11449059B2 (en) | 2017-05-01 | 2022-09-20 | Symbol Technologies, Llc | Obstacle detection for a mobile automation apparatus |
US11093896B2 (en) | 2017-05-01 | 2021-08-17 | Symbol Technologies, Llc | Product status detection system |
US11600084B2 (en) | 2017-05-05 | 2023-03-07 | Symbol Technologies, Llc | Method and apparatus for detecting and interpreting price label text |
US10521914B2 (en) | 2017-09-07 | 2019-12-31 | Symbol Technologies, Llc | Multi-sensor object recognition system and method |
US10572763B2 (en) | 2017-09-07 | 2020-02-25 | Symbol Technologies, Llc | Method and apparatus for support surface edge detection |
US10832436B2 (en) | 2018-04-05 | 2020-11-10 | Symbol Technologies, Llc | Method, system and apparatus for recovering label positions |
US11327504B2 (en) | 2018-04-05 | 2022-05-10 | Symbol Technologies, Llc | Method, system and apparatus for mobile automation apparatus localization |
US10823572B2 (en) | 2018-04-05 | 2020-11-03 | Symbol Technologies, Llc | Method, system and apparatus for generating navigational data |
US10809078B2 (en) | 2018-04-05 | 2020-10-20 | Symbol Technologies, Llc | Method, system and apparatus for dynamic path generation |
US10740911B2 (en) | 2018-04-05 | 2020-08-11 | Symbol Technologies, Llc | Method, system and apparatus for correcting translucency artifacts in data representing a support structure |
US10930001B2 (en) * | 2018-05-29 | 2021-02-23 | Zebra Technologies Corporation | Data capture system and method for object dimensioning |
US11010920B2 (en) | 2018-10-05 | 2021-05-18 | Zebra Technologies Corporation | Method, system and apparatus for object detection in point clouds |
US11506483B2 (en) | 2018-10-05 | 2022-11-22 | Zebra Technologies Corporation | Method, system and apparatus for support structure depth determination |
US11379788B1 (en) | 2018-10-09 | 2022-07-05 | Fida, Llc | Multilayered method and apparatus to facilitate the accurate calculation of freight density, area, and classification and provide recommendations to optimize shipping efficiency |
CN109238172B (zh) * | 2018-10-16 | 2020-09-11 | 武汉万集信息技术有限公司 | 车辆轮廓信息的获取方法、装置及系统 |
US11090811B2 (en) | 2018-11-13 | 2021-08-17 | Zebra Technologies Corporation | Method and apparatus for labeling of support structures |
US11003188B2 (en) | 2018-11-13 | 2021-05-11 | Zebra Technologies Corporation | Method, system and apparatus for obstacle handling in navigational path generation |
WO2020107020A1 (en) * | 2018-11-23 | 2020-05-28 | Volvo Car Corporation | Lidar-based multi-person pose estimation |
US11416000B2 (en) | 2018-12-07 | 2022-08-16 | Zebra Technologies Corporation | Method and apparatus for navigational ray tracing |
US11079240B2 (en) | 2018-12-07 | 2021-08-03 | Zebra Technologies Corporation | Method, system and apparatus for adaptive particle filter localization |
US11100303B2 (en) | 2018-12-10 | 2021-08-24 | Zebra Technologies Corporation | Method, system and apparatus for auxiliary label detection and association |
US11015938B2 (en) | 2018-12-12 | 2021-05-25 | Zebra Technologies Corporation | Method, system and apparatus for navigational assistance |
US10731970B2 (en) | 2018-12-13 | 2020-08-04 | Zebra Technologies Corporation | Method, system and apparatus for support structure detection |
CA3028708A1 (en) | 2018-12-28 | 2020-06-28 | Zih Corp. | Method, system and apparatus for dynamic loop closure in mapping trajectories |
US10776651B2 (en) * | 2019-01-18 | 2020-09-15 | Intelligrated Headquarters, Llc | Material handling method, apparatus, and system for identification of a region-of-interest |
US11308639B2 (en) | 2019-03-12 | 2022-04-19 | Volvo Car Corporation | Tool and method for annotating a human pose in 3D point cloud data |
CN111739164A (zh) | 2019-03-19 | 2020-10-02 | 北京京东尚科信息技术有限公司 | 箱体建模方法、装置、机器人拣选系统、电子设备及介质 |
US11080566B2 (en) | 2019-06-03 | 2021-08-03 | Zebra Technologies Corporation | Method, system and apparatus for gap detection in support structures with peg regions |
US11151743B2 (en) | 2019-06-03 | 2021-10-19 | Zebra Technologies Corporation | Method, system and apparatus for end of aisle detection |
US11960286B2 (en) | 2019-06-03 | 2024-04-16 | Zebra Technologies Corporation | Method, system and apparatus for dynamic task sequencing |
US11662739B2 (en) | 2019-06-03 | 2023-05-30 | Zebra Technologies Corporation | Method, system and apparatus for adaptive ceiling-based localization |
US11402846B2 (en) | 2019-06-03 | 2022-08-02 | Zebra Technologies Corporation | Method, system and apparatus for mitigating data capture light leakage |
US11200677B2 (en) | 2019-06-03 | 2021-12-14 | Zebra Technologies Corporation | Method, system and apparatus for shelf edge detection |
US11341663B2 (en) | 2019-06-03 | 2022-05-24 | Zebra Technologies Corporation | Method, system and apparatus for detecting support structure obstructions |
CN112066892A (zh) * | 2019-06-11 | 2020-12-11 | 康耐视公司 | 用于细化由3d视觉系统成像的大体立方形3d物体的尺寸的系统和方法及其控制装置 |
US11335021B1 (en) | 2019-06-11 | 2022-05-17 | Cognex Corporation | System and method for refining dimensions of a generally cuboidal 3D object imaged by 3D vision system and controls for the same |
US11605177B2 (en) | 2019-06-11 | 2023-03-14 | Cognex Corporation | System and method for refining dimensions of a generally cuboidal 3D object imaged by 3D vision system and controls for the same |
CN110781937B (zh) * | 2019-10-16 | 2022-05-17 | 广州大学 | 一种基于全局视角的点云特征提取方法 |
WO2021099648A1 (es) * | 2019-11-18 | 2021-05-27 | Asociacion Centro Tecnologico Ceit | Sistema de control dimensional mediante vision fotogrametrica |
US11507103B2 (en) | 2019-12-04 | 2022-11-22 | Zebra Technologies Corporation | Method, system and apparatus for localization-based historical obstacle handling |
US11107238B2 (en) | 2019-12-13 | 2021-08-31 | Zebra Technologies Corporation | Method, system and apparatus for detecting item facings |
US11804051B2 (en) * | 2020-02-25 | 2023-10-31 | Zebra Technologies Corporation | Parallel data capture system |
US11227404B2 (en) * | 2020-02-25 | 2022-01-18 | Zebra Technologies Corporation | Transporter segmentation for data capture system |
US11822333B2 (en) | 2020-03-30 | 2023-11-21 | Zebra Technologies Corporation | Method, system and apparatus for data capture illumination control |
US11450024B2 (en) | 2020-07-17 | 2022-09-20 | Zebra Technologies Corporation | Mixed depth object detection |
US11593915B2 (en) | 2020-10-21 | 2023-02-28 | Zebra Technologies Corporation | Parallax-tolerant panoramic image generation |
US11392891B2 (en) | 2020-11-03 | 2022-07-19 | Zebra Technologies Corporation | Item placement detection and optimization in material handling systems |
US11847832B2 (en) | 2020-11-11 | 2023-12-19 | Zebra Technologies Corporation | Object classification for autonomous navigation systems |
CN112911221B (zh) * | 2021-01-15 | 2022-06-21 | 欧冶云商股份有限公司 | 一种基于5g和vr视频的远程实景仓储监管系统 |
WO2022197501A1 (en) * | 2021-03-16 | 2022-09-22 | Illinois Tool Works Inc. | Systems and methods for area wide object dimensioning |
US11954882B2 (en) | 2021-06-17 | 2024-04-09 | Zebra Technologies Corporation | Feature-based georegistration for mobile computing devices |
US11995879B2 (en) | 2021-07-29 | 2024-05-28 | Datalogic Usa, Inc. | Image processing for separation of adjacent objects |
EP4202853A1 (de) * | 2021-12-22 | 2023-06-28 | Aptiv Technologies Limited | Quasi-rotationsinvarianter formdeskriptor |
Family Cites Families (122)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5408322A (en) | 1993-04-26 | 1995-04-18 | Materials Research Corporation | Self aligning in-situ ellipsometer and method of using for process monitoring |
US20020014533A1 (en) | 1995-12-18 | 2002-02-07 | Xiaxun Zhu | Automated object dimensioning system employing contour tracing, vertice detection, and forner point detection and reduction methods on 2-d range data maps |
US5831719A (en) | 1996-04-12 | 1998-11-03 | Holometrics, Inc. | Laser scanning system |
US5988862A (en) | 1996-04-24 | 1999-11-23 | Cyra Technologies, Inc. | Integrated system for quickly and accurately imaging and modeling three dimensional objects |
US6332098B2 (en) | 1998-08-07 | 2001-12-18 | Fedex Corporation | Methods for shipping freight |
US6820895B2 (en) | 1998-09-23 | 2004-11-23 | Vehicle Safety Systems, Inc. | Vehicle air bag minimum distance enforcement apparatus, method and system |
JP2002321698A (ja) | 2001-04-27 | 2002-11-05 | Mitsubishi Heavy Ind Ltd | 航空貨物運搬用ボーディング・ブリッジ |
US7277187B2 (en) | 2001-06-29 | 2007-10-02 | Quantronix, Inc. | Overhead dimensioning system and method |
US6995762B1 (en) | 2001-09-13 | 2006-02-07 | Symbol Technologies, Inc. | Measurement of dimensions of solid objects from two-dimensional image(s) |
US20060106742A1 (en) | 2002-04-29 | 2006-05-18 | Speed Trac Technologies, Inc. | System and method for weighing and tracking freight |
US7248754B2 (en) | 2003-05-05 | 2007-07-24 | International Business Machines Corporation | Apparatus and method for determining whether machine readable information on an item matches the item |
US7137207B2 (en) | 2003-06-23 | 2006-11-21 | Armstrong Timothy D | Measuring arrangement to determine location of corners for a building foundation and a wooden base frame, and the use thereof |
DE10336638A1 (de) | 2003-07-25 | 2005-02-10 | Robert Bosch Gmbh | Vorrichtung zur Klassifizierung wengistens eines Objekts in einem Fahrzeugumfeld |
TWI266035B (en) | 2003-11-11 | 2006-11-11 | Hon Hai Prec Ind Co Ltd | A system and method for measuring point-cloud |
US8294809B2 (en) | 2005-05-10 | 2012-10-23 | Advanced Scientific Concepts, Inc. | Dimensioning system |
US9829308B2 (en) | 2005-06-28 | 2017-11-28 | Outotec Pty Ltd | System and method for measuring and mapping a surface relative to a reference |
WO2007030026A1 (en) | 2005-09-09 | 2007-03-15 | Industrial Research Limited | A 3d scene scanner and a position and orientation system |
US7605817B2 (en) | 2005-11-09 | 2009-10-20 | 3M Innovative Properties Company | Determining camera motion |
US8157205B2 (en) | 2006-03-04 | 2012-04-17 | Mcwhirk Bruce Kimberly | Multibody aircrane |
CA2737169C (en) | 2006-04-28 | 2014-04-01 | Global Sensor Systems Inc. | Device for measuring package size |
US20070272732A1 (en) | 2006-05-26 | 2007-11-29 | Mettler-Toledo, Inc. | Weighing and dimensioning system and method for weighing and dimensioning |
US7647752B2 (en) | 2006-07-12 | 2010-01-19 | Greg Magnell | System and method for making custom boxes for objects of random size or shape |
WO2008057504A2 (en) | 2006-11-06 | 2008-05-15 | Aman James A | Load tracking system based on self- tracking forklift |
US8531457B2 (en) | 2006-11-29 | 2013-09-10 | Technion Research And Development Foundation Ltd. | Apparatus and method for finding visible points in a cloud point |
US7474389B2 (en) | 2006-12-19 | 2009-01-06 | Dean Greenberg | Cargo dimensional and weight analyzing system |
US7940279B2 (en) | 2007-03-27 | 2011-05-10 | Utah State University | System and method for rendering of texel imagery |
US8132728B2 (en) | 2007-04-04 | 2012-03-13 | Sick, Inc. | Parcel dimensioning measurement system and method |
US8094937B2 (en) | 2007-04-17 | 2012-01-10 | Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. | System and method for labeling feature clusters in frames of image data for optical navigation |
JP4561769B2 (ja) | 2007-04-27 | 2010-10-13 | アイシン・エィ・ダブリュ株式会社 | 経路案内システム及び経路案内方法 |
CA2699621A1 (en) | 2007-06-08 | 2008-12-11 | Tele Atlas N.V. | Method of and apparatus for producing a multi-viewpoint panorama |
WO2008154611A2 (en) | 2007-06-11 | 2008-12-18 | Honeywell International Inc. | Optical reader system for extracting information in a digital image |
US7726575B2 (en) | 2007-08-10 | 2010-06-01 | Hand Held Products, Inc. | Indicia reading terminal having spatial measurement functionality |
JP4466705B2 (ja) | 2007-09-21 | 2010-05-26 | ヤマハ株式会社 | ナビゲーション装置 |
US8396284B2 (en) | 2007-10-23 | 2013-03-12 | Leica Geosystems Ag | Smart picking in 3D point clouds |
US9841314B2 (en) | 2008-08-29 | 2017-12-12 | United Parcel Service Of America, Inc. | Systems and methods for freight tracking and monitoring |
WO2010029558A1 (en) | 2008-09-14 | 2010-03-18 | Eliezer Magal | Automatic identification system for randomly oriented objects |
US20100091094A1 (en) | 2008-10-14 | 2010-04-15 | Marek Sekowski | Mechanism for Directing a Three-Dimensional Camera System |
US8479996B2 (en) | 2008-11-07 | 2013-07-09 | Symbol Technologies, Inc. | Identification of non-barcoded products |
US8463079B2 (en) | 2008-12-16 | 2013-06-11 | Intermec Ip Corp. | Method and apparatus for geometrical measurement using an optical device such as a barcode and/or RFID scanner |
US8812226B2 (en) | 2009-01-26 | 2014-08-19 | GM Global Technology Operations LLC | Multiobject fusion module for collision preparation system |
US8265895B2 (en) | 2009-03-27 | 2012-09-11 | Symbol Technologies, Inc. | Interactive sensor systems and methods for dimensioning |
US8284988B2 (en) | 2009-05-13 | 2012-10-09 | Applied Vision Corporation | System and method for dimensioning objects using stereoscopic imaging |
US8743176B2 (en) | 2009-05-20 | 2014-06-03 | Advanced Scientific Concepts, Inc. | 3-dimensional hybrid camera and production system |
US8542252B2 (en) | 2009-05-29 | 2013-09-24 | Microsoft Corporation | Target digitization, extraction, and tracking |
US8933925B2 (en) | 2009-06-15 | 2015-01-13 | Microsoft Corporation | Piecewise planar reconstruction of three-dimensional scenes |
US20110047636A1 (en) | 2009-08-21 | 2011-02-24 | Syngenta Participations Ag | Crop Automated Relative Maturity System |
KR101619076B1 (ko) | 2009-08-25 | 2016-05-10 | 삼성전자 주식회사 | 모바일 플랫폼의 동적 물체 검출 및 추적 방법 |
US8942884B2 (en) | 2010-01-14 | 2015-01-27 | Innovative Transport Solutions, Llc | Transport system |
US20110216063A1 (en) | 2010-03-08 | 2011-09-08 | Celartem, Inc. | Lidar triangular network compression |
US9400170B2 (en) | 2010-04-21 | 2016-07-26 | Faro Technologies, Inc. | Automatic measurement of dimensional data within an acceptance region by a laser tracker |
US8619265B2 (en) | 2011-03-14 | 2013-12-31 | Faro Technologies, Inc. | Automatic measurement of dimensional data with a laser tracker |
US8199977B2 (en) | 2010-05-07 | 2012-06-12 | Honeywell International Inc. | System and method for extraction of features from a 3-D point cloud |
US8134717B2 (en) | 2010-05-21 | 2012-03-13 | LTS Scale Company | Dimensional detection system and associated method |
US20110310088A1 (en) | 2010-06-17 | 2011-12-22 | Microsoft Corporation | Personalized navigation through virtual 3d environments |
US8872851B2 (en) | 2010-09-24 | 2014-10-28 | Intel Corporation | Augmenting image data based on related 3D point cloud data |
EP2439487B1 (de) | 2010-10-06 | 2012-08-22 | Sick Ag | Volumenmessvorrichtung für bewegte Objekte |
US8867793B2 (en) | 2010-12-01 | 2014-10-21 | The Trustees Of The University Of Pennsylvania | Scene analysis using image and range data |
US8744644B2 (en) | 2011-01-19 | 2014-06-03 | Electronics And Telecommunications Research Institute | Apparatus and method for detecting location of vehicle |
KR101758058B1 (ko) | 2011-01-20 | 2017-07-17 | 삼성전자주식회사 | 깊이 정보를 이용한 카메라 모션 추정 방법 및 장치, 증강 현실 시스템 |
US9207302B2 (en) | 2011-01-30 | 2015-12-08 | Xueming Jiang | Fully-automatic verification system for intelligent electric energy meters |
US8447549B2 (en) | 2011-02-11 | 2013-05-21 | Quality Vision International, Inc. | Tolerance evaluation with reduced measured points |
US8660338B2 (en) | 2011-03-22 | 2014-02-25 | Honeywell International Inc. | Wide baseline feature matching using collobrative navigation and digital terrain elevation data constraints |
US9854209B2 (en) | 2011-04-19 | 2017-12-26 | Ford Global Technologies, Llc | Display system utilizing vehicle and trailer dynamics |
US20140351073A1 (en) | 2011-05-11 | 2014-11-27 | Proiam, Llc | Enrollment apparatus, system, and method featuring three dimensional camera |
US20120287249A1 (en) | 2011-05-12 | 2012-11-15 | Electronics And Telecommunications Research Institute | Method for obtaining depth information and apparatus using the same |
US9070285B1 (en) | 2011-07-25 | 2015-06-30 | UtopiaCompression Corporation | Passive camera based cloud detection and avoidance for aircraft systems |
KR101907081B1 (ko) | 2011-08-22 | 2018-10-11 | 삼성전자주식회사 | 3차원 점군의 물체 분리 방법 |
US9129277B2 (en) | 2011-08-30 | 2015-09-08 | Digimarc Corporation | Methods and arrangements for identifying objects |
US9002099B2 (en) | 2011-09-11 | 2015-04-07 | Apple Inc. | Learning-based estimation of hand and finger pose |
US8793107B2 (en) | 2011-12-01 | 2014-07-29 | Harris Corporation | Accuracy-based significant point derivation from dense 3D point clouds for terrain modeling |
CN103164842A (zh) | 2011-12-14 | 2013-06-19 | 鸿富锦精密工业(深圳)有限公司 | 点云提取系统及方法 |
US20130162806A1 (en) | 2011-12-23 | 2013-06-27 | Mitutoyo Corporation | Enhanced edge focus tool |
EP2615580B1 (de) | 2012-01-13 | 2016-08-17 | Softkinetic Software | Automatische Szenenkalibrierung |
US8668136B2 (en) | 2012-03-01 | 2014-03-11 | Trimble Navigation Limited | Method and system for RFID-assisted imaging |
EP2634120B1 (de) | 2012-03-01 | 2015-02-18 | Caljan Rite-Hite ApS | Erweiterbare Förderanlage mit Beleuchtung |
US9329269B2 (en) | 2012-03-15 | 2016-05-03 | GM Global Technology Operations LLC | Method for registration of range images from multiple LiDARS |
US8989342B2 (en) | 2012-04-18 | 2015-03-24 | The Boeing Company | Methods and systems for volumetric reconstruction using radiography |
US9153061B2 (en) | 2012-05-04 | 2015-10-06 | Qualcomm Incorporated | Segmentation of 3D point clouds for dense 3D modeling |
WO2013170260A1 (en) | 2012-05-11 | 2013-11-14 | Proiam, Llc | Hand held dimension capture apparatus, system, and method |
US9846960B2 (en) | 2012-05-31 | 2017-12-19 | Microsoft Technology Licensing, Llc | Automated camera array calibration |
US9135543B2 (en) | 2012-06-20 | 2015-09-15 | Apple Inc. | Compression and obfuscation of three-dimensional coding |
US9420265B2 (en) | 2012-06-29 | 2016-08-16 | Mitsubishi Electric Research Laboratories, Inc. | Tracking poses of 3D camera using points and planes |
WO2014018553A1 (en) | 2012-07-24 | 2014-01-30 | Datalogic ADC, Inc. | Systems and methods of object measurement in an automated data reader |
US8757479B2 (en) | 2012-07-31 | 2014-06-24 | Xerox Corporation | Method and system for creating personalized packaging |
DK2693362T3 (da) | 2012-07-31 | 2015-07-27 | Sick Ag | Detekteringssystem til montage på et transportbånd |
US9939259B2 (en) | 2012-10-04 | 2018-04-10 | Hand Held Products, Inc. | Measuring object dimensions using mobile computer |
US20140192050A1 (en) | 2012-10-05 | 2014-07-10 | University Of Southern California | Three-dimensional point processing and model generation |
US9472022B2 (en) | 2012-10-05 | 2016-10-18 | University Of Southern California | Three-dimensional point processing and model generation |
US9841311B2 (en) | 2012-10-16 | 2017-12-12 | Hand Held Products, Inc. | Dimensioning system |
WO2014068784A1 (ja) | 2012-11-05 | 2014-05-08 | 三菱電機株式会社 | 三次元画像撮影システム及び粒子線治療装置 |
WO2014080330A2 (en) | 2012-11-22 | 2014-05-30 | Geosim Systems Ltd. | Point-cloud fusion |
MY172143A (en) | 2012-12-13 | 2019-11-14 | Mimos Berhad | Method for non-static foreground feature extraction and classification |
US9154773B2 (en) | 2013-03-15 | 2015-10-06 | Seiko Epson Corporation | 2D/3D localization and pose estimation of harness cables using a configurable structure representation for robot operations |
US9558559B2 (en) | 2013-04-05 | 2017-01-31 | Nokia Technologies Oy | Method and apparatus for determining camera location information and/or camera pose information according to a global coordinate system |
CN105246744A (zh) | 2013-05-29 | 2016-01-13 | 丰田自动车株式会社 | 驻车支援装置 |
US9443297B2 (en) | 2013-07-10 | 2016-09-13 | Cognex Corporation | System and method for selective determination of point clouds |
US20150088618A1 (en) | 2013-08-26 | 2015-03-26 | Ims Solutions, Inc. | Road tolling |
US9615012B2 (en) | 2013-09-30 | 2017-04-04 | Google Inc. | Using a second camera to adjust settings of first camera |
US20150106403A1 (en) | 2013-10-15 | 2015-04-16 | Indooratlas Oy | Generating search database based on sensor measurements |
US9412040B2 (en) | 2013-12-04 | 2016-08-09 | Mitsubishi Electric Research Laboratories, Inc. | Method for extracting planes from 3D point cloud sensor data |
MY177646A (en) | 2014-02-28 | 2020-09-23 | Icm Airport Technics Australia Pty Ltd | Luggage processing station and system thereof |
CN103945208B (zh) | 2014-04-24 | 2015-10-28 | 西安交通大学 | 一种针对多视点裸眼3d显示的并行同步缩放引擎及方法 |
KR101769284B1 (ko) | 2014-06-27 | 2017-08-18 | 크라운 이큅먼트 코포레이션 | 연계된 형태 쌍들을 사용하는 미확인 차량 회수 |
US11051000B2 (en) | 2014-07-14 | 2021-06-29 | Mitsubishi Electric Research Laboratories, Inc. | Method for calibrating cameras with non-overlapping views |
DE102014011821A1 (de) | 2014-08-08 | 2016-02-11 | Cargometer Gmbh | Vorrichtung und Verfahren zur Volumenbestimmung eines durch ein Flurförderzeug bewegten Objekts |
US20160044862A1 (en) | 2014-08-14 | 2016-02-18 | Raven Industries, Inc. | Site specific product application device and method |
CN104200086B (zh) | 2014-08-25 | 2017-02-22 | 西北工业大学 | 宽基线可见光相机位姿估计方法 |
WO2016033451A1 (en) | 2014-08-28 | 2016-03-03 | Lts Metrology, Llc | Stationary dimensioning apparatus |
JP2016057108A (ja) * | 2014-09-08 | 2016-04-21 | 株式会社トプコン | 演算装置、演算システム、演算方法およびプログラム |
US9938092B2 (en) * | 2014-10-03 | 2018-04-10 | Wynright Corporation | Perception-based robotic manipulation system and method for automated truck unloader that unloads/unpacks product from trailers and containers |
US9600892B2 (en) | 2014-11-06 | 2017-03-21 | Symbol Technologies, Llc | Non-parametric method of and system for estimating dimensions of objects of arbitrary shape |
US10154246B2 (en) | 2014-11-20 | 2018-12-11 | Cappasity Inc. | Systems and methods for 3D capturing of objects and motion sequences using multiple range and RGB cameras |
US9396554B2 (en) | 2014-12-05 | 2016-07-19 | Symbol Technologies, Llc | Apparatus for and method of estimating dimensions of an object associated with a code in automatic response to reading the code |
US9646410B2 (en) | 2015-06-30 | 2017-05-09 | Microsoft Technology Licensing, Llc | Mixed three dimensional scene reconstruction from plural surface models |
CN111556253B (zh) | 2015-07-10 | 2022-06-14 | 深圳市大疆创新科技有限公司 | 生成组合图像的方法及系统、图像的显示方法及系统 |
US9549125B1 (en) | 2015-09-01 | 2017-01-17 | Amazon Technologies, Inc. | Focus specification and focus stabilization |
US20170150129A1 (en) | 2015-11-23 | 2017-05-25 | Chicago Measurement, L.L.C. | Dimensioning Apparatus and Method |
KR102373926B1 (ko) | 2016-02-05 | 2022-03-14 | 삼성전자주식회사 | 이동체 및 이동체의 위치 인식 방법 |
US10721451B2 (en) * | 2016-03-23 | 2020-07-21 | Symbol Technologies, Llc | Arrangement for, and method of, loading freight into a shipping container |
US9791862B1 (en) | 2016-04-25 | 2017-10-17 | Thayermahan, Inc. | Systems and method for unmanned undersea sensor position, orientation, and depth keeping |
US11436553B2 (en) * | 2016-09-08 | 2022-09-06 | Position Imaging, Inc. | System and method of object tracking using weight confirmation |
US9778388B1 (en) | 2016-12-22 | 2017-10-03 | Thayermahan, Inc. | Systems and methods for autonomous towing of an underwater sensor array |
-
2016
- 2016-11-22 US US15/358,810 patent/US10451405B2/en active Active
-
2017
- 2017-10-20 WO PCT/US2017/057669 patent/WO2018097915A1/en active Application Filing
- 2017-10-20 DE DE112017005910.0T patent/DE112017005910T5/de active Pending
Also Published As
Publication number | Publication date |
---|---|
WO2018097915A1 (en) | 2018-05-31 |
US10451405B2 (en) | 2019-10-22 |
US20180143003A1 (en) | 2018-05-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE112017005910T5 (de) | Dimensionierungssystem zum und Verfahren zum Dimensionieren von sich entlang eines nicht eingeschränkten Pfades in einer Örtlichkeit bewegender Fracht | |
DE112017006429T5 (de) | Verfahren, Systeme und Vorrichtungen zum Segmentieren von Objekten | |
EP1641704B1 (de) | Bewegliche sensoreinrichtung am lastmittel eines gabelstaplers | |
US10721451B2 (en) | Arrangement for, and method of, loading freight into a shipping container | |
EP3177889B1 (de) | Vorrichtung und verfahren zur volumenbestimmung eines durch ein flurförderzeug bewegten objekts | |
US10315866B2 (en) | 3D-2D vision system for robotic carton unloading | |
US9619725B2 (en) | Processing container images and identifiers using optical character recognition and geolocation | |
EP2439487B1 (de) | Volumenmessvorrichtung für bewegte Objekte | |
DE112018006533T5 (de) | Schätzung der Containerausnutzung | |
DE112018005979T5 (de) | Schätzung der be-/entladezeit von containern | |
CN107031938A (zh) | 传送系统的致动 | |
EP2574587A1 (de) | Verfahren zur Bestimmung einer Zielposition für ein Containergeschirr und Containergeschirr | |
CN113165853B (zh) | 将集装箱装载在着落目标上的系统和方法 | |
DE102018132764A1 (de) | Anhängertürüberwachung und -berichten | |
CN109399250A (zh) | 自动装卸车标定系统与方法 | |
CN107067439B (zh) | 一种基于车头检测的集装箱卡车定位与引导方法 | |
DE102020206387A1 (de) | Verfahren und computersystem zur verarbeitung vonkandidatenkanten | |
EP3696135B1 (de) | Gabelstapler und system mit gabelstapler zur identifikation einer ware | |
US11977392B2 (en) | Identifying elements in an environment | |
DE112022000929T5 (de) | Automatisierte einheitslast-abfertigungsverfahren und -systeme | |
DE10323643B4 (de) | Sensorsystem für ein autonomes Flurförderfahrzeug | |
CN210464391U (zh) | 货物测量装置及运力配置系统 | |
DE102020124221A1 (de) | Verfahren und Computersystem zum Ausführen von Behälterdetektion und Objektdetektion | |
CN116425088A (zh) | 货物搬运方法、装置及机器人 | |
CN114524209A (zh) | 一种基于双tof相机的agv高位堆叠方法及检测装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R016 | Response to examination communication |