DE112015005076T5 - Nicht-parametrisches Verfahren und System zum Abschätzen von Dimensionen von Objekten mit beliebiger Form - Google Patents
Nicht-parametrisches Verfahren und System zum Abschätzen von Dimensionen von Objekten mit beliebiger Form Download PDFInfo
- Publication number
- DE112015005076T5 DE112015005076T5 DE112015005076.0T DE112015005076T DE112015005076T5 DE 112015005076 T5 DE112015005076 T5 DE 112015005076T5 DE 112015005076 T DE112015005076 T DE 112015005076T DE 112015005076 T5 DE112015005076 T5 DE 112015005076T5
- Authority
- DE
- Germany
- Prior art keywords
- data points
- base plane
- base
- bounding box
- point cloud
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 29
- 238000004513 sizing Methods 0.000 claims abstract description 6
- 238000012545 processing Methods 0.000 claims description 6
- 238000000605 extraction Methods 0.000 claims description 4
- 238000005070 sampling Methods 0.000 claims description 4
- 230000008569 process Effects 0.000 abstract description 4
- 239000000284 extract Substances 0.000 abstract description 2
- 230000008901 benefit Effects 0.000 description 6
- 238000001514 detection method Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000005352 clarification Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000010348 incorporation Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 238000012384 transportation and delivery Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/143—Segmentation; Edge detection involving probabilistic approaches, e.g. Markov random field [MRF] modelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/10—Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/30—Polynomial surface description
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/62—Analysis of geometric attributes of area, perimeter, diameter or volume
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/12—Bounding box
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/56—Particle system, point based geometry or rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/012—Dimensioning, tolerancing
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Probability & Statistics with Applications (AREA)
- Pure & Applied Mathematics (AREA)
- Mathematical Physics (AREA)
- Mathematical Optimization (AREA)
- Mathematical Analysis (AREA)
- Algebra (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Length Measuring Devices With Unspecified Measuring Means (AREA)
- Image Analysis (AREA)
Abstract
Ein nicht-parametrisiertes Verfahren und ein System zum Dimensionieren eines Objekts mit einer beliebigen Form nimmt eine dreidimensionale (3D) Punktwolke von Datenpunkten über einem Sichtfeld, das das Objekt und eine Basisoberfläche, auf dem das Objekt positioniert ist, auf, erfasst eine Basisebene, die die Basisoberfläche anzeigt, aus der Punktwolke, extrahiert die Datenpunkte des Objekts aus der Punktwolke, verarbeitet die extrahierten Datenpunkte des Objekts, um eine konvexe Hülle zu erhalten, und passt eine Begrenzungsbox mit einem minimalen Volumen an, um die konvexe Hülle einzuschließen. Die Begrenzungsbox weist ein Paar von zueinander orthogonalen planaren Stirnflächen auf, und die Anpassung wird ausgeführt, indem eine der Stirnfläche orientiert wird, um allgemein senkrecht zu der Basisebene zu sein, und indem gleichzeitig die andere der Stirnfläche orientiert wird, um allgemein parallel zu der Basisebene zu sein.
Description
- HINTERGRUND DER ERFINDUNG
- Die vorliegende Offenbarung betrifft allgemein ein Aufnehmen von Dimensionsdaten, die Dimensionen eines Objekts anzeigen, und insbesondere ein nicht-parametrisches Verfahren und ein System zum Abschätzen der Dimensionen oder des Volumens eines Objekts mit einer beliebigen oder unbestimmten Form, ohne irgendeine vorherige Kenntnis oder ein parametrisches Modell der Form des Objekts zu haben.
- Das Bestimmen der Dimensionen oder des Volumens eines Objekts, beispielsweise eines Versandpakets, eines Postpakets oder einer Palette, die mit einer Vielzahl von Objekten als Fracht oder Lagerung beladen ist, ist insbesondere für die Transport- und Versandindustrie wünschenswert, wo die Kosten zum Transportieren und Zustellen der Objekte wenigstens teilweise von deren Dimensionen abhängen. Dreidimensionale (3D) Kameras sind sowohl in handgehaltenen als auch festen Einrichtungen verwendet worden, um Dimensionsdaten aufzunehmen, die die Dimensionen eines Objekts anzeigen. Derartige Einrichtungen arbeiten mithilfe von Formannahmen und durch Verwendung von parametrischen Modellen, d. h. die Einrichtungen haben vorher Kenntnis darüber, dass das Objekt eine bestimmte Form aufweist, zum Beispiel einen Quader, einen Zylinder, eine Kugel, einen Torus, eine Ebene usw., weil derartige parametrische Modelle in einem zugänglichen Speicher gespeichert sind. Obwohl die bekannten Einrichtungen allgemein für deren beabsichtigten Zweck zufriedenstellend sind, insbesondere wenn quaderförmigen Kartons oder boxenförmige Objekte dimensioniert werden, sind diese Einrichtungen für die Dimensionierung eines Objekts mit einer beliebigen oder unbestimmten Form, zum Beispiel einer Palette mit mehreren darauf zufällig gestapelten Objekten, nicht effektiv, weil zur Bezugnahme kein gespeichertes Modell verfügbar ist.
- Demzufolge besteht eine Notwendigkeit die Dimensionen oder das Volumen eines Objekts mit einer beliebigen oder unbestimmten Form in einer genauen, schnellen, effizienten und nicht-parametrisierten Weise abzuschätzen, ohne irgendeine vorherige Kenntnis oder ein parametrisches Modell der Form des Objekts zur Verfügung zu haben und ohne irgendwelche Formannahmen zu treffen.
- KURZBESCHREIBUNG DER MEHREREN ANSICHTEN DER ZEICHNUNGEN
- Die beiliegenden Figuren, in denen gleiche Bezugszeichen identische oder funktional ähnliche Elemente überall in den getrennten Ansichten bezeichnen, sind zusammen mit der ausführlichen nachstehend angegebenen Beschreibung in die Spezifikation eingebaut und bilden einen Teil davon, und dienen zur weiteren Illustration von Ausführungsformen von Konzepten, die die beanspruchte Erfindung umfassen, und erläutern verschiedene Prinzipien und Vorteile von diesen Ausführungsformen. In den Zeichnungen zeigen:
-
1 eine schematische Ansicht eines nicht-parametrisierten Systems zum Abschätzen der Dimensionen eines Objekts mit einer beliebigen oder unbestimmten Form in Übereinstimmung mit der vorliegenden Offenbarung; -
2 ein Blockdiagramm des Gesamtsystems der1 ; -
3 ein Flussdiagramm eines nicht-parametrischen Verfahrens zum Abschätzen der Abmessungen eines Objekts mit einer beliebigen oder unbestimmten Form in Übereinstimmung der vorliegenden Offenbarung; -
4A eine perspektivische Ansicht einer Szene, die ein zylindrisches Hauptobjekt und sekundäre Objekte auf einem Hintergrund enthält; -
4B eine perspektivische Ansicht einer 3D Punktwolke der Szene der4 ; -
4C eine perspektivische Ansicht einer Begrenzungsbox mit minimalem Volumen, die eine konvexe Hülle eines Datenclusters entsprechend zu dem zylindrischen Hauptobjekt umgibt; -
5A eine analoge Darstellung zu4A , aber von einem Stapel von Kartons; -
5B eine analoge Darstellung zu4B , aber von einem Stapel von Kartons; -
5C eine analoge Darstellung zu4C , aber mit einem Stapel von Kartons; -
6 eine diagrammartige Ansicht, die zeigt, wie die Begrenzungsbox relativ zu dem Hintergrund oder der Basisfläche orientiert werden soll; und -
7 eine analoge Darstellung zu5C , wobei aber eine geneigte Begrenzungsbox gezeigt ist, die nicht in der durch6 angegebenen Weise orientiert ist - Durchschnittsfachleute werden erkennen, dass Elemente in den Figuren zur Vereinfachung und Klarheit dargestellt sind und nicht notwendigerweise im Maßstab gezeichnet sind. Zum Beispiel können die Abmessungen und Orte von einigen der Elemente in den Figuren im Verhältnis zu anderen Elementen übertrieben dargestellt sein, um zu einem verbesserten Verständnis der Ausführungsformen der vorliegenden Erfindung beizutragen.
- Die Verfahrens- und Systemkomponenten sind, soweit geeignet, mit herkömmlichen Symbolen in den Zeichnungen dargestellt worden, wobei nur diejenigen spezifischen Einzelheiten gezeigt sind, die für das Verständnis der Ausführungsformen der vorliegenden Erfindung wichtig sind, um so die Offenbarung nicht mit Einzelheiten zu überladen, die von Durchschnittsfachleuten in dem technischen Gebiet, die den Nutzen aus der hier angegebenen Beschreibung ziehen, bereits bekannt sein werden.
- AUSFÜHRLICHE BESCHREIBUNG DER ERFINDUNG
- Ein Aspekt der vorliegenden Offenbarung betrifft ein nicht-parametrisiertes Verfahren zum Dimensionieren eines Objekts mit einer beliebigen oder unbestimmten Form. Das Verfahren wird ausgeführt durch Aufnehmen einer dreidimensionalen (3D) Punktwolke von Datenpunkten über einem Sichtfeld, das das Objekt umfasst, und einer Basisoberfläche, auf der das Objekt positioniert ist, Erfassen einer Basisebene, die die Basisoberfläche von der Punktwolke anzeigt, Extrahieren der Datenpunkte des Objekts aus der Punktwolke, Verarbeiten der extrahierten Datenpunkte des Objekts, um eine konvexe Hülle zu erhalten, und Anpassen einer Begrenzungsbox mit einem minimalen Volumen, um die konvexe Hülle einzuschließen. Die Begrenzungsbox weist ein Paar von zueinander senkrechten planaren Stirnflächen auf, und das Einfassen bzw. das Anpassen wird ausgeführt durch Orientieren von einer der Stirnflächen, so dass sie im allgemeinen senkrecht zu der Basisebene ist, und durch gleichzeitiges Orientieren der anderen der Stirnflächen, um allgemein parallel zu der Basisebene zu sein. Durch eine derartige Orientierung der Begrenzungsbox stimmt das Volumen der Begrenzungsbox genauer mit den Abmessungen oder dem Volumen des Objekts überein.
- In einer bevorzugten Ausführungsform wird das Erfassen der Basisebene dadurch ausgeführt, dass die Ebene mit der größten Fläche in dem Sichtfeld bestimmt wird, zum Beispiel durch Ausführen eines Zufallsabtastkonsensus-(Random Sampling Consensus; RANSAC)Algorithmus. Das Extrahieren von den Datenpunkten des Objekts wird vorzugsweise durch Entfernen der Datenpunkte der besten Ebene aus der Punktwolke ausgeführt. Wenn mehrere Objekte in dem Sichtfeld vorhanden sind, dann werden die Datenpunkte in einem Cluster gebündelt, zum Beispiel durch eine Euklid'sche Clusterbündelung, um die mehreren Objekte in dem Sichtfeld zu orten bzw. zu lokalisieren, und das Extrahieren wird vorzugsweise entweder manuell oder automatisch durch Auswählen von einem der Objekte, welches auch als das Objekt oder das Ziel von Interesse bezeichnet wird, welches dimensioniert werden soll, ausgeführt.
- In Übereinstimmung mit einem anderen Aspekt dieser Offenbarung umfasst ein nicht-parametrisches System zum Dimensionieren eines Objekts mit einer beliebigen Form: eine Kamera zum Aufnehmen einer dreidimensionalen (3D) Punktwolke von Datenpunkten über einem Sichtfeld, das das Objekt enthält, und einer Basisfläche, auf der das Objekt positioniert ist, und einen Controller zum Erfassen einer Basisebene, die die Basisoberfläche anzeigt, aus der Punktwolke, zum Extrahieren der Datenpunkte des Objekts aus der Punktwolke, zum Verarbeiten der extrahierten Datenpunkte des Objekts, um eine konvexe Hülle zu erhalten, und zum Anpassen einer Begrenzungsbox mit einem minimalen Volumen, um die konvexe Hülle einzuschließen. Die Begrenzungsbox weist ein Paar von zueinander orthogonalen planaren Stirnflächen auf, und der Controller ist betreibbar zum Orientieren von einer der Stirnflächen, so dass sie allgemein senkrecht zu der Basisebene ist, und zum gleichzeitigen Orientieren der anderen der Stirnflächen, um allgemein parallel zu der Basisebene zu sein.
- Bezugnehmend nun auf die Zeichnungen zeigt
1 eine Einrichtung10 zum Halten einer dreidimensionalen (3D) Kamera oder eines Sensors12 (siehe2 ), die/der entweder über eine verdrahtete Verbindung oder eine drahtlose Strecke mit einem Computer14 , der eine Anzeige16 aufweist, betriebsmäßig verbunden ist. Ein Controller18 (siehe2 ) ist entweder in der Einrichtung10 oder dem Computer14 angeordnet. Die Kamera12 und der Controller18 arbeiten zusammen, wie nachstehend beschrieben, zum Dimensionieren von Objekten mit beliebigen oder unbestimmten Formen, wie beispielsweise einem quaderförmigen Versandkarton20 , einer zylindrischen Poströhre, einem Torus-förmigen Reifen24 und einer Palette26 , die mit einer Vielzahl von zufällig aufgestapelten Objekten als Fracht oder Ladung beladen ist. - Obwohl die Einrichtung
10 als eine in der Hand gehaltene tragbare Einrichtung mit einem Griff, der von einem Benutzer ergriffen werden kann, dargestellt worden ist, sei darauf hingewiesen, dass die Einrichtung auch eine feste Arbeitsstation (Workstation) sein könnte, die stationär ist und im Verhältnis zu den Objekten, die dimensioniert werden sollen, nicht-bewegbar angebracht ist. In einer vorteilhaften Ausführungsform ist die Einrichtung über den Objekten, die darunter durchgehen, über Kopf angebracht. Obwohl der Computer14 als ein Desktop-Computer dargestellt worden ist, sei darauf hingewiesen, dass der Computer auch ein Laptop-Computer, ein Smartphone oder ein Tablet sein könnte. Obwohl die Einrichtung10 und der Computer14 als getrennte Einheiten dargestellt worden sind, können sie auch in eine einzelne Einheit integriert werden. Obwohl die Objekte als ein quaderfarbiger Karton20 , eine zylindrische Röhre22 , ein torusförmiger Reifen24 und eine Palette26 , die mit einer Vielzahl von zufällig aufgestapelten Objekten beladen ist, dargestellt worden sind, sei darauf hingewiesen, dass dies lediglich beispielhafte Formen sind und dass zahlreiche andere Objekte, die zahlreiche andere unbestimmten Formen aufweisen, dargestellt werden hätten können. - Wie in
2 für repräsentative Palette26 gezeigt, ist die 3D Kamera oder der Sensor12 betreibbar zum Aufnehmen einer dreidimensionalen (3D) Punktwolke von Datenpunkten über ihrem Sichtfeld. Irgendein 3D Sensor, einschließlich eines Infrarot(IR)-Sensors, könnte verwendet werden. Jeder Datenpunkt weist eine Längenkoordinate (x), eine Breitenkoordinate (y) und eine Tiefenkoordinate (z) auf. Der Controller18 kann irgendein Allzweck-Mikroprozessor, ein Controller oder ein Mikrocontroller, der in geeigneter Weise mit einem Speicher konfiguriert ist und der in der Lage ist ein oder mehrere der Software Anwendungen oder Algorithmen auszuführen, wie mit dem Flussdiagramm in3 angezeigt, sein, um dadurch die gewünschte Funktionalität bereitzustellen, d. h. die abgeschätzte Dimensionen oder das Volumen von wenigstens einem Objekt in dem Sichtfeld auszugeben. - Bezugnehmend nun auf das Flussdiagramm in
3 beginnt das Verfahren im Schritt100 , indem die Kamera12 veranlasst wird eine dreidimensionale (3D) Punktwolke von Datenpunkten über einem Sichtfeld einer Szene, die wenigstens ein Objekt enthält, und einer Basisoberfläche, auf der das Objekt positioniert ist, aufzunehmen. Zur einfacheren Verdeutlichung zeigt4 eine beispielhafte Szene, die ein Benutzer sehen könnte. Somit zeigt4A ein Hauptobjekt oder ein Objekt von Interesse (in diesem Beispiel die zylindrische Röhre22 ), die einen Schatten32 wirft, ein oder mehrere sekundäre Objekte28 oder eine Hintergrund- oder Basisoberfläche34 (in diesem Fall den Boden).4B zeigte die 3D Punktwolke der Szene der4A . - Im Schritt
102 wird eine Basisebene, die die Basisoberfläche34 anzeigt, aus den Datenpunkten erfasst. In einer bevorzugten Ausführungsform wird das Erfassen der Basisebene dadurch ausgeführt, dass aus den Datenpunkten die Ebene mit der größten Fläche in dem Sichtfeld bestimmt wird, zum Beispiel durch Ausführen eines Zufallsabtastkonsensus-(Random Sampling Consensus; RANSAC) Algorithmus. Einzelheiten einer Ebenen-Erfassung durch Verwendung des RANSAC Algorithmus lassen sich aus „Plane Detection in Point Cloud Data” von Yang et al., Technical Report No. 1, Department of Photogrammetry, University of Bonn, 25. Januar 2010 entnehmen, wobei der gesamte Inhalt davon hier durch Bezugnahme Teil der vorliegenden Anmeldung ist. Sobald die Basisebene erfasst worden ist können deren Datenpunkte aus der 3D Punktwolke entfernt werden. Dies lässt nur die Datenpunkte entsprechend zu dem Hauptobjekt22 und den sekundären Objekten28 für eine weitere Verarbeitung zurück. - Im Schritt
104 werden die übrigen Datenpunkte in einem Cluster zusammengefasst bzw. gebündelt, zum Beispiel durch eine Euklid'sche Clusterbündelung. Eine Clusterbündelung ist eine altbekannte Technik, bei der eine Vielzahl von Datenpunkten in Gruppen organisiert werden, die irgendeine Ähnlichkeit aufweisen, zum Beispiel einen Abstand oder eine Nähe zueinander. Dadurch, dass die Datenpunkte in Clustern gebündelt worden sind, ist jedes der mehreren Objekte22 ,28 in dem Sichtfeld nun lokalisiert worden. Im Schritt106 werden die Datenpunkte des Objekts von Interesse, d. h. des Hauptobjekts22 extrahiert und sämtliche Datenpunkte der sekundären Objekte28 werden gelöscht. Eine Extraktion des Hauptobjekts22 kann manuell oder automatisch ausgeführt werden. Zum Beispiel kann ein Benutzer einen Cursor über das Datencluster, das auf dem Bildschirm16 angezeigt wird, bewegen und einen manuellen Vorgang ausführen, zum Beispiel einen Mausklick, um das Hauptobjekt22 auszuwählen. Oder der Controller18 kann lediglich das Datencluster wählen, welches sich in dem Sichtfeld zentral befindet. - Die extrahierten und in Clustern gebündelte bzw. zusammengefasste Datenpunkte, die zu dem Hauptobjekt
22 gehören, sind in4C dargestellt und werden verarbeitet, um im Schritt108 eine konvexe Hülle36 zu erhalten. Die konvexe Hülle36 stellen nur diejenigen externen Datenpunkte, die auf der äußeren Grenze oder Einhüllenden der Datenpunkte, die zu dem Hauptobjekt22 gehören, angeordnet sind. Die Ermittlung der konvexen Hülle ist eine alte etablierte Technik zum Abschätzen der Grenze bzw. des Übergangs von mehreren Datenpunkten. Siehe zum Beispiel http://en.wikipedia.org/wiki(Convex_hull. In diesem Fall wird die konvexe Hülle36 des Hauptobjekts22 bestimmt und die verbleibenden inneren Datenpunkte der Datenpunkte, die zu dem Hauptobjekt22 innerhalb der konvexen Hülle36 gehören, werden beseitigt. -
110 wird eine Begrenzungsbox38 (siehe4C ) angepasst, um die konvexe Hülle36 mit einem minimalen Volumen einzuschließen. Eine Anpassung einer Abgrenzungs- bzw. Begrenzungsbox38 mit einem minimalen Volumen um Datenpunkte herum ist eine alte etablierte Technik. Siehe zum Beispiel http://en.wikipedia.org/wiki/Minimum_bounding_box. In diesem Fall weist die Begrenzungsbox38 eine rechteckförmige Rechteckform oder Quaderform mit drei Paaren von zueinander orthogonalen planaren Stirnflächen auf und wird um die konvexe Hülle36 herum angepasst. Wie aus4C ersichtlich stimmt das Volumen der Begrenzungsbox38 eng mit den Dimensionen oder dem Volumen der extrahierten gepflasterten Datenpunkte des Hauptobjekts22 überein, wodurch das Hauptobjekt22 genau dimensioniert wird. Wie in6 gezeigt ist die Begrenzungsbox38 , wie durch die vorliegende Offenbarung vorgeschlagen, mit bestimmten Stirnflächen-bezogenen Einschränkungen orientiert. Insbesondere ist wenigstens eine der Stirnflächen der Begrenzungsbox38 , zum Beispiel die obere Stirnfläche44 , orientiert, um allgemein parallel zur Basisebene34 zu sein, und gleichzeitig ist eine der anderen Stirnflächen der Begrenzungsbox38 , zum Beispiel die Seitenfläche46 , die orthogonal zu der oberen Stirnfläche44 ist, orientiert, um allgemein senkrecht zu der Basisebene34 zu sein. Die Pfeile, die in6 dargestellt sind, identifizieren die Normalen zu den Stirnflächen44 ,46 . -
5A ,5B und5C sind analog zu4A ,4B und4C , zeigen aber einen anderen Typ eines beliebig geformten Objekts, das heißt einen zufälligen Stapel von Kartons. Wie zuvor wird eine Begrenzungsbox40 (siehe5C ) eingepasst, um eine konvexe Hülle42 mit einem minimalen Volumen einzuschließen, wodurch der Stapel von Kartons genau dimensioniert wird. Wie in5C gezeigt ist die Begrenzungsbox40 derart orientiert, dass eine ihrer Stirnflächen allgemein senkrecht zu der Basisebene ist, und gleichzeitig eine orthogonale Stirnfläche allgemein parallel zu der Basisebene ist. -
7 muss im Vergleich mit5C gesehen werden. Beide zeigen Begrenzungsboxen, die eingepasst sind, um eine konvexe Hülle42 mit einem minimalen Volumen einzuschließen. Jedoch weist die Begrenzungsbox der7 die Stirnflächen-bezogenen Beschränkungen, die voranstehend in Verbindung mit6 beschrieben wurden, nicht auf und ist im Verhältnis zu der Basisebene geneigt. Infolgedessen stellt die Begrenzungsbox der7 nicht eine so genaue Abschätzung der Dimensionen oder des Volumens des Kartonstapels im Vergleich mit der Begrenzungsbox40 der5C bereit. - In der voranstehenden Beschreibung sind spezifische Ausführungsformen beschrieben worden. Jedoch werden Durchschnittsfachleute in dem technischen Gebiet erkennen, dass verschiedene Modifikationen und Änderungen durchgeführt werden können, ohne von dem Umfang der Erfindung abzuweichen, so wie sie in den nachstehend angegebenen Ansprüchen aufgeführt ist. Demzufolge sollen die Beschreibung und die Figuren in einer illustrativen und nicht in einem beschränkenden Sinn angesehen werden, und sämtliche derartigen Modifikationen sollen in den Umfang der vorliegenden Lehren enthalten sein.
- Die Nutzen, Vorteile, Lösungen von Problemen und irgendein Element (irgendwelche Elemente), das (die) bewirken kann (können), dass irgendein Nutzen, Vorteil oder eine Lösung auftritt oder besser hervortritt, werden nicht als kritische, erforderliche oder wesentlichen Merkmale oder Elemente von irgendwelchen oder allen Ansprüchen angesehen. Die Erfindung wird ausschließlich durch die beigefügten Ansprüche einschließlich von irgendwelchen Änderungen, die während der Anhängigkeit dieser Anmeldung durchgeführt werden, und sämtlicher äquivalente Ausführungsformen von den Ansprüchen, wie erteilt, definiert.
- Ferner werden in diesem Dokument Begriffe, die sich aufeinander beziehen, wie beispielsweise erster/erste und zweiter/zweite, oben und unten und dergleichen ausschließlich verwendet, um eine Einheit oder eine Aktion von einer anderen Einheit oder einer anderen Aktion zu unterscheiden, ohne dass dies notwendigerweise irgendeine tatsächliche derartige Beziehung oder Reihenfolge zwischen derartigen Einheiten oder Aktionen erfordert oder impliziert. Die Begriffe „umfasst”, „umfassend”, „weist auf”, „aufweisend”, „enthält”, „enthaltend”, „schließt ein”, „einschließend” oder irgend eine andere Variation davon sollen einen nicht-exklusiven Einbau bedeuten, sodass ein Prozess, ein Verfahren, ein Artikel oder eine Vorrichtung, die eine Liste von Elementen umfasst, aufweist, einschließt oder enthält, nicht nur diese Elemente enthält, sondern andere Elemente einschließen kann, die nicht explizit aufgelistet sind oder für einen derartigen Prozess, ein derartiges Verfahren, einen derartigen Artikel oder eine derartige Vorrichtung inhärent sind. Ein Element, dem „umfasst ... einen/eine/einer”, „weist auf ... einen”, „schließt ein einen/einer”, „enthält ... einen/eine” vorangeht, schließt ohne weitere Randbedingungen die Existenz von zusätzlichen identischen Elementen in dem Prozess, dem Verfahren, dem Artikel oder der Vorrichtung, die das Element umfasst, aufweist, einschließt oder enthält, nicht aus. Die Begriffe „ein” und „einer” werden als ein oder mehrere definiert, außer wenn dies explizit hier anders angegeben ist. Die Begriffe „substantiell”, „essenziell”, „ungefähr”, „nahezu” oder irgendeine andere Version davon sind so definiert, dass sie von einem Durchschnittsfachmann in dem technischen Gebiet als nahe zu verstanden werden, und in einer nicht beschränkten Ausführungsform wird der Begriff definiert, um innerhalb von 10% zu sein, in einer anderen Ausführungsform von innerhalb von 5%, in einer anderen Ausführungsform innerhalb von 1% und in einer anderen Ausführungsform innerhalb von 0,5%. Der Begriff „gekoppelt”, so wie er hier verwendet wird, wird als verbunden definiert, obwohl dies nicht bedeutet, dass dies notwendigerweise direkt und notwendigerweise mechanisch ist. Eine Einrichtung oder eine Struktur, die in einer bestimmten Weise „konfiguriert” ist, ist in wenigstens dieser Weise konfiguriert, kann aber auch in Vorgehensweisen konfiguriert sein, die nicht aufgelistet sind.
- Es sei darauf hingewiesen, dass einige Ausführungsformen ein oder mehrere generische oder spezialisierte Prozessoren (oder „Verarbeitungseinrichtungen”) umfassen können, wie beispielsweise Mikroprozessoren, digitale Signalprozessoren, speziell zugeschnittene Prozessoren und Field Programmable Gate Arrays (FPGAs) und ferner einzigartige gespeicherte Programmbefehle (einschließlich sowohl Software und Firmware), die die ein oder mehreren Prozessoren steuern, um in Verbindung mit bestimmten Nicht-Prozessorschaltungen einige, die meisten oder alle Funktionen des Verfahrens und/oder der Vorrichtung, die hier beschrieben werden, zu implementieren. Alternativ können einige oder sämtliche Funktionen durch eine Zustandsmaschine implementiert werden, die keine gespeicherten Programmbefehle aufweist, oder in ein oder mehreren anwendungsspezifischen integrierten Schaltungen (Application Specific Integrated Circuits, ASICs), bei denen jede Funktion oder irgendwelche Kombinationen von bestimmten Funktionen als eine speziell zugeschnittene Logik implementiert sind. Natürlich kann eine Kombination der zwei Ansätze verwendet werden.
- Ferner kann eine Ausführungsform als ein Speichermedium, welches von einem Computer lesbar ist, und welches einen computerlesbaren Code aufweist, der darauf gespeichert ist zur Programmierung eines Computers (zum Beispiel umfassend einen Prozessor), um ein Verfahren wie beschrieben und hier beansprucht auszuführen, implementiert werden. Beispiele von derartigen von einem Computer lesbaren Speichermedien umfassen, sind aber nicht beschränkt auf, eine Festplatte, eine CD-ROM, eine optische Speichereinrichtung, eine magnetische Speichereinrichtung, ein ROM (Nur-Lese-Speicher), ein PROM (programmierbarer Nur-Lese-Speicher), ein EROM (ein löschbarer programmierbare Nur-Lese-Speicher), ein EPROM (elektrisch löschbarer programmierbarer Nur-Lese-Speicher) und ein Flash-Speicher. Ferner wird erwartet, dass Durchschnittsfachleute in dem technischen Gebiet trotz möglicherweise signifikanter Anstrengungen und zahlreicher Designwahlmöglichkeiten, die beispielsweise durch die verfügbare Zeit, die gegenwärtige Technologie und wirtschaftlichen Erwägungen geleitet werden, dann, wenn sie von den Konzepten und Prinzipien geführt werden, die hier offenbart sind, leicht in der Lage sein werden derartige Softwarebefehle und Programme und ICs mit einem minimalen experimentellen Aufwand zu erzeugen.
- Die Zusammenfassung der Offenbarung ist vorgesehen, um den Leser in die Lage zu versetzen schnell die Art der technischen Offenbarung festzustellen. Sie wird mit dem Verständnis vorgelegt, dass sie nicht verwendet werden wird, um den Schutzumfang oder die Bedeutung der Ansprüche zu interpretieren oder zu beschränken. Zusätzlich lässt sich in der voranstehenden ausführlichen Beschreibung ersehen, dass verschiedene Merkmale in verschiedenen Ausführungsformen für den Zweck einer Übersichtlichkeit der Offenbarung zusammen gruppiert sind. Dieses Verfahren der Offenbarung soll nicht als die Absicht reflektierend interpretiert werden, dass die beanspruchten Ausführungsformen mehr Merkmale erfordern, als explizit in jedem Anspruch angegeben ist. Im Gegenteil, wie die folgenden Ansprüche darlegen, liegt der erfindungsgemäße Gegenstand in weniger als sämtlichen Merkmalen einer einzelnen offenbarten Ausführungsform. Somit sind die folgenden Ansprüche hiermit in die ausführliche Beschreibung eingebaut, wobei jeder Anspruch für sich selbst als ein getrennt beanspruchter Gegenstand steht.
Claims (16)
- Nicht-parametrisches Verfahren zum Dimensionieren eines Objekts mit beliebiger Form, umfassend: Aufnehmen einer dreidimensionalen (3D) Punktwolke von Datenpunkten über einem Sichtfeld, das das Objekt enthält, und einer Basisoberfläche, auf dem das Objekt positioniert ist; Erfassen einer Basisebene, die die Basisoberfläche anzeigt, aus der Punktwolke; Extrahieren der Datenpunkte des Objekts aus der Punktwolke; Verarbeiten der extrahierten Datenpunkte des Objekts, um eine konvexe Hülle zu erhalten; und Anpassen einer Begrenzungsbox mit einem minimalen Volumen, um die konvexe Hülle einzuschließen, wobei die Begrenzungsbox ein Paar von zueinander orthogonalen planaren Stirnfläche aufweist, wobei das Anpassen ausgeführt wird, indem eine der Stirnflächen orientiert wird, um allgemein senkrecht zu der Basisebene zu sein, und indem die andere der Stirnfläche gleichzeitig orientiert wird, um allgemein parallel zu der Basisebene zu sein.
- Verfahren nach Anspruch 1, wobei jeder Datenpunkt Daten umfasst, die eine Länge, Breite und Tiefe des Objekts und der Basisoberfläche umfasst.
- Verfahren nach Anspruch 1, wobei das Erfassen der Basisebene ausgeführt wird durch Bestimmen einer Ebene, die die größte Fläche in dem Sichtfeld aufweist.
- Verfahren nach Anspruch 1, wobei das Erfassen der Basisebene ausgeführt wird durch Ausführen eines Random-Sampling-Consensus(RANSAC)-Algorithmus.
- Verfahren nach Anspruch 1, wobei das Extrahieren der Datenpunkte des Objekts durch Entfernen der Datenpunkte der Basisebene ausgeführt wird.
- Verfahren nach Anspruch 1, mit dem Schritt einer Bündelung von Datenpunkten, die mehrere Objekte in dem Sichtfeld anzeigen, in Clustern, und wobei das Extrahieren durch Auswählen von einem der Objekte, welches dimensioniert werden soll, ausgeführt wird.
- Verfahren nach Anspruch 6, wobei die Clusterbündelung der Datenpunkte durch ein eine Euklid'sche Clusterbündelung ausgeführt wird.
- Verfahren nach Anspruch 1, wobei die Begrenzungsbox ein Quader ist, der drei Paare von zueinander orthogonalen planaren Stirnflächen aufweist.
- Nicht-parametrisches System zum Dimensionieren eines Objekts mit beliebiger Form, umfassend: eine Kamera zum Aufnehmen einer dreidimensionalen (3D) Punktwolke von Datenpunkten über einem Sichtfeld, das das Objekt und eine Basisoberfläche, auf dem das Objekt positioniert ist, enthält; und einen Controller zum Erfassen einer Basisebene, die die Basisoberfläche anzeigt, aus der Punktwolke, zum Extrahieren der Datenpunkte des Objekts aus der Punktwolke, zum Verarbeiten der extrahierten Datenpunkte des Objekts, um eine konvexe Hülle zu erhalten, und zum Anpassen einer Begrenzungsbox mit einem minimalen Volumen, um die konvexe Hülle einzuschließen, wobei die Begrenzungsbox ein Paar von zueinander orthogonalen planaren Stirnflächen aufweist, wobei der Controller betreibbar ist zum Orientieren von einer der Stirnflächen, um allgemein senkrecht zu der Basisebene zu sein, und zum gleichzeitigen Orientieren der anderen der Stirnfläche, um allgemein parallel zu der Basisebene zu sein.
- System nach Anspruch 9, wobei die Kamera jeden Datenpunkt aufnimmt, um Daten zu enthalten, die eine Länge, Breite und Tiefe des Objekts und der Basisoberfläche anzeigen.
- System nach Anspruch 9, wobei der Controller betreibbar ist zum Bestimmen der Basisebene als die Ebene, die die größte Fläche in dem Sichtfeld aufweist.
- System nach Anspruch 9, wobei der Controller betreibbar ist zum Bestimmen der Basisebene durch Ausführen eines Random-Sampling-Consensus(RANSAC)-Algorithmus.
- System nach Anspruch 9, wobei der Controller betreibbar ist zum Extrahieren der Datenpunkte des Objekts durch Entfernen der Datenpunkte der Basisebene.
- System nach Anspruch 9, wobei der Controller betreibbar ist zur Clusterbündelung von Datenpunkten, die mehrere Objekte in dem Sichtfeld anzeigen, und zum Ansprechen auf eine Eingabe, mit der wenigstens eines der Objekte, welches dimensioniert werden soll, gewählt wird.
- System nach Anspruch 14, wobei der Controller betreibbar ist zur Clusterbündelung der Datenpunkte durch eine Euklid'sche Clusterbündelung.
- System nach Anspruch 9, wobei die Begrenzungsbox ein Quader ist, der drei Paare von zueinander orthogonalen planaren Stirnflächen aufweist.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/534,224 US9600892B2 (en) | 2014-11-06 | 2014-11-06 | Non-parametric method of and system for estimating dimensions of objects of arbitrary shape |
US14/534,224 | 2014-11-06 | ||
PCT/US2015/054120 WO2016073108A1 (en) | 2014-11-06 | 2015-10-06 | Non-parametric method of and system for estimating dimensions of objects of arbitrary shape |
Publications (1)
Publication Number | Publication Date |
---|---|
DE112015005076T5 true DE112015005076T5 (de) | 2017-07-20 |
Family
ID=54345597
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE112015005076.0T Pending DE112015005076T5 (de) | 2014-11-06 | 2015-10-06 | Nicht-parametrisches Verfahren und System zum Abschätzen von Dimensionen von Objekten mit beliebiger Form |
Country Status (6)
Country | Link |
---|---|
US (1) | US9600892B2 (de) |
CA (1) | CA2967025C (de) |
DE (1) | DE112015005076T5 (de) |
GB (1) | GB2546677B (de) |
MX (1) | MX367951B (de) |
WO (1) | WO2016073108A1 (de) |
Families Citing this family (80)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9741134B2 (en) * | 2013-12-16 | 2017-08-22 | Symbol Technologies, Llc | Method and apparatus for dimensioning box object |
US9396554B2 (en) | 2014-12-05 | 2016-07-19 | Symbol Technologies, Llc | Apparatus for and method of estimating dimensions of an object associated with a code in automatic response to reading the code |
KR20170081544A (ko) * | 2016-01-04 | 2017-07-12 | 한국전자통신연구원 | 체험 아이템 3d 복원 장치 및 방법 |
US10013653B2 (en) * | 2016-01-26 | 2018-07-03 | Università della Svizzera italiana | System and a method for learning features on geometric domains |
US10210430B2 (en) | 2016-01-26 | 2019-02-19 | Fabula Ai Limited | System and a method for learning features on geometric domains |
US10352689B2 (en) | 2016-01-28 | 2019-07-16 | Symbol Technologies, Llc | Methods and systems for high precision locationing with depth values |
US10145955B2 (en) | 2016-02-04 | 2018-12-04 | Symbol Technologies, Llc | Methods and systems for processing point-cloud data with a line scanner |
US10721451B2 (en) * | 2016-03-23 | 2020-07-21 | Symbol Technologies, Llc | Arrangement for, and method of, loading freight into a shipping container |
US9805240B1 (en) | 2016-04-18 | 2017-10-31 | Symbol Technologies, Llc | Barcode scanning and dimensioning |
CN107633523B (zh) * | 2016-07-18 | 2021-04-16 | 巧夺天宫(深圳)科技有限公司 | 基于点云的提取建筑特征线方法和系统 |
US10776661B2 (en) | 2016-08-19 | 2020-09-15 | Symbol Technologies, Llc | Methods, systems and apparatus for segmenting and dimensioning objects |
US11042161B2 (en) | 2016-11-16 | 2021-06-22 | Symbol Technologies, Llc | Navigation control method and apparatus in a mobile automation system |
US10451405B2 (en) | 2016-11-22 | 2019-10-22 | Symbol Technologies, Llc | Dimensioning system for, and method of, dimensioning freight in motion along an unconstrained path in a venue |
US10641854B2 (en) * | 2016-12-01 | 2020-05-05 | Regents Of The University Of Minnesota | Systems and methods for automatic voxel positioning in magnetic resonance spectroscopy |
US10354411B2 (en) | 2016-12-20 | 2019-07-16 | Symbol Technologies, Llc | Methods, systems and apparatus for segmenting objects |
WO2018204342A1 (en) | 2017-05-01 | 2018-11-08 | Symbol Technologies, Llc | Product status detection system |
US11449059B2 (en) | 2017-05-01 | 2022-09-20 | Symbol Technologies, Llc | Obstacle detection for a mobile automation apparatus |
US10591918B2 (en) | 2017-05-01 | 2020-03-17 | Symbol Technologies, Llc | Fixed segmented lattice planning for a mobile automation apparatus |
US10949798B2 (en) | 2017-05-01 | 2021-03-16 | Symbol Technologies, Llc | Multimodal localization and mapping for a mobile automation apparatus |
US10726273B2 (en) | 2017-05-01 | 2020-07-28 | Symbol Technologies, Llc | Method and apparatus for shelf feature and object placement detection from shelf images |
US11367092B2 (en) | 2017-05-01 | 2022-06-21 | Symbol Technologies, Llc | Method and apparatus for extracting and processing price text from an image set |
DE112018002314T5 (de) | 2017-05-01 | 2020-01-23 | Symbol Technologies, Llc | Verfahren und vorrichtung zur erkennung eines objektstatus |
US10663590B2 (en) | 2017-05-01 | 2020-05-26 | Symbol Technologies, Llc | Device and method for merging lidar data |
US11600084B2 (en) | 2017-05-05 | 2023-03-07 | Symbol Technologies, Llc | Method and apparatus for detecting and interpreting price label text |
CN107194994B (zh) * | 2017-06-16 | 2020-12-15 | 广东工业大学 | 一种无标定曲面点云数据重建圆柱面的方法及装置 |
JP6907061B2 (ja) * | 2017-07-21 | 2021-07-21 | 株式会社タダノ | 測定対象物の上面推定方法、ガイド情報表示装置およびクレーン |
JP6845106B2 (ja) * | 2017-07-21 | 2021-03-17 | 株式会社タダノ | 点群データのクラスタリング方法、ガイド情報表示装置およびクレーン |
US10521914B2 (en) | 2017-09-07 | 2019-12-31 | Symbol Technologies, Llc | Multi-sensor object recognition system and method |
US10572763B2 (en) | 2017-09-07 | 2020-02-25 | Symbol Technologies, Llc | Method and apparatus for support surface edge detection |
CN109693387A (zh) | 2017-10-24 | 2019-04-30 | 三纬国际立体列印科技股份有限公司 | 基于点云数据的3d建模方法 |
US10841559B2 (en) * | 2017-12-22 | 2020-11-17 | Symbol Technologies, Llc | Systems and methods for detecting if package walls are beyond 3D depth camera range in commercial trailer loading |
US10809078B2 (en) | 2018-04-05 | 2020-10-20 | Symbol Technologies, Llc | Method, system and apparatus for dynamic path generation |
US10740911B2 (en) | 2018-04-05 | 2020-08-11 | Symbol Technologies, Llc | Method, system and apparatus for correcting translucency artifacts in data representing a support structure |
US10823572B2 (en) | 2018-04-05 | 2020-11-03 | Symbol Technologies, Llc | Method, system and apparatus for generating navigational data |
US11327504B2 (en) | 2018-04-05 | 2022-05-10 | Symbol Technologies, Llc | Method, system and apparatus for mobile automation apparatus localization |
US10832436B2 (en) | 2018-04-05 | 2020-11-10 | Symbol Technologies, Llc | Method, system and apparatus for recovering label positions |
US10853946B2 (en) | 2018-05-18 | 2020-12-01 | Ebay Inc. | Physical object boundary detection techniques and systems |
US11017548B2 (en) | 2018-06-21 | 2021-05-25 | Hand Held Products, Inc. | Methods, systems, and apparatuses for computing dimensions of an object using range images |
US10884131B1 (en) * | 2018-08-03 | 2021-01-05 | GM Global Technology Operations LLC | Conflict resolver for a lidar data segmentation system of an autonomous vehicle |
US11506483B2 (en) | 2018-10-05 | 2022-11-22 | Zebra Technologies Corporation | Method, system and apparatus for support structure depth determination |
US11010920B2 (en) | 2018-10-05 | 2021-05-18 | Zebra Technologies Corporation | Method, system and apparatus for object detection in point clouds |
JP7067410B2 (ja) * | 2018-10-15 | 2022-05-16 | トヨタ自動車株式会社 | ラベル読取システム |
US10872269B2 (en) * | 2018-10-26 | 2020-12-22 | Volvo Car Corporation | Methods and systems for the fast estimation of three-dimensional bounding boxes and drivable surfaces using LIDAR point clouds |
CN109614857B (zh) * | 2018-10-31 | 2020-09-29 | 百度在线网络技术(北京)有限公司 | 基于点云的杆状物识别方法、装置、设备及存储介质 |
US11090811B2 (en) | 2018-11-13 | 2021-08-17 | Zebra Technologies Corporation | Method and apparatus for labeling of support structures |
US11003188B2 (en) | 2018-11-13 | 2021-05-11 | Zebra Technologies Corporation | Method, system and apparatus for obstacle handling in navigational path generation |
US11416000B2 (en) | 2018-12-07 | 2022-08-16 | Zebra Technologies Corporation | Method and apparatus for navigational ray tracing |
US11079240B2 (en) | 2018-12-07 | 2021-08-03 | Zebra Technologies Corporation | Method, system and apparatus for adaptive particle filter localization |
US11100303B2 (en) | 2018-12-10 | 2021-08-24 | Zebra Technologies Corporation | Method, system and apparatus for auxiliary label detection and association |
US11015938B2 (en) | 2018-12-12 | 2021-05-25 | Zebra Technologies Corporation | Method, system and apparatus for navigational assistance |
US10731970B2 (en) | 2018-12-13 | 2020-08-04 | Zebra Technologies Corporation | Method, system and apparatus for support structure detection |
CN113498530A (zh) * | 2018-12-20 | 2021-10-12 | 艾奎菲股份有限公司 | 基于局部视觉信息的对象尺寸标注系统和方法 |
CA3028708A1 (en) | 2018-12-28 | 2020-06-28 | Zih Corp. | Method, system and apparatus for dynamic loop closure in mapping trajectories |
CN110095062B (zh) * | 2019-04-17 | 2021-01-05 | 北京华捷艾米科技有限公司 | 一种物体体积参数测量方法、装置及设备 |
CN110136181B (zh) * | 2019-05-17 | 2021-08-20 | 百度在线网络技术(北京)有限公司 | 用于生成信息的方法和装置 |
US11662739B2 (en) | 2019-06-03 | 2023-05-30 | Zebra Technologies Corporation | Method, system and apparatus for adaptive ceiling-based localization |
US11341663B2 (en) | 2019-06-03 | 2022-05-24 | Zebra Technologies Corporation | Method, system and apparatus for detecting support structure obstructions |
US11200677B2 (en) | 2019-06-03 | 2021-12-14 | Zebra Technologies Corporation | Method, system and apparatus for shelf edge detection |
US11960286B2 (en) | 2019-06-03 | 2024-04-16 | Zebra Technologies Corporation | Method, system and apparatus for dynamic task sequencing |
US11080566B2 (en) | 2019-06-03 | 2021-08-03 | Zebra Technologies Corporation | Method, system and apparatus for gap detection in support structures with peg regions |
US11402846B2 (en) | 2019-06-03 | 2022-08-02 | Zebra Technologies Corporation | Method, system and apparatus for mitigating data capture light leakage |
US11151743B2 (en) | 2019-06-03 | 2021-10-19 | Zebra Technologies Corporation | Method, system and apparatus for end of aisle detection |
US11010915B2 (en) * | 2019-07-11 | 2021-05-18 | Zebra Technologies Corporation | Three-dimensional (3D) depth imaging systems and methods for dynamic container auto-configuration |
US11074464B2 (en) | 2019-07-25 | 2021-07-27 | Ford Global Technologies, Llc | Defining boundary for detected object |
US11222467B2 (en) * | 2019-09-19 | 2022-01-11 | Prevu3D Technologies Inc. | Methods and systems for extracting data from virtual representation of three-dimensional visual scans |
CN110728753B (zh) * | 2019-10-09 | 2022-04-15 | 湖南大学 | 一种基于线性拟合的目标点云3d边界框拟合方法 |
US11507103B2 (en) | 2019-12-04 | 2022-11-22 | Zebra Technologies Corporation | Method, system and apparatus for localization-based historical obstacle handling |
US11107238B2 (en) | 2019-12-13 | 2021-08-31 | Zebra Technologies Corporation | Method, system and apparatus for detecting item facings |
US11574485B2 (en) * | 2020-01-17 | 2023-02-07 | Apple Inc. | Automatic measurements based on object classification |
CN113450459B (zh) * | 2020-03-25 | 2024-03-22 | 北京四维图新科技股份有限公司 | 目标物的三维模型构建方法及装置 |
US11822333B2 (en) | 2020-03-30 | 2023-11-21 | Zebra Technologies Corporation | Method, system and apparatus for data capture illumination control |
US11393119B2 (en) * | 2020-06-18 | 2022-07-19 | Zebra Technologies Corporation | Methods for calculating real time package density |
US11450024B2 (en) | 2020-07-17 | 2022-09-20 | Zebra Technologies Corporation | Mixed depth object detection |
US11593915B2 (en) | 2020-10-21 | 2023-02-28 | Zebra Technologies Corporation | Parallax-tolerant panoramic image generation |
US11392891B2 (en) | 2020-11-03 | 2022-07-19 | Zebra Technologies Corporation | Item placement detection and optimization in material handling systems |
US11847832B2 (en) | 2020-11-11 | 2023-12-19 | Zebra Technologies Corporation | Object classification for autonomous navigation systems |
CN113034619A (zh) * | 2021-04-23 | 2021-06-25 | 中科微至智能制造科技江苏股份有限公司 | 包裹信息测量方法、装置及存储介质 |
CN113171962A (zh) * | 2021-04-28 | 2021-07-27 | 福建省祥福工艺有限公司 | 一种重组竹茶盘涂装处理工艺 |
US11954882B2 (en) | 2021-06-17 | 2024-04-09 | Zebra Technologies Corporation | Feature-based georegistration for mobile computing devices |
CN115953522B (zh) * | 2023-03-14 | 2023-05-23 | 武汉大势智慧科技有限公司 | 一种物体三维模型定向方法、装置、设备及存储介质 |
Family Cites Families (45)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020014533A1 (en) | 1995-12-18 | 2002-02-07 | Xiaxun Zhu | Automated object dimensioning system employing contour tracing, vertice detection, and forner point detection and reduction methods on 2-d range data maps |
US5988862A (en) * | 1996-04-24 | 1999-11-23 | Cyra Technologies, Inc. | Integrated system for quickly and accurately imaging and modeling three dimensional objects |
EP1402230A1 (de) | 2001-06-29 | 2004-03-31 | Square D Company | Hochliegendes dimensionierungssystem und zugehörige methode |
DE10336638A1 (de) * | 2003-07-25 | 2005-02-10 | Robert Bosch Gmbh | Vorrichtung zur Klassifizierung wengistens eines Objekts in einem Fahrzeugumfeld |
TWI266035B (en) * | 2003-11-11 | 2006-11-11 | Hon Hai Prec Ind Co Ltd | A system and method for measuring point-cloud |
US8294809B2 (en) | 2005-05-10 | 2012-10-23 | Advanced Scientific Concepts, Inc. | Dimensioning system |
US7605817B2 (en) * | 2005-11-09 | 2009-10-20 | 3M Innovative Properties Company | Determining camera motion |
CA2545118C (en) | 2006-04-28 | 2011-07-05 | Global Sensor Systems Inc. | Device for measuring package size |
US7647752B2 (en) | 2006-07-12 | 2010-01-19 | Greg Magnell | System and method for making custom boxes for objects of random size or shape |
US8531457B2 (en) * | 2006-11-29 | 2013-09-10 | Technion Research And Development Foundation Ltd. | Apparatus and method for finding visible points in a cloud point |
US7940279B2 (en) * | 2007-03-27 | 2011-05-10 | Utah State University | System and method for rendering of texel imagery |
EP2158576A1 (de) * | 2007-06-08 | 2010-03-03 | Tele Atlas B.V. | Verfahren und vorrichtung zum produzieren eines panoramas mit mehreren ansichtspunkten |
US8396284B2 (en) * | 2007-10-23 | 2013-03-12 | Leica Geosystems Ag | Smart picking in 3D point clouds |
US8265895B2 (en) | 2009-03-27 | 2012-09-11 | Symbol Technologies, Inc. | Interactive sensor systems and methods for dimensioning |
US8284988B2 (en) | 2009-05-13 | 2012-10-09 | Applied Vision Corporation | System and method for dimensioning objects using stereoscopic imaging |
US8542252B2 (en) | 2009-05-29 | 2013-09-24 | Microsoft Corporation | Target digitization, extraction, and tracking |
US8933925B2 (en) * | 2009-06-15 | 2015-01-13 | Microsoft Corporation | Piecewise planar reconstruction of three-dimensional scenes |
KR101619076B1 (ko) * | 2009-08-25 | 2016-05-10 | 삼성전자 주식회사 | 모바일 플랫폼의 동적 물체 검출 및 추적 방법 |
US20110216063A1 (en) * | 2010-03-08 | 2011-09-08 | Celartem, Inc. | Lidar triangular network compression |
US8199977B2 (en) * | 2010-05-07 | 2012-06-12 | Honeywell International Inc. | System and method for extraction of features from a 3-D point cloud |
US8134717B2 (en) | 2010-05-21 | 2012-03-13 | LTS Scale Company | Dimensional detection system and associated method |
US20110310088A1 (en) * | 2010-06-17 | 2011-12-22 | Microsoft Corporation | Personalized navigation through virtual 3d environments |
US8872851B2 (en) * | 2010-09-24 | 2014-10-28 | Intel Corporation | Augmenting image data based on related 3D point cloud data |
US8867793B2 (en) * | 2010-12-01 | 2014-10-21 | The Trustees Of The University Of Pennsylvania | Scene analysis using image and range data |
KR101758058B1 (ko) * | 2011-01-20 | 2017-07-17 | 삼성전자주식회사 | 깊이 정보를 이용한 카메라 모션 추정 방법 및 장치, 증강 현실 시스템 |
US8447549B2 (en) * | 2011-02-11 | 2013-05-21 | Quality Vision International, Inc. | Tolerance evaluation with reduced measured points |
US9070285B1 (en) * | 2011-07-25 | 2015-06-30 | UtopiaCompression Corporation | Passive camera based cloud detection and avoidance for aircraft systems |
KR101907081B1 (ko) | 2011-08-22 | 2018-10-11 | 삼성전자주식회사 | 3차원 점군의 물체 분리 방법 |
US9002099B2 (en) * | 2011-09-11 | 2015-04-07 | Apple Inc. | Learning-based estimation of hand and finger pose |
US8793107B2 (en) * | 2011-12-01 | 2014-07-29 | Harris Corporation | Accuracy-based significant point derivation from dense 3D point clouds for terrain modeling |
CN103164842A (zh) * | 2011-12-14 | 2013-06-19 | 鸿富锦精密工业(深圳)有限公司 | 点云提取系统及方法 |
US20130162806A1 (en) * | 2011-12-23 | 2013-06-27 | Mitutoyo Corporation | Enhanced edge focus tool |
EP2615580B1 (de) * | 2012-01-13 | 2016-08-17 | Softkinetic Software | Automatische Szenenkalibrierung |
WO2013170260A1 (en) | 2012-05-11 | 2013-11-14 | Proiam, Llc | Hand held dimension capture apparatus, system, and method |
US9846960B2 (en) * | 2012-05-31 | 2017-12-19 | Microsoft Technology Licensing, Llc | Automated camera array calibration |
US9420265B2 (en) * | 2012-06-29 | 2016-08-16 | Mitsubishi Electric Research Laboratories, Inc. | Tracking poses of 3D camera using points and planes |
US9939259B2 (en) * | 2012-10-04 | 2018-04-10 | Hand Held Products, Inc. | Measuring object dimensions using mobile computer |
US9472022B2 (en) * | 2012-10-05 | 2016-10-18 | University Of Southern California | Three-dimensional point processing and model generation |
US20140192050A1 (en) * | 2012-10-05 | 2014-07-10 | University Of Southern California | Three-dimensional point processing and model generation |
US20140104413A1 (en) * | 2012-10-16 | 2014-04-17 | Hand Held Products, Inc. | Integrated dimensioning and weighing system |
US9154773B2 (en) * | 2013-03-15 | 2015-10-06 | Seiko Epson Corporation | 2D/3D localization and pose estimation of harness cables using a configurable structure representation for robot operations |
US9443297B2 (en) * | 2013-07-10 | 2016-09-13 | Cognex Corporation | System and method for selective determination of point clouds |
US9412040B2 (en) * | 2013-12-04 | 2016-08-09 | Mitsubishi Electric Research Laboratories, Inc. | Method for extracting planes from 3D point cloud sensor data |
US11051000B2 (en) * | 2014-07-14 | 2021-06-29 | Mitsubishi Electric Research Laboratories, Inc. | Method for calibrating cameras with non-overlapping views |
US9396554B2 (en) * | 2014-12-05 | 2016-07-19 | Symbol Technologies, Llc | Apparatus for and method of estimating dimensions of an object associated with a code in automatic response to reading the code |
-
2014
- 2014-11-06 US US14/534,224 patent/US9600892B2/en active Active
-
2015
- 2015-10-06 WO PCT/US2015/054120 patent/WO2016073108A1/en active Application Filing
- 2015-10-06 CA CA2967025A patent/CA2967025C/en active Active
- 2015-10-06 GB GB1706586.3A patent/GB2546677B/en active Active
- 2015-10-06 MX MX2017005822A patent/MX367951B/es active IP Right Grant
- 2015-10-06 DE DE112015005076.0T patent/DE112015005076T5/de active Pending
Also Published As
Publication number | Publication date |
---|---|
GB2546677A (en) | 2017-07-26 |
MX2017005822A (es) | 2017-08-02 |
US20160133026A1 (en) | 2016-05-12 |
WO2016073108A1 (en) | 2016-05-12 |
GB201706586D0 (en) | 2017-06-07 |
US9600892B2 (en) | 2017-03-21 |
CA2967025C (en) | 2018-06-12 |
MX367951B (es) | 2019-09-12 |
GB2546677B (en) | 2021-10-27 |
CA2967025A1 (en) | 2016-05-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE112015005076T5 (de) | Nicht-parametrisches Verfahren und System zum Abschätzen von Dimensionen von Objekten mit beliebiger Form | |
DE112015005485T5 (de) | Vorrichtung für und verfahren zum schätzen von abmessungen eines objekt mit einem code im automatischen ansprechen auf ein lesen des codes | |
DE112019002547B4 (de) | System und verfahren zum bestimmen eines standortes zur platzierung eines pakets | |
DE102020120526A1 (de) | Verfahren und computersystem zur objektidentifizierung | |
DE112019001175T5 (de) | Visuelles Feedback zum Prozesszustand | |
DE112019001788T5 (de) | Verfahren, system und vorrichtung zum korrigieren von transluzenzartefakten in daten, die eine trägerstruktur darstellen | |
EP2923333B1 (de) | Verfahren zum automatischen erstellen von zwei- oder dreidimensionalen gebäudemodellen | |
DE102013012224A1 (de) | Vorrichtung zum Entnehmen von lose gespeicherten Gegenständen durch einen Roboter | |
DE102020127732A1 (de) | Dreidimensionale (3d) tiefenbildgebungssysteme und -verfahren zur automatischen bestimmung einer versandcontainerfüllung basierend auf bildgebungsvorlagen | |
DE102018102688A1 (de) | Bildverarbeitungsvorrichtung, Bildverarbeitungsprogramm und Bildverarbeitungssystem | |
DE112018006554T5 (de) | Systeme und verfahren zum bestimmen der kommerziellen anhängerbefüllung | |
DE112020003158T5 (de) | Trainingsverfahren für ein Zielerfassungsmodell, Verfahren und Vorrichtung zur Kennzeichnung der Daten | |
DE102017005964A1 (de) | Techniken zum Auswählen von Objekten in Bildern | |
DE112020003332T5 (de) | Dreidimensionale (3D) Tiefenbildgebungssysteme und -Verfahren zur dynamischen Container-Autokonfiguration | |
DE112010002677T5 (de) | Verfahren und vorrichtung zum bestimmen einer formübereinstimmung in drei dimensionen | |
DE102021201369A1 (de) | Verfahren und System zur Bestimmung einer Okklusion bzw. Verdeckung innerhalb eines Kamerasichtfelds | |
DE102022213442A1 (de) | Verfahren zur omnidirektionalen dense-regression für maschinelle wahrnehmungsaufgaben mittels verzerrungsfreiem cnn und sphärischer self-attention | |
DE102016100134B4 (de) | Verfahren und Vorrichtung zum Untersuchen eines Objekts unter Verwendung von maschinellem Sehen | |
DE102013215301A1 (de) | System, Verfahren und Computerprogrammprodukt zum Extrudieren eines Modells durch eine zweidimensionale Szene | |
DE112019006132T5 (de) | Verfahren, system und vorrichtung zur hilfsetikett-erkennung und -zuordnung | |
DE102019119138B4 (de) | Bestimmen einer Verteil- und/oder Sortierinformation zum automatisierten Verteilen und/oder Sortieren einer Sendung | |
DE102020213566A1 (de) | Verfahren und Computersystem zur Objekterkennung oder Objektregistrierung basierend auf einer Bildklassifizierung | |
DE112016007411T5 (de) | Fuzzy-eingabe für autoencoder | |
DE112019006186T5 (de) | Verfahren und vorrichtung zur steuerung von lichtemittern einer mobilen automatisierungsvorrichtung | |
DE112019006125T5 (de) | Verfahren und vorrichtung zur dekodierung von räumlich in beziehung stehenden zeichen |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R079 | Amendment of ipc main class |
Free format text: PREVIOUS MAIN CLASS: G06K0009000000 Ipc: G06V0010000000 |
|
R016 | Response to examination communication |