DE112016006415T5 - Verfahren und systeme zum hervorheben von kistenoberflächen und -kanten bei der dimensioning mobiler kisten - Google Patents

Verfahren und systeme zum hervorheben von kistenoberflächen und -kanten bei der dimensioning mobiler kisten Download PDF

Info

Publication number
DE112016006415T5
DE112016006415T5 DE112016006415.2T DE112016006415T DE112016006415T5 DE 112016006415 T5 DE112016006415 T5 DE 112016006415T5 DE 112016006415 T DE112016006415 T DE 112016006415T DE 112016006415 T5 DE112016006415 T5 DE 112016006415T5
Authority
DE
Germany
Prior art keywords
color
point cloud
target indicator
identified
identifying
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112016006415.2T
Other languages
English (en)
Inventor
Hao Zheng
Zhiheng Jia
David S. Koch
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Symbol Technologies LLC
Original Assignee
Symbol Technologies LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Symbol Technologies LLC filed Critical Symbol Technologies LLC
Publication of DE112016006415T5 publication Critical patent/DE112016006415T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/56Particle system, point based geometry or rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2012Colour editing, changing, or manipulating; Use of colour codes

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Computer Hardware Design (AREA)
  • Architecture (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • User Interface Of Digital Computer (AREA)
  • Quality & Reliability (AREA)
  • Processing Or Creating Images (AREA)

Abstract

Hierin offenbart sind Verfahren und Systeme zum Hervorheben von Kistenoberflächen und Kanten bei der Dimensionierung von mobilen Boxen. Eine Ausführungsform nimmt die Form eines Verfahrens an, das das Erhalten einer dreidimensionalen (3D) Punktwolke von einem Tiefensensor umfasst, wenn der Tiefensensor so positioniert ist, dass ein Zielindikator auf einer ersten Oberfläche eines Objekts erscheint; Verarbeiten der 3D-Punktwolke, um ein Ausmaß der ersten Oberfläche zu identifizieren; weiteres Verarbeiten der 3D-Punktwolke, um eine zweite Oberfläche, die benachbart und senkrecht zu der ersten Oberfläche ist, zu identifizieren und ein Ausmaß der zweiten Oberfläche zu identifizieren; und Anzeigen mindestens eines Teils der 3D-Punktwolke über die Benutzerschnittstelle, einschließlich Anzeigen der identifizierten ersten Oberfläche in einer ersten Farbe und der identifizierten zweiten Oberfläche in einer zweiten Farbe, die sich von der ersten Farbe unterscheidet,.

Description

  • HINTERGRUND DER ERFINDUNG
  • Präzise Messungen von Paketen vor dem Versand sind eine wichtige Aufgabe in der Transport- und Logistikbranche. Es ist für Benutzer vorteilhaft, in der Lage zu sein, die Größe eines Pakets oder von Paketen aus einem Bild zu messen, das auch Hintergrunddaten (z. B. andere Objekte) enthält. Dies kann sich beim Betrachten eines Bildes in einer graphischen Benutzerschnittstelle („GUI“) als schwierig erweisen. Bei der Bestimmung der Paketgröße ist es schwierig, Paketbilder vom Hintergrundbild in einer GUI zu unterscheiden. Eine gute Unterscheidung von Paketbildern und Hintergrundbild ist wichtig für die genaue Messung von Paketgrößen. Dementsprechend besteht ein Bedarf an Verfahren und Systemen zum Hervorheben von Kistenoberflächen und -kanten bei der Dimensionierung von mobilen Kisten.
  • Figurenliste
  • Die beigefügten Figuren, in denen gleiche Bezugszeichen identische oder funktional ähnliche Elemente in den einzelnen Ansichten bezeichnen, sind zusammen mit der nachfolgenden detaillierten Beschreibung Bestandteil der Offenbarung und dienen dazu, Ausführungsformen von Konzepten, die die beanspruchte Erfindung umfassen, weiter zu veranschaulichen und verschiedene Prinzipien und Vorteile dieser Ausführungsformen zu erklären.
    • zeigt ein Beispielscenario, das mehrere beispielhafte Pakete sowie einen Benutzer umfasst, der eine beispielhafte tragbare Computervorrichtung hält, gemäß einigen Ausführungsformen.
    • zeigt eine erste beispielhafte Vorderansicht der Computervorrichtung von gemäß einigen Ausführungsformen.
    • zeigt eine beispielhafte Architekturansicht der Computervorrichtung von gemäß einigen Ausführungsformen.
    • zeigt ein beispielhaftes Verfahren gemäß einigen Ausführungsformen.
    • zeigt eine erste Umrissansicht der beispielhaften Pakete von gemäß einigen Ausführungsformen.
    • zeigt eine zweite Umrissansicht der beispielhaften Pakete von gemäß einigen Ausführungsformen.
    • zeigt eine zweite beispielhafte Vorderansicht der Computervorrichtung von gemäß einigen Ausführungsformen.
    • zeigt eine dritte beispielhafte Vorderansicht der Computervorrichtung von gemäß einigen Ausführungsformen.
    • zeigt eine dritte Umrissansicht der beispielhaften Pakete von gemäß einigen Ausführungsformen.
    • zeigt eine vierte beispielhafte Vorderansicht der Computervorrichtung von gemäß einigen Ausführungsformen.
  • Erfahrene Fachleute werden erkennen, dass Elemente in den Figuren der Einfachheit und Klarheit halber dargestellt sind und nicht notwendigerweise maßstabsgetreu gezeichnet wurden. Zum Beispiel können die Dimensionen einiger der Elemente in den Figuren relativ zu anderen Elementen übertrieben sein, um das Verständnis von Ausführungsformen der vorliegenden Erfindung zu verbessern.
  • Die Vorrichtung und die Verfahrensschritte wurden, wo es angemessen ist, durch herkömmliche Symbole in den Zeichnungen dargestellt, die nur jene spezifischen Details zeigen, die zum Verständnis der Ausführungsformen der vorliegenden Erfindung relevant sind, um somit die Offenbarung nicht mit Einzelheiten zu verdecken, die für die Fachleute auf dem Gebiet, die auf die vorliegende Beschreibung zurückgreifen, ohne weiteres ersichtlich sind.
  • DETAILLIERTE BESCHREIBUNG
  • Hierin offenbart sind Verfahren und Systeme zum Hervorheben von Kastenoberflächen und -kanten bei der Dimensionierung von mobilen Kisten.
  • Eine Ausführungsform hat die Form eines Verfahrens, das (a) ein Erhalten einer dreidimensionalen (3D-) Punktwolke von einem Tiefensensor umfasst, wenn der Tiefensensor so positioniert ist, dass ein Zielindikator auf einer ersten Oberfläche eines Objekts erscheint, (b) ein Verarbeiten der 3D-Punktwolke umfasst, um eine Ausdehnung der ersten Oberfläche zu identifizieren, (c) ein Weiterverarbeiten der 3D-Punktwolke umfasst, um eine zweite Oberfläche zu identifizieren, die benachbart und senkrecht zu der ersten Oberfläche ist, und ein Ausmaß der zweiten Oberfläche zu identifizieren, und (d) ein Anzeigen mindestens eines Teils der 3D-Punktwolke über eine Benutzerschnittstelle umfasst, wobei das Anzeigen mindestens eines Teils der 3D-Punktwolke das Anzeigen der identifizierten ersten Oberfläche in einer ersten Farbe und der identifizierten zweiten Oberfläche in einer sich von der ersten Farbe unterscheidenden zweiten Farbe, umfasst.
  • Eine zweite Ausführungsform nimmt die Form eines Systems an, das eine Benutzerschnittstelle, einen Tiefensensor, einen Prozessor und einen Datenspeicher aufweist, der von dem Prozessor ausführbare Anweisungen enthält, um zumindest die im vorhergehenden Absatz beschriebenen Funktionen auszuführen.
  • In mindestens einer Ausführungsform sind der Tiefensensor und die Benutzerschnittstelle beide Komponenten eines einzelnen Handgeräts.
  • In mindestens einer Ausführungsform umfasst der Zielindikator, der auf der ersten Oberfläche des Objekts erscheint, den Zielanzeiger, der in der Benutzerschnittstelle erscheint, um auf der ersten Oberfläche des Objekts positioniert zu werden.
  • In mindestens einer Ausführungsform ist der Zielindikator wie ein Quadrat geformt.
  • In mindestens einer Ausführungsform ist der Zielindikator wie Fadenkreuze geformt.
  • In mindestens einer Ausführungsform umfasst der Zielindikator, der auf der ersten Oberfläche des Objekts erscheint, den Zielindikator, der tatsächlich auf die erste Oberfläche des Objekts projiziert wird.
  • In mindestens einer Ausführungsform erscheint der Zielindikator an einer Zielindikatorstelle auf der ersten Oberfläche, und das Identifizieren des Ausmaßes der ersten Oberfläche umfasst (i) Berechnen eines Zielindikator-Normaleneinheitsvektors an der Zielindikatorstelle; und (ii) Identifizieren des Ausmaßes der ersten Oberfläche als eine erste Oberflächengruppe von Punkten in der 3D-Punktwolke, wobei die erste Oberflächengruppe zusammenhängend ist und die Zielindikatorstelle aufweist, und wobei jeder Punkt in der ersten Oberflächengruppe einen entsprechenden Normaleneinheitsvektor hat, der dem Zielindikator-Normaleneinheitsvektor entspricht.
  • In mindestens einer Ausführungsform umfasst das Identifizieren der zweiten Oberfläche (i) ein Identifizieren eines zweiten Oberflächenpunkts, der (a) benachbart zu der ersten Oberfläche ist, und der (b) einen Normaleneinheitsvektor des zweiten Oberflächenpunkts aufweist, der senkrecht zu dem Zielindikator-Normaleneinheitsvektor ist; und (ii) Identifizieren einer Oberfläche, die den zweiten Oberflächenpunkt als die zweite Oberfläche aufweist.
  • In mindestens einer Ausführungsform umfasst das Identifizieren der Ausdehnung der zweiten Oberfläche ein Identifizieren der Ausdehnung der zweiten Oberfläche als eine Gruppe von Punkten der zweiten Oberfläche in der 3D-Punktwolke, wobei die zweite Oberflächengruppe zusammenhängend ist und den zweiten Oberflächenpunkt umfasst, und wobei jeder Punkt in der zweiten Oberflächengruppe einen entsprechenden Normaleneinheitsvektor hat, der gleich dem zweiten Oberflächenpunkt-Normaleneinheitsvektor ist.
  • In mindestens einer Ausführungsform umfasst das Identifizieren der zweiten Oberfläche (i) ein Identifizieren einer ersten Kante der ersten Oberfläche, (ii) ein Identifizieren mehrerer geeigneter zweiter Oberflächen, (iii) ein Identifizieren der mindestens einen Kante von zumindest einer der identifizierten geeigneten zweiten Oberflächen, und (iv) ein Identifizieren der zweiten Oberfläche als eine geeignete zweite Oberfläche, die eine Kante aufweist, die sich mit der identifizierten ersten Kante der ersten Oberfläche koextensiv erstreckt.
  • In mindestens einer Ausführungsform ist eine der ersten und zweiten Farben orange und die andere der ersten und zweiten Farben ist entweder blau oder grün.
  • In mindestens einer Ausführungsform umfasst das Verfahren ferner ein Identifizieren von mindestens zwei Kanten unter den identifizierten ersten und zweiten Oberflächen, und ein Anzeigen mindestens eines Teils der 3D-Punktwolke umfasst ein Anzeigen der mindestens zwei identifizierten Kanten in einer dritten Farbe, die sich sowohl von der ersten als auch von der zweiten Farbe unterscheidet.
  • In wenigstens einer Ausführungsform hat jede der ersten, zweiten und dritten Farben ein gegenseitiges kontrastreiches Verhältnis mit jeder der anderen zwei der ersten, zweiten und dritten Farben.
  • In mindestens einer Ausführungsform umfassen die mindestens zwei Kanten unter den identifizierten ersten und zweiten Oberflächen zwei Kanten der ersten Oberfläche und eine Kante der zweiten Oberfläche, die alle an einer gemeinsamen Ecke des Objekts verbunden sind.
  • In mindestens einer Ausführungsform ist die dritte Farbe gelb.
  • In mindestens einer Ausführungsform ist eine der ersten und zweiten Farben orange und die andere der ersten und zweiten Farben ist entweder blau oder grün.
  • In mindestens einer Ausführungsform weisen die erste und die zweite Farbe ein gegenseitiges kontrastreiches Verhältnis auf.
  • In mindestens einer Ausführungsform umfasst das Anzeigen einer gegebenen Oberfläche in einer gegebenen Farbe das Anzeigen des Ausmaßes der gegebenen Oberfläche in der gegebenen Farbe.
  • In wenigstens einer Ausführungsform umfasst das Verfahren ferner, während die identifizierte erste Oberfläche in der ersten Farbe und die identifizierte zweite Oberfläche in der zweiten Farbe über die Benutzerschnittstelle angezeigt werden, ein Empfangen eines Datenerfassungsbefehls über die Benutzerschnittstelle, und in Reaktion darauf ein Speichern von volumetrischen Daten, die für das Objekt charakteristisch sind.
  • Darüber hinaus kann jede der hierin beschriebenen Variationen und Permutationen in Bezug auf beliebige Ausführungsformen implementiert werden, einschließlich in Bezug auf jegliche Ausführungsformen des Verfahrens und in Bezug auf jegliche Systemausführungsformen. Ferner ist diese Flexibilität und mehrfache Anwendbarkeit von Ausführungsformen trotz der Verwendung einer etwas anderen Sprache (z. B. Prozess, Verfahren, Schritte, Funktionen, Satz von Funktionen und dergleichen) vorhanden, um solche Ausführungsformen zu beschreiben und zu charakterisieren.
  • Bevor mit dieser detaillierten Beschreibung fortgefahren wird, sei angemerkt, dass die in den verschiedenen Figuren dargestellten und beschriebenen Entitäten, Verbindungen, Anordnungen und dergleichen beispielhaft und nicht einschränkend dargestellt sind. So sind sämtliche Aussagen oder andere Hinweise darauf, was eine bestimmte Figur „abbildet“, was ein bestimmtes Element oder eine Entität in einer bestimmten Figur „ist“ oder „hat“, und jede und alle ähnlichen Aussagen - die isoliert und außerhalb des Kontexts als absolut und daher einschränkend gelesen werden können - nur richtig gelesen werden können, als wenn ein Satz konstruktiv vorangestellt wird wie „In mindestens einer Ausführungsform, ....“ Und aus Gründen, die der Kürze und Klarheit der Darstellung nahekommen, wird diese implizierte Leitklausel in dieser detaillierten Beschreibung nicht wiederholt.
  • zeigt ein Beispielszenario, das mehrere beispielhafte Pakete sowie einen Benutzer umfasst, der eine beispielhafte tragbare Computervorrichtung hält, gemäß einigen Ausführungsformen. Insbesondere zeigt ein Handgerät 102, Pakete 104 und einen Benutzer 106. Die Pakete 104 sind im Wesentlichen kubisch geformt (d. h. Jede Seite jedes Pakets 104 ist im Wesentlichen rechteckig geformt (z. B. quadratisch)) und könnte eine beliebige Anzahl verschiedener Größen aufweisen, wie in den Beispielen 104A, 104B und 104C dargestellt. Auch in dargestellt sind eine obere Oberfläche 108 und eine vordere Oberfläche 110 des Paktes 104A sowie (i) eine erste Kante 108A und eine zweite Kante 108B der oberen Fläche 108A und (ii) eine erste Kante 110A und eine zweite Kante 110B der vorderen Oberfläche 110. In dem dargestellten Beispielszenario ist die vordere Oberfläche 110 des Paktes 104A dem Benutzer 106 zugewandt.
  • Der Benutzer 106 kann das Handgerät 102 so positionieren, dass das Handgerät 102 im Allgemeinen auf die Pakete 104 gerichtet ist und auf eine Oberfläche eines Pakets gerichtet ist. In dem dargestellten und beschriebenen Beispiel positioniert der Benutzer 106 das Handgerät 102 derart, dass das Handgerät 102 (und insbesondere ein Zielindikator des Handgeräts 102) auf eine erste Oberfläche 108 (d. h. die obere Oberfläche in dem Beispielszenario, das in dargestellt ist) des Pakets 104A gerichtet ist. Dies ist beispielhaft und nicht einschränkend, da der Benutzer 106 das Handgerät 102 auf irgendeine Oberfläche irgendeines Pakets richten könnte.
  • zeigt eine erste beispielhafte Vorderansicht der Computervorrichtung von gemäß einigen Ausführungsformen. Insbesondere zeigt das Handgerät 102 mit einem Touchscreen 202 und einem Zielindikator 204. In wird der Zielindikator 204 auf dem Touchscreen 202 angezeigt, so dass es für den Benutzer 106 so aussieht, als ob der Zielindikator 204 auf der oberen Oberfläche 108 des Pakets 104A erscheint. In einigen Ausführungsformen umfasst der Zielindikator 204 einen Lichtstrahl (z. B. einen Laserstrahl), der tatsächlich von dem Handgerät 102 auf eine Oberfläche eines Pakets projiziert wird. In jedem Fall erscheint es dem Benutzer, der den Touchscreen 202 des Handgeräts 102 betrachtet, im Betrieb so, dass der Zielindikator 204 auf einer Oberfläche eines Pakets erscheint (wenn er richtig ausgerichtet ist). Wie bereits in dem dargestellten und beschriebenen Beispiel erwähnt, scheint der Zielindikator 204 auf der oberen Oberfläche 108 des Pakets 104A zu liegen.
  • zeigt eine Architekturansicht der beispielhaften Computervorrichtung von gemäß einigen Ausführungsformen. Das Handgerät 102 kann dazu ausgeführt sein, die hierin beschriebenen Funktionen auszuführen, und wie dargestellt umfasst es eine Kommunikationsschnittstelle 302, einen Prozessor 304, einen Datenspeicher 306 (der Programmanweisungen 308 und Betriebsdaten 310 enthält), eine Benutzerschnittstelle 312 (die den Touchscreen 202 und ein Datenerfassungselement 314 enthält), Peripheriegeräte 316 (die einen Tiefensensor 318 enthalten) und einen Kommunikationsbus 320. Diese Anordnung wird beispielhaft und nicht einschränkend dargestellt, da andere beispielhafte Anordnungen hier beschrieben werden könnten.
  • Die Kommunikationsschnittstelle 302 kann so konfiguriert sein, dass sie für die Kommunikation gemäß einem oder mehreren drahtlosen Kommunikationsprotokollen betreibbar ist, von denen einige Beispiele LMR, LTE, APCO P25, ETSI DMR, TETRA, Wi-Fi, Bluetooth und dergleichen umfassen. Die Kommunikationsschnittstelle 302 kann auch oder stattdessen eine oder mehrere drahtgebundene Kommunikationsschnittstellen (zur Kommunikation z. B. gemäß Ethernet, USB und / oder einem oder mehreren anderen Protokollen) umfassen. Die Kommunikationsschnittstelle 302 kann jede notwendige Hardware (z. B. Chipsätze, Antennen, Ethernet-Schnittstellen, usw.), jede notwendige Firmware und jede notwendige Software zum Ausführen einer oder mehrerer Kommunikationsformen mit einer oder mehreren anderen Entitäten umfassen wie sie hierin beschrieben werden.
  • Der Prozessor 304 kann einen oder mehrere Prozessoren irgendeines Typs umfassen, der von Fachleuten als geeignet erachtet wird, wobei einige Beispiele einen allgemeinen Mikroprozessor und einen dedizierten digitalen Signalprozessor (DSP) umfassen.
  • Der Datenspeicher 306 kann die Form irgendeines nicht-flüchtigen computerlesbaren Mediums oder einer Kombination solcher Medien annehmen, wobei einige Beispiele Flash-Speicher, Nur-Lese-Speicher (read-only memory - ROM) und Direktzugriffsspeicher (random-access memory - RAM) umfassen, um nur einige zu nennen, da irgendeine oder mehrere Arten von nicht-flüchtiger Datenspeichertechnologie, die von Fachleuten auf dem relevanten Gebiet als geeignet erachtet wird, verwendet werden könnte. Wie in dargestellt, umfasst der Datenspeicher 306 Programmanweisungen 308, die durch den Prozessor 304 ausführbar sind, um verschiedene hierin beschriebene Funktionen auszuführen, und er ist ferner so dargestellt, dass er Betriebsdaten 310 umfasst, welche einen oder mehrere Datenwerte enthalten können, die beim Ausführen einer oder mehrerer der hierin beschriebenen Funktionen von dem Handgerät 102 gespeichert werden und / oder auf die durch das Handgerät 102 zugegriffen wird. In wenigstens einer Ausführungsform enthält das Handgerät 102 eine Matrixlabor- (MATLAB-) Programmanweisung 308. Und selbstverständlich könnten andere Beispiele aufgeführt werden.
  • Die Benutzerschnittstelle 312 kann ein oder mehrere Eingabegeräte (d. h. Komponenten und dergleichen) und / oder ein oder mehrere Ausgabegeräte (d. h. Komponenten und dergleichen) umfassen. In Bezug auf Eingabevorrichtungen kann die Benutzerschnittstelle 312 einen oder mehrere Touchscreens, Knöpfe, Schalter, Mikrofone und dergleichen umfassen. In Bezug auf Ausgabegeräte kann die Benutzerschnittstelle 312 eine oder mehrere Anzeigen, Lautsprecher, Leuchtdioden (LEDs) und dergleichen umfassen. Darüber hinaus könnten eine oder mehrere Komponenten (z. B. ein interaktiver Touchscreen und eine Anzeige) der Benutzerschnittstelle 312 sowohl eine Benutzereingabe- als auch eine Benutzerausgabefunktionalität bereitstellen. Wie in enthält die Benutzerschnittstelle 312 den Touchscreen 202 und das Datenerfassungselement 314. Andere Benutzerschnittstellenkomponenten für Handgeräte könnten ebenfalls vorhanden sein, wie sie dem Fachmann bekannt sind.
  • Die Peripheriegeräte 316 können ein beliebiges Handgerät 102 -Zubehörteil, eine Komponente oder dergleichen aufweisen, auf die während des Betriebs von dem Handgerät 102 zugegriffen werden kann und die von ihm verwendet werden kann. Wie in dargestellt, weisen die Peripheriegeräte 316 den Tiefensensor 318 auf. Es gibt eine Anzahl von Arten von Tiefensensoren 318, die verwendet werden könnten, möglicherweise einen, der einen RGB-Sensor aufweist, möglicherweise Sprungbewegung (leap motion), möglicherweise Intel perceptual computing, möglicherweise Microsoft Kinect, unter zahlreichen anderen Möglichkeiten, die hier aufgelistet sein könnten. Es gibt auch eine Anzahl von Tiefenerfassungsverfahren, die durch den Tiefensensor 318 implementiert werden könnten, möglicherweise unter Verwendung von Stereotriangulation, möglicherweise unter Verwendung der Flugzeit, möglicherweise unter Verwendung einer codierten Apertur, unter zahlreichen anderen Möglichkeiten, die hier aufgelistet werden könnten. Dieser Satz von Informationen (d. h. Punkte) wird hierin als eine 3D-Punktwolke (oder manchmal einfach eine Punktwolke) bezeichnet; jeder Punkt in einer solchen Wolke entspricht den wahrgenommenen Paketen 104 an einer entsprechenden Stelle in dem Sichtfeld des Tiefensensors 318.
  • zeigt ein beispielhaftes Verfahren gemäß einigen Ausführungsformen. Insbesondere zeigt ein Verfahren 400, das die Schritte 402, 404, 406 und 408 umfasst und nachfolgend beispielhaft als durch das Handgerät 102 ausgeführt beschrieben wird, obwohl das Verfahren 400 im Allgemeinen von jeder Computervorrichtung ausgeführt werden könnte, die in geeigneter Weise ausgestattet, programmiert und konfiguriert ist.
  • In Schritt 402 erhält das Handgerät 102 eine 3D-Punktwolke unter Verwendung des Tiefensensors 318 zu einer Zeit, wenn das Handgerät 102 so positioniert ist, dass der Zielindikator 204 auf der oberen Oberfläche 108 des Pakets 104A erscheint. Die 3D-Punktewolke umfasst eine Vielzahl von Punkten, die jeweils einen entsprechenden Normalenvektor aufweisen. Der Zielindikator 204, der auf der oberen Oberfläche 108 des Pakets 104A erscheint, erscheint in der Benutzerschnittstelle 202. Der Zielindikator 204 kann in der Benutzerschnittstelle 202 auf verschiedene Arten erscheinen. In einer Ausführungsform ist der Zielindikator 204 wie ein Quadrat oder ein Fadenkreuz geformt. In einer anderen Ausführungsform wird der Zielindikator 204 auf die erste Oberfläche des Pakets 104A projiziert. Und selbstverständlich sind andere Beispielimplementierungen möglich.
  • In Schritt 404 verarbeitet das Handgerät 102 die 3D-Punktewolke, um ein Ausmaß der ersten Oberfläche des Pakets 104A zu identifizieren. Das Handgerät 102 kann dies tun, indem zuerst ein Zielindikator-Normaleneinheitsvektor berechnet wird, wie es in dargestellt ist. In diesem Fall und anderswo in dieser Offenbarung wird der Ausdruck Normaleneinheitsvektor verwendet, um sich auf einen Normalenvektor zu beziehen, der eine Einheitslänge (d. h. Voreinstellung, Standard, usw.) aufweist, um Vergleiche verschiedener Normaleneinheitsvektoren miteinander zu ermöglichen in einem Kontext, in dem die Orientierung (d. h. die Richtung) solcher Normalenvektoren von Bedeutung ist und in dem die Größe solcher Normalenvektoren nicht von besonderer Bedeutung ist.
  • Ein Normalenvektor ist eine lokale geometrische Eigenschaft einer 3D-Oberfläche und spezifisch für einen bestimmten Punkt. Für den Fachmann sollte es klar sein, dass eine zuverlässige Schätzung des Normalvektors an einem gegebenen Punkt innerhalb eines Punktwolken-Datensatzes somit von der Identifizierung der benachbarten Punkte des gegebenen Punkts abhängt. Es gibt eine Reihe von verschiedenen Möglichkeiten, wie das Handgerät 102 die Nachbarpunkte des Normalenvektors identifizieren und den Normalenvektor an einem Punkt innerhalb der 3D-Punktwolke berechnen kann. In wenigstens einer Ausführungsform verwendet das Handgerät 102 eine feste Anzahl von Euklidischen nächsten Nachbarpunkten, um den Normalenvektor an einem gegebenen Punkt innerhalb der 3D-Punktwolke zu schätzen. In einer anderen Ausführungsform identifiziert das Handgerät 102 den Nachbarpunkt des Normalenvektors durch Konstruieren eines Polygonnetzes, um die benachbarten Punkte gemäß den verbundenen Polygonfacetten zu identifizieren. Das Handgerät 102 berechnet dann den Normalenvektor durch Anpassen der identifizierten benachbarten Punkte an eine Ebene und Verwenden der Normalen der angepassten Ebene als Normalvektor. Und selbstverständlich sind andere Beispielimplementierungen möglich. In einigen Ausführungsformen verwendet das Handgerät 102 eine Bibliothek-Bereitstellungsfunktion, um den Normalenvektor einer Oberfläche an einem gegebenen Punkt zu berechnen. Ein Beispiel ist die „surfnorm“ -Funktion von MATLAB.
  • zeigt eine erste Umrissansicht von den Beispielpaketen von gemäß einigen Ausführungsformen. Insbesondere zeigt einen Umriss der Pakete 104. Der Umriss soll im Allgemeinen den Paketen 104 entsprechen, die in dargestellt sind, um dem Leser zu helfen, ein beispielhaftes Realwelt-Szenario zu visualisieren, aus dem die beispielhafte 3D-Punktwolke abgeleitet, gesammelt oder dergleichen sein könnte. Darüber hinaus sind zu Darstellungszwecken verschiedene Punkte in der 3D-Punktwolke in gezeigt mit entsprechenden Normaleneinheitsvektoren, die mit der oberen Oberfläche 108 des Pakets 104A korrespondieren. In tatsächlichen Implementierungen könnte eine beliebige Anzahl von Normaleneinheitsvektoren berechnet werden, da die verschiedenen Normaleneinheitsvektoren, die in dargestellt sind, zur Veranschaulichung und nicht als abschließend zu verstehen sind.
  • Wie in dargestellt sind der Zielindikator 204, ein Zielindikator-Normaleneinheitsvektor 502 und eine erste Oberflächengruppe von Normaleneinheitsvektoren 504 gezeigt. Der Zielindikator-Normaleneinheitsvektor 502 ist ein Normalenvektor, der mit einem Punkt korrespondiert, der repräsentativ für die Position des Zielindikators 204 auf dem Paket 104A ist.
  • Zurück zu , wo in Schritt 404 Bezug darauf genommen, wie das Handgerät 102 ein Ausmaß der oberen Oberfläche 108 des Pakets 104A identifizieren kann, identifiziert das Handgerät 102 in mindestens einer Ausführungsform das Ausmaß der oberen Oberfläche 108 als eine erste Oberflächengruppe von Punkten, die jeweilige Normaleneinheitsvektoren 504 aufweisen, die gleich dem Zielindikator-Normaleneinheitsvektor 502 in der 3D-Punktwolke sind, wobei diese erste Oberflächengruppe von Punkten zusammenhängend ist und den Punkt umfasst, an dem der Zielindikator-Normaleneinheitsvektor 502 von der oberen Oberfläche 108 des Pakets 104A entspringt. Vorausgesetzt, dass die obere Oberfläche 108 des Pakets 104A möglicherweise nicht vollständig flach ist, können in wenigstens einer Ausführungsform zwei Normaleneinheitsvektoren einander als gleich angesehen werden, wenn ihre Richtungen innerhalb einer Grenztoleranz zueinander liegen. Und selbstverständlich sind andere Beispielimplementierungen möglich.
  • In Schritt 406 verarbeitet das Handgerät 102 die 3D-Punktwolke weiter, um eine zweite Oberfläche - in diesem Fall die vordere Oberfläche 110 des Pakets 104A - zu identifizieren. In mindestens einer Ausführungsform kann das Handgerät 102 dies tun, indem zuerst ein zweiter Oberflächenpunkt-Normalenvektor berechnet wird, wie es in dargestellt ist.
  • zeigt eine zweite Umrissansicht der beispielhaften Pakete von gemäß einigen Ausführungsformen. Insbesondere zeigt den Umriss der Pakete 104, den Zielindikator-Normaleneinheitsvektor 502, die obere Oberfläche 108, eine erste Oberflächenkante 606, die vordere Oberfläche 110, einen zweiten Oberflächenpunkt 602, einen zweiten Oberflächenpunkt-Normalenvektor 604, und eine Gruppe von Normaleneinheitsvektoren 608 der zweiten Oberfläche. Der zweite Oberflächenpunkt 602 ist ein Punkt auf der zweiten Oberfläche 110. Der zweite Oberflächenpunkt-Normaleneinheitsvektor 604 ist ein Normalenvektor, der mit dem Punkt 602 der zweiten Oberfläche korrespondiert. Ferner ist die vordere Oberfläche 110 benachbart und senkrecht zu der oberen Oberfläche 108 des Pakets 104A. Die zweite Oberflächengruppe von Normaleninheitsnvektoren 608 repräsentiert die Ausdehnung der zweiten Oberfläche 110 des Pakets 104A.
  • Im Betrieb kann das Handgerät 102 somit den Zielindikator-Normaleneinheitsvektor 502 an dem Punkt berechnen, an dem der Zielindikator 204 auf der Oberfläche erscheint, auf der sich der Benutzer entschieden hat, den Zielindikator 204 auszurichten. Im Sprachgebrauch dieser Offenbarung wird diese Oberfläche die erste Oberfläche genannt. In dem dargestellten und beschriebenen Beispiel ist die erste Oberfläche die obere Oberfläche 108 des Pakets 104A. Auf diese Weise bildet der Zielindikator-Normaleneinheitsvektor 502 den Normaleneinheitsvektor für alle Punkte auf der oberen Oberfläche 108. Das Handgerät 102 bestimmt dann das Ausmaß der oberen Oberfläche 108 durch Fortschreiten in mehreren unterschiedlichen Richtungen in den Punktwolkendaten, wobei an jedem Punkt der Normaleneinheitsvektor der Oberfläche an diesem Punkt berechnet wird. Wenn der Normaleneinheitsvektor an einem bestimmten Punkt mit dem Zielindikator-Normaleneinheitsvektor 502 übereinstimmt (z. B. nahe genug ist), berücksichtigt das Handgerät 102 diesen gegebenen Punkt als noch Teil der oberen Oberfläche 108 und fährt nach außen fort zum nächsten Punkt.
  • Sobald das Handgerät 102 zu einem Punkt gelangt, an dem der berechnete Normaleneinheitsvektor nicht gleich dem Zielindikator-Normaleneinheitsvektor 502 ist (z. B. nicht nahe genug ist), bestimmt das Handgerät, dass es eine Kante der oberen Oberfläche 108 erreicht hat. In verschiedenen Ausführungsformen kann das Handgerät 102 eine bestimmte Anzahl von Punkten in einer Reihe oder einen bestimmten Bruchteil der zuvor bestimmten Anzahl von Punkten benötigen, um einen nicht gleichen Normaleneinheitsvektor zu haben, um somit zu bestimmen, dass eine Kante der oberen Oberfläche 108 erreicht worden ist. Dies kann verhindern, dass anomale Daten als Kante missinterpretiert werden.
  • Sobald das Handgerät 102 diese Analyse in genügend Richtungen durchgeführt hat, um die vier Kanten der oberen Oberfläche 108 zu identifizieren, kann das Handgerät dann über eine dieser Kanten hinausgehen, um zu versuchen, eine zweite Oberfläche zu identifizieren, die sowohl benachbart als auch senkrecht zu der bereits identifizierten ersten Oberfläche ist. Im Idealfall würde eine solche zweite Oberfläche durch den Benutzer visuell bestätigt werden als eine Oberfläche des Pakets 104A, an welcher der Benutzer 106 interessiert ist, obwohl es genauso gut eine Oberfläche eines Aktenschranks oder einer Wand oder eines anderen Pakets oder dergleichen sein könnte, an der das Paket 104A anliegt. In dem dargestellten und beschriebenen Beispiel ist die zweite Oberfläche tatsächlich eine andere Oberfläche des Pakets 104A; in diesem Fall ist es die vordere Oberfläche 110 des Pakets 104A.
  • Das Handgerät 102 kann nach der zweiten Oberfläche suchen, indem es zu Punkten in der Punktwolke vorrückt, die sich auf der anderen Seite (von dem Zielindikatorpunkt) einer jetzt identifizierten Kante der oberen Oberfläche 108 des Pakets 104A befinden. In ist zu sehen, dass eine vordere Kante 606 der oberen Oberfläche 108 identifiziert wurde. Das Handgerät 102 kann über diese Kante 606 hinausgehen, wobei es weiterhin Normaleneinheitsvektoren an jedem Punkt berechnet, den es passiert, bis es einen Punkt (wie den Punkt 602) erreicht, der einen Normaleneinheitsvektor 604 aufweist, der senkrecht zum Zielindikator-Normaleneinheitsvektor 502 ist. Das Handgerät 102 kann dann einem ähnlichen Prozess, wie er oben beschrieben ist, folgen, um in mehreren verschiedenen Richtungen fortzufahren, um das Ausmaß der zweiten Oberfläche zu identifizieren. Das Ausmaß der zweiten Oberfläche (d. h. der vorderen Oberfläche 110 des Pakets 104A) ist in graphisch dargestellt als die Gruppe 608 von Normaleneinheitsvektoren.
  • In einigen Ausführungsformen wird das Handgerät 102 eine gegebene Oberfläche nicht als „die zweite Oberfläche“ interpretieren, so wie dieser Begriff hierin verwendet wird, es sei denn, diese gegebene Oberfläche teilt eine Kante mit einer identifizierten Kante der ersten Oberfläche. Somit gilt, wenn das Handgerät 102 anfänglich die Normaleneinheitsvektoren auf einer Oberfläche berechnet hat, die benachbart und senkrecht zu der ersten Oberfläche war, aber keine Kante geteilt hat (d. h. selbst eine Kante aufweist, die mit einer identifizierten Kante der oberen Oberfläche 108 koextensiv ist), würde das Handgerät 102 diese Oberfläche verwerfen und sich zu einer anderen Oberfläche bewegen, die sowohl benachbart als auch senkrecht zu der ersten Oberfläche ist, und prüfen, ob diese nächste Oberfläche eine Kante mit der oberen Oberfläche 108 teilt. Während somit die vordere Oberfläche 110 die Kante 606 mit der oberen Oberfläche 108 teilt, umfassen einige Beispiele von Oberflächen, die benachbart und senkrecht zu der oberen Oberfläche 108 sind, aber keine Kante mit der oberen Oberfläche 108 teilen, Wände, Böden, Seiten von Aktenschränken, Seiten anderer unterschiedlich großer Kisten, usw. In einer Ausführungsform muss eine Kante einer Oberfläche, damit sich zwei Oberflächen eine Kante teilen, mit einer Kante der anderen Oberfläche koextensiv sein. Und selbstverständlich sind andere Beispielimplementierungen möglich.
  • Zurück zu , in Schritt 408, zeigt das Handgerät 102 zumindest einen Teil der 3D-Punktwolke über den Touchscreen 202 an, wobei das Anzeigen zumindest eines Teils der 3D-Punktwolke umfasst, dass das Handgerät 102 die identifizierte obere Oberfläche 108 des Pakets 104A in einer ersten Farbe anzeigt und die identifizierte vordere Oberfläche 110 des Pakets 104A in einer zweiten Farbe anzeigt, die sich von der ersten Farbe unterscheidet.
  • Das Handgerät 102 kann die identifizierte obere Oberfläche 108 des Pakets 104A in einer beliebigen Anzahl von Farben anzeigen. Ähnlich kann das Handgerät 102 die identifizierte vordere Oberfläche 110 des Pakets 104A in einer beliebigen Anzahl von Farben anzeigen. Die obere Oberfläche 108 des Pakets 104A und die vordere Oberfläche 110 des Pakets 104A sind jedoch in verschiedenen Farben dargestellt. In mindestens einer Ausführungsform zeigt das Handgerät 102 über den Touchscreen 202 die obere Oberfläche 108 des Pakets 104A in einer orangen Farbe und die vordere Oberfläche 110 des Pakets 104A in einer blauen Farbe an. In einer anderen Ausführungsform zeigt das Handgerät 102 über den Touchscreen 102 die obere Oberfläche 108 des Pakets 104A in einer roten Farbe und die vordere Oberfläche 110 des Pakets 104A in einer violetten Farbe an. Und selbstverständlich sind andere Beispielimplementierungen möglich.
  • zeigt eine zweite beispielhafte Vorderansicht der Computervorrichtung von gemäß einigen Ausführungsformen. Insbesondere zeigt das Handgerät 102, das den Touchscreen 202 umfasst, der aktuell das Datenerfassungselement 314 zeigt, das Paket 104A, welches die obere Oberfläche 108 (angezeigt in einer oberen Oberflächenfarbe 702) und die vordere Oberfläche 110 umfasst. Die obere Oberflächenfarbe 702 ist als ein Quadratgittermuster auf der oberen Oberfläche 108 des Pakets 104A dargestellt. Das Quadratgittermuster soll im Allgemeinen der oberen Oberflächenfarbe 702 des Pakets 104A entsprechen, um dem Leser zu helfen, ein Beispiel eines realen Szenarios zu visualisieren. Es wird ferner angemerkt, dass in einigen Ausführungsformen das Handgerät 102, das eine gegebene Oberfläche in einer gegebenen Farbe anzeigt, die Form des Handgeräts 102 annimmt, das einen Teil der gegebenen Oberfläche in der gegebenen Farbe anzeigt; in anderen Ausführungsformen nimmt das Handgerät 102, das eine gegebene Oberfläche in einer gegebenen Farbe anzeigt, die Form des Handgeräts 102 an, das das volle Ausmaß der gegebenen Oberfläche in der gegebenen Farbe anzeigt.
  • zeigt eine dritte beispielhafte Vorderansicht der Computervorrichtung von gemäß einigen Ausführungsformen. Insbesondere zeigt alle Aspekte, die in angezeigt werden, und zeigt zusätzlich die vordere Oberfläche 110 des Pakets 104A, die in einer vorderen Oberflächenfarbe 802 angezeigt wird. Die vordere Oberflächenfarbe 802 ist als ein Diagonalgittermuster auf der vorderen Oberfläche 110 des Pakets 104A dargestellt. Das Diagonalgittermuster soll im Allgemeinen der vorderen Oberflächenfarbe 802 auf der vorderen Oberfläche 110 entsprechen, um dem Leser zu helfen, ein Beispiel eines realen Szenarios zu visualisieren. Es wird angemerkt, dass zwei unterschiedliche geometrische Muster zum Darstellen der oberen Oberflächenfarbe 702 und der vorderen Oberflächenfarbe 802 verwendet werden, um hervorzuheben, dass diese zwei Farben 702 und 802 voneinander verschieden sind. In mindestens einer Ausführungsform weisen die Farben 702 und 802 ein gegenseitiges kontrastreiches Verhältnis (z. B. orange und grün) zueinander auf.
  • In einigen Ausführungsformen identifiziert das Handgerät 102 auch mindestens zwei Kanten unter den Kanten der oberen Oberfläche 108 und der vorderen Oberfläche 110. In zumindest einigen dieser Ausführungsformen zeigt das Handgerät 102, wenn mindestens ein Teil der 3D-Punktwolke angezeigt wird, die mindestens zwei identifizierten Kanten des Pakets 104A in einer dritten Farbe an, die sich von der oberen Oberflächenfarbe 702 und von der vorderen Oberflächenfarbe 802 unterscheidet. In mindestens einer solchen Ausführungsform hat die dritte Farbe ein gegenseitiges kontrastreiches Verhältnis sowohl mit der oberen Oberflächenfarbe 702 als auch mit der vorderen Oberflächenfarbe 802. In einer Ausführungsform ist die dritte Farbe gelb (z. B. ein helles, Textmarker-artiges Gelb).
  • zeigt eine dritte Umrissansicht der beispielhaften Pakete von gemäß einigen Ausführungsformen. Insbesondere zeigt den Umriss der Pakete 104, das Paket 104A, die obere Oberfläche 108, die erste Kante der oberen Oberfläche 108A, die zweite Kante der oberen Oberfläche 108B, die vordere Oberfläche 110, der erste Kante der vorderen Oberfläche 110A, die zweite Kante der vorderen Oberfläche 110B, den Zielindikator-Normaleneinheitsvektor 502, den zweiten Oberflächenpunkt 602, den Normaleneinheitsvektor 604 des zweiten Oberflächenpunkts und einen gemeinsamen Eckpunkt 902.
  • Wie oben beschrieben wird, sobald das Handgerät 102 gemäß einer Ausführungsform zu einem Punkt gelangt, an dem der berechnete Normaleneinheitsvektor nicht gleich dem Zielindikator-Normaleneinheitsvektor 502 ist (z. B. diesem nicht nahe genug ist), identifiziert das Handgerät 102 mindestens zwei Kanten der oberen Oberfläche 108 durch Bestimmen, dass es die erste Kante der oberen Oberfläche 108A erreicht hat. Nach weiterer Analyse in ausreichend Richtungen identifiziert das Handgerät 102 die zweite Kante der oberen Oberfläche 108B.
  • Ferner, wie oben beschrieben, identifiziert das Handgerät 102 in mindestens einer Ausführungsform die vordere Oberfläche 110, indem es zu Punkten in der Punktwolke fortschreitet, die auf der anderen Seite (von dem Zielindikatorpunkt) der ersten Kante der oberen Oberfläche 108A des Pakets 104A liegen. Das Handgerät 102 schreitet über die erste Kante der oberen Oberfläche 108A des Pakets 104A hinaus, wobei an jedem Punkt, den es passiert, Normaleneinheitsvektoren berechnet werden, bis es einen Punkt erreicht (wie den Punkt 602), der den Normaleneinheitsvektor 604 des zweiten Oberflächenpunkts aufweist, der senkrecht zum Zielindikator-Normaleneinheitsvektor 502 steht. Das Handgerät 102 folgt dann einem ähnlichen Prozess wie oben beschrieben, um in mehreren verschiedenen Richtungen fortzufahren, um die erste Kante der vorderen Oberfläche 110A und die zweite Kante der vorderen Oberfläche 110B zu identifizieren. In einer Ausführungsform identifiziert das Handgerät 102, dass die Kanten 108A (die auch 110A sind), 108B und 110B miteinander an dem gemeinsamen Eckpunkt 902 des Pakets 104A verbunden sind.
  • Das Handgerät 102 kann mindestens zwei identifizierte Kanten des Pakets 104A in einer beliebigen Anzahl von dritten Farben anzeigen. Jedoch werden drei verschiedene Farben jeweils verwendet für (i) die mindestens zwei identifizierten Kanten des Pakets 104A, (ii) die obere Oberfläche 108 des Pakets 104A, und (iii) die vordere Oberfläche 110 des Pakets 104A. Zum Beispiel zeigt das Handgerät 102 in einer Ausführungsform über den Touchscreen 202 (i) die Kanten 108A / 110A, 108B und 110B in einer grünen Farbe an; (ii) die obere Oberfläche 108 des Pakets 104A in einer orangen Farbe an, und (iii) die vordere Oberfläche 110 des Pakets 104A in einer blauen Farbe an. Und selbstverständlich sind andere Beispielimplementierungen möglich.
  • zeigt eine vierte beispielhafte Vorderansicht der Computervorrichtung von gemäß einigen Ausführungsformen. Insbesondere zeigt das Handgerät 102, den Touchscreen 202, das Datenerfassungselement 314, das Paket 104A, die erste Oberfläche 108, die erste Oberflächenfarbe 702, die zweite Oberfläche 110, die zweite Oberflächenfarbe 802, und eine dritte Kantenfarbe 1002.
  • Die dritte Kantenfarbe 1002 ist als ein gepunktetes Muster an jeder der Kanten 108A / 110A, 108B und 110B des Pakets 104A dargestellt. Das gepunktete Muster soll im Allgemeinen der dritten Kantenfarbe 1002 entsprechen, um dem Leser zu helfen, ein Beispiel eines realen Szenarios zu visualisieren.
  • In einigen Ausführungsformen kann das Handgerät 102 während des Anzeigens des zumindest einen Teils der 3D-Punktwolke mit den identifizierten Oberflächen und Kanten, die in drei verschiedenen Farben hervorgehoben sind, über die Benutzerschnittstelle (z. B. über den Touchscreen 202) einen Datenerfassungsbefehl empfangen. In einigen Ausführungsformen nimmt dies die Form des Detektierens einer Betätigung des Datenerfassungselements (z. B. eine weiche Taste) 314 an, die in gezeigt ist.
  • In einer beispielhaften Situation kann der Benutzer das Datenerfassungselement 314 betätigen, wenn er zu dem Schluss kommt, dass die zwei hervorgehobenen Oberflächen (108 und 110) beide auf demjenigen Paket sind, an dem der Benutzer 106 interessiert ist (d. h. auf das der Benutzer 106 mit dem Zielindikator 204 gezielt hat). Es sei angemerkt, dass in Fällen, in denen das Handgerät 102 die obere Oberfläche 108 und auch eine zweite Oberfläche, die nicht Teil des Pakets 104A ist, hervorhebt, der Benutzer erneut versuchen kann, den Winkel zu ändern, das Paket 104A so zu bewegen, dass es sich nicht in der Nähe von etwas anderem befindet, und / oder eine oder mehrere andere Aktionen auszuführen.
  • Nach Erfassen einer Betätigung des Datenerfassungselements 314 kann das Handgerät 102 als Reaktion darauf volumetrische Daten erfassen und speichern, die für das Paket 104 charakteristisch sind. Diese volumetrischen Daten könnten verschiedene Dimensionen (z. B. Länge, Breite, Tiefe) des Pakets 104 umfassen. Diese volumetrischen Daten könnten ein berechnetes Volumen des Pakets 104 umfassen. Und selbstverständlich sind andere Beispielimplementierungen möglich.
  • In einigen Ausführungsformen führt das Handgerät 102 eine Kostenberechnung basierend auf einem berechneten Volumen durch, um einem Kunden eine Rechnung zu stellen. In einigen Ausführungsformen übermittelt das Handgerät 102 die volumetrischen Daten und / oder einen oder mehrere Werte (z. B. Versandkosten), die daraus abgeleitet werden, an ein oder mehrere andere vernetzte Computersysteme (z. B. ein Paket-Arbeitsfluss-Verfolgungssystem). Und selbstverständlich sind andere Beispielimplementierungen möglich.
  • In der vorstehenden Beschreibung wurden spezifische Ausführungsformen beschrieben. Ein Durchschnittsfachmann erkennt jedoch, dass verschiedene Modifikationen und Änderungen vorgenommen werden können, ohne vom Umfang der Erfindung abzuweichen, wie er in den nachfolgenden Ansprüchen wiedergegeben ist. Dementsprechend sind die Beschreibung und die Figuren vielmehr in einem illustrativen als in einem einschränkenden Sinne zu betrachten, und alle derartigen Modifikationen sollen im Umfang der vorliegenden Lehren eingeschlossen sein.
  • Die Nutzen, Vorteile, Lösungen für Probleme und alle Elemente, die zum Auftreten oder einer Verstärkung eines Nutzens, eines Vorteils, oder einer Lösung führen können, sind nicht als kritische, erforderliche oder wesentliche Merkmale oder Elemente in den Ansprüchen zu verstehen. Die Erfindung wird ausschließlich durch die beigefügten Ansprüche definiert, einschließlich jeglicher Änderungen, die während der Anhängigkeit dieser Anmeldung vorgenommen wurden, sowie aller Äquivalente der Ansprüche wie erteilt.
  • Darüber hinaus können in diesem Dokument relationale Begriffe wie erster und zweiter, oberer und unterer und dergleichen lediglich verwendet sein, um eine Entität oder Aktion von einer anderen Entität oder Aktion zu unterscheiden, ohne notwendigerweise eine tatsächliche derartige Beziehung oder Reihenfolge zwischen solchen Entitäten oder Aktionen zu erfordern oder zu implizieren. Die Ausdrücke „umfasst“, „umfassend“, „hat“, „haben“, „aufweist“, „aufweisen“, „enthält“, „enthalten“ oder jede andere Variation davon sollen eine nicht-ausschließliche Einbeziehung abdecken, derart, dass ein Prozess, Verfahren, Produkt oder Vorrichtung, das eine Liste von Elementen umfasst, hat, aufweist, enthält, nicht nur diese Elemente aufweist, sondern auch andere Elemente aufweisen kann, die nicht ausdrücklich aufgelistet sind oder einem solchen Prozess, Verfahren, Produkt oder Vorrichtung inhärent sind. Ein Element, dem „umfasst ... ein“, „hat ... ein“, „aufweist ... ein“ oder „enthält ...ein“ vorausgeht, schließt ohne weitere Einschränkungen die Existenz zusätzlicher identischer Elemente in dem Prozess, dem Verfahren, dem Produkt oder der Vorrichtung, die das Element umfasst, hat, aufweist oder enthält, nicht aus. Die Begriffe „ein“ und „eine“ sind als eine oder mehrere definiert, sofern es hierin nicht ausdrücklich anders angegeben wird. Die Begriffe „im Wesentlichen“, „im Allgemeinen“, „ungefähr“, „etwa“ oder jede andere Version davon sind so definiert, dass sie von einem Fachmann auf diesem Gebiet nahekommend verstanden werden, und in einer nicht-einschränkenden Ausführungsform ist der Ausdruck definiert als innerhalb von 10%, in einer weiteren Ausführungsform als innerhalb von 5%, in einer weiteren Ausführungsform als innerhalb von 1% und in einer weiteren Ausführungsform als innerhalb von 0,5%. Der Ausdruck „gekoppelt“, wie er hierin verwendet wird, ist als verbunden definiert, jedoch nicht notwendigerweise direkt und nicht notwendigerweise mechanisch. Eine Vorrichtung oder eine Struktur, die auf eine bestimmte Art „ausgeführt“ ist, ist zumindest auch so ausgeführt, kann aber auch auf Arten ausgeführt sein, die nicht aufgeführt sind.
  • Es versteht sich, dass einige Ausführungsformen von einem oder mehreren generischen oder spezialisierten Prozessoren (oder „Verarbeitungsgeräten“) wie Mikroprozessoren, digitale Signalprozessoren, kundenspezifische Prozessoren und Field-Programmable-Gate-Arrays (FPGAs) und einmalig gespeicherten Programmanweisungen (einschließlich sowohl Software als auch Firmware) umfasst sein können, die den einen oder die mehreren Prozessoren steuern, um in Verbindung mit bestimmten Nicht-Prozessorschaltungen einige, die meisten oder alle der hierin beschriebenen Funktionen des Verfahrens und/oder der Vorrichtung zu implementieren. Alternativ können einige oder alle Funktionen durch eine Zustandsmaschine implementiert sein, die keine gespeicherten Programmanweisungen aufweist, oder in einer oder mehreren anwendungsspezifischen integrierten Schaltungen (ASICs), in denen jede Funktion oder einige Kombinationen von bestimmten Funktionen als benutzerdefinierte Logik implementiert sind. Natürlich kann eine Kombination der beiden Ansätze verwendet werden.
  • Darüber hinaus kann eine Ausführungsform als ein computerlesbares Speichermedium implementiert sein, auf dem computerlesbarer Code gespeichert ist, um einen Computer (der beispielsweise einen Prozessor umfasst) zu programmieren, um ein Verfahren auszuführen, wie es hierin beschrieben und beansprucht ist. Beispiele solcher computerlesbaren Speichermedien weisen eine Festplatte, eine CD-ROM, eine optische Speichervorrichtung, eine magnetische Speichervorrichtung, einen ROM (Nur-Lese-Speicher), einen PROM (programmierbarer Nur-Lese-Speicher), einen EPROM (löschbarer programmierbarer Nur-Lese-Speicher), einen EEPROM (elektrisch löschbarer programmierbarer Nur-Lese-Speicher) und einen Flash-Speicher auf, sind aber nicht hierauf beschränkt auf. Ferner wird davon ausgegangen, dass ein Durchschnittsfachmann, ungeachtet möglicher signifikanter Anstrengungen und vieler Designwahlen, die beispielsweise durch verfügbare Zeit, aktuelle Technologie und wirtschaftliche Überlegungen motiviert sind, ohne Weiteres in der Lage ist, solche Softwareanweisungen und -programme und ICs mit minimalem Experimentieren zu generieren, wenn er durch die hierin offenbarten Konzepte und Prinzipien angeleitet wird.
  • Die Zusammenfassung der Offenbarung wird bereitgestellt, um es dem Leser zu ermöglichen, schnell das Wesen der technischen Offenbarung zu ermitteln. Sie wird mit dem Verständnis bereitgestellt, dass sie nicht zur Auslegung oder Einschränkung des Umfangs oder der Bedeutung der Ansprüche verwendet wird. Ferner kann der vorangehenden detaillierten Beschreibung entnommen werden, dass verschiedene Merkmale in verschiedenen Ausführungsformen zum Zwecke der Verschlankung der Offenbarung zusammengefasst sind. Diese Art der Offenbarung ist nicht so auszulegen, dass es die Absicht widerspiegelt, dass die beanspruchten Ausführungsformen mehr Merkmale erfordern, als ausdrücklich in jedem Anspruch angegeben sind. Vielmehr ist es so, wie die folgenden Ansprüche zeigen, dass der erfinderische Gegenstand in weniger als allen Merkmalen einer einzigen offenbarten Ausführungsform liegt. Somit werden die folgenden Ansprüche hiermit in die detaillierte Beschreibung inkorporiert, wobei jeder Anspruch für sich als ein separat beanspruchter Gegenstand steht.

Claims (20)

  1. Verfahren, umfassend: Erhalten einer dreidimensionalen (3D-) Punktwolke von einem Tiefensensor, wenn der Tiefensensor so positioniert ist, dass ein Zielindikator auf einer ersten Oberfläche eines Objekts erscheint; Verarbeiten der 3D-Punktwolke, um ein Ausmaß der ersten Oberfläche zu identifizieren; Weiterverarbeiten der 3D-Punktwolke, um eine zweite Oberfläche zu identifizieren, die benachbart und senkrecht zu der ersten Oberfläche ist, und um ein Ausmaß der zweiten Oberfläche zu identifizieren; und Anzeigen mindestens eines Teils der 3D-Punktwolke über eine Benutzerschnittstelle, wobei das Anzeigen mindestens eines Teils der 3D-Punktwolke ein Anzeigen der identifizierten ersten Oberfläche in einer ersten Farbe und der identifizierten zweiten Oberfläche in einer zweiten Farbe, die sich von der ersten Farbe unterscheidet, umfasst.
  2. Verfahren nach Anspruch 1, wobei der Tiefensensor und die Benutzerschnittstelle beide Komponenten eines einzelnen Handgeräts sind.
  3. Verfahren nach Anspruch 1, wobei der Zielindikator, der auf der ersten Oberfläche des Objekts erscheint, den Zielindikator umfasst, der in der Benutzerschnittstelle erscheint, um auf der ersten Oberfläche des Objekts positioniert zu werden.
  4. Verfahren nach Anspruch 3, wobei der Zielindikator wie ein Quadrat geformt ist.
  5. Verfahren nach Anspruch 3, wobei der Zielindikator wie ein Fadenkreuz geformt ist.
  6. Verfahren nach Anspruch 1, wobei der Zielanzeiger, der auf der ersten Oberfläche des Objekts erscheint, umfasst, dass der Zielanzeiger tatsächlich auf die erste Oberfläche des Objekts projiziert wird.
  7. Verfahren nach Anspruch 1, wobei der Zielindikator an einer Zielindikatorstelle auf der ersten Oberfläche erscheint und wobei das Identifizieren des Ausmaßes der ersten Oberfläche umfasst: Berechnen eines Zielindikator-Normaleneinheitsvektors an der Zielindikatorstelle; und Identifizieren des Ausmaßes der ersten Oberfläche als eine erste Oberflächengruppe von Punkten in der 3D-Punktwolke, wobei die erste Oberflächengruppe zusammenhängend ist und die Zielindikatorstelle umfasst, und wobei jeder Punkt in der ersten Oberflächengruppe einen entsprechenden Normaleneinheitsvektor aufweist, der gleich dem Zielindikator-Normaleneinheitsvektor ist.
  8. Verfahren nach Anspruch 7, wobei das Identifizieren der zweiten Oberfläche umfasst: Identifizieren eines zweiten Oberflächenpunkts, der (i) benachbart zu der ersten Oberfläche ist und (ii) einen Normaleneinheitsvektor des zweiten Oberflächenpunkts hat, der senkrecht zu dem Zielindikator-Normaleneinheitsvektor ist; und Identifizieren einer Oberfläche, die den zweiten Oberflächenpunkt als die zweite Oberfläche aufweist.
  9. Verfahren nach Anspruch 8, wobei das Identifizieren des Ausmaßes der zweiten Oberfläche ein Identifizieren des Ausmaßes der zweiten Oberfläche als eine zweite Oberflächengruppe von Punkten in der 3D-Punktwolke umfasst, wobei die zweite Oberflächengruppe zusammenhängend ist und den zweiten Oberflächenpunkt umfasst, und wobei jeder Punkt in der zweiten Oberflächengruppe einen entsprechenden Normaleneinheitsvektor aufweist, der gleich dem Normaleneinheitsvektor des zweiten Oberflächenpunkts ist.
  10. Verfahren nach Anspruch 1, wobei das Identifizieren der zweiten Oberfläche umfasst: Identifizieren einer ersten Kante der ersten Oberfläche; Identifizieren mehrerer geeigneter zweiter Oberflächen; Identifizieren von mindestens einer Kante von mindestens einer der identifizierten geeigneten zweiten Oberflächen; und Identifizieren der zweiten Oberfläche als eine geeignete zweite Oberfläche, die eine Kante aufweist, welche sich koextensiv mit der identifizierten ersten Kante der ersten Oberfläche erstreckt.
  11. Verfahren nach Anspruch 1, wobei: eine der ersten und zweiten Farben orange ist; und die andere der ersten und zweiten Farben entweder blau oder grün ist.
  12. Verfahren nach Anspruch 1, ferner umfassend: Identifizieren von mindestens zwei Kanten unter den identifizierten ersten und zweiten Oberflächen, wobei das Anzeigen mindestens eines Teils der 3D-Punktwolke ein Anzeigen der mindestens zwei identifizierten Kanten in einer dritten Farbe, die sich sowohl von der ersten als auch von der zweiten Farbe unterscheidet, umfasst.
  13. Verfahren nach Anspruch 12, wobei jede der ersten, zweiten und dritten Farben ein gegenseitiges kontrastreiches Verhältnis mit jeder der anderen zwei der ersten, zweiten und dritten Farben aufweist.
  14. Verfahren nach Anspruch 12, wobei die mindestens zwei Kanten unter den identifizierten ersten und zweiten Oberflächen zwei Kanten der ersten Oberfläche und eine Kante der zweiten Oberfläche umfassen, die alle an einer gemeinsamen Ecke des Objekts verbunden sind.
  15. Verfahren nach Anspruch 12, wobei die dritte Farbe Gelb ist.
  16. Verfahren nach Anspruch 15, wobei: eine der ersten und zweiten Farben orange ist; und die andere der ersten und zweiten Farben entweder blau oder grün ist.
  17. Verfahren nach Anspruch 1, wobei die erste und die zweite Farbe ein gegenseitiges kontrastreiches Verhältnis aufweisen.
  18. Verfahren nach Anspruch 1, wobei das Anzeigen einer gegebenen Oberfläche in einer gegebenen Farbe ein Anzeigen des Ausmaßes der gegebenen Oberfläche in der gegebenen Farbe umfasst.
  19. Verfahren nach Anspruch 1, ferner umfassend: während des Anzeigens der identifizierten ersten Oberfläche in der ersten Farbe und der identifizierten zweiten Oberfläche in der zweiten Farbe über die Benutzerschnittstelle, Empfangen eines Datenerfassungsbefehls über die Benutzerschnittstelle und, in Reaktion darauf, Speichern von volumetrischen Daten, die für das Objekt charakteristisch sind.
  20. System, umfassend: eine Benutzerschnittstelle; einen Tiefensensor; einen Prozessor; und einen Datenspeicher, der Anweisungen enthält, die durch den Prozessor ausführbar sind, um zu bewirken, dass das System einen Satz von Funktionen ausführt, wobei der Satz von Funktionen umfasst: Erhalten einer dreidimensionalen (3D-) Punktwolke von dem Tiefensensor, wenn der Tiefensensor so positioniert ist, dass ein Zielindikator auf einer ersten Oberfläche eines Objekts erscheint; Verarbeiten der 3D-Punktwolke, um ein Ausmaß der ersten Oberfläche zu identifizieren; Weiterverarbeiten der 3D-Punktwolke, um eine zweite Oberfläche, die benachbart und senkrecht zu der ersten Oberfläche ist, zu identifizieren und ein Ausmaß der zweiten Oberfläche zu identifizieren; und Anzeigen mindestens eines Teils der 3D-Punktwolke über die Benutzerschnittstelle, wobei das Anzeigen mindestens eines Teils der 3D-Punktwolke ein Anzeigen der identifizierten ersten Oberfläche in einer ersten Farbe und der identifizierten zweiten Oberfläche in einer zweiten Farbe, die sich von der ersten Farbe unterscheidet, umfasst.
DE112016006415.2T 2016-02-11 2016-12-19 Verfahren und systeme zum hervorheben von kistenoberflächen und -kanten bei der dimensioning mobiler kisten Pending DE112016006415T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/041,713 US9799111B2 (en) 2016-02-11 2016-02-11 Methods and systems for highlighting box surfaces and edges in mobile box dimensioning
US15/041,713 2016-02-11
PCT/US2016/067509 WO2017139025A1 (en) 2016-02-11 2016-12-19 Methods and systems for highlighting box surfaces and edges in mobile box dimensioning

Publications (1)

Publication Number Publication Date
DE112016006415T5 true DE112016006415T5 (de) 2018-11-15

Family

ID=57799811

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112016006415.2T Pending DE112016006415T5 (de) 2016-02-11 2016-12-19 Verfahren und systeme zum hervorheben von kistenoberflächen und -kanten bei der dimensioning mobiler kisten

Country Status (6)

Country Link
US (1) US9799111B2 (de)
CN (1) CN108701344B (de)
AU (1) AU2016392270B2 (de)
DE (1) DE112016006415T5 (de)
GB (1) GB2565435B (de)
WO (1) WO2017139025A1 (de)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10621746B2 (en) * 2017-11-07 2020-04-14 Symbol Technologies, Llc Methods and apparatus for rapidly dimensioning an object
US10989795B2 (en) * 2017-11-21 2021-04-27 Faro Technologies, Inc. System for surface analysis and method thereof
CN114937076A (zh) * 2022-06-16 2022-08-23 龙码视别(北京)科技有限公司 一种尺寸测量方法和装置

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7787696B2 (en) 2000-08-28 2010-08-31 University Of North Carolina At Charlotte Systems and methods for adaptive sampling and estimating a systematic relationship between a plurality of points
US6918538B2 (en) 2002-12-18 2005-07-19 Symbol Technologies, Inc. Image scanning device having a system for determining distance to a target
CN101464999B (zh) 2007-12-19 2011-01-05 鸿富锦精密工业(深圳)有限公司 三维色阶比对系统及方法
WO2012141235A1 (ja) 2011-04-13 2012-10-18 株式会社トプコン 三次元点群位置データ処理装置、三次元点群位置データ処理システム、三次元点群位置データ処理方法およびプログラム
US9245193B2 (en) * 2011-08-19 2016-01-26 Qualcomm Incorporated Dynamic selection of surfaces in real world for projection of information thereon
US9779546B2 (en) 2012-05-04 2017-10-03 Intermec Ip Corp. Volume dimensioning systems and methods
US9857470B2 (en) * 2012-12-28 2018-01-02 Microsoft Technology Licensing, Llc Using photometric stereo for 3D environment modeling
CN103337066B (zh) * 2013-05-27 2016-05-18 清华大学 3d获取系统的校准方法
CA2954286C (en) 2014-07-08 2023-11-21 Aila Technologies, Inc. Imaging and peripheral enhancements for mobile devices
US9866815B2 (en) * 2015-01-05 2018-01-09 Qualcomm Incorporated 3D object segmentation
US20170124726A1 (en) * 2015-11-02 2017-05-04 Canon Kabushiki Kaisha System and method for determining wall thickness

Also Published As

Publication number Publication date
AU2016392270A1 (en) 2018-10-04
AU2016392270B2 (en) 2019-03-07
CN108701344B (zh) 2020-09-15
GB2565435B (en) 2020-01-01
CN108701344A (zh) 2018-10-23
GB201812841D0 (en) 2018-09-19
US20170236265A1 (en) 2017-08-17
WO2017139025A1 (en) 2017-08-17
GB2565435A (en) 2019-02-13
US9799111B2 (en) 2017-10-24

Similar Documents

Publication Publication Date Title
DE112019002547B4 (de) System und verfahren zum bestimmen eines standortes zur platzierung eines pakets
DE102011106050B4 (de) Schattenentfernung in einem durch eine fahrzeugbasierte Kamera erfassten Bild zur Detektion eines freien Pfads
DE112016006583T5 (de) Vorrichtung und Verfahren zur Dimensionierung unter Verwendung von digitalen Bildern und Tiefendaten
DE112016006337T5 (de) Verfahren und systeme zur hochpräzisionsortung mit tiefenwerten
DE102009051826A1 (de) Verfahren zum Vergleichen der Ähnlichkeit von 3D-bildlichen Objekten
DE112020005377B4 (de) Systeme und verfahren zur automatischen kamerainstallationsführung
DE112016006873T5 (de) Erfassung von Menschen in Bildern unter Verwendung von Tiefeninformationen
DE102015209138A1 (de) Überwachungsvorrichtung, Überwachungssystem und Überwachungsverfahren
DE102013210375A1 (de) Auffinden von text in natürlichen szenen
DE102011106052B4 (de) Schattenentfernung in einem durch eine fahrzeugbasierte Kamera erfassten Bild unter Verwendung eines nichtlinearen beleuchtungsinvarianten Kerns
DE102015116599A1 (de) Elektronische Vorrichtung und Verfahren zum Steuern ihrer Kameras
DE112020003332B4 (de) Dreidimensionale (3D) Tiefenbildgebungssysteme und -Verfahren zur dynamischen Container-Autokonfiguration
DE112016005287T5 (de) Verfahren und systeme zur behälter-vollheitsschätzung
CH709003A2 (de) Distanzbestimmung aus Bildern mit Referenzobjekt.
DE112016006415T5 (de) Verfahren und systeme zum hervorheben von kistenoberflächen und -kanten bei der dimensioning mobiler kisten
DE202011110874U1 (de) System zur Bestimmung von Gebäudenummern
EP2050023A1 (de) Verfahren zum analysieren und/oder testen zumindest einer benutzeroberfläche, datenverarbeitungseinrichtung und computerprogrammprodukt
DE102016122790A1 (de) Unterstützter automatischer Weißabgleich
DE102015207903A1 (de) Vorrichtung und Verfahren zum Erfassen eines Verkehrszeichens vom Balkentyp in einem Verkehrszeichen-Erkennungssystem
BE1029791B1 (de) System und verfahren zum detektieren der kalibrierung eines 3d- sensors
DE112019006132T5 (de) Verfahren, system und vorrichtung zur hilfsetikett-erkennung und -zuordnung
DE102017209631A1 (de) Objektidentifizierungsvorrichtung
WO2018153817A1 (de) Verfahren zur detektion zumindest eines jetonobjekts
DE112020004829T5 (de) Verfahren, system und vorrichtung zur mobilen vermessung
EP2656327B1 (de) Verfahren und vorrichtung zur untersuchung des optischen zustands von wertdokumenten

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication