DE202018006634U1 - Vorrichtung zum schnellen Dimensionieren eines Objekts - Google Patents

Vorrichtung zum schnellen Dimensionieren eines Objekts Download PDF

Info

Publication number
DE202018006634U1
DE202018006634U1 DE202018006634.6U DE202018006634U DE202018006634U1 DE 202018006634 U1 DE202018006634 U1 DE 202018006634U1 DE 202018006634 U DE202018006634 U DE 202018006634U DE 202018006634 U1 DE202018006634 U1 DE 202018006634U1
Authority
DE
Germany
Prior art keywords
user
processor
attachment
candidate corners
computer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE202018006634.6U
Other languages
English (en)
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Symbol Technologies LLC
Original Assignee
Symbol Technologies LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Symbol Technologies LLC filed Critical Symbol Technologies LLC
Publication of DE202018006634U1 publication Critical patent/DE202018006634U1/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20101Interactive definition of point of interest, landmark or seed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Architecture (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

System, aufweisend:eine Heads-Up-Display-Baugruppe, die einen Präsentationsgenerator und eine Kopfhalterung umfasst, wobei die Heads-Up-Display-Baugruppe konfiguriert ist, um von einem Benutzer getragen zu werden;eine Vielzahl von Kameras, die an der Heads-Up-Display-Baugruppe montiert sind, wobei die Kameras konfiguriert sind, um Bilddaten zu erfassen, die einem Objekt und einem Anhang des Benutzers zugeordnet sind;einen Speicher, der konfiguriert ist, um ausführbare Computerbefehle zu speichern; undeinen Prozessor, der konfiguriert ist, um eine Schnittstelle mit dem Präsentationsgenerator, der Vielzahl von Kameras und dem Speicher zu bilden, und der konfiguriert ist, um die ausführbaren Computerbefehle auszuführen, um den Prozessor zu veranlassen zum:Analysieren der Bilddaten, die dem Objekt zugeordnet sind, um eine Vielzahl von Kandidaten-Ecken des Objekts zu identifizieren;Erkennen einer Nähe eines Anhangs des Benutzers zu jeder der Kandidaten-Ecken des Objekts;Bestimmen, ob die erste der Kandidaten-Ecken eine tatsächliche Ecke des Objekts ist, basierend auf der Nähe des Anhangs zu der ersten der Kandidaten-Ecken,Berechnen einer Dimension des Objekts basierend auf der ersten der Kandidaten-Ecken, wenn die erste der Kandidaten-Ecken eine aktuelle Ecke des Objekts ist;wobei die computerausführbaren Anweisungen den Prozessor veranlassen, die Nähe des Anhangs zur ersten der Kandidaten-Ecken zu erkennen durch:Erkennen, dass der Anhang sich für eine bestimmte Schwellenzeitspanne nicht mehr bewegt hat; undals Reaktion auf das Erkennen, dass der Anhang sich für eine bestimmte Schwellenzeitspanne nicht mehr bewegt hat, Bestimmen eines Abstands zwischen dem sich nicht mehr bewegenden Anhang des Benutzers und der ersten der Kandidaten-Ecken.

Description

  • HINTERGRUND
  • In einer Inventarisierungsumgebung, wie z.B. einem Einzelhandelsgeschäft, einem Lagerhaus, einer Versandeinrichtung usw., ist es nützlich, die Dimensionen eines Kastenobjekts zu kennen. Vorhandene Bildgebungssysteme sind in der Lage, die Dimensionen eines Kastenobjekts zu schätzen, indem sie die Ecken des Kastenobj ekts identifizieren. Diese vorhandenen Systeme können j edoch oft sehr lange Zeit in Anspruch nehmen, um die tatsächlichen Ecken des Kastenobjekts unter sämtlichen Kandidaten-Ecken zu identifizieren. Außerdem können Fehler beim Dimensionieren auftreten, wenn die tatsächlichen Ecken falsch identifiziert werden.
  • Figurenliste
  • Die beigefügten Figuren, in denen gleiche Bezugszeichen identische oder funktional ähnliche Elemente in den einzelnen Ansichten bezeichnen, sind zusammen mit der nachfolgenden detaillierten Beschreibung in die Offenbarung inkorporiert und bilden einen Bestandteil der Offenbarung und dienen dazu, hierin beschriebene Ausführungsformen von Konzepten weiter zu veranschaulichen und verschiedene Prinzipien und Vorteile dieser Ausführungsformen zu erklären.
    • 1 ist ein Blockdiagramm einer beispielhaften HUD-Baugruppe, die gemäß einigen Ausführungsformen konstruiert ist.
    • 2A und 2B zeigen eine beispielhafte HUD-Baugruppe, die die beispielhafte HUD-Baugruppe von 1 umsetzen kann, gemäß einigen Ausführungsformen.
    • 3 zeigt die beispielhafte HUD-Baugruppe der 2A und 2B, die an einem Kopf eines Benutzers montiert ist, gemäß einigen Ausführungsformen.
    • 4 zeigt beispielhafte Lichtmaschinen, die an einer beispielhaften HUD-Baugruppe montiert sind, gemäß einigen Ausführungsformen.
    • 5 zeigt einen Benutzer, der eine beispielhafte HUD-Baugruppe mit daran befestigten Kameras trägt, wobei der Benutzer auf ein beispielhaftes zu dimensionierendes Kastenobjekt schaut, gemäß einigen Ausführungsformen.
    • 6 ist ein Blockdiagramm, das eine beispielhafte Logikschaltung gemäß einigen Ausführungsformen darstellt.
    • 7 ist eine schematische Darstellung eines Bildgebungssystems mit einer HUD-Baugruppe gemäß einigen Ausführungsformen.
    • 8 zeigt, dass ein Barcode auf der Oberfläche eines Kastenobjekts angebracht ist, gemäß einigen Ausführungsformen.
    • 9A ist ein Beispiel für eine Anzeige, die ein Benutzer der HUD-Baugruppe beim Dimensionieren eines Kastenobjekts sehen würde, und zeigt ein aufgenommenes Bild des Kastenobjekts mit der geometrischen Markierung auf einer Seite des Kastenobjekts, gemäß einigen Ausführungsformen.
    • 9B ist ein Beispiel für eine Anzeige, die ein Benutzer der HUD-Baugruppe beim Dimensionieren eines Kastenobjekts sehen würde, bei der die Kastendimensionen und das Volumen des Kastenobjekts angezeigt werden, gemäß einigen Ausführungsformen.
    • 10A zeigt ein aufgenommenes Bild eines Kastenobjekts gemäß einigen Ausführungsformen.
    • 10B zeigt einige Kantenlinien im aufgenommenen Bild gemäß einigen Ausführungsformen.
    • 10C zeigt einige Punkte im aufgenommenen Bild, die Kandidaten-Eckpunkte des Kastenobjekts sind, gemäß einigen Ausführungsformen.
    • 11 ist ein Flussdiagramm eines Verfahrens, wie es durch eine Vorrichtung ausgeführt wird, zum Bestimmen der Dimensionen eines Kastenobjekts gemäß einigen Ausführungsformen.
    • 12 ist ein Flussdiagramm eines Verfahrens, wie es durch eine Vorrichtung ausgeführt wird, zum Analysieren von Bilddaten zur Identifizierung einer Vielzahl von Kandidaten-Eckpunkten eines Kastenobjekts gemäß einigen Ausführungsformen.
    • 13 ist ein Flussdiagramm eines Verfahrens, wie es durch eine Vorrichtung ausgeführt wird, zum Erkennen der Position eines Benutzeranhangs in Bezug auf Kandidaten-Ecken des Kastenobjekts gemäß einigen Ausführungsformen.
  • Fachleute werden erkennen, dass Elemente in den Figuren der Einfachheit und Klarheit halber dargestellt sind und nicht notwendigerweise maßstabsgetreu gezeichnet wurden. Zum Beispiel können die Dimensionen einiger der Elemente in den Figuren relativ zu anderen Elementen übertrieben sein, um das Verständnis von Ausführungsformen der vorliegenden Erfindung zu verbessern.
  • Die Vorrichtungs- und Verfahrenskomponenten wurden, wo es angemessen ist, durch herkömmliche Symbole in den Zeichnungen dargestellt, die nur jene spezifischen Details zeigen, die zum Verständnis der hierin offenbarten Ausführungsformen relevant sind, um somit die Offenbarung nicht mit Einzelheiten zu verdecken, die für die Fachleute auf dem Gebiet, die auf die vorliegende Beschreibung zurückgreifen, ohne weiteres ersichtlich sind.
  • DETAILLIERTE BESCHREIBUNG
  • Es werden Systeme für das schnelle Dimensionieren eines Kastenobjekts bereitgestellt. Die Systeme können eine Vielzahl von Kameras umfassen, die konfiguriert sind, um Bilddaten erfassen, die für ein Objekt repräsentativ sind. Ein Prozessor kann die Bilddaten analysieren, um eine Vielzahl von Kandidatenecken des Objekts zu identifizieren und die Nähe eines Anhangs zu jeder der Kandidatenecken zu erkennen. Auf der Grundlage der Nähe des Anhangs zu jeder der Kandidatenecken des Objekts wird eine der Kandidatenecken des Objekts als eine Ecke des Objekts bestätigt. Sobald mindestens zwei Ecken des Objekts identifiziert und bestätigt sind, kann der Prozessor die Dimensionen und/oder das Volumen des Objekts auf der Grundlage der tatsächlichen Ecken des Kastenobjekts berechnen. Es ist von Vorteil, dass die tatsächlichen Ecken des Objekts schnell aus den Kandidatenecken identifiziert werden können, was die Verarbeitungszeit erheblich verkürzt und die Dimensionierung beschleunigt.
  • 1 ist ein Blockdiagramm einer beispielhaften HUD (Heads-Up-Display)-Baugruppe 100, die gemäß den Lehren dieser Offenlegung konstruiert ist. Alternative Implementierungen der HUD-Baugruppe 100 aus 1 enthalten ein oder mehrere zusätzliche oder alternative Elemente, Verfahren und/oder Vorrichtungen. In einigen Beispielen können ein oder mehrere der Elemente, Verfahren und/oder Vorrichtungen der HUD-Baugruppe 100 aus 1 kombiniert, geteilt, neu angeordnet oder weggelassen werden.
  • Die beispielhafte HUD-Baugruppe 100 von 1 enthält einen Präsentationsgenerator 102 und eine Kopfhalterung 104. Die Kopfhalterung 104 ist so konstruiert, dass der Präsentationsgenerator 102 an einem Kopf einer Person befestigt werden kann, so dass eine vom Präsentationsgenerator 102 erzeugte Präsentation von der Person konsumiert werden kann. Die Präsentation enthält visuelle Medienkomponenten (z.B. Bilder) und/oder Audio-Medienkomponenten. Um Bilder wie statischen oder animierten Text und/oder Grafiken zu erzeugen, enthält der beispielhafte Präsentationsgenerator 102 von 1 einen Bildgenerator 106. Der beispielhafte Bildgenerator 106 aus 1 steht in Kommunikation mit einer oder mehreren Bilddatenquellen. Die vom Bildgenerator 106 empfangenen Bilddaten sind z.B. repräsentativ für Text, Grafiken und/oder Augmented-Reality-Elemente (z.B. Informationen, die sich auf Objekten innerhalb des Sichtfeldes überlagern). Der beispielhafte Bildgenerator 106 von 1 enthält Lichtmaschinen 108, die die empfangenen Bilddaten in Muster und Lichtimpulse umwandeln. Die Lichtmaschinen 108 übermitteln das erzeugte Licht an einen Wellenleiter 110, so dass die den empfangenen Daten entsprechenden Bilder dem Benutzer über den Wellenleiter 110 angezeigt werden. In einigen Beispielen enthalten die Lichtmaschinen 110 Optiken, die das erzeugte Licht vor der Bereitstellung des Lichts an den Wellenleiter 110 konditionieren oder manipulieren (z.B. polarisieren und/oder kollimieren). Während der beispielhafte Bildgenerator 106 die Lichtmaschinen 108 und den Wellenleiter verwendet, um die visuellen Komponenten der Präsentation zu präsentieren, kann die HUD-Baugruppe 100 aus 1 jede geeignete Bilderzeugungstechnologie wie z.B. Kathodenstrahlröhren (CRT)-Geräte oder scannende Laser verwenden.
  • Im Beispiel von 1 verwenden die Lichtmaschinen 108 eine Lichtquelle (z.B. Leuchtdioden [LEDs]), um auf der Grundlage der empfangenen Daten Licht zu erzeugen. In einigen Beispielen empfangen die Lichtmaschinen 108 verarbeitete Daten in einem Zustand, in dem sie sofort in Licht umgewandelt werden können. In einigen Beispielen verarbeiten die Lichtmaschinen 108 Rohbilddaten, bevor die Bilddaten in Licht umgewandelt werden. Um eine solche Verarbeitung durchzuführen, enthalten die Lichtmaschinen 108 in 1 eine oder mehrere Logikschaltungen, die zur Verarbeitung der Bilddaten konfiguriert sind, und/oder stehen mit diesen in Verbindung.
  • Der beispielhafte Wellenleiter 110 von 1 trägt das von den Lichtmaschinen 108 empfangene Licht in einer Richtung und einem Muster, die den Bilddaten entsprechen. In dem abgebildeten Beispiel enthält der Wellenleiter 110 eine Vielzahl von Innenflächen, die einen Lichtleiter bilden, um das Licht intern zu reflektieren, während das Licht von einem Eingang zu einem Ausgang wandert. Der beispielhafte Wellenleiter 110 enthält Gitter am Ausgang, um das Licht in Richtung eines Auges des Benutzers zu beugen und dadurch das Bild dem Benutzer anzuzeigen. Der beispielhafte Wellenleiter 110 von 1 enthält eine erste und eine zweite Linse, die so angeordnet sind, dass sie über dem ersten bzw. zweiten Auge des Benutzers platziert werden können. Für den Wellenleiter 110 ist jedoch jede geeignete Form oder Größe möglich. Im abgebildeten Beispiel ist der Wellenleiter 110 transparent, so dass der Benutzer die Umgebung gleichzeitig mit dem angezeigten Bild oder die Umgebung nur dann sehen kann, wenn kein Bild auf dem Wellenleiter 110 angezeigt wird.
  • Der beispielhafte Präsentationsgenerator 102 von 1 enthält einen Audiogenerator 112, der Audiodaten empfängt und die Audiodaten über eine Kopfhörerbuchse 114 und/oder einen Lautsprecher 116 in Schall umwandelt. In einigen Beispielen arbeiten der Audiogenerator 112 und der Bildgenerator 106 zusammen, um eine audiovisuelle Präsentation zu erzeugen.
  • Im Beispiel von 1 umfasst (z.B. umgibt) der beispielhafte Präsentationsgenerator 102 eine Vielzahl von Sensoren 118. Im Beispiel von 1 umfasst die Mehrzahl der Sensoren 118 einen Lichtsensor 122, einen Bewegungssensor 124 (z.B. einen Beschleunigungsmesser), ein Gyroskop 126 und ein Mikrofon 128. In einigen Fällen kann die Mehrzahl der Sensoren 118 einen Sensor umfassen, der konfiguriert ist, um Signale zu erkennen, die von einem Bluetooth-Radio mit geringer Energie übertragen werden, z.B. assoziiert mit einem Anhang eines Benutzers. In einigen Beispielen wird die vom beispielhaften Bildgenerator 106 und/oder dem Audiogenerator 112 erzeugte Darstellung durch eine oder mehrere Messungen und/oder Erkennungen beeinflusst, die von einem oder mehreren der Sensoren 118 erzeugt werden. Zum Beispiel kann eine Charakteristik (z.B. der Grad der Opazität) der vom Bildgenerator 106 erzeugten Anzeige von einer Intensität des Umgebungslichts abhängen, die vom Lichtsensor 120 erfasst wird. Zusätzlich oder alternativ werden ein oder mehrere Modi, Betriebsparameter oder Einstellungen durch Messungen und/oder Erkennungen bestimmt, die von einem oder mehreren der Sensoren 118 erzeugt werden. Zum Beispiel kann der Präsentationsgenerator 102 in einen Standby-Modus übergehen, wenn der Bewegungssensor 122 innerhalb einer bestimmten Zeitspanne keine Bewegung erkannt hat.
  • Der beispielhafte Präsentationsgenerator 102 von 1 enthält ein Kamera-Subsystem 128. In einigen Beispielen ist das Kamera-Subsystem 128 am gleichen Gehäuse wie der Präsentationsgenerator 102 montiert oder wird von diesem getragen. In einigen Beispielen ist das Kamera-Subsystem 128 an der Kopfhalterung 104 montiert oder von dieser getragen. Das beispielhafte Kamera-Subsystem 128 umfasst mindestens zwei Kameras 130 und ein Mikrofon 132 zur Erfassung von Bild- bzw. Audiodaten, die repräsentativ für die Umgebung der HUD-Baugruppe 100 sind. In einigen Beispielen werden die von den Kameras 130 und/oder dem Mikrofon 132 erfassten Bild- und/oder Audiodaten in die vom Bildgenerator 106 und/oder dem Audiogenerator 112 erzeugte Präsentation integriert. Zum Beispiel übermittelt das Kamera-Subsystem 128 von 1 Daten an den Bildgenerator 102, der die Bilddaten verarbeiten und ein oder mehrere entsprechende Bilder auf dem Wellenleiter 110 erzeugen kann. In einigen Beispielen werden die von den Kameras 130 und/oder dem Mikrofon 132 aufgenommenen Bild- und/oder Audiodaten im Speicher 135 der beispielhaften HUD-Baugruppe 100 gespeichert. In einigen Beispielen werden die von den Kameras 130 und/oder dem Mikrofon 132 erfassten Bild- und/oder Audiodaten beispielsweise über eine USB-Schnittstelle 134 des Kamera-Subsystems 128 an ein Gerät (z.B. einen Server oder einen externen Speicher) außerhalb der HUD-Baugruppe 100 übertragen.
  • Der beispielhafte Präsentationsgenerator 102 von 1 enthält eine Vielzahl von Schnittstellen 136, die so konfiguriert sind, dass die HUD-Baugruppe 100 mit einem oder mehreren externen Geräten 136 und einem oder mehreren Netzwerken 138 kommunizieren kann. Im Beispiel von 1 umfassen die Schnittstellen 136 Konverter 140 (z.B. einen HDMI-zu-LVDS-RGB-Konverter) zur Konvertierung von Daten von einem Format in ein anderes, eine USB-Schnittstelle 142 und einen Bluetooth®-Audiosender 146. In einigen Beispielen arbeitet der Bluetooth®-Audiosender 146 mit einem oder beiden Mikrofonen 126, 132 der HUD-Baugruppe 100 zusammen, um Spracheingaben des Benutzers zu empfangen und die Spracheingabe an eines oder mehrere der externen Geräte 136 weiterzuleiten. Beispielsweise kann die Spracheingabe über die HUD-Baugruppe 100 mit Hilfe des Bluetooth®-Audiosenders 146 an ein mobiles Computergerät, das der Benutzer trägt, übermittelt werden. Beispiele für externe Geräte 136 sind Tastaturen, Bluetooth®-Klicktasten, intelligente Uhren und mobile Computergeräte.
  • Der beispielhafte Bildgenerator 106, die beispielhaften Lichtmaschinen 108, der beispielhafte Audiogenerator 112, das beispielhafte Kamera-Subsystem 128, die beispielhaften Konverter 140, die beispielhaften USB-Schnittstellen 134, 144 und/oder allgemeiner der beispielhafte Präsentationsgenerator 102 aus 1 werden durch Hardware, Software, Firmware und/oder eine beliebige Kombination aus Hardware, Software und/oder Firmware implementiert. In einigen Beispielen ist mindestens einer der beispielhaften Bildgeneratoren 106, der beispielhaften Lichtmaschinen 108, des Audiogenerators 112, des beispielhaften Kamera-Subsystems 128, der beispielhaften Konverter 140, der beispielhaften USB-Schnittstellen 134, 144 und/oder, allgemeiner, des beispielhaften Präsentationsgenerators 102 aus 1 durch eine Logikschaltung implementiert. Der Begriff „Logikschaltung“ wird hier ausdrücklich definiert als eine physikalische Vorrichtung mit mindestens einer Hardware-Komponente, die (z.B. durch Betrieb gemäß einer vorgegebenen Konfiguration und/oder durch Ausführung gespeicherter maschinenlesbarer Befehle) so konfiguriert ist, dass sie eine oder mehrere Maschinen steuert und/oder Operationen einer oder mehrerer Maschinen ausführt. Beispiele für eine Logikschaltung umfassen einen oder mehrere Prozessoren, einen oder mehrere Koprozessoren, einen oder mehrere Mikroprozessoren, eine oder mehrere Steuerungen, einen oder mehrere digitale Signalprozessoren (DSPs), eine oder mehrere anwendungsspezifische integrierte Schaltungen (ASICs), einen oder mehrere Field Programmable Gate Arrays (FPGAs), einen oder mehrere Mikrocontroller-Einheiten (MCUs), einen oder mehrere Hardware-Beschleuniger, einen oder mehrere Spezial-Computerchips und eine oder mehrere System-on-a-Chip (SoC)-Vorrichtungen. Einige beispielhafte Logikschaltungen, wie ASICs oder FPGAs, sind speziell für die Durchführung von Operationen konfigurierte Hardware. Einige beispielhafte Logikschaltungen sind Hardware, die maschinenlesbare Befehle zur Durchführung von Operationen ausführt. Einige beispielhafte Logikschaltungen umfassen eine Kombination aus speziell konfigurierter Hardware und Hardware, die maschinenlesbare Befehle ausführt.
  • Die hier verwendeten Begriffe „zugreifbares maschinenlesbares Medium“, „nicht flüchtiges maschinenlesbares Medium“ und „maschinenlesbares Speichergerät“ werden ausdrücklich als Speichermedium (z.B. eine Platte eines Festplattenlaufwerks, eine Digital Versatile Disc, eine Compact Disc, ein Flash-Speicher, ein Nur-Lese-Speicher (ROM), ein Speicher mit wahlfreiem Zugriff (RAM) usw.) definiert, auf dem maschinenlesbare Befehle (z.B. Programmcode in Form von z.B. Software und/oder Firmware) gespeichert werden können. Ferner ist, wie hierin verwendet, jeder der Begriffe „zugreifbares maschinenlesbares Medium“, „nicht flüchtiges maschinenlesbares Medium“ und „maschinenlesbares Speichergerät“ ausdrücklich definiert, um die Verbreitung von Signalen auszuschließen. Das heißt, dass, wie in jedem Anspruch dieses Patents verwendet, ein „zugreifbares maschinenlesbares Medium“ nicht so gelesen werden kann, als dass es durch ein sich ausbreitendes Signal implementiert wird. Ferner kann ein „nicht flüchtiges maschinenlesbares Medium“, wie es in jedem Anspruch dieses Patents verwendet wird, nicht so gelesen werden, als dass es durch ein sich ausbreitendes Signal implementiert wird. Ferner kann ein „maschinenlesbaresSpeichergerät“, wie es in einem Anspruch dieses Patents verwendet wird, nicht so gelesen werden, als dass es durch ein sich ausbreitendes Signal implementiert wird.
  • Die hier verwendeten Begriffe „zugreifbares maschinenlesbares Medium“, „nicht flüchtiges maschinenlesbares Medium“ und „maschinenlesbares Speichergerät“ sind ausdrücklich definiert als ein Speichermedium, auf dem maschinenlesbare Befehle für eine beliebige geeignete Zeitdauer gespeichert werden (z.B. dauerhaft, für einen längeren Zeitraum (z.B. während der Ausführung eines mit den maschinenlesbaren Befehlen verbundenen Programms) und/oder für eine kurze Zeitdauer (z.B. während der Zwischenspeicherung der maschinenlesbaren Befehle und/oder während eines Pufferprozesses)).
  • 2A und 2B zeigen ein Beispiel für eine HUD-Baugruppe 200, die die HUD-Baugruppe 100 aus 1 implementieren kann. Die beispielhafte HUD-Baugruppe 200 aus 2A enthält einen Präsentationsgenerator 202 und eine beispielhafte Kopfhalterung 204. Der beispielhafte Präsentationsgenerator 202 aus 2A enthält oder trägt Komponenten, die konfiguriert sind, um beispielsweise eine audiovisuelle Präsentation für den Konsum durch einen Benutzer zu erzeugen, der die beispielhafte HUD-Baugruppe 200 aus 2A trägt. Der Präsentationsgenerator 202 von 2A enthält oder trägt die Komponenten des beispielhaften Präsentationsgenerators 102 von 1.
  • 3 zeigt die beispielhafte HUD-Baugruppe 200 der 2A und 2B, die an einem Kopf 300 eines Benutzers montiert ist.
  • 4 illustriert das Beispiel der Lichtmaschinen 402, die z.B. die Lichtmaschinen 108 aus 1 implementieren. Wie oben beschrieben, erzeugen die Lichtmaschinen 402 Licht, das vom Wellenleiter getragen wird. Die Kameras 402 können konfiguriert werden, um Bilddaten zu erfassen, die für ein Kastenobjekt und die Hände eines Benutzers repräsentativ sind, wenn ein Benutzer, der die HUD-Baugruppe 200 trägt, ein Kastenobjekt betrachtet. Während die beispielhaften Lichtmaschinen 402 von 4 über jedem Okular positioniert sind, können die Lichtmaschinen 402 an jeder geeigneten Stelle, z.B. am Rand der Rahmen (Frames), positioniert werden. 5 zeigt zum Beispiel einen Benutzer, der die HUD-Baugruppe 200 trägt und auf ein Kastenobjekt schaut, mit Kameras 502, die an den Seiten der Kopfhalterung montiert sind und Bilddaten einschließlich des Kastenobjekts und der Hände des Benutzers erfassen.
  • 6 ist ein Blockdiagramm, das eine beispielhafte Logikschaltung darstellt, die z.B. zur Implementierung des beispielhaften Bildgenerators 106, der beispielhaften Lichtmaschinen 108, einer oder mehrerer der beispielhaften Schnittstellen 136 und/oder des beispielhaften Audiogenerators 112 aus 1 verwendet werden kann. Die beispielhafte Logikschaltung von 6 ist eine Verarbeitungsplattform 600, die in der Lage ist, maschinenlesbare Befehle auszuführen, um z.B. Operationen zu implementieren, die mit der HUD-Baugruppe 100 von 1 assoziiert sind.
  • Die beispielhafte Verarbeitungsplattform 600 von 6 enthält einen Prozessor 602, wie z.B. einen oder mehrere Mikroprozessoren, Steuerungen und/oder einen geeigneten Prozessortyp. Die beispielhafte Verarbeitungsplattform 600 von FIG. 600 enthält Speicher (z.B. flüchtigen Speicher, nichtflüchtigen Speicher), auf den der Prozessor 602 (z.B. über eine Speichersteuerung) zugreifen kann. Der beispielhafte Prozessor 602 interagiert mit dem Speicher 604, um z.B. maschinenlesbare Befehle zu erhalten, die im Speicher 604 gespeichert sind. Zusätzlich oder alternativ dazu können maschinenlesbare Befehle auf einem oder mehreren Wechselmedien (z.B. einer Compact Disc, einer Digital Versatile Disc, einem austauschbaren Flash-Speicher usw.) gespeichert werden, die mit der Verarbeitungsplattform 600 gekoppelt werden können, um Zugriff auf die darauf gespeicherten maschinenlesbaren Befehle zu ermöglichen. Insbesondere können die auf dem Speicher 604 gespeicherten maschinenlesbaren Befehle Befehle zur Ausführung einer der unten bei den 11-14 näher beschriebenen Verfahren, wie sie durch eine Vorrichtung ausgeführt werden, enthalten.
  • Die beispielhafte Verarbeitungsplattform 600 von 6 enthält außerdem eine Netzwerkschnittstelle 606, um die Kommunikation mit anderen Maschinen z.B. über ein oder mehrere Netzwerke zu ermöglichen. Die beispielhafte Netzwerkschnittstelle 606 enthält jede geeignete Art von Kommunikationsschnittstelle(n) (z.B. drahtgebundene und/oder drahtlose Schnittstellen), die so konfiguriert ist (sind), dass sie gemäß einem beliebigen geeigneten Protokoll (Protokollen) arbeitet (arbeiten). Die beispielhafte Verarbeitungsplattform 600 von 6 enthält die Ein-/Ausgabeschnittstellen (I/O) 608, um den Empfang von Benutzereingaben und die Kommunikation von Ausgabedaten an den Benutzer zu ermöglichen.
  • 7 ist eine schematische Darstellung eines Bildgebungssystems 700 mit einer HUD-Baugruppe wie HUD-Baugruppe 100 und/oder HUD-Baugruppe 200 gemäß einigen Ausführungsformen. Das Bildgebungssystems 700 in 7 umfasst zwei Kameras 702 und 704, die z.B. an der HUD-Baugruppe 200 montiert sind oder von dieser getragen werden, wie in 5 dargestellt. Die Kameras 702, 704 dienen zur Erfassung von Licht entlang der jeweiligen optischen Pfade/Achsen 708, 710. Im Allgemeinen sind die Kameras so ausgelegt, dass sie zusammenarbeiten, um Licht, das von einem oder mehreren Zielobjekten (z.B. dem Kastenobjekt 712, einem Benutzeranhang 714) gestreut oder reflektiert wird, als Pixeldaten über ein zweidimensionales Bildgebungssichtfeld (FOV) zu erfassen.
  • In einigen Betriebsumgebungen, wie in 8 dargestellt, wird ein Barcode 40 auf einer oder mehreren Seiten eines Kastenobjekts 30 angebracht, und das Bildgebungssystem 700 wird zur Dekodierung des Barcodes 40 verwendet, um das Kastenobjekt zu identifizieren oder andere Informationen des Kastenobjekts zu finden. Gemäß einigen Ausführungsformen kann, wenn die Größe des Barcodes 40 (z.B. seine Breite oder seine Länge) bekannt ist, das Volumen oder die drei Kastendimensionen (d.h. die Länge, die Breite und die Höhe) des Kastenobjekts 30 geschätzt werden, wenn sowohl das Kastenobjekt 30 als auch der Barcode 40 vom Bildgebungssystem 700 in einem Bild erfasst werden. Wenn der Abstand zwischen zwei Punkten auf einer geometrischen Markierung 35 auf dem Kastenobjekt 30 bekannt ist, können im Allgemeinen das Volumen oder die drei Kastendimensionen des Kastenobjekts 30 aus dem Bild des Kastenobjekts 30, wie es vom Bildgebungssystem 50 erfasst wurde, geschätzt werden. Beispiele für die geometrische Markierung 35 umfassen einen eindimensionalen Barcode, einen zweidimensionalen Barcode, ein Logo, ein Versandetikett oder die Kombination von isolierten Punktmarkierungen, die auf die Oberfläche des Kastenobjekts 30 gedruckt sind. Beispielhafte Verfahren und -vorrichtungen zum Dimensionieren eines Kastenobjekts auf diese Weise sind im U.S. Patent Nr. 9,741,134 , eingereicht am 16. Dezember 2013, offenbart, welches hiermit durch Verweis hierin aufgenommen wird.
  • 9A ist ein Beispiel für einen Bildschirm, das von einem Benutzer der HUD-Baugruppe beim Dimensionieren eines Kastenobjekts gesehen werden würde. 9A zeigt insbesondere ein aufgenommenes Bild des Kastenobjekts 30 mit der geometrischen Markierung 35 auf einer Seite des Kastenobjekts 30 gemäß einigen Ausführungsformen. In diesem Beispiel hat die geometrische Markierung 35 die Form eines rechteckigen Körpers, und zwei Eckpunkte der geometrischen Markierung 35 werden als zwei Referenzpunkte „P“ und „Q“ auf einer Oberfläche des Kastenobjekts 30 verwendet, wie in 8 gezeigt. In 9A werden diese beiden Referenzpunkte im aufgenommenen Bild als „P“ und „Q“ bezeichnet. Die Positionen dieser beiden Referenzpunkte im aufgenommenen Bild können mit dem Bildgebungssystem 50 automatisch identifiziert werden, wie im U.S. Patent Nr. 9,741,134 offenbart. In dem abgebildeten Beispiel kann ein Benutzer die Referenzpunkte berühren oder auf sie zeigen, um dem Bildgebungssystem 50 die Position der Referenzpunkte mitzuteilen. Das heißt, das Bildgebungssystem 50 kann das erkennbare (z.B. auf der Grundlage eines Vergleichs mit einem Bild oder einer Form, die bekanntermaßen einem Anhang wie einem Finger entspricht) Bild des Anhangs des Benutzers verwenden, um die Position der Referenzpunkte zu erlernen und/oder zu bestätigen. In einigen Ausführungsformen werden mehr als zwei Referenzpunkte für die Durchführung einer Berechnung (z.B. eines Volumens des Kastenobjekts) oder eines Algorithmus verwendet, und die Position von irgendeinem dieser mehr als zwei Referenzpunkte im erfassten Bild kann automatisch mit dem Bildgebungssystem 50 oder vom Benutzer manuell identifiziert werden.
  • Ähnlich kann das Kastenobjekt im aufgenommenen Bild durch die sechs Ecken v0, v1, v2, v3, v4 und v5 identifiziert werden. Wie unten im Detail beschrieben, nutzen die hierin vorgestellten Beispiele die Fähigkeit des Bildgebungssystems 50, den Anhang eines Benutzers zu erkennen (z.B. auf der Grundlage der Bilderkennung oder einer vom Benutzer getragenen erkennbaren Markierung), um die Positionen dieser sechs Eckpunkte des Kastenobjekts im aufgenommenen Bild anzuzeigen und/oder zu bestätigen. Die bestätigten Positionen der Eckpunkte werden verwendet, um eine oder mehrere Dimensionen des Kastenobjekts zu bestimmen. 9B zeigt ein Beispiel für einen Bildschirm 98, der von einem Benutzer der HUD-Baugruppe gesehen werden würde, wenn die eine oder die mehreren Dimensionen des Kastenobjekts berechnet wurden.
  • Insbesondere zeigt 10A ein aufgenommenes Bild eines Kastenobjekts, 10B zeigt, dass einige Kantenlinien im aufgenommenen Bild bestimmt sind, und 10C zeigt, dass einige Punkte im aufgenommenen Bild (z.B. einige Kreuzungspunkte der Kantenlinien) als Kandidaten-Eckpunkte des Kastenobjekts ausgewählt sind. Normalerweise erzeugen die Algorithmen zur Eckenerkennung mehr Kandidaten-Eckpunkte, als tatsächlich auf dem Kastenobjekt vorhanden sind. In dem abgebildeten Beispiel hat das Kastenobjekt nur acht tatsächliche Eckpunkte. Die hierin vorgestellten Beispiele nutzen die Fähigkeit des Bildgebungssystems 50, einen Anhang des Benutzers zu erkennen, um die Kandidaten-Ecken in den Bilddaten als den tatsächlichen Ecken des Kastenobjekts entsprechend zu identifizieren und/oder zu bestätigen. In einigen der hierin vorgestellten Beispiele wird ein Benutzer angewiesen, auf die tatsächlichen Ecken des Kastenobjekts zu zeigen oder diese zu berühren, um zwischen den tatsächlichen Eckpunkten des Kastenobjekts und falschen Kandidaten-Eckpunkten des Kastenobjekts zu unterscheiden. Die Bestätigung und/oder Angabe der tatsächlichen Ecken des Kastenobjekts durch den Benutzer beschleunigt vorteilhafterweise die Verarbeitungszeit des Dimensionierungssystems, da die Prozessoren nicht mehr die zeitintensive Aufgabe erfüllen müssen, zu bestimmen, welche Kandidaten-Eckpunkte des Kastenobjekts tatsächliche Eckpunkte des Kastenobjekts sind.
  • 11 ist ein Flussdiagramm eines Verfahrens 1100, wie es durch eine Vorrichtung ausgeführt wird, zum Bestimmen der Dimensionen eines Kastenobjekts gemäß einigen Ausführungsformen. Ein Benutzer, der ein HUD trägt, kann sich ein zu dimensionierendes Kastenobjekt ansehen, z.B. wie in 5 dargestellt, wobei das Kastenobjekt effektiv im Sichtfeld des HUDs platziert wird.
  • Bei Block 1102 werden die Bilddaten einschließlich des Kastenobjektes z.B. über eine Kamera mit stereoskopischer Linse, die auf jeder Seite des HUDs des Benutzers angebracht ist, erfasst. In einigen Fällen kann der Benutzer angeben, dass die Dimensionierung beginnen soll, z.B. durch einen Sprachbefehl, eine Gestik, einen Knopfdruck usw., und die Bilddaten einschließlich des Kastenobjektes können als Reaktion auf die Angabe des Benutzers erfasst werden. In einigen Fällen kann der Benutzer das Kastenobjekt wie in 5 dargestellt aufnehmen, während in anderen Fällen (z.B. wenn das Kastenobjekt besonders schwer ist) der Benutzer das Kastenobjekt einfach nur anschauen kann.
  • Bei Block 1104 werden die Bilddaten einschließlich des Kastenobjekts analysiert, um eine Vielzahl von Kandidaten-Eckpunkten des Kastenobjekts in den Bilddaten zu identifizieren, die in Bezug auf 12 näher erläutert werden. In dem illustrierten Beispiel werden die Koordinaten der Kandidaten-Eckpunkte im Speicher abgelegt und als den Kandidaten-Eckpunkten entsprechend bezeichnet.
  • Der Benutzer kann auf eine Ecke des Kastenobjekts zeigen oder diese berühren, und zwar innerhalb des Sichtfelds einer oder beider der Kameras mit stereoskopischer Linse, die auf jeder Seite des HUDs angebracht sind. Bei Block 1106 wird die Position eines Anhangs des Benutzers (z.B. eines Fingers) in Bezug auf die möglichen Eckpunkte des Kastenobjekts bestimmt, z.B. durch einen oder mehrere Prozessoren, die in Bezug auf 13 näher erläutert werden.
  • Bei Block 1108 werden die tatsächlichen Eckpunkte des Kastenobjekts von einem oder mehreren Prozessoren auf der Grundlage der Nähe des Benutzeranhangs zu den Kandidaten-Eckpunkten des Kastenobjekts bestimmt und/oder bestätigt. Das heißt, ein Kandidaten-Eckpunkt in der Nähe des Benutzeranhangs (z.B. innerhalb eines Schwellenabstands oder des kürzesten Abstands unter der Vielzahl von Kandidaten-Eckpunkten) ist wahrscheinlich ein tatsächlicher Eckpunkt, den der Benutzer berührt und/oder auf den er zeigt.
  • Bei Block 1110 werden die Bilddaten analysiert, um eine Referenzmarkierung des Kastenobjekts zu identifizieren. Insbesondere hat die Referenzmarkierung bekannte Dimensionen. Die Referenzmarkierung ist z.B. ein Versandetikett in Standardgröße auf dem Kastenobjekt. In einigen Fällen wird ein mit der Referenzmarkierung assoziierter Barcode z.B. von einem oder mehreren Prozessoren analysiert und kann die Dimensionen der Referenzmarkierung angeben.
  • Bei Block 1112 werden die Abmessungen und/oder das Volumen des Kastenobjekts auf der Grundlage der bekannten Dimensionen der Referenzmarkierung und der bestimmten und/oder bestätigten tatsächlichen Eckpunkte des Kastenobjekts berechnet. Beispielhafte Verfahren und Vorrichtungen zur Bestimmung der Dimensionen und/oder des Volumens des Kastenobjekts unter Verwendung der Kenntnis der Ecken und der Referenzmarkierung sind im U.S. Patent Nr. 9,741,134 offenbart, welches hiermit durch Verweis in seiner Gesamtheit hierin aufgenommen wird.
  • 12 ist ein Flussdiagramm eines Verfahrens 1200, wie es durch eine Vorrichtung ausgeführt wird, zum Analysieren von Bilddaten, um eine Vielzahl von Kandidaten-Eckpunkten eines Kastenobjekts zu identifizieren, das sich auf Block 1104 von 11 erstreckt. Im Block 1202 können die Bilddaten einschließlich des Kastenobjekts z.B. von einem oder mehreren Prozessoren analysiert werden. Die Analyse umfasst z.B. Glättung wie Gaußscher Unschärfe (Gaussian Blur), Erkennung wie Canny-Algorithmus, Hough-Transformations-Algorithmus mit Konturerkennung, Convex-Hull-Algorithmus usw. Beispielhafte Verfahren und Vorrichtungen zur Verwendung von Bildverarbeitungsalgorithmen sind im U.S. Patent Nr. 9,741,134 offenbart, welches hiermit durch Verweis hierin aufgenommen wird. Bei Block 1204 werden Bilddaten, die auf Kastenobjektkanten hinweisen, z.B. durch einen oder mehrere Prozessoren auf der Grundlage der Analyse von Block 1202 identifiziert.
  • Bei Block 1206 werden die Kastenobjektkanten extrapoliert, um mögliche Schnittpunkte jeder Kastenobj ektkante mit jeder anderen Kastenobj ektkante zu bestimmen, z.B. wie in 10C gezeigt. Bei Block 1208 werden mögliche Kastenobjektecken auf der Grundlage möglicher Schnittpunkte der extrapolierten Kastenobjektkanten identifiziert. Wie in 10C gezeigt, wird es viele vom System identifizierte Kandidaten-Kastenobjektecken geben, aber nur acht tatsächliche Kastenobjektecken auf dem Kastenobjekt.
  • 13 ist ein Flussdiagramm eines Verfahrens 1300, wie es durch eine Vorrichtung ausgeführt wird, zur Erkennung der Position eines Benutzeranhangs (z.B. eines Fingers) in Bezug auf Kandidaten-Ecken des Kastenobjekts, das auf Block 1106 von 11 erweitert wird.
  • Bei Block 1302 kann ein Benutzer angewiesen werden, einen Anhang (z.B. einen Finger) an einer ersten Ecke des Kastenobjekts zu platzieren. Zum Beispiel kann der Audiogenerator 112 des Präsentationsgenerators 102 Audioanweisungen geben, z.B. „Bitte berühren Sie die rechte obere Ecke“ oder „Bitte auf die erste Ecke zeigen“. Zusätzlich oder alternativ kann der Bildgenerator 106 des Präsentationsgenerators 102 ähnliche visuelle und/oder textliche Befehle bereitstellen.
  • Bei Block 1304 werden die Bilddaten des Kastenobjekts und des Umgebungsbereichs z.B. von einem oder mehreren Prozessoren analysiert. Basierend auf der Analyse werden Bilddaten, die auf ein Benutzeranhang hinweisen, bei (Block 1306) identifiziert. In einigen Fällen kann die Analyse die Identifizierung eines bloßen Anhangs beinhalten, z.B. auf der Grundlage von Farbe, Form usw. In einigen Fällen kann der Benutzer einen unverwechselbaren (z.B. für das System auf der Grundlage eines bekannten Bildes erkennbaren) Handschuh tragen, und die Bilddaten, die auf den Anhang des Benutzers hinweisen, sind Bilddaten, die auf den Handschuh hinweisen. Der Handschuh kann z.B. eine bestimmte Farbe haben, die für eine schnelle kontrastbasierte Identifizierung konfiguriert ist, oder der Handschuh kann eine bestimmte Markierung oder Form aufweisen, von der das System weiß, dass sie sich auf einer Fingerspitze des Handschuhs befindet. In einigen Fällen kann der Handschuh ein Licht und/oder einen anderen visuell identifizierbaren Indikator enthalten, der durch Analysieren der Bilddaten identifiziert werden kann.
  • Bei Block 1308 wird ein Bewegungsstopp des Benutzeranhangs festgestellt. Wenn der Benutzeranhang beispielsweise in den Bilddaten identifiziert wurde und sich für eine Schwellenzeitspanne (z.B. fünf Sekunden) nicht mehr bewegt hat, zeigt dies an, dass der Benutzer gerade die erste Ecke des Kastenobjekts berührt oder auf sie zeigt. Zusätzlich oder alternativ dazu kann der Benutzer in einigen Beispielen, in denen der Benutzer einen Handschuh trägt, einen Knopf drücken oder anderweitig eine ultrakleine Bluetooth-Schaltung mit niedriger Energie (BLE), die per Funk geschaltet ist, oder eine elektronische Schaltung, die in den Finger des Handschuhs gedruckt ist, aktivieren, um anzuzeigen, dass der Benutzer gerade die erste Ecke des Kastenobjekts berührt oder auf sie zeigt. Das heißt, das BLE-Funkgerät kann ein Signal übertragen, das von einem Sensor 118 des Präsentationsgenerators 102 des HUD 200 erfasst wird.
  • Bei Block 1310 wird, nachdem der Benutzer angegeben hat (z.B. durch Anhalten, Drücken einer Taste usw.), dass er oder sie auf den ersten Eckpunkt des Kastenobjekts zeigt oder diesen berührt, der Abstand zwischen dem Benutzeranhang und jedem der Kandidaten-Eckpunkte des Kastenobjekts bestimmt, z.B. durch einen oder mehrere Prozessoren. Das heißt, der/die Prozessor(en) analysieren die Bilddaten, um die relativen Positionen jedes der identifizierten Kandidaten-Eckpunkte und des Benutzeranhangs zu bestimmen und den Abstand zwischen dem Benutzeranhang und jedem Kandidaten-Eckpunkt zu bestimmen.
  • Bei Block 1312 wird der Kandidaten-Eckpunkt, der den kürzesten Abstand zum angehaltenen Benutzeranhang hat, z.B. von einem oder mehreren Prozessoren, als eine tatsächliche Ecke des Kastenobjekts identifiziert. Das heißt, dass der Eckpunkt mit dem kürzesten Abstand zum angehaltenen Benutzeranhang wahrscheinlich der Eckpunkt ist, den der Benutzer berührt oder auf den er zeigt.
  • Bei Block 1314 kann der Benutzer, sobald der erste tatsächliche Eckpunkt identifiziert ist, angewiesen werden, den Anhang an einer zweiten Ecke des Kastenobjekts zu platzieren, und der zweite Eckpunkt des Kastenobjekts kann auf ähnliche Weise identifiziert werden, wenn Verfahren 1300 wiederholt. Dieses Verfahren kann so lange wiederholt werden, bis alle Eckpunkte des Kastenobjekts identifiziert sind oder bis eine für die Dimensionierung ausreichende Anzahl von Eckpunkten des Kastenobjekts identifiziert ist.
  • Wie oben beschrieben, werden mit den Koordinaten der tatsächlichen Ecken und der bekannten Größe der Referenzpunkte (z.B. die Größe eines in den Bilddaten erkannten Versandetiketts) die Dimensionen des Kastenobjekts (z.B. die Längen der Kanten) z.B. mit den im U.S. Patent Nr. 9,741,134 offenbarten Verfahren und Vorrichtungen bestimmt.
  • Die Nutzen, Vorteile, Lösungen für Probleme und alle Elemente, die zum Auftreten oder einer Verstärkung eines Nutzens, eines Vorteils, oder einer Lösung führen können, sind nicht als kritische, erforderliche oder wesentliche Merkmale oder Elemente in einigen oder sämtlichen Ansprüchen zu verstehen.
  • Darüber hinaus können in diesem Dokument relationale Begriffe wie erster und zweiter, oberer und unterer und dergleichen lediglich verwendet sein, um eine Entität oder Aktion von einer anderen Entität oder Aktion zu unterscheiden, ohne notwendigerweise eine tatsächliche derartige Beziehung oder Reihenfolge zwischen solchen Entitäten oder Aktionen zu erfordern oder zu implizieren. Die Ausdrücke „umfasst“, „umfassend“, „hat“, „haben“, „aufweist“, „aufweisend“, „enthält“, „enthaltend“ oder jede andere Variation davon sollen eine nicht-ausschließliche Einbeziehung abdecken, derart, dass ein Prozess, Verfahren, Produkt oder Vorrichtung, das eine Liste von Elementen umfasst, hat, aufweist, enthält, nicht nur diese Elemente aufweist, sondern auch andere Elemente aufweisen kann, die nicht ausdrücklich aufgelistet sind oder einem solchen Prozess, Verfahren, Produkt oder Vorrichtung inhärent sind. Ein Element, dem „umfasst ... ein“, „hat ... ein“, „aufweist ... ein“ oder „enthält ...ein“ vorausgeht, schließt ohne weitere Einschränkungen die Existenz zusätzlicher identischer Elemente in dem Prozess, dem Verfahren, dem Produkt oder der Vorrichtung, die das Element umfasst, hat, aufweist oder enthält, nicht aus. Die Begriffe „ein“ und „eine“ sind als eine oder mehrere definiert, sofern es hierin nicht ausdrücklich anders angegeben wird. Die Begriffe „im Wesentlichen“, „im Allgemeinen“, „ungefähr“, „etwa“ oder jede andere Version davon sind so definiert, dass sie von einem Fachmann auf diesem Gebiet nahekommend verstanden werden, und in einer nicht-einschränkenden Ausführungsform ist der Ausdruck definiert als innerhalb von 10%, in einer weiteren Ausführungsform als innerhalb von 5%, in einer weiteren Ausführungsform als innerhalb von 1% und in einer weiteren Ausführungsform als innerhalb von 0,5%. Der Ausdruck „gekoppelt“, wie er hierin verwendet wird, ist als verbunden definiert, jedoch nicht notwendigerweise direkt und nicht notwendigerweise mechanisch. Eine Vorrichtung oder eine Struktur, die auf eine bestimmte Art „ausgeführt“ ist, ist zumindest auch so ausgeführt, kann aber auch auf Arten ausgeführt sein, die nicht aufgeführt sind.
  • Es versteht sich, dass einige Ausführungsformen von einem oder mehreren generischen oder spezialisierten Prozessoren (oder „Verarbeitungsvorrichtungen“) wie Mikroprozessoren, digitale Signalprozessoren, kundenspezifische Prozessoren und Field-Programmable-Gate-Arrays (FPGAs) und einmalig gespeicherten Programmanweisungen (einschließlich sowohl Software als auch Firmware) umfasst sein können, die den einen oder die mehreren Prozessoren steuern, um in Verbindung mit bestimmten Nicht-Prozessorschaltungen einige, die meisten oder alle der hierin beschriebenen Funktionen des Verfahrens und/oder der Vorrichtung zu implementieren. Alternativ können einige oder alle Funktionen durch eine Zustandsmaschine implementiert sein, die keine gespeicherten Programmanweisungen aufweist, oder in einer oder mehreren anwendungsspezifischen integrierten Schaltungen (ASICs), in denen jede Funktion oder einige Kombinationen von bestimmten Funktionen als benutzerdefinierte Logik implementiert sind. Natürlich kann eine Kombination der beiden Ansätze verwendet werden.
  • Darüber hinaus kann eine Ausführungsform als ein computerlesbares Speichermedium implementiert sein, auf dem computerlesbarer Code gespeichert ist, um einen Computer (der zum Beispiel einen Prozessor umfasst) zu programmieren, um ein Verfahren auszuführen, wie es hierin beschrieben und beansprucht ist. Beispiele solcher computerlesbaren Speichermedien weisen eine Festplatte, eine CD-ROM, eine optische Speichervorrichtung, eine magnetische Speichervorrichtung, einen ROM (Nur-Lese-Speicher), einen PROM (programmierbarer Nur-Lese-Speicher), einen EPROM (löschbarer programmierbarer Nur-Lese-Speicher), einen EEPROM (elektrisch löschbarer programmierbarer Nur-Lese-Speicher) und einen Flash-Speicher auf, sind aber nicht hierauf beschränkt. Ferner wird davon ausgegangen, dass ein Durchschnittsfachmann, ungeachtet möglicher signifikanter Anstrengungen und vieler Designwahlen, die zum Beispiel durch verfügbare Zeit, aktuelle Technologie und wirtschaftliche Überlegungen motiviert sind, ohne Weiteres in der Lage ist, solche Softwareanweisungen und -programme und ICs mit minimalem Experimentieren zu generieren, wenn er durch die hierin offenbarten Konzepte und Prinzipien angeleitet wird.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 9741134 [0024, 0025, 0034, 0035, 0044]

Claims (9)

  1. System, aufweisend: eine Heads-Up-Display-Baugruppe, die einen Präsentationsgenerator und eine Kopfhalterung umfasst, wobei die Heads-Up-Display-Baugruppe konfiguriert ist, um von einem Benutzer getragen zu werden; eine Vielzahl von Kameras, die an der Heads-Up-Display-Baugruppe montiert sind, wobei die Kameras konfiguriert sind, um Bilddaten zu erfassen, die einem Objekt und einem Anhang des Benutzers zugeordnet sind; einen Speicher, der konfiguriert ist, um ausführbare Computerbefehle zu speichern; und einen Prozessor, der konfiguriert ist, um eine Schnittstelle mit dem Präsentationsgenerator, der Vielzahl von Kameras und dem Speicher zu bilden, und der konfiguriert ist, um die ausführbaren Computerbefehle auszuführen, um den Prozessor zu veranlassen zum: Analysieren der Bilddaten, die dem Objekt zugeordnet sind, um eine Vielzahl von Kandidaten-Ecken des Objekts zu identifizieren; Erkennen einer Nähe eines Anhangs des Benutzers zu jeder der Kandidaten-Ecken des Objekts; Bestimmen, ob die erste der Kandidaten-Ecken eine tatsächliche Ecke des Objekts ist, basierend auf der Nähe des Anhangs zu der ersten der Kandidaten-Ecken, Berechnen einer Dimension des Objekts basierend auf der ersten der Kandidaten-Ecken, wenn die erste der Kandidaten-Ecken eine aktuelle Ecke des Objekts ist; wobei die computerausführbaren Anweisungen den Prozessor veranlassen, die Nähe des Anhangs zur ersten der Kandidaten-Ecken zu erkennen durch: Erkennen, dass der Anhang sich für eine bestimmte Schwellenzeitspanne nicht mehr bewegt hat; und als Reaktion auf das Erkennen, dass der Anhang sich für eine bestimmte Schwellenzeitspanne nicht mehr bewegt hat, Bestimmen eines Abstands zwischen dem sich nicht mehr bewegenden Anhang des Benutzers und der ersten der Kandidaten-Ecken.
  2. System nach Anspruch 1, wobei die computerausführbaren Anweisungen den Prozessor veranlassen, bei der Ausführung die Kandidaten-Ecken zu identifizieren durch: Identifizieren von Daten, die auf eine oder mehrere Kanten des Kastenobjekts hinweisen; Extrapolieren der einen oder mehreren Kanten des Objekts; und Identifizieren der Kandidaten-Ecken des Objekts basierend auf Schnittpunkten der extrapolierten Kanten.
  3. System nach Anspruch 1, wobei die computerausführbaren Anweisungen den Prozessor veranlassen zum: Anweisen des Benutzers, den Anhang an einer ersten Ecke des Objekts zu platzieren, bevor der Abstand zwischen dem sich nicht mehr bewegenden Anhang und der ersten der Kandidaten-Ecken bestimmt wird.
  4. System nach Anspruch 3, wobei die vom Computer ausführbaren Anweisungen den Prozessor veranlassen zum: Anweisen des Benutzers, den Anhang an einer zweiten Ecke des Objekts zu platzieren, nach dem Bestimmen, dass die erste der Kandidaten-Ecken eine tatsächliche Ecke des Objekts ist.
  5. System nach Anspruch 1, ferner umfassend einen Sensor, wobei die computerausführbaren Anweisungen den Prozessor veranlassen, über den Sensor ein Signal zu erkennen, das von einem vom Benutzer getragenen Sender emittiert wird, wobei das Signal als Reaktion auf eine taktile Handlung des Benutzers erzeugt wird.
  6. System nach Anspruch 5, wobei die computerausführbaren Anweisungen den Prozessor veranlassen, die Nähe des Anhangs zur ersten der Kandidaten-Ecken des Objekts zu erkennen, als Reaktion auf das vom Sender emittierte Signal.
  7. System nach Anspruch 5, wobei die computerausführbaren Anweisungen den Prozessor veranlassen, die Dimension des Objekts zu berechnen, indem eine Länge einer Kante des Objekts bestimmt wird.
  8. System nach Anspruch 7, wobei: die computerausführbaren Befehle den Prozessor veranlassen, die Bilddaten zu analysieren, um eine dem Objekt zugeordnete Referenzmarkierung zu identifizieren, wobei die Referenzmarkierung eine bekannte Dimension hat; und die computerausführbaren Anweisungen den Prozessor veranlassen, die Dimension des Objekts basierend auf der bekannten Dimension der Referenzmarkierung und der bestimmten Kantenlänge zu berechnen.
  9. System nach Anspruch 1, wobei die computerausführbaren Anweisungen den Prozessor veranlassen, die Dimension des Objekts zu berechnen durch: Bestimmen einer Länge einer Kante des Objekts; und Bestimmen eines Objektvolumens anhand der Länge der Kante des Objekts.
DE202018006634.6U 2017-11-07 2018-10-18 Vorrichtung zum schnellen Dimensionieren eines Objekts Active DE202018006634U1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/806,203 2017-11-07
US15/806,203 US10621746B2 (en) 2017-11-07 2017-11-07 Methods and apparatus for rapidly dimensioning an object

Publications (1)

Publication Number Publication Date
DE202018006634U1 true DE202018006634U1 (de) 2021-09-24

Family

ID=65408834

Family Applications (2)

Application Number Title Priority Date Filing Date
DE112018005311.3T Ceased DE112018005311T5 (de) 2017-11-07 2018-10-18 Verfahren und Vorrichtung zum schnellen Dimensionieren eines Objekts
DE202018006634.6U Active DE202018006634U1 (de) 2017-11-07 2018-10-18 Vorrichtung zum schnellen Dimensionieren eines Objekts

Family Applications Before (1)

Application Number Title Priority Date Filing Date
DE112018005311.3T Ceased DE112018005311T5 (de) 2017-11-07 2018-10-18 Verfahren und Vorrichtung zum schnellen Dimensionieren eines Objekts

Country Status (6)

Country Link
US (1) US10621746B2 (de)
CN (1) CN111316320B (de)
BE (1) BE1025916B1 (de)
DE (2) DE112018005311T5 (de)
GB (1) GB2581094B (de)
WO (1) WO2019094164A1 (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10885653B2 (en) * 2018-01-12 2021-01-05 United Parcel Service Of America, Inc. Systems and methods for mobile parcel dimension calculation and predictive condition analysis

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9741134B2 (en) 2013-12-16 2017-08-22 Symbol Technologies, Llc Method and apparatus for dimensioning box object

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3798317B1 (de) 2007-04-04 2024-01-03 The Regents of the University of California Zusammensetzungen, vorrichtungen, systeme und verfahren zur verwendung einer nanopore
US20140104413A1 (en) 2012-10-16 2014-04-17 Hand Held Products, Inc. Integrated dimensioning and weighing system
US10133342B2 (en) * 2013-02-14 2018-11-20 Qualcomm Incorporated Human-body-gesture-based region and volume selection for HMD
US9102055B1 (en) * 2013-03-15 2015-08-11 Industrial Perception, Inc. Detection and reconstruction of an environment to facilitate robotic interaction with the environment
US9747696B2 (en) * 2013-05-17 2017-08-29 Leap Motion, Inc. Systems and methods for providing normalized parameters of motions of objects in three-dimensional space
CN105593786B (zh) * 2013-11-07 2019-08-30 英特尔公司 对象位置确定
US20160147408A1 (en) * 2014-11-25 2016-05-26 Johnathan Bevis Virtual measurement tool for a wearable visualization device
US20170017301A1 (en) * 2015-07-16 2017-01-19 Hand Held Products, Inc. Adjusting dimensioning results using augmented reality
US9799111B2 (en) 2016-02-11 2017-10-24 Symbol Technologies, Llc Methods and systems for highlighting box surfaces and edges in mobile box dimensioning
US10089750B2 (en) * 2017-02-02 2018-10-02 Intel Corporation Method and system of automatic object dimension measurement by using image processing

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9741134B2 (en) 2013-12-16 2017-08-22 Symbol Technologies, Llc Method and apparatus for dimensioning box object

Also Published As

Publication number Publication date
BE1025916B1 (nl) 2020-02-07
CN111316320B (zh) 2021-06-15
BE1025916A1 (nl) 2019-08-07
US20190139250A1 (en) 2019-05-09
US10621746B2 (en) 2020-04-14
GB202006159D0 (en) 2020-06-10
GB2581094B (en) 2021-02-17
GB2581094A (en) 2020-08-05
CN111316320A (zh) 2020-06-19
WO2019094164A1 (en) 2019-05-16
DE112018005311T5 (de) 2020-06-18

Similar Documents

Publication Publication Date Title
DE102014212304B4 (de) Informationsverarbeitungsvorrichtung, Informationsverarbeitungsverfahren und Speichermedium
CN111833340B (zh) 图像检测方法、装置、电子设备及存储介质
DE102018125629A1 (de) DEEP-Learning-basierte Echtzeit-Detektion und -Korrektur von kompromittierten Sensoren in autonomen Maschinen
DE202014011595U1 (de) Mobile Vorrichtung mit verbesserter Benutzerschnittstelle zum Lesen von Codesymbolen
DE112015002368T5 (de) Zielmusterform als abstandssensor für barcodescanner
DE202013012942U1 (de) Zum Lesen mehrerer decodierbarer Zeichen konfigurierter, mobiler Computer
DE202014104297U1 (de) Kraftfahrzeug- und Industriebewegungssensorvorrichtung
EP2269130A1 (de) Darstellung von ergebnissen einer vermessung von werkstücken in abhängigkeit der erfassung der geste eines nutzers
DE102011056660A1 (de) Markierungsleser, der zum Priorisieren von Bildern eingerichtet ist
DE112021003033T5 (de) Strichcodeleser mit 3d-kamera(s)
DE112016006066T5 (de) Analyse von umgebungslicht zur blickverfolgung
DE102018121039A1 (de) Informationsverarbeitungsvorrichtung, verfahren zur steuerung von informationsverarbeitungsvorrichtung und speichermedium
DE102020117985B4 (de) Ein alternatives verfahren zur interaktion mit einer benutzerschnittstelle unter verwendung von standard-barcodescannern gepaart mit einem augmented reality heads -up-display
DE102016109891A1 (de) Datenbrowsevorrichtung, Datenbrowseverfahren, Programm und Speichermedium
DE102020124613A1 (de) Verbesserte auswahl eines objekts von interesse für neuronale netzwerksysteme an verkaufspunken
US10692230B2 (en) Document imaging using depth sensing camera
DE112018005351T5 (de) Verfahren und vorrichtung zum dimensionieren eines objekts unter verwendungvon nahbereichs-vorrichtungen
DE202018006634U1 (de) Vorrichtung zum schnellen Dimensionieren eines Objekts
EP3543901B1 (de) Vorrichtung und verfahren zur robusten ermittlung der position, ausrichtung, identität und ausgewählter zustandsinformationen von objekten
DE102020119430A1 (de) Verkaufspunkt-Scanner mit Signalisierung an eine Kamera
DE112018006919T5 (de) Systeme und verfahren für einen aufgabenbasierten einstellbaren fokusabstand für heads-up-displays
DE112017008146T5 (de) Verfahren und vorrichtung zum detektieren und zum erkennen von graphischen zeichendarstellungen in bilddaten unter verwendung symmetrisch angeordneter leerer flächen
CN106897665B (zh) 应用于智能机器人的物体识别方法及系统
DE102016105824A1 (de) Dateneingabe über mehrere Schreibvorrichtungen
EP1983406A1 (de) Verfahren und Vorrichtung zur Eingabe von Daten in eine Datenverarbeitungsanlage

Legal Events

Date Code Title Description
R150 Utility model maintained after payment of first maintenance fee after three years
R207 Utility model specification
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06K0009460000

Ipc: G06V0030180000