DE112020001758T5 - Vorrichtung und verfahren zur datenerfassungsausrichtungsunterstützung - Google Patents

Vorrichtung und verfahren zur datenerfassungsausrichtungsunterstützung Download PDF

Info

Publication number
DE112020001758T5
DE112020001758T5 DE112020001758.3T DE112020001758T DE112020001758T5 DE 112020001758 T5 DE112020001758 T5 DE 112020001758T5 DE 112020001758 T DE112020001758 T DE 112020001758T DE 112020001758 T5 DE112020001758 T5 DE 112020001758T5
Authority
DE
Germany
Prior art keywords
data
offset
image sensor
primary
data acquisition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112020001758.3T
Other languages
English (en)
Inventor
Adrian J. Stagg
Gregory John Evans
Steven William Maddigan
John Louis Ingold
Michael Wong
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zebra Technologies Corp
Original Assignee
Zebra Technologies Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zebra Technologies Corp filed Critical Zebra Technologies Corp
Publication of DE112020001758T5 publication Critical patent/DE112020001758T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/10544Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum
    • G06K7/10712Fixed beam scanning
    • G06K7/10722Photodetector array or CCD scanning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/14Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation using light without selection of wavelength, e.g. sensing reflected white light
    • G06K7/1404Methods for optical code recognition
    • G06K7/1408Methods for optical code recognition the method being specifically adapted for the type of code
    • G06K7/14131D bar codes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K2207/00Other aspects
    • G06K2207/1011Aiming

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Toxicology (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)

Abstract

Eine Datenerfassungsvorrichtung umfasst: eine Anzeige, einen Primärbildsensor mit einem Primärsichtfeld, das auf einer optischen Primärachse zentriert ist; einen Hilfsbildsensor mit einem Hilfssichtfeld, das auf einer optischen Hilfsachse zentriert ist, wobei das Hilfssichtfeld größer ist als das Primärsichtfeld; einen Speicher, der Offsetdaten speichert, die einen Offset zwischen dem Primärsichtfeld und dem Hilfssichtfeld definieren; eine Datenerfassungssteuerung, die mit dem Primärbildsensor, dem Hilfsbildsensor und dem Speicher verbunden ist; wobei die Datenerfassungssteuerung konfiguriert ist zum: als Reaktion auf die Aktivierung eines Ausrichtmodus, Steuern des Hilfsbildsensors, um einen Videostream zu erfassen; Auswählen, gemäß den Offsetdaten, eines Teils des Videostreams, der dem Primärsichtfeld entspricht; und Darstellen des ausgewählten Teils des Videostreams auf der Anzeige.

Description

  • HINTERGRUND
  • Datenerfassungsvorrichtungen, wie beispielsweise tragbare Computer können für Datenerfassungsvorgänge (z. B. Barcodescannen) unter einer Vielzahl von Bedingungen verwendet werden. Derartige Vorrichtungen können beispielsweise eingesetzt werden, um Barcodescannen in verschiedenen Reichweiten, unter verschiedenen Beleuchtungsbedingungen und in Verbindung mit einer Vielzahl von Objekten, welche die zu scannenden Codes tragen, auszuführen. Derartige Vorrichtungen können Mechanismen aufweisen, um einen Bediener beim Ausrichten der Vorrichtung wie einem Laserstrahler und Projizieren eines Punkts auf die zu scannende Oberfläche zu unterstützen. Solche Mechanismen können jedoch unter bestimmten Bedingungen versagen (z. B. kann der vorstehend erwähnte Laserpunkt über bestimmte Entfernungen hinaus oder unter bestimmten Beleuchtungsbedingungen nicht sichtbar sein), was zu einer reduzierten Scangenauigkeit führt.
  • Figurenliste
  • Die beigefügten Figuren, in denen sich gleiche Bezugszeichen auf gleiche oder funktionell ähnliche Elemente überall in den einzelnen Ansichten beziehen, zusammen mit der nachstehenden detaillierten Beschreibung sind in die Beschreibung integriert und bilden einen Teil der Beschreibung und dienen dazu, Ausführungsformen von Konzepten weiter zu veranschaulichen, welche die beanspruchte Erfindung umfassen, und verschiedene Prinzipien und Vorteile dieser Ausführungsformen zu erläutern.
    • 1A ist eine Vorderansicht einer Datenerfassungsvorrichtung.
    • 1B ist eine perspektivische Rückansicht der Datenerfassungsvorrichtung von 1A.
    • 2 ist ein Blockdiagramm von bestimmten internen Komponenten der Datenerfassungsvorrichtung der 1A und 1B.
    • 3 zeigt ein Ablaufdiagramm eines Verfahrens zur Datenerfassungsausrichtungsunterstützung.
    • 4A ist ein Diagramm, das entsprechende Sichtfelder von Primär-und Hilfsbildsensoren der Datenerfassungsvorrichtung der 1A und 1B veranschaulicht.
    • 4B ist ein Diagramm, das Offsetdaten veranschaulicht, die durch die Datenerfassungsvorrichtung der 1A und 1B gepflegt werden.
    • 5 ist ein Diagramm, das Teilmengen von Offsetdaten veranschaulicht, die von der Datenerfassungsvorrichtung der 1A und 1B gepflegt werden und verschiedenen Bildbereichen entsprechen.
    • 6A ist ein Diagramm, das Objekte veranschaulicht, die Zeichen zur Datenerfassung über die Ausführung des Verfahrens von 3 dargestellt.
    • 6B ist ein Diagramm, das eine Ausführung von Block 320 des Verfahrens von 3 veranschaulicht.
    • 7A ist ein Diagramm, das Objekte veranschaulicht, die Zeichen zur Datenerfassung mittels Ausführung des Verfahrens von 3 tragen, nach der Anpassung einer Ausrichtposition der Datenerfassungsvorrichtung.
    • 7B ist ein Diagramm, das eine weitere Ausführung von Block 320 des Verfahrens von 3 veranschaulicht.
    • 8 ist ein Diagramm, das die Detektion eines projizierten Punkts bei Block 335 des Verfahrens von 3 veranschaulicht.
    • 9A ist ein Diagramm, das einen Satz von Zeichenorten und Decodierzeiten veranschaulicht, die aus unterschiedlichen Ausführungen von Block 330 des Verfahrens von 3 resultieren.
    • 9B ist ein Diagramm, das die Aktualisierung von Offsetdaten bei Block 345 des Verfahrens von 3 basierend auf den in 9A gezeigten Daten veranschaulicht.
  • Ein Fachmann wird verstehen, dass die Elemente in den Figuren der Einfachheit und Klarheit halber veranschaulicht sind und nicht unbedingt maßstabsgetreu gezeichnet wurden. Beispielsweise können die Abmessungen einiger der Elemente in den Figuren bezogen auf andere Elemente übertrieben groß dargestellt sein, um dabei zu unterstützen, das Verständnis der erfindungsgemäßen Ausführungsformen zu verbessern.
  • Die Vorrichtungs- und Verfahrenskomponenten wurden gegebenenfalls gegebenenfalls durch konventionelle Symbole in den Zeichnungen dargestellt, die nur die spezifischen Details zeigen, die für das Verständnis der Ausführungsformen der vorliegenden Erfindung relevant sind, um die Offenbarung nicht durch Details zu verdecken, die für den Durchschnittsfachmann, der den Vorteil der vorliegenden Beschreibung hat, leicht erkennbar sind.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Hierin offenbarte Beispiele sind an eine Datenerfassungsvorrichtung gerichtet, die umfasst: ein Gehäuse; eine Anzeige, die von dem Gehäuse getragen wird; einen Primärbildsensor, der von dem Gehäuse getragen wird und ein Primärsichtfeld aufweist, das auf einer optischen Primärachse zentriert ist; einen Hilfsbildsensor, der von dem Gehäuse getragen wird und ein Hilfssichtfeld aufweist, das auf einer optischen Hilfsachse zentriert ist, wobei das Hilfssichtfeld größer ist als das Primärsichtfeld; einen Speicher, der Offsetdaten speichert, die einen Offset zwischen dem Primärsichtfeld und dem Hilfssichtfeld definieren; eine Datenerfassungssteuerung, die mit dem Primärbildsensor, dem Hilfsbildsensor und dem Speicher verbunden ist; wobei die Datenerfassungssteuerung konfiguriert ist zum: als Reaktion auf die Aktivierung eines Ausrichtmodus, Steuern des Hilfsbildsensors, um einen Videostream zu erfassen; Auswählen, gemäß den Offsetdaten, eines Teils des Videostreams, der dem Primärsichtfeld entspricht; und Darstellen des ausgewählten Teils des Videostreams auf der Anzeige.
  • Weitere hierin offenbarte Beispiele sind an ein Verfahren in einer Datenerfassungsvorrichtung mit (i) einer Anzeige, (ii) einem Primärbildsensor mit einem Primärsichtfeld, das auf einer optischen Primärachse zentriert ist, und (iii) einem Hilfsbildsensor mit einem Hilfssichtfeld, das auf einer optischen Hilfsachse zentriert ist, gerichtet, wobei das Hilfssichtfeld größer ist als das Primärsichtfeld, wobei das Verfahren umfasst: Speichern von Offsetdaten in einem Speicher der Datenerfassungsvorrichtung, die einen Offset zwischen dem Primärsichtfeld und dem Hilfssichtfeld definieren; in einer Datenerfassungssteuerung der Datenerfassungsvorrichtung, die mit dem Primärbildsensor, dem Hilfsbildsensor und dem Speicher verbunden ist: als Reaktion auf die Aktivierung eines Ausrichtmodus, Steuern des Hilfsbildsensors, um einen Videostream zu erfassen; Auswählen, gemäß den Offsetdaten, eines Teils des Videostreams, der dem Primärsichtfeld entspricht; und Darstellen des ausgewählten Teils des Videostreams auf der Anzeige.
  • Die 1A und 1B zeigen eine Datenerfassungsvorrichtung 100, die in einer Vielzahl von Umgebungen einschließlich Transport- und Logistikeinrichtungen (z. B. Lager), Gesundheitseinrichtungen und dergleichen eingesetzt werden kann. Die Datenerfassungsvorrichtung 100 in dem in 1 veranschaulichten Beispiel ist eine tragbare Datenerfassungsvorrichtung, die ein Gehäuse umfasst, das durch einen Körper 104 und einen Griff 108 definiert ist. Das Gehäuse trägt verschiedene andere Komponenten der Vorrichtung 100, wie es nachstehend ausführlicher beschrieben wird.
  • Wie in 1A gezeigt, die eine Vorderansicht der Vorrichtung 100 veranschaulicht, trägt der Körper 104 des Gehäuses eine Anzeige 112, die einen integrierten Touchscreen umfassen kann. Der Körper 104 trägt auch verschiedene Eingabevorrichtungen, wie beispielsweise ein Mikrofon 116 und eine Taste 120. Wie in 1B gezeigt, die eine perspektivische Rückansicht der Vorrichtung 100 veranschaulicht, trägt der Handgriff 108 zusätzliche Eingabevorrichtungen einschließlich einer Primärauslösertaste 124 und einer Hilfsauslösertaste 128. Der Körper 104 und/oder der Griff 108 können in anderen Beispielen zusätzliche Eingabevorrichtungen tragen oder die vorstehend genannten Eingabevorrichtungen können bei anderen Beispielen ausgelassen sein. Der Körper 104 kann auch Ausgabevorrichtungen, wie beispielsweise einen Lautsprecher 130 tragen (ein zusätzlicher Lautsprecher kann auf der entgegengesetzten Seite des Körpers 104 als die in 1B gezeigte vorgesehen sein).
  • Der Körper 104 trägt wie in 1B gezeigt auch einen Primärbildsensor 132, der hierin auch als ein Imager 132 bezeichnet wird. Der Imager 132 weist eine optische Primärachse 134 auf, die sich von dem Imager 132 weg erstreckt, auf der ein Primärsichtfeld (FOV) des Imagers 132 zentriert ist. Der Körper 104 trägt ferner einen Hilfsbildsensor 136, der hierin auch als Kamera 136 bezeichnet wird. Die Kamera 136 weist eine optische Hilfsachse 138 auf, die sich von der Kamera 136 weg erstreckt, auf der ein Hilfs-FOV der Kamera 136 zentriert ist. Der Imager 132 und die Kamera 136 sind im Wesentlichen koplanar (d. h. der Imager 132 und die Kamera 136 befinden sich in einer gemeinsamen Bildsensorebene), obwohl sich der Imager 132 und die Kamera 136 wie in 1B gezeigt an verschiedenen Orten innerhalb dieser Ebene befinden.
  • Der Primärbildsensor 132 ermöglicht, dass die Vorrichtung 100 Datenerfassungsvorgänge wie Barcodescannen ausführen kann. Insbesondere ist der Primärbildsensor 132 konfiguriert, als Reaktion auf die Aktivierung einer Primäreingabevorrichtung (z. B. den Primärauslöser 124) ein oder mehrere Bilder zu erfassen und ein maschinenlesbares Zeichen in solchen Bildern zu detektieren und zu decodieren. Eine große Vielzahl von Zeichen einschließlich 1D- und 2D-Barcodes kann nach der Erfassung durch den Imager 132 detektiert und decodiert werden.
  • Wie nachstehend näher beschrieben, weist der Imager 132 ein kleineres (d. h. schmaleres) FOV als das FOV der Kamera 136 auf. Ein Fachmann wird verstehen, dass die Vorrichtung 100 zum Erfassen von Bildern eines Zeichens auf einem Objekt derart ausgerichtet (d. h. von einem Bediener der Vorrichtung 100 ausgerichtet) werden muss, dass das Zeichen in das FOV des Imagers 132 fällt. Um das Anvisieren der Vorrichtung 100 zum Erfassen des Zeichens zu unterstützen, kann die Vorrichtung 100 auch einen Emitter 140 wie eine Laserdiode umfassen, der konfiguriert ist, einen Laserstrahl zu emittieren, der mit der optischen Primärachse 134 zusammenfällt, um einen sichtbaren Punkt auf ein Objekt zu projizieren, auf das der Imager 132 gerichtet ist. Unter bestimmten Bedingungen kann der vorstehend genannte Punkt jedoch nicht sichtbar sein. Die Vorrichtung 100 implementiert daher zusätzliche Funktionalität, um das Ausrichten mit dem Imager 132 zu unterstützen, indem die Kamera 136 verwendet wird, um das aktuelle FOV des Imagers 132 auf der Anzeige 112 zu simulieren.
  • Bevor die von der Vorrichtung 100 implementierten Ausrichtunterstützungsfunktionen beschrieben werden, werden bestimmte interne Komponenten der Vorrichtung 100 unter Bezugnahme auf 2 ausführlicher beschrieben.
  • Wie in 2 gezeigt, umfasst die Vorrichtung 100 eine Zentraleinheit (CPU), die auch als Prozessor 200 bezeichnet wird, die mit einem nicht-flüchtigen, computerlesbaren Speichermedium, wie einem Speicher 204 verbunden ist. Der Speicher 204 umfasst eine geeignete Kombination aus flüchtigem Speicher (z. B. Direktzugriffsspeicher (RAM)) und nicht-flüchtiger Speicher (z. B. Nur-Lese-Speicher (ROM), elektrisch löschbarer programmierbarer Nur-Lese-Speicher (EEPROM), Flash). Der Prozessor 200 und der Speicher 204 umfassen jeweils eine oder mehrere integrierte Schaltungen (ICs).
  • Die in den 1A und 1B gezeigten Komponenten der Vorrichtung 100 (d. h. die Anzeige 112, das Mikrofon 116, die Taste 120, die Auslöser 124 und 128, die Bildsensoren 132 und 136 und der Emitter 140) sind über einen oder mehrere Kommunikationsbusse mit dem Prozessor 200 verbunden. Die Komponenten der Vorrichtung 100 werden über eine Batterie oder eine andere Stromquelle über die Kommunikationsbusse oder über separate Stromschienen versorgt.
  • Der Speicher 204 speichert mehrere Anwendungen, die jeweils mehrere computerlesbare Befehle umfassen, die von dem Prozessor 200 ausgeführt werden können. Die Ausführung der vorstehend erwähnten Befehle durch den Prozessor 200 veranlasst die Vorrichtung 100, bestimmte Funktionen zu implementieren, wie sie hierin beschrieben werden. Von den Anwendungen wird daher angenommen, dass sie derart konfiguriert sind, dass sie in der nachstehenden Beschreibung diese Funktionalität ausführen. In dem vorliegenden Beispiel ist in dem Speicher 204 der Vorrichtung 100 eine Datenerfassungsanwendung 216 gespeichert, die hierin auch als die Anwendung 216 bezeichnet wird. Die Vorrichtung 100 ist über die Ausführung der Anwendung 216 durch den Prozessor 200 konfiguriert, Datenerfassungsvorgänge auszuführen und unter bestimmten Bedingungen einen Ausrichtmodus für solche Datenerfassungsvorgänge zu implementieren. Der Speicher 204 speichert auch ein Repsoitory 220, der Offsetdaten zur Verwendung bei der Implementierung des vorstehend erwähnten Ausrichtmodus enthält. Die Inhalte der Offsetdaten in dem Repository 220 sowie Mechanismen zur Verwendung und Aktualisierung der Offsetdaten werden nachstehend ausführlicher beschrieben.
  • Der Prozessor 200 kann, wie über die Ausführung der Anwendung 216 konfiguriert, auch als Datenerfassungssteuerung bezeichnet werden. Bei einigen Ausführungsformen wird die hierin beschriebene Funktionalität durch zwei oder mehr Steuerungen implementiert, anstatt ausschließlich durch den Prozessor 200. Bei einigen Ausführungsformen umfasst die Vorrichtung 100 beispielsweise eine Scansteuerung, die konfiguriert ist, den Imager 132 und den Emitter 140 zu steuern und Daten von Bildern zu decodieren, die durch den Imager 132 erfasst wurden. Die Scansteuerung leitet decodierte Daten zur nachfolgenden Verarbeitung an den Prozessor 200 weiter. Der Prozessor 200 steuert währenddessen die Kamera 136, die Anzeige 112 und die vorstehend erwähnten Eingabevorrichtungen. Bei solchen Ausführungsformen ist die Datenerfassungssteuerung daher durch eine solche Scansteuerung und den Prozessor 200 zusammen implementiert.
  • Bei weiteren Ausführungsformen sind der Prozessor und/oder die vorgenannte Scansteuerung als ein oder mehrere speziell konfigurierte Hardwareelemente, wie beispielsweise feldprogrammierbare Gate-Arrays (FPGAs) und/oder anwendungsspezifische integrierte Schaltungen (ASICs), realisiert.
  • Unter Bezugnahme auf 3 wird die Funktionsweise der Vorrichtung 100 ausführlicher beschrieben. 3 veranschaulicht ein Ablaufdiagramm eines Verfahrens 300 zur Datenerfassungsausrichtungsunterstützung. Die Ausführung des Verfahrens 300 wird im Zusammenhang mit seiner Ausführung durch die Vorrichtung 100 beschrieben.
  • Bei Block 305 ist die Vorrichtung 100 konfiguriert, die vorstehend erwähnten Offsetdaten z. B. in dem Repository 220 zu speichern. Die Offsetdaten definieren einen Offset zwischen dem Primärsichtfeld des Imagers 132 und dem Hilfssichtfeld der Kamera 136. Insbesondere definieren, wie unter Bezugnahme auf die 4A und 4B beschrieben, die Offsetdaten einen Offset zwischen dem Zentrum des Primärsichtfelds und dem Zentrum des Hilfssichtfelds. Die Offsetdaten definieren daher auch einen Offset zwischen der optischen Primärachse und der optischen Hilfsachse.
  • Unter Bezugnahme auf 4A ist eine vereinfachte Veranschaulichung der Vorrichtung 100 gezeigt, welche die relativen Positionen und Größen eines Primärsichtfelds 400 des Imagers 132 und eines Hilfssichtfelds 404 der Kamera 136 veranschaulicht. Wie in 4A gezeigt und zuvor erwähnt, ist das Primär-FOV 400 kleiner als das Hilfs-FOV 404. Aufgrund der unterschiedlichen physischen Positionen des Imagers 132 und der Kamera 136 an der Vorrichtung 100 (gezeigt in 1B) ist das FOV 400 außerdem nicht innerhalb des FOV 404 zentriert (d. h., die optischen Achsen 134 und 138 sind nicht deckungsgleich, obwohl sie parallel zueinander sein können). Stattdessen ist das Zentrum des FOV 400 gegenüber dem Zentrum des FOV 404 um einen Offsetvektor 408 versetzt, der in 4A veranschaulicht ist. Die bei Block 305 gespeicherten Offsetdaten definieren den Offsetvektor 408. Wie ersichtlich, kann das FOV 404 der Kamera 136 als ein Pixelarray mit einem Ursprung 412 dargestellt werden, in dem jede Position innerhalb des FOV 404 eine X-Pixelkoordinate und eine Y-Pixelkoordinate aufweist. Die Offsetdaten können horizontale und vertikale Pixelabstände umfassen, die innerhalb des Bezugsrahmens definiert sind, der durch den Ursprung 412 und die X- und Y-Achsen definiert ist, die in 4A angedeutet sind.
  • Die Offsetdaten können über die vorstehend genannten Abstände hinaus zusätzliche Parameter umfassen. In einigen Beispielen umfassen die Offsetdaten auch Abmessungen des FOV 400, die gemäß dem vorstehend erwähnten Referenzrahmen (d. h. in Pixelabmessungen) ausgedrückt und in 4B als eine Region 416 gezeigt sind. Die Region 416 weist die gleiche Größe wie das in 4A gezeigte FOV 400 auf. Die Offsetdaten können in einigen Beispielen auch Abmessungen eines Zwischen-FOV umfassen, das größer ist als das FOV 400 und kleiner als das FOV 404, das in 4B als eine Region 420 angegeben ist. Das heißt, die in 4B grafisch gezeigten Offsetdaten können drei Wertepaare umfassen: die Abstände, die den Vektor 408 definieren, die Abmessungen, welche die Region 416 definieren, und die Abmessungen, welche die Region 420 definieren.
  • Bei einigen Ausführungsformen umfassen die Offsetdaten die vorstehend genannten Daten (d. h., mindestens die Parameter, die den Vektor 408 definieren, und optional Parameter, die eine oder beide der Regionen 416 und 420 definieren) für jede von mehreren Reichweiten. Wie nun ersichtlich ist, ändert sich die Position des FOV 400 innerhalb des FOV 404 gemäß dem Abstand von der Vorrichtung 100. Unter Bezugnahme auf 5 ist eine Seitenansicht der Vorrichtung 100 zusammen mit den FOVs 400 und 404 bei verschiedenen Abständen gezeigt. Insbesondere sind in einem ersten Abstand (d. h., einer ersten Reichweite) 500 von dem Imager 132 und der Kamera 136 ein erstes Primär-FOV 400a und ein Hilfs-FOV 404a veranschaulicht. Ferner sind in einer zweiten Reichweite 504 ein zweites Primär-FOV 400b und ein Hilfs-FOV 404b veranschaulicht. Wie aus den FOVs 400a, 400b und 404a, 404b ersichtlich, variiert der Offset zwischen den FOVs 400 und 404 mit der Reichweite. Das Repository 220 kann daher Teilmengen 508a, 508b von Offsetdaten enthalten, wobei jede Teilmenge 508 einer bestimmten Reichweite oder einer bestimmten Teilmenge von Reichweiten entspricht. Das Repository 220 kann beispielsweise als eine Nachschlagetabelle in dem Speicher 204 gespeichert werden, wobei mehrere Einträge jeweils einer bestimmten Reichweite oder einer Teilmenge von Reichweiten entsprechen.
  • Unter erneuter Bezugnahme auf 3 können die bei Block 305 gespeicherten Offsetdaten zur Speicherung auf verschiedene Weisen erhalten werden. Vorbestimmte Offsetdaten können beispielsweise während der Herstellung der Vorrichtung 100 gemäß spezifizierten relativen Positionen des Imagers 132 und der Kamera 136 in den Speicher 204 geladen werden. In anderen Beispielen kann jede Vorrichtung 100 im Herstellungsstadium kalibriert werden, indem Bilder eines vorbestimmten Objekts (z. B. ein binär codiertes Bild) sowohl mit dem Imager 132 als auch mit der Kamera 136 erfasst und die erfassten Bilder registriert werden, um die Position des Primär-FOV innerhalb des Hilfs-FOV zu bestimmen. Wie nachstehend ausführlicher beschrieben, kann die Vorrichtung 100 konfiguriert sein, die Offsetdaten unter bestimmten Bedingungen zu aktualisieren (z. B. neu zu kalibrieren).
  • Bei Block 310 bestimmt die Vorrichtung 100, ob ein Ausrichtmodus aktiviert wurde. Es wird davon ausgegangen, dass die Vorrichtung 100 vor der Ausführung von Block 310 in einen Datenerfassungsmodus eingetreten ist. Im Datenerfassungsmodus wartet der Prozessor 200 auf die Aktivierung einer Primäreingabevorrichtung, wie beispielsweise des Primärauslösers 124. Als Reaktion auf die Aktivierung des Primärauslösers 124 steuert der Prozessor 200 den Imager 132, ein Bild seines aktuellen FOV zu erfassen und ein Zeichen in dem erfassten Bild zu detektieren und zu decodieren. Im Datenerfassungsmodus kann der Emitter 140 gesteuert werden, sodass er einen Strahl emittiert, um einen Ausrichtpunkt auf beliebige Objekte innerhalb des Primär-FOV 400 zu projizieren.
  • Die Aktivierung des Ausrichtmodus während der Datenerfassungsmodus aktiv ist kann durch Aktivierung einer Hilfseingabevorrichtung, wie beispielsweise des Hilfsauslösers 128, eingeleitet werden. Es können jedoch verschiedene andere Eingabevorrichtungen verwendet werden, um den Ausrichtmodus zu aktivieren. Die Hilfseingabevorrichtung kann beispielsweise das Mikrofon 116 sein und ein von dem Bediener der Vorrichtung 100 ausgegebener hörbarer Befehl kann von dem Mikrofon 116 erfasst und durch den Prozessor 200 detektiert werden.
  • Wenn der Ausrichtmodus nicht aktiviert wurde, arbeitet die Vorrichtung 100 weiterhin im Datenerfassungsmodus (ohne Ausrichtungsunterstützung) und fährt mit Block 325 fort, wie es nachstehend beschrieben wird. Wenn der Ausrichtmodus jedoch aktiviert wurde (d. h., wenn die Bestimmung bei Block 310 positiv ist), fährt die Vorrichtung 100 mit Block 315 fort.
  • Bei Block 315 aktiviert der Prozessor 200 den Hilfsbildsensor 136, der anderweitig während des Datenerfassungsmodus inaktiv bleibt (während der Primärbildsensor 132 verwendet wird, um Zeichen wie Barcodes zu erfassen und zu detektieren). Die Aktivierung der Kamera 136 bewirkt, dass die Kamera 136 einen Videostream erfasst, der dem Prozessor 200 bereitgestellt wird.
  • Bei Block 320 wählt der Prozessor 200 einen Teil des vorstehend erwähnten Videostreams aus und steuert die Anzeige 112, um den ausgewählten Teil im Wesentlichen in Echtzeit (d. h., im Wesentlichen gleichzeitig mit der Erfassung des Videostreams) darzustellen. Das heißt, der Prozessor 200 ist konfiguriert, einen Teil jedes Einzelbildes des von der Kamera 136 erfassten Videostreams auszuwählen und die ausgewählten Teile aufeinanderfolgend auf der Anzeige darzustellen.
  • Der für die Darstellung auf der Anzeige 112 ausgewählte Teil des Videostreams wird gemäß den vorstehend erwähnten Offsetdaten ausgewählt. Im Allgemeinen stellt der ausgewählte Teil des von der Kamera 136 erfassten Videostreams ein virtuelles Sichtfenster für den Imager 132 bereit, das dem Bediener der Vorrichtung 100 eine aktuelle Darstellung des Primär-FOV des Imagers 132 präsentiert. Das Sichtfenster wird jedoch als virtuell bezeichnet, da es nicht über den Imager 132 selbst, sondern über die Kamera 136 erhalten wird.
  • Unter Bezugnahme auf 6A ist ein Satz von Objekten einschließlich eines Objekts 600 (z. B. eine Stahlrolle in einem Lager), das ein Zeichen 604 wie einen Barcode trägt, gezeigt. 6A veranschaulicht auch das Primär-FOV400 des Imagers 132 und das Hilfs-FOV 404 der Kamera 136 nach Aktivierung des Ausrichtmodus bei Block 315. Wie in 6A ersichtlich, ist das Zeichen 604 innerhalb des Hilfs-FOV 404 zentriert, befindet sich aber nicht innerhalb des Primär-FOV 400. Wenn ein Scanvorgang einzuleiten wäre, würde daher das Zeichen 604 nicht detektiert werden. Durch Anwenden der Offsetdaten, die im Zusammenhang mit den 4A, 4B und 5 beschrieben werden, ist der Prozessor 200 konfiguriert, einen Teil 608 des FOV 404 auszuwählen, der in 6B veranschaulicht ist. Wenn, wie in Verbindung mit 5 beschrieben, die Offsetdaten mehrere Teilmengen von Offsetdaten umfassen, die den entsprechenden Bildgebungsbereichen entsprechen, empfängt der Prozessor 200 z. B. von dem Imager 132 oder der Kamera 136 eine detektierte Reichweite, die den Abstand von der Vorrichtung 100 zu den Objekten innerhalb des Primär-FOV 400 (wenn die Reichweite von dem Imager 132 empfangen wird) oder des Hilfs-FOV 404 (wenn die Reichweite von der Kamera 136 empfangen wird) angibt. Der Prozessor 200 wählt eine Teilmenge von Offsetdaten aus, die der empfangenen Reichweite entspricht.
  • Die Position und Größe des Teils 608 ist durch die Region 420 definiert, die in 4B gezeigt ist. Wie in 6B ersichtlich umfasst der Teil 608 sowohl das Zeichen 604 als auch das Primär-FOV400. Der Prozessor 200 stellt außerdem auf der Anzeige 112 einen Begrenzungsrahmen 612 dar, der die Größe des Primär-FOV 40 angibt. Bei Block 320 steuert der Prozessor 200 mit anderen Worten die Kamera 136, um ein Bild (z. B. ein Einzelbild in dem vorstehend erwähnten Videostream) zu erfassen, welches das Hilfs-FOV 404 darstellt, wie es in 6A gezeigt ist. Der Prozessor 200 wählt dann den Teil 608 des erfassten Bildes aus, der Abmessungen aufweist, wie sie durch die in 4B gezeigte Region 420 spezifiziert sind, und der an einem Punkt in dem erfassten Bild zentriert ist, der gegenüber dem Zentrum des FOV 404 um den Offsetvektor 408 versetzt ist. Der Prozessor 200 erzeugt ferner den Begrenzungsrahmen 612, der die Abmessungen der Region 416 wie in 4B gezeigt aufweist, und der an dem gleichen Punkt wie der Teil 608 zentriert ist.
  • Bei Block 325 bestimmt der Prozessor 200 z. B. durch Aktivierung des Primärauslösers 124, ob ein Scanvorgang initiiert wurde. Wenn die Bestimmung negativ ist, kehrt die Ausführung des Verfahrens 300 zu Block 310 zurück, und der Prozessor 200 bestimmt, ob die Erzeugung des virtuellen Sichtfensters, wie sie vorstehend beschrieben wurde, über die Blöcke 315 und 320 fortgesetzt werden soll. Unter Bezugnahme auf die 7A und 7B wurde die Vorrichtung 100 neu ausgerichtet, um das Hilfs-FOV 404 und das Primär-FOV400 zu verschieben, wobei der Ausrichtmodus aktiviert bleibt. Die Anzeige 112 wird daher durch den Prozessor aktualisiert, um einen Teil 708 des von der Kamera 136 erfassten Bildes zusammen mit einem Begrenzungsrahmen 712 darzustellen, der angibt, dass das Zeichen 604 jetzt in das Primär-FOV 400 des Imagers 132 fällt.
  • Unter erneuter Bezugnahme auf 3 wird bei einer anschließenden Ausführung des Blocks 325 davon ausgegangen, dass der Primärauslöser 124 aktiviert ist und daher die Bestimmung bei Block 325 positiv ist. Der Prozessor 200 ist konfiguriert, zu Block 330 überzugehen, bei dem der Imager 132 gesteuert wird, um ein oder mehrere Bilder zu erfassen. Der Prozessor 200 ist konfiguriert, von dem Bild, das von dem Imager 132 erfasst wurde, ein Zeichen (z. B. das Zeichen 604, das in den 6A bis 6B und 7A bis 7B gezeigt ist) zu detektieren und zu decodieren. Verschiedene geeignete Mechanismen zum Detektieren und Decodieren von Zeichen können implementiert sein. Derartige Mechanismen sind nicht Gegenstand der vorliegenden Beschreibung und werden daher hierin nicht näher beschrieben. Der Prozessor 200 erhält als Ergebnis der Ausführung von Block 330 mindestens decodierte Daten (z. B. eine Textfolge oder dergleichen), die in dem Zeichen 604 codiert sind. Der Prozessor 200 kann auch einen Ort des Zeichens 604 innerhalb des Primär-FOV 400 (z. B. ausgedrückt als Pixelkoordinaten) sowie eine Decodierzeit, die zwischen der Aktivierung des Primärauslösers 124 und des Abschlusses des Decodierens verstrichen ist, erhalten. Die Decodierzeit kann auch als „Auslöser-bis-Piepton“-Zeit bezeichnet werden.
  • Die Vorrichtung 100 ist daher in der Lage, über die Steuerung der Kamera 136 und die Verwendung der Offsetdaten ein virtuelles Sichtfenster für den Imager 132 bereitzustellen. Bei der Ausführungsform, die in den 6A bis 7B veranschaulicht ist, stellt das virtuelle Sichtfenster beispielsweise eine Darstellung des aktuellen Primär-FOV 400 des Imagers 132 zentriert auf der Anzeige 112 bereit und stellt außerdem zusätzliche Bilddaten um eine solche Darstellung herum bereit, um den Bediener der Vorrichtung 100 beim Bestimmen zu unterstützen, ob oder wie die Ausrichtung der Vorrichtung 100 angepasst werden soll.
  • Einem Fachmann wird es jetzt offensichtlich sein, dass die Offsetdaten die relativen physischen Positionen und Ausrichtungen des Imagers 132 und der Kamera 136 beschreiben. Wie einem Fachmann nun klar sein wird, können sich die relativen physischen Positionen und Ausrichtungen des Imagers 132 und der Kamera 136 im Laufe der Zeit für eine bestimmte Vorrichtung 100 ändern. Beispielsweise kann das Fallenlassen einer Vorrichtung 100 zu geringfügigen physischen Verschiebungen der Komponenten führen. Ferner können die bei der Herstellung vorgesehenen vordefinierten Offsetdaten eventuell Abweichungen von bestimmten Komponentenpositionen nicht berücksichtigen. Die Vorrichtung 100 ist daher bei einigen Ausführungsformen auch in der Lage, die Offsetdaten zu aktualisieren, wie es nachstehend in Verbindung mit dem Rest des Verfahrens 300 beschrieben wird. Bei anderen Ausführungsformen kann die Aktualisierung von Offsetdaten ausgelassen werden und die Ausführung des Verfahrens 300 daher nach Block 330 enden. Der Speicher 204 speichert bei weiteren Ausführungsformen eine konfigurierbare Einstellung, die definiert, ob die nachstehend beschriebenen Selbstkalibrierungsroutinen aktiviert sind oder nicht. Die Einstellung kann mittels an den vorstehend erwähnten Eingabevorrichtungen empfangenen Eingabedaten, mittels dem in die Anzeige 112 integrierten Touchscreen oder dergleichen geändert werden. Bei Block 335 ist der Prozessor 200 konfiguriert, Offsetaktualisierungsdaten zu erhalten. Wie nachfolgend beschrieben, umfassen die Offsetaktualisierungsdaten ein oder mehrere Attribute, die verarbeitet werden können, um zu bestimmen, ob die Offsetdaten, wie sie aktuell in dem Repository 220 gespeichert sind, geändert werden sollen. Es sind verschiedene Beispiele für Offsetaktualisierungsdaten denkbar. In einigen Beispielen umfassen die Offsetaktualisierungsdaten einen Ort innerhalb des Hilfs-FOV 404 (d. h., innerhalb eines Einzelbildes des von der Kamera 136) erfassten Videostreams des von dem Emitter 140 projizierten Punkts. Das heißt, der Prozessor 200 ist konfiguriert, in dem Videostream den projizierten Punkt zu detektieren, und wenn der Punkt detektiert ist, den Ort (z. B. in Pixelkoordinaten relativ zu dem Ursprung 412) des Punkts zu bestimmen.
  • Der Prozessor 200 ist konfiguriert, den Punkt basierend auf irgendwelchen geeigneten Bildattributen zu detektieren. Der Prozessor 200 kann zum Beispiel eine Region des Bildes detektieren, die eine vordefinierte Farbe aufweist, die der Farbe des von dem Emitter 140 emittierten Strahls entspricht. In einem weiteren Beispiel kann der Prozessor 200 eine Region des Bildes detektieren, die eine Intensität aufweist, die einen vordefinierten Schwellenwert überschreitet. In weiteren Beispielen steuert der Prozessor 200 den Emitter 140, um den Strahl zu modulieren, sodass die Intensität oder Farbe des Punkts oder beides über die Zeit moduliert wird. Der Prozessor 200 detektiert in solchen Beispielen das Vorhandensein einer entsprechenden Modulation über eine Sequenz von Einzelbildern in dem von der Kamera 136 erfassten Videostream. Die Detektion der vorstehenden Attribute kann auch kombiniert werden, um den Punkt zu detektieren.
  • Unter Bezugnahme auf 8 zeigt ein mit der Kamera 136 erfasstes Bild 804 (d. h., das Hilfs-FOV 404) wie vorstehend beschrieben das Objekt 600 und das Zeichen 604 sowie einen von dem Emitter 140 auf das Objekt 600 projizierten Punkt 808. Der Ort des Punkts 808 in dem Bild 804 (dargestellt durch die Koordinaten 812) wird bei Block 335 erhalten. Bei Block 340 bestimmt der Prozessor 200, ob die Offsetdaten aktualisiert werden sollen, indem er beispielsweise bestimmt, ob ein Offsetvektor zwischen dem durch die Koordinaten 812 definierten Ort und dem Zentrum des Bildes 804 (definiert durch die Koordinaten 816) von dem in dem Repository 220 definierten Offsetvektor 408 (z. B. für die aktuelle Reichweite) abweicht. Wenn die Bestimmung bei Block 340 negativ ist, werden die Offsetdaten in dem Repository 220 nicht geändert und die Ausführung des Verfahrens 300 ist abgeschlossen. Wenn die Bestimmung bei Block 340 jedoch positiv ist, aktualisiert der Prozessor 200 die Offsetdaten in dem Repository 220 bei Block 345 z. B. durch Ersetzen des Offsetvektors 408 durch einen angepassten Offsetvektor, der zwischen den Koordinaten 816 und 812 definiert ist. Im vorliegenden Beispiel ist der Offsetvektor 408 neben einem Offsetvektor 820 gezeigt, der von dem Bild 804 erzeugt wurde. Wie aus 8 ersichtlich ist, sind die Offsetvektoren 408 und 820 identisch und die Bestimmung bei Block 340 daher negativ.
  • Unter erneuter Bezugnahme auf Block 335 können die Offsetaktualisierungsdaten bei anderen Ausführungsformen zusätzlich zu oder anstelle der vorstehend erwähnten punktbasierten Daten Orte von Zeichen umfassen, die in einer Anzahl an Ausführungen von Block 330 erfasst und decodiert werden, sowie die Decodierzeiten für jedes Zeichen. Ein Fachmann wird verstehen, dass der Prozessor 200 typischerweise einen Strom von Einzelbildern über den Imager 132 erfasst und jedes Einzelbild in einem vordefinierten Muster (z. B. eine Spirale, die im Zentrum des Einzelbildes beginnt) durchsucht. Daher geben niedrige Decodierzeiten an, dass wenige Einzelbilder erfasst wurden, bevor das Zeichen erfasst wurde, und/oder dass ein minimales Durchsuchen innerhalb eines Einzelbildes erforderlich war. Dies gibt wiederum an, dass die Vorrichtung 100 genau ausgerichtet war, als der Primärauslöser 124 aktiviert wurde (d. h., als der Decodierzeitgeber initiiert wurde). Höhere Decodierzeiten geben dagegen an, dass eine größere Anzahl an Einzelbildern erfasst wurde, bevor das Zeichen detektiert wurde, und/oder dass ein umfangreicheres Durchsuchen innerhalb eines Einzelbildes erforderlich war. Dies gibt an, dass die anfängliche Ausrichtung der Vorrichtung 100 möglicherweise eine reduzierte Genauigkeit aufwies.
  • Bei solchen Ausführungsformen kann die Bestimmung, die durch den Prozessor bei Block 340 erfolgt, eine Bestimmung umfassen, ob eine ausreichende Anzahl an Decodieroperationen ausgeführt wurde, um die Offsetdaten basierend auf den vorstehend genannten Orten und Decodierzeiten anzupassen. Wenn die Bestimmung bei Block 340 positiv ist, bestimmt der Prozessor 200 bei Block 345 eine Anpassung an die Offsetdaten basierend auf den Decodierorten und Decodierzeiten.
  • Unter Bezugnahme auf 9A sind beispielsweise Orte und Decodierzeiten von drei beispielhaften Decodieroperationen gezeigt. Insbesondere sind die Orte 900, 904 und 908 relativ zu dem Primär-FOV 400 veranschaulicht und die mit jedem Ort verbundenen Decodierzeiten gezeigt. Der Prozessor 200 ist konfiguriert, eine Teilmenge der Decodierzeiten auszuwählen (z. B. die niedrigsten 50 % der Decodierzeiten, alle Decodierzeiten unterhalb eines konfigurierbaren Schwellenwerts oder dergleichen). Nachdem der Prozessor 200 die Teilmenge der Decodierzeiten ausgewählt hat, bestimmt er von den entsprechenden Orten einen Durchschnittsort. Daher erzeugt, wie in 9A gezeigt, der Prozessor nach der Auswahl der mit den Orten 900 und 904 verbundenen Decodierzeiten einen durchschnittlichen Ort 912 aus den Orten 900 und 904. Der Prozessor 200 bestimmt dann eine Offsetanpassung 916 basierend auf dem durchschnittlichen Ort 912 relativ zu dem Zentrum des Primär-FOV 400.
  • Unter Bezugnahme auf 9B wendet der Prozessor dann die Anpassung 916 auf die aktuellen Offsetdaten (die den Offsetvektor 408 definieren) an, indem er z. B. den Offsetvektor 408 und die Anpassung 916 summiert, um aktualisierte Offsetdaten zu erzeugen, die einen Offsetvektor und die Regionen 924 und 928 definieren. Das virtuelle Sichtfenster wurde mit anderen Worten nach oben und links in die Richtung, in der die niedrigsten Decodierzeiten erhalten wurden, verschoben.
  • In der vorstehenden Beschreibung wurden spezifische Ausführungsformen beschrieben. Ein Durchschnittsfachmann wird jedoch verstehen, dass verschiedene Modifikationen und Änderungen vorgenommen werden können, ohne vom Umfang der Erfindung, wie er in den nachstehenden Ansprüchen dargelegt ist, abzuweichen. Dementsprechend sind die Beschreibung und die Figuren in einem veranschaulichenden und nicht einschränkenden Sinne zu sehen und alle solche Modifikationen sollen im Umfang der vorliegenden Lehren eingeschlossen sein. Der Nutzen, die Vorteile, Problemlösungen und jedes bzw. jede Elemente, die dafür sorgen können, dass jeglicher Nutzen, Vorteil oder Lösung auftritt oder stärker hervorkommt, sind nicht als kritische, erforderliche oder wesentliche Merkmale oder Elemente irgendeines oder aller der Ansprüche auszulegen. Die Erfindung wird ausschließlich durch die beigefügten Ansprüche einschließlich aller während der Anhängigkeit dieser Anmeldung vorgenommenen Änderungen und aller Äquivalente dieser Ansprüche in der vorliegenden Fassung definiert.
  • Darüber hinaus können in diesem Dokument Beziehungsbegriffe, wie erste(r) und zweite(r), oben und unten usw. nur zur Unterscheidung einer Einheit oder Aktion von einer anderen Einheit oder Aktion verwendet sein, ohne dass eine Beziehung oder Reihenfolge bei diesen Entitäten oder Aktionen erforderlich oder impliziert ist. Die Ausdrücke „umfasst“, „umfassend“, „aufweist“, „aufweisend“, „enthält“, „enthaltend“ oder jede andere Variation davon sollen eine nicht-ausschließliche Einbeziehung abdecken, sodass ein Prozess, Verfahren, Produkt oder eine Vorrichtung, der/die/das eine Liste von Elementen umfasst, aufweist, enthält, nicht nur diese Elemente enthält, sondern auch andere Elemente enthalten kann, die nicht ausdrücklich aufgelistet sind oder einem solchen Prozess, Verfahren, Produkt oder einer solchen Vorrichtung inhärent sind. Ein Element, dem „umfasst ... ein“, „weist ... ein“, „enthält ... ein“ vorausgeht, schließt ohne weitere Einschränkungen die Existenz zusätzlicher identischer Elemente in dem Prozess, dem Verfahren, dem Produkt oder der Vorrichtung, die das Element umfasst, aufweist oder enthält, nicht aus. Die Begriffe „ein“ und „eine“ sind als ein oder mehrere definiert, sofern es hierin nicht ausdrücklich anders angegeben wird. Die Begriffe „im Wesentlichen“, „ungefähr“, „etwa“ oder jede andere Version davon sind derart definiert, dass sie dem Verständnis eines Durchschnittsfachmanns nahe kommen, und in einer nicht einschränkenden Ausführungsform ist der Begriff derart definiert, dass er innerhalb von 10 %, in einer weiteren Ausführungsform innerhalb von 5 %, in einer weiteren Ausführungsform innerhalb von 1 % und in einer weiteren Ausführungsform innerhalb von 0,5 % liegt. Der Ausdruck „gekoppelt“, wie er hierin verwendet wird, ist als verbunden definiert, obwohl nicht notwendigerweise direkt und nicht notwendigerweise mechanisch. Eine Vorrichtung oder eine Struktur, die auf eine bestimmte Art „konfiguriert“ ist, ist mindestens derart konfiguriert, kann aber auch auf Arten konfiguriert sein, die nicht aufgeführt sind.
  • Es versteht sich, dass einige Ausführungsformen einen oder mehrere spezialisierte Prozessoren (oder „Verarbeitungsvorrichtungen“), wie beispielsweise Mikroprozessoren, Digitalsignalprozessoren, kundenspezifische Prozessoren und feldprogrammierbare Gate-Arrays (FPGAs), sowie einzigartig gespeicherte Programmbefehle (einschließlich Software und Firmware) umfassen können, die den einen oder die mehreren Prozessoren steuern, um in Verbindung mit bestimmten Nicht-Prozessorschaltungen einige, die meisten oder alle Funktionen des hierin beschriebenen Verfahrens und/oder der hierin beschriebenen Vorrichtung zu implementieren. Alternativ könnten einige oder alle Funktionen durch eine Zustandsmaschine implementiert werden, die keine gespeicherten Programmbefehle aufweist, oder in einer oder mehreren anwendungsspezifischen integrierten Schaltungen (ASICs), wobei jede Funktion oder einige Kombinationen von bestimmten der Funktionen als spezifische Logik implementiert werden. Natürlich könnte eine Kombination der zwei Herangehensweisen verwendet werden.
  • Darüber hinaus kann eine Ausführungsform als ein computerlesbares Speichermedium implementiert sein, auf dem computerlesbarer Code gespeichert ist, um einen Computer (der z. B. einen Prozessor umfasst) zu programmieren und ein Verfahren, wie es hierin beschrieben und beansprucht wird, auszuführen. Beispiele für solche computerlesbaren Speichermedien umfassen eine Festplatte, eine CD-ROM, eine optische Speichervorrichtung, eine magnetische Speichervorrichtung, einen ROM (Nur-Lese-Speicher), einen PROM (programmierbarer Nur-Lese-Speicher), einen EPROM (löschbarer programmierbarer Nur-Lese-Speicher), einen EEPROM (elektrisch löschbarer programmierbarer Nur-Lese-Speicher) und einen Flash-Speicher, sind aber nicht darauf beschränkt. Ferner wird erwartet, dass ein Durchschnittsfachmann ungeachtet der möglicherweise erheblichen Anstrengungen und vielen Auslegungsmöglichkeiten, motiviert durch beispielsweise verfügbare Zeit, aktuelle Technologie und wirtschaftliche Überlegungen, leicht in der Lage sein wird, solche Softwarebefehle und -programme sowie ICs mit minimalem Experimentieren zu erzeugen, wenn er durch die hierin offenbarten Konzepte und Prinzipien geführt wird.
  • Die Zusammenfassung der Offenbarung dient dazu, dem Leser zu ermöglichen, schnell die Art der technischen Offenbarung zu bestimmen. Sie wird mit dem Verständnis eingereicht, dass sie nicht dazu verwendet wird, den Umfang oder die Bedeutung der Ansprüche zu interpretieren oder einzuschränken. Zusätzlich ist aus der vorstehenden ausführlichen Beschreibung ersichtlich, dass verschiedene Merkmale in verschiedenen Ausführungsformen zusammengefasst sind, um die Offenbarung zu straffen. Dieses Verfahren der Offenbarung ist nicht so auszulegen, dass es eine Absicht widerspiegelt, dass die beanspruchten Ausführungsformen mehr Merkmale erfordern, als ausdrücklich in jedem Anspruch angegeben sind. Wie die folgenden Ansprüche zeigen, liegt der erfinderische Gegenstand vielmehr in weniger als allen Merkmalen einer einzelnen offenbarten Ausführungsform. Daher werden die folgenden Ansprüche in die Ausführliche Beschreibung aufgenommen, wobei jeder Anspruch für sich genommen einen gesonderten beanspruchten Gegenstand darstellt.

Claims (23)

  1. Datenerfassungsvorrichtung, umfassend: ein Gehäuse; eine Anzeige, die von dem Gehäuse getragen wird; einen Primärbildsensor, der von dem Gehäuse getragen wird und ein Primärsichtfeld aufweist, das auf einer optischen Primärachse zentriert ist; einen Hilfsbildsensor, der von dem Gehäuse getragen wird und ein Hilfssichtfeld aufweist, das auf einer optischen Hilfsachse zentriert ist, wobei das Hilfssichtfeld größer ist als das Primärsichtfeld; einen Speicher, der Offsetdaten speichert, die einen Offset zwischen dem Primärsichtfeld und dem Hilfssichtfeld definieren; eine Datenerfassungssteuerung, die mit dem Primärbildsensor, dem Hilfsbildsensor und dem Speicher verbunden ist, wobei die Datenerfassungssteuerung konfiguriert ist zum: als Reaktion auf die Aktivierung eines Ausrichtmodus, Steuern des Hilfsbildsensors, um einen Videostream zu erfassen, Auswählen, gemäß den Offsetdaten, eines Teils des Videostreams, der dem Primärsichtfeld entspricht, und Darstellen des ausgewählten Teils des Videostreams auf der Anzeige.
  2. Datenerfassungsvorrichtung nach Anspruch 1, wobei die Datenerfassungssteuerung ferner konfiguriert ist, mit dem ausgewählten Teil des Videostreams eine Begrenzung darzustellen, die das Primärsichtfeld angibt.
  3. Datenerfassungsvorrichtung nach Anspruch 1, wobei die Datenerfassungssteuerung ferner als Reaktion auf das Darstellen des ausgewählten Teils des Videostreams auf der Anzeige konfiguriert ist zum: Bestimmen, dass ein Datenerfassungsvorgang initiiert wurde; Steuern des Primärbildsensors, um ein Bild zu erfassen; und Detektieren eines Zeichens in dem erfassten Bild und Decodieren von Daten von dem Zeichen.
  4. Datenerfassungsvorrichtung nach Anspruch 3, wobei die Datenerfassungssteuerung ferner konfiguriert ist zum: Erhalten von Offsetaktualisierungsdaten; und Aktualisieren der Offsetdaten gemäß den Offsetaktualisierungsdaten.
  5. Datenerfassungsvorrichtung nach Anspruch 4, ferner umfassend: einen Emitter, der konfiguriert ist, einen Punkt entlang der optischen Primärachse zu projizieren; wobei die Datenerfassungssteuerung ferner konfiguriert ist, die Offsetaktualisierungsdaten zu erhalten, um einen Ort des Punkts in dem Videostream zu detektieren; und wobei die Datenerfassungssteuerung ferner konfiguriert ist, die Offsetdaten basierend auf einem Abstand zwischen dem Ort des Punkts und einem Zentrum des ausgewählten Teils des Videostreams zu aktualisieren.
  6. Datenerfassungsvorrichtung nach Anspruch 4, wobei die Datenerfassungssteuerung ferner konfiguriert ist, die Offsetaktualisierungsdaten zu erhalten, um für jeden von mehreren vorhergehenden Datenerfassungsvorgängen: (i) eine Decodierzeit und (ii) einen Zeichenort innerhalb des Primärsichtfelds abzurufen; und wobei die Datenerfassungssteuerung ferner konfiguriert ist, die Offsetdaten zu aktualisieren, um eine Teilmenge der Decodierungszeiten auszuwählen und basierend auf den Zeichenorten, die der ausgewählten Teilmenge von Decodierungszeiten entsprechen, eine Offsetanpassung zu erzeugen.
  7. Datenerfassungsvorrichtung nach Anspruch 3, ferner umfassend: eine Primäreingabevorrichtung, wobei die Datenerfassungssteuerung konfiguriert ist, zu bestimmen, dass als Reaktion auf die Aktivierung der Primäreingabevorrichtung der Datenerfassungsvorgang initiiert wurde; und eine Hilfseingabevorrichtung, wobei die Datenerfassungssteuerung konfiguriert ist, als Reaktion auf die Aktivierung der Hilfseingabevorrichtung den Ausrichtmodus zu aktivieren.
  8. Datenerfassungsvorrichtung nach Anspruch 1, wobei der Primärbildsensor und der Hilfsbildsensor innerhalb einer Bildsensorebene von dem Gehäuse getragen werden.
  9. Datenerfassungsvorrichtung nach Anspruch 8, wobei die Offsetdaten innerhalb der Bildsensorebene einen Abstand zwischen dem Primärbildsensor und dem Hilfsbildsensor definieren.
  10. Datenerfassungsvorrichtung nach Anspruch 8, wobei die Offsetdaten mehrere Abstände innerhalb der Bildsensorebene definieren und jeder der mehreren Abstände einer Reichweite entspricht.
  11. Datenerfassungsvorrichtung nach Anspruch 1, wobei die Datenerfassungssteuerung konfiguriert ist, den ausgewählten Teil des Videostreams auf der Anzeige zentriert darzustellen.
  12. Verfahren in einer Datenerfassungsvorrichtung, wobei das Verfahren umfasst: Speichern von Offsetdaten in einem Speicher der Datenerfassungsvorrichtung, wobei die Offsetdaten einen Offset zwischen einem Primärsichtfeld eines Primärbildsensors und einem Hilfssichtfeld eines Hilfsbildsensors definieren; als Reaktion auf die Aktivierung eines Ausrichtmodus, Steuern des Hilfsbildsensors, um einen Videostream zu erfassen; Auswählen, gemäß den Offsetdaten, eines Teils des Videostreams, der dem Primärsichtfeld entspricht; und Darstellen des ausgewählten Teils des Videostreams auf einer Anzeige der Datenerfassungsvorrichtung.
  13. Verfahren nach Anspruch 12, ferner umfassend: Darstellen, auf der Anzeige, mit dem ausgewählten Teil des Videostreams, einer Begrenzung, die das Primärsichtfeld angibt.
  14. Verfahren nach Anspruch 12, ferner umfassend, als Reaktion auf das Darstellen des ausgewählten Teils des Videostreams auf der Anzeige: Bestimmen, dass ein Datenerfassungsvorgang initiiert wurde; Steuern des Primärbildsensors, um ein Bild zu erfassen; und Detektieren eines Zeichens in dem erfassten Bild und Decodieren von Daten von dem Zeichen.
  15. Verfahren nach Anspruch 14, ferner umfassend: Erhalten von Offsetaktualisierungsdaten; und Aktualisieren der Offsetdaten gemäß den Offsetaktualisierungsdaten.
  16. Verfahren nach Anspruch 15, ferner umfassend: Erhalten der Offsetaktualisierungsdaten durch Detektieren eines Orts eines Punkts in dem Videostream, der von einem Emitter der Datenerfassungsvorrichtung projiziert wird; und Aktualisieren der Offsetdaten basierend auf einem Abstand zwischen dem Ort des Punkts und einem Zentrum des ausgewählten Teils des Videostreams.
  17. Verfahren nach Anspruch 15, ferner umfassend das Erhalten der Offsetaktualisierungsdaten durch: Abrufen, für jede von mehreren vorhergehenden Datenerfassungsvorgängen, (i) einer Decodierzeit und (ii) eines Anzeigeorts innerhalb des Primärsichtfelds; und Aktualisieren der Offsetdaten durch Auswählen einer Teilmenge der Decodierzeiten und Erzeugen einer Offsetanpassung basierend auf den Zeichenorten, die der ausgewählten Teilmenge der Decodierzeiten entsprechen.
  18. Verfahren nach Anspruch 14, ferner umfassend: Bestimmen, dass der Datenerfassungsvorgang initiiert wurde, als Reaktion auf das Detektieren der Aktivierung einer Primäreingabevorrichtung der Datenerfassungsvorrichtung; und Aktivieren des Ausrichtmodus als Reaktion auf die Aktivierung einer Hilfseingabevorrichtung der Datenerfassungsvorrichtung.
  19. Verfahren nach Anspruch 12, wobei der Primärbildsensor und der Hilfsbildsensor innerhalb einer Bildsensorebene von einem Gehäuse der Datenerfassungsvorrichtung getragen werden.
  20. Verfahren nach Anspruch 19, wobei die Offsetdaten einen Abstand zwischen dem Primärbildsensor und dem Hilfsbildsensor innerhalb der Bildsensorebene definieren.
  21. Verfahren nach Anspruch 19, wobei die Offsetdaten mehrere Abstände innerhalb der Bildsensorebene definieren und jeder der mehreren Abstände einer Reichweite entspricht.
  22. Verfahren nach Anspruch 12, wobei das Darstellen des ausgewählten Teils des Videostreams das auf der Anzeige zentrierte Darstellen des ausgewählten Teils umfasst.
  23. Nicht-flüchtiges computerlesbares Medium, das computerlesbare Befehle speichert, die von einer Steuerung einer Datenerfassungsvorrichtung ausführbar sind, um die Datenerfassungsvorrichtung zu veranlassen zum: Speichern von Offsetdaten in einem Speicher der Datenerfassungsvorrichtung, wobei die Offsetdaten einen Offset zwischen einem Primärsichtfeld eines Primärbildsensors und einem Hilfssichtfeld eines Hilfsbildsensors definieren; als Reaktion auf die Aktivierung eines Ausrichtmodus, Steuern des Hilfsbildsensors, um einen Videostream zu erfassen; Auswählen, gemäß den Offsetdaten, eines Teils des Videostreams, der dem Primärsichtfeld entspricht; und Darstellen des ausgewählten Teils des Videostreams auf einer Anzeige der Datenerfassungsvorrichtung.
DE112020001758.3T 2019-04-05 2020-01-30 Vorrichtung und verfahren zur datenerfassungsausrichtungsunterstützung Pending DE112020001758T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US16/376,081 2019-04-05
US16/376,081 US10956694B2 (en) 2019-04-05 2019-04-05 Device and method for data capture aiming assistance
PCT/US2020/015894 WO2020205042A1 (en) 2019-04-05 2020-01-30 Device and method for data capture aiming assistance

Publications (1)

Publication Number Publication Date
DE112020001758T5 true DE112020001758T5 (de) 2021-12-23

Family

ID=72662979

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112020001758.3T Pending DE112020001758T5 (de) 2019-04-05 2020-01-30 Vorrichtung und verfahren zur datenerfassungsausrichtungsunterstützung

Country Status (3)

Country Link
US (2) US10956694B2 (de)
DE (1) DE112020001758T5 (de)
WO (1) WO2020205042A1 (de)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10956694B2 (en) * 2019-04-05 2021-03-23 Zebra Technologies Corporation Device and method for data capture aiming assistance
US20220187459A1 (en) * 2020-12-10 2022-06-16 Datalogic IP Tech, S.r.l. Aimer localization and triangulation in multi-sensor scanner
US11893450B2 (en) * 2021-12-06 2024-02-06 Datalogic IP Tech, S.r.l. Robust optical aimer for triangulation-based distance measurement

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7893957B2 (en) 2002-08-28 2011-02-22 Visual Intelligence, LP Retinal array compound camera system
US7967206B2 (en) 2005-08-18 2011-06-28 Intermec Ip Corp. Functional aiming system for an automatic data collection device, such as an image acquisition device
US20080073434A1 (en) * 2006-09-26 2008-03-27 Epshteyn Alan J System and method for an image decoder with feedback
US20110304693A1 (en) 2010-06-09 2011-12-15 Border John N Forming video with perceived depth
US8905314B2 (en) * 2010-09-30 2014-12-09 Apple Inc. Barcode recognition using data-driven classifier
US8274552B2 (en) 2010-12-27 2012-09-25 3Dmedia Corporation Primary and auxiliary image capture devices for image processing and related methods
US10291842B2 (en) * 2015-06-23 2019-05-14 Samsung Electronics Co., Ltd. Digital photographing apparatus and method of operating the same
US10936881B2 (en) * 2015-09-23 2021-03-02 Datalogic Usa, Inc. Imaging systems and methods for tracking objects
WO2017223242A1 (en) * 2016-06-22 2017-12-28 United States Postal Service Item tracking using a dynamic region of interest
KR102348504B1 (ko) * 2017-08-23 2022-01-10 삼성전자주식회사 복수 개의 카메라들 간의 시차를 감소시키는 방법 및 이를 지원하는 전자 장치
US10630895B2 (en) * 2017-09-11 2020-04-21 Qualcomm Incorporated Assist for orienting a camera at different zoom levels
KR102438201B1 (ko) * 2017-12-01 2022-08-30 삼성전자주식회사 사진 촬영과 관련된 추천 정보를 제공하는 방법 및 시스템
KR102661590B1 (ko) * 2018-04-03 2024-04-29 삼성전자주식회사 이미지 내에서 객체를 인식하기 위한 장치 및 방법
US10452885B1 (en) * 2018-04-17 2019-10-22 Zebra Technologies Corporation Optimized barcode decoding in multi-imager barcode readers and imaging engines
US10956694B2 (en) * 2019-04-05 2021-03-23 Zebra Technologies Corporation Device and method for data capture aiming assistance

Also Published As

Publication number Publication date
US10956694B2 (en) 2021-03-23
US20200320259A1 (en) 2020-10-08
US20220215189A1 (en) 2022-07-07
WO2020205042A1 (en) 2020-10-08

Similar Documents

Publication Publication Date Title
DE112020001758T5 (de) Vorrichtung und verfahren zur datenerfassungsausrichtungsunterstützung
DE112019002547B4 (de) System und verfahren zum bestimmen eines standortes zur platzierung eines pakets
DE112016006366T5 (de) Verfahren und systeme zur verarbeitung von punktwolkendaten mit einem linienscanner
DE102018120487A1 (de) Verfahren und vorrichtung zur kantenerkennung von auflageflächen
DE102017106509A1 (de) Abbildungsmodul und Lesegerät und Verfahren zum zügigen Einstellen von Abbildungsparameters von Abbilden zum Abbilden von über einem Bereich von Arbeitsabständen zu lesenden Zielen
DE102013108892A1 (de) Lernfähige tragbare Systeme zur optischen Zeichenerkennung und Verfahren
DE102019106277A1 (de) Bildanalysevorrichtung, -verfahren und -programm
DE112015003527T5 (de) System und Verfahren zum Steuern einer Zielbeleuchtung für ein Abbildungs-Lesegerät
EP3528609A1 (de) Ertragsvorhersage für ein kornfeld
DE112020003085T5 (de) System, Verfahren und Vorrichtung zur Kennzeichnung von Daten in aufeinanderfolgenden Rahmen
DE202013012942U1 (de) Zum Lesen mehrerer decodierbarer Zeichen konfigurierter, mobiler Computer
DE102015122116A1 (de) System und Verfahren zur Ermittlung von Clutter in einem aufgenommenen Bild
DE112019004745T5 (de) Vorrichtung und verfahren zum bestimmen einer profiltiefe
BE1029791B1 (de) System und verfahren zum detektieren der kalibrierung eines 3d- sensors
DE102020124613A1 (de) Verbesserte auswahl eines objekts von interesse für neuronale netzwerksysteme an verkaufspunken
DE102020117985A1 (de) Ein alternatives verfahren zur interaktion mit einer benutzerschnittstelle unter verwendung von standard-barcodescannern gepaart mit einem augmented reality heads -up-display
DE112019006132T5 (de) Verfahren, system und vorrichtung zur hilfsetikett-erkennung und -zuordnung
DE102013005489A1 (de) Verfahren und Vorrichtung zur automatischen Fehlerstellenerkennung bei biegeschlaffen Körpern
DE112019002006T5 (de) Dekodieren eines bestimmten strichcodes im sichtfeld eines strichcodelesers
DE112019001097T5 (de) Bildregistrierungsqualifizierung
DE112021002519T5 (de) Referenzoberflächenerkennung zur mobilen bemessung
DE102016119510B4 (de) Lernfähige tragbare Systeme zur optischen Zeichenerkennung und Verfahren
DE102020200503A1 (de) Verfahren zum Generieren von gelabelten Daten, insbesondere für das Training eines neuronalen Netzes, mittels Verbesserung initialer Label
DE112019006125T5 (de) Verfahren und vorrichtung zur dekodierung von räumlich in beziehung stehenden zeichen
BE1029610B1 (de) Systeme und Verfahren zum Verbessern einer Performanz einer trainierbaren optischen Zeichenerkennung (OCR)

Legal Events

Date Code Title Description
R012 Request for examination validly filed