DE102021115575A1 - Fokusstabilisierung eines bildgebungssystems mit einer linse mit variablem fokus - Google Patents

Fokusstabilisierung eines bildgebungssystems mit einer linse mit variablem fokus Download PDF

Info

Publication number
DE102021115575A1
DE102021115575A1 DE102021115575.4A DE102021115575A DE102021115575A1 DE 102021115575 A1 DE102021115575 A1 DE 102021115575A1 DE 102021115575 A DE102021115575 A DE 102021115575A DE 102021115575 A1 DE102021115575 A1 DE 102021115575A1
Authority
DE
Germany
Prior art keywords
image
images
calibration
focus
processor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102021115575.4A
Other languages
English (en)
Inventor
Vladimir Gurevich
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zebra Technologies Corp
Original Assignee
Zebra Technologies Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zebra Technologies Corp filed Critical Zebra Technologies Corp
Publication of DE102021115575A1 publication Critical patent/DE102021115575A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/14Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation using light without selection of wavelength, e.g. sensing reflected white light
    • G06K7/1404Methods for optical code recognition
    • G06K7/146Methods for optical code recognition the method including quality enhancement steps
    • G06K7/1465Methods for optical code recognition the method including quality enhancement steps using several successive scans of the optical code
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/10544Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum
    • G06K7/10821Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum further details of bar or optical code scanning devices
    • G06K7/10831Arrangement of optical elements, e.g. lenses, mirrors, prisms
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/002Diagnosis, testing or measuring for television systems or their details for television cameras
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B3/00Simple or compound lenses
    • G02B3/12Fluid-filled or evacuated lenses
    • G02B3/14Fluid-filled or evacuated lenses of variable focal length
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/10544Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum
    • G06K7/10792Special measures in relation to the object to be scanned
    • G06K7/10801Multidistance reading
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/10544Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum
    • G06K7/10792Special measures in relation to the object to be scanned
    • G06K7/10801Multidistance reading
    • G06K7/10811Focalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/10544Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum
    • G06K7/10821Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum further details of bar or optical code scanning devices
    • G06K7/10881Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum further details of bar or optical code scanning devices constructional details of hand-held scanners
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/14Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation using light without selection of wavelength, e.g. sensing reflected white light
    • G06K7/1404Methods for optical code recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/673Focus control based on electronic image sensor signals based on contrast or high frequency components of image signals, e.g. hill climbing method

Abstract

Ein Verfahren und eine Vorrichtung zur Fokusstabilisierung eines Bildgebungssystems mit Linsen mit variablem Fokus werden hierin offenbart. Ein Beispiel für ein Bildgebungssystem umfasst eine Linse mit variablem Fokus (VF) zum Abbilden eines Objekts von Interesse (OOI), eine Steuerung, die so konfiguriert ist, dass sie eine Spannung an die VF-Linse liefert, einen Bildgebungssensor und einen Prozessor. Der Prozessor erhält einen Kalibrierungsparameter, und das Bildgebungssystem erhält eine Vielzahl von Bildern des OOI. Der Prozessor identifiziert einen Bereich von Interesse eines oder mehrerer der Bilder, und aus den Bildern wird ein Ausrichtungsparameter bestimmt. Aus einem Vergleich des ermittelten Ausrichtungsparameters mit dem erhaltenen Kalibrierungsparameter bestimmt der Prozessor dann einen Abstimmungsparameter. Die Steuerung stimmt die VF-Linse entsprechend dem ermittelten Abstimmungsparameter ab.

Description

  • HINTERGRUND DER ERFINDUNG
  • Vorrichtungen wie Strichcode-Scanner werden in verschiedenen Inventarisierungsanwendungen eingesetzt. In einigen Konfigurationen verwenden diese Strichcode-Scanner interne Autofokus-Kameras, um Bilder von Strichcodes und anderen scanbaren Zeichen zu erfassen. Elektrisch abstimmbare Linsen mit variablem Fokus ermöglichen die automatische Fokussierung eines Strichcode-Scanners auf Objekte von Interesse (OOI) in Anwendungen der maschinellen Bildverarbeitung und in Strichcode-Scananwendungen. Ein Nachteil von elektrisch abstimmbaren Linsen mit variablem Fokus ist, dass sie kein Rückmeldungssignal liefern, das den aktuellen Fokus oder die aktuelle optische Leistung anzeigt, die sich im Laufe der Zeit aufgrund von Schwankungen der Umgebungstemperatur, Alterung der Linse, Spannungsabweichung und anderen Faktoren ändern kann. Die Änderung des Kamerafokus führt zu Fehleinschätzungen oder dazu, dass eine Autofokus-Kamera nicht in der Lage ist, einen OOI in einem bestimmten Abstand oder Entfernungsbereich zu scannen. Obwohl viele Autofokus-Kamerasysteme flexibel genug sind, um in verschiedenen Anwendungen eingesetzt zu werden, kommt es zu erheblichen Verzögerungen im Betrieb, da die Kamerasysteme auf verschiedene Objekte und unterschiedliche Entfernungen fokussieren. Ändert sich beispielsweise die Position eines OOI in einem Sichtfeld, wie z. B. auf einem Förderband, ist ein autofokussierender Scanner oft nicht in der Lage, das OOI von Objekten im Hintergrund und im Vordergrund zu unterscheiden. Darüber hinaus erfordert die Notwendigkeit einer genauen und schnellen Fokussierung auf unterschiedliche Objekte einen erheblichen Mehraufwand bei der Verarbeitung und bei den mechanischen Komponenten dieser Kamerasysteme, was insgesamt die Kosten erhöht.
  • Autofokus-Kameras haben in der Regel eine viel größere Linsenöffnung als Festfokus-Systeme. Daher haben Autofokus-Kameras bekanntermaßen eine geringere Schärfentiefe bei einer bestimmten Fokuseinstellung. Bei herkömmlichen Scananwendungen ist die geringere Schärfentiefe kein Problem, da das System auf einen Strichcode fokussiert. In einigen Anwendungsbereichen, insbesondere beim Strichcode-Scannen im Freihandbetrieb, hat ein herkömmliches Autofokus-Kamerasystem in der Regel nicht genug Zeit, um schnell genug zu fokussieren, um ein Bild mit ausreichender Bildschärfequalität zu erfassen, das eine genaue Dekodierung eines Strichcodes ermöglicht. Im Freihandbetrieb wischt, zieht oder bewegt der Benutzer oder ein Fördersystem Strichcode-Objekte vor dem Strichcode-Scanner mit sehr hohen Scanraten, die manchmal (wenn nicht sogar oft) schneller sind als die Autofokuszeit des Systems. Darüber hinaus kann der Arbeitsabstand im Freihandbetrieb groß sein, d. h. der Abstandsbereich zwischen dem Strichcodeleser und der Ebene des zu scannenden Strichcodes kann von Objekt zu Objekt stark variieren. Je größer die Arbeitsabstände sind, desto länger dauert es, bis das Autofokus-Kamerasystem über den gesamten Arbeitsabstand fokussiert.
  • Dementsprechend besteht ein Bedarf an Fokusstabilisierungs-Bildgebungssystemen, die für Strichcodeleser einsetzbar sind.
  • BESCHREIBUNG
  • In einer Ausführungsform ist die vorliegende Erfindung ein Bildgebungsleser. Der Bildgebungsleser umfasst eine Linse mit variablem Fokus, die so konfiguriert ist, dass sie Licht von einem Objekt von Interesse empfängt, um das Objekt von Interesse abzubilden; eine Steuerung, die kommunikativ mit der Linse mit variablem Fokus gekoppelt und so konfiguriert ist, dass sie eine Spannung an die Linse mit variablem Fokus liefert; einen Bildgebungssensor, der so konfiguriert ist, dass er ein Bild des Objekts empfängt und ein elektrisches Signal erzeugt, das für das empfangene Bild indikativ ist; und einen Prozessor und ein computerlesbares Medium. Das computerlesbare Medium speichert maschinenlesbare Anweisungen, die, wenn sie ausgeführt werden, das Fokusstabilisierungs-Bildgebungssystem veranlassen zum: Erhalten eines Kalibrierungsparameterwerts durch den Prozessor; Erhalten, durch das Bildgebungssystem, einer ersten Vielzahl von Bildern des Objekts von Interesse, wobei jedes Bild der ersten Vielzahl von Bildern durch das Bildgebungssystem mit einem unterschiedlichen optischen Fokus erhalten wird; Identifizieren, durch den Prozessor, eines Bereichs von Interesse in mindestens einem Bild der ersten Vielzahl von Bildern zu identifizieren, wobei der Bereich von Interesse ein Zeichen enthält, das für das Objekt von Interesse indikativ ist; Analysieren, durch den Prozessor, jedes der Bilder der ersten Vielzahl von Bildern in dem Bereich von Interesse; Bestimmen eines Satzes von Bildqualitätswerten aus den analysierten Bildern durch den Prozessor, wobei jeder der Bildqualitätswerte des Satzes von Bildqualitätswerten einem jeweiligen analysierten Bild in der ersten Vielzahl von Bildern entspricht; Bestimmen, durch den Prozessor, eines aktuellen Ausrichtungsparameterwertes aus mindestens einem der Bildqualitätswerte des Satzes von Bildqualitätswerten; Bestimmen eines Abstimmungsparameterwertes durch den Prozessor durch Vergleichen des aktuellen Ausrichtungsparameterwertes mit dem Kalibrierungsparameterwert; und Abstimmen des optischen Fokus des Bildgebungssystems durch die Steuerung gemäß dem Abstimmungsparameter.
  • In einer Variante dieser Ausführungsform kann das Bildgebungssystem, um den Kalibrierungsparameterwert zu erhalten, ferner so konfiguriert sein, dass es durch das Bildgebungssystem eine Vielzahl von Kalibrierungsbildern eines Objekts von Interesse erhält, wobei jedes Bild der Vielzahl von Kalibrierungsbildern durch das Bildgebungssystem bei einem unterschiedlichen optischen Fokus erhalten wird; durch den Prozessor einen Bereich von Interesse in mindestens einem Bild der Vielzahl von Kalibrierungsbildern identifiziert, wobei der Bereich von Interesse ein Zeichen enthält, das für das Objekt von Interesse indikativ ist; durch den Prozessor jedes der Bilder der Vielzahl von Kalibrierungsbildern in dem Bereich von Interesse analysiert wird; durch den Prozessor ein Satz von Kalibrierungsbildqualitätswerten aus den analysierten Bildern bestimmt wird, wobei jeder der Kalibrierungsbildqualitätswerte des Satzes von Kalibrierungsbildqualitätswerten einem jeweiligen Bild in der Vielzahl von Kalibrierungsbildern entspricht; und durch den Prozessor ein Kalibrierungsparameterwert aus mindestens einem der Kalibrierungsbildqualitätswerte des Satzes von Kalibrierungsbildqualitätswerten bestimmt wird.
  • In weiteren Variationen der aktuellen Ausführungsformen umfasst der Kalibrierungsparameterwert mindestens eines von einem Schärfewert, einem Kontrastwert oder einem Wert für den räumlichen Frequenzgehalt, und der aktuelle Ausrichtungsparameterwert mindestens eines von einem Bildschärfewert, einem Kontrastwert oder einem Wert für den räumlichen Frequenzgehalt. In einer anderen Variante der aktuellen Ausführungsformen wird der Kalibrierungsparameterwert durch ein Verhältnis zwischen mindestens zwei der Bildqualitätswerte des Satzes von Kalibrierungsbildqualitätswerten bestimmt; und der aktuelle Ausrichtungsparameterwert wird durch ein Verhältnis zwischen mindestens zwei der Bildqualitätswerte des Satzes von Bildqualitätswerten der ersten Vielzahl von Bildern bestimmt.
  • In einer anderen Ausführungsform ist die vorliegende Erfindung ein computerimplementiertes Verfahren zur Fokusstabilisierung eines Bildgebungssystems. Das Verfahren umfasst das Erhalten eines Kalibrierungsparameterwerts durch einen Prozessor; das Erhalten einer ersten Vielzahl von Bildern eines Objekts von Interesse durch das Bildgebungssystem, wobei jedes Bild der ersten Vielzahl von Bildern durch das Bildgebungssystem bei einem unterschiedlichen optischen Fokus erhalten wird; das Identifizieren eines Bereichs von Interesse in mindestens einem Bild der ersten Vielzahl von Bildern durch den Prozessor, wobei der Bereich von Interesse ein Zeichen enthält, das für das Objekt von Interesse indikativ ist; das Analysieren jedes der Bilder der ersten Vielzahl von Bildern in dem Bereich von Interesse durch den Prozessor; das Bestimmen eines Satzes von Bildqualitätswerten aus den analysierten Bildern durch den Prozessor, wobei jeder der Bildqualitätswerte des Satzes von Bildqualitätswerten einem jeweiligen analysierten Bild in der ersten Vielzahl von Bildern entspricht; das Bestimmen eines aktuellen Ausrichtungsparameterwertes aus mindestens einem der Bildqualitätswerte des Satzes von Bildqualitätswerten durch den Prozessor; das Bestimmen eines Abstimmungsparameterwertes durch den Prozessor durch Vergleichen des Ausrichtungsparameterwertes mit dem Kalibrierungsparameterwert; und das Abstimmen des Bildgebungssystems durch den Prozessor gemäß dem Abstimmungsparameter.
  • Figurenliste
  • Die beigefügten Figuren, in denen gleiche Bezugszeichen identische oder funktional ähnliche Elemente in den einzelnen Ansichten bezeichnen, sind zusammen mit der nachfolgenden detaillierten Beschreibung in die Offenbarung inkorporiert und bilden einen Bestandteil der Offenbarung und dienen dazu, hierin beschriebene Ausführungsformen von Konzepten, die die beanspruchte Erfindung umfassen, weiter zu veranschaulichen und verschiedene Prinzipien und Vorteile dieser Ausführungsformen zu erklären.
    • 1 zeigt eine Scanstation mit variablem Fokus gemäß einer Ausführungsform der vorliegenden Erfindung.
    • 2 ist ein beispielhaftes Blockdiagramm eines Bildgebungslesers der Scanstation mit variablem Fokus von 1 gemäß einer Ausführungsform der vorliegenden Erfindung.
    • 3 zeigt eine perspektivische Ansicht einer weiteren Scanstation mit variablem Fokus und variablen bestimmten Bildgebungsebenen gemäß einer Ausführungsform der vorliegenden Erfindung.
    • 4 ist ein Flussdiagramm, das ein Verfahren zur Durchführung einer Fokusstabilisierung mit Durchziehscannen darstellt, das in Systemen mit einer geringen Bildschärfetoleranz implementiert werden kann.
    • 5A ist ein Diagramm einer Schärfebewertung gegenüber einer Steuerspannung, das die Fokusverschiebung eines Bildgebungslesers darstellt.
    • 5B ist ein Diagramm für eine Schärfebewertung gegenüber einer Steuerspannung, das eine Fokuskorrektur an einem Bildgebungsleser darstellt, gemäß dem Verfahren von 4.
    • 6 ist ein Flussdiagramm, das ein Verfahren zur Durchführung einer Fokusstabilisierung mit Durchziehscannen darstellt, das in Systemen implementiert werden kann, die eine 100%ige Dekodierungseffizienz erfordern.
    • 7A ist ein Diagramm einer Schärfebewertung gegenüber einer Steuerspannung, das die Fokusverschiebung eines Bildgebungslesers darstellt.
    • 7B ist ein Diagramm für eine Schärfebewertung gegenüber einer Steuerspannung, das eine Fokuskorrektur an einem Bildgebungsleser darstellt, gemäß dem Verfahren von 6.
    • 8 zeigt ein Verfahren 800 zum Erhalten eines Kalibrierungsparameterwerts für die Durchführung der hierin beschriebenen Fokusstabilisierung.
  • Fachleute werden erkennen, dass Elemente in den Figuren der Einfachheit und Klarheit halber dargestellt sind und nicht notwendigerweise maßstabsgetreu gezeichnet wurden. Zum Beispiel können die Dimensionen einiger der Elemente in den Figuren relativ zu anderen Elementen übertrieben sein, um das Verständnis von Ausführungsformen der vorliegenden Erfindung zu verbessern.
  • Die Vorrichtungs- und Verfahrenskomponenten wurden, wo es angemessen ist, durch herkömmliche Symbole in den Zeichnungen dargestellt, die nur jene spezifischen Details zeigen, die zum Verständnis der Ausführungsformen der vorliegenden Erfindung relevant sind, um somit die Offenbarung nicht mit Einzelheiten zu verdecken, die für die Fachleute auf dem Gebiet, die auf die vorliegende Beschreibung zurückgreifen, ohne weiteres ersichtlich sind.
  • DETAILLIERTE BESCHREIBUNG
  • Elektrisch gesteuerte Linsen mit variablem Fokus (VF) sind bequeme, stromsparende Lösungen für den schnellen Autofokus (AF) auf Objekte von Interesse (OOI) in der maschinellen Bildverarbeitung und bei Strichcode-Anwendungen. Wenn sich jedoch die Lage der Objekte von Interesse im Sichtfeld ändert (z. B. Teile, die sich auf einem Förderband bewegen, eine Person, die ein Objekt über das Sichtfeld eines Scanners bewegt, usw.), kann ein AF-Bildgebungssystem möglicherweise nicht in der Lage sein, das OOI zu bestimmen, und fokussiert möglicherweise im Hintergrund oder Vordergrund der gewünschten Fokusebene. Bei solchen Anwendungen ist es wünschenswert, die Fokusebene konstant zu halten. VF-Linsen liefern keine Rückmeldung über die aktuelle optische Leistung oder den Fokus, der sich nach der Ersteinstellung aufgrund von Schwankungen der Umgebungstemperatur, Alterung und anderen Faktoren ändern kann. Das vorgeschlagene System und Verfahren ermöglicht die Fokusstabilisierung eines Bildgebungssystems, das eine VF-Linse verwendet. Die vorgestellten Verfahren sorgen dafür, dass die von einem VF-Bildgebungssystem aufgenommenen Bilder innerhalb einer Bildschärfetoleranz bleiben, und ermöglichen so die Implementierung einer VF-Technologie für bequeme elektrische Fokusanpassungen, was insbesondere bei kompakten Bildgebungssystemen und schwer zugänglichen Orten und Scanumgebungen von Vorteil ist.
  • Das vorgestellte System und Verfahren soll das Bild einer VF-Linse stabilisieren, indem es Bildsequenzen mit mehreren Fokusebenen erzeugt. In einigen Ausführungsformen werden drei Fokusebenen verwendet, eine nahe, eine mittlere und eine ferne Fokusebene, wobei das System über einen nahen, mittleren und fernen Fokus verfügt. Der mittlere Fokus wird bei der Kameraeinrichtung auf eine maximale Bildkantenschärfe eines OOI eingestellt. Die Entfernungen für den Nah- und den Fernfokus werden ebenfalls während der Kameraeinrichtung auf der Grundlage einer Verringerung der Kantenschärfe des OOI-Bildes im Vergleich zum Bild mit mittlerem Fokusframe eingestellt. In Ausführungsformen führen die Nah- und Fernfokusabstände zu Bildern mit einer um 20-50 % verringerten Kantenschärfe. In Ausführungsformen kann auch ein anderer Parameter als die Bildschärfe zur Bestimmung der Nah-, Mittel- und Fernfokusabstände verwendet werden. Allgemeiner ausgedrückt kann der Parameter, der zur Bestimmung des optimalen (d. h. mittleren) Fokus verwendet wird, hierin als „Bildqualitätswert“ für ein gegebenes Bild bezeichnet werden. In Ausführungsformen kann der Bildqualitätswert eines oder mehrere umfassen von: einem Schärfewert, einem Kontrastwert, einem Wert für den räumlichen Frequenzgehalt, einem Rauschmesswert, einem Wert für den dynamischen Bereich, einer Messung der Bildverzerrung, einem Unschärfewert, einem anderen mit einem Bild oder der Bildqualität verbundenen Wert oder einem aus einer Kombination dieser Werte abgeleiteten Wert. Darüber hinaus kann das beschriebene System und Verfahren einen oder mehrere der ermittelten Bildqualitätswerte verwenden, um einen Abstimmungsparameter zu bestimmen. Eine Steuerung kann dann den Abstimmungsparameter verwenden, um eine VF-Linse so zu steuern, dass eine etwaige Brennweitenabweichung der VF-Linse verringert wird und der Fokus auf oder annähernd in der mittleren Fokusebene bleibt. In einigen Ausführungsformen kann ein Bereich von Fokuswerten, der innerhalb einer Toleranz eines optimalen Fokuswertes liegt, für die Dekodierung von Zeichen und die Identifizierung eines OOI akzeptabel sein. Beispielsweise kann die mittlere Fokusebene bei einer Brennweite von 2 ± 1 cm, 4 ± 2 cm, 5 ± 3 cm, 8 ± 4 cm, 10 ± 5 cm oder einer anderen Brennweite mit einer Brennweitentoleranz liegen. In bestimmten Ausführungsformen kann die Toleranz um eine Fokusebene anwendungsabhängig sein, weshalb es von Vorteil sein kann, wenn die Fokustoleranz von einem Bediener eingegeben wird.
  • 1 zeigt eine beispielhafte Umgebung, in der Ausführungsformen der vorliegenden Erfindung, einschließlich der hierin beschriebenen und dargestellten Verfahren, implementiert werden können. Im vorliegenden Beispiel wird die Umgebung in Form einer Scanstation 100 bereitgestellt, in der Waren 102 über oder entlang einer Scanfläche 104 bewegt und von einem Bildgebungsleser 106 gescannt werden, um die Waren 102 zu identifizieren. In einigen Ausführungsformen handelt es sich bei der Scanstation um eine POS (Point-of-Sale) -Station, die über ein Computersystem und eine nicht dargestellte Schnittstelle zum optischen Scannen von Waren und zur Identifizierung der Waren und Eigenschaften der Waren zur Durchführung einer Transaktion verfügen kann. In einigen Ausführungsformen ist die Scanstation Teil eines Warenauslieferungssystems, bei dem die Waren durch die Scanfläche oder über die Scanfläche befördert werden, um die Auslieferung der Waren zu überwachen und zu steuern, z. B. den Versand von Waren aus einer Einrichtung oder den Empfang von versendeten Waren in einer Einrichtung.
  • Die Scanfläche 104 kann eine stationäre Fläche sein, so dass die Waren 102 manuell relativ zur Fläche 104 bewegt werden. In einigen Ausführungsformen kann die Scanfläche 104 die Waren 102 bewegen oder durch andere automatische Mittel bewegt werden. In anderen Ausführungsformen kann die Scanfläche 104 eine sich bewegende Fläche sein, z. B. durch ein Fördersystem wie ein Förderband, ein pneumatisches Förderband, ein Radförderer, ein Rollenförderer, ein Kettenförderer, ein Flachförderer, ein Senkrechtförderer, ein Wagenförderer oder ein anderes Fördermittel. In jedem Fall können die Waren 102 kontinuierlich relativ zum Bildgebungsleser 106 bewegt werden, so dass sich die Waren 102 ständig durch einen Arbeits- (oder Scan-) Bereich 108 der Station 100 bewegen. In einigen Beispielen bewegen sich die Waren 102 in diskreter Weise, wobei die Waren 102 zumindest einen Teil der Zeit auf der Oberfläche 104 relativ zum Bildgebungsleser 106 für eine Zeitspanne fixiert bleiben, die ausreicht, um ein oder mehrere Bilder von den Waren 102 zu erfassen.
  • Die Waren 102 können sich entlang verschiedener, im Wesentlichen linearer Pfade 110A, 110B usw. bewegen, wobei jeder Pfad den Arbeitsbereich 108 durchquert, jedoch in einem anderen Abstand vom Bildgebungsleser 106. Die Pfade 110A, 110B dienen lediglich der Veranschaulichung, da die Waren 102 die Oberfläche 104 in beliebigem Abstand zum Bildgebungsleser 106 durchqueren können.
  • In einigen beispielhaften Ausführungsformen umfasst der Bildgebungsleser 106 ein Bildgebungssystem mit variablem Fokus, bei dem der Leser 106 kontinuierlich nach einem Objekt von Interesse (OOI) (z. B. der Ware 102) in seinem Sichtfeld sucht, bis das Objekt oder ein Bereich von Interesse des OOI (z. B. ein Strichcode, eine Seriennummer, andere Identifikatoren usw.) lokalisiert und dann ausreichend in den Fokus des Bildgebungssensors gebracht ist. Bei zumindest einigen Ausführungsformen der vorliegenden Erfindung scannt der Bildgebungsleser das Objekt (z. B. die Waren 102) nur in diskreten, festgelegten Abständen, die den Bildebenen des Bildgebungslesers 106 entsprechen. Anstelle eines kontinuierlichen Scannens nimmt der Bildgebungsleser 106 schneller Bilder in einer oder mehreren vorbestimmten Bildgebungsebenen auf. Die Bildgebungsebenen sind relativ zum Bildgebungsleser 106 definiert. Zur Veranschaulichung fallen in 1 die Bildgebungsebenen zufällig mit den Pfaden (z. B. 110A, 110B usw.) zusammen, auf denen sich die Waren 102 bewegen. Es ist jedoch wahrscheinlicher, dass die Bildgebungsebenen nicht genau mit dem Scanpfad der Waren übereinstimmen. Während in 1 der Bildgebungsleser 106 seitlich von den Waren 102 dargestellt ist, kann der Bildgebungsleser 106 in Ausführungsformen direkt über den Waren 102, über den Waren 102 vor oder hinter den Waren 102, die für die Abbildung des OOI konfiguriert sind, oder an einer anderen Position zur Abbildung eines Bereichs von Interesse der Waren 102 oder eines OOI positioniert sein. Der Bildgebungsleser 106 nimmt Bilder in jeder der Bildgebungsebenen auf, wobei die aufgenommenen Bilder der Ware im Fokus variieren werden, je nachdem, wo sich die Ware (und ihr Scanpfad) relativ zum Bildgebungsleser 106 befindet. Das heißt, dass die Ware in einigen Bildgebungsebenen stärker fokussiert erscheint als in anderen. Indem der Bildgebungsleser 106 Bilder der Waren nur in bestimmten Bildebenen erfasst, kann er die Waren 102 viel schneller identifizieren als ein herkömmliches Autofokussystem. Der Bildgebungsleser 106 kann so konfiguriert werden, dass der Autofokusbetrieb deaktiviert wird und stattdessen Bilder in bestimmten Bildgebungsebenen aufgenommen werden, unabhängig davon, welchen die Ware durchläuft, und ohne dass die Ware ständig erkannt und automatisch fokussiert werden muss. Dadurch wird der Stromverbrauch des Bildgebungslesers 106 erheblich reduziert. Wie bereits beschrieben, können sich elektrisch abstimmbare AF-Linse aufgrund von Umgebungs- und anderen Faktoren in der Fokusebene verschieben, was zu einer Entfokussierung der Bilder von OOI führt und die Wirksamkeit des VF-Bildgebungslesers 106 verringert. Wie hier weiter ausgeführt, kann die Identifizierungs- und Scaneffizienz erhöht werden, wenn der Bildgebungsleser 106 die Fokusebene oder -ebenen der Waren 102, die den Arbeitsbereich 102 des Bildgebungslesers 106 durchqueren, aktiv stabilisiert. Die offenbarten Systeme und Verfahren ermöglichen eine höhere Effizienz und damit einen reduzierten Zeitaufwand für das Lesen von Zeichen auf einem OOI, z. B. zur Identifizierung eines Zeichens oder eines anderen Strichcodes auf der Ware. Mindestens einige der hierin beschriebenen Scanparameter und/oder Kalibrierungsparameter können auf einem Server 112 gespeichert werden, der kommunikativ mit dem Bildgebungsleser 106 verbunden ist, und der Bildgebungsleser kann die Scanparameter oder Kalibrierungsparameter vom Server oder einem anderen Speicher oder einer anderen Form der Speicherung abrufen.
  • 2 zeigt ein Blockverbindungsdiagramm des Systems 200 mit einem Bildgebungsleser 106. In 2 kann der Bildgebungsleser 106 über einen oder mehrere Prozessoren und einen oder mehrere Speicher verfügen, in denen computerausführbare Anweisungen gespeichert sind, um Operationen im Zusammenhang mit den hierin beschriebenen Systemen und Verfahren durchzuführen. Der Bildgebungsleser 106 umfasst eine Netzwerk-Eingangs-/Ausgangs (E/A) -Schnittstelle zum Anschluss des Lesers an den Server 112, ein Bestandsverwaltungssystem (nicht dargestellt) und andere Bildgebungsleser. Diese Vorrichtungen können über jedes geeignete Kommunikationsmittel angeschlossen werden, einschließlich drahtgebundener und/oder drahtloser Verbindungskomponenten, die einen oder mehrere Kommunikationsprotokollstandards wie z. B. TCP/IP, WiFi (802.11b), Bluetooth, Ethernet oder andere geeignete Kommunikationsprotokolle oder -standards implementieren. Der Bildgebungsleser 106 umfasst außerdem ein Display, auf dem Informationen wie visuelle Anzeigen, Anweisungen, Daten und Bilder für den Benutzer angezeigt werden.
  • In einigen Ausführungsformen kann sich der Server 112 (und/oder andere angeschlossene Vorrichtungen) in derselben Scanstation 100 befinden. In anderen Ausführungsformen kann sich der Server 112 (und/oder andere angeschlossene Vorrichtungen) an einem entfernten Standort befinden, z. B. auf einer Cloud-Plattform oder einem anderen entfernten Standort. In wieder anderen Ausführungsformen kann der Server 112 (und/oder andere angeschlossene Vorrichtungen) aus einer Kombination von lokalen und Cloud-basierten Computern aufgebaut sein.
  • Der Server 112 ist so konfiguriert, dass er Computerbefehle ausführt, um die mit den hierin beschriebenen Systemen und Verfahren verbundenen Operationen durchzuführen. Der Server 112 kann Software für Unternehmensdienste implementieren, die beispielsweise RESTful-API-Dienste (Representational State Transfer), Warteschlangendienste für Nachrichten und Ereignisdienste umfassen, die von verschiedenen Plattformen oder Spezifikationen bereitgestellt werden können, z. B. die J2EE-Spezifikation, die von der Oracle WebLogic Server-Plattform, der JBoss-Plattform oder der IBM WebSphere-Plattform usw. implementiert wird. Andere Technologien oder Plattformen, wie Ruby on Rails, Microsoft .NET oder ähnliche, können ebenfalls verwendet werden.
  • Im gezeigten Beispiel umfasst der Bildgebungsleser 106 eine Lichtquelle 202, bei der es sich um eine sichtbare Lichtquelle (z. B. eine LED, die bei 640 nm emittiert) oder eine Infrarotlichtquelle (z. B. bei oder um 700 nm, 850 nm oder 940 nm) handeln kann, die in der Lage ist, einen Beleuchtungsstrahl zu erzeugen, der den Arbeitsbereich 108 für die Bildgebung über einen gesamten Arbeitsabstand dieses Arbeitsbereichs 108 beleuchtet. Das heißt, die Lichtquelle 202 ist so konfiguriert, dass sie zumindest den gesamten Arbeitsbereich 108 ausleuchtet. Die Beleuchtungsintensität der Lichtquelle 202 und die Empfindlichkeit eines Bildgebungslesers können die weitere und die kürzeste Entfernung (die die Entfernung des Arbeitsbereichs, auch als Scanbereich bezeichnet, definieren) bestimmen, über die eine Ware gescannt und ein Strichcode auf der Ware dekodiert werden kann. Die Lichtquelle 202 wird von einem Prozessor gesteuert und kann eine kontinuierliche Lichtquelle, eine intermittierende Lichtquelle oder eine signalgesteuerte Lichtquelle sein, wie z. B. eine Lichtquelle, die von einem Objekterkennungssystem ausgelöst wird, das mit dem Bildgebungsleser 106 gekoppelt ist (oder als Teil davon gebildet wird, jedoch nicht gezeigt wird). Die Lichtquelle kann eine omnidirektionale Lichtquelle sein.
  • Der Bildgebungsleser 106 umfasst ferner eine Bildgebungsanordnung 204 mit einem Bildgebungssensor 206, der so positioniert ist, dass er Bilder eines beleuchteten Ziels, wie z. B. der Waren 102 oder eines anderen OOI, innerhalb des Arbeitsbereichs 108 erfasst. In einigen Ausführungsformen ist der Bildsensor 206 aus einem oder mehreren CMOS-Bildgebungsarrays aufgebaut. Ein optisches Element 208 mit variabler Fokussierung ist zwischen dem Bildgebungssensor 206 und einem Fenster 210 des Bildgebungslesers 106 angeordnet. Eine Bildgebungssteuerung 214 mit variablem Fokus ist mit dem optischen Element 208 mit variabler Fokussierung gekoppelt und steuert das Element 208, um eine oder mehrere diskrete Bildgebungsebenen für den Bildgebungssensor zu definieren. Die eine oder mehreren diskreten Bildgebungsebenen können als eine oder mehrere mittlere Fokusebenen betrachtet werden, wie hierin beschrieben. Wie bereits beschrieben, ist eine mittlere Fokusebene die Bildgebungsebene, von der erwartet wird, dass sie den größten Wert für die Bildkantenschärfe ergibt.
  • Im gezeigten Beispiel ist die Steuerung 214 über eine Aktuator-Steuereinheit 215 mit dem optischen Element 208 mit variabler Fokussierung gekoppelt und umgeht eine optionale Autofokus-Steuereinheit 217, wodurch eine schnellere Bilderfassung in den gewünschten Bildgebungsebenen ermöglicht wird, indem die langsameren Autofokus-Steuereinheiten herkömmlicher Systeme übersteuert werden. In beispielhaften Ausführungsformen verfügt der Bildgebungsleser 106 nicht über eine Autofokus-Steuereinheit oder eine Autofokus-Funktion. Der Aktuator 215 kann einen Fokussierungslinsenantrieb, einen Verschiebungslinsenantrieb, einen Vergrößerungslinsenantrieb, einen Blendenantrieb, einen Winkelgeschwindigkeitsantrieb, einen Schwingspulenmotorantrieb und/oder andere Antriebseinheiten zur Steuerung des Betriebs des optischen Elements 208 umfassen, das selbst mehrere Linsen, Linsenstufen usw. umfassen kann.
  • Das optische VF-Element 208 kann ein verformbares Linsenelement, eine Flüssigkeitslinse, eine T-Linse oder ein anderes optisches VF-Element sein. In einigen Ausführungsformen umfasst das optische Element einen Schwingspulenaktuator im Aktuator 215, der von der Steuerung 214 gesteuert wird. In beispielhaften Ausführungsformen, wie z. B. bei einigen Strichcode-Scananwendungen, hat das optische VF-Element 208 eine Apertur von 1,5 mm bis 3 mm. In einigen Ausführungsformen ist die Bildstufe 204 als Teil einer VF-Kamerabaugruppe implementiert.
  • In beispielhaften Ausführungsformen ist die VF-Bildgebungssteuerung 214 so konfiguriert, dass sie auf einen oder mehrere Scanparameter 216 zugreift, die in dem Bildgebungsleser 106, auf dem Server 112 oder auf einem anderen Medium gespeichert sind. Aus diesen Scanparametern 216 bestimmt die Steuerung 214 die Anzahl der diskreten mittleren Bildgebungsebenen, in denen der Bildgebungsleser 106 nach Bildern des Ziels oder eines OOI (wie z. B. Waren 102) sucht und diese erfasst. Die Steuerung 214 bestimmt ferner den Abstand jeder dieser mittleren Bildgebungsebenen, gemessen vom Bildgebungssensor 206. Die Steuerung 214 kann zum Beispiel die Anzahl und den Abstand der mittleren Bildgebungsebenen so bestimmen, dass der gesamte Arbeitsbereich 108 von fünf (5) oder weniger Bildgebungsebenen abgedeckt wird. In einigen Beispielen kann die Anzahl der mittleren Bildgebungsebenen in Abhängigkeit von den Scanparametern 216 drei (3) oder weniger betragen.
  • Die Bildgebungssteuerung 214 wandelt diese ermittelten mittleren Bildgebungsebenen und mittleren Fokusabstände in Parameter oder Anweisungen für die Steuerung des Aktuators 215 zur Steuerung des optischen Elements 208 mit variablem Fokus um.
  • In beispielhaften Ausführungsformen verfügt die Steuerung 214 für die Bildgebung mit variablem Fokus über einen Freihandmodus, in dem das optische Element 208 mit variablem Fokus und der Bildgebungssensor 206 so gesteuert werden, dass sie ein Bild des Ziels in jeder der mittleren Bildgebungsebenen innerhalb des Arbeitsbereichs in geordneter Weise erfassen, um einen Satz erfasster Bilder des Ziels zu bilden, die im Speicher gespeichert werden. In einigen Ausführungsformen ist diese geordnete Art und Weise eine sequentielle Reihenfolge, z. B. von der nächstgelegenen mittleren Bildgebungsebene zur am weitesten entfernten oder umgekehrt, gemessen vom Bildgebungssensor 206.
  • In einigen beispielhaften Ausführungsformen ist der Bildgebungsleser 106 in einem handgehaltenen Strichcodescanner implementiert, wie in 7 dargestellt. Wenn der handgehaltene Scanner in einer stationären Halterung platziert wird und dadurch eine aufrechte Scanposition einnimmt, kann der handgehaltene Scanner diese Platzierung automatisch erkennen und in den Freihandmodus wechseln. In anderen beispielhaften Ausführungsformen ist der Bildgebungsleser 106 als Mehrebenenscanner implementiert, z. B. als bioptischer Scanner, wie in 3 dargestellt.
  • In beispielhaften Ausführungsformen wird das optische Element 208 mit variablem Fokus diskret so gesteuert, dass es zu jeder mittleren Bildgebungsebene springt, wodurch ein Schwenkvorgang zwischen den Bildgebungsebenen vermieden wird.
  • In bestimmten Ausführungsformen kann der Bildgebungssensor 112 ein ladungsgekoppeltes Gerät oder ein anderes Festkörperbildgerät sein. Der Bildgebungssensor 112 kann ein Ein-Megapixel-Sensor mit Pixeln von etwa drei Mikrometern Größe sein. In Ausführungsformen umfasst der Bildgebungssensor 3-Millimeter-Pixel mit insgesamt etwa 2 Megapixeln, was zu einer Gesamtbreite und -länge des Bildgebungssensors von 3 Mikrometern in jeder Dimension führt. In einigen Ausführungsformen ist die Linsenbaugruppe so konfiguriert, dass sie Bilder mit einer Modulationsübertragungsfunktion von 40 % bei 160 Linienpaaren pro Millimeter erfasst.
  • 3 zeigt eine beispielhafte Scanstation 300 mit einem Bildgebungsleser 302 in Form eines bioptischen Scanners mit einem Gehäuse 304 und einem ersten Scanfenster 306, hinter dem sich eine Beleuchtungsquelle (nicht dargestellt) und eine Bildgebungsstufe (nicht dargestellt) wie in 2 befinden. Der Bildgebungsleser 302 ist neben einer Scanfläche 308 angeordnet und definiert einen sich horizontal und vertikal erstreckenden Arbeitsbereich 310, der von dem Bildgebungsleser 302 beleuchtet wird und in dem drei definierte mittlere Bildgebungsebenen 312, 314 und 316 definiert sind, in denen der Bildgebungsleser 302 Bilder eines Objekts zur Identifizierung und Bildgebung erfasst. Der Klarheit und Einfachheit halber wird in den Beschreibungen der Systeme und Verfahren zur Fokusstabilisierung von Bildgebungssystemen mit variablem Fokus weiterhin eine einzige mittlere Bildgebungsebene verwendet. Es sollte klar sein, dass die Systeme und Verfahren nicht auf eine einzige mittlere Bildgebungsebene beschränkt sind und dass die offenbarten Systeme und Verfahren zur Fokusstabilisierung für eine beliebige Anzahl von Fokusbildgebungsebenen angewandt werden können, wie es durch die Beschränkungen (d. h. Auflösung der Bildgebungskamera, Arbeitsbereich des Bildgebungssystems, Beleuchtungsmöglichkeiten usw.) des Bildgebungssystems möglich ist.
  • 4 zeigt ein Verfahren 400 zur Durchführung einer Fokusstabilisierung mit Durchziehscannen gemäß einer Ausführungsform der vorliegenden Erfindung. Das Verfahren 400 kann in Systemen implementiert werden, die eine geringe Bildschärfetoleranz aufweisen (d. h. eine erforderliche Mindestschärfe beträgt weniger als 20 % der maximalen Bildschärfe), in Systemen mit relativ langsamen Fördergeschwindigkeiten und/oder relativ niedrigen Bildframefrequenzen, bei denen mehrere nicht dekodierte Frames akzeptabel sind, während eine Dekodierrate von 100 % beibehalten wird, was zu einer Identifizierung und Dekodierung von Zeichen führt, die für alle OOls indikativ sind. Das Verfahren 400 kann z.B. durch den Bildgebungsleser der 1-3 durchgeführt werden. Im Beispiel eines handgehaltenen Scanners schaltet der Bildgebungsleser bei 402 zunächst in einen Freihandmodus, der anzeigt, dass ein Durchziehscan durchgeführt werden soll. In einigen Beispielen enthält der handgehaltene Scanner einen Auslöser an oder in der Nähe eines Griffs, und wenn der Auslöser gedrückt wird, schaltet der Scanner in den Freihandmodus für das Durchziehscannen. In einigen Ausführungsformen ist der Bildgebungsscanner Teil einer Scanstation eines Inventarisierungssystems, bei dem Waren durch die Scanfläche oder über die Scanfläche befördert werden, um die Lieferung der Waren zu überwachen und zu steuern, z. B. den Versand von Waren aus einer Einrichtung oder den Empfang von versendeten Waren in eine Einrichtung, wie in 1 dargestellt. Daher kann der Bildgebungsscanner von 1 hauptsächlich im Freihandmodus arbeiten, und ein manueller Modus kann für manuelles Scannen und/oder Kalibrierungszwecke aktiviert werden.
  • Der Bildgebungsleser ermittelt die Scanparameter und die Kalibrierungsparameter bei 404. In beispielhaften Ausführungsformen gehören zu den Scanparametern die Framerate des Bildsensors des Bildgebungslesers, die Belichtungszeit dieses Bildsensors, die Blende oder der Blendenbereich des optischen Elements mit variablem Fokus, die Durchziehgeschwindigkeit der Bewegung des Ziels, eine automatische Bewegungsgeschwindigkeit eines Förderbands oder eine andere Geschwindigkeit eines Mittels zum automatischen Durchziehen, eine Größe des Arbeitsabstands, ein nächster Abstand des Arbeitsabstands, ein weitester Abstand des Arbeitsabstands und/oder die Fokussierungszeit des optischen Elements mit variablem Fokus. Solche Parameter können z.B. im Bildgebungsleser gespeichert werden.
  • In einigen Fällen handelt es sich bei den Scanparametern um zielspezifische Parameter, wie z. B. die Art und/oder Größe der zu scannenden Ziele. In einigen Ausführungsformen umfassen die Scanparameter die Arten von Zeichen auf den Zielen, z. B. ob die Ziele 1D- oder 2D-Strichcodes, QR-Codes, UPC-Codes oder andere identifizierende Zeichen enthalten.
  • In einigen Ausführungsformen können die Kalibrierungsparameter Entfokussierungsparameter, Parameter für die Nahfokusebene, Parameter für die Mittelfokusebene und Parameter für die Fernfokusebene umfassen. In einigen Ausführungsformen können die Kalibrierungsparameter Scanparameter zur Bestimmung der nahen, mittleren und fernen Fokusebene umfassen. In einigen Ausführungsformen können die Kalibrierungsparameter eine Teilmenge der erhaltenen Scanparameter sein. In einigen Beispielen werden einige Scanparameter und Kalibrierungsparameter von dem Bildgebungsleser erhalten, der mit einem Server, wie dem Server 112, kommuniziert, der einen Bestandssteuerungsverwalter enthalten kann, der auf Informationen über Ziele und OOls zugreift.
  • Die Steuerung für die Bildgebung mit variablem Fokus bewertet bei 406 die Scanparameter und bestimmt eine Nahfokusebene, eine Mittelfokusebene und eine Fernfokusebene, die jeweils ihren eigenen, von der Steuerung bestimmten optischen Fokus haben. Die Nahfokusebene, die Mittelfokusebene und die Fernfokusebene sind drei Bildgebungsebenen, in denen der Bildgebungsleser während der Fokusstabilisierung des VF-Bildgebungslesegers Bilder des Ziels erfasst. In einigen Ausführungsformen können die Scanparameter Parameter zur Bestimmung von mehr als drei Fokusebenen für die Stabilisierung des autofokussierenden Bildgebungssystems enthalten.
  • In einigen Ausführungsformen bestimmt der Prozess bei 406 die Nah- und die Fern-Fokusebene auf der Grundlage der Länge des Arbeitsabstands. Durch die Festlegung ausreichender Abstände der Bildgebungsebenen von der Mittelfokusebene kann eine gewünschte oder erforderliche Entfokussierung der Bilder in der Nah- und der Fern-Fokusebene zur Stabilisierung des VF-Bildgebungslesers festgelegt werden. Die Nah- und Fernfokusabstände können durch die Geschwindigkeit eines Durchziehens (d. h. manuelles Durchziehen, automatisches Durchziehen usw.) eines OOI durch den Arbeitsbereich des Bildgebungslesers bestimmt werden. In einigen Ausführungsformen kann der Prozess bei 406 beispielsweise auf die Geschwindigkeit zugreifen, mit der sich das Ziel durch den Arbeitsbereich bewegt. Liegt die Geschwindigkeit des Zielobjekts über einem Schwellenwert, können weniger Bildebenen für die Durchführung der Fokusstabilisierung verwendet werden. Bei hohen Zielgeschwindigkeiten kann es vorkommen, dass eine größere Anzahl von Bildern keinen Teil des Ziels erfasst oder nur einen Teil des Ziels, wodurch einige der Bilder für die Fokusstabilisierung unbrauchbar werden. Der Klarheit und Einfachheit halber werden drei Fokusebenen, d. h. die Nah-, die Mittel- und die Fern-Fokusebene, verwendet, um die hierin beschriebenen Systeme und Verfahren zur Fokusstabilisierung zu beschreiben.
  • Die Steuerung 214 steuert den Bildgebungssensor 206 bei 408, um eine erste Vielzahl von Bildern eines Ziels oder OOI aufzunehmen. Die erste Vielzahl von Bildern umfasst ein erstes Bild in der Nahfokusebene, ein zweites Bild in der Mittelfokusebene und ein drittes Bild in der Fernfokusebene. In einigen Ausführungsformen kann sich die Reihenfolge der Bilder, die in den verschiedenen Fokusebenen aufgenommen werden, ändern. So kann der Bildsensor beispielsweise zuerst das Bild der Fernfokusebene aufnehmen, dann das mittlere Bild, dann das nahe Bild oder eine beliebige andere Permutation der Reihenfolge der Bilder, die in den verschiedenen Fokusebenen aufgenommen werden. Die Steuerung identifiziert bei 410 einen Bereich von Interesse in mindestens einem der aufgenommenen Bilder. Der Bereich von Interesse in dem mindestens einen Bild kann einen Strichcode, eine Seriennummer, ein alphanumerisches Zeichen, eine Grafik oder ein anderes Zeichen enthalten, die auf das Ziel oder den OOI hinweist.
  • Bei 412 analysiert der Prozessor des Bildgebungslesers 106 jedes der ersten Vielzahl von Bildern in dem identifizierten Bereich von Interesse, und bei 414 bestimmt der Prozessor einen Satz von Bildqualitätswerten aus den analysierten Bildern. Jeder Satz von Bildqualitätswerten entspricht einem jeweiligen analysierten Bild aus der ersten Vielzahl von Bildern. Zum Beispiel kann der Prozessor bei 412 jedes der ersten Vielzahl von Bildern analysieren, indem er eine Bildverarbeitung an jedem der Vielzahl von Bildern durchführt. Die Bildverarbeitung kann die Anwendung eines räumlichen Tiefpassfilters, eines räumlichen Hochpassfilters, eines Fourier-Tiefpass- oder -Hochpassfilters, die Durchführung einer Rauschunterdrückung, einer Skalierung, Rotation, Scherung, Reflexion oder einer anderen Bildfilter- oder Bildverarbeitungstechnik umfassen. Darüber hinaus kann das Analysieren jedes der ersten Vielzahl von Bildern und das Bestimmen der Bildqualitätswerte für jedes der ersten Vielzahl von Bildern bei 414 das Bestimmen eines Schärfewerts, eines Kontrastwerts, eines Raumfrequenzinhaltswerts, eines Rauschmesswerts, eines Dynamikbereichswerts, einer Messung der Bildverzerrung, eines Unschärfewerts oder eines anderen mit einem Bild oder einer Bildqualität verbundenen Werts umfassen.
  • Die Beschreibung des Verfahrens 400 von 4 wird fortgesetzt, wobei zur Verdeutlichung zusätzlich auf die 5A und 5B verwiesen wird. Die 5A und 5B sind Diagramme einer Schärfebewertung gegenüber einer Steuerspannung. Die Steuerspannung ist ein Spannungswert, der an das optische Element VF angelegt wird, und daher ist die Steuerspannung ein Indikator für die Brennweite und die Fokusebene des Bildgebungslesers. Beispielsweise entsprechen die Steuerspannungen V1, V2 und V3 jeweils den Fokusebenen des ersten Bildes (Nahfokus), des zweiten Bildes (Mittelfokus) und des dritten Bildes (Fernfokus). Die gepunktete Kurve in 5A stellt eine Fokusverschiebung des Bildgebungslesers dar, und die gepunktete Linie Smin ist ein Mindestschärfewert für die Dekodierung, die beide in Kürze näher erläutert werden.
  • Unter gleichzeitiger Bezugnahme auf die 4 und 5A beinhaltet das Verfahren 400 ferner, dass der Prozessor bei 416 einen aktuellen Ausrichtungsparameter des Bildgebungslesers bestimmt. Der aktuelle Ausrichtungsparameter wird aus mindestens einem der Bildqualitätswerte aus dem Satz von Bildqualitätswerten bestimmt. Zum Beispiel kann ein Schärfewert des Mittelfokusbildes als aktueller Ausrichtungsparameter verwendet werden, oder ein maximaler Schärfewert der drei Bildqualitätswerte kann als aktueller Ausrichtungsparameter bestimmt werden. In einer Ausführungsform kann der aktuelle Ausrichtungsparameter als Verhältnis von zwei oder mehr der Bildqualitätswerte des Satzes von Bildqualitätswerten bestimmt werden. Beispielsweise kann der Satz von Bildqualitätswerten die Schärfewerte S1, S2 und S3 enthalten, die dem ersten Bild (Nahfokus), dem zweiten Bild (Mittelfokus) bzw. dem dritten Bild (Fernfokus) entsprechen, wie in 5A dargestellt. In einer solchen Ausführungsform kann der Schärfewert S2 des zweiten Bildes über dem Schärfeschwellenwert Smin für die Dekodierung von Zeichen im Bild liegen, und daher kann das zweite Bild das bevorzugte Bild für die Analyse und Dekodierung von Zeichen in dem Bereich von Interesse sein. Der Schärfeschwellenwert kann ein Mindestschärfewert sein, der für die Dekodierung von Zeichen in einem Bild erforderlich ist. Die Schärfewerte S1 und S3 des ersten und des dritten Bildes aus der Vielzahl der Bilder können unter Smin liegen, so dass das erste und das dritte Bild möglicherweise nicht für eine effiziente Dekodierung der Zeichen geeignet sind. In Ausführungsformen können die Bildschärfewerte S1 und S3 weniger als 20%, weniger als 15%, weniger als 10% oder weniger als 5% unter dem maximalen Schärfewert liegen. Die Bildqualitätswerte S1 und S3 können jedoch zur Bestimmung des aktuellen Ausrichtungsparameterwerts verwendet werden. Der aktuelle Ausrichtungsparameterwert kann als ein Verhältnis von S1 und S3 bestimmt werden. So kann beispielsweise das Schärfeverhältnis S3/S1 als aktueller Ausrichtungsparameter bestimmt werden. In einigen Ausführungsformen kann der maximale Schärfewert ein aktueller Schärfewert für die Mittelfokusebene S2 sein. In einigen Ausführungsformen kann der maximale Schärfewert ein maximaler Schärfewert einer Schärfe-Spannungs-Kurve sein, wie die in 5A dargestellte durchgezogene Kurve. In einigen Ausführungsformen kann der minimale Schärfeschwellenwert durch die Art der zu dekodierenden Zeichen und/oder durch die optischen und verarbeitungstechnischen Fähigkeiten des Bildgebungslesers bestimmt werden, z. B. Kameraauflösung, Framerate, Bildkontrast, f-Zahl, verfügbare Bildverarbeitungstechniken, Beleuchtungsquellen usw.
  • Bei 418 bestimmt der Prozessor des Bildgebungslesers 106 einen Abstimmungsparameter, indem er den aktuellen Ausrichtungsparameter mit dem bei 404 ermittelten Kalibrierungsparameter vergleicht. In Ausführungsformen kann der Kalibrierungsparameter ein Schärfeverhältnis S3/S1 sein, und es kann bestimmt werden, dass der Wert des Kalibrierungsparameters gleich 1 ist. Das heißt, wenn der aktuelle Ausrichtungsparameterwert gleich 1 ist, dann ist keine Neuausrichtung oder Abstimmung des optischen VF-Elements erforderlich. Wie in 5A dargestellt, sollten die Schärfewerte S1 und S3 ungefähr gleich sein, wenn sowohl der Nahfokus als auch der Fernfokus gleich stark vom Mittelfokus entfokussiert sind. Daher sollte das Schärfeverhältnis S3/S1 nahe bei einem Wert von 1 liegen. Daher kann der erhaltene Kalibrierungsparameterwert ein Schärfeverhältniswert von 1 oder ein Wert innerhalb eines Schwellenwertes sein. Der Kalibrierungsparameterwert kann beispielsweise ein Schärfeverhältnis von 1±0,05, 1±0,1, 1±0,2, 1±0,4, 1±0,6 oder ein anderer Schärfeverhältniswert mit Toleranz sein. Eine Abweichung des Schärfeverhältnisses von einem Wert von 1 oder einem Toleranzbereich davon zeigt an, dass sich der Fokus des Bildgebungssystems im Laufe der Zeit verschoben hat und dass das optische Element VF abgestimmt werden sollte, um die Abweichung auszugleichen. Wie durch den Pfeil 502 und die gepunktete Kurve in 5A dargestellt, verschiebt sich die Kurve der Schärfe über der Spannung nach rechts, wenn die optische Leistung des optischen VF-Elements abnimmt und dadurch eine Verschiebung der Fokusebene verursacht wird. Die Verschiebung führt zu einer verringerten ersten Bildschärfe S1', einer leicht verringerten zweiten Bildschärfe S2' und einer erhöhten dritten Bildschärfe S3'. Daher steigt das Schärfeverhältnis S3/S1 auf den Wert S3'/S1'.
  • Wie beschrieben, vergleicht der Prozessor des Bildgebungslesers 106 bei 418 den ermittelten aktuellen Ausrichtungsparameter, d. h. den Schärfewert S3'/S1', mit dem Kalibrierungsparameterwert 1, um den Abstimmungsparameter zu bestimmen. Im Beispiel von 5B ist eine größere Spannung erforderlich, um den Fokus zu verschieben, damit die Schärfe in der Nah-, Mittel- und Fern-Fokusebene ungefähr den ursprünglichen Werten S1, S2 und S3 entspricht. Wie durch den Pfeil 502 und die gepunktete Kurve in 5B veranschaulicht, erhöht die Steuerung (214) bei 420 die dem optischen Element VF zugeführten Spannungen auf neue Werte von V1', V2' und V3', was zu Bildern mit neuen Schärfewerten von S1", S2" und S3" führt. Die Steuerung erhöht die bereitgestellten Spannungswerte, bis der aktuelle Schärfeverhältniswert S3"/S1" wieder den Wert S3/S1, einen Wert innerhalb eines Schwellenwerts von S3/S1 oder einen Wert innerhalb eines Schwellenwerts des Kalibrierungsparameterwerts erreicht. Wenn die optische Leistung der adaptiven Linse zunimmt, verschiebt sich die Kurve der Schärfe gegenüber der Spannung dagegen nach links. Daher sinkt das Schärfeverhältnis unter den ursprünglichen Wert S3/S1, und die Steuerung weist das optische Element VF bei 420 an, die angelegten Spannungen zu verringern, bis das neue Schärfeverhältnis wieder den ursprünglichen Wert S3/S1, einen Schwellenwert von S3/S1 oder einen Schwellenwert des Kalibrierungsparameters erreicht. In einigen Ausführungsformen kann es erforderlich sein, dass das Schärfeverhältnis über einen Wert von 1±0,05, 1±0,1, 1±0,2, 1±0,4 oder 1±0,6 hinaus abweicht, bevor ein Korrektur- oder Abstimmungsparameter ermittelt und auf das optische VF-Element angewendet wird.
  • Während die Blöcke 402-420 als von verschiedenen Elementen im Bildgebungsleser ausgeführt beschrieben werden, kann jeder dieser Schritte in einer Steuerung oder einem Prozessor ausgeführt werden, sei es durch ein oder mehrere dedizierte Steuerungen oder Prozessoren oder ein oder mehrere Elemente, die für die Durchführung anderer hierin beschriebener Prozesse konfiguriert sind. Darüber hinaus kann die Steuerung 214 einen oder mehrere Prozessoren und ein oder mehrere Speichereinheiten enthalten.
  • 6 zeigt ein weiteres Verfahren 600 zur Durchführung der Fokusstabilisierung mit Durchziehscannen gemäß einer Ausführungsform der vorliegenden Erfindung. Bei hoher Förderleistung, hohen Durchziehgeschwindigkeiten und/oder Bildgebungssystemen mit niedriger Framerate ist es nicht wünschenswert, Bilder für die Dekodierung zu verlieren, um eine 100%ige Dekodierung von Zeichen und eine 100%ige OO1-Identifizierung zu erhalten. Das Verfahren 600 kann in Systemen implementiert werden, die Zeichen bei einem stärkeren Abfall der Bildschärfe dekodieren können, d. h. bei einem Schärfeabfall von mehr als 20 % gegenüber dem maximalen Schärfewert. Das Verfahren 600 kann z.B. mit dem Bildgebungsleser aus den 1-3 durchgeführt werden. Im Beispiel eines handgehaltenen Scanners geht der Bildgebungsleser bei 602 zunächst in einen Freihandmodus über, der anzeigt, dass ein Durchziehscan durchgeführt werden soll. In einigen Beispielen enthält der handgehaltene Scanner einen Auslöser an oder in der Nähe eines Griffs, und wenn der Auslöser gedrückt wird, schaltet der Scanner in den Freihandmodus zum Durchziehscannen. In einigen Ausführungsformen ist der Bildgebungsscanner Teil einer Scanstation eines Inventarisierungssystems, bei dem Waren durch die Scanfläche oder über die Scanfläche befördert werden, um die Lieferung der Waren zu überwachen und zu steuern, z. B. den Versand von Waren aus einer Einrichtung oder den Empfang von versendeten Waren in einer Einrichtung, wie in 1 dargestellt. Daher kann der Bildgebungsscanner von 1 hauptsächlich im Freihandmodus arbeiten, und ein manueller Modus kann für manuelles Scannen und/oder Kalibrierungszwecke aktiviert werden.
  • Der Bildgebungsleser ermittelt die Scan- und Kalibrierungsparameter in 604. In beispielhaften Ausführungsformen gehören zu den Scanparametern die Framerate des Bildsensors des Bildgebungslesers, die Belichtungszeit dieses Bildsensors, der Apertur oder der Aperturbereich des optischen Elements mit variablem Fokus, die Durchziehgeschwindigkeit der Bewegung des Ziels, eine automatische Bewegungsgeschwindigkeit eines Förderbands oder eine andere Geschwindigkeit eines Mittels zum automatischen Durchziehen, eine Größe des Arbeitsabstands, ein nächster Abstand des Arbeitsabstands, ein weitester Abstand des Arbeitsabstands und/oder die Fokussierungszeit des optischen Elements mit variablem Fokus. Solche Parameter können z.B. im Bildgebungsleser gespeichert werden.
  • In einigen Fällen handelt es sich bei den Scanparametern um zielspezifische Parameter, wie z. B. die Art und/oder Größe der zu scannenden Ziele. In einigen Ausführungsformen umfassen die Scanparameter die Arten von Zeichen auf den Zielen, z. B. ob die Ziele 1D- oder 2D-Strichcodes, QR-Codes, UPC-Codes oder andere identifizierende Zeichen enthalten.
  • In einigen Ausführungsformen können die Kalibrierungsparameter Entfokussierungsparameter, Nahfokusebenenparameter, Mittelfokusebenenparameter und Fernfokusebenenparameter umfassen. In einigen Ausführungsformen können die Kalibrierungsparameter Scanparameter zur Bestimmung der Nah-, Mittel- und Fernfokusebene umfassen. In einigen Ausführungsformen können die Kalibrierungsparameter eine Teilmenge der erhaltenen Scanparameter sein. In einigen Beispielen werden einige Scanparameter und Kalibrierungsparameter von dem Bildgebungsleser erhalten, der mit einem Server, wie dem Server 112, kommuniziert, der einen Bestandssteuerungsverwalter enthalten kann, der auf Informationen über Ziele und OOls zugreift.
  • Die Steuerung für die Bildgebung mit variablem Fokus bewertet bei 606 die Scanparameter und bestimmt eine Nahfokusebene, eine Mittelfokusebene und eine Fernfokusebene, die jeweils ihren eigenen, von der Steuerung bestimmten optischen Fokus haben. Die Nahfokusebene, die Mittelfokusebene und die Fernfokusebene sind drei Fokusebenen, in denen der Bildgebungsleser während der Fokusstabilisierung des VF-Bildgebungslesegers Bilder des Ziels erfasst. In einigen Ausführungsformen können die Scanparameter Parameter zur Bestimmung von mehr als drei Fokusebenen für die Stabilisierung des autofokussierenden Bildgebungssystems enthalten.
  • In einigen Ausführungsformen bestimmt der Prozess bei 606 die Nah- und die Fernfokusebene auf der Grundlage der Länge des Arbeitsabstands; durch die Festlegung ausreichender Abstände der Bildebenen von der Mittelfokusebene kann eine gewünschte oder erforderliche Entfokussierung der Bilder in der Nah- und der Fernfokusebene festgelegt werden, um eine Stabilisierung des VF-Bildgebungslesers durchzuführen. Die Nah- und Fernfokusabstände können durch die Geschwindigkeit eines Durchziehens (d. h. manuelles Durchziehen, automatisches Durchziehen usw.) eines OOI durch den Arbeitsbereich des Bildgebungslesers bestimmt werden. In einigen Ausführungsformen kann der Prozess bei 606 beispielsweise auf die Geschwindigkeit zugreifen, mit der sich das Ziel durch den Arbeitsbereich bewegt. Liegt die Geschwindigkeit des Zielobjekts über einem Schwellenwert, können weniger Bildebenen für die Durchführung der Fokusstabilisierung verwendet werden. Bei hohen Zielgeschwindigkeiten kann es vorkommen, dass eine größere Anzahl von Bildern keinen Teil des Ziels erfasst oder nur einen Teil des Ziels, wodurch einige der Bilder für die Fokusstabilisierung unbrauchbar werden. Der Klarheit und Einfachheit halber werden drei Fokusebenen, d. h. die Nah-, die Mittel- und die Fernfokusebene, verwendet, um die hierin beschriebenen Systeme und Verfahren zur Fokusstabilisierung zu beschreiben.
  • Die Steuerung 214 steuert den Bildgebungssensor 206 bei 608, um eine erste Vielzahl von Bildern eines Ziels oder OOI aufzunehmen. Die erste Vielzahl von Bildern umfasst ein erstes Bild mit einer ersten Vielzahl von Frames in der Nahfokusebene, ein zweites Bild mit einer zweiten Vielzahl von Frames in der mittleren Fokusebene und ein drittes Bild mit einer dritten Vielzahl von Frames in der Fernfokusebene. In einigen Ausführungsformen kann sich die Reihenfolge der ersten, zweiten und dritten Vielzahl von Frames, die in den verschiedenen Fokusebenen aufgenommen werden, ändern. Zum Beispiel kann der Bildsensor zuerst die Frames der Fernfokusebene erfassen, dann die mittleren Frames, dann die nahen Frames oder jede andere Permutation der Reihenfolge der Vielzahl der Frames, die in den verschiedenen Fokusebenen erfasst werden. Die Steuerung oder ein Prozessor identifiziert bei 610 einen Bereich von Interesse in mindestens einem der aufgenommenen Frames. Der Bereich von Interesse in dem mindestens einen Bild kann einen Strichcode, eine Seriennummer, ein alphanumerisches Zeichen, eine Grafik oder ein anderes Zeichen enthalten, das für das Ziel oder den OOI indikativ ist. In einigen Ausführungsformen kann der Prozessor den Bereich von Interesse identifizieren, indem er eine Bildverarbeitung an einem oder mehreren der Frames aus einer Vielzahl von Frames durchführt. Zum Beispiel kann der Prozessor eine Mittelwertbildung von Pixelwerten über jedes der Frames der ersten Vielzahl von Frames des ersten Bildes durchführen, um den Bereich von Interesse weiter zu analysieren und zu identifizieren.
  • Der Prozessor analysiert bei 612 jedes der ersten Vielzahl von Bildern in dem identifizierten Bereich von Interesse, und bei 614 bestimmt der Prozessor einen Satz von Bildqualitätswerten aus den analysierten Bildern. Jeder Satz von Bildqualitätswerten entspricht einem entsprechenden analysierten Bild aus der ersten Vielzahl von Bildern. Zum Beispiel kann der Prozessor bei 612 jedes der ersten Vielzahl von Bildern analysieren, indem er eine Bildverarbeitung an jedem der Vielzahl von Bildern durchführt. In der vorliegenden Ausführungsform kann der Prozessor eine Bildverarbeitung an der ersten Vielzahl von Frames, der zweiten Vielzahl von Frames und der dritten Vielzahl von Frames durchführen, um das erste Bild, das zweite Bild bzw. das dritte Bild zu erzeugen. In einigen Ausführungsformen kann der Prozessor den Satz von Bildqualitätswerten aus einem oder mehreren der Vielzahl von Frames jeder der ersten, zweiten und dritten Vielzahl von Frames bestimmen. In einigen Ausführungsformen kann der Prozessor den Satz von Bildqualitätswerten aus dem ersten, zweiten und dritten Bild der ersten Vielzahl von Bildern bestimmen. In einer Ausführungsform kann der Prozessor einen „besten“ Frame aus der ersten, zweiten und dritten Vielzahl von Frames zur Verwendung als erstes, zweites bzw. drittes Bild bestimmen. Der beste Frame kann anhand eines Bildschärfewertes, eines Unschärfewertes, eines Kontrastwertes, eines Wertes für den räumlichen Frequenzgehalt, eines Rauschwertes, eines dynamischen Bereichswertes oder eines anderen mit der Bildqualität verbundenen Wertes bestimmt werden. Die Bildverarbeitung kann die Anwendung eines räumlichen Tiefpassfilters, eines räumlichen Hochpassfilters, eines Fourier-Tiefpassfilters, eines Fourier-Hochpassfilters, die Durchführung einer Rauschunterdrückung, einer Skalierung, Drehung, Scherung, Reflexion oder einer anderen Bildfilter- oder Bildverarbeitungstechnik umfassen. Darüber hinaus kann das Analysieren jedes der ersten Vielzahl von Bildern und das Bestimmen der Bildqualitätswerte für jedes der ersten Vielzahl von Bildern bei 614 das Bestimmen eines Schärfewerts, eines Kontrastwerts, eines Raumfrequenzinhaltswerts, eines Rauschmesswerts, eines Dynamikbereichswerts, einer Messung der Bildverzerrung, eines Unschärfewerts oder eines anderen mit einem Bild oder einer Bildqualität verbundenen Werts umfassen.
  • Die Beschreibung des Verfahrens 600 von 6 wird fortgesetzt, wobei zur Verdeutlichung zusätzlich auf die 7A und 7B verwiesen wird. Die 7A und 7B sind Diagramme der Schärfebewertung gegenüber der Steuerspannung. Die Steuerspannung ist ein Spannungswert, der an das optische Element VF angelegt wird, und daher ist die Steuerspannung ein Indikator für die Brennweite und die Fokusebene des Bildgebungslesers. Beispielsweise entsprechen die Steuerspannungen V1, V2 und V3 jeweils den Fokusebenen des ersten Bildes (Nahfokus), des zweiten Bildes (Mittelfokus) und des dritten Bildes (Fernfokus). Die gepunktete Kurve in 7A stellt eine Fokusverschiebung des Bildgebungslesers dar, und die gepunktete Linie Smin ist ein Mindestschärfewert für die Dekodierung, die beide in Kürze näher erläutert werden. Obwohl sie den Diagrammen in den 5A und 5B ähneln, ist zu beachten, dass der minimale Schärfewert Smin in den 7A und 7B niedriger ist als der minimale Schärfegrad in den 5A und 5B. Daher erlaubt der Bildgebungsleser der 7A und 7B eine stärkere Reduzierung der Schärfe und damit eine größere Schärfentoleranz bei gleichzeitiger Beibehaltung einer Dekodierrate der Zeichen von 100 %. So ermöglichen die Bildschärfewerte S1, S2 und S3 in der Nah-, Mittel- bzw. Fernfokusebene die Dekodierung von Zeichen, was in dem Szenario der 5A und 5B, in dem nur das Bild mit der Schärfe S2 über dem erforderlichen Mindestschärfeschwellenwert liegt, nicht erreicht wird.
  • Unter gleichzeitiger Bezugnahme auf die 6 und 7A beinhaltet das Verfahren 600 ferner, dass der Prozessor bei 616 einen aktuellen Ausrichtungsparameter des Bildgebungslesers bestimmt. Der aktuelle Ausrichtungsparameter wird aus mindestens einem der Bildqualitätswerte aus dem Satz von Bildqualitätswerten bestimmt. Der Schärfewert S2 des Bildes mit mittlerem Fokus kann als aktueller Ausrichtungsparameter verwendet werden, oder es kann ein maximaler Schärfewert der drei Bildqualitätswerte als aktueller Ausrichtungsparameter bestimmt werden. In einer Ausführungsform kann der aktuelle Ausrichtungsparameter als Verhältnis von zwei oder mehr der Bildqualitätswerte des Satzes von Bildqualitätswerten bestimmt werden. Der Satz von Bildqualitätswerten kann zum Beispiel die Schärfewerte S1, S2 und S3 enthalten, die dem ersten Bild (Nahfokus), dem zweiten Bild (Mittelfokus) und dem dritten Bild (Fernfokus) entsprechen. Alle Schärfewerte können größer sein als der Schärfeschwellenwert Smin für die Dekodierung von Zeichen im Bild. Zusätzlich zur Dekodierung von Zeichen im Bereich von Interesse können der erste und der dritte Schärfewert des ersten und des dritten Bildes, S1 und S3, zur Bestimmung des aktuellen Ausrichtungsparameterwertes verwendet werden. Der aktuelle Ausrichtungsparameterwert kann als ein Verhältnis von S1 und S3 bestimmt werden. So kann beispielsweise das Schärfeverhältnis S3/S1 als aktueller Ausrichtungsparameter bestimmt werden. In einigen Fällen kann der Schärfeschwellenwert ein Wert sein, der mehr als 15%, mehr als 20%, mehr als 30%, mehr als 40%, zwischen 20% und 50% oder mehr als 50% unter dem maximalen Schärfewert liegt. In einigen Ausführungsformen kann der maximale Schärfewert der aktuelle Schärfewert S2der Mittelfokusebene sein. In einigen Ausführungsformen kann der maximale Schärfewert ein maximaler Schärfewert einer Schärfe-Spannungs-Kurve sein, wie die in 7A dargestellte durchgezogene Kurve. In einigen Ausführungsformen kann der minimale Schärfeschwellenwert durch die Art der zu dekodierenden Zeichen und/oder durch die optischen und verarbeitungstechnischen Fähigkeiten des Bildgebungslesers bestimmt werden, z. B. Kameraauflösung, Framerate, Bildkontrast, f-Zahl, verfügbare Bildverarbeitungstechniken, Beleuchtungsquellen usw.
  • Der Prozessor bestimmt bei 618 einen Abstimmungsparameter, indem er den aktuellen Ausrichtungsparameter mit dem bei 604 erhaltenen Kalibrierungsparameter vergleicht. In Ausführungsformen kann der Kalibrierungsparameter ein Schärfeverhältnis S3/S1 sein, und es kann bestimmt werden, dass der Wert des Kalibrierungsparameters gleich 1 ist. Das heißt, wenn der aktuelle Wert des Ausrichtungsparameters gleich 1 ist, dann ist keine Neuausrichtung oder Abstimmung des optischen Elements VF erforderlich. Wie in 7A dargestellt, sollten die Schärfewerte S1 und S3 ungefähr gleich sein, wenn sowohl der Nahfokus als auch der Fernfokus gleich stark vom Mittelfokus entfokussiert sind. Daher sollte das Schärfeverhältnis S3/S1 nahe bei einem Wert von 1 liegen. Daher kann der erhaltene Kalibrierungsparameterwert ein Schärfeverhältniswert von 1 oder ein Wert innerhalb eines Schwellenwertes sein. Der Kalibrierungsparameterwert kann beispielsweise ein Schärfeverhältniswert von 1±0,05, 1±0,1, 1±0,2, 1±0,4, 1±0,6 oder ein anderer Schärfeverhältniswert mit Toleranz sein. Eine Abweichung des Schärfeverhältnisses von einem Wert von 1 oder einem Toleranzbereich davon zeigt an, dass sich der Fokus des Bildgebungssystems im Laufe der Zeit verschoben hat und dass das optische Element VF abgestimmt werden sollte, um die Abweichung auszugleichen. Wie durch den Pfeil 702 und die gepunktete Kurve in 7A gezeigt, verschiebt sich die Kurve der Schärfe über der Spannung nach rechts, wenn die optische Leistung des optischen VF-Elements abnimmt und dadurch eine Verschiebung der Fokusebene verursacht wird. Die Verschiebung führt zu einer reduzierten ersten Bildschärfe S1', einer leicht reduzierten zweiten Bildschärfe S2' und einer erhöhten dritten Bildschärfe S3'. Daher steigt das Schärfeverhältnis S3/S1auf den Wert S3'/S1'.
  • Wie beschrieben, vergleicht der Prozessor bei 718 den ermittelten aktuellen Ausrichtungsparameter, d. h. den Schärfewert S3'/S1', mit dem Kalibrierungsparameterwert von 1, um den Abstimmungsparameter zu bestimmen. Im Beispiel von 7B ist eine größere Spannung erforderlich, um den Fokus zu verschieben, damit die Schärfe in der Nah-, Mittel- und Fernfokusebene ungefähr den ursprünglichen Werten S1, S2 und S3 entspricht. Wie in 5B dargestellt, erhöht die Steuerung bei 620 die an das optische Element VF gelieferten Spannungen auf neue Werte von V1', V2' und V3', wodurch sich die Kurve um den durch den Pfeil 702 angegebenen Betrag verschiebt, was zu Bildern mit neuen Schärfewerten von S1", S2" und S3" führt. Die steuerung erhöht die bereitgestellten Spannungswerte, bis der aktuelle Wert des Schärfeverhältnisses S3"/S1" auf den Wert S3/S1, auf einen Wert innerhalb eines Schwellenwerts von S3/S1 oder auf einen Wert innerhalb eines Schwellenwerts des Kalibrierungsparameterwerts zurückkehrt. Wenn die optische Leistung der adaptiven Linse zunimmt, verschiebt sich die Kurve der Schärfe in Abhängigkeit von der Spannung nach links. Daher sinkt das Schärfeverhältnis auf einen Wert, der unter dem ursprünglichen Wert S3/S1 liegt, und die Steuerung weist bei 620 das optische Element VF an, die angelegten Spannungen zu verringern, bis das neue Schärfeverhältnis zum ursprünglichen Wert S3/S1, zu einem Wert innerhalb eines Schwellenwerts von S3/S1 oder zu einem Wert innerhalb eines Schwellenwerts des Kalibrierungsparameters zurückkehrt. In einigen Ausführungsformen kann es erforderlich sein, dass das Schärfeverhältnis über einen Wert von 1±0,05, 1±0,1, 1±0,2, 1±0,4 oder 1±0,6 hinaus abweicht, bevor ein Korrektur- oder Abstimmungsparameter ermittelt und auf das optische VF-Element angewendet wird.
  • Während die Blöcke 402-420 als von verschiedenen Elementen im Bildgebungsleser ausgeführt beschrieben werden, kann jeder dieser Schritte in einer Steuerung oder einem Prozessor ausgeführt werden, sei es durch eine oder mehrere dedizierte Steuerungen oder Prozessoren oder ein oder mehrere Elemente, die für die Durchführung anderer hierin beschriebener Prozesse konfiguriert sind. Darüber hinaus kann die Steuerung 214 einen oder mehrere Prozessoren und ein oder mehrere Speichereinheiten enthalten.
  • 8 zeigt ein Verfahren 800 zur Ermittlung eines Kalibrierungsparameterwerts zur Durchführung der hierin beschriebenen Fokusstabilisierung. Das Verfahren 800 kann von jedem der Bildgebungsleser der 1, 2 oder 3 durchgeführt werden und kann entsprechend als Teil des Verfahrens 400 oder des Verfahrens 600 durchgeführt werden. Der Bildgebungsleser kann so konfiguriert werden, dass er sich in einem bevorzugten Zustand befindet, z. B. auf eine gewünschte Fokusebene fokussiert, bevor das Verfahren 800 zur Ermittlung des Kalibrierungsparameterwerts durchgeführt wird. Das Verfahren 800 beinhaltet, dass das Bildgebungssystem bei 802 eine Vielzahl von Kalibrierungsbildern eines OOI erhält. Jedes der mehreren Kalibrierungsbilder kann ein einzelnes Bild sein, das mit einem anderen optischen Fokus aufgenommen wurde, oder jedes der mehreren Kalibrierungsbilder kann eine entsprechende Vielzahl von Frames enthalten, wobei jeder der mehreren Frames mit einem entsprechenden optischen Fokus aufgenommen wurde.
  • Die Steuerung oder ein Prozessor identifiziert bei 804 einen Bereich von Interesse in mindestens einem der aufgenommenen Bilder aus der Vielzahl der Kalibrierungsbilder. Der Bereich von Interesse in dem mindestens einen Bild kann einen Strichcode, eine Seriennummer, ein alphanumerisches Zeichen, eine Grafik oder ein anderes Zeichen enthalten, das auf das Ziel oder den OOI hinweist. Der Prozessor analysiert bei 806 jedes der Vielzahl von Kalibrierungsbildern in dem identifizierten Bereich von Interesse, und bei 808 bestimmt der Prozessor einen Satz von Kalibrierungsbildqualitätswerten aus den analysierten Bildern. Jeder des Satzes von Kalibrierungsbildqualitätswerten entspricht einem entsprechenden analysierten Bild in der Vielzahl von Kalibrierungsbildern. Zum Beispiel kann der Prozessor bei 406 jedes der ersten Vielzahl von Bildern analysieren, indem er eine Bildverarbeitung an jedem der Vielzahl von Bildern durchführt. Die Bildverarbeitung kann die Anwendung eines räumlichen Tiefpassfilters, eines räumlichen Hochpassfilters, eines Fourier-Tiefpass- oder -Hochpassfilters, die Durchführung einer Rauschunterdrückung, einer Skalierung, Rotation, Scherung, Reflexion oder einer anderen Bildfilter- oder Bildverarbeitungstechnik umfassen. Darüber hinaus kann das Analysieren jedes der mehreren Kalibrierungsbilder und das Bestimmen der Bildqualitätswerte für jedes der mehreren Kalibrierungsbilder bei 808 das Bestimmen eines Schärfewerts, eines Kontrastwerts, eines Raumfrequenzinhaltswerts, eines Rauschmesswerts, eines Dynamikbereichswerts, einer Messung der Bildverzerrung, eines Unschärfewerts oder eines anderen mit einem Bild oder einer Bildqualität verbundenen Werts umfassen. Der Prozessor kann dann bei 810 den Kalibrierungsparameterwert aus mindestens einem der Kalibrierungsbildqualitätswerte aus dem Satz von Kalibrierungsbildqualitätswerten bestimmen. Das Verfahren 800 kann durchgeführt werden, nachdem bestätigt wurde, dass sich der Bildgebungsleser in einem Kalibrierungszustand befindet oder auf einen Kalibrierungsfokus fokussiert ist, z. B. auf einen Fokus, der Bilder erzeugt, die zu einer 100%igen Dekodiereffizienz der Zeichen führen. Daher kann der durch das Verfahren 800 bei 812 ermittelte Kalibrierungsparameterwert in einem Speicher, einem Netzwerk oder einem anderen Speichermedium gespeichert werden, um zu einem späteren Zeitpunkt oder von anderen Systemen zur Durchführung der Fokusstabilisierung gemäß den hierin beschriebenen Verfahren verwendet zu werden.
  • Während in den Beispielen ein Schärfewert beschrieben wird, können die hierin beschriebenen Bildqualitätswerte und Kalibrierungsbildqualitätswerte einen oder mehrere Frame- oder Bildschärfewerte, Unschärfewerte, Kontrastwerte, Raumfrequenzinhaltswerte, Rauschwerte, Dynamikbereichswerte oder andere mit der Bildqualität verbundene Werte umfassen. Zusätzlich können der aktuelle Ausrichtungsparameterwert und der Kalibrierungsparameterwert unabhängig voneinander aus einem oder mehreren Frameschärfewerten, Unschärfewerten, Kontrastwerten, Raumfrequenzinhaltswerten, Rauschwerten, Dynamikbereichswerten oder anderen Werten, die mit der Bildqualität in Verbindung stehen, bestimmt werden, obwohl sie in den Beispielen hier als Schärfeverhältnis beschrieben werden.
  • In der vorstehenden Beschreibung sind bestimmte Ausführungsformen beschrieben worden. Der Fachmann erkennt jedoch, dass verschiedene Modifikationen und Änderungen vorgenommen werden können, ohne vom Anwendungsbereich der Erfindung, wie er in den nachstehenden Ansprüchen dargelegt ist, abzuweichen. Dementsprechend sind die Beschreibung und die Figuren eher in einem illustrativen als in einem einschränkenden Sinne zu verstehen, und alle derartigen Modifikationen sollen in den Anwendungsbereich der vorliegenden Lehren einbezogen werden.
  • Der Nutzen, die Vorteile, die Problemlösungen und alle Elemente, die dazu führen können, dass ein Nutzen, ein Vorteil oder eine Lösung auftritt oder stärker ausgeprägt ist, sind nicht als kritische, erforderliche oder wesentliche Merkmale oder Elemente eines oder aller Ansprüche zu verstehen. Die Erfindung wird ausschließlich durch die beigefügten Ansprüche definiert, einschließlich aller Änderungen, die während der Anhängigkeit dieser Anmeldung vorgenommen wurden, und aller Äquivalente von erteilten Ansprüchen.
  • Alternative Implementierungen der Beispiele, die durch das Blockdiagramm des Systems 200 von 2 dargestellt sind, umfassen ein oder mehrere zusätzliche oder alternative Elemente, Prozesse und/oder Vorrichtungen. Zusätzlich oder alternativ können einer oder mehrere der Beispielblöcke des Diagramms kombiniert, geteilt, neu angeordnet oder weggelassen werden. Die durch die Blöcke des Diagramms dargestellten Komponenten werden durch Hardware, Software, Firmware und/oder eine beliebige Kombination von Hardware, Software und/oder Firmware implementiert. In einigen Beispielen wird mindestens eine der durch die Blöcke dargestellten Komponenten durch eine Logikschaltung implementiert. Wie hierin verwendet, ist der Begriff „Logikschaltung“ ausdrücklich als eine physische Vorrichtung definiert, die mindestens eine Hardwarekomponente enthält, die (z. B. durch Betrieb gemäß einer vorbestimmten Konfiguration und/oder durch Ausführung gespeicherter maschinenlesbarer Anweisungen) konfiguriert ist, um eine oder mehrere Maschinen zu steuern und/oder Operationen einer oder mehrerer Maschinen durchzuführen. Beispiele für Logikschaltungen sind ein oder mehrere Prozessoren, ein oder mehrere Coprozessoren, ein oder mehrere Mikroprozessoren, ein oder mehrere Controller, ein oder mehrere digitale Signalprozessoren (DSPs), ein oder mehrere anwendungsspezifische integrierte Schaltungen (ASICs), ein oder mehrere feldprogrammierbare Gate-Arrays (FPGAs), ein oder mehrere Mikrocontroller-Einheiten (MCUs), ein oder mehrere Hardware-Beschleuniger, ein oder mehrere Spezial-Computerchips und ein oder mehrere System-on-Chip-Bauteile (SoC). Einige Beispiel-Logikschaltungen, wie ASICs oder FPGAs, sind speziell konfigurierte Hardware zur Durchführung von Operationen (z. B. eine oder mehrere der hierin beschriebenen und in den Flussdiagrammen dieser Offenbarung dargestellten Operationen, falls solche vorhanden sind). Einige Beispiel-Logikschaltungen sind Hardware, die maschinenlesbare Befehle ausführt, um Operationen durchzuführen (z. B. eine oder mehrere der hierin beschriebenen und durch die Flussdiagramme dieser Offenbarung dargestellten Operationen, falls solche vorhanden sind). Einige Beispiel-Logikschaltungen umfassen eine Kombination aus speziell konfigurierter Hardware und Hardware, die maschinenlesbare Befehle ausführt. Die obige Beschreibung bezieht sich auf verschiedene hierin beschriebene Vorgänge und Flussdiagramme, die zur Veranschaulichung des Ablaufs dieser Vorgänge angehängt werden können. Alle derartigen Flussdiagramme sind repräsentativ für die hierin offenbarten Beispielverfahren. In einigen Beispielen implementieren die durch die Flussdiagramme dargestellten Verfahren die durch die Blockdiagramme dargestellten Vorrichtungen. Alternative Implementierungen der hierin offenbarten Beispielverfahren können zusätzliche oder alternative Operationen umfassen. Darüber hinaus können Operationen alternativer Implementierungen der hierin offenbarten Verfahren kombiniert, geteilt, neu angeordnet oder weggelassen werden. In einigen Beispielen werden die hier beschriebenen Operationen durch maschinenlesbare Anweisungen (z. B. Software und/oder Firmware) implementiert, die auf einem Medium (z. B. einem zugreifbaren maschinenlesbaren Medium) zur Ausführung durch eine oder mehrere logische Schaltungen (z. B. Prozessor(en)) gespeichert sind. In einigen Beispielen werden die hierin beschriebenen Operationen durch eine oder mehrere Konfigurationen einer oder mehrerer speziell entwickelter logischer Schaltungen (z. B. ASIC(s)) implementiert. In einigen Beispielen werden die hierin beschriebenen Operationen durch eine Kombination von speziell entwickelten logischen Schaltungen und maschinenlesbaren Anweisungen, die auf einem Medium (z. B. einem zugreifbaren maschinenlesbaren Medium) zur Ausführung durch logische Schaltungen gespeichert sind, implementiert.
  • Wie hierin verwendet, ist jeder der Begriffe „zugreifbares maschinenlesbares Medium“, „nicht-transitorisches maschinenlesbares Medium“ und „maschinenlesbare Speichervorrichtung“ ausdrücklich definiert als ein Speichermedium (z. B. eine Platte eines Festplattenlaufwerks, eine Digital Versatile Disc, eine Compact Disc, ein Flash-Speicher, ein Festwertspeicher, ein Speicher mit wahlfreiem Zugriff usw.), auf dem maschinenlesbare Anweisungen (z. B. Programmcode in Form von z. B. Software und/oder Firmware) für eine beliebige geeignete Zeitdauer (z. B. dauerhaft, für einen längeren Zeitraum (z. B. während der Ausführung eines mit den maschinenlesbaren Anweisungen verbundenen Programms) und/oder für einen kurzen Zeitraum (z. B. während der Zwischenspeicherung der maschinenlesbaren Anweisungen und/oder während eines Pufferungsprozesses) gespeichert werden). Darüber hinaus sind die Begriffe „zugreifbares, maschinenlesbares Medium“, „nicht-transitorisches, maschinenlesbares Medium“ und „maschinenlesbare Speichervorrichtung“ hierin ausdrücklich so definiert, dass sie die Übertragung von Signalen ausschließen. Das heißt, dass keiner der Begriffe „zugreifbares maschinenlesbares Medium“, „nicht-transitorisches maschinenlesbares Medium“ und „maschinenlesbare Speichervorrichtung“, wie sie in den Ansprüchen dieses Patents verwendet werden, so gelesen werden kann, dass sie durch ein sich ausbreitendes Signal implementiert werden.
  • In der vorstehenden Beschreibung sind bestimmte Ausführungsformen beschrieben worden. Der Fachmann erkennt jedoch, dass verschiedene Modifikationen und Änderungen vorgenommen werden können, ohne vom Anwendungsbereich der Erfindung, wie er in den nachstehenden Ansprüchen dargelegt ist, abzuweichen. Dementsprechend sind die Beschreibung und die Figuren eher illustrativ als einschränkend zu verstehen, und alle derartigen Modifikationen sollen in den Anwendungsbereich der vorliegenden Lehren einbezogen werden. Darüber hinaus sind die beschriebenen Ausführungsformen/Beispiele/Implementierungen nicht als sich gegenseitig ausschließend zu verstehen, sondern vielmehr als potentiell kombinierbar, wenn solche Kombinationen in irgendeiner Weise permissiv sind. Mit anderen Worten kann jedes Merkmal, das in einer der vorgenannten Ausführungsformen/Beispiele/Implementierungen offenbart wird, in jeder der anderen vorgenannten Ausführungsformen/Beispiele/Implementierungen enthalten sein.
  • Die Nutzen, Vorteile, Lösungen für Probleme und alle Elemente, die zum Auftreten oder einer Verstärkung eines Nutzens, eines Vorteils, oder einer Lösung führen können, sind nicht als kritische, erforderliche oder wesentliche Merkmale oder Elemente in einigen oder sämtlichen Ansprüchen zu verstehen. Die Erfindung ist lediglich durch die angehängten Ansprüche definiert, einschließlich jeglicher Änderungen, die während der Anhängigkeit dieser Anmeldung vorgenommen wurden und aller Äquivalente der erteilten Ansprüche.
  • Darüber hinaus können in diesem Dokument relationale Begriffe wie erster und zweiter, oberer und unterer und dergleichen lediglich verwendet sein, um eine Entität oder Aktion von einer anderen Entität oder Aktion zu unterscheiden, ohne notwendigerweise eine tatsächliche derartige Beziehung oder Reihenfolge zwischen solchen Entitäten oder Aktionen zu erfordern oder zu implizieren. Die Ausdrücke „umfasst“, „umfassend“, „hat“, „haben“, „aufweist“, „aufweisend“, „enthält“, „enthaltend“ oder jede andere Variation davon sollen eine nicht-ausschließliche Einbeziehung abdecken, derart, dass ein Prozess, Verfahren, Produkt oder Vorrichtung, das eine Liste von Elementen umfasst, hat, aufweist, enthält, nicht nur diese Elemente aufweist, sondern auch andere Elemente aufweisen kann, die nicht ausdrücklich aufgelistet sind oder einem solchen Prozess, Verfahren, Produkt oder Vorrichtung inhärent sind. Ein Element, dem „umfasst ... ein“, „hat ... ein“, „aufweist ... ein“ oder „enthält ...ein“ vorausgeht, schließt ohne weitere Einschränkungen die Existenz zusätzlicher identischer Elemente in dem Prozess, dem Verfahren, dem Produkt oder der Vorrichtung, die das Element umfasst, hat, aufweist oder enthält, nicht aus. Die Begriffe „ein“ und „eine“ sind als eine oder mehrere definiert, sofern es hierin nicht ausdrücklich anders angegeben wird. Die Begriffe „im Wesentlichen“, „im Allgemeinen“, „ungefähr“, „etwa“ oder jede andere Version davon sind so definiert, dass sie von einem Fachmann auf diesem Gebiet nahekommend verstanden werden, und in einer nicht-einschränkenden Ausführungsform ist der Ausdruck definiert als innerhalb von 10%, in einer weiteren Ausführungsform als innerhalb von 5%, in einer weiteren Ausführungsform als innerhalb von 1% und in einer weiteren Ausführungsform als innerhalb von 0,5%. Der Ausdruck „gekoppelt“, wie er hierin verwendet wird, ist als verbunden definiert, jedoch nicht notwendigerweise direkt und nicht notwendigerweise mechanisch. Eine Vorrichtung oder eine Struktur, die auf eine bestimmte Art „konfiguriert“ ist, ist zumindest auch so konfiguriert, kann aber auch auf Arten konfiguriert sein, die nicht aufgeführt sind. [0077] Die Zusammenfassung der Offenbarung wird bereitgestellt, um es dem Leser zu ermöglichen, schnell das Wesen der technischen Offenbarung zu ermitteln. Sie wird mit dem Verständnis bereitgestellt, dass sie nicht zur Auslegung oder Einschränkung des Umfangs oder der Bedeutung der Ansprüche verwendet wird. Ferner kann der vorangehenden detaillierten Beschreibung entnommen werden, dass verschiedene Merkmale in verschiedenen Ausführungsformen zum Zwecke der Verschlankung der Offenbarung zusammengefasst sind. Diese Art der Offenbarung ist nicht so auszulegen, dass sie die Absicht widerspiegelt, dass die beanspruchten Ausführungsformen mehr Merkmale erfordern, als ausdrücklich in jedem Anspruch angegeben sind. Vielmehr ist es so, wie die folgenden Ansprüche zeigen, dass der erfinderische Gegenstand in weniger als allen Merkmalen einer einzigen offenbarten Ausführungsform liegt. Somit werden die folgenden Ansprüche hiermit in die detaillierte Beschreibung inkorporiert, wobei jeder Anspruch für sich als ein separat beanspruchter Gegenstand steht.

Claims (24)

  1. Computerimplementiertes Verfahren zur Fokusstabilisierung eines Bildgebungssystems, wobei das Verfahren umfasst: Erhalten eines Kalibrierungsparameterwertes durch einen Prozessor; Erhalten einer ersten Vielzahl von Bildern eines Objekts von Interesse durch das Bildgebungssystem, wobei jedes Bild der ersten Vielzahl von Bildern durch das Bildgebungssystem mit einem unterschiedlichen optischen Fokus erhalten wird; Identifizieren, durch den Prozessor, eines Bereichs von Interesse in mindestens einem Bild der ersten Vielzahl von Bildern, wobei der Bereich von Interesse ein Zeichen enthält, das für das Objekt von Interesse indikativ ist; Analysieren, durch den Prozessor, jedes der Bilder der ersten Vielzahl von Bildern in dem Bereich von Interesse; Bestimmen, durch den Prozessor, eines Satzes von Bildqualitätswerten aus den analysierten Bildern, wobei jeder der Bildqualitätswerte des Satzes von Bildqualitätswerten einem jeweiligen analysierten Bild in der ersten Vielzahl von Bildern entspricht; Bestimmen, durch den Prozessor, eines aktuellen Ausrichtungsparameterwertes aus mindestens einem der Bildqualitätswerte des Satzes von Bildqualitätswerten; Bestimmen eines Abstimmungsparameterwertes durch den Prozessor durch Vergleichen des Ausrichtungsparameterwertes mit dem Kalibrierungsparameterwert; und Abstimmen des Bildgebungssystems durch den Prozessor gemäß dem Abstimmungsparameter.
  2. Verfahren nach Anspruch 1, wobei das Erhalten des Kalibrierungsparameterwerts das Erhalten des Kalibrierungsparameterwerts durch den Prozessor aus mindestens einem umfasst von: einem Speicher, einem Netzwerk, einem Cloud-Netzwerk, einer drahtlosen Kommunikation oder einer drahtgebundenen Kommunikation.
  3. Verfahren nach Anspruch 1, wobei das Erhalten des Kalibrierungsparameterwerts umfasst: Erhalten einer Vielzahl von Kalibrierungsbildern eines Objekts von Interesse durch das Bildgebungssystem, wobei jedes Bild der Vielzahl von Kalibrierungsbildern durch das Bildgebungssystem mit einem unterschiedlichen optischen Fokus erhalten wird; Identifizieren, durch den Prozessor, eines Bereichs von Interesse in mindestens einem Bild der Vielzahl von Kalibrierungsbildern, wobei der Bereich von Interesse ein Zeichen enthält, das für das Objekt von Interesse indikativ ist; Analysieren, durch den Prozessor, jedes der Bilder der Vielzahl von Kalibrierungsbildern in dem Bereich von Interesse; Bestimmen, durch den Prozessor, eines Satzes von Kalibrierungsbildqualitätswerten aus den analysierten Bildern, wobei jeder der Kalibrierungsbildqualitätswerte des Satzes von Kalibrierungsbildqualitätswerten einem jeweiligen Bild in der Vielzahl von Kalibrierungsbildern entspricht; und Bestimmen, durch den Prozessor, eines Kalibrierungsparameterwertes aus mindestens einem der Kalibrierungsbildqualitätswerte des Satzes von Kalibrierungsbildqualitätswerten.
  4. Verfahren nach Anspruch 3, wobei das Erhalten der Vielzahl von Kalibrierungsbildern das Erhalten eines ersten Bildes bei einem ersten optischen Fokus, eines zweiten Bildes bei einem zweiten optischen Fokus, der größer ist als der erste optische Fokus, und eines dritten Bildes bei einem dritten optischen Fokus, der größer ist als der zweite, umfasst; und wobei das Erhalten der ersten Vielzahl von Bildern das Erhalten eines ersten Bildes bei einem ersten optischen Fokus, eines zweiten Bildes bei einem zweiten optischen Fokus, der größer ist als der erste optische Fokus, und eines dritten Bildes bei einem dritten optischen Fokus, der größer ist als der zweite optische Fokus, umfasst.
  5. Verfahren nach Anspruch 4, wobei der Kalibrierungsparameter durch ein Verhältnis der Bildqualitätswerte des ersten Bildes und des dritten Bildes aus der Vielzahl von Kalibrierungsbildern bestimmt wird; und der aktuelle Ausrichtungsparameterwert durch ein Verhältnis der Bildqualitätswerte des ersten Bildes und des dritten Bildes der ersten Vielzahl von Bildern bestimmt wird.
  6. Verfahren nach Anspruch 4, wobei der Kalibrierungsparameterwert ein Verhältnis zwischen mindestens zwei der Bildqualitätswerte des Satzes von Kalibrierungsbildqualitätswerten umfasst; und der aktuelle Ausrichtungsparameterwert ein Verhältnis zwischen mindestens zwei der Bildqualitätswerte des Satzes von Bildqualitätswerten der ersten Vielzahl von Bildern umfasst.
  7. Verfahren nach Anspruch 1, wobei der Kalibrierungsparameterwert mindestens eines umfasst von: einem Schärfewert, einem Kontrastwert oder einem Wert für den räumlichen Frequenzgehalt.
  8. Verfahren nach Anspruch 1, wobei der aktuelle Ausrichtungsparameterwert mindestens eines umfasst von: einem Bildschärfewert, einem Kontrastwert oder einem Wert für den räumlichen Frequenzgehalt.
  9. Verfahren nach Anspruch 1, wobei das Abstimmen des optischen Fokus des Bildgebungssystems das Abstimmen der Brennweite einer Linse mit variablem Fokus durch Anlegen einer Betriebsspannung an die Linse mit variablem Fokus umfasst.
  10. Verfahren nach Anspruch 9, wobei die Linse mit variablem Fokus eine T-Linse oder eine Flüssigkeitslinse ist.
  11. Verfahren nach Anspruch 1, wobei das Erhalten der ersten Vielzahl von Bildern umfasst: Erhalten eines ersten Bildes durch Erhalten einer Vielzahl von Frames bei einem ersten optischen Fokus; Erhalten eines zweiten Bildes durch Erhalten einer Vielzahl von Frames bei einem zweiten optischen Fokus; Erhalten eines dritten Bildes durch Erhalten einer Vielzahl von Frames bei einem dritten optischen Fokus; und wobei das Identifizieren eines Bereichs von Interesse in mindestens einem Bild der ersten Vielzahl von Bildern das Identifizieren, durch den Prozessor, eines Bereichs von Interesse in mindestens dem ersten Bild, dem zweiten Bild und dem dritten Bild der ersten Vielzahl von Bildern umfasst.
  12. Verfahren nach Anspruch 1, ferner umfassend: Identifizieren des Zeichens in dem Bereich von Interesse durch den Prozessor, wobei das Zeichen eine dekodierbare Nutzlast aufweist.
  13. Fokusstabilisierungs-Bildgebungssystem, umfassend: eine Linse mit variablem Fokus, die so konfiguriert ist, dass sie Licht von einem Objekt von Interesse empfängt, um das Objekt von Interesse abzubilden; eine Steuerung, die kommunikativ mit der Linse mit variablem Fokus gekoppelt ist und so konfiguriert ist, dass sie eine Spannung an die Linse mit variablem Fokus liefert; einen Bildgebungssensor, der so konfiguriert ist, dass er ein Bild des Objekts empfängt und ein elektrisches Signal erzeugt, das für das empfangene Bild indikativ ist; einen Prozessor und ein computerlesbares Medium, das maschinenlesbare Befehle speichert, die, wenn sie ausgeführt werden, das Fokusstabilisierungs-Bildgebungssystem veranlassen zum: Erhalten eines Kalibrierungsparameterwerts durch den Prozessor; Erhalten einer ersten Vielzahl von Bildern des Objekts von Interesse durch das Bildgebungssystem, wobei jedes Bild der ersten Vielzahl von Bildern durch das Bildgebungssystem bei einem unterschiedlichen optischen Fokus erhalten wird; Identifizieren, durch den Prozessor, eines Bereichs von Interesse in mindestens einem Bild der ersten Vielzahl von Bildern, wobei der Bereich von Interesse ein Zeichen enthält, das für das Objekt von Interesse indikativ ist; Analysieren, durch den Prozessor, jedes der Bilder der ersten Vielzahl von Bildern in dem Bereich von Interesse; Bestimmen, durch den Prozessor, eines Satzes von Bildqualitätswerten aus den analysierten Bildern, wobei jeder der Bildqualitätswerte des Satzes von Bildqualitätswerten einem jeweiligen analysierten Bild in der ersten Vielzahl von Bildern entspricht; Bestimmen eines aktuellen Ausrichtungsparameterwertes durch den Prozessor aus mindestens einem der Bildqualitätswerte des Satzes von Bildqualitätswerten; Bestimmen eines Abstimmungsparameterwertes durch den Prozessor durch Vergleichen des aktuellen Ausrichtungsparameterwerts mit dem Kalibrierungsparameterwert; und Abstimmen des optischen Fokus des Bildgebungssystems durch die Steuerung gemäß dem Abstimmungsparameter.
  14. Fokusstabilisierungs-Bildgebungssystem nach Anspruch 13, wobei das Erhalten des Kalibrierungsparameterwerts das Erhalten des Kalibrierungsparameterwerts durch den Prozessor aus mindestens einem umfasst von: einem Speicher, einem Netzwerk, einem Cloud-Netzwerk, einer drahtlosen Kommunikation oder einer drahtgebundenen Kommunikation.
  15. System nach Anspruch 13, wobei das Erhalten des Kalibrierungsparameterwertes umfasst: Erhalten einer Vielzahl von Kalibrierungsbildern eines Objekts von Interesse durch das Bildgebungssystem, wobei jedes Bild der Vielzahl von Kalibrierungsbildern durch das Bildgebungssystem bei einem unterschiedlichen optischen Fokus erhalten wird; Identifizieren, durch den Prozessor, eines Bereichs von Interesse in mindestens einem Bild der Vielzahl von Kalibrierungsbildern, wobei der Bereich von Interesse ein Zeichen enthält, das für das Objekt von Interesse indikativ ist; Analysieren, durch den Prozessor, jedes der Bilder der Vielzahl von Kalibrierungsbildern in dem Bereich von Interesse; Bestimmen eines Satzes von Kalibrierungsbildqualitätswerten aus den analysierten Bildern durch den Prozessor, wobei jeder der Kalibrierungsbildqualitätswerte des Satzes von Kalibrierungsbildqualitätswerten einem jeweiligen Bild in der Vielzahl von Kalibrierungsbildern entspricht; und Bestimmen eines Kalibrierungsparameterwertes durch den Prozessor aus mindestens einem der Kalibrierungsbildqualitätswerte des Satzes von Kalibrierungsbildqualitätswerten.
  16. System nach Anspruch 15, wobei das Erhalten der Vielzahl von Kalibrierungsbildern das Erhalten eines ersten Bildes bei einem ersten optischen Fokus, eines zweiten Bildes bei einem zweiten optischen Fokus, der größer ist als der erste optische Fokus, und eines dritten Bildes bei einem dritten optischen Fokus, der größer ist als der zweite, umfasst; und wobei das Erhalten der ersten Vielzahl von Bildern das Erhalten eines ersten Bildes bei einem ersten optischen Fokus, eines zweiten Bildes bei einem zweiten optischen Fokus, der größer ist als der erste optische Fokus, und eines dritten Bildes bei einem dritten optischen Fokus, der größer ist als der zweite optische Fokus, umfasst.
  17. System nach Anspruch 16, wobei der Kalibrierungsparameter durch ein Verhältnis der Bildqualitätswerte des ersten Bildes und des dritten Bildes der Vielzahl von Kalibrierungsbildern bestimmt wird; und der aktuelle Ausrichtungsparameterwert durch ein Verhältnis der Bildqualitätswerte des ersten Bildes und des dritten Bildes der ersten Vielzahl von Bildern bestimmt wird.
  18. System nach Anspruch 16, wobei der Kalibrierungsparameterwert ein Verhältnis zwischen mindestens zwei der Bildqualitätswerte des Satzes von Kalibrierungsbildqualitätswerten umfasst; und der aktuelle Ausrichtungsparameterwert ein Verhältnis zwischen mindestens zwei der Bildqualitätswerte des Satzes von Bildqualitätswerten der ersten Vielzahl von Bildern umfasst.
  19. System nach Anspruch 13, wobei der Kalibrierungsparameterwert mindestens einen umfasst von: einem Schärfewert, einem Kontrastwert oder einem Wert für den räumlichen Frequenzgehalt.
  20. System nach Anspruch 13, wobei der aktuelle Ausrichtungsparameterwert mindestens einen umfasst von: einem Bildschärfewert, einem Kontrastwert oder einem Wert für den räumlichen Frequenzgehalt.
  21. System nach Anspruch 13, wobei das Abstimmen des optischen Fokus des Bildgebungssystems das Abstimmen der Brennweite einer Linse mit variablem Fokus durch Anlegen einer Betriebsspannung an die Linse mit variablem Fokus umfasst.
  22. System nach Anspruch 21, wobei die Linse mit variablem Fokus eine T-Linse oder eine Flüssigkeitslinse ist.
  23. System nach Anspruch 13, wobei das Erhalten der ersten Vielzahl von Bildern umfasst: Erhalten eines ersten Bildes durch Erhalten einer Vielzahl von Frames bei einem ersten optischen Fokus; Erhalten eines zweiten Bildes durch Erhalten einer Vielzahl von Frames bei einem zweiten optischen Fokus; Erhalten eines dritten Bildes durch Erhalten einer Vielzahl von Frames bei einem dritten optischen Fokus; und wobei das Identifizieren eines Bereichs von Interesse in mindestens einem Bild der ersten Vielzahl von Bildern das Identifizieren, durch den Prozessor, eines Bereichs von Interesse in mindestens dem ersten Bild, dem zweiten Bild und dem dritten Bild der ersten Vielzahl von Bildern umfasst.
  24. System nach Anspruch 13, ferner umfassend: Identifizieren des Zeichens in dem Bereich von Interesse durch den Prozessor, wobei das Zeichen eine dekodierbare Nutzlast aufweist.
DE102021115575.4A 2020-06-25 2021-06-16 Fokusstabilisierung eines bildgebungssystems mit einer linse mit variablem fokus Pending DE102021115575A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/912,420 2020-06-25
US16/912,420 US11108946B1 (en) 2020-06-25 2020-06-25 Focus stabilization of imaging system with variable focus lens

Publications (1)

Publication Number Publication Date
DE102021115575A1 true DE102021115575A1 (de) 2021-12-30

Family

ID=76954379

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102021115575.4A Pending DE102021115575A1 (de) 2020-06-25 2021-06-16 Fokusstabilisierung eines bildgebungssystems mit einer linse mit variablem fokus

Country Status (4)

Country Link
US (1) US11108946B1 (de)
KR (1) KR102653360B1 (de)
DE (1) DE102021115575A1 (de)
GB (1) GB2596650B (de)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230249349A1 (en) * 2020-12-18 2023-08-10 Strong Force Vcn Portfolio 2019, Llc Deployment System for Additive Manufacturing Robot Fleet
US11265455B1 (en) 2021-06-30 2022-03-01 Zebra Technologies Corporation Method of differentiating between focus drift and a change in distance to target for variable focus lens
US11906806B2 (en) 2021-06-30 2024-02-20 Zebra Technologies Corporation Imaging lens check and active alignment method to maintain consistent rear focusing distance for an autofocus lens

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101891364B1 (ko) * 2011-02-01 2018-08-23 로셰 디아그노스틱스 헤마톨로지, 인크. 현미경 이미징에서의 빠른 오토-포커스
US8985462B2 (en) * 2012-12-13 2015-03-24 Symbol Technologies, Inc. Method of driving focusing element in barcode imaging scanner
US10146975B2 (en) * 2016-11-17 2018-12-04 Datalogic Ip Tech S.R.L. Data reader with hybrid auto focus system
KR102419163B1 (ko) * 2017-09-29 2022-07-08 라이카 바이오시스템즈 이미징 인크. 실시간 오토포커스 포커싱 알고리즘
JP7057217B2 (ja) * 2018-05-21 2022-04-19 株式会社ミツトヨ 焦点距離可変レンズの校正方法および焦点距離可変レンズ装置

Also Published As

Publication number Publication date
KR102653360B1 (ko) 2024-04-02
GB2596650A (en) 2022-01-05
GB202108549D0 (en) 2021-07-28
US11108946B1 (en) 2021-08-31
KR20220000367A (ko) 2022-01-03
GB2596650B (en) 2022-08-03

Similar Documents

Publication Publication Date Title
DE102021115575A1 (de) Fokusstabilisierung eines bildgebungssystems mit einer linse mit variablem fokus
DE102022116204B4 (de) Verfahren zum Unterscheiden zwischen Fokusabweichung und einer Änderung in einem Abstand zu einem Ziel bei Linsen mit variablem Fokus
EP2701380B1 (de) Kamera und Verfahren zur Aufnahme scharfer Bilder
DE102008001679A1 (de) Verfahren und Vorrichtung zur Verarbeitung von aufgenommenen Bildinformationen aus einem Fahrzeug
DE112013000571B4 (de) Verfahren zum Decodieren eines Strichcodes innerhalb eines Bilderzeugungssichtfelds eines Bilderzeugungssystems und Vorrichtung
DE102013112040B4 (de) System und Verfahren zum Auffinden von sattelpunktartigen Strukturen in einem Bild und Bestimmen von Informationen daraus
DE102014104026B3 (de) Optoelektronische Vorrichtung und Verfahren zum Aufnehmen eines Bildes
EP3812953B1 (de) Codeleser und verfahren zum lesen von optischen codes
EP3591567B1 (de) Optoelektronischer sensor und verfahren zur wiederholten optischen erfassung von objekten in unterschiedlichem objektabstand
DE102020124613A1 (de) Verbesserte auswahl eines objekts von interesse für neuronale netzwerksysteme an verkaufspunken
DE112022001743T5 (de) Systeme und verfahren zur optimierung der bildgebungseinstellungen und der bilderfassung für einen bildverarbeitungsauftrag
DE102020109929B3 (de) Erfassung von Bilddaten eines bewegten Objekts
DE102008024851A1 (de) Benutzerunterstützter Autofokus
DE102022116156A1 (de) Verfahren zum erkennen und korrigieren einer fokusabweichung einer linse mit variablem fokus für anwendungen mit festem fokus
DE112019003593T5 (de) Verfahren und vorrichtung zur kalibrierung einer client-rechenvorrichtung zur dekodierung von symbolen
WO2019086686A1 (de) Reduktion von bildstörungen in bildern
EP4075394B1 (de) Erfassung eines bewegten stromes von objekten
DE112022001773T5 (de) Systeme und Verfahren zur Bestimmung eines adaptiven Bereichs von Interesse (ROI) für die Berechnung von Bildmetriken
DE102022124537A1 (de) Verfahren zur erstellung eines optimierten/adaptiven bereichs von interesse (roi) basierend auf einer erkennung einer strichcodeposition im sichtfeld (fov)
DE112021001751T5 (de) Intelligentes verfahren zur verfolgung eines fokus in maschinellen sichtanwendungen
DE102022109916A1 (de) Systeme und verfahren zur schnellen automatischen einstellung von industriellen festsicht-kameras
DE102020129997A1 (de) Strichcodeleser mit kalibrierung der scanner-bildhelligkeit mit mehreren sichtfeldern von einem einzelnen sensor
EP3663976A1 (de) Verfahren zur erfassung von fingerabdrücken
BE1029309B1 (de) Systeme und verfahren zum optimieren von bilderzeugungseinstellungen und bildaufnahmen für einen maschinensicht-job
DE112021000754T5 (de) Verschachtelte bilderfassung für ein dimensionierungssystem

Legal Events

Date Code Title Description
R012 Request for examination validly filed