DE102022116204B4 - Verfahren zum Unterscheiden zwischen Fokusabweichung und einer Änderung in einem Abstand zu einem Ziel bei Linsen mit variablem Fokus - Google Patents

Verfahren zum Unterscheiden zwischen Fokusabweichung und einer Änderung in einem Abstand zu einem Ziel bei Linsen mit variablem Fokus Download PDF

Info

Publication number
DE102022116204B4
DE102022116204B4 DE102022116204.4A DE102022116204A DE102022116204B4 DE 102022116204 B4 DE102022116204 B4 DE 102022116204B4 DE 102022116204 A DE102022116204 A DE 102022116204A DE 102022116204 B4 DE102022116204 B4 DE 102022116204B4
Authority
DE
Germany
Prior art keywords
image
distance
imaging
pixel
focus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102022116204.4A
Other languages
English (en)
Other versions
DE102022116204A1 (de
Inventor
Harry E. Kuchenbrod
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zebra Technologies Corp
Original Assignee
Zebra Technologies Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zebra Technologies Corp filed Critical Zebra Technologies Corp
Publication of DE102022116204A1 publication Critical patent/DE102022116204A1/de
Application granted granted Critical
Publication of DE102022116204B4 publication Critical patent/DE102022116204B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/958Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging
    • H04N23/959Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging by adjusting depth of field during image capture, e.g. maximising or setting range based on scene characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/002Diagnosis, testing or measuring for television systems or their details for television cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0025Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 for optical correction, e.g. distorsion, aberration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/10544Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum
    • G06K7/10792Special measures in relation to the object to be scanned
    • G06K7/10801Multidistance reading
    • G06K7/10811Focalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/673Focus control based on electronic image sensor signals based on contrast or high frequency components of image signals, e.g. hill climbing method
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/675Focus control based on electronic image sensor signals comprising setting of focusing regions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • G06T2207/30208Marker matrix
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/703SSIS architectures incorporating pixels for producing signals other than image signals
    • H04N25/705Pixels for depth measurement, e.g. RGBZ

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Electromagnetism (AREA)
  • Optics & Photonics (AREA)
  • Toxicology (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Quality & Reliability (AREA)
  • Studio Devices (AREA)
  • Automatic Focus Adjustment (AREA)
  • Image Analysis (AREA)
  • Character Input (AREA)

Abstract

Computerimplementiertes Verfahren zum Unterscheiden einer Fokusabweichung eines Bildgebungssystems von Positionsänderungen eines Objekts von Interesse, wobei das Verfahren umfasst:Erfassen eines Bildes eines Objekts von Interesse durch das Bildgebungssystem;Identifizieren eines Bereichs von Interesse in dem Bild durch den Prozessor, wobei der Bereich von Interesse ein Zeichen enthält, das auf das Objekt von Interesse hinweist;Bestimmen einer Bildqualität des Bildes durch den Prozessor;Analysieren des Zeichens durch den Prozessor und Bestimmen einer Pixelmessung des Zeichens, undVergleichen der Pixelmessung des Zeichens mit einer Referenzpixelmessung durch den Prozessor; undbasierend auf dem Vergleich, Bestimmen durch den Prozessor, dass die Bildqualität des Bildes aus einer Differenz in einem Abstand des Objekts von dem Bildgebungssystem und einem Referenzabstand von dem Bildgebungssystem resultiert, wenn die Pixelmessung außerhalb eines Schwellenwerts der Referenzpixelmessung liegt, und Bestimmen, dass die Bildqualität des Bildes aus einer Fokussierungsabweichung des Bildgebungssystems resultiert, wenn die Pixelmessung innerhalb eines Schwellenwerts der Referenzpixelmessung liegt.

Description

  • HINTERGRUND DER ERFINDUNG
  • Vorrichtungen wie Strichcodescanner werden in verschiedenen Inventarisierungsanwendungen eingesetzt. In einigen Konfigurationen verwenden diese Strichcodescanner interne Autofokus-Kameras, um Bilder von Strichcodes und anderen scanbaren Zeichen zu erfassen. Elektrisch einstellbare Linsen mit variablem Fokus ermöglichen eine automatische Fokussierung eines Strichcodescanners auf Objekte von Interesse (OOI) in Anwendungen der maschinellen Bildverarbeitung und des Strichcodescannens. Ein Nachteil von elektrisch einstellbaren Linsen mit variablem Fokus ist, dass sie kein Rückkopplungssignal liefern, das den aktuellen Fokus oder die aktuelle optische Leistung anzeigt, die sich im Laufe der Zeit aufgrund von Schwankungen der Umgebungstemperatur, Alterung der Linse, Spannungsabweichung und anderen Faktoren ändern kann. Die Änderung des Kamerafokus führt zu Fehllesungen oder dazu, dass eine Autofokus-Kamera nicht in der Lage ist, einen OOI in einem bestimmten Abstand oder Abstandsbereich zu erfassen. Auch kann sich die Position eines OOI in einem Sichtfeld ändern, z. B. auf einem Förderband, und ein autofokussierender Scanner ist nicht in der Lage festzustellen, ob ein OOI aufgrund eines veränderten Abstands des OOI unscharf ist oder ob das Bildgebungssystem einer Fokusabweichung unterlag. Darüber hinaus führt die Notwendigkeit einer genauen und schnellen Fokussierung auf unterschiedliche Objekte zu einer beträchtlichen Komplexität der Verarbeitung und der mechanischen Komponenten von Autofokus-Kamerasystemen, was wiederum die Kosten erhöht.
  • Autofokus-Bildgebungssysteme mit Flüssigkeitslinsen führen typischerweise jede Art von Fokuseinstellung bei der Auftragseinrichtung durch und erfordern, dass der Fokus auf unbestimmte Zeit gehalten wird. Während des Betriebs kann sich der Fokus des Autofokussystems ändern oder verschieben, unter anderem aufgrund von Alter, Feuchtigkeit und Temperatur. Da die Systeme nicht in der Lage sind, festzustellen, ob sich der Fokus des Systems verschoben hat oder ob sich der Abstand zum Objekt geändert hat, kann das System veranlasst werden, eine Fokusverschiebung durchführen, wenn dies nicht notwendig ist, was dazu führen kann, dass der OOI weiter außerhalb des Fokus liegt. Außerdem führt jede Fokuskompensation oder -einstellung eines Systems zu einer Verringerung der Abtastraten, was die Effizienz des Bildgebungssystems verringert.
  • Dementsprechend besteht ein Bedarf, festzustellen, ob eine Fokusabweichung aufgetreten ist, und auch eine mögliche Fokusabweichung für Bilderfassungssysteme wie Strichcodeleser zu korrigieren.
  • BESCHREIBUNG
  • In einer Ausführungsform ist die vorliegende Erfindung ein Verfahren zum Korrigieren einer Fokusabweichung eines Bildgebungssystems. Das Verfahren umfasst das Erhalten eines ersten Bildes eines Objekts von Interesse durch das Bildgebungssystem, wobei das erste Bild, das mit dem Bildgebungssystem erhalten wird, einen Fokus bei einem Nahfokusebenenabstand aufweist; das Erhalten eines zweiten Bildes eines zweiten Objekts von Interesse durch das Bildgebungssystem, wobei das zweite Bild, das mit dem Bildgebungssystem erhalten wird, einen Fokus bei einem Fernfokusebenenabstand aufweist, und wobei der Nahfokusebenenabstand und der Fernfokusebenenabstand ein Fokusabstandsband begrenzen, das einen Zentralfokusebenenabstand umfasst; das Bestimmen eines ersten Bildeigenschaftswertes des ersten Bildes und eines zweiten Bildeigenschaftswertes des zweiten Bildes durch einen Prozessor; das Bestimmen, durch einen Prozessor, einer Bildqualitätsmetrik aus den ersten und zweiten Bildeigenschaftswerten; das Vergleichen, durch den Prozessor, der Bildqualitätsmetrik mit einer Referenzmetrik; und basierend auf dem Vergleich, (i) Bestimmen durch den Prozessor, dass eine Fokusabweichung nicht aufgetreten ist, wenn die Bildqualitätsmetrik innerhalb eines Schwellenwerts der Referenzmetrik liegt, oder (ii) Bestimmen durch den Prozessor, dass eine Fokusabweichung aufgetreten ist, wenn die Bildqualitätsmetrik größer als der Schwellenwert der Referenzmetrik ist, und Einstellen, durch das Bildgebungssystem, eines Zentralfokusebenenabstands einer Linse mit variablem Fokus des Bildgebungssystems gemäß der Fokusabweichung.
  • In einer Variante dieser Ausführungsform kann das Verfahren ferner umfassen: Erhalten eines ersten Referenzbildes eines Referenzobjekts durch das Bildgebungssystem, wobei das erste Referenzbild, das mit dem Bildgebungssystem erhalten wurde, einen Fokus bei einen Nahfokusebenenabstand aufweist; Erhalten eines zweiten Referenzbildes des Referenzobjekts durch das Bildgebungssystem, wobei das zweite Referenzbild, das mit dem Bildgebungssystem erhalten wurde, einen Fokus bei einem Fernfokusebenenabstand aufweist; Bestimmen, durch einen Prozessor, eines ersten Referenzbildeigenschaftswertes des ersten Referenzbildes und eines zweiten Referenzbildeigenschaftswertes des zweiten Referenzbildes; und Bestimmen, durch einen Prozessor, der Referenzmetrik aus den ersten und zweiten Referenzbildeigenschaftswerten.
  • In noch einer weiteren Variante der aktuellen Ausführungsform umfasst das Bestimmen der Bildqualitätsmetrik das Bestimmen eines von einer Differenz zwischen dem ersten und dem zweiten Bildeigenschaftswert, einer Addition des ersten und des zweiten Bildeigenschaftswertes, eines Quotienten aus dem ersten und dem zweiten Bildeigenschaftswert oder eines Durchschnitts des ersten und des zweiten Bildeigenschaftswertes. In weiteren Varianten umfasst das Bestimmen der Bildqualitätsmetrik das Bestimmen eines von einer Differenz zwischen dem ersten und dem zweiten Bildeigenschaftswert, einer Addition des ersten und des zweiten Bildeigenschaftswertes, eines Quotienten aus dem ersten und dem zweiten Bildeigenschaftswert oder eines Durchschnitts des ersten und des zweiten Bildeigenschaftswertes.
  • In einer anderen Ausführungsform ist die vorliegende Erfindung ein computerimplementiertes Verfahren zum Unterscheiden einer Fokusabweichung eines Bildgebungssystems aus Positionsänderungen eines Objekts von Interesse. Das Verfahren umfasst das Erhalten eines Bildes eines Objekts von Interesse durch das Bildgebungssystem; das Identifizieren eines Bereichs von Interesse in dem Bild durch den Prozessor, wobei der Bereich von Interesse ein Zeichen enthält, das auf das Objekt von Interesse hinweist; das Bestimmen einer Bildqualität des Bildes durch den Prozessor; das Analysieren des Zeichens durch den Prozessor und das Bestimmen einer Pixelmessung des Zeichens, und das Vergleichen der Pixelmessung des Zeichens mit einer Referenzpixelmessung durch den Prozessor; und basierend auf dem Vergleich, Bestimmen durch den Prozessor, dass die Bildqualität des Bildes aus einer Differenz in einem Abstand des Objekts von dem Bildgebungssystem und einem Referenzabstand von dem Bildgebungssystem resultiert, wenn die Pixelmessung außerhalb eines Schwellenwertes der Referenzpixelmessung liegt, und Bestimmen, dass die Bildqualität des Bildes aus einer Fokussierungsabweichung des Bildgebungssystems resultiert, wenn die Pixelmessung innerhalb eines Schwellenwertes der Referenzpixelmessung liegt.
  • In einer Variante der aktuellen Ausführungsform umfasst das Verfahren ferner das Erhalten eines Bildes des Referenzzeichens durch das Bildgebungssystem; und das Durchführen der Referenzpixelmessung an dem Referenzzeichen durch den Prozessor. In weiteren Variationen der aktuellen Ausführungsform umfasst das Verfahren das Bestimmen eines Abstands des Objekts von Interesse von dem Bildgebungssystem durch den Prozessor und aus der Pixelmessung; und wobei das Vergleichen der Pixelmessung mit der Referenzpixelmessung das Vergleichen des Abstands des Objekts von Interesse mit einem Referenzabstand durch den Prozessor umfasst, wobei der Referenzabstand aus der Referenzpixelmessung bestimmt wird.
  • Figurenliste
  • Die beigefügten Figuren, in denen gleiche Bezugszeichen identische oder funktional ähnliche Elemente in den einzelnen Ansichten bezeichnen, sind zusammen mit der nachfolgenden detaillierten Beschreibung in die Offenbarung inkorporiert und bilden einen Bestandteil der Offenbarung und dienen dazu, hierin beschriebene Ausführungsformen von Konzepten, die die beanspruchte Erfindung umfassen, weiter zu veranschaulichen und verschiedene Prinzipien und Vorteile dieser Ausführungsformen zu erklären.
    • 1 zeigt eine Scanstation mit variablem Fokus gemäß einer Ausführungsform der vorliegenden Erfindung.
    • 2 ist ein beispielhaftes Blockdiagramm eines Bildgebungslesers der Scanstation mit variablem Fokus von 1 gemäß einer Ausführungsform der vorliegenden Erfindung.
    • 3 zeigt eine perspektivische Ansicht einer weiteren Scanstation mit variablem Fokus und variablen Bildgebungsebenen gemäß einer Ausführungsform der vorliegenden Erfindung.
    • 4 ist ein Flussdiagramm, das ein Verfahren zum Unterscheiden einer Fokusabweichung eines Bildgebungssystems von einer Positionsänderung eines Objekts von Interesse darstellt.
    • 5A ist ein Bild eines Beispielzeichens für einen Strichcode, der von einem Bildgebungsleser gescannt wird.
    • 5B ist ein Beispielbild eines Zeichens als ein QR-Code, der von einem Bildgebungsleser gescannt wird.
    • 6 ist ein Flussdiagramm, das ein Verfahren zum Korrigieren einer Fokusabweichung in einem Bildgebungssystem darstellt.
    • 7 zeigt einen Bildgebungsleser einer Scanstation mit variablem Fokus und mehreren Fokusebenen zum Durchführen des Verfahrens von 6.
  • Fachleute werden erkennen, dass Elemente in den Figuren der Einfachheit und Klarheit halber dargestellt sind und nicht notwendigerweise maßstabsgetreu gezeichnet wurden. Zum Beispiel können die Dimensionen einiger der Elemente in den Figuren relativ zu anderen Elementen übertrieben sein, um das Verständnis von Ausführungsformen der vorliegenden Erfindung zu verbessern.
  • Die Vorrichtungs- und Verfahrenskomponenten wurden, wo es angemessen ist, durch herkömmliche Symbole in den Zeichnungen dargestellt, die nur jene spezifischen Details zeigen, die zum Verständnis der Ausführungsformen der vorliegenden Erfindung relevant sind, um somit die Offenbarung nicht mit Einzelheiten zu verdecken, die für die Fachleute auf dem Gebiet, die auf die vorliegende Beschreibung zurückgreifen, ohne weiteres ersichtlich sind.
  • DETAILLIERTE BESCHREIBUNG
  • Elektrisch gesteuerte Linsen mit variablem Fokus (VF) sind bequeme, stromsparende Lösungen für den schnellen Autofokus (AF) auf Objekte von Interesse (OOI) in der maschinellen Bildverarbeitung und bei Strichcodeanwendungen. Wenn sich jedoch die Lage der Objekte von Interesse im Sichtfeld ändert (z. B. Teile, die sich auf einem Förderband bewegen, eine Person, die ein Objekt durch das Sichtfeld des Scanners bewegt, usw.), kann ein AF-Bildgebungssystem das OOI möglicherweise nicht bestimmen, oder wenn sich das OOI in einem anderen Abstand zum Bildgebungssystem befindet. Bei vielen Scananwendungen ist es wünschenswert, die Fokusebene konstant zu halten. VF-Linsen liefern kein Rückmeldesignal, das die aktuelle optische Leistung oder den Fokus anzeigt, die sich nach der Ersteinstellung aufgrund von Schwankungen der Umgebungstemperatur, Alterung und anderen Faktoren ändern können. Mit dem vorgeschlagenen System und Verfahren kann das System feststellen, ob eine Fokusverschiebung stattgefunden hat oder ob sich das OOI in einem anderen Abstand zum Bildgebungssystem befindet. Das offenbarte System und Verfahren ermöglicht auch die Korrektur der Fokusverschiebung eines Bildgebungssystems, das eine VF-Linse verwendet.
  • Das offenbarte System und die Verfahrens schlagen vor, Bilder von einem oder mehreren OOI's zu erhalten und zu bestimmen, ob eine Bildqualität der erhaltenen Bilder auf einen Unterschied im OOI-Abstand oder auf eine Fokusabweichung des Bildgebungssystems zurückzuführen ist. Das Verfahren kann eine Pixelmessung von einem oder mehreren Bildern verwenden, um festzustellen, ob eine Fokusabweichung aufgetreten ist. Darüber hinaus ermöglichen das offenbarte System und die Verfahren eine Korrektur der Fokusabweichung eines Bildgebungssystems. Die Verfahren umfassen das Erfassen von Bildern eines OOI bei verschiedenen Fokussen des Bildgebungssystems und das Bestimmen von Bildeigenschaftswerten für die verschiedenen Bilder. Die Bildeigenschaftswerte werden verglichen, eine Fokusabweichung wird bestimmt, und der Fokus des Bildgebungssystems wird gemäß der bestimmten Fokusabweichung eingestellt.
  • 1 zeigt eine beispielhafte Umgebung, in der Ausführungsformen der vorliegenden Erfindung, einschließlich der hierin beschriebenen und dargestellten Verfahren, implementiert werden können. Im vorliegenden Beispiel wird die Umgebung in Form einer Scanstation 100 bereitgestellt, in der Waren 102 über oder entlang einer Scanfläche 104 bewegt und von einem Bildgebungsleser 106 gescannt werden, um die Waren 102 zu identifizieren. In einigen Ausführungsformen handelt es sich bei der Scanstation um eine Verkaufspunkt (POS) -Station (POS = Point-of-Sale), die über ein Computersystem und eine nicht dargestellte Schnittstelle zum optischen Scannen von Waren und zur Identifizierung der Waren und ihrer Eigenschaften verfügen kann, um eine Transaktion zu beeinflussen. In einigen Ausführungsformen ist die Scanstation 100 Teil eines Warenauslieferungssystems, bei dem die Waren durch die Scanoberfläche oder über die Scanoberfläche befördert werden, um die Auslieferung der Waren zu überwachen und zu steuern, z. B. den Versand von Waren aus einer Einrichtung oder den Empfang von versendeten Waren in einer Einrichtung.
  • Die Scanoberfläche 104 kann eine stationäre Fläche sein, so dass die Waren 102 manuell relativ zur Fläche 104 bewegt werden. In einigen Ausführungsformen kann die Scanoberfläche 104 die Waren 102 bewegen oder durch andere automatische Mittel bewegt werden. In anderen Ausführungsformen kann die Scanoberfläche 104 eine sich bewegende Fläche sein, z. B. durch ein Fördersystem wie ein Förderband, eine pneumatische Förderanlage, ein Radförderer, ein Rollenförderer, ein Kettenförderer, ein Flachförderer, ein Senkrechtförderer, ein Wagenförderer oder ein anderes Fördermittel. In jedem Fall können die Waren 102 kontinuierlich relativ zum Bildgebungsleser 106 bewegt werden, so dass sich die Waren 102 ständig durch einen Arbeits- (oder Scan-) Bereich 108 der Station 100 bewegen. In einigen Beispielen bewegen sich die Waren 102 auf diskrete Weise, wobei die Waren 102 zumindest einen Teil der Zeit auf der Oberfläche 104 relativ zum Bildgebungsleser 106 für eine Zeitspanne fixiert bleiben, die ausreicht, um ein oder mehrere Bilder von den Waren 102 zu erfassen.
  • Die Waren 102 können sich entlang verschiedener, im Wesentlichen linearer Pfade 110A, 110B usw. bewegen, wobei jeder Pfad den Arbeitsbereich 108 durchquert, jedoch in einem anderen Abstand vom Bildgebungsleser 106. Die Pfade 110A, 110B dienen nur der Veranschaulichung, da die Waren 102 die Oberfläche 104 in beliebigem Abstand zum Bildgebungsleser 106 durchqueren können.
  • In einigen beispielhaften Ausführungsformen umfasst der Bildgebungsleser 106 ein Bildgebungssystem mit variablem Fokus, bei dem der Bildgebungsleser 106 kontinuierlich nach einem Objekt von Interesse (OOI) (z. B. den Waren 102) in seinem Sichtfeld sucht, bis das Objekt oder ein Bereich von Interesse des OOI (z. B. ein Strichcode, eine Seriennummer, andere Identifikatoren usw.) lokalisiert und dann ausreichend in den Fokus des Bildgebungssensors gebracht ist. Bei zumindest einigen Ausführungsformen der vorliegenden Erfindung scannt der Bildgebungsleser das Objekt (z. B. die Ware 102) nur in diskreten, festgelegten Abständen, die den Bildgebungsebenen des Bildgebungslesers 106 entsprechen. Anstelle eines kontinuierlichen Scans nimmt der Bildgebungsleser 106 schneller Bilder in einer oder mehreren vorgegebenen Bildgebungsebenen auf. Die Bildgebungsebenen sind relativ zum Bildgebungsleser 106 definiert. Zur Veranschaulichung fallen in 1 die Bildgebungsebenen zufällig mit den Pfaden (z. B. 110A, 110B usw.) zusammen, auf denen sich die Waren 102 bewegen. Es ist jedoch wahrscheinlicher, dass die Bildgebungsebenen nicht genau mit dem Scanpfad der Waren übereinstimmen. Während in 1 der Bildgebungsleser 106 seitlich von den Waren 102 dargestellt ist, kann der Bildgebungsleser 106 in Ausführungsformen direkt über den Waren 102, über den Waren 102 vor oder hinter den Waren 102, die für die Abbildung des OOI konfiguriert sind, oder an einer anderen Position zur Bildgebung eines Bereichs von Interesse der Waren 102 oder eines OOI positioniert sein. Der Bildgebungsleser 106 erfasst Bilder in jeder der Bildgebungsebenen, wobei die erfassten Bilder der Ware im Fokus variieren, je nachdem, wo sich die Ware (und ihr Scanpfad) relativ zum Bildgebungsleser 106 befindet. Das heißt, dass die Ware in einigen Bildgebungsebenen stärker fokussiert erscheint als in anderen. Indem der Bildgebungsleser 106 Bilder der Waren nur in bestimmten Bildgebungsebenen erfasst, kann er die Waren 102 viel schneller identifizieren als ein herkömmliches Autofokussystem. Der Bildgebungsleser 106 kann so konfiguriert werden, dass der Autofokus deaktiviert wird und stattdessen Bilder in bestimmten Bildgebungsebenen erfasst werden, unabhängig davon, welchen Scanpfad die Ware durchläuft, und ohne dass die Ware kontinuierlich erkannt und automatisch fokussiert werden muss. Dieser Vorgang reduziert den Stromverbrauch des Bildgebungslesers 106 erheblich.
  • Wie bereits beschrieben, kann es bei elektrisch abstimmbaren AF-Linsen aufgrund von Umgebungs- und anderen Faktoren zu einer Abweichung der Fokusebene kommen, was zu einer Defokussierung der Bilder von OOI führt und die Wirksamkeit des VF-Bildgebungslesers 106 verringert. Wie hier weiter ausgeführt, kann die Identifizierungs- und Scaneffizienz erhöht werden, indem der Bildgebungsleser 106 aktiv feststellt, ob eine Fokussierungsabweichung aufgetreten ist, und die Fokussierungsabweichung aktiv bestimmt und korrigiert. Die offenbarten Systeme und Verfahren ermöglichen eine höhere Effizienz und damit einen geringeren Zeitaufwand für das Lesen von Zeichen auf einem OOI, z. B. zur Identifizierung eines Zeichens oder eines anderen Strichcodes auf der Ware. Mindestens einige der hierin beschriebenen Bildqualitätsmetriken und -parameter, Scanparameter und/oder Kalibrierungsparameter können auf einem Server 112 gespeichert werden, der kommunikativ mit dem Bildgebungsleser 106 gekoppelt ist, und der Bildgebungsleser kann die Bildqualitätsmetriken und -parameter, Scanparameter und/oder Kalibrierungsparameter vom Server oder einem anderen Speicher oder einer anderen Speicherform abrufen.
  • 2 zeigt ein Blockverbindungsdiagramm des Systems 200 mit einem Bildgebungsleser 106. In 2 kann der Bildgebungsleser 106 über einen oder mehrere Prozessoren und einen oder mehrere Speicher verfügen, in denen computerausführbare Anweisungen gespeichert sind, um Operationen im Zusammenhang mit den hierin beschriebenen Systemen und Verfahren durchzuführen. Der Bildgebungsleser 106 umfasst eine Netzwerk-Eingangs-/Ausgangs (E/A) -Schnittstelle zum Anschluss des Lesers an den Server 112, ein Bestandsverwaltungssystem (nicht dargestellt) und andere Bildgebungsleser. Diese Vorrichtungen können über jedes geeignete Kommunikationsmittel verbunden werden, einschließlich drahtgebundener und/oder drahtloser Verbindungskomponenten, die einen oder mehrere Kommunikationsprotokollstandards wie z. B. TCP/IP, WiFi (802.11b), Bluetooth, Ethernet oder andere geeignete Kommunikationsprotokolle oder -standards implementieren. Der Bildgebungsleser 106 umfasst außerdem ein Display, auf dem Informationen wie visuelle Indikatoren, Anweisungen, Daten und Bilder für einen Benutzer bereitgestellt werden könne.
  • In einigen Ausführungsformen kann sich der Server 112 (und/oder andere angeschlossene Vorrichtungen) in derselben Scanstation 100 befinden. In anderen Ausführungsformen kann sich der Server 112 (und/oder andere angeschlossene Vorrichtungen) an einem entfernten Standort befinden, z. B. auf einer Cloud-Plattform oder einem anderen entfernten Standort. In wieder anderen Ausführungsformen kann der Server 112 (und/oder andere angeschlossene Vorrichtungen) aus einer Kombination von lokalen und Cloud-basierten Computern gebildet sein.
  • Der Server 112 ist so konfiguriert, dass er Computerbefehle ausführt, um die mit den hierin beschriebenen Systemen und Verfahren verbundenen Operationen durchzuführen. Der Server 112 kann Software für Unternehmensdienste implementieren, die z. B. RESTful (Representational State Transfer) API-Dienste, Nachrichtenwarteschlangen und Ereignisdienste umfassen, die von verschiedenen Plattformen oder Spezifikationen bereitgestellt werden können, z. B. die J2EE-Spezifikation, die von der Oracle WebLogic Server-Plattform, der JBoss-Plattform oder der IBM WebSphere-Plattform usw. implementiert wird. Andere Technologien oder Plattformen, wie Ruby on Rails, Microsoft .NET oder ähnliche, können ebenfalls verwendet werden.
  • Im gezeigten Beispiel umfasst der Bildgebungsleser 106 eine Lichtquelle 202, bei der es sich um eine Lichtquelle für sichtbares Licht (z. B. eine LED, die bei 640 nm emittiert) oder eine Infrarotlichtquelle (z. B. bei oder um 700 nm, 850 nm oder 940 nm) handeln kann, die in der Lage ist, einen Beleuchtungsstrahl zu erzeugen, der den Arbeitsbereich 108 für die Bildgebung über einen gesamten Arbeitsabstand dieses Arbeitsbereichs 108 beleuchtet. Das heißt, die Lichtquelle 202 ist so konfiguriert, dass sie zumindest den gesamten Arbeitsbereich 108 ausleuchtet. Die Beleuchtungsintensität der Lichtquelle 202 und die Empfindlichkeit eines Bildgebungslesers können die weitere und die kürzeste Entfernung (die die Entfernung des Arbeitsbereichs, auch als Scanbereich bezeichnet, definieren) bestimmen, über die eine Ware gescannt und ein Strichcode auf der Ware dekodiert werden kann. Die Lichtquelle 202 wird von einem Prozessor gesteuert und kann eine kontinuierliche Lichtquelle, eine intermittierende Lichtquelle oder eine signalgesteuerte Lichtquelle sein, wie z. B. eine Lichtquelle, die von einem Objekterkennungssystem ausgelöst wird, das mit dem Bildgebungsleser 106 gekoppelt ist (oder als Teil davon gebildet ist, jedoch nicht gezeigt wird). Die Lichtquelle kann eine omnidirektionale Lichtquelle sein.
  • Der Bildgebungsleser 106 umfasst ferner eine Bildgebungsanordnung 204 mit einem Bildgebungssensor 206, der so positioniert ist, dass er Bilder eines beleuchteten Ziels, wie z. B. der Waren 102 oder eines anderen OOI, innerhalb des Arbeitsbereichs 108 erfasst. In einigen Ausführungsformen wird der Bildsensor 206 aus einem oder mehreren CMOS-Bild-Arrays gebildet. Ein optisches Element 208 mit variabler Fokussierung ist zwischen dem Bildsensor 206 und einem Fenster 210 des Bildgebungslesers 106 angeordnet. Eine Bildgebungssteuerung 214 für variablen Fokus ist mit dem optischen Element 208 mit variabler Fokussierung gekoppelt und steuert das Element 208, um eine oder mehrere diskrete Bildgebungsebenen für den Bildgebungssensor zu definieren. Die eine oder mehreren diskreten Bildgebungsebenen können als eine oder mehrere zentrale Fokusebenen betrachtet werden, wie hierin beschrieben. Wie bereits beschrieben, ist eine zentrale Fokusebene diejenige Bildgebungsebene, von der erwartet wird, dass sie den größten Wert für die Bildkantenschärfe ergibt.
  • Im gezeigten Beispiel ist die Steuerung 214 über eine Aktuator-Steuereinheit 215 mit dem optischen Element 208 mit variabler Fokussierung gekoppelt und umgeht eine optionale Autofokus-Steuereinheit 217, wodurch eine schnellere Bilderfassung in den gewünschten Bildgebungsebenen ermöglicht wird, indem die langsameren Autofokus-Steuereinheiten herkömmlicher Systeme außer Kraft gesetzt werden. In beispielhaften Ausführungsformen verfügt der Bildgebungsleser 106 nicht über eine Autofokus-Steuereinheit oder eine Autofokus-Funktion. Der Aktuator 215 kann einen Fokussierungslinsenantrieb, einen Verschiebungslinsenantrieb, einen Zoomlinsenantrieb, einen Aperturantrieb, einen Winkelgeschwindigkeitsantrieb, einen Schwingspulenmotorantrieb und/oder andere Antriebseinheiten zur Steuerung des Betriebs des optischen Elements 208 umfassen, das selbst mehrere Linsen, Linsenstufen usw. umfassen kann.
  • Das optische VF-Element 208 kann ein verformbares Linsenelement, eine Flüssigkeitslinse, eine T-Linse oder ein anderes optisches VF-Element sein. In einigen Ausführungsformen umfasst das optische Element einen Schwingspulen-Aktuatormotor im Aktuator 215, der durch die Steuerung 214 steuerbar eingestellt wird. In beispielhaften Ausführungsformen, wie z. B. bei einigen Strichcodescananwendungen, hat das optische VF-Element 208 eine Apertur von 1,5 mm bis 3 mm. In einigen Ausführungsformen ist der Bildtisch 204 als Teil einer VF-Kamerabaugruppe implementiert.
  • In einigen Ausführungsformen ist die VF-Bildsteuerung 214 so konfiguriert, dass sie auf einen oder mehrere Scanparameter 216 zugreift, die im Bildgebungsleser 106, auf dem Server 112 oder auf einem anderen Medium gespeichert sind. Aus diesen Scanparametern 216 bestimmt die Steuerung 214 die Anzahl der diskreten zentralen Fokusbildgebungsebenen, in denen der Bildgebungsleser 106 nach Bildern des Ziels oder eines OOI (wie z. B. Waren 102) scannt und diese erfasst. Die Steuerung 214 bestimmt ferner den Abstand jeder dieser zentralen Fokusbildgebungsebenen, gemessen vom Bildgebungssensor 206. Die Steuerung 214 kann zum Beispiel die Anzahl und den Abstand der zentralen Fokusbildgebungsebenen so bestimmen, dass der gesamte Arbeitsbereich 108 von fünf (5) oder weniger Bildgebungsebenen abgedeckt wird. In einigen Beispielen kann die Anzahl der Bildgebungsebenen mit zentralem Fokus in Abhängigkeit von den Scanparametern 216 drei (3) oder weniger betragen.
  • Die Bildgebungssteuerung 214 wandelt diese ermittelten zentralen Fokusbildgebungsebenen und zentralen Fokusabstände in Parameter oder Anweisungen zur Steuerung des Aktuators 215 zur Steuerung des optischen Elements 208 mit variablem Fokus um.
  • In beispielhaften Ausführungsformen verfügt die Bildgebungssteuerung 214 für variablen Fokus über einen Freihandmodus, in dem das optische Element 208 mit variablem Fokus und der Bildgebungssensor 206 so gesteuert werden, dass sie ein Bild des Ziels in jeder der zentralen Fokusbildgebungsebenen innerhalb des Arbeitsbereichs in geordneter Weise erfassen, um einen Satz erfasster Bilder des Ziels zu bilden, die im Speicher gespeichert werden. In einigen Ausführungsformen ist diese geordnete Art und Weise eine sequentielle Reihenfolge, z. B. von der nächstgelegenen zentralen Fokusbildgebungsebene zur am weitesten entfernten oder umgekehrt, gemessen vom Bildgebungssensor 206.
  • In einigen beispielhaften Ausführungsformen ist der Bildgebungsleser 106 in einer handgehaltenen Strichcodescanvorrichtung implementiert. Wenn der handgehaltene Scanner in eine stationäre Halterung gestellt wird und dadurch eine aufrechte Scanposition einnimmt, kann der handgehaltene Scanner diese Position automatisch erkennen und in den Freihandmodus wechseln. In anderen beispielhaften Ausführungsformen ist der Bildgebungsleser 106 als Mehrebenenscanner implementiert, z. B. als bioptischer Scanner, wie in 3 gezeigt.
  • In beispielhaften Ausführungsformen wird das optische Element 208 mit variablem Fokus diskret so gesteuert, dass es zu jeder zentralen Fokusebene springt, wodurch ein Schwenkvorgang zwischen den Bildgebungsebenen vermieden wird.
  • In bestimmten Ausführungsformen kann der Bildsensor 112 eine ladungsgekoppelte Vorrichtung oder eine andere Festkörperbildgebungsvorrichtung sein. Bei dem Bildgebungssensor 112 kann es sich um einen Ein-Megapixel-Sensor mit Pixeln von etwa drei Mikrometern Größe handeln. In Ausführungsformen umfasst der Bildgebungssensor 112 einen Sensor mit einer aktiven Fläche von 3 Millimetern, 4,5 Millimetern, 5 Millimetern, 6,8 Millimetern, 7,13 Millimetern, weniger als 5 Millimetern, weniger als 10 Millimetern oder weniger als 50 Millimetern. Der Bildgebungssensor 112 kann insgesamt etwa 1 Megapixel, 2 Megapixel, 2,3 Megapixel, 5 Megapixel, 5,1 Megapixel oder mehr als 5 Megapixel aufweisen. Darüber hinaus kann der Bildgebungssensor 112 Sensoren mit Pixeln enthalten, die in mindestens einer Dimension des Pixels weniger als 10 Mikrometer, weniger als 5 Mikrometer, weniger als 3 Mikrometer oder weniger als 2 Mikrometer groß sind. In bestimmten Ausführungsformen ist die Linsenbaugruppe so konfiguriert, dass sie Bilder mit einer Modulationsübertragungsfunktion von 40 % bei 160 Linienpaaren pro Millimeter erfasst.
  • 3 zeigt eine beispielhafte Scanstation 300 mit einem Bildgebungsleser 302 in Form eines bioptischen Scanners mit einem Gehäuse 304 und einem ersten Scanfenster 306, hinter dem sich eine Beleuchtungsquelle (nicht dargestellt) und eine Bildgebungsstufe (nicht dargestellt) wie in 2 befinden. Der Bildgebungsleser 302 ist neben einer Scanfläche 308 positioniert und definiert einen sich horizontal und vertikal erstreckenden Arbeitsbereich 310, der von dem Bildgebungsleser 302 beleuchtet wird und in dem sich drei definierte mittlere Bildgebungsebenen 312, 314 und 316 befinden, in denen der Bildgebungsleser 302 Bilder eines Objekts zur Identifizierung und Bildgebung erfasst. Der Klarheit und Einfachheit halber wird in den Beschreibungen der Systeme und Verfahren zur Bestimmung, ob eine Fokusverschiebung stattgefunden hat, und zur Korrektur der Fokusverschiebung weiterhin eine einzige zentrale Bildgebungsebene verwendet. Es sei verstanden, dass die Systeme und Verfahren nicht auf eine einzige zentrale Fokusbildgebungsebene beschränkt sind und dass die offenbarten Systeme und Verfahren zur Bestimmung und Korrektur der Fokusverschiebung für eine beliebige Anzahl von Fokusbildgebungsebenen angewendet werden können, die durch die Beschränkungen des Bildgebungssystems (d. h. Auflösung der Bildgebungskamera, Arbeitsbereich des Bildgebungssystems, Beleuchtungsmöglichkeiten usw.) möglich sind.
  • 4 zeigt ein Verfahren 400 zum Unterscheiden einer Fokusabweichung eines Bildgebungssystems von einer Positionsänderung eines Objekts von Interesse. Das Verfahren 400 kann in Systemen mit einer geringen Bildschärfetoleranz (d. h. eine erforderliche Mindestschärfe beträgt weniger als 20 % der maximalen Bildschärfe), Systemen mit relativ langsamen Fördergeschwindigkeiten und/oder relativ niedrigen Bildwechselfrequenzen implementiert werden, bei denen mehrere nicht dekodierte Bilder akzeptabel sind, während eine Dekodierrate von 100 % beibehalten wird, was zu einer Identifizierung und Dekodierung von Zeichen führt, die auf alle OOIs hinweisen. Das Verfahren 400 kann zum Beispiel durch die Bildgebungsleser 106 und 302 der 1 bis 3 implementiert werden. Im Beispiel eines handgehaltenen Scanners schaltet der Bildgebungsleser zunächst in einen Freihandmodus, der anzeigt, dass ein Durchzugsscan durchgeführt werden soll. In einigen Beispielen enthält der handgehaltene Scanner einen Auslöser an oder in der Nähe eines Griffs, und wenn der Auslöser gedrückt wird, schaltet der Scanner in den Freihandmodus für das Durchziehscannen. In einigen Ausführungsformen ist der Bildgebungsscanner Teil einer Scanstation eines Inventarsystems, bei dem Waren durch die Scanfläche oder über die Scanfläche befördert werden, um die Lieferung der Waren zu überwachen und zu steuern, z. B. den Versand von Waren aus einer Einrichtung oder den Empfang von versendeten Waren in einer Einrichtung, wie in 1 dargestellt. Daher kann der Bildgebungsscanner von 1 hauptsächlich im Freihandmodus arbeiten, und ein manueller Modus kann für manuelles Scannen und/oder Kalibrierungszwecke aktiviert werden. Darüber hinaus können die hier beschriebenen Verfahren mit dem Scanner von 1 als Inspektionsstation implementiert werden, bei der sich ein OOI in ein Sichtfeld des Scanners bewegt, das OOI kurzzeitig im Sichtfeld verweilt, um abgebildet zu werden, und sich dann aus dem Sichtfeld bewegt.
  • Der Einfachheit halber wird das Verfahren 400 unter Bezugnahme auf die Komponenten der 1 und 2 beschrieben, aber es sei verstanden, dass das Verfahren 400 für jedes Bildgebungssystem zum Scannen eines Ziels oder Objekts von Interesse durchgeführt werden kann. Der Bildgebungsleser 106 ermittelt in Block 402 die Scanparameter. In beispielhaften Ausführungsformen umfassen die Scanparameter die Framerate des Bildsensors des Bildgebungslesers, die Belichtungszeit dieses Bildsensors, die Apertur oder den Aperturbereich des optischen Elements mit variablem Fokus, die Durchziehgeschwindigkeit der Bewegung des Ziels, eine automatische Bewegungsgeschwindigkeit eines Förderbands oder eine andere Geschwindigkeit eines Mittels zum automatischen Durchziehen, eine Größe des Arbeitsabstands, eine kürzeste Entfernung des Arbeitsabstands, eine weiteste Entfernung des Arbeitsabstands und/oder die Fokussierungszeit des optischen Elements mit variablem Fokus. Solche Parameter können innerhalb des Bildgebungslesers 106 gespeichert werden, beispielsweise im Speicher des Bildgebungslesers, und/oder einer oder mehrere der Scanparameter können in einem anderen System, beispielsweise auf dem Server 200, gespeichert werden. Darüber hinaus können einer oder mehrere der Scanparameter in einzelnen Elementen des Bildgebungslesers 106 gespeichert werden, wie z. B. in dem optischen Element mit variablem Fokus 208, der Bildgebungssteuerung für variablen Fokus 214 und/oder anderen Elementen des Bildgebungslesers 106.
  • In einigen Fällen handelt es sich bei den Scanparametern um zielspezifische Parameter, wie z. B. die Art und/oder Größe der zu scannenden Ziele. In einigen Ausführungsformen umfassen die Scanparameter die Arten von Zeichen auf den Zielen, z. B. ob die Ziele 1D- oder 2D-Strichcodes, QR-Codes, UPC-Codes oder andere identifizierende Zeichen enthalten.
  • In einigen Ausführungsformen kann die Ermittlung der Scanparameter die Ermittlung von Kalibrierungsparametern umfassen. Die Kalibrierungsparameter können einen oder mehrere Defokussierungsparameter, Nahfokusebenenparameter, Zentralfokusebenenparameter und Fernfokusebenenparameter umfassen. In einigen Ausführungsformen können die Kalibrierungsparameter Scanparameter zur Bestimmung der Nah-, Zentral- und Fernfokusebene umfassen. In einigen Beispielen werden einige Scanparameter und Kalibrierungsparameter von dem Bildgebungsleser erhalten, der mit einem Server, wie dem Server 112, kommuniziert, der einen Bestandsverwaltungsmanager enthalten kann, der auf Informationen über Ziele und OOIs zugreift.
  • Die Bildgebungssteuerung 214 für variablen Fokus steuert bei 404 den Bildgebungssensor 206, um ein Bild eines Ziel-OOI, wie z. B. der Ware 102, zu erhalten. Die Bildgebungssteuerung 214 für variablen Fokus kann die erhaltenen Scanparameter bewerten und den Bildsensor, das optische Element mit variablem Fokus und andere Komponenten des Bildgebungslesers 106 gemäß den Scanparametern steuern, um das Bild zu erhalten. Der Prozessor des Bildgebungslesers 106 identifiziert bei 406 einen Bereich von Interesse in dem erfassten Bild. Der Bereich von Interesse im Bild kann einen Strichcode, eine Seriennummer, ein alphanumerisches Zeichen, eine Grafik oder ein anderes Zeichen enthalten, das auf das Ziel oder das OOI hinweist.
  • Bei 408 analysiert der Prozessor des Bildgebungslesers 106 das Bild und bestimmt eine Bildqualität des Bildes. Beispielsweise kann der Prozessor bei 408 das Bild des OOI analysieren, indem er eine Bildverarbeitung an dem Bild vornimmt. Die Bildverarbeitung kann die Anwendung eines räumlichen Tiefpassfilters, eines räumlichen Hochpassfilters, eines Fourier-Tiefpass- oder - Hochpassfilters, die Durchführung einer Rauschunterdrückung, einer Skalierung, Drehung, Scherung, Reflexion oder einer anderen Bildfilter- oder Bildverarbeitungstechnik umfassen. Darüber hinaus kann die Analyse des Bildes und die Bestimmung des Bildqualitätswertes für das Bild die Bestimmung eines Schärfewertes, eines Kontrastwertes, einer Bildauflösung, eines Wertes für den räumlichen Frequenzgehalt, eines Rauschmesswertes, eines Wertes für den dynamischen Bereich, einer Messung der Bildverzerrung, eines Unschärfewertes, eines Wertes für Pixel pro Modul, einer Modulationsübertragungsfunktion oder eines anderen Wertes umfassen, der mit einem Bild oder der Bildqualität verbunden ist.
  • Die Beschreibung des Verfahrens 400 von 4 wird unter zusätzlicher Bezugnahme auf die 5A und 5B fortgesetzt. 5A ist ein Beispielbild eines Beispielzeichens 500 als Strichcode, der vom Bildgebungsleser 106 gescannt wird, und 5B ist ein Beispielbild des Zeichens 500 als QR-Code, der vom Bildgebungsleser 106 gescannt wird. Obwohl als Beispiel für einen Strichcode und einen QR-Code dargestellt, kann das Zeichen 500 ein 1D- oder 2D-Strichcode, ein anderer Strichcode, ein statischer QR-Code, ein dynamischer QR-Code, ein UPC-Code, eine Seriennummer, ein alphanumerischer Code oder ein anderes Zeichen sein, das auf ein OOI hinweist. In Block 410 analysiert der Prozessor das Zeichen 500 im Bereich von Interesse und in Block 412 bestimmt der Prozessor eine Pixelmessung des Zeichens 500. Um das Zeichen 500 zu analysieren, kann der Prozessor eine Bildverarbeitung für den Bereich von Interesse durchführen, um Merkmale des Zeichens 500 für die Bestimmung der Pixelmessung zu bestimmen. So kann der Prozessor beispielsweise das Bild schärfen und eine Kantenerkennung am Bild durchführen, um die Pixel des Bildes des Zeichens 500 zu bestimmen und die Pixelmessung durchzuführen. Während das Beispiel des Schärfens und der Durchführung der Kantenerkennung ein Beispiel ist, kann der Prozessor auch andere Bildverarbeitungen und Analysen des Bildes des Zeichens 500 zur weiteren Bestimmung der Pixelmessung durchführen. Beispielsweise kann die Pixelmessung eine oder mehrere Messungen von Pixelschärfe, Kontrast, Kantenerkennung, Größe, Pixelauflösung, räumlichem Frequenzgehalt, Bild- oder Raumrauschen, Dynamikbereich, Messung von Bildverzerrungen, Unschärfe, Pixeln pro Modul, Rotationsnormalisierung oder einen anderen mit Pixeln eines Bildes oder der Bildqualität verbundenen Wert umfassen.
  • Bei der Bestimmung der Pixelmessung kann der Prozessor einen Pixelabstand bestimmen, der in Pixel pro Modul (PPM) gemessen wird. Der PPM-Wert des Bildes des Zeichens 500 kann etwa 0,7 bis zehn Pixel pro Modul betragen. In Ausführungsformen werden die beschriebenen Verfahren bei Werten von etwa 5 ± 0,5 PPM oder bei Werten von weniger als 5 PPM angewandt. Um die Pixelmessung durchzuführen, kann der Prozessor einen Pixelabstand zwischen Untergruppen von Strichen des Strichcodes bestimmen, z. B. den Pixelabstand 504a und 504b, der Pixelabstand kann ein Pixelabstand über eine gesamte Dimension des Bildes des Strichcodes sein, z. B. die Pixelabstände 504c und 504d, oder kann ein anderer Pixelabstand im Bild des Strichcodes von 5A sein. In dem Beispiel des QR-Codes in 5B kann der Pixelabstand bestimmt werden als der Pixelabstand 508a entlang einer Dimension eines Positionserfassungsmusters, ein Abstand 508b eines Datenbereichs zwischen Positionserfassungsmustern 510, ein gesamter Abstand 508c zwischen Positionserfassungsmustern, ein Abstand 508d von einem Positionserfassungsmuster 510 zu einem Rand des QR-Codes, ein Abstand 508e diagonal über Daten zwischen Positionserfassungsmustern 510, ein Abstand 508f über die gesamte Länge einer Dimension des QR-Codes, ein Abstand (nicht dargestellt) diagonal über die Gesamtheit des QR-Codes, ein Abstand über einen Unterbereich des Strichcodes oder ein anderer Abstand des Bildes des Strichcodes, der in einer Anzahl von PPM messbar ist. Darüber hinaus kann der Prozessor eine Pixelmessung durchführen, die einen Pixelabstand zwischen oder über mehrere Module, ein Zeitmuster, ein oder mehrere Ausrichtungsmuster, Bereiche von Codeformatinformationen, über Fehlerkorrekturmuster, Formatinformationen, Versionsinformationen oder andere Datenmuster des QR-Codes bestimmt.
  • Bei 414 vergleicht der Prozessor des Bildgebungslesers 106 die Pixelmessung mit einer Referenzpixelmessung. Die Referenzpixelmessung kann beispielsweise ein in Block 402 ermittelter Scanparameter sein, und die Referenzpixelmessung kann auf eine Pixelmessung eines Zeichens hinweisen, das fokussiert ist und sich in einer Fokusebene des Bildgebungssystems befindet. Die Referenzpixelmessung kann eine Referenzpixelmessung eines Strichcodes, QR-Codes, UPC-Codes oder eines anderen Identifikationsmerkmals sein. Die Referenzpixelmessung kann in einem Speicher des Bildgebungslesers 106 oder in einem anderen Speicher gespeichert werden, in dem die Referenzpixelmessung durch das Bildgebungssystem abrufbar ist. Bei der Referenzpixelmessung kann es sich um einen numerischen Wert, um Bilddaten, die auf ein Referenzbild eines Zeichens hinweisen, oder um eine andere Form von Daten handeln, mit denen die Pixelmessung verglichen wird. In einigen Ausführungsformen kann das Verfahren 400 ferner die Bestimmung der Referenzpixelmessung umfassen. Zum Beispiel kann der Bildgebungsleser 106 ein Referenzbild eines Referenzzeichens erhalten. Das Referenzzeichen kann in einem Referenz-oder kalibrierten Abstand vom Bildgebungsleser 106 platziert werden, z. B. kann das Referenzzeichen an einem der linearen Pfade 110A oder 110B platziert werden. Der Prozessor kann dann eine Bildverarbeitung und Analyse des Bildes des Referenzzeichens durchführen, und der Prozessor kann die Referenzpixelmessung durchführen und einen Referenzpixelabstand bestimmen.
  • Basierend auf dem Vergleich der Pixelmessung mit der Referenzpixelmessung bestimmt der Prozessor bei 416, ob die Bildqualität des Bildes aus einem Unterschied im Abstand des OOI (z. B. der Ware 102) vom Bildgebungsleser 106 (z. B. vom Bildgebungssensor 206 des Bildgebungssystems) oder aus einer Fokusabweichung des Bildgebungslesers 106 resultiert. Die Referenzpixelmessung kann ein Pixelabstand mit einem PPM-Wert von weniger als 1, von weniger als 10 oder in der Größenordnung von einigen zehn PPM sein. Ferner kann die Toleranz des PPM weniger als ±1, weniger als ±5 oder weniger als ±10 PPM betragen. In Block 418 stellt der Prozessor fest, dass die Bildqualität auf eine Änderung des Abstands des OOI vom Bildgebungsleser 106 zurückzuführen ist, wenn die Pixelmessung außerhalb des Bereichs des Schwellenwerts der Referenzpixelmessung liegt. In Block 420 bestimmt der Prozessor, dass die Bildqualität des Bildes auf eine Fokusabweichung des Bildgebungslesers 106 zurückzuführen ist, wenn die Pixelmessung innerhalb des Schwellenbereichs der Referenzpixelmessung liegt. Ferner kann der Prozessor in Ausführungsformen, in denen die Pixelmessung einen Pixelabstand zwischen Pixeln des Bildes oder des Bereichs von Interesse des Bildes umfasst, in Block 418 bestimmen, dass die Bildqualität auf eine Änderung des Abstands des OOI vom Bildgebungsleser 106 zurückzuführen ist, wenn der Pixelabstand außerhalb des Bereichs des Schwellenwerts des Referenzpixelabstands liegt, und in Block 420 bestimmt der Prozessor, dass die Bildqualität des Bildes auf eine Fokusabweichung des Bildgebungslesers 106 zurückzuführen ist, wenn der Pixelabstand innerhalb des Schwellenwertbereichs des Referenzpixelabstands liegt.
  • In einigen Ausführungsformen kann das Verfahren 400 ferner einen physischen Abstand des OOI vom Bildgebungsleser 106 bestimmen. Zum Beispiel kann einer oder mehrere der erhaltenen Scanparameter einen Referenzabstand als Kalibrierungsparameter enthalten. Der Referenzabstand kann ein bekannter oder kalibrierter Abstand von Referenzeichen sein, der zur Bestimmung der Referenzpixelmessung verwendet wird. Der Prozessor kann die Pixelmessung mit der Referenzpixelmessung vergleichen, und der Abstand des OOI kann aus dem Vergleich ermittelt werden. Der Prozessor kann anhand der Differenz zwischen der Pixelmessung und der Referenzpixelmessung (z. B. der Differenz zwischen den PPM-Werten) feststellen, ob das OOI näher am Bildgebungsleser 106 oder weiter vom Bildgebungsleser 106 entfernt ist. Der Prozessor kann bestimmen, dass der OOI weiter vom Bildgebungsleser 106 entfernt sein kann, wenn die Pixelmessung einen niedrigeren PPM-Wert ergibt als die Referenzpixelmessung, oder dass das OOI näher am Bildgebungssystem liegt, wenn die Pixelmessung größer ist als die Referenzpixelmessung. Der Abstand des OOI kann auch ohne die Verwendung eines Referenzabstands bestimmt werden. Beispielsweise kann der Abstand des OOI durch die Kenntnis bestimmter Parameter der optischen Elemente des Bildgebungslesers 106, wie z. B. Linsenfokus in Dioptrien, Sichtfeldwinkel und andere Geometrien und optische Parameter, bestimmt werden.
  • Des Weiteren sollte beachtet werden, dass der Abstand des OOI vom Bildgebungsleser 106 auch davon abhängt, wo sich das OOI im FOV (Sichtfeld) des Bildgebungslesers 106 befindet. Beispielsweise kann das OOI in der Nähe der Ränder des FOV weiter vom Bildgebungsleser 106 entfernt sein, während das OOI in der Mitte des FOV des Bildgebungslesers 106 dem Bildgebungsleser 106 am nächsten sein kann. Die Position des OOI und der Abstand zum Bildgebungsleser 106 können bei der Feststellung berücksichtigt werden, ob sich der Abstand zum OOI geändert hat oder ob eine Fokusabweichung im Bildgebungsleser 106 aufgetreten ist.
  • Ferner kann der Prozessor in den Blöcken 414 und 416 zum Vergleich der Pixelmessung und der Referenzpixelmessung einen bestimmten Abstand des OOI mit einem Referenzabstand vergleichen. Der Prozessor kann dann in Block 418 feststellen, ob die Bildqualität auf eine Änderung des Abstands zwischen dem OOI und dem Bildgebungsleser 106 zurückzuführen ist, wenn der ermittelte Abstand des OOI außerhalb eines Schwellenwerts des Referenzabstands liegt. Alternativ kann der Prozessor feststellen, dass die Bildqualität auf eine Fokusabweichung des Bildgebungslesers 106 zurückzuführen ist, wenn der Abstand des OOI innerhalb des Schwellenwerts des Referenzabstands liegt.
  • 6 ist ein Flussdiagramm, das ein Verfahren 600 zum Korrigieren einer Fokusabweichung in einem Bildgebungssystem darstellt. Das Verfahren 600 kann in Systemen mit einer geringen Bildschärfetoleranz (d. h. eine erforderliche Mindestschärfe beträgt weniger als 20 % der maximalen Bildschärfe), Systemen mit relativ langsamen Fördergeschwindigkeiten und/oder relativ niedrigen Bildwechselfrequenzen implementiert werden, wobei eine Dekodierrate von 100 % beibehalten wird, was zu einer Identifizierung und Dekodierung von Zeichen führt, die auf alle OOIs hinweisen. Das Verfahren 600 kann z. B. mit den Bildgebungslesern 106 und 302 der 1-3 durchgeführt werden. 7 zeigt einen Scanstationsbildgebungsleser 106 mit variablem Fokus und mehreren Fokusebenen zur Bildgebung von Waren 102 und zur Durchführung des Verfahrens 600 von 6. Der Einfachheit halber wird das Verfahren 600 unter Bezugnahme auf die Komponenten der 1, 2 und 7 beschrieben, aber es sei verstanden, dass das Verfahren 600 für jedes beliebige Bildgebungssystem zum Scannen eines Ziels oder Objekts von Interesse durchgeführt werden kann.
  • Der Bildgebungsleser 106 erhält in Block 602 Scanparameter. Solche Parameter können innerhalb des Bildgebungslesers 106 gespeichert werden, beispielsweise im Speicher des Bildgebungslesers, und/oder einer oder mehrere der Scanparameter können in einem anderen System gespeichert werden, beispielsweise auf dem Server 200. Darüber hinaus können einer oder mehrere der Scanparameter in einzelnen Elementen des Bildgebungslesers 106 gespeichert werden, wie z. B. in dem optischen Element mit variablem Fokus 208, der Bildgebungssteuerung 214 für variablen Fokus und/oder anderen Elementen des Bildgebungslesers 106. Verschiedene Komponenten, einschließlich der Bildgebungssteuerung 214 für variablen Fokus, der AF-Steuerung 217, des Aktuators 215 und des Prozessors des Bildgebungslesers 106 können die Scanparameter für die Durchführung von Bildscans und die Gewinnung von Bildern eines OOI erhalten und/oder bewerten. Der Prozessor bewertet die Scanparameter und bestimmt eine mittlere Fokusebene A entlang des im Wesentlichen linearen Pfades 110A, eine nahe Fokusebene An und eine ferne Fokusebene Af, die jeweils ihren eigenen optischen Fokus haben, der von der Steuerung bestimmt wird, und die sich jeweils in einem entsprechenden Abstand vom Bildgebungsleser 106 befinden. Die Nahfokusebene ist näher am Bildgebungsleser 106 als die zentrale Fokusebene, und die fernfokusebene ist weiter vom Bildgebungsleser 106 entfernt als die zentrale Fokusebene. In Beispielen können die Nahfokusebene und die Fernfokusebene gleich weit von der zentralen Fokusebene entfernt sein. In anderen Beispielen können die Nahfokusebene und die Fernfokusebene in unterschiedlichen Abständen von der zentralen Fokusebene liegen. Bei den beschriebenen Verfahren sind die Nahfokusebene und die Fernfokusebene zwei Bildgebungsebenen, in denen der Bildgebungsleser 106 Bilder des Ziels zur Erkennung und Korrektur der Fokusabweichung des Bildgebungslesers 106 erfasst. In einigen Ausführungsformen können die Scanparameter Parameter zur Bestimmung von mehr als zwei oder drei Fokusebenen enthalten, um Bilder zur Erkennung und Korrektur der Fokusabweichung des Bildgebungslesers 106 zu erhalten.
  • Die Scanstation verfügt außerdem über eine Nahfokusgrenze Anl und eine Fernfokusgrenze Afl. Die Nah- und Fernfokusgrenzen sind vorbestimmte minimale und maximale Fokusebenenabstandsgrenzen, die die Grenzen des Fokus des Bildgebungslesers 106 darstellen, außerhalb derer die Bildgebung und Dekodierung von Zeichen des Bildgebungslesers beeinträchtigt wird. Beispielsweise kann der Bildgebungsleser 106 in der Lage sein, Bilder von Zeichen abzubilden und zu dekodieren, die zwischen den Nah- und Fernfokusgrenzen erfasst wurden, während der Bildgebungsleser 106 nicht in der Lage ist, Bilder von Zeichen effizient zu dekodieren, die außerhalb der Nah- und Fernfokusgrenzen erfasst wurden. Wie hierin beschrieben, kann eine effiziente Dekodierung von Bildern von Zeichen eine Dekodiereffizienz von 100 %, von mehr als 90 % oder von mehr als 75 % umfassen. In Ausführungsformen liegen die Nahfokusebene und die Fernfokusebene innerhalb der Grenzen der Nahfokusebenengrenze und der Fernfokusebenengrenze, wie in 7 dargestellt (d.h. die Nahfokusebene befindet sich in einem Abstand von dem Bildgebungsleser 106, der gleich oder größer als der Abstand der Nahfokusebene ist, und die Fernfokusebene befindet sich in einem Abstand von dem Bildgebungsleser 106, der kleiner oder gleich der Fernfokusebene ist). Die Tatsache, dass die Nah- und Fernfokusebene innerhalb der Grenzen der Nah- und Fernfokusebenengrenzen liegen, ermöglicht eine effiziente Dekodierung von Zeichen, die in Bildern der Zeichen erhalten werden, um Informationen zu identifizieren, die sich auf ein den Zeichen zugeordnetes OOI beziehen.
  • In Block 604 erhält der Bildgebungsleser 106 ein erstes Bild des OOI oder des Ziels, wobei der Fokus des Bildgebungslesers 106 auf einen ersten Fokusebenenabstand eingestellt ist, der dem Abstand zur Nahfokusebene entspricht. Die Steuerung 214 für variablen Fokus kann den Aktuator 215 und/oder das optische Element 208 mit variablem Fokus steuern, um den Fokusabstand des Bildgebungslesers 106 auf die Nahfokusebene einzustellen, damit der Bildgebungssensor 206 das Bild des OOI erhält. Der Bildgebungsleser 106 nimmt dann ein zweites Bild eines OOI auf, wobei der Fokus des Bildgebungslesers 106 im Block 606 auf einen zweiten Fokusabstand eingestellt wird, der dem Fernfokusabstand entspricht. Das erste und das zweite Bild können von einem einzigen OOI im Sichtfeld gewonnen werden, oder das erste Bild kann für ein erstes OOI und das zweite Bild für ein zweites OOI gewonnen werden. In Beispielen kann der erste Fokusabstand der Fernfokusabstand und der zweite Fokusabstand der Nahfokusabstand sein. Darüber hinaus können die erste und die zweite Fokusabstand beliebige Fokusabstände sein, die auf beiden Seiten der zentralen Fokusabstände liegen und ein Fokusabstandsband begrenzen, das den zentralen Fokusabstand A einschließt (d. h. das Abstandsband zwischen dem Nah- und dem Fernfokusebenen An bzw. Af).
  • Bei 608 bestimmt der Prozessor einen ersten Bildeigenschaftswert des ersten Bildes, und bei 610 bestimmt der Prozessor einen zweiten Bildeigenschaftswert des zweiten Bildes. Beispielsweise können der erste und der zweite Bildeigenschaftswert eines oder mehrere umfassen von: Bildkontrast, Auflösung, Schärfe, Kantenerkennung, Frequenzbereichsanalyse, räumliche Fourier-Transformation, normalisierte Schärfe oder einen anderen Wert, der mit einer Eigenschaft eines Bildes oder von Bilddaten verbunden ist. In einem bestimmten Beispiel kann der Prozessor zur Bestimmung der ersten und zweiten Bildeigenschaftswerte einen Kontrastwert für jedes vierte Pixel der vom Bildgebungsleser 106 erhaltenen Bilder bestimmen. In Ausführungsformen kann jedes Pixel, jedes andere Pixel oder eine beliebige Anzahl von Pixeln zur Bestimmung der ersten und zweiten Bildeigenschaftswerte verwendet werden. Im konkreten Beispiel wird ein Sobel-Operator angewendet, um die erste Ableitung des Gradienten der Pixel zu bestimmen, wobei der resultierende Wert der Bildeigenschaftswert ist. Der Kontrast jedes Bildes wird normalisiert, um sicherzustellen, dass die Bildeigenschaftswerte unabhängig von Helligkeits- oder Belichtungsunterschieden zwischen den erhaltenen ersten und zweiten Bildern sind. Der Kontrast wird normalisiert, indem zunächst der minimale Pixelwert vom mittleren Pixelwert subtrahiert und dann alle Pixelwerte durch die sich ergebende Differenz dividiert werden.
  • In einigen Ausführungsformen kann die normalisierte Schärfe als erster und zweiter Bildeigenschaftswert verwendet werden. Der Prozessor kann die normalisierte Schärfe berechnen durch S n = m e a n ( g r a d ( I ) ) s t d ( I ) ,
    Figure DE102022116204B4_0001
    wobei l alle Pixelwerte in einem Bereich von Interesse eines Bildes bezeichnet und Sn der normalisierte Schärfewert ist. Die Verwendung der normierten Schärfe als erste und/oder zweite Bildeigenschaftswerte kann vorteilhaft sein, weil der Wert eines minimalen schwarzen Pixelwerts nicht erforderlich ist, da er bei der Berechnung der Standardabweichung entfernt wird. Obwohl oben als Kontrastwert oder normalisierter Schärfewert beschrieben, können die ersten und zweiten Bildeigenschaftswerte jeder beliebige Wert sein, der eine Eigenschaft eines Bildes oder von Bilddaten angibt. Darüber hinaus kann ein normalisierter Wert oder ein Kontrastwert durch Verfahren und Berechnungen berechnet werden, die sich von den hier beschriebenen expliziten Beispielen unterscheiden.
  • Bei 612 bestimmt der Prozessor eine Bildqualitätsmetrik aus mindestens einem der ersten und/oder zweiten Bildeigenschaftswerte. Die Bildqualitätsmetrik kann ein Hinweis auf die Bildqualität des ersten Bildes, ein Hinweis auf die Bildqualität des zweiten Bildes oder ein Hinweis auf einen Vergleich der ersten und zweiten Bildeigenschaftswerte sein. Beispielsweise kann die Bildqualitätsmetrik direkt aus dem ersten Bildeigenschaftswert, direkt aus dem zweiten Bildeigenschaftswert berechnet werden, eine oder mehrere DifFerenzen zwischen dem ersten und dem zweiten Bildeigenschaftswert, eine Summierung des ersten und des zweiten Bildeigenschaftswertes, einen Quotienten aus dem ersten und dem zweiten Bildeigenschaftswert, einen Durchschnitt des ersten und des zweiten Bildeigenschaftswertes beinhalten, oder die Bildqualitätsmetrik kann auf einem Schwellenwert oder einer Grenze des ersten und/oder des zweiten Bildeigenschaftswertes basieren. In Ausführungsformen kann festgestellt werden, dass eine Fokusabweichung nicht aufgetreten ist, wenn der erste und der zweite Bildeigenschaftswert gleich oder im Wesentlichen gleich sind (z. B. innerhalb von weniger als 15 % voneinander, innerhalb von 10 % voneinander oder innerhalb von 5 % voneinander). In einem solchen Beispiel führt eine Differenz zwischen den Bildeigenschaftswerten zu einer Bildqualitätsmetrik, die gleich 0 oder im Wesentlichen nahe 0 innerhalb einer Toleranz von 0 ist, und ein Quotient aus den ersten und zweiten Bildeigenschaftswerten würde zu einem Wert von 1 oder im Wesentlichen nahe 1 innerhalb einer Toleranz führen.
  • Bei 614 vergleicht der Prozessor die Bildqualitätsmetrik mit einer Referenzmetrik, um festzustellen, ob eine Fokusabweichung aufgetreten ist und wenn ja, wie stark diese war. Die Referenzmetrik kann als Scanparameter oder als Kalibrierungsparameter als Teil der Scanparameter in Block 602 abgerufen werden. Ferner kann die Referenzmetrik im Speicher des Bildgebungslesers 106 gespeichert sein oder vom Bildgebungsleser 106 aus dem Speicher des Servers 112 oder aus einem anderen Netzwerk oder einer Vorrichtung abgerufen werden.
  • Um festzustellen, ob eine Fokusabweichung aufgetreten ist und, wenn ja, wie viel Fokusabweichung aufgetreten ist, kann der Prozessor die Bildqualitätsmetrik direkt mit der Referenzmetrik oder mit einem Schwellenwert der Referenzmetrik vergleichen. Der Schwellenwert der Referenzmetrik kann auf eine Position einer Fokusebene hinweisen, die zwischen der Nahfokusgrenze Anl und der Nahfokusebene An, zwischen der Fernfokusgrenze Afl und der Fernfokusebene Af, zwischen der Nahfokusebene An und der zentralen Fokusebene A oder zwischen der Fernfokusebene Af und der zentralen Fokusebene A liegt. Daher kann die Referenzmetrik einen oder mehrere Hinweise auf eine Abweichung der nahen Fokusebene in Richtung der nahen Fokusgrenze, eine Abweichung der Fernfokusebene in Richtung der Fernfokusgrenze, eine Abweichung der Nahfokusebene in Richtung der zentralen Fokusebene oder eine Abweichung der Fernfokusebene in Richtung der zentralen Fokusebene geben.
  • Der Schwellenwert der Referenzmetrik kann ein Abstandsschwellenwert in Bezug auf die Fernfokusebene sein, wobei der Schwellenwert der Referenzmetrik den Abstand (i) einer Fokusebene zwischen dem Fernfokusebenenabstand und der Fernfokusgrenze, (ii) einer Fokusebene zwischen dem Fernfokusebenenabstand und dem zentralen Fokusebenenabstand oder (iii) eines Bandes von Fokusebenenabständen, das den Abstand der Fernfokusebene einschließt, angibt. In ähnlicher Weise kann der Schwellenwert der Referenzmetrik ein Abstandsschwellenwert relativ zur Nahfokusebene sein, wobei der Schwellenwert der Referenzmetrik den Abstand (i) einer Fokusebene zwischen der Nahfokusebene und der Nahfokusgrenze, (ii) einer Fokusebene zwischen dem Nahfokusebenenabstand und der zentralen Fokusebene oder (iii) eines Bandes von Fokusebenenabständen, das den Nahfokusebenenabstand einschließt, anzeigt. Ferner kann der Schwellenwert der Referenzmetrik ein Abstandsschwellenwert relativ zur zentralen Fokusebene sein, wobei der Schwellenwert der Referenzmetrik den Abstand von (i) einer Fokusebene zwischen dem zentralen Fokusebenenabstand und dem Nahfokusebenenabstand, (ii) einer Fokusebene zwischen dem zentralen Fokusebenenabstand und dem Fernfokusebenenabstand, (iii) einer Fokusebene zwischen dem zentralen Fokusebenenabstand und der Fernfokusgrenze, (iv) einer Fokusebene zwischen der zentralen Fokusebene und der Nahfokusgrenze oder (v) einem Band von Fokusebenenabständen, das den zentralen Fokusebenenabstand einschließt, anzeigt. Bei 616 kann der Prozessor auf der Grundlage des Vergleichs der Bildqualitätsmetrik mit einer oder mehreren Beispielreferenzmetriken bestimmen, ob die Fokusabweichung aufgetreten ist.
  • In einigen Ausführungsformen kann das Verfahren 600 die Bestimmung der Referenzmetrik beinhalten. Das Bildgebungssystem kann ein erstes Referenzbild eines Referenzobjekts erhalten, wobei das Referenzobjekt in einem vorbestimmten Abstand von dem Bildgebungsleser 106 platziert ist. Das Referenzobjekt kann in einem zentralen Fokusebenenabstand A platziert werden, um eine Referenz für Objekte zu liefern, die im zentralen Fokusebenenabstand A gescannt werden können. In Ausführungsformen kann ein einzelnes Bild des Referenzobjekts im zentralen Fokusebenenabstand A verwendet werden, um die Referenzmetrik weiter zu bestimmen. In anderen Ausführungsformen wird ein erstes Bild mit dem Bildgebungsleser 106 mit einem Fokusabstand beim Nahfokusabstand An, erfasst, und der Bildgebungsleser 106 erfasst dann ein zweites Bild des Referenzobjekts, wobei das zweite Bild beim Fernfokusebenenabstand Af erfasst wird. Der Prozessor bestimmt einen ersten Referenzbildeigenschaftswert aus dem ersten Bild und einen zweiten Referenzbildeigenschaftswert des zweiten Bildes, und der Prozessor bestimmt dann die Referenzmetrik aus den ersten und zweiten Bildeigenschaftswerten. Beispielsweise können der erste und der zweite Bildeigenschaftswert jeweils ein Bildschärfewert sein und die Referenzmetrik kann eine Differenz zwischen dem ersten und dem zweiten Bildeigenschaftswert sein. Der erste und der zweite Bildeigenschaftswert können einen oder mehrere Werte umfassen, wie z. B. einen Schärfewert, einen Kontrastwert, eine Bildauflösung, einen Wert für den räumlichen Frequenzgehalt, einen Wert zur Messung des Rauschens, einen Wert für den dynamischen Bereich, eine Messung der Bildverzerrung, einen Unschärfewert, einen Wert für Pixel pro Modul oder einen anderen Wert, der mit einem Bild oder der Bildqualität verbunden ist. Die Referenzmetrik kann eine Differenz zwischen dem ersten und dem zweiten Bildeigenschaftswert, eine Summe des ersten und des zweiten Bildeigenschaftswerts, ein Quotient des ersten und des zweiten Bildeigenschaftswerts, ein Durchschnitt des ersten und des zweiten Bildeigenschaftswerts sein, wobei die Referenzmetrik auf einem Schwellen- oder Grenzwert des ersten und des zweiten Bildeigenschaftswerts basieren kann. In Ausführungsformen kann festgestellt werden, dass eine Fokusabweichung nicht aufgetreten ist, wenn der erste und der zweite Bildeigenschaftswert gleich oder im Wesentlichen gleich sind (z. B. innerhalb von weniger als 15 % voneinander, innerhalb von 10 % voneinander oder innerhalb von 5 % voneinander). In einem solchen Beispiel führt eine Differenz zwischen den Bildeigenschaftswerten zu einer Bildqualitätsmetrik, die gleich 0 oder im Wesentlichen nahe 0 innerhalb einer Toleranz von 0 ist, und ein Quotient aus den ersten und zweiten Bildeigenschaftswerten würde zu einem Wert von 1 oder im Wesentlichen nahe 1 innerhalb einer Toleranz führen.
  • Bei 616 bestimmt der Prozessor auf der Grundlage des Vergleichs der Bildqualitätsmetrik mit der Referenzmetrik, ob eine Fokusabweichung aufgetreten ist. Bei 618 kann der Prozessor feststellen, dass keine Fokusabweichung aufgetreten ist, wenn die Bildqualitätsmetrik innerhalb eines Schwellenwerts der Referenzmetrik liegt, und das Verfahren bei 620 beenden. Die Bildqualitätsmetrik kann zum Beispiel ein Schärfewert sein. Bei 618 kann der Prozessor feststellen, dass eine Fokusabweichung aufgetreten ist, wenn die Bildqualitätsmetrik außerhalb eines Schwellenwerts der Referenzmetrik liegt. Wenn die Bildqualitätsmetrik anzeigt, dass sich einer der Bildeigenschaftswerte erhöht hat, während sich der andere Bildeigenschaftswert verringert hat, dann hat sich der Fokus in Richtung der Ebene verschoben, die durch den größeren der beiden Bildeigenschaftswerte angezeigt wird, wie im obigen Beispiel. In einigen Beispielen kann einer der Bildeigenschaftswerte zunehmen oder abnehmen, während der andere Bildeigenschaftswert im Wesentlichen gleichbleibt, was darauf hinweisen kann, dass der im Wesentlichen ähnliche Bildeigenschaftswert innerhalb eines Bildeigenschaftsschwellenwertes geblieben ist, während der andere Bildeigenschaftswert über einen Bildeigenschaftsschwellenwert hinaus zugenommen oder abgenommen hat. Beispielsweise kann die Fernfokusebene des Systems über die Fernfokusgrenze hinaus gestiegen sein, während die Nahfokusebene des Systems innerhalb der Nahfokusebenengrenze bleibt.
  • Die Referenzmetrik kann einen Hinweis auf eine Fokusabweichung der Nahfokusebene in Richtung der zentralen Fokusebene oder auf eine Abweichung der Fernfokusebene in Richtung der zentralen Fokusebene geben. Beispielsweise kann die Referenzmetrik einen Schwellenwert für die Fokusabweichung mit einer Ebene zwischen der Fernfokusebene und der zentralen Fokusebene angeben, und der Prozessor kann durch Vergleichen der Bildqualitätsmetrik mit der Referenzmetrik feststellen, dass die Fernfokusebene in Richtung der zentralen Fokusebene abgewichen ist. In ähnlicher Weise kann die Referenzmetrik eine Fokusebene angeben, die zwischen der Nahfokusebene und der zentralen Fokusebene liegt, und der Prozessor kann durch Vergleich der Bildqualitätsmetrik mit der Referenzmetrik feststellen, dass die Nahfokusebene in Richtung der zentralen Fokusebene abgewichen ist. Der Schwellenwert der Referenzmetrik kann ein Prozentsatz der Referenzmetrik sein, zum Beispiel kann der Schwellenwert ±1%, ±5%, ±10%, ±15%, ±20% oder weniger als ±50% der Referenzmetrik betragen.
  • Der Bildgebungsleser 106 passt dann die zentrale Fokusebene A des optischen Elements 208 mit variablem Fokus gemäß der ermittelten Fokusabweichung an. Zum Beispiel kann der Prozessor den Vergleich der Bildqualitätsmetrik und der Referenzmetrik analysieren, um einen Betrag der Fokuseinstellung zu bestimmen, der auf das optische Element 208 mit variablem Fokus anzuwenden ist. Der Prozessor kann ein Signal und/oder Daten, die ein Ausmaß der Fokuseinstellung anzeigen, an die Bildgebungssteuerung 214 für variablen Fokus, den Aktuator 215 oder direkt an das optische Element 208 mit variablem Fokus bereitstellen, um den Fokus der zentralen Fokusebene A einzustellen. Das Einstellen der zentralen Fokusebene kann das Bereitstellen einer DC-Spannung an den Aktuator 215 oder das optische Element 208 mit variablem Fokus (z. B. das Bereitstellen einer Spannung an eine Flüssigkeitslinse, das Anlegen einer Spannung an eine andere Linse mit variablem Fokus oder das Einstellen eines anderen optischen Elements mit variablem Fokus), das Bereitstellen eines Steuersignals an den Aktuator 215, um die optischen Elemente der Bildgebungsstufe 204 des Bildgebungslesers 106 neu zu positionieren, oder ein anderes Mittel zum Einstellen der zentralen Fokusebene umfassen.
  • Sobald die Fokusabweichung bestimmt ist, kann der Prozessor den ermittelten Betrag der Fokusabweichung oder einen Einstellungsbetrag im Speicher des Bildgebungslesers 106 oder im Speicher des Servers 112 speichern oder den Betrag der Fokusabweichung und/oder den Einstellungsbetrag an ein anderes Netzwerk oder System übermitteln. Während der Ausführung des Verfahrens 600 können Detektoren (nicht dargestellt) verschiedene Umgebungsfaktoren bestimmen und Umgebungsvariablen wie eine Umgebungstemperatur, eine Temperatur der Optik des Bildgebungslesers 106, einen Umgebungsdruck, eine Feuchtigkeit, ein Alter der Optik des Bildgebungslesers 106 oder andere messbare Faktoren messen. Werte, die den Umgebungsfaktoren zugeordnet sind, können dann mit einer bestimmten Fokusabweichung und/oder einem Einstellungsbetrag assoziiert werden, und die mit den Umgebungsfaktoren assoziierten Werte können auch im Speicher des Bildgebungslesers 106, im Speicher des Servers 112 gespeichert und/oder einem anderen Netzwerk oder System zur Verfügung gestellt werden. Beim Betrieb des Bildgebungslesers 106 können Sensoren die aktuellen Umgebungsbedingungen messen, z. B. die aktuelle Temperatur des Bildgebungslesers oder die aktuelle Temperatur der Umgebung, und der Prozessor kann eine mit dieser Temperatur verbundene Fokusabweichung und/oder einen Einstellungsbetrag abrufen. Der Prozessor kann dann die ermittelte Fokusabweichung und/oder den Einstellungsbetrag an die Bildgebungssteuerung 214 für variablen Fokus, den Aktuator 215, das optische Element 208 mit variablem Fokus oder andere Elemente des Bildgebungslesers 106 weiterleiten, um den Fokus des Bildgebungslesers 106 gemäß der zuvor ermittelten Fokusabweichung einzustellen.
  • Während die Schritte in den Blöcken der Verfahren 400 und 600 so beschrieben werden, dass sie von verschiedenen Elementen im Bildgebungsleser ausgeführt werden, kann jeder dieser Schritte in einer Steuerung oder einem Prozessor ausgeführt werden, sei es durch eine oder mehrere dedizierte Steuerungen oder Prozessoren oder ein oder mehrere Elemente, die so konfiguriert sind, dass sie andere hier beschriebene Prozesse ausführen. Darüber hinaus kann die Steuerung 214 einen oder mehrere Prozessoren und einen oder mehrere Speicher enthalten.
  • In der vorstehenden Beschreibung sind bestimmte Ausführungsformen beschrieben worden. Der Fachmann erkennt jedoch, dass verschiedene Modifikationen und Änderungen vorgenommen werden können, ohne vom Anwendungsbereich der Erfindung, wie er in den nachstehenden Ansprüchen dargelegt ist, abzuweichen. Dementsprechend sind die Beschreibung und die Figuren eher in einem illustrativen als in einem einschränkenden Sinne zu verstehen, und alle derartigen Modifikationen sollen in den Anwendungsbereich der vorliegenden Lehren einbezogen werden.
  • Der Nutzen, die Vorteile, die Problemlösungen und alle Elemente, die dazu führen können, dass ein Nutzen, ein Vorteil oder eine Lösung eintritt oder stärker ausgeprägt ist, sind nicht als kritische, erforderliche oder wesentliche Merkmale oder Elemente eines oder aller Ansprüche zu verstehen. Die Erfindung wird ausschließlich durch die beigefügten Ansprüche definiert, einschließlich aller Änderungen, die während der Anhängigkeit dieser Anmeldung vorgenommen wurden, und aller Äquivalente dieser Ansprüche in der Fassung, in der sie erteilt wurden.
  • Alternative Implementierungen der Beispiele, die durch das Blockdiagramm des Systems 200 von 2 dargestellt werden, umfassen ein oder mehrere zusätzliche oder alternative Elemente, Prozesse und/oder Vorrichtungen. Zusätzlich oder alternativ können einer oder mehrere der Beispielblöcke des Diagramms kombiniert, geteilt, neu angeordnet oder weggelassen werden. Die durch die Blöcke des Diagramms dargestellten Komponenten werden durch Hardware, Software, Firmware und/oder eine beliebige Kombination von Hardware, Software und/oder Firmware implementiert. In einigen Beispielen wird mindestens eine der durch die Blöcke dargestellten Komponenten durch eine Logikschaltung implementiert. Wie hierin verwendet, ist der Begriff „Logikschaltung“ ausdrücklich als eine physische Vorrichtung definiert, die mindestens eine Hardwarekomponente enthält, die (z. B. durch den Betrieb gemäß einer vorbestimmten Konfiguration und/oder durch die Ausführung gespeicherter maschinenlesbarer Anweisungen) konfiguriert ist, um eine oder mehrere Maschinen zu steuern und/oder Operationen einer oder mehrerer Maschinen durchzuführen. Beispiele für Logikschaltungen sind ein oder mehrere Prozessoren, ein oder mehrere Ko-Prozessoren, ein oder mehrere Mikroprozessoren, eine oder mehrere Steuerungen, ein oder mehrere digitale Signalprozessoren (DSPs), ein oder mehrere anwendungsspezifische integrierte Schaltungen (ASICs), ein oder mehrere feldprogrammierbare Gate-Arrays (FPGAs), eine oder mehrere Mikrocontroller-Einheiten (MCUs), ein oder mehrere Hardware-Beschleuniger, ein oder mehrere Spezial-Computerchips und ein oder mehrere System-on-Chip-Bauteile (SoC). Einige Beispiel-Logikschaltungen, wie ASICs oder FPGAs, sind speziell konfigurierte Hardware zur Durchführung von Operationen (z. B. eine oder mehrere der hierin beschriebenen und in den Flussdiagrammen dieser Offenbarung dargestellten Operationen, falls solche vorhanden sind). Einige Beispiel-Logikschaltungen sind Hardware, die maschinenlesbare Befehle ausführt, um Operationen durchzuführen (z. B. eine oder mehrere der hierin beschriebenen und durch die Flussdiagramme dieser Offenbarung dargestellten Operationen, falls solche vorhanden sind). Einige Beispiel-Logikschaltungen umfassen eine Kombination aus speziell konfigurierter Hardware und Hardware, die maschinenlesbare Befehle ausführt. Die obige Beschreibung bezieht sich auf verschiedene hierin beschriebene Operationen und Flussdiagramme, die zur Veranschaulichung des Ablaufs dieser Operationen angehängt sein können. Alle derartigen Flussdiagramme sind repräsentativ für die hier offenbarten Beispielverfahren. In einigen Beispielen implementieren die durch die Flussdiagramme dargestellten Verfahren die durch die Blockdiagramme dargestellten Vorrichtungen. Alternative Implementierungen der hier offenbarten Beispielverfahren können zusätzliche oder alternative Operationen umfassen. Darüber hinaus können Operationen alternativer Implementierungen der hier offenbarten Verfahren kombiniert, aufgeteilt, neu angeordnet oder weggelassen werden. In einigen Beispielen werden die hier beschriebenen Operationen durch maschinenlesbare Anweisungen (z. B. Software und/oder Firmware) implementiert, die auf einem Medium (z. B. einem zugreifbaren maschinenlesbaren Medium) zur Ausführung durch eine oder mehrere Logikschaltungen (z. B. Prozessor(en)) gespeichert sind. In einigen Beispielen werden die hier beschriebenen Operationen durch eine oder mehrere Konfigurationen einer oder mehrerer speziell entwickelter Logikschaltungen (z. B. ASIC(s)) implementiert. In einigen Beispielen werden die hier beschriebenen Operationen durch eine Kombination aus speziell entwickelten Logikschaltungen und maschinenlesbaren Anweisungen, die auf einem Medium (z. B. einem zugreifbaren maschinenlesbaren Medium) zur Ausführung durch Logikschaltungen gespeichert sind, implementiert.
  • Wie hierin verwendet, ist jeder der Begriffe „zugreifbares maschinenlesbares Medium“, „nicht-transitorisches maschinenlesbares Medium“ und „maschinenlesbare Speichervorrichtung“ ausdrücklich definiert als ein Speichermedium (z. B. eine Platte eines Festplattenlaufwerks, eine Digital Versatile Disc, eine Compact Disc, ein Flash-Speicher, ein Festwertspeicher, ein Speicher mit wahlfreiem Zugriff usw.), auf dem maschinenlesbare Anweisungen (z. B. Programmcode in Form von z. B. Software und/oder Firmware) für eine beliebige geeignete Zeitdauer (z. B. dauerhaft, für einen längeren Zeitraum (z. B. während der Ausführung eines mit den maschinenlesbaren Anweisungen verbundenen Programms) und/oder für einen kurzen Zeitraum (z. B. während der Zwischenspeicherung der maschinenlesbaren Anweisungen und/oder während eines Pufferungsprozesses)) gespeichert werden. Darüber hinaus sind die Begriffe „zugreifbares, maschinenlesbares Medium“, „nicht-transitorisches, maschinenlesbares Medium“ und „maschinenlesbare Speichervorrichtung“ hier ausdrücklich so definiert, dass sie die Übertragung von Signalen ausschließen. Das heißt, dass keiner der Begriffe „zugreifbares maschinenlesbares Medium“, „nicht-transitorisches maschinenlesbares Medium“ und „maschinenlesbare Speichervorrichtung“, wie sie in den Ansprüchen dieses Patents verwendet werden, so gelesen werden kann, dass sie durch ein sich ausbreitendes Signal implementiert werden.
  • In der vorstehenden Beschreibung sind bestimmte Ausführungsformen beschrieben worden. Der Fachmann erkennt jedoch, dass verschiedene Modifikationen und Änderungen vorgenommen werden können, ohne vom Umfang der Erfindung abzuweichen, wie er in den nachstehenden Ansprüchen dargelegt ist. Dementsprechend sind die Beschreibung und die Figuren eher illustrativ als einschränkend zu verstehen, und alle derartigen Modifikationen sollen in den Anwendungsbereich der vorliegenden Lehre einbezogen werden. Darüber hinaus sollten die beschriebenen Ausführungsformen/Beispiele/Implementierungen nicht als sich gegenseitig ausschließend interpretiert werden, sondern als potenziell kombinierbar, wenn solche Kombinationen in irgendeiner Weise permissiv sind. Mit anderen Worten kann jedes Merkmal, das in einer der vorgenannten Ausführungsformen/Beispiele/Implementierungen offenbart wird, in jeder der anderen vorgenannten Ausführungsformen/Beispiele/Implementierungen enthalten sein.
  • Die Nutzen, Vorteile, Lösungen für Probleme und alle Elemente, die zum Auftreten oder einer Verstärkung eines Nutzens, eines Vorteils, oder einer Lösung führen können, sind nicht als kritische, erforderliche oder wesentliche Merkmale oder Elemente in einigen oder sämtlichen Ansprüchen zu verstehen. Die Erfindung ist lediglich durch die angehängten Ansprüche definiert, einschließlich jeglicher Änderungen, die während der Anhängigkeit dieser Anmeldung vorgenommen wurden und aller Äquivalente der erteilten Ansprüche.
  • Darüber hinaus können in diesem Dokument relationale Begriffe wie erster und zweiter, oberer und unterer und dergleichen lediglich verwendet sein, um eine Entität oder Aktion von einer anderen Entität oder Aktion zu unterscheiden, ohne notwendigerweise eine tatsächliche derartige Beziehung oder Reihenfolge zwischen solchen Entitäten oder Aktionen zu erfordern oder zu implizieren. Die Ausdrücke „umfasst“, „umfassend“, „hat“, „haben“, „aufweist“, „aufweisend“, „enthält“, „enthaltend“ oder jede andere Variation davon sollen eine nicht-ausschließliche Einbeziehung abdecken, derart, dass ein Prozess, Verfahren, Produkt oder Vorrichtung, das eine Liste von Elementen umfasst, hat, aufweist, enthält, nicht nur diese Elemente aufweist, sondern auch andere Elemente aufweisen kann, die nicht ausdrücklich aufgelistet sind oder einem solchen Prozess, Verfahren, Produkt oder Vorrichtung inhärent sind. Ein Element, dem „umfasst ... ein“, „hat ... ein“, „aufweist ... ein“ oder „enthält ...ein“ vorausgeht, schließt ohne weitere Einschränkungen die Existenz zusätzlicher identischer Elemente in dem Prozess, dem Verfahren, dem Produkt oder der Vorrichtung, die das Element umfasst, hat, aufweist oder enthält, nicht aus. Die Begriffe „ein“ und „eine“ sind als eine oder mehrere definiert, sofern es hierin nicht ausdrücklich anders angegeben wird. Die Begriffe „im Wesentlichen“, „im Allgemeinen“, „ungefähr“, „etwa“ oder jede andere Version davon sind so definiert, dass sie von einem Fachmann auf diesem Gebiet nahekommend verstanden werden, und in einer nicht-einschränkenden Ausführungsform ist der Ausdruck definiert als innerhalb von 10%, in einer weiteren Ausführungsform als innerhalb von 5%, in einer weiteren Ausführungsform als innerhalb von 1% und in einer weiteren Ausführungsform als innerhalb von 0,5%. Der Ausdruck „gekoppelt“, wie er hierin verwendet wird, ist als verbunden definiert, jedoch nicht notwendigerweise direkt und nicht notwendigerweise mechanisch. Eine Vorrichtung oder eine Struktur, die auf eine bestimmte Art „konfiguriert“ ist, ist zumindest auch so konfiguriert, kann aber auch auf Arten konfiguriert sein, die nicht aufgeführt sind.
  • Die Zusammenfassung der Offenbarung wird bereitgestellt, um es dem Leser zu ermöglichen, schnell das Wesen der technischen Offenbarung zu ermitteln. Sie wird mit dem Verständnis bereitgestellt, dass sie nicht zur Auslegung oder Einschränkung des Umfangs oder der Bedeutung der Ansprüche verwendet wird. Ferner kann der vorangehenden detaillierten Beschreibung entnommen werden, dass verschiedene Merkmale in verschiedenen Ausführungsformen zum Zwecke der Verschlankung der Offenbarung zusammengefasst sind. Diese Art der Offenbarung ist nicht so auszulegen, dass sie die Absicht widerspiegelt, dass die beanspruchten Ausführungsformen mehr Merkmale erfordern, als ausdrücklich in jedem Anspruch angegeben sind. Vielmehr ist es so, wie die folgenden Ansprüche zeigen, dass der erfinderische Gegenstand in weniger als allen Merkmalen einer einzigen offenbarten Ausführungsform liegt. Somit werden die folgenden Ansprüche hiermit in die detaillierte Beschreibung inkorporiert, wobei jeder Anspruch für sich als ein separat beanspruchter Gegenstand steht.

Claims (8)

  1. Computerimplementiertes Verfahren zum Unterscheiden einer Fokusabweichung eines Bildgebungssystems von Positionsänderungen eines Objekts von Interesse, wobei das Verfahren umfasst: Erfassen eines Bildes eines Objekts von Interesse durch das Bildgebungssystem; Identifizieren eines Bereichs von Interesse in dem Bild durch den Prozessor, wobei der Bereich von Interesse ein Zeichen enthält, das auf das Objekt von Interesse hinweist; Bestimmen einer Bildqualität des Bildes durch den Prozessor; Analysieren des Zeichens durch den Prozessor und Bestimmen einer Pixelmessung des Zeichens, und Vergleichen der Pixelmessung des Zeichens mit einer Referenzpixelmessung durch den Prozessor; und basierend auf dem Vergleich, Bestimmen durch den Prozessor, dass die Bildqualität des Bildes aus einer Differenz in einem Abstand des Objekts von dem Bildgebungssystem und einem Referenzabstand von dem Bildgebungssystem resultiert, wenn die Pixelmessung außerhalb eines Schwellenwerts der Referenzpixelmessung liegt, und Bestimmen, dass die Bildqualität des Bildes aus einer Fokussierungsabweichung des Bildgebungssystems resultiert, wenn die Pixelmessung innerhalb eines Schwellenwerts der Referenzpixelmessung liegt.
  2. Verfahren nach Anspruch 1, wobei die Referenzpixelmessung in einem Speicher des Bildgebungssystems gespeichert wird.
  3. Verfahren nach Anspruch 1, ferner umfassend: Erfassen eines Bildes des Referenzzeichens durch das Bildgebungssystem; und Durchführen der Referenzpixelmessung an dem Referenzzeichen durch den Prozessor.
  4. Verfahren nach Anspruch 1, ferner umfassend das Bestimmen, durch den Prozessor und aus der Pixelmessung, eines Abstandes des Objekts von Interesse von dem Bildgebungssystem; und wobei das Vergleichen der Pixelmessung mit der Referenzpixelmessung umfasst: Vergleichen des Abstands des Objekts von Interesse mit einem Referenzabstand durch den Prozessor, wobei der Referenzabstand aus der Referenzpixelmessung bestimmt wird.
  5. Verfahren nach Anspruch 4, wobei das Bestimmen, dass die Bildqualität des Bildes aus einer Differenz in einem Abstand zwischen dem Abstand des Objekts und dem Referenzabstand resultiert, das Bestimmen umfasst, dass die Bildqualität des Bildes aus einer Differenz in einem Abstand zwischen dem Objekt und dem Referenzabstand resultiert, wenn der Abstand des Objekts außerhalb eines Schwellenwerts des Referenzabstands liegt; und wobei das Bestimmen, dass die Bildqualität des Bildes aus einer Fokussierungsabweichung des Bildgebungssystems resultiert, das Bestimmen umfasst, dass die Bildqualität des Bildes aus der Fokussierungsabweichung des Bildgebungssystems resultiert, wenn der Abstand des Objekts innerhalb eines Schwellenwerts des Referenzabstands liegt.
  6. Verfahren nach Anspruch 1, wobei das Zeichen eines von einem 1D-Strichcode, einem 2D-Strichcode, einem statischen QR-Code, einem dynamischen QR-Code oder einem UPC-Code ist.
  7. Verfahren nach Anspruch 1, wobei das Durchführen der Pixelmessung das Durchführen einer Messung von mindestens einem von: Pixelschärfe, Kontrast, Kantenerkennung, Größe, Messung der Pixelauflösung, Pixel pro Modul oder Bildqualität umfasst.
  8. Verfahren nach Anspruch 1, wobei die Referenzmessung auf einen Referenzpixelabstand hinweist; und wobei die Pixelmessung das Bestimmen eines Pixelabstands zwischen zwei Pixeln in dem Bereich von Interesse durch den Prozessor umfasst; und wobei das Vergleichen der Pixelmessung des Zeichens mit einer Referenzpixelmessung das Vergleichen des Pixelabstands mit dem Referenzpixelabstand umfasst; und wobei das Bestimmen, dass die Bildqualität des Bildes aus einer Differenz in einem Abstand des Objekts von dem Bildgebungssystem und einem Referenzabstand von dem Bildgebungssystem resultiert, das Bestimmen durch den Prozessor und aus dem Vergleich umfasst, dass die Bildqualität des Bildes aus einer Differenz in einem Abstand des Objekts von dem Bildgebungssystem und dem Referenzabstand resultiert, wenn der Pixelabstand außerhalb eines Schwellenwerts des Referenzpixelabstands liegt; und wobei das Bestimmen, dass die Bildqualität des Bildes aus einer Fokussierungsabweichung des Bildgebungssystems resultiert, das Bestimmen durch den Prozessor und aus dem Vergleich umfasst, dass die Bildqualität des Bildes aus einer Fokussierungsabweichung des Bildgebungssystems resultiert, wenn der Pixelabstand innerhalb eines Schwellenwerts des Referenzpixelabstands liegt.
DE102022116204.4A 2021-06-30 2022-06-29 Verfahren zum Unterscheiden zwischen Fokusabweichung und einer Änderung in einem Abstand zu einem Ziel bei Linsen mit variablem Fokus Active DE102022116204B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US17/364,581 US11265455B1 (en) 2021-06-30 2021-06-30 Method of differentiating between focus drift and a change in distance to target for variable focus lens
US17/364,581 2021-06-30

Publications (2)

Publication Number Publication Date
DE102022116204A1 DE102022116204A1 (de) 2023-01-05
DE102022116204B4 true DE102022116204B4 (de) 2023-09-07

Family

ID=80442640

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022116204.4A Active DE102022116204B4 (de) 2021-06-30 2022-06-29 Verfahren zum Unterscheiden zwischen Fokusabweichung und einer Änderung in einem Abstand zu einem Ziel bei Linsen mit variablem Fokus

Country Status (4)

Country Link
US (1) US11265455B1 (de)
JP (1) JP7177295B1 (de)
CN (1) CN115546276A (de)
DE (1) DE102022116204B4 (de)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11836940B2 (en) * 2020-06-15 2023-12-05 Zebra Technologies Corporation Three-dimensional sensor acuity recovery assistance
US11265455B1 (en) 2021-06-30 2022-03-01 Zebra Technologies Corporation Method of differentiating between focus drift and a change in distance to target for variable focus lens
CN118261172A (zh) * 2022-12-26 2024-06-28 手持产品公司 用于操作基于对象检测的标记扫描仪的方法和系统
CN115936037B (zh) * 2023-02-22 2023-05-30 青岛创新奇智科技集团股份有限公司 二维码的解码方法及装置

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5797048A (en) * 1996-06-14 1998-08-18 Nikon Corporation Automatic focusing device which inhibits tracking drive control with a zoom lens having focus shift
US7025272B2 (en) * 2002-12-18 2006-04-11 Symbol Technologies, Inc. System and method for auto focusing an optical code reader
US20070063048A1 (en) * 2005-09-14 2007-03-22 Havens William H Data reader apparatus having an adaptive lens
US20070119941A1 (en) * 2005-11-30 2007-05-31 Symbol Technologies, Inc. Bar code scanner programming
US7878402B2 (en) * 2005-12-20 2011-02-01 Cognex Technology And Investment Corporation Decoding distorted symbols
US7609958B2 (en) * 2006-08-01 2009-10-27 Eastman Kodak Company Automatic focus system calibration for image capture systems
US7643745B2 (en) * 2006-08-15 2010-01-05 Sony Ericsson Mobile Communications Ab Electronic device with auxiliary camera function
US20080277477A1 (en) * 2007-05-10 2008-11-13 Serge Thuries Dynamic focus calibration, such as dynamic focus calibration using an open-loop system in a bar code scanner
JP2010073703A (ja) * 2008-09-16 2010-04-02 Hitachi High-Technologies Corp パターンの検査装置、およびパターンの検査方法
US20110290886A1 (en) * 2010-05-27 2011-12-01 Symbol Technologies, Inc. Imaging bar code reader having variable aperture
EP2707893B1 (de) * 2011-05-13 2019-01-16 Fibics Incorporated Mikroskopie-bildgebungsverfahren und system dafür
JP5751946B2 (ja) * 2011-06-15 2015-07-22 キヤノン株式会社 焦点調節装置およびその制御方法
US8985462B2 (en) * 2012-12-13 2015-03-24 Symbol Technologies, Inc. Method of driving focusing element in barcode imaging scanner
US10690816B2 (en) * 2013-12-31 2020-06-23 Cognex Corporation Systems and methods reduce temperature induced drift effects on a liquid lens
US9418284B1 (en) * 2014-04-09 2016-08-16 Vortex Intellectual Property Holding LLC Method, system and computer program for locating mobile devices based on imaging
US9679175B2 (en) * 2014-06-13 2017-06-13 The Code Corporation Barcode reader ranging using targeting illumination
JP2016024392A (ja) * 2014-07-23 2016-02-08 キヤノン株式会社 撮像装置およびそのフォーカスキャリブレーション方法、並びにプログラム
US9549125B1 (en) * 2015-09-01 2017-01-17 Amazon Technologies, Inc. Focus specification and focus stabilization
US10198647B2 (en) * 2015-09-25 2019-02-05 Datalogic IP Tech, S.r.l. Compact imaging module with range finder
DE102017119517B4 (de) * 2016-08-30 2023-10-05 Cognex Corporation Systeme und Verfahren zur Reduzierung temperaturbedingter Drifteffekte bei einer Flüssiglinse
CN109964148B (zh) * 2016-11-17 2023-08-01 特里纳米克斯股份有限公司 用于光学检测至少一个对象的检测器
US10146975B2 (en) * 2016-11-17 2018-12-04 Datalogic Ip Tech S.R.L. Data reader with hybrid auto focus system
CN111344592B (zh) * 2017-08-28 2023-07-18 特里纳米克斯股份有限公司 确定至少一个对象的位置的检测器
EP3505961A1 (de) * 2017-12-29 2019-07-03 Cognex Corporation Linsenanordnung mit integrierter rückkopplungsschleife und flugzeitsensor
JP2020020931A (ja) * 2018-07-31 2020-02-06 オリンパス株式会社 フォーカス制御装置およびフォーカス制御方法
US10534942B1 (en) * 2018-08-23 2020-01-14 Zebra Technologies Corporation Method and apparatus for calibrating a client computing device for decoding symbols
US10732380B2 (en) * 2018-12-21 2020-08-04 Zebra Technologies Corporation Swipe scanning for variable focus imaging systems
CN110196491B (zh) * 2019-05-13 2021-07-27 云南师范大学 一种双视场红外成像系统散焦的建模仿真方法
JP7264539B2 (ja) * 2019-08-16 2023-04-25 プロトチップス,インコーポレイテッド 電子顕微鏡下で研究される試料へのドリフト補正の自動化されたアプリケーション
US11335105B2 (en) * 2019-10-08 2022-05-17 Zebra Technologies Corporation Methods and systems to focus an imager for machine vision applications
US11108946B1 (en) * 2020-06-25 2021-08-31 Zebra Technologies Corporation Focus stabilization of imaging system with variable focus lens
US11265455B1 (en) * 2021-06-30 2022-03-01 Zebra Technologies Corporation Method of differentiating between focus drift and a change in distance to target for variable focus lens

Also Published As

Publication number Publication date
CN115546276A (zh) 2022-12-30
JP2023008891A (ja) 2023-01-19
JP7177295B1 (ja) 2022-11-22
US11265455B1 (en) 2022-03-01
DE102022116204A1 (de) 2023-01-05

Similar Documents

Publication Publication Date Title
DE102022116204B4 (de) Verfahren zum Unterscheiden zwischen Fokusabweichung und einer Änderung in einem Abstand zu einem Ziel bei Linsen mit variablem Fokus
DE102022116156A1 (de) Verfahren zum erkennen und korrigieren einer fokusabweichung einer linse mit variablem fokus für anwendungen mit festem fokus
DE112015002368B4 (de) Zielmusterform als abstandssensor für barcodescanner
DE102011056660B4 (de) Markierungsleser, der zum Priorisieren von Bildern eingerichtet ist und Verfahren zum Decodieren einer Markierung
DE112013000571B4 (de) Verfahren zum Decodieren eines Strichcodes innerhalb eines Bilderzeugungssichtfelds eines Bilderzeugungssystems und Vorrichtung
DE102019119985A1 (de) System und verfahren zum autofokussieren einer sichtsystemkamera auf barcodes
DE102013106585A1 (de) System und verfahren zur feststellung und regelung der brennweite in einer visionssystemkamera
DE102021115575A1 (de) Fokusstabilisierung eines bildgebungssystems mit einer linse mit variablem fokus
DE102014114931A1 (de) Systeme und Verfahren zum Verringern von temperaturbedingten Drifterscheinungen auf einer Flüssiglinse
DE102010040518A1 (de) Bildaufnahmegerät, Bilddarstellungsverfahren und Aufnahmemedium sowie darauf aufgenommenes Bilddarstellungsprogramm
DE102013112040B4 (de) System und Verfahren zum Auffinden von sattelpunktartigen Strukturen in einem Bild und Bestimmen von Informationen daraus
DE212021000344U1 (de) Bildgebungssystem
DE112017001464B4 (de) Abstandsmessvorrichtung und Abstandsmessverfahren
DE202013012941U1 (de) Zum Lesen mehrerer decodierbarer Zeichen konfigurierter, mobiler Computer
DE102020109928B3 (de) Kamera und Verfahren zur Erfassung von Bilddaten
DE102020126227A1 (de) Verfahren und Systeme zur Fokussierung eines Bildgebers für maschinelle Bildverarbeitungsanwendungen
DE112022001743T5 (de) Systeme und verfahren zur optimierung der bildgebungseinstellungen und der bilderfassung für einen bildverarbeitungsauftrag
DE112012004267T5 (de) Verfahren und Vorrichtung zum automatischen Erkennen der Ausrichtung von Freiform-dokumenten mit Strichcodes
DE102012104579A1 (de) Optischer Sensor
DE112019006329T5 (de) Vorbeiziehscannen für bildgebungssysteme mit variablem fokus
DE112022001422T5 (de) Verfahren zum scannen mehrerer gegenstände in einem einzigen vorbeiziehen
DE102022109916A1 (de) Systeme und verfahren zur schnellen automatischen einstellung von industriellen festsicht-kameras
DE102021121412A1 (de) Optische anordnung eines adaptiven beleuchtungssystems mit variablem beleuchtungswinkel und vcm (schwingspulen) -motor
DE112022006024T5 (de) Automatische brennpunkteinstellung für fixierte bildverarbeitungssysteme
DE102018105463A1 (de) Codelesegerät mit erweiterter Lesereichweite

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R018 Grant decision by examination section/examining division
R020 Patent grant now final