DE10155733C1 - Verfahren und Vorrichtung zur Bilderfassung - Google Patents

Verfahren und Vorrichtung zur Bilderfassung

Info

Publication number
DE10155733C1
DE10155733C1 DE10155733A DE10155733A DE10155733C1 DE 10155733 C1 DE10155733 C1 DE 10155733C1 DE 10155733 A DE10155733 A DE 10155733A DE 10155733 A DE10155733 A DE 10155733A DE 10155733 C1 DE10155733 C1 DE 10155733C1
Authority
DE
Germany
Prior art keywords
image
functions
sensor elements
directions
weighting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE10155733A
Other languages
English (en)
Inventor
Stefan Jung
Peter Morguet
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Infineon Technologies AG
Original Assignee
Infineon Technologies AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Infineon Technologies AG filed Critical Infineon Technologies AG
Priority to DE10155733A priority Critical patent/DE10155733C1/de
Application granted granted Critical
Publication of DE10155733C1 publication Critical patent/DE10155733C1/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/13Sensors therefor
    • G06V40/1306Sensors therefor non-optical, e.g. ultrasonic or capacitive sensing

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Input (AREA)

Abstract

Ein durch kapazitiv messende Sensoren erfasstes Bild wird verbessert, indem drei Bilder überlagert werden, die mittels einer Adressierung der Bildpunkte durch Zeilen- und Spaltenleitungen erfasst werden, die in einem Winkel von 60 DEG zueinander ausgerichtet sind. Die Bildpunkte liegen in einem hexagonalen Raster einer Bilderfassungsfläche (4). Die Leiterfläche der Sensorelemente sind in getrennt angesteuerte Anteile (10, 20, 30) aufgeteilt. Das erfasste Bild wird mit einer Funktion gewichtet, die die Richtungsabhängigkeit der Schärfe von Linien oder Kanten berücksichtigt.

Description

Die vorliegende Erfindung betrifft ein Verfahren zur Verbes­ serung der Bildqualität in passiven Fingerabdrucksensoren und eine für dieses Verfahren geeignete Vorrichtung.
Zur Aufnahme von Fingerabdrücken sind kapazitiv messende Sen­ sorelemente geeignet, die in einem Raster der Größe einer Fingerspitze angeordnet sind. Das einzelne Sensorelement be­ steht im Wesentlichen aus einer kleinen Leiterplatte, die als Platte eines Kondensators gegenüber der Fingerspitze wirkt. Statt einer Fingerspitze können andere Bilder kapazitiv er­ fasst werden, wobei als Voraussetzung nur erforderlich ist, dass die Oberflächenstruktur des Bildes örtlich so variiert, dass sich von Bildpunkt zu Bildpunkt unterschiedliche Kapazi­ täten gegenüber einer dem Bild gegenüber angeordneten elek­ trisch leitenden Fläche ergeben. Die verschiedenen Kapazitä­ ten können durch Anlegen geeigneter Spannungen und anschlie­ ßendes Messen der auf den Leitern vorhandenen Ladungen be­ stimmt werden.
Kapazitiv messende Fingerabdrucksensoren sind z. B. beschrie­ ben in der Veröffentlichung von M. Tartagni und R. Guerrieri: "A 390 dpi Live Fingerprint Imager Based on Feedback Capaciti­ ve Sensing Scheme" in 1997 IEEE International Solid-State Circuits Conference, S. 200-201. In der DE 198 39 642 A1 ist ein Verfahren zur Herstellung metallischer Feinstrukturen be­ schrieben, mit dem auch Sensoranordnungen zur Erfassung von Fingerabdrucken hergestellt werden können. Bei diesem Verfah­ ren wird eine dünne Basisschicht aus einem flexiblen organi­ schen Material (Folie) auf einen starren Hilfsträger aufge­ bracht, die gewünschten Feinstrukturen auf der Basisschicht erzeugt und die Basisschicht vom Hilfsträger durch Einwirkung von Laserstrahlung, die durch den Hilfsträger hindurch auf die Basisschicht gerichtet wird, abgelöst, so dass die Folie mit den metallischen Feinstrukturen übrig bleibt. Ein Finger­ abdrucksensor kann damit hergestellt werden, indem die Folie auf eine geeignete Oberfläche aufgeklebt wird, z. B. auf ein Bauteil, in dem elektronische Schaltungen zur Erzeugung und Auswertung von Sensorsignalen integriert sind.
In der DE 198 41 001 C1 und in der Veröffentlichung von S. Jung et al.: "CMOS Fingerprint Sensor with Automatic Local Contrast Adjustment and Pixel-Parallel Encoding Logic" in 1999 Symposium on VLSI Circuits Digest of Technical Papers, S. 161 bis 164, sind Verfahren und Vorrichtungen zur kapazi­ tiven Bilderfassung beschrieben, wobei die jedem Bildpunkt zugeordneten Kondensatoren durch Referenzelektroden ergänzt sind, die untereinander mittels Koppelkapazitäten kapazitiv verkoppelt sind. Eine parallele Erfassung des Bildes mittels der vorgegebenen Messelektroden und der zusätzlichen Refe­ renzelektroden liefert zum einen ein dem Raster entsprechend unterteiltes Bild, und zum anderen wird eine sich aus der ka­ pazitiven Kopplung ergebende lokale Mittelung vorgenommen, die als lokaler Referenzwert herangezogen wird.
Bei einem derartigen kapazitiven Fingerabdrucksensor fehlen aktiv betriebene Schalter in der Bildaufnahmefläche (Pixel­ feld). Wegen des dadurch bedingten Übersprechens zwischen den Spaltenleitungen und den Zeilenleitungen, die zu den einzel­ nen Bildpunkten geführt sind, kommt es zu einem Verwaschen von bestimmten Bildmustern. Diese Ungenauigkeiten in dem er­ fassten Bild können grundsätzlich dadurch eliminiert werden, dass das aus dem Sensor ausgelesene Bild digital nachbearbei­ tet wird. Verfälschungen des Bildes sind dabei aber nicht auszuschließen.
Zunächst soll das Problem beschrieben werden, welches sich bei passiven Sensormatrizen mit herkömmlicher orthogonaler Anordnung der Bildelemente ergibt. In der Fig. 1 ist ein Achteck mit einer Richtungsangabe 0° und 90° dargestellt. Dieses Achteck veranschaulicht durch einfach gezeichnete Sei­ ten in den Richtungen 0°, 90°, 180° und 270°, ausgehend vom Mittelpunkt des Achtecks, eine scharfe Bilderfassung in den betreffenden Richtungen. Die Seiten in den Richtungen 45°, 135°, 225° und 315° sind mit Schlangenlinien als unscharf ge­ kennzeichnet. Wenn man das erfasste Bild, z. B. ein Fingerab­ druckmuster, zerlegt in eine Anzahl ineinander geschachtelter konzentrischer Kreisringe aus Pixeln, werden jeweils die Ab­ schnitte der Kreisringbögen, die näherungsweise in den ange­ gebenen Richtungen ausgerichtet sind, scharf beziehungsweise unscharf abgebildet.
Aufgabe der vorliegenden Erfindung ist es, eine Möglichkeit zur Verbesserung der Bildqualität passiver Fingerabdrucksen­ soren anzugeben.
Diese Aufgabe wird mit dem Verfahren mit den Merkmalen des Anspruches 1 bzw. mit der Vorrichtung mit den Merkmalen des Anspruches 4 gelöst. Ausgestaltungen ergeben sich aus den ab­ hängigen Ansprüchen.
Erfindungsgemäß wird das Bild dadurch verbessert, dass drei, vorzugsweise sequentiell abgetastete Bilder derselben Struk­ tur überlagert werden. Diese drei Bilder werden mittels einer Adressierung der Bildpunkte durch Zeilen- und Spaltenleitun­ gen erfasst, die in einem Winkel von 60° zueinander ausge­ richtet sind. Die Bildpunkte sind zu diesem Zweck in einem hexagonalen Raster angeordnet.
In der Fig. 2 ist zur näheren Erläuterung ein Sechseck dar­ gestellt, dessen Seiten in der nachfolgenden Beschreibung an die Stelle der Seiten des in der Fig. 1 dargestellten Acht­ ecks treten. In der Fig. 2 ist mit einem Pfeildiagramm die Anordnung der Richtungen 0°, 60° und 120° dargestellt. Wenn die Zeilenleitungen und Spaltenleitungen der Adressierung der Pixel in den Richtungen 0° und 60° ausgerichtet sind, werden die Bildkomponenten, die in den durch die Sechseckseiten 3 bestimmten Richtungen ausgerichtet sind, scharf abgebildet; wenn die Zeilenleitungen und Spaltenleitungen in den Richtun­ gen 60° und 120° ausgerichtet sind, werden die Bildkomponen­ ten, die in den durch die Sechseckseiten 1 bestimmten Rich­ tungen ausgerichtet sind, scharf abgebildet; wenn die Zeilen­ leitungen und Spaltenleitungen in den Richtungen 0° und 120° ausgerichtet sind, werden die Bildkomponenten, die in den durch die Sechseckseiten 2 bestimmten Richtungen ausgerichtet sind, scharf abgebildet.
In den übrigen Richtungen ist die Bildwiedergabe weniger scharf. Dabei können kontinuierliche Übergänge bis zu einer minimalen Bildqualität vorhanden sein, die erwartungsgemäß in der bei der betreffenden Adressierung jeweils ausgelassenen dritten Richtung vorhanden ist, also jeweils in derjenigen der drei angegebenen Richtungen 0°, 60° und 120°, in der die Zeilenleitungen und Spaltenleitungen der betreffenden Adres­ sierung nicht ausgerichtet sind.
Die sich mit diesen drei unterschiedlichen Ausrichtungen der Zeilen- und Spaltenleitungen ergebenden drei abgetasteten Bilder haben daher jeweils scharfe Bildkomponenten in unter­ schiedlichen Richtungen. Werden diese drei Bilder überlagert, kann durch Anwendung an sich bekannter Methoden der Bildver­ arbeitung ein einziges Bild daraus hergestellt werden, das insgesamt schärfer ist als jedes der erreichbaren Einzelbil­ der. Das liegt daran, dass jedes Bild zwei Vorzugsrichtungen maximaler Bildschärfe aufweist und sich diese Vorzugsrichtun­ gen zu insgesamt drei Richtungen ergänzen, in denen die Bild­ schärfe sehr gut ist.
Es folgt eine genauere Beschreibung bevorzugter Beispiele des erfindungsgemäßen Verfahrens und einer erfindungsgemäßen Vor­ richtung anhand der Fig. 3 und 4.
Die Fig. 1 und 2 enthalten die der obigen Erläuterung die­ nenden Richtungsschemata.
Die Fig. 3 und 4 geben Ausführungsbeispiele einer erfin­ dungsgemäßen Vorrichtung im Schema wieder.
In der Fig. 3 ist eine Anordnung von Sensorelementen zu ei­ nem als Bilderfassungsfläche 4 vorgesehenen Sensorfeld darge­ stellt. Die einzelnen Sensorelemente sind in einem sechsecki­ gen Raster angeordnet und bilden insgesamt eine sechseckige Bilderfassungsfläche. Die vorzugsweise im Wesentlichen eben­ falls sechseckigen Leiterflächen der Sensorelemente können an den Rändern der Gesamtfläche, wie in der Fig. 3 vereinfacht dargestellt, geradlinig abgeschnitten sein. Bei der Anordnung kann aber auch vorgesehen sein, alle Sensorelemente gleichar­ tig auszubilden, so dass sich bei dem dargestellten Beispiel ein entsprechend gezackter Rand der Bilderfassungsfläche er­ gibt.
Die Reihen aufeinanderfolgender Sensorelemente, die jeweils parallel zu den Rändern der Bilderfassungsfläche verlaufen, werden über vorgesehene Schaltungen angesteuert, die hier als Beispiel in Chips 100, 200, 300 integriert sind. Diese Chips enthalten die erforderlichen Adressierungsschaltungen und die zugehörigen Ausleseschaltungen. Eine Auswertung der Mess­ signale kann in diesen Chips direkt erfolgen oder zentral in einer dafür vorgesehenen Auswerteschaltung. Diese Auswerte­ schaltung kann in der erfindungsgemäßen Vorrichtung, z. B. einem Sensorchip, integriert sein.
In der Fig. 3 ist unten ein Beispiel für die Strukturierung der Leiterfläche eines einzelnen Sensorelements in Anteile dargestellt. Die insgesamt sechseckige Leiterfläche ist längs der Diagonalen von Eckpunkt zu gegenüberliegendem Eckpunkt in sechs Dreiecke unterteilt. Die beiden einander gegenüberlie­ genden Dreiecke sind jeweils elektrisch leitend miteinander und mit einer betreffenden Adressierungsleitung verbunden. Das ist in der Fig. 3 dadurch angedeutet, dass die einander gegenüberliegenden Dreiecke der Anteile 10 und 10, 20 und 20 bzw. 30 und 30 jeweils an den einander zugewandten Spitzen miteinander verbunden sind. Über den Chip 100 wird so das Leiterpaar der Anteile 10, 10 adressiert, über den Chip 200 das Leiterpaar der Anteile 20, 20 und über den Chip 300 das Leiterpaar der Anteile 30, 30. Grundsätzlich genügt auch eine Einteilung der sechseckigen Leiterflächen in jeweils drei Teile, zum Beispiel drei gleich große Rhomben. Eine punktsym­ metrische Aufteilung der Leiterflächen ist aber vorteilhaft.
In der Fig. 4 ist ein weiteres Ausführungsbeispiel darge­ stellt, dessen Komponenten im Wesentlichen den Komponenten der Vorrichtung gemäß Fig. 3 entsprechen. Im Unterschied zu dem Ausführungsbeispiel der Fig. 3 sind hier allerdings die Sechsecke der Leiterflächen der einzelnen Sensorelemente mit ihren Seiten parallel zu den Rändern der gesamten Bilderfas­ sungsfläche 4 ausgerichtet. Eine Einteilung der Leiterflächen in Elemente, die in den Vorzugsrichtungen 0°, 60° und 120° ausgerichtet sind, ist z. B. durch die in der Fig. 4 unten dargestellte Aufteilung längs der Seitenmittelsenkrechten möglich, die drachenförmige Anteile 10, 20, 30 ergibt.
Die Leiterflächen brauchen aber nicht sechseckig zu sein, sondern können z. B. durch in Segmente eingeteilte Kreise ge­ bildet werden oder durch jeweils drei Kreise, deren Mittel­ punkte auf den Ecken eines gleichseitigen Dreiecks liegen. Die Parkettierung der Bilderfassungsfläche ist in diesem Fall nicht ganz so dicht wie bei der Verwendung sechseckiger Lei­ terflächen. Wegen der Anordnung der einzelnen Sensorelemente in einem sechseckigen Raster empfiehlt sich eine Ausgestal­ tung der Vorrichtung mit einer insgesamt sechseckigen Bilder­ fassungsfläche. Das ist aber keinesfalls erforderlich. Die Bilderfassungsfläche kann auch rechteckig, rund, oval oder zum Beispiel an die typische Form einer Fingerspitze ange­ passt sein. Die Ausrichtung der Zeilen- und Spaltenleitungen und deren Anschluss an die Adressierungsschaltungen und die Ausleseschaltungen erfolgt aber im Prinzip wie in den Fig. 3 und 4 dargestellt. Die symmetrische Anordnung, die bei den Ausführungsbeispielen gemäß den Fig. 3 und 4 realisiert ist, ergibt eine besonders kurze Verdrahtung des passiven Sensorfeldes mit den Chips und ist daher bevorzugt.
Im Folgenden wird ein Bildverarbeitungsverfahren beschrieben, das in Verbindung mit dem Verfahren und der Vorrichtung be­ sonders geeignet ist. Dieses Bildverarbeitungsverfahren dient dazu, drei Teilbilder, die mit der Vorrichtung gemäß Fig. 3 bzw. Fig. 4 durch Adressierung über die Chips 100, 200, die Chips 200, 300 beziehungsweise die Chips 100, 300 erfasst worden sind, in ein schärferes Gesamtbild zusammenzuführen. Dazu wird zu jedem Bildpunkt festgestellt, ob eine Kante durch diesen Bildpunkt verläuft, und die Bildschärfe an die­ ser Stelle entsprechend der Intensität dieser Kante und der Richtung des Verlaufs der Tangente an diese Kante gewichtet. Unter einer Kante ist hierbei ein Bildmuster zu verstehen, bei dem längs einer Linie eine Reihe von Bildpunkten vorhan­ den ist, die zumindest näherungsweise gleich hell sind, wobei die Helligkeit des Bildes sich seitlich von der Linie weg zu­ mindest in einer Richtung ändert, oder für die die Hellig­ keitsänderung gegenüber bezüglich der Linie seitlichen Bild­ punkten zumindest näherungsweise gleich oder lokal maximal ist.
Zur Erläuterung des Verfahrens werden die miteinander zu kom­ binierenden Bilder mit fa, fb und fc bezeichnet. Damit sind Funktionen gemeint, die jeweils einem Bildpunkt (Pixel) einen Grauwert oder einen binären Wert "0" oder "1" im Fall einer vollständigen Digitalisierung zuordnen. Es wird zunächst zu jedem Bild fa, fb und fc ein Gradientenbild bestimmt. Wenn man in einem dreidimensionalen Koordinatensystem mit senkrecht aufeinander stehenden Achsen x, y, z die Lage der Bildpunkte durch ihre x-y-Koordinaten bezeichnet und auf der z-Achse je­ weils die Helligkeit des betreffenden Bildpunktes beziehungs­ weise den Schwärzungsgrad der Wiedergabe abträgt, erhält man eine Punktmenge, die in einer Fläche liegt, die einer Relief­ darstellung eines Gebirges entspricht.
Ein entsprechend dem Bildraster aufgenommenes Bild liefert die in die Funktionen einzusetzenden Werte (Argumente) je­ weils nur an einzelnen diskreten Punkten. Eine stetige Funk­ tion kann dadurch gebildet werden, dass die an den isolierten Stellen vorhandenen Funktionswerte durch an den übrigen Stel­ len des Bildes geeignet gewählte Funktionswerte stetig er­ gänzt werden. Generell kann so nach den bekannten Verfahren der Algebra immer eine durch ein Polynom beschriebene Funkti­ on erzeugt werden. Es wird bei den nachfolgenden Erläuterun­ gen angenommen, dass durch eine geeignete Ergänzung der dis­ kreten Funktionswerte eine stetig differenzierbare Funktion konstruiert ist. Die Fläche ist somit durch eine Funktion z = f(x, y) der x-y-Koordinaten gegeben. Der Gradient dieser Funktion, das heißt der aus den partiellen Ableitungen nach x beziehungsweise y gebildete Vektor, gibt in der x-y-Ebene die Richtung stärksten Anstiegs der Fläche an; sein Betrag ist ein Maß für die Stärke des Anstiegs.
Eine Kante im vorgenannten Sinn ist hier zum Beispiel eine Linie, längs deren die Bildpunkte dieselbe Helligkeit besit­ zen, so dass die Funktionswerte (z-Koordinaten) dieselben sind (Höhenlinie), oder eine Linie, längs deren der Gradient der Funktion f denselben Betrag aufweist oder, vorzugsweise, lokal maximale Werte annimmt. Das nachfolgend beschriebene Verfahren kann grundsätzlich unter Verwendung einer beliebi­ gen geeigneten Art von Linien als Kanten durchgeführt werden, je nachdem, welche Definition der für das Verfahren herange­ zogenen Linien als Kanten gerade zweckmäßig ist und die be­ sten Resultate liefert. Ein wesentlicher Aspekt im Hinblick auf das hier beschriebene Verfahren ist dabei nur, dass die hier als Kanten bezeichneten Linien längliche Bildstrukturen definieren, die unterschiedlich scharf abgebildet werden, ab­ hängig davon, in welcher Richtung die Linie tangential ver­ läuft und mit welchen Richtungen der Zeilen- und Spaltenlei­ tungen das Bild aufgenommen wurde.
Wenn die Kanten so gewählt werden, dass sich längs der Kante jeweils der Betrag des Gradienten nicht ändert, bedeutet das, dass die Kante jeweils senkrecht zu dem Gradienten des Be­ trags des Gradienten verläuft. Der Betrag des Gradienten ist die Wurzel aus der Summe der Quadrate der partiellen Ablei­ tungen nach x beziehungsweise y der Funktion z = f(x, y), die das Relief des Helligkeitsbildes liefert. Die Richtung der Kante in einer möglichen Orientierung besitzt als x-Komponen­ te die partielle Ableitung des Betrages des Gradienten nach y und als y-Komponente das Negative der partiellen Ableitung des Betrages des Gradienten nach x. Ein Orientierungswinkel kann aus dem Arkustangens des Verhältnisses der y-Komponente zur x-Komponente bestimmt werden. Die Lage jeder Kante kann mit einem vorgegebenen oder aus dem Bild als zweckmäßig er­ mittelten Betrag des Gradienten festgelegt werden.
Wenn als Kante der Verlauf der lokal maximalen Werte des Be­ trages des Gradienten definiert wird, ist die Richtung der Kante in der x-y-Ebene durch die Richtung der impliziten Funktion gegeben, die man dadurch erhält, dass man das Pro­ dukt aus dem Quadrat der partiellen Ableitung von f nach x und der zweiten partiellen Ableitung von f nach x und das Produkt aus dem Quadrat der partiellen Ableitung von f nach y und der zweiten partiellen Ableitung von f nach y gleich­ setzt:
Das Vorliegen eines lokalen Maximums überprüft man wie üblich anhand des Vorzeichens der Determinante der zweiten partiel­ len Ableitungen des Betrages des Gradienten.
Bei dieser Ausführungsform des Verfahrens ist die Bestimmung der Kantenrichtung etwas aufwendig. Nachfolgend wird das Ver­ fahren beispielhaft anhand von Kanten beschrieben, deren stärkere oder schwächere Ausprägung durch den Betrag des Gra­ dienten wiedergegeben wird, deren Verlauf aber der Einfach­ heit halber stets senkrecht zu dem Gradienten angenommen wird. Das hat den Vorteil, dass die Bestimmung der tangentia­ len Richtung an die betreffenden Linien besonders einfach ist.
Die Gradientenbildfunktion, die jedem Bildpunkt, der durch die Koordinaten x und y festgelegt ist, den Gradienten der Helligkeit beziehungsweise des Schwärzungsgrades in diesem Bildpunkt zuordnet, ist zerlegbar in eine Kantenbildfunktion, die jedem Bildpunkt den Betrag des Gradienten zuordnet, und eine Orientierungsbildfunktion, die jedem Bildpunkt den Win­ kel der Tangente an die Kante, das heißt die Senkrechte auf dem Gradienten an dieser Stelle, gemessen in mathematisch po­ sitiver Drehrichtung bezüglich einer festgelegten Achse zu­ ordnet. Dieser Winkel kann hierbei auf ±180° unbestimmt blei­ ben. Die Kantenbildfunktionen ka, kb, und kc und die Orientie­ rungsbildfunktionen δa, δb, und δc werden zu den drei Bildern fa, fb, und fc berechnet.
Zu jedem Bild fa, fb, und fc wird ferner eine Richtungsselek­ tionsfunktion sa(δ), sb(δ) beziehungsweise sc(δ) bestimmt, wo­ bei δ die Richtung innerhalb des Bildes ist, die zum Beispiel durch den in mathematisch positivem Sinn von einer festgeleg­ ten Achse gemessenen Winkel definiert ist. Die Richtungsse­ lektionsfunktion wird so gebildet, dass Kantenrichtungen, die in dem betreffenden Bild scharf abgebildet werden, einen gro­ ßen Funktionswert liefern und unscharf abgebildete Kanten­ richtungen einen kleinen oder auch verschwindenden Funktions­ wert.
Insbesondere wenn es möglich ist, die Bildschärfe der Vor­ richtung durch eine Modellrechnung zu ermitteln, kann eine normierte Version mit einem Maximalwert von 1 als Richtungs­ selektionsfunktion bestimmt werden. Wenn die Richtungsselek­ tionsfunktion so bestimmt wird, dass sie bei maximaler Schär­ fe den Wert 1 liefert und bei minimaler Schärfe den Wert 0 (Normierung auf 1 und Offset bei 0), kann eine tatsächlich zu verwendende Richtungsselektionsfunktion durch eine stetige Approximation der zunächst bestimmten Richtungsselektions­ funktion mit einem cosinusförmigen Verlauf in Abhängigkeit von der Richtung δ gefunden werden.
Zu jeder Bildfunktion fa, fb beziehungsweise fc wird aus der Gradientenbildfunktion durch Gewichtung mit der zugehörigen Richtungsselektionsfunktion eine Gewichtungsfunktion ga, gb bzw. gc bestimmt. Das geschieht durch Multiplikation der Kan­ tenbildfunktion mit dem jeweiligen Wert der Richtungsselekti­ onsfunktion, der durch Einsetzen des betreffenden Wertes (Winkels) der Orientierungsbildfunktion in die Richtungsse­ lektionsfunktion erhalten wird: ga = kasaa), gb = kbsbb), gc = kcscc).
Wenn sich herausstellt, dass die auf diese Weise aus den Gra­ dientenbildfunktionen mit den Richtungsselektionsfunktionen ermittelten Ergebnisse bereits eine ausreichende Qualität liefern, können diese Funktionen ga, gb bzw. gc bereits als Gewichtungsfunktionen verwendet werden. Um jedoch eventuelle Fehler in den Funktionswerten dieser Funktionen auszugleichen und möglichst zusammenhängende Richtungsbereiche zu erhalten, wird nach einer Binarisierung der Gewichtungsfunktionen damit beispielsweise eine an sich bekannte morphologische Closing- Operation durchgeführt. Die durch die Closing-Operation er­ gänzten Bildbereiche der binarisierten Bilder liefern jeweils eine Maske, mit der die Gewichtungsfunktionen durch Interpo­ lation mit den jeweils benachbarten Bildbereichen zu Gewich­ tungsfeldern ergänzt werden. In den Gewichtungsfeldern sind diejenigen Bereiche des Bildes stärker gewichtet, die mit dem betreffenden Verfahren zur Aufnahme des Bildes schärfer abge­ bildet werden.
In den Gewichtungsfunktionen bzw. Gewichtungsfeldern sind ge­ wissermaßen Bereiche markiert, die im jeweiligen Bild beson­ ders scharf abgebildet werden. In denjenigen Bildbereichen, in denen keine scharfen Begrenzungen vorhanden sind, sind al­ le drei erfindungsgemäß ermittelten Bilder gleichberechtigt. Die Gewichtungsfunktionen haben an solchen Stellen allerdings in der Regel alle sehr kleine Werte. Wegen der damit oft ein­ hergehenden Ungenauigkeit ist es sinnvoll, auf normierte Ge­ wichtungsfunktionen bzw. normierte Gewichtungsfelder na, nb bzw. nc überzugehen. Diese normierten Gewichtungsfunktionen erhält man, indem man einen Basiswert ε vorgibt, mit dem kleinere auftretende Werte der Gewichtungsfunktionen ersetzt werden.
Die Funktion max(ga, ε) ist diejenige Funktion, die man er­ hält, wenn alle Werte der Funktion ga, die kleiner als der Wert ε sind, durch diesen Wert ε ersetzt werden. Damit wird definiert:
Die Verwendung des Basiswertes ε dient dazu, eine klare Auf­ teilung der Gewichtungsanteile zu erhalten, auch wenn sehr kleine Werte auftreten, die oft mit großen Fehlern behaftet sind. Auf die angegebene Weise werden in nicht strukturierten Bildbereichen alle Bilder fa, fb und fc der Vorrichtung zu gleichen Teilen gewichtet. Das zusammengesetzte Bild besitzt die Funktion des Gesamtbildes ft = nafa + nbfb + ncfc. Hierin sind die drei aufgenommenen Bilder jeweils mit den Anteilen, die besonders scharf abgebildet sind, kombiniert.

Claims (9)

1. Verfahren zur Bilderfassung mittels einer Anordnung passi­ ver kapazitiv messender Sensorelemente, bei dem
eine zeilenweise und spaltenweise Adressierung der Sensor­ elemente erfolgt und ein Messwert eines in einem jeweiligen Kreuzungspunkt einer Zeile und einer Spalte vorhandenen Sen­ sorelementes erfasst wird,
dadurch gekennzeichnet, dass
die adressierten Zeilen und Spalten in einem Winkel von 60° zueinander ausgerichtet werden,
drei derartige Bilderfassungen vorgenommen werden, bei denen die Ausrichtungen der Zeilen und Spalten jeweils um 60° ge­ dreht sind und
aus den drei erfassten Bildern durch Überlagern ein im Ver­ gleich zu jedem einzelnen Bild schärferes Bild erzeugt wird.
2. Verfahren nach Anspruch 1, bei dem
für jede Bilderfassung eine Richtungsselektionsfunktion be­ stimmt wird, die ein Maß für eine Wiedergabegenauigkeit oder Bildschärfe von Linien oder Kanten ist, die in einer jeweili­ gen Richtung verlaufen,
zu einem jeweils erfassten Bild darin wiedergegebene Linien oder Kanten und deren Richtungen ermittelt werden und diese Linien oder Kanten entsprechend ihrer Richtung mit der Rich­ tungsselektionsfunktion gewichtet werden, um Gewichtungsfunk­ tionen zu erhalten, und
das Überlagern der erfassten Bilder durch eine Addition der Gewichtungsfunktionen geschieht.
3. Verfahren nach Anspruch 2, bei dem
ein unterer Grenzwert ε für die durch die Gewichtung mit den Richtungsselektionsfunktionen erhaltenen Funktionen festge­ legt wird, indem alle auftretenden kleineren Werte durch die­ sen Grenzwert ε ersetzt werden, und
die so erhaltenen Funktionen als Gewichtungsfunktionen ver­ wendet werden.
4. Verfahren nach Anspruch 2 oder 3, bei dem
die durch die Gewichtung mit den Richtungsselektionsfunktio­ nen erhaltenen Funktionen normiert werden, indem sie durch die Summe dieser Funktionen aller drei Bilderfassungen divi­ diert werden, und
die so erhaltenen Funktionen als Gewichtungsfunktionen ver­ wendet werden.
5. Vorrichtung zur Bilderfassung mittels einer Anordnung pas­ siver kapazitiv messender Sensorelemente, insbesondere nach einem Verfahren nach einem der Ansprüche 1 bis 4, bei der die Sensorelemente in einem hexagonalen Raster zu einer Bild­ erfassungsfläche (4) angeordnet sind und Adressierungsleitun­ gen und Adressierungsschaltungen vorhanden sind, die so ange­ ordnet sind, dass Reihen von Sensorelementen adressiert wer­ den können, die in einer von drei Richtungen ausgerichtet sind, die untereinander Winkel von 60° bilden.
6. Vorrichtung nach Anspruch 5, bei der die Adressierungs­ schaltungen dafür vorgesehen sind, drei Bilder zu erfassen, indem jeweils Reihen von Sensorelementen adressiert werden, die in einer von jeweils zwei der drei Richtungen ausgerich­ tet sind.
7. Vorrichtung nach Anspruch 5 oder 6, bei der die Sensorele­ mente Leiterflächen aufweisen, die jeweils in drei voneinan­ der elektrisch isolierte Anteile strukturiert sind.
8. Vorrichtung nach Anspruch 7, bei der die Leiterflächen in Anteile strukturiert sind, die längs der drei Richtungen aus­ richtet sind.
9. Vorrichtung nach Anspruch 8, bei der die Adressierungs­ schaltungen für jede Richtung getrennt angeordnet und mit den jeweils betreffenden Reihen von Sensorelementen über direkte Adressierungsleitungen verbunden sind.
DE10155733A 2001-11-14 2001-11-14 Verfahren und Vorrichtung zur Bilderfassung Expired - Fee Related DE10155733C1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE10155733A DE10155733C1 (de) 2001-11-14 2001-11-14 Verfahren und Vorrichtung zur Bilderfassung

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE10155733A DE10155733C1 (de) 2001-11-14 2001-11-14 Verfahren und Vorrichtung zur Bilderfassung

Publications (1)

Publication Number Publication Date
DE10155733C1 true DE10155733C1 (de) 2003-07-10

Family

ID=7705606

Family Applications (1)

Application Number Title Priority Date Filing Date
DE10155733A Expired - Fee Related DE10155733C1 (de) 2001-11-14 2001-11-14 Verfahren und Vorrichtung zur Bilderfassung

Country Status (1)

Country Link
DE (1) DE10155733C1 (de)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19841001C1 (de) * 1998-09-08 2000-04-20 Siemens Ag Verfahren und Vorrichtung zur kapazitiven Bilderfassung

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19841001C1 (de) * 1998-09-08 2000-04-20 Siemens Ag Verfahren und Vorrichtung zur kapazitiven Bilderfassung

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
JUNG, St. et al. "CMOS Fingerprint Sensor with Automatic Local Contrast Adjustment and Pixel-Parallel Encoding Logic "Symposium on VLSI Circuits, 17-19 June 1999, pp. 161-164 *
TARTAGNI, M. et al "A 390dpi Live Fingerprint Imager Based on Feedback Capacitive Sensing Scheme", IEEE International Solid State Circuits Conference, SSCC97, Session 12 Sensors, Paper FP 12.3, pp. 200-201, (1997) *

Similar Documents

Publication Publication Date Title
DE10241392B4 (de) Vorrichtung und Verfahren zum Erfassen einer dreidimensionalen Relativbewegung
DE69813211T2 (de) Fingerabdrucksensor mit filterung und energiesparende eigenschaften und zugehörigen verfahren
DE69809907T2 (de) Fingerabdrucksensor mit verstärkungssteuerungsmerkmalen und dazugehörige verfahren
DE60207443T2 (de) Sensorvorrichtung für eine optisches zeigerinstrument, wie eine optische maus
DE112008002148B4 (de) Verfahren zum dreidimensionalen Messen der Höhe eines Objektteils
EP0023574B1 (de) Opto-elektronisches Prüfsystem zur automatischen Beschaffenheitsprüfung von Leiterplatten, deren Zwischenprodukte und Druckwerkzeuge
DE102010030859B4 (de) Verfahren zum Untersuchen eines auf einem Substrat montierten Messobjektes
DE4438278C2 (de) Verfahren zum Erzeugen einer Toleranzwertdatenbank und System zum Prüfen von Leiterplatten unter Anwendung der Toleranzwertdatenbank
DE2935261A1 (de) Anordnung und verfahren zur mustererkennung
EP1002217B1 (de) Verfahren zur bestimmung des abstandes p einer kante eines strukturelementes auf einem substrat
DE2417282B2 (de) Vorrichtung zum Lesen von Fingerabdrücken
DE60015966T2 (de) Messung der lagen oder koplanarität von kontaktelementen eines elektronischen bauteils mit flacher beleuchtung und zwei kameras
CH708993B1 (de) Verfahren und Vorrichtung zum Identifizieren eines zweidimensionalen Punktcodes.
DE10257424A1 (de) Vorrichtung und Verfahren zum Erfassen einer Drehung
EP0484935B1 (de) Verfahren und Vorrichtung zum Lesen und Identifizieren der Information einer Zeichenvorlage, insbesondere eines Barcodes, innerhalb eines zwei- oder drei-dimensionalen Feldes mittels einer Video-Kamera, die ein binäres Videosignal des Bildes zu erzeugen imstande ist
DE4102587A1 (de) Verfahren und einheit zur binaeren bildverarbeitung sowie verfahren und einheit zur zeichenerkennung
DE3718620C2 (de)
EP0355377B1 (de) Verfahren zur optischen Prüfung von Flachbaugruppen
DE10155733C1 (de) Verfahren und Vorrichtung zur Bilderfassung
DE19544753C2 (de) Elektronenstrahl-Schreibverfahren
EP1110170B1 (de) Verfahren und vorrichtung zur kapazitiven bilderfassung
DE102008059551B4 (de) Verfahren zum Ermitteln der Lageänderung eines Kamerasystems und Vorrichtung zum Erfassen und Verarbeiten von Bildern
DE1294074B (de) Zeichenerkennungsvorrichtung mit spaltenweiser Abtastung
EP0623885A2 (de) Einrichtung zum Gewinnen von Klassifikationsinformationen
DE4132754A1 (de) Vorrichtung zur ueberpruefung von minenstiften oder aehnlichem auf oberflaechenfertigungsfehler

Legal Events

Date Code Title Description
8100 Publication of the examined application without publication of unexamined application
8304 Grant after examination procedure
8364 No opposition during term of opposition
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee

Effective date: 20130601