DE60311215T2 - Anordnung, Verfahren und Programm zur Erfassung von charakteristischen Daten eines Organismus und entsprechende Anordnung zur Authentifizierung - Google Patents

Anordnung, Verfahren und Programm zur Erfassung von charakteristischen Daten eines Organismus und entsprechende Anordnung zur Authentifizierung Download PDF

Info

Publication number
DE60311215T2
DE60311215T2 DE60311215T DE60311215T DE60311215T2 DE 60311215 T2 DE60311215 T2 DE 60311215T2 DE 60311215 T DE60311215 T DE 60311215T DE 60311215 T DE60311215 T DE 60311215T DE 60311215 T2 DE60311215 T2 DE 60311215T2
Authority
DE
Germany
Prior art keywords
fingerprint
section
data
image
characteristic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE60311215T
Other languages
English (en)
Other versions
DE60311215D1 (de
Inventor
c/o Fujitsu Limited Yusaku Fujii
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Publication of DE60311215D1 publication Critical patent/DE60311215D1/de
Application granted granted Critical
Publication of DE60311215T2 publication Critical patent/DE60311215T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1335Combining adjacent partial images (e.g. slices) to create a composite input or reference pattern; Tracking a sweeping finger movement

Description

  • Die vorliegende Erfindung bezieht sich auf Techniken zum Erfassen charakteristischer Daten von Lebewesen aus Informationen von Lebewesen wie beispielsweise Fingerabdrücken, Handflächenmustern, Blutgefäßmustern (Netzhauthintergrundgefäßmuster, Venengefäßmuster) und Irismuskelmustern, und insbesondere auf Techniken zum Erfassen charakteristischer Daten von Lebewesen (Informationen charakteristischer Punkte enthaltende Fingerabdruckdaten oder Gratstrukturdaten), die zur persönlichen Identifizierung, usw., notwendig sind, aus einer Vielzahl von Teilbildern (Fingerabdruckbildern), die aufeinanderfolgend abgetastet werden, während beispielsweise bei einem Fingerabdrucksensor des Sweep-Typs ein Finger in Bezug auf eine Sensoroberfläche bewegt wird.
  • Mit einer Funktionsverbesserung in den letzten Jahren ermöglicht nun eine Informationsvorrichtung mit kleiner Größe, wie ein tragbares Telefongerät und ein PDA (persönlicher digitaler Assistent), eine Verbindung mit einem Netz und das Speichern einer großen Menge persönlicher Informationen, usw. Daher steigt ein Bedarf an einer Verbesserung der Sicherheitsleistung einer Vorrichtung des soeben angegebenen Typs signifikant.
  • Um die Sicherheit einer Vorrichtung des angegebenen Typs zu garantieren, kann eine persönliche Identifizierung auf der Basis eines Passworts, einer ID (IDentifikations)-Karte, usw., die herkömmlich allgemein verwendet werden, eingesetzt werden. Bei dem Passwort und der ID-Karte ist jedoch der Grad der Möglichkeit einer mißbräuchlichen Verwendung hoch. Daher besteht ein großer Bedarf daran, eine persönliche Identifizierung (Identifikation zur Bestätigung, dass ein Benutzer einer Vorrichtung der im Voraus registrierte ist) mit einem hohen Zuverlässigkeitsgrad zu erzielen. Eine persönliche Identifizierung auf der Basis von In formationen von Lebewesen (biometrische Informationen) hat einen hohen Zuverlässigkeitsgrad. Daher wird davon ausgegangen, dass die soeben beschriebene persönliche Identifizierung die oben beschriebene Nachfrage befriedigen kann. Wenn ein Fingerabdruck als Informationen von Lebewesen verwendet wird, ist insbesondere nicht nur die Zuverlässigkeit, sondern auch die Zweckmäßigkeit hoch.
  • Wenn eine persönliche Identifizierung unter Verwendung eines Fingerabdrucks als Informationen eines Lebewesens vorgenommen wird, wird ein Fingerabdrucksensor des Kapazitätstyps oder ein Fingerabdrucksensor des optischen Typs verwendet, um einen Fingerabdruck (ein Muster, das aus Graten, die mit einer Sensoroberfläche des Fingerabdrucksensors in Kontakt gelangen können, und Rillenlinien, die mit der Sensoroberfläche nicht in Kontakt gelangen, gebildet ist) als Bildinformationen von einem Finger einer Objektperson der Authentifizierung abzutasten. Danach werden charakteristische Informationen (beispielsweise Positionsinformationen eines Verzweigungspunkts oder eines Endpunkts) aus einem Vordergrund des Fingerabdruckbilds (beispielsweise ein Gratbild) extrahiert. Dann werden die extrahierten charakteristischen Informationen und charakteristischen Registrierungsinformationen der Objektperson der Authentifizierung, die im Voraus registriert wurden, miteinander kollationiert. So wird die Entscheidung getroffen, ob die Objektperson der Authentifizierung die Originalperson ist oder nicht, das heißt die persönliche Identifizierung.
  • Ein allgemeiner Fingerabdrucksensor (Fingerabdrucksensor des ebenen Typs) zum Abtasten eines Fingerabdruckbilds von einer Authentifizierungsobjektperson hat dabei normalerweise eine Sensoroberfläche mit einer Größe, die größer ist als jene eines Fingers. Um einen Fingerabdrucksensor in eine Informationsvorrichtung mit kleiner Größe einzubauen, wie ein tragbares Telefongerät und ein PDA, wird jedoch in den letzten Jahren ein wie nachstehend beschriebenes Verfahren genutzt. Insbesondere ist die Sensoroberfläche kleiner ausgebildet als jene eines Fingers, und eine Vielzahl von durch die Sensoroberfläche abgetasteten Teilbildern wird synthetisiert, um ein Bild eines gesamten Fingerabdrucks zu erhalten.
  • Als Fingerabdrucksensor, der die soeben beschriebe Situation bewältigen kann, ist ein Fingerabdrucksensor des Sweep-Typs verfügbar. Der Fingerabdrucksensor des Sweep-Typs hat eine rechteckige Sensoroberfläche (Bildaufnahmeoberfläche) mit einer Länge und einer Fläche, die ausreichend kleiner sind als jene eines Fingers. Es ist zu beachten, dass die relative Bewegung eines Fingers in Bezug auf eine Sensoroberfläche hier im Nachstehenden als "Sweep" bezeichnet wird.
  • Wenn der Fingerabdrucksensor des Sweep-Typs verwendet wird, wird eine Vielzahl von Teilbildern eines Fingerabdrucks aufeinanderfolgend vom Fingerabdrucksensor abgetastet, während der Finger in Bezug auf die Sensoroberfläche bewegt wird, oder die Sensoroberfläche (Fingerabdrucksensor) in Bezug auf den Finger bewegt wird. Dann wird ein Fingerabdruckgesamtbild (ein Vollbild) auf der Basis einer Vielzahl so abgetasteter Teilbilder rekonstruiert (siehe Japanisches offengelegtes Patent Nr. 91769/1998).
  • Insbesondere wenn der Fingerabdrucksensor des Sweep-Typs verwendet wird, kann dann beispielsweise eine große Anzahl rechtwinkliger Fingerabdruckteilbilder, wie in 24 gezeigt, aufgenommen werden. Herkömmlich (gemäß einem System, das in dem Japanischen offengelegten Patent Nr. 91769/1998 geoffenbart ist) werden, um eine persönliche Identifizierung unter Verwendung der Fingerabdruckteilbilder vorzunehmen, die Fingerabdruckteilbilder synthetisiert, wie in 25 gezeigt, um ein einzelnes Fingerabdruckgesamtbild zu bilden (in dem Japanischen offengelegten Patent Nr. 91769/1998 Vollbild genannt). Danach wird die persönliche Identifizierung unter Verwendung eines Verfahrens ähnlich jenem vorgenommen, das für eine Fingerabdruckidentifikation unter Verwendung des Fingerabdrucksensors des ebenen Typs vorgenommen wird.
  • Insbesondere mit Bezugnahme auf 26 wird eine Vielzahl von Fingerabdruckteilbildern 1 bis n miteinander verbunden (Schritt S1), und Bildprozesse wie ein Binärisierungsprozess und ein Verdünnungsprozess werden für das rekonstruierte Fingerabdruckgesamtbild vorgenommen (Schritt S2). Dann werden Informationen eines charakteristischen Punkts (Minutie; ein Verzweigungspunkt oder ein Endpunkt eines Grats) extrahiert und als charakteristische Daten eines Lebewesens aus dem Fingerabdruckgesamtbild erzeugt, nachdem der Bildprozess vorgenommen wird (Schritt S3), und eine persönliche Identifizierung wird auf der Basis der extrahierten Fingerabdruckdaten vorgenommen.
  • Es ist zu beachten, dass in 25 eine Pfeilmarkierung V1 einen Vektor anzeigt, der eine relative Positionsbeziehung zwischen einem ersten Fingerabdruckteilbild und einem zweiten Fingerabdruckteilbild anzeigt. Ferner zeigt eine weitere Pfeilmarkierung V2 einen Vektor an, der eine relative Positionsbeziehung zwischen dem zweiten Fingerabdruckteilbild und einem dritten Fingerabdruckteilbild anzeigt.
  • Die herkömmliche Technik, dass eine Vielzahl rechtwinkliger Fingerabdruckteilbilder miteinander synthetisiert wird, um ein einzelnes Fingerabdruckgesamtbild zu erzeugen, und die Bildprozesse für das Fingerabdruckgesamtbild vorgenommen werden, und dann charakteristische Daten eines Lebewesens aus dem Bild extrahiert werden, für das die Bildpro zesse vorgenommen wurden, um eine persönliche Identifizierung vorzunehmen, wie oben beschrieben, hat jedoch die folgenden beiden Mängel (1) und (2).
    • (1) Nachdem eine Vielzahl rechtwinkliger Fingerabdruckteilbilder miteinander synthetisiert werden, um ein Fingerabdruckgesamtbild zu erzeugen, werden die Bildprozesse und der Prozess zum Extrahieren charakteristischer Daten eines Lebewesens vorgenommen. Daher ist eine Speicherkapazität zum Speichern zumindest eines Fingerabdruckgesamtbilds erforderlich. Wenn verschiedenste Prozesse für ein Fingerabdruckgesamtbild vorgenommen werden, muss tatsächlich das Fingerabdruckgesamtbild kopiert werden. Daher ist eine Speicherkapazität gleich dem Zwei- oder Dreifachen der Datenmenge des Fingerabdruckgesamtbilds erforderlich.
    • (2) Die Bildprozesse, der Prozess zum Extrahieren charakteristischer Daten eines Lebewesens und der persönliche Identifizierungsprozess (Kollationsprozess von Fingerabdruckdaten), die oben beschrieben sind, werden gestartet, nachdem eine gleitende Bewegung eines Fingers auf dem Fingerabdrucksensor des Sweep-Typs vollendet ist. Dies ist darauf zurückzuführen, dass ein Fingerabdruckgesamtbild nur erzeugt werden kann, nachdem der Finger gleitend bis zum letzten Ende bewegt wird, und eine Vielzahl rechtwinkliger Fingerabdruckteilbilder erfasst ist, die den gesamten Fingerabdruck abdecken. Während ein Finger gleitend auf dem Fingerabdrucksensor des Sweep-Typs bewegt wird, können daher, auch wenn eine CPU ungenutzt ist, die verschiedensten oben beschriebenen Prozesse der CPU nicht zugeordnet werden.
  • WO 01/80167 offenbart einen Fingerabdrucksensor des Sweep-Typs. Teilbilder werden unter Verwendung von Transformationen zwischen aufeinanderfolgenden Teilbildern ausgerichtet, sobald eine Schablone für jedes Teilbild erstellt wurde. Sobald alle Teilbilder verarbeitet wurden, kommt es zu einer Ausgabe einer Minutiengesamtschablone.
  • Es ist zweckmäßig, eine Gegenmaßnahme vorzusehen, die es ermöglicht, dass charakteristische Daten von Lebewesen, die in einem Gesamtbild enthalten sind, erfasst werden, ohne das Gesamtbild aus einer Vielzahl von Teilbildern zu erzeugen, so dass die für die Verarbeitung notwendige Speicherkapazität signifikant reduziert werden kann, und eine CPU, welche die Verarbeitung ausführt, sehr effektiv genutzt werden kann.
  • Die Erfindung ist in den unabhängigen Ansprüchen definiert, auf die nun Bezug zu nehmen ist. Bevorzugte Merkmale sind in den Unteransprüchen ausgeführt.
  • Gemäß Ausführungsformen der vorliegenden Erfindung können einer oder mehrere der folgenden Vorteile erzielt werden.
    • (1) Jedesmal wenn ein Teilbild aus einem Abschnitt eines Lebewesens abgetastet wird, werden ein Prozess zum Detektieren einer relativen Positionsbeziehung des Teilbilds, ein Prozess zum Extrahieren charakteristischer Abschnittsdaten aus dem Teilbild und ein Prozess zum Synthetisieren der extrahierten charakteristischen Abschnittsdaten vorgenommen. Jedesmal wenn ein Teilbild abgetastet wird, können daher charakteristische Daten eines Lebewesens (charakteristische Abschnittsdaten) in dem Teilbild erhalten werden, ohne ein Gesamtbild zu erzeugen (beispielsweise ein Fingerabdruckgesamtbild/Voll- oder Komplettbild), das aus einer Vielzahl von Teilbildern zusammengesetzt ist. Insbesondere werden für ein Lebewesen nicht charakteristische Daten (charakteristische Punktinformationen enthaltende Fingerabdruckdaten), die für eine persönliche Identifizierung notwendig sind, usw., extrahiert, indem ein Gesamtbild erzeugt wird, und danach Bildprozesse für dieses vorgenommen werden, sondern jedes Teilbild wird als Objekt der Bildpro zesse bestimmt, und charakteristische Abschnittsdaten werden zu jeder Zeit aus einem Teilbild erfasst. Daher kann die für Bildprozesse notwendige Speicherkapazität drastisch reduziert werden. Da ein Charakteristikenextraktionsprozess gestartet wird, ohne ein Gesamtbild zu erzeugen, kann ferner der Charakteristikenextraktionsprozess einer CPU parallel zu einem I/O-Prozess einer Abtastsektion wie einem Fingerabdrucksensor zugeteilt werden, um die CPU zu veranlassen, diese vorzunehmen. Daher kann die CPU sehr effektiv genutzt werden.
    • (2) wenn Teilbilder von Mustern, die jeweils Grate an einem Abschnitt eines Lebewesens enthalten, abgetastet werden, und Verbindungsbeziehungsinformationen zwischen charakteristischen Punkten von Graten und Grate (Gratenden) an einem Ende jedes Teilbilds als charakteristische Abschnittsdaten extrahiert werden, dann können, wenn die charakteristischen Abschnittsdaten zu synthetisieren sind, nur wenn die Verbindungsbeziehungsinformationen in den Fingerabdruckteilbildern verfolgt werden, Verbindungsbeziehungen der charakteristischen Punkte, die in der Vielzahl von Fingerabdruckteilbildern enthalten sind, als charakteristische Daten eines Lebewesens erhalten werden. Wenn ein Identifikator an miteinander gleiche Minutien oder miteinander gleiche Gratenden anlegt wird, die gemeinsam in verschiedenen Fingerabdruckteilbildern existieren, können zu dieser Zeit Verbindungsbeziehungsinformationen in den Fingerabdruckteilbildern leicht verfolgt werden, und eine Verbindungsbeziehung zwischen charakteristischen Punkten, die in einer Vielzahl von Fingerabdruckteilbildern enthalten sind, kann sehr leicht erhalten werden.
    • (3) Wenn Teilbilder von Mustern, die jeweils Grate an einem Abschnitt eines Lebewesens enthalten, abgetastet werden, und Verbindungsbeziehungsinformationen zwischen cha rakteristischen Punkten von Graten und die charakteristischen Punkte verbindenden Graten als charakteristische Abschnittsdaten extrahiert werden, dann können ähnlich, wenn die charakteristischen Abschnittsdaten zu synthetisieren sind, nur wenn die Verbindungsbeziehungsinformationen in den Fingerabdruckteilbildern verfolgt werden, Verbindungsbeziehungen der charakteristischen Punkte, die in der Vielzahl von Fingerabdruckteilbildern enthalten sind, als charakteristische Daten eines Lebewesens erhalten werden. Wenn ein Identifikator an miteinander gleiche Minutien oder miteinander gleiche Kantenenden angelegt wird, welche gemeinsam in verschiedenen Fingerabdruckteilbildern existieren, können zu dieser Zeit Verbindungsbeziehungsinformationen in den Fingerabdruckteilbildern leicht verfolgt werden, und eine Verbindungsbeziehung zwischen charakteristischen Punkten, die in einer Vielzahl von Fingerabdruckteilbildern enthalten sind, kann sehr leicht erhalten werden.
    • (4) Gratstrukturdaten (beispielsweise ein Skelettlinienbild, das durch das Verdünnen eines Gratbilds erhalten wird, oder ein binärisiertes Bild, das durch das Binärisieren eines Gratbilds erhalten wird) können als charakteristische Abschnittsdaten extrahiert werden. In einem früheren Vorschlag werden verschiedenste Bildprozesse (ein Binärisierungsprozess, ein Verdünnungsprozess, usw.) zur Entfernung von Rissen, Adhäsionen, einem Rauschen, usw., die an Graten aufscheinen, für ein Gesamtbild vorgenommen, um ein Skelettlinienbild korrekt zu extrahieren. Wenn solche Gratstrukturdaten wie oben beschrieben als charakteristische Abschnittsdaten extrahiert werden, werden jedoch, jedesmal wenn ein Teilbild abgetastet wird, die Bildprozesse für das Teilbild vorgenommen. Dementsprechend kann die für die Bildprozesse notwendige Speicherkapazität signifikant reduziert werden. Da die Bildprozesse ohne die Erzeugung eines Gesamtbilds ge startet werden, können ferner die Bildprozesse der CPU parallel mit einem I/O-Prozess einer Abtastsektion wie eines Fingerabdrucksensors zugeordnet werden, so dass die CPU die Prozesse vornehmen kann. Dementsprechend kann die CPU sehr effektiv genutzt werden.
    • (5) Wenn, als relative Positionsbeziehung zwischen einem Teilbild eines Verarbeitungsobjekts und einem anderen bereits verarbeiteten Teilbild, eine solche Überlagerungspositionsbeziehung, dass Grate, die in den beiden Teilbildern miteinander gleich sind, glatt miteinander verbunden sind, oder eine entsprechende Beziehung zwischen solchen gleichen Graten in den Teilbildern detektiert wird, kann eine relative Positionsbeziehung einer Vielzahl von Teilbildern ermittelt werden. So können charakteristische Abschnittsdaten unter Verwendung der relativen Positionsbeziehung leicht synthetisiert werden.
    • (6) Wenn ein Abschnitt eines Lebewesens eine mehrfache Anzahl von Malen auf eine Abtastoberfläche zum Abtasten eines Teilbilds erneut platziert wird, um ein Teilbild des Abschnitts des Lebewesens aufeinanderfolgend abzutasten, oder wenn ein Abschnitt eines Lebewesens relativ zu einer Abtastoberfläche zum Abtasten eines Teilbilds bewegt wird, um ein Teilbild aufeinanderfolgend abzutasten (wenn beispielsweise ein Fingerabdrucksensor des Sweep-Typs verwendet wird), werden charakteristische Abschnittsdaten eines Teilbilds, das eine Seite aufweist, die mit zumindest einem einer Vielzahl von Fingerabdruckteilbildern gemeinsam ist oder überlappt, als Objekt eines Syntheseprozesses bestimmt. Mit anderen Worten, da ein Teilbild, das keinen gemeinsamen Abschnitt mit irgendeinem anderen Teilbild aufweist, es nicht ermöglicht, eine relative Positionsbeziehung mit irgendeinem anderen Teilbild zu erhalten, und charakteristische Abschnittsdaten des Teilbilds nicht mit charakteris tischen Abschnittsdaten irgendeines anderen Teilbilds synthetisiert werden können, werden die charakteristischen Abschnittsdaten betreffend das Teilbild aus einem Objekt eines Syntheseprozesses ausgenommen. Dementsprechend kann verhindert werden, dass ein nutzloser Syntheseprozess vorgenommen wird, und die Verarbeitungseffizienz kann verbessert werden.
    • (7) Wenn eine persönliche Identifizierung einer Identifikationsobjektperson auf der Basis von charakteristischen Daten eines Lebewesens vorgenommen wird, die durch die Vorrichtung zum Erfassen charakteristischer Daten von Lebewesen der vorliegenden Erfindung erfasst werden, kann eine persönliche Identifizierung mit hoher Zuverlässigkeit mit einer hohen Geschwindigkeit vorgenommen werden, beispielsweise unter Verwendung eines Fingerabdrucksensors des Sweep-Typs oder dgl.
  • Nun wird anhand von Beispielen auf die beigeschlossenen Zeichnungen Bezug genommen, in denen ähnliche Teile oder Elemente mit ähnlichen Bezugszeichen bezeichnet sind.
  • 1 ist ein Blockbild, das eine Konfiguration einer Vorrichtung zum Erfassen charakteristischer Daten von Lebewesen und einer Authentifizierungsvorrichtung gemäß einer ersten Ausführungsform der vorliegenden Erfindung zeigt;
  • 2 ist ein Flussdiagramm, das eine Prozedur zum Erfassen charakteristischer Daten von Lebewesen gemäß der ersten Ausführungsform zeigt;
  • 3A bis 3C sind schematische Darstellungen, die ein erstes Beispiel eines Prozesses zum Detektieren relativer Positionsbeziehungen von Teilbildern in der ersten Ausführungsform veranschaulichen;
  • 4A bis 4C sind schematische Darstellungen, die ein zweites Beispiel des Prozesses zum Detektieren relativer Positionsbeziehungen von Teilbildern in der ersten Ausführungsform veranschaulichen;
  • 5A bis 5C, 6A bis 6C, 7A bis 7C, 8A bis 8C, 9A bis 9C und 10 sind schematische Ansichten, die ein erstes Beispiel eines Prozesses zum Erfassen charakteristischer Daten von Lebewesen in der ersten Ausführungsform veranschaulichen;
  • 11A bis 11C, 12A bis 12C, 13A bis 13C, 14A bis 14C, 15A bis 15C und 16 sind schematische Ansichten, die ein zweites Beispiel des Prozesses zum Erfassen charakteristischer Daten von Lebewesen in der ersten Ausführungsform veranschaulichen;
  • 17 ist ein Blockbild, das eine Konfiguration einer Vorrichtung zum Erfassen charakteristischer Daten von Lebewesen und einer Authentifizierungsvorrichtung gemäß einer zweiten Ausführungsform der vorliegenden Erfindung zeigt;
  • 18 ist ein Flussdiagramm, das eine Prozedur zum Erfassen charakteristischer Daten von Lebewesen gemäß der zweiten Ausführungsform zeigt;
  • 19A bis 19C, 20A bis 20C und 21 sind schematische Ansichten, die einen Prozess zum Erfassen charakteristischer Daten von Lebewesen in der zweiten Ausführungsform veranschaulichen;
  • 22 ist eine schematische Darstellung, die ein erstes Beispiel von Teilbildern, die ein Objekt eines Syntheseprozesses bilden, und Teilbildern, die kein Objekt des Syntheseprozesses bilden, in der zweiten Ausführungsform zeigt;
  • 23 ist eine schematische Darstellung, die ein zweites Beispiel von Teilbildern, die ein Objekt eines Syntheseprozesses bilden, und Teilbildern, die kein Objekt des Syntheseprozesses bilden, in der zweiten Ausführungsform zeigt;
  • 24 und 25 sind schematische Ansichten, die eine herkömmliche Technik veranschaulichen, bei der charakteris tische Daten eines Lebewesens aus einer Vielzahl von Teilbildern extrahiert werden, die unter Verwendung eines Fingerabdrucksensors des Sweep-Typs abgetastet werden; und
  • 26 ist ein Flussdiagramm, das ein früher vorgeschlagenes Verfahren zum Erfassen charakteristischer Daten von Lebewesen veranschaulicht.
  • [1] Erste Ausführungsform
  • [1-1] Konfiguration der Vorrichtung zum Erfassen charakteristischer Daten von Lebewesen und der Authentifizierungsvorrichtung der ersten Ausführungsform
  • 1 ist ein Blockbild, das eine Konfiguration einer Vorrichtung zum Erfassen charakteristischer Daten von Lebewesen und einer Authentifizierungsvorrichtung gemäß einer ersten Ausführungsform der vorliegenden Erfindung zeigt. Die in 1 gezeigte Authentifizierungsvorrichtung 100 der ersten Ausführungsform nimmt eine persönliche Identifizierung unter Verwendung eines Fingerabdrucks als Informationen eines Lebewesens vor und enthält eine Vorrichtung 10 zum Erfassen charakteristischer Daten von Lebewesen, eine Registrierungs-Fingerabdruckdaten-Speichersektion 20 und eine Kollationssektion 30.
  • Die Vorrichtung 10 zum Erfassen charakteristischer Daten von Lebewesen der ersten Ausführungsform ist zum Erfassen von Fingerabdruckdaten als charakteristische Daten von Lebewesen vorgesehen, die für eine persönliche Identifizierung einer Identifikationsobjektperson notwendig sind. Die Vorrichtung 10 zum Erfassen charakteristischer Daten von Lebewesen enthält einen Fingerabdrucksensor 11 des Sweep-Typs, eine Bildspeichersektion 12, eine Skelettlinien-Extraktionssektion 13, eine Sweep-Bild-Positionsbeziehungs-Detektionssektion 14, eine Sektion 15 zum Extrahieren charakteristischer Abschnittsdaten, eine Sektion 16 zum Speichern charakteristischer Abschnittsdaten, eine Sektion 17 zum Synthetisieren charakteristischer Abschnittsdaten und eine Fingerabdruckdaten-Speichersektion 18.
  • Tatsächlich werden die Vorrichtung 10 zum Erfassen charakteristischer Daten von Lebewesen und die Authentifizierungsvorrichtung 100 der ersten Ausführungsform durch das Kombinieren des Fingerabdrucksensors 11 des Sweep-Typs mit einem allgemeinen Personalcomputer implementiert, der eine CPU (Zentraleinheit), einen ROM (Nurlesespeicher), einen RAM (Direktzugriffsspeicher) und andere notwendige Vorrichtungen aufweist. Zu dieser Zeit werden Funktionen wie die Skelettlinien-Extraktionssektion 13, Sweep-Bild-Positionsbeziehungs-Detektionssektion 14, Sektion 15 zum Extrahieren charakteristischer Abschnittsdaten und Sektion 17 zum Synthetisieren charakteristischer Abschnittsdaten implementiert, indem ein vorherbestimmtes Programm (Programm zum Erfassen charakteristischer Daten von Lebewesen) mittels einer CPU (Computer) ausgeführt wird. Ferner wird auch eine Funktion als Kollationssektion 30 implementiert, indem ein vorherbestimmtes Programm (Kollationsprogramm) mittels der CPU ausgeführt wird. Andererseits werden Funktionen wie die Bildspeichersektion 12, Sektion 16 zum Speichern charakteristischer Abschnittsdaten und Fingerabdruckdaten-Speichersektion 18 durch den RAM implementiert. Ferner wird eine Funktion wie die Registrierungs-Fingerabdruckdaten-Speichersektion 18 durch den RAM oder ROM implementiert. Es ist zu beachten, dass Funktionen wie die Speichersektionen 12, 16, 18 und 30 durch eine Speichervorrichtung wie eine in einem Personalcomputer eingebaute Festplatte oder eine externe Speichervorrichtung implementiert werden können.
  • Das Programm zum Erfassen charakteristischer Daten von Lebewesen und das Kollationsprogramm, die oben beschrieben sind, werden auf einem computerlesbaren Aufzeichnungsmedium wie beispielsweise einer Diskette und einer CD-ROM aufge zeichnet und werden als solche vorgesehen. Bei der vorliegenden Erfindung werden das Programm zum Erfassen charakteristischer Daten von Lebewesen und das Kollationsprogramm im Voraus in dem ROM gespeichert, und die Programme werden aus dem ROM in die CPU ausgelesen und von dieser ausgeführt. Es ist zu beachten, dass die Programme so bearbeitet werden können, dass sie im Voraus in einer Speichervorrichtung (Aufzeichnungsmedium) wie beispielsweise einer Magnetplatte, einer optischen Platte oder einer magnetooptischen Platte gespeichert werden, und sie werden von der Speichervorrichtung durch einen Kommunikationsweg an einen Computer (CPU) geliefert.
  • Der Fingerabdrucksensor des Sweep-Typs (Abtastsektion) 11 tastet aufeinanderfolgend Teilbilder (die hier im Nachstehenden als Sweep-Bilder bezeichnet werden können) eines Abschnitts eines Lebewesens (in der vorliegenden Ausführungsform ein Fingerabdruck) einer Identifikationsobjektperson ab und hat eine Sensoroberfläche (nicht gezeigt) mit einer Breite in Querrichtung, die ungefähr gleich ist einer Fingerbreite, und einer Abmessung in Längsrichtung von ungefähr einigen mm. Der Fingerabdrucksensor 11 wird so verwendet, dass ein Finger einer Identifikationsobjektperson in Kontakt relativ in Bezug auf die Sensoroberfläche bewegt wird, um aufeinanderfolgend Teilbilder eines Fingerabdrucks des Fingers abzutasten.
  • Ein Fingerabdruck ist auf der Haut (Finger; Abschnitt eines Lebewesens) einer Identifikationsobjektperson gebildet und besteht aus Gratlinien (Kontaktabschnitten), die mit der Sensoroberfläche in Kontakt gelangen können, und Rillenlinien (Nicht-Kontaktabschnitte/Leerabschnitte), die nicht mit der Sensoroberfläche in Kontakt gelangen. Der Fingerabdrucksensor 11 nutzt die Tatsache, dass die Detektionsempfindlichkeit zwischen den Gratabschnitten, die mit der Sensor oberfläche in Kontakt gelangen, und Rillenlinien, die nicht mit der Sensoroberfläche in Kontakt gelangen, verschieden ist, um Teilbilder eines Fingerabdrucks als monochromes Mehrschichtbild abzutasten. In dem monochromen Mehrschichtbild werden die Gratabschnitte und die Rillenlinienabschnitte als schwarzes Bild bzw. weißes Bild aufgenommen.
  • Bei der Authentifizierung unter Verwendung eines Fingerabdrucks bewegt eine Identifikationsobjektperson, während sie mit ihrem Finger die Sensoroberfläche des Fingerabdrucksensors 11 berührt, den Finger in einer optionalen Richtung von der Seite der Fingerwurzel (Seite des ersten Gelenks) zur Seite der Fingerspitze, von der Seite der Fingerspitze zur Seite der Fingerwurzel, oder von der rechten Seite zur linken Seite des Fingers.
  • Es ist jedoch zu beachten, dass, wenn ein Mechanismus zum Bewegen des Fingerabdrucksensors 11 in Bezug auf einen Finger vorgesehen ist, die Identifikationsobjektperson ihren Finger nicht bewegen muss.
  • Nachstehend wird in der vorliegenden Ausführungsform ein Fall beschrieben, in dem die Identifikationsobjektperson ihren Finger gleitend auf der Sensoroberfläche von der Seite der Fingerspitze zur Seite der Wurzel (Seite des ersten Gelenks) bewegt, um aufeinanderfolgend rechtwinklige Fingerabdruck-Sweep-Bilder (Fingerabdruckteilbilder) abzutasten, wie in 5A bis 5C, 11A bis 11C und 19A bis 19C gezeigt. In 5A bis 5C, 11A bis 11C und 19A bis 19C werden die Fingerabdruckteilbilder vom Fingerabdrucksensor 11 in der Reihenfolge A, B, C abgerufen. Ferner wird angenommen, dass jedes von dem Fingerabdrucksensor 11 in der vorliegenden Ausführungsform abgetastete Fingerabdruckteilbild grundsätzlich eine Fläche (gemeinsame Fläche) hat, welche eine Seite aufweist, die mit einem anderen Fingerabdruckteilbild gemeinsam ist oder überlappt (das zeitlich vorher abgetastet wurde).
  • Die Bildspeichersektion 12 speichert temporär die vom Fingerabdrucksensor 11 erhaltenen Fingerabdruckteilbilder.
  • Die Skelettlinien-Extraktionssektion 13 nimmt, jedesmal wenn ein einzelnes Fingerabdruckteilbild (ein einzelnes rechtwinkliges Sweep-Bild) vom Fingerabdrucksensor 11 abgetastet und in der Bildspeichersektion 12 gespeichert wird, Bildprozesse (insbesondere einen Binärisierungsprozess und einen Verdünnungsprozess) für das Fingerabdruckteilbild vor, um Skelettlinien von Fingerabdruckgraten (ein Skelettlinienbild als Gratstrukturdaten) zu extrahieren. Es ist zu beachten, dass in der vorliegenden Ausführungsform, als Vorprozess zum Extrahieren charakteristischer Abschnittsdaten durch die Sektion 15 zum Extrahieren charakteristischer Abschnittsdaten, der Prozess zum Extrahieren von Skelettlinien von Fingerabdruckgraten durch die Skelettlinien-Extraktionssektion 13 vorgenommen wird. Es kann jedoch auch ein alternatives Verfahren verwendet werden, bei dem eine Minutie direkt aus einem Fingerabdruckteilbild ohne Extraktion von Skelettlinien extrahiert wird.
  • Die Sweep-Bild-Positionsbeziehungs-Detektionssektion (Detektionssektion) 14 detektiert, jedesmal wenn ein einzelnes Fingerabdruckteilbild (ein einzelnes rechtwinkliges Sweep-Bild) vom Fingerabdrucksensor 11 abgetastet wird, eine relative Positionsbeziehung zwischen dem Fingerabdruckteilbild und einem geeigneten der anderen Fingerabdruckteilbilder, die bereits abgetastet wurden. Insbesondere detektiert die Detektionssektion 14 eine relative Positionsbeziehung zwischen einem in dem aktuellen Zyklus abgetasteten Fingerabdruckteilbild und einem geeigneten der vorher abgetasteten anderen Fingerabdruckteilbilder.
  • Zu dieser Zeit detektiert die Detektionssektion 14 als relative Positionsbeziehung wie eine Überlappungspositions beziehung zwischen dem in dem aktuellen Zyklus abgetasteten Fingerabdruckteilbild und einem der vorher abgetasteten anderen Fingerabdruckteilbilder, dass miteinander gleiche Grate in dem in dem aktuellen Zyklus abgetasteten Fingerabdruckteilbild und dem vorher abgetasteten Fingerabdruckteilbild glatt miteinander verbunden werden können. Mehr im Einzelnen, wie nachstehend mit Bezugnahme auf 3A bis 3C und 4A bis 4C beschrieben, wird eine Überlappungspositionsbeziehung als solche relative Positionsbeziehung detektiert, dass die Positionen von Verbindungspunkten der Grate in zwei Fingerabdruckteilbildern, die das in dem aktuellen Zyklus abgetastete Fingerabdruckteilbild und das vorher abgetastete Fingerabdruckteilbild enthalten, miteinander zusammenfallen, und die Variationen zwischen Tangentialrichtungen der Grate an den Verbindungspunkten glatt sind. Zu dieser Zeit wird die Überlappungspositionsbeziehung beispielsweise als Vektordaten (Δx, Δy) erhalten, und wird in der Sektion 16 zum Speichern charakteristischer Abschnittsdaten zusammen mit den charakteristischen Abschnittsdaten gespeichert, die durch die Sektion 15 zum Extrahieren charakteristischer Abschnittsdaten erhalten werden. Hier wird definiert, dass "dass die Variationen zwischen Tangentialrichtungen von Graten glatt sind" ein Zustand ist, in dem, wenn die beiden Fingerabdruckteilbilder miteinander überlappt sind, der Variationsbetrag zwischen Richtungen von zwei Tangentiallinien (Gradienten) an jedem der Verbindungspunkte der Grate einen vorherbestimmten Wert hat oder weniger, oder der Variationsbetrag im Wesentlichen gleich ist jenem zwischen Richtungen der Tangentiallinien rund um jeden Verbindungspunkt.
  • Als Verfahren zum Detektieren einer relativen Positionsbeziehung mittels der Detektionssektion 14 kann nicht nur das oben beschriebene Verfahren verwendet werden, sondern auch ein Verfahren, bei dem eine Korrelation von mit einander gleichen Graten in einem in dem aktuellen Zyklus abgetasteten Fingerabdruckteilbild und einem der vorher abgetasteten Fingerabdruckteilbilder als relative Positionsbeziehung detektiert wird. In diesem Fall werden, ähnlich wie bei dem oben beschriebenen Verfahren, zwei Fingerabdruckteilbilder miteinander überlappt, um nach einer Positionsbeziehung zu suchen, in der Grate und charakteristische Abschnitte miteinander überlappen, während eine vorherbestimmte Bedingung erfüllt wird, und es wird detektiert, welche Grate in den beiden Fingerabdruckteilbildern miteinander gleich sind. Dann werden, wie nachstehend mit Bezugnahme auf 13A bis 13C beschrieben, miteinander gleiche Identifikatoren an die Grate angelegt, und eine Korrelation zwischen den Graten wird erfasst, und die Korrelation wird als relative Positionsbeziehung verwendet.
  • Es ist zu beachten, dass, wie nachstehend mit Bezugnahme auf 3A bis 3C beschrieben, die Detektionssektion 14 eine relative Positionsbeziehung unter Verwendung von Fingerabdruckteilbildern selbst (Grobbilder) detektieren kann, die vom Fingerabdrucksensor 11 erhalten werden. Oder, wie nachstehend mit Bezugnahme auf 4A bis 4C beschrieben, die Detektionssektion 14 kann eine relative Positionsbeziehung unter Verwendung von Skelettlinienbildern detektieren, die von der Skelettlinien-Extraktionssektion 13 aus Fingerabdruckteilbildern extrahiert werden.
  • Die Sektion 15 zum Extrahieren charakteristischer Abschnittsdaten (Extraktionssektion) extrahiert, jedesmal wenn ein einzelnes Fingerabdruckteilbild (ein einzelnes rechtwinkliges Sweep-Bild) vom Fingerabdrucksensor 11 abgetastet wird, charakteristische Abschnittsdaten, die für einen Abschnitt eines Lebewesens einzigartige charakteristische Informationen enthalten (hier ein Fingerabdruck), aus dem Fingerabdruckteilbild. Mehr im Einzelnen, wie nachstehend mit Bezugnahme auf 6A bis 8C und 12A bis 14C beschrieben, extrahiert und erzeugt die Sektion 15 zum Extrahieren charakteristischer Abschnittsdaten charakteristische Abschnittsdaten zur Erzeugung von Fingerabdruckdaten aus Skelettlinienbildern, die aus Fingerabdruckteilbildern extrahiert werden.
  • Hier können die charakteristischen Abschnittsdaten, die von der Sektion 15 zum Extrahieren charakteristischer Abschnittsdaten extrahiert werden, beispielsweise wie folgt sein:
    • ➀ Informationen betreffend eine Minutie (charakteristischer Fingerabdruckpunkt) eines Grats (insbesondere zumindest eines von einer Position, einem Typ (Endpunkt, Verzweigungspunkt) und einer Richtung einer Minutie);
    • ➁ Position einer Projektionsminutie, die durch das Projizieren einer Minutie auf einen Grat erhalten wird;
    • ➂ Position einer Schweißdrüse, die auf einem Grat existiert (ein Aperturpunkt einer Schweißdrüse wird ähnlich einer Minutie behandelt);
    • ➃ Anzahl von Schweißdrüsen, die zwischen Minutien auf einem Grat existieren;
    • ➄ Position eines Grats an einem Ende (Rand) eines Fingerabdruckteilbilds (ein solcher Grat wird hier im Nachstehenden als Gratende bezeichnet) (siehe 6A bis 6C);
    • ➅ Verbindungsbeziehungsinformationen zwischen einer Minutie und einem Gratende (siehe 9A bis 9C); und
    • ➆ Verbindungsbeziehungsinformationen zwischen einer Minutie und einem mit der Minutie zu verbindenden Grat (siehe 15A bis 15C).
  • In einem ersten Beispiel eines Betriebs zum Erfassen charakteristischer Daten von Lebewesen durch die nachstehend mit Bezugnahme auf 5A bis 10 beschriebene erste Ausführungsform extrahiert die Sektion 15 zum Extrahieren charak teristischer Abschnittsdaten, als charakteristische Abschnittsdaten, die Position einer Minutie (ein Endpunkt, ein Verzweigungspunkt) von Absatz ➀, die Position eines Gratendes von Absatz ➄, und die Verbindungsbeziehungsinformationen von Absatz ➅. Zu dieser Zeit ordnet die Sektion 15 zum Extrahieren charakteristischer Abschnittsdaten miteinander gleiche Identifikatoren einer Minutie oder einem Gratende zu, die bzw. das gemeinsam auf Fingerabdruckteilbildern existiert, und extrahiert Verbindungsbeziehungsinformationen unter Verwendung des Identifikators.
  • Andererseits wird in einem zweiten Beispiel eines Betriebs zum Erfassen charakteristischer Daten von Lebewesen durch die nachstehend mit Bezugnahme auf 11A bis 16 beschriebene erste Ausführungsform eine relative Positionsbeziehung zwischen zwei Fingerabdruckteilbildern von der Detektionssektion 14 als Korrelation eines Grats detektiert, und die Sektion 15 zum Extrahieren charakteristischer Abschnittsdaten extrahiert die Position einer Minutie (ein Endpunkt, ein Verzweigungspunkt) von Absatz ➀, und extrahiert ferner die Verbindungsbeziehungsinformationen von Absatz ➆ auf der Basis der Gratkollation, die von der Detektionssektion 14 detektiert wird. Zu dieser Zeit ordnet die Sektion 15 zum Extrahieren charakteristischer Abschnittsdaten miteinander gleiche Identifikatoren einer Minutie oder einem Grat zu, die bzw. der gemeinsam auf den Fingerabdruckteilbildern existiert, und extrahiert die Verbindungsbeziehungsinformationen unter Verwendung des Identifikators. Es ist jedoch zu beachten, dass dem Grat ein Identifikator zugeordnet wird, der verwendet wird, wenn die Detektionssektion 14 eine Gratkorrelation detektiert.
  • Die Sektion 16 zum Speichern charakteristischer Abschnittsdaten speichert und sichert charakteristische Abschnittsdaten, die durch die Sektion 15 zum Extrahieren cha rakteristischer Abschnittsdaten aus Fingerabdruckteilbildern erhalten werden, und eine relative Positionsbeziehung (detektiert von der Detektionssektion 14) zwischen jedem Fingerabdruckteilbild und einem zu einer direkt vorhergehenden Zeiteinstellung abgetasteten Fingerabdruckteilbild.
  • Die Sektion 17 zum Synthetisieren charakteristischer Abschnittsdaten (Synthesesektion) synthetisiert, jedesmal wenn ein einzelnes Fingerabdruckteilbild (ein einzelnes rechtwinkliges Sweep-Bild) vom Fingerabdrucksensor 11 abgetastet wird, charakteristische Abschnittsdaten eines in dem aktuellen Zyklus abgetasteten Fingerabdruckteilbilds und charakteristische Abschnittsdaten betreffend ein anderes Fingerabdruckteilbild, das vorher extrahiert wurde, auf der Basis einer relativen Positionsbeziehung zwischen dem in dem aktuellen Zyklus abgetasteten Fingerabdruckteilbild und dem in dem vorhergehenden Zyklus abgetasteten Fingerabdruckteilbild. Dann gibt die Sektion 17 zum Synthetisieren charakteristischer Abschnittsdaten ein Ergebnis der Synthese als Fingerabdruckdaten (charakteristische Daten des Lebewesens des Abschnitts des Lebewesens) aus. Insbesondere synthetisiert die Sektion 17 zum Synthetisieren charakteristischer Abschnittsdaten eine große Anzahl erhaltener charakteristischer Fingerabdruckabschnittsdaten, um einen einzelnen Satz von Fingerabdruckdaten zu erzeugen. Hier wird, wie oben beschrieben, die relative Positionsbeziehung von der Detektionssektion 14 detektiert und wird in der Sektion 16 zum Speichern charakteristischer Abschnittsdaten gespeichert. Ferner werden, wie oben beschrieben, die charakteristischen Abschnittsdaten von der Sektion 15 zum Extrahieren charakteristischer Abschnittsdaten extrahiert und werden in der Sektion 16 zum Speichern charakteristischer Abschnittsdaten gespeichert.
  • Zu dieser Zeit verfolgt, in dem ersten Beispiel des Be triebs zum Erfassen charakteristischer Daten von Lebewesen durch die nachstehend mit Bezugnahme auf 5A bis 10 beschriebene erste Ausführungsform, die Sektion 17 zum Synthetisieren charakteristischer Abschnittsdaten solche Verbindungsbeziehungsinformationen oder spürt diese auf, beispielsweise wie in 9A bis 9C veranschaulicht, die von der Sektion 15 zum Extrahieren charakteristischer Abschnittsdaten erhalten werden, um schließlich, als Fingerabdruckdaten, eine Verbindungsbeziehung zu berechnen (siehe 10), wobei in einer Vielzahl von Fingerabdruckteilbildern enthaltene charakteristische Punkte durch Grate miteinander verbunden sind.
  • Andererseits verfolgt, in dem zweiten Beispiel des Betriebs zum Erfassen charakteristischer Daten von Lebewesen durch die nachstehend mit Bezugnahme auf 11A bis 16 beschriebene erste Ausführungsform, die Sektion 17 zum Synthetisieren charakteristischer Abschnittsdaten solche Verbindungsbeziehungsinformationen oder spürt diese auf, beispielsweise wie in 15A bis 15C veranschaulicht, die von der Sektion 15 zum Extrahieren charakteristischer Abschnittsdaten erhalten werden, um schließlich, als Fingerabdruckdaten, eine Verbindungsbeziehung zu berechnen (siehe 16), wobei in einer Vielzahl von Fingerabdruckteilbildern enthaltene Minutien durch Grate miteinander verbunden sind.
  • Die Fingerabdruckdaten-Speichersektion 18 speichert und sichert Fingerabdruckdaten, die von der Sektion 17 zum Synthetisieren charakteristischer Abschnittsdaten erhalten werden.
  • Die Registrierungs-Fingerabdruck-Speichersektion 20 hält im Voraus registrierte Fingerabdruckdaten betreffend eine Identifikationsobjektperson. Die von der Registrierungs-Fingerabdruck-Speichersektion 20 gehaltenen Fingerab druckdaten können Daten sein, die von der oben beschriebenen Vorrichtung 10 zum Erfassen charakteristischer Daten von Lebewesen erfasst werden, oder können Daten sein, die unter Verwendung eines anderen Fingerabdrucksensors erfasst werden.
  • Die Kollationssektion 30 vergleicht Fingerabdruckdaten (die in der Fingerabdruckdaten-Speichersektion 18 gespeichert sind), die von der Vorrichtung 10 zum Erfassen charakteristischer Daten von Lebewesen erfasst werden, und Fingerabdruckdaten, die im Voraus in der Registrierungs-Fingerabdruck-Speichersektion 20 registriert werden, betreffend eine Identifikationsobjektperson miteinander, um einen Kollationsprozess vorzunehmen, um dadurch eine persönliche Authentifizierung der Identifikationsobjektperson vorzunehmen.
  • [1-2] Betrieb der ersten Ausführungsform
  • Der Betrieb der Vorrichtung 10 zum Erfassen charakteristischer Daten von Lebewesen und Authentifizierungsvorrichtung 100 der wie oben beschrieben konfigurierten ersten Ausführungsform wird nachstehend mit Bezugnahme auf 2 bis 16 beschrieben.
  • [1-2-1] Grundbetrieb
  • Zuerst wird eine Prozedur zum Erfassen charakteristischer Daten von Lebewesen in der ersten Ausführungsform gemäß einem in 2 gezeigten Flussdiagramm beschrieben.
  • Wenn eine Identifikationsobjektperson ihren Finger von der Seite der Fingerspitze zur Seite der Fingerwurzel (Seite des ersten Gelenks) gleitend auf der Sensoroberfläche des Fingerabdrucksensors 11 des Sweep-Typs bewegt, dann wird eine Vielzahl rechtwinkliger Fingerabdruckteilbilder 1, 2, ..., n aufeinanderfolgend abgetastet (Abtastschritt).
  • Dann wird in der ersten Ausführungsform, jedesmal wenn ein einzelnes rechtwinkliges Fingerabdruckteilbild abgetastet wird, ein Bildprozess sofort für das Fingerabdruck teilbild i (i = 1, 2, ..., n) von der Skelettlinien-Extraktionssektion 13 vorgenommen, um ein Skelettlinienbild i zu extrahieren (Schritt S11-i). Danach werden von der Sektion 15 zum Extrahieren charakteristischer Abschnittsdaten charakteristische Abschnittsdaten i aus dem Skelettlinienbild i extrahiert (Extraktionsschritt S12-i). Obwohl nicht in 2 gezeigt, wird zu dieser Zeit eine relative Positionsbeziehung zwischen dem Fingerabdruckteilbild i und einem im vorhergehenden Zyklus abgetasteten Fingerabdruckteilbild i-1 auf der Basis der Fingerabdruckteilbilder i und i-1 oder der Skelettlinienbilder i und i-1 von der Sweep-Bild-Positionsbeziehungs-Detektionssektion 14 detektiert (Detektionsschritt).
  • Die charakteristischen Abschnittsdaten i, die von der Sektion 15 zum Extrahieren charakteristischer Abschnittsdaten extrahiert werden, werden durch die Sektion 17 zum Synthetisieren charakteristischer Abschnittsdaten synthetisiert und mit charakteristischen Abschnittsdaten 1 bis i-1 verbunden, die vorher aus den Fingerabdruckteilbildern i bis i-1 extrahiert wurden, auf der Basis der relativen Positionsbeziehung zwischen dem Fingerabdruckteilbild i und dem Fingerabdruckteilbild i-1. Wenn charakteristische Abschnittsdaten n, die aus dem letzten Fingerabdruckteilbild n extrahiert werden, synthetisiert und verbunden werden, dann wird der Synthese/Verbindungsprozess vollendet, und ein Ergebnis der Synthese wird als Fingerabdruckdaten ausgegeben (Syntheseschritt S13).
  • Dann werden die Fingerabdruckdaten, die von der Vorrichtung 10 zum Erfassen charakteristischer Daten von Lebewesen wie oben beschrieben erfasst werden (in der Fingerabdruckdaten-Speichersektion 18 gespeicherte Fingerabdruckdaten), und die Fingerabdruckdaten, die im Voraus in der Registrierungs-Fingerabdruckdaten-Speichersektion 20 regis triert werden, betreffend eine Identifikationsobjektperson von der Kollationssektion 30 miteinander verglichen und kollationiert, um eine persönliche Authentifizierung der Identifikationsobjektperson vorzunehmen.
  • Ein erstes Beispiel des Prozesses zum Detektieren der relativen Positionsbeziehung von Teilbildern im Detektionsschritt wird nachstehend mit Bezugnahme auf 3A bis 3C beschrieben, und ein zweites Beispiel des Prozesses zum Detektieren der relativen Positionsbeziehung von Teilbildern im Detektionsschritt wird nachstehend mit Bezugnahme auf 4a bis 4C beschrieben. Ferner wird ein erstes Beispiel des Prozesses zum Erfassen charakteristischer Daten von Lebewesen in den Schritten S11-i, S12-i und S13 nachstehend mit Bezugnahme auf 5A bis 10 beschrieben, und ein zweites Beispiel des Prozesses zum Erfassen charakteristischer Daten von Lebewesen in den Schritten S11-i, S12-i und S13 wird nachstehend mit Bezugnahme auf 11A bis 16 beschrieben.
  • [1-2-2] Erstes Beispiel der Sektion zum Detektieren der relativen Positionsbeziehung von Teilbildern
  • Die Sweep-Bild-Positionsbeziehungs-Letektionssektion 14 berechnet eine relative Positionsbeziehung zwischen Fingerabdruck-Sweep-Bildern (erstes Beispiel) oder Skelettlinienbildern (zweites Beispiel), die zeitlich voneinander verschieden sind.
  • Die Fingerabdruck-Sweep-Bilder werden erhalten, indem aufeinanderfolgend Fingerabdruckbilder abgerufen werden, während ein Finger gleitend auf der Sensoroberfläche des Fingerabdrucksensors 11 bewegt wird. Wenn eine Überlagerung der erhaltenen Fingerabdruck-Sweep-Bilder genau vorgenommen wird, kann daher ein Fingerabdruckbild erhalten werden, in dem Bilder von Fingerabdruckgraten glatt aneinander anschließen (siehe 3C, 4C und 25).
  • Die Sweep-Bild-Positionsbeziehungs-Detektionssektion 14 detektiert eine relative Positionsbeziehung (Vektoren V1, V2 in 25) zur genauen Überlagerung von Sweep-Bildern wie oben beschrieben auf folgende Weise.
  • 3A bis 3C sind Darstellungen, die das erste Beispiel des Prozesses zum Detektieren der relativen Positionsbeziehung von Teilbildern in der ersten Ausführungsform veranschaulichen. In dem ersten Beispiel nimmt die Sweep-Bild-Positionsbeziehungs-Detektionssektion 14 eine relative Positionsdetektion unter Verwendung von Fingerabdruckteilbildern selbst (Grobbildern) vor, die vom Fingerabdrucksensor 11 erhalten werden.
  • Wenn ein in 3A gezeigtes Fingerabdruckteilbild 111 vom Fingerabdrucksensor 11 abgetastet wird, und dann ein weiteres in 3B gezeigtes Fingerabdruckteilbild 112 abgetastet wird, wird eine relative Positionsbeziehung zwischen den Fingerabdruckteilbildern 111 und 112 von der Detektionssektion 14 auf folgende Weise detektiert. Hier sind zumindest vier Gratbilder 111-1 bis 111-4 in dem Fingerabdruckteilbild 111 enthalten, wie in 3A gezeigt. Ferner sind vier Gratbilder 112-1 bis 112-4, von denen geschätzt wird, dass sie sich jeweils von den Gratbildern 111-1 bis 111-4 fortsetzen, in dem in 3B gezeigten Fingerabdruckteilbild 112 enthalten.
  • Die Detektionssektion 14 detektiert linke und rechte Positionen von Gratbildern auf einem Oberseitenbildende 112a des Fingerabdruckteilbilds 112, das in dem aktuellen Zyklus abgetastet wird, und detektiert Tangentiallinien zu den Gratbildern an den linken und rechten Positionen. In 3B bezeichnen die Bezugszeichen QL1 und QR1 eine linke bzw. rechte Position des Gratbilds 112-1 an dem Oberseitenbildende 112a, und die Bezugszeichen QL2 und QR2 bezeichnen eine linke bzw. rechte Position des Gratbilds 112-2 am Obersei tenbildende 112a. Ferner bezeichnen die Bezugszeichen NL1 und NR1 Tangentiallinien entlang dem linken und rechten Rand des Gratbilds 112-1 an der linken und rechten Position QL1 bzw. QR1, und die Bezugszeichen NL2 und NR2 bezeichnen Tangentiallinien entlang dem linken und rechten Rand des Gratbilds 112-2 in der linken und rechten Position QL2 bzw. QR2. Es ist zu beachten, dass hier zur Vereinfachung der Beschreibung die Beschreibung der linken und rechten Positionen und Tangentiallinien der Gratbilder 112-3 und 112-4 weggelassen wird.
  • Andererseits scannt die Detektionssektion 14, wie in 3A gezeigt, das Fingerabdruckteilbild 111 in der Richtung nach oben und nach unten mit einer Suchlinie (Verbindungslinie) 111a, um linke und rechte Positionen der Gratbilder auf der Suchlinie 111a zu detektieren, und detektiert Tangentiallinien zu jedem Gratbild an den linken und rechten Positionen. In 3A bezeichnen die Bezugszeichen PL1 und PR1 die linke bzw. rechte Position des Gratbilds 111-1 auf der Suchlinie 111a. Ferner bezeichnen die Bezugszeichen ML1 und MR1 Tangentiallinien entlang dem linken bzw. rechten Rand des Gratbilds 111-1 an der linken und rechten Position PL1 bzw. PR1, und die Bezugszeichen ML2 und MR2 bezeichnen Tangentiallinien entlang dem linken und rechten Rand des Gratbilds 111-2 an der linken und rechten Position PL2 bzw. PR2. Es ist zu beachten, dass hier zur Vereinfachung der Beschreibung die Beschreibung der linken und rechten Positionen und Tangentiallinien der Gratbilder 111-3 und 111-4 weggelassen wird.
  • So vergleicht die Detektionssektion 14 jeweils die Positionen QL1, QR1, QL2, und QR2 und die Tangentiallinien NL1, NR1, NL2 und NR2 am Oberseitenbildende 112a des Fingerabdruckteilbilds 112 und die Positionen PL1, PR1, PL2 und PR2 und die Verbindungslinien ML1, MR1, ML2 und MR2 auf der Suchlinie 111a miteinander. Als Ergebnis des Vergleichs, wobei die Distanzen zwischen den Positionen PL1, PR1, PL2 und PR2 auf der Suchlinie 111a mit jenen der Positionen QL1, QR1, QL2, und QR2 am Oberseitenbildende 112a zusammenfallen, und die Variationen von den Richtungen der Verbindungslinien ML1, MR1, ML2 und MR2 auf der Suchlinie 111a zu Richtungen der Tangentiallinien NL1, NR1, NL2 und NR2 am Oberseitenbildende 112a glatt sind, wird die Suchlinie 111a als Verbindungsposition herangezogen.
  • Hier wird beispielsweise definiert, "dass die Variation von einer Richtung der Tangentiallinie ML1 auf der Suchlinie 111a zu einer Richtung der Tangentiallinie NL1 am Oberseitenbildende 112a glatt ist" ein Zustand ist, in dem der Variationsbetrag von der Richtung der Tangentiallinie ML1 zur Richtung der Tangentiallinie NL1 einen vorherbestimmten Wert hat oder weniger, oder der Variationsbetrag im Wesentlichen gleich ist jenem zwischen Richtungen der Tangentiallinien rund um die Verbindungspunkte (Positionen PL1, QL1).
  • Die Detektionssektion 14 scannt das Fingerabdruckteilbild 111 in den Richtungen nach oben und nach unten mit der Suchlinie 111a, um eine Position der Verbindungslinie 111a zu suchen, die eine solche Bedingung wie oben beschrieben erfüllt.
  • Eine Positionsbeziehung der Überlagerung (eine relative Positionsbeziehung) zwischen den Fingerabdruckteilbildern 111 und 112 wird als Vektordaten (Δx, Δy), wie in 3C gezeigt, auf der Basis der Position der Kombinationslinie 111a, die wie soeben beschrieben herausgesucht wurde, und der Positionen PL1, PR1, PL2 und PR2 (QL1, QR1, QL2, und QR2) auf der Verbindungslinie 111a detektiert.
  • Es ist zu beachten, dass, in dem ersten Beispiel, das Suchen nach einer Verbindungsposition in dem Fingerabdruck teilbild 111 vorgenommen wird, nachdem die Positionen QL1, QR1, QL2, und QR2 und die Tangentiallinien NL1, NR1, NL2 und NR2 am Oberseitenbildende 112a des Fingerabdruckteilbilds 112 detektiert werden. Alternativ dazu können jedoch die linken und rechten Positionen der Gratbilder und die Tangentiallinien an den Positionen an einem Unterseitenbildende 111b des Fingerabdruckteilbilds detektiert werden, und danach kann das Suchen nach einer Verbindungsposition in dem Fingerabdruckteilbild 112 ähnlich wie in dem oben beschriebenen Beispiel mit einem Ergebnis der Detektion vorgenommen werden. Ferner ist ein Verfahren zum Detektieren einer relativen Positionsbeziehung von Teilbildern detailliert in einer Patentanmeldung des Erfinders der Erfindung der vorliegenden Anmeldung geoffenbart (Japanische Patentanmeldung Nr. 2002-47492; eingereicht am 5. Februar 2002).
  • [1-2-3] Zweites Beispiel des Prozesses zum Detektieren der relativen Positionsbeziehung von Teilbildern
  • 4A bis 4C sind Darstellungen, die ein zweites Beispiel des Prozesses zum Detektieren der relativen Positionsbeziehung von Teilbildern in der ersten Ausführungsform veranschaulichen. In dem zweiten Beispiel nimmt die Sweep-Bild-Positionsbeziehungs-Detektionssektion 14 eine relative Positionsdetektion unter Verwendung von Skelettlinienbildern vor, die von der Skelettlinien-Extraktionssektion 13 aus Fingerabdruckteilbildern extrahiert werden.
  • Wenn ein in 4A gezeigtes Skelettlinienbild 121 extrahiert wird, und dann ein weiteres in 4B gezeigtes Skelettlinienbild 122 von der Skelettlinien-Extraktionssektion 13 extrahiert wird, wird eine relative Positionsbeziehung zwischen den Skelettlinienbildern 121 und 122, ähnlich wie bei dem oben mit Bezugnahme auf 3A bis 3C beschriebenen Verfahren, von der Detektionssektion 14 auf folgende Weise detektiert. Hier sind zumindest vier Skelettlinien 121-1 bis 121-4 in dem in 4A gezeigten Skelettlinienbild 121 enthalten, und vier Skelettlinien 122-1 bis 122-4, von denen geschätzt wird, dass sie sich von den Skelettlinien 121-1 bis 121-4 fortsetzen, sind in dem in 4B gezeigten Skelettlinienbild 122 enthalten.
  • Die Detektionssektion 14 detektiert Positionen der Skelettlinien an einem Oberseitenbildende 122a des Skelettlinienbilds 122, das im aktuellen Zyklus extrahiert wird, und detektiert Tangentiallinien zu den Skelettlinien an den Positionen. In 4B bezeichnen jeweils Bezugszeichen Q1 bis Q4 Positionen der Skelettlinien 122-1 bis 122-4 am Oberseitenbildende 122a, und Bezugszeichen N1 bis N4 bezeichnen die Tangentiallinien entlang den Skelettlinien 122-1 bis 122-4 an den Positionen Q1 bis Q4.
  • Andererseits scannt, wie in 4A gezeigt, die Detektionssektion 14 das Skelettlinienbild 121 in den Richtungen nach oben und nach unten mit einer Suchlinie (Verbindungslinie) 121a, um Positionen der Skelettlinien auf der Suchlinie 121a zu detektieren, und detektiert Tangentiallinien zu den Skelettlinien an den Positionen. In 4A bezeichnen jeweils Bezugszeichen P1 bis P4 Positionen der Skelettlinien 121-1 bis 121-4 auf der Suchlinie 121a, und Bezugszeichen M1 bis M4 bezeichnen die Tangentiallinien entlang den Skelettlinien 121-1 bis 121-4 an den Positionen P1 bis P4.
  • Danach vergleicht die Detektionssektion 14 jeweils die Positionen Q1 bis Q4 und die Tangentenlinien N1 bis N4 am Oberseitenbildende 122a des Skelettlinienbilds 122 und die Positionen P1 bis P4 und die Tangentenlinien M1 bis M4 auf der Suchlinie 121a miteinander. Als Ergebnis des Vergleichs, wobei die Distanzen zwischen den Positionen P1 bis P4 auf der Suchlinie 121a mit jenen zwischen den Positionen Q1 bis Q4 am Oberseitenbildende 122a zusammenfallen, und die Varia tionen (Differenzen) von Richtungen der Tangentenlinien M1 bis M4 auf der Suchlinie 121a zu den Tangentenlinien N1 bis N4 am Oberseitenbildende 122a glatt sind, wird die Suchlinie 121a als Verbindungsposition herangezogen.
  • Hier wird beispielsweise definiert, dass "dass die Variation von einer Richtung der Tangentiallinie M1 auf der Suchlinie 121a zu einer Richtung der Tangentiallinie N1 am Oberseitenbildende 122a glatt ist" ein Zustand ist, in dem der Variationsbetrag von der Richtung der Tangentiallinie M1 zur Richtung der Tangentiallinie N1 einen vorherbestimmten Wert hat oder weniger, oder der Variationsbetrag im Wesentlichen gleich ist jenem zwischen Richtungen der Tangentiallinien rund um die Verbindungspunkte (Positionen P1, Q1).
  • Die Detektionssektion 14 scannt das Skelettlinienbild 121 in den Richtungen nach oben und nach unten mit der Suchlinie 121a, um eine Position der Verbindungslinie 121a zu suchen, die eine solche Bedingung wie oben beschrieben erfüllt.
  • Eine Positionsbeziehung der Überlagerung (eine relative Positionsbeziehung) zwischen den Skelettlinienbildern 121 und 122 wird als Vektordaten (Δx, Δy), wie in 4C gezeigt, auf der Basis der Position der Kombinationslinie 121a, die wie soeben beschrieben herausgesucht wurde, und der Positionen P1 bis P4 (Q1 bis Q4) auf der Verbindungslinie 111a detektiert.
  • Es ist zu beachten, dass auch in dem zweiten Beispiel das Suchen nach einer Verbindungsposition in dem Skelettlinienbild 121 vorgenommen wird, nachdem die Positionen Q1 bis Q4 und die Tangentenlinien N1 bis N4 am Oberseitenbildende 122a des Skelettlinienbilds 122 detektiert werden. Alternativ dazu können jedoch Positionen der Skelettlinien an den Positionen am Unterseitenbildende 121b des Skelettlinienbilds 121 und die Tangentenlinien detektiert werden, und danach kann ein Suchen nach einer Verbindungsposition in dem Skelettlinienbild 122 mit einem Detektionsergebnis vorgenommen werden, das ähnlich ist wie in dem oben beschriebenen Beispiel.
  • [1-2-4] Erstes Beispiel des Prozesses zum Erfassen charakteristischer Daten von Lebewesen
  • 5A bis 10 sind Ansichten, die ein erstes Beispiel des Prozesses zum Erfassen charakteristischer Daten von Lebewesen in der ersten Ausführungsform zeigen. Das erste Beispiel des Prozesses zum Erfassen charakteristischer Daten von Lebewesen in den Schritten S11-i, S12-i und S13 wird mit Bezugnahme auf 5A bis 10 beschrieben.
  • Wenn in 5A bis 5C gezeigte Sweep-Bilder (Grobbilder) 1, 2, 3 jeweils vom Fingerabdrucksensor 11 abgerufen werden, dann werden Prozesse für die Sweep-Bilder 1 bis 3 vorgenommen, und charakteristische Abschnittsdaten werden aus den Sweep-Bildern 1 bis 3 extrahiert. Insbesondere wird zuerst ein Bildprozess für die Sweep-Bilder 1 bis 3 von der Skelettlinien-Extraktionssektion 13 vorgenommen, um Skelettlinien von Fingerabdruckgraten zu extrahieren. Zu dieser Zeit ist, als Extraktionsverfahren einer Skelettlinie, beispielsweise ein Verfahren, in dem ein Verdünnungsprozess vorgenommen wird, nachdem ein Binärisierungsprozess vorgenommen wird, oder ein ähnliches Verfahren verfügbar. Skelettlinienbilder, die aus den in 5A bis 5C gezeigten Sweep-Bildern 1 bis 3 erhalten werden, sind jeweils in 6A bis 6C gezeigt.
  • Dann wird, in jedem Skelettlinienbild, eine Unterbrechung (hier im Nachstehenden als Gratende bezeichnet) an einem Bildende jedes Grats (Skelettlinie), die zeitlich an ein nächstes Sweep-Bild anschließen kann, als charakteristische Daten bestimmt, und Identifikatoren (ID) werden von der Sektion 15 zum Extrahieren charakteristischer Ab schnittsdaten an die erhaltenen Gratenden angelegt. In 6A bis 6C ist jedes Gratende durch einen leeren Kreis angezeigt, und die an die Gratenden angelegten Identifikatoren sind durch Bezugszahlen angezeigt (1 bis 23).
  • Ferner werden, in jedem Skelettlinienbild, ein Endpunkt und ein Verzweigungspunkt (diese werden hier im Nachstehenden allgemein als Minutien bezeichnet) eines Grats (Skelettlinie) von der Sektion 15 zum Extrahieren charakteristischer Abschnittsdaten extrahiert. Aus den Skelettlinienbildern extrahierte Minutien, die in 6A bis 6C gezeigt sind, sind in 7A bis 7C jeweils durch einen schwarzen Kreis angezeigt.
  • Die Sweep-Bild-Positionsbeziehungs-Detektionssektion 14 berechnet eine relative Positionsbeziehung von Fingerabdruck-Sweep-Bildern (oder Skelettlinienbildern), die zeitlich voneinander verschieden sind, mit dem hier im Vorstehenden unter Bezugnahme auf 3A bis 3C oder 4A bis 4C beschriebenen Verfahren gleichzeitig, wenn Minutien extrahiert werden. Es ist zu beachten, dass, in der vorliegenden Ausführungsform, ein solcher Suchprozess wie oben beschrieben vorgenommen wird, um eine relative Positionsbeziehung zu detektieren. Alternativ dazu kann jedoch eine Finger-Bewegungsvektor-Detektionsvorrichtung (Codierer) zum Detektieren eines Bewegungsbetrags und einer Bewegungsrichtung eines Fingers als Sweep-Bild-Positionsbeziehungs-Detektionssektion 14 an dem Fingerabdrucksensor 11 des Sweep-Typs so angebracht werden, dass Vektorinformationen, die eine relative Positionsbeziehung von Fingerabdruck-Sweep-Bildern (oder Skelettlinienbildern) repräsentieren, physisch von der Finger-Bewegungsvektor-Detektionsvorrichtung detektiert werden.
  • Wenn eine relative Positionsbeziehung von Sweep-Bildern zum glatten Verbinden von Graten detektiert werden kann, dann kann die Sektion 15 zum Extrahieren charakteristischer Abschnittsdaten ermitteln, an welchen Positionen in einem nächsten Fingerabdruck-Sweep-Bild (tatsächlich einem Skelettlinienbild) in 6A bis 7C gezeigte Gratenden 1 bis 23 existieren. Insbesondere kann, wie in 8A bis 8C gezeigt, eine Beziehung zwischen den Gratenden an einem Bildende und den Minutien erkannt werden.
  • Es ist zu beachten, dass, wie in 8A bis 8C gezeigt, Identifikatoren (ID) a bis f von der Sektion 15 zum Extrahieren charakteristischer Abschnittsdaten auch an die Minutien angelegt werden. Diese Minutien werden jedoch ignoriert, die in einer Überlagerungsfläche zwischen einem Sweep-Bild, das zeitlich vor einem bemerkten Sweep-Bild existiert, und dem bemerkten Sweep-Bild existieren.
  • Eine obere Fläche über den Gratenden 1 bis 4 in einem Bild (Sweep-Bild 2), das in 8B gezeigt ist, ist beispielsweise eine Überlagerungsfläche (gemeinsame Fläche) zwischen dem Bild und einem weiteren Bild (Sweep-Bild 1), das in 8A gezeigt ist, und Minutien, die in der Überlagerungsfläche existieren, sind gleich wie die Minutie, an die der Identifikator in dem in 8A gezeigten Bild angelegt wird. Demgemäß werden, als Informationen betreffend die Minutien, die in der Fläche existieren, Informationen betreffend die Minutien verwendet, die in dem in 8A gezeigten Bild extrahiert werden, und die Minutien, die in der gemeinsamen Fläche des Sweep-Bilds 2 existieren, werden ignoriert.
  • Als Nächstes extrahiert die Sektion 15 zum Extrahieren charakteristischer Abschnittsdaten, als charakteristische Abschnittsdaten, Verbindungsbeziehungsinformationen (eine Verbindungsdatentabelle) von Minutien und Gratenden, die in 9A bis 9C gezeigt sind, aus den in 8A bis 8C gezeigten Bildern unter Verwendung der an die Minutien und Gratenden angelegten Identifikatoren. In den Verbindungsbe ziehungsinformationen (Verbindungsdatentabelle) werden eine Verbindungsbeziehung zwischen Minutien durch einen Grat, eine Verbindungsbeziehung zwischen Gratenden durch einen Grat und eine Verbindungsbeziehung zwischen einer Minutie und einem Grat durch einen Grat unter Verwendung der Identifikatoren aufgezeichnet.
  • In der in 9A gezeigten Verbindungsdatentabelle werden beispielsweise Paare der Identifikatoren der Minutien und Gratenden aufgezeichnet, die in einer Verbindungsbeziehung durch Grate in dem in 8A gezeigten Bild stehen, das heißt (1, b), (2, a), (a, b), (3, a) und (4, b). Ähnlich werden in der in 9B gezeigten Verbindungsdatentabelle Paare der Identifikatoren der Minutien und Gratenden aufgezeichnet, die in einer Verbindungsbeziehung durch Grate in dem in 8B gezeigten Bild stehen, das heißt (1, 5), (2, 6), (7, c), (8, c), (9, 10), (11, c), (3, 12) und (4, 13). Ferner werden in der in 9C gezeigten Verbindungsdatentabelle Paare der Identifikatoren der Minutien und Gratenden aufgezeichnet, die in einer Verbindungsbeziehung durch Grate in dem in 8C gezeigten Bild stehen, das heißt (5, b), (6, d), (7, 15), (8, 16), (9, e), (e, 17), (18, 19), (e, 20), (10, 21), (11, 22), (12, f), (13, f), (23, f) und (14, d).
  • Schließlich synthetisiert die Sektion 17 zum Synthetisieren charakteristischer Abschnittsdaten zwei oder mehrere charakteristische Abschnittsdatenwerte (die Verbindungsdatentabelle), um Breitbereich-Fingerabdruckdaten zu erzeugen (das heißt, Minutienverbindungsinformationen betreffend Minutien des gesamten Fingerabdrucks). In der vorliegenden Ausführungsform sind Fingerabdruckdaten als Verbindungsbeziehung zwischen Minutien durch einen Grat definiert. Mehr im Einzelnen nimmt die Sektion 17 zum Synthetisieren charakteristischer Abschnittsdaten auf die Verbindungsdatentabel len Bezug, die für die in 9A bis 9C gezeigten individuellen Fingerabdruck-Sweep-Bilder extrahiert werden, um die Verbindungsbeziehungen (Identifikatoren von Gratenden) in den Verbindungsdatentabellen zu verfolgen oder aufzuspüren, um die Verbindungsbeziehung zwischen den Minutien zu synthetisieren, wie in 10 gezeigt.
  • Durch das Verfolgen oder Aufspüren von Verbindungsbeziehungen in der obersten Stufe der in 9A bis 9C gezeigten Verbindungsdatentabellen kann beispielsweise erkannt werden, dass "die Minutie b mit dem Gratende 1 verbunden ist", "das Gratende 1 mit dem Gratende 5 verbunden ist", und "das Gratende 5 mit der Minutie d verbunden ist". Dann wird schließlich aus solchen Positionsbeziehungen wie soeben beschrieben eine Tatsache erkannt, dass "die Minutien b und d miteinander verbunden sind". Insbesondere können durch das Verfolgen der Verbindungsbeziehungen in der obersten Stufe der in 9A bis 9C gezeigten Verbindungsdatentabellen Fingerabdruckdaten synthetisiert werden, die die Tatsache anzeigen, dass "die Minutien b und d miteinander verbunden sind". Ein Ergebnis der Synthese wird als Paar von Identifikatoren (b, d) in der obersten Stufe einer in 10 gezeigten Verbindungsbeziehungstabelle aufgezeichnet. Ähnlich werden durch das Verfolgen der Verbindungsbeziehungen betreffend alle Minutien in den in 9A bis 9C gezeigten Verbindungsdatentabellen Verbindungsbeziehungen (Fingerabdruckdaten) der Minutien synthetisiert, und schließlich kann eine solche Verbindungsbeziehungstabelle wie in 10 gezeigt erhalten werden, das heißt, Fingerabdruckdaten (charakteristische Daten eines Lebewesens).
  • [1-2-5] Zweites Beispiel des Prozesses zum Erfassen charakteristischer Daten von Lebewesen
  • 11A bis 16 sind Ansichten, die ein zweites Beispiel des Prozesses zum Erfassen charakteristischer Daten von Lebewesen in der ersten Ausführungsform veranschaulichen. Das zweite Beispiel des Prozesses zum Erfassen charakteristischer Daten von Lebewesen in den Schritten S11-i, S12-i und S13 wird mit Bezugnahme auf 11A bis 16 beschrieben. In dem zweiten Beispiel wird der Prozess zum Erfassen charakteristischer Daten von Lebewesen auch ähnlich wie im mit Bezugnahme auf 5A bis 10 beschriebenen ersten Beispiel vorgenommen. Ein Repräsentationsverfahren von charakteristischen Abschnittsdaten ist jedoch von jenem des ersten Beispiels verschieden.
  • Wenn in 11A bis 11C jeweils gezeigte Sweep-Bilder (Grobbilder) 1, 2 und 3 vom Fingerabdrucksensor 11 abgerufen werden, dann werden auch in dem zweiten Beispiel Prozesse für die Sweep-Bilder 1 bis 3 vorgenommen, und charakteristische Abschnittsdaten werden aus den Sweep-Bildern 1 bis 3 extrahiert. Insbesondere wird zuerst ein Bildprozess für die Sweep-Bilder 1 bis 3 von der Skelettlinien-Extraktionssektion 13 vorgenommen, um Skelettlinien von Fingerabdruckgraten zu extrahieren, und Minutien der Grate (Skelettlinien) werden von der Sektion 15 zum Extrahieren charakteristischer Abschnittsdaten aus den Skelettlinienbildern extrahiert. Die Skelettlinienbilder und Minutien (schwarzer Kreis), die aus den in 11A bis 11C gezeigten Sweep-Bildern 1 bis 3 erhalten werden, sind jeweils in 12A bis 12C gezeigt.
  • Dann werden Identifikatoren an durch Minutien unterbrochene Grate angelegt. Zu dieser Zeit werden Verbindungsinformationen von Graten von Fingerabdruck-Sweep-Bildern (oder Skelettlinienbildern), die zeitlich voneinander verschieden sind, von der Sweep-Bild-Positionsbeziehungs-Detektionssektion 14 detektiert. Danach wird ein Identifikator an miteinander gleiche Grate angelegt, die quer über voneinander verschiedenen Sweep-Bildern existieren, um eine Korrelation zu erfassen, und die Korrelation der Grate wird als relative Positionsbeziehung detektiert. Beispielsweise werden, wie in 13A bis 13C gezeigt, Identifikatoren 1 bis 13 an Grate auf den in 12A bis 12C gezeigten Skelettlinienbildern angelegt.
  • Ferner werden beispielsweise, wie in 14A bis 14C gezeigt, von der Sektion 15 zum Extrahieren charakteristischer Abschnittsdaten Identifikatoren a bis f an die Minutien auf den in 12A bis 12C gezeigten Skelettlinienbildern angelegt. Zu dieser Zeit wird, ähnlich den Identifikatoren der Grate, ein Identifikator an miteinander gleiche Minutien angelegt, die quer über voneinander verschiedenen Sweep-Bildern existieren. Die miteinander gleichen Minutien, die quer über den voneinander verschiedenen Sweep-Bildern existieren, können auf der Basis der an die Grate angelegten Identifikatoren 1 bis 13 diskriminiert werden.
  • Dann extrahiert die Sektion 15 zum Extrahieren charakteristischer Abschnittsdaten, als charakteristische Abschnittsdaten, Verbindungsdatentabellen [Tabellen, welche Paare (Verbindungsbeziehungsinformationen zwischen Minutien und Graten) von Minutien und Gratenden enthalten, die miteinander in einer Verbindungsbeziehung stehen], die in 15A bis 15C gezeigt sind, aus den in 14A bis 14C gezeigten Bildern unter Verwendung der an die Minutien und Grate angelegten Identifikatoren. In diesen Verbindungsdatentabellen werden Beziehungen zwischen Minutien, die auf den Bildern existieren, und Graten, die mit den Minutien verbunden sind, unter Verwendung von Identifikatoren aufgezeichnet.
  • In der in 15A gezeigten Verbindungsdatentabelle werden beispielsweise Paare von Identifikatoren der Minutien und Grate aufgezeichnet, die in einer Verbindungsbeziehung in dem in 14A gezeigten Bild stehen, das heißt (b, 1), (b, 2), (b, 3), (a, 2), (a, 5) und (a, 4). Ähnlich werden in der in 15B gezeigten Verbindungsdatentabelle Paare von Identifikatoren der Minutien und Grate aufgezeichnet, die in einer Verbindungsbeziehung in dem in 14A gezeigten Bild stehen, das heißt (a, 2), (a, 5), (a, 4), (c, 6), (c, 7) und (c, 8). Ferner werden in der in 15C gezeigten Verbindungsdatentabelle Paare von Identifikatoren der Minutien und Grate aufgezeichnet, die in einer Verbindungsbeziehung in dem in 14C gezeigten Bild stehen, das heißt (d, 1), (d, 5), (d, 14), (e, 9), (e, 10), (e, 11), (f, 3), (f, 4) und (f, 13).
  • Schließlich synthetisiert die Sektion 17 zum Synthetisieren charakteristischer Abschnittsdaten zwei oder mehrere charakteristische Abschnittsdatenwerte (die Verbindungsdatentabellen), um Breitbereich-Fingerabdruckdaten zu erzeugen (das heißt, Minutienverbindungsinformationen betreffend Minutien des gesamten Fingerabdrucks). In der vorliegenden Ausführungsform sind, wie oben beschrieben, Fingerabdruckdaten als Verbindungsbeziehung zwischen Minutien durch einen Grat definiert. Mehr im Einzelnen nimmt die Sektion 17 zum Synthetisieren charakteristischer Abschnittsdaten auf die Verbindungsdatentabellen Bezug, die für die in 15A bis 15C gezeigten individuellen Fingerabdruck-Sweep-Bilder extrahiert werden, um die Verbindungsbeziehungen (Identifikatoren von Gratenden) in den Verbindungsdatentabellen zu verfolgen, um die Verbindungsbeziehung zwischen den Minutien zu synthetisieren, wie in 16 gezeigt. Es ist zu beachten, dass die Identifikatoren der Minutien, die in 16 in Klammern gesetzt sind, redundante Informationen sind, und ursprünglich zur Aufzeichnung nicht notwendig sind.
  • Hier hat die herkömmliche Technik, die in dem Japanischen offengelegten Patent Nr. 91769/1998 (Patentdokument 1), usw., geoffenbart ist, eine Aufgabe, dass, durch das schließliche Verbinden einer Vielzahl von Fingerabdruckteil bildern miteinander, das Fingerabdruckgesamtbild ähnlich jenem, das von einem Fingerabdrucksensor des ebenen Typs erfasst wird (der ein anderer üblicher Fingerabdrucksensor als jener des Sweep-Typs ist), rekonfiguriert wird. Daher ist eine hohe Detektionsgenauigkeit erforderlich, damit eine relative Positionsbeziehung einer Vielzahl von Fingerabdruckteilbildern detektiert werden kann. Demgemäß erscheinen beispielsweise eine Expansion und Kontraktion auf einem aufgenommenen Bild aufgrund einer relativ hohen Geschwindigkeit, die zwischen einer Scanlinie des Fingerabdrucksensors 11 des Sweep-Typs und einem Finger während der Bewegung auftritt. Daher müssen die Expansion und Kontraktion korrigiert werden, oder es muss eine Korrelationsberechnung zum Detektieren einer Überlagerungsposition minutiös in einer Einheit von 1 Pixel vorgenommen werden.
  • Wenn in dem zweiten Beispiel des oben beschriebenen Prozesses zum Erfassen charakteristischer Daten von Lebewesen jedoch entschieden wird, welche Grate unter den Fingerabdruckgraten in einer Vielzahl von Fingerabdruckteilbildern miteinander gleich sind, dann kann eine relative Positionsbeziehung einer Vielzahl von Fingerabdruckteilbildern festgestellt werden. Daher ist keine derartig hohe Detektionsgenauigkeit wie bei der herkömmlichen Technik erforderlich. Insbesondere muss keine Korrektur der Expansion und Kontraktion eines Fingerabdruckbilds vorgenommen werden, und der Rechenaufwand der Korrelationsberechnung kann reduziert werden. Daher kann die Auflösung von Fingerabdruckteilbildern auf etwa die Hälfte reduziert werden. Wenn eine relative Positionsbeziehung zwischen zwei Fingerabdruckteilbildern nicht als in 3C und 4C gezeigte Vektoren detektiert wird, sondern als einfache Korrelation zwischen miteinander gleichen Graten, dann kann demgemäß ein Algorithmus genutzt werden, der einfach ist und eine hohe Verarbeitungs geschwindigkeit aufweist.
  • [1-3] Effekte der ersten Ausführungsform
  • Mit der ersten Ausführungsform der vorliegenden Erfindung werden, jedesmal wenn ein rechtwinkliges Fingerabdruckteilbild von einem Finger einer Identifikationsobjektperson abgetastet wird, ein Prozess zum Detektieren einer relativen Positionsbeziehung des Fingerabdruckteilbilds, ein Prozess zum Extrahieren charakteristischer Abschnittsdaten aus dem Fingerabdruckteilbild und ein Prozess zum Synthetisieren der extrahierten charakteristischen Abschnittsdaten vorgenommen. Daher können, jedesmal wenn ein Fingerabdruckteilbild abgetastet wird, charakteristische Daten eines Lebewesens (charakteristische Abschnittsdaten) in dem Fingerabdruckteilbild erhalten werden, ohne das Fingerabdruckgesamtbild (Vollbild) aus einer Vielzahl von Fingerabdruckteilbildern zu erzeugen.
  • Insbesondere werden nicht für ein Lebewesen charakteristische Daten (Fingerabdruckdaten, welche Minutieninformationen enthalten), die für eine persönliche Identifizierung notwendig sind, usw., extrahiert, indem das Fingerabdruckgesamtbild erzeugt wird, und danach Bildprozesse für dieses vorgenommen werden, sondern jedes Fingerabdruckteilbild wird als Objekt der Bildprozesse angesehen, und charakteristische Abschnittsdaten werden zu jeder Zeit aus dem Fingerabdruckteilbild erfasst. Daher kann die für Bildprozesse notwendige Speicherkapazität drastisch reduziert werden, verglichen mit jener der herkömmlichen Technik, die in dem oben angegebenen Japanischen offengelegten Patent Nr. 91769/1998, usw., geoffenbart ist.
  • Ferner wird ein Charakteristikenextraktionsprozess gestartet, ohne das Gesamtbild zu erzeugen, und als Ergebnis kann der Charakteristikenextraktionsprozess einer CPU parallel zum I/O-Prozess des Fingerabdrucksensors 11 zugeteilt werden, um die CPU zu veranlassen, diese vorzunehmen. Daher kann die CPU sehr effizient genutzt werden, verglichen mit jener der herkömmlichen Technik, die in dem oben angegebenen Japanischen offengelegten Patent Nr. 91769/1998, usw., geoffenbart ist.
  • Andererseits können, wie hier im Vorstehenden mit Bezugnahme auf 5A bis 10 beschrieben, durch das Extrahieren, als charakteristische Abschnittsdaten, von Verbindungsbeziehungsinformationen zwischen einer Minutie und einem Gratende an einem Bildende eines Fingerabdruckteilbilds aus jedem Fingerabdruckteilbild, nur wenn die Verbindungsbeziehungsinformationen (Identifikationen von Gratenden) in den Fingerabdruckteilbildern verfolgt werden, dann Fingerabdruckdaten (das heißt eine Verbindungsbeziehung zwischen Minutien, welche in einer Vielzahl von Fingerabdruckteilbildern enthalten sind), die Minutieninformationen enthalten, über einen breiten Bereich synthetisiert werden. Wenn ein Identifikator an miteinander gleiche Minutien oder miteinander gleiche Gratenden angelegt wird, die gemeinsam in einer Vielzahl von Fingerabdruckteilbildern existieren, dann können zu dieser Zeit Verbindungsbeziehungsinformationen in den Fingerabdruckteilbildern leicht verfolgt werden, und eine Verbindungsbeziehung zwischen in einer Vielzahl von Fingerabdruckteilbildern enthaltenen Minutien kann sehr leicht erhalten werden.
  • Ferner können, wie hier im Vorstehenden mit Bezugnahme auf 11A bis 16 beschrieben, auch durch das Extrahieren, als charakteristische Abschnittsdaten, von Verbindungsbeziehungsinformationen zwischen einer Minutie und einem mit der Minutie verbundenen Grat aus jedem Fingerabdruckteilbild, nur wenn die Verbindungsbeziehungsinformationen (Identifikationen von Gratenden) in den Fingerabdruckteilbildern verfolgt werden, dann Fingerabdruckdaten (das heißt eine Verbindungsbeziehung zwischen miteinander gleichen Minutien, welche in einer Vielzahl von Fingerabdruckteilbildern enthalten sind), die Minutieninformationen enthalten, über einen breiten Bereich synthetisiert werden. Wenn ein Identifikator an miteinander gleiche Minutien oder miteinander gleiche Grate angelegt wird, die gemeinsam in einer Vielzahl von Fingerabdruckteilbildern existieren, dann können zu dieser Zeit Verbindungsbeziehungsinformationen in den Fingerabdruckteilbildern leicht verfolgt werden, und eine Verbindungsbeziehung zwischen in einer Vielzahl von Fingerabdruckteilbildern enthaltenen Minutien kann sehr leicht erhalten werden.
  • Durch das Detektieren, als relative Positionsbeziehung zwischen zwei Fingerabdruckteilbildern, die zeitlich voneinander verschieden sind, einer solchen Überlagerungspositionsbeziehung, dass miteinander gleiche Grate in den Fingerabdruckteilbildern glatt miteinander verbunden sind, und einer Korrelation zwischen den miteinander gleichen Graten in den Teilbildern kann ferner eine gegenseitige relative Positionsbeziehung zwischen einer Vielzahl von Fingerabdruckteilbildern leicht ermittelt werden, und charakteristische Abschnittsdaten können unter Verwendung der relativen Positionsbeziehung leicht synthetisiert werden.
  • Ferner werden, wie hier im Vorstehenden beschrieben, Fingerabdruckdaten (die in der Fingerabdruckdaten-Speichersektion 18 gespeichert werden), die von der Vorrichtung 10 zum Erfassen charakteristischer Daten von Lebewesen erfasst werden, und Fingerabdruckdaten betreffend eine Identifikationsobjektperson, die im Voraus in der Registrierungs-Fingerabdruckdaten-Speichersektion 20 registriert werden, verglichen und von der Kollationssektion 30 miteinander kollationiert, um eine persönliche Identifizierung einer Identifikationsobjektperson vorzunehmen. Daher kann eine persönliche Identifizierung mit hoher Zuverlässigkeit mit hoher Geschwindigkeit unter Verwendung des Fingerabdrucksensors 11 des Sweep-Typs vorgenommen werden.
  • [2] Zweite Ausführungsform
  • [2-1] Konfiguration der Vorrichtung zum Erfassen charakteristischer Daten von Lebewesen und Authentifizierungsvorrichtung der zweiten Ausführungsform
  • 17 ist ein Blockbild, das eine Konfiguration einer Vorrichtung zum Erfassen charakteristischer Daten von Lebewesen und einer Authentifizierungsvorrichtung gemäß einer zweiten Ausführungsform der vorliegenden Erfindung zeigt. Es ist zu beachten, dass in 17 ähnliche Elemente wie jene der ersten Ausführungsform mit ähnlichen Bezugszeichen oder im Wesentlichen ähnlichen Bezugszeichen bezeichnet sind, und eine detaillierte Beschreibung von diesen zur Vermeidung einer Redundanz hier weggelassen wird.
  • Ähnlich der Authentifizierungsvorrichtung 100 der ersten Ausführungsform nimmt auch die Authentifizierungsvorrichtung 100A der in 17 gezeigten zweiten Ausführungsform eine persönliche Identifizierung unter Verwendung eines Fingerabdrucks als Informationen eines Lebewesens vor und enthält eine Sektion 10A zum Erfassen charakteristischer Daten von Lebewesen, eine Registrierungs-Fingerabdruckdaten-Speichersektion 20, eine Kollationssektion 30, eine Fingerabdruckdaten-Extraktionssektion 40 und eine Fingerabdruckdaten-Speichersektion 50.
  • Die Vorrichtung 10A zum Erfassen charakteristischer Daten von Lebewesen in der zweiten Ausführungsform erfasst Gratstrukturdaten (Bilddaten gerade vor der Extraktion von Fingerabdruckdaten, die Minutieninformationen enthalten) als charakteristische Daten eines Lebewesens, die zur persönlichen Identifizierung notwendig sind, von einer Identifikationsobjektperson. Die Vorrichtung 10A zum Erfassen charakteristischer Daten von Lebewesen enthält einen Fingerab drucksensor 11 des Sweep-Typs, eine Bildspeichersektion 12, eine Gratstrukturdaten-Extraktionssektion 13A, eine Sweep-Bild-Positionsbeziehungs-Detektionssektion 14, eine Gratstrukturdaten-Speichersektion 16A, eine Gratstrukturdaten-Synthesesektion 17A und eine Syntheseergebnis-Speichersektion 18A.
  • Tatsächlich werden auch die Vorrichtung 10A zum Erfassen charakteristischer Daten von Lebewesen und die Authentifizierungsvorrichtung 100A der zweiten Ausführungsform, ähnlich wie in der ersten Ausführungsform, implementiert, indem der Fingerabdrucksensor 11 des Sweep-Typs mit einem allgemeinen Personalcomputer kombiniert wird, der eine CPU, einen ROM, einen RAM und andere notwendige Vorrichtungen aufweist. Zu dieser Zeit werden Funktionen wie die Gratstrukturdaten-Extraktionssektion 13A, Sweep-Bild-Positionsbeziehungs-Detektionssektion 14, Gratstrukturdaten-Speichersektion 16A und Gratstrukturdaten-Synthesesektion 17A implementiert, indem ein vorherbestimmtes Programm (Programm zum Erfassen charakteristischer Daten von Lebewesen) mittels einer CPU (Computer) ausgeführt wird. Ferner werden auch Funktionen wie die Kollationssektion 30 und die Fingerabdruckdaten-Extraktionssektion 40 implementiert, indem ein vorherbestimmtes Programm (Kollationsprogramm) mittels der CPU ausgeführt wird. Andererseits werden Funktionen wie die Bildspeichersektion 12, Sektion 16A zum Speichern charakteristischer Abschnittsdaten und Syntheseergebnis-Speichersektion 18A durch den RAM implementiert. Ferner wird eine Funktion wie die Registrierungs-Fingerabdruckdaten-Speichersektion 30 durch den RAM oder ROM implementiert. Es ist zu beachten, dass Funktionen wie die Speichersektionen 12, 16A, 18A und 30 ansonsten durch eine Speichervorrichtung wie eine in einem Personalcomputer eingebaute Festplatte oder eine externe Speichervorrichtung implementiert werden können.
  • Ähnlich wie in der ersten Ausführungsform werden das Programm zum Erfassen charakteristischer Daten von Lebewesen und das Kollationsprogramm, die oben beschrieben sind, in einem computerlesbaren Aufzeichnungsmedium, wie beispielsweise einer Diskette und einer CD-ROM, aufgezeichnet und werden als solche vorgesehen. In der vorliegenden Ausführungsform werden das Programm zum Erfassen charakteristischer Daten von Lebewesen und das Kollationsprogramm im Voraus im ROM gespeichert, und die Programme werden aus dem ROM in die CPU ausgelesen und von dieser ausgeführt. Es ist zu beachten, dass die Programme so bearbeitet werden können, dass sie im Voraus in einer Speichervorrichtung (Aufzeichnungsmedium) wie beispielsweise einer Magnetplatte, einer optischen Platte oder einer magnetooptischen Platte gespeichert werden und von der Speichervorrichtung durch einen Kommunikationsweg an einen Computer (CPU) geliefert werden.
  • In der zweiten Ausführungsform extrahiert die Gratstrukturdaten-Extraktionssektion (Extraktionssektion) 13A, jedesmal wenn ein einzelnes Fingerabdruckteilbild (ein einzelnes rechtwinkliges Sweep-Bild) vom Fingerabdrucksensor 11 abgetastet wird und in der Bildspeichersektion 12 gespeichert wird, Gratstrukturdaten, die für einen Fingerabdruck einzigartige charakteristische Informationen enthalten, aus dem Fingerabdruckteilbild. Hier nimmt die Gratstrukturdaten-Extraktionssektion 13A, ähnlich wie die Skelettlinien-Extraktionssektion 13 der ersten Ausführungsform, einen Binärisierungsprozess und einen Verdünnungsprozess für jedes Fingerabdruckteilbild vor und extrahiert eine Skelettlinie (ein Skelettbild als Gratstrukturdaten) eines Fingerabdruckgrats.
  • Die Gratstrukturdaten-Speichersektion 16A speichert Skelettlinienbilder (Gratstrukturdaten), die von der Gratstrukturdaten-Extraktionssektion 13A aus Fingerabdruckteil bildern erhalten werden, und eine relative Positionsbeziehung (die von der Detektionssektion 14 detektiert wird) zwischen jedem Fingerabdruckteilbild und einem Fingerabdruckteilbild, das zu einer direkt vorhergehenden Zeiteinstellung abgetastet wurde.
  • Die Sektion 17A zum Synthetisieren charakteristischer Abschnittsdaten (Synthesesektion) synthetisiert, jedesmal wenn ein einzelnes Fingerabdruckteilbild (ein einzelnes rechtwinkliges Sweep-Bild) vom Fingerabdrucksensor 11 abgetastet wird, charakteristische Abschnittsdaten des im aktuellen Zyklus abgetasteten Fingerabdruckteilbilds und Gratstrukturdaten betreffend ein anderes Fingerabdruckteilbild, das vorher extrahiert wurde, auf der Basis einer relativen Positionsbeziehung zwischen dem in dem aktuellen Zyklus abgetasteten Fingerabdruckteilbild und dem im vorhergehenden Zyklus abgetasteten Fingerabdruckteilbild. Dann gibt die Sektion 17 zum Synthetisieren charakteristischer Abschnittsdaten ein Ergebnis der Synthese als Fingerabdruckdaten (charakteristische Daten des Lebewesens des Abschnitts des Lebewesens) aus. Insbesondere synthetisiert die Sektion 17 zum Synthetisieren charakteristischer Abschnittsdaten eine große Anzahl erhaltener charakteristischer Fingerabdruck-Abschnittsdaten, um einen einzelnen Satz von Fingerabdruckdaten zu erzeugen. Hier wird, wie oben beschrieben, die relative Positionsbeziehung von der Detektionssektion 14 detektiert und wird in der Sektion 16A zum Speichern charakteristischer Abschnittsdaten gespeichert. Ferner werden, wie oben beschrieben, die charakteristischen Abschnittsdaten von der Sektion 15 zum Extrahieren charakteristischer Abschnittsdaten extrahiert und werden in der Sektion 16A zum Speichern charakteristischer Abschnittsdaten gespeichert.
  • Die Syntheseergebnis-Speichersektion 18A speichert ein Skelettlinienbild eines gesamten Fingerabdrucks, das von der Gratstrukturdaten-Synthesesektion 17A erhalten wurde.
  • Die Fingerabdruckdaten-Extraktionssektion (Sektion zum Extrahieren charakteristischer Daten) 40 extrahiert charakteristische Daten, die für einen Fingerabdruck einzigartig sind, der von der Vorrichtung 10 zum Erfassen charakteristischer Daten von Lebewesen erfasst wurde, das heißt Fingerabdruckdaten betreffend eine Minutie, aus dem Skelettlinienbild (das in der Syntheseergebnis-Speichersektion 18A gespeichert wird) des gesamten Fingerabdrucks. Die Fingerabdruckdaten-Speichersektion 50 speichert von der Fingerabdruckdaten-Extraktionssektion 40 extrahierte Fingerabdruckdaten.
  • Ferner hält die Registrierungs-Fingerabdruckdaten-Speichersektion 20 im Voraus registrierte Fingerabdruckdaten betreffend eine Identifikationsobjektperson. Die von der Registrierungs-Fingerabdruckdaten-Speichersektion 20 gehaltenen Fingerabdruckdaten können Daten sein, die von der Vorrichtung 10 zum Erfassen charakteristischer Daten von Lebewesen in der ersten Ausführungsform erfasst wurden, Daten, die von der Fingerabdruckdaten-Extraktionssektion 40 aus einem Skelettlinienbild extrahiert wurden, das von der Vorrichtung 10A zum Erfassen charakteristischer Daten von Lebewesen in der zweiten Ausführungsform erfasst wurde, oder Daten, die unter Verwendung eines anderen Fingerabdrucksensors erfasst wurden.
  • Ferner vergleicht die Kollationssektion 30 in der zweiten Ausführungsform von der Fingerabdruckdaten-Extraktionssektion 40 extrahierte Fingerabdruckdaten (die in der Fingerabdruckdaten-Speichersektion 50 gespeichert werden) und im Voraus in der Registrierungs-Fingerabdruckdaten-Speichersektion 20 registrierte Fingerabdruckdaten betreffend eine Identifikationsobjektperson miteinander, um einen Kollationsprozess vorzunehmen, um eine persönliche Authentifi zierung einer Identifikationsobjektperson vorzunehmen.
  • Es ist zu beachten, dass, während in der zweiten Ausführungsform von der Gratstrukturdaten-Extraktionssektion 13A ein Skelettlinienbild als Gratstrukturdaten extrahiert wird, alternativ dazu ein Binärisierungsbild, das durch die Binärisierung eines Bilds eines Grats erhalten wurde, als Gratstrukturdaten extrahiert werden kann. In diesem Fall nimmt jedoch die Fingerabdruckdaten-Extraktionssektion 40 zuerst einen Verdünnungsprozess für das von der Gratstrukturdaten-Extraktionssektion 13A extrahierte Binärierungsbild vor, um ein Skelettlinienbild zu erfassen, und extrahiert dann eine Minutie aus dem erfassten Skelettlinienbild.
  • [2-2] Betrieb der zweiten Ausführungsform
  • Der Betrieb der Vorrichtung 10A zum Erfassen charakteristischer Daten von Lebewesen und Authentifizierungsvorrichtung 100A der zweiten Ausführungsform, die wie oben beschrieben konfiguriert sind, wird im Nachstehenden mit Bezugnahme auf 18 bis 21 beschrieben. Es ist zu beachten, dass 18 ein Flussdiagramm ist, das eine Prozedur zum Erfassen charakteristischer Daten von Lebewesen in der zweiten Ausführungsform veranschaulicht, und 19A bis 21 Darstellungen sind, die einen Betrieb zum Erfassen charakteristischer Daten von Lebewesen in der zweiten Ausführungsform veranschaulichen.
  • Die Prozedur zum Erfassen charakteristischer Daten von Lebewesen in der zweiten Ausführungsform wird mit Bezugnahme auf ein in 18 gezeigtes Flussdiagramm beschrieben.
  • Wenn eine Identifikationsobjektperson ihren Finger gleitend von der Seite der Fingerspitze zur Seite der Fingerwurzel (Seite des ersten Gelenks) auf der Sensoroberfläche des Fingerabdrucksensors 11 des Sweep-Typs bewegt, wird dann, ähnlich wie in der ersten Ausführungsform, eine solche Vielzahl rechtwinkliger Fingerabdruckteilbilder 1, 2, ..., n wie in 19A bis 19C gezeigt aufeinanderfolgend abgetastet (Abtastschritt). In 19A bis 21 sind jedoch Fingerabdruckbilder in einem Fall gezeigt, in dem n 3 ist (n = 3).
  • Dann wird in der zweiten Ausführungsform, jedesmal wenn ein einzelnes rechtwinkliges Fingerabdruckteilbild abgetastet wird, ein Bildprozess direkt für das Fingerabdruckteilbild (i = 1, 2, ..., n) von der Gratstrukturdaten-Extraktionssektion 13A vorgenommen, und solche Gratstrukturdaten i (Skelettlinienbild i) wie beispielsweise in 20A bis 20C gezeigt werden extrahiert (Extraktionsschritt S21-i). Zu dieser Zeit wird, obwohl in 18 nicht gezeigt, eine relative Positionsbeziehung zwischen dem Fingerabdruckteilbild i und einem anderen Fingerabdruckteilbild i-1, das in dem vorhergehenden Zyklus abgetastet wurde, auf der Basis der Fingerabdruckteilbilder i und i-1 oder der Skelettlinienbilder i und i-1 von der Sweep-Bild-Positionsbeziehungs-Detektionssektion 14 detektiert (Detektionsschritt). Es ist zu beachten, dass die in 20A bis 20C gezeigten Skelettlinienbilder aus den jeweils in 19A bis 19C gezeigten Fingerabdruckteilbildern extrahiert werden.
  • Die von der Gratstrukturdaten-Extraktionssektion 13A extrahierten charakteristischen Abschnittsdaten i werden synthetisiert und mit Skelettlinienbildern 1 bis i-1, die vorher aus den Fingerabdruckteilbildern i bis i-1 extrahiert wurden, auf der Basis der relativen Positionsbeziehung zwischen dem Fingerabdruckteilbild i und dem Fingerabdruckteilbild i-1 von der Gratstrukturdaten-Synthesesektion 17A verbunden. Wenn aus dem letzten Fingerabdruckteilbild n extrahierte charakteristische Abschnittsdaten n synthetisiert und verbunden werden, dann ist der Synthese/Verbindungsprozess vollendet, und es wird beispielsweise ein solches Skelettlinienbild des gesamten Fingerabdrucks wie in 21 gezeigt als Ergebnis der Synthese ausgegeben (Synthese schritt S22). Es ist zu beachten, dass das Skelettlinienbild des in 21 gezeigten gesamten Fingerabdrucks durch die Synthese der drei in 20A bis 20C gezeigten Skelettlinienbilder erhalten wird.
  • Dann werden von der Fingerabdruckdaten-Extraktionssektion 40 Fingerabdruckdaten aus dem Skelettlinienbild des gesamten Fingerabdrucks extrahiert, der von der Vorrichtung 10A zum Erfassen charakteristischer Daten von Lebewesen erfasst wird, wie oben beschrieben (Schritt S23). Danach werden die Fingerabdruckdaten (Fingerabdruckdaten, die in der Fingerabdruckdaten-Speichersektion 50 gespeichert sind) und die Fingerabdruckdaten, die im Voraus in der Registrierungs-Fingerabdruckdaten-Speichersektion 20 registriert wurden, betreffend eine Identifikationsobjektperson verglichen und von der Kollationssektion 30 miteinander kollationiert, um eine persönliche Authentifizierung der Identifikationsobjektperson vorzunehmen.
  • [2-3] Effekte der zweiten Ausführungsform
  • Im Gegensatz zum früher vorgeschlagenen Verfahren, bei dem Skelettlinien aus einem Fingerabdruckgesamtbild extrahiert werden, das durch das Verbinden von groben Fingerabdruckteilbildern erhalten wird, werden in der zweiten Ausführungsform der vorliegenden Erfindung Skelettlinien (Gratstrukturdaten) unmittelbar zu einem Zeitpunkt extrahiert, wenn ein Fingerabdruckteilbild erhalten wird, und dann werden solche Skelettlinienbilder, die für verschiedene Fingerabdruckteilbilder erhalten werden, synthetisiert, um ein Skelettlinienbild (Gratstrukturdaten über einen breiten Bereich) des gesamten Fingerabdrucks als charakteristische Daten eines Lebewesens zu erhalten.
  • Üblicherweise werden verschiedenste Bildprozesse (ein Binärisierungsprozess, ein Verdünnungsprozess, usw.) vorgenommen, um Risse, Adhäsionen und ein Rauschen in einem Gratbild zu entfernen, um ein Skelettlinienbild korrekt zu extrahieren. In der zweiten Ausführungsform werden jedoch keine derartigen Bildprozesse wie oben beschrieben an einem Fingerabdruckgesamtbild durchgeführt, sondern, jedesmal wenn ein Fingerabdruckteilbild vom Fingerabdrucksensor 11 abgetastet wird, werden solche Bildprozesse wie oben beschrieben an dem Fingerabdruckteilbild durchgeführt. Demgemäß kann die für die Bildverarbeitung notwendige Speicherkapazität signifikant reduziert werden.
  • Da Bildprozesse, die eine starke Belastung für eine CPU bewirken, ohne die Erzeugung eines Gesamtbilds gestartet werden, werden ferner ein Betrieb (I/O-Prozess) zum Abrufen eines Fingerabdruckteilbilds mittels des Fingerabdrucksensors 11 und ein Bildprozess für ein anderes Fingerabdruckteilbild, das vorher abgerufen wurde, parallel miteinander ausgeführt. Dementsprechend kann die CPU sehr effektiv genutzt werden.
  • Auch in der zweiten Ausführungsform werden ferner Fingerabdruckdaten (die in der Fingerabdruckdaten-Speichersektion 50 gespeichert sind), die aus einem Skelettlinienbild eines gesamten Fingerabdrucks extrahiert werden, der von der Vorrichtung 10A zum Erfassen charakteristischer Daten von Lebewesen erfasst wurde, und Fingerabdruckdaten betreffend eine Identifikationsobjektperson, die im Voraus in der Registeirungs-Fingerabdruckdaten-Speichersektion 20 registriert wurden, verglichen und von der Kollationssektion 30 miteinander kollationiert, um eine persönliche Identifizierung einer Identifikationsobjektperson vorzunehmen, wie oben beschrieben. Daher kann eine persönliche Identifizierung mit hoher Zuverlässigkeit mit hoher Geschwindigkeit unter Verwendung des Fingerabdrucksensors 11 des Sweep-Typs vorgenommen werden.
  • [3] Sonstiges
  • Es ist zu beachten, dass die vorliegende Erfindung nicht auf die oben spezifisch beschriebenen Ausführungsformen begrenzt ist, und Variationen und Modifikationen vorgenommen werden können, ohne vom Umfang der vorliegenden Erfindung abzuweichen.
  • In den oben beschriebenen Ausführungsformen ist beispielsweise ein Abschnitt eines Lebewesens ein Finger, und Fingerabdruckdaten oder Gratstrukturdaten werden als charakteristische Daten des Lebewesens abgetastet. Die vorliegende Erfindung ist jedoch nicht darauf beschränkt, sondern kann ähnlich auch dort angewendet werden, wo charakteristische Daten eines Lebewesens aus Informationen eines Lebewesens erfasst werden wie beispielsweise einem Handflächenmuster, einem Blutgefäßmuster (Netzhauthintergrundgefäßmuster, Venengefäßmuster) oder einem Irismuskelmuster. Auch in diesem Fall können ein Betrieb und Vorteile ähnlich jenen der oben beschriebenen Ausführungsformen erzielt werden.
  • Dabei stehen die folgenden beiden Verfahren zum Abtasten von zwei oder mehreren Fingerabdruckteilbildern mittels des Fingerabdrucksensors 11 zur Verfügung.
    • (i) während ein Finger bewegt wird, wird er einige Male erneut auf den Fingerabdrucksensor 11 platziert, um aufeinanderfolgend ein Fingerabdruckteilbild abzutasten. Insbesondere ist der Fingerabdrucksensor 11 so konfiguriert, dass er aufeinanderfolgend ein quadratisches Fingerabdruckteilbild abtastet, während ein Finger einige Male erneut auf eine Abtastoberfläche (Sensoroberfläche) zum Abtasten eines Fingerabdruckteilbilds platziert wird (siehe Fingerabdruckteilbilder A bis E von 22).
    • (ii) Ein Fingerabdruckteilbild wird aufeinanderfolgend abgetastet, während ein Finger gleitend auf dem Fingerabdrucksensor 11 bewegt wird. Insbesondere ist der Fingerab drucksensor 11 so konfiguriert, dass er aufeinanderfolgend ein rechteckiges Fingerabdruckteilbild abtastet, während ein Finger relativ zu einer Abtastoberfläche (Sensoroberfläche) zum Abtasten eines Fingerabdruckteilbilds bewegt wird (siehe Fingerabdruckteilbilder a bis d von 23). In 22 sind die Fingerabdruckteilbilder A bis D, die Gegenstand eines Syntheseprozesses sind, und das Fingerabdruckteilbild E, das kein Gegenstand eines Syntheseprozesses ist, gezeigt. Auch in 23 sind die Fingerabdruckteilbilder a bis c, die Gegenstand eines Syntheseprozesses sind, und das Fingerabdruckteilbild d, das kein Gegenstand eines Syntheseprozesses ist, gezeigt.
  • Charakteristiken betreffend eine relative Positionsbeziehung der Fingerabdruckteilbilder, die durch die oben beschriebenen Verfahren (i) und (ii) erhalten werden, sind voneinander ziemlich verschieden, wie aus 22 und 23 hervorgeht. Eine Anforderung zur Verbindung von Fingerabdruckteilbildern ist jedoch gemeinsam, welches der Verfahren (i) und (ii) auch immer eingesetzt wird. Insbesondere werden charakteristische Abschnittsdaten betreffend ein beliebiges Fingerabdruckteilbild, das eine Seite aufweist, die gemeinsam ist oder überlappt mit zumindest einem von einer Vielzahl von Fingerabdruckteilbildern, die vom Fingerabdrucksensor 11 abgetastet werden, von der Synthesesektion 17 oder 17A als Objekt eines Syntheseprozesses bestimmt, und die Synthese von Minutiendaten oder Gratstrukturdaten wird von der Synthesesektion 17 oder 17A auf der Basis solcher charakteristischer Abschnittsdaten vorgenommen, um Fingerabdruckdaten über einen breiten Bereich zu erzeugen.
  • Betreffend die in 22 gezeigten Fingerabdruckteilbilder A bis E, die durch das oben beschriebene Verfahren (i) erhalten werden, ist es beispielsweise möglich, da die Fingerabdruckteilbildkombinationen (A, B), (A, C), (B, C) und (C, D) eine Überlappung von Bildern zeigen, eine relative Positionsbeziehung unter den Fingerabdruckteilbildern zu ermitteln. So werden charakteristische Daten oder Gratstrukturdaten betreffend die Fingerabdruckteilbilder A bis D von der Synthesesektion 17 oder 17A synthetisiert. Im Gegensatz dazu hat das Fingerabdruckteilbild E keine Region oder Seite, die mit einem beliebigen der anderen Fingerabdruckteilbilder A bis D überlappt. Daher werden in den oben beschriebenen Ausführungsformen Minutiendaten oder Gratstrukturdaten betreffend das Fingerabdruckteilbild E von der Synthesesektion 17 oder 17A aus einem Syntheseobjekt ausgenommen.
  • Wenn das oben beschriebene Verfahren (ii) eingesetzt wird, und ein Fingerabdruckteilbild aufeinanderfolgend aufgenommen wird, während ein Finger gleitend auf dem Fingerabdrucksensor 11 bewegt wird, dann können zwei oder mehrere Fingerabdruckteilbilder erhalten werden. Zu dieser Zeit ist es möglich, wenn die Fingerabdruckteilbilder eine Überlappungsregion miteinander aufweisen, eine relative Positionsbeziehung zwischen ihnen zu ermitteln, und charakteristische Punktdaten oder Gratstrukturdaten von ihnen können synthetisiert werden. Wenn die Geschwindigkeit, mit der ein Finger gleitend bewegt wird, momentan übermäßig hoch wird, während ein Fingerabdruckteilbild gemäß dem oben beschriebenen Verfahren (ii) abgetastet wird, dann kann kein Abruf eines Fingerabdruckteilbilds rechtzeitig vorgenommen werden, und Fingerabdruckteilbilder können keine Überlappungsregion aufweisen, wie in 23 ersichtlich.
  • In den in 23 gezeigten Kombinationen von Fingerabdruckteilbildern (a, b) und (b, c) überlappen die Bilder miteinander, und daher kann eine relative Positionsbeziehung zwischen ihnen ermittelt werden. So werden Minutiendaten oder Gratstrukturdaten betreffend die Fingerabdruckteilbil der a bis c von der Synthesesektion 17 oder 17A synthetisiert. Im Gegensatz dazu hat das Fingerabdruckteilbild d keine Region oder Seite, die mit irgendeinem der anderen Fingerabdruckteilbilder a bis c überlappt. Daher werden in der vorliegenden Ausführungsform Minutiendaten oder Gratstrukturdaten betreffend das Fingerabdruckteilbild d von der Synthesesektion 17 oder 17A aus einem Syntheseobjekt ausgenommen.
  • Ein Fingerabdruckteilbild, das keinen Abschnitt aufweist, der mit irgendeinem anderen Fingerabdruckteilbild gemeinsam ist, ermöglicht nicht das Erhalten einer relativen Positionsbeziehung davon mit irgendeinem anderen Fingerabdruckteilbild, wie oben beschrieben, und es ist unmöglich, charakteristische Abschnittsdaten betreffend das Fingerabdruckteilbild mit charakteristischen Abschnittsdaten der anderen Fingerabdruckteilbilder zu synthetisieren. Daher werden die charakteristischen Abschnittsdaten eines solchen Fingerabdruckteilbilds wie oben beschrieben aus einem Objekt des Syntheseprozesses ausgenommen. Dementsprechend kann verhindert werden, dass ein nutzloser Syntheseprozess vorgenommen wird, und die Verarbeitungseffizienz kann verbessert werden.
  • Ein die vorliegende Erfindung verkörperndes Computerprogramm kann durch ein geeignetes Trägermedium wie ein Speichermedium (z.B. Diskette oder CD-ROM) oder ein Signal getragen werden. Ein solches Trägersignal könnte ein Signal sein, das über ein Kommunikationsnetz wie das Internet heruntergeladen wird.

Claims (22)

  1. Fingerabdruck-Sensorvorrichtung des Sweep-Typs zum Erfassen von Fingerabdruckdaten, mit: einer Abtastsektion (11) zum Abtasten eines Teilbilds eines Fingerabdrucks; einer Detektionssektion (14) zum Detektieren, jedesmal wenn ein Teilbild von der Abtastsektion (11) abgetastet wird, einer relativen Positionsbeziehung zwischen dem Teilbild und einem von bereits abgetasteten anderen Teilbildern; dadurch gekennzeichnet, dass diese ferner umfasst: eine Extraktionssektion (13) zum Extrahieren, aus dem Teilbild, jedesmal wenn ein Teilbild von der Abtastsektion (11) abgetastet wird, von charakteristischen Identifikationsdaten des Fingerabdrucks, die für den Fingerabdruck einzigartige charakteristische Informationen enthalten; und einer Synthesesektion (17) zum Synthetisieren, jedesmal wenn ein Teilbild von der Abtastsektion (11) abgetastet wird, der charakteristischen Identifikationsdaten des von der Extraktionssektion (13) extrahierten Teilbilds und charakteristischer Identifikationsdaten des anderen Teilbilds auf der Basis der von der Detektionssektion (14) detektierten relativen Positionsbeziehung des Teilbilds, und Ausgeben eines Ergebnisses der Synthese als Fingerabdruckdaten des Fingerabdrucks.
  2. Vorrichtung nach Anspruch 1, dadurch gekennzeichnet, dass die Abtastsektion (11) ein Teilbild eines Musters abtastet, das aus einem Grat des Fingerabdrucks gebildet ist.
  3. Vorrichtung nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Extraktionssektion (13), als charakteristische Identifikationsdaten, Informationen betreffend einen charakteristischen Punkt des Grats extrahiert.
  4. Vorrichtung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Extraktionssektion (13), als Informationen betreffend einen charakteristischen Punkt des Grats, zumindest eines von einer Position, einem Typ und einer Richtung des charakteristischen Punkts extrahiert.
  5. Vorrichtung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Extraktionssektion (13), als charakteristische Identifikationsdaten, eine Position einer Schweißdrüse, die auf dem Grad existiert, extrahiert.
  6. Vorrichtung nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass die Extraktionssektion (13), als charakteristische Identifikationsdaten, eine Anzahl von Schweißdrüsen, die zwischen den charakteristischen Punkten auf dem Grat existieren, extrahiert.
  7. Vorrichtung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Extraktionssektion (13), als charakteristische Identifikationsdaten, eine Position eines Gratendes, das an einem Rand des Teilbilds liegt, extrahiert.
  8. Vorrichtung nach Anspruch 7, wenn von Anspruch 2 abhängig, dadurch gekennzeichnet, dass die Extraktionssektion (13), als charakteristische Identifikationsdaten, Informationen einer Verbindungsbeziehung zwischen dem charakteristischen Punkt des Grats und dem Gratende extrahiert.
  9. Vorrichtung nach Anspruch 1, dadurch gekennzeichnet, dass das Teilbild ein Muster ist, das aus einem Grat auf einem Fingerabdruck gebildet ist; und dass die charakteristischen Identifikationsdaten Gratstrukturdaten sind.
  10. Vorrichtung nach Anspruch 9, dadurch gekennzeichnet, dass die Extraktionssektion (13A), als Gratstrukturdaten, ein Skelettlinienbild, das durch das Verdünnen des Bilds des Grats erhalten wird, extrahiert.
  11. Vorrichtung nach Anspruch 9 oder 10, dadurch gekennzeichnet, dass die Extraktionssektion (13A), als Gratstrukturdaten, ein binäres Bild, das durch das Binärisieren des Bilds des Grats erhalten wird, extrahiert.
  12. Vorrichtung nach einem der Ansprüche 2 bis 11, dadurch gekennzeichnet, dass die Detektionssektion (14), als relative Positionsbeziehung, eine Positionsbeziehung einer Überlagerung zwischen dem Teilbild und einem der anderen Teilbilder detektiert, so dass miteinander gleiche Grate in dem Teilbild und dem anderen Teilbild glatt miteinander verbunden sind.
  13. Vorrichtung nach einem der Ansprüche 2 bis 11, dadurch gekennzeichnet, dass die Detektionssektion (14), als relative Positionsbeziehung, eine entsprechende Beziehung der miteinander gleichen Grate in dem Teilbild und dem anderen Teilbild detektiert.
  14. Vorrichtung nach einem der Ansprüche 1 bis 13, dadurch gekennzeichnet, dass die Abtastsektion (11) das Teilbild abtastet, indem der Fingerabdruck auf eine Abtastoberfläche eine mehrfache Anzahl von Malen zum Abtasten eines Teilbilds erneut platziert wird, und wobei charakteristische Identifikationsdaten betreffend ein Teilbild, mit einer Fläche, welche eine Seite aufweist, die mit zumindest einem der anderen Teilbilder 11 gemeinsam ist oder überlappt, unter einer Vielzahl von der Abtastsektion (11) abgetasteter Teilbilder als Objekt des Syntheseprozesses durch die Synthesesektion (17A) verwendet werden.
  15. Vorrichtung nach einem der Ansprüche 1 bis 13, dadurch gekennzeichnet, dass die Abtastsektion (11) das Teilbild abtastet, während der Fingerabdruck in Bezug auf eine Abtastoberfläche zum Abtasten eines Teilbilds relativ bewegt wird, und wobei charakteristische Identifikationsdaten betreffend ein Teilbild, mit einer Fläche, welche eine Seite aufweist, die mit zumindest einem der anderen Teilbilder gemeinsam ist oder überlappt, unter einer Vielzahl von der Abtastsektion (11) abgetasteter Teilbilder als Objekt des Syntheseprozesses durch die Synthesesektion (17A) verwendet werden.
  16. Vorrichtung nach Anspruch 1, dadurch gekennzeichnet, dass diese eine Authentifizierungsvorrichtung ist, bei welcher: die Abtastsektion (11) zum Abtasten eines Teilbilds eines Fingerabdrucks einer Authentifizierungsobjektperson dient; dadurch gekennzeichnet, dass diese ferner umfasst: eine Kollationssektion (30) zum Ausführen eines Kollationsprozesses unter Verwendung der Fingerabdruckdaten von der Synthesesektion (17), um eine persönliche Identifizierung der Authentifizierungsobjektperson vorzunehmen.
  17. Authentifizierungsvorrichtung nach Anspruch 16, dadurch gekennzeichnet, dass: die Abtastsektion (11) zum Abtasten eines Teilbilds eines Musters dient, das aus einem Grat auf dem Fingerabdruck der Authentifizierungsobjektperson gebildet ist; und die Extraktionssektion (13A) zum Extrahieren von Gratstrukturdaten dient; und ferner mit: einer Fingerabdruckdaten-Extraktionssektion (40) zum Extrahieren von für den Fingerabdruck einzigartigen Fingerabdruckdaten aus dem Ergebnis der Synthese, das von der Synthesesektion (17A) ausgegeben wird; und wobei die Kollationssektion (30) zum Ausführen eines Kollationsprozesses unter Verwendung der von der Charakteristikdaten-Extraktionssektion (40) extrahierten Daten dient, um eine persönliche Identifizierung der Authentifizierungsobjektperson vorzunehmen.
  18. Verfahren zum Erfassen von Fingerabdruckdaten unter Verwendung eines Fingerabdrucksensors des Sweep-Typs, mit: einem Abtastschritt des Abtastens eines Teilbilds eines Fingerabdrucks; einem Detektionsschritt des Detektierens, jedesmal wenn ein Teilbild in dem Abtastschritt abgetastet wird, einer relativen Positionsbeziehung zwischen dem Teilbild und einem von bereits abgetasteten anderen Teilbildern; dadurch gekennzeichnet, dass dieses ferner umfasst: einen Extraktionsschritt des Extrahierens, aus dem Teilbild, jedesmal wenn ein Teilbild in dem Abtastschritt abgetastet wird, von charakteristischen Identifikationsdaten des Fingerabdrucks, die für den Fingerabdruck einzigartige charakteristische Informationen enthalten; und einen Syntheseschritt des Synthetisierens, jedesmal wenn ein Teilbild in dem Abtastschritt abgetastet wird, der charakteristischen Identifikationsdaten des in dem Extraktionsschritt extrahierten Teilbilds und charakteristischer Identifikationsdaten des anderen Teilbilds auf der Basis der in dem Detektionsschritt detektierten relativen Positionsbeziehung des Teilbilds, und Ausgebens eines Ergebnisses der Synthese als Fingerabdruckdaten des Fingerabdrucks.
  19. Verfahren nach Anspruch 18, dadurch gekennzeichnet, dass: der Abtastschritt zum Abtasten eines Teilbilds eines Musters dient, das aus einem Grat auf einem Fingerabdruck gebildet wird; und dass der Extraktionsschritt Gratstrukturdaten extrahiert.
  20. Fingerabdruckdaten-Erfassungsprogramm, welches bewirkt, dass ein Computer einen Fingerabdrucksensor des Sweep-Typs betreibt, indem er funktioniert als: Detektionssektion (14) zum Detektieren, jedesmal wenn ein Teilbild von der Abtastsektion (11) abgetastet wird, einer relativen Positionsbeziehung zwischen dem Teilbild und einem von bereits abgetasteten anderen Teilbildern; dadurch gekennzeichnet, dass dieses bewirkt, dass der Computer funktioniert als: Extraktionssektion (13) zum Extrahieren, jedesmal wenn ein Teilbild von der Abtastsektion (11) abgetastet wird, von charakteristischen Identifikationsdaten des Fingerabdrucks aus dem Teilbild, die für den Fingerabdruck einzigartige charakteristische Informationen enthalten; und Synthesesektion (17) zum Synthetisieren, jedesmal wenn ein Teilbild von der Abtastsektion (11) abgetastet wird, der charakteristischen Identifikationsdaten des von der Extraktionssektion (13) extrahierten Teilbilds und charakteristischer Identifikationsdaten des anderen Teilbilds auf der Basis der von der Detektionssektion (14) detektierten relativen Positionsbeziehung des Teilbilds, und Ausgeben eines Ergebnisses der Synthese als Fingerabdruckdaten des Fingerabdrucks.
  21. Fingerabdruckdaten-Erfassungsprogramm nach Anspruch 20, dadurch gekennzeichnet, dass die Extraktionssektion (13A) Gratstrukturdaten extrahiert.
  22. Fingerabdruckdaten-Erfassungsprogramm nach Anspruch 20 oder 21, welches auf einem computerlesbaren Aufzeichnungsmedium aufgezeichnet ist.
DE60311215T 2002-11-12 2003-11-12 Anordnung, Verfahren und Programm zur Erfassung von charakteristischen Daten eines Organismus und entsprechende Anordnung zur Authentifizierung Expired - Lifetime DE60311215T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2002327910 2002-11-12
JP2002327910A JP4262471B2 (ja) 2002-11-12 2002-11-12 生体特徴データ取得装置

Publications (2)

Publication Number Publication Date
DE60311215D1 DE60311215D1 (de) 2007-03-08
DE60311215T2 true DE60311215T2 (de) 2007-05-31

Family

ID=32171352

Family Applications (1)

Application Number Title Priority Date Filing Date
DE60311215T Expired - Lifetime DE60311215T2 (de) 2002-11-12 2003-11-12 Anordnung, Verfahren und Programm zur Erfassung von charakteristischen Daten eines Organismus und entsprechende Anordnung zur Authentifizierung

Country Status (4)

Country Link
US (1) US7599529B2 (de)
EP (1) EP1420360B1 (de)
JP (1) JP4262471B2 (de)
DE (1) DE60311215T2 (de)

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
NZ553687A (en) * 2000-03-30 2010-03-26 Whitehead Biomedical Inst RNA sequence-specific mediators of RNA interference
JP4221220B2 (ja) * 2000-07-24 2009-02-12 株式会社ディー・ディー・エス 指紋照合装置、指紋照合方法及び指紋照合プログラム
DE10339743B4 (de) * 2003-08-28 2007-08-02 Infineon Technologies Ag Verfahren zum Vergleich eines Testfingerabdrucks mit einem gespeicherten Referenzfingerabdruck und zur Durchführung des Verfahrens geeignete Vorrichtung
US20050152585A1 (en) * 2004-01-13 2005-07-14 Will Shatford Print analysis
JP4454335B2 (ja) * 2004-02-12 2010-04-21 Necインフロンティア株式会社 指紋入力装置
JP3996133B2 (ja) * 2004-02-16 2007-10-24 シャープ株式会社 画像照合装置、画像照合方法、画像照合プログラム、および画像照合プログラムを記録したコンピュータ読取可能な記録媒体
US7574022B2 (en) * 2004-05-20 2009-08-11 Atrua Technologies Secure system and method of creating and processing partial finger images
GB0422930D0 (en) * 2004-10-15 2004-11-17 Chui Kui M Image processing
US7248720B2 (en) * 2004-10-21 2007-07-24 Retica Systems, Inc. Method and system for generating a combined retina/iris pattern biometric
FR2878632B1 (fr) * 2004-12-01 2007-02-09 Sagem Procede d'identification d'un individu a partir de fragments d'image
JP4654693B2 (ja) * 2005-01-19 2011-03-23 パナソニック株式会社 検査画像撮像装置
JP4686552B2 (ja) * 2005-02-17 2011-05-25 オーセンテック,インコーポレイテッド 画像リサンプリングを用いた指センサ装置及びこれに関連する方法
TWI303388B (en) 2005-03-18 2008-11-21 Egis Technology Inc A sweep-type image sensing chip with image matching function and processing method therefor
CN100375107C (zh) * 2006-01-18 2008-03-12 北京飞天诚信科技有限公司 指纹图像片段的拼接方法
CN100367296C (zh) * 2006-01-18 2008-02-06 北京飞天诚信科技有限公司 指纹图像采集成像方法
US7764810B2 (en) * 2006-07-20 2010-07-27 Harris Corporation Geospatial modeling system providing non-linear inpainting for voids in geospatial model terrain data and related methods
JP4611427B2 (ja) 2007-01-24 2011-01-12 富士通株式会社 画像読取装置、画像読取プログラム、画像読取方法
JP5050642B2 (ja) * 2007-05-15 2012-10-17 ソニー株式会社 登録装置、照合装置、プログラム及びデータ構造
EP1993061B1 (de) * 2007-05-16 2011-05-04 Precise Biometrics AB Sequentielle Bildausrichtung
EP2003599A1 (de) * 2007-06-14 2008-12-17 Sick Ag Optoelektronischer Sensor und Verfahren zur Erfassung von Codes
JP5040835B2 (ja) * 2008-07-04 2012-10-03 富士通株式会社 生体情報読取装置、生体情報読取方法および生体情報読取プログラム
JP5206218B2 (ja) * 2008-08-20 2013-06-12 富士通株式会社 指紋画像取得装置、指紋認証装置、指紋画像取得方法及び指紋認証方法
JP4985603B2 (ja) * 2008-09-22 2012-07-25 Necインフロンティア株式会社 指紋入力装置、その方法及びそのプログラム
KR101706290B1 (ko) * 2010-07-12 2017-02-27 핑거프린트 카드즈 에이비 생체 측정 인증 디바이스 및 방법
US10713466B2 (en) 2014-03-07 2020-07-14 Egis Technology Inc. Fingerprint recognition method and electronic device using the same
US10528789B2 (en) 2015-02-27 2020-01-07 Idex Asa Dynamic match statistics in pattern matching
US9940502B2 (en) 2015-02-27 2018-04-10 Idex Asa Pre-match prediction for pattern testing
US10157306B2 (en) 2015-02-27 2018-12-18 Idex Asa Curve matching and prequalification
CN105426877B (zh) * 2015-12-22 2019-09-10 金虎林 利用汗腺位置信息的信息识别方法及系统
CN107091704B (zh) * 2016-02-17 2020-10-09 北京小米移动软件有限公司 压力检测方法和装置
CN106657670B (zh) * 2017-01-12 2019-08-27 努比亚技术有限公司 移动终端及基于移动终端的触发应用方法
TWI676911B (zh) * 2017-10-12 2019-11-11 神盾股份有限公司 指紋識別方法以及使用指紋識別方法的電子裝置
US11610430B2 (en) 2018-06-19 2023-03-21 Sony Corporation Information processing apparatus, wearable device, information processing method, and program
KR20200070878A (ko) * 2018-12-10 2020-06-18 삼성전자주식회사 지문 영상 전처리 방법 및 장치
CN111914593A (zh) * 2019-05-08 2020-11-10 上海耕岩智能科技有限公司 图像采集方法及装置、存储介质、电子设备

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59103178A (ja) 1982-12-06 1984-06-14 Matsushita Electric Ind Co Ltd 線図形のストロ−ク抽出装置
DE3581865D1 (de) * 1984-08-30 1991-04-04 Nec Corp Vorverarbeitungssystem fuer die vorverarbeitung einer folge von bildpunkten vor der identifikation.
JPH0640344B2 (ja) 1985-03-01 1994-05-25 株式会社日立製作所 図形の編集方法
US5067162A (en) * 1986-06-30 1991-11-19 Identix Incorporated Method and apparatus for verifying identity using image correlation
JPH05108805A (ja) 1991-10-17 1993-04-30 Nippondenso Co Ltd 指紋照合装置
US6002787A (en) * 1992-10-27 1999-12-14 Jasper Consulting, Inc. Fingerprint analyzing and encoding system
JP2859794B2 (ja) * 1993-05-07 1999-02-24 シャープ株式会社 指の汗腺による個人特定方法
JPH0962840A (ja) * 1995-08-30 1997-03-07 Sony Corp 画像照合方法と画像照合装置
FR2749955B1 (fr) 1996-06-14 1998-09-11 Thomson Csf Systeme de lecture d'empreintes digitales
JPH10105707A (ja) * 1996-09-25 1998-04-24 Sony Corp 画像照合装置
US6134340A (en) * 1997-12-22 2000-10-17 Trw Inc. Fingerprint feature correlator
US6195447B1 (en) * 1998-01-16 2001-02-27 Lucent Technologies Inc. System and method for fingerprint data verification
US6795569B1 (en) 1999-05-11 2004-09-21 Authentec, Inc. Fingerprint image compositing method and associated apparatus
JP3725998B2 (ja) 1999-10-14 2005-12-14 富士通株式会社 指紋照合装置及び照合方法
WO2001080167A1 (en) * 2000-04-13 2001-10-25 Nanyang Technological University Method and device for determining a total minutiae template from a plurality of partial minutiae templates
SE515239C2 (sv) 2000-05-15 2001-07-02 Ericsson Telefon Ab L M Metod för alstring av en sammansatt bild samt en apparat för detektering av fingeravtryck
US6898301B2 (en) 2000-07-10 2005-05-24 Casio Computer Co., Ltd. Authentication system based on fingerprint and electronic device employed for the system
JP3780830B2 (ja) * 2000-07-28 2006-05-31 日本電気株式会社 指紋識別方法及び装置

Also Published As

Publication number Publication date
US20040114784A1 (en) 2004-06-17
DE60311215D1 (de) 2007-03-08
JP4262471B2 (ja) 2009-05-13
JP2004164170A (ja) 2004-06-10
EP1420360B1 (de) 2007-01-17
US7599529B2 (en) 2009-10-06
EP1420360A1 (de) 2004-05-19

Similar Documents

Publication Publication Date Title
DE60311215T2 (de) Anordnung, Verfahren und Programm zur Erfassung von charakteristischen Daten eines Organismus und entsprechende Anordnung zur Authentifizierung
DE60128512T2 (de) Verfahren und Gerät zum Bildvergleich und Mittel zum Speichern des Bildvergleichsprogramms
Perkins Area segmentation of images using edge points
DE602004008872T2 (de) Vorrichtung zur Verifizierung biometrischer Information
Ratha et al. Adaptive flow orientation-based feature extraction in fingerprint images
DE2831582C2 (de) Verfahren zur Identifizierung einer Person und Vorrichtung zur Durchführung des Verfahrens
Agam et al. Geometric separation of partially overlapping nonrigid objects applied to automatic chromosome classification
DE2740395C2 (de) Vorrichtung zum Identifizieren unbekannter Muster
DE60130742T2 (de) Mustererkennung mit hierarchischen Netzen
DE602004002180T2 (de) Objekterkennung
DE60109278T2 (de) Verfahren und Gerät zur Lokalisierung von Schriftzeichen in Bildern aus einer Digitalkamera
DE60016589T2 (de) Verfahren und vorrichtung zur erzeugung eines zusammengesetzten fingerabdruckbildes
DE69920296T2 (de) Verfahren und Vorrichtung zum Registrieren und Vergleichen von Handflächenabdrücken
DE60200829T3 (de) Vorrichtung und Verfahren zur biometrischen Überprüfung und Erfassung der Identität einer Person mittels Fingerabdruckinformationen
DE60037416T2 (de) Drehkorrektur und duplikatbildern detektion mit musterkorrelation mittels diskreter fourier-transform
DE102017220752A1 (de) Bildverarbeitungsvorrichtung, Bildbverarbeitungsverfahren und Bildverarbeitungsprogramm
DE2829808A1 (de) Verfahren und vorrichtung zum lesen von zeichen
EP0886833B1 (de) Verfahren zur erfassung und speicherung gesichtsbezogener personendaten und deren verwendung zur identifizierung oder verifikation von personen
DE102006045828B4 (de) Verfahren und Vorrichtung zum Erkennen eines Gesichts sowie ein Gesichtserkennungsmodul
DE102005025220A1 (de) Gerät, Verfahren und Programm zum Beseitigen von Poren
DE60307916T2 (de) Anordnung und Verfahren zur Bestimmung, ob Bilder einander entsprechen, und zugehöriges Programm
DE10260642B4 (de) Verfahren zur Erstellung einer Referenz für Fingerprints und zum Vergleich von Fingerprints
WO2005073911A1 (de) Bildverarbeitungssystem
Perichappan et al. Accurate fingerprint enhancement and identification using minutiae extraction
DE10118485B4 (de) Automatische Identifikation und/oder Verifikation linienhafter Texturen wie Fingerabdrücke

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8328 Change in the person/name/address of the agent

Representative=s name: SEEGER SEEGER LINDNER PARTNERSCHAFT PATENTANWAELTE