WO2008110441A1 - Digitales verfahren und anordnung zur authentifizierung einer person - Google Patents

Digitales verfahren und anordnung zur authentifizierung einer person Download PDF

Info

Publication number
WO2008110441A1
WO2008110441A1 PCT/EP2008/052023 EP2008052023W WO2008110441A1 WO 2008110441 A1 WO2008110441 A1 WO 2008110441A1 EP 2008052023 W EP2008052023 W EP 2008052023W WO 2008110441 A1 WO2008110441 A1 WO 2008110441A1
Authority
WO
WIPO (PCT)
Prior art keywords
voice
evaluation
sample
voice profile
parameters
Prior art date
Application number
PCT/EP2008/052023
Other languages
English (en)
French (fr)
Inventor
Raja Kuppuswamy
Christian Pilz
Original Assignee
Voice.Trust Ag
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Voice.Trust Ag filed Critical Voice.Trust Ag
Priority to US12/530,883 priority Critical patent/US8600751B2/en
Priority to EP08709111A priority patent/EP2137724A1/de
Publication of WO2008110441A1 publication Critical patent/WO2008110441A1/de

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/22Interactive procedures; Man-machine interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • G10L2015/0631Creating reference templates; Clustering

Definitions

  • the invention relates to a method for authentication of a person on the basis of her voice profile according to the preamble of claim 1 and a corresponding authentication arrangement according to the preamble of claim 12.
  • biometric-based authentication methods make use of certain physical characteristics of the person, such as their fingerprint or retinal pattern, or a voice profile.
  • the invention includes the essential idea of setting the total volume of the speech sample and / or parameters of its evaluation for determining the respective voice profile dynamically and automatically during the speech in response to the result of an evaluation of a first partial speech sample.
  • an optimization of the effectiveness / security of the verification or authentication mechanism is achieved by the dynamic process management.
  • a sequence of user guidance for displaying a plurality of partial speech samples is generated and output in real time or one of a plurality of prestored user guides is selected and output. If the evaluation of the first partial speech sample thus shows that the predetermined safety level can not be achieved by this, the procedure for including further speech material is continued.
  • This idea like all control processes explained here in response to the result of the evaluation of a "first partial speech sample", can be transferred to the state of the system after evaluation of a second or further speech samples. It can thus be advanced step by step from a first to a second and then possibly to further speech samples and corresponding partial evaluations until a sufficient evaluation result is obtained.
  • the evaluation has a determination of fist coefficients or similar parameters of a voice sample preprocessing and the extent of the speech sample and / or parameters of its evaluation are determined as a function of the determined filter coefficients. Furthermore, it can be provided that the evaluation has a determination of transmission parameters of a transmission channel of the speech sample and the extent of the speech sample and / or parameters of their evaluation are determined as a function of the determined transmission parameters. In particular, this makes it possible to respond adequately to certain technical deficiencies, such as the one-touch device or the transmission channel. In particular, the scope of the speech sample and / or parameters of their Evaluation as a result of a comparison classification of the filter coefficients or transmission parameters are decided.
  • a convenient way of evaluating the first Teii speech sample involves comparison processing of a preliminary current vocal profile calculated from the first (or first and second or first to third, etc.) partial speech samples with a stored initial vocal profile, and the scope of the speech sample and / or parameters of their evaluation are determined as a function of the comparison result, in particular the determined degree of agreement.
  • a weighting factor of the first partial speech sample and / or subsequent partial speech samples for the determination of the respective voice profile is set as a parameter of the evaluation.
  • the weighting factor of the first Teii speech sample is set to zero in such a way that the determination of the respective voice profile is restarted.
  • the scope of the speech sample and / or the parameters of its evaluation are also defined as a function of a predetermined confidence minimum value of a registration or authentication process.
  • an embodiment of the system provides that the user guide unit has a plurality of memory areas for storing building blocks of a user guidance and / or several predetermined sequences, and the user guidance control unit for selectively addressing these memory areas and linking their contents to an output-capable user guidance is formed in response to a signal output from the voice profile calculation unit and indicative of the result of an evaluation of the first partial speech sample.
  • the output signal of the voice profile computing unit thus addresses memory areas in which certain user-control blocks are stored, and thus effects a continuation of the authentication procedure adapted to the evaluation result.
  • the voice profile calculation unit has a voice sample preprocessing unit for determining filter coefficients or similar parameters of a voice sample and the user control control unit is connected on the input side to a filter coefficient output of the voice sample preprocessing unit.
  • the voice profile calculation unit has a voice sample preprocessing unit which is designed to determine transmission parameters of a transmission channel of the voice sample, and the user control control unit is connected on the input side to a transmission parameter output of the voice sample preprocessing unit.
  • a system configuration adapted for practicing verification and authentication operations includes a voice profile storage unit and a voice profile comparison unit connected to the voice profile calculation unit and the voice profile storage unit for comparing an initially generated voice profile with a current voice profile and output a control signal to the user guidance control unit or the evaluation control unit in response to the comparison result.
  • the practice of the invention is not limited to the aspects and effects highlighted above, but is possible in a variety of variations, which are within the skill of the art.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Security & Cryptography (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Electrically Operated Instructional Devices (AREA)
  • Collating Specific Patterns (AREA)

Abstract

Digitales Verfahren zur Authentifizierung einer Person durch Vergleich eines aktuellen Stimmprofils mit einem vorgespeicherten initialen Stimmprofil, wobei die Person zur Bestimmung des jeweiligen Stimmprofils mindestens eine Sprachprobe einspricht, die eingesprochene Sprachprobe einer Stimmprofil-Berechnungseinheit zugeführt wird und hieraus aufgrund eines vorbestimmten Stimmprofil-Algorithmus das Stimmprofil errechnet wird, wobei der Gesamtumfang der Sprachprobe und/oder Parameter ihrer Auswertung zur Bestimmung des jeweiligen Stimmprofils dynamisch und selbsttätig während des Einsprechens in Reaktion auf das Ergebnis einer Auswertung einer ersten Teil-Sprachprobe festgelegt werden.

Description

Digitales Verfahren und Anordnung zur Authentifizierung einer Person
Beschreibung
Die Erfindung betrifft ein Verfahren zur Authentifizierung einer Person aufgrund ihres Stimmprofils nach dem Oberbegriff des Anspruchs 1 sowie eine entsprechende Authentifizierungs-Anordnung nach dem Oberbegriff des Anspruchs 12.
Althergebrachte Verfahren zur Authentifizierung einer Person basieren auf der Überprüfung, ob die Person im Besitz bestimmter Gegenstände (traditionell etwa Siegel oder Pass, neuerdings auch Zugangskarte oder Token) oder von individualisiertem Wissen (etwa PIN oder Passwort) ist. Authentifizierungs-Verfahren auf biometrischer Basis bedienen sich hingegen bestimmter körperlicher Merkmaie der Person, etwa ihres Fingerabdrucks oder Retinamusters oder eines Stimmprofils.
Zu den letzteren Verfahren gibt es seit einigen Jahren umfangreiche Entwicklungsarbeiten, die auch bereits zu marktgängigen Produkten geführt haben. Im Rahmen dieser Entwicklungen nimmt die Frage der Brauchbarkeit von „Spuren" der Person für die Authentifizierung oder auch eine anfängliche Registrierung (das sogenannte Enroüment) breiten Raum ein, sowohl unter dem Gesichtspunkt der Erkennungsbzw. Authentifϊzierungs-Sicherheit als auch unter dem Gesichtspunkt der Nutzerakzeptanz, nämlich des Vermeidens langer und umständlicher Prozeduren.
Bei Verfahren der gattungsgemäßen Art geht es hierbei um die Brauchbarkeit gelieferter Sprachproben für die Registrierung bzw. Authentifizierung des Nutzers und um sich hieraus ergebende Steuerungs-Einflüsse auf die Verfahrensführung. Besondere Bedeutung für die praktische Akzeptanz und damit die kommerzielle Verbreitung der in Rede stehenden Verfahren hat die zuverlässige Erreichung eines durch den System-Nutzer vordefinierten Sicherheitsniveaus.
Gegenstand der Entwicklungen sind daher auch geeignete Maßnahmen für den Fall, dass dieses Sicherheitsniveau aufgrund von in der Praxis beim Sprachmaterial oder der Verfahrensführung auftretenden Problemen nicht erreicht werden sollte. Derar- tige Probleme können etwa in der aktuellen physischen und psychischen Verfassung des Sprechers, in Hintergrundgeräuschen und in einer geringen Qualität des Übertragungskanals oder des zum Einsprechen von Sprachproben verwendeten Gerätes liegen.
Es ist daher Aufgabe der Erfindung, ein verbessertes Verfahren und eine entsprechende Anordnung bereitzustellen, mit denen sich eine hohe Nutzerfreundlichkeit und -akzeptanz vorteilhaft mit der Erfüllung hoher Sicherheitsanforderungen verknüpfen lässt.
Diese Aufgabe wird in ihrem Verfahrenssuspekt durch ein Verfahren mit den Merkmalen des Anspruchs 1 und in ihrem Vorrichtungsaspekt durch eine Anordnung mit den Merkmalen des Anspruchs 12 gelöst. Zweckmäßige Fortbildung des Erfindungsgedankens sind Gegenstand der jeweiligen abhängigen Ansprüche.
Die Erfindung schließt den wesentlichen Gedanken ein, den Gesamtumfang der Sprachprobe und/oder Parameter ihrer Auswertung zur Bestimmung des jeweiligen Stimmprofils dynamisch und selbsttätig während des Einsprechens in Reaktion auf das Ergebnis einer Auswertung einer ersten Teil-Sprachprobe festzulegen.
Auf diese Weise kann dynamisch in Quasi-Echtzeit entschieden werden, wieviel Sprachmaterial im Rahmen des verwendeten Algorithmus bzw. der eingesetzten Heuristik in eine stimmprofil-basierte Entscheidung des Authentifizierungssystems einfließt.
Hierdurch wird in vorteilhafter Weise erreicht, dass die Belastung des Sprechers insofern minimiert wird, als er nur im unbedingt erforderlichen Umfang zu Spracheingaben aufgefordert und damit die Dauer der Authentifizierungsprozedur verkürzt wird. Dies hat letztlich eine Erhöhung der Nutzerakzeptanz (bezogen auf die zur Nutzung des Systems verpflichteten Personen) zur Folge. Außerdem wird durch die dynamische Verfahrensführung eine Optimierung der Wirksamkeit/Sicherheit des Verifizierungs- bzw. Authentifizierungsmechanismus erreicht. In einer bevorzugten Verfahrensführung ist vorgesehen, dass in Reaktion auf das Ergebnis einer Auswertung der ersten Teil-Sprachprobe in einem vorbestimmten Ablauf einer Benutzerführung zur Ausgabe mehrerer Teil-Sprachproben eine Abbruch-Markierung gesetzt und die Ausgabe der Benutzerführung an dieser beendet wird. Dies wird stattfinden, wenn bereits mit einem Teil der vorgesehenen Sprachproben eine derartige Auswertung gelingt, dass das vordefinierte Sicherheitsniveau erreicht wird.
Alternativ ist vorgesehen, dass in Reaktion auf das Ergebnis einer Auswertung der ersten Teil-Sprachprobe ein Ablauf einer Benutzerführung zur Anzeige mehrerer Teil-Sprachproben in Echtzeit generiert und ausgegeben wird oder eine von mehreren vorgespeicherten Benutzerführungen ausgewählt und ausgegeben wird. Sofern die Auswertung der ersten Teil-Sprachprobe also zeigt, dass das vorbestimmte Sicherheitsniveau damit nicht zu erreichen ist, wird das Prozedere zur Einbeziehung weiteren Sprachmaterials fortgesetzt. Dieser Gedanke ist, wie alle hier erläuterten Steuerungsabläufe in Reaktion auf das Ergebnis der Auswertung einer "ersten Teil- Sprachprobe", auf den Zustand des Systems nach Auswertung einer zweiten oder weiterer Sprachproben übertragbar. Es kann also Schritt um Schritt von einer ersten zu einer zweiten und dann ggf. zu weiteren Sprachproben und entsprechenden partiellen Auswertungen fortgeschritten werden, bis ein hinreichendes Auswertungsergebnis vorliegt.
In einer weiteren Ausführung des Verfahrens ist vorgesehen, dass die Auswertung eine Ermittlung von Fisterkoeffizienten oder dergleichen Parametern einer Sprachproben-Vorverarbeitung aufweist und der Umfang der Sprachprobe und/oder Parameter ihrer Auswertung in Abhängigkeit von den ermittelten Filterkoeffizienten festgelegt werden. Desweiteren kann vorgesehen sein, dass die Auswertung eine Ermittlung von Übertragungsparametern eines Übertragungskanals der Sprachprobe aufweist und der Umfang der Sprachprobe und/oder Parameter ihrer Auswertung in Abhängigkeit von den ermittelten Übertragungsparametern festgelegt werden. Hierdurch ist insbesondere eine angemessene Reaktion auf bestimmte technische Defizite, etwa beim Einsprech-Gerät oder im Übertragungskanal, möglich. Insbesondere kann hierbei der Umfang der Sprachprobe und/oder Parameter ihrer Auswertung im Ergebnis einer Vergleichs-Klassifizierung der Filterkoeffizienten bzw, Übertragungsparameter entschieden werden.
Eine zweckmäßige Art der Auswertung der ersten Teii-Sprachprobe uinfasst eine Vergleichs-Verarbeitung eines aus der ersten (oder ersten und zweiten oder ersten bis dritten usw.) Teil-Sprachprobe berechneten vorläufigen aktuellen Stimmprofils mit einem gespeicherten initialen Stimmprofil, und der Umfang der Sprachprobe und/oder Parameter ihrer Auswertung werden in Abhängigkeit vom Vergleichsergebnis, insbesondere vom ermittelten Grad an Übereinstimmung, festgelegt.
Sofern das Gesamt-Procedere die Auswertung mehrerer Teii-Sprachproben einschließt, ist in einer weiteren Ausführung vorgesehen, dass als Parameter der Auswertung ein Gewichtungsfaktor der ersten Teil-Sprachprobe und/oder nachfolgender Teil-Sprachproben für die Bestimmung des jeweiligen Stimmprofils eingestellt wird. Insbesondere kann hierbei, wenn sich bei der Auswertung der ersten Teil- Sprachprobe grundlegende Defizite gezeigt haben, der Gewichtungsfaktor der ersten Teii-Sprachprobe auf Null gesetzt wird derart, dass die Bestimmung des jeweiligen Stimmprofils neu gestartet wird.
Bei den jeweiligen Ausgestaltungen des Verfahrens kann es sinnvoll sein, dass der Umfang der Sprachprobe und/oder die Parameter ihrer Auswertung auch in Abhängigkeit von einem vorgegebenen Konfidenz-Minimalwert eines Registrierungs- oder Authentifizierungsablaufes festgelegt werden.
Die Ausgestaltung der erfindungsgemäßen Anordnung bzw. des Authentifizierungs- Systems ergibt sich im wesentlichen aus den oben erwähnten Ausgestaltungen des Verfahrens, und auf eine Wiederholung dieser Aspekte wird im Anordnungs-Kontext daher verzichtet, Es wird aber darauf hingewiesen, dass die Anordnung als wesentliche Komponenten eine Benutzerführungs-Steuereinheit und/oder eine Auswertungs-Steuereinheit aufweist, mit denen die Stimmprofilberechnung über eine Minimalkonfiguration hinaus (mit entsprechender Benutzerführung) fortgeführt bzw. eine geeignete Steuerung des Auswertungsvorganges realisiert werden. Hinsichtlich der Benutzerführung sieht eine Ausgestaltung des Systems vor, dass die Benutzerführuπgseinheit eine Mehrzahl von Speicherbereichen zur Speicherung von Bausteinen einer Benutzerführung und/oder von mehreren vorbestimmten Abläufen aufweist und die Benutzerführungs-Steuereinheit zur selektiven Adressierung dieser Speicherbereiche und der Verknüpfung ihrer Inhalte zu einer ausgabefähigen Benutzerführung in Reaktion auf ein aus der Stimmprofil-Berechnungseinheit ausgegebenes, das Ergebnis einer Auswertung der ersten Teil-Sprachprobe kennzeichnendes Signal ausgebildet ist. Das Ausgangssignal der Stimm profil- Berechnungseinheit adressiert also Speicherbereiche, in denen bestimmte Benut- zerführungs-Bausteine gespeichert sind, und bewirkt somit eine an das Auswertungsergebnis angepasste Fortführung des Authentifizierungs-Procederes.
Hinsichtlich der Stimmprofil-Berechnungseinheit ist eine Ausgestaltung vorgesehen, bei der diese eine Sprachproben-Vorverarbeitungseinheit zur Bestimmung von Filterkoeffizienten oder dergleichen Parametern einer eingesprochene Sprachprobe aufweist und die Benutzerführungs-Steuereinheit eingangsseitig mit einem Filterkoeffizienten-Ausgang der Sprachproben-Vorverarbeitungseinheit verbunden ist. Alternativ oder in Kombination hiermit kann vorgesehen sein, dass die Stimmprofil- Berechnungseinheit eine Sprachproben-Vorverarbeitungseinheit aufweist, die zur Ermittlung von Übertragungsparametern eines Übertragungskanals der Sprachprobe ausgebildet ist, und die Benutzerführungs-Steuereinheit eingangsseitig mit einem Übertragungsparameter-Ausgang der Sprachproben-Vorverarbeitungseinheit verbunden ist.
Eine Systemkonfiguration, die zur praktischen Ausführung von Verifikations- bzw. Authentifizierungsvorgängen ausgebildet ist, umfasst eine Stimmprofil-Speichereinheit sowie eine mit der Stimmprofil-Berechnungseinheit und der Stimmprofii- Speichereinheit verbundene Stimmprofil-Vergleichereinheit zum Vergleich eines initial erzeugten Stimmprofils mit einem aktuellen Stimmprofil und zur Ausgabe eines Steuersignals an die Benutzerführungs-Steuereinheit oder die Auswertungs-Steuereinheit im Ansprechen auf das Vergleichsergebnis. Die Ausführung der Erfindung ist nicht auf die vorstehend hervorgehobenen Aspekte und Wirkungen beschränkt, sondern in einer Vielzahl von Abwandlungen möglich, die im Rahmen fachmännischen Handelns liegen.

Claims

Patentansprüche
1. Digitales Verfahren zur Authentifizierung einer Person durch Vergleich eines aktuellen Stimmprofils mit einem vorgespeicherten initialen Stimmprofil, wobei die Person zur Bestimmung des jeweiligen Stimmprofils mindestens eine Sprachprobe einspricht, die eingesprochene Sprachprobe einer Stimmprofil- Berechnungseinheit zugeführt wird und hieraus aufgrund eines vorbestimmten Stimmprofü-Algorithmus das Stimmprofil errechnet wird, d a d u rc h g eke n n ze i ch n et, d a ss der Gesamtumfang der Sprachprobe und/oder Parameter ihrer Auswertung zur Bestimmung des jeweiligen Stimmprofils dynamisch und selbsttätig während des Einsprechens in Reaktion auf das Ergebnis einer Auswertung einer ersten Teil-Sprachprobe festgelegt werden,
2. Verfahren nach Anspruch 1, d a d u rc h g e ke n n ze i ch n et, d a ss in Reaktion auf das Ergebnis einer Auswertung der ersten Teil-Sprachprobe in einem vorbestimmten Ablauf einer Benutzerführung zur Ausgabe mehrerer Teil-Sprachproben eine Abbruch-Markierung gesetzt und die Ausgabe der Benutzerführung an dieser beendet wird.
3. Verfahren nach Anspruch 1, d a d u rc h g e ke n n zei ch n et, d a ss in Reaktion auf das Ergebnis einer Auswertung der ersten Teil-Sprachprobe ein Ablauf einer Benutzerführung zur Anzeige mehrerer Teil-Sprachproben in Echtzeit generiert und ausgegeben wird.
4. Verfahren nach Anspruch 1, d a d u rch g e ke n n zei c h n et, d a ss in Reaktion auf das Ergebnis einer Auswertung der ersten Teil-Sprachprobe einer von mehreren vorgespeicherten Abläufen einer Benutzerführung ausgewählt und ausgegeben wird.
5. Verfahren nach einem der vorangehenden Ansprüche, d ad u rch g e ke n nze i ch n et, d a ss die Auswertung eine Ermittlung von Filterkoeffizienten oder dergleichen Parametern einer Sprachproben-Vorverarbeitung aufweist und der Umfang der Sprachprobe und/oder Parameter ihrer Auswertung in Abhängigkeit von den ermittelten Filterkoeffizienten festgelegt werden.
6. Verfahren nach einem der Ansprüche 1 bis 4, d a d u rch g e ke n n ze i ch n et, d a ss die Auswertung eine Ermittlung von Übertragungsparametern eines Übertra- gungskanals der Sprachprobe aufweist und der Umfang der Sprachprobe und/oder Parameter ihrer Auswertung in Abhängigkeit von den ermittelten Übertragungsparametern festgelegt werden.
7. Verfahren nach Anspruch 5 oder 6, d a d u rc h g e ke n n ze i ch n et, d a ss der Umfang der Sprachprobe und/oder Parameter ihrer Auswertung im Ergebnis einer Vergleichs-Klassifizierung der Filterkoeffizienten bzw. Übertragungsparameter entschieden werden.
8. Verfahren nach einem der vorangehenden Ansprüche, d a d u rc h g e ke n n ze i ch n et, d a ss die Auswertung eine Vergleichs-Verarbeitung eines aus der ersten Teii- Sprachprobe berechneten vorläufigen aktuellen Stimmprofils mit einem gespeicherten initialen Stimmprofil aufweist und der Umfang der Sprachprobe und/oder Parameter ihrer Auswertung in Abhängigkeit vom Vergleichsergeb- nis, insbesondere vom ermittelten Grad an Übereinstimmung, festgelegt werden.
9. Verfahren nach einem der vorangehenden Ansprüche, d a d u rc h g e ke n n ze i c h ne t, d a ss als Parameter der Auswertung ein Gewichtungsfaktor der ersten Teü-Sprach- probe und/oder nachfolgender Teil-Sprachproben für die Bestimmung des jeweiligen Stimmprofils eingestellt wird.
10. Verfahren nach Anspruch 9, d a d u rc h g e ke n n ze i ch n et, d a ss der Gewichtungsfaktor der ersten Teil-Sprachprobe auf Null gesetzt wird derart, dass die Bestimmung des jeweiligen Stimmprofils neu gestartet wird.
11. Verfahren nach einem der vorangehenden Ansprüche, d a d u rc h g e ke n n ze i ch n et, d a ss der Umfang der Sprachprobe und/oder Parameter ihrer Auswertung auch in Abhängigkeit von einem vorgegebenen Koπfidenz-Minimalwert eines Regis- trϊerungs- oder Authentifizierungsabiaufes festgelegt werden.
12. Anordnung zur Durchführung des Verfahrens nach einem der vorangehenden Ansprüche, mit
- einer Sprachproben-Eingabeschnittsteile,
- einer eingangsseitig mit der Sprachproben-Eingabeschnittstelle verbundenen Stimmprofü-Berechnungseinheit und
- einer Benutzerführungseinheit zur Bereitstellung einer Benutzerführung, insbesondere zur Anforderung eingesprochener Sprachproben und/oder zur Ausgabe vorbestimmter Sprachproben zum Einsprechen durch die zu identifizierende Person, g e ke n n zei c h n et d u rc h eine mindestens unmittelbar mit einem Ausgang der Stimmprofil-Berechnungseinheit verbundene Benutzerführungs-Steuereinheit zur Beeinflussung der Benutzerführung und/oder eine mit einem Steuereingang der Stimmprofil-Berechnungseinheit verbundene Auswertungs-Steuereinheit zur Steuerung von Parametern der Sprachproben-Auswertung, in Reaktion auf ein aus der Stimmprofil-Berechnungseinheit ausgegebenes, das Ergebnis einer Auswertung der ersten Teil- Sprachprobe kennzeichnendes Signal.
13. Anordnung nach Anspruch 12, d a d u rc h g e ke n n zei ch n et, d a s s die Benutzerführungseinheit eine Mehrzahl von Speicherbereichen zur Ξpei- cherung von Bausteinen einer Benutzerführung und/oder von mehreren vorbestimmten Abläufen aufweist und die Benutzerführungs-Steuereinheit zur selektiven Adressierung dieser Speicherbereiche und der Verknüpfung ihrer Inhalte zu einer ausgabefähigen Benutzerführung in Reaktion auf ein aus der Stimmprofil-Berechnungseinheit ausgegebenes, das Ergebnis einer Auswertung der ersten Teil-Sprachprobe kennzeichnendes Signal ausgebildet ist.
14. Anordnung nach Anspruch 12 oder 13, d a d u rc h g e ke n n ze i c h n e t, d a ss die Stimmprofü-Berechnungseinheit eine Sprachproben-Vorverarbeitungseinheit zur Bestimmung von Filterkoeffizienten oder dergleichen Parametern einer eingesprochene Sprachprobe aufweist und die Benutzerführungs- Steuereinheit eingangsseitig mit einem Filterkoeffizienten-Ausgang der Sprachproben-Vorverarbeitungseinheit verbunden ist.
15. Anordnung nach einem der Ansprüche 12 bis 14, d a d u rc h g e ke n n ze i c h n et, d a ss die Stimmprofil-Berechnungseinheit eine Sprachproben-Vorverarbeitungseinheit aufweist, die zur Ermittlung von Übertragungsparametern eines Übertragungskanals der Sprachprobe ausgebildet ist, und die Benutzerführungs-Steuereinheit eingangsseitig mit einem Übertragungsparameter- Ausgang der Sprachproben-Vorverarbeitungseinheit verbunden ist.
16. Anordnung nach einem der vorangehenden Ansprüche, g e ke n n ze i ch n et d u rc h eine Stimmprofil-Speichereinheit sowie eine mit der Stimmprofil-Berechnungseinheit und der Stimmprofil-Speichereinheit verbundene Stimrnprofil- Vergieichereinheit zum Vergleich eines initial erzeugten Stimmprofils mit einem aktuellen Stimmprofil und zur Ausgabe eines Steuersignals an die Be- nutzerführungs-Steuereinheit oder die Auswertungs-Steuereinheit im Ansprechen auf das Vergleichsergebnis.
PCT/EP2008/052023 2007-03-12 2008-02-19 Digitales verfahren und anordnung zur authentifizierung einer person WO2008110441A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US12/530,883 US8600751B2 (en) 2007-03-12 2008-02-19 Digital method and arrangement for authenticating a person
EP08709111A EP2137724A1 (de) 2007-03-12 2008-02-19 Digitales verfahren und anordnung zur authentifizierung einer person

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102007011831.9 2007-03-12
DE102007011831A DE102007011831A1 (de) 2007-03-12 2007-03-12 Digitales Verfahren und Anordnung zur Authentifizierung einer Person

Publications (1)

Publication Number Publication Date
WO2008110441A1 true WO2008110441A1 (de) 2008-09-18

Family

ID=39322554

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2008/052023 WO2008110441A1 (de) 2007-03-12 2008-02-19 Digitales verfahren und anordnung zur authentifizierung einer person

Country Status (4)

Country Link
US (1) US8600751B2 (de)
EP (1) EP2137724A1 (de)
DE (1) DE102007011831A1 (de)
WO (1) WO2008110441A1 (de)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9117451B2 (en) 2013-02-20 2015-08-25 Google Inc. Methods and systems for sharing of adapted voice profiles
IN2013MU01148A (de) * 2013-03-26 2015-04-24 Tata Consultancy Services Ltd
US9686274B2 (en) * 2013-10-11 2017-06-20 Microsoft Technology Licensing, Llc Informed implicit enrollment and identification
US9349014B1 (en) * 2015-01-23 2016-05-24 Fmr Llc Determining an indicator of aggregate, online security fitness
CN106302330B (zh) * 2015-05-21 2021-01-05 腾讯科技(深圳)有限公司 身份验证方法、装置和系统
US10521662B2 (en) 2018-01-12 2019-12-31 Microsoft Technology Licensing, Llc Unguided passive biometric enrollment

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1998023062A1 (en) * 1996-11-22 1998-05-28 T-Netix, Inc. Voice recognition for information system access and transaction processing
US20060294390A1 (en) * 2005-06-23 2006-12-28 International Business Machines Corporation Method and apparatus for sequential authentication using one or more error rates characterizing each security challenge

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4989248A (en) * 1983-01-28 1991-01-29 Texas Instruments Incorporated Speaker-dependent connected speech word recognition method
US5365574A (en) * 1990-05-15 1994-11-15 Vcs Industries, Inc. Telephone network voice recognition and verification using selectively-adjustable signal thresholds
US6081782A (en) * 1993-12-29 2000-06-27 Lucent Technologies Inc. Voice command control and verification system
US5522012A (en) * 1994-02-28 1996-05-28 Rutgers University Speaker identification and verification system
DE19630109A1 (de) * 1996-07-25 1998-01-29 Siemens Ag Verfahren zur Sprecherverifikation anhand mindestens eines von einem Sprecher eingesprochenen Sprachsignals, durch einen Rechner
US6292782B1 (en) * 1996-09-09 2001-09-18 Philips Electronics North America Corp. Speech recognition and verification system enabling authorized data transmission over networked computer systems
DE19841167A1 (de) * 1998-09-09 2000-03-16 Deutsche Telekom Ag Verfahren zur Gebührenabrechnung für die Sprachtelefone an einem Festnetz- oder Mobiltelefonanschluß sowie Kommunikationsnetz
DE19841166A1 (de) * 1998-09-09 2000-03-16 Deutsche Telekom Ag Verfahren zur Kontrolle der Zugangsberechtigung für die Sprachtelefonie an einem Festnetz- oder Mobiltelefonanschluß sowie Kommunikationsnetz
EP1006508A1 (de) * 1998-11-27 2000-06-07 Ascom Systec AG Verfahren zur Ueberprüfung einer Benutzerberechtigung
EP1006507A1 (de) * 1998-11-27 2000-06-07 Ascom Systec AG Verfahren zur Durchführung einer Sprechererkennung
IL129451A (en) * 1999-04-15 2004-05-12 Eli Talmor System and method for authentication of a speaker
US6748356B1 (en) * 2000-06-07 2004-06-08 International Business Machines Corporation Methods and apparatus for identifying unknown speakers using a hierarchical tree structure
US7177808B2 (en) * 2000-11-29 2007-02-13 The United States Of America As Represented By The Secretary Of The Air Force Method for improving speaker identification by determining usable speech
US6973426B1 (en) * 2000-12-29 2005-12-06 Cisco Technology, Inc. Method and apparatus for performing speaker verification based on speaker independent recognition of commands
US7054817B2 (en) * 2002-01-25 2006-05-30 Canon Europa N.V. User interface for speech model generation and testing
DE10204436B4 (de) * 2002-02-04 2004-09-09 Kuebler, Hans, Dr. Kontinuierliche Sprecherüberprüfung mittels Spracheingabe
US20040186724A1 (en) * 2003-03-19 2004-09-23 Philippe Morin Hands-free speaker verification system relying on efficient management of accuracy risk and user convenience
US8255223B2 (en) * 2004-12-03 2012-08-28 Microsoft Corporation User authentication by combining speaker verification and reverse turing test
US7937269B2 (en) * 2005-08-22 2011-05-03 International Business Machines Corporation Systems and methods for providing real-time classification of continuous data streams
US7822605B2 (en) * 2006-10-19 2010-10-26 Nice Systems Ltd. Method and apparatus for large population speaker identification in telephone interactions

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1998023062A1 (en) * 1996-11-22 1998-05-28 T-Netix, Inc. Voice recognition for information system access and transaction processing
US20060294390A1 (en) * 2005-06-23 2006-12-28 International Business Machines Corporation Method and apparatus for sequential authentication using one or more error rates characterizing each security challenge

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
ARUN C SURENDRAN: "Sequential Decisions for Faster and More Flexible Verification", EUROSPEECH, vol. 2, September 2001 (2001-09-01), Aalborg, Dänemark, pages 763 - 766, XP007005117 *
See also references of EP2137724A1 *

Also Published As

Publication number Publication date
US20120095763A1 (en) 2012-04-19
EP2137724A1 (de) 2009-12-30
US8600751B2 (en) 2013-12-03
DE102007011831A1 (de) 2008-09-18

Similar Documents

Publication Publication Date Title
DE69938374T2 (de) Verfahren und Vorrichtung zur Spracherkennung mittels sowohl eines neuralen Netzwerks als auch verborgener Markov-Modelle
DE102008058883B4 (de) Verfahren und Anordnung zur Steuerung eines Nutzerzugriffs
WO2008110441A1 (de) Digitales verfahren und anordnung zur authentifizierung einer person
DE60301767T9 (de) Normalisierung eines Verifizierungsmasses in einer Vorrichtung zur Sprecherverifikation
DE60014063T2 (de) Vorrichtung und verfahren zur erkennung von gefühlen in der menschlichen stimme
DE60213195T2 (de) Verfahren, System und Computerprogramm zur Sprach-/Sprechererkennung unter Verwendung einer Emotionszustandsänderung für die unüberwachte Anpassung des Erkennungsverfahrens
DE60108373T2 (de) Verfahren zur Detektion von Emotionen in Sprachsignalen unter Verwendung von Sprecheridentifikation
WO2008090188A2 (de) Verfahren und anordnung zur erzeugung eines signierten text- und/oder bilddokuments
DE60128270T2 (de) Verfahren und System zur Erzeugung von Sprechererkennungsdaten, und Verfahren und System zur Sprechererkennung
DE3216800A1 (de) Anordnung zur eingabe von befehlsworten durch sprache
DE112018006885B4 (de) Trainingsvorrichtung,sprachaktivitätsdetektor und verfahren zur erfassung einer sprachaktivität
EP0964390A2 (de) Vorrichtung zur Verifizierung von Signalen
EP1191517A2 (de) Dialogsystem
DE69636731T2 (de) System und Verfahren zur Aufnahme von Namen in einer Spracherkennungsdatenbank
DE10163814A1 (de) Verfahren und Einrichtung zur Nutzeridentifizierung
DE102008040258A1 (de) Verfahren und Vorrichtung zur Verbesserung biometrischer Identifizierungssysteme
DE102007005704B4 (de) Digitales Verfahren zur Authentifizierung einer Person und Anordnung zu dessen Durchführung
DE4012337A1 (de) Verfahren zur erkennung von sprache
DE102009044173A1 (de) Kreuzweiser Abgleich von Tippverhaltensdaten zur Authentifizierung und/oder Identifizierung einer Person
DE602004012720T2 (de) Verfahren zur Qualitätskontrolle einer industriellen Anlage und System dafür
WO1998040825A2 (de) Sichere identifikation mit vorauswahl und rückweisungsklasse
DE60301773T2 (de) Verfahren und Gerät für die Montage eines Haushaltgeräts in einem Schrank
DE3310554A1 (de) Verfahren und vorrichtung zum automatischen pruefen der uebereinstimmung eines gesprochenen befehls mit einem von mehreren gespeicherten bezugsbefehlen
DE102006049658B4 (de) Zugangsberechtigungsverfahren und -system
DE60214726T2 (de) Verfahren und system zur zugangsregelung

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 08709111

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

REEP Request for entry into the european phase

Ref document number: 2008709111

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2008709111

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 12530883

Country of ref document: US