WO2008110441A1 - Digitales verfahren und anordnung zur authentifizierung einer person - Google Patents
Digitales verfahren und anordnung zur authentifizierung einer person Download PDFInfo
- Publication number
- WO2008110441A1 WO2008110441A1 PCT/EP2008/052023 EP2008052023W WO2008110441A1 WO 2008110441 A1 WO2008110441 A1 WO 2008110441A1 EP 2008052023 W EP2008052023 W EP 2008052023W WO 2008110441 A1 WO2008110441 A1 WO 2008110441A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- voice
- evaluation
- sample
- voice profile
- parameters
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 36
- 238000011156 evaluation Methods 0.000 claims abstract description 44
- 230000004044 response Effects 0.000 claims abstract description 15
- 238000004364 calculation method Methods 0.000 claims abstract description 14
- 230000005540 biological transmission Effects 0.000 claims description 16
- 238000007781 pre-processing Methods 0.000 claims description 10
- 230000006870 function Effects 0.000 claims description 7
- 230000001755 vocal effect Effects 0.000 claims description 3
- 230000001419 dependent effect Effects 0.000 claims description 2
- 238000012545 processing Methods 0.000 claims description 2
- 238000011161 development Methods 0.000 description 4
- 230000018109 developmental process Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 230000007812 deficiency Effects 0.000 description 1
- 230000006735 deficit Effects 0.000 description 1
- 238000012854 evaluation process Methods 0.000 description 1
- 230000006996 mental state Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000002207 retinal effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/22—Interactive procedures; Man-machine interfaces
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/31—User authentication
- G06F21/32—User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
- G10L2015/0631—Creating reference templates; Clustering
Definitions
- the invention relates to a method for authentication of a person on the basis of her voice profile according to the preamble of claim 1 and a corresponding authentication arrangement according to the preamble of claim 12.
- biometric-based authentication methods make use of certain physical characteristics of the person, such as their fingerprint or retinal pattern, or a voice profile.
- the invention includes the essential idea of setting the total volume of the speech sample and / or parameters of its evaluation for determining the respective voice profile dynamically and automatically during the speech in response to the result of an evaluation of a first partial speech sample.
- an optimization of the effectiveness / security of the verification or authentication mechanism is achieved by the dynamic process management.
- a sequence of user guidance for displaying a plurality of partial speech samples is generated and output in real time or one of a plurality of prestored user guides is selected and output. If the evaluation of the first partial speech sample thus shows that the predetermined safety level can not be achieved by this, the procedure for including further speech material is continued.
- This idea like all control processes explained here in response to the result of the evaluation of a "first partial speech sample", can be transferred to the state of the system after evaluation of a second or further speech samples. It can thus be advanced step by step from a first to a second and then possibly to further speech samples and corresponding partial evaluations until a sufficient evaluation result is obtained.
- the evaluation has a determination of fist coefficients or similar parameters of a voice sample preprocessing and the extent of the speech sample and / or parameters of its evaluation are determined as a function of the determined filter coefficients. Furthermore, it can be provided that the evaluation has a determination of transmission parameters of a transmission channel of the speech sample and the extent of the speech sample and / or parameters of their evaluation are determined as a function of the determined transmission parameters. In particular, this makes it possible to respond adequately to certain technical deficiencies, such as the one-touch device or the transmission channel. In particular, the scope of the speech sample and / or parameters of their Evaluation as a result of a comparison classification of the filter coefficients or transmission parameters are decided.
- a convenient way of evaluating the first Teii speech sample involves comparison processing of a preliminary current vocal profile calculated from the first (or first and second or first to third, etc.) partial speech samples with a stored initial vocal profile, and the scope of the speech sample and / or parameters of their evaluation are determined as a function of the comparison result, in particular the determined degree of agreement.
- a weighting factor of the first partial speech sample and / or subsequent partial speech samples for the determination of the respective voice profile is set as a parameter of the evaluation.
- the weighting factor of the first Teii speech sample is set to zero in such a way that the determination of the respective voice profile is restarted.
- the scope of the speech sample and / or the parameters of its evaluation are also defined as a function of a predetermined confidence minimum value of a registration or authentication process.
- an embodiment of the system provides that the user guide unit has a plurality of memory areas for storing building blocks of a user guidance and / or several predetermined sequences, and the user guidance control unit for selectively addressing these memory areas and linking their contents to an output-capable user guidance is formed in response to a signal output from the voice profile calculation unit and indicative of the result of an evaluation of the first partial speech sample.
- the output signal of the voice profile computing unit thus addresses memory areas in which certain user-control blocks are stored, and thus effects a continuation of the authentication procedure adapted to the evaluation result.
- the voice profile calculation unit has a voice sample preprocessing unit for determining filter coefficients or similar parameters of a voice sample and the user control control unit is connected on the input side to a filter coefficient output of the voice sample preprocessing unit.
- the voice profile calculation unit has a voice sample preprocessing unit which is designed to determine transmission parameters of a transmission channel of the voice sample, and the user control control unit is connected on the input side to a transmission parameter output of the voice sample preprocessing unit.
- a system configuration adapted for practicing verification and authentication operations includes a voice profile storage unit and a voice profile comparison unit connected to the voice profile calculation unit and the voice profile storage unit for comparing an initially generated voice profile with a current voice profile and output a control signal to the user guidance control unit or the evaluation control unit in response to the comparison result.
- the practice of the invention is not limited to the aspects and effects highlighted above, but is possible in a variety of variations, which are within the skill of the art.
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Security & Cryptography (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Electrically Operated Instructional Devices (AREA)
- Collating Specific Patterns (AREA)
Abstract
Digitales Verfahren zur Authentifizierung einer Person durch Vergleich eines aktuellen Stimmprofils mit einem vorgespeicherten initialen Stimmprofil, wobei die Person zur Bestimmung des jeweiligen Stimmprofils mindestens eine Sprachprobe einspricht, die eingesprochene Sprachprobe einer Stimmprofil-Berechnungseinheit zugeführt wird und hieraus aufgrund eines vorbestimmten Stimmprofil-Algorithmus das Stimmprofil errechnet wird, wobei der Gesamtumfang der Sprachprobe und/oder Parameter ihrer Auswertung zur Bestimmung des jeweiligen Stimmprofils dynamisch und selbsttätig während des Einsprechens in Reaktion auf das Ergebnis einer Auswertung einer ersten Teil-Sprachprobe festgelegt werden.
Description
Digitales Verfahren und Anordnung zur Authentifizierung einer Person
Beschreibung
Die Erfindung betrifft ein Verfahren zur Authentifizierung einer Person aufgrund ihres Stimmprofils nach dem Oberbegriff des Anspruchs 1 sowie eine entsprechende Authentifizierungs-Anordnung nach dem Oberbegriff des Anspruchs 12.
Althergebrachte Verfahren zur Authentifizierung einer Person basieren auf der Überprüfung, ob die Person im Besitz bestimmter Gegenstände (traditionell etwa Siegel oder Pass, neuerdings auch Zugangskarte oder Token) oder von individualisiertem Wissen (etwa PIN oder Passwort) ist. Authentifizierungs-Verfahren auf biometrischer Basis bedienen sich hingegen bestimmter körperlicher Merkmaie der Person, etwa ihres Fingerabdrucks oder Retinamusters oder eines Stimmprofils.
Zu den letzteren Verfahren gibt es seit einigen Jahren umfangreiche Entwicklungsarbeiten, die auch bereits zu marktgängigen Produkten geführt haben. Im Rahmen dieser Entwicklungen nimmt die Frage der Brauchbarkeit von „Spuren" der Person für die Authentifizierung oder auch eine anfängliche Registrierung (das sogenannte Enroüment) breiten Raum ein, sowohl unter dem Gesichtspunkt der Erkennungsbzw. Authentifϊzierungs-Sicherheit als auch unter dem Gesichtspunkt der Nutzerakzeptanz, nämlich des Vermeidens langer und umständlicher Prozeduren.
Bei Verfahren der gattungsgemäßen Art geht es hierbei um die Brauchbarkeit gelieferter Sprachproben für die Registrierung bzw. Authentifizierung des Nutzers und um sich hieraus ergebende Steuerungs-Einflüsse auf die Verfahrensführung. Besondere Bedeutung für die praktische Akzeptanz und damit die kommerzielle Verbreitung der in Rede stehenden Verfahren hat die zuverlässige Erreichung eines durch den System-Nutzer vordefinierten Sicherheitsniveaus.
Gegenstand der Entwicklungen sind daher auch geeignete Maßnahmen für den Fall, dass dieses Sicherheitsniveau aufgrund von in der Praxis beim Sprachmaterial oder der Verfahrensführung auftretenden Problemen nicht erreicht werden sollte. Derar-
tige Probleme können etwa in der aktuellen physischen und psychischen Verfassung des Sprechers, in Hintergrundgeräuschen und in einer geringen Qualität des Übertragungskanals oder des zum Einsprechen von Sprachproben verwendeten Gerätes liegen.
Es ist daher Aufgabe der Erfindung, ein verbessertes Verfahren und eine entsprechende Anordnung bereitzustellen, mit denen sich eine hohe Nutzerfreundlichkeit und -akzeptanz vorteilhaft mit der Erfüllung hoher Sicherheitsanforderungen verknüpfen lässt.
Diese Aufgabe wird in ihrem Verfahrenssuspekt durch ein Verfahren mit den Merkmalen des Anspruchs 1 und in ihrem Vorrichtungsaspekt durch eine Anordnung mit den Merkmalen des Anspruchs 12 gelöst. Zweckmäßige Fortbildung des Erfindungsgedankens sind Gegenstand der jeweiligen abhängigen Ansprüche.
Die Erfindung schließt den wesentlichen Gedanken ein, den Gesamtumfang der Sprachprobe und/oder Parameter ihrer Auswertung zur Bestimmung des jeweiligen Stimmprofils dynamisch und selbsttätig während des Einsprechens in Reaktion auf das Ergebnis einer Auswertung einer ersten Teil-Sprachprobe festzulegen.
Auf diese Weise kann dynamisch in Quasi-Echtzeit entschieden werden, wieviel Sprachmaterial im Rahmen des verwendeten Algorithmus bzw. der eingesetzten Heuristik in eine stimmprofil-basierte Entscheidung des Authentifizierungssystems einfließt.
Hierdurch wird in vorteilhafter Weise erreicht, dass die Belastung des Sprechers insofern minimiert wird, als er nur im unbedingt erforderlichen Umfang zu Spracheingaben aufgefordert und damit die Dauer der Authentifizierungsprozedur verkürzt wird. Dies hat letztlich eine Erhöhung der Nutzerakzeptanz (bezogen auf die zur Nutzung des Systems verpflichteten Personen) zur Folge. Außerdem wird durch die dynamische Verfahrensführung eine Optimierung der Wirksamkeit/Sicherheit des Verifizierungs- bzw. Authentifizierungsmechanismus erreicht.
In einer bevorzugten Verfahrensführung ist vorgesehen, dass in Reaktion auf das Ergebnis einer Auswertung der ersten Teil-Sprachprobe in einem vorbestimmten Ablauf einer Benutzerführung zur Ausgabe mehrerer Teil-Sprachproben eine Abbruch-Markierung gesetzt und die Ausgabe der Benutzerführung an dieser beendet wird. Dies wird stattfinden, wenn bereits mit einem Teil der vorgesehenen Sprachproben eine derartige Auswertung gelingt, dass das vordefinierte Sicherheitsniveau erreicht wird.
Alternativ ist vorgesehen, dass in Reaktion auf das Ergebnis einer Auswertung der ersten Teil-Sprachprobe ein Ablauf einer Benutzerführung zur Anzeige mehrerer Teil-Sprachproben in Echtzeit generiert und ausgegeben wird oder eine von mehreren vorgespeicherten Benutzerführungen ausgewählt und ausgegeben wird. Sofern die Auswertung der ersten Teil-Sprachprobe also zeigt, dass das vorbestimmte Sicherheitsniveau damit nicht zu erreichen ist, wird das Prozedere zur Einbeziehung weiteren Sprachmaterials fortgesetzt. Dieser Gedanke ist, wie alle hier erläuterten Steuerungsabläufe in Reaktion auf das Ergebnis der Auswertung einer "ersten Teil- Sprachprobe", auf den Zustand des Systems nach Auswertung einer zweiten oder weiterer Sprachproben übertragbar. Es kann also Schritt um Schritt von einer ersten zu einer zweiten und dann ggf. zu weiteren Sprachproben und entsprechenden partiellen Auswertungen fortgeschritten werden, bis ein hinreichendes Auswertungsergebnis vorliegt.
In einer weiteren Ausführung des Verfahrens ist vorgesehen, dass die Auswertung eine Ermittlung von Fisterkoeffizienten oder dergleichen Parametern einer Sprachproben-Vorverarbeitung aufweist und der Umfang der Sprachprobe und/oder Parameter ihrer Auswertung in Abhängigkeit von den ermittelten Filterkoeffizienten festgelegt werden. Desweiteren kann vorgesehen sein, dass die Auswertung eine Ermittlung von Übertragungsparametern eines Übertragungskanals der Sprachprobe aufweist und der Umfang der Sprachprobe und/oder Parameter ihrer Auswertung in Abhängigkeit von den ermittelten Übertragungsparametern festgelegt werden. Hierdurch ist insbesondere eine angemessene Reaktion auf bestimmte technische Defizite, etwa beim Einsprech-Gerät oder im Übertragungskanal, möglich. Insbesondere kann hierbei der Umfang der Sprachprobe und/oder Parameter ihrer
Auswertung im Ergebnis einer Vergleichs-Klassifizierung der Filterkoeffizienten bzw, Übertragungsparameter entschieden werden.
Eine zweckmäßige Art der Auswertung der ersten Teii-Sprachprobe uinfasst eine Vergleichs-Verarbeitung eines aus der ersten (oder ersten und zweiten oder ersten bis dritten usw.) Teil-Sprachprobe berechneten vorläufigen aktuellen Stimmprofils mit einem gespeicherten initialen Stimmprofil, und der Umfang der Sprachprobe und/oder Parameter ihrer Auswertung werden in Abhängigkeit vom Vergleichsergebnis, insbesondere vom ermittelten Grad an Übereinstimmung, festgelegt.
Sofern das Gesamt-Procedere die Auswertung mehrerer Teii-Sprachproben einschließt, ist in einer weiteren Ausführung vorgesehen, dass als Parameter der Auswertung ein Gewichtungsfaktor der ersten Teil-Sprachprobe und/oder nachfolgender Teil-Sprachproben für die Bestimmung des jeweiligen Stimmprofils eingestellt wird. Insbesondere kann hierbei, wenn sich bei der Auswertung der ersten Teil- Sprachprobe grundlegende Defizite gezeigt haben, der Gewichtungsfaktor der ersten Teii-Sprachprobe auf Null gesetzt wird derart, dass die Bestimmung des jeweiligen Stimmprofils neu gestartet wird.
Bei den jeweiligen Ausgestaltungen des Verfahrens kann es sinnvoll sein, dass der Umfang der Sprachprobe und/oder die Parameter ihrer Auswertung auch in Abhängigkeit von einem vorgegebenen Konfidenz-Minimalwert eines Registrierungs- oder Authentifizierungsablaufes festgelegt werden.
Die Ausgestaltung der erfindungsgemäßen Anordnung bzw. des Authentifizierungs- Systems ergibt sich im wesentlichen aus den oben erwähnten Ausgestaltungen des Verfahrens, und auf eine Wiederholung dieser Aspekte wird im Anordnungs-Kontext daher verzichtet, Es wird aber darauf hingewiesen, dass die Anordnung als wesentliche Komponenten eine Benutzerführungs-Steuereinheit und/oder eine Auswertungs-Steuereinheit aufweist, mit denen die Stimmprofilberechnung über eine Minimalkonfiguration hinaus (mit entsprechender Benutzerführung) fortgeführt bzw. eine geeignete Steuerung des Auswertungsvorganges realisiert werden.
Hinsichtlich der Benutzerführung sieht eine Ausgestaltung des Systems vor, dass die Benutzerführuπgseinheit eine Mehrzahl von Speicherbereichen zur Speicherung von Bausteinen einer Benutzerführung und/oder von mehreren vorbestimmten Abläufen aufweist und die Benutzerführungs-Steuereinheit zur selektiven Adressierung dieser Speicherbereiche und der Verknüpfung ihrer Inhalte zu einer ausgabefähigen Benutzerführung in Reaktion auf ein aus der Stimmprofil-Berechnungseinheit ausgegebenes, das Ergebnis einer Auswertung der ersten Teil-Sprachprobe kennzeichnendes Signal ausgebildet ist. Das Ausgangssignal der Stimm profil- Berechnungseinheit adressiert also Speicherbereiche, in denen bestimmte Benut- zerführungs-Bausteine gespeichert sind, und bewirkt somit eine an das Auswertungsergebnis angepasste Fortführung des Authentifizierungs-Procederes.
Hinsichtlich der Stimmprofil-Berechnungseinheit ist eine Ausgestaltung vorgesehen, bei der diese eine Sprachproben-Vorverarbeitungseinheit zur Bestimmung von Filterkoeffizienten oder dergleichen Parametern einer eingesprochene Sprachprobe aufweist und die Benutzerführungs-Steuereinheit eingangsseitig mit einem Filterkoeffizienten-Ausgang der Sprachproben-Vorverarbeitungseinheit verbunden ist. Alternativ oder in Kombination hiermit kann vorgesehen sein, dass die Stimmprofil- Berechnungseinheit eine Sprachproben-Vorverarbeitungseinheit aufweist, die zur Ermittlung von Übertragungsparametern eines Übertragungskanals der Sprachprobe ausgebildet ist, und die Benutzerführungs-Steuereinheit eingangsseitig mit einem Übertragungsparameter-Ausgang der Sprachproben-Vorverarbeitungseinheit verbunden ist.
Eine Systemkonfiguration, die zur praktischen Ausführung von Verifikations- bzw. Authentifizierungsvorgängen ausgebildet ist, umfasst eine Stimmprofil-Speichereinheit sowie eine mit der Stimmprofil-Berechnungseinheit und der Stimmprofii- Speichereinheit verbundene Stimmprofil-Vergleichereinheit zum Vergleich eines initial erzeugten Stimmprofils mit einem aktuellen Stimmprofil und zur Ausgabe eines Steuersignals an die Benutzerführungs-Steuereinheit oder die Auswertungs-Steuereinheit im Ansprechen auf das Vergleichsergebnis.
Die Ausführung der Erfindung ist nicht auf die vorstehend hervorgehobenen Aspekte und Wirkungen beschränkt, sondern in einer Vielzahl von Abwandlungen möglich, die im Rahmen fachmännischen Handelns liegen.
Claims
1. Digitales Verfahren zur Authentifizierung einer Person durch Vergleich eines aktuellen Stimmprofils mit einem vorgespeicherten initialen Stimmprofil, wobei die Person zur Bestimmung des jeweiligen Stimmprofils mindestens eine Sprachprobe einspricht, die eingesprochene Sprachprobe einer Stimmprofil- Berechnungseinheit zugeführt wird und hieraus aufgrund eines vorbestimmten Stimmprofü-Algorithmus das Stimmprofil errechnet wird, d a d u rc h g eke n n ze i ch n et, d a ss der Gesamtumfang der Sprachprobe und/oder Parameter ihrer Auswertung zur Bestimmung des jeweiligen Stimmprofils dynamisch und selbsttätig während des Einsprechens in Reaktion auf das Ergebnis einer Auswertung einer ersten Teil-Sprachprobe festgelegt werden,
2. Verfahren nach Anspruch 1, d a d u rc h g e ke n n ze i ch n et, d a ss in Reaktion auf das Ergebnis einer Auswertung der ersten Teil-Sprachprobe in einem vorbestimmten Ablauf einer Benutzerführung zur Ausgabe mehrerer Teil-Sprachproben eine Abbruch-Markierung gesetzt und die Ausgabe der Benutzerführung an dieser beendet wird.
3. Verfahren nach Anspruch 1, d a d u rc h g e ke n n zei ch n et, d a ss in Reaktion auf das Ergebnis einer Auswertung der ersten Teil-Sprachprobe ein Ablauf einer Benutzerführung zur Anzeige mehrerer Teil-Sprachproben in Echtzeit generiert und ausgegeben wird.
4. Verfahren nach Anspruch 1, d a d u rch g e ke n n zei c h n et, d a ss in Reaktion auf das Ergebnis einer Auswertung der ersten Teil-Sprachprobe einer von mehreren vorgespeicherten Abläufen einer Benutzerführung ausgewählt und ausgegeben wird.
5. Verfahren nach einem der vorangehenden Ansprüche, d ad u rch g e ke n nze i ch n et, d a ss die Auswertung eine Ermittlung von Filterkoeffizienten oder dergleichen Parametern einer Sprachproben-Vorverarbeitung aufweist und der Umfang der Sprachprobe und/oder Parameter ihrer Auswertung in Abhängigkeit von den ermittelten Filterkoeffizienten festgelegt werden.
6. Verfahren nach einem der Ansprüche 1 bis 4, d a d u rch g e ke n n ze i ch n et, d a ss die Auswertung eine Ermittlung von Übertragungsparametern eines Übertra- gungskanals der Sprachprobe aufweist und der Umfang der Sprachprobe und/oder Parameter ihrer Auswertung in Abhängigkeit von den ermittelten Übertragungsparametern festgelegt werden.
7. Verfahren nach Anspruch 5 oder 6, d a d u rc h g e ke n n ze i ch n et, d a ss der Umfang der Sprachprobe und/oder Parameter ihrer Auswertung im Ergebnis einer Vergleichs-Klassifizierung der Filterkoeffizienten bzw. Übertragungsparameter entschieden werden.
8. Verfahren nach einem der vorangehenden Ansprüche, d a d u rc h g e ke n n ze i ch n et, d a ss die Auswertung eine Vergleichs-Verarbeitung eines aus der ersten Teii- Sprachprobe berechneten vorläufigen aktuellen Stimmprofils mit einem gespeicherten initialen Stimmprofil aufweist und der Umfang der Sprachprobe und/oder Parameter ihrer Auswertung in Abhängigkeit vom Vergleichsergeb- nis, insbesondere vom ermittelten Grad an Übereinstimmung, festgelegt werden.
9. Verfahren nach einem der vorangehenden Ansprüche, d a d u rc h g e ke n n ze i c h ne t, d a ss als Parameter der Auswertung ein Gewichtungsfaktor der ersten Teü-Sprach- probe und/oder nachfolgender Teil-Sprachproben für die Bestimmung des jeweiligen Stimmprofils eingestellt wird.
10. Verfahren nach Anspruch 9, d a d u rc h g e ke n n ze i ch n et, d a ss der Gewichtungsfaktor der ersten Teil-Sprachprobe auf Null gesetzt wird derart, dass die Bestimmung des jeweiligen Stimmprofils neu gestartet wird.
11. Verfahren nach einem der vorangehenden Ansprüche, d a d u rc h g e ke n n ze i ch n et, d a ss der Umfang der Sprachprobe und/oder Parameter ihrer Auswertung auch in Abhängigkeit von einem vorgegebenen Koπfidenz-Minimalwert eines Regis- trϊerungs- oder Authentifizierungsabiaufes festgelegt werden.
12. Anordnung zur Durchführung des Verfahrens nach einem der vorangehenden Ansprüche, mit
- einer Sprachproben-Eingabeschnittsteile,
- einer eingangsseitig mit der Sprachproben-Eingabeschnittstelle verbundenen Stimmprofü-Berechnungseinheit und
- einer Benutzerführungseinheit zur Bereitstellung einer Benutzerführung, insbesondere zur Anforderung eingesprochener Sprachproben und/oder zur Ausgabe vorbestimmter Sprachproben zum Einsprechen durch die zu identifizierende Person, g e ke n n zei c h n et d u rc h eine mindestens unmittelbar mit einem Ausgang der Stimmprofil-Berechnungseinheit verbundene Benutzerführungs-Steuereinheit zur Beeinflussung der Benutzerführung und/oder eine mit einem Steuereingang der Stimmprofil-Berechnungseinheit verbundene Auswertungs-Steuereinheit zur Steuerung von Parametern der Sprachproben-Auswertung, in Reaktion auf ein aus der Stimmprofil-Berechnungseinheit ausgegebenes, das Ergebnis einer Auswertung der ersten Teil- Sprachprobe kennzeichnendes Signal.
13. Anordnung nach Anspruch 12, d a d u rc h g e ke n n zei ch n et, d a s s die Benutzerführungseinheit eine Mehrzahl von Speicherbereichen zur Ξpei- cherung von Bausteinen einer Benutzerführung und/oder von mehreren vorbestimmten Abläufen aufweist und die Benutzerführungs-Steuereinheit zur selektiven Adressierung dieser Speicherbereiche und der Verknüpfung ihrer Inhalte zu einer ausgabefähigen Benutzerführung in Reaktion auf ein aus der Stimmprofil-Berechnungseinheit ausgegebenes, das Ergebnis einer Auswertung der ersten Teil-Sprachprobe kennzeichnendes Signal ausgebildet ist.
14. Anordnung nach Anspruch 12 oder 13, d a d u rc h g e ke n n ze i c h n e t, d a ss die Stimmprofü-Berechnungseinheit eine Sprachproben-Vorverarbeitungseinheit zur Bestimmung von Filterkoeffizienten oder dergleichen Parametern einer eingesprochene Sprachprobe aufweist und die Benutzerführungs- Steuereinheit eingangsseitig mit einem Filterkoeffizienten-Ausgang der Sprachproben-Vorverarbeitungseinheit verbunden ist.
15. Anordnung nach einem der Ansprüche 12 bis 14, d a d u rc h g e ke n n ze i c h n et, d a ss die Stimmprofil-Berechnungseinheit eine Sprachproben-Vorverarbeitungseinheit aufweist, die zur Ermittlung von Übertragungsparametern eines Übertragungskanals der Sprachprobe ausgebildet ist, und die Benutzerführungs-Steuereinheit eingangsseitig mit einem Übertragungsparameter- Ausgang der Sprachproben-Vorverarbeitungseinheit verbunden ist.
16. Anordnung nach einem der vorangehenden Ansprüche, g e ke n n ze i ch n et d u rc h eine Stimmprofil-Speichereinheit sowie eine mit der Stimmprofil-Berechnungseinheit und der Stimmprofil-Speichereinheit verbundene Stimrnprofil- Vergieichereinheit zum Vergleich eines initial erzeugten Stimmprofils mit einem aktuellen Stimmprofil und zur Ausgabe eines Steuersignals an die Be- nutzerführungs-Steuereinheit oder die Auswertungs-Steuereinheit im Ansprechen auf das Vergleichsergebnis.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US12/530,883 US8600751B2 (en) | 2007-03-12 | 2008-02-19 | Digital method and arrangement for authenticating a person |
EP08709111A EP2137724A1 (de) | 2007-03-12 | 2008-02-19 | Digitales verfahren und anordnung zur authentifizierung einer person |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102007011831.9 | 2007-03-12 | ||
DE102007011831A DE102007011831A1 (de) | 2007-03-12 | 2007-03-12 | Digitales Verfahren und Anordnung zur Authentifizierung einer Person |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2008110441A1 true WO2008110441A1 (de) | 2008-09-18 |
Family
ID=39322554
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/EP2008/052023 WO2008110441A1 (de) | 2007-03-12 | 2008-02-19 | Digitales verfahren und anordnung zur authentifizierung einer person |
Country Status (4)
Country | Link |
---|---|
US (1) | US8600751B2 (de) |
EP (1) | EP2137724A1 (de) |
DE (1) | DE102007011831A1 (de) |
WO (1) | WO2008110441A1 (de) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9117451B2 (en) | 2013-02-20 | 2015-08-25 | Google Inc. | Methods and systems for sharing of adapted voice profiles |
IN2013MU01148A (de) * | 2013-03-26 | 2015-04-24 | Tata Consultancy Services Ltd | |
US9686274B2 (en) * | 2013-10-11 | 2017-06-20 | Microsoft Technology Licensing, Llc | Informed implicit enrollment and identification |
US9349014B1 (en) * | 2015-01-23 | 2016-05-24 | Fmr Llc | Determining an indicator of aggregate, online security fitness |
CN106302330B (zh) * | 2015-05-21 | 2021-01-05 | 腾讯科技(深圳)有限公司 | 身份验证方法、装置和系统 |
US10521662B2 (en) | 2018-01-12 | 2019-12-31 | Microsoft Technology Licensing, Llc | Unguided passive biometric enrollment |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO1998023062A1 (en) * | 1996-11-22 | 1998-05-28 | T-Netix, Inc. | Voice recognition for information system access and transaction processing |
US20060294390A1 (en) * | 2005-06-23 | 2006-12-28 | International Business Machines Corporation | Method and apparatus for sequential authentication using one or more error rates characterizing each security challenge |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4989248A (en) * | 1983-01-28 | 1991-01-29 | Texas Instruments Incorporated | Speaker-dependent connected speech word recognition method |
US5365574A (en) * | 1990-05-15 | 1994-11-15 | Vcs Industries, Inc. | Telephone network voice recognition and verification using selectively-adjustable signal thresholds |
US6081782A (en) * | 1993-12-29 | 2000-06-27 | Lucent Technologies Inc. | Voice command control and verification system |
US5522012A (en) * | 1994-02-28 | 1996-05-28 | Rutgers University | Speaker identification and verification system |
DE19630109A1 (de) * | 1996-07-25 | 1998-01-29 | Siemens Ag | Verfahren zur Sprecherverifikation anhand mindestens eines von einem Sprecher eingesprochenen Sprachsignals, durch einen Rechner |
US6292782B1 (en) * | 1996-09-09 | 2001-09-18 | Philips Electronics North America Corp. | Speech recognition and verification system enabling authorized data transmission over networked computer systems |
DE19841167A1 (de) * | 1998-09-09 | 2000-03-16 | Deutsche Telekom Ag | Verfahren zur Gebührenabrechnung für die Sprachtelefone an einem Festnetz- oder Mobiltelefonanschluß sowie Kommunikationsnetz |
DE19841166A1 (de) * | 1998-09-09 | 2000-03-16 | Deutsche Telekom Ag | Verfahren zur Kontrolle der Zugangsberechtigung für die Sprachtelefonie an einem Festnetz- oder Mobiltelefonanschluß sowie Kommunikationsnetz |
EP1006508A1 (de) * | 1998-11-27 | 2000-06-07 | Ascom Systec AG | Verfahren zur Ueberprüfung einer Benutzerberechtigung |
EP1006507A1 (de) * | 1998-11-27 | 2000-06-07 | Ascom Systec AG | Verfahren zur Durchführung einer Sprechererkennung |
IL129451A (en) * | 1999-04-15 | 2004-05-12 | Eli Talmor | System and method for authentication of a speaker |
US6748356B1 (en) * | 2000-06-07 | 2004-06-08 | International Business Machines Corporation | Methods and apparatus for identifying unknown speakers using a hierarchical tree structure |
US7177808B2 (en) * | 2000-11-29 | 2007-02-13 | The United States Of America As Represented By The Secretary Of The Air Force | Method for improving speaker identification by determining usable speech |
US6973426B1 (en) * | 2000-12-29 | 2005-12-06 | Cisco Technology, Inc. | Method and apparatus for performing speaker verification based on speaker independent recognition of commands |
US7054817B2 (en) * | 2002-01-25 | 2006-05-30 | Canon Europa N.V. | User interface for speech model generation and testing |
DE10204436B4 (de) * | 2002-02-04 | 2004-09-09 | Kuebler, Hans, Dr. | Kontinuierliche Sprecherüberprüfung mittels Spracheingabe |
US20040186724A1 (en) * | 2003-03-19 | 2004-09-23 | Philippe Morin | Hands-free speaker verification system relying on efficient management of accuracy risk and user convenience |
US8255223B2 (en) * | 2004-12-03 | 2012-08-28 | Microsoft Corporation | User authentication by combining speaker verification and reverse turing test |
US7937269B2 (en) * | 2005-08-22 | 2011-05-03 | International Business Machines Corporation | Systems and methods for providing real-time classification of continuous data streams |
US7822605B2 (en) * | 2006-10-19 | 2010-10-26 | Nice Systems Ltd. | Method and apparatus for large population speaker identification in telephone interactions |
-
2007
- 2007-03-12 DE DE102007011831A patent/DE102007011831A1/de not_active Withdrawn
-
2008
- 2008-02-19 WO PCT/EP2008/052023 patent/WO2008110441A1/de active Application Filing
- 2008-02-19 US US12/530,883 patent/US8600751B2/en not_active Expired - Fee Related
- 2008-02-19 EP EP08709111A patent/EP2137724A1/de not_active Ceased
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO1998023062A1 (en) * | 1996-11-22 | 1998-05-28 | T-Netix, Inc. | Voice recognition for information system access and transaction processing |
US20060294390A1 (en) * | 2005-06-23 | 2006-12-28 | International Business Machines Corporation | Method and apparatus for sequential authentication using one or more error rates characterizing each security challenge |
Non-Patent Citations (2)
Title |
---|
ARUN C SURENDRAN: "Sequential Decisions for Faster and More Flexible Verification", EUROSPEECH, vol. 2, September 2001 (2001-09-01), Aalborg, Dänemark, pages 763 - 766, XP007005117 * |
See also references of EP2137724A1 * |
Also Published As
Publication number | Publication date |
---|---|
US20120095763A1 (en) | 2012-04-19 |
EP2137724A1 (de) | 2009-12-30 |
US8600751B2 (en) | 2013-12-03 |
DE102007011831A1 (de) | 2008-09-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE69938374T2 (de) | Verfahren und Vorrichtung zur Spracherkennung mittels sowohl eines neuralen Netzwerks als auch verborgener Markov-Modelle | |
DE102008058883B4 (de) | Verfahren und Anordnung zur Steuerung eines Nutzerzugriffs | |
WO2008110441A1 (de) | Digitales verfahren und anordnung zur authentifizierung einer person | |
DE60301767T9 (de) | Normalisierung eines Verifizierungsmasses in einer Vorrichtung zur Sprecherverifikation | |
DE60014063T2 (de) | Vorrichtung und verfahren zur erkennung von gefühlen in der menschlichen stimme | |
DE60213195T2 (de) | Verfahren, System und Computerprogramm zur Sprach-/Sprechererkennung unter Verwendung einer Emotionszustandsänderung für die unüberwachte Anpassung des Erkennungsverfahrens | |
DE60108373T2 (de) | Verfahren zur Detektion von Emotionen in Sprachsignalen unter Verwendung von Sprecheridentifikation | |
WO2008090188A2 (de) | Verfahren und anordnung zur erzeugung eines signierten text- und/oder bilddokuments | |
DE60128270T2 (de) | Verfahren und System zur Erzeugung von Sprechererkennungsdaten, und Verfahren und System zur Sprechererkennung | |
DE3216800A1 (de) | Anordnung zur eingabe von befehlsworten durch sprache | |
DE112018006885B4 (de) | Trainingsvorrichtung,sprachaktivitätsdetektor und verfahren zur erfassung einer sprachaktivität | |
EP0964390A2 (de) | Vorrichtung zur Verifizierung von Signalen | |
EP1191517A2 (de) | Dialogsystem | |
DE69636731T2 (de) | System und Verfahren zur Aufnahme von Namen in einer Spracherkennungsdatenbank | |
DE10163814A1 (de) | Verfahren und Einrichtung zur Nutzeridentifizierung | |
DE102008040258A1 (de) | Verfahren und Vorrichtung zur Verbesserung biometrischer Identifizierungssysteme | |
DE102007005704B4 (de) | Digitales Verfahren zur Authentifizierung einer Person und Anordnung zu dessen Durchführung | |
DE4012337A1 (de) | Verfahren zur erkennung von sprache | |
DE102009044173A1 (de) | Kreuzweiser Abgleich von Tippverhaltensdaten zur Authentifizierung und/oder Identifizierung einer Person | |
DE602004012720T2 (de) | Verfahren zur Qualitätskontrolle einer industriellen Anlage und System dafür | |
WO1998040825A2 (de) | Sichere identifikation mit vorauswahl und rückweisungsklasse | |
DE60301773T2 (de) | Verfahren und Gerät für die Montage eines Haushaltgeräts in einem Schrank | |
DE3310554A1 (de) | Verfahren und vorrichtung zum automatischen pruefen der uebereinstimmung eines gesprochenen befehls mit einem von mehreren gespeicherten bezugsbefehlen | |
DE102006049658B4 (de) | Zugangsberechtigungsverfahren und -system | |
DE60214726T2 (de) | Verfahren und system zur zugangsregelung |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 08709111 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
REEP | Request for entry into the european phase |
Ref document number: 2008709111 Country of ref document: EP |
|
WWE | Wipo information: entry into national phase |
Ref document number: 2008709111 Country of ref document: EP |
|
WWE | Wipo information: entry into national phase |
Ref document number: 12530883 Country of ref document: US |