RU98100221A - TALKING VERIFICATION SYSTEM - Google Patents

TALKING VERIFICATION SYSTEM

Info

Publication number
RU98100221A
RU98100221A RU98100221/09A RU98100221A RU98100221A RU 98100221 A RU98100221 A RU 98100221A RU 98100221/09 A RU98100221/09 A RU 98100221/09A RU 98100221 A RU98100221 A RU 98100221A RU 98100221 A RU98100221 A RU 98100221A
Authority
RU
Russia
Prior art keywords
specified
speaker
speech fragment
classifiers
feature
Prior art date
Application number
RU98100221/09A
Other languages
Russian (ru)
Other versions
RU2161336C2 (en
Inventor
Ричард Дж. Мэммон
Кевин Фаррел
Мэниш Шарма
Нейк Дивэнг
Зяою Занг
Халед Ассалех
Хан-Шенг Леу
Original Assignee
Ратгерс Юниверсити
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US08/479,012 external-priority patent/US5839103A/en
Application filed by Ратгерс Юниверсити filed Critical Ратгерс Юниверсити
Publication of RU98100221A publication Critical patent/RU98100221A/en
Application granted granted Critical
Publication of RU2161336C2 publication Critical patent/RU2161336C2/en

Links

Claims (24)

1. Способ верификации говорящего, в соответствии с которым выделяют по меньшей мере один признак из первого речевого фрагмента, произнесенного говорящим, классифицируют указанный по меньшей мере один признак с помощью множества классификаторов для формирования множества результатов классификации, объединяют указанное множества результатов классификации для формирования объединенных результатов классификации, распознают указанные объединенные результаты классификации путем определения сходства указанных объединенных результатов классификации и второго речевого фрагмента, произнесенного говорящим до указанной верификации говорящего, и на основании указанных распознанных объединенных результатов классификации принимают решение принять или отвергнуть указанного говорящего.1. The method of verifying the speaker, according to which at least one attribute is distinguished from the first speech fragment spoken by the speaker, the at least one attribute is classified using a plurality of classifiers to form a plurality of classification results, the aforementioned plurality of classification results are combined to form the combined results classifications, recognize the specified combined results of the classification by determining the similarity of the specified combined results the labeling moiety and the second speech spoken by said speaker to speaker verification and, based on these detected results of the combined classification decide to accept or reject said speaker. 2. Способ по п.1, отличающийся тем, что дополнительно определяют достоверность на основании указанных распознанных объединенных результатов классификации. 2. The method according to claim 1, characterized in that it further determines the reliability based on the specified recognized combined classification results. 3. Способ по п.2, отличающийся тем, что дополнительно перед классификацией указанного по меньшей мере одного признака проводят распознавание слов в указанном первом речевом фрагменте, произнесенном указанным говорящим, путем сравнения указанного по меньшей мере одного признака с данными, соответствующими указанному говорящему и запомненными до верификации говорящего, чтобы предварительно принять указанного говорящего или предварительно отвергнуть указанного говорящего и осуществляют указанную операцию классификации по меньшей мере одного признака, если решено предварительно принять указанного говорящего, и приводят в действие модуль повторного запроса, если решено предварительно отвергнуть указанного говорящего. 3. The method according to claim 2, characterized in that, in addition to classifying said at least one feature, words are recognized in said first speech fragment spoken by said speaker by comparing said at least one feature with data corresponding to said speaker and stored before verifying the speaker, in order to pre-accept the specified speaker or previously reject the specified speaker and carry out the specified classification operation at least one sign, if it is decided to preliminarily accept the specified speaker, and the re-request module is activated if it is decided to first reject the specified speaker. 4. Способ по п.3, отличающийся тем, что указанный первый речевой фрагмент содержит по меньшей мере один пароль для указанного говорящего. 4. The method according to claim 3, characterized in that said first speech fragment contains at least one password for said speaker. 5. Способ по п.4, отличающийся тем, что указанные данные содержат шаблон, зависящий от говорящего, сформированный из первого речевого фрагмента, заранее произнесенного указанным говорящим, и шаблон, не зависящий от говорящего, сформированный из первого речевого фрагмента, заранее произнесенного по меньшей мере одним вторым говорящим. 5. The method according to claim 4, characterized in that said data comprises a speaker-dependent pattern formed from a first speech fragment pre-spoken by said speaker and a speaker-independent pattern formed from a first speech fragment pre-spoken at least at least one second speaker. 6. Способ по п.1, отличающийся тем, что указанную операцию классификации выполняют с помощью классификатора, использующего нейронную древовидную сеть, и классификатора, использующего динамическое предыскажение шкалы времени. 6. The method according to claim 1, characterized in that the classification operation is performed using a classifier using a neural tree network and a classifier using dynamic timeline predistortion. 7. Способ по п.1, отличающийся тем, что указанную классификацию выполняют с помощью классификатора, использующего модифицированную нейронную древовидную сеть, и классификатора, использующего динамическое предыскажение шкалы времени. 7. The method according to claim 1, characterized in that the classification is performed using a classifier using a modified neural tree network, and a classifier using dynamic timeline predistortion. 8. Способ по п. 1, отличающийся тем, что при указанном распознавании подают на пару из указанного множества классификаторов множество первых фрагментов речи указанного говорящего и отбрасывают один из указанных фрагментов, образующий отброшенный фрагмент, для обучения указанных классификаторов, подают указанный отброшенный фрагмент в указанные пары классификаторов для независимого тестирования указанных классификаторов, вычисляют первую вероятность для первого из классификаторов из указанной пары классификаторов и вторую вероятность для второго классификатора из указанной пары классификаторов и определяют первый порог для первого классификатора из указанной пары классификаторов на основании указанной первой вероятности и второй порог для второго классификатора из указанной пары классификаторов на основании указанной второй вероятности, причем указанное сходство множества результатов классификации определяют путем сравнения указанного первого классификатора из пары классификаторов с указанным первым порогом и указанного второго классификатора из пары классификаторов с указанным вторым порогом. 8. The method according to p. 1, characterized in that when the specified recognition serves for a pair of the specified set of classifiers, the set of the first speech fragments of the specified speaker and discard one of these fragments forming the discarded fragment, for training these classifiers, the specified discarded fragment is fed to the specified pairs of classifiers for independent testing of these classifiers, calculate the first probability for the first of the classifiers from the specified pair of classifiers and the second probability l for the second classifier from the specified pair of classifiers and determine the first threshold for the first classifier from the specified pair of classifiers based on the specified first probability and the second threshold for the second classifier from the specified pair of classifiers based on the specified second probability, and the indicated similarity of the set of classification results is determined by comparing the specified the first classifier from a pair of classifiers with the specified first threshold and the specified second classifier from a pair of keys codifiers with the indicated second threshold. 9. Способ по п.1, отличающийся тем, что указанное выделение выполняют путем модификации полюсов в полюсном фильтре указанных первого и второго речевых фрагментов для выделения указанного по меньшей мере одного признака. 9. The method according to claim 1, characterized in that the selection is performed by modifying the poles in the pole filter of the specified first and second speech fragments to highlight the specified at least one feature. 10. Способ по п. 1, отличающийся тем, что дополнительно сегментируют указанный по меньшей мере один признак указанного первого речевого фрагмента на множество первых подслов после указанной операции выделения. 10. The method according to p. 1, characterized in that it further segmentes said at least one feature of said first speech fragment into a plurality of first subwords after said extraction operation. 11. Способ по п. 10, отличающийся тем, что указанные подслова являются фонемами. 11. The method according to p. 10, characterized in that said subwords are phonemes. 12. Способ по п.1, отличающийся тем, что указанный по меньшей мере один признак корректируют с использованием афинного преобразования
y = Ax + b,
где y - указанное афинное преобразование вектора х, А - матрица, соответствующая линейному преобразованию, b - вектор, соответствующий переносу.
12. The method according to claim 1, characterized in that said at least one feature is adjusted using the affinity conversion
y = Ax + b,
where y is the indicated affine transformation of the vector x, A is the matrix corresponding to the linear transformation, b is the vector corresponding to the transfer.
13. Система верификации говорящего, содержащая средства выделения по меньшей мере одного признака из первого речевого фрагмента, произнесенного указанным говорящим, средства классификации указанного по меньшей мере одного признака с помощью множества классификаторов для формирования множества результатов классификации, средства объединения указанного множества выходных сигналов классификации для формирования объединенных результатов классификации, средства распознавания указанных объединенных результатов классификации путем определения сходства указанных объединенных результатов классификации и второго речевого фрагмента, произнесенного говорящим до указанной верификации говорящего, и средства принятия решения, на основании указанных распознанных объединенных результатов классификации, принять или отвергнуть указанного говорящего. 13. The speaker verification system, comprising means for extracting at least one feature from the first speech fragment spoken by said speaker, means for classifying said at least one feature using a plurality of classifiers to generate a plurality of classification results, means for combining said plurality of classification output signals to generate combined classification results, means of recognition of the specified combined classification results by o definiteness said combined similarity classification results and the second speech fragment speaker spoken before said speaker verification and the decision means, on the basis of said detected combined classification result to accept or reject said speaker. 14. Система по п.13, отличающаяся тем, что дополнительно содержит средства распознавания слов в указанном первом речевом фрагменте, произнесенном указанным говорящим, путем сравнения указанного по меньшей мере одного признака с данными, относящимися к указанному говорящему и запомненными до верификации говорящего, для определения, принять указанного говорящего предварительно или отвергнуть указанного говорящего предварительно, и средства приведения в действие указанных средств классификации по меньшей мере одного признака, если решено принять указанного говорящего предварительно, и приведения в действие модуля повторного запроса, если решено отвергнуть указанного говорящего предварительно. 14. The system according to item 13, characterized in that it further comprises means for recognizing words in the specified first speech fragment spoken by the specified speaker, by comparing the specified at least one attribute with data related to the specified speaker and stored prior to verification of the speaker, to determine , accept the specified speaker in advance or reject the specified speaker in advance, and means of activating said means of classifying at least one attribute, if resolved preliminarily accept said speaker, and actuating module re-request, if it is decided to reject said speaker in advance. 15. Система по п. 14, отличающаяся тем, что указанные данные содержат шаблон, зависящий от говорящего и сформированный из первого речевого фрагмента, заранее произнесенного указанным говорящим, и шаблон, не зависящий от говорящего и сформированный из первого речевого фрагмента, заранее произнесенного по меньшей мере одним вторым говорящим. 15. The system of claim 14, wherein said data comprises a pattern dependent on the speaker and formed from the first speech fragment pre-spoken by the specified speaker and a pattern independent of the speaker and formed from the first speech fragment pre-spoken at least at least one second speaker. 16. Система по п.15, отличающаяся тем, что указанные средства классификации содержат классификатор, использующий модифицированную нейронную древовидную сеть, и классификатор, использующий динамическое предыскажение шкалы времени. 16. The system of Claim 15, wherein said classification means comprises a classifier using a modified neural tree network and a classifier using dynamic timeline predistortion. 17. Система по п.16, отличающаяся тем, что указанные средства выделения реализованы путем ограничения полюсов во всеполюсном фильтре. 17. The system according to clause 16, characterized in that the said means of selection are implemented by limiting the poles in an all-pole filter. 18. Система по п. 17, отличающаяся тем, что указанный по меньшей мере один признак является кепстральным коэффициентом, который корректируется с использованием афинного преобразования. 18. The system of claim 17, wherein said at least one feature is a cepstral coefficient that is adjusted using an affinity transform. 19. Способ по п.10, отличающийся тем, что указанные полюсы модифицируют путем определения спектральной компоненты указанного по меньшей мере одного признака и ограничения узкой полосы частот для получения оценки канала. 19. The method according to claim 10, characterized in that said poles are modified by determining the spectral component of the specified at least one feature and limiting the narrow frequency band to obtain a channel estimate. 20. Способ по п.19, отличающийся тем, что дополнительно выполняют деконволюцию указанного первого речевого фрагмента и указанного второго речевого фрагмента с использованием указанной оценки канала для получения нормализованного речевого фрагмента и вычисляют спектральные признаки указанного нормализованного речевого фрагмента для получения векторов признаков нормализованного речевого фрагмента, которые используют при указанной классификации. 20. The method according to claim 19, characterized in that it further deconvolution of the specified first speech fragment and the specified second speech fragment using the specified channel estimation to obtain a normalized speech fragment and calculate the spectral characteristics of the specified normalized speech fragment to obtain the feature vectors of the normalized speech fragment, which are used in this classification. 21. Способ по п. 19, отличающийся тем, что дополнительно преобразуют указанную оценку канала в кепстральные коэффициенты для получения модифицированной оценки канала в кепстральной области и вычитают указанную модифицированную оценку канала из кепстральных кадров указанного первого речевого фрагмента и указанного второго речевого фрагмента. 21. The method according to p. 19, characterized in that it further converts said channel estimate into cepstral coefficients to obtain a modified channel estimate in the cepstral region and subtracts said modified channel estimate from the cepstral frames of said first speech fragment and said second speech fragment. 22. Способ по п.12, отличающийся тем, что указанный по меньшей мере один признак является кепстральными коэффициентами, которые корректируют с использованием афинного преобразования. 22. The method according to p. 12, characterized in that the at least one feature is cepstral coefficients, which are corrected using the affinity conversion. 23. Способ по п.7, отличающийся тем, что дополнительно выделяют по меньшей мере один признак из второго речевого фрагмента, произнесенного другими говорящими, присваивают первую метку указанному по меньшей мере одному признаку из первого речевого фрагмента, произнесенного указанным говорящим, присваивают вторую метку указанному по меньшей мере одному признаку из второго речевого фрагмента, произнесенного другими говорящими, и обучают указанные классификаторы первой и второй метке. 23. The method according to claim 7, characterized in that at least one more characteristic is distinguished from the second speech fragment uttered by other speakers, a first label is assigned to the indicated at least one feature from the first speech fragment pronounced by the said speaker, the second label is assigned to the specified at least one attribute from the second speech fragment uttered by other speakers and these classifiers are taught the first and second label. 24. Способ по п.10, отличающийся тем, что дополнительно выделяют по меньшей мере один признак из второго речевого фрагмента, произнесенного другими говорящими, сегментируют указанный по меньшей мере один признак указанного второго речевого фрагмента на множество вторых подслов после указанного выделения, запоминают указанное первое множество подслов и второе множество подслов в базе данных подслов, определяют из указанных запомненных первых подслов первые метки для указанного говорящего, а из указанных вторых подслов вторые метки для других говорящих и обучают указанные классификаторы первым и вторым меткам. 24. The method according to claim 10, characterized in that at least one feature is further extracted from a second speech fragment spoken by other speakers, said at least one feature of said second speech fragment is segmented into a plurality of second subwords after said selection, said first is stored the set of subwords and the second set of subwords in the database of subwords, determine the first marks for the specified speaker from the indicated first stored subwords, and the second marks for the other specified second subwords ogih speakers and teach these classifiers the first and second marks.
RU98100221/09A 1995-06-07 1996-06-06 System for verifying the speaking person identity RU2161336C2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US08/479,012 1995-06-07
US08/479,012 US5839103A (en) 1995-06-07 1995-06-07 Speaker verification system using decision fusion logic

Publications (2)

Publication Number Publication Date
RU98100221A true RU98100221A (en) 2000-01-10
RU2161336C2 RU2161336C2 (en) 2000-12-27

Family

ID=23902297

Family Applications (1)

Application Number Title Priority Date Filing Date
RU98100221/09A RU2161336C2 (en) 1995-06-07 1996-06-06 System for verifying the speaking person identity

Country Status (16)

Country Link
US (1) US5839103A (en)
EP (1) EP0870300B1 (en)
JP (1) JPH11507443A (en)
KR (1) KR19990022391A (en)
CN (1) CN1197526A (en)
AT (1) ATE323934T1 (en)
AU (1) AU711496B2 (en)
CA (1) CA2221415A1 (en)
DE (1) DE69636057T2 (en)
FI (1) FI117954B (en)
IL (1) IL122354A (en)
NO (1) NO321125B1 (en)
NZ (1) NZ311289A (en)
RU (1) RU2161336C2 (en)
TR (1) TR199701555T1 (en)
WO (1) WO1996041334A1 (en)

Families Citing this family (102)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5937381A (en) * 1996-04-10 1999-08-10 Itt Defense, Inc. System for voice verification of telephone transactions
US6038528A (en) * 1996-07-17 2000-03-14 T-Netix, Inc. Robust speech processing with affine transform replicated data
US6003002A (en) * 1997-01-02 1999-12-14 Texas Instruments Incorporated Method and system of adapting speech recognition models to speaker environment
US7630895B2 (en) * 2000-01-21 2009-12-08 At&T Intellectual Property I, L.P. Speaker verification method
US6076055A (en) * 1997-05-27 2000-06-13 Ameritech Speaker verification method
AU744678B2 (en) * 1997-10-15 2002-02-28 British Telecommunications Public Limited Company Pattern recognition using multiple reference models
US6519561B1 (en) * 1997-11-03 2003-02-11 T-Netix, Inc. Model adaptation of neural tree networks and other fused models for speaker verification
US6233555B1 (en) 1997-11-25 2001-05-15 At&T Corporation Method and apparatus for speaker identification using mixture discriminant analysis to develop speaker models
US6243695B1 (en) * 1998-03-18 2001-06-05 Motorola, Inc. Access control system and method therefor
WO1999054868A1 (en) * 1998-04-20 1999-10-28 Koninklijke Kpn N.V. Threshold setting and training of a speaker verification system
AU3889799A (en) * 1998-05-08 1999-11-29 T-Netix, Inc. Channel estimation system and method for use in automatic speaker verification systems
JP3090119B2 (en) * 1998-05-15 2000-09-18 日本電気株式会社 Speaker verification device, method and storage medium
DE19824354A1 (en) * 1998-05-30 1999-12-02 Philips Patentverwaltung Device for verifying signals
DE19824353A1 (en) * 1998-05-30 1999-12-02 Philips Patentverwaltung Device for verifying signals
US6178400B1 (en) * 1998-07-22 2001-01-23 At&T Corp. Method and apparatus for normalizing speech to facilitate a telephone call
TW418383B (en) * 1998-09-23 2001-01-11 Ind Tech Res Inst Telephone voice recognition system and method and the channel effect compensation device using the same
US6411930B1 (en) * 1998-11-18 2002-06-25 Lucent Technologies Inc. Discriminative gaussian mixture models for speaker verification
JP2000200098A (en) * 1999-01-07 2000-07-18 Sony Corp Device and method for study, and device and method for recognition
JP2000259198A (en) * 1999-03-04 2000-09-22 Sony Corp Device and method for recognizing pattern and providing medium
US20010044818A1 (en) * 2000-02-21 2001-11-22 Yufeng Liang System and method for identifying and blocking pornogarphic and other web content on the internet
US6735562B1 (en) * 2000-06-05 2004-05-11 Motorola, Inc. Method for estimating a confidence measure for a speech recognition system
US6735563B1 (en) * 2000-07-13 2004-05-11 Qualcomm, Inc. Method and apparatus for constructing voice templates for a speaker-independent voice recognition system
US6671669B1 (en) * 2000-07-18 2003-12-30 Qualcomm Incorporated combined engine system and method for voice recognition
US6728674B1 (en) 2000-07-31 2004-04-27 Intel Corporation Method and system for training of a classifier
US20040190688A1 (en) * 2003-03-31 2004-09-30 Timmins Timothy A. Communications methods and systems using voiceprints
US20020147694A1 (en) * 2001-01-31 2002-10-10 Dempsey Derek M. Retraining trainable data classifiers
US6792434B2 (en) * 2001-04-20 2004-09-14 Mitsubishi Electric Research Laboratories, Inc. Content-based visualization and user-modeling for interactive browsing and retrieval in multimedia databases
GB0112749D0 (en) * 2001-05-25 2001-07-18 Rhetorical Systems Ltd Speech synthesis
EP1399915B1 (en) * 2001-06-19 2009-03-18 Speech Sentinel Limited Speaker verification
WO2003005344A1 (en) * 2001-07-03 2003-01-16 Intel Zao Method and apparatus for dynamic beam control in viterbi search
US20050055208A1 (en) * 2001-07-03 2005-03-10 Kibkalo Alexandr A. Method and apparatus for fast calculation of observation probabilities in speech recognition
US7895062B2 (en) 2001-12-31 2011-02-22 Genworth Financial, Inc. System for optimization of insurance underwriting suitable for use by an automated system
US7844477B2 (en) 2001-12-31 2010-11-30 Genworth Financial, Inc. Process for rule-based insurance underwriting suitable for use by an automated system
US7899688B2 (en) 2001-12-31 2011-03-01 Genworth Financial, Inc. Process for optimization of insurance underwriting suitable for use by an automated system
US8793146B2 (en) * 2001-12-31 2014-07-29 Genworth Holdings, Inc. System for rule-based insurance underwriting suitable for use by an automated system
US7818186B2 (en) 2001-12-31 2010-10-19 Genworth Financial, Inc. System for determining a confidence factor for insurance underwriting suitable for use by an automated system
US7630910B2 (en) 2001-12-31 2009-12-08 Genworth Financial, Inc. System for case-based insurance underwriting suitable for use by an automated system
US8005693B2 (en) 2001-12-31 2011-08-23 Genworth Financial, Inc. Process for determining a confidence factor for insurance underwriting suitable for use by an automated system
US7844476B2 (en) 2001-12-31 2010-11-30 Genworth Financial, Inc. Process for case-based insurance underwriting suitable for use by an automated system
US20030149881A1 (en) * 2002-01-31 2003-08-07 Digital Security Inc. Apparatus and method for securing information transmitted on computer networks
US6687672B2 (en) 2002-03-15 2004-02-03 Matsushita Electric Industrial Co., Ltd. Methods and apparatus for blind channel estimation based upon speech correlation structure
US7424425B2 (en) * 2002-05-19 2008-09-09 International Business Machines Corporation Optimization of detection systems using a detection error tradeoff analysis criterion
FR2848715B1 (en) * 2002-12-11 2005-02-18 France Telecom METHOD AND SYSTEM FOR MULTI-REFERENCE CORRECTION OF SPECTRAL VOICE DEFORMATIONS INTRODUCED BY A COMMUNICATION NETWORK
US7734025B2 (en) * 2003-02-28 2010-06-08 Grape Technology Group, Inc. Methods and systems for providing on-line bills for use in communications services
US7567914B2 (en) 2003-04-30 2009-07-28 Genworth Financial, Inc. System and process for dominance classification for insurance underwriting suitable for use by an automated system
US7383239B2 (en) 2003-04-30 2008-06-03 Genworth Financial, Inc. System and process for a fusion classification for insurance underwriting suitable for use by an automated system
US7813945B2 (en) 2003-04-30 2010-10-12 Genworth Financial, Inc. System and process for multivariate adaptive regression splines classification for insurance underwriting suitable for use by an automated system
US7801748B2 (en) 2003-04-30 2010-09-21 Genworth Financial, Inc. System and process for detecting outliers for insurance underwriting suitable for use by an automated system
CN1308911C (en) * 2003-07-10 2007-04-04 上海优浪信息科技有限公司 Method and system for identifying status of speaker
US7698159B2 (en) 2004-02-13 2010-04-13 Genworth Financial Inc. Systems and methods for performing data collection
US20050288930A1 (en) * 2004-06-09 2005-12-29 Vaastek, Inc. Computer voice recognition apparatus and method
US7386448B1 (en) 2004-06-24 2008-06-10 T-Netix, Inc. Biometric voice authentication
KR100571574B1 (en) * 2004-07-26 2006-04-17 한양대학교 산학협력단 Similar Speaker Recognition Method Using Nonlinear Analysis and Its System
US7895039B2 (en) * 2005-02-04 2011-02-22 Vocollect, Inc. Methods and systems for optimizing model adaptation for a speech recognition system
US7827032B2 (en) * 2005-02-04 2010-11-02 Vocollect, Inc. Methods and systems for adapting a model for a speech recognition system
US8200495B2 (en) 2005-02-04 2012-06-12 Vocollect, Inc. Methods and systems for considering information about an expected response when performing speech recognition
US7949533B2 (en) * 2005-02-04 2011-05-24 Vococollect, Inc. Methods and systems for assessing and improving the performance of a speech recognition system
US7865362B2 (en) * 2005-02-04 2011-01-04 Vocollect, Inc. Method and system for considering information about an expected response when performing speech recognition
US7853539B2 (en) * 2005-09-28 2010-12-14 Honda Motor Co., Ltd. Discriminating speech and non-speech with regularized least squares
US7539616B2 (en) * 2006-02-20 2009-05-26 Microsoft Corporation Speaker authentication using adapted background models
CN101051463B (en) * 2006-04-06 2012-07-11 株式会社东芝 Verification method and device identified by speaking person
CN101154380B (en) * 2006-09-29 2011-01-26 株式会社东芝 Method and device for registration and validation of speaker's authentication
US7822605B2 (en) * 2006-10-19 2010-10-26 Nice Systems Ltd. Method and apparatus for large population speaker identification in telephone interactions
JP5418223B2 (en) * 2007-03-26 2014-02-19 日本電気株式会社 Speech classification device, speech classification method, and speech classification program
US8886663B2 (en) * 2008-09-20 2014-11-11 Securus Technologies, Inc. Multi-party conversation analyzer and logger
US8145483B2 (en) * 2009-08-05 2012-03-27 Tze Fen Li Speech recognition method for all languages without using samples
US9015093B1 (en) 2010-10-26 2015-04-21 Michael Lamport Commons Intelligent control with hierarchical stacked neural networks
US8775341B1 (en) 2010-10-26 2014-07-08 Michael Lamport Commons Intelligent control with hierarchical stacked neural networks
US20120116764A1 (en) * 2010-11-09 2012-05-10 Tze Fen Li Speech recognition method on sentences in all languages
WO2012068705A1 (en) * 2010-11-25 2012-05-31 Telefonaktiebolaget L M Ericsson (Publ) Analysis system and method for audio data
US8914290B2 (en) 2011-05-20 2014-12-16 Vocollect, Inc. Systems and methods for dynamically improving user intelligibility of synthesized speech in a work environment
US9390445B2 (en) 2012-03-05 2016-07-12 Visa International Service Association Authentication using biometric technology through a consumer device
CN102664011B (en) * 2012-05-17 2014-03-12 吉林大学 Method for quickly recognizing speaker
EA023695B1 (en) * 2012-07-16 2016-07-29 Ооо "Центр Речевых Технологий" Method for recognition of speech messages and device for carrying out the method
US9240184B1 (en) * 2012-11-15 2016-01-19 Google Inc. Frame-level combination of deep neural network and gaussian mixture models
US9230550B2 (en) * 2013-01-10 2016-01-05 Sensory, Incorporated Speaker verification and identification using artificial neural network-based sub-phonetic unit discrimination
US8694315B1 (en) 2013-02-05 2014-04-08 Visa International Service Association System and method for authentication using speaker verification techniques and fraud model
US9865266B2 (en) * 2013-02-25 2018-01-09 Nuance Communications, Inc. Method and apparatus for automated speaker parameters adaptation in a deployed speaker verification system
US9978395B2 (en) 2013-03-15 2018-05-22 Vocollect, Inc. Method and system for mitigating delay in receiving audio stream during production of sound from audio stream
US10237399B1 (en) 2014-04-01 2019-03-19 Securus Technologies, Inc. Identical conversation detection method and apparatus
US9621713B1 (en) 2014-04-01 2017-04-11 Securus Technologies, Inc. Identical conversation detection method and apparatus
CN103986725A (en) * 2014-05-29 2014-08-13 中国农业银行股份有限公司 Client side, server side and identity authentication system and method
US9922048B1 (en) 2014-12-01 2018-03-20 Securus Technologies, Inc. Automated background check via facial recognition
CN104410697A (en) * 2014-12-02 2015-03-11 广东安居宝数码科技股份有限公司 Method and system for processing attendance information
JP6481939B2 (en) * 2015-03-19 2019-03-13 株式会社レイトロン Speech recognition apparatus and speech recognition program
US10133538B2 (en) * 2015-03-27 2018-11-20 Sri International Semi-supervised speaker diarization
WO2017212206A1 (en) 2016-06-06 2017-12-14 Cirrus Logic International Semiconductor Limited Voice user interface
US20180018973A1 (en) * 2016-07-15 2018-01-18 Google Inc. Speaker verification
CN106228976B (en) * 2016-07-22 2019-05-31 百度在线网络技术(北京)有限公司 Audio recognition method and device
US10714121B2 (en) 2016-07-27 2020-07-14 Vocollect, Inc. Distinguishing user speech from background speech in speech-dense environments
CN107886955B (en) * 2016-09-29 2021-10-26 百度在线网络技术(北京)有限公司 Identity recognition method, device and equipment of voice conversation sample
US10614813B2 (en) * 2016-11-04 2020-04-07 Intellisist, Inc. System and method for performing caller identity verification using multi-step voice analysis
KR102125549B1 (en) * 2017-04-20 2020-06-22 한국전자통신연구원 Utterance verification method for deep neural network speech recognition system
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
US10957318B2 (en) * 2018-11-02 2021-03-23 Visa International Service Association Dynamic voice authentication
US11024291B2 (en) 2018-11-21 2021-06-01 Sri International Real-time class recognition for an audio stream
US11114103B2 (en) 2018-12-28 2021-09-07 Alibaba Group Holding Limited Systems, methods, and computer-readable storage media for audio signal processing
US10891318B2 (en) * 2019-02-22 2021-01-12 United States Of America As Represented By The Secretary Of The Navy Temporal logic fusion of real time data
CN114175150A (en) * 2019-06-07 2022-03-11 日本电气株式会社 Speech processing apparatus, speech processing method, and non-transitory computer-readable medium storing program
US20220375476A1 (en) * 2019-10-17 2022-11-24 Nec Corporation Speaker authentication system, method, and program
CN111081255B (en) * 2019-12-31 2022-06-03 思必驰科技股份有限公司 Speaker confirmation method and device
CN116153336B (en) * 2023-04-19 2023-07-21 北京中电慧声科技有限公司 Synthetic voice detection method based on multi-domain information fusion

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4837831A (en) * 1986-10-15 1989-06-06 Dragon Systems, Inc. Method for creating and using multiple-word sound models in speech recognition
US4975961A (en) * 1987-10-28 1990-12-04 Nec Corporation Multi-layer neural network to which dynamic programming techniques are applicable
JPH0673080B2 (en) * 1987-11-25 1994-09-14 日本電気株式会社 Continuous speech recognition method
DE69030561T2 (en) * 1989-12-28 1997-10-09 Sharp Kk Speech recognition device
US5220640A (en) * 1990-09-20 1993-06-15 Motorola, Inc. Neural net architecture for rate-varying inputs
US5271088A (en) * 1991-05-13 1993-12-14 Itt Corporation Automated sorting of voice messages through speaker spotting
US5430827A (en) * 1993-04-23 1995-07-04 At&T Corp. Password verification system
US5528728A (en) * 1993-07-12 1996-06-18 Kabushiki Kaisha Meidensha Speaker independent speech recognition system and method using neural network and DTW matching technique
WO1995005656A1 (en) * 1993-08-12 1995-02-23 The University Of Queensland A speaker verification system
US5457770A (en) * 1993-08-19 1995-10-10 Kabushiki Kaisha Meidensha Speaker independent speech recognition system and method using neural network and/or DP matching technique
US5522012A (en) * 1994-02-28 1996-05-28 Rutgers University Speaker identification and verification system

Similar Documents

Publication Publication Date Title
RU98100221A (en) TALKING VERIFICATION SYSTEM
US5862519A (en) Blind clustering of data with application to speech processing systems
US6760701B2 (en) Subword-based speaker verification using multiple-classifier fusion, with channel, fusion, model and threshold adaptation
US7529665B2 (en) Two stage utterance verification device and method thereof in speech recognition system
US5167004A (en) Temporal decorrelation method for robust speaker verification
EP0870300B1 (en) Speaker verification system
US6038528A (en) Robust speech processing with affine transform replicated data
US6922668B1 (en) Speaker recognition
US6895376B2 (en) Eigenvoice re-estimation technique of acoustic models for speech recognition, speaker identification and speaker verification
US5794190A (en) Speech pattern recognition using pattern recognizers and classifiers
CN111243603A (en) Voiceprint recognition method, system, mobile terminal and storage medium
US5101434A (en) Voice recognition using segmented time encoded speech
Fredouille et al. AMIRAL: a block-segmental multirecognizer architecture for automatic speaker recognition
US6502070B1 (en) Method and apparatus for normalizing channel specific speech feature elements
Zeinali et al. Spoken pass-phrase verification in the i-vector space
Thomas et al. Language identification using deep neural network for Indian languages
US7454337B1 (en) Method of modeling single data class from multi-class data
KR102669692B1 (en) Synthetic voice detection method based on biological sound, recording medium and apparatus for performing the same
Chen et al. Audio-visual information fusion for SVM-based biometric verification
Samad et al. A multi-sample single-source model using spectrographic features for biometric authentication
US20240079027A1 (en) Synthetic voice detection method based on biological sound, recording medium and apparatus for performing the same
JP3518195B2 (en) Voice recognition device
Häkkinen et al. Improved feature vector normalization for noise robust connected speech recognition.
Thienpondt et al. Speaker Embeddings With Weakly Supervised Voice Activity Detection For Efficient Speaker Diarization
KR20240032596A (en) Synthetic voice detection method based on biological sound, recording medium and apparatus for performing the same