FI98162C - HMM-malliin perustuva puheentunnistusmenetelmä - Google Patents
HMM-malliin perustuva puheentunnistusmenetelmä Download PDFInfo
- Publication number
- FI98162C FI98162C FI942518A FI942518A FI98162C FI 98162 C FI98162 C FI 98162C FI 942518 A FI942518 A FI 942518A FI 942518 A FI942518 A FI 942518A FI 98162 C FI98162 C FI 98162C
- Authority
- FI
- Finland
- Prior art keywords
- parameters
- hmm
- word
- model
- hmm model
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 21
- 239000013598 vector Substances 0.000 claims abstract description 27
- 230000003595 spectral effect Effects 0.000 claims abstract description 15
- 238000013139 quantization Methods 0.000 claims abstract description 9
- 238000005259 measurement Methods 0.000 claims description 2
- 241001327627 Separata Species 0.000 claims 1
- NGVDGCNFYWLIFO-UHFFFAOYSA-N pyridoxal 5'-phosphate Chemical compound CC1=NC=C(COP(O)(O)=O)C(C=O)=C1O NGVDGCNFYWLIFO-UHFFFAOYSA-N 0.000 claims 1
- 238000011002 quantification Methods 0.000 claims 1
- 238000001228 spectrum Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 5
- 238000012360 testing method Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 230000002950 deficient Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/14—Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]
- G10L15/142—Hidden Markov Models [HMMs]
- G10L15/144—Training of HMMs
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/12—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being prediction coefficients
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/18—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Computational Linguistics (AREA)
- Acoustics & Sound (AREA)
- Probability & Statistics with Applications (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
- Navigation (AREA)
- Transmission Systems Not Characterized By The Medium Used For Transmission (AREA)
- Electrophonic Musical Instruments (AREA)
- Image Analysis (AREA)
- Telephone Function (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)
Description
1 98162 HMM-malliin perustuva puheentunnistusmenetelmä. -Taiigenkänningsförfarande baserat pä HMM-model.
Ongelma johon tarjotaan ratkaisua
Puhujasta riippumattoman puheentunnistuksen tarkkuus varsinkin puhelimessa on puutteellinen nykyisin tunnetuilla menetelmillä. Tarkkuudella tarkoitetaan järjestelmän kykyä tunnistaa kuulemansa ääni vertaamalla sitä järjestelmään talletettuihin äänimalleihin.
Nykyiset ratkaisut ja niiden haitat
Puheentunnistuksessa käytetyt HMM mallit (Hidden Markov Models) ovat tilastollisia, todennäköisyyslaskentaan perustuvia menetelmiä. Tunnistusvaiheessa lasketaan todennäköisyydet muistissa oleville sanamalleille. Tunnistetuksi sanaksi valitaan malli, jonka todennäköisyys on suurin.
Viitteessä [2] on esitetty HMM-mallia käyttävä puheentunnistusmenetelmä (HMM-VQ), jossa todennäköisyyslaskennan sijasta käytetään vektorikvantisoinnissa syntyvää virhettä. Tunnistusvaiheessa lasketaan neliövirhe sanamallien ja tunnistettavan sanan välillä. Sanamallit muodostuvat koodikiijöistä, jotka sisältävät sanassa esiintyvät piirreparametrit. Piirreparametrit lasketaan opetusvaiheessa LBG-vektorikvantisointi algoritmilla [5]. Tunnistetuksi sanaksi valitaan malli jolla on pienin neliövirhe tunnistettavaan sanaan venattuna. Tässä viitteessä esitetään myös muunnettu Viterbi -algoritmi, jota käytetään sanan etäisyyttä laskettaessa.
Viitteessä [3] on kuvattu puheentunnistusmenetelmä, jossa käytetään tiheysfunktioihin perustuvaa HMM mallia jossa on LPC-spektrin lisäksi otettu käyttöön sen derivaatta, eli spektriderivaatta. Puheesta laskettu spektri sisältää lyhytaikaista informaatiota (ns. taajuustason informaatio) ja spektriderivaatta sisältää pidempiaikaista informaatiota (ns. aikatason informaatio). Spektriderivaatan käyttö tekee puheesta kattavamman, 2-ulotteisen esityksen (taajuus, aika) ja parantaa viitteen [3] mukaan jatkuvaa tiheysfunktiota käyttävän HMM-mallin tunnistustarkkuutta.
Tunnistustarkkuus käytettäessä näitä menetelmiä on kuitenkin puutteellinen.
Puhujan tunnistukseen käytetyn, viitteessä [4] esitetyn patentoidun puhujantunnistusalgoritmin tarkkuudeksi annetaan alle 1 % virheellinen tunnistus ja virheellinen hyväksyntä käytettäessä puhujan tunnistamiseen numeroita nollasta yhdeksään. (Viitteessä ei mainita kuinka monta numeroa puhujan on sanottava tunnistamisvaiheessa.)
Keksintö
Idea on yhdistää viitteissä [2] ja [3] esitetyt tavat, eli lisätä viitteen [3] tavalla spektriderivaatta parametrit viitteen [2] HMM-VQ algoritmin piirreparametreihin ja näin päästä entistä parempaan tunnistustarkkuuteen.
Keksinnön mukaisen menetelmän tunnusmerkit on esitetty oheisessa patenttivaatimuksessa.
2 98162
Keksinnön hyödyt
Vektorikvantisointiin perustuvaa menetelmää on viitteessä [2] verrattu tunnettuihin tilastollisiin HMM-malleihin joissa käytetään jatkuvaa tai diskreettiä tiheysfimktiota ja osoitettu tämän menetelmän tunnistustarkkuuden paremmuus näihin nähden. Koska spektriderivaatan käyttö tilastollisissa HMM-malleissa parantaa tunnistus tarkkuutta, niin lisäämällä spektriderivaatta parametri HMM-VQ malliin voidaan tunnistustarkkuutta entisestään lisätä. Menetelmien [2] ja [3] yhdistelmää käyttämällä spektriderivaatta parametri vaikuttaa Viterbi laskennan tulokseen yhtäaikaa varsinaisten piirreparametrien kanssa. Koska spektriderivaatta parametrit sisältävät informaatiota aikatasossa, niin parametrien yhdistelmällä saadaan parempi tarkkuus kuin käyttämällä yhtä parametrijoukkoa kuten viitteessä [2] on tehty. Sanamallien opetusvaiheessa lasketaan spektriparametreille ja spektriderivaatta parametreille erilliset VQ-koodikiijat.
Käytettäessä puhelimesta saatua testidataa (100 puhujaa opetuksessa ja 25 eri puhujaa testauksessa) saatiin tunnistustarkkuus uudella menetelmällä paremmaksi verrattuna viitteen [2] tapaan. Testissä oli mukana 11 eri sanaa ja tarkkuudeksi saatiin 98.85 %.
Jos käyttöön otettiin rajoitus siten että sana hylätään jos kahden parhaimman sanamallin välinen ero on pienempi kuin 10%, saatiin tarkkuudeksi 100% hylkäysten ollessa 1.5 % testiaineistosta. Huom. viitteessä [2] esitetyissä tuloksissa annetaan tarkkuudeksi ilman hylkäyksiä jopa 100%, mutta testidatana on käytetty korkealaatuisesta mikrofonista saatua dataa. Puhetta on vaikeampi tunnistaa puhelimesta kuin suoraan äänitettyä 'puhdasta' dataa, koska puhelinkaista on rajoitetumpi ja puhelinlinjojen taajuusvasteet voivat vaihdella suurestikin.
Keksinnön sovellusesimerkki
Menetelmää voidaan käyttää kuten tiheysfunktioihin perustuvia HMM-mallejakin puheentunnistukseen yleensä. Tunnistettavat yksiköt voivat olla esim. sanoja, foneemeja, kvasifoneemeja, trifoneja ym.
Sovellus voi olla esimerkiksi puheposti, jonka valikoissa annettavat komennot annetaan puhumalla, eikä puhelimen näppäimillä, kuten perinteisesti tehdään ("..jos haluat kuunnella viestin paina näppäintä 3..."). Järjestelmälle opetetaan rajattu määrä sanamalleja, joihin puhelimesta kuuluvia sanoja verrataan.
Algoritmia voidaan käyttää myös puhujan tunnistamiseen ja alustavat kokeilut antoivat lupaavia tuloksia. Käytettäessä tunnistamiseen yhtä puhelimen kautta puhuttua sanaa saatiin tunnistustarkuuksiksi viidellä eri puhujalla 0.16 % virheellinen hylkäys ja 0.16 % virheellinen tunnistus (vrt. viitteen [4] algoritmi, jossa tarkkuus alle 1% virheellinen hylkäys). Puhujan tunnistaminen on tärkeää puhepostisovelluksissa silloin, kun puhelin ei voi lähettää DTMF-signaaleja. Tällöin ei puhelimesta soitettaessa ole muuta soittajan tunnistamistapaa kuin tämä oma ääni.
Toimintakuvaus Tässä kuvataan menetelmä puhujasta riippumatonta puheen tunnistusta varten. Tunnistamistapa perustuu puheen piirteiden kuvaamiseen kätketyillä HMM malleilla, käyttäen tunnistuksessa apuna vektorikvantisoinnissa syntyvää virhettä.
Puheentunnistuksessa käytettävä HMM malli on yksinkertainen tilakone, jossa tilasiirtymä voi tapahtua ainoastaan samaan tai seuraavaan tilaan. Kuva 1 esittää 3 98162
Uudessa puheen mallinnustavassa käytetään HMM mallia jonka jokaista tilaa kuvaa kaksi erillistä vektorikvantisointi koodikirjaa. Toinen koodikirja opetetaan käyttämällä PLP-analyysin parametreja ja toinen koodikirja opetetaan käyttämällä spektriderivaatta parametreja.
Tunnistuksen eri vaiheet 1. Puheen analyysi
Tunnistettavalle puheelle suoritetaan viitteessä [1] kuvattu PLP-analyysi 30 ms osissa 15 ms välein. Analyysistä saadaan tuloksena tätä 15 ms lohkoa kuvaavat piirreparametrit cc,(m), missä 1< m <5. Vektoria cc,(m) ajan hetkellä / painotetaan ikkunalla Wf (m), jolloin saadaan c,(m) = cc,(m)*Wc(m). (1) 2. Parametrien laskeminen
Viitteessä [3] on kuvattu, kuinka spektriderivaatan käyttö parantaa jatkuvaa tiheysfunktiota käyttävää HMM puheentunnistinta. Spektriderivaatalla tarkoitetaan analyysistä saatujen piirreparametrien painotettua keskiarvoa tietyn mittaisen aikaikkunan piirreparametreista yhtälön (2) mukaisesti
f K
Ac, (m) = I Σ&7-*0»)Γσ’ m <5, K = 2 (2)
L k=-K
missä G on vahvistus tekijä, jolla vektorien c,(m) ja Ac, (m) varianssit saadaan samansuuruisiksi. Tässä käytetty arvo oli 0.2. Yhdistämällä nämä kaksi vektoria saadaan aikalohkon / kuvaavaksi piirreparametriksi vektori O, ={c,(m) ,Ac,{m)} (3) joka koostuu kymmenestä alkiosta. Merkitään sanan piirreparametri joukkoa muuttujalla C ja sanan spektriderivaatta parametrijoukkoa muuttujalla AC, eli C={c,(m)} ja AC= {Ac,(m}] (4) 3. Sanamallien opettaminen
Sanamallit on tällä hetkellä opetettu erikseen piirreparametreille C ja spektriderivaatta parametreille AC. Sanamallit opetetaan vektorikvantisointi algoritmia käyttäen seuraavasti:
Opetukseen käytettävät sanat analysoidaan PLP-analyysillä ja tuloksena saadaan vektorit C ja AC. Nämä vektorit kuvaavat siis puhetta 15 ms lohkoissa. Kaikki opetettavat sanat jaetaan aluksi lineaarisesti eri osiin siten, että jokainen osa sisältää 4 98162
Opetukseen käytettävät sanat analysoidaan PLP-analyysillä ja tuloksena saadaan vektorit C ja AC. Nämä vektorit kuvaavat siis puhetta 15 ms lohkoissa. Kaikki opetettavat sanat jaetaan aluksi lineaarisesti eri osiin siten, että jokainen osa sisältää tietyn määrän piirreparametreja. Osien määränä käytetään HMM-mallin tilojen määrää. Eli jos käytetään malleja joissa on kahdeksan tilaa, jaetaan sanaa kuvaavat vektorit C ja AC kahdeksaan yhtä pitkään osaan. Jokaisen sanan samaan tilaan kuuluvista vektoreista c,(m) ja Ac,(m) muodostetaan tilalle oma koodikiija.
Koodikiija koostuu joukosta vektoreita, joilla saadaan pienin neliövirhe opetukseen käytettävien ja koodikirjan vektorien välillä. Kun eri tiloihin kuuluvista vektoreista on optimaaliset koodikirjat laskettu, lasketaan kaikkien sanojen etäisyydet saadusta mallista. Etäisyydet summataan ja arvoa verrataan edellisen kierroksen etäisyyteen.
Jos uusi etäisyys on suurempi kuin edellinen, opetus päättyy. Jos uusi etäisyys on pienempi, jaetaan opetettavat sanat Viterbi-algoritmilla uudelleen tiloihin ja muodostetaan näistä tiloista uudet koodikirjat. Tätä jatketaan, kunnes uusi etäisyys on suurempi kuin edellinen. Vektorikvantisoijan koodikirjojen muodostamiseen on olemassa useita eri algoritmeja, tässä on käytetty viitteessä [5] esitettyä tapaa.
Olennaista opetuksessa on, että sanamallit luodaan siitä ympäristöstä, jossa tunnistinta on tarkoitus käyttää. Eli jos halutaan tunnistaa puhetta puhelimen kautta, on sanat myöskin opetettava datalla joka on saatu puhelimen kautta. Jos opetukseen ja tunnistamiseen käytetään erilaisia ympäristöjä, niin tunnistustarkkuus heikkenee oleellisesti.
4. Etäisyysmitan laskeminen
Etäisyysmitan laskeminen tarkoittaa kuullun sanan vertaamista sanamalliin. Sanan etäisyys D kustakin sanamallista lasketaan viitteen [2] esittämällä muunnetulla Viterbi algoritmilla seuraavan yhtälön mukaisesti D = min § 4^0.,)+^,.¾)+4*h.*,)}· (5) Tässä jt0jc, ...xl tarkoittaa HMM-mallin tilasekvenssiä ja Qx tarkoittaa koodikirjaa tilassa x, . Merkitään HMM-mallissa olevien tilojen määrää vakiolla S eli 1 < x(< S .
L on sanassa esiintyvien lohkojen lukumäärä, eli sanan pituus. i/(xM,xJ on nolla jos on olemassa tilasiirtymä tilasta xM tilaan x,, muutoin £f(x,_,, x,) = «ä(c„VQ,J tarkoittaa vektoreiden c, ja Qx välistä pienintä etäisyyttä joka määritellään d{c„VQx) = minrf(c,,vg7),vg. e VQX. (6) i/(c, ,v<7y ) määritellään 5 2 d{cnvqj) = - vqj(m)) (7) m=l 5 98162 Tässä vq on koodikirjassa oleva komponentti. Komponenttien määrä yhden tilan koodikirjassa Qx on jokin kahden potenssi, tyypillisesti 16 tai 32. Yhtälö (7) siis laskee pienimmän neliövirheen piirreparametrin c(. ja koodikirjan komponentin vq} välillä ja yhtälö (6) laskee pienimmän neliövirheen piirreparametrin c, ja koodikirjan Qx välillä. Vastaavasti d^Ac^VQ^ tarkoittaa vektoreiden Ac, ja Qx välistä pienintä etäisyyttä. Yhtälön (5) Viterbi algoritmi lasketaan rekursiivisesti siten, että * lasketaan samanaikaisesti kvantisointivirhe molemmille piirreparametrijoukoille. Eli lasketaan pienin kvantisointivirhe HMM mallin tilan piirreparametreille ja lisäksi lasketaan pienin kvantisointivirhe HMM mallin tilan spektriderivaatta parametreille.
Tämä voidaan ilmaista seuraavalla yhtälöllä g(y,/) = min(g{/,/-l) +d{cl,VQ^ + d{Ac„VQ^d(i,j)\ D = g(S,L), / = 1,2,...,1 ja j = \X...,S.
Tässä on keksinnön varsinainen idea matemaattisessa muodossa eli Viterbi algoritmiin on lisätty spektriderivaatasta johtuva termi d^Act,VQ^. Viterbi algoritmi suoritetaan sanan jokaiselle 15 ms lohkolle / . Nämä etäisyydet lasketaan yhteen sopivasti painotettuina ja summaa g(j,t) käytetään Viterbi-algoritmin laskennassa seuraavan lohkon / +1 aikana.
Viitteet: [1] H. Hermansky, "Perceptual linear predictive (PLP) analysis of speech", Journal of Acoustical Society of America, Vol. 87, No. 4, Huhtikuu 1990, ss. 1738-1752.
[2] S. Nakagawa ja H. Suzuki, "A new speech recognition method based on VQ-distortion measure and HMM", ICASSP-93, ss. 11-676 -11-679.
[3] L. R. Rabiner, J. G. Wilpon ja F. K. Soong, "High performance connected digit recognition using hidden Markov models", IEEE Transactions on Acoustics Speech and Signal Processing, vol. 37, ss. 1214-1225, Elokuu 1989.
[4] High Accuracy Speaker Verification System, Ensigma Ltd [5] Y. Linde, A. Buzo, R. M. Gray, "An Algorithm for Vector Quantizer Design", IEEE Transactions on Communications, vol. COM-28, NO. 1, Tammikuu 1980.
Claims (1)
- ‘ 98162 Patenttivaatimus HMM-malliin perustuva puheentunnistusmenetelmä, jossa PLP- analyysillä saaduista piirreparametreista lasketaan etäisyys LBG-vektorikvantisointialgoritmilla muodostetuista koodikirjoista ja tunnistetuksi sanaksi valitaan sanamalli, jonka vektorikvantisoinnissa syntyvä neliövirhe on pienin tunnistettavaan sanaan verrattuna, tunnettu siitä, että sanamallit opetetaan erikseen LBG-vektorikvantisointialgoritmilla piirreparametreille ja ko. piirreparametrien spektriderivaattaparametreille, että muodostetaan piirreparametreille ja spektriderivaattaparametreille erilliset koodikiijat, joita molempia käytetään kuvaamaan HMM-mallin jokaista tilaa. Patentkravet Taligenkänningsförfarande baserat pä en HMM-modell, i vilket frän en PLP-analys erhällna särdragsparametrar räknas avständet frän med en LBG-vektorkvantiseringsalgoritm bildade kodböcker och som ett igenkänt ord väljs en ordmodell, i vars vektorkvantisering bildade kvadratfel är minst i förhällande tili ordet,somskalligenkännas,kännetecknat därav,attordmodellerlärsseparat med LBG-vektorkvantiseringsalgoritm för särdragsparametrama och resp. spekralderivataparametrar för särdragsparametrar, att det bildas separata kodböcker för särdragsparametrama och spetralderivataparametrama, vilka bäda används för att beskriva HMM-modeilens vaqe tillständ.
Priority Applications (10)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FI942518A FI98162C (fi) | 1994-05-30 | 1994-05-30 | HMM-malliin perustuva puheentunnistusmenetelmä |
ES95107651T ES2139112T3 (es) | 1994-05-30 | 1995-05-19 | Reconocimiento del habla basado en hmms. |
EP95107651A EP0685835B1 (en) | 1994-05-30 | 1995-05-19 | Speech recognition based on HMMs |
DK95107651T DK0685835T3 (da) | 1994-05-30 | 1995-05-19 | Talegenkendelse baseret på HMM'er |
DE69512961T DE69512961T2 (de) | 1994-05-30 | 1995-05-19 | Spracherkennung auf Grundlage von "HMMs" |
PT95107651T PT685835E (pt) | 1994-05-30 | 1995-05-19 | Reconhecimento de discurso baseado em hmms |
AT95107651T ATE186150T1 (de) | 1994-05-30 | 1995-05-19 | Spracherkennung auf grundlage von ''hmms'' |
NO952049A NO307394B1 (no) | 1994-05-30 | 1995-05-23 | Talegjenkjenning, spesielt basert på Hidden Markov modeller |
US08/869,408 US5943647A (en) | 1994-05-30 | 1997-06-05 | Speech recognition based on HMMs |
GR20000400074T GR3032375T3 (en) | 1994-05-30 | 2000-01-14 | Speech recognition based on HMMs. |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FI942518A FI98162C (fi) | 1994-05-30 | 1994-05-30 | HMM-malliin perustuva puheentunnistusmenetelmä |
FI942518 | 1994-05-30 |
Publications (4)
Publication Number | Publication Date |
---|---|
FI942518A0 FI942518A0 (fi) | 1994-05-30 |
FI942518A FI942518A (fi) | 1995-12-01 |
FI98162B FI98162B (fi) | 1997-01-15 |
FI98162C true FI98162C (fi) | 1997-04-25 |
Family
ID=8540797
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
FI942518A FI98162C (fi) | 1994-05-30 | 1994-05-30 | HMM-malliin perustuva puheentunnistusmenetelmä |
Country Status (10)
Country | Link |
---|---|
US (1) | US5943647A (fi) |
EP (1) | EP0685835B1 (fi) |
AT (1) | ATE186150T1 (fi) |
DE (1) | DE69512961T2 (fi) |
DK (1) | DK0685835T3 (fi) |
ES (1) | ES2139112T3 (fi) |
FI (1) | FI98162C (fi) |
GR (1) | GR3032375T3 (fi) |
NO (1) | NO307394B1 (fi) |
PT (1) | PT685835E (fi) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6076055A (en) * | 1997-05-27 | 2000-06-13 | Ameritech | Speaker verification method |
US7630895B2 (en) * | 2000-01-21 | 2009-12-08 | At&T Intellectual Property I, L.P. | Speaker verification method |
US6246978B1 (en) * | 1999-05-18 | 2001-06-12 | Mci Worldcom, Inc. | Method and system for measurement of speech distortion from samples of telephonic voice signals |
KR20010055168A (ko) * | 1999-12-09 | 2001-07-04 | 윤덕용 | 인터넷 환경에서의 화자확인 |
US6801656B1 (en) | 2000-11-06 | 2004-10-05 | Koninklijke Philips Electronics N.V. | Method and apparatus for determining a number of states for a hidden Markov model in a signal processing system |
US20030225719A1 (en) * | 2002-05-31 | 2003-12-04 | Lucent Technologies, Inc. | Methods and apparatus for fast and robust model training for object classification |
US7970613B2 (en) | 2005-11-12 | 2011-06-28 | Sony Computer Entertainment Inc. | Method and system for Gaussian probability data bit reduction and computation |
US20070129945A1 (en) * | 2005-12-06 | 2007-06-07 | Ma Changxue C | Voice quality control for high quality speech reconstruction |
US7778831B2 (en) * | 2006-02-21 | 2010-08-17 | Sony Computer Entertainment Inc. | Voice recognition with dynamic filter bank adjustment based on speaker categorization determined from runtime pitch |
US8010358B2 (en) * | 2006-02-21 | 2011-08-30 | Sony Computer Entertainment Inc. | Voice recognition with parallel gender and age normalization |
KR100932538B1 (ko) * | 2007-12-12 | 2009-12-17 | 한국전자통신연구원 | 음성 합성 방법 및 장치 |
US8788256B2 (en) * | 2009-02-17 | 2014-07-22 | Sony Computer Entertainment Inc. | Multiple language voice recognition |
US8442833B2 (en) * | 2009-02-17 | 2013-05-14 | Sony Computer Entertainment Inc. | Speech processing with source location estimation using signals from two or more microphones |
US8442829B2 (en) * | 2009-02-17 | 2013-05-14 | Sony Computer Entertainment Inc. | Automatic computation streaming partition for voice recognition on multiple processors with limited memory |
US9153235B2 (en) | 2012-04-09 | 2015-10-06 | Sony Computer Entertainment Inc. | Text dependent speaker recognition with long-term feature based on functional data analysis |
CN107039036B (zh) * | 2017-02-17 | 2020-06-16 | 南京邮电大学 | 一种基于自动编码深度置信网络的高质量说话人识别方法 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4815134A (en) * | 1987-09-08 | 1989-03-21 | Texas Instruments Incorporated | Very low rate speech encoder and decoder |
US5274739A (en) * | 1990-05-22 | 1993-12-28 | Rockwell International Corporation | Product code memory Itakura-Saito (MIS) measure for sound recognition |
DE69232202T2 (de) * | 1991-06-11 | 2002-07-25 | Qualcomm, Inc. | Vocoder mit veraendlicher bitrate |
US5371853A (en) * | 1991-10-28 | 1994-12-06 | University Of Maryland At College Park | Method and system for CELP speech coding and codebook for use therewith |
KR0132894B1 (ko) * | 1992-03-13 | 1998-10-01 | 강진구 | 영상압축부호화 및 복호화 방법과 그 장치 |
JPH05257492A (ja) * | 1992-03-13 | 1993-10-08 | Toshiba Corp | 音声認識方式 |
EP0562138A1 (en) * | 1992-03-25 | 1993-09-29 | International Business Machines Corporation | Method and apparatus for the automatic generation of Markov models of new words to be added to a speech recognition vocabulary |
JPH0772840B2 (ja) * | 1992-09-29 | 1995-08-02 | 日本アイ・ビー・エム株式会社 | 音声モデルの構成方法、音声認識方法、音声認識装置及び音声モデルの訓練方法 |
US5455888A (en) * | 1992-12-04 | 1995-10-03 | Northern Telecom Limited | Speech bandwidth extension method and apparatus |
US5590242A (en) * | 1994-03-24 | 1996-12-31 | Lucent Technologies Inc. | Signal bias removal for robust telephone speech recognition |
-
1994
- 1994-05-30 FI FI942518A patent/FI98162C/fi active
-
1995
- 1995-05-19 ES ES95107651T patent/ES2139112T3/es not_active Expired - Lifetime
- 1995-05-19 EP EP95107651A patent/EP0685835B1/en not_active Expired - Lifetime
- 1995-05-19 AT AT95107651T patent/ATE186150T1/de not_active IP Right Cessation
- 1995-05-19 PT PT95107651T patent/PT685835E/pt unknown
- 1995-05-19 DE DE69512961T patent/DE69512961T2/de not_active Expired - Fee Related
- 1995-05-19 DK DK95107651T patent/DK0685835T3/da active
- 1995-05-23 NO NO952049A patent/NO307394B1/no not_active IP Right Cessation
-
1997
- 1997-06-05 US US08/869,408 patent/US5943647A/en not_active Expired - Fee Related
-
2000
- 2000-01-14 GR GR20000400074T patent/GR3032375T3/el unknown
Also Published As
Publication number | Publication date |
---|---|
PT685835E (pt) | 2000-04-28 |
NO952049L (no) | 1995-12-01 |
ES2139112T3 (es) | 2000-02-01 |
FI942518A (fi) | 1995-12-01 |
DE69512961T2 (de) | 2000-07-13 |
GR3032375T3 (en) | 2000-04-27 |
EP0685835B1 (en) | 1999-10-27 |
NO307394B1 (no) | 2000-03-27 |
DK0685835T3 (da) | 2000-02-14 |
US5943647A (en) | 1999-08-24 |
ATE186150T1 (de) | 1999-11-15 |
DE69512961D1 (de) | 1999-12-02 |
NO952049D0 (no) | 1995-05-23 |
FI98162B (fi) | 1997-01-15 |
FI942518A0 (fi) | 1994-05-30 |
EP0685835A1 (en) | 1995-12-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
FI98162C (fi) | HMM-malliin perustuva puheentunnistusmenetelmä | |
AU720511B2 (en) | Pattern recognition | |
US5960397A (en) | System and method of recognizing an acoustic environment to adapt a set of based recognition models to the current acoustic environment for subsequent speech recognition | |
AU712412B2 (en) | Speech processing | |
Kim et al. | A bitstream-based front-end for wireless speech recognition on IS-136 communications system | |
EP1159737B1 (en) | Speaker recognition | |
Wilpon et al. | Application of hidden Markov models for recognition of a limited set of words in unconstrained speech | |
JPH07210190A (ja) | 音声認識方法及びシステム | |
GB2370401A (en) | Speech recognition | |
JP3189598B2 (ja) | 信号合成方法および信号合成装置 | |
Sugamura et al. | Isolated word recognition using phoneme-like templates | |
KR100447558B1 (ko) | 벡터양자화코드북적응을사용하여음성신호들을보상하기위한방법및시스템 | |
Fugen et al. | Integrating dynamic speech modalities into context decision trees | |
KR101041035B1 (ko) | 고속 화자 인식 방법 및 장치, 고속 화자 인식을 위한 등록방법 및 장치 | |
Cerisara et al. | Multi-band automatic speech recognition | |
JPH10254473A (ja) | 音声変換方法及び音声変換装置 | |
Kim et al. | Performance improvement of a bitstream-based front-end for wireless speech recognition in adverse environments | |
Sharma et al. | Non-intrusive bit-rate detection of coded speech | |
Fukuda et al. | Noise-robust ASR by using distinctive phonetic features approximated with logarithmic normal distribution of HMM. | |
Fukuda et al. | Noise-robust automatic speech recognition using orthogonalized distinctive phonetic feature vectors. | |
Raghavan | Speaker and environment adaptation in continuous speech recognition | |
Zhao | Iterative self-learning speaker and channel adaptation under various initial conditions | |
Ram et al. | Speech Coding & Recognition | |
JPS5999500A (ja) | 音声認識方法 | |
Kim et al. | Speaker Recognition Using Temporal Decomposition of LSF for Mobile Environment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
BB | Publication of examined application |