FI98162C - HMM-malliin perustuva puheentunnistusmenetelmä - Google Patents

HMM-malliin perustuva puheentunnistusmenetelmä Download PDF

Info

Publication number
FI98162C
FI98162C FI942518A FI942518A FI98162C FI 98162 C FI98162 C FI 98162C FI 942518 A FI942518 A FI 942518A FI 942518 A FI942518 A FI 942518A FI 98162 C FI98162 C FI 98162C
Authority
FI
Finland
Prior art keywords
parameters
hmm
word
model
hmm model
Prior art date
Application number
FI942518A
Other languages
English (en)
Swedish (sv)
Other versions
FI942518A (fi
FI98162B (fi
FI942518A0 (fi
Inventor
Jari Ranta
Original Assignee
Tecnomen Oy
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tecnomen Oy filed Critical Tecnomen Oy
Publication of FI942518A0 publication Critical patent/FI942518A0/fi
Priority to FI942518A priority Critical patent/FI98162C/fi
Priority to EP95107651A priority patent/EP0685835B1/en
Priority to ES95107651T priority patent/ES2139112T3/es
Priority to DK95107651T priority patent/DK0685835T3/da
Priority to DE69512961T priority patent/DE69512961T2/de
Priority to PT95107651T priority patent/PT685835E/pt
Priority to AT95107651T priority patent/ATE186150T1/de
Priority to NO952049A priority patent/NO307394B1/no
Publication of FI942518A publication Critical patent/FI942518A/fi
Application granted granted Critical
Publication of FI98162B publication Critical patent/FI98162B/fi
Publication of FI98162C publication Critical patent/FI98162C/fi
Priority to US08/869,408 priority patent/US5943647A/en
Priority to GR20000400074T priority patent/GR3032375T3/el

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/14Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]
    • G10L15/142Hidden Markov Models [HMMs]
    • G10L15/144Training of HMMs
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/12Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being prediction coefficients
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/18Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Probability & Statistics with Applications (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Navigation (AREA)
  • Transmission Systems Not Characterized By The Medium Used For Transmission (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Image Analysis (AREA)
  • Telephone Function (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)

Description

1 98162 HMM-malliin perustuva puheentunnistusmenetelmä. -Taiigenkänningsförfarande baserat pä HMM-model.
Ongelma johon tarjotaan ratkaisua
Puhujasta riippumattoman puheentunnistuksen tarkkuus varsinkin puhelimessa on puutteellinen nykyisin tunnetuilla menetelmillä. Tarkkuudella tarkoitetaan järjestelmän kykyä tunnistaa kuulemansa ääni vertaamalla sitä järjestelmään talletettuihin äänimalleihin.
Nykyiset ratkaisut ja niiden haitat
Puheentunnistuksessa käytetyt HMM mallit (Hidden Markov Models) ovat tilastollisia, todennäköisyyslaskentaan perustuvia menetelmiä. Tunnistusvaiheessa lasketaan todennäköisyydet muistissa oleville sanamalleille. Tunnistetuksi sanaksi valitaan malli, jonka todennäköisyys on suurin.
Viitteessä [2] on esitetty HMM-mallia käyttävä puheentunnistusmenetelmä (HMM-VQ), jossa todennäköisyyslaskennan sijasta käytetään vektorikvantisoinnissa syntyvää virhettä. Tunnistusvaiheessa lasketaan neliövirhe sanamallien ja tunnistettavan sanan välillä. Sanamallit muodostuvat koodikiijöistä, jotka sisältävät sanassa esiintyvät piirreparametrit. Piirreparametrit lasketaan opetusvaiheessa LBG-vektorikvantisointi algoritmilla [5]. Tunnistetuksi sanaksi valitaan malli jolla on pienin neliövirhe tunnistettavaan sanaan venattuna. Tässä viitteessä esitetään myös muunnettu Viterbi -algoritmi, jota käytetään sanan etäisyyttä laskettaessa.
Viitteessä [3] on kuvattu puheentunnistusmenetelmä, jossa käytetään tiheysfunktioihin perustuvaa HMM mallia jossa on LPC-spektrin lisäksi otettu käyttöön sen derivaatta, eli spektriderivaatta. Puheesta laskettu spektri sisältää lyhytaikaista informaatiota (ns. taajuustason informaatio) ja spektriderivaatta sisältää pidempiaikaista informaatiota (ns. aikatason informaatio). Spektriderivaatan käyttö tekee puheesta kattavamman, 2-ulotteisen esityksen (taajuus, aika) ja parantaa viitteen [3] mukaan jatkuvaa tiheysfunktiota käyttävän HMM-mallin tunnistustarkkuutta.
Tunnistustarkkuus käytettäessä näitä menetelmiä on kuitenkin puutteellinen.
Puhujan tunnistukseen käytetyn, viitteessä [4] esitetyn patentoidun puhujantunnistusalgoritmin tarkkuudeksi annetaan alle 1 % virheellinen tunnistus ja virheellinen hyväksyntä käytettäessä puhujan tunnistamiseen numeroita nollasta yhdeksään. (Viitteessä ei mainita kuinka monta numeroa puhujan on sanottava tunnistamisvaiheessa.)
Keksintö
Idea on yhdistää viitteissä [2] ja [3] esitetyt tavat, eli lisätä viitteen [3] tavalla spektriderivaatta parametrit viitteen [2] HMM-VQ algoritmin piirreparametreihin ja näin päästä entistä parempaan tunnistustarkkuuteen.
Keksinnön mukaisen menetelmän tunnusmerkit on esitetty oheisessa patenttivaatimuksessa.
2 98162
Keksinnön hyödyt
Vektorikvantisointiin perustuvaa menetelmää on viitteessä [2] verrattu tunnettuihin tilastollisiin HMM-malleihin joissa käytetään jatkuvaa tai diskreettiä tiheysfimktiota ja osoitettu tämän menetelmän tunnistustarkkuuden paremmuus näihin nähden. Koska spektriderivaatan käyttö tilastollisissa HMM-malleissa parantaa tunnistus tarkkuutta, niin lisäämällä spektriderivaatta parametri HMM-VQ malliin voidaan tunnistustarkkuutta entisestään lisätä. Menetelmien [2] ja [3] yhdistelmää käyttämällä spektriderivaatta parametri vaikuttaa Viterbi laskennan tulokseen yhtäaikaa varsinaisten piirreparametrien kanssa. Koska spektriderivaatta parametrit sisältävät informaatiota aikatasossa, niin parametrien yhdistelmällä saadaan parempi tarkkuus kuin käyttämällä yhtä parametrijoukkoa kuten viitteessä [2] on tehty. Sanamallien opetusvaiheessa lasketaan spektriparametreille ja spektriderivaatta parametreille erilliset VQ-koodikiijat.
Käytettäessä puhelimesta saatua testidataa (100 puhujaa opetuksessa ja 25 eri puhujaa testauksessa) saatiin tunnistustarkkuus uudella menetelmällä paremmaksi verrattuna viitteen [2] tapaan. Testissä oli mukana 11 eri sanaa ja tarkkuudeksi saatiin 98.85 %.
Jos käyttöön otettiin rajoitus siten että sana hylätään jos kahden parhaimman sanamallin välinen ero on pienempi kuin 10%, saatiin tarkkuudeksi 100% hylkäysten ollessa 1.5 % testiaineistosta. Huom. viitteessä [2] esitetyissä tuloksissa annetaan tarkkuudeksi ilman hylkäyksiä jopa 100%, mutta testidatana on käytetty korkealaatuisesta mikrofonista saatua dataa. Puhetta on vaikeampi tunnistaa puhelimesta kuin suoraan äänitettyä 'puhdasta' dataa, koska puhelinkaista on rajoitetumpi ja puhelinlinjojen taajuusvasteet voivat vaihdella suurestikin.
Keksinnön sovellusesimerkki
Menetelmää voidaan käyttää kuten tiheysfunktioihin perustuvia HMM-mallejakin puheentunnistukseen yleensä. Tunnistettavat yksiköt voivat olla esim. sanoja, foneemeja, kvasifoneemeja, trifoneja ym.
Sovellus voi olla esimerkiksi puheposti, jonka valikoissa annettavat komennot annetaan puhumalla, eikä puhelimen näppäimillä, kuten perinteisesti tehdään ("..jos haluat kuunnella viestin paina näppäintä 3..."). Järjestelmälle opetetaan rajattu määrä sanamalleja, joihin puhelimesta kuuluvia sanoja verrataan.
Algoritmia voidaan käyttää myös puhujan tunnistamiseen ja alustavat kokeilut antoivat lupaavia tuloksia. Käytettäessä tunnistamiseen yhtä puhelimen kautta puhuttua sanaa saatiin tunnistustarkuuksiksi viidellä eri puhujalla 0.16 % virheellinen hylkäys ja 0.16 % virheellinen tunnistus (vrt. viitteen [4] algoritmi, jossa tarkkuus alle 1% virheellinen hylkäys). Puhujan tunnistaminen on tärkeää puhepostisovelluksissa silloin, kun puhelin ei voi lähettää DTMF-signaaleja. Tällöin ei puhelimesta soitettaessa ole muuta soittajan tunnistamistapaa kuin tämä oma ääni.
Toimintakuvaus Tässä kuvataan menetelmä puhujasta riippumatonta puheen tunnistusta varten. Tunnistamistapa perustuu puheen piirteiden kuvaamiseen kätketyillä HMM malleilla, käyttäen tunnistuksessa apuna vektorikvantisoinnissa syntyvää virhettä.
Puheentunnistuksessa käytettävä HMM malli on yksinkertainen tilakone, jossa tilasiirtymä voi tapahtua ainoastaan samaan tai seuraavaan tilaan. Kuva 1 esittää 3 98162
Uudessa puheen mallinnustavassa käytetään HMM mallia jonka jokaista tilaa kuvaa kaksi erillistä vektorikvantisointi koodikirjaa. Toinen koodikirja opetetaan käyttämällä PLP-analyysin parametreja ja toinen koodikirja opetetaan käyttämällä spektriderivaatta parametreja.
Tunnistuksen eri vaiheet 1. Puheen analyysi
Tunnistettavalle puheelle suoritetaan viitteessä [1] kuvattu PLP-analyysi 30 ms osissa 15 ms välein. Analyysistä saadaan tuloksena tätä 15 ms lohkoa kuvaavat piirreparametrit cc,(m), missä 1< m <5. Vektoria cc,(m) ajan hetkellä / painotetaan ikkunalla Wf (m), jolloin saadaan c,(m) = cc,(m)*Wc(m). (1) 2. Parametrien laskeminen
Viitteessä [3] on kuvattu, kuinka spektriderivaatan käyttö parantaa jatkuvaa tiheysfunktiota käyttävää HMM puheentunnistinta. Spektriderivaatalla tarkoitetaan analyysistä saatujen piirreparametrien painotettua keskiarvoa tietyn mittaisen aikaikkunan piirreparametreista yhtälön (2) mukaisesti
f K
Ac, (m) = I Σ&7-*0»)Γσ’ m <5, K = 2 (2)
L k=-K
missä G on vahvistus tekijä, jolla vektorien c,(m) ja Ac, (m) varianssit saadaan samansuuruisiksi. Tässä käytetty arvo oli 0.2. Yhdistämällä nämä kaksi vektoria saadaan aikalohkon / kuvaavaksi piirreparametriksi vektori O, ={c,(m) ,Ac,{m)} (3) joka koostuu kymmenestä alkiosta. Merkitään sanan piirreparametri joukkoa muuttujalla C ja sanan spektriderivaatta parametrijoukkoa muuttujalla AC, eli C={c,(m)} ja AC= {Ac,(m}] (4) 3. Sanamallien opettaminen
Sanamallit on tällä hetkellä opetettu erikseen piirreparametreille C ja spektriderivaatta parametreille AC. Sanamallit opetetaan vektorikvantisointi algoritmia käyttäen seuraavasti:
Opetukseen käytettävät sanat analysoidaan PLP-analyysillä ja tuloksena saadaan vektorit C ja AC. Nämä vektorit kuvaavat siis puhetta 15 ms lohkoissa. Kaikki opetettavat sanat jaetaan aluksi lineaarisesti eri osiin siten, että jokainen osa sisältää 4 98162
Opetukseen käytettävät sanat analysoidaan PLP-analyysillä ja tuloksena saadaan vektorit C ja AC. Nämä vektorit kuvaavat siis puhetta 15 ms lohkoissa. Kaikki opetettavat sanat jaetaan aluksi lineaarisesti eri osiin siten, että jokainen osa sisältää tietyn määrän piirreparametreja. Osien määränä käytetään HMM-mallin tilojen määrää. Eli jos käytetään malleja joissa on kahdeksan tilaa, jaetaan sanaa kuvaavat vektorit C ja AC kahdeksaan yhtä pitkään osaan. Jokaisen sanan samaan tilaan kuuluvista vektoreista c,(m) ja Ac,(m) muodostetaan tilalle oma koodikiija.
Koodikiija koostuu joukosta vektoreita, joilla saadaan pienin neliövirhe opetukseen käytettävien ja koodikirjan vektorien välillä. Kun eri tiloihin kuuluvista vektoreista on optimaaliset koodikirjat laskettu, lasketaan kaikkien sanojen etäisyydet saadusta mallista. Etäisyydet summataan ja arvoa verrataan edellisen kierroksen etäisyyteen.
Jos uusi etäisyys on suurempi kuin edellinen, opetus päättyy. Jos uusi etäisyys on pienempi, jaetaan opetettavat sanat Viterbi-algoritmilla uudelleen tiloihin ja muodostetaan näistä tiloista uudet koodikirjat. Tätä jatketaan, kunnes uusi etäisyys on suurempi kuin edellinen. Vektorikvantisoijan koodikirjojen muodostamiseen on olemassa useita eri algoritmeja, tässä on käytetty viitteessä [5] esitettyä tapaa.
Olennaista opetuksessa on, että sanamallit luodaan siitä ympäristöstä, jossa tunnistinta on tarkoitus käyttää. Eli jos halutaan tunnistaa puhetta puhelimen kautta, on sanat myöskin opetettava datalla joka on saatu puhelimen kautta. Jos opetukseen ja tunnistamiseen käytetään erilaisia ympäristöjä, niin tunnistustarkkuus heikkenee oleellisesti.
4. Etäisyysmitan laskeminen
Etäisyysmitan laskeminen tarkoittaa kuullun sanan vertaamista sanamalliin. Sanan etäisyys D kustakin sanamallista lasketaan viitteen [2] esittämällä muunnetulla Viterbi algoritmilla seuraavan yhtälön mukaisesti D = min § 4^0.,)+^,.¾)+4*h.*,)}· (5) Tässä jt0jc, ...xl tarkoittaa HMM-mallin tilasekvenssiä ja Qx tarkoittaa koodikirjaa tilassa x, . Merkitään HMM-mallissa olevien tilojen määrää vakiolla S eli 1 < x(< S .
L on sanassa esiintyvien lohkojen lukumäärä, eli sanan pituus. i/(xM,xJ on nolla jos on olemassa tilasiirtymä tilasta xM tilaan x,, muutoin £f(x,_,, x,) = «ä(c„VQ,J tarkoittaa vektoreiden c, ja Qx välistä pienintä etäisyyttä joka määritellään d{c„VQx) = minrf(c,,vg7),vg. e VQX. (6) i/(c, ,v<7y ) määritellään 5 2 d{cnvqj) = - vqj(m)) (7) m=l 5 98162 Tässä vq on koodikirjassa oleva komponentti. Komponenttien määrä yhden tilan koodikirjassa Qx on jokin kahden potenssi, tyypillisesti 16 tai 32. Yhtälö (7) siis laskee pienimmän neliövirheen piirreparametrin c(. ja koodikirjan komponentin vq} välillä ja yhtälö (6) laskee pienimmän neliövirheen piirreparametrin c, ja koodikirjan Qx välillä. Vastaavasti d^Ac^VQ^ tarkoittaa vektoreiden Ac, ja Qx välistä pienintä etäisyyttä. Yhtälön (5) Viterbi algoritmi lasketaan rekursiivisesti siten, että * lasketaan samanaikaisesti kvantisointivirhe molemmille piirreparametrijoukoille. Eli lasketaan pienin kvantisointivirhe HMM mallin tilan piirreparametreille ja lisäksi lasketaan pienin kvantisointivirhe HMM mallin tilan spektriderivaatta parametreille.
Tämä voidaan ilmaista seuraavalla yhtälöllä g(y,/) = min(g{/,/-l) +d{cl,VQ^ + d{Ac„VQ^d(i,j)\ D = g(S,L), / = 1,2,...,1 ja j = \X...,S.
Tässä on keksinnön varsinainen idea matemaattisessa muodossa eli Viterbi algoritmiin on lisätty spektriderivaatasta johtuva termi d^Act,VQ^. Viterbi algoritmi suoritetaan sanan jokaiselle 15 ms lohkolle / . Nämä etäisyydet lasketaan yhteen sopivasti painotettuina ja summaa g(j,t) käytetään Viterbi-algoritmin laskennassa seuraavan lohkon / +1 aikana.
Viitteet: [1] H. Hermansky, "Perceptual linear predictive (PLP) analysis of speech", Journal of Acoustical Society of America, Vol. 87, No. 4, Huhtikuu 1990, ss. 1738-1752.
[2] S. Nakagawa ja H. Suzuki, "A new speech recognition method based on VQ-distortion measure and HMM", ICASSP-93, ss. 11-676 -11-679.
[3] L. R. Rabiner, J. G. Wilpon ja F. K. Soong, "High performance connected digit recognition using hidden Markov models", IEEE Transactions on Acoustics Speech and Signal Processing, vol. 37, ss. 1214-1225, Elokuu 1989.
[4] High Accuracy Speaker Verification System, Ensigma Ltd [5] Y. Linde, A. Buzo, R. M. Gray, "An Algorithm for Vector Quantizer Design", IEEE Transactions on Communications, vol. COM-28, NO. 1, Tammikuu 1980.

Claims (1)

  1. ‘ 98162 Patenttivaatimus HMM-malliin perustuva puheentunnistusmenetelmä, jossa PLP- analyysillä saaduista piirreparametreista lasketaan etäisyys LBG-vektorikvantisointialgoritmilla muodostetuista koodikirjoista ja tunnistetuksi sanaksi valitaan sanamalli, jonka vektorikvantisoinnissa syntyvä neliövirhe on pienin tunnistettavaan sanaan verrattuna, tunnettu siitä, että sanamallit opetetaan erikseen LBG-vektorikvantisointialgoritmilla piirreparametreille ja ko. piirreparametrien spektriderivaattaparametreille, että muodostetaan piirreparametreille ja spektriderivaattaparametreille erilliset koodikiijat, joita molempia käytetään kuvaamaan HMM-mallin jokaista tilaa. Patentkravet Taligenkänningsförfarande baserat pä en HMM-modell, i vilket frän en PLP-analys erhällna särdragsparametrar räknas avständet frän med en LBG-vektorkvantiseringsalgoritm bildade kodböcker och som ett igenkänt ord väljs en ordmodell, i vars vektorkvantisering bildade kvadratfel är minst i förhällande tili ordet,somskalligenkännas,kännetecknat därav,attordmodellerlärsseparat med LBG-vektorkvantiseringsalgoritm för särdragsparametrama och resp. spekralderivataparametrar för särdragsparametrar, att det bildas separata kodböcker för särdragsparametrama och spetralderivataparametrama, vilka bäda används för att beskriva HMM-modeilens vaqe tillständ.
FI942518A 1994-05-30 1994-05-30 HMM-malliin perustuva puheentunnistusmenetelmä FI98162C (fi)

Priority Applications (10)

Application Number Priority Date Filing Date Title
FI942518A FI98162C (fi) 1994-05-30 1994-05-30 HMM-malliin perustuva puheentunnistusmenetelmä
ES95107651T ES2139112T3 (es) 1994-05-30 1995-05-19 Reconocimiento del habla basado en hmms.
EP95107651A EP0685835B1 (en) 1994-05-30 1995-05-19 Speech recognition based on HMMs
DK95107651T DK0685835T3 (da) 1994-05-30 1995-05-19 Talegenkendelse baseret på HMM'er
DE69512961T DE69512961T2 (de) 1994-05-30 1995-05-19 Spracherkennung auf Grundlage von "HMMs"
PT95107651T PT685835E (pt) 1994-05-30 1995-05-19 Reconhecimento de discurso baseado em hmms
AT95107651T ATE186150T1 (de) 1994-05-30 1995-05-19 Spracherkennung auf grundlage von ''hmms''
NO952049A NO307394B1 (no) 1994-05-30 1995-05-23 Talegjenkjenning, spesielt basert på Hidden Markov modeller
US08/869,408 US5943647A (en) 1994-05-30 1997-06-05 Speech recognition based on HMMs
GR20000400074T GR3032375T3 (en) 1994-05-30 2000-01-14 Speech recognition based on HMMs.

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FI942518A FI98162C (fi) 1994-05-30 1994-05-30 HMM-malliin perustuva puheentunnistusmenetelmä
FI942518 1994-05-30

Publications (4)

Publication Number Publication Date
FI942518A0 FI942518A0 (fi) 1994-05-30
FI942518A FI942518A (fi) 1995-12-01
FI98162B FI98162B (fi) 1997-01-15
FI98162C true FI98162C (fi) 1997-04-25

Family

ID=8540797

Family Applications (1)

Application Number Title Priority Date Filing Date
FI942518A FI98162C (fi) 1994-05-30 1994-05-30 HMM-malliin perustuva puheentunnistusmenetelmä

Country Status (10)

Country Link
US (1) US5943647A (fi)
EP (1) EP0685835B1 (fi)
AT (1) ATE186150T1 (fi)
DE (1) DE69512961T2 (fi)
DK (1) DK0685835T3 (fi)
ES (1) ES2139112T3 (fi)
FI (1) FI98162C (fi)
GR (1) GR3032375T3 (fi)
NO (1) NO307394B1 (fi)
PT (1) PT685835E (fi)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6076055A (en) * 1997-05-27 2000-06-13 Ameritech Speaker verification method
US7630895B2 (en) * 2000-01-21 2009-12-08 At&T Intellectual Property I, L.P. Speaker verification method
US6246978B1 (en) * 1999-05-18 2001-06-12 Mci Worldcom, Inc. Method and system for measurement of speech distortion from samples of telephonic voice signals
KR20010055168A (ko) * 1999-12-09 2001-07-04 윤덕용 인터넷 환경에서의 화자확인
US6801656B1 (en) 2000-11-06 2004-10-05 Koninklijke Philips Electronics N.V. Method and apparatus for determining a number of states for a hidden Markov model in a signal processing system
US20030225719A1 (en) * 2002-05-31 2003-12-04 Lucent Technologies, Inc. Methods and apparatus for fast and robust model training for object classification
US7970613B2 (en) 2005-11-12 2011-06-28 Sony Computer Entertainment Inc. Method and system for Gaussian probability data bit reduction and computation
US20070129945A1 (en) * 2005-12-06 2007-06-07 Ma Changxue C Voice quality control for high quality speech reconstruction
US7778831B2 (en) * 2006-02-21 2010-08-17 Sony Computer Entertainment Inc. Voice recognition with dynamic filter bank adjustment based on speaker categorization determined from runtime pitch
US8010358B2 (en) * 2006-02-21 2011-08-30 Sony Computer Entertainment Inc. Voice recognition with parallel gender and age normalization
KR100932538B1 (ko) * 2007-12-12 2009-12-17 한국전자통신연구원 음성 합성 방법 및 장치
US8788256B2 (en) * 2009-02-17 2014-07-22 Sony Computer Entertainment Inc. Multiple language voice recognition
US8442833B2 (en) * 2009-02-17 2013-05-14 Sony Computer Entertainment Inc. Speech processing with source location estimation using signals from two or more microphones
US8442829B2 (en) * 2009-02-17 2013-05-14 Sony Computer Entertainment Inc. Automatic computation streaming partition for voice recognition on multiple processors with limited memory
US9153235B2 (en) 2012-04-09 2015-10-06 Sony Computer Entertainment Inc. Text dependent speaker recognition with long-term feature based on functional data analysis
CN107039036B (zh) * 2017-02-17 2020-06-16 南京邮电大学 一种基于自动编码深度置信网络的高质量说话人识别方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4815134A (en) * 1987-09-08 1989-03-21 Texas Instruments Incorporated Very low rate speech encoder and decoder
US5274739A (en) * 1990-05-22 1993-12-28 Rockwell International Corporation Product code memory Itakura-Saito (MIS) measure for sound recognition
DE69232202T2 (de) * 1991-06-11 2002-07-25 Qualcomm, Inc. Vocoder mit veraendlicher bitrate
US5371853A (en) * 1991-10-28 1994-12-06 University Of Maryland At College Park Method and system for CELP speech coding and codebook for use therewith
KR0132894B1 (ko) * 1992-03-13 1998-10-01 강진구 영상압축부호화 및 복호화 방법과 그 장치
JPH05257492A (ja) * 1992-03-13 1993-10-08 Toshiba Corp 音声認識方式
EP0562138A1 (en) * 1992-03-25 1993-09-29 International Business Machines Corporation Method and apparatus for the automatic generation of Markov models of new words to be added to a speech recognition vocabulary
JPH0772840B2 (ja) * 1992-09-29 1995-08-02 日本アイ・ビー・エム株式会社 音声モデルの構成方法、音声認識方法、音声認識装置及び音声モデルの訓練方法
US5455888A (en) * 1992-12-04 1995-10-03 Northern Telecom Limited Speech bandwidth extension method and apparatus
US5590242A (en) * 1994-03-24 1996-12-31 Lucent Technologies Inc. Signal bias removal for robust telephone speech recognition

Also Published As

Publication number Publication date
PT685835E (pt) 2000-04-28
NO952049L (no) 1995-12-01
ES2139112T3 (es) 2000-02-01
FI942518A (fi) 1995-12-01
DE69512961T2 (de) 2000-07-13
GR3032375T3 (en) 2000-04-27
EP0685835B1 (en) 1999-10-27
NO307394B1 (no) 2000-03-27
DK0685835T3 (da) 2000-02-14
US5943647A (en) 1999-08-24
ATE186150T1 (de) 1999-11-15
DE69512961D1 (de) 1999-12-02
NO952049D0 (no) 1995-05-23
FI98162B (fi) 1997-01-15
FI942518A0 (fi) 1994-05-30
EP0685835A1 (en) 1995-12-06

Similar Documents

Publication Publication Date Title
FI98162C (fi) HMM-malliin perustuva puheentunnistusmenetelmä
AU720511B2 (en) Pattern recognition
US5960397A (en) System and method of recognizing an acoustic environment to adapt a set of based recognition models to the current acoustic environment for subsequent speech recognition
AU712412B2 (en) Speech processing
Kim et al. A bitstream-based front-end for wireless speech recognition on IS-136 communications system
EP1159737B1 (en) Speaker recognition
Wilpon et al. Application of hidden Markov models for recognition of a limited set of words in unconstrained speech
JPH07210190A (ja) 音声認識方法及びシステム
GB2370401A (en) Speech recognition
JP3189598B2 (ja) 信号合成方法および信号合成装置
Sugamura et al. Isolated word recognition using phoneme-like templates
KR100447558B1 (ko) 벡터양자화코드북적응을사용하여음성신호들을보상하기위한방법및시스템
Fugen et al. Integrating dynamic speech modalities into context decision trees
KR101041035B1 (ko) 고속 화자 인식 방법 및 장치, 고속 화자 인식을 위한 등록방법 및 장치
Cerisara et al. Multi-band automatic speech recognition
JPH10254473A (ja) 音声変換方法及び音声変換装置
Kim et al. Performance improvement of a bitstream-based front-end for wireless speech recognition in adverse environments
Sharma et al. Non-intrusive bit-rate detection of coded speech
Fukuda et al. Noise-robust ASR by using distinctive phonetic features approximated with logarithmic normal distribution of HMM.
Fukuda et al. Noise-robust automatic speech recognition using orthogonalized distinctive phonetic feature vectors.
Raghavan Speaker and environment adaptation in continuous speech recognition
Zhao Iterative self-learning speaker and channel adaptation under various initial conditions
Ram et al. Speech Coding & Recognition
JPS5999500A (ja) 音声認識方法
Kim et al. Speaker Recognition Using Temporal Decomposition of LSF for Mobile Environment

Legal Events

Date Code Title Description
BB Publication of examined application