NO306489B1 - Talesignalbehandlingsanordning - Google Patents

Talesignalbehandlingsanordning Download PDF

Info

Publication number
NO306489B1
NO306489B1 NO910221A NO910221A NO306489B1 NO 306489 B1 NO306489 B1 NO 306489B1 NO 910221 A NO910221 A NO 910221A NO 910221 A NO910221 A NO 910221A NO 306489 B1 NO306489 B1 NO 306489B1
Authority
NO
Norway
Prior art keywords
cepstrum
output
mean value
signal
threshold
Prior art date
Application number
NO910221A
Other languages
English (en)
Other versions
NO910221D0 (no
NO910221L (no
Inventor
Joji Kane
Akira Nohara
Original Assignee
Matsushita Electric Ind Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2008595A external-priority patent/JP2712692B2/ja
Priority claimed from JP2008592A external-priority patent/JP2712691B2/ja
Priority claimed from JP2017348A external-priority patent/JPH03220600A/ja
Priority claimed from JP2026506A external-priority patent/JP2712703B2/ja
Priority claimed from JP2026507A external-priority patent/JP2712704B2/ja
Priority claimed from JP2034297A external-priority patent/JP2712708B2/ja
Application filed by Matsushita Electric Ind Co Ltd filed Critical Matsushita Electric Ind Co Ltd
Publication of NO910221D0 publication Critical patent/NO910221D0/no
Publication of NO910221L publication Critical patent/NO910221L/no
Publication of NO306489B1 publication Critical patent/NO306489B1/no

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • G10L2025/783Detection of presence or absence of voice signals based on threshold decision
    • G10L2025/786Adaptive threshold
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/24Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being the cepstrum

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Soundproofing, Sound Blocking, And Sound Damping (AREA)
  • Selective Calling Equipment (AREA)
  • Input Circuits Of Receivers And Coupling Of Receivers And Audio Equipment (AREA)
  • Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Description

Den foreliggende oppfinnelse vedrører en talesignaldeteksjonsanordning og en talesignaldeteksjonsfremgangsmåte, særlig i forbindelse med stemmegjenkjennings-teknikker.
Nylig er tale- (eller stemme-) deteksjonsanordninger for å detektere nærværet/fraværet av en tale blitt anvendt i stort omfang for anvendelser slik som talegjenkjennelse, talergjenkjennelse, utstyrsoperasjon ved tale og innmatning til datamaskin ved hjelp av tale.
Fig. 1 er et blokkskjema som viser en tidligere kjent taledeteksjonsanordning, hvis utformning og virkemåte vil bli forklart i det etterfølgende. En effektdeteksjonsseksjon 19 detekterer en effektverdi i et inngangssignal for å bevirke verdien til å bli sammenlignet ved hjelp av en komparator 21, og komparatoren 21 sammenligner så verdien med en forut bestemt satt verdi i en terskelinnstillingsseksjon 20 for å utmate et stemmedetektert signal når verdien er større enn den forutbestemte satte verdien.
Ifølge den tidligere kjente stemmedeteksjonsanordningen som er beskrevet ovenfor, selv om en stemmeinnmatning er liten, når det innmatede signal inneholder en støy som er annet enn stemmen, vil imidlertid en effekt som detekteres av effektdeteksjons-seksjonen større enn den satte verdi i terskelinnstillingsseksjonen 20 bevirke det stemmedetekterte signalet til å bli utmatet, hvorved det frembringes ubehaget ved hyppige, feilaktige deteksjoner.
Bruk av kepstrale teknikker er kjent i forbindelse med stemmebaserte/ikke-stemmebaserte beslutninger i talesignaler.
Artikkelen "Cepstrum pitch determination", A. Michael Noll, The Journal of the Acoustical Society of America, Vol. 41, No. 2, 197, sidene 293-309, angir eksempelvis å fastslå nevnte kepstrum i et innmatet talesignal og finne ut hvor dette kepstrum har en topp.
Artikkelen "Auswertung von Echtzeit-Ceptra zur schnellen Detektion von stimmhafter Laute" av M. Timme, H. Idler og T. Lay, Nachrichtentechnische Zeitschrift, 1973, Vol. 7, side 112 og de etterfølgende angir bruken av et kepstrum i et talesignal for stemmebasert/ikke-stemmebasert beslutning i forbindelse med talegjenkjenning.
Det er formålet med den foreliggende oppfinnelse å tilveiebringe en forbedret fremgangsmåte for gjenkjenning av talesignaler. Dette formål løses i henhold til trekkene knyttet til det selvstendige patentkrav, idet de underordnede krav er rettet på foretrukne utførelsesformer av oppfinnelsen.
Med en konfigurasjon ifølge den foreliggende oppfinnelse beregner kepstrumberegningsmidlet en kepstrumverdi av et inngangssignal for å oppnå det beregnede signal og et kepstrummiddelverdisignal ved det beregnede signal. En stemmedeteksjon blir så utført på basis av et signal som overskrider nevnte kepstrummiddelverdisignal, og styres av et terskelsignal beregnet og satt av nevnte kepstrummiddelverdisignal. Fig. 1 er et blokkskjema over en stemmedeteksjonsanordning ifølge en kjent teknikk. Fig. 2 er et blokkskjema over en stemmedeteksjonsanordning i en utførelsesform av
den foreliggende oppfinnelse.
Fig. 3 er et blokkskjema for en taledeteksjonsanordning ifølge en annen utførelsesform
av foreliggende oppfinnelse.
Fig. 4 er et kepstrumkarakteristisk diagram.
Fig. 5 er et blokkskjema over en taledeteksjonsanordning ifølge en annen
utførelsesform av foreliggende oppfinnelse.
Fig. 6 er et tidsavhengig kepstrumkarakteristisk diagram.
Idet det vises til tegningene vil en utførelsesform av den foreliggende oppfinnelse bli forklart i det etterfølgende.
Fig. 2 viser et blokkskjema over en taledeteksjonsanordning i en utførelsesform ifølge den foreliggende oppfinnelse. Med henvisning til fig. 2 vil utformningen og virkemåten for anordningen bli forklart. Et talesignal innmates inn i en kepstrumberegningsseksjon 1 som kepstrumberegningsmiddel som i sin tur oppnår et kepstrum av signalet.
Uttrykket "kepstrum" som er utledet fra uttrykket "spektrum" er i denne søknad symbolisert ved c(x) og oppnådd ved invers-Fourier-transformasjon av logaritmen av et korttidsspektrum S(co).
Dimensjonen av x er tid og x(tid) benevnes "kvefrens" som er utledet fra ordet "frekvens".
Del av nevnte kepstrum blir så levert til en middelverdiberegningsseksjon 2 som et middelverdiberegningsmiddel som i sin tur oppnår en kepstrummiddelverdi. En taledeteksjonsseksjon 3 som taledeteksjonsmiddel blir tilført nevnte kepstrum fra kepstrumberegningsseksjonen 1 og kepstrummiddelverdien fra middelverdiberegningsseksjonen 2. Stemmedeteksjonsseksjonen 3 detekterer så en topp i et kepstrum som er lik eller mer enn kepstrummiddelverdien, detekterer nærværet/fraværet av en stemme ved toppverdien, og når et kepstrum som overskrider kepstrummiddelverdien er større enn en terskelsatt verdi, genereres et stemmedetektert signal. Ved det tidspunktet genererer en terskelsettingsseksjon 4 som terskelsettingsmiddel et toppverdistyresignal som har en verdi beregnet i henhold til en bestemt ligning på basis av kepstrummiddelverdien fra middelverdiberegningsseksjonen 2, og angir minimumsnivået for stemmedeteksjon i stemmedeteksjonsseksjonen 3 ifølge kepstrummiddelverdien.
Ifølge den foreliggende utførelsesform som beskrevet ovenfor kan anordningen detektere nøyaktig toppen av et kepstrum selv når det utsettes for en støy, hvorved tillates en stemmedeteksjon å bli utført med en høy nøyaktighet. Dette betyr at den foreliggende oppfinnelse har en utformning som omfatter en kepstrumberegningsseksjon for å beregne en kepstrumverdi fra et stemmesignal, en middelverdiberegningsseksjon for beregning av en middelverdi av nevnte kepstrum ved et satt kvefrensintervall, en stemmedeteksjonsseksjon for å bestemme toppen i nevnte kepstrum og sammenligne den bestemte verdien med en referanseverdi for å diskriminere nærværet/fraværet av en stemme, og en terskelinnstillingsseksjon for å innstille referanseverdien for taledeteksjonsseksjonen ved å anvende kepstrumets middelverdi, med en virkning slik at kepstrumtoppen kan nøyaktig detekteres selv under et miljø som har støy, hvorved tillates at en stemmedeteksjon kan utføres med en høy nøyaktighet.
Idet det vises til tegningene, vil en utførelsesform av en annen foreliggende oppfinnelse bli forklart i det etterfølgende. Fig. 3 viser et blokkskjema over en taledeteksjonsanordning i utførelsesformen ifølge foreliggende oppfinnelse. Fig. 4 viser et kepstrum fra kepstrumberegningsseksjonen 1 i fig. 3, hvilket er uttrykt med en omhylning, selv om det er en diskret verdi. Utformningen og virkemåten av stemmedeteksjonsanordningen ifølge den foreliggende utførelsesform som er vist på fig. 3 sammen med fig. 4 vil bli forklart. Først blir et talesignal innmatet i en kepstrumberegningsseksjon 5 som i sin tur oppnår et kepstrum. Så blir del av nevnte kepstrum tilført en middelverdiberegningsseksjon 7 som i sin tur oppnår et kepstrummiddelverdi-nivå m ved kvefrensintervallet a-b vist på fig. 3. En kepstrumtilleggsseksjon 8 forsynes med nevnte kepstrum fra kepstrumberegningsseksjonen 5 og kepstrummiddelverdien fra middelverdiberegningsseksjonen 7. Kepstrumtilleggsseksjonen 8 tilføyer en kepstrumverdi som er lik eller mer enn kepstrummiddelverdinivået m ved en kvefrensbredde w med omfanget av kvefrensintervallet a-b, og leverer det kepstrumtilføyde resultat til en komparator 9. Komparatoren 9 forsynes med det kepstrumtilførte resultat fra kepstrumtilleggsseksjonen 8 og en satt utmatning fra en terskelinnstillingsseksjon 10, og når det kepstrumtillagte resultat er større enn den terskelsatte verdi, blir det utmatet et stemmedetektert signal. Ved det tidspunktet beregner terskelinnstillingsseksjonen 10 en terskel ifølge en bestemt ligning på basis av kepstrummiddelverdinivået m som er vist på fig. 4, og leverer den terskelsatte verdien som skal sammenlignes med det kepstrumtilføyde resultatet til komparatoren 9.
Ifølge den foreliggende oppfinnelse som beskrevet ovenfor kan kepstrumtoppen nøyaktig detekteres og avhengigheten av kepstrumformen nær kepstrumtoppen blir mindre, slik at evnen til kepstrumtoppdeteksjon blir stor, hvorved det tillates en taledeteksjon å bli utført med en stor nøyaktighet. Dessuten vil innstilling av en terskel ifølge kepstrummiddelverdien tillate en stemmedeteksjon å bli utført uten å være avhengig av størrelsen av et innmatet signal.
Dette betyr at taledeteksjonsseksjonen tillates å ha en utformning som omfatter en kepstrumtilleggsseksjon for tilføyelse av kepstrum når den er større enn kepstrummiddelverdien, og en komparator for å sammenligne den satte verdien fra terskelinnstillingsseksjonen med det tilføyde resultatet fra kepstrumtilleggsseksjonen for å utføre en stemmedeteksjon, med en virkning at avhengigheten av toppdeteksjonen for formen av kepstrumtoppen blir mindre, hvorved det tillates en stemmedeteksjon å bli utført med en stor nøyaktighet. En virkning oppnås dessuten ved at bestemmelsen av en terskelsatt verdi ifølge kepstrummiddelverdien tillater en stemmedeteksjon å bli utført uten avhengighet av størrelsen av et innmatet signal.
Idet det vises til tegningene, vil en utførelsesform av en annen foreliggende oppfinnelse bli forklart i det etterfølgende.
Fig. 5 viser et blokkskjema over en taledeteksjonsanordning i en utførelsesform ifølge den foreliggende oppfinnelse, og fig. 6 viser en kepstrumutmatning fra en kepstrumberegningsseksjon 11. På fig. 6 indikerer nevnte a-b et kvefrensintervall, nevnte m, og mner kepstrummiddelverdier ved intervallet a-b ved tidspunktet t]og t„, og w er en toppdeteksjonsbredde. Ved å anvende fig. 6 vil utformningen og virkemåten av utførelsesformen som er vist på fig. 5 bli forklart. Først blir et stemmesignal innmatet inn i kepstrumberegningsseksjonen 11 som i sin tur oppnår en kepstrumutmatning. Del av nevnte kepstrumutmatning blir så tilført en middelverdiberegningsseksjon 13 som i sin tur oppnår en kepstrummiddelverdi ved kvefrensintervallet a-b vist på fig. 6. En hukommelsesgruppe 17 som har et flertall av n lagerplasser tilføres med kepstrummiddelverdien fra middelverdiberegningsseksjonen 13, lagrer verdien fra kepstrummiddelverdien mjved tidspunktet ^ til kepstrummiddelverdien mnved tidspunktet t„ vist på fig. 6, og leverer de lagrede verdier til en kepstrumtilleggsseksjon 14. En hukommelsegruppe 16 som har n-satte lagringsplasser forsynes med kepstrumutmatningen fra kepstrumberegningsseksjonen 11, lagrer nevnte kepstrum fra verdien ved tidspunktet tjtil verdien ved tidspunktet tn, og leverer de lagrede verdier til kepstrumtilleggsseksjonen 14. Kepstrumtilleggsseksjonen 14 forsynes med nevnte kepstrum fra hukommelsen 16 og kepstrummiddelverdien fra hukommelsen 17, tilføyer kepstrumverdier som er større enn kepstrummiddelverdien ved hvert tidspunkt under tiden tj-t,,, og ved bredden w av kvefrensintervallet a-b vist å fig. 6, og leverer det kepstrumtilføyde resultat til en komparator 15. Komparatoren 15 forsynes med det kepstrumtilføyde resultat fra kepstrumtilføyelsesseksjonen 14 og en terskelsatt verdi beregnet av terskelinnstillingsseksjonen 18, og når det kepstrumtilføyde resultat er større enn den terskelsatte verdien, blir det utmatet et stemmedetektert signal. Ved det tidspunktet, i henhold til kepstrummiddelverdien ved tiden fra tjtil t„ vist på fig. 6, leverer terskelinnstillingsseksjonen 18 den terskelsatte verdien som skal sammenlignes med det kepstrumtilføyde resultat til komparatoren 15. Hukommelsesgruppene 16 og 17 er i en tilstand der, når en ny innmatning innmates til hukommelsesgruppene, gamle data forskyves til det neste lagersted, slik at et flertall av data alltid kan refereres til parallelt. Ifølge den foreliggende oppfinnelse, slik som beskrevet ovenfor, vil referering av de tidsavhengige endringer i nevnte kepstrumtopp tillate en mer nøyaktig stemmedeteksjon å bli utført.
Slik det vil være åpenbart fra ovenstående forklaring har den foreliggende oppfinnelse en utformning som omfatter en kepstrumberegningsseksjon for beregning av en kepstrumverdi fra et talesignal, en middelverdiberegningsseksjon for å beregne en middelverdi for nevnte kepstrum på et satt kvefrensintervall, en taledeteksjonsseksjon for å bestemme toppen av nevnte spektrum og sammenligne den bestemte verdien med en referanseverdi for å diskriminere nærværet/fraværet av en stemme, og en terskelinnstillingsseksjon for å innstille referanseverdien for taledeteksjonsseksjonen ved å anvende middelverdien av nevnte kepstrum, med den virkning at kepstrumtoppen nøyaktig kan detekteres selv under et miljø som har støy, hvorved det tillates en stemmedeteksjon å bli utført med en høy nøyaktighet.
Dette betyr at taledeteksjonsseksjonen tillates å ha en utformning som omfatter en første hukommelsesgruppe som består av n sett for lagring av kepstrum, en andre hukommelsesgruppe som består av n sett for lagring av kepstrummiddelverdien, en kepstrumtilleggsseksjon for tilføyelse av kepstrumer når den er større enn kepstrummiddelverdien, og en komparator for å sammenligne den satte verdien fra terskelinnstillingsseksjonen med det tilføyde resultat fra kepstrumtilleggsseksjonen for å gjennomføre en stemmedeteksjon, med en virkning at akkumuleringen av data i tidsrekker på hukommelsesgruppene tillater de tidsavhengige endringer av kepstrum å bli detektert og en mer nøyaktig taledeteksjon å bli utført.

Claims (4)

1. Talesignaldeteksjonsanordning,karakterisert vedat den består av: kepstrumberegningsmiddel (1, 5, 11) for å oppnå et kepstrum av et innmatet signal, middelverdiberegningsmiddel (2, 7, 13) for å oppnå fra kepstrumutmatningen fra nevnte kepstrumberegningsmiddel (1, 5, 11) en kepstrummiddelverdi på et gitt kvefrensintervall, terskelinnstillingsmiddel (4, 10, 18) for å sette et stemmedeteksjonsterskelnivå på basis av kepstrummiddelverdiutmatningen fra nevnte middelverdiberegningsmiddel (2, 7, 13), og stemmedeteksjonsmiddel (3, 8, 9, 14-17) til hvilket kepstrummiddelverdiutmatningen fra nevnte middelverdiberegningsmiddel (2, 7, 113), kepstrumutmatningen fra nevnte kepstrumberegningsmiddel (1, 5, 11) og terskelutgangssignalet fra nevnte terskelsettingsmiddel (4, 10, 18) tilføres og som sammenligner en kepstrumutmatning som overskrider nevnte kepstrummiddelverdiutmatning med nevnte terskelutgangssignal for å detektere nærværet/fraværet av et talesignal i det innmatede signalet.
2. Signaldeteksjonsanordning som angitt i krav 1,karakterisertved at nevnte taledeteksjonsmiddel (3, 8, 9, 14-17) har en kepstrumtilleggsseksjon (8, 14) for tilføyelse av kepstrumverdi som overskrider nevnte kepstrummiddelverdi og en komparator (9, 15) for å sammenligne nevnte kepstrum-tilføyd utmatning fra nevnte kepstrumtilleggsseksjon (8, 14) med nevnte terskelutgangssignal.
3. Signaldeteksjonsanordning som angitt i krav 1,karakterisertved at nevnte stemmedeteksjonsmiddel (3, 8, 9, 14-17) har: en n-sett første hukommelsesgruppe (16) for lagring av nevnte kepstrum, et flertall av n andre hukommelsesgrupper (17) for lagring av nevnte kepstrummiddelverdi, en kepstrumtilleggsseksjon (14) for å tilføye den første hukommelsesutmatning som overskrider utmatningen fra den andre hukommelsens (17) sett som svarer til nevnte første hukommelse (16), og en komparator (15) for å sammenligne den kepstrumtilføyde utmatning fra nevnte kepstrumtilleggsseksjon (14) med terskelutgangssignalet fra nevnte terskelsettingsmiddel (18).
4. Fremgangsmåte for talesignaldeteksjon,karakterisertv e d at den omfatter trinnene: å beregne et kepstrum for oppnåelse av et kepstrum av et innmatet signal, å beregne en middelverdi på et gitt kvefrensintervall av kepstrumutmatningen fra nevnte kepstrumberegningstrinn, å sette en terskel for setting av et stemmedeteksjonsterskelnivå på basis av kepstrummiddelverdiutmatningen fra nevnte middelverdiberegningstrinn, og å detektere nærværet/fraværet av talesignal i det innmatede signal ved å sammenligne en kepstrumutmatning som overskrider nevnte kepstrummiddelverdiutmatning fra nevnte middelverdiberegningstrinn med nevnte terskelutgangssignal fra nevnte terskelsettingstrinn.
NO910221A 1990-01-18 1991-01-18 Talesignalbehandlingsanordning NO306489B1 (no)

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
JP2008595A JP2712692B2 (ja) 1990-01-18 1990-01-18 信号制御装置
JP2008592A JP2712691B2 (ja) 1990-01-18 1990-01-18 信号処理装置
JP2017348A JPH03220600A (ja) 1990-01-26 1990-01-26 音声検出装置
JP2026506A JP2712703B2 (ja) 1990-02-06 1990-02-06 信号処理装置
JP2026507A JP2712704B2 (ja) 1990-02-06 1990-02-06 信号処理装置
JP2034297A JP2712708B2 (ja) 1990-02-14 1990-02-14 音声検出装置

Publications (3)

Publication Number Publication Date
NO910221D0 NO910221D0 (no) 1991-01-18
NO910221L NO910221L (no) 1991-07-19
NO306489B1 true NO306489B1 (no) 1999-11-08

Family

ID=27548141

Family Applications (4)

Application Number Title Priority Date Filing Date
NO910221A NO306489B1 (no) 1990-01-18 1991-01-18 Talesignalbehandlingsanordning
NO992258A NO308336B1 (no) 1990-01-18 1999-05-10 Anordning og fremgangsmÕte for signalbehandling
NO992257A NO308337B1 (no) 1990-01-18 1999-05-10 Signalstyringsanordning
NO992256A NO308335B1 (no) 1990-01-18 1999-05-10 Anordning og fremgangsmÕte for talesignal-deteksjon

Family Applications After (3)

Application Number Title Priority Date Filing Date
NO992258A NO308336B1 (no) 1990-01-18 1999-05-10 Anordning og fremgangsmÕte for signalbehandling
NO992257A NO308337B1 (no) 1990-01-18 1999-05-10 Signalstyringsanordning
NO992256A NO308335B1 (no) 1990-01-18 1999-05-10 Anordning og fremgangsmÕte for talesignal-deteksjon

Country Status (9)

Country Link
US (1) US5195138A (no)
EP (4) EP0614171B1 (no)
KR (1) KR960005739B1 (no)
AU (1) AU644124B2 (no)
CA (1) CA2034333C (no)
DE (4) DE69112855T2 (no)
FI (4) FI115569B (no)
HK (4) HK184795A (no)
NO (4) NO306489B1 (no)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5414674A (en) * 1993-11-12 1995-05-09 Discovery Bay Company Resonant energy analysis method and apparatus for seismic data
US5502717A (en) * 1994-08-01 1996-03-26 Motorola Inc. Method and apparatus for estimating echo cancellation time
KR20000022285A (ko) 1996-07-03 2000-04-25 내쉬 로저 윌리엄 음성 액티비티 검출기 및 검출 방법
US6314396B1 (en) 1998-11-06 2001-11-06 International Business Machines Corporation Automatic gain control in a speech recognition system
WO2001039175A1 (fr) * 1999-11-24 2001-05-31 Fujitsu Limited Procede et appareil de detection vocale
US6876965B2 (en) 2001-02-28 2005-04-05 Telefonaktiebolaget Lm Ericsson (Publ) Reduced complexity voice activity detector
US7426470B2 (en) * 2002-10-03 2008-09-16 Ntt Docomo, Inc. Energy-based nonuniform time-scale modification of audio signals
WO2006005337A1 (en) * 2004-06-11 2006-01-19 Nanonord A/S A method for analyzing fundamental frequencies and application of the method
US8264909B2 (en) * 2010-02-02 2012-09-11 The United States Of America As Represented By The Secretary Of The Navy System and method for depth determination of an impulse acoustic source by cepstral analysis
KR102057795B1 (ko) * 2013-03-15 2019-12-19 애플 인크. 콘텍스트-민감성 방해 처리
CN104967793B (zh) * 2015-07-28 2023-09-19 格科微电子(上海)有限公司 适用于cmos图像传感器的电源噪声抵消电路
CN111883183B (zh) * 2020-03-16 2023-09-12 珠海市杰理科技股份有限公司 语音信号筛选方法、装置、音频设备和系统

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA1116300A (en) * 1977-12-28 1982-01-12 Hiroaki Sakoe Speech recognition system
AU598933B2 (en) * 1987-04-03 1990-07-05 American Telephone And Telegraph Company An adaptive threshold voiced detector

Also Published As

Publication number Publication date
EP0614170B1 (en) 2000-04-26
FI115569B (fi) 2005-05-31
FI910293A0 (fi) 1991-01-18
DE69132148D1 (de) 2000-05-31
DE69130294T2 (de) 1999-05-06
NO308337B1 (no) 2000-08-28
DE69132148T2 (de) 2000-09-21
NO992256D0 (no) 1999-05-10
AU6868891A (en) 1991-07-25
HK1010007A1 (en) 1999-06-11
EP0614170A1 (en) 1994-09-07
NO992258D0 (no) 1999-05-10
FI20030087A (fi) 2003-01-21
AU644124B2 (en) 1993-12-02
NO992258L (no) 1991-07-19
DE69132147T2 (de) 2000-09-21
FI116594B (fi) 2005-12-30
HK184795A (en) 1995-12-15
EP0439073A1 (en) 1991-07-31
KR960005739B1 (ko) 1996-05-01
EP0614169A1 (en) 1994-09-07
NO910221D0 (no) 1991-01-18
US5195138A (en) 1993-03-16
HK1010006A1 (en) 1999-06-11
FI116595B (fi) 2005-12-30
DE69132147D1 (de) 2000-05-31
EP0614171A1 (en) 1994-09-07
DE69112855T2 (de) 1996-02-15
NO910221L (no) 1991-07-19
EP0439073B1 (en) 1995-09-13
NO992257D0 (no) 1999-05-10
KR910014869A (ko) 1991-08-31
DE69130294D1 (de) 1998-11-05
EP0614171B1 (en) 2000-04-26
CA2034333C (en) 1996-04-16
DE69112855D1 (de) 1995-10-19
FI20030088A (fi) 2003-01-21
CA2034333A1 (en) 1991-07-19
NO308335B1 (no) 2000-08-28
FI910293A (fi) 1991-07-19
FI117953B (fi) 2007-04-30
EP0614169B1 (en) 1998-09-30
HK1010008A1 (en) 1999-06-11
FI20030089A (fi) 2003-01-21
NO992256L (no) 1991-07-19
NO992257L (no) 1991-07-19
NO308336B1 (no) 2000-08-28

Similar Documents

Publication Publication Date Title
US9123351B2 (en) Speech segment determination device, and storage medium
NO306489B1 (no) Talesignalbehandlingsanordning
EP0459382B1 (en) Speech signal processing apparatus for detecting a speech signal from a noisy speech signal
US4918732A (en) Frame comparison method for word recognition in high noise environments
CA1172362A (en) Continuous speech recognition method
JP4531166B2 (ja) 信頼性尺度の評価を用いる音声認識方法
US11527259B2 (en) Learning device, voice activity detector, and method for detecting voice activity
US5854999A (en) Method and system for speech recognition with compensation for variations in the speech environment
US8321491B2 (en) System and method for detecting a weak signal in a noisy environment
Mahto et al. i-Vector Transformation Using a Novel Discriminative Denoising Autoencoder for Noise-Robust Speaker Recognition.
US20020198704A1 (en) Speech processing system
US5471433A (en) System and method for rapidly tracking highly dynamic vehicles
US20080189109A1 (en) Segmentation posterior based boundary point determination
CA1301338C (en) Frame comparison method for word recognition in high noise environments
JPWO2003107326A1 (ja) 音声認識方法及びその装置
EP0838803B1 (en) Distance calculation for use in a speech recognition apparatus
US5471434A (en) System and method for rapidly tracking vehicles of special utility in low signal-to-noise environments
JPH0792989A (ja) 音声認識方法
JP2007508577A (ja) 音声認識システムの環境的不整合への適応方法
JP2008070597A (ja) 音声認証装置、音声認証方法およびプログラム
Mills et al. Fuzzy logic enhanced symmetric dynamic programming for speech recognition
JP3394412B2 (ja) パルス音探知方法及びその装置
US11184703B2 (en) Device and method for sound localization
CN112003627B (zh) 无线频谱环境底噪的估计方法、装置、电子设备与存储介质
JPH04235372A (ja) 目標自動類別方法