NO339346B1 - Audioforsterkningsregulering ved bruk av spesifikk lydstyrkebasert hørehendelsesdeteksjon - Google Patents
Audioforsterkningsregulering ved bruk av spesifikk lydstyrkebasert hørehendelsesdeteksjon Download PDFInfo
- Publication number
- NO339346B1 NO339346B1 NO20084336A NO20084336A NO339346B1 NO 339346 B1 NO339346 B1 NO 339346B1 NO 20084336 A NO20084336 A NO 20084336A NO 20084336 A NO20084336 A NO 20084336A NO 339346 B1 NO339346 B1 NO 339346B1
- Authority
- NO
- Norway
- Prior art keywords
- time
- audio
- event
- spectral
- signal
- Prior art date
Links
- 238000001514 detection method Methods 0.000 title description 19
- 230000003595 spectral effect Effects 0.000 claims description 60
- 230000005236 sound signal Effects 0.000 claims description 54
- 238000000034 method Methods 0.000 claims description 51
- 238000009499 grossing Methods 0.000 claims description 23
- 230000008859 change Effects 0.000 claims description 18
- 230000007423 decrease Effects 0.000 claims description 9
- 238000004590 computer program Methods 0.000 claims description 8
- 238000005070 sampling Methods 0.000 claims description 2
- 238000012545 processing Methods 0.000 description 48
- 230000006870 function Effects 0.000 description 32
- 238000004458 analytical method Methods 0.000 description 27
- 230000004048 modification Effects 0.000 description 22
- 238000012986 modification Methods 0.000 description 22
- 238000001228 spectrum Methods 0.000 description 17
- 230000008569 process Effects 0.000 description 15
- 230000000694 effects Effects 0.000 description 12
- 230000004044 response Effects 0.000 description 10
- 230000006835 compression Effects 0.000 description 9
- 238000007906 compression Methods 0.000 description 9
- 230000005284 excitation Effects 0.000 description 8
- 238000004364 calculation method Methods 0.000 description 7
- 230000009467 reduction Effects 0.000 description 7
- 230000003321 amplification Effects 0.000 description 5
- 238000005259 measurement Methods 0.000 description 5
- 238000010606 normalization Methods 0.000 description 5
- 238000003199 nucleic acid amplification method Methods 0.000 description 5
- 230000009466 transformation Effects 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 230000033228 biological regulation Effects 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000008447 perception Effects 0.000 description 4
- 238000010183 spectrum analysis Methods 0.000 description 4
- 230000006399 behavior Effects 0.000 description 3
- 230000001276 controlling effect Effects 0.000 description 3
- 230000003247 decreasing effect Effects 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 230000002787 reinforcement Effects 0.000 description 3
- 230000002123 temporal effect Effects 0.000 description 3
- 241000282412 Homo Species 0.000 description 2
- 235000014676 Phragmites communis Nutrition 0.000 description 2
- 230000002238 attenuated effect Effects 0.000 description 2
- 210000000721 basilar membrane Anatomy 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000015556 catabolic process Effects 0.000 description 2
- 238000012512 characterization method Methods 0.000 description 2
- 238000006731 degradation reaction Methods 0.000 description 2
- 230000015654 memory Effects 0.000 description 2
- 238000005086 pumping Methods 0.000 description 2
- 238000011084 recovery Methods 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 238000005728 strengthening Methods 0.000 description 2
- 230000001052 transient effect Effects 0.000 description 2
- KOAWAWHSMVKCON-UHFFFAOYSA-N 6-[difluoro-(6-pyridin-4-yl-[1,2,4]triazolo[4,3-b]pyridazin-3-yl)methyl]quinoline Chemical compound C=1C=C2N=CC=CC2=CC=1C(F)(F)C(N1N=2)=NN=C1C=CC=2C1=CC=NC=C1 KOAWAWHSMVKCON-UHFFFAOYSA-N 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000003467 diminishing effect Effects 0.000 description 1
- 210000000883 ear external Anatomy 0.000 description 1
- 210000003027 ear inner Anatomy 0.000 description 1
- 210000000959 ear middle Anatomy 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000010348 incorporation Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 238000007639 printing Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000001105 regulatory effect Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H03—ELECTRONIC CIRCUITRY
- H03G—CONTROL OF AMPLIFICATION
- H03G3/00—Gain control in amplifiers or frequency changers
- H03G3/20—Automatic control
- H03G3/30—Automatic control in amplifiers having semiconductor devices
-
- H—ELECTRICITY
- H03—ELECTRONIC CIRCUITRY
- H03G—CONTROL OF AMPLIFICATION
- H03G3/00—Gain control in amplifiers or frequency changers
- H03G3/20—Automatic control
- H03G3/30—Automatic control in amplifiers having semiconductor devices
- H03G3/3005—Automatic control in amplifiers having semiconductor devices in amplifiers suitable for low-frequencies, e.g. audio amplifiers
-
- H—ELECTRICITY
- H03—ELECTRONIC CIRCUITRY
- H03G—CONTROL OF AMPLIFICATION
- H03G3/00—Gain control in amplifiers or frequency changers
- H03G3/20—Automatic control
- H03G3/30—Automatic control in amplifiers having semiconductor devices
- H03G3/3089—Control of digital or coded signals
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/038—Speech enhancement, e.g. noise reduction or echo cancellation using band spreading techniques
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/21—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being power information
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
-
- H—ELECTRICITY
- H03—ELECTRONIC CIRCUITRY
- H03G—CONTROL OF AMPLIFICATION
- H03G1/00—Details of arrangements for controlling amplification
-
- H—ELECTRICITY
- H03—ELECTRONIC CIRCUITRY
- H03G—CONTROL OF AMPLIFICATION
- H03G7/00—Volume compression or expansion in amplifiers
-
- H—ELECTRICITY
- H03—ELECTRONIC CIRCUITRY
- H03G—CONTROL OF AMPLIFICATION
- H03G7/00—Volume compression or expansion in amplifiers
- H03G7/007—Volume compression or expansion in amplifiers of digital or coded signals
-
- H—ELECTRICITY
- H03—ELECTRONIC CIRCUITRY
- H03G—CONTROL OF AMPLIFICATION
- H03G9/00—Combinations of two or more types of control, e.g. gain control and tone control
- H03G9/005—Combinations of two or more types of control, e.g. gain control and tone control of digital or coded signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R3/00—Circuits for transducers, loudspeakers or microphones
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R3/00—Circuits for transducers, loudspeakers or microphones
- H04R3/04—Circuits for transducers, loudspeakers or microphones for correcting frequency response
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2430/00—Signal processing covered by H04R, not provided for in its groups
- H04R2430/03—Synergistic effects of band splitting and sub-band processing
Landscapes
- Engineering & Computer Science (AREA)
- Acoustics & Sound (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Quality & Reliability (AREA)
- Tone Control, Compression And Expansion, Limiting Amplitude (AREA)
- Control Of Amplification And Gain Control (AREA)
- Circuit For Audible Band Transducer (AREA)
- Circuits Of Receivers In General (AREA)
- Ultra Sonic Daignosis Equipment (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
- Document Processing Apparatus (AREA)
Description
Audioforsterkningsregulering ved bruk av spesifikk lydstyrkebasert hørehendelsesdeteksjon
Teknisk område
Foreliggende oppfinnelse vedrører fremgangsmåter og en anordning for audiodynamisk spektrumkontroll der en audiobehandlingsanordning analyserer et audiosignal og endrer nivået til, forsterkningen av eller det dynamiske spekteret til lyden, og alle eller noen av parametrene i audioforsterknings- og dynamikkprosesseringen blir generert som funksjon av hørehendelser. Oppfinnelsen ved-rører også dataprogrammer for å praktisere slike fremgangsmåter eller styre en slik anordning.
Foreliggende oppfinnelse vedrører også fremgangsmåter og en anordning som anvender en spesifikk lydstyrkebasert deteksjon av hørehendelser. Oppfinnelsen vedrører også dataprogrammer for å praktisere slike fremgangsmåter eller styre en slik anordning.
Bakgrunn
Dynamikkprosessering av lyd
Metodene automatisk forsterkningsregulering (AGC - Automatic Gain Control) og dynamisk spektrumkontroll (DRC - Dynamic Range Control) er velkjente, og er et vanlig element i mange audiosignalbaner. Generelt måler begge metodene nivået til et audiosignal på en eller annen måte og forsterknings-modifiserer så signalet med en mengde som er en funksjon av det målte nivået. I et lineært, 1:1 dynamikkprosesseringssystem blir ikke den innmatede lyden behandlet, og det utmatede audiosignalet svarer ideelt sett til det innmatede audiosignalet. Videre, i et audiodynamikkprosesseringssystem som automatisk måler egenskaper ved inngangssignalet og anvender denne målingen for å regulere utgangssignalet, dersom inngangssignalets nivå stiger med 6 dB og utgangssignalet blir behandlet slik at dets nivå bare stiger med 3 dB, blir utgangssignalet komprimert i et forhold på 2:1 med hensyn til inngangssignalet. Den internasjonale publikasjonen WO 2006/047600 A1 ("Calculating and Adjusting the Perceived Loudness and/or the Perceived Spectral Balance of an Audio Signal", av Alan Jeffrey Seefeldt) gir en detaljert oversikt over de fem grunnleggende typene dynamikkprosessering av lyd: komprimering, begrensning, automatisk forsterknings-kontroll (AGC), ekspansjon og gating.
Hørehendelser og deteksjon av hørehendelser
Inndeling av lyder i enheter eller segmenter som oppfattes som atskilte og distinkte, kalles noen ganger "hørehendelsesanalyse" eller høresceneanalyse (ASA - Auditory Scene Analysis), og segmentene kalles noen ganger "hørehendelser" eller "lydhendelser." En omfattende beskrivelse av hørescene-analyse er gitt av Albert S. Bregman i hans bok Auditory Scene Analysis - The Perceptual Organization of Sound, Massachusetts Institute of Technology, 1991, fjerde trykk, 2001, Second MIT Press paperback edition). Videre omtaler U.S.-patentet 6,002,776 til Bhadkamkar, m.fl. fra 14. desember 1999 publikasjoner fra tilbake til 1976 som "(oversatt) kjent arbeid knyttet til lydseparasjon ved høre-sceneanalyse". Patentet til Bhadkamkar m.fl. fraråder imidlertid praktisk bruk av høresceneanalyse, og konkluderer med at "(oversatt) metoder som omfatter høre-sceneanalyse, selv om de er interessante sett fra et vitenskaplig ståsted som mod-eller for lydbehandling hos mennesker, er i dag alt for beregningskrevende og spesialisert til å kunne betraktes som praktisk anvendelige metoder for separasjon av lyd før det er gjort fundamentale fremskritt".
En nyttig måte å identifisere hørehendelser er angitt av Crockett og Crocket m. fl. i forskjellige patentsøknader og artikler listet nedenfor under overskriften "Referanser". I henhold til disse dokumentene blir et audiosignal delt inn i høre-hendelser, som hver gjerne oppfattes som atskilt og distinkt, ved å detektere endringer i spektralsammensetning (amplitude som funksjon av frekvens) som funksjon av tid. Dette kan for eksempel gjøres ved å beregne spektralinnholdet i suksessive tidsblokker av audiosignalet, beregne forskjellen i spektralinnhold mellom suksessive tidsblokker av audiosignalet, og identifisere en hørehendelsesgrense som grensen mellom suksessive tidsblokker når forskjellen i spektralinnhold mellom disse suksessive tidsblokkene overstiger en terskel. Alternativt kan endringer i amplitude som funksjon av tiden bli beregnet i stedet for eller i tillegg til endringer i spektralsammensetning som funksjon av tiden.
I sin minst beregningskrevende utførelse deler prosessen inn lyd i tidssegmenter ved å analysere hele frekvensbåndet (lyd med full båndbredde) eller hovedsaklig hele frekvensbåndet (i praksis anvendes ofte båndbegrensende filtrering i endene av spekteret) og vekte de høyeste audiosignalkomponentene tyngst. Denne løsningen utnytter et psykoakustisk fenomen der øret på mindre tidsskalaer (20 millisekunder (ms) og mindre) kan ha en tendens til å fokusere på én enkelt hørehendelse om gangen. Dette innebærer at selv om flere hendelser vil kunne forekomme samtidig, én komponent gjerne er perseptuelt mest fremtredende og kan bli behandlet individuelt som om den var den eneste hendelsen på det aktuelle tidspunktet. Utnyttelse av denne effekten gjør også at hørehendelses-deteksjonen kan skalere med kompleksiteten til lyden som behandles. Dersom for eksempel det innmatede audiosignalet som behandles er et soloinstrument, vil hørehendelsene som identifiseres trolig være de individuelle notene som spilles. For et innmatet stemmesignal vil likeledes de individuelle talekomponentene, for eksempel vokalene og konsonantene, mest sannsynlig bli identifisert som individuelle lydelementer. Når lydens kompleksitet øker, så som musikk med tromm-eslag eller flere instrumenter og stemmer, identifiserer hørehendelsesdeteksjonen til enhver tid det "mest fremtredende" (dvs. det høyeste) lydelementet.
På bekostning av større regnekompleksitet kan prosessen også ta hensyn til endringer i spektralsammensetning som funksjon av tid i diskrete delfrekvensbånd (faste eller dynamisk bestemte eller både faste og dynamisk bestemte delbånd) heller enn hele båndbredden. Denne alternative tilnærmingen betrakter flere enn én lydstrøm i forskjellige delfrekvensbånd heller enn å anta at bare én enkelt strøm kan oppfattes på et gitt tidspunkt.
Hørehendelsesdeteksjon kan gjøres ved å dele inn en tidsdomene lyd-bølgeform i tidsintervaller eller blokker og så konvertere dataene i hver blokk til frekvensdomenet, med bruk av enten en filterbank eller en tid/frekvens-transformasjon, for eksempel FFT. Amplituden til spektralinnholdet i hver blokk kan bli normalisert for å fjerne eller redusere innvirkningen av amplitudeendringer. Hver resulterende frekvensdomenerepresentasjon gir en angivelse av spektralinnholdet i lyden i den aktuelle blokken. Spektralinnholdet i suksessive blokker blir sammenliknet, og endringer som er større enn en terskel brukes som angivelse av tidsmessig begynnelse eller tidsmessig avslutning av en hørehendelse.
Fortrinnsvis blir frekvensdomenedataene normalisert, som beskrevet nedenfor. I hvilken grad frekvensdomenedataene trenger å bli normalisert gir en angivelse av amplitude. Dersom en endring i denne normaliseringsgraden overstiger en forbestemt terskel, kan således også dette brukes som en angivelse av en hendelsesgrense. En hendelses start- og sluttpunkter som følge av spektral-endringer og av amplitudeendringer kan bli ELLER-behandlet sammen slik at hendelsesgrenser som følge av begge typene endring blir identifisert.
Selv om metoder beskrevet i nevnte søknader og artikler av Crockett og Crockett m.fl. er spesielt nyttige i forbindelse med aspekter ved foreliggende oppfinnelse, kan andre metoder for å identifisere hørehendelser og hendelsesgrenser anvendes i aspekter ved foreliggende oppfinnelse.
Beslektet teknologi beskrives i BLESSER, BARRY: An Ultraminiature Console Compression System with Maximum User Flexibility, Journal of Audio Engineering Society, vol. 20, no. 4, May 1972, New York, sidene 297-302.
Sammendrag av oppfinnelsen
I et første aspekt tilveiebringer den foreliggende oppfinnelsen en fremgangsmåte for å modifisere en parameter for en audiodynamikkprosessor, omfattende å detektere endringer i spektralegenskaper med hensyn til tid i et audiosignal, identifisere som hørehendelsesgrenser endringer som overstiger en terskel i spektralegenskaper med hensyn til tid i nevnte audiosignal, der et audiosegment mellom konsekutive grenser danner en hørehendelse, og generere et parameter-modifiserende reguleringssignal basert på nevnte identifiserte hørehendelsesgrenser, og modifisere parameteren for audiodynamikkprosessoren som funksjon av reguleringssignalet.
I et andre aspekt tilveiebringer den foreliggende oppfinnelsen et dataprogram, lagret på et datamaskinlesbart medium, for å bevirke en datamaskin til å utføre en fremgangsmåte som angitt ovenfor.
Foretrukkede utførelsesformer av oppfinnelsen er angitt i kravene 2-11.
Tradisjonell, kjent audiodynamikkprosessering omfatter det å multiplisere lyden med et tidsvarierende reguleringssignal som justerer forsterkningen av lyden og gir et ønsket resultat. "Forsterkning" er en skaleringsfaktor som skalerer lyd-amplituden. Dette reguleringssignalet kan bli generert kontinuerlig eller fra blokker av lyddata, men det blir i alminnelighet avledet fra en form for måling av lyden som behandles, og dets endringsrate bestemmes av glattingsfiltre, noen ganger med faste egenskaper og noen ganger med egenskaper som varierer med lydens dynamikk. Foreksempel kan responstider være justerbare i henhold til endringer i lydens absoluttverdi eller effekt. Kjente metoder, så som automatisk forsterkningsregulering (AGC) og dynamisk spektrumkontroll (DRC), vurderer ikke på en psykoakustikk-basert måte tidsintervallene der forsterkningsendringer kan oppfattes som forringelser og når de kan anvendes uten å gi hørbare artefakter. Tradisjonelle audiodynamikkprosesser kan derfor ofte introdusere hørbare artefakter, dvs. at innvirkningen av dynamikkprosesseringen kan introdusere uønskede merkbare endringer av lyden.
Høresceneanalyse identifiserer perseptuelt diskrete hørehendelser, der hver hendelse opptrer mellom to konsekutive hørehendelsesgrenser. De hørbare forringelsene forårsaket av en forsterkningsendring kan reduseres betydelig ved å sikre at forsterkningen innenfor en hørehendelse er tilnærmet konstant og ved å begrense mye av endringen til området rundt en hendelsesgrense. For kompressorer eller ekspandere kan responsen til en økning i lydnivå (ofte kalt attack) være rask, sammenliknbar med eller kortere enn den minste varigheten av hørehendelser, men responsen til en reduksjon (release eller gjenoppretting) kan være langsommere slik at lyder som burde synes konstante eller å avta gradvis kan bli hørbart forstyrret. Under slike omstendigheter er det veldig gunstig å forsinke forsterkningsgjenopprettelsen til den neste grensen eller å redusere endringsraten til forsterkningen under en hendelse. For anvendelser med automatisk forsterkningsregulering der lydens nivå eller styrke på mellomlang til lang tidsskala blir normalisert og både attack- og releasetider derfor kan være lange sammenliknet med den minste varigheten av en hørehendelse, er det gunstig under hendelser å forsinke endringer av eller redusere endringsrater for forsterkning til neste hendelsesgrense for både økende og avtagende forsterkning.
Det beskrives at et audioprosesseringssystem mottar et audiosignal og analyserer og endrer forsterkningen av og/eller de dynamiske spektrumtrekkene til lyden. Dynamisk spektermodifikasjon av lyden blir ofte styrt av parametere i et dynamikkprosesseringssystem (attack- og releasetid, komprimeringsforhold, etc.) som har betydelig innvirkning på de perseptuelle artefaktene som introduseres av dynamikkprosesseringen. Endringer i signalegenskaper som funksjon av tid i audiosignalet blir detektert og identifisert som hørehendelsesgrenser, slik at et audiosegment mellom konsekutive grenser danner en hørehendelse i audiosignalet. Egenskapene til de aktuelle hørehendelsene kan omfatte egenskaper ved hendelsene så som perseptuell styrke eller varighet. Noen av nevnte én eller flere dynamikkprosesseringsparametere blir generert i hvert fall delvis som reaksjon på hørehendelser og/eller graden av endring i signalegenskaper for nevnte hørehendelsesgrenser.
En hørehendelse er typisk et audiosegment som gjerne oppfattes som atskilt og distinkt. Ett anvendelig mål på signalegenskaper omfatter et mål på spektralinnholdet i lyden, for eksempel som beskrevet i de omtalte dokumentene til Crockett og Crockett m.fl. Alle eller noen av den ene eller de flere audiodynamikkprosesseringsparametrene kan bli generert i hvert fall delvis som reaksjon på tilstedeværelse eller fravær av og egenskaper ved én eller flere hørehendelser. En hørehendelsesgrense kan bli gjenkjent som en endring i signalegenskaper som funksjon av tid som overstiger en terskel. Alternativt kan alle eller noen av den ene eller de flere parametrene bli generert i hvert fall delvis som reaksjon på et kontinuerlig mål for graden av endring i signalegenskaper for nevnte hørehendelses-grenser. Selv om aspekter ved oppfinnelsen i prinsippet kan realiseres med ana-loge og/eller digitale signaler, vil utførelser i praksis mest sannsynlig bli realisert med digitale signaler der hvert av audiosignalene er representert av enkeltstående sampler eller sampler innenfor datablokker. I dette tilfellet kan signalegenskapene være spektralinnholdet i lyd innenfor en blokk, deteksjon av endringer i signalegenskaper som funksjon av tid kan være deteksjon av endringer i spektralinnhold i lyd fra blokk til blokk, og hver av hørehendelsers tidsmessige start- og stopp-grenser kan sammenfalle med en grense for en datablokk. Det skal bemerkes at i det mer tradisjonelle tilfellet med gjennomføring av dynamiske forsterkningsendringer for sample for sample, den beskrevne høresceneanalysen vil kunne utføres på blokkbasis og den resulterende hørehendelsesinformasjonen anvendes for å utføre dynamiske forsterkningsendringer som anvendes sample for sample.
Ved å styre viktige audiodynamikkprosesseringsparametere med bruk av resultatene av høresceneanalysen kan en oppnå en dramatisk reduksjon av hørbare artefakter introdusert av dynamikkprosessering.
Det beskrives to måter å gjennomføre høresceneanalyse. Den første utfører spektralanalyse og identifiserer posisjonen til oppfattbare lydhendelser, som anvendes for å styre de dynamiske forsterkningsparametrene ved å identifisere endringer i spektralinnhold. Den andre måten transformerer lyden til et perseptuell lydstyrkedomene (som kan gi mer psykoakustisk relevant informasjon enn den første måten) og identifiserer posisjonen til hørehendelser, som deretter anvendes for å styre de dynamiske forsterkningsparametrene. Det skal bemerkes at den andre måten krever at lydbehandlingen kjenner absolutte akustiske reproduksjonsnivåer, som kan være umulig i noen utførelser. Det å vise begge hørescene-analyse-metodene muliggjør utførelser av ASA-regulert dynamisk forsterknings-modifisering som anvender prosesser eller anordninger som kan, men ikke trenger være kalibrert til å ta hensyn til absolutte reproduksjonsnivåer.
Aspekter ved foreliggende oppfinnelse er beskrevet her i et audiodynamikk-prosesseringsmiljø som omfatter aspekter ved andre oppfinnelser. Disse andre oppfinnelsene er beskrevet i forskjellige verserende patentsøknader i USA og internasjonale patentsøknader fra Dolby Laboratories Licensing Corporation, eieren av denne søknaden, hvilke søknader er identifisert her.
Beskrivelse av figurene
Figur 1 er et flytdiagram som viser et eksempel på behandlingstrinn for å gjennomføre høresceneanalyse. Figur 2 viser et eksempel på blokkbehandling, vindusbehandling og gjen-nomføring av DFT på lyd samtidig med gjennomføring av høresceneanalysen. Figur 3 er et flytdiagram eller funksjonelt blokkdiagram som viser parallell-prosessering der lyd anvendes for å identifisere hørehendelser og for å identifisere hørehendelsenes egenskaper slik at hendelsene og deres egenskaper anvendes for å modifisere dynamikkprosesseringsparametre. Figur 4 er et flytdiagram eller funksjonelt blokkdiagram som viser behandling der lyd kun anvendes for å identifisere hørehendelser og hendelsenes egenskaper blir bestemt fra hørehendelsesdeteksjonen slik at hendelsene og deres egenskaper anvendes for å modifisere dynamikkprosesseringsparametrene. Figur 5 er et flytdiagram eller funksjonelt blokkdiagram som viser behandling der lyd kun anvendes for å identifisere hørehendelser og hendelsenes egenskaper blir bestemt fra hørehendelsesdeteksjonen og slik at bare egenskapene til hørehendelsene anvendes for å modifisere dynamikkprosesseringsparametrene. Figur 6 viser et sett av idealiserte lydfilter-egenskapsresponser som tilnærmer kritisk båndning på ERB-skalaen. Den horisontale aksen angir frekvens i Hertz og den vertikale aksen angir nivå i desibel. Figur 7 viser konturene for lik lydstyrke i ISO 226. Den horisontale aksen angir frekvens i Hertz (logaritmisk skala med grunntall 10) og den vertikale aksen angir lydtrykknivå i desibel. Figurene 8a-c viser idealiserte inn/ut-egenskaper og innsignal-forsterknings-egenskaper til en lydkompressor med dynamisk spektrum. Figurene 9a-f viser et eksempel på bruk av hørehendelser for å styre releasetiden i en digital utførelse av en tradisjonell DRC (Dynamic Range Controller) der forsterkningsreguleringen er avledet fra signalets RMS-(Root Mean Square)-effekt. Figurene 10a-f viser et eksempel på bruk av hørehendelser for å styre releasetiden i en digital utførelse av en tradisjonell DRC der forsterkningsreguleringen er avledet fra RMS-effekten til signalet for et alternativt signal til det anvendt i figur 9. Figur 11 viser et passende sett av idealiserte AGC- og DRC-kurver for bruk av AGC etterfulgt av DRC i et lydstyrkedomene-basert dynamikkprosesseringssystem. Målet med kombinasjonen er å gjøre at all behandlet lyd får omtrent samme oppfattede lydstyrke samtidig som i hvert fall noe av den opprinnelige lydens dynamikk opprettholdes.
Beste måte å realisere oppfinnelsen
Høresceneanalyse (opprinnelig, ikke lydstyrkedomene-basert metode)
Ifølge en utførelsesform av ett aspekt ved foreliggende oppfinnelse kan høresceneanalyse bestå av fire generelle behandlingstrinn som vist i en del av figur 1. Det første trinnet, 1-1 ("Utfør spektralanalyse"), tar et tidsdomene audiosignal, deler det inn i blokker og beregner et spektralprofil eller spektralinnhold for hver av blokkene. Spektralanalyse transformerer audiosignalet til det hurtigskala frekvensdomenet. Dette kan gjøres med bruk av en hvilken som helst filterbank, enten basert på transformasjoner eller banker av båndpassfiltre, og i enten et lineært eller krummet frekvensrom (så som Bark-skalaen eller det kritiske båndet, som bedre tilnærmer egenskapene til det menneskelige øre). I enhver filterbank fore-ligger det en avveining mellom tid og frekvens. Større tidsoppløsning, og således kortere tidsintervaller, gir en lavere frekvensoppløsning. Større frekvensoppløsn-ing, og således smalere delbånd, leder til lengre tidsintervaller.
Det første trinnet, illustrert konseptuelt i figur 1, beregner spektralinnholdet i suksessive tidssegmenter av audiosignalet. I en praktisk utførelsesform kan ASA-blokkstørrelsen være fra et hvilket som helst antall sampler av det innmatede audiosignalet, selv om 512 sampler gir en god avveining mellom tids- og frekvensoppløsning. I det andre trinnet, 1-2, bestemmes forskjellene i spektralinnhold fra blokk til blokk ("Gjør målinger av forskjeller i spektralprofil"). Det andre trinnet beregner således forskjellen i spektralinnhold mellom suksessive tidssegmenter av audiosignalet. Som beskrevet over antas en god indikator for begyn-nelsen eller slutten av en oppfattet hørehendelse å være en endring i spektralinnhold. I det tredje trinnet, 1-3 ("Bestem posisjonen til hørehendelsesgrensene"), når spektralforskjellen mellom en spektralprofilblokk og den neste er større enn en terskel, tas blokkgrensen som en hørehendelsesgrense. Audiosegmentet mellom konsekutive grenser danner en hørehendelse. Det tredje trinnet trekker således en hørehendelsesgrense mellom suksessive tidssegmenter når forskjellen i spektralprofilinnhold mellom disse suksessive tidssegmentene overstiger en terskel, og definerer således hørehendelser. I denne utførelsesformen definerer høre-hendelsesgrenser hørehendelser med en lengde som er et heltallig multiplum av spektralprofilblokker med en minimumslengde på én spektralprofilblokk (512 sampler i dette eksempelet). I prinsippet trenger ikke hendelsesgrenser være begrenset på denne måten. Som et alternativ til de praktiske utførelsesformene beskrevet her kan den innmatede blokkstørrelsen varieres, for eksempel slik at den er tilnærmet lik størrelsen til en hørehendelse.
Etter identifisering av hendelsesgrensene bestemmes nøkkelegenskaper ved hørehendelsene, som vist i trinn 1-4.
Enten overlappende eller ikke-overlappende segmenter av lyden kan bli vindusbehandlet og anvendt for å beregne spektralprofiler av den innmatede lyden. Overlapp resulterer i en finere oppløsning av posisjonen til hørehendelser, og reduserer også sannsynligheten for å overse en hendelse, så som en kortvarig transient. Overlapp gjør imidlertid også beregningene mer kompliserte. Følgelig kan en unngå overlapp. Figur 2 viser en konseptuell representasjon av ikke-overlappende blokker av N sampler som er vindusbehandlet og transformert til frekvensdomenet i en diskret fouriertransformasjon (DFT). Hver blokk kan bli vindusbehandlet og transformert til frekvensdomenet for eksempel med bruk av en DFT-transformasjon, fortrinnsvis en hurtig fouriertransformasjon (FFT) for å gjøre beregningene raskere.
Følgende variabler kan anvendes for å beregne spektralprofilet til den innmatede blokken: M = antall vindusbehandlede sampler i en blokk som anvendes for å beregne spektralprofil
P = antall overlappende sampler i spektralberegningen
Generelt kan variablene over ta et hvilket som helst heltall. Imidlertid vil gjennomføringen være mer effektiv dersom M settes lik en potens av 2 slik at standard FFT-transformasjoner kan anvendes for spektralprofilberegningene. I en praktisk utførelsesform av høresceneanalyse-prosessen kan de listede parametrene være satt til:
M =512 sampler (eller 11,6 ms ved 44,1 kHz)
P =0 sampler (ingen overlapp)
Verdiene angitt over ble bestemt eksperimentelt og ble funnet å generelt identifisere posisjonen og varigheten til hørehendelser med tilstrekkelig nøyak-tighet. Imidlertid er det å sette verdien til P til 256 sampler (50% overlapp) heller enn null sampler (ingen overlapp) funnet å være nyttig ved bestemmelse av visse hendelser som er vanskelige å oppdage. Selv om mange forskjellige typer vinduer kan anvendes for å minimere spektralartefakter som følge av vindusbehandling, er vinduet som anvendes i spektralprofilberegningene et M-punkts Hanning, Kaiser-Bessel eller annet passende, fortrinnsvis ikke-rektangulært vindu. De ovenfor angitte verdiene og en Hanning-vindustype ble valgt etter omfattende eksperi-mentell analyse ettersom de viste seg å gi utmerkede resultater over et stort utvalg av lydmateriale. Behandling med ikke-rektangulære vinduer er foretrukket for behandling av audiosignaler med hovedsaklig lavfrekvent innhold. Rektangulær vindusbehandling skaper spektralartefakter som kan forårsake feilaktig deteksjon av hendelser. Til forskjell fra bestemte koder/dekoder-(kodek)-applikasjoner der en generell overlappings-/tilleggingsprosess må skape et konstant nivå, er det ingen slike begrensninger her, og vinduet kan velges for egenskaper så som dets tids-/frekvensoppløsning og stoppbånd-avvisning.
I trinn 1-1 (figur 1) kan spekteret til hver blokk av M-sampler bli beregnet ved å vindusbehandle dataene med et M-punkts Hanning, Kaiser-Bessel eller annet passende vindu, transformere til frekvensdomenet med bruk av en M-punkts FFT og beregne absoluttverdien til de komplekse FFT-koeffisientene. Resultatdataene blir normalisert slik at den største absoluttverdien settes lik én, og det normaliserte arrayet av M tall blir transformert til log-domenet. Dataene kan også bli normalisert med hensyn til et annet mål, så som midlere absoluttverdi eller midlere effektverdi til dataene. Arrayet trenger ikke bli transformert til log-domenet, men transformasjonen forenkler beregningen av forskjellsmålet i trinn 1-2. Videre sammenfaller log-domenet bedre med egenskapene til menneskets hørselssystem. De resulterende log-domeneverdiene ligger i et område fra minus uendelig til null. I en praktisk utførelsesform kan en nedre grense bli satt for området av verdier; grensen kan være fast, for eksempel -60 dB, eller være frek-vensavhengig for å reflektere den dårligere hørbarheten av stille lyder ved lave og veldig høye frekvenser. (Merk at det ville være mulig å redusere størrelsen til arrayet til M/2 ettersom FFT representerer negative så vel som positive frekvenser).
Trinn 1-2 beregner et mål for forskjellen mellom spektrene til konsekutive blokker. For hver blokk blir hver av de M (log-) spektralkoeffisientene fra trinn 1-1 subtrahert fra den motsvarende koeffisienten i den foregående blokken, og absoluttverdien til differansen beregnes (fortegnet ignoreres). Disse M differan-sene blir så summert til ett tall. Dette forskjellsmålet kan også uttrykkes som en gjennomsnittsforskjell for hver spektralkoeffisient ved å dividere forskjellsmålet med antallet spektralkoeffisienter anvendt i summen (i dette tilfellet M koeffi-sienter).
Trinn 1-3 identifiserer posisjonen til hørehendelsesgrenser ved å anvende en terskel på gruppen av forskjellsmål fra trinn 1-2 med en terskelverdi. Når et forskjellsmål overstiger en terskel, vurderes endringen i spekteret som tilstrekkelig til å signalisere en ny hendelse, og blokknummeret til endringen blir registrert som en hendelsesgrense. For verdiene av M og P angitt over, og for log-domene-verdier (i trinn 1-1) uttrykt i dB, kan terskelen settes lik 2500 dersom hele FFT-sekvensen (omfattende den speilede delen) blir sammenliknet, eller 1250 dersom halve FFT-sekvensen blir sammenliknet (som angitt over representerer FFT negative så vel som positive frekvenser — for absoluttverdien til FFT-transformasjonen er den ene speilbildet av den andre). Denne verdien ble valgt eksperimentelt og gir en god deteksjon av hørehendelsesgrenser. Denne para-meterverdien kan endres for å redusere (øke terskelen) eller øke (redusere terskelen) deteksjonen av hendelser.
Prosessen i figur 1 kan representeres mer generelt av de ekvivalente pro-sessene i figurene 3, 4 og 5. I figur 3 anvendes et audiosignal parallelt på en "Identifisere hørehendelser"-funksjon, eller trinn 3-1, som deler inn audiosignalet i hørehendelser, som hver gjerne oppfattes som atskilt og distinkt, og på en eventuell "Identifisere egenskaper ved hørehendelser"-funksjon, eller trinn 3-2. Prosessen i figur 1 kan anvendes for å dele inn audiosignalet i hørehendelser og deres identifiserte egenskaper, eller en annen passende prosess kan anvendes. Hørehendelsesinformasjonen, som kan være en identifisering av hørehendelses-grenser, bestemt av funksjon eller trinn 3-1, blir så anvendt for å modifisere audiodynamikkprosesseringsparametrene (så som attack, release, forhold, etc), som ønsket, i en "Modifiser dynamikkparametere"-funksjon, eller trinn 3-3. Den valgfri "Identifiser egenskaper"-funksjonen, eller trinn 3-3, mottar også hørehendel-sesinformasjonen. "Identifiser egenskaper"-funksjonen, eller trinn 3-3, kan karak-terisere noen av eller alle hørehendelsene ved én eller flere egenskaper. Slike egenskaper kan omfatte en identifisering av det dominerende delbåndet i høre-hendelsen, som beskrevet i forbindelse med prosessen i figur 1. Egenskapene kan også omfatte én eller flere lydegenskaper, omfattende for eksempel et mål for effekten til hørehendelsen, et mål for amplituden til hørehendelsen, et mål for spek-tralflatheten til hørehendelsen og hvorvidt hørehendelsen er hovedsaklig lydløs, eller andre egenskaper som letter modifisering av dynamiske parametere slik at negative hørbare artefakter som følge av behandlingen reduseres eller fjernes. Egenskapene kan også omfatte andre egenskaper, så som hvorvidt høre-hendelsene omfatter en transient.
Alternativer til prosessen i figur 3 er vist i figurene 4 og 5. I figur 4 blir ikke det innmatede audiosignalet anvendt direkte i "Identifiser egenskaper"-funksjonen eller trinn 4-3, men det mottar informasjon fra "Identifiser hørehendelser" - funksjonen eller trinn 4-1. Prosessen i figur 1 er et konkret eksempel på en slik prosess. I figur 5 blir funksjonene eller trinnene 5-1, 5-2 og 5-3 utført i serie.
Detaljene i denne praktiske utførelsesformen er ikke avgjørende. Andre måter kan anvendes for å beregne spektralinnholdet i suksessive tidssegmenter av audiosignalet, beregne forskjellen mellom suksessive tidssegmenter og sette hørehendelsesgrenser i de respektive grensene mellom suksessive tidssegmenter når forskjellen i spektralprofilinnhold mellom disse suksessive tidssegmentene overstiger en terskel.
Høresceneanalyse (Ny, lydstyrkedomene-basert metode)
Den internasjonale søknaden under Patentsamarbeidskonvensjonen PCT/US2005/038579, innlevert 25. oktober 2005, publisert som den internasjonale publikasjonen WO 2006/047600 A1 med tittelen "Calculating and Adjusting the Perceived Loudness and/or the Perceived Spectral Balance of an Audio Signal", av Alan Jeffrey Seefeldt, beskriver blant annet et objektivt mål for oppfattet lydstyrke basert på en psykoakustisk modell.. Som beskrevet i nevnte søknad PCT/US2005/038579 blir det fra et audiosignal beregnet et eksitasjonssignal E[ b, t] som tilnærmer fordelingen av energi langs basilarmembranen i det indre øret ved et kritisk bånd b under tidsblokk t. Denne eksitasjonen kan beregnes fra en diskret hurtigskala fouriertransformasjon (STDFT - Short-time Discrete Fourier Transform) av audiosignalet som følger:
der X[ k, t] representerer STDFT-transformasjonen av ved tidsblokk t og boks k. Merk at i likning 1, t representerer tid i diskrete enheter av transformasjons-blokker til forskjell fra et kontinuerlig mål, så som sekunder. T[ k] representerer frekvensresponsen til et filter som simulerer overføring av lyd gjennom det ytre og midtre øre, og Cb[ k] representerer frekvensresponsen til basilarmembranen på et sted som svarer til det kritiske båndet b. Figur 6 viser et passende sett av kritiske båndfilterresponser der 40 bånd er spredt uniformt langs ekvivalent rektangulær båndbredde-(ERB)-skalaen, som definert av Moore og Glasberg. Hver filterform er beskrevet av en avrundet eksponentialfunksjon, og båndene er distribuert med en spredning på 1 ERB. Endelig kan glattingstidskonstanten \ i likning 1 tjenlig velges proporsjonal med integrasjonstiden til menneskets lydstyrkeoppfatning innenfor bånd b.
Ved anvendelse av isolydstyrkekonturer, så som de vist i figur 7, transfor-meres eksitasjonen i hvert bånd til et eksitasjonsnivå som vil generere den samme oppfattede lydstyrken ved 1 kHz. Spesifikk lydstyrke, et mål for perseptuell lydstyrke distribuert over frekvens og tid, blir så beregnet fra den transformerte eksitasjonen, ElkHz[ b, t], gjennom en trykk-ikke-linearitet. Én passende funksjon for å beregne den spesifikke lydstyrken N[ b, t] er gitt ved:
der TQlkHzer terskelen for lydløs ved 1kHz og konstantene p og a velges for å tilpasse til vekst i lydstyrkedata som samlet inn fra lytteeksperimenter. Teoretisk kan denne transformasjonen fra eksitasjon til spesifikk lydstyrke representeres av funksjonen } som er slik at:
Endelig beregnes den totale lydstyrken, L[ t], representert i sone-enheter, ved å summere den spesifikke lydstyrken over bånd:
Den spesifikke lydstyrken N[ b, t] er en spektralrepresentasjon ment for å simulere hvordan et menneske oppfatter lyd som funksjon av frekvens og tid. Den fanger opp variasjoner i følsomhet for forskjellige frekvenser, variasjoner i nivåføl-somhet samt variasjoner i frekvensoppløsning. Følgelig er den en spektralrepresentasjon som er velegnet for deteksjon av hørehendelser. Selv om det gir mer kompliserte beregninger, kan det å sammenlikne differansen for N[ b, t] over bånd mellom suksessive tidsblokker i mange tilfeller gi en mer perseptuelt nøyaktig deteksjon av hørehendelser sammenliknet med den direkte bruken av suksessive FFT-spektre beskrevet over.
I nevnte patentsøknad er flere metoder for å modifisere lyden basert på denne psykoakustiske lydstyrkemodellen beskrevet. Blant disse er flere dynamikk-prosesseringsalgoritmer, så som AGC og DRC. Disse beskrevne algoritmene kan dra nytte av å bruke hørehendelser til å styre forskjellige tilhørende parametere. Siden spesifikk lydstyrke allerede er beregnet er de lett tilgjengelige for detektering av nevnte hendelser. Detaljer av en foretrukket utførelsesform er beskrevet nedenfor.
Styring av audiodynamikkprosesseringsparametere med hørehendelser To eksempler på utførelser av oppfinnelsen vil nå bli vist. Den første beskriver bruk av hørehendelser til å styre releasetiden i en digital utførelse av en DRC (Dynamic Range Controller) der forsterkningsreguleringen er avledet fra RMS-(Root Mean Square)-effekten i signalet. Den andre utførelsen beskriver bruk av hørehendelser til å styre bestemte aspekter ved en mer avansert kombinasjon av AGC og DRC realisert i forbindelse med den psykoakustiske lydstyrkemodellen beskrevet over. Disse to utførelsene er kun ment å tjene som eksempler på oppfinnelsen, og det må forstås at bruk av hørehendelser til å styre parametere i en dynamikkprosesseringsalgoritme ikke er begrenset til detaljene beskrevet nedenfor.
Dynamisk spekterkontroll
Den beskrevne digitale utførelsen av en DRC deler inn et audiosignal x[«] i vindusbehandlede, halv-overlappende blokker, og for hver blokk beregnes en modifikasjonsforsterkning basert på et mål for signalets lokale effekt og en valgt kompresjonskurve. Forsterkningen blir glattet over blokker og så multiplisert med hver blokk. De modifiserte blokkene blir til slutt overlapp-addert for å generere det modifiserte audiosignalet y[ n].
Det skal bemerkes at selv om høresceneanalysen og den digitale reali-seringen av DRC som beskrevet her deler opp tidsdomene-audiosignalet i blokker for analyse og behandling, DRC-behandlingen ikke trenger bli utført med bruk av blokksegmentering. For eksempel vil høresceneanalysen kunne utføres med bruk av blokksegmentering og spektralanalyse som beskrevet over, og de resulterende hørehendelsesposisjonene og -egenskapene anvendes for å forsyne styrings-informasjon til en digital utførelse av en tradisjonell DRC som typisk jobber med ett og ett sample. Her anvendes imidlertid den samme blokkstrukturen som ble anvendt for høresceneanalyse for DRCen for å lette beskrivelsen av kombinasjonen av dem.
Videre i beskrivelsen av en blokkbasert DRC-utførelse kan de overlappende blokkene i audiosignalet representeres som:
der M er blokklengden og hopstørrelsen er M/ 2, w[ n] er vinduet, n er sampleindeksen internt i blokken og t er blokkindeksen (merk at t her anvendes på samme måte som for STDFT-transformasjonen i likning 1; den representerer for eksempel tid i diskrete blokkenheter heller enn sekunder). Ideelt sett skrår vinduet w[ n] til null i begge ender og summerer til én når det halv-overlappes med seg selv; for eksempel oppfyller det mye brukte sinus-vinduet disse kriteriene.
For hver blokk kan en da beregne RMS-effekten for å generere et effektmål P[ t] i dB for hver blokk:
Som nevnt tidligere kan en glatte dette effektmålet med et raskt attack og langsom release før behandling med en kompresjonskurve, men som et alternativ kan momentaneffekten P[ t] bli behandlet og den resulterende forsterkningen glattet. Denne alternative løsningen har den fordelen at en enkel kompresjonskurve med skarpe knekkpunkter kan anvendes, men de resulterende forsterkningene er likevel glatte mens effekten passerer gjennom knekkpunktet. Med en kompresjonskurve representert som vist i figur 8c som en funksjon F av signalnivå som gir en forsterkning, er blokkforsterkningen G[ t] gitt ved:
Antatt at kompresjonskurven anvender større dempning etter hvert som signal-nivået øker, vil forsterkningen avta når signalet er i "attackmodus" og øke når signalet er i "releasemodus". Følgelig kan en glattet forsterkning G[ t] beregnes i henhold til:
og
Til slutt blir den glattede forsterkningen G[ t], som er i dB, anvendt på hver blokk av signalet, og de modifiserte blokkene blir overlapp-addert for å generere den modifiserte lyden:
Merk at fordi blokkene er multiplisert med et avskrådd vindu, som vist i likning 4, overlapp-adderingen vist over effektivt glatter forsterkningene på tvers av sampler av det behandlede signalet y[ n]. Følgelig gjennomgår forsterkningsregulerings-signalet glatting i tillegg til den vist i likning 7a. I en mer tradisjonell utførelse av DRC som jobber med enkeltsampler heller enn blokkvis, kan en mer avansert forsterkningsglatting enn det enkle én-polfilteret vist i likning 7a være nødvendig for å hindre hørbar fordreining av det behandlede signalet. Videre introduserer bruken av blokkbasert behandling en naturlig forsinkelse på M/ 2 sampler i systemet, og så lenge reduksjonstiden for aattacker nær denne forsinkelsen trenger ikke signalet x[ n] forsinkes ytterligere før anvendelse av forsterkningene for å hindre overshoot.
Figurene 9a til 9c viser resultatet av bruk av den beskrevne DRC-behandlingen på et audiosignal. For denne konkrete utførelsen anvendes en blokklengde på M=512med en samplingsrate på 44,1 kHz. En kompresjonskurve tilsvarende den vist i figur 8b anvendes: over -20dB i forhold til det digitale fullskalasignalet dempes med et forhold på 5:1, og
under -30dB blir signalet styrket med et forhold på 5:1. Forsterkningen blir glattet med en attackkoeffisient aMack svarende til en halvreduksjonstid på 10ms og en releasekoeffisient areleasesvarende til en halvreduksjonstid på 500ms. Det opprinnelige audiosignalet vist i figur 9a består av seks etterfølgende pianoakkorden med den endelige akkorden liggende rundt sampelet 1,75 x 10<5>og avtagende til lydløshet. I betraktningen av plottet av forsterkningen G[ t] i figur 9b skal det bemerkes at forsterkningen holder seg nær OdB mens de seks akkordene
blir spilt. Dette er fordi signalenergien i hovedsak holder seg mellom -30dB og - 20dB, området innenfor hvilket DRC-kurven ikke krever noen modifikasjon. Etter den siste akkorden faller imidlertid signalenergien under -30dB, og forsterkningen begynner å øke, til slutt til over 15dB, etter hvert som akkorden dør hen. Figur 9c viser det resulterende modifiserte audiosignalet, og en kan se at halen til den endelige akkorden er betydelig styrket. Hørselsmessig gir denne styrkingen av akkordens naturlige, lett avtagende lyd et ekstremt unaturlig resultat. Det er målet med foreliggende oppfinnelse å hindre problemer av denne typen som er forbundet med en tradisjonell dynamikkprosessor.
Figurene 10a til 10c viser resultatene av bruk av eksakt samme DRC-system på et annet audiosignal. I dette tilfellet består den første halvdelen av et opptempo musikkstykke på et høyt nivå, og så omtrent ved sample 10 xio<4>skifter signalet til et andre opptempo musikkstykke, men på et betydelig lavere nivå. Ved å betrakte forsterkningen i figur 6b ser en at signalet dempes med omtrent 10dB under den første halvdelen, og så stiger forsterkningen opp til OdB under den andre halvdelen når det saktere stykket spilles. I dette tilfellet oppfører forsterkningen seg som ønsket. En ønsker at det andre stykket styrkes i forhold til det første, og forsterkningen bør øke raskt etter overgangen til det andre stykket for ikke å gi nevneverdige hørbare effekter. En ser en forsterkningsoppførsel som er tilsvarende den til det første signalet beskrevet, men her er oppførselen ønskelig. Derfor ønsker en å korrigere det første tilfellet uten å påvirke det andre. Bruk av hørehendelser for å styre releasetiden til dette DRC-systemet gir en slik løsning.
I det første signalet som ble undersøkt i figur 9 synes økningen i reduksjonen av den siste akkorden unaturlig fordi akkorden og dens reduksjon oppfattes som én enkelt hørehendelse, hvis integritet forventes å være bevart. I det andre tilfellet opptrer imidlertid mange hørehendelser mens forsterkningen øker, noe som innebærer at det er lite endring for hver enkelthendelse. Den totale forsterkn-ingsendringen er derfor ikke så ille. En kan derfor argumentere med at en forsterkningsendring kun bør tillates tidsmessig nær en hørehendelsesgrense. En kunne anvende dette prinsippet på forsterkningen mens den er i enten attack- eller releasemodus, men for de fleste praktiske utførelser av en DRC beveger forsterkningen seg så raskt i attackmodus sammenliknet med menneskets tidsoppløsning av hendelsesoppfatning at ingen styring er nødvendig. En kan derfor anvende hendelser for å styre glattingen av DRC-forsterkningen kun i releasemodus.
En passende oppførsel for releasestyringen vil nå bli beskrevet. Kvalitativt, dersom en hendelse detekteres, blir forsterkningen glattet med releasetidskonstanten spesifisert over i likning 7a. Etter hvert som tiden går etter den detekterte hendelsen, og dersom ingen påfølgende hendelser detekteres, øker releasetidskonstanten kontinuerlig slik at den glattede forsterkningen til slutt "fryses". Dersom en annen hendelse detekteres, tilbakestilles glattingstidskonstanten til den opprinnelige verdien og prosessen gjentas. For å modulere releasetiden kan en først generere et reguleringssignal basert på de detekterte hendelsesgrensene.
Som beskrevet over kan hendelsesgrenser detekteres ved å se etter endringer i suksessive spektre i audiosignalet. Med denne konkrete metoden kan DFT-transformasjonen av hver overlappende blokk x[ n, t] beregnes for å generere STDFT-transformasjonen av audiosignalet :
Deretter kan forskjellen mellom de normaliserte log-absoluttverdispektrene til suksessive blokker beregnes i henhold til: der
Her anvendes maksimum av over bokser k for normalisering, selv om én kunne ha anvendt andre normaliseringsfaktorer; for eksempel gjennomsnittet av over bokser. Dersom forskjellen D[ t] overstiger en terskel Dmin, anses en hendelse å ha forekommet. Videre kan en tildele en styrke til denne hendelsen, som ligger mellom null og én, basert på størrelsen til D[ t] sammenliknet med en maksimal terskel £)max. Det resulterende hørehendelse-styrkesignalet A[ t] kan beregnes som:
Ved å tildele en styrke til hørehendelsene som er proporsjonal med graden av spektralendring forbundet med denne hendelsen oppnår en bedre kontroll over dynamikkprosesseringen sammenliknet med en todelt hendelsesbestemmelse. Oppfinnerne har funnet at større forsterkningsendringer er akseptabelt under sterkere hendelser, og signalet i likning 11 muliggjør slik variabel regulering.
Signalet A[ t] er et impulssignal der en impuls opptrer ved en hendelsesgrense. For å styre releasetiden kan en videre glatte signalet A[ t] slik at det avtar kontinuerlig til null etter deteksjon av en hendelsesgrense. Det glattede hendelsesreguleringssignalet A[ t] kan beregnes fra A[ t] i henhold til:
Her styrer reduksjonstiden til hendelsesreguleringssignalet. Figurene 9d og 10d viser hendelsesreguleringssignalet A[ t] for de to motsvarende audiosignalene, med halvreduksjonstiden til det glatteste satt til 250ms. I det første tilfellet ser en at en hendelsesgrense detekteres for hver av de seks piano-akkordene, og at hendelsesreguleringssignalet avtar kontinuerlig mot null etter hver hendelse. For det andre signalet detekteres mange hendelser veldig nær hverandre i tid, og derfor avtar hendelsesreguleringssignalet aldri helt til null.
En kan nå bruke hendelsesreguleringssignalet A[ t] til å variere releasetidskonstanten anvendt for å glatte forsterkningen. Når reguleringssignalet er lik én, er glattingskoeffisienten a[ t] fra likning 7a Wk<a>releasesom før, og når reguleringssignalet er lik null er koeffisienten lik én, slik at en hindrer at den glattede forsterkningen endrer seg. Glattingskoeffisienten interpoleres mellom disse to ekstrempunktene ved hjelp av reguleringssignalet i henhold til:
Ved at glattingskoeffisienten interpoleres kontinuerlig som funksjon av hendelsesreguleringssignalet tilbakestilles releasetiden til en verdi som står i forhold til hendelsesstyrken ved innledning av en hendelse, og øker så glatt til uendelig etter forekomst av en hendelse. Hastigheten til denne økningen bestemmes av koeffisienten anvendt for å generere det glattede hendelsesreguleringssignalet.
Figurene 9e og 10e viser innvirkningen av å glatte forsterkningen med den hendelsesstyrte koeffisienten fra likning 13 i motsetning til den ikke-hendelsesstyrte koeffisienten fra likning 7b. I det første tilfellet faller hendelsesreguleringssignalet til null etter den siste pianoakkorden, og hindrer dermed forsterkningen i å bevege seg oppover. Som følge av dette utviser ikke den til-hørende modifiserte lyden i figur 9f en unaturlig styrking av reduksjonen av akkorden. I det andre tilfellet går hendelsesreguleringssignalet aldri mot null, og derfor undertrykkes det glattede forsterkningssignalet veldig lite gjennom bruken av hendelsesreguleringen. Kurven til den glattede forsterkningen er nær identisk med den ikke-hendelsesstyrte forsterkningen i figur 10b. Dette er nøyaktig den ønskede effekten.
Lydstyrkebasert AGC og DRC
Som et alternativ til tradisjonelle dynamikkprosesseringsmetoder der signal-modifikasjoner er en direkte funksjon av enkle signalmålinger så som makseffekt eller RMS-effekt, beskriver den internasjonale patentsøknaden PCT/US2005/038579 bruk av den psykoakustikk-baserte lydstyrkemodellen beskrevet over som et rammeverk for å utføre dynamikkprosessering. Flere fordeler er angitt. For det første er målinger og modifikasjoner angitt i sone-enheter, som er et mer nøyaktig mål for lydstyrkeoppfatning enn mer grunnleggende mål så som makseffekt eller RMS-effekt. For det andre kan lyden bli modifisert slik at den oppfattede spektralbalansen til den opprinnelige lyden opprettholdes mens den totale lydstyrken endrer seg. På denne måten blir endringer av den totale lydstyrken mindre perseptuelt fremtredende sammenliknet med en dynamikkprosessor som for eksempel anvender en bredbåndsforsterkning for å modifisere lyden. Endelig er den psykoakustiske modellen naturlig en flerbåndsmodell, og derfor kan systemet enkelt innrettes for å utføre flerbånd dynamikkprosessering for å av-hjelpe de velkjente problemene med tverrspektral pumping forbundet med en bred-bånd dynamikkprosessor.
Selv om det å utføre dynamikkprosessering i dette lydstyrkedomenet allerede gir en rekke fordeler over mer tradisjonell dynamikkprosessering, kan denne metoden forbedres ytterligere gjennom bruk av hørehendelser for å styre forskjellige parametere. Betrakt audiosegmentet som inneholder pianoakkorder som vist i 27a og den tilhørende DRCen vist i figurene 10b og c. En kunne utføre en tilsvarende DRC i lydstyrkedomenet, og i dette tilfellet, når lydstyrken til den siste pianoakkordens reduksjon økes, ville økningen være mindre fremtredende fordi spektralbalansen til den avtagende noten ble opprettholdt når økningen ble anvendt. En bedre løsning er imidlertid å ikke øke reduksjonen i det hele tatt, og derfor kan en tjenlig anvende samme prinsipp for å styre attack- og releasetider med hørehendelser i lydstyrkedomenet som beskrevet over for en tradisjonell
DRC.
Det lydstyrkedomene-baserte dynamikkprosesseringssystemet som nå skal beskrives består av AGC etterfulgt av DRC. Målet med denne kombinasjonen er å gjøre at all behandlet lyd får omtrent samme oppfattede lydstyrke samtidig som i hvert fall noe av den opprinnelige lydens dynamikk bevares. Figur 11 viser et pas sende sett av AGC- og DRC-kurver for denne søknaden. Merk at innmatingen til og utmatingen fra begge kurvene er representert i sone-enheter siden behandlingen blir utført i lydstyrkedomenet. AGC-kurve jobber for å bringe den utmatede lyden nærmere et målnivå, og gjør som tidligere nevnt dette med forholdsvis langsomme tidskonstanter. En kan tenke på AGC som å gjøre lydstyrken på en langsom tidsskala lik den ønskede, men på en hurtig tidsskala kan lydstyrken fluktuere betydelig rundt dette målet. En kan derfor anvende mer hurtigvirkende DRC for å begrense disse fluktuasjonene til et område som anses som akseptabelt for den aktuelle anvendelsen. Figur 11 viser en slik DRC-kurve der AGC-målet faller innenfor "nullbåndet" til DRC, den delen av kurven som ikke krever noen modifikasjon. Med denne kombinasjon av kurver bringer AGC lydstyrken på den langsomme tidskalaen innenfor nullbåndet til DRC-kurven, slik at kun et mini-mum av hurtigvirkende DRC-modifikasjoner er nødvendig. Dersom lydstyrken på den hurtige tidsskalaen fortsatt fluktuerer utenfor nullbåndet, tjener DRC da til å flytte lydstyrken mot dette nullbåndet. Som en generell kommentar til slutt kan en anvende langsomtvirkende AGC slik at alle båndene i lydstyrkemodellen gjennomgår samme mengde lydstyrkemodifikasjon og dermed opprettholder den oppfattede spektralbalansen, og en kan anvende hurtigvirkende DRC på en måte som gjør at lydstyrkemodifikasjonen kan variere over bånd for å undertrykke tverrspektral pumping som ellers vil kunne resultere fra hurtigvirkende bånd-uavhengig lydstyrkemodifikasjon.
Hørehendelser kan anvendes for å styre attack og release i både AGC og DRC. For AGC er både attack- og releasetiden stor sammenliknet med tidsopp-løsningen av hendelsesoppfatningen, og derfor kan hendelsesregulering tjenlig anvendes i begge tilfeller. For DRC er attacktiden forholdsvis kort, og derfor kan hendelsesregulering kun være nødvendig for release som i den tradisjonelle DRC beskrevet over.
Som beskrevet over kan en anvende det spesifikke lydstyrkespekteret for den anvendte lydstyrkemodellen for hendelsesdeteksjon. Et differansesignalZ)[?], tilsvarende det i likningene 10a og b, kan beregnes fra den spesifikke lydstyrken N[ b, t], definert i likning 2, som følger: der
Her anvendes maksimum av |iV|7>,r]| over frekvensbånd b for normalisering, selv om en vil kunne anvende andre normaliseringsfaktorer; for eksempel gjennomsnittet av |iV|7>,r]| over frekvensbånd. Dersom differansen D[ t] overstigeren terskel , anses en hendelse å ha forekommet. Differansesignalet kan da bli behandlet på samme måte vist i likningene 11 og 12 for å generere et glatt hendelsesreguleringssignal A[ t] som anvendes for å styre attack- og release-tidene.
AGC-kurven vist i figur 11 kan representeres som en funksjon som tar som innmating et mål for lydstyrke og genererer en ønsket utmatet lydstyrke:
DRC-kurven kan representeres på tilsvarende måte:
For AGC er den innmatede lydstyrken et mål for lydens lydstyrke på en langsom tidsskala. En kan beregne et slikt mål ved å glatte den momentane lydstyrken L[ t], definert i likning 3, ved anvendelse av forholdsvis lange tidskonstanter (i størrelsesorden flere sekunder). Det har vært vist at mennesket i bedømmelsen av et audiosegments lydstyrke på en langsom tidsskala vektlegger de høyere delene mer enn de saktere, og en kan anvende en raskere attack enn release i glattingen for å simulere denne effekten. Med innlemmelsen av hendelsesregulering for både attack og release kan lydstyrken på den langsomme tidsskalaen som anvendes for å bestemme AGC-modifikasjonen derfor beregnes i henhold til: der
I tillegg kan en beregne et tilhørende spesifikt lydstyrkespekter på en langsom tidsskala som senere vil bli anvendt for flerbånd DRC:
I praksis kan en velge glattingskoeffisientene slik at attacktiden er omtrent halv-parten av releasetiden. Gitt lydstyrkemålet på den langsomme tidsskalaen kan en da beregne lydstyrkemodifikasjonsskaleringen for AGC som forholdet mellom utmatet lydstyrke og innmatet lydstyrke:
DRC-modifikasjonen kan nå beregnes fra lydstyrken etter bruk av AGC-skaleringen. Heller enn å glatte et mål for lydstyrken før bruk av DRC-kurven kan en alternativt anvende DRC-kurven på den momentane lydstyrken og deretter glat te den resulterende modifikasjonen. Dette er tilsvarende metoden beskrevet over for å glatte forsterkningen i den tradisjonelle DRC. Videre kan DRC anvendes med flere bånd, hvilket innebærer at DRC-modifikasjonen er en funksjon av den spesifikke lydstyrken N[ b, t] i hvert bånd b heller enn den totale lydstyrken L[ t]. For å opprettholde den gjennomsnittlige spektralbalansen til den opprinnelige lyden kan en imidlertid anvende DRC på hvert bånd slik at de resulterende modifikasjonene har samme gjennomsnittseffekt som ville fremkomme ved bruk av DRC på den totale lydstyrken. Dette kan oppnås ved å skalere hvert bånd med forholdet mellom den totale lydstyrken på en langsom tidsskala (etter bruk av AGC-skalering) og den spesifikke lydstyrken på en langsom tidsskala, og ved å anvende denne verdien som parameter til DRC-funksjonen. Resultatet blir da reskalert med den inverse av nevnte forhold for å generere den utmatede spesifikke lydstyrken. Følgelig kan DRC-skaleringen i hvert bånd beregnes i henhold til:
AGC- og DRC-modifikasjonene kan så kombineres for å danne en total lydstyrkeskalering for hvert bånd:
Denne totale skaleringen kan så glattes over tid uavhengig for hvert bånd med rask attack og langsom release og med hendelsesregulering anvendt kun for release. Ideelt sett utføres glatting på logaritmen av skaleringen tilsvarende som forsterkningene i tradisjonell DRC som glattes i sin desibelrepresentasjon, selv om dette ikke er avgjørende. For å sikre at den glattede totale skaleringen beveger seg synkronisert med den spesifikke lydstyrken i hvert bånd, kan attack- og releasemodus bestemmes gjennom samtidig glatting av spesifikk lydstyrke:
Endelig kan en beregne en ønsket spesifikk lydstyrke basert på den glattede skaleringen anvendt på den opprinnelige spesifikke lydstyrken og så løse for forsterkningene G[ b, t] som når de anvendes på den opprinnelige eksitasjonen resulterer i en spesifikk lydstyrke lik den ønskede:
Forsterkningene kan bli anvendt på hvert bånd i filterbanken som anvendes for å beregne eksitasjonen, og den modifiserte lyden kan så bli generert ved å invertere filterbanken for å generere et modifisert tidsdomene audiosignal.
Styring av ytterligere parametere
Selv om beskrivelsen over har fokusert på styring av attack- og releaseparametere for AGC og DRC gjennom høresceneanalyse av lyden som behandles, kan også andre viktige parametere tjenlig styres ved hjelp av ASA-resultatene. Foreksempel kan hendelsesreguleringssignalet A[ t] fra likning 12 anvendes for å variere verdien til DRC-forholdsparameteren som anvendes for dynamisk å justere forsterkningen av lyden. Forholdsparameteren, tilsvarende attack- og releasetidsparametrene, bidrar betydelig til de perseptuelle artefaktene som introduseres av dynamiske forsterkningsreguleringer.
Realisering
Oppfinnelsen kan realiseres i maskinvare eller programvare, eller en kombinasjon av begge ( f. eks. en programmerbar portmatrise). Dersom ikke annet er spesifisert, er ikke algoritmene innlemmet som del av oppfinnelsen uløselig knyttet til noen som helst spesifikk datamaskin eller annen anordning. Spesielt kan forskjellige generelle maskiner anvendes med programmer skrevet i henhold til det som er vist her, eller det kan være mer hensiktsmessig å konstruere mer spesiali-serte anordninger ( f. eks. integrert kretser) for å utføre de nødvendige fremgangs-måtetrinnene. Følgelig kan oppfinnelsen realiseres i ett eller flere dataprogrammer som kjører på ett eller flere programmerbare datasystemer som hvert omfatter minst én prosessor, minst ett datalagringssystem (omfattende volatile og ikke-volatile minner og/eller lagringselementer), minst én innmatingsanordning eller - port og minst én utmatingsanordning eller -port. Programkode anvendes for å mate inn data for å utføre funksjonene beskrevet her og generere utdata. Utdataene mates til én eller flere utmatingsanordninger, på en kjent måte.
Hvert slikt program kan implementeres i et hvilket som helst ønsket data-maskinspråk (omfattende maskinkode, assemblerkode eller et høynivå prosedyre-orientert, logisk eller objekt-orientert programmeringsspråk) for å kommunisere med et datasystem. Språket kan være et kompilert eller interpretert språk.
Hvert slikt dataprogram blir fortrinnsvis lagret på eller lastet ned til et lagringsmedium eller en lagringsanordning ( f. eks. solid-state minne eller medier, eller magnetiske eller optiske medier) som kan leses av en generell eller spesialisert programmerbar datamaskin, for å konfigurere og kjøre datamaskinen når lagrings-mediene eller -anordningen leses av datasystemet for å utføre fremgangsmåtene beskrevet her. Systemet ifølge oppfinnelsen kan også betraktes som realisert som et datamaskinlesbart lagringsmedium som inneholder et dataprogram, der lagrings-mediet innrettet på denne måten bevirker et datasystem til å kjøre på en spesifikk og forhåndsdefinert måte for å utføre funksjonene beskrevet her.
Et antall utførelsesformer av oppfinnelsen er beskrevet. Ikke desto mindre vil det forstås at en kan foreta forskjellige modifikasjoner uten å fjerne seg fra opp-finnelsens ramme. For eksempel kan noen av trinnene beskrevet her være rekkefølgeuavhengige, og kan således bli utført i en annen rekkefølge enn den som er beskrevet.
Det må forstås at andre variasjoner og modifikasjoner av oppfinnelsen og dens forskjellige aspekter vil sees av fagmannen, og at oppfinnelsen ikke er begrenset av de konkrete utførelsesformene beskrevet. Det forutsettes derfor at foreliggende oppfinnelse dekker enhver modifikasjon, variasjon eller ekvivalent som faller innenfor rammen til de grunnleggende underliggende prinsippene som er beskrevet og som det kreves beskyttelse for ifølge patentkravene.
Referanser
De følgende patenter, patentsøknader og publikasjoner beskriver ytterligere kjent teknikk.
Audiodynamikkprosessering
Audio Engineer's Reference Book, redigert av Michael Talbot-Smith, 2. utgave. Limiters and Compressors, Alan Tutton, 2-1492-165. Focal Press, Reed Educational and Professional Publishing Ltd., 1999.
Deteksjon og bruk av hørehendelser U.S.-patentsøknaden 10/474,387, "High Quality Time-Scaling and Pitch-Scaling of Audio Signals" av Brett Graham Crockett, publisert 24. juni 2004 som US 2004/0122662 A1.
U.S.-patentsøknaden 10/478,398, "Method for Time Aligning Audio Signals Using Characterizations Based on Auditory Events", av Brett G. Crockett m.fl., publisert 29. juli 2004 som US 2004/0148159 A1.
U.S.-patentsøknaden 10/478,538, "Segmenting Audio Signals Into Auditory Events", av Brett G. Crockett, publisert 26. august 2004 som US 2004/0165730 A1. Aspekter ved foreliggende oppfinnelse tilveiebringer en måte å detektere hørehendelser i tillegg til de beskrevet i nevnte søknad av Crockett.
U.S.-patentsøknaden 10/478,397, "Comparing Audio Using Characterizations Based on Auditory Events", av Brett G. Crockett m.fl., publisert 2. september 2004 som US 2004/0172240 A1.
Den internasjonale søknaden, under Patentsamarbeidkonvensjonen, PCT/US 05/24630, innlevert 13. juli 2005 med tittelen "Method for Combining Audio Signals Using Auditory Scene Analysis", av Michael John Smithers, publisert 9. mars 2006 som WO 2006/026161.
Den internasjonale søknaden, under Patentsamarbeidkonvensjonen, PCT/US 2004/016964, innlevert 27. mai 2004 med tittelen "Method, Apparatus and Computer Program for Calculating and Adjusting the Perceived Loudness of an Audio Signal" av Alan Jeffrey Seefeldt m. fl., publisert 23. desember 2004 som WO 2004/111994 A2.
Den internasjonale søknaden, under Patentsamarbeidkonvensjonen, PCT/US2005/038579, innlevert 25. oktober 2005 med tittelen "Calculating and Adjusting the Perceived Loudness and/or the Perceived Spectral Balance of an Audio Signal", av Alan Jeffrey Seefeldt og publisert med det isjonale publikasjonsnummeret. Ettersom denne søknaden ikke enda er publisert er en kopi av denne vedlagt her, og danner en del av denne søknaden.
"A method for Characterizing and Identifying Audio Based on Auditory Scene Analysis", av Brett Crockett og Michael Smithers, Audio Engineering Society konferanseartikkel 6416, 118. konferanse i Barcelona, 28-31. mai 2005.
"High Quality Multichannel Time Scaling and Pitch-Shifting using Auditory Scene Analysis", av Brett Crockett, Audio Engineering Society, konferanseartikkel 5948, New York, oktober 2003.
"A new Objective Measure of Perceived Loudness" av Alan Seefeldt m.fl., Audio Engineering Society, konferanseartikkel 6236, San Francisco, 28. oktober 2004.
Handbook for Sound Engi neers, The New Audio Cyclopedia, redigert av Glen M. Ballou, 2. utgave. Dynamics, 850-851. Focal Press, et trykk av Butterworth-Heinemann, 1998.
Audio Engineer' s Reference Book, redigert av Michael Talbot-Smith, 2. utgave, Seksjon 2.9 ("Limiters and Compressors" av Alan Tutton), s. 2.149-2.165, Focal Press, Reed Educational and Professional Publishing Ltd., 1999.
Claims (12)
1. Fremgangsmåte for å modifisere en parameter for en audiodynamikkprosessor, omfattende det å: detektere endringer i spektralegenskaper med hensyn til tid i et audiosignal, identifisere som hørehendelsesgrenser endringer som overstiger en terskel i spektralegenskaper med hensyn til tid i nevnte audiosignal, der et audiosegment mellom konsekutive grenser danner en hørehendelse, og generere et parameter-modifiserende reguleringssignal basert på nevnte identifiserte hørehendelsesgrenser, og modifisere parameteren for audiodynamikkprosessoren som funksjon av reguleringssignalet.
2. Fremgangsmåte ifølge krav 1, der parameteren er én av attacktid, releasetid og forhold.
3. Fremgangsmåte ifølge krav 1, der parameteren som modifiseres er en forsterkningsglattende tidskonstant.
4. Fremgangsmåte ifølge krav 3, der den forsterkningsglattende tidskonstanten er en forsterkningsglattende attacktidskonstant.
5. Fremgangsmåte ifølge krav 3, der den forsterkningsglattende tidskonstanten er en forsterkningsglattende releasetidskonstant.
6. Fremgangsmåte ifølge et hvilket som helst av kravene 1-5, der nevnte parameter-modifiserende reguleringssignal baseres på posisjonen til nevnte identifiserte hørehendelsesgrenser og graden av endring i spektralegenskaper forbundet med hver av nevnte hørehendelsesgrenser.
7. Fremgangsmåte ifølge krav 6, der det å generere et parameter-modifiserende reguleringssignal omfatter det å: tilveiebringe en impuls ved hver av hørehendelsesgrensene, der hver slik impuls har en amplitude som er proporsjonal med graden av nevnte endringer i spektralegenskaper, og tidsglatte hver slik impuls slik at dens amplitude avtar jevnt mot null for derved å oppnå det parameter-modifiserende reguleringssignal.
8. Fremgangsmåte ifølge et hvilket som helst av kravene 1-7, der endringer i spektralegenskaper med hensyn til tid detekteres ved å sammenlikne forskjeller i spesifikk lydstyrke.
9. Fremgangsmåte ifølge krav 8, der nevnte audiosignal representeres av en diskret tidssekvens x[ n] som er samplet fra en lydkilde med en samplingsfrekvens og endringene i spektralegenskaper med hensyn til tid beregnes ved å sammenlikne forskjellen i spesifikk lydstyrke N[ b, t] over frekvensbånd b mellom suksessive tidsblokker t.
10. Fremgangsmåte ifølge krav 9, der forskjellen i spektralinnhold mellom suksessive tidsblokker av audiosignalet beregnes i henhold til:
11. Fremgangsmåte ifølge krav 9, der forskjellen i spektralinnhold mellom suksessive tidsblokker av audiosignalet beregnes i henhold til:
12. Dataprogram, lagret på et datamaskinlesbart medium, for å bevirke en datamaskin til å utføre fremgangsmåten ifølge et hvilket som helst av kravene 1 til 11.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US79580806P | 2006-04-27 | 2006-04-27 | |
PCT/US2007/008313 WO2007127023A1 (en) | 2006-04-27 | 2007-03-30 | Audio gain control using specific-loudness-based auditory event detection |
Publications (2)
Publication Number | Publication Date |
---|---|
NO20084336L NO20084336L (no) | 2008-11-17 |
NO339346B1 true NO339346B1 (no) | 2016-11-28 |
Family
ID=38445597
Family Applications (13)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
NO20191310A NO345590B1 (no) | 2006-04-27 | 2007-03-30 | Audioforsterkningsregulering ved bruk av spesifikk lydstyrkebasert hørehendelsesdeteksjon |
NO20084336A NO339346B1 (no) | 2006-04-27 | 2008-10-16 | Audioforsterkningsregulering ved bruk av spesifikk lydstyrkebasert hørehendelsesdeteksjon |
NO20161295A NO342160B1 (no) | 2006-04-27 | 2016-08-12 | Audioforsterkningsregulering ved bruk av spesifikk lydstyrkebasert hørehendelsesdeteksjon |
NO20161296A NO342157B1 (no) | 2006-04-27 | 2016-08-12 | Audioforsterkningsregulering ved bruk av spesifikk lydstyrkebasert hørehendelsesdeteksjon |
NO20161439A NO342164B1 (no) | 2006-04-27 | 2016-09-12 | Audioforsterkningsregulering ved bruk av spesifikk lydstyrkebasert hørehendelsesdeteksjon |
NO20180272A NO344658B1 (no) | 2006-04-27 | 2018-02-21 | Audioforsterkningsregulering ved bruk av spesifikk lydstyrkebasert hørehendelsesdeteksjon |
NO20180266A NO343877B1 (no) | 2006-04-27 | 2018-02-21 | Audioforsterkningsregulering ved bruk av spesifikk lydstyrkebasert hørehendelsesdeteksjon |
NO20180271A NO344655B1 (no) | 2006-04-27 | 2018-02-21 | Audioforsterkningsregulering ved bruk av spesifikk lydstyrkebasert hørehendelsesdeteksjon |
NO20190018A NO344363B1 (no) | 2006-04-27 | 2019-01-07 | Audioforsterkningsregulering ved bruk av spesifikk lydstyrkebasert hørehendelsesdeteksjon |
NO20190022A NO344013B1 (no) | 2006-04-27 | 2019-01-07 | Audioforsterkningsregulering ved bruk av spesifikk lydstyrkebasert hørehendelsesdeteksjon |
NO20190002A NO344364B1 (no) | 2006-04-27 | 2019-01-07 | Audioforsterkningsregulering ved bruk av spesifikk lydstyrkebasert hørehendelsesdeteksjon |
NO20190024A NO344362B1 (no) | 2006-04-27 | 2019-01-08 | Audioforsterkningsregulering ved bruk av spesifikk lydstyrkebasert hørehendelsesdeteksjon |
NO20190025A NO344361B1 (no) | 2006-04-27 | 2019-01-08 | Audioforsterkningsregulering ved bruk av spesifikk lydstyrkebasert hørehendelsesdeteksjon |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
NO20191310A NO345590B1 (no) | 2006-04-27 | 2007-03-30 | Audioforsterkningsregulering ved bruk av spesifikk lydstyrkebasert hørehendelsesdeteksjon |
Family Applications After (11)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
NO20161295A NO342160B1 (no) | 2006-04-27 | 2016-08-12 | Audioforsterkningsregulering ved bruk av spesifikk lydstyrkebasert hørehendelsesdeteksjon |
NO20161296A NO342157B1 (no) | 2006-04-27 | 2016-08-12 | Audioforsterkningsregulering ved bruk av spesifikk lydstyrkebasert hørehendelsesdeteksjon |
NO20161439A NO342164B1 (no) | 2006-04-27 | 2016-09-12 | Audioforsterkningsregulering ved bruk av spesifikk lydstyrkebasert hørehendelsesdeteksjon |
NO20180272A NO344658B1 (no) | 2006-04-27 | 2018-02-21 | Audioforsterkningsregulering ved bruk av spesifikk lydstyrkebasert hørehendelsesdeteksjon |
NO20180266A NO343877B1 (no) | 2006-04-27 | 2018-02-21 | Audioforsterkningsregulering ved bruk av spesifikk lydstyrkebasert hørehendelsesdeteksjon |
NO20180271A NO344655B1 (no) | 2006-04-27 | 2018-02-21 | Audioforsterkningsregulering ved bruk av spesifikk lydstyrkebasert hørehendelsesdeteksjon |
NO20190018A NO344363B1 (no) | 2006-04-27 | 2019-01-07 | Audioforsterkningsregulering ved bruk av spesifikk lydstyrkebasert hørehendelsesdeteksjon |
NO20190022A NO344013B1 (no) | 2006-04-27 | 2019-01-07 | Audioforsterkningsregulering ved bruk av spesifikk lydstyrkebasert hørehendelsesdeteksjon |
NO20190002A NO344364B1 (no) | 2006-04-27 | 2019-01-07 | Audioforsterkningsregulering ved bruk av spesifikk lydstyrkebasert hørehendelsesdeteksjon |
NO20190024A NO344362B1 (no) | 2006-04-27 | 2019-01-08 | Audioforsterkningsregulering ved bruk av spesifikk lydstyrkebasert hørehendelsesdeteksjon |
NO20190025A NO344361B1 (no) | 2006-04-27 | 2019-01-08 | Audioforsterkningsregulering ved bruk av spesifikk lydstyrkebasert hørehendelsesdeteksjon |
Country Status (22)
Country | Link |
---|---|
US (23) | US8144881B2 (no) |
EP (1) | EP2011234B1 (no) |
JP (2) | JP5129806B2 (no) |
KR (2) | KR101041665B1 (no) |
CN (2) | CN102684628B (no) |
AT (1) | ATE493794T1 (no) |
AU (2) | AU2007243586B2 (no) |
BR (1) | BRPI0711063B1 (no) |
CA (1) | CA2648237C (no) |
DE (1) | DE602007011594D1 (no) |
DK (1) | DK2011234T3 (no) |
ES (1) | ES2359799T3 (no) |
HK (2) | HK1126902A1 (no) |
IL (1) | IL194430A (no) |
MX (1) | MX2008013753A (no) |
MY (1) | MY141426A (no) |
NO (13) | NO345590B1 (no) |
PL (1) | PL2011234T3 (no) |
RU (1) | RU2417514C2 (no) |
TW (1) | TWI455481B (no) |
UA (1) | UA93243C2 (no) |
WO (1) | WO2007127023A1 (no) |
Families Citing this family (107)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7711123B2 (en) | 2001-04-13 | 2010-05-04 | Dolby Laboratories Licensing Corporation | Segmenting audio signals into auditory events |
US7610205B2 (en) | 2002-02-12 | 2009-10-27 | Dolby Laboratories Licensing Corporation | High quality time-scaling and pitch-scaling of audio signals |
JP4486646B2 (ja) | 2003-05-28 | 2010-06-23 | ドルビー・ラボラトリーズ・ライセンシング・コーポレーション | オーディオ信号の感知音量を計算し調整する方法、装置及びコンピュータプログラム |
EP1914722B1 (en) | 2004-03-01 | 2009-04-29 | Dolby Laboratories Licensing Corporation | Multichannel audio decoding |
US7508947B2 (en) | 2004-08-03 | 2009-03-24 | Dolby Laboratories Licensing Corporation | Method for combining audio signals using auditory scene analysis |
US8199933B2 (en) | 2004-10-26 | 2012-06-12 | Dolby Laboratories Licensing Corporation | Calculating and adjusting the perceived loudness and/or the perceived spectral balance of an audio signal |
JP5101292B2 (ja) | 2004-10-26 | 2012-12-19 | ドルビー ラボラトリーズ ライセンシング コーポレイション | オーディオ信号の感知音量及び/又は感知スペクトルバランスの計算と調整 |
JP5191886B2 (ja) | 2005-06-03 | 2013-05-08 | ドルビー ラボラトリーズ ライセンシング コーポレイション | サイド情報を有するチャンネルの再構成 |
TWI517562B (zh) | 2006-04-04 | 2016-01-11 | 杜比實驗室特許公司 | 用於將多聲道音訊信號之全面感知響度縮放一期望量的方法、裝置及電腦程式 |
JP5185254B2 (ja) | 2006-04-04 | 2013-04-17 | ドルビー ラボラトリーズ ライセンシング コーポレイション | Mdct領域におけるオーディオ信号音量測定と改良 |
NO345590B1 (no) | 2006-04-27 | 2021-05-03 | Dolby Laboratories Licensing Corp | Audioforsterkningsregulering ved bruk av spesifikk lydstyrkebasert hørehendelsesdeteksjon |
BRPI0717484B1 (pt) | 2006-10-20 | 2019-05-21 | Dolby Laboratories Licensing Corporation | Método e aparelho para processar um sinal de áudio |
US8521314B2 (en) | 2006-11-01 | 2013-08-27 | Dolby Laboratories Licensing Corporation | Hierarchical control path with constraints for audio dynamics processing |
ATE493731T1 (de) | 2007-06-08 | 2011-01-15 | Dolby Lab Licensing Corp | Hybridableitung von surround-sound-audiokanälen durch steuerbares kombinieren von umgebungs- und matrixdekodierten signalkomponenten |
ES2377719T3 (es) | 2007-07-13 | 2012-03-30 | Dolby Laboratories Licensing Corporation | Procesamiento de audio utilizando un análisis de escenas auditivas y oblicuidad espectral. |
US8315398B2 (en) | 2007-12-21 | 2012-11-20 | Dts Llc | System for adjusting perceived loudness of audio signals |
KR101230479B1 (ko) * | 2008-03-10 | 2013-02-06 | 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. | 트랜지언트 이벤트를 갖는 오디오 신호를 조작하기 위한 장치 및 방법 |
KR101238731B1 (ko) * | 2008-04-18 | 2013-03-06 | 돌비 레버러토리즈 라이쎈싱 코오포레이션 | 서라운드 경험에 최소한의 영향을 미치는 멀티-채널 오디오에서 음성 가청도를 유지하는 방법과 장치 |
US9253560B2 (en) * | 2008-09-16 | 2016-02-02 | Personics Holdings, Llc | Sound library and method |
EP2347556B1 (en) | 2008-09-19 | 2012-04-04 | Dolby Laboratories Licensing Corporation | Upstream signal processing for client devices in a small-cell wireless network |
CN102160115A (zh) | 2008-09-19 | 2011-08-17 | 杜比实验室特许公司 | 对于资源受限客户机设备的上游质量增强信号处理 |
CN102257728B (zh) | 2008-10-17 | 2014-11-26 | 夏普株式会社 | 音频信号调节设备及音频信号调节方法 |
US8315411B2 (en) * | 2008-11-14 | 2012-11-20 | That Corporation | Dynamic volume control and multi-spatial processing protection |
JP5270006B2 (ja) | 2008-12-24 | 2013-08-21 | ドルビー ラボラトリーズ ライセンシング コーポレイション | 周波数領域におけるオーディオ信号ラウドネス決定と修正 |
WO2010099237A2 (en) * | 2009-02-25 | 2010-09-02 | Conexant Systems, Inc. | Speaker distortion reduction system and method |
US8422699B2 (en) * | 2009-04-17 | 2013-04-16 | Linear Acoustic, Inc. | Loudness consistency at program boundaries |
WO2010127024A1 (en) | 2009-04-30 | 2010-11-04 | Dolby Laboratories Licensing Corporation | Controlling the loudness of an audio signal in response to spectral localization |
US8938313B2 (en) | 2009-04-30 | 2015-01-20 | Dolby Laboratories Licensing Corporation | Low complexity auditory event boundary detection |
TWI503816B (zh) | 2009-05-06 | 2015-10-11 | Dolby Lab Licensing Corp | 調整音訊信號響度並使其具有感知頻譜平衡保持效果之技術 |
US9055374B2 (en) * | 2009-06-24 | 2015-06-09 | Arizona Board Of Regents For And On Behalf Of Arizona State University | Method and system for determining an auditory pattern of an audio segment |
US8249275B1 (en) * | 2009-06-26 | 2012-08-21 | Cirrus Logic, Inc. | Modulated gain audio control and zipper noise suppression techniques using modulated gain |
US8554348B2 (en) * | 2009-07-20 | 2013-10-08 | Apple Inc. | Transient detection using a digital audio workstation |
CN102498514B (zh) * | 2009-08-04 | 2014-06-18 | 诺基亚公司 | 用于音频信号分类的方法和装置 |
US8538042B2 (en) | 2009-08-11 | 2013-09-17 | Dts Llc | System for increasing perceived loudness of speakers |
CN102577113A (zh) * | 2009-10-07 | 2012-07-11 | 日本电气株式会社 | 多带域压缩器及其调节方法 |
EP2367286B1 (en) | 2010-03-12 | 2013-02-20 | Harman Becker Automotive Systems GmbH | Automatic correction of loudness level in audio signals |
US9172956B2 (en) | 2010-11-23 | 2015-10-27 | Lg Electronics Inc. | Encoding and decoding images using inter-prediction |
US8855322B2 (en) * | 2011-01-12 | 2014-10-07 | Qualcomm Incorporated | Loudness maximization with constrained loudspeaker excursion |
JP5707219B2 (ja) * | 2011-05-13 | 2015-04-22 | 富士通テン株式会社 | 音響制御装置 |
US9232321B2 (en) * | 2011-05-26 | 2016-01-05 | Advanced Bionics Ag | Systems and methods for improving representation by an auditory prosthesis system of audio signals having intermediate sound levels |
DE102011085036A1 (de) * | 2011-10-21 | 2013-04-25 | Siemens Medical Instruments Pte. Ltd. | Verfahren zum Ermitteln einer Kompressionskennlinie |
TWI575962B (zh) * | 2012-02-24 | 2017-03-21 | 杜比國際公司 | 部份複數處理之重疊濾波器組中的低延遲實數至複數轉換 |
US9312829B2 (en) | 2012-04-12 | 2016-04-12 | Dts Llc | System for adjusting loudness of audio signals in real time |
WO2013154868A1 (en) | 2012-04-12 | 2013-10-17 | Dolby Laboratories Licensing Corporation | System and method for leveling loudness variation in an audio signal |
JP5527827B2 (ja) * | 2012-04-17 | 2014-06-25 | Necエンジニアリング株式会社 | ラウドネス調整装置、ラウドネス調整方法、及びプログラム |
US9685921B2 (en) | 2012-07-12 | 2017-06-20 | Dts, Inc. | Loudness control with noise detection and loudness drop detection |
US9125987B2 (en) | 2012-07-17 | 2015-09-08 | Elwha Llc | Unmanned device utilization methods and systems |
US9733644B2 (en) | 2012-07-17 | 2017-08-15 | Elwha Llc | Unmanned device interaction methods and systems |
US9991861B2 (en) * | 2012-08-10 | 2018-06-05 | Bellevue Investments Gmbh & Co. Kgaa | System and method for controlled dynamics adaptation for musical content |
WO2014046941A1 (en) * | 2012-09-19 | 2014-03-27 | Dolby Laboratories Licensing Corporation | Method and system for object-dependent adjustment of levels of audio objects |
JP6129348B2 (ja) * | 2013-01-21 | 2017-05-17 | ドルビー ラボラトリーズ ライセンシング コーポレイション | 異なる再生装置を横断するラウドネスおよびダイナミックレンジの最適化 |
EP2974253B1 (en) | 2013-03-15 | 2019-05-08 | Dolby Laboratories Licensing Corporation | Normalization of soundfield orientations based on auditory scene analysis |
CN104078050A (zh) | 2013-03-26 | 2014-10-01 | 杜比实验室特许公司 | 用于音频分类和音频处理的设备和方法 |
CN107093991B (zh) | 2013-03-26 | 2020-10-09 | 杜比实验室特许公司 | 基于目标响度的响度归一化方法和设备 |
CN104079247B (zh) | 2013-03-26 | 2018-02-09 | 杜比实验室特许公司 | 均衡器控制器和控制方法以及音频再现设备 |
JP6216553B2 (ja) * | 2013-06-27 | 2017-10-18 | クラリオン株式会社 | 伝搬遅延補正装置及び伝搬遅延補正方法 |
US9521501B2 (en) * | 2013-09-12 | 2016-12-13 | Dolby Laboratories Licensing Corporation | Loudness adjustment for downmixed audio content |
CN105556837B (zh) * | 2013-09-12 | 2019-04-19 | 杜比实验室特许公司 | 用于各种回放环境的动态范围控制 |
US9608588B2 (en) * | 2014-01-22 | 2017-03-28 | Apple Inc. | Dynamic range control with large look-ahead |
US10063207B2 (en) * | 2014-02-27 | 2018-08-28 | Dts, Inc. | Object-based audio loudness management |
CN106031141B (zh) | 2014-02-28 | 2017-12-29 | 杜比实验室特许公司 | 会议中使用改变视盲的感知连续性 |
CN110808723A (zh) | 2014-05-26 | 2020-02-18 | 杜比实验室特许公司 | 音频信号响度控制 |
WO2016007947A1 (en) * | 2014-07-11 | 2016-01-14 | Arizona Board Of Regents On Behalf Of Arizona State University | Fast computation of excitation pattern, auditory pattern and loudness |
WO2016011288A1 (en) | 2014-07-16 | 2016-01-21 | Eariq, Inc. | System and method for calibration and reproduction of audio signals based on auditory feedback |
CN113257273A (zh) | 2014-10-01 | 2021-08-13 | 杜比国际公司 | 高效drc配置文件传输 |
EP4060661B1 (en) * | 2014-10-10 | 2024-04-24 | Dolby Laboratories Licensing Corporation | Transmission-agnostic presentation-based program loudness |
JP6228100B2 (ja) * | 2014-11-17 | 2017-11-08 | Necプラットフォームズ株式会社 | ラウドネス調整装置、ラウドネス調整方法及びラウドネス調整用プログラム |
US9852744B2 (en) * | 2014-12-16 | 2017-12-26 | Psyx Research, Inc. | System and method for dynamic recovery of audio data |
EP3275208B1 (en) * | 2015-03-25 | 2019-12-25 | Dolby Laboratories Licensing Corporation | Sub-band mixing of multiple microphones |
EP3286757B1 (en) * | 2015-04-24 | 2019-10-23 | Cyber Resonance Corporation | Methods and systems for performing signal analysis to identify content types |
US10109288B2 (en) | 2015-05-27 | 2018-10-23 | Apple Inc. | Dynamic range and peak control in audio using nonlinear filters |
GB2581032B (en) | 2015-06-22 | 2020-11-04 | Time Machine Capital Ltd | System and method for onset detection in a digital signal |
US9837086B2 (en) | 2015-07-31 | 2017-12-05 | Apple Inc. | Encoded audio extended metadata-based dynamic range control |
CA2994446C (en) | 2015-08-28 | 2021-01-12 | The Procter & Gamble Company | Catalysts for the dehydration of hydroxypropionic acid and its derivatives |
US9590580B1 (en) | 2015-09-13 | 2017-03-07 | Guoguang Electric Company Limited | Loudness-based audio-signal compensation |
US10341770B2 (en) * | 2015-09-30 | 2019-07-02 | Apple Inc. | Encoded audio metadata-based loudness equalization and dynamic equalization during DRC |
CN105404654A (zh) * | 2015-10-30 | 2016-03-16 | 魅族科技(中国)有限公司 | 一种音频文件播放方法及装置 |
WO2017079334A1 (en) | 2015-11-03 | 2017-05-11 | Dolby Laboratories Licensing Corporation | Content-adaptive surround sound virtualization |
US9756281B2 (en) | 2016-02-05 | 2017-09-05 | Gopro, Inc. | Apparatus and method for audio based video synchronization |
WO2017142916A1 (en) * | 2016-02-19 | 2017-08-24 | Dolby Laboratories Licensing Corporation | Diffusivity based sound processing method and apparatus |
US10923132B2 (en) | 2016-02-19 | 2021-02-16 | Dolby Laboratories Licensing Corporation | Diffusivity based sound processing method and apparatus |
CN105845151B (zh) * | 2016-05-30 | 2019-05-31 | 百度在线网络技术(北京)有限公司 | 应用于语音识别前端的音频增益调整方法和装置 |
US20170366897A1 (en) * | 2016-06-15 | 2017-12-21 | Robert Azarewicz | Microphone board for far field automatic speech recognition |
US9697849B1 (en) | 2016-07-25 | 2017-07-04 | Gopro, Inc. | Systems and methods for audio based synchronization using energy vectors |
US9640159B1 (en) * | 2016-08-25 | 2017-05-02 | Gopro, Inc. | Systems and methods for audio based synchronization using sound harmonics |
US9653095B1 (en) | 2016-08-30 | 2017-05-16 | Gopro, Inc. | Systems and methods for determining a repeatogram in a music composition using audio features |
GB201615538D0 (en) * | 2016-09-13 | 2016-10-26 | Nokia Technologies Oy | A method , apparatus and computer program for processing audio signals |
US9916822B1 (en) | 2016-10-07 | 2018-03-13 | Gopro, Inc. | Systems and methods for audio remixing using repeated segments |
TWI590239B (zh) * | 2016-12-09 | 2017-07-01 | 宏碁股份有限公司 | 語音信號處理裝置及語音信號處理方法 |
CN108281148B (zh) * | 2016-12-30 | 2020-12-22 | 宏碁股份有限公司 | 语音信号处理装置及语音信号处理方法 |
US10374564B2 (en) | 2017-04-20 | 2019-08-06 | Dts, Inc. | Loudness control with noise detection and loudness drop detection |
US10491179B2 (en) | 2017-09-25 | 2019-11-26 | Nuvoton Technology Corporation | Asymmetric multi-channel audio dynamic range processing |
US11450339B2 (en) * | 2017-10-06 | 2022-09-20 | Sony Europe B.V. | Audio file envelope based on RMS power in sequences of sub-windows |
US11011180B2 (en) | 2018-06-29 | 2021-05-18 | Guoguang Electric Company Limited | Audio signal dynamic range compression |
WO2020020043A1 (en) | 2018-07-25 | 2020-01-30 | Dolby Laboratories Licensing Corporation | Compressor target curve to avoid boosting noise |
EP3847542A4 (en) * | 2018-09-07 | 2022-06-01 | Gracenote, Inc. | METHODS AND APPARATUS FOR DYNAMIC VOLUME ADJUSTMENT BY AUDIO CLASSIFICATION |
US11775250B2 (en) | 2018-09-07 | 2023-10-03 | Gracenote, Inc. | Methods and apparatus for dynamic volume adjustment via audio classification |
JP7031543B2 (ja) * | 2018-09-21 | 2022-03-08 | 株式会社Jvcケンウッド | 処理装置、処理方法、再生方法、及びプログラム |
US11282533B2 (en) * | 2018-09-28 | 2022-03-22 | Dolby Laboratories Licensing Corporation | Distortion reducing multi-band compressor with dynamic thresholds based on scene switch analyzer guided distortion audibility model |
US11792481B2 (en) * | 2018-10-24 | 2023-10-17 | Gracenote, Inc. | Methods and apparatus for playback using pre-processed profile information and personalization |
US11347470B2 (en) * | 2018-11-16 | 2022-05-31 | Roku, Inc. | Detection of media playback loudness level and corresponding adjustment to audio during media replacement event |
CN109889170B (zh) * | 2019-02-25 | 2021-06-04 | 珠海格力电器股份有限公司 | 音频信号的控制方法和装置 |
JP7275711B2 (ja) * | 2019-03-20 | 2023-05-18 | ヤマハ株式会社 | オーディオ信号の処理方法 |
US11019301B2 (en) | 2019-06-25 | 2021-05-25 | The Nielsen Company (Us), Llc | Methods and apparatus to perform an automated gain control protocol with an amplifier based on historical data corresponding to contextual data |
US11133787B2 (en) | 2019-06-25 | 2021-09-28 | The Nielsen Company (Us), Llc | Methods and apparatus to determine automated gain control parameters for an automated gain control protocol |
US20230113561A1 (en) * | 2020-03-13 | 2023-04-13 | Immersion Networks, Inc. | Loudness equalization system |
EP3961624A1 (de) * | 2020-08-28 | 2022-03-02 | Sivantos Pte. Ltd. | Verfahren zum betrieb einer hörvorrichtung in abhängigkeit eines sprachsignals |
Family Cites Families (168)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US2808475A (en) | 1954-10-05 | 1957-10-01 | Bell Telephone Labor Inc | Loudness indicator |
DE1736966U (de) | 1956-09-28 | 1956-12-27 | Heinz Schulze | Luftschraube fuer spiel- und modell-flugzeuge. |
SU720691A1 (ru) | 1978-04-27 | 1980-03-05 | Предприятие П/Я Р-6609 | Устройство дл автоматического регулировани усилени |
US4281218A (en) | 1979-10-26 | 1981-07-28 | Bell Telephone Laboratories, Incorporated | Speech-nonspeech detector-classifier |
US4624009A (en) | 1980-05-02 | 1986-11-18 | Figgie International, Inc. | Signal pattern encoder and classifier |
DE3314570A1 (de) | 1983-04-22 | 1984-10-25 | Philips Patentverwaltung Gmbh, 2000 Hamburg | Verfahren und anordnung zur einstellung der verstaerkung |
US4739514A (en) | 1986-12-22 | 1988-04-19 | Bose Corporation | Automatic dynamic equalizing |
US4887299A (en) | 1987-11-12 | 1989-12-12 | Nicolet Instrument Corporation | Adaptive, programmable signal processing hearing aid |
US4882762A (en) * | 1988-02-23 | 1989-11-21 | Resound Corporation | Multi-band programmable compression system |
KR940003351B1 (ko) | 1988-03-31 | 1994-04-20 | 주식회사 금성사 | 조도에 따른 자동이득 제어증폭기 이득 제어회로 |
US4953112A (en) * | 1988-05-10 | 1990-08-28 | Minnesota Mining And Manufacturing Company | Method and apparatus for determining acoustic parameters of an auditory prosthesis using software model |
US5027410A (en) | 1988-11-10 | 1991-06-25 | Wisconsin Alumni Research Foundation | Adaptive, programmable signal processing and filtering for hearing aids |
JPH02118322U (no) | 1989-03-08 | 1990-09-21 | ||
US5097510A (en) | 1989-11-07 | 1992-03-17 | Gs Systems, Inc. | Artificial intelligence pattern-recognition-based noise reduction system for speech processing |
US5369711A (en) | 1990-08-31 | 1994-11-29 | Bellsouth Corporation | Automatic gain control for a headset |
US5632005A (en) | 1991-01-08 | 1997-05-20 | Ray Milton Dolby | Encoder/decoder for multidimensional sound fields |
DE69210689T2 (de) | 1991-01-08 | 1996-11-21 | Dolby Lab Licensing Corp | Kodierer/dekodierer für mehrdimensionale schallfelder |
DE69214882T2 (de) | 1991-06-06 | 1997-03-20 | Matsushita Electric Ind Co Ltd | Gerät zur Unterscheidung von Musik und Sprache |
US5278912A (en) | 1991-06-28 | 1994-01-11 | Resound Corporation | Multiband programmable compression system |
US5175769A (en) | 1991-07-23 | 1992-12-29 | Rolm Systems | Method for time-scale modification of signals |
KR940003351Y1 (ko) | 1991-10-17 | 1994-05-23 | 삼성전관 주식회사 | 편광판 부착장치 |
US5363147A (en) | 1992-06-01 | 1994-11-08 | North American Philips Corporation | Automatic volume leveler |
KR940003351A (ko) | 1992-07-15 | 1994-02-21 | 강진구 | 온 스크린 그래픽 표시 제어 장치 및 방법 |
DE4335739A1 (de) | 1992-11-17 | 1994-05-19 | Rudolf Prof Dr Bisping | Verfahren zur Steuerung des Signal-/Rausch-Abstandes bei rauschbehafteten Tonaufnahmen |
GB2272615A (en) * | 1992-11-17 | 1994-05-18 | Rudolf Bisping | Controlling signal-to-noise ratio in noisy recordings |
US5457769A (en) | 1993-03-30 | 1995-10-10 | Earmark, Inc. | Method and apparatus for detecting the presence of human voice signals in audio signals |
US5706352A (en) | 1993-04-07 | 1998-01-06 | K/S Himpp | Adaptive gain and filtering circuit for a sound reproduction system |
US5434922A (en) | 1993-04-08 | 1995-07-18 | Miller; Thomas E. | Method and apparatus for dynamic sound optimization |
BE1007355A3 (nl) | 1993-07-26 | 1995-05-23 | Philips Electronics Nv | Spraaksignaaldiscriminatieschakeling alsmede een audio-inrichting voorzien van een dergelijke schakeling. |
IN184794B (no) | 1993-09-14 | 2000-09-30 | British Telecomm | |
JP2986345B2 (ja) | 1993-10-18 | 1999-12-06 | インターナショナル・ビジネス・マシーンズ・コーポレイション | 音声記録指標化装置及び方法 |
TW247390B (en) | 1994-04-29 | 1995-05-11 | Audio Products Int Corp | Apparatus and method for adjusting levels between channels of a sound system |
US5463695A (en) * | 1994-06-20 | 1995-10-31 | Aphex Systems, Ltd. | Peak accelerated compressor |
US5500902A (en) | 1994-07-08 | 1996-03-19 | Stockham, Jr.; Thomas G. | Hearing aid device incorporating signal processing techniques |
GB9419388D0 (en) | 1994-09-26 | 1994-11-09 | Canon Kk | Speech analysis |
US5548538A (en) | 1994-12-07 | 1996-08-20 | Wiltron Company | Internal automatic calibrator for vector network analyzers |
US5682463A (en) | 1995-02-06 | 1997-10-28 | Lucent Technologies Inc. | Perceptual audio compression based on loudness uncertainty |
CA2167748A1 (en) | 1995-02-09 | 1996-08-10 | Yoav Freund | Apparatus and methods for machine learning hypotheses |
ATE229729T1 (de) | 1995-03-13 | 2002-12-15 | Phonak Ag | Verfahren zur anpassung eines hörgerätes, vorrichtung hierzu und hörgerät |
US5727119A (en) | 1995-03-27 | 1998-03-10 | Dolby Laboratories Licensing Corporation | Method and apparatus for efficient implementation of single-sideband filter banks providing accurate measures of spectral magnitude and phase |
AU5663296A (en) | 1995-04-10 | 1996-10-30 | Corporate Computer Systems, Inc. | System for compression and decompression of audio signals fo r digital transmission |
US6301555B2 (en) | 1995-04-10 | 2001-10-09 | Corporate Computer Systems | Adjustable psycho-acoustic parameters |
US5601617A (en) | 1995-04-26 | 1997-02-11 | Advanced Bionics Corporation | Multichannel cochlear prosthesis with flexible control of stimulus waveforms |
JPH08328599A (ja) | 1995-06-01 | 1996-12-13 | Mitsubishi Electric Corp | Mpegオーディオ復号器 |
US5663727A (en) | 1995-06-23 | 1997-09-02 | Hearing Innovations Incorporated | Frequency response analyzer and shaping apparatus and digital hearing enhancement apparatus and method utilizing the same |
US5712954A (en) | 1995-08-23 | 1998-01-27 | Rockwell International Corp. | System and method for monitoring audio power level of agent speech in a telephonic switch |
US6002776A (en) | 1995-09-18 | 1999-12-14 | Interval Research Corporation | Directional acoustic signal processor and method therefor |
US5907622A (en) | 1995-09-21 | 1999-05-25 | Dougherty; A. Michael | Automatic noise compensation system for audio reproduction equipment |
WO1997027578A1 (en) * | 1996-01-26 | 1997-07-31 | Motorola Inc. | Very low bit rate time domain speech analyzer for voice messaging |
US6108431A (en) | 1996-05-01 | 2000-08-22 | Phonak Ag | Loudness limiter |
US6327366B1 (en) | 1996-05-01 | 2001-12-04 | Phonak Ag | Method for the adjustment of a hearing device, apparatus to do it and a hearing device |
US6430533B1 (en) | 1996-05-03 | 2002-08-06 | Lsi Logic Corporation | Audio decoder core MPEG-1/MPEG-2/AC-3 functional algorithm partitioning and implementation |
JPH09312540A (ja) | 1996-05-23 | 1997-12-02 | Pioneer Electron Corp | ラウドネスボリュームコントロール装置 |
JP3765622B2 (ja) | 1996-07-09 | 2006-04-12 | ユナイテッド・モジュール・コーポレーション | オーディオ符号化復号化システム |
EP0820212B1 (de) | 1996-07-19 | 2010-04-21 | Bernafon AG | Lautheitsgesteuerte Verarbeitung akustischer Signale |
JPH1074097A (ja) | 1996-07-26 | 1998-03-17 | Ind Technol Res Inst | オーディオ信号のパラメータを変更する方法及び装置 |
JP2953397B2 (ja) | 1996-09-13 | 1999-09-27 | 日本電気株式会社 | ディジタル補聴器の聴覚補償処理方法及びディジタル補聴器 |
US6049766A (en) | 1996-11-07 | 2000-04-11 | Creative Technology Ltd. | Time-domain time/pitch scaling of speech or audio signals with transient handling |
JP2991982B2 (ja) | 1996-11-29 | 1999-12-20 | 日本イーライリリー株式会社 | 注射練習器具 |
US6570991B1 (en) | 1996-12-18 | 2003-05-27 | Interval Research Corporation | Multi-feature speech/music discrimination system |
US5862228A (en) | 1997-02-21 | 1999-01-19 | Dolby Laboratories Licensing Corporation | Audio matrix encoding |
US6125343A (en) | 1997-05-29 | 2000-09-26 | 3Com Corporation | System and method for selecting a loudest speaker by comparing average frame gains |
US6272360B1 (en) | 1997-07-03 | 2001-08-07 | Pan Communications, Inc. | Remotely installed transmitter and a hands-free two-way voice terminal device using same |
US6185309B1 (en) * | 1997-07-11 | 2001-02-06 | The Regents Of The University Of California | Method and apparatus for blind separation of mixed and convolved sources |
KR100261904B1 (ko) | 1997-08-29 | 2000-07-15 | 윤종용 | 헤드폰 사운드 출력장치 |
US6088461A (en) | 1997-09-26 | 2000-07-11 | Crystal Semiconductor Corporation | Dynamic volume control system |
US6330672B1 (en) | 1997-12-03 | 2001-12-11 | At&T Corp. | Method and apparatus for watermarking digital bitstreams |
US6233554B1 (en) | 1997-12-12 | 2001-05-15 | Qualcomm Incorporated | Audio CODEC with AGC controlled by a VOCODER |
US6298139B1 (en) | 1997-12-31 | 2001-10-02 | Transcrypt International, Inc. | Apparatus and method for maintaining a constant speech envelope using variable coefficient automatic gain control |
US6182033B1 (en) | 1998-01-09 | 2001-01-30 | At&T Corp. | Modular approach to speech enhancement with an application to speech coding |
US6353671B1 (en) | 1998-02-05 | 2002-03-05 | Bioinstco Corp. | Signal processing circuit and method for increasing speech intelligibility |
US6311155B1 (en) | 2000-02-04 | 2001-10-30 | Hearing Enhancement Company Llc | Use of voice-to-remaining audio (VRA) in consumer applications |
US6498855B1 (en) | 1998-04-17 | 2002-12-24 | International Business Machines Corporation | Method and system for selectively and variably attenuating audio data |
JP2002518912A (ja) | 1998-06-08 | 2002-06-25 | コックレア リミティド | 聴覚装置 |
EP0980064A1 (de) | 1998-06-26 | 2000-02-16 | Ascom AG | Verfahren zur Durchführung einer maschinengestützten Beurteilung der Uebertragungsqualität von Audiosignalen |
GB2340351B (en) | 1998-07-29 | 2004-06-09 | British Broadcasting Corp | Data transmission |
US6351731B1 (en) | 1998-08-21 | 2002-02-26 | Polycom, Inc. | Adaptive filter featuring spectral gain smoothing and variable noise multiplier for noise reduction, and method therefor |
US6823303B1 (en) | 1998-08-24 | 2004-11-23 | Conexant Systems, Inc. | Speech encoder using voice activity detection in coding noise |
US6411927B1 (en) | 1998-09-04 | 2002-06-25 | Matsushita Electric Corporation Of America | Robust preprocessing signal equalization system and method for normalizing to a target environment |
FI113935B (fi) | 1998-09-25 | 2004-06-30 | Nokia Corp | Menetelmä äänitason kalibroimiseksi monikanavaisessa äänentoistojärjestelmässä ja monikanavainen äänentoistojärjestelmä |
US6266644B1 (en) | 1998-09-26 | 2001-07-24 | Liquid Audio, Inc. | Audio encoding apparatus and methods |
DE19848491A1 (de) | 1998-10-21 | 2000-04-27 | Bosch Gmbh Robert | Rundfunkempfänger zum Empfang von Radio-Daten und Verfahren zur Beeinflussung einer Klangcharakteristik eines wiederzugebenden Audiosignals in einem Rundfunkempfänger |
US6314396B1 (en) | 1998-11-06 | 2001-11-06 | International Business Machines Corporation | Automatic gain control in a speech recognition system |
GB9824776D0 (en) | 1998-11-11 | 1999-01-06 | Kemp Michael J | Audio dynamic control effects synthesiser |
CA2361544C (en) | 1999-02-05 | 2008-10-14 | The University Of Melbourne | Adaptive dynamic range optimisation sound processor |
DE69933929T2 (de) | 1999-04-09 | 2007-06-06 | Texas Instruments Inc., Dallas | Bereitstellen von digitalen Audio- und Videoprodukten |
AU4278300A (en) | 1999-04-26 | 2000-11-10 | Dspfactory Ltd. | Loudness normalization control for a digital hearing aid |
US6263371B1 (en) | 1999-06-10 | 2001-07-17 | Cacheflow, Inc. | Method and apparatus for seaming of streaming content |
AR024353A1 (es) | 1999-06-15 | 2002-10-02 | He Chunhong | Audifono y equipo auxiliar interactivo con relacion de voz a audio remanente |
US6442278B1 (en) | 1999-06-15 | 2002-08-27 | Hearing Enhancement Company, Llc | Voice-to-remaining audio (VRA) interactive center channel downmix |
AU2725201A (en) * | 1999-11-29 | 2001-06-04 | Syfx | Signal processing system and method |
FR2802329B1 (fr) | 1999-12-08 | 2003-03-28 | France Telecom | Procede de traitement d'au moins un flux binaire audio code organise sous la forme de trames |
US6351733B1 (en) | 2000-03-02 | 2002-02-26 | Hearing Enhancement Company, Llc | Method and apparatus for accommodating primary content audio and secondary content remaining audio capability in the digital audio production process |
DE10018666A1 (de) | 2000-04-14 | 2001-10-18 | Harman Audio Electronic Sys | Vorrichtung und Verfahren zum geräuschabhängigen Anpassen eines akustischen Nutzsignals |
US6651040B1 (en) | 2000-05-31 | 2003-11-18 | International Business Machines Corporation | Method for dynamic adjustment of audio input gain in a speech system |
US6889186B1 (en) | 2000-06-01 | 2005-05-03 | Avaya Technology Corp. | Method and apparatus for improving the intelligibility of digitally compressed speech |
AU2001284910B2 (en) | 2000-08-16 | 2007-03-22 | Dolby Laboratories Licensing Corporation | Modulating one or more parameters of an audio or video perceptual coding system in response to supplemental information |
AUPQ952700A0 (en) * | 2000-08-21 | 2000-09-14 | University Of Melbourne, The | Sound-processing strategy for cochlear implants |
JP3448586B2 (ja) | 2000-08-29 | 2003-09-22 | 独立行政法人産業技術総合研究所 | 聴覚障害を考慮した音の測定方法およびシステム |
US20040013272A1 (en) * | 2001-09-07 | 2004-01-22 | Reams Robert W | System and method for processing audio data |
US6625433B1 (en) | 2000-09-29 | 2003-09-23 | Agere Systems Inc. | Constant compression automatic gain control circuit |
US6947888B1 (en) * | 2000-10-17 | 2005-09-20 | Qualcomm Incorporated | Method and apparatus for high performance low bit-rate coding of unvoiced speech |
US6807525B1 (en) | 2000-10-31 | 2004-10-19 | Telogy Networks, Inc. | SID frame detection with human auditory perception compensation |
ATE333751T1 (de) | 2000-11-09 | 2006-08-15 | Koninkl Kpn Nv | Messen einer übertragungsqualität einer telefonverbindung in einem fernmeldenetz |
US7457422B2 (en) | 2000-11-29 | 2008-11-25 | Ford Global Technologies, Llc | Method and implementation for detecting and characterizing audible transients in noise |
US7180939B2 (en) | 2001-01-10 | 2007-02-20 | The Trustees Of Columbia University In The City Of New York | Active filter circuit with dynamically modifiable internal gain |
FR2820573B1 (fr) | 2001-02-02 | 2003-03-28 | France Telecom | Methode et dispositif de traitement d'une pluralite de flux binaires audio |
WO2004019656A2 (en) | 2001-02-07 | 2004-03-04 | Dolby Laboratories Licensing Corporation | Audio channel spatial translation |
EP1233509A1 (en) * | 2001-02-14 | 2002-08-21 | Thomson Licensing S.A. | Digital audio processor |
DE10107385A1 (de) | 2001-02-16 | 2002-09-05 | Harman Audio Electronic Sys | Vorrichtung zum geräuschabhängigen Einstellen der Lautstärken |
US6915264B2 (en) | 2001-02-22 | 2005-07-05 | Lucent Technologies Inc. | Cochlear filter bank structure for determining masked thresholds for use in perceptual audio coding |
DK1290914T3 (da) | 2001-04-10 | 2004-09-27 | Phonak Ag | Fremgangsmåde til tilpasning af et höreapparat til et individ |
US7610205B2 (en) | 2002-02-12 | 2009-10-27 | Dolby Laboratories Licensing Corporation | High quality time-scaling and pitch-scaling of audio signals |
JP4152192B2 (ja) | 2001-04-13 | 2008-09-17 | ドルビー・ラボラトリーズ・ライセンシング・コーポレーション | オーディオ信号の高品質タイムスケーリング及びピッチスケーリング |
US7283954B2 (en) | 2001-04-13 | 2007-10-16 | Dolby Laboratories Licensing Corporation | Comparing audio using characterizations based on auditory events |
US7461002B2 (en) | 2001-04-13 | 2008-12-02 | Dolby Laboratories Licensing Corporation | Method for time aligning audio signals using characterizations based on auditory events |
US7711123B2 (en) * | 2001-04-13 | 2010-05-04 | Dolby Laboratories Licensing Corporation | Segmenting audio signals into auditory events |
CA2382362C (en) | 2001-04-18 | 2009-06-23 | Gennum Corporation | Inter-channel communication in a multi-channel digital hearing instrument |
US20020173864A1 (en) * | 2001-05-17 | 2002-11-21 | Crystal Voice Communications, Inc | Automatic volume control for voice over internet |
MXPA03010751A (es) * | 2001-05-25 | 2005-03-07 | Dolby Lab Licensing Corp | Segmentacion de senales de audio en eventos auditivos. |
JP4272050B2 (ja) * | 2001-05-25 | 2009-06-03 | ドルビー・ラボラトリーズ・ライセンシング・コーポレーション | オーディトリーイベントに基づく特徴付けを使ったオーディオの比較 |
US7177803B2 (en) | 2001-10-22 | 2007-02-13 | Motorola, Inc. | Method and apparatus for enhancing loudness of an audio signal |
US20040037421A1 (en) | 2001-12-17 | 2004-02-26 | Truman Michael Mead | Parital encryption of assembled bitstreams |
US7068723B2 (en) | 2002-02-28 | 2006-06-27 | Fuji Xerox Co., Ltd. | Method for automatically producing optimal summaries of linear media |
CN1307612C (zh) | 2002-04-22 | 2007-03-28 | 皇家飞利浦电子股份有限公司 | 声频信号的编码解码方法、编码器、解码器及相关设备 |
US7155385B2 (en) | 2002-05-16 | 2006-12-26 | Comerica Bank, As Administrative Agent | Automatic gain control for adjusting gain during non-speech portions |
US20030223597A1 (en) | 2002-05-29 | 2003-12-04 | Sunil Puria | Adapative noise compensation for dynamic signal enhancement |
US7447631B2 (en) | 2002-06-17 | 2008-11-04 | Dolby Laboratories Licensing Corporation | Audio coding system using spectral hole filling |
JP4257079B2 (ja) | 2002-07-19 | 2009-04-22 | パイオニア株式会社 | 周波数特性調整装置および周波数特性調整方法 |
DE10236694A1 (de) | 2002-08-09 | 2004-02-26 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung und Verfahren zum skalierbaren Codieren und Vorrichtung und Verfahren zum skalierbaren Decodieren |
US7454331B2 (en) | 2002-08-30 | 2008-11-18 | Dolby Laboratories Licensing Corporation | Controlling loudness of speech in signals that contain speech and other types of audio material |
MXPA05008317A (es) | 2003-02-06 | 2005-11-04 | Dolby Lab Licensing Corp | Audio con respaldo continuo. |
DE10308483A1 (de) | 2003-02-26 | 2004-09-09 | Siemens Audiologische Technik Gmbh | Verfahren zur automatischen Verstärkungseinstellung in einem Hörhilfegerät sowie Hörhilfegerät |
US7551745B2 (en) | 2003-04-24 | 2009-06-23 | Dolby Laboratories Licensing Corporation | Volume and compression control in movie theaters |
JP2004356894A (ja) | 2003-05-28 | 2004-12-16 | Mitsubishi Electric Corp | 音質調整装置 |
JP4486646B2 (ja) | 2003-05-28 | 2010-06-23 | ドルビー・ラボラトリーズ・ライセンシング・コーポレーション | オーディオ信号の感知音量を計算し調整する方法、装置及びコンピュータプログラム |
JP4226395B2 (ja) | 2003-06-16 | 2009-02-18 | アルパイン株式会社 | 音声補正装置 |
US8918316B2 (en) | 2003-07-29 | 2014-12-23 | Alcatel Lucent | Content identification system |
DE602005005948T2 (de) | 2004-01-13 | 2009-04-16 | Koninklijke Philips Electronics N.V. | Audiosignal-verbesserung |
EP1914722B1 (en) | 2004-03-01 | 2009-04-29 | Dolby Laboratories Licensing Corporation | Multichannel audio decoding |
GB2413906A (en) | 2004-04-21 | 2005-11-09 | Imagination Tech Ltd | Radio volume control system |
JP4168976B2 (ja) | 2004-05-28 | 2008-10-22 | ソニー株式会社 | オーディオ信号符号化装置及び方法 |
ATE394008T1 (de) | 2004-05-28 | 2008-05-15 | Research In Motion Ltd | System und verfahren zur einstellung eines audiosignals |
US7574010B2 (en) | 2004-05-28 | 2009-08-11 | Research In Motion Limited | System and method for adjusting an audio signal |
JP2008504783A (ja) * | 2004-06-30 | 2008-02-14 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 音声信号のラウドネスを自動的に調整する方法及びシステム |
US7617109B2 (en) | 2004-07-01 | 2009-11-10 | Dolby Laboratories Licensing Corporation | Method for correcting metadata affecting the playback loudness and dynamic range of audio information |
US7508947B2 (en) | 2004-08-03 | 2009-03-24 | Dolby Laboratories Licensing Corporation | Method for combining audio signals using auditory scene analysis |
JP5101292B2 (ja) | 2004-10-26 | 2012-12-19 | ドルビー ラボラトリーズ ライセンシング コーポレイション | オーディオ信号の感知音量及び/又は感知スペクトルバランスの計算と調整 |
JP2008522511A (ja) | 2004-12-04 | 2008-06-26 | ダイナミック ヒアリング ピーティーワイ リミテッド | 適応可能な音声処理パラメータ用の方法及び装置 |
US20060126865A1 (en) | 2004-12-13 | 2006-06-15 | Blamey Peter J | Method and apparatus for adaptive sound processing parameters |
US8265295B2 (en) | 2005-03-11 | 2012-09-11 | Rane Corporation | Method and apparatus for identifying feedback in a circuit |
TW200638335A (en) | 2005-04-13 | 2006-11-01 | Dolby Lab Licensing Corp | Audio metadata verification |
TWI397903B (zh) | 2005-04-13 | 2013-06-01 | Dolby Lab Licensing Corp | 編碼音訊之節約音量測量技術 |
TWI396188B (zh) | 2005-08-02 | 2013-05-11 | Dolby Lab Licensing Corp | 依聆聽事件之函數控制空間音訊編碼參數的技術 |
JP5185254B2 (ja) | 2006-04-04 | 2013-04-17 | ドルビー ラボラトリーズ ライセンシング コーポレイション | Mdct領域におけるオーディオ信号音量測定と改良 |
TWI517562B (zh) | 2006-04-04 | 2016-01-11 | 杜比實驗室特許公司 | 用於將多聲道音訊信號之全面感知響度縮放一期望量的方法、裝置及電腦程式 |
EP2002429B1 (en) | 2006-04-04 | 2012-11-21 | Dolby Laboratories Licensing Corporation | Controlling a perceived loudness characteristic of an audio signal |
NO345590B1 (no) | 2006-04-27 | 2021-05-03 | Dolby Laboratories Licensing Corp | Audioforsterkningsregulering ved bruk av spesifikk lydstyrkebasert hørehendelsesdeteksjon |
US8750538B2 (en) | 2006-05-05 | 2014-06-10 | Creative Technology Ltd | Method for enhancing audio signals |
BRPI0717484B1 (pt) | 2006-10-20 | 2019-05-21 | Dolby Laboratories Licensing Corporation | Método e aparelho para processar um sinal de áudio |
US8521314B2 (en) | 2006-11-01 | 2013-08-27 | Dolby Laboratories Licensing Corporation | Hierarchical control path with constraints for audio dynamics processing |
JP4938862B2 (ja) | 2007-01-03 | 2012-05-23 | ドルビー ラボラトリーズ ライセンシング コーポレイション | ハイブリッドデジタル/アナログラウドネス補償音量調節 |
KR101649378B1 (ko) | 2007-03-15 | 2016-08-19 | 인터디지탈 테크날러지 코포레이션 | 진화된 고속 패킷 액세스 시스템에서 데이터를 재정렬하기 위한 방법 및 장치 |
JP5260561B2 (ja) | 2007-03-19 | 2013-08-14 | ドルビー ラボラトリーズ ライセンシング コーポレイション | 知覚モデルを使用した音声の強調 |
KR101106948B1 (ko) | 2007-06-19 | 2012-01-20 | 돌비 레버러토리즈 라이쎈싱 코오포레이션 | 스펙트럼 수정들에 의한 라우드니스 측정 |
US8054948B1 (en) | 2007-06-28 | 2011-11-08 | Sprint Communications Company L.P. | Audio experience for a communications device user |
US8315398B2 (en) | 2007-12-21 | 2012-11-20 | Dts Llc | System for adjusting perceived loudness of audio signals |
JP4823352B2 (ja) | 2009-12-24 | 2011-11-24 | 株式会社東芝 | 情報処理装置 |
-
2007
- 2007-03-30 NO NO20191310A patent/NO345590B1/no unknown
- 2007-03-30 EP EP07754779A patent/EP2011234B1/en active Active
- 2007-03-30 DK DK07754779.2T patent/DK2011234T3/da active
- 2007-03-30 CA CA2648237A patent/CA2648237C/en not_active Expired - Fee Related
- 2007-03-30 AT AT07754779T patent/ATE493794T1/de active
- 2007-03-30 MY MYPI20084037A patent/MY141426A/en unknown
- 2007-03-30 MX MX2008013753A patent/MX2008013753A/es active IP Right Grant
- 2007-03-30 CN CN201210148962.2A patent/CN102684628B/zh not_active Expired - Fee Related
- 2007-03-30 WO PCT/US2007/008313 patent/WO2007127023A1/en active Application Filing
- 2007-03-30 PL PL07754779T patent/PL2011234T3/pl unknown
- 2007-03-30 BR BRPI0711063-4A patent/BRPI0711063B1/pt not_active IP Right Cessation
- 2007-03-30 DE DE602007011594T patent/DE602007011594D1/de active Active
- 2007-03-30 CN CN2007800147428A patent/CN101432965B/zh not_active Expired - Fee Related
- 2007-03-30 ES ES07754779T patent/ES2359799T3/es active Active
- 2007-03-30 KR KR1020087029070A patent/KR101041665B1/ko active IP Right Grant
- 2007-03-30 RU RU2008146747/09A patent/RU2417514C2/ru not_active IP Right Cessation
- 2007-03-30 US US12/226,698 patent/US8144881B2/en not_active Expired - Fee Related
- 2007-03-30 UA UAA200813668A patent/UA93243C2/ru unknown
- 2007-03-30 AU AU2007243586A patent/AU2007243586B2/en not_active Ceased
- 2007-03-30 TW TW096111338A patent/TWI455481B/zh not_active IP Right Cessation
- 2007-03-30 JP JP2009507694A patent/JP5129806B2/ja active Active
- 2007-03-30 KR KR1020117001302A patent/KR101200615B1/ko active IP Right Grant
-
2008
- 2008-09-28 IL IL194430A patent/IL194430A/en active IP Right Grant
- 2008-10-16 NO NO20084336A patent/NO339346B1/no not_active IP Right Cessation
-
2009
- 2009-07-03 HK HK09106026.6A patent/HK1126902A1/xx not_active IP Right Cessation
-
2011
- 2011-02-09 JP JP2011025711A patent/JP5255663B2/ja active Active
- 2011-03-24 AU AU2011201348A patent/AU2011201348B2/en not_active Ceased
-
2012
- 2012-02-28 US US13/406,929 patent/US9136810B2/en active Active
- 2012-05-04 US US13/464,102 patent/US8428270B2/en active Active
-
2013
- 2013-03-19 HK HK13103397.8A patent/HK1176177A1/xx not_active IP Right Cessation
- 2013-03-26 US US13/850,380 patent/US9450551B2/en active Active
-
2016
- 2016-08-12 NO NO20161295A patent/NO342160B1/no not_active IP Right Cessation
- 2016-08-12 NO NO20161296A patent/NO342157B1/no unknown
- 2016-08-17 US US15/238,820 patent/US9685924B2/en not_active Expired - Fee Related
- 2016-09-12 NO NO20161439A patent/NO342164B1/no unknown
-
2017
- 2017-03-02 US US15/447,482 patent/US9742372B2/en not_active Expired - Fee Related
- 2017-03-02 US US15/447,469 patent/US9768749B2/en not_active Expired - Fee Related
- 2017-03-02 US US15/447,503 patent/US9768750B2/en not_active Expired - Fee Related
- 2017-03-02 US US15/447,543 patent/US9787268B2/en not_active Expired - Fee Related
- 2017-03-02 US US15/447,564 patent/US9866191B2/en not_active Expired - Fee Related
- 2017-03-02 US US15/447,518 patent/US9780751B2/en not_active Expired - Fee Related
- 2017-03-02 US US15/447,456 patent/US9698744B1/en not_active Expired - Fee Related
- 2017-03-02 US US15/447,556 patent/US9787269B2/en not_active Expired - Fee Related
- 2017-03-02 US US15/447,529 patent/US9774309B2/en not_active Expired - Fee Related
- 2017-03-02 US US15/447,493 patent/US9762196B2/en not_active Expired - Fee Related
- 2017-11-10 US US15/809,413 patent/US10103700B2/en active Active
-
2018
- 2018-02-21 NO NO20180272A patent/NO344658B1/no unknown
- 2018-02-21 NO NO20180266A patent/NO343877B1/no unknown
- 2018-02-21 NO NO20180271A patent/NO344655B1/no unknown
- 2018-09-12 US US16/128,642 patent/US10284159B2/en active Active
-
2019
- 2019-01-07 NO NO20190018A patent/NO344363B1/no unknown
- 2019-01-07 NO NO20190022A patent/NO344013B1/no unknown
- 2019-01-07 NO NO20190002A patent/NO344364B1/no unknown
- 2019-01-08 NO NO20190024A patent/NO344362B1/no unknown
- 2019-01-08 NO NO20190025A patent/NO344361B1/no unknown
- 2019-03-27 US US16/365,947 patent/US10523169B2/en active Active
- 2019-12-29 US US16/729,468 patent/US10833644B2/en active Active
-
2020
- 2020-11-09 US US17/093,178 patent/US11362631B2/en active Active
-
2022
- 2022-06-13 US US17/839,099 patent/US11711060B2/en active Active
-
2023
- 2023-06-01 US US18/327,585 patent/US11962279B2/en active Active
-
2024
- 2024-02-08 US US18/436,667 patent/US20240186972A1/en active Pending
Non-Patent Citations (1)
Title |
---|
BLESSER, BARRY: An Ultraminiature Console Compression System with Maximum User Flexibility, Journal of Audio Engineering Society, vol. 20, no. 4, May 1972, New York, sidene 297-302., Dated: 01.01.0001 * |
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
NO20191310A1 (no) | Audioforsterkningsregulering ved bruk av spesifikk lydstyrkebasert hørehendelsesdeteksjon |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
MM1K | Lapsed by not paying the annual fees |