WO2004006224A1 - Verfahren zur übertragung von audiosignalen nach dem verfahren der priorisierenden pixelübertragung - Google Patents

Verfahren zur übertragung von audiosignalen nach dem verfahren der priorisierenden pixelübertragung Download PDF

Info

Publication number
WO2004006224A1
WO2004006224A1 PCT/DE2003/002258 DE0302258W WO2004006224A1 WO 2004006224 A1 WO2004006224 A1 WO 2004006224A1 DE 0302258 W DE0302258 W DE 0302258W WO 2004006224 A1 WO2004006224 A1 WO 2004006224A1
Authority
WO
WIPO (PCT)
Prior art keywords
audio signal
values
groups
priority
group
Prior art date
Application number
PCT/DE2003/002258
Other languages
English (en)
French (fr)
Inventor
Gerd Mossakowski
Original Assignee
T-Mobile Deutschland Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by T-Mobile Deutschland Gmbh filed Critical T-Mobile Deutschland Gmbh
Priority to AT03762456T priority Critical patent/ATE454695T1/de
Priority to US10/520,000 priority patent/US7603270B2/en
Priority to DE50312330T priority patent/DE50312330D1/de
Priority to JP2004518444A priority patent/JP4637577B2/ja
Priority to DK03762456.6T priority patent/DK1579426T3/da
Priority to AU2003250775A priority patent/AU2003250775A1/en
Priority to SI200331788T priority patent/SI1579426T1/sl
Priority to EP03762456A priority patent/EP1579426B1/de
Publication of WO2004006224A1 publication Critical patent/WO2004006224A1/de
Priority to HK06101585A priority patent/HK1081714A1/xx

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/022Blocking, i.e. grouping of samples in time; Choice of analysis windows; Overlap factoring

Definitions

  • the invention relates to a method for transmitting audio signals according to the method of prioritizing pixel transmission according to the preamble of claim 1.
  • Non-linear transmission of the samples e.g. with ISDN transmission
  • these pixels and the pixel values used for calculating the prioritization are transmitted or stored.
  • a pixel has high priority if the differences to its neighboring pixels are very large.
  • the current pixel values are shown on the display for reconstruction.
  • the pixels that have not yet been transferred are calculated from the pixels that have already been transferred. In principle, these methods can also be used for the transmission of audio signals.
  • the object of the invention is therefore to provide a method for the transmission of audio signals which works as losslessly as possible even with low transmission bandwidths.
  • the audio signal is first broken down into a number n of spectral components.
  • the split audio signal is stored in a two-dimensional array with a large number of fields, with frequency and time as dimensions and the amplitude as the value to be entered in the field.
  • Groups are then formed from each individual field and at least two fields of the array adjacent to this field, and the individual groups are assigned a priority, the priority of a group being chosen the greater the greater the amplitudes of the group values and / or the greater the Differences in the values of a group are and / or the closer the group is to the current time.
  • the groups are transmitted to the recipient in the order of their priority.
  • the new process is essentially based on Shannon's foundations. Accordingly, signals can be transmitted lossless if they are sampled at twice the frequency. This means that the sound can be broken down into individual sine waves of different amplitudes and frequencies. Accordingly, acoustic signals can be clearly restored without loss by transmitting the individual frequency components, including the amplitudes and phases.
  • the frequently occurring sound sources e.g. Musical instruments, human voice, consist of resonance bodies whose resonance frequency does not change or changes only slowly.
  • the sound is recorded, converted into electrical signals and broken down into its frequency components. This can be done either by FFT (Fast Fourier Transformation) or by n-individual frequency-selecting filters. If n-individual filters are used, each filter only records a single frequency or a narrow frequency band (similar to the hairs in the human ear). So you have the frequency and the amplitude value at this frequency at all times.
  • the number n can assume different values depending on the end device properties. The larger n is, the better the audio signal can be reproduced. Thus n is a parameter with which the quality of the audio transmission can be scaled.
  • the amplitude values are buffered in the fields of a 2-dimensional array.
  • the first dimension of the array corresponds to the time axis and the second dimension to the frequency.
  • Each sample value with its respective amplitude value and phase is thus uniquely determined and can be stored as an imaginary number in the assigned field of the array.
  • the speech signal is thus represented in three acoustic dimensions (parameters) in the array: the time e.g. in milliseconds (ms), perceptually perceived as duration, as the first dimension of the array, the frequency in Hertz (Hz), perceptually perceived as pitch, as the second dimension of the array and the energy (or intensity) of the signal, perceptually as Perceived volume or intensity, which is stored as a numerical value in the corresponding field of the array.
  • groups are formed from neighboring values and these are prioritized.
  • Each field considered together forms a group together with at least one, but preferably several neighboring fields.
  • the groups consist of the position value, defined by time and frequency, the amplitude value at the position value, and the amplitude values of the surrounding values according to a predetermined form (see FIG. 2 of the applications DE 101 13 880.6 and DE 101 52 612.1).
  • those groups that have a close proximity to the current time and / or whose amplitude values are very large compared to the other groups and / or in which the amplitude values within the group differ greatly from one another have a very high priority.
  • the pixel group values are sorted in descending order and saved or transmitted in this order.
  • the width of the array (time axis) preferably has only a limited extent (eg 5 seconds), ie only signal sections of eg Processed 5 seconds in length. After this time (eg 5 seconds) the array is filled with the values of the following signal section.
  • the values of the individual groups are received in the receiver in accordance with the prioritization parameters described above (amplitude, timely position and amplitude differences from neighboring values).
  • the groups are again entered in a corresponding array.
  • the three-dimensional spectral representation can then be generated again from the transmitting groups.
  • the array values that have not yet been transferred are calculated by interpolation from the already transferred array values.
  • a corresponding audio signal is then generated from the array generated in this way in the receiver, which can then be converted into sound.
  • n Frequency generators will be used, the signals of which are added to an output signal.
  • This parallel structure of n generators ensures good scalability.
  • the clock rate can be drastically reduced by parallel processing, so that the playback time for mobile devices is increased due to lower energy consumption.
  • FPGA's or ASIC's of simple design can be used.
  • the described method is not limited to audio signals.
  • the method can be used effectively wherever several sensors (sound sensors, light sensors, touch sensors, etc.) are used, which continuously measure signals, which can then be displayed in an array (nth order).

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Stereophonic System (AREA)
  • Communication Control (AREA)
  • Television Systems (AREA)
  • Transmitters (AREA)
  • Reduction Or Emphasis Of Bandwidth Of Signals (AREA)
  • Time-Division Multiplex Systems (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zur Übertragung von Audiosignalen zwischen einem Sender und mindestens einem Empfänger nach dem Verfahren der priorisierenden Pixelübertragung. Zunächst wird das Audiosignal in eine Anzahl n von spektralen Anteilen zerlegt. Das zerlegte Audiosignals wird in einem zweidimensionalen Array mit einer Vielzahl von Feldern gespeichert, mit Frequenz und Zeit als Dimensionen und der Amplitude als jeweils einzutragenden Wert im Feld. Dann werden aus jedem einzelnen Feld und mindestens zwei zu diesem Feld benachbarten Feldern des Arrays Gruppen gebildet, und den einzelnen Gruppen eine Priorität zugeordnet, wobei die Priorität einer Gruppe umso größer gewählt wird, je größer die Amplituden der Gruppenwerte sind und/oder je größer die Amplitudenunterschiede der Werte einer Gruppe sind und/oder je näher die Gruppe an der aktuellen Zeit liegt. Schließlich werden die Gruppen in der Reihenfolge ihrer Priorität an den Empfänger übertragen.

Description

VERFAHREN ZUR ÜBERTRAGUNG VON AUDIOSIGNALEN NACH DEM VERFAHREN DER PRIORISIERENDEN PIXE ! BERTRAGUNG
Die Erfindung betrifft ein Verfahren zur Übertragung von Audiosignalen nach dem Verfahren der priorisierenden Pixelübertragung nach dem Oberbegriff des Patentanspruchs 1.
Zur Zeit existiert eine Vielzahl verschiedener Verfahren zur komprimierten Übertragung von Audiosignalen. Im wesentlichen existieren folgende Verfahren.
Reduzierung der Abtastrate, z.B. 3 kHz anstelle von 44 kHz
Nichtlineare Übertragung der Abtastwerte, z.B. bei ISDN Übertragung
Benutzung von vorher abgespeicherten Akustiksequenzen, z.B. MIDI oder
Stimmnachbildung
Verwendung von Markov Modellen zur Korrektur von Übertragungsfehlern
Die Gemeinsamkeiten der bekannten Verfahren liegen darin, dass auch bei niedrigeren Übertragungsraten eine befriedigende Sprachverständlichkeit vorhanden ist. Dieses wird im wesentlichen durch Mittelwertbildungen erreicht. Jedoch ergeben unterschiedliche Stimmen der Quelle ähnlich klingende Stimmen in der Senke, so dass z.B. Stimmungsschwankungen, die in einem normalen Gespräch erkennbar sind, nicht mehr übertragen werden. Dadurch ergibt sich eine deutliche Einschränkung in der Kommunikationsqualität.
Verfahren zur Komprimierung und Dekomprimierung von Bild- oder Videodaten mittels priorisierter Pixelübertragung sind in den deutschen Patentanmeldungen DE 101 13 880.6 (entspricht PCT/DE02/00987) und DE 101 52 612.1 (entspricht PCT/DE02/00995) beschrieben. Bei diesen Verfahren werden z.B. digitale Bild- oder Videodaten bearbeitet, die aus einem Array einzelner Bildpunkte (Pixel) bestehen, wobei jedes Pixel einen sich zeitlich verändernden Pixelwert aufweist, der Färb- oder Helligkeitsinformation des Pixels beschreibt. Erfindungsgemäß wird jedem Pixel bzw. jeder Pixelgruppe eine Priorität zugeordnet und die Pixel entsprechend ihrer Priorisierung in einem Prioritätenarray abgelegt. Dieses Array enthält zu jedem Zeitpunkt, die nach der Priorisierung sortierten Pixelwerte. Entsprechend der Priorisierung werden diese Pixel, und die für die Berechnung der Priorisierung benutzten Pixelwerte, übertragen bzw. abgespeichert. Ein Pixel bekommt eine hohe Priorität, wenn die Unterschiede zu seinen benachbarten Pixel sehr groß sind. Zur Rekonstruktion werden die jeweils aktuellen Pixelwerte auf dem Display dargestellt. Die noch nicht übertragenden Pixel werden aus den schon übertragenden Pixel berechnet. Diese Verfahren lassen sich prinzipiell auch für eine Übertragung von Audiosignalen verwenden.
Die Aufgabe der Erfindung besteht deshalb darin, ein Verfahren zur Übertragung von Audiosignalen anzugeben, das auch bei niedrigen Übertragungsbandbreiten möglichst verlustfrei arbeitet.
Diese Aufgabe wird erfindungsgemäß durch die Merkmale des Patentanspruchs 1 gelöst.
Gemäß der Erfindung wird das Audiosignal zunächst in eine Anzahl n von spektralen Anteilen zerlegt. Das zerlegte Audiosignals wird in einem zweidimensionalen Array mit einer Vielzahl von Feldern gespeichert, mit Frequenz und Zeit als Dimensionen und der Amplitude als jeweils einzutragenden Wert im Feld. Dann werden aus jedem einzelnen Feld und mindestens zwei zu diesem Feld benachbarten Feldern des Arrays Gruppen gebildet, und den einzelnen Gruppen eine Priorität zugeordnet, wobei die Priorität einer Gruppe umso größer gewählt wird, je größer die Amplituden der Gruppenwerte sind und/oder je größer die Amplitudenunterschiede der Werte einer Gruppe sind und/oder je näher die Gruppe an der aktuellen Zeit liegt. Schließlich werden die Gruppen in der Reihenfolge ihrer Priorität an den Empfänger übertragen.
Das neue Verfahren beruht Im wesentlichen auf den Grundlagen von Shannon. Demnach lassen sich Signale verlustfrei übertragen, wenn man sie mit der doppelten Frequenz abtastet. Das bedeutet, dass der Schall in einzelne Sinusschwingung unterschiedlicher Amplitude und Frequenz zerlegbar ist. Demnach lassen sich akustische Signale eindeutig durch Übertragung der einzelnen Frequenzanteile, inklusive der Amplituden und Phasen, ohne Verluste wieder herstellen. Hierbei wird auch insbesondere ausgenutzt, dass die häufig vorkommenden Schallquellen, z.B. Musikinstrumente, menschliche Stimme, aus Resonanzkörpern bestehen, deren Resonanzfrequenz sich nicht bzw. nur langsam ändert.
Vorteilhafte Ausgestaltungen und Weiterbildungen der Erfindung sind in den abhängigen Patentansprüchen angegeben.
Ein Ausführungsbeispiel der Erfindung wird nachfolgen beschrieben. Hierbei sei insbesondere auch auf die Beschreibung und die Zeichnungen der älteren Patentanmeldungen DE 101 13 880.6 und DE 101 52 612.1 Bezug genommen.
Zunächst wird der Schall aufgenommen, in elektrische Signale umgewandelt und in seine Frequenzanteile zerlegt. Dieses kann entweder durch FFT (Fast-Fourier Transformation) oder durch n-einzelne frequenzselektierende Filter geschehen. Werden n-einzelne Filter verwendet, so nimmt jeder Filter nur eine einzelne Frequenz, bzw. ein schmales Frequenzband, auf (ähnlich den Härchen im menschlichen Ohr). Somit hat man zu jedem Zeitpunkt die Frequenz, und den Amplitudenwert bei dieser Frequenz. Dabei kann die Zahl n entsprechend der Endgeräteeigenschaften unterschiedliche Werte annehmen Je größer n ist, desto besser kann das Audiosignal reproduziert werden. Somit ist n ein Parameter mit dem die Qualität der Audioübertragung skaliert werden kann. Die Amplitudenwerte werden in den Feldern eines 2-dimensonalen Arrays zwischengespeichert.
Dabei entspricht die erste Dimension des Arrays der Zeitachse und die zweite Dimension der Frequenz. Damit ist jeder Abtastwert mit jeweiliger Amplitudenwert und Phase eindeutig bestimmt und kann im zugeordneten Feld des Arrays als Imaginäre Zahl abgespeichert werden. Das Sprachsignal wird somit in drei akustischen Dimensionen (Parametern) im Array dargestellt: Die Zeit z.B. in Millisekunden (ms), perzeptiv als Dauer wahrgenommen, als die erste Dimension des Arrays, die Frequenz in Hertz (Hz), perzeptiv als Tonhöhe wahrgenommen, als die zweite Dimension des Arrays und die Energie (bzw. Intensität) des Signals, perzeptiv als Lautstärke bzw. Intensität wahrgenommen, welche als Zahlenwert im entsprechenden Feld des Arrays gespeichert wird.
Im Vergleich zu den Anmeldungen DE 101 13 880.6 und DE 101 52 612.1 entspricht z.B. die Frequenz der Bildhöhe, die Zeit der Bildbreite und die Amplitude des Audiosignals (Intensität) dem Farbwert.
Ähnlich dem Verfahren der Priorisierung von Pixelgruppen bei der Bild/Videokodierung werden aus benachbarten Werten Gruppen gebildet und diese priorisiert. Jedes Feld für sich betrachtet bildet zusammen mit mindestens einem, vorzugsweise jedoch mehreren benachbarten Feldern eine Gruppe. Die Gruppen bestehen aus dem Positionswert, definiert durch Zeit und Frequenz, dem Amplitudenwert am Positionswert, und die Amplitudenwerte der umliegenden Werte entsprechend einer vorher festgelegten Form (siehe Figur 2 der Anmeldungen DE 101 13 880.6 und DE 101 52 612.1). Dabei bekommen insbesondere diejenigen Gruppen eine sehr hohe Priorität, die nahe der aktuellen Zeit liegen, und/oder deren Amplitudenwerte im Vergleich zu den anderen Gruppen sehr groß sind und/oder bei denen sich die Amplitudenwerte innerhalb der Gruppe stark voneinander unterscheiden. Die Pixelgruppenwerte werden absteigend sortiert und in dieser Reihenfolge gespeichert bzw. übertragen.
Die Breite des Arrays (Zeitachse) besitzt vorzugsweise nur eine begrenzte Ausdehnung (z.B. 5 Sekunden), d.h. es werden immer nur Signalabschnitte von z.B. 5 Sekunden Länge verarbeitet. Nach dieser Zeit (z.B. 5 Sekunden) wird das Array mit den Werten des nachfolgenden Signalabschnitts gefüllt.
Entsprechend der oben beschriebenen Priorisierungsparameter (Amplitude, zeitnahe Position und Amplitudenunterschiede zu benachbarten Werten) werden die Werte der einzelnen Gruppen im Empfänger empfangen.
Beim Empfänger werden die Gruppen wieder in ein entsprechendes Array eingetragen. Entsprechend der Patentanmeldungen DE 101 13 880.6 und DE 101 52 612.1 kann dann aus den übertragenden Gruppen wieder die dreidimensionale Spektraldarstellung erzeugt werden. Je mehr Gruppen empfangen wurden, umso genauer wird die Rekonstruktion. Die noch nicht übertragenen Arraywerte werden mittels Interpolation aus den schon übertragenden Arraywerten berechnet. Aus dem so erzeugten Array wird dann im Empfänger ein entsprechendes Audiosignal generiert, welches dann in Schall umgewandelt werden kann. Zur Synthese des Audiosignals können z.B. n Frequenzgeneratoren verwenden werden, deren Signale zu einem Ausgangssignal addiert werden. Durch diesen parallelen Aufbau von n Generatoren ist eine gute Skalierbarkeit gegeben. Zudem kann die Taktrate durch parallele Verarbeitung drastisch reduziert werden, so das durch ein geringeren Energieverbrauch die Wiedergabezeit bei mobilen Endgeräten erhöht wird. Für den parallelen Einsatz könnten z.B. FPGA's oder ASIC's einfacher Bauart benutzt werden.
Das beschriebene Verfahren ist nicht auf Audiosignale beschränkt. Das Verfahren kann insbesondere überall dort effektiv zur Anwendung kommen, wo mehrere Sensoren (Schallsensoren, Lichtsensoren, Tastsensoren, usw.) verwendet werden, die kontinuierlich Signale messen, die dann in einem Array (n-ter Ordnung) dargestellt werden können.
Die Vorteile gegenüber bisherigen Systemen liegen in der flexiblen Einsetzbarkeit bei erhöhten Kompressionsraten. Durch Benutzung eines Arrays, welches aus unterschiedlichen Quellen gespeist wird, erhält man automatisch eine Synchronisation der unterschiedlichen Quellen. Eine entsprechende Synchronisation muss bei herkömmlichen Verfahren durch besondere Protokolle, bzw. Maßnahmen gesichert werden. Insbesondere bei Videoübertragung mit großen Laufzeiten, z.B. Satellitenverbindungen, wo Ton und Bild über verschiedene Kanäle übertragen werden, fällt häufig eine fehlende Synchronisation der Lippen zu der Sprache auf. So etwas kann durch das beschriebene Verfahren beseitigt werden
Da das gleiche Grundprinzip der priorisierenden Pixelgruppenübertragung sowohl bei Sprache, Bild und Videoübertragung genutzt werden kann, ist ein starker Synergieeffekt bei der Implementierung nutzbar. Außerdem kann auf diese Weise eine einfache Synchronisation zwischen Sprache und Bildern erfolgen. Außerdem könnte beliebig zwischen Bild- und Audioauflösung skaliert werden.
Betrachtet man eine einzelne Audioübertragung nach dem neuen Verfahren, so ergibt sich bei Sprache eine natürlichere Wiedergabe, da die für jeden Menschen typischen Frequenzanteile (-gruppen) mit höchster Priorität und damit verlustfrei übertragen werden.

Claims

Patentansprüche
1. Verfahren zur Übertragung von Audiosignalen zwischen einem Sender und mindestens einem Empfänger nach dem Verfahren der priorisierenden Pixelübertragung, gekennzeichnet durch die Schritte: a) Zerlegen des Audiosignals in eine Anzahl n von spektralen Anteilen, b) Speichern des zerlegten Audiosignals in einem zweidimensionalen Array mit einer Vielzahl von Feldern, mit Frequenz und Zeit als Dimensionen und der Amplitude als jeweils einzutragenden Wert im Feld, c) Bilden von Gruppen aus jedem einzelnen Feld und mindestens zwei zu diesem Feld benachbarten Feldern des Arrays, d) Zuordnen einer Priorität zu den einzelnen Gruppen, wobei die Priorität einer Gruppe umso größer wird, je größer die Amplituden der Gruppenwerte sind und/oder je größer die Amplitudenunterschiede der Werte einer Gruppe sind und/oder je näher die Gruppe an der aktuellen Zeit liegt, und e) Übertragen der Gruppen in der Reihenfolge ihrer Priorität an den Empfänger.
2. Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass das gesamte Audiosignal als Audiodatei vorliegt und als Ganzes bearbeitet und übertragen wird.
3. Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass nur jeweils ein Teil des Audiosignals bearbeitet und übertragen wird.
4. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass das Audiosignal mittels FFT in seine spektralen Anteile zerlegt wird.
5. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass das Audiosignal durch eine Anzahl n von frequenzselektierenden Filtern in seine spektralen Anteile zerlegt wird.
6. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass im Empfänger die nach ihrer Priorität übertragenen Gruppen einem entsprechenden Array zugeordnet, wobei die noch nicht übertragenen Werte des Arrays aus den bereits vorhandenen Werten durch Interpolation berechnet werden.
7. Verfahren nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass aus den im Empfänger vorliegenden und berechneten Werten ein elektrisches Signal generiert und in ein Audiosignal umgewandelt wird.
PCT/DE2003/002258 2002-07-08 2003-07-07 Verfahren zur übertragung von audiosignalen nach dem verfahren der priorisierenden pixelübertragung WO2004006224A1 (de)

Priority Applications (9)

Application Number Priority Date Filing Date Title
AT03762456T ATE454695T1 (de) 2002-07-08 2003-07-07 Verfahren zur übertragung von audiosignalen nach dem verfahren der priorisierenden pixelübertragung
US10/520,000 US7603270B2 (en) 2002-07-08 2003-07-07 Method of prioritizing transmission of spectral components of audio signals
DE50312330T DE50312330D1 (de) 2002-07-08 2003-07-07 Verfahren zur übertragung von audiosignalen nach dem verfahren der priorisierenden pixelübertragung
JP2004518444A JP4637577B2 (ja) 2002-07-08 2003-07-07 優先順位を定めるピクセル伝送方法に従ってオーディオ信号を伝送する方法
DK03762456.6T DK1579426T3 (da) 2002-07-08 2003-07-07 Fremgangsmåde til overføring af audiosignaler ifølge prioriteret pixeloverføringsmetoden
AU2003250775A AU2003250775A1 (en) 2002-07-08 2003-07-07 Method for transmitting audio signals according to the prioritizing pixel transmission method
SI200331788T SI1579426T1 (sl) 2002-07-08 2003-07-07 Postopek prenosa avdiosignalov po postopku prednostnega prenosa pikslov
EP03762456A EP1579426B1 (de) 2002-07-08 2003-07-07 Verfahren zur übertragung von audiosignalen nach dem verfahren der priorisierenden pixelübertragung
HK06101585A HK1081714A1 (en) 2002-07-08 2006-02-07 Method for transmitting audio signals according tothe prioritizing pixel transmission method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE10230809.8 2002-07-08
DE10230809A DE10230809B4 (de) 2002-07-08 2002-07-08 Verfahren zur Übertragung von Audiosignalen nach dem Verfahren der priorisierenden Pixelübertragung

Publications (1)

Publication Number Publication Date
WO2004006224A1 true WO2004006224A1 (de) 2004-01-15

Family

ID=29796219

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/DE2003/002258 WO2004006224A1 (de) 2002-07-08 2003-07-07 Verfahren zur übertragung von audiosignalen nach dem verfahren der priorisierenden pixelübertragung

Country Status (16)

Country Link
US (1) US7603270B2 (de)
EP (1) EP1579426B1 (de)
JP (1) JP4637577B2 (de)
CN (1) CN1323385C (de)
AT (1) ATE454695T1 (de)
AU (1) AU2003250775A1 (de)
CY (1) CY1109952T1 (de)
DE (2) DE10230809B4 (de)
DK (1) DK1579426T3 (de)
ES (1) ES2339237T3 (de)
HK (1) HK1081714A1 (de)
PL (1) PL207103B1 (de)
PT (1) PT1579426E (de)
RU (1) RU2322706C2 (de)
SI (1) SI1579426T1 (de)
WO (1) WO2004006224A1 (de)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3469567B2 (ja) * 2001-09-03 2003-11-25 三菱電機株式会社 音響符号化装置、音響復号化装置、音響符号化方法及び音響復号化方法
DE102007017254B4 (de) * 2006-11-16 2009-06-25 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung zum Kodieren und Dekodieren
EP3121814A1 (de) * 2015-07-24 2017-01-25 Sound object techology S.A. in organization Verfahren und system zur zerlegung eines akustischen signals in klangobjekte, klangobjekt und dessen verwendung

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020007273A1 (en) * 1998-03-30 2002-01-17 Juin-Hwey Chen Low-complexity, low-delay, scalable and embedded speech and audio coding with adaptive frame loss concealment
DE10152612A1 (de) * 2001-03-21 2002-10-02 T Mobile Deutschland Gmbh Verfahren zur Komprimierung und Dekomprimierung von Bilddaten

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2914974B2 (ja) * 1987-02-27 1999-07-05 株式会社日立製作所 可変レート音声信号伝送方法および伝送システム
US5253326A (en) * 1991-11-26 1993-10-12 Codex Corporation Prioritization method and device for speech frames coded by a linear predictive coder
JP3153933B2 (ja) * 1992-06-16 2001-04-09 ソニー株式会社 データ符号化装置及び方法並びにデータ復号化装置及び方法
US5517511A (en) * 1992-11-30 1996-05-14 Digital Voice Systems, Inc. Digital transmission of acoustic signals over a noisy communication channel
US5675705A (en) * 1993-09-27 1997-10-07 Singhal; Tara Chand Spectrogram-feature-based speech syllable and word recognition using syllabic language dictionary
JP2797959B2 (ja) * 1994-03-12 1998-09-17 日本ビクター株式会社 多次元画像圧縮伸張方法
JPH1083623A (ja) * 1996-09-10 1998-03-31 Sony Corp 信号記録方法、信号記録装置、記録媒体および信号処理方法
US5886276A (en) * 1997-01-16 1999-03-23 The Board Of Trustees Of The Leland Stanford Junior University System and method for multiresolution scalable audio signal encoding
SE9700772D0 (sv) * 1997-03-03 1997-03-03 Ericsson Telefon Ab L M A high resolution post processing method for a speech decoder
US6144937A (en) * 1997-07-23 2000-11-07 Texas Instruments Incorporated Noise suppression of speech by signal processing including applying a transform to time domain input sequences of digital signals representing audio information
US6584509B2 (en) * 1998-06-23 2003-06-24 Intel Corporation Recognizing audio and video streams over PPP links in the absence of an announcement protocol
JP3522137B2 (ja) * 1998-12-18 2004-04-26 富士通株式会社 可変レート符号化・復号装置
JP3797836B2 (ja) * 1999-12-09 2006-07-19 株式会社東芝 リモートメンテナンスシステム
DE10008055A1 (de) * 2000-02-22 2001-08-30 Infineon Technologies Ag Verfahren zur Kompression von Daten
JP3576935B2 (ja) * 2000-07-21 2004-10-13 株式会社ケンウッド 周波数間引き装置、周波数間引き方法及び記録媒体
JP3576936B2 (ja) * 2000-07-21 2004-10-13 株式会社ケンウッド 周波数補間装置、周波数補間方法及び記録媒体
JP2002135122A (ja) * 2000-10-19 2002-05-10 Nec Corp オーディオ信号符号化装置
US6952669B2 (en) * 2001-01-12 2005-10-04 Telecompression Technologies, Inc. Variable rate speech data compression
DE10113880B4 (de) * 2001-03-21 2004-04-29 T-Mobile Deutschland Gmbh Verfahren zur Komprimierung und Dekomprimierung von Videodaten
CA2441372C (en) * 2001-03-21 2012-10-09 T-Mobile Deutschland Gmbh Method for compression and decompression of image data
US7136418B2 (en) * 2001-05-03 2006-11-14 University Of Washington Scalable and perceptually ranked signal coding and decoding
US7079658B2 (en) * 2001-06-14 2006-07-18 Ati Technologies, Inc. System and method for localization of sounds in three-dimensional space
JP3463752B2 (ja) * 2001-07-25 2003-11-05 三菱電機株式会社 音響符号化装置、音響復号化装置、音響符号化方法および音響復号化方法
US20030236674A1 (en) * 2002-06-19 2003-12-25 Henry Raymond C. Methods and systems for compression of stored audio
DE10229706A1 (de) * 2002-07-02 2004-12-09 T-Mobile Deutschland Gmbh Verfahren zur Speicherplatzverwaltung in einem Speichrmedium eines digitalen Endgeräts bei einer Datenspeicherung nach dem Verfahren der priorisierten Pixelübertragung
DE10229976B4 (de) * 2002-07-03 2007-06-28 T-Mobile Deutschland Gmbh Verfahren zur Ver- und Entschlüsselung von nach dem Verfahren der priorisierten Pixelübertragung übertragenen oder gespeicherten digitalen Daten
US7359979B2 (en) * 2002-09-30 2008-04-15 Avaya Technology Corp. Packet prioritization and associated bandwidth and buffer management techniques for audio over IP

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020007273A1 (en) * 1998-03-30 2002-01-17 Juin-Hwey Chen Low-complexity, low-delay, scalable and embedded speech and audio coding with adaptive frame loss concealment
DE10152612A1 (de) * 2001-03-21 2002-10-02 T Mobile Deutschland Gmbh Verfahren zur Komprimierung und Dekomprimierung von Bilddaten

Also Published As

Publication number Publication date
PL374146A1 (en) 2005-10-03
JP2005532580A (ja) 2005-10-27
RU2322706C2 (ru) 2008-04-20
DE10230809B4 (de) 2008-09-11
EP1579426B1 (de) 2010-01-06
AU2003250775A1 (en) 2004-01-23
PL207103B1 (pl) 2010-11-30
DE10230809A1 (de) 2004-01-29
CY1109952T1 (el) 2014-09-10
DE50312330D1 (de) 2010-02-25
EP1579426A1 (de) 2005-09-28
US20060015346A1 (en) 2006-01-19
HK1081714A1 (en) 2006-05-19
CN1666255A (zh) 2005-09-07
ES2339237T3 (es) 2010-05-18
US7603270B2 (en) 2009-10-13
PT1579426E (pt) 2010-04-08
CN1323385C (zh) 2007-06-27
SI1579426T1 (sl) 2010-05-31
JP4637577B2 (ja) 2011-02-23
RU2005102935A (ru) 2005-10-27
ATE454695T1 (de) 2010-01-15
DK1579426T3 (da) 2010-05-17

Similar Documents

Publication Publication Date Title
EP0290581B1 (de) Verfahren zum übertragen digitalisierter tonsignale
DE60208426T2 (de) Vorrichtung zur signalkodierung, signaldekodierung und system zum verteilen von audiodaten
DE60012198T2 (de) Kodierung der hüllkurve des spektrums mittels variabler zeit/frequenz-auflösung
DE19604273C2 (de) Verfahren und Vorrichtung zum Durchführen einer Suche in einem Kodebuch im Hinblick auf das Kodieren eines Klangsignales, Zellkommunikationssystem, Zellnetzwerkelement und mobile Zell-Sender-/Empfänger-Einheit
DE60103086T2 (de) Verbesserung von quellcodierungssystemen durch adaptive transposition
DE2656044C2 (de) Verfahren und Vorrichtung zur Codierung und Übertragung eines Sprachsignals
WO2007087824A1 (de) Verfahren und anordnungen zur audiosignalkodierung
EP1979899B1 (de) Verfahren und anordnungen zur audiosignalkodierung
EP0205200A1 (de) Verfahren zur Übertragung von Audio-Information und Zusatzinformation in digitaler Form
EP1023777B1 (de) Verfahren und vorrichtung zur erzeugung eines bitratenskalierbaren audio-datenstroms
DE2609297C3 (de) Übertragungssystem für Gesprächssignale
DE4020656A1 (de) Verfahren zur uebertragung eines signals
EP1579426B1 (de) Verfahren zur übertragung von audiosignalen nach dem verfahren der priorisierenden pixelübertragung
EP0370277A2 (de) Subband-Übertragungssystem
DE69127339T2 (de) Methode und Einrichtung zur Kodierung und Dekodierung eines abgetasteten Analogsignals mit Wiederholungseigenschaften
DE2826818A1 (de) Verfahren und vorrichtung zum erzeugen eines kuenstlichen sprechsignals
DE2051589A1 (de) Anordnung zur Synthese eines Signals
EP1020737B1 (de) Verfahren und Vorrichtung zur elektromagnetischen Detektion von Objekten
DE2407072A1 (de) Abtastverfahren und vorrichtung zum durchfuehren des verfahrens zum fortschreitenden abtasten eines quasi stationaeren signals
EP1834322B1 (de) Verfahren zum codieren eines analogen signals
DE3621632A1 (de) Digitale signaluebertragungsanordnung mit veraenderbarer uebertragungsfunktion
AT247018B (de) Anordnung zur Gewinnung einer digitalisierten Darstellung natürlicher Sprache
DE3404828C2 (de) Verfahren zur Kompression der die Grauwertstufen repräsentierenden Information eines digital zu übertragenen Bildsignals
DE19904747A1 (de) Verfahren zur Übertragung von Informationen sowie ein geeignetes System hierfür
DE2203921C3 (de) Elektrisches Verfahren und Einrichtung zur Sprachsynthese

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BY BZ CA CH CN CO CR CU CZ DK DM DZ EC EE ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GH GM KE LS MW MZ SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

WWE Wipo information: entry into national phase

Ref document number: 2003762456

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 374146

Country of ref document: PL

WWE Wipo information: entry into national phase

Ref document number: 20038160870

Country of ref document: CN

Ref document number: 2004518444

Country of ref document: JP

ENP Entry into the national phase

Ref document number: 2005102935

Country of ref document: RU

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 2006015346

Country of ref document: US

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 10520000

Country of ref document: US

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWP Wipo information: published in national office

Ref document number: 2003762456

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 10520000

Country of ref document: US