DE19742655C2 - Verfahren und Vorrichtung zum Codieren eines zeitdiskreten Stereosignals - Google Patents

Verfahren und Vorrichtung zum Codieren eines zeitdiskreten Stereosignals

Info

Publication number
DE19742655C2
DE19742655C2 DE19742655A DE19742655A DE19742655C2 DE 19742655 C2 DE19742655 C2 DE 19742655C2 DE 19742655 A DE19742655 A DE 19742655A DE 19742655 A DE19742655 A DE 19742655A DE 19742655 C2 DE19742655 C2 DE 19742655C2
Authority
DE
Germany
Prior art keywords
signal
transformed
stereo
frequency
mono signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE19742655A
Other languages
English (en)
Other versions
DE19742655A1 (de
Inventor
Bernhard Dipl Ing Grill
Bodo Dipl Ing Teichmann
Karlheinz Dr Ing Brandenburg
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Original Assignee
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to DE19742655A priority Critical patent/DE19742655C2/de
Application filed by Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV filed Critical Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Priority to EP98932156A priority patent/EP1016319B1/de
Priority to AT98932156T priority patent/ATE205041T1/de
Priority to US09/445,894 priority patent/US6629078B1/en
Priority to ES98932156T priority patent/ES2161059T3/es
Priority to DK98932156T priority patent/DK1016319T3/da
Priority to DE59801343T priority patent/DE59801343D1/de
Priority to PCT/EP1998/003605 priority patent/WO1999017587A1/de
Publication of DE19742655A1 publication Critical patent/DE19742655A1/de
Application granted granted Critical
Publication of DE19742655C2 publication Critical patent/DE19742655C2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • G10L19/24Variable rate codecs, e.g. for generating different qualities using a scalable representation such as hierarchical encoding or layered encoding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S1/00Two-channel systems
    • H04S1/007Two-channel systems in which the audio signals are in digital form
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/0212Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using orthogonal transformation

Description

Die vorliegende Erfindung bezieht sich auf skalierbare Au­ diocodierer und insbesondere auf Verfahren und Vorrichtungen zum Codieren eines zeitdiskreten Stereosignals.
Skalierbare Audiocodierer sind Codierer, die modular aufge­ baut sind. So besteht die Bestrebung, bereits bestehende Sprachcodierer zu verwenden, die Signale, die z. B. mit 8 kHz abgetastet sind, verarbeiten und Datenraten von bei­ spielsweise 4,8 bis 8 Kilobit pro Sekunde ausgeben. Diese bekannten Codierer, wie z. B. die für Fachleute bekannten Codierer G. 729, G. 723, FS1016, CELP oder parametrische Modelle des MPEG-4-Audio-VM, dienen hauptsächlich zum Codieren von Sprachsignalen und sind im allgemeinen zum Codieren von höherqualitativen Musiksignalen nicht geeignet, da sie üblicherweise für mit 8 kHz abgetastete Signale entworfen sind, weshalb sie lediglich eine Audiobandbreite von maximal 4 kHz codieren können. Sie zeigen jedoch im allgemeinen einen schnellen Betrieb und einen geringen Rechenaufwand.
Zur Audiocodierung von Musiksignalen, um beispielsweise HIFI-Qualität oder CD-Qualität zu erreichen, wird daher bei einem skalierbaren Codierer ein Sprachcodierer mit einem Audiocodierer kombiniert, der Signale mit höherer Abtast­ rate, wie z. B. 48 kHz, codieren kann. Selbstverständlich ist es auch möglich, den oben genannten Sprachcodierer durch einen anderen Codierer zu ersetzen, beispielsweise durch einen Musik/Audiocodierer nach den Standards MPEG1, MPEG2 oder MPEG4.
Eine derartige Kettenschaltung eines Sprachcodierers mit einem höherwertigen Audiocodierer verwendet üblicherweise das Verfahren der Differenzcodierung im Zeitbereich. Ein Eingangssignal, das beispielsweise eine Abtastrate von 48 kHz aufweist, wird mittels eines Downsampling-Filters auf die für den Sprachcodierer geeignete Abtastfrequenz herun­ ter-abgetastet. Nun wird das herunter-abgetastete Signal codiert. Das codierte Signal kann direkt einer Bitstromfor­ matiereinrichtung zugeführt werden, um übertragen zu werden. Es enthält jedoch lediglich Signale mit einer Bandbreite von z. B. maximal 4 kHz. Das codierte Signal wird ferner wieder decodiert und mittels eines Upsampling-Filters herauf-ab­ getastet. Das nun erhaltene Signal besitzt jedoch aufgrund des Downsampling-Filters lediglich Nutzinformationen mit einer Bandbreite von beispielsweise 4 kHz. Ferner ist fest­ zustellen, daß der Spektralgehalt des herauf-abgetasteten codierten/decodierten Signals im unteren Band bis 4 kHz nicht exakt dem ersten 4-kHz-Band des mit 48 kHz abgetaste­ ten Eingangssignals entspricht, da Codierer im allgemeinen Codierfehler einführen.
Wie bereits erwähnt wurde, weist ein skalierbarer Codierer sowohl einen allgemein bekannten Sprachcodierer als auch einen Audiocodierer auf, der Signale mit höheren Abtastraten verarbeiten kann. Um Signalanteile des Eingangssignals über­ tragen zu können, deren Frequenzen über 4 kHz sind, wird ei­ ne Differenz des Eingangssignals mit 8 kHz und des codier­ ten/decodierten, herauf-abgetasteten Ausgangssignals des Sprachcodierers für jeden einzelnen zeitdiskreten Abtastwert gebildet. Diese Differenz kann dann mittels eines bekannten Audiocodierers quantisiert und codiert werden, wie es für Fachleute bekannt ist. An dieser Stelle sei angemerkt, daß das Differenzsignal, das in den Audiocodierer, der Signale mit höheren Abtastraten codieren kann, eingespeist wird, im unteren Frequenzbereich abgesehen von Codierfehlern des Sprachcodierers sehr viel kleiner als das Original ist. In dem Spektralbereich, der oberhalb der Bandbreite des herauf-abgetasteten codierten/decodierten Ausgangssignals des Sprachcodierers liegt, entspricht das Differenzsignal im wesentlichen dem wahren Eingangssignal, das mit z. B. 48 kHz abgetastet wurde.
In der ersten Stufe, d. h. der Stufe des Sprachcodierers, wird also zumeist ein Codierer mit niedriger Abtastfrequenz eingesetzt, da im allgemeinen eine sehr niedrige Bitrate des codierten Signals angestrebt wird. Derzeit arbeiten mehrere Codierer, auch die genannten Codierer, mit Bitraten von we­ nigen Kilobit (zwei bis 8 Kilobit oder auch darüber). Die­ selben ermöglichen ferner eine maximale Abtastfrequenz von 8 kHz, da ohnehin nicht mehr Audiobandbreite bei dieser gerin­ gen Bitrate möglich ist, und die Codierung bei niedriger Abtastfrequenz bezüglich des Rechenaufwands günstiger ist. Die maximal mögliche Audiobandbreite beträgt 4 kHz und ist in der Praxis auf etwa 3,5 kHz beschränkt. Soll jetzt in der weiteren Stufe, d. h. in der Stufe mit dem Audiocodierer, eine Bandbreitenverbesserung erzielt werden, muß diese weitere Stufe mit einer höheren Abtastfrequenz arbeiten. Zur Anpassung der Abtastfrequenzen werden Dezimations- und Interpolationsfilter zum Down- bzw. Upsampling eingesetzt.
Bis dato sind jedoch lediglich skalierbare Codierer für Mo­ nosignale bekannt oder implementiert (siehe DE 195 37 338 C1). Wünschenswert wäre jedoch ein Konzept für skalierbare Audiocodierer, welche Joint-Stereo-Fähigkeiten besitzen. Un­ ter "Joint-Stereo" sind Stereo-Codiertechniken, wie z. B. die Mitte-Seite-Codierung (M/S-Codierung) oder die Inten­ sity-Stereo-Codierung (IS-Codierung) zu verstehen. Wenn ein­ fach für den linken (L) und den rechten (R) Kanal eines Ste­ reosignals jeweils ein getrennter skalierbarer Mono-Audioco­ dierer eingesetzt wird, kann zwar ein Stereo-Signal codiert werden, die Codierung nimmt dabei jedoch keinerlei Rücksicht auf Joint-Stereo-Techniken, welche bei der bitsparenden Co­ dierung von Stereosignalen weitreichende Einsparungsmöglich­ keiten eröffnen können.
Die Aufgabe der vorliegenden Erfindung besteht darin, ein Verfahren und eine Vorrichtung zum Codieren eines zeit­ diskreten Stereosignals zu schaffen, welche die Verwendung von Joint-Stereo-Techniken ermöglichen.
Diese Aufgabe wird durch ein Verfahren zum Codieren eines zeitdiskreten Stereosignals gemäß Anspruch 1 sowie durch eine Vorrichtung zum Codieren eines zeitdiskreten Stereo­ signals gemäß Anspruch 14 gelöst.
Der vorliegenden Erfindung liegt die Erkenntnis zugrunde, daß eine Kombination von Joint-Stereo-Techniken mit dem Prinzip der Skalierbarkeit erreicht werden kann, wenn aus dem linken und rechten Kanal eines Stereosignals zunächst ein Monosignal gebildet wird, was vorzugsweise durch Summa­ tion geschehen kann. Das Monosignal wird mittels eines er­ sten Codierers codiert, woraufhin das daraus entstehende Signal einem Bitstrommultiplexer zugeführt wird. Das codier­ te Monosignal wird ferner wieder decodiert, um ein codier­ tes/decodiertes Monosignal zu erhalten, das sich vom ur­ sprünglichen Monosignal darin unterscheidet, daß es Codier­ fehler aufweist, die durch den ersten Codierer eingeführt worden sind. Aus diesem codierten/decodierten Monosignal und dem linken und rechten Kanal des zeitdiskreten Stereosignals können nun Stereoinformationen erzeugt werden, welche bei­ spielsweise Mitte/Seite-(M/S-)Informationen oder Intensity-Stereo-(IS-)Informationen oder auch unter be­ stimmten Umständen der ursprüngliche linke Kanal oder der ursprüngliche rechte Kanal sein können. Wie es im nach­ folgenden offensichtlich wird, kann auch das codierte/deco­ dierte Monosignal selbst bzw. die Differenz des ursprüng­ lichen Monosignals vom codierten/decodierten Monosignal als Stereoinformationen verwendet werden, um zusammen mit der Differenz aus linkem und rechtem Kanal, welche auch als S-Signal bezeichnet wird, direkt eine Mitte/Seite-Codierung zu ergeben. Die Stereoinformationen können nun mittels eines zweiten Codierers, der identisch zum ersten Codierer oder auch abweichend vom ersten Codierer aufgebaut sein kann, codiert und ebenfalls einem Bitstrommultiplexer zugeführt, welcher einen Bitstrom aus dem codierten Monosignal und den codierten Stereoinformationen sowie aus zur späteren Decodierung notwendigen Seiteninformationen erzeugt.
Das Bilden des Monosignals und das Codieren desselben kann im Zeitbereich stattfinden, wenn als erster Codierer oder Core-Codierer z. B. ein Sprachcodierer verwendet wird. Vor­ zugsweise findet das Bilden und Codieren von Stereoinfor­ mationen im Frequenzbereich statt, da dann auf leistungs­ fähige Codierer zurückgegriffen werden kann, welche nach dem psychoakustischen Modell arbeiten.
Es ist jedoch auch möglich, daß vor einer Weiterverarbeitung der linke und der rechte Kanal in den Frequenzbereich trans­ formiert werden, was dazu führt, daß auch für die Codierung des Monosignals ein Frequenzbereichscodierer verwendet wer­ den kann, welcher unter Verwendung des psychoakustischen Mo­ dells möglichst verzerrungsfrei codieren kann.
Wird für den ersten Codierer, d. h. für den Codierer des Mo­ nosignals, ein Codierer eingesetzt, welcher eine geringere Abtastrate aufweist als das zu codierende zeitdiskrete Ste­ reosignal, so muß das aus der Summation von linkem und rech­ tem Kanal gebildete Monosignal zuerst auf die niedrigere Ab­ tastfrequenz umgesetzt werden, was auch als Downsampling be­ zeichnet wird. Das auf die niedrigere Abtastfrequenz umge­ setzte Monosignal wird nun codiert und wieder decodiert, wo­ bei das codierte/decodierte Monosignal ebenfalls die niedri­ gere Abtastfrequenz aufweist. Um mit dem höher abgetasteten linken und rechten Kanal in Beziehung gebracht werden zu können, um Stereoinformationen zu bilden, muß das codierte/­ decodierte Monosignal wieder auf die Abtastfrequenz des zeitdiskreten Stereosignals umgesetzt werden, was auch als Upsampling bezeichnet wird. Wird dieses durch Upsampling gewonnene codierte/decodierte Monosignal einer Frequenzbe­ reichstransformation unterzogen, welche vorzugsweise als MDCT (MDCT = modifizierte diskrete Cosinustransformation) implementiert sein kann, so hat das resultierende transfor­ mierte codierte/decodierte Monosignal dieselbe Zeit- und Frequenzauflösung wie das ursprüngliche zeitdiskrete Stereo­ signal, d. h. der linke (L) Kanal und der rechte (R) Kanal.
Wird dagegen der erste Codierer mit der gleichen Abtastrate betrieben, die das zeitdiskrete Stereosignal hat, so kann selbstverständlich auf das Downsampling und Upsampling ver­ zichtet werden.
Bevorzugte Ausführungsbeispiele der vorliegenden Erfindung werden nachfolgend bezugnehmend auf die beiliegenden Zeich­ nungen detaillierter erläutert. Es zeigen:
Fig. 1 einen skalierbaren Stereocodierer mit Monosignalbil­ dung und -codierung im Zeitbereich und Mitte/Seite- Codierung im Frequenzbereich gemäß einem ersten Aus­ führungsbeispiel der vorliegenden Erfindung;
Fig. 2A einen skalierbaren Stereocodierer mit Monosignal­ bildung und -codierung im Zeitbereich und einer L/R- oder M/S-Codierung im Frequenzbereich gemäß einem zweiten Ausführungsbeispiel;
Fig. 2B eine detailliertere Darstellung des skalierbaren Stereocodierers von Fig. 2A;
Fig. 3 eine erweiterte Darstellung des skalierbaren Stereo­ codierers, der in Fig. 2A gezeigt ist, gemäß einem dritten Ausführungsbeispiel der vorliegenden Erfin­ dung; und
Fig. 4 einen skalierbaren Stereocodierer mit Monosignalbil­ dung im Zeitbereich und wahlweiser L/R- oder M/S-Co­ dierung im Frequenzbereich.
Fig. 1 zeigt ein Prinzipblockschaltbild eines skalierbaren Stereocodierers 100 gemäß einem ersten Ausführungsbeispiel der vorliegenden Erfindung. Der skalierbare Stereocodierer empfängt ein zeitdiskretes Stereosignal, das einen ersten oder linken Kanal L sowie einen zweiten oder rechten Kanal R umfaßt. Zunächst wird aus dem Stereosignal vorzugsweise durch abtastwertweise Summation mittels eines Summierers 102 ein Summensignal gebildet, welches anschließend mittels eines Multiplizierers 104 mit dem Faktor 0,5 multipliziert wird, um bei diesem Ausführungsbeispiel ein Monosignal zu erzeugen, das zu dem von der M/S-Codierung bekannten Mitte- Signal identisch ist. Das Monosignal am Ausgang des Multi­ plizierers 104 wird in ein Downsampling-Filter 106 einge­ speist, um die Abtastrate desselben auf eine vorzugsweise niedrigere Abtastrate umzusetzen, welche eine Codierung des Monosignals mittels eines Zeitbereichscodierers, welcher Teil des Core-Codecs 108 ist, zu ermöglichen. Das codierte Monosignal wird zusammen mit entsprechenden Seiteninforma­ tionen in einen Bitstrommultiplexer 110 geschrieben, welcher an seinem Ausgang 112 einen Bitstrom erzeugt, der eine co­ dierte Darstellung des zeitdiskreten Stereosignals ist.
Innerhalb des Core-Codecs 108 wird das codierte Monosignal wieder decodiert, um mittels eines Upsampling-Filters 114 wieder auf die erste Abtastrate umgesetzt zu werden, damit das codierte/decodierte Monosignal mit dem linken und dem rechten Kanal für eine spätere Bildung von Stereoinforma­ tionen in Beziehung gesetzt werden kann.
Das zeitdiskrete Stereosignal könnte beispielsweise mittels einer ersten Abtastrate, z. B. 48 kHz, abgetastet worden sein. Das Downsampling-Filter 106 könnte dieses Signal mit der ersten Abtastrate auf eine zweite Abtastrate von z. B. 8 kHz umsetzen. Vorzugsweise bilden die erste und die zweite Abtastrate ein ganzzahliges Verhältnis. Das Downsampling- Filter 106 kann beispielsweise als Dezimationsfilter imple­ mentiert sein. Der Core-Codec 108 könnte beispielsweise einen Sprachcodierer, wie z. B. G. 729, G. 723, FS1016, MPEG-4 CELP, MPEG-4 PAR, oder einen ähnlichen Codierer umfassen. Solche Codierer arbeiten bei Datenraten von 4,8 Kilobit pro Sekunde (F51016) bis zu Datenraten von 8 Kilobit pro Sekunde (G. 729). Für Fachleute ist es jedoch offensichtlich, daß beliebige andere Codierer mit anderen Datenraten bzw. anderen Abtastfrequenzen als Core-Codec 108 verwendet werden können.
Wird als Core-Codec ein Codierer verwendet, welcher bei 8 kHz arbeitet, so weist das codierte Monosignal maximal eine Bandbreite von 4 kHz auf, da das Downsampling-Filter 106 das Monosignal z. B. mittels Dezimation auf eine Abtastfrequenz von 8 kHz umgesetzt hat. Innerhalb der Bandbreite von 0-4 kHz sind nun das codierte/decodierte Monosignal und das ur­ sprüngliche Monosignal am Eingang des Downsampling-Filters 106 abgesehen von durch den Core-Codec 108 eingeführten Codierungsfehlern gleich. Es sei jedoch angemerkt, daß die durch den Core-Codec 108 eingeführten Codierungsfehler nicht immer kleine Fehler sind, sondern daß dieselben ohne weite­ res in Größenordnungen des Nutzsignals kommen können, wenn beispielsweise ein stark transientes Signal im ersten Codie­ rer codiert wird. Aus diesem Grund wird, wie später noch er­ örtert wird, überprüft, ob eine Differenzcodierung überhaupt sinnvoll ist.
Das Ausgangssignal des Upsampling-Filters 114 wird nun eben­ so wie der linke und der rechte Kanal mittels MDCT-Filter­ bänken 116 in den Frequenzbereich umgesetzt. Die Ausgangs­ signale der MDCT-Filterbänke 116 werden, wie es in Fig. 1 dargestellt ist, einer ersten frequenzselektiven Schalt­ einrichtung (FSS) 118a bzw. einer zweiten frequenzselektiven Schalteinrichtung 118b direkt bzw. über einen ersten Summierer 120a oder einen zweiten Summierer 120b indirekt zugeführt.
Insbesondere wird das Ausgangssignal der MDCT-Filterbank für den linken Kanal der ersten frequenzselektiven Schaltein­ richtung (FSS) 118a zugeführt, welche ebenso die Summe aus dem transformierten linken Kanal und dem mit negativem Vorzeichen versehenen transformierten codierten/decodierten Monosignal empfängt. Die zweite frequenzselektive Schaltein­ richtung 118b empfängt neben dem transformierten R-Kanal die Summe des transformierten R-Kanals und des mit negativem Vorzeichen versehenen codierten/decodierten Monosignals.
Die frequenzselektiven Schalteinrichtungen 118a, 118b prü­ fen, ob es günstiger ist, das transformierte ursprüngliche linke bzw. rechte Signal oder die Differenz des linken bzw. rechten Signals und des codierten/decodierten Monosignals weiter zu verarbeiten. Die Funktion der frequenzselektiven Schalteinrichtung wird später näher dargestellt.
Das Ausgangssignal der ersten frequenzselektiven Schaltein­ richtung 118a wird sowohl einem dritten Summierer 122a als auch einem vierten Summierer 122b mit positivem Vorzeichen zugeführt, während das Ausgangssignal der zweiten frequenz­ selektiven Schalteinrichtung 118b dem dritten Summierer 122a mit positivem Vorzeichen und dem vierten Summierer 122b mit negativem Vorzeichen zugeführt wird. Am Ausgang des dritten Summierers 122a liegt nun entweder die Summe des transfor­ mierten linken und rechten Kanals oder die Differenz aus der Summe des uncodierten linken und rechten Kanals und der codierten/decodierten Summe des linken und rechten Kanals vor. Dieses Signal, das nun im Gegensatz zu dem codierten Monosignal des Core-Codecs 108 Stereoinformationen aufweist, wird mittels eines M-Codierers 124 beispielsweise unter Berücksichtigung des psychoakustischen Modells codiert und dem Bitstrommultiplexer 110 zugeführt.
Am Ausgang des vierten Summierers 122b liegt hingegen die Differenz des transformierten linken und rechten Kanals vor, wobei dieses Signal in der Technik auch als Seite-Signal bezeichnet wird, das in einen S-Codierer 126 eingespeist wird, wobei der S-Codierer 126 ebenso wie der M-Codierer 124 unter Berücksichtigung des psychoakustischen Modells codie­ ren kann. Das Ausgangssignal des S-Codierers 126 wird eben­ falls in den Bitstrommultiplexer eingespeist und umfaßt ebenfalls Stereoinformationen bezüglich des zeitdiskreten Stereosignals am Eingang des skalierbaren Stereocodierers 100 gemäß dem ersten Ausführungsbeispiel der vorliegenden Erfindung. Für Fachleute ist es offensichtlich, daß ein kompletter Bitstrom Seiteninformationen benötigt. Erfin­ dungsrelevante Seiteninformationen sind insbesondere Infor­ mationen der frequenzselektiven Schalteinrichtungen 118a und 118b bezüglich der Tatsache, in welchem Frequenzband Differ­ enzsignale oder transformierte L- oder R-Signale an den dritten Summierer 122a bzw. an den vierten Summierer 122b ausgegeben wurden.
Im nachfolgenden werden die Funktionen einzelner Elemente, soweit sie noch nicht dargelegt wurden, näher erläutert.
Das Ausgangssignal des Core-Codecs 108 weist, wie es bereits erwähnt wurde, z. B. eine Abtastfrequenz von 8 kHz auf. Dieses Signal, d. h. das Monosignal, mit niedrigerer Abtast­ rate als das ursprüngliche zeitdiskrete Stereosignal soll nun jedoch mit dem linken bzw. rechten Kanal in Beziehung gebracht werden, um Stereoinformationen zu bilden. Um ver­ gleichbare Signale zu erhalten, muß daher das Signal mit niedrigerer Abtastrate in ein Signal mit gleicher Abtastrate wie die Abtastrate des zeitdiskreten Stereosignals umgesetzt werden.
Dies kann dadurch geschehen, daß zwischen die einzelnen zeitdiskreten Abtastwerte des codierten/decodierten Mono­ signals am Ausgang des Core-Codecs 108 eine bestimmte Anzahl von Nullwerten eingefügt wird. Die Anzahl der Nullwerte er­ rechnet sich aus dem Verhältnis der ersten und der zweiten Abtastfrequenz. Das Verhältnis der ersten (hohen) zur zweiten (niedrigen) Abtastfrequenz wird als Upsampling-Fak­ tor bezeichnet. Wie es bekannt ist, wird jedoch durch das Einfügen von Nullen, das mit sehr geringem Rechenaufwand möglich ist, eine Aliasing-Störung erzeugt, die sich derart auswirkt, daß das niederfrequente oder Nullspektrum des codierten/decodierten Monosignals am Ausgang des Core-Codecs 108 wiederholt wird, und zwar insgesamt so oft, wie viele Nullen eingefügt wurden. Das Aliasing-behaftete Signal wird nun mittels der MDCT-Filterbank 116 in den Frequenzbereich transformiert. Durch Einfügen von z. B. 5 Nullen zwischen jedem Abtastwert entsteht ein Signal, von dem von vorne­ herein bekannt ist, daß lediglich jeder 6. Abtastwert dieses Signals von Null verschieden ist. Diese Tatsache kann beim Transformieren dieses Signals in den Frequenzbereich mittels einer Filterbank oder einer modifizierten diskreten Cosinus­ transformation oder mittels einer beliebigen Frequenztrans­ formation ausgenützt werden, da beispielsweise auf bestimmte Summationen, die bei einer einfachen FFT auftreten, verzich­ tet werden kann. Die von vorneherein bekannte Struktur des zu transformierenden Signals kann somit auf vorteilhafte Weise zur Rechenzeiteinsparung bei einer Transformation des­ selben in den Frequenzbereich verwendet werden.
Das auf die erste Abtastfrequenz herauf umgesetzte codier­ te/decodierte Monosignal ist nur im unteren Frequenzband eine korrekte Darstellung des ursprünglichen Monosignals am Ausgang des Multiplizierers 104, weshalb am Ausgang der MDCT-Filterbank 116 nur maximal das Eins/Upsampling-Faktor­ fache der gesamten Spektrallinien verwendet wird. Das Ein­ fügen der Nullen in das codierte/decodierte Monosignal am Ausgang des Core-Codecs 108 bewirkt jedoch, daß die Spek­ traldarstellung des codierten/decodierten Monosignals nun dieselbe Zeit- und Frequenzauflösung wie der transformierte linke und rechte Kanal besitzt.
Nicht immer ist es günstig, eine Differenz-Verarbeitung nach den frequenzselektiven Schalteinrichtungen 118a und 118b zu verwenden. Die frequenzselektiven Schalteinrichtungen führen daher eine sog. Simulcast-Differenz-Umschaltung durch. Es ist beispielsweise dann ungünstig, ein Differenzsignal wei­ ter zu verarbeiten, wenn das Differenzsignal eine höhere Energie als das entsprechende andere Signal am Eingang der frequenzselektiven Schalteinrichtung 118a aufweist. Da als Core-Codec 108 ein beliebiger Codierer verwendet werden kann, kann es vorkommen, daß der Codierer bestimmte durch den M-Codierer 124 bzw. durch den S-Codierer 126 schwer zu codierende Signalanteile produziert. Der Core-Codec 108 soll vorzugsweise Phaseninformationen des von ihm codierten Signals bewahren, was in der Fachwelt als "Waveform-Coding" oder "Signalform-Codieren" bezeichnet wird. Die Entschei­ dung, die das frequenzselektive Schaltmodul 118a oder 118b durchführt, wird vorzugsweise frequenzabhängig getroffen.
"Differenzcodierung" bedeutet, daß lediglich die Differenz des transformierten linken bzw. rechten Kanals und des transformierten codierten/decodierten Monosignals codiert wird. Falls diese Differenzcodierung jedoch nicht günstig ist, da der Energieinhalt des Differenzsignals größer als der Energieinhalt des transformierten linken oder rechten Signals ist, wird von einer Differenzcodierung abgesehen und auf Simulcast-Betrieb umgeschaltet.
Da die Differenzbildung im Frequenzbereich, d. h. selektiv spektralwertweise, stattfindet, ist es ohne weiteres mög­ lich, eine frequenzselektive Simulcast- oder Differenzco­ dierung durchzuführen. Die Differenzbildung im Spektrum erlaubt somit eine einfache frequenzselektive Wahl der Frequenzbereiche, welche differenzcodiert werden sollen. Prinzipiell könnte eine Umschaltung von einer Differenz- zu einer Simulcast-Codierung für jeden Spektralwert einzeln auftreten. Dies würde jedoch eine zu große Menge an Sei­ teninformationen erfordern. Daher wird es bevorzugt, bei­ spielsweise ein frequenzgruppenweises Vergleichen der Ener­ gien der Differenzspektralwerte und des transformierten linken bzw. rechten Kanals durchzuführen. Alternativ dazu können bestimmte Frequenzbänder von vorneherein festgelegt werden, z. B. 8 Bänder zu jeweils 500 kHz im Beispiel. Ein Kompromiß bei der Festlegung der Frequenzbänder besteht darin, die Menge der zu übertragenden Seiteninformationen, d. h. ob in einem Frequenzband die Differenzcodierung aktiv ist oder nicht, gegenüber dem Nutzen abzuwägen, der aus einer möglichst häufigen Differenzcodierung erwächst.
Das Bilden von Stereoinformationen aufgrund des codier­ ten/decodierten Monosignals und des ersten und des zweiten Kanals umfaßt daher eine Bestimmung, wo es günstiger ist, den transformierten linken bzw. rechten Kanal oder eine Differenz desselben und des codierten/decodierten Monosig­ nals zu verarbeiten. In jedem gewählten Frequenzband wird nun ein frequenzselektives Vergleichen jeweiliger Energien durchgeführt. Falls die Energie in einem bestimmten Fre­ quenzband des Differenzsignals die Energie des anderen Signals multipliziert mit einem vorbestimmten Faktor k überschreitet, wird bestimmt, daß das Ausgangssignal der frequenzselektiven Schalteinrichtung 118a das ursprüngliche transformierte linke Signal ist. Anderenfalls wird bestimmt, daß die Differenz-Spektralwerte ausgegeben werden. Der Faktor k kann beispielsweise von etwa 0,1 bis 10 reichen. Bei Werten von k kleiner 1 wird bereits eine Simulcast-Co­ dierung eingesetzt, wenn das Differenzsignal eine geringere Energie als das andere Signal aufweist. Bei Werten von k größer 1 wird dagegen weiter eine Differenzcodierung ver­ wendet, selbst wenn der Energieinhalt des Differenzsignals bereits größer als der des ursprünglichen linken bzw. rechten Kanals ist. Alternativ zu der beschriebenen Differ­ enzbildung kann eine Bildung von Stereoinformationen auch derart durchgeführt werden, daß z. B. ein Verhältnis oder eine sonstige Verknüpfung des codierten/decodierten Mono­ signals und des transformierten linken bzw. rechten Kanals implementiert wird.
Fig. 2A zeigt einen skalierbaren Stereocodierer 200 gemäß einem zweiten Ausführungsbeispiel der vorliegenden Erfin­ dung. Gleiche Elemente tragen die gleichen Bezugszeichen und werden, wenn sie sich gleich verhalten, nicht noch einmal beschrieben. Der skalierbare Stereocodierer 200 unterschei­ det sich vom skalierbaren Stereocodierer 100 gemäß dem ersten Ausführungsbeispiel der vorliegenden Erfindung im wesentlichen darin, daß wahlweise eine Mitte/Seite-Codierung oder eine L/R-Codierung durchführt werden kann.
Zu diesem Zwecke umfaßt der skalierbare Stereocodierer 200 weitere Summationseinrichtungen 202a, 202b, um aus dem transformierten linken und rechten Kanal ein Mitte-Signal M bzw. ein Seite-Signal S zu erzeugen. Das transformierte codierte/decodierte Monosignal ist hier als M' bezeichnet. Das Signal M und das Signal M' wird in eine ebenfalls zu­ sätzliche frequenzselektive Schalteinrichtung 204 einge­ speist, welche ein Signal M " erzeugt, wobei der frequenz­ selektiven Schalteinrichtung 204 ebenfalls ein Summierer 206 vorgeschaltet ist, wie es auch bei allen anderen frequenz­ selektiven Schalteinrichtungen der Fall ist. Der skalierbare Stereocodierer 200 umfaßt ferner einen Block Joint-Stereo- Entscheidung 208, welcher 4 Eingangssignale L', M", S und R' empfängt. Der Block Joint-Stereo-Entscheidung 208 ent­ scheidet auf bekannte Art und Weise, ob von einem Stereoco­ dierer 210 eine L/R-, eine M/S- oder eine Intensity-Codie­ rung durchzuführen ist.
Die Funktion des skalierbaren Stereocodierers 200 sei nach­ folgend dargestellt. Zunächst wird aus dem zeitdiskreten Stereosignal ein Monosignal gebildet, wobei diese Bildung im Zeitbereich stattfindet und gleichungsmäßig folgendermaßen lautet:
MT = (L + R) . 0,5 (Gl. 1)
Der Index T soll anzeigen, daß es sich hier um ein Mitte- Signal im Zeitbereich handelt. Der Core-Codierer 108 arbei­ tet nun, wie es in Verbindung mit Fig. 1 dargestellt wurde. Außerdem wird ebenfalls wie in Fig. 1 eine MDCT auf die Signale L und R ausgeführt. Mittels der Summierer 202a und 202b sowie der nachgeschalteten Multiplizierer wird nun das M/S-Signal im Frequenzbereich berechnet, was in Gleichungen ausgedrückt folgendermaßen lautet:
M = (L + R) . 0,5 (Gl. 2)
und
S = (L - R) . 0,5 (Gl. 3)
Die frequenzselektive Schalteinrichtung dient nun, wie es bereits erwähnt wurde, zur Berechnung von M". M" ist entweder gleich M - M' oder M selbst, wie es bereits dar­ gestellt wurde. Die frequenzselektive Schalteinrichtung 118 berechnet das Signal L', das entweder gleich 0,5 . (L - M') oder gleich 0,5 . L ist. Entsprechendes gilt für das Signal R', das entweder gleich R . 0,5 oder gleich (R - M') . 0,5 ist. Die Schalteinrichtungen 118a, 118b und 204 arbeiten frequenzselektiv. In dem Block Joint-Stereo-Entscheidung 208 findet nun auf übliche Weise eine Entscheidung statt, ob eine Codierung der Signale L' und R' oder M" oder S stattzufinden hat. Diese Funktion ist in der Technik bekannt und wird daher nicht näher dargelegt.
Fig. 2B zeigt einen skalierbaren Stereocodierer, der sich von dem skalierbaren Stereocodierer 200 gemäß dem zweiten Ausführungsbeispiel der Erfindung in einigen Punkten unter­ scheidet. Derselbe umfaßt als einzige Multiplizierer die beiden Multiplizierer 214a und 214b, welche nach der fre­ quenzselektiven Schalteinrichtung 204 bzw. nach der fre­ quenzselektiven Schalteinrichtung 118b angeordnet sind. Fig. 2B umfaßt ferner eine etwas detailliertere Darstellung der frequenzselektiven Schalteinrichtungen. Der Schalterzustand der frequenzselektiven Schalteinrichtung 118a, der als S1LR bezeichnet wird, wird zu dem Schalterzustand der frequenz­ selektiven Schalteinrichtung 118b, der als S'1LR bezeichnet ist, immer komplementär sein. Dasselbe gilt für zwei zusätz­ liche Schalter S2 und S2', welche in dem Block Joint-Ste­ reo-Entscheidung 208 vorhanden sein können, um interne Signale L" und R" zu bilden.
Das Verlegen der Multiplikationen hinter die frequenzselek­ tiven Schalteinrichtungen führt zu einer einfacheren und übersichtlichen Darstellung des Stereocodierers. Die Multi­ plikationen an sich werden somit nicht mehr unbedingt not­ wendig, sondern dieselben könnten auch im Decodierer aus­ geführt werden. Zur Verringerung der zu übertragenden Sei­ teninformationen ist es ferner möglich, statt der Übertra­ gung aller Schalterzustände lediglich einige Schalterzu­ stände zu übertragen. Wenn der Schalter S2 den Zustand a anzeigt, daß eine L/R-Codierung angewendet wird, ist es ausreichend, lediglich den Zustand der Schalter S1, S'1 zu übertragen, wobei die Übertragung des Zustands des Schalters S'1 unterbleiben kann, da dieser zu dem Zustand des Schalter S1 komplementär sein wird. Wenn S2 einen anderen Zustand, d. h. den Zustand b, einnimmt, wie es in der Zeichnung darge­ stellt ist, so genügt es, den Zustand S1M der frequenz­ selektiven Schalteinrichtung 204 zu übertragen, welche anzeigt, ob eine Differenz- oder Simulcast-Codierung des Signals M durchgeführt wird. Steht der Schalter S2 in einer Position c, so wird als Seiteninformationen übertragen, daß eine Intensity-Stereo-Codierung vorliegt, wobei in diesem Fall ebenfalls die Position des Schalters S1M übertragen wird, während hier die Positionen von S1LR und S'1LR ohne Belang sind.
Fig. 3 umfaßt ein weiteres Ausführungsbeispiel 300 eines skalierbaren Stereocodierers gemäß der vorliegenden Erfin­ dung. Das in Fig. 3 gezeigte Ausführungsbeispiel unter­ scheidet sich von dem in Fig. 2 gezeigten Ausführungsbei­ spiel im wesentlichen darin, daß das Monosignal in zwei Stufen codiert wird. Die erste Stufe wird durch den Core- Codec 108 gebildet, während die zweite Stufe durch einen Codierer/Decodierer 302 gebildet wird, welcher bei dem bevorzugten Ausführungsbeispiel im Frequenzbereich arbeitet und als psychoakustischer Frequenzbereichscodierer ausge­ führt sein kann. Derselbe erhält als Eingangssignal M" das Ausgangssignal der frequenzselektiven Schalteinrichtung 204, wobei auch hier geprüft wird, ob eine Differenz- oder Si­ mulcast-Codierung sinnvoll ist oder nicht. Das Ausgangs­ signal des Codierers/Decodierers 302 wird einem Summierer 304 zugeführt, dessen Ausgangssignal M''' der Differenz des Signals M und des Ausgangssignals des Codierers/Decodierers 302 entspricht. Dieses Signal M" wird ebenso wie die Signale L', S und R' einer Joint-Stereo-Entscheidung (nicht gezeigt) und dann einem Stereocodierer (ebenfalls nicht gezeigt) zugeführt. Der Core-Codec 108 umfaßt ebenso wie der Codierer/Decodierer 302 einen Ausgang zu dem Bitstrommulti­ plexer, um codierte Daten zu demselben zu übertragen. Die Ausgänge der frequenzselektiven Schalteinrichtungen zu dem Bitstrommultiplexer sollen veranschaulichen, daß Seitenin­ formationen der frequenzselektiven Schalteinrichtungen bezüglich der Verwendung von Differenz- und Simulcast-Co­ dierung in einem Frequenzband ebenfalls dem Bitstrommulti­ plexer zugeführt werden müssen, um ein störungsfreies Decodieren zu ermöglichen. Der Bitstrom umfaßt bei dem in Fig. 3 gezeigten skalierbaren Stereocodierer 300 zusätzlich zu der ersten Schicht oder dem ersten Layer, der durch das codierte Monosignal des Core-Codecs 108 gebildet wird, eine zweite Schicht, die durch das codierte Signal M" am Bit­ strommultiplexer-Ausgang des Codierer/Decodierers 302 gebildet wird, wobei der in Fig. 3 gezeigte Codierer 300 eine Codierung des Monosignals mit voller Abtastrate ermöglichen kann.
Im Gegensatz zu den bisher dargestellten Ausführungsbei­ spielen stellt Fig. 4 einen skalierbaren Audiocodierer 400 dar, der eine Monosignal-Bildung nur im Frequenzbereich durchführt. Dazu werden die Signale L und R mittels MDCT- Filterbänken 116 in den Frequenzbereich transformiert, wonach eine M/S-Matrix mittels der Summierer 202a und 202b und der nachfolgenden Multiplizierer mit dem Faktor 0,5 durchgeführt wird. Am Ausgang der Multiplizierer liegt somit einerseits ein Mitte-Signal M und andererseits ein Seite- Signal S an. Das Mitte-Signal, das als Monosignal verwendet werden kann, wird mittels eines ersten Codierers/Decodierers 402 codiert und wieder decodiert, wobei das codierte Mono­ signal M in den Bitstrom geschrieben wird, wie es bereits mehrfach erwähnt wurde. Dem Codierer/Decodierer 402 nach­ geschaltet ist eine Summationseinrichtung 404, welche die Differenz zwischen dem codierten/decodierten Monosignal und dem ursprünglichen Monosignal M bildet, wobei diese Dif­ ferenz als M' bezeichnet ist. Die Signale L', M', S und R' können wieder einer Joint-Stereo-Entscheidungseinrichtung zugeführt werden, welche allerdings in Fig. 4 nicht dar­ gestellt ist.
Der in Fig. 4 vorgestellte Codierer 400 arbeitet somit vollständig im Frequenzbereich, wobei der Codierer/Deco­ dierer 402 vorzugsweise als Frequenzbereichscodierer mit voller Abtastrate ausgeführt ist. Der Stereocodierer (nicht gezeigt) nach der IS-Entscheidungsstufe (ebenfalls in Fig. 4 nicht gezeigt) ist vorzugsweise ebenfalls als Frequenzbe­ reichscodierer mit voller Abtastrate ausgeführt. Der in Fig. 4 dargestellt skalierbare Stereocodierer stellt somit eine Verallgemeinerung des Begriffs "Skalierbarkeit" dar, da der Bitstrom hier keine Schichten oder "Layers" mit unterschied­ lichen Audiobandbreiten sondern (ebenso wie die anderen Aus­ führungsbeispiele) einen Monolayer und einen Stereolayer um­ faßt, welche durch einen Codierer getrennt voneinander co­ diert werden können. Ein älterer Monodecodierer, der nicht für einen Stereobetrieb ausgestattet ist, kann somit bei­ spielsweise den Bitstrom der erfindungsgemäßen Codierer decodieren, um zumindest ein Monoaudiosignal zu erzeugen. Die erfindungsgemäßen skalierbaren Stereocodierer sind somit zu bestehenden Monodecodierern rückwärtskompatibel.

Claims (14)

1. Verfahren zum Codieren eines zeitdiskreten Stereo­ signals, wobei das Stereosignal einen ersten und einen zweiten Kanal (L, R) aufweist, mit folgenden Schritten:
  • a) Bilden eines Monosignals (M) aus dem Stereosignal;
  • b) Codieren des Monosignals und Übertragen des codier­ ten Monosignals in einen Bitstrom;
  • c) Decodieren des codierten Monosignals;
  • d) Bilden von Stereoinformationen unter Verwendung des codierten/decodierten Monosignals (M') und des er­ sten und zweiten Kanals (L, R) unter Berücksichti­ gung der Codiereffizienz; und
  • e) Codieren der Stereoinformationen und Übertragen der­ selben in den Bitstrom.
2. Verfahren nach Anspruch 1, bei dem das zeitdiskrete Ste­ reosignal eine erste Abtastrate aufweist, wobei der Schritt (a) folgende Teilschritte aufweist:
  • 1. abtastwertweises Summieren des linken und des rechten Kanals (L, R) um ein Summensignal zu erhalten; und
  • 2. Umsetzen des Summensignals auf eine zweite Ab­ tastrate, die kleiner als die erste Abtastrate ist, um das Monosignal zu erhalten; und
bei dem der Schritt (c) folgende Teilschritte aufweist:
  • 1. Decodieren des codierten Monosignals, das die zweite Abtastrate aufweist; und
  • 2. Umsetzen des codierten/decodierten Monosignals auf die erste Abtastrate.
3. Verfahren nach einem der vorhergehenden Ansprüche, das ferner folgenden Schritt aufweist: Transformieren des linken und des rechten Kanals und des codierten/decodierten Monosignals in den Frequenzbe­ reich, wobei die transformierten Signale alle eine im wesentlichen gleiche Zeit- und Frequenzauflösung auf­ weisen.
4. Verfahren nach Anspruch 3, bei dem der Schritt (d) fol­ gende Teilschritte aufweist:
  • 1. frequenzselektives Vergleichen des transformierten linken Kanals mit der Differenz aus dem transfor­ mierten linken Kanal und dem transformierten co­ dierten/decodierten Monosignal und Auswählen des Signals, das die kleinere gehörmäßige Entropie oder die kleinere Energie hat oder mit einer ge­ ringeren Bitzahl codierbar ist;
  • 2. frequenzselektives Vergleichen des transformierten rechten Kanals mit der Differenz aus dem transfor­ mierten rechten Kanal und dem transformierten co­ dierten/decodierten Monosignal und Auswählen des Signals, das die kleinere gehörmäßige Entropie oder die kleinere Energie hat oder mit einer ge­ ringeren Bitzahl codierbar ist;
  • 3. Summieren der in den Schritten (d41) und (d42) ausgewählten Signale, um als erste Stereoinfor­ mationen ein Mitte-Signal (M) zu erhalten; und
  • 4. Subtrahieren des in dem Schritt (d42) ausgewählten Signals von dem in dem Schritt (d41) ausgewählten Signal, um als zweite Stereoinformationen ein Sei­ te-Signal (S) zu erhalten.
5. Verfahren nach Anspruch 3, bei dem der Schritt (d) fol­ gende Teilschritte aufweist:
  • 1. Summieren des transformierten linken Kanals (L) und des transformierten rechten Kanals (R), um ein Mitte-Signal (M) zu erhalten; und
  • 2. Subtrahieren des transformierten rechten Kanals (R) von dem transformierten linken Kanal (L), um ein Seite-Signal (S) zu erhalten.
6. Verfahren nach Anspruch 5, bei dem der Schritt (d) fer­ ner folgende Teilschritte aufweist:
  • 1. frequenzselektives Vergleichen des transformierten codierten/decodierten Monosignals (M') mit der Differenz aus dem Mitte-Signal (M) und dem codier­ ten/decodierten Monosignal (M') und Auswählen des Signals mit der kleineren Energie;
  • 2. frequenzselektives Vergleichen des linken Kanals mit der Differenz aus dem linken Kanal (L) und dem transformierten codierten/decodierten Monosignal (M') und Auswählen des Signals mit der kleineren Energie; und
  • 3. frequenzselektives Vergleichen des rechten Kanals mit der Differenz aus dem rechten Kanal (R) und dem transformierten codierten/decodierten Monosi­ gnal (M') und Auswählen des Signals mit der klei­ neren Energie.
7. Verfahren nach Anspruch 6, bei dem der Schritt (d) fer­ ner folgenden Teilschritt aufweist:
  • 1. Entscheiden, ob als erste und zweite Stereoinfor­ mationen die Ergebnisse der Schritte (d61) und (d52), d. h. eine Mitte/Seite-Codierung, bzw. die Ergebnisse der Schritte (d62) und (d63), d. h. ei­ ne Links/Rechts-Codierung, verwendet werden.
8. Verfahren nach Anspruch 7, bei dem der Schritt (d) vor dem Schritt (d71) ferner folgenden Teilschritt aufweist:
  • 1. Halbieren der Ergebnisse der Schritte (d61) und (d52).
9. Verfahren nach Anspruch 7 oder 8, bei dem der Schritt (d) ferner folgenden Teilschritt aufweist:
  • 1. falls in den Schritten (d71) die Ergebnisse der Schritte (d62) und (d63) als erste und zweite Ste­ reoinformationen verwendet werden, Übertragen von Seiteninformationen, die entweder auf das Ergebnis des Schritts (d62) oder des Schritts (d63) hinwei­ sen, sonst, Übertragen von Seiteninformationen, die auf das Ergebnis des Schritts (d61) hinweisen.
10. Verfahren nach einem der Ansprüche 1-5, bei dem der Schritt (d) ferner folgende Teilschritte aufweist:
  • 1. frequenzselektives Vergleichen des Mitte-Signals (M) mit der Differenz aus dem Mitte-Signal (M) und dem transformierten codierten/decodierten Mo­ nosignal (M') und Auswählen des Signals mit der kleineren Energie als weiteres Monosignal;
bei dem der Schritt (b) ferner folgenden Schritt auf­ weist:
  • 1. Codieren des weiteren Monosignals (M") und Über­ tragen des codierten weiteren Monosignals in den Bitstrom; und
  • 2. Decodieren des codierten weiteren Monosignals.
11. Verfahren nach Anspruch 10, bei dem der Schritt (d) folgende Teilschritte aufweist:
  • 1. Subtrahieren des codierten/decodierten weiteren Monosignals (M") von dem Mitte-Signal (M);
  • 2. frequenzselektives Vergleichen des transformier­ ten linken Kanals (L) mit der Differenz des lin­ ken Kanals und dem Ergebnis des Schritts (d111) und Auswählen des Signals mit der kleineren Ener­ gie;
  • 3. frequenzselektives Vergleichen des transformier­ ten linken Kanals (L) mit der Differenz des rech­ ten Kanals und dem Ergebnis des Schritts (d111) und Auswählen des Signals mit der kleineren Ener­ gie; und
  • 4. Entscheiden, ob als erste und zweite Stereoinfor­ mationen die Ergebnisse der Schritte (d111) (M''') und (d52) (S) bzw. die Ergebnisse der Schritte (d112) (L') und (d113) (R') verwendet werden.
12. Verfahren nach Anspruch 1, bei dem vor dem Schritt (a) der linke und der rechte Kanal in den Frequenzbereich transformiert werden, wobei der Schritt (a) folgenden Teilschritt aufweist:
  • 1. spektralwertweises Summieren des transformierten linken und rechten Kanals, um das Monosignal (M) zu erhalten.
13. Verfahren nach Anspruch 12, bei dem der Schritt (d) fol­ gende Teilschritte aufweist:
  • 1. Subtrahieren des codierten/decodierten Mono­ signals von dem Monosignal (M);
  • 2. Subtrahieren des transformierten rechten Kanals (R) von dem transformierten linken Kanal (L), um ein transformiertes Seite-Signal (S) zu erhalten;
  • 3. spektralwertweises Vergleichen des transformier­ ten linken Signals (L) mit der Differenz aus dem transformierten linken Signal (L) und dem Ergeb­ nis des Schrittes (d131) und Auswählen des Signals mit kleinerer Energie;
  • 4. spektralwertweises Vergleichen des transformier­ ten rechten Signals (R) mit der Differenz aus dem transformierten rechten Signal und dem Ergebnis des Schritts (d131) und Auswählen des Signals mit kleinerer Energie; und
  • 5. Entscheiden, ob als erste und zweite Stereoin­ formationen die Ergebnisse der Schritte (d133) (L') und (d134) (R') oder die Ergebnisse der Schritte (d131) (M') und (d132) (S) verwendet werden.
14. Vorrichtung (100; 200; 300; 400) zum Codieren eines zeitdiskreten Stereosignals, wobei das Stereosignal einen ersten und einen zweiten Kanal (R, L) aufweist, mit folgenden Merkmalen:
  • a) einer Einrichtung (102, 104; 202a) zum Bilden eines Monosignals aus dem Stereosignal;
  • b) einer Einrichtung (108; 402) zum Codieren des Mono­ signals und zum Übertragen des codierten Monosignals in einen Bitstrom;
  • c) einer Einrichtung (108; 402) zum Decodieren des co­ dierten Monosignals;
  • d) einer Einrichtung (116, 118a, 118b, 120a, 120b, 122a, 122b; 202a, 202b, 204, 208; 214a, 214b; 302, 304; 402, 404) zum Bilden von Stereoinformationen unter Verwendung des codierten/decodierten Monosi­ gnals (M') und des ersten und zweiten Kanals (L, R) unter Berücksichtigung der Codiereffizienz; und
  • e) einer Einrichtung (124, 126; 210) zum Codieren der Stereoinformationen und zum Übertragen derselben in den Bitstrom.
DE19742655A 1997-09-26 1997-09-26 Verfahren und Vorrichtung zum Codieren eines zeitdiskreten Stereosignals Expired - Lifetime DE19742655C2 (de)

Priority Applications (8)

Application Number Priority Date Filing Date Title
DE19742655A DE19742655C2 (de) 1997-09-26 1997-09-26 Verfahren und Vorrichtung zum Codieren eines zeitdiskreten Stereosignals
AT98932156T ATE205041T1 (de) 1997-09-26 1998-06-15 Verfahren und vorrichtung zum codieren eines zeitdiskreten stereosignals
US09/445,894 US6629078B1 (en) 1997-09-26 1998-06-15 Apparatus and method of coding a mono signal and stereo information
ES98932156T ES2161059T3 (es) 1997-09-26 1998-06-15 Procedimiento y dispositivo para codificar una señal estereo temporalmente discreta.
EP98932156A EP1016319B1 (de) 1997-09-26 1998-06-15 Verfahren und vorrichtung zum codieren eines zeitdiskreten stereosignals
DK98932156T DK1016319T3 (da) 1997-09-26 1998-06-15 Fremgangsmåde og indretning til kodning af et tidsdiskret stereosignal
DE59801343T DE59801343D1 (de) 1997-09-26 1998-06-15 Verfahren und vorrichtung zum codieren eines zeitdiskreten stereosignals
PCT/EP1998/003605 WO1999017587A1 (de) 1997-09-26 1998-06-15 Verfahren und vorrichtung zum codieren eines zeitdiskreten stereosignals

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE19742655A DE19742655C2 (de) 1997-09-26 1997-09-26 Verfahren und Vorrichtung zum Codieren eines zeitdiskreten Stereosignals

Publications (2)

Publication Number Publication Date
DE19742655A1 DE19742655A1 (de) 1999-04-22
DE19742655C2 true DE19742655C2 (de) 1999-08-05

Family

ID=7843796

Family Applications (2)

Application Number Title Priority Date Filing Date
DE19742655A Expired - Lifetime DE19742655C2 (de) 1997-09-26 1997-09-26 Verfahren und Vorrichtung zum Codieren eines zeitdiskreten Stereosignals
DE59801343T Expired - Lifetime DE59801343D1 (de) 1997-09-26 1998-06-15 Verfahren und vorrichtung zum codieren eines zeitdiskreten stereosignals

Family Applications After (1)

Application Number Title Priority Date Filing Date
DE59801343T Expired - Lifetime DE59801343D1 (de) 1997-09-26 1998-06-15 Verfahren und vorrichtung zum codieren eines zeitdiskreten stereosignals

Country Status (7)

Country Link
US (1) US6629078B1 (de)
EP (1) EP1016319B1 (de)
AT (1) ATE205041T1 (de)
DE (2) DE19742655C2 (de)
DK (1) DK1016319T3 (de)
ES (1) ES2161059T3 (de)
WO (1) WO1999017587A1 (de)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1233556A1 (de) * 2001-02-16 2002-08-21 Sony International (Europe) GmbH Empfänger für den Empfang von Rundfunksignalen mit Verwendung von zwei Empfängern, für den Empfang eines Rundfunksignals das auf zwei unterschiedlichen Rundfunkfrequenzen oder mit zwei unterschiedlichen Übertragungssystemen übertragen wird
AU2003274520A1 (en) * 2002-11-28 2004-06-18 Koninklijke Philips Electronics N.V. Coding an audio signal
CN1765153A (zh) * 2003-03-24 2006-04-26 皇家飞利浦电子股份有限公司 表示多信道信号的主和副信号的编码
EP1801782A4 (de) * 2004-09-28 2008-09-24 Matsushita Electric Ind Co Ltd Vorrichtung und verfahren zur skalierbaren codierung
CN101031960A (zh) * 2004-09-30 2007-09-05 松下电器产业株式会社 可扩展性编码装置和可扩展性解码装置及其方法
EP1818911B1 (de) * 2004-12-27 2012-02-08 Panasonic Corporation Tonkodierungsvorrichtung und tonkodierungsmethode
US7797162B2 (en) * 2004-12-28 2010-09-14 Panasonic Corporation Audio encoding device and audio encoding method
WO2006070760A1 (ja) * 2004-12-28 2006-07-06 Matsushita Electric Industrial Co., Ltd. スケーラブル符号化装置およびスケーラブル符号化方法
JP4907522B2 (ja) * 2005-04-28 2012-03-28 パナソニック株式会社 音声符号化装置および音声符号化方法
US8433581B2 (en) * 2005-04-28 2013-04-30 Panasonic Corporation Audio encoding device and audio encoding method
WO2007116809A1 (ja) * 2006-03-31 2007-10-18 Matsushita Electric Industrial Co., Ltd. ステレオ音声符号化装置、ステレオ音声復号装置、およびこれらの方法
EP2048658B1 (de) * 2006-08-04 2013-10-09 Panasonic Corporation Stereoaudio-kodierungseinrichtung, stereoaudio-dekodierungseinrichtung und verfahren dafür
US9009032B2 (en) * 2006-11-09 2015-04-14 Broadcom Corporation Method and system for performing sample rate conversion
US8218775B2 (en) * 2007-09-19 2012-07-10 Telefonaktiebolaget L M Ericsson (Publ) Joint enhancement of multi-channel audio
US8352249B2 (en) * 2007-11-01 2013-01-08 Panasonic Corporation Encoding device, decoding device, and method thereof
CN102177542B (zh) * 2008-10-10 2013-01-09 艾利森电话股份有限公司 能量保留多通道音频编码
BR122019023947B1 (pt) * 2009-03-17 2021-04-06 Dolby International Ab Sistema codificador, sistema decodificador, método para codificar um sinal estéreo para um sinal de fluxo de bits e método para decodificar um sinal de fluxo de bits para um sinal estéreo
JP5333257B2 (ja) * 2010-01-20 2013-11-06 富士通株式会社 符号化装置、符号化システムおよび符号化方法
MX2013003782A (es) * 2010-10-06 2013-10-03 Fraunhofer Ges Forschung Aparato y metodo para procesar una señal de audio y para otorgar una mayor granularidad temporal para un codificador-decodificador combinado y unificado de voz y audio (usac).
EP2544466A1 (de) * 2011-07-05 2013-01-09 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren und Vorrichtung zur Zerlegung einer Stereoaufzeichnung mittels Frequenzdomänenverarbeitung unter Verwendung eines spektralen Subtrahieres
TWI557727B (zh) 2013-04-05 2016-11-11 杜比國際公司 音訊處理系統、多媒體處理系統、處理音訊位元流的方法以及電腦程式產品
ES2641538T3 (es) 2013-09-12 2017-11-10 Dolby International Ab Codificación de contenido de audio multicanal

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4217276C1 (de) * 1992-05-25 1993-04-08 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung Ev, 8000 Muenchen, De
DE4331376C1 (de) * 1993-09-15 1994-11-10 Fraunhofer Ges Forschung Verfahren zum Bestimmen der zu wählenden Codierungsart für die Codierung von wenigstens zwei Signalen
DE4345171C2 (de) * 1993-09-15 1996-02-01 Fraunhofer Ges Forschung Verfahren zum Bestimmen der zu wählenden Codierungsart für die Codierung von wenigstens zwei Signalen
DE19537338C1 (de) * 1995-10-06 1997-03-13 Fraunhofer Ges Forschung Verfahren und Vorrichtung zum Codieren von Audiosignalen

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2090052C (en) * 1992-03-02 1998-11-24 Anibal Joao De Sousa Ferreira Method and apparatus for the perceptual coding of audio signals
GB9206860D0 (en) * 1992-03-27 1992-05-13 British Telecomm Two-layer video coder
JP2693893B2 (ja) * 1992-03-30 1997-12-24 松下電器産業株式会社 ステレオ音声符号化方法
KR960012475B1 (ko) * 1994-01-18 1996-09-20 대우전자 주식회사 디지탈 오디오 부호화장치의 채널별 비트 할당 장치
DE4409368A1 (de) * 1994-03-18 1995-09-21 Fraunhofer Ges Forschung Verfahren zum Codieren mehrerer Audiosignale
US5852806A (en) * 1996-03-19 1998-12-22 Lucent Technologies Inc. Switched filterbank for use in audio signal coding
US6345246B1 (en) * 1997-02-05 2002-02-05 Nippon Telegraph And Telephone Corporation Apparatus and method for efficiently coding plural channels of an acoustic signal at low bit rates

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4217276C1 (de) * 1992-05-25 1993-04-08 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung Ev, 8000 Muenchen, De
DE4331376C1 (de) * 1993-09-15 1994-11-10 Fraunhofer Ges Forschung Verfahren zum Bestimmen der zu wählenden Codierungsart für die Codierung von wenigstens zwei Signalen
DE4345171C2 (de) * 1993-09-15 1996-02-01 Fraunhofer Ges Forschung Verfahren zum Bestimmen der zu wählenden Codierungsart für die Codierung von wenigstens zwei Signalen
DE19537338C1 (de) * 1995-10-06 1997-03-13 Fraunhofer Ges Forschung Verfahren und Vorrichtung zum Codieren von Audiosignalen

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
BRANDENBURG, K.: Entwicklung eines MPEG-4- Audio-Standards, In: Fernseh- und Kino-Technik, 50. Jg. 1996, Nr. 8+9, S. 452-454, 456, 458 *

Also Published As

Publication number Publication date
DE59801343D1 (de) 2001-10-04
ATE205041T1 (de) 2001-09-15
EP1016319A1 (de) 2000-07-05
US6629078B1 (en) 2003-09-30
DE19742655A1 (de) 1999-04-22
DK1016319T3 (da) 2001-10-08
ES2161059T3 (es) 2001-11-16
EP1016319B1 (de) 2001-08-29
WO1999017587A1 (de) 1999-04-08

Similar Documents

Publication Publication Date Title
DE19742655C2 (de) Verfahren und Vorrichtung zum Codieren eines zeitdiskreten Stereosignals
EP0910928B1 (de) Codieren und decodieren von audiosignalen unter verwendung von intensity-stereo und prädiktion
DE19628292B4 (de) Verfahren zum Codieren und Decodieren von Stereoaudiospektralwerten
DE19747132C2 (de) Verfahren und Vorrichtungen zum Codieren von Audiosignalen sowie Verfahren und Vorrichtungen zum Decodieren eines Bitstroms
EP0750811B1 (de) Verfahren zum codieren mehrerer audiosignale
DE10200653B4 (de) Skalierbarer Codierer, Verfahren zum Codieren, Decodierer und Verfahren zum Decodieren für einen skalierten Datenstrom
DE69533577T2 (de) Kodierungs- und/oder Dekodierungsverfahren eines digitalen Audiosignals
DE60310716T2 (de) System für die audiokodierung mit füllung von spektralen lücken
DE19537338C2 (de) Verfahren und Vorrichtung zum Codieren von Audiosignalen
DE602004005197T2 (de) Vorrichtung und verfahren zum kodieren eines audiosignals und vorrichtung und verfahren zum dekodieren eines kodierten audiosignals
DE60118553T2 (de) Verfahren und anordnung zur änderung der signalquellenbandbreite in einer telekommunikationsverbindung mit mehrfach-bandbreitenfähigkeit
DE60117471T2 (de) Breitband-signalübertragungssystem
DE19706516C1 (de) Verfahren und Vorricntungen zum Codieren von diskreten Signalen bzw. zum Decodieren von codierten diskreten Signalen
EP0414838A1 (de) Verfahren zur übertragung eines signals.
DE60124079T2 (de) Sprachverarbeitung
EP1023777B1 (de) Verfahren und vorrichtung zur erzeugung eines bitratenskalierbaren audio-datenstroms
EP1926082A1 (de) Verfahren zur skalierbaren Codierung von Stereo-Signalen
DE10102155A1 (de) Verfahren und Vorrichtung zum Erzeugen eines skalierbaren Datenstroms und Verfahren und Vorrichtung zum Decodieren eines skalierbaren Datenstroms
DE19829284C2 (de) Verfahren und Vorrichtung zum Verarbeiten eines zeitlichen Stereosignals und Verfahren und Vorrichtung zum Decodieren eines unter Verwendung einer Prädiktion über der Frequenz codierten Audiobitstroms
DE4004857A1 (de) Einrichtung zur bandbreitenreduzierenden codierung von videosignalen
DE3311647C2 (de) Verfahren zum Übertragen eines Zusatzsignals in einem stereofonen Nutzsignal
DE4239506A1 (de) Verfahren zur bitratenreduzierenden Quellcodierung für die Übertragung und Speicherung von digitalen Tonsignalen

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
D2 Grant after examination
8364 No opposition during term of opposition
R071 Expiry of right