-
Die
Erfindung betrifft die Übertragung
von Audio-Daten in einem Flugzeug nach dem Oberbegriff von Anspruch
1 bzw. Anspruch 9.
-
In
den Flugzeugen der neueren Generation wird als Basissystem ein digitales
Kabinenkommunikations- und Management-(Cabin Management Intercommunication
Data-)System installiert. Dieses CID-System steuert die Funktionen
in der Flugzeugkabine und zeigt Kabinenparameter für Passagiere und
Besatzung an. Dazu gehören
unter anderem die Kabinenbeleuchtung, Cockpit- und Kabinendurchsagen,
Türverschlussanzeige,
Notfallsignale, Nichtraucher- und Anschnallzeichen, Rauchmelder,
Kabinentemperatur, Wasser- und
Abfalltanks u. a. Das CID-System ist implementiert auf einem Zentralcomputer
(Director), der mit einer Schnittstelle (Director Interface Board),
einer oder mehreren Anzeige- und Eingabeeinheiten
für Crew-Mitglieder
(Flight Attendant Panel) und einem Datennetzwerk für die Übertragung
von Audiodaten verbunden ist. Das CID-System kann ohne großen Aufwand
so programmiert werden, dass individuelle Wünsche der Fluggesellschaften
Berücksichtigung
finden.
-
Daneben
gibt es ein eigenes System zur Unterhaltung von Passagieren, das
sogenannte In-flight-entertainment-(IFE-)System. Das IFE-System
beinhaltet alle Unterhaltungsmedien, die den Passagieren an Bord
eines Flugzeugs während
des Fluges zur Verfügung
stehen, d. h. e-Mail, Internet-Zugang und Computer-Anschlussmöglichkeiten am
Sitz. Das System umfasst insbesondere ein Breitbandnetz, Audio-Installationen
und Video-Installationen
oberhalb der Sitze mit oder ohne Programmwahl. Da das System auf
einem gemeinsamen Hauptbus (backbone) aufbaut, ist es in Bezug auf
Kombinationsmöglichkeiten
der Komponenten und Skalierbarkeit wie auch Erweiterbarkeit besonders
flexibel.
-
IFE-Systeme
werden heute in allen Großraumflugzeugen
angeboten. Lediglich kleinere Maschinen sind teilweise noch nicht
mit IFE-Systemen ausgestattet, und manche beschränken sich auf Audio-Medien.
Dabei spielt eine Rolle die Verfügbarkeit von
Stauraum für
die Komponenten und deren Gewicht.
-
In
Flugzeug-Kabinensystemen ist es erforderlich, dass zwischen dem
CID-System und dem IFE-System Audiokanäle für die Übertragung von Audio-Daten
zur Verfügung
stehen. Die Kanäle
dienen der Übertragung
von Musik, aktuellen Durchsagen und vorkonfigurierten Durchsagen.
Die Kanäle
müssen
in beiden Richtungen vorhanden sein. Die maximale Anzahl der Kanäle richtet
sich dabei nach der Anzahl möglicher
Kabinenzonen, die mit unterschiedlichen Audioinformationen versehen
werden sollen. Üblicherweise
werden die Schnittstellen der Audio-Kanäle im CID-System und im IFE-System
für die Übertragung
von bis zu acht Kanälen
gleichzeitig in jede Richtung ausgelegt. Neben der reinen Audioinformation
wird zusätzlich
pro Kanal eine Information über
die Aktivierung sowie die Priorität des jeweiligen Kanals übermittelt.
-
Im
Stand der Technik werden die Audiokanäle mittels einzelner analoger
Schnittstellen verwirklicht, und die zusätzlichen Informationen werden über Steuerleitungen
(sogenannte keylines) übertragen, die
als diskrete Verbindungen ausgeführt
sind. Das Format für
den Austausch von Daten ist in der ARINC-Norm 819 festgelegt. In
der ARINC-Norm 819 wird die Kodierung und die Übermittlung von Audiodaten über ein
digitales Netzwerk in einem zivilen Flugzeug beschrieben. Dem liegt
die Bestrebung zugrunde, den Umfang von Spezialverkabelung zu reduzieren
und damit auch Systemkosten und Wartungsaufwand, indem eine begrenzte
Anzahl von Audio-Schnittstellen standardmäßig im Flugzeug vorgesehen
wird. Die ARINC-Norm 819 beschreibt zudem ein verbessertes Verfahren
zur Verteilung von Audiokanälen
unter Einsatz einer digitalen Audio-Schnittstelle nach dem AES-3-Protokoll, bei
der die analogen Busse durch Digitalbusse ersetzt werden.
-
Das
AES-3-Protokoll regelt die serielle digitale Übertragung von periodisch abgetasteten
und gleichförmig
quantisierten Audio-Signalen über
zwei Kanäle
auf einem abgeschirmten, verdrillten Kabel. Die Übertragungsrate ist so gewählt, dass
die Abtastwerte der Audio-Daten, jeweils einer pro Kanal, in einer
Abtastperiode im Zeitmultiplex übertragen
werden. Es können
sowohl Nutzer- und Schnittstellen-bezogene Daten als auch Taktgeber-Daten übertragen
werden, die zum Editieren und anderen Zwecken dienen.
-
Darüber hinaus
sind Verfahren bekannt, die mehrere AES-3-Kanäle im Zeitmultiplex-(time division multiplex
access-, TDMA-)Verfahren auf ein einzelnes physikalisches Medium
abbilden. Ein Beispiel hierfür
ist der Multichannel Audio Digital Interface-(MADI-) bzw. AES-10-Standard.
Ursprünglich wurde
bei diesem MADI-Standard die serielle Übertragung von 28 AES/EBU-Frames
(56 Audio-Kanäle) mit
einer Auflösung
von 24 bits bei Sampling-Frequenzen von 44,1 kHz bzw. 48 kHz geregelt.
In der jüngsten
Version des MADI-Standards hat sich die Kanalanzahl auf 32 AES/EBU-Signale
(64 Audio-Kanäle)
bei Sampling-Raten von bis zu 96 kHz bzw. 192 kHz erhöht. Übertragungsmedien
sind Koaxialkabel mit einer maximalen Länge von 100 m (75 Ohm) oder Lichtwellenleiter/Glasfaser
mit einer maximalen Länge
von 2000 m (62,5/125 μm).
-
Alle
Verfahren benötigen
pro Doppelkanal einen AES-3-Kodierer. Bei der Bündelung von mehreren AES-3-Kanälen nach
dem MADI-Standard auf einem physikalischen Medium kommt noch ein
entsprechender Aufwand hinzu, um ein "Tunneling" mehrerer Kanäle zu ermöglichen.
-
Aufgabe
der Erfindung ist es daher, ein System zu schaffen und ein Verfahren
anzugeben, mit dem die Übertragung
von Audiodaten und zugehöriger
Informationen unter Einsatz handelsüblicher Kodierbausteine mit
möglichst
geringem Aufwand durchführbar
ist. Mit anderen Worten, es sollen möglichst wenige Hardware-Einrichtungen
zum Einsatz kommen, um Gewicht und Kosten zu sparen.
-
Diese
Aufgabe wird gelöst
durch das System und Verfahren nach Anspruch 1 bzw. 9. Bevorzugte Ausführungsformen
der Erfindung sind Gegenstand der Unteransprüche.
-
Der
Erfindung liegen die folgenden Überlegungen
zugrunde. Es werden mehrere Audiokanäle auf einem physikalischen
Medium gebündelt,
jedoch anders als im Stand der Technik erfolgt die Bündelung
nicht erst anschließend
an eine Kodierung in das AES-3-Format,
sondern bereits vor der Kodierung in das AES-3-Format. Es wird jeweils
eine AES-3-Schnittstelle für
ein physikalisches Medium pro Übertragungsrichtung
verwendet. Damit umgeht man den Aufwand, der für eine Bündelung von mehreren AES-3-Kanälen auf
einem Medium beispielsweise nach dem MADI-Standard notwendig wäre.
-
Das
erfindungsgemäße kombinierte
Kabinenmanagementsystem in einem Flugzeug mit einem Unterhaltungssystem
zum Wiedergeben von Unterhaltungsprogrammen und Herstellen von Kommunikationsmöglichkeiten
für Passagiere
in dem Flugzeug, das mit mehreren ersten Audio-Datenquellen zum
Speichern und/oder Aufnehmen von Audio-Daten und mit mehreren ersten
Audio-Wiedergabeeinrichtungen zum Wiedergeben von Audio-Daten verbunden ist,
einem
Steuerungssystem zum Einstellen und Anzeigen von Kabinenparametern
durch Crew-Mitglieder in dem Flugzeug, das mit mehreren zweiten
Audio-Datenquellen zum Speichern und/oder Aufnehmen von Audio-Daten
und mit mehreren zweiten Audio-Wiedergabeeinrichtungen
zum Wiedergeben von Audio-Daten verbunden ist, mehreren Audiokanälen in beiden
Richtungen zum Übertragen
von Audio-Daten als eine Folge von Datenpaketen zwischen dem Steuerungssystem
und dem Unterhaltungssystem mit jeweils einer Kodierereinrichtung
für eine
Aufwärtsübertragung
von Audio-Daten bzw. einer Dekodierereinrichtung für einen
Abwärtsempfang
von Audio-Daten und
jeweils einem zu einem Audio-Kanal gehörigen Informationskanal
zum Übertragen
von Kanalparametern des jeweiligen Audio-Kanals,
ist dadurch
gekennzeichnet, dass
die Kodierereinrichtung über einen
Multiplexer mit mehreren Audio-Datenquellen verbunden ist zum Verschachteln
der Audio-Signale von den mehreren Audio-Datenquellen zu einem Datenstrom
und
die Dekodierereinrichtung über einen Demultiplexer mit
mehreren Audio- Wiedergabeeinrichtungen verbunden ist zum Entpacken
des Datenstroms in Audio-Signale für die mehreren Audio-Wiedergabeeinrichtungen,
wobei
die Audio-Daten zwischen der Kodierereinrichtung und der Dekodierereinrichtung
mit einer vorgegebenen Auflösung übertragen
werden.
-
Insbesondere
können
nicht nur zwei Audiokanäle
in einen Frame gepackt werden, sondern grundsätzlich können auch mehr als zwei Audiokanäle auf diese
Art nach dem AES-3-Format übertragen werden.
-
Bei
einer bevorzugten Ausführungsform
der Erfindung packt der Multiplexer jeweils einen Audiokanal in
einen Subframe und kodiert die Subframes paarweise zu jeweils einem
Datenframe. Damit wird erreicht, dass die von den Audio-Quellen
ankommenden Daten nicht umformatiert werden müssen, fehlende Bits werden
einfach mit 0 oder 1 gefüllt.
-
Bei
einer alternativen bevorzugten Ausführungsform der Erfindung packt
der Multiplexer jeweils zwei Audiokanäle paarweise in einen Subframe
und kodiert die Subframes paarweise zu jeweils einem Datenframe.
Damit wird erreicht, dass die Übertragungsrate
von Audiokanälen
verdoppelt wird. Dies wird damit erkauft, dass die von zwei Audio-Quellen ankommenden
Audio-Daten in ein Subframe eingebettet werden müssen, was einen etwas höheren Aufwand
erfordert als das einfache Auffüllen
mit konstanten Werten.
-
Insbesondere
werden bei dieser alternativen Ausführungsform durch den Multiplexer
die ungeraden Kanäle
jeweils in die 12 LSB's
und die geraden Kanäle
jeweils in die 12 MSB's
des Subframes gepackt. Es versteht sich jedoch, dass auch andere Schemata
zugrunde gelegt werden können.
-
Allgemein
wird der Multiplexer von einer Steuereinheit derart gesteuert, dass
die Codierung des ersten Kanals jeweils synchron zur Codierung des
ersten frames eines 192-frame-Pakets
erfolgt (sog. AES-3-Synchronisation). Auf diese Art ist die Zuordnung
von Audio-Quelle und Audio-Wiedergabeeinheit sehr einfach zu verwirklichen.
-
Vorzugsweise
sind die Audiodaten der einzelnen Datenquellen jeweils immer denselben
Datensenken zugeordnet, und der Multiplexer und der Demultiplexer
arbeiten jeweils ein vorgegebenes Schema ab.
-
Alternativ
kann die Kanalidentifizierung über den
Inhalt der Audio-Subframes erfolgen, d. h. z. B. über die
Codierung ansonsten nicht benutzter Bits des Audiodatenstroms. Als
weitere Alternative können
Steuer- und Synchronisationsdaten in einem vorgegebenen Subframe
eines Frames übertragen
werden.
-
Damit
erreicht man eine sehr flexible Kanalzuordnung.
-
Entsprechend
ist das erfindungsgemäße Verfahren
zum Übertragen
von Audio-Daten in einem kombinierten Kabinenmanagementsystem in
einem Flugzeug mit den Schritten:
Wiedergeben von Unterhaltungsprogrammen
und Herstellen von Kommunikationsmöglichkeiten für Passagiere
in dem Flugzeug mit einem Unterhaltungssystem, das mit mehreren
ersten Audio-Datenquellen zum Speichern und/oder Aufnehmen von Audio-Daten
und mit mehreren ersten Audio-Wiedergabeeinrichtungen zum Wiedergeben
von Audio-Daten verbunden
ist,
Einstellen und Anzeigen von Kabinenparametern durch Crew-Mitglieder
in dem Flugzeug mit einem Steuerungssystem, das mit mehreren zweiten
Audio-Datenquellen zum Speichern und/oder Aufnehmen von Audio-Daten
und mit mehreren zweiten Audio-Wiedergabeeinrichtungen
zum Wiedergeben von Audio-Daten verbunden ist,
Übertragen
von Audio-Daten als eine Folge von Datenpaketen zwischen dem Steuerungssystem
und dem Unterhaltungssystem mit mehreren Audiokanälen in beiden
Richtungen mit jeweils einer Kodierereinrichtung für eine Aufwärtsübertragung
von Audio-Daten
bzw. einer Dekodierereinrichtung für einen Abwärtsempfang von Audio-Daten
und Übertragen von
Kanalparametern des jeweiligen Audio-Kanals mit jeweils einem zu
einem Audio-Kanal gehörigen Informationskanal,
gekennzeichnet
durch
Verschachteln der Audio-Signale von den mehreren Audio-Datenquellen
zu einem Datenstrom durch einen Multiplexer, über den die Kodierereinrichtung
mit mehreren Audio-Datenquellen
verbunden ist, und
Entpacken des Datenstroms in Audio-Signale
für die mehreren
Audio-Wiedergabeeinrichtungen durch einen Demultiplexer, über den
die Dekodierereinrichtung mit mehreren Audio-Wiedergabeeinrichtungen verbunden
ist,
wobei die Audio-Daten zwischen der Kodierereinrichtung
und der Dekodierereinrichtung mit einer vorgegebenen Auflösung übertragen
werden.
-
Das
erfindungsgemäße Verfahren
hat außer den
bereits genannten u. a. die folgenden Vorteile: Es wird eine doppelte
Konvertierung von digital in analog und von analog in digital pro
Kanal vermieden. Ferner wird pro Übertragungsrichtung nur ein
AES-3-Kodierer und -Dekodierer eingesetzt, was eine bessere Ausnutzung
der Übertragungsbandbreite
des Mediums bedeutet. Darüber
hinaus wird die in der AES-3-Norm vorgesehene maximale Bitrate tatsächlich ausgenutzt.
-
Weitere
Merkmale und Vorteile der Erfindung ergeben sich aus der folgenden
Beschreibung von Ausführungsbeispielen
der Erfindung, bei der Bezug genommen wird auf die beigefügte Zeichnung.
-
1 zeigt
ein Blockschaltbild zur Übertragung
von Audio-Daten zwischen zwei Systemen nach dem AES-Protokoll gemäß einem
ersten Stand der Technik.
-
2 zeigt
ein Blockschaltbild zur Übertragung
von Audio-Daten zwischen zwei Systemen nach dem AES-Protokoll gemäß einem
zweiten Stand der Technik.
-
3 zeigt
ein Blockschaltbild zur Übertragung
von Audio-Daten zwischen zwei Systemen nach dem AES-Protokoll gemäß der Erfindung.
-
4 zeigt
schematisch die zeitliche Reihenfolge von Datenpaketen und Datenfolgen
bei einer ersten Ausführungsform
des erfindungsgemäßen Verfahrens.
-
5 zeigt
schematisch die zeitliche Reihenfolge von Datenpaketen und Datenfolgen
bei einer zweiten Ausführungsform
des erfindungsgemäßen Verfahrens.
-
Die Übertragung
der Daten über
einen Kanal erfolgt in den folgenden Beispielen nach dem AES-3-Protokoll.
Gemäß dem AES-3-Protokoll
werden über
die Übertragungsstrecke
Audio-Blöcke übertragen,
die jeweils 192 Frames enthalten. Jeder Frame besteht wiederum aus
2 Subframes. Pro Subframe wird neben einer Präambel pre ein Audiosample mit
16, 20 oder maximal 24 Bit Dynamik und mit 4 Informationsbits v
(validity), u (user), c (channel status), p (parity) übertragen.
In der Regel wird pro Frame mit den zwei Subframes ein Stereokanal übertragen.
Die üblichen
Abtastfrequenzen des Audiosignals betragen 32 kHz, 44,1 kHz, 48
kHz, 96 kHz und 192 kHz.
-
In 1 ist
ein Beispiel für
eine Übertragung von
Daten über
Datenleitungen nach diesem AES-Standard gezeigt. Ein erstes System 1 umfasst Audio-Datenquellen 3 mit
einer vorgegebenen Auflösung.
Diese Audio-Datenquellen 3 sind mit Q bezeichnet. Das System 1 ist
also insbesondere ein IFE-System mit Unterhaltungs- und Kommunikationseinrichtungen
für die
Passagiere. Die Audio-Daten dieser Quellen Q werden in einem AES-Kodierer 5 für die Übertragung über ein
separates, längeres Verbindungskabel 6 aufbereitet.
Auf der Gegenseite werden die Daten von einem zweiten System 2 entgegengenommen.
Das System 2 kann damit ein Steuerungssystem sein, wie
das oben beschriebene CID-System,
bei dem die Einstellung von Parametern des Flugzeugs gegenüber der
qualitativ hochwertigen Wiedergabe von Audio-Signalen im Vordergrund
steht. Die Daten werden zunächst
in einem AES-Dekodierer 7 wieder in eine geeignete Form
gebracht. Anschließend
werden die Daten an eine Audio-Wiedergabeeinrichtung 9 ausgegeben,
von der sie beispielsweise in Schall umgewandelt werden. Bei dem
Beispiel in 1 wird davon ausgegangen, dass
das System 1 drei Audio-Quellen umfasst und dass das System 2 ebenfalls
drei Audio-Wiedergabeeinrichtungen 9 umfasst. Dies ist
aus Gründen
der Übersichtlichkeit
so dargestellt, es versteht sich jedoch von selbst, dass die Anzahlen
der Quellen und Wiedergabeeinrichtungen auch unterschiedlich sein können.
-
Die Übertragung
von Audio-Daten ist nicht beschränkt
auf die Richtung von System 1 zu System 2. Selbstverständlich können auch
Daten in der umgekehrten Richtung vom System 2 zum System 1 mit einer
vorgegebenen Auflösung übertragen
werden. Die entsprechenden Audio-Quellen 8 im CID-System 2 werden
wiederum von AES-Kodierern 5 aufbereitet und dann über Übertragungskabel 6 zum
IFE-System 1 übertragen.
Dort werden sie von einem AES-Dekodierer 7 empfangen und
für die
Wiedergabe durch Wiedergabeeinheiten 4 in dem IFE-System 1 aufbereitet.
-
Der
in AES-3 festgelegte Bitstrom kann in anderen Schnittstellen-Protokollen
getunnelt werden, das heißt
das AES-3-Signal wird innerhalb des anderen Protokolls noch einmal
verpackt, und gegebenenfalls auch mehrfach gebündelt. Beispiele dafür sind MADI,
IEEE1394, AES50.
-
In 2 ist
eine Übertragung
mit Tunnelung gezeigt. Die Daten in dem IFE-System 1 haben
wieder eine bestimmte Auflösung.
Sie werden beim MADI-Protokoll wie bei dem obi gen Beispiel aus dem Stand
der Technik zunächst
in einem AES-Kodierer 5 aufbereitet. Anschließend werden
die AES-Frames von mehreren AES-Kodierern 5 durch einen
MADI-Controller 10 verschachtelt und mit einer u. U. sehr
viel höheren
Bandbreite über
die MADI-Verbindung 11 zum CID-System 2 übertragen.
Dort werden sie von einem entsprechenden MADI-Controller 10 empfangen,
der die einzelnen AES-Frames selektiert und an die jeweiligen AES-Dekodierer 7 weiterleitet. Die
AES-Dekodierer 7 bereiten die Audio-Daten wieder auf und geben sie an die
jeweiligen Wiedergabeeinheiten 9 aus. Für die Übertragung dieser Daten werden
die jedoch wieder nur die Bits mit der höchsten Wertigkeit berücksichtigt.
-
Entsprechend
werden Daten von Audio-Quellen in dem CID-System 2 zunächst wiederum
durch AES-Kodierer 5 aufbereitet bevor sie in einem MADI-Controller 10 gebündelt werden
und über eine
Verbindung 11 an das IFE-System 1 mit vorgegebener
Auflösung übermittelt
werden. Anschließend werden
die Daten den Wiedergabeeinheiten 4 in dem System 2 zugeleitet.
-
Während im
Stand der Technik nach 1 ein hoher Aufwand bezüglich der
bereitzustellenden Verbindungen betrieben werden muss, ist bei dem Stand
der Technik nach 2 eine hohe Bandbreite bei den
Verbindungen erforderlich. Die Vielzahl an Verbindungen im ersten
Fall bedeutet einen hohen mechanischen Aufwand und eine unerwünschte Gewichtszunahme,
die insbesondere bei Fahrzeugen und dort insbesondere bei Flugzeugen
einen großen Nachteil
darstellt. Im zweiten Fall sind die Anforderungen an die Verbindung
in puncto Bandbreite sehr hoch, und die Schnittstellen müssen entsprechen aufwendig
ausgelegt sein.
-
Mit
dem erfindungsgemäßen Ansatz
werden die Nachteile der beiden obigen Verfahren nach dem Stand
der Technik umgangen. Dies wird im folgenden anhand von 3 erläutert. Dabei
wird davon ausgegangen, dass die Übertragung von mindestens 8
Kanälen
in jede Richtung sowie eine Anzahl von Reservekanälen ("spares") für künftige Anwendungen
realisiert werden soll. Der Übersichtlichkeit
halber sind allerdings nur drei Audio-Quellen A1 bis A3 und drei Wiedergabeeinheiten
B1 bis B3 in beiden Systemen 1 und 2 dargestellt.
Die Audiodaten der Audio-Quellen 3 liegen bereits in digitaler
Form vor. Die Abtastrate beträgt
32 kSa/s pro Kanal, d. h. 32.000 Abtastwerte pro Kanal und Sekunde.
Die Auflösung
beträgt
bei jedem Audiokanal auf jeder Seite 12 Bit.
-
Erfindungsgemäß wird ein
digitaler Multiplexer 12 zwischen den Audio-Datenquellen 3 und
der AES-3-Kodiereinrichtung 5 verwendet, sowie ein digitaler
Demultiplexer 15 zwi schen der AES-3-Dekodiereinrichtung 7 und
den Audio-Wiedergabeeinrichtungen 9 als Audio-Datensenken.
Ein Komplettsystem, wie es in einem Passagier-Flugzeug benötigt wird,
umfasst jeweils zwei gegengleich angeordnete Einheiten, um die Audio-Übertragung
in beide Richtungen zu ermöglichen,
ist also analog wie in 1 und 2 gezeigt
aufgebaut.
-
Der
Multiplexer erzeugt an seinem Ausgang ein Signal, das mit dem Eingangssignal
des AES-Kodierers kompatibel ist. An den Eingängen des Multiplexers liegen
die digitalen Audiodaten der Audio-Quellen mit einer Abtastrate
von 32 kHz und einer Auflösung
von 12 Bit pro Kanal an.
-
Das
erfindungsgemäße kombinierte
Kabinenmanagementsystem umfasst darüber hinaus noch zwei Controller
C1 und C2 für
die Ansteuerung des Multiplexers 12 und der Demultiplexers 15 und ihre
Synchronisation mit bestimmten Controll-Bits. Der Multiplexer 12 wird
von der Steuereinheit C1 13 derart gesteuert, dass die
Daten des ersten Kanals genau mit dem ersten Bit U1 des AES-3-User-Bit-Datenkanals
synchronisiert sind, auf das weiter unten eingegangen wird. Das
User-Bit U1 wird in der User-Bit-Einheit 14 generiert.
Durch die Bezugnahme auf dieses User-Bit U1 wird die korrekte Zuordnung
der Audiokanäle
beim Empfänger
sichergestellt, was weiter unten in Bezug auf 4 erläutert wird.
-
Analog
wird ein Demultiplexer 15 auf der Empfängerseite 2 durch
den Controller 16 angesteuert. Die Dekodierung durch das
System auf der anderen Seite läuft
entsprechend ab. Der Demultiplexer DEMUX erhält an seinem Eingang ein Signal
des AES-3-Dekodierers, das nach dem umgekehrten Verfahren wie oben
beschrieben so aufbereitet wird, dass die Audiodaten in der Form
den Datensenken B1, B2, B3, ... zugeordnet und übermittelt werden, dass die
Audiodaten der einzelnen Datenquellen jeweils immer den selben Datensenken
zugeordnet sind, z. B. B1 = A1, B2 = A2, usw.. Dazu erhält die Steuereinheit
C2 ein Synchronisationssignal, das vom AES-3-Dekodierer erzeugt
wird und dem Frame-Start
des ersten Bits des User-Datenstroms entspricht.
-
Der
zeitliche Ablauf bei der Übertragung
der Daten wird im folgenden anhand von 4 und 5 erläutert. Wie
in 4 gezeigt kodiert der Multiplexer jeweils nacheinander
die Audiokanäle
paarweise zu einem AES-3-Datenframe. Wenn die Audio-Quelle eine
niedrigere Auflösung
von beispielsweise 12 Bit hat, werden die 12 Bit eines jeden Audiokanals
als Teil des 24 Bit langen Audiofeldes eines AES-3-Subframes 18 angesehen.
Zwei Subframes 18 werden zu einem Frame 22 (nach
dem AES-3-Protokoll) zusammengefügt,
und 12 Frames 22 werden wiederum zu einem "Superframe" 23 zusammengefügt, von
denen 16 einen Audio-Block bilden. Ein Subframe 18 setzt
sich dabei allgemein zusam men aus einer Präambel 19, die in 4 und 5 mit "pre" bezeichnet ist.
Dieser Präambel 19 folgen
die eigentlichen Audiodaten 20 mit einer Auflösung von
24 Bit. Schließlich
werden 4 Controll-Bits 21 übertragen, die mit "vucp" bezeichnet sind.
Diese Controll-Bits 21 stellen einen Informationskanal
dar, über
den Kanalparameter des jeweiligen Audio-Kanals übertragen werden.
-
Erfindungsgemäß wird das
User-Bit in den Controll-Bits 21 zum Kennzeichnen der Daten
herangezogen. In einer Ausführungsform
wird der Multiplexer MUX von der Steuereinheit C1 derart gesteuert, dass
die Daten des ersten Kanals genau mit dem ersten Bit U1 des AES-3-User-Bit-Datenkanals
synchronisiert sind. Damit wird die korrekte Zuordnung der Audiokanäle beim
Empfänger
sichergestellt.
-
Als
Alternative zu der Ausführungsform
in 4 ist eine Ausführungsform in 5 gezeigt,
bei der der Multiplexer jeweils zwei 12-Bit-Kanäle paarweise zu einem 24-bit
Datenwort eines AES-3-Subframe 24 zusammenfügt, wobei
hier jeweils die ungeraden Kanäle
in die 12 geringstwertigen Bits (least significant bits, LSBs) und
die geraden Kanäle
in die 12 höchstwertigen
(most significant bits, MSBs) kodiert werden. Die übrigen Felder
sind gleich zu denen in 4 und werden hier nicht weiter
erläutert.
Es versteht sich für
den Fachmann, dass die Zuordnung der Kanalnummern hier nur exemplarisch
gezeigt ist und dass ebenso gut eine beliebige andere Zuordnung möglich ist.
-
Die
beiden Subframes 24 werden wiederum zu einem Frame 22 zusammengefasst,
das nunmehr 4 Quellen überträgt. Beispielsweise
sind dies im ersten Frame die Quellen A1, A2, A3, A4. Im zweiten Frame
sind dies die Quellen A5, A6, A7, A8. Bei der Ausführungsform
nach 5 erreicht man so die doppelte Übertragungsrate.
Mit anderen Worten wird bei dieser Ausführungsform die notwendige Datenrate
um den Faktor 2 reduziert, was einen höheren maximalen Datendurchsatz
bedeutet. Hier ist dann allerdings keine nachträgliche Erhöhung der Sample-Auflösung (> 12 bit) mehr möglich.
-
Dies
lässt sich
verallgemeinern auf Fälle,
in denen die Auflösung
der Audio-Quellen beispielsweise nur 8 Bit statt 12 Bit beträgt. Dann
können
3 Quellen in einem AES-3-Subframe
zusammengefasst werden und bis zu 6 Quellen in einem Frame gebündelt werden.
-
In
beiden Fällen,
d. h. bei dem Verfahren nach 4 wie auch
bei dem Verfahren nach 5 können jeweils 4 Reservekanäle übertragen
werden. Die Anzahl der übertragenen
Zeitschlitze beträgt 12.288,
was im ersten Verfahren einer Bitrate des Übertragungskanals von 12,288
Mbit/s entspricht. Dabei arbeitet der Kodierer mit der maximalen
Audioabtastrate, die in der AES-3-Norm vorgesehen ist. Im zweiten
Verfahren beträgt
die Bitrate 6,144 Mbit/s.
-
Die
Dekodierung durch das System auf der anderen Seite läuft entsprechend
ab. Der Demultiplexer DEMUX erhält
an seinem Eingang ein Signal des AES-3-Dekodierers, das nach dem
umgekehrten Verfahren wie oben beschrieben so aufbereitet wird, dass
die Audiodaten in der Form den Datensenken B1, B2, B3, ... zugeordnet
und übermittelt
werden, dass die Audiodaten der einzelnen Datenquellen jeweils immer
den selben Datensenken zugeordnet sind, z. B. B1 = A1, B2 = A2,
usw.. Dazu erhält
die Steuereinheit C2 ein Synchronisationssignal, das vom AES-3-Dekodierer
erzeugt wird und dem Frame-Start
des ersten Bits des User-Datenstroms entspricht.
-
Es
versteht sich für
den Fachmann, dass die Erfindung nicht auf die oben beschriebenen
Ausführungsformen
beschränkt
ist. Unter anderem sind die folgenden Variationen denkbar: Die Anzahl
der Audiokanäle
kann entsprechend der gewünschten Übertragungskapazitäten gewählt werden.
Ebenso kann die Anzahl der Kanäle
pro AES-3-Kanal so gewählt werden,
dass eine optimale Auslastung des AES-3-Kanals gegeben ist. Grundsätzlich ist
eine Kanalidentifizierung über
den User-Bit-Datenstrom nicht unbedingt notwendig, und so kann die
Kanalidentifizierung durch Übertragung
von Steuerinformationen in den Audio-LSB's vorgenommen werden.
-
Daneben
ist die Möglichkeit
gegeben, die Kanalzuordnung extern zuzuordnen. Dazu ist in der Ausführungsform
nach 3 eine externe Synchronisationsleitung 25 vorgesehen, über die
Daten zwischen der ersten Steuereinheit 13 und der zweiten Steuereinheit 16 ausgetauscht
werden können.
Damit wird das Synchronisationssignal außerhalb der AES-3-Schnittstelle übertragen.
-
- 1
- erstes
Audio-System
- 2
- zweites
Audio-System
- 3
- Audio-Quelle
in erstem System
- 4
- Audio-Wiedergabeeinrichtung
resp. Audio-Datensenke in erstem System
- 5
- AES-Kodierer
- 6
- Übertragungskanal
- 7
- AES-Dekodierer
- 8
- Audio-Quelle
in zweitem System
- 9
- Audio-Wiedergabeeinrichtung
resp. Audio-Datensenke in zweitem System
- 10
- MADI-Controller
- 11
- MADI-Übertragungskanal
- 12
- Multiplexer
- 13
- erste
Steuereinheit
- 14
- erste
User-Bit-Einheit
- 15
- Demultiplexer
- 16
- zweite
Steuereinheit
- 17
- zweite
User-Bit-Einheit
- 18
- Subframe
mit 24 Bit Audio-Daten aus einer Quelle
- 19
- Präambel
- 20
- Audiodaten
- 21
- Informationsfeld
- 22
- Frame
- 23
- Super-Frame
- 24
- Subframe
mit 2 × 12
Bit Audio-Daten aus zwei Quellen
- 25
- externe
Synchronisationsleitung