-
Die vorliegende Erfindung betrifft ein Verfahren zum Rekonstruieren eines ersten Signales und eines zweiten Signales durch einen gemeinsamen Empfänger. Die vorliegende Erfindung betrifft darüber hinaus eine entsprechende Vorrichtung, ein entsprechendes Computerprogramm sowie ein entsprechendes Speichermedium.
-
Stand der Technik
-
Auf dem Gebiet der Informationstheorie wird die Komprimierung von mehreren korrelierten Informationsquellen, die nicht miteinander kommunizieren, als verteilte Quellencodierung (distributed source coding, DSC) bezeichnet. Durch die Modellierung der Korrelation zwischen mehreren Quellen unter Nutzung von Kanalcodes wird DSC nach dem Stand der Technik beispielsweise in Sensornetzwerken oder zur Komprimierung von Multimedia-Inhalten genutzt. Eine der Haupteigenschaften verteilter Quellencodierung ist darin zu sehen, dass ein gemeinsamer Decoder die Sender weitmöglichst entlastet.
-
Ein Verfahren zum Realisieren eines Wyner-Ziv-Codierers gemäß
US7256716B2 etwa umfasst das Anwenden einer verschachtelten Quantisierung auf die einer Informationsquelle entstammenden Eingabedaten, um Zwischendaten zu erzeugen, die unter Verwendung eines asymmetrischen Slepian-Wolf-Codierers codiert werden, um komprimierte Ausgabedaten zu erzeugen, die die Eingabedaten darstellen. In ähnlicher Weise kann ein Wyner-Ziv-Decoder durch Anwenden eines asymmetrischen Slepian-Wolf-Decoders auf komprimierte Eingangsdaten (die Abtastwerte einer Quelle darstellen) zum Erhalten von Zwischenwerten und deren gemeinsamer Decodierung unter Verwendung von Seiteninformationen - insbesondere Abtastwerten einer zweiten Quelle mit bekannter Korrelation zur ersten Quelle - umgesetzt werden.
-
US7653867B2 offenbart ein System und Verfahren zur Slepian-Wolf-Codierung mit Channel-Code-Partitionierung. Eine Generatormatrix wird partitioniert, um mehrere Untermatrizen zu erzeugen, die jeweils mehreren korrelierten Datenquellen entsprechen. Die Aufteilung erfolgt gemäß einer Ratenzuordnung unter den korrelierten Datenquellen. Entsprechende Paritätsmatrizen können jeweils aus den Untermatrizen erzeugt werden, wobei jede Paritätsmatrix dazu verwendet werden kann, korrelierte Daten für eine jeweilige korrelierte Datenquelle zu codieren, was zu entsprechenden Syndromen, z. B. in Form von binären Vektoren, führt. Ein gemeinsamer Empfänger kann diese Syndrome empfangen und sie auf eine gemeinsame Länge erweitern, indem er in geeigneter Weise Nullen einfügt. Die erweiterten Syndrome können vektorsummiert und eine einzelne Kanaldecodierung angewendet werden, um das nächstkommende Codewort zu bestimmen, dessen systematischer Anteil stückweise mit jeweiligen Untermatrizen der Generatormatrix multipliziert werden kann, wobei die Produkte zur Erstellung von Schätzungen der Quelldaten zu den jeweiligen erweiterten Syndromen hinzugefügt werden können.
-
Offenbarung der Erfindung
-
Die Erfindung stellt ein Verfahren zum Rekonstruieren eines ersten Signales und eines zweiten Signales durch einen gemeinsamen Empfänger, eine entsprechende Vorrichtung, ein entsprechendes Computerprogramm sowie ein entsprechendes Speichermedium gemäß den unabhängigen Ansprüchen bereit.
-
Ein Grundgedanke des vorgeschlagenen Verfahren besteht hierbei darin, ein einfach anzuwendendes und vielfältig einsetzbares DSC-Schemas auf praktische Weise zu implementieren, das für die Komprimierung von zwei (korrelierten) Quellen kontinuierlicher oder mit hoher Bitrate quantisierter Werte unter Verwendung einer willkürlichen Kompressionsratenaufteilung genutzt werden kann.
-
Zu diesem Zweck werden die Daten zweier Sensoren gemeinsam komprimiert, wozu keine Kommunikation zwischen den Sensoren erforderlich ist. Beide Sensoren codieren ihre Daten hierbei unter Verwendung eines beliebigen, aber bekannten Vorwärtsfehlerkorrektur-Codierers. Sie punktieren ihre jeweilige Ausgabe, um eine Komprimierung ihrer Übertragungsdatenrate zu erreichen. Der Decoder iteriert zwischen der fehlerkorrigierenden Soft-Value-Decodierung beider Quellendaten und tauscht hierzu extrinsische Informationen aus, die nach geringfügiger Modifikation (25, 26) durch den jeweils anderen Decoder als A-priori-Informationen Verwendung finden.
-
Ein Vorzug dieser Lösung liegt in der Schaffung einer Alternative zu bekannten DSC-Schemata, die auf Trellis-codierter Quantisierung basieren. Darüber hinaus kann ihre Gestaltung leicht an die aktuelle Korrelation der Quelle abgestimmt werden, indem lediglich das Punktierungsmuster angepasst wird. Auf diese Weise wird ein effizientes, adaptives System ohne erhöhte Hardwareanforderungen ermöglicht.
-
Durch die in den abhängigen Ansprüchen aufgeführten Maßnahmen sind vorteilhafte Weiterbildungen und Verbesserungen des im unabhängigen Anspruch angegebenen Grundgedankens möglich. Ferner kann vorgesehen sein, dass der A-priori-Eingang des ersten Decoders mit den entpunktierten, entschachtelten, systematischen Bits des zweiten Signales initialisiert wird, die gemäß dem nachfolgend vorgestellten Schema modifiziert wurden. Alternativ kann dieser Eingang dem herkömmlichen Kanaleingang, dem entpunktierten systematischen Biteingang des ersten Signales, hinzugefügt werden. Dies gilt analog für den Eingang des zweiten Decoders. Als besonders vorteilhafte Option, die ein leistungsstarkes Schema ermöglicht, könnte der zweite Codierer systematisch und die nicht verschränkten (systematischen) Bits derart punktiert sein, dass das Punktierungsschema jenes des ersten Codierers ergänzt. Der Codierer-Ausgang sollte in diesem Fall nur die Paritätsbits enthalten, die dann getrennt punktiert werden. Diese zwei Optionen können überdies auf bereits bekannte binäre Systeme übertragen werden, um deren Leistung zu verbessern.
-
Figurenliste
-
Ausführungsbeispiele der Erfindung sind in den Zeichnungen dargestellt und in der nachfolgenden Beschreibung näher erläutert. Es zeigt:
- 1 das Flussdiagramm eines Verfahrens gemäß einer ersten Ausführungsform.
- 2 ein DSC-System gemäß einer zweiten Ausführungsform.
- 3 einschlägige Simulationsergebnisse.
-
Ausführungsformen der Erfindung
-
1 illustriert den grundlegenden Ablauf eines erfindungsgemäßen Verfahrens (10), dessen Schritte nunmehr anhand des Systems (20) der 2 erläutert seien.
-
Wie bei jedem praktischen DSC-Schema beruht das vorgeschlagene Verfahren (
10) hierbei auf der Dualität zwischen DSC und Fehlerkorrekturcodierung, die im Folgenden zusammengefasst werden. Da die Signale X der Quelle S
1 und Y der Quelle S
2 miteinander korreliert sind, kann ihre Beziehung durch die Gleichung
ausgedrückt werden, wobei E einen additiven Fehler bezeichnet.
-
Für binäre Quellen kann E als Bitfolge betrachtet werden, wobei Formel 1 die Übertragung von X durch einen „virtuellen“ Kanal mit dem Ausgang Y und dem additiven Fehler E beschreibt. Sofern die Verteilung von E statistisch unabhängig und gleichmäßig mit der Wahrscheinlichkeit p ist, wird der virtuelle Kanal durch einen binären symmetrischen Kanal (binary symmetrie channel, BSC) mit der Übergangswahrscheinlichkeit p beschrieben. Für kontinuierlich-wertige Quellen kann ein ähnlicher virtueller Kanal mit E als additivem weißen Gaußschen Rauschen abgeleitet werden.
-
In jedem Fall kann Y, wenn es empfangen wird, unter Verwendung von Fehlerkorrekturcodes auf Grundlage von X decodiert werden. Im Fall von DSC bedeutet dies, dass Y mit voller Datenrate und dann gerade so viel Information über X übertragen wird wie erforderlich. Diese Datenmenge wird durch die bedingte Entropie H(X|Y) definiert, die im ungünstigsten Fall der vollen Datenrate von X entspricht. Deshalb wird diese Art von Schema als asymmetrische Ratenaufteilung bezeichnet. In vielen Anwendungen ist entweder eine willkürliche Ratenaufteilung zwischen den Quellen S1 und S2 oder eine symmetrische Ratenaufteilung mit gleichen Datenraten erforderlich.
-
In der Ausführungsform gemäß
2 werden die Signale beider Quellen (S
1, S
2), die durch die - zeichnerisch nicht dargestellten - Quantisierer Q
1 bzw. Q
2 quantisiert sind, unter Verwendung separater Fehlerkorrektur-Codierer (
21,
22) codiert. Die gewählten Codes sind grundsätzlich beliebig; eine sinnvolle Wahl können Turbo-Codierer, rekursive, systematische Faltungscodes oder LDPC-Codes sein. Die Codierer (
21,
22) können, müssen aber nicht gleichartig sein. Nach dem Codieren des Signals werden die resultierenden Codewörter gemäß einem Punktierungsschema punktiert (
P1,
P2), sodass die Anzahl übertragener Bits der erforderlichen Kompressionsrate zwischen den Ausgangs- und Eingangsbits entspricht. Wenn ein Code der Rate
verwendet und nur
Bits übertragen - die übrigen somit punktiert - werden, dann beträgt die Kompressionsrate
Die Punktierungsschemata beider Quellen (S
1, S
2) müssen nicht übereinstimmen. Es ist besonders vorteilhaft, systematische Codierer (
21,
22) zu verwenden und die systematischen Bits in X und Y derart zu punktieren (
P1,
P2), dass keines der systematischen Bits in beiden Signalen beidseits punktiert wird, d. h. die im Falle von S
1 punktierten Positionen sollten im Falle von S
2 nicht punktiert werden und umgekehrt. Für ein optimales Kompressionsschema sollten sich die Punktierungsmuster der beiden systematischen Bits beider Quellen (S
1, S
2) vielmehr ergänzen. Die nicht punktierten Bits werden sodann unter Verwendung etablierter Übertragungsschemata wie dem WLAN-Standard IEEE 802.11 verlustfrei an den Empfänger (
29) übertragen, sodass keine Fehler im Zuge der Übertragung zu berücksichtigen sind. Es ist sinnvoll, wenn auch optional, einen bitweisen Interleaver (Π) anzuwenden, bevor die Bits der zweiten Quelle (
S2 ) codiert werden.
-
Um beide Signale X und Y zu rekonstruieren, führen die Decoder (23, 24) eine gemeinsame Decodierung (1 - Prozess 11) beider Bitsequenzen auf iterative Weise durch. Die iterative Verarbeitung wird unter Verwendung von Zuverlässigkeitswerten der Bits, die etwa in Form einer Likelihood-Funktion oder Log-Likelihood-Funktion (log-likelihood ratio, LLR) angegeben sein mögen, und durch Austausch modifizierter und optional im Wege des Interleaving verschränkter extrinsischer Informationen zwischen den Decodern (23, 24) durchgeführt, die als A-priori-Informationseingabe des jeweils anderen Decoders (24, 23) verwendet werden.
-
Diese A-priori-Eingabe wird für die erste Iteration mit einem Zuverlässigkeitswert von 0 initialisiert. Zuerst werden die empfangenen Bits in Zuverlässigkeitswerte für eine sogenannte Soft-Decision umgewandelt, wobei die punktierten Bits als unbekannte und somit unzuverlässige Bits (Wahrscheinlichkeit
) hinzugefügt werden. Unter Verwendung der systematischen Bits von X und der A-priori-Information decodiert der Decoder (
23) die Bits zu X̂ und gibt extrinsische Information über die (systematischen) Informationsbits aus (
1 - Prozess 12). Diese Information wird - nach Modifikation (
25) und optionalem Interleaving (Π) - als A-priori-Information in den zweiten Decoder (
24) eingespeist, welcher seinerseits eine Decodierung basierend auf diesen und den systematischen Bits von Y zu Ŷ durchführt. Nach dem Modifizieren (
25) und Verschränken (Π) wird die extrinsische Information des zweiten Decoders (
24) als A-priori-Information dem ersten Decoder (
23) zugeführt (
1 - Prozesse
13,
14). Diese Iterationen (
11,
12,
13,
14) werden durchgeführt, bis ein bestimmtes Stoppkriterium erreicht ist. Dies könnte entweder eine feste Gesamtzahl von Iterationen oder eine Anzahl korrigierter Fehler sein.
-
Der Modifikationsalgorithmus ist ein wesentlicher Teil der vorliegenden Ausführungsform und wird im Folgenden hergeleitet. Er befasst sich mit den zwischen X und Y abweichenden Werten. Für vollständig korrelierte Signale X und Y wären beide Bitsequenzen identisch, und das System (20) könnte systematische Bits ohne Modifikation (25, 26) austauschen. Der Modifikationsalgorithmus indes passt die A-priori-Information gemäß der Wahrscheinlichkeitsverteilung des Fehlers an, welche wiederum der Korrelation beider Quellen (S1 , S2 ) entspricht.
-
Der Modifikationsalgorithmus wird nachfolgend für den allgemeineren Fall von Zufallsvariablen mit kontinuierlichem Wert hergeleitet, ist aber auch für Verteilungen mit diskreten Werten anwendbar. Gegeben sei hierbei eine gemeinsame Wahrscheinlichkeitsdichte p(x, y) der Quellsignale. Die Quellen (
S1 ,
S2 ) lassen sich nunmehr wie folgt modellieren: Das Signal x der ersten Quelle (
S1 ) wird durch den Quantisierer
Q1 zu Werten x
q quantisiert, die dem Symbolbitvektor
der Länge m entsprechen. y wurde durch den Quantisierer
Q2 zu Werten y
q quantisiert, die dem Symbolbitvektor
der Länge m entsprechen. Beide Quantisierer müssen nicht identisch sein, aber es ist sinnvoll, sie so zu wählen. Beide Quantisiererausgänge geben Symbole im Alphabet
aus. Das mit x korrelierte Signal y der zweiten Quelle (
S2 ) wird durch die Gleichung y = x + n modelliert, wobei n dem typischerweise gaußverteilten „Rauschen“ entspricht.
-
Der „Modifikationsausgang“ für das i-te Bit des Symbols
soll aus den bitweisen extrinsischen LLRs
des ersten Decoders (
23) für das Symbol
berechnet werden. Die Berechnungen können äquivalent unter Verwendung von Wahrscheinlichkeiten durchgeführt werden, da die Ableitung (
13) auf diesen basiert. Die extrinsische Ausgangswahrscheinlichkeit der Modifikation (25), die dem zweiten Decoder (
24) zugeführt (14) wird, ist der Erwartungswert über alle Elemente des Symbols bzw. Vektors
außer dem betrachteten Bit
gemäß der Gleichung
wobei
berechnet werden kann, sodass folgt:
-
Berücksichtigt die Modifikation (
25) hinsichtlich
ferner die A-priori-Wahrscheinlichkeit
so kann der Erwartungswert als Summe über alle Vektoren
des Alphabets
berechnet werden, sodass folgt:
wobei die Eingangswahrscheinlichkeit
entspricht, da sämtliche Bits angesichts der bitweisen Verschränkung (Π) der Ausgabe als unabhängig betrachtet werden können.
-
Die quantisierte Korrelationskanalwahrscheinlichkeit ergibt sich hierbei zu
wobei q
- und q
+ die Unter- und Obergrenze des Intervalls der jeweiligen Quantisierungsstufe bezeichnen.
-
Für das Kanalmodell additiven weißen Gaußschen Rauschens (additive white Gaussian noise, AWGN) gilt dabei der Zusammenhang p(y, x) = p(x + n, x), sodass
aus der Verteilungsfunktion einer bivariablen Gaußschen Zufallsvariablen gewonnen wird, die wiederum im Rahmen des Entwurfs des Quantisierers einmalig berechnet werden kann.
-
Der entsprechende Ausdruck für
kann aus diesem Zusammenhang abgeleitet werden, indem
durch
ersetzt wird. Unter Verwendung dieser Wahrscheinlichkeiten lassen sich wiederum die LLRs (extrinsische Information, die als A-priori-Information verwendet wird) am Ausgang zu
berechnen, wobei
zum Entwurfszeitpunkt berechnet wird und die Zusammenhänge
sowie
auf alle Bits eines Symbols anwendbar sind. Sofern keine besonderen Annahmen bezüglich des Quantisierers und der Reihenfolge der Quellen (
S1 ,
S2 ) angebracht sind, lassen sich diese Zusammenhänge durch Austausch der Variablen unmittelbar auf die umgekehrte Modifikation (26) übertragen, indem einfach
vertauscht werden.
-
Es sei bemerkt, dass unterschiedliche Varianten dieses Verfahrens (10) denkbar sind, ohne den Rahmen der Erfindung zu verlassen. So ist etwa der Interleaver - obgleich vorteilhaft - als optionaler Schaltungsbestandteil anzusehen. Für bereits quantisierte Signale sind überdies die Quantisierer als fakultativ zu betrachten. (Jedoch können selbst quantisierte Signale wiederum auf weniger Bits quantisiert werden.) Auch die Reihenfolge von Interleaver (Π) und Modifikationsblock (25) mag vertauscht werden.
-
Des Weiteren ist die A-priori-Eingabe
der Modifikation (25, 26) optional. Sie kann, falls nicht verfügbar, in Formel 2 entfallen und stattdessen die Annahme einer gleichmäßigen Verteilung getroffen werden. In ähnlicher Weise lässt sich auch die A-priori-Information L
a subtrahieren, wenn dies durch das iterative Schema erforderlich ist, d. h. - mit leicht unpräziser Notation -
sodass
-
Als weitere Option könnte das Modell für einen hochauflösenden Quantisierer vereinfacht werden, indem der Erwartungswert durch den Rekonstruktionspunkt
(üblicherweise die Intervallmitte) ersetzt wird, sodass
eine 1D-Verteilungsfunktion des Rauschens n beschreibt.
-
Der A-priori-Eingang des ersten Decoders (23) kann mit den entpunktierten, entschachtelten, systematischen Bits von Y initialisiert werden, die gemäß dem obigen Schema modifiziert (26) wurden. Alternativ kann dieser Eingang dem herkömmlichen Kanaleingang, dem entpunktierten systematischen Biteingang von X, hinzugefügt werden. Entsprechendes gilt für den Eingang des zweiten Decoders (24).
-
Als besonders vorteilhafte Option, die ein leistungsstarkes Schema ermöglicht, sollte der zweite Codierer (22) systematisch und die nicht verschränkten (systematischen) Bits derart punktiert sein, dass das Punktierungsschema jenes des ersten Codierers (21) ergänzt. Der Codierer-Ausgang sollte in diesem Fall nur die Paritätsbits enthalten, die dann getrennt punktiert werden.
-
3 zeigt Ergebnisse einer Computersimulation der Leistung des Schemas für zwei korrelierte Gauß-Quellen. Die Schemata sind für unterschiedliche Kompressionsraten ausgelegt, wobei eine Rate von 2 einer vollständig getrennten Komprimierung der Daten beider Quellen (S1 , S2 ) entspricht. Die Stichproben beider Quellen (S1 , S2 ) wurden mit identischen Quantisierern mit einer Auflösung von 4 Bit pro Stichprobe quantisiert, und die natürliche Abbildung der Intervalle auf Bits wurde verwendet. Die Code-Rate ist variabel (31: 1,67; 32: 1,8; 33: 1,9), und ein sogenannter Spread-Block-Interleaver nach dem LTE-Standard (Option 1) fand Anwendung. Außerdem wurden die zwei letztgenannten Varianten des erfindungsgemäßen Verfahrens (10) implementiert.
-
Das resultierende Simulationsdiagramm (30) zeigt die Bitfehlerrate (34) in Abhängigkeit von der tatsächlichen Korrelation (ρ) der Quellen (S1 , S2 ). Die durchgezogenen Kurven zeigen die Leistung für einen gleichförmigen Quantisierer, während die gestrichelten Kurven mittels eines sogenannten Lloyd-Max-Quantisierers gewonnen wurden. Diese Ergebnisse illustrieren, dass das vorgeschlagene Schema eine praktische DSC für mehrstufige ebenso wie für kontinuierliche Zufallsvariablen ermöglicht.
-
Ein weiterer Vorteil der vorgeschlagenen Erfindung besteht darin, dass sie sich leicht zu einem adaptiven System erweitern lässt. Ein solches Gesamtsystem ließe sich etwa folgendermaßen umsetzen: In einer optionalen Trainingsphase senden die Sensoren ihre Daten ohne Verwendung des DSC-Schemas. Der Empfänger (29) sammelt die Daten und berechnet die Korrelation oder jedwedes andere Maß, das es ermöglicht, eine Kompressionsrate ähnlich H(X|Y) zu bestimmen. Dann liefert der Empfänger (29) diese Information an die Sensorknoten (27, 28) zurück, die ihrerseits ein entsprechendes Punktierungsschema auswählen, das allen Teilnehmern (27, 28, 29) - z. B. aus einem geeigneten Codebuch - bekannt ist und von nun an im Rahmen des vorgeschlagenen DSC-Schemas verwendet wird. Von Zeit zu Zeit können die Sensoren in eine Trainingsphase zurückfallen, um ihre Parameter anhand einer erneuten Messung durch den Empfänger (29) zu aktualisieren.
-
Als ein alternatives adaptives System könnten die Sensoren die Anzahl von punktierten Bits gemäß einer Regel erhöhen, z. B. im Abstand von jeweils z übertragenen Datenpaketen oder nach einer bestimmten Zeit. Der Empfänger (29) bestimmt hierbei die Fehlerrate aus den empfangenen Bits. Wenn die Fehlerrate nahe der praktischen Grenze für die Rekonstruktion liegt, würde er die Sensoren anweisen, die Erhöhung der Kompressionsrate (d. h. der Anzahl der punktierten Bits) zu stoppen. Wenn die Rekonstruktion fehlerhaft ist, würde signalisiert, die Kompressionsrate zu verringern. Als Ausgangspunkt des Verfahrens (10) begännen die Sensoren ihren Sendevorgang mit voller Datenrate, d. h. ohne Komprimierung, und würden dann die Kompressionsrate gemäß der besagten Regel erhöhen, bis sie die Rückmeldung vom Empfänger (29) erhalten, ein weiteres Erhöhen der Kompression zu stoppen.
-
ZITATE ENTHALTEN IN DER BESCHREIBUNG
-
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
-
Zitierte Patentliteratur
-
- US 7256716 B2 [0003]
- US 7653867 B2 [0004]