-
Die Erfindung betrifft ein Baumsuchverfahren der Tiefensuche zur baumsuchbasierten Detektion von Empfangssignalen von Mehrpunkt-zu-Mehrpunkt-(MIMO-)Kanälen, bei dem Blattknoten eines Suchbaumes potentielle Sendebits repräsentieren und welches das Bestimmen von höchstwahrscheinlich gesendeten Bits und von Zuverlässigkeitswerten für diese Bits umfasst, wobei die Zuverlässigkeitswerte anhand von Zustandsinformationen der während der Baumsuche ermittelten Blattknoten bestimmt werden und wobei ein Suchraum der Baumsuche anhand von Zustandsinformationen der während der Baumsuche ermittelten Blattknoten begrenzt wird.
-
Stetig steigende Datenraten im Mobilfunk erfordern eine verbesserte Nutzung der verfügbaren Bandbreiten. Zur Steigerung der spektralen Effizienz kommen daher zunehmend Systeme mit mehreren Sende- und Empfangsantennen (”multiple-input multiple-output”, MIMO-Systeme) zum Einsatz. Wie allgemein bekannt ist, steigt die Komplexität des optimalen MIMO-Empfängers (”a posteriori probability”, APP-Detektors) exponentiell mit der Anzahl der Bits pro Sendesymbol. Baumsuchalgorithmen stellen eine sehr attraktive Möglichkeit dar, um im Zusammenhang mit Mehrantennensystemen bei vertretbarer Detektionskomplexität nahezu optimale Leistungsfähigkeit zu erreichen.
-
Diese Algorithmen wurden in den letzten Jahren intensiv theoretisch untersucht sowie erste Implementierungen in Hardware auf der Basis von anwendungsspezifischen integrierten Schaltungen (ASICs – Application Specific Integrated Circuits) vorgestellt. Zukünftige noch zu erforschende Mobilfunkgenerationen werden zusätzlich zur MIMO-Detektion iterative Detektionsalgorithmen, Interferenz-Unterdrückung, veränderliche Systemparameter, Network-MIMO und neue Codierverfahren (z. B. CLDPC – Convolutional Low Density Parity Check Codes) verwenden. Dies wird die Anforderungen an Architekturen zur Implementierung von Baumsuchverfahren bezüglich Rechenleistung, Leistungsverbrauch und Rekonfigurierbarkeit dramatisch erhöhen. Die entwickelten Lösungen sind jedoch noch weit davon entfernt, den steigenden Anforderungen der nächsten Generationen von Mobilfunksystemen zu genügen.
-
In G. Nilsson, P. Nilsson: ”Algorithm and Implementation of the K-Best Sphere Decoding for MIMO Detection”, IEEE Journal on selected areas in Communications, Bd. 24, Nr. 3, S. 491–503, März 2006, wird das Prinzip eines auf Breitensuche basierenden M-Algorithmus bzw. K-Best-Baumsuchalgorithmus mit einer Erweiterung zur Ermittlung von Zuverlässigkeitswerten (so genannten Soft-Output-Werten), sowie dessen Umsetzung in einem ASIC beschrieben. Die Implementierung für ein 16-QAM-(Quadratur Amplituden Modulation-)System mit jeweils 4 Sende- und Empfangsantennen (4 × 4 MIMO) wurde so gewählt, dass für jede der acht sequenziell zu verarbeitenden Baumebenen des reellen Ersatzsystems eine Hardwarekomponente vorhanden ist, wobei diese zusammen mit einer Erweiterungseinheit zur Ermittlung von Soft-Werten mittels Pipeline-Verarbeitung parallel arbeiten können. Hierdurch ermöglicht der Detektor einen Empfang mit einer Datenrate von bis zu 106 Mbit/s, allerdings mit einer durch die Zahl der Berechnungseinheiten stark gestiegenen Komplexität und mit Genauigkeitsverlusten, die durch eine stark simplifizierte Soft-Output-Bestimmung bedingt sind.
-
Auch neueste Detektoren auf Basis von ASIC-Implementierungen für die Tiefensuche mit einem Sphere-Detection-Algorithmus, wie der in C. Studer, A. Burg, H. Bölcskei: ”Soft-output sphere decoding: Algorithms and VLSI implementation”, eingereicht für IEEE Journal on Selected Areas in Communications, April 2007 vorgestellte, erreichen bei nahezu optimaler Detektionsgüte (bei genauer Bestimmung der Soft-Informationen), gerade einmal einen Durchsatz von ca. 10 Mbit/s. Zum Erreichen der im Mobilfunk angestrebten Datenraten von deutlich über 100 Mbit/s ist somit neben der weiteren Optimierung der Verfahren auch der Einsatz mehrerer paralleler Detektoren erforderlich.
-
Ein Systemmodell für ein MIMO-System mit N
T Sende- und N
R Empfangsantennen ist in
1 dargestellt. Das Systemmodell wird als komplexwertig eingeführt. Vektoren werden durch kleine fettgedruckte Formelzeichen hervorgehoben, Matrizen durch große fettgedruckte Formelzeichen. Durch ein hochgestelltes T wird die Transponierte eines Vektors oder einer Matrix gekennzeichnet, und durch ein hochgestelltes H wird die Hermitsche (konjugiert komplex Transponierte) eines Vektors oder einer Matrix gekennzeichnet.
bezeichnet die Menge der komplexen Zahlen. Mit
wird die Realteilbildung und mit
die Imaginärteilbildung gekennzeichnet. ∥·∥
2 liefert die euklidische Norm des jeweiligen Argumentes.
-
In 1 sind die wesentlichen Elemente der Übertragungsstrecke abgebildet. Die Beschreibung erfolgt im Basisband, also diskret. Die Daten werden blockweise übertragen, impulsformende Filter in Sender und Empfänger werden nicht separat betrachtet, können jedoch in das Kanalmodell integriert werden. Ein Vektor u mit unabhängig und identisch verteilten Datenbits wird senderseitig mit dem Außenkanalcode kodiert (114), der resultierende Strom aus Vektoren c' wird bit-verschachtelt (116) und in Blöcke c unterteilt. Zum Senden werden die entsprechenden Bits auf Symbole mit komplexer Konstellation abgebildet (118).
-
bezeichnet die komplexe Systemmatrix der Größe (N
T × N
R), welche den Übertragungskanal sowie sende- und empfangsseitige Filter (z. B. kanalangepasste Filter, RAKE/pre-RAKE Filter, Entspreizer) enthalten kann und im Empfänger für die Detektion bekannt ist. Ein Datenblock c = (c(1), ..., c(N
T))
T besteht aus N
T Symbolen mit je L Bits, die vor der Übertragung gegebenenfalls kodiert und verschachtelt werden. Als Modulation wird Q-QAM mit Elementen aus
angenommen wobei die Zuordnung ξ
m = map(c
m) des m-ten Bitvektors c
m zu dem entsprechenden Symbol ξ
m beispielsweise durch Gray-Labelling erfolgen kann. Q = 2
L bezeichnet die Symbolvalenz, typische Werte für Q sind 4, 16, 64, 256. Mit ξ
I und ξ
Q werden die Inphasen- bzw. die Quadraturphasenkomponente eines Symbols bezeichnet. Das Sendesignal
der Menge der möglichen Sendesymbole wird durch Multiplikation mit der Systemmatrix auf das Empfangssignal
abgebildet, welches von additivem komplexwertigem Rauschen
mit der Rauschleistungsdichte N
0 und der Varianz σ
2 überlagert wird: y = Hx + n.
-
2 zeigt beispielhaft die Symbole und Bitwerte einer 64-QAM Konstellation mit Gray-Labelling. In 3 ist die durch die Übertragung verzerrte Empfangskonstellation, die Grundlage für die Detektion ist, am Beispiel einer 16-QAM veranschaulicht. Anhand der empfangenen Symbole y werden die gesendeten Daten geschätzt, und zwar mittels eines in 1 dargestellten Detektors 122 und entsprechender durch die senderseitige Vorverarbeitung gegebenen Dekodierung 128, wobei der Detektions-/Dekodierungs-Prozess auch iterativ erfolgen kann (126).
-
Die dekodierten Daten werden danach in bekannter Weise über einen Hard-Decision-Block 130 einem Binärdatenempfänger 132 zugeleitet.
-
Die Aufgabe des hier betrachteten Detektors
122, in welchem die vorliegende Erfindung implementiert werden kann, besteht darin, die Bits c zu bestimmen, die höchstwahrscheinlich gesendet wurden, sowie Zuverlässigkeitsinformationen (L-Werte) für diese Bits, welche dem logarithmischen Verhältnis dessen entsprechen, ob ein Bit eine ”1” oder ”0” bzw. ”+1” oder ”–1” ist. Diese werden aus den empfangenen Symbolen, der Kanalschätzung, der ermittelten Rauschleistung, sowie eventuell verfügbaren a-priori-Informationen ermittelt. Über den Satz von Bayes, die statistische Unabhängigkeit der Sendebits, die Dichtefunktion des mehrdimensionalen Gaußschen Rauschens und die Max-log-Approximation kann der Detektionsprozess wie folgt dargestellt werden:
in der Max-log-Approximation die ebenenspezifische Distanzmetrik ist und H = QR, y' = Q
Hy gilt. Für jede zu detektierende Antenne (i = 1 ... N
T) existieren mehrere mögliche Sendesymbole, so dass die Verfolgung mehrerer Hypothesen bzw. Gegenhypothesen für die einzelnen Bits des Sendevektors, bedingt durch die Dreieckstruktur der zerlegten Systemmatrix, als Suche nach Blattknoten (i = 1) in einer Baumstruktur interpretiert werden kann. Verschiedene Baumsuchmethoden sind in
4 veranschaulicht.
-
Der Suchbaum umfasst dabei mehrere Ebenen i, die jeweils ein zu schätzendes Sendesymbol repräsentieren. In jeder Baumebene (i = 1 ... NT) existieren für xi jeweils Q Möglichkeiten entsprechend der gewählten Konstellation. Jede dieser Möglichkeiten wird durch einen Baumknoten repräsentiert und führt mittels der durch das entsprechende Symbol verursachten Interferenz auf die verbleibenden noch nicht geschätzten Symbole (1, ..., i – 1) zu den Kinderknoten der Baumebene (i – 1). Die Blätter des Baumes stehen somit für einen vollständig geschätzten Sendedatenblock.
-
Die Schätzung der gesendeten Symbole x mittels der QR-Zerlegung der Systemmatrix entspricht der Anwendung von z. B. linearem Zero Forcing (ZF, vollständige Interferenzunterdrückung) oder linearem Minimum Mean Square Error (MMSE, Kriterium der kleinsten quadratischen Fehler) bei erweiterter Kanalmatrix und kann analog auch für ein reellwertiges Ersatzmodell, sortierte QR-Zerlegung (SQRD) oder gitterreduzierte Systemmatrizen angewendet werden. Bei der Schätzung werden die Sendepunkte durch Verzerrung in die Nähe der empfangenen Punkte in der I/Q-Ebene verschoben, siehe 3, und über alle Antennen hinweg das verzerrte Sendesignal mit der geringsten Abweichung gesucht. Dies geschieht iterativ in der Berechnung von Λ(c, y, La(c)) über die Rücksubstitution bereits geschätzter Sendesymbole und der zugehörigen kumulativen Distanzmetriken λi. Aufgrund der vielen potentiell möglichen Symbole ist die Anwendung spezieller Suchverfahren zur Begrenzung der Rechenkomplexität erforderlich. Dies geschieht durch Eingrenzen der Suchpfade im Suchbaum. Baumsuchverfahren lassen sich dabei grob in drei Klassen von Algorithmen einteilen: Tiefensuche, metrikgesteuerte Suche und Breitensuche, wie von J. Anderson und S. Mohan in ”Sequential Coding Algorithms: A Survey and Cost Analysis”, IEEE Transactions on Communications, Bd. 32, Nr. 2, S. 169–176, Februar 1984 beschrieben.
-
Bei der Tiefensuche des Sphere Detection(SD)-Algorithmus, wie von R. Fano in ”A heuristic discussion of probabilistic decoding”, IEEE Transactions on Information Theory, Bd. 9 S. 64–74, April 1963 und von M. Pohst in ”On the computation of lattice vectors of minimal length, successive minima and reduced bases with applications”, ACM SIGSAM Bulletin, Bd. 15, S. 37–44, 1981 und von B. M. Hochwald und S. ten Brink in ”Achieving near-capacity on a multiple-antenna channel”, IEEE Transactions on Communications, Bd. 51, S. 389–399, März 2003 beschrieben (siehe 4b), wird versucht, den Suchraum, eine Hyperkugel (”Sphäre”) um die Empfangssymbole, möglichst schnell einzugrenzen und somit die Anzahl der durchzuführenden Berechnungen gering zu halten. Als Parameter für die Beschränkung dient dabei der Radius R der Sphäre, welcher über die Distanzmetrik λ1 der ermittelten Blattknoten adaptiert wird. Nach anfänglicher Betrachtung des unbeschränkten Suchraumes folgt (Initialisierung mit R = ∞), durch Bestimmung der Successive Interference Cancellation(SIC)-Lösung, dem so genannten Babai-Punkt (siehe 4a), eine Begrenzung des Suchraumes auf z. B. R := λ1.Babai. Nachfolgend werden die Baumebenen in inverser Reihenfolge betrachtet, wobei jeweils für die noch nicht erweiterten Baumknoten innerhalb der aktuellen Suchsphäre (λ1 ≤ R) eine Tiefensuche durchgeführt wird. Die Auswahl der zu betrachtenden Knoten erfolgt hierbei meist zweckmäßig über die so genannten Schnorr-Euchner-Aufzählung, wie von C. P. Schnorr und M. Euchner in ”Lattice basis reduction: Improving practical lattice basisreduction and solving subset sum problems”, Mathematical Programming, Bd. 66, S. 181–199, August 1997 beschrieben, bei der stets der nächst wahrscheinliche Knoten als nächstes betrachtet wird. Die Suche sowie die Anpassung des Suchraumes bei Bestimmung neuer Blattknoten wird solange durchgeführt, bis alle Knoten der Sphäre betrachtet wurden.
-
Im Gegensatz zur Tiefensuche wird bei der metrikbasierten Suche, wie sie von F. Jelinek in ”Fast Sequential Decoding Algorithm Using a Stack”, IBM Journal of Research, Bd. 13, S. 675–685, 1969 und von J. Hagenauer und C. Kuhn in ”The List-Sequential (LISS) Algorithm and its Application”, IEEE Transactions on Communications, Bd. 55, S. 918–928, Mai 2007 beschrieben ist, prinzipiell direkt die Anzahl der Metrikberechnungen minimiert, ohne den Umweg über die Suchraumbeschränkung. Dabei wird die Metrik λi aller betrachteten Knoten in einer Liste abgelegt, diese wird sortiert und der Knoten mit der niedrigsten Metrik wird erweitert. Das erste zum Erweitern gewählte Blatt (i = 1) entspricht der ML-/MAP-Lösung. Eine weiter durchgeführte Suche liefert die zugehörigen Gegenhypothesen.
-
Die dritte Klasse von Baumsuchverfahren wird von der so genannten Breitensuche, wie beispielsweise dem M-Algorithmus oder K-Best-Algorithmus gebildet, wie von J. Anderson und S. Mohan in ”Sequential Coding Algorithms: A Survey and Cost Analysis”, IEEE Transactions on Communications, Bd. 32, Nr. 2, S. 169–176, Februar 1984 und von S. Haykin, M. Sellathurai, Y. de Jong, und T. Willink in ”Turbo-MIMO for wireless communications”, IEEE Communications Magazine, Bd. 42, S. 48–53, Oktober 2004 beschrieben. In jeder Ebene i + 1 des Baumes werden dabei für die selektierten Knoten die möglichen Folgeknoten (Ebene i) ermittelt und die M bzw. K Besten für die Berechnungen der nächsten Ebene ausgewählt. Der prinzipielle Ablauf ist in 4c) für M bzw. K = 3 dargestellt.
-
Eine spezielle Variante eines Baumsuchverfahrens der Tiefensuche zur Detektion von MIMO-Empfangssignalen ist der so genannte List-Sphere-Detection-(LSD-)Algorithmus, wie er beispielsweise von B. M. Hochwald und S. ten Brink in ”Achieving near-capacity on a multiple-antenna channel”, IEEE Transactions on Communications, Bd. 51, S. 389–399, März 2003 beschrieben worden ist. Ein herkömmlicher Verarbeitungsablauf für diesen Algorithmus ist 5 anhand eines Datenflussdiagramms dargestellt. Nach einer Initialisierung in Schritt 502 wird der Algorithmus wie folgt durchgeführt:
- 1. Solange die Suche noch nicht beendet ist (Entscheidung 540), also z. B. der Suchbaum nicht vollständig durchlaufen wurde oder Abbruchbedingungen wie die maximale Anzahl an Takten nicht erfüllt sind, wird der Algorithmus fortgesetzt, ansonsten wird der 6. Schritt durchgeführt.
- 2. Als nächstes werden die Kinderknoten in der aktuellen Ebene weiter betrachtet:
- 2.1 Wenn eine Baumebene (bzw. Antenne) neu betrachtet wird (Entscheidung 503), so müssen die Interferenzen der bereits geschätzten Symbole aus dem Empfangssymbol entfernt werden (Schritt 504) und die Distanzen zu den Kinderknoten ermittelt werden (Schritt 505). Für die Auswahl der günstigsten Knoten ist dabei z. B. eine Berechnung aller Kinderknoten sowie deren Sortierung (Schritt 506) gemäß ihrer Wahrscheinlichkeiten erforderlich.
- 2.2 Wurden die Kinderknoten der aktuellen Baumebene (somit bei gleichen bereits geschätzten Vaterknoten) schon betrachtet und sortiert, so ist in diesem Schritt keine weitere Verarbeitung erforderlich und es wird ein als nächster zu bearbeitender Vaterknoten ausgewählt (Schritt 508).
- 3. Als nächstes kann eventuell der Suchraum eingegrenzt werden:
- 3.1 Wurde die Ebene der Baumblätter erreicht (Entscheidung 510), so kann die Suchsphäre eventuell weiter beschränkt werden. Eine Möglichkeit hierfür besteht in der Abspeicherung der für die Suchsphäre maßgeblichen Kandidaten und Ermittelung der Suchsphäre über die Sortierung der Kandidaten (Schritt 512), verbunden mit einer geeigneten Sphärenradiusberechnung (Schritt 514).
- 3.2 Wurden keine Baumblätter in der aktuellen Ebene betrachtet (i ≠ 1), so ist die Suchsphäre in dieser Ausführungsvariante nicht weiter einzuschränken und der Ablauf geht zu Entscheidungsfrage 520 über.
- 4. Festlegung der als nächstes zu betrachtenden Baumebene:
- 4.1 Wurde die Ebene der Baumblätter erreicht, so wird die Baumebene i um eins erhöht (Schritt 530).
- 4.2 Wurden keine Baumblätter in der aktuellen Ebene betrachtet (i ≠ 1), so wird die Baumebene erhöht, wenn alle Knoten in der aktuellen Suchebene, welche sich innerhalb der Suchsphäre befinden, schon betrachtet wurden (Entscheidung JA bei 520). Ansonsten wird der wahrscheinlichste noch nicht betrachtete Knoten ausgewählt (Schritt 522) und die Baumebene für diesen Knoten reduziert (Schritt 524).
- 5. Die Baumsuche wird bei 1. fortgesetzt.
- 6. Zum Abschluss der Baumsuche werden aus den ermittelten Blattknoten die Zuverlässigkeitsinformationen berechnet und abgespeichert (Schritt 542).
-
Grundlegend für die Berechnung der Zuverlässigkeitsinformationen ist bei diesem Algorithmus der Tiefensuche wie auch für die anderen Verfahren die Ermittlung der Hypothese und der Gegenhypothese sowie deren Distanzmetriken. Hierbei muss über das verwendete Baumsuchverfahren sichergestellt werden, dass sowohl für die Hypothese als auch für die Gegenhypothesen der einzelnen Bits günstige Blattknoten gefunden werden und diese für die Ermittlung der Zuverlässigkeitsinformation nutzbar sind. Gleichzeitig soll die Suche nur ein Mindestmaß an Komplexität aufweisen. Hierfür ist die Zahl der durchzuführenden Operationen und somit die Anzahl der betrachteten Baumknoten maßgeblich. Ausschlaggebend für die Beschränkung der Rechenkomplexität ist somit eine günstige Einschränkung des Suchraums.
-
Um den Suchraum einzuschränken, aber dennoch ausreichend günstige Gegenhypothesen zu ermitteln, sind neben expliziten Suchverfahren für Gegenhypothesen bei der Tiefensuche prinzipiell zwei Verfahren bekannt:
Bei der ersten Methode erfolgt die Einschränkung des Suchraumes über einen Radius, welcher aus der Distanzmetrik der Hypothese (R = λHypothese) oder über die günstigsten berechneten Kandidaten (R = λL-ter_Kandidat) ermittelt wird, wie bei dem von B. M. Hochwald und S. ten Brink in ”Achieving near-capacity on a multiple-antenna channel”, IEEE Transactions on Communications, Bd. 51, S. 389–399, März 2003 beschrieben List Sphere Detektion(LSD)-Algorithmus. Dabei werden die Baumblätter zusammen mit ihren Distanzmetriken in eine Kandidatenliste einsortiert. Die in der Liste enthaltenen Blätter werden nach der Suche zur Bestimmung der Zuverlässigkeitswerte herangezogen. Um sicherzustellen, dass bei einer begrenzten Liste der Größe L stets die günstigsten Kandidaten in der Liste abgelegt sind, werden die neu bestimmten Blätter zusammen mit den in der Liste abgelegten Kandidaten mit aufsteigender Distanzmetrik sortiert, wobei nur Blätter mit den L kleinsten Distanzmetriken beibehalten und in der Liste abgelegt werden. Im Anschluss an die Suche wird aus der Kandidatenliste die Zuverlässigkeitsinformation berechnet. Entscheidend für die Güte des Verfahrens ist, sofern genügend günstige Kandidaten im Laufe der Suche ermittelt werden können, die Anzahl der gespeicherten Kandidaten, welche durch die Listengröße begrenzt wird. Eine zu kleine Liste oder ein Baumsuchverfahren, bei dem wenige günstige Blätter ermittelt werden, verringern die Güte der Zuverlässigkeitsinformationen. Nachteilig ist dabei die mit der Listengröße steigende Komplexität, sowohl was die benötigten Hardwareeinheiten als auch die zur Verwaltung, der Liste benötigte Rechenkomplexität betrifft. Für jedes der Listenelemente sind mehrere Speicherelemente erforderlich. Zusätzlich muss im Laufe der Suche, sobald neue Blätter ermittelt wurden, die Liste sortiert werden, wodurch die Hardwarekomplexität dramatisch ansteigt. Wird zur Festlegung des Suchraumes der schlechteste Kandidat der Liste herangezogen, so steigt die Suchkomplexität zudem mit der Listengröße und eine unabhängige Anpassung der Suchgenauigkeit bzw. Suchkomplexität ist nicht möglich.
-
Die zweite Möglichkeit zur Einschränkung des Suchraumes ist die Einführung bitspezifischer Radien, wie von J. Jalden und B. Ottersten in ”Parallel Implementation of a Soft Output Sphere Decoder”, Asilomar Conference on Signals, Systems, and Computers, November 2005 beschrieben. Hierbei wird versucht, stets für jeden möglichen Bitwert (0/1) das günstigste Baumblatt zu finden. Der Suchraum ist somit von den Bitwerten des aktuell betrachteten Knotens abhängig, wobei stets Knoten erweitert werden (also Kinderknoten des betreffenden Knotens untersucht werden), die zu einer neuen Hypothese bzw. Gegenhypothese führen können:
wobei
die Distanzmetrik der günstigsten Gegenhypothese des Bits c
j, c
j die Bitwerte des aktuellen Knotens und c
h / j der Bitwert der Hypothese des Bits c
j ist. Sobald Blätter gefunden werden, so werden für die Bits, die durch das Blatt repräsentiert werden, die Distanzmetriken abgespeichert. Existiert für ein Bit schon eine Distanzmetrik, so wird stets die kleinere beibehalten. Bei der Baumsuche werden in der Folge stets Knoten erweitert, die zu einer kleineren Distanzmetrik für mindestens eines der Bits, die dem Suchpfad entsprechen, führen können. Der Suchradius ist somit für jedes Bit unterschiedlich. Hierdurch ist sichergestellt, dass bei der Suche stets die günstigste Hypothese und die günstigsten Gegenhypothesen gefunden werden. Zudem ist die Zahl der hierfür zu speichernden Zwischenzustände fest vorgegeben. Dieses Verfahren benötigt zwar nur wenige Speicherplätze, verändert den Suchablauf aber grundlegend. Dadurch, dass für jedes Bit das günstigste Blatt gesucht wird, und durch die Vergrößerung des Suchraums über den Radius mit R(c
i) >> λ
Hypothese wird jedoch zugleich auch die Anzahl der zu analysierenden Baumknoten, welche innerhalb des Suchraumes liegen, drastisch erhöht. Gleiches gilt für die Komplexität zur Bestimmung des aktuellen Suchraums. Um diesen Effekt zu mildern, wird häufig eine Limitierung der Radien, das so genannte Clipping, einbezogen, wobei für den Suchraum ein Maximalwert festgelegt wird. Hierdurch findet das Baumsuchverfahren die günstigsten Baumblätter innerhalb des vorgegebenen Suchraums, wobei bei ausreichend großem Suchraum jedoch immer noch eine relativ große Zahl an Knoten analysiert werden muss, wodurch dieses Verfahren für eine effiziente Detektion nur bedingt einsetzbar ist.
-
Ziel fortgesetzter Bestrebungen im Fachgebiet ist es, die algorithmische Komplexität und damit die Komplexität von Hardware-Umsetzungen von Baumsuchen für Signaldetektionszwecke zu reduzieren, ohne dass sich die Suchgenauigkeit wesentlich verschlechtert.
-
Die Aufgabe der Erfindung besteht darin, Baumsuchalgorithmen so zu modifizieren, dass die Anzahl der zu betrachtenden Baumknoten und somit die Komplexität der Berechnungen und der Hardwareumsetzung zur Ermittlung der Distanzmetriken reduziert wird, bei vergleichbarer oder verbesserter Suchgenauigkeit. Dabei soll das Verfahren einfach in seiner Struktur und Umsetzung sein und eine hohe Flexibilität der Suchverfahren bei gleichzeitig hoher Performanz ermöglichen.
-
Die erfindungsgemäße Lösung für diese Aufgabe ist dem Anspruch 1 zu entnehmen. Vorteilhafte Weiterführungen sind den Unteransprüchen zu entnehmen, die im Folgenden im Zusammenhang mit der Erfindung näher erläutert werden.
-
Erfindungsgemäß wird ein komplexreduziertes Baumsuchverfahren der Tiefensuche zur baumsuchbasierten Detektion von Empfangssignalen von Mehrpunkt-zu-Mehrpunkt-(MIMO-)Kanälen aufgezeigt. Das Verfahren ist dadurch gekennzeichnet, dass die Begrenzung des Suchraums für die Baumsuche unabhängig von der Verarbeitung der Zustandsinformationen zur Berechnung der Zuverlässigkeitswerte erfolgt. Die Begrenzung des Suchraums erfolgt über ein n-Tupel von Zustandsinformationen von während der Baumsuche ermittelten Blattknoten, wobei ein Maximalwert der Zustandsinformationen in dem Tupel als Radius des Suchraums festgelegt wird. Durch die erfindungsgemäße Trennung von Suchraumbegrenzung und Berechnung der Zuverlässigkeitswerte können Probleme der bekannten Baumsuchen wie der Umfang und die Komplexität der Knotenanalyse, die Güte der ermittelten Gegenhypothesen, die Kosten der Suchraumbegrenzung und die Kosten der Ermittlung der Zuverlässigkeitsinformationen deutlich vermindert werden. Die im n-Tupel gespeicherten Zustandsinformationen können dabei Distanzmetriken von Blattknoten des Suchbaumes sein.
-
Ein Blattknoten, der während der Baumsuche innerhalb des aktuellen Suchradius gefunden wird und eine günstigere Zustandsinformation als der ungünstigste Wert des n-Tupels aufweist, kann erfindungsgemäß in das n-Tupel aufgenommen werden und das ungünstigste Element des n-Tupels ersetzen. Damit wird sichergestellt, dass das Tupel immer die n bis dato gefundenen Baumblätter mit den niedrigsten Distanzmetriken enthält.
-
Gemäß einer vorteilhaften Ausführungsform der Erfindung kann das n-Tupel als sortierte Liste mit Listenelementen 1 bis n erzeugt werden, wobei die Listenelemente entsprechend den Werten der Zustandsinformationen geordnet werden. Die Listenelemente können z. B. anhand ihrer Distanzmetriken mit ansteigenden Werten, beginnend mit dem niedrigsten Wert an Position 1 der Untermenge bis hin zum größten Wert der an der n-ten Position der Untermenge geordnet werden.
-
Entsprechend einer günstigen Ausführungsform der Erfindung kann das n-Tupel als Untermenge einer Liste L der Größe L > n implementiert werden, wobei die Liste L insgesamt eine Kandidatenliste mit Zustandsinformationen zur Berechnung der Zuverlässigkeitswerte darstellen kann. Die Liste L wird zumindest bis zum Element n + 1 sortiert, und ein neues potentielles Tupelelement wird an der n + 1-ten Stelle der sortierten Untermenge einsortiert.
-
Zur Begrenzung des Suchraums kann dann das n-te Listenelement der Liste L genutzt werden, wobei die Position von n in der Liste L variabel ist, mit 1 < n ≤ L. Mit einer Radiusposition an der n-ten Position der sortierten Liste mit Hypothese und Gegenhypothesen mit aufsteigender Distanzmetrik ist sichergestellt, dass die n besten Blätter des Suchbaumes ermittelt wurden. Hierdurch ist die Qualität der Gegenhypothesen sichergestellt, und die Liste kann dementsprechend klein gewählt werden. Darüber hinaus wird hierdurch die Hardwarekomplexität begrenzt und die Anzahl und der Umfang der zum Sortieren der Liste erforderlichen Operationen minimiert. Die Umsetzung eines Tupels mit variabler Größe kann durch Variieren der Größe einer Untermenge einer bestehenden Anzahl an Speicherelementen durch Nutzung und Sortierung eines variablen Anteils der zur Verfügung stehenden Ressourcen erfolgen. Dadurch wird eine Anpassung der Suchkomplexität und der Suchgenauigkeit an Umgebungsbedingungen vor oder während der Laufzeit der Baumsuche ermöglicht. Durch ein größeres Tupel werden mehr günstige Blattknoten ermittelt. Eine große Anzahl bestimmter günstiger Blattknoten führt hierbei, je nach zur Anwendung kommender Suchmethodik, direkt oder indirekt zu einer größeren Wahrscheinlichkeit zur Ermittlung günstigerer Zustandsinformationen zur Berechnung der Zuverlässigkeitsinformationen und somit im Mittel zu einer verbesserten Suchgenauigkeit.
-
Gemäß einer bevorzugten Ausführungsform werden die zur Berechnung der Zuverlässigkeitswerte genutzten Zustandsinformationen separat von dem zur Begrenzung des Suchraums genutzten n-Tupel gespeichert. Besonders bevorzugt erfolgt die separierte Speicherung der Zustandsinformationen für die Berechnung der Zuverlässigkeitsinformationen bitspezifisch in einer gesonderten Liste. Die bitspezifische Speicherung der Zustandsinformationen kann dabei entweder für jeden möglichen Bitwert und über alle Bits separat erfolgen oder kann gemäß einer alternativen Ausführungsform für alle Bits einer aktuellen Hypothese über ein Sendesymbol gemeinsam und für die entsprechenden Bits von Gegenhypothesen separat erfolgen. Die bitspezifische Speicherung ermöglicht das Einbeziehen aller im Laufe der Baumsuche bestimmten Blätter in die Bestimmung der Wahrscheinlichkeitswerte. Durch die separate Verarbeitung der Zustandsinformationen zur Bestimmung der Zuverlässigkeitsinformationen kann diese Verarbeitung optimiert erfolgen, ohne Einfluss auf den Suchablauf. Im Gegensatz zu traditionellen listenbasierten Verfahren, bei denen zum Teil Gegenhypothesen verworfen wurden, indem sie durch eine Begrenzung der Listengröße im Laufe der Baumsuche aussortiert wurden, kann aufgrund der erfindungsgemäßen Speicherung der Distanzmetriken für jedes Bit separat stets sichergestellt werden, dass die kleinste Distanzmetrik, die für ein Bit gefunden wurde, auch für die Berechnung der Gegenhypothesen zur Verfügung steht. Das Clipping der Werte für die Baumsuche oder im Anschluss an die Suche wird dabei nicht beeinflusst. Durch die Einbeziehung aller berechneten Blattknoten in die bitspezifische Distanzmetrikspeicherung wird der Verlust von relevanten Zustandsinformationen in Laufe der Baumsuche vermieden und die Suchgenauigkeit kann gesteigert werden.
-
Damit ist eine gezielte Reduktion des Tupels zur Suchraumbegrenzung im Vergleich zur Suche über ein Tupel und der Berechnung der Zuverlässigkeitsinformation aus einer begrenzten Kandidatenliste möglich, und dies bei gleicher Leistungsfähigkeit der Detektion. Damit reduzieren sich die benötigten Speicherplätze und die für die Sortierung der Liste notwendigen Operationen. Eine kostenintensive Suchraumbegrenzung, wie bei der Verwendung bitspezifischer Radien entfällt. Das Verfahren ermöglicht durch die Verwendung der bitspezifischen Distanzmetriken eine parallele Berechnung der Zuverlässigkeitsinformation aus der bestehenden Liste. Eine Suche nach günstigen Gegenhypothesen wie bei anderen listenbasierten Verfahren ist daher nicht erforderlich.
-
Anders als bei bekannten listenbasierten Verfahren oder Verfahren mit Bitradien kann das erfindungsgemäße Verfahren in einer bevorzugten Ausführungsform derart gestaltet werden, dass in die separierte Verarbeitung der Zustandsinformationen zur Berechnung der Zuverlässigkeitswerte, der Auswahl der Hypothesen und Gegenhypothesen sowie deren Distanzmetriken, Korrekturfunktionen einbezogen werden, wie sie beispielsweise bei einer Suche basierend auf dem MMSE-Prinzip benötigt werden. Durch Einbeziehung von Korrekturfunktionen kann das Verfahren auch für Systeme eingesetzt werden, in denen die Distanzen zur Berechnung der Zuverlässigkeitsinformation von den für die Baumsuche maßgeblichen Distanzen abweichen, indem über die Korrekturfunktion abweichende Hypothesen und Gegenhypothesen ermittelt werden. Durch die optimierte Berechnung der Zuverlässigkeitsinformation mithilfe von Korrekturfunktionen wird der Ablauf der Baumsuche über das n-Tupel nicht beeinflusst.
-
So kann beispielsweise bei der MMSE-Detektion eine über den Bias abweichende Hypothese/Gegenhypothese ermittelt werden, und außerdem kann der Suchraum vorteilhaft über das MMSE-Verfahren eingeschränkt werden. Als Folge steigt die Genauigkeit der bestimmten Hypothese und Gegenhypothesen an, was zu einer höheren Suchgenauigkeit führt. Das Verfahren kann daher auch mit der Bitradien-Methode (zwei Listen, eine für die Bitradien und eine für die Zuverlässigkeitsinformationen) und anderen Baumsuchverfahren (Breitensuche, Tiefensuche) kombiniert werden. Darüber hinaus kann ebenfalls die Ermittlung des Suchraumes weiter optimiert werden, ohne dass dabei die Genauigkeit der Zuverlässigkeitsinformationen negativ beeinflusst wird. Die Berechnung der Zuverlässigkeitsinformationen im Anschluss an die Baumsuche kann aus den bereits angepassten bitspezifischen Zustandsinformationen über Subtraktionen einzelner Elemente und ohne weitere Korrekturverarbeitungen erfolgen. Wenn die gespeicherten bitspezifischen Metriken bereits Korrekturterme für die Berechnung der Zuverlässigkeitsinformation enthalten (wie z. B. bei MMSE erforderlich), können exaktere Hypothesen und Gegenhypothesen ermittelt werden und das Verfahren ist für effizientere Suchalgorithmen einsetzbar. Hierdurch ist das Verfahren allen bekannten Verfahren deutlich hinsichtlich der Effizienz (Suchgenauigkeit in Bezug auf analysierte Baumknoten) überlegen. Durch die bitspezifische Speicherung wird zudem, anders als bei traditionellen listenbasierten Verfahren, eine parallele Berechnung der Zuverlässigkeitsinformationen ermöglicht.
-
Durch die separierte Verarbeitung der Zustandsinformationen zur Berechnung der Zuverlässigkeitsinformationen unabhängig von der Baumsuche ist eine Optimierung der beiden Verfahrensbestandteile unabhängig voneinander möglich. So kann die Ermittlung der zur Suchraumbegrenzung genutzten Zustandsinformationen über eine andere Methode als die Ermittlung der zur Berechnung von Zuverlässigkeitswerten genutzten Zustandsinformationen erfolgen. Beispielsweise kann für die Baumsuche die MMSE-Methode und bei der Ermittlung der Zuverlässigkeitsinformationen die ZF(ZeroForcing)-Methode zur Anwendung kommen.
-
Entsprechend einer weiteren vorteilhaften Verfahrensausgestaltung können in die separierte Verarbeitung der Zustandsinformationen zur Berechnung der Zuverlässigkeitswerte Informationen über den Aufbau der Baumknoten, beispielsweise Mapping-Informationen, einbezogen werden. Durch Einbeziehung von Informationen über den Aufbau der Baumknoten, wie beispielsweise dem Mapping der Bits, zur Auswahl von Baumknoten, welche potentiell günstig für die Zustandsinformationen zur Berechnung der Zuverlässigkeitsinformationen bzw. für das Tupel zur Suchraumbegrenzung sind, brauchen die Operationen zur Berechnung, Auswahl und Speicherung günstiger Daten nur für eine Untermenge der potentiell zu betrachtenden Baumknoten durchgeführt zu werden.
-
Die Verarbeitung der Zustandinformationen zur Berechnung der Zuverlässigkeitsinformation kann erfindungsgemäß parallel zur Suchraumfestlegung und zur Baumsuche erfolgen. Damit ergibt sich eine Steigerung des Durchsatzes der Baumsuche.
-
Die Anwendung des erfindungsgemäßen Verfahrens führt zu einer deutlichen Vereinfachung in der Komplexität der Umsetzung für Baumsuchverfahren bei gleichzeitig gesteigerter Flexibilität. Als Folge steigt die Leistungs- und Flächeneffizienz der Hardware-Umsetzung im Vergleich zu traditionellen Umsetzungen deutlich. Durch die Reduktion von Listengrößen reduziert sich neben den hierfür benötigten Speicherplätzen auch die Anzahl und der Umfang der zur Verwaltung notwendigen Operationen, und gleichzeitig wird die Komplexität von bitspezifischen Radien vermieden. Über eine flexible Bestimmung des Suchradius wird es zudem möglich, die Suchgenauigkeit und hiermit einhergehend auch den Suchaufwand an die Bedürfnisse der Umgebung anzupassen.
-
Weitere Vorteile und Merkmale des erfindungsgemäßen Verfahrens werden anhand der detaillierten Beschreibung von Ausführungsbeispielen deutlich werden, die mit Bezugnahme auf die anhängenden Figuren gegeben wird.
-
Dabei zeigt:
-
1 ein Systemmodell eines MIMO-Systems mit iterativem Detektions/Dekodierungs-Prozess;
-
2 eine 64-QAM-Konstellation mit Bitwerten bei Gray-Labeling;
-
3 die durch die Systemmatrix verzerrten potentiellen Sendesymbole;
-
4 Beispiele für eine Baumsuche für ein 4 × 4-MIMO-System;
-
5 ein Datenflussdiagramm eines herkömmlichen Sphere-Detection-Algorithmus;
-
6 das Prinzip eines Tupels zur Festlegung des Suchraums über eine Untermenge einer sortierten Liste;
-
7 das Prinzip einer bitspezifischen Speicherung von Zustandsinformationen am Beispiel von 24 Bits und der Speicherung von Distanzmetriken für jeden Bitwert und jedes Bit separat;
-
8 eine Ausführungsvariante der bitspezifischen Speicherung von Zustandsinformationen am Beispiel von 24 Bits und der Speicherung von Distanzmetriken für die Hypothese und jedes Bit der Gegenhypothese;
-
9 eine Variante einer regularisierten List-Sphere-Detektion-Implementierung;
-
10 ein Ausführungsbeispiel eines erfindungsgemäßen List-Sphere-Detektion-Algorithmus mit separierter und optimierter Verarbeitung der Zustandsdaten für die Berechnung der Zuverlässigkeitsinformationen;
-
11 den Einfluss des Bias auf die Positionsbestimmung bei MMSE-Detektion und einer Q-QAM, sowie die Korrektur dieses Einflusses;
-
12 einen Vergleich der Leistungsfähigkeit einer erfindungsgemäßen Umsetzung mit herkömmlichen Umsetzungen von Baumsuchverfahren der Tiefensuche;
-
13 den Einfluss der bitspezifischen Speicherung von optimierten Zustandsinformationen zur Berechnung der L-Werte auf die Leistungsfähigkeit des Algorithmus;
-
14 einen Vergleich der Komplexität einer erfindungsgemäßen Umsetzung mit herkömmlichen Umsetzungen von Baumsuchverfahren der Tiefensuche;
-
15 den Einfluss der bitspezifischen Speicherung von optimierten Zustandsinformationen zur Berechnung der L-Werte auf die Komplexität des Algorithmus; und
-
16 eine Modifikation der Empfängeranordnung aus 1 für listenbasierte Iterationen.
-
Die erfindungsgemäße Trennung der Suchraumfestlegung von der Bestimmung der Zuverlässigkeitsinformationen und ihre Auswirkung auf die Baumsuche soll nun anhand von Ausführungsbeispielen verdeutlicht werden.
-
Durch die erfindungsgemäße Trennung der Suchraumfestlegung von der Bestimmung der Zuverlässigkeitsinformationen ist es möglich, sowohl die Suchraumfestlegung als auch die Bestimmung der Zuverlässigkeitsinformationen optimiert durchzuführen und die Komplexität der Baumsuche insgesamt deutlich zu reduzieren.
-
Wie bereits in der Einleitung ausgeführt, müssen zur Bestimmung der Zuverlässigkeitsinformationen in Formel (1) bei der Baumsuche zur Detektion von Sendesignalen neben der Hypothese eine Reihe günstiger Gegenhypothesen ermittelt werden.
-
Erfindungsgemäß wird eine genügend genaue Baumsuche sichergestellt, indem der Suchraum für die Baumsuche nicht über die zur Bestimmung der Zuverlässigkeitsinformationen ermittelten Daten, sondern lediglich über ein Tupel
von n günstigen Baumblättern c
i eingegrenzt wird. Der Umfang n des Tupels ist hierbei entscheidend für die Qualität der Zustandsinformationen (z. B. Distanzmetrik) und somit für die Komplexität der Baumsuche. Durch die Einschränkung des Suchraums über dieses Tupel, getrennt von der Bestimmung der Zuverlässigkeitsinformationen, sind die Elemente dieses Tupels prinzipiell unabhängig von der zur Bestimmung der Zuverlässigkeitsinformation genutzten Zustandsinformation. Dies gilt insbesondere auch für die Knotenauswahl und Art der Zustandsinformation. Die Festlegung des Suchraums erfolgt hierbei zweckmäßig über die maximale Distanzmetrik des n-Tupels
mit den Elementen c
i, den günstigsten ermittelten Baumblättern. Hierfür werden im Laufe der Suche stets die n Blätter mit den niedrigsten Distanzmetriken zwischengespeichert und neue Blätter mit den bereits gespeicherten verglichen. Als Ergebnis ermittelt die Baumsuche die n Blätter mit den niedrigsten Distanzmetriken.
-
Auf die Güte der Zustandsinformationen zur Berechnung der Zuverlässigkeitsinformationen kann nicht zwangsläufig direkt aus der Güte und dem Umfang der Daten des Tupels geschlossen werden, insbesondere wenn die Methoden zur Bestimmung der Zustandsinformationen zur Suchraumfestlegung einerseits und zur Bestimmung der Zuverlässigkeitsinformationen andererseits voneinander abweichen. Durch die mittels des Tupels festgelegte Komplexität und die Konzentration der Baumsuche auf günstige Knoten steigt mit der Tupelgröße und der Suchkomplexität jedoch die Wahrscheinlichkeit, mit der günstige Zustandsinformationen zur Berechnung der Zuverlässigkeitsinformationen gefunden werden, wodurch die Güte der Daten eine hohe Korrelation aufweist und somit ein ausreichendes Gütemaß für die Ergebnisse der Baumsuche darstellt.
-
Die Berechnung der Zuverlässigkeitsinformationen erfolgt, anders als bei den bekannten Verfahren, nicht in jedem Fall aus den Distanzmetriken, die bei der Baumsuche unter anderem zur Suchraumbegrenzung verwendet werden, sondern aus Metriken, welche aus den Distanzmetriken ermittelt werden und welche für die Bestimmung der Zuverlässigkeitsinformation optimiert werden können. Die Berechnung der Zuverlässigkeitsinformation (L-Werte) wird erfindungsgemäß daher wie folgt verändert:
wobei f(·) die angewendete Optimierungsfunktion ist und σ
2 bzw. c weitere exemplarische Elemente der Funktion sind, wie sie für eine biasreduzierte MMSE-Detektion benötigt werden, die im Weiteren noch detailliert mit Bezug auf
11 beschrieben wird. Da hierbei die Optimierungsfunktion nicht nur auf eine Untermenge der analysierten Blätter, der Menge der in der Kandidatenliste bzw. durch die Bit-Radien gespeicherten Distanzmetriken, sondern auf alle im Rahmen der Baumsuche gefundenen Blätter angewendet wird, führt dies zu einer entsprechenden Steigerung in der Genauigkeit der Zuverlässigkeitsinformationen. Insbesondere müssen die hierdurch gefundenen Kandidaten c
i mit maximaler Metrik für c
l = +1 bzw. c
l = –1 nicht mit den Hypothesen oder Gegenhypothesen übereinstimmen, welche über die minimalen Distanzmetriken ermittelt würden.
-
Eine günstige Ausführungsform der Umsetzung der Suchraumfestlegung über das n-Tupel getrennt von der Bestimmung der Zuverlässigkeitsinformationen, ist in
6 dargestellt. Als n-Tupel wird hierbei eine sortierte Untermenge einer Menge von Speicherelementen (
6-1,
6-2 ...,
6-L), im Folgenden Liste genannt, mit der Größe L > n verwendet. R
Tupel bezeichnet das letzte Element des n-Tupels, wobei die Listenelemente bis zu R
Tupel entsprechend ihrer Distanzmetrik sortiert sind, was in der Figur durch die Pfeile veranschaulicht ist, wobei R
Tupel auf das Tupelelement mit der maximalen Distanzmetrik verweist. Die Suchraumfestlegung für die Baumsuche erfolgt lediglich anhand der Listenelemente, die Bestandteil des n-Tupels sind. Die restlichen Elemente der liste dienen zur Abspeicherung von gefundenen Gegenhypothesen, und die Liste in ihrer Gesamtheit wird für die L-Wert-Berechnung genutzt. Ein neues Element (gefundenes Baumblatt) wird an der Stelle
6-(n + 1) der Liste bezüglich seiner Distanzmetrik (λ
1) einsortiert. Durch das Einsortieren dieses Elementes in die bis zum n-ten Element sortierte Liste entsprechen somit die ersten n Elemente der Liste (
6-1 ...
6-n) dem beschriebenen n-Tupel. Durch Variation der Position des n-ten Listenelements, nach welchem neue Blätter einsortiert werden, d. h. Variation der Position des Listenelements
6-n in der Liste
6-1 ...
6-L, und durch Sortieren der Liste bis zu diesem Element kann die Größe des Tupels mit 1 ≤ n < L verändert werden. Dies ermöglicht eine variable Festlegung der Tupelgröße und somit der Suchkomplexität bzw. Genauigkeit, was folglich eine Adaption der Baumsuche an Umgebungsbedingungen ermöglicht. Mit steigendem n steigt die Anzahl der abgesuchten Baumknoten und somit die Komplexität des Baumsuchverfahrens, allerdings auch die Genauigkeit der bestimmten Zuverlässigkeitsinformationen. Für jede Baumsuche kann somit adaptiv die Genauigkeit angepasst werden. Die Festlegung des Suchraumes über die maximale Distanzmetrik des Tupels kann durch Ausführung der Suche mit einem Suchradius gleich der Distanzmetrik des n-ten Listenelementes erfolgen
. Bei der beschriebenen Einsortierung neuer Baumblätter über beispielsweise n elementweise durchgeführte sequenzielle Vergleiche, beginnend mit dem n-ten Element, kann der Suchraum unmittelbar nach dem ersten Vergleich (zwischen dem n-ten und dem n + 1-ten Element) festgelegt werden. Alle weiteren Vergleiche dienen zwar der Sortierung der Liste, haben aber keinen Einfluss auf das den Suchraum bestimmende Element. Dies ermöglicht neben der raschen Festlegung des Suchraumes und somit einer geringen Verarbeitungszeit auch die Parallelisierung der Operationen zum Sortieren der Liste (n – 1 Vergleiche), wie noch genauer mit Bezug auf
10 beschrieben wird, so dass diese keinen Beitrag zur Verarbeitungszeit des Suchalgorithmus liefern.
-
In einer weiteren günstigen Ausführungsform der Umsetzung der Suchraumfestlegung über das n-Tupel getrennt von der Bestimmung der Zuverlässigkeitsinformationen erfolgt die separierte Speicherung der für die L-Wert-Berechnung laut Formel (4) optimierten Metriken f(Λ(c, y, La(c)), σ2, c) über eine bitspezifische Speicherung der Metriken, welche unabhängig von der angewandten Suchmethode bei allen Baumsuchverfahren eingesetzt werden kann. Dabei können die Zustandsinformationen für jeden Bitwert (0/1) separat zwischengespeichert werden. Eine mögliche bitspezifische Distanzmetrikspeicherung ist in 7 für eine 64-QAM und 4 Sendeantennen dargestellt. In einer alternativen Ausführungsform können die Zustandsinformationen auch für die Hypothese ch und die hieraus resultierenden Bitwerte der Gegenhypothesen cj ≠ c h / j zwischengespeichert werden, also die Distanzmetrik der Hypothese mit den entsprechenden Bitwerten und die Distanzmetriken der Gegenhypothesen für alle Bits (0 ... 24), wie in 8 veranschaulicht ist. Neu ermittelte Distanzmetriken werden mit den gespeicherten verglichen, und es wird stets die günstigere beibehalten, wodurch nach der Baumsuche die jeweils günstigsten im Laufe der Suche gefundenen Metriken für die Berechnung der Zuverlässigkeitsinformation zur Verfügung stehen. Der Verlust von günstigen Metriken im Suchverlauf, wie er bei den bekannten Verfahren durch begrenzte Kandidatenlisten oder eine nachträgliche Optimierung entsteht, ist somit ausgeschlossen. Durch die direkte Einbeziehung von Optimierungen in Kombination mit der bitspezifischen Speicherung ist neben der bestmöglichen Güte der Metriken auch die geringe Komplexität des Verfahrens sichergestellt. Hierbei ist die Anzahl der benötigten Speicherplätze gering und für ein System unabhängig von dem Verfahren zur Baumsuche vorab fest vorgegeben, eine Anpassung der Listgröße für die Suchraumbegrenzung an gegebene Hardware- und/oder algorithmische Anforderungen ist möglich.
-
Alle Operationen zur Verarbeitung und Abspeicherung der Metriken können darüber hinaus parallel zur Baumsuche durchgeführt werden, so dass die Verarbeitungszeit für die Baumsuche durch diese Schritte nicht beeinträchtigt wird. Die Berechnung der Zuverlässigkeitsinformationen kann direkt über die Metriken der Hypothesen und Gegenhypothesen der einzelnen Bits erfolgen und impliziert somit eine minimale Komplexität im Anschluss an die Baumsuche.
-
Eine modifizierte Form des in 5 beschriebenen Datenflussdiagramms eines List-Sphere-Detection-Algorithmus ist in 9 dargestellt. Dieser weist einen regularisierten Datenfluss auf und wurde ausführlich in der bereits früher eingereichten DE-Patentanmeldung ”Verfahren zur baumsuchbasierten Detektion von Empfangssignalen” desselben Anmelders beschrieben. Nach einer Initialisierung (Schritt 902) wird der regularisierte Algorithmus wie folgt durchgeführt:
- 1. Solange die Suche noch nicht beendet ist (Entscheidung 940), also z. B. der Suchbaum nicht vollständig durchlaufen wurde oder Abbruchbedingungen wie die maximale Anzahl an Takten nicht erfüllt sind, wird der Algorithmus fortgesetzt, ansonsten wird der 6. Schritt durchgeführt.
- 2. Als nächstes werden die Kinderknoten in der aktuellen Ebene weiter betrachtet. Aufgrund der Initialisierung oder einer gesonderten Ebenen- und Folgeknotenbestimmung, wie sie detailliert in der bereits früher eingereichten DE-Patentanmeldung ”Verfahren und Anordnung zur Auswahl von Ebenen bei Baumsuchalgorithmen der Tiefensuche” desselben Anmelders beschrieben worden ist, ist hierbei stets der als nächstes zu betrachtende Elternknoten bekannt. Die hieraus resultierenden Interferenzen, sowie die Interferenzen der übrigen bereits geschätzten Symbole werden aus dem Empfangssymbol entfernt (Schritt 904), und die Distanzen zu den Kinderknoten werden ermittelt (Schritt 905). Für die Auswahl der günstigsten Knoten ist dabei z. B. eine Berechnung aller Kinderknoten sowie deren Sortierung (Schritt 906) gemäß ihrer Wahrscheinlichkeiten erforderlich.
- 3. Als nächstes wird überprüft, ob der Suchraum eingegrenzt werden kann (914), wobei diese Überprüfung unabhängig von der aktuell betrachteten Baumebene auf Basis des Abspeicherns und Sortierens der für die Suchsphäre maßgeblichen Kandidaten (Schritt 912) erfolgt. Sortierkriterium ist beispielweise die Zuverlässigkeit der Kandidaten.
- 4. Im Anschluss kann die als nächstes zu betrachtende Ebene ermittelt werden (924).
- 5. Die Baumsuche wird bei 1. fortgesetzt.
- 6. Wenn die Suche beendet ist (Entscheidung 940), also z. B. der Suchbaum vollständig durchlaufen wurde oder Abbruchbedingungen wie die maximale Anzahl an Takten erfüllt sind, werden aus den ermittelten Blattknoten die Zuverlässigkeitsinformationen berechnet und abgespeichert (Schritt 942).
-
Anhand der enthaltenen Module zeigen sich einige der Nachteile der bekannten Suchraumbegrenzung bzw. L-Wert-Berechnung. So erfolgen die Festlegung des Suchraumes wie auch die L-Wert-Berechnung sequenziell im Algorithmus. Insbesondere bei der Verwendung der bitspezifischen Radien ist dies von deutlichem Nachteil, da hierbei eine Reihe von Vergleichen sequenziell durchgeführt werden müssen. Dabei muss zuerst ermittelt werden, ob das bestimmte Blatt eine neue Hypothese darstellt, falls nicht, ob hierbei eine oder mehrere neue Gegenhypothesen gegeben sind, und zuletzt muss der Suchraum aufwendig über die Bit-Radien ermittelt werden. Bei der Verwendung einer Kandidatenliste ist neben der bereits diskutierten Hardware-Komplexität auch die erforderliche Sortierung problematisch. Diese kann zwar weitestgehend parallel zum Algorithmus durchgeführt werden, sie ist allerdings bedingt durch die große Anzahl benötigter Operationen ein limitierender Faktor. Die L-Wert-Berechnung (942) kann lediglich im Anschluss an die Baumsuche durchgeführt werden. Neben der je nach Verfahren zum Teil sehr großen algorithmischen Komplexität und der hiermit einhergehenden Verarbeitungszeit ist die Berechnung der L-Werte, wie bereits ausgeführt, nur über die gespeicherten Daten möglich.
-
Eine günstige Ausführungsvariante eines List Sphere Detection-Baumsuch-Algorithmus mit Einbeziehung der erfindungsgemäßen Trennung von Suchraumbegrenzung und Kandidatenverarbeitung für die L-Wert-Berechnung ist in
10 dargestellt. Dabei sind Module mit gleicher oder analoger Funktion wie in
9 mit analogen, um 100 erhöhten Bezugszeichen bezeichnet und der entsprechende Datenfluss hierfür soll nicht wiederholt werden. Nach der Auswahl des als nächstes zu betrachtenden Elementes (
1024,
1032) erfolgt lediglich die Betrachtung eines Knotens sowie des nachfolgend zu betrachtenden Knotens der Baumebene über die Berechnung der Distanzmetriken. Die anschließende Sortierung (Schritt
912 in
9) entfällt, und das eventuelle Einsortieren in eine Radiusliste reduziert sich auf das Einsortieren eines Blattknotens, der Blatthypothese, in das den Suchraum bestimmende Tupel. Für die Suchraumbegrenzung wird ein n-Tupel, wie mit Bezug auf
6 erklärt, verwendet. Hierdurch kann die Festlegung des Suchraums (Schritt
1014) bereits nach dem ersten Vergleich des n-ten Listenelementes mit dem neuen Knoten erfolgen. Der weitere Einsortiervorgang kann daraufhin parallel zur Baumsuche erfolgen (
1050), da hierdurch der Suchraum nicht weiter verändert wird. Resultierend hieraus sinkt die Verarbeitungszeit für die Suchraumfestlegung (
1014) auf ein Minimum. Darüber hinaus erfolgt die Suchraumfestlegung nur auf Basis der Blatthypothesen, wodurch bei gleicher Güte und Suchkomplexität nur ein Tupel mit halbierter Größe erforderlich ist. Die Berechnung der für die Ermittlung der Zuverlässigkeitsinformationen optimierten Metrik für das aktuelle Blatt sowie dessen Gegenhypothesen und deren Metriken kann dabei ebenfalls parallel zum Suchalgorithmus erfolgen, da diese Berechnungen keinen Einfluss auf den Suchablauf haben. Durch eine entsprechende Auswahl, basierend auf Mapping-Eigenschaften, kann die Berechnung der Gegenhypothesen darüber hinaus kostengünstig nur für günstige Gegenhypothesen erfolgen. Für die Kanditatenliste zur Berechnung der L-Werte wird eine Speicherung der Kandidaten bzw. der Zustandsinformationen gemäß Formel (4), angepasst an das Detektionsverfahren, vorgeschlagen. Sowohl für die Hypothese als auch die Gegenhypothese können dabei nachteilige Auswirkungen der Suchmethode auf die Auswahl der günstigen (Gegen-)Hypothesen und deren Metriken eliminiert werden, beispielsweise Auswirkungen des Bias einer MMSE-Detektion, wie noch mit Bezug auf
11 erläutert wird. Anschließend an die Berechnungen erfolgt die beschriebene bitspezifische Speicherung in Abhängigkeit von den resultierenden Metriken. Für die Berechnung der Zuverlässigkeitswerte liegen somit Metriken
vor, wodurch die Berechnung durch eine kostengünstige Subtraktion erfolgen kann und die Verarbeitungszeit nach der Baumsuche minimiert wird.
-
Durch die erfindungsgemäße Trennung der Suchraumfestlegung von der Bestimmung der Zuverlässigkeitsinformationen kann bei der Baumsuche ein anderes Suchkriterium verwendet werden als bei der Ermittlung der Hypothesen bzw. Gegenhypothesen und den L-Werten für diese. Wird beispielsweise für die Detektion, also für die Baumsuche, das MMSE-Verfahren angewendet, so sind die Suchergebnisse und die resultierenden Zuverlässigkeitsinformationen nicht erwartungstreu, da sie mit einem Versatz, dem so genannten Bias, behaftet sind.
-
Dieser entsteht durch die Rauschunterdrückung, die Minimierung des mittleren quadratischen Fehlers. Bei der Baumsuche kann die MMSE-Detektion beispielsweise, wie von E. Zimmermann und G. Fettweis in ”Unbiased MMSE Tree Search Detection for Multiple Antenna Systems”, International Symposium on Wireless Personal Multimedia Communications (WPMC ’06), September 2006 beschrieben, durch Erweiterung der Kanalmatrix vor der QR-Zerlegung erfolgen, wodurch der Bias σ
2∥x∥
2 in der euklidischen Distanz enthalten ist:
Während der Bias vorteilhaft den Suchraum bei der Suche eingrenzt, führt er bei der Berechnung der Zuverlässigkeitsinformation zu einem Fehler, welcher für eine genaue Detektion korrigiert werden muss. Dies führt zu abweichenden Metriken für die Berechnung der Zuverlässigkeitsinformationen und kann auch zu abweichenden Hypothesen und Gegenhypothesen führen.
11-1 verdeutlicht den Einfluss des Bias auf die Metriken und die hierdurch hervorgerufene Verringerung der Distanzen. Je weiter die Konstellationspunkte vom Ursprung entfernt sind, desto größer ist die Verringerung der Distanz durch den Bias. Für die Berechnung der Zuverlässigkeitsinformationen muss somit der biasreduzierte Term f(Λ(c, y, L
a(c)), σ
2, c) = Λ(c, y, L
a(c)) – σ
2∥x(c)∥ gespeichert werden. Neben dem Entfernen des Bias aus den Distanzmetriken für die Berechnungen ist für die Zuverlässigkeitsinformationen somit auch die Veränderung der Hypothese und somit der Gegenhypothesen erforderlich. Durch Einbeziehung dieses Einflusses auf die Konstellationspunkte und die Entscheidungsregionen, wie in
11-2 dargestellt, kann die geometrische Betrachtung bei der beschriebenen MMSE-Detektion auf ein mit
√1 – σ² gestauchtes System übertragen werden. Durch die ungünstige Stauchung des Systems entstehen bei der Berechnung weitere Kosten. Hierdurch ist eine Übertragung des Biaseinflusses auf die Position des Repräsentanten des Sucharguments, wie in
11-3 dargestellt, günstiger. Um dies zu erreichen, wird ein Korrekturterm für die Berechnungen bzw. die Knotenbestimmungen verwendet. Zur Bestimmung der Hypothesen bzw. Gegenhypothesen einer Baumebene wird daher eine korrigierte Position des Suchargumentes verwendet: y
i''' := k·y
i'', und für die Positionsbestimmung wird das ursprüngliche Gitter verwendet. Für die beschriebene MMSE-Detektion ergibt sich der Korrekturterm aus der Rückwirkung des biasreduzierten Signals auf die L-Wert-Berechnung zu κ =
1 / 1 – σ² . Bei σ
2 handelt es sich genau genommen um die Rauschvarianz, und der Korrekturterm (1 – σ
2)
–1 entspricht dabei der nicht erwartungswerttreuen Stauchung, die durch die Biasreduktion hervorgerufen wird. Dadurch kann die Auswahl günstiger Blattknoten angepasst werden. Anders ausgedrückt ist der Erwartungswert der MMSE-Detektion ein anderer als der der biasreduzierten Detektion, der mit dem Erwartungswert der auf Zero Forcing basierenden Detektion übereinstimmt. Der Korrekturterm macht dies rückgängig, allerdings ist er nur für die Auswahl günstiger Elemente gültig. Der Korrekturterm kann vor der Baumsuche bestimmt werden. Da die Bestimmung der Hypothesen bzw. Gegenhypothesen und deren Distanzmetriken für die Berechnung der Zuverlässigkeitsinformationen unabhängig von der eigentlichen Suche sowie der Suchraumbegrenzung sind, hat dieses Verfahren prinzipiell keinen Einfluss auf den Suchablauf. Durch die verbesserte Ermittlung der Zuverlässigkeitsinformationen verbessert sich allerdings die Suchgenauigkeit.
-
Ein gutes Maß zur Ermittlung der Berechnungskomplexität und somit zur Abschätzung des erreichbaren Durchsatzes stellt die Zahl der Knotenerweiterungen der Baumsuche dar.
-
In 12 ist die Leistungsfähigkeit (BER – Bit Error Rate) und in 14 die Komplexität (mittlere Anzahl von Knotenerweiterungen) des erweiterten Sphere-Detection-Algorithmus mit der beschriebenen Suchraumbestimmung über ein 8er Tupel (n = 8) und mit bitspezifischer Speicherung von biasreduzierten Metriken im Vergleich zu traditionellen Umsetzungen dargestellt. Das Verfahren mit bitspezifischen Radien wurde dabei um die separate optimierte bitspezifische Metrikverarbeitung und ein Clipping der Radien (auf 3,5) erweitert, um eine verlustfreie MMSE-Detektion mit Biasreduktion zu ermöglichen, da das traditionelle Verfahren deutlich mehr Knotenerweiterungen benötigen würde und somit nicht vergleichbar wäre. Bei der Detektion mit T = 4 Detektor/Decoder-Iterationen kann durch die erfindungsgemäße Detektion mit getrennter Suchraumfestlegung über ein n-Tupel die Leistungsfähigkeit gegenüber dem traditionellen LSD (List Spere Detektor, mit R = λHypothese) deutlich gesteigert werden, bei nur doppelter Anzahl an betrachteten Knoten.
-
16 stellt eine gegenüber der aus 1 modifizierte Empfängeranordnung für listenbasierte Iterationen dar. Ein Ansatz zur komplexitätsreduzierten iterativen Detektion/Dekodierung beinhaltet die Wiederverwendung von Ergebnissen, die während der ersten Detektion (im Detektor 1622) ermittelt wurden, um die restlichen Baumsuchen zu überspringen. Eine Kandidatenliste 1650, die während der ersten Detektion ermittelt wurde, kann als Hauptbestandteil für die nächsten Iterationen (L-Wert-Berechnung bei 1642) genutzt werden. Die Grundidee besteht darin, ohne a-priori-Wissen eine große Menge an Blattknoten mit niedrigen Zustandsinformationen, also beispielsweise niedrigen Distanzmetriken λ1 oder optimierten Metriken f(c) der gefundenen Kandidaten, zu finden. Die für die Iterationen verfügbaren a-priori-Informationen werden hauptsächlich die Reihenfolge von günstigen Knoten verändern, da durch diese die Distanzmetrik ungünstiger Pfade der Baumsuche erhöht wird. Wenn die Kandidatenliste aus der ersten Detektion groß genug ist, werden das neue MAP(maximum a posteriori)-Blatt oder zumindest ein Blatt in dessen Nähe wie auch günstige Gegenhypothesen in der Liste (1650) enthalten sein. Eine neue Baumsuche ist somit nicht erforderlich.
-
Durch die beim herkömmlichen LSD gemäß 9 entstehende Komplexität der Kandidatenliste, der Operationen zum Sortieren und Speichern der Elemente der Liste sowie der benötigten Hardwareeinheiten und der Berechnung der Zuverlässigkeitsinformationen, Minima-Suchen über die Liste für alle Bits etc. ist die Suchkomplexität (Anzahl an Verarbeitungsschritten, verwendete Hardwareeinheiten, Leistungsverbrauch etc.) des LSD insgesamt deutlich höher als die der erfindungsgemäßen Umsetzung.
-
Gegenüber dem Verfahren mit bitspezifischen Radien kann die Komplexität mit der erfindungsgemäßen Umsetzung bei vergleichbarer Leistungsfähigkeit deutlich reduziert werden. Da die Komplexität der Umsetzungen pro zu betrachtendem Knoten annähernd vergleichbar ist, ist auch hier die erfindungsgemäße Umsetzung deutlich kostengünstiger und zudem mit einer deutlich geringeren Verarbeitungszeit verbunden.
-
Zur Verdeutlichung der Leistungsfähigkeit der optimierten separierten bitspezifischen Verarbeitung sind in 13 und 15 zusätzlich die Leistungsfähigkeit und die Komplexität für eine Baumsuche über ein 16er Tupel ohne diese bitspezifische Verarbeitung und ohne Detektor/Decoder-Iterationen dargestellt. Die Anzahl der betrachteten Baumknoten ist näherungsweise vergleichbar mit dem 8er Tupel (Halbierung der Tupelgröße aufgrund der Verwendung von Blatthypothesen für die Suchraumbegrenzung) und mit bitspezifischer Speicherung und ist somit besser als die des Verfahrens mit bitspezifischen Radien, welches aus Gründen der Übersichtlichkeit in den Diagrammen der 13 und 15 weggelassen wurde. Durch die bitspezifische Speicherung ist jedoch, wie bereits diskutiert, die Komplexität der erfindungsgemäßen Umsetzung deutlich geringer als die des auf Kandidatenlisten basierenden Verfahrens mit Suche über das 16er Tupel. Bei der Leistungsfähigkeit zeigen sich zudem deutliche Unterschiede. Allein durch die optimierte Verarbeitung und somit Vermeidung des Verlustes günstiger Zustandsinformationen steigt die Leistungsfähigkeit um ca. 0,3–0,5 dB gegenüber einem vergleichbaren Suchalgorithmus mit identischer Komplexität. Die optimierte und separierte Verarbeitung der Zustandsinformationen für die Suchraumbestimmung und die Berechnung der Zuverlässigkeitsinformationen ist somit Vorraussetzung für eine effiziente Baumsuche. Eine erfindungsgemäße Umsetzung der Detektion über Tupel-Suche mit einer geeigneten Größe des n-Tupels und der Kandidatenliste (z. B. 16/64) ermöglicht eine nahezu optimale Detektionsgüte bei deutlich verringerter Komplexität. Neben der Steigerung der Leistungsfähigkeit durch entsprechende Korrekturfunktionen kann die Suchkomplexität deutlich reduziert werden. Ermöglicht wird dies insbesondere durch eine höhere Genauigkeit der Informationen für die Zuverlässigkeitsberechnung und die Möglichkeit, den Suchraum unabhängig von diesen Informationen einzugrenzen. Hierdurch kann die Suchkomplexität deutlich eingeschränkt werden und darüber hinaus variabel an die Umgebungsbedingungen angepasst werden.
-
Zur Umsetzung des erfindungsgemäßen Verfahrens kann eine synchrone Transfer Architektur (STA) zur Anwendung kommen. Durch die Ausführung der Prozesse in je einer Berechnungseinheit können die entsprechenden Komponenten des Algorithmus in ein oder mehrere STA-Module integriert werden. Die Steuerung der Module kann dann einzeln oder über ein VLIW erfolgen. Dies macht es möglich, die Vorteile einer STA, hohe Leistungsfähigkeit, geringen Stromverbrauch, einfache Erweiterbarkeit und hohe Flexibilität, auch für Baumsuchverfahren zu nutzen.
-
Die Erfindung kann im Zusammenhang mit einem OFDM-(Orthogonal Frequency Division Multiplex)Verfahren als digitales Übertragungsverfahren zum Einsatz kommen. Die Systemmatrix H beinhaltet dann den Übertragungskanal im Frequenzbereich für einen oder mehrere Unterträger. Die Erfindung kann auch im Zusammenhang mit anderen Mehrfachzugriffsverfahren, Direct-Sequence-CDMA (DS-CDMA) oder Multi-Carrier-CDMA (MC-CDMA) oder Space-Division-Multiple-Access (SDMA), angewendet werden.
-
Die Erfindung ist auch bei einem Mehrnutzer-Übertragungsverfahren (MUT – Multi User Transmission) zu einem oder mehreren Empfängern mit gemeinschaftlicher Detektion der empfangenen Daten anwendbar. Die Systemmatrix H beinhaltet dann die Übertragungskanäle zwischen den entsprechenden Nutzern. In dem einen oder den mehreren Empfängern können mehrere Antennen verwendet werden.
-
Anhand der vorstehenden Beschreibung sollte klar geworden sein, dass mit dem vorgeschlagenen Baumsuchverfahren mit Trennung der Suchraumfestlegung von der Bestimmung der Zuverlässigkeitsinformationen durch eine einfache Suchradiusbestimmung, wenige benötigte Speicherelemente, geringen Aufwand zur Sortierung des für die Suchraumbestimmung genutzten Tupels usw. die algorithmische Komplexität gegenüber den bekannten Verfahren bei gleicher Leistungsfähigkeit deutlich verringert wird, wodurch eine effiziente und komplexitätsreduzierte Hardwareumsetzung der für die Detektion verwendeten Baumsuchen möglich ist, was den Einsatz dieser Verfahren in praktischen mobilen Systemen möglich macht.