DE102022106961A1 - Verbesserung einer Kanalschätzung in einer drahtlosen Kommunikation basierend auf überwachtem Lernen - Google Patents

Verbesserung einer Kanalschätzung in einer drahtlosen Kommunikation basierend auf überwachtem Lernen Download PDF

Info

Publication number
DE102022106961A1
DE102022106961A1 DE102022106961.3A DE102022106961A DE102022106961A1 DE 102022106961 A1 DE102022106961 A1 DE 102022106961A1 DE 102022106961 A DE102022106961 A DE 102022106961A DE 102022106961 A1 DE102022106961 A1 DE 102022106961A1
Authority
DE
Germany
Prior art keywords
channel
res
processor
domain
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102022106961.3A
Other languages
English (en)
Inventor
Hyukjoon Kwon
Kee-Bong Song
Nitin Jonathan MYERS
Yacong Ding
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of DE102022106961A1 publication Critical patent/DE102022106961A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L25/00Baseband systems
    • H04L25/02Details ; arrangements for supplying electrical power along data transmission lines
    • H04L25/0202Channel estimation
    • H04L25/0222Estimation of channel variability, e.g. coherence bandwidth, coherence time, fading frequency
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L25/00Baseband systems
    • H04L25/02Details ; arrangements for supplying electrical power along data transmission lines
    • H04L25/0202Channel estimation
    • H04L25/024Channel estimation channel estimation algorithms
    • H04L25/0254Channel estimation channel estimation algorithms using neural network algorithms
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L25/00Baseband systems
    • H04L25/02Details ; arrangements for supplying electrical power along data transmission lines
    • H04L25/0202Channel estimation
    • H04L25/0224Channel estimation using sounding signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L25/00Baseband systems
    • H04L25/02Details ; arrangements for supplying electrical power along data transmission lines
    • H04L25/0202Channel estimation
    • H04L25/022Channel estimation of frequency response
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L25/00Baseband systems
    • H04L25/02Details ; arrangements for supplying electrical power along data transmission lines
    • H04L25/0202Channel estimation
    • H04L25/0224Channel estimation using sounding signals
    • H04L25/0228Channel estimation using sounding signals with direct estimation from sounding signals
    • H04L25/023Channel estimation using sounding signals with direct estimation from sounding signals with extension to other symbols
    • H04L25/0232Channel estimation using sounding signals with direct estimation from sounding signals with extension to other symbols by interpolation between sounding signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L25/00Baseband systems
    • H04L25/02Details ; arrangements for supplying electrical power along data transmission lines
    • H04L25/0202Channel estimation
    • H04L25/024Channel estimation channel estimation algorithms
    • H04L25/0242Channel estimation channel estimation algorithms using matrix methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L25/00Baseband systems
    • H04L25/02Details ; arrangements for supplying electrical power along data transmission lines
    • H04L25/0202Channel estimation
    • H04L25/024Channel estimation channel estimation algorithms
    • H04L25/0256Channel estimation using minimum mean square error criteria
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L27/00Modulated-carrier systems
    • H04L27/26Systems using multi-frequency codes
    • H04L27/2601Multicarrier modulation systems
    • H04L27/2626Arrangements specific to the transmitter only
    • H04L27/2627Modulators
    • H04L27/2634Inverse fast Fourier transform [IFFT] or inverse discrete Fourier transform [IDFT] modulators in combination with other circuits for modulation
    • H04L27/2636Inverse fast Fourier transform [IFFT] or inverse discrete Fourier transform [IDFT] modulators in combination with other circuits for modulation with FFT or DFT modulators, e.g. standard single-carrier frequency-division multiple access [SC-FDMA] transmitter or DFT spread orthogonal frequency division multiplexing [DFT-SOFDM]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L27/00Modulated-carrier systems
    • H04L27/26Systems using multi-frequency codes
    • H04L27/2601Multicarrier modulation systems
    • H04L27/2626Arrangements specific to the transmitter only
    • H04L27/2627Modulators
    • H04L27/2639Modulators using other transforms, e.g. discrete cosine transforms, Orthogonal Time Frequency and Space [OTFS] or hermetic transforms
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L27/00Modulated-carrier systems
    • H04L27/26Systems using multi-frequency codes
    • H04L27/2601Multicarrier modulation systems
    • H04L27/2647Arrangements specific to the receiver only
    • H04L27/2649Demodulators
    • H04L27/265Fourier transform demodulators, e.g. fast Fourier transform [FFT] or discrete Fourier transform [DFT] demodulators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L27/00Modulated-carrier systems
    • H04L27/26Systems using multi-frequency codes
    • H04L27/2601Multicarrier modulation systems
    • H04L27/2647Arrangements specific to the receiver only
    • H04L27/2649Demodulators
    • H04L27/26524Fast Fourier transform [FFT] or discrete Fourier transform [DFT] demodulators in combination with other circuits for demodulation
    • H04L27/26526Fast Fourier transform [FFT] or discrete Fourier transform [DFT] demodulators in combination with other circuits for demodulation with inverse FFT [IFFT] or inverse DFT [IDFT] demodulators, e.g. standard single-carrier frequency-division multiple access [SC-FDMA] receiver or DFT spread orthogonal frequency division multiplexing [DFT-SOFDM]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L5/00Arrangements affording multiple use of the transmission path
    • H04L5/003Arrangements for allocating sub-channels of the transmission path
    • H04L5/0048Allocation of pilot signals, i.e. of signals known to the receiver
    • H04L5/0051Allocation of pilot signals, i.e. of signals known to the receiver of dedicated pilots, i.e. pilots destined for a single user or terminal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L25/00Baseband systems
    • H04L25/02Details ; arrangements for supplying electrical power along data transmission lines
    • H04L25/0202Channel estimation
    • H04L25/024Channel estimation channel estimation algorithms
    • H04L25/025Channel estimation channel estimation algorithms using least-mean-square [LMS] method

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Power Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Discrete Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Complex Calculations (AREA)
  • Digital Transmission Methods That Use Modulated Carrier Waves (AREA)
  • Channel Selection Circuits, Automatic Tuning Circuits (AREA)

Abstract

Offenbart ist eine elektronische Vorrichtung, die enthält: einen Prozessor und einen Speicher, wobei der Prozessor konfiguriert ist, eine Frequenzinterpolation an einer Kanalschätzung bei allen Ressourcenelementen (REs) durchzuführen, die sich dort befinden, wo ein Demodulationsbezugssignal übertragen wird, eine Zeitinterpolation an einem mit einer Frequenzdomäne interpolierten Kanal durchzuführen, welcher aus der Frequenzinterpolation erhalten wird, und eine verbesserte Kanalschätzung basierend auf Kanalschätzungen bei REs in einer Frequenzdomäne und REs einer Zeitdomäne zu berechnen, wobei die Kanalschätzungen aus der Zeitinterpolation ausgegeben werden.

Description

  • Priorität
  • Diese Anmeldung basiert auf der und beansprucht die Priorität unter 35 U.S.C. § 119(e) der am 13. April 2021 beim Amerikanischen Patent- und Markenamt eingereichten vorläufigen U.S.-Patentanmeldung Nr. 63/174,302 , deren Inhalte durch Verweis hierin aufgenommen sind.
  • Hintergrund
  • 1. Gebiet
  • Die Offenbarung bezieht sich im Allgemeinen auf eine drahtlose Kommunikation und insbesondere auf eine Verbesserung einer Kanalschätzung in einem neuen drahtlosen Funkgerät(NR)-Kommunikationssystem einer fünften Generation (5G).
  • 2. Beschreibung der verwandten Technik
  • Eine Kanalschätzung ist ein wichtiger Aspekt einer 5G-NR-Operation einer physikalischen Schicht. In einem NR werden Informationen über Zeit-Frequenz-Ressourcenelemente (REs) auf einem gemeinsam genutzten physikalischen Downlink-Kanal (PDSCH) übertragen. Um diese Informationen zu entschlüsseln, müssen Kanäle von REs, über die Daten übertragen werden, geschätzt werden. Um diese Kanäle zu schätzen, werden bekannte Piloten, die als Demodulationsbezugssignale (DMRS) bezeichnet werden, übertragen. Den Kanal aus einem DMRS in einem NR zu schätzen ist anspruchsvoll, da es deutlich weniger DMRSs gibt als die Anzahl an REs, über die Daten übertragen werden. Dieses Problem wird durch Hardwarekomplexitätseinschränkungen verschlimmert.
  • Eine herkömmlicher Kanalschätzungsalgorithmus schätzt Kanäle bei PDSCH-Daten-REs unter Verwendung eines linearen kleinsten mittleren quadratischen Fehlers (LMMSE) basierend auf einer linearen Interpolation entlang der Frequenz- und Zeitdimensionen. Das LMMSE-Verfahren erfordert die Kanalfrequenz und Zeitkorrelation zwischen unterschiedlichen REs, die aus dem geschätzten Leistungsverzögerungsprofil (PDP) und einer Doppler-Verbreitung erhalten werden können.
  • Es gibt jedoch einige Nachteile für den herkömmlichen Algorithmus. Aufgrund einer Schmalband(NB)-Vorkodierung kann die Kanalschätzung lediglich basierend dem DMRS innerhalb einer Vorkodierungsressourcenblockgruppe (PRG) durchgeführt werden. Im herkömmlichen Algorithmus kann lediglich eine beschränkte Anzahl an DMRSs innerhalb einer PRG zum Schätzen eines Kanals aufgrund von Hardwarekomplexitätseinschränkungen verwendet werden. In einigen Kanalschätzungsalgorithmen muss die lineare Interpolation über Frequenz und Zeit aufgrund von Hardwarekomplexitätseinschränkungen unabhängig durchgeführt werden. Darüber hinaus neigt eine Vorkodierung dazu, pro PRG zu variieren, was die Nutzerausrüstung (UE) daran hindert, eine Rauschunterdrückung in einer Zeitdomäne durchzuführen.
  • Somit besteht im Stand der Technik Bedarf an einem Maschinenlemen-Kanalschätzungsverfahren, das diese Mängel des herkömmlichen Kanalschätzungsalgorithmus behebt.
  • Kurzfassung
  • Die vorliegende Offenbarung wurde gefertigt, um mindestens die oben genannten Probleme und/oder Nachteile anzusprechen und mindestens die unten beschriebenen Vorteile bereitzustellen.
  • Dementsprechend ist es ein Aspekt der vorliegenden Offenbarung, ein Verfahren und eine Vorrichtung bereitzustellen, die sich auf überwachtes Lernen fokussieren, das ein neuronales Netzwerk trainiert, den geschätzten Kanal zu optimieren.
  • Ein weiterer Aspekt der vorliegenden Offenbarung ist es, ein Verfahren und eine Vorrichtung bereitzustellen, in denen Eingabemerkmale in ein neuronales Netzwerk Kanalschätzungen aus einem herkömmlichen Algorithmus sind und die geeigneten Kanäle als die Ausgabe-Labels des neuronalen Netzwerks verwendet werden, wodurch ermöglicht wird, dass das neuronale Netzwerk als eine Zuordnungsfunktion trainiert wird, welche die Kanalschätzungen aus dem herkömmlichen Algorithmus in Richtung des geeigneten Kanals verbessert.
  • In Übereinstimmung mit einem Aspekt der Offenbarung enthält eine elektronische Vorrichtung: mindestens einen Prozessor, und mindestens einen Speicher, der mit dem mindestens einen Prozessor operativ verbunden ist, wobei der mindestens eine Speicher Anweisungen speichert, die, wenn sie ausgeführt werden, den mindestens einen Prozessor anweisen: eine Frequenzinterpolation an einer Kanalschätzung bei allen Ressourcenelementen (REs) durchzuführen, die sich dort befinden, wo ein Demodulationsbezugssignal (DMRS) übertragen wird, eine Zeitinterpolation an einem mit einer Frequenzdomäne interpolierten Kanal durchzuführen, welcher aus der Frequenzinterpolation erhalten wird, und eine verbesserte Kanalschätzung basierend auf Kanalschätzungen bei REs in einer Frequenzdomäne und REs einer Zeitdomäne zu berechnen, wobei die Kanalschätzungen aus der Zeitinterpolation ausgegeben werden.
  • In Übereinstimmung mit einem Aspekt der Offenbarung enthält eine elektronische Vorrichtung: mindestens einen Prozessor, und mindestens einen Speicher, der mit dem mindestens einen Prozessor operativ verbunden ist, wobei der mindestens eine Speicher Anweisungen speichert, die, wenn sie ausgeführt werden, den mindestens einen Prozessor anweisen: eine Frequenzinterpolation an einer Kanalschätzung bei allen REs durchzuführen, die sich dort befinden, wo ein DMRS übertragen wird, eine verbesserte Kanalschätzung basierend auf einem mit einer Frequenzdomäne interpolierten Kanal zu berechnen, welcher aus der Frequenzinterpolation erhalten wird, und eine Zeitinterpolation an der verbesserten Kanalschätzung durchzuführen.
  • In Übereinstimmung mit einem Aspekt der Offenbarung enthält eine elektronische Vorrichtung: mindestens einen Prozessor, und mindestens einen Speicher, der mit dem mindestens einen Prozessor operativ verbunden ist, wobei der mindestens eine Speicher Anweisungen speichert, die, wenn sie ausgeführt werden, den mindestens einen Prozessor anweisen: eine Frequenzinterpolation an einer Kanalschätzung bei allen REs durchzuführen, die sich dort befinden, wo ein DMRS übertragen wird, eine Zeitinterpolation an einem mit einer Frequenzdomäne interpolierten Kanal durchzuführen, welcher aus der Frequenzinterpolation erhalten wird, ein Trainieren eines neuronalen Netzwerks basierend auf Kanalschätzungen bei REs in einer Frequenzdomäne und REs in einer Zeitdomäne als eine Eingabe aus der Zeitinterpolation durchzuführen, und einen für eine Zeit- und Frequenzdomäne geeigneten Kanal basierend auf dem Trainieren des neuronalen Netzwerks auszugeben.
  • In Übereinstimmung mit einem Aspekt der Offenbarung enthält eine elektronische Vorrichtung: mindestens einen Prozessor, und mindestens einen Speicher, der mit dem mindestens einen Prozessor operativ verbunden ist, wobei der mindestens eine Speicher Anweisungen speichert, die, wenn sie ausgeführt werden, den mindestens einen Prozessor anweisen: eine Frequenzinterpolation an einer Kanalschätzung bei allen REs durchzuführen, die sich dort befinden, wo ein DMRS übertragen wird, Kanalschätzungen durch Durchführen einer Zeitinterpolation an einem mit einer Frequenzdomäne interpolierten Kanal, welcher aus der Frequenzinterpolation erhalten wird, zu erhalten, die Kanalschätzungen durch Anwenden einer zweidimensionalen diskreten Fouriertransformation und diskreten inversen Fouriertransformation (2D-DFT-IDFT) auf die Kanalschätzungen bei REs in einer Frequenzdomäne und REs in einer Zeitdomäne in eine Doppler-Verzögerungsdomäne zu transformieren, die in die Doppler-Verzögerungsdomäne umgewandelten Kanalschätzungen in ein neuronales Netzwerk einzugeben, die 2D-DFT-IDFT auf einen für eine Zeit- und Frequenzdomäne geeigneten Kanal anzuwenden, und einen geeigneten Doppler-Verzögerungsdomänenkanal durch Anwenden einer Ausgabe der 2D-DFT-IDFT, die auf den für eine Zeit- und Frequenzdomäne geeigneten Kanal angewandt wird, auf vom neuronalen Netzwerk ausgegebene optimierte Kanalschätzungen zu berechnen.
  • In Übereinstimmung mit einem Aspekt der Offenbarung enthält eine elektronische Vorrichtung: mindestens einen Prozessor, und mindestens einen Speicher, der mit dem mindestens einen Prozessor operativ verbunden ist, wobei der mindestens eine Speicher Anweisungen speichert, die, wenn sie ausgeführt werden, den mindestens einen Prozessor anweisen: eine Frequenzinterpolation an einer Kanalschätzung bei allen REs durchzuführen, die sich dort befinden, wo ein DMRS übertragen wird, Kanalschätzungen durch Durchführen einer Zeitinterpolation an einem mit einer Frequenzdomäne interpolierten Kanal, welcher aus der Frequenzinterpolation erhalten wird, zu erhalten, die Kanalschätzungen durch Anwenden einer zweidimensionalen diskreten Fouriertransformation und diskreten inversen Fouriertransformation (2D-DFT-IDFT) auf die Kanalschätzungen bei REs in einer Frequenzdomäne und REs in einer Zeitdomäne in eine Doppler-Verzögerungsdomäne zu transformieren, die in die Doppler-Verzögerungsdomäne transformierten Kanalschätzungen in ein neuronales Netzwerk einzugeben, eine zweidimensionale diskrete Fouriertransformation und diskrete inverse Fouriertransformation (2D-IDFT-DFT) auf die vom neuronalen Netzwerk ausgegebenen optimierten Kanalschätzungen anzuwenden, und eine verbesserte Kanalschätzung basierend auf einer Ausgabe der 2D-IDFT-DFT zu erhalten.
  • In Übereinstimmung mit einem Aspekt der Offenbarung enthält eine elektronische Vorrichtung: mindestens einen Prozessor, und mindestens einen Speicher, der mit dem mindestens einen Prozessor operativ verbunden ist, wobei der mindestens eine Speicher Anweisungen speichert, die, wenn sie ausgeführt werden, den mindestens einen Prozessor anweisen: Kandidatenknoten eines Primärnetzwerks und eines Sekundärnetzwerks zu erhalten, eine Gewichtung an den Kandidatenknoten des Primärnetzwerks und des Sekundämetzwerks durchzuführen, die gewichteten Knoten auszugeben, um zu gewichteten Vektoren zu gelangen, die gewichteten Vektoren durch Durchführen einer Summierungsoperation zu summieren, und ein Endnetzwerk zu erhalten, das basierend auf Ausgabeknoten aus der Summierungsoperation ausgegeben wird.
  • Figurenliste
  • Für ein deutlicheres Verständnis der oben genannten und anderer Aspekte, Merkmale und Vorteile der vorliegenden Offenbarung sorgt die folgende, ausführliche Beschreibung in Verbindung mit den beigefügten Zeichnungen, wobei:
    • 1 einen Kanalschätzungsalgorithmus nach dem Stand der Technik darstellt;
    • 2 einen Prozess einer Kanalschätzungsverbesserung basierend auf sowohl Daten als auch DMRS-Symbolen nach einer Ausführungsform darstellt;
    • 3 einen Prozess einer Kanalschätzungsverbesserung basierend auf DMRS-Symbolen nach einer Ausführungsform darstellt;
    • 4 eine Netzwerkstruktur für eine Zeit-Frequenz-Domänen-Kanalschätzungsverbesserung nach einer Ausführungsform darstellt;
    • 5 eine Zeit-Frequenz-Domänen-Kanalschätzungsverbesserung nach einer Ausführungsform darstellt;
    • 6 eine Netzwerkstruktur für eine Doppler-Verzögerungsdomänen-Kanalschätzungsverbesserung nach einer Ausführungsform darstellt;
    • 7 eine Doppler-Verzögerungsdomänen-Kanalschätzungsverbesserung nach einer Ausführungsform darstellt;
    • 8 eine Netzwerkstruktur ohne eine Zeitinterpolationsschicht nach einer Ausführungsform darstellt;
    • 9 eine Kanalschätzungsverbesserung basierend auf einem neuronalen Netzwerk ohne eine Zeitinterpolationsschicht nach einer Ausführungsform darstellt;
    • 10 eine Netzwerkstruktur mit einer Zeitinterpolationsschicht nach einer Ausführungsform darstellt;
    • 11 eine Kanalschätzungsverbesserung basierend auf einem neuronalen Netzwerk mit einer Zeitinterpolationsschicht nach einer Ausführungsform darstellt;
    • 12 eine DMRS-basierte Kanalschätzung mit einem Aufmerksamkeitslernen nach einer Ausführungsform darstellt;
    • 13 ein Blockdiagramm einer elektronischen Vorrichtung in einer Netzwerkumgebung nach einer Ausführungsform ist; und
    • 14 einen Rauschunterdrückungs-Autokodierer darstellt, auf den die Offenbarung angewandt wird.
  • Ausführliche Beschreibung
  • Ausführungsformen der vorliegenden Offenbarung werden hierin unten mit Bezug auf die beigefügten Zeichnungen beschrieben. Die Ausführungsformen der Offenbarung sind jedoch nicht auf die spezifischen Ausführungsformen beschränkt und sind als alle Modifikationen, Änderungen, Äquivalentvorrichtungen und Verfahren enthaltend und/oder als alternative Ausführungsformen der vorliegenden Offenbarung anzusehen.
  • Beschreibungen von wohlbekannten Funktionen und/oder Konfigurationen sind der Klarheit und Kürze halber weggelassen.
  • Die Ausdrücke „aufweisen“, „kann/können aufweisen“, „enthalten“ und „kann/können enthalten“, wie sie hierin verwendet werden, geben das Vorhandensein von entsprechenden Merkmalen an, wie Zahlenwerte, Funktionen, Operationen oder Teile, und schließen das Vorhandensein zusätzlicher Merkmale nicht aus. Die Ausdrücke „A oder B“, „mindestens eines von A oder/und B“ oder „eines oder mehrere von A oder/und B“, wie sie hierin verwendet werden, enthalten alle möglichen Kombinationen der mit ihnen aufgelisteten Elemente. Zum Beispiel geben „A oder B“, „mindestens eines von A und B“ oder „mindestens eines von A oder B“ an, dass (1) mindestens ein A enthalten ist, (2) mindestens ein B enthalten ist, oder (3) sowohl mindestens ein A als auch mindestens ein B enthalten sind.
  • Begriffe wie „erste/r/s“ und „zweite/r/s“, wie sie hierin verwendet werden, können verschiedene Elemente unabhängig von einer Reihenfolge und/oder Wichtigkeit der entsprechenden Elemente modifizieren und beschränken die entsprechenden Elemente nicht. Diese Begriffe können verwendet werden, um ein Element von einem anderen Element zu unterscheiden. Zum Beispiel können eine erste Nutzervorrichtung und eine zweite Nutzervorrichtung unterschiedliche Nutzervorrichtungen unabhängig von der Reihenfolge und Wichtigkeit angeben. Ein erstes Element kann als ein zweites Element bezeichnet werden, ohne vom Umfang der Offenbarung abzuweichen, und gleichermaßen kann ein zweites Element als ein erstes Element bezeichnet werden.
  • Wenn ein erstes Element „mit“ einem anderen Element, wie einem zweiten Element, „verbunden“ oder „operativ oder kommunikativ gekoppelt“ oder „an“ jenes andere Element „operativ oder kommunikativ gekoppelt“ ist, kann das erste Element direkt mit dem zweiten Element oder direkt an das zweite Element gekoppelt sein und es kann ein dazwischenliegendes Element, wie ein drittes Element, zwischen dem ersten und zweiten Element vorliegen. Wenn im Gegensatz dazu das erste Element „direkt mit“ dem zweiten Element „verbunden“ oder „gekoppelt“ oder „an“ jenes zweite Element „gekoppelt“ ist, liegt kein dazwischenliegendes Element zwischen dem ersten und zweiten Element vor.
  • Alle der hierin verwendeten Begriffe, darunter technische oder wissenschaftliche Begriffe, weisen dieselben Bedeutungen auf, wie sie von einem Fachmann im Stand der Technik allgemein verstanden wird, sofern nicht anderweitig definiert. Die Begriffe, die in allgemein gebräuchlichen Wörterbüchern definiert sind, sind derart zu interpretieren, als dass sie dieselbe oder eine ähnliche Bedeutung aufweisen wie die Bedeutung des Kontexts des relevanten Stands der Technik und soll nicht als eine geeignete oder übertriebene Bedeutung aufweisend interpretiert werden, sofern nicht ausdrücklich hierin definiert. Gemäß den Umständen sollen selbst die in dieser Offenbarung definierten Begriffe nicht derart interpretiert werden, als dass sie die Ausführungsformen der Offenbarung ausschließen.
  • Die hierin offenbarten Systeme und Verfahren trainieren ein neuronales Netzwerk, wie ein neuronales Mehrschicht-Perzeptron(MLP)-Netzwerk, um zum Beispiel Kanalschätzungen aus dem herkömmlichen Kanalschätzungsalgorithmus zu optimieren. Das neuronale Netzwerk handelt als eine Zuordnungsfunktion, die das Eingabemerkmal dem Ausgabe-Label zuordnet. Dies ist ein datenangetriebenes Verfahren und kein modellangetriebenes Verfahren wie im Stand der Technik.
  • Die hierin offenbarten Systeme und Verfahren führen eine Kanalschätzungsverbesserung basierend auf sowohl Daten als auch DMRS-Symbolen durch. Die Eingabemerkmale sind Zeit-Frequenz-Domänen-Kanalschätzungen und Doppler-Verzögerungsdomänen-Kanalschätzungen, die sowohl Daten als auch DRMS-Symbolen pro Ressourcenblock (RB) entsprechen. Die Ausgabe-Labels sind ein geeigneter Doppler-Verzögerungsdomänenkanal, der sowohl Daten als auch DMRS-Symbolen pro Ressourceneinheit, zum Beispiel pro RB, PRG oder Bandbreitenteil (BWP), entspricht. Die Doppler-Verzögerungsdomänenkanäle werden durch Anwenden einer zweidimensionalen diskreten Fouriertransformation und diskreten inversen Fouriertransformation (2D-DFT-IDFT) auf die Zeit-Frequenz-Domänenkanäle erhalten.
  • Die hierin offenbarten Systeme und Verfahren führen eine Kanalschätzungsverbesserung basierend auf DMRS-Symbolen durch. Die Eingabemerkmale sind Zeit-Frequenz-Domänen-Kanalschätzungen, die DMRS-Symbolen pro Ressourceneinheit entsprechen. Die Ausgabe-Labels sind ein geeigneter Kanal, der DMRS-Symbolen pro Ressourceneinheit entspricht. Das Netzwerk enthält eine Schicht mit festen (d.h. nicht trainierbaren) Gewichtungen, die eine Zeitinterpolation durchführt.
  • In dem hierin offenbarten Algorithmus basiert die Kanalschätzung auf einem neuronalen Netzwerk mit Kanalschätzungen aus dem herkömmlichen Algorithmus als der Eingabe anstatt, dass die Kanalschätzung auf einer LMMSE-Interpolation entlang der Frequenz- und Zeitdomäne basiert. Im offenbarten Algorithmus kann die Kanalschätzungsverbesserung basierend auf Kanalschätzungen, die sowohl Daten als auch DMRS-Symbolen pro Ressourceneinheit entsprechen, oder lediglich basierend auf Kanalschätzungen, die DMRS-Symbolen pro Ressourceneinheit entsprechen, durchgeführt werden.
  • 1 stellt einen Kanalschätzungsalgorithmus 100 nach dem Stand der Technik dar. In 1 bezeichnet Y 105 das empfangene Signal bei REs in einer PRG, in der das DMRS übertragen wird. ĤDMRS 115 bezeichnet eine Kanalschätzung 110 bei REs, in denen das DMRS übertragen wird. ĤF bezeichnet den mit einer Frequenzdomäne interpolierten Kanal 125, der nach einer Frequenzinterpolation 120 der Kanalschätzung 110 empfangen wird, und enthält Kanalschätzungen bei allen REs innerhalb einer PRG in Bezug auf die Frequenzdomäne. RTF 135 bezeichnet den mit einer Zeitfrequenzdomäne interpolierten Kanal, der nach einer Zeitinterpolation 130 des mit einer Frequenzdomäne interpolierten Kanals 125 erhalten wird, und enthält Kanalschätzungen bei allen REs innerhalb einer PRG in Bezug auf die Frequenzdomäne. Die Zeitdomäne enthält alle REs, in denen entweder das DMRS oder Daten übertragen werden.
  • 2 stellt einen Prozess 200 einer Kanalschätzungsverbesserung basierend auf sowohl Daten als auch DMRS-Symbolen nach einer Ausführungsform dar. In 2 ist die Eingabe in den Kanalschätzungsverbesserungsblock der mit einer Zeitfrequenzdomäne interpolierte Kanal ĤTF 235, der durch den herkömmlichen Kanalschätzungsalgorithmus 105-130 in 1, der identisch ist zu 205-230 in 2, geschätzt wird. Ähnlich der Beschreibung in 1, enthält ĤTF 235 in 2 Kanalschätzungen bei allen REs innerhalb eines RB in der Frequenzdomäne und alle REs, in denen entweder ein DMRS oder Daten in der Zeitdomäne übertragen werden. In 2 bezeichnet ĤTF 245 jedoch den optimierten Kanal nach einer Kanalschätzungsverbesserung 240.
  • 3 stellt einen Prozess 300 einer Kanalschätzungsverbesserung basierend auf DMRS-Symbolen nach einer Ausführungsform dar. In 3 ist die Eingabe in den Kanalschätzungsverbesserungsblock 330 der mit einer Frequenzdomäne interpolierte Kanal ĤF 325, der durch den herkömmlichen Kanalschätzungsalgorithmus 105-125 in 1, der identisch ist zu 305-325 in 3, geschätzt wird. Ähnlich der Beschreibung in 1, enthält ĤF 325 in 3 Kanalschätzungen bei allen REs innerhalb eines RB in der Frequenzdomäne und REs, in denen ein DMRS in der Zeitdomäne übertragen wird. In 3 bezeichnet H ^ F '
    Figure DE102022106961A1_0001
    335 jedoch den optimierten Kanal nach einer Kanalschätzungsverbesserung 330, was demselben Satz an REs wie ĤF 325 entspricht. H ^ T F '
    Figure DE102022106961A1_0002
    345 wird nach einer Zeitinterpolation 340 basierend auf H ^ F '
    Figure DE102022106961A1_0003
    335 erhalten.
  • Für eine auf sowohl Daten als auch DMRS-Symbolen basierte Kanalschätzungsverbesserung auf eine Slot-basierte Optimierungsweise werden hierin eine Zeit-Frequenz-Domänenverbesserung und eine Doppler-Verzögerungsdomänenverbesserung offenbart.
  • 4 stellt eine Netzwerkstruktur 400 für eine Zeit-Frequenz-Domänen-Kanalschätzungsverbesserung nach einer Ausführungsform dar. In 4, die DMRS-basiert ist, sind Eingabemerkmale Zeit-Frequenz-Domänen-Kanalschätzungen ĤTF 405 aus dem herkömmlichen Kanalschätzungsalgorithmus 105-135 in 1. Das neuronale Netzwerk 410 ist trainiert, wie unten beschrieben wird, und Ausgabe-Labels sind ein für eine Zeit-Frequenz-Domäne geeigneter Kanal H T F g e e i g n e t
    Figure DE102022106961A1_0004
    415, der denselben REs wie im Eingabemerkmal ĤTF 405 entspricht. In solch einer Zeit-Frequenz-Domänen-Kanalschätzungsverbesserung wird ein Rauschunterdrückungs-Autokodierer 1400 verwendet, um alle Zeit-Frequenz-Elemente pro Einheit, wie pro RB oder pro Bündel, zu optimieren. Ein Beispiel für den Rauschunterdrückungs-Autokodierer 1400 ist in 14 dargestellt. Dementsprechend werden eine Komplexität und Größe der Netzwerkstruktur reduziert und die Verwendung von konvolutionären Techniken wird zum Beispiel vermieden.
  • Zu beachten ist, dass der Trainingsverlust, der ferner unten mit Bezug auf 5 beschrieben wird, einen mittleren quadratischen Fehler verwenden kann, wie im nachfolgenden Bruch, in dem ein MLP ein Mehrschicht-Perzeptron ist, ausgedrückt. s = 1 S MLP p ( x ( s ) ) y ( s ) S
    Figure DE102022106961A1_0005
  • Ein Hauptaspekt dieser Slot-basierten Kanalschätzung ist es, die Legacy-Kanalschätzung, d.h. die Nsc × (Nsym - Nctrl)-Matrix HRCE, unter Verwendung eines Lernalgorithmus zu optimieren. Die Optimierung wird auf einer Slot-für-Slot-Basis über jeden RB durchgeführt. Der Eingabemerkmalsvektor in einer Slot-basierten Kanalschätzung wird unter Verwendung von HRCE ausgebildet und weist Dimensionen Nin = 2Nsc(Nsym - Nctrl) auf. Die MLP-Ausgabedimensionen sind Nout = 2Nsc(Nsym - Nctrl). Um das MLP-Netzwerk in einer Slot-basierten Kanalschätzung zu trainieren, wird zunächst ein Datensatz durch Stapeln einer Sammlung von HRCE-Matrizen, die über unterschiedliche Sende- und Empfangsschichten erhalten werden, und unterschiedlichen RBs innerhalb einer jeden Schicht erhalten. Diese Schichten entsprechen einer Funkfrequenzkette im Mehrfacheingabe-Mehrfachausgabe-System und werden von den Schichten in einem MLP (d.h. dem neuronalen Netzwerk) unterschieden.
  • Ein Datensatz, der eine Sammlung an geeigneten Kanalschätzungen (ICE) enthält, d.h. HICEs, die den Legacy-Kanalschätzungen (RCEs) entsprechen, wird ebenfalls ausgebildet. Sowohl die RCE- als auch die ICE-Datensätze werden durch Entsorgen von Kanälen unter Verwendung eines Simulators erhalten. Das neuronale Netzwerk wird letztendlich unter Verwendung des RCE-basierten Datensatzes und des entsprechenden ICE-Datensatzes trainiert. Es wird erwartet, dass das Netzwerk eine ICE vorhersagt, wenn eine RCE als eine Eingabe gegeben ist. In der Praxis kann es jedoch einen Fehler in der optimierten Kanalschätzung aufgrund von Rauschen im Trainingsdatensatz und einer beschränkten Funktionsannäherungsfähigkeit des offenbarten neuronalen Netzwerks geben.
  • Das trainierte neuronale Netzwerk ist nützlich, wenn der Fehler in der optimierten Kanalschätzung kleiner ist als der Fehler in einer RCE.
  • Während einer Inferenz wird das trainierte Netzwerk zum Erhalten einer optimierten Kanalschätzung verwendet, die anschließend für einen Ausgleich, eine Interferenzaufhellung und eine Symbolerfassung verwendet wird. Die Performance des MLPbasierten Netzwerks wird in Bezug auf die Blockfehlerrate (BLER) evaluiert.
  • 5 stellt eine Zeit-Frequenz-Domänen-Kanalschätzungsverbesserung 500 nach einer Ausführungsform dar. Nachdem das neuronale Netzwerk 510 trainiert worden ist, werden die Kanalschätzungen ĤTF 505 aus dem herkömmlichen Algorithmus während einer Inferenz in das neuronale Netzwerk 510 eingegeben, um optimierte Kanalschätzungen H ^ T F '
    Figure DE102022106961A1_0006
    515 zu erzeugen, wie in 5 gezeigt.
  • Insbesondere wird für eine Zeit-Frequenz-Domänen-Kanalschätzungsverbesserung die Zeit-Frequenz-Kanalschätzung mit dem Legacy-Verfahren, d.h. HRCE, verwendet, um den Eingabemerkmalsvektor 2(Nsym - Nctrl)Nsc × 1 wie in Gleichung (1) unten auszubilden. x = [ vec ( Re { H RCE } ) vec ( Im { H RCE } ) ]
    Figure DE102022106961A1_0007
    die durch Stapeln der realen und imaginären Komponenten von HRCE erhalten wird.
  • Der Vektor, der dem geeigneten Kanal entspricht, wird wie in Gleichung (2) unten definiert. y = [ vec ( Re { H ICE } ) vec ( Im { H ICE } ) ]
    Figure DE102022106961A1_0008
  • Eine lernbasierte Kanalschätzung beinhaltet zunächst Lernen einer Zuordnungsfunktion aus einem Satz an Paaren { ( x ( s ) , y ( s ) ) } s = 1 S ,
    Figure DE102022106961A1_0009
    die als eine Ausgabe aus einem Simulator erhalten werden. Dann wird die gelernte Zuordnung während einer Inferenz für eine Kanalschätzungsoptimierung verwendet.
  • Das oben beschriebene neuronale Netzwerk wird verwendet, um sich der Zuordnung zwischen der RCE und der ICE anzunähern. Die Ausgabe des Netzwerks, wenn x auf die Eingabe angewandt wird, wird wie in Gleichung (3) unten definiert. y ^ = MLP p ( x )
    Figure DE102022106961A1_0010
  • Für den Trainingssatz mit einer Zeit-Frequenz-Optimierung (TFR) wird der mittlere quadratische Fehlerverlust in der Annäherung wie in Gleichungen (4) und (5) unten beschrieben. L T F R = Σ s = 1 S y ^ ( s ) y ( s ) 2 S
    Figure DE102022106961A1_0011
    = Σ s = 1 S MLP p ( x ( s ) ) y ( s ) 2 S
    Figure DE102022106961A1_0012
  • Die Netzwerkparameter, d.h., die Gewichtungen und die Vorspannungen von MLPp(·), werden optimiert, um den Trainingsverlust LTFR zu minimieren. Wenn pTFR die optimierten Parameter bezeichnet, ist die vektorisierte Kanalschätzung mit einer Zeit-Frequenz-Optimierung durch ŷ = MLPpTFR (x) gegeben, wobei x die mit dem Legacy-Verfahren erhaltene RCE bezeichnet. In Gleichung (2) wird beobachtet, dass die realen und die imaginären Teile der vektorisierten Kanalschätzung aus der ersten und der zweiten Hälfte von ŷ extrahiert werden können. Die Kanalschätzung mit der Zeit-Frequenz-Optimierung wird durch Umformen der vektorisierten CE in eine Nsc × (Nsym - Nctrl)-Matrix erhalten, d.h., wie in Gleichung (6) unten. H ^ TFR = Umformen ( y ^ [ 1 : N o u t 2 ] , [ N s c , N s y m N c t r l ] ) + j Umformen ( y ^ [ 1 + N o u t 2 ] , [ N s c , N s y m N c t r l ] )
    Figure DE102022106961A1_0013
  • 6 stellt eine Netzwerkstruktur 600 für eine Doppler-Verzögerungsdomänen-Kanalschätzungsverbesserung nach einer Ausführungsform dar. In 6, die DMRS-basiert ist, enthält das Eingabemerkmal Doppler-Verzögerungsdomänen-Kanalschätzungen ĤDD 615, die durch Anwenden einer 2D-DFT-IDFT-Transformation 610 auf Zeit-Frequenz-Domänen-Kanalschätzungen ĤTF 605 aus einem herkömmlichen Kanalschätzungsalgorithmus erhalten werden. Das Ausgabe-Label ist der geeignete Doppler-Verzögerungsdomänenkanal H D D g e e i g n e t
    Figure DE102022106961A1_0014
    625, der offline aus dem Simulator erhalten wird und zum Trainieren verwendet wird. Das heißt, das Ausgabe-Label ist optimierte Kanalschätzungen, die vom neuronalen Netzwerk 620 zu einer Ausgabe einer 2D-DFT-IDFT-Transformation 630, die auf den für eine Zeit- und Frequenzdomäne geeigneten Kanal H D D g e e i g n e t
    Figure DE102022106961A1_0015
    angewandt wird, ausgegeben werden. Mit anderen Worten werden die optimierten Kanalschätzungsausgaben durch Anwenden der Legacy-Kanalschätzungsausgabe mit einer 2D-DFT-IDFT-Transformation 630 in das neuronale Netzwerk 620 ausgegeben.
  • Für eine 2D-DFT-IDFT-Transformation 610 wird U als eine DFT-Matrix bezeichnet und die Transformation von ĤTF 605 zu ĤDD 615 ist dann in Gleichung (7) unten gegeben. H ^ D D = U H H ^ T F U
    Figure DE102022106961A1_0016
  • In Gleichung (7) bezeichnet UH die Konjugiert-Transponierte von U.
  • Wie oben erwähnt, verwenden die Ausführungsformen aus 4 und 6 DMRS-Symbole. Somit wird eine Kanalschätzung an der Position der DMRS-Symbole optimiert. Diese Verfahren verwenden HFDI, den mit einer Frequenzdomäne interpolierten Kanal an den DMRS-Positionen, um die Eingabemerkmale auszubilden. Insbesondere wird der Eingabemerkmalsvektor wie in Gleichung (8) unten definiert. x = [ vec ( Re { H FDI } ) vec ( Re { H FDI } ) ]
    Figure DE102022106961A1_0017
  • Die Verfahren, welche die DMRS-Symbole verwenden, führen eine Kanalschätzungsoptimierung durch Ausnutzen einer Kanalstruktur über mehrere DMRS-Positionen hinweg durch, wenn Ndmrs > 1. Solch eine Struktur wird nicht mit einer Frequenzdomäneninterpolation ausgenutzt, die auf einer Pro-Symbol-Basis operiert.
  • Die Ausgabe des Netzwerks in der Kanalschätzungsoptimierung unter Verwendung der DMRS-Symbole ist der optimierte Kanal an den DMRS-Positionen. Somit wird das Netzwerk unter Verwendung einer ICE trainiert, die an den DMRS-Symbolpositionen unterabgetastet wird. Zum Trainieren wird zunächst ein Satz I dmrs  =  { i 1     N c t r l , i 2     N c t r l ,     i N d m r s     N c t r l }
    Figure DE102022106961A1_0018
    ausgebildet. Dann werden die Ausgabemerkmale in DGR wie in Gleichung (9) ausgebildet. y = [ vec ( Re { H ICE ( : , I dmrs ) } vec ( Im { H ICE ( : , I dmrs ) } ]
    Figure DE102022106961A1_0019
  • Es wird beobachtet, dass die Dimensionen von x und y in diesem Verfahren Nin = 2NscNdmrs und Nout = 2NscNdmrs sind. Das Paar an Vektoren { ( x ( s ) , y ( s ) ) } s = 1 S
    Figure DE102022106961A1_0020
    wird aus der Simulation erthalten und der MSE-Verlust wird zum Trainieren des in 4 gezeigten Dreischichtnetzwerks verwendet.
  • Während einer Inferenz wird zunächst eine herkömmliche Frequenzdomäneninterpolation, die auf einem linearen minimalen mittleren quadratischen Fehler (LMMSE) basiert, durchgeführt, um HFDI zu erhalten. Dann wird der Eingabemerkmalsvektor x unter Verwendung von Gleichung (8) aus HFDI ausgebildet und dann durch das trainierte MLP-Netzwerk gesendet. Die Ausgabe des Netzwerks y wird unter Verwendung von Gleichung (10) unten zu einem optimierten Kanal an den DMRS-Positionen umgeformt. M ^ DRG = Umformen ( y ^ [ 1 : N o u t 2 ] , [ N s c , N d m r s ] ) + j Umformen ( y ^ [ 1 + N o u t 2 : N o u t ] , [ N s c , N d m r s ] )
    Figure DE102022106961A1_0021
  • Eine Zeitinterpolation wird über die Zeilen von M̂DGR durchgeführt, um die CE zu erhalten, wie in Gleichung (11) unten. H ^ DRG = M ^ DGR β LMMSE
    Figure DE102022106961A1_0022
  • In Gleichung (11) ist βLMMSE dieselbe Zeitdomäneninterpolationsmatrix, die im Legacy-Verfahren verwendet wird, und die Koeffizienten in βLMMSE werden aus dem Leistungsverzögerungsprofil abgeleitet.
  • 7 stellt eine Doppler-Verzögerungsdomänen-Kanalschätzungsverbesserung nach einer Ausführungsform dar. Insbesondere tritt der in 7 gezeigte Inferenzprozess auf, nachdem das neuronale Netzwerk 720 trainiert worden ist.
  • Kanalschätzungen aus einem herkömmlichen Algorithmus ĤTF 705 werden in die Doppler-Verzögerungsdomäne ĤDD 715 transformiert 710, die dann in das neuronale Netzwerk 720 eingegeben wird, um optimierte Kanalschätzungen H ^ D D '
    Figure DE102022106961A1_0023
    725 zu erzeugen. Zu beachten ist, dass H ^ D D '
    Figure DE102022106961A1_0024
    725 in der Doppler-Verzögerungsdomäne ist; somit wird eine zweidimensionale diskrete Fouriertransformation und diskrete inverse Fouriertransformation (2D-DFT-IDFT) 730 auf H ^ D D '
    Figure DE102022106961A1_0025
    725 angewandt, um H ^ D D '
    Figure DE102022106961A1_0026
    725 zurück zu der Zeit-Frequenz-Domäne H ^ T F '
    Figure DE102022106961A1_0027
    735 als die Verbesserungsendergebnisse, oder, mit anderen Worten, die verbesserte Kanalschätzung in der Zeit-Frequenz-Domäne, zu transformieren. Zu beachten ist, dass eine 2D-IDFT-DFT-Transformation 730 eine umgekehrte Transformation von 2D-DFT-IDFT durchführt, wie in Gleichung (12) unten gezeigt. H ^ T F ' = U H ^ D D ' U H
    Figure DE102022106961A1_0028
  • Es ist von Vorteil, das neuronale Netzwerk bei einer Doppler-Verzögerungsdomäne zu trainieren, da Informationen weiter gebündelt werden, was zu weniger Verbindungen im Netzwerk führt. Somit wird eine Netzwerkkomplexität reduziert.
  • Insbesondere ist die Zeit-Frequenz-Kanalmatrix H, deren Zeilen und Spalten den Teilträger und die Zeitdimensionen darstellen, zu berücksichtigen. Der Faktor Ufreq wird zum Bezeichnen der DFT-Matrix von Dimensionen Nsc × Nsc und UZeit als die DFT-Matrix von Dimensionen (Nsym - Nctrl) × (Nsym - Nctrl) verwendet. Durch Anwenden der IDFT entlang jeder Spalte von H, gefolgt von einer DFT entlang jeder Zeile des Resultats, wird folgendes, wie in Gleichung (13) unten, erhalten. X = U freq *   H U Zeit
    Figure DE102022106961A1_0029
  • Gleichung (13) bezieht sich auf die Verzögerungs-Doppler-Darstellung von H. Entsprechend gilt: H = U freq   H U Zeit * .
    Figure DE102022106961A1_0030
    In einem Schmalband-Szenario, in dem H dem Kanal über einem RB entspricht, ist U freq *
    Figure DE102022106961A1_0031
    H die Nsc-Punkt-DFT des Frequenzdomänenkanals, der über einem RB gefenstert ist.
  • XRCE und XICE werden als die Verzögerungs-Doppler-Darstellungen von HRCE und HICE definiert, d.h., X RCE = U freq *
    Figure DE102022106961A1_0032
    HRCEUZeit und X ICE = U freq *
    Figure DE102022106961A1_0033
    HICEUZeit. In der Doppler-Verzögerungsoptimierung werden die Eingabemerkmale durch Vektorisieren der realen und imaginären Teile von XRCE ausgebildet, d.h., wie in Gleichung (14) unten. x = [ vec ( Re { X RCE } ) vec ( Im { X RCE } ) ]
    Figure DE102022106961A1_0034
  • Gleichermaßen ist der Vektor, der dem geeigneten Kanal entspricht, wie in Gleichung (15) unten. y = [ vec ( Re { X ICE } ) vec ( Im { X ICE } ) ]
    Figure DE102022106961A1_0035
  • Zum Annähern der Zuordnung zwischen x und y und Minimieren des MSE-Verlusts wie in Gleichung (16) unten wird ein MLP-Netzwerk verwendet. L DDR = Σ s = 1 S M L P p ( x ( s ) ) y ( s ) 2 S
    Figure DE102022106961A1_0036
  • Diese Annäherung verläuft über einen Batch von S Abtastwerten, um die Gewichtungen des Netzwerks zu optimieren. Die Ausgabe des MLP-Netzwerks mit DDR wird als die Verzögerungs-Doppler-Darstellung einer ICE in einer geeigneten Einstellung erwartet.
  • Während einer Inferenz wird die vektorisierte Verzögerungs-Doppler-Darstellung x zunächst unter Verwendung von Gleichung (15) aus HRCE erhalten. Dann wird x einem MLP zugeführt, das durch Minimieren von LDDR trainiert wird. ŷ = MLPpDDR (x) soll die Ausgabe des trainierten MLP darstellen. Dann wird die optimierte Verzögerungs-Doppler-Darstellung wie in Gleichung (17) unten ausgedrückt. x ^ DDR = Umformen ( y ^ [ 1 : N o u t 2 ] , [ N sc , N sym N ctrl ] ) + j Umformen ( y ^ [ 1 : N o u t 2 ] , [ N sc , N sym N ctrl ] )
    Figure DE102022106961A1_0037
  • Der optimierte Zeit-Frequenz-Kanal ĤDDR wird wie in Gleichung (18) unten berechnet. H ^ D D R = U f r e q   X ^ D D R U Z e i t *
    Figure DE102022106961A1_0038
  • Die Eingabe- und Ausgabemerkmale, die in der Doppler-Verzögerungstechnik verwendet werden, unterscheiden sich von der Zeit-Frequenz-Optimierungstechnik lediglich durch eine durch Gleichung (13) definierte lineare Transformation. Aufgrund der Verwendung einer linearen Aktivierung an den Eingabe- und Ausgabeschichten des MLP kann solch eine Transformation vom Netzwerk erlernt werden, was die zwei Verfahren ähnlich macht. Die Doppler-Verzögerungstechnik kann jedoch eine einfachere Umsetzung einer Kanalschätzungsoptimierung ermöglichen.
  • Das hierin beschriebene Lernverfahren verwendet die 2D-DFT des Zeit-Frequenz-Kanals zum Lernen, d.h., X = Ufreq HUZeit, zum Ausbilden der Eingabemerkmale. Solch eine Herangehensweise unterstützt eine praktische Umsetzung der offenbarten Algorithmen unter Verwendung einer 2D Fast Fourier Transform. Die Performance mit diesen Merkmalen ist identisch zu jener mit der Verzögerungs-Doppler-Darstellung, die eine permutierte Version der 2D-DFT von H ist.
  • Um die Dimension der Eingabemerkmale auf das neuronale Netzwerk zu reduzieren, ist ferner eine Kanalschätzungsverbesserung basierend auf lediglich DMRS-Symbolen und ohne eine Zeitinterpolationsschicht offenbart. Es werden zwei unterschiedliche Netzwerkstrukturen verwendet, wie unten mit Bezug auf 8 und 9 beschrieben.
  • 8 stellt eine Netzwerkstruktur 800 ohne eine Zeitinterpolationsschicht nach einer Ausführungsform dar. In 8 sind alle Gewichtungen im neuronalen Netzwerk 810 trainierbar. Die Eingabemerkmale sind mit Frequenzen interpolierte Kanalschätzungen ĤF 805 aus dem herkömmlichen Kanalschätzungsalgorithmus, der Kanalschätzungen bei allen REs innerhalb einer Ressourceneinheit in der Frequenzdomäne und REs, in denen das DMRS in der Zeitdomäne übertragen wird, enthält. Die Ausgabemerkmale sind eine Ausgabe aus dem neuronalen Netzwerk 810 und sind ein geeigneter Kanal H F g e e i g n e t
    Figure DE102022106961A1_0039
    815, der denselben REs wie in ĤF 805 entspricht.
  • Infolgedessen beinhaltet die Kostenfunktion zum Trainieren des Netzwerks in 8 lediglich ĤF 805 und H F g e e i g n e t
    Figure DE102022106961A1_0040
    815, wie in Gleichung (19) unten vorgegeben. θ ^ = argamin θ 1 K Σ k = 1 K f θ ( H ^ F , k ) H F , k g e e i g n e t F 2
    Figure DE102022106961A1_0041
  • In Gleichung (19) bezeichnen ĤF,k und H F , k g e e i g n e t
    Figure DE102022106961A1_0042
    das k-te Eingabemerkmal und Ausgabe-Label, argmin bezieht sich auf das Argument des Mindestmaßes und die Gesamtanzahl an Abtastwerten zum Trainieren ist K. ƒθ(·) bezeichnet das neuronale Netzwerk mit trainierbaren Gewichtungen θ . F 2
    Figure DE102022106961A1_0043
    bezeichnet die Frobenius-Norm. θ̂̂ wird erhalten, nachdem das neuronale Netzwerk trainiert worden ist.
  • In dieser Ausführungsform wird der Rauschunterdrückungs-Autokodierer für weniger Eingaben innerhalb einer Einheit verwendet als in der mit Bezug auf 4 beschriebenen Ausführungsform, was zu der Verwendung eines kleineren und weiter vereinfachten neuronalen Netzwerks führen kann.
  • 9 stellt einen Prozess 900 für eine Kanalschätzungsverbesserung basierend auf einem neuronalen Netzwerk ohne eine Zeitinterpolationsschicht nach einer Ausführungsform dar. Während einer Inferenz, nachdem ĤF 905 durch den herkömmlichen Kanalschätzungsalgorithmus geschätzt worden ist, wird ĤF 905 dem neuronalen Netzwerk 910 zugeführt und die Ausgabe ist der optimierte Kanal ĤF 915, wie in 9 gezeigt. Der optimierte Kanal H ^ F '
    Figure DE102022106961A1_0044
    915 wird wie in Gleichung (20) unten gezeigt berechnet. H ^ F ' = f θ ^ ( H ^ F )
    Figure DE102022106961A1_0045
  • In Gleichung (20) beinhaltet H ^ F '
    Figure DE102022106961A1_0046
    denselben Satz an REs wie ĤF, d.h., alle REs innerhalb eines RB in der Frequenzdomäne, und REs, in denen das DMRS in der Zeitdomäne übertragen wird. Wie oben in 3 beschrieben, wird der verbesserte Kanal ĤTF für eine Zeit-Frequenz-Domäne letztendlich durch Anwenden der herkömmlichen Zeitinterpolation auf H ^ F '
    Figure DE102022106961A1_0047
    erhalten.
  • 10 stellt eine Netzwerkstruktur 1000 mit einer Zeitinterpolationsschicht nach einer Ausführungsform dar. Insbesondere enthält die oben in 9 beschriebene Netzwerkstruktur keine Zeitinterpolation; somit wird eine Zeitinterpolation angewandt, nachdem der verbesserte Kanal H ^ F '
    Figure DE102022106961A1_0048
    915 erhalten worden ist. Alternativ, wie in 10 dargestellt, wird die Zeitinterpolation in das neuronale Netzwerk 1010 in eine nicht trainierbare Schicht 1012 eingebaut.
  • Das heißt, das neuronale Netzwerk 1010 in 10 beinhaltet zwei Arten von verborgenen Schichten, d.h., trainierbare Schichten 1011 und eine nicht trainierbare Schicht 1012. Die trainierbaren Schichten 1011 sind identisch zu jenen in einem herkömmlichen neuronalen Netzwerk, während die nicht trainierbare Schicht 1012 die Zeitinterpolation durchführt. Die Gewichtungen für diese nicht trainierbare Schicht 1012 werden gemäß dem Zeitinterpolationsprozess im herkömmlichen Kanalschätzungsalgorithmus befestigt und während des Trainings nicht aktualisiert. In 10 ist die Eingabe in das neuronale Netzwerk 1010 die mit einer Frequenz interpolierte Kanalschätzungen ĤF 1005 aus dem herkömmlichen Kanalschätzungsalgorithmus, der Kanalschätzungen bei allen REs innerhalb eines RB in der Frequenzdomäne und REs, in denen das DMRS in der Zeitdomäne übertragen wird, enthält. Bezüglich der nicht trainierbaren Schicht 1012 sind die Ausgabe-Labels ein für eine Zeit-Frequenz-Domäne geeigneter Kanal H T F g e e i g n e t
    Figure DE102022106961A1_0049
    1015, der Kanalschätzungen bei allen REs innerhalb eines RB in der Frequenzdomäne und allen REs, in denen das DMRS oder Daten in der Zeitdomäne übertragen werden, enthält.
  • Die Kostenfunktion zum Trainieren des Netzwerks in 10 ist unten in Gleichung (21) gegeben. θ ^ = argamin θ 1 K Σ k = 1 K f θ , γ K ( H ^ F , k ) H T F , k g e e i g n e t F 2
    Figure DE102022106961A1_0050
  • In Gleichung (21) bezieht sich argmin auf das Argument des Mindestmaßes, ƒθ,γk (·) bezeichnet das neuronale Netzwerk mit trainierbaren Gewichtungen θ und nicht trainierbaren Gewichtungen γk. Zu beachten ist, dass sich die nicht trainierbaren Gewichtungen für unterschiedliche Trainingsdatenabtastwerte unterscheiden können, da diese Gewichtungen durch die Zeitinterpolationskoeffizienten aus dem herkömmlichen Kanalschätzungsalgorithmus für jeden spezifischen Trainingsdatenabtastwert bestimmt werden. Um das Netzwerk in 10 zu trainieren, sollte der Trainingsdatensatz somit die Eingabemerkmale, die Ausgabe-Labels und die Zeitinterpolationskoeffizienten, d.h., { H ^ F , k ' , H T F , k g e e i g n e t , γ k } ,
    Figure DE102022106961A1_0051
    enthalten.
  • Lediglich die trainierbaren Schichten werden während einer Inferenz angewandt, nachdem das neuronale Netzwerk trainiert worden ist, wie in Gleichung (22) unten gezeigt. H ^ F ' = f θ ^ ( H ^ F )
    Figure DE102022106961A1_0052
  • In Gleichung (22) bezeichnet θ̂ die trainierbaren Gewichtungen, die während des Netzwerktrainings erhalten werden.
  • Wie mit Bezug auf 10 beschrieben, wird das herkömmliche Zeitinterpolationsverfahren im Netzwerk absorbiert, jedoch mit einer Flag von nicht trainierbaren Gewichtungen. Die Trainingsphase wird in 10 beschrieben. Insbesondere, da 10 lediglich auf die Trainingsphase angewandt wird, nicht auf die Inferenzphase, wird eine Zeitinterpolation während der Trainingsphase in 10 reflektiert, die Trainingsausgabe wird jedoch in der Phase erzeugt, bevor die Zeitinterpolation angewandt wird.
  • 11 stellt einen Prozess 1100 für eine Kanalschätzungsverbesserung basierend auf einem neuronalen Netzwerk mit einer Zeitinterpolationsschicht nach einer Ausführungsform dar. Insbesondere wird in 11 die Inferenzphase beschrieben, während in 10 die Trainingsphase beschrieben wird. Diese zwei Phasen richten sich an eine Optimierung aller PDSCHs in einer Einheit.
  • Die Eingabe in das neuronale Netzwerk 1110 in 11 ist die mit einer Frequenz interpolierten Kanalschätzungen ĤF 1105 aus dem herkömmlichen Kanalschätzungsalgorithmus. Nachdem der verbesserte Kanal H ^ F '
    Figure DE102022106961A1_0053
    1115 in Gleichung (6) berechnet worden ist, wird die Zeitinterpolation angewandt, um zum Zeit-Frequenz-Domänen-Endkanal H ^ T F '
    Figure DE102022106961A1_0054
    zu gelangen.
  • 12 stellt eine Struktur 1200 einer DMRS-basierten Kanalschätzung mit einem Aufmerksamkeitslernen nach einer Ausführungsform dar.
  • In 12 wird ein Aufmerksamkeitslernen mit Gewichtungen einer Doppler-Schätzung kombiniert. Die normalisierte Doppler-Verbreitungsschätzung wird durch das Aufmerksamkeitslernen in das neuronale Netzwerk eingebaut, wodurch ein Supernetzwerk x 1200 erreicht wird.
  • Das Supernetzwerk x 1200 enthält ein Primär-MLP-Netzwerk (MLPA) und ein Sekundär-MLP-Netzwerk (MLPB), wobei MLPA mehrere Kandidatenknoten Nin- 1(1201'), Nhid - 1 (1201") für die mit einer Frequenzdomäne interpolierten optimierten Kanäle ausgibt. Diese Kandidatenknoten 1201', 12021" werden dann mit Aufmerksamkeitsmessdaten basierend auf Knoten Nhid,B 1202', die aus dem MLPB ausgegeben werden, gewichtet, was zu gewichteten Vektoren 1203, 1204 und 1205 führt, die summiert 1206 werden, um zu den Ausgabeknoten Nout 1207 und der Endnetzwerkausgabe ŷ 1208 zu gelangen.
  • Insbesondere enthält das in 12 gezeigte Netzwerk eine Eingabeschicht, eine verborgene Schicht und eine Ausgabeschicht an Dimensionen Nin, Nhid und Nout. W1 ∈ ℝNhid×Nin wird zum Bezeichnen der Gewichtungen der ersten Schicht verwendet, d.h. der Gewichtungen, welche die Verbindungen zwischen der Eingabe Nin und den verborgenen Nhid Schichten darstellen. Die Gewichtungen der zweiten Schicht, welche die Verbindungen zwischen den verborgenen Nhid und den Ausgabe-Nout-Schichten darstellen, werden durch W2 ∈ ℝNhid×Nin bezeichnet. Darüber hinaus werden b1 und b2 zum Bezeichnen der Vorspannung an den verborgenen Nhid und den Ausgabe-Nout-Schichten verwendet. Die Eingabe in jeden beliebigen Knoten im Netzwerk wird hierin als eine Aktivierung bezeichnet. Diese Aktivierungen durchlaufen eine Aktivierungsfunktion, bevor sie an die nächste Schicht geschickt werden. Act1(·) und Act2(·) sollen die Aktivierungsfunktionen an den verborgenen Nhid und den Ausgabe-Nout-Schichten bezeichnen. Wenn ein Nin × 1-Vektor x als eine Eingabe in das Netzwerk angewandt wird, ist die Ausgabe des Netzwerks durch Gleichung (23) unten gegeben. y = Act 2 ( W 2 Act 1 ( W 1 x + b 1 ) + b 2 )
    Figure DE102022106961A1_0055
  • Die Berechnung zum Finden von y aus x ist Nhid(Nin + 1) + Nout(Nhid + 1), hauptsächlich aufgrund von Matrixmultiplikationen an der ersten und der zweiten Schicht.
  • Eine Rectified-Linear(ReLU)-Aktivierungsfunktion wird für Act1(-) verwendet, d.h., Act1(x) = max (x, 0). Eine Kanalschätzung und Kanalkoeffizienten können sowohl positive als auch negative Werte aufnehmen, die lineare Aktivierung Act2(x) = x wird als die Ausgabeschicht verwendet. Die Gewichtungen und Vorspannungen dieses Zweischichtnetzwerks sind in einem Parametervektor gestapelt, wie in Gleichung (24) unten. p = ( vec ( W 1 ) ; b 1 ; vec ( W 2 ) ; b 2 )
    Figure DE102022106961A1_0056
  • Gleichung (23) kann in kompakter Form durch y = MLPp(x) ausgedrückt werden. De Gewichtungen des MLP-Netzwerks werden unter Verwendung eines Rückwärtspropagierungsalgorithmus trainiert, um den Verlust zwischen dem vorhergesagten Kanal und dem geeigneten Kanal zu minimieren.
  • Die oben beschriebenen Aspekte der Offenbarung können in anderen Situationen, wie sie in Tabelle 1 unten dargelegt sind, umgesetzt werden. Tabelle 1
    Element Kann das Element generalisiert werden? Spezifische Umsetzung Andere Optionen
    Eingabemerkmal Ja (teilweise) Die Eingabemerkmale sind entweder ĤTF oder ĤF und enthalten alle REs In der Frequenzdomäne kann jede beliebige Anzahl an REs innerhalb einer PRG verwendet wer-
    innerhalb eines RB in der Frequenzdomäne den. Zum Beispiel können die Eingabemerkmale alle REs innerhalb einer PRG sein.
    neuronale Netzwerkstruktur Ja MLP Bezüglich des Netzwerktyps kann ein anderes Netzwerk als ein MLP-Netzwerk angewandt werden, z.B. ein konvolutionäres neuronales Netzwerk. Bezüglich der Netzwerkarchitektur kann eine unterschiedliche Anzahl an verborgenen Schichten und Knoten innerhalb einer jeden verborgenen Schicht angewandt werden
  • 13 ist ein Blockdiagramm einer elektronischen Vorrichtung in einer Netzwerkumgebung 1300 nach einer Ausführungsform. Bezugnehmend auf 13 kann eine elektronische Vorrichtung 1301 in einer Netzwerkumgebung 1300 mittels eines ersten Netzwerks 1398 (z.B. einem drahtlosen Kommunikationsnetzwerk mit kurzer Reichweite) mit einer elektronischen Vorrichtung 1302 kommunizieren oder mittels eines zweiten Netzwerks 1399 (z.B. einem weiträumigen drahtlosen Kommunikationsnetzwerk) mit einer elektronischen Vorrichtung 1304 oder einem Server 1308 kommunizieren. Die elektronische Vorrichtung 1301 kann mittels des Servers 1308 mit der elektronischen Vorrichtung 1304 kommunizieren. Die elektronische Vorrichtung 1301 kann enthalten: einen Prozessor 1320, einen Speicher 1330, eine Eingabevorrichtung 1340, eine Tonausgabevorrichtung 1355, eine Anzeigevorrichtung 1360, ein Audiomodul 1370, ein Sensormodul 1376, eine Schnittstelle 1377, ein haptisches Modul 1379, ein Kameramodul 1380, ein Leistungsverwaltungsmodul 1388, eine Batterie 1389, ein Kommunikationsmodul 1390, eine Teilnehmeridentifikationsmodul(SIM)-Karte 1396 oder ein Antennenmodul 1394. In einer Ausführungsform kann mindestens eine (z.B. die Anzeigevorrichtung 1360 oder das Kameramodul 1380) der Komponenten aus der elektronischen Vorrichtung 1301 weggelassen werden oder eine oder mehrere andere Komponenten können zu der elektronischen Vorrichtung 1301 hinzugefügt werden. Einige der Komponenten können als eine einzelne integrierte Schaltung (IC) umgesetzt sein. Zum Beispiel kann das Sensormodul 1376 (z.B. ein Fingerabdrucksensor, ein Irissensor oder ein Beleuchtungsstärkensensor) in der Anzeigevorrichtung 1360 (z.B. einer Anzeige) eingebettet sein.
  • Der Prozessor 1320 kann zum Beispiel eine Software (z.B. ein Programm 1340) ausführen, um mindestens eine andere Komponente (z.B. eine Hardware- oder Softwarekomponente) der elektronischen Vorrichtung 1301, die mit dem Prozessor 1320 gekoppelt ist, zu steuern, und kann verschiedene Datenverarbeitungen oder Berechnungen durchführen. Als mindestens ein Teil der Datenverarbeitung oder Berechnungen kann der Prozessor 1320 einen Befehl oder Daten, die von einer anderen Komponente (z.B. dem Sensormodul 1346 oder dem Kommunikationsmodul 1390) empfangen werden, in einen flüchtigen Speicher 1332 laden, den Befehl oder die Daten, die im flüchtigen Speicher 1332 gespeichert sind, verarbeiten und die daraus resultierenden Daten in einem nichtflüchtigen Speicher 1334 speichern. Der Prozessor 1320 kann einen Hauptprozessor 1321 (z.B. eine zentrale Verarbeitungseinheit (CPU) oder einen Anwendungsprozessor (AP)), und einen Hilfsprozessor 1323 (z.B. eine Grafikverarbeitungseinheit (GPU), einen Bildsignalprozessor (ISP), einen Sensor-Hub-Prozessor oder einen Kommunikationsprozessor (CP)), der unabhängig von oder in Verbindung mit dem Hauptprozessor 1321 betrieben werden kann, enthalten. Zusätzlich oder alternativ kann der Hilfsprozessor 1323 derart adaptiert sein, dass er weniger Leistung verbraucht als der Hauptprozessor 1321 oder eine bestimmte Funktion ausführt. Der Hilfsprozessor 1323 kann getrennt vom Hauptprozessor 1321 oder als ein Teil von jenem umgesetzt sein.
  • Der Hilfsprozessor 1323 kann mindestens einige der Funktionen oder Zustände im Zusammenhang mit mindestens einer Komponente (z.B. der Anzeigevorrichtung 1360, dem Sensormodul 1376 oder dem Kommunikationsmodul 1390) unter den Komponenten der elektronischen Vorrichtung 1301 anstelle des Hauptprozessors 1321 steuern, während der Hauptprozessor 1321 in einem inaktiven (z.B. einem Ruhe-) Zustand ist, oder zusammen mit dem Hauptprozessor 1321 steuern, während der Hauptprozessor 1321 in einem aktiven Zustand ist (z.B. eine Anwendung ausführt). Der Hilfsprozessor 1323 (z.B. ein Bildsignalprozessor oder ein Kommunikationsprozessor) kann als ein Teil einer weiteren Komponente (z.B. des Kameramoduls 1380 oder des Kommunikationsmoduls 1390), das mit dem Hilfsprozessor 1323 in funktionellem Zusammenhang ist, umgesetzt sein.
  • Der Speicher 1330 kann verschiedene Daten speichern, die von mindestens einer Komponente (z.B. dem Prozessor 1320 oder dem Sensormodul 1376) der elektronischen Vorrichtung 1301 verwendet werden. Die verschiedenen Daten können zum Beispiel eine Software (z.B. das Programm 1340) und Eingabedaten oder Ausgabedaten für einen diesbezüglichen Befehl enthalten. Der Speicher 1330 kann den flüchtigen Speicher 1332 oder den nichtflüchtigen Speicher 1334 enthalten.
  • Das Programm 1340 kann als Software im Speicher 1330 gespeichert sein und kann zum Beispiel ein Betriebssystem (OS) 1342, eine Middleware 1344 oder eine Anwendung 1346 enthalten.
  • Die Eingabevorrichtung 1350 kann einen Befehl oder Daten, die von einer anderen Komponente (z.B. dem Prozessor 1320) der elektronischen Vorrichtung 1301 verwendet werden sollen, von der Außenseite (z.B. einem Nutzer) der elektronischen Vorrichtung 501 empfangen. Die Eingabevorrichtung 1350 kann zum Beispiel ein Mikrofon, eine Maus oder eine Tastatur enthalten.
  • Die Tonausgabevorrichtung 1355 kann Tonsignale an die Außenseite der elektronischen Vorrichtung 1301 ausgeben. Die Tonausgabevorrichtung 1355 kann zum Beispiel einen Lautsprecher oder einen Empfänger enthalten. Der Lautsprecher kann für allgemeine Zwecke verwendet werden, wie Abspielen von Multimedia oder Aufnehmen, und der Empfänger kann zum Empfangen eines eingehenden Anrufs verwendet werden.
  • Der Empfänger kann getrennt vom Lautsprecher oder als ein Teil von jenem umgesetzt sein.
  • Die Anzeigevorrichtung 1360 kann Informationen visuell an die Außenseite (z.B. einen Nutzer) der elektronischen Vorrichtung 1301 übermitteln. Die Anzeigevorrichtung 1360 kann zum Beispiel eine Anzeige, eine Hologrammvorrichtung oder einen Projektor und einen Steuerschaltkreis zum Steuern eines entsprechenden einen der Anzeige, der Hologrammvorrichtung und des Projektors enthalten. Die Anzeigevorrichtung 1360 kann einen Berührungsschaltkreis, der zum Erfassen einer Berührung adaptiert ist, oder einen Erfassungsschaltkreis (z.B. einen Drucksensor), der zum Messen der Intensität einer Kraft, welche durch die Berührung verursacht wird, adaptiert ist, enthalten.
  • Das Audiomodul 1370 kann einen Ton in ein elektrisches Signal umwandeln und umgekehrt. Das Audiomodul 1370 kann den Ton mittels der Eingabevorrichtung 1350 erhalten oder den Ton mittels der Tonausgabevorrichtung 1355 oder eines Kopfhörers einer externen elektronischen Vorrichtung 1302, die mit der elektronischen Vorrichtung 1301 direkt (z.B. verdrahtet) oder drahtlos gekoppelt ist, ausgeben.
  • Das Sensormodul 1376 kann einen Betriebszustand (z.B. eine Leistung oder Temperatur) der elektronischen Vorrichtung 1301 oder einen Umgebungszustand (z.B. einen Zustand eines Nutzers) extern zu der elektronischen Vorrichtung 1301 erfassen und dann ein elektrisches Signal oder einen Datenwert, die dem erfassten Zustand entsprechen, erzeugen. Das Sensormodul 1376 kann zum Beispiel enthalten: einen Bewegungssensor, einen Gyrosensor, einen Sensor für atmosphärischen Druck, einen Magnetsensor, einen Beschleunigungssensor, einen Griffsensor, einen Annäherungssensor, einen Farbsensor, einen Infrarot(IR)-Sensor, einen biometrischen Sensor, einen Temperatursensor, einen Feuchtigkeitssensor oder einen Beleuchtungsstärkensensor.
  • Die Schnittstelle 1377 kann ein oder mehrere spezifizierte Protokolle unterstützen, welche für die elektronische Vorrichtung 1301 verwendet werden sollen, die direkt (z.B. verdrahtet) oder drahtlos mit der externen elektronischen Vorrichtung 1302 gekoppelt werden soll. Die Schnittstelle 1377 kann zum Beispiel enthalten: eine High-Definition Multimedia Interface (HDMI), eine Universal Serial Bus (USB) Interface, eine Secure Digital (SD) Card Interface oder eine Audioschnittstelle.
  • Ein Verbindungsanschluss 1378 kann einen Verbinder enthalten, mittels dem die elektronische Vorrichtung 1301 mit der externen elektronischen Vorrichtung 1302 physisch verbunden sein kann. Der Verbindungsanschluss 1378 kann zum Beispiel enthalten: einen HDMI-Verbinder, einen USB-Verbinder, einen SD-Karten-Verbinder oder einen Audioverbinder (z.B. einen Kopfhörerverbinder).
  • Das haptische Modul 1379 kann ein elektrisches Signal in einen mechanischen Reiz (z.B. eine Vibration oder eine Bewegung) oder einen elektrischen Reiz umwandeln, der von einem Nutzer mittels Haptik oder kinästhetischer Empfindung erkannt werden kann. Das haptische Modul 1379 kann zum Beispiel einen Motor, ein piezoelektrisches Element oder einen elektrischen Stimulator enthalten.
  • Das Kameramodul 1380 kann ein Standbild oder Bewegtbilder aufnehmen. Das Kameramodul 1380 kann eine oder mehrere Linsen, Bildsensoren, Bildsignalprozessoren oder Blitzgeräte enthalten.
  • Das Leistungsverwaltungsmodul 1388 kann eine der elektronischen Vorrichtung 1301 zugeführte Leistung verwalten. Das Leistungsverwaltungsmodul 1388 kann als mindestens ein Teil von zum Beispiel einer integrierten Leistungsverwaltungsschaltung (PMIC) umgesetzt sein.
  • Die Batterie 1389 kann Leistung an mindestens eine Komponente der elektronischen Vorrichtung 1301 zuführen. Die Batterie 1389 kann zum Beispiel eine Primärzelle, die nicht wiederaufladbar ist, eine Sekundärzelle, die wiederaufladbar ist, oder eine Brennstoffzelle enthalten.
  • Das Kommunikationsmodul 1390 kann ein Herstellen eines direkten (z.B. verdrahteten) Kommunikationskanals oder eines drahtlosen Kommunikationskanals zwischen der elektronischen Vorrichtung 1301 und der externen elektronischen Vorrichtung (z.B. der elektronischen Vorrichtung 1302, der elektronischen Vorrichtung 1304 oder dem Server 1308) und ein Durchführen einer Kommunikation mittels des hergestellten Kommunikationskanals unterstützen. Das Kommunikationsmodul 1390 kann einen oder mehrere Kommunikationsprozessoren enthalten, die unabhängig vom Prozessor 1320 (z.B. dem AP) betrieben werden können, und unterstützt eine direkte (z.B. verdrahtete) Kommunikation oder eine drahtlose Kommunikation. Das Kommunikationsmodul 1390 kann ein drahtloses Kommunikationsmodul 1392 (z.B. ein Mobilfunkkommunikationsmodul, ein drahtloses Kommunikationsmodul mit kurzer Reichweite oder ein Global-Navigation-Satellite-System(GNSS)-Kommunikationsmodul) oder ein verdrahtetes Kommunikationsmodul 1394 (z.B. ein Lokalnetzwerks(LAN)-Kommunikationsmodul ein Leistungsleitungskommunikations(PLC)-Modul) enthalten. Ein entsprechendes eines dieser Kommunikationsmodule kann mit der externen elektronischen Vorrichtung mittels des ersten Netzwerks 1398 (z.B. einem Kommunikationsnetzwerk mit kurzer Reichweite, wie Bluetooth™, Wireless-Fidelity (Wi-Fi) Direct oder einem Standard der Infrared Data Association (IrDA)) oder des zweiten Netzwerks 1399 (z.B. einem weiträumigen Kommunikationsnetzwerk, wie einem Mobilfunknetzwerk, dem Internet oder einem Computernetzwerk (z.B. LAN oder Wide Area Network (WAN)) kommunizieren. Diese verschiedenen Typen von Kommunikationsmodulen können als eine einzelne Komponente (z.B. eine einzelne IC) umgesetzt sein oder können als mehrere Komponenten (z.B. mehrere ICs), die voneinander getrennt sind, umgesetzt sein. Das drahtlose Kommunikationsmodul 1392 kann die elektronische Vorrichtung 1301 in einem Kommunikationsnetzwerk, wie dem ersten Netzwerk 1398 oder dem zweiten Netzwerk 1399, unter Verwendung von im Teilnehmeridentifikationsmodul 1396 gespeicherten Teilnehmerinformationen (z.B. International Mobile Subscriber Identity (IMSI)) identifizieren und authentifizieren.
  • Das Antennenmodul 1397 kann ein Signal oder eine Leistung an die Außenseite (z.B. die externe elektronische Vorrichtung) der elektronischen Vorrichtung 701 senden oder von dort empfangen. Das Antennenmodul 1397 kann eine oder mehrere Antennen enthalten und daraus kann mindestens eine Antenne, die für ein im Kommunikationsnetzwerk, wie dem ersten Netzwerk 1398 oder dem zweiten Netzwerk 1399, verwendetes Kommunikationsverfahren geeignet ist, zum Beispiel durch das Kommunikationsmodul 1390 (z.B. dem drahtlosen Kommunikationsmodul 1392) ausgewählt werden. Das Signal oder die Leistung kann dann mittels der ausgewählten mindestens einen Antenne zwischen dem Kommunikationsmodul 1390 und der externen elektronischen Vorrichtung gesendet oder empfangen werden.
  • 14 stellt einen Rauschunterdrückungs-Autokodierer 1400 dar, auf den die Offenbarung angewandt wird. Insbesondere ist die Struktur des Rauschunterdrückungs-Autokodierers 1400, der eine fehlerhafte Eingabe 1401, eine verborgene Schicht 1402 und eine Ausgabeschicht 1403 enthält, im Stand der Technik bekannt, sodass eine weitere Beschreibung davon der Kürze halber hierin weggelassen ist.
  • Mindestens einige der oben beschriebenen Komponenten können miteinander gekoppelt sein und Signale (z.B. Befehle oder Daten) mittels eines interperipheren Kommunikationsverfahrens (z.B. einem Bus, einer Allzweckeingabe und -ausgabe (GPIO), einer Serial Peripheral Interface (SPI) oder einer Mobile Industry Processor Interface (MIPI)) dazwischen kommunizieren.
  • Befehle oder Daten können mittels des mit dem zweiten Netzwerk 1399 gekoppelten Servers 1308 zwischen der elektronischen Vorrichtung 1301 und der externen elektronischen Vorrichtung 1304 gesendet oder empfangen werden. Jede der elektronischen Vorrichtungen 1302 und 1304 kann eine Vorrichtung eines selben Typs wie die elektronische Vorrichtung 1301 oder ein anderer Typ sein. Alle oder einige von Operationen, die in der elektronischen Vorrichtung 1301 ausgeführt werden sollen, können in einer oder mehreren der externen elektronischen Vorrichtung 1302, 1304 oder 1308 ausgeführt werden. Wenn zum Beispiel die elektronische Vorrichtung 1301 eine Funktion oder eine Dienstleistung automatisch oder als Reaktion auf eine Anforderung von einem Nutzer oder einer weiteren Vorrichtung durchführen soll, kann die elektronische Vorrichtung 1301 anstatt, oder zusätzlich zu, der Ausführung der Funktion oder der Dienstleistung anfordern, dass die eine oder die mehreren externen elektronischen Vorrichtungen mindestens einen Teil der Funktion oder der Dienstleitung ausführen. Die eine oder die mehreren externen elektronischen Vorrichtungen, welche die Anforderung empfangen, können den mindestens einen Teil der angeforderten Funktion oder der angeforderten Dienstleistung oder eine zusätzliche Funktion oder eine zusätzliche Dienstleistung im Zusammenhang mit der Anforderung durchführen und ein Ergebnis der Durchführung an die elektronische Vorrichtung 1301 übertragen. Die elektronische Vorrichtung 1301 kann das Ergebnis, mit oder ohne weiterer Verarbeitung des Ergebnisses, als mindestens einen Teil einer Antwort auf die Anforderung bereitstellen. Zu diesem Zweck kann zum Beispiel eine Technologie für eine Cloud-Berechnung, eine verteilte Berechnung oder eine Client-Server-Berechnung verwendet werden.
  • Obwohl die vorliegende Offenbarung mit Bezug auf bestimmte Ausführungsformen beschrieben worden ist, können verschiedene Änderungen darin vorgenommen werden, ohne dabei vom Geist und Umfang der Offenbarung abzuweichen, die nicht durch die detaillierte Beschreibung und Ausführungsformen definiert wird, sondern durch die nachfolgenden Ansprüche und deren Äquivalente.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 63/174302 [0001]

Claims (15)

  1. Elektronische Vorrichtung, aufweisend: mindestens einen Prozessor; und mindestens einen Speicher, der mit dem mindestens einen Prozessor operativ verbunden ist, wobei der mindestens eine Speicher Anweisungen speichert, die, wenn sie ausgeführt werden, den mindestens einen Prozessor anweisen: eine Frequenzinterpolation an einer Kanalschätzung bei allen Ressourcenelementen (REs) durchzuführen, die sich dort befinden, wo ein Demodulationsbezugssignal (DMRS) übertragen wird; eine Zeitinterpolation an einem mit einer Frequenzdomäne interpolierten Kanal durchzuführen, welcher aus der Frequenzinterpolation erhalten wird; und eine verbesserte Kanalschätzung basierend auf Kanalschätzungen bei REs in einer Frequenzdomäne und REs einer Zeitdomäne zu berechnen, wobei die Kanalschätzungen aus der Zeitinterpolation ausgegeben werden.
  2. Elektronische Vorrichtung nach Anspruch 1, wobei die Berechnung der verbesserten Kanalschätzung ferner auf allen der REs innerhalb eines Ressourcenblocks in der Frequenzdomäne und allen der REs, in denen entweder das DMRS oder Daten übertragen werden, in der Zeitdomäne basiert.
  3. Elektronische Vorrichtung, aufweisend: mindestens einen Prozessor; und mindestens einen Speicher, der mit dem mindestens einen Prozessor operativ verbunden ist, wobei der mindestens eine Speicher Anweisungen speichert, die, wenn sie ausgeführt werden, den mindestens einen Prozessor anweisen: eine Frequenzinterpolation an einer Kanalschätzung bei allen Ressourcenelementen (REs) durchzuführen, die sich dort befinden, wo ein Demodulationsbezugssignal (DMRS) übertragen wird; eine verbesserte Kanalschätzung basierend auf einem mit einer Frequenzdomäne interpolierten Kanal zu berechnen, welcher aus der Frequenzinterpolation erhalten wird; und eine Zeitinterpolation an der verbesserten Kanalschätzung durchzuführen.
  4. Elektronische Vorrichtung nach Anspruch 3, wobei die Berechnung der verbesserten Kanalschätzung ferner auf allen der REs innerhalb eines Ressourcenblocks in der Frequenzdomäne und allen der REs, in denen entweder das DMRS oder Daten übertragen werden, in der Zeitdomäne basiert.
  5. Elektronische Vorrichtung, aufweisend: mindestens einen Prozessor; und mindestens einen Speicher, der mit dem mindestens einen Prozessor operativ verbunden ist, wobei der mindestens eine Speicher Anweisungen speichert, die, wenn sie ausgeführt werden, den mindestens einen Prozessor anweisen: eine Frequenzinterpolation an einer Kanalschätzung bei allen Ressourcenelementen (REs) durchzuführen, die sich dort befinden, wo ein Demodulationsbezugssignal (DMRS) übertragen wird; eine Zeitinterpolation an einem mit einer Frequenzdomäne interpolierten Kanal durchzuführen, welcher aus der Frequenzinterpolation erhalten wird; ein Trainieren eines neuronalen Netzwerks basierend auf Kanalschätzungen bei REs in einer Frequenzdomäne und REs in einer Zeitdomäne als eine Eingabe aus der Zeitinterpolation durchzuführen; und einen für eine Zeit- und Frequenzdomäne geeigneten Kanal basierend auf dem Trainieren des neuronalen Netzwerks auszugeben.
  6. Elektronische Vorrichtung nach Anspruch 5, ferner aufweisend: einen rauschunterdrückenden Autokodierer, der konfiguriert ist, alle Zeit- und Frequenz-REs in jedem Ressourcenblock oder -bündel zu optimieren.
  7. Elektronische Vorrichtung, aufweisend: mindestens einen Prozessor; und mindestens einen Speicher, der mit dem mindestens einen Prozessor operativ verbunden ist, wobei der mindestens eine Speicher Anweisungen speichert, die, wenn sie ausgeführt werden, den mindestens einen Prozessor anweisen: eine Frequenzinterpolation an einer Kanalschätzung bei allen Ressourcenelementen (REs) durchzuführen, die sich dort befinden, wo ein Demodulationsbezugssignal (DMRS) übertragen wird; Kanalschätzungen durch Durchführen einer Zeitinterpolation an einem mit einer Frequenzdomäne interpolierten Kanal, welcher aus der Frequenzinterpolation erhalten wird, zu erhalten; die Kanalschätzungen durch Anwenden einer zweidimensionalen diskreten Fouriertransformation und diskreten inversen Fouriertransformation (2D-DFT-IDFT) auf die Kanalschätzungen bei REs in einer Frequenzdomäne und REs in einer Zeitdomäne in eine Doppler-Verzögerungsdomäne zu transformieren; die in die Doppler-Verzögerungsdomäne umgewandelten Kanalschätzungen in ein neuronales Netzwerk einzugeben; die 2D-DFT-IDFT auf einen für eine Zeit- und Frequenzdomäne geeigneten Kanal anzuwenden; und einen geeigneten Doppler-Verzögerungsdomänenkanal durch Anwenden einer Ausgabe der 2D-DFT-IDFT, die auf den für eine Zeit- und Frequenzdomäne geeigneten Kanal angewandt wird, auf vom neuronalen Netzwerk ausgegebene optimierte Kanalschätzungen zu berechnen.
  8. Elektronische Vorrichtung nach Anspruch 7, wobei sich die in die Doppler-Verzögerungsdomäne umgewandelten Kanalschätzungen bei allen der REs innerhalb eines Ressourcenblocks in der Frequenzdomäne und allen der REs, in denen entweder das DMRS oder Daten übertragen werden, in der Zeitdomäne befinden.
  9. Elektronische Vorrichtung, aufweisend: mindestens einen Prozessor; und mindestens einen Speicher, der mit dem mindestens einen Prozessor operativ verbunden ist, wobei der mindestens eine Speicher Anweisungen speichert, die, wenn sie ausgeführt werden, den mindestens einen Prozessor anweisen: eine Frequenzinterpolation an einer Kanalschätzung bei allen Ressourcenelementen (REs) durchzuführen, die sich dort befinden, wo ein Demodulationsbezugssignal (DMRS) übertragen wird; Kanalschätzungen durch Durchführen einer Zeitinterpolation an einem mit einer Frequenzdomäne interpolierten Kanal, welcher aus der Frequenzinterpolation erhalten wird, zu erhalten; die Kanalschätzungen durch Anwenden einer zweidimensionalen diskreten Fouriertransformation und inversen diskreten Fouriertransformation (2D-DFT-IDFT) auf die Kanalschätzungen bei REs in einer Frequenzdomäne und REs in einer Zeitdomäne in eine Doppler-Verzögerungsdomäne zu transformieren; die in die Doppler-Verzögerungsdomäne transformierten Kanalschätzungen in ein neuronales Netzwerk einzugeben; eine zweidimensionale diskrete Fouriertransformation und inverse diskrete Fouriertransformation (2D-IDFT-DFT) auf die vom neuronalen Netzwerk ausgegebenen optimierten Kanalschätzungen anzuwenden; und eine verbesserte Kanalschätzung basierend auf einer Ausgabe der 2D-IDFT-DFT zu erhalten.
  10. Elektronische Vorrichtung nach Anspruch 9, wobei die Ausgabe der 2D-IDFT-DFT eine Transformation der optimierten Kanalschätzungen von der Doppler-Verzögerungsdomäne zu einer Zeit- und Frequenzdomäne ist.
  11. Elektronische Vorrichtung nach Anspruch 9, wobei das neuronale Netzwerk bei der Doppler-Verzögerungsdomäne trainiert wird.
  12. Elektronische Vorrichtung, aufweisend: mindestens einen Prozessor; und mindestens einen Speicher, der mit dem mindestens einen Prozessor operativ verbunden ist, wobei der mindestens eine Speicher Anweisungen speichert, die, wenn sie ausgeführt werden, den mindestens einen Prozessor anweisen: Kandidatenknoten eines Primärnetzwerks und eines Sekundärnetzwerks zu erhalten; eine Gewichtung an den Kandidatenknoten des Primärnetzwerks und des Sekundärnetzwerks durchzuführen; die gewichteten Knoten auszugeben, um zu gewichteten Vektoren zu gelangen; die gewichteten Vektoren durch Durchführen einer Summierungsoperation zu summieren; und ein Endnetzwerk zu erhalten, das basierend auf Ausgabeknoten aus der Summierungsoperation ausgegeben wird.
  13. Elektronische Vorrichtung nach Anspruch 12, wobei die Kandidatenknoten Eingabeknoten und versteckte Knoten enthalten.
  14. Elektronische Vorrichtung nach Anspruch 12, wobei die Kandidatenknoten mit einer Aufmerksamkeitsmetrik gewichtet werden.
  15. Elektronische Vorrichtung nach Anspruch 12, wobei das Primär- und Sekundärnetzwerk neuronale Mehrschicht-Perzeptron-Netzwerke sind.
DE102022106961.3A 2021-04-13 2022-03-24 Verbesserung einer Kanalschätzung in einer drahtlosen Kommunikation basierend auf überwachtem Lernen Pending DE102022106961A1 (de)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US202163174302P 2021-04-13 2021-04-13
US63/174,302 2021-04-13
US17/694,129 US20220337455A1 (en) 2021-04-13 2022-03-14 Enhancement of channel estimation in wireless communication based on supervised learning
US17/694,129 2022-03-14

Publications (1)

Publication Number Publication Date
DE102022106961A1 true DE102022106961A1 (de) 2022-10-13

Family

ID=83362019

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022106961.3A Pending DE102022106961A1 (de) 2021-04-13 2022-03-24 Verbesserung einer Kanalschätzung in einer drahtlosen Kommunikation basierend auf überwachtem Lernen

Country Status (5)

Country Link
US (1) US20220337455A1 (de)
KR (1) KR20220141750A (de)
CN (1) CN115208720A (de)
DE (1) DE102022106961A1 (de)
TW (1) TW202241080A (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116016064A (zh) * 2023-01-12 2023-04-25 西安电子科技大学 基于u型卷积去噪自编码器的通信信号降噪方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FI20206314A1 (fi) * 2020-12-16 2022-06-17 Nokia Technologies Oy Viivehajonnan ja doppler-hajonnan arviointi

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116016064A (zh) * 2023-01-12 2023-04-25 西安电子科技大学 基于u型卷积去噪自编码器的通信信号降噪方法

Also Published As

Publication number Publication date
KR20220141750A (ko) 2022-10-20
TW202241080A (zh) 2022-10-16
US20220337455A1 (en) 2022-10-20
CN115208720A (zh) 2022-10-18

Similar Documents

Publication Publication Date Title
US10402469B2 (en) Systems and methods of distributed optimization
US20190019311A1 (en) Fully convolutional color constancy with confidence weighted pooling
US20190385019A1 (en) Systems and Methods for Conditional Generative Models
DE102019100292A1 (de) Neuronalnetz-Verarbeitungseinheit mit Approximationsmultiplizierer und System-on-Chip mit einer solchen Einheit
DE102016014798A1 (de) Genaues Vorhersagen einer Etikettrelevanz bei einer Bildabfrage
CN108197669B (zh) 卷积神经网络的特征训练方法及装置
CN110765882B (zh) 一种视频标签确定方法、装置、服务器及存储介质
CN110705625A (zh) 一种图像处理方法、装置、电子设备及存储介质
CN114359738A (zh) 一种跨场景鲁棒的室内人数无线检测方法及系统
DE102022121649A1 (de) Schnelles Neutraining von vollständig fusionierten neuronalen Transceiver-Komponenten
DE112020003050T5 (de) Fehlerkompensation in analogen neuronalen netzen
DE102021117005A1 (de) Verfahren und Einrichtung für föderales Lernen
DE102022106961A1 (de) Verbesserung einer Kanalschätzung in einer drahtlosen Kommunikation basierend auf überwachtem Lernen
CN110276243A (zh) 分数映射方法、人脸比对方法、装置、设备及存储介质
CN113890795B (zh) 大规模mimo信道估计模型的构建方法、装置及介质
US20220222578A1 (en) Method of training local model of federated learning framework by implementing classification of training data
DE102022114631A1 (de) System und Verfahren für unüberwachtes Lernen von Segmentierungsaufgaben
US20210326757A1 (en) Federated Learning with Only Positive Labels
DE102022101283A1 (de) Systeme, Verfahren und Vorrichtung für eine auf maschinellem Lernen basierte Symboltiming-Wiederherstellung
CN109359542A (zh) 基于神经网络的车辆损伤级别的确定方法及终端设备
KR102240882B1 (ko) 분류기 생성 장치, 방법 및 이에 의해 생성되는 분류 장치
CN115457365B (zh) 一种模型的解释方法、装置、电子设备及存储介质
CN113838104B (zh) 基于多光谱与多模态图像一致性增强网络的配准方法
DE102022111926A1 (de) Verfahren und Vorrichtung für eine tiefengestützte visuelle Trägheitsodometrie
DE102021111261A1 (de) Verfahren für optimalen Precoder und Einrichtung mit gleichförmiger Leistungszuweisung

Legal Events

Date Code Title Description
R012 Request for examination validly filed